JP2015088914A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2015088914A
JP2015088914A JP2013225756A JP2013225756A JP2015088914A JP 2015088914 A JP2015088914 A JP 2015088914A JP 2013225756 A JP2013225756 A JP 2013225756A JP 2013225756 A JP2013225756 A JP 2013225756A JP 2015088914 A JP2015088914 A JP 2015088914A
Authority
JP
Japan
Prior art keywords
noise
fixed pattern
image
characteristic
pattern noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013225756A
Other languages
Japanese (ja)
Inventor
剛範 大野
Takenori Ono
剛範 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013225756A priority Critical patent/JP2015088914A/en
Publication of JP2015088914A publication Critical patent/JP2015088914A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a dynamic image in which fixed pattern noise is hardly perceived.SOLUTION: Noise dispersion is derived on the basis of an exposure condition at image capture time, a noise image is generated in which white noise corresponding to the noise dispersion is superposed on fixed pattern noise. Information about a spatial frequency having sensitivity to the moving speed of a subject in human visual perception is extracted from each of the fixed pattern noise map and the noise image, and the fixed pattern noise map and the noise image are divided for each of a plurality of spatial frequency bands. The noise image divided for each of the plurality of spatial frequency bands is masked on the basis of the fixed pattern noise map divided for each of the plurality of spatial frequency bands and synthesized, then the amount of fixed pattern noise perception is calculated.

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関し、特に、画像の固定パターンノイズを低減するために用いて好適なものである。   The present invention relates to an image processing apparatus, an image processing method, and a program, and is particularly suitable for use in reducing fixed pattern noise of an image.

デジタルカメラやデジタルビデオカメラ等の撮像装置に備わるCCDやCMOSセンサといった固体撮像素子の固定パターンノイズは、その画面上での位置が固定されており目立ちやすい。デジタルカメラの場合、撮像時に、固体撮像素子への入射光を遮光することで暗黒画像を撮影し、当該暗黒画像から固定パターンノイズの画像を出力する。この固定パターンノイズの画像を撮像画像から減算することで固定パターンノイズを除去するという方法が知られている(特許文献1を参照)。
しかし、デジタルビデオカメラで動画像を撮像する場合にはシャッターを切ることで固体撮像素子への入射光を遮光することができない。したがって、上述した方法では固定パターンノイズのみを除去することができない。そこで、敢えて固定パターンノイズにランダムノイズを付加することでランダムノイズ化し、ノイズリダクションを行う方法がある(特許文献2を参照)。
Fixed pattern noise of a solid-state imaging device such as a CCD or CMOS sensor provided in an imaging apparatus such as a digital camera or a digital video camera has a fixed position on the screen and is easily noticeable. In the case of a digital camera, a dark image is captured by blocking incident light to the solid-state image sensor during imaging, and an image of fixed pattern noise is output from the dark image. A method of removing fixed pattern noise by subtracting this fixed pattern noise image from a captured image is known (see Patent Document 1).
However, when a moving image is picked up by a digital video camera, the incident light to the solid-state image pickup device cannot be shielded by closing the shutter. Therefore, only the fixed pattern noise cannot be removed by the method described above. Therefore, there is a method of performing random noise reduction by adding random noise to fixed pattern noise (see Patent Document 2).

特開2006−311086号公報JP 2006-311086 A 特開2004−289241号公報JP 2004-289241 A

S. Daly, "The Visible Differences Predictor: An algorithm for the assessment of image fidelity," in A.B. Watson, editor, Digital Image and Human Vision, pages 179-206, Cambridge, MA, MIT Press, 1993.S. Daly, "The Visible Differences Predictor: An algorithm for the assessment of image fidelity," in A.B.Watson, editor, Digital Image and Human Vision, pages 179-206, Cambridge, MA, MIT Press, 1993. J.Laird, M. Pelz, E. Montag, and S. Daly: "Spatio-Velocity CSF as a Function of Retinal Velocity Using Unstabilized Stimuli", Proc. of SPIE, 6057,(2006)J. Laird, M. Pelz, E. Montag, and S. Daly: "Spatio-Velocity CSF as a Function of Retinal Velocity Using Unstabilized Stimuli", Proc. Of SPIE, 6057, (2006) D. Kelly, Motion and vision. II. Stabilized spatio-temporal threshold surface, JOSA, 69, pp. 1340-1349 (1979)D. Kelly, Motion and vision. II. Stabilized spatio-temporal threshold surface, JOSA, 69, pp. 1340-1349 (1979)

しかしながら、動画像において、固定パターンノイズは、画像内の被写体の移動速度に応じて見えが変わる。このため、単純なノイズリダクションを行っただけでは、画像内の被写体の移動速度によって、固体パターンノイズが見えてしまう。
本発明は、このような問題点に鑑みてなされたものであり、固定パターンノイズが知覚されにくい動画像を生成することを目的とする。
However, in the moving image, the appearance of the fixed pattern noise changes according to the moving speed of the subject in the image. For this reason, solid pattern noise can be seen only by performing simple noise reduction depending on the moving speed of the subject in the image.
The present invention has been made in view of such a problem, and an object thereof is to generate a moving image in which fixed pattern noise is hardly perceived.

本発明の画像処理装置は、動画像を撮像した際の露出に関する条件に基づいて、当該動画像におけるノイズの特性を導出するノイズ特性導出手段と、前記動画像における被写体の移動速度を取得する移動速度取得手段と、前記移動速度取得手段により取得された、前記動画像における被写体の移動速度に応じた、光に対する視覚の感度を表す情報を取得する視覚特性取得手段と、前記動画像と、前記ノイズ特性導出手段により導出されたノイズの特性と、前記視覚特性取得手段により取得された情報とに基づいて、前記動画像に含まれる固定パターンノイズに前記ノイズの特性に基づくノイズを重畳させた場合の当該固定パターンノイズの知覚のされやすさを評価した値である固定パターンノイズ知覚量を導出する固定パターンノイズ知覚量導出手段と、前記固定パターンノイズ知覚量導出手段により導出された固定パターンノイズ知覚量に基づいて、前記動画像に含まれるノイズを低減するノイズ低減手段と、を有することを特徴とする。   The image processing apparatus according to the present invention includes a noise characteristic deriving unit that derives a noise characteristic in the moving image based on a condition relating to exposure when the moving image is captured, and a movement that acquires a moving speed of the subject in the moving image. Speed acquisition means; visual characteristic acquisition means for acquiring information representing visual sensitivity to light according to the moving speed of the subject in the moving image, acquired by the moving speed acquisition means; the moving image; When noise based on the noise characteristic is superimposed on the fixed pattern noise included in the moving image based on the noise characteristic derived by the noise characteristic deriving unit and the information acquired by the visual characteristic acquiring unit Fixed pattern noise perception amount to derive fixed pattern noise perception amount, which is an evaluation of the ease of perception of the fixed pattern noise Means out, on the basis of the fixed pattern fixed pattern noise perception values derived by the noise perceived amount deriving means, and having a noise reduction means for reducing noise included in the moving image.

本発明によれば、固定パターンノイズが知覚されにくい動画像を生成することができる。   According to the present invention, it is possible to generate a moving image in which fixed pattern noise is hardly perceived.

デジタルカメラの構成を示す図である。It is a figure which shows the structure of a digital camera. 画像処理部の構成の第1の例を示す図である。It is a figure which shows the 1st example of a structure of an image process part. 視覚周波数応答特性を表す図である。It is a figure showing a visual frequency response characteristic. 移動速度取得部の構成の第1の例を示す図である。It is a figure which shows the 1st example of a structure of a moving speed acquisition part. 固定パターンノイズ特性取得部の構成を示す図である。It is a figure which shows the structure of a fixed pattern noise characteristic acquisition part. ノイズ特性推定部の構成を示す図である。It is a figure which shows the structure of a noise characteristic estimation part. 固定パターンノイズ知覚量導出部の構成の第1の例を示す図である。It is a figure which shows the 1st example of a structure of a fixed pattern noise perception amount derivation | leading-out part. fanl(θ)を示す図である。It is a figure which shows fan l ((theta)). domk(ρ)を示す図である。It is a figure which shows dom k ((rho)). 帯域分割された空間周波数領域の第1の例を示す図である。It is a figure which shows the 1st example of the spatial frequency area | region by which the band division | segmentation was carried out. マスキング強度と帯域分割画像の関係を示す図である。It is a figure which shows the relationship between masking intensity | strength and a band division | segmentation image. ノイズリダクション制御部の構成の第1の例を示す図である。It is a figure which shows the 1st example of a structure of a noise reduction control part. ノイズリダクション処理部の構成の第1の例を示す図である。It is a figure which shows the 1st example of a structure of a noise reduction process part. 画像処理部の構成の第2の例を示す図である。It is a figure which shows the 2nd example of a structure of an image process part. 移動速度取得部の構成の第2の例を示すブロック図である。It is a block diagram which shows the 2nd example of a structure of a moving speed acquisition part. ノイズリダクション制御部の構成の第2の例を示す図である。It is a figure which shows the 2nd example of a structure of a noise reduction control part. ノイズリダクション処理部の構成の第2の例を示す図である。It is a figure which shows the 2nd example of a structure of a noise reduction process part. 固定パターンノイズ知覚量導出部の構成の第2の例を示す図である。It is a figure which shows the 2nd example of a structure of a fixed pattern noise perception amount deriving part. 帯域分割された空間周波数領域の第2の例を示す図である。It is a figure which shows the 2nd example of the spatial frequency area | region by which the band division | segmentation was carried out.

以下に、図面に基づいて本発明の実施形態について説明する。
(第1の実施形態)
まず、第1の実施形態について説明する。
本実施形態では、人間による固定パターンノイズの知覚されやすさを表現する固定パターンノイズ知覚量を算出する。ここで、固定パターンノイズ知覚量は、ノイズ感度モデルに基づき、固定パターンノイズの知覚しやすさをマップ化したノイズマップである。この固定パターンノイズ知覚量に基づいて、撮像画像のノイズを低減する処理を行う。ここで、ノイズ感度モデルに関しては、例えば、非特許文献1に記載の技術がある。本実施形態では、非特許文献1に記載のノイズ感度モデルを用いる場合を例に挙げて説明する。
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
First, the first embodiment will be described.
In the present embodiment, a fixed pattern noise perception amount that expresses the ease of perception of fixed pattern noise by a human is calculated. Here, the perceived amount of fixed pattern noise is a noise map obtained by mapping ease of perception of fixed pattern noise based on a noise sensitivity model. Based on the fixed pattern noise perception amount, processing for reducing noise of the captured image is performed. Here, regarding the noise sensitivity model, for example, there is a technique described in Non-Patent Document 1. In the present embodiment, a case where the noise sensitivity model described in Non-Patent Document 1 is used will be described as an example.

従来のノイズリダクション処理では、ランダムノイズを低減したために、固定パターンノイズがより目立ってしまうという問題があった。そこで、本実施形態は、画像内の被写体の動きに応じた人間の視感度の変化に応じて、固定パターンノイズの周波数特性およびランダムノイズの周波数特性を考慮して最適なノイズリダクション処理を施す。これにより、任意の移動する被写体に対し、敢えてランダムノイズをやや残すことで固定パターンノイズを知覚しにくい動画像を生成することができる。   In the conventional noise reduction process, there is a problem that fixed pattern noise becomes more conspicuous because random noise is reduced. In view of this, in the present embodiment, an optimum noise reduction process is performed in consideration of the frequency characteristics of fixed pattern noise and the frequency characteristics of random noise in accordance with changes in human visibility according to the movement of the subject in the image. As a result, it is possible to generate a moving image in which fixed pattern noise is less likely to be perceived by leaving some random noise for an arbitrary moving subject.

<システム全体の構成>
図1は、本実施形態の画像処理装置を含むデジタルカメラ(撮像装置)の構成の一例を示すブロック図である。本実施形態では、デジタルカメラは、動画像を撮像できるものである。
撮像部101は、ズームレンズ、フォーカスレンズ、ぶれ補正レンズ、絞り、シャッター、光学ローパスフィルタ、iRカットフィルタ、カラーフィルタおよびCMOSやCCD等のセンサ(固体撮像素子)、を含み、被写体の光量を検知する。
A/D変換部102は、被写体の光量をデジタル値に変換する。
信号処理部103は、A/D変換部102で変換されたデジタル値に、デモザイキング処理、ホワイトバランス処理およびガンマ処理などを行い、デジタル画像を生成する。
<System configuration>
FIG. 1 is a block diagram illustrating an example of a configuration of a digital camera (imaging device) including the image processing device of the present embodiment. In the present embodiment, the digital camera can capture a moving image.
The imaging unit 101 includes a zoom lens, a focus lens, a shake correction lens, an aperture, a shutter, an optical low-pass filter, an iR cut filter, a color filter, and a sensor (solid-state imaging device) such as a CMOS or CCD, and detects the amount of light of the subject. To do.
The A / D conversion unit 102 converts the light amount of the subject into a digital value.
The signal processing unit 103 performs demosaicing processing, white balance processing, gamma processing, and the like on the digital value converted by the A / D conversion unit 102 to generate a digital image.

画像処理部104は、信号処理部103で生成されたデジタル画像に対するノイズ低減処理を行う。
エンコーダ部105は、ノイズ低減処理が行われたデジタル画像をJPEG等の映像圧縮フォーマットに変換する処理を行う。
メディアインタフェース(I/F)106は、メディア107につなぐためのインタフェースである。メディア107は、例えば、ハードディスク、メモリーカード、CFカード、SDカードまたはUSBメモリである。
The image processing unit 104 performs noise reduction processing on the digital image generated by the signal processing unit 103.
The encoder unit 105 performs processing for converting the digital image on which noise reduction processing has been performed into a video compression format such as JPEG.
A media interface (I / F) 106 is an interface for connecting to the media 107. The medium 107 is, for example, a hard disk, a memory card, a CF card, an SD card, or a USB memory.

CPU108は、デジタルカメラの各構成の処理の全てに関わり、ROM109やRAM110に格納された命令を順に読み込み、処理を実行する。そして、CPU108は、システムバス115を介して、デジタルカメラの各構成を制御する。ROM109とRAM110は、CPU108が実行する処理に必要なプログラム、データ、作業領域等をCPU108に提供する。   The CPU 108 is related to all the processes of each component of the digital camera, and sequentially reads the instructions stored in the ROM 109 and the RAM 110 and executes the processes. The CPU 108 controls each component of the digital camera via the system bus 115. The ROM 109 and the RAM 110 provide the CPU 108 with programs, data, work areas, and the like necessary for processing executed by the CPU 108.

撮像系制御部111は、フォーカスを合わせる、シャッターを開く、絞りを調節する等の、CPU108から指示された撮像系の制御を行う。
操作部112は、ボタンやモードダイヤル等を有し、これらを介して入力されたユーザ指示を受け取る。ユーザ指示としては、ISO感度設定、シャッター速度設定、F値設定等の撮影設定がある。これらの撮影設定は、CPU108によって、デジタルカメラの撮影条件に反映されると共に、RAM110に記憶される。
The imaging system control unit 111 controls the imaging system instructed by the CPU 108, such as focusing, opening a shutter, and adjusting an aperture.
The operation unit 112 has buttons, a mode dial, and the like, and receives user instructions input via these buttons. User instructions include shooting settings such as ISO sensitivity setting, shutter speed setting, and F value setting. These shooting settings are reflected in the shooting conditions of the digital camera by the CPU 108 and stored in the RAM 110.

D/A変換部113は、前記ノイズ低減処理が行われたデジタル画像に対しアナログ変換を行い、その結果を撮像画像データとして出力する。表示部114は、D/A変換部113から受け取った撮像画像データの表示を行う。表示部114としては、例えば、液晶ディスプレイが用いられる。
ジャイロセンサ116は、デジタルカメラの角速度を検出するためのセンサである。
The D / A conversion unit 113 performs analog conversion on the digital image on which the noise reduction processing has been performed, and outputs the result as captured image data. The display unit 114 displays captured image data received from the D / A conversion unit 113. As the display unit 114, for example, a liquid crystal display is used.
The gyro sensor 116 is a sensor for detecting the angular velocity of the digital camera.

<画像処理部104>
図2は、画像処理部104の構成の一例を示すブロック図である。本実施形態では、画像処理部104が画像処理装置に相当する。
端子201から、信号処理部103で生成されたデジタル画像が入力される。
移動速度取得部202は、標準的な観察環境でデジタル画像(動画像)を観察する際の、デジタル画像内の被写体の移動速度vR[deg/sec]を取得する。具体的な移動速度取得処理については後述する。被写体そのものが動いていなくても、デジタルカメラが動くことにより、デジタル画像内では被写体は動くことになる。尚、以下の説明では、デジタル画像内では被写体の移動速度を、必要に応じて被写体の移動速度と称する。
<Image processing unit 104>
FIG. 2 is a block diagram illustrating an example of the configuration of the image processing unit 104. In the present embodiment, the image processing unit 104 corresponds to an image processing device.
A digital image generated by the signal processing unit 103 is input from the terminal 201.
The moving speed acquisition unit 202 acquires the moving speed v R [deg / sec] of the subject in the digital image when observing the digital image (moving image) in a standard observation environment. Specific movement speed acquisition processing will be described later. Even if the subject itself does not move, the subject moves in the digital image as the digital camera moves. In the following description, the moving speed of the subject in the digital image is referred to as the moving speed of the subject as necessary.

視覚特性データ記憶部203は、被写体の移動速度vRに応じた視覚周波数応答特性をテーブルまたは関係式として記憶する。
視覚特性参照部(視覚特性取得部)204は、移動速度取得部202より取得した、被写体の移動速度vRに基づき、当該移動速度vRで移動する被写体を人間が追従視する際の視覚周波数応答特性を取得する。
図3は、被写体の移動速度に応じた視覚周波数応答特性の変化を表す図である。本実施形態では、非特許文献2に記載の視覚周波数応答特性を用いる。具体的には、視覚周波数応答特性は以下の(1)式〜(4)式で定義される。
The visual characteristic data storage unit 203 stores visual frequency response characteristics corresponding to the moving speed v R of the subject as a table or a relational expression.
The visual characteristic reference unit (visual characteristic acquisition unit) 204 is based on the moving speed v R of the subject acquired from the moving speed acquisition unit 202, and the visual frequency when the human follows the moving object at the moving speed v R. Get response characteristics.
FIG. 3 is a diagram showing changes in visual frequency response characteristics according to the moving speed of the subject. In this embodiment, the visual frequency response characteristic described in Non-Patent Document 2 is used. Specifically, the visual frequency response characteristic is defined by the following equations (1) to (4).

Figure 2015088914
Figure 2015088914

被写体の移動速度vRは、移動速度取得部202で取得されるものである。また、uは水平方向の空間周波数(水平周波数)であり、vは垂直方向の空間周波数(垂直周波数)である。また、例えば、s1=6.1、s2=7.3、p1=45.9、c0=0.6329、c1=0.8404、c2=0.7986である。 The movement speed v R of the subject is acquired by the movement speed acquisition unit 202. U is a horizontal spatial frequency (horizontal frequency), and v is a vertical spatial frequency (vertical frequency). For example, s 1 = 6.1, s 2 = 7.3, p 1 = 45.9, c 0 = 0.6329, c 1 = 0.8404, and c 2 = 0.7986.

図3において、視覚周波数応答特性301は、被写体の移動速度vRが0[deg/sec]であるときの視覚周波数応答特性であり、視覚周波数応答特性302は、被写体の移動速度vRが10[deg/sec]であるときの視覚周波数応答特性である。
尚、視覚周波数応答特性は、図3((1)式〜(4)式)に示すものに限定されない。追従視時の視覚周波数応答特性は、被写体の動きが大きくなるにつれて、コントラスト感度のピークが低周波側へシフトするバンドパス特性であればよい。例えば、非特許文献3に記載の視覚周波数応答特性等、他の視覚周波数応答特性や実測データ等を視覚周波数応答特性として用いてもよい。
In FIG. 3, a visual frequency response characteristic 301 is a visual frequency response characteristic when the moving speed v R of the subject is 0 [deg / sec], and a visual frequency response characteristic 302 is a moving speed v R of the subject of 10. It is a visual frequency response characteristic when [deg / sec].
The visual frequency response characteristics are not limited to those shown in FIG. 3 (formulas (1) to (4)). The visual frequency response characteristic at the time of following vision may be a band pass characteristic in which the peak of contrast sensitivity shifts to the low frequency side as the movement of the subject increases. For example, other visual frequency response characteristics such as the visual frequency response characteristics described in Non-Patent Document 3 or actually measured data may be used as the visual frequency response characteristics.

固定パターンノイズ特性取得部205は、固体撮像素子に特有の固定パターンノイズの特性を取得する。具体的な固定パターンノイズ取得処理については後述する。
ノイズ特性推定部206は、撮像系にて発生するノイズの特性を推定する。具体的なノイズ特性推定処理については後述する。
固定パターンノイズ知覚量導出部207は、追従視とノイズの周波数特性とを考慮した固定パターンノイズ知覚量を導出する。この固定パターンノイズ知覚量は、固定パターンノイズ特性取得部205で取得された固定パターンノイズの特性、ノイズ特性推定部206で推定されたノイズの特性および視覚特性参照部204で取得された視覚周波数応答特性に応じて導出される。具体的な固定パターンノイズ知覚量導出処理については後述する。
A fixed pattern noise characteristic acquisition unit 205 acquires a characteristic of fixed pattern noise unique to the solid-state imaging device. Specific fixed pattern noise acquisition processing will be described later.
The noise characteristic estimation unit 206 estimates characteristics of noise generated in the imaging system. Specific noise characteristic estimation processing will be described later.
The fixed pattern noise perception amount deriving unit 207 derives a fixed pattern noise perception amount considering the following vision and the frequency characteristics of noise. The fixed pattern noise perception amount includes the fixed pattern noise characteristic acquired by the fixed pattern noise characteristic acquisition unit 205, the noise characteristic estimated by the noise characteristic estimation unit 206, and the visual frequency response acquired by the visual characteristic reference unit 204. Derived according to characteristics. A specific fixed pattern noise perception amount derivation process will be described later.

ノイズリダクション制御部208は、固定パターンノイズ知覚量導出部207で導出された固定パターンノイズ知覚量に基づいて、ノイズリダクションフィルタへ乗算するゲインを算出する。ノイズリダクション制御部208で算出されたゲインは、ノイズリダクション処理部209へ送信される。具体的なゲイン算出処理については後述する。
ノイズリダクション処理部209は、信号処理部103から入力されるデジタル画像に対して、ノイズリダクション制御部208で算出されたゲインを用いてノイズリダクション処理を施す。具体的なノイズリダクション処理については後述する。ノイズリダクション処理が施されたデジタル画像は、端子210から出力される。
The noise reduction control unit 208 calculates a gain to multiply the noise reduction filter based on the fixed pattern noise perception amount derived by the fixed pattern noise perception amount deriving unit 207. The gain calculated by the noise reduction control unit 208 is transmitted to the noise reduction processing unit 209. Specific gain calculation processing will be described later.
The noise reduction processing unit 209 performs noise reduction processing on the digital image input from the signal processing unit 103 using the gain calculated by the noise reduction control unit 208. Specific noise reduction processing will be described later. The digital image subjected to the noise reduction process is output from the terminal 210.

<移動速度取得部202>
図4は、移動速度取得部202の構成の一例を示すブロック図である。被写体の移動速度vRを取得する際の処理の一例を図4に基づいて説明する。
撮像情報取得部401は、信号処理部103で生成されたデジタル画像の撮像時の諸条件情報をRAM110から取得する。ここで、撮像時の諸条件情報は、例えば、焦点距離f[mm]、センサ(固体撮像素子)のサイズw×h[mm]、露光時間t[sec]およびフレームレートFR[fps]である。撮像時の諸条件情報の取得方法はこれに限られない。例えば、exif情報から、諸条件情報を取得しても良い。
<Movement speed acquisition unit 202>
FIG. 4 is a block diagram illustrating an example of the configuration of the moving speed acquisition unit 202. An example of processing for acquiring the moving speed v R of the subject will be described with reference to FIG.
The imaging information acquisition unit 401 acquires various condition information from the RAM 110 when the digital image generated by the signal processing unit 103 is captured. Here, the various condition information at the time of imaging is, for example, focal length f [mm], sensor (solid-state imaging device) size w × h [mm], exposure time t [sec], and frame rate FR [fps]. . The acquisition method of various condition information at the time of imaging is not limited to this. For example, the condition information may be acquired from the exif information.

ジャイロセンサ情報取得部402は、信号処理部103で生成されたデジタル画像の撮像時のジャイロセンサ情報をジャイロセンサ116から取得する。ここで、ジャイロセンサ情報は、例えば、デジタルカメラの角速度ω[deg/sec]である。
移動速度算出部403は、撮像情報取得部401で取得された諸条件情報とジャイロセンサ情報取得部402で取得されたジャイロセンサ情報に基づいて、次の処理を行う。すなわち、移動速度算出部403は、撮像時に被写体が動いていないとしたときのデジタル画像内の被写体の移動速度vR[deg/sec]を算出する。
まず、移動速度算出部403は、撮像部101の撮像光学系の画角θlens[deg]と、撮像時の1秒あたりのデジタルカメラの移動角度θgyro[deg]とを、以下の(5)式、(6)式により算出する。
The gyro sensor information acquisition unit 402 acquires gyro sensor information at the time of capturing the digital image generated by the signal processing unit 103 from the gyro sensor 116. Here, the gyro sensor information is, for example, an angular velocity ω [deg / sec] of the digital camera.
The moving speed calculation unit 403 performs the following processing based on the various condition information acquired by the imaging information acquisition unit 401 and the gyro sensor information acquired by the gyro sensor information acquisition unit 402. That is, the moving speed calculation unit 403 calculates the moving speed v R [deg / sec] of the subject in the digital image when the subject is not moving during imaging.
First, the moving speed calculation unit 403 calculates the angle of view θ lens [deg] of the image pickup optical system of the image pickup unit 101 and the movement angle θ gyro [deg] of the digital camera per second at the time of image pickup as follows (5 ) And (6).

Figure 2015088914
Figure 2015088914

このとき、被写体が移動していないとすると、観察画角θview中の1秒あたりの移動角度θmove(観察画角θviewの単位時間あたりの変化量)は、以下の(7)式から算出される。 At this time, if the subject is not moving, the movement angle theta move (per unit of observation angle theta view time change amount) per second observation angle theta in view from the following equation (7) Calculated.

Figure 2015088914
Figure 2015088914

ここで、ユーザは、標準的な観察距離として、観察ディスプレイの縦の長さ(高さ)の3倍の距離から被写体を観察しているとする。観察ディスプレイの画角の縦横比が9:16であるとするとき、観察画角θviewは、以下の(8)式から算出される。 Here, it is assumed that the user observes the subject from a distance that is three times the vertical length (height) of the observation display as a standard observation distance. When the aspect ratio of the viewing angle of the observation display is 9:16, the viewing angle of view θ view is calculated from the following equation (8).

Figure 2015088914
Figure 2015088914

よって、被写体の移動速度vR[deg/sec]は、以下の(9)式で定義される。 Therefore, the moving speed v R [deg / sec] of the subject is defined by the following equation (9).

Figure 2015088914
Figure 2015088914

移動速度算出部403は、(5)式〜(9)式に基づいて被写体の移動速度vR[deg/sec]を算出して端子404へ出力する。 The moving speed calculation unit 403 calculates the moving speed v R [deg / sec] of the subject based on the equations (5) to (9), and outputs it to the terminal 404.

<固定パターンノイズ特性取得部205>
図5は、固定パターンノイズ特性取得部205の構成の一例を示すブロック図である。固定パターンノイズの特性を取得する際の処理の一例を図5に基づいて説明する。
撮像条件取得部501は、信号処理部103で生成されたデジタル画像の撮像時の撮像条件をRAM110から取得する。ここで、撮像条件は、例えば、ISO感度である。
固定パターンノイズ特性記憶部502は、固定パターンノイズマップとISO感度との関係を示す関係式またはテーブルを記憶する。
固定パターンノイズ情報取得部503は、撮像条件取得部501で取得された撮像条件に応じた固定パターンノイズマップFPN(x,y)を固定パターンノイズ特性記憶部502から取得して端子504へ出力する。固定パターンノイズマップFPN(x,y)は、(x,y)の位置(画素)における固定パターンノイズの大きさを表す固定パターンノイズ画像である。また、固定パターンノイズマップFPN(x,y)は、例えば、信号処理部103で生成されたデジタル画像iin(x,y)と同じ大きさを有する。
<Fixed pattern noise characteristic acquisition unit 205>
FIG. 5 is a block diagram illustrating an example of the configuration of the fixed pattern noise characteristic acquisition unit 205. An example of processing for acquiring the characteristics of the fixed pattern noise will be described with reference to FIG.
The imaging condition acquisition unit 501 acquires from the RAM 110 imaging conditions at the time of imaging of the digital image generated by the signal processing unit 103. Here, the imaging condition is, for example, ISO sensitivity.
The fixed pattern noise characteristic storage unit 502 stores a relational expression or table indicating a relationship between the fixed pattern noise map and the ISO sensitivity.
The fixed pattern noise information acquisition unit 503 acquires the fixed pattern noise map FPN (x, y) corresponding to the imaging condition acquired by the imaging condition acquisition unit 501 from the fixed pattern noise characteristic storage unit 502 and outputs the fixed pattern noise map FPN (x, y) to the terminal 504. . The fixed pattern noise map FPN (x, y) is a fixed pattern noise image representing the magnitude of the fixed pattern noise at the position (pixel) at (x, y). Further, the fixed pattern noise map FPN (x, y) has the same size as the digital image i in (x, y) generated by the signal processing unit 103, for example.

<ノイズ特性推定部(ノイズ特性導出部)206>
図6は、ノイズ特性推定部206の構成の一例を示すブロック図である。ノイズ特性を推定する際の処理の一例を図6に基づいて説明する。
端子601より、信号処理部103で生成されたデジタル画像iin(x,y)が入力される。ここで、xは水平(横)方向の位置(画素)を示し、yは垂直(縦)方向の位置(画素)を示す。デジタル画像iin(x,y)は、例えば、(x,y)で表される位置の輝度値や画素値である。
平均値算出部602は、デジタル画像iin(x,y)の(各位置(x,y)における)平均値avginを算出し、ノイズ情報取得部604へ送信する。
撮像条件取得部603は、デジタル画像iin(x,y)を撮像した際の撮像条件をRAM110から取得する。ここで、撮像条件とは、撮像時の露出に関する条件である。本実施形態では、撮像条件取得部303は、撮像条件として、ISO感度、レンズの絞り値および露光時間を取得する。
<Noise characteristic estimation unit (noise characteristic deriving unit) 206>
FIG. 6 is a block diagram illustrating an example of the configuration of the noise characteristic estimation unit 206. An example of processing for estimating noise characteristics will be described with reference to FIG.
A digital image i in (x, y) generated by the signal processing unit 103 is input from a terminal 601. Here, x indicates a position (pixel) in the horizontal (horizontal) direction, and y indicates a position (pixel) in the vertical (vertical) direction. The digital image i in (x, y) is, for example, a luminance value or a pixel value at a position represented by (x, y).
The average value calculation unit 602 calculates an average value avg in (at each position (x, y)) of the digital image i in (x, y), and transmits it to the noise information acquisition unit 604.
The imaging condition acquisition unit 603 acquires imaging conditions when the digital image i in (x, y) is captured from the RAM 110. Here, the imaging condition is a condition related to exposure during imaging. In the present embodiment, the imaging condition acquisition unit 303 acquires ISO sensitivity, lens aperture value, and exposure time as imaging conditions.

ノイズ特性記憶部605は、前記撮像条件と、デジタル画像iin(x,y)の平均値avginと、ノイズの分散σnとの関係を、テーブルまたは関係式として記憶する。
ノイズ情報取得部604は、撮像条件取得部603で取得された撮像条件と、平均値算出部602で算出された平均値avginとに対応するノイズの分散σnをノイズ特性記憶部605から取得する。そして、端子606から、ノイズの分散σnがノイズ特性として出力される。
The noise characteristic storage unit 605 stores the relationship between the imaging conditions, the average value avg in of the digital image i in (x, y), and the noise variance σ n as a table or a relational expression.
The noise information acquisition unit 604 acquires the noise variance σ n corresponding to the imaging condition acquired by the imaging condition acquisition unit 603 and the average value avg in calculated by the average value calculation unit 602 from the noise characteristic storage unit 605. To do. The noise variance σ n is output from the terminal 606 as noise characteristics.

<固定パターンノイズ知覚量導出部207>
図7は、固定パターンノイズ知覚量導出部207の構成の一例を示すブロック図である。固定パターンノイズ知覚量を導出する際の処理の一例を図7に基づいて説明する。
端子701より、固定パターンノイズ特性取得部205で取得された固定パターンノイズマップFPN(x,y)が入力される。
端子702より、ノイズ特性推定部206で得られたノイズの分散σnが入力される。
ノイズ画像生成部703は、固定パターンノイズマップFPN(x,y)と同じサイズのホワイトノイズ画像nw(x,y)を、ノイズの分散がσnとなるように生成する。ここで、ホワイトノイズ画像nw(x,y)は、(x,y)の位置(画素)におけるホワイトノイズの大きさを表す。ノイズ画像生成部703は、固定パターンノイズマップFPN(x,y)とホワイトノイズ画像nw(x,y)とを加算することでノイズ画像n(x,y)を生成する。このように、ノイズ画像生成部703は、固体パターンノイズに重畳させるホワイトノイズを示す画像を、疑似的なシミュレーションにより生成する。尚、固体パターンノイズに重畳させるノイズを示す画像を、疑似的なシミュレーションにより生成できれば、必ずしもホワイトノイズを使用する必要はない。
<Fixed Pattern Noise Perception Deriving Unit 207>
FIG. 7 is a block diagram illustrating an example of the configuration of the fixed pattern noise perception amount deriving unit 207. An example of processing for deriving the fixed pattern noise perception amount will be described with reference to FIG.
A fixed pattern noise map FPN (x, y) acquired by the fixed pattern noise characteristic acquisition unit 205 is input from a terminal 701.
The noise variance σ n obtained by the noise characteristic estimation unit 206 is input from the terminal 702.
The noise image generation unit 703 generates a white noise image n w (x, y) having the same size as the fixed pattern noise map FPN (x, y) so that the noise variance is σ n . Here, the white noise image n w (x, y) represents the magnitude of white noise at the position (pixel) at (x, y). The noise image generation unit 703 generates a noise image n (x, y) by adding the fixed pattern noise map FPN (x, y) and the white noise image n w (x, y). As described above, the noise image generation unit 703 generates an image showing white noise to be superimposed on the solid pattern noise by pseudo simulation. In addition, if the image which shows the noise superimposed on solid pattern noise can be produced | generated by pseudo simulation, it is not necessary to use white noise.

フーリエ変換部704は、固定パターンノイズマップFPN(x,y)とホワイトノイズ画像nw(x,y)のそれぞれに対してフーリエ変換を施す。これにより、固定パターンノイズマップFPN(x,y)とホワイトノイズ画像nw(x,y)の空間周波数の情報がそれぞれ生成される。以下では、固定パターンノイズマップFPN(x,y)をフーリエ変換して空間周波数の関数にした結果を、IFPN(u,v)と表記する。また、ノイズ画像n(x,y)をフーリエ変換して空間周波数の関数にした結果を、N(u,v)と表記する。ここで、uは水平方向の空間周波数(水平周波数)であり、vは垂直方向の空間周波数(垂直周波数)である。 The Fourier transform unit 704 performs Fourier transform on each of the fixed pattern noise map FPN (x, y) and the white noise image n w (x, y). Thereby, the spatial frequency information of the fixed pattern noise map FPN (x, y) and the white noise image n w (x, y) is generated. Hereinafter, the result of Fourier transforming the fixed pattern noise map FPN (x, y) to be a function of spatial frequency is expressed as I FPN (u, v). A result obtained by performing Fourier transform on the noise image n (x, y) to be a function of spatial frequency is denoted as N (u, v). Here, u is a spatial frequency in the horizontal direction (horizontal frequency), and v is a spatial frequency in the vertical direction (vertical frequency).

空間視覚特性乗算部705は、フ―リ変換後の固定パターンノイズマップIFPN(u,v)とフーリエ変換後のノイズ画像N(u,v)に対し、端子711から入力される視覚周波数応答特性CSF(ρ,vR)をそれぞれ乗算する。 The spatial visual characteristic multiplication unit 705 receives the visual frequency response input from the terminal 711 for the fixed pattern noise map I FPN (u, v) after the Fourier transform and the noise image N (u, v) after the Fourier transform. The characteristics CSF (ρ, v R ) are respectively multiplied.

以下では、フーリエ変換後の固定パターンノイズマップIFPN(u,v)に視覚周波数応答特性CSF(ρ,vR)を乗算した結果を、IV(u,v)と表記する。また、フーリエ変換後のノイズ画像N(u,v)に視覚周波数応答特性CSF(ρ,vR)を乗算した結果を、NV(u,v)と表記する。IV(u,v)は、人間の視覚において感度のある空間周波数における固定パターンノイズの信号を表す。NV(u,v)は、人間の視覚において感度のある空間周波数におけるホワイトノイズの信号を表す。 Hereinafter, the result of multiplying the fixed pattern noise map I FPN (u, v) after Fourier transform by the visual frequency response characteristic CSF (ρ, v R ) will be expressed as I V (u, v). Further, the result of multiplying the noise image N (u, v) after Fourier transform by the visual frequency response characteristic CSF (ρ, v R ) is denoted as N V (u, v). I V (u, v) represents a fixed pattern noise signal at a spatial frequency sensitive to human vision. N V (u, v) represents a white noise signal at a spatial frequency sensitive to human vision.

帯域分割部706は、以下の(10)式で表される、固定パターンノイズマップに対する帯域分割情報Isk,l(u,v)を算出する。また、帯域分割部706は、以下の(11)式で表される、ノイズ画像に対する帯域分割情報Nsk,l(u,v)を算出する。帯域分割周波数情報Isk,l(u,v)は、フーリエ変換と視覚周波数応答特性の乗算とが行われた固定パターンノイズマップIV(u,v)を、複数の空間周波数帯域ごとに分割した情報である。帯域分割周波数情報Nsk,l(u,v)は、フーリエ変換と視覚周波数応答特性の乗算とが行われたノイズ画像NV(u,v)を、複数の空間周波数帯域ごとに分割した情報である。 The band dividing unit 706 calculates band division information Is k, l (u, v) for the fixed pattern noise map expressed by the following equation (10). Further, the band dividing unit 706 calculates band division information Ns k, l (u, v) for the noise image expressed by the following equation (11). Band division frequency information Is k, l (u, v) divides a fixed pattern noise map I V (u, v), which has been multiplied by Fourier transform and visual frequency response characteristics, into multiple spatial frequency bands Information. Band division frequency information Ns k, l (u, v) is information obtained by dividing a noise image N V (u, v), which has been subjected to Fourier transform and multiplication of visual frequency response characteristics, for each of a plurality of spatial frequency bands. It is.

Figure 2015088914
Figure 2015088914

帯域分割フィルタcortexk,l(u,v)は、空間周波数領域における半径方向の特性と円周方向の特性とを結合することにより得られるものであり、以下の(12)式および(13)式のように定義される。 The band division filter cortex k, l (u, v) is obtained by combining the characteristics in the radial direction and the characteristics in the circumferential direction in the spatial frequency domain. The following expressions (12) and (13) It is defined as an expression.

Figure 2015088914
Figure 2015088914

cortex_polk,l(ρ,θ)は、帯域分割フィルタcortexk,l(u,v)を極座標で表現したものである。(12)式および(13)式において、Kは空間周波数帯域の半径方向における分割数であり、Lは、空間周波数帯域の円周方向における分割数である。一般にはK=6、L=6である。(12)式に示すdomk(ρ)、base(ρ)、fanl(θ)は、以下の(14)式〜(22)式で定義される。 cortex_pol k, l (ρ, θ) represents the band division filter cortex k, l (u, v) in polar coordinates. In the equations (12) and (13), K is the number of divisions in the radial direction of the spatial frequency band, and L is the number of divisions in the circumferential direction of the spatial frequency band. In general, K = 6 and L = 6. The dom k (ρ), base (ρ), and fan l (θ) shown in the equation (12) are defined by the following equations (14) to (22).

Figure 2015088914
Figure 2015088914

Figure 2015088914
Figure 2015088914

Figure 2015088914
Figure 2015088914

図8は、L=6の場合のfanl(θ)を模式的に示す図である。図8において、横軸は角度であり、縦軸は応答である。図9は、K=6の場合のdomk(ρ)を模式的に示す図である。図8において、横軸は正規化周波数であり、縦軸は応答である。図9において、横軸は正規化周波数であり、縦軸は応答である。
図10は、帯域分割フィルタcortexk,l(u,v)により分割された空間周波数領域を模式的に示す図である。図10において、横軸、縦軸は、とも正規化周波数空間である。図10では、各フィルタの半値周波数を、太い実線で示す。
FIG. 8 is a diagram schematically showing fan l (θ) when L = 6. In FIG. 8, the horizontal axis is the angle, and the vertical axis is the response. FIG. 9 is a diagram schematically showing dom k (ρ) when K = 6. In FIG. 8, the horizontal axis is the normalized frequency, and the vertical axis is the response. In FIG. 9, the horizontal axis is the normalized frequency, and the vertical axis is the response.
FIG. 10 is a diagram schematically showing a spatial frequency region divided by the band division filter cortex k, l (u, v). In FIG. 10, the horizontal axis and the vertical axis are both normalized frequency spaces. In FIG. 10, the half-value frequency of each filter is indicated by a thick solid line.

ここでは、人間の視覚は、画像の空間周波数が低周波であるか高周波であるかという区別と、画像の空間周波数の方向(縦方向、横方向、斜め方向)という区別をしているものと考え、これら区別される空間周波数の領域を1つの領域として定義する。この1つの領域が、図10の太線で囲まれている領域に対応する。図10において、固定パターンノイズマップとノイズ画像の空間周波数が、同じ領域内にある場合、当該ノイズ画像に基づくホワイトノイズは固定パターンノイズ上では、人間の視覚により認識しづらくなる。   Here, human vision distinguishes whether the spatial frequency of the image is low frequency or high frequency, and the direction of the spatial frequency of the image (vertical direction, horizontal direction, diagonal direction). Consider and define these distinct spatial frequency regions as one region. This one area corresponds to the area surrounded by the thick line in FIG. In FIG. 10, when the fixed pattern noise map and the spatial frequency of the noise image are in the same region, white noise based on the noise image is difficult to recognize by human vision on the fixed pattern noise.

逆フーリエ変換部707は、帯域分割周波数情報Isk,l(u,v)、Nsk,l(u,v)に対して、逆フーリエ変換を施し、複数の空間周波数帯域に分割された固定パターンノイズマップとノイズ画像をそれぞれ生成する。以下では、固定パターンノイズマップに対する帯域分割周波数情報Isk,l(u,v)の逆フーリエ変換の結果として得られる帯域分割画像をisk,l(x,y)と表記する。一方、ノイズ画像に対する帯域分割周波数情報Nsk,l(u,v)の逆フーリエ変換の結果として得られる帯域分割画像をnsk,l(x,y)と表記する。各帯域分割画像は、帯域分割フィルタcortexk,l(u,v)により分割される各空間周波数帯域の画像である。 The inverse Fourier transform unit 707 performs inverse Fourier transform on the band division frequency information Is k, l (u, v) and Ns k, l (u, v), and is fixed into a plurality of spatial frequency bands. A pattern noise map and a noise image are generated respectively. Hereinafter, a band division image obtained as a result of the inverse Fourier transform of the band division frequency information Is k, l (u, v) with respect to the fixed pattern noise map is denoted as is k, l (x, y). On the other hand, a band division image obtained as a result of the inverse Fourier transform of the band division frequency information Ns k, l (u, v) for the noise image is denoted as ns k, l (x, y). Each band division image is an image of each spatial frequency band divided by the band division filter cortex k, l (u, v).

ノイズマスク部(部分ノイズ知覚量算出部)708は、固定パターンノイズマップの帯域分割画像isk,l(x,y)に基づいて、ノイズ画像の帯域分割画像nsk,l(x,y)に対するマスキングを施す。これにより、知覚されるノイズ画像である知覚ノイズ画像Pk,l(x,y) (部分ノイズ知覚量)が算出される。知覚ノイズ画像Pk,l(x,y)は、空間周波数帯域ごとに算出される。ここでいうマスキングとは、固定パターンノイズにホワイトノイズを重畳させることにより、当該固定パターンノイズが人間にどのくらい知覚されづらくなるのかを評価することをいう。
ノイズマスク部708の具体的な処理の一例を説明すると、まず、ノイズマスク部708は、マスキング強度Tek,l(x,y)を、以下の(23)式〜(25)式により算出する。
The noise mask unit (partial noise perception amount calculation unit) 708 is based on the band-divided image is k, l (x, y) of the fixed pattern noise map, and the band-divided image ns k, l (x, y) of the noise image. Apply masking to Thereby, a perceptual noise image P k, l (x, y) (partial noise perception amount) that is a perceived noise image is calculated. The perceptual noise image P k, l (x, y) is calculated for each spatial frequency band. Masking here refers to evaluating how hard a fixed pattern noise is perceived by humans by superimposing white noise on the fixed pattern noise.
An example of a specific process of the noise mask unit 708 will be described. First, the noise mask unit 708 calculates the masking strength Te k, l (x, y) by the following equations (23) to (25). .

Figure 2015088914
Figure 2015088914

本実施形態では、(23)式〜(25)式において、W=6、Q=0.7、b=4、s=0.8とする。図11は、この場合における、マスキング強度Tek,l(x,y) と帯域分割画像isk,l(x,y)との関係の一例を示す図である。図8において、横軸は、帯域分割画像isk,l(x,y)の強度を対数スケールで表したものである。縦軸は、マスキング強度Tek,l(x,y)の強度を対数スケールで表したものである。ノイズマスク部408は、このマスキング強度Tek,l(x,y)を用いて、知覚ノイズ画像Pk,l(x,y)を、以下の(26)式により計算する。 In the present embodiment, W = 6, Q = 0.7, b = 4, and s = 0.8 in the equations (23) to (25). FIG. 11 is a diagram illustrating an example of the relationship between the masking strength Te k, l (x, y) and the band-divided image is k, l (x, y) in this case. In FIG. 8, the horizontal axis represents the intensity of the band-divided image is k, l (x, y) on a logarithmic scale. The vertical axis represents the intensity of the masking intensity Te k, l (x, y) on a logarithmic scale. Noise mask unit 408, the masking strength Te k, with l (x, y), perceived noise image P k, l a (x, y), and calculated by the following equation (26).

Figure 2015088914
Figure 2015088914

(26)式において、mは、固定パターンノイズマップiFPN(x,y)の平均値である。
固定パターンノイズ知覚量算出部709は、以下の(27式)に基づいて、空間周波数帯域ごとの知覚ノイズ画像Pk,l(x,y)を合成し、固定パターンノイズ知覚量P(x,y)を算出する。固定パターンノイズ知覚量P(x,y)は、端子710から出力される。
In the equation (26), m is an average value of the fixed pattern noise map i FPN (x, y).
The fixed pattern noise perception amount calculation unit 709 synthesizes perceptual noise images P k, l (x, y) for each spatial frequency band based on the following (Equation 27), and generates a fixed pattern noise perception amount P (x, y) is calculated. The fixed pattern noise perception amount P (x, y) is output from the terminal 710.

Figure 2015088914
Figure 2015088914

<ノイズリダクション制御部208>
図12は、ノイズリダクション制御部208の構成の一例を示すブロック図である。ノイズリダクションフィルタに対するゲインを制御する際の処理の一例を図12に基づいて説明する。
端子1201より、固定パターンノイズ知覚量導出部207で導出された固定パターンノイズ知覚量P(x,y)が入力される。
<Noise reduction control unit 208>
FIG. 12 is a block diagram illustrating an example of the configuration of the noise reduction control unit 208. An example of a process for controlling the gain for the noise reduction filter will be described with reference to FIG.
The fixed pattern noise perception amount P (x, y) derived by the fixed pattern noise perception amount deriving unit 207 is input from the terminal 1201.

低域通過フィルタ処理部1202は、固定パターンノイズ知覚量P(x,y)に低域通過フィルタ処理を施す。以下では、低域通過フィルタ処理が施された固定パターンノイズ知覚量をPl(x,y)と表記する。
ゲイン算出部1203は、固定パターンノイズ知覚量Pl(x,y)に基づいて、ノイズリダクションフィルタに対するゲインg(x,y)を算出する。ここで、ゲインg(x,y)は、以下の(28)式より算出される。ただし、ゲインg(x,y)の算出方法は、以下の(28)式に限定されない。
g(x,y)=k1×Pl(x,y)+k2 ・・・(28)
(28)式において、k1、k2は、固定パターンノイズ知覚量Pl(x,y)が大きいときにゲインg(x,y)が小さくなり、固定パターンノイズ知覚量Pl(x,y)が小さいときにゲインg(x,y)が大きくなるようにするための一次式である。これにより、固定パターンノイズ知覚量Pl(x,y)が大きいときにノイズリダクションを弱くすることができ、固定パターンノイズ知覚量Pl(x,y)へのマスキングを強めることができる。ゲイン算出部1203は、算出したゲインg(x,y)を端子1204へ出力する。
The low-pass filter processing unit 1202 performs low-pass filter processing on the fixed pattern noise perception amount P (x, y). Hereinafter, the perceived amount of the fixed pattern noise that has been subjected to the low-pass filter processing is denoted as Pl (x, y).
The gain calculation unit 1203 calculates the gain g (x, y) for the noise reduction filter based on the fixed pattern noise perception amount Pl (x, y). Here, the gain g (x, y) is calculated from the following equation (28). However, the calculation method of the gain g (x, y) is not limited to the following equation (28).
g (x, y) = k 1 × Pl (x, y) + k 2 (28)
In equation (28), k 1 and k 2 are such that the gain g (x, y) decreases when the fixed pattern noise perception amount Pl (x, y) is large, and the fixed pattern noise perception amount Pl (x, y). Is a linear expression for increasing the gain g (x, y) when is small. Accordingly, noise reduction can be weakened when the fixed pattern noise perception amount Pl (x, y) is large, and masking to the fixed pattern noise perception amount Pl (x, y) can be strengthened. The gain calculation unit 1203 outputs the calculated gain g (x, y) to the terminal 1204.

<ノイズリダクション処理部209>
図13は、ノイズリダクション処理部209の構成の一例を示すブロック図である。信号処理部103で生成されたデジタル画像iin(x,y)のノイズを低減する際の処理の一例を図13に基づいて説明する。
端子1301より、信号処理部103で生成されたデジタル画像iin(x,y)が入力される。
フィルタ係数設定部1302は、ROM109に記憶されているノイズリダクションフィルタのフィルタ係数を設定する。
端子1303より、ノイズリダクション制御部208で算出されたゲインg(x,y)が入力される。
乗算部1304は、フィルタ係数設定部1302で設定されたフィルタ係数と、端子1303から入力されたゲインg(x,y)とを乗算したものをノイズリダクション係数としてノイズリダクション処理部1305に出力する。
ノイズリダクション処理部1305は、乗算部1304で算出されたノイズリダクション係数を用いて、デジタル画像iin(x,y)に対してノイズリダクション処理を実行する。ノイズリダクション処理が実行されたデジタル画像は、端子1306から出力される。
<Noise reduction processing unit 209>
FIG. 13 is a block diagram illustrating an example of the configuration of the noise reduction processing unit 209. An example of a process for reducing noise in the digital image i in (x, y) generated by the signal processing unit 103 will be described with reference to FIG.
A digital image i in (x, y) generated by the signal processing unit 103 is input from a terminal 1301.
The filter coefficient setting unit 1302 sets the filter coefficient of the noise reduction filter stored in the ROM 109.
A gain g (x, y) calculated by the noise reduction control unit 208 is input from a terminal 1303.
The multiplier 1304 multiplies the filter coefficient set by the filter coefficient setting unit 1302 and the gain g (x, y) input from the terminal 1303, and outputs the result to the noise reduction processing unit 1305 as a noise reduction coefficient.
The noise reduction processing unit 1305 performs noise reduction processing on the digital image i in (x, y) using the noise reduction coefficient calculated by the multiplication unit 1304. The digital image that has been subjected to the noise reduction process is output from a terminal 1306.

以上のように本実施形態では、撮像時の露出の条件に基づいてノイズの分散σnを導出し、ノイズの分散σnに応じたホワイトノイズを固定パターンノイズに重畳させたノイズ画像を生成する。固定パターンノイズマップとノイズ画像のそれぞれから、被写体の移動速度vRに応じて人間の視覚において感度のある空間周波数の情報を抽出して複数の空間周波数帯域ごとに分割する。複数の空間周波数帯域ごとに分割されたノイズ画像を、複数の空間周波数帯域ごとに分割された固定パターンノイズマップに基づいてマスキングした後に合成して固定パターンノイズ知覚量P(x,y)を算出する。固定パターンノイズ知覚量P(x,y)が大きい場合には、固定パターンノイズが知覚されやすいので、デジタル画像iin(x,y)に対するノイズの低減量を抑制する。このように、固定パターンノイズの知覚されやすさを表現する固定パターンノイズ知覚量P(x,y)を算出し、これを低減するようにノイズリダクションを制御する。したがって、ノイズリダクションのかけすぎによる固定パターンノイズの強調を抑える画像処理を実現することができる。よって、被写体の移動速度に応じた固定パターンノイズが知覚されにくい動画像を生成することができる。 As described above, in the present embodiment, the noise variance σ n is derived based on the exposure condition during imaging, and a noise image is generated by superimposing the white noise corresponding to the noise variance σ n on the fixed pattern noise. . From each of the fixed pattern noise map and the noise image, information on spatial frequency sensitive to human vision is extracted according to the moving speed v R of the subject and divided into a plurality of spatial frequency bands. The noise image divided into multiple spatial frequency bands is masked based on the fixed pattern noise map divided into multiple spatial frequency bands and then synthesized to calculate the fixed pattern noise perception amount P (x, y) To do. When the fixed pattern noise perception amount P (x, y) is large, the fixed pattern noise is easily perceived, and thus the noise reduction amount for the digital image i in (x, y) is suppressed. In this way, the fixed pattern noise perception amount P (x, y) that expresses the ease of perception of fixed pattern noise is calculated, and noise reduction is controlled so as to reduce this. Therefore, it is possible to realize image processing that suppresses enhancement of fixed pattern noise due to excessive noise reduction. Therefore, it is possible to generate a moving image in which fixed pattern noise is hardly perceived according to the moving speed of the subject.

(第2の実施形態)
次に、第2の実施形態について説明する。第1の実施形態では、画像内の被写体の移動速度vRを、ジャイロセンサ情報を用いて算出する場合を例に挙げて説明した。このようにすると、被写体も移動している場合、画像内の被写体の移動速度vRを正しく算出することができない虞がある。そこで、本実施形態では、画像内の動きベクトルを用いて被写体の移動速度vRを算出することで、被写体の移動に対応して、固定パターンノイズの抑制を行う。
このように本実施形態と第1の実施形態とは、被写体の移動速度vRを算出する際の処理と構成が主として異なる。したがって、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図13に付した符号と同一の符号を付す等して詳細な説明を省略する。
(Second Embodiment)
Next, a second embodiment will be described. In the first embodiment, the case where the moving speed v R of the subject in the image is calculated using the gyro sensor information has been described as an example. In this way, when the subject is also moving, the moving speed v R of the subject in the image may not be calculated correctly. Therefore, in the present embodiment, the fixed pattern noise is suppressed corresponding to the movement of the subject by calculating the moving speed v R of the subject using the motion vector in the image.
As described above, the present embodiment and the first embodiment are mainly different in processing and configuration when calculating the moving speed v R of the subject. Therefore, in the description of the present embodiment, the same parts as those in the first embodiment are denoted by the same reference numerals as those in FIGS.

<画像処理部1400>
図14は、画像処理部1400の構成の一例を示すブロック図である。図14に示す画像処理部1400は、図2に示した画像処理部104に置き換わる。
信号処理部103で生成されたデジタル画像は、端子1401から、ノイズ特性推定部206およびノイズリダクション処理部209に加えて移動速度取得部1402にも入力される。
移動速度取得部1402は、標準的な観察環境でデジタル画像を観察する際の、デジタル画像内の被写体の移動速度vR[deg/sec]を、信号処理部103で生成されたデジタル画像に基づいて取得する。
視覚特性データ記憶部203からノイズリダクション処理部209までの構成および処理は、第1の実施形態と同一である。
<Image Processing Unit 1400>
FIG. 14 is a block diagram illustrating an example of the configuration of the image processing unit 1400. The image processing unit 1400 illustrated in FIG. 14 is replaced with the image processing unit 104 illustrated in FIG.
The digital image generated by the signal processing unit 103 is also input from the terminal 1401 to the moving speed acquisition unit 1402 in addition to the noise characteristic estimation unit 206 and the noise reduction processing unit 209.
The moving speed acquisition unit 1402 determines the moving speed v R [deg / sec] of the subject in the digital image when observing the digital image in a standard observation environment based on the digital image generated by the signal processing unit 103. Get.
The configuration and processing from the visual characteristic data storage unit 203 to the noise reduction processing unit 209 are the same as those in the first embodiment.

<移動速度取得部1402>
図15は、移動速度取得部1402の構成の一例を示すブロック図である。被写体の移動速度vRを取得する際の処理の一例を図15に基づいて説明する。
端子1501より、信号処理部103で生成されたデジタル画像が入力される。端子1501から入力したデジタル画像は、フレームメモリ1502に書き込まれる。
動きベクトル算出部1503は、端子1501から入力した、現在のフレームのデジタル画像と、フレームメモリ1502から入力した、遅延したデジタル画像(例えば1フレーム前のデジタル画像)とを、それぞれ複数のブロック(領域)に分割する。分割するブロックのサイズは、例えば、128×128pixelや256×256pixelである。動きベクトル算出部1503は、ブロックごとに、動き成分d[pixel]を計算し、移動速度算出部1504に入力する。
<Movement speed acquisition unit 1402>
FIG. 15 is a block diagram illustrating an example of the configuration of the moving speed acquisition unit 1402. An example of processing for acquiring the moving speed v R of the subject will be described with reference to FIG.
A digital image generated by the signal processing unit 103 is input from a terminal 1501. A digital image input from the terminal 1501 is written into the frame memory 1502.
The motion vector calculation unit 1503 receives a digital image of the current frame input from the terminal 1501 and a delayed digital image (for example, a digital image one frame before) input from the frame memory 1502, respectively. ). The size of the block to be divided is, for example, 128 × 128 pixels or 256 × 256 pixels. The motion vector calculation unit 1503 calculates a motion component d [pixel] for each block and inputs the motion component d [pixel] to the movement speed calculation unit 1504.

移動速度算出部1504は、RAM110に記憶されたフレームレートFR[fps]の情報を取得する。そして、移動速度算出部1504は、フレームレートFR[fps]と、動きベクトル算出部1503で算出された動き成分dと、に基づいて、被写体の移動速度vR[deg/sec]を算出する。ユーザが、標準的な観察距離である、観察ディスプレイの縦の長さ(高さ)の3倍の距離から被写体を観察しているとすると、被写体の移動速度vR[deg/sec]は以下の(29)式で算出される。尚、観察するディスプレイはFHDであるとする。 The moving speed calculation unit 1504 acquires information on the frame rate FR [fps] stored in the RAM 110. Then, the moving speed calculation unit 1504 calculates the moving speed v R [deg / sec] of the subject based on the frame rate FR [fps] and the motion component d calculated by the motion vector calculation unit 1503. If the user is observing the subject from a distance that is three times the vertical length (height) of the observation display, which is a standard observation distance, the moving speed v R [deg / sec] of the subject is as follows: (29). It is assumed that the display to be observed is FHD.

Figure 2015088914
Figure 2015088914

移動速度算出部1504は、(29)式の計算を行うことにより算出した、ブロックごとの被写体の移動速度vR[deg/sec]を端子1505へ出力する。
以上のように本実施形態では、被写体自体の移動があっても、固定パターンノイズを知覚しにくくなるようなノイズリダクションを施すことができる。また、被写体の移動速度vRを被写体ごとに算出することができる。これにより、被写体ごとに固定パターンノイズを知覚しにくくなるようなノイズリダクションを施すことができる。
The moving speed calculation unit 1504 outputs to the terminal 1505 the moving speed v R [deg / sec] of the subject for each block, which is calculated by calculating the equation (29).
As described above, in the present embodiment, it is possible to perform noise reduction that makes it difficult to perceive fixed pattern noise even when the subject itself moves. In addition, the moving speed v R of the subject can be calculated for each subject. Thereby, it is possible to perform noise reduction that makes it difficult to perceive fixed pattern noise for each subject.

(第3の実施形態)
次に、第3の実施形態について説明する。第1、第2の実施形態では、ノイズリダクションフィルタのフィルタ係数に対するゲインを制御することで、固定パターンノイズが知覚しにくくなるようにデジタル画像を補正する場合を例に挙げて説明した。この手法では、ノイズが存在する空間周波数帯域を抑制できていないため、ノイズが想定より残ってしまう虞がある。そこで、本実施形態では、ノイズを抑制する空間周波数帯域を制御することで、固定パターンノイズの知覚量を制御する。
(Third embodiment)
Next, a third embodiment will be described. In the first and second embodiments, the case where the digital image is corrected so as to make it difficult to perceive the fixed pattern noise by controlling the gain with respect to the filter coefficient of the noise reduction filter has been described as an example. In this method, since the spatial frequency band in which noise exists cannot be suppressed, there is a possibility that noise may remain from the assumption. Therefore, in this embodiment, the perceptual amount of fixed pattern noise is controlled by controlling the spatial frequency band for suppressing noise.

このように本実施形態と第1、第2の実施形態とは、ノイズを抑制するための構成および処理が主として異なる。具体的に、本実施形態と第1、第2の実施形態とは、画像処理部104、1400のノイズリダクション制御部208およびノイズリダクション処理部209の構成および処理が異なる。したがって、本実施形態の説明において、第1、第2の実施形態と同一の部分については、図1〜図15に付した符号と同一の符号を付す等して詳細な説明を省略する。   Thus, the present embodiment is different from the first and second embodiments mainly in the configuration and processing for suppressing noise. Specifically, the present embodiment is different from the first and second embodiments in the configurations and processes of the noise reduction control unit 208 and the noise reduction processing unit 209 of the image processing units 104 and 1400. Therefore, in the description of this embodiment, the same parts as those in the first and second embodiments are denoted by the same reference numerals as those in FIGS.

<ノイズリダクション制御部1600>
図16は、ノイズリダクション制御部1600の構成の一例を示すブロック図である。ノイズリダクション処理のカットオフ周波数を制御する際の処理の一例を図16に基づいて説明する。
端子1201より、固定パターンノイズ知覚量導出部207で導出された固定パターンノイズ知覚量P(x,y)が入力される。
<Noise Reduction Control Unit 1600>
FIG. 16 is a block diagram illustrating an example of the configuration of the noise reduction control unit 1600. An example of a process for controlling the cutoff frequency of the noise reduction process will be described with reference to FIG.
The fixed pattern noise perception amount P (x, y) derived by the fixed pattern noise perception amount deriving unit 207 is input from the terminal 1201.

低域通過フィルタ処理部1202は、固定パターンノイズ知覚量P(x,y)に低域通過フィルタを施す。以下では、低域通過フィルタ処理が施された固定パターンノイズ知覚量をPl(x,y)と表記する。
カットオフ周波数算出部1601は、固定パターンノイズ知覚量Pl(x,y)に基づいて、ノイズリダクション処理のカットオフ周波数を算出する。ここで、カットオフ周波数fc(x,y)は、以下の(30)式より算出される。ただし、カットオフ周波数fc(x,y)の算出方法は、以下の(30)式に限定されない。
fc(x,y)=k1×Pl(x,y)+k2 ・・・(30)
1、k2は、固定パターンノイズ知覚量Pl(x,y)が大きいときにカットオフ周波数fc(x,y)が大きくなり、固定パターンノイズ知覚量Pl(x,y)が小さいときにカットオフ周波数fc(x,y)が小さくなるようにするための一次式である。これにより、固定パターンノイズ知覚量Pl(x,y)が大きいときにノイズリダクションのカットオフ周波数を高くすることができ、固定パターンノイズ知覚量Pl(x,y)へのマスキングを強めることができる。カットオフ周波数算出部1601は、算出したカットオフ周波数fc(x,y)を端子1204へ出力する。
The low-pass filter processing unit 1202 applies a low-pass filter to the fixed pattern noise perception amount P (x, y). Hereinafter, the perceived amount of the fixed pattern noise that has been subjected to the low-pass filter processing is denoted as Pl (x, y).
The cut-off frequency calculation unit 1601 calculates a cut-off frequency for the noise reduction process based on the fixed pattern noise perception amount Pl (x, y). Here, the cut-off frequency fc (x, y) is calculated from the following equation (30). However, the calculation method of the cut-off frequency fc (x, y) is not limited to the following equation (30).
fc (x, y) = k 1 × Pl (x, y) + k 2 (30)
k 1 and k 2 are when the cut-off frequency fc (x, y) is large when the fixed pattern noise perception amount Pl (x, y) is large, and when the fixed pattern noise perception amount Pl (x, y) is small. This is a linear expression for reducing the cut-off frequency fc (x, y). As a result, the cutoff frequency of noise reduction can be increased when the fixed pattern noise perception amount Pl (x, y) is large, and the masking to the fixed pattern noise perception amount Pl (x, y) can be strengthened. . Cutoff frequency calculation section 1601 outputs calculated cutoff frequency fc (x, y) to terminal 1204.

<ノイズリダクション処理部1700>
図17は、ノイズリダクション処理部1700の構成の一例を示すブロック図である。信号処理部103で生成されたデジタル画像iin(x,y)のノイズを低減する際の処理の一例を図17に基づいて説明する。
端子1701より、信号処理部103で生成されたデジタル画像iin(x,y)が入力される。
端子1702より、固定パターンノイズ知覚量導出部207で算出されたカットオフ周波数fc(x,y)が入力される。
<Noise Reduction Processing Unit 1700>
FIG. 17 is a block diagram illustrating an example of the configuration of the noise reduction processing unit 1700. An example of processing for reducing noise in the digital image i in (x, y) generated by the signal processing unit 103 will be described with reference to FIG.
A digital image i in (x, y) generated by the signal processing unit 103 is input from a terminal 1701.
The cutoff frequency fc (x, y) calculated by the fixed pattern noise perception amount deriving unit 207 is input from the terminal 1702.

領域分割部1703は、端子1702から入力したカットオフ周波数fc(x,y)に基づいて、デジタル画像iin(x,y)における適当な大きさの領域のそれぞれにおけるカットオフ周波数fc(x,y)の代表値を算出する。各領域のカットオフ周波数fc(x,y)の代表値は、平均値でも、最も頻度の多い値でもよい。
ノイズリダクション係数設定部1704は、領域ごとに、カットオフ周波数fc(x,y)の代表値に基づいて、ROM109に記憶されているフィルタ係数の候補からひとつを選択し、選択したフィルタ係数をノイズリダクション係数として設定する。ROM109には、フィルタ係数とカットオフ周波数fc(x,y)の代表値との関係を表す関係式またはテーブルが記憶されている。ノイズリダクション係数設定部1704は、カットオフ周波数fc(x,y)の代表値に対応するフィルタ係数をノイズリダクション係数として設定する。
ノイズリダクション処理部1705は、ノイズリダクション係数設定部1704で設定されたノイズリダクション係数を用いて、デジタル画像iin(x,y)に対してノイズリダクション処理を実行する。ノイズリダクション処理が実行されたデジタル画像は、端子1706から出力される。
Based on the cut-off frequency fc (x, y) input from the terminal 1702, the region dividing unit 1703 cuts off the cut-off frequency fc (x, x, y in each region of an appropriate size in the digital image i in (x, y). The representative value of y) is calculated. The representative value of the cutoff frequency fc (x, y) in each region may be an average value or a value with the highest frequency.
The noise reduction coefficient setting unit 1704 selects one of the filter coefficient candidates stored in the ROM 109 based on the representative value of the cutoff frequency fc (x, y) for each region, and selects the selected filter coefficient as a noise. Set as a reduction factor. The ROM 109 stores a relational expression or table that represents the relationship between the filter coefficient and the representative value of the cutoff frequency fc (x, y). The noise reduction coefficient setting unit 1704 sets a filter coefficient corresponding to the representative value of the cutoff frequency fc (x, y) as a noise reduction coefficient.
The noise reduction processing unit 1705 performs noise reduction processing on the digital image i in (x, y) using the noise reduction coefficient set by the noise reduction coefficient setting unit 1704. The digital image that has been subjected to the noise reduction process is output from a terminal 1706.

以上のように本実施形態では、各領域のカットオフ周波数fc(x,y)の代表値に応じて、デジタル画像iin(x,y)に対するノイズの低減量を制御するようにした。したがって、ノイズの低減量を空間周波数で制御することができる。これにより、より精度よくノイズの制御ができる。 As described above, in this embodiment, the amount of noise reduction for the digital image i in (x, y) is controlled in accordance with the representative value of the cutoff frequency fc (x, y) in each region. Therefore, the amount of noise reduction can be controlled by the spatial frequency. Thereby, noise can be controlled with higher accuracy.

(第4の実施形態)
次に、第4の実施形態について説明する。第1〜第3の実施形態では、固定パターンノイズ知覚量導出部207の帯域分割部706での処理に、cortexフィルタとして知られるフィルタを用いた場合を例に挙げて説明した。しかし、cortexフィルタは、周波数特性が非常に特殊な形のフィルタである為、演算処理が重くなる。そこで、本実施形態では、cortexフィルタを、空間周波数領域における縦方向と横方向のフィルタを結合した簡易な帯域分割フィルタに置き換えることで、演算処理を軽くする。このように本実施形態と第1〜第3の実施形態とでは、帯域分割フィルタが異なることによる構成および処理が主として異なる。具体的に、本実施形態と第1〜第3の実施形態とは、固定パターンノイズ知覚量導出部207の構成および処理が異なる。したがって、本実施形態の説明において、第1〜第3の実施形態と同一の部分については、図1〜図17に付した符号と同一の符号を付す等して詳細な説明を省略する。
(Fourth embodiment)
Next, a fourth embodiment will be described. In the first to third embodiments, the case where a filter known as a cortex filter is used for the processing in the band dividing unit 706 of the fixed pattern noise perception amount deriving unit 207 has been described as an example. However, since the cortex filter is a filter having a very special frequency characteristic, calculation processing becomes heavy. Therefore, in this embodiment, the arithmetic processing is lightened by replacing the cortex filter with a simple band division filter in which the vertical and horizontal filters in the spatial frequency domain are combined. As described above, the present embodiment and the first to third embodiments are mainly different in configuration and processing due to different band division filters. Specifically, the configuration and processing of the fixed pattern noise perception amount deriving unit 207 are different between the present embodiment and the first to third embodiments. Therefore, in the description of this embodiment, the same parts as those in the first to third embodiments are denoted by the same reference numerals as those in FIGS.

<ノイズ知覚量算出の処理>
図18は、固定パターンノイズ知覚量導出部1800の構成を示す図である。
端子701より、固定パターンノイズ特性取得部205で取得された固定パターンノイズマップFPN(x,y)が入力される。
端子702より、ノイズ特性推定部206で得られたノイズの分散σnが入力される。
ノイズ画像生成部703は、固定パターンノイズマップFPN(x,y)と同じサイズのホワイトノイズ画像nw(x,y)を、ノイズの分散がσnとなるように生成する。そして、ノイズ画像生成部703は、固定パターンノイズマップFPN(x,y)とホワイトノイズ画像nw(x,y)を加算することでノイズ画像n(x,y)を生成する。
帯域分割部1801は、帯域分割フィルタを用いて、固定パターンノイズマップFPN(x,y)を、複数の空間周波数帯域ごとに分割し、固定パターンノイズマップに対する帯域分割周波数情報Isk,l(u,v)を生成する。同様に、帯域分割部1801は、帯域フィルタを用いて、ノイズ画像n(x,y) 、複数の空間周波数帯域ごとに分割し、ノイズ画像に対する帯域分割周波数情報Nsk,l(u,v)を生成する。帯域分割周波数情報Isk,l(u,v)、Nsk,l(u,v)は、以下の(31)式、(32)式で求めることができる。
<Noise perception amount calculation processing>
FIG. 18 is a diagram illustrating a configuration of the fixed pattern noise perception amount deriving unit 1800.
A fixed pattern noise map FPN (x, y) acquired by the fixed pattern noise characteristic acquisition unit 205 is input from a terminal 701.
The noise variance σ n obtained by the noise characteristic estimation unit 206 is input from the terminal 702.
The noise image generation unit 703 generates a white noise image n w (x, y) having the same size as the fixed pattern noise map FPN (x, y) so that the noise variance is σ n . Then, the noise image generation unit 703 generates the noise image n (x, y) by adding the fixed pattern noise map FPN (x, y) and the white noise image n w (x, y).
The band division unit 1801 divides the fixed pattern noise map FPN (x, y) using a band division filter for each of a plurality of spatial frequency bands, and band division frequency information Is k, l (u , v). Similarly, the band dividing unit 1801 uses a band filter to divide the noise image n (x, y) into a plurality of spatial frequency bands, and band division frequency information Ns k, l (u, v) for the noise image. Is generated. The band division frequency information Is k, l (u, v) and Ns k, l (u, v) can be obtained by the following equations (31) and (32).

Figure 2015088914
Figure 2015088914

(31)式、(32)式において、kは水平(横)方向のインデックス、lは垂直(縦)方向のインデックスである。また、(31)式、(32)式において、帯域分割フィルタfilterbankk,l(u,v)は、以下の(33)式のように定義される。 In equations (31) and (32), k is an index in the horizontal (lateral) direction, and l is an index in the vertical (vertical) direction. Further, in the equations (31) and (32), the band division filter filterbank k, l (u, v) is defined as the following equation (33).

Figure 2015088914
Figure 2015088914

(33)式において、Kは水平(横)方向の空間周波数帯域の分割数であり、Lは垂直(縦)方向の空間周波数帯域の分割数である。本実施形態では、K=6、L=6とする。
図19は、帯域分割フィルタfilterbankk,l(u,v)により複数に分割された空間周波数領域を模式的に示す図である。図19において、横軸、縦軸は、とも正規化周波数空間である。図19では、各フィルタの半値周波数を、太い実線で示す。
ノイズマスク部708は、固定パターンノイズマップに対する帯域分割画像isk,l(x,y)に基づいて、ノイズ画像に対する帯域分割周波数情報Nsk,l(x,y)に対するマスキングを施す。これにより、人間に知覚されるノイズ画像である知覚ノイズ画像Pk,l(x,y)が算出される。知覚ノイズ画像Pk,l(x,y)は、空間周波数帯域ごとに算出される。
固定パターンノイズ知覚量算出部709は、空間周波数帯域ごとの知覚ノイズ画像Pk,l(x,y)を合成し、固定パターンノイズ知覚量P(x,y)を算出する。
In Equation (33), K is the number of divisions in the spatial frequency band in the horizontal (lateral) direction, and L is the number of divisions in the spatial frequency band in the vertical (vertical) direction. In this embodiment, K = 6 and L = 6.
FIG. 19 is a diagram schematically showing a spatial frequency region divided into a plurality of parts by the band division filter filterbank k, l (u, v). In FIG. 19, both the horizontal axis and the vertical axis are normalized frequency spaces. In FIG. 19, the half-value frequency of each filter is indicated by a thick solid line.
The noise mask unit 708 performs masking on the band division frequency information Ns k, l (x, y) for the noise image based on the band division image is k, l (x, y) for the fixed pattern noise map. Thereby, a perceptual noise image P k, l (x, y), which is a noise image perceived by a human, is calculated. The perceptual noise image P k, l (x, y) is calculated for each spatial frequency band.
The fixed pattern noise perception amount calculation unit 709 synthesizes perceptual noise images P k, l (x, y) for each spatial frequency band, and calculates a fixed pattern noise perception amount P (x, y).

以上のように本実施形態では、cortexフィルタのような特殊なフィルタを使うことなく、簡易な処理で固定パターンノイズを知覚しにくくする画像処理を実現することができる。
尚、本実施形態では、周波数域での乗算を行うことで帯域分割を行ったが、空間域での畳みこみ演算を行うことで帯域分割を実現することも可能である。また、本実施形態に対しては、ウェーブレットなど公知の帯域分割フィルタを適用することが可能である。また、本実施形態では、第1の実施形態の帯域分割フィルタを変更する場合を例に挙げて説明したが、本実施形態を第2、第3の実施形態にも適用できる。
As described above, in the present embodiment, it is possible to realize image processing that makes it difficult to perceive fixed pattern noise by simple processing without using a special filter such as a cortex filter.
In the present embodiment, band division is performed by performing multiplication in the frequency domain. However, it is also possible to realize band division by performing a convolution operation in the spatial domain. In addition, a known band division filter such as a wavelet can be applied to the present embodiment. In the present embodiment, the case of changing the band division filter of the first embodiment has been described as an example, but the present embodiment can also be applied to the second and third embodiments.

前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   Each of the above-described embodiments is merely an example of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

(その他の実施例)
本発明は、以下の処理を実行することによっても実現される。即ち、まず、以上の実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)が当該コンピュータプログラムを読み出して実行する。
(Other examples)
The present invention is also realized by executing the following processing. That is, first, software (computer program) for realizing the functions of the above embodiments is supplied to a system or apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the computer program.

101 撮像部、104 画像処理部、108 CPU   101 imaging unit, 104 image processing unit, 108 CPU

Claims (15)

動画像を撮像した際の露出に関する条件に基づいて、当該動画像におけるノイズの特性を導出するノイズ特性導出手段と、
前記動画像における被写体の移動速度を取得する移動速度取得手段と、
前記移動速度取得手段により取得された、前記動画像における被写体の移動速度に応じた、光に対する視覚の感度を表す情報を取得する視覚特性取得手段と、
前記動画像と、前記ノイズ特性導出手段により導出されたノイズの特性と、前記視覚特性取得手段により取得された情報とに基づいて、前記動画像に含まれる固定パターンノイズに前記ノイズの特性に基づくノイズを重畳させた場合の当該固定パターンノイズの知覚のされやすさを評価した値である固定パターンノイズ知覚量を導出する固定パターンノイズ知覚量導出手段と、
前記固定パターンノイズ知覚量導出手段により導出された固定パターンノイズ知覚量に基づいて、前記動画像に含まれるノイズを低減するノイズ低減手段と、を有することを特徴とする画像処理装置。
A noise characteristic deriving unit for deriving a characteristic of noise in the moving image based on a condition relating to exposure when the moving image is captured;
Moving speed acquisition means for acquiring the moving speed of the subject in the moving image;
Visual characteristic acquisition means for acquiring information representing visual sensitivity to light according to the movement speed of the subject in the moving image, acquired by the movement speed acquisition means;
Based on the moving image, the characteristic of the noise derived by the noise characteristic deriving unit, and the information acquired by the visual characteristic acquiring unit, the fixed pattern noise included in the moving image is based on the characteristic of the noise. Fixed pattern noise perception amount derivation means for deriving a fixed pattern noise perception amount, which is a value obtained by evaluating the ease of perception of the fixed pattern noise when noise is superimposed;
An image processing apparatus comprising: noise reduction means for reducing noise contained in the moving image based on the fixed pattern noise perception amount derived by the fixed pattern noise perception amount deriving means.
前記固定パターンノイズ知覚量導出手段は、
前記固定パターンノイズに対して、前記ノイズ特性導出手段により導出された特性のノイズが重畳された画像であるノイズ画像を生成するノイズ画像生成手段と、
前記固定パターンノイズを表す固定パターンノイズ画像と前記ノイズ画像とを、それぞれ空間周波数の関数に変換する変換手段と、
前記空間周波数の関数に変換された前記固定パターンノイズ画像と前記ノイズ画像とに対して、コントラスト感度と空間周波数との関係を表す空間視覚特性をそれぞれ乗算する空間視覚特性乗算手段と、
前記空間視覚特性が乗算された前記固定パターンノイズ画像と前記ノイズ画像とを、を、それぞれ空間周波数帯域ごとに分割する帯域分割手段と、
前記空間周波数ごとに分割された固定パターンノイズ画像と、前記空間周波数帯域ごとに分割されたノイズ画像とに基づいて、前記空間周波数帯域のごとの前記固定パターンノイズ知覚量である部分ノイズ知覚量を算出する部分ノイズ知覚量算出手段と、
前記部分ノイズ知覚量算出手段により算出された部分ノイズ知覚量を合成して前記固定パターンノイズ知覚量を算出する固定パターンノイズ知覚量算出手段と、
を有することを特徴とする請求項1に記載の画像処理装置。
The fixed pattern noise perception amount derivation means includes:
A noise image generating means for generating a noise image, which is an image in which the noise of the characteristic derived by the noise characteristic deriving means is superimposed on the fixed pattern noise;
Conversion means for converting the fixed pattern noise image representing the fixed pattern noise and the noise image into a function of spatial frequency, respectively;
Spatial visual characteristic multiplying means for multiplying the fixed pattern noise image and the noise image converted into a function of the spatial frequency by a spatial visual characteristic representing a relationship between contrast sensitivity and spatial frequency, respectively.
Band division means for dividing the fixed pattern noise image multiplied by the spatial visual characteristic and the noise image for each spatial frequency band;
Based on the fixed pattern noise image divided for each spatial frequency and the noise image divided for each spatial frequency band, a partial noise perception amount that is the fixed pattern noise perception amount for each spatial frequency band is determined. A partial noise perception amount calculating means for calculating;
Fixed pattern noise perception amount calculation means for calculating the fixed pattern noise perception amount by combining the partial noise perception amount calculated by the partial noise perception amount calculation means;
The image processing apparatus according to claim 1, further comprising:
前記帯域分割手段は、空間周波数の特性が、空間周波数領域における円周方向の特性と半径方向の特性との結合で定義される帯域分割フィルタ、もしくは、空間周波数の特性が、空間周波数領域における縦方向の特性と横方向の特性との結合で定義される帯域分割フィルタを用いて、前記固定パターンノイズ画像と前記ノイズ画像を、空間周波数帯域ごとに分割することを特徴とする請求項2に記載の画像処理装置。   The band dividing means is a band dividing filter whose spatial frequency characteristic is defined by a combination of a circumferential characteristic and a radial characteristic in the spatial frequency domain, or the spatial frequency characteristic is a vertical frequency in the spatial frequency domain. 3. The fixed pattern noise image and the noise image are divided for each spatial frequency band using a band division filter defined by a combination of a directional characteristic and a horizontal characteristic. Image processing apparatus. 前記移動速度取得手段は、前記動画像が撮像された際の撮像装置の角速度に基づいて、、前記動画像における被写体の移動速度を導出することを特徴とする請求項1〜3の何れか1項に記載の画像処理装置。   The said moving speed acquisition means derives | leads-out the moving speed of the to-be-photographed object in the said moving image based on the angular velocity of the imaging device at the time of the said moving image being imaged. The image processing apparatus according to item. 前記移動速度取得手段は、前記動画像における動きベクトルを導出し、導出した動きベクトルに基づいて、前記動画像における被写体の移動速度を導出することを特徴とする請求項1〜3の何れか1項に記載の画像処理装置。   The moving speed acquisition unit derives a motion vector in the moving image, and derives a moving speed of a subject in the moving image based on the derived motion vector. The image processing apparatus according to item. 前記ノイズ低減手段は、
前記固定パターンノイズ知覚量導出手段により導出された固定パターンノイズ知覚量に基づいて、前記動画像に含まれるノイズを低減するためのフィルタに対するゲインを導出するノイズリダクション制御手段と、
前記ノイズリダクション制御手段により導出されたゲインを前記フィルタのフィルタ係数に乗算し、前記ゲインを乗算したフィルタ係数に基づいて、前記動画像に含まれるノイズを低減する処理を行うノイズリダクション処理手段と、を有することを特徴とする請求項1〜5の何れか1項に記載の画像処理装置。
The noise reduction means includes
Noise reduction control means for deriving a gain for a filter for reducing noise included in the moving image based on the fixed pattern noise perception amount derived by the fixed pattern noise perception amount deriving means;
Noise reduction processing means for multiplying the filter coefficient of the filter by the gain derived by the noise reduction control means, and performing processing for reducing noise included in the moving image based on the filter coefficient multiplied by the gain; The image processing apparatus according to claim 1, wherein the image processing apparatus includes:
前記ノイズ低減手段は、
前記固定パターンノイズ知覚量導出手段により導出された固定パターンノイズ知覚量に基づいて、前記動画像におけるカットオフ周波数を導出するノイズリダクション制御手段と、
前記ノイズリダクション制御手段により導出されたカットオフ周波数に基づいて、前記動画像に含まれるノイズを低減する処理を行うノイズリダクション処理手段と、を有することを特徴とする請求項1〜5の何れか1項に記載の画像処理装置。
The noise reduction means includes
Noise reduction control means for deriving a cutoff frequency in the moving image based on the fixed pattern noise perception amount derived by the fixed pattern noise perception amount deriving means;
6. Noise reduction processing means for performing processing for reducing noise contained in the moving image based on a cut-off frequency derived by the noise reduction control means. The image processing apparatus according to item 1.
動画像を撮像した際の露出に関する条件に基づいて、当該動画像におけるノイズの特性を導出するノイズ特性導出工程と、
前記動画像における被写体の移動速度を取得する移動速度取得工程と、
前記移動速度取得工程により取得された、前記動画像における被写体の移動速度に応じた、光に対する視覚の感度を表す情報を取得する視覚特性取得工程と、
前記動画像と、前記ノイズ特性導出工程により導出されたノイズの特性と、前記視覚特性取得工程により取得された情報とに基づいて、前記動画像に含まれる固定パターンノイズに前記ノイズの特性に基づくノイズを重畳させた場合の当該固定パターンノイズの知覚のされやすさを評価した値である固定パターンノイズ知覚量を導出する固定パターンノイズ知覚量導出工程と、
前記固定パターンノイズ知覚量導出工程により導出された固定パターンノイズ知覚量に基づいて、前記動画像に含まれるノイズを低減するノイズ低減工程と、を有することを特徴とする画像処理方法。
A noise characteristic deriving step for deriving a noise characteristic in the moving image based on a condition relating to exposure when the moving image is captured;
A moving speed acquisition step of acquiring a moving speed of a subject in the moving image;
A visual characteristic acquisition step of acquiring information representing visual sensitivity to light according to a moving speed of a subject in the moving image acquired by the moving speed acquisition step;
Based on the moving image, the noise characteristic derived by the noise characteristic deriving step, and the information acquired by the visual characteristic acquiring step, the fixed pattern noise included in the moving image is based on the noise characteristic. A fixed pattern noise perception amount derivation step for deriving a fixed pattern noise perception amount, which is a value obtained by evaluating the ease of perception of the fixed pattern noise when noise is superimposed;
A noise reduction step of reducing noise included in the moving image based on the fixed pattern noise perception amount derived by the fixed pattern noise perception amount derivation step.
前記固定パターンノイズ知覚量導出工程は、
前記固定パターンノイズに対して、前記ノイズ特性導出工程により導出された特性のノイズが重畳された画像であるノイズ画像を生成するノイズ画像生成工程と、
前記固定パターンノイズを表す固定パターンノイズ画像と前記ノイズ画像とを、それぞれ空間周波数の関数に変換する変換工程と、
前記空間周波数の関数に変換された前記固定パターンノイズ画像と前記ノイズ画像とに対して、コントラスト感度と空間周波数との関係を表す空間視覚特性をそれぞれ乗算する空間視覚特性乗算工程と、
前記空間視覚特性が乗算された前記固定パターンノイズ画像と前記ノイズ画像とを、を、それぞれ空間周波数帯域ごとに分割する帯域分割工程と、
前記空間周波数ごとに分割された固定パターンノイズ画像と、前記空間周波数帯域ごとに分割されたノイズ画像とに基づいて、前記空間周波数帯域のごとの前記固定パターンノイズ知覚量である部分ノイズ知覚量を算出する部分ノイズ知覚量算出工程と、
前記部分ノイズ知覚量算出工程により算出された部分ノイズ知覚量を合成して前記固定パターンノイズ知覚量を算出する固定パターンノイズ知覚量算出工程と、
を有することを特徴とする請求項8に記載の画像処理方法。
The fixed pattern noise perception amount derivation step includes:
A noise image generation step for generating a noise image, which is an image in which the noise of the characteristic derived by the noise characteristic derivation step is superimposed on the fixed pattern noise;
A conversion step of converting the fixed pattern noise image representing the fixed pattern noise and the noise image into a function of spatial frequency, respectively;
A spatial visual characteristic multiplication step of multiplying the fixed pattern noise image and the noise image converted into a function of the spatial frequency by a spatial visual characteristic representing a relationship between contrast sensitivity and spatial frequency, respectively.
A band dividing step of dividing the fixed pattern noise image multiplied by the spatial visual characteristic and the noise image into spatial frequency bands, respectively.
Based on the fixed pattern noise image divided for each spatial frequency and the noise image divided for each spatial frequency band, a partial noise perception amount that is the fixed pattern noise perception amount for each spatial frequency band is determined. A partial noise perception amount calculating step to calculate;
A fixed pattern noise perception amount calculation step of calculating the fixed pattern noise perception amount by combining the partial noise perception amount calculated by the partial noise perception amount calculation step;
The image processing method according to claim 8, further comprising:
前記帯域分割工程は、空間周波数の特性が、空間周波数領域における円周方向の特性と半径方向の特性との結合で定義される帯域分割フィルタ、もしくは、空間周波数の特性が、空間周波数領域における縦方向の特性と横方向の特性との結合で定義される帯域分割フィルタを用いて、前記固定パターンノイズ画像と前記ノイズ画像を、空間周波数帯域ごとに分割することを特徴とする請求項9に記載の画像処理方法。   In the band dividing step, a spatial frequency characteristic is defined by a combination of a circumferential characteristic and a radial characteristic in the spatial frequency domain, or a spatial frequency characteristic is a vertical frequency in the spatial frequency domain. 10. The fixed pattern noise image and the noise image are divided for each spatial frequency band using a band division filter defined by a combination of a directional characteristic and a lateral characteristic. Image processing method. 前記移動速度取得工程は、前記動画像が撮像された際の撮像装置の角速度に基づいて、、前記動画像における被写体の移動速度を導出することを特徴とする請求項8〜10の何れか1項に記載の画像処理方法。   11. The moving speed acquisition step of deriving a moving speed of a subject in the moving image based on an angular velocity of an imaging device when the moving image is captured. The image processing method according to item. 前記移動速度取得工程は、前記動画像における動きベクトルを導出し、導出した動きベクトルに基づいて、前記動画像における被写体の移動速度を導出することを特徴とする請求項8〜10の何れか1項に記載の画像処理方法。   11. The moving speed acquisition step of deriving a motion vector in the moving image and deriving a moving speed of a subject in the moving image based on the derived motion vector. The image processing method according to item. 前記ノイズ低減工程は、
前記固定パターンノイズ知覚量導出工程により導出された固定パターンノイズ知覚量に基づいて、前記動画像に含まれるノイズを低減するためのフィルタに対するゲインを導出するノイズリダクション制御工程と、
前記ノイズリダクション制御工程により導出されたゲインを前記フィルタのフィルタ係数に乗算し、前記ゲインを乗算したフィルタ係数に基づいて、前記動画像に含まれるノイズを低減する処理を行うノイズリダクション処理工程と、を有することを特徴とする請求項8〜12の何れか1項に記載の画像処理方法。
The noise reduction step includes
A noise reduction control step for deriving a gain for a filter for reducing noise included in the moving image based on the fixed pattern noise perception amount derived by the fixed pattern noise perception amount deriving step;
A noise reduction processing step of multiplying a gain derived by the noise reduction control step by a filter coefficient of the filter, and performing a process of reducing noise included in the moving image, based on the filter coefficient multiplied by the gain; The image processing method according to claim 8, wherein the image processing method includes:
前記ノイズ低減工程は、
前記固定パターンノイズ知覚量導出工程により導出された固定パターンノイズ知覚量に基づいて、前記動画像におけるカットオフ周波数を導出するノイズリダクション制御工程と、
前記ノイズリダクション制御工程により導出されたカットオフ周波数に基づいて、前記動画像に含まれるノイズを低減する処理を行うノイズリダクション処理工程と、を有することを特徴とする請求項8〜12の何れか1項に記載の画像処理方法。
The noise reduction step includes
A noise reduction control step of deriving a cutoff frequency in the moving image based on the fixed pattern noise perception amount derived by the fixed pattern noise perception amount deriving step;
13. A noise reduction processing step of performing a process of reducing noise included in the moving image based on the cut-off frequency derived by the noise reduction control step. 2. The image processing method according to item 1.
請求項8〜14の何れか1項に記載の画像処理方法の各工程をコンピュータに実行させることを特徴とするプログラム。   A program for causing a computer to execute each step of the image processing method according to any one of claims 8 to 14.
JP2013225756A 2013-10-30 2013-10-30 Image processing device, image processing method, and program Pending JP2015088914A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013225756A JP2015088914A (en) 2013-10-30 2013-10-30 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013225756A JP2015088914A (en) 2013-10-30 2013-10-30 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2015088914A true JP2015088914A (en) 2015-05-07

Family

ID=53051290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013225756A Pending JP2015088914A (en) 2013-10-30 2013-10-30 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2015088914A (en)

Similar Documents

Publication Publication Date Title
JP5968073B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP5843454B2 (en) Image processing apparatus, image processing method, and program
JP2010020758A5 (en)
JP5932485B2 (en) Noise reduction device and noise reduction method
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
US8774551B2 (en) Image processing apparatus and image processing method for reducing noise
JP6319972B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
KR20120112051A (en) Image processing device, image processing method, and program
JP5325800B2 (en) Image processing device, image photographing device, image display device, and program
JP2014021928A (en) Image processor, image processing method and program
JP6270413B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5455728B2 (en) Imaging apparatus, image processing apparatus, and image processing method
JP5654860B2 (en) Image processing apparatus, control method therefor, and program
CN109672810B (en) Image processing apparatus, image processing method, and storage medium
JP2018191178A (en) Image processing device, and image processing method and program
JP2015177528A (en) image processing apparatus, image processing method, and program
JP6904838B2 (en) Image processing device, its control method and program
JP2019016893A (en) Image processing apparatus, control method therefor, and program
JP6682184B2 (en) Image processing method, image processing program, image processing device, and imaging device
JP6331339B2 (en) Imaging apparatus, imaging system including the imaging apparatus, and false color removal method
JP2015088914A (en) Image processing device, image processing method, and program
JP2016111484A (en) Image processing apparatus, image processing method and program
JP6202989B2 (en) Image processing apparatus, image processing method, and program
JP2015121884A (en) Image processing apparatus, method of the same, and program
JP6221330B2 (en) Image processing program, image processing apparatus, and image processing method