JP2015088914A - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP2015088914A JP2015088914A JP2013225756A JP2013225756A JP2015088914A JP 2015088914 A JP2015088914 A JP 2015088914A JP 2013225756 A JP2013225756 A JP 2013225756A JP 2013225756 A JP2013225756 A JP 2013225756A JP 2015088914 A JP2015088914 A JP 2015088914A
- Authority
- JP
- Japan
- Prior art keywords
- noise
- fixed pattern
- image
- characteristic
- pattern noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法およびプログラムに関し、特に、画像の固定パターンノイズを低減するために用いて好適なものである。 The present invention relates to an image processing apparatus, an image processing method, and a program, and is particularly suitable for use in reducing fixed pattern noise of an image.
デジタルカメラやデジタルビデオカメラ等の撮像装置に備わるCCDやCMOSセンサといった固体撮像素子の固定パターンノイズは、その画面上での位置が固定されており目立ちやすい。デジタルカメラの場合、撮像時に、固体撮像素子への入射光を遮光することで暗黒画像を撮影し、当該暗黒画像から固定パターンノイズの画像を出力する。この固定パターンノイズの画像を撮像画像から減算することで固定パターンノイズを除去するという方法が知られている(特許文献1を参照)。
しかし、デジタルビデオカメラで動画像を撮像する場合にはシャッターを切ることで固体撮像素子への入射光を遮光することができない。したがって、上述した方法では固定パターンノイズのみを除去することができない。そこで、敢えて固定パターンノイズにランダムノイズを付加することでランダムノイズ化し、ノイズリダクションを行う方法がある(特許文献2を参照)。
Fixed pattern noise of a solid-state imaging device such as a CCD or CMOS sensor provided in an imaging apparatus such as a digital camera or a digital video camera has a fixed position on the screen and is easily noticeable. In the case of a digital camera, a dark image is captured by blocking incident light to the solid-state image sensor during imaging, and an image of fixed pattern noise is output from the dark image. A method of removing fixed pattern noise by subtracting this fixed pattern noise image from a captured image is known (see Patent Document 1).
However, when a moving image is picked up by a digital video camera, the incident light to the solid-state image pickup device cannot be shielded by closing the shutter. Therefore, only the fixed pattern noise cannot be removed by the method described above. Therefore, there is a method of performing random noise reduction by adding random noise to fixed pattern noise (see Patent Document 2).
しかしながら、動画像において、固定パターンノイズは、画像内の被写体の移動速度に応じて見えが変わる。このため、単純なノイズリダクションを行っただけでは、画像内の被写体の移動速度によって、固体パターンノイズが見えてしまう。
本発明は、このような問題点に鑑みてなされたものであり、固定パターンノイズが知覚されにくい動画像を生成することを目的とする。
However, in the moving image, the appearance of the fixed pattern noise changes according to the moving speed of the subject in the image. For this reason, solid pattern noise can be seen only by performing simple noise reduction depending on the moving speed of the subject in the image.
The present invention has been made in view of such a problem, and an object thereof is to generate a moving image in which fixed pattern noise is hardly perceived.
本発明の画像処理装置は、動画像を撮像した際の露出に関する条件に基づいて、当該動画像におけるノイズの特性を導出するノイズ特性導出手段と、前記動画像における被写体の移動速度を取得する移動速度取得手段と、前記移動速度取得手段により取得された、前記動画像における被写体の移動速度に応じた、光に対する視覚の感度を表す情報を取得する視覚特性取得手段と、前記動画像と、前記ノイズ特性導出手段により導出されたノイズの特性と、前記視覚特性取得手段により取得された情報とに基づいて、前記動画像に含まれる固定パターンノイズに前記ノイズの特性に基づくノイズを重畳させた場合の当該固定パターンノイズの知覚のされやすさを評価した値である固定パターンノイズ知覚量を導出する固定パターンノイズ知覚量導出手段と、前記固定パターンノイズ知覚量導出手段により導出された固定パターンノイズ知覚量に基づいて、前記動画像に含まれるノイズを低減するノイズ低減手段と、を有することを特徴とする。 The image processing apparatus according to the present invention includes a noise characteristic deriving unit that derives a noise characteristic in the moving image based on a condition relating to exposure when the moving image is captured, and a movement that acquires a moving speed of the subject in the moving image. Speed acquisition means; visual characteristic acquisition means for acquiring information representing visual sensitivity to light according to the moving speed of the subject in the moving image, acquired by the moving speed acquisition means; the moving image; When noise based on the noise characteristic is superimposed on the fixed pattern noise included in the moving image based on the noise characteristic derived by the noise characteristic deriving unit and the information acquired by the visual characteristic acquiring unit Fixed pattern noise perception amount to derive fixed pattern noise perception amount, which is an evaluation of the ease of perception of the fixed pattern noise Means out, on the basis of the fixed pattern fixed pattern noise perception values derived by the noise perceived amount deriving means, and having a noise reduction means for reducing noise included in the moving image.
本発明によれば、固定パターンノイズが知覚されにくい動画像を生成することができる。 According to the present invention, it is possible to generate a moving image in which fixed pattern noise is hardly perceived.
以下に、図面に基づいて本発明の実施形態について説明する。
(第1の実施形態)
まず、第1の実施形態について説明する。
本実施形態では、人間による固定パターンノイズの知覚されやすさを表現する固定パターンノイズ知覚量を算出する。ここで、固定パターンノイズ知覚量は、ノイズ感度モデルに基づき、固定パターンノイズの知覚しやすさをマップ化したノイズマップである。この固定パターンノイズ知覚量に基づいて、撮像画像のノイズを低減する処理を行う。ここで、ノイズ感度モデルに関しては、例えば、非特許文献1に記載の技術がある。本実施形態では、非特許文献1に記載のノイズ感度モデルを用いる場合を例に挙げて説明する。
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
First, the first embodiment will be described.
In the present embodiment, a fixed pattern noise perception amount that expresses the ease of perception of fixed pattern noise by a human is calculated. Here, the perceived amount of fixed pattern noise is a noise map obtained by mapping ease of perception of fixed pattern noise based on a noise sensitivity model. Based on the fixed pattern noise perception amount, processing for reducing noise of the captured image is performed. Here, regarding the noise sensitivity model, for example, there is a technique described in
従来のノイズリダクション処理では、ランダムノイズを低減したために、固定パターンノイズがより目立ってしまうという問題があった。そこで、本実施形態は、画像内の被写体の動きに応じた人間の視感度の変化に応じて、固定パターンノイズの周波数特性およびランダムノイズの周波数特性を考慮して最適なノイズリダクション処理を施す。これにより、任意の移動する被写体に対し、敢えてランダムノイズをやや残すことで固定パターンノイズを知覚しにくい動画像を生成することができる。 In the conventional noise reduction process, there is a problem that fixed pattern noise becomes more conspicuous because random noise is reduced. In view of this, in the present embodiment, an optimum noise reduction process is performed in consideration of the frequency characteristics of fixed pattern noise and the frequency characteristics of random noise in accordance with changes in human visibility according to the movement of the subject in the image. As a result, it is possible to generate a moving image in which fixed pattern noise is less likely to be perceived by leaving some random noise for an arbitrary moving subject.
<システム全体の構成>
図1は、本実施形態の画像処理装置を含むデジタルカメラ(撮像装置)の構成の一例を示すブロック図である。本実施形態では、デジタルカメラは、動画像を撮像できるものである。
撮像部101は、ズームレンズ、フォーカスレンズ、ぶれ補正レンズ、絞り、シャッター、光学ローパスフィルタ、iRカットフィルタ、カラーフィルタおよびCMOSやCCD等のセンサ(固体撮像素子)、を含み、被写体の光量を検知する。
A/D変換部102は、被写体の光量をデジタル値に変換する。
信号処理部103は、A/D変換部102で変換されたデジタル値に、デモザイキング処理、ホワイトバランス処理およびガンマ処理などを行い、デジタル画像を生成する。
<System configuration>
FIG. 1 is a block diagram illustrating an example of a configuration of a digital camera (imaging device) including the image processing device of the present embodiment. In the present embodiment, the digital camera can capture a moving image.
The
The A /
The
画像処理部104は、信号処理部103で生成されたデジタル画像に対するノイズ低減処理を行う。
エンコーダ部105は、ノイズ低減処理が行われたデジタル画像をJPEG等の映像圧縮フォーマットに変換する処理を行う。
メディアインタフェース(I/F)106は、メディア107につなぐためのインタフェースである。メディア107は、例えば、ハードディスク、メモリーカード、CFカード、SDカードまたはUSBメモリである。
The
The
A media interface (I / F) 106 is an interface for connecting to the
CPU108は、デジタルカメラの各構成の処理の全てに関わり、ROM109やRAM110に格納された命令を順に読み込み、処理を実行する。そして、CPU108は、システムバス115を介して、デジタルカメラの各構成を制御する。ROM109とRAM110は、CPU108が実行する処理に必要なプログラム、データ、作業領域等をCPU108に提供する。
The
撮像系制御部111は、フォーカスを合わせる、シャッターを開く、絞りを調節する等の、CPU108から指示された撮像系の制御を行う。
操作部112は、ボタンやモードダイヤル等を有し、これらを介して入力されたユーザ指示を受け取る。ユーザ指示としては、ISO感度設定、シャッター速度設定、F値設定等の撮影設定がある。これらの撮影設定は、CPU108によって、デジタルカメラの撮影条件に反映されると共に、RAM110に記憶される。
The imaging
The
D/A変換部113は、前記ノイズ低減処理が行われたデジタル画像に対しアナログ変換を行い、その結果を撮像画像データとして出力する。表示部114は、D/A変換部113から受け取った撮像画像データの表示を行う。表示部114としては、例えば、液晶ディスプレイが用いられる。
ジャイロセンサ116は、デジタルカメラの角速度を検出するためのセンサである。
The D /
The
<画像処理部104>
図2は、画像処理部104の構成の一例を示すブロック図である。本実施形態では、画像処理部104が画像処理装置に相当する。
端子201から、信号処理部103で生成されたデジタル画像が入力される。
移動速度取得部202は、標準的な観察環境でデジタル画像(動画像)を観察する際の、デジタル画像内の被写体の移動速度vR[deg/sec]を取得する。具体的な移動速度取得処理については後述する。被写体そのものが動いていなくても、デジタルカメラが動くことにより、デジタル画像内では被写体は動くことになる。尚、以下の説明では、デジタル画像内では被写体の移動速度を、必要に応じて被写体の移動速度と称する。
<
FIG. 2 is a block diagram illustrating an example of the configuration of the
A digital image generated by the
The moving
視覚特性データ記憶部203は、被写体の移動速度vRに応じた視覚周波数応答特性をテーブルまたは関係式として記憶する。
視覚特性参照部(視覚特性取得部)204は、移動速度取得部202より取得した、被写体の移動速度vRに基づき、当該移動速度vRで移動する被写体を人間が追従視する際の視覚周波数応答特性を取得する。
図3は、被写体の移動速度に応じた視覚周波数応答特性の変化を表す図である。本実施形態では、非特許文献2に記載の視覚周波数応答特性を用いる。具体的には、視覚周波数応答特性は以下の(1)式〜(4)式で定義される。
The visual characteristic
The visual characteristic reference unit (visual characteristic acquisition unit) 204 is based on the moving speed v R of the subject acquired from the moving
FIG. 3 is a diagram showing changes in visual frequency response characteristics according to the moving speed of the subject. In this embodiment, the visual frequency response characteristic described in Non-Patent Document 2 is used. Specifically, the visual frequency response characteristic is defined by the following equations (1) to (4).
被写体の移動速度vRは、移動速度取得部202で取得されるものである。また、uは水平方向の空間周波数(水平周波数)であり、vは垂直方向の空間周波数(垂直周波数)である。また、例えば、s1=6.1、s2=7.3、p1=45.9、c0=0.6329、c1=0.8404、c2=0.7986である。
The movement speed v R of the subject is acquired by the movement
図3において、視覚周波数応答特性301は、被写体の移動速度vRが0[deg/sec]であるときの視覚周波数応答特性であり、視覚周波数応答特性302は、被写体の移動速度vRが10[deg/sec]であるときの視覚周波数応答特性である。
尚、視覚周波数応答特性は、図3((1)式〜(4)式)に示すものに限定されない。追従視時の視覚周波数応答特性は、被写体の動きが大きくなるにつれて、コントラスト感度のピークが低周波側へシフトするバンドパス特性であればよい。例えば、非特許文献3に記載の視覚周波数応答特性等、他の視覚周波数応答特性や実測データ等を視覚周波数応答特性として用いてもよい。
In FIG. 3, a visual
The visual frequency response characteristics are not limited to those shown in FIG. 3 (formulas (1) to (4)). The visual frequency response characteristic at the time of following vision may be a band pass characteristic in which the peak of contrast sensitivity shifts to the low frequency side as the movement of the subject increases. For example, other visual frequency response characteristics such as the visual frequency response characteristics described in Non-Patent Document 3 or actually measured data may be used as the visual frequency response characteristics.
固定パターンノイズ特性取得部205は、固体撮像素子に特有の固定パターンノイズの特性を取得する。具体的な固定パターンノイズ取得処理については後述する。
ノイズ特性推定部206は、撮像系にて発生するノイズの特性を推定する。具体的なノイズ特性推定処理については後述する。
固定パターンノイズ知覚量導出部207は、追従視とノイズの周波数特性とを考慮した固定パターンノイズ知覚量を導出する。この固定パターンノイズ知覚量は、固定パターンノイズ特性取得部205で取得された固定パターンノイズの特性、ノイズ特性推定部206で推定されたノイズの特性および視覚特性参照部204で取得された視覚周波数応答特性に応じて導出される。具体的な固定パターンノイズ知覚量導出処理については後述する。
A fixed pattern noise
The noise
The fixed pattern noise perception
ノイズリダクション制御部208は、固定パターンノイズ知覚量導出部207で導出された固定パターンノイズ知覚量に基づいて、ノイズリダクションフィルタへ乗算するゲインを算出する。ノイズリダクション制御部208で算出されたゲインは、ノイズリダクション処理部209へ送信される。具体的なゲイン算出処理については後述する。
ノイズリダクション処理部209は、信号処理部103から入力されるデジタル画像に対して、ノイズリダクション制御部208で算出されたゲインを用いてノイズリダクション処理を施す。具体的なノイズリダクション処理については後述する。ノイズリダクション処理が施されたデジタル画像は、端子210から出力される。
The noise
The noise
<移動速度取得部202>
図4は、移動速度取得部202の構成の一例を示すブロック図である。被写体の移動速度vRを取得する際の処理の一例を図4に基づいて説明する。
撮像情報取得部401は、信号処理部103で生成されたデジタル画像の撮像時の諸条件情報をRAM110から取得する。ここで、撮像時の諸条件情報は、例えば、焦点距離f[mm]、センサ(固体撮像素子)のサイズw×h[mm]、露光時間t[sec]およびフレームレートFR[fps]である。撮像時の諸条件情報の取得方法はこれに限られない。例えば、exif情報から、諸条件情報を取得しても良い。
<Movement
FIG. 4 is a block diagram illustrating an example of the configuration of the moving
The imaging
ジャイロセンサ情報取得部402は、信号処理部103で生成されたデジタル画像の撮像時のジャイロセンサ情報をジャイロセンサ116から取得する。ここで、ジャイロセンサ情報は、例えば、デジタルカメラの角速度ω[deg/sec]である。
移動速度算出部403は、撮像情報取得部401で取得された諸条件情報とジャイロセンサ情報取得部402で取得されたジャイロセンサ情報に基づいて、次の処理を行う。すなわち、移動速度算出部403は、撮像時に被写体が動いていないとしたときのデジタル画像内の被写体の移動速度vR[deg/sec]を算出する。
まず、移動速度算出部403は、撮像部101の撮像光学系の画角θlens[deg]と、撮像時の1秒あたりのデジタルカメラの移動角度θgyro[deg]とを、以下の(5)式、(6)式により算出する。
The gyro sensor information acquisition unit 402 acquires gyro sensor information at the time of capturing the digital image generated by the
The moving
First, the moving
このとき、被写体が移動していないとすると、観察画角θview中の1秒あたりの移動角度θmove(観察画角θviewの単位時間あたりの変化量)は、以下の(7)式から算出される。 At this time, if the subject is not moving, the movement angle theta move (per unit of observation angle theta view time change amount) per second observation angle theta in view from the following equation (7) Calculated.
ここで、ユーザは、標準的な観察距離として、観察ディスプレイの縦の長さ(高さ)の3倍の距離から被写体を観察しているとする。観察ディスプレイの画角の縦横比が9:16であるとするとき、観察画角θviewは、以下の(8)式から算出される。 Here, it is assumed that the user observes the subject from a distance that is three times the vertical length (height) of the observation display as a standard observation distance. When the aspect ratio of the viewing angle of the observation display is 9:16, the viewing angle of view θ view is calculated from the following equation (8).
よって、被写体の移動速度vR[deg/sec]は、以下の(9)式で定義される。 Therefore, the moving speed v R [deg / sec] of the subject is defined by the following equation (9).
移動速度算出部403は、(5)式〜(9)式に基づいて被写体の移動速度vR[deg/sec]を算出して端子404へ出力する。
The moving
<固定パターンノイズ特性取得部205>
図5は、固定パターンノイズ特性取得部205の構成の一例を示すブロック図である。固定パターンノイズの特性を取得する際の処理の一例を図5に基づいて説明する。
撮像条件取得部501は、信号処理部103で生成されたデジタル画像の撮像時の撮像条件をRAM110から取得する。ここで、撮像条件は、例えば、ISO感度である。
固定パターンノイズ特性記憶部502は、固定パターンノイズマップとISO感度との関係を示す関係式またはテーブルを記憶する。
固定パターンノイズ情報取得部503は、撮像条件取得部501で取得された撮像条件に応じた固定パターンノイズマップFPN(x,y)を固定パターンノイズ特性記憶部502から取得して端子504へ出力する。固定パターンノイズマップFPN(x,y)は、(x,y)の位置(画素)における固定パターンノイズの大きさを表す固定パターンノイズ画像である。また、固定パターンノイズマップFPN(x,y)は、例えば、信号処理部103で生成されたデジタル画像iin(x,y)と同じ大きさを有する。
<Fixed pattern noise
FIG. 5 is a block diagram illustrating an example of the configuration of the fixed pattern noise
The imaging
The fixed pattern noise
The fixed pattern noise
<ノイズ特性推定部(ノイズ特性導出部)206>
図6は、ノイズ特性推定部206の構成の一例を示すブロック図である。ノイズ特性を推定する際の処理の一例を図6に基づいて説明する。
端子601より、信号処理部103で生成されたデジタル画像iin(x,y)が入力される。ここで、xは水平(横)方向の位置(画素)を示し、yは垂直(縦)方向の位置(画素)を示す。デジタル画像iin(x,y)は、例えば、(x,y)で表される位置の輝度値や画素値である。
平均値算出部602は、デジタル画像iin(x,y)の(各位置(x,y)における)平均値avginを算出し、ノイズ情報取得部604へ送信する。
撮像条件取得部603は、デジタル画像iin(x,y)を撮像した際の撮像条件をRAM110から取得する。ここで、撮像条件とは、撮像時の露出に関する条件である。本実施形態では、撮像条件取得部303は、撮像条件として、ISO感度、レンズの絞り値および露光時間を取得する。
<Noise characteristic estimation unit (noise characteristic deriving unit) 206>
FIG. 6 is a block diagram illustrating an example of the configuration of the noise
A digital image i in (x, y) generated by the
The average
The imaging
ノイズ特性記憶部605は、前記撮像条件と、デジタル画像iin(x,y)の平均値avginと、ノイズの分散σnとの関係を、テーブルまたは関係式として記憶する。
ノイズ情報取得部604は、撮像条件取得部603で取得された撮像条件と、平均値算出部602で算出された平均値avginとに対応するノイズの分散σnをノイズ特性記憶部605から取得する。そして、端子606から、ノイズの分散σnがノイズ特性として出力される。
The noise
The noise
<固定パターンノイズ知覚量導出部207>
図7は、固定パターンノイズ知覚量導出部207の構成の一例を示すブロック図である。固定パターンノイズ知覚量を導出する際の処理の一例を図7に基づいて説明する。
端子701より、固定パターンノイズ特性取得部205で取得された固定パターンノイズマップFPN(x,y)が入力される。
端子702より、ノイズ特性推定部206で得られたノイズの分散σnが入力される。
ノイズ画像生成部703は、固定パターンノイズマップFPN(x,y)と同じサイズのホワイトノイズ画像nw(x,y)を、ノイズの分散がσnとなるように生成する。ここで、ホワイトノイズ画像nw(x,y)は、(x,y)の位置(画素)におけるホワイトノイズの大きさを表す。ノイズ画像生成部703は、固定パターンノイズマップFPN(x,y)とホワイトノイズ画像nw(x,y)とを加算することでノイズ画像n(x,y)を生成する。このように、ノイズ画像生成部703は、固体パターンノイズに重畳させるホワイトノイズを示す画像を、疑似的なシミュレーションにより生成する。尚、固体パターンノイズに重畳させるノイズを示す画像を、疑似的なシミュレーションにより生成できれば、必ずしもホワイトノイズを使用する必要はない。
<Fixed Pattern Noise
FIG. 7 is a block diagram illustrating an example of the configuration of the fixed pattern noise perception
A fixed pattern noise map FPN (x, y) acquired by the fixed pattern noise
The noise variance σ n obtained by the noise
The noise
フーリエ変換部704は、固定パターンノイズマップFPN(x,y)とホワイトノイズ画像nw(x,y)のそれぞれに対してフーリエ変換を施す。これにより、固定パターンノイズマップFPN(x,y)とホワイトノイズ画像nw(x,y)の空間周波数の情報がそれぞれ生成される。以下では、固定パターンノイズマップFPN(x,y)をフーリエ変換して空間周波数の関数にした結果を、IFPN(u,v)と表記する。また、ノイズ画像n(x,y)をフーリエ変換して空間周波数の関数にした結果を、N(u,v)と表記する。ここで、uは水平方向の空間周波数(水平周波数)であり、vは垂直方向の空間周波数(垂直周波数)である。
The
空間視覚特性乗算部705は、フ―リ変換後の固定パターンノイズマップIFPN(u,v)とフーリエ変換後のノイズ画像N(u,v)に対し、端子711から入力される視覚周波数応答特性CSF(ρ,vR)をそれぞれ乗算する。
The spatial visual
以下では、フーリエ変換後の固定パターンノイズマップIFPN(u,v)に視覚周波数応答特性CSF(ρ,vR)を乗算した結果を、IV(u,v)と表記する。また、フーリエ変換後のノイズ画像N(u,v)に視覚周波数応答特性CSF(ρ,vR)を乗算した結果を、NV(u,v)と表記する。IV(u,v)は、人間の視覚において感度のある空間周波数における固定パターンノイズの信号を表す。NV(u,v)は、人間の視覚において感度のある空間周波数におけるホワイトノイズの信号を表す。 Hereinafter, the result of multiplying the fixed pattern noise map I FPN (u, v) after Fourier transform by the visual frequency response characteristic CSF (ρ, v R ) will be expressed as I V (u, v). Further, the result of multiplying the noise image N (u, v) after Fourier transform by the visual frequency response characteristic CSF (ρ, v R ) is denoted as N V (u, v). I V (u, v) represents a fixed pattern noise signal at a spatial frequency sensitive to human vision. N V (u, v) represents a white noise signal at a spatial frequency sensitive to human vision.
帯域分割部706は、以下の(10)式で表される、固定パターンノイズマップに対する帯域分割情報Isk,l(u,v)を算出する。また、帯域分割部706は、以下の(11)式で表される、ノイズ画像に対する帯域分割情報Nsk,l(u,v)を算出する。帯域分割周波数情報Isk,l(u,v)は、フーリエ変換と視覚周波数応答特性の乗算とが行われた固定パターンノイズマップIV(u,v)を、複数の空間周波数帯域ごとに分割した情報である。帯域分割周波数情報Nsk,l(u,v)は、フーリエ変換と視覚周波数応答特性の乗算とが行われたノイズ画像NV(u,v)を、複数の空間周波数帯域ごとに分割した情報である。
The
帯域分割フィルタcortexk,l(u,v)は、空間周波数領域における半径方向の特性と円周方向の特性とを結合することにより得られるものであり、以下の(12)式および(13)式のように定義される。 The band division filter cortex k, l (u, v) is obtained by combining the characteristics in the radial direction and the characteristics in the circumferential direction in the spatial frequency domain. The following expressions (12) and (13) It is defined as an expression.
cortex_polk,l(ρ,θ)は、帯域分割フィルタcortexk,l(u,v)を極座標で表現したものである。(12)式および(13)式において、Kは空間周波数帯域の半径方向における分割数であり、Lは、空間周波数帯域の円周方向における分割数である。一般にはK=6、L=6である。(12)式に示すdomk(ρ)、base(ρ)、fanl(θ)は、以下の(14)式〜(22)式で定義される。 cortex_pol k, l (ρ, θ) represents the band division filter cortex k, l (u, v) in polar coordinates. In the equations (12) and (13), K is the number of divisions in the radial direction of the spatial frequency band, and L is the number of divisions in the circumferential direction of the spatial frequency band. In general, K = 6 and L = 6. The dom k (ρ), base (ρ), and fan l (θ) shown in the equation (12) are defined by the following equations (14) to (22).
図8は、L=6の場合のfanl(θ)を模式的に示す図である。図8において、横軸は角度であり、縦軸は応答である。図9は、K=6の場合のdomk(ρ)を模式的に示す図である。図8において、横軸は正規化周波数であり、縦軸は応答である。図9において、横軸は正規化周波数であり、縦軸は応答である。
図10は、帯域分割フィルタcortexk,l(u,v)により分割された空間周波数領域を模式的に示す図である。図10において、横軸、縦軸は、とも正規化周波数空間である。図10では、各フィルタの半値周波数を、太い実線で示す。
FIG. 8 is a diagram schematically showing fan l (θ) when L = 6. In FIG. 8, the horizontal axis is the angle, and the vertical axis is the response. FIG. 9 is a diagram schematically showing dom k (ρ) when K = 6. In FIG. 8, the horizontal axis is the normalized frequency, and the vertical axis is the response. In FIG. 9, the horizontal axis is the normalized frequency, and the vertical axis is the response.
FIG. 10 is a diagram schematically showing a spatial frequency region divided by the band division filter cortex k, l (u, v). In FIG. 10, the horizontal axis and the vertical axis are both normalized frequency spaces. In FIG. 10, the half-value frequency of each filter is indicated by a thick solid line.
ここでは、人間の視覚は、画像の空間周波数が低周波であるか高周波であるかという区別と、画像の空間周波数の方向(縦方向、横方向、斜め方向)という区別をしているものと考え、これら区別される空間周波数の領域を1つの領域として定義する。この1つの領域が、図10の太線で囲まれている領域に対応する。図10において、固定パターンノイズマップとノイズ画像の空間周波数が、同じ領域内にある場合、当該ノイズ画像に基づくホワイトノイズは固定パターンノイズ上では、人間の視覚により認識しづらくなる。 Here, human vision distinguishes whether the spatial frequency of the image is low frequency or high frequency, and the direction of the spatial frequency of the image (vertical direction, horizontal direction, diagonal direction). Consider and define these distinct spatial frequency regions as one region. This one area corresponds to the area surrounded by the thick line in FIG. In FIG. 10, when the fixed pattern noise map and the spatial frequency of the noise image are in the same region, white noise based on the noise image is difficult to recognize by human vision on the fixed pattern noise.
逆フーリエ変換部707は、帯域分割周波数情報Isk,l(u,v)、Nsk,l(u,v)に対して、逆フーリエ変換を施し、複数の空間周波数帯域に分割された固定パターンノイズマップとノイズ画像をそれぞれ生成する。以下では、固定パターンノイズマップに対する帯域分割周波数情報Isk,l(u,v)の逆フーリエ変換の結果として得られる帯域分割画像をisk,l(x,y)と表記する。一方、ノイズ画像に対する帯域分割周波数情報Nsk,l(u,v)の逆フーリエ変換の結果として得られる帯域分割画像をnsk,l(x,y)と表記する。各帯域分割画像は、帯域分割フィルタcortexk,l(u,v)により分割される各空間周波数帯域の画像である。
The inverse
ノイズマスク部(部分ノイズ知覚量算出部)708は、固定パターンノイズマップの帯域分割画像isk,l(x,y)に基づいて、ノイズ画像の帯域分割画像nsk,l(x,y)に対するマスキングを施す。これにより、知覚されるノイズ画像である知覚ノイズ画像Pk,l(x,y) (部分ノイズ知覚量)が算出される。知覚ノイズ画像Pk,l(x,y)は、空間周波数帯域ごとに算出される。ここでいうマスキングとは、固定パターンノイズにホワイトノイズを重畳させることにより、当該固定パターンノイズが人間にどのくらい知覚されづらくなるのかを評価することをいう。
ノイズマスク部708の具体的な処理の一例を説明すると、まず、ノイズマスク部708は、マスキング強度Tek,l(x,y)を、以下の(23)式〜(25)式により算出する。
The noise mask unit (partial noise perception amount calculation unit) 708 is based on the band-divided image is k, l (x, y) of the fixed pattern noise map, and the band-divided image ns k, l (x, y) of the noise image. Apply masking to Thereby, a perceptual noise image P k, l (x, y) (partial noise perception amount) that is a perceived noise image is calculated. The perceptual noise image P k, l (x, y) is calculated for each spatial frequency band. Masking here refers to evaluating how hard a fixed pattern noise is perceived by humans by superimposing white noise on the fixed pattern noise.
An example of a specific process of the
本実施形態では、(23)式〜(25)式において、W=6、Q=0.7、b=4、s=0.8とする。図11は、この場合における、マスキング強度Tek,l(x,y) と帯域分割画像isk,l(x,y)との関係の一例を示す図である。図8において、横軸は、帯域分割画像isk,l(x,y)の強度を対数スケールで表したものである。縦軸は、マスキング強度Tek,l(x,y)の強度を対数スケールで表したものである。ノイズマスク部408は、このマスキング強度Tek,l(x,y)を用いて、知覚ノイズ画像Pk,l(x,y)を、以下の(26)式により計算する。 In the present embodiment, W = 6, Q = 0.7, b = 4, and s = 0.8 in the equations (23) to (25). FIG. 11 is a diagram illustrating an example of the relationship between the masking strength Te k, l (x, y) and the band-divided image is k, l (x, y) in this case. In FIG. 8, the horizontal axis represents the intensity of the band-divided image is k, l (x, y) on a logarithmic scale. The vertical axis represents the intensity of the masking intensity Te k, l (x, y) on a logarithmic scale. Noise mask unit 408, the masking strength Te k, with l (x, y), perceived noise image P k, l a (x, y), and calculated by the following equation (26).
(26)式において、mは、固定パターンノイズマップiFPN(x,y)の平均値である。
固定パターンノイズ知覚量算出部709は、以下の(27式)に基づいて、空間周波数帯域ごとの知覚ノイズ画像Pk,l(x,y)を合成し、固定パターンノイズ知覚量P(x,y)を算出する。固定パターンノイズ知覚量P(x,y)は、端子710から出力される。
In the equation (26), m is an average value of the fixed pattern noise map i FPN (x, y).
The fixed pattern noise perception
<ノイズリダクション制御部208>
図12は、ノイズリダクション制御部208の構成の一例を示すブロック図である。ノイズリダクションフィルタに対するゲインを制御する際の処理の一例を図12に基づいて説明する。
端子1201より、固定パターンノイズ知覚量導出部207で導出された固定パターンノイズ知覚量P(x,y)が入力される。
<Noise
FIG. 12 is a block diagram illustrating an example of the configuration of the noise
The fixed pattern noise perception amount P (x, y) derived by the fixed pattern noise perception
低域通過フィルタ処理部1202は、固定パターンノイズ知覚量P(x,y)に低域通過フィルタ処理を施す。以下では、低域通過フィルタ処理が施された固定パターンノイズ知覚量をPl(x,y)と表記する。
ゲイン算出部1203は、固定パターンノイズ知覚量Pl(x,y)に基づいて、ノイズリダクションフィルタに対するゲインg(x,y)を算出する。ここで、ゲインg(x,y)は、以下の(28)式より算出される。ただし、ゲインg(x,y)の算出方法は、以下の(28)式に限定されない。
g(x,y)=k1×Pl(x,y)+k2 ・・・(28)
(28)式において、k1、k2は、固定パターンノイズ知覚量Pl(x,y)が大きいときにゲインg(x,y)が小さくなり、固定パターンノイズ知覚量Pl(x,y)が小さいときにゲインg(x,y)が大きくなるようにするための一次式である。これにより、固定パターンノイズ知覚量Pl(x,y)が大きいときにノイズリダクションを弱くすることができ、固定パターンノイズ知覚量Pl(x,y)へのマスキングを強めることができる。ゲイン算出部1203は、算出したゲインg(x,y)を端子1204へ出力する。
The low-pass
The
g (x, y) = k 1 × Pl (x, y) + k 2 (28)
In equation (28), k 1 and k 2 are such that the gain g (x, y) decreases when the fixed pattern noise perception amount Pl (x, y) is large, and the fixed pattern noise perception amount Pl (x, y). Is a linear expression for increasing the gain g (x, y) when is small. Accordingly, noise reduction can be weakened when the fixed pattern noise perception amount Pl (x, y) is large, and masking to the fixed pattern noise perception amount Pl (x, y) can be strengthened. The
<ノイズリダクション処理部209>
図13は、ノイズリダクション処理部209の構成の一例を示すブロック図である。信号処理部103で生成されたデジタル画像iin(x,y)のノイズを低減する際の処理の一例を図13に基づいて説明する。
端子1301より、信号処理部103で生成されたデジタル画像iin(x,y)が入力される。
フィルタ係数設定部1302は、ROM109に記憶されているノイズリダクションフィルタのフィルタ係数を設定する。
端子1303より、ノイズリダクション制御部208で算出されたゲインg(x,y)が入力される。
乗算部1304は、フィルタ係数設定部1302で設定されたフィルタ係数と、端子1303から入力されたゲインg(x,y)とを乗算したものをノイズリダクション係数としてノイズリダクション処理部1305に出力する。
ノイズリダクション処理部1305は、乗算部1304で算出されたノイズリダクション係数を用いて、デジタル画像iin(x,y)に対してノイズリダクション処理を実行する。ノイズリダクション処理が実行されたデジタル画像は、端子1306から出力される。
<Noise
FIG. 13 is a block diagram illustrating an example of the configuration of the noise
A digital image i in (x, y) generated by the
The filter
A gain g (x, y) calculated by the noise
The
The noise
以上のように本実施形態では、撮像時の露出の条件に基づいてノイズの分散σnを導出し、ノイズの分散σnに応じたホワイトノイズを固定パターンノイズに重畳させたノイズ画像を生成する。固定パターンノイズマップとノイズ画像のそれぞれから、被写体の移動速度vRに応じて人間の視覚において感度のある空間周波数の情報を抽出して複数の空間周波数帯域ごとに分割する。複数の空間周波数帯域ごとに分割されたノイズ画像を、複数の空間周波数帯域ごとに分割された固定パターンノイズマップに基づいてマスキングした後に合成して固定パターンノイズ知覚量P(x,y)を算出する。固定パターンノイズ知覚量P(x,y)が大きい場合には、固定パターンノイズが知覚されやすいので、デジタル画像iin(x,y)に対するノイズの低減量を抑制する。このように、固定パターンノイズの知覚されやすさを表現する固定パターンノイズ知覚量P(x,y)を算出し、これを低減するようにノイズリダクションを制御する。したがって、ノイズリダクションのかけすぎによる固定パターンノイズの強調を抑える画像処理を実現することができる。よって、被写体の移動速度に応じた固定パターンノイズが知覚されにくい動画像を生成することができる。 As described above, in the present embodiment, the noise variance σ n is derived based on the exposure condition during imaging, and a noise image is generated by superimposing the white noise corresponding to the noise variance σ n on the fixed pattern noise. . From each of the fixed pattern noise map and the noise image, information on spatial frequency sensitive to human vision is extracted according to the moving speed v R of the subject and divided into a plurality of spatial frequency bands. The noise image divided into multiple spatial frequency bands is masked based on the fixed pattern noise map divided into multiple spatial frequency bands and then synthesized to calculate the fixed pattern noise perception amount P (x, y) To do. When the fixed pattern noise perception amount P (x, y) is large, the fixed pattern noise is easily perceived, and thus the noise reduction amount for the digital image i in (x, y) is suppressed. In this way, the fixed pattern noise perception amount P (x, y) that expresses the ease of perception of fixed pattern noise is calculated, and noise reduction is controlled so as to reduce this. Therefore, it is possible to realize image processing that suppresses enhancement of fixed pattern noise due to excessive noise reduction. Therefore, it is possible to generate a moving image in which fixed pattern noise is hardly perceived according to the moving speed of the subject.
(第2の実施形態)
次に、第2の実施形態について説明する。第1の実施形態では、画像内の被写体の移動速度vRを、ジャイロセンサ情報を用いて算出する場合を例に挙げて説明した。このようにすると、被写体も移動している場合、画像内の被写体の移動速度vRを正しく算出することができない虞がある。そこで、本実施形態では、画像内の動きベクトルを用いて被写体の移動速度vRを算出することで、被写体の移動に対応して、固定パターンノイズの抑制を行う。
このように本実施形態と第1の実施形態とは、被写体の移動速度vRを算出する際の処理と構成が主として異なる。したがって、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図13に付した符号と同一の符号を付す等して詳細な説明を省略する。
(Second Embodiment)
Next, a second embodiment will be described. In the first embodiment, the case where the moving speed v R of the subject in the image is calculated using the gyro sensor information has been described as an example. In this way, when the subject is also moving, the moving speed v R of the subject in the image may not be calculated correctly. Therefore, in the present embodiment, the fixed pattern noise is suppressed corresponding to the movement of the subject by calculating the moving speed v R of the subject using the motion vector in the image.
As described above, the present embodiment and the first embodiment are mainly different in processing and configuration when calculating the moving speed v R of the subject. Therefore, in the description of the present embodiment, the same parts as those in the first embodiment are denoted by the same reference numerals as those in FIGS.
<画像処理部1400>
図14は、画像処理部1400の構成の一例を示すブロック図である。図14に示す画像処理部1400は、図2に示した画像処理部104に置き換わる。
信号処理部103で生成されたデジタル画像は、端子1401から、ノイズ特性推定部206およびノイズリダクション処理部209に加えて移動速度取得部1402にも入力される。
移動速度取得部1402は、標準的な観察環境でデジタル画像を観察する際の、デジタル画像内の被写体の移動速度vR[deg/sec]を、信号処理部103で生成されたデジタル画像に基づいて取得する。
視覚特性データ記憶部203からノイズリダクション処理部209までの構成および処理は、第1の実施形態と同一である。
<
FIG. 14 is a block diagram illustrating an example of the configuration of the
The digital image generated by the
The moving
The configuration and processing from the visual characteristic
<移動速度取得部1402>
図15は、移動速度取得部1402の構成の一例を示すブロック図である。被写体の移動速度vRを取得する際の処理の一例を図15に基づいて説明する。
端子1501より、信号処理部103で生成されたデジタル画像が入力される。端子1501から入力したデジタル画像は、フレームメモリ1502に書き込まれる。
動きベクトル算出部1503は、端子1501から入力した、現在のフレームのデジタル画像と、フレームメモリ1502から入力した、遅延したデジタル画像(例えば1フレーム前のデジタル画像)とを、それぞれ複数のブロック(領域)に分割する。分割するブロックのサイズは、例えば、128×128pixelや256×256pixelである。動きベクトル算出部1503は、ブロックごとに、動き成分d[pixel]を計算し、移動速度算出部1504に入力する。
<Movement
FIG. 15 is a block diagram illustrating an example of the configuration of the moving
A digital image generated by the
The motion vector calculation unit 1503 receives a digital image of the current frame input from the terminal 1501 and a delayed digital image (for example, a digital image one frame before) input from the frame memory 1502, respectively. ). The size of the block to be divided is, for example, 128 × 128 pixels or 256 × 256 pixels. The motion vector calculation unit 1503 calculates a motion component d [pixel] for each block and inputs the motion component d [pixel] to the movement speed calculation unit 1504.
移動速度算出部1504は、RAM110に記憶されたフレームレートFR[fps]の情報を取得する。そして、移動速度算出部1504は、フレームレートFR[fps]と、動きベクトル算出部1503で算出された動き成分dと、に基づいて、被写体の移動速度vR[deg/sec]を算出する。ユーザが、標準的な観察距離である、観察ディスプレイの縦の長さ(高さ)の3倍の距離から被写体を観察しているとすると、被写体の移動速度vR[deg/sec]は以下の(29)式で算出される。尚、観察するディスプレイはFHDであるとする。
The moving speed calculation unit 1504 acquires information on the frame rate FR [fps] stored in the
移動速度算出部1504は、(29)式の計算を行うことにより算出した、ブロックごとの被写体の移動速度vR[deg/sec]を端子1505へ出力する。
以上のように本実施形態では、被写体自体の移動があっても、固定パターンノイズを知覚しにくくなるようなノイズリダクションを施すことができる。また、被写体の移動速度vRを被写体ごとに算出することができる。これにより、被写体ごとに固定パターンノイズを知覚しにくくなるようなノイズリダクションを施すことができる。
The moving speed calculation unit 1504 outputs to the terminal 1505 the moving speed v R [deg / sec] of the subject for each block, which is calculated by calculating the equation (29).
As described above, in the present embodiment, it is possible to perform noise reduction that makes it difficult to perceive fixed pattern noise even when the subject itself moves. In addition, the moving speed v R of the subject can be calculated for each subject. Thereby, it is possible to perform noise reduction that makes it difficult to perceive fixed pattern noise for each subject.
(第3の実施形態)
次に、第3の実施形態について説明する。第1、第2の実施形態では、ノイズリダクションフィルタのフィルタ係数に対するゲインを制御することで、固定パターンノイズが知覚しにくくなるようにデジタル画像を補正する場合を例に挙げて説明した。この手法では、ノイズが存在する空間周波数帯域を抑制できていないため、ノイズが想定より残ってしまう虞がある。そこで、本実施形態では、ノイズを抑制する空間周波数帯域を制御することで、固定パターンノイズの知覚量を制御する。
(Third embodiment)
Next, a third embodiment will be described. In the first and second embodiments, the case where the digital image is corrected so as to make it difficult to perceive the fixed pattern noise by controlling the gain with respect to the filter coefficient of the noise reduction filter has been described as an example. In this method, since the spatial frequency band in which noise exists cannot be suppressed, there is a possibility that noise may remain from the assumption. Therefore, in this embodiment, the perceptual amount of fixed pattern noise is controlled by controlling the spatial frequency band for suppressing noise.
このように本実施形態と第1、第2の実施形態とは、ノイズを抑制するための構成および処理が主として異なる。具体的に、本実施形態と第1、第2の実施形態とは、画像処理部104、1400のノイズリダクション制御部208およびノイズリダクション処理部209の構成および処理が異なる。したがって、本実施形態の説明において、第1、第2の実施形態と同一の部分については、図1〜図15に付した符号と同一の符号を付す等して詳細な説明を省略する。
Thus, the present embodiment is different from the first and second embodiments mainly in the configuration and processing for suppressing noise. Specifically, the present embodiment is different from the first and second embodiments in the configurations and processes of the noise
<ノイズリダクション制御部1600>
図16は、ノイズリダクション制御部1600の構成の一例を示すブロック図である。ノイズリダクション処理のカットオフ周波数を制御する際の処理の一例を図16に基づいて説明する。
端子1201より、固定パターンノイズ知覚量導出部207で導出された固定パターンノイズ知覚量P(x,y)が入力される。
<Noise
FIG. 16 is a block diagram illustrating an example of the configuration of the noise
The fixed pattern noise perception amount P (x, y) derived by the fixed pattern noise perception
低域通過フィルタ処理部1202は、固定パターンノイズ知覚量P(x,y)に低域通過フィルタを施す。以下では、低域通過フィルタ処理が施された固定パターンノイズ知覚量をPl(x,y)と表記する。
カットオフ周波数算出部1601は、固定パターンノイズ知覚量Pl(x,y)に基づいて、ノイズリダクション処理のカットオフ周波数を算出する。ここで、カットオフ周波数fc(x,y)は、以下の(30)式より算出される。ただし、カットオフ周波数fc(x,y)の算出方法は、以下の(30)式に限定されない。
fc(x,y)=k1×Pl(x,y)+k2 ・・・(30)
k1、k2は、固定パターンノイズ知覚量Pl(x,y)が大きいときにカットオフ周波数fc(x,y)が大きくなり、固定パターンノイズ知覚量Pl(x,y)が小さいときにカットオフ周波数fc(x,y)が小さくなるようにするための一次式である。これにより、固定パターンノイズ知覚量Pl(x,y)が大きいときにノイズリダクションのカットオフ周波数を高くすることができ、固定パターンノイズ知覚量Pl(x,y)へのマスキングを強めることができる。カットオフ周波数算出部1601は、算出したカットオフ周波数fc(x,y)を端子1204へ出力する。
The low-pass
The cut-off
fc (x, y) = k 1 × Pl (x, y) + k 2 (30)
k 1 and k 2 are when the cut-off frequency fc (x, y) is large when the fixed pattern noise perception amount Pl (x, y) is large, and when the fixed pattern noise perception amount Pl (x, y) is small. This is a linear expression for reducing the cut-off frequency fc (x, y). As a result, the cutoff frequency of noise reduction can be increased when the fixed pattern noise perception amount Pl (x, y) is large, and the masking to the fixed pattern noise perception amount Pl (x, y) can be strengthened. . Cutoff
<ノイズリダクション処理部1700>
図17は、ノイズリダクション処理部1700の構成の一例を示すブロック図である。信号処理部103で生成されたデジタル画像iin(x,y)のノイズを低減する際の処理の一例を図17に基づいて説明する。
端子1701より、信号処理部103で生成されたデジタル画像iin(x,y)が入力される。
端子1702より、固定パターンノイズ知覚量導出部207で算出されたカットオフ周波数fc(x,y)が入力される。
<Noise
FIG. 17 is a block diagram illustrating an example of the configuration of the noise
A digital image i in (x, y) generated by the
The cutoff frequency fc (x, y) calculated by the fixed pattern noise perception
領域分割部1703は、端子1702から入力したカットオフ周波数fc(x,y)に基づいて、デジタル画像iin(x,y)における適当な大きさの領域のそれぞれにおけるカットオフ周波数fc(x,y)の代表値を算出する。各領域のカットオフ周波数fc(x,y)の代表値は、平均値でも、最も頻度の多い値でもよい。
ノイズリダクション係数設定部1704は、領域ごとに、カットオフ周波数fc(x,y)の代表値に基づいて、ROM109に記憶されているフィルタ係数の候補からひとつを選択し、選択したフィルタ係数をノイズリダクション係数として設定する。ROM109には、フィルタ係数とカットオフ周波数fc(x,y)の代表値との関係を表す関係式またはテーブルが記憶されている。ノイズリダクション係数設定部1704は、カットオフ周波数fc(x,y)の代表値に対応するフィルタ係数をノイズリダクション係数として設定する。
ノイズリダクション処理部1705は、ノイズリダクション係数設定部1704で設定されたノイズリダクション係数を用いて、デジタル画像iin(x,y)に対してノイズリダクション処理を実行する。ノイズリダクション処理が実行されたデジタル画像は、端子1706から出力される。
Based on the cut-off frequency fc (x, y) input from the terminal 1702, the region dividing unit 1703 cuts off the cut-off frequency fc (x, x, y in each region of an appropriate size in the digital image i in (x, y). The representative value of y) is calculated. The representative value of the cutoff frequency fc (x, y) in each region may be an average value or a value with the highest frequency.
The noise reduction
The noise
以上のように本実施形態では、各領域のカットオフ周波数fc(x,y)の代表値に応じて、デジタル画像iin(x,y)に対するノイズの低減量を制御するようにした。したがって、ノイズの低減量を空間周波数で制御することができる。これにより、より精度よくノイズの制御ができる。 As described above, in this embodiment, the amount of noise reduction for the digital image i in (x, y) is controlled in accordance with the representative value of the cutoff frequency fc (x, y) in each region. Therefore, the amount of noise reduction can be controlled by the spatial frequency. Thereby, noise can be controlled with higher accuracy.
(第4の実施形態)
次に、第4の実施形態について説明する。第1〜第3の実施形態では、固定パターンノイズ知覚量導出部207の帯域分割部706での処理に、cortexフィルタとして知られるフィルタを用いた場合を例に挙げて説明した。しかし、cortexフィルタは、周波数特性が非常に特殊な形のフィルタである為、演算処理が重くなる。そこで、本実施形態では、cortexフィルタを、空間周波数領域における縦方向と横方向のフィルタを結合した簡易な帯域分割フィルタに置き換えることで、演算処理を軽くする。このように本実施形態と第1〜第3の実施形態とでは、帯域分割フィルタが異なることによる構成および処理が主として異なる。具体的に、本実施形態と第1〜第3の実施形態とは、固定パターンノイズ知覚量導出部207の構成および処理が異なる。したがって、本実施形態の説明において、第1〜第3の実施形態と同一の部分については、図1〜図17に付した符号と同一の符号を付す等して詳細な説明を省略する。
(Fourth embodiment)
Next, a fourth embodiment will be described. In the first to third embodiments, the case where a filter known as a cortex filter is used for the processing in the
<ノイズ知覚量算出の処理>
図18は、固定パターンノイズ知覚量導出部1800の構成を示す図である。
端子701より、固定パターンノイズ特性取得部205で取得された固定パターンノイズマップFPN(x,y)が入力される。
端子702より、ノイズ特性推定部206で得られたノイズの分散σnが入力される。
ノイズ画像生成部703は、固定パターンノイズマップFPN(x,y)と同じサイズのホワイトノイズ画像nw(x,y)を、ノイズの分散がσnとなるように生成する。そして、ノイズ画像生成部703は、固定パターンノイズマップFPN(x,y)とホワイトノイズ画像nw(x,y)を加算することでノイズ画像n(x,y)を生成する。
帯域分割部1801は、帯域分割フィルタを用いて、固定パターンノイズマップFPN(x,y)を、複数の空間周波数帯域ごとに分割し、固定パターンノイズマップに対する帯域分割周波数情報Isk,l(u,v)を生成する。同様に、帯域分割部1801は、帯域フィルタを用いて、ノイズ画像n(x,y) 、複数の空間周波数帯域ごとに分割し、ノイズ画像に対する帯域分割周波数情報Nsk,l(u,v)を生成する。帯域分割周波数情報Isk,l(u,v)、Nsk,l(u,v)は、以下の(31)式、(32)式で求めることができる。
<Noise perception amount calculation processing>
FIG. 18 is a diagram illustrating a configuration of the fixed pattern noise perception
A fixed pattern noise map FPN (x, y) acquired by the fixed pattern noise
The noise variance σ n obtained by the noise
The noise
The
(31)式、(32)式において、kは水平(横)方向のインデックス、lは垂直(縦)方向のインデックスである。また、(31)式、(32)式において、帯域分割フィルタfilterbankk,l(u,v)は、以下の(33)式のように定義される。 In equations (31) and (32), k is an index in the horizontal (lateral) direction, and l is an index in the vertical (vertical) direction. Further, in the equations (31) and (32), the band division filter filterbank k, l (u, v) is defined as the following equation (33).
(33)式において、Kは水平(横)方向の空間周波数帯域の分割数であり、Lは垂直(縦)方向の空間周波数帯域の分割数である。本実施形態では、K=6、L=6とする。
図19は、帯域分割フィルタfilterbankk,l(u,v)により複数に分割された空間周波数領域を模式的に示す図である。図19において、横軸、縦軸は、とも正規化周波数空間である。図19では、各フィルタの半値周波数を、太い実線で示す。
ノイズマスク部708は、固定パターンノイズマップに対する帯域分割画像isk,l(x,y)に基づいて、ノイズ画像に対する帯域分割周波数情報Nsk,l(x,y)に対するマスキングを施す。これにより、人間に知覚されるノイズ画像である知覚ノイズ画像Pk,l(x,y)が算出される。知覚ノイズ画像Pk,l(x,y)は、空間周波数帯域ごとに算出される。
固定パターンノイズ知覚量算出部709は、空間周波数帯域ごとの知覚ノイズ画像Pk,l(x,y)を合成し、固定パターンノイズ知覚量P(x,y)を算出する。
In Equation (33), K is the number of divisions in the spatial frequency band in the horizontal (lateral) direction, and L is the number of divisions in the spatial frequency band in the vertical (vertical) direction. In this embodiment, K = 6 and L = 6.
FIG. 19 is a diagram schematically showing a spatial frequency region divided into a plurality of parts by the band division filter filterbank k, l (u, v). In FIG. 19, both the horizontal axis and the vertical axis are normalized frequency spaces. In FIG. 19, the half-value frequency of each filter is indicated by a thick solid line.
The
The fixed pattern noise perception
以上のように本実施形態では、cortexフィルタのような特殊なフィルタを使うことなく、簡易な処理で固定パターンノイズを知覚しにくくする画像処理を実現することができる。
尚、本実施形態では、周波数域での乗算を行うことで帯域分割を行ったが、空間域での畳みこみ演算を行うことで帯域分割を実現することも可能である。また、本実施形態に対しては、ウェーブレットなど公知の帯域分割フィルタを適用することが可能である。また、本実施形態では、第1の実施形態の帯域分割フィルタを変更する場合を例に挙げて説明したが、本実施形態を第2、第3の実施形態にも適用できる。
As described above, in the present embodiment, it is possible to realize image processing that makes it difficult to perceive fixed pattern noise by simple processing without using a special filter such as a cortex filter.
In the present embodiment, band division is performed by performing multiplication in the frequency domain. However, it is also possible to realize band division by performing a convolution operation in the spatial domain. In addition, a known band division filter such as a wavelet can be applied to the present embodiment. In the present embodiment, the case of changing the band division filter of the first embodiment has been described as an example, but the present embodiment can also be applied to the second and third embodiments.
前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 Each of the above-described embodiments is merely an example of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
(その他の実施例)
本発明は、以下の処理を実行することによっても実現される。即ち、まず、以上の実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)が当該コンピュータプログラムを読み出して実行する。
(Other examples)
The present invention is also realized by executing the following processing. That is, first, software (computer program) for realizing the functions of the above embodiments is supplied to a system or apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the computer program.
101 撮像部、104 画像処理部、108 CPU 101 imaging unit, 104 image processing unit, 108 CPU
Claims (15)
前記動画像における被写体の移動速度を取得する移動速度取得手段と、
前記移動速度取得手段により取得された、前記動画像における被写体の移動速度に応じた、光に対する視覚の感度を表す情報を取得する視覚特性取得手段と、
前記動画像と、前記ノイズ特性導出手段により導出されたノイズの特性と、前記視覚特性取得手段により取得された情報とに基づいて、前記動画像に含まれる固定パターンノイズに前記ノイズの特性に基づくノイズを重畳させた場合の当該固定パターンノイズの知覚のされやすさを評価した値である固定パターンノイズ知覚量を導出する固定パターンノイズ知覚量導出手段と、
前記固定パターンノイズ知覚量導出手段により導出された固定パターンノイズ知覚量に基づいて、前記動画像に含まれるノイズを低減するノイズ低減手段と、を有することを特徴とする画像処理装置。 A noise characteristic deriving unit for deriving a characteristic of noise in the moving image based on a condition relating to exposure when the moving image is captured;
Moving speed acquisition means for acquiring the moving speed of the subject in the moving image;
Visual characteristic acquisition means for acquiring information representing visual sensitivity to light according to the movement speed of the subject in the moving image, acquired by the movement speed acquisition means;
Based on the moving image, the characteristic of the noise derived by the noise characteristic deriving unit, and the information acquired by the visual characteristic acquiring unit, the fixed pattern noise included in the moving image is based on the characteristic of the noise. Fixed pattern noise perception amount derivation means for deriving a fixed pattern noise perception amount, which is a value obtained by evaluating the ease of perception of the fixed pattern noise when noise is superimposed;
An image processing apparatus comprising: noise reduction means for reducing noise contained in the moving image based on the fixed pattern noise perception amount derived by the fixed pattern noise perception amount deriving means.
前記固定パターンノイズに対して、前記ノイズ特性導出手段により導出された特性のノイズが重畳された画像であるノイズ画像を生成するノイズ画像生成手段と、
前記固定パターンノイズを表す固定パターンノイズ画像と前記ノイズ画像とを、それぞれ空間周波数の関数に変換する変換手段と、
前記空間周波数の関数に変換された前記固定パターンノイズ画像と前記ノイズ画像とに対して、コントラスト感度と空間周波数との関係を表す空間視覚特性をそれぞれ乗算する空間視覚特性乗算手段と、
前記空間視覚特性が乗算された前記固定パターンノイズ画像と前記ノイズ画像とを、を、それぞれ空間周波数帯域ごとに分割する帯域分割手段と、
前記空間周波数ごとに分割された固定パターンノイズ画像と、前記空間周波数帯域ごとに分割されたノイズ画像とに基づいて、前記空間周波数帯域のごとの前記固定パターンノイズ知覚量である部分ノイズ知覚量を算出する部分ノイズ知覚量算出手段と、
前記部分ノイズ知覚量算出手段により算出された部分ノイズ知覚量を合成して前記固定パターンノイズ知覚量を算出する固定パターンノイズ知覚量算出手段と、
を有することを特徴とする請求項1に記載の画像処理装置。 The fixed pattern noise perception amount derivation means includes:
A noise image generating means for generating a noise image, which is an image in which the noise of the characteristic derived by the noise characteristic deriving means is superimposed on the fixed pattern noise;
Conversion means for converting the fixed pattern noise image representing the fixed pattern noise and the noise image into a function of spatial frequency, respectively;
Spatial visual characteristic multiplying means for multiplying the fixed pattern noise image and the noise image converted into a function of the spatial frequency by a spatial visual characteristic representing a relationship between contrast sensitivity and spatial frequency, respectively.
Band division means for dividing the fixed pattern noise image multiplied by the spatial visual characteristic and the noise image for each spatial frequency band;
Based on the fixed pattern noise image divided for each spatial frequency and the noise image divided for each spatial frequency band, a partial noise perception amount that is the fixed pattern noise perception amount for each spatial frequency band is determined. A partial noise perception amount calculating means for calculating;
Fixed pattern noise perception amount calculation means for calculating the fixed pattern noise perception amount by combining the partial noise perception amount calculated by the partial noise perception amount calculation means;
The image processing apparatus according to claim 1, further comprising:
前記固定パターンノイズ知覚量導出手段により導出された固定パターンノイズ知覚量に基づいて、前記動画像に含まれるノイズを低減するためのフィルタに対するゲインを導出するノイズリダクション制御手段と、
前記ノイズリダクション制御手段により導出されたゲインを前記フィルタのフィルタ係数に乗算し、前記ゲインを乗算したフィルタ係数に基づいて、前記動画像に含まれるノイズを低減する処理を行うノイズリダクション処理手段と、を有することを特徴とする請求項1〜5の何れか1項に記載の画像処理装置。 The noise reduction means includes
Noise reduction control means for deriving a gain for a filter for reducing noise included in the moving image based on the fixed pattern noise perception amount derived by the fixed pattern noise perception amount deriving means;
Noise reduction processing means for multiplying the filter coefficient of the filter by the gain derived by the noise reduction control means, and performing processing for reducing noise included in the moving image based on the filter coefficient multiplied by the gain; The image processing apparatus according to claim 1, wherein the image processing apparatus includes:
前記固定パターンノイズ知覚量導出手段により導出された固定パターンノイズ知覚量に基づいて、前記動画像におけるカットオフ周波数を導出するノイズリダクション制御手段と、
前記ノイズリダクション制御手段により導出されたカットオフ周波数に基づいて、前記動画像に含まれるノイズを低減する処理を行うノイズリダクション処理手段と、を有することを特徴とする請求項1〜5の何れか1項に記載の画像処理装置。 The noise reduction means includes
Noise reduction control means for deriving a cutoff frequency in the moving image based on the fixed pattern noise perception amount derived by the fixed pattern noise perception amount deriving means;
6. Noise reduction processing means for performing processing for reducing noise contained in the moving image based on a cut-off frequency derived by the noise reduction control means. The image processing apparatus according to item 1.
前記動画像における被写体の移動速度を取得する移動速度取得工程と、
前記移動速度取得工程により取得された、前記動画像における被写体の移動速度に応じた、光に対する視覚の感度を表す情報を取得する視覚特性取得工程と、
前記動画像と、前記ノイズ特性導出工程により導出されたノイズの特性と、前記視覚特性取得工程により取得された情報とに基づいて、前記動画像に含まれる固定パターンノイズに前記ノイズの特性に基づくノイズを重畳させた場合の当該固定パターンノイズの知覚のされやすさを評価した値である固定パターンノイズ知覚量を導出する固定パターンノイズ知覚量導出工程と、
前記固定パターンノイズ知覚量導出工程により導出された固定パターンノイズ知覚量に基づいて、前記動画像に含まれるノイズを低減するノイズ低減工程と、を有することを特徴とする画像処理方法。 A noise characteristic deriving step for deriving a noise characteristic in the moving image based on a condition relating to exposure when the moving image is captured;
A moving speed acquisition step of acquiring a moving speed of a subject in the moving image;
A visual characteristic acquisition step of acquiring information representing visual sensitivity to light according to a moving speed of a subject in the moving image acquired by the moving speed acquisition step;
Based on the moving image, the noise characteristic derived by the noise characteristic deriving step, and the information acquired by the visual characteristic acquiring step, the fixed pattern noise included in the moving image is based on the noise characteristic. A fixed pattern noise perception amount derivation step for deriving a fixed pattern noise perception amount, which is a value obtained by evaluating the ease of perception of the fixed pattern noise when noise is superimposed;
A noise reduction step of reducing noise included in the moving image based on the fixed pattern noise perception amount derived by the fixed pattern noise perception amount derivation step.
前記固定パターンノイズに対して、前記ノイズ特性導出工程により導出された特性のノイズが重畳された画像であるノイズ画像を生成するノイズ画像生成工程と、
前記固定パターンノイズを表す固定パターンノイズ画像と前記ノイズ画像とを、それぞれ空間周波数の関数に変換する変換工程と、
前記空間周波数の関数に変換された前記固定パターンノイズ画像と前記ノイズ画像とに対して、コントラスト感度と空間周波数との関係を表す空間視覚特性をそれぞれ乗算する空間視覚特性乗算工程と、
前記空間視覚特性が乗算された前記固定パターンノイズ画像と前記ノイズ画像とを、を、それぞれ空間周波数帯域ごとに分割する帯域分割工程と、
前記空間周波数ごとに分割された固定パターンノイズ画像と、前記空間周波数帯域ごとに分割されたノイズ画像とに基づいて、前記空間周波数帯域のごとの前記固定パターンノイズ知覚量である部分ノイズ知覚量を算出する部分ノイズ知覚量算出工程と、
前記部分ノイズ知覚量算出工程により算出された部分ノイズ知覚量を合成して前記固定パターンノイズ知覚量を算出する固定パターンノイズ知覚量算出工程と、
を有することを特徴とする請求項8に記載の画像処理方法。 The fixed pattern noise perception amount derivation step includes:
A noise image generation step for generating a noise image, which is an image in which the noise of the characteristic derived by the noise characteristic derivation step is superimposed on the fixed pattern noise;
A conversion step of converting the fixed pattern noise image representing the fixed pattern noise and the noise image into a function of spatial frequency, respectively;
A spatial visual characteristic multiplication step of multiplying the fixed pattern noise image and the noise image converted into a function of the spatial frequency by a spatial visual characteristic representing a relationship between contrast sensitivity and spatial frequency, respectively.
A band dividing step of dividing the fixed pattern noise image multiplied by the spatial visual characteristic and the noise image into spatial frequency bands, respectively.
Based on the fixed pattern noise image divided for each spatial frequency and the noise image divided for each spatial frequency band, a partial noise perception amount that is the fixed pattern noise perception amount for each spatial frequency band is determined. A partial noise perception amount calculating step to calculate;
A fixed pattern noise perception amount calculation step of calculating the fixed pattern noise perception amount by combining the partial noise perception amount calculated by the partial noise perception amount calculation step;
The image processing method according to claim 8, further comprising:
前記固定パターンノイズ知覚量導出工程により導出された固定パターンノイズ知覚量に基づいて、前記動画像に含まれるノイズを低減するためのフィルタに対するゲインを導出するノイズリダクション制御工程と、
前記ノイズリダクション制御工程により導出されたゲインを前記フィルタのフィルタ係数に乗算し、前記ゲインを乗算したフィルタ係数に基づいて、前記動画像に含まれるノイズを低減する処理を行うノイズリダクション処理工程と、を有することを特徴とする請求項8〜12の何れか1項に記載の画像処理方法。 The noise reduction step includes
A noise reduction control step for deriving a gain for a filter for reducing noise included in the moving image based on the fixed pattern noise perception amount derived by the fixed pattern noise perception amount deriving step;
A noise reduction processing step of multiplying a gain derived by the noise reduction control step by a filter coefficient of the filter, and performing a process of reducing noise included in the moving image, based on the filter coefficient multiplied by the gain; The image processing method according to claim 8, wherein the image processing method includes:
前記固定パターンノイズ知覚量導出工程により導出された固定パターンノイズ知覚量に基づいて、前記動画像におけるカットオフ周波数を導出するノイズリダクション制御工程と、
前記ノイズリダクション制御工程により導出されたカットオフ周波数に基づいて、前記動画像に含まれるノイズを低減する処理を行うノイズリダクション処理工程と、を有することを特徴とする請求項8〜12の何れか1項に記載の画像処理方法。 The noise reduction step includes
A noise reduction control step of deriving a cutoff frequency in the moving image based on the fixed pattern noise perception amount derived by the fixed pattern noise perception amount deriving step;
13. A noise reduction processing step of performing a process of reducing noise included in the moving image based on the cut-off frequency derived by the noise reduction control step. 2. The image processing method according to item 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013225756A JP2015088914A (en) | 2013-10-30 | 2013-10-30 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013225756A JP2015088914A (en) | 2013-10-30 | 2013-10-30 | Image processing device, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015088914A true JP2015088914A (en) | 2015-05-07 |
Family
ID=53051290
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013225756A Pending JP2015088914A (en) | 2013-10-30 | 2013-10-30 | Image processing device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015088914A (en) |
-
2013
- 2013-10-30 JP JP2013225756A patent/JP2015088914A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5968073B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
JP5843454B2 (en) | Image processing apparatus, image processing method, and program | |
JP2010020758A5 (en) | ||
JP5932485B2 (en) | Noise reduction device and noise reduction method | |
JP5984493B2 (en) | Image processing apparatus, image processing method, imaging apparatus, and program | |
US8774551B2 (en) | Image processing apparatus and image processing method for reducing noise | |
JP6319972B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
KR20120112051A (en) | Image processing device, image processing method, and program | |
JP5325800B2 (en) | Image processing device, image photographing device, image display device, and program | |
JP2014021928A (en) | Image processor, image processing method and program | |
JP6270413B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP5455728B2 (en) | Imaging apparatus, image processing apparatus, and image processing method | |
JP5654860B2 (en) | Image processing apparatus, control method therefor, and program | |
CN109672810B (en) | Image processing apparatus, image processing method, and storage medium | |
JP2018191178A (en) | Image processing device, and image processing method and program | |
JP2015177528A (en) | image processing apparatus, image processing method, and program | |
JP6904838B2 (en) | Image processing device, its control method and program | |
JP2019016893A (en) | Image processing apparatus, control method therefor, and program | |
JP6682184B2 (en) | Image processing method, image processing program, image processing device, and imaging device | |
JP6331339B2 (en) | Imaging apparatus, imaging system including the imaging apparatus, and false color removal method | |
JP2015088914A (en) | Image processing device, image processing method, and program | |
JP2016111484A (en) | Image processing apparatus, image processing method and program | |
JP6202989B2 (en) | Image processing apparatus, image processing method, and program | |
JP2015121884A (en) | Image processing apparatus, method of the same, and program | |
JP6221330B2 (en) | Image processing program, image processing apparatus, and image processing method |