JP2011234225A - Image processing method and image processing system - Google Patents

Image processing method and image processing system Download PDF

Info

Publication number
JP2011234225A
JP2011234225A JP2010104183A JP2010104183A JP2011234225A JP 2011234225 A JP2011234225 A JP 2011234225A JP 2010104183 A JP2010104183 A JP 2010104183A JP 2010104183 A JP2010104183 A JP 2010104183A JP 2011234225 A JP2011234225 A JP 2011234225A
Authority
JP
Japan
Prior art keywords
image
shading
dark
image signal
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010104183A
Other languages
Japanese (ja)
Inventor
Ryo Hatakeyama
陵 畠山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2010104183A priority Critical patent/JP2011234225A/en
Publication of JP2011234225A publication Critical patent/JP2011234225A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing method for achieving both excellent shading compensation and suppression of an increase in random noise.SOLUTION: An image processing method comprises: a step S53 for detecting a dark-time image shading component from a dummy image signal related to a dark-time image; a step S55 for compensating the dark-time image signal shading using the detected dark-time image shading component; a step S57 for smoothing the dark-time image signal of compensated shading; a step for detecting a light-time image shading component from a dummy image signal related to a light-time image; a step for compensating the light-time image signal shading using the detected light-time image shading component; and a step for subtracting the smoothed dark-time image signal from the light-time image signal of compensated shading.

Description

本発明は、画像信号に含まれるノイズを除去する画像処理方法、画像処理装置に関する。   The present invention relates to an image processing method and an image processing apparatus that remove noise contained in an image signal.

一般に、固体撮像素子から読み出される信号には、素子の製造プロセス等に起因するシェーディングが固定パターンノイズ(FPN)として存在することが知られている。   In general, it is known that a signal read from a solid-state imaging device has shading due to a manufacturing process of the device as fixed pattern noise (FPN).

具体的には、撮像素子は、左右両端側から駆動信号が印加されるが、駆動信号が伝達されるまでの信号線の長さが画素の左右方向位置(何列目であるか)によって異なるために、駆動信号の伝達時間が撮像素子の左右方向における中央部の画素と周辺部の画素とでは異なることになる(具体的には、中央部への駆動信号の伝達は、周辺部への駆動信号の伝達よりも時間的に遅れることになる)。さらに、画素の左右方向位置によって信号が伝達されるまでの信号線の長さが相違するが、この長さの違いに応じて信号線のインピーダンス等が異なることになる。このインピーダンス等の相違により、中央部の画素に伝達される駆動信号は、周辺部の画素に伝達される駆動信号よりも波形がややなまる(例えば、信号のエッジが滑らかになる等)ことになり、波形がなまる分だけトランジスタ等のオン/オフのタイミングがずれる。   Specifically, in the imaging device, a drive signal is applied from both left and right sides, but the length of the signal line until the drive signal is transmitted varies depending on the position in the left and right direction of the pixel (which column is) Therefore, the transmission time of the drive signal is different between the central pixel and the peripheral pixel in the left-right direction of the image sensor (specifically, the transmission of the drive signal to the central part is It will be later in time than the transmission of the drive signal). Furthermore, the length of the signal line until the signal is transmitted differs depending on the position in the left-right direction of the pixel, but the impedance of the signal line differs depending on the difference in length. Due to the difference in impedance or the like, the drive signal transmitted to the central pixel has a slightly different waveform (for example, the signal edge becomes smoother) than the drive signal transmitted to the peripheral pixel. Thus, the on / off timing of the transistor and the like is shifted by the amount that the waveform is rounded.

このような原因により、撮像素子の左右方向における中央部と周辺部とでは露光時間の相違が発生し、これが水平方向の暗時シェーディングとして撮像画像に現れることになる。そこで、このようなシェーディングを補正するための技術が、従来より種々提案されている。   For this reason, a difference in exposure time occurs between the central portion and the peripheral portion in the left-right direction of the image sensor, and this appears in the captured image as dark shading in the horizontal direction. Thus, various techniques for correcting such shading have been proposed.

まず、図10は、シェーディングを補正するための第1の従来技術を説明するための図である。   First, FIG. 10 is a diagram for explaining a first conventional technique for correcting shading.

この第1の従来技術は、明時画像と暗時画像の2枚の画像を撮像して、明時画像から暗時画像を減算するものとなっている。   The first prior art takes two images, a light image and a dark image, and subtracts the dark image from the light image.

すなわち、明時画像は、図示のように、水平シェーディング成分HS、後発欠陥画素DP、ランダムノイズ白浮きRW、ランダムノイズ黒沈みRB、固定縦すじFPなどを含む画像である。   That is, the bright image is an image including a horizontal shading component HS, a subsequent defective pixel DP, a random noise white float RW, a random noise black sink RB, a fixed vertical stripe FP, and the like, as illustrated.

また、暗時画像も、図示のように、水平シェーディング成分HS、後発欠陥画素DP、ランダムノイズ白浮きRW、ランダムノイズ黒沈みRB、固定縦すじFPなどを含む画像である。   The dark image is also an image including a horizontal shading component HS, a subsequent defective pixel DP, a random noise white float RW, a random noise black sink RB, a fixed vertical stripe FP, and the like, as shown in the figure.

そこで、明時画像から暗時画像を減算することにより、水平シェーディング成分HSや固定縦すじFPなどを除去することが可能となっている。ただし、後発欠陥画素DPについては、明時画像と暗時画像とでレベル差があるために、減算によって軽減はされるかもしれないが、このレベル差の分だけ残存すると考えられる。また、ランダムノイズについては、減算しても軽減されるとは限らず場合によっては増加することもあると考えられる。この図10に示す例では、暗時画像に含まれるランダムノイズ白浮きRWが減算後画像においてランダムノイズ黒沈みRBとして、ランダムノイズ黒沈みRBが減算後画像においてランダムノイズ白浮きRWとして、それぞれ現れ、結果としてランダムノイズが増加している。   Therefore, by subtracting the dark image from the bright image, it is possible to remove the horizontal shading component HS, the fixed vertical stripe FP, and the like. However, since the late defective pixel DP has a level difference between the bright image and the dark image, it may be reduced by subtraction, but it is considered that the remaining defective pixel DP remains. In addition, it is considered that random noise is not necessarily reduced even if subtraction is performed, but may increase in some cases. In the example shown in FIG. 10, the random noise white float RW included in the dark image appears as the random noise black sink RB in the subtracted image, and the random noise black float RB appears as the random noise white float RW in the subtracted image. As a result, random noise has increased.

次に、図11は、シェーディングを補正するための第2の従来技術を説明するための図である。   Next, FIG. 11 is a diagram for explaining a second prior art for correcting shading.

この第2の従来技術は、明時画像と暗時画像の2枚の画像を撮像して、暗時画像については平滑化を行い、明時画像から平滑化された暗時画像を減算するものとなっている。   This second conventional technique takes two images, a light image and a dark image, smoothes the dark image, and subtracts the smoothed dark image from the light image. It has become.

すなわち、例えば後発欠陥画素DPを除外して暗時画像の平滑化を行うと、暗時画像に含まれるランダムノイズ白浮きRWおよびランダムノイズ黒沈みRBはほぼ滑らかに平坦化される。ただし、固定縦すじFPについてはシャープネスが低下した状態に変化し、水平シェーディング成分HSについても平滑化によって濃淡の分布がやや変化する。   That is, for example, when the dark image is smoothed by excluding the late defective pixel DP, the random noise white floating RW and the random noise black sink RB included in the dark image are flattened almost smoothly. However, the fixed vertical stripe FP changes to a state where sharpness is lowered, and the shading distribution of the horizontal shading component HS also slightly changes due to smoothing.

このような平滑化された暗時画像を明時画像から減算すると、水平シェーディング成分HSについては幾らかの成分が残り、固定縦すじFPについても元のシャープな縦すじとシャープネスが低下した縦すじとの差分が残ることになる。また、後発欠陥画素DPについては、第1の従来技術と同様に、明時画像と暗時画像とでレベル差の分だけ残存する。一方、ランダムノイズについては、減算しても元の明時画像とほぼ同等のレベルを保つことができると考えられる。   When such a smoothed dark image is subtracted from the bright image, some components remain in the horizontal shading component HS, and the original sharp vertical streak and the vertical streak with reduced sharpness also in the fixed vertical streak FP. And the difference will remain. Further, the late defective pixel DP remains by the level difference between the bright image and the dark image as in the first conventional technique. On the other hand, it is considered that the random noise can be maintained at the same level as the original bright image even if subtracted.

続いて、シェーディングを補正するための第3の従来技術として、例えば特開2007−180616号公報に記載の撮像装置のノイズ除去方法に関する技術を説明する。該公報には、複数の画素を備える撮像素子と、撮像素子を遮光した状態で取得したダーク画像信号を平滑化するメディアンフィルタ処理回路と、撮像素子により被写体を撮像して得た被写体画像信号から平滑化後のダーク画像信号を減ずる減算処理回路と、減算処理回路により、平滑化前の黒画素信号から平滑化後のダーク画像信号を各画素毎に減算し、得られた差が予め設定された範囲外にある画素を、撮像素子の欠陥画素として抽出するシステム制御回路と、ダーク画像信号を減算した後の被写体画像信号の内、システム制御回路により抽出された欠陥画素の画像信号を、当該欠陥画素の周辺画素の画像信号を用いて補正する画像処理回路とを有する撮像装置が記載されている。   Next, as a third conventional technique for correcting shading, a technique related to a noise removal method for an imaging apparatus described in, for example, Japanese Patent Application Laid-Open No. 2007-180616 will be described. The gazette includes an imaging device including a plurality of pixels, a median filter processing circuit that smoothes a dark image signal acquired in a state where the imaging device is shielded from light, and a subject image signal obtained by imaging a subject with the imaging device. The subtraction processing circuit that subtracts the dark image signal after smoothing and the subtraction processing circuit subtracts the dark image signal after smoothing from the black pixel signal before smoothing for each pixel, and the difference obtained is preset. A system control circuit that extracts pixels that are out of the range as defective pixels of the image sensor, and an image signal of the defective pixel extracted by the system control circuit in the subject image signal after subtracting the dark image signal, An imaging apparatus is described that includes an image processing circuit that performs correction using an image signal of peripheral pixels of a defective pixel.

この第3の従来技術は、上述した第2の従来技術に対して、さらに平滑化前のダーク画像信号から平滑化後のダーク画像信号を減算して、減算後にもある程度以上のレベルを保っている画素を欠陥画素として検出し、この欠陥画素の補正を行うものとなっている。従って、図11に示した後発欠陥画素DPや固定縦すじFPを、第2の従来技術よりも良好に除去することが可能であると考えられる。   The third prior art further subtracts the smoothed dark image signal from the dark image signal before smoothing, and maintains a level above a certain level even after the subtraction, compared to the second prior art described above. The detected pixel is detected as a defective pixel, and the defective pixel is corrected. Therefore, it is considered that the subsequent defective pixel DP and the fixed vertical stripe FP shown in FIG. 11 can be removed better than the second conventional technique.

特開2007−180616号公報JP 2007-180616 A

上述したように、第1の従来技術ではシェーディングは良好に補正されるがランダムノイズが増加してしまうことがあり、第2および第3の従来技術ではランダムノイズの増加を抑制することはできるがシェーディングの補正残りが生じたりしてしまう。こうして従来の技術では、シェーディングの良好な補正とランダムノイズの増加の抑制との両立を図ることができなかった。   As described above, in the first conventional technique, shading is corrected well, but random noise may increase. In the second and third conventional techniques, increase in random noise can be suppressed. Shading correction remains. Thus, the conventional technology cannot achieve both good correction of shading and suppression of increase in random noise.

本発明は上記事情に鑑みてなされたものであり、シェーディングの良好な補正とランダムノイズの増加の抑制との両立を図ることができる画像処理方法、画像処理装置を提供することを目的としている。   The present invention has been made in view of the above circumstances, and an object thereof is to provide an image processing method and an image processing apparatus capable of achieving both good correction of shading and suppression of an increase in random noise.

上記の目的を達成するために、本発明のある態様による画像処理方法は、画像信号に含まれるノイズを除去する画像処理方法において、暗時画像に係るダミー画像信号から暗時画像シェーディング成分を検出する暗時画像シェーディング検出ステップと、検出した暗時画像シェーディング成分を用いて暗時画像信号のシェーディングを補正する暗時画像シェーディング補正ステップと、シェーディングが補正された暗時画像信号を平滑化する暗時画像平滑化ステップと、明時画像に係るダミー画像信号から明時画像シェーディング成分を検出する明時画像シェーディング検出ステップと、検出した明時画像シェーディング成分を用いて明時画像信号のシェーディングを補正する明時画像シェーディング補正ステップと、シェーディングが補正された明時画像信号から、上記平滑化された暗時画像信号を減算する明暗減算ステップと、を有する。   In order to achieve the above object, an image processing method according to an aspect of the present invention is an image processing method for removing noise contained in an image signal, and detects a dark image shading component from a dummy image signal related to a dark image. A dark image shading detection step, a dark image shading correction step for correcting shading of the dark image signal using the detected dark image shading component, and a dark image for smoothing the dark image signal whose shading has been corrected A smoothing step, a bright image shading detection step for detecting a bright image shading component from a dummy image signal relating to a bright image, and correction of shading of the bright image signal using the detected bright image shading component Brightness image shading correction step and shading correction From the bright-field image signal, having a brightness subtraction step of subtracting the image signal when the dark which is the smoothed.

また、本発明の他の態様による画像処理装置は、画像信号に含まれるノイズを除去する画像処理装置において、暗時画像に係るダミー画像信号から暗時画像シェーディング成分を検出する暗時画像シェーディング検出部と、検出した暗時画像シェーディング成分を用いて暗時画像信号のシェーディングを補正する暗時画像シェーディング補正部と、シェーディングが補正された暗時画像信号を平滑化する暗時画像平滑化部と、明時画像に係るダミー画像信号から明時画像シェーディング成分を検出する明時画像シェーディング検出部と、検出した明時画像シェーディング成分を用いて明時画像信号のシェーディングを補正する明時画像シェーディング補正部と、シェーディングが補正された明時画像信号から、上記平滑化された暗時画像信号を減算する明暗減算部と、を備える。   An image processing apparatus according to another aspect of the present invention provides a dark image shading detection that detects a dark image shading component from a dummy image signal related to a dark image in an image processing apparatus that removes noise included in the image signal. A dark image shading correction unit that corrects shading of the dark image signal using the detected dark image shading component, and a dark image smoothing unit that smoothes the dark image signal whose shading is corrected A bright-time image shading detection unit for detecting a bright-time image shading component from a dummy image signal related to a bright-time image, and a bright-time image shading correction for correcting shading of a bright-time image signal using the detected bright-time image shading component And the smoothed dark image signal from the bright image signal with the shading corrected. And a brightness subtraction unit configured to subtract.

本発明の画像処理方法、画像処理装置によれば、シェーディングの良好な補正とランダムノイズの増加の抑制との両立を図ることが可能となる。   According to the image processing method and the image processing apparatus of the present invention, it is possible to achieve both good correction of shading and suppression of increase in random noise.

本発明の実施形態1において、画像処理装置が適用された撮像装置の構成を示すブロック図。In Embodiment 1 of this invention, the block diagram which shows the structure of the imaging device to which the image processing apparatus was applied. 上記実施形態1において、ノイズ除去モードが設定されノイズ除去撮影を行うときの画像の変化の様子を示す図。FIG. 6 is a diagram illustrating a state of image change when noise removal mode is set and noise removal shooting is performed in the first embodiment. 上記実施形態1において、撮像装置の撮影時の処理を示すフローチャート。5 is a flowchart showing processing at the time of shooting by the imaging apparatus in the first embodiment. 上記実施形態1において、ノイズ除去撮影の処理を示すフローチャート。6 is a flowchart illustrating noise removal shooting processing in the first embodiment. 上記実施形態1において、明時画像取込・補正処理を示すフローチャート。5 is a flowchart showing a bright-time image capture / correction process in the first embodiment. 上記実施形態1において、暗時画像取込・補正処理を示すフローチャート。5 is a flowchart showing dark image capturing / correction processing in the first embodiment. 上記実施形態1において、水平シェーディング抽出処理を示すフローチャート。5 is a flowchart showing horizontal shading extraction processing in the first embodiment. 上記実施形態1において、メモリから2次元ブロック単位で画素データを読み出して2次元平滑化フィルタをかける例を示す図。FIG. 4 is a diagram illustrating an example in which pixel data is read from a memory in units of two-dimensional blocks and a two-dimensional smoothing filter is applied in the first embodiment. 上記実施形態1において、メモリから1ライン内の連続する複数画素単位で画素データを読み出して1次元平滑化フィルタをかける例を示す図。FIG. 4 is a diagram illustrating an example in which pixel data is read from a memory in units of a plurality of continuous pixels in one line and a one-dimensional smoothing filter is applied in the first embodiment. 上記実施形態1において、シェーディングを補正するための第1の従来技術を説明するための図。The figure for demonstrating the 1st prior art for correct | amending shading in the said Embodiment 1. FIG. 上記実施形態1において、シェーディングを補正するための第2の従来技術を説明するための図。The figure for demonstrating the 2nd prior art for correct | amending shading in the said Embodiment 1. FIG.

以下、図面を参照して本発明の実施の形態を説明する。
[実施形態1]
Embodiments of the present invention will be described below with reference to the drawings.
[Embodiment 1]

図1から図9は本発明の実施形態1を示したものであり、図1は画像処理装置が適用された撮像装置の構成を示すブロック図である。ここに、本実施形態においては、画像処理装置としての機能を備えた、デジタルカメラ等の撮像装置を例に挙げて説明する。   FIGS. 1 to 9 show Embodiment 1 of the present invention, and FIG. 1 is a block diagram showing a configuration of an imaging apparatus to which an image processing apparatus is applied. Here, in the present embodiment, an imaging apparatus such as a digital camera having a function as an image processing apparatus will be described as an example.

図1に示す撮像装置は、レンズ1と、撮像素子2と、同期信号生成部3と、駆動部4と、温度検知部5と、信号処理回路6と、画像処理部8と、記録部10と、表示部11と、指示部12と、メモリ13と、システム制御部14と、を備えている。   An imaging apparatus shown in FIG. 1 includes a lens 1, an imaging device 2, a synchronization signal generation unit 3, a drive unit 4, a temperature detection unit 5, a signal processing circuit 6, an image processing unit 8, and a recording unit 10. A display unit 11, an instruction unit 12, a memory 13, and a system control unit 14.

レンズ1は、光学的な被写体像を撮像素子2の撮像面上に結像するための撮影光学系であり、絞りやフォーカスレンズ等を含んで構成されている。   The lens 1 is a photographing optical system for forming an optical subject image on the image pickup surface of the image pickup device 2, and includes a diaphragm, a focus lens, and the like.

撮像素子2は、複数の画素が配列された撮像面を備え、レンズ1により結像された光学的な被写体像を光電変換して電気的な画像信号を生成するものである。この撮像素子2の具体例としては、CMOS撮像素子を挙げることができるが、勿論これに限定されるものではない。   The imaging device 2 includes an imaging surface on which a plurality of pixels are arranged, and generates an electrical image signal by photoelectrically converting an optical subject image formed by the lens 1. A specific example of the image sensor 2 is a CMOS image sensor, but it is not limited to this.

なお、レンズ1と撮像素子2との間には、図示はしないがメカニカルシャッタが設けられていて、レンズ1から撮像素子2へ向かう光の遮光/通過を制御可能であるものとする。ただし、このメカニカルシャッタは、先幕および後幕の両方を備えているに限るものではなく、先幕を電子シャッタとし、後幕のみをメカニカルシャッタとするものであっても構わない。そこで、以下では、先幕を電子シャッタ、後幕をメカニカルシャッタとした場合を例に挙げて説明する。   It is assumed that a mechanical shutter (not shown) is provided between the lens 1 and the image sensor 2 so that the light shielding / passing of light from the lens 1 toward the image sensor 2 can be controlled. However, this mechanical shutter is not limited to having both the front curtain and the rear curtain, and the front curtain may be an electronic shutter and only the rear curtain may be a mechanical shutter. Therefore, in the following, a case where the front curtain is an electronic shutter and the rear curtain is a mechanical shutter will be described as an example.

同期信号生成部3は、システム制御部14の制御の下に、垂直同期信号を生成するものである。   The synchronization signal generation unit 3 generates a vertical synchronization signal under the control of the system control unit 14.

駆動部4は、システム制御部14の制御の下に、同期信号生成部3によって生成された垂直同期信号に基づき、読出開始パルスや電子シャッタ開始パルスを発生して撮像素子2を駆動するものである。   The drive unit 4 drives the image sensor 2 by generating a read start pulse and an electronic shutter start pulse based on the vertical synchronization signal generated by the synchronization signal generation unit 3 under the control of the system control unit 14. is there.

温度検知部5は、撮像素子2の近傍に設けられていて、撮像された画像のノイズレベルに影響を及ぼす撮像素子2の温度を実質的に測定するものである。   The temperature detector 5 is provided in the vicinity of the image sensor 2 and substantially measures the temperature of the image sensor 2 that affects the noise level of the captured image.

信号処理回路6は、撮像素子2からのアナログ画像信号を増幅するゲイン調整回路7を含み、さらに各種のアナログ信号処理を施した後に、アナログ画像信号をデジタル画像信号に変換して出力するものである。この信号処理回路6から出力された画像信号は、メモリ13に記憶される。   The signal processing circuit 6 includes a gain adjustment circuit 7 that amplifies the analog image signal from the image sensor 2, and after performing various analog signal processing, converts the analog image signal into a digital image signal and outputs the digital image signal. is there. The image signal output from the signal processing circuit 6 is stored in the memory 13.

画像処理部8は、信号処理回路6から出力されメモリ13に記憶されている画像信号に各種の画像処理を施すものであり、欠陥補正部9を含んで構成されている。この欠陥補正部9については、後でフローチャートに沿った処理の流れと共に説明する。   The image processing unit 8 performs various types of image processing on the image signal output from the signal processing circuit 6 and stored in the memory 13, and includes a defect correction unit 9. The defect correction unit 9 will be described later along with the flow of processing along the flowchart.

記録部10は、画像処理部8により記録用に処理された画像データを不揮発に記憶するものであり、例えばメモリカードなどの撮像装置の外部に搬出し得るリムーバブルメモリとして構成されている。従って、記録部10は、撮像装置に固有の構成でなくても構わない。   The recording unit 10 stores the image data processed for recording by the image processing unit 8 in a nonvolatile manner, and is configured as a removable memory that can be carried out of the imaging apparatus such as a memory card. Therefore, the recording unit 10 may not have a configuration unique to the imaging apparatus.

表示部11は、画像処理部8により表示用に処理された画像データや、この撮像装置の操作に係るメニューの表示などを行う表示デバイスである。   The display unit 11 is a display device that displays image data processed for display by the image processing unit 8 and a menu related to the operation of the imaging apparatus.

指示部12は、この撮像装置に対する操作入力を行うためのユーザーインタフェースであり、電源のオン/オフを指示するための電源ボタンや撮影開始を指示するためのレリーズボタン、ノイズ除去モードのオン/オフやノイズ除去モードがオンであるときのオート/マニュアルを設定するための撮影モード設定ボタン、画像を撮像する際の露光時間を示すシャッタ速度や画像の増幅率(ゲイン)に係る撮影感度などを設定するための撮影条件設定ボタン、その他各種の設定ボタンなどが含まれている。   The instructing unit 12 is a user interface for performing an operation input to the imaging apparatus, and includes a power button for instructing power on / off, a release button for instructing start of photographing, and on / off of a noise removal mode. Shooting mode setting button for setting auto / manual when noise removal mode is on, shutter speed indicating exposure time when taking an image, shooting sensitivity related to image gain (gain), etc. It includes a shooting condition setting button and various other setting buttons.

システム制御部14は、指示部12から入力されたユーザーからの指示や、画像処理部8から得られる撮像された被写体に係る情報(例えばAF情報やAE情報)等に基づいて、この撮像装置全体の制御を行うものである。例えば、システム制御部14は、自動露出制御が行われているときには、AE情報に基づいて画像を撮像する際のシャッタ速度を決定し、同期信号生成部3や駆動部4を介して撮像素子2を制御し駆動する。また、システム制御部14は、自動焦点調節制御が行われているときには、AF情報に基づいて図示しないレンズ駆動部を介してレンズ1を制御駆動し焦点調節を行う。   The system control unit 14 determines the entire imaging apparatus based on an instruction from the user input from the instruction unit 12, information on the captured subject obtained from the image processing unit 8 (for example, AF information or AE information), and the like. The control is performed. For example, when the automatic exposure control is being performed, the system control unit 14 determines a shutter speed for capturing an image based on the AE information, and the image sensor 2 via the synchronization signal generation unit 3 and the drive unit 4. Control and drive. Further, when the automatic focus adjustment control is performed, the system control unit 14 performs the focus adjustment by controlling and driving the lens 1 via a lens driving unit (not shown) based on the AF information.

さらに、このシステム制御部14は、暗時画像シェーディング補正部、明時画像シェーディング補正部、明暗減算部たる減算処理回路15と、暗時画像平滑化部たる平滑化処理回路16と、暗時画像シェーディング検出部、明時画像シェーディング検出部たる水平シェーディング抽出回路17と、を含んでおり、欠陥画素検出部を兼ねたものとなっている。これらについては、後でフローチャートに沿った処理の流れと共に説明する。   Further, the system control unit 14 includes a dark image shading correction unit, a light image shading correction unit, a subtraction processing circuit 15 serving as a light / dark subtraction unit, a smoothing processing circuit 16 serving as a dark image smoothing unit, and a dark image. It includes a shading detection unit and a horizontal shading extraction circuit 17 that is a bright-time image shading detection unit, and also serves as a defective pixel detection unit. These will be described later together with the flow of processing along the flowchart.

次に、図2はノイズ除去モードが設定されノイズ除去撮影を行うときの画像の変化の様子を示す図、図3は撮像装置の撮影時の処理を示すフローチャート、図4はノイズ除去撮影の処理を示すフローチャート、図5は明時画像取込・補正処理を示すフローチャート、図6は暗時画像取込・補正処理を示すフローチャート、図7は水平シェーディング抽出処理を示すフローチャートである。   Next, FIG. 2 is a diagram showing how the image changes when the noise removal mode is set and noise-removing shooting is performed, FIG. 3 is a flowchart showing processing at the time of shooting by the imaging apparatus, and FIG. FIG. 5 is a flowchart showing a light image capture / correction process, FIG. 6 is a flowchart showing a dark image capture / correction process, and FIG. 7 is a flowchart showing a horizontal shading extraction process.

まず、図3を参照して、撮像装置の撮影時の処理の流れについて説明する。   First, with reference to FIG. 3, the flow of processing at the time of shooting by the imaging apparatus will be described.

指示部12の電源ボタンにより電源がオンされると、この処理が開始され、システム制御部14の制御に基づいて、撮像素子2により撮像された画像をほぼリアルタイムに表示部11に表示するスルー画表示を行う(ステップS1)。   When the power is turned on by the power button of the instruction unit 12, this process is started, and a through image that displays an image captured by the image sensor 2 on the display unit 11 in near real time based on the control of the system control unit 14. Display is performed (step S1).

そして、システム制御部14は、指示部12のレリーズボタンがオンされるのを待機する(ステップS2)。   Then, the system control unit 14 waits for the release button of the instruction unit 12 to be turned on (step S2).

レリーズボタンがオンされたら、ノイズ除去モードがオフであるか否かをシステム制御部14が判定し(ステップS3)、オフであると判定された場合には通常撮影モードによる撮像を行う(ステップS4)。   When the release button is turned on, the system control unit 14 determines whether or not the noise removal mode is off (step S3), and when it is determined that the release button is off, imaging in the normal shooting mode is performed (step S4). ).

また、ステップS3においてノイズ除去モードがオフでないと判定された場合には、ノイズ除去モードがオートであるか否かをシステム制御部14が判定する(ステップS5)。   When it is determined in step S3 that the noise removal mode is not off, the system control unit 14 determines whether or not the noise removal mode is auto (step S5).

ここで、ノイズ除去モードがオートであると判定された場合には、さらに、自動露出制御または手動により設定された露光時間Tが予め定められた閾時間W以下であるか否かをシステム制御部14がさらに判定する(ステップS6)。ここに閾時間Wは、固定値であっても良いし、ユーザ設定や撮影条件、被写体条件等によって変更可能な値であっても構わない。   Here, when it is determined that the noise removal mode is auto, the system control unit further determines whether the exposure time T set by automatic exposure control or manually is equal to or less than a predetermined threshold time W. 14 further determines (step S6). Here, the threshold time W may be a fixed value, or may be a value that can be changed according to user settings, shooting conditions, subject conditions, and the like.

ステップS5においてノイズ除去モードがオートでないと判定された場合、またはステップS6において露光時間Tが閾時間Wよりも大きいと判定された場合には、ノイズ除去撮影モードによる撮像を行う(ステップS7)。   If it is determined in step S5 that the noise removal mode is not auto, or if it is determined in step S6 that the exposure time T is greater than the threshold time W, imaging in the noise removal shooting mode is performed (step S7).

一方、ステップS6において露光時間Tが閾時間W以下であると判定された場合には、ステップS4へ行って、通常撮影モードによる撮像を行う。   On the other hand, if it is determined in step S6 that the exposure time T is equal to or less than the threshold time W, the process proceeds to step S4, and imaging in the normal shooting mode is performed.

こうして、ステップS4またはステップS7の処理により画像が撮像されてたら、画像処理部8により記録用に処理された画像データを記録部10に記録するとともに(ステップS8)、画像処理部8により表示用に処理された画像データを表示部11に表示する(ステップS9)。   Thus, when an image is captured by the process of step S4 or step S7, the image data processed for recording by the image processing unit 8 is recorded in the recording unit 10 (step S8), and is displayed by the image processing unit 8 for display. The processed image data is displayed on the display unit 11 (step S9).

その後、指示部12の電源ボタンにより電源がオフされたか否かをシステム制御部14が判定し(ステップS10)、オフされていないと判定された場合にはステップS1へ戻って上述したような処理を繰り返して行い、また、オフされたと判定された場合にはこの処理を終了する。   Thereafter, the system control unit 14 determines whether or not the power is turned off by the power button of the instruction unit 12 (step S10). When it is determined that the power is not turned off, the process returns to step S1 and the processing as described above. Is repeated, and if it is determined that the signal has been turned off, the process is terminated.

続いて、図2も参照しながら、図4に沿って、図3のステップS7におけるノイズ除去撮影の処理の流れを説明する。   Next, the flow of the noise-removal shooting process in step S7 in FIG. 3 will be described along FIG. 4 with reference to FIG.

この処理を開始すると、露光時間Tが予め定められた閾時間Xよりも大きいことと(条件1)、温度検知部5により検知された撮像素子2の近傍の温度Cが予め定められた閾温度Yよりも大きいことと(条件2)、ゲイン調整回路7における信号増幅率を示すゲインGが予め定められた閾ゲインZ(閾増幅率)よりも大きいことと(条件3)、の内の少なくとも1つが成り立つか否かをシステム制御部14がさらに判定する(ステップS21)。ここに閾時間X、閾温度Y、閾ゲインZは、固定値であっても良いし、ユーザ設定や撮影条件、被写体条件等によって変更可能な値であっても構わない。   When this process is started, the exposure time T is longer than a predetermined threshold time X (condition 1), and the temperature C in the vicinity of the image sensor 2 detected by the temperature detector 5 is a predetermined threshold temperature. More than Y (condition 2), and a gain G indicating a signal amplification factor in the gain adjustment circuit 7 is larger than a predetermined threshold gain Z (threshold amplification factor) (condition 3). The system control unit 14 further determines whether one is satisfied (step S21). Here, the threshold time X, the threshold temperature Y, and the threshold gain Z may be fixed values or values that can be changed according to user settings, shooting conditions, subject conditions, and the like.

なお、ここでは3つの条件の内の少なくとも1つが成り立つか否かを判定しているが、これに限るものではない。例えば、2つの条件を組み合わせたもの、すなわち、条件1および2と、条件2および3と、条件3および1と、の内の少なくとも1つが成り立つか否かをシステム制御部14が判定するようにしても良い。あるいは、条件1〜3の内の何れか1つが必須の条件である場合、例えば露光時間Tに係る条件1が必須の条件である場合には、条件1および2と、条件1および3と、の何れか一方が成り立つか否かをシステム制御部14が判定するようにしても良い。同様に、3つの条件1〜3の全てが成り立つか否かをシステム制御部14が判定するようにしても構わない。そして、条件1〜3にさらに他の条件を付け加えてその成否を判定しても構わないし、条件1〜3の内の何れかの条件を他の条件と取り替えてその成否を判定しても構わない。   Here, it is determined whether or not at least one of the three conditions is satisfied, but the present invention is not limited to this. For example, the system control unit 14 determines whether at least one of the two conditions, that is, the conditions 1 and 2, the conditions 2 and 3, and the conditions 3 and 1 is satisfied. May be. Alternatively, when any one of the conditions 1 to 3 is an essential condition, for example, when the condition 1 related to the exposure time T is an essential condition, the conditions 1 and 2, the conditions 1 and 3, The system control unit 14 may determine whether any one of the above holds. Similarly, the system control unit 14 may determine whether all the three conditions 1 to 3 are satisfied. Then, the success or failure may be determined by adding another condition to the conditions 1 to 3, or the success or failure may be determined by replacing any of the conditions 1 to 3 with another condition. Absent.

ステップS21において、条件が成立していると判定された場合にはフラグFlagに0を代入し(ステップS22)、条件が成立していないと判定された場合にはフラグFlagに1を代入する(ステップS23)。   If it is determined in step S21 that the condition is satisfied, 0 is assigned to the flag Flag (step S22), and if it is determined that the condition is not satisfied, 1 is assigned to the flag Flag ( Step S23).

ステップS22またはステップS23の処理が終了したら、メカニカルシャッタを開いた状態にしてから、システム制御部14が同期信号生成部3および駆動部4を制御することにより、撮像素子2を駆動して、明時画像(被写体光を受光して光電変換を行うことにより得られた画像)の撮像を行わせる(ステップS24)。   When the processing of step S22 or step S23 is completed, the mechanical shutter is opened, and then the system control unit 14 controls the synchronization signal generation unit 3 and the driving unit 4 to drive the image pickup device 2, thereby A time image (an image obtained by receiving subject light and performing photoelectric conversion) is captured (step S24).

そして、後で図5を参照して説明するような明時画像取込・補正処理を行い(取り込まれた画像は図2の画像P1参照、補正処理が行われた画像は図2の画像P2参照)(ステップS25)、処理後の画像(図2の画像P2参照)をメモリ13に一時的に記憶させる(ステップS26)。   Then, a bright-time image capture / correction process as described later with reference to FIG. 5 is performed (refer to the image P1 in FIG. 2 for the captured image and the image P2 in FIG. 2 for the image subjected to the correction process). (Refer to step S25), and the processed image (see image P2 in FIG. 2) is temporarily stored in the memory 13 (step S26).

続いて、メカニカルシャッタを閉じた状態にしてから、システム制御部14が上述と同様に撮像素子2を駆動して暗時画像(撮像素子2が遮光されている状態で明時画像と同一の露光時間Tだけ光電変換可能な状態を維持して得られた画像)の撮像を行わせ(ステップS27)、後で図6を参照して説明するような暗時画像取込・補正処理を行い(取り込まれた画像は図2の画像P3参照、補正処理が行われた画像は図2の画像P4およびP5参照)(ステップS28)、処理後の画像(図2の画像P5参照)をメモリ13に一時的に記憶させる(ステップS29)。   Subsequently, after the mechanical shutter is closed, the system control unit 14 drives the image sensor 2 in the same manner as described above, and the dark image (the same exposure as the light image when the image sensor 2 is shielded from light). An image obtained by maintaining a state in which photoelectric conversion is possible only for time T is performed (step S27), and dark image capture / correction processing as described later with reference to FIG. 6 is performed ( Refer to the image P3 in FIG. 2 for the captured image, and refer to the images P4 and P5 in FIG. 2 for the corrected image (step S28), and store the processed image (see the image P5 in FIG. 2) in the memory 13. It is temporarily stored (step S29).

その後、システム制御部14がメモリ13に一時的に記憶されている明時画像および暗時画像を読み込んで(ステップS30、ステップS31)、減算処理回路15により明時画像(図2の画像P2)から暗時画像(図2の画像P5)を減算する処理を行う(明暗減算ステップ)(この処理の結果得られた画像は、図2の画像P6参照)(ステップS32)。   Thereafter, the system control unit 14 reads the light image and the dark image temporarily stored in the memory 13 (steps S30 and S31), and the subtraction processing circuit 15 performs the light image (image P2 in FIG. 2). Then, a process for subtracting the dark image (image P5 in FIG. 2) is performed (brightness / darkness subtraction step) (refer to image P6 in FIG. 2 for the image obtained as a result of this process) (step S32).

そして、システム制御部14の制御に基づき、画像処理部8内の欠陥補正部9が欠陥画素を補正する処理を行い(この処理の結果得られた画像は、図2の画像P7参照)(ステップS33)、この処理が終了したところで図3に示した処理へリターンする。   Then, based on the control of the system control unit 14, the defect correction unit 9 in the image processing unit 8 performs a process of correcting the defective pixel (refer to an image P7 in FIG. 2 for an image obtained as a result of this process) (step S33) When this process is completed, the process returns to the process shown in FIG.

次に、図2も参照しながら、図5に沿って、図4のステップS25における明時画像取込・補正処理の流れを説明する。   Next, the flow of the bright-time image capturing / correcting process in step S25 of FIG. 4 will be described along FIG. 5 with reference to FIG.

この処理を開始すると、まず、撮像素子2からダミー読み出しを行うことにより明時ダミー画像を取り込む(明時ダミー画像取得ステップ)(ステップS41)。   When this process is started, first, a dummy read out from the image sensor 2 is performed to capture a bright dummy image (light dummy image acquisition step) (step S41).

そして、図4のステップS22またはステップS23において設定されたフラグFlagが0であるか否かを判定する(ステップS42)。   Then, it is determined whether or not the flag Flag set in step S22 or step S23 of FIG. 4 is 0 (step S42).

ここで、フラグFlagが0であると判定された場合には、システム制御部14内の水平シェーディング抽出回路17が明時ダミー画像に対して後で図7を参照して説明するような水平シェーディング抽出処理を行うことにより、明時画像に対する水平シェーディング成分を抽出する(明時画像シェーディング検出ステップ)(ステップS43)。   If it is determined that the flag Flag is 0, the horizontal shading extraction circuit 17 in the system control unit 14 performs horizontal shading as described later with reference to FIG. By performing the extraction process, a horizontal shading component for the light image is extracted (light image shading detection step) (step S43).

さらに、撮像素子2から、露光時間Tだけ露光して得られた明時画像を取り込む(明時画像撮像ステップ)(ステップS44)。ここで取り込んだ明時画像は、図2の画像P1に示すように、水平シェーディング成分HS、後発欠陥画素DP、ランダムノイズ白浮きRW、ランダムノイズ黒沈みRB、固定縦すじFPなどを含む画像である。   Further, a bright image obtained by exposure for the exposure time T is captured from the image sensor 2 (light image capturing step) (step S44). The bright image captured here is an image including a horizontal shading component HS, a subsequent defective pixel DP, a random noise white float RW, a random noise black sink RB, a fixed vertical stripe FP, and the like, as shown in an image P1 in FIG. is there.

そこで、システム制御部14に含まれる減算処理回路15が、この明時画像P1からステップS43において抽出した水平シェーディング成分を減算することにより、水平シェーディング成分が補正された図2に示すような明時画像P2が得られる(明時画像シェーディング補正ステップ)(ステップS45)。ステップS43において抽出した水平シェーディング成分には固定縦すじFPに起因する成分も含まれているために、明時画像P2は、水平シェーディング成分HSだけでなく固定縦すじFPも除去されたものとなっている。   Therefore, the subtraction processing circuit 15 included in the system control unit 14 subtracts the horizontal shading component extracted in step S43 from the bright image P1, thereby correcting the horizontal shading component as shown in FIG. An image P2 is obtained (light image shading correction step) (step S45). Since the horizontal shading component extracted in step S43 includes a component due to the fixed vertical stripe FP, the bright image P2 is obtained by removing not only the horizontal shading component HS but also the fixed vertical stripe FP. ing.

また、ステップS42において、フラグFlagが0でないと判定された場合には、ステップS44と同様の、撮像素子2から露光時間Tだけ露光して得られた明時画像を取り込む処理を行う(明時画像撮像ステップ)(ステップS46)。すなわち、図4のステップS21の条件が満たされないときには、水平シェーディング成分HSおよび固定縦すじFPは無視し得るレベルであるために、ここでは水平シェーディング抽出処理および明時画像から水平シェーディングを減算する処理を省略している。   If it is determined in step S42 that the flag Flag is not 0, the same process as in step S44 is performed to capture a bright image obtained by exposure from the image sensor 2 for the exposure time T (light time). Image capturing step) (step S46). That is, when the condition of step S21 in FIG. 4 is not satisfied, the horizontal shading component HS and the fixed vertical stripe FP are negligible levels. Here, the horizontal shading extraction process and the process of subtracting the horizontal shading from the bright image are performed here. Is omitted.

そして、ステップS45またはステップS46の処理が終了したら、図4に示した処理へリターンする。   Then, when the process of step S45 or step S46 is completed, the process returns to the process shown in FIG.

続いて、図2も参照しながら、図6に沿って、図4のステップS28における暗時画像取込・補正処理の流れを説明する。   Next, the flow of dark image capturing / correction processing in step S28 of FIG. 4 will be described along FIG. 6 with reference to FIG.

この処理を開始すると、まず、撮像素子2からダミー読み出しを行うことにより暗時ダミー画像を取り込む(暗時ダミー画像取得ステップ)(ステップS51)。   When this process is started, first, dummy reading is performed from the image sensor 2 to capture a dark dummy image (dark dummy image acquisition step) (step S51).

そして、図4のステップS22またはステップS23において設定されたフラグFlagが0であるか否かを判定する(ステップS52)。   Then, it is determined whether or not the flag Flag set in step S22 or step S23 of FIG. 4 is 0 (step S52).

ここで、フラグFlagが0であると判定された場合には、システム制御部14内の水平シェーディング抽出回路17が暗時ダミー画像に対して後で図7を参照して説明するような水平シェーディング抽出処理を行うことにより、暗時画像に対する水平シェーディング成分を抽出する(暗時画像シェーディング検出ステップ)(ステップS53)。   Here, when it is determined that the flag Flag is 0, the horizontal shading extraction circuit 17 in the system control unit 14 performs horizontal shading as described later with reference to FIG. 7 on the dark dummy image. By performing the extraction process, a horizontal shading component for the dark image is extracted (dark image shading detection step) (step S53).

さらに、撮像素子2から、遮光状態において露光時間Tだけ露光して得られた暗時画像を取り込む(暗時画像撮像ステップ)(ステップS54)。ここで取り込んだ暗時画像は、図2の画像P3に示すように、水平シェーディング成分HS、後発欠陥画素DP、ランダムノイズ白浮きRW、ランダムノイズ黒沈みRB、固定縦すじFPなどを含む画像である。   Further, a dark image obtained by exposure for an exposure time T in a light-shielded state is captured from the image sensor 2 (dark image capturing step) (step S54). The dark image captured here is an image including a horizontal shading component HS, a subsequent defective pixel DP, a random noise white float RW, a random noise black sink RB, a fixed vertical stripe FP, and the like, as shown in an image P3 in FIG. is there.

そこで、システム制御部14に含まれる減算処理回路15が、この暗時画像P3からステップS53において抽出した水平シェーディング成分を減算することにより、水平シェーディング成分が補正された図2に示すような暗時画像P4が得られる(暗時画像シェーディング補正ステップ)(ステップS55)。ステップS53において抽出した水平シェーディング成分には固定縦すじFPに起因する成分も含まれているために、暗時画像P4は、水平シェーディング成分HSだけでなく固定縦すじFPも除去されたものとなっている。   Therefore, the subtraction processing circuit 15 included in the system control unit 14 subtracts the horizontal shading component extracted in step S53 from the dark image P3, thereby correcting the horizontal shading component as shown in FIG. An image P4 is obtained (dark image shading correction step) (step S55). Since the horizontal shading component extracted in step S53 includes a component due to the fixed vertical stripe FP, the dark image P4 is obtained by removing not only the horizontal shading component HS but also the fixed vertical stripe FP. ing.

次に、欠陥画素の登録処理を行う(欠陥画素検出ステップ)(ステップS56)。この欠陥画素の登録処理は、システム制御部14が、シェーディング補正後の暗時画像P4の各画素の画素値xを、予め定められた欠陥判定値Bと比較して、x≧Bであるときにはその画素が欠陥画素であるとして登録し、x<Bであるときにはその画素は欠陥画素でないとして次の画素の判定に進む処理を、全画素について行うことによりなされる。また、登録された欠陥画素の情報は、例えばメモリ13に記憶される。   Next, a defective pixel registration process is performed (defective pixel detection step) (step S56). This defective pixel registration process is performed when the system control unit 14 compares the pixel value x of each pixel of the dark image P4 after shading correction with a predetermined defect determination value B and x ≧ B. The pixel is registered as a defective pixel, and when x <B, it is determined that the pixel is not a defective pixel, and processing for determining the next pixel is performed for all pixels. Further, information on the registered defective pixels is stored in the memory 13, for example.

その後、暗時画像平滑化処理を行う(暗時画像平滑化ステップ)(ステップS57)。この暗時画像平滑化処理は、欠陥画素以外の画素を順次に着目画素としながら、着目画素の空間的近傍に位置する画素(カラー撮像素子である場合には同一色の画素)に対して平滑化フィルタをかけることにより、該着目画素の画素値を得る処理である。この処理の具体例について、図8および図9を参照して説明する。   Thereafter, dark image smoothing processing is performed (dark image smoothing step) (step S57). In this dark image smoothing process, pixels other than defective pixels are sequentially set as the target pixel, and smoothing is performed on pixels located in the spatial vicinity of the target pixel (pixels of the same color in the case of a color imaging device). This is a process for obtaining the pixel value of the pixel of interest by applying a normalization filter. A specific example of this process will be described with reference to FIGS.

まず、図8は、メモリ13から2次元ブロック単位で画素データを読み出して2次元平滑化フィルタをかける例を示す図である。   First, FIG. 8 is a diagram illustrating an example in which pixel data is read from the memory 13 in units of two-dimensional blocks and a two-dimensional smoothing filter is applied.

この図8に示す例においては、画素値xの着目画素の近傍に、この着目画素と同一色の画素値aの画素、画素値bの画素、画素値cの画素、および画素値dの画素が存在する場合を図示している(ここでは近傍画素の数が4である場合を図示しているが、これに限るものでないことは勿論である)。   In the example shown in FIG. 8, a pixel having a pixel value “a”, a pixel having a pixel value “b”, a pixel having a pixel value “c”, and a pixel having a pixel value “d” in the vicinity of the target pixel having a pixel value “x”. (The case where the number of neighboring pixels is four is illustrated here, but of course not limited to this).

そして、平滑化フィルタとして、例えば、平均化フィルタを用いる場合には(x+a+b+c+d)/5を、また、ガウシアンフィルタを用いる場合には(2x+a+b+c+d)/6を、さらに、メディアンフィルタを用いる場合には{x,a,b,c,d}の中の中央値を、着目画素の新たな画素値とする例が挙げられる。   As the smoothing filter, for example, (x + a + b + c + d) / 5 is used when an averaging filter is used, (2x + a + b + c + d) / 6 is used when a Gaussian filter is used, and { An example is given in which the median value in x, a, b, c, d} is the new pixel value of the pixel of interest.

ただし、着目画素の近傍画素中に欠陥画素が存在する場合には、その欠陥画素は平滑化の処理には用いない。   However, when a defective pixel exists in the neighboring pixels of the target pixel, the defective pixel is not used for the smoothing process.

次に、図9は、メモリ13から1ライン内の連続する複数画素単位で画素データを読み出して1次元平滑化フィルタをかける例を示す図である。   Next, FIG. 9 is a diagram illustrating an example in which pixel data is read from the memory 13 in units of a plurality of continuous pixels in one line and a one-dimensional smoothing filter is applied.

この図9に示す例においては、画素値xの着目画素の同一ライン上における近傍に、この着目画素と同一色の画素値aの画素、および画素値bの画素が存在する場合を図示している(ここでは近傍画素の数が2である場合を図示しているが、これに限るものでないことは勿論である)。   In the example shown in FIG. 9, a case where a pixel having a pixel value “a” and a pixel having a pixel value “b” of the same color as the pixel of interest exists in the vicinity of the pixel of interest “x” on the same line is illustrated. (The case where the number of neighboring pixels is 2 is shown here, but the present invention is not limited to this.)

そして、平滑化フィルタとして、例えば、平均化フィルタを用いる場合には(x+a+b)/3を、また、ガウシアンフィルタを用いる場合には(2x+a+b)/4を、さらに、メディアンフィルタを用いる場合には{x,a,b}の中の中央値を、着目画素の新たな画素値とする例が挙げられる。   As the smoothing filter, for example, (x + a + b) / 3 is used when an averaging filter is used, (2x + a + b) / 4 is used when a Gaussian filter is used, and { An example is given in which the median value in x, a, b} is the new pixel value of the pixel of interest.

この図9を参照して説明した処理においても、着目画素の近傍画素中に欠陥画素が存在する場合には、その欠陥画素は平滑化の処理には用いない。   Even in the process described with reference to FIG. 9, when a defective pixel exists in the vicinity pixel of the target pixel, the defective pixel is not used for the smoothing process.

この図9に示す平滑化処理は、ラインバッファがあれば良いために、図8に示した平滑化処理よりもメモリ容量が小さくて済み、かつラスタスキャン方式で順次読み出しされる画素値を処理するのに適している利点がある。   Since the smoothing process shown in FIG. 9 only needs a line buffer, the memory capacity is smaller than the smoothing process shown in FIG. 8, and pixel values that are sequentially read out by the raster scan method are processed. There are advantages that are suitable for.

なお、ここでは平滑化フィルタの例として平均化フィルタ、ガウシアンフィルタ、メディアンフィルタを説明したが、これらに限るものでないことは勿論である。   Here, although an averaging filter, a Gaussian filter, and a median filter have been described as examples of the smoothing filter, the present invention is not limited to these.

図6の説明に戻って、ステップS52において、フラグFlagが0でないと判定された場合には、ステップS54と同様の、遮光状態において露光時間Tだけ露光して得られた暗時画像を撮像素子2から取り込む処理を行う(暗時画像撮像ステップ)(ステップS58)。   Returning to the description of FIG. 6, when it is determined in step S52 that the flag Flag is not 0, the dark image obtained by exposing for the exposure time T in the light-shielding state, similar to step S54, is obtained. 2 is performed (dark image capturing step) (step S58).

そして、ステップS56と同様の、欠陥画素の登録処理を行う(欠陥画素検出ステップ)(ステップS59)。上述したように、図4のステップS21の条件が満たされないときには、水平シェーディング成分HSおよび固定縦すじFPは無視し得るレベルであるために、ここでは水平シェーディング抽出処理および明時画像から水平シェーディングを減算する処理を省略している。また、ランダムノイズも無視し得るレベルであるために、暗時画像平滑化処理も省略している。   Then, a defective pixel registration process is performed in the same manner as in step S56 (defective pixel detection step) (step S59). As described above, when the condition of step S21 in FIG. 4 is not satisfied, the horizontal shading component HS and the fixed vertical stripe FP are negligible levels. Therefore, here, the horizontal shading extraction process and the horizontal shading from the bright image are performed. The subtraction process is omitted. Also, since random noise is at a level that can be ignored, dark image smoothing processing is also omitted.

こうして、ステップS57またはステップS59の処理が終了したら、図4に示した処理へリターンする。   Thus, when the process of step S57 or step S59 is completed, the process returns to the process shown in FIG.

次に、図7を参照して、図5のステップS43および図6のステップS53における水平シェーディング抽出処理の流れを説明する。   Next, the flow of horizontal shading extraction processing in step S43 in FIG. 5 and step S53 in FIG. 6 will be described with reference to FIG.

この処理を開始すると、まず、ループ回数を示す変数iに1を代入して初期化する(ステップS61)。   When this processing is started, first, initialization is performed by substituting 1 into a variable i indicating the number of loops (step S61).

次に、iが、ダミー画像上に配列された画素の列数Vn以下であるか否かを判定する(ステップS62)。   Next, it is determined whether i is equal to or less than the number of columns Vn of pixels arranged on the dummy image (step S62).

ここで、i≦Vnであると判定された場合には、i列の画素データを読み込んで(ステップS63)、IIR(無限インパルス応答)加算処理を行う(ステップS64)。   Here, if it is determined that i ≦ Vn, the pixel data of i columns are read (step S63), and IIR (infinite impulse response) addition processing is performed (step S64).

そして、変数iをインクリメントして(ステップS65)、ステップS62へ戻り、上述したような処理を繰り返して行う。   Then, the variable i is incremented (step S65), the process returns to step S62, and the processing as described above is repeated.

こうして1ループ毎に変数iを1ずつ増加させて行き、ついにステップS62においてi>Vnであると判定された場合には、全ての列に対してそれぞれ計算されたIIR加算の結果を水平シェーディング成分として(ステップS66)、図5または図6の処理へリターンする。   In this way, the variable i is incremented by 1 for each loop. When it is finally determined in step S62 that i> Vn, the result of the IIR addition calculated for all the columns is used as the horizontal shading component. (Step S66), the process returns to the process of FIG. 5 or FIG.

次に、図2を参照しながら、図4のステップS32およびステップS33の処理について、さらに説明する。   Next, the processing of step S32 and step S33 of FIG. 4 will be further described with reference to FIG.

図4のステップS29までの処理を行うことにより、メモリ13に記憶されている明時画像は図2のP2に示すような画像、暗時画像は図2のP5に示すような画像となっている。そこで、ステップS30およびステップS31においてこれらの明時画像P2および暗時画像P5を読み込んで、ステップS32においてシステム制御部14内の減算処理回路15により明時画像P2から暗時画像P5を減算する処理を行い、図2のP6に示すような画像を取得する。この処理により、明時画像における後発欠陥画素DPの画素値と暗時画像における後発欠陥画素DPの画素値との相違を残す程度まで、後発欠陥画素DPのレベルが軽減される。さらに、この処理により、OB段差が吸収されるとともに、図5のステップS45や図6のステップS55においてまだ幾らか残存しているかもしれない水平シェーディング成分がさらに低減される。   By performing the processing up to step S29 in FIG. 4, the bright image stored in the memory 13 is an image as shown in P2 of FIG. 2, and the dark image is an image as shown in P5 of FIG. Yes. Therefore, in step S30 and step S31, these bright image P2 and dark image P5 are read, and in step S32, the subtraction processing circuit 15 in the system control unit 14 subtracts the dark image P5 from the bright image P2. To obtain an image as shown in P6 of FIG. With this process, the level of the subsequent defective pixel DP is reduced to the extent that the difference between the pixel value of the subsequent defective pixel DP in the bright image and the pixel value of the subsequent defective pixel DP in the dark image remains. Further, this process absorbs the OB step and further reduces the horizontal shading component that may still remain in step S45 of FIG. 5 or step S55 of FIG.

ここで、OB段差の吸収についてさらに説明する。
固体撮像素子は暗電流が発生するために、得られる画像には黒レベルの浮きがあることが知られている。そこで、多くの撮像素子において、撮像面の一部にアルミ等の遮光幕を形成したオプティカルブラック(OB)領域を設けて、遮光されたOB領域で得られる信号レベルを有効撮像領域の画像信号から減算することにより、黒レベルを補正する処理が行われる。しかし、OB領域は有効撮像領域とは構成が異なるために、例えばアルミ遮光幕とフォトダイオードとの間に寄生容量が発生するなどして、OB領域と有効撮像領域との黒レベルに段差(いわゆるOB段差)が生じることが知られている。従って、OB領域の信号から得た黒レベルを、有効撮像領域の画像信号から減算しただけ(つまり、OBクランプを行っただけ)では、黒レベルの浮きを完全に補正することはできない。
Here, the absorption of the OB step will be further described.
Since a solid-state image sensor generates a dark current, it is known that the obtained image has black level floating. Therefore, in many image pickup devices, an optical black (OB) region in which a light shielding curtain such as aluminum is formed is provided on a part of the image pickup surface, and the signal level obtained in the light-shielded OB region is determined from the image signal of the effective image pickup region. By subtracting, a process for correcting the black level is performed. However, since the configuration of the OB area is different from that of the effective imaging area, for example, parasitic capacitance is generated between the aluminum light-shielding curtain and the photodiode, so that there is a step (so-called “black level”) between the OB area and the effective imaging area. It is known that an OB step) occurs. Therefore, the black level floating cannot be completely corrected only by subtracting the black level obtained from the signal in the OB area from the image signal in the effective imaging area (that is, only performing OB clamping).

明時画像を撮像する時点と暗時画像を撮像する時点とでは撮像素子2の温度が異なるなどの相違があり得るために、明時画像の黒レベルと暗時画像の黒レベルとは一般に一致しないが、明時画像のOB段差と暗時画像のOB段差とはほぼ同等のレベルであると考えても良く、つまりOBクランプを行った後に残存するOB段差は明時画像と暗時画像とでほぼ同じと考えて差し支えない。   Since there may be a difference in the temperature of the image sensor 2 between the time when the bright image is captured and the time when the dark image is captured, the black level of the bright image and the black level of the dark image generally match. However, it may be considered that the OB level difference in the bright image and the OB level difference in the dark image are substantially the same level, that is, the OB level remaining after the OB clamping is the bright image and the dark image. You can think of it as almost the same.

そこで、本実施形態においては、有効撮像領域の明時画像信号から有効撮像領域の暗時画像信号を減算することにより、OBクランプ後にも残存するOB段差を良好に除去して正確な黒レベルを得ることができる利点がある。   Therefore, in the present embodiment, by subtracting the dark image signal of the effective imaging area from the bright image signal of the effective imaging area, the OB level difference remaining after the OB clamping is removed well, and an accurate black level is obtained. There are benefits that can be obtained.

続いて、ステップS33において、画像処理部8内の欠陥補正部9が、図6のステップS56またはステップS59の処理において登録された欠陥画素を補正する処理を行う。   Subsequently, in step S33, the defect correction unit 9 in the image processing unit 8 performs a process of correcting the defective pixel registered in the process of step S56 or step S59 in FIG.

この欠陥画素の補正処理は、図8や図9を参照して説明した平滑化処理と類似した処理となっているが、欠陥画素のみを着目画素とする点が異なっている。そして、欠陥画素を着目画素としているために、着目画素自体の画素値xは、該欠陥画素の補正値を求めるのには用いられない。   This defective pixel correction process is similar to the smoothing process described with reference to FIGS. 8 and 9, except that only the defective pixel is the target pixel. Since the defective pixel is the target pixel, the pixel value x of the target pixel itself is not used to obtain the correction value of the defective pixel.

上述した図8の画素配置例において、欠陥画素の補正処理に、例えば平均化フィルタまたはガウシアンフィルタを用いる場合には、(a+b+c+d)/4を欠陥画素の補正値とすれば良い。また、例えばメディアンフィルタを用いる場合には、{a,b,c,d}の中の中央値をとる2つの画素値の平均を欠陥画素の補正値とすれば良い。   In the pixel arrangement example of FIG. 8 described above, for example, when an averaging filter or a Gaussian filter is used for correction processing of a defective pixel, (a + b + c + d) / 4 may be set as a correction value of the defective pixel. For example, when a median filter is used, an average of two pixel values taking a median value in {a, b, c, d} may be used as a correction value for a defective pixel.

また、図9の画素配置例においては、欠陥画素の補正処理に、平均化フィルタ、ガウシアンフィルタ、メディアンフィルタの何れを用いる場合であっても、(a+b)/2を欠陥画素の補正値とすることになる。   In the pixel arrangement example of FIG. 9, (a + b) / 2 is used as the defective pixel correction value, regardless of whether the averaging filter, the Gaussian filter, or the median filter is used for the defective pixel correction process. It will be.

これらの何れの場合であっても、着目している欠陥画素の近傍画素中に他の欠陥画素が存在する場合には、該他の欠陥画素を、欠陥画素の補正処理に用いないのは上述と同様である。   In any of these cases, when another defective pixel exists in the vicinity of the defective pixel of interest, the other defective pixel is not used for the defective pixel correction process as described above. It is the same.

こうして、欠陥画素の画素値を用いないという規則を適用すれば、平滑化と欠陥補正との両方のフィルタ処理を共通化することができるために、構成や処理の簡素化を図ることができる。ただし、これに限らず、平滑化に用いるフィルタと欠陥補正に用いるフィルタとを異ならせても勿論構わない。   In this way, if the rule that the pixel value of the defective pixel is not used is applied, both the smoothing and the defect correction filter processing can be shared, so that the configuration and processing can be simplified. However, the present invention is not limited to this, and the filter used for smoothing may be different from the filter used for defect correction.

このような欠陥画素の補正処理を行うことにより、ステップS32の処理後の画像P6に残存している後発欠陥画素DPが解消され、図2のP7に示すような画像が得られる。この画像P7を、撮像素子2から取得された明時画像P1と比べてみると、水平シェーディング成分HS、後発欠陥画素DP、固定縦すじFP、OB段差が補正され、残存するのはランダムノイズ白浮きRW、ランダムノイズ黒沈みRBのみであることが分かる。しかも、これらのランダムノイズRW,RBは、最初の明時画像P1に存在していたものであり、図10を参照して説明した従来技術のようにランダムノイズが増加する、ということはない。   By performing such defective pixel correction processing, the subsequent defective pixel DP remaining in the image P6 after the processing in step S32 is eliminated, and an image as shown in P7 of FIG. 2 is obtained. When this image P7 is compared with the bright image P1 acquired from the image pickup device 2, the horizontal shading component HS, the subsequent defective pixel DP, the fixed vertical stripe FP, and the OB step are corrected, and the remaining is random noise white. It can be seen that there are only floating RW and random noise black sink RB. Moreover, these random noises RW and RB existed in the first bright image P1, and the random noise does not increase as in the prior art described with reference to FIG.

なお、上述では画像処理装置が適用された装置の例として撮像装置を例に挙げ、撮像装置において行われる画像処理方法を説明したが、これに限るものではなく、画像処理装置は記録媒体に記録された画像処理プログラムを読み取って実行するコンピュータなどであっても構わないし、画像処理方法はコンピュータにより画像処理プログラムを実行することにより達成される方法であっても構わない。従って、本願発明の態様として、画像処理方法、画像処理装置、撮像装置、画像処理プログラム、画像処理プログラムを記録するコンピュータにより読み取り可能な記録媒体の何れをも取り得る。   In the above description, the imaging apparatus is taken as an example of an apparatus to which the image processing apparatus is applied, and the image processing method performed in the imaging apparatus has been described. However, the present invention is not limited to this, and the image processing apparatus is recorded on a recording medium. The image processing program may be a computer that reads and executes the image processing program, and the image processing method may be a method achieved by executing the image processing program by the computer. Therefore, as an aspect of the present invention, any of an image processing method, an image processing apparatus, an imaging apparatus, an image processing program, and a computer-readable recording medium that records the image processing program can be taken.

このような実施形態1によれば、明時画像に係るダミー画像信号から明時画像シェーディング成分を検出して、検出した明時画像シェーディング成分を用いて明時画像信号のシェーディングを補正しているために、明時画像のシェーディングを良好に補正することができる。   According to the first embodiment, the light image shading component is detected from the dummy image signal related to the light image, and the shading of the light image signal is corrected using the detected light image shading component. Therefore, the shading of the bright image can be corrected well.

また、暗時画像に係るダミー画像信号から暗時画像シェーディング成分を検出して、検出した暗時画像シェーディング成分を用いて暗時画像信号のシェーディングを補正しているために、シェーディングが良好に補正された暗時画像を得ることができる。   Also, since the dark image shading component is detected from the dummy image signal related to the dark image and the shading of the dark image signal is corrected using the detected dark image shading component, the shading is corrected well. A dark image can be obtained.

さらに、シェーディングが補正された暗時画像信号を平滑化しているために、ランダムノイズが抑制された暗時画像信号を得ることができる。   Furthermore, since the dark image signal whose shading has been corrected is smoothed, a dark image signal in which random noise is suppressed can be obtained.

そして、シェーディングが補正された明時画像信号から、平滑化された暗時画像信号を減算しているために、OB段差を吸収することができるとともに、明時画像のランダムノイズが増加するのを抑制することができる。   Since the smoothed dark image signal is subtracted from the bright image signal with the shading corrected, the OB step can be absorbed and the random noise of the bright image increases. Can be suppressed.

こうして、シェーディングの良好な補正とランダムノイズの増加の抑制との両立を図ることができ、さらにOB段差を吸収することもできる。   In this way, it is possible to achieve both good correction of shading and suppression of an increase in random noise, and it is also possible to absorb OB steps.

加えて、シェーディング補正後の暗時画像信号に基づき欠陥画素を検出しているために、シェーディングの影響を受けることなく欠陥画素を正確に検出することができる。   In addition, since the defective pixel is detected based on the dark image signal after the shading correction, the defective pixel can be accurately detected without being affected by the shading.

さらに、検出した欠陥画素の画素値を近傍の画素の画素値から補間するようにしたために、欠陥補正を良好に行うことができる。このとき、暗時画像の平滑化を、検出された欠陥画素の信号を除いて行うために、欠陥画素の情報が他の画素に混入することはない。   Furthermore, since the pixel value of the detected defective pixel is interpolated from the pixel values of neighboring pixels, defect correction can be performed satisfactorily. At this time, since the dark image is smoothed by removing the signal of the detected defective pixel, the information on the defective pixel is not mixed into other pixels.

また、暗時画像のシェーディング補正および明時画像のシェーディング補正は、露光時間が所定の閾時間以下、画像信号を生成するときの撮像素子の周辺の温度が所定の閾温度以下、画像信号の増幅率が所定の閾増幅率以下、の全ての条件が満たされるときには省略するようにしたために、シェーディング補正が不要な場合に無駄な処理を行うことがなく、処理負荷の軽減や消費電力の低減を図ることができる。   The shading correction for dark images and the shading correction for bright images are performed when the exposure time is equal to or less than a predetermined threshold time, and the temperature around the image sensor when generating an image signal is equal to or lower than the predetermined threshold temperature. Since it is omitted when all the conditions that the rate is less than or equal to the predetermined threshold amplification factor are satisfied, when shading correction is not required, unnecessary processing is not performed, reducing processing load and power consumption. Can be planned.

加えて、暗時画像については、露光時間が所定の閾時間以下、画像信号を生成するときの撮像素子の周辺の温度が所定の閾温度以下、画像信号の増幅率が所定の閾増幅率以下、の全ての条件が満たされるときに、さらに平滑化の処理も省略するようにしたために、より一層処理負荷の軽減や消費電力の低減を図ることができる。   In addition, for dark images, the exposure time is less than a predetermined threshold time, the temperature around the image sensor when generating an image signal is less than a predetermined threshold temperature, and the amplification factor of the image signal is less than a predetermined threshold amplification factor When all the conditions are satisfied, the smoothing process is also omitted, so that the processing load can be further reduced and the power consumption can be further reduced.

なお、本発明は上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても良い。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, you may delete some components from all the components shown by embodiment. Furthermore, the constituent elements over different embodiments may be appropriately combined. Thus, it goes without saying that various modifications and applications are possible without departing from the spirit of the invention.

1…レンズ
2…撮像素子
3…同期信号生成部
4…駆動部
5…温度検知部
6…信号処理回路
7…ゲイン調整回路
8…画像処理部
9…欠陥補正部
10…記録部
11…表示部
12…指示部
13…メモリ
14…システム制御部(欠陥画素検出部)
15…減算処理回路(暗時画像シェーディング補正部、明時画像シェーディング補正部、明暗減算部)
16…平滑化処理回路(暗時画像平滑化部)
17…水平シェーディング抽出回路(暗時画像シェーディング検出部、明時画像シェーディング検出部)
S32…明暗減算ステップ
S43…明時画像シェーディング検出ステップ
S45…明時画像シェーディング補正ステップ
S53…暗時画像シェーディング検出ステップ
S55…暗時画像シェーディング補正ステップ
S56,S59…欠陥画素検出ステップ
S57…暗時画像平滑化ステップ
DESCRIPTION OF SYMBOLS 1 ... Lens 2 ... Image pick-up element 3 ... Synchronization signal generation part 4 ... Drive part 5 ... Temperature detection part 6 ... Signal processing circuit 7 ... Gain adjustment circuit 8 ... Image processing part 9 ... Defect correction part 10 ... Recording part 11 ... Display part 12 ... Instruction unit 13 ... Memory 14 ... System control unit (defective pixel detection unit)
15. Subtraction processing circuit (dark image shading correction unit, bright image shading correction unit, bright / dark subtraction unit)
16. Smoothing processing circuit (dark image smoothing unit)
17 ... Horizontal shading extraction circuit (dark image shading detection unit, bright image shading detection unit)
S32 ... Brightness / darkness subtraction step S43 ... Bright image shading detection step S45 ... Bright image shading correction step S53 ... Dark image shading detection step S55 ... Dark image shading correction step S56, S59 ... Defective pixel detection step S57 ... Dark image Smoothing step

Claims (4)

画像信号に含まれるノイズを除去する画像処理方法において、
暗時画像に係るダミー画像信号から暗時画像シェーディング成分を検出する暗時画像シェーディング検出ステップと、
検出した暗時画像シェーディング成分を用いて暗時画像信号のシェーディングを補正する暗時画像シェーディング補正ステップと、
シェーディングが補正された暗時画像信号を平滑化する暗時画像平滑化ステップと、
明時画像に係るダミー画像信号から明時画像シェーディング成分を検出する明時画像シェーディング検出ステップと、
検出した明時画像シェーディング成分を用いて明時画像信号のシェーディングを補正する明時画像シェーディング補正ステップと、
シェーディングが補正された明時画像信号から、上記平滑化された暗時画像信号を減算する明暗減算ステップと、
を有することを特徴とする画像処理方法。
In an image processing method for removing noise contained in an image signal,
A dark image shading detection step for detecting a dark image shading component from a dummy image signal related to the dark image;
A dark image shading correction step for correcting shading of the dark image signal using the detected dark image shading component;
A dark image smoothing step for smoothing the dark image signal whose shading is corrected;
A light image shading detection step for detecting a light image shading component from a dummy image signal related to the light image;
A light image shading correction step for correcting the shading of the light image signal using the detected light image shading component;
A light / dark subtraction step of subtracting the smoothed dark image signal from the bright image signal with the shading corrected;
An image processing method comprising:
上記シェーディング補正後の暗時画像信号に含まれる欠陥画素を検出する欠陥画素検出ステップをさらに有し、
上記暗時画像平滑化ステップは、検出された欠陥画素の信号を除いて平滑化を行うステップであることを特徴とする請求項1に記載の画像処理方法。
A defective pixel detection step of detecting a defective pixel included in the dark image signal after the shading correction,
The image processing method according to claim 1, wherein the dark image smoothing step is a step of performing smoothing by removing a signal of a detected defective pixel.
上記暗時画像シェーディング補正ステップおよび上記明時画像シェーディング補正ステップは、露光時間が所定の閾時間よりも大きいことと、画像信号を生成するときの撮像素子の周辺の温度が所定の閾温度よりも大きいことと、画像信号の増幅率が所定の閾増幅率よりも大きいことと、の内の少なくとも一の条件を満たすときにのみ行うことを特徴とする請求項1に記載の画像処理方法。   In the dark image shading correction step and the bright image shading correction step, the exposure time is longer than a predetermined threshold time, and the temperature around the image sensor when generating the image signal is lower than the predetermined threshold temperature. 2. The image processing method according to claim 1, wherein the image processing method is performed only when at least one of a large value and an amplification factor of the image signal is larger than a predetermined threshold amplification factor is satisfied. 画像信号に含まれるノイズを除去する画像処理装置において、
暗時画像に係るダミー画像信号から暗時画像シェーディング成分を検出する暗時画像シェーディング検出部と、
検出した暗時画像シェーディング成分を用いて暗時画像信号のシェーディングを補正する暗時画像シェーディング補正部と、
シェーディングが補正された暗時画像信号を平滑化する暗時画像平滑化部と、
明時画像に係るダミー画像信号から明時画像シェーディング成分を検出する明時画像シェーディング検出部と、
検出した明時画像シェーディング成分を用いて明時画像信号のシェーディングを補正する明時画像シェーディング補正部と、
シェーディングが補正された明時画像信号から、上記平滑化された暗時画像信号を減算する明暗減算部と、
を具備したことを特徴とする画像処理装置。
In an image processing apparatus for removing noise included in an image signal,
A dark image shading detection unit for detecting a dark image shading component from a dummy image signal related to the dark image;
A dark image shading correction unit that corrects shading of the dark image signal using the detected dark image shading component;
A dark image smoothing unit that smoothes a dark image signal with shading corrected; and
A bright-time image shading detection unit for detecting a bright-time image shading component from a dummy image signal related to the bright-time image;
A light image shading correction unit that corrects shading of a light image signal using the detected light image shading component;
A light / dark subtraction unit that subtracts the smoothed dark image signal from a light image signal with shading corrected;
An image processing apparatus comprising:
JP2010104183A 2010-04-28 2010-04-28 Image processing method and image processing system Pending JP2011234225A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010104183A JP2011234225A (en) 2010-04-28 2010-04-28 Image processing method and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010104183A JP2011234225A (en) 2010-04-28 2010-04-28 Image processing method and image processing system

Publications (1)

Publication Number Publication Date
JP2011234225A true JP2011234225A (en) 2011-11-17

Family

ID=45323074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010104183A Pending JP2011234225A (en) 2010-04-28 2010-04-28 Image processing method and image processing system

Country Status (1)

Country Link
JP (1) JP2011234225A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020246060A1 (en) * 2019-06-07 2020-12-10 パナソニックIpマネジメント株式会社 Image generation method, imaging device, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020246060A1 (en) * 2019-06-07 2020-12-10 パナソニックIpマネジメント株式会社 Image generation method, imaging device, and program
JPWO2020246060A1 (en) * 2019-06-07 2021-10-28 パナソニックIpマネジメント株式会社 Image generation method, imaging device, and program
JP7065417B2 (en) 2019-06-07 2022-05-12 パナソニックIpマネジメント株式会社 Image generation method, image pickup device, and program

Similar Documents

Publication Publication Date Title
JP5852324B2 (en) Imaging apparatus, control method therefor, and program
JP2006121521A (en) Imaging device and image processing program
JP2010166558A (en) Image forming apparatus
JP4640068B2 (en) Imaging method and imaging apparatus
JP5013811B2 (en) Imaging apparatus and correction method
JP2009044367A (en) Imaging method and imaging apparatus
JP5013812B2 (en) Imaging apparatus and correction method
JP5268454B2 (en) Imaging device
JP5039588B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2015136054A (en) Image synthesizing apparatus, image synthesizing method, and program
JP2015018256A (en) Imaging apparatus and optical axis position calculation method
JP5701942B2 (en) Imaging apparatus, camera system, and image processing method
JP6270400B2 (en) Image processing apparatus, image processing method, and image processing program
JP2010011073A (en) Imaging device, its image processing method and program
JP2011234225A (en) Image processing method and image processing system
JP2011146767A (en) Imaging device
JP6090565B2 (en) Imaging apparatus, imaging method, and program
JP2011135379A (en) Imaging apparatus, imaging method and program
JP2010056817A (en) Imaging apparatus
JP2009260871A (en) Imaging apparatus
JP5271201B2 (en) Image signal processing apparatus and imaging apparatus
JP4424068B2 (en) Noise removal apparatus, noise removal program, noise removal method, and electronic camera
JP6659163B2 (en) Flash band determination device, control method thereof, and program
JP2007243558A (en) Solid-state image pickup device
JP2007214662A (en) Solid-state imaging apparatus