JP2009296362A - Imaging apparatus, control method thereof and program - Google Patents

Imaging apparatus, control method thereof and program Download PDF

Info

Publication number
JP2009296362A
JP2009296362A JP2008148321A JP2008148321A JP2009296362A JP 2009296362 A JP2009296362 A JP 2009296362A JP 2008148321 A JP2008148321 A JP 2008148321A JP 2008148321 A JP2008148321 A JP 2008148321A JP 2009296362 A JP2009296362 A JP 2009296362A
Authority
JP
Japan
Prior art keywords
dust
image
imaging
information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008148321A
Other languages
Japanese (ja)
Other versions
JP5094571B2 (en
Inventor
Hironobu Arifuku
浩信 有福
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008148321A priority Critical patent/JP5094571B2/en
Publication of JP2009296362A publication Critical patent/JP2009296362A/en
Application granted granted Critical
Publication of JP5094571B2 publication Critical patent/JP5094571B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve quality of dust position information by: capturing the opportunity of detecting a dust position even while a user is not conscious of the detection; and acquiring the dust position information. <P>SOLUTION: An imaging apparatus includes: an imaging device for performing photoelectric conversion upon a subject image; an imaging section for producing an image signal from the imaging device; a foreign substance detection section for detecting, from the image signal captured by the imaging section, foreign substance information that is information about a position and a size of a foreign substance inside an imaging screen of the imaging section; and an auxiliary foreign substance information detection section which exposes the imaging device in an over-exposure state, causes the imaging section to produce a highlight-clipping image and detects auxiliary foreign substance information, which becomes a support of the foreign substance information, from the highlight-clipping image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、CCDやCMOSセンサ等の撮像素子を用いた撮像装置における、光学ローパスフィルター等の表面に付着した異物による画質劣化を抑制する技術に関する。   The present invention relates to a technique for suppressing image quality deterioration due to foreign matter adhering to the surface of an optical low-pass filter or the like in an imaging apparatus using an imaging element such as a CCD or CMOS sensor.

従来より、デジタルカメラにおいては、光学系内(特に撮像素子の前方に配置されたローパスフィルタなどの光学素子の表面)にゴミ等の異物が付着すると、撮影された画像にそれらの異物の影が写り込み、画像の品質が低下するという問題がある。   Conventionally, in a digital camera, when foreign objects such as dust adhere to the optical system (especially the surface of an optical element such as a low-pass filter disposed in front of the image sensor), the shadows of the foreign objects are shadowed on the captured image. There is a problem that the image quality is deteriorated.

この問題を解決するために、振動手段を用いて撮像素子に付着した異物をふるい落として除去する技術が提案されている(特許文献1参照)。   In order to solve this problem, a technique has been proposed in which a foreign substance adhering to an image sensor is removed by using a vibrating means (see Patent Document 1).

さらに、次のような方法も提案されている。まず、白壁等の一様な被写体を撮影し、ほぼ光学系内の異物のみが写りこんだ画像を撮影する。そして、その画像から光学系内の異物の位置や大きさの情報であるゴミ補正データを作成し、それに基づき本撮影した画像の補正処理を行って、画像の品質を向上させる(特許文献2参照)。
特開平07−151946号公報 特開2004−222231号公報
Further, the following method has been proposed. First, a uniform subject such as a white wall is photographed, and an image in which only foreign matter in the optical system is reflected is photographed. Then, dust correction data, which is information on the position and size of the foreign matter in the optical system, is created from the image, and a correction process is performed on the captured image based on the dust correction data to improve the image quality (see Patent Document 2). ).
JP 07-151946 A JP 2004-222231 A

しかしながら、ゴミの位置情報は、ユーザが意識して情報の取得作業を行わなければならない。ユーザが行う作業としては、たとえばメニュー画面からゴミ位置検出モードを選択し、一様な白壁等を撮影するといった方法が考えられる。ゴミの位置情報は、ユーザによってこのような操作が行われたときに更新される。つまりユーザがこのような操作を意識的に行わない限りゴミの位置情報は更新されない。   However, it is necessary for the user to consciously perform the information acquisition operation for the position information of dust. As an operation performed by the user, for example, a method of selecting a dust position detection mode from a menu screen and photographing a uniform white wall or the like can be considered. The dust position information is updated when such an operation is performed by the user. In other words, the dust position information is not updated unless the user consciously performs such an operation.

一方、ゴミの位置は時間の経過とともに変化するので、ゴミ位置の検出の頻度は高いほどよい。ユーザがゴミ位置の検出のための操作を行わないときでも、ゴミ位置の検出の機会をとらえ、ゴミ位置情報を取得し、ゴミ位置情報の鮮度を保つのが望ましい。   On the other hand, since the position of dust changes with the passage of time, the frequency of dust position detection is better. Even when the user does not perform an operation for detecting the dust position, it is desirable to capture the dust position detection opportunity, acquire the dust position information, and maintain the freshness of the dust position information.

従って、本発明は上述した課題に鑑みてなされたものであり、その目的は、ユーザが意識しない間でもゴミ位置の検出の機会を捉え、ゴミ位置情報を取得し、ゴミの位置情報の品質を向上させることである。   Therefore, the present invention has been made in view of the above-described problems, and its purpose is to capture the opportunity of dust position detection even when the user is not conscious, acquire dust position information, and improve the quality of dust position information. It is to improve.

上述した課題を解決し、目的を達成するために、本発明に係わる撮像装置は、被写体像を光電変換する撮像素子と、前記撮像素子から、画像信号を生成する撮像手段と、前記撮像手段より得られる画像信号から、前記撮像手段の撮像画面内における異物の位置及び大きさの情報である異物情報を検出する異物検出手段と、前記撮像素子を露出オーバーの状態に露光させて、前記撮像手段に白飛び画像を生成させ、該白飛び画像から前記異物情報の補助となる補助異物情報を検出する補助異物情報検出手段と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention includes an imaging device that photoelectrically converts a subject image, an imaging unit that generates an image signal from the imaging device, and an imaging unit. Foreign matter detection means for detecting foreign matter information, which is information on the position and size of the foreign matter within the imaging screen of the imaging means, from the obtained image signal, and exposing the imaging device to an overexposed state, and the imaging means And an auxiliary foreign matter information detecting means for generating auxiliary white matter information for assisting the foreign matter information from the whiteout image.

また、本発明に係わる撮像装置の制御方法は、被写体像を光電変換する撮像素子と、該撮像素子から、画像信号を生成する撮像手段とを備える撮像装置を制御する方法であって、前記撮像手段より得られる画像信号から、前記撮像手段の撮像画面内における異物の位置及び大きさの情報である異物情報を検出する異物検出工程と、前記撮像素子を露出オーバーの状態に露光させて、前記撮像手段に白飛び画像を生成させ、該白飛び画像から前記異物情報の補助となる補助異物情報を検出する補助異物情報検出工程と、を備えることを特徴とする。   An imaging apparatus control method according to the present invention is a method for controlling an imaging apparatus including an imaging element that performs photoelectric conversion of a subject image and an imaging unit that generates an image signal from the imaging element. A foreign matter detection step of detecting foreign matter information, which is information on the position and size of the foreign matter within the imaging screen of the imaging means, from the image signal obtained by the means, and exposing the imaging device to an overexposed state, And an auxiliary foreign matter information detecting step of causing the imaging means to generate a whiteout image and detecting auxiliary foreign matter information that assists the foreign matter information from the whiteout image.

本発明によれば、ユーザがゴミ位置検出のための操作を行わない間でも、ゴミ位置検出の機会を捉え、時間の経過とともに変化するゴミ位置の変化に追従する頻度を上げ、ゴミ位置情報の鮮度を保つことができる。   According to the present invention, even when the user does not perform an operation for dust position detection, an opportunity for dust position detection is captured, and the frequency of tracking the change in dust position that changes over time is increased. The freshness can be kept.

以下、本発明をレンズ交換式デジタル一眼レフカメラに適用した実施形態について、添付図面を参照して詳細に説明する。   Hereinafter, embodiments in which the present invention is applied to an interchangeable lens digital single-lens reflex camera will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
本実施形態では、カメラ本体でゴミを検出して、ゴミ補正データを画像データに添付し、カメラ外部の画像処理装置で、画像データに添付されたゴミ補正データを用いて画像処理により画像データからゴミ除去処理を行なう場合について説明する。
(First embodiment)
In this embodiment, dust is detected by the camera body, dust correction data is attached to the image data, and image processing is performed from the image data by image processing using the dust correction data attached to the image data by an image processing apparatus outside the camera. A case where dust removal processing is performed will be described.

図1は、本発明の第1の実施形態に係る撮像装置としてのレンズ交換式一眼レフデジタルカメラの回路構成を示すブロック図である。   FIG. 1 is a block diagram showing a circuit configuration of a lens-interchangeable single-lens reflex digital camera as an imaging apparatus according to the first embodiment of the present invention.

図1において、マイクロコンピュータ402は、被写体像を光電変換する撮像素子(本実施形態ではCCD)418が出力する画像データの処理や、LCDモニタ装置417の表示制御をはじめ、カメラ全体の動作を制御する。   In FIG. 1, a microcomputer 402 controls the operation of the entire camera, including processing of image data output from an image sensor (CCD in this embodiment) 418 that photoelectrically converts a subject image and display control of an LCD monitor device 417. To do.

スイッチ(SW1)405は、レリーズボタン114(図2参照)の半押し状態でオンになり、スイッチ(SW1)405がオンすると本実施形態のデジタルカメラは撮影準備状態になる。スイッチ(SW2)406は、レリーズボタン114が最後まで押された状態(全押し状態)でオンし、スイッチ(SW2)406がオンすると本実施形態のデジタルカメラは撮影動作を開始する。   The switch (SW1) 405 is turned on when the release button 114 (see FIG. 2) is half-pressed. When the switch (SW1) 405 is turned on, the digital camera according to the present embodiment is in a shooting preparation state. The switch (SW2) 406 is turned on when the release button 114 is pressed to the end (fully pressed state), and when the switch (SW2) 406 is turned on, the digital camera of this embodiment starts a photographing operation.

レンズ制御回路407は、撮影レンズ200(図3参照)との通信およびAF(オートフォーカス)時の撮影レンズ200の駆動制御や絞り羽根の駆動制御を行う。   The lens control circuit 407 performs communication control with the photographic lens 200 (see FIG. 3) and drive control of the photographic lens 200 and drive control of the diaphragm blades during AF (autofocus).

また図1において、外部表示制御回路408は、外部表示装置(OLC)409や、ファインダ内の表示装置(不図示)の制御を行う。スイッチセンス回路410は、カメラに設けられた電子ダイヤル411を含む多数のスイッチ類の信号をマイクロコンピュータ402に伝える。   In FIG. 1, an external display control circuit 408 controls an external display device (OLC) 409 and a display device (not shown) in the viewfinder. The switch sense circuit 410 transmits signals of a large number of switches including the electronic dial 411 provided in the camera to the microcomputer 402.

ストロボ発光調光制御回路412は、X接点412aを介して接地されており、外部ストロボの制御を行う。測距回路413は、AFのための被写体に対するデフォーカス量を検出する。測光回路414は、被写体の輝度を測定する。   The strobe light emission dimming control circuit 412 is grounded via the X contact 412a and controls the external strobe. The distance measuring circuit 413 detects the defocus amount with respect to the subject for AF. The photometry circuit 414 measures the luminance of the subject.

なお、測光回路414が測定した輝度を基にして、マイクロコンピュータ402は、最適な露光条件の設定や、白飛びの露光条件の設定を行う。   Note that the microcomputer 402 sets an optimal exposure condition and an overexposure condition based on the luminance measured by the photometry circuit 414.

シャッター制御回路415はシャッターの制御を行い、撮像素子に対して適正な露光や白飛びになるような露光を行う。   A shutter control circuit 415 controls the shutter, and performs appropriate exposure and exposure that causes whiteout on the image sensor.

LCDモニタ装置417とバックライト照明装置416は、画像表示装置を構成している。記録装置419は例えばカメラ本体に着脱可能なハードディスクドライブや半導体メモリカード等である。   The LCD monitor device 417 and the backlight illumination device 416 constitute an image display device. The recording device 419 is, for example, a hard disk drive or a semiconductor memory card that can be attached to and detached from the camera body.

また、マイクロコンピュータ402には、A/Dコンバータ423、バッファメモリ424、DSPなどからなる画像処理回路425、撮像素子内の所定画素そのものに欠陥があることを記憶している画素欠陥位置メモリ426が接続されている。また、ゴミによる画像不良を起こしている撮像素子内の画素位置を記憶しているゴミ位置メモリ427も接続されている。なお、画素欠陥位置メモリ426およびゴミ位置メモリ427は不揮発性メモリを用いることが好ましい。また、画素欠陥位置メモリ426とゴミ位置メモリ427は、同一メモリ空間の異なるアドレスを用いて記憶しても良い。   Further, the microcomputer 402 includes an A / D converter 423, a buffer memory 424, an image processing circuit 425 including a DSP, and a pixel defect position memory 426 for storing that a predetermined pixel in the image sensor itself is defective. It is connected. Also connected is a dust position memory 427 that stores the pixel position in the image pickup device causing the image defect due to dust. Note that the pixel defect position memory 426 and the dust position memory 427 are preferably non-volatile memories. Further, the pixel defect position memory 426 and the dust position memory 427 may be stored using different addresses in the same memory space.

また、428は、マイクロコンピュータ402が実行するプログラム等を記憶する不揮発性のメモリである。   Reference numeral 428 denotes a nonvolatile memory that stores programs executed by the microcomputer 402.

図2は、本実施形態に係るデジタルカメラの外観を示す斜視図、図3は図2の垂直断面図である。   FIG. 2 is a perspective view showing the external appearance of the digital camera according to the present embodiment, and FIG. 3 is a vertical sectional view of FIG.

図2において、カメラ本体100の上部には、ファインダ観察用の接眼窓111、AE(自動露出)ロックボタン112、AFの測距点選択ボタン113、撮影操作をするためのレリーズボタン114が設けられている。また、電子ダイヤル411、撮影モード選択ダイヤル117、および外部表示装置409も設けられている。電子ダイヤル411は、他の操作ボタンと併用してカメラに数値を入力したり、撮影モードを切り換えたりするための多機能信号入力装置である。また、外部表示装置409は、液晶表示装置から構成され、シャッタースピード、絞り、撮影モードなどの撮影条件や、他の情報を表示する。   In FIG. 2, an eyepiece window 111 for finder observation, an AE (automatic exposure) lock button 112, an AF distance measuring point selection button 113, and a release button 114 for performing a photographing operation are provided on the upper part of the camera body 100. ing. An electronic dial 411, a shooting mode selection dial 117, and an external display device 409 are also provided. The electronic dial 411 is a multi-function signal input device that is used in combination with other operation buttons to input numerical values to the camera and to switch the shooting mode. The external display device 409 includes a liquid crystal display device, and displays shooting conditions such as shutter speed, aperture, and shooting mode, and other information.

また、カメラ本体100の背面には、撮影された画像や各種設定画面などを表示するLCDモニタ装置417、LCDモニタ装置417をオン/オフするためのモニタスイッチ121、十字配置スイッチ116、およびメニューボタン124が設けられている。   Also, on the back of the camera main body 100, an LCD monitor device 417 for displaying captured images and various setting screens, a monitor switch 121 for turning on / off the LCD monitor device 417, a cross switch 116, and a menu button 124 is provided.

十字配置スイッチ116は、上下左右に配された4つのボタンと、中央に配されたSETボタンを有し、ユーザがLCDモニタ装置417に表示されるメニュー項目などの選択や実行をカメラに指示するために用いられる。   The cross placement switch 116 has four buttons arranged vertically and horizontally and a SET button arranged in the center. The user instructs the camera to select and execute menu items displayed on the LCD monitor device 417. Used for.

メニューボタン124は、LCDモニタ装置417にカメラの各種設定を行うためのメニュー画面を表示させるためのボタンである。例えば、撮影モードを選択、設定する時は、このメニューボタン124を押した後、十字配置スイッチ116の上下左右のボタンを操作して希望のモードを選択し、希望のモードが選択された状態でSETボタンを押すことにより設定が完了する。   The menu button 124 is a button for causing the LCD monitor device 417 to display a menu screen for performing various camera settings. For example, when selecting and setting the shooting mode, after pressing the menu button 124, the user operates the up / down / left / right buttons of the cross switch 116 to select the desired mode, and the desired mode is selected. Setting is completed by pressing the SET button.

このメニューボタン124と十字配置スイッチ116は、通常のゴミ取得モードの設定や、ライブビュー開始時にゴミ情報を取得するかの選択などに使用される。   The menu button 124 and the cross switch 116 are used for setting a normal dust acquisition mode, selecting whether to acquire dust information at the start of live view, or the like.

本実施形態のLCDモニタ装置417は透過型であるため、LCDモニタ装置の駆動だけでは画像を視認することはできず、必ずその裏面には図3に示すようにバックライト照明装置416が必要である。このようにLCDモニタ装置417とバックライト照明装置416は画像表示装置を構成している。   Since the LCD monitor device 417 of the present embodiment is a transmissive type, an image cannot be visually recognized only by driving the LCD monitor device, and a backlight illumination device 416 is necessarily provided on the back surface thereof as shown in FIG. is there. As described above, the LCD monitor device 417 and the backlight illumination device 416 constitute an image display device.

図3に示すように、撮像光学系である撮影レンズ200はカメラ本体100に対してレンズマウント202を介して着脱可能である。図3において201は撮影光軸、203はクイックリターンミラーである。   As shown in FIG. 3, the taking lens 200 that is an imaging optical system can be attached to and detached from the camera body 100 via a lens mount 202. In FIG. 3, 201 denotes a photographing optical axis, and 203 denotes a quick return mirror.

クイックリターンミラー203は撮影光路中に配置され、撮影レンズ200からの被写体光をファインダ光学系に導く位置(図3に示す位置、斜設位置と呼ぶ)と撮影光路外に退避する位置(退避位置と呼ぶ)との間で移動可能である。   The quick return mirror 203 is disposed in the photographing optical path, and a position for guiding the subject light from the photographing lens 200 to the finder optical system (referred to as a position shown in FIG. 3, an oblique position) and a position for retracting outside the photographing optical path (retraction position). Is called).

図3において、ピント板204上にはクイックリターンミラー203からファインダ光学系に導かれる被写体光が結像される。205はファインダの視認性を向上させるためのコンデンサレンズ、206はペンタゴナルダハプリズムであり、ピント板204およびコンデンサレンズ205を通った被写体光をファインダ観察用の接眼レンズ208および測光センサ207に導く。   In FIG. 3, the subject light guided from the quick return mirror 203 to the finder optical system is imaged on the focus plate 204. Reference numeral 205 denotes a condenser lens for improving the visibility of the finder, and 206 denotes a pentagonal roof prism, which guides the subject light that has passed through the focus plate 204 and the condenser lens 205 to an eyepiece lens 208 and a photometric sensor 207 for finder observation.

209、210はそれぞれシャッターを構成する後幕と先幕で、これら後幕209、先幕210の開放によって後方に配置されている固体撮像素子である撮像素子418が必要時間だけ露光される。撮像素子418によって画素毎の電気信号に変換された撮影画像は、A/Dコンバータ423や画像処理回路425などによって処理され、画像データとして記録装置419に記録される。なお、撮像素子418の前方には、光学ローパスフィルタ等の光学素子418aが配置されており、この光学素子418aの表面に付着したゴミ等の異物の影が撮影画像に写り込む。   Reference numerals 209 and 210 respectively denote a rear curtain and a front curtain that constitute a shutter, and an image sensor 418 that is a solid-state image sensor disposed behind the rear curtain 209 and the front curtain 210 is exposed for a necessary time. A captured image converted into an electrical signal for each pixel by the image sensor 418 is processed by the A / D converter 423, the image processing circuit 425, and the like, and is recorded in the recording device 419 as image data. An optical element 418a such as an optical low-pass filter is disposed in front of the image sensor 418, and shadows of foreign matters such as dust adhering to the surface of the optical element 418a appear in the photographed image.

マイクロコンピュータ402の制御により、後幕209、先幕210を開放したままの状態で電子シャッターが実現される。   Under the control of the microcomputer 402, an electronic shutter is realized with the rear curtain 209 and the front curtain 210 open.

撮像素子418はプリント基板211に保持されている。このプリント基板211の後方には、もう一枚のプリント基板である表示基板215が配置されている。この表示基板215の反対側の面にLCDモニタ装置417およびバックライト照明装置416が配置されている。   The image sensor 418 is held on the printed circuit board 211. Behind this printed board 211, a display board 215, which is another printed board, is arranged. An LCD monitor device 417 and a backlight illumination device 416 are disposed on the opposite surface of the display substrate 215.

419は画像データを記録する記録装置、217は電池(携帯用電源)である。この記録装置419および電池217は、カメラ本体に対して着脱可能である。   Reference numeral 419 denotes a recording device for recording image data, and 217 denotes a battery (portable power supply). The recording device 419 and the battery 217 are detachable from the camera body.

(通常のゴミ検出処理)
図4は、本実施形態に係るデジタルカメラにおけるゴミ検出処理(ゴミによって画像不良が生じている画素位置の検出処理)を説明するフローチャートである。当該処理は、マイクロコンピュータ402がメモリ428に記憶されたゴミ検出処理プログラムを実行することにより実施される。
(Normal garbage detection process)
FIG. 4 is a flowchart for explaining dust detection processing (detection processing of a pixel position where an image defect is caused by dust) in the digital camera according to the present embodiment. This processing is performed by the microcomputer 402 executing a dust detection processing program stored in the memory 428.

ゴミ検出処理は、ゴミ検出用画像(異物検出用画像)を撮像することにより行われる。ゴミ検出処理を行う場合、面光源装置の出射面や白い壁などの均一な色を持つ面にレンズ200の撮影光軸201を向けてカメラを設置し、ゴミ検出の準備を行なう。   The dust detection process is performed by capturing a dust detection image (foreign matter detection image). When performing dust detection processing, a camera is installed with the photographing optical axis 201 of the lens 200 facing a surface having a uniform color, such as an emission surface of a surface light source device or a white wall, and preparation for dust detection is performed.

準備が終了した後、例えば十字配置スイッチ116からゴミ検出処理の開始が指示されると、マイクロコンピュータ402は、まず絞りの設定を行う。撮像素子近傍のゴミはレンズの絞り値によって結像状態が変わり、レンズの瞳位置によって位置が変化する。したがって、ゴミ補正データ(異物情報)にはゴミの位置や大きさに加え、検出時の絞り値とレンズの瞳位置を保持する必要がある。   After the preparation is completed, for example, when the start of dust detection processing is instructed from the cross arrangement switch 116, the microcomputer 402 first sets the aperture. The image formation state of dust near the image sensor changes depending on the aperture value of the lens, and the position changes depending on the pupil position of the lens. Accordingly, the dust correction data (foreign matter information) needs to hold the aperture value and the pupil position of the lens in addition to the dust position and size.

ただし、ゴミ補正データを作成する段階で、異なるレンズを用いたとしても常に同じ絞り値を使うことを予め決めておけば、必ずしもゴミ補正データ内に絞り値を保持する必要はない。また、瞳位置に関してもライトユニットを用いたり、特定のレンズのみの使用を許可することで、同様に必ずしもゴミ補正データ内に瞳位置を保持する必要はなくなる。つまり、ゴミ補正データを作成する段階において、使用するレンズを複数許したり、絞り込む絞り値を適宜変更する場合には、検出時の絞り値とレンズの瞳位置を、ゴミ補正データ内に保持する必要があると言える。なお、ここで瞳位置とは、射出瞳の撮像面(焦点面)からの距離をいう。   However, it is not always necessary to hold the aperture value in the dust correction data if it is determined in advance that the same aperture value is always used even when different lenses are used at the stage of creating dust correction data. Similarly, by using a light unit or permitting the use of only a specific lens for the pupil position, it is not always necessary to hold the pupil position in the dust correction data. In other words, at the stage of creating dust correction data, if you want to allow multiple lenses to use or change the aperture value to narrow down appropriately, it is necessary to keep the aperture value and lens pupil position at the time of detection in the dust correction data It can be said that there is. Here, the pupil position refers to the distance from the imaging plane (focal plane) of the exit pupil.

通常のゴミ検出処理においては、ユーザが白壁などの一様な被写体を撮影して、壁のしみなどが写りこまない限界として、F22を指定する(ステップS21)。   In the normal dust detection process, the user shoots a uniform subject such as a white wall and designates F22 as a limit at which a stain on the wall does not appear (step S21).

次にマイクロコンピュータ402はレンズ制御回路407に対し、撮影レンズ200の絞り羽根制御を行わせ、ステップS21で指定された絞り値に絞りを設定する(ステップS22)。さらに、フォーカス位置を無限遠に設定する(ステップS23)。   Next, the microcomputer 402 causes the lens control circuit 407 to perform aperture blade control of the photographing lens 200, and sets the aperture to the aperture value designated in step S21 (step S22). Further, the focus position is set to infinity (step S23).

撮影レンズの絞り値とフォーカス位置が設定されると、ゴミ検出モードでの撮影を実行する(ステップS24)。ステップS24で行う撮像処理ルーチンの詳細に関しては図11を用いて後に説明する。撮影された画像データは、バッファメモリ424に格納される。   When the aperture value and focus position of the photographing lens are set, photographing in the dust detection mode is executed (step S24). Details of the imaging processing routine performed in step S24 will be described later with reference to FIG. The captured image data is stored in the buffer memory 424.

撮影が終了すると、撮影時の絞り値とレンズ瞳位置を取得する(ステップS25)。画像処理回路425にバッファメモリ424に記憶されている撮影画像の各画素に対応するデータを呼び出す(ステップS26)。画像処理回路425は、図8に示す処理を行い、撮像画面内のゴミが存在する画素の位置と大きさを取得する(ステップS27)。ステップS27で取得したゴミが存在する画素の位置と大きさ、およびステップS25で取得した絞り値とレンズ瞳位置情報を、ゴミ位置メモリ427に登録する(ステップS28)。   When shooting is completed, the aperture value and lens pupil position at the time of shooting are acquired (step S25). Data corresponding to each pixel of the captured image stored in the buffer memory 424 is called to the image processing circuit 425 (step S26). The image processing circuit 425 performs the processing shown in FIG. 8, and acquires the position and size of the pixel where dust is present in the imaging screen (step S27). The position and size of the pixel where the dust exists in step S27 and the aperture value and lens pupil position information acquired in step S25 are registered in the dust position memory 427 (step S28).

ここで、ステップS28において、予め画素欠陥位置メモリ426に記録されている製造時からの不良画素(画素欠陥)の位置と、読み出した画素データの位置を比べて画素欠陥であるかどうかを確認する。そして、画素欠陥によるものでは無いと判断された領域のみ、ゴミ位置メモリ427に位置を登録しても良い。   Here, in step S28, the position of the defective pixel (pixel defect) from the time of manufacture recorded in the pixel defect position memory 426 in advance is compared with the position of the read pixel data to check whether the pixel defect is present. . Only the area determined not to be due to the pixel defect may be registered in the dust position memory 427.

ゴミ位置メモリ427に格納されるゴミ補正データのデータ形式例を図7に示す。図7に示した通り、ゴミ補正データには、検出用画像撮影時の、レンズ情報とゴミの位置、大きさの情報が格納される。このゴミ補正データは、通常撮影時に画像データの撮影時情報と共に画像に付加し、後に説明するゴミ除去処理で利用する。   An example of the data format of dust correction data stored in the dust position memory 427 is shown in FIG. As shown in FIG. 7, the dust correction data stores lens information and dust position and size information when the detection image is captured. This dust correction data is added to the image together with the shooting time information of the image data during normal shooting, and used in dust removal processing described later.

具体的には、検出画像撮影時のレンズ情報として、検出画像撮影時における実際の絞り値(F値)と、そのときのレンズ瞳位置を格納する。続いて記憶領域に検出したゴミ領域の数(整数値)を格納し、これに続き、個々の具体的なゴミ領域のパラメータを、ゴミ領域の数だけ繰返して格納する。ゴミ領域のパラメータは、ゴミの半径(例えば2バイト)、有効画像領域における中心のx座標(例えば2バイト)、おなじく中心のy座標(例えば2バイト)の3つの数値のセットである。   Specifically, the actual aperture value (F value) at the time of capturing the detected image and the lens pupil position at that time are stored as lens information at the time of capturing the detected image. Subsequently, the number of detected dust areas (integer value) is stored in the storage area, and subsequently, individual specific dust area parameters are repeatedly stored by the number of dust areas. The parameter of the dust area is a set of three numerical values: a dust radius (for example, 2 bytes), a center x coordinate (for example, 2 bytes) in the effective image area, and a similar y coordinate (for example, 2 bytes).

ゴミ位置メモリ427の大きさ等によりゴミ補正データサイズに制限がある場合、ステップS27で得たゴミ領域の先頭から優先してデータを格納する。これは、ステップS27のゴミ領域取得ルーチン内では、後述するようにゴミ領域を、目立つゴミの順にソートするからである。   When the dust correction data size is limited due to the size of the dust position memory 427 or the like, the data is stored with priority from the head of the dust area obtained in step S27. This is because in the dust area acquisition routine in step S27, the dust areas are sorted in the order of noticeable dust, as will be described later.

(ゴミ領域取得ルーチン)
次に、図8から図10を用いて、ステップS27で行うゴミ領域取得ルーチンの詳細について説明する。
(Trash area acquisition routine)
Next, details of the dust region acquisition routine performed in step S27 will be described with reference to FIGS.

図9に示すように、呼び出した画像データをメモリ上に展開し、予め定められたブロック単位で処理を行う。これは、レンズやセンサ特性に起因する周辺減光に対応するためである。周辺減光とは、レンズの中央部に比べ周辺部の輝度が落ちてしまう現象であり、レンズの絞りを小さくすることである程度軽減されることが知られている。しかし、絞りを絞った状態でも、撮影画像に対して予め定められたスレッショルド値でゴミ位置の判定を行うと、レンズによっては周辺部のゴミが正確に検出できなくなるという問題がある。そこで、画像をブロック分割して周辺減光の影響を軽減する。   As shown in FIG. 9, the called image data is developed on a memory and processed in units of predetermined blocks. This is to cope with peripheral dimming caused by lens and sensor characteristics. Peripheral dimming is a phenomenon in which the luminance at the peripheral portion is lower than that at the central portion of the lens, and it is known that it is reduced to some extent by reducing the aperture of the lens. However, there is a problem that even if the aperture is reduced, if the dust position is determined based on a predetermined threshold value for the photographed image, dust in the peripheral portion cannot be detected accurately depending on the lens. Therefore, the image is divided into blocks to reduce the influence of peripheral dimming.

単純にブロック分割すると、ブロックとブロックの間でスレッショルド値が異なる場合、ブロック間をまたぐゴミの検出結果がずれてしまうという問題がある。そこで、ブロック間をオーバーラップさせ、オーバーラップ領域を構成するブロックのいずれかでゴミと判定された画素をゴミ領域として扱う。   When the blocks are simply divided, there is a problem that the detection result of the dust straddling the blocks is shifted when the threshold values are different between the blocks. Therefore, the blocks are overlapped, and pixels determined to be dust in any of the blocks constituting the overlap region are treated as dust regions.

ブロック内のゴミ領域判定は、図8に示す処理の流れで行う。まず、ブロック内の最大輝度Lmax、平均輝度Laveを算出し、次式を用いてブロック内のスレッショルド値T1を算出する。   The dust region determination in the block is performed according to the processing flow shown in FIG. First, the maximum luminance Lmax and average luminance Lave in the block are calculated, and the threshold value T1 in the block is calculated using the following equation.

T1=Lave×0.6+Lmax×0.4
次に、スレッショルド値を超えない画素をゴミ画素とし(ステップS61)、ゴミ画素によって構成される孤立領域を各々一つのゴミ領域di(i=0,1,…,n)とする(ステップS62)。図10に示すように、ゴミ領域毎に、ゴミ領域を構成する画素の水平方向の座標の最大値Xmaxおよび最小値Xmin、垂直方向の座標の最大値Ymaxおよび最小値Yminを求め、ゴミ領域diのサイズを表す半径riを次式によって算出する(ステップS63)。
T1 = Lave × 0.6 + Lmax × 0.4
Next, pixels that do not exceed the threshold value are defined as dust pixels (step S61), and isolated regions constituted by dust pixels are each defined as one dust region di (i = 0, 1,..., N) (step S62). . As shown in FIG. 10, for each dust region, the maximum value Xmax and the minimum value Xmin of the horizontal coordinate of the pixels constituting the dust region, the maximum value Ymax and the minimum value Ymin of the vertical coordinate are obtained, and the dust region di A radius ri representing the size of is calculated by the following equation (step S63).

ri=√[{(Xmax−Xmin)/2}2+{(Ymax−Ymin)/2}2]
Xmax、Xmin、Ymax、Yminとriの関係を、図10に示す。
ri = √ [{(Xmax−Xmin) / 2} 2 + {(Ymax−Ymin) / 2} 2 ]
The relationship between Xmax, Xmin, Ymax, Ymin and ri is shown in FIG.

その後ステップS64で、ゴミ領域毎の平均輝度値を算出する。   Thereafter, in step S64, an average luminance value for each dust region is calculated.

ゴミ位置メモリ427のサイズによる制限などにより、ゴミ補正データのデータサイズが制限されている場合がある。このような場合に対応するために、ゴミ位置情報を、大きさやゴミ領域の平均輝度値によってソートする(ステップS65)。本実施形態では、riの大きい順にソートする。riが等しい場合、平均輝度値の低い順にソートする。このようにすることで、目立つゴミを優先してゴミ補正データに登録することが出来る。なお、ソート済みのゴミ領域をDi、ゴミ領域Diの半径をRiとする。   In some cases, the data size of the dust correction data is limited due to the limitation due to the size of the dust position memory 427. In order to cope with such a case, the dust position information is sorted according to the size and the average luminance value of the dust region (step S65). In this embodiment, sorting is performed in descending order of ri. When ri is equal, the sort is performed in ascending order of the average luminance value. In this way, it is possible to preferentially register noticeable dust in the dust correction data. The sorted dust area is Di, and the radius of the dust area Di is Ri.

なお、予め定められたサイズより大きいゴミ領域がある場合、ソートの対象から外し、ソート済みゴミ領域リストの末尾に配置しても良い。大きいゴミ領域については、後に補間処理をするとかえって画質を低下させる場合があり、補正対象の優先順位としては最下位として扱うことが望ましいからである。   If there is a dust area larger than a predetermined size, it may be excluded from sorting and placed at the end of the sorted dust area list. This is because a large dust region may lower the image quality if interpolation processing is performed later, and is preferably treated as the lowest priority for correction.

(補助ゴミデータ用画像生成ルーチン)
次に、図5を用いて、補助ゴミデータ検出用(補助異物情報検出用)の白飛び画像の生成について説明する。
(Auxiliary garbage data image generation routine)
Next, generation of a whiteout image for auxiliary dust data detection (auxiliary foreign matter information detection) will be described with reference to FIG.

本実施形態では、ユーザが意図的にカメラにゴミ検出を行わせる以外に、この意図的なゴミ検出と次の意図的なゴミ検出の間に、ライブビュー動作に連動して補助ゴミ検出用画像(補助ゴミデータ用画像)を取得しゴミ検出処理を行う。このゴミ検出処理を補助ゴミデータの取得処理と呼ぶことにする。補助ゴミデータの取得処理を行うことにより、ゴミ検出処理の頻度が高まり、ゴミ補正データのアップデートをより迅速に行うことができる。   In this embodiment, in addition to the user intentionally performing dust detection on the camera, the auxiliary dust detection image is linked to the live view operation between this intentional dust detection and the next intentional dust detection. (Auxiliary dust data image) is acquired and dust detection processing is performed. This dust detection process is referred to as auxiliary dust data acquisition process. By performing auxiliary dust data acquisition processing, the frequency of dust detection processing is increased, and dust correction data can be updated more quickly.

補助ゴミデータ用画像の生成処理は、図4のステップS21からステップS24までの処理に置き換わるものである。つまり、処理を開始するきっかけが、通常のゴミ補正データ用の画像生成においてはユーザによる白壁等の撮影操作であるのに対し、補助ゴミデータ用画像の生成においてはライブビューの開始である点が異なる。   The auxiliary dust data image generation processing replaces the processing from step S21 to step S24 in FIG. In other words, the reason for starting the processing is that the user performs a photographing operation such as a white wall in the normal dust correction data image generation, whereas the live view starts in the generation of the auxiliary dust data image. Different.

まず、ライブビューが開始される(ステップS71)と、クイックリターンミラー203をミラーアップする(ステップS72)。シャッターを構成する後幕209および先幕210をオープンし(ステップS73)、撮像素子418を起動する(ステップS74)。ここでゴミの検出の設定がなされているかを見て、設定されている場合はステップS76に進み、白飛ばし(露出をオーバーにした撮影)が可能か判定する。ゴミ検出に進む設定がされていない場合はステップS81に進み、適正な露光に設定する。ゴミの検出の設定は、ユーザがメニューボタン124と十字配置スイッチ116を操作することで設定可能である。設定された情報は、カメラ内の不図示のメモリに記録される。   First, when the live view is started (step S71), the quick return mirror 203 is mirrored up (step S72). The rear curtain 209 and the front curtain 210 constituting the shutter are opened (step S73), and the image sensor 418 is activated (step S74). Here, it is checked whether dust detection is set. If it is set, the process proceeds to step S76, and it is determined whether or not whitening (shooting with overexposure) is possible. If the setting for proceeding to dust detection has not been made, the process proceeds to step S81 to set an appropriate exposure. The setting of dust detection can be set by the user operating the menu button 124 and the cross placement switch 116. The set information is recorded in a memory (not shown) in the camera.

ステップS76において白飛ばしが可能かどうか判断する。判断のためにマイクロコンピュータ402は測光回路414で測定された輝度を用いる。輝度が高ければ高いほど、短い露光時間で白飛びを達成できる。反対に、輝度が低すぎると露光時間を長くとらなければならない。マイクロコンピュータ402は、この露光時間を元に、白飛び画像を取得するのに適切な状態であるかを判断する。つまり白飛ばしが可能か否か判断する。   In step S76, it is determined whether or not whitening is possible. For the determination, the microcomputer 402 uses the luminance measured by the photometry circuit 414. The higher the brightness, the more the whiteout can be achieved with a shorter exposure time. On the other hand, if the brightness is too low, the exposure time must be long. Based on the exposure time, the microcomputer 402 determines whether it is in an appropriate state for acquiring a whiteout image. That is, it is determined whether or not whitening is possible.

なお、ここで白飛び画像を取得するのは、露出オーバーでも光学素子418aに付着した異物の影は写るので、白飛び画像を撮影することにより、光学素子418aに付着した異物のみが写った画像を得ることができるからである。そして、この白飛び画像からゴミ位置データを取得することができる。   Note that, since the shadow of the foreign matter attached to the optical element 418a is captured even when overexposed, the whiteout image is acquired here, and an image in which only the foreign matter attached to the optical element 418a is captured by photographing the whiteout image. It is because it can obtain. Then, dust position data can be acquired from this whiteout image.

ステップS76で白飛ばしが可能であると判断された場合はステップS77に進み、ゴミを写りこませるために絞り羽根を絞る。ここではF22に設定するものとする。白飛ばしが不可能であると判断された場合はステップS81に進み、露光値は適正値に設定される。   If it is determined in step S76 that whitening is possible, the process proceeds to step S77, and the diaphragm blades are squeezed to capture dust. Here, it is assumed that F22 is set. If it is determined that whitening cannot be performed, the process proceeds to step S81, and the exposure value is set to an appropriate value.

ステップS77で絞りをF22に設定したら、デフォーカスし(ステップS78)、マイクロコンピュータ402による電子シャッターで白飛びが起きるように露光し(ステップS79)、補助ゴミデータ検出用の画像を得る(ステップS80)。   When the aperture is set to F22 in step S77, defocusing is performed (step S78), and exposure is performed so that whiteout occurs with the electronic shutter by the microcomputer 402 (step S79), and an image for detecting auxiliary dust data is obtained (step S80). ).

補助ゴミデータ検出用の画像を得たら、適正な露光値に再設定し(ステップS81)、通常のフレームの取り込みを開始する(ステップS82)。最後に、LCDモニタ装置417でライブビュー表示を開始する(ステップS83)。   When the auxiliary dust data detection image is obtained, the exposure value is reset to an appropriate value (step S81), and normal frame capturing is started (step S82). Finally, live view display is started on the LCD monitor device 417 (step S83).

このように、補助ゴミデータ用画像生成処理は、ライブビューを開始したあとLCDモニタ装置417にライブビュー画像を出すまでの間に行われるため、ユーザから見ると、ライブビュー開始のための処理待ちと区別がつかない。つまりユーザが意識することなく補助ゴミデータを生成できる。   As described above, the auxiliary dust data image generation process is performed after the live view is started and before the live view image is displayed on the LCD monitor device 417. Indistinguishable from. That is, auxiliary garbage data can be generated without the user being aware of it.

さらに、補助ゴミデータ用画像の生成処理はユーザに意識させてもよいことは言うまでもない。つまり、ライブビューを開始した直後にLCDモニタ装置417にゴミ補正のためのデータを取得中である旨のメッセージを表示し、ユーザが意識的に一様な被写体を撮影するように促せば、より品質の高い補助ゴミデータ用画像が得られる。   Further, it goes without saying that the user may be aware of the auxiliary dust data image generation processing. That is, if a message indicating that data for dust correction is being acquired is displayed on the LCD monitor device 417 immediately after the live view is started and the user consciously shoots a uniform subject, High quality auxiliary dust data images can be obtained.

取得した補助ゴミデータ用画像に対しては、通常のゴミ補正データを生成する場合と同様にして、図8に示すゴミ領域取得ルーチンを行い、補助ゴミデータを生成し、ゴミ位置メモリ427に登録する。   For the acquired auxiliary dust data image, the dust region acquisition routine shown in FIG. 8 is performed in the same manner as when generating normal dust correction data, and auxiliary dust data is generated and registered in the dust position memory 427. To do.

(差分生成ルーチン)
図6は、通常のゴミ補正データと補助ゴミデータで補正データが重複しないようにするための処理を示すフローチャートである。
(Difference generation routine)
FIG. 6 is a flowchart showing a process for preventing correction data from overlapping between normal dust correction data and auxiliary dust data.

まず、補助ゴミデータの取得工程で得られたゴミ情報をひとつ選択する(ステップS41)。通常のゴミ補正データの中に、ステップS41で選択されたゴミ情報と一致するものがないか検索する(ステップS42)。検索の結果、一致するものが見つかった場合は、その一致する補助ゴミデータのゴミ情報は、補助ゴミデータ候補より消去される。つまり補助ゴミデータとして保存されない(ステップS44)。補助ゴミデータの次のゴミ情報を選択し(ステップS45)、同様の処理を、全てのゴミ情報について繰り返す。   First, one piece of dust information obtained in the auxiliary dust data acquisition step is selected (step S41). The normal dust correction data is searched for a match with the dust information selected in step S41 (step S42). If a match is found as a result of the search, the dust information of the matching auxiliary dust data is deleted from the auxiliary dust data candidates. That is, it is not stored as auxiliary dust data (step S44). The next dust information of the auxiliary dust data is selected (step S45), and the same processing is repeated for all dust information.

なお、ゴミ情報の一致判断は、座標と半径から導かれる面の接触を判断してもよいし、座標の距離に閾値をつけて判断してもよい。たとえば座標の距離の閾値を5画素以内とすれば、補助ゴミデータのゴミ情報の座標が(X,Y)=(100画素,100画素)で、通常のゴミ補正データに(X,Y)=(100画素,105画素)という情報が存在すれば、この補助ゴミデータのゴミ情報は、補助ゴミデータとして保存されない。   Note that the dust information match determination may be performed by determining contact between surfaces derived from coordinates and radii, or by determining a threshold value for the distance between the coordinates. For example, if the coordinate distance threshold is 5 pixels or less, the dust information coordinates of the auxiliary dust data are (X, Y) = (100 pixels, 100 pixels), and the normal dust correction data is (X, Y) = If the information (100 pixels, 105 pixels) exists, the dust information of the auxiliary dust data is not stored as auxiliary dust data.

(撮像処理ルーチン)
次に、図11に示すフローチャートを用いて、図4のステップS24で行われる撮像処理ルーチンの詳細について説明する。当該処理はマイクロコンピュータ402がメモリ428に記憶された撮像処理プログラムを実行することにより実施される。
(Imaging processing routine)
Next, details of the imaging processing routine performed in step S24 of FIG. 4 will be described using the flowchart shown in FIG. The processing is performed by the microcomputer 402 executing an imaging processing program stored in the memory 428.

この撮像処理ルーチンが実行されると、ステップS201でマイクロコンピュータ402は、図3に示すクイックリターンミラー203を作動させ、いわゆるミラーアップを行い、撮影光路外にクイックリターンミラー203を退避させる。   When this imaging processing routine is executed, in step S201, the microcomputer 402 operates the quick return mirror 203 shown in FIG. 3, performs so-called mirror up, and retracts the quick return mirror 203 outside the imaging optical path.

次に、ステップS202で撮像素子での電荷蓄積を開始し、次のステップS203では図3に示したシャッターの先幕210、後幕209をそれぞれ走行させて露光を行う。そして、ステップS204で撮像素子の電荷蓄積を終了し、次のステップS205で撮像素子から画像信号を読み出してA/Dコンバータ423および画像処理回路425で処理した画像データをバッファメモリ424に一次記憶する。   Next, charge accumulation in the image sensor is started in step S202, and in the next step S203, exposure is performed by running the shutter front curtain 210 and rear curtain 209 shown in FIG. In step S204, the charge accumulation of the image sensor is terminated, and in the next step S205, the image signal is read from the image sensor, and the image data processed by the A / D converter 423 and the image processing circuit 425 is temporarily stored in the buffer memory 424. .

次のステップS206で撮像素子から全ての画像信号の読み出しが終了すると、ステップS207でクイックリターンミラー203をミラーダウンし、クイックリターンミラーを斜設位置に戻して一連の撮像動作を終了する。   When reading of all image signals from the image sensor is completed in the next step S206, the quick return mirror 203 is mirrored down in step S207, the quick return mirror is returned to the oblique position, and a series of imaging operations is completed.

ステップS208にて、通常撮影かゴミ検出用画像撮影かを判断し、通常撮影時にはステップS209へ進んで撮影時のカメラ設定値等と共に図7に示したゴミ補正データを画像データに関連付けて記録装置419に記録する。   In step S208, it is determined whether normal shooting or dust detection image shooting is performed. In normal shooting, the process proceeds to step S209, and the dust correction data shown in FIG. Record at 419.

具体的には、例えば、撮影時のカメラ設定値等が記録される画像ファイルのヘッダ領域であるExif領域にゴミ補正データを追記することで、関連付けを実現することができる。または、ゴミ補正データをファイルとして独立して記録し、画像データにはそのゴミ補正データファイルへのリンク情報のみを記録することで関連付けを実現することも可能である。ただし、画像ファイルとゴミ補正データファイルを別々に記録すると、画像ファイルの移動時に、リンク関係が消失する場合があるので、ゴミ補正データは画像データと一体的に保持することが望ましい。   Specifically, for example, association can be realized by adding dust correction data to the Exif area, which is the header area of an image file in which camera setting values at the time of shooting are recorded. Alternatively, the dust correction data can be independently recorded as a file, and the association can be realized by recording only the link information to the dust correction data file in the image data. However, if the image file and the dust correction data file are recorded separately, the link relationship may be lost when the image file is moved. Therefore, it is desirable to hold the dust correction data integrally with the image data.

(ゴミ除去処理)
次に、ゴミ除去処理の流れについて説明する。ゴミ除去処理は、デジタルカメラ本体ではなく、別途用意した画像処理装置上で行う。
(Dust removal process)
Next, the flow of dust removal processing will be described. The dust removal process is performed not on the digital camera body but on a separately prepared image processing apparatus.

図12は、画像処理装置のシステム構成の概略を示した図である。   FIG. 12 is a diagram showing an outline of the system configuration of the image processing apparatus.

CPU1001は、システム全体の動作をコントロールし、一次記憶部1002に格納されたプログラムの実行などを行う。一次記憶部1002は、主にメモリであり、二次記憶部1003に記憶されたプログラムなどを読み込んで格納する。二次記憶部1003は、例えばハードディスクなどがこれに該当する。一般に一次記憶部の容量は二次記憶部の容量より小さく、一次記憶部に格納しきれないプログラムやデータなどは二次記憶部に格納される。また、長時間記憶しなくてはならないデータなども二次記憶部に格納される。本実施形態では、プログラムを二次記憶部1003に格納し、プログラム実行時に一次記憶部1002に読み込んでCPU1001が実行処理を行う。   The CPU 1001 controls the operation of the entire system, and executes a program stored in the primary storage unit 1002. The primary storage unit 1002 is mainly a memory, and reads and stores programs stored in the secondary storage unit 1003. The secondary storage unit 1003 corresponds to, for example, a hard disk. Generally, the capacity of the primary storage unit is smaller than the capacity of the secondary storage unit, and programs and data that cannot be stored in the primary storage unit are stored in the secondary storage unit. Data that must be stored for a long time is also stored in the secondary storage unit. In the present embodiment, the program is stored in the secondary storage unit 1003, read into the primary storage unit 1002 when the program is executed, and the CPU 1001 performs an execution process.

入力デバイス1004とは例えば、システムのコントロールに用いるマウスやキーボードの他、画像データの入力に必要なカードリーダー、スキャナ、フィルムスキャナなどがこれに該当する。出力デバイス1005とは例えば、モニタやプリンタなどが考えられる。この装置の構成方法は他にも様々な形態が考えられるが、本発明の主眼ではないので説明を省略する。   Examples of the input device 1004 include a mouse and keyboard used for system control, as well as a card reader, scanner, film scanner, and the like necessary for inputting image data. Examples of the output device 1005 include a monitor and a printer. Various other configurations of the apparatus configuration method are conceivable, but the description thereof is omitted because it is not the main point of the present invention.

画像処理装置には、複数のプログラムを並列実行可能なオペレーティングシステムが搭載され、操作者はGUIを使ってこの装置上で動作するプログラムの操作が可能である。   The image processing apparatus is equipped with an operating system capable of executing a plurality of programs in parallel, and an operator can operate a program operating on the apparatus using a GUI.

図13は、画像処理装置における画像編集プログラムのGUI(Graphical User Interface)を示す図である。ウィンドウにはクローズボタン1100とタイトルバー1101が備えられ、クローズボタン1100を押すことでプログラムを終了する。ファイルを画像表示領域1102にドラッグアンドドロップすることで補正対象画像を指定し、補正対象画像が決定された場合、タイトルバー1101にファイル名を表示した後、画像表示領域1102に対象画像をFit表示する。実行ボタン1103を押すと、後述するゴミ除去処理を実行し、処理後の画像を画像表示領域1102に表示する。ステップ実行ボタン1104を押すと後述するゴミ除去処理のステップ実行を行い、全てのゴミ領域に対して処理が終了した時点で処理後の画像を画像表示領域1102に表示する。保存ボタン1105を押すと、処理後の画像を保存する。   FIG. 13 is a diagram showing a GUI (Graphical User Interface) of an image editing program in the image processing apparatus. The window includes a close button 1100 and a title bar 1101. When the close button 1100 is pressed, the program is terminated. When a correction target image is specified by dragging and dropping the file into the image display area 1102 and the correction target image is determined, the file name is displayed in the title bar 1101 and then the target image is displayed as Fit in the image display area 1102. To do. When the execute button 1103 is pressed, dust removal processing described later is executed, and the processed image is displayed in the image display area 1102. When a step execution button 1104 is pressed, a dust removal process, which will be described later, is executed, and the processed image is displayed in the image display area 1102 when processing is completed for all dust areas. When a save button 1105 is pressed, the processed image is saved.

画像処理装置におけるゴミ除去処理の流れを、図14に示す。   FIG. 14 shows the flow of dust removal processing in the image processing apparatus.

まず、デジタルカメラ内又はデジタルカメラから取り外された記録装置419からゴミ補正データが添付された通常撮影画像データを画像処理装置に取り込んで、一次記憶部1002又は二次記憶部1003に記憶する(ステップS90)。   First, normal photographed image data attached with dust correction data from a recording device 419 removed from the digital camera or from the digital camera is taken into the image processing device and stored in the primary storage unit 1002 or the secondary storage unit 1003 (step). S90).

次に、通常撮影された画像データ(ゴミ除去処理を行う対象となる画像)から、ステップS209で撮影画像に付与されたゴミ補正データを抽出する(ステップS91)。さらに、補助ゴミデータが存在するか確認し(ステップS92)、存在すれば読み取り(ステップS93)、通常のゴミ補正データと結合する(ステップS94)。結合は、通常のゴミ補正データと補助ゴミデータそれぞれの座標、大きさ、絞り値、瞳位置を単純なデータ列として保持してもよいし、通常のゴミ補正データと補助ゴミデータを別々に保持してもよい。   Next, dust correction data added to the photographed image in step S209 is extracted from the normally photographed image data (image to be subjected to dust removal processing) (step S91). Further, it is confirmed whether or not auxiliary dust data exists (step S92), and if it exists, it is read (step S93) and combined with normal dust correction data (step S94). For the combination, the coordinates, size, aperture value, and pupil position of normal dust correction data and auxiliary dust data may be held as a simple data string, or normal dust correction data and auxiliary dust data are held separately. May be.

次に、ステップS91〜S94で抽出したゴミ補正データから座標列Di(i=1,2,…n)、半径列Ri(i=1,2,…,n)、絞り値f1とレンズ瞳位置L1を得る(ステップS95)。ここでRiは、図8のステップS65で算出した座標Diのゴミの大きさである。ステップS96で、通常撮影された画像の撮影時の絞り値f2とレンズ瞳位置L2を取得し、ステップS97でDiを次式で変換する。ここで、dは画像中心から座標Diまでの距離、Hは撮像素子418の表面とゴミとの距離であるとする。変換後の座標Di’と変換後の半径Ri’は例えば次式で定義する。   Next, from the dust correction data extracted in steps S91 to S94, the coordinate sequence Di (i = 1, 2,... N), the radius sequence Ri (i = 1, 2,..., N), the aperture value f1, and the lens pupil position. L1 is obtained (step S95). Here, Ri is the size of the dust at the coordinate Di calculated in step S65 of FIG. In step S96, the aperture value f2 and the lens pupil position L2 at the time of shooting of the normally shot image are acquired, and in step S97, Di is converted by the following equation. Here, d is a distance from the image center to the coordinate Di, and H is a distance between the surface of the image sensor 418 and dust. The coordinate Di ′ after conversion and the radius Ri ′ after conversion are defined by the following equation, for example.

Di’(x,y)=(L2×(L1−H)×d/((L2−H)×L1))×Di(x,y)
Ri’=(Ri×f1/f2+3) (1)
ここでの単位はピクセルであり、Ri’についての「+3」はマージン量である。
Di ′ (x, y) = (L2 × (L1−H) × d / ((L2−H) × L1)) × Di (x, y)
Ri ′ = (Ri × f1 / f2 + 3) (1)
The unit here is a pixel, and “+3” for Ri ′ is a margin amount.

ステップS98で座標Di’、半径Ri’で示される領域内のゴミを検出し、必要に応じて補間処理を適用する。補間処理の詳細については後述する。ステップS99で全ての座標についてゴミ除去処理を適用したかどうかを判定し、全ての座標について処理が終わっていれば処理を終了し、そうでなければステップS98に戻る。   In step S98, dust in the area indicated by the coordinates Di 'and the radius Ri' is detected, and interpolation processing is applied as necessary. Details of the interpolation processing will be described later. In step S99, it is determined whether or not dust removal processing has been applied to all coordinates. If processing has been completed for all coordinates, the processing is terminated; otherwise, the processing returns to step S98.

(補間ルーチン)
次に、ゴミ領域の補間処理の詳細について述べる。補間ルーチンの流れを示すフローチャートを図15に示す。まずステップS1201で、ゴミ領域判定を行う。ゴミ領域とは、次の条件全てを満たす領域とする。
(1)図14のステップS97で算出した中心座標Di’、半径Ri’(式(1)で求められたDi’,Ri’)に含まれる画素の平均輝度Yaveと最高輝度Ymaxを用いて次式で求められるスレッショルド値T2より暗い領域。
(Interpolation routine)
Next, details of dust region interpolation processing will be described. A flowchart showing the flow of the interpolation routine is shown in FIG. First, in step S1201, dust region determination is performed. The dust area is an area that satisfies all of the following conditions.
(1) Next, using the average luminance Yave and the maximum luminance Ymax of the pixels included in the center coordinate Di ′ and radius Ri ′ (Di ′, Ri ′ obtained in Expression (1)) calculated in step S97 of FIG. An area darker than the threshold value T2 obtained by the equation.

T2=Yave×0.6+Ymax×0.4
(2)上記の中心座標Di’、半径Ri’の円と接しない領域。
(3)(1)で選択された輝度の低い画素によって構成される孤立領域に対し、図8中のステップS63と同様の方法で算出した半径値がl1画素以上、l2画素未満である領域。
(4)円の中心座標Diを含む領域。
T2 = Yave × 0.6 + Ymax × 0.4
(2) A region not in contact with the circle having the center coordinate Di ′ and the radius Ri ′.
(3) A region in which the radius value calculated by the same method as in step S63 in FIG. 8 is not less than l1 pixels and less than l2 pixels with respect to the isolated region constituted by the low-luminance pixels selected in (1).
(4) A region including the center coordinates Di of the circle.

本実施形態では、l1は3画素、l2は30画素とする。このようにすることで、孤立した小領域だけをゴミ領域として扱うことが可能になる。また、レンズ瞳位置が正確に取得できない場合には、(4)の条件は幅を持たせても良い。例えば、着目領域が座標DiからX方向、Y方向に夫々±3画素の範囲の座標を含めば、ゴミ領域と判定するなどという条件が考えられる。   In this embodiment, l1 is 3 pixels and l2 is 30 pixels. In this way, only an isolated small area can be handled as a dust area. If the lens pupil position cannot be obtained accurately, the condition (4) may have a width. For example, if the region of interest includes coordinates within a range of ± 3 pixels in the X direction and the Y direction from the coordinate Di, a condition such as determining as a dust region can be considered.

ステップS1202で、このような領域があればステップS1203へ進みゴミ領域補間を行い、存在しない場合は処理を終了する。ステップS1203で実行するゴミ領域補間処理は、公知の欠損領域補間法で行う。公知の欠損領域補間法には例えば、特開2001−223894号公報に開示されているパターン置換がある。特開2001−223894号公報では赤外光を用いて欠損領域を特定しているが、本実施形態ではステップS1201で検出したゴミ領域を欠損領域として扱い、パターン置換によりゴミ領域を周囲の正常画素で補間する。パターン置換で埋められない画素については、パターン補間後の画像データに対し、補間対象画素に最も近い順に正常画素をp個選択し、その平均色を用いて補間する。   If there is such an area in step S1202, the process advances to step S1203 to perform dust area interpolation. If there is no such area, the process ends. The dust region interpolation processing executed in step S1203 is performed by a known defect region interpolation method. Known defect area interpolation methods include, for example, pattern replacement disclosed in JP-A-2001-223894. In Japanese Patent Laid-Open No. 2001-223894, a defective region is specified using infrared light. In this embodiment, the dust region detected in step S1201 is treated as a defective region, and the dust region is treated as a normal pixel by pattern replacement. Interpolate with. For pixels that are not filled by pattern replacement, p normal pixels are selected in the order closest to the interpolation target pixel from the image data after pattern interpolation, and interpolation is performed using the average color.

このように画像にゴミ補正データを添付することで、ゴミ補正用画像データと撮影画像データの対応を意識する必要が無くなるという利点がある。また、ゴミ補正データが位置、大きさ、変換用データ(絞り値、レンズの瞳位置の距離情報)で構成されるコンパクトなデータであるので、撮影画像データサイズが極端に大きくなることもない。また、ゴミ補正データで指定された画素を含む領域だけを補間処理することにより、誤検出の確率を大幅に低減することが可能になる。   By attaching dust correction data to an image in this way, there is an advantage that it is not necessary to be aware of the correspondence between dust correction image data and captured image data. In addition, since the dust correction data is compact data composed of position, size, and conversion data (aperture value, distance information on the lens pupil position), the captured image data size does not become extremely large. Further, by performing interpolation processing only on the region including the pixel specified by the dust correction data, the probability of erroneous detection can be greatly reduced.

さらに本実施形態では、ゴミ補正データを取得してから次のゴミ補正データを取得するまでの間に、補助ゴミデータを取得するので、時間の経過とともに変化するゴミ位置の変化に追従する頻度を上げ、ゴミ位置情報の鮮度を保つことができる。   Furthermore, in the present embodiment, auxiliary dust data is acquired between the time when dust correction data is acquired and the time when the next dust correction data is acquired, so the frequency of tracking the change in dust position that changes over time is set. And the freshness of the dust position information can be maintained.

(第2の実施形態)
上記の第1の実施形態では、補助ゴミデータを取得したらゴミ補正データとの差分をとり、保存してあとから利用したが、補助ゴミデータはゴミ補正データの検証として利用してもよい。すなわち、補助ゴミデータとゴミ補正データの差異の程度を測定し、ゴミ補正データの鮮度を知ることができる。
(Second Embodiment)
In the first embodiment, when the auxiliary dust data is acquired, the difference from the dust correction data is obtained and saved and used later. However, the auxiliary dust data may be used as verification of the dust correction data. That is, the degree of difference between auxiliary dust data and dust correction data can be measured to know the freshness of dust correction data.

図16は補助ゴミデータでゴミ補正データの検証を行う方法の例を説明するフローチャートである。   FIG. 16 is a flowchart for explaining an example of a method for verifying dust correction data using auxiliary dust data.

まず、ゴミ補正データと補助ゴミデータの差異を数えるカウンタをゼロにリセットする(ステップS101)。次にゴミ補正データをロードし(ステップS102)、データの中からひとつゴミ座標情報を抽出する(ステップS103)。ステップS104で、抽出した座標からそのゴミの半径以内の距離に補助ゴミデータのゴミ座標が含まれていなかったら、ステップS105に進み、差異を数えるカウンタをカウントアップする。補助ゴミデータのゴミ座標が含まれていたらステップS106に進む。ステップS106ではゴミ補正データの全データを調査完了したかを判定し、全データを調査完了していたらステップS107に進み、差異のカウントをメモリ428などに保存するなどして、参照できるようにする。調査完了していない場合はステップS103に戻り、次のゴミ補正データをひとつ抽出する。   First, a counter that counts the difference between dust correction data and auxiliary dust data is reset to zero (step S101). Next, dust correction data is loaded (step S102), and one piece of dust coordinate information is extracted from the data (step S103). If the dust coordinates of the auxiliary dust data are not included in the distance within the dust radius from the extracted coordinates in step S104, the process proceeds to step S105, and the counter for counting the difference is counted up. If the dust coordinates of the auxiliary dust data are included, the process proceeds to step S106. In step S106, it is determined whether all the dust correction data has been investigated. If all the data has been investigated, the process proceeds to step S107, and the difference count is stored in the memory 428 or the like so that it can be referred to. . If the survey is not completed, the process returns to step S103, and one next dust correction data is extracted.

このようにして生成した差異データは、差異のカウントが一定値以上になったらユーザに警告するなどの利用が考えられ、ゴミ補正データの鮮度の向上に寄与する。   The difference data generated in this way can be used to warn the user when the difference count exceeds a certain value, which contributes to improving the freshness of the dust correction data.

(他の実施形態)
また、各実施形態の目的は、次のような方法によっても達成される。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、本発明には次のような場合も含まれる。すなわち、プログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。
(Other embodiments)
The object of each embodiment is also achieved by the following method. That is, a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but the present invention includes the following cases. That is, based on the instruction of the program code, an operating system (OS) running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

さらに、次のような場合も本発明に含まれる。すなわち、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。   Furthermore, the following cases are also included in the present invention. That is, the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion card or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明した手順に対応するプログラムコードが格納されることになる
また、第一の実施例および第二の実施例では、ゴミ位置情報生成用の画像からゴミ位置情報を生成し、保存するが、ゴミ位置情報生成用の画像を保存しておき、PCなどでゴミ位置情報を抽出して利用することも可能なことは言うまでもない。
When the present invention is applied to the above storage medium, the storage medium stores program codes corresponding to the procedure described above. In the first and second embodiments, the garbage The dust position information is generated from the position information generation image and stored. Needless to say, the dust position information generation image can be stored and the dust position information can be extracted and used by a PC or the like. Yes.

さらに、ゴミ位置情報生成用の画像は、静止画として保存可能なことはさることながら、動画のフレームとして保存してもよいことは言うまでもない。   Furthermore, it goes without saying that the dust position information generation image may be stored as a moving image frame, as well as being stored as a still image.

本発明の第1の実施形態に係る撮像装置としてのレンズ交換式デジタル一眼レフカメラの回路構成を示すブロック図である。1 is a block diagram showing a circuit configuration of a lens interchangeable digital single-lens reflex camera as an imaging apparatus according to a first embodiment of the present invention. 第1の実施形態に係るデジタルカメラの外観斜視図である。1 is an external perspective view of a digital camera according to a first embodiment. 第1の実施形態に係るデジタルカメラの内部構造を示す垂直断面図である。It is a vertical sectional view showing the internal structure of the digital camera according to the first embodiment. 第1の実施形態に係るデジタルカメラにおけるゴミ検出処理を説明するフローチャートである。5 is a flowchart for explaining dust detection processing in the digital camera according to the first embodiment. 第1の実施形態に係るデジタルカメラにおけるライブビュー開始時の白飛び画像取得処理を説明するフローチャートである。It is a flowchart explaining the overexposure image acquisition process at the time of the live view start in the digital camera which concerns on 1st Embodiment. 第1の実施形態に係るデジタルカメラにおける補助ゴミデータからゴミ補正データと重なるデータを外す処理を説明するフローチャートである。5 is a flowchart for explaining processing for removing data overlapping dust correction data from auxiliary dust data in the digital camera according to the first embodiment. ゴミ補正データのデータ形式例を示す図である。It is a figure which shows the data format example of dust correction data. 図4のステップS27で行われるゴミ領域取得ルーチンの詳細を説明する図である。It is a figure explaining the detail of the dust area | region acquisition routine performed by step S27 of FIG. 図8のステップS62で行われるゴミ領域判定処理の処理単位を示す図である。It is a figure which shows the processing unit of the dust area | region determination process performed by step S62 of FIG. 図8のステップS63で行われるゴミ領域サイズ算出の概要を示す図である。It is a figure which shows the outline | summary of dust area size calculation performed by step S63 of FIG. 図4のステップS24で行われる撮像処理ルーチンの詳細を説明するフローチャートである。FIG. 5 is a flowchart illustrating details of an imaging process routine performed in step S <b> 24 of FIG. 4. FIG. 画像処理装置のシステム構成の概略を示した図である。1 is a diagram illustrating an outline of a system configuration of an image processing apparatus. 画像処理装置におけるGUIの例を示す図である。It is a figure which shows the example of GUI in an image processing apparatus. ゴミ除去処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of a dust removal process. 補間ルーチンの詳細を説明するフローチャートである。It is a flowchart explaining the detail of an interpolation routine. 第2の実施形態に係るデジタルカメラにおけるゴミ補正データの検証処理の例を説明するフローチャートである。It is a flowchart explaining the example of the verification process of the dust correction data in the digital camera which concerns on 2nd Embodiment.

Claims (4)

被写体像を光電変換する撮像素子と、
前記撮像素子から、画像信号を生成する撮像手段と、
前記撮像手段より得られる画像信号から、前記撮像手段の撮像画面内における異物の位置及び大きさの情報である異物情報を検出する異物検出手段と、
前記撮像素子を露出オーバーの状態に露光させて、前記撮像手段に白飛び画像を生成させ、該白飛び画像から前記異物情報の補助となる補助異物情報を検出する補助異物情報検出手段と、
を備えることを特徴とする撮像装置。
An image sensor that photoelectrically converts a subject image;
Imaging means for generating an image signal from the imaging element;
Foreign matter detection means for detecting foreign matter information, which is information on the position and size of the foreign matter in the imaging screen of the imaging means, from an image signal obtained from the imaging means;
Auxiliary foreign matter information detection means for exposing the imaging device to an overexposed state, causing the imaging means to generate a whiteout image, and detecting auxiliary foreign matter information to assist the foreign matter information from the whiteout image;
An imaging apparatus comprising:
前記補助異物情報は、前記異物検出手段によって検出された異物情報の検証に用いられることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the auxiliary foreign matter information is used for verification of foreign matter information detected by the foreign matter detection unit. 被写体像を光電変換する撮像素子と、該撮像素子から、画像信号を生成する撮像手段とを備える撮像装置を制御する方法であって、
前記撮像手段より得られる画像信号から、前記撮像手段の撮像画面内における異物の位置及び大きさの情報である異物情報を検出する異物検出工程と、
前記撮像素子を露出オーバーの状態に露光させて、前記撮像手段に白飛び画像を生成させ、該白飛び画像から前記異物情報の補助となる補助異物情報を検出する補助異物情報検出工程と、
を備えることを特徴とする撮像装置の制御方法。
A method of controlling an imaging device comprising: an imaging device that photoelectrically converts a subject image; and an imaging means that generates an image signal from the imaging device,
A foreign substance detection step of detecting foreign substance information, which is information on the position and size of the foreign substance in the imaging screen of the imaging means, from an image signal obtained from the imaging means;
An auxiliary foreign matter information detecting step of exposing the imaging device to an overexposed state, causing the imaging means to generate a whiteout image, and detecting auxiliary foreign matter information that assists the foreign matter information from the whiteout image;
An image pickup apparatus control method comprising:
請求項3に記載の制御方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the control method according to claim 3.
JP2008148321A 2008-06-05 2008-06-05 Imaging apparatus, control method thereof, and program Expired - Fee Related JP5094571B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008148321A JP5094571B2 (en) 2008-06-05 2008-06-05 Imaging apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008148321A JP5094571B2 (en) 2008-06-05 2008-06-05 Imaging apparatus, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2009296362A true JP2009296362A (en) 2009-12-17
JP5094571B2 JP5094571B2 (en) 2012-12-12

Family

ID=41544115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008148321A Expired - Fee Related JP5094571B2 (en) 2008-06-05 2008-06-05 Imaging apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP5094571B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004172820A (en) * 2002-11-19 2004-06-17 Minolta Co Ltd Imaging device
JP2004222231A (en) * 2002-12-27 2004-08-05 Nikon Corp Image processing apparatus and image processing program
JP2008118569A (en) * 2006-11-07 2008-05-22 Canon Inc Imaging apparatus, control method thereof and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004172820A (en) * 2002-11-19 2004-06-17 Minolta Co Ltd Imaging device
JP2004222231A (en) * 2002-12-27 2004-08-05 Nikon Corp Image processing apparatus and image processing program
JP2008118569A (en) * 2006-11-07 2008-05-22 Canon Inc Imaging apparatus, control method thereof and program

Also Published As

Publication number Publication date
JP5094571B2 (en) 2012-12-12

Similar Documents

Publication Publication Date Title
KR100815512B1 (en) Image capturing apparatus and control method thereof
JP4590355B2 (en) Image processing apparatus, image processing method, and program
JP4799462B2 (en) Image processing apparatus, control method thereof, program, storage medium, and imaging apparatus
US7991241B2 (en) Image processing apparatus, control method therefor, and program
KR100875940B1 (en) Imaging Device and Control Method
US7619666B2 (en) Image processing apparatus, control method therefor, and program correcting image data based on foreign substance information and inhibiting such correction
US7990419B2 (en) Image processing apparatus, method, and program storing a correction or modification log
US20080025650A1 (en) Image processing apparatus, control method therefor, and program
JP5400504B2 (en) Imaging apparatus, image processing apparatus, control method, and program
JP4960852B2 (en) Image processing apparatus, control method thereof, interchangeable lens single-lens reflex digital camera, and program
JP2010098698A (en) Imaging apparatus, control method thereof and program
JP5462560B2 (en) Image processing device
JP5094571B2 (en) Imaging apparatus, control method thereof, and program
JP4827778B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP2008244868A (en) Imaging apparatus, and control method, program and storage medium thereof
JP2012239079A (en) Photographing device
JP2009152696A (en) Imaging apparatus, control method thereof, program, and image processing apparatus
JP5573311B2 (en) camera
JP2010014981A (en) Imaging apparatus, its control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120918

R151 Written notification of patent or utility model registration

Ref document number: 5094571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees