JP4960852B2 - Image processing apparatus, control method thereof, interchangeable lens single-lens reflex digital camera, and program - Google Patents

Image processing apparatus, control method thereof, interchangeable lens single-lens reflex digital camera, and program Download PDF

Info

Publication number
JP4960852B2
JP4960852B2 JP2007327989A JP2007327989A JP4960852B2 JP 4960852 B2 JP4960852 B2 JP 4960852B2 JP 2007327989 A JP2007327989 A JP 2007327989A JP 2007327989 A JP2007327989 A JP 2007327989A JP 4960852 B2 JP4960852 B2 JP 4960852B2
Authority
JP
Japan
Prior art keywords
information
lens
image
foreign matter
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007327989A
Other languages
Japanese (ja)
Other versions
JP2009152804A (en
Inventor
拓矢 小谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007327989A priority Critical patent/JP4960852B2/en
Publication of JP2009152804A publication Critical patent/JP2009152804A/en
Application granted granted Critical
Publication of JP4960852B2 publication Critical patent/JP4960852B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Image Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Description

本発明は、CCDやCMOSセンサ等の撮像素子を用いた撮像装置によって撮影された撮影画像に表れる、光学ローパスフィルター等の表面に付着した異物に起因する影の影響を軽減する技術に関する。   The present invention relates to a technique for reducing the influence of a shadow caused by a foreign substance adhering to a surface such as an optical low-pass filter, which appears in a photographed image photographed by an imaging device using an imaging device such as a CCD or CMOS sensor.

近年、デジタルカメラやデジタルビデオカメラなどのように、CCD等の撮像素子を用いて画像信号を生成し、それをデータとして記録する撮像装置が数多く出回るようになってきている。デジタルカメラでは、従来記録媒体として使用していた感光フィルムが不要になり、これに代わって半導体メモリカードやハードディスク装置等のデータ記録媒体にデータ化された画像を記録する。これらのデータ記録媒体はフィルムと違って何度でも書き込み、消去が可能であるので、消耗品にかかる経費が少なくて済み、大変便利である。   2. Description of the Related Art In recent years, many image pickup apparatuses that generate image signals using an image pickup device such as a CCD and record the data as data, such as digital cameras and digital video cameras, have come into circulation. In a digital camera, a photosensitive film that has been used as a conventional recording medium is no longer necessary, and instead of this, a data image is recorded on a data recording medium such as a semiconductor memory card or a hard disk device. Since these data recording media can be written and erased any number of times unlike films, the cost for consumables can be reduced, which is very convenient.

通常、デジタルカメラには撮像画像を随時表示可能なLCD(液晶表示器)モニタ装置と、着脱可能な大容量記憶装置が搭載されている。   Usually, a digital camera is equipped with an LCD (Liquid Crystal Display) monitor device capable of displaying captured images at any time and a detachable mass storage device.

これら二つの装置を備えたデジタルカメラを利用すると、従来消耗品として使用してきた記録媒体であるフィルムが不要になるばかりでなく、撮像した画像をLCDモニタ装置に表示してその場で直ちに確認できる。したがって、満足の得られない画像データはその場で消去したり、必要に応じて再撮影したりすることが可能となり、フィルムを用いる銀塩カメラと比較すると、写真撮影の効率が飛躍的に高まったと言える。   Using a digital camera equipped with these two devices not only eliminates the need for a film as a recording medium that has been used as a consumable item in the past, but also allows the captured image to be displayed on the LCD monitor device and immediately confirmed on the spot. . Therefore, unsatisfactory image data can be erased on the spot or re-photographed as needed, and the efficiency of photography is dramatically increased compared to film cameras using film. I can say.

このような利便性と撮像素子の多画素化などの技術革新により、デジタルカメラの利用範囲は拡大しており、近年では一眼レフ方式などレンズ交換が可能なデジタルカメラも多くなってきている。   Due to such convenience and technological innovations such as an increase in the number of pixels in the image sensor, the range of use of digital cameras has been expanded. In recent years, there are many digital cameras capable of exchanging lenses, such as single-lens reflex cameras.

ところが、上記のような一眼レフ方式のデジタルカメラでは、撮像素子に固定された撮像素子保護ガラス、光学フィルター等の光学系(以下、まとめて撮像素子光学系部品)の表面上にゴミ、ほこりなどの異物(以下、単にゴミ)が付着する場合がある。このように撮像素子光学系部品にゴミが付着すると、そのゴミによって光が遮られ、その部分が撮影されないなど、撮影した画像の品質が低下するという問題があった。   However, in the single-lens reflex digital camera as described above, dust, dust, etc. on the surface of an optical system (hereinafter collectively referred to as an image sensor optical system component) such as an image sensor protective glass and an optical filter fixed to the image sensor. Of foreign matter (hereinafter simply referred to as dust) may adhere. When dust adheres to the image sensor optical system component in this way, there is a problem that the quality of the photographed image is deteriorated, for example, light is blocked by the dust and the portion is not photographed.

デジタルカメラに限らず銀塩フィルムを用いるカメラにおいても、フィルム上にゴミが存在すると写りこんでしまう問題はあったが、フィルムの場合は1コマごとにフィルムが移動するため、全てのコマに同様のゴミが写りこむことは大変稀である。   Not only digital cameras but also cameras using silver halide film have a problem of being captured if there is dust on the film, but in the case of film, the film moves from frame to frame, so it is the same for all frames It is very rare for trash to appear.

しかし、デジタルカメラの撮像素子は移動せず、1つの撮像素子で撮影を行うため、撮像素子光学系部品に一度ゴミが付着すると、多くのコマ(撮影画像)に同様のゴミが写りこんでしまう。特にレンズ交換式のデジタルカメラにおいては、レンズ交換時にカメラ内にゴミが入り込みやすいという問題がある。   However, since the image pickup device of the digital camera does not move and the image is taken with one image pickup device, once dust adheres to the image pickup device optical system parts, the same dust appears in many frames (photographed images). . Particularly in an interchangeable lens digital camera, there is a problem that dust easily enters the camera when the lens is replaced.

したがって、撮影者は撮像素子光学系部品へのゴミの付着に常時気を使わねばならず、ゴミのチェックや清掃に多くの労力を費やしていた。特に撮像素子は、カメラ内部の比較的奥まったところに配置されているため、清掃やゴミの確認は容易ではない。   Therefore, the photographer must always pay attention to the adhesion of dust to the image sensor optical system parts, and has spent a lot of labor on checking and cleaning the dust. In particular, since the image sensor is disposed at a relatively deep location inside the camera, it is not easy to clean or check for dust.

さらにレンズ交換式のデジタルカメラでは、レンズ着脱によるゴミの侵入が発生するばかりでなく、撮像素子の直前に配置されたフォーカルプレーンシャッターの駆動による削りかす等により、撮像素子光学系部品上にゴミが付着しやすい。   Furthermore, in an interchangeable lens digital camera, not only does dust intrude due to the attachment / detachment of the lens, but also dust on the image sensor optical system components due to scraping by driving a focal plane shutter placed immediately before the image sensor. Easy to adhere.

そこで、レンズの絞りを絞った状態で白い壁などを撮影し、撮像素子上のゴミだけが写った画像を予め用意して通常撮影画像と組み合わせて使用することで、ゴミを目立たなくする方法が知られている(特許文献1参照)。しかし、この方法では、ゴミ検出用に撮影した画像と、それに関連付ける本撮影画像群との対応付けを常に意識しなくてはならず、煩わしい。そこで、白い壁などを撮影してゴミの位置を取得した後これをデジタルカメラ上で保持しておき、通常撮影時の画像データにゴミの位置や大きさのリスト(ダスト情報)を添付することが考えられる。例えば別途用意された画像処理装置を用い、添付されたゴミの位置から撮影データ上のゴミ位置を解析し、解析された領域を周囲の画素で補間処理することにより目立たなくすることができる。
特開2004-222231号公報
Therefore, there is a method to make dust inconspicuous by taking a picture of a white wall etc. with the lens aperture closed and preparing an image showing only dust on the image sensor in combination with a normal shot image. It is known (see Patent Document 1). However, with this method, it is necessary to always be aware of the association between the image captured for dust detection and the actual captured image group associated therewith, which is cumbersome. Therefore, after capturing the position of dust by shooting a white wall etc., hold it on the digital camera, and attach a list of dust positions and sizes (dust information) to the image data during normal shooting Can be considered. For example, by using a separately prepared image processing apparatus, the dust position on the photographed data is analyzed from the attached dust position, and the analyzed area is interpolated with surrounding pixels, thereby making it less noticeable.
JP 2004-222231 A

一方、撮影時の撮影レンズの情報などを利用して、レンズの特性、特に歪曲収差や倍率色収差などを補正するアプリケーションが登場している。このようなレンズの収差の補正処理を行うことで、より均質で高画質な画像を得ることができる。しかしながら、このような処理は画像を変形させるため、ダスト情報に記録されている座標と実際のゴミ像の位置がずれてしまい、ゴミ除去処理を正しく実行できなくなってしまうという問題がある。   On the other hand, applications for correcting lens characteristics, particularly distortion aberration, lateral chromatic aberration, and the like have appeared by using information on a photographing lens at the time of photographing. By performing such lens aberration correction processing, a more uniform and high-quality image can be obtained. However, since such processing deforms the image, there is a problem that the coordinates recorded in the dust information and the actual position of the dust image are shifted, and the dust removal processing cannot be executed correctly.

このような問題を回避するために、レンズ特性に応じた収差補正処理を適用する前にゴミの除去処理を実行することが考えられる。しかし、カメラとアプリケーションの役割分担やアプリケーション内での画像処理順序の制約により、そのような処理順序にできない場合もある。   In order to avoid such a problem, it is conceivable to perform dust removal processing before applying aberration correction processing according to lens characteristics. However, such a processing order may not be possible due to the division of roles between the camera and the application and restrictions on the image processing order within the application.

例えば、撮影した画像に対してカメラ内でレンズの収差の補正処理を行い、カメラ外部の画像処理装置でゴミ除去処理を実行する場合、ゴミ除去処理はレンズの収差の補正処理よりも後に行われることになる。   For example, when a lens aberration correction process is performed on a photographed image in the camera and a dust removal process is executed by an image processing apparatus outside the camera, the dust removal process is performed after the lens aberration correction process. It will be.

したがって、本発明は上述した課題に鑑みてなされたものであり、その目的は、撮影画像に対して先にレンズの収差補正が行なわれた場合でも、後のゴミ除去処理を精度よく行えるようにすることである。   Therefore, the present invention has been made in view of the above-described problems, and an object of the present invention is to perform subsequent dust removal processing with high accuracy even when lens aberration correction is performed on a captured image first. It is to be.

上述した課題を解決し、目的を達成するために、本発明に係わる画像処理装置は、撮像手段から得られる異物検出用の画像信号に基づいて抽出された、撮像画面内における異物の位置情報と、および前記画像信号を取得する際に用いた第1の撮影レンズのレンズ情報とを異物情報として取得する異物情報取得手段と、被写体撮影時の第2の撮影レンズのレンズ情報を取得するレンズ情報取得手段と、少なくとも前記第2の撮影レンズの収差情報を含む収差情報を記憶する記憶手段と、前記異物の位置情報を、前記第1の撮影レンズのレンズ情報と前記第2の撮影レンズのレンズ情報に基づいて、前記第2の撮影レンズで撮影したときの撮像画面内における異物の位置情報に変換する第1の変換手段と、前記第1の変換手段で変換された前記異物の位置情報を更に、前記第2の撮影レンズのレンズ情報と前記収差情報に基づいて、前記被写体撮影時に撮影された被写体画像が画像処理により収差補正された後の撮像画面内における異物の位置情報に変換する第2の変換手段と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an image processing apparatus according to the present invention includes position information of a foreign object in an imaging screen extracted based on an image signal for foreign object detection obtained from an imaging unit. , And foreign object information acquisition means for acquiring lens information of the first photographing lens used when acquiring the image signal as foreign object information, and lens information for acquiring lens information of the second photographing lens at the time of photographing the subject Acquisition means; storage means for storing aberration information including at least aberration information of the second photographing lens; position information of the foreign matter; lens information of the first photographing lens; and lenses of the second photographing lens. Based on the information, the first conversion means for converting the position information of the foreign matter in the imaging screen when the second photographing lens is photographed, and the difference converted by the first conversion means. The position information of the foreign matter in the imaging screen after the subject image photographed at the time of photographing the subject is corrected by the image processing based on the lens information of the second photographing lens and the aberration information. And a second conversion means for converting to a second conversion means.

また、本発明に係わる別の画像処理装置は、撮像手段から得られる異物検出用の画像信号に基づいて抽出された、撮像画面内における異物の位置および大きさ情報と、および前記画像信号を取得する際に用いた第1の撮影レンズのレンズ情報とを異物情報として取得する異物情報取得手段と、被写体撮影時の第2の撮影レンズのレンズ情報を取得するレンズ情報取得手段と、少なくとも前記第2の撮影レンズの収差情報を含む収差情報を記憶する記憶手段と、前記異物の位置および大きさ情報を、前記第1の撮影レンズのレンズ情報と前記第2の撮影レンズのレンズ情報に基づいて、前記第2の撮影レンズで撮影したときの撮像画面内における異物の位置および大きさ情報に変換する第1の変換手段と、前記第1の変換手段で変換された前記異物の位置および大きさ情報を更に、前記第2の撮影レンズのレンズ情報と前記収差情報に基づいて、前記被写体撮影時に撮影された被写体画像が画像処理により収差補正された後の撮像画面内における異物の位置および大きさ情報に変換する第2の変換手段と、を備えることを特徴とする。   Further, another image processing apparatus according to the present invention acquires the position and size information of the foreign matter in the imaging screen extracted based on the image signal for foreign matter detection obtained from the imaging means, and the image signal. Foreign matter information acquisition means for acquiring the lens information of the first photographing lens used when performing the processing as foreign matter information, lens information acquisition means for acquiring lens information of the second photographing lens at the time of subject photographing, and at least the first Storage means for storing aberration information including aberration information of the second photographing lens, and position and size information of the foreign matter based on the lens information of the first photographing lens and the lens information of the second photographing lens. The first conversion means for converting the position and size information of the foreign matter in the imaging screen when the second photographing lens is used for photographing, and the first conversion means for converting the information. The object position and size information is further displayed in the imaging screen after the subject image photographed at the time of photographing the subject is subjected to aberration correction by image processing based on the lens information and the aberration information of the second photographing lens. And a second conversion means for converting into the position and size information of the foreign matter.

また、本発明に関わるレンズ交換式一眼レフデジタルカメラは、上記各手段に加え、異物検出モードにおいて前記異物検出用の画像信号を取得し、当該画像信号から撮像画面内における異物の位置情報を抽出する抽出手段を備えることを特徴とする。   In addition to the above means, the interchangeable lens single-lens reflex digital camera according to the present invention acquires the image signal for detecting the foreign material in the foreign material detection mode, and extracts the position information of the foreign material in the imaging screen from the image signal. It has the extraction means to perform.

また、本発明に関わる画像処理装置の制御方法は、撮像手段から得られる異物検出用の画像信号に基づいて抽出された、撮像画面内における異物の位置情報と、および前記画像信号を取得する際に用いた第1の撮影レンズのレンズ情報とを異物情報として取得する異物情報取得工程と、被写体撮影時の第2の撮影レンズのレンズ情報を取得するレンズ情報取得工程と、前記異物の位置情報を、前記第1の撮影レンズのレンズ情報と前記第2の撮影レンズのレンズ情報に基づいて、前記第2の撮影レンズで撮影したときの撮像画面内における異物の位置情報に変換する第1の変換工程と、前記第1の変換工程で変換された前記異物の位置情報を更に、前記第2の撮影レンズのレンズ情報と、少なくとも前記第2の撮影レンズの収差情報を含む収差情報を記憶する記憶手段に記憶された前記収差情報に基づいて、前記被写体撮影時に撮影された被写体画像が画像処理により収差補正された後の撮像画面内における異物の位置情報に変換する第2の変換工程と、を備えることを特徴とする。   Further, the control method of the image processing apparatus according to the present invention obtains the position information of the foreign matter in the imaging screen extracted based on the image signal for foreign matter detection obtained from the imaging means, and the image signal. Foreign matter information acquisition step for acquiring lens information of the first photographing lens used in the process as foreign matter information, lens information acquisition step for obtaining lens information of the second photographing lens at the time of subject photographing, and positional information of the foreign matter Is converted into position information of the foreign matter in the imaging screen when the second photographing lens is photographed based on the lens information of the first photographing lens and the lens information of the second photographing lens. The position information of the foreign matter converted in the conversion step and the first conversion step further includes lens information of the second photographing lens and at least aberration information of the second photographing lens. Based on the aberration information stored in the storage means for storing information, a second subject image is converted into foreign object position information in the imaging screen after aberration correction is performed by image processing on the subject image captured during the subject photographing. A conversion step.

また、本発明に関わる別の画像処理装置の制御方法は、撮像手段から得られる異物検出用の画像信号に基づいて抽出された、撮像画面内における異物の位置および大きさ情報と、および前記画像信号を取得する際に用いた第1の撮影レンズのレンズ情報とを異物情報として取得する異物情報取得工程と、被写体撮影時の第2の撮影レンズのレンズ情報を取得するレンズ情報取得工程と、前記異物の位置および大きさ情報を、前記第1の撮影レンズのレンズ情報と前記第2の撮影レンズのレンズ情報に基づいて、前記第2の撮影レンズで撮影したときの撮像画面内における異物の位置および大きさ情報に変換する第1の変換工程と、前記第1の変換工程で変換された前記異物の位置および大きさ情報を更に、前記第2の撮影レンズのレンズ情報と、少なくとも前記第2の撮影レンズの収差情報を含む収差情報を記憶する記憶手段に記憶された前記収差情報に基づいて、前記被写体撮影時に撮影された被写体画像が画像処理により収差補正された後の撮像画面内における異物の位置および大きさ情報に変換する第2の変換工程と、を備えることを特徴とする。   In addition, another image processing apparatus control method according to the present invention includes the position and size information of the foreign matter in the imaging screen extracted based on the image signal for foreign matter detection obtained from the imaging means, and the image. A foreign matter information acquisition step of acquiring lens information of the first photographing lens used when acquiring the signal as foreign matter information, a lens information acquisition step of acquiring lens information of the second photographing lens at the time of subject photographing, Based on the lens information of the first photographing lens and the lens information of the second photographing lens, the position and size information of the foreign matter is determined based on the second photographing lens. A first conversion step for converting the information into position and size information, and the position and size information of the foreign matter converted in the first conversion step, and further lens information of the second photographing lens. After the subject image photographed at the time of photographing the subject is corrected for aberration by image processing based on the aberration information stored in the storage means for storing aberration information including at least aberration information of the second photographing lens And a second conversion step of converting into foreign object position and size information in the imaging screen.

本発明によれば、撮影画像に対して先にレンズの収差補正が行なわれた場合でも、後のゴミ除去処理を精度よく行うことが可能となる。   According to the present invention, even when lens aberration correction is performed on a captured image first, it is possible to perform subsequent dust removal processing with high accuracy.

以下、本発明の好適な実施形態について、図面を参照して詳細に説明する。
(撮像装置の構成)
図1は、本発明の実施形態に係る撮像装置としてのレンズ交換式一眼レフデジタルカメラ(以下単にカメラ)の回路構成を示すブロック図である。
DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
(Configuration of imaging device)
FIG. 1 is a block diagram illustrating a circuit configuration of a lens interchangeable single-lens reflex digital camera (hereinafter simply referred to as a camera) as an imaging apparatus according to an embodiment of the present invention.

図1において、マイクロコンピュータ402は、被写体像を光電変換する撮像素子(本実施形態ではCCD)418が出力する画像データの処理や、LCDモニタ装置417の表示制御をはじめ、カメラ全体の動作を制御する。   In FIG. 1, a microcomputer 402 controls the operation of the entire camera, including processing of image data output from an image sensor (CCD in this embodiment) 418 that photoelectrically converts a subject image and display control of an LCD monitor device 417. To do.

スイッチ(SW1)405は、レリーズボタン114(図2参照)の半押し状態でオンになり、スイッチ(SW1)405がオンすると本実施形態のカメラは撮影準備状態になる。スイッチ(SW2)406は、レリーズボタン114が最後まで押された状態(全押し状態)でオンし、スイッチ(SW2)406がオンすると本実施形態のカメラは撮影動作を開始する。   The switch (SW1) 405 is turned on when the release button 114 (see FIG. 2) is half-pressed. When the switch (SW1) 405 is turned on, the camera according to the present embodiment is in a shooting preparation state. The switch (SW2) 406 is turned on when the release button 114 is pressed to the end (fully pressed state), and when the switch (SW2) 406 is turned on, the camera of this embodiment starts a photographing operation.

レンズ制御回路407は、撮影レンズ200(図3参照)との通信およびAF(オートフォーカス)時の撮影レンズ200の駆動制御や絞り羽根の駆動制御を行う。   The lens control circuit 407 performs communication control with the photographic lens 200 (see FIG. 3) and drive control of the photographic lens 200 and drive control of the diaphragm blades during AF (autofocus).

また図1において、外部表示制御回路408は、外部表示装置(OLC)409や、ファインダ内の表示装置(不図示)の制御を行う。スイッチセンス回路410は、カメラに設けられた電子ダイヤル411を含む多数のスイッチ類の信号をマイクロコンピュータ402に伝える。   In FIG. 1, an external display control circuit 408 controls an external display device (OLC) 409 and a display device (not shown) in the viewfinder. The switch sense circuit 410 transmits signals of a large number of switches including the electronic dial 411 provided in the camera to the microcomputer 402.

ストロボ発光調光制御回路412は、X接点412aを介して接地されており、外部ストロボの制御を行う。測距回路413は、AFのための被写体に対するデフォーカス量を検出する。測光回路414は、被写体の輝度を測定する。   The strobe light emission dimming control circuit 412 is grounded via the X contact 412a and controls the external strobe. The distance measuring circuit 413 detects the defocus amount with respect to the subject for AF. The photometry circuit 414 measures the luminance of the subject.

シャッター制御回路415はシャッターの制御を行い、撮像素子に対して適正な露光を行う。LCDモニタ装置417とバックライト照明装置416は、画像表示装置を構成している。記録装置419は例えばカメラ本体に着脱可能なハードディスクドライブや半導体メモリカード等である。   A shutter control circuit 415 controls the shutter and performs appropriate exposure on the image sensor. The LCD monitor device 417 and the backlight illumination device 416 constitute an image display device. The recording device 419 is, for example, a hard disk drive or a semiconductor memory card that can be attached to and detached from the camera body.

また、マイクロコンピュータ402には、A/Dコンバータ423、画像バッファメモリ424、DSPなどからなる画像処理回路425、撮像素子内の所定画素そのものに欠陥があることを記憶している画素欠陥位置メモリ426が接続されている。また、ゴミによる画像不良を起こしている撮像素子内の画素位置を記憶しているゴミ位置メモリ427も接続されている。なお、画素欠陥位置メモリ426およびゴミ位置メモリ427は不揮発性メモリを用いることが好ましい。また、画素欠陥位置メモリ426とゴミ位置メモリ427は、同一メモリ空間の異なるアドレスを用いて記憶しても良い。   Further, the microcomputer 402 includes an A / D converter 423, an image buffer memory 424, an image processing circuit 425 including a DSP, and a pixel defect position memory 426 that stores that a predetermined pixel in the image sensor itself is defective. Is connected. Also connected is a dust position memory 427 that stores the pixel position in the image pickup device causing the image defect due to dust. Note that the pixel defect position memory 426 and the dust position memory 427 are preferably non-volatile memories. Further, the pixel defect position memory 426 and the dust position memory 427 may be stored using different addresses in the same memory space.

また、428は、マイクロコンピュータ402が実行するプログラム等を記憶する不揮発性のメモリである。   Reference numeral 428 denotes a nonvolatile memory that stores programs executed by the microcomputer 402.

レンズ特性データ供給部430は、図示しないメモリに、各種の撮影レンズの特性に対応して収差を補正するための補正係数を記憶しており、この補正係数をマイクロコンピュータ402に供給する。本実施形態における撮影レンズに応じた収差補正処理では、補正関数を予め定めておき、補正関数に上記のレンズ特性データ供給部430から供給される補正係数を適用することで補正量を算出し、補正量にしたがって画像を変形する。撮影レンズの収差補正処理の詳細については後述する。なお、補正係数の記憶先はレンズ特性データ供給部430が有するメモリに限定されるものではなく、記録装置419に格納されても良い。撮影レンズの収差補正処理を適用するかどうかは、後述するメニュー画面で選択することができる。   The lens characteristic data supply unit 430 stores a correction coefficient for correcting aberration corresponding to the characteristics of various photographing lenses in a memory (not shown), and supplies the correction coefficient to the microcomputer 402. In the aberration correction processing according to the photographic lens in the present embodiment, a correction function is determined in advance, and the correction amount is calculated by applying the correction coefficient supplied from the lens characteristic data supply unit 430 to the correction function. The image is deformed according to the correction amount. Details of the aberration correction processing of the photographing lens will be described later. The storage destination of the correction coefficient is not limited to the memory included in the lens characteristic data supply unit 430 and may be stored in the recording device 419. Whether or not to apply aberration correction processing of the taking lens can be selected on a menu screen described later.

図2は、本実施形態に係るカメラの外観を示す斜視図、図3は図2の垂直断面図である。   FIG. 2 is a perspective view showing the appearance of the camera according to the present embodiment, and FIG. 3 is a vertical sectional view of FIG.

図2において、カメラ本体100の上部には、ファインダ観察用の接眼窓111、AE(自動露出)ロックボタン112、AFの測距点選択ボタン113、撮影操作をするためのレリーズボタン114が設けられている。また、電子ダイヤル411、撮影モード選択ダイヤル117、および外部表示装置409も設けられている。電子ダイヤル411は、他の操作ボタンと併用してカメラに数値を入力したり、撮影モードを切り換えたりするための多機能信号入力装置である。また、外部表示装置409は、液晶表示装置から構成され、シャッタースピード、絞り、撮影モードなどの撮影条件や、他の情報を表示する。
また、カメラ本体100の背面には、撮影された画像や各種設定画面などを表示するLCDモニタ装置417、LCDモニタ装置417をオン/オフするためのモニタスイッチ121、十字配置スイッチ116、およびメニューボタン124が設けられている。
In FIG. 2, an eyepiece window 111 for finder observation, an AE (automatic exposure) lock button 112, an AF distance measuring point selection button 113, and a release button 114 for performing a photographing operation are provided on the upper part of the camera body 100. ing. An electronic dial 411, a shooting mode selection dial 117, and an external display device 409 are also provided. The electronic dial 411 is a multi-function signal input device that is used in combination with other operation buttons to input numerical values to the camera and to switch the shooting mode. The external display device 409 includes a liquid crystal display device, and displays shooting conditions such as shutter speed, aperture, and shooting mode, and other information.
Also, on the back of the camera main body 100, an LCD monitor device 417 for displaying captured images and various setting screens, a monitor switch 121 for turning on / off the LCD monitor device 417, a cross switch 116, and a menu button 124 is provided.

十字配置スイッチ116は、上下左右に配された4つのボタンと、中央に配されたSETボタンを有し、ユーザがLCDモニタ装置417に表示されるメニュー項目などの選択や実行をカメラに指示するために用いられる。   The cross placement switch 116 has four buttons arranged vertically and horizontally and a SET button arranged in the center. The user instructs the camera to select and execute menu items displayed on the LCD monitor device 417. Used for.

メニューボタン124は、LCDモニタ装置417にカメラの各種設定を行うためのメニュー画面を表示させるためのボタンである。例えば、撮影モードを選択、設定する時は、このメニューボタン124を押した後、十字配置スイッチ116の上下左右のボタンを操作して希望のモードを選択し、希望のモードが選択された状態でSETボタンを押すことにより設定が完了する。このメニューボタン124と十字配置スイッチ116は、後述するゴミ検出モードの設定や、ゴミ検出モードの際の表示モード設定および識別マークの設定にも使用される。   The menu button 124 is a button for causing the LCD monitor device 417 to display a menu screen for performing various camera settings. For example, when selecting and setting the shooting mode, after pressing the menu button 124, the user operates the up / down / left / right buttons of the cross switch 116 to select the desired mode, and the desired mode is selected. Setting is completed by pressing the SET button. The menu button 124 and the cross-shaped switch 116 are also used for setting a dust detection mode, which will be described later, and for setting a display mode and an identification mark in the dust detection mode.

本実施形態のLCDモニタ装置417は透過型であるため、LCDモニタ装置の駆動だけでは画像を視認することはできず、必ずその裏面には図3に示すようにバックライト照明装置416が必要である。このようにLCDモニタ装置417とバックライト照明装置416は画像表示装置を構成している。   Since the LCD monitor device 417 of the present embodiment is a transmissive type, an image cannot be visually recognized only by driving the LCD monitor device, and a backlight illumination device 416 is necessarily provided on the back surface thereof as shown in FIG. is there. As described above, the LCD monitor device 417 and the backlight illumination device 416 constitute an image display device.

図3に示すように、撮像光学系である撮影レンズ200はカメラ本体100に対してレンズマウント202を介して着脱可能である。図3において201は撮影光軸、203はクイックリターンミラーである。   As shown in FIG. 3, the taking lens 200 that is an imaging optical system can be attached to and detached from the camera body 100 via a lens mount 202. In FIG. 3, 201 denotes a photographing optical axis, and 203 denotes a quick return mirror.

クイックリターンミラー203は撮影光路中に配置され、撮影レンズ200からの被写体光をファインダ光学系に導く位置(図3に示す位置、斜設位置と呼ぶ)と撮影光路外に退避する位置(退避位置と呼ぶ)との間で移動可能である。   The quick return mirror 203 is disposed in the photographing optical path, and a position for guiding the subject light from the photographing lens 200 to the finder optical system (referred to as a position shown in FIG. 3, an oblique position) and a position for retracting outside the photographing optical path (retraction position). Is called).

図3において、ピント板204上にはクイックリターンミラー203からファインダ光学系に導かれる被写体光が結像される。205はファインダの視認性を向上させるためのコンデンサレンズ、206はペンタゴナルダハプリズムであり、ピント板204およびコンデンサレンズ205を通った被写体光をファインダ観察用の接眼レンズ208および測光センサ207に導く。   In FIG. 3, the subject light guided from the quick return mirror 203 to the finder optical system is imaged on the focus plate 204. Reference numeral 205 denotes a condenser lens for improving the visibility of the finder, and 206 denotes a pentagonal roof prism.

209、210はそれぞれシャッターを構成する後幕と先幕で、これら後幕209、先幕210の開放によって後方に配置されている固体撮像素子である撮像素子418が必要時間だけ露光される。撮像素子によって画素毎の電気信号に変換された撮影画像は、A/Dコンバータ423や画像処理回路425などによって処理され、画像データとして記録装置419に記録される。なお、撮像素子418の前方には光学ローパスフィルター等の光学素子418aが配置されており、この光学素子418aの表面に付着したゴミ等の異物が撮像素子418の撮像画面内に写り込むことになる。   Reference numerals 209 and 210 respectively denote a rear curtain and a front curtain that constitute a shutter, and an image sensor 418 that is a solid-state image sensor disposed behind the rear curtain 209 and the front curtain 210 is exposed for a necessary time. A captured image converted into an electrical signal for each pixel by the image sensor is processed by the A / D converter 423, the image processing circuit 425, and the like, and recorded in the recording device 419 as image data. An optical element 418a such as an optical low-pass filter is disposed in front of the image sensor 418, and foreign matters such as dust adhering to the surface of the optical element 418a are reflected in the imaging screen of the image sensor 418. .

撮像素子418はプリント基板211に保持されている。このプリント基板211の後方には、もう一枚のプリント基板である表示基板215が配置されている。この表示基板215の反対側の面にLCDモニタ装置417およびバックライト照明装置416が配置されている。   The image sensor 418 is held on the printed circuit board 211. Behind this printed board 211, a display board 215, which is another printed board, is arranged. An LCD monitor device 417 and a backlight illumination device 416 are disposed on the opposite surface of the display substrate 215.

419は画像データを記録する記録装置、217は電池(携帯用電源)である。この記録装置419および電池217は、カメラ本体に対して着脱可能である。   Reference numeral 419 denotes a recording device for recording image data, and 217 denotes a battery (portable power supply). The recording device 419 and the battery 217 are detachable from the camera body.

(レンズ収差補正ルーチン)
本実施例におけるレンズ収差補正処理の一例として、歪曲収差補正処理について説明する。
(Lens aberration correction routine)
A distortion aberration correction process will be described as an example of the lens aberration correction process in the present embodiment.

レンズ収差補正処理を行うためには、レンズを識別する識別情報、ズーム位置を特定するための撮影時焦点距離情報、絞り値であるF値などの撮影時光学情報が必要である。本実施例では、これらの情報を被写体撮影時に撮影画像データのヘッダ情報であるExif情報のMakerNoteタグに格納する。このように格納することで、撮影画像と撮影時光学情報を一対一に管理することが可能である。また、さらに補正精度を上げるために、上記の情報に加えて被写体距離情報など有用な情報を格納しても良い。   In order to perform the lens aberration correction process, identification information for identifying a lens, focal length information for photographing for specifying a zoom position, and optical information for photographing such as an F value as an aperture value are necessary. In the present embodiment, these pieces of information are stored in a MakerNote tag of Exif information, which is header information of photographed image data at the time of subject photographing. By storing in this way, it is possible to manage the captured image and the optical information at the time of shooting one-on-one. In order to further improve the correction accuracy, useful information such as subject distance information may be stored in addition to the above information.

図4は、歪曲収差補正前の像高と補正後の像高の関係を示す図である。ここで像高とは、画像中心から画素(i,j)までの距離であるものとする。図示するように、歪曲収差補正前の像高から歪曲収差補正後の像高への変換を順変換、歪曲収差補正後の像高から歪曲収差補正前の像高への変換を逆変換とする。図中、レンズ特性データが、撮影時の焦点距離情報やF値などの撮影時光学情報によって定まる曲線である。歪曲収差補正処理は、歪曲収差補正前の像高と歪曲収差補正後の像高対応表である歪曲収差補正ルックアップテーブルを使って行う。従って、歪曲収差補正ルックアップテーブルは様々な撮影時光学情報に対応して用意されており、これらはレンズ特性データ供給部430に格納されている。   FIG. 4 is a diagram showing the relationship between the image height before correction of distortion and the image height after correction. Here, the image height is a distance from the center of the image to the pixel (i, j). As shown in the figure, the conversion from the image height before distortion aberration correction to the image height after distortion aberration correction is forward converted, and the conversion from image height after distortion aberration correction to image height before distortion aberration correction is inversely converted. . In the figure, the lens characteristic data is a curve determined by optical information at the time of shooting such as focal length information at the time of shooting and F value. The distortion aberration correction process is performed using a distortion aberration correction lookup table that is a table of correspondence between the image height before distortion aberration correction and the image height after distortion aberration correction. Accordingly, the distortion correction lookup table is prepared corresponding to various optical information at the time of shooting, and these are stored in the lens characteristic data supply unit 430.

通常、画素の変換を伴う画像処理は一般的に、逆変換によって画像処理を行う。つまり、変換後の画素を基準に、逆変換テーブルを用いて変換前の画素を求め、その変換前の画素における画像データ(画素値)を変換後の画素における画像データ(画素値)とする、置き換え処理である。このように逆変換による画像処理が望ましいのは、デジタル画像であるビットマップの場合、処理後の画素に処理前の画素が対応するとは限らないためである。   In general, image processing involving pixel conversion is generally performed by inverse conversion. That is, the pixel before conversion is obtained using the inverse conversion table with the converted pixel as a reference, and the image data (pixel value) in the pixel before the conversion is set as image data (pixel value) in the pixel after conversion. It is a replacement process. Image processing by inverse transformation is desirable in this way because in the case of a bitmap that is a digital image, the pixel before processing does not necessarily correspond to the pixel after processing.

図5は、本実施例における歪曲収差補正処理の流れを示すフローチャートである。   FIG. 5 is a flowchart showing the flow of distortion correction processing in this embodiment.

ステップS1801で、処理対象画像のExif情報から撮影時光学情報(収差情報を含む)を取得し(レンズ情報取得)、これに対応する歪曲収差補正ルックアップテーブルをレンズ特性データ供給部430から取得する。   In step S1801, optical information (including aberration information) is acquired from the Exif information of the processing target image (lens information acquisition), and a distortion aberration correction lookup table corresponding to the information is acquired from the lens characteristic data supply unit 430. .

次に、ステップS1802で、処理対象画像のExif情報から画素ピッチを取得する。画素ピッチとは隣り合う画素と画素のミリ単位で表される距離のことである。   In step S1802, the pixel pitch is acquired from the Exif information of the processing target image. The pixel pitch is a distance expressed between adjacent pixels in millimeters.

ステップS1803では、歪曲収差補正後の画像である出力画像の画像サイズを求める。出力画像の画像サイズの算出方法については後述する。   In step S1803, an image size of an output image that is an image after distortion correction is obtained. A method for calculating the image size of the output image will be described later.

次に、ステップS1804で、ステップS1803で求めた画像サイズ(幅fwピクセル、高さfhピクセル)を用いて、次式によりルックアップテーブルサイズfsを算出する。fsは、出力画像の中心から頂点までのピクセル単位での距離である。   Next, in step S1804, using the image size (width fw pixels, height fh pixels) obtained in step S1803, the lookup table size fs is calculated by the following equation. fs is the distance in pixels from the center of the output image to the vertex.

fs=√(((fw/2)*(fw/2))+((fh/2)*(fh/2)))
ステップS1805では、ステップS1801で得た歪曲収差補正ルックアップテーブルをスプライン補間して、ステップS1804で求めたルックアップテーブルサイズfsに応じた歪曲収差補正ルックアップテーブルに変換する。ここで、歪曲収差補正ルックアップテーブルの入力値は出力画像(歪曲収差補正後の画像)の中心からのピクセル単位の距離であり、出力値は入力画像(歪曲収差補正前の画像)の中心からのピクセル単位の距離である。このとき、ピクセル単位の距離をミリ単位の距離に変換するためには、ステップS1802で求めた画素ピッチを用いる。
fs = √ (((fw / 2) * (fw / 2)) + ((fh / 2) * (fh / 2)))
In step S1805, the distortion correction lookup table obtained in step S1801 is spline interpolated and converted into a distortion aberration correction lookup table corresponding to the lookup table size fs obtained in step S1804. Here, the input value of the distortion aberration correction lookup table is the distance in pixels from the center of the output image (image after distortion correction), and the output value is from the center of the input image (image before distortion aberration correction). The distance in pixels. At this time, in order to convert the distance in pixels to the distance in millimeters, the pixel pitch obtained in step S1802 is used.

ステップS1806では、ステップS1803で求めた画像サイズの画像を構成する各画素に対して、後述する画素値算出処理を実行する。全ての画素について画素値を算出したら、処理を終了する。   In step S1806, a pixel value calculation process, which will be described later, is executed for each pixel constituting the image having the image size obtained in step S1803. When the pixel values are calculated for all the pixels, the process ends.

図6は、上述の逆変換によって歪曲収差を補正する、画像処理を説明するための説明図である。   FIG. 6 is an explanatory diagram for explaining image processing in which distortion is corrected by the above-described inverse transformation.

歪曲収差は、たる型の歪みが生じる場合と、糸巻き型の歪みが生じる場合があるが、例えば、たる型の歪みが生じた矩形画像の全画素を、歪みのない画像に補正した場合、その出力画像は、4頂点が鋭角に尖ったアメーバ形状の画像となる。図では、歪曲収差補正後の画像として、この形状が実線で表現されている。最終的な出力画像としては、点線で表された矩形画像を切り出すものとする。   Distortion may occur when a barrel-shaped distortion or a pincushion-type distortion occurs.For example, if all pixels of a rectangular image with a barrel-shaped distortion are corrected to an undistorted image, The output image is an amoeba-shaped image with four vertices sharpened at an acute angle. In the figure, this shape is represented by a solid line as an image after distortion correction. As a final output image, a rectangular image represented by a dotted line is cut out.

ここで、歪曲収差補正後の画像における座標P(i,j)の画素値を取得したい場合、まずこの座標の中心からの距離dを求める。そして、歪曲収差補正ルックアップテーブルから、入力値dに対する出力値d’を得る。つまり、歪曲収差補正後の像高から、歪曲収差補正前の像高を求めることになる。そして、歪曲収差補正補正前の画像において、θ=tan-1(j/i)となる方向で距離d’となる座標P’(i’,j’)を求める。ここで、P’(i’,j’)は必ずしも整数座標になるとは限らない。そこで、この座標を包含する周囲4点の整数座標における画素値を用いて、バイリニア補間によりこのP’(i’,j’)の画素値を演算する。このように逆変換処理を行うと、歪曲収差補正後の座標P(i,j)における座標値は、歪曲収差補正前の座標P’(i’,j’)の座標値として求めることができる。これを、歪曲収差補正後の画像の点線で囲まれた矩形内の全座標で繰り返し演算を行なえば、出力画像の全画素値を取得することができる。 Here, when it is desired to obtain the pixel value of the coordinate P (i, j) in the image after distortion correction, first, the distance d from the center of this coordinate is obtained. Then, an output value d ′ with respect to the input value d is obtained from the distortion aberration correction lookup table. That is, the image height before distortion aberration correction is obtained from the image height after distortion aberration correction. Then, a coordinate P ′ (i ′, j ′) having a distance d ′ in the direction of θ = tan −1 (j / i) is obtained in the image before distortion correction correction. Here, P ′ (i ′, j ′) is not necessarily an integer coordinate. Therefore, the pixel value of P ′ (i ′, j ′) is calculated by bilinear interpolation using the pixel values in the integer coordinates of the surrounding four points including the coordinates. When the inverse transformation process is performed in this way, the coordinate value at the coordinate P (i, j) after distortion correction can be obtained as the coordinate value of the coordinate P ′ (i ′, j ′) before distortion correction. . If this operation is repeated for all coordinates within the rectangle surrounded by the dotted line of the image after distortion correction, all pixel values of the output image can be acquired.

ここで、図6の点線で囲まれた矩形である出力画像のサイズについて、好ましい決定の仕方について説明する。   Here, a preferable method of determining the size of the output image that is a rectangle surrounded by a dotted line in FIG. 6 will be described.

図7は、歪曲収差補正前の画像(一点鎖線)と歪曲収差補正後の画像(点線)の第一象限を取り出してその関係を説明する図である。なお、歪曲収差補正前の画像のx軸方向の最大値をw/2、y軸方向の最大値をh/2とする。   FIG. 7 is a diagram for explaining the relationship by taking out the first quadrant of the image before the distortion correction (dashed line) and the image after the distortion correction (dotted line). Note that the maximum value in the x-axis direction of the image before distortion correction is w / 2, and the maximum value in the y-axis direction is h / 2.

まずx軸方向について、歪曲収差補正前のy座標をh/2に固定し、x座標を0からw/2まで推移させたときにどのような曲線を描くかを求める。ここで、歪曲収差補正ルックアップテーブルは、入力値が出力画像の中心からのピクセル単位の距離で、出力値が入力画像の中心からのピクセル単位の距離として逆変換処理用に用意されているので、一旦順変換処理用に作り直すものとする。このように作り直された順変換処理用の歪曲収差補正ルックアップテーブルを用いて、(0,h/2)から(w/2,h/2)まで繰り返し変換後の座標を求める。   First, in the x-axis direction, the y-coordinate before distortion correction is fixed to h / 2, and what kind of curve is drawn when the x-coordinate is changed from 0 to w / 2. Here, the distortion correction look-up table is prepared for the inverse conversion processing as the input value is the distance in pixels from the center of the output image and the output value is the distance in pixels from the center of the input image. Suppose that it is remade for forward conversion processing. By using the distortion aberration correction look-up table for forward conversion processing that has been recreated in this way, coordinates after repeated conversion from (0, h / 2) to (w / 2, h / 2) are obtained.

次に、同様にy軸方向について、歪曲収差補正前のx座標をw/2に固定し、y座標を0からh/2まで推移させたときにどのような曲線を描くかを求める。つまり、順変換処理用の歪曲収差補正ルックアップテーブルを用いて、(w/2,0)から(w/2,h/2)まで繰り返し変換後の座標を求める。   Next, similarly, in the y-axis direction, the x coordinate before distortion correction is fixed to w / 2, and what curve is drawn when the y coordinate is changed from 0 to h / 2. That is, the coordinates after repeated conversion from (w / 2, 0) to (w / 2, h / 2) are obtained using a distortion aberration correction lookup table for forward conversion processing.

このようにして求めた座標を繋ぎ合わせたものが、図における実線で表された、歪曲収差補正後の外郭となる。この形状は、図6を用いて説明した、4頂点が鋭角に尖ったアメーバ形状の第一象限分と同じ形状である。   A combination of the coordinates thus obtained is an outline after distortion correction, which is represented by a solid line in the figure. This shape is the same shape as the first quadrant of the amoeba shape in which the four vertices are sharpened as described with reference to FIG.

このようにして求めた外郭において、これに内接する矩形、つまり、x軸方向では最小値となるw’/2、y軸方向では最小値となるh’/2を、それぞれx軸,y軸の最大値とする矩形を出力画像のサイズ(第一象現分)と定める。   In the outline thus obtained, a rectangle inscribed therein, that is, w ′ / 2 which is the minimum value in the x-axis direction and h ′ / 2 which is the minimum value in the y-axis direction, are respectively expressed in the x-axis and y-axis. Is defined as the size of the output image (first quadrant).

なお、ここではたる型の歪みが生じた矩形画像を補正処理する場合を例にしたが、糸巻き型の歪みが生じた矩形画像を補正処理する場合には、出力される外郭形状はアメーバ形状にはならず、楕円に近いような形状になる。この場合であっても、同様の処理をおこなって内接する矩形を求めれば、出力画像のサイズを定めることができる。   In this example, a rectangular image with a barrel-shaped distortion is corrected. However, when a rectangular image with a pincushion-shaped distortion is corrected, the output outer shape is an amoeba shape. The shape is similar to an ellipse. Even in this case, the size of the output image can be determined by performing the same processing and obtaining the inscribed rectangle.

このように定められた矩形である出力画像のサイズに応じて、図6を用いて説明した逆変換処理を全座標で繰り返し演算を行なえば、出力画像の全画素値を取得することができることになる。   According to the size of the output image that is a rectangle defined in this way, if the inverse transformation process described with reference to FIG. 6 is repeated for all coordinates, all pixel values of the output image can be acquired. Become.

(ゴミ検出処理)
図8は、本実施形態に係るカメラの異物検出モードにおけるゴミ検出処理(ゴミによって画像不良が生じている画素位置の検出処理)を説明するフローチャートである。当該処理は、マイクロコンピュータ402がメモリ428に記憶されたゴミ検出処理プログラムを実行することにより実施される。
(Dust detection process)
FIG. 8 is a flowchart for explaining dust detection processing (detection processing of a pixel position where an image defect is caused by dust) in the foreign matter detection mode of the camera according to the present embodiment. This processing is performed by the microcomputer 402 executing a dust detection processing program stored in the memory 428.

ゴミ検出処理(異物情報取得処理)は、ゴミ検出用画像(異物検出用画像)を撮像することにより行われる。ゴミ検出処理を行う場合、面光源装置の出射面や白い壁などの均一な色を持つ面に撮影レンズ200の撮影光軸201を向けてカメラを設置し、ゴミ検出の準備を行なう。または、レンズマウント202にゴミ検出用のライトユニット(レンズの代わりに装着する小型の点光源装置)を装着し、ゴミ検出の準備を行う。ライトユニットの光源は例えば白色LEDが考えられ、発光面のサイズを予め定めた絞り値(例えば、本実施形態ではF16)相当になるように調整するのが望ましい。   The dust detection processing (foreign matter information acquisition processing) is performed by capturing a dust detection image (foreign matter detection image). When performing dust detection processing, a camera is installed with the photographing optical axis 201 of the photographing lens 200 facing a surface having a uniform color, such as an emission surface of a surface light source device or a white wall, and preparation for dust detection is performed. Alternatively, a dust detection light unit (a small point light source device mounted instead of a lens) is mounted on the lens mount 202 to prepare for dust detection. The light source of the light unit is, for example, a white LED, and it is desirable to adjust the size of the light emitting surface so that it corresponds to a predetermined aperture value (for example, F16 in the present embodiment).

本実施形態では、通常の撮影レンズを用いた場合について説明するが、上記のライトユニットをレンズマウント202に取り付けてゴミ検出を行っても良い。このように、本実施形態においてゴミ検出用画像は、均一な色を有する画像である。   In this embodiment, a case where a normal photographing lens is used will be described. However, dust detection may be performed by attaching the light unit to the lens mount 202. Thus, in this embodiment, the dust detection image is an image having a uniform color.

準備が終了した後、例えば十字配置スイッチ116からゴミ検出処理の開始が指示されると、マイクロコンピュータ402は、まず絞りの設定を行う。撮像素子近傍のゴミはレンズの絞り値によって結像状態が変わり、レンズの瞳位置によって位置が変化する。したがって、ゴミ補正データ(異物情報)にはゴミの位置や大きさに加え、検出時の絞り値とレンズの瞳位置を保持する必要がある。   After the preparation is completed, for example, when the start of dust detection processing is instructed from the cross arrangement switch 116, the microcomputer 402 first sets the aperture. The image formation state of dust near the image sensor changes depending on the aperture value of the lens, and the position changes depending on the pupil position of the lens. Accordingly, the dust correction data (foreign matter information) needs to hold the aperture value and the pupil position of the lens in addition to the dust position and size.

ただし、ゴミ補正データを作成する段階で、異なるレンズを用いたとしても常に同じ絞り値を使うことを予め決めておけば、必ずしもゴミ補正データ内に絞り値を保持する必要はない。また、瞳位置に関してもライトユニットを用いたり、特定のレンズのみの使用を許可することで、同様に必ずしもゴミ補正データ内に瞳位置を保持する必要はなくなる。つまり、ゴミ補正データを作成する段階において、使用するレンズを複数許したり、絞り込む絞り値を適宜変更する場合には、検出時の絞り値とレンズの瞳位置を、ゴミ補正データ内に保持する必要があると言える。なお、ここで瞳位置とは、射出瞳の撮像面(焦点面)からの距離をいう。   However, it is not always necessary to hold the aperture value in the dust correction data if it is determined in advance that the same aperture value is always used even when different lenses are used at the stage of creating dust correction data. Similarly, by using a light unit or permitting the use of only a specific lens for the pupil position, it is not always necessary to hold the pupil position in the dust correction data. In other words, at the stage of creating dust correction data, if you want to allow multiple lenses to use or change the aperture value to narrow down appropriately, it is necessary to keep the aperture value and lens pupil position at the time of detection in the dust correction data It can be said that there is. Here, the pupil position refers to the distance from the imaging plane (focal plane) of the exit pupil.

ここでは、例えばF16を指定する(ステップS21)。   Here, for example, F16 is designated (step S21).

次にマイクロコンピュータ402はレンズ制御回路407に対し、撮影レンズ200の絞り羽根制御を行わせ、ステップS21で指定された絞り値に絞りを設定する(ステップS22)。さらに、フォーカス位置を無限遠に設定する(ステップS23)。   Next, the microcomputer 402 causes the lens control circuit 407 to perform aperture blade control of the photographing lens 200, and sets the aperture to the aperture value designated in step S21 (step S22). Further, the focus position is set to infinity (step S23).

撮影レンズの絞り値とフォーカス位置が設定されると、ゴミ検出モードでの撮影を実行する(ステップS24)。ステップS24で行う撮像処理ルーチンの詳細に関しては図9を用いて後に説明する。撮影された画像データは、バッファメモリ424に格納される。   When the aperture value and focus position of the photographing lens are set, photographing in the dust detection mode is executed (step S24). Details of the imaging processing routine performed in step S24 will be described later with reference to FIG. The captured image data is stored in the buffer memory 424.

撮影が終了すると、撮影時の絞り値とレンズ瞳位置を取得する(ステップS25)。画像処理回路425に画像バッファメモリ424に記憶されている撮影画像の各画素に対応するデータを呼び出す(ステップS26)。画像処理回路425は、図10に示す処理を行い、ゴミが存在する画素の位置と大きさを取得する(ステップS27)。ステップS27で取得したゴミが存在する画素の位置と大きさ、およびステップS25で取得した絞り値とレンズ瞳位置情報を、ゴミ位置メモリ427に登録する(ステップS28)。ここで、前述したライトユニットを用いた場合には、レンズ情報を取得できない。そこで、レンズ情報が取得できない場合は、ライトユニットを使ったと判断し、予め定められたレンズ瞳位置情報と、ライトユニットの光源径から算出される換算絞り値を登録する。   When shooting is completed, the aperture value and lens pupil position at the time of shooting are acquired (step S25). Data corresponding to each pixel of the photographed image stored in the image buffer memory 424 is called to the image processing circuit 425 (step S26). The image processing circuit 425 performs the processing shown in FIG. 10, and acquires the position and size of the pixel where dust is present (step S27). The position and size of the pixel where the dust exists in step S27 and the aperture value and lens pupil position information acquired in step S25 are registered in the dust position memory 427 (step S28). Here, when the light unit described above is used, lens information cannot be acquired. Therefore, when the lens information cannot be acquired, it is determined that the light unit is used, and predetermined lens pupil position information and a converted aperture value calculated from the light source diameter of the light unit are registered.

ここで、ステップS28において、予め画素欠陥位置メモリに記録されている製造時からの不良画素(画素欠陥)の位置と、読み出した画素データの位置を比べて画素欠陥であるかどうかを確認する。そして、画素欠陥によるものでは無いと判断された領域のみ、ゴミ位置メモリ427に位置を登録しても良い。   Here, in step S28, the position of the defective pixel (pixel defect) from the time of manufacture recorded in the pixel defect position memory in advance is compared with the position of the read pixel data to check whether the pixel defect is present. Only the area determined not to be due to the pixel defect may be registered in the dust position memory 427.

ゴミ位置メモリ427に格納されるゴミ補正データのデータ形式例を図9に示す。図9に示した通り、ゴミ補正データには、検出用画像撮影時(画像信号取得時)の、レンズ情報(レンズの特性情報)とゴミの位置、大きさの情報が格納される。このゴミ補正データは、通常撮影時に画像データの撮影時情報と共に画像に付加し、後に説明するゴミ除去処理で利用する。
具体的には、検出用画像撮影時のレンズ情報として、検出用画像撮影時における実際の絞り値(F値)と、そのときのレンズ瞳位置を格納する。続く記憶領域に検出したゴミ領域の数(整数値)を格納し、これに続き、個々の具体的なゴミ領域のパラメータを、ゴミ領域の数だけ繰返して格納する。ゴミ領域のパラメータは、ゴミの半径(例えば2バイト)、有効画像領域における中心のx座標(例えば2バイト)、おなじく中心のy座標(例えば2バイト)の3つの数値のセットである。
An example of the data format of dust correction data stored in the dust position memory 427 is shown in FIG. As shown in FIG. 9, the dust correction data stores lens information (lens characteristic information) and dust position and size information when a detection image is captured (when an image signal is acquired). This dust correction data is added to the image together with the shooting time information of the image data during normal shooting, and used in dust removal processing described later.
Specifically, the actual aperture value (F value) at the time of detection image capture and the lens pupil position at that time are stored as lens information at the time of detection image capture. The number of detected dust areas (integer value) is stored in the subsequent storage area, and subsequently, individual specific dust area parameters are repeatedly stored for the number of dust areas. The parameter of the dust area is a set of three numerical values: a dust radius (for example, 2 bytes), a center x coordinate (for example, 2 bytes) in the effective image area, and a similar y coordinate (for example, 2 bytes).

ゴミ位置メモリ427の大きさ等によりゴミ補正データサイズに制限がある場合、ステップS27で得たゴミ領域の先頭から優先してデータを格納する。これは、ステップS27のゴミ領域取得ルーチン内では、後述するようにゴミ領域を、目立つゴミの順にソートするからである。   When the dust correction data size is limited due to the size of the dust position memory 427 or the like, the data is stored with priority from the head of the dust area obtained in step S27. This is because in the dust area acquisition routine in step S27, the dust areas are sorted in the order of noticeable dust, as will be described later.

(ゴミ領域取得ルーチン)
次に、図10から図12を用いて、ステップS27で行うゴミ領域取得ルーチンの詳細について説明する。
(Trash area acquisition routine)
Next, details of the dust region acquisition routine performed in step S27 will be described with reference to FIGS.

図11に示すように、呼び出した画像データをメモリ上に展開し、予め定められたブロック単位で処理を行う。これは、レンズやセンサ特性に起因する周辺減光に対応するためである。周辺減光とは、レンズの中央部に比べ周辺部の輝度が落ちてしまう現象であり、レンズの絞りを小さくすることである程度軽減されることが知られている。しかし、絞りを絞った状態でも、撮影画像に対して予め定められたスレッショルド値でゴミ位置の判定を行うと、レンズによっては周辺部のゴミが正確に検出できなくなるという問題がある。そこで、画像をブロック分割して周辺減光の影響を軽減する。   As shown in FIG. 11, the called image data is developed on a memory and processed in units of predetermined blocks. This is to cope with peripheral dimming caused by lens and sensor characteristics. Peripheral dimming is a phenomenon in which the luminance at the peripheral portion is lower than that at the central portion of the lens, and it is known that it is reduced to some extent by reducing the aperture of the lens. However, there is a problem that even if the aperture is reduced, if the dust position is determined based on a predetermined threshold value for the photographed image, dust in the peripheral portion cannot be detected accurately depending on the lens. Therefore, the image is divided into blocks to reduce the influence of peripheral dimming.

単純にブロック分割すると、ブロックとブロックの間でスレッショルド値が異なる場合、ブロック間をまたぐゴミの検出結果がずれてしまうという問題がある。そこで、ブロック間をオーバーラップさせ、オーバーラップ領域を構成するブロックのいずれかでゴミと判定された画素をゴミ領域として扱う。   When the blocks are simply divided, there is a problem that the detection result of the dust straddling the blocks is shifted when the threshold values are different between the blocks. Therefore, the blocks are overlapped, and pixels determined to be dust in any of the blocks constituting the overlap region are treated as dust regions.

ブロック内のゴミ領域判定は、図10に示す処理の流れで行う。まず、ブロック内の最大輝度Lmax、平均輝度Laveを算出し、次式を用いてブロック内のスレッショルド値T1を算出する。   The determination of the dust area in the block is performed according to the process flow shown in FIG. First, the maximum luminance Lmax and average luminance Lave in the block are calculated, and the threshold value T1 in the block is calculated using the following equation.

T1=Lave×0.6+Lmax×0.4
次に、スレッショルド値を超えない画素をゴミ画素とし(ステップS61)、ゴミ画素によって構成される孤立領域を各々一つのゴミ領域di(i=0,1,…,n)とする(ステップS62)。図12に示すように、ゴミ領域毎に、ゴミ領域を構成する画素の水平方向の座標の最大値Xmaxおよび最小値Xmin、垂直方向の座標の最大値Ymaxおよび最小値Yminを求め、ゴミ領域diのサイズを表す半径riを次式によって算出する(ステップS63)。
T1 = Lave × 0.6 + Lmax × 0.4
Next, pixels that do not exceed the threshold value are defined as dust pixels (step S61), and isolated regions constituted by dust pixels are each defined as one dust region di (i = 0, 1,..., N) (step S62). . As shown in FIG. 12, for each dust region, the maximum value Xmax and the minimum value Xmin of the horizontal coordinate of the pixels constituting the dust region, the maximum value Ymax and the minimum value Ymin of the vertical coordinate are obtained, and the dust region di A radius ri representing the size of is calculated by the following equation (step S63).

ri=√[{(Xmax−Xmin)/2}2+{(Ymax−Ymin)/2}2]
Xmax、Xmin、Ymax、Yminとriの関係を、図12に示す。
ri = √ [{(Xmax−Xmin) / 2} 2 + {(Ymax−Ymin) / 2} 2 ]
FIG. 12 shows the relationship between Xmax, Xmin, Ymax, Ymin and ri.

その後ステップS64で、ゴミ領域毎の平均輝度値を算出する。   Thereafter, in step S64, an average luminance value for each dust region is calculated.

ゴミ位置メモリ427のサイズによる制限などにより、ゴミ補正データのデータサイズが制限されている場合がある。このような場合に対応するために、ゴミ位置情報を、大きさやゴミ領域の平均輝度値によってソートする(ステップS65)。本実施形態では、riの大きい順にソートする。riが等しい場合、平均輝度値の低い順にソートする。このようにすることで、目立つゴミを優先してゴミ補正データに登録することが出来る。なお、ソート済みのゴミ領域をDi、ゴミ領域Diの半径をRiとする。   In some cases, the data size of the dust correction data is limited due to the limitation due to the size of the dust position memory 427. In order to cope with such a case, the dust position information is sorted according to the size and the average luminance value of the dust region (step S65). In this embodiment, sorting is performed in descending order of ri. When ri is equal, the sort is performed in ascending order of the average luminance value. In this way, it is possible to preferentially register noticeable dust in the dust correction data. The sorted dust area is Di, and the radius of the dust area Di is Ri.

なお、予め定められたサイズより大きいゴミ領域がある場合、ソートの対象から外し、ソート済みゴミ領域リストの末尾に配置しても良い。これは、大きいゴミ領域については、後に補間処理をするとかえって画質を低下させる場合があり、編集対象の優先順位としては最下位として扱うことが望ましいからである。   If there is a dust area larger than a predetermined size, it may be excluded from sorting and placed at the end of the sorted dust area list. This is because a large dust region may lower the image quality if interpolation processing is performed later, and it is desirable to treat it as the lowest priority for editing.

(撮像処理ルーチン)
次に、図13に示すフローチャートを用いて、図8のステップS24で行われる撮像処理ルーチンの詳細について説明する。当該処理はマイクロコンピュータ402がメモリ428に記憶された撮像処理プログラムを実行することにより実施される。
(Imaging processing routine)
Next, details of the imaging processing routine performed in step S24 of FIG. 8 will be described using the flowchart shown in FIG. The processing is performed by the microcomputer 402 executing an imaging processing program stored in the memory 428.

この撮像処理ルーチンが実行されると、ステップS201でマイクロコンピュータ402は、図3に示すクイックリターンミラー203を作動させ、いわゆるミラーアップを行い、撮影光路外にクイックリターンミラー203を退避させる。   When this imaging processing routine is executed, in step S201, the microcomputer 402 operates the quick return mirror 203 shown in FIG. 3, performs so-called mirror up, and retracts the quick return mirror 203 outside the imaging optical path.

次に、ステップS202で撮像素子での電荷蓄積を開始し、次のステップS203では図3に示したシャッターの先幕210、後幕209をそれぞれ走行させて露光を行う。そして、ステップS204で撮像素子の電荷蓄積を終了し、次のステップS205で撮像素子から画像信号を読み出してA/Dコンバータ423および画像処理回路425で処理した画像データをバッファメモリ424に一次記憶する。   Next, charge accumulation in the image sensor is started in step S202, and in the next step S203, exposure is performed by running the shutter front curtain 210 and rear curtain 209 shown in FIG. In step S204, the charge accumulation of the image sensor is terminated, and in the next step S205, the image signal is read from the image sensor, and the image data processed by the A / D converter 423 and the image processing circuit 425 is temporarily stored in the buffer memory 424. .

次のステップS206で撮像素子から全ての画像信号の読み出しが終了すると、ステップS207でクイックリターンミラー203をミラーダウンし、クイックリターンミラーを斜設位置に戻して一連の撮像動作を終了する。   When reading of all image signals from the image sensor is completed in the next step S206, the quick return mirror 203 is mirrored down in step S207, the quick return mirror is returned to the oblique position, and a series of imaging operations is completed.

ステップS208において、通常撮影(被写体像の撮影)かゴミ検出用画像の撮影かを判断し、通常撮影時にはステップS209へ進んで撮影時のカメラ設定値等と共に図9に示したゴミ補正データを画像データに関連付けて記録装置419に記録する。   In step S208, it is determined whether normal shooting (photographing of the subject image) or dust detection image shooting is performed. In normal shooting, the process proceeds to step S209, and the dust correction data shown in FIG. The data is recorded in the recording device 419 in association with the data.

具体的には、例えば、撮影時のカメラ設定値等が記録される画像ファイルのヘッダ領域であるExif領域にゴミ補正データを追記することで、関連付けを実現することができる。または、ゴミ補正データをファイルとして独立して記録し、画像データにはそのゴミ補正データファイルへのリンク情報のみを記録することで関連付けを実現することも可能である。ただし、画像ファイルとゴミ補正データファイルを別々に記録すると、画像ファイルの移動時に、リンク関係が消失する場合があるので、ゴミ補正データは画像データと一体的に保持することが望ましい。   Specifically, for example, association can be realized by adding dust correction data to the Exif area, which is the header area of an image file in which camera setting values at the time of shooting are recorded. Alternatively, the dust correction data can be independently recorded as a file, and the association can be realized by recording only the link information to the dust correction data file in the image data. However, if the image file and the dust correction data file are recorded separately, the link relationship may be lost when the image file is moved. Therefore, it is desirable to hold the dust correction data integrally with the image data.

(ゴミ補正データの変換)
撮影画像に対して、レンズ収差補正処理とゴミ除去処理の両方を施すとき、順序として、まずレンズ収差補正処理を行ってから次にゴミ除去処理を行う場合と、その逆の場合がある。まずゴミ除去処理を行ってから次にレンズ収差補正処理を行う場合であれば、収差補正処理の影響を考慮することなくゴミ補正データを用いることができる。従って、歪曲収差補正処理を行う前にゴミ除去処理を施す方が、処理としては簡単である。しかし、撮影を行う撮像装置と、撮影された画像データをユーザが加工/鑑賞する画像処理装置は別物である場合が多く、それぞれの装置でどのような画像処理を担うかの役割分担の問題がある。また、ゴミ除去処理の対象となる領域が、被写体像との関係で、必ずしも適切に補正できる領域であるとは限らないという問題がある。例えば、コントラストの差が激しい被写体に跨って存在するゴミを補正処理しようとした場合、処理によってコントラストの差を無くしてしまう恐れがある。つまり、ゴミ除去処理を行いたくない場合があり、このような判断が必要となる処理は、処理が複雑で時間がかかるため、できるだけ後段で行うほうが有利である。
(Conversion of dust correction data)
When both the lens aberration correction process and the dust removal process are performed on the captured image, there are cases where the lens aberration correction process is performed first and then the dust removal process is performed next, and vice versa. If dust removal processing is performed first and then lens aberration correction processing is performed, dust correction data can be used without considering the influence of the aberration correction processing. Therefore, it is easier to perform dust removal processing before performing distortion correction processing. However, there are many cases where an imaging device that performs shooting and an image processing device that allows a user to process / view captured image data are different, and there is a problem of division of roles in what type of image processing is performed by each device. is there. In addition, there is a problem that the area to be subjected to dust removal processing is not necessarily an area that can be appropriately corrected in relation to the subject image. For example, when trying to correct dust existing across a subject with a significant contrast difference, there is a risk that the difference in contrast will be eliminated by the process. In other words, there is a case where it is not desired to perform dust removal processing, and processing that requires such determination is complicated and time consuming, so it is advantageous to perform it as late as possible.

従って、本実施形態においては、まずレンズ収差補正処理を行って、次にゴミ除去処理を行うものとする。このような順序で処理を行う場合、ゴミ補正データを、レンズ収差に応じて変換しなければならない。   Therefore, in the present embodiment, first, lens aberration correction processing is performed, and then dust removal processing is performed. When processing is performed in this order, dust correction data must be converted according to lens aberration.

ゴミ補正データのデータ形式は、図9を用いて説明したように、ゴミ領域はゴミの半径と、中心のx座標、おなじく中心のy座標の3つの数値のセットで表されている。   In the dust correction data format, as described with reference to FIG. 9, the dust area is represented by a set of three numerical values: a dust radius, a center x coordinate, and a center y coordinate.

まず座標の変換は、歪曲収差補正前の座標点から歪曲収差補正後の座標点を求めることになるので、順変換による処理を行う。ここで、歪曲収差補正ルックアップテーブルは、入力値が出力画像の中心からのピクセル単位の距離で、出力値が入力画像の中心からのピクセル単位の距離として逆変換処理用に用意されているので、一旦順変換処理用に作り直すものとする。そして、作り直された順変換処理用の歪曲収差補正ルックアップテーブルを用いて、ゴミ補正データに記述された座標A(Xa,Ya)を、A’(Xa’,Ya’)に変換する。   First, the coordinate conversion involves obtaining the coordinate point after the distortion correction from the coordinate point before the distortion correction, so that the process by forward conversion is performed. Here, the distortion correction look-up table is prepared for the inverse conversion processing as the input value is the distance in pixels from the center of the output image and the output value is the distance in pixels from the center of the input image. Suppose that it is remade for forward conversion processing. Then, the coordinate A (Xa, Ya) described in the dust correction data is converted into A ′ (Xa ′, Ya ′) using the reconstructed distortion aberration correction lookup table for forward conversion processing.

具体的には座標Aの中心からの距離である像高daを、作り直された歪曲収差補正ルックアップテーブルに入力し、歪曲収差補正後の像高da’を得る。そして、θ=tan−1(Ya/Xa)となる方向で距離da’となる座標A”(Xa”,Ya”)を求める。そして、このA”に最も近い整数座標をA’と定めるものとする。   Specifically, the image height da, which is the distance from the center of the coordinate A, is input to the reconstructed distortion aberration correction look-up table, and the image height da ′ after distortion aberration correction is obtained. Then, a coordinate A ″ (Xa ″, Ya ″) having a distance da ′ in the direction of θ = tan−1 (Ya / Xa) is obtained. Then, an integer coordinate closest to A ″ is determined as A ′. And

次に、半径の変換を行う。歪曲収差補正を行う場合に、像高が小さくなる方向に変換されるのであれば、変換前に比べ変換後のゴミ領域は小さくなり、像高が大きくなる方向に変換されるのであれば、逆に、変換前に比べて変換後のゴミ領域は大きくなる。これは、生じる歪曲収差が、糸巻き型であるかたる型であるかによる。半径の変換はこの関係に着目し、以下の変換式を用いることとする。   Next, radius conversion is performed. When distortion correction is performed, if the image is converted in a direction in which the image height is reduced, the dust area after conversion is smaller than that before conversion, and if the image is converted in a direction in which the image height is increased, the reverse operation is performed. In addition, the dust area after the conversion becomes larger than before the conversion. This depends on whether the distortion aberration that occurs is a pincushion mold or a barrel mold. Radial conversion pays attention to this relationship and uses the following conversion formula.

ra’=ra+α(da’−da)
ここで、ra’は変換後の半径であり、raは変換前の半径である。da’は上述の中心座標A(Xa,Ya)の変換後の像高であり、daは変換前の像高である。αは、実験的に定められる、余裕量を見越した定数である。このような変換式を用いることにより、歪曲収差の型および座標位置に応じて、適切に半径を変換することが可能となる。
ra ′ = ra + α (da′−da)
Here, ra ′ is a radius after conversion, and ra is a radius before conversion. da ′ is the image height after conversion of the above-described center coordinates A (Xa, Ya), and da is the image height before conversion. α is an experimentally determined constant that allows for a margin. By using such a conversion formula, it is possible to appropriately convert the radius according to the distortion aberration type and coordinate position.

このような変換を、ゴミ補正データに記述されている全てのゴミデータに対して行うことで、変換後のゴミ補正データを得ることができる。   By performing such conversion on all dust data described in the dust correction data, it is possible to obtain converted dust correction data.

なお、ここではゴミの位置および大きさともに変換しているが、大きさについては位置に比べてそれほど厳密に変換する必要がない場合も多いので、厳密さを要求しない場合には、変換しないままゴミ検出時の大きさを用いても良い。   Here, both the position and the size of the dust are converted, but it is often unnecessary to convert the size so strictly as compared to the position. Therefore, if the accuracy is not required, the conversion is not performed. The size at the time of dust detection may be used.

(ゴミの除去を行うための処理)
次に、ゴミの除去(異物除去処理)を行うための処理の流れについて説明する。ゴミの除去を行うための処理は、カメラ本体ではなく、別途用意した画像処理装置上で行うものとする。また、ここでは簡単のため、まずレンズ収差補正を行わない場合について説明する。レンズ収差補正を行ってからゴミ除去処理を行う場合の説明は後述する。
(Process for removing dust)
Next, the flow of processing for removing dust (foreign matter removal processing) will be described. The processing for removing dust is performed not on the camera body but on a separately prepared image processing apparatus. For simplicity, the case where lens aberration correction is not performed will be described first. A description of the case where dust removal processing is performed after lens aberration correction will be described later.

図14は、画像処理装置のシステム構成の概略を示した図である。   FIG. 14 is a diagram showing an outline of the system configuration of the image processing apparatus.

CPU1001は、システム全体の動作をコントロールし、一次記憶部1002に格納されたプログラムの実行などを行う。一次記憶部1002は、主にメモリであり、二次記憶部1003に記憶されたプログラムなどを読み込んで格納する。二次記憶部1003は、例えばハードディスクなどがこれに該当する。一般に一次記憶部の容量は二次記憶部の容量より小さく、一次記憶部に格納しきれないプログラムやデータなどは二次記憶部に格納される。また、長時間記憶しなくてはならないデータなども二次記憶部に格納される。本実施形態では、プログラムを二次記憶部1003に格納し、プログラム実行時に一次記憶部1002に読み込んでCPU1001が実行処理を行う。   The CPU 1001 controls the operation of the entire system, and executes a program stored in the primary storage unit 1002. The primary storage unit 1002 is mainly a memory, and reads and stores programs stored in the secondary storage unit 1003. The secondary storage unit 1003 corresponds to, for example, a hard disk. Generally, the capacity of the primary storage unit is smaller than the capacity of the secondary storage unit, and programs and data that cannot be stored in the primary storage unit are stored in the secondary storage unit. Data that must be stored for a long time is also stored in the secondary storage unit. In the present embodiment, the program is stored in the secondary storage unit 1003, read into the primary storage unit 1002 when the program is executed, and the CPU 1001 performs an execution process.

入力デバイス1004とは例えば、システムのコントロールに用いるマウスやキーボードの他、画像データの入力に必要なカードリーダー、スキャナ、フィルムスキャナなどがこれに該当する。出力デバイス1005とは例えば、モニタやプリンタなどが考えられる。この装置の構成方法は他にも様々な形態が考えられるが、本発明の主眼ではないので説明を省略する。   Examples of the input device 1004 include a mouse and keyboard used for system control, as well as a card reader, scanner, film scanner, and the like necessary for inputting image data. Examples of the output device 1005 include a monitor and a printer. Various other configurations of the apparatus configuration method are conceivable, but the description thereof is omitted because it is not the main point of the present invention.

画像処理装置には、複数のプログラムを並列実行可能なオペレーティングシステムが搭載され、操作者はGUIを使ってこの装置上で動作するプログラムの操作が可能である。 本実施形態における画像処理装置は、ゴミの除去を行うための処理である画像編集機能として2つの処理を実行可能である。一つはコピースタンプ処理で、もう一つはリペア処理である。コピースタンプ処理とは、ユーザによりカーソル等で指定された画像上の一部の領域を別途指定された別の領域に合成する機能である。リペア処理とは、指定された領域内で予め定められた条件に合う孤立領域を検出し、この孤立領域を周囲の画素で補間する機能である。このリペア処理は、ユーザによりカーソル等で指定された領域に対して行う手動リペア機能と、ゴミ補正データを利用して自動的に処理を実行する自動リペア機能とがある。この自動リペア機能が、これまで単にゴミ除去処理と言っていたものであり、その具体的な処理についての詳細は後述する。   The image processing apparatus is equipped with an operating system capable of executing a plurality of programs in parallel, and an operator can operate a program operating on the apparatus using a GUI. The image processing apparatus according to the present embodiment can execute two processes as an image editing function that is a process for removing dust. One is copy stamp processing and the other is repair processing. The copy stamp process is a function of combining a part of an area on an image designated by the user with a cursor or the like into another area designated separately. The repair process is a function of detecting an isolated area that meets a predetermined condition in a specified area and interpolating the isolated area with surrounding pixels. This repair processing includes a manual repair function that is performed on an area designated by a cursor or the like by the user, and an automatic repair function that automatically executes processing using dust correction data. This automatic repair function has been simply referred to as dust removal processing until now, and details of the specific processing will be described later.

図15は、画像処理装置における画像編集プログラムのGUI(Graphical User Interface)を示す図である。ウィンドウにはクローズボタン1100とタイトルバー1101が備えられ、クローズボタンを押すことでプログラムを終了する。ファイルを画像表示領域1102にドラッグアンドドロップすることで編集対象画像を指定し、編集対象画像が決定された場合、タイトルバー1101にファイル名を表示した後、画像表示領域1102に対象画像をFit表示する。   FIG. 15 is a diagram showing a GUI (Graphical User Interface) of an image editing program in the image processing apparatus. The window includes a close button 1100 and a title bar 1101. When the close button is pressed, the program is terminated. When an image to be edited is specified by dragging and dropping the file into the image display area 1102 and the image to be edited is determined, the file name is displayed in the title bar 1101 and then the object image is displayed in the image display area 1102 as Fit. To do.

編集対象画像の表示状態は、Fit表示と画素等倍表示の2つがあり、表示モードボタン1108で切り換えることが出来る。本GUIでは、画像上をクリックして加工位置を指定するが、Fit表示時はクリックされた位置に対応する加工画像上での座標を表示倍率に応じて算出し、その座標に処理を適用するものとする。また、本GUIでは処理範囲を半径で指定するが、この半径は編集対象画像上での半径であり、表示倍率によってはFit表示した画像上での半径とは異なる場合がある。   There are two display states of the image to be edited, Fit display and pixel-size display, which can be switched with a display mode button 1108. In this GUI, the processing position is specified by clicking on the image. At the time of Fit display, the coordinates on the processing image corresponding to the clicked position are calculated according to the display magnification, and the processing is applied to the coordinates. Shall. In this GUI, the processing range is specified by a radius. This radius is a radius on the image to be edited, and may be different from the radius on the Fit display image depending on the display magnification.

自動リペア処理実行ボタン1103を押すと、後述する自動ゴミ除去処理を実行し、処理後の画像を画像表示領域1102に表示する。自動リペア処理実行ボタン1103は、画像が未編集の状態でのみ有効になり、コピースタンプ処理やリペア処理、自動リペア処理の実行により画像が編集された状態の場合は無効になる。   When an automatic repair process execution button 1103 is pressed, an automatic dust removal process described later is executed, and the processed image is displayed in the image display area 1102. The automatic repair process execution button 1103 is enabled only when the image is not edited, and is disabled when the image is edited by executing the copy stamp process, the repair process, and the automatic repair process.

半径スライダ1106は、コピースタンプ処理とリペア処理の適用範囲を指定するスライダである。   A radius slider 1106 is a slider for designating an application range of copy stamp processing and repair processing.

リペア処理モードボタン1104を押すと、リペア処理モードになる。リペア処理モード時に画像中を左クリックすると、左クリックした座標を中心、半径スライダ1106で指定した画素数を半径とする領域に対し、後述するリペア処理を適用する。リペア処理を適用した後は、リペア処理モードを抜ける。また、リペアモード時に画像表示領域1102上で右クリックが押された場合、あるいはGUI上のいずれかのボタンが押された場合、リペアモードを抜ける。   When the repair processing mode button 1104 is pressed, the repair processing mode is set. When the left click in the image is performed in the repair processing mode, the repair processing described later is applied to a region having the left clicked coordinate as the center and the number of pixels specified by the radius slider 1106 as the radius. After applying the repair process, the repair process mode is exited. Further, when the right click is pressed on the image display area 1102 in the repair mode, or when any button on the GUI is pressed, the repair mode is exited.

コピースタンプ処理モードボタン1105を押すと、コピースタンプモードになる。コピースタンプモード時に画像中が左クリックされた場合、左クリックされた座標をコピー元領域の中心座標に設定する。コピー元領域の中心座標が設定された状態で更に画像上が左クリックされた場合、左クリックされた座標をコピー先領域の中心座標、この時点での半径スライダ1106で指定された半径をコピー半径としてコピースタンプ処理を実行し、コピー元領域の中心座標を未設定の状態にしてコピースタンプモードを抜ける。また、コピースタンプモード時に画像表示領域1102上で右クリックが押された場合、あるいはGUI上のいずれかのボタンが押された場合、コピー元領域の中心座標を未設定の状態にしてコピースタンプモードを抜ける。   When the copy stamp processing mode button 1105 is pressed, the copy stamp mode is set. When the left click is made in the image in the copy stamp mode, the left clicked coordinate is set as the center coordinate of the copy source area. If the image is further left-clicked with the center coordinates of the copy source area set, the left-clicked coordinates are the center coordinates of the copy destination area, and the radius specified by the radius slider 1106 at this point is the copy radius. The copy stamp process is executed to leave the copy stamp mode with the center coordinates of the copy source area not set. When the right click is pressed on the image display area 1102 in the copy stamp mode, or when any button on the GUI is pressed, the center coordinates of the copy source area are set to the unset state and the copy stamp mode is set. Exit.

保存ボタン1107が押された場合、処理後の画像を保存する。   When the save button 1107 is pressed, the processed image is saved.

本画像編集プログラムでは、図16に示すように元画像と処理後の画像の両方を保持する。つまり、ユーザのGUI操作によって処理が実行された場合、その前後の画像を保持すると同時に、その操作によって指定された編集処理を記録する。具体的には、GUIで指定された編集処理は、処理後の画像に対して順次適用され、適用された編集処理を編集履歴として登録していく。編集履歴に登録した1回分の編集処理のことを、編集エントリと呼ぶ。   In this image editing program, both the original image and the processed image are held as shown in FIG. That is, when a process is executed by the user's GUI operation, the previous and subsequent images are held, and at the same time, the editing process designated by the operation is recorded. Specifically, the editing process specified by the GUI is sequentially applied to the processed image, and the applied editing process is registered as an editing history. One editing process registered in the editing history is called an editing entry.

編集エントリの例を図17に示す。本実施形態における編集エントリには、コピースタンプ処理かリペア処理かを区別するための処理ID、処理の適用領域を示す中心と半径、コピースタンプ処理の場合に必要なコピー元座標からコピー先座標への相対座標、後述する差分画像データを保持する。自動リペア処理を実行した場合、ゴミ補正データに従ってリペア処理を実行し、リペア処理を適用する度に編集エントリを編集履歴に追加する。
このような実装にすることで、編集履歴を完全に破棄して元画像を復元したり、直前の編集処理を取り消したりすることができる。
An example of the edit entry is shown in FIG. The edit entry in this embodiment includes a process ID for distinguishing between the copy stamp process and the repair process, a center and radius indicating the application area of the process, and from a copy source coordinate required for the copy stamp process to a copy destination coordinate. Relative coordinates and differential image data described later are held. When the automatic repair process is executed, the repair process is executed according to the dust correction data, and an edit entry is added to the edit history every time the repair process is applied.
With such an implementation, it is possible to completely discard the editing history and restore the original image, or cancel the previous editing process.

例えば直前の編集処理を取り消す処理は、一旦処理後の画像を元画像で上書きし、取り消し対象の編集エントリの直前まで編集処理を再実行することで実現可能である。しかし、エントリの数が非常に多い場合など編集処理の再実行に時間がかかってしまう場合がある。そこで、編集操作を実行する度に、編集処理の実行前後について画像データの差分を取り、これを編集エントリに保持する。差分画像を保持すれば、1つの編集エントリを取り消す場合、編集エントリに記載された編集処理を1つ前の編集エントリまで最初から再実行する代わりに、差分画像を反映するだけで1つ前の編集エントリに戻ることができる。なお、この編集エントリの集まりである編集履歴は、画像処理装置の一次記憶部1002又は二次記憶部1003に記憶される。   For example, the process of canceling the immediately preceding editing process can be realized by overwriting the processed image once with the original image and re-executing the editing process until immediately before the editing entry to be canceled. However, it may take time to re-execute the editing process, such as when the number of entries is very large. Therefore, every time the editing operation is executed, the difference between the image data before and after the execution of the editing process is taken and held in the editing entry. If the difference image is retained, when one edit entry is canceled, the edit processing described in the edit entry is not performed again from the beginning until the previous edit entry, but only the difference image is reflected and the previous one is reflected. You can return to the edit entry. Note that an editing history that is a collection of editing entries is stored in the primary storage unit 1002 or the secondary storage unit 1003 of the image processing apparatus.

次に、リペア処理、自動リペア処理の各処理の詳細について述べる。コピースタンプ処理はよく知られた技術であるため、処理の詳細については説明を省略する。
リペア処理は、指定された領域内の孤立領域を検出し、この孤立領域を補間する処理である。リペア処理は、GUIで指定された中心座標と半径で表現される領域に対し、後述する補間ルーチンを適用することで実現する。
Next, details of the repair process and the automatic repair process will be described. Since the copy stamp process is a well-known technique, a detailed description of the process is omitted.
The repair process is a process for detecting an isolated area in a specified area and interpolating the isolated area. The repair process is realized by applying an interpolation routine to be described later to a region expressed by the center coordinates and radius specified by the GUI.

自動リペア処理では、ゴミ除去処理を行う対象となる画像データである撮影画像データのExif情報からゴミ補正データを抽出し、ゴミ補正データに応じてリペア処理を自動実行する。自動リペア処理の基本的な処理の流れを、図18に示す。   In the automatic repair process, dust correction data is extracted from the Exif information of the captured image data that is image data to be subjected to the dust removal process, and the repair process is automatically executed according to the dust correction data. FIG. 18 shows a basic process flow of the automatic repair process.

まず、カメラ内又はカメラから取り外された記録装置419から、ゴミ補正データがExif情報として付加された撮影画像データを画像処理装置に取り込んで、一次記憶部1002又は二次記憶部1003に記憶する(ステップS90)。   First, captured image data to which dust correction data is added as Exif information is taken into the image processing device from the recording device 419 in the camera or removed from the camera, and stored in the primary storage unit 1002 or the secondary storage unit 1003 ( Step S90).

次に、撮影画像データから、Exif情報として記述されたゴミ補正データを抽出する(ステップS91)。   Next, dust correction data described as Exif information is extracted from the captured image data (step S91).

次に、ステップS91で抽出したゴミ補正データから座標列Di(i=1,2,…n)、半径列Ri(i=1,2,…,n)、絞り値f1とレンズ瞳位置L1を得る(ステップS92)。ここでRiは、図10のステップS65で算出した座標Diのゴミの大きさである。ステップS93で、撮影された画像の撮影時の絞り値f2とレンズ瞳位置L2を取得し、ステップS94でDiを次式で変換する。ここで、Hは撮像素子418の表面とゴミとの距離であるとする。変換後の座標Di’と変換後の半径Ri’は例えば次式で定義する。   Next, the coordinate sequence Di (i = 1, 2,... N), the radius sequence Ri (i = 1, 2,..., N), the aperture value f1, and the lens pupil position L1 are extracted from the dust correction data extracted in step S91. Obtain (step S92). Here, Ri is the size of the dust at the coordinate Di calculated in step S65 of FIG. In step S93, the aperture value f2 and the lens pupil position L2 at the time of photographing of the photographed image are acquired, and in step S94, Di is converted by the following equation. Here, H is a distance between the surface of the image sensor 418 and dust. The coordinate Di ′ after conversion and the radius Ri ′ after conversion are defined by the following equation, for example.

Di’(x,y)=(L2×(L1−H)/((L2−H)×L1))×Di(x,y)
Ri’=(Ri×f1/f2+3)× 2
ここでの単位はピクセルであり、Ri’についての「+3」はマージン量である。2倍しているのは、平均輝度を用いてゴミ領域を検出するため、ゴミ領域外の領域が必要であるからである。
Di ′ (x, y) = (L2 × (L1−H) / ((L2−H) × L1)) × Di (x, y)
Ri ′ = (Ri × f1 / f2 + 3) × 2
The unit here is a pixel, and “+3” for Ri ′ is a margin amount. The reason why the area is doubled is that an area outside the dust area is necessary in order to detect the dust area using the average luminance.

ステップS95で、補間処理カウンタiを0に初期化し、ステップS96でiをカウントアップする。   In step S95, the interpolation processing counter i is initialized to 0, and i is incremented in step S96.

ステップS97でi番目の座標Di’、半径Ri’によって表される領域に対して補間ルーチンを実行し、領域内のゴミを除去する。ステップS98で全ての座標についてゴミ除去処理を適用したかどうかを判定し、全ての座標について処理が終わっていれば処理を終了し、そうでなければステップS96に戻る。   In step S97, an interpolation routine is executed on the area represented by the i-th coordinate Di 'and radius Ri' to remove dust in the area. In step S98, it is determined whether dust removal processing has been applied to all coordinates. If processing has been completed for all coordinates, the processing is terminated; otherwise, the processing returns to step S96.

(補間ルーチン)
ここで、リペア処理、および自動リペア処理で実行する補間ルーチンについて説明する。
(Interpolation routine)
Here, an interpolation routine executed in the repair process and the automatic repair process will be described.

図19は、補間ルーチンの流れを示すフローチャートである。まずステップS1201で、ゴミ領域判定を行う。ここで、リペア処理の対象となる領域の中心座標をP、半径をRとする。ゴミ領域とは、次の条件全てを満たす領域とする。
(i)リペア処理対象領域に含まれる画素の平均輝度Yaveと最高輝度Ymaxを用いて次式で求められるスレッショルド値T2より暗い領域。
FIG. 19 is a flowchart showing the flow of the interpolation routine. First, in step S1201, dust region determination is performed. Here, it is assumed that the center coordinate of the region to be repaired is P and the radius is R. The dust area is an area that satisfies all of the following conditions.
(I) An area darker than the threshold value T2 obtained by the following equation using the average brightness Yave and the maximum brightness Ymax of the pixels included in the repair processing target area.

T2=Yave×0.6+Ymax×0.4
(ii)上記の中心座標P、半径Rで表される円と接しない領域。
(iii)(i)で選択された輝度の低い画素によって構成される孤立領域に対し、図10中のステップS63と同様の方法で算出した半径値がl1画素以上、l2画素未満である領域。
T2 = Yave × 0.6 + Ymax × 0.4
(Ii) A region that does not contact the circle represented by the center coordinate P and the radius R described above.
(Iii) A region in which the radius value calculated by the same method as step S63 in FIG. 10 is not less than l1 pixels and less than l2 pixels with respect to the isolated region constituted by the low-luminance pixels selected in (i).

自動リペア処理時には、上記の条件に加え、さらに次の条件を満たす領域をゴミ領域とする。
(iv)円の中心座標Pを含む領域。
In the automatic repair process, in addition to the above conditions, an area satisfying the following condition is set as a dust area.
(Iv) A region including the center coordinate P of the circle.

本実施形態では、l1は3画素、l2は30画素とする。このようにすることで、孤立した小領域だけをゴミ領域として扱うことが可能になる。   In this embodiment, l1 is 3 pixels and l2 is 30 pixels. In this way, only an isolated small area can be handled as a dust area.

ステップS1202で、このような領域があればステップS1203へ進みゴミ領域補間を行い、存在しない場合は処理を終了する。ステップS1203で実行するゴミ領域補間処理は、公知の欠損領域補間法で行う。公知の欠損領域補間法には例えば、特開2001−223894号公報に開示されているパターン置換がある。特開2001−223894号公報では赤外光を用いて欠損領域を特定しているが、本実施形態ではステップS1201で検出したゴミ領域を欠損領域として扱い、パターン置換によりゴミ領域を周囲の正常画素で補間する。パターン置換で埋められない画素については、パターン補間後の画像データに対し、補間対象画素に最も近い順に正常画素をp個、最も遠い順にq個選択し、その平均色を用いて補間する。   If there is such an area in step S1202, the process advances to step S1203 to perform dust area interpolation. If there is no such area, the process ends. The dust region interpolation processing executed in step S1203 is performed by a known defect region interpolation method. Known defect area interpolation methods include, for example, pattern replacement disclosed in JP-A-2001-223894. In Japanese Patent Laid-Open No. 2001-223894, a defective region is specified using infrared light. In this embodiment, the dust region detected in step S1201 is treated as a defective region, and the dust region is treated as a normal pixel by pattern replacement. Interpolate with. For pixels that are not filled by pattern replacement, p normal pixels and q farthest in the order closest to the interpolation target pixel are selected from the image data after pattern interpolation, and interpolation is performed using the average color.

以上で述べた方法で、カメラで取得したゴミ補正データを用いて、カメラ外部の画像処理装置でゴミを除去することができる。   With the method described above, dust can be removed by an image processing apparatus outside the camera using dust correction data acquired by the camera.

次に、レンズ収差補正を行う場合のゴミ除去処理について、上述のレンズ収差補正を行わない場合に対して、如何なる処理を追加するかの観点で説明する。   Next, the dust removal processing when performing lens aberration correction will be described in terms of what processing is added to the case where the above-described lens aberration correction is not performed.

レンズ収差補正を行ってから、ゴミ除去処理を行うという手順を採る場合、ゴミ補正データに対して必要な変換処理は以下の2つに纏められる。
(1)ゴミ検出用画像撮影時のレンズ(第1の撮影レンズ)と、通常撮影時(被写体を撮影する時)のレンズ(第2の撮影レンズ)の瞳位置の違いに基づく変換処理(図18のステップS94の変換処理)。
(2)レンズ収差補正による座標変換に基づく変換処理(例えば、上述の順変換処理用の歪曲収差補正ルックアップテーブルを用いて行う変換処理)。
When the procedure of performing dust removal processing after performing lens aberration correction is adopted, the necessary conversion processing for dust correction data is summarized into the following two.
(1) Conversion processing based on a difference in pupil position between a lens (first photographing lens) at the time of dust detection image photographing and a lens (second photographing lens) at normal photographing (when photographing a subject) (FIG. 18 in step S94).
(2) Conversion processing based on coordinate conversion by lens aberration correction (for example, conversion processing performed using the above-described distortion aberration correction lookup table for forward conversion processing).

ここで、(1)の変換処理は、図18ではゴミ除去処理直前の処理として説明したが、レンズ収差補正処理を行う場合は、ゴミ除去処理を実行する前であればいずれの時点で行ってもよいが、(2)の変換処理の前に行う必要がある。   Here, the conversion process (1) has been described as the process immediately before the dust removal process in FIG. 18, but when performing the lens aberration correction process, the conversion process may be performed at any time before the dust removal process is executed. However, it must be performed before the conversion process (2).

また、上述のように、本実施形態においてゴミ除去処理は画像処理装置で行うものであるが、レンズ収差補正については、ゴミ除去処理を実行する前であれば、カメラ本体内で行っても画像処理装置で行っても良い。(1)の変換処理をおこなう第1の変換手段、および(2)の変換処理をおこなう第2の変換手段としては、カメラ本体内で行う場合は、マイクロコンピュータ402であり、画像処理装置内で行う場合は、CPU1001となる。   Further, as described above, in this embodiment, the dust removal process is performed by the image processing apparatus. However, the lens aberration correction can be performed in the camera body as long as the dust removal process is performed. You may carry out with a processing apparatus. The first conversion means for performing the conversion process (1) and the second conversion means for performing the conversion process (2) are the microcomputer 402 in the case of being performed in the camera body, and in the image processing apparatus. When performing, it becomes CPU1001.

従って、カメラと画像処理装置をシステムとして見た場合に、一連の変換処理および補正処理は、以下の手順を踏めばよいことになる。   Therefore, when the camera and the image processing apparatus are viewed as a system, a series of conversion processing and correction processing may be performed according to the following procedure.

ステップA:ゴミ検出用画像の取得、ゴミ補正データの作成。この時点でのゴミ補正データは、ゴミ検出画像を取得したときのレンズ情報に基づくものである。   Step A: Acquisition of dust detection images and creation of dust correction data. The dust correction data at this time is based on the lens information when the dust detection image is acquired.

ステップB:被写体画像の取得。このときこの被写体画像を撮影したレンズの情報も取得する。   Step B: Acquisition of a subject image. At this time, information on the lens that has captured the subject image is also acquired.

ステップC:上記(1)のゴミ補正データの変換処理を行う。   Step C: The dust correction data conversion process (1) is performed.

ステップD:レンズ収差補正処理を被写体画像に対して行う。   Step D: A lens aberration correction process is performed on the subject image.

ステップE:上記(2)のゴミ補正データの変換処理を行う。   Step E: The dust correction data conversion process (2) is performed.

ステップF:変換されたゴミ補正データに基づいて、ゴミ除去処理(自動リペア処理)を行う。   Step F: Dust removal processing (automatic repair processing) is performed based on the converted dust correction data.

ただし、上記(1)を行った後に上記(2)を行うという順序が守られれば、ステップCとステップDは逆順であっても良いし、ステップDとステップEは逆順であっても良い。また、ステップBの被写体画像の取得後は、ゴミ補正データはそのExif情報に記述され、変換処理がされるたびに書き換えられるものとする。   However, step C and step D may be reversed, and step D and step E may be reversed as long as the order of performing (2) is performed after performing (1) above. Also, after the acquisition of the subject image in step B, the dust correction data is described in the Exif information and is rewritten every time conversion processing is performed.

次に、カメラ本体と画像処理装置の役割分担であるが、どこまでのステップをカメラ本体で行い、どこからのステップを画像処理装置で行うかという問題がある。そこで、以下に3つの実施例を示す。   Next, as for the division of roles between the camera body and the image processing apparatus, there is a problem of how far the steps are performed by the camera body and where the steps are performed by the image processing apparatus. Therefore, three examples are shown below.

(実施例1)
実施例1では、ステップEまでをカメラ本体で行い、ステップFを画像処理装置で行う。このように構成すると、画像処理装置を用いて行う撮影後の鑑賞や印刷指示の段階で、画像処理装置の処理負担が軽く、多くの撮影画像を同時に扱いたい場合などに有利である。
Example 1
In the first embodiment, steps up to step E are performed by the camera body, and step F is performed by the image processing apparatus. Such a configuration is advantageous when the processing load of the image processing apparatus is light and many photographed images are desired to be handled at the same time at the stage of appreciation after shooting and printing instructions performed using the image processing apparatus.

具体的には、カメラ本体において、マイクロコンピュータ402が、画像処理回路425を制御することにより、被写体画像のレンズ収差補正処理を行う。そして、マイクロコンピュータ402が、レンズ収差補正による座標変換に基づく変換処理をゴミ補正データに施し、このゴミ補正データをレンズ収差補正処理が実行された被写体画像のExif情報に記述する。   Specifically, in the camera body, the microcomputer 402 performs lens aberration correction processing of the subject image by controlling the image processing circuit 425. Then, the microcomputer 402 performs conversion processing based on coordinate conversion by lens aberration correction on the dust correction data, and describes this dust correction data in the Exif information of the subject image on which the lens aberration correction processing has been executed.

この段階で、レンズ収差補正による座標変換に基づく変換処理を施されたゴミ補正データをExif情報として有する、レンズ収差補正処理を受けた被写体画像データは、外部記録装置419に記録された状態となる。   At this stage, the subject image data subjected to the lens aberration correction process having the dust correction data subjected to the conversion process based on the coordinate conversion by the lens aberration correction as Exif information is recorded in the external recording device 419. .

次に、画像処理装置のCPU1001は、入力デバイス1004を介して、外部記録装置419に記録された被写体画像データを取り込む。そして、CPU1001は、ゴミ除去処理を実行する。なお、図17を用いて説明したゴミ除去処理においては、ステップS92からステップS94で、上記(1)のゴミ補正データの変換処理を行っている。しかし、本実施例1では、画像処理装置が受け取る被写体画像データに付加されているゴミ補正データは、すでにこの変換処理が行われているので、画像処理装置内でのゴミ除去処理においては、これらのステップが省略される。つまり、画像処理装置内ではゴミ補正データの変換の必要は無く、付加されたゴミ補正データのその座標と半径を直接的に適用することで、被写体画像に対して補間処理を行うことができる。   Next, the CPU 1001 of the image processing apparatus captures subject image data recorded in the external recording device 419 via the input device 1004. Then, the CPU 1001 executes dust removal processing. In the dust removal process described with reference to FIG. 17, the dust correction data conversion process (1) is performed in steps S92 to S94. However, in the first embodiment, since the dust correction data added to the subject image data received by the image processing apparatus has already been subjected to this conversion process, in the dust removal process in the image processing apparatus, these This step is omitted. That is, there is no need to convert dust correction data in the image processing apparatus, and interpolation processing can be performed on the subject image by directly applying the coordinates and radius of the added dust correction data.

(実施例2)
実施例2では、ステップCとステップDを逆順とした上で、ステップA、B、Dをカメラ本体で行い、ステップC、E、Fを画像処理装置で行う。
(Example 2)
In Embodiment 2, Steps A, B, and D are performed by the camera body, and Steps C, E, and F are performed by the image processing apparatus with Step C and Step D being reversed.

このように構成すると、被写体画像やゴミの付着状況によっては必ずしも画像処理装置で実行するとは限らないゴミ除去処理に対する準備を、カメラ側では最小限に留めることができる。したがって、カメラ側での処理負担が軽くなるため、カメラの連写性能などに対しては都合が良い。   With this configuration, preparations for dust removal processing that is not necessarily executed by the image processing apparatus depending on the subject image and dust adhesion state can be minimized on the camera side. Accordingly, the processing load on the camera side is reduced, which is convenient for continuous shooting performance of the camera.

具体的には、カメラ本体において、マイクロコンピュータ402が、画像処理回路425を制御することにより、被写体画像のレンズ収差補正処理を行う。そして、このときExif情報としては、ゴミ検出画像から得られたゴミ補正データが、ゴミ検出画像を取得したときのレンズ情報と共に、記述されている。もちろん被写体画像を撮影したレンズ情報も記述されている。   Specifically, in the camera body, the microcomputer 402 performs lens aberration correction processing of the subject image by controlling the image processing circuit 425. At this time, as the Exif information, dust correction data obtained from the dust detection image is described together with lens information when the dust detection image is acquired. Of course, the lens information of the subject image is also described.

次に、画像処理装置のCPU1001は、入力デバイス1004を介して、外部記録装置419に記録された被写体画像データを取り込む。そして、CPU1001は、被写体画像データに付加されているExif情報を読み込む。このExif情報を基に、まずゴミ検出画像撮影時のレンズと通常撮影時のレンズとの違いによる変換処理を施した後、レンズ収差補正による座標変換に基づく変換処理をゴミ補正データに施す。レンズ収差補正による座標変換に基づく変換処理は、図17を用いて説明したゴミ除去処理におけるステップS94の直後に行われることになる。このように変換処理されたゴミ補正データに基づいて、ゴミ除去処理を実行する。なお、レンズ収差補正による座標変換に基づく変換処理をゴミ補正データに施すときに必要な、歪曲収差補正ルックアップテーブルは二次記憶部1003に記憶されている。この歪曲収差補正ルックアップテーブルは、ゴミ補正データの変換時に一次記憶部1002に読み込まれて用いられる。   Next, the CPU 1001 of the image processing apparatus captures subject image data recorded in the external recording device 419 via the input device 1004. Then, the CPU 1001 reads the Exif information added to the subject image data. Based on the Exif information, first, conversion processing based on the difference between the lens at the time of dust detection image shooting and the lens at the time of normal shooting is performed, and then the dust correction data is subjected to conversion processing based on coordinate conversion by lens aberration correction. The conversion process based on the coordinate conversion by the lens aberration correction is performed immediately after step S94 in the dust removal process described with reference to FIG. Based on the dust correction data thus converted, dust removal processing is executed. It should be noted that a distortion aberration correction lookup table required when the dust correction data is subjected to conversion processing based on coordinate conversion by lens aberration correction is stored in the secondary storage unit 1003. This distortion aberration correction lookup table is read into the primary storage unit 1002 and used when converting dust correction data.

(実施例3)
実施例3では、ステップAとステップBをカメラ本体で行い、ステップC〜Fを画像処理装置で行う。
(Example 3)
In the third embodiment, Step A and Step B are performed by the camera body, and Steps C to F are performed by the image processing apparatus.

このように構成すると、実施例2の構成に比べてもさらにカメラの処理負担は軽減されるので、よりシャッタチャンスに強いという効果が得られる。   With this configuration, the processing load on the camera is further reduced as compared with the configuration of the second embodiment, so that it is possible to obtain an effect that the photo opportunity is stronger.

具体的には、カメラ本体は、ゴミ検出用画像を撮影してゴミ補正データを取得することと通常撮影を行うのみである。通常撮影で得られた被写体画像のExif情報には、ゴミ検出画像取得時のレンズ情報および通常撮影時のレンズ情報が、ゴミ補正データと共に記述されている。   Specifically, the camera body only acquires dust correction data by shooting dust detection images and performs normal shooting. In the Exif information of the subject image obtained by normal shooting, lens information at the time of acquiring a dust detection image and lens information at the time of normal shooting are described together with dust correction data.

次に、画像処理装置のCPU1001は、入力デバイス1004を介して、外部記録装置419に記録された被写体画像データを取り込む。そして、CPU1001は、被写体画像に対してレンズ収差補正処理を行う。なお、歪曲収差補正ルックアップテーブルは二次記憶部1003に記憶されており、レンズ収差補正処理時には、一次記憶部1002に読み込まれて用いられる。そして、被写体画像データに付加されているExif情報を読み込む。このExif情報を基に、まずゴミ検出画像撮影時のレンズと通常撮影時のレンズとの違いによる変換処理を施した後、レンズ収差補正による座標変換に基づく変換処理をゴミ補正データに施す。レンズ収差補正による座標変換に基づく変換処理は、図17を用いて説明したゴミ除去処理におけるステップS94の直後に行われることになる。このように変換処理されたゴミ補正データに基づいて、ゴミ除去処理を実行する。   Next, the CPU 1001 of the image processing apparatus captures subject image data recorded in the external recording device 419 via the input device 1004. The CPU 1001 performs lens aberration correction processing on the subject image. Note that the distortion aberration correction lookup table is stored in the secondary storage unit 1003, and is read into the primary storage unit 1002 and used during lens aberration correction processing. Then, the Exif information added to the subject image data is read. Based on the Exif information, first, conversion processing based on the difference between the lens at the time of dust detection image shooting and the lens at the time of normal shooting is performed, and then the dust correction data is subjected to conversion processing based on coordinate conversion by lens aberration correction. The conversion process based on the coordinate conversion by the lens aberration correction is performed immediately after step S94 in the dust removal process described with reference to FIG. Based on the dust correction data thus converted, dust removal processing is executed.

請求項の「画像処理装置」との対応は、上記(1)の変換処理をおこなう第1の変換手段、および上記(2)の変換処理をおこなう第2の変換手段を備える装置が請求項における「画像処理装置」であるといえる。つまり、実施例1においては、レンズ交換式一眼レフデジタルカメラが請求項の「画像処理装置」であり、実施例2,3においては、画像処理装置がそのまま請求項の「画像処理装置」に相当する。   The correspondence with the "image processing apparatus" in the claims is that the apparatus including the first conversion means for performing the conversion process of (1) and the second conversion means for performing the conversion process of (2) is described in the claims. It can be said that it is an “image processing apparatus”. That is, in the first embodiment, the interchangeable lens single-lens reflex digital camera is the “image processing apparatus” in claims, and in the second and third embodiments, the image processing apparatus is directly equivalent to the “image processing apparatus” in the claims. To do.

(他の実施形態)
また、各実施形態の目的は、次のような方法によっても達成される。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、本発明には次のような場合も含まれる。すなわち、プログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。
(Other embodiments)
The object of each embodiment is also achieved by the following method. That is, a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but the present invention includes the following cases. That is, based on the instruction of the program code, an operating system (OS) running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

さらに、次のような場合も本発明に含まれる。すなわち、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。   Furthermore, the following cases are also included in the present invention. That is, the program code read from the storage medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion card or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明した手順に対応するプログラムコードが格納されることになる。   When the present invention is applied to the above storage medium, the storage medium stores program codes corresponding to the procedure described above.

本発明の実施形態に係る撮像装置としてのレンズ交換式一眼レフデジタルカメラの回路構成を示すブロック図である。1 is a block diagram illustrating a circuit configuration of a lens interchangeable single-lens reflex digital camera as an imaging apparatus according to an embodiment of the present invention. 本発明の実施形態に係るデジタルカメラの外観斜視図である。1 is an external perspective view of a digital camera according to an embodiment of the present invention. 本発明の実施形態に係るデジタルカメラの内部構造を示す垂直断面図である。It is a vertical sectional view showing an internal structure of a digital camera according to an embodiment of the present invention. 歪曲収差補正前の像高と補正後の像高の関係を示す図である。It is a figure which shows the relationship between the image height before distortion aberration correction, and the image height after correction | amendment. 本発明の実施形態に係る歪曲収差補正処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the distortion aberration correction process which concerns on embodiment of this invention. 逆変換によって歪曲収差を補正する、画像処理を説明するための説明図である。It is explanatory drawing for demonstrating the image process which correct | amends a distortion aberration by reverse conversion. 歪曲収差補正前の画像と歪曲収差補正後の画像の関係を説明する図である。It is a figure explaining the relationship between the image before distortion aberration correction, and the image after distortion aberration correction. 本発明の実施形態に係るゴミ検出処理を説明するフローチャートである。It is a flowchart explaining the dust detection process which concerns on embodiment of this invention. 本発明の実施形態に係るゴミ補正データのデータ形式例を示す図である。It is a figure which shows the data format example of the dust correction data which concerns on embodiment of this invention. 図8のステップS27で行われるゴミ領域取得ルーチンの詳細を説明するフローチャートである。It is a flowchart explaining the detail of the dust area | region acquisition routine performed by step S27 of FIG. 図10のステップS62で行われるゴミ領域判定処理の処理単位を示す図である。It is a figure which shows the processing unit of the dust area | region determination process performed by step S62 of FIG. 図10のステップS63で行われるゴミ領域サイズ算出の概要を示す図である。It is a figure which shows the outline | summary of dust area size calculation performed by step S63 of FIG. 図8のステップS24で行われる撮像処理ルーチンの詳細を説明するフローチャートである。It is a flowchart explaining the detail of the imaging process routine performed by step S24 of FIG. 本発明の実施形態に係る画像編集プログラムの内部構造を示す図である。It is a figure which shows the internal structure of the image editing program which concerns on embodiment of this invention. 本発明の実施形態に係る画像処理装置におけるGUIの例を示す図である。It is a figure which shows the example of GUI in the image processing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る画像処理装置のシステム構成の概略を示した図である。1 is a diagram illustrating an outline of a system configuration of an image processing apparatus according to an embodiment of the present invention. 本発明の実施形態に係る画像編集プログラムの編集履歴のデータ構造を示す図である。It is a figure which shows the data structure of the edit history of the image editing program which concerns on embodiment of this invention. 本発明の実施形態に係る自動リペア処理の基本的な流れを説明するフローチャートである。It is a flowchart explaining the basic flow of the automatic repair process which concerns on embodiment of this invention. 本発明の実施形態に係る補間ルーチンの詳細を説明するフローチャートである。It is a flowchart explaining the detail of the interpolation routine which concerns on embodiment of this invention.

Claims (11)

撮像手段から得られる異物検出用の画像信号に基づいて抽出された、撮像画面内における異物の位置情報と、および前記画像信号を取得する際に用いた第1の撮影レンズのレンズ情報とを異物情報として取得する異物情報取得手段と、
被写体撮影時の第2の撮影レンズのレンズ情報を取得するレンズ情報取得手段と、
少なくとも前記第2の撮影レンズの収差情報を含む収差情報を記憶する記憶手段と、
前記異物の位置情報を、前記第1の撮影レンズのレンズ情報と前記第2の撮影レンズのレンズ情報に基づいて、前記第2の撮影レンズで撮影したときの撮像画面内における異物の位置情報に変換する第1の変換手段と、
前記第1の変換手段で変換された前記異物の位置情報を更に、前記第2の撮影レンズのレンズ情報と前記収差情報に基づいて、前記被写体撮影時に撮影された被写体画像が画像処理により収差補正された後の撮像画面内における異物の位置情報に変換する第2の変換手段と、
を備えることを特徴とする画像処理装置。
The position information of the foreign matter in the imaging screen extracted based on the image signal for foreign matter detection obtained from the imaging means, and the lens information of the first photographing lens used when acquiring the image signal are used as the foreign matter. Foreign matter information acquisition means for acquiring information;
Lens information acquisition means for acquiring lens information of the second photographic lens at the time of subject shooting;
Storage means for storing aberration information including aberration information of at least the second photographing lens;
Based on the lens information of the first photographing lens and the lens information of the second photographing lens, the position information of the foreign matter is converted into position information of the foreign matter in the imaging screen when photographed with the second photographing lens. First converting means for converting;
Based on the position information of the foreign matter converted by the first converting means and the lens information and aberration information of the second photographing lens, the subject image photographed at the time of photographing the subject is corrected by the image processing. Second conversion means for converting the position information of the foreign matter in the imaging screen after being
An image processing apparatus comprising:
撮像手段から得られる異物検出用の画像信号に基づいて抽出された、撮像画面内における異物の位置および大きさ情報と、および前記画像信号を取得する際に用いた第1の撮影レンズのレンズ情報とを異物情報として取得する異物情報取得手段と、
被写体撮影時の第2の撮影レンズのレンズ情報を取得するレンズ情報取得手段と、
少なくとも前記第2の撮影レンズの収差情報を含む収差情報を記憶する記憶手段と、
前記異物の位置および大きさ情報を、前記第1の撮影レンズのレンズ情報と前記第2の撮影レンズのレンズ情報に基づいて、前記第2の撮影レンズで撮影したときの撮像画面内における異物の位置および大きさ情報に変換する第1の変換手段と、
前記第1の変換手段で変換された前記異物の位置および大きさ情報を更に、前記第2の撮影レンズのレンズ情報と前記収差情報に基づいて、前記被写体撮影時に撮影された被写体画像が画像処理により収差補正された後の撮像画面内における異物の位置および大きさ情報に変換する第2の変換手段と、
を備えることを特徴とする画像処理装置。
The position and size information of the foreign matter in the imaging screen extracted based on the foreign matter detection image signal obtained from the imaging means, and the lens information of the first photographing lens used when acquiring the image signal Foreign matter information acquisition means for acquiring
Lens information acquisition means for acquiring lens information of the second photographic lens at the time of subject shooting;
Storage means for storing aberration information including aberration information of at least the second photographing lens;
Based on the lens information of the first photographing lens and the lens information of the second photographing lens, the position and size information of the foreign matter is determined based on the second photographing lens. First conversion means for converting into position and size information;
Based on the position and size information of the foreign matter converted by the first conversion means, and based on the lens information and aberration information of the second photographing lens, the subject image photographed at the time of photographing the subject is subjected to image processing. Second conversion means for converting the position and size information of the foreign matter in the imaging screen after aberration correction by
An image processing apparatus comprising:
前記第1の撮影レンズのレンズ情報および前記第2の撮影レンズのレンズ情報は、少なくとも前記画像信号取得時もしくは前記被写体撮影時の絞り値と瞳位置の情報を含むことを特徴とする請求項1または2に記載の画像処理装置。   2. The lens information of the first photographing lens and the lens information of the second photographing lens include at least information on an aperture value and a pupil position at the time of obtaining the image signal or photographing the subject. Or the image processing apparatus of 2. 収差補正された被写体画像に対して、前記第2の変換手段によって変換された異物情報に基づいて、異物除去処理を行う異物除去処理手段を更に備えることを特徴とする請求項1ないし3のいずれか1項に記載の画像処理装置。   4. The apparatus according to claim 1, further comprising foreign matter removal processing means for performing foreign matter removal processing based on foreign matter information converted by the second conversion means with respect to the subject image corrected for aberration. The image processing apparatus according to claim 1. 前記記憶手段に記憶されている収差情報に基づいて、前記被写体撮影時に撮影された被写体画像の収差を補正する収差補正処理手段を更に備えることを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, further comprising an aberration correction processing unit that corrects an aberration of a subject image captured at the time of photographing the subject based on aberration information stored in the storage unit. 請求項1ないし3のいずれか1項に記載の画像処理装置と、
異物検出モードにおいて前記異物検出用の画像信号を取得し、当該画像信号から撮像画面内における異物の位置情報を抽出する抽出手段と、
を備えることを特徴とするレンズ交換式一眼レフデジタルカメラ。
An image processing apparatus according to any one of claims 1 to 3,
An extraction means for acquiring an image signal for foreign object detection in the foreign object detection mode, and extracting position information of the foreign object in the imaging screen from the image signal;
An interchangeable lens single-lens reflex digital camera characterized by comprising:
前記記憶手段に記憶されている収差情報に基づいて、前記被写体撮影時に撮影された被写体画像の収差を補正する収差補正処理手段を更に備えることを特徴とする請求項6に記載のレンズ交換式一眼レフデジタルカメラ。   The interchangeable-lens single-lens camera according to claim 6, further comprising an aberration correction processing unit that corrects an aberration of a subject image captured at the time of photographing the subject based on aberration information stored in the storage unit. Ref digital camera. 前記画像処理手段により収差補正された被写体画像に対して、前記第2の変換手段によって変換された異物情報に基づいて、異物除去処理を行う異物除去処理手段を更に備えることを特徴とする請求項7に記載のレンズ交換式一眼レフデジタルカメラ。   The apparatus further comprises foreign matter removal processing means for performing foreign matter removal processing on the subject image corrected for aberration by the image processing means based on foreign matter information converted by the second conversion means. The interchangeable lens single-lens reflex digital camera of 7. 撮像手段から得られる異物検出用の画像信号に基づいて抽出された、撮像画面内における異物の位置情報と、および前記画像信号を取得する際に用いた第1の撮影レンズのレンズ情報とを異物情報として取得する異物情報取得工程と、
被写体撮影時の第2の撮影レンズのレンズ情報を取得するレンズ情報取得工程と、
前記異物の位置情報を、前記第1の撮影レンズのレンズ情報と前記第2の撮影レンズのレンズ情報に基づいて、前記第2の撮影レンズで撮影したときの撮像画面内における異物の位置情報に変換する第1の変換工程と、
前記第1の変換工程で変換された前記異物の位置情報を更に、前記第2の撮影レンズのレンズ情報と、少なくとも前記第2の撮影レンズの収差情報を含む収差情報を記憶する記憶手段に記憶された前記収差情報に基づいて、前記被写体撮影時に撮影された被写体画像が画像処理により収差補正された後の撮像画面内における異物の位置情報に変換する第2の変換工程と、
を備えることを特徴とする画像処理装置の制御方法。
The position information of the foreign matter in the imaging screen extracted based on the image signal for foreign matter detection obtained from the imaging means, and the lens information of the first photographing lens used when acquiring the image signal are used as the foreign matter. Foreign matter information acquisition process to be acquired as information,
A lens information acquisition step of acquiring lens information of the second photographic lens at the time of subject shooting;
Based on the lens information of the first photographing lens and the lens information of the second photographing lens, the position information of the foreign matter is converted into position information of the foreign matter in the imaging screen when photographed with the second photographing lens. A first conversion step to convert;
The foreign object position information converted in the first conversion step is further stored in storage means for storing lens information of the second photographing lens and aberration information including at least aberration information of the second photographing lens. A second conversion step of converting, based on the aberration information, a subject image photographed at the time of subject photographing into position information of a foreign object in an imaging screen after aberration correction is performed by image processing;
An image processing apparatus control method comprising:
撮像手段から得られる異物検出用の画像信号に基づいて抽出された、撮像画面内における異物の位置および大きさ情報と、および前記画像信号を取得する際に用いた第1の撮影レンズのレンズ情報とを異物情報として取得する異物情報取得工程と、
被写体撮影時の第2の撮影レンズのレンズ情報を取得するレンズ情報取得工程と、
前記異物の位置および大きさ情報を、前記第1の撮影レンズのレンズ情報と前記第2の撮影レンズのレンズ情報に基づいて、前記第2の撮影レンズで撮影したときの撮像画面内における異物の位置および大きさ情報に変換する第1の変換工程と、
前記第1の変換工程で変換された前記異物の位置および大きさ情報を更に、前記第2の撮影レンズのレンズ情報と、少なくとも前記第2の撮影レンズの収差情報を含む収差情報を記憶する記憶手段に記憶された前記収差情報に基づいて、前記被写体撮影時に撮影された被写体画像が画像処理により収差補正された後の撮像画面内における異物の位置および大きさ情報に変換する第2の変換工程と、
を備えることを特徴とする画像処理装置の制御方法。
The position and size information of the foreign matter in the imaging screen extracted based on the foreign matter detection image signal obtained from the imaging means, and the lens information of the first photographing lens used when acquiring the image signal A foreign substance information acquisition step of acquiring
A lens information acquisition step of acquiring lens information of the second photographic lens at the time of subject shooting;
Based on the lens information of the first photographing lens and the lens information of the second photographing lens, the position and size information of the foreign matter is determined based on the second photographing lens. A first conversion step for converting to position and size information;
A memory for storing the position information and the size information of the foreign matter converted in the first conversion step, lens information of the second photographing lens, and aberration information including at least aberration information of the second photographing lens. Based on the aberration information stored in the means, a second conversion step of converting the object image taken at the time of shooting the object into position information and size information in the imaging screen after the aberration correction is performed by image processing When,
An image processing apparatus control method comprising:
請求項9または10に記載の制御方法をコンピュータに実行させるためのプログラム。   The program for making a computer perform the control method of Claim 9 or 10.
JP2007327989A 2007-12-19 2007-12-19 Image processing apparatus, control method thereof, interchangeable lens single-lens reflex digital camera, and program Expired - Fee Related JP4960852B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007327989A JP4960852B2 (en) 2007-12-19 2007-12-19 Image processing apparatus, control method thereof, interchangeable lens single-lens reflex digital camera, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007327989A JP4960852B2 (en) 2007-12-19 2007-12-19 Image processing apparatus, control method thereof, interchangeable lens single-lens reflex digital camera, and program

Publications (2)

Publication Number Publication Date
JP2009152804A JP2009152804A (en) 2009-07-09
JP4960852B2 true JP4960852B2 (en) 2012-06-27

Family

ID=40921436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007327989A Expired - Fee Related JP4960852B2 (en) 2007-12-19 2007-12-19 Image processing apparatus, control method thereof, interchangeable lens single-lens reflex digital camera, and program

Country Status (1)

Country Link
JP (1) JP4960852B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5020894B2 (en) * 2008-06-10 2012-09-05 キヤノン株式会社 Image processing apparatus, control method, and program
KR101599885B1 (en) * 2009-09-29 2016-03-04 삼성전자주식회사 Digital photographing apparatus and method
WO2013136416A1 (en) * 2012-03-12 2013-09-19 富士機械製造株式会社 Industrial machine and camera unit
WO2018168506A1 (en) * 2017-03-13 2018-09-20 Necソリューションイノベータ株式会社 Image conversion assist device, image conversion device, image conversion assist method, and computer readable recording medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184247A (en) * 1998-12-21 2000-06-30 Olympus Optical Co Ltd Lens interchangeable digital camera
JP2003189169A (en) * 2001-09-27 2003-07-04 Fuji Photo Film Co Ltd Image processing apparatus
JP4466015B2 (en) * 2002-12-27 2010-05-26 株式会社ニコン Image processing apparatus and image processing program
JP2007215151A (en) * 2006-01-12 2007-08-23 Canon Inc Imaging apparatus, control method thereof, and program
JP4590355B2 (en) * 2006-01-12 2010-12-01 キヤノン株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2009152804A (en) 2009-07-09

Similar Documents

Publication Publication Date Title
JP4590355B2 (en) Image processing apparatus, image processing method, and program
JP4799462B2 (en) Image processing apparatus, control method thereof, program, storage medium, and imaging apparatus
US7991241B2 (en) Image processing apparatus, control method therefor, and program
US8711241B2 (en) Image capturing apparatus, control method thereof, and program
JP4771539B2 (en) Image processing apparatus, control method therefor, and program
JP4771540B2 (en) Image processing apparatus, control method therefor, image processing method and program
US7619666B2 (en) Image processing apparatus, control method therefor, and program correcting image data based on foreign substance information and inhibiting such correction
JP4480147B2 (en) Imaging apparatus and control method thereof
US8576306B2 (en) Image sensing apparatus, image processing apparatus, control method, and computer-readable medium
JP4960852B2 (en) Image processing apparatus, control method thereof, interchangeable lens single-lens reflex digital camera, and program
JP4827778B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP2010098698A (en) Imaging apparatus, control method thereof and program
JP2008042348A (en) Image processor, image processing method, imaging apparatus and program
JP5094571B2 (en) Imaging apparatus, control method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120323

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4960852

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees