JP5501069B2 - Image processing apparatus, imaging apparatus, image processing method, and program - Google Patents

Image processing apparatus, imaging apparatus, image processing method, and program Download PDF

Info

Publication number
JP5501069B2
JP5501069B2 JP2010079970A JP2010079970A JP5501069B2 JP 5501069 B2 JP5501069 B2 JP 5501069B2 JP 2010079970 A JP2010079970 A JP 2010079970A JP 2010079970 A JP2010079970 A JP 2010079970A JP 5501069 B2 JP5501069 B2 JP 5501069B2
Authority
JP
Japan
Prior art keywords
restoration
image
focus detection
imaging
subject distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010079970A
Other languages
Japanese (ja)
Other versions
JP2011211663A (en
Inventor
政人 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010079970A priority Critical patent/JP5501069B2/en
Publication of JP2011211663A publication Critical patent/JP2011211663A/en
Application granted granted Critical
Publication of JP5501069B2 publication Critical patent/JP5501069B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理装置、撮像装置、画像処理方法およびプログラムに関する。   The present invention relates to an image processing device, an imaging device, an image processing method, and a program.

特許文献1は、撮像光学系の点像分布関数(PSF:point spread function)に基づいて撮像光学系により撮像された画像を復元(回復)する画像処理方法を開示している。また、特許文献2は、複数の復元フィルタの中から画像復元に最適の復元フィルタを選択する画像処理方法を開示している。   Patent Document 1 discloses an image processing method for restoring (recovering) an image captured by an imaging optical system based on a point spread function (PSF) of the imaging optical system. Patent Document 2 discloses an image processing method for selecting an optimum restoration filter for image restoration from a plurality of restoration filters.

特開昭62−127976号公報Japanese Patent Laid-Open No. 62-127976 特開2008−211679号公報JP 2008-2111679 A

撮像画面に、フォーカス位置にある第1被写体と被写界深度内にはあるがフォーカス位置から若干ずれたデフォーカス位置にある第2被写体とがある場合を考える。すると、従来の画像復元は、第1被写体の画像回復に使用される復元フィルタを第2被写体の画像復元にも使用していたため、第2被写体の画像を良好に復元することができない場合があった。一般には、復元される対象の領域(以下、「復元領域」という)のPSFと実際に復元領域に使用されたPSFが異なると回復された画像が劣化する場合がある。   Consider a case where the imaging screen includes a first subject at a focus position and a second subject at a defocus position that is within the depth of field but slightly deviated from the focus position. Then, in the conventional image restoration, since the restoration filter used for image restoration of the first subject is also used for image restoration of the second subject, the image of the second subject may not be restored well. It was. In general, if the PSF of the area to be restored (hereinafter referred to as “restoration area”) differs from the PSF actually used in the restoration area, the restored image may be deteriorated.

これに対して、特許文献2によれば最適フィルタを得ることができるが、特許文献2は最適フィルタを選択するためにフィルタリング処理を複数回行っており、この結果、画像復元時間が長くなるという問題があった。特に、画像回復フィルタのタップが大きくなると画像復元時間が長くなりすぎて特許文献2に開示された画像復元は非現実的となる。   On the other hand, according to Patent Document 2, an optimum filter can be obtained. However, Patent Document 2 performs a filtering process a plurality of times in order to select the optimum filter, and as a result, the image restoration time becomes longer. There was a problem. In particular, when the tap of the image restoration filter becomes large, the image restoration time becomes too long, and the image restoration disclosed in Patent Document 2 becomes unrealistic.

そこで、本発明は、短時間かつ良好に画像復元を行うことが可能な画像処理装置、撮像装置、画像処理方法およびプログラムを提供することを例示的な目的とする。   Accordingly, an object of the present invention is to provide an image processing apparatus, an imaging apparatus, an image processing method, and a program that can perform image restoration in a short time and in a favorable manner.

本発明の画像処理装置は、それぞれが画像復元される対象の領域である複数の復元領域と、それぞれが焦点検出される対象の単位領域である複数の焦点検出領域と、を有する画面において前記複数の焦点検出領域の一つに撮像光学系が合焦されて撮像することによって得られた劣化画像を取得する劣化画像取得部と、前記複数の焦点検出領域の一つについての被写体距離である合焦被写体距離と、前記複数の焦点検出領域のそれぞれについて得られた被写体距離から得られた前記複数の復元領域のそれぞれの被写体距離を含む、前記劣化画像を撮像した際の撮像状態の情報を取得する撮像状態情報取得部と、各復元領域毎に前記撮像状態に対応する前記撮像光学系の光学伝達関数に対応する量を取得する光学伝達関数取得部と、前記劣化画像と前記光学伝達関数に対応する量を使用して各復元領域毎に前記劣化画像を復元する復元処理部と、を有することを特徴とする。   The image processing apparatus according to the present invention includes a plurality of restoration regions, each of which is a region to be restored, and a plurality of focus detection regions, each of which is a unit region to be subjected to focus detection. A deteriorated image acquisition unit that acquires a deteriorated image obtained by imaging with an imaging optical system focused on one of the focus detection areas, and a subject distance for one of the plurality of focus detection areas. Acquisition of information on the imaging state when the deteriorated image is captured, including the subject distance of each of the plurality of restoration regions obtained from the focal subject distance and the subject distance obtained for each of the plurality of focus detection regions An imaging state information acquisition unit, an optical transfer function acquisition unit that acquires an amount corresponding to an optical transfer function of the imaging optical system corresponding to the imaging state for each restoration region, and the degraded image It characterized by having a a restoration processing unit for restoring the deteriorated image in each restoration area using an amount corresponding to the optical transfer function.

本発明によれば、短時間かつ良好に画像復元を行うことが可能な画像処理装置、撮像装置、画像処理方法およびプログラムを提供することができる。   According to the present invention, it is possible to provide an image processing apparatus, an imaging apparatus, an image processing method, and a program that can perform image restoration in a short time and in a satisfactory manner.

図1は、本実施例の撮像装置のブロック図である。FIG. 1 is a block diagram of the imaging apparatus of the present embodiment. 図2は、本実施例の複数の復元領域と複数の焦点検出領域を有する画面の図である。FIG. 2 is a diagram of a screen having a plurality of restoration areas and a plurality of focus detection areas according to the present embodiment. 図3は、図1に示すメモリに格納されている復元フィルタDBの一例を示す図である。FIG. 3 is a diagram showing an example of the restoration filter DB stored in the memory shown in FIG. 図4は、本実施例の画像処理方法を説明するためのフローチャートである。FIG. 4 is a flowchart for explaining the image processing method of this embodiment. 図5は、図2の変形例を示す図である。FIG. 5 is a diagram showing a modification of FIG.

図1は本実施例の撮像装置のブロック図である。撮像装置は、撮像光学系(撮影レンズ)10、システムコントローラ15、撮像光学系制御手段20、被写体距離取得手段、撮像素子41、画像処理部50、記録媒体60、その他の手段を有する。   FIG. 1 is a block diagram of the image pickup apparatus of the present embodiment. The imaging apparatus includes an imaging optical system (imaging lens) 10, a system controller 15, an imaging optical system control unit 20, a subject distance acquisition unit, an imaging element 41, an image processing unit 50, a recording medium 60, and other units.

撮像装置は、デジタルカメラ、デジタルビデオカメラなど種類を問わないが、本実施例では撮像装置は不図示のファインダによって被写体を観察可能なデジタル一眼レフカメラである。また、撮像装置は、撮像光学系10を収納した不図示のレンズ装置と図1の撮像光学系10以外の構成要素を収納したカメラ本体とから構成され、レンズ装置がカメラ本体と着脱可能に構成されている。   The image pickup apparatus may be of any type such as a digital camera or a digital video camera. In this embodiment, the image pickup apparatus is a digital single-lens reflex camera capable of observing a subject with a finder (not shown). In addition, the imaging device includes a lens device (not shown) that houses the imaging optical system 10 and a camera body that houses components other than the imaging optical system 10 of FIG. 1, and the lens device is configured to be detachable from the camera body. Has been.

また、本実施例では、画像の各画素がR(赤色)、G(緑色)、B(青色)として色成分ごとの信号値を有するが、本発明の画像処理方法は二色以上の多色からなる画像を形成するものであれば適用することができる。   In this embodiment, each pixel of the image has a signal value for each color component as R (red), G (green), and B (blue). However, the image processing method of the present invention uses two or more colors. The present invention can be applied as long as it forms an image made of

撮像光学系10は、被写体の光学像を形成するが、軸上色収差、色の球面収差、色のコマ収差などの収差を有するため、被写体の光学像は収差によって劣化している。撮像光学系10は、レンズ11、焦点調節(合焦)に際して移動するフォーカスレンズ12、光量調節用の絞り13を有する。なお、レンズ11は、変倍に際して移動する変倍レンズ(ズームレンズ)、前側の固定レンズなどフォーカスレンズ以外のレンズを含む。図1において、一点鎖線で示すOAは光軸である。   The imaging optical system 10 forms an optical image of the subject. However, since the imaging optical system 10 has aberrations such as axial chromatic aberration, chromatic spherical aberration, and chromatic coma, the optical image of the subject is deteriorated due to the aberration. The imaging optical system 10 includes a lens 11, a focus lens 12 that moves during focus adjustment (focusing), and a diaphragm 13 for adjusting the amount of light. The lens 11 includes a lens other than the focus lens, such as a variable power lens (zoom lens) that moves upon zooming, and a fixed lens on the front side. In FIG. 1, OA indicated by a one-dot chain line is an optical axis.

変倍レンズとフォーカスレンズ12はそれぞれ不図示の駆動手段(ステップモータなど)によって光軸方向に沿って移動可能に構成され、その駆動手段は撮像光学系制御手段20によって制御される。なお、図1では、レンズ11とフォーカスレンズ12は1枚のレンズとして単純化しているが、実際には複数枚のレンズから構成されている。   The variable power lens and the focus lens 12 are configured to be movable along the optical axis direction by driving means (not shown) such as a step motor, and the driving means is controlled by the imaging optical system control means 20. In FIG. 1, the lens 11 and the focus lens 12 are simplified as a single lens, but are actually composed of a plurality of lenses.

システムコントローラ15は、撮像光学系制御手段20、被写体距離取得手段、画像処理部50、記録媒体60などに接続され、撮像装置の各部の動作を制御する制御手段として機能し、マイクロコンピュータ(プロセッサ)から構成される。システムコントローラ15は、後述する画像処理部50が実行する画像処理方法を制御する。   The system controller 15 is connected to the imaging optical system control unit 20, the subject distance acquisition unit, the image processing unit 50, the recording medium 60, and the like, functions as a control unit that controls the operation of each unit of the imaging apparatus, and is a microcomputer (processor). Consists of The system controller 15 controls an image processing method executed by an image processing unit 50 described later.

撮像光学系制御手段20は、フォーカスレンズ制御部21、変倍レンズ制御部22、絞り制御部23を有する。   The imaging optical system control unit 20 includes a focus lens control unit 21, a variable magnification lens control unit 22, and an aperture control unit 23.

フォーカスレンズ制御部21は、フォーカスレンズ12を光軸方向に駆動する不図示の駆動手段の動作(駆動タイミング、駆動量、駆動方向)を制御する。変倍レンズ制御部22は、変倍レンズを光軸方向に駆動する不図示の駆動手段の動作を制御する。絞り制御部23は絞り13の開口径を制御する。   The focus lens control unit 21 controls the operation (drive timing, drive amount, drive direction) of a drive unit (not shown) that drives the focus lens 12 in the optical axis direction. The zoom lens control unit 22 controls the operation of a driving unit (not shown) that drives the zoom lens in the optical axis direction. The aperture controller 23 controls the aperture diameter of the aperture 13.

被写体距離取得手段は、画面に設定された複数の焦点検出領域の被写体距離を取得する。被写体距離取得手段は、サブミラー31、焦点検出部32、焦点検出情報保持部34、被写体距離演算部35を有する。   The subject distance acquisition unit acquires subject distances of a plurality of focus detection areas set on the screen. The subject distance acquisition unit includes a sub mirror 31, a focus detection unit 32, a focus detection information holding unit 34, and a subject distance calculation unit 35.

サブミラー31は、撮像光学系10を経た光路上に配置されて光束を反射する。図1は、非撮像時の状態を示しており、撮像時にはサブミラー31は光路から退避し、光束を撮像素子41に導く。   The sub mirror 31 is disposed on the optical path that has passed through the imaging optical system 10 and reflects the light beam. FIG. 1 shows a state during non-imaging, and during imaging, the sub mirror 31 is retracted from the optical path and guides the light flux to the image sensor 41.

本実施例は位相差検出方式を利用して焦点検出を行う。焦点検出部32は、サブミラー31からの光束を2つの光束に分離する瞳分割光学系と、分離された2像を取り込む一対のエリアセンサと、2像の位置ずれ量(位相差)を演算する位相差演算部と、を有する。   In this embodiment, focus detection is performed using a phase difference detection method. The focus detection unit 32 calculates a pupil division optical system that separates the light beam from the sub-mirror 31 into two light beams, a pair of area sensors that capture the two separated images, and a positional deviation amount (phase difference) between the two images. And a phase difference calculation unit.

図2は、本実施例の複数の復元領域と複数の焦点検出領域が配置された画面の図である。複数の復元領域は、それぞれが画像処理部50によって画像復元(画像回復)される対象の単位領域を示している。本実施例では、一例として画面が5列7行の複数の矩形の復元領域201〜235に分割されている。   FIG. 2 is a diagram of a screen on which a plurality of restoration areas and a plurality of focus detection areas are arranged according to the present embodiment. Each of the plurality of restoration areas indicates a unit area to be restored by the image processing unit 50 (image restoration). In this embodiment, as an example, the screen is divided into a plurality of rectangular restoration areas 201 to 235 of 5 columns and 7 rows.

また、複数の焦点検出領域(AF測距領域)はそれぞれが焦点検出される対象の単位領域であり、複数の焦点検出領域の一つを主被写体に合うように自動又は手動で選択すると、その焦点検出領域が合焦するように焦点調節がなされる。本実施例では、一例として画面に5列7行の複数の矩形の焦点検出領域101〜135が設定されている。   A plurality of focus detection areas (AF ranging areas) are unit areas to be focus-detected, and when one of the plurality of focus detection areas is automatically or manually selected to match the main subject, Focus adjustment is performed so that the focus detection area is in focus. In this embodiment, as an example, a plurality of rectangular focus detection areas 101 to 135 having 5 columns and 7 rows are set on the screen.

本実施例では、図2に示すように、各復元領域に一つずつ焦点検出領域が割り当てられ、焦点検出領域101〜135の数と復元領域201〜235の数とは等しい。   In this embodiment, as shown in FIG. 2, one focus detection area is assigned to each restoration area, and the number of focus detection areas 101 to 135 is equal to the number of restoration areas 201 to 235.

AF時には、焦点検出部32のエリアセンサが複数の焦点検出領域101〜135の像信号を検出し、焦点検出部32の位相差演算部が2つの像信号の相関演算を行って複数の焦点検出領域101〜135の位相差を求める。   During AF, the area sensor of the focus detection unit 32 detects image signals of the plurality of focus detection regions 101 to 135, and the phase difference calculation unit of the focus detection unit 32 performs correlation calculation of the two image signals to detect a plurality of focus points. The phase difference between the areas 101 to 135 is obtained.

次に、複数の焦点検出領域101〜135のうちで焦点を合わせるべき焦点検出領域が選択される。手動選択モードでは撮影者が選択した焦点検出領域が、自動選択モードでは主被写体と判断された焦点検出領域が選択される。次に、焦点検出部32は、選択された焦点調節領域の位相差をフォーカスレンズ制御部21に送る。   Next, a focus detection area to be focused is selected from among the plurality of focus detection areas 101 to 135. In the manual selection mode, the focus detection area selected by the photographer is selected, and in the automatic selection mode, the focus detection area determined as the main subject is selected. Next, the focus detection unit 32 sends the phase difference of the selected focus adjustment region to the focus lens control unit 21.

これに応答して、フォーカスレンズ制御部21(またはシステムコントローラ15)は位相差と焦点検出時のフォーカスレンズ12の位置から合焦を得るのに必要な移動量を求めてフォーカスレンズ12を移動して焦点調節を行う。   In response to this, the focus lens control unit 21 (or the system controller 15) moves the focus lens 12 to obtain a movement amount necessary for obtaining focus from the phase difference and the position of the focus lens 12 at the time of focus detection. Adjust the focus.

焦点検出情報保持部34は、焦点検出部32から、その検出結果である複数の焦点検出領域101〜135の位相差(焦点検出情報)を取得して保持する。また、焦点検出情報保持部34は、フォーカスレンズ制御部21から焦点検出時および合焦時のフォーカスレンズ12の位置の情報を取得して保持する。   The focus detection information holding unit 34 acquires and holds phase differences (focus detection information) of the plurality of focus detection regions 101 to 135 as detection results from the focus detection unit 32. The focus detection information holding unit 34 acquires and holds information about the position of the focus lens 12 at the time of focus detection and in-focus from the focus lens control unit 21.

被写体距離演算部35は、複数の焦点検出領域101〜135の位相差と焦点検出時および合焦時のフォーカスレンズ12の位置から、フォーカス位置(焦平面)にある被写体までの距離(被写体距離)と各焦点検出領域における被写体距離を演算する。なお、フォーカスレンズ制御部21が移動量を算出した時点で合焦時のフォーカスレンズ12の位置が分かるのでフォーカスレンズ12の移動中に被写体距離演算部35はこの演算を行ってもよい。   The subject distance calculation unit 35 is a distance (subject distance) from the phase difference between the plurality of focus detection areas 101 to 135 and the position of the focus lens 12 at the time of focus detection and focusing to the subject at the focus position (focal plane). And subject distance in each focus detection area. Since the position of the focus lens 12 at the time of focusing is known when the focus lens control unit 21 calculates the movement amount, the subject distance calculation unit 35 may perform this calculation while the focus lens 12 is moving.

ローパスフィルタ(LPF)40は、撮像素子41の前段に配置され、撮像光学系10を介した光束を撮像素子41に導く。LPF40は撮像素子41の空間サンプリングによる折り返し成分を抑える。   The low-pass filter (LPF) 40 is disposed in front of the image sensor 41 and guides the light flux via the image pickup optical system 10 to the image sensor 41. The LPF 40 suppresses aliasing components due to spatial sampling of the image sensor 41.

撮像素子41は、被写体の光学像をアナログ電気信号に光電変換するCCDやCMOSである。A/D変換器42は、撮像素子41が変換したアナログ信号をデジタル信号に変換する。   The image sensor 41 is a CCD or CMOS that photoelectrically converts an optical image of a subject into an analog electrical signal. The A / D converter 42 converts the analog signal converted by the image sensor 41 into a digital signal.

撮影時にはサブミラー31が光路から退避し、被写体からの光束は、撮像光学系10、LPF40を介して撮像素子41に結像する。撮像素子41には、RGBで構成される色モザイクフィルタが配置され、RGBの各色成分の信号を取得することができる。   At the time of shooting, the sub mirror 31 is retracted from the optical path, and the light flux from the subject forms an image on the image sensor 41 via the image pickup optical system 10 and the LPF 40. The image sensor 41 is provided with a color mosaic filter composed of RGB, and can acquire signals of RGB color components.

画像処理部50は、画像復元を含む所定の処理を行い、バッファメモリ51、撮像状態情報取得部52、フィルタ選択部53、メモリ54、復元フィルタ補間生成部55、復元処理部56、後処理部58を有する。   The image processing unit 50 performs predetermined processing including image restoration, and performs buffer memory 51, imaging state information acquisition unit 52, filter selection unit 53, memory 54, restoration filter interpolation generation unit 55, restoration processing unit 56, and post-processing unit. 58.

バッファメモリ51は、撮像光学系10の収差によって本来の被写体の画像である原画像(画像復元後の画像)が劣化している画像復元前の劣化画像(RAW画像データ)をA/D変換器42から取得して保持する劣化画像取得部である。   The buffer memory 51 converts a deteriorated image (RAW image data) before image restoration in which an original image (image after image restoration) is deteriorated due to aberration of the imaging optical system 10 into an A / D converter. 42 is a deteriorated image acquisition unit that acquires and holds from 42.

撮像状態情報取得部52は、劣化画像を取得した際の撮像装置の撮像状態の情報を取得する。撮像状態情報取得部52は、撮像装置の撮像状態をシステムコントローラ15やレンズ装置の不図示のレンズコントローラから取得する。   The imaging state information acquisition unit 52 acquires information on the imaging state of the imaging device when the deteriorated image is acquired. The imaging state information acquisition unit 52 acquires the imaging state of the imaging device from the system controller 15 or a lens controller (not shown) of the lens device.

撮像状態は、撮像系の設計データ(製造時の誤差情報もあると好ましい)、変倍位置(焦点距離、ズームレンズの位置)、合焦距離(合焦している被写体までの距離、合焦距離、又はフォーカスレンズの位置)、絞り値(Fナンバー、絞りの径)を含む。撮像状態は更に、撮影距離(撮影領域全域の被写体までの距離、勿論合焦している被写体以外の被写体までの距離も含む)、ISO感度、ホワイトバランスなどを含む。撮像系の設計データは、撮像光学系10の設計データ、絞り13の大きさと形状、LPF40の空間周波数特性、撮像素子41の画素ピッチと画素開口形状、撮像素子41上の色モザイクフィルタの配列等である。また、撮像状態は、合焦被写体距離と、複数の焦点検出領域101〜135から得た複数の復元領域201〜235のそれぞれの被写体距離を含む。   The imaging state includes imaging system design data (preferably with manufacturing error information), zoom position (focal length, zoom lens position), focus distance (distance to the in-focus subject, focus) Distance or focus lens position) and aperture value (F number, aperture diameter). The imaging state further includes the shooting distance (including the distance to the subject in the entire shooting region, and of course, the distance to the subject other than the focused subject), ISO sensitivity, white balance, and the like. The design data of the imaging system includes the design data of the imaging optical system 10, the size and shape of the diaphragm 13, the spatial frequency characteristics of the LPF 40, the pixel pitch and pixel aperture shape of the imaging device 41, the arrangement of color mosaic filters on the imaging device 41, and the like. It is. The imaging state includes the in-focus subject distance and the subject distances of the plurality of restoration regions 201 to 235 obtained from the plurality of focus detection regions 101 to 135.

なお、実際に利用する撮像状態は、必要に応じて選択することができる。一般には、撮像された画像のボケを復元する場合にはより多くの撮像状態の情報を使用し、撮像系の設計データより求まる収差情報に基づいて画像復元を行う場合にはISO感度やホワイトバランスは使用しない。   Note that the actual imaging state can be selected as necessary. In general, when restoring the blur of the captured image, more information on the imaging state is used, and when restoring the image based on aberration information obtained from the design data of the imaging system, ISO sensitivity and white balance are used. Is not used.

フィルタ選択部53は、メモリ54に保持されている複数の復元フィルタの一つをRGBの各波長域の光ごとに選択する。このように、本実施例では、画像復元に復元フィルタを使用している。   The filter selection unit 53 selects one of a plurality of restoration filters held in the memory 54 for each light in each of the RGB wavelength ranges. Thus, in this embodiment, the restoration filter is used for image restoration.

但し、本発明は、画像復元において、光学伝達関数(OTF:opticaltransfer function)、またはこれに対応する量(PSF、その他の撮像光学系10の収差情報、後述する広義のOTF、その他の関数を使用することを許容する。この場合、フィルタ選択部53は光学伝達関数取得部として機能し、OTFなどは撮像状態に対応して光学設計値として復元フィルタDB54または不図示のメモリに予め格納される。   However, the present invention uses an optical transfer function (OTF) or an amount corresponding thereto (PSF, other aberration information of the imaging optical system 10, an OTF in a broad sense to be described later), and other functions in image restoration. In this case, the filter selection unit 53 functions as an optical transfer function acquisition unit, and OTF or the like is stored in advance in the restoration filter DB 54 or a memory (not shown) as an optical design value corresponding to the imaging state.

メモリ54は画像復元に使用される複数の復元フィルタ(デジタルフィルタ)とその他の情報を記憶している。本実施例では、RGB形式のカラー画像に対し、システムコントローラ15は、RGBの各色成分に対応した3つの復元フィルタを作成する。撮像光学系10には色収差があり、色成分ごとにボケ方が異なるからである。このため、各色成分の復元フィルタは色収差に基づいて特性(断面)が異なる。   The memory 54 stores a plurality of restoration filters (digital filters) used for image restoration and other information. In this embodiment, the system controller 15 creates three restoration filters corresponding to the RGB color components for the RGB color image. This is because the imaging optical system 10 has chromatic aberration, and the blur method differs for each color component. For this reason, the restoration filter for each color component has different characteristics (cross section) based on chromatic aberration.

RGBの各色成分に対して復元フィルタを作成するために、波長帯域毎の透過率特性が考慮される。これは波長帯域毎のPSFの重み付け係数に相当し、撮像光学系10の分光透過率特性、撮像素子41上の色モザイクフィルタの分光透過特性、撮像素子41の分光感度特性等である。不図示の赤外カットフィルタが使用されている場合は、その分光透過特性も考慮される。   In order to create a restoration filter for each color component of RGB, the transmittance characteristic for each wavelength band is considered. This corresponds to the PSF weighting coefficient for each wavelength band, and includes the spectral transmittance characteristic of the imaging optical system 10, the spectral transmission characteristic of the color mosaic filter on the imaging element 41, the spectral sensitivity characteristic of the imaging element 41, and the like. When an infrared cut filter (not shown) is used, its spectral transmission characteristics are also taken into consideration.

本実施例では、メモリ54は離散的に複数の復元フィルタを保持し、中間値に対応する復元フィルタを復元フィルタ補間生成部55が生成する。これによって、メモリ54の容量を減らすことができる。   In this embodiment, the memory 54 discretely holds a plurality of restoration filters, and the restoration filter interpolation generation unit 55 generates a restoration filter corresponding to the intermediate value. As a result, the capacity of the memory 54 can be reduced.

本実施例では、メモリ54は復元フィルタDB54aを保持している。図3に復元フィルタDB54aの一例を示す。   In the present embodiment, the memory 54 holds a restoration filter DB 54a. FIG. 3 shows an example of the restoration filter DB 54a.

図3(a)において、一列目は交換可能な撮像光学系(撮影レンズ)10を識別し、二列目は変倍レンズの位置である変倍位置を識別し、三列目は絞り13のFナンバーを識別し、四列目は復元フィルタリスト番号を識別している。なお、図3(a)では、便宜上、撮像状態の数を減らしており、実際の復元フィルタリストはより多くの撮像状態のパラメータを含んで細分化されている。   In FIG. 3A, the first row identifies the interchangeable imaging optical system (photographing lens) 10, the second row identifies the zoom position that is the position of the zoom lens, and the third row is the aperture 13. The F number is identified, and the fourth column identifies the restoration filter list number. In FIG. 3A, for convenience, the number of imaging states is reduced, and the actual restoration filter list is subdivided to include more imaging state parameters.

図3(b)は、図3(a)の四列目のフィルタリスト(ここでは、一例としてフィルタリスト番号が「レンズA変倍1絞りF2」)に含まれる複数の復元フィルタ表を示す図である。各フィルタリストは複数の復元フィルタ表を含み、複数の復元フィルタ表は合焦被写体距離で分類されている。合焦被写体距離は、フォーカス位置(焦平面)にある被写体までの距離である。   FIG. 3B is a diagram showing a plurality of restoration filter tables included in the filter list in the fourth column in FIG. 3A (here, the filter list number is “lens A variable magnification 1 stop F2” as an example). It is. Each filter list includes a plurality of restoration filter tables, and the plurality of restoration filter tables are classified according to the in-focus subject distance. The in-focus subject distance is the distance to the subject at the focus position (focal plane).

また、各復元フィルタ表は、複数の復元フィルタ(具体的には復元フィルタを構成するフィルタ係数の行列式)を保持し、複数の復元フィルタは像高(復元領域201〜235)と被写体距離によって分類されている。これは、一つの撮影状態においても撮像光学系10の画角(像高)に応じてPSFは変化するので、各復元領域201〜235に対応する復元フィルタを用いるためである。   Each restoration filter table holds a plurality of restoration filters (specifically, determinants of filter coefficients constituting the restoration filter), and the plurality of restoration filters depend on the image height (restoration areas 201 to 235) and the subject distance. It is classified. This is because the restoration filter corresponding to each restoration area 201 to 235 is used because the PSF changes according to the angle of view (image height) of the imaging optical system 10 even in one photographing state.

画像復元においては、劣化画像をg(x,y)、原画像をf(x、y)、点像分布関数(PSF)をh(x,y)とすると次式の関係が成立する。ここで、*はコンボリューション(畳み込み)であり、(x,y)は画像上の座標である。   In image restoration, if the degraded image is g (x, y), the original image is f (x, y), and the point spread function (PSF) is h (x, y), the following relationship is established. Here, * is convolution (convolution), and (x, y) is coordinates on the image.

数式1をフーリエ変換すると次式のように周波数ごとの積の形式になる。ここで、HはOTFであり、(u,v)は2次元周波数面での座標、即ち周波数である。   When Formula 1 is Fourier transformed, it becomes a product format for each frequency as shown in the following formula. Here, H is OTF, and (u, v) is a coordinate on a two-dimensional frequency plane, that is, a frequency.

数式2の両辺をHで除算してF(u,v)を逆フーリエ変換して実面に戻すことによって原画像f(x,y)が回復像として得られる。   An original image f (x, y) is obtained as a restored image by dividing both sides of Formula 2 by H and performing an inverse Fourier transform on F (u, v) to return to the real surface.

ここで、H−1を逆フーリエ変換したものをRとすると次式が成立する。このため、実面での画像に対するコンボリューションを行うことで同様に原画像を得ることができる。 Here, when R is the result of inverse Fourier transform of H −1 , the following equation is established. For this reason, an original image can be similarly obtained by performing convolution on the actual image.

R(x,y)が復元フィルタである。実際の画像に含まれるノイズ成分を考慮して復元フィルタはウィーナーフィルタを使用してもよい。画像の色にじみ成分の劣化を補正する方法として、ボケ成分の補正により画像の色成分ごとのボケ量が均一にするものがある。なお、変倍位置や絞り径等の撮影状態に応じてOTFは変動するため、復元フィルタもこれに応じて変更する。   R (x, y) is a restoration filter. A Wiener filter may be used as a restoration filter in consideration of a noise component included in an actual image. As a method for correcting deterioration of the color blur component of the image, there is a method in which the blur amount for each color component of the image is made uniform by correcting the blur component. Since the OTF varies depending on the photographing state such as the zoom position and the aperture diameter, the restoration filter is also changed accordingly.

なお、OTFには画像処理部に入力される画像に対してOTFを劣化させる要因を含めることができる。例えば、ローパスフィルタはOTFの周波数特性に対して高周波成分を抑制し、撮像素子41の画素開口の形状や開口率、光源の分光特性や各種波長フィルタの分光特性も周波数特性に影響する。本実施例では、これらを含めた広義のOTFに基づいて復元フィルタを作成している。   The OTF can include a factor that degrades the OTF with respect to an image input to the image processing unit. For example, the low-pass filter suppresses high-frequency components with respect to the frequency characteristics of the OTF, and the shape and aperture ratio of the pixel aperture of the image sensor 41, the spectral characteristics of the light source, and the spectral characteristics of various wavelength filters also affect the frequency characteristics. In this embodiment, a restoration filter is created based on a broad OTF including these.

復元フィルタ補間生成部55は、復元フィルタDB54が保持していないパラメータ(変倍位置、絞り状態、合焦被写体距離、各領域の被写体距離情報)の復元フィルタを隣接する復元フィルタから補間演算を行って生成する。復元フィルタ補間生成部55は、復元フィルタDB54の復元フィルタの容量を低減するのに効果的である。   The restoration filter interpolation generation unit 55 performs an interpolation operation on a restoration filter of parameters (magnification position, aperture state, in-focus subject distance, subject distance information of each area) which are not held in the restoration filter DB 54 from the neighboring restoration filters. To generate. The restoration filter interpolation generation unit 55 is effective in reducing the capacity of the restoration filter of the restoration filter DB 54.

復元処理部56は、本実施例では選択された復元フィルタを使用して画像復元を行う。復元フィルタは、OTFの逆関数に基づいて生成された関数を逆フーリエ変換して得られる2次元フィルタであってもよい。この場合、復元処理部56は、劣化画像に対して復元フィルタをコンボリューションする。   In this embodiment, the restoration processing unit 56 restores an image using the selected restoration filter. The restoration filter may be a two-dimensional filter obtained by inverse Fourier transform of a function generated based on the inverse function of OTF. In this case, the restoration processing unit 56 convolves a restoration filter with respect to the deteriorated image.

復元フィルタは撮像光学系10の収差量に応じてタップ数を決めることができ、各タップは画像の1画素に対応して画像復元でコンボリューションされる。実空間での復元フィルタを入力画像に対してコンボリューションすることによって撮像装置中でフーリエ変換を行うことなく画像を回復することができる。なお、復元フィルタの縦横のタップ数は正方配列でなくてもよい。   The restoration filter can determine the number of taps according to the aberration amount of the imaging optical system 10, and each tap is convoluted by image restoration corresponding to one pixel of the image. By convolving the restoration filter in the real space with respect to the input image, the image can be recovered without performing Fourier transform in the imaging apparatus. Note that the number of taps in the vertical and horizontal directions of the restoration filter need not be square.

但し、本発明の画像復元においては復元フィルタが必ずしも使用されない場合があるので、復元処理部56は、劣化画像とOTFに対応する量と原画像との関係に基づいて各波長域ごとに劣化画像を原画像に回復できれば足りる。なお、OTFに広義のOTFを使用する場合には数式1〜3に示す関係とは異なる関係になる場合がある。   However, since the restoration filter may not always be used in the image restoration of the present invention, the restoration processing unit 56 determines the degraded image for each wavelength region based on the relationship between the degraded image and the amount corresponding to the OTF and the original image. It is sufficient to restore the original image. In addition, when using OTF of a broad sense for OTF, it may become a relationship different from the relationship shown to Numerical formula 1-3.

例えば、復元処理部56が復元フィルタの代わりにOTFの逆関数に基づいて生成された関数を使用する場合、復元処理部56は劣化画像のフーリエ変換に対して周波数空間でデコンボリューションすればよい。   For example, when the restoration processing unit 56 uses a function generated based on the inverse function of OTF instead of the restoration filter, the restoration processing unit 56 may deconvolve the Fourier transform of the degraded image in the frequency space.

復元処理部56は、画面内に第1被写体と第2被写体とがあり、第1被写体ではRGBの各波長域の光についてフォーカス位置にある画像を取得している場合、第1被写体に関するRGBの各光のOTFを第1被写体と第2被写体の画像復元に使用する。本実施例の効果は、第1被写体と第2被写体の被写体距離が異なる場合に特にその効果が顕著となる。   The restoration processing unit 56 has a first subject and a second subject in the screen, and when the first subject acquires an image at the focus position for light in each of the RGB wavelength ranges, The OTF of each light is used for image restoration of the first subject and the second subject. The effect of the present embodiment is particularly remarkable when the subject distances of the first subject and the second subject are different.

なお、必要に応じて画像合成部が設けられる。画像合成部は、RGBの波長域の、回復された複数の原画像を合成してカラー画像を生成する。   An image composition unit is provided as necessary. The image combining unit generates a color image by combining a plurality of recovered original images in the RGB wavelength region.

後処理部58は、画像復元されたRAW画像データに対して、デモザイキング処理、ホワイトバランス処理、ノイズリダクション処理、γ処理などの画像処理(現像処理)を施す。   The post-processing unit 58 performs image processing (development processing) such as demosaicing processing, white balance processing, noise reduction processing, and γ processing on the restored RAW image data.

記録媒体60は、復元処理した画像を保存するカメラ本体に着脱可能なメモリカードなどである。なお、画像処理装置がPCなどである場合には、記憶媒体はハードディスクドライブ(HDD)、半導体メモリ、各種記憶用のディスクなどである。   The recording medium 60 is a memory card that can be attached to and detached from the camera body that stores the restored image. When the image processing apparatus is a PC or the like, the storage medium is a hard disk drive (HDD), a semiconductor memory, various storage disks, or the like.

図4は、システムコントローラ15が実行する画像処理方法を説明するためのフローチャートであり、「S」はステップ(工程)の略である。本実施例の画像処理方法はコンピュータが実行可能なプログラムとして具現化が可能である。   FIG. 4 is a flowchart for explaining an image processing method executed by the system controller 15, and “S” is an abbreviation for a step. The image processing method of the present embodiment can be embodied as a computer-executable program.

まず、システムコントローラ15は、撮像状態取得部52を利用して被写体距離演算部35から合焦被写体距離と複数の焦点検出領域101〜135の被写体距離を取得する。本実施例では、図2に示すように、焦点検出領域と復元領域は一対一で対応しているので、これにより、撮像状態取得部52は、合焦被写体距離と複数の復元領域201〜235のそれぞれの被写体距離を含む撮像状態の情報を取得することができる(S1)。なお、その他の撮像情報は上述した通りである。   First, the system controller 15 acquires the focused subject distance and subject distances of the plurality of focus detection areas 101 to 135 from the subject distance calculation unit 35 using the imaging state acquisition unit 52. In the present embodiment, as shown in FIG. 2, the focus detection area and the restoration area correspond one-to-one, so that the imaging state acquisition unit 52 causes the in-focus subject distance and the plurality of restoration areas 201 to 235 to be matched. The information of the imaging state including each subject distance can be acquired (S1). Other imaging information is as described above.

次に、システムコントローラ15はバッファメモリ(劣化画像取得部)51が劣化画像(RAW画像データ)を取得したことを確認する(S2)。なお、S1とS2の時間的先後は問わない。   Next, the system controller 15 confirms that the buffer memory (degraded image acquisition unit) 51 has acquired a deteriorated image (RAW image data) (S2). In addition, the time ahead of S1 and S2 is not ask | required.

次に、システムコントローラ15は各復元領域の復元フィルタを取得する(S3)。このため、システムコントローラ15は、フィルタ選択部53を利用してメモリ54に保持されている複数の復元フィルタの一つを撮像状態に従って検索して取得する。あるいは、システムコントローラ15は、復元フィルタ補間生成部55を利用して選択された復元フィルタを補正(補間)して復元フィルタを生成する。   Next, the system controller 15 acquires a restoration filter for each restoration area (S3). Therefore, the system controller 15 searches for and acquires one of a plurality of restoration filters held in the memory 54 using the filter selection unit 53 according to the imaging state. Alternatively, the system controller 15 corrects (interpolates) the restoration filter selected using the restoration filter interpolation generation unit 55 to generate a restoration filter.

ここでは、簡単のため、フィルタ選択部53が図3に示す復元フィルタDB54aを検索して復元フィルタを取得する例について説明する。システムコントローラ15は、撮像情報に含まれる撮像光学系10の種類、変倍位置、Fナンバーから図3(a)に示す復元フィルタリストを選択し、次に、合焦被写体距離に基づいて対応する図3(b)に示す復元フィルタ表を選択する。   Here, for the sake of simplicity, an example will be described in which the filter selection unit 53 searches the restoration filter DB 54a illustrated in FIG. 3 and acquires the restoration filter. The system controller 15 selects the restoration filter list shown in FIG. 3A from the type, magnification position, and F number of the imaging optical system 10 included in the imaging information, and then responds based on the focused subject distance. The restoration filter table shown in FIG. 3B is selected.

次に、システムコントローラ15は、復元処理部56を利用して複数の復元領域201〜235のそれぞれの被写体距離に対応する復元フィルタを、選択された復元フィルタ表より選択し、画像復元を行う(S4)。   Next, the system controller 15 uses the restoration processing unit 56 to select a restoration filter corresponding to each subject distance in the plurality of restoration areas 201 to 235 from the selected restoration filter table, and performs image restoration ( S4).

撮像画面に、フォーカス位置にある第1被写体と、被写界深度内にはあるがフォーカス位置から若干ずれたデフォーカス位置にある第2被写体とがある場合を考える。従来の画像復元は、第1被写体の画像回復に使用される復元フィルタを第2被写体の画像復元にも使用していたが、本実施例は復元領域毎にそれに適した復元フィルタを使用する。   Consider a case where a first subject at a focus position and a second subject at a defocus position within the depth of field but slightly deviated from the focus position are present on the imaging screen. In the conventional image restoration, the restoration filter used for image restoration of the first subject is also used for image restoration of the second subject. In this embodiment, a restoration filter suitable for each restoration area is used.

そして、本実施例では、復元領域が合焦していれば合焦被写体距離のPSFに基づく復元フィルタで復元され、デフォーカスしていれば対応する被写体距離のPSFに基づく復元フィルタで復元される。この結果、本実施例は良好な画像復元を提供することができる。また、本実施例は焦点検出情報を使用するので回復処理は一度で済み、短時間で画像復元を行うことができる。   In this embodiment, if the restoration area is in focus, the restoration area is restored by a restoration filter based on the PSF of the focused subject distance. If the restoration area is defocused, the restoration area is restored by a restoration filter based on the PSF of the corresponding subject distance. . As a result, this embodiment can provide good image restoration. Further, since the present embodiment uses the focus detection information, the restoration process is only required once, and the image restoration can be performed in a short time.

その後必要があれば画像合成部が各色毎の画像を合成し、後処理部58は復元された原画像に現像処理を施し、記録媒体60は原画像を保存する。   Thereafter, if necessary, the image synthesis unit synthesizes the images for the respective colors, the post-processing unit 58 performs development processing on the restored original image, and the recording medium 60 stores the original image.

なお、本実施例は、撮像素子41に色モザイクフィルタを配置して、RGBの各色成分の信号を取得しているが、色分解光学系でRGBの各色成分に光束を分離し、各光束に対してRGB用の撮像素子を配置して画像信号を取得して、復元して合成してもよい。   In this embodiment, a color mosaic filter is arranged on the image sensor 41 to acquire RGB color component signals. However, the color separation optical system separates the light fluxes into the RGB color components, and separates the light fluxes into the light fluxes. On the other hand, an RGB image sensor may be arranged to acquire an image signal and restore and combine it.

本実施例の画像処理方法は、撮像装置のシステムコントローラ15が行うものに限定されず、撮像装置が不図示のUSBケーブルなどで接続されるパーソナルコンピュータ(PC)上で行われてもよい。あるいは、記録媒体60をPCに接続してもよい。即ち、本実施例の画像処理方法を実行する画像処理装置は撮像装置でもよいし、PCでもよい。   The image processing method of the present embodiment is not limited to that performed by the system controller 15 of the imaging apparatus, and may be performed on a personal computer (PC) to which the imaging apparatus is connected by a USB cable (not shown). Alternatively, the recording medium 60 may be connected to a PC. That is, the image processing apparatus that executes the image processing method of the present embodiment may be an imaging apparatus or a PC.

画像処理方法と復元フィルタの情報は、PCの不図示のメモリや、PCにネットワーク接続された記憶装置(例えば、インターネットを介して接続されたサーバーのHDD)に格納されていればよい。なお、画像処理方法は、画像復元処理だけでなく現像やその他の画像処理機能を含んでいる。   Information on the image processing method and the restoration filter may be stored in a memory (not shown) of the PC or a storage device connected to the PC via a network (for example, an HDD of a server connected via the Internet). Note that the image processing method includes not only image restoration processing but also development and other image processing functions.

例えば、不図示のPCは、各波長の画像信号と撮影状態の情報を撮像装置または記憶媒体(あるいは外部の記憶装置)から取得してもよい。撮影状態の情報は画像信号の情報と別の情報でもよいし画像信号に埋め込まれていてもよい。その後、PCが画像処理方法を実行する。   For example, a PC (not shown) may acquire an image signal of each wavelength and information on a shooting state from an imaging device or a storage medium (or an external storage device). The shooting state information may be different from the image signal information or may be embedded in the image signal. Thereafter, the PC executes the image processing method.

また、本実施例では、復元領域の数と焦点検出領域の数とが一致しているが、両者は一致しなくてもよい。以下、復元領域の数よりも焦点検出領域の数が少ない場合について説明する。   In the present embodiment, the number of restoration regions and the number of focus detection regions are the same, but they may not be the same. Hereinafter, a case where the number of focus detection areas is smaller than the number of restoration areas will be described.

図5は、この場合の複数の復元領域と複数の焦点検出領域との関係を示す図である。図5では、画面は図2と同様の複数の復元領域201〜235と図2よりも少ない複数の焦点検出領域109〜113、116〜120、123〜127を有する。   FIG. 5 is a diagram showing the relationship between a plurality of restoration areas and a plurality of focus detection areas in this case. In FIG. 5, the screen has a plurality of restoration areas 201 to 235 similar to those in FIG. 2 and a plurality of focus detection areas 109 to 113, 116 to 120, and 123 to 127 that are smaller than those in FIG. 2.

この時、図4のS1において、システムコントローラ15は、複数の復元領域209〜213、216〜220、223〜227の被写体距離を、対応する複数の焦点検出領域109〜113、116〜120、123〜127の被写体距離として取得する。   At this time, in S <b> 1 of FIG. 4, the system controller 15 converts the subject distances of the plurality of restoration areas 209 to 213, 216 to 220, and 223 to 227 to the corresponding plurality of focus detection areas 109 to 113, 116 to 120, 123. Obtained as a subject distance of ~ 127.

一方、システムコントローラ15は、複数の復元領域201、202、208の被写体距離を最も近い(または隣接する)焦点検出領域109の被写体距離として取得する。また、システムコントローラ15は、複数の復元領域203〜205の被写体距離をそれぞれに隣接する焦点検出領域110〜112の被写体距離として取得する。   On the other hand, the system controller 15 acquires subject distances of the plurality of restoration areas 201, 202, and 208 as subject distances of the closest (or adjacent) focus detection area 109. In addition, the system controller 15 acquires subject distances of the plurality of restoration areas 203 to 205 as subject distances of the focus detection areas 110 to 112 adjacent to each other.

同様に、システムコントローラ15は、複数の復元領域206、207、214の被写体距離を最も近い(または隣接する)焦点検出領域113の被写体距離として取得する。また、システムコントローラ15は、複数の復元領域215と221の被写体距離をそれぞれに隣接する焦点検出領域116と120の被写体距離として取得する。   Similarly, the system controller 15 acquires subject distances of the plurality of restoration areas 206, 207, and 214 as subject distances of the closest (or adjacent) focus detection area 113. Further, the system controller 15 acquires subject distances of the plurality of restoration areas 215 and 221 as subject distances of the focus detection areas 116 and 120 adjacent to each other.

また、システムコントローラ15は、複数の復元領域222、229、230の被写体距離を最も近い(または隣接する)焦点検出領域123の被写体距離として取得する。また、システムコントローラ15は、複数の復元領域231〜233の被写体距離をそれぞれに隣接する焦点検出領域124〜126の被写体距離として取得する。また、システムコントローラ15は、複数の復元領域228、234、235の被写体距離を最も近い(または隣接する)焦点検出領域127の被写体距離として取得する。   In addition, the system controller 15 acquires subject distances of the plurality of restoration areas 222, 229, and 230 as subject distances of the closest (or adjacent) focus detection area 123. Further, the system controller 15 acquires subject distances of the plurality of restoration areas 231 to 233 as subject distances of the focus detection areas 124 to 126 adjacent to each other. In addition, the system controller 15 acquires subject distances of the plurality of restoration areas 228, 234, and 235 as subject distances of the closest (or adjacent) focus detection area 127.

このように、焦点検出領域を有しない復元領域の被写体距離は、それに一番近い焦点検出領域の被写体距離情報を設定する。図4のS2以降は同様である。なお、焦点検出領域を有しない復元領域の被写体距離に、その復元領域に近い焦点検出領域のなかで当該復元領域に収差特性が一番近い焦点検出領域の被写体距離情報を設定してもよい。例えば、軸対称の撮像光学系10では光軸OAからの像高が一番近い焦点検出領域が収差特性が一番近い領域となる。   As described above, the subject distance information of the focus detection region closest to the subject distance in the restoration region having no focus detection region is set. The same applies to S2 and subsequent steps in FIG. Note that the subject distance information of the focus detection area having the closest aberration characteristic to the restoration area may be set in the subject distance of the restoration area that does not have the focus detection area. For example, in the axially symmetric imaging optical system 10, the focus detection area where the image height from the optical axis OA is closest is the area where the aberration characteristic is closest.

また、復元領域に複数の焦点検出領域が割り当てられてもよい。その場合、その復元領域の被写体距離に、対応する複数の焦点検出領域について得られた被写体距離の単純平均や重み付け平均、あるいは、複数の焦点検出領域の一つを選択してその選択された焦点検出領域の被写体距離を設定すればよい。   A plurality of focus detection areas may be assigned to the restoration area. In that case, a simple average or a weighted average of object distances obtained for a plurality of corresponding focus detection areas, or one of a plurality of focus detection areas is selected as the object distance of the restoration area and the selected focus is selected. The subject distance in the detection area may be set.

なお、焦点検出方式として、コントラスト検出方式や位相差検出方式とコントラスト検出方式のハイブリッド方式など他の焦点検出方式を使用してもよい。また、焦点検出に使用する光束も、撮像光学系10を経た光束(即ち、内測)ではなく撮像光学系10を経ない光束でもよい。   As the focus detection method, other focus detection methods such as a contrast detection method or a hybrid method of a phase difference detection method and a contrast detection method may be used. Also, the light beam used for focus detection may be a light beam that does not pass through the imaging optical system 10 instead of a light beam that has passed through the imaging optical system 10 (that is, internal measurement).

例えば、コントラスト検出方式を使用した場合コントラストのピーク位置に対応するフォーカスレンズ12の位置が合焦位置であり、各焦点検出領域の被写体距離は、コントラストがピークとなるフォーカスレンズ12の位置から演算で求めることができる。また、実際に撮像する際に焦点調節をするのに選択された焦点検出領域の被写体距離を合焦被写体距離とすればよい。   For example, when the contrast detection method is used, the position of the focus lens 12 corresponding to the peak position of the contrast is the in-focus position, and the subject distance in each focus detection area is calculated from the position of the focus lens 12 where the contrast reaches the peak. Can be sought. In addition, the subject distance in the focus detection region selected for focus adjustment when actually capturing an image may be set as the focused subject distance.

本実施例では、フォーカスレンズ12を駆動するが、焦点調節においては撮像素子41を駆動してもよい。この場合には、焦点検出情報保持部34はフォーカスレンズ12の位置の代わりに撮像素子41の位置(または撮像光学系10と撮像素子41の距離)の情報を取得すればよい。   In this embodiment, the focus lens 12 is driven, but the image sensor 41 may be driven in focus adjustment. In this case, the focus detection information holding unit 34 may acquire information on the position of the imaging element 41 (or the distance between the imaging optical system 10 and the imaging element 41) instead of the position of the focus lens 12.

また、本実施例では、撮像された画像(劣化画像)の撮像状態から復元フィルタ(またはOTFに対応する量)を取得しているが、撮像系の設計データから求まる収差情報から復元フィルタ(またはOTFに対応する量)を取得してもよい。   In this embodiment, the restoration filter (or the amount corresponding to OTF) is acquired from the imaging state of the captured image (degraded image), but the restoration filter (or the aberration information obtained from the design data of the imaging system) The amount corresponding to OTF) may be acquired.

以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although the preferable Example of this invention was described, this invention is not limited to these Examples, A various deformation | transformation and change are possible within the range of the summary.

撮像装置は被写体を撮像する用途に適用することができる。   The imaging device can be applied to use for imaging a subject.

10 撮像光学系
50 画像処理部(画像処理装置)
51 バッファメモリ(劣化画像取得部)
52 撮像状態情報取得部
52 フィルタ選択部(光学伝達関数取得部)
56 復元処理部
10 Imaging Optical System 50 Image Processing Unit (Image Processing Device)
51 Buffer memory (degraded image acquisition unit)
52 Imaging state information acquisition unit 52 Filter selection unit (optical transfer function acquisition unit)
56 Restoration processing unit

Claims (6)

それぞれが画像復元される対象の領域である複数の復元領域と、それぞれが焦点検出される対象の単位領域である複数の焦点検出領域と、を有する画面において前記複数の焦点検出領域の一つに撮像光学系が合焦されて撮像することによって得られた劣化画像を取得する劣化画像取得部と、
前記複数の焦点検出領域の一つについての被写体距離である合焦被写体距離と、前記複数の焦点検出領域のそれぞれについて得られた被写体距離から得られた前記複数の復元領域のそれぞれの被写体距離を含む、前記劣化画像を撮像した際の撮像状態の情報を取得する撮像状態情報取得部と、
各復元領域毎に前記撮像状態に対応する前記撮像光学系の光学伝達関数に対応する量を取得する光学伝達関数取得部と、
前記劣化画像と前記光学伝達関数に対応する量を使用して各復元領域毎に前記劣化画像を復元する復元処理部と、
を有することを特徴とする画像処理装置。
One of the plurality of focus detection areas in a screen having a plurality of restoration areas, each of which is a target area for image restoration, and a plurality of focus detection areas, each of which is a target area for which focus detection is performed. A deteriorated image acquisition unit that acquires a deteriorated image obtained by imaging with an imaging optical system in focus;
The subject distance of each of the plurality of restoration regions obtained from the focused subject distance that is the subject distance for one of the plurality of focus detection regions and the subject distance obtained for each of the plurality of focus detection regions. An imaging state information acquisition unit that acquires information on an imaging state when the degraded image is captured,
An optical transfer function acquisition unit for acquiring an amount corresponding to the optical transfer function of the imaging optical system corresponding to the imaging state for each restoration region;
A restoration processing unit that restores the degraded image for each restoration region using an amount corresponding to the degraded image and the optical transfer function;
An image processing apparatus comprising:
請求項1に記載の画像処理装置を有することを特徴とする撮像装置。   An imaging apparatus comprising the image processing apparatus according to claim 1. それぞれが画像復元される対象の領域である複数の復元領域と、それぞれが焦点検出される対象の単位領域である複数の焦点検出領域と、を有する画面において前記複数の焦点検出領域の一つに撮像光学系が合焦されて撮像することによって得られた劣化画像を取得するステップと、
前記複数の焦点検出領域の一つについての被写体距離である合焦被写体距離と、前記複数の焦点検出領域のそれぞれについて得られた被写体距離から得られた前記複数の復元領域のそれぞれの被写体距離を含む、前記劣化画像を撮像した際の撮像状態の情報を取得するステップと、
各復元領域毎に前記撮像状態に対応する前記撮像光学系の光学伝達関数に対応する量を取得するステップと、
前記劣化画像と前記光学伝達関数に対応する量と原画像を使用して各復元領域毎に前記劣化画像を復元するステップと、
を有することを特徴とする画像処理方法。
One of the plurality of focus detection areas in a screen having a plurality of restoration areas, each of which is a target area for image restoration, and a plurality of focus detection areas, each of which is a target area for which focus detection is performed. Acquiring a deteriorated image obtained by focusing and imaging the imaging optical system;
The subject distance of each of the plurality of restoration regions obtained from the focused subject distance that is the subject distance for one of the plurality of focus detection regions and the subject distance obtained for each of the plurality of focus detection regions. Including acquiring information on an imaging state when the degraded image is captured;
Obtaining an amount corresponding to an optical transfer function of the imaging optical system corresponding to the imaging state for each restoration region;
Restoring the degraded image for each restored region using the degraded image and an amount corresponding to the optical transfer function and the original image;
An image processing method comprising:
前記複数の復元領域の数と前記複数の焦点検出領域の数は同じであり、各復元領域には一つの焦点検出領域が含まれており、
前記撮像状態の情報を取得するステップは、各復元領域の被写体距離に、対応する焦点検出領域の被写体距離を設定することを特徴とする請求項3に記載の画像処理方法。
The number of the plurality of restoration regions and the number of the plurality of focus detection regions are the same, and each restoration region includes one focus detection region,
The image processing method according to claim 3, wherein the step of acquiring information on the imaging state sets a subject distance of a corresponding focus detection region as a subject distance of each restoration region.
前記複数の復元領域の数よりも前記複数の焦点検出領域の数は少なく、
前記撮像状態の情報を取得するステップは、各復元領域の被写体距離に、最も近い焦点検出領域または収差特性が最も近い焦点検出領域の被写体距離を設定することを特徴とする請求項3に記載の画像処理方法。
The number of the plurality of focus detection areas is less than the number of the plurality of restoration areas,
The step of acquiring the information on the imaging state sets the subject distance of the closest focus detection region or the focus detection region having the closest aberration characteristic to the subject distance of each restoration region. Image processing method.
コンピュータを、
それぞれが画像復元される対象の領域である複数の復元領域と、それぞれが焦点検出される対象の単位領域である複数の焦点検出領域と、を有する画面において前記複数の焦点検出領域の一つに撮像光学系が合焦されて撮像することによって得られた劣化画像を取得する手段と、
前記複数の焦点検出領域の一つについての被写体距離である合焦被写体距離と、前記複数の焦点検出領域のそれぞれに関して得られた被写体距離から得られた前記複数の復元領域のそれぞれの被写体距離を含む、前記劣化画像を撮像した際の撮像状態の情報を取得する手段と、
各復元領域毎に前記撮像状態に対応する前記撮像光学系の光学伝達関数に対応する量を取得する手段と、
前記劣化画像と前記光学伝達関数に対応する量と原画像を使用して各復元領域毎に前記劣化画像を復元する手段と、
して機能させるためのプログラム。
Computer
One of the plurality of focus detection areas in a screen having a plurality of restoration areas, each of which is a target area for image restoration, and a plurality of focus detection areas, each of which is a target area for which focus detection is performed. Means for acquiring a deteriorated image obtained by imaging with the imaging optical system in focus;
The subject distance of each of the plurality of restoration areas obtained from the in-focus subject distance that is the subject distance for one of the plurality of focus detection areas and the subject distance obtained for each of the plurality of focus detection areas Means for acquiring information on an imaging state when the degraded image is captured,
Means for obtaining an amount corresponding to an optical transfer function of the imaging optical system corresponding to the imaging state for each restoration region;
Means for restoring the degraded image for each restored region using the degraded image and an amount corresponding to the optical transfer function and the original image;
Program to make it function.
JP2010079970A 2010-03-31 2010-03-31 Image processing apparatus, imaging apparatus, image processing method, and program Expired - Fee Related JP5501069B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010079970A JP5501069B2 (en) 2010-03-31 2010-03-31 Image processing apparatus, imaging apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010079970A JP5501069B2 (en) 2010-03-31 2010-03-31 Image processing apparatus, imaging apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2011211663A JP2011211663A (en) 2011-10-20
JP5501069B2 true JP5501069B2 (en) 2014-05-21

Family

ID=44942215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010079970A Expired - Fee Related JP5501069B2 (en) 2010-03-31 2010-03-31 Image processing apparatus, imaging apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5501069B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5968073B2 (en) * 2012-05-18 2016-08-10 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and image processing program
WO2014050188A1 (en) 2012-09-27 2014-04-03 富士フイルム株式会社 Imaging device and image processing method
DE112013004760B4 (en) 2012-09-27 2017-10-19 Fujifilm Corporation Image capture device and image processing method
JP2014138290A (en) * 2013-01-17 2014-07-28 Sharp Corp Imaging device and imaging method
JP6139141B2 (en) * 2013-01-17 2017-05-31 株式会社ブリヂストン Appearance image generation method and appearance image generation device
JP5921596B2 (en) * 2014-04-30 2016-05-24 三菱電機株式会社 Image processing apparatus and image processing method
JP6538469B2 (en) * 2015-07-31 2019-07-03 株式会社日立製作所 Image processing apparatus, image processing method, and image processing system using the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5034117B2 (en) * 2007-05-30 2012-09-26 富士フイルム株式会社 Imaging apparatus, imaging method, and program

Also Published As

Publication number Publication date
JP2011211663A (en) 2011-10-20

Similar Documents

Publication Publication Date Title
US9185272B2 (en) Image processing method, image processing apparatus, image pickup apparatus, and storage medium storing image processing program
JP5066851B2 (en) Imaging device
JP5528173B2 (en) Image processing apparatus, imaging apparatus, and image processing program
US9843710B2 (en) Focusing adjustment apparatus and focusing adjustment method
JP5824297B2 (en) Image processing apparatus and method, and imaging apparatus
JP5709911B2 (en) Image processing method, image processing apparatus, image processing program, and imaging apparatus
JP5501069B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US8724008B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and program for performing image restoration
JP5791437B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP4818957B2 (en) Imaging apparatus and method thereof
US9911183B2 (en) Image processing method, image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium
JP6381376B2 (en) Imaging apparatus, camera system, image processing apparatus, and image processing program
JP2016213702A (en) Image processing system, control method thereof, and control program
JP2012005056A (en) Image processing device, image processing method and program
JP5348258B2 (en) Imaging device
US10735655B2 (en) Apparatus, method, and program for image processing
JP5653464B2 (en) Imaging apparatus, image processing apparatus, image processing method, image processing program, and storage medium
JP5425135B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP4818956B2 (en) Imaging apparatus and method thereof
JP5409588B2 (en) Focus adjustment method, focus adjustment program, and imaging apparatus
US10062150B2 (en) Image processing apparatus, image capturing apparatus, and storage medium
JP5425136B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP6639208B2 (en) Imaging device and control method thereof
JP2015109681A (en) Image processing method, image processing apparatus, image processing program, and imaging apparatus
JP2017073599A (en) Image processing apparatus, lens apparatus, imaging apparatus, and imaging apparatus manufacturing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140311

R151 Written notification of patent or utility model registration

Ref document number: 5501069

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees