JP2014130231A - Imaging apparatus, method for controlling the same, and control program - Google Patents

Imaging apparatus, method for controlling the same, and control program Download PDF

Info

Publication number
JP2014130231A
JP2014130231A JP2012288031A JP2012288031A JP2014130231A JP 2014130231 A JP2014130231 A JP 2014130231A JP 2012288031 A JP2012288031 A JP 2012288031A JP 2012288031 A JP2012288031 A JP 2012288031A JP 2014130231 A JP2014130231 A JP 2014130231A
Authority
JP
Japan
Prior art keywords
image
focus
focus state
state detection
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012288031A
Other languages
Japanese (ja)
Inventor
Yoshito Tamaki
嘉人 玉木
Hideaki Yamamoto
英明 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012288031A priority Critical patent/JP2014130231A/en
Publication of JP2014130231A publication Critical patent/JP2014130231A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To obtain an accurately focused image with a short release time lag, when performing photographing from a live view state.SOLUTION: An AF unit 202 receives an optical image and outputs a focus state detection result for indicating whether or not the optical image is in a focused state. A CPU 121 selects a first state where the optical image from a photographic lens 137 is guided to an imaging element 107 and a second state where the optical image is guided to the AF unit and obtains the first state, to start the exposure of the imaging element and then, obtains the second state, to correct the blur of a photographed image, based on the focus state detection result, when photographing instruction is issued.

Description

本発明は、撮影の結果得られた画像のボケを修復する機能を備える撮像装置、その制御方法、および制御プログラムに関する。   The present invention relates to an imaging apparatus having a function of repairing blurring of an image obtained as a result of photographing, a control method thereof, and a control program.

近年、デジタル一眼レフカメラなどの撮像装置では、筐体の背面に配置された液晶パネルに表示される映像(画像)を目視しつつ撮影を行う所謂ライブビュー撮影が行われている。一般に、ライブビュー撮影の際に焦点調節を行う場合には、CMOSイメージセンサなどの撮像素子から得られる画像信号を用いてコントラスト検出が行われる。   In recent years, in an imaging apparatus such as a digital single-lens reflex camera, so-called live view shooting is performed in which shooting is performed while viewing a video (image) displayed on a liquid crystal panel disposed on the back of a housing. In general, when focus adjustment is performed during live view shooting, contrast detection is performed using an image signal obtained from an image sensor such as a CMOS image sensor.

一方、ウィーナーフィルタ、一般逆フィルタ、又は射影フィルタなどのボケ修復用のフィルタを用いて、ピントの合っていないボケ画像についてボケ修復が行われている。例えば、撮影条件などに基づく物理的解析又は撮像装置に備えられた測定装置からの出力に基づく推定などによって劣化関数を求めて、デコンボリューションと呼ばれる画像復元アルゴリズムによってボケ画像を修復することが行われている(特許文献1参照)。   On the other hand, blur restoration is performed on a blur image that is out of focus using a blur restoration filter such as a Wiener filter, a general inverse filter, or a projection filter. For example, a deteriorating function is obtained by an image restoration algorithm called deconvolution by obtaining a degradation function by physical analysis based on imaging conditions or by estimation based on an output from a measurement apparatus provided in the imaging apparatus. (See Patent Document 1).

特開2000−20691号公報JP 2000-20691 A

ところで、ライブビュー状態から静止画撮影を行う場合、合焦動作の完了を待って撮影を行うと、コントラスト検出による焦点調節には時間が掛かるので、撮影者が意図した瞬間の静止画を得ることができないことがある。逆に、撮影者が意図した瞬間の静止画を得ようとすると、ピントの合っていない静止画が得られてしまうことがある。   By the way, when taking a still image from the live view state, it takes a long time to adjust the focus by detecting the contrast when taking a picture after the focusing operation is completed. May not be possible. On the other hand, if an attempt is made to obtain a still image at the moment intended by the photographer, a still image that is not in focus may be obtained.

そして、ピントの合っていない静止画に対して、特許文献1に記載のようにフィルタを用いてボケ修復を行おうとすると、ボケの修復を行うための最適なフィルタを得るためには膨大な演算が必要となって、ボケ修復処理に長時間を要してしまうことになる。   Then, if an attempt is made to restore a blur using a filter as described in Patent Document 1 for a still image that is not in focus, a huge amount of computation is required to obtain an optimum filter for performing the restoration of the blur. Therefore, it takes a long time for the blur repair process.

そこで、本発明の目的は、ライブビュー状態から撮影を行う際、短いレリーズタイムラグで精度よくピントの合った静止画を得ることができる撮像装置、その制御方法、および制御プログラムを得ることにある。   Therefore, an object of the present invention is to obtain an imaging apparatus, a control method thereof, and a control program that can obtain a still image in focus with a short release time lag with high accuracy when shooting from a live view state.

上記目的を達成するために、本発明による撮像装置は、撮像の結果得られた撮影画像のボケを修復する撮像装置であって、撮影レンズを介して光学像を受けて当該光学像に応じた画像信号を出力する撮像素子と、前記光学像を受光して当該光学像が合焦状態であるか否かを示す第1の焦点状態検出結果を出力する第1の焦点状態検出手段と、前記撮影レンズからの前記光学像を前記撮像素子に導く第1の状態と前記光学像を前記第1の焦点状態検出手段に導く第2の状態とのいずれかを選択する選択手段と、撮影指示があると、前記選択手段を制御して前記第1の状態として前記撮像素子の露光を開始した後、前記選択手段を制御して前記第2の状態として前記第1の焦点状態検出結果に基づいて前記画像信号に応じた撮影画像のボケ修復を行う制御手段と、を有することを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention is an imaging apparatus that repairs blurring of a captured image obtained as a result of imaging, and receives an optical image via a shooting lens and responds to the optical image. An image sensor that outputs an image signal; a first focus state detection unit that receives the optical image and outputs a first focus state detection result indicating whether or not the optical image is in focus; and A selection unit that selects one of a first state in which the optical image from the photographing lens is guided to the image sensor and a second state in which the optical image is guided to the first focus state detection unit; If it exists, after controlling the said selection means and starting exposure of the said image pick-up element as the said 1st state, the said selection means is controlled and based on the said 1st focus state detection result as the said 2nd state Deblurring of the shot image according to the image signal And having a cormorants control means.

本発明による制御方法は、撮影レンズを介して光学像を受けて当該光学像に応じた画像信号を出力する撮像素子と、前記撮影レンズを介して光学像を受光して当該光学像が合焦状態であるか否かを示す焦点状態検出結果を出力する焦点状態検出手段とを備え、前記画像信号に応じた撮影画像のボケを修復する撮像装置の制御方法であって、前記撮影レンズからの前記光学像を前記撮像素子に導く第1の状態と前記光学像を前記焦点状態検出手段に導く第2の状態とのいずれかを選択する選択ステップと、撮影指示があると、前記選択ステップによって前記第1の状態として前記撮像素子の露光を開始した後、前記選択ステップによって前記第2の状態として前記焦点状態検出結果に基づいて前記画像信号に応じた撮影画像のボケ修復を行う制御ステップと、を有することを特徴とする。   The control method according to the present invention includes an image sensor that receives an optical image through a photographing lens and outputs an image signal corresponding to the optical image, and receives the optical image through the photographing lens and focuses the optical image. A focus state detection means for outputting a focus state detection result indicating whether or not the image is in a state, and a method for controlling an imaging apparatus that repairs blurring of a captured image according to the image signal, When there is a selection step for selecting either the first state for guiding the optical image to the image sensor or the second state for guiding the optical image to the focus state detection means, and when there is a photographing instruction, After the exposure of the image sensor is started as the first state, blur correction of the captured image according to the image signal is performed as the second state by the selection step based on the focus state detection result as the second state. A method, characterized by having a.

本発明による制御プログラムは、撮影レンズを介して光学像を受けて当該光学像に応じた画像信号を出力する撮像素子と、前記撮影レンズを介して光学像を受光して当該光学像が合焦状態であるか否かを示す焦点状態検出結果を出力する焦点状態検出手段とを備え、前記画像信号に応じた撮影画像のボケを修復する撮像装置で用いられる制御プログラムであって、前記撮像装置に備えられたコンピュータに、前記撮影レンズからの前記光学像を前記撮像素子に導く第1の状態と前記光学像を前記焦点状態検出手段に導く第2の状態とのいずれかを選択する選択ステップと、撮影指示があると、前記選択ステップによって前記第1の状態として前記撮像素子の露光を開始した後、前記選択ステップによって前記第2の状態として前記焦点状態検出結果に基づいて前記画像信号に応じた撮影画像のボケ修復を行う制御ステップと、を実行させることを特徴とする。   The control program according to the present invention includes an imaging device that receives an optical image via a photographic lens and outputs an image signal corresponding to the optical image, and receives the optical image via the photographic lens and focuses the optical image. A control program for use in an imaging apparatus that repairs blurring of a captured image according to the image signal, the imaging apparatus comprising: a focus state detection unit that outputs a focus state detection result indicating whether the image is in a state; A selection step of selecting either a first state in which the optical image from the photographic lens is guided to the image sensor or a second state in which the optical image is guided to the focus state detection unit. When the photographing instruction is given, after the exposure of the image sensor is started as the first state by the selection step, the focus state detection is performed as the second state by the selection step. Characterized in that to execute a control step of performing defocus correction of the captured image corresponding to the image signal based on the results.

本発明によれば、レリーズタイムラグと合焦状態とを両立させて撮影を行うことができる。   According to the present invention, it is possible to perform shooting while satisfying both the release time lag and the in-focus state.

本発明の第1の実施形態による撮像装置の一例についてその構成を示すブロック図である。1 is a block diagram illustrating a configuration of an example of an imaging apparatus according to a first embodiment of the present invention. 図1に示す撮像素子の回路構成を概略的に示す図である。It is a figure which shows schematically the circuit structure of the image pick-up element shown in FIG. 図1に示す撮像素子における画素の断面を示す図である。It is a figure which shows the cross section of the pixel in the image pick-up element shown in FIG. 図1に示す撮像素子における撮像用画素の構造を説明するための図であり、(a)は平面図、(b)は(a)に示すA−A線に沿った断面図である。2A and 2B are diagrams for explaining a structure of an imaging pixel in the imaging element shown in FIG. 1, in which FIG. 1A is a plan view and FIG. 2B is a cross-sectional view taken along line AA shown in FIG. 図1に示す撮像素子における焦点検出用画素の構造を説明するための図であり、(a)は平面図、(b)は(a)に示すB−B線に沿った断面図である。2A and 2B are diagrams for explaining a structure of a focus detection pixel in the image sensor shown in FIG. 1, in which FIG. 1A is a plan view and FIG. 2B is a cross-sectional view taken along line BB shown in FIG. 位相差AFにおいて設定可能な焦点検出位置を示す図である。It is a figure which shows the focus detection position which can be set in phase difference AF. コントラストAFにおいて設定可能な焦点検出位置を示す図である。It is a figure which shows the focus detection position which can be set in contrast AF. 図1に示すカメラで行われる撮影動作を説明するためのフローチャートである。2 is a flowchart for explaining a photographing operation performed by the camera shown in FIG. 1. 図8に示すボケ修復処理を説明するためのフローチャートである。FIG. 9 is a flowchart for explaining a blur repair process shown in FIG. 8. FIG. 図9に示すボケ関数生成処理を説明するためのフローチャートである。10 is a flowchart for explaining a blur function generation process shown in FIG. 9. 本発明の第2の実施形態によるカメラで行われる撮影動作を説明するためのフローチャートである。It is a flowchart for demonstrating the imaging | photography operation | movement performed with the camera by the 2nd Embodiment of this invention. 本発明の第3の実施形態によるカメラで行われる撮影動作を説明するためのフローチャートである。It is a flowchart for demonstrating the imaging | photography operation | movement performed with the camera by the 3rd Embodiment of this invention. 図12に示す撮像面位相差AFによる焦点検出位置を示す図である。It is a figure which shows the focus detection position by the imaging surface phase difference AF shown in FIG.

以下、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態による撮像装置の一例についてその構成を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of an example of an imaging apparatus according to the first embodiment of the present invention.

図示の撮像装置(以下カメラと呼ぶ)はカメラ本体138および撮影レンズユニット(以下単に撮影レンズと呼ぶ)137を有しており、撮影レンズ137はカメラ本体138に対して交換可能である。   The illustrated imaging apparatus (hereinafter referred to as a camera) has a camera body 138 and a photographing lens unit (hereinafter simply referred to as a photographing lens) 137, and the photographing lens 137 can be exchanged for the camera body 138.

撮影レンズ137は撮影光学系(結像光学系)を有しており、この撮影光学系は第1レンズ群101を備えている。そして、この第1レンズ群101は光軸方向に進退可能に保持されている。第1レンズ群101の後段には絞り102が配置され、絞り102の開口径を調節することによって撮影の際の光量調節が行われる。絞り102の後段には第2レンズ群103が配置され、絞り102および第2レンズ群103は一体となって光軸方向に進退し、第1レンズ群101の進退動作と連動して、変倍作用(ズーム機能)が行われる。第2レンズ群103の後段には第3レンズ群105が配置され、第3レンズ群105を光軸方向に進退させて、焦点調節が行われる。   The photographing lens 137 has a photographing optical system (imaging optical system), and this photographing optical system includes a first lens group 101. The first lens group 101 is held so as to be movable back and forth in the optical axis direction. A stop 102 is disposed at the subsequent stage of the first lens group 101, and the amount of light at the time of photographing is adjusted by adjusting the aperture diameter of the stop 102. A second lens group 103 is disposed at the subsequent stage of the diaphragm 102, and the diaphragm 102 and the second lens group 103 integrally move forward and backward in the optical axis direction, and change magnification in conjunction with the forward and backward movement of the first lens group 101. The action (zoom function) is performed. A third lens group 105 is disposed following the second lens group 103, and the third lens group 105 is advanced and retracted in the optical axis direction to perform focus adjustment.

ズームアクチュエータ111はカム筒(図示せず)を回動して、第1レンズ群111ないし第2レンズ群103を光軸方向に進退駆動して、変倍作用を行う。絞りアクチュエータ112は、絞り102の開口径を制御して撮影光量を調節する。フォーカスアクチュエータ114は、第3レンズ群105を光軸方向に進退駆動して焦点調節を行う。   The zoom actuator 111 rotates a cam cylinder (not shown) to drive the first lens group 111 or the second lens group 103 forward and backward in the optical axis direction to perform a zooming action. The aperture actuator 112 controls the aperture diameter of the aperture 102 to adjust the amount of photographing light. The focus actuator 114 adjusts the focus by driving the third lens group 105 back and forth in the optical axis direction.

撮影レンズ137にはカメラ通信回路136が備えられており、カメラ通信回路136はカメラ本体138に備えられたレンズ通信回路135と通信を行う。そして、カメラ通信回路136によって撮影レンズに関するレンズ情報がカメラ本体138に送られる。また、カメラ通信回路136はカメラ本体に関するカメラ情報を受領する。ここで、レンズ情報とは、例えば、ズーム状態、絞り状態、フォーカス状態、およびレンズ枠情報などをいう。   The photographing lens 137 is provided with a camera communication circuit 136, and the camera communication circuit 136 communicates with a lens communication circuit 135 provided in the camera body 138. Then, the camera communication circuit 136 sends lens information regarding the photographing lens to the camera body 138. The camera communication circuit 136 receives camera information related to the camera body. Here, the lens information refers to, for example, a zoom state, an aperture state, a focus state, and lens frame information.

カメラ本体138には光学的ローパスフィルタ106が備えられており、この光学的ローパスフィルタ160によって撮影レンズ136から入射する光学像の偽色およびモアレが軽減される。光学的ローパスフィルタ106の後段には撮像素子107が配置されている。この撮像素子107は、例えば、CMOSセンサとその周辺回路で構成される。   The camera main body 138 is provided with an optical low-pass filter 106, and the optical low-pass filter 160 reduces false colors and moire of an optical image incident from the photographing lens 136. An image sensor 107 is arranged at the subsequent stage of the optical low-pass filter 106. The image sensor 107 is composed of, for example, a CMOS sensor and its peripheral circuits.

撮像素子107は、2次元マトリックス状に複数の画素が配置されている。ここでは、撮像素子107として、横方向(行)にm画素(mは2以上の整数)、縦方向(列)にn画素(nは2以上の整数)の受光ピクセル上にベイヤー配列の原色カラーモザイクフィルタがオンチップで形成された2次元単板カラーセンサが用いられる。   The image sensor 107 has a plurality of pixels arranged in a two-dimensional matrix. Here, as the image sensor 107, a primary color in a Bayer array on light receiving pixels of m pixels (m is an integer of 2 or more) in the horizontal direction (row) and n pixels (n is an integer of 2 or more) in the vertical direction (column). A two-dimensional single plate color sensor in which a color mosaic filter is formed on-chip is used.

光学的ローパスフィルタ106の前にはシャッターユニット139が配置されており、シャッターユニット139は静止画撮影の際に露光時間の調整を行う。このシャッターユニット139はシャッターアクチュエータ140によって駆動される。   A shutter unit 139 is disposed in front of the optical low-pass filter 106, and the shutter unit 139 adjusts the exposure time when taking a still image. The shutter unit 139 is driven by a shutter actuator 140.

被写体証明用電子フラッシュ115は、例えば、キセノン管を用いた閃光照明装置である。なお、電子フラッシュ115として連続発光するLEDを備えた照明装置を用いるようにしてもよい。   The subject certification electronic flash 115 is, for example, a flash illumination device using a xenon tube. In addition, you may make it use the illuminating device provided with LED which light-emits continuously as the electronic flash 115. FIG.

AF補助光部116は、所定の開口パターンを有するマスクの像を、投光レンズを介して被写界に投影して、暗い被写体又は低コントラストの被写体に対する焦点検出を向上させる。   The AF auxiliary light unit 116 projects an image of a mask having a predetermined aperture pattern onto the object field via a light projection lens, and improves focus detection for a dark subject or a low-contrast subject.

CPU121はカメラ本体138の制御を司る。図示はしないが、CPU121は演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、および通信インターフェイス回路などを有し、ROMに記憶された所定のプログラムに基づいてカメラを制御して、撮影、画像処理、撮影の結果得られた画像のボケ修復(ボケ復元ともいう)処理、および記録などの一連の処理を実行する。また、CPU121は、位相差AF(位相差オートフォーカス)に関する演算処理、コントラストAFに関する演算処理、および撮像面における位相差AF(撮像面位相差オートフォーカス)を行う。   The CPU 121 controls the camera body 138. Although not shown, the CPU 121 includes a calculation unit, a ROM, a RAM, an A / D converter, a D / A converter, a communication interface circuit, and the like, and controls the camera based on a predetermined program stored in the ROM. A series of processing such as shooting, image processing, blur correction (also referred to as blur restoration) of an image obtained as a result of shooting, and recording are executed. Further, the CPU 121 performs arithmetic processing related to phase difference AF (phase difference autofocus), arithmetic processing related to contrast AF, and phase difference AF (imaging surface phase difference autofocus) on the imaging surface.

電子フラッシュ制御回路122は、CPU121の制御下で、撮影動作に同期して電子フラッシュ115を点灯制御する。補助光駆動回路123は、CPU121の制御下で、焦点検出動作に同期してAF補助光部116を点灯制御する。撮像素子駆動回路124は、CPU121の制御下で、撮像素子107の撮像動作を制御するとともに、その出力である画像信号をA/D変換して画像データとしてCPU121に送る。画像処理回路125は、CPU121の制御下で、画像データについてγ変換、カラー補間、およびJPEG圧縮などの処理を行う。   The electronic flash control circuit 122 controls lighting of the electronic flash 115 in synchronization with the photographing operation under the control of the CPU 121. The auxiliary light driving circuit 123 controls lighting of the AF auxiliary light unit 116 in synchronization with the focus detection operation under the control of the CPU 121. The image sensor driving circuit 124 controls the image capturing operation of the image sensor 107 under the control of the CPU 121, and A / D converts the output image signal to send it to the CPU 121 as image data. The image processing circuit 125 performs processing such as γ conversion, color interpolation, and JPEG compression on the image data under the control of the CPU 121.

フォーカス駆動回路126は、CPU121の制御下で焦点検出結果に基づいてフォーカスアクチュエータ114を駆動制御して、第3レンズ群105を光軸方向に進退して焦点調節を行う。絞り駆動回路128は、CPU121の制御下で絞りアクチュエータ112を駆動制御して絞り102の開口を制御する。ズーム駆動回路129は、CPU121の制御下で、撮影者のズーム操作に応じてズームアクチュエータ111を駆動する。レンズ通信回路135は撮影レンズ137のカメラ通信回路136と通信を行う。シャッター駆動回路145は、CPU121の制御下でシャッターアクチュエータ140を駆動する。   The focus drive circuit 126 controls the focus actuator 114 based on the focus detection result under the control of the CPU 121, and adjusts the focus by moving the third lens group 105 back and forth in the optical axis direction. The aperture driving circuit 128 controls the aperture of the aperture 102 by drivingly controlling the aperture actuator 112 under the control of the CPU 121. The zoom drive circuit 129 drives the zoom actuator 111 according to the photographer's zoom operation under the control of the CPU 121. The lens communication circuit 135 communicates with the camera communication circuit 136 of the photographing lens 137. The shutter drive circuit 145 drives the shutter actuator 140 under the control of the CPU 121.

表示部131は、例えば、LCDであり、表示部131には、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、および焦点検出時の合焦状態表示画像などが表示される。操作スイッチ132は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、および撮影モード選択スイッチなどで構成される。フラッシュメモリ133はカメラ本体138に着脱可能であり、撮影済みの画像が記録される。メモリ144にはCPU121で行われる演算に必要な各種データが保存されている。   The display unit 131 is, for example, an LCD. The display unit 131 displays information related to the shooting mode of the camera, a preview image before shooting, a confirmation image after shooting, a focus state display image at the time of focus detection, and the like. Is done. The operation switch 132 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. The flash memory 133 is detachable from the camera body 138, and a captured image is recorded. The memory 144 stores various data necessary for calculations performed by the CPU 121.

メインミラー200は、ハーフミラーによって構成されており、観察状態(プレビュー状態)の際には撮影光路に斜設され(第2の状態)、撮影状態の際には撮影光路から退去される(第1の状態)。メインミラー200とシャッターユニット139との間にはサブミラー201が配置されている。サブミラー201はメインミラー200を透過した光束をカメラボディの下方に向けて反射する。なお、撮像レンズ137には位相差AFを行うための焦点検出ユニット(位相差AFユニット)202が配置されている。   The main mirror 200 is constituted by a half mirror, and is obliquely provided in the photographing optical path in the observation state (preview state) (second state), and is retreated from the photographing optical path in the photographing state (first state). 1 state). A sub mirror 201 is disposed between the main mirror 200 and the shutter unit 139. The sub mirror 201 reflects the light beam transmitted through the main mirror 200 toward the lower side of the camera body. The imaging lens 137 is provided with a focus detection unit (phase difference AF unit) 202 for performing phase difference AF.

被写体からの光は、撮影レンズ137を通過した後、メインミラー200に入射する。メインミラー200に入射した光の一部は該メインミラー200を透過し、サブミラー201で反射されてAFユニット202に入射する。AFユニット202は、フィールドレンズおよび二次結像レンズによって焦点検出光学系が構成されている。この二次結像レンズは、入射した2つの光束を焦点検出用センサ上に再結像させる。これによって、焦点検出用センサ上には2つの瞳分割領域からの光束により一対の光学像である被写体像が形成される。焦点検出用センサは一対の被写体像を光電変換して一対の像信号(電気信号:第1の焦点状態検出結果)を出力する。   The light from the subject passes through the taking lens 137 and then enters the main mirror 200. Part of the light incident on the main mirror 200 passes through the main mirror 200, is reflected by the sub mirror 201, and enters the AF unit 202. In the AF unit 202, a field detection lens and a secondary imaging lens constitute a focus detection optical system. The secondary imaging lens re-images the two incident light beams on the focus detection sensor. Thus, a subject image, which is a pair of optical images, is formed on the focus detection sensor by the light beams from the two pupil division regions. The focus detection sensor photoelectrically converts a pair of subject images and outputs a pair of image signals (electric signal: first focus state detection result).

ここで、図1に示すカメラで行われる位相差AFについて説明する。   Here, the phase difference AF performed by the camera shown in FIG. 1 will be described.

CPU121は、上記の一対の像信号に関して相関演算を行い、像信号の相対的な位置ずれを示す位相差を算出する。そして、CPU121は当該位相差に基づいて撮影レンズ1の焦点状態(デフォーカス量)を算出(検出)する。さらに、CPU121は、デフォーカス量に基づいて合焦状態とするためのフォーカスレンズの移動量を算出する。   The CPU 121 performs a correlation operation on the pair of image signals and calculates a phase difference indicating a relative position shift of the image signals. Then, the CPU 121 calculates (detects) the focus state (defocus amount) of the photographing lens 1 based on the phase difference. Further, the CPU 121 calculates the amount of movement of the focus lens for achieving the in-focus state based on the defocus amount.

メインミラー200によって反射された光は、撮像素子107と光学的に共役な位置に配置されたピント板(図示せず)上に結像する。そして、光はピント板において拡散され、ピント板を透過した光(被写体像)はペンタダハプリズム(図示せず)によって正立像に変換される。当該正立像は、接眼レンズ(図示せず)によって拡大されて、撮影者によって観察される。   The light reflected by the main mirror 200 forms an image on a focus plate (not shown) disposed at a position optically conjugate with the image sensor 107. The light is diffused on the focusing plate, and the light (subject image) transmitted through the focusing plate is converted into an erect image by a penta roof prism (not shown). The erect image is magnified by an eyepiece lens (not shown) and observed by a photographer.

ここで、図1に示すカメラで行われるコントラストAFについて説明する。   Here, the contrast AF performed by the camera shown in FIG. 1 will be described.

コントラストAFとは、フォーカスレンズを駆動しつつ撮像素子107で撮像された被写体像のコントラスト評価を行うことによって合焦位置を検出する焦点検出である。コントラストAFについては、種々の文献に記載されているので、ここでは詳細な説明を省略する。   Contrast AF is focus detection that detects the in-focus position by evaluating the contrast of the subject image captured by the image sensor 107 while driving the focus lens. Since the contrast AF is described in various documents, detailed description is omitted here.

図2は、図1に示す撮像素子107の回路構成を概略的に示す図である。   FIG. 2 is a diagram schematically showing a circuit configuration of the image sensor 107 shown in FIG.

図2では、撮像素子107について2列×4行の画素が示されているが、実際には、多数の画素が2次元マトリックス状に配置されている。ここでは、撮像素子107は、例えば、画素ピッチが2μm、有効画素数が横3000列×縦2000行=600万画素、撮像画面サイズが横6mm×縦4mmである。   In FIG. 2, pixels of 2 columns × 4 rows are shown for the image sensor 107, but in reality, a large number of pixels are arranged in a two-dimensional matrix. Here, the image sensor 107 has, for example, a pixel pitch of 2 μm, an effective pixel count of 3000 horizontal rows × 2000 vertical rows = 6 million pixels, and an image capture screen size of 6 mm horizontal × 4 mm vertical.

図2において、画素の各々は光電変換部1を有し、この光電変換部1はMOSトランジスタゲートとゲート下の空乏層からなる光電変換素子である。さらに、画素の各々はフォトゲート2、および転送スイッチMOSトランジスタ3を有している。   In FIG. 2, each of the pixels has a photoelectric conversion unit 1, which is a photoelectric conversion element including a MOS transistor gate and a depletion layer under the gate. Further, each pixel has a photogate 2 and a transfer switch MOS transistor 3.

図示の撮像素子107はリセット用MOSトランジスタ4、ソースフォロワアンプMOSトランジスタ5、水平選択スイッチMOSトランジスタ6、ソースフォロワの負荷MOSトランジスタ7、暗出力転送MOSトランジスタ8、明出力転送MOSトランジスタ9、暗出力蓄積容量(CTN)10、明出力蓄積容量(CTS)11、水平転送MOSトランジスタ12、水平出力線リセットMOSトランジスタ13、差動出力アンプ14、水平走査回路15、および垂直走査回路16を有している。   The illustrated image pickup element 107 includes a reset MOS transistor 4, a source follower amplifier MOS transistor 5, a horizontal selection switch MOS transistor 6, a source follower load MOS transistor 7, a dark output transfer MOS transistor 8, a bright output transfer MOS transistor 9, and a dark output. It has a storage capacitor (CTN) 10, a bright output storage capacitor (CTS) 11, a horizontal transfer MOS transistor 12, a horizontal output line reset MOS transistor 13, a differential output amplifier 14, a horizontal scanning circuit 15, and a vertical scanning circuit 16. Yes.

なお、撮像素子の構成については、例えば、特開平9−46596号報に記載されているので、ここではこれ以上の説明を省略する。   The configuration of the image sensor is described in, for example, Japanese Patent Application Laid-Open No. 9-46596, so that further explanation is omitted here.

図3は、図1に示す撮像素子107における画素の断面を示す図である。   FIG. 3 is a diagram illustrating a cross section of a pixel in the image sensor 107 illustrated in FIG. 1.

P型ウェル17には、ゲート酸化膜18、一層目ポリSi19、二層目ポリSi20、およびn+フローティングディフュージョン部(FD)21が形成されている。である。FD21は転送MOSトランジスタを介して光電変換部と接続される。図示の例では、2つの転送MOSトランジスタ3のドレインとFD21とを共通化して、微細化するとともにFD21の容量低減による感度向上を図っているが、Al配線によってFD21を接続してもよい。   In the P-type well 17, a gate oxide film 18, a first-layer poly Si 19, a second-layer poly Si 20, and an n + floating diffusion portion (FD) 21 are formed. It is. The FD 21 is connected to the photoelectric conversion unit via a transfer MOS transistor. In the example shown in the figure, the drains of the two transfer MOS transistors 3 and the FD 21 are made common and miniaturized and the sensitivity is improved by reducing the capacity of the FD 21. However, the FD 21 may be connected by an Al wiring.

続いて、図1に示すカメラで行われる撮像面位相差AFについて説明する。   Next, imaging surface phase difference AF performed by the camera shown in FIG. 1 will be described.

図4は、図1に示す撮像素子107における撮像用画素の構造を説明するための図である。そして、図4(a)は平面図であり、図4(b)は図4(a)に示すA−A線に沿った断面図である。また、図5は、図1に示す撮像素子107における焦点検出用画素の構造を説明するための図である。そて、図5(a)は平面図であり、図5(b)は図5(a)に示すB−B線に沿った断面図である。   FIG. 4 is a diagram for explaining the structure of the imaging pixels in the imaging element 107 shown in FIG. 4A is a plan view, and FIG. 4B is a cross-sectional view taken along line AA shown in FIG. 4A. FIG. 5 is a diagram for explaining the structure of the focus detection pixels in the image sensor 107 shown in FIG. FIG. 5A is a plan view, and FIG. 5B is a cross-sectional view taken along line BB shown in FIG. 5A.

図示の例では、2行×2列の4画素のうち、対角の2画素にG(緑色)の分光感度を有する画素を配置し、他の2画素にそれぞれR(赤色)とB(青色)の分光感度を有する画素を配置したベイヤー配列が用いられている。そして、ベイヤー配列の間に、後述する構造の複数の焦点検出用画素が所定の規則にて分散配置される。   In the example shown in the figure, pixels having G (green) spectral sensitivity are arranged in two diagonal pixels out of four pixels in 2 rows × 2 columns, and R (red) and B (blue) are arranged in the other two pixels, respectively. A Bayer array in which pixels having a spectral sensitivity of 1) are arranged is used. A plurality of focus detection pixels having a structure to be described later are distributed and arranged in a predetermined rule between the Bayer arrays.

図4(b)において、各画素の最前面にはオンチップマイクロレンズMLが配置されている。そして、マイクロレンズMLの後にはCFRはR(赤)のカラーフィルタCFRおよびG(緑)のカラーフィルタCFGが配置されている。なお、PDは図2で説明した光電変換部1を模式的に示したものであり、CLは撮像素子における各種信号を伝達する信号線を形成するための配線層である。また、TLは撮影光学系を模式的に示したものである。   In FIG. 4B, an on-chip microlens ML is disposed on the forefront of each pixel. After the microlens ML, an R (red) color filter CFR and a G (green) color filter CFG are arranged in the CFR. PD schematically shows the photoelectric conversion unit 1 described in FIG. 2, and CL is a wiring layer for forming signal lines for transmitting various signals in the image sensor. TL schematically shows the photographing optical system.

ここで、撮像用画素のマイクロレンズMLと光電変換部PDとは、撮影光学系TLを通過した光束を可能な限り有効に取り込むように構成されている。撮影光学系TLの射出瞳EPと光電変換部PDは、マイクロレンズMLによって共役関係にあり、かつ光電変換部PDの有効面積は大面積に設計される。   Here, the microlens ML of the imaging pixel and the photoelectric conversion unit PD are configured to capture the light beam that has passed through the photographing optical system TL as effectively as possible. The exit pupil EP of the photographing optical system TL and the photoelectric conversion unit PD are in a conjugate relationship by the microlens ML, and the effective area of the photoelectric conversion unit PD is designed to be large.

また、図4(b)においては、R画素の入射光束について説明したが、G画素およびB(青)画素も同一の構造となっている。従って、撮像用のRGB各画素に対応した射出瞳EPは大径となり、被写体からの光束を効率よく取り込んで画像信号のS/Nを向上させている。   In FIG. 4B, the incident light beam of the R pixel has been described, but the G pixel and the B (blue) pixel have the same structure. Accordingly, the exit pupil EP corresponding to each of the RGB pixels for imaging has a large diameter, and the S / N of the image signal is improved by efficiently capturing the light flux from the subject.

図5(a)において、SHAおよびSHBはその分割形態が異なる第1の画素群および第2の画素群である。これら第1および第2の画素群SHAおよびSHBはベイヤー配列の間に所定の規則によって分散配置される。そして、第1の画素群SHAおよび第2の画素群SHBから得られた被写体像の位相差を応じて、CPU121はフォーカスずれ量を算出する。   In FIG. 5A, SHA and SHB are a first pixel group and a second pixel group having different division forms. These first and second pixel groups SHA and SHB are distributed and arranged according to a predetermined rule between the Bayer arrays. Then, the CPU 121 calculates a focus shift amount in accordance with the phase difference between the subject images obtained from the first pixel group SHA and the second pixel group SHB.

具体的には、画像信号を得る際には、G画素は輝度情報の主成分をなす。人間の画像認識特性は輝度情報に敏感であるため、G画素が欠損すると画質劣化が認められやすい。一方、R又はB画素は色情報を取得する画素であるが、人間は色情報には鈍感であるため、色情報を取得する画素は多少の欠損が生じても画質劣化に気づきにくい。   Specifically, when obtaining an image signal, the G pixel is a main component of luminance information. Since human image recognition characteristics are sensitive to luminance information, image quality degradation is likely to be noticed when G pixels are missing. On the other hand, the R or B pixel is a pixel that acquires color information. However, since humans are insensitive to color information, pixels that acquire color information are less likely to notice image quality deterioration even if there is some loss.

そこで、2行×2列の画素のうちG画素は撮像用画素として残し、RとBに相当する位置の一部の画素に所定の割合で焦点検出用画素を配列する。この焦点検出用画素は図5(a)においてSHAおよびSHBで示されている。   Therefore, the G pixels out of the pixels in 2 rows × 2 columns are left as imaging pixels, and focus detection pixels are arranged at a predetermined ratio to some pixels at positions corresponding to R and B. This focus detection pixel is indicated by SHA and SHB in FIG.

マイクロレンズMLと光電変換部PDとは図4(b)に示す撮像用画素と同一構造である。ここでは、焦点検出用画素の信号は画像生成には用いないので、色分離用カラーフィルタの代わりに透明膜CF(無色)が配置される。また、撮像素子107で瞳分割を行うため、配線層CLの開口部はマイクロレンズMLの中心線に対してx方向に偏心している。 The microlens ML and the photoelectric conversion unit PD have the same structure as the imaging pixel shown in FIG. Here, since the signal of the focus detection pixel is not used for image generation, a transparent film CF W (colorless) is disposed instead of the color separation color filter. Further, since pupil division is performed by the image sensor 107, the opening of the wiring layer CL is decentered in the x direction with respect to the center line of the microlens ML.

画素SHAの開口部OPHAは−x方向に偏心しているので、撮影光学系TLの左側の射出瞳EPHAを通過した光束を受光する。同様に、画素SHBの開口部OPHBは+x方向に偏心しているので、撮影光学系TLの右側の射出瞳EPHBを通過した光束を受光する。ここで、画素SHAをx方向に規則的に配列し、これらの画素群で取得した被写体像をA像とする。同様に、画素SHBもx方向に規則的に配列し、これらの画素群で取得した被写体像をB像とする。これらA像とB像の相対位置を検出することで、被写体像のピントずれ量(デフォーカス量)が検出することができる。 Since the opening OP HA of the pixel SHA is decentered in the −x direction, the light beam that has passed through the exit pupil EP HA on the left side of the imaging optical system TL is received. Similarly, since the opening OP HB of the pixel SHB is decentered in the + x direction, the light beam that has passed through the right exit pupil EP HB of the photographing optical system TL is received. Here, the pixels SHA are regularly arranged in the x direction, and a subject image acquired by these pixel groups is defined as an A image. Similarly, the pixels SHB are also regularly arranged in the x direction, and a subject image acquired by these pixel groups is a B image. By detecting the relative positions of these A and B images, the amount of focus shift (defocus amount) of the subject image can be detected.

画素SHAおよびSHBでは、撮影画面のx方向に輝度分布を有した被写体、例えば、y方向の線に対しては焦点検出可能である。必要に応じて、撮影画面のy方向に輝度分布を有した被写体、例えば、x方向の線に対しても焦点検出できるように、撮影レンズのy方向にも瞳分割を行う画素を備えるようにしてもよい。   In the pixels SHA and SHB, focus detection is possible for a subject having a luminance distribution in the x direction on the photographing screen, for example, a line in the y direction. If necessary, a pixel that performs pupil division is also provided in the y direction of the photographing lens so that focus detection can be performed on a subject having a luminance distribution in the y direction of the photographing screen, for example, a line in the x direction. May be.

なお、撮像用画素の間に焦点検出用画素を離散的に配置する技術およびこの焦点検出用画素を用いて焦点検出を行う技術は特許文献1に記載されているので、ここではこれ以上の詳細な説明は省略する。   Note that a technique for discretely disposing focus detection pixels between imaging pixels and a technique for performing focus detection using the focus detection pixels are described in Patent Document 1, and here, more details are described here. The detailed explanation is omitted.

撮像面位相差AFは位相差AFと比べて、より広範囲で焦点検出が可能である。しかしながら、撮像面位相差AFはレンズケラレの影響を大きく受けるため、焦点検出の精度は位相差AFよりも劣る。   The imaging surface phase difference AF can detect a focus in a wider range than the phase difference AF. However, since the imaging surface phase difference AF is greatly affected by lens vignetting, the accuracy of focus detection is inferior to the phase difference AF.

図6は、位相差AFにおいて設定可能な焦点検出位置を示す図である。   FIG. 6 is a diagram showing focus detection positions that can be set in the phase difference AF.

位相差AFにおいては、例えば、外枠で示す撮影領域605の中に離散的に焦点検出位置600〜604が設けられ、焦点検出の際、これら焦点検出位置600〜604から任意の位置を選択・設定することが可能である。   In the phase difference AF, for example, focus detection positions 600 to 604 are discretely provided in an imaging region 605 indicated by an outer frame, and an arbitrary position is selected from these focus detection positions 600 to 604 at the time of focus detection. It is possible to set.

図7は、コントラストAFにおいて設定可能な焦点検出位置を示す図である。   FIG. 7 is a diagram showing focus detection positions that can be set in contrast AF.

コントラストAFにおいては、外枠で示す撮影領域619の中に3×3の9箇所の領域610〜618が設けられ、焦点検出の際には、これら領域610〜618から任意の領域を選択・設定することが可能である。   In contrast AF, nine 3 × 3 areas 610 to 618 are provided in an imaging area 619 indicated by an outer frame, and an arbitrary area is selected and set from these areas 610 to 618 when focus detection is performed. Is possible.

図6および図7に示すように、位相差AFとコントラストAFにおいては、位相差検出のためのラインセンサが離散的に配置されているため、設定可能な焦点検出位置(領域)が異なる。   As shown in FIG. 6 and FIG. 7, in the phase difference AF and the contrast AF, line sensors for detecting the phase difference are discretely arranged, so that the focus detection positions (areas) that can be set are different.

図8は、図1に示すカメラで行われる撮影動作を説明するためのフローチャートである。なお、図8に示すフローチャートにおける処理は図1に示すCPU121によって行われる。   FIG. 8 is a flowchart for explaining a photographing operation performed by the camera shown in FIG. Note that the processing in the flowchart shown in FIG. 8 is performed by the CPU 121 shown in FIG.

いま、撮影者がカメラの電源スイッチをオン操作すると(ステップS101)、CPU121はカメラにおけるアクチュエータおよび撮像素子の動作確認を行う。さらに、CPU121はメモリ内容および実行プログラムの初期化を行って、選択された焦点検出位置など測距に必要な情報をメモリから読み出すとともに、撮影準備動作を行う(ステップS102)。   Now, when the photographer turns on the power switch of the camera (step S101), the CPU 121 confirms the operation of the actuator and the image sensor in the camera. Further, the CPU 121 initializes the memory contents and the execution program, reads out information necessary for distance measurement, such as the selected focus detection position, from the memory, and performs a shooting preparation operation (step S102).

続いて、CPU121はレンズ通信回路135を介して撮影レンズ137のカメラ通信回路136とレンズ通信を行う(ステップS103)。このレンズ通信によって、CPU121は撮影レンズ137の動作確認を行って、撮影レンズ137のメモリ内容および実行プログラムの初期化を行うとともに、準備動作を実行させる。また、CPU121は焦点検出および撮像に必要な撮影レンズの特性を示す特性データを撮像レンズ137から取得して、レンズ特性データとしてメモリ144に保存する。   Subsequently, the CPU 121 performs lens communication with the camera communication circuit 136 of the photographing lens 137 via the lens communication circuit 135 (step S103). By this lens communication, the CPU 121 confirms the operation of the photographing lens 137, initializes the memory contents of the photographing lens 137 and the execution program, and executes a preparatory operation. Further, the CPU 121 acquires characteristic data indicating the characteristics of the photographing lens necessary for focus detection and imaging from the imaging lens 137 and stores it in the memory 144 as lens characteristic data.

なお、このメモリ144には、カメラ本体138の特定を示す特性データがカメラ特性データとして記録されている。   In the memory 144, characteristic data indicating the specification of the camera body 138 is recorded as camera characteristic data.

次に、CPU121は撮影者によってライブビュー撮影が指示されたか否かを判定する(ステップS104)。ライブビュー撮影が指示されていないと(ステップS104において、NO)、CPU121は撮影待機状態となる。一方、ライブビュー撮影が指示されると(ステップS104において、YES)、CPU121はメインミラー200をミラーアップ状態とする。ここでは、CPU121はメインミラー200およびサブミラー201を退避させた後、シャッターユニット139を開いて、撮像素子107を受光可能状態とする(ステップS105)。   Next, the CPU 121 determines whether or not live view shooting has been instructed by the photographer (step S104). If live view shooting is not instructed (NO in step S104), CPU 121 enters a shooting standby state. On the other hand, when live view shooting is instructed (YES in step S104), CPU 121 places main mirror 200 in a mirror-up state. Here, after retracting the main mirror 200 and the sub mirror 201, the CPU 121 opens the shutter unit 139 and sets the image sensor 107 to a light receiving state (step S105).

続いて、CPU121は撮像素子駆動回路123によって撮像素子107を駆動する(ステップS106)。そして、CPU121は表示部131にプレビュー画像を表示する(ステップS107)。これによって、撮影者はプレビュー画像を目視して撮影の際の構図決定を行う。   Subsequently, the CPU 121 drives the image sensor 107 by the image sensor drive circuit 123 (step S106). Then, the CPU 121 displays a preview image on the display unit 131 (step S107). As a result, the photographer visually determines the composition at the time of photographing by viewing the preview image.

ライブビュー撮影動作中において、CPU121はステップS102で読み出された焦点検出位置が常に合焦状態となるように、コントラストAFによるコンティニュアスAFを行う。   During the live view shooting operation, the CPU 121 performs continuous AF by contrast AF so that the focus detection position read in step S102 is always in focus.

続いて、CPU121は撮影者によって静止画撮影が指示されたか否かを判定する(ステップS108)。静止画撮影指示がないと(ステップS108において、NO)、CPU121はコンティニュアスAFを行いつつライブビュー撮影状態を維持する。   Subsequently, the CPU 121 determines whether or not the photographer has instructed to shoot a still image (step S108). If there is no still image shooting instruction (NO in step S108), the CPU 121 maintains the live view shooting state while performing continuous AF.

静止画撮影が指示されると(ステップS108において、YES)、CPU121は撮像素子107の撮像動作を開始して露光を行う(ステップS109)。そして、CPU121は、ステップS102で読み出された焦点検出位置が位相差AFによって焦点検出可能な焦点検出位置であるか否かを判定する(ステップS110)。つまり、CPU121は位相差AFによる検出が可能な撮影条件であるか否かを判定することになる。   When still image shooting is instructed (YES in step S108), the CPU 121 starts the imaging operation of the image sensor 107 and performs exposure (step S109). Then, the CPU 121 determines whether or not the focus detection position read in step S102 is a focus detection position where focus detection is possible by phase difference AF (step S110). In other words, the CPU 121 determines whether or not the photographing condition allows detection by the phase difference AF.

ここで、図7に示すコントラストAFにおける焦点検出位置(領域)611、613、614、615、および617はそれぞれ図6に示す位相差AFにおける焦点検出位置600、601、602、603、および604に対応しており、位相差AFによって焦点検出が可能である。   Here, the focus detection positions (areas) 611, 613, 614, 615, and 617 in the contrast AF shown in FIG. 7 are the focus detection positions 600, 601, 602, 603, and 604 in the phase difference AF shown in FIG. Corresponding, focus detection is possible by phase difference AF.

一方、コントラストAFにおける焦点検出位置610、612、616、および618については、位相差AFに対応する焦点検出位置がないので、位相差AFによる焦点検出は不可能である。つまり、ステップS110では、CPU121はコントラストAFにおける焦点検出位置が位相差AFで焦点検出可能な位置であるか否かを判定することになる。   On the other hand, the focus detection positions 610, 612, 616, and 618 in the contrast AF cannot be detected by the phase difference AF because there is no focus detection position corresponding to the phase difference AF. That is, in step S110, the CPU 121 determines whether or not the focus detection position in contrast AF is a position where focus detection is possible with phase difference AF.

コントラストAFにおける焦点検出位置が位相差AFで焦点検出可能な位置であると(ステップS110において、YES)、CPU121はミラーダウン状態とする。つまり、CPU121は退避させたメインミラー200およびサブミラー201をダウンさせて、AFユニット(焦点検出用センサ)202が受光可能な状態とする(ステップS111)。   If the focus detection position in contrast AF is a position where focus detection is possible with phase difference AF (YES in step S110), CPU 121 enters a mirror-down state. That is, the CPU 121 lowers the retracted main mirror 200 and sub mirror 201 so that the AF unit (focus detection sensor) 202 can receive light (step S111).

次に、CPU121は位相差AFによる被写体の位相差に基づいて、フォーカスずれ量を検出する(ステップS112)。この際、CPU121は焦点検出位置をコントラストAFにおける焦点検出位置と同一又は近傍の位置とする。例えば、コントラストAFにおける焦点検出位置611が設定されていたとすると、CPU121は位相差AFにおける焦点検出位置601において焦点検出を行う。   Next, the CPU 121 detects the amount of focus deviation based on the phase difference of the subject due to the phase difference AF (step S112). At this time, the CPU 121 sets the focus detection position to be the same as or close to the focus detection position in contrast AF. For example, if the focus detection position 611 in contrast AF is set, the CPU 121 performs focus detection at the focus detection position 601 in phase difference AF.

続いて、CPU121はステップS112で得られたフォーカスずれ量に基づいてボケ修復処理を行う(ステップS113)。このボケ修復処理については後述する。そして、ボケ修復処理の後、CPU121は撮影動作を終了する。   Subsequently, the CPU 121 performs a blur repair process based on the focus shift amount obtained in step S112 (step S113). This blur repair process will be described later. Then, after the blur repair process, the CPU 121 ends the photographing operation.

コントラストAFにおける焦点検出位置が位相差AFで焦点検出可能な位置でないと(ステップS110において、NO)、CPU121は焦点検出位置が位相差AFによって焦点検出可能な範囲外であることを表示部131に表示して、撮影者にボケ修復のための位相差AFができない旨を警告する(ステップS114)。そして、CPU121は撮影動作を終了する。   If the focus detection position in contrast AF is not a position where focus detection is possible with phase difference AF (NO in step S110), CPU 121 indicates on display 131 that the focus detection position is outside the range where focus detection is possible using phase difference AF. This is displayed to warn the photographer that phase difference AF for blur restoration cannot be performed (step S114). Then, the CPU 121 ends the shooting operation.

なお、ここでは、表示部131に警告を表示するようにしたが、例えば、音響を発するなど所望の撮影ができないことを撮影者に伝えることができれば、どのような報知を行ってもよい。   Here, the warning is displayed on the display unit 131. However, any notification may be performed as long as the photographer can be informed that desired shooting cannot be performed, for example, by generating sound.

前述したように、ボケ修復処理の際には、CPU121は設定された測距点(焦点検出位置)で得られたフォーカス量に基づいて画像のボケ修復を行う。ボケの生成過程は、カメラの特性および撮影レンズの特性から推定することが可能である。ここでは、ボケの生成過程をモデル化したボケ関数を定義して、ウィーナーフィルタなどのデコンボリューションと呼ばれる画像復元アルゴリズムを用いてボケ画像を修復処理する。ボケ画像の修復の際に用いられる演算手法については、例えば、特許文献1に記載されているので、ここでは詳細な説明を省略する。   As described above, in the blur restoration process, the CPU 121 restores the image based on the focus amount obtained at the set distance measuring point (focus detection position). The blur generation process can be estimated from the characteristics of the camera and the characteristics of the photographing lens. Here, a blur function that models the blur generation process is defined, and the blur image is restored using an image restoration algorithm called deconvolution such as a Wiener filter. The calculation method used when restoring the blurred image is described in, for example, Japanese Patent Application Laid-Open No. 2004-151620, and thus detailed description thereof is omitted here.

図9は、図8に示すボケ修復処理を説明するためのフローチャートである。   FIG. 9 is a flowchart for explaining the blur repair process shown in FIG.

ボケ修復処理を開始すると、CPU121は、画像処理回路125に行われた変換処理(つまり、画像処理)の内容を示す変換情報を取得する(ステップS501)。そして、CPU121は、画像処理回路125から送られる画像データを変換する際の変換手法を決定する(ステップS502)。   When the blur repair process is started, the CPU 121 acquires conversion information indicating the content of the conversion process (that is, image process) performed by the image processing circuit 125 (step S501). Then, the CPU 121 determines a conversion method for converting the image data sent from the image processing circuit 125 (step S502).

ここでは、CPU121は、前述の図8のステップS103で取得したレンズ情報に基づいて変換手法を決定する。ステップS502で決定された変換手法では、例えば、特許文献1に記載された画像復元処理のアルゴリズムの前提条件である線形性を確保するために、露光値と画素値とが比例関係になるように画像データを変換する。   Here, the CPU 121 determines a conversion method based on the lens information acquired in step S103 of FIG. In the conversion method determined in step S502, for example, in order to ensure linearity, which is a precondition of the image restoration processing algorithm described in Patent Document 1, the exposure value and the pixel value are in a proportional relationship. Convert image data.

例えば、画像処理回路125でガンマ補正を実行する際には、ステップS502で決定された手法ではガンマ補正による変換の逆変換が行われることになる。これによって、ガンマ補正前の画像データを再生することができ、線形性を有する画像データを取得することが可能となる。   For example, when gamma correction is executed by the image processing circuit 125, inverse conversion of conversion by gamma correction is performed by the method determined in step S502. As a result, the image data before gamma correction can be reproduced, and image data having linearity can be acquired.

同様に、画像処理回路125で色補正を実行する際には、ステップS502では決定された方法では色変換による変換の逆変換が行われることになる。これによって、同様にして線形性を有する画像データを取得することが可能となる。   Similarly, when color correction is executed by the image processing circuit 125, the inverse conversion of the conversion by the color conversion is performed by the method determined in step S502. This makes it possible to acquire image data having linearity in the same manner.

このように、ステップ502では、画像処理回路125による変換処理の逆変換に相当する変換手法が決定されることになる。   Thus, in step 502, a conversion method corresponding to the inverse conversion of the conversion processing by the image processing circuit 125 is determined.

続いて、CPU121は画像処理回路125から画像データ(撮影画像)を取得する(ステップS503)。そして、CPU121はステップS502で決定した変換手法に従って、画像データの変換を行う(ステップS504)。その後、CPU121はボケ関数の生成を行う(ステップS600)。   Subsequently, the CPU 121 acquires image data (captured image) from the image processing circuit 125 (step S503). Then, the CPU 121 converts image data according to the conversion method determined in step S502 (step S504). Thereafter, the CPU 121 generates a blur function (step S600).

次に、CPU121はボケ関数の逆変換を行って、ステップS504で変換処理した画像データに対してボケ修復処理を行う(ステップS505)。そして、CPU121はボケ修復処理を終了する。   Next, the CPU 121 performs inverse transformation of the blur function, and performs blur restoration processing on the image data converted in step S504 (step S505). Then, the CPU 121 ends the blur repair process.

なお、ボケ修復処理では、デコンボリューション処理と呼ばれる画像復元アルゴリズムによってボケ修復処理が行われる。これによって、所定の被写体のボケが修復されたボケ修復画像データを得ることができる。ボケ関数を逆変換してボケ修復を行う手法について、例えば、特許文献1に記載されているので、ここでは詳細な説明を省略する。   In the blur restoration process, the blur restoration process is performed by an image restoration algorithm called a deconvolution process. As a result, it is possible to obtain blur-repaired image data in which the blur of a predetermined subject is repaired. For example, Patent Document 1 discloses a technique for performing blur restoration by inversely transforming a blur function, and thus a detailed description thereof is omitted here.

図10は、図9に示すボケ関数生成処理を説明するためのフローチャートである。   FIG. 10 is a flowchart for explaining the blur function generation processing shown in FIG.

ボケ関数生成処理を開始すると、CPU121はメモリ144に記録されたカメラ特性データを取得する(ステップS601)。続いて、CPU121はメモリ144に記録されたレンズ特性データを取得する(ステップS602)。次に、CPU121はボケ関数を定義する際に用いるパラメータをメモリ144から取得する(ステップS603)。   When the blur function generation process is started, the CPU 121 acquires camera characteristic data recorded in the memory 144 (step S601). Subsequently, the CPU 121 acquires lens characteristic data recorded in the memory 144 (step S602). Next, the CPU 121 obtains parameters used when defining the blur function from the memory 144 (step S603).

ところで、ボケ関数は、撮影レンズ137と撮像素子107との間における光伝達特性によって決まる。そして、光伝達特性は、カメラ特性データ、レンズ特性データ、撮影画像における被写体領域の位置、および被写体距離などの要因によって変化する。また、ボケ関数はフォーカスずれ量によっても大きく変化する。   Incidentally, the blur function is determined by the light transfer characteristic between the photographing lens 137 and the image sensor 107. The light transfer characteristic changes depending on factors such as camera characteristic data, lens characteristic data, the position of the subject area in the captured image, and the subject distance. Also, the blur function changes greatly depending on the amount of focus shift.

このため、上記の要因とボケ関数を定義する際に用いるパラメータ(ボケパラメータ)とを関連付けたテーブルデータが予めメモリ144に記憶されている。また、ボケ関数を定義する際に用いられるフォーカスずれ量として、図8のステップS112で得られたフォーカスずれ量が用いられる。   For this reason, table data in which the above-described factors are associated with parameters (blur parameters) used when defining the blur function is stored in the memory 144 in advance. Further, the focus shift amount obtained in step S112 of FIG. 8 is used as the focus shift amount used when defining the blur function.

次に、CPU121はボケパラメータに基づいてボケ関数を定義する(ステップS604)。ここで、ボケ関数として、ボケ現象が正規分布法則に沿うものとするガウシアン分布などがある。中心画素からの距離をr、正規分布法則の任意のパラメータをσ2とすると、ボケ関数h(r)は、次の式(1)で表される。   Next, the CPU 121 defines a blur function based on the blur parameter (step S604). Here, as the blur function, there is a Gaussian distribution in which the blur phenomenon conforms to the normal distribution law. If the distance from the center pixel is r and the arbitrary parameter of the normal distribution law is σ2, the blur function h (r) is expressed by the following equation (1).

Figure 2014130231
Figure 2014130231

そして、ボケ関数を定義すると、CPU121はボケ関数生成処理を終了する。   When the blur function is defined, the CPU 121 ends the blur function generation process.

このように、本発明の第1の実施形態では、ライブビュー撮影(プレビュー状態)から静止画を撮影する際、合焦動作の完了を待つことなく、撮像素子の露光を行うようにしたので、撮影者が意図した瞬間の静止画を得ることができる。   Thus, in the first embodiment of the present invention, when shooting a still image from live view shooting (preview state), the image sensor is exposed without waiting for the completion of the focusing operation. A still image at the moment intended by the photographer can be obtained.

また、位相差AFで検出したデフォーカス量に基づいて、ボケ画像の修復を行うようにしたので、ボケ修復を行うための最適なフィルタを容易に得ることができ、短い処理時間でより精度よくボケ修復を行うことができる。   In addition, since the blurred image is restored based on the defocus amount detected by the phase difference AF, it is possible to easily obtain an optimum filter for performing the blur restoration, and it is possible to more accurately with a short processing time. Defocusing can be repaired.

[第2の実施形態]
次に、本発明の第2の実施形態によるカメラについて説明する。なお、第2の実施形態によるカメラの構成は図1に示すカメラと同様である。
[Second Embodiment]
Next, a camera according to a second embodiment of the present invention will be described. The configuration of the camera according to the second embodiment is the same as that of the camera shown in FIG.

図11は、本発明の第2の実施形態によるカメラで行われる撮影動作を説明するためのフローチャートである。なお、図11に示すフローチャートにおける処理は図1に示すCPU121によって行われる。また、図11において、図8に示すステップと同一のステップについては同一の参照符号を付して説明を省略する。   FIG. 11 is a flowchart for explaining a photographing operation performed by the camera according to the second embodiment of the present invention. Note that the processing in the flowchart shown in FIG. 11 is performed by the CPU 121 shown in FIG. In FIG. 11, the same steps as those shown in FIG. 8 are denoted by the same reference numerals, and the description thereof is omitted.

図8で説明したステップS110において、コントラストAFにおける焦点検出位置が位相差AFで焦点検出可能な位置でないと(ステップS110において、NO)、CPU121は予め設定されたコントラストAFにおける焦点検出位置でコントラストAFによる焦点検出を行って、当該焦点検出結果(第2の焦点状態検出結果)に応じて焦点調節を行う(ステップS714)。そして、焦点調節が完了すると、CPU121は撮像素子107の撮像動作を開始して露光を行う(ステップS715)。   In step S110 described with reference to FIG. 8, if the focus detection position in contrast AF is not a position where focus detection is possible with phase difference AF (NO in step S110), CPU 121 uses contrast AF at a preset focus detection position in contrast AF. Then, focus detection is performed, and focus adjustment is performed according to the focus detection result (second focus state detection result) (step S714). When the focus adjustment is completed, the CPU 121 starts the imaging operation of the image sensor 107 and performs exposure (step S715).

続いて、CPU121は撮影者によってステップS109で得られた画像(第1の画像)とステップS715で得られた画像(第2の画像)との両方又は一方を選択するかあるいはいずれも選択しないかの指示があったか否かを判定する(ステップS716)。ここでは、撮影者はステップS109で得られたシャッター優先の画像およびステップS716で得られたピント優先の画像のいずれかを選択することができる。もちろん、撮影者は両画像を選択し、両画像とも選択しないこともできる。   Subsequently, the CPU 121 selects either or both of the image (first image) obtained in step S109 and the image (second image) obtained in step S715 by the photographer or neither of them. It is determined whether or not there is an instruction (step S716). Here, the photographer can select either the shutter priority image obtained in step S109 or the focus priority image obtained in step S716. Of course, the photographer can select both images and not select both images.

指示がないと(ステップS716において、NO)、CPU121は待機する。一方、指示があると(ステップS716において、YES)、CPU121は当該指示に応じた処理を行って撮影動作を終了する。   If there is no instruction (NO in step S716), CPU 121 stands by. On the other hand, if there is an instruction (YES in step S716), CPU 121 performs processing according to the instruction and ends the photographing operation.

このように、本発明の第2の実施形態においてもライブビュー撮影から静止画を撮影する際、合焦動作の完了を待つことなく撮像素子の露光を行うので、撮影者が意図した瞬間の静止画を得ることができる。   As described above, also in the second embodiment of the present invention, when shooting a still image from live view shooting, the image sensor is exposed without waiting for the completion of the focusing operation. A picture can be obtained.

さらに、第2の実施形態では、コントラストAFのために設定された焦点検出位置で位相差AFによる焦点検出が行える場合には、位相差AFで検出したデフォーカス量に基づいてボケ画像の修復を行うので、ボケ修復を行うための最適なフィルタを容易に得ることができ、短い処理時間で精度よくボケ修復を行うことができる。そして、コントラストAFのために設定された焦点検出位置で、位相差AFによる焦点検出を行うことができない場合には、撮影者が意図した瞬間の静止画とコントラストAFによって正確にピントを合わせた静止画の両方を得る。これによって、撮影者は状況に応じてレリーズタイムラグを優先した静止画又はピント状態を優先した静止画を選択することができる。   Further, in the second embodiment, when the focus detection by the phase difference AF can be performed at the focus detection position set for the contrast AF, the blurred image is repaired based on the defocus amount detected by the phase difference AF. Therefore, it is possible to easily obtain an optimum filter for performing blur repair, and to perform blur repair with high accuracy in a short processing time. When focus detection by phase difference AF cannot be performed at the focus detection position set for contrast AF, the still image at the moment intended by the photographer and the still image that is accurately focused by contrast AF Get both of the drawings. Thus, the photographer can select a still image giving priority to the release time lag or a still image giving priority to the focus state according to the situation.

[第3の実施形態]
続いて、本発明の第3の実施形態によるカメラについて説明する。なお、第3の実施形態によるカメラの構成は図1に示すカメラと同様である。
[Third Embodiment]
Subsequently, a camera according to a third embodiment of the present invention will be described. The configuration of the camera according to the third embodiment is the same as that of the camera shown in FIG.

図12は、本発明の第3の実施形態によるカメラで行われる撮影動作を説明するためのフローチャートである。なお、図12に示すフローチャートにおける処理は図1に示すCPU121によって行われる。また、図12において、図8に示すステップと同一のステップについては同一の参照符号を付して説明を省略する。   FIG. 12 is a flowchart for explaining a photographing operation performed by the camera according to the third embodiment of the present invention. The processing in the flowchart shown in FIG. 12 is performed by the CPU 121 shown in FIG. In FIG. 12, the same steps as those shown in FIG. 8 are denoted by the same reference numerals, and the description thereof is omitted.

図8で説明したステップS110において、コントラストAFにおける焦点検出位置が位相差AFで焦点検出可能な位置でないと(ステップS110において、NO)、CPU121は予め設定されたコントラストAFによる焦点検出位置と同一か又はその近傍で撮像面位相差AFによる焦点検出を行う(ステップS814)。そして、CPU121はその焦点検出結果(第3の焦点状態検出結果)に基づいてフォーカスレンズを駆動して焦点調節を行う。   In step S110 described in FIG. 8, if the focus detection position in contrast AF is not a position where focus detection is possible by phase difference AF (NO in step S110), CPU 121 is the same as the focus detection position set in advance by contrast AF. Alternatively, focus detection by the imaging surface phase difference AF is performed in the vicinity thereof (step S814). Then, the CPU 121 performs focus adjustment by driving the focus lens based on the focus detection result (third focus state detection result).

図13は、図12に示す撮像面位相差AFにおける焦点検出位置を示す図である。   FIG. 13 is a diagram showing a focus detection position in the imaging plane phase difference AF shown in FIG.

図13に示すように、撮像面位相差AFにおける焦点検出位置は、撮像面全体である一つの領域1301であり、この領域1301は、図7に示すコントラストAFの焦点検出位置610、611、612、613、614、615、617、および618に対応している。従って、撮像面位相差AFでは、コントラストAFで焦点件検出可能な範囲と同一の範囲での焦点検出を行うことができる。   As shown in FIG. 13, the focus detection position in the imaging surface phase difference AF is one region 1301 that is the entire imaging surface, and this region 1301 is the focus detection position 610, 611, 612 of contrast AF shown in FIG. , 613, 614, 615, 617, and 618. Therefore, in the imaging plane phase difference AF, focus detection can be performed in the same range as that in which the focus can be detected by contrast AF.

続いて、CPU121は、撮像面位相差AFで得られたフォーカスずれ量に基づいてボケ修復処理を行って(ステップS815)、撮影を終了する。なお、ステップS815におけるボケ修復処理は、図8で説明したステップS113のボケ修復処理と同様にして行われる。   Subsequently, the CPU 121 performs a blur repair process based on the focus shift amount obtained by the imaging plane phase difference AF (step S815), and ends the photographing. Note that the blur repair process in step S815 is performed in the same manner as the blur repair process in step S113 described with reference to FIG.

このように、本発明の第3の実施形態においてもライブビュー撮影から静止画を撮影する際、合焦動作の完了を待つことなく撮像素子の露光を行うので、撮影者が意図した瞬間の静止画を得ることができる。   As described above, also in the third embodiment of the present invention, when shooting a still image from live view shooting, the image sensor is exposed without waiting for the completion of the focusing operation. A picture can be obtained.

さらに、第3の実施形態では、コントラストAFのために設定された焦点検出位置で位相差AFによる焦点検出が行える場合には、位相差AFで検出したデフォーカス量に基づいてボケ画像の修復を行うので、ボケ修復を行うための最適なフィルタを容易に得ることができ、短い処理時間で精度よくボケ修復を行うことができる。そして、コントラストAFのために設定された焦点検出位置で、位相差AFによる焦点検出を行うことができない場合においても、撮像面位相差AFで得られたデフォーカス量に基づいてボケ画像の修復を行うようにしたので、ボケ修復の際に最適なフィルタを容易に得ることができ、短い処理時間で精度よくボケ修復を行うことができる。   Further, in the third embodiment, when the focus detection by the phase difference AF can be performed at the focus detection position set for the contrast AF, the blurred image is repaired based on the defocus amount detected by the phase difference AF. Therefore, it is possible to easily obtain an optimum filter for performing blur repair, and to perform blur repair with high accuracy in a short processing time. Even when focus detection by phase difference AF cannot be performed at the focus detection position set for contrast AF, the blurred image is restored based on the defocus amount obtained by imaging plane phase difference AF. As a result, it is possible to easily obtain an optimum filter at the time of blur repair, and to perform blur repair with high accuracy in a short processing time.

なお、上述の実施の形態では、撮像装置として撮影レンズが交換可能なカメラについて説明したが、撮影レンズがカメラ本体に備わっている所謂レンズくくり付けタイプのカメラにも適用することができる。   In the above-described embodiment, the camera in which the photographing lens can be replaced is described as the imaging device. However, the present invention can also be applied to a so-called lens attachment type camera in which the photographing lens is provided in the camera body.

上述の説明から明らかなように、図1に示す例においては、位相差AFユニット202が第1の焦点状態検出手段として機能する。また、メインミラー200およびサブミラー201は選択手段として機能し、CPU121および画像処理回路125は制御手段として機能する。   As is clear from the above description, in the example shown in FIG. 1, the phase difference AF unit 202 functions as a first focus state detection unit. The main mirror 200 and the sub mirror 201 function as selection means, and the CPU 121 and the image processing circuit 125 function as control means.

さらに、フォーカスアクチュエータ114、フォーカス駆動回路126、およびCPU121は第2の焦点状態検出手段として機能し、CPU121は判定手段として機能する。そして、CPU121は第3の焦点状態検出手段として機能する。なお、CPU121および操作スイッチ132は画像選択手段として機能する。   Further, the focus actuator 114, the focus drive circuit 126, and the CPU 121 function as a second focus state detection unit, and the CPU 121 functions as a determination unit. The CPU 121 functions as third focus state detection means. The CPU 121 and the operation switch 132 function as image selection means.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を画像処理装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画像処理装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the image processing apparatus. In addition, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the image processing apparatus. The control program is recorded on a computer-readable recording medium, for example.

上記の制御方法および制御プログラムの各々は、少なくとも選択ステップおよび制御ステップを有している。   Each of the above control method and control program has at least a selection step and a control step.

また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.

107 撮像素子
121 CPU
124 撮像素子駆動回路
131 表示部
137 撮影レンズユニット
138 カメラ本体
200 メインミラー
201 サブミラー
202 位相差AFユニット
107 Image sensor 121 CPU
124 Image sensor driving circuit 131 Display unit 137 Shooting lens unit 138 Camera body 200 Main mirror 201 Sub mirror 202 Phase difference AF unit

Claims (8)

撮像の結果得られた撮影画像のボケを修復する撮像装置であって、
撮影レンズを介して光学像を受けて当該光学像に応じた画像信号を出力する撮像素子と、
前記光学像を受光して当該光学像が合焦状態であるか否かを示す第1の焦点状態検出結果を出力する第1の焦点状態検出手段と、
前記撮影レンズからの前記光学像を前記撮像素子に導く第1の状態と前記光学像を前記第1の焦点状態検出手段に導く第2の状態とのいずれかを選択する選択手段と、
撮影指示があると、前記選択手段を制御して前記第1の状態として前記撮像素子の露光を開始した後、前記選択手段を制御して前記第2の状態として前記第1の焦点状態検出結果に基づいて前記画像信号に応じた撮影画像のボケ修復を行う制御手段と、
を有することを特徴とする撮像装置。
An imaging apparatus for repairing blurring of a captured image obtained as a result of imaging,
An image sensor that receives an optical image via a photographic lens and outputs an image signal corresponding to the optical image;
First focus state detection means for receiving the optical image and outputting a first focus state detection result indicating whether or not the optical image is in focus;
Selecting means for selecting one of a first state for guiding the optical image from the photographing lens to the image sensor and a second state for guiding the optical image to the first focus state detecting means;
When there is a photographing instruction, the selection unit is controlled to start exposure of the image sensor as the first state, and then the selection unit is controlled to set the second state to the first focus state detection result. Control means for performing blur repair of a captured image according to the image signal based on
An imaging device comprising:
前記第1の焦点状態検出手段は位相差オートフォーカスによって前記第1の焦点状態検出結果を出力し、
前記撮影レンズにはフォーカスレンズが備えられており、
前記フォーカスレンズを光軸に沿って駆動しつつ前記撮像素子で得られた前記画像信号に応じた撮影画像についてそのコントラストを評価して合焦状態であるか否かを示す第2の焦点状態検出結果を出力する第2の焦点状態検出手段と、
前記第2の焦点状態検出結果に応じて前記第1の焦点状態検出手段による検出が可能な撮影条件であるか否かを判定する判定手段とを有することを特徴とする請求項1に記載の撮像装置。
The first focus state detection means outputs the first focus state detection result by phase difference autofocus,
The photographing lens is equipped with a focus lens,
Second focus state detection indicating whether or not a focus state is obtained by evaluating the contrast of a captured image corresponding to the image signal obtained by the image sensor while driving the focus lens along an optical axis. Second focus state detection means for outputting a result;
2. The apparatus according to claim 1, further comprising: a determination unit that determines whether or not the imaging condition is capable of being detected by the first focus state detection unit according to the second focus state detection result. Imaging device.
前記判定手段によって前記第1の焦点状態検出手段による検出が可能な撮影条件でないと判定されると、前記制御手段は前記第2の状態とすることなく警告を発することを特徴とする請求項2に記載の撮像装置。   3. The control unit issues a warning without setting the second state when it is determined by the determining unit that the photographing condition is not capable of being detected by the first focus state detecting unit. The imaging device described in 1. 前記判定手段によって前記第1の焦点状態検出手段による検出が可能な撮影条件でないと判定されると、前記制御手段は前記第2の状態とすることなく前記第1の状態において第1の画像を得るとともに、前記第2の焦点状態検出結果に応じて焦点調節を行って第2の画像を得ることを特徴とする請求項2に記載の撮像装置。   If it is determined by the determining means that the photographing condition is not capable of being detected by the first focus state detecting means, the control means displays the first image in the first state without setting the second state. The imaging apparatus according to claim 2, wherein the second image is obtained by performing focus adjustment according to the second focus state detection result. 前記第1の画像および前記第2の画像の少なくとも一方を撮影画像として選択する画像選択手段を有することを特徴とする請求項4に記載の撮像装置。   The imaging apparatus according to claim 4, further comprising an image selection unit that selects at least one of the first image and the second image as a captured image. 前記撮像素子にはその分割形態が異なる第1の画素群および第2の画素群が備えられており、
前記第1の画素群および前記第2の画素群からの画像信号の位相差に応じて合焦状態であるか否かを検出する撮像面位相差オートフォーカスを行って第3の焦点状態検出結果を出力する第3の焦点状態検出手段を有し、
前記制御手段は、前記判定手段によって前記第1の焦点状態検出手段による検出が可能な撮影条件でないと判定されると、前記第2の状態とすることなく前記第3の焦点状態検出結果に基づいて前記画像信号に応じた撮影画像のボケ修復を行うことを特徴とする請求項2に記載の撮像装置。
The image pickup device includes a first pixel group and a second pixel group having different division forms,
Third focus state detection result by performing imaging surface phase difference autofocus for detecting whether or not the focus state is in accordance with the phase difference of the image signals from the first pixel group and the second pixel group. And a third focus state detection means for outputting
If it is determined by the determination unit that the shooting condition is not detectable by the first focus state detection unit, the control unit is based on the third focus state detection result without setting the second state. The imaging apparatus according to claim 2, wherein blur correction of a captured image corresponding to the image signal is performed.
撮影レンズを介して光学像を受けて当該光学像に応じた画像信号を出力する撮像素子と、前記撮影レンズを介して光学像を受光して当該光学像が合焦状態であるか否かを示す焦点状態検出結果を出力する焦点状態検出手段とを備え、前記画像信号に応じた撮影画像のボケを修復する撮像装置の制御方法であって、
前記撮影レンズからの前記光学像を前記撮像素子に導く第1の状態と前記光学像を前記焦点状態検出手段に導く第2の状態とのいずれかを選択する選択ステップと、
撮影指示があると、前記選択ステップによって前記第1の状態として前記撮像素子の露光を開始した後、前記選択ステップによって前記第2の状態として前記焦点状態検出結果に基づいて前記画像信号に応じた撮影画像のボケ修復を行う制御ステップと、
を有することを特徴とする制御方法。
An image sensor that receives an optical image through a photographic lens and outputs an image signal corresponding to the optical image, and whether the optical image is in focus by receiving the optical image through the photographic lens. A focus state detection unit that outputs a focus state detection result to indicate, and a method of controlling an imaging apparatus that repairs blur of a captured image according to the image signal,
A selection step of selecting one of a first state in which the optical image from the photographing lens is guided to the image sensor and a second state in which the optical image is guided to the focus state detection unit;
When there is a shooting instruction, after the selection step starts exposure of the image sensor as the first state, the selection step determines the second state according to the image signal based on the focus state detection result. A control step for blurring the shot image;
A control method characterized by comprising:
撮影レンズを介して光学像を受けて当該光学像に応じた画像信号を出力する撮像素子と、前記撮影レンズを介して光学像を受光して当該光学像が合焦状態であるか否かを示す焦点状態検出結果を出力する焦点状態検出手段とを備え、前記画像信号に応じた撮影画像のボケを修復する撮像装置で用いられる制御プログラムであって、
前記撮像装置に備えられたコンピュータに、
前記撮影レンズからの前記光学像を前記撮像素子に導く第1の状態と前記光学像を前記焦点状態検出手段に導く第2の状態とのいずれかを選択する選択ステップと、
撮影指示があると、前記選択ステップによって前記第1の状態として前記撮像素子の露光を開始した後、前記選択ステップによって前記第2の状態として前記焦点状態検出結果に基づいて前記画像信号に応じた撮影画像のボケ修復を行う制御ステップと、
を実行させることを特徴とする制御プログラム。
An image sensor that receives an optical image through a photographic lens and outputs an image signal corresponding to the optical image, and whether the optical image is in focus by receiving the optical image through the photographic lens. A control program for use in an imaging device that includes a focus state detection unit that outputs a focus state detection result that indicates a blur of a captured image corresponding to the image signal,
In the computer provided in the imaging device,
A selection step of selecting one of a first state in which the optical image from the photographing lens is guided to the image sensor and a second state in which the optical image is guided to the focus state detection unit;
When there is a shooting instruction, after the selection step starts exposure of the image sensor as the first state, the selection step determines the second state according to the image signal based on the focus state detection result. A control step for blurring the shot image;
A control program characterized by causing
JP2012288031A 2012-12-28 2012-12-28 Imaging apparatus, method for controlling the same, and control program Pending JP2014130231A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012288031A JP2014130231A (en) 2012-12-28 2012-12-28 Imaging apparatus, method for controlling the same, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012288031A JP2014130231A (en) 2012-12-28 2012-12-28 Imaging apparatus, method for controlling the same, and control program

Publications (1)

Publication Number Publication Date
JP2014130231A true JP2014130231A (en) 2014-07-10

Family

ID=51408678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012288031A Pending JP2014130231A (en) 2012-12-28 2012-12-28 Imaging apparatus, method for controlling the same, and control program

Country Status (1)

Country Link
JP (1) JP2014130231A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016024356A (en) * 2014-07-22 2016-02-08 株式会社ニコン Focus adjustment device and imaging device
US9635245B2 (en) 2015-02-27 2017-04-25 Fujitsu Limited Focus position detection device and focus position detection method
WO2018062558A1 (en) * 2016-09-29 2018-04-05 株式会社ニコン Imaging element, focal point detection device, and electronic camera
WO2018062559A1 (en) * 2016-09-29 2018-04-05 株式会社ニコン Imaging element, focus detection apparatus, and electronic camera

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016024356A (en) * 2014-07-22 2016-02-08 株式会社ニコン Focus adjustment device and imaging device
US9635245B2 (en) 2015-02-27 2017-04-25 Fujitsu Limited Focus position detection device and focus position detection method
WO2018062558A1 (en) * 2016-09-29 2018-04-05 株式会社ニコン Imaging element, focal point detection device, and electronic camera
WO2018062559A1 (en) * 2016-09-29 2018-04-05 株式会社ニコン Imaging element, focus detection apparatus, and electronic camera
JPWO2018062559A1 (en) * 2016-09-29 2019-07-11 株式会社ニコン Imaging device, focus detection device, and imaging device
JPWO2018062558A1 (en) * 2016-09-29 2019-07-11 株式会社ニコン Image sensor, focus detection device, and electronic camera

Similar Documents

Publication Publication Date Title
JP5173954B2 (en) Image processing apparatus and image processing method
JP5478935B2 (en) Imaging device
JP5183715B2 (en) Image processing apparatus and image processing method
US8964061B2 (en) Image capturing apparatus with selection of thinning and readout mode in accordance with moving image recording mode
US8488956B2 (en) Focus adjusting apparatus and focus adjusting method
JP5898481B2 (en) Imaging apparatus and focus detection method
JP5762002B2 (en) Imaging device
US20110285899A1 (en) Image capturing apparatus
JP6249825B2 (en) Imaging device, control method thereof, and control program
JP2010078856A (en) Imaging apparatus
JP2010271670A (en) Imaging apparatus
JP2014228818A (en) Imaging device, imaging system, method for controlling imaging device, program and storage medium
US20140192167A1 (en) Stereoscopic imaging device
JP2014130231A (en) Imaging apparatus, method for controlling the same, and control program
JP2017032646A (en) Image-capturing device and method for controlling the same
JP2014215436A (en) Image-capturing device, and control method and control program therefor
JP2010206722A (en) Image processing apparatus and image processing method, and, imaging apparatus
JP5858683B2 (en) Focus detection apparatus and imaging apparatus
US11303813B2 (en) Image pickup apparatus with focus condition determination
JP2016018033A (en) Imaging device, control method of the same, program and recording medium
JP6576155B2 (en) Image processing apparatus, imaging apparatus, and image display system
JP5793210B2 (en) Imaging device
JP5352003B2 (en) Image processing apparatus and image processing method
JP2016018034A (en) Imaging device, control method of the same, program and recording medium
JP6671868B2 (en) Control device, imaging device, control method, program, and storage medium