JP2014130231A - Imaging apparatus, method for controlling the same, and control program - Google Patents
Imaging apparatus, method for controlling the same, and control program Download PDFInfo
- Publication number
- JP2014130231A JP2014130231A JP2012288031A JP2012288031A JP2014130231A JP 2014130231 A JP2014130231 A JP 2014130231A JP 2012288031 A JP2012288031 A JP 2012288031A JP 2012288031 A JP2012288031 A JP 2012288031A JP 2014130231 A JP2014130231 A JP 2014130231A
- Authority
- JP
- Japan
- Prior art keywords
- image
- focus
- focus state
- state detection
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、撮影の結果得られた画像のボケを修復する機能を備える撮像装置、その制御方法、および制御プログラムに関する。 The present invention relates to an imaging apparatus having a function of repairing blurring of an image obtained as a result of photographing, a control method thereof, and a control program.
近年、デジタル一眼レフカメラなどの撮像装置では、筐体の背面に配置された液晶パネルに表示される映像(画像)を目視しつつ撮影を行う所謂ライブビュー撮影が行われている。一般に、ライブビュー撮影の際に焦点調節を行う場合には、CMOSイメージセンサなどの撮像素子から得られる画像信号を用いてコントラスト検出が行われる。 In recent years, in an imaging apparatus such as a digital single-lens reflex camera, so-called live view shooting is performed in which shooting is performed while viewing a video (image) displayed on a liquid crystal panel disposed on the back of a housing. In general, when focus adjustment is performed during live view shooting, contrast detection is performed using an image signal obtained from an image sensor such as a CMOS image sensor.
一方、ウィーナーフィルタ、一般逆フィルタ、又は射影フィルタなどのボケ修復用のフィルタを用いて、ピントの合っていないボケ画像についてボケ修復が行われている。例えば、撮影条件などに基づく物理的解析又は撮像装置に備えられた測定装置からの出力に基づく推定などによって劣化関数を求めて、デコンボリューションと呼ばれる画像復元アルゴリズムによってボケ画像を修復することが行われている(特許文献1参照)。 On the other hand, blur restoration is performed on a blur image that is out of focus using a blur restoration filter such as a Wiener filter, a general inverse filter, or a projection filter. For example, a deteriorating function is obtained by an image restoration algorithm called deconvolution by obtaining a degradation function by physical analysis based on imaging conditions or by estimation based on an output from a measurement apparatus provided in the imaging apparatus. (See Patent Document 1).
ところで、ライブビュー状態から静止画撮影を行う場合、合焦動作の完了を待って撮影を行うと、コントラスト検出による焦点調節には時間が掛かるので、撮影者が意図した瞬間の静止画を得ることができないことがある。逆に、撮影者が意図した瞬間の静止画を得ようとすると、ピントの合っていない静止画が得られてしまうことがある。 By the way, when taking a still image from the live view state, it takes a long time to adjust the focus by detecting the contrast when taking a picture after the focusing operation is completed. May not be possible. On the other hand, if an attempt is made to obtain a still image at the moment intended by the photographer, a still image that is not in focus may be obtained.
そして、ピントの合っていない静止画に対して、特許文献1に記載のようにフィルタを用いてボケ修復を行おうとすると、ボケの修復を行うための最適なフィルタを得るためには膨大な演算が必要となって、ボケ修復処理に長時間を要してしまうことになる。
Then, if an attempt is made to restore a blur using a filter as described in
そこで、本発明の目的は、ライブビュー状態から撮影を行う際、短いレリーズタイムラグで精度よくピントの合った静止画を得ることができる撮像装置、その制御方法、および制御プログラムを得ることにある。 Therefore, an object of the present invention is to obtain an imaging apparatus, a control method thereof, and a control program that can obtain a still image in focus with a short release time lag with high accuracy when shooting from a live view state.
上記目的を達成するために、本発明による撮像装置は、撮像の結果得られた撮影画像のボケを修復する撮像装置であって、撮影レンズを介して光学像を受けて当該光学像に応じた画像信号を出力する撮像素子と、前記光学像を受光して当該光学像が合焦状態であるか否かを示す第1の焦点状態検出結果を出力する第1の焦点状態検出手段と、前記撮影レンズからの前記光学像を前記撮像素子に導く第1の状態と前記光学像を前記第1の焦点状態検出手段に導く第2の状態とのいずれかを選択する選択手段と、撮影指示があると、前記選択手段を制御して前記第1の状態として前記撮像素子の露光を開始した後、前記選択手段を制御して前記第2の状態として前記第1の焦点状態検出結果に基づいて前記画像信号に応じた撮影画像のボケ修復を行う制御手段と、を有することを特徴とする。 In order to achieve the above object, an imaging apparatus according to the present invention is an imaging apparatus that repairs blurring of a captured image obtained as a result of imaging, and receives an optical image via a shooting lens and responds to the optical image. An image sensor that outputs an image signal; a first focus state detection unit that receives the optical image and outputs a first focus state detection result indicating whether or not the optical image is in focus; and A selection unit that selects one of a first state in which the optical image from the photographing lens is guided to the image sensor and a second state in which the optical image is guided to the first focus state detection unit; If it exists, after controlling the said selection means and starting exposure of the said image pick-up element as the said 1st state, the said selection means is controlled and based on the said 1st focus state detection result as the said 2nd state Deblurring of the shot image according to the image signal And having a cormorants control means.
本発明による制御方法は、撮影レンズを介して光学像を受けて当該光学像に応じた画像信号を出力する撮像素子と、前記撮影レンズを介して光学像を受光して当該光学像が合焦状態であるか否かを示す焦点状態検出結果を出力する焦点状態検出手段とを備え、前記画像信号に応じた撮影画像のボケを修復する撮像装置の制御方法であって、前記撮影レンズからの前記光学像を前記撮像素子に導く第1の状態と前記光学像を前記焦点状態検出手段に導く第2の状態とのいずれかを選択する選択ステップと、撮影指示があると、前記選択ステップによって前記第1の状態として前記撮像素子の露光を開始した後、前記選択ステップによって前記第2の状態として前記焦点状態検出結果に基づいて前記画像信号に応じた撮影画像のボケ修復を行う制御ステップと、を有することを特徴とする。 The control method according to the present invention includes an image sensor that receives an optical image through a photographing lens and outputs an image signal corresponding to the optical image, and receives the optical image through the photographing lens and focuses the optical image. A focus state detection means for outputting a focus state detection result indicating whether or not the image is in a state, and a method for controlling an imaging apparatus that repairs blurring of a captured image according to the image signal, When there is a selection step for selecting either the first state for guiding the optical image to the image sensor or the second state for guiding the optical image to the focus state detection means, and when there is a photographing instruction, After the exposure of the image sensor is started as the first state, blur correction of the captured image according to the image signal is performed as the second state by the selection step based on the focus state detection result as the second state. A method, characterized by having a.
本発明による制御プログラムは、撮影レンズを介して光学像を受けて当該光学像に応じた画像信号を出力する撮像素子と、前記撮影レンズを介して光学像を受光して当該光学像が合焦状態であるか否かを示す焦点状態検出結果を出力する焦点状態検出手段とを備え、前記画像信号に応じた撮影画像のボケを修復する撮像装置で用いられる制御プログラムであって、前記撮像装置に備えられたコンピュータに、前記撮影レンズからの前記光学像を前記撮像素子に導く第1の状態と前記光学像を前記焦点状態検出手段に導く第2の状態とのいずれかを選択する選択ステップと、撮影指示があると、前記選択ステップによって前記第1の状態として前記撮像素子の露光を開始した後、前記選択ステップによって前記第2の状態として前記焦点状態検出結果に基づいて前記画像信号に応じた撮影画像のボケ修復を行う制御ステップと、を実行させることを特徴とする。 The control program according to the present invention includes an imaging device that receives an optical image via a photographic lens and outputs an image signal corresponding to the optical image, and receives the optical image via the photographic lens and focuses the optical image. A control program for use in an imaging apparatus that repairs blurring of a captured image according to the image signal, the imaging apparatus comprising: a focus state detection unit that outputs a focus state detection result indicating whether the image is in a state; A selection step of selecting either a first state in which the optical image from the photographic lens is guided to the image sensor or a second state in which the optical image is guided to the focus state detection unit. When the photographing instruction is given, after the exposure of the image sensor is started as the first state by the selection step, the focus state detection is performed as the second state by the selection step. Characterized in that to execute a control step of performing defocus correction of the captured image corresponding to the image signal based on the results.
本発明によれば、レリーズタイムラグと合焦状態とを両立させて撮影を行うことができる。 According to the present invention, it is possible to perform shooting while satisfying both the release time lag and the in-focus state.
以下、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。 Hereinafter, an example of an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.
[第1の実施形態]
図1は、本発明の第1の実施形態による撮像装置の一例についてその構成を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of an example of an imaging apparatus according to the first embodiment of the present invention.
図示の撮像装置(以下カメラと呼ぶ)はカメラ本体138および撮影レンズユニット(以下単に撮影レンズと呼ぶ)137を有しており、撮影レンズ137はカメラ本体138に対して交換可能である。
The illustrated imaging apparatus (hereinafter referred to as a camera) has a
撮影レンズ137は撮影光学系(結像光学系)を有しており、この撮影光学系は第1レンズ群101を備えている。そして、この第1レンズ群101は光軸方向に進退可能に保持されている。第1レンズ群101の後段には絞り102が配置され、絞り102の開口径を調節することによって撮影の際の光量調節が行われる。絞り102の後段には第2レンズ群103が配置され、絞り102および第2レンズ群103は一体となって光軸方向に進退し、第1レンズ群101の進退動作と連動して、変倍作用(ズーム機能)が行われる。第2レンズ群103の後段には第3レンズ群105が配置され、第3レンズ群105を光軸方向に進退させて、焦点調節が行われる。
The photographing
ズームアクチュエータ111はカム筒(図示せず)を回動して、第1レンズ群111ないし第2レンズ群103を光軸方向に進退駆動して、変倍作用を行う。絞りアクチュエータ112は、絞り102の開口径を制御して撮影光量を調節する。フォーカスアクチュエータ114は、第3レンズ群105を光軸方向に進退駆動して焦点調節を行う。
The
撮影レンズ137にはカメラ通信回路136が備えられており、カメラ通信回路136はカメラ本体138に備えられたレンズ通信回路135と通信を行う。そして、カメラ通信回路136によって撮影レンズに関するレンズ情報がカメラ本体138に送られる。また、カメラ通信回路136はカメラ本体に関するカメラ情報を受領する。ここで、レンズ情報とは、例えば、ズーム状態、絞り状態、フォーカス状態、およびレンズ枠情報などをいう。
The photographing
カメラ本体138には光学的ローパスフィルタ106が備えられており、この光学的ローパスフィルタ160によって撮影レンズ136から入射する光学像の偽色およびモアレが軽減される。光学的ローパスフィルタ106の後段には撮像素子107が配置されている。この撮像素子107は、例えば、CMOSセンサとその周辺回路で構成される。
The camera
撮像素子107は、2次元マトリックス状に複数の画素が配置されている。ここでは、撮像素子107として、横方向(行)にm画素(mは2以上の整数)、縦方向(列)にn画素(nは2以上の整数)の受光ピクセル上にベイヤー配列の原色カラーモザイクフィルタがオンチップで形成された2次元単板カラーセンサが用いられる。
The
光学的ローパスフィルタ106の前にはシャッターユニット139が配置されており、シャッターユニット139は静止画撮影の際に露光時間の調整を行う。このシャッターユニット139はシャッターアクチュエータ140によって駆動される。
A
被写体証明用電子フラッシュ115は、例えば、キセノン管を用いた閃光照明装置である。なお、電子フラッシュ115として連続発光するLEDを備えた照明装置を用いるようにしてもよい。
The subject certification
AF補助光部116は、所定の開口パターンを有するマスクの像を、投光レンズを介して被写界に投影して、暗い被写体又は低コントラストの被写体に対する焦点検出を向上させる。
The AF auxiliary
CPU121はカメラ本体138の制御を司る。図示はしないが、CPU121は演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、および通信インターフェイス回路などを有し、ROMに記憶された所定のプログラムに基づいてカメラを制御して、撮影、画像処理、撮影の結果得られた画像のボケ修復(ボケ復元ともいう)処理、および記録などの一連の処理を実行する。また、CPU121は、位相差AF(位相差オートフォーカス)に関する演算処理、コントラストAFに関する演算処理、および撮像面における位相差AF(撮像面位相差オートフォーカス)を行う。
The
電子フラッシュ制御回路122は、CPU121の制御下で、撮影動作に同期して電子フラッシュ115を点灯制御する。補助光駆動回路123は、CPU121の制御下で、焦点検出動作に同期してAF補助光部116を点灯制御する。撮像素子駆動回路124は、CPU121の制御下で、撮像素子107の撮像動作を制御するとともに、その出力である画像信号をA/D変換して画像データとしてCPU121に送る。画像処理回路125は、CPU121の制御下で、画像データについてγ変換、カラー補間、およびJPEG圧縮などの処理を行う。
The electronic
フォーカス駆動回路126は、CPU121の制御下で焦点検出結果に基づいてフォーカスアクチュエータ114を駆動制御して、第3レンズ群105を光軸方向に進退して焦点調節を行う。絞り駆動回路128は、CPU121の制御下で絞りアクチュエータ112を駆動制御して絞り102の開口を制御する。ズーム駆動回路129は、CPU121の制御下で、撮影者のズーム操作に応じてズームアクチュエータ111を駆動する。レンズ通信回路135は撮影レンズ137のカメラ通信回路136と通信を行う。シャッター駆動回路145は、CPU121の制御下でシャッターアクチュエータ140を駆動する。
The
表示部131は、例えば、LCDであり、表示部131には、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、および焦点検出時の合焦状態表示画像などが表示される。操作スイッチ132は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、および撮影モード選択スイッチなどで構成される。フラッシュメモリ133はカメラ本体138に着脱可能であり、撮影済みの画像が記録される。メモリ144にはCPU121で行われる演算に必要な各種データが保存されている。
The
メインミラー200は、ハーフミラーによって構成されており、観察状態(プレビュー状態)の際には撮影光路に斜設され(第2の状態)、撮影状態の際には撮影光路から退去される(第1の状態)。メインミラー200とシャッターユニット139との間にはサブミラー201が配置されている。サブミラー201はメインミラー200を透過した光束をカメラボディの下方に向けて反射する。なお、撮像レンズ137には位相差AFを行うための焦点検出ユニット(位相差AFユニット)202が配置されている。
The
被写体からの光は、撮影レンズ137を通過した後、メインミラー200に入射する。メインミラー200に入射した光の一部は該メインミラー200を透過し、サブミラー201で反射されてAFユニット202に入射する。AFユニット202は、フィールドレンズおよび二次結像レンズによって焦点検出光学系が構成されている。この二次結像レンズは、入射した2つの光束を焦点検出用センサ上に再結像させる。これによって、焦点検出用センサ上には2つの瞳分割領域からの光束により一対の光学像である被写体像が形成される。焦点検出用センサは一対の被写体像を光電変換して一対の像信号(電気信号:第1の焦点状態検出結果)を出力する。
The light from the subject passes through the taking
ここで、図1に示すカメラで行われる位相差AFについて説明する。 Here, the phase difference AF performed by the camera shown in FIG. 1 will be described.
CPU121は、上記の一対の像信号に関して相関演算を行い、像信号の相対的な位置ずれを示す位相差を算出する。そして、CPU121は当該位相差に基づいて撮影レンズ1の焦点状態(デフォーカス量)を算出(検出)する。さらに、CPU121は、デフォーカス量に基づいて合焦状態とするためのフォーカスレンズの移動量を算出する。
The
メインミラー200によって反射された光は、撮像素子107と光学的に共役な位置に配置されたピント板(図示せず)上に結像する。そして、光はピント板において拡散され、ピント板を透過した光(被写体像)はペンタダハプリズム(図示せず)によって正立像に変換される。当該正立像は、接眼レンズ(図示せず)によって拡大されて、撮影者によって観察される。
The light reflected by the
ここで、図1に示すカメラで行われるコントラストAFについて説明する。 Here, the contrast AF performed by the camera shown in FIG. 1 will be described.
コントラストAFとは、フォーカスレンズを駆動しつつ撮像素子107で撮像された被写体像のコントラスト評価を行うことによって合焦位置を検出する焦点検出である。コントラストAFについては、種々の文献に記載されているので、ここでは詳細な説明を省略する。
Contrast AF is focus detection that detects the in-focus position by evaluating the contrast of the subject image captured by the
図2は、図1に示す撮像素子107の回路構成を概略的に示す図である。
FIG. 2 is a diagram schematically showing a circuit configuration of the
図2では、撮像素子107について2列×4行の画素が示されているが、実際には、多数の画素が2次元マトリックス状に配置されている。ここでは、撮像素子107は、例えば、画素ピッチが2μm、有効画素数が横3000列×縦2000行=600万画素、撮像画面サイズが横6mm×縦4mmである。
In FIG. 2, pixels of 2 columns × 4 rows are shown for the
図2において、画素の各々は光電変換部1を有し、この光電変換部1はMOSトランジスタゲートとゲート下の空乏層からなる光電変換素子である。さらに、画素の各々はフォトゲート2、および転送スイッチMOSトランジスタ3を有している。
In FIG. 2, each of the pixels has a
図示の撮像素子107はリセット用MOSトランジスタ4、ソースフォロワアンプMOSトランジスタ5、水平選択スイッチMOSトランジスタ6、ソースフォロワの負荷MOSトランジスタ7、暗出力転送MOSトランジスタ8、明出力転送MOSトランジスタ9、暗出力蓄積容量(CTN)10、明出力蓄積容量(CTS)11、水平転送MOSトランジスタ12、水平出力線リセットMOSトランジスタ13、差動出力アンプ14、水平走査回路15、および垂直走査回路16を有している。
The illustrated
なお、撮像素子の構成については、例えば、特開平9−46596号報に記載されているので、ここではこれ以上の説明を省略する。 The configuration of the image sensor is described in, for example, Japanese Patent Application Laid-Open No. 9-46596, so that further explanation is omitted here.
図3は、図1に示す撮像素子107における画素の断面を示す図である。
FIG. 3 is a diagram illustrating a cross section of a pixel in the
P型ウェル17には、ゲート酸化膜18、一層目ポリSi19、二層目ポリSi20、およびn+フローティングディフュージョン部(FD)21が形成されている。である。FD21は転送MOSトランジスタを介して光電変換部と接続される。図示の例では、2つの転送MOSトランジスタ3のドレインとFD21とを共通化して、微細化するとともにFD21の容量低減による感度向上を図っているが、Al配線によってFD21を接続してもよい。
In the P-
続いて、図1に示すカメラで行われる撮像面位相差AFについて説明する。 Next, imaging surface phase difference AF performed by the camera shown in FIG. 1 will be described.
図4は、図1に示す撮像素子107における撮像用画素の構造を説明するための図である。そして、図4(a)は平面図であり、図4(b)は図4(a)に示すA−A線に沿った断面図である。また、図5は、図1に示す撮像素子107における焦点検出用画素の構造を説明するための図である。そて、図5(a)は平面図であり、図5(b)は図5(a)に示すB−B線に沿った断面図である。
FIG. 4 is a diagram for explaining the structure of the imaging pixels in the
図示の例では、2行×2列の4画素のうち、対角の2画素にG(緑色)の分光感度を有する画素を配置し、他の2画素にそれぞれR(赤色)とB(青色)の分光感度を有する画素を配置したベイヤー配列が用いられている。そして、ベイヤー配列の間に、後述する構造の複数の焦点検出用画素が所定の規則にて分散配置される。 In the example shown in the figure, pixels having G (green) spectral sensitivity are arranged in two diagonal pixels out of four pixels in 2 rows × 2 columns, and R (red) and B (blue) are arranged in the other two pixels, respectively. A Bayer array in which pixels having a spectral sensitivity of 1) are arranged is used. A plurality of focus detection pixels having a structure to be described later are distributed and arranged in a predetermined rule between the Bayer arrays.
図4(b)において、各画素の最前面にはオンチップマイクロレンズMLが配置されている。そして、マイクロレンズMLの後にはCFRはR(赤)のカラーフィルタCFRおよびG(緑)のカラーフィルタCFGが配置されている。なお、PDは図2で説明した光電変換部1を模式的に示したものであり、CLは撮像素子における各種信号を伝達する信号線を形成するための配線層である。また、TLは撮影光学系を模式的に示したものである。
In FIG. 4B, an on-chip microlens ML is disposed on the forefront of each pixel. After the microlens ML, an R (red) color filter CFR and a G (green) color filter CFG are arranged in the CFR. PD schematically shows the
ここで、撮像用画素のマイクロレンズMLと光電変換部PDとは、撮影光学系TLを通過した光束を可能な限り有効に取り込むように構成されている。撮影光学系TLの射出瞳EPと光電変換部PDは、マイクロレンズMLによって共役関係にあり、かつ光電変換部PDの有効面積は大面積に設計される。 Here, the microlens ML of the imaging pixel and the photoelectric conversion unit PD are configured to capture the light beam that has passed through the photographing optical system TL as effectively as possible. The exit pupil EP of the photographing optical system TL and the photoelectric conversion unit PD are in a conjugate relationship by the microlens ML, and the effective area of the photoelectric conversion unit PD is designed to be large.
また、図4(b)においては、R画素の入射光束について説明したが、G画素およびB(青)画素も同一の構造となっている。従って、撮像用のRGB各画素に対応した射出瞳EPは大径となり、被写体からの光束を効率よく取り込んで画像信号のS/Nを向上させている。 In FIG. 4B, the incident light beam of the R pixel has been described, but the G pixel and the B (blue) pixel have the same structure. Accordingly, the exit pupil EP corresponding to each of the RGB pixels for imaging has a large diameter, and the S / N of the image signal is improved by efficiently capturing the light flux from the subject.
図5(a)において、SHAおよびSHBはその分割形態が異なる第1の画素群および第2の画素群である。これら第1および第2の画素群SHAおよびSHBはベイヤー配列の間に所定の規則によって分散配置される。そして、第1の画素群SHAおよび第2の画素群SHBから得られた被写体像の位相差を応じて、CPU121はフォーカスずれ量を算出する。
In FIG. 5A, SHA and SHB are a first pixel group and a second pixel group having different division forms. These first and second pixel groups SHA and SHB are distributed and arranged according to a predetermined rule between the Bayer arrays. Then, the
具体的には、画像信号を得る際には、G画素は輝度情報の主成分をなす。人間の画像認識特性は輝度情報に敏感であるため、G画素が欠損すると画質劣化が認められやすい。一方、R又はB画素は色情報を取得する画素であるが、人間は色情報には鈍感であるため、色情報を取得する画素は多少の欠損が生じても画質劣化に気づきにくい。 Specifically, when obtaining an image signal, the G pixel is a main component of luminance information. Since human image recognition characteristics are sensitive to luminance information, image quality degradation is likely to be noticed when G pixels are missing. On the other hand, the R or B pixel is a pixel that acquires color information. However, since humans are insensitive to color information, pixels that acquire color information are less likely to notice image quality deterioration even if there is some loss.
そこで、2行×2列の画素のうちG画素は撮像用画素として残し、RとBに相当する位置の一部の画素に所定の割合で焦点検出用画素を配列する。この焦点検出用画素は図5(a)においてSHAおよびSHBで示されている。 Therefore, the G pixels out of the pixels in 2 rows × 2 columns are left as imaging pixels, and focus detection pixels are arranged at a predetermined ratio to some pixels at positions corresponding to R and B. This focus detection pixel is indicated by SHA and SHB in FIG.
マイクロレンズMLと光電変換部PDとは図4(b)に示す撮像用画素と同一構造である。ここでは、焦点検出用画素の信号は画像生成には用いないので、色分離用カラーフィルタの代わりに透明膜CFW(無色)が配置される。また、撮像素子107で瞳分割を行うため、配線層CLの開口部はマイクロレンズMLの中心線に対してx方向に偏心している。
The microlens ML and the photoelectric conversion unit PD have the same structure as the imaging pixel shown in FIG. Here, since the signal of the focus detection pixel is not used for image generation, a transparent film CF W (colorless) is disposed instead of the color separation color filter. Further, since pupil division is performed by the
画素SHAの開口部OPHAは−x方向に偏心しているので、撮影光学系TLの左側の射出瞳EPHAを通過した光束を受光する。同様に、画素SHBの開口部OPHBは+x方向に偏心しているので、撮影光学系TLの右側の射出瞳EPHBを通過した光束を受光する。ここで、画素SHAをx方向に規則的に配列し、これらの画素群で取得した被写体像をA像とする。同様に、画素SHBもx方向に規則的に配列し、これらの画素群で取得した被写体像をB像とする。これらA像とB像の相対位置を検出することで、被写体像のピントずれ量(デフォーカス量)が検出することができる。 Since the opening OP HA of the pixel SHA is decentered in the −x direction, the light beam that has passed through the exit pupil EP HA on the left side of the imaging optical system TL is received. Similarly, since the opening OP HB of the pixel SHB is decentered in the + x direction, the light beam that has passed through the right exit pupil EP HB of the photographing optical system TL is received. Here, the pixels SHA are regularly arranged in the x direction, and a subject image acquired by these pixel groups is defined as an A image. Similarly, the pixels SHB are also regularly arranged in the x direction, and a subject image acquired by these pixel groups is a B image. By detecting the relative positions of these A and B images, the amount of focus shift (defocus amount) of the subject image can be detected.
画素SHAおよびSHBでは、撮影画面のx方向に輝度分布を有した被写体、例えば、y方向の線に対しては焦点検出可能である。必要に応じて、撮影画面のy方向に輝度分布を有した被写体、例えば、x方向の線に対しても焦点検出できるように、撮影レンズのy方向にも瞳分割を行う画素を備えるようにしてもよい。 In the pixels SHA and SHB, focus detection is possible for a subject having a luminance distribution in the x direction on the photographing screen, for example, a line in the y direction. If necessary, a pixel that performs pupil division is also provided in the y direction of the photographing lens so that focus detection can be performed on a subject having a luminance distribution in the y direction of the photographing screen, for example, a line in the x direction. May be.
なお、撮像用画素の間に焦点検出用画素を離散的に配置する技術およびこの焦点検出用画素を用いて焦点検出を行う技術は特許文献1に記載されているので、ここではこれ以上の詳細な説明は省略する。
Note that a technique for discretely disposing focus detection pixels between imaging pixels and a technique for performing focus detection using the focus detection pixels are described in
撮像面位相差AFは位相差AFと比べて、より広範囲で焦点検出が可能である。しかしながら、撮像面位相差AFはレンズケラレの影響を大きく受けるため、焦点検出の精度は位相差AFよりも劣る。 The imaging surface phase difference AF can detect a focus in a wider range than the phase difference AF. However, since the imaging surface phase difference AF is greatly affected by lens vignetting, the accuracy of focus detection is inferior to the phase difference AF.
図6は、位相差AFにおいて設定可能な焦点検出位置を示す図である。 FIG. 6 is a diagram showing focus detection positions that can be set in the phase difference AF.
位相差AFにおいては、例えば、外枠で示す撮影領域605の中に離散的に焦点検出位置600〜604が設けられ、焦点検出の際、これら焦点検出位置600〜604から任意の位置を選択・設定することが可能である。
In the phase difference AF, for example, focus
図7は、コントラストAFにおいて設定可能な焦点検出位置を示す図である。 FIG. 7 is a diagram showing focus detection positions that can be set in contrast AF.
コントラストAFにおいては、外枠で示す撮影領域619の中に3×3の9箇所の領域610〜618が設けられ、焦点検出の際には、これら領域610〜618から任意の領域を選択・設定することが可能である。
In contrast AF, nine 3 × 3
図6および図7に示すように、位相差AFとコントラストAFにおいては、位相差検出のためのラインセンサが離散的に配置されているため、設定可能な焦点検出位置(領域)が異なる。 As shown in FIG. 6 and FIG. 7, in the phase difference AF and the contrast AF, line sensors for detecting the phase difference are discretely arranged, so that the focus detection positions (areas) that can be set are different.
図8は、図1に示すカメラで行われる撮影動作を説明するためのフローチャートである。なお、図8に示すフローチャートにおける処理は図1に示すCPU121によって行われる。
FIG. 8 is a flowchart for explaining a photographing operation performed by the camera shown in FIG. Note that the processing in the flowchart shown in FIG. 8 is performed by the
いま、撮影者がカメラの電源スイッチをオン操作すると(ステップS101)、CPU121はカメラにおけるアクチュエータおよび撮像素子の動作確認を行う。さらに、CPU121はメモリ内容および実行プログラムの初期化を行って、選択された焦点検出位置など測距に必要な情報をメモリから読み出すとともに、撮影準備動作を行う(ステップS102)。
Now, when the photographer turns on the power switch of the camera (step S101), the
続いて、CPU121はレンズ通信回路135を介して撮影レンズ137のカメラ通信回路136とレンズ通信を行う(ステップS103)。このレンズ通信によって、CPU121は撮影レンズ137の動作確認を行って、撮影レンズ137のメモリ内容および実行プログラムの初期化を行うとともに、準備動作を実行させる。また、CPU121は焦点検出および撮像に必要な撮影レンズの特性を示す特性データを撮像レンズ137から取得して、レンズ特性データとしてメモリ144に保存する。
Subsequently, the
なお、このメモリ144には、カメラ本体138の特定を示す特性データがカメラ特性データとして記録されている。
In the
次に、CPU121は撮影者によってライブビュー撮影が指示されたか否かを判定する(ステップS104)。ライブビュー撮影が指示されていないと(ステップS104において、NO)、CPU121は撮影待機状態となる。一方、ライブビュー撮影が指示されると(ステップS104において、YES)、CPU121はメインミラー200をミラーアップ状態とする。ここでは、CPU121はメインミラー200およびサブミラー201を退避させた後、シャッターユニット139を開いて、撮像素子107を受光可能状態とする(ステップS105)。
Next, the
続いて、CPU121は撮像素子駆動回路123によって撮像素子107を駆動する(ステップS106)。そして、CPU121は表示部131にプレビュー画像を表示する(ステップS107)。これによって、撮影者はプレビュー画像を目視して撮影の際の構図決定を行う。
Subsequently, the
ライブビュー撮影動作中において、CPU121はステップS102で読み出された焦点検出位置が常に合焦状態となるように、コントラストAFによるコンティニュアスAFを行う。
During the live view shooting operation, the
続いて、CPU121は撮影者によって静止画撮影が指示されたか否かを判定する(ステップS108)。静止画撮影指示がないと(ステップS108において、NO)、CPU121はコンティニュアスAFを行いつつライブビュー撮影状態を維持する。
Subsequently, the
静止画撮影が指示されると(ステップS108において、YES)、CPU121は撮像素子107の撮像動作を開始して露光を行う(ステップS109)。そして、CPU121は、ステップS102で読み出された焦点検出位置が位相差AFによって焦点検出可能な焦点検出位置であるか否かを判定する(ステップS110)。つまり、CPU121は位相差AFによる検出が可能な撮影条件であるか否かを判定することになる。
When still image shooting is instructed (YES in step S108), the
ここで、図7に示すコントラストAFにおける焦点検出位置(領域)611、613、614、615、および617はそれぞれ図6に示す位相差AFにおける焦点検出位置600、601、602、603、および604に対応しており、位相差AFによって焦点検出が可能である。
Here, the focus detection positions (areas) 611, 613, 614, 615, and 617 in the contrast AF shown in FIG. 7 are the
一方、コントラストAFにおける焦点検出位置610、612、616、および618については、位相差AFに対応する焦点検出位置がないので、位相差AFによる焦点検出は不可能である。つまり、ステップS110では、CPU121はコントラストAFにおける焦点検出位置が位相差AFで焦点検出可能な位置であるか否かを判定することになる。
On the other hand, the
コントラストAFにおける焦点検出位置が位相差AFで焦点検出可能な位置であると(ステップS110において、YES)、CPU121はミラーダウン状態とする。つまり、CPU121は退避させたメインミラー200およびサブミラー201をダウンさせて、AFユニット(焦点検出用センサ)202が受光可能な状態とする(ステップS111)。
If the focus detection position in contrast AF is a position where focus detection is possible with phase difference AF (YES in step S110),
次に、CPU121は位相差AFによる被写体の位相差に基づいて、フォーカスずれ量を検出する(ステップS112)。この際、CPU121は焦点検出位置をコントラストAFにおける焦点検出位置と同一又は近傍の位置とする。例えば、コントラストAFにおける焦点検出位置611が設定されていたとすると、CPU121は位相差AFにおける焦点検出位置601において焦点検出を行う。
Next, the
続いて、CPU121はステップS112で得られたフォーカスずれ量に基づいてボケ修復処理を行う(ステップS113)。このボケ修復処理については後述する。そして、ボケ修復処理の後、CPU121は撮影動作を終了する。
Subsequently, the
コントラストAFにおける焦点検出位置が位相差AFで焦点検出可能な位置でないと(ステップS110において、NO)、CPU121は焦点検出位置が位相差AFによって焦点検出可能な範囲外であることを表示部131に表示して、撮影者にボケ修復のための位相差AFができない旨を警告する(ステップS114)。そして、CPU121は撮影動作を終了する。
If the focus detection position in contrast AF is not a position where focus detection is possible with phase difference AF (NO in step S110),
なお、ここでは、表示部131に警告を表示するようにしたが、例えば、音響を発するなど所望の撮影ができないことを撮影者に伝えることができれば、どのような報知を行ってもよい。
Here, the warning is displayed on the
前述したように、ボケ修復処理の際には、CPU121は設定された測距点(焦点検出位置)で得られたフォーカス量に基づいて画像のボケ修復を行う。ボケの生成過程は、カメラの特性および撮影レンズの特性から推定することが可能である。ここでは、ボケの生成過程をモデル化したボケ関数を定義して、ウィーナーフィルタなどのデコンボリューションと呼ばれる画像復元アルゴリズムを用いてボケ画像を修復処理する。ボケ画像の修復の際に用いられる演算手法については、例えば、特許文献1に記載されているので、ここでは詳細な説明を省略する。
As described above, in the blur restoration process, the
図9は、図8に示すボケ修復処理を説明するためのフローチャートである。 FIG. 9 is a flowchart for explaining the blur repair process shown in FIG.
ボケ修復処理を開始すると、CPU121は、画像処理回路125に行われた変換処理(つまり、画像処理)の内容を示す変換情報を取得する(ステップS501)。そして、CPU121は、画像処理回路125から送られる画像データを変換する際の変換手法を決定する(ステップS502)。
When the blur repair process is started, the
ここでは、CPU121は、前述の図8のステップS103で取得したレンズ情報に基づいて変換手法を決定する。ステップS502で決定された変換手法では、例えば、特許文献1に記載された画像復元処理のアルゴリズムの前提条件である線形性を確保するために、露光値と画素値とが比例関係になるように画像データを変換する。
Here, the
例えば、画像処理回路125でガンマ補正を実行する際には、ステップS502で決定された手法ではガンマ補正による変換の逆変換が行われることになる。これによって、ガンマ補正前の画像データを再生することができ、線形性を有する画像データを取得することが可能となる。
For example, when gamma correction is executed by the
同様に、画像処理回路125で色補正を実行する際には、ステップS502では決定された方法では色変換による変換の逆変換が行われることになる。これによって、同様にして線形性を有する画像データを取得することが可能となる。
Similarly, when color correction is executed by the
このように、ステップ502では、画像処理回路125による変換処理の逆変換に相当する変換手法が決定されることになる。
Thus, in
続いて、CPU121は画像処理回路125から画像データ(撮影画像)を取得する(ステップS503)。そして、CPU121はステップS502で決定した変換手法に従って、画像データの変換を行う(ステップS504)。その後、CPU121はボケ関数の生成を行う(ステップS600)。
Subsequently, the
次に、CPU121はボケ関数の逆変換を行って、ステップS504で変換処理した画像データに対してボケ修復処理を行う(ステップS505)。そして、CPU121はボケ修復処理を終了する。
Next, the
なお、ボケ修復処理では、デコンボリューション処理と呼ばれる画像復元アルゴリズムによってボケ修復処理が行われる。これによって、所定の被写体のボケが修復されたボケ修復画像データを得ることができる。ボケ関数を逆変換してボケ修復を行う手法について、例えば、特許文献1に記載されているので、ここでは詳細な説明を省略する。
In the blur restoration process, the blur restoration process is performed by an image restoration algorithm called a deconvolution process. As a result, it is possible to obtain blur-repaired image data in which the blur of a predetermined subject is repaired. For example,
図10は、図9に示すボケ関数生成処理を説明するためのフローチャートである。 FIG. 10 is a flowchart for explaining the blur function generation processing shown in FIG.
ボケ関数生成処理を開始すると、CPU121はメモリ144に記録されたカメラ特性データを取得する(ステップS601)。続いて、CPU121はメモリ144に記録されたレンズ特性データを取得する(ステップS602)。次に、CPU121はボケ関数を定義する際に用いるパラメータをメモリ144から取得する(ステップS603)。
When the blur function generation process is started, the
ところで、ボケ関数は、撮影レンズ137と撮像素子107との間における光伝達特性によって決まる。そして、光伝達特性は、カメラ特性データ、レンズ特性データ、撮影画像における被写体領域の位置、および被写体距離などの要因によって変化する。また、ボケ関数はフォーカスずれ量によっても大きく変化する。
Incidentally, the blur function is determined by the light transfer characteristic between the photographing
このため、上記の要因とボケ関数を定義する際に用いるパラメータ(ボケパラメータ)とを関連付けたテーブルデータが予めメモリ144に記憶されている。また、ボケ関数を定義する際に用いられるフォーカスずれ量として、図8のステップS112で得られたフォーカスずれ量が用いられる。
For this reason, table data in which the above-described factors are associated with parameters (blur parameters) used when defining the blur function is stored in the
次に、CPU121はボケパラメータに基づいてボケ関数を定義する(ステップS604)。ここで、ボケ関数として、ボケ現象が正規分布法則に沿うものとするガウシアン分布などがある。中心画素からの距離をr、正規分布法則の任意のパラメータをσ2とすると、ボケ関数h(r)は、次の式(1)で表される。
Next, the
そして、ボケ関数を定義すると、CPU121はボケ関数生成処理を終了する。
When the blur function is defined, the
このように、本発明の第1の実施形態では、ライブビュー撮影(プレビュー状態)から静止画を撮影する際、合焦動作の完了を待つことなく、撮像素子の露光を行うようにしたので、撮影者が意図した瞬間の静止画を得ることができる。 Thus, in the first embodiment of the present invention, when shooting a still image from live view shooting (preview state), the image sensor is exposed without waiting for the completion of the focusing operation. A still image at the moment intended by the photographer can be obtained.
また、位相差AFで検出したデフォーカス量に基づいて、ボケ画像の修復を行うようにしたので、ボケ修復を行うための最適なフィルタを容易に得ることができ、短い処理時間でより精度よくボケ修復を行うことができる。 In addition, since the blurred image is restored based on the defocus amount detected by the phase difference AF, it is possible to easily obtain an optimum filter for performing the blur restoration, and it is possible to more accurately with a short processing time. Defocusing can be repaired.
[第2の実施形態]
次に、本発明の第2の実施形態によるカメラについて説明する。なお、第2の実施形態によるカメラの構成は図1に示すカメラと同様である。
[Second Embodiment]
Next, a camera according to a second embodiment of the present invention will be described. The configuration of the camera according to the second embodiment is the same as that of the camera shown in FIG.
図11は、本発明の第2の実施形態によるカメラで行われる撮影動作を説明するためのフローチャートである。なお、図11に示すフローチャートにおける処理は図1に示すCPU121によって行われる。また、図11において、図8に示すステップと同一のステップについては同一の参照符号を付して説明を省略する。
FIG. 11 is a flowchart for explaining a photographing operation performed by the camera according to the second embodiment of the present invention. Note that the processing in the flowchart shown in FIG. 11 is performed by the
図8で説明したステップS110において、コントラストAFにおける焦点検出位置が位相差AFで焦点検出可能な位置でないと(ステップS110において、NO)、CPU121は予め設定されたコントラストAFにおける焦点検出位置でコントラストAFによる焦点検出を行って、当該焦点検出結果(第2の焦点状態検出結果)に応じて焦点調節を行う(ステップS714)。そして、焦点調節が完了すると、CPU121は撮像素子107の撮像動作を開始して露光を行う(ステップS715)。
In step S110 described with reference to FIG. 8, if the focus detection position in contrast AF is not a position where focus detection is possible with phase difference AF (NO in step S110),
続いて、CPU121は撮影者によってステップS109で得られた画像(第1の画像)とステップS715で得られた画像(第2の画像)との両方又は一方を選択するかあるいはいずれも選択しないかの指示があったか否かを判定する(ステップS716)。ここでは、撮影者はステップS109で得られたシャッター優先の画像およびステップS716で得られたピント優先の画像のいずれかを選択することができる。もちろん、撮影者は両画像を選択し、両画像とも選択しないこともできる。
Subsequently, the
指示がないと(ステップS716において、NO)、CPU121は待機する。一方、指示があると(ステップS716において、YES)、CPU121は当該指示に応じた処理を行って撮影動作を終了する。
If there is no instruction (NO in step S716),
このように、本発明の第2の実施形態においてもライブビュー撮影から静止画を撮影する際、合焦動作の完了を待つことなく撮像素子の露光を行うので、撮影者が意図した瞬間の静止画を得ることができる。 As described above, also in the second embodiment of the present invention, when shooting a still image from live view shooting, the image sensor is exposed without waiting for the completion of the focusing operation. A picture can be obtained.
さらに、第2の実施形態では、コントラストAFのために設定された焦点検出位置で位相差AFによる焦点検出が行える場合には、位相差AFで検出したデフォーカス量に基づいてボケ画像の修復を行うので、ボケ修復を行うための最適なフィルタを容易に得ることができ、短い処理時間で精度よくボケ修復を行うことができる。そして、コントラストAFのために設定された焦点検出位置で、位相差AFによる焦点検出を行うことができない場合には、撮影者が意図した瞬間の静止画とコントラストAFによって正確にピントを合わせた静止画の両方を得る。これによって、撮影者は状況に応じてレリーズタイムラグを優先した静止画又はピント状態を優先した静止画を選択することができる。 Further, in the second embodiment, when the focus detection by the phase difference AF can be performed at the focus detection position set for the contrast AF, the blurred image is repaired based on the defocus amount detected by the phase difference AF. Therefore, it is possible to easily obtain an optimum filter for performing blur repair, and to perform blur repair with high accuracy in a short processing time. When focus detection by phase difference AF cannot be performed at the focus detection position set for contrast AF, the still image at the moment intended by the photographer and the still image that is accurately focused by contrast AF Get both of the drawings. Thus, the photographer can select a still image giving priority to the release time lag or a still image giving priority to the focus state according to the situation.
[第3の実施形態]
続いて、本発明の第3の実施形態によるカメラについて説明する。なお、第3の実施形態によるカメラの構成は図1に示すカメラと同様である。
[Third Embodiment]
Subsequently, a camera according to a third embodiment of the present invention will be described. The configuration of the camera according to the third embodiment is the same as that of the camera shown in FIG.
図12は、本発明の第3の実施形態によるカメラで行われる撮影動作を説明するためのフローチャートである。なお、図12に示すフローチャートにおける処理は図1に示すCPU121によって行われる。また、図12において、図8に示すステップと同一のステップについては同一の参照符号を付して説明を省略する。
FIG. 12 is a flowchart for explaining a photographing operation performed by the camera according to the third embodiment of the present invention. The processing in the flowchart shown in FIG. 12 is performed by the
図8で説明したステップS110において、コントラストAFにおける焦点検出位置が位相差AFで焦点検出可能な位置でないと(ステップS110において、NO)、CPU121は予め設定されたコントラストAFによる焦点検出位置と同一か又はその近傍で撮像面位相差AFによる焦点検出を行う(ステップS814)。そして、CPU121はその焦点検出結果(第3の焦点状態検出結果)に基づいてフォーカスレンズを駆動して焦点調節を行う。
In step S110 described in FIG. 8, if the focus detection position in contrast AF is not a position where focus detection is possible by phase difference AF (NO in step S110),
図13は、図12に示す撮像面位相差AFにおける焦点検出位置を示す図である。 FIG. 13 is a diagram showing a focus detection position in the imaging plane phase difference AF shown in FIG.
図13に示すように、撮像面位相差AFにおける焦点検出位置は、撮像面全体である一つの領域1301であり、この領域1301は、図7に示すコントラストAFの焦点検出位置610、611、612、613、614、615、617、および618に対応している。従って、撮像面位相差AFでは、コントラストAFで焦点件検出可能な範囲と同一の範囲での焦点検出を行うことができる。
As shown in FIG. 13, the focus detection position in the imaging surface phase difference AF is one
続いて、CPU121は、撮像面位相差AFで得られたフォーカスずれ量に基づいてボケ修復処理を行って(ステップS815)、撮影を終了する。なお、ステップS815におけるボケ修復処理は、図8で説明したステップS113のボケ修復処理と同様にして行われる。
Subsequently, the
このように、本発明の第3の実施形態においてもライブビュー撮影から静止画を撮影する際、合焦動作の完了を待つことなく撮像素子の露光を行うので、撮影者が意図した瞬間の静止画を得ることができる。 As described above, also in the third embodiment of the present invention, when shooting a still image from live view shooting, the image sensor is exposed without waiting for the completion of the focusing operation. A picture can be obtained.
さらに、第3の実施形態では、コントラストAFのために設定された焦点検出位置で位相差AFによる焦点検出が行える場合には、位相差AFで検出したデフォーカス量に基づいてボケ画像の修復を行うので、ボケ修復を行うための最適なフィルタを容易に得ることができ、短い処理時間で精度よくボケ修復を行うことができる。そして、コントラストAFのために設定された焦点検出位置で、位相差AFによる焦点検出を行うことができない場合においても、撮像面位相差AFで得られたデフォーカス量に基づいてボケ画像の修復を行うようにしたので、ボケ修復の際に最適なフィルタを容易に得ることができ、短い処理時間で精度よくボケ修復を行うことができる。 Further, in the third embodiment, when the focus detection by the phase difference AF can be performed at the focus detection position set for the contrast AF, the blurred image is repaired based on the defocus amount detected by the phase difference AF. Therefore, it is possible to easily obtain an optimum filter for performing blur repair, and to perform blur repair with high accuracy in a short processing time. Even when focus detection by phase difference AF cannot be performed at the focus detection position set for contrast AF, the blurred image is restored based on the defocus amount obtained by imaging plane phase difference AF. As a result, it is possible to easily obtain an optimum filter at the time of blur repair, and to perform blur repair with high accuracy in a short processing time.
なお、上述の実施の形態では、撮像装置として撮影レンズが交換可能なカメラについて説明したが、撮影レンズがカメラ本体に備わっている所謂レンズくくり付けタイプのカメラにも適用することができる。 In the above-described embodiment, the camera in which the photographing lens can be replaced is described as the imaging device. However, the present invention can also be applied to a so-called lens attachment type camera in which the photographing lens is provided in the camera body.
上述の説明から明らかなように、図1に示す例においては、位相差AFユニット202が第1の焦点状態検出手段として機能する。また、メインミラー200およびサブミラー201は選択手段として機能し、CPU121および画像処理回路125は制御手段として機能する。
As is clear from the above description, in the example shown in FIG. 1, the phase
さらに、フォーカスアクチュエータ114、フォーカス駆動回路126、およびCPU121は第2の焦点状態検出手段として機能し、CPU121は判定手段として機能する。そして、CPU121は第3の焦点状態検出手段として機能する。なお、CPU121および操作スイッチ132は画像選択手段として機能する。
Further, the
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。 As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .
例えば、上記の実施の形態の機能を制御方法として、この制御方法を画像処理装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画像処理装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。 For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the image processing apparatus. In addition, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the image processing apparatus. The control program is recorded on a computer-readable recording medium, for example.
上記の制御方法および制御プログラムの各々は、少なくとも選択ステップおよび制御ステップを有している。 Each of the above control method and control program has at least a selection step and a control step.
また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.
107 撮像素子
121 CPU
124 撮像素子駆動回路
131 表示部
137 撮影レンズユニット
138 カメラ本体
200 メインミラー
201 サブミラー
202 位相差AFユニット
107
124 Image
Claims (8)
撮影レンズを介して光学像を受けて当該光学像に応じた画像信号を出力する撮像素子と、
前記光学像を受光して当該光学像が合焦状態であるか否かを示す第1の焦点状態検出結果を出力する第1の焦点状態検出手段と、
前記撮影レンズからの前記光学像を前記撮像素子に導く第1の状態と前記光学像を前記第1の焦点状態検出手段に導く第2の状態とのいずれかを選択する選択手段と、
撮影指示があると、前記選択手段を制御して前記第1の状態として前記撮像素子の露光を開始した後、前記選択手段を制御して前記第2の状態として前記第1の焦点状態検出結果に基づいて前記画像信号に応じた撮影画像のボケ修復を行う制御手段と、
を有することを特徴とする撮像装置。 An imaging apparatus for repairing blurring of a captured image obtained as a result of imaging,
An image sensor that receives an optical image via a photographic lens and outputs an image signal corresponding to the optical image;
First focus state detection means for receiving the optical image and outputting a first focus state detection result indicating whether or not the optical image is in focus;
Selecting means for selecting one of a first state for guiding the optical image from the photographing lens to the image sensor and a second state for guiding the optical image to the first focus state detecting means;
When there is a photographing instruction, the selection unit is controlled to start exposure of the image sensor as the first state, and then the selection unit is controlled to set the second state to the first focus state detection result. Control means for performing blur repair of a captured image according to the image signal based on
An imaging device comprising:
前記撮影レンズにはフォーカスレンズが備えられており、
前記フォーカスレンズを光軸に沿って駆動しつつ前記撮像素子で得られた前記画像信号に応じた撮影画像についてそのコントラストを評価して合焦状態であるか否かを示す第2の焦点状態検出結果を出力する第2の焦点状態検出手段と、
前記第2の焦点状態検出結果に応じて前記第1の焦点状態検出手段による検出が可能な撮影条件であるか否かを判定する判定手段とを有することを特徴とする請求項1に記載の撮像装置。 The first focus state detection means outputs the first focus state detection result by phase difference autofocus,
The photographing lens is equipped with a focus lens,
Second focus state detection indicating whether or not a focus state is obtained by evaluating the contrast of a captured image corresponding to the image signal obtained by the image sensor while driving the focus lens along an optical axis. Second focus state detection means for outputting a result;
2. The apparatus according to claim 1, further comprising: a determination unit that determines whether or not the imaging condition is capable of being detected by the first focus state detection unit according to the second focus state detection result. Imaging device.
前記第1の画素群および前記第2の画素群からの画像信号の位相差に応じて合焦状態であるか否かを検出する撮像面位相差オートフォーカスを行って第3の焦点状態検出結果を出力する第3の焦点状態検出手段を有し、
前記制御手段は、前記判定手段によって前記第1の焦点状態検出手段による検出が可能な撮影条件でないと判定されると、前記第2の状態とすることなく前記第3の焦点状態検出結果に基づいて前記画像信号に応じた撮影画像のボケ修復を行うことを特徴とする請求項2に記載の撮像装置。 The image pickup device includes a first pixel group and a second pixel group having different division forms,
Third focus state detection result by performing imaging surface phase difference autofocus for detecting whether or not the focus state is in accordance with the phase difference of the image signals from the first pixel group and the second pixel group. And a third focus state detection means for outputting
If it is determined by the determination unit that the shooting condition is not detectable by the first focus state detection unit, the control unit is based on the third focus state detection result without setting the second state. The imaging apparatus according to claim 2, wherein blur correction of a captured image corresponding to the image signal is performed.
前記撮影レンズからの前記光学像を前記撮像素子に導く第1の状態と前記光学像を前記焦点状態検出手段に導く第2の状態とのいずれかを選択する選択ステップと、
撮影指示があると、前記選択ステップによって前記第1の状態として前記撮像素子の露光を開始した後、前記選択ステップによって前記第2の状態として前記焦点状態検出結果に基づいて前記画像信号に応じた撮影画像のボケ修復を行う制御ステップと、
を有することを特徴とする制御方法。 An image sensor that receives an optical image through a photographic lens and outputs an image signal corresponding to the optical image, and whether the optical image is in focus by receiving the optical image through the photographic lens. A focus state detection unit that outputs a focus state detection result to indicate, and a method of controlling an imaging apparatus that repairs blur of a captured image according to the image signal,
A selection step of selecting one of a first state in which the optical image from the photographing lens is guided to the image sensor and a second state in which the optical image is guided to the focus state detection unit;
When there is a shooting instruction, after the selection step starts exposure of the image sensor as the first state, the selection step determines the second state according to the image signal based on the focus state detection result. A control step for blurring the shot image;
A control method characterized by comprising:
前記撮像装置に備えられたコンピュータに、
前記撮影レンズからの前記光学像を前記撮像素子に導く第1の状態と前記光学像を前記焦点状態検出手段に導く第2の状態とのいずれかを選択する選択ステップと、
撮影指示があると、前記選択ステップによって前記第1の状態として前記撮像素子の露光を開始した後、前記選択ステップによって前記第2の状態として前記焦点状態検出結果に基づいて前記画像信号に応じた撮影画像のボケ修復を行う制御ステップと、
を実行させることを特徴とする制御プログラム。 An image sensor that receives an optical image through a photographic lens and outputs an image signal corresponding to the optical image, and whether the optical image is in focus by receiving the optical image through the photographic lens. A control program for use in an imaging device that includes a focus state detection unit that outputs a focus state detection result that indicates a blur of a captured image corresponding to the image signal,
In the computer provided in the imaging device,
A selection step of selecting one of a first state in which the optical image from the photographing lens is guided to the image sensor and a second state in which the optical image is guided to the focus state detection unit;
When there is a shooting instruction, after the selection step starts exposure of the image sensor as the first state, the selection step determines the second state according to the image signal based on the focus state detection result. A control step for blurring the shot image;
A control program characterized by causing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012288031A JP2014130231A (en) | 2012-12-28 | 2012-12-28 | Imaging apparatus, method for controlling the same, and control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012288031A JP2014130231A (en) | 2012-12-28 | 2012-12-28 | Imaging apparatus, method for controlling the same, and control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014130231A true JP2014130231A (en) | 2014-07-10 |
Family
ID=51408678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012288031A Pending JP2014130231A (en) | 2012-12-28 | 2012-12-28 | Imaging apparatus, method for controlling the same, and control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014130231A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016024356A (en) * | 2014-07-22 | 2016-02-08 | 株式会社ニコン | Focus adjustment device and imaging device |
US9635245B2 (en) | 2015-02-27 | 2017-04-25 | Fujitsu Limited | Focus position detection device and focus position detection method |
WO2018062558A1 (en) * | 2016-09-29 | 2018-04-05 | 株式会社ニコン | Imaging element, focal point detection device, and electronic camera |
WO2018062559A1 (en) * | 2016-09-29 | 2018-04-05 | 株式会社ニコン | Imaging element, focus detection apparatus, and electronic camera |
-
2012
- 2012-12-28 JP JP2012288031A patent/JP2014130231A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016024356A (en) * | 2014-07-22 | 2016-02-08 | 株式会社ニコン | Focus adjustment device and imaging device |
US9635245B2 (en) | 2015-02-27 | 2017-04-25 | Fujitsu Limited | Focus position detection device and focus position detection method |
WO2018062558A1 (en) * | 2016-09-29 | 2018-04-05 | 株式会社ニコン | Imaging element, focal point detection device, and electronic camera |
WO2018062559A1 (en) * | 2016-09-29 | 2018-04-05 | 株式会社ニコン | Imaging element, focus detection apparatus, and electronic camera |
JPWO2018062559A1 (en) * | 2016-09-29 | 2019-07-11 | 株式会社ニコン | Imaging device, focus detection device, and imaging device |
JPWO2018062558A1 (en) * | 2016-09-29 | 2019-07-11 | 株式会社ニコン | Image sensor, focus detection device, and electronic camera |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5173954B2 (en) | Image processing apparatus and image processing method | |
JP5478935B2 (en) | Imaging device | |
JP5183715B2 (en) | Image processing apparatus and image processing method | |
US8964061B2 (en) | Image capturing apparatus with selection of thinning and readout mode in accordance with moving image recording mode | |
US8488956B2 (en) | Focus adjusting apparatus and focus adjusting method | |
JP5898481B2 (en) | Imaging apparatus and focus detection method | |
JP5762002B2 (en) | Imaging device | |
US20110285899A1 (en) | Image capturing apparatus | |
JP6249825B2 (en) | Imaging device, control method thereof, and control program | |
JP2010078856A (en) | Imaging apparatus | |
JP2010271670A (en) | Imaging apparatus | |
JP2014228818A (en) | Imaging device, imaging system, method for controlling imaging device, program and storage medium | |
US20140192167A1 (en) | Stereoscopic imaging device | |
JP2014130231A (en) | Imaging apparatus, method for controlling the same, and control program | |
JP2017032646A (en) | Image-capturing device and method for controlling the same | |
JP2014215436A (en) | Image-capturing device, and control method and control program therefor | |
JP2010206722A (en) | Image processing apparatus and image processing method, and, imaging apparatus | |
JP5858683B2 (en) | Focus detection apparatus and imaging apparatus | |
US11303813B2 (en) | Image pickup apparatus with focus condition determination | |
JP2016018033A (en) | Imaging device, control method of the same, program and recording medium | |
JP6576155B2 (en) | Image processing apparatus, imaging apparatus, and image display system | |
JP5793210B2 (en) | Imaging device | |
JP5352003B2 (en) | Image processing apparatus and image processing method | |
JP2016018034A (en) | Imaging device, control method of the same, program and recording medium | |
JP6671868B2 (en) | Control device, imaging device, control method, program, and storage medium |