JP2011252955A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2011252955A
JP2011252955A JP2010124806A JP2010124806A JP2011252955A JP 2011252955 A JP2011252955 A JP 2011252955A JP 2010124806 A JP2010124806 A JP 2010124806A JP 2010124806 A JP2010124806 A JP 2010124806A JP 2011252955 A JP2011252955 A JP 2011252955A
Authority
JP
Japan
Prior art keywords
imaging
focus detection
data
pixel data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010124806A
Other languages
Japanese (ja)
Other versions
JP5565105B2 (en
Inventor
Yosuke Kusaka
洋介 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010124806A priority Critical patent/JP5565105B2/en
Publication of JP2011252955A publication Critical patent/JP2011252955A/en
Application granted granted Critical
Publication of JP5565105B2 publication Critical patent/JP5565105B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent increase of a focus detection error or impossibility of focus detection which is oppositely caused by accumulated focus detection pixel data of a current frame and a past frame for achieving a level suitable for a focus detection arithmetic processing.SOLUTION: A body drive control device in a digital still camera determines whether an absolute value of difference between a focal length data at an imaging time of the current frame and a focal length data at an imaging time of the past frame is less than or equal to a threshold value or not (S170). If the absolute value is less than or equal to the threshold value, then the focus detection pixel data of the current frame or the already accumulated focus detection pixel data is added to the focus detection pixel data of the past frame, and if the absolute value exceeds the threshold value, then such addition is prohibited (S180).

Description

本発明は、撮像素子の出力に基づいて焦点検出を行うことが可能な撮像装置に関する。   The present invention relates to an imaging apparatus capable of performing focus detection based on an output of an imaging element.

撮像画素と瞳分割型位相差検出方式の焦点検出画素とを含む撮像素子を有する撮像装置が開示されている(例えば、特許文献1参照)。この撮像装置においては、周期的に撮像画素のデータと共に読み出される焦点検出画素のデータを読み出し毎に記憶するとともに、読み出し毎に記憶された焦点検出画素のデータを積算し、積算した焦点検出画素のデータに基づいて位相差検出演算を行って焦点検出を行っている。このように焦点検出画素のデータを積算することにより、低輝度においては所定のフレームレートで得られた焦点検出画素のデータレベルが低下して焦点検出不能に陥ることを防止することができる。   An image pickup apparatus having an image pickup element including an image pickup pixel and a pupil detection type phase difference detection type focus detection pixel is disclosed (for example, see Patent Document 1). In this imaging apparatus, the focus detection pixel data read together with the imaging pixel data periodically is stored for each readout, and the focus detection pixel data stored for each readout is integrated, and the integrated focus detection pixel data is stored. A focus detection is performed by performing a phase difference detection calculation based on the data. By integrating the data of the focus detection pixels in this way, it is possible to prevent the focus detection pixel data level obtained at a predetermined frame rate from being lowered and becoming incapable of focus detection at low luminance.

特開2008−85738号公報JP 2008-85738 A

しかしながら上述した撮像装置においては、積算により焦点検出画素のデータレベルが所定レベルを超えるという条件で積算を行っていたので、撮像の状態によっては、積算した焦点検出画素のデータが焦点検出に不適切なデータとなる。例えば、光学条件が変化したり、使用者による撮像装置の構え方が変化したりするような場合は、撮像状態が変化した場合に該当する。このような場合、積算により、かえって焦点検出誤差が増大したり焦点検出不能となるという問題があった。   However, in the imaging apparatus described above, since integration is performed under the condition that the data level of the focus detection pixel exceeds a predetermined level by integration, the data of the integrated focus detection pixel is inappropriate for focus detection depending on the imaging state. Data. For example, the case where the optical conditions change or the manner in which the user holds the imaging apparatus changes corresponds to the case where the imaging state changes. In such a case, there is a problem that the focus detection error increases or the focus detection becomes impossible due to the integration.

請求項1に記載の撮像装置は、複数の画素が配置され、複数の画素により被写体の像を撮像して、時系列的に連続した複数のフレームの各々に対応する画素データを生成する撮像素子と、撮像素子上に被写体の像を形成する撮影光学系と、被写体の像の撮像時における撮像状態に関する撮像状態情報を取得する撮像状態情報取得手段と、画素データのうちの少なくとも一部の部分データと、前記撮像状態情報とを互いに関連付けて記憶する記憶手段と、撮像素子により生成された画素データのうち、最新の画素データに含まれる部分データに、記憶手段により記憶された少なくとも1つの部分データを加算する加算処理を行って加算部分データを算出する加算手段と、記憶手段により記憶された撮像状態情報に基づいて、当該撮像状態情報に関連する部分データの加算を禁止する禁止制御を行う禁止手段と、加算部分データに基づいて、撮影光学系の焦点調節状態を検出する焦点検出手段とを備えることを特徴とする。   The imaging device according to claim 1, wherein a plurality of pixels are arranged, an image of a subject is captured by the plurality of pixels, and pixel data corresponding to each of a plurality of continuous frames in time series is generated. An imaging optical system that forms an image of the subject on the imaging device, imaging state information acquisition means for acquiring imaging state information relating to the imaging state at the time of imaging the subject image, and at least a part of the pixel data Storage means for storing data and the imaging state information in association with each other, and at least one portion stored by the storage means in the partial data included in the latest pixel data among the pixel data generated by the imaging device Based on the imaging state information stored in the storage unit, an adding unit that performs addition processing for adding data to calculate the added partial data, And inhibiting means for performing inhibit control to prohibit the addition of the partial data to be communicated, based on the addition partial data, characterized by comprising a focus detection means for detecting a focusing state of the photographic optical system.

本発明の撮像装置によれば、積算した焦点検出画素のデータが焦点検出に適切なデータとなるように積算の制御を行うので、高精度な焦点検出が可能になる。   According to the imaging apparatus of the present invention, since the integration control is performed so that the integrated focus detection pixel data becomes data suitable for focus detection, highly accurate focus detection is possible.

一実施の形態のデジタルスチルカメラの構成を示す図である。It is a figure which shows the structure of the digital still camera of one embodiment. 撮影画面上における焦点検出位置を示す図である。It is a figure which shows the focus detection position on an imaging | photography screen. 撮像素子の詳細な構成を示す正面図である。It is a front view which shows the detailed structure of an image pick-up element. 瞳分割型位相差検出方式におけるデフォーカスと像ずれの関係を示す図である。It is a figure which shows the relationship between the defocus in a pupil division type phase difference detection system, and image shift. 撮像画素と射出瞳の関係を示す図である。It is a figure which shows the relationship between an imaging pixel and an exit pupil. デジタルスチルカメラの撮像動作を示すフローチャートである。It is a flowchart which shows the imaging operation of a digital still camera. フレーム、各フレームの出力に同期して得られる焦点検出画素データおよび焦点距離データの関係と、記憶装置への記憶動作とについて説明するための図である。It is a figure for demonstrating the relationship of the focus detection pixel data and focal distance data which are obtained synchronizing with the output of a flame | frame and each flame | frame, and the memory | storage operation | movement to a memory | storage device. データ加算による効果を示した図である。It is a figure showing the effect by data addition. 過去の焦点検出画素データが、最新の焦点検出画素データをベースとして順次積算される処理を模式的に示した図である。It is the figure which showed typically the process in which the past focus detection pixel data are integrated | accumulated sequentially based on the newest focus detection pixel data. 撮像状態を分類した表である。It is the table | surface which classified the imaging state. 撮像素子の詳細な構成を示す正面図である。It is a front view which shows the detailed structure of an image pick-up element.

一実施の形態の撮像装置として、レンズ交換式のデジタルスチルカメラを例に挙げて説明する。図1は一実施の形態のデジタルスチルカメラの構成を示す横断面図である。本実施の形態のデジタルカメラ201は、交換レンズ202とカメラボディ203とから構成され、交換レンズ202がマウント部204を介してカメラボディ203に装着される。カメラボディ203にはマウント部204を介して種々の撮影光学系を有する交換レンズ202が装着可能である。   As an imaging apparatus according to an embodiment, an interchangeable lens digital still camera will be described as an example. FIG. 1 is a cross-sectional view showing a configuration of a digital still camera according to an embodiment. A digital camera 201 according to the present embodiment includes an interchangeable lens 202 and a camera body 203, and the interchangeable lens 202 is attached to the camera body 203 via a mount unit 204. An interchangeable lens 202 having various photographing optical systems can be attached to the camera body 203 via a mount unit 204.

交換レンズ202は、レンズ209、ズーミング用レンズ208、フォーカシング用レンズ210、絞り211、レンズ駆動制御装置206などを備えている。レンズ駆動制御装置206は、不図示のマイクロコンピューター、メモリ、駆動制御回路などから構成される。レンズ駆動制御装置206は、フォーカシング用レンズ210の焦点調節と絞り211の開口径調節のための駆動制御や、ズーミング用レンズ208、フォーカシング用レンズ210および絞り211の状態検出などを行う。また、後述するボディ駆動制御装置214との通信によりレンズ情報の送信とカメラ情報(デフォーカス量や絞り値など)の受信を行う。絞り211は、光量およびボケ量調整のために光軸中心に開口径が可変な開口を形成する。   The interchangeable lens 202 includes a lens 209, a zooming lens 208, a focusing lens 210, a diaphragm 211, a lens drive control device 206, and the like. The lens drive control device 206 includes a microcomputer (not shown), a memory, a drive control circuit, and the like. The lens drive control unit 206 performs drive control for adjusting the focus of the focusing lens 210 and adjusting the aperture diameter of the aperture 211, and detecting the states of the zooming lens 208, the focusing lens 210, and the aperture 211. Further, transmission of lens information and reception of camera information (defocus amount, aperture value, etc.) are performed by communication with a body drive control device 214 described later. The aperture 211 forms an aperture having a variable aperture diameter at the center of the optical axis in order to adjust the amount of light and the amount of blur.

カメラボディ203は、撮像素子212、ボディ駆動制御装置214、液晶表示素子駆動回路215、液晶表示素子216、接眼レンズ217、メモリカード219などを備えている。撮像素子212には、撮像画素が二次元状(行と列)に配置されるとともに、焦点検出位置(焦点検出エリア)に対応した部分に焦点検出画素が組み込まれている。この撮像素子212については詳細を後述する。   The camera body 203 includes an image sensor 212, a body drive control device 214, a liquid crystal display element drive circuit 215, a liquid crystal display element 216, an eyepiece lens 217, a memory card 219, and the like. In the image sensor 212, image pickup pixels are two-dimensionally arranged (rows and columns), and focus detection pixels are incorporated in portions corresponding to focus detection positions (focus detection areas). Details of the image sensor 212 will be described later.

ボディ駆動制御装置214は、マイクロコンピューター、メモリ、駆動制御回路などから構成される。ボディ駆動制御装置214は、撮像素子212の露光制御および撮像素子212からの画素信号の読み出しと、焦点検出画素の画素信号に基づく焦点検出演算と、交換レンズ202の焦点調節とを繰り返し行うとともに、画像信号の処理および記録、カメラの動作制御などを行う。また、ボディ駆動制御装置214は電気接点213を介してレンズ駆動制御装置206と通信を行い、レンズ情報の受信とカメラ情報の送信を行う。   The body drive control device 214 includes a microcomputer, a memory, a drive control circuit, and the like. The body drive control device 214 repeatedly performs exposure control of the image sensor 212 and readout of the pixel signal from the image sensor 212, focus detection calculation based on the pixel signal of the focus detection pixel, and focus adjustment of the interchangeable lens 202, Processing and recording of image signals, camera operation control, etc. The body drive control device 214 communicates with the lens drive control device 206 through the electrical contact 213 to receive lens information and transmit camera information.

液晶表示素子216は電気的なビューファインダー(EVF:Electronic View Finder)として機能する。液晶表示素子駆動回路215は撮像素子212から読み出された画像データに基づき、スルー画像を液晶表示素子216に表示し、撮影者は接眼レンズ217を介してスルー画像を観察することができる。メモリカード219は、撮像素子212により撮像された画像データを記憶する画像ストレージである。   The liquid crystal display element 216 functions as an electric view finder (EVF). The liquid crystal display element driving circuit 215 displays a through image on the liquid crystal display element 216 based on the image data read from the image sensor 212, and the photographer can observe the through image through the eyepiece 217. The memory card 219 is an image storage that stores image data captured by the image sensor 212.

AD変換装置221は、撮像素子212からの出力される画素信号をAD変換してボディ駆動制御装置214に送る。撮像素子212がAD変換装置221を内蔵する構成であってもよい。   The AD conversion device 221 performs AD conversion on the pixel signal output from the image sensor 212 and sends it to the body drive control device 214. The imaging device 212 may have a configuration in which the AD conversion device 221 is incorporated.

交換レンズ202を通過した光束により、撮像素子212上に被写体像が形成される。この被写体像は撮像素子212により光電変換され、撮像画素および焦点検出画素の画素信号がボディ駆動制御装置214へ送られる。   A subject image is formed on the image sensor 212 by the light beam that has passed through the interchangeable lens 202. This subject image is photoelectrically converted by the image sensor 212, and the pixel signals of the imaging pixels and focus detection pixels are sent to the body drive control device 214.

ボディ駆動制御装置214は、撮像素子212の焦点検出画素からの画素信号(焦点検出信号)に基づいてデフォーカス量を算出し、このデフォーカス量をレンズ駆動制御装置206へ送る。また、ボディ駆動制御装置214は、撮像素子212の撮像画素の画素信号(撮像信号)を処理して画像データを生成し、メモリカード219に格納するとともに、撮像素子212から読み出されたスルー画像信号を液晶表示素子駆動回路215へ送り、スルー画像を液晶表示素子216に表示させる。さらに、ボディ駆動制御装置214は、レンズ駆動制御装置206へ絞り制御情報を送って絞り211の開口制御を行う。   The body drive control device 214 calculates the defocus amount based on the pixel signal (focus detection signal) from the focus detection pixel of the image sensor 212 and sends this defocus amount to the lens drive control device 206. In addition, the body drive control device 214 processes the pixel signal (imaging signal) of the imaging pixel of the imaging element 212 to generate image data, stores the image data in the memory card 219, and reads the through image read from the imaging element 212. A signal is sent to the liquid crystal display element driving circuit 215 to display a through image on the liquid crystal display element 216. Further, the body drive control device 214 sends aperture control information to the lens drive control device 206 to control the aperture of the aperture 211.

レンズ駆動制御装置206は、フォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じてレンズ情報を更新する。具体的には、ズーミング用レンズ208とフォーカシング用レンズ210の位置と絞り211の絞り値を検出し、これらのレンズ位置と絞り値に応じてレンズ情報を演算したり、あるいは予め用意されたルックアップテーブルからレンズ位置と絞り値に応じたレンズ情報を選択する。   The lens drive controller 206 updates the lens information according to the focusing state, zooming state, aperture setting state, aperture opening F value, and the like. Specifically, the positions of the zooming lens 208 and the focusing lens 210 and the aperture value of the aperture 211 are detected, and lens information is calculated according to these lens positions and aperture values, or a lookup prepared in advance. Lens information corresponding to the lens position and aperture value is selected from the table.

レンズ駆動制御装置206は、受信したデフォーカス量に基づいてレンズ駆動量を算出し、レンズ駆動量に応じてフォーカシング用レンズ210を合焦位置へ駆動する。また、レンズ駆動制御装置206は受信した絞り値に応じて絞り211を駆動する。   The lens drive control device 206 calculates a lens drive amount based on the received defocus amount, and drives the focusing lens 210 to the in-focus position according to the lens drive amount. Further, the lens drive control device 206 drives the diaphragm 211 in accordance with the received diaphragm value.

記憶装置220は、後述する焦点検出画素データを過去複数フレーム分にわたって記憶する。ボディ駆動制御装置214は、撮像素子212から読み出される各フレームにおける焦点検出画素の画素データをこの記憶装置220に記憶させる。また、焦点検出画素の画素データを用いて焦点検出演算処理を行う際に、最新フレームの焦点検出画素の画素データの出力レベルが不足していた場合には、記憶装置220に記憶された過去の画素データと加算する。こうすることにより、焦点検出画素の画素データの出力レベルを適正にし、加算後の焦点検出画素の画素データを用いて後述する焦点検出処理を行う。   The storage device 220 stores focus detection pixel data, which will be described later, for a plurality of past frames. The body drive control device 214 stores the pixel data of the focus detection pixels in each frame read from the image sensor 212 in the storage device 220. Further, when the focus detection calculation process is performed using the pixel data of the focus detection pixel, if the output level of the pixel data of the focus detection pixel of the latest frame is insufficient, the past data stored in the storage device 220 is stored. Add with pixel data. In this way, the output level of the pixel data of the focus detection pixel is made appropriate, and the focus detection process described later is performed using the pixel data of the focus detection pixel after the addition.

図2は、一実施の形態の撮影画面上の焦点検出位置、すなわち後述する焦点検出画素列が焦点検出の際に撮影画面上で被写体像をサンプリングする領域(焦点検出エリア)を示す。この一実施の形態では、撮影画面100の中央に焦点検出エリア101が配置される。長方形で示す焦点検出エリア101の長手方向に焦点検出画素が直線的に配列される。   FIG. 2 shows a focus detection position on the photographing screen according to an embodiment, that is, a region (focus detection area) where a subject image is sampled on the photographing screen when a focus detection pixel column described later performs focus detection. In this embodiment, a focus detection area 101 is arranged at the center of the shooting screen 100. The focus detection pixels are linearly arranged in the longitudinal direction of the focus detection area 101 indicated by a rectangle.

図3は撮像素子212の詳細な構成を示す正面図であり、撮像素子212上の上述した焦点検出エリア101近傍に対応する領域を拡大したものである。図3において、縦横(画素の行と列)は図2の撮影画面100の縦横に対応している。撮像素子212は撮像用の撮像画素310と焦点検出用の焦点検出画素312、313とを有している。焦点検出エリア101に対応する領域には、焦点検出画素312、313が交互に水平方向に配列されている。焦点検出画素312、313は、撮像画素310のBとGが配置されるべき行に直線的に配置され、焦点検出画素列を形成している。   FIG. 3 is a front view showing a detailed configuration of the image sensor 212, and is an enlarged view of the area corresponding to the vicinity of the above-described focus detection area 101 on the image sensor 212. FIG. In FIG. 3, the vertical and horizontal directions (pixel rows and columns) correspond to the vertical and horizontal directions of the photographing screen 100 in FIG. The imaging element 212 includes an imaging pixel 310 for imaging and focus detection pixels 312 and 313 for focus detection. In a region corresponding to the focus detection area 101, focus detection pixels 312 and 313 are alternately arranged in the horizontal direction. The focus detection pixels 312 and 313 are linearly arranged in the row where B and G of the imaging pixel 310 are to be arranged, and form a focus detection pixel column.

撮像画素310は、マイクロレンズ10、光電変換部11、不図示の色フィルタを有している。色フィルタは赤(R)、緑(G)、青(B)の3種類からなり、それぞれの色に対応する分光感度特性を有している。撮像素子212には、このような各色フィルタを備えた撮像画素310がベイヤー配列されている。   The imaging pixel 310 includes the microlens 10, the photoelectric conversion unit 11, and a color filter (not shown). The color filters include three types of red (R), green (G), and blue (B), and have spectral sensitivity characteristics corresponding to the respective colors. In the image pickup element 212, the image pickup pixels 310 having such color filters are arranged in a Bayer array.

焦点検出画素312は、マイクロレンズ10と光電変換部12とを有している。光電変換部12の形状は、マイクロレンズ10の垂直2等分線に左辺を略接する長方形状である。焦点検出画素313は、マイクロレンズ10と光電変換部13とを有している。光電変換部13の形状は、マイクロレンズ10の垂直2等分線に右辺を略接する長方形状である。光電変換部12、13はマイクロレンズ10を基準として重ね合わせて表示した場合、左右水平方向に並んでおり、マイクロレンズ10の垂直2等分線に関して対称な形状をしている。焦点検出画素312と焦点検出画素313とは、水平方向すなわち光電変換部12と13との並び方向に交互に配置される。   The focus detection pixel 312 includes the microlens 10 and the photoelectric conversion unit 12. The photoelectric conversion unit 12 has a rectangular shape in which the left side is substantially in contact with the vertical bisector of the microlens 10. The focus detection pixel 313 includes the microlens 10 and the photoelectric conversion unit 13. The photoelectric conversion unit 13 has a rectangular shape in which the right side is substantially in contact with the vertical bisector of the microlens 10. When the photoelectric conversion units 12 and 13 are displayed with being overlapped with the microlens 10 as a reference, the photoelectric conversion units 12 and 13 are arranged in the left-right horizontal direction and have a symmetrical shape with respect to the vertical bisector of the microlens 10. The focus detection pixels 312 and the focus detection pixels 313 are alternately arranged in the horizontal direction, that is, the arrangement direction of the photoelectric conversion units 12 and 13.

焦点検出画素312、313には光量をかせぐために色フィルタが配置されておらず、焦点検出画素312、313は、光電変換を行うフォトダイオードの分光感度特性と、赤外カットフィルタ(不図示)の分光感度特性とを総合した分光感度特性を有している。すなわち、焦点検出画素312、313の分光感度特性は、緑画素、赤画素および青画素の分光感度特性を加算したような分光感度特性となり、焦点検出画素312、313が高い感度を示す光波長領域は、緑画素、赤画素および青画素の各々において各色フィルタが高い感度を示す光波長領域を包括している。   The focus detection pixels 312 and 313 are not provided with a color filter in order to increase the amount of light. The focus detection pixels 312 and 313 include a spectral sensitivity characteristic of a photodiode that performs photoelectric conversion and an infrared cut filter (not shown). It has spectral sensitivity characteristics that combine the spectral sensitivity characteristics. That is, the spectral sensitivity characteristics of the focus detection pixels 312, 313 are spectral sensitivity characteristics obtained by adding the spectral sensitivity characteristics of the green pixel, the red pixel, and the blue pixel, and the light wavelength region in which the focus detection pixels 312, 313 exhibit high sensitivity. Includes a light wavelength region in which each color filter exhibits high sensitivity in each of a green pixel, a red pixel, and a blue pixel.

撮像用画素310の光電変換部11は、マイクロレンズ10により最も明るい交換レンズの射出瞳(例えばF1.0)を通過する光束をすべて受光するような形状に設計される。一方、焦点検出画素312、313の光電変換部12、13は、マイクロレンズ10により交換レンズの射出瞳の所定の領域(例えばF2.8)を通過する光束を受光するような形状に設計される。焦点検出画素311を用いて、特開2008−85738号公報に開示される瞳分割方式の焦点検出を行うことができる。   The photoelectric conversion unit 11 of the imaging pixel 310 is designed to receive all the light flux that passes through the exit pupil (for example, F1.0) of the brightest interchangeable lens by the microlens 10. On the other hand, the photoelectric conversion units 12 and 13 of the focus detection pixels 312 and 313 are designed to receive a light beam that passes through a predetermined region (for example, F2.8) of the exit pupil of the interchangeable lens by the microlens 10. . By using the focus detection pixel 311, focus detection of the pupil division method disclosed in Japanese Patent Application Laid-Open No. 2008-85738 can be performed.

上述したような2種類の焦点検出画素を直線状に多数配置し、各画素の光電変換部の出力を、特開2008−85738号公報に開示される一対の測距瞳に対応した出力グループにまとめることによって、一対の測距瞳を通過する一対の焦点検出光束が画素列上に形成する一対の像の強度分布に関する情報が得られる。この情報に対して後述する像ズレ検出演算処理(相関演算処理、位相差検出処理)を施すことによって、いわゆる瞳分割型位相差検出方式で一対の像の像ズレ量が検出される。なお、一対の測距瞳の並び方向は、一対の光電変換部12、13の並び方向、すなわち焦点検出画素312、313の並び方向と一致する。   A large number of two types of focus detection pixels as described above are arranged in a straight line, and the output of the photoelectric conversion unit of each pixel is output to an output group corresponding to a pair of distance measuring pupils disclosed in Japanese Patent Application Laid-Open No. 2008-85738. In summary, information on the intensity distribution of the pair of images formed on the pixel array by the pair of focus detection light beams passing through the pair of distance measuring pupils is obtained. By applying an image shift detection calculation process (correlation calculation process, phase difference detection process), which will be described later, to this information, an image shift amount of a pair of images is detected by a so-called pupil division type phase difference detection method. Note that the direction in which the pair of distance measuring pupils is aligned is the same as the direction in which the pair of photoelectric conversion units 12 and 13 are aligned, that is, the direction in which the focus detection pixels 312 and 313 are aligned.

さらに、像ズレ量に一対の測距瞳の重心間隔に応じた変換演算を行うことによって、予定結像面(マイクロレンズアレイの位置)に対する現在の結像面(撮影画面100上での焦点検出位置における実際の結像面)の偏差(デフォーカス量)が算出される。実際には測距瞳は絞り開口によって制限された形状と大きさになる。   Further, by performing a conversion operation according to the center of gravity distance between the pair of distance measuring pupils on the image shift amount, the current imaging plane (the focus detection on the imaging screen 100) with respect to the planned imaging plane (the position of the microlens array). The deviation (defocus amount) of the actual image plane at the position is calculated. In practice, the distance measuring pupil has a shape and size limited by the aperture opening.

図4は、瞳分割型位相差検出方式におけるデフォーカスと像ずれの関係を示す図である。図4(a)において、光学系の射出瞳面90において測距瞳92、93に分割され、像を形成する光束は測距瞳92を通過する光束72と、測距瞳93を通過する光束73に分割される。このような構成により、例えば光軸91上にあり図4の紙面に垂直な方向の線パターン(黒地に白線)を光学系により結像させた場合、合焦面P0においては測距瞳92を通過する光束72と測距瞳93を通過する光束73とは、図4(c)に示すように光軸91上の同じ位置に高コントラストな線像パターンを形成する。   FIG. 4 is a diagram showing the relationship between defocus and image shift in the pupil division type phase difference detection method. In FIG. 4A, light beams that are divided into distance pupils 92 and 93 on the exit pupil plane 90 of the optical system and form an image are a light beam 72 that passes through the distance pupil 92 and a light beam that passes through the distance pupil 93. 73. With such a configuration, for example, when a line pattern (a white line on a black background) on the optical axis 91 and perpendicular to the paper surface of FIG. 4 is imaged by the optical system, the distance measuring pupil 92 is formed on the focusing plane P0. The light beam 72 passing through and the light beam 73 passing through the distance measuring pupil 93 form a high-contrast line image pattern at the same position on the optical axis 91 as shown in FIG.

合焦面P0より前方の面P1においては、測距瞳92を通過する光束72と測距瞳93を通過する光束73は、図4(b)に示すように異なる位置にぼけた線像パターンを形成する。また、合焦面P0より後方の面P2においては、測距瞳92を通過する光束72と測距瞳93を通過する光束73は、図4(d)に示すように図4(b)とは反対方向の異なる位置にぼけた線像パターンを形成する。測距瞳92を通過する光束72と測距瞳93を通過する光束73とにより形成される2つの像を分離して検出する。2つの像の相対的な位置関係(像ズレ量)を算出することにより、2つの像を検出した面における光学系の焦点調節状態(デフォーカス量)を検出できる。   On the surface P1 ahead of the in-focus plane P0, the light beam 72 passing through the distance measuring pupil 92 and the light beam 73 passing through the distance measuring pupil 93 are blurred line image patterns as shown in FIG. 4B. Form. On the surface P2 behind the focusing plane P0, the light beam 72 passing through the distance measuring pupil 92 and the light beam 73 passing through the distance measuring pupil 93 are as shown in FIG. 4 (b) as shown in FIG. Forms blurred line image patterns at different positions in the opposite direction. Two images formed by the light beam 72 passing through the distance measuring pupil 92 and the light beam 73 passing through the distance measuring pupil 93 are separated and detected. By calculating the relative positional relationship (image shift amount) between the two images, it is possible to detect the focus adjustment state (defocus amount) of the optical system on the surface where the two images are detected.

図5は撮像画素と射出瞳の関係を示す図である。光学系の射出瞳面90は、光学系の予定結像面近傍に配置されたマイクロレンズ70から測距瞳距離dだけ離間した位置にある。マイクロレンズ70の背後の撮像画素の光電変換部71は、半導体回路基板29上に形成され、撮像光束81を受光する。領域94は、マイクロレンズ70により光電変換部71の形状が投影された投影形状が形成する領域である。なお、図5では光軸91上にある撮像画素(マイクロレンズ70と光電変換部71とを有する)を模式的に例示したが、その他の撮像画素においても光電変換部はそれぞれ領域94から各マイクロレンズに到来する光束を受光する。   FIG. 5 is a diagram illustrating the relationship between the imaging pixels and the exit pupil. The exit pupil plane 90 of the optical system is at a position separated from the microlens 70 disposed in the vicinity of the planned imaging plane of the optical system by the distance measurement pupil distance d. The photoelectric conversion unit 71 of the imaging pixel behind the micro lens 70 is formed on the semiconductor circuit substrate 29 and receives the imaging light beam 81. The region 94 is a region formed by a projection shape in which the shape of the photoelectric conversion unit 71 is projected by the microlens 70. 5 schematically illustrates the imaging pixels (having the microlens 70 and the photoelectric conversion unit 71) on the optical axis 91, but in other imaging pixels, the photoelectric conversion units are respectively connected from the region 94 to the respective micros. Receives the light flux coming into the lens.

光電変換部71は、領域94を通過し、マイクロレンズ70に向かう撮像光束81によりマイクロレンズ70上に形成される像の強度に対応した信号を出力する。上述したような撮像画素を二次元状に多数配置し、各画素の光電変換部の出力する信号に基づいて画像データが得られる。なお、上述した説明では領域94は絞り開口によって制限されていない状態として説明したが、実際には領域94は絞り開口によって制限された形状と大きさになる。   The photoelectric conversion unit 71 outputs a signal corresponding to the intensity of an image formed on the microlens 70 by the imaging light beam 81 that passes through the region 94 and travels toward the microlens 70. Many image pickup pixels as described above are arranged two-dimensionally, and image data is obtained based on signals output from the photoelectric conversion units of the respective pixels. In the above description, the region 94 is described as being not limited by the aperture opening. However, the region 94 actually has a shape and size limited by the aperture opening.

図6は、一実施の形態のデジタルスチルカメラ201の撮像動作を示すフローチャートである。ボディ駆動制御装置214は、ステップS100でデジタルスチルカメラ201の電源がオンされると、ステップS110以降の撮像動作を開始する。ステップS100において撮像素子212は、ボディ駆動制御装置214により、一定周期で撮像動作を繰り返す動作モードに設定される。この動作モードにおいて、撮像素子212は、例えば1秒間に60フレームを出力する。   FIG. 6 is a flowchart illustrating an imaging operation of the digital still camera 201 according to the embodiment. When the power of the digital still camera 201 is turned on in step S100, the body drive control device 214 starts an imaging operation after step S110. In step S <b> 100, the image sensor 212 is set to an operation mode in which the body drive control device 214 repeats the imaging operation at a constant period. In this operation mode, the image sensor 212 outputs, for example, 60 frames per second.

ステップS110において、ボディ駆動制御装置214は、フレームの出力に同期してレンズ駆動制御装置206と通信を行い、交換レンズ202の焦点距離データを取得し、該焦点距離データを記憶装置220に記憶させる。   In step S110, the body drive control device 214 communicates with the lens drive control device 206 in synchronization with the output of the frame, acquires the focal length data of the interchangeable lens 202, and stores the focal length data in the storage device 220. .

ステップS120では、ボディ駆動制御装置214は、フレームの出力に同期して撮像素子212から1フレーム分の全画素データを読み出す。   In step S120, the body drive control device 214 reads out all pixel data for one frame from the image sensor 212 in synchronization with the output of the frame.

ステップS130では、焦点検出画素列の各画素位置における仮想的な撮像画素のデータ(撮像信号)を焦点検出画素の周囲の撮像画素のデータに基づいて画素補間する。   In step S <b> 130, pixel interpolation is performed on virtual imaging pixel data (imaging signal) at each pixel position in the focus detection pixel row based on imaging pixel data around the focus detection pixel.

例えば本来緑画素が配置されるべき位置に配置された焦点検出画素については、その焦点検出画素の対角方向の4つの位置に近接した4つの緑色の撮像画素のデータを平均して、該焦点検出画素の位置における緑色の撮像画素のデータとする。また本来青画素が配置されるべき位置に配置された焦点検出画素については、その焦点検出画素の上下方向の2つの位置に近接した2つの青色の撮像画素のデータを平均して、該焦点検出画素の位置における青色の撮像画素のデータとする。   For example, for a focus detection pixel that is originally arranged at a position where a green pixel should be arranged, the data of four green imaging pixels adjacent to four positions in the diagonal direction of the focus detection pixel are averaged, and the focus detection pixel is averaged. Data of the green imaging pixel at the position of the detection pixel is used. For the focus detection pixel that is originally arranged at the position where the blue pixel should be arranged, the data of the two blue imaging pixels adjacent to the two vertical positions of the focus detection pixel are averaged to detect the focus detection pixel. It is assumed that the data of the blue imaging pixel at the pixel position.

このようにして焦点検出画素の位置における補間により得られた撮像画素データと、各撮像画素の位置における本来の撮像画素データとを合成して、今回のフレームに対応する画像データを生成する。ボディ駆動制御装置214は、例えば1秒間に60フレームのフレームレートで時系列的に連続して生成されるフレームの画像データに基づくスルー画像を、液晶表示素子216に表示させるように、液晶表示素子駆動回路215を制御する。   Thus, the image data corresponding to the current frame is generated by synthesizing the imaging pixel data obtained by the interpolation at the position of the focus detection pixel and the original imaging pixel data at the position of each imaging pixel. For example, the body drive control device 214 is configured to display a through image based on image data of frames generated continuously in time series at a frame rate of 60 frames per second on the liquid crystal display element 216. The drive circuit 215 is controlled.

ステップS140では、ボディ駆動制御装置214は、今回のフレームに対応する画像データを電子ビューファインダーに表示(ライブビュー表示)させる。   In step S140, the body drive control device 214 displays image data corresponding to the current frame on the electronic viewfinder (live view display).

ステップS150では、ボディ駆動制御装置214は、、今回読み出した画像データ中の焦点検出画素のデータを、焦点距離データと関連付けて記憶装置220に記憶させる。   In step S150, the body drive control device 214 causes the storage device 220 to store the focus detection pixel data in the image data read this time in association with the focal length data.

ここでフレーム、各フレームの出力に同期して得られる焦点検出画素データおよび焦点距離データの関係と、記憶装置220(リングバッファ)への記憶動作とについて図7を用いて説明する。   Here, the relationship between the frame, the focus detection pixel data and the focal length data obtained in synchronization with the output of each frame, and the storage operation in the storage device 220 (ring buffer) will be described with reference to FIG.

図7の上半分は横軸に時間をとった場合における、最新のフレームNから過去7フレームまで(フレーム(N−7)まで)における焦点検出画素データI(N)〜I(N−7)と焦点距離データF(N)〜F(N−7)の対応関係を示している。その対応関係は、図7の下半分に示すように、リングバッファを構成する記憶装置220のメモリ領域に各々関連付けられて記憶される。ポインターは最新の焦点検出画素データと焦点距離データが格納されているメモリ領域の位置(アドレス)を示す。   The upper half of FIG. 7 shows focus detection pixel data I (N) to I (N-7) from the latest frame N to the past seven frames (up to frame (N-7)) when time is taken on the horizontal axis. And the focal length data F (N) to F (N-7). As shown in the lower half of FIG. 7, the correspondence relationship is stored in association with each memory area of the storage device 220 constituting the ring buffer. The pointer indicates the position (address) of the memory area in which the latest focus detection pixel data and focal length data are stored.

なお、過去フレームは過去7フレームまで遡ることとしたのは、上述したようにフレームレートが60フレーム/秒のとき、過去8フレームまで遡ると120ms以上も過去に遡ることとなり、暗電流の影響が無視できなくなることが考えられるためである。したがって、たとえば、暗電流の影響が無視できる範囲であれば、あるいはフレームレートによっては、必ずしも過去7フレームまで遡ることに限定しなくても良い。   The past frame is traced back to the previous 7 frames. As described above, when the frame rate is 60 frames / second, when going back to the past 8 frames, the past frame is traced back by 120 ms or more. This is because it can be ignored. Therefore, for example, as long as the influence of dark current is negligible, or depending on the frame rate, it is not necessarily limited to going back to the past seven frames.

ステップS160〜ステップS180では、最新の焦点検出画素データのデータレベルが不足している場合には、過去の焦点検出画素データとの加算を行ってデータレベルが適正になるように調整し、適正なデータレベルになった加算後の焦点検出画素データを用いて焦点検出演算を行う。   In step S160 to step S180, when the data level of the latest focus detection pixel data is insufficient, the data is adjusted so that the data level is appropriate by performing addition with the past focus detection pixel data. The focus detection calculation is performed using the focus detection pixel data after the addition at the data level.

ステップS160では、焦点検出画素データが所定条件を満たしている場合、すなわち焦点検出画素データが後述する像ズレ検出演算処理に適したレベルに達している場合、またはステップS180の積算が過去7フレーム分まで行われていた場合には、積算処理を抜けてステップS190に進む。ここで焦点検出画素データは、最初は最新フレームの焦点検出画素データであるが、積算処理後は積算後の焦点検出画素データに更新されることとなる。図中の最終データとは、最も古い焦点検出画素データI(N−7)を指す。   In step S160, if the focus detection pixel data satisfies a predetermined condition, that is, if the focus detection pixel data has reached a level suitable for an image shift detection calculation process described later, or the integration in step S180 is performed for the past seven frames. If it has been performed, the integration process is skipped and the process proceeds to step S190. Here, the focus detection pixel data is initially the focus detection pixel data of the latest frame, but is updated to the focus detection pixel data after integration after the integration processing. The final data in the figure indicates the oldest focus detection pixel data I (N-7).

図8は横軸を焦点検出画素位置、縦軸を焦点検出画素データのデータレベルとして、データ加算による効果を示した図である。まず今回フレームの焦点検出画素データの最大値を検出する。該最大値が閾値を超えていない場合には、記憶装置220から前回の焦点検出画素データを読み出して加算する。加算した焦点検出画素データ(加算データ)の最大値が閾値を超えていない場合にはさらに前々回の焦点検出画素データを加算する。このような加算演算を加算データの最大値が閾値を超えるまで繰り返すことにより、加算データは焦点検出演算処理に適したデータレベルに達する。   FIG. 8 is a diagram showing the effect of data addition with the horizontal axis as the focus detection pixel position and the vertical axis as the data level of the focus detection pixel data. First, the maximum value of the focus detection pixel data of the current frame is detected. If the maximum value does not exceed the threshold value, the previous focus detection pixel data is read from the storage device 220 and added. If the maximum value of the added focus detection pixel data (addition data) does not exceed the threshold, the previous focus detection pixel data is further added. By repeating such an addition operation until the maximum value of the addition data exceeds the threshold value, the addition data reaches a data level suitable for the focus detection calculation process.

なお、この閾値は、例えばAD変換のダイナミックレンジの最大値の1/2であるが、例えば平均値であっても、加算データの最大値がAD変換のダイナミックレンジの最大値を超えず、かつ画素信号値の飽和値に達しなければよいし、他の条件値であってもよい。この閾値を大きくし過ぎると加算時間が大きくなり、加算時間の間にフレーム内の被写体位置が変化するなどの撮像状態の変化が生じやすくなり、積算処理による高精度な焦点検出を阻害しうる。閾値を小さくし過ぎると、加算データが焦点検出演算処理に適したデータレベルに達しないこととなりうる。したがって、それらを考慮した条件値を実験により定めて閾値とすることが好ましい。   The threshold value is, for example, ½ of the maximum value of the dynamic range of AD conversion. However, even if it is an average value, for example, the maximum value of the added data does not exceed the maximum value of the dynamic range of AD conversion, and It may be sufficient if the saturation value of the pixel signal value is not reached, or may be another condition value. If this threshold value is increased too much, the addition time becomes longer, and changes in the imaging state such as a change in the subject position within the frame are likely to occur during the addition time, and high-precision focus detection by integration processing can be hindered. If the threshold value is too small, the added data may not reach a data level suitable for the focus detection calculation process. Therefore, it is preferable to determine a condition value considering them as a threshold value by experiment.

このデジタルスチルカメラ201では、上述したようにフレームレートが固定値(60フレーム/秒)に固定されているために、撮像素子212の露光時間は1/60秒以上にすることができない。焦点検出画素データのデータレベルを増大させるためにフレームレートを小さくすると、焦点検出画素と撮像画素とが混在して配置される撮像素子212において、撮像画素データの読み出し間隔も同じフレームレートになるため好ましくない。したがって、撮像画素データの読み出し間隔に適したフレームレートとしたとき、低輝度においては1フレーム分の焦点検出画素データは低レベルとなって焦点検出不能に陥る可能性があるので、このような積算処理は高精度な焦点検出を行うために有効である。   In the digital still camera 201, since the frame rate is fixed to a fixed value (60 frames / second) as described above, the exposure time of the image sensor 212 cannot be 1/60 seconds or more. If the frame rate is reduced in order to increase the data level of the focus detection pixel data, the readout interval of the imaging pixel data becomes the same frame rate in the imaging element 212 in which the focus detection pixels and the imaging pixels are mixedly arranged. It is not preferable. Accordingly, when the frame rate is suitable for the readout interval of the imaging pixel data, the focus detection pixel data for one frame may be at a low level at low luminance and the focus detection may not be performed. The processing is effective for highly accurate focus detection.

ステップS160において積算が過去7フレーム分まで達しておらず、かつ、焦点検出画素データが後述する像ズレ検出演算処理に適したレベルに達していない場合にはステップS170に進む。   If the integration has not reached up to the past seven frames in step S160 and the focus detection pixel data has not reached a level suitable for image shift detection calculation processing described later, the process proceeds to step S170.

ステップS170においては、ボディ駆動制御装置214は、今回(最新)の焦点検出画素データが得られた時の焦点距離データと、過去の焦点検出画素データが得られた時の焦点距離データとを記憶装置220から読み出して比較する。すなわち最新の焦点距離データと過去の焦点距離データとの差の絶対値が閾値を超えているか否かを判定し、閾値を超えていた場合にはステップS160に戻り、閾値を超えていない場合にはステップS180に進む。最新の焦点距離データと過去の焦点距離データとの差の絶対値が閾値を超えていない場合とは、最新フレームと過去フレームの焦点距離の変化が小さい場合であり、撮像状態の変化が少ない場合に含まれる。   In step S170, the body drive control device 214 stores the focal length data when the current (latest) focus detection pixel data is obtained and the focal length data when the past focus detection pixel data is obtained. Read from device 220 and compare. That is, it is determined whether or not the absolute value of the difference between the latest focal length data and the past focal length data exceeds a threshold value. If the absolute value exceeds the threshold value, the process returns to step S160. Advances to step S180. The case where the absolute value of the difference between the latest focal length data and the past focal length data does not exceed the threshold value is when the change in the focal length between the latest frame and the past frame is small and the change in the imaging state is small. include.

なお、この閾値は、大きくし過ぎると、加算対象の過去フレームの中には、焦点距離が大きく相異なる条件で撮像された複数の過去フレームが含まれるようなことが生じうる。すなわち、それらの複数の過去フレーム間で撮像状態の変化が生じやすくなり、積算処理による高精度な焦点検出を阻害しうる。閾値を小さくし過ぎると、加算データが焦点検出演算処理に適したデータレベルに達しないこととなりうる。したがって、それらを考慮した条件値を実験により定めて閾値とすることが好ましい。   If this threshold value is too large, it may occur that the past frames to be added include a plurality of past frames that are imaged under different conditions with a large focal length. That is, a change in the imaging state is likely to occur between the plurality of past frames, and high-precision focus detection by integration processing can be hindered. If the threshold value is too small, the added data may not reach a data level suitable for the focus detection calculation process. Therefore, it is preferable to determine a condition value considering them as a threshold value by experiment.

ステップS180において、ステップS170の条件を満足した焦点距離データと関係づけられた焦点検出画素データが、最新の焦点検出画素データに順次積算され、ステップS160に戻る。   In step S180, the focus detection pixel data related to the focal length data satisfying the condition of step S170 is sequentially integrated with the latest focus detection pixel data, and the process returns to step S160.

図9は上述の処理を模式的に表した図であって、最新フレームNから最終フレーム(N−7)までの焦点検出画素データI(N)〜I(N−7)および焦点距離データF(N)〜F(N−7)の対応関係、ならびに過去の焦点検出画素データI(N−1)〜I(N−7)の積算の許可(○)、禁止(×)の対応関係を示している。図9に示すように、最新フレームの焦点距離データF(N)との差の絶対値が閾値ΔFを超える焦点距離データF(N−6)、F(N−7)に対応した焦点検出画素データI(N−6)、I(N−7)は、積算に用いられない。   FIG. 9 is a diagram schematically showing the above-described processing. The focus detection pixel data I (N) to I (N-7) and the focal length data F from the latest frame N to the last frame (N-7) are shown. (N) -F (N-7) correspondence, and past focus detection pixel data I (N-1) -I (N-7) integration allowance (◯), prohibition (×) correspondence relationship. Show. As shown in FIG. 9, focus detection pixels corresponding to focal length data F (N-6) and F (N-7) whose absolute value of the difference from the focal length data F (N) of the latest frame exceeds a threshold ΔF. Data I (N-6) and I (N-7) are not used for integration.

ステップS160〜ステップS180の処理ループにおいて、過去のデータ(焦点検出画素データ、焦点距離データ)は、記憶装置220のアドレスを示すポインターに従って前回フレーム(N−1)→前々回フレーム(N−2)→・・・最終フレーム(N−7)の順番で読み出されて処理される。例えば図9に示すようなケースにおいては、上述したように、焦点検出画素データI(N−6)、I(N−7)は積算に用いられないため、最終的に得られる焦点検出画素データはI(N)+I(N−1)+I(N−2)+I(N−3)+I(N−4)+I(N−5)となる。   In the processing loop of step S160 to step S180, the past data (focus detection pixel data, focal length data) is determined according to the pointer indicating the address of the storage device 220, the previous frame (N-1) → the previous frame (N-2) → ... Read and process in order of last frame (N-7). For example, in the case shown in FIG. 9, since the focus detection pixel data I (N-6) and I (N-7) are not used for integration as described above, the focus detection pixel data finally obtained. Becomes I (N) + I (N-1) + I (N-2) + I (N-3) + I (N-4) + I (N-5).

なおステップS170において、最新の焦点距離データと過去の焦点距離データとの差の絶対値が閾値を超えていた場合にはステップS160に戻っていたが、処理ループを抜けてステップS190に進むようにしてもよい。   In step S170, when the absolute value of the difference between the latest focal length data and the past focal length data exceeds the threshold value, the process returns to step S160. However, the process loops out and the process proceeds to step S190. Good.

ステップS190ではステップS160〜ステップS180の積算処理ループで得られた焦点検出画素データ(最新の焦点検出画素データが適正レベルに達していた場合には積算なし)に基づき後述する焦点検出演算処理を行い、焦点検出エリアにおけるデフォーカス量を算出する。   In step S190, focus detection calculation processing described later is performed based on the focus detection pixel data obtained in the integration processing loop of steps S160 to S180 (no integration when the latest focus detection pixel data has reached an appropriate level). The defocus amount in the focus detection area is calculated.

ステップS200では合焦(デフォーカス量の絶対値が予め定められた閾値以下)か否かを判定し、合焦の場合にはステップS220に進み、非合焦の場合はステップS210に進む。   In step S200, it is determined whether or not the focus is in focus (the absolute value of the defocus amount is equal to or less than a predetermined threshold). If the focus is in focus, the process proceeds to step S220. If the focus is not in focus, the process proceeds to step S210.

ステップS210では、ボディ駆動制御装置214は、デフォーカス量をレンズ駆動制御装置206へ送信し、交換レンズ202のフォーカシング用レンズ210を合焦位置に駆動させる。ボディ駆動制御装置214は、デフォーカス量の信頼性が低い場合や焦点検出不能の場合にはその旨をレンズ駆動制御装置206へ送信し、交換レンズ202のフォーカシング用レンズ210の駆動制御は更新しない。その後、ステップS220に進む。   In step S210, the body drive control device 214 transmits the defocus amount to the lens drive control device 206, and drives the focusing lens 210 of the interchangeable lens 202 to the in-focus position. When the defocus amount reliability is low or focus detection is not possible, the body drive control device 214 transmits that fact to the lens drive control device 206 and does not update the drive control of the focusing lens 210 of the interchangeable lens 202. . Thereafter, the process proceeds to step S220.

ステップS220では不図示の操作手段による撮影の指示がなされているか否かを判定する。撮影の指示がなされていない場合には、ステップS180に戻り、撮影の指示がなされていた場合には、ステップS230で今回のフレームに対応する画像データをメモリカード219に記憶させてステップS110に戻る。   In step S220, it is determined whether or not a shooting instruction has been given by an operating means (not shown). If no shooting instruction has been given, the process returns to step S180. If a shooting instruction has been given, the image data corresponding to the current frame is stored in the memory card 219 in step S230, and the process returns to step S110. .

図6のステップS190で用いられる一般的な像ズレ検出演算処理(相関演算処理)としては、特開2007−333720号公報に開示された相関演算処理を用いる。焦点検出画素が検出する一対の像は、測距瞳がレンズの絞り開口により口径蝕を受けて光量バランスが崩れている可能性があるので、光量バランスに対して像ズレ検出精度を維持できるタイプの相関演算を施す。   As a general image shift detection calculation process (correlation calculation process) used in step S190 of FIG. 6, a correlation calculation process disclosed in Japanese Patent Application Laid-Open No. 2007-333720 is used. The pair of images detected by the focus detection pixels is a type that can maintain the image displacement detection accuracy with respect to the light amount balance because the distance measurement pupil may be vignetted by the aperture of the lens and the light amount balance may be lost. The correlation calculation is performed.

焦点検出画素列から読み出された一対のデータ列(A1〜A1、A2〜A2:Mはデータ数)に対し、特開2007−333720号公報に開示された相関演算式(1)を用い、相関量C(k)を演算する。なお、一対のデータ列(A1〜A1、A2〜A2)は、上述したように、演算に用いられる焦点検出画素データが積算後の焦点検出画素データの場合も含んでいる。
C(k)=Σ|A1×A2n+1+k−A2n+k×A1n+1| (1)
For a pair of data strings (A1 1 to A1 M , A2 1 to A2 M : M is the number of data) read out from the focus detection pixel string, a correlation calculation formula (1) disclosed in Japanese Patent Laid-Open No. 2007-333720 ) To calculate the correlation amount C (k). Note that the pair of data strings (A1 1 to A1 M , A2 1 to A2 M ) includes the case where the focus detection pixel data used for the calculation is the focus detection pixel data after integration as described above.
C (k) = Σ | A1 n × A2 n + 1 + k -A2 n + k × A1 n + 1 | (1)

Σ演算はnについて累積される。nのとる範囲は、像ずらし量kに応じてA1、A1n+1、A2n+k、A2n+1+kのデータが存在する範囲に限定される。像ずらし量kは整数であり、データ列のデータ間隔を単位とした相対的シフト量である。 The Σ operation is accumulated for n. The range taken by n is limited to the range in which the data of A1 n , A1 n + 1 , A2 n + k , A2 n + 1 + k exists according to the image shift amount k. The image shift amount k is an integer and is a relative shift amount with the data interval of the data string as a unit.

特開2009−141791号公報に開示された算出方法によると、相関量C(k)の極小値C(ks)を与える像ずらし量ksを用いて、式(2)により、像ズレ量shftを算出することができる。式(2)において、PYは焦点検出画素の画素ピッチの2倍(検出ピッチ)である。
shft=PY×ks (2)
According to the calculation method disclosed in Japanese Patent Application Laid-Open No. 2009-141791, the image shift amount shft is calculated by Expression (2) using the image shift amount ks that gives the minimum value C (ks) of the correlation amount C (k). Can be calculated. In Expression (2), PY is twice the pixel pitch of the focus detection pixels (detection pitch).
shft = PY × ks (2)

式(2)で算出された像ズレ量に所定の変換係数Kdを乗じてデフォーカス量defへ変換する。なお変換係数Kdは焦点検出画素が受光する一対の光束の開き角に対応しており、測距瞳距離dを一対の測距瞳の重心間隔で除算した値に相当する。
def=Kd×shft (3)
The image shift amount calculated by the equation (2) is multiplied by a predetermined conversion coefficient Kd to be converted into a defocus amount def. The conversion coefficient Kd corresponds to the opening angle of the pair of light beams received by the focus detection pixel, and corresponds to a value obtained by dividing the distance measurement pupil distance d by the center of gravity distance between the pair of distance measurement pupils.
def = Kd × shft (3)

以上のように本発明においては、過去フレームの焦点検出画素データを取得した時の焦点距離データが、最新フレームの焦点検出画素データを取得した時の焦点距離データとかけ離れていた場合には、過去フレームの焦点検出画素のデータを積算することを禁止する。これにより、倍率の異なる像を重ね合わせた焦点検出画素データを用いて焦点検出を行うことによって生じる焦点検出誤差の増大または焦点検出不能といった問題を回避することができる。最新フレームの焦点検出画素データを取得した時の焦点距離データとかけ離れていない範囲の焦点距離データに対応する過去フレームの焦点検出画素データは積算される。これらの結果として、高精度な焦点検出が可能になる。   As described above, in the present invention, when the focal length data when the focus detection pixel data of the past frame is acquired is different from the focal length data when the focus detection pixel data of the latest frame is acquired, It is prohibited to integrate the data of the focus detection pixels of the frame. As a result, it is possible to avoid problems such as an increase in focus detection error or focus detection failure caused by focus detection using focus detection pixel data obtained by superimposing images with different magnifications. The focus detection pixel data of the past frame corresponding to the focal length data in a range not far from the focal length data when the focus detection pixel data of the latest frame is acquired are integrated. As a result, highly accurate focus detection is possible.

上述した実施形態においては、画面中央の1カ所の焦点検出エリアにおける焦点検出画素データを用いて焦点検出を行っているが、これに限定されることはない。画面上に複数の焦点検出エリアを設け、これら複数の焦点検出エリアのうちの1つを選択して焦点検出を行ったり、複数の焦点検出エリアにおいて同時に焦点検出を行うようにしてもよい。   In the embodiment described above, focus detection is performed using focus detection pixel data in one focus detection area at the center of the screen, but the present invention is not limited to this. A plurality of focus detection areas may be provided on the screen, and focus detection may be performed by selecting one of the plurality of focus detection areas, or focus detection may be performed simultaneously in the plurality of focus detection areas.

上述した実施形態においては、過去フレームの焦点検出画素データの積算を禁止する条件として焦点距離の変化を挙げているが、これに限定されるものではなく、焦点検出に影響を及ぼす種々の撮像状態(撮像条件)を適用することができる。   In the above-described embodiment, the change in focal length is cited as a condition for prohibiting the integration of focus detection pixel data of past frames. However, the present invention is not limited to this, and various imaging states that affect focus detection. (Imaging conditions) can be applied.

図10はこのような撮像状態を分類した表であって、交換レンズ202の有する撮影光学系の光学特性としては焦点距離の他、絞り開口F値(絞り開口径)、フォーカシング用レンズ210の位置(予定結像面からフォーカシング用レンズ210までの距離)、PO値(射出瞳距離)などがある。   FIG. 10 is a table in which such imaging states are classified. As the optical characteristics of the photographing optical system included in the interchangeable lens 202, in addition to the focal length, a diaphragm aperture F value (diaphragm aperture diameter) and a position of the focusing lens 210 are shown. (Distance from the planned imaging plane to the focusing lens 210), PO value (exit pupil distance), and the like.

絞り開口F値が変化した場合には、式(3)における変換係数Kdが変化するため、同一のデフォーカス量であっても像ズレ量が変化することとなり、過去の焦点検出画素データを積算するのは好ましくない。   When the aperture value F changes, the conversion coefficient Kd in Equation (3) changes, so the image shift amount changes even with the same defocus amount, and past focus detection pixel data is integrated. It is not preferable to do so.

焦点検出画素データの加算処理の間にユーザーがフォーカシング用レンズ210の位置を変更することが考えられる。フォーカシング用レンズ210の位置が異なっていた場合には、そもそもデフォーカス量が変化しているので、過去の焦点検出画素データを積算するのは好ましくない。   It is conceivable that the user changes the position of the focusing lens 210 during the focus detection pixel data addition process. When the position of the focusing lens 210 is different, since the defocus amount has changed in the first place, it is not preferable to integrate past focus detection pixel data.

ボディ駆動制御装置214は、レンズ駆動制御装置206からPO値を取得することができる。撮影光学系の焦点距離、絞り開口F値、あるいはフォーカシング用レンズ210の位置が変化すると、射出瞳距離、すなわちPO値も変化しうる。PO値が異なっていた場合には、1つまたは複数の焦点検出画素が受光する一対の光束の開き角に対応した変換係数Kdは変化しているので、過去の焦点検出画素データを積算するのは好ましくない。   The body drive control device 214 can acquire the PO value from the lens drive control device 206. When the focal length of the photographing optical system, the stop aperture F value, or the position of the focusing lens 210 changes, the exit pupil distance, that is, the PO value can also change. When the PO values are different, the conversion coefficient Kd corresponding to the opening angle of the pair of light beams received by one or a plurality of focus detection pixels changes, so that past focus detection pixel data is integrated. Is not preferred.

ボディ駆動制御装置214は、上記絞り開口F値(絞り開口径、)、フォーカシング用レンズ210の位置、PO値(射出瞳距離)のデータを通信によりレンズ駆動制御装置206から受信する。   The body drive control device 214 receives data of the aperture aperture F value (diaphragm aperture diameter), the position of the focusing lens 210, and the PO value (exit pupil distance) from the lens drive control device 206 through communication.

ボディ駆動制御装置214は、デジタルスチルカメラ201の姿勢情報に応じて、過去フレームの焦点検出画素データの積算を禁止するようにしてもよい。   The body drive control device 214 may prohibit the integration of the focus detection pixel data of the past frame according to the posture information of the digital still camera 201.

ボディ駆動制御装置214は、不図示の姿勢センサーの検出した姿勢データを用いることにより、最新フレームと過去フレームとの間の姿勢変化(構図変更)を検出する。構図変更のような姿勢変化は、多くの場合、ユーザーによるデジタルスチルカメラ210の構え、向きの変化により生じるものであり、すなわちユーザーの意図したデジタルスチルカメラ210の動きによるものである。姿勢センサーは、例えば鉛直センサー、方位センサー、角速度センサーである。姿勢変化検出の結果、大きな構図変更があったと判断した場合には、異なるフレームにおいて焦点検出画素が異なる像を受光していると判断して、過去の焦点検出画素データの積算を禁止する。   The body drive control device 214 detects posture change (composition change) between the latest frame and the past frame by using posture data detected by a posture sensor (not shown). In many cases, a posture change such as a composition change is caused by a change in the orientation and orientation of the digital still camera 210 by the user, that is, a movement of the digital still camera 210 intended by the user. The posture sensor is, for example, a vertical sensor, a direction sensor, or an angular velocity sensor. If it is determined that the composition has changed significantly as a result of the posture change detection, it is determined that the focus detection pixels receive different images in different frames, and the integration of past focus detection pixel data is prohibited.

デジタルスチルカメラ201の姿勢情報には、上述した姿勢センサーの検出した姿勢データの他に、不図示のブレ検出センサーのブレデータも含まれる。ブレはユーザーの意図しないデジタルスチルカメラ210の動きによるものである。ボディ駆動制御装置214は、ブレ検出センサーの検出したブレデータを用いることにより、過去フレームのブレ量が閾値を超えた場合には、過去の焦点検出画素データの積算を禁止する。ブレ像を積算しても焦点検出精度が低下するからである。   The posture information of the digital still camera 201 includes shake data of a shake detection sensor (not shown) in addition to the posture data detected by the posture sensor. The blur is caused by the movement of the digital still camera 210 not intended by the user. The body drive control device 214 uses the blur data detected by the blur detection sensor, and prohibits the integration of past focus detection pixel data when the blur amount of the past frame exceeds the threshold. This is because the focus detection accuracy decreases even if the blurred images are integrated.

ボディ駆動制御装置214は、撮像対象となる被写体の情報に応じて、過去フレームの焦点検出画素データの積算を禁止するようにしてもよい。   The body drive control device 214 may prohibit the integration of the focus detection pixel data of the past frame according to the information on the subject to be imaged.

上述した姿勢データまたはブレデータが変化するような場合は、多くの場合、最新フレームと過去フレームとの間の輝度変化が生じることとなる。ボディ駆動制御装置214は、例えば不図示の測光センサーに被写体輝度を検出させて、最新フレームと過去フレームとの間の輝度変化が大きい場合には、過去フレームの焦点検出画素データの積算を禁止する。撮影状況が大きく変化しており、過去の焦点検出画素データを積算しても焦点検出精度が低下するからである。   When the posture data or the blur data changes as described above, in many cases, a luminance change occurs between the latest frame and the past frame. The body drive control device 214, for example, causes the photometric sensor (not shown) to detect the subject brightness, and prohibits the integration of the focus detection pixel data of the past frame when the brightness change between the latest frame and the past frame is large. . This is because the photographing situation has changed greatly and the focus detection accuracy is lowered even if past focus detection pixel data is integrated.

ボディ駆動制御装置214は、フレーム画像から画像処理により特定パターンの部分画像(顔画像など)を抽出して、フレーム画像におけるその部分画像の位置を検出するようにし、その位置変化が大きい場合、すなわち位置変化量が閾値を超える場合には過去フレームの焦点検出画素データの積算を禁止する。過去の焦点検出画素データを積算しても焦点検出精度が低下するからである。   The body drive control device 214 extracts a partial image (such as a face image) of a specific pattern from the frame image by image processing, detects the position of the partial image in the frame image, and when the position change is large, that is, When the position change amount exceeds the threshold value, the integration of the focus detection pixel data of the past frame is prohibited. This is because the focus detection accuracy is lowered even if past focus detection pixel data is integrated.

なお、水平方向の位置変化量と垂直方向の位置変化量とで相異なる閾値を用いることとしてもよい。例えば、水平方向の位置変化量の閾値を1画素とし、垂直方向の位置変化量の閾値を0画素とする。   Note that different threshold values may be used for the horizontal position change amount and the vertical position change amount. For example, the horizontal position change amount threshold is set to 1 pixel, and the vertical position change amount threshold is set to 0 pixel.

ボディ駆動制御装置214は、前回フレームで算出したデフォーカス量と今回フレームで算出したデフォーカス量との差をフレーム間隔で割ることによりフレーム毎の像面移動速度を算出する。過去フレームの像面移動速度が閾値を超えた場合は、過去フレームの焦点検出画素データの積算を禁止する。像面移動速度が閾値を超えたフレームでは、被写体の光軸方向の移動量が大きく、過去の焦点検出画素データを積算しても焦点検出精度が低下するからである。   The body drive control device 214 calculates the image plane moving speed for each frame by dividing the difference between the defocus amount calculated in the previous frame and the defocus amount calculated in the current frame by the frame interval. When the image plane moving speed of the past frame exceeds the threshold, the integration of the focus detection pixel data of the past frame is prohibited. This is because in a frame in which the image plane moving speed exceeds the threshold value, the amount of movement of the subject in the optical axis direction is large, and the focus detection accuracy decreases even if past focus detection pixel data is integrated.

また、デジタルスチルカメラ201は、低輝度時にAF(オートフォーカス)補助光を照明する不図示の照明手段を備え、ボディ駆動制御装置214は、最新フレームの照明の有無と過去フレームの照明の有無とが一致しない場合には、過去フレームの焦点検出画素データの積算を禁止する。過去の焦点検出画素データを積算しても焦点検出精度が低下するからである。   In addition, the digital still camera 201 includes an illumination unit (not shown) that illuminates AF (autofocus) auxiliary light at low luminance, and the body drive control device 214 determines whether or not the latest frame is illuminated and whether or not the previous frame is illuminated. If they do not match, the integration of the focus detection pixel data of the past frame is prohibited. This is because the focus detection accuracy is lowered even if past focus detection pixel data is integrated.

ボディ駆動制御装置214は、撮像素子212の制御情報(動作モード)に応じて、過去フレームの焦点検出画素データの積算を禁止するようにしてもよい。   The body drive control device 214 may prohibit integration of focus detection pixel data of past frames in accordance with control information (operation mode) of the image sensor 212.

撮像素子212が複数の画素信号の読み出しモードを有する際には、読み出しモードに応じて焦点検出画素データの検出ピッチや加算状態が異なる。画素信号の読み出しモードは、例えば、特開2009−128892号公報に開示される全画素読み出しモードおよび間引き読み出しモード、ならびに特開2009−86424号公報に開示される加算読み出しモードである。最新フレームの読み出しモードと過去フレームの読み出しモードとが一致しない場合には、ボディ駆動制御装置214は、過去フレームの焦点検出画素データの積算を禁止する。過去の焦点検出画素データを積算しても焦点検出精度が低下するからである。   When the image sensor 212 has a plurality of pixel signal readout modes, the detection pitch and addition state of the focus detection pixel data differ depending on the readout mode. The pixel signal readout mode is, for example, an all-pixel readout mode and a thinning readout mode disclosed in Japanese Unexamined Patent Application Publication No. 2009-128892, and an addition readout mode disclosed in Japanese Unexamined Patent Application Publication No. 2009-86424. When the reading mode of the latest frame and the reading mode of the past frame do not match, the body drive control device 214 prohibits the integration of the focus detection pixel data of the past frame. This is because the focus detection accuracy is lowered even if past focus detection pixel data is integrated.

撮像素子212から出力される画素信号の増幅度が異なる場合には、焦点検出画素データに加わるノイズの状態が異なる。最新フレームの増幅度と過去フレームの増幅度の相違が大きい場合には、ボディ駆動制御装置214は、過去フレームの焦点検出画素データの積算を禁止する。過去の焦点検出画素データを積算しても焦点検出精度が低下するからである。   When the amplification levels of the pixel signals output from the image sensor 212 are different, the state of noise added to the focus detection pixel data is different. When the difference between the amplification degree of the latest frame and the amplification degree of the past frame is large, the body drive control device 214 prohibits the integration of the focus detection pixel data of the past frame. This is because the focus detection accuracy is lowered even if past focus detection pixel data is integrated.

上記の撮像素子212の動作モードはユーザーにより手動で変更される場合がある。例えば撮像素子212の感度設定の変更に応じて画素信号の増幅度が変更される。   The operation mode of the image sensor 212 may be manually changed by the user. For example, the amplification degree of the pixel signal is changed according to the change in sensitivity setting of the image sensor 212.

上記のように撮像状態の変化に応じて過去フレームの焦点検出画素データの積算を禁止する際に、図10のように最新のフレームの撮像状態データと過去の撮像状態データとの偏差が閾値を超えることによって各種撮像状態の変化について判定しているが、その閾値は実験により定められる。   As described above, when the integration of the focus detection pixel data of the past frame is prohibited according to the change of the imaging state, the deviation between the imaging state data of the latest frame and the past imaging state data sets the threshold value as shown in FIG. The change in various imaging states is determined by exceeding, but the threshold value is determined by experiment.

図10に示す種々の撮像状態のうちの複数の組合せに基づき、図6のステップS170における閾値判定を行ってもよい。例えば、ボディ駆動制御装置214は、今回フレームおよび過去フレームの焦点距離データの偏差の絶対値と、今回フレームおよび過去フレームの姿勢データの偏差の絶対値とのうちのいずれか一方が閾値を超えたとき、撮像状態が変化したと判定する。焦点距離データの偏差の絶対値についての閾値Tfと、姿勢データの偏差の絶対値の閾値Taとを関連付けて変化させるようにしてもよい。例えば、焦点距離データおよび姿勢データのいずれか一方のみが変化した場合は、Tf=T1およびTa=T2とし、焦点距離データおよび姿勢データの両方が変化した場合は、双方の閾値に50%ずつの重み付けを行い、Tf=(T1)/2およびTa=(T2)/2としてもよい。   Based on a plurality of combinations of the various imaging states shown in FIG. 10, the threshold determination in step S170 of FIG. 6 may be performed. For example, the body drive control device 214 has exceeded either one of the absolute value of the deviation of the focal length data of the current frame and the past frame and the absolute value of the deviation of the attitude data of the current frame and the past frame exceeding the threshold value. When it is determined that the imaging state has changed. The threshold value Tf regarding the absolute value of the deviation of the focal distance data and the threshold value Ta of the absolute value of the deviation of the posture data may be changed in association with each other. For example, when only one of the focal length data and the posture data changes, Tf = T1 and Ta = T2, and when both the focal length data and the posture data change, both threshold values are set to 50%. Weighting may be performed so that Tf = (T1) / 2 and Ta = (T2) / 2.

各種撮像状態の変化に応じて過去フレームの焦点検出画素データの積算を禁止する際に、ボディ駆動制御装置214は、図10に示すように、最新のフレームの撮像状態データと過去の撮像状態データとの偏差が閾値を超えることによって、各種撮像状態の変化を判定している。ボディ駆動制御装置214は、最新のフレームの撮像状態データと過去の撮像状態データとが異なることで各種撮像状態の変化を判定するようにしてもよい。例えば絞り開口F値が1段毎に離散的に変化する場合(F1.4、F2.0、F2.8・・)には、ボディ駆動制御装置214は、1段の変化をもって閾値を超えたと判定する。すなわち絞り開口F値が異なることにより撮像状態の変化を判定する。   When prohibiting the integration of focus detection pixel data of past frames according to changes in various imaging states, the body drive control device 214, as shown in FIG. 10, captures the latest frame imaging state data and past imaging state data. When the deviation from the above exceeds a threshold, changes in various imaging states are determined. The body drive control device 214 may determine changes in various imaging states based on differences between the imaging state data of the latest frame and the past imaging state data. For example, when the diaphragm aperture F value changes discretely for each stage (F1.4, F2.0, F2.8,...), The body drive control device 214 has exceeded the threshold with a single stage change. judge. That is, a change in imaging state is determined based on different aperture F values.

上述した実施形態においては、ボディ駆動制御装置214は、過去7回のフレームにおける焦点検出画素データと撮像状態データとをペアで記憶装置220に記憶させておき、過去フレームにおける焦点検出画素データの積算の可否を該焦点検出画素データに対応する撮像状態データに基づいて判定しているが、このような方法に限定されるものではない。   In the embodiment described above, the body drive control device 214 stores the focus detection pixel data and the imaging state data in the past seven frames in pairs in the storage device 220, and integrates the focus detection pixel data in the past frames. Is determined based on imaging state data corresponding to the focus detection pixel data, but is not limited to such a method.

ボディ駆動制御装置214は、撮像状態データに基づいて積算処理に利用できない焦点検出画素データについては、記憶装置220に記憶させないようにすることもできる。例えばブレが大きいと判定されたフレームの焦点検出画素データを記憶装置220に記憶させないようにしておけば、記憶装置220のメモリ領域が有効に利用できる。   The body drive control device 214 can also prevent the storage device 220 from storing focus detection pixel data that cannot be used for integration processing based on the imaging state data. For example, if the focus detection pixel data of a frame determined to have a large blur is not stored in the storage device 220, the memory area of the storage device 220 can be used effectively.

ボディ駆動制御装置214は、最新フレームにおける撮像状態データとの偏差が閾値を超える撮像状態データに対応する焦点検出画素データと、該焦点検出画素データより古い過去の焦点検出画素データとを、新しい焦点検出画素データが取得される毎に積算処理対象から除外することとしてもよい。そうした除外の際に、ボディ駆動制御装置214は、いずれの過去フレームの焦点検出画素データまで遡って積算処理に利用できるかを示す、最も古い焦点検出画素データに対応する有効フレーム番号を更新することとしてもよい。該有効フレーム番号までの過去フレームの焦点検出画素データを対象として積算処理を行うことにより、図6のループ処理(ステップS160〜180)の簡素化と処理時間の短縮化を図ることができる。図9に示す例では、焦点検出画素データI(N−5)のフレーム番号(N−5)を有効フレーム番号として、次の焦点検出画素データI(N+1)についての積算処理の際に用いることとなり、焦点検出画素データI(N−6)が積算処理対象から除外される。   The body drive control device 214 converts the focus detection pixel data corresponding to the imaging state data whose deviation from the imaging state data in the latest frame exceeds a threshold value, and the past focus detection pixel data older than the focus detection pixel data into a new focus. Each time detection pixel data is acquired, it may be excluded from the target of integration processing. At the time of such exclusion, the body drive control device 214 updates the effective frame number corresponding to the oldest focus detection pixel data indicating which past frame focus detection pixel data can be used for integration processing. It is good. By performing the integration process on the focus detection pixel data of the past frames up to the effective frame number, the loop process (steps S160 to 180) in FIG. 6 can be simplified and the processing time can be shortened. In the example shown in FIG. 9, the frame number (N-5) of the focus detection pixel data I (N-5) is used as the effective frame number and used in the integration process for the next focus detection pixel data I (N + 1). Thus, the focus detection pixel data I (N-6) is excluded from the integration processing target.

上述した実施形態においては、ボディ駆動制御装置214は、撮像素子212から出力される焦点検出画素データをそのまま記憶装置220に記憶させるとともに、該焦点検出画素データを用いて像ズレ検出処理を行っているが、これに限定されることはない。   In the embodiment described above, the body drive control device 214 stores the focus detection pixel data output from the image sensor 212 in the storage device 220 as it is, and performs an image shift detection process using the focus detection pixel data. However, it is not limited to this.

例えば、ボディ駆動制御装置214は、焦点検出画素データに対して像の高周波成分を除去するデジタルフィルタ処理(加算平均フィルタ)や像の低周波成分を除去するデジタルフィルタ(差分フィルタ)を行って像ズレ検出に悪影響を及ぼす周波数成分を取り除いてもよい。ボディ駆動制御装置214は、そのようにして像ズレ検出に悪影響を及ぼす周波数成分を取り除くとともに、フィルタリングされた焦点検出画素データを記憶装置220に記憶させ、該フィルタリングされた焦点検出画素データを用いて像ズレ検出処理を行うようにしてもよい。   For example, the body drive control device 214 performs digital filter processing (addition averaging filter) for removing high-frequency components of the image on the focus detection pixel data and digital filter (difference filter) for removing low-frequency components of the image. You may remove the frequency component which has a bad influence on deviation detection. The body drive control device 214 removes the frequency component that adversely affects the image shift detection as described above, stores the filtered focus detection pixel data in the storage device 220, and uses the filtered focus detection pixel data. An image shift detection process may be performed.

ボディ駆動制御装置214は、焦点検出画素データに対して所謂感度バラツキ補正処理や暗電流バラツキ補正処理を行うとともに、補正処理後の焦点検出画素データを記憶し、該補正処理後の焦点検出画素データを用いて像ズレ検出処理を行うようにしてもよい。   The body drive control device 214 performs so-called sensitivity variation correction processing and dark current variation correction processing on the focus detection pixel data, stores focus detection pixel data after the correction processing, and performs focus detection pixel data after the correction processing. The image shift detection process may be performed using

ボディ駆動制御装置214は、焦点検出画素データに対して行う上記フィルタリング処理や各画素毎の特性バラツキ補正処理のような画像処理の内容を撮影状況に応じて変更することとしてもよい。そのような変更の際には、画像処理後の焦点検出画素データと画像処理の内容とをペアで記憶装置220に記憶させる。最新フレームの画像処理の内容と過去フレームの画像処理の内容とが異なっていた場合には、過去フレームの焦点検出画素データの積算を禁止するようにしても良い。過去フレームの焦点検出画素データの積算により焦点検出誤差を生じる虞があるからである。例えば低輝度時のみ暗電流バラツキ補正処理を行う条件で、最新フレームの暗電流バラツキ補正処理の有無と過去フレームの暗電流バラツキ補正処理の有無とが相違していた場合には、過去フレームの焦点検出画素データの積算を禁止する。   The body drive control device 214 may change the contents of the image processing such as the filtering processing performed on the focus detection pixel data and the characteristic variation correction processing for each pixel according to the shooting situation. In such a change, the focus detection pixel data after the image processing and the content of the image processing are stored in the storage device 220 as a pair. When the content of the image processing of the latest frame is different from the content of the image processing of the past frame, the integration of the focus detection pixel data of the past frame may be prohibited. This is because a focus detection error may occur due to integration of focus detection pixel data of past frames. For example, if the dark current variation correction processing for the latest frame differs from the dark current variation correction processing for the past frame under the condition that the dark current variation correction processing is performed only at low luminance, the focus of the past frame The integration of detected pixel data is prohibited.

本発明は瞳分割型位相差検出用の焦点検出画素を備える撮像素子に限定されるものではなく、所謂コントラスト検出に用いられる焦点検出画素を備える撮像素子にも適用することができる。   The present invention is not limited to an image sensor provided with a focus detection pixel for pupil division type phase difference detection, and can also be applied to an image sensor provided with a focus detection pixel used for so-called contrast detection.

《一実施の形態の変形例》
図11は変形例の撮像素子212Aの詳細な構成を示す正面図である。図3に示す撮像素子212は、一対の焦点検出画素312、313を有していた。これに対し図11に示す撮像素子212Aでは、焦点検出画素311が1つのマイクロレンズのもとに一対の光電変換部を備えた画素構造を有する。図11は撮像素子212A上のひとつの焦点検出エリアに対応する領域の近傍を拡大した図であり、縦横は図2に示す撮像画面の縦横と対応している。この変形例の撮像素子212Aは、撮像用の撮像画素310と焦点検出用の焦点検出画素311を有する。
<< Modification of Embodiment >>
FIG. 11 is a front view showing a detailed configuration of an imaging element 212A according to a modification. The image sensor 212 illustrated in FIG. 3 has a pair of focus detection pixels 312 and 313. In contrast, in the imaging device 212A illustrated in FIG. 11, the focus detection pixel 311 has a pixel structure including a pair of photoelectric conversion units under one microlens. FIG. 11 is an enlarged view of the vicinity of an area corresponding to one focus detection area on the image sensor 212A. The vertical and horizontal directions correspond to the vertical and horizontal directions of the imaging screen shown in FIG. An imaging element 212A of this modification includes an imaging pixel 310 for imaging and a focus detection pixel 311 for focus detection.

焦点検出画素311はマイクロレンズ10、一対の光電変換部12,13を有する。焦点検出画素311を用いた瞳分割方式の焦点検出方法の基本原理は、特開2008−85738号公報に開示されるように、図3に示す一対の焦点検出画素312、313を用いた瞳分割方式の焦点検出方法と同様である。一対の光電変換部はそれぞれ一対の測距瞳から各マイクロレンズに到来する光束を受光する。焦点検出画素311の配列方向は一対の測距瞳の並び方向、すなわち一対の光電変換部の並び方向と一致させる。   The focus detection pixel 311 includes a microlens 10 and a pair of photoelectric conversion units 12 and 13. The basic principle of the focus detection method of the pupil division method using the focus detection pixel 311 is, as disclosed in Japanese Patent Laid-Open No. 2008-85738, pupil division using the pair of focus detection pixels 312 and 313 shown in FIG. This is the same as the focus detection method. The pair of photoelectric conversion units respectively receive light beams that arrive at the microlenses from the pair of distance measurement pupils. The arrangement direction of the focus detection pixels 311 is made to coincide with the arrangement direction of the pair of distance measuring pupils, that is, the arrangement direction of the pair of photoelectric conversion units.

上記のような焦点検出画素311を直線状に多数配置し、各画素の一対の光電変換部12、13の出力を一対の測距瞳に対応した出力グループにまとめることによって、一対の測距瞳を通過する一対の焦点検出光束が焦点検出画素列上に形成する一対の像の強度分布に関する情報が得られる。   A large number of focus detection pixels 311 as described above are arranged in a straight line, and the output of the pair of photoelectric conversion units 12 and 13 of each pixel is collected into an output group corresponding to the pair of distance measurement pupils, thereby making a pair of distance measurement pupils. Information on the intensity distribution of the pair of images formed on the focus detection pixel array by the pair of focus detection light fluxes passing through is obtained.

上述した実施形態における撮像素子では焦点検出画素が白色フィルタを備えた例を示したが、撮像画素と同じ色フィルタ(例えば緑フィルタ)を備えるようにした場合にも本発明を適用することができる。   Although the example in which the focus detection pixel includes the white filter is shown in the image sensor in the above-described embodiment, the present invention can be applied to a case where the same color filter (for example, a green filter) as that of the image capture pixel is provided. .

例えば図11に示した焦点検出画素311のみを2次元に配列して撮像素子を構成するとともに、2次元に配置された焦点検出画素がベイヤー配列した色フィルタを有するようにしてもよい。このような構成においては、撮像時は焦点検出画素の一対の光電変換部のデータを加算することにより、撮像画素と同等のデータを算出することが可能である。焦点検出時は同色の焦点検出画素同士で相関演算を行うことにより、色別の焦点検出結果を得ることが出来、輝度のみではコントラストが出ないような場合にも焦点検出が可能になる。   For example, only the focus detection pixels 311 shown in FIG. 11 may be two-dimensionally arranged to form an image sensor, and the two-dimensionally arranged focus detection pixels may have a color filter arranged in a Bayer array. In such a configuration, at the time of imaging, it is possible to calculate data equivalent to the imaging pixel by adding the data of the pair of photoelectric conversion units of the focus detection pixel. At the time of focus detection, by performing correlation calculation between focus detection pixels of the same color, it is possible to obtain a focus detection result for each color, and it is possible to detect a focus even when contrast is not obtained only by luminance.

上述した実施形態においては、撮像素子としてCCDイメージセンサ、CMOSイメージセンサを用いることができる。   In the above-described embodiment, a CCD image sensor or a CMOS image sensor can be used as the image sensor.

上述した実施形態における撮像素子では撮像画素がベイヤー配列の色フィルタを備えた例を示したが、色フィルタの構成や配列はこれに限定されることはない。例えば、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列やベイヤー配列以外の配列にも本発明を適用することができる。また色フィルタを備えないモノクロの撮像素子にも本発明を適用することができる。   In the image pickup device according to the above-described embodiment, an example in which the image pickup pixel includes a color filter with a Bayer array is shown. However, the configuration and the array of the color filter are not limited to this. For example, the present invention can be applied to an arrangement other than the arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) or a Bayer arrangement. Further, the present invention can also be applied to a monochrome image sensor that does not include a color filter.

なお、撮像装置としては、上述したような、カメラボディに交換レンズが装着される構成のデジタルスチルカメラに限定されない。例えば、レンズ一体型のデジタルスチルカメラあるいはビデオカメラにも本発明を適用することができる。さらには、携帯電話などに内蔵される小型カメラモジュール、監視カメラやロボット用の視覚認識装置、車載カメラなどにも適用できる。   Note that the imaging apparatus is not limited to the digital still camera configured as described above in which the interchangeable lens is mounted on the camera body. For example, the present invention can be applied to a lens-integrated digital still camera or video camera. Furthermore, the present invention can be applied to a small camera module built in a mobile phone, a surveillance camera, a visual recognition device for a robot, an in-vehicle camera, and the like.

10、70 マイクロレンズ、11、12、13、71 光電変換部、
29 半導体回路基板、72、73 焦点検出光束、81 撮像光束、
90 射出瞳面、91 光軸、92、93 測距瞳、94 領域、
100 撮影画面、101 焦点検出エリア、
201 デジタルスチルカメラ、202 交換レンズ、203 カメラボディ、
204 マウント部、206 レンズ駆動制御装置、
208 ズーミング用レンズ、209 レンズ、210 フォーカシング用レンズ、
211 絞り、212 撮像素子、213 電気接点、
214 ボディ駆動制御装置、
215 液晶表示素子駆動回路、216 液晶表示素子、217 接眼レンズ、
219 メモリカード、220 記憶装置、221 AD変換装置、
310 撮像画素、311、312、313 焦点検出画素
10, 70 micro lens, 11, 12, 13, 71 photoelectric conversion unit,
29 Semiconductor circuit board, 72, 73 Focus detection beam, 81 Imaging beam,
90 Exit pupil plane, 91 optical axis, 92, 93 Distance pupil, 94 area,
100 shooting screen, 101 focus detection area,
201 digital still camera, 202 interchangeable lens, 203 camera body,
204 mount unit, 206 lens drive control device,
208 zooming lens, 209 lens, 210 focusing lens,
211 Aperture, 212 Image sensor, 213 Electrical contact,
214 body drive control device,
215 liquid crystal display element driving circuit, 216 liquid crystal display element, 217 eyepiece,
219 memory card, 220 storage device, 221 AD converter,
310 imaging pixels, 311, 312, 313 focus detection pixels

Claims (20)

複数の画素が配置され、前記複数の画素により被写体の像を撮像して、時系列的に連続した複数のフレームの各々に対応する画素データを生成する撮像素子と、
前記撮像素子上に前記被写体の像を形成する撮影光学系と、
前記被写体の像の撮像時における撮像状態に関する撮像状態情報を取得する撮像状態情報取得手段と、
前記画素データのうちの少なくとも一部の部分データと、前記撮像状態情報とを互いに関連付けて記憶する記憶手段と、
前記撮像素子により生成された前記画素データのうち、最新の画素データに含まれる前記部分データに、前記記憶手段により記憶された少なくとも1つの前記部分データを加算する加算処理を行って加算部分データを算出する加算手段と、
前記記憶手段により記憶された前記撮像状態情報に基づいて、当該撮像状態情報に関連する前記部分データの加算を禁止する禁止制御を行う禁止手段と、
前記加算部分データに基づいて、前記撮影光学系の焦点調節状態を検出する焦点検出手段とを備えることを特徴とする撮像装置。
An image sensor in which a plurality of pixels are arranged, and an image of a subject is captured by the plurality of pixels to generate pixel data corresponding to each of a plurality of frames that are continuous in time series;
A photographing optical system for forming an image of the subject on the image sensor;
Imaging state information acquisition means for acquiring imaging state information relating to an imaging state at the time of imaging the subject image;
Storage means for storing at least a partial data of the pixel data and the imaging state information in association with each other;
Of the pixel data generated by the image sensor, an addition process for adding at least one of the partial data stored in the storage unit to the partial data included in the latest pixel data is performed to obtain the added partial data. Adding means for calculating;
Prohibiting means for performing prohibition control for prohibiting addition of the partial data related to the imaging state information based on the imaging state information stored by the storage unit;
An imaging apparatus comprising: a focus detection unit configured to detect a focus adjustment state of the photographing optical system based on the addition partial data.
請求項1に記載の撮像装置において、
前記禁止手段は、前記最新の画素データに含まれる前記部分データに関連付けられた前記撮像状態情報と、前記記憶手段により記憶された前記部分データに関連付けられた前記撮像状態情報との比較結果に基づいて、前記禁止制御を行うことを特徴とする撮像装置。
The imaging device according to claim 1,
The prohibiting unit is based on a comparison result between the imaging state information associated with the partial data included in the latest pixel data and the imaging state information associated with the partial data stored by the storage unit. An image pickup apparatus that performs the prohibition control.
請求項2に記載の撮像装置において、
前記禁止手段は、前記最新の画素データに含まれる前記部分データに関連付けられた前記撮像状態情報と前記記憶手段により記憶された前記部分データに関連付けられた前記撮像状態情報との相違の程度が所定の閾値より大きい場合は、前記禁止制御を行うことを特徴とする撮像装置。
The imaging device according to claim 2,
The prohibiting unit has a predetermined degree of difference between the imaging state information associated with the partial data included in the latest pixel data and the imaging state information associated with the partial data stored by the storage unit. The image pickup apparatus performs the prohibition control when the threshold value is larger than the threshold value.
請求項1〜3のいずれか1項に記載の撮像装置において、
前記撮像状態は、前記撮影光学系の光学特性で表されることを特徴とする撮像装置。
The imaging device according to any one of claims 1 to 3,
The imaging apparatus is characterized in that the imaging state is expressed by optical characteristics of the photographing optical system.
請求項4に記載の撮像装置において、
前記光学特性は、撮影光学系の絞り開口F値で表されることを特徴とする撮像装置。
The imaging apparatus according to claim 4,
The image pickup apparatus according to claim 1, wherein the optical characteristic is expressed by a diaphragm aperture F value of a photographing optical system.
請求項4に記載の撮像装置において、
前記光学特性は、撮影光学系の焦点距離で表されることを特徴とする撮像装置。
The imaging apparatus according to claim 4,
The optical apparatus is characterized in that the optical characteristic is expressed by a focal length of a photographing optical system.
請求項4に記載の撮像装置において、
前記光学特性は、撮影光学系のフォーカシングレンズの位置で表されることを特徴とする撮像装置。
The imaging apparatus according to claim 4,
The image pickup apparatus, wherein the optical characteristic is expressed by a position of a focusing lens of a photographing optical system.
請求項1〜3のいずれか1項に記載の撮像装置において、
前記撮像状態は、撮像装置の姿勢に関する姿勢情報で表されることを特徴とする撮像装置。
The imaging device according to any one of claims 1 to 3,
The imaging apparatus is characterized in that the imaging state is represented by attitude information regarding the attitude of the imaging apparatus.
請求項8に記載の撮像装置において、
前記姿勢情報は、前記フレームの構図で表されることを特徴とする撮像装置。
The imaging device according to claim 8,
The posture information is represented by a composition of the frame.
請求項8に記載の撮像装置において、
前記姿勢情報は、撮像装置のブレ量で表されることを特徴とする撮像装置。
The imaging device according to claim 8,
The posture information is represented by a blur amount of the image pickup device.
請求項1〜3のいずれか1項に記載の撮像装置において、
前記撮像状態は、前記被写体に関する被写体情報で表されることを特徴とする撮像装置。
The imaging device according to any one of claims 1 to 3,
The imaging apparatus, wherein the imaging state is represented by subject information related to the subject.
請求項11に記載の撮像装置において、
前記被写体情報は、前記被写体の輝度であることを特徴とする撮像装置。
The imaging device according to claim 11,
The imaging apparatus, wherein the subject information is a luminance of the subject.
請求項11に記載の撮像装置において、
前記被写体情報は、前記フレームにおける前記被写体の位置であることを特徴とする撮像装置。
The imaging device according to claim 11,
The imaging apparatus, wherein the subject information is a position of the subject in the frame.
請求項1〜3のいずれか1項に記載の撮像装置において、
前記撮像状態は、前記撮像素子の動作状態であることを特徴とする撮像装置。
The imaging device according to any one of claims 1 to 3,
The imaging apparatus, wherein the imaging state is an operating state of the imaging device.
請求項14に記載の撮像装置において、
前記動作状態は、前記撮像素子の生成する前記画素データの読み出しモードであることを特徴とする撮像装置。
The imaging device according to claim 14, wherein
The image pickup apparatus, wherein the operation state is a read mode of the pixel data generated by the image pickup element.
請求項14に記載の撮像装置において、
前記動作状態は、前記撮像素子の生成する前記画素データの出力ゲインで表されることを特徴とする撮像装置。
The imaging device according to claim 14, wherein
The operation state is represented by an output gain of the pixel data generated by the image sensor.
請求項1〜16のいずれか1項に記載の撮像装置において、
前記記憶手段は、前記撮像素子から時系列的に生成される前記画素データのうちの前記部分データを順次記憶し、
前記加算手段は、前記記憶手段から前記部分データを、時系列的に古い時刻に遡って順次読み出して、読み出した前記部分データについての前記加算処理を行い、前記加算部分データが所定条件を満たしたとき、前記加算処理を終了することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 16,
The storage means sequentially stores the partial data of the pixel data generated in time series from the imaging element,
The adding means sequentially reads out the partial data from the storage means in chronological order from the old time, performs the addition processing on the read partial data, and the added partial data satisfies a predetermined condition Then, the image pickup apparatus ends the addition process.
請求項1〜17のいずれか1項に記載の撮像装置において、
前記部分データに対し画像処理を施す画像処理手段をさらに備え、
前記記憶手段は、前記撮像素子から時系列的に生成される前記画素データのうちの前記部分データを順次記憶し、前記部分データを記憶する際に、前記画像処理が施された前記部分データを記憶することを特徴とする撮像装置。
The imaging device according to any one of claims 1 to 17,
Image processing means for performing image processing on the partial data;
The storage means sequentially stores the partial data of the pixel data generated in a time series from the imaging element, and stores the partial data subjected to the image processing when storing the partial data. An imaging device characterized by storing.
請求項18に記載の撮像装置において、
前記画像処理手段は、複数種類の画像処理方式により前記画像処理を前記部分データに対して施すことが可能であり、
前記撮像状態は、前記画像処理手段により施された前記画像処理に用いられた前記画像処理方式で表されることを特徴とする撮像装置。
The imaging device according to claim 18, wherein
The image processing means can perform the image processing on the partial data by a plurality of types of image processing methods,
The imaging apparatus, wherein the imaging state is expressed by the image processing method used for the image processing performed by the image processing means.
請求項1〜19のいずれか1項に記載の撮像装置において、
前記複数の画素は、前記被写体の像に関する撮像信号データを出力する撮像画素と、前記射出瞳を通過する一対の焦点検出光束を受光して前記焦点調節状態に関する焦点検出信号データを出力する瞳分割型の焦点検出画素とを含み、
前記部分データは、前記焦点検出画素信号データであることを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 19,
The plurality of pixels include imaging pixels that output imaging signal data relating to the image of the subject, and pupil division that receives a pair of focus detection light beams passing through the exit pupil and outputs focus detection signal data relating to the focus adjustment state. A focus detection pixel of the type,
The image pickup apparatus, wherein the partial data is the focus detection pixel signal data.
JP2010124806A 2010-05-31 2010-05-31 Imaging device Active JP5565105B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010124806A JP5565105B2 (en) 2010-05-31 2010-05-31 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010124806A JP5565105B2 (en) 2010-05-31 2010-05-31 Imaging device

Publications (2)

Publication Number Publication Date
JP2011252955A true JP2011252955A (en) 2011-12-15
JP5565105B2 JP5565105B2 (en) 2014-08-06

Family

ID=45416955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010124806A Active JP5565105B2 (en) 2010-05-31 2010-05-31 Imaging device

Country Status (1)

Country Link
JP (1) JP5565105B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226088A (en) * 2011-04-19 2012-11-15 Nikon Corp Imaging apparatus
JP2013171257A (en) * 2012-02-22 2013-09-02 Canon Inc Imaging device and control method thereof
JP2014202799A (en) * 2013-04-01 2014-10-27 キヤノン株式会社 Image capturing device and control method therefor
CN104243972A (en) * 2014-08-20 2014-12-24 徐丽雅 Device and method for wireless intelligent early warning of camera
JP2015012577A (en) * 2013-07-02 2015-01-19 オリンパス株式会社 Imaging apparatus, imaging method, and program
US9167183B2 (en) 2011-12-28 2015-10-20 Fujifilm Corporation Imaging element and imaging apparatus employing phase difference detection pixels pairs
US9325954B2 (en) 2011-12-28 2016-04-26 Fujifilm Corporation Color imaging element having phase difference detection pixels and imaging apparatus equipped with the same
JP2016099609A (en) * 2014-11-26 2016-05-30 株式会社ニコン Imaging device
JP2016177314A (en) * 2016-05-26 2016-10-06 株式会社ニコン Focus detector and imaging apparatus
JP2017076051A (en) * 2015-10-15 2017-04-20 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
US9756237B2 (en) 2012-09-28 2017-09-05 Nikon Corporation Focus detection device and image-capturing apparatus
JP2018028677A (en) * 2017-10-05 2018-02-22 株式会社ニコン Focus detector and imaging apparatus
CN109416458A (en) * 2016-06-30 2019-03-01 株式会社尼康 Camera
JP2019168727A (en) * 2019-07-01 2019-10-03 株式会社ニコン Focus detector and imaging apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6412826B2 (en) 2015-06-04 2018-10-24 オリンパス株式会社 Imaging device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0678264A (en) * 1992-08-28 1994-03-18 Canon Inc Image picture device
JP2002131623A (en) * 2000-10-24 2002-05-09 Canon Inc Imaging apparatus and system
JP2007067559A (en) * 2005-08-29 2007-03-15 Canon Inc Image processing method, image processing apparatus, and control method of imaging apparatus
JP2008085738A (en) * 2006-09-28 2008-04-10 Nikon Corp Imaging apparatus
JP2008309883A (en) * 2007-06-12 2008-12-25 Nikon Corp Digital camera
JP2010117680A (en) * 2008-11-14 2010-05-27 Canon Inc Image capturing apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0678264A (en) * 1992-08-28 1994-03-18 Canon Inc Image picture device
JP2002131623A (en) * 2000-10-24 2002-05-09 Canon Inc Imaging apparatus and system
JP2007067559A (en) * 2005-08-29 2007-03-15 Canon Inc Image processing method, image processing apparatus, and control method of imaging apparatus
JP2008085738A (en) * 2006-09-28 2008-04-10 Nikon Corp Imaging apparatus
JP2008309883A (en) * 2007-06-12 2008-12-25 Nikon Corp Digital camera
JP2010117680A (en) * 2008-11-14 2010-05-27 Canon Inc Image capturing apparatus

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226088A (en) * 2011-04-19 2012-11-15 Nikon Corp Imaging apparatus
US9167183B2 (en) 2011-12-28 2015-10-20 Fujifilm Corporation Imaging element and imaging apparatus employing phase difference detection pixels pairs
US9325954B2 (en) 2011-12-28 2016-04-26 Fujifilm Corporation Color imaging element having phase difference detection pixels and imaging apparatus equipped with the same
JP2013171257A (en) * 2012-02-22 2013-09-02 Canon Inc Imaging device and control method thereof
US9756237B2 (en) 2012-09-28 2017-09-05 Nikon Corporation Focus detection device and image-capturing apparatus
JP2014202799A (en) * 2013-04-01 2014-10-27 キヤノン株式会社 Image capturing device and control method therefor
JP2015012577A (en) * 2013-07-02 2015-01-19 オリンパス株式会社 Imaging apparatus, imaging method, and program
CN104243972B (en) * 2014-08-20 2017-08-08 徐丽雅 Camera intelligent wireless prior-warning device and method
CN104243972A (en) * 2014-08-20 2014-12-24 徐丽雅 Device and method for wireless intelligent early warning of camera
JP2016099609A (en) * 2014-11-26 2016-05-30 株式会社ニコン Imaging device
JP2017076051A (en) * 2015-10-15 2017-04-20 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
JP2016177314A (en) * 2016-05-26 2016-10-06 株式会社ニコン Focus detector and imaging apparatus
CN109416458A (en) * 2016-06-30 2019-03-01 株式会社尼康 Camera
JPWO2018004001A1 (en) * 2016-06-30 2019-05-16 株式会社ニコン camera
JP2021051314A (en) * 2016-06-30 2021-04-01 株式会社ニコン camera
JP7022686B2 (en) 2016-06-30 2022-02-18 株式会社ニコン camera
JP7088268B2 (en) 2016-06-30 2022-06-21 株式会社ニコン camera
US11435550B2 (en) 2016-06-30 2022-09-06 Nikon Corporation Camera for limiting shifting of focus adjustment optical system
JP2018028677A (en) * 2017-10-05 2018-02-22 株式会社ニコン Focus detector and imaging apparatus
JP2019168727A (en) * 2019-07-01 2019-10-03 株式会社ニコン Focus detector and imaging apparatus

Also Published As

Publication number Publication date
JP5565105B2 (en) 2014-08-06

Similar Documents

Publication Publication Date Title
JP5565105B2 (en) Imaging device
CN107346056B (en) Focus detection device and imaging device
EP1975695B1 (en) Focus detection device, focusing state detection method and imaging apparatus
US7783185B2 (en) Image sensor, imaging device and imaging method
US8259215B2 (en) Image pickup apparatus having focus control using phase difference detection
JP5458475B2 (en) Focus detection apparatus and imaging apparatus
JP2007282108A (en) Imaging apparatus, camera and image processing method
JP5699480B2 (en) Focus detection device and camera
JP2007282109A (en) Imaging apparatus, camera and image processing method
JP5423111B2 (en) Focus detection apparatus and imaging apparatus
JP5609098B2 (en) Imaging device
JP5609232B2 (en) Imaging device
JP5338112B2 (en) Correlation calculation device, focus detection device, and imaging device
JP5747510B2 (en) Imaging device
JP5962830B2 (en) Focus detection device
JP5338113B2 (en) Correlation calculation device, focus detection device, and imaging device
JP5804104B2 (en) Focus adjustment device
JP5724208B2 (en) Imaging device
JP5332384B2 (en) Correlation calculation device, focus detection device, and imaging device
JP2012226088A (en) Imaging apparatus
JP5338118B2 (en) Correlation calculation device, focus detection device, and imaging device
JP4968010B2 (en) Correlation calculation method, correlation calculation device, focus detection device, and imaging device
JP4968009B2 (en) Correlation calculation method, correlation calculation device, focus detection device, and imaging device
JP2012058747A (en) Digital camera
JP2015148819A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140602

R150 Certificate of patent or registration of utility model

Ref document number: 5565105

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250