JP6525498B2 - Image pickup apparatus, control method thereof and control program - Google Patents

Image pickup apparatus, control method thereof and control program Download PDF

Info

Publication number
JP6525498B2
JP6525498B2 JP2013257168A JP2013257168A JP6525498B2 JP 6525498 B2 JP6525498 B2 JP 6525498B2 JP 2013257168 A JP2013257168 A JP 2013257168A JP 2013257168 A JP2013257168 A JP 2013257168A JP 6525498 B2 JP6525498 B2 JP 6525498B2
Authority
JP
Japan
Prior art keywords
pixel signal
pixel
output
signal
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013257168A
Other languages
Japanese (ja)
Other versions
JP2015114544A5 (en
JP2015114544A (en
Inventor
剛史 諏訪
剛史 諏訪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013257168A priority Critical patent/JP6525498B2/en
Publication of JP2015114544A publication Critical patent/JP2015114544A/en
Publication of JP2015114544A5 publication Critical patent/JP2015114544A5/ja
Application granted granted Critical
Publication of JP6525498B2 publication Critical patent/JP6525498B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置に関し、特に像面位相差オートフォーカス(以下、像面位相差AFと記す)が可能な撮像装置に関する。   The present invention relates to an imaging device, and more particularly to an imaging device capable of image plane phase difference autofocus (hereinafter referred to as image plane phase difference AF).

従来、像面位相差AFを実現しつつ、焦点検出用画素に起因する動画、ライブビューの画質劣化を抑制する技術が、特許文献1により開示されている。   Conventionally, Japanese Patent Application Laid-Open No. 2008-112147 discloses a technique for suppressing image quality deterioration of a moving image and live view caused by focus detection pixels while realizing image plane phase difference AF.

特開2010−181751号公報JP, 2010-181751, A

しかしながら、上述の特許文献1に開示された従来技術では、焦点検出用画素と画像用画素を同一の出力系(ストリーム)で読みだすため、像面位相差AF画像の取得レートが画像用画素の読み出しレートに律則されていた。このため単位時間当たりの焦点検出用画素のサンプリング回数に制限が生じ、AF精度の向上の妨げとなっていた。   However, in the prior art disclosed in Patent Document 1 described above, since the focus detection pixels and the image pixels are read by the same output system (stream), the acquisition rate of the image plane phase difference AF image is that of the image pixels. It was regulated by the read rate. For this reason, the number of times of sampling of the focus detection pixel per unit time is limited, which hinders the improvement of the AF accuracy.

そこで、本発明の目的は、像面位相差AFにおいて、単位時間当たりの焦点検出用画素のサンプリング回数を増加させることで、AF精度の向上を可能にする撮像装置を提供することである。   Therefore, an object of the present invention is to provide an imaging device capable of improving the AF accuracy by increasing the number of times of sampling of focus detection pixels per unit time in the image plane phase difference AF.

本発明によれば、各々が光電変換部を備えた複数の画素と、隣接する複数の画素で共有される複数のマイクロレンズが二次元状に配置された画素配列を有する撮像手段と、マイクロレンズを共有する複数の画素からフォーカスレンズを有する撮影光学系で形成された被写体像に対応する第1の画素信号を読み出し、マイクロレンズを共有する複数の画素の各々から撮影光学系の瞳領域の異なる部分領域からの被写体像に対応する第2の画素信号を読み出す読み出し手段と、第1の画素信号を出力する第1の出力系と第2の画素信号を出力する第2の出力系とを有する出力手段と、出力手段から出力される画素信号を用いて、フォーカスレンズの焦点調節を行うための評価値を生成する信号処理手段とを備え、読み出し手段は、第1の画素信号および第2の画素信号を、それぞれ異なる読み出しレートで読み出すことを特徴とする撮像装置が提供される。
According to the present invention, an imaging unit having a pixel array in which a plurality of pixels each including a photoelectric conversion unit, and a plurality of microlenses shared by a plurality of adjacent pixels are two-dimensionally arranged, and a microlens reads the first pixel signal corresponding plurality of pixels in the subject image formed by the photographing optical system having a focus lens to share, different pupil regions of the photographing optical system from each of a plurality of pixels sharing a microlens a reading means for reading the second pixel signal corresponding to the subject image from the partial region and a second output system for outputting a first output system and the second pixel signal for outputting a first pixel signal with an output unit, a pixel signal outputted from the output means, and signal processing means for generating an evaluation value for performing focusing of the focus lens, the reading means includes first pixel signal Preliminary the second pixel signal, the image pickup apparatus characterized by reading at different read rates, respectively, are provided.

本発明によれば、像面位相差AFを行うための焦点検出用画素の信号サンプリング回数を、画像生成用画素の読み出しレートに律則されずに増加させることが可能となり、AF精度の向上した撮像装置を提供することが可能となる。   According to the present invention, it is possible to increase the number of times of signal sampling of focus detection pixels for performing image plane phase difference AF without being restricted by the readout rate of image generation pixels, and the AF accuracy is improved. It becomes possible to provide an imaging device.

本発明の第1の実施例に係る撮像装置の構成を示す図The figure which shows the structure of the imaging device which concerns on the 1st Example of this invention. 本発明の第1および第2の実施例に係る撮像素子の画素構成を示す図The figure which shows the pixel structure of the image pick-up element concerning the 1st and 2nd Example of this invention. 本発明の第1および第2の実施例に係る撮像素子の画素と光学部との関係を模式的に示す図The figure which shows typically the relationship between the pixel of the image pick-up element which concerns on the 1st and 2nd Example of this invention, and an optical part. 本発明の第1の実施例に係る撮像装置の画素信号の読み出し動作のタイミングチャートを示す図FIG. 7 is a timing chart of the pixel signal readout operation of the imaging device according to the first embodiment of the present invention. 本発明の第1の実施例に係る撮像装置の撮影動作のフローチャートを示す図The figure which shows the flowchart of imaging | photography operation | movement of the imaging device which concerns on the 1st Example of this invention. 本発明の第3の実施例に係る撮像装置の撮影動作のフローチャートを示す図The figure which shows the flowchart of imaging | photography operation | movement of the imaging device which concerns on the 3rd Example of this invention.

以下に、本発明の好ましい実施形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail based on the accompanying drawings.

以下、図1から図5を参照して、本発明の第1の実施例に係る撮像装置の構成および動作について説明する。   The configuration and operation of the imaging apparatus according to the first embodiment of the present invention will be described below with reference to FIGS. 1 to 5.

図1は、本発明の第1の実施例に係る撮像装置1000の構成を示す図である。
図1において、1001は、撮像素子の受光部に被写体像を結像させる光学部である。光学部1001において、1001−1はズームレンズ、1001−2はフォーカスレンズ、1001−3はIS(image stabilizer)レンズ、1001−4は絞りである。
FIG. 1 is a diagram showing the configuration of an imaging apparatus 1000 according to a first embodiment of the present invention.
In FIG. 1, reference numeral 1001 denotes an optical unit for forming a subject image on the light receiving unit of the imaging device. In the optical unit 1001, reference numeral 1001-1 denotes a zoom lens, reference numeral 1001-2 denotes a focus lens, reference numeral 1001-3 denotes an IS (image stabilizer) lens, and reference numeral 1001-4 denotes an aperture.

1002は、光学部1001により結像された像の光信号を光電変換により電気信号に変換する撮像素子であり、CMOSセンサーなどで構成される二次元画素配列を有する。撮像素子1002は、撮像信号(画素信号)にOBクランプ、AD変換を行い、デジタル画像信号および焦点検出用信号を生成して後述するDSP1007に出力する。また、撮像素子1002は、後述のように、画像用画素信号を出力する第1のストリームと焦点検出用画素信号を出力する第2のストリームの2つの出力系を有する。   An imaging element 1002 converts an optical signal of an image formed by the optical unit 1001 into an electrical signal by photoelectric conversion, and has a two-dimensional pixel array configured by a CMOS sensor or the like. The imaging element 1002 performs OB clamping and AD conversion on an imaging signal (pixel signal), generates a digital image signal and a focus detection signal, and outputs the digital image signal and a focus detection signal to a DSP 1007 described later. Further, as described later, the imaging element 1002 has two output systems of a first stream that outputs an image pixel signal and a second stream that outputs a focus detection pixel signal.

1004は、システム全体の制御を行うCPUである。1005は、撮像装置1000を駆動するためのファームウェアなどの情報を記憶するためのROM、1006は、撮像装置1000の制御情報や撮像素子1002の出力を一時的に記憶するためのRAMである。CPU1004は、ROM1005に記憶されているプログラムを、RAM1006を用いて実行することで撮像装置1000の各部の動作を制御する。   A CPU 1004 controls the entire system. A ROM 1005 stores information such as firmware for driving the imaging apparatus 1000, and a RAM 1006 temporarily stores control information of the imaging apparatus 1000 and an output of the imaging device 1002. The CPU 1004 controls the operation of each unit of the imaging apparatus 1000 by executing a program stored in the ROM 1005 using the RAM 1006.

1007は、信号処理部(以下、DSP(digital signal processor)と記す)である。DSP1007は、撮像素子1002からの第1のストリームからの信号に対して各種の信号処理を行い、所定のフォーマットによる静止画または動画の画像信号(例えばYUV信号等)を生成する。さらに、DSP1007は、撮像素子1002の第1のストリームからの信号に基づいて、ライブビュー駆動時や動画記録時の露出制御動作や主被写体の検出を行う。さらに、DSP1007は、第1のストリームおよび、第2のストリームからの信号に基づいてライブビュー駆動時や動画記録時の撮像装置からの被写体距離を検出する。   Reference numeral 1007 denotes a signal processing unit (hereinafter referred to as a DSP (digital signal processor)). The DSP 1007 performs various signal processing on the signal from the first stream from the imaging device 1002, and generates a still image or a moving image signal (for example, a YUV signal or the like) in a predetermined format. Further, based on the signal from the first stream of the image sensor 1002, the DSP 1007 performs an exposure control operation at the time of live view driving and moving image recording and detection of a main subject. Further, the DSP 1007 detects a subject distance from the imaging device at the time of live view driving or moving image recording based on the first stream and the signal from the second stream.

1008は外部インターフェースであり、各種エンコーダーやD/A変換器を含み、外部要素(本例では、ディスプレイ1012、メモリ媒体1009、操作パネル1011)との間で各種制御信号やデータをやり取りする。   An external interface 1008 includes various encoders and a D / A converter, and exchanges various control signals and data with an external element (in this example, the display 1012, the memory medium 1009, and the operation panel 1011).

1009は、各種メモリカード等に撮影された画像を適宜保存しておけるメモリ媒体である。1010は、メモリ媒体1009を交換可能なメモリ媒体コントローラである。なお、メモリ媒体1009としては、各種メモリカードの他に、磁気や光を用いたディスク媒体等を用いることができる。   Reference numeral 1009 denotes a memory medium in which images captured on various memory cards or the like can be stored appropriately. Reference numeral 1010 denotes a memory medium controller capable of exchanging the memory medium 1009. In addition to various memory cards, a disk medium using magnetism or light may be used as the memory medium 1009.

1011は、撮像装置1000が撮影動作を行う場合に、ユーザが各種の指示を行うための入力キーを設けた操作パネルである。CPU1004は、操作パネル1011からの入力信号を監視し、その入力内容に基づいて各種の動作制御を実行する。   Reference numeral 1011 denotes an operation panel provided with input keys for the user to issue various instructions when the imaging apparatus 1000 performs a shooting operation. The CPU 1004 monitors an input signal from the operation panel 1011 and executes various operation control based on the input content.

1012は、撮像装置1000に組み込まれ、撮像素子1002で撮像された画像を表示するディスプレイである。なお、撮像装置1000は、組み込まれた表示装置に加えて、外部の表示装置に画像データを伝送し、表示できる構成とすることも勿論可能である。   A display 1012 is incorporated in the imaging apparatus 1000 and displays an image captured by the imaging element 1002. The image pickup apparatus 1000 can of course be configured to transmit image data to an external display apparatus in addition to the built-in display apparatus, and to display the image data.

図2は、本発明の実施形態に係る撮像素子の画素構成を示す図であり、図2(a)は、本実施例に係る撮像素子の画素部の構成を、また図2(b)は、後述する第2の実施例に係る画素部の構成を示す。   FIG. 2 is a diagram showing the pixel configuration of the imaging device according to the embodiment of the present invention, and FIG. 2 (a) shows the configuration of the pixel portion of the imaging device according to the present embodiment, and FIG. 7 shows a configuration of a pixel unit according to a second embodiment described later.

図2(a)において、2001−1は、画像信号を得るための画素(第1の画素)であり、本画素の信号は第1のストリームから読み出される。   In FIG. 2A, reference numeral 2001-1 denotes a pixel (first pixel) for obtaining an image signal, and the signal of this pixel is read out from the first stream.

2001−2は、画素の開口部が水平方向の第1の方向にシフトして形成されている焦点検出用の画素(第2の画素)であり、後述の画素2001−3の水平方向の像ずれ量を検出するための基準画素である。画素2001−2の信号は、第2のストリームから読み出される。   Reference numeral 2001-2 denotes a focus detection pixel (second pixel) formed by shifting the aperture of the pixel in the first horizontal direction, and an image of the pixel 2001-3 in the horizontal direction described later is formed. It is a reference pixel for detecting the amount of deviation. The signal of pixel 2001-2 is read from the second stream.

2001−3は、画素の開口部が画素2001−2と逆方向(第2の方向)にシフトして形成されている焦点検出用画素(第3の画素)であり、画素2001−2との水平方向の像ずれ量を検出するための画素である。画素2001−3の信号は、第2のストリームから読み出される。   Reference numeral 2001-3 denotes a focus detection pixel (third pixel) formed by shifting the opening of the pixel in the opposite direction (second direction) to the pixel 2001-2. It is a pixel for detecting the image shift amount in the horizontal direction. The signal of pixel 2001-3 is read from the second stream.

本実施例では、第1の画素2001−1、第2の画素2001−2、第3の画素2001−3を行単位で配置して画素部を構成している。しかし、本実施例の焦点検出用画素は、瞳の部分領域を通過してくる光のみを受光するため、画像用には使用できない。従って、本実施例では、焦点検出用の画素配置を行方向にある程度の間隔をおいて、例えば4行周期などで離散的に配置する構成としている。   In this embodiment, the first pixel 2001-1, the second pixel 2001-2, and the third pixel 2001-3 are arranged row by row to form a pixel portion. However, the focus detection pixel of this embodiment can not be used for an image because it receives only the light passing through the partial area of the pupil. Therefore, in the present embodiment, the pixel arrangement for focus detection is discretely arranged at a certain interval in the row direction, for example, in a 4-row cycle.

2003は、画素信号を読み出すための垂直信号線であり、2002は、画素信号を垂直信号線2003に出力するための選択トランジスタである。2004は、選択線ROW−1からROW−nに電圧を選択的に供給し、画素信号の走査を行う垂直走査回路である。   2003 is a vertical signal line for reading out the pixel signal, and 2002 is a selection transistor for outputting the pixel signal to the vertical signal line 2003. Reference numeral 2004 denotes a vertical scanning circuit which selectively supplies voltages to the selection lines ROW-1 to ROW-n and scans pixel signals.

ROW−1からROW−nは、選択トランジスタ2002を動作させるための選択線である。ここで、後ろの数字は画面上部からの昇順の行番号を表し、全行数をnとしている。   ROW-1 to ROW-n are selection lines for operating the selection transistor 2002. Here, the subsequent numbers represent line numbers in ascending order from the top of the screen, and the total number of lines is n.

2005は、垂直信号線2003の信号を受け、デジタル信号に変換するAD変換器(以下、ADCと記す)である。2006は、デジタル信号に変換された画素信号を出力セレクタ2007に出力するための水平走査回路である。2007は、水平走査回路2006からの信号の出力先を切り替える出力セレクタである。読み出す画素が画像用画素であるか焦点検出用画素であるかに応じて、出力先を第1のストリームと第2のストリームの間で選択して撮像信号を出力する。   Reference numeral 2005 denotes an AD converter (hereinafter referred to as an ADC) which receives the signal of the vertical signal line 2003 and converts it into a digital signal. Reference numeral 2006 denotes a horizontal scanning circuit for outputting a pixel signal converted into a digital signal to the output selector 2007. An output selector 2007 switches the output destination of the signal from the horizontal scanning circuit 2006. An output destination is selected between the first stream and the second stream depending on whether the pixel to be read out is an image pixel or a focus detection pixel, and an imaging signal is output.

図3は、本実施例に係る撮像素子1002の画素の配列構造と光学部1001との関係を模式的に示す図である。同図において、図2に対応する部分には、図2と同じ符号を付して示す。図3(a)、(b)、(c)、(d)は、本実施例に係る画像用画素2001−1の配列構造と焦点検出用画素2001−2、2001−3と光学部1001との関係を模式的に示す図である。また、図3(e)および(f)は、後述する第2の実施例に係る画素の配列構造と光学部1001との関係を模式的に示す図である。なお、第2の実施例に係る画素は、画像信号および焦点検出信号いずれの信号も生成可能である画素である。   FIG. 3 is a view schematically showing the relationship between the arrangement of pixels of the image sensor 1002 and the optical unit 1001 according to this embodiment. In the figure, parts corresponding to those in FIG. 2 are denoted by the same reference numerals as in FIG. FIGS. 3A, 3 B, 3 C and 3 D show the array structure of the image pixels 2001-1 according to the present embodiment, the focus detection pixels 2001-2 and 2001-3, and the optical unit 1001. It is a figure which shows typically the relationship of. FIGS. 3E and 3F schematically show the relationship between the arrangement of pixels and the optical unit 1001 according to the second embodiment to be described later. The pixel according to the second embodiment is a pixel capable of generating both an image signal and a focus detection signal.

本実施例における画素部の画素配列は、2×2の4画素を単位とし、その対角2画素にG(緑色)の分光感度を有する画素を配置し、他の2画素にR(赤色)とB(青色)の分光感度を有する画素を各1個配置したベイヤー配列を採用している。そして、ベイヤー配列の画像用画素の間に、後述する構造の焦点検出用画素を所定の規則に従って分散配置することで画素部の画素配列を構成している。   The pixel array of the pixel section in the present embodiment has a unit of 4 pixels of 2 × 2, and a pixel having a spectral sensitivity of G (green) is arranged on two diagonal pixels thereof, and R (red) is arranged on the other 2 pixels. A Bayer array is employed in which one pixel having spectral sensitivity of B and B (blue) is arranged. Then, the pixel array of the pixel section is configured by dispersively arranging focus detection pixels having a structure to be described later according to a predetermined rule between the image pixels of the Bayer array.

図3(a)、(b)は、画像用画素の配列構造と光学部1001との関係を模式的に示す図である。図3(a)は、2×2の画像用画素の平面図であり、図3(b)は、図3(a)の断面A−Aを示す。   FIGS. 3A and 3B schematically show the relationship between the arrangement structure of image pixels and the optical unit 1001. FIG. 3 (a) is a plan view of a 2 × 2 image pixel, and FIG. 3 (b) shows a cross section A-A of FIG. 3 (a).

図3(a)に示すごとく、ベイヤー配列では対角方向の2画素にG画素が、他の2画素にRとBの画素が配置され、この2行×2列の構造が繰り返されて画素部を構成している。図3(b)において、MLは各画素の最前面に配置されたオンチップマイクロレンズ、CFRはRのカラーフィルタ、CFGはGのカラーフィルタである。また、PDは、図2(a)のCMOSセンサーの画素の光電変換部を模式的に示したもの、CLはCMOSセンサー内の各種信号を伝達する信号線を形成する配線層、TLは光学部1001の撮影光学系を模式的に示したものである。   As shown in FIG. 3A, in the Bayer arrangement, G pixels are arranged in two diagonal pixels, and R and B pixels are arranged in the other two pixels, and the structure of 2 rows × 2 columns is repeated. Make up the department. In FIG. 3B, ML is an on-chip micro lens disposed at the front of each pixel, CFR is a color filter of R, and CFG is a color filter of G. Further, PD schematically shows the photoelectric conversion portion of the pixel of the CMOS sensor of FIG. 2A, CL denotes a wiring layer forming a signal line for transmitting various signals in the CMOS sensor, and TL denotes an optical portion 10 schematically shows a photographing optical system 1001.

ここで、画像用画素のオンチップマイクロレンズMLと光電変換部PDは、撮影光学系TLを通過した光束を可能な限り有効に取り込むように構成されている。換言すると、撮影光学系TLの射出瞳EPと光電変換部PDは、マイクロレンズMLにより共役関係にあり、かつ光電変換部の有効面積は大面積に設計される。   Here, the on-chip microlens ML of the image pixel and the photoelectric conversion unit PD are configured to take in the light flux that has passed through the photographing optical system TL as effectively as possible. In other words, the exit pupil EP of the photographing optical system TL and the photoelectric conversion unit PD are in a conjugate relationship by the microlens ML, and the effective area of the photoelectric conversion unit is designed to be large.

また、図3(b)ではR画素の入射光のみを示しているが、G画素及びB画素も同一の構造となっている。従って、画像用のRGB各画素に対応した射出瞳EPは大径となり、被写体からの光束を効率よく取り込んで画像信号のS/Nを向上させている。   Further, although only the incident light of the R pixel is shown in FIG. 3B, the G pixel and the B pixel also have the same structure. Therefore, the exit pupil EP corresponding to each pixel of RGB for image has a large diameter, and the luminous flux from the subject is efficiently taken in to improve the S / N of the image signal.

図3(c)、(d)は、撮影レンズの水平方向(図の横方向)に瞳分割(瞳領域の分割)を行うための焦点検出用画素の配列構造と光学部1001との関係を模式的に示す図である。図3(d)は、図3(c)の断面B−bを示し、同図において、マイクロレンズMLと光電変換部PDは、図3(b)に示した画像用画素と同一構造を有する。   3C and 3D show the relationship between the arrangement of focus detection pixels and the optical unit 1001 for performing pupil division (division of the pupil region) in the horizontal direction (lateral direction in the drawing) of the photographing lens. It is a figure shown typically. FIG. 3D shows a cross section B-b in FIG. 3C, in which the microlens ML and the photoelectric conversion unit PD have the same structure as the image pixel shown in FIG. 3B. .

本実施例においては、図3(c)に示すように、ベイヤー配列の単位である2行×2列の画素のうち(例えば図2(a)のROW−3とROW−4の2×2画素)、G画素は画像用画素として残し、RとBの画素を焦点検出用画素として形成している。これらの焦点検出用画素を、図3(c)において画素SA及び画素SBとして示す。ここで、画素SAは第2の画素2001−2に相当し、画素SBは第3の画素2001−3に相当する。   In the present embodiment, as shown in FIG. 3C, of the 2 rows × 2 columns of pixels which are units of Bayer arrangement (for example, 2 × 2 of ROW-3 and ROW-4 of FIG. 2A). Pixels) and G pixels are left as image pixels, and R and B pixels are formed as focus detection pixels. These focus detection pixels are shown as a pixel SA and a pixel SB in FIG. 3C. Here, the pixel SA corresponds to the second pixel 2001-2, and the pixel SB corresponds to the third pixel 2001-3.

なお、本実施例においては、焦点検出用画素の画素信号は画像表示または画像記録に用いられないので、受光感度を向上させるため色分離用カラーフィルタの代わりに透明膜CFWAおよびCFWBを配置している。   In the present embodiment, since the pixel signal of the focus detection pixel is not used for image display or image recording, transparent films CFWA and CFWB are disposed instead of the color separation color filter in order to improve the light reception sensitivity. There is.

また、撮像素子で瞳分割を行なうために、配線層CLの開口部はマイクロレンズMLの中心線に対して水平方向の一方向にシフトされていて、画素に入射する光の方向を制限している。具体的には、画素SAの開口部OPHAは図の右側にシフトしているため、撮影レンズTL1の左側の射出瞳EPH1Aを通過した光束を受光する。同様に、画素SBの開口部OPHBは左側にシフトしているため、撮影レンズTL1の右側の射出瞳EPH1Bを通過した光束を受光する。画素SAを水平方向(画素配列の行方向)に規則的に配列し、これらの画素で取得した被写体像をA像とする。また、画素SBも水平方向に規則的に配列し、これらの画素で取得した被写体像をB像とすると、A像とB像の相対位置を検出することで、被写体像のピントずれ量(デフォーカス量)が検出できる。   In addition, in order to perform pupil division by the imaging element, the opening of the wiring layer CL is shifted in one direction horizontal to the center line of the microlens ML to restrict the direction of light incident on the pixel. There is. Specifically, since the opening part OPHA of the pixel SA is shifted to the right in the figure, the light flux which has passed through the exit pupil EPH1A on the left side of the photographing lens TL1 is received. Similarly, since the opening OPHB of the pixel SB is shifted to the left, the light beam passing through the exit pupil EPH1B on the right side of the photographing lens TL1 is received. The pixels SA are regularly arranged in the horizontal direction (row direction of the pixel array), and an object image acquired by these pixels is an A image. In addition, assuming that the pixels SB are also regularly arranged in the horizontal direction, and the subject image acquired by these pixels is the B image, the relative position of the A and B images is detected to obtain the defocus amount of the subject image ( The focus amount can be detected.

また、垂直方向(同じく列方向)のピントずれ量を検出したい場合には、画素SAおよびその開口部OPHAを上側に、SBおよびその開口部OPHBを下側にシフトさせて構成すればよい。   Further, when it is desired to detect the focus shift amount in the vertical direction (in the same column direction), the pixel SA and its opening OPHA may be shifted upward and the SB and its opening OPHB may be shifted downward.

なお、焦点検出用画素の配置構成は図2(a)に限るものではなく、1行の全ての画素を画素SAと画素SBで構成してもよい。   The arrangement configuration of the focus detection pixels is not limited to that shown in FIG. 2A, and all pixels in one row may be configured by the pixels SA and the pixels SB.

図4は、本実施例に係る撮像装置の画素信号の読み出し動作のタイミングチャートである。ここでは、第1のストリームと第2のストリームの両方が動作している状態での画素信号の読み出しを、時間(t)を等間隔に区切った場合の時間t1からt21までの動作について説明する。なお、ここでは、等間隔の時間を1/480secとし、第2のストリームは焦点検出用画素を240fpsの高速で読み出し、これを基準として、画像用画素を第1のストリームから1/4倍の30fpsで読み出す。   FIG. 4 is a timing chart of the pixel signal readout operation of the imaging device according to the present embodiment. Here, reading of pixel signals in a state in which both the first stream and the second stream are operating will be described for the operation from time t1 to t21 when the time (t) is divided at equal intervals. . Here, the time of equal intervals is set to 1/480 sec, and the second stream reads out the focus detection pixels at a high speed of 240 fps, and the image pixels are divided by 1/4 from the first stream based on this. Read out at 30 fps.

図4において、t1では、画像用画素信号の読みだしを開始する。撮像素子1002の出力を画面上部(ROW−1)から画面下部(ROW−n)にかけて、逐次行単位で画素信号を読み出す。   In FIG. 4, at t1, reading of the image pixel signal is started. The output of the imaging element 1002 is read from the upper portion (ROW-1) of the screen to the lower portion (ROW-n) of the screen, and pixel signals are sequentially read in row units.

t2では、画像用画素信号の読み出しを画面下部まで完了する。さらに、t2では、画像用画素のリセットを画面上部から開始する。   At t2, readout of the image pixel signal is completed to the lower part of the screen. Furthermore, at t2, reset of the image pixels is started from the top of the screen.

t3では、画像用画素のリセットを画面下部まで完了する。t4からt8では画像用画素及び焦点検出用画素の読み出し、リセットを行わない。   At t3, the reset of the image pixels is completed to the lower part of the screen. From t4 to t8, readout and reset of the image pixel and the focus detection pixel are not performed.

次に、t9では、画像用画素信号の読み出しを画面上部から開始する。さらに、t9では、焦点検出用画素のリセットを画面上部から開始する。   Next, at t9, readout of the image pixel signal is started from the top of the screen. Furthermore, at t9, reset of focus detection pixels is started from the top of the screen.

次に、t10では、画像用画素信号の読み出しを画面下部まで完了するとともに、画像用画素のリセットを画面上部から開始する。さらに、t10では、焦点検出用画素のリセットを画面下部まで完了し、焦点検出用画素信号の読み出しを画面上部から開始する。   Next, at t10, readout of the image pixel signal is completed to the lower part of the screen, and reset of the image pixels is started from the upper part of the screen. Furthermore, at t10, reset of the focus detection pixels is completed to the lower part of the screen, and readout of the focus detection pixel signals is started from the upper part of the screen.

次に、t11では、画像用画素のリセットを画面下部まで完了する。さらに、t11では、焦点検出用画素信号の読み出しを画面下部まで完了するとともに、焦点検出用画素のリセットを画面上部から開始する。   Next, at t11, reset of the image pixels is completed to the lower part of the screen. Furthermore, at t11, readout of the focus detection pixel signal is completed to the lower part of the screen, and reset of the focus detection pixels is started from the upper part of the screen.

次に、t12では、焦点検出用画素信号の読み出しを画面上部から開始するとともに、焦点検出用画素のリセットを画面下部まで完了する。   Next, at t12, readout of the focus detection pixel signal is started from the top of the screen, and reset of the focus detection pixels is completed to the bottom of the screen.

t13では、焦点検出用画素信号の読み出しを画面下部まで完了するとともに、焦点検出用画素のリセットを画面上部から開始する。   At t13, readout of the focus detection pixel signal is completed to the lower part of the screen, and reset of the focus detection pixels is started from the upper part of the screen.

t14ではt12と同様な動作を行い、t15ではt13と同様な動作を行い、t16ではt14と同様な動作を行う。   The same operation as t12 is performed at t14, the same operation as t13 is performed at t15, and the same operation as t14 is performed at t16.

次に、t17では、焦点検出用画素のリセットを画面下部まで完了し、画像用画素信号の読み出しを画面上部から開始する。以下、画像用画素信号の読み出しを第1のストリームから行う。   Next, at t17, reset of the focus detection pixels is completed to the lower part of the screen, and readout of image pixel signals is started from the upper part of the screen. Thereafter, readout of the image pixel signal is performed from the first stream.

次に、t18ではt2と同様な動作を行い、t19ではt3と同様な動作を行い、t20ではt4と同様な動作を行い、t21ではt5と同様な動作を行う。   Next, an operation similar to t2 is performed at t18, an operation similar to t3 is performed at t19, an operation similar to t4 is performed at t20, and an operation similar to t5 is performed at t21.

このように本実施例では、t9からt17までの必要な期間のみにおいて第2のストリームを動作させて焦点検出用画素を短時間で読み出すことにより、高精度なAFの実現を可能としている。   As described above, in this embodiment, the second stream is operated only during the necessary period from t9 to t17 to read out the focus detection pixels in a short time, so that high precision AF can be realized.

なお、図3(c)の画素配列の場合(例えば図2(a)のROW−3、ROW−4)、1行の全ての列の画素信号を出力した場合、第2のストリームの出力には焦点検出用画素の信号のほか、画像用画素信号も含まれる。このように出力セレクタ2009より出力しても良いが、水平走査回路2008により第2の画素および第3の画素の信号のみを選択的に出力すれば、第2のストリームの出力画素数が減少し、そのフレームレートを向上させることが可能となる。特に、静止画撮影前のオートフォーカスなど高精度なAFが必要となる場合には、上記のように第2の画素および第3の画素の信号のみを出力することにより、フレームレートの向上によりサンプリング数が増え、高精度なAFが可能となる。   In the case of the pixel array in FIG. 3C (for example, ROW-3 and ROW-4 in FIG. 2A), when pixel signals of all the columns in one row are output, the second stream is output. In addition to the signal of the focus detection pixel, the image pixel signal is also included. As described above, although the output from the output selector 2009 may be used, if only the signals of the second pixel and the third pixel are selectively output by the horizontal scanning circuit 2008, the number of output pixels of the second stream is reduced. The frame rate can be improved. In particular, when high precision AF such as auto focus before still image shooting is required, sampling is performed by improving the frame rate by outputting only the signal of the second pixel and the third pixel as described above. The number increases, and high precision AF becomes possible.

また、本実施例の撮像素子の画素部では、垂直信号線2003から出力セレクタ2007までを第1のストリームと第2のストリームで共有しているため、画像用画素の読み出しと焦点検出用画素の読み出し期間は重ねない。   Further, in the pixel portion of the image pickup element of this embodiment, since the first signal stream and the second signal stream share the vertical signal line 2003 to the output selector 2007, the readout of the image pixel and the focus detection pixel are performed. The readout periods do not overlap.

また、図4ではt9で焦点検出用画素のリセット動作を行っているが、そのタイミングを、ここでは説明の簡単化のために画像用画素の信号の読み出しと同じタイミングとした。しかし実際上、適正露光条件に応じて露光時間が変化させるためにリセットタイミングをシフトさせても問題ない。   Further, in FIG. 4, the reset operation of the focus detection pixel is performed at t9, but the timing thereof is the same timing as the readout of the signal of the image pixel here for simplification of the description. However, in practice, there is no problem if the reset timing is shifted in order to change the exposure time according to the appropriate exposure condition.

また、複数フレーム分(複数回の露光)の焦点検出用画素の信号を用いて、メディアン処理や加算平均化処理および複数フレーム分の信号値バラツキ(分散:σ)から1σを外れる信号を除いた平均化処理を行うなどの手法をとることにより、AFの精度を向上させることが可能となる。   In addition, using signals of focus detection pixels for a plurality of frames (a plurality of exposures), signals outside 1σ are excluded from median processing, addition averaging processing, and signal value variations (dispersion: σ) for a plurality of frames. It is possible to improve the accuracy of AF by adopting a method such as performing averaging processing.

また、複数フレーム分の焦点検出用画素の信号を取得する時にISレンズを動作させ、画素ピッチに対して位相のずれた信号取得を行うことで、空間分解能を向上させてAFの精度を向上させることが可能となる。   In addition, when acquiring signals of focus detection pixels for a plurality of frames, the IS lens is operated to acquire signals shifted in phase with respect to the pixel pitch, thereby improving spatial resolution and improving AF accuracy. It becomes possible.

さらには上述のように、第1のストリームのフレームレートを第2のストリームの整数分の1とすることで、電気回路上扱いやすいタイミングの設計が可能となる。   Furthermore, as described above, by setting the frame rate of the first stream to be an integral fraction of the second stream, it becomes possible to design an easy-to-handle timing on the electric circuit.

上述したように構成された本実施例の撮像装置1000における撮影動作について図5を用いて説明する。図5は、本実施例に係る撮像装置1000の撮影動作のフローチャートを示す図である。本撮影動作は、CPU1004がROM1005に記憶されているプログラムを実行して装置1000の各部の動作を制御することで実現される。   The photographing operation of the imaging apparatus 1000 of this embodiment configured as described above will be described with reference to FIG. FIG. 5 is a diagram showing a flowchart of the photographing operation of the imaging apparatus 1000 according to the present embodiment. The photographing operation is realized by the CPU 1004 executing a program stored in the ROM 1005 to control the operation of each unit of the apparatus 1000.

まず、ステップS5001にて撮像装置1000の電源が投入されると、撮像装置が起動される。   First, when the imaging apparatus 1000 is powered on in step S5001, the imaging apparatus is activated.

ステップS5002では、撮像装置の動作モードに従ってライブビュー(または動画記録)が開始されると、CPU1004による制御の下で各ライブビュー制御パラメータを初期化して画像用画素信号の読み出しを行い、処理をステップS5003に移行する。   In step S5002, when live view (or moving image recording) is started according to the operation mode of the imaging apparatus, each live view control parameter is initialized under control by the CPU 1004 to read out an image pixel signal, and processing is performed. Transfer to S5003.

ステップS5003では、CPU1004による制御の下で撮像素子から連続的に信号を読み出して逐次表示や記録を行う、いわゆるライブビュー動作を行なう。また、DSP1007とCPU1004によって構成される測光検出手段によって測光を行い、光電変換信号の蓄積時間、ゲイン、絞りなどの露光条件を決定する。   In step S5003, under the control of the CPU 1004, a so-called live view operation is performed in which signals are continuously read from the image sensor and display and recording are sequentially performed. Further, photometry is performed by a photometry detection unit configured by the DSP 1007 and the CPU 1004, and exposure conditions such as an accumulation time of a photoelectric conversion signal, a gain, and an aperture are determined.

CPU1004では、決定された絞り値に基づいて絞り1004−2を動作させて絞り駆動を行う。   The CPU 1004 operates the diaphragm 1004-2 based on the determined diaphragm value to drive the diaphragm.

ここで、ステップS5004からステップS5013による第1および第2のストリームへの読み出しパターンの切り替えについて説明する。   Here, switching of the read pattern from the first stream to the second stream from step S5004 to step S5013 will be described.

ステップS5004では、CPU1004が、不図示のレンズやカメラに設置されているAF、マニュアルフォーカス(MF)スイッチの状態に応じて、読み出し画素の選択とAF方式の選択を行う。MFが選択されている時は、焦点検出用画素の信号の読み出しは行わず、ライブビュー及び動画記録の終了の通知を待つ。AFが選択されている時は、ステップS5005へ移行する。ここで、AF/MFのモード切り替えは、メニューや焦点調節リングを動かすことによって半自動的に変更されるものなどでもよく、物理的なスイッチに限定されるものではない。   In step S5004, the CPU 1004 selects a readout pixel and selects an AF method in accordance with the state of a not-shown lens or an AF or manual focus (MF) switch installed in the camera. When the MF is selected, the signal of the focus detection pixel is not read out, and a notification of the end of live view and moving image recording is awaited. If AF is selected, the process proceeds to step S5005. Here, the AF / MF mode switching may be semi-automatically changed by moving a menu or a focusing ring, and is not limited to a physical switch.

ステップS5005では、CPU1004が、自動焦点調節機能(AF)動作を行っているか否かを判断し、AF動作を行っていない期間中は焦点検出用画素の信号の読み出しを行わず、ライブビュー及び動画記録の終了の通知を待つ。AF動作を行っている場合は、CPU1004は処理をステップS5006に進める。   In step S5005, the CPU 1004 determines whether or not the automatic focusing function (AF) operation is performed, and while the AF operation is not performed, readout of the signal of the focus detection pixel is not performed, and the live view and the moving image are performed. Wait for notification of end of recording. If the AF operation is being performed, the CPU 1004 advances the process to step S5006.

ステップS5006では、CPU1004は、現在の露光制御として設定されている絞りの状態に応じて、第2のストリームを動作させるかどうかの選択を行う。これは、絞りが所定以上絞り込まれていると、焦点検出用画素SA、SBへの入射光の位相差が小さくなり、焦点検出に適さなくなるためである。なお本実施例では、絞り込み量の閾値をF8.0としたが、これに限定されるものではない。   In step S5006, the CPU 1004 selects whether to operate the second stream according to the state of the aperture set as the current exposure control. This is because, when the stop is narrowed by a predetermined amount or more, the phase difference of the incident light to the focus detection pixels SA and SB becomes small, and the focus detection is not suitable. In the present embodiment, the threshold value of the amount of reduction is set to F8.0, but is not limited to this.

絞りがF8.0以上絞り込まれている場合は、CPU1004は処理をステップS5008へ移行する。ステップS5008では、第1のストリームからの画像データを用いてAF評価値を取得する。この際のAF評価値の取得には、例えば公知のコントラストAF技術を挙げられる。   If the aperture is narrowed by F8.0 or more, the CPU 1004 shifts the processing to step S5008. In step S5008, the AF evaluation value is acquired using the image data from the first stream. The acquisition of the AF evaluation value at this time may be, for example, a known contrast AF technique.

また、絞りがF8.0より開放側に制御されている場合は、CPU1004は処理をステップS5012に移行する。   If the aperture is controlled to the open side from F8.0, the CPU 1004 shifts the processing to step S5012.

ステップS5012では、CPU1004による制御の下で、第2のストリームの画素データを用いたAF評価値の取得を行う。また、焦点検出用画素のデータをピックアップして、撮影レンズの焦点状態を検出するために、DSP1007内の不図示の位相差検出部へも転送される。そして、この回路ブロックで、瞳分割されたSA画素群、およびSB画素群の相関演算を行い、位相差AF評価値を算出する。   In step S5012, under control of the CPU 1004, acquisition of an AF evaluation value using pixel data of the second stream is performed. Further, in order to pick up data of focus detection pixels and detect the focus state of the imaging lens, the data is also transferred to a phase difference detection unit (not shown) in the DSP 1007. Then, in this circuit block, correlation calculation of the pupil-divided SA pixel group and the SB pixel group is performed to calculate a phase difference AF evaluation value.

ステップ5013では、CPU1004は、ひとつ前のステップ(S5012またはS5008)の評価値に応じてフォーカスレンズ1001−2を駆動し、光学部1001の焦点調節を行う。   In step 5013, the CPU 1004 drives the focus lens 1001-2 according to the evaluation value of the previous step (S5012 or S5008) to adjust the focus of the optical unit 1001.

ステップS5014では、ライブビュー及び動画記録の終了が通知されると、CPU1004はライブビュー及び動画記録の終了処理を行った後、カメラは待機状態に移行する。一方、終了の通知が無い場合にはステップS5004に移行して継続してライブビュー及び動画記録処理を継続する。   In step S5014, when the end of live view and moving image recording is notified, the CPU 1004 performs an end process of live view and moving image recording, and then the camera shifts to a standby state. On the other hand, when there is no notification of the end, the process proceeds to step S5004 to continue the live view and moving image recording process.

以上、説明したように、本実施形態に依れば、焦点検出用画素のサンプリング回数を、画像信号用画素の読み出しレートに律則されずに増加させることが可能となり、AF精度の向上した撮像装置を提供することが可能となる。   As described above, according to the present embodiment, the number of times of sampling of the focus detection pixel can be increased without being restricted by the readout rate of the image signal pixel, and imaging with improved AF accuracy can be performed. It becomes possible to provide an apparatus.

さらに、ライブビュー及び動画記録時の読み出しの際に、カメラの状態に応じて、AF方式を変更することで、有効なときのみ焦点検出用画素信号を読み出すことが可能となり、消費電力を抑えることが可能となる。   Furthermore, by changing the AF method according to the state of the camera at the time of reading during live view and moving image recording, it becomes possible to read out the focus detection pixel signal only when it is effective, thereby reducing power consumption. Is possible.

以下、本発明の第2の実施例を添付の図を参照して、本実施例に係る撮像装置の構成および動作について説明する。本発明の実施例に係る撮像装置の構成は、第1の実施形例と同様であるため、ここでの説明を省略する。第1の実施例と異なるのは、撮像素子1002の画素部の構造である。以下、図2(b)および図3(e)、(f)を参照して本実施例の撮像装置を、第1の実施例との相違点に従って説明する。   Hereinafter, the configuration and operation of an imaging apparatus according to the present embodiment will be described with reference to the attached drawings, according to a second embodiment of the present invention. The configuration of the imaging apparatus according to the embodiment of the present invention is the same as that of the first embodiment, and thus the description thereof is omitted here. The difference from the first embodiment is the structure of the pixel portion of the image sensor 1002. Hereinafter, the imaging device of the present embodiment will be described according to the difference from the first embodiment with reference to FIGS. 2 (b) and 3 (e) and 3 (f).

最初に、図3(e)および(f)を参照して、本実施例に係る画素の構造について説明する。図3(e)、図3(f)は、本実施例に係る画素の配列の構造と光学部1001との関係を模式的に示す図である。   First, the structure of a pixel according to the present embodiment will be described with reference to FIGS. 3 (e) and 3 (f). FIGS. 3E and 3F schematically show the relationship between the structure of the pixel array and the optical unit 1001 according to this embodiment.

図3(e)は、本実施例に係る撮像素子の画素配列の基本単位である2行×4列の画素の平面図である。ベイヤー配列の各色について、2つの隣接する画素(1行2列)が形成され、これら2つの画素で1つのマイクロレンズML2を共有する構成となっている。この1行×2列の画素の光電変換部とマイクロレンズML2との位置関係は、図3(f)に示すように、撮影レンズの水平方向(横方向)に瞳分割(瞳領域の分割)を行える配置構成となっている。従って、2つの画素のそれぞれは、異なる位相の画像を取得する焦点検出用画素として機能する。また、これら2つの画素の信号(同色)を加算することで、第1の実施例の画像用画素2001−1の画素信号に相当する画素信号を生成することが可能である。従って、本実施例の画素の配列構造では、全ての画素について色分離用カラーフィルタの配置が必要となる。   FIG. 3E is a plan view of 2 rows by 4 columns of pixels, which is a basic unit of the pixel array of the imaging device according to the present embodiment. For each color of the Bayer array, two adjacent pixels (one row and two columns) are formed, and these two pixels share one microlens ML2. The positional relationship between the photoelectric conversion unit of the 1 × 2 pixel and the microlens ML2 is divided into pupils in the horizontal direction (lateral direction) of the photographing lens as shown in FIG. 3F. It is an arrangement configuration that can Therefore, each of the two pixels functions as a focus detection pixel for acquiring images of different phases. Further, by adding the signals (the same color) of these two pixels, it is possible to generate a pixel signal corresponding to the pixel signal of the image pixel 2001-1 of the first embodiment. Therefore, in the pixel array structure of the present embodiment, it is necessary to dispose color filters for all pixels.

図3(f)は、図3(e)の断面C−c(隣接する2つのG画素)を示す図である。同図に示すように、マイクロレンズML2を通過した光は、瞳分割(瞳領域の分割)されて光電変換部PD2−Aと光電変換部PD2−Bに入射する。撮像素子で瞳分割を行なうため、光電変換部PD2−Aは、マイクロレンズML2の中心線に対して水平方向の一方向にシフトしている。また、光電変換部PD2−Bは、マイクロレンズML2の中心線に対して光電変換部PD2−Aと逆方向にシフトしている。   FIG. 3F is a view showing a cross section C-c (two adjacent G pixels) of FIG. 3E. As shown in the figure, light having passed through the microlens ML2 is divided into pupils (division of a pupil region) and is incident on the photoelectric conversion unit PD2-A and the photoelectric conversion unit PD2-B. In order to perform pupil division by the imaging element, the photoelectric conversion unit PD2-A is shifted in one direction in the horizontal direction with respect to the center line of the microlens ML2. The photoelectric conversion unit PD2-B is shifted in the opposite direction to the photoelectric conversion unit PD2-A with respect to the center line of the microlens ML2.

これにより、画素Gaは、撮影レンズTLの右側の射出瞳EPH2Aを通過した光束を受光する。同様に、画素Gbは、撮影レンズTLの左側の射出瞳EPH2Bを通過した光束を受光する。   Accordingly, the pixel Ga receives the light flux that has passed through the exit pupil EPH2A on the right side of the imaging lens TL. Similarly, the pixel Gb receives the light flux that has passed through the exit pupil EPH2B on the left side of the imaging lens TL.

画素Gaを水平方向に規則的に配列し、これらの画素で取得した被写体像をA像とする。また、画素Gbも水平方向に規則的に配列し、これらの画素で取得した被写体像をB像とすると、A像とB像の相対位置を検出することで、被写体像のピントずれ量(デフォーカス量)が検出できる。   The pixels Ga are regularly arranged in the horizontal direction, and an object image obtained by these pixels is an A image. In addition, assuming that the pixels Gb are also regularly arranged in the horizontal direction, and the subject image acquired by these pixels is a B image, the relative position of the A and B images is detected to obtain the defocus amount of the subject image ( The focus amount can be detected.

なお、垂直方向(縦方向)のピントずれ量を検出したい場合には、画素Gaおよび、画素Gbの配置を90度回転させて構成すればよい。   If it is desired to detect the amount of defocus in the vertical direction (longitudinal direction), the arrangement of the pixels Ga and Gb may be rotated by 90 degrees.

R画素およびB画素についても、上述したG画素と同様の構造となっている。   The R pixel and the B pixel also have the same structure as that of the G pixel described above.

図2(b)は、本実施例に係る撮像装置の撮像部の画素配列の構成を示す。なお、図2(b)おいて、要素2002から2004および2006、2007は、図2(a)と等しいため、ここでの説明は省略する。   FIG. 2B shows the configuration of the pixel array of the imaging unit of the imaging device according to the present embodiment. In FIG. 2 (b), elements 2002 to 2004 and 2006, 2007 are the same as FIG. 2 (a), so the description thereof is omitted here.

図2(b)において、配列されている全ての画素2001−4は、図3(f)に示すフォトダイオードPD2−AをマイクロレンズML2に対して水平方向にシフトさせて形成した画素であり、後述の画素2001−5の水平方向の像ずれ量を検出するための基準画素である。この画素2001−4には、例えば、図3(e)の画素Gaが相当する。   In FIG. 2B, all the arranged pixels 2001-4 are pixels formed by shifting the photodiode PD2-A shown in FIG. 3F in the horizontal direction with respect to the microlens ML2, It is a reference pixel for detecting the image shift amount of the horizontal direction of the pixel 2001-5 described later. For example, the pixel Ga in FIG. 3E corresponds to the pixel 2001-4.

2001−5は、フォトダイオードPD2−Bを画素2001−4と逆方向にシフトさせて形成した画素であり、画素2001−4との水平方向の像ずれ量を検出する画素である。この画素2001−5には、例えば図3(e)の画素Gbが相当する。   Reference numeral 2001-5 is a pixel formed by shifting the photodiode PD2-B in the opposite direction to the pixel 2001-4, and is a pixel for detecting an image shift amount in the horizontal direction with the pixel 2001-4. The pixel Gb in FIG. 3E corresponds to the pixel 2001-5, for example.

本実施例では、画素2001−4と画素2001−5の混合信号を第1のストリームから出力し、出力された混合信号はDSP1007によって画像信号として処理される。なお、本実施例では、画素2001−4と画素2001−5の信号の混合をADC2005で行なうが、詳細は公知であるため説明を省略する。   In this embodiment, the mixed signal of the pixel 2001-4 and the pixel 2001-5 is output from the first stream, and the output mixed signal is processed by the DSP 1007 as an image signal. In the present embodiment, the signals of the pixels 2001-4 and 2001-5 are mixed by the ADC 2005, but the details are known and thus the description thereof is omitted.

また、画素2001−4の信号と画素2001−5の信号は、焦点検出用画素信号として第2のストリームから個別に出力する。   The signal of the pixel 2001-4 and the signal of the pixel 2001-5 are individually output from the second stream as a focus detection pixel signal.

これにより、第1のストリームから出力される画像用画素信号は、撮影画像を生成するためにDSP1007にて第1の実施例と同様に扱われ、第2のストリームから出力される焦点検出用画素信号は、水平方向の像ずれ量を検出するために使用する。   Thus, the pixel signal for image output from the first stream is treated in the same manner as in the first embodiment by the DSP 1007 to generate a photographed image, and the pixel for focus detection output from the second stream The signal is used to detect the amount of image shift in the horizontal direction.

上述した本実施例に係る画素配列構造を有する撮像素子から構成される撮像装置のタイミングチャートは、第1の実施例と同様であるため、ここでの説明を省略する。また、本実施例に係る撮像装置の撮影動作のフローチャートも第1の実施例と同様であるため、その説明を省略する。   The timing chart of the imaging apparatus configured by the imaging element having the pixel array structure according to the present embodiment described above is the same as that of the first embodiment, and thus the description thereof is omitted here. Further, the flowchart of the photographing operation of the imaging apparatus according to the present embodiment is also the same as that of the first embodiment, and thus the description thereof will be omitted.

上記のように、本実施例のような画素配列構造においても、焦点検出用画素のサンプリング回数を、画像生成用画素の読み出しレートに律則されずに増加させることが可能となり、AF精度の向上した撮像装置を提供することが可能となる。   As described above, even in the pixel array structure as in this embodiment, the number of times of sampling of focus detection pixels can be increased without being restricted by the readout rate of image generation pixels, and AF accuracy can be improved. It is possible to provide an imaging device that

さらに、ライブビュー及び動画記録時の読み出しの際に、カメラの状態に応じて、AF方式を変更することで、有効なときのみ焦点検出用画素信号を読み出すことが可能となり、消費電力を抑えることが可能となる。   Furthermore, by changing the AF method according to the state of the camera at the time of reading during live view and moving image recording, it becomes possible to read out the focus detection pixel signal only when it is effective, thereby reducing power consumption. Is possible.

以下、本発明の第3の実施例に係る撮像装置の構成およびその動作について、図6を参照して説明する。   The configuration and operation of an imaging apparatus according to the third embodiment of the present invention will be described below with reference to FIG.

本実施形例に係る撮像装置の構成は、第1の実施例と同様であり、撮像部の画素構成は第2の実施例と同様であり、また光学部の構成は第2の実施例と同様であり、撮像装置のタイミングチャートは第1の実施例と同様であるため、これらの説明をここでは省略する。   The configuration of an imaging apparatus according to this embodiment is the same as that of the first embodiment, the pixel configuration of the imaging unit is the same as that of the second embodiment, and the configuration of the optical unit is the same as that of the second embodiment. The same is true, and the timing chart of the imaging apparatus is the same as that of the first embodiment, and therefore the description thereof is omitted here.

以上のように構成された本実施例に係る撮像装置における撮影動作について、図6を用いて説明する。   The photographing operation of the imaging apparatus according to the present embodiment configured as described above will be described with reference to FIG.

図6は、本実施例に係る撮像装置の撮影動作のフローチャートを示す図である。同図において、図5と同じ部分は同じ符号を付して示し、特に必要がない限りここで説明を省略する。   FIG. 6 is a diagram showing a flowchart of the photographing operation of the imaging device according to the present embodiment. In the figure, the same parts as those in FIG. 5 are denoted by the same reference numerals, and the description thereof will be omitted here unless particularly required.

まず、ステップS6001にて撮像装置の電源が投入され撮像装置が駆動される。その後、ステップS5002からステップS5006までの動作が行われるが、これらは第1の実施例と同様であるのでここでの説明は省略する。本実施例では、ステップS5006での判定の結果に従った読み出しパターンの切り替えについて、ステップS6004からステップS6013を用いて説明する。   First, in step S6001, the power of the imaging apparatus is turned on to drive the imaging apparatus. Thereafter, the operations from step S5002 to step S5006 are performed, but since these are the same as in the first embodiment, the description here is omitted. In this embodiment, switching of the read pattern according to the result of the determination in step S5006 will be described using steps S6004 to S6013.

ステップS5006で絞りがF8.0以上絞り込まれていると判定された場合は、ステップS5008へ移行する。ステップS5008は第1の実施例と同様の動作であり、第1のストリームからAF評価値を取得する。   If it is determined in step S5006 that the aperture is narrowed by F8.0 or more, the process proceeds to step S5008. Step S5008 is the same operation as in the first embodiment, and acquires an AF evaluation value from the first stream.

ステップS5006で絞りがF8.0より開放側に制御されていると判定された場合は、ステップS6007に移行する。なお、第1の実施例と同様に、絞り込み量の閾値はF8.0に限定されるものではない。   If it is determined in step S5006 that the aperture is controlled to be more open than F8.0, the process proceeds to step S6007. As in the first embodiment, the threshold of the amount of narrowing is not limited to F8.0.

ステップS6007では、CPU1004がAF時の拡大表示の有無を判定して動作を選択する。拡大処理の有無の判定は、例えば電子ズームに設定されている倍率に従って、撮影画像の生成に第2のストリームの画素データを用いたほうがよいかどうかを判断するなど、適宜適切な方法を用いればよい。   In step S6007, the CPU 1004 determines the presence or absence of enlarged display during AF and selects an operation. The determination of the presence / absence of enlargement processing may be performed using an appropriate method, for example, determining whether it is better to use the pixel data of the second stream for generation of the captured image according to the magnification set for the electronic zoom. Good.

拡大表示ありと判定された場合は、ステップ6009に進み、第2のストリームの出力信号を加算して画像信号として利用することで、高精細なライブビューまたは動画記録を実現する動作を行なう。他方、ステップS6007で拡大表示なしと判定された場合は、ステップS5012に進み、第2のストリームの出力を被写体までの距離検出のためにのみ利用する消費電力を優先した動作を行う。なお、ステップS5012およびS5013は第1の実施例と同様の焦点調節動作であるので、ここでの説明は省略する。   If it is determined that enlarged display is present, the process proceeds to step 6009, where the output signal of the second stream is added and used as an image signal to perform an operation for realizing high-definition live view or moving image recording. On the other hand, if it is determined in step S6007 that enlargement display is not performed, the process advances to step S5012, and the operation giving priority to power consumption using only the output of the second stream for detecting the distance to the subject is performed. Note that steps S5012 and S5013 are the same focusing operations as in the first embodiment, and thus the description thereof is omitted here.

ステップS6009では、第2のストリームから出力された焦点検出用画素信号(非加算信号)を用いてAF評価値を計算し、さらに共通のマイクロレンズML2の下に位置する焦点検出用画素の信号をDSP1007内で加算して画像信号を生成する。この際、第2のストリームの露出条件と、第1のストリームの露出条件が等しくなるだけ、第2のストリームのフレームを加算することが望ましい。例えば、第1のストリームの露光時間をフレームレート同等の1/30secとし、第2のストリームの露光時間をフレームレート同等の1/240secとした場合、同等の露光時間とするためには、第2のストリームを8フレーム分積算する。   In step S6009, the AF evaluation value is calculated using the focus detection pixel signal (non-addition signal) output from the second stream, and the signal of the focus detection pixel located below the common microlens ML2 is calculated. The addition is performed in the DSP 1007 to generate an image signal. At this time, it is desirable to add the frames of the second stream as much as the exposure conditions of the second stream and the exposure conditions of the first stream become equal. For example, if the exposure time of the first stream is 1/30 sec equal to the frame rate and the exposure time of the second stream is 1/240 sec equal to the frame rate, the second exposure time is equal to the second exposure time. Stream for 8 frames.

ステップS6010では、ステップS6009で取得したAF評価値に基づいて合焦動作を行う。   In step S6010, a focusing operation is performed based on the AF evaluation value acquired in step S6009.

ステップS6011では、ステップS6009で第2のストリームの出力を加算して生成した画像信号と第1のストリームの画像信号から高精細な画像信号を合成する。   In step S6011, a high-definition image signal is synthesized from the image signal generated by adding the outputs of the second stream in step S6009 and the image signal of the first stream.

ステップS5014では、第1の実施例と同様に、ライブビュー及び動画記録の終了が通知されると、ライブビュー及び動画記録の終了処理を行ってからカメラを待機状態に移行させる。一方、終了の通知が無い場合にはステップS5004に移行し、ライブビュー及び動画記録動作を継続する。   In step S5014, as in the first embodiment, when the end of live view and moving image recording is notified, live view and moving image recording end processing is performed, and then the camera is put in a standby state. On the other hand, if there is no notification of the end, the process proceeds to step S5004, and the live view and moving image recording operation is continued.

以上、説明したように、本実施形態によれば、第1および第2の実施例と同様の効果に加えて、焦点検出用画素信号を画像用信号として利用することにより、ライブビューの拡大表示時にも高精細な画像を表示することが可能となる。   As described above, according to the present embodiment, in addition to the same effects as in the first and second embodiments, the live view is enlarged by using the focus detection pixel signal as an image signal. Sometimes it is possible to display high definition images.

また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても達成される。すなわち、そのシステム或いは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても本件発明の目的が達成されることは言うまでもない。   The object of the present invention can also be achieved by supplying a storage medium storing program code of software for realizing the functions of the above-described embodiments to a system or apparatus. That is, it goes without saying that the object of the present invention can be achieved by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read out from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。   As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a non-volatile memory card, a ROM or the like can be used.

また、コンピュータが読み出したプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(基本システム或いはオペレーティングシステム)などが実際の処理の一部又は全部を行うことによっても前述した実施形態の機能が実現される。この場合も本件発明に含まれることは言うまでもない。   The functions of the above-described embodiments can also be implemented by performing part or all of the actual processing such as an OS (a basic system or an operating system) running on a computer based on an instruction of a program code read by the computer. To be realized. Needless to say, this case is also included in the present invention.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づく処理も本件発明に含まれる。すなわち、機能拡張ボードや機能拡張ユニットに備わるCPU等がプログラムコードの指示に基づき実際の処理の一部又は全部を行って前述した実施形態の機能を実現する場合も本件発明に含まれることは言うまでもない。   Furthermore, after the program code read out from the storage medium is written to the memory provided in the function expansion board inserted in the computer or in the function expansion unit connected to the computer, the processing based on the instruction of the program code is also the present invention. Included in the invention. That is, it goes without saying that the present invention is also included in the case where the CPU or the like provided in the function expansion board or the function expansion unit performs part or all of the actual processing based on the instructions of the program code to realize the functions of the embodiments described above. Yes.

上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、またはその主要な特徴から逸脱することなく、様々な形態で実施することができる。   The above-described embodiments are merely examples of implementation for carrying out the present invention, and the technical scope of the present invention should not be interpreted in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

Claims (17)

各々が光電変換部を備えた複数の画素と、隣接する複数の画素で共有される複数のマイクロレンズが二次元状に配置された画素配列を有する撮像手段と、
前記マイクロレンズを共有する複数の画素からフォーカスレンズを有する撮影光学系で形成された被写体像に対応する第1の画素信号を読み出し、前記マイクロレンズを共有する複数の画素の各々から前記撮影光学系の瞳領域の異なる部分領域からの被写体像に対応する第2の画素信号を読み出す読み出し手段と、
前記第1の画素信号を出力する第1の出力系と前記第2の画素信号を出力する第2の出力系とを有する出力手段と、
前記出力手段から出力される画素信号を用いて、前記フォーカスレンズの焦点調節を行うための評価値を生成する信号処理手段と
を備え、
前記読み出し手段は、前記第1の画素信号および前記第2の画素信号を、それぞれ異なる読み出しレートで読み出すことを特徴とする撮像装置。
An imaging unit having a pixel array in which a plurality of pixels each provided with a photoelectric conversion unit, and a plurality of microlenses shared by a plurality of adjacent pixels are two-dimensionally arranged;
The first pixel signal corresponding to the subject image formed by the photographing optical system having the focus lens is read out from the plurality of pixels sharing the microlens, and the photographing optical system is read from each of the plurality of pixels sharing the microlens Reading means for reading a second pixel signal corresponding to a subject image from different partial areas of the pupil area of
Output means having a first output system for outputting the first pixel signal and a second output system for outputting the second pixel signal;
Signal processing means for generating an evaluation value for performing focus adjustment of the focus lens using a pixel signal output from the output means;
The image pickup apparatus, wherein the reading unit reads the first pixel signal and the second pixel signal at different reading rates.
前記出力手段は、前記撮影光学系の状態に従って、前記第2の画素信号を出力するかどうかを決定することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the output unit determines whether to output the second pixel signal according to a state of the imaging optical system. 前記撮影光学系は絞りを有し、前記撮影光学系の状態は、前記絞りの絞り値であり、前記出力手段は、前記絞り値が所定の値より大きい場合には、前記第2の画素信号を出力しないことを特徴とする請求項2に記載の撮像装置。   The imaging optical system has an aperture, the state of the imaging optical system is the aperture value of the aperture, and the output unit is configured to output the second pixel signal when the aperture value is larger than a predetermined value. The image pickup apparatus according to claim 2, wherein the image pickup apparatus does not output 前記信号処理手段は、前記絞り値の値に従って前記出力手段が前記第2の画素信号を出力している場合は、前記第2の画素信号を用いて前記評価値を生成し、前記第2の画素信号を出力しない場合は、前記第1の画素信号を用いて前記評価値を生成することを特徴とする請求項3に記載の撮像装置。   The signal processing means generates the evaluation value using the second pixel signal when the output means outputs the second pixel signal in accordance with the value of the aperture value, and the second processing The imaging device according to claim 3, wherein the evaluation value is generated using the first pixel signal when the pixel signal is not output. 前記信号処理手段は、前記第2の画素信号を用いて前記評価値を生成する場合、複数回の露光で生成された前記第2の画素信号に加算平均化処理を行って得られた画素信号を用いて前記評価値を生成することを特徴とする請求項4に記載の撮像装置。   When the signal processing means generates the evaluation value using the second pixel signal, a pixel signal obtained by performing an averaging process on the second pixel signal generated by a plurality of exposures The image pickup apparatus according to claim 4, wherein the evaluation value is generated using. 前記信号処理手段は、前記第2の画素信号を用いて前記評価値を生成する場合、複数回の露光で生成された前記第2の画素信号にメディアン処理を行って得られた画素信号を用いて前記評価値を生成することを特徴とする請求項4に記載の撮像装置。   When the signal processing means generates the evaluation value using the second pixel signal, the signal processing means uses a pixel signal obtained by performing median processing on the second pixel signal generated by a plurality of exposures. The imaging device according to claim 4, wherein the evaluation value is generated. 前記信号処理手段は、前記第2の画素信号を用いて前記評価値を生成する場合、複数回の露光で生成された前記第2の画素信号のうち、1σを外れる画素信号を除いて平均化処理を行って得られた画素信号を用いて前記評価値を生成することを特徴とする請求項4に記載の撮像装置。   When the signal processing unit generates the evaluation value using the second pixel signal, averaging is performed except for pixel signals that deviate from 1σ among the second pixel signals generated by a plurality of exposures. The imaging device according to claim 4, wherein the evaluation value is generated using a pixel signal obtained by performing processing. 前記撮影光学系はさらにISレンズを含み、前記信号処理手段は、前記第2の画素信号を用いて前記評価値を生成する場合、前記複数回の露光を、前記ISレンズの位置をずらして行うことを特徴とする請求項5乃至7のいずれか一項に記載の撮像装置。   The imaging optical system further includes an IS lens, and the signal processing unit performs the plurality of exposures by shifting the position of the IS lens when the evaluation value is generated using the second pixel signal. The imaging device according to any one of claims 5 to 7, characterized in that: 前記信号処理手段で生成された前記評価値に従って前記フォーカスレンズを駆動する焦点調節手段をさらに備えることを特徴とする請求項5乃至8のいずれか一項に記載の撮像装置。   The image pickup apparatus according to any one of claims 5 to 8, further comprising focusing means for driving the focusing lens according to the evaluation value generated by the signal processing means. 前記出力手段は、前記マイクロレンズを共有する複数の画素から読み出された画素信号を加算して前記第1の画素信号として出力し、前記マイクロレンズを共有する複数の画素の所定の画素の画素信号を前記第2の画素信号として出力することを特徴とする請求項1乃至9のいずれか一項に記載の撮像装置。   The output means adds pixel signals read from a plurality of pixels sharing the micro lens and outputs the added signal as the first pixel signal, and a pixel of a predetermined pixel of the plurality of pixels sharing the micro lens The imaging device according to any one of claims 1 to 9, wherein a signal is output as the second pixel signal. 前記第1の画素信号で生成される撮影画像の電子ズームを行う電子ズーム手段を有し、
前記電子ズーム手段の拡大の倍率に基づいて、前記撮影画像を前記第1の画素信号および前記第2の画素信号から生成するかどうかを決定することを特徴とする請求項10に記載の撮像装置。
And electronic zoom means for performing electronic zoom of a photographed image generated by the first pixel signal ,
Based on the ratio of expansion of the electronic zooming unit, the image pickup apparatus according to the captured image to claim 10, wherein determining whether to generate from the first pixel signal and the second pixel signal .
前記第1の画素信号で生成される撮影画像の電子ズームを行う電子ズーム手段を有し、
前記電子ズーム手段の拡大の倍率に基づいて、前記撮影画像を前記第1の画素信号および前記第2の画素信号から生成するかどうかを決定し、
前記撮影画像を前記第1の画素信号および前記第2の画素信号から生成すると決定した場合は、前記信号処理手段は、前記マイクロレンズに対応する複数の画素から読み出された前記第2の画素信号を加算し、加算された前記第2の画素信号と前記第1の画素信号から前記撮影画像を生成することを特徴とする請求項10に記載の撮像装置。
And electronic zoom means for performing electronic zoom of a photographed image generated by the first pixel signal ,
On the basis of the magnification of expansion of the electronic zoom means, and determining the photographed image whether to generate from the first pixel signal and the second pixel signal,
When it is determined that the photographed image is to be generated from the first pixel signal and the second pixel signal, the signal processing unit is configured to read the second pixel read from a plurality of pixels corresponding to the microlens. 11. The image pickup apparatus according to claim 10, wherein signals are added, and the photographed image is generated from the added second pixel signal and the first pixel signal.
各々が光電変換部を備えた複数の画素と、隣接する複数の画素で共有される複数のマイクロレンズが二次元状に配置された画素配列を有する撮像手段と、第1の出力系と第2の出力系を有する出力手段とを備える撮像装置の制御方法であって、
前記マイクロレンズを共有する複数の画素からフォーカスレンズを有する撮影光学系で形成された被写体像に対応する第1の画素信号を読み出し、前記マイクロレンズを共有する複数の画素の各々から前記撮影光学系の瞳領域の異なる部分領域からの被写体像に対応する第2の画素信号を読み出す読み出しステップと、
前記第1の出力系から前記第1の画素信号を出力し、前記第2の出力系から前記第2の画素信号を出力する出力ステップと、
前記出力ステップにおいて出力された画素信号を用いて、前記フォーカスレンズの焦点調節を行うための評価値を生成するステップとを備え、
前記読み出し手段は、前記第1の画素信号と前記第2の画素信号を、それぞれ異なる読み出しレートで読み出すことを特徴とする撮像装置の制御方法。
An imaging unit having a pixel array in which a plurality of pixels each provided with a photoelectric conversion unit and a plurality of microlenses shared by a plurality of adjacent pixels are two-dimensionally arranged; a first output system and a second A control method of an image pickup apparatus comprising: output means having an output system of
The first pixel signal corresponding to the subject image formed by the photographing optical system having the focus lens is read out from the plurality of pixels sharing the microlens, and the photographing optical system is read from each of the plurality of pixels sharing the microlens Reading out a second pixel signal corresponding to a subject image from different partial areas of the pupil area of
Outputting the first pixel signal from the first output system and outputting the second pixel signal from the second output system;
Generating an evaluation value for performing focus adjustment of the focus lens using the pixel signal output in the output step;
The control method of an image pickup apparatus, wherein the reading means reads the first pixel signal and the second pixel signal at different reading rates.
各々が光電変換部を備えた複数の画素と、隣接する複数の画素で共有される複数のマイクロレンズが二次元状に配置された画素配列を有する撮像手段を備える撮像装置を制御するためのプログラムであって、
コンピュータを、
前記マイクロレンズを共有する複数の画素からフォーカスレンズを有する撮影光学系で形成された被写体像に対応する第1の画素信号を読み出し、前記マイクロレンズを共有する複数の画素の各々から前記撮影光学系の瞳領域の異なる部分領域からの被写体像に対応する第2の画素信号を、読み出す読み出し手段、
前記第1の画素信号を出力する第1の出力系と前記第2の画素信号を出力する第2の出力系とを有する出力手段、
前記出力手段から出力される画素信号を用いて、前記フォーカスレンズの焦点調節を行うための評価値を生成する信号処理手段
として機能させ、
前記読み出し手段は、前記第1の画素信号および前記第2の画素信号を、それぞれ異なる読み出しレートで読み出すように機能させるプログラム。
Program for controlling an imaging device including an imaging unit having a pixel array in which a plurality of pixels each including a photoelectric conversion unit and a plurality of microlenses shared by a plurality of adjacent pixels are two-dimensionally arranged And
Computer,
The first pixel signal corresponding to the subject image formed by the photographing optical system having the focus lens is read out from the plurality of pixels sharing the microlens, and the photographing optical system is read from each of the plurality of pixels sharing the microlens Readout means for reading out a second pixel signal corresponding to an object image from a different partial area of the pupil area of
An output unit having a first output system for outputting the first pixel signal and a second output system for outputting the second pixel signal;
It functions as a signal processing unit that generates an evaluation value for performing focus adjustment of the focus lens using a pixel signal output from the output unit.
The program that causes the reading unit to read the first pixel signal and the second pixel signal at different reading rates.
請求項14に記載のプログラムを記録したコンピュータが読み取り可能な記憶媒体。   The computer-readable storage medium which recorded the program of Claim 14. コンピュータを、請求項1乃至12のいずれか一項に記載された撮像装置の各手段として機能させるプログラム。   A program that causes a computer to function as each unit of the imaging device according to any one of claims 1 to 12. コンピュータを、請求項1乃至12のいずれか一項に記載された撮像装置の各手段として機能させるプログラムを格納した記憶媒体。   A storage medium storing a program that causes a computer to function as each unit of the imaging device according to any one of claims 1 to 12.
JP2013257168A 2013-12-12 2013-12-12 Image pickup apparatus, control method thereof and control program Active JP6525498B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013257168A JP6525498B2 (en) 2013-12-12 2013-12-12 Image pickup apparatus, control method thereof and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013257168A JP6525498B2 (en) 2013-12-12 2013-12-12 Image pickup apparatus, control method thereof and control program

Publications (3)

Publication Number Publication Date
JP2015114544A JP2015114544A (en) 2015-06-22
JP2015114544A5 JP2015114544A5 (en) 2017-01-26
JP6525498B2 true JP6525498B2 (en) 2019-06-05

Family

ID=53528376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013257168A Active JP6525498B2 (en) 2013-12-12 2013-12-12 Image pickup apparatus, control method thereof and control program

Country Status (1)

Country Link
JP (1) JP6525498B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6573730B2 (en) * 2016-11-09 2019-09-11 富士フイルム株式会社 Imaging apparatus, imaging method, and imaging program
WO2020183947A1 (en) * 2019-03-13 2020-09-17 富士フイルム株式会社 Imaging element, imaging device, method for operating imaging element, and program
CN112859327B (en) * 2019-11-27 2022-10-18 成都理想境界科技有限公司 Image output control method and optical fiber scanning imaging system

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5678811A (en) * 1979-12-03 1981-06-29 Ricoh Co Ltd Automatic focus controlling device
JPH11258491A (en) * 1998-03-10 1999-09-24 Canon Inc Focus detecting device and its method and storage medium readable through computer
JPH11317904A (en) * 1998-05-01 1999-11-16 Canon Inc Image pickup device and its control method
JP4324990B2 (en) * 1998-08-12 2009-09-02 株式会社ニコン Focus detection device
JP3774597B2 (en) * 1999-09-13 2006-05-17 キヤノン株式会社 Imaging device
JP2007150643A (en) * 2005-11-28 2007-06-14 Sony Corp Solid state imaging element, driving method therefor, and imaging apparatus
JP4946313B2 (en) * 2006-09-27 2012-06-06 株式会社ニコン Imaging device
JP5264131B2 (en) * 2007-09-14 2013-08-14 キヤノン株式会社 Imaging device
JP5266704B2 (en) * 2007-10-01 2013-08-21 株式会社ニコン Solid-state imaging device
JP5194688B2 (en) * 2007-10-01 2013-05-08 株式会社ニコン Solid-state imaging device
JP5504874B2 (en) * 2009-02-23 2014-05-28 株式会社ニコン Imaging device and imaging apparatus
JP2012118154A (en) * 2010-11-30 2012-06-21 Canon Inc Imaging device
JP5896603B2 (en) * 2011-02-14 2016-03-30 キヤノン株式会社 Imaging apparatus and image processing apparatus
JP5714931B2 (en) * 2011-02-15 2015-05-07 オリンパス株式会社 Imaging device
JP5817154B2 (en) * 2011-03-10 2015-11-18 株式会社ニコン Imaging device
JP2013108930A (en) * 2011-11-24 2013-06-06 Seiko Epson Corp Inertia navigation operation method and inertia navigation operation device
JP2013218031A (en) * 2012-04-05 2013-10-24 Canon Inc Imaging apparatus
JP5527368B2 (en) * 2012-07-10 2014-06-18 株式会社ニコン Digital camera

Also Published As

Publication number Publication date
JP2015114544A (en) 2015-06-22

Similar Documents

Publication Publication Date Title
US8964061B2 (en) Image capturing apparatus with selection of thinning and readout mode in accordance with moving image recording mode
JP5241355B2 (en) Imaging apparatus and control method thereof
EP2181349B1 (en) Image sensing apparatus
US20120236185A1 (en) Image processing apparatus, image processing method, and program
JP5954933B2 (en) Imaging device and lens device
JP2010219958A (en) Imaging apparatus
JP5911252B2 (en) Imaging apparatus and image processing method
JP6442362B2 (en) Image pickup apparatus and image pickup element control method
JP6525498B2 (en) Image pickup apparatus, control method thereof and control program
US11171169B2 (en) Image sensor, imaging device and imaging method
JP2013113857A (en) Imaging device, and control method therefor
JP2018081224A (en) Imaging device and control method thereof
JP2013021616A (en) Imaging apparatus
JP5864989B2 (en) Imaging device and imaging apparatus
JP6516016B2 (en) Imaging apparatus and image processing apparatus
US20230199342A1 (en) Imaging device and imaging method
JP2016018034A (en) Imaging device, control method of the same, program and recording medium
JP7307837B2 (en) IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM
US11202015B2 (en) Control apparatus and control method
WO2021241014A1 (en) Imaging device and imaging method
JP5402329B2 (en) Imaging unit, electronic camera
JP2016225848A (en) Imaging device and control method for image pickup device
JP6254780B2 (en) Focus detection apparatus and method, and imaging apparatus
JP2014222268A (en) Imaging device and imaging device control method
JP2011188172A (en) Imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171106

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20171214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R151 Written notification of patent or utility model registration

Ref document number: 6525498

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151