JP2015216519A - Imaging device, and control method therefor - Google Patents
Imaging device, and control method therefor Download PDFInfo
- Publication number
- JP2015216519A JP2015216519A JP2014098628A JP2014098628A JP2015216519A JP 2015216519 A JP2015216519 A JP 2015216519A JP 2014098628 A JP2014098628 A JP 2014098628A JP 2014098628 A JP2014098628 A JP 2014098628A JP 2015216519 A JP2015216519 A JP 2015216519A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- phase difference
- signal
- readout
- focus detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 88
- 238000000034 method Methods 0.000 title claims description 20
- 238000001514 detection method Methods 0.000 claims abstract description 165
- 230000003287 optical effect Effects 0.000 claims abstract description 29
- 210000001747 pupil Anatomy 0.000 claims abstract description 20
- 238000006243 chemical reaction Methods 0.000 claims abstract description 18
- 230000007246 mechanism Effects 0.000 abstract description 18
- 230000004907 flux Effects 0.000 abstract description 3
- 230000000593 degrading effect Effects 0.000 abstract description 2
- 239000003990 capacitor Substances 0.000 description 25
- 238000012546 transfer Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 11
- 238000007906 compression Methods 0.000 description 8
- 230000006835 compression Effects 0.000 description 8
- 230000006837 decompression Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 2
- 238000009792 diffusion process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- ORQBXQOJMQIAOY-UHFFFAOYSA-N nobelium Chemical compound [No] ORQBXQOJMQIAOY-UHFFFAOYSA-N 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004587 chromatography analysis Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- CNQCVBJFEGMYDW-UHFFFAOYSA-N lawrencium atom Chemical compound [Lr] CNQCVBJFEGMYDW-UHFFFAOYSA-N 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000004611 spectroscopical analysis Methods 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、例えばデジタルカメラやデジタルビデオカメラ等の撮像装置における撮像素子を用いた位相差検出方式による焦点検出技術に関する。 The present invention relates to a focus detection technique based on a phase difference detection method using an imaging element in an imaging apparatus such as a digital camera or a digital video camera.
デジタルカメラやデジタルビデオカメラ等の撮像装置では、高解像度が要求され、撮像素子の高画素化が進んでいる。ところで、このような高解像度の撮像装置においても、動画撮像や静止画撮像前のモニタリングなど、高速読み出しが要求されたり、低解像度でよい場合には、低画素数で撮像するのが一般的である。 Imaging devices such as digital cameras and digital video cameras are required to have high resolution, and the number of pixels in the imaging device is increasing. By the way, even in such a high-resolution imaging apparatus, when high-speed readout is required, such as monitoring before moving image capturing or still image capturing, or when low resolution is sufficient, it is common to capture with a low number of pixels. is there.
被写体を描写して理想に近い被写体画像を得る為には、所望の画素数を所望のフレーム速度(フレームレート) にて撮像したいが、現実的には画素数とフレーム速度との関係には、限界がある。仮に、フレーム速度が限定されない撮像であれば、撮像領域の画素から画像信号を読み出すのに要する時間である画素読み出し時間を無視できるので、撮像素子の有効画素に対して全画素の信号を読み出すことが可能になる。一方、フレーム速度が限定される場合には、画素読み出し時間を無視できないので、撮像素子の有効画素に対して全画素の信号読み出しをすることができない可能性がある。特に、高画素の撮像素子における高速フレーム撮像などのように、1フレームあたりの画素信号の読み出し時間が密に詰まっている撮像システムではこの問題が顕著となる。 In order to draw a subject and obtain a near-ideal subject image, we want to capture the desired number of pixels at the desired frame rate (frame rate), but in reality the relationship between the number of pixels and the frame rate is There is a limit. If the frame rate is not limited, the pixel readout time, which is the time required to read out the image signal from the pixels in the imaging area, can be ignored, so that the signals of all pixels are read out from the effective pixels of the image sensor. Is possible. On the other hand, when the frame rate is limited, since the pixel readout time cannot be ignored, there is a possibility that the signal readout of all the pixels cannot be performed with respect to the effective pixels of the image sensor. This problem is particularly noticeable in an imaging system in which the readout time of pixel signals per frame is closely packed, such as high-speed frame imaging in a high-pixel imaging device.
そのため、高速フレームを要求される撮像では、画素信号の間引き読み出し、画素信号の間引き、及び混合(加算、加算平均等)の両方を行った読み出しが行われている。 For this reason, in imaging that requires a high-speed frame, readout is performed by performing both pixel signal decimation, pixel signal decimation, and mixing (addition, addition averaging, etc.).
従来、例えば、4×4画素を単位として同一色を間引いて混合して読み出しを行う撮像装置が開示されている(特許文献1)。また、4×4画素を1グループとして、混合前の各色の空間的配置と、混合後の各色の空間的配置とが同じになるように複数の画素信号を混合する撮像装置が開示されている(特許文献2)。 2. Description of the Related Art Conventionally, for example, there has been disclosed an imaging apparatus that performs readout by thinning and mixing the same color in units of 4 × 4 pixels (Patent Document 1). In addition, an imaging apparatus is disclosed in which a plurality of pixel signals are mixed so that the spatial arrangement of each color before mixing and the spatial arrangement of each color after mixing are the same, with 4 × 4 pixels as one group. (Patent Document 2).
一方、撮像装置のAF(オートフォーカス)方式として、TTL位相差検出方式が知られている。TTL位相差検出方式では、撮像光学系からの被写体光束の一部を2つに分割し、分割した被写体光束により形成される2つの像のずれ量(位相差)を求める。そして、この位相差に基づいて、撮像光学系の焦点状態を示すデフォーカス量を算出し、算出したデフォーカス量をゼロに近づけて合焦状態を得るために必要なフォーカスレンズの駆動量を算出する。 On the other hand, a TTL phase difference detection method is known as an AF (autofocus) method for an imaging apparatus. In the TTL phase difference detection method, a part of a subject light beam from the imaging optical system is divided into two, and a shift amount (phase difference) between two images formed by the divided subject light beam is obtained. Based on this phase difference, the defocus amount indicating the focus state of the imaging optical system is calculated, and the drive amount of the focus lens necessary for obtaining the in-focus state by bringing the calculated defocus amount close to zero is calculated. To do.
このようなTTL位相差検出を、上記2つの像を光電変換する専用の受光センサを設けずに、被写体画像を取得するための撮像素子に焦点検出用画素を配置することで行う撮像装置が提案されている。 An image pickup apparatus that performs such TTL phase difference detection by arranging focus detection pixels on an image pickup element for acquiring a subject image without providing a dedicated light receiving sensor for photoelectrically converting the two images is proposed. Has been.
例えば、光電変換画素群の一部の画素が撮像レンズの瞳の特定領域を透過する光束を受光するように構成された撮像装置が提案されている(特許文献3)。この提案では、光電変換画素群の一部の画素を焦点検出用画素として用い、焦点検出用画素の出力から得られる第1の像信号と第2の像信号との位相差に基づいて撮像レンズの焦点状態を検出する。 For example, there has been proposed an imaging apparatus configured such that a part of pixels of a photoelectric conversion pixel group receives a light beam that passes through a specific region of a pupil of an imaging lens (Patent Document 3). In this proposal, a part of the photoelectric conversion pixel group is used as a focus detection pixel, and the imaging lens is based on the phase difference between the first image signal and the second image signal obtained from the output of the focus detection pixel. Detect the focus state.
また、AF時における注目領域は精細に画素信号を読み出し、注目領域外の画素は間引くことにより、フレームレートにあった画素信号の読み出しを行う技術が提案されている(特許文献4)。 In addition, a technique has been proposed in which pixel signals are read out precisely in the attention area during AF, and pixels outside the attention area are thinned out to read out pixel signals corresponding to the frame rate (Patent Document 4).
しかし、上記特許文献1、2及び4では、画素の間引き・混合読み出しにより空間周波数情報が低下する。この場合、空間周波数情報の低下を回避するためには焦点検出用画素の信号を精細に読み出せばよいが、動画等のフレーム速度が限定される場合には、画素読み出し時間が制限されるため、精細に読み出す場合は一部の領域の焦点検出用画素しか読み出せない。 However, in Patent Documents 1, 2, and 4, the spatial frequency information is lowered due to pixel thinning and mixed readout. In this case, in order to avoid a decrease in spatial frequency information, it is only necessary to read out the focus detection pixel signal finely. However, when the frame speed of a moving image or the like is limited, the pixel readout time is limited. In the case of fine readout, only focus detection pixels in a part of the region can be read out.
一方、上記特許文献3では、高解像度の撮像素子を用いて低解像度の撮像を行う間引き読み出しモードでは、撮像素子から読み出される画素信号には焦点検出用画素の信号が含まれないため、低解像度の撮像中には焦点検出ができないという問題がある。 On the other hand, in Patent Document 3, in the thinning readout mode in which low-resolution imaging is performed using a high-resolution imaging device, the pixel signal read from the imaging device does not include a focus detection pixel signal. There is a problem that focus detection cannot be performed during imaging.
そこで、本発明は、撮像フレーム速度に制限がある環境下で撮像用の画素信号の混合・間引き処理をする際に、空間周波数情報を低下させることなく、焦点検出用の画素信号を広域に渡って取得する仕組みを提供することを目的とする。 Therefore, the present invention provides a wide range of focus detection pixel signals over a wide area without reducing spatial frequency information when mixing and thinning image pickup pixel signals in an environment where the imaging frame speed is limited. The purpose is to provide a mechanism to acquire the
上記目的を達成するために、本発明の技術的特徴としては、フォーカスレンズを含む撮影光学系の異なる瞳領域を通過した光束を光電変換して、一対の信号を出力することが可能な複数の画素から成る撮像素子と、前記フォーカスレンズを駆動する駆動手段を備える撮像装置にて実行される制御方法であって、前記一対の信号から取得した位相差情報に基づきデフォーカス量を算出する位相差検出ステップと、前記撮像素子に結像する被写体像に対する焦点検出領域としての読み出し領域を設定する設定ステップと、前記設定ステップで設定された前記読み出し領域に配置される画素から読み出した信号から取得した位相差情報に基づき算出されるデフォーカス量に応じて前記フォーカスレンズを駆動するように制御する制御ステップと、フレームごとに前記設定ステップで設定された前記読み出し領域を前記被写体像の他の領域に順次切り替えて変更する変更ステップと、を備えることを特徴とする。 In order to achieve the above object, the technical feature of the present invention is that a plurality of light beams that can be photoelectrically converted and output a pair of signals after passing through different pupil regions of a photographing optical system including a focus lens. A control method executed by an imaging device including an imaging device composed of pixels and a driving unit that drives the focus lens, wherein the phase difference calculates a defocus amount based on phase difference information acquired from the pair of signals Obtained from a detection step, a setting step for setting a readout region as a focus detection region for a subject image formed on the image sensor, and a signal read from a pixel arranged in the readout region set in the setting step A control step for controlling the focus lens to be driven according to the defocus amount calculated based on the phase difference information; Characterized in that it comprises a changing step of changing the read area set by said setting step for each chromatography beam sequentially switches to other areas of the subject image, a.
また、別の技術的特徴として、画素部がそれぞれ複数の光電変換部を有し、該光電変換部から焦点検出用信号および画像生成用信号を出力する撮像素子と、フォーカスレンズを駆動する駆動手段を備える撮像装置にて実行される制御方法であって、前記一対の信号から取得した位相差情報に基づきデフォーカス量を算出する位相差検出ステップと、前記撮像素子に結像する被写体像に対する焦点検出領域としての読み出し領域を設定する設定ステップと、前記設定ステップにより設定された前記読み出し領域に配置される画素から読み出した信号から取得した位相差情報に基づき算出されるデフォーカス量に応じて前記フォーカスレンズを駆動するように制御する制御ステップと、フレームごとに前記設定ステップで設定される前記読み出し領域を前記被写体像の他の領域に順次切り替えて変更する変更ステップと、を備えることを特徴とする。 Further, as another technical feature, each of the pixel units has a plurality of photoelectric conversion units, an image pickup device that outputs a focus detection signal and an image generation signal from the photoelectric conversion units, and a driving unit that drives the focus lens A phase difference detection step of calculating a defocus amount based on phase difference information acquired from the pair of signals, and a focus on a subject image formed on the image sensor A setting step for setting a readout region as a detection region, and the defocus amount calculated based on phase difference information acquired from a signal read from a pixel arranged in the readout region set by the setting step. The control step for controlling the focus lens to be driven, and the reading set in the setting step for each frame Characterized by comprising a changing step of changing sequentially switching the frequency to other areas of the subject image, a.
本発明によれば、撮像フレーム速度に制限がある環境下で撮像用の画素信号の混合・間引き処理をする際に、空間周波数情報を低下させることなく、焦点検出用の画素信号を広域に渡って取得することができる。 According to the present invention, when mixing and thinning out pixel signals for imaging in an environment where the imaging frame speed is limited, the pixel signals for focus detection are spread over a wide area without reducing spatial frequency information. Can be obtained.
以下、図面を参照して、本発明の実施形態の一例を説明する。 Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings.
図1は、本発明の撮像装置の実施形態の一例であるデジタルカメラの概略ブロック図である。 FIG. 1 is a schematic block diagram of a digital camera which is an example of an embodiment of an imaging apparatus of the present invention.
図1に示す本実施形態のデジタルカメラは、レンズ鏡筒101、撮像素子102、駆動回路103、信号処理部104、圧縮伸張部105、位相差検出部106、制御部107、発光部108、操作部109、画像表示部110及び画像記録部111を備える。 The digital camera of this embodiment shown in FIG. 1 includes a lens barrel 101, an image sensor 102, a drive circuit 103, a signal processing unit 104, a compression / decompression unit 105, a phase difference detection unit 106, a control unit 107, a light emitting unit 108, and an operation. Unit 109, image display unit 110, and image recording unit 111.
レンズ鏡筒101は、被写体からの光束を撮像素子102に結像させるための撮影光学系、光学機構部1011を構成するAF機構やズーム駆動機構、メカニカルシャッタ機構、及び絞り機構等から構成されている。光学機構部1011は、制御部107からの制御信号に基づいて駆動回路103により駆動される。 The lens barrel 101 includes a photographing optical system for forming an image of a light beam from a subject on the image sensor 102, an AF mechanism, a zoom drive mechanism, a mechanical shutter mechanism, a diaphragm mechanism, and the like constituting the optical mechanism unit 1011. Yes. The optical mechanism unit 1011 is driven by the drive circuit 103 based on a control signal from the control unit 107.
撮像素子102は、撮像用画素群及び焦点検出用画素群を有する画素部と、不図示のADコンバータとにより構成されるXY読み出し方式のCMOS型イメージセンサなどが用いられる。そして、撮像素子102は、制御部107の指示に応じて動作する駆動回路103により、露光や信号読み出しやリセットなどの撮像動作が実施され、対応する撮像信号を出力する。 As the image pickup element 102, an XY readout type CMOS image sensor configured by a pixel unit having an image pickup pixel group and a focus detection pixel group and an AD converter (not shown) is used. The imaging element 102 performs an imaging operation such as exposure, signal readout, and reset by the drive circuit 103 that operates according to an instruction from the control unit 107, and outputs a corresponding imaging signal.
信号処理部104は、制御部107の指示により、撮像素子102から出力される画像信号に対して、ホワイトバランス調整処理や色補正処理、及びAE処理などの信号処理を施す。 The signal processing unit 104 performs signal processing such as white balance adjustment processing, color correction processing, and AE processing on the image signal output from the image sensor 102 according to an instruction from the control unit 107.
圧縮伸張部105は、制御部107の指示により、信号処理部104から出力される画像信号に対して、JPEG方式などの所定の静止画像データフォーマットで圧縮符号化処理を行う。また、圧縮伸張部105は、制御部107から供給された静止画像の符号化データを伸張復号化処理する。なお、圧縮伸張部105は、MPEG方式などにより動画像の圧縮符号化/伸張復号化処理を実行可能に構成されていてもよい。 The compression / decompression unit 105 performs compression encoding processing on the image signal output from the signal processing unit 104 in a predetermined still image data format such as the JPEG method, according to an instruction from the control unit 107. The compression / decompression unit 105 performs decompression / decoding processing on the encoded data of the still image supplied from the control unit 107. Note that the compression / decompression unit 105 may be configured to be able to execute a compression encoding / decompression decoding process of a moving image by an MPEG method or the like.
位相差検出部106は、撮像素子102の画素部に配置された焦点検出用画素から信号処理部104を介して位相差情報を得、その位相差情報から撮像光学系の焦点状態を示すデフォーカス量を算出する。そして、位相差検出部106にて算出されたデフォーカス量から制御部107にて合焦状態を得るために必要なフォーカスレンズの駆動量を算出し、駆動回路103へと制御信号を送る。駆動回路103は、制御部107からの指示に従って、光学機構部1011のAF機構を駆動させ所望の位置にまでフォーカスレンズを移動させる。 The phase difference detection unit 106 obtains phase difference information from the focus detection pixels arranged in the pixel portion of the image sensor 102 via the signal processing unit 104, and defocuss indicating the focus state of the imaging optical system from the phase difference information. Calculate the amount. Then, from the defocus amount calculated by the phase difference detection unit 106, the control unit 107 calculates the drive amount of the focus lens necessary for obtaining the in-focus state, and sends a control signal to the drive circuit 103. The drive circuit 103 drives the AF mechanism of the optical mechanism unit 1011 according to an instruction from the control unit 107 and moves the focus lens to a desired position.
制御部107は、例えば、CPU、ROM、及びRAMなどから構成されるマイクロコンピュータであり、ROMなどに記憶された制御プログラムをRAMに展開してCPUで実行することにより、カメラ全体の制御を司る。 The control unit 107 is a microcomputer including, for example, a CPU, a ROM, a RAM, and the like. The control unit 107 controls the entire camera by developing a control program stored in the ROM or the like on the RAM and executing the program on the CPU. .
発光部108は、信号処理部104でのAE処理によって被写体の露光値が所定値より低いと判断された場合に、被写体に対して光を照射する装置であり、キセノン管を用いたストロボ装置やLED発光装置などが用いられる。 The light emitting unit 108 is a device that irradiates light to the subject when the exposure value of the subject is determined to be lower than a predetermined value by the AE processing in the signal processing unit 104, and includes a strobe device using a xenon tube, An LED light emitting device or the like is used.
操作部109は、例えばレリーズボタンなどの各種操作ボタンやキーの他に、レバー及びダイアルなどから構成され、ユーザによる入力操作に応じた制御信号を制御部107に出力する。 The operation unit 109 includes, for example, a lever and a dial in addition to various operation buttons and keys such as a release button, and outputs a control signal corresponding to an input operation by the user to the control unit 107.
画像表示部110は、LCDなどの表示デバイス、及び表示デバイスのインタフェース回路などで構成され、制御部107から供給された画像信号から表示デバイスに表示させるための画像信号を生成し、生成した信号を表示デバイスに供給して画像を表示させる。 The image display unit 110 includes a display device such as an LCD and an interface circuit of the display device. The image display unit 110 generates an image signal to be displayed on the display device from the image signal supplied from the control unit 107, and generates the generated signal. Supply to a display device to display an image.
画像記録部111は、例えば、可搬型の半導体メモリや、光ディスク、及びHDDなどで構成され、圧縮伸張部105により符号化された画像データファイルを制御部107から受け取って記憶する。また、画像記録部111は、制御部107からの指示に基づき、指定されたデータを読み出し、制御部107に出力する。 The image recording unit 111 includes, for example, a portable semiconductor memory, an optical disk, and an HDD, and receives and stores the image data file encoded by the compression / decompression unit 105 from the control unit 107. Further, the image recording unit 111 reads designated data based on an instruction from the control unit 107 and outputs the read data to the control unit 107.
次に、図2及び図3を参照して、撮像素子102における画像生成のための撮像用画素と位相差検出方式による焦点検出のための焦点検出用画素との構造を説明する。本実施形態では、2×2の4画素のうち、対角の2画素にG(緑色)の分光感度を有する画素を配置し、他の2画素にR(赤色)とB(青色)の分光感度を有する画素を配置したベイヤー配列を採用している。そして、ベイヤー配列の間に、後述する構造の焦点検出用画素が所定の規則で分散配置される。 Next, with reference to FIGS. 2 and 3, the structure of the imaging pixels for image generation in the imaging device 102 and the focus detection pixels for focus detection by the phase difference detection method will be described. In the present embodiment, out of 4 pixels of 2 × 2, pixels having G (green) spectral sensitivity are arranged in two diagonal pixels, and R (red) and B (blue) spectroscopy are arranged in the other two pixels. A Bayer array in which pixels having sensitivity are arranged is employed. Then, focus detection pixels having a structure to be described later are distributed and arranged in a predetermined rule between the Bayer arrays.
図2(a)は、2×2の撮像用画素の平面図である。ベイヤー配列では、対角方向にG画素が配置され、他の2画素にRとBの画素が配置され、この2行×2列の構造が繰り返し配置される。 FIG. 2A is a plan view of a 2 × 2 imaging pixel. In the Bayer array, G pixels are arranged in the diagonal direction, R and B pixels are arranged in the other two pixels, and this 2-row × 2-column structure is repeatedly arranged.
図2(b)は、図2(a)のA−A線断面図である。図2(b)において、MLは各画素の最前面に配置されたオンチップマイクロレンズ、CFRはR(赤色)のカラーフィルタ、CFGはG(緑色)のカラーフィルタである。PDは、撮像素子102の光電変換部を模式的に示したものであり、CLは、CMOSセンサの各種信号を伝達する信号線を形成するための配線層である。TLは、撮影光学系を模式的に示したものである。 FIG. 2B is a cross-sectional view taken along line AA in FIG. In FIG. 2B, ML is an on-chip microlens disposed on the forefront of each pixel, CFR is an R (red) color filter, and CFG is a G (green) color filter. PD schematically shows the photoelectric conversion unit of the image sensor 102, and CL is a wiring layer for forming signal lines for transmitting various signals of the CMOS sensor. TL schematically shows a photographing optical system.
ここで、撮像画素のオンチップマイクロレンズML、及び光電変換部PDは、撮影光学系TLを通過した被写体光束を可能な限り有効に取り込むように構成されている。換言すると、撮影光学系TLの射出瞳EPと光電変換部PDとは、オンチップマイクロレンズMLにより共役関係にあり、かつ光電変換部PDの有効面積は大面積に設計される。また、図2(b)では、R画素の入射光束について説明したが、G画素及びB画素も同一の構造となっている。従って、撮像用のRGB各画素に対応した射出瞳EPは大径となり、被写体からの光束を効率よく取り込んで画像信号のS/Nを向上させている。 Here, the on-chip microlens ML of the imaging pixel and the photoelectric conversion unit PD are configured to capture the subject light flux that has passed through the photographing optical system TL as effectively as possible. In other words, the exit pupil EP of the photographing optical system TL and the photoelectric conversion unit PD are in a conjugate relationship by the on-chip microlens ML, and the effective area of the photoelectric conversion unit PD is designed to be large. In FIG. 2B, the incident light beam of the R pixel has been described, but the G pixel and the B pixel have the same structure. Accordingly, the exit pupil EP corresponding to each of the RGB pixels for imaging has a large diameter, and the S / N of the image signal is improved by efficiently capturing the light flux from the subject.
図3(a)は、撮影レンズの水平方向(横方向)に瞳領域の分割を行なうための焦点検出用画素の周辺行を表わす図である。図3(a)では、RとGの画素行の一部を焦点検出用画素SHA,SHBとした配置にしている。 FIG. 3A is a diagram illustrating peripheral rows of focus detection pixels for dividing the pupil region in the horizontal direction (lateral direction) of the photographing lens. In FIG. 3A, a part of the R and G pixel rows are arranged as focus detection pixels SHA and SHB.
図3(b)は、図3(a)のA−A線断面図である。図3(b)において、オンチップマイクロレンズML、及び光電変換部PDは、図2(b)に示す撮像用画素と同一構造である。本実施形態では、焦点検出用画素SHA,SHBの信号は、画像生成には用いないため、色分離用カラーフィルタの代わりに透明膜CFW(白色)(又はCFG)が配置される。また、撮像素子102で瞳分割を行なうため、配線層CLの開口部は、オンチップマイクロレンズMLの中心線に対して一方向に偏って配置されている。 FIG.3 (b) is the sectional view on the AA line of Fig.3 (a). In FIG. 3B, the on-chip microlens ML and the photoelectric conversion unit PD have the same structure as the imaging pixel shown in FIG. In the present embodiment, since the signals of the focus detection pixels SHA and SHB are not used for image generation, a transparent film CFW (white) (or CFG) is disposed instead of the color separation color filter. Further, in order to perform pupil division by the image sensor 102, the opening of the wiring layer CL is arranged in one direction with respect to the center line of the on-chip microlens ML.
具体的には、画素SHAの開口部OPHAは、図の右側に偏って配置されているため、撮影レンズTLの左側の射出瞳EPHAを通過した光束を受光する。同様に、画素SHBの開口部OPHBは、図の左側に偏って配置されているため、撮影レンズTLの右側の射出瞳EPHBを通過した光束を受光する。 Specifically, since the opening OPHA of the pixel SHA is arranged to be biased to the right side of the drawing, the light beam that has passed through the exit pupil EPHA on the left side of the photographing lens TL is received. Similarly, since the opening OPHB of the pixel SHB is arranged so as to be biased to the left side of the drawing, the light beam that has passed through the right exit pupil EPHB of the photographic lens TL is received.
そして、画素SHAを水平方向に規則的に配列し、これらの画素群で取得した被写体像をA像とし、画素SHBも水平方向に規則的に配列し、これらの画素群で取得した被写体像をB像とする。ここで、このA像とB像(一対の信号)との相対位置を検出することで、被写体像のピントずれ量(デフォーカス量)を検出することができる。 Then, the pixels SHA are regularly arranged in the horizontal direction, the subject image acquired by these pixel groups is set as an A image, the pixels SHB are also regularly arranged in the horizontal direction, and the subject images acquired by these pixel groups are Let it be B image. Here, by detecting the relative position between the A image and the B image (a pair of signals), it is possible to detect the focus shift amount (defocus amount) of the subject image.
また、垂直方向(縦方向)のピントずれ量を検出したい場合には、画素SHA及びその開口部OPHAを上側に偏って配置し、画素SHB及びその開口部OPHBを下側に偏って配置すればよい。この場合、開口部OPHA,OPHBの開口形状は、90度回転させることになる。 Further, when it is desired to detect the amount of defocus in the vertical direction (vertical direction), the pixel SHA and its opening OPHA are arranged so as to be biased upward, and the pixel SHB and its opening OPHA are so arranged as to be biased downward. Good. In this case, the opening shapes of the openings OPHA and OPHB are rotated by 90 degrees.
次に、図4乃至図6を参照して、画素配置における垂直間引き読み出しと水平混合読み出しとの関係について説明する。 Next, the relationship between vertical thinning readout and horizontal mixed readout in the pixel arrangement will be described with reference to FIGS.
図4は、10×12画素の全体配置を示す図である。図4において、斜線、網掛けなどで示された撮像用画素R,G,Bは、信号が読み出される画素を示している。また、焦点検出用SHA,SHBは、単独で信号が出力される画素である。 FIG. 4 is a diagram showing an overall arrangement of 10 × 12 pixels. In FIG. 4, imaging pixels R, G, and B indicated by hatching, shading, and the like indicate pixels from which signals are read out. The focus detection SHA and SHB are pixels to which signals are output independently.
図5は、垂直方向における間引き読み出しを説明する図である。図5では、3画素間隔(図中0、3、6、9、12の行)で間引き読み出しを行っており、他の行は読み出さないことにより、動画撮像動作などにおいてデータの圧縮とフレームレートの高速化を図る。 FIG. 5 is a diagram for explaining thinning readout in the vertical direction. In FIG. 5, thinning readout is performed at intervals of 3 pixels (rows 0, 3, 6, 9, and 12 in the figure), and other rows are not read, so that data compression and frame rate can be performed in a moving image capturing operation or the like. Speed up.
図6(a)は水平方向におけるR/G行の水平3画素混合読み出しを説明する図、図6(b)は水平方向におけるG/B行の水平3画素混合読み出しを説明する図である。図6において、列番号0−2−4、3−5−7、6−8−10の組みで画素の信号が読み出された後に混合(合成)される。また、焦点検出用画素SHA,SHBについては、撮像用画素群が水平混合読み出しモード(第1の読み出しモード)で動作していても、制御部107の制御信号に従って混合読み出しにするか、非混合読み出しで単画素ずつ精細に読み出すかを切り替え可能である。 6A is a diagram for explaining horizontal three-pixel mixed readout of the R / G row in the horizontal direction, and FIG. 6B is a diagram for explaining horizontal three-pixel mixed readout of the G / B row in the horizontal direction. In FIG. 6, pixel signals are read out in a combination of column numbers 0-2-4, 3-5-7, and 6-8-10, and then mixed (synthesized). In addition, regarding the focus detection pixels SHA and SHB, even if the imaging pixel group is operating in the horizontal mixed readout mode (first readout mode), mixed readout is performed according to the control signal of the control unit 107 or unmixed. It is possible to switch whether to read finely for each pixel by reading.
図7及び図8は、図4乃至図6で説明した全画素読み、及び水平混合・垂直間引き読み出し後の画素配置を模式的に表したものである。 7 and 8 schematically show the pixel arrangement after all-pixel reading and horizontal mixing / vertical thinning-out reading described with reference to FIGS.
図7(a)は、全画素読み時の画素配置の模式図である。全画素読み出しであるため、単画素単位で撮像用画素及び焦点検出用画素の信号が読み出され、全画角に対する空間周波数情報の低下は起きていない。 FIG. 7A is a schematic diagram of a pixel arrangement at the time of reading all pixels. Since all pixels are read out, the signals of the imaging pixels and focus detection pixels are read out in units of single pixels, and the spatial frequency information does not decrease with respect to the entire angle of view.
図7(b)、図8(a)及び図8(b)は、動画撮像動作時における画素配置の模式図である。前述したように、水平混合、垂直間引き読み出し動作を行うことにより1フレームあたりのデータ量を圧縮することができるので、全画素読み出しでのデータ量より少ないデータ量となる。このとき、水平方向における撮像用画素は、混合動作により同色3画素が混合されている。 FIG. 7B, FIG. 8A, and FIG. 8B are schematic diagrams of pixel arrangement during the moving image capturing operation. As described above, the amount of data per frame can be compressed by performing the horizontal mixing and vertical thinning readout operation, so that the data amount is smaller than the data amount for all pixel readout. At this time, three pixels of the same color are mixed in the horizontal direction by the mixing operation.
焦点検出用画素は、制御部107により水平混合読み出しか単画素読み出しかのどちらかが選択された結果、焦点検出用画素SHA又はSHB同士が3画素混合された状態か、単画素読み出しされた状態のいずれかで出力される。焦点検出用画素が水平混合された状態で出力されると、水平方向での全画角で位相差情報を得ることができるが、水平混合された状態で信号が読みだされるため、フィルタ効果により空間周波数情報が低下する。 As for the focus detection pixel, as a result of selecting either horizontal mixed readout or single pixel readout by the control unit 107, three focus detection pixels SHA or SHB are mixed, or single pixel readout is performed Is output as one of If the focus detection pixels are output in a horizontally mixed state, phase difference information can be obtained at all angles of view in the horizontal direction, but the signal is read out in a horizontally mixed state, so the filter effect As a result, the spatial frequency information is lowered.
一方、焦点検出用画素からの信号を動画撮像動作時に画素単位で読み出しを行うと、フレームレートによる制約で1フレームあたりに読み出せる画素数が決まってしまう。すなわち、画素数は、1フレームで読み出せる時間により決定される。このため、図7(a)における全画素配置における領域A、領域B、領域Cの範囲において焦点検出用画素の読み出される範囲が決まる。 On the other hand, when the signal from the focus detection pixel is read out in units of pixels during the moving image capturing operation, the number of pixels that can be read out per frame is determined by the restriction of the frame rate. That is, the number of pixels is determined by the time that can be read in one frame. For this reason, the range in which the focus detection pixels are read out is determined in the range of the region A, the region B, and the region C in the entire pixel arrangement in FIG.
従って、動画撮像動作時に焦点検出用画素を精細に読み出す必要がある場合は、図7(b)、図8(a)、図8(b)に示すように、焦点検出用画素の行は、図7(a)の全画素における領域A〜Cの範囲の焦点検出用画素が読み出されることになる。なお、本実施形態では、焦点検出用画素の水平分割領域を3領域として読出し終了位置と読出し開始位置が隣り合うものとして説明するが、これに限定されない。例えば、隣り合う領域の読出し開始位置と読出し終了位置とを互い違いにすることで領域数を増やして、AF検出枠数の増加に対応させることも可能である。 Therefore, when it is necessary to read out the focus detection pixels precisely during the moving image capturing operation, as shown in FIGS. 7B, 8A, and 8B, the row of the focus detection pixels is The focus detection pixels in the area A to C in all the pixels in FIG. 7A are read out. In the present embodiment, the horizontal division region of the focus detection pixels is described as three regions, and the reading end position and the reading start position are adjacent to each other. However, the present invention is not limited to this. For example, it is also possible to increase the number of AF detection frames by changing the reading start position and the reading end position of adjacent areas alternately to cope with an increase in the number of AF detection frames.
図9は、動画撮像動作において焦点検出用画素を精細に読み出す際の焦点検出領域の切り替えタイミングを示すタイミングチャート図である。 FIG. 9 is a timing chart showing the switching timing of the focus detection area when the focus detection pixels are read out finely in the moving image capturing operation.
図9の例では、制御部107又は操作部109でのユーザ操作によりAF検出枠が被写体像の全画素配置における領域Aに設定された場合について説明する。 In the example of FIG. 9, a case will be described in which the AF detection frame is set in the area A in the entire pixel arrangement of the subject image by a user operation on the control unit 107 or the operation unit 109.
まず、撮影同期信号に同期して、撮像動作が開始され、撮像用画素及び焦点検出用画素の読み出しが始まる(期間T60)。このとき、焦点検出用画素は、領域Aのみを読み出し、他の領域の領域B及び領域Cについては読み出さない。 First, the imaging operation is started in synchronization with the imaging synchronization signal, and readout of the imaging pixels and focus detection pixels starts (period T60). At this time, the focus detection pixels read out only the area A and do not read out the areas B and C of other areas.
次に、1フレーム分の読み出しが終わり、次フレームの読み出し開始となると、焦点検出用画素の読み出し領域を領域Bに切り替える(期間T61)。期間T61では、同時に前フレーム撮像動作で得られた領域Aの焦点検出用画素の信号から位相差検出部106においてデフォーカス量を算出する。 Next, when reading of one frame is completed and reading of the next frame is started, the reading area of the focus detection pixels is switched to the area B (period T61). In the period T61, the phase difference detection unit 106 calculates the defocus amount from the signal of the focus detection pixel in the region A obtained by the previous frame imaging operation at the same time.
領域Aにおけるデフォーカス量が算出された後、得られたデフォーカス量を制御部107へ送る。制御部107は、デフォーカス量に応じたフォーカスレンズ移動量の制御信号を駆動回路103に送り、駆動回路103によって光学機構部1011を駆動させる(期間T62)。 After the defocus amount in the area A is calculated, the obtained defocus amount is sent to the control unit 107. The control unit 107 sends a control signal of the focus lens movement amount according to the defocus amount to the drive circuit 103, and drives the optical mechanism unit 1011 by the drive circuit 103 (period T62).
次々フレームの読み出し開始となる期間T63では、焦点検出用画素の読み出し領域を領域Cに切り替える。この期間T63では、期間T61の場合と同様に、前フレームで得られた領域Bの焦点検出用画素の信号から位相差検出部106においてデフォーカス量を算出するが、その算出したデフォーカス量から光学機構部1011を駆動する制御信号を生成させない。ただし、領域Bから得られたデフォーカス量は、制御部107におけるメモリ等に領域Bのデフォーカス量として記憶させる。 In a period T63 in which reading of frames is started one after another, the reading area of the focus detection pixels is switched to the area C. In the period T63, as in the case of the period T61, the phase difference detection unit 106 calculates the defocus amount from the focus detection pixel signal of the region B obtained in the previous frame. From the calculated defocus amount, A control signal for driving the optical mechanism unit 1011 is not generated. However, the defocus amount obtained from the region B is stored in the memory or the like in the control unit 107 as the defocus amount of the region B.
期間T64では、同様に、前フレームである期間T63〜T64にかけて取得された焦点検出領域Cの焦点検出用画素の信号から位相差検出部106でデフォーカス量を算出する。制御部107では、算出したデフォーカス量を領域Cのデフォーカス量としてメモリに記憶させ、光学機構部1011への制御信号は生成しない。また、期間T64から開始する撮像動作では、焦点検出用画素の読み出し領域を領域Aへと戻す。 Similarly, in the period T64, the phase difference detection unit 106 calculates the defocus amount from the signal of the focus detection pixel in the focus detection area C acquired in the period T63 to T64 which is the previous frame. The control unit 107 stores the calculated defocus amount in the memory as the defocus amount of the region C, and does not generate a control signal to the optical mechanism unit 1011. In the imaging operation starting from the period T64, the focus detection pixel readout area is returned to the area A.
次に、期間T65〜期間T66では、期間T61〜期間T62と同様に、期間T64〜期間T65で得られた焦点検出領域Aの焦点検出用画素の信号から位相差検出部106を通じてデフォーカス量を算出する。制御部107は、算出したデフォーカス量に応じたフォーカスレンズ移動量の制御信号を駆動回路103に送り、駆動回路103によって光学機構部1011を駆動させる。 Next, in the period T65 to the period T66, similarly to the period T61 to the period T62, the defocus amount is obtained through the phase difference detection unit 106 from the focus detection pixel signal in the focus detection area A obtained in the period T64 to the period T65. calculate. The control unit 107 sends a control signal for the focus lens movement amount according to the calculated defocus amount to the drive circuit 103, and causes the optical mechanism unit 1011 to be driven by the drive circuit 103.
このように制御することにより、撮像動作としてフレーム毎に焦点検出用画素の読み出し領域をA→B→C→A→B…と繰り返すことで、空間周波数情報の低下がない焦点検出信号を全領域において得ることができる。 By controlling in this way, the focus detection pixel readout area for each frame as an imaging operation is repeated in order of A → B → C → A → B. Can be obtained in
次に、図10及び図11を参照して、図1に示すデジタルカメラの動画駆動時における動作例について説明する。図10及び図11の各処理は、制御部107のROM等に記憶された制御プログラムがRAMに展開されて、CPU等により実行される。 Next, an example of operation of the digital camera shown in FIG. 1 when driving a moving image will be described with reference to FIGS. Each process in FIGS. 10 and 11 is executed by a CPU or the like by developing a control program stored in the ROM or the like of the control unit 107 in the RAM.
図10において、ステップS1001では、制御部107は、電源が立ち上がりスタンバイ状態になってから、操作部109でのユーザ操作、又は顔認識などの被写体認識情報の処理にしたがって、AF検出枠を設定し、ステップS1002に進む。 In FIG. 10, in step S1001, the control unit 107 sets an AF detection frame according to the user operation on the operation unit 109 or the processing of subject recognition information such as face recognition after the power is turned on and in the standby state. The process proceeds to step S1002.
ステップS1002では、制御部107は、撮像素子102の駆動モードを、焦点検出用画素の読出しを単画素ずつ読み出す精細読出しモード(第2の読み出しモード)に切り替え設定し、ステップS1003に進む。 In step S1002, the control unit 107 switches and sets the drive mode of the image sensor 102 to a fine readout mode (second readout mode) in which readout of focus detection pixels is read out pixel by pixel, and the process proceeds to step S1003.
ステップS1003では、制御部107は、ステップS1001で設定されたAF検出枠と同じ領域に相当する焦点検出用画素(図7(a)の領域A)を選択して単画素ずつ読み出しを開始し、ステップS1004に進む。 In step S1003, the control unit 107 selects a focus detection pixel (region A in FIG. 7A) corresponding to the same region as the AF detection frame set in step S1001, and starts reading pixel by pixel. The process proceeds to step S1004.
ステップS1004では、制御部107は、ステップS1003で選択したAF検出枠の領域Aの焦点検出用画素の読出しが終了し、1フレーム分の撮像が終了すると、ステップS1005に進む。 In step S1004, when the control unit 107 finishes reading the focus detection pixels in the area A of the AF detection frame selected in step S1003 and completes imaging for one frame, the control unit 107 proceeds to step S1005.
ステップS1005では、制御部107は、次フレームの撮像動作を開始し、前フレームで読み出されたAF検出枠の領域とは異なるAF検出枠外領域1の焦点検出用画素(図7(a)の領域B、図9の期間T61)の読み出しを開始する。 In step S1005, the control unit 107 starts the imaging operation for the next frame, and the focus detection pixels (FIG. 7A) in the AF detection frame outside region 1 different from the AF detection frame region read out in the previous frame. Reading of the area B, the period T61 in FIG. 9 is started.
ステップS1006では、制御部107は、ステップS1005での撮像の開始と同時にステップS1004までに読み出されたAF検出枠領域における焦点検出用画素の信号から位相差検出部106にてデフォーカス量を算出し、ステップS1007に進む。 In step S1006, the control unit 107 calculates the defocus amount in the phase difference detection unit 106 from the focus detection pixel signal in the AF detection frame area read up to step S1004 simultaneously with the start of imaging in step S1005. Then, the process proceeds to step S1007.
ステップS1007では、制御部107は、ステップS1006で算出されたデフォーカス量に従って駆動回路103を制御して光学機構部1011のフォーカスレンズを駆動し、ステップS1008に進む。 In step S1007, the control unit 107 controls the drive circuit 103 according to the defocus amount calculated in step S1006 to drive the focus lens of the optical mechanism unit 1011. The process proceeds to step S1008.
ステップS1008では、制御部107は、AF検出枠外領域1の焦点検出用画素の読み出しの撮像フレームが終了(図9の期間T63)と、ステップS1009に進む。 In step S1008, when the imaging frame for reading the focus detection pixels in the AF detection frame outside region 1 is finished (period T63 in FIG. 9), the control unit 107 proceeds to step S1009.
ステップS1009では、制御部107は、ステップS1003及びステップS1005で開始した焦点検出用画素の読み出し領域とは異なるAF検出枠外領域2の焦点検出用画素の読み出しを開始する(図7(a)の領域C、図9の期間T63)。 In step S1009, the control unit 107 starts reading the focus detection pixels in the AF detection frame outside region 2 different from the focus detection pixel readout regions started in steps S1003 and S1005 (region in FIG. 7A). C, period T63 in FIG. 9).
ステップS1010では、制御部107は、ステップS1009での撮像開始と同時にステップS1008までに読み出されたAF検出枠外領域1の焦点検出用画素の信号から位相差検出部106にてデフォーカス量を算出し、ステップS1011に進む。 In step S1010, the control unit 107 calculates the defocus amount in the phase difference detection unit 106 from the focus detection pixel signal in the AF detection frame outside region 1 read out until step S1008 simultaneously with the start of imaging in step S1009. Then, the process proceeds to step S1011.
ステップS1011では、制御部107は、ステップS1010で算出されたデフォーカス量をメモリに記録し、ステップS1012に進む。即ち、ここでは、制御部107は、デフォーカス量に基づく光学機構部1011の制御は行わない。 In step S1011, the control unit 107 records the defocus amount calculated in step S1010 in the memory, and proceeds to step S1012. That is, here, the control unit 107 does not control the optical mechanism unit 1011 based on the defocus amount.
ステップS1012では、制御部107は、AF検出枠外領域2の焦点検出用画素の読み出しの撮像フレームが終了(図9の期間T64)すると、ステップS1013に進む。 In step S1012, the control unit 107 proceeds to step S1013 when the imaging frame for reading the focus detection pixels in the AF detection frame outside region 2 is completed (period T64 in FIG. 9).
ステップS1013では、制御部107は、ステップS1012までに読み出されたAF検出枠外領域2の焦点検出用画素の信号から位相差検出部106にてデフォーカス量を算出し、ステップS1014に進む。 In step S1013, the control unit 107 calculates the defocus amount in the phase difference detection unit 106 from the focus detection pixel signal in the AF detection frame outside area 2 read up to step S1012, and the process proceeds to step S1014.
ステップS1014では、制御部107は、ステップS1013で算出したデフォーカス量をメモリに記録し、ステップS1015に進む。ここでは、ステップS1011と同様に、制御部107は、光学機構部1011の制御を行わない。 In step S1014, the control unit 107 records the defocus amount calculated in step S1013 in the memory, and proceeds to step S1015. Here, as in step S1011, the control unit 107 does not control the optical mechanism unit 1011.
ステップS1015では、制御部107は、焦点検出用画素の読み出しを続けるか否かを判定し、終了する場合は、カメラを待機状態にし、読み出しを継続する場合は、ステップS1016に進む。 In step S1015, the control unit 107 determines whether or not to continue reading the focus detection pixels. If the reading is to be ended, the control unit 107 sets the camera in a standby state. If the reading is to be continued, the control unit 107 proceeds to step S1016.
ステップS1016では、制御部107は、AF検出枠の領域設定を変更するか否かを判定する。そして、制御部107は、AF検出枠の領域設定を切り替える必要があれば、ステップS1001に戻り、この状態でのAF検出枠の領域設定でよければ、ステップS1002に戻って焦点検出用画素の読み出し及びフォーカス動作を継続する。 In step S1016, the control unit 107 determines whether or not to change the AF detection frame area setting. If it is necessary to switch the AF detection frame region setting, the control unit 107 returns to step S1001. If the AF detection frame region setting in this state is acceptable, the control unit 107 returns to step S1002 and reads out the focus detection pixels. And the focus operation is continued.
次に、図11を参照して、図10のステップS1016の動作について詳述する。 Next, the operation in step S1016 in FIG. 10 will be described in detail with reference to FIG.
ステップS1101では、制御部107は、図10のステップS1015で焦点検出用画素の読み出しを継続すると判定されると、操作部109でのユーザ操作によりAF検出枠の領域設定が変更されているか否かを判定する。 In step S1101, if it is determined in step S1015 in FIG. 10 that the readout of the focus detection pixels is continued, the control unit 107 determines whether or not the AF detection frame area setting has been changed by a user operation on the operation unit 109. Determine.
そして、制御部107は、ユーザ操作によりAF検出枠の領域設定が変更された場合は、図10のステップS1001に戻り、AF検出枠の領域設定を変更する。なお、ここでは、ユーザ操作によりAF検出枠の領域設定を変更する場合を例示したが、顔検出などの被写体認識情報によりAF検出枠の領域設定を変更してもよい。一方、制御部107は、操作部109でのユーザ操作によりAF検出枠の領域設定が変更されていない場合は、ステップS1102に進む。 If the AF detection frame region setting is changed by a user operation, the control unit 107 returns to step S1001 in FIG. 10 and changes the AF detection frame region setting. Although the case where the AF detection frame region setting is changed by a user operation is illustrated here, the AF detection frame region setting may be changed by subject recognition information such as face detection. On the other hand, if the AF detection frame area setting has not been changed by a user operation on the operation unit 109, the control unit 107 proceeds to step S1102.
ステップS1102では、制御部107は、現時点で得られている画像データからAF検出枠の画像コントラスト情報Caを取得し、ステップS1103に進む。なお、ここでは、コントラスト情報を得ることでAF検出枠内における現時点のフォーカス状態を確認しているが、焦点検出用画素による位相差情報を基に現時点のフォーカス状態を確認してもよい。 In step S1102, the control unit 107 acquires the image contrast information Ca of the AF detection frame from the image data obtained at the current time, and proceeds to step S1103. Here, the current focus state in the AF detection frame is confirmed by obtaining contrast information. However, the current focus state may be confirmed based on phase difference information by focus detection pixels.
ステップS1103では、制御部107は、ステップS1102で得られたコントラスト情報Caがフォーカス誤差閾値以下となるように設定されているコントラスト閾値D以下であるか否かを判定する。 In step S1103, the control unit 107 determines whether or not the contrast information Ca obtained in step S1102 is less than or equal to the contrast threshold D set to be less than or equal to the focus error threshold.
そして、制御部107は、コントラスト情報Caがコントラスト閾値D以下であれば、図10のステップS1002に戻って現時点でのAF検出枠の領域での精細読み出しモードを継続し、コントラスト閾値Dを超える場合は、ステップS1104に進む。 If the contrast information Ca is equal to or less than the contrast threshold D, the control unit 107 returns to step S1002 in FIG. 10 to continue the fine readout mode in the current AF detection frame area and exceed the contrast threshold D. Advances to step S1104.
ステップS1104では、制御部107は、図10のステップS1011でメモリに記録したAF検出枠外領域1のデフォーカス量情報Def_AF1がフォーカス誤差閾値以下となるように設定されている閾値P以下か否かを判定する。 In step S1104, the control unit 107 determines whether or not the defocus amount information Def_AF1 of the AF detection frame outside area 1 recorded in the memory in step S1011 in FIG. 10 is equal to or less than a threshold P set to be equal to or less than the focus error threshold. judge.
そして、制御部107は、AF検出枠外領域1のデフォーカス量情報Def_AF1が閾値Pを超える場合は、ステップS1105に進み、閾値P以下の場合は、ステップS1108に進む。 The control unit 107 proceeds to step S1105 when the defocus amount information Def_AF1 of the AF detection frame outside region 1 exceeds the threshold P, and proceeds to step S1108 when the defocus amount information Def_AF1 is less than or equal to the threshold P.
ステップS1105では、制御部107は、ステップS1014でメモリに記録したAF検出枠外領域2のデフォーカス量情報Def_AF2が、フォーカス誤差閾値以下となるように設定されている閾値P以下かを判定する。 In step S1105, the control unit 107 determines whether or not the defocus amount information Def_AF2 of the AF detection out-of-frame area 2 recorded in the memory in step S1014 is equal to or less than a threshold P set to be equal to or less than the focus error threshold.
そして、制御部107は、AF検出枠外領域2のデフォーカス量情報Def_AF2が閾値Pを超える場合は、ステップS1106に進み、すべての領域でデフォーカス情報が得られない状態となるため待機状態とする。なお、本実施形態では、すべての領域でデフォーカス情報が得られない場合は待機状態とする場合を例示するが、フォーカス動作を継続させデフォーカス情報が得られるまで動作させるようにしてもよい。一方、制御部107は、AF検出枠外領域2のデフォーカス量情報Def_AF2が閾値P以下の場合はステップS1107に進む。 Then, when the defocus amount information Def_AF2 of the AF detection frame outside region 2 exceeds the threshold value P, the control unit 107 proceeds to step S1106 and enters a standby state because defocus information cannot be obtained in all regions. . In the present embodiment, the case where the defocus information is not obtained in all the regions is exemplified as a standby state. However, the focus operation may be continued until the defocus information is obtained. On the other hand, when the defocus amount information Def_AF2 of the AF detection frame outside region 2 is equal to or less than the threshold value P, the control unit 107 proceeds to step S1107.
ステップS1107では、制御部107は、AF検出枠の領域設定をAF検出枠外領域2の領域に再設定し、図10のステップS1001に戻る。 In step S1107, the control unit 107 resets the AF detection frame area setting to the area outside the AF detection frame area 2 and returns to step S1001 in FIG.
一方、ステップS1108では、制御部107は、ステップS1105と同様に、ステップS1014でメモリに記録したAF検出枠外領域2のデフォーカス量情報Def_AF2がフォーカス誤差閾値以下となるように設定されている閾値P以下か否かを判定する。 On the other hand, in step S1108, as in step S1105, the control unit 107 sets the threshold value P set so that the defocus amount information Def_AF2 of the AF detection frame outside area 2 recorded in the memory in step S1014 is equal to or less than the focus error threshold value. It is determined whether or not.
そして、制御部107は、AF検出枠外領域2のデフォーカス量情報Def_AF2が閾値Pを超える場合、ステップS1109に進み、閾値P以下の場合は、ステップS1110に進む。 Then, the control unit 107 proceeds to step S1109 when the defocus amount information Def_AF2 of the AF detection out-of-frame area 2 exceeds the threshold P, and proceeds to step S1110 when the defocus amount information Def_AF2 is less than or equal to the threshold P.
ステップS1109では、制御部107は、現時点でのAF検出枠とAF検出枠外領域2よりAF検出枠外領域1の方が合焦状態に近いため、AF検出枠をAF検出枠外領域1と同じ領域に再設定し、図10のステップS1001に戻る。 In step S1109, the control unit 107 sets the AF detection frame to the same area as the AF detection frame outside region 1 because the AF detection frame outside region 1 is closer to the in-focus state than the current AF detection frame and the AF detection frame outside region 2. The setting is reset, and the process returns to step S1001 in FIG.
一方、ステップS1110では、現時点でのAF検出枠はフォーカスがずれている状態であり、かつAF検出枠外領域1とAF検出枠外領域2のフォーカスがある程度合っている状態である。そのため、制御部107は、AF検出枠外領域1のデフォーカス量Def_AF1がAF検出枠外領域2のデフォーカス量Def_AF2を超えるか否かを判定する。そして、制御部107は、Def_AF1がDef_AF2を超える場合は、ステップS1111に進み、Def_AF1がDef_AF2以下の場合は、ステップS1112に進む。 On the other hand, in step S1110, the current AF detection frame is out of focus, and the AF detection frame area 1 and the AF detection frame area 2 are in focus to some extent. Therefore, the control unit 107 determines whether or not the defocus amount Def_AF1 of the AF detection frame outside region 1 exceeds the defocus amount Def_AF2 of the AF detection frame outside region 2. The control unit 107 proceeds to step S1111 when Def_AF1 exceeds Def_AF2, and proceeds to step S1112 when Def_AF1 is equal to or less than Def_AF2.
ステップS1111では、制御部107は、AF検出枠をAF検出枠外領域2の領域に再設定し、図10のステップS1001に戻る。 In step S1111, the control unit 107 resets the AF detection frame to the area outside the AF detection frame 2 and returns to step S1001 in FIG.
ステップS1112では、制御部107は、AF検出枠をAF検出枠外領域1の領域に再設定し、図10のステップS1001に戻る。 In step S1112, the control unit 107 resets the AF detection frame to the area outside the AF detection frame 1 and returns to step S1001 in FIG.
以上説明したように、本実施形態では、動画駆動時など撮像フレーム速度に制限がある環境下で、撮像フレーム毎に焦点検出用画素の読み出しの精細読み出し領域を順次切り替えることで、全領域の精細なデフォーカス量情報を得ることができる。これにより、撮像フレーム速度に制限がある環境下で撮像用の画素信号の混合・間引き処理をする際に、空間周波数情報を低下させることなく、焦点検出用の画素信号を全領域に渡って取得することができる。 As described above, in the present embodiment, in the environment where the imaging frame speed is limited such as when driving a moving image, the fine readout area for readout of the focus detection pixels is sequentially switched for each imaging frame, so that the fineness of the entire area is determined. Defocus amount information can be obtained. This enables focus detection pixel signals to be acquired over the entire area without degrading spatial frequency information when mixing and thinning out pixel signals for imaging in an environment where imaging frame speed is limited. can do.
なお、本発明は、上記実施形態に例示したものに限定されるものではなく、本発明の要旨を逸脱しない範囲において適宜変更可能である。 In addition, this invention is not limited to what was illustrated to the said embodiment, In the range which does not deviate from the summary of this invention, it can change suitably.
例えば、上記実施形態では、焦点検出用画素の読み出し領域を左から右へと順次切り替える場合を例示したが、これに限定されず、領域の読み出し順を任意に切り替えるようにしてもよい。 For example, in the above embodiment, the case where the focus detection pixel readout region is sequentially switched from the left to the right is illustrated, but the present invention is not limited to this, and the region readout order may be arbitrarily switched.
また、上記実施形態では、焦点検出用画素の出力信号を用いて像信号の位相差を検出し、焦点調節を行う位相差AF方式について説明した。しかしながら、例えば、1つのマイクロレンズと射出瞳を分割するための複数の光電変換部で構成される画素をもつ撮像素子を用いる場合も考えられる。例えば、この場合の撮像素子102の画素配列を示す模式図を図12に示す。 In the above embodiment, the phase difference AF method has been described in which the phase difference of the image signal is detected using the output signal of the focus detection pixel, and the focus adjustment is performed. However, for example, there may be a case where an imaging element having a pixel composed of a plurality of photoelectric conversion units for dividing one microlens and an exit pupil is used. For example, FIG. 12 shows a schematic diagram showing a pixel array of the image sensor 102 in this case.
単位画素部300は行列状に配列され、それぞれR(Red)/G(Green)/B(Blue)のカラーフィルタがベイヤー配列で配置されている。各単位画素部300内にはそれぞれ副画素aと副画素bが配置されている。図中のPD401aは副画素aを構成する第1の光電変換部であり、PD401bは副画素bを構成する第2の光電変換部である。副画素aおよび副画素bの各信号は焦点検出に利用される(焦点検出用信号)。また、副画素aの信号と副画素bの信号を混合したa/b混合信号(以下、単に混合信号という)は画像生成用信号として画像データの生成に利用される。 The unit pixel units 300 are arranged in a matrix, and R (Red) / G (Green) / B (Blue) color filters are arranged in a Bayer array. In each unit pixel unit 300, a sub pixel a and a sub pixel b are arranged. In the drawing, PD 401a is a first photoelectric conversion unit constituting subpixel a, and PD 401b is a second photoelectric conversion unit constituting subpixel b. Each signal of the sub-pixel a and the sub-pixel b is used for focus detection (focus detection signal). Further, an a / b mixed signal (hereinafter simply referred to as a mixed signal) obtained by mixing the signal of the sub-pixel a and the signal of the sub-pixel b is used as an image generation signal for generating image data.
図13は、撮影光学系の射出瞳203から出る光束と、単位画素部300との関係を説明する模式図である。単位画素部300はPD401aとPD401bを有する。カラーフィルタ201、マイクロレンズ202はそれぞれ単位画素部300上に形成される。 FIG. 13 is a schematic diagram for explaining the relationship between the light beam emitted from the exit pupil 203 of the photographing optical system and the unit pixel unit 300. The unit pixel unit 300 includes a PD 401a and a PD 401b. The color filter 201 and the micro lens 202 are each formed on the unit pixel unit 300.
マイクロレンズ202を有する画素部に対して、射出瞳203から出た光束の中心を光軸204で示す。射出瞳203を通過した光は、光軸204を中心として単位画素部300に入射する。領域205、206は撮影光学系の射出瞳203の一部領域をそれぞれ表す。図13に示すように領域205を通過する光束はマイクロレンズ202を通してPD401a(副画素a)が受光する。また瞳領域206を通過する光束はマイクロレンズ202を通してPD401b(副画素b)が受光する。したがって、副画素aと副画素bはそれぞれ、撮影光学系の射出瞳203の異なる領域を通過する光を受光する。このため、副画素aと副画素bの出力信号を比較することで位相差方式の焦点検出が可能である。 The center of the light beam emitted from the exit pupil 203 is indicated by the optical axis 204 for the pixel portion having the microlens 202. The light that has passed through the exit pupil 203 enters the unit pixel unit 300 with the optical axis 204 as the center. Regions 205 and 206 represent partial regions of the exit pupil 203 of the photographing optical system, respectively. As shown in FIG. 13, the light beam passing through the region 205 is received by the PD 401 a (subpixel a) through the microlens 202. The light beam passing through the pupil region 206 is received by the PD 401b (subpixel b) through the microlens 202. Accordingly, each of the sub-pixel a and the sub-pixel b receives light that passes through different areas of the exit pupil 203 of the photographing optical system. Therefore, the phase difference type focus detection can be performed by comparing the output signals of the sub-pixel a and the sub-pixel b.
次に、図14ないし図16を参照して撮像素子102の構成を説明する。図14は撮像素子102の全体構成例を示す図である。図15は単位画素部300の構成を示す回路図である。図16は列共通読出し回路303の構成を示す回路図である。 Next, the configuration of the image sensor 102 will be described with reference to FIGS. FIG. 14 is a diagram illustrating an example of the overall configuration of the image sensor 102. FIG. 15 is a circuit diagram showing a configuration of the unit pixel unit 300. FIG. 16 is a circuit diagram showing a configuration of the column common readout circuit 303.
図14に示す画素領域PAには、多数の単位画素部300(p11〜pkn参照)が行列状に配置されている。図15を参照して単位画素部300の構成を説明する。 In the pixel area PA shown in FIG. 14, a large number of unit pixel portions 300 (see p11 to pkn) are arranged in a matrix. The configuration of the unit pixel unit 300 will be described with reference to FIG.
PD401a,401bは、入射光を光電変換し、露光量に応じた電荷を蓄積する。転送ゲート402a,402bはそれぞれ信号txa,txbをHighレベルにすることでON状態となる。これにより、PD401a,401bに蓄積されている電荷がFD(フローティングディフュージョン)部403に転送される。FD部403は、フローティングディフュージョンアンプ404(以下、FDアンプという)のゲートに接続されている。FDアンプ404でPD401a,401bから転送されてきた電荷量が電圧量に変換される。FDリセットスイッチ405は、信号resをHighレベルとすることにより、FD部403をリセットする。また、PD401a,401bの電荷をリセットする場合には、信号resと信号txa,txbとを同時にHighレベルとする。転送ゲート402a,402b及びFDリセットスイッチ405がON状態になると、FD部403経由でPD401a,401bのリセットが行われる。画素選択スイッチ406では、信号selをHighレベルとすることにより、FDアンプ404で電圧に変換された画素信号が単位画素部300の出力端子voutから出力される。 The PDs 401a and 401b photoelectrically convert incident light and accumulate charges corresponding to the exposure amount. The transfer gates 402a and 402b are turned on by setting the signals txa and txb to the high level, respectively. As a result, the charges accumulated in the PDs 401 a and 401 b are transferred to the FD (floating diffusion) unit 403. The FD unit 403 is connected to the gate of a floating diffusion amplifier 404 (hereinafter referred to as FD amplifier). The charge amount transferred from the PDs 401a and 401b by the FD amplifier 404 is converted into a voltage amount. The FD reset switch 405 resets the FD unit 403 by setting the signal res to a high level. When resetting the charges of the PDs 401a and 401b, the signal res and the signals txa and txb are simultaneously set to the high level. When the transfer gates 402 a and 402 b and the FD reset switch 405 are turned on, the PDs 401 a and 401 b are reset via the FD unit 403. In the pixel selection switch 406, the signal sel is set to a high level, so that the pixel signal converted into a voltage by the FD amplifier 404 is output from the output terminal vout of the unit pixel unit 300.
図14の垂直走査回路301は、単位画素部300のトランジスタにゲート制御信号(res,txa,txb,sel)を供給する。これらの信号は行毎に共通となっている。各単位画素部300の出力端子voutは、列毎に垂直出力線302を介して列共通読出し回路303に接続されている。図16を参照して列共通読出し回路303の構成を説明する。 The vertical scanning circuit 301 in FIG. 14 supplies gate control signals (res, txa, txb, sel) to the transistors of the unit pixel unit 300. These signals are common to each row. The output terminal vout of each unit pixel unit 300 is connected to the column common readout circuit 303 via the vertical output line 302 for each column. The configuration of the column common readout circuit 303 will be described with reference to FIG.
垂直出力線302は列毎に設けられ、1列分の単位画素部300の出力端子voutが接続されている。垂直出力線302には電流源304が接続されている。この電流源304と、垂直出力線302に接続された単位画素部300のFDアンプ404によってソースフォロワ回路が構成される。 The vertical output line 302 is provided for each column, and the output terminal vout of the unit pixel unit 300 for one column is connected thereto. A current source 304 is connected to the vertical output line 302. This current source 304 and the FD amplifier 404 of the unit pixel unit 300 connected to the vertical output line 302 constitute a source follower circuit.
クランプ容量(C1)501は演算増幅器503の反転入力端子に接続されている。またフィードバック容量(C2)502は、演算増幅器503の出力端子と反転入力端子に接続されている。演算増幅器503の非反転入力端子には基準電源Vrefが接続されている。スイッチ504はフィードバック容量C2の両端をショートさせるためのトランジスタであり、信号cfsにより制御される。転送スイッチ505〜508は、それぞれ単位画素部300から読み出される信号を各信号保持容量509〜512に転送するためのトランジスタである。後述する読出し動作により、第1のS信号保持容量509には副画素aの画素信号Saが記憶され、第2のS信号保持容量511には副画素aの信号と副画素bの信号を加算した加算信号Sabが記憶される。また、第1のN信号保持容量510及び第2のN信号保持容量512には単位画素部300のノイズ信号Nがそれぞれ記憶される。各信号保持容量509〜512は、列共通読出し回路303の出力端子vsa,vna,vsb,vnbにそれぞれ接続されている。 The clamp capacitor (C1) 501 is connected to the inverting input terminal of the operational amplifier 503. The feedback capacitor (C2) 502 is connected to the output terminal and the inverting input terminal of the operational amplifier 503. A reference power supply Vref is connected to the non-inverting input terminal of the operational amplifier 503. The switch 504 is a transistor for short-circuiting both ends of the feedback capacitor C2, and is controlled by a signal cfs. The transfer switches 505 to 508 are transistors for transferring signals read from the unit pixel unit 300 to the signal holding capacitors 509 to 512, respectively. The pixel signal Sa of the sub-pixel a is stored in the first S signal holding capacitor 509 and the signal of the sub-pixel a and the signal of the sub-pixel b are added to the second S signal holding capacitor 511 by a read operation described later. The added signal Sab is stored. In addition, the noise signal N of the unit pixel unit 300 is stored in the first N signal holding capacitor 510 and the second N signal holding capacitor 512, respectively. Each of the signal holding capacitors 509 to 512 is connected to output terminals vsa, vna, vsb, and vnb of the column common readout circuit 303, respectively.
図14の列共通読出し回路303の出力端子vsa,vnaには、それぞれ水平転送スイッチ305,306が接続されている。水平転送スイッチ305,306は水平走査回路311の出力信号ha*(*は任意の列番号を表す)によって制御される。信号ha*がHighレベルになることにより、第1のS信号保持容量509、第1のN信号保持容量510の各信号がそれぞれ水平出力線309,310へ転送される。 Horizontal transfer switches 305 and 306 are connected to the output terminals vsa and vna of the column common readout circuit 303 in FIG. The horizontal transfer switches 305 and 306 are controlled by an output signal ha * (* represents an arbitrary column number) of the horizontal scanning circuit 311. When the signal ha * becomes the high level, the signals of the first S signal holding capacitor 509 and the first N signal holding capacitor 510 are transferred to the horizontal output lines 309 and 310, respectively.
また、列共通読出し回路303の出力端子vsb,vnbには、それぞれ水平転送スイッチ307,308が接続されている。水平転送スイッチ307,308は水平走査回路311の出力信号hb*(*は任意の列番号を表す)によって制御される。信号hb*がHighレベルになることにより、第2のS信号保持容量511、第2のN信号保持容量512の各信号がそれぞれ水平出力線309,310へ転送される。 Further, horizontal transfer switches 307 and 308 are connected to the output terminals vsb and vnb of the column common readout circuit 303, respectively. The horizontal transfer switches 307 and 308 are controlled by an output signal hb * (* represents an arbitrary column number) of the horizontal scanning circuit 311. When the signal hb * becomes the high level, the signals of the second S signal holding capacitor 511 and the second N signal holding capacitor 512 are transferred to the horizontal output lines 309 and 310, respectively.
水平出力線309,310は差動増幅器314の各入力端子に接続されている。差動増幅器314ではS信号とN信号の差分を演算し、同時に所定のゲインをかけ、最終的な出力信号を出力端子315へ出力する。水平出力線リセットスイッチ312,313は、信号chresがHighレベルになることによってON状態となり、各水平出力線309,310がリセット電圧Vchresに設定される(リセット)。 The horizontal output lines 309 and 310 are connected to the input terminals of the differential amplifier 314. The differential amplifier 314 calculates the difference between the S signal and the N signal, simultaneously applies a predetermined gain, and outputs the final output signal to the output terminal 315. The horizontal output line reset switches 312 and 313 are turned on when the signal chres becomes High level, and the horizontal output lines 309 and 310 are set to the reset voltage Vchres (reset).
次に、図17を参照して撮像素子102の読出し動作について説明する。図17は撮像素子102の各行の読出し動作を示すタイミングチャートである。 Next, the reading operation of the image sensor 102 will be described with reference to FIG. FIG. 17 is a timing chart showing the read operation of each row of the image sensor 102.
まず、信号cfsをHighレベルにすることで、図16のスイッチ504がON状態になり、演算増幅器503がバッファ状態となる。次に、信号selをHighレベルにすると、図15の画素選択スイッチ406がONする。その後、信号resをLowレベルにすることでFDリセットスイッチ405がOFFとなり、FD部403のリセットが解放される。続いて信号cfsをLowレベルに戻し、スイッチ504がOFFした後、信号tna,tnbがHighレベルとなる。これにより、転送スイッチ506,508を介して第1のN信号保持容量510及び第2のN信号保持容量512にN信号が記憶される。 First, by setting the signal cfs to a high level, the switch 504 in FIG. 16 is turned on, and the operational amplifier 503 is placed in a buffer state. Next, when the signal sel is set to the High level, the pixel selection switch 406 in FIG. 15 is turned ON. Thereafter, by setting the signal res to the low level, the FD reset switch 405 is turned off, and the reset of the FD unit 403 is released. Subsequently, the signal cfs is returned to the Low level, and after the switch 504 is turned OFF, the signals tna and tnb are set to the High level. As a result, the N signal is stored in the first N signal holding capacitor 510 and the second N signal holding capacitor 512 via the transfer switches 506 and 508.
次に信号tna,tnbをLowレベルにすると、転送スイッチ506,508がOFFになる。その後、信号tsaをHighレベルにして転送スイッチ505をONにすると共に、信号txaをHighレベルにすることで転送ゲート402aをONにする制御が行われる。この動作により、副画素aのPD401aに蓄積されていた信号がFDアンプ404、画素選択スイッチ406を介して垂直出力線302へ出力される。垂直出力線302の信号は、演算増幅器503においてクランプ容量C1とフィードバック容量C2の容量比に応じたゲインで増幅され、転送スイッチ505を介して第1のS信号保持容量509へ記憶される(画素信号Sa)。 Next, when the signals tna and tnb are set to the low level, the transfer switches 506 and 508 are turned off. Thereafter, the signal tsa is set to the high level to turn on the transfer switch 505, and the signal txa is set to the high level to control the transfer gate 402a to be turned on. By this operation, the signal accumulated in the PD 401 a of the subpixel “a” is output to the vertical output line 302 via the FD amplifier 404 and the pixel selection switch 406. The signal of the vertical output line 302 is amplified by the operational amplifier 503 with a gain corresponding to the capacitance ratio between the clamp capacitor C1 and the feedback capacitor C2, and stored in the first S signal holding capacitor 509 via the transfer switch 505 (pixel). Signal Sa).
次に、信号txaと信号tsaを順次Lowレベルにする。その後、信号tsbをHighレベルにして転送スイッチ507をONにすると共に、信号txa及びtxbをHighレベルにすることで転送ゲート402aと402bをONにする。この動作により、副画素bのPD401bに蓄積されていた信号がFD部403で副画素aの信号と加算される。加算後の信号はFDアンプ404、画素選択スイッチ406を介して垂直出力線302へ出力される。垂直出力線302の信号は、演算増幅器503においてクランプ容量C1とフィードバック容量C2の容量比に応じたゲインで増幅され、転送スイッチ507を介して第2のS信号保持容量511へ記憶される(加算信号Sab)。 Next, the signal txa and the signal tsa are sequentially set to a low level. Thereafter, the signal tsb is set to high level to turn on the transfer switch 507, and the signals txa and txb are set to high level to turn on the transfer gates 402a and 402b. By this operation, the signal accumulated in the PD 401b of the subpixel b is added to the signal of the subpixel a by the FD unit 403. The signal after addition is output to the vertical output line 302 via the FD amplifier 404 and the pixel selection switch 406. The signal of the vertical output line 302 is amplified by the operational amplifier 503 with a gain corresponding to the capacitance ratio between the clamp capacitor C1 and the feedback capacitor C2, and stored in the second S signal holding capacitor 511 via the transfer switch 507 (addition). Signal Sab).
転送ゲート402a及び402bと、転送スイッチ507が順次OFFとなった後、信号resをHighレベルにするとFDリセットスイッチ405がONし、FD部403がリセットされる。 After the transfer gates 402a and 402b and the transfer switch 507 are sequentially turned OFF, when the signal res is set to the High level, the FD reset switch 405 is turned ON and the FD unit 403 is reset.
次に、水平走査回路311の出力ha1がHighレベルになることにより、水平転送スイッチ305,306がONする。第1のS信号保持容量509、第1のN信号保持容量510の各信号が水平出力線309,310と差動増幅器314を介して出力端子315に出力される。水平走査回路311は、各列の選択信号ha1,ha2,・・・,hakを順次Highレベルにすることにより、1行分の副画素aの信号(像信号A)を出力する。 Next, when the output ha1 of the horizontal scanning circuit 311 becomes High level, the horizontal transfer switches 305 and 306 are turned on. Each signal of the first S signal holding capacitor 509 and the first N signal holding capacitor 510 is output to the output terminal 315 via the horizontal output lines 309 and 310 and the differential amplifier 314. The horizontal scanning circuit 311 sequentially outputs the signals (image signal A) of the sub-pixels a for one row by sequentially setting the selection signals ha1, ha2,.
像信号Aの読出しが終了すると、続いて、水平走査回路311の出力hb1がHighレベルになる。これにより、水平転送スイッチ307,308がONになり、第2のS信号保持容量511、第2のN信号保持容量512の信号が水平出力線309,310と差動増幅器314を介して出力端子315に出力される。水平走査回路311は、各列の選択信号hb1,hb2,・・・,hbkを順次Highレベルにすることにより、1行分の加算信号(像信号AB)を出力する。 When the reading of the image signal A is completed, the output hb1 of the horizontal scanning circuit 311 subsequently becomes High level. As a result, the horizontal transfer switches 307 and 308 are turned on, and the signals of the second S signal holding capacitor 511 and the second N signal holding capacitor 512 are output via the horizontal output lines 309 and 310 and the differential amplifier 314. It is output to 315. The horizontal scanning circuit 311 outputs the addition signal (image signal AB) for one row by sequentially setting the selection signals hb1, hb2,..., Hbk of each column to the high level.
尚、信号ha1〜hak及び信号hb1〜hbkによって各列の信号が読み出される期間中、信号chresをHighレベルにすることで水平出力線リセットスイッチ312,313は一時的にONになる。このとき、水平出力線309,310はリセット電圧Vchresのレベルにリセットされる。 Note that the horizontal output line reset switches 312 and 313 are temporarily turned on by setting the signal chres to the high level during the period in which the signals of the respective columns are read by the signals ha1 to hak and the signals hb1 to hbk. At this time, the horizontal output lines 309 and 310 are reset to the level of the reset voltage Vchres.
このような撮像素子から信号を読み出す際、焦点検出領域においては、撮像素子102の信号が先頭ラインから順に読み出される。この際、各ラインから像信号Aと像信号ABの両方が読み出される。焦点検出領域以外においては、撮像素子102の信号が先頭ラインから順に読み出される。この際、各ラインから像信号ABのみが読み出される。これは、制御部107の制御により、撮像素子102では演算処理に不要となる像信号Aの出力が停止される。その分だけ電力や読み出し時間を節減することができる。 When reading a signal from such an image sensor, the signal of the image sensor 102 is sequentially read from the top line in the focus detection region. At this time, both the image signal A and the image signal AB are read from each line. Outside the focus detection area, signals from the image sensor 102 are read in order from the first line. At this time, only the image signal AB is read from each line. This is because the control of the control unit 107 stops the output of the image signal A that is unnecessary for the arithmetic processing in the image sensor 102. Power and readout time can be saved accordingly.
上記実施形態と同様に、焦点検出領域の切り替えを行うことで、1つのマイクロレンズに対して複数の光電変換部を有する撮像素子においても、動画駆動時など撮像フレーム速度に制限がある環境下で、全領域の精細なデフォーカス量情報を得ることができる。 Similar to the above-described embodiment, by switching the focus detection region, even in an imaging device having a plurality of photoelectric conversion units for one microlens, in an environment where the imaging frame speed is limited, such as when driving a moving image. Thus, fine defocus amount information of the entire region can be obtained.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。ネットワーク又は各種記憶媒体を介して取得したソフトウェア(プログラム)をパーソナルコンピュータ(CPU,プロセッサ)にて実行することでも実現できる。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed. It can also be realized by executing software (program) acquired via a network or various storage media on a personal computer (CPU, processor).
101 レンズ鏡筒
102 撮像素子
103 駆動回路
104 信号処理部
105 圧縮伸張部
106 位相差検出部
107 制御部
108 発光部
109 操作部
110 画像表示部
111 画像記録部
1011 光学機構部
DESCRIPTION OF SYMBOLS 101 Lens barrel 102 Image pick-up element 103 Drive circuit 104 Signal processing part 105 Compression / decompression part 106 Phase difference detection part 107 Control part 108 Light emission part 109 Operation part 110 Image display part 111 Image recording part 1011 Optical mechanism part
Claims (8)
前記一対の信号から取得した位相差情報に基づきデフォーカス量を算出する位相差検出手段と、
前記撮像素子に結像する被写体像に対する焦点検出領域としての読み出し領域を設定する設定手段と、
前記設定手段により設定された前記読み出し領域に配置される画素から読み出した信号から取得した位相差情報に基づき算出されるデフォーカス量に応じて前記フォーカスレンズを駆動する駆動手段と、
フレームごとに前記設定手段で設定された前記読み出し領域を前記被写体像の他の領域に順次切り替えて変更する変更手段と、を備えることを特徴とする撮像装置。 An imaging apparatus including an imaging device having a plurality of pixels capable of photoelectrically converting light beams that have passed through different pupil regions of a photographing optical system including a focus lens and outputting a pair of signals,
Phase difference detection means for calculating a defocus amount based on the phase difference information acquired from the pair of signals;
Setting means for setting a readout region as a focus detection region for a subject image formed on the image sensor;
Drive means for driving the focus lens in accordance with a defocus amount calculated based on phase difference information acquired from a signal read from a pixel arranged in the readout region set by the setting means;
An imaging apparatus comprising: a changing unit that sequentially switches and changes the readout area set by the setting unit for each frame to another area of the subject image.
前記変更手段は、前記第1の読み出しモードで前記撮像用画素群の信号を読み出すフレームごとの撮像動作において前記第2の読み出しモードで前記読み出し領域に配置される前記焦点検出用画素の信号を読み出す場合に、フレームごとに前記設定手段で設定された前記読み出し領域を前記被写体像の他の領域に順次切り替えて変更することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。 The imaging device includes a first readout mode in which an imaging pixel group for image generation and a focus detection pixel group for focus detection by a phase difference detection method are arranged, and a signal is read from the imaging pixel group. Driven in a second readout mode for reading out signals in pixel units from the focus detection pixel group;
The changing unit reads out signals of the focus detection pixels arranged in the readout area in the second readout mode in an imaging operation for each frame that reads out signals of the imaging pixel group in the first readout mode. 5. The imaging apparatus according to claim 1, wherein the readout area set by the setting unit is sequentially switched and changed to another area of the subject image for each frame. .
前記焦点検出用信号から取得した位相差情報に基づきデフォーカス量を算出する位相差検出手段と、
前記撮像素子に結像する被写体像に対する焦点検出領域としての読み出し領域を設定する設定手段と、
前記設定手段により設定された前記読み出し領域に配置される画素から読み出した信号から取得した位相差情報に基づき算出されるデフォーカス量に応じてフォーカスレンズを駆動する駆動手段と、
フレームごとに前記設定手段で設定された前記読み出し領域を前記被写体像の他の領域に順次切り替えて変更する変更手段と、を備えることを特徴とする撮像装置。 Each of the pixel units includes a plurality of photoelectric conversion units, and includes an imaging device that outputs a focus detection signal and an image generation signal from the photoelectric conversion units,
Phase difference detection means for calculating a defocus amount based on the phase difference information acquired from the focus detection signal;
Setting means for setting a readout region as a focus detection region for a subject image formed on the image sensor;
Drive means for driving the focus lens according to the defocus amount calculated based on the phase difference information acquired from the signal read from the pixel arranged in the readout region set by the setting means;
An imaging apparatus comprising: a changing unit that sequentially switches and changes the readout area set by the setting unit for each frame to another area of the subject image.
前記一対の信号から取得した位相差情報に基づきデフォーカス量を算出する位相差検出ステップと、
前記撮像素子に結像する被写体像に対する焦点検出領域としての読み出し領域を設定する設定ステップと、
前記設定ステップで設定された前記読み出し領域に配置される画素から読み出した信号から取得した位相差情報に基づき算出されるデフォーカス量に応じて前記フォーカスレンズを駆動するように制御する制御ステップと、
フレームごとに前記設定ステップで設定された前記読み出し領域を前記被写体像の他の領域に順次切り替えて変更する変更ステップと、を備えることを特徴とする撮像装置の制御方法。 An imaging device having a plurality of pixels capable of photoelectrically converting a light beam that has passed through different pupil regions of a photographing optical system including a focus lens and outputting a pair of signals, and a drive unit that drives the focus lens A control method executed by an imaging apparatus,
A phase difference detection step of calculating a defocus amount based on the phase difference information acquired from the pair of signals;
A setting step for setting a readout region as a focus detection region for a subject image formed on the image sensor;
A control step for controlling the focus lens to be driven according to a defocus amount calculated based on phase difference information acquired from a signal read from a pixel arranged in the readout region set in the setting step;
And a changing step of sequentially switching and changing the readout area set in the setting step for each frame to another area of the subject image.
前記焦点検出用信号から取得した位相差情報に基づきデフォーカス量を算出する位相差検出ステップと、
前記撮像素子に結像する被写体像に対する焦点検出領域としての読み出し領域を設定する設定ステップと、
前記設定ステップにより設定された前記読み出し領域に配置される画素から読み出した信号から取得した位相差情報に基づき算出されるデフォーカス量に応じて前記フォーカスレンズを駆動するように制御する制御ステップと、
フレームごとに前記設定ステップで設定される前記読み出し領域を前記被写体像の他の領域に順次切り替えて変更する変更ステップと、を備えることを特徴とする制御方法。 Each of the pixel units includes a plurality of photoelectric conversion units, and is executed by an imaging device that includes an imaging element that outputs a focus detection signal and an image generation signal from the photoelectric conversion units, and a driving unit that drives a focus lens. A control method,
A phase difference detection step of calculating a defocus amount based on phase difference information acquired from the focus detection signal;
A setting step for setting a readout region as a focus detection region for a subject image formed on the image sensor;
A control step for controlling the focus lens to be driven according to a defocus amount calculated based on phase difference information acquired from a signal read from a pixel arranged in the readout region set in the setting step;
And a changing step of sequentially switching and changing the readout area set in the setting step for each frame to another area of the subject image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014098628A JP6448219B2 (en) | 2014-05-12 | 2014-05-12 | Imaging apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014098628A JP6448219B2 (en) | 2014-05-12 | 2014-05-12 | Imaging apparatus and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015216519A true JP2015216519A (en) | 2015-12-03 |
JP6448219B2 JP6448219B2 (en) | 2019-01-09 |
Family
ID=54753020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014098628A Expired - Fee Related JP6448219B2 (en) | 2014-05-12 | 2014-05-12 | Imaging apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6448219B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017125965A (en) * | 2016-01-14 | 2017-07-20 | キヤノン株式会社 | Image processor, imaging device, and image processing program |
JP2018207224A (en) * | 2017-05-31 | 2018-12-27 | キヤノン株式会社 | Imaging apparatus |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009105878A (en) * | 2007-10-01 | 2009-05-14 | Nikon Corp | Solid-state imaging apparatus and electronic camera using the same |
JP2013161012A (en) * | 2012-02-08 | 2013-08-19 | Canon Inc | Imaging apparatus and control method therefor |
-
2014
- 2014-05-12 JP JP2014098628A patent/JP6448219B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009105878A (en) * | 2007-10-01 | 2009-05-14 | Nikon Corp | Solid-state imaging apparatus and electronic camera using the same |
JP2013161012A (en) * | 2012-02-08 | 2013-08-19 | Canon Inc | Imaging apparatus and control method therefor |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017125965A (en) * | 2016-01-14 | 2017-07-20 | キヤノン株式会社 | Image processor, imaging device, and image processing program |
JP2018207224A (en) * | 2017-05-31 | 2018-12-27 | キヤノン株式会社 | Imaging apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP6448219B2 (en) | 2019-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6372488B2 (en) | Electronics | |
EP2181349B1 (en) | Image sensing apparatus | |
JP6375607B2 (en) | Electronic device, electronic device control method, and control program | |
JP2019036988A (en) | Electronic equipment | |
JP5911445B2 (en) | Imaging apparatus and control method thereof | |
JP2016082354A (en) | Image sensor and imaging apparatus | |
JP5635092B2 (en) | Solid-state imaging device, imaging apparatus including the solid-state imaging device, imaging control method, and imaging control program | |
JP6561428B2 (en) | Electronic device, control method, and control program | |
JP6802642B2 (en) | Imaging device and its control method, program, and storage medium | |
WO2012014553A1 (en) | Imaging device and imaging method | |
JP6442362B2 (en) | Image pickup apparatus and image pickup element control method | |
JP2018019296A (en) | Imaging apparatus and control method therefor | |
JP5033711B2 (en) | Imaging device and driving method of imaging device | |
JP6521731B2 (en) | Imaging device, control method therefor, and control program | |
JP6448219B2 (en) | Imaging apparatus and control method thereof | |
JP2018066928A (en) | Solid state image pickup element, control method thereof, and imaging apparatus | |
JP2011049472A (en) | Solid-state image sensor and image pickup apparatus using the same | |
JP5235701B2 (en) | Imaging device | |
JP2016018033A (en) | Imaging device, control method of the same, program and recording medium | |
JP2015114544A (en) | Imaging device, control method of the same and control program thereof | |
JP2013021616A (en) | Imaging apparatus | |
JP2018066931A (en) | Solid state image pickup element, control method thereof, and imaging apparatus | |
JP4630200B2 (en) | Solid-state imaging device and imaging apparatus | |
JP2016018034A (en) | Imaging device, control method of the same, program and recording medium | |
JP2018133600A (en) | Imaging apparatus, imaging apparatus control method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170427 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180417 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180612 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181204 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6448219 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |