JP5414358B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5414358B2
JP5414358B2 JP2009122560A JP2009122560A JP5414358B2 JP 5414358 B2 JP5414358 B2 JP 5414358B2 JP 2009122560 A JP2009122560 A JP 2009122560A JP 2009122560 A JP2009122560 A JP 2009122560A JP 5414358 B2 JP5414358 B2 JP 5414358B2
Authority
JP
Japan
Prior art keywords
focus detection
pixel
focus
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009122560A
Other languages
Japanese (ja)
Other versions
JP2010271499A (en
JP2010271499A5 (en
Inventor
明彦 長野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009122560A priority Critical patent/JP5414358B2/en
Publication of JP2010271499A publication Critical patent/JP2010271499A/en
Publication of JP2010271499A5 publication Critical patent/JP2010271499A5/ja
Application granted granted Critical
Publication of JP5414358B2 publication Critical patent/JP5414358B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

撮影レンズの焦点状態を検出する方式の一つとして、撮像センサの各画素にマイクロレンズが形成された2次元のセンサを用いて瞳分割方式の焦点検出を行う装置が特許文献1に記載されている。特許文献1の装置では、撮像センサを構成する各画素の光電変換部が複数に分割されており、分割された光電変換部がマイクロレンズを介して撮影レンズの瞳の異なる領域を受光するように構成している。   As one of methods for detecting the focus state of a photographing lens, Patent Document 1 describes an apparatus that performs pupil division type focus detection using a two-dimensional sensor in which a microlens is formed on each pixel of an imaging sensor. Yes. In the apparatus of Patent Document 1, the photoelectric conversion unit of each pixel constituting the imaging sensor is divided into a plurality of parts, and the divided photoelectric conversion unit receives different areas of the pupil of the photographing lens through the microlens. It is composed.

また、近年デジタルスチルカメラやデジタルビデオカムコーダなどの撮像装置では、画素配列の多画素化に伴い画像信号を高速に読み出し可能なCMOSイメージセンサが使用されている。   In recent years, CMOS image sensors capable of reading image signals at high speed have been used in imaging devices such as digital still cameras and digital video camcorders as the number of pixels in the pixel array increases.

本出願人は、CMOSイメージセンサを用いて瞳分割方式の焦点検出を行う撮像装置を特許文献2に開示している。特許文献2のCMOSイメージセンサは、CMOSイメージセンサを構成する多数の画素のうち一部の画素において、撮影レンズの焦点状態を検出するために光電変換部が2つに分割された構成になっている。光電変換部は、マイクロレンズを介して撮影レンズの瞳の所定領域を受光するように構成されている。図12に、特許文献2の図4と同様の図面を示す。   The present applicant discloses an imaging apparatus that performs pupil-division focus detection using a CMOS image sensor in Patent Document 2. The CMOS image sensor of Patent Document 2 has a configuration in which the photoelectric conversion unit is divided into two parts to detect the focus state of the photographing lens in some of the many pixels constituting the CMOS image sensor. Yes. The photoelectric conversion unit is configured to receive a predetermined region of the pupil of the photographing lens via the microlens. FIG. 12 shows a drawing similar to FIG.

図12に示された画素配列PAにおいて、R、G、Bは、それぞれベイヤー配列のR画素、G画素、B画素であって焦点検出に使用されない画素を示している。一方、ベイヤー配列のG画素に相当する画素位置の一部には、光電変換部が2分割された焦点検出用画素群が配置されている。図12では、焦点検出用画素群の光電変換部が白地で示されている。   In the pixel array PA illustrated in FIG. 12, R, G, and B indicate pixels that are R, G, and B pixels in the Bayer array and are not used for focus detection. On the other hand, a focus detection pixel group in which the photoelectric conversion unit is divided into two is arranged at a part of the pixel position corresponding to the G pixel in the Bayer array. In FIG. 12, the photoelectric conversion unit of the focus detection pixel group is shown in white.

また、特許文献2に開示されたCMOSイメージセンサは、縦縞の被写体を検出し易いように光電変換部が水平方向に分割された焦点検出用画素群と、横縞の被写体を検出し易いように光電変換部が垂直方向に分割された焦点検出用画素群とを有している。図12には、光電変換部が水平方向(行方向)に分割された焦点検出用画素群として、複数の第1画素P1(1,1)〜P1(5,7)が示されている。光電変換部が垂直方向(列方向)に分割された焦点検出用画素群として、複数の第2画素P2(3,2)〜P2(7,8)が示されている。   In addition, the CMOS image sensor disclosed in Patent Document 2 includes a focus detection pixel group in which the photoelectric conversion unit is divided in the horizontal direction so that a vertical stripe subject can be easily detected, and a photoelectric detection so that a horizontal stripe subject can be easily detected. The conversion unit has a focus detection pixel group divided in the vertical direction. FIG. 12 shows a plurality of first pixels P1 (1,1) to P1 (5,7) as a focus detection pixel group in which the photoelectric conversion unit is divided in the horizontal direction (row direction). A plurality of second pixels P2 (3, 2) to P2 (7, 8) are shown as a focus detection pixel group in which the photoelectric conversion unit is divided in the vertical direction (column direction).

このようなCMOSイメージセンサを有する撮像装置においては、撮影レンズの瞳上の水平方向にずれた第1領域及び第2領域を透過した光束を、焦点検出用画素における水平方向に分割された光電変換部がそれぞれ受ける。そして、撮影レンズの瞳上の第1領域を透過した光束により生成された像と第2領域を透過した光束により生成される像との相関演算を行って、撮影レンズの焦点状態が検出される。このとき、撮影レンズが合焦状態であれば、撮影レンズの瞳上の第1領域を透過した光束により生成された像の位相と第2領域を透過した光束により生成される像の位相とは一致する。一方、撮影レンズが合焦状態でなければ、撮影レンズの瞳上の第1領域を透過した光束により生成された像の位相と第2領域を透過した光束により生成される像の位相とはずれる。このようにして、撮影レンズの合焦状態が検出される。   In an image pickup apparatus having such a CMOS image sensor, photoelectric conversion in which light beams transmitted through the first region and the second region shifted in the horizontal direction on the pupil of the photographing lens are divided in the horizontal direction in the focus detection pixels. Each department receives. Then, the focal state of the photographing lens is detected by performing a correlation operation between the image generated by the light beam transmitted through the first region on the pupil of the photographing lens and the image generated by the light beam transmitted through the second region. . At this time, if the photographing lens is in an in-focus state, the phase of the image generated by the light beam transmitted through the first region on the pupil of the photographing lens and the phase of the image generated by the light beam transmitted through the second region are Match. On the other hand, if the photographic lens is not in focus, the phase of the image generated by the light beam transmitted through the first area on the pupil of the photographic lens deviates from the phase of the image generated by the light beam transmitted through the second area. In this way, the in-focus state of the taking lens is detected.

特許文献3には、撮影レンズの異なる瞳領域を透過した光束より生成される像の相関演算を行って焦点検出を行うことが記載されている。   Patent Document 3 describes that focus detection is performed by performing correlation calculation of an image generated from a light beam that has passed through different pupil regions of a photographing lens.

特開昭58−24105号公報JP-A-58-24105 特開2005−106994号公報JP 2005-106994 A 特開平5−127074号公報JP-A-5-127074

図13に示すCMOSイメージセンサでは、画素配列PAiにおける第1行目から第32行目にかけて順次に信号の蓄積動作が開始され、その後、第1行目から第32行目にかけて順次にその蓄積動作による信号が読み出される動作が行われる。すなわち、CMOSイメージセンサでは、スリットローリングシャッタ動作が行われる。この場合、画素における信号の蓄積動作のタイミングが行ごとに異なるものとなる。   In the CMOS image sensor shown in FIG. 13, the signal accumulation operation is sequentially started from the first row to the 32nd row in the pixel array PAi, and then the accumulation operation is sequentially performed from the first row to the 32nd row. The operation of reading the signal is performed. That is, in the CMOS image sensor, a slit rolling shutter operation is performed. In this case, the timing of the signal accumulation operation in the pixel is different for each row.

ここで、画素配列PAiに、横視野(行方向の視野)のAF(Auto Focus)像を得るための横長の領域TRにおける焦点検出画素群と、縦視野(列方向の視野)のAF像を得るための縦長の領域LRにおける焦点検出画素群とが配されているとする。なお、図13では、便宜的に、焦点検出画素を黒い四角で示している。   Here, in the pixel array PAi, a focus detection pixel group in a horizontally long region TR for obtaining an AF (Auto Focus) image having a horizontal field of view (row direction field of view) and an AF image of a vertical field of view (column direction field of view) are obtained. It is assumed that the focus detection pixel group in the vertically long region LR to be obtained is arranged. In FIG. 13, the focus detection pixels are indicated by black squares for convenience.

横長の領域TRでは、例えば、12行目に位置する焦点検出用画素P2(12,7)における信号の蓄積動作のタイミングと、11行目に位置する焦点検出用画素P2(11,48)における信号の蓄積動作のタイミングとがほぼ同じである。このとき、撮像装置に対して被写体が近づいたり遠ざかったりすると、画素配列PAi上に形成された被写体像の動きが発生する。この場合でも、焦点検出用画素P2(12,7)の信号に示される被写体までの距離と焦点検出用画素P2(11,48)の信号により示される被写体までの距離とがほとんど同じになる。   In the horizontally long region TR, for example, the signal accumulation operation timing in the focus detection pixel P2 (12, 7) located in the 12th row and the focus detection pixel P2 (11, 48) located in the 11th row. The timing of the signal accumulation operation is almost the same. At this time, when the subject approaches or moves away from the imaging device, the motion of the subject image formed on the pixel array PAi occurs. Even in this case, the distance to the subject indicated by the signal of the focus detection pixel P2 (12, 7) is almost the same as the distance to the subject indicated by the signal of the focus detection pixel P2 (11, 48).

それに対して、縦長の領域LRでは、例えば、3行目に位置する焦点検出用画素P1(3,20)における信号の蓄積動作のタイミングと、31行目に位置する焦点検出用画素P1(31,24)における信号の蓄積動作のタイミングとが大きく異なる。このとき、撮像装置に対して被写体が近づいたり遠ざかったりすると、画素配列PAi上に形成された被写体像の動きが発生する。この場合、焦点検出用画素P1(3,20)の信号に示される被写体までの距離と焦点検出用画素P1(31,24)の信号により示される被写体までの距離とが大きく異なる可能性がある。   On the other hand, in the vertically long region LR, for example, the timing of the signal accumulation operation in the focus detection pixel P1 (3, 20) located in the third row and the focus detection pixel P1 (31 in the 31st row). , 24) is significantly different from the timing of the signal accumulation operation. At this time, when the subject approaches or moves away from the imaging device, the motion of the subject image formed on the pixel array PAi occurs. In this case, the distance to the subject indicated by the signal of the focus detection pixel P1 (3, 20) and the distance to the subject indicated by the signal of the focus detection pixel P1 (31, 24) may be greatly different. .

ここで、縦長の領域LRにおける焦点検出画素群の信号から縦視野のAF像を得るとともに、横長の領域TRにおける焦点検出画素群の信号から横視野のAF像を得る。この場合、縦視野のAF像により示される被写体までの距離は、横視野のAF像により示される被写体までの距離に比べて、信頼性の低いものとなる。これにより、縦視野のAF像と横視野のAF像とを用いて焦点調節を行うと、焦点調節の精度が低下する可能性がある。   Here, a longitudinal visual field AF image is obtained from the focus detection pixel group signal in the vertically long region LR, and a lateral visual field AF image is obtained from the focus detection pixel group signal in the laterally long region TR. In this case, the distance to the subject indicated by the longitudinal visual field AF image is less reliable than the distance to the subject indicated by the lateral visual field AF image. As a result, when focus adjustment is performed using an AF image with a vertical field of view and an AF image with a horizontal field of view, the accuracy of focus adjustment may be reduced.

一方、一律に、横視野のAF像のみを用いて焦点調節を行うと、被写体によっては焦点調節を行うことができない可能性がある。   On the other hand, if focus adjustment is performed using only the lateral view AF image, there is a possibility that the focus adjustment cannot be performed depending on the subject.

本発明の目的は、撮像装置において、撮影レンズに対する焦点調節の精度を向上するこことにある。   An object of the present invention is to improve the accuracy of focus adjustment for a photographic lens in an imaging apparatus.

本発明の1つの側面に係る撮像装置は、撮影レンズと、前記撮影レンズにより被写体の像が形成される画素配列であって、複数の画素が行方向及び列方向に配列され、前記複数の画素が、前記撮影レンズの全射出瞳領域のうちの一部である第1の射出瞳領域からの被写体の像を光電変換する第1の焦点検出用画素群と、前記撮影レンズの全射出瞳領域のうちの一部であり前記第1の射出瞳領域に対する行方向に偏った第2の射出瞳領域からの被写体の像を光電変換する第2の焦点検出用画素群と、前記撮影レンズの全射出瞳領域のうちの一部である第3の射出瞳領域からの被写体の像を光電変換する第3の焦点検出用画素群と、前記撮影レンズの全射出瞳領域のうちの一部であり前記第3の射出瞳領域に対する列方向に偏った第4の射出瞳領域からの被写体の像を光電変換する第4の焦点検出用画素群と、前記撮影レンズの全射出瞳領域からの被写体の像を光電変換する撮影用画素群とを含む画素配列と、前記画素配列における行を順次に選択する選択手段と、前記選択手段により選択された行の画素から信号を読み出す読み出し手段とを有する撮像センサと、前記読み出し手段により読み出された前記第1の焦点検出用画素群の信号と前記第2の焦点検出用画素群の信号とを用いて行方向の視野での前記撮影レンズの焦点状態を検出する第1の焦点検出手段と、前記読み出し手段により読み出された前記第3の焦点検出用画素群の信号と前記第4の焦点検出用画素群の信号とを用いて列方向の視野での前記撮影レンズの焦点状態を検出する第2の焦点検出手段と、前記画素配列に形成された前記被写体の像の動きを検出する動き検出手段と、前記動き検出手段により前記被写体の像の動きが検出された場合、前記第1の焦点検出手段の検出結果を第1の重みで用い前記第2の焦点検出手段の検出結果を前記第1の重みより低い第2の重みで用いることにより焦点調節を行う焦点調節手段と、を備え、前記撮影用画素群が配置されている領域内に前記第1の焦点検出用画素群及び前記第2の焦点検出用画素群及び前記第3の焦点検出用画素群及び前記第4の焦点検出用画素群がそれぞれ第1の周期で離散的に配列されていることを特徴とする。 An imaging apparatus according to one aspect of the present invention is a photographic lens and a pixel array in which an image of a subject is formed by the photographic lens, wherein a plurality of pixels are arranged in a row direction and a column direction, and the plurality of pixels Are a first focus detection pixel group that photoelectrically converts an image of a subject from a first exit pupil region that is a part of the entire exit pupil region of the photographing lens, and the entire exit pupil region of the photographing lens. A second focus detection pixel group that photoelectrically converts a subject image from a second exit pupil region that is a part of the first exit pupil region and is biased in a row direction with respect to the first exit pupil region; A third focus detection pixel group that photoelectrically converts an image of a subject from a third exit pupil area that is a part of the exit pupil area, and a part of the entire exit pupil area of the photographing lens. Fourth exit pupil region biased in a column direction with respect to the third exit pupil region A pixel array including a fourth focus detection pixel group that photoelectrically converts a subject image from the camera, and a shooting pixel group that photoelectrically converts a subject image from all exit pupil regions of the photographing lens, and the pixel array An imaging sensor having a selection unit that sequentially selects the rows in the image sensor; a readout unit that reads out signals from the pixels in the row selected by the selection unit; and the first focus detection pixel that is read out by the readout unit. First focus detection means for detecting the focus state of the photographing lens in the field of view in the row direction using the group signal and the signal of the second focus detection pixel group, and read by the readout means Second focus detection means for detecting a focus state of the photographing lens in a field of view in a column direction using a signal of the third focus detection pixel group and a signal of the fourth focus detection pixel group; In the pixel array A motion detection unit configured to detect the motion of the image of the subject formed, and when the motion detection unit detects the motion of the image of the subject, the detection result of the first focus detection unit is expressed with a first weight. A focus adjustment unit that performs focus adjustment by using a detection result of the second focus detection unit used with a second weight lower than the first weight, and in which the imaging pixel group is disposed The first focus detection pixel group, the second focus detection pixel group, the third focus detection pixel group, and the fourth focus detection pixel group are each discrete in a first period . It is arranged in order.

本発明によれば、撮像装置において、撮影レンズに対する焦点調節の精度を向上することができる。   According to the present invention, in the imaging apparatus, it is possible to improve the accuracy of focus adjustment for the photographic lens.

本発明の第1実施形態に係る撮像装置1の構成を示す図。1 is a diagram illustrating a configuration of an imaging apparatus 1 according to a first embodiment of the present invention. 本発明の第1実施形態におけるCMOSイメージセンサ100の構成を示す図。The figure which shows the structure of the CMOS image sensor 100 in 1st Embodiment of this invention. 画素の構成を示す図。FIG. 9 illustrates a structure of a pixel. 本発明の第1実施形態におけるCMOSイメージセンサ100の画素配列PA100のレイアウト構成を示す図。The figure which shows the layout structure of pixel array PA100 of the CMOS image sensor 100 in 1st Embodiment of this invention. 本発明の第1実施形態におけるCMOSイメージセンサ100の断面構成を示す図。The figure which shows the cross-sectional structure of the CMOS image sensor 100 in 1st Embodiment of this invention. CMOSイメージセンサ100の一部に配設された焦点検出用画素の撮影レンズ5の瞳上での受光領域を説明するための図。FIG. 4 is a diagram for explaining a light receiving region on a pupil of a photographing lens 5 of focus detection pixels arranged in a part of the CMOS image sensor 100. 本発明の第1実施形態の変形例におけるCMOSイメージセンサ100iの構成を示す図。The figure which shows the structure of the CMOS image sensor 100i in the modification of 1st Embodiment of this invention. 本発明の第1実施形態の変形例におけるCMOSイメージセンサ100iの動作を示すタイミングチャート。The timing chart which shows operation | movement of the CMOS image sensor 100i in the modification of 1st Embodiment of this invention. 本発明の第1実施形態に係る撮像装置1の焦点調節動作を示すフローチャート。3 is a flowchart showing a focus adjustment operation of the imaging apparatus 1 according to the first embodiment of the present invention. 本発明の第2実施形態に係る撮像装置の焦点調節動作を示すフローチャート。9 is a flowchart showing a focus adjustment operation of the imaging apparatus according to the second embodiment of the present invention. 本発明の第3実施形態に係る撮像装置の焦点調節動作を示すフローチャート。10 is a flowchart showing a focus adjustment operation of the imaging apparatus according to the third embodiment of the present invention. 背景技術を説明するための図。The figure for demonstrating background art. 課題を説明するための図。The figure for demonstrating a subject.

本発明の第1実施形態に係る撮像装置1を、図1を用いて説明する。図1は、本発明の第1実施形態に係る撮像装置1の構成を示す図である。   An imaging apparatus 1 according to a first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram illustrating a configuration of an imaging apparatus 1 according to the first embodiment of the present invention.

撮像装置1は、例えば、一眼レフタイプのデジタルスチルカメラである。撮像装置1は、撮影レンズ5及び本体2を備える。撮影レンズ5は、本体2に対して着脱可能に構成されている。   The imaging device 1 is, for example, a single-lens reflex digital still camera. The imaging device 1 includes a photographing lens 5 and a main body 2. The photographing lens 5 is configured to be detachable from the main body 2.

撮影レンズ5は、レンズ5a、ズームレンズ5c、フォーカスレンズ5b、絞り装置53、レンズCPU50、レンズ駆動機構55、絞り駆動機構52、レンズ駆動機構51、振れ検出装置54を備える。   The photographing lens 5 includes a lens 5a, a zoom lens 5c, a focus lens 5b, a diaphragm device 53, a lens CPU 50, a lens driving mechanism 55, a diaphragm driving mechanism 52, a lens driving mechanism 51, and a shake detection device 54.

レンズ5aは、入射した光を屈折させてズームレンズ5cへ導く。   The lens 5a refracts the incident light and guides it to the zoom lens 5c.

ズームレンズ(移動可能な光学素子)5cは、光軸LA上におけるレンズ5aと絞り装置53との間に配され、レンズ5aから導かれた光を、絞り装置53を介してフォーカスレンズ5bへ導く。ズームレンズは、光軸LAに沿って移動可能に構成されている。   The zoom lens (movable optical element) 5c is arranged between the lens 5a on the optical axis LA and the diaphragm device 53, and guides the light guided from the lens 5a to the focus lens 5b via the diaphragm device 53. . The zoom lens is configured to be movable along the optical axis LA.

絞り装置53は、光軸LA上におけるズームレンズ5cとフォーカスレンズ5bとの間に配され、ズームレンズ5cを通過後にフォーカスレンズ5bへ導かれる光の量を調節する。絞り装置53は、撮影レンズ5における瞳面の近傍に配されている。   The aperture device 53 is disposed between the zoom lens 5c and the focus lens 5b on the optical axis LA, and adjusts the amount of light guided to the focus lens 5b after passing through the zoom lens 5c. The diaphragm device 53 is disposed in the vicinity of the pupil plane of the photographing lens 5.

フォーカスレンズ5bは、光軸LA上における絞り装置53と後述のCMOSイメージセンサ100との間に配され、導かれた光を屈折させてCMOSイメージセンサ100の撮像面(画素配列)に被写体の像を形成する。   The focus lens 5b is arranged between the diaphragm 53 on the optical axis LA and a CMOS image sensor 100 described later, and refracts the guided light to image the subject on the imaging surface (pixel array) of the CMOS image sensor 100. Form.

レンズCPU50は、電気接点26を介して本体2から受けた指示に応じて、各種の制御動作を行う。   The lens CPU 50 performs various control operations in accordance with instructions received from the main body 2 via the electrical contacts 26.

例えば、レンズCPU50は、像倍率の変更指示を受けた場合、その指示に応じた像倍率が得られるように、レンズ駆動機構55を制御する。これにより、レンズ駆動機構(駆動手段)55は、その指示に応じた像倍率が得られるように、ズームレンズ5cを光軸LAに沿って移動(駆動)する。このとき、レンズCPU50は、ズームレンズ5cを駆動していることを示す情報を電気接点26経由で本体2へ供給する。   For example, when receiving an instruction to change the image magnification, the lens CPU 50 controls the lens driving mechanism 55 so that the image magnification according to the instruction is obtained. Thereby, the lens driving mechanism (driving means) 55 moves (drives) the zoom lens 5c along the optical axis LA so that an image magnification according to the instruction can be obtained. At this time, the lens CPU 50 supplies information indicating that the zoom lens 5 c is being driven to the main body 2 via the electrical contact 26.

例えば、レンズCPU50は、絞り値の変更指示を受けた場合、その指示に応じた露出値が得られるように、絞り駆動機構52を制御する。これにより、絞り駆動機構52は、その指示に応じた絞り値が得られるように、絞り装置53の開度を調節する。   For example, when receiving an aperture value change instruction, the lens CPU 50 controls the aperture drive mechanism 52 so that an exposure value corresponding to the instruction is obtained. Thereby, the aperture drive mechanism 52 adjusts the opening degree of the aperture device 53 so that the aperture value according to the instruction is obtained.

例えば、レンズCPU50は、焦点調節動作の指示(焦点調節情報)を受けた場合、その指示に応じた焦点調節動作を行うように、レンズ駆動機構51を制御する。これにより、レンズ駆動機構51は、フォーカスレンズ5bを光軸LAに沿って合焦位置へ移動(駆動)する。   For example, when receiving a focus adjustment operation instruction (focus adjustment information), the lens CPU 50 controls the lens driving mechanism 51 so as to perform a focus adjustment operation in accordance with the instruction. Thereby, the lens driving mechanism 51 moves (drives) the focus lens 5b to the in-focus position along the optical axis LA.

振れ検出装置54は、振動ジャイロを含んでおり、撮像装置の振れを検出する。振れ検出装置54は、その検出結果を、レンズCPU50、電気接点26経由で本体2へ供給する。   The shake detection device 54 includes a vibration gyro and detects the shake of the imaging device. The shake detection device 54 supplies the detection result to the main body 2 via the lens CPU 50 and the electrical contact 26.

本体2は、CMOSイメージセンサ(撮像センサ)100、イメージセンサ制御回路21、画像処理部24、液晶表示素子駆動回路25、液晶表示素子9、接眼レンズ3、メモリ回路22、及びCPU20を含む。   The main body 2 includes a CMOS image sensor (imaging sensor) 100, an image sensor control circuit 21, an image processing unit 24, a liquid crystal display element driving circuit 25, a liquid crystal display element 9, an eyepiece lens 3, a memory circuit 22, and a CPU 20.

CMOSイメージセンサ100は、撮影レンズ5の予定結像面に配置されている。CMOSイメージセンサ100は、画素配列に形成された被写体の像を画像信号に変換する。CMOSイメージセンサ100は、その画像信号を画素配列から読み出して出力する。   The CMOS image sensor 100 is disposed on the planned imaging plane of the taking lens 5. The CMOS image sensor 100 converts a subject image formed in a pixel array into an image signal. The CMOS image sensor 100 reads out the image signal from the pixel array and outputs it.

具体的には、CMOSイメージセンサ100は、図2に示すように、画素配列PA100、垂直走査回路(選択手段)116、読み出し回路130、水平走査回路115、及び出力アンプ114を含む。図2は、本発明の第1実施形態におけるCMOSイメージセンサ100の構成を示す図である。   Specifically, as shown in FIG. 2, the CMOS image sensor 100 includes a pixel array PA100, a vertical scanning circuit (selecting means) 116, a readout circuit 130, a horizontal scanning circuit 115, and an output amplifier 114. FIG. 2 is a diagram showing a configuration of the CMOS image sensor 100 according to the first embodiment of the present invention.

画素配列PA100では、複数の画素が行方向及び列方向に配列されている。複数の画素は、第1の画素群、第2の画素群、第3の画素群、第4の画素群、及び第5の画素群を含む。   In the pixel array PA100, a plurality of pixels are arrayed in the row direction and the column direction. The plurality of pixels include a first pixel group, a second pixel group, a third pixel group, a fourth pixel group, and a fifth pixel group.

第1の画素群は、撮影レンズ5の全射出瞳領域のうちの一部である第1の射出瞳領域(例えば、図6に示す領域Sα1〜Sα4)からの被写体の像を光電変換するための画素群である。第2の画素群は、撮影レンズ5の全射出瞳領域のうちの一部であり第1の射出瞳領域に対する行方向に偏った第2の射出瞳領域(例えば、図6に示す領域Sβ1〜Sβ4)からの被写体の像を光電変換するための画素群である。   The first pixel group photoelectrically converts a subject image from a first exit pupil region (for example, regions Sα1 to Sα4 shown in FIG. 6) which is a part of the entire exit pupil region of the photographing lens 5. Pixel group. The second pixel group is a part of the entire exit pupil area of the photographic lens 5 and is a second exit pupil area (for example, the areas Sβ1 to S1 shown in FIG. 6) that is biased in the row direction with respect to the first exit pupil area. A pixel group for photoelectrically converting the image of the subject from Sβ4).

また、第1の画素群は、行方向の視野(横視野、図4に示すx方向の測距視野)のAF像を得るための行方向に配された画素の集まりである画素群(図4に示すそれぞれ行方向に配されたPα1〜Pα4)である。第2の画素群は、行方向の視野(横視野、図4に示すx方向の測距視野)のAF像を得るための行方向に配された画素の集まりである画素群(図4に示すそれぞれ行方向に配されたPβ1〜Pβ4)である。第1の画素群と第2の画素群とは、画素配列PA100における互いに行方向にずれた位置に配されている。   Further, the first pixel group is a group of pixels arranged in the row direction for obtaining an AF image in the field of view in the row direction (lateral field of view, distance measuring field in the x direction shown in FIG. 4) (see FIG. 4). 4 and Pα1 to Pα4) arranged in the row direction. The second pixel group is a pixel group (a group of pixels arranged in the row direction for obtaining an AF image of a field of view in the row direction (horizontal field of view, a distance measuring field in the x direction shown in FIG. 4)). Pβ1 to Pβ4) arranged in the row direction. The first pixel group and the second pixel group are arranged at positions shifted in the row direction in the pixel array PA100.

第3の画素群は、撮影レンズ5の全射出瞳領域のうちの一部である第3の射出瞳領域(例えば、図6に示す領域Sα1〜Sα4を時計回りに90度回転させた領域)からの被写体の像を光電変換するための画素群である。第4の画素群は、撮影レンズ5の全射出瞳領域のうちの一部であり第3の射出瞳領域に対する列方向に偏った第4の射出瞳領域(例えば、図6に示す領域Sβ1〜Sβ4を時計回りに90度回転させた領域)からの被写体の像を光電変換するための画素群である。   The third pixel group is a third exit pupil area that is a part of the entire exit pupil area of the photographing lens 5 (for example, an area obtained by rotating the areas Sα1 to Sα4 shown in FIG. 6 by 90 degrees clockwise). This is a pixel group for photoelectrically converting the image of the subject from The fourth pixel group is a part of the entire exit pupil area of the photographic lens 5 and is a fourth exit pupil area (for example, the areas Sβ1 to S1 shown in FIG. 6) that is biased in the column direction with respect to the third exit pupil area. This is a pixel group for photoelectrically converting an image of a subject from a region obtained by rotating Sβ4 by 90 degrees clockwise.

また、第3の画素群は、列方向の視野(縦視野、図4に示すy方向の測距視野)のAF像を得るための列方向に配された画素の集まりである画素群(図4に示すそれぞれ列方向に配されたQα1〜Qα4)である。第4の画素群は、列方向の視野(縦視野、図4に示すy方向の測距視野)のAF像を得るための列方向に配された画素の集まりである画素群(図4に示すそれぞれ列方向に配されたQβ1〜Qβ4)である。第3の画素群と第4の画素群とは、画素配列PA100における互いに列方向にずれた位置に配されている。   The third pixel group is a group of pixels arranged in the column direction (see FIG. 4) for obtaining an AF image of the column direction field of view (vertical field of view, distance measurement field of y direction shown in FIG. 4). Qα1 to Qα4) arranged in the column direction shown in FIG. The fourth pixel group is a pixel group (a group of pixels arranged in the column direction for obtaining an AF image of a field of view in the column direction (vertical field of view, a distance measuring field of y direction shown in FIG. 4) (see FIG. 4). Qβ1 to Qβ4) arranged in the column direction. The third pixel group and the fourth pixel group are arranged at positions shifted from each other in the column direction in the pixel array PA100.

第5の画素群は、撮影レンズの全射出瞳領域からの被写体の像を光電変換するための画素群である。また、第5の画素群は、画像を得るための画素の集まりである画素群であり、画素配列PA100における第1の画素群〜第4の画素群を除いた画素群(図4でR,G,Bと示された画素群)である。   The fifth pixel group is a pixel group for photoelectrically converting a subject image from all exit pupil regions of the photographing lens. The fifth pixel group is a pixel group that is a group of pixels for obtaining an image, and is a pixel group excluding the first to fourth pixel groups in the pixel array PA100 (R, Pixel groups indicated as G and B).

ここで、第1の画素群における各画素P1は、図3に示すように、第1の光電変換部11a、転送部12、電荷電圧変換部103、リセット部104、出力部105、及び選択部106を含む。図3は、画素の構成を示す図である。   Here, as shown in FIG. 3, each pixel P1 in the first pixel group includes a first photoelectric conversion unit 11a, a transfer unit 12, a charge-voltage conversion unit 103, a reset unit 104, an output unit 105, and a selection unit. 106. FIG. 3 is a diagram illustrating a configuration of a pixel.

第1の光電変換部11aは、受けた光に応じた電荷(信号)を発生させて蓄積する蓄積動作を行う。第1の光電変換部11aは、例えば、フォトダイオードである。   The first photoelectric conversion unit 11a performs an accumulation operation for generating and accumulating charges (signals) corresponding to the received light. The first photoelectric conversion unit 11a is, for example, a photodiode.

転送部12は、第1の光電変換部11aの電荷を電荷電圧変換部103へ転送する。転送部12は、例えば、転送トランジスタであり、垂直走査回路116からアクティブレベルの転送制御信号φTXがゲートに供給された際にオンすることにより、第1の光電変換部11aの電荷を電荷電圧変換部103へ転送する。   The transfer unit 12 transfers the charge of the first photoelectric conversion unit 11 a to the charge voltage conversion unit 103. The transfer unit 12 is, for example, a transfer transistor, and is turned on when an active level transfer control signal φTX is supplied from the vertical scanning circuit 116 to the gate, thereby converting the charge of the first photoelectric conversion unit 11a into a charge-voltage converter. The data is transferred to the unit 103.

電荷電圧変換部103は、転送された電荷を電圧に変換する。電荷電圧変換部103は、例えば、フローティングディフュージョンである。   The charge-voltage converter 103 converts the transferred charge into a voltage. The charge-voltage conversion unit 103 is, for example, a floating diffusion.

リセット部104は、電荷電圧変換部103をリセットする。リセット部104は、例えば、リセットトランジスタであり、垂直走査回路116からアクティブレベルのリセット制御信号φRESがゲートに供給された際にオンすることにより、電荷電圧変換部103をリセットする。   The reset unit 104 resets the charge / voltage conversion unit 103. The reset unit 104 is, for example, a reset transistor, and resets the charge-voltage conversion unit 103 by turning on when an active level reset control signal φRES is supplied from the vertical scanning circuit 116 to the gate.

出力部105は、電荷電圧変換部103の電圧に応じた信号を垂直信号線SLへ出力する。出力部105は、例えば、増幅トランジスタであり、垂直信号線SLに接続された定電流源107とともにソースフォロワ動作を行うことにより、電荷電圧変換部103の電圧に応じた信号を垂直信号線SLへ出力する。すなわち、出力部105は、リセット部104により電荷電圧変換部103がリセットされた状態で電荷電圧変換部103の電圧に応じたノイズ信号を垂直信号線SLへ出力する。出力部105は、転送部12により第1の光電変換部11aの電荷が電荷電圧変換部103へ転送された状態で電荷電圧変換部103の電圧に応じた光信号を垂直信号線SLへ出力する。   The output unit 105 outputs a signal corresponding to the voltage of the charge-voltage conversion unit 103 to the vertical signal line SL. The output unit 105 is, for example, an amplification transistor, and performs a source follower operation together with the constant current source 107 connected to the vertical signal line SL, whereby a signal corresponding to the voltage of the charge-voltage conversion unit 103 is sent to the vertical signal line SL. Output. That is, the output unit 105 outputs a noise signal corresponding to the voltage of the charge voltage conversion unit 103 to the vertical signal line SL in a state where the charge voltage conversion unit 103 is reset by the reset unit 104. The output unit 105 outputs an optical signal corresponding to the voltage of the charge-voltage conversion unit 103 to the vertical signal line SL in a state where the charge of the first photoelectric conversion unit 11 a is transferred to the charge-voltage conversion unit 103 by the transfer unit 12. .

選択部106は、画素P1を選択状態/非選択状態にする。選択部106は、例えば、選択トランジスタであり、垂直走査回路116からアクティブレベルの選択制御信号φSELがゲートに供給された際にオンすることにより、画素P1を選択状態にする。選択部106は、垂直走査回路116からノンアクティブレベルの選択制御信号φSELがゲートに供給された際にオフすることにより、画素P1を非選択状態にする。   The selection unit 106 puts the pixel P1 into a selected state / non-selected state. The selection unit 106 is, for example, a selection transistor, and is turned on when an active level selection control signal φSEL is supplied from the vertical scanning circuit 116 to the gate, thereby bringing the pixel P1 into a selected state. The selection unit 106 turns off when the selection control signal φSEL of the non-active level is supplied from the vertical scanning circuit 116 to the gate, thereby bringing the pixel P1 into a non-selected state.

なお、第2の画素群における各画素P2は、第1の光電変換部11aに代えて第2の光電変換部11bを含む点で、第1の画素群における各画素P1と異なる。第3の画素群における各画素P3は、第1の光電変換部11aに代えて第3の光電変換部11cを含む点で、第1の画素群における各画素P1と異なる。第4の画素群における各画素P4は、第1の光電変換部11aに代えて第4の光電変換部11dを含む点で、第1の画素群における各画素P1と異なる。第5の画素群における各画素P5は、第1の光電変換部11aに代えて第5の光電変換部11eを含む点で、第1の画素群における各画素P1と異なる。   Each pixel P2 in the second pixel group is different from each pixel P1 in the first pixel group in that it includes a second photoelectric conversion unit 11b instead of the first photoelectric conversion unit 11a. Each pixel P3 in the third pixel group is different from each pixel P1 in the first pixel group in that it includes a third photoelectric conversion unit 11c instead of the first photoelectric conversion unit 11a. Each pixel P4 in the fourth pixel group is different from each pixel P1 in the first pixel group in that it includes a fourth photoelectric conversion unit 11d instead of the first photoelectric conversion unit 11a. Each pixel P5 in the fifth pixel group is different from each pixel P1 in the first pixel group in that it includes a fifth photoelectric conversion unit 11e instead of the first photoelectric conversion unit 11a.

第1の光電変換部11aの受光領域(例えば、図4に示す画素Pα1における白色の領域)の中心の画素内における相対位置は、第5の光電変換部11eの受光領域の中心の画素内における相対位置に対して行方向(x方向)の第1の側(左側)にシフトしている。これにより、第1の光電変換部11aは、撮影レンズ5の瞳領域における中心から行方向(x方向)の第1の側(左側)に偏った第1の領域の光を受け、第5の光電変換部11eは、撮影レンズ5の瞳領域における中心を含む領域の光を受ける。   The relative position in the center pixel of the light receiving region of the first photoelectric conversion unit 11a (for example, the white region in the pixel Pα1 shown in FIG. 4) is within the pixel in the center of the light receiving region of the fifth photoelectric conversion unit 11e. Shifting to the first side (left side) in the row direction (x direction) with respect to the relative position. As a result, the first photoelectric conversion unit 11a receives the light in the first region that is biased from the center in the pupil region of the photographing lens 5 toward the first side (left side) in the row direction (x direction). The photoelectric conversion unit 11 e receives light from a region including the center in the pupil region of the photographing lens 5.

第2の光電変換部11bの受光領域(例えば、図4に示す画素Pβ1における白色の領域)の中心の画素内における相対位置は、第1の光電変換部11aの受光領域の中心の画素内における相対位置に対して行方向(x方向)の第2の側(右側)にシフトしている。これにより、第2の光電変換部11bは、撮影レンズ5の瞳領域における第1の領域から行方向(x方向)の第2の側(右側)に偏った第2の領域の光を受ける。   The relative position in the center pixel of the light receiving region of the second photoelectric conversion unit 11b (for example, the white region in the pixel Pβ1 shown in FIG. 4) is within the pixel in the center of the light receiving region of the first photoelectric conversion unit 11a. The relative position is shifted to the second side (right side) in the row direction (x direction). Accordingly, the second photoelectric conversion unit 11b receives light in the second region that is biased from the first region in the pupil region of the photographing lens 5 to the second side (right side) in the row direction (x direction).

第3の光電変換部11cの受光領域(例えば、図4に示す画素Qα1における白色の領域)の中心の画素内における相対位置は、第5の光電変換部11eの受光領域の中心の画素内における相対位置に対して列方向(y方向)の第3の側(上側)にシフトしている。これにより、第3の光電変換部11cは、撮影レンズ5の瞳領域における中心から列方向(y方向)の第3の側(上側)に偏った第3の領域の光を受ける。   The relative position in the center pixel of the light receiving region of the third photoelectric conversion unit 11c (for example, the white region in the pixel Qα1 shown in FIG. 4) is within the pixel in the center of the light receiving region of the fifth photoelectric conversion unit 11e. Shifting to the third side (upper side) in the column direction (y direction) with respect to the relative position. As a result, the third photoelectric conversion unit 11 c receives the light in the third region that is biased from the center in the pupil region of the photographic lens 5 to the third side (upper side) in the column direction (y direction).

第4の光電変換部11dの受光領域(例えば、図4に示す画素Qβ1における白色の領域)の中心の画素内における相対位置は、第3の光電変換部11aの受光領域の中心の画素内における相対位置に対して列方向(y方向)の第4の側(下側)にシフトしている。これにより、第4の光電変換部11dは、撮影レンズ5の瞳領域における第3の領域から列方向(y方向)の第4の側(下側)に偏った第4の領域の光を受ける。   The relative position in the center pixel of the light receiving region of the fourth photoelectric conversion unit 11d (for example, the white region in the pixel Qβ1 shown in FIG. 4) is within the pixel in the center of the light receiving region of the third photoelectric conversion unit 11a. Shifting to the fourth side (lower side) in the column direction (y direction) with respect to the relative position. Accordingly, the fourth photoelectric conversion unit 11d receives the light in the fourth region that is biased from the third region in the pupil region of the photographing lens 5 to the fourth side (lower side) in the column direction (y direction). .

図2に示す垂直走査回路116は、画素配列PA100を垂直方向(列方向)に走査することにより、画素配列PA100における信号を読み出すべき行(読み出し行)を順次に選択する。具体的には、垂直走査回路116は、画素配列PA100における最上の行の画素から最下の行の画素まで順次に信号の蓄積動作を行わせ、その後、最上の行の画素から最下の行の画素まで順次に信号が読み出されるようにする。   2 scans the pixel array PA100 in the vertical direction (column direction), and sequentially selects rows (reading rows) from which signals in the pixel array PA100 are to be read. Specifically, the vertical scanning circuit 116 sequentially performs signal accumulation operation from the pixel in the uppermost row to the pixel in the lowermost row in the pixel array PA100, and then performs the operation from the pixel in the uppermost row to the lowermost row. The signals are sequentially read out to the pixels.

読み出し回路130は、垂直走査回路116により選択された行における各列の画素から信号(ノイズ信号、光信号)を読み出し、読み出した各列の信号を一時的に保持する。具体的には、読み出し回路130は、上記の信号の蓄積動作が開始された後に、画素配列PA100における最上の行の画素から最下の行の画素まで順次に上記の蓄積動作による信号(光信号)を読み出す。これにより、CMOSイメージセンサ100のスリットローリングシャッタ動作が実現される。ここで、画素配列PA100における各行の画素では、信号の蓄積タイミングが互いに異なるものとなる。   The readout circuit 130 reads out signals (noise signals and optical signals) from the pixels in each column in the row selected by the vertical scanning circuit 116, and temporarily holds the read signals in each column. Specifically, after the signal accumulation operation is started, the readout circuit 130 sequentially receives signals (optical signals) from the pixel in the uppermost row to the pixel in the lowermost row in the pixel array PA100. ). Thereby, the slit rolling shutter operation of the CMOS image sensor 100 is realized. Here, the pixels in each row in the pixel array PA100 have different signal accumulation timings.

読み出し回路130は、転送スイッチ133,134、CTN137、CTS138、及び転送スイッチ135,136を含む(図7参照)。転送スイッチ133は、アクティブレベルの制御信号φTNがゲートに供給された際にオンすることにより、垂直信号線SLに出力されたノイズ信号をCTN137へ転送する。その後、転送スイッチ133がオフすることにより、CTN137は、転送されたノイズ信号を一時的に保持する。転送スイッチ134は、アクティブレベルの制御信号φTSがゲートに供給された際にオンすることにより、垂直信号線SLに出力された光信号をCTS138へ転送する。その後、転送スイッチ134がオフすることにより、CTS138は、転送された光信号を一時的に保持する。転送スイッチ135は、水平走査回路115からアクティブレベルの水平走査信号がゲートに供給された際にオンすることにより、CTN137に保持されたノイズ信号を水平信号線137経由で出力アンプ114へ転送する。転送スイッチ136は、水平走査回路115からアクティブレベルの水平走査信号がゲートに供給された際にオンすることにより、CTS138に保持された光信号を水平信号線138経由で出力アンプ114へ転送する。   The read circuit 130 includes transfer switches 133 and 134, CTN 137, CTS 138, and transfer switches 135 and 136 (see FIG. 7). The transfer switch 133 transfers the noise signal output to the vertical signal line SL to the CTN 137 by turning on when the active level control signal φTN is supplied to the gate. Thereafter, when the transfer switch 133 is turned off, the CTN 137 temporarily holds the transferred noise signal. The transfer switch 134 is turned on when the active level control signal φTS is supplied to the gate, thereby transferring the optical signal output to the vertical signal line SL to the CTS 138. Thereafter, when the transfer switch 134 is turned off, the CTS 138 temporarily holds the transferred optical signal. The transfer switch 135 is turned on when an active level horizontal scanning signal is supplied from the horizontal scanning circuit 115 to the gate, thereby transferring the noise signal held in the CTN 137 to the output amplifier 114 via the horizontal signal line 137. The transfer switch 136 is turned on when an active level horizontal scanning signal is supplied from the horizontal scanning circuit 115 to the gate, thereby transferring the optical signal held in the CTS 138 to the output amplifier 114 via the horizontal signal line 138.

なお、水平信号線137及び水平信号線138には、リセットスイッチ113が設けられている。リセットスイッチ113は、アクティブレベルの制御信号φHcがゲートに供給された際にオンすることにより、水平信号線137及び水平信号線138の電位をリセット電位VHcにリセットする。   Note that the horizontal signal line 137 and the horizontal signal line 138 are provided with a reset switch 113. The reset switch 113 is turned on when an active level control signal φHc is supplied to the gate, thereby resetting the potentials of the horizontal signal line 137 and the horizontal signal line 138 to the reset potential VHc.

水平走査回路115は、読み出し回路130を水平方向(行方向)に走査することにより、読み出し回路130に保持された各列の信号(ノイズ信号、光信号)を順次に出力アンプ114へ転送する。すなわち、水平走査回路115は、読み出し回路130における各列の転送スイッチ135,136のゲートへ順次にアクティブレベルの水平走査信号を供給する。   The horizontal scanning circuit 115 scans the readout circuit 130 in the horizontal direction (row direction), thereby sequentially transferring the signals (noise signal, optical signal) of each column held in the readout circuit 130 to the output amplifier 114. That is, the horizontal scanning circuit 115 sequentially supplies an active level horizontal scanning signal to the gates of the transfer switches 135 and 136 of each column in the readout circuit 130.

出力アンプ114は、転送された信号(ノイズ信号、光信号)に基づいて画像信号を生成して出力する。例えば、出力アンプ114は、ノイズ信号と光信号との差分をとることによりノイズが除去された画像信号を得るCDS処理を行うことにより、画像信号を生成して出力する。   The output amplifier 114 generates and outputs an image signal based on the transferred signal (noise signal, optical signal). For example, the output amplifier 114 generates and outputs an image signal by performing CDS processing for obtaining an image signal from which noise has been removed by taking a difference between a noise signal and an optical signal.

図1に示すイメージセンサ制御回路21は、CMOSイメージセンサ100を駆動制御する。例えば、イメージセンサ制御回路21は、垂直走査回路116、読み出し回路130、及び水平走査回路115を駆動するための信号を生成してそれぞれへ供給する。   An image sensor control circuit 21 shown in FIG. 1 controls driving of the CMOS image sensor 100. For example, the image sensor control circuit 21 generates and supplies signals for driving the vertical scanning circuit 116, the readout circuit 130, and the horizontal scanning circuit 115 to each of them.

画像処理部24は、CMOSイメージセンサ100から出力された画像信号を受ける。画像処理部24は、受けた画像信号に対して所定の画像処理を行う。   The image processing unit 24 receives the image signal output from the CMOS image sensor 100. The image processing unit 24 performs predetermined image processing on the received image signal.

例えば、画像処理部24は、受けた画像信号(アナログ信号)をA/D変換することにより、画像信号(デジタル信号)を生成する。画像処理部24は、生成した画像信号(デジタル信号)に対して各種の補正等の演算処理を行い、画像データを生成する。   For example, the image processing unit 24 A / D converts the received image signal (analog signal) to generate an image signal (digital signal). The image processing unit 24 performs arithmetic processing such as various corrections on the generated image signal (digital signal) to generate image data.

そして、画像処理部24は、画像データから表示用の画像信号(アナログ信号)を生成し、生成した表示用の画像信号を液晶表示素子駆動回路25へ供給する。あるいは、画像処理部24は、画像データから記録用の圧縮画像データを生成し、生成した記録用の圧縮画像データをメモリ回路22へ供給する。あるいは、画像処理部24は、画像データをインターフェース回路23へ供給する。   Then, the image processing unit 24 generates a display image signal (analog signal) from the image data, and supplies the generated display image signal to the liquid crystal display element driving circuit 25. Alternatively, the image processing unit 24 generates compressed image data for recording from the image data, and supplies the generated compressed image data for recording to the memory circuit 22. Alternatively, the image processing unit 24 supplies the image data to the interface circuit 23.

液晶表示素子駆動回路25は、表示用の画像信号を画像処理部24から受ける。液晶表示素子駆動回路25は、受けた表示用の画像信号に応じた画像、すなわち被写体像を液晶表示素子9上に表示する。   The liquid crystal display element driving circuit 25 receives a display image signal from the image processing unit 24. The liquid crystal display element driving circuit 25 displays an image corresponding to the received image signal for display, that is, a subject image on the liquid crystal display element 9.

接眼レンズ3は、液晶表示素子9に表示された被写体像を観察する可能な位置に配されている。   The eyepiece 3 is arranged at a position where the subject image displayed on the liquid crystal display element 9 can be observed.

メモリ回路22は、記録用の圧縮画像データを画像処理部24から受ける。メモリ回路22は、受けた記録用の圧縮画像データを所定の記録媒体に記録する。所定の記録媒体は、本体2に対して着脱可能に接続された外部記録媒体であってもよいし、本体2内に固定的に配された内部記録媒体であってもよい。   The memory circuit 22 receives the compressed image data for recording from the image processing unit 24. The memory circuit 22 records the received compressed image data for recording on a predetermined recording medium. The predetermined recording medium may be an external recording medium detachably connected to the main body 2 or an internal recording medium fixedly arranged in the main body 2.

インターフェース回路23には、パーソナルコンピュータなどの外部機器が着脱可能に接続される。また、インターフェース回路23は、画像データを画像処理部24から受ける。インターフェース回路23は、受けた画像データを、接続された外部機器へ出力する。   An external device such as a personal computer is detachably connected to the interface circuit 23. The interface circuit 23 receives image data from the image processing unit 24. The interface circuit 23 outputs the received image data to a connected external device.

CPU20は、撮像装置1の各部を全体的に制御する。   The CPU 20 controls each part of the imaging device 1 as a whole.

例えば、CPU20は、撮影レンズ5の焦点調節を行うための焦点調節動作を制御する。具体的には、CPU20は、焦点調節部20aを含む。焦点調節部20aは、焦点調節動作を制御する。焦点調節部20aは、第1の焦点検出部20a1、第2の焦点検出部20a2、動き検出部20a3、及び合焦部20a4を含む。   For example, the CPU 20 controls a focus adjustment operation for adjusting the focus of the photographing lens 5. Specifically, the CPU 20 includes a focus adjustment unit 20a. The focus adjustment unit 20a controls the focus adjustment operation. The focus adjustment unit 20a includes a first focus detection unit 20a1, a second focus detection unit 20a2, a motion detection unit 20a3, and a focusing unit 20a4.

第1の焦点検出部20a1は、読み出し回路130(図2参照)により読み出された第1の画素群(図4に示すPα1〜Pα4)の信号と第1の画素群(図4に示すPβ1〜Pβ4)の信号とをCMOSイメージセンサ100から受ける。第1の焦点検出部20a1は、第1の画素群の信号から行方向の視野での第1のAF像を生成し、第2の画素群の信号から行方向の視野での第2のAF像を生成する。第1の焦点検出部20a1は、第1のAF像と第2のAF像とを比較して、すなわち、第1のAF像と第2のAF像との行方向における第1のずれ量を求めることにより、行方向の視野での撮影レンズ5の合焦状態を検出する。第1の焦点検出部20a1は、その検出結果を合焦部20a4へ供給する。   The first focus detection unit 20a1 includes a signal of the first pixel group (Pα1 to Pα4 shown in FIG. 4) read by the readout circuit 130 (see FIG. 2) and the first pixel group (Pβ1 shown in FIG. 4). To Pβ4) from the CMOS image sensor 100. The first focus detection unit 20a1 generates a first AF image in the visual field in the row direction from the signal of the first pixel group, and the second AF in the visual field in the row direction from the signal of the second pixel group. Generate an image. The first focus detection unit 20a1 compares the first AF image and the second AF image, that is, calculates the first shift amount in the row direction between the first AF image and the second AF image. As a result, the in-focus state of the photographic lens 5 in the field of view in the row direction is detected. The first focus detection unit 20a1 supplies the detection result to the focusing unit 20a4.

第2の焦点検出部20a2は、読み出し回路130(図2参照)により読み出された第3の画素群(図4に示すQα1〜Qα4)の信号と第4の画素群(図4に示すQβ1〜Qβ4)の信号とをCMOSイメージセンサ100から受ける。第2の焦点検出部20a2は、第3の画素群の信号から列方向の視野での第3のAF像を生成し、第4の画素群の信号から列方向の視野での第4のAF像を生成する。第2の焦点検出部20a2は、第3のAF像と第4のAF像とを比較して、すなわち、第3のAF像と第4のAF像との列方向における第2のずれ量を求めることにより、列方向の視野での撮影レンズ5の合焦状態を検出する。第2の焦点検出部20a2は、その検出結果を合焦部20a4へ供給する。   The second focus detection unit 20a2 includes the signals of the third pixel group (Qα1 to Qα4 shown in FIG. 4) read by the readout circuit 130 (see FIG. 2) and the fourth pixel group (Qβ1 shown in FIG. 4). To Qβ4) from the CMOS image sensor 100. The second focus detection unit 20a2 generates a third AF image in the column direction visual field from the signal of the third pixel group, and the fourth AF in the column direction visual field from the signal of the fourth pixel group. Generate an image. The second focus detection unit 20a2 compares the third AF image and the fourth AF image, that is, calculates the second shift amount in the column direction between the third AF image and the fourth AF image. As a result, the in-focus state of the photographic lens 5 in the field of view in the column direction is detected. The second focus detection unit 20a2 supplies the detection result to the focusing unit 20a4.

動き検出部20a3は、ズームレンズ5cを駆動していることを示す情報を、レンズCPU50から電気接点26経由で受ける。動き検出部20a3は、ズームレンズ5cを駆動していることを示す情報を受けた場合、レンズ駆動機構55がズームレンズ5cを光軸LAに沿って移動(駆動)していると判断する。すなわち、動き検出部20a3は、レンズ駆動機構55がズームレンズ5cを駆動していることを検出することにより、画素配列PA100(図2参照)に形成された被写体の像の動きを検出する。動き検出部20a3は、その検出結果を合焦部20a4へ供給する。   The motion detection unit 20a3 receives information indicating that the zoom lens 5c is being driven from the lens CPU 50 via the electrical contact 26. When the motion detection unit 20a3 receives information indicating that the zoom lens 5c is being driven, the motion detection unit 20a3 determines that the lens driving mechanism 55 is moving (driving) the zoom lens 5c along the optical axis LA. That is, the motion detection unit 20a3 detects the motion of the subject image formed in the pixel array PA100 (see FIG. 2) by detecting that the lens driving mechanism 55 is driving the zoom lens 5c. The motion detection unit 20a3 supplies the detection result to the focusing unit 20a4.

合焦部20a4は、動き検出部20a3により被写体の像の動きが検出された場合、第1の焦点検出部20a1の検出結果を第1の重みで用い第2の焦点検出部20a2の検出結果を第1の重みより低い第2の重みで用いることにより撮影レンズ5を制御する。   When the motion detection unit 20a3 detects the movement of the subject image, the focusing unit 20a4 uses the detection result of the first focus detection unit 20a1 with the first weight and uses the detection result of the second focus detection unit 20a2. The photographic lens 5 is controlled by using a second weight lower than the first weight.

具体的には、合焦部20a4は、上記の第1のずれ量に第1の重みをかけた値と上記の第2のずれ量に第2の重みをかけた値とを用いることにより、撮影レンズ5におけるフォーカスレンズ5bの合焦位置を演算する。合焦部20a4は、演算した合焦位置の情報を含む焦点調節動作の指示(焦点調節情報)を、電気接点26経由でレンズCPU50へ供給する。これにより、レンズCPU50は、レンズ駆動機構51を介してフォーカスレンズ5bを合焦位置へ移動(駆動)する。   Specifically, the focusing unit 20a4 uses a value obtained by multiplying the first deviation amount by a first weight and a value obtained by multiplying the second deviation amount by a second weight. The focus position of the focus lens 5b in the photographing lens 5 is calculated. The focusing unit 20 a 4 supplies a focus adjustment operation instruction (focus adjustment information) including information on the calculated focus position to the lens CPU 50 via the electrical contact 26. Accordingly, the lens CPU 50 moves (drives) the focus lens 5b to the in-focus position via the lens driving mechanism 51.

また、合焦部20a4は、動き検出部20a3により被写体の像の動きが検出されなかった場合、第1の焦点検出部20a1の検出結果と第2の焦点検出部20a2の検出結果とを第3の重みで用いることにより撮影レンズ5を制御する。なお、第3の重みは、第1の重みと同じであっても良い。   In addition, when the motion detection unit 20a3 does not detect the movement of the subject image, the focusing unit 20a4 outputs the detection result of the first focus detection unit 20a1 and the detection result of the second focus detection unit 20a2 to the third level. The photographic lens 5 is controlled by using the weight of. Note that the third weight may be the same as the first weight.

具体的には、合焦部20a4は、上記の第1のずれ量に第3の重みをかけた値と上記の第2のずれ量に第3の重みをかけた値とを用いることにより、撮影レンズ5におけるフォーカスレンズ5bの合焦位置を演算する。合焦部20a4は、演算した合焦位置の情報を含む焦点調節動作の指示(焦点調節情報)を、電気接点26経由でレンズCPU50へ供給する。これにより、レンズCPU50は、レンズ駆動機構51を介してフォーカスレンズ5bを合焦位置へ移動(駆動)する。   Specifically, the focusing unit 20a4 uses a value obtained by applying the third weight to the first deviation amount and a value obtained by applying the third weight to the second deviation amount, The focus position of the focus lens 5b in the photographing lens 5 is calculated. The focusing unit 20 a 4 supplies a focus adjustment operation instruction (focus adjustment information) including information on the calculated focus position to the lens CPU 50 via the electrical contact 26. Accordingly, the lens CPU 50 moves (drives) the focus lens 5b to the in-focus position via the lens driving mechanism 51.

ここで、レンズ駆動機構55がズームレンズ5cを駆動している場合、等価的に、被写体とCMOSイメージセンサとの距離方向の位置関係が時間的に変化し、CMOSイメージセンサの画素配列上における被写体の像が動く。   Here, when the lens driving mechanism 55 is driving the zoom lens 5c, the positional relationship in the distance direction between the subject and the CMOS image sensor changes with time, and the subject on the pixel array of the CMOS image sensor is equivalently changed. The statue moves.

それに対して、本実施形態では、次のような動作を行う。動き検出部20a3により被写体の像の動きが検出され、列方向の視野での焦点検出結果の信頼性が低くなったと判断される場合に、列方向の視野での焦点検出結果を行方向の視野での焦点検出結果より低い重み付けで用いて焦点調節を行う。これにより、撮像装置において、撮影レンズにより画素配列に形成された被写体の像に動きがある場合でも、撮影レンズに対する焦点調節の精度が低下することを抑制できる。   On the other hand, in the present embodiment, the following operation is performed. When the motion detection unit 20a3 detects the motion of the image of the subject and determines that the reliability of the focus detection result in the column direction field of view is low, the focus detection result in the column direction field of view is determined as the row direction field of view. The focus adjustment is performed using a weighting lower than the focus detection result in. Thereby, in the imaging apparatus, even when there is a movement in the image of the subject formed in the pixel array by the photographic lens, it is possible to suppress a decrease in focus adjustment accuracy with respect to the photographic lens.

また、動き検出部20a3により被写体の像の動きが検出されず、列方向の視野での焦点検出結果の信頼性が低くなっていないと判断される場合に、列方向の視野での焦点検出結果を行方向の視野での焦点検出結果と同じ重み付けで用いて焦点調節を行う。これにより、撮像装置において、撮影レンズにより画素配列に形成された被写体の像に動きがない場合に、撮影レンズに対する焦点調節の精度を向上できる。   In addition, when the motion detection unit 20a3 does not detect the motion of the image of the subject and it is determined that the reliability of the focus detection result in the column direction field of view is not low, the focus detection result in the column direction field of view Is used with the same weighting as the focus detection result in the field of view in the row direction. Thereby, in the imaging apparatus, when there is no movement in the image of the subject formed in the pixel array by the photographing lens, it is possible to improve the focus adjustment accuracy with respect to the photographing lens.

すなわち、撮像装置において、撮影レンズに対する焦点調節の精度を向上することができる。   That is, in the imaging apparatus, it is possible to improve the accuracy of focus adjustment with respect to the photographic lens.

次に、CMOSイメージセンサ100の画素配列PA100のレイアウト構成を、図4を用いて説明する。図4は、本発明の第1実施形態におけるCMOSイメージセンサ100の画素配列PA100のレイアウト構成を示す図である。図4には、画素配列PA100が16行×16列の画素で構成される場合が例示されている。実際には、例えば、画素ピッチが2μm、有効画素数が横3000列×縦2000行=600万画素、画面配列のサイズが横6mm×縦4mmになる。   Next, the layout configuration of the pixel array PA100 of the CMOS image sensor 100 will be described with reference to FIG. FIG. 4 is a diagram showing a layout configuration of the pixel array PA100 of the CMOS image sensor 100 according to the first embodiment of the present invention. FIG. 4 illustrates a case where the pixel array PA100 is configured with pixels of 16 rows × 16 columns. Actually, for example, the pixel pitch is 2 μm, the number of effective pixels is 3000 horizontal columns × 2000 vertical rows = 6 million pixels, and the size of the screen arrangement is 6 mm horizontal × 4 mm vertical.

図中131、132は配線である。配線131及び132で区切られた領域が1画素を示しており、1画素中に書かれた「R」「G」「B」の文字は各画素のカラーフィルタの色相を表している。「R」の文字の書かれた画素は、第5の光電変換部11eの上方に配され、赤の成分の光を透過するカラーフィルタを含む。「G」の文字の書かれた画素は、第5の光電変換部11eの上方に配され、緑の成分の光を透過するカラーフィルタを含む。「B」の文字の書かれた画素は、第5の光電変換部11eの上方に配され、青の成分の光を透過するカラーフィルタを含む。また、「R」「G」「B」の文字が書かれた各画素は、撮影レンズ5の全瞳領域を受光するように構成されている。   In the figure, reference numerals 131 and 132 denote wirings. The area delimited by the wirings 131 and 132 represents one pixel, and the characters “R”, “G”, and “B” written in one pixel represent the hue of the color filter of each pixel. The pixel on which the letter “R” is written includes a color filter that is disposed above the fifth photoelectric conversion unit 11 e and transmits red component light. The pixel on which the letter “G” is written includes a color filter that is disposed above the fifth photoelectric conversion unit 11 e and transmits green component light. The pixel on which the letter “B” is written includes a color filter that is disposed above the fifth photoelectric conversion unit 11e and transmits blue component light. Further, each pixel on which the letters “R”, “G”, and “B” are written is configured to receive the entire pupil region of the photographing lens 5.

カラーフィルタの配列がベイヤ配列の場合、1絵素は「R」「B」の画素と2つの「G」の画素から構成される。本実施形態では、撮像装置を構成するイメージセンサはベイヤ配列における「R」あるいは「B」であるべき画素の一部に、撮影レンズ5の一部の瞳領域を受光する焦点検出用画素(第1の画素群〜第4の画素群における画素)が割り当てられている。   When the color filter array is a Bayer array, one picture element is composed of “R” and “B” pixels and two “G” pixels. In the present embodiment, the image sensor that constitutes the imaging apparatus has a focus detection pixel (first pixel) that receives a part of the pupil region of the photographing lens 5 in a part of the pixels that should be “R” or “B” in the Bayer array. 1 to 4) are allocated.

図中、Pα1、Pβ1、Pα2、Pβ2、Pα3、Pβ3、Pα4、Pβ4は、撮影レンズ5の合焦状態を検出するための画素であり、配線131にて図中x方向の開口が制限されている。本実施形態のCMOSイメージセンサ100の一部に配設される焦点検出用画素は、配線131にて制限される開口のx方向の開口中心位置が画素中心に対して異なる8種類が設定されている。そして、同一の配線開口を有する焦点検出用画素が、図中+x方向に4画素周期で配列され横(x)方向の測距視野(横視野)を形成している。本実施形態の撮像装置では、焦点検出用画素Pα1、Pβ1、Pα2、Pβ2、Pα3、Pβ3、Pα4、Pβ4とそれと同一の配線開口を有する焦点検出用画素群で生成された像に基づいて、撮影レンズ5の合焦状態が検出される。特に、配線開口が図中x方向に偏位した焦点検出用画素群を用いると、CMOSイメージセンサ100上で図中x方向にコントラストのある被写体像に対して良好な焦点検出が可能である。   In the figure, Pα1, Pβ1, Pα2, Pβ2, Pα3, Pβ3, Pα4, and Pβ4 are pixels for detecting the in-focus state of the taking lens 5, and the opening in the x direction in the figure is restricted by the wiring 131. Yes. In the focus detection pixels arranged in a part of the CMOS image sensor 100 of the present embodiment, eight types of aperture center positions in the x direction of the apertures limited by the wiring 131 are set with respect to the pixel center. Yes. The focus detection pixels having the same wiring opening are arranged in a cycle of 4 pixels in the + x direction in the drawing to form a distance measuring field (horizontal field) in the lateral (x) direction. In the imaging apparatus according to the present embodiment, photographing is performed based on the image generated by the focus detection pixels Pα1, Pβ1, Pα2, Pβ2, Pβ3, Pβ3, Pα4, and Pβ4 and the focus detection pixel group having the same wiring opening. The in-focus state of the lens 5 is detected. In particular, when a focus detection pixel group in which the wiring opening is deviated in the x direction in the drawing is used, good focus detection can be performed on a subject image having a contrast in the x direction in the drawing on the CMOS image sensor 100.

例えば、配線131_1と配線131_2とで決まる開口が画素中心に対して+x方向に偏位した焦点検出用画素Pα1に対して、x方向に4画素隣接した位置に同様の配線開口を有する焦点検出用画素が配設されている。   For example, a focus detection pixel having a similar wiring opening at a position adjacent to four pixels in the x direction with respect to the focus detection pixel Pα1 in which the opening determined by the wiring 131_1 and the wiring 131_2 is deviated in the + x direction with respect to the pixel center. Pixels are arranged.

また、焦点検出用画素Pα1に対して斜めに隣接する位置に、配線131_3と配線131_4とで決まる開口が画素中心と略一致する焦点検出用画素Pβ1が配設されている。さらに、焦点検出用画素Pβ1に対して、x方向に4画素隣接した位置に同様の配線開口を有する焦点検出用画素が配設されている。   In addition, a focus detection pixel Pβ1 in which an opening determined by the wiring 131_3 and the wiring 131_4 substantially coincides with the pixel center is disposed at a position obliquely adjacent to the focus detection pixel Pα1. Further, focus detection pixels having similar wiring openings are disposed at positions adjacent to the focus detection pixel Pβ1 by four pixels in the x direction.

配線131で決まる開口の位置がそれぞれ異なる焦点検出用画素Pα2、Pβ2、焦点検出用画素Pα3、Pβ3及び焦点検出用画素Pα4、Pβ4も同様に配設されている。   The focus detection pixels Pα2 and Pβ2, the focus detection pixels Pα3 and Pβ3, and the focus detection pixels Pα4 and Pβ4, which have different aperture positions determined by the wiring 131, are similarly arranged.

次に、CMOSイメージセンサ100の断面構成を、図5を用いて説明する。図5は、本発明の第1実施形態におけるCMOSイメージセンサ100の断面構成を示す図である。図5は、図4のA−A‘面の断面図である。   Next, a cross-sectional configuration of the CMOS image sensor 100 will be described with reference to FIG. FIG. 5 is a diagram showing a cross-sectional configuration of the CMOS image sensor 100 according to the first embodiment of the present invention. FIG. 5 is a cross-sectional view taken along the plane A-A ′ of FIG. 4.

図5の右側の画素は、撮影レンズ5の全瞳領域を受光可能な画素を示し、図中左側の画素は、撮影レンズ5の一部の瞳領域からの光束を受光可能な焦点検出用画素を示している。以下では、右側の画素が画素P5(図3参照)であり、左側の画素が画素P1(図3参照)である場合を例示的に説明する。   The right pixel in FIG. 5 indicates a pixel that can receive the entire pupil region of the photographic lens 5, and the left pixel in the drawing indicates a focus detection pixel that can receive a light beam from a part of the pupil region of the photographic lens 5. Is shown. Hereinafter, a case where the right pixel is the pixel P5 (see FIG. 3) and the left pixel is the pixel P1 (see FIG. 3) will be described as an example.

図5に示すCMOSイメージセンサ100は、次の構成要素を備える。   The CMOS image sensor 100 shown in FIG. 5 includes the following components.

半導体基板SBには、第1の光電変換部11aと第5の光電変換部11eとが配され、第1の光電変換部11aと第5の光電変換部11eとの周囲にウエル110が形成されている。第1の光電変換部11aと第5の光電変換部11eとは、電荷(例えば負電荷)に対応した導電型(例えばN型)の不純物を高濃度に含む半導体領域である。ウエル110は、その導電型と反対の導電型(例えばP型)の不純物を低濃度に含む半導体領域である。   The semiconductor substrate SB includes a first photoelectric conversion unit 11a and a fifth photoelectric conversion unit 11e, and a well 110 is formed around the first photoelectric conversion unit 11a and the fifth photoelectric conversion unit 11e. ing. The first photoelectric conversion unit 11a and the fifth photoelectric conversion unit 11e are semiconductor regions containing a high concentration of conductive (for example, N-type) impurities corresponding to charges (for example, negative charges). The well 110 is a semiconductor region containing an impurity of a conductivity type (for example, P type) opposite to the conductivity type at a low concentration.

光電変換部(第1の光電変換部11a、第5の光電変換部11e)と配線131との間には層間絶縁膜124が配され、配線131と配線132との間には層間絶縁膜125が配されている。また、配線132の光入射側には層間絶縁膜123が配され、さらにパッシべーション膜140、平坦化層150が配されている。   An interlayer insulating film 124 is provided between the photoelectric conversion unit (the first photoelectric conversion unit 11 a and the fifth photoelectric conversion unit 11 e) and the wiring 131, and an interlayer insulating film 125 is provided between the wiring 131 and the wiring 132. Is arranged. In addition, an interlayer insulating film 123 is disposed on the light incident side of the wiring 132, and a passivation film 140 and a planarizing layer 150 are further disposed.

平坦化層150の光入射側には、カラーフィルタ層151、154、平坦化層152及びマイクロレンズ153が形成されている。ここで、マイクロレンズ153のパワーは、撮影レンズ5の瞳と光電変換部が略共役になるように設定されている。また、CMOSイメージセンサ100の中央に位置する画素ではマイクロレンズ153は画素の中心に配設され、周辺に位置する画素では、撮影レンズ5の光軸側に偏位して配設される。   Color filter layers 151 and 154, a planarizing layer 152, and a microlens 153 are formed on the light incident side of the planarizing layer 150. Here, the power of the micro lens 153 is set so that the pupil of the photographing lens 5 and the photoelectric conversion unit are substantially conjugate. Further, in the pixel located at the center of the CMOS image sensor 100, the microlens 153 is disposed at the center of the pixel, and at the pixels located at the periphery, the microlens 153 is disposed offset to the optical axis side of the photographing lens 5.

撮影レンズ5を透過した被写体光はCMOSイメージセンサ100近傍に集光する。さらにCMOSイメージセンサ100の各画素に到達した光は、マイクロレンズ153で屈折され光電変換部に集光する。通常の撮像に使う図中右側の画素では、入射する光を遮光しないように第1の配線131及び第2の配線132が配設されている。   The subject light transmitted through the photographing lens 5 is condensed near the CMOS image sensor 100. Further, the light that reaches each pixel of the CMOS image sensor 100 is refracted by the microlens 153 and collected on the photoelectric conversion unit. In the pixel on the right side in the drawing used for normal imaging, a first wiring 131 and a second wiring 132 are provided so as not to block incident light.

一方、図中左側の撮影レンズ5の焦点検出を行う画素では、配線131の一部が光電変換部を覆うように延びている。その結果、図中左側の焦点検出用画素では、撮影レンズ5の瞳の一部を透過する光束を受光可能となっている。また、配線131が入射光束の一部を遮光しているために光電変換部の出力が小さくなることを防ぐために、焦点検出用画素のカラーフィルタ層154は光を吸収しない透過率の高い樹脂で形成されている。   On the other hand, in the pixel that performs focus detection of the photographing lens 5 on the left side in the drawing, a part of the wiring 131 extends so as to cover the photoelectric conversion unit. As a result, the focus detection pixel on the left side in the drawing can receive a light beam that passes through a part of the pupil of the photographing lens 5. Further, in order to prevent the output of the photoelectric conversion unit from being reduced because the wiring 131 blocks a part of the incident light flux, the color filter layer 154 of the focus detection pixel is made of a resin having high transmittance that does not absorb light. Is formed.

本実施形態のCMOSイメージセンサ100の一部に配設される焦点検出用画素は、マイクロレンズ153の位置と配線131の開口中心の相対位置を異ならせることによって、撮影レンズ5の瞳上の受光領域を異ならせるように構成している。   The focus detection pixels arranged in a part of the CMOS image sensor 100 of the present embodiment receive light on the pupil of the photographing lens 5 by making the relative position of the microlens 153 and the opening center of the wiring 131 different. The area is configured to be different.

次に、各焦点検出用画素に対する撮影レンズ5の瞳上の受光領域を、図6を用いて説明する。図6は、CMOSイメージセンサ100の一部に配設された焦点検出用画素の撮影レンズ5の瞳上での受光領域を説明するための図である。図6では、斜めの格子縞領域が撮影レンズ5の瞳を示し、白抜き領域が焦点検出用画素の受光領域を示している。   Next, the light receiving area on the pupil of the photographing lens 5 for each focus detection pixel will be described with reference to FIG. FIG. 6 is a diagram for explaining a light receiving area on the pupil of the photographing lens 5 of the focus detection pixels arranged in a part of the CMOS image sensor 100. In FIG. 6, the diagonal checkered area indicates the pupil of the photographic lens 5, and the white area indicates the light receiving area of the focus detection pixel.

図6(a)は、図4のCMOSイメージセンサ100の一部平面図に示した焦点検出用画素Pα1の、撮影レンズ5の瞳上での受光領域を示している。焦点検出用画素Pα1の配線131_1と配線131_2とで決まる開口の中心は画素の中心に対して−x方向に大きく偏位している。このため、焦点検出用画素Pα1の光電変換部の受光可能な領域Sα1の中心は、撮影レンズ5の射出瞳上で光軸(図中x軸とy軸の交点)に対して距離+xα1偏位している。   FIG. 6A shows a light receiving region on the pupil of the photographing lens 5 of the focus detection pixel Pα1 shown in the partial plan view of the CMOS image sensor 100 of FIG. The center of the opening determined by the wiring 131_1 and the wiring 131_2 of the focus detection pixel Pα1 is greatly deviated in the −x direction with respect to the center of the pixel. For this reason, the center of the light-receiving area Sα1 of the photoelectric conversion unit of the focus detection pixel Pα1 is a distance + xα1 deviation with respect to the optical axis (the intersection of the x axis and the y axis in the drawing) on the exit pupil of the photographing lens 5. doing.

図6(b)は、図4のCMOSイメージセンサ100の一部平面図に示した焦点検出用画素Pβ1の、撮影レンズ5の瞳上での受光領域を示している。焦点検出用画素Pβ1の配線131_3と配線131_4とで決まる開口の中心は画素の中心に対して−x方向にわずかに偏位している。このため、焦点検出用画素Pβ1の光電変換部の受光可能な領域Sβ1の中心は、撮影レンズ5の射出瞳上で光軸(図中x軸とy軸の交点)に対して距離+xβ1偏位している。   FIG. 6B shows a light receiving area on the pupil of the photographing lens 5 of the focus detection pixel Pβ1 shown in the partial plan view of the CMOS image sensor 100 of FIG. The center of the opening determined by the wiring 131_3 and the wiring 131_4 of the focus detection pixel Pβ1 is slightly deviated in the −x direction with respect to the center of the pixel. For this reason, the center of the light receiving region Sβ1 of the photoelectric conversion unit of the focus detection pixel Pβ1 is the distance + xβ1 deviation with respect to the optical axis (the intersection of the x axis and the y axis in the drawing) on the exit pupil of the photographing lens 5. doing.

図6(c)は、図4のCMOSイメージセンサ100の一部平面図に示した焦点検出用画素Pα2の、撮影レンズ5の瞳上での受光領域を示している。焦点検出用画素Pα2の配線131_1と配線131_2とで決まる開口の中心は画素の中心に対して−x方向に所定量偏位している。このため、焦点検出用画素Pα2の光電変換部の受光可能な領域Sα2の中心は、撮影レンズ5の射出瞳上で光軸(図中x軸とy軸の交点)に対して距離+xα2偏位している。   FIG. 6C shows a light receiving region on the pupil of the photographing lens 5 of the focus detection pixel Pα2 shown in the partial plan view of the CMOS image sensor 100 of FIG. The center of the opening determined by the wiring 131_1 and the wiring 131_2 of the focus detection pixel Pα2 is deviated by a predetermined amount in the −x direction with respect to the center of the pixel. For this reason, the center of the light receiving region Sα2 of the photoelectric conversion unit of the focus detection pixel Pα2 is the distance + xα2 deviation on the exit pupil of the photographing lens 5 with respect to the optical axis (the intersection of the x axis and the y axis in the drawing). doing.

図6(d)は、図4のCMOSイメージセンサ100の一部平面図に示した焦点検出用画素Pβ2の、撮影レンズ5の瞳上での受光領域を示している。焦点検出用画素Pβ2の配線131_3と配線131_4とで決まる開口の中心は画素の中心と略一致しているため、焦点検出用画素Pβ2の光電変換部の受光可能な領域Sβ2の中心は、撮影レンズ5の射出瞳上で光軸(図中x軸とy軸の交点)と略一致している。   FIG. 6D shows a light receiving region on the pupil of the photographing lens 5 of the focus detection pixel Pβ2 shown in the partial plan view of the CMOS image sensor 100 of FIG. Since the center of the aperture determined by the wiring 131_3 and the wiring 131_4 of the focus detection pixel Pβ2 substantially coincides with the center of the pixel, the center of the light receiving region Sβ2 of the photoelectric conversion unit of the focus detection pixel Pβ2 is the shooting lens. 5 substantially coincides with the optical axis (the intersection of the x-axis and the y-axis in the figure) on the 5 exit pupil.

図6(e)は、図4のCMOSイメージセンサ100の一部平面図に示した焦点検出用画素Pα3の、撮影レンズ5の瞳上での受光領域を示している。焦点検出用画素Pα3の配線131_1と配線131_2とで決まる開口の中心は画素の中心に対して−x方向にわずかに偏位している。このため、焦点検出用画素Pα3の光電変換部の受光可能な領域Sα3の中心は、撮影レンズ5の射出瞳上で光軸(図中x軸とy軸の交点)に対して距離+xα3偏位している。   FIG. 6E shows a light receiving region on the pupil of the photographing lens 5 of the focus detection pixel Pα3 shown in the partial plan view of the CMOS image sensor 100 of FIG. The center of the opening determined by the wiring 131_1 and the wiring 131_2 of the focus detection pixel Pα3 is slightly deviated in the −x direction with respect to the center of the pixel. Therefore, the center of the light receiving region Sα3 of the photoelectric conversion unit of the focus detection pixel Pα3 is the distance + xα3 deviation with respect to the optical axis (the intersection of the x axis and the y axis in the drawing) on the exit pupil of the photographing lens 5. doing.

図6(f)は、図4のCMOSイメージセンサ100の一部平面図に示した焦点検出用画素Pβ3の、撮影レンズ5の瞳上での受光領域を示している。焦点検出用画素Pβ3の配線131_3と配線131_4とで決まる開口の中心は画素の中心に対して+x方向に所定量偏位している。このため、焦点検出用画素Pβ3の光電変換部の受光可能な領域Sβ3の中心は、撮影レンズ5の射出瞳上で光軸(図中x軸とy軸の交点)に対して距離−xβ3偏位している。   FIG. 6F shows a light receiving region on the pupil of the photographing lens 5 of the focus detection pixel Pβ3 shown in the partial plan view of the CMOS image sensor 100 of FIG. The center of the opening determined by the wiring 131_3 and the wiring 131_4 of the focus detection pixel Pβ3 is deviated by a predetermined amount in the + x direction with respect to the center of the pixel. For this reason, the center of the light receiving region Sβ3 of the photoelectric conversion unit of the focus detection pixel Pβ3 is a distance −xβ3 deviation with respect to the optical axis (the intersection of the x axis and the y axis in the drawing) on the exit pupil of the photographing lens 5. Is ranked.

図6(g)は、図4のCMOSイメージセンサ100の一部平面図に示した焦点検出用画素Pα4の、撮影レンズ5の瞳上での受光領域を示している。焦点検出用画素Pα4の配線131_1と配線131_2とで決まる開口の中心は画素の中心と略一致しているため、焦点検出用画素Pα4の光電変換部の受光可能な領域Sα4の中心は、撮影レンズ5の射出瞳上で光軸(図中x軸とy軸の交点)と略一致している。   FIG. 6G shows a light receiving region on the pupil of the photographing lens 5 of the focus detection pixel Pα4 shown in the partial plan view of the CMOS image sensor 100 of FIG. Since the center of the opening determined by the wiring 131_1 and the wiring 131_2 of the focus detection pixel Pα4 is substantially coincident with the center of the pixel, the center of the light receiving region Sα4 of the photoelectric conversion unit of the focus detection pixel Pα4 is the photographic lens. 5 substantially coincides with the optical axis (the intersection of the x-axis and the y-axis in the figure) on the 5 exit pupil.

図6(h)は、図4のCMOSイメージセンサ100の一部平面図に示した焦点検出用画素Pβ4の、撮影レンズ5の瞳上での受光領域を示している。焦点検出用画素Pβ4の配線131_3と配線131_4とで決まる開口の中心は画素の中心に対して+x方向に大きく偏位している。このため、焦点検出用画素Pβ4の光電変換部の受光可能な領域Sβ4の中心は、撮影レンズ5の射出瞳上で光軸(図中x軸とy軸の交点)に対して距離−xβ4偏位している。   FIG. 6H shows a light receiving area on the pupil of the photographing lens 5 of the focus detection pixel Pβ4 shown in the partial plan view of the CMOS image sensor 100 of FIG. The center of the opening determined by the wiring 131_3 and the wiring 131_4 of the focus detection pixel Pβ4 is greatly deviated in the + x direction with respect to the center of the pixel. Therefore, the center of the light receiving region Sβ4 of the photoelectric conversion unit of the focus detection pixel Pβ4 is a distance −xβ4 bias with respect to the optical axis (the intersection of the x axis and the y axis in the figure) on the exit pupil of the photographing lens 5. Is ranked.

同様に、本実施形態のCMOSイメージセンサ100の一部に配設される焦点検出用画素の一部は、配線132にて制限される開口の中心位置が画素中心に対してy方向に異なる8種類が設定されている。図中、Qα1、Qβ1、Qα2、Qβ2、Qα3、Qβ3、Qα4、Qβ4は撮影レンズ5の合焦状態を検出するための画素で、配線132にて図中y方向の開口が制限されている。そして、同一の配線開口を有する焦点検出用画素が、図中−y方向に4画素周期で配列され縦(y)方向の測距視野を形成している。   Similarly, in some of the focus detection pixels arranged in a part of the CMOS image sensor 100 of this embodiment, the center position of the opening limited by the wiring 132 is different in the y direction with respect to the pixel center. Type is set. In the figure, Qα1, Qβ1, Qα2, Qβ2, Qα3, Qβ3, Qα4, and Qβ4 are pixels for detecting the in-focus state of the taking lens 5, and the opening in the y direction in the figure is restricted by the wiring 132. The focus detection pixels having the same wiring opening are arranged in a cycle of 4 pixels in the −y direction in the drawing to form a distance measuring field in the vertical (y) direction.

本実施形態の撮像装置では、焦点検出用画素Qα1、Qβ1、Qα2、Qβ2、Qα3、Qβ3、Qα4、Qβ4とそれと同一の配線開口を有する焦点検出用画素群で生成された像に基づいて、撮影レンズ5の合焦状態が検出される。特に、配線開口が図中y方向に偏位した焦点検出用画素群を用いると、CMOSイメージセンサ100上で図中y方向にコントラストのある被写体像に対して良好な焦点検出が可能である。   In the imaging apparatus of the present embodiment, photographing is performed based on images generated by focus detection pixels Qα1, Qβ1, Qα2, Qβ2, Qα3, Qβ3, Qα4, and Qβ4 and the focus detection pixel group having the same wiring opening. The in-focus state of the lens 5 is detected. In particular, when a focus detection pixel group in which the wiring opening is deviated in the y direction in the drawing is used, good focus detection can be performed on a subject image having a contrast in the y direction in the drawing on the CMOS image sensor 100.

焦点検出用画素Qα1、Qβ1、Qα2、Qβ2、Qα3、Qβ3、Qα4、Qβ4の撮影レンズ5の瞳上の受光領域は、焦点検出用画素Pα1、Pβ1、Pα2、Pβ2、Pα3、Pβ3、Pα4、Pβ4の受光領域に対して90°回転した関係にある。   The light receiving areas on the pupil of the photographing lens 5 of the focus detection pixels Qα1, Qβ1, Qα2, Qβ2, Qα3, Qβ3, Qα4, and Qβ4 are focus detection pixels Pα1, Pβ1, Pα2, Pβ2, Pα3, Pβ3, Pα4, and Pβ4. The light receiving area is rotated by 90 °.

なお、CMOSイメージセンサ100iは、図7に示すように、画素配列PA100に代えて画素ユニット配列PUA100を備えても良い。画素ユニット配列PUA100では、複数の画素ユニットPU11〜PU22が行方向及び列方向に配列されている。図7では、画素ユニット配列PUA100が2行×2列の画素ユニットで構成される場合が例示されている。図7は、本発明の第1実施形態の変形例におけるCMOSイメージセンサ100iの構成を示す図である。   The CMOS image sensor 100i may include a pixel unit array PUA100 instead of the pixel array PA100, as shown in FIG. In the pixel unit array PUA100, a plurality of pixel units PU11 to PU22 are arrayed in the row direction and the column direction. FIG. 7 illustrates a case where the pixel unit array PUA100 is configured by pixel units of 2 rows × 2 columns. FIG. 7 is a diagram showing a configuration of a CMOS image sensor 100i in a modification of the first embodiment of the present invention.

各画素ユニットPU11〜PU22では、図2に示す画素配列PA100における列方向に隣接した2画素について電荷電圧変換部103、リセット部104、出力部105、及び選択部106を共通化した構成になっている。電荷電圧変換部103へは、転送部121により光電変換部111の電荷が転送され、転送部122により光電変換部112の電荷が転送される。   Each of the pixel units PU11 to PU22 has a configuration in which the charge-voltage conversion unit 103, the reset unit 104, the output unit 105, and the selection unit 106 are shared by two pixels adjacent in the column direction in the pixel array PA100 illustrated in FIG. Yes. To the charge voltage conversion unit 103, the charge of the photoelectric conversion unit 111 is transferred by the transfer unit 121, and the charge of the photoelectric conversion unit 112 is transferred by the transfer unit 122.

次に、図7に示すCMOSイメージセンサ100iの動作を、図8を用いて説明する。図8は、本発明の第1実施形態の変形例におけるCMOSイメージセンサ100iの動作を示すタイミングチャートである。   Next, the operation of the CMOS image sensor 100i shown in FIG. 7 will be described with reference to FIG. FIG. 8 is a timing chart showing the operation of the CMOS image sensor 100i in the modification of the first embodiment of the present invention.

まず垂直走査回路116からのタイミング出力によって、制御信号φLをハイとして垂直信号線SLをリセットする。また制御信号φR0をハイとし、リセット部104をオンとする。   First, according to the timing output from the vertical scanning circuit 116, the control signal φL is set to high to reset the vertical signal line SL. Further, the control signal φR0 is set high, and the reset unit 104 is turned on.

時刻T0において、制御信号φS0をハイとし、選択部106をオンさせ、第1行の画素ユニットPU11,PU12を選択する。   At time T0, the control signal φS0 is set high, the selection unit 106 is turned on, and the pixel units PU11 and PU12 in the first row are selected.

次に、制御信号φR0をロウとして電荷電圧変換部103のリセットを完了する。電荷電圧変換部103をフローティング状態とし、出力部105のゲート・ソース間をスルーとする。出力部105は、電荷電圧変換部103の電圧に応じたノイズ信号を垂直信号線SLへ出力する。   Next, the reset of the charge voltage conversion unit 103 is completed by setting the control signal φR0 to low. The charge voltage conversion unit 103 is set in a floating state, and the gate and source of the output unit 105 are set to through. The output unit 105 outputs a noise signal corresponding to the voltage of the charge-voltage conversion unit 103 to the vertical signal line SL.

時刻T1において、制御信号φTNをハイとし、垂直信号線SLへ出力されたノイズ信号をCTN137へ転送させる。   At time T1, the control signal φTN is set high, and the noise signal output to the vertical signal line SL is transferred to the CTN 137.

時刻T2において、制御信号φTXo0をハイとして転送部121をオンする。これにより、光電変換部111の電荷が電荷電圧変換部103へ転送される。出力部105は、電荷電圧変換部103の電圧に応じた光信号を垂直信号線SLへ出力する。   At time T2, the control signal φTXo0 is set high to turn on the transfer unit 121. Thereby, the charge of the photoelectric conversion unit 111 is transferred to the charge-voltage conversion unit 103. The output unit 105 outputs an optical signal corresponding to the voltage of the charge-voltage conversion unit 103 to the vertical signal line SL.

時刻T3において、制御信号φTSをハイとし、垂直信号線SLへ出力された光信号をCTS138へ転送させる。   At time T3, the control signal φTS is set high, and the optical signal output to the vertical signal line SL is transferred to the CTS 138.

時刻T4において、制御信号φHCを一時ハイとしてリセットスイッチ113をオンする。これにより、水平信号線137,138をリセットする。   At time T4, the control signal φHC is temporarily set high to turn on the reset switch 113. As a result, the horizontal signal lines 137 and 138 are reset.

水平転送期間において、水平走査回路115の水平走査信号により水平信号線に画素のノイズ信号と光信号とが出力される。出力アンプ114は、ノイズ信号と光信号とのさ分をとることにより、画像信号を生成して出力する。   In the horizontal transfer period, a pixel noise signal and an optical signal are output to the horizontal signal line by the horizontal scanning signal of the horizontal scanning circuit 115. The output amplifier 114 generates and outputs an image signal by taking the difference between the noise signal and the optical signal.

そして、時刻T0〜T4における動作と同様であるが次の点で異なる動作が光電変換部112に対して行われる。   Then, operations similar to those at times T0 to T4, but different in the following points, are performed on the photoelectric conversion unit 112.

時刻T5では、時刻T2における動作に代えて、制御信号φTXe0をハイとして転送部122をオンする。これにより、光電変換部112の電荷が電荷電圧変換部103へ転送される。出力部105は、電荷電圧変換部103の電圧に応じた光信号を垂直信号線SLへ出力する。   At time T5, instead of the operation at time T2, the control signal φTXe0 is set high to turn on the transfer unit 122. Thereby, the charge of the photoelectric conversion unit 112 is transferred to the charge-voltage conversion unit 103. The output unit 105 outputs an optical signal corresponding to the voltage of the charge-voltage conversion unit 103 to the vertical signal line SL.

ここで、1行の画素ユニットが選択された期間において、光電変換部111の電荷が電荷電圧変換部103へ転送されてから、光電変換部112の電荷が電荷電圧変換部103へ転送されるまで、|T5−T2|の時間ずれが発生している。   Here, in the period when the pixel units in one row are selected, the charge of the photoelectric conversion unit 111 is transferred to the charge-voltage conversion unit 103 until the charge of the photoelectric conversion unit 112 is transferred to the charge-voltage conversion unit 103. , | T5-T2 |

次に、撮像装置1の焦点調節動作を、図9を用いて説明する。図9は、本発明の第1実施形態に係る撮像装置1の焦点調節動作を示すフローチャートである。   Next, the focus adjustment operation of the imaging apparatus 1 will be described with reference to FIG. FIG. 9 is a flowchart showing the focus adjustment operation of the imaging apparatus 1 according to the first embodiment of the present invention.

撮影者が不図示のシャッターレリーズスイッチの前段操作(SW1−ON)を行ったならば(s201)、CPU20はイメージセンサ制御回路21に信号を送って、CMOSイメージセンサ100にて撮像を行う。焦点調節部20aは、CMOSイメージセンサ100にて撮像された画像信号のうちAF像信号を取得する(s202)。   If the photographer performs a previous operation (SW1-ON) of a shutter release switch (not shown) (s201), the CPU 20 sends a signal to the image sensor control circuit 21 and takes an image with the CMOS image sensor 100. The focus adjustment unit 20a acquires an AF image signal among image signals captured by the CMOS image sensor 100 (s202).

CPU20の焦点調節部20aは、焦点検出用画素Pα1と同じ配線開口を有する焦点検出用画素群から第1の焦点検出用画像を生成し、同様に焦点検出用画素Pβ1と同じ配線開口を有する焦点検出用画素群から第2の焦点検出用画像を生成する。   The focus adjustment unit 20a of the CPU 20 generates a first focus detection image from the focus detection pixel group having the same wiring opening as the focus detection pixel Pα1, and similarly, the focus having the same wiring opening as the focus detection pixel Pβ1. A second focus detection image is generated from the detection pixel group.

焦点調節部20aは、第1の焦点検出用画像と第2の焦点検出用画像に基づいて相関演算を行うことにより、焦点検出用画素Pα1とPβ1とが位置する横(x)方向の測距視野での撮影レンズ5の合焦状態def_hor_1を検出する。   The focus adjustment unit 20a performs correlation calculation based on the first focus detection image and the second focus detection image, thereby measuring the distance in the horizontal (x) direction where the focus detection pixels Pα1 and Pβ1 are located. The focus state def_hor_1 of the photographing lens 5 in the field of view is detected.

同様に焦点調節部20aは、焦点検出用画素Pα2とPβ2とが位置する横(x)方向の測距視野での撮影レンズ5の合焦状態def_hor_2を検出する。   Similarly, the focus adjustment unit 20a detects the in-focus state def_hor_2 of the photographing lens 5 in the lateral (x) direction distance measuring field in which the focus detection pixels Pα2 and Pβ2 are located.

同様に焦点調節部20aは、焦点検出用画素Pα3とPβ3とが位置する横(x)方向の測距視野での撮影レンズ5の合焦状態def_hor_3を検出する。   Similarly, the focus adjusting unit 20a detects the in-focus state def_hor_3 of the photographing lens 5 in the lateral (x) direction distance measuring field where the focus detection pixels Pα3 and Pβ3 are located.

同様に焦点調節部20aは、焦点検出用画素Pα4とPβ4とが位置する横(x)方向の測距視野での撮影レンズ5の合焦状態def_hor_4を検出する。   Similarly, the focus adjusting unit 20a detects the in-focus state def_hor_4 of the photographing lens 5 in the lateral (x) distance measuring field where the focus detection pixels Pα4 and Pβ4 are located.

そして、焦点調節部20aは、焦点検出結果def_hor_1〜def_hor_4を数式1のように平均する。   Then, the focus adjustment unit 20a averages the focus detection results def_hor_1 to def_hor_4 as in Expression 1.

def_hor=(def_hor_1 + def_hor_2 + def_hor_3 + def_hor_4)/4・・・数式1
次に、CPU20の焦点調節部20aは、焦点検出用画素Qα1と同じ配線開口を有する焦点検出用画素群から第1の焦点検出用画像を生成し、同様に焦点検出用画素Qβ1と同じ配線開口を有する焦点検出用画素群から第2の焦点検出用画像を生成する。
def_hor = (def_hor_1 + def_hor_2 + def_hor_3 + def_hor_4) / 4 Equation 1
Next, the focus adjustment unit 20a of the CPU 20 generates a first focus detection image from the focus detection pixel group having the same wiring opening as the focus detection pixel Qα1, and similarly the same wiring opening as the focus detection pixel Qβ1. A second focus detection image is generated from the focus detection pixel group having.

焦点調節部20aは、第1の焦点検出用画像と第2の焦点検出用画像に基づいて相関演算を行うことにより、焦点検出用画素Qα1とQβ1とが位置する縦(y)方向の測距視野での撮影レンズ5の合焦状態def_ver_1を検出する。   The focus adjusting unit 20a performs correlation calculation based on the first focus detection image and the second focus detection image, thereby performing distance measurement in the vertical (y) direction where the focus detection pixels Qα1 and Qβ1 are located. The focus state def_ver_1 of the photographing lens 5 in the visual field is detected.

同様に焦点調節部20aは、焦点検出用画素Qα2とQβ2とが位置する縦(y)方向の測距視野での撮影レンズ5の合焦状態def_ver_2を検出する。   Similarly, the focus adjustment unit 20a detects the in-focus state def_ver_2 of the photographing lens 5 in the longitudinal (y) range-finding field in which the focus detection pixels Qα2 and Qβ2 are located.

同様に焦点調節部20aは、焦点検出用画素Qα3とQβ3とが位置する縦(y)方向の測距視野での撮影レンズ5の合焦状態def_ver_3を検出する。   Similarly, the focus adjustment unit 20a detects the in-focus state def_ver_3 of the photographing lens 5 in the longitudinal (y) range-finding field in which the focus detection pixels Qα3 and Qβ3 are located.

同様に焦点調節部20aは、焦点検出用画素Qα4とQβ4とが位置する縦(y)方向の測距視野での撮影レンズ5の合焦状態def_ver_4を検出する。   Similarly, the focus adjustment unit 20a detects the in-focus state def_ver_4 of the photographing lens 5 in the longitudinal (y) range-finding field in which the focus detection pixels Qα4 and Qβ4 are located.

焦点調節部20aは、焦点検出結果def_ver_1〜def_ver_4を数式2のように平均する。   The focus adjustment unit 20a averages the focus detection results def_ver_1 to def_ver_4 as in Expression 2.

def_ver =(def_ver_1 + def_ver_2 + def_ver_3 + def_ver_4)/4・・・数式2
焦点調節部20aは、横(x)方向の測距視野と縦(y)方向の測距視野との焦点検出が終了すると(s203)、撮影レンズ5のズームレンズ5cが駆動中かどうかを確認する(s204)。
def_ver = (def_ver_1 + def_ver_2 + def_ver_3 + def_ver_4) / 4 Equation 2
When the focus detection of the distance measuring field in the horizontal (x) direction and the distance measuring field in the vertical (y) direction is completed (s203), the focus adjusting unit 20a checks whether the zoom lens 5c of the photographing lens 5 is being driven. (S204).

ズームレンズ5cが駆動中であれば、ズームレンズ5cの駆動にともない画素配列PA100上の被写体の像が移動する。その結果、CMOSイメージセンサ100の読み出し開始ラインとそれ以降のラインとでは像の合焦状態が異なってくるため、縦(y)方向の測距視野での合焦状態の検出結果の信頼性が低くなる。   If the zoom lens 5c is being driven, the subject image on the pixel array PA100 moves as the zoom lens 5c is driven. As a result, since the focus state of the image differs between the readout start line of the CMOS image sensor 100 and the subsequent lines, the reliability of the detection result of the focus state in the distance measuring field in the vertical (y) direction is reliable. Lower.

そこで、焦点調節部20aは、レンズ駆動機構51を介してズームレンズ5cが駆動中であることを検知すると(s204)、次のような動作を行う。焦点調節部20aは、縦(y)方向の測距視野で検出結果に対する重みm_verを横(x)方向の測距視野で検出結果に対する重みm_vhorに対して小さく設定する(例えば、m_ver = 0.2。m_hor = 0.8)(s205)。   Therefore, when the focus adjusting unit 20a detects that the zoom lens 5c is being driven through the lens driving mechanism 51 (s204), the focus adjusting unit 20a performs the following operation. The focus adjustment unit 20a sets the weight m_ver for the detection result in the distance measurement field in the vertical (y) direction to be smaller than the weight m_vhor for the detection result in the distance measurement field in the horizontal (x) direction (for example, m_ver = 0.0.1). 2. m_hor = 0.8) (s205).

あるいは、焦点調節部20aは、レンズ駆動機構51を介してズームレンズ5cが駆動中でないことを確認すると、次のような動作を行う。焦点調節部20aは、縦(y)方向の測距視野で検出結果に対する重みm_verと横(x)方向の測距視野で検出結果に対する重みm_vhorとを同じに設定する(例えば、m_ver = 0.5。m_hor = 0.5)(s206)。   Alternatively, when it is confirmed that the zoom lens 5c is not being driven via the lens driving mechanism 51, the focus adjusting unit 20a performs the following operation. The focus adjustment unit 20a sets the same weight m_ver for the detection result in the distance measurement field in the vertical (y) direction and weight m_vhor for the detection result in the distance measurement field in the horizontal (x) direction (for example, m_ver = 0.0). 5. m_hor = 0.5) (s206).

縦(y)方向の測距視野の合焦状態の検出結果に対する重みm_verと横(x)方向の測距視野の合焦状態の検出結果に対する重みm_vhorが設定されると、焦点調節部20aは、数式3に基づいて撮影レンズ5の合焦状態を算出する(s207)。   When the weight m_ver for the detection result of the focus state of the distance measuring field in the vertical (y) direction and the weight m_vhor for the detection result of the focus state of the distance measurement field in the horizontal (x) direction are set, the focus adjustment unit 20a Based on Formula 3, the in-focus state of the taking lens 5 is calculated (s207).

def =(m_hor * def_hor + m_ver * def_ver)/(m_hor + m_ver)・・・数式3
撮影レンズ5の合焦状態が算出されると(s207)、焦点調節部20aは、焦点検出結果に基づいて撮影レンズ5が合焦しているか否かを判定する(s208)。撮影レンズ5が合焦していないと判定されると(s208)、焦点調節部20aは、焦点検出結果に基づいてレンズ駆動機構51に焦点調節情報を送って、撮影レンズ5の焦点調節を行う(s209)。
def = (m_hor * def_hor + m_ver * def_ver) / (m_hor + m_ver) Equation 3
When the in-focus state of the photographic lens 5 is calculated (s207), the focus adjustment unit 20a determines whether or not the photographic lens 5 is in focus based on the focus detection result (s208). If it is determined that the photographic lens 5 is not in focus (s208), the focus adjustment unit 20a sends focus adjustment information to the lens driving mechanism 51 based on the focus detection result to adjust the focus of the photographic lens 5. (S209).

一方、撮影レンズ5が合焦していると判定されると(s208)、次の操作まで待機する(s210)。   On the other hand, if it is determined that the taking lens 5 is in focus (s208), the process waits for the next operation (s210).

以上のように、本実施形態によれば、CMOSイメージセンサの画素配列上で被写体の像の動きがあった場合でも良好な焦点調節を行うことが可能となる。   As described above, according to the present embodiment, it is possible to perform good focus adjustment even when the image of the subject moves on the pixel array of the CMOS image sensor.

次に、本発明の第2実施形態に係る撮像装置について説明する。   Next, an imaging apparatus according to the second embodiment of the present invention will be described.

本実施形態に係る撮像装置は、その焦点調節動作が、図10に示すように第1実施形態と異なる。図10は、本発明の第2実施形態に係る撮像装置の焦点調節動作を示すフローチャートである。以下では、第1実施形態と異なる部分を中心に説明する。   The imaging apparatus according to the present embodiment is different in focus adjustment operation from the first embodiment as shown in FIG. FIG. 10 is a flowchart showing the focus adjustment operation of the imaging apparatus according to the second embodiment of the present invention. Below, it demonstrates centering on a different part from 1st Embodiment.

CPU20の焦点調節部20aは、横(x)方向の測距視野での焦点検出結果def_hor_1〜def_hor_4を数式1のように平均する。また、焦点調節部20aは、焦点検出結果の重みm_hor = 1と初期設定する(s223)。   The focus adjustment unit 20a of the CPU 20 averages the focus detection results def_hor_1 to def_hor_4 in the lateral (x) direction distance measuring field as represented by Equation 1. In addition, the focus adjustment unit 20a initially sets the focus detection result weight m_hor = 1 (s223).

焦点調節部20aは、横(x)方向の測距視野での撮影レンズ5の焦点検出を終了すると(s223)、振れ検出装置54から受けた検出結果の情報から撮像装置1が手振れを起こしているかどうかを確認する。すなわち、焦点調節部20aの動き検出部20a3は、撮像装置1の振れを検出することにより、画素配列PA100に形成された被写体の像の動きを検出する(s224)。   When the focus adjustment unit 20a finishes detecting the focus of the photographing lens 5 in the lateral (x) distance measurement field of view (s223), the imaging device 1 causes camera shake from the detection result information received from the shake detection device 54. Check if it is. That is, the motion detection unit 20a3 of the focus adjustment unit 20a detects the movement of the subject image formed in the pixel array PA100 by detecting the shake of the imaging device 1 (s224).

撮像装置1が手振れを起こしていれば、CMOSイメージセンサ100上の被写体像が移動する。その結果、CMOSイメージセンサ100の読み出し開始ラインとそれ以降のラインとでは撮像している像が異なってくるため、縦(y)方向の測距視野での合焦状態の検出結果の信頼性が低くなる。   If the imaging apparatus 1 is shaken, the subject image on the CMOS image sensor 100 moves. As a result, since the captured image differs between the read start line of the CMOS image sensor 100 and the subsequent lines, the reliability of the detection result of the in-focus state in the longitudinal (y) direction visual field is reliable. Lower.

そこで、焦点調節部20aは、振れ検出装置54の情報から撮像装置1が手振れを起こしていることを検知すると(s224)、縦(y)方向の測距視野での合焦状態の検出を行わずに、撮影レンズ5の合焦状態を上記数式3に基づいて算出する(s226)。   Therefore, when the focus adjustment unit 20a detects from the information of the shake detection device 54 that the imaging device 1 is shaken (s224), the focus adjustment unit 20a detects the in-focus state in the distance measuring field in the vertical (y) direction. First, the in-focus state of the photographic lens 5 is calculated based on the equation 3 (s226).

このとき、縦(y)方向の測距視野での合焦状態の検出は行われていないため、重みm_ver = 0と初期値が設定されている。   At this time, since the in-focus state is not detected in the distance measurement visual field in the vertical (y) direction, the weight m_ver = 0 and the initial value are set.

あるいは、焦点調節部20aは、振れ検出装置54による検出結果の情報から撮像装置1が手振れを起こしていないことを検知すると(s224)、縦(y)方向の測距視野での合焦状態の検出を行う(s225)。   Alternatively, when the focus adjustment unit 20a detects from the information of the detection result by the shake detection device 54 that the imaging device 1 is not shaken (s224), the focus adjustment unit 20a is in the focused state in the distance measuring field in the vertical (y) direction. Detection is performed (s225).

焦点調節部20aは、焦点検出結果def_ver_1〜def_ver_4を数式2のように平均する。また、焦点調節部20aは、焦点検出結果の重みm_ver = 1と初期設定する。   The focus adjustment unit 20a averages the focus detection results def_ver_1 to def_ver_4 as in Expression 2. In addition, the focus adjustment unit 20a initially sets the focus detection result weight m_ver = 1.

縦(y)方向の測距視野の焦点検出が終了すると(s225)、撮影レンズ5の合焦状態を上記数式3に基づいて算出する(s226)。   When the focus detection of the distance measuring field in the vertical (y) direction is completed (s225), the in-focus state of the photographing lens 5 is calculated based on the above equation 3 (s226).

次に、本発明の第3実施形態に係る撮像装置について説明する。   Next, an imaging apparatus according to a third embodiment of the present invention will be described.

本実施形態に係る撮像装置は、その焦点調節動作が、図11に示すように第1実施形態と異なる。図11は、本発明の第3実施形態に係る撮像装置の焦点調節動作を示すフローチャートである。以下では、第1実施形態と異なる部分を中心に説明する。   The imaging apparatus according to the present embodiment is different in focus adjustment operation from the first embodiment as shown in FIG. FIG. 11 is a flowchart showing the focus adjustment operation of the imaging apparatus according to the third embodiment of the present invention. Below, it demonstrates centering on a different part from 1st Embodiment.

撮影者によって撮像装置1の電源がONされると、CPU20はイメージセンサ制御回路21に信号を送って、CMOSイメージセンサ100にて撮像を行う。撮像された画像は画像処理部24によって画像処理される。このとき、画像処理部24は、撮影期間の異なる複数の画像より被写体の動きを判定して、その判定結果をCPU20へ供給する。すなわち、焦点調節部20aの動き検出部20a3は、画像処理部24を介して、複数のフレーム期間における読み出し回路により画素配列から読み出された複数フレームの画像信号を比較して被写体の動きを検出する。これにより、動き検出部20a3は、画素配列に形成された被写体の像の動きを検出する(s231)。   When the image pickup apparatus 1 is turned on by the photographer, the CPU 20 sends a signal to the image sensor control circuit 21 and picks up an image with the CMOS image sensor 100. The captured image is subjected to image processing by the image processing unit 24. At this time, the image processing unit 24 determines the movement of the subject from a plurality of images having different shooting periods, and supplies the determination result to the CPU 20. That is, the motion detection unit 20a3 of the focus adjustment unit 20a detects the movement of the subject by comparing the image signals of a plurality of frames read from the pixel array by the readout circuit in a plurality of frame periods via the image processing unit 24. To do. Thereby, the motion detection unit 20a3 detects the motion of the image of the subject formed in the pixel array (s231).

焦点調節部20aは、横(x)方向の測距視野と縦(y)方向の測距視野の焦点検出が終了すると(s234)、画像処理部24からの情報より被写体が動体であるかどうかを確認する(s235)。   When the focus adjustment unit 20a finishes detecting the focus in the lateral (x) direction visual field and the longitudinal (y) direction visual field (s234), it is determined from the information from the image processing unit 24 whether the subject is a moving object. Is confirmed (s235).

被写体が動体であれば、CMOSイメージセンサ100上の被写体像が移動する。その結果、CMOSイメージセンサ100の読み出し開始ラインとそれ以降のラインとでは撮像している像が異なってくるため、縦(y)方向の測距視野での合焦状態の検出結果の信頼性が低くなる。   If the subject is a moving object, the subject image on the CMOS image sensor 100 moves. As a result, since the captured image differs between the read start line of the CMOS image sensor 100 and the subsequent lines, the reliability of the detection result of the in-focus state in the longitudinal (y) direction visual field is reliable. Lower.

そこで、焦点調節部20aは、画像処理部24からの情報より被写体が動体であることを検知すると(s235)、次のような動作を行う。焦点調節部20aは、縦(y)方向の測距視野で検出結果に対する重みm_verを横(x)方向の測距視野で検出結果に対する重みm_vhorに対して小さく設定する(例えば、m_ver = 0.3。m_hor = 0.7)(s237)。   Therefore, when the focus adjustment unit 20a detects that the subject is a moving object from the information from the image processing unit 24 (s235), the focus adjustment unit 20a performs the following operation. The focus adjustment unit 20a sets the weight m_ver for the detection result in the distance measurement field in the vertical (y) direction to be smaller than the weight m_vhor for the detection result in the distance measurement field in the horizontal (x) direction (for example, m_ver = 0.0.1). 3. m_hor = 0.7) (s237).

あるいは、焦点調節部20aは、画像処理部24からの情報より被写体が動体でないことを確認すると(s235)、次のような動作を行う。焦点調節部20aは、縦(y)方向の測距視野で検出結果に対する重みm_verと横(x)方向の測距視野で検出結果に対する重みm_vhorを同じに設定する(例えば、m_ver = 0.5。m_hor = 0.5)(s236)。   Alternatively, when it is confirmed from the information from the image processing unit 24 that the subject is not a moving object (s235), the focus adjustment unit 20a performs the following operation. The focus adjusting unit 20a sets the weight m_ver for the detection result in the longitudinal (y) direction visual field and the weight m_vhor for the detection result in the lateral (x) direction visual field (for example, m_ver = 0.5). M_hor = 0.5) (s236).

Claims (8)

撮影レンズと、
前記撮影レンズにより被写体の像が形成される画素配列であって、複数の画素が行方向及び列方向に配列され、前記複数の画素が、前記撮影レンズの全射出瞳領域のうちの一部である第1の射出瞳領域からの被写体の像を光電変換する第1の焦点検出用画素群と、前記撮影レンズの全射出瞳領域のうちの一部であり前記第1の射出瞳領域に対する行方向に偏った第2の射出瞳領域からの被写体の像を光電変換する第2の焦点検出用画素群と、前記撮影レンズの全射出瞳領域のうちの一部である第3の射出瞳領域からの被写体の像を光電変換する第3の焦点検出用画素群と、前記撮影レンズの全射出瞳領域のうちの一部であり前記第3の射出瞳領域に対する列方向に偏った第4の射出瞳領域からの被写体の像を光電変換する第4の焦点検出用画素群と、前記撮影レンズの全射出瞳領域からの被写体の像を光電変換する撮影用画素群とを含む画素配列と、前記画素配列における行を順次に選択する選択手段と、前記選択手段により選択された行の画素から信号を読み出す読み出し手段とを有する撮像センサと、
前記読み出し手段により読み出された前記第1の焦点検出用画素群の信号と前記第2の焦点検出用画素群の信号とを用いて行方向の視野での前記撮影レンズの焦点状態を検出する第1の焦点検出手段と、
前記読み出し手段により読み出された前記第3の焦点検出用画素群の信号と前記第4の焦点検出用画素群の信号とを用いて列方向の視野での前記撮影レンズの焦点状態を検出する第2の焦点検出手段と、
前記画素配列に形成された前記被写体の像の動きを検出する動き検出手段と、
前記動き検出手段により前記被写体の像の動きが検出された場合、前記第1の焦点検出手段の検出結果を第1の重みで用い前記第2の焦点検出手段の検出結果を前記第1の重みより低い第2の重みで用いることにより焦点調節を行う焦点調節手段と、を備え、
前記撮影用画素群が配置されている領域内に前記第1の焦点検出用画素群及び前記第2の焦点検出用画素群及び前記第3の焦点検出用画素群及び前記第4の焦点検出用画素群がそれぞれ第1の周期で離散的に配列されていることを特徴とする撮像装置。
A taking lens,
A pixel array in which an image of a subject is formed by the photographing lens, wherein a plurality of pixels are arranged in a row direction and a column direction, and the plurality of pixels are a part of a total exit pupil region of the photographing lens. A first focus detection pixel group that photoelectrically converts an image of a subject from a certain first exit pupil region, and a row for the first exit pupil region that is a part of the entire exit pupil region of the photographing lens A second focus detection pixel group that photoelectrically converts a subject image from the second exit pupil region biased in the direction, and a third exit pupil region that is a part of the entire exit pupil region of the photographing lens A third focus detection pixel group that photoelectrically converts the image of the subject from the fourth, and a fourth group that is a part of the entire exit pupil region of the photographing lens and is biased in the column direction with respect to the third exit pupil region Fourth focus detection image for photoelectrically converting the subject image from the exit pupil area A pixel array including a group and a photographing pixel group that photoelectrically converts an object image from all exit pupil regions of the photographing lens, a selection unit that sequentially selects rows in the pixel array, and a selection by the selection unit An image sensor having readout means for reading out signals from pixels in the designated row;
The focus state of the photographing lens in the field of view in the row direction is detected using the signal of the first focus detection pixel group and the signal of the second focus detection pixel group read by the readout means. First focus detection means;
The focus state of the photographing lens in the field of view in the column direction is detected using the signal of the third focus detection pixel group and the signal of the fourth focus detection pixel group read by the readout means. Second focus detection means;
Motion detection means for detecting the motion of the image of the subject formed in the pixel array;
When the movement of the image of the subject is detected by the motion detection unit, the detection result of the first focus detection unit is used as a first weight, and the detection result of the second focus detection unit is used as the first weight. Focusing means for adjusting the focus by using a lower second weight, and
The first focus detection pixel group, the second focus detection pixel group, the third focus detection pixel group, and the fourth focus detection pixel in a region where the photographing pixel group is disposed. An image pickup apparatus, wherein pixel groups are discretely arranged at a first period .
前記撮像センサは、CMOSイメージセンサであり、
前記撮像センサでは、前記選択手段が、前記画素配列における各行の画素に順次に信号の蓄積動作を行わせ、その後、前記読み出し手段が、前記画素配列における各行の画素から順次に前記蓄積動作により蓄積された信号を読み出す
ことを特徴とする請求項1に記載の撮像装置。
The imaging sensor is a CMOS image sensor,
In the imaging sensor, the selection unit causes the pixels in each row in the pixel array to sequentially accumulate signals, and then the readout unit accumulates sequentially from the pixels in each row in the pixel array by the accumulation operation. The imaging apparatus according to claim 1, wherein a read signal is read out.
前記第1の焦点検出用画素群と前記第2の焦点検出用画素群とは、前記画素配列における互いに行方向にずれた位置に配されており、
前記第3の焦点検出用画素群と前記第4の焦点検出用画素群とは、前記画素配列における互いに列方向にずれた位置に配されており、
前記第1の焦点検出手段は、前記第1の焦点検出用画素群の信号から得られる像と前記第2の焦点検出用画素群の信号から得られる像とを比較することにより、行方向の視野での前記撮影レンズの焦点状態を検出し、
前記第2の焦点検出手段は、前記第3の焦点検出用画素群の信号から得られる像と前記第4の焦点検出用画素群の信号から得られる像とを比較することにより、列方向の視野での前記撮影レンズの焦点状態を検出する
ことを特徴とする請求項1又は2に記載の撮像装置。
The first focus detection pixel group and the second focus detection pixel group are arranged at positions shifted from each other in the row direction in the pixel array,
The third focus detection pixel group and the fourth focus detection pixel group are arranged at positions shifted from each other in the column direction in the pixel array,
The first focus detection unit compares the image obtained from the signal of the first focus detection pixel group with the image obtained from the signal of the second focus detection pixel group, thereby Detecting the focus state of the taking lens in the field of view;
The second focus detection unit compares the image obtained from the signal of the third focus detection pixel group with the image obtained from the signal of the fourth focus detection pixel group, thereby obtaining a column direction The imaging apparatus according to claim 1, wherein a focus state of the photographing lens in a field of view is detected.
前記第1の焦点検出用画素群における各画素は、第1の光電変換部を含み、
前記第2の焦点検出用画素群における各画素は、第2の光電変換部を含み、
前記第3の焦点検出用画素群における各画素は、第3の光電変換部を含み、
前記第4の焦点検出用画素群における各画素は、第4の光電変換部を含み、
前記第1の光電変換部の受光領域の中心は、画素の中心に対して行方向の第1の側にシフトしており、
前記第2の光電変換部の受光領域の中心は、画素の中心に対して、前記第1の光電変換部の受光領域の中心のシフト方向である第1の側とは反対方向の第2の側にシフトしており、
前記第3の光電変換部の受光領域の中心は、画素の中心に対して列方向の第3の側にシフトしており、
前記第4の光電変換部の受光領域の中心は、画素の中心に対して、前記第3の光電変換部の受光領域の中心のシフト方向である第3の側とは反対方向の第4の側にシフトしている
ことを特徴とする請求項1から3のいずれか1項に記載の撮像装置。
Each pixel in the first focus detection pixel group includes a first photoelectric conversion unit,
Each pixel in the second focus detection pixel group includes a second photoelectric conversion unit,
Each pixel in the third focus detection pixel group includes a third photoelectric conversion unit,
Each pixel in the fourth focus detection pixel group includes a fourth photoelectric conversion unit,
The center of the light receiving region of the first photoelectric conversion unit is shifted to the first side in the row direction with respect to the center of the pixel,
The center of the light receiving region of the second photoelectric conversion unit is a second direction opposite to the first side which is the shift direction of the center of the light receiving region of the first photoelectric conversion unit with respect to the center of the pixel. Shifted to the side,
The center of the light receiving region of the third photoelectric conversion unit is shifted to the third side in the column direction with respect to the center of the pixel,
The center of the light receiving region of the fourth photoelectric conversion unit is a fourth direction opposite to the third side which is the shift direction of the center of the light receiving region of the third photoelectric conversion unit with respect to the center of the pixel. The imaging apparatus according to claim 1, wherein the imaging apparatus is shifted to the side.
前記撮影レンズは、移動可能な光学素子を含み、
前記撮像装置は、前記移動可能な光学素子を駆動する駆動手段をさらに備え、
前記動き検出手段は、前記駆動手段が前記移動可能な光学素子を駆動していることを検出することにより、前記画素配列に形成された前記被写体の像の動きを検出する
ことを特徴とする請求項1から4のいずれか1項に記載の撮像装置。
The photographing lens includes a movable optical element,
The imaging apparatus further includes a driving unit that drives the movable optical element,
The motion detection unit detects a motion of an image of the subject formed in the pixel array by detecting that the driving unit is driving the movable optical element. Item 5. The imaging device according to any one of Items 1 to 4.
前記動き検出手段は、前記撮像装置の振れを検出することにより、前記画素配列に形成された前記被写体の像の動きを検出する
ことを特徴とする請求項1から4のいずれか1項に記載の撮像装置。
5. The motion detection unit according to claim 1, wherein the motion detection unit detects a motion of the image of the subject formed in the pixel array by detecting a shake of the imaging device. 6. Imaging device.
前記動き検出手段は、複数のフレーム期間における前記読み出し手段により前記画素配列から読み出された複数フレームの画像信号を比較して前記被写体の動きを検出することにより、前記画素配列に形成された前記被写体の像の動きを検出する
ことを特徴とする請求項1から4のいずれか1項に記載の撮像装置。
The motion detection unit compares the image signals of a plurality of frames read from the pixel array by the reading unit in a plurality of frame periods and detects the movement of the subject, thereby forming the pixel array The imaging apparatus according to claim 1, wherein the movement of an image of a subject is detected.
前記動き検出手段により前記被写体の像の動きが検出されなかった場合、前記焦点調節手段は、前記第1の焦点検出手段の検出結果と前記第2の焦点検出手段の検出結果とをそれぞれ同じ重みで用いることにより焦点調節を行うことを特徴とする請求項1から7のいずれか1項に記載の撮像装置。   When the movement of the subject image is not detected by the motion detection unit, the focus adjustment unit assigns the same weight to the detection result of the first focus detection unit and the detection result of the second focus detection unit. The imaging apparatus according to claim 1, wherein focus adjustment is performed by using the imaging apparatus.
JP2009122560A 2009-05-20 2009-05-20 Imaging device Active JP5414358B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009122560A JP5414358B2 (en) 2009-05-20 2009-05-20 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009122560A JP5414358B2 (en) 2009-05-20 2009-05-20 Imaging device

Publications (3)

Publication Number Publication Date
JP2010271499A JP2010271499A (en) 2010-12-02
JP2010271499A5 JP2010271499A5 (en) 2012-06-21
JP5414358B2 true JP5414358B2 (en) 2014-02-12

Family

ID=43419568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009122560A Active JP5414358B2 (en) 2009-05-20 2009-05-20 Imaging device

Country Status (1)

Country Link
JP (1) JP5414358B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5491677B2 (en) * 2011-03-31 2014-05-14 富士フイルム株式会社 Imaging apparatus and focus control method thereof
JP6141065B2 (en) * 2013-03-21 2017-06-07 キヤノン株式会社 Solid-state imaging device and imaging system
JP6087681B2 (en) * 2013-03-21 2017-03-01 キヤノン株式会社 Solid-state imaging device and imaging system
CN105960604B (en) * 2014-02-07 2018-07-31 富士胶片株式会社 Photographic device and focusing control method
WO2016111175A1 (en) * 2015-01-07 2016-07-14 ソニー株式会社 Image processing device, image processing method, and program
EP3139588B1 (en) 2015-09-07 2017-06-21 Axis AB Method and device for setting a focus of a camera
JP2018107460A (en) * 2018-02-02 2018-07-05 キヤノン株式会社 Imaging element and imaging device
CN112514370B (en) * 2018-07-27 2023-07-28 富士胶片株式会社 Image processing device, image capturing device, image processing method, and recording medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03293367A (en) * 1990-04-11 1991-12-25 Canon Inc Camera provided with detection device for line of sight
JPH11271598A (en) * 1998-03-18 1999-10-08 Canon Inc Optical device
JP2001330882A (en) * 2000-05-24 2001-11-30 Canon Inc Camera with subject recognizing function
JP2005106994A (en) * 2003-09-29 2005-04-21 Canon Inc Focal point detecting device, imaging device, and method for controlling them
JP2007248672A (en) * 2006-03-15 2007-09-27 Seiko Epson Corp Photographic device, control method and control program
JP5012236B2 (en) * 2007-06-12 2012-08-29 株式会社ニコン Digital camera
JP5167783B2 (en) * 2007-11-22 2013-03-21 株式会社ニコン Focus detection apparatus and imaging apparatus

Also Published As

Publication number Publication date
JP2010271499A (en) 2010-12-02

Similar Documents

Publication Publication Date Title
JP5092685B2 (en) Imaging device and imaging apparatus
JP6127869B2 (en) Solid-state imaging device, driving method thereof, and electronic apparatus
JP5414358B2 (en) Imaging device
JP5157436B2 (en) Solid-state imaging device and imaging apparatus
US8525917B2 (en) Image sensing apparatus with plural focus detection pixel groups
US8063978B2 (en) Image pickup device, focus detection device, image pickup apparatus, method for manufacturing image pickup device, method for manufacturing focus detection device, and method for manufacturing image pickup apparatus
JP5256711B2 (en) Imaging device and imaging apparatus
JP5693082B2 (en) Imaging device
JP5895355B2 (en) Imaging device
JP5453173B2 (en) Imaging device, solid-state imaging device having phase difference detection pixel, and driving control method of imaging device
JP5817154B2 (en) Imaging device
JP2017195330A (en) Imager, imaging system, and manufacturing method for imager
JP5249136B2 (en) Imaging device
JP5167783B2 (en) Focus detection apparatus and imaging apparatus
JP2008085738A (en) Imaging apparatus
JP2009158800A (en) Solid-state imaging element, and imaging device using it
US9357121B2 (en) Image capturing apparatus and control method thereof
JP5211590B2 (en) Image sensor and focus detection apparatus
JP5750918B2 (en) Solid-state imaging device and imaging apparatus using the same
JP2014165778A (en) Solid state image sensor, imaging device and focus detector
JP5341479B2 (en) Imaging device
JP2004191630A (en) Imaging apparatus
JP6365568B2 (en) Imaging device and imaging apparatus
JP5403117B2 (en) Focus detection apparatus and imaging apparatus
JP6254780B2 (en) Focus detection apparatus and method, and imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120509

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131112

R151 Written notification of patent or utility model registration

Ref document number: 5414358

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151