JP7027133B2 - Focus detection device and focus detection method - Google Patents

Focus detection device and focus detection method Download PDF

Info

Publication number
JP7027133B2
JP7027133B2 JP2017224790A JP2017224790A JP7027133B2 JP 7027133 B2 JP7027133 B2 JP 7027133B2 JP 2017224790 A JP2017224790 A JP 2017224790A JP 2017224790 A JP2017224790 A JP 2017224790A JP 7027133 B2 JP7027133 B2 JP 7027133B2
Authority
JP
Japan
Prior art keywords
pixel
pixel signal
focus detection
pupil division
division direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017224790A
Other languages
Japanese (ja)
Other versions
JP2019095593A (en
Inventor
哲央 菊地
陵 畠山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2017224790A priority Critical patent/JP7027133B2/en
Priority to US16/157,023 priority patent/US10582112B2/en
Publication of JP2019095593A publication Critical patent/JP2019095593A/en
Application granted granted Critical
Publication of JP7027133B2 publication Critical patent/JP7027133B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、焦点検出装置及び焦点検出方法に関する。 The present invention relates to a focus detection device and a focus detection method.

従来、撮像素子で生成された画素信号を利用して位相差方式の焦点検出を行う焦点検出装置が知られている。この種の焦点検出装置の中で、ライブビュー表示中にも焦点検出を行うことができるようにする焦点検出装置も知られている。例えば、特許文献1において提案されている撮像装置は、撮像素子上で位相差方式の焦点検出を行うために必要な行の露光時間をその他の行の露光時間と変えることで、画像の生成のために必要な画素信号と位相差方式の焦点検出を行うために必要な画素信号とを生成している。 Conventionally, a focus detection device that performs phase difference type focus detection using a pixel signal generated by an image sensor is known. Among this type of focus detection device, a focus detection device that enables focus detection even during live view display is also known. For example, the image pickup apparatus proposed in Patent Document 1 generates an image by changing the exposure time of a row required for performing a phase difference type focus detection on an image pickup element to the exposure time of another row. The pixel signal required for this purpose and the pixel signal required for performing the focus detection of the phase difference method are generated.

特開2015-161906号公報Japanese Patent Application Laid-Open No. 2015-161906

特許文献1の撮像装置は、撮像素子の行毎に露光時間を変えるものであり、基本的には、水平方向の位相差の検出を前提とした構成である。したがって、特許文献1の撮像装置の手法をそのまま用いても垂直方向の位相差の検出については時間がかかり易い。このため、焦点検出性能の確保のために水平方向と垂直方向の両方で位相差を検出しようとすると、連写中等ではライブビュー表示のための十分な時間を確保できなくなる可能性が生じる。 The image pickup apparatus of Patent Document 1 changes the exposure time for each row of the image pickup element, and is basically configured on the premise of detecting the phase difference in the horizontal direction. Therefore, even if the method of the image pickup apparatus of Patent Document 1 is used as it is, it tends to take time to detect the phase difference in the vertical direction. Therefore, if an attempt is made to detect the phase difference in both the horizontal direction and the vertical direction in order to secure the focus detection performance, there is a possibility that sufficient time for the live view display cannot be secured during continuous shooting or the like.

本発明は、前記の事情に鑑みてなされたものであり、位相差方式の焦点検出性能を確保しながら、ライブビュー表示のための時間も確保することができる焦点検出装置及び焦点検出方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides a focus detection device and a focus detection method capable of securing time for live view display while ensuring focus detection performance of a phase difference method. The purpose is to do.

前記の目的を達成するために、本発明の第1の態様の焦点検出装置は、1個のマイクロレンズに対して撮像光学系の異なる射出瞳領域を通過するそれぞれの光束を光電変換して画素信号を生成するように第1の瞳分割方向及び前記第1の瞳分割方向と異なる第2の瞳分割方向に分割された複数の受光部が配置されている画素部を有し、前記第1の瞳分割方向或いは第2の瞳分割方向に対応する焦点検出画素信号、瞳分割に対応しない表示のための表示画素信号、又は記録のための静止画画素信号を出力する撮像部と、前記表示画素信号又は前記焦点検出画素信号を加算した画素信号に基づいて画像を表示するための処理及び前記静止画画素信号に基づいて静止画を記録媒体に記録するための処理をする画像処理回路と、前記焦点検出画素信号に基づいて焦点検出のための処理をする焦点検出回路と、前記静止画画素信号に基づく静止画を前記記録媒体に記録する動作である静止画撮影を実行するとともに、前記静止画撮影の間にそれぞれが前記焦点検出画素信号又は前記表示画素信号の生成と読み出しとを含む第1の動作と第2の動作とを交互に行うように前記撮像部を制御する制御回路と、被写体輝度を測定する測光部とを具備し、前記制御回路は、前記被写体輝度に関わらず前記第1の動作においては複数の前記画素部にて生成される前記画素信号が、前記画素部内で前記第2の瞳分割方向に加算された後で、前記複数の画素部の間で前記第1の瞳分割方向について加算されずに、前記第2の瞳分割方向について加算されて又は間引かれて前記焦点検出画素信号が生成されるように前記撮像部を制御し、前記被写体輝度が高い場合の前記第2の動作において、前記表示画素信号が生成され、前記被写体輝度が低い場合の前記第2の動作において、複数の前記画素部にて生成される前記画素信号が、前記画素部内で前記第1の瞳分割方向に加算された後で、前記複数の画素部の間で前記第の瞳分割方向について加算された前記焦点検出画素信号が生成されるように前記撮像部を制御し、前記画像処理回路は、前記被写体輝度が高い場合に、前記表示画素信号に基づいて画像を表示するための処理をし、前記被写体輝度が低い場合に、前記複数の画素部の間で前記第1の瞳分割方向に加算され生成された前記焦点検出画素信号であって、前記複数の画素部にて前記第2の瞳分割方向にて対を成す前記焦点検出画素信号を加算した画素信号に基づいて画像を表示するための処理をする。
前記の目的を達成するために、本発明の第2の態様の焦点検出装置は、1個のマイクロレンズに対して撮像光学系の異なる射出瞳領域を通過するそれぞれの光束を光電変換して画素信号を生成するように第1の瞳分割方向及び前記第1の瞳分割方向と異なる第2の瞳分割方向に分割された複数の受光部が配置されている画素部を有し、前記第1の瞳分割方向或いは第2の瞳分割方向に対応する焦点検出画素信号、瞳分割に対応しない表示のための表示画素信号、又は記録のための静止画画素信号を出力する撮像部と、前記表示画素信号又は前記焦点検出画素信号を加算した画素信号に基づいて画像を表示するための処理及び前記静止画画素信号に基づいて静止画を記録媒体に記録するための処理をする画像処理回路と、前記焦点検出画素信号に基づいて焦点検出のための処理をする焦点検出回路と、前記静止画画素信号に基づく静止画を前記記録媒体に記録する動作である静止画撮影を実行するとともに、前記静止画撮影の間にそれぞれが前記焦点検出画素信号又は前記表示画素信号の生成と読み出しとを含む第1の動作と第2の動作とを交互に行うように前記撮像部を制御する制御回路とを具備し、前記制御回路は、前記静止画撮影を連続的に実行する際の静止画撮影の間隔に相当する連写速度に関わらず前記第1の動作においては複数の前記画素部にて生成される前記画素信号が、前記画素部内で前記第2の瞳分割方向に加算された後で、前記複数の画素部の間で前記第1の瞳分割方向について加算されずに、前記第2の瞳分割方向について加算されて又は間引かれて前記焦点検出画素信号が生成されるように前記撮像部を制御し、前記連写速度が所定値を越える場合の前記第2の動作においては前記表示画素信号が生成されるように前記撮像部を制御し、前記連写速度が前記所定値以下の場合の前記第2の動作においては、複数の前記画素部にて生成される前記画素信号が、前記画素部内で前記第1の瞳分割方向に加算された後で、前記複数の画素部の間で前記第1の瞳分割方向について加算された前記焦点検出画素信号が生成されるように前記撮像部を制御し、前記画像処理回路は、前記連写速度が所定値を越える場合に、前記表示画素信号に基づいて画像を表示するための処理をし、前記連写速度が前記所定値以下の場合に、前記複数の画素部の間で前記第1の瞳分割方向に加算された前記焦点検出画素信号であって、前記複数の画素部にて前記第2の瞳分割方向にて対を成す前記焦点検出画素信号を加算した画素信号に基づいて画像を表示するための処理をする。
In order to achieve the above object, the focus detection device of the first aspect of the present invention photoelectrically converts each light beam passing through different emission pupil regions of an image pickup optical system for one microlens to obtain a pixel. It has a pixel portion in which a plurality of light receiving portions divided in a first pupil division direction and a second pupil division direction different from the first pupil division direction so as to generate a signal are arranged, and the first pupil division direction is described. An image pickup unit that outputs a focus detection pixel signal corresponding to the pupil division direction or the second pupil division direction, a display pixel signal for display not corresponding to pupil division, or a still image pixel signal for recording, and the above . An image to be processed for displaying an image based on a display pixel signal or a pixel signal to which the focus detection pixel signal is added, and a process for recording a still image on a recording medium based on the still image pixel signal. A processing circuit, a focus detection circuit that performs processing for focus detection based on the focus detection pixel signal, and still image shooting, which is an operation of recording a still image based on the still image pixel signal on the recording medium. While executing the image pickup unit, the image pickup unit is subjected to the first operation including the generation and reading of the focus detection pixel signal or the display pixel signal , and the second operation alternately during the still image shooting. The control circuit includes a control circuit for controlling and a light measuring unit for measuring the subject brightness, and the control circuit comprises the pixel signals generated by the plurality of pixel portions in the first operation regardless of the subject brightness. After being added in the second pupil division direction in the pixel portion, the addition is performed in the second pupil division direction without being added in the first pupil division direction among the plurality of pixel portions. The image pickup unit is controlled so that the focus detection pixel signal is generated by being thinned out or thinned out, and in the second operation when the subject brightness is high , the display pixel signal is generated and the subject brightness is increased. In the second operation when the value is low, the pixel signals generated by the plurality of pixel portions are added in the first pupil division direction in the pixel portion, and then between the plurality of pixel portions. The image pickup unit is controlled so that the focus detection pixel signal added in the first pupil division direction is generated , and the image processing circuit converts the display pixel signal into the display pixel signal when the subject brightness is high. It is the focus detection pixel signal generated by performing a process for displaying an image based on the above and adding the image in the first pupil division direction among the plurality of pixel portions when the subject brightness is low. The focus detection pixel signal paired in the second pupil division direction is added to the plurality of pixel portions. Performs processing for displaying an image based on the calculated pixel signal .
In order to achieve the above object, the focus detection device of the second aspect of the present invention photoelectrically converts each light beam passing through different emission pupil regions of an image pickup optical system into a pixel for one microlens. It has a pixel portion in which a plurality of light receiving portions divided in a first pupil division direction and a second pupil division direction different from the first pupil division direction so as to generate a signal are arranged, and the first pupil division direction is described. An image pickup unit that outputs a focus detection pixel signal corresponding to the pupil division direction or the second pupil division direction, a display pixel signal for display not corresponding to pupil division, or a still image pixel signal for recording, and the display. An image processing circuit that performs processing for displaying an image based on a pixel signal or a pixel signal to which the focus detection pixel signal is added, and processing for recording a still image on a recording medium based on the still image pixel signal. A focus detection circuit that performs processing for focus detection based on the focus detection pixel signal, and still image shooting, which is an operation of recording a still image based on the still image pixel signal on the recording medium, are executed, and the still image is taken. A control circuit that controls the image pickup unit so that the first operation and the second operation including the generation and reading of the focus detection pixel signal or the display pixel signal are alternately performed during image capture. The control circuit is generated by the plurality of pixel portions in the first operation regardless of the continuous shooting speed corresponding to the interval of still image shooting when the still image shooting is continuously executed. After the pixel signal is added in the second pupil division direction in the pixel portion, the second pupil is not added in the first pupil division direction among the plurality of pixel portions. The image pickup unit is controlled so that the focus detection pixel signal is generated by being added or thinned in the division direction, and the display pixel is used in the second operation when the continuous shooting speed exceeds a predetermined value. In the second operation in which the image pickup unit is controlled so that a signal is generated and the continuous shooting speed is equal to or less than the predetermined value, the pixel signal generated by the plurality of pixel units is the pixel signal. The image pickup unit so as to generate the focus detection pixel signal added in the first pupil division direction among the plurality of pixel units after being added in the first pupil division direction in the pixel unit. The image processing circuit performs processing for displaying an image based on the display pixel signal when the continuous shooting speed exceeds a predetermined value, and when the continuous shooting speed is equal to or less than the predetermined value. In addition, the focus detection pixel signal added in the first pupil division direction among the plurality of pixel portions. Therefore, processing is performed to display an image based on the pixel signal obtained by adding the focus detection pixel signals paired in the second pupil division direction in the plurality of pixel portions.

前記の目的を達成するために、本発明の第の態様の焦点検出方法は、1個のマイクロレンズに対して撮像光学系の異なる射出瞳領域を通過するそれぞれの光束を光電変換して画素信号を生成するように第1の瞳分割方向及び前記第1の瞳分割方向と異なる第2の瞳分割方向に分割された複数の受光部が配置されている画素部を有し、前記第1の瞳分割方向或いは第2の瞳分割方向に対応する焦点検出画素信号、瞳分割に対応しない表示のための表示画素信号、又は記録のための静止画画素信号を出力する撮像部を用いた焦点検出方法であって、被写体輝度を測定することと、前記被写体輝度に基づいて、記表示画素信号又は前記焦点検出画素信号を加算した画素信号に基づいて画像を表示するための処理をすることと、前記静止画画素信号に基づいて静止画を記録媒体に記録するための処理をすることと、前記焦点検出画素信号に基づいて焦点検出のための処理をすることと、前記静止画画素信号に基づく静止画を前記記録媒体に記録する動作である静止画撮影を実行するとともに、前記静止画撮影の間にそれぞれが前記焦点検出画素信号又は前記表示画素信号の生成と読み出しとを含む第1の動作と第2の動作とを交互に行うように前記撮像部を制御することとを具備し、前記撮像部を制御することは、前記被写体輝度に関わらず前記第1の動作においては複数の前記画素部にて生成される前記画素信号が、前記画素部内で前記第2の瞳分割方向に加算された後で、前記複数の画素部の間で前記第1の瞳分割方向について加算されずに、前記第2の瞳分割方向について加算されて又は間引かれて前記焦点検出画素信号が生成されるように前記撮像部を制御し、前記被写体輝度が高い場合の前記第2の動作において、前記表示画素信号が生成され、前記被写体輝度が低い場合の前記第2の動作において、複数の前記画素部にて生成される前記画素信号が、前記画素部内で前記第1の瞳分割方向に加算された後で、前記複数の画素部の間で前記第の瞳分割方向について加算された前記焦点検出画素信号が生成されるように前記撮像部を制御することを含み、前記画像を表示するための処理をすることは、前記被写体輝度が高い場合に、前記表示画素信号に基づいて画像を表示するための処理をし、前記被写体輝度が低い場合に、前記複数の画素部の間で前記第1の瞳分割方向に加算され生成された前記焦点検出画素信号であって、前記複数の画素部にて前記第2の瞳分割方向にて対を成す前記焦点検出画素信号を加算した画素信号に基づいて画像を表示するための処理をすることを含むIn order to achieve the above object, the focus detection method according to the third aspect of the present invention is a pixel by photoelectrically converting each light beam passing through different emission pupil regions of an image pickup optical system for one microlens. It has a pixel portion in which a plurality of light receiving portions divided in a first pupil division direction and a second pupil division direction different from the first pupil division direction so as to generate a signal are arranged, and the first pupil division direction is described. Focus using an image pickup unit that outputs a focus detection pixel signal corresponding to the pupil division direction or the second pupil division direction, a display pixel signal for display not corresponding to pupil division, or a still image pixel signal for recording. It is a detection method that measures the subject brightness and performs processing for displaying an image based on the display pixel signal or the pixel signal to which the focus detection pixel signal is added based on the subject brightness. That, processing for recording a still image on a recording medium based on the still image pixel signal, processing for focus detection based on the focus detection pixel signal, and processing for performing focus detection. While performing still image shooting, which is an operation of recording a still image based on the still image pixel signal on the recording medium, each of them generates and reads out the focus detection pixel signal or the display pixel signal during the still image shooting. The image pickup unit is controlled so as to alternately perform the first operation and the second operation including the above, and controlling the image pickup unit is the first operation regardless of the subject brightness . In the operation, after the pixel signal generated by the plurality of pixel portions is added in the second pupil division direction in the pixel portion, the first pupil division is performed among the plurality of pixel portions. The image pickup unit is controlled so that the focus detection pixel signal is generated by being added or thinned out in the second pupil division direction without being added in the direction, and the first image is obtained when the subject brightness is high . In the second operation, when the display pixel signal is generated in the second operation and the subject brightness is low, the pixel signal generated by the plurality of the pixel portions is the first in the pixel portion. This includes controlling the image pickup unit so that the focus detection pixel signal added for the first pupil division direction is generated among the plurality of pixel units after the addition in the pupil division direction. The process for displaying the image is the process for displaying the image based on the display pixel signal when the subject brightness is high, and the plurality of processes for displaying the image when the subject brightness is low. The focus detection pixel signal generated by being added in the first pupil division direction between the pixel portions. This includes processing for displaying an image based on a pixel signal obtained by adding the focus detection pixel signals paired in the second pupil division direction at the plurality of pixel portions .

本発明によれば、位相差方式の焦点検出性能を確保しながら、ライブビュー表示のための時間も確保することができる焦点検出装置及び焦点検出方法を提供することができる。 According to the present invention, it is possible to provide a focus detection device and a focus detection method that can secure time for live view display while ensuring the focus detection performance of the phase difference method.

図1は、本発明の一実施形態に係る焦点検出装置を含む撮像装置の構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of a configuration of an image pickup device including a focus detection device according to an embodiment of the present invention. 図2は、一例の撮像素子208の構成を示す図である。FIG. 2 is a diagram showing the configuration of an example image sensor 208. 図3は、画素部の詳細な構成を示す図である。FIG. 3 is a diagram showing a detailed configuration of the pixel portion. 図4Aは、画素を左右開口画素として取り扱うときの画素信号の加算について示した図である。FIG. 4A is a diagram showing the addition of pixel signals when the pixels are treated as left and right aperture pixels. 図4Bは、画素を上下開口画素として取り扱うときの画素信号の加算について示した図である。FIG. 4B is a diagram showing the addition of pixel signals when the pixels are treated as upper and lower aperture pixels. 図5Aは、本発明の一実施形態に係る撮像装置の動作について示すフローチャートである。FIG. 5A is a flowchart showing the operation of the image pickup apparatus according to the embodiment of the present invention. 図5Bは、本発明の一実施形態に係る撮像装置の動作について示すフローチャートである。FIG. 5B is a flowchart showing the operation of the image pickup apparatus according to the embodiment of the present invention. 図6は、AF及びLV表示のための撮像と読み出し処理を示すフローチャートである。FIG. 6 is a flowchart showing imaging and readout processing for AF and LV display. 図7は、高速動作について説明するためのタイミングチャートである。FIG. 7 is a timing chart for explaining high-speed operation. 図8は、高速動作における第1の動作の画素加算の設定の例を示す図である。FIG. 8 is a diagram showing an example of setting the pixel addition of the first operation in the high-speed operation. 図9は、高速動作における第1の動作によってDRAMに記憶される画素データを示した図である。FIG. 9 is a diagram showing pixel data stored in the DRAM by the first operation in the high-speed operation. 図10は、高速動作における第2の動作の画素加算の設定の例を示す図である。FIG. 10 is a diagram showing an example of setting the pixel addition of the second operation in the high-speed operation. 図11は、高速動作における第2の動作によってDRAMに記憶される画素データを示した図である。FIG. 11 is a diagram showing pixel data stored in the DRAM by the second operation in the high-speed operation. 図12は、低輝度動作について説明するためのタイミングチャートである。FIG. 12 is a timing chart for explaining the low-luminance operation. 図13は、低輝度動作における第1の動作の画素加算の設定の例を示す図である。FIG. 13 is a diagram showing an example of setting the pixel addition of the first operation in the low luminance operation. 図14は、低輝度動作における第1の動作によってDRAMに記憶される画素データを示した図である。FIG. 14 is a diagram showing pixel data stored in the DRAM by the first operation in the low-luminance operation. 図15は、低輝度動作における第2の動作の画素加算の設定の例を示す図である。FIG. 15 is a diagram showing an example of setting the pixel addition of the second operation in the low luminance operation. 図16は、低輝度動作における第2の動作によってDRAMに記憶される画素データを示した図である。FIG. 16 is a diagram showing pixel data stored in the DRAM by the second operation in the low luminance operation.

以下、図面を参照して本発明の実施形態について説明する。図1は、本発明の一実施形態に係る焦点検出装置を含む撮像装置の構成の一例を示すブロック図である。なお、図1中において、矢印付き実線はデータの流れを、矢印付き破線は制御信号の流れをそれぞれ示している。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an example of a configuration of an image pickup device including a focus detection device according to an embodiment of the present invention. In FIG. 1, the solid line with an arrow indicates the flow of data, and the broken line with an arrow indicates the flow of a control signal.

図1に示すように、撮像装置1は、交換式レンズ100と、カメラ本体200とを有する。交換式レンズ100は、カメラ本体200に着脱できるように構成されている。交換式レンズ100とカメラ本体200とは、交換式レンズ100がカメラ本体200に装着されたときに、互いに通信できるように接続される。なお、撮像装置1は、必ずしもレンズ交換式の撮像装置でなくてもよい。例えば、撮像装置1は、レンズ一体型の撮像装置であってもよい。 As shown in FIG. 1, the image pickup apparatus 1 includes an interchangeable lens 100 and a camera body 200. The interchangeable lens 100 is configured to be attached to and detached from the camera body 200. The interchangeable lens 100 and the camera body 200 are connected so that they can communicate with each other when the interchangeable lens 100 is attached to the camera body 200. The image pickup device 1 does not necessarily have to be an interchangeable lens type image pickup device. For example, the image pickup device 1 may be a lens-integrated image pickup device.

交換式レンズ100は、撮像光学系102と、駆動部104と、レンズCPU106と、レンズ側記憶部108とを備える。ここで、交換式レンズ100の各ブロックは、例えばハードウェアによって構成されている。しかしながら、必ずしもハードウェアによって構成されている必要はなく、一部はソフトウェアによって構成されていてもよい。また、交換式レンズ100の各ブロックは、単一のハードウェア又はソフトウェアによって構成されていなくてもよく、複数のハードウェア又はソフトウェアによって構成されていてもよい。 The interchangeable lens 100 includes an image pickup optical system 102, a drive unit 104, a lens CPU 106, and a lens side storage unit 108. Here, each block of the interchangeable lens 100 is composed of, for example, hardware. However, it does not necessarily have to be configured by hardware, and a part may be configured by software. Further, each block of the interchangeable lens 100 does not have to be composed of a single hardware or software, and may be composed of a plurality of hardware or software.

撮像光学系102は、被写体からの光束をカメラ本体200の撮像素子208に結像させるための光学系である。撮像光学系102は、フォーカスレンズ1021と、絞り1022とを有する。フォーカスレンズ1021は、光軸方向に移動することによって、撮像光学系102の焦点位置を調節できるように構成されている。 The image pickup optical system 102 is an optical system for forming a luminous flux from a subject on the image pickup element 208 of the camera body 200. The image pickup optical system 102 has a focus lens 1021 and a diaphragm 1022. The focus lens 1021 is configured so that the focal position of the imaging optical system 102 can be adjusted by moving in the optical axis direction.

絞り1022は、フォーカスレンズ1021の光軸上に配置される。絞り1022の口径は可変である。絞り1022は、フォーカスレンズ1021を通過して撮像素子208に入射する被写体からの光束の量を調節する。駆動部104は、レンズCPU106から出力される制御信号に基づいて、フォーカスレンズ1021と絞り1022とを駆動する。ここで、撮像光学系102は、ズームレンズとして構成されていてもよい。この場合、駆動部104はズーム駆動も行う。 The aperture 1022 is arranged on the optical axis of the focus lens 1021. The aperture of the aperture 1022 is variable. The aperture 1022 adjusts the amount of light flux from the subject that passes through the focus lens 1021 and is incident on the image pickup device 208. The drive unit 104 drives the focus lens 1021 and the aperture 1022 based on the control signal output from the lens CPU 106. Here, the image pickup optical system 102 may be configured as a zoom lens. In this case, the drive unit 104 also performs zoom drive.

レンズCPU106は、インターフェイス(I/F)110を介してカメラ本体200のCPU212との間で通信できるように構成されている。レンズCPU106は、カメラ本体200のCPU212の制御に従って駆動部104を制御する。また、レンズCPU106は、I/F110を介して絞り1022の絞り値(F値)及びレンズ側記憶部108に記憶されているレンズ情報といった情報をCPU212に送信する。なお、レンズCPU106は、必ずしもCPUとして構成されていなくてもよい。すなわち、レンズCPU106と同様の機能は、ASIC、FPGA等によって実現されてもよい。また、レンズCPU106と同様の機能は、ソフトウェアによって実現されてもよい。 The lens CPU 106 is configured to be able to communicate with the CPU 212 of the camera body 200 via the interface (I / F) 110. The lens CPU 106 controls the drive unit 104 according to the control of the CPU 212 of the camera body 200. Further, the lens CPU 106 transmits information such as the aperture value (F value) of the aperture 1022 and the lens information stored in the lens side storage unit 108 to the CPU 212 via the I / F 110. The lens CPU 106 does not necessarily have to be configured as a CPU. That is, the same function as the lens CPU 106 may be realized by an ASIC, FPGA, or the like. Further, the same function as the lens CPU 106 may be realized by software.

レンズ側記憶部108は、交換式レンズ100に関するレンズ情報を記憶している。レンズ情報は、例えば撮像光学系102の焦点距離の情報や収差の情報を含む。 The lens-side storage unit 108 stores lens information regarding the interchangeable lens 100. The lens information includes, for example, information on the focal length of the imaging optical system 102 and information on aberrations.

カメラ本体200は、メカシャッター202と、駆動部204と、操作部206と、撮像素子208と、手振れ補正回路210と、CPU212と、画像処理回路214と、画像圧縮展開部216と、焦点検出回路218と、露出制御回路220と、表示部222と、バス224と、DRAM226と、本体側記憶部228と、記録媒体230とを有する。ここで、カメラ本体200の各ブロックは、例えばハードウェアによって構成されている。しかしながら、必ずしもハードウェアによって構成されている必要はなく、一部はソフトウェアによって構成されていてもよい。また、カメラ本体200の各ブロックは、単一のハードウェア又はソフトウェアによって構成されていなくてもよく、複数のハードウェア又はソフトウェアによって構成されていてもよい。 The camera body 200 includes a mechanical shutter 202, a drive unit 204, an operation unit 206, an image sensor 208, an image stabilization circuit 210, a CPU 212, an image processing circuit 214, an image compression expansion unit 216, and a focus detection circuit. It has a 218, an exposure control circuit 220, a display unit 222, a bus 224, a DRAM 226, a main body side storage unit 228, and a recording medium 230. Here, each block of the camera body 200 is composed of, for example, hardware. However, it does not necessarily have to be configured by hardware, and a part may be configured by software. Further, each block of the camera body 200 may not be composed of a single hardware or software, or may be composed of a plurality of hardware or software.

メカシャッター202は、開閉自在に構成され、撮像素子208への被写体からの光束の入射時間(撮像素子208の露光時間)を調節する。メカシャッター202としては、例えばフォーカルプレーンシャッターが採用される。駆動部204は、CPU212からの制御信号に基づいてメカシャッター202を駆動する。 The mechanical shutter 202 is configured to be openable and closable, and adjusts the incident time of the light flux from the subject on the image pickup element 208 (exposure time of the image pickup element 208). As the mechanical shutter 202, for example, a focal plane shutter is adopted. The drive unit 204 drives the mechanical shutter 202 based on the control signal from the CPU 212.

操作部206は、電源ボタン、レリーズボタン、動画ボタン、再生ボタン、メニューボタンといった各種の操作ボタン及びタッチパネル等の各種の操作部材を含む。この操作部206は、各種の操作部材の操作状態を検知し、検知結果を示す信号をCPU212に出力する。 The operation unit 206 includes various operation buttons such as a power button, a release button, a moving image button, a play button, and a menu button, and various operation members such as a touch panel. The operation unit 206 detects the operation state of various operation members and outputs a signal indicating the detection result to the CPU 212.

撮像素子208は、撮像光学系102の光軸上であって、メカシャッター202の後方で、かつ、撮像光学系102によって被写体からの光束が結像される位置に配置されている。撮像素子208は、被写体を撮像して被写体に係る画素信号を生成する。撮像素子208については後で詳しく説明する。 The image pickup element 208 is arranged on the optical axis of the image pickup optical system 102, behind the mechanical shutter 202, and at a position where a light flux from the subject is imaged by the image pickup optical system 102. The image pickup device 208 takes an image of the subject and generates a pixel signal related to the subject. The image sensor 208 will be described in detail later.

手振れ補正回路210は、カメラ本体200に発生した手振れが抑制されるように、撮像素子208をその受光面と平行な方向に移動させる。手振れに従って撮像素子208が移動されることにより、手振れに起因して画像データに発生する被写体像のぶれが抑制される。なお、手振れ補正回路は、交換式レンズ100に設けられていてもよい。この場合の手振れ補正回路は、撮像光学系102に含まれる手振れ補正光学系を移動させるように構成される。 The image stabilization circuit 210 moves the image sensor 208 in a direction parallel to the light receiving surface thereof so that the image stabilization generated in the camera body 200 is suppressed. By moving the image sensor 208 according to the camera shake, the blurring of the subject image generated in the image data due to the camera shake is suppressed. The image stabilization circuit may be provided in the interchangeable lens 100. The image stabilization circuit in this case is configured to move the image stabilization optical system included in the image pickup optical system 102.

CPU212は、本体側記憶部228に記憶されているプログラムに従ってカメラ本体200の全体制御を行う。CPU212は、例えば撮像素子208による撮像を制御する。また、CPU212は、焦点検出回路218によって検出されたフォーカスレンズ1021の焦点状態に応じて、フォーカスレンズ1021を駆動するための制御信号をレンズCPU106に対して出力する。また、CPU212は、露出制御回路220によって算出された露出設定値をレンズCPU106及び撮像素子208に対して出力する。ここで、CPU212は、必ずしもCPUとして構成されていなくてもよい。すなわち、CPU212と同様の機能は、ASIC、FPGA等によって実現されてもよい。また、CPU212と同様の機能は、ソフトウェアによって実現されてもよい。 The CPU 212 controls the entire camera body 200 according to a program stored in the body side storage unit 228. The CPU 212 controls, for example, image pickup by the image pickup device 208. Further, the CPU 212 outputs a control signal for driving the focus lens 1021 to the lens CPU 106 according to the focus state of the focus lens 1021 detected by the focus detection circuit 218. Further, the CPU 212 outputs the exposure set value calculated by the exposure control circuit 220 to the lens CPU 106 and the image pickup device 208. Here, the CPU 212 does not necessarily have to be configured as a CPU. That is, the same function as the CPU 212 may be realized by an ASIC, FPGA, or the like. Further, the same function as the CPU 212 may be realized by software.

画像処理回路214は、画素データに対して各種の画像処理を施す。例えば画像処理回路214は、静止画撮影の際には、静止画記録用の画像処理を施して静止画データを生成する。同様に、画像処理回路214は、動画撮影の際には、動画記録用の画像処理を施して動画データを生成する。さらに、画像処理回路214は、ライブビュー表示時には、表示用の画像処理を施して表示画像データを生成する。 The image processing circuit 214 performs various image processing on the pixel data. For example, when shooting a still image, the image processing circuit 214 performs image processing for recording a still image to generate still image data. Similarly, the image processing circuit 214 performs image processing for moving image recording to generate moving image data at the time of moving image shooting. Further, the image processing circuit 214 performs image processing for display at the time of live view display to generate display image data.

画像圧縮展開部216は、画像データの記録時には、画像処理回路214で生成された画像データ(静止画データ又は動画データ)を圧縮する。また、画像データの再生時には、記録媒体230に圧縮状態で記録された画像データを伸張する。 The image compression expansion unit 216 compresses the image data (still image data or moving image data) generated by the image processing circuit 214 at the time of recording the image data. Further, when the image data is reproduced, the image data recorded in the compressed state on the recording medium 230 is decompressed.

焦点検出回路218は、撮像素子208から出力される焦点検出画素データを用いた公知の位相差方式によってフォーカスレンズ1021の焦点検出を行う。 The focus detection circuit 218 detects the focus of the focus lens 1021 by a known phase difference method using the focus detection pixel data output from the image pickup element 208.

測光部としての露出制御回路220は、撮像素子208の画素データに基づいて露出設定値を算出する。この露出制御回路220は、撮像素子208の画素データから被写体輝度を測定し、測定した被写体輝度から撮影時の被写体の輝度を適正値にするために必要な露出設定値を算出する。露出設定値は、絞り1022の開口量(絞り値)、撮像素子208の露光時間(シャッタースピード)を含む。 The exposure control circuit 220 as a photometric unit calculates an exposure set value based on the pixel data of the image sensor 208. The exposure control circuit 220 measures the subject brightness from the pixel data of the image pickup element 208, and calculates the exposure setting value necessary for adjusting the brightness of the subject at the time of shooting to an appropriate value from the measured subject brightness. The exposure set value includes the aperture amount (aperture value) of the aperture 1022 and the exposure time (shutter speed) of the image sensor 208.

表示部222は、例えば液晶ディスプレイや有機ELディスプレイといった表示部であって、例えばカメラ本体200の背面に配置される。この表示部222は、CPU212の制御に従って画像を表示する。表示部222は、ライブビュー表示や記録済み画像の表示等に使用される。 The display unit 222 is a display unit such as a liquid crystal display or an organic EL display, and is arranged on the back surface of the camera body 200, for example. The display unit 222 displays an image under the control of the CPU 212. The display unit 222 is used for displaying a live view, displaying a recorded image, and the like.

バス224は、撮像素子208、CPU212、画像処理回路214、画像圧縮展開部216、焦点検出回路218、露出制御回路220、表示部222、DRAM226、本体側記憶部228、記録媒体230に接続され、これらのブロックで発生した各種のデータを転送するための転送路として動作する。 The bus 224 is connected to an image sensor 208, a CPU 212, an image processing circuit 214, an image compression expansion unit 216, a focus detection circuit 218, an exposure control circuit 220, a display unit 222, a DRAM 226, a main body side storage unit 228, and a recording medium 230. It operates as a transfer path for transferring various data generated in these blocks.

DRAM226は、電気的に書き換えできるメモリであり、撮像素子208から出力される画素データ、静止画データ、動画データ、表示画像データ、CPU212における処理データといった各種データを一時的に記憶する。なお、一時記憶用としてSDRAMが用いられてもよい。 The DRAM 226 is an electrically rewritable memory, and temporarily stores various data such as pixel data, still image data, moving image data, display image data, and processing data in the CPU 212 output from the image sensor 208. In addition, SDRAM may be used for temporary storage.

本体側記憶部228は、CPU212で使用されるプログラム、カメラ本体200の調整値等の各種データを記憶している。記録媒体230は、カメラ本体200に内蔵されるか又は装填されるように構成されており、記録用の画像データを所定の形式の画像ファイルとして記録する。なお、DRAM226、本体側記憶部228及び記録媒体230は、それぞれ1つのメモリ等で構成されてもよいし、複数のメモリ等が組み合わされて構成されてもよい。 The main body side storage unit 228 stores various data such as a program used by the CPU 212 and adjustment values of the camera main body 200. The recording medium 230 is configured to be built in or loaded in the camera body 200, and records image data for recording as an image file in a predetermined format. The DRAM 226, the main body side storage unit 228, and the recording medium 230 may each be configured with one memory or the like, or may be configured by combining a plurality of memories or the like.

次に、撮像素子208について説明する。図2は、一例の撮像素子208の構成を示す図である。図2に示すように、撮像素子208は、入力回路301と、制御回路302と、画素部303と、垂直走査回路304と、アナログ処理回路305と、アナログデジタル変換(ADC)処理回路306と、メモリ回路307と、水平走査回路308と、出力回路309とを有する。ここで、本実施形態における撮像部は、画素部303を有して構成されている。撮像部は、垂直走査回路304、アナログ処理回路305、ADC処理回路306、メモリ回路307をさらに有していてもよい。また、アナログ処理回路305及びADC処理回路306は、撮像素子208の外部に設けられていてもよい。 Next, the image pickup device 208 will be described. FIG. 2 is a diagram showing the configuration of an example image sensor 208. As shown in FIG. 2, the image pickup element 208 includes an input circuit 301, a control circuit 302, a pixel unit 303, a vertical scanning circuit 304, an analog processing circuit 305, an analog-to-digital conversion (ADC) processing circuit 306, and the like. It has a memory circuit 307, a horizontal scanning circuit 308, and an output circuit 309. Here, the imaging unit in the present embodiment is configured to have a pixel unit 303. The imaging unit may further include a vertical scanning circuit 304, an analog processing circuit 305, an ADC processing circuit 306, and a memory circuit 307. Further, the analog processing circuit 305 and the ADC processing circuit 306 may be provided outside the image pickup device 208.

入力回路301は、CPU212から撮像素子208の動作に係る制御信号を受け取って、制御回路302に入力する。この動作に係る制御信号は、同期信号(垂直同期信号及び水平同期信号)及び基準クロック並びに撮像素子208の動作設定の信号を含む。 The input circuit 301 receives a control signal related to the operation of the image pickup device 208 from the CPU 212 and inputs the control signal to the control circuit 302. The control signal related to this operation includes a synchronization signal (vertical synchronization signal and horizontal synchronization signal), a reference clock, and a signal for setting the operation of the image pickup device 208.

制御回路302は、例えばCPU又はASIC又はロジック回路(デジタル回路)によって構成され、入力回路301から入力された制御信号に基づいて撮像素子208の各部の動作を制御する。 The control circuit 302 is composed of, for example, a CPU, an ASIC, or a logic circuit (digital circuit), and controls the operation of each part of the image pickup element 208 based on the control signal input from the input circuit 301.

画素部303は、2次元状に複数配置され、入射光を光電変換して画素信号を生成する。図3は、画素部303の詳細な構成を示す図である。ここで、図3の左側は画素部303を正面から見た図を示し、図3の右側は画素部303を側面から見た図を示している。図3に示すように、画素部303は、マイクロレンズ303aと、カラーフィルタ303bと、画素303cとを有している。 A plurality of pixel units 303 are arranged two-dimensionally, and incident light is photoelectrically converted to generate a pixel signal. FIG. 3 is a diagram showing a detailed configuration of the pixel unit 303. Here, the left side of FIG. 3 shows a view of the pixel portion 303 as viewed from the front, and the right side of FIG. 3 shows a view of the pixel portion 303 as viewed from the side surface. As shown in FIG. 3, the pixel unit 303 has a microlens 303a, a color filter 303b, and a pixel 303c.

マイクロレンズ303aは、撮像光学系102を通過した光束を対応する画素303cの受光部に集光させる。後で説明するように、1個の画素303cは、水平2個×垂直2個に瞳分割された4個の受光部によって構成されている。マイクロレンズ303aは、撮像光学系102の異なる射出瞳領域を通過した光束を異なる受光部に集光させる。 The microlens 303a concentrates the light flux that has passed through the image pickup optical system 102 on the light receiving portion of the corresponding pixel 303c. As will be described later, one pixel 303c is composed of four light receiving portions whose pupils are divided into two horizontal and two vertical. The microlens 303a concentrates the light flux that has passed through the different exit pupil regions of the image pickup optical system 102 on different light receiving units.

カラーフィルタ303bは、例えば原色系のベイヤ配列のカラーフィルタである。原色系のベイヤ配列は、赤(R)フィルタ及び緑(Gr)フィルタを交互に配列した行と、青(B)フィルタ及び緑(Gb)フィルタを交互に配列した行とを列方向に交互に配置した配列である。図3に示すように、カラーフィルタ303bの1色は、1個の画素303cと対応している。したがって、画素303cを構成する4個の受光部には同じ色の光が入射する。なお、カラーフィルタ303bは、必ずしも原色系のベイヤ配列のカラーフィルタでなくてもよい。 The color filter 303b is, for example, a color filter having a Bayer array of primary colors. In the primary color system bayer arrangement, rows in which red (R) filters and green (Gr) filters are alternately arranged and rows in which blue (B) filters and green (Gb) filters are alternately arranged are alternately arranged in the column direction. It is an arranged array. As shown in FIG. 3, one color of the color filter 303b corresponds to one pixel 303c. Therefore, light of the same color is incident on the four light receiving portions constituting the pixel 303c. The color filter 303b does not necessarily have to be a color filter having a Bayer array of primary colors.

画素303cは、第1の瞳分割方向である水平方向と第2の瞳分割方向である垂直方向とのそれぞれに分割して配置された4個の受光部lt、rt、lb、rbによって構成されている。図では、「lt」、「rt」、「lb」、「rb」の表記は、カラーフィルタの色を表す「R」、「Gr」、「Gb」、「B」に添えて記されている。受光部lt、rt、lb、rbは、被写体の同一の部分から射出された光束を受光する。受光部lt、rt、lb、rbのそれぞれは例えばフォトダイオードによって構成され、受光した光束に応じて蓄積された電荷に基づく画素信号を出力する。ここで、受光部ltは、射出された光束のうち、撮像光学系102の右下の射出瞳領域を通過した光束を受光する。受光部rtは、射出された光束のうち、撮像光学系102の左下の射出瞳領域を通過した光束を受光する。受光部lbは、射出された光束のうち、撮像光学系102の右上の射出瞳領域を通過した光束を受光する。受光部rbは、射出された光束のうち、撮像光学系102の左上の射出瞳領域を通過した光束を受光する。 The pixel 303c is composed of four light receiving portions lt, rt, lb, and rb which are divided and arranged in the horizontal direction which is the first pupil division direction and the vertical direction which is the second pupil division direction. ing. In the figure, the notation of "lt", "rt", "lb", and "rb" is added to "R", "Gr", "Gb", and "B" indicating the color of the color filter. .. The light receiving units lt, rt, lb, and rb receive the light flux emitted from the same portion of the subject. Each of the light receiving units lt, rt, lb, and rb is composed of, for example, a photodiode, and outputs a pixel signal based on the accumulated charge according to the received light flux. Here, the light receiving unit lt receives the light flux that has passed through the exit pupil region at the lower right of the image pickup optical system 102 among the emitted light flux. The light receiving unit rt receives the light flux that has passed through the exit pupil region at the lower left of the image pickup optical system 102 among the emitted light flux. The light receiving unit lb receives the light beam that has passed through the exit pupil region on the upper right of the imaging optical system 102 among the emitted light flux. The light receiving unit rb receives the light flux that has passed through the exit pupil region on the upper left of the image pickup optical system 102 among the emitted light flux.

画素303cが4個の受光部lt、rt、lb、rbに分割されている構造により、画素303cを位相差検出のための左右開口画素と上下開口画素の何れとしても扱うことができる。左右開口画素とは、撮像光学系の左側の射出瞳領域を通過した光束を受光する画素と撮像光学系の右側の射出瞳領域を通過した光束を受光する画素との対である。上下開口画素とは、撮像光学系の上側の射出瞳領域を通過した光束を受光する画素と撮像光学系の下側の射出瞳領域を通過した光束を受光する画素との対である。画素303cを左右開口画素と上下開口画素の何れとして扱うかは、制御回路302からの制御信号によって切り替えられる。また、4個の受光部lt、rt、lb、rbを全て合わせた全開口画素としても扱うことが可能であり、制御回路302からの制御信号により設定することができる。この場合は、位相差情報が不要な静止画撮影用の画素として使用される。 Due to the structure in which the pixel 303c is divided into four light receiving portions lt, rt, lb, and rb, the pixel 303c can be treated as either a left-right aperture pixel or a top-bottom aperture pixel for phase difference detection. The left and right aperture pixels are a pair of a pixel that receives a light flux passing through the exit pupil region on the left side of the imaging optical system and a pixel that receives a light flux passing through the exit pupil region on the right side of the imaging optical system. The upper and lower aperture pixels are a pair of a pixel that receives a light flux that has passed through the upper exit pupil region of the imaging optical system and a pixel that receives a light flux that has passed through the lower exit pupil region of the imaging optical system. Whether the pixel 303c is treated as the left and right aperture pixels or the upper and lower aperture pixels is switched by the control signal from the control circuit 302. Further, it is possible to treat all four light receiving units lt, rt, lb, and rb as a total aperture pixel, and it can be set by a control signal from the control circuit 302. In this case, it is used as a pixel for still image shooting that does not require phase difference information.

画素303cが左右開口画素として取り扱われるときには、制御回路302は、図4Aの左側で示すようにして左半分の受光部である受光部lt(Rlt、Grlt、Gblt、Blt)の画素信号と受光部lb(Rlb、Grlb、Gblb、Blb)の画素信号とを加算(混合)して出力させるとともに、右半分の受光部である受光部rt(Rrt、Grrt、Gbrt、Brt)の画素信号と受光部rb(Rrb、Grrb、Gbrb、Brb)の画素信号とを加算して出力させる。これにより、図4Aの右側で示すようにして、撮像光学系の右側の射出瞳領域を通過した光束の情報を有する左開口画素信号l(Rl、Grl、Gbl、Bl)と撮像光学系の左側の射出瞳領域を通過した光束の情報を有する右開口画素信号r(Rr、Grr、Gbr、Br)とがそれぞれ出力される。 When the pixel 303c is treated as a left and right opening pixel, the control circuit 302 is a pixel signal and a light receiving part of a light receiving part lt (Rlt, Grlt, Gblt, Blt) which is a light receiving part of the left half as shown on the left side of FIG. 4A. The pixel signals of lb (Rlb, Grlb, Gblb, Blb) are added (mixed) and output, and the pixel signals of the light receiving unit rt (Rrt, Grrt, Gbrt, Brt), which is the light receiving unit on the right half, and the light receiving unit. The pixel signal of rb (Rrb, Grrb, Gbrb, Brb) is added and output. As a result, as shown on the right side of FIG. 4A, the left aperture pixel signal l (Rl, Grl, Gbl, Bl) having the information of the light beam passing through the exit pupil region on the right side of the image pickup optical system and the left side of the image pickup optical system. Right aperture pixel signals r (Rr, Grr, Gbr, Br) having information on the light beam passing through the exit pupil region of the above are output, respectively.

画素303cが上下開口画素として取り扱われるときには、制御回路302は、図4Bの左側で示すようにして上半分の受光部である受光部lt(Rlt、Grlt、Gblt、Blt)の画素信号と受光部rt(Rrt、Grrt、Gbrt、Brt)の画素信号とを加算(混合)して出力させるとともに、下半分の受光部である受光部lb(Rlb、Grlb、Gblb、Blb)の画素信号と受光部rb(Rrb、Grrb、Gbrb、Brb)の画素信号とを加算して出力させる。これにより、図4Bの右側で示すようにして、撮像光学系の下側の射出瞳領域を通過した光束の情報を有する上開口画素信号t(Rt、Grt、Gbt、Bt)と撮像光学系の上側の射出瞳領域を通過した光束の情報を有する下開口画素信号b(Rb、Grb、Gbb、Bb)とがそれぞれ出力される。また、画素303cが全開口画素として取り扱われるときには、制御回路302は、左半分の受光部である受光部lt(Rlt、Grlt、Gblt、Blt)の画素信号と受光部lb(Rlb、Grlb、Gblb、Blb)の画素信号と、右半分の受光部である受光部rt(Rrt、Grrt、Gbrt、Brt)の画素信号と受光部rb(Rrb、Grrb、Gbrb、Brb)の画素信号とを加算して出力させる。 When the pixel 303c is treated as an upper and lower opening pixel, the control circuit 302 is a pixel signal and a light receiving part of a light receiving part lt (Rlt, Grlt, Gblt, Blt) which is a light receiving part of the upper half as shown on the left side of FIG. 4B. The pixel signals of rt (Rrt, Grrt, Gbrt, Brt) are added (mixed) and output, and the pixel signals of the light receiving section lb (Rlb, Grlb, Gblb, Blb), which is the light receiving section of the lower half, and the light receiving section. The pixel signal of rb (Rrb, Grrb, Gbrb, Brb) is added and output. As a result, as shown on the right side of FIG. 4B, the upper aperture pixel signal t (Rt, Grt, Gbt, Bt) having the information of the luminous flux passing through the exit pupil region on the lower side of the image pickup optical system and the image pickup optical system. Lower aperture pixel signals b (Rb, Grb, Gbb, Bb) having information on the luminous flux passing through the upper exit pupil region are output, respectively. Further, when the pixel 303c is treated as a full-open pixel, the control circuit 302 has a pixel signal of the light receiving portion lt (Rlt, Grlt, Gblt, Blt) which is a light receiving portion of the left half and a light receiving portion lb (Rlb, Grlb, Gblb). , Blb), the pixel signal of the light receiving part rt (Rrt, Grrt, Gbrt, Brt) which is the light receiving part of the right half, and the pixel signal of the light receiving part rb (Rrb, Grrb, Gbrb, Brb) are added. And output.

さらに、本実施形態の画素部303は、異なる画素部303の間でも画素信号を加算して出力できるようにも構成されていてよい。例えば、画素部303は、水平方向又は垂直方向に存在する複数の左開口画素同士又は右開口同士の画素信号を加算して出力したり、水平方向又は垂直方向に存在する複数の上開口同士又は下開口画素同士の画素信号を加算して出力したりするように構成されていてもよい。画素信号の加算数は、例えば制御回路302によって設定される。画素信号を加算してから読み出すことにより、読み出し時間を短縮することができる。なお、読み出し時間に余裕があるときには、画素部303の間での画素信号の加算は行われなくてもよい。 Further, the pixel unit 303 of the present embodiment may be configured so that pixel signals can be added and output even between different pixel units 303. For example, the pixel unit 303 adds and outputs pixel signals of a plurality of left-opening pixels existing in the horizontal or vertical direction or between the right openings, or a plurality of upper openings existing in the horizontal or vertical direction or each other. It may be configured to add and output the pixel signals of the lower aperture pixels. The addition number of the pixel signals is set by, for example, the control circuit 302. By reading after adding the pixel signals, the reading time can be shortened. When the read time is sufficient, the pixel signals may not be added between the pixel units 303.

垂直走査回路304は、制御回路302からの制御信号としての蓄積開始信号を受ける毎に1行ずつ画素部303の画素303cに蓄積された電荷をリセットしてから画素部303における電荷の蓄積を開始させる。また、垂直走査回路304は、制御回路302からの制御信号としての蓄積終了信号を受ける毎に1行ずつ画素部303の画素303cにおける電荷の蓄積を終了させ、蓄積された電荷を画素信号としてアナログ処理回路305に転送させる。 The vertical scanning circuit 304 resets the electric charge accumulated in the pixel 303c of the pixel unit 303 line by line each time it receives the accumulation start signal as a control signal from the control circuit 302, and then starts accumulating the electric charge in the pixel unit 303. Let me. Further, the vertical scanning circuit 304 ends the accumulation of electric charges in the pixel 303c of the pixel unit 303 one line at a time each time it receives the accumulation end signal as a control signal from the control circuit 302, and the accumulated electric charge is analog as a pixel signal. Transfer to the processing circuit 305.

アナログ処理回路305は、画素部303から順次に転送された画素信号に対してアナログ処理をする。アナログ処理回路305は、例えば、画素信号をアナログ的に増幅するプリアンプ、画素信号からリセットノイズを除去する相関二重サンプリング(CDS)処理回路等を含む。 The analog processing circuit 305 performs analog processing on the pixel signals sequentially transferred from the pixel unit 303. The analog processing circuit 305 includes, for example, a preamplifier that amplifies the pixel signal in an analog manner, a correlated double sampling (CDS) processing circuit that removes reset noise from the pixel signal, and the like.

ADC処理回路306は、制御回路302からの制御信号に従ってアナログ処理回路305から出力された画素信号をデジタル信号である画素データに変換する。このADC処理回路306は、例えばカラム型ADC処理回路として構成されている。 The ADC processing circuit 306 converts the pixel signal output from the analog processing circuit 305 into pixel data, which is a digital signal, according to the control signal from the control circuit 302. The ADC processing circuit 306 is configured as, for example, a column-type ADC processing circuit.

メモリ回路307は、制御回路302からの制御信号に従ってADC処理回路306から出力された画素データを一時的に記憶する。メモリ回路307は、揮発性メモリ等で構成されている。メモリ回路307は、画素データのデジタル加算を行うように構成されていてもよい。この場合、メモリ回路307は、ADC処理回路306から出力される画素データの加算値を記憶するように構成される。 The memory circuit 307 temporarily stores the pixel data output from the ADC processing circuit 306 according to the control signal from the control circuit 302. The memory circuit 307 is composed of a volatile memory or the like. The memory circuit 307 may be configured to perform digital addition of pixel data. In this case, the memory circuit 307 is configured to store the added value of the pixel data output from the ADC processing circuit 306.

水平走査回路308は、制御回路302からの制御信号を受けてメモリ回路307に記憶されている画素データを列順で出力回路309に転送させる。 The horizontal scanning circuit 308 receives the control signal from the control circuit 302 and transfers the pixel data stored in the memory circuit 307 to the output circuit 309 in column order.

出力回路309は、水平走査回路308によって転送された画素データを配列して画素データ列を生成する。また、出力回路309は、画素データ列をシリアル信号及び差動信号等の所定の出力信号形式に変換して出力する。 The output circuit 309 arranges the pixel data transferred by the horizontal scanning circuit 308 to generate a pixel data string. Further, the output circuit 309 converts the pixel data string into a predetermined output signal format such as a serial signal and a differential signal and outputs the signal.

以下、本実施形態に係る撮像装置1の動作を説明する。図5A及び図5Bは、本実施形態に係る撮像装置の動作について示すフローチャートである。ここで、図5A及び図5Bは、撮像装置1のAFモードがコンティニュアスAFモードであるときの動作を示している。コンティニュアスAFモードは、動く被写体に対して適したAFモードであり、被写体に追従するようにピント合わせを続けるAFモードである。 Hereinafter, the operation of the image pickup apparatus 1 according to the present embodiment will be described. 5A and 5B are flowcharts showing the operation of the image pickup apparatus according to the present embodiment. Here, FIGS. 5A and 5B show the operation when the AF mode of the image pickup apparatus 1 is the continuous AF mode. The continuous AF mode is an AF mode suitable for a moving subject, and is an AF mode that keeps focusing so as to follow the subject.

図5A及び図5Bの動作は、ユーザによる撮像装置1の電源のオン操作が検出されたときに開始される。電源のオン操作が検出されると、ステップS101において、CPU212は、レリーズボタンの1stレリーズスイッチがオンの状態であるか否かを判定する。1stレリーズスイッチは、例えばユーザによるレリーズボタンの半押し操作に応答してオンの状態となるスイッチである。ステップS101において、1stレリーズスイッチがオンの状態であると判定されたときには、処理はステップS104に移行する。ステップS101において、1stレリーズスイッチがオンの状態でないと判定されたときには、処理はステップS102に移行する。 The operations of FIGS. 5A and 5B are started when the power-on operation of the image pickup apparatus 1 by the user is detected. When the power-on operation is detected, in step S101, the CPU 212 determines whether or not the 1st release switch of the release button is in the on state. The 1st release switch is, for example, a switch that is turned on in response to a half-press operation of the release button by the user. When it is determined in step S101 that the 1st release switch is in the ON state, the process proceeds to step S104. When it is determined in step S101 that the 1st release switch is not in the ON state, the process proceeds to step S102.

ステップS102において、CPU212は、ライブビュー(LV)表示のための表示画素データの取り込みを行う。このとき、CPU212は、メカシャッター202を全開状態とするように駆動部204に対して制御信号を出力するとともに、絞り1022を所定量(例えば開放絞り)だけ駆動するようにレンズCPU106に対して制御信号を出力する。その後、CPU212は、撮像素子208に対して制御信号を出力して撮像素子208によるLV表示のための撮像を開始させる。そして、LV表示のための撮像が完了する毎に、制御回路302は、画素部303からの画素信号の読み出しを開始させる。なお、画素信号の読み出しに際し、制御回路302は、画素部303の画素303cから出力される同一開口(同色)の画素信号を加算させるようにしてもよい。撮像素子208から出力された表示画素データは、DRAM226に記憶される。 In step S102, the CPU 212 captures display pixel data for live view (LV) display. At this time, the CPU 212 outputs a control signal to the drive unit 204 so that the mechanical shutter 202 is fully opened, and controls the lens CPU 106 to drive the aperture 1022 by a predetermined amount (for example, an open aperture). Output a signal. After that, the CPU 212 outputs a control signal to the image pickup element 208 to start imaging for LV display by the image pickup element 208. Then, each time the imaging for LV display is completed, the control circuit 302 starts reading the pixel signal from the pixel unit 303. When reading out the pixel signal, the control circuit 302 may add the pixel signals of the same aperture (same color) output from the pixel 303c of the pixel unit 303. The display pixel data output from the image sensor 208 is stored in the DRAM 226.

ステップS103において、CPU212はLV表示を行う。このとき、CPU212は、画像処理回路214に表示画像データを生成させる。これを受けて、画像処理回路214は、表示画素データに対して必要な処理を行って表示のための表示画像データを生成する。表示画像データは、同一の画素部303に属する受光部lt、rt、lb、rbの画素データを加算平均することで得られる。CPU212は、画像処理回路214で生成された表示画像データに基づいて表示部222にLV画像を表示させる。その後、処理は、ステップS126に移行する。 In step S103, the CPU 212 displays the LV. At this time, the CPU 212 causes the image processing circuit 214 to generate display image data. In response to this, the image processing circuit 214 performs necessary processing on the display pixel data to generate display image data for display. The display image data is obtained by adding and averaging the pixel data of the light receiving units lt, rt, lb, and rb belonging to the same pixel unit 303. The CPU 212 causes the display unit 222 to display an LV image based on the display image data generated by the image processing circuit 214. After that, the process proceeds to step S126.

ステップS104において、CPU212は、オートフォーカス(AF)及びLV表示のための撮像と読み出しを行う。ステップS104のAF及びLV表示のための撮像と読み出し処理については後で詳しく説明する。ここでは、AFのための撮像と読み出しによってAFのための焦点検出画素データがDRAM226に記憶され、LVのための撮像と読み出しによって表示のための表示画素データがDRAM226に記憶されたものとして説明を続ける。 In step S104, the CPU 212 performs imaging and reading for autofocus (AF) and LV display. The imaging and readout processing for AF and LV display in step S104 will be described in detail later. Here, it is assumed that the focus detection pixel data for AF is stored in the DRAM 226 by imaging and readout for AF, and the display pixel data for display is stored in the DRAM 226 by imaging and readout for LV. continue.

ステップS105において、CPU212は、LV表示を行う。 In step S105, the CPU 212 displays the LV.

ステップS106において、CPU212は、焦点検出回路218による焦点検出演算を実行させる。焦点検出回路218は、DRAM226に記憶されている焦点検出画素データのうちの対をなす焦点検出画素データを用いて相関演算を行う。水平方向の位相差検出の場合の対をなす焦点検出画素データは左開口画素データlと右開口画素データrであり、垂直方向の位相差の検出の場合の対をなす焦点検出画素データは上開口画素データtと下開口画素データbである。相関演算の後、焦点検出回路218は、焦点検出の信頼性判定を行う。信頼性判定は、例えば画素データから得られるコントラスト、相関演算の結果として算出される相関値に基づいて判定される。 In step S106, the CPU 212 causes the focus detection circuit 218 to execute the focus detection operation. The focus detection circuit 218 performs a correlation calculation using the focus detection pixel data paired with the focus detection pixel data stored in the DRAM 226. The paired focus detection pixel data in the case of horizontal phase difference detection is the left aperture pixel data l and the right aperture pixel data r, and the paired focus detection pixel data in the case of vertical phase difference detection is above. The opening pixel data t and the lower opening pixel data b. After the correlation calculation, the focus detection circuit 218 determines the reliability of the focus detection. The reliability determination is determined based on, for example, the contrast obtained from the pixel data and the correlation value calculated as a result of the correlation calculation.

ステップS107において、焦点検出回路218は、ピントずれ量演算を行う。すなわち、焦点検出回路218は、ステップS106における信頼性判定の結果、信頼性が高いと判定された焦点検出領域における2像間隔値(相関値の極値に対応した像ずれ量)からフォーカスレンズ1021の合焦位置に対するピントずれ量を算出する。その後、処理はステップS108に移行する。 In step S107, the focus detection circuit 218 calculates the out-of-focus amount. That is, the focus detection circuit 218 is focused on the focus lens 1021 from the two image spacing values (the amount of image shift corresponding to the extreme value of the correlation value) in the focus detection region determined to be highly reliable as a result of the reliability determination in step S106. Calculate the amount of focus shift with respect to the in-focus position of. After that, the process proceeds to step S108.

ステップS108において、焦点検出回路218は、フォーカスレンズ1021の駆動に用いるフォーカスレンズ位置に対応する焦点検出領域を選択するためのエリア選択処理を行う。エリア選択処理の後、処理はステップS109に移行する。エリア選択処理は、例えば、最も近い被写体距離に対応した(すなわち最至近の)フォーカスレンズ位置に対応するピントずれ量を示す焦点検出領域を選択することで行われる。 In step S108, the focus detection circuit 218 performs an area selection process for selecting a focus detection region corresponding to the focus lens position used to drive the focus lens 1021. After the area selection process, the process proceeds to step S109. The area selection process is performed, for example, by selecting a focus detection area that indicates the amount of focus shift corresponding to the focus lens position corresponding to the closest (that is, the closest) focus lens position.

ステップS109において、CPU212は、フォーカスレンズ1021が合焦状態であるか否かを判定する。ステップS109における判定は、例えばエリア選択処理において選択された焦点検出領域におけるピントずれ量が予め定められた許容範囲内であるか否かを判定することによって行われる。ピントずれ量が許容範囲内であるときには合焦状態であると判定される。ステップS109において、フォーカスレンズ1021が合焦状態でないと判定されたときには処理はステップS110に移行する。ステップS109において、フォーカスレンズ1021が合焦状態であると判定されたときには処理はステップS111に移行する。 In step S109, the CPU 212 determines whether or not the focus lens 1021 is in the focused state. The determination in step S109 is performed, for example, by determining whether or not the amount of focus shift in the focus detection region selected in the area selection process is within a predetermined allowable range. When the amount of focus shift is within the allowable range, it is determined that the subject is in focus. When it is determined in step S109 that the focus lens 1021 is not in the in-focus state, the process proceeds to step S110. When it is determined in step S109 that the focus lens 1021 is in the in-focus state, the process proceeds to step S111.

ステップS110において、CPU212は、ステップS108において選択された焦点検出領域について算出されたフォーカスレンズ位置に応じてフォーカスレンズ1021が駆動されるよう、レンズCPU106に対して制御信号を出力する。レンズCPU106は、この制御信号を受けて、駆動部104を介してフォーカスレンズ1021を駆動する。その後、処理は、ステップS126へ移行する。 In step S110, the CPU 212 outputs a control signal to the lens CPU 106 so that the focus lens 1021 is driven according to the focus lens position calculated for the focus detection region selected in step S108. The lens CPU 106 receives this control signal and drives the focus lens 1021 via the drive unit 104. After that, the process proceeds to step S126.

ステップS111において、CPU212は、ステップS104と同様のオートフォーカス(AF)及びLV表示のための撮像と読み出しを行う。ここでは、AFのための撮像と読み出しによって焦点検出画素データがDRAM226に記憶され、LVのための撮像と読み出しによって表示画素データがDRAM226に記憶されたものとして説明を続ける。 In step S111, the CPU 212 performs imaging and reading for autofocus (AF) and LV display similar to those in step S104. Here, the description will be continued assuming that the focus detection pixel data is stored in the DRAM 226 by imaging and readout for AF, and the display pixel data is stored in the DRAM 226 by imaging and readout for LV.

ステップS112において、CPU212は、LV表示を行う。 In step S112, the CPU 212 displays the LV.

ステップS113において、CPU212は、焦点検出回路218による焦点検出演算を実行させる。焦点検出回路218は、DRAM226に記憶されている焦点検出画素データのうちの対をなす焦点検出画素データを用いて相関演算を行う。相関演算の後、焦点検出回路218は、焦点検出の信頼性判定を行う。ステップS114において、焦点検出回路218は、ピントずれ量演算を行う。ステップS115において、焦点検出回路218は、エリア選択処理を行う。 In step S113, the CPU 212 causes the focus detection circuit 218 to execute the focus detection operation. The focus detection circuit 218 performs a correlation calculation using the focus detection pixel data paired with the focus detection pixel data stored in the DRAM 226. After the correlation calculation, the focus detection circuit 218 determines the reliability of the focus detection. In step S114, the focus detection circuit 218 performs a focus shift amount calculation. In step S115, the focus detection circuit 218 performs an area selection process.

ステップS116において、焦点検出回路218は、焦点検出に係る情報を履歴情報として例えばDRAM226に保存する。焦点検出に係る情報は、例えばステップS114で算出されたピントずれ量の情報及びステップS115で選択された焦点検出領域の情報を含む。 In step S116, the focus detection circuit 218 stores the information related to the focus detection as history information in, for example, DRAM 226. The information related to focus detection includes, for example, information on the amount of focus shift calculated in step S114 and information on the focus detection region selected in step S115.

ステップS117において、CPU212は、2ndレリーズスイッチがオンされているか否かを判定する。2ndレリーズスイッチは、例えばユーザによるレリーズボタンの全押し操作に応答してオンの状態となるスイッチである。ステップS117において、2ndレリーズスイッチがオンの状態でないと判定されたときには、処理はステップS118に移行する。ステップS117において、2ndレリーズスイッチがオンの状態であると判定されたときには、処理はステップS120に移行する。 In step S117, the CPU 212 determines whether or not the 2nd release switch is turned on. The 2nd release switch is a switch that is turned on in response to, for example, a user pressing the release button fully. When it is determined in step S117 that the 2nd release switch is not in the ON state, the process proceeds to step S118. When it is determined in step S117 that the 2nd release switch is in the ON state, the process proceeds to step S120.

ステップS118において、CPU212は、フォーカスレンズ1021が合焦状態であるか否かを判定する。ステップS118において、フォーカスレンズ1021が合焦状態でないと判定されたときには処理はステップS119に移行する。ステップS118において、フォーカスレンズ1021が合焦状態であると判定されたときには処理はステップS125に移行する。 In step S118, the CPU 212 determines whether or not the focus lens 1021 is in the focused state. When it is determined in step S118 that the focus lens 1021 is not in the in-focus state, the process proceeds to step S119. When it is determined in step S118 that the focus lens 1021 is in the in-focus state, the process proceeds to step S125.

ステップS119において、CPU212は、ステップS115において選択された焦点検出領域について算出されたフォーカスレンズ位置に応じてフォーカスレンズ1021が駆動されるよう、レンズCPU106に対して制御信号を出力する。レンズCPU106は、この制御信号を受けて、駆動部104を介してフォーカスレンズ1021を駆動する。その後、処理は、ステップS125に移行する。 In step S119, the CPU 212 outputs a control signal to the lens CPU 106 so that the focus lens 1021 is driven according to the focus lens position calculated for the focus detection region selected in step S115. The lens CPU 106 receives this control signal and drives the focus lens 1021 via the drive unit 104. After that, the process proceeds to step S125.

ステップS120において、CPU212は、焦点検出回路218よる動体予測演算を実行させる。これを受けて、焦点検出回路218は、動体予測演算を行う。動体予測演算は、ステップS116で記憶させておいた過去のピントずれ量演算の結果(フォーカスレンズ位置)の履歴から今回のフォーカスレンズ1021の駆動すべき位置を予測する処理である。 In step S120, the CPU 212 causes the focus detection circuit 218 to execute the motion prediction operation. In response to this, the focus detection circuit 218 performs a moving object prediction operation. The moving object prediction calculation is a process of predicting the position to be driven of the focus lens 1021 this time from the history of the result (focus lens position) of the past focus shift amount calculation stored in step S116.

ステップS121において、CPU212は、静止画取得のための撮像(本露光)を行うために、メカシャッター202の動作を開始させる。このメカシャッター202の動作は、本露光の前後のメカシャッター202の開閉動作と、本露光の後でライブビュー及びAFのための撮像を開始するためのメカシャッター202の全開動作とを含む。CPU212は、まず、メカシャッター202を全閉状態とするように駆動部204の制御信号を切り替える。そして、ステップS123で本露光を行った後に、CPU212は、メカシャッター202を全開状態とするように駆動部204を制御する。 In step S121, the CPU 212 starts the operation of the mechanical shutter 202 in order to perform imaging (main exposure) for acquiring a still image. The operation of the mechanical shutter 202 includes an opening / closing operation of the mechanical shutter 202 before and after the main exposure, and a full opening operation of the mechanical shutter 202 for starting image pickup for live view and AF after the main exposure. First, the CPU 212 switches the control signal of the drive unit 204 so that the mechanical shutter 202 is fully closed. Then, after performing the main exposure in step S123, the CPU 212 controls the drive unit 204 so that the mechanical shutter 202 is fully opened.

ステップS122において、CPU212は、レンズCPU106に対してフォーカスレンズ1021及び絞り1022を同時駆動させるように指示して動作を開始させる。ここで、フォーカスレンズ1021の駆動位置は、ステップS120の動体予測演算において予測された位置である。また、絞り1022の開口量は、直前の測光演算によって測定された被写体輝度に基づいて算出された絞り値に応じた開口量である。 In step S122, the CPU 212 instructs the lens CPU 106 to simultaneously drive the focus lens 1021 and the aperture 1022, and starts the operation. Here, the drive position of the focus lens 1021 is the position predicted in the moving object prediction calculation in step S120. Further, the aperture amount of the aperture 1022 is an aperture amount corresponding to the aperture value calculated based on the subject brightness measured by the immediately preceding photometric calculation.

ステップS123において、CPU212は、本露光を開始させる。本露光は、記録用の画像データを取得するための撮像である。本露光において、CPU212は、撮像素子208の撮像を開始させる。露光期間の終了後、制御回路302は、撮像素子208の各受光部から画素信号を静止画画素信号として読み出す。静止画画素信号の読み出し後、CPU212は、記録用の画像画素信号を生成するための処理を画像処理回路214に行わせる。これを受けて、画像処理回路214は、記録用の画像データの生成に必要な処理を行って記録用の静止画データを生成する。画像処理の完了後、CPU212は、画像圧縮展開部216によって記録用の静止画データを圧縮する。圧縮の完了後、CPU212は、圧縮された記録用の静止画データを画像ファイルとして記録媒体230に記録する。 In step S123, the CPU 212 starts the main exposure. This exposure is an image pickup for acquiring image data for recording. In the main exposure, the CPU 212 starts the imaging of the image pickup device 208. After the end of the exposure period, the control circuit 302 reads a pixel signal as a still image pixel signal from each light receiving unit of the image pickup element 208. After reading the still image pixel signal, the CPU 212 causes the image processing circuit 214 to perform a process for generating an image pixel signal for recording. In response to this, the image processing circuit 214 performs processing necessary for generating image data for recording to generate still image data for recording. After the image processing is completed, the CPU 212 compresses the still image data for recording by the image compression expansion unit 216. After the compression is completed, the CPU 212 records the compressed still image data for recording as an image file on the recording medium 230.

ステップS124において、CPU212は、レンズCPU106に対して絞り1022を開放させるように指示する。 In step S124, the CPU 212 instructs the lens CPU 106 to open the aperture 1022.

ステップS125において、CPU212は、1stレリーズスイッチがオンの状態であるか否かを判定する。ステップS125において、1stレリーズスイッチがオンの状態であると判定されたときには、処理はステップS111に戻る。この後、2ndレリーズスイッチがオンの状態であれば連続的に静止画撮影が行われることになる。ステップS125において、1stレリーズスイッチがオンの状態でないと判定されたときには、処理はステップS126に移行する。 In step S125, the CPU 212 determines whether or not the 1st release switch is in the ON state. When it is determined in step S125 that the 1st release switch is in the ON state, the process returns to step S111. After that, if the 2nd release switch is on, still image shooting will be performed continuously. When it is determined in step S125 that the 1st release switch is not in the ON state, the process proceeds to step S126.

ステップS126おいて、CPU212は、カメラ本体200の電源をオフするか否かを判定する。例えば、ユーザの操作部206の操作によって電源のオフが指示された場合又は所定時間のユーザの操作部206の操作がない場合には電源をオフすると判定される。ステップS126において、カメラ本体200の電源をオフしないと判定されたときには、処理はステップS101に戻る。ステップS126において、カメラ本体200の電源をオフすると判定されたときには、処理は終了する。 In step S126, the CPU 212 determines whether or not to turn off the power of the camera body 200. For example, it is determined that the power is turned off when the power is instructed to be turned off by the operation of the user's operation unit 206 or when the user's operation unit 206 is not operated for a predetermined time. When it is determined in step S126 that the power of the camera body 200 is not turned off, the process returns to step S101. When it is determined in step S126 that the power of the camera body 200 is turned off, the process ends.

次に、ステップS104及びステップS111の処理について説明する。図6は、ステップS104及びステップS111のAF及びLV表示のための撮像と読み出し処理を示すフローチャートである。本実施形態では画素信号を高速で読み出す必要がある場合と画素信号を高速で読み出すよりも焦点検出性能が重視される場合とで異なる撮像及び読み出しが行われる。 Next, the processing of step S104 and step S111 will be described. FIG. 6 is a flowchart showing imaging and reading processing for AF and LV display in steps S104 and S111. In the present embodiment, different imaging and readout are performed depending on whether the pixel signal needs to be read out at high speed and the focus detection performance is more important than reading out the pixel signal at high speed.

ステップS201において、制御回路302は、高速読み出し条件を満たすか否かを判定する。高速読み出し条件を満たすか否かの判定は、例えばCPU212から送られてくる情報に基づいて判定される。この情報は、連写速度の設定、絞り値、被写体輝度、ピント合わせの結果の履歴を含む。例えば、以下の(1)-(3)の条件をすべて満たす又は(4)の条件を満たすときには高速読み出し条件を満たすと判定される。ステップS201において、高速読み出し条件を満たすと判定されたときには、処理はステップS202に移行する。ステップS201において、高速読み出し条件を満たさないと判定されたときには、処理はステップS203に移行する。
(1) 連写速度(フレームレート)が所定値以上
(2) 絞り値(Fナンバー)が所定値以下
(3) 被写体輝度が所定値以上
(4) 所定回数連続してピントずれ量を検出できない
(1)の条件である連写速度は、連写の間隔に対応している。本露光のフレームレートが高い、すなわち連写の間隔が短い場合には、AFのための露光時間を短くしつつ、高速読み出をすることによってAFにかかる時間を短縮することが望ましい。(2)の条件である絞り値は、例えばFナンバーによって表される。絞り値が所定値以下であれば、明るい像を取得しやすくなるので、AFのための露光時間が短くなっても焦点検出性能が確保され得る。(3)の条件である被写体輝度が所定値以上であれば、明るい像を取得しやすくなるので、AFのための露光時間が短くなっても焦点検出性能が確保され得る。なお、被写体輝度については、少なくともエリア選択処理で選択された焦点検出領域における被写体輝度が所定値以上であるか否かを判定する必要がある。全焦点検出領域における被写体輝度が所定値以上であるか否かを判定してもよいし、エリア選択処理で選択された焦点検出領域を含む周辺の焦点検出領域における被写体輝度が所定値以上であるか否かを判定してもよい。(4)の条件であるピントずれ量を検出できたか否かの判定は、例えば各焦点検出領域における被写体のコントラストが低い場合又は相関値の極小値が大きい場合といった信頼性がないと判定されたときにはピントずれ量を検出できなかったと判定される。
In step S201, the control circuit 302 determines whether or not the high-speed read condition is satisfied. The determination as to whether or not the high-speed read condition is satisfied is determined based on, for example, the information sent from the CPU 212. This information includes the continuous shooting speed setting, aperture value, subject brightness, and history of focusing results. For example, when all of the following conditions (1)-(3) are satisfied or the condition of (4) is satisfied, it is determined that the high-speed read condition is satisfied. When it is determined in step S201 that the high-speed read condition is satisfied, the process proceeds to step S202. When it is determined in step S201 that the high-speed read condition is not satisfied, the process proceeds to step S203.
(1) Continuous shooting speed (frame rate) is equal to or higher than a predetermined value (2) Aperture value (F number) is equal to or lower than a predetermined value (3) Subject brightness is equal to or higher than a predetermined value (4) The amount of focus shift cannot be detected continuously a predetermined number of times. The continuous shooting speed, which is the condition of (1), corresponds to the interval of continuous shooting. When the frame rate of the main exposure is high, that is, the interval between continuous shots is short, it is desirable to shorten the time required for AF by performing high-speed reading while shortening the exposure time for AF. The aperture value, which is the condition of (2), is represented by, for example, an F number. When the aperture value is not more than a predetermined value, it becomes easy to acquire a bright image, so that the focus detection performance can be ensured even if the exposure time for AF is shortened. When the subject brightness, which is the condition of (3), is equal to or higher than a predetermined value, it becomes easy to acquire a bright image, so that the focus detection performance can be ensured even if the exposure time for AF is shortened. Regarding the subject brightness, it is necessary to determine at least whether or not the subject brightness in the focus detection area selected by the area selection process is equal to or higher than a predetermined value. It may be determined whether or not the subject brightness in the all-focus detection region is equal to or higher than a predetermined value, or the subject brightness in the peripheral focus detection region including the focus detection region selected in the area selection process is equal to or higher than the predetermined value. It may be determined whether or not. It was determined that the determination as to whether or not the amount of focus shift, which is the condition of (4), could be detected is unreliable, for example, when the contrast of the subject in each focus detection region is low or when the minimum value of the correlation value is large. Sometimes it is determined that the out-of-focus amount could not be detected.

ステップS201において高速読み出し条件を満たすと判定されたときのステップS202において、制御回路302は、高速動作を行う。高速動作の終了後、処理は終了する。 In step S202 when it is determined in step S201 that the high-speed read condition is satisfied, the control circuit 302 operates at high speed. After the high-speed operation ends, the process ends.

以下、高速動作について説明する。図7は、高速動作について説明するためのタイミングチャートである。ここで、図7の「VD」は、制御回路302に入力される同期信号(垂直同期信号)のタイミングを示している。VD(1)はAFのための撮像と読み出しとを含む第1の動作のタイミングを示す垂直同期信号であり、VD(2)はLV表示のための撮像と読み出しとを含む第2の動作のタイミングを示す垂直同期信号である。高速動作において、第1の動作と第2の動作とは、垂直同期信号の入力に応じて交互に行われる。そして、第1の動作と第2の動作とは1フレームの間に1回ずつ行われる。この場合、ステップS104及びS111の処理は1フレーム毎に行われる。なお、1フレームの長さは、LV表示の画面の更新間隔及び連写時の連写間隔を示す連写速度等に応じて決められる。以下、高速動作における第1の動作及び第2の動作のそれぞれについて詳しく説明する。 The high-speed operation will be described below. FIG. 7 is a timing chart for explaining high-speed operation. Here, “VD” in FIG. 7 indicates the timing of the synchronization signal (vertical synchronization signal) input to the control circuit 302. VD (1) is a vertical synchronization signal indicating the timing of the first operation including imaging and readout for AF, and VD (2) is a second operation including imaging and readout for LV display. It is a vertical synchronization signal indicating timing. In the high-speed operation, the first operation and the second operation are alternately performed in response to the input of the vertical synchronization signal. Then, the first operation and the second operation are performed once in one frame. In this case, the processing of steps S104 and S111 is performed for each frame. The length of one frame is determined according to the update interval of the LV display screen, the continuous shooting speed indicating the continuous shooting interval at the time of continuous shooting, and the like. Hereinafter, each of the first operation and the second operation in the high-speed operation will be described in detail.

まず、高速動作における第1の動作について説明する。図7のAF(rl)で示す第1の動作は、第1の瞳分割方向に関する焦点検出画素信号の生成と読み出しのための動作である。第1の瞳分割方向は、例えば画素部303の水平方向である。第1の動作に先立って、制御回路302は、画素部303から左開口画素信号l(Rl、Grl、Gbl、Bl)と右開口画素信号r(Rr、Grr、Gbr、Br)とが出力されるように画素部303の設定を切り替える。また、制御回路302は、画素信号の読み出し時間の短縮とS/Nの向上とを図るために、画素部303の間の画素加算の設定を行う。 First, the first operation in high-speed operation will be described. The first operation shown by AF (rl) in FIG. 7 is an operation for generating and reading a focus detection pixel signal with respect to the first pupil division direction. The first pupil division direction is, for example, the horizontal direction of the pixel unit 303. Prior to the first operation, the control circuit 302 outputs the left aperture pixel signal l (Rl, Grl, Gbl, Bl) and the right aperture pixel signal r (Rr, Grr, Gbr, Br) from the pixel unit 303. The setting of the pixel unit 303 is switched so as to be. Further, the control circuit 302 sets the pixel addition between the pixel units 303 in order to shorten the pixel signal reading time and improve the S / N.

ここで、画素加算の設定について説明する。以下の説明において、画素部303における画素加算の設定は、n/mに、水平方向を表す「H」又は垂直方向を表す「V」を付して表すこととする。ここで、nは加算に用いられる画素信号の数である。また、mは加算の対象となる画素信号の数である。例えば、V1/9画素加算の場合、垂直方向に並ぶ9個の同一開口の画素信号のうちの1個を加算する、すなわち9個のうちの1個の画素信号だけを読み出し、残りの8個を間引くことを表す。また、V5/9画素加算の場合、垂直方向に並ぶ9個の同一開口の画素信号のうちの5個を加算して読み出し、残りの4個を間引くことを示す。また、H1/1画素加算の場合、水平方向については加算及び間引きをせずに画素信号を読み出すことを示す。 Here, the setting of pixel addition will be described. In the following description, the pixel addition setting in the pixel unit 303 is represented by adding "H" indicating the horizontal direction or "V" indicating the vertical direction to n / m. Here, n is the number of pixel signals used for addition. Further, m is the number of pixel signals to be added. For example, in the case of V1 / 9 pixel addition, one of nine pixel signals of the same aperture arranged in the vertical direction is added, that is, only one of the nine pixel signals is read, and the remaining eight. Represents thinning out. Further, in the case of V5 / 9 pixel addition, it is shown that 5 out of 9 pixel signals of the same aperture arranged in the vertical direction are added and read, and the remaining 4 are thinned out. Further, in the case of H1 / 1 pixel addition, it is shown that the pixel signal is read out without addition and thinning in the horizontal direction.

図8は、高速動作における第1の動作の画素加算の設定の例を示している。図8に示す第1の動作では、第1の瞳分割方向である水平方向については加算が行われずに、第2の瞳分割方向である垂直方向についてだけ加算が行われるように設定がされる。図8の例では、水平方向については同一開口(左開口同士又は右開口同士)の画素信号を1/1画素加算(すなわち加算なしに)するように設定され、垂直方向については同一開口(左開口同士又は右開口同士)の画素信号を5/9画素加算するように設定されている。画素信号の加算数は例えばフレームレートに応じて適宜に設定される。 FIG. 8 shows an example of setting the pixel addition of the first operation in the high-speed operation. In the first operation shown in FIG. 8, the addition is not performed in the horizontal direction which is the first pupil division direction, and the addition is performed only in the vertical direction which is the second pupil division direction. .. In the example of FIG. 8, the pixel signals of the same aperture (left openings or right openings) are set to add 1/1 pixel (that is, without addition) in the horizontal direction, and the same aperture (left) in the vertical direction. It is set to add 5/9 pixels to the pixel signals of (opens to each other or right openings to each other). The addition number of the pixel signals is appropriately set according to, for example, the frame rate.

図8の設定により、画素信号の行数が圧縮される。画素信号の行数が減ることにより、画素信号の読み出し時間は短縮される。一方で、画素信号の列数は変わらないので水平方向の位相差の検出精度を確保することができる。さらに、後で説明するように、高速動作における第2の動作では、表示の際の表示品位の確保のために第2の瞳分割方向に関する焦点検出画素信号の生成と読み出しが行われない。このため、高速動作においては第1の動作で得られる焦点検出画素信号のみで被写体に対する焦点検出が行われる。ここで、高速動作における第1の動作においては、垂直方向の加算数は5画素以下に抑えられる。このように垂直方向の加算数が抑えられることにより、画素信号においては垂直方向の位相差の情報が残ることになる。このような画素信号に基づいて生成される焦点検出画素信号は、実質的に斜め方向の位相差の情報を有することになる。なお、図8の例では、垂直方向については5個の画素信号が加算されるように設定されているが、垂直方向の加算数は5画素以下であればよい。 The number of rows of the pixel signal is compressed by the setting shown in FIG. By reducing the number of rows of the pixel signal, the read time of the pixel signal is shortened. On the other hand, since the number of columns of the pixel signal does not change, the detection accuracy of the phase difference in the horizontal direction can be ensured. Further, as will be described later, in the second operation in the high-speed operation, the focus detection pixel signal regarding the second pupil division direction is not generated and read in order to secure the display quality at the time of display. Therefore, in the high-speed operation, the focus of the subject is detected only by the focus detection pixel signal obtained in the first operation. Here, in the first operation in the high-speed operation, the addition number in the vertical direction is suppressed to 5 pixels or less. By suppressing the addition number in the vertical direction in this way, information on the phase difference in the vertical direction remains in the pixel signal. The focus detection pixel signal generated based on such a pixel signal will have information on the phase difference in the substantially oblique direction. In the example of FIG. 8, five pixel signals are set to be added in the vertical direction, but the number of additions in the vertical direction may be 5 pixels or less.

図8のような設定の後、CPU212は、撮像素子208に対して焦点検出画素信号を生成するために必要な露光時間での撮像を行うように制御信号を出力する。この露光時間は、被写体輝度等に基づいて設定される。 After the setting as shown in FIG. 8, the CPU 212 outputs a control signal to the image pickup device 208 so as to perform imaging at the exposure time required for generating the focus detection pixel signal. This exposure time is set based on the subject brightness and the like.

CPU212からの制御信号の入力を受けて、制御回路302は、画素部303の行毎に撮像(電荷の蓄積)を開始させる。そして、制御回路302は、垂直走査回路304を制御し、撮像が完了した行の画素部303から順次に画素信号を出力させる。 Upon receiving the input of the control signal from the CPU 212, the control circuit 302 starts imaging (charge accumulation) for each row of the pixel unit 303. Then, the control circuit 302 controls the vertical scanning circuit 304 to sequentially output pixel signals from the pixel unit 303 in the row where the imaging is completed.

ここで、水平方向の位相差の検出は、例えばGrの左開口画素信号Grlと右開口画素信号Grrの対及びGbの左開口画素信号Gblと右開口画素信号Gbrの対を用いて行われる。すなわち、Rの左開口画素信号Rlと右開口画素信号Rrの対及びBの左開口画素信号Blと右開口画素信号Brの対は必ずしも読み出される必要はない。したがって、読み出しの際には、図9に示すようにして左開口画素信号Grlと右開口画素信号Grrの対及び左開口画素信号Gblと右開口画素信号Gbrの対だけが詰めて読み出されてもよい。勿論、左開口画素信号Rlと右開口画素信号Rrの対及び左開口画素信号Gblと右開口画素信号Gbrの対も併せて読み出されてもよい。 Here, the detection of the phase difference in the horizontal direction is performed by using, for example, a pair of Gr's left-opening pixel signal Grl and right-opening pixel signal Grr and a pair of Gb's left-opening pixel signal Gbl and right-opening pixel signal Gbr. That is, the pair of the left aperture pixel signal Rl and the right aperture pixel signal Rr of R and the pair of the left aperture pixel signal Bl and the right aperture pixel signal Br of B do not necessarily have to be read out. Therefore, at the time of reading, as shown in FIG. 9, only the pair of the left aperture pixel signal Grl and the right aperture pixel signal Grr and the pair of the left aperture pixel signal Gbl and the right aperture pixel signal Gbr are packed and read out. May be good. Of course, the pair of the left aperture pixel signal Rl and the right aperture pixel signal Rr and the pair of the left aperture pixel signal Gbl and the right aperture pixel signal Gbr may also be read together.

画素部303から読み出された画素信号は、アナログ処理回路305においてアナログ処理される。アナログ処理された画素信号は、ADC処理回路306においてデジタル信号である画素データに変換される。画素データは、メモリ回路307に記憶される。前述したように、図8で示した加算は、メモリ回路307において行われてもよい。 The pixel signal read from the pixel unit 303 is analog-processed in the analog processing circuit 305. The analog-processed pixel signal is converted into pixel data, which is a digital signal, in the ADC processing circuit 306. The pixel data is stored in the memory circuit 307. As described above, the addition shown in FIG. 8 may be performed in the memory circuit 307.

水平走査回路308は、制御回路302からの制御信号を受けてメモリ回路307に記憶されている画素データを列順で出力回路309に転送させる。出力回路309は、水平走査回路308によって転送された画素データを配列して画素データ列を生成し、生成した画素データ列をシリアル信号及び差動信号等の所定の出力信号形式に変換して出力する。この画素データ列は、例えば図9に示すようにしてDRAM226に記憶される。このようにして第1の動作は完了する。 The horizontal scanning circuit 308 receives the control signal from the control circuit 302 and transfers the pixel data stored in the memory circuit 307 to the output circuit 309 in column order. The output circuit 309 arranges the pixel data transferred by the horizontal scanning circuit 308 to generate a pixel data string, converts the generated pixel data string into a predetermined output signal format such as a serial signal and a differential signal, and outputs the data. do. This pixel data string is stored in the DRAM 226 as shown in FIG. 9, for example. In this way, the first operation is completed.

第1の動作によってDRAM226に記憶された画素データ列は、ピントずれ量算出のための相関演算に用いられる。焦点検出回路218は、DRAM226に記憶されている左開口画素データGrlと右開口画素データGrrの対及び左開口画素データGblと右開口画素データGbrの対を用いて相関演算を行う。 The pixel data string stored in the DRAM 226 by the first operation is used for the correlation calculation for calculating the out-of-focus amount. The focus detection circuit 218 performs a correlation calculation using a pair of left aperture pixel data Grl and right aperture pixel data Grr and a pair of left aperture pixel data Gbl and right aperture pixel data Gbr stored in the DRAM 226.

次に、高速動作における第2の動作について説明する。図7のLVで示す第2の動作は、表示画素信号の生成と読み出し(LV)のための動作である。高速動作では、後で説明するような第2の瞳分割方向に関する焦点検出画素信号の生成と読み出しは行われない。第2の動作に先立って、制御回路302は、画素部303から上開口画素信号t(Rt、Grt、Gbt、Bt)と下開口画素信号b(Rb、Grb、Gbb、Bb)とが出力されるように画素部303の設定を切り替える。また、制御回路302は、画素信号の読み出し時間の短縮を図るために、画素部303の間の画素加算の設定を行う。 Next, the second operation in the high-speed operation will be described. The second operation shown by LV in FIG. 7 is an operation for generating and reading (LV) a display pixel signal. In the high-speed operation, the focus detection pixel signal for the second pupil division direction, which will be described later, is not generated and read out. Prior to the second operation, the control circuit 302 outputs the upper aperture pixel signal t (Rt, Grt, Gbt, Bt) and the lower aperture pixel signal b (Rb, Grb, Gbb, Bb) from the pixel unit 303. The setting of the pixel unit 303 is switched so as to be. Further, the control circuit 302 sets the pixel addition between the pixel units 303 in order to shorten the pixel signal reading time.

図10は、高速動作における第2の動作の画素加算の設定の例を示している。高速動作における第2の動作では、画素信号は、表示画素信号の生成にだけ用いられる。表示画像データは、同一の画素部303に属する受光部lt、rt、lb、rbの画素データを加算平均することで得られる。したがって、制御回路302は、上下開口画素信号t及びb(図の「+」で結ばれている画素信号)を加算して画素部303から出力させるように設定する。また、制御回路302は、画素信号の読み出し時間の短縮を図るために、画素部303の間の画素加算の設定を行う。図10に示すように、高速動作における第2の動作では、第1の瞳分割方向である水平方向及び第2の瞳分割方向である垂直方向の両方で加算が行われるように設定がされる。図10の例では、水平方向についてはH3/3画素加算するように、また、垂直方向についてはV3/3画素加算するように設定されている。 FIG. 10 shows an example of setting the pixel addition of the second operation in the high-speed operation. In the second operation in the high speed operation, the pixel signal is used only for generating the display pixel signal. The display image data is obtained by adding and averaging the pixel data of the light receiving units lt, rt, lb, and rb belonging to the same pixel unit 303. Therefore, the control circuit 302 is set to add the upper and lower aperture pixel signals t and b (pixel signals connected by “+” in the figure) and output them from the pixel unit 303. Further, the control circuit 302 sets the pixel addition between the pixel units 303 in order to shorten the pixel signal reading time. As shown in FIG. 10, in the second operation in the high-speed operation, the addition is set to be performed in both the horizontal direction which is the first pupil division direction and the vertical direction which is the second pupil division direction. .. In the example of FIG. 10, it is set to add H3 / 3 pixels in the horizontal direction and to add V3 / 3 pixels in the vertical direction.

図10の設定により、画素信号の行数及び列数はそれぞれ約3分の1に圧縮される。画素信号の行数及び列数が減ることにより、画素信号の読み出し時間は短縮される。なお、画素信号の加算数はこれに限定されない。ただし、第2の動作では、画素信号の加算数が多くなると表示の際の画質は劣化する。したがって、画素信号の加算数は、表示の際の画質と読み出し時間(フレームレート)とのトレードオフによって適宜に決められることが望ましい。なお、図10では、制御回路302は、上下開口画素信号t及びb(図の「+」で結ばれている画素信号)を加算して画素部303から出力させるように設定されているが、左右開口画素信号l及びrを加算して画素部303から出力させるように設定してもよい。また、制御回路302は、全開口画素信号を画素部303から出力させるように設定され、図10における「+」で結ばれた画素信号を加算した画素信号を、画素部303から出力させてもよい。 By the setting of FIG. 10, the number of rows and the number of columns of the pixel signal are each compressed to about one-third. By reducing the number of rows and columns of the pixel signal, the read time of the pixel signal is shortened. The number of pixel signals to be added is not limited to this. However, in the second operation, the image quality at the time of display deteriorates as the number of additions of the pixel signals increases. Therefore, it is desirable that the number of pixel signal additions is appropriately determined by the trade-off between the image quality at the time of display and the read time (frame rate). In FIG. 10, the control circuit 302 is set to add the upper and lower opening pixel signals t and b (pixel signals connected by “+” in the figure) and output them from the pixel unit 303. The left and right opening pixel signals l and r may be added and set to be output from the pixel unit 303. Further, the control circuit 302 is set to output the full aperture pixel signal from the pixel unit 303, and even if the pixel signal obtained by adding the pixel signals connected by “+” in FIG. 10 is output from the pixel unit 303. good.

図10のような設定の後、CPU212は、撮像素子208に対して表示画素信号を生成するために必要な露光時間での撮像を行うように制御信号を出力する。この露光時間は、被写体輝度等に基づいて設定される。 After the setting as shown in FIG. 10, the CPU 212 outputs a control signal to the image pickup device 208 so as to perform imaging at the exposure time required for generating the display pixel signal. This exposure time is set based on the subject brightness and the like.

CPU212からの制御信号の入力を受けて、制御回路302は、画素部303の行毎に撮像(電荷の蓄積)を開始させる。そして、制御回路302は、垂直走査回路304を制御し、撮像が完了した行の画素部303から順次に画素信号を出力させる。 Upon receiving the input of the control signal from the CPU 212, the control circuit 302 starts imaging (charge accumulation) for each row of the pixel unit 303. Then, the control circuit 302 controls the vertical scanning circuit 304 to sequentially output pixel signals from the pixel unit 303 in the row where the imaging is completed.

画素部303から読み出された画素信号は、アナログ処理回路305においてアナログ処理される。アナログ処理された画素信号は、ADC処理回路306においてデジタル信号である画素データに変換される。画素データは、メモリ回路307に記憶される。第2の動作では、表示画像データのためR、Gr、Gb、Bの画素信号が必要となる。このため、メモリ回路307には、上開口画素信号Rtと下開口画素信号Rbの加算信号である画素信号R、上開口画素信号Grtと下開口画素信号Grbの加算信号である画素信号Gr、上開口画素信号Gbtと下開口画素信号Gbbの加算信号である画素信号Gb、上開口画素信号Btと下開口画素信号Bbの加算信号である画素信号Bのそれぞれが詰められずに記憶される。 The pixel signal read from the pixel unit 303 is analog-processed in the analog processing circuit 305. The analog-processed pixel signal is converted into pixel data, which is a digital signal, in the ADC processing circuit 306. The pixel data is stored in the memory circuit 307. In the second operation, pixel signals of R, Gr, Gb, and B are required for the display image data. Therefore, in the memory circuit 307, the pixel signal R which is an addition signal of the upper opening pixel signal Rt and the lower opening pixel signal Rb, the pixel signal Gr which is the addition signal of the upper opening pixel signal Grt and the lower opening pixel signal Grb, and the upper The pixel signal Gb, which is an addition signal of the opening pixel signal Gbt and the lower opening pixel signal Gbb, and the pixel signal B, which is an addition signal of the upper opening pixel signal Bt and the lower opening pixel signal Bb, are stored without being packed.

水平走査回路308は、制御回路302からの制御信号を受けてメモリ回路307に記憶されている画素データを列順で出力回路309に転送させる。出力回路309は、水平走査回路308によって転送された画素データを配列して画素データ列を生成し、生成した画素データ列をシリアル信号及び差動信号等の所定の出力信号形式に変換して出力する。この画素データ列は、例えば図11に示すようにしてDRAM226に記憶される。このようにして第2の動作は完了する。 The horizontal scanning circuit 308 receives the control signal from the control circuit 302 and transfers the pixel data stored in the memory circuit 307 to the output circuit 309 in column order. The output circuit 309 arranges the pixel data transferred by the horizontal scanning circuit 308 to generate a pixel data string, converts the generated pixel data string into a predetermined output signal format such as a serial signal and a differential signal, and outputs the data. do. This pixel data string is stored in the DRAM 226 as shown in FIG. 11, for example. In this way, the second operation is completed.

第2の動作によってDRAM226に記憶された画素データ列は、LV表示に用いられる。画像処理回路214は、DRAM226に記憶された画素データR、Gr、Gb、Bから表示画像データを生成する。 The pixel data string stored in the DRAM 226 by the second operation is used for the LV display. The image processing circuit 214 generates display image data from the pixel data R, Gr, Gb, and B stored in the DRAM 226.

以上のような高速動作では、読み出し時間が短縮され得る。また、高速動作における第2の動作では、焦点検出画素信号の生成と読み出しは行われない。したがって、第2の動作では、焦点検出画素信号の生成と読み出しの分の時間を表示画素信号のための生成と読み出しに使用することができる。このため、高速動作を可能としつつ、表示の品質を高く保つことができる。一方で、第1の動作において垂直方向の加算数が抑えられていることにより、水平方向の位相差検出だけで精度よく被写体の焦点検出を行うことができる。 In the high-speed operation as described above, the read time can be shortened. Further, in the second operation in the high-speed operation, the focus detection pixel signal is not generated and read out. Therefore, in the second operation, the time for the generation and reading of the focus detection pixel signal can be used for the generation and reading for the display pixel signal. Therefore, it is possible to maintain high display quality while enabling high-speed operation. On the other hand, since the addition number in the vertical direction is suppressed in the first operation, it is possible to accurately detect the focus of the subject only by detecting the phase difference in the horizontal direction.

ここで、図6の説明に戻る。ステップS201において高速読み出し条件を満たさないと判定されたときのステップS203において、制御回路302は、低輝度動作を行う。低輝度動作の終了後、処理は終了する。 Here, the explanation returns to FIG. In step S203 when it is determined in step S201 that the high-speed read condition is not satisfied, the control circuit 302 performs a low-luminance operation. After the low-luminance operation ends, the process ends.

以下、低輝度動作について説明する。図12は、低輝度動作について説明するためのタイミングチャートである。ここで、図12の「VD」は、図7と同様に制御回路302に入力される同期信号(垂直同期信号)のタイミングを示している。VD(1)はAFのための撮像と読み出しとを含む第1の動作のタイミングを示す垂直同期信号であり、VD(2)はLV表示のための撮像と読み出しとを含む第2の動作のタイミングを示す垂直同期信号である。低輝度動作においても、第1の動作と第2の動作とは、垂直同期信号の入力に応じて交互に行われる。そして、第1の動作と第2の動作とは1フレームの間に1回ずつ行われる。この場合、ステップS104及びS111の処理は1フレーム毎に行われる。以下、低輝度動作における第1の動作及び第2の動作のそれぞれについて詳しく説明する。 Hereinafter, the low-luminance operation will be described. FIG. 12 is a timing chart for explaining the low-luminance operation. Here, “VD” in FIG. 12 indicates the timing of the synchronization signal (vertical synchronization signal) input to the control circuit 302 as in FIG. 7. VD (1) is a vertical synchronization signal indicating the timing of the first operation including imaging and readout for AF, and VD (2) is a second operation including imaging and readout for LV display. It is a vertical synchronization signal indicating timing. Even in the low-luminance operation, the first operation and the second operation are alternately performed in response to the input of the vertical synchronization signal. Then, the first operation and the second operation are performed once in one frame. In this case, the processing of steps S104 and S111 is performed for each frame. Hereinafter, each of the first operation and the second operation in the low-luminance operation will be described in detail.

まず、低輝度動作における第1の動作について説明する。図12のAF(rl)で示す第1の動作は、高速動作における第1の動作と同様の第1の瞳分割方向に関する焦点検出画素信号の生成と読み出しのための動作である。第1の動作に先立って、制御回路302は、画素部303から左開口画素信号l(Rl、Grl、Gbl、Bl)と右開口画素信号r(Rr、Grr、Gbr、Br)とが出力されるように画素部303の設定を切り替える。また、制御回路302は、画素信号の読み出し時間の短縮を図るために、画素部303の間の画素加算の設定を行う。 First, the first operation in the low-luminance operation will be described. The first operation shown by AF (rl) in FIG. 12 is an operation for generating and reading a focus detection pixel signal with respect to the first pupil division direction similar to the first operation in the high-speed operation. Prior to the first operation, the control circuit 302 outputs the left aperture pixel signal l (Rl, Grl, Gbl, Bl) and the right aperture pixel signal r (Rr, Grr, Gbr, Br) from the pixel unit 303. The setting of the pixel unit 303 is switched so as to be. Further, the control circuit 302 sets the pixel addition between the pixel units 303 in order to shorten the pixel signal reading time.

図13は、低輝度動作における第1の動作の画素加算の設定の例を示している。図13に示すように、第1の動作では、第1の瞳分割方向である水平方向については加算が行われずに、第2の瞳分割方向である垂直方向についてだけ加算が行われるように設定がされる。図13の例では、水平方向については同一開口(左開口同士又は右開口同士)の画素信号をH1/1画素加算するように設定され、垂直方向については同一開口(左開口同士又は右開口同士)の画素信号をV9/9画素加算するように設定される。なお、垂直方向の画素信号の加算数は例えばフレームレートに応じて適宜に設定される。 FIG. 13 shows an example of setting the pixel addition of the first operation in the low-luminance operation. As shown in FIG. 13, in the first operation, the addition is not performed in the horizontal direction which is the first pupil division direction, and the addition is performed only in the vertical direction which is the second pupil division direction. Will be done. In the example of FIG. 13, the pixel signals of the same openings (left openings or right openings) are set to be added by H1 / 1 pixels in the horizontal direction, and the same openings (left openings or right openings) are added in the vertical direction. ) Is set to add V9 / 9 pixels. The number of additions of the pixel signals in the vertical direction is appropriately set according to, for example, the frame rate.

図13の設定により、画素信号の行数が9分の1に圧縮される。画素信号の行数が減ることにより、画素信号の読み出し時間は短縮される。一方で、画素信号の列数は変わらないので水平方向の位相差の検出精度は確保される。さらに、後で説明するように、低輝度動作における第2の動作では、第2の瞳分割方向に関する焦点検出画素信号の生成と読み出しが行われる。このため、低輝度動作における第1の動作では、水平方向の位相差を精度よく検出できればよい。したがって、低輝度動作における第1の動作では、垂直方向の加算数を多くすることでS/Nの向上が図られている。 By the setting of FIG. 13, the number of rows of the pixel signal is compressed to 1/9. By reducing the number of rows of the pixel signal, the read time of the pixel signal is shortened. On the other hand, since the number of columns of the pixel signal does not change, the detection accuracy of the phase difference in the horizontal direction is ensured. Further, as will be described later, in the second operation in the low-luminance operation, the focus detection pixel signal with respect to the second pupil division direction is generated and read out. Therefore, in the first operation in the low-luminance operation, it is sufficient that the phase difference in the horizontal direction can be detected with high accuracy. Therefore, in the first operation in the low-luminance operation, the S / N is improved by increasing the addition number in the vertical direction.

図13のような設定の後、CPU212は、撮像素子208に対して焦点検出画素信号を生成するために必要な露光時間での撮像を行うように制御信号を出力する。この露光時間は、被写体輝度等に基づいて設定される。 After the setting as shown in FIG. 13, the CPU 212 outputs a control signal to the image pickup device 208 so as to perform imaging at the exposure time required for generating the focus detection pixel signal. This exposure time is set based on the subject brightness and the like.

CPU212からの制御信号の入力を受けて、制御回路302は、画素部303の行毎に撮像(電荷の蓄積)を開始させる。そして、制御回路302は、垂直走査回路304を制御し、撮像が完了した行の画素部303から順次に画素信号を出力させる。 Upon receiving the input of the control signal from the CPU 212, the control circuit 302 starts imaging (charge accumulation) for each row of the pixel unit 303. Then, the control circuit 302 controls the vertical scanning circuit 304 to sequentially output pixel signals from the pixel unit 303 in the row where the imaging is completed.

ここで、水平方向の位相差の検出は、例えばGrの左開口画素信号Grlと右開口画素信号Grrの対及びGbの左開口画素信号Gblと右開口画素信号Gbrの対を用いて行われる。すなわち、Rの左開口画素信号Rlと右開口画素信号Rrの対及びBの左開口画素信号Blと右開口画素信号Brの対は必ずしも読み出される必要はない。一方で、図14に示すように、左開口画素信号Rlと右開口画素信号Rrの対及び左開口画素信号Gblと右開口画素信号Gbrの対も併せて読み出されてもよい。 Here, the detection of the phase difference in the horizontal direction is performed by using, for example, a pair of Gr's left-opening pixel signal Grl and right-opening pixel signal Grr and a pair of Gb's left-opening pixel signal Gbl and right-opening pixel signal Gbr. That is, the pair of the left aperture pixel signal Rl of R and the right aperture pixel signal Rr and the pair of the left aperture pixel signal Bl of B and the right aperture pixel signal Br do not necessarily have to be read out. On the other hand, as shown in FIG. 14, a pair of the left aperture pixel signal Rl and the right aperture pixel signal Rr and a pair of the left aperture pixel signal Gbl and the right aperture pixel signal Gbr may also be read out.

画素部303から読み出された画素信号は、アナログ処理回路305においてアナログ処理される。アナログ処理された画素信号は、ADC処理回路306においてデジタル信号である画素データに変換される。画素データは、メモリ回路307に記憶される。前述したように、図13で示した加算は、メモリ回路307において行われてもよい。さらには、低輝度動作の第1の動作においては、撮像素子208から読み出された垂直方向に隣接する同一開口の画素データが、例えばメモリ回路307においてさらに加算されてもよい。これにより、さらなるS/Nの向上が図られる。 The pixel signal read from the pixel unit 303 is analog-processed in the analog processing circuit 305. The analog-processed pixel signal is converted into pixel data, which is a digital signal, in the ADC processing circuit 306. The pixel data is stored in the memory circuit 307. As described above, the addition shown in FIG. 13 may be performed in the memory circuit 307. Further, in the first operation of the low-luminance operation, the pixel data of the same aperture vertically adjacent to each other read from the image pickup element 208 may be further added in, for example, the memory circuit 307. As a result, the S / N can be further improved.

水平走査回路308は、制御回路302からの制御信号を受けてメモリ回路307に記憶されている画素データを列順で出力回路309に転送させる。出力回路309は、水平走査回路308によって転送された画素データを配列して画素データ列を生成し、生成した画素データ列をシリアル信号及び差動信号等の所定の出力信号形式に変換して出力する。この画素データ列は、例えば図14に示すようにしてDRAM226に記憶される。このようにして第1の動作は完了する。 The horizontal scanning circuit 308 receives the control signal from the control circuit 302 and transfers the pixel data stored in the memory circuit 307 to the output circuit 309 in column order. The output circuit 309 arranges the pixel data transferred by the horizontal scanning circuit 308 to generate a pixel data string, converts the generated pixel data string into a predetermined output signal format such as a serial signal and a differential signal, and outputs the data. do. This pixel data string is stored in the DRAM 226 as shown in FIG. 14, for example. In this way, the first operation is completed.

第1の動作によってDRAM226に記憶された画素データ列は、ピントずれ量算出のための相関演算に用いられる。焦点検出回路218は、DRAM226に記憶されている左開口画素データGrlと右開口画素データGrrの対及び左開口画素データGblと右開口画素データGbrの対を用いて相関演算を行う。 The pixel data string stored in the DRAM 226 by the first operation is used for the correlation calculation for calculating the out-of-focus amount. The focus detection circuit 218 performs a correlation calculation using a pair of left aperture pixel data Grl and right aperture pixel data Grr and a pair of left aperture pixel data Gbl and right aperture pixel data Gbr stored in the DRAM 226.

次に、低輝度動作における第2の動作について説明する。図7のLVで示す第2の動作は、表示画素信号の生成と読み出し(LV)を主とした動作である。ただし、本実施形態では、第2の動作において第2の瞳分割方向に関する焦点検出画素信号の生成と読み出し(AF(tb))も行われる。第2の動作に先立って、制御回路302は、画素部303から上開口画素信号t(Rt、Grt、Gbt、Bt)と下開口画素信号b(Rb、Grb、Gbb、Bb)とが出力されるように画素部303の設定を切り替える。また、制御回路302は、画素信号の読み出し時間の短縮を図るために、画素部303の間の画素加算の設定を行う。 Next, the second operation in the low-luminance operation will be described. The second operation shown by LV in FIG. 7 is an operation mainly for generating and reading (LV) a display pixel signal. However, in the present embodiment, the generation and reading (AF (tb)) of the focus detection pixel signal regarding the second pupil division direction are also performed in the second operation. Prior to the second operation, the control circuit 302 outputs the upper aperture pixel signal t (Rt, Grt, Gbt, Bt) and the lower aperture pixel signal b (Rb, Grb, Gbb, Bb) from the pixel unit 303. The setting of the pixel unit 303 is switched so as to be. Further, the control circuit 302 sets the pixel addition between the pixel units 303 in order to shorten the pixel signal reading time.

図15は、低輝度動作における第2の動作の画素加算の設定の例を示している。第2の動作では、第1の瞳分割方向である水平方向及び第2の瞳分割方向である垂直方向の両方で加算が行われるように設定がされる。図15の例では、水平方向についてはH3/3画素加算するように、また、垂直方向についてはV3/3画素加算するように設定されている。なお、低輝度動作における第2の動作では、水平方向については3≦n≦5、かつ、3≦m≦5、かつ、n≦mであることが望ましく、垂直方向については1≦n≦3、かつ、1≦m≦3、かつ、n≦mであることが望ましい。前述した高速動作の第1の動作と同様に、画素の加算数が5画素以下に抑えられることで垂直方向の位相差の検出精度を確保することができる。 FIG. 15 shows an example of setting the pixel addition of the second operation in the low-luminance operation. In the second operation, the addition is set so that the addition is performed in both the horizontal direction which is the first pupil division direction and the vertical direction which is the second pupil division direction. In the example of FIG. 15, H3 / 3 pixels are added in the horizontal direction, and V3 / 3 pixels are added in the vertical direction. In the second operation in the low-luminance operation, it is desirable that 3 ≦ n ≦ 5, 3 ≦ m ≦ 5, and n ≦ m in the horizontal direction, and 1 ≦ n ≦ 3 in the vertical direction. It is desirable that 1 ≦ m ≦ 3 and n ≦ m. Similar to the first operation of the high-speed operation described above, the addition number of pixels is suppressed to 5 pixels or less, so that the detection accuracy of the phase difference in the vertical direction can be ensured.

図15の設定により、画素信号の行数及び列数はそれぞれ約3分の1に圧縮される。画素信号の行数及び列数が減ることにより、画素信号の読み出し時間は短縮される。なお、画素信号の加算数はこれに限定されない。ただし、第2の動作では、画素信号の加算数が多くなると表示の際の画質は劣化する。また、垂直方向の画素信号の加算数が多くなると、垂直方向の位相差の検出精度も低下する。したがって、画素信号の加算数は、読み出し時間と表示の際の画質及び垂直方向の位相差の検出精度とのトレードオフによって適宜に決められることが望ましい。 By the setting of FIG. 15, the number of rows and the number of columns of the pixel signal are each compressed to about one-third. By reducing the number of rows and columns of the pixel signal, the read time of the pixel signal is shortened. The number of pixel signals to be added is not limited to this. However, in the second operation, the image quality at the time of display deteriorates as the number of additions of the pixel signals increases. Further, as the number of additions of the pixel signals in the vertical direction increases, the accuracy of detecting the phase difference in the vertical direction also decreases. Therefore, it is desirable that the number of pixel signal additions is appropriately determined by a trade-off between the readout time, the image quality at the time of display, and the detection accuracy of the phase difference in the vertical direction.

図15のような設定の後、CPU212は、撮像素子208に対して焦点検出画素信号を生成するために必要な露光時間での撮像を行うように制御信号を出力する。この露光時間は、被写体輝度等に基づいて設定される。 After the setting as shown in FIG. 15, the CPU 212 outputs a control signal to the image pickup device 208 so as to perform imaging at the exposure time required for generating the focus detection pixel signal. This exposure time is set based on the subject brightness and the like.

CPU212からの制御信号の入力を受けて、制御回路302は、画素部303の行毎に撮像(電荷の蓄積)を開始させる。そして、制御回路302は、垂直走査回路304を制御し、撮像が完了した行の画素部303から順次に画素信号を出力させる。 Upon receiving the input of the control signal from the CPU 212, the control circuit 302 starts imaging (charge accumulation) for each row of the pixel unit 303. Then, the control circuit 302 controls the vertical scanning circuit 304 to sequentially output pixel signals from the pixel unit 303 in the row where the imaging is completed.

画素部303から読み出された画素信号は、アナログ処理回路305においてアナログ処理される。アナログ処理された画素信号は、ADC処理回路306においてデジタル信号である画素データに変換される。画素データは、メモリ回路307に記憶される。第2の動作では、表示画像データのためR、Gr、Gb、Bの画素信号が必要となる。このため、メモリ回路307には、上開口画素信号Rt、Grt、Gbt、Btと下開口画素信号Rb、Grb、Gbb、Bbのそれぞれが詰められずに記憶される。 The pixel signal read from the pixel unit 303 is analog-processed in the analog processing circuit 305. The analog-processed pixel signal is converted into pixel data, which is a digital signal, in the ADC processing circuit 306. The pixel data is stored in the memory circuit 307. In the second operation, pixel signals of R, Gr, Gb, and B are required for the display image data. Therefore, the upper aperture pixel signals Rt, Grt, Gbt, and Bt and the lower aperture pixel signals Rb, Grb, Gbb, and Bb are stored in the memory circuit 307 without being packed.

水平走査回路308は、制御回路302からの制御信号を受けてメモリ回路307に記憶されている画素データを列順で出力回路309に転送させる。出力回路309は、水平走査回路308によって転送された画素データを配列して画素データ列を生成し、生成した画素データ列をシリアル信号及び差動信号等の所定の出力信号形式に変換して出力する。この画素データ列は、例えば図16に示すようにしてDRAM226に記憶される。このようにして第2の動作は完了する。 The horizontal scanning circuit 308 receives the control signal from the control circuit 302 and transfers the pixel data stored in the memory circuit 307 to the output circuit 309 in column order. The output circuit 309 arranges the pixel data transferred by the horizontal scanning circuit 308 to generate a pixel data string, converts the generated pixel data string into a predetermined output signal format such as a serial signal and a differential signal, and outputs the data. do. This pixel data string is stored in the DRAM 226 as shown in FIG. 16, for example. In this way, the second operation is completed.

第2の動作によってDRAM226に記憶された画素データ列は、LV表示に用いられる。前述したように、表示画像データは、同一の画素部303に属する受光部lt、rt、lb、rbの画素データを加算平均することで得られる。したがって、画像処理回路214は、上開口画素データt(Rt、Grt、Gbt、Bt)と下開口画素データb(Rb、Grb、Gbb、Bb)とを加算平均して表示画像データを生成する。 The pixel data string stored in the DRAM 226 by the second operation is used for the LV display. As described above, the display image data is obtained by adding and averaging the pixel data of the light receiving units lt, rt, lb, and rb belonging to the same pixel unit 303. Therefore, the image processing circuit 214 generates display image data by adding and averaging the upper opening pixel data t (Rt, Grt, Gbt, Bt) and the lower opening pixel data b (Rb, Grb, Gbb, Bb).

また、第2の動作によってDRAM226に記憶された画素データ列は、ピントずれ量算出のための相関演算に用いられる。焦点検出回路218は、DRAM226に記憶されている上開口画素データGrt及び下開口画素データGrbの対を用いて相関演算を行う。また、焦点検出回路218は、DRAM226に記憶されている上開口画素データGbt及び下開口画素データGbbの対を用いて相関演算を行う。すなわち、上下開口画素データGrt、Grb、Gbt、Gbbは、DRAM226から2回読み出される。 Further, the pixel data string stored in the DRAM 226 by the second operation is used for the correlation calculation for calculating the focus shift amount. The focus detection circuit 218 performs the correlation calculation using the pair of the upper aperture pixel data Grt and the lower aperture pixel data Grb stored in the DRAM 226. Further, the focus detection circuit 218 performs the correlation calculation using the pair of the upper aperture pixel data Gbt and the lower aperture pixel data Gbb stored in the DRAM 226. That is, the upper and lower aperture pixel data Grt, Grb, Gbt, and Gbb are read out twice from the DRAM 226.

以上のような低輝度動作では、水平方向及び垂直方向の両方で位相差検出を行うことができる。このため、第1の動作では、垂直方向の加算数を多くすることで、低輝度下であっても、水平方向の位相差の検出精度を確保することができる。また、第2の動作では、表示のための画素信号の読み出し時間を確保しながら、垂直方向の位相差の検出精度を確保することができる。 In the low-luminance operation as described above, the phase difference can be detected in both the horizontal direction and the vertical direction. Therefore, in the first operation, by increasing the addition number in the vertical direction, it is possible to secure the detection accuracy of the phase difference in the horizontal direction even under low luminance. Further, in the second operation, it is possible to secure the detection accuracy of the phase difference in the vertical direction while ensuring the reading time of the pixel signal for display.

以上説明したように本実施形態では、高速動作が要求される場合の第1の動作では、第1の瞳分割方向については画素信号の加算をせずに、第2の瞳分割方向についてだけ画素信号の加算をすることで第1の瞳分割方向についての焦点検出性能を確保することができる。また、第2の瞳分割方向についての画素信号の加算数を所定画素数以下に抑えることにより、第1の動作において実質的に第2の瞳分割方向についての焦点検出も含まれた斜め方向の焦点検出を行うことができる。その上で、第2の動作においては焦点検出のための画素信号の生成及び読み出しを行わないようにすることでライブビュー表示のための時間を確保することができる。 As described above, in the present embodiment, in the first operation when high-speed operation is required, the pixel signal is not added in the first pupil division direction, and the pixels are obtained only in the second pupil division direction. By adding the signals, the focus detection performance in the first pupil division direction can be ensured. Further, by suppressing the addition number of the pixel signals in the second pupil division direction to a predetermined number of pixels or less, the diagonal direction including the focus detection substantially in the second pupil division direction in the first operation. Focus detection can be performed. In addition, in the second operation, the time for the live view display can be secured by not generating and reading the pixel signal for the focus detection.

また、低輝度における焦点検出性能が要求される場合の第1の動作では、第1の瞳分割方向については画素信号の加算をせずに、第2の瞳分割方向についてだけ画素信号の加算を適宜に設定することで第1の瞳分割方向についての焦点検出性能を確保することができる。また、第2の動作においては第2の瞳分割方向についての画素信号の加算数を所定画素数以下に抑えることによりライブビュー表示のための時間を確保しつつ、第2の瞳分割方向についての焦点検出性能を確保することができる。 Further, in the first operation when the focus detection performance at low luminance is required, the pixel signal is not added in the first pupil division direction, but the pixel signal is added only in the second pupil division direction. By setting it appropriately, it is possible to secure the focus detection performance in the first pupil division direction. Further, in the second operation, the addition number of the pixel signals in the second pupil division direction is suppressed to a predetermined number of pixels or less to secure the time for the live view display, and the second pupil division direction. Focus detection performance can be ensured.

以上のようにして本実施形態では、連写中において位相差方式の焦点検出性能を確保しながら、ライブビュー表示のための時間も確保することができる。 As described above, in the present embodiment, it is possible to secure the time for the live view display while ensuring the focus detection performance of the phase difference method during continuous shooting.

[変形例]
前述した実施形態では、第1の瞳分割方向を水平方向とし、第2の瞳分割方向を垂直方向としている。逆に、第1の瞳分割方向を垂直方向とし、第2の瞳分割方向を水平方向としてもよい。この場合、第1の動作においては上下開口画素信号が出力されるように画素部303の設定がなされるとともに、第2の動作においては左右開口画素信号が出力されるように画素部303の設定がなされる。
[Modification example]
In the above-described embodiment, the first pupil division direction is the horizontal direction and the second pupil division direction is the vertical direction. On the contrary, the first pupil division direction may be the vertical direction and the second pupil division direction may be the horizontal direction. In this case, the pixel unit 303 is set so that the upper and lower aperture pixel signals are output in the first operation, and the pixel unit 303 is set so that the left and right aperture pixel signals are output in the second operation. Is done.

また、前述した実施形態では、画素部303における画素加算の設定等は、撮像素子208の内部に設けられた制御回路302によって行われる。制御回路302は、撮像素子208の外部に設けられていてもよい。この場合、例えばCPU212が制御回路302と同じ処理を実行できるように構成されていてもよい。 Further, in the above-described embodiment, the pixel addition setting and the like in the pixel unit 303 are performed by the control circuit 302 provided inside the image pickup device 208. The control circuit 302 may be provided outside the image pickup device 208. In this case, for example, the CPU 212 may be configured to perform the same processing as the control circuit 302.

また、前述した第1の動作では、第2の瞳分割方向である垂直方向に並ぶ同一開口の画素信号を加算してから画素部303から出力させることによって読み出し時間の短縮を図っている。これに対し、画素信号を間引いて読み出すことでも読み出し時間は短縮され得る。 Further, in the first operation described above, the readout time is shortened by adding the pixel signals of the same aperture arranged in the vertical direction, which is the second pupil division direction, and then outputting the pixels from the pixel unit 303. On the other hand, the read time can be shortened by thinning out the pixel signals and reading them.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。 Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and it goes without saying that various modifications and applications are possible within the scope of the gist of the present invention.

また、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。 Further, in the explanation of each operation flowchart described above, the operation is described using "first", "next", etc. for convenience, but it does not mean that it is essential to perform the operation in this order. do not have.

また、上述した実施形態による各処理は、コンピュータであるCPU212又は制御回路302に実行させることができるプログラムとして記憶させておくこともできる。この他、磁気ディスク、光ディスク、半導体メモリ等の外部記憶装置の記憶媒体に格納して配布することができる。そして、CPU212又は制御回路302は、この外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。 Further, each process according to the above-described embodiment can be stored as a program that can be executed by the CPU 212 or the control circuit 302, which is a computer. In addition, it can be stored and distributed in a storage medium of an external storage device such as a magnetic disk, an optical disk, or a semiconductor memory. Then, the CPU 212 or the control circuit 302 reads the program stored in the storage medium of the external storage device, and the operation is controlled by the read program, so that the above-mentioned processing can be executed.

本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。 The present invention is not limited to the above embodiment, and can be variously modified at the implementation stage without departing from the gist thereof. In addition, each embodiment may be carried out in combination as appropriate, in which case the combined effect can be obtained. Further, the above-described embodiment includes various inventions, and various inventions can be extracted by a combination selected from a plurality of disclosed constituent requirements. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiment, if the problem can be solved and the effect is obtained, the configuration in which the constituent elements are deleted can be extracted as an invention.

1 撮像装置、100 交換式レンズ、102 撮像光学系、104 駆動部、106 レンズCPU、108 レンズ側記憶部、110 インターフェイス(I/F)、200 カメラ本体、202 メカシャッター、204 駆動部、206 操作部、208 撮像素子、210 手振れ補正回路、212 CPU、214 画像処理回路、216 画像圧縮展開部、218 焦点検出回路、220 露出制御回路、222 表示部、224 バス、226 DRAM、228 本体側記憶部、230 記録媒体、301 入力回路、302 制御回路、303 画素部、303a マイクロレンズ、303b カラーフィルタ、303c 画素、304 垂直走査回路、305 アナログ処理回路、306 アナログデジタル変換(ADC)処理回路、307 メモリ回路、308 水平走査回路、309 出力回路、1021 フォーカスレンズ、1022 絞り。 1 image sensor, 100 interchangeable lens, 102 image pickup optical system, 104 drive unit, 106 lens CPU, 108 lens side storage unit, 110 interface (I / F), 200 camera body, 202 mechanical shutter, 204 drive unit, 206 operation Unit, 208 image sensor, 210 camera shake correction circuit, 212 CPU, 214 image processing circuit, 216 image compression expansion unit, 218 focus detection circuit, 220 exposure control circuit, 222 display unit, 224 bus, 226 DRAM, 228 main unit side storage unit , 230 recording medium, 301 input circuit, 302 control circuit, 303 pixel section, 303a microlens, 303b color filter, 303c pixel, 304 vertical scanning circuit, 305 analog processing circuit, 306 analog-to-digital conversion (ADC) processing circuit, 307 memory. Circuit, 308 horizontal scanning circuit, 309 output circuit, 1021 focus lens, 1022 aperture.

Claims (4)

1個のマイクロレンズに対して撮像光学系の異なる射出瞳領域を通過するそれぞれの光束を光電変換して画素信号を生成するように第1の瞳分割方向及び前記第1の瞳分割方向と異なる第2の瞳分割方向に分割された複数の受光部が配置されている画素部を有し、前記第1の瞳分割方向或いは第2の瞳分割方向に対応する焦点検出画素信号、瞳分割に対応しない表示のための表示画素信号、又は記録のための静止画画素信号を出力する撮像部と、
記表示画素信号又は前記焦点検出画素信号を加算した画素信号に基づいて画像を表示するための処理及び前記静止画画素信号に基づいて静止画を記録媒体に記録するための処理をする画像処理回路と、
記焦点検出画素信号に基づいて焦点検出のための処理をする焦点検出回路と、
前記静止画画素信号に基づく静止画を前記記録媒体に記録する動作である静止画撮影を実行するとともに、前記静止画撮影の間にそれぞれが前記焦点検出画素信号又は前記表示画素信号の生成と読み出しとを含む第1の動作と第2の動作とを交互に行うように前記撮像部を制御する制御回路と、
被写体輝度を測定する測光部と、
を具備し、
前記制御回路は、前記被写体輝度に関わらず前記第1の動作においては複数の前記画素部にて生成される前記画素信号が、前記画素部内で前記第2の瞳分割方向に加算された後で、前記複数の画素部の間で前記第1の瞳分割方向について加算されずに、前記第2の瞳分割方向について加算されて又は間引かれて前記焦点検出画素信号が生成されるように前記撮像部を制御し、
前記被写体輝度が高い場合の前記第2の動作において、前記表示画素信号が生成され、前記被写体輝度が低い場合の前記第2の動作において、複数の前記画素部にて生成される前記画素信号が、前記画素部内で前記第1の瞳分割方向に加算された後で、前記複数の画素部の間で前記第の瞳分割方向について加算された前記焦点検出画素信号が生成されるように前記撮像部を制御し、
前記画像処理回路は、前記被写体輝度が高い場合に、前記表示画素信号に基づいて画像を表示するための処理をし、前記被写体輝度が低い場合に、前記複数の画素部の間で前記第1の瞳分割方向に加算され生成された前記焦点検出画素信号であって、前記複数の画素部にて前記第2の瞳分割方向にて対を成す前記焦点検出画素信号を加算した画素信号に基づいて画像を表示するための処理をする焦点検出装置。
It is different from the first pupil division direction and the first pupil division direction so as to generate a pixel signal by photoelectric conversion of each light beam passing through different exit pupil regions of the imaging optical system for one microlens. It has a pixel unit in which a plurality of light receiving units divided in the second pupil division direction are arranged, and is used for a focus detection pixel signal corresponding to the first pupil division direction or the second pupil division direction, and pupil division. An image pickup unit that outputs a display pixel signal for display that does not correspond or a still image pixel signal for recording .
A process for displaying an image based on the display pixel signal or a pixel signal to which the focus detection pixel signal is added, and a process for recording a still image on a recording medium based on the still image pixel signal. Image processing circuit and
A focus detection circuit that performs processing for focus detection based on the focus detection pixel signal, and
While performing still image shooting, which is an operation of recording a still image based on the still image pixel signal on the recording medium, each of them generates and reads out the focus detection pixel signal or the display pixel signal during the still image shooting. A control circuit that controls the image pickup unit so as to alternately perform the first operation and the second operation including
A photometric unit that measures the brightness of the subject,
Equipped with
In the control circuit, after the pixel signals generated by the plurality of pixel portions in the first operation are added in the pixel portion in the second pupil division direction regardless of the subject brightness . The focus detection pixel signal is generated so that the focus detection pixel signal is generated by being added or thinned in the second pupil division direction without being added in the first pupil division direction among the plurality of pixel portions. Control the image pickup unit,
In the second operation when the subject brightness is high , the display pixel signal is generated, and in the second operation when the subject brightness is low, the pixel signals generated by the plurality of pixel portions are generated. After being added in the first pupil division direction in the pixel portion, the focus detection pixel signal added in the first pupil division direction is generated among the plurality of pixel portions. By controlling the image pickup unit,
The image processing circuit performs processing for displaying an image based on the display pixel signal when the subject brightness is high, and the first among the plurality of pixel portions when the subject brightness is low. The focus detection pixel signal generated by being added in the pupil division direction of the above, and based on the pixel signal obtained by adding the focus detection pixel signals paired in the second pupil division direction in the plurality of pixel portions. A focus detector that performs processing to display an image .
前記被写体輝度は、前記撮像部に設定される前記焦点検出のための領域である焦点検出領域の輝度であり、
前記制御回路は、前記撮像光学系の絞り値と前記焦点検出領域の輝度とに基づいて、前記被写体輝度が低いか否かを判定する請求項に記載の焦点検出装置。
The subject brightness is the brightness of the focus detection area, which is the area for the focus detection set in the image pickup unit.
The focus detection device according to claim 1 , wherein the control circuit determines whether or not the subject brightness is low based on the aperture value of the image pickup optical system and the brightness of the focus detection region.
1個のマイクロレンズに対して撮像光学系の異なる射出瞳領域を通過するそれぞれの光束を光電変換して画素信号を生成するように第1の瞳分割方向及び前記第1の瞳分割方向と異なる第2の瞳分割方向に分割された複数の受光部が配置されている画素部を有し、前記第1の瞳分割方向或いは第2の瞳分割方向に対応する焦点検出画素信号、瞳分割に対応しない表示のための表示画素信号、又は記録のための静止画画素信号を出力する撮像部と、
前記表示画素信号又は前記焦点検出画素信号を加算した画素信号に基づいて画像を表示するための処理及び前記静止画画素信号に基づいて静止画を記録媒体に記録するための処理をする画像処理回路と、
前記焦点検出画素信号に基づいて焦点検出のための処理をする焦点検出回路と、
前記静止画画素信号に基づく静止画を前記記録媒体に記録する動作である静止画撮影を実行するとともに、前記静止画撮影の間にそれぞれが前記焦点検出画素信号又は前記表示画素信号の生成と読み出しとを含む第1の動作と第2の動作とを交互に行うように前記撮像部を制御する制御回路と、
を具備し、
前記制御回路は、前記静止画撮影を連続的に実行する際の静止画撮影の間隔に相当する連写速度に関わらず前記第1の動作においては複数の前記画素部にて生成される前記画素信号が、前記画素部内で前記第2の瞳分割方向に加算された後で、前記複数の画素部の間で前記第1の瞳分割方向について加算されずに、前記第2の瞳分割方向について加算されて又は間引かれて前記焦点検出画素信号が生成されるように前記撮像部を制御し、
前記連写速度が所定値を越える場合の前記第の動作においては前記表示画素信号が生成されるように前記撮像部を制御し、
前記連写速度が前記所定値以下の場合の前記第2の動作においては、複数の前記画素部にて生成される前記画素信号が、前記画素部内で前記第1の瞳分割方向に加算された後で、前記複数の画素部の間で前記第の瞳分割方向について加算された前記焦点検出画素信号が生成されるように前記撮像部を制御し、
前記画像処理回路は、前記連写速度が所定値を越える場合に、前記表示画素信号に基づいて画像を表示するための処理をし、前記連写速度が前記所定値以下の場合に、前記複数の画素部の間で前記第1の瞳分割方向に加算された前記焦点検出画素信号であって、前記複数の画素部にて前記第2の瞳分割方向にて対を成す前記焦点検出画素信号を加算した画素信号に基づいて画像を表示するための処理をする焦点検出装置。
It is different from the first pupil division direction and the first pupil division direction so as to generate a pixel signal by photoelectric conversion of each light beam passing through different exit pupil regions of the imaging optical system for one microlens. It has a pixel unit in which a plurality of light receiving units divided in the second pupil division direction are arranged, and is used for a focus detection pixel signal corresponding to the first pupil division direction or the second pupil division direction, and pupil division. An image pickup unit that outputs a display pixel signal for display that does not correspond or a still image pixel signal for recording.
An image processing circuit that performs processing for displaying an image based on the display pixel signal or a pixel signal to which the focus detection pixel signal is added, and processing for recording a still image on a recording medium based on the still image pixel signal. When,
A focus detection circuit that performs processing for focus detection based on the focus detection pixel signal, and
While performing still image shooting, which is an operation of recording a still image based on the still image pixel signal on the recording medium, each of them generates and reads out the focus detection pixel signal or the display pixel signal during the still image shooting. A control circuit that controls the image pickup unit so as to alternately perform the first operation and the second operation including
Equipped with
The control circuit has the pixels generated by the plurality of pixel portions in the first operation regardless of the continuous shooting speed corresponding to the still image shooting interval when the still image shooting is continuously executed. After the signal is added in the second pupil division direction in the pixel portion, the signal is not added in the first pupil division direction among the plurality of pixel portions, but in the second pupil division direction. The image pickup unit is controlled so that the focus detection pixel signal is generated by being added or thinned out.
In the second operation when the continuous shooting speed exceeds a predetermined value, the image pickup unit is controlled so that the display pixel signal is generated.
In the second operation when the continuous shooting speed is equal to or less than the predetermined value, the pixel signals generated by the plurality of pixel portions are added to the first pupil division direction in the pixel portions. Later, the image pickup unit is controlled so that the focus detection pixel signal added with respect to the first pupil division direction is generated among the plurality of pixel units .
The image processing circuit performs processing for displaying an image based on the display pixel signal when the continuous shooting speed exceeds a predetermined value, and when the continuous shooting speed is equal to or less than the predetermined value, the plurality of images are displayed. The focus detection pixel signal added in the first pupil division direction between the pixel portions, and the focus detection pixel signal paired in the second pupil division direction in the plurality of pixel portions. A focus detection device that performs processing for displaying an image based on the pixel signal obtained by adding the above.
1個のマイクロレンズに対して撮像光学系の異なる射出瞳領域を通過するそれぞれの光束を光電変換して画素信号を生成するように第1の瞳分割方向及び前記第1の瞳分割方向と異なる第2の瞳分割方向に分割された複数の受光部が配置されている画素部を有し、前記第1の瞳分割方向或いは第2の瞳分割方向に対応する焦点検出画素信号、瞳分割に対応しない表示のための表示画素信号、又は記録のための静止画画素信号を出力する撮像部を用いた焦点検出方法であって、
被写体輝度を測定することと、
前記被写体輝度に基づいて、記表示画素信号又は前記焦点検出画素信号を加算した画素信号に基づいて画像を表示するための処理をすることと、
記静止画画素信号に基づいて静止画を記録媒体に記録するための処理をすることと、
記焦点検出画素信号に基づいて焦点検出のための処理をすることと、
前記静止画画素信号に基づく静止画を前記記録媒体に記録する動作である静止画撮影を実行するとともに、前記静止画撮影の間にそれぞれが前記焦点検出画素信号又は前記表示画素信号の生成と読み出しとを含む第1の動作と第2の動作とを交互に行うように前記撮像部を制御することと、
を具備し、
前記撮像部を制御することは、前記被写体輝度に関わらず前記第1の動作においては複数の前記画素部にて生成される前記画素信号が、前記画素部内で前記第2の瞳分割方向に加算された後で、前記複数の画素部の間で前記第1の瞳分割方向について加算されずに、前記第2の瞳分割方向について加算されて又は間引かれて前記焦点検出画素信号が生成されるように前記撮像部を制御し、
前記被写体輝度が高い場合の前記第2の動作において、前記表示画素信号が生成され、前記被写体輝度が低い場合の前記第2の動作において、複数の前記画素部にて生成される前記画素信号が、前記画素部内で前記第1の瞳分割方向に加算された後で、前記複数の画素部の間で前記第の瞳分割方向について加算された前記焦点検出画素信号が生成されるように前記撮像部を制御することを含み、
前記画像を表示するための処理をすることは、前記被写体輝度が高い場合に、前記表示画素信号に基づいて画像を表示するための処理をし、前記被写体輝度が低い場合に、前記複数の画素部の間で前記第1の瞳分割方向に加算され生成された前記焦点検出画素信号であって、前記複数の画素部にて前記第2の瞳分割方向にて対を成す前記焦点検出画素信号を加算した画素信号に基づいて画像を表示するための処理をすることを含む焦点検出方法。
It is different from the first pupil division direction and the first pupil division direction so as to generate a pixel signal by photoelectric conversion of each light beam passing through different exit pupil regions of the imaging optical system for one microlens. It has a pixel unit in which a plurality of light receiving units divided in the second pupil division direction are arranged, and is used for a focus detection pixel signal corresponding to the first pupil division direction or the second pupil division direction, and pupil division. It is a focus detection method using an image pickup unit that outputs a display pixel signal for display that does not correspond or a still image pixel signal for recording .
Measuring the subject brightness and
Processing for displaying an image based on the pixel signal obtained by adding the display pixel signal or the focus detection pixel signal based on the subject luminance is performed.
Processing for recording a still image on a recording medium based on the still image pixel signal, and
Processing for focus detection based on the focus detection pixel signal and
While performing still image shooting, which is an operation of recording a still image based on the still image pixel signal on the recording medium, each of them generates and reads out the focus detection pixel signal or the display pixel signal during the still image shooting. Controlling the image pickup unit so as to alternately perform the first operation including and the second operation, and
Equipped with
Controlling the image pickup unit means that in the first operation, the pixel signals generated by the plurality of pixel units are added to the second pupil division direction in the pixel unit regardless of the subject brightness. After that, the focus detection pixel signal is generated by being added or thinned in the second pupil division direction without being added in the first pupil division direction among the plurality of pixel portions. By controlling the image pickup unit so as to
In the second operation when the subject brightness is high , the display pixel signal is generated, and in the second operation when the subject brightness is low, the pixel signals generated by the plurality of pixel portions are generated. After being added in the first pupil division direction in the pixel portion, the focus detection pixel signal added in the first pupil division direction is generated among the plurality of pixel portions. Including controlling the image pickup unit
The process for displaying the image is a process for displaying an image based on the display pixel signal when the subject brightness is high, and the plurality of pixels when the subject brightness is low. The focus detection pixel signal generated by being added in the first pupil division direction between the portions, and the focus detection pixel signal paired in the second pupil division direction in the plurality of pixel portions. A focus detection method including processing for displaying an image based on a pixel signal obtained by adding a pixel signal .
JP2017224790A 2017-10-11 2017-11-22 Focus detection device and focus detection method Active JP7027133B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017224790A JP7027133B2 (en) 2017-11-22 2017-11-22 Focus detection device and focus detection method
US16/157,023 US10582112B2 (en) 2017-10-11 2018-10-10 Focus detection device, focus detection method, and storage medium storing focus detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017224790A JP7027133B2 (en) 2017-11-22 2017-11-22 Focus detection device and focus detection method

Publications (2)

Publication Number Publication Date
JP2019095593A JP2019095593A (en) 2019-06-20
JP7027133B2 true JP7027133B2 (en) 2022-03-01

Family

ID=66971624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017224790A Active JP7027133B2 (en) 2017-10-11 2017-11-22 Focus detection device and focus detection method

Country Status (1)

Country Link
JP (1) JP7027133B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002258142A (en) 2001-02-28 2002-09-11 Canon Inc Imaging apparatus
JP2004191651A (en) 2002-12-11 2004-07-08 Canon Inc Imaging apparatus
JP2016219866A (en) 2015-05-14 2016-12-22 オリンパス株式会社 Imaging apparatus and control method for imaging apparatus
JP2017054052A (en) 2015-09-11 2017-03-16 キヤノン株式会社 Control device, imaging device, control method, program, and storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002258142A (en) 2001-02-28 2002-09-11 Canon Inc Imaging apparatus
JP2004191651A (en) 2002-12-11 2004-07-08 Canon Inc Imaging apparatus
JP2016219866A (en) 2015-05-14 2016-12-22 オリンパス株式会社 Imaging apparatus and control method for imaging apparatus
JP2017054052A (en) 2015-09-11 2017-03-16 キヤノン株式会社 Control device, imaging device, control method, program, and storage medium

Also Published As

Publication number Publication date
JP2019095593A (en) 2019-06-20

Similar Documents

Publication Publication Date Title
US10582112B2 (en) Focus detection device, focus detection method, and storage medium storing focus detection program
US8471952B2 (en) Image pickup apparatus
US9843735B2 (en) Image processing apparatus, imaging apparatus comprising the same, and image processing method
CN106161926B (en) The control method of photographic device and photographic device
US10560623B2 (en) Imaging element and imaging device
JP6944846B2 (en) Imaging device, control method of imaging device
JP6702777B2 (en) Imaging device, imaging method, and program
JP2013218297A (en) Focus adjustment device and focus adjustment method
JP5620196B2 (en) Imaging device
JP2020053771A (en) Image processing apparatus and imaging apparatus
US8902294B2 (en) Image capturing device and image capturing method
JP5302058B2 (en) Imaging apparatus and imaging method
JP6600458B2 (en) Image sensor, focus detection apparatus, and focus detection method
JP2017194558A (en) Imaging device and imaging method
JP2020012879A (en) Imaging element, focus detection device, imaging method, and focus detection method
JP4187512B2 (en) Imaging device
JP5354879B2 (en) camera
JP7027133B2 (en) Focus detection device and focus detection method
JP7277284B2 (en) Focus adjustment device and focus adjustment method
JP6929752B2 (en) Focus detection device and focus detection method
JP3738654B2 (en) Digital camera
WO2021241015A1 (en) Imaging device and imaging method
JP2014239316A (en) Imaging device and control method for the same
US20230217126A1 (en) Imaging apparatus, imaging method
JP7079161B2 (en) Imaging device and its control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220216

R151 Written notification of patent or utility model registration

Ref document number: 7027133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151