JP2020048135A - Imaging apparatus and control method of the same - Google Patents

Imaging apparatus and control method of the same Download PDF

Info

Publication number
JP2020048135A
JP2020048135A JP2018176701A JP2018176701A JP2020048135A JP 2020048135 A JP2020048135 A JP 2020048135A JP 2018176701 A JP2018176701 A JP 2018176701A JP 2018176701 A JP2018176701 A JP 2018176701A JP 2020048135 A JP2020048135 A JP 2020048135A
Authority
JP
Japan
Prior art keywords
signal
scan
pixel
image
row
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018176701A
Other languages
Japanese (ja)
Inventor
長谷川 玲治
Reiji Hasegawa
玲治 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018176701A priority Critical patent/JP2020048135A/en
Publication of JP2020048135A publication Critical patent/JP2020048135A/en
Pending legal-status Critical Current

Links

Abstract

To improve low illuminance performance while suppressing subject blurring of a slow shutter phase difference detection pixel when lowering a frame rate in low light in video or live view.SOLUTION: In a slow shutter mode, an accumulation time of an image signal is extended, an accumulation time of a phase difference detection signal is not extended, the number of readout rows is increased, and the phase difference detection signal is added and calculated.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置及びその制御方法に関し、特に焦点検出技術に関する。   The present invention relates to an imaging apparatus and a control method thereof, and more particularly to a focus detection technique.

撮像装置において、撮像素子に位相差検出機能を組み込むことにより、撮影レンズのピントずれ量を求めることを可能とする技術が提案されている。   2. Description of the Related Art In an image pickup apparatus, a technique has been proposed that enables a focus shift amount of a photographic lens to be obtained by incorporating a phase difference detection function into an image pickup device.

特許文献1では、撮像素子の一部の受光素子において、受光部の感度領域をオンチップマイクロレンズの光軸に対して偏心させることで瞳分割機能を持たせている。そして、これらの受光素子を有する画素を、撮像素子中に所定の間隔で配置させることで位相差検出機能を実現している。   In Patent Literature 1, a pupil division function is provided by decentering a sensitivity region of a light receiving unit with respect to an optical axis of an on-chip micro lens in a part of light receiving elements of an imaging element. The pixels having these light receiving elements are arranged at predetermined intervals in the image pickup element to realize a phase difference detecting function.

特許文献2では、撮像素子の一つのマイクロレンズに対応する各画素に、A画素及びB画素の複数の光電変換素子を設け、A画素出力とA+B画素出力を読み出している。そして、A画素出力とA+B画素出力を減算処理することでB画素出力を求め、位相差検出機能を実現している。   In Patent Literature 2, a plurality of photoelectric conversion elements of A pixels and B pixels are provided in each pixel corresponding to one microlens of an imaging element, and an A pixel output and an A + B pixel output are read. Then, a B pixel output is obtained by subtracting the A pixel output and the A + B pixel output, thereby realizing a phase difference detection function.

これらの位相差検出を行う際に、低照度の環境で撮影する場合を考える。   When detecting these phase differences, a case in which an image is captured in an environment with low illuminance will be considered.

特許文献3の前提で書かれているように、低照度環境下ではスローシャッターモードのように蓄積時間を延ばす方法がある。これはビデオカメラなどで被写体ぶれはあっても、とりあえず被写体が映ればよい、という割り切りで広く行われている制御である。   As described on the premise of Patent Literature 3, there is a method of extending the storage time in a low illuminance environment like a slow shutter mode. This is a widely-used control in which, even if the subject is blurred in a video camera or the like, the subject only needs to be imaged for the time being.

このとき位相差検出画素の蓄積時間も延長されるが、画像は被写体ぶれを起こしやすくなり、位相差検出によくない影響が出る。かといって蓄積時間を短いままにすれば、そもそも信号レベルが低いので、位相差検出どころではなくなってしまう。   At this time, the accumulation time of the phase difference detection pixels is also prolonged, but the image is liable to shake the subject, which adversely affects the phase difference detection. On the other hand, if the accumulation time is kept short, the signal level is low in the first place, so that it is no longer a point of detection of the phase difference.

特開2010−219958号公報JP 2010-219958 A 特開2013−106194号公報JP 2013-106194 A 特許第5004888号公報Japanese Patent No. 5004888

特許文献3ではゲインをかけることによって問題を解決しようとしているが、ゲインをかけるとS/Nが低化し、やはり同様に位相差検出によくない影響が出る。   Patent Document 3 attempts to solve the problem by applying a gain. However, applying the gain lowers the S / N, which also has a bad effect on phase difference detection.

特許文献1のような読み出し方で位相差検出画素を含むライン数を増やすとしても、センサの画素読み出し速度に依存し、ハイビジョンや4Kと画素数が増加し、フレームレートも30fps、から60、120fpsと増加する中では、限界がある。   Even if the number of lines including the phase difference detection pixels is increased by the reading method as in Patent Document 1, the number of pixels increases to HDTV or 4K depending on the pixel reading speed of the sensor, and the frame rate also increases from 30 fps to 60 or 120 fps. There is a limit in increasing.

上記の課題を解決するために、本発明に係る撮像装置は、
被写体からの光を光電変換する単位画素が行列状に配列され、前記単位画素に生じた電荷に基づく画像生成用の第1の信号、及び前記単位画素の一部領域に生じた電荷に基づく位相差検出用の第2の信号を出力する撮像素子と、
前記第1の信号及び前記第2の信号を行毎に読み出すための走査を制御する走査回路と、
を備え、
前記走査回路は、
前記第1の信号を第1の周期で間引いて読み出す第1の走査と、
前記第1の走査で前記第1の信号が読み出されない行について、前記第2の信号を第2の周期毎に所定の間引き率で間引いて読み出す第2の走査と、
前記第1の走査で前記第1の信号が読み出されない行について、前記第3の信号を第2の周期より長い第3の周期毎に所定の間引き率で間引いて読み出す第3の走査と、
を行う撮像装置において、
スローシャッターモードの際には
前記第1の走査と前期第2の走査を行い、
前記第1の信号の光電変換の蓄積時間は前記スローシャッターモード以外よりも長く、
前記第2の信号の光電変換の蓄積時間は前記スローシャッターモード以外と等しく、
前記第2の走査行において加算演算を行い、
スローシャッターモード以外のモードでは、
前記第1の走査と前期第3の走査を行う、
ことを特徴とする。
In order to solve the above-described problems, an imaging device according to the present invention includes:
Unit pixels for photoelectrically converting light from a subject are arranged in a matrix, a first signal for image generation based on charges generated in the unit pixels, and a position based on charges generated in a partial area of the unit pixels. An image sensor that outputs a second signal for detecting a phase difference;
A scanning circuit that controls scanning for reading out the first signal and the second signal for each row;
With
The scanning circuit,
A first scan for thinning out the first signal at a first cycle and reading the first signal;
A second scan for thinning out and reading out the second signal at a predetermined thinning rate every second cycle for a row from which the first signal is not read out in the first scan;
A third scan in which the third signal is read out by thinning out at a predetermined thinning rate every third cycle longer than the second cycle, for a row from which the first signal is not read out in the first scan;
In an imaging device that performs
In the case of the slow shutter mode, the first scanning and the second scanning are performed,
The accumulation time of the photoelectric conversion of the first signal is longer than in the slow shutter mode,
The accumulation time of the photoelectric conversion of the second signal is equal to that in modes other than the slow shutter mode,
Performing an addition operation in the second scanning row;
In modes other than the slow shutter mode,
Performing the first scan and the third scan,
It is characterized by the following.

本発明に係る撮像装置によれば、低照度で撮像画素の蓄積時間を延長し、位相差検出画素の蓄積時間はそのままで被写体ぶれを軽減しつつ、位相差検出画素の読み出し行数を増やすことができ、低照度でのSN改善、位相差検出性能の改善した撮像装置及びその制御方法を提供することができる。   ADVANTAGE OF THE INVENTION According to the imaging device which concerns on this invention, the accumulation | storage time of an imaging pixel is extended in low illuminance, and the accumulation | storage time of a phase difference detection pixel increases the number of read-out rows of a phase difference detection pixel, reducing a subject blurring as it is. Accordingly, it is possible to provide an imaging apparatus with improved SN at low illuminance and improved phase difference detection performance, and a control method thereof.

本実施形態の動画撮影処理の動作を説明するフロー図である。It is a flowchart explaining operation | movement of the moving image photography process of this embodiment. 本実施形態の撮像装置のブロック図である。It is a block diagram of an imaging device of this embodiment. 本実施形態の撮像素子の画素構成を示す模式図である。FIG. 2 is a schematic diagram illustrating a pixel configuration of an image sensor according to the embodiment. 本実施形態の撮像素子の読み出し方法を説明するための模式図である。FIG. 3 is a schematic diagram for explaining a method for reading out the image sensor according to the embodiment. 本実施形態の撮像素子の駆動の時間経過を説明するための模式図である。FIG. 3 is a schematic diagram for explaining a lapse of time of driving of the image sensor according to the embodiment. 本実施形態の動画撮影処理の露出制御を説明する表である。9 is a table illustrating exposure control in a moving image shooting process according to the embodiment. 本実施形態の相関量演算を説明するグラフである。5 is a graph illustrating a correlation amount calculation according to the embodiment.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

図2は、本実施形態にかかわるレンズおよびレンズ交換型のカメラ本体の構成を示すブロック図である。なお、本実施形態ではレンズ交換型のカメラの例を説明するが、レンズ一体型のカメラであっても良い。   FIG. 2 is a block diagram illustrating a configuration of a lens and a lens-interchangeable camera body according to the present embodiment. In the present embodiment, an example of a lens-interchangeable camera will be described. However, a lens-integrated camera may be used.

[撮像装置の構成]
図2に示すように、本実施形態の撮像装置は、レンズ20およびカメラ21から構成されている。
[Configuration of Imaging Device]
As shown in FIG. 2, the imaging device according to the present embodiment includes a lens 20 and a camera 21.

レンズ20には、レンズ全体の動作を統括制御するレンズ制御部206が設けられている。カメラ21には、カメラ全体の動作を統括制御するカメラ制御部224が設けられている。カメラ制御部224とレンズ制御部206とは、互いに通信することができる。なお、撮像装置がレンズ一体型である場合は、レンズ制御部206の機能および手段はすべてカメラ制御部224に含まれるように構成してもよい、そのときカメラ制御部224はレンズ一体型の撮像装置全体の動作を統括制御する。   The lens 20 is provided with a lens control unit 206 that controls the entire operation of the lens. The camera 21 is provided with a camera control unit 224 that controls the overall operation of the camera. The camera control unit 224 and the lens control unit 206 can communicate with each other. When the imaging apparatus is a lens-integrated type, all functions and means of the lens control unit 206 may be configured to be included in the camera control unit 224. The overall operation of the device is controlled.

まず、レンズ20の構成について説明する。レンズ20は、固定レンズ201、絞り202、フォーカスレンズ203、絞り制御部204、フォーカス制御部205、レンズ制御部206、レンズ操作部207を備えている。本実施形態では、固定レンズ201、絞り202、フォーカスレンズ203により撮像光学系が構成されている。固定レンズ201は、レンズ20の最も被写体側に配置された固定の第1群レンズである。絞り202は、絞り制御部204によって駆動され、後述する撮像素子212への入射光量を制御する。フォーカスレンズ203は、レンズ20の最も像面側に配置され、フォーカス制御部205によって光軸方向に駆動され、後述する撮像素子212に結像する焦点の調節を行う。レンズ制御部206は、絞り制御部204が絞り202の開口量を、フォーカス制御部205がフォーカスレンズ203の光軸方向の位置を決定するよう制御する。レンズ操作部207によってユーザの操作があった場合には、レンズ制御部206はユーザ操作に応じた制御を行う。レンズ制御部206は、後述するカメラ制御部224からの制御命令または制御情報に応じて絞り制御部204やフォーカス制御部205の制御を行う。また、レンズ制御部206は、レンズ制御情報(光学情報)をカメラ制御部224に送信する。   First, the configuration of the lens 20 will be described. The lens 20 includes a fixed lens 201, an aperture 202, a focus lens 203, an aperture control unit 204, a focus control unit 205, a lens control unit 206, and a lens operation unit 207. In the present embodiment, an imaging optical system includes the fixed lens 201, the aperture 202, and the focus lens 203. The fixed lens 201 is a fixed first group lens disposed closest to the subject of the lens 20. The diaphragm 202 is driven by a diaphragm control unit 204 and controls the amount of light incident on an image sensor 212 described later. The focus lens 203 is disposed closest to the image plane side of the lens 20 and is driven in the optical axis direction by the focus control unit 205 to adjust a focus for forming an image on an image sensor 212 described later. The lens control unit 206 controls the aperture control unit 204 to determine the opening amount of the aperture 202 and the focus control unit 205 to determine the position of the focus lens 203 in the optical axis direction. When a user operation is performed by the lens operation unit 207, the lens control unit 206 performs control according to the user operation. The lens control unit 206 controls the aperture control unit 204 and the focus control unit 205 according to a control command or control information from a camera control unit 224 described later. Further, the lens control unit 206 transmits lens control information (optical information) to the camera control unit 224.

次に、カメラ21の構成について説明する。カメラ21は、撮像光学系を通過した光束から撮像信号を取得できるように、以下の構成を有する。すなわち、シャッター211、撮像素子212、アナログフロントエンド(AFE)213、DSP(Digital Signal Processor)214、カメラ制御部224、タイミングジェネレータ225、シャッター制御部226を有する。また、カメラ21は、焦点検出信号処理部215、バス216、表示制御部217、表示部218、記録媒体制御部219、記録媒体220、RAM221、ROM222、フラッシュROM223、カメラ操作部227を有する。   Next, the configuration of the camera 21 will be described. The camera 21 has the following configuration so that an imaging signal can be obtained from a light beam that has passed through the imaging optical system. That is, it includes a shutter 211, an image sensor 212, an analog front end (AFE) 213, a DSP (Digital Signal Processor) 214, a camera control unit 224, a timing generator 225, and a shutter control unit 226. The camera 21 includes a focus detection signal processing unit 215, a bus 216, a display control unit 217, a display unit 218, a recording medium control unit 219, a recording medium 220, a RAM 221, a ROM 222, a flash ROM 223, and a camera operation unit 227.

シャッター211はカメラ制御部224の制御に応じて後述する撮像素子212の露光時間を調節する。撮像素子212は、CCDやCMOSセンサにより構成される光電変換素子(フォトダイオードPD)である。レンズ20の撮像光学系を通ってきた光束(被写体像)は撮像素子212の受光面上に結像され、フォトダイオードPD(光電変換部)によって入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、カメラ制御部224の指令に従ってタイミングジェネレータ225から与えられる駆動パルスに基づいて、信号電荷に応じた電圧信号(撮像信号、焦点検出信号)として撮像素子212から順次読み出される。   The shutter 211 adjusts the exposure time of the image sensor 212 described below under the control of the camera control unit 224. The imaging element 212 is a photoelectric conversion element (photodiode PD) configured by a CCD or a CMOS sensor. The light beam (subject image) that has passed through the imaging optical system of the lens 20 is formed on the light receiving surface of the imaging element 212, and is converted by the photodiode PD (photoelectric conversion unit) into signal charges corresponding to the amount of incident light. The signal charge accumulated in each photodiode is converted from the image sensor 212 as a voltage signal (imaging signal, focus detection signal) corresponding to the signal charge based on a driving pulse given from the timing generator 225 according to a command from the camera control unit 224. Read sequentially.

本実施形態において、撮像素子212は、位相差検出方式の焦点検出を行うために、図3(b)のように1つの画素部につき2つのフォトダイオードPDを保持している。撮像光学系TLの射出瞳EPの全域を通過した光束をマイクロレンズMLで分離し、この2つのフォトダイオードPDで結像することで、撮像用と焦点検出用の2つの信号が取り出せるようになっている。2つのフォトダイオードPDの信号を加算した信号A+Bが撮像信号であり、個々のフォトダイオードの信号A、信号Bが焦点検出用の2つの像信号(焦点検出信号)になっている。2つのフォトダイオードPDのうち一方のフォトダイオードPD(第1の光電変換部)と他方のフォトダイオードPD(第1の光電変換部)とでは、射出瞳EPのうち少なくとも一部が異なる(重複していない)瞳領域を通過した光束をそれぞれ受光する。つまり、撮像素子212上には撮像光学系の射出瞳EPのうち互いに少なくとも一部が異なる(重複していない)瞳領域を通過した一対の光束をそれぞれ光電変換する第1の光電変換部および第2の光電変換部を有する画素部が二次元状に複数配列されている。これにより撮像画面内の全域で焦点検出を可能としている。   In the present embodiment, the image sensor 212 holds two photodiodes PD for one pixel unit as shown in FIG. 3B in order to perform focus detection by the phase difference detection method. The light beam that has passed through the entire area of the exit pupil EP of the imaging optical system TL is separated by the microlens ML, and the two photodiodes PD form an image, so that two signals for imaging and focus detection can be extracted. ing. The signal A + B obtained by adding the signals of the two photodiodes PD is an imaging signal, and the signals A and B of the individual photodiodes are two image signals (focus detection signals) for focus detection. At least a part of the exit pupil EP differs between one photodiode PD (first photoelectric conversion unit) and the other photodiode PD (first photoelectric conversion unit) of the two photodiodes PD (overlapping). (Not shown) each of which receives a light beam passing through the pupil region. That is, on the image sensor 212, the first photoelectric conversion unit and the first photoelectric conversion unit that photoelectrically convert a pair of light beams that have passed through pupil areas at least partially different from each other (not overlapping) among the exit pupils EP of the imaging optical system. A plurality of pixel units each having two photoelectric conversion units are two-dimensionally arranged. This enables focus detection over the entire area within the imaging screen.

本実施形態において焦点検出は、像ずれ量の検出を指す。焦点検出信号を基に、後述する焦点検出信号処理部215で2つの(一対の)像信号に対して相関演算を行い、像ずれ量や各種信頼性情報を算出する。なお、図3(a)は、本実施形態の撮像素子212の一部の画素部を拡大したもので、原色ベイヤー配列と呼ばれる画素構成を採用している。具体的には、R(Red),G(Green),B(Blue)の原色カラーフィルタがベイヤー配列された2次元単板CMOSカラーイメージセンサが用いられている。ここで、図3(a)に示されるRは、R画素を表し、Bは、B画素を表し、GrおよびGbは、G画素を表している。   In the present embodiment, focus detection refers to detection of an image shift amount. Based on the focus detection signal, a focus detection signal processing unit 215, which will be described later, performs a correlation operation on the two (a pair of) image signals to calculate an image shift amount and various pieces of reliability information. FIG. 3A is an enlarged view of a part of a pixel portion of the image sensor 212 according to the present embodiment, and adopts a pixel configuration called a primary color Bayer array. Specifically, a two-dimensional single-chip CMOS color image sensor in which primary color filters of R (Red), G (Green), and B (Blue) are arranged in a Bayer array is used. Here, R shown in FIG. 3A represents an R pixel, B represents a B pixel, and Gr and Gb represent G pixels.

撮像素子212から読み出された撮像信号および焦点検出信号はアナログフロントエンド(AFE)213に入力され、リセットノイズを除去するための相関二重サンプリング(CDS)、ゲインの調節(AGC)、信号のデジタル化(AD)、また、ダークオフセットレベルをクランプする。   An image signal and a focus detection signal read from the image sensor 212 are input to an analog front end (AFE) 213, where correlated double sampling (CDS) for removing reset noise, gain adjustment (AGC), and signal Digitization (AD) and also clamps the dark offset level.

DSP214は、AFE213から出力された撮像信号(画像信号)に対して、各種の補正処理、現像処理、圧縮処理を行う。更に、DSP214は、撮像素子212で発生する各種ノイズの補正処理、欠陥画素の検出及び欠陥画素と焦点検出信号の補正処理、飽和画素の検出及び飽和画素の補正処理等を行う。   The DSP 214 performs various correction processing, development processing, and compression processing on the imaging signal (image signal) output from the AFE 213. Further, the DSP 214 performs a process of correcting various noises generated in the image sensor 212, a process of detecting a defective pixel, a process of correcting a defective pixel and a focus detection signal, a process of detecting a saturated pixel, and a process of correcting a saturated pixel.

その後、DSP214は撮像信号(画像信号)をRAM221に格納する。RAM221に格納した撮像信号(画像信号)は、バス216を介して、表示制御部217によって表示部218に表示される。また、撮像信号の記録を行うモードの時には、記録媒体制御部219によって記録媒体220に記録される。また、バス216を介して接続されたROM222には、カメラ制御部224が実行する制御プログラムおよび制御に必要な各種データ等が格納されている。フラッシュROM223には、ユーザ設定情報等のカメラ21の動作に関する各種設定情報等が格納されている。更に、DSP214は焦点検出信号を焦点検出信号処理部215に出力する。   After that, the DSP 214 stores the imaging signal (image signal) in the RAM 221. The imaging signal (image signal) stored in the RAM 221 is displayed on the display unit 218 by the display control unit 217 via the bus 216. In addition, in the mode in which the recording of the image pickup signal is performed, the image is recorded on the recording medium 220 by the recording medium control unit 219. The ROM 222 connected via the bus 216 stores a control program executed by the camera control unit 224, various data necessary for control, and the like. The flash ROM 223 stores various kinds of setting information regarding the operation of the camera 21 such as user setting information. Further, the DSP 214 outputs a focus detection signal to the focus detection signal processing unit 215.

焦点検出信号処理部215はDSP214から出力された焦点検出用の2つの(一対の)像信号を基に、相関演算を行い、像ずれ量を算出する。その後、検出した像ずれ量をカメラ制御部224へ出力する。また、カメラ制御部224は、取得した像ずれ量を基に、これらを算出する設定の変更を焦点検出信号処理部215に通知する。例えば、像ずれ量が大きい場合に相関演算を行う領域を広く設定したり、コントラスト情報に応じてバンドパスフィルタの種類を変更したりする。なお、本実施形態では、信号処理装置は少なくともこの焦点検出信号処理部215と後述するカメラ制御部224から構成される。   The focus detection signal processing unit 215 performs a correlation operation based on two (a pair of) image signals for focus detection output from the DSP 214 to calculate an image shift amount. After that, the detected image shift amount is output to the camera control unit 224. Further, the camera control unit 224 notifies the focus detection signal processing unit 215 of a change in the setting for calculating these based on the acquired image shift amounts. For example, when the image shift amount is large, the area for performing the correlation calculation is set wide, or the type of the band-pass filter is changed according to the contrast information. In the present embodiment, the signal processing device includes at least the focus detection signal processing unit 215 and a camera control unit 224 described later.

なお、本実施形態は撮像信号および焦点検出用の2つの(一対の)像信号の計3つの信号を撮像素子212から取り出しているが、このような方法に限定されない。撮像素子212の処理負荷を考慮し、例えば撮像信号と焦点検出信号の1つの像信号の計2つを取り出し、撮像信号と焦点検出信号の差分を取ることでもう1つの焦点検出信号を生成するような制御にしても良い。   In the present embodiment, a total of three signals of the imaging signal and two (a pair of) image signals for focus detection are extracted from the imaging element 212, but the present invention is not limited to such a method. In consideration of the processing load of the image sensor 212, for example, a total of two of the image signal and one image signal of the focus detection signal are extracted, and another focus detection signal is generated by taking the difference between the image signal and the focus detection signal. Such control may be performed.

カメラ制御部224は、カメラ21内全体と情報をやり取りして制御を行う。カメラ21内の処理だけでなく、カメラ操作部227からの入力に応じて、電源のON/OFF、レリーズボタン、設定の変更、記録の開始、記録映像の確認等の、ユーザが操作したさまざまなカメラ機能を実行する。レリーズボタンには、使用者により操作されるレリーズボタンの第1ストローク操作(半押し操作)によりONするレリーズスイッチSW1と、レリーズボタンの第2ストローク操作(全押し操作)によりONするレリーズスイッチSW2とが接続されている。また、先述したようにレンズ20内のレンズ制御部206と情報をやり取りし、レンズに制御命令または制御情報を送ることや、レンズ内のレンズ制御情報(光学情報)を取得する。   The camera control unit 224 controls by exchanging information with the entire camera 21. Not only the processing in the camera 21 but also various operations operated by the user, such as power ON / OFF, release button, change of settings, start of recording, and confirmation of recorded video, in response to input from the camera operation unit 227. Execute the camera function. The release button includes a release switch SW1 that is turned on by a first stroke operation (half-press operation) of the release button operated by a user, and a release switch SW2 that is turned on by a second stroke operation (full-press operation) of the release button. Is connected. In addition, as described above, information is exchanged with the lens control unit 206 in the lens 20, a control command or control information is transmitted to the lens, and lens control information (optical information) in the lens is obtained.

ここで、図4を用いて、本実施形態の撮像素子212の駆動方法を説明する。図4(a)は、撮像素子212の画素領域を示す図である。図4(a)〜(e)に示す画素領域中の左側及び上側の縦線領域は、遮光されたオプティカルブラック部(OB部)を示している。また、図4(a)の画素領域の左側には行番号を示している。   Here, a driving method of the image sensor 212 according to the present embodiment will be described with reference to FIG. FIG. 4A is a diagram illustrating a pixel region of the image sensor 212. The vertical line regions on the left and upper sides in the pixel regions shown in FIGS. 4A to 4E indicate optical black portions (OB portions) that are shielded from light. In addition, row numbers are shown on the left side of the pixel area in FIG.

垂直方向に、第1の周期で間引きながら、撮像信号を読み出す。この第1回目の走査を、以下「第1走査」という。そして、全面を垂直方向に走査したのち、再度垂直走査を垂直方向の上部の行に戻し、今度は、第1走査で読み出さなかった行について、第2の周期で間引きながら再度走査する。この第2回目の走査を以下「第2走査」という。第1走査では、対象行の単位画素から画像生成用の撮像信号を読み出す。一方、第2走査では、対象行の単位画素内のA画素、B画素の焦点検出信号を順次読み出す。そして、読み出した撮像信号を用いて画像を生成するとともに、焦点検出信号に基づいて、像ずれ量を検出する。   The image pickup signal is read out in the vertical direction while thinning out at the first cycle. This first scan is hereinafter referred to as “first scan”. Then, after the entire surface is scanned in the vertical direction, the vertical scanning is returned to the upper row in the vertical direction again. This time, the rows that have not been read in the first scan are again scanned while thinning out in the second cycle. This second scanning is hereinafter referred to as “second scanning”. In the first scan, an imaging signal for generating an image is read from the unit pixels of the target row. On the other hand, in the second scan, the focus detection signals of the A pixel and the B pixel in the unit pixel of the target row are sequentially read. Then, an image is generated using the read image signal, and the image shift amount is detected based on the focus detection signal.

第1走査及び第2走査を行う場合の読み出し行の模式図を図4(b)に示す。図4(b)において、太枠で囲まれた行は、第1走査における読み出し対象行であり、その他の行は、第1走査において読み出されずに間引かれる行である。また、図4(b)にひし形パターンを付した行は、第2走査における読み出し対象行である。   FIG. 4B is a schematic diagram of a readout row when performing the first scan and the second scan. In FIG. 4B, the row surrounded by a thick frame is a row to be read in the first scan, and the other rows are rows that are thinned out without being read in the first scan. The row with the diamond pattern in FIG. 4B is the row to be read in the second scan.

図4(b)に示す例では、V0行目の撮像信号を読み出した後、第1の周期後(図4では3行後)のV1行目から撮像信号を読み出す。引き続き、同じ第1の周期で、V2、V3、V4、V5、V6及びV7行目から撮像信号を順次読み出す。これらV0からV7までの読み出しが、第1走査である。第1走査により読み出される行は、画像生成に好適な同一のマイクロレンズMLの下部に配置された画素全体に生じる電荷信号を出力することとなり、V0〜V7行目の撮像信号から画像が生成される。   In the example shown in FIG. 4B, after the image signal of the V0 line is read, the image signal is read from the V1 line after the first cycle (3 lines in FIG. 4). Subsequently, in the same first cycle, the imaging signals are sequentially read from the V2, V3, V4, V5, V6, and V7 rows. The reading from V0 to V7 is the first scan. The row read by the first scan outputs a charge signal generated in the entire pixel disposed below the same microlens ML suitable for image generation, and an image is generated from the imaging signals of the V0 to V7 rows. You.

なお、本実施形態では列方向(水平方向)には間引きせずに読み出しを行っているため、水平方向と垂直方向の読み出し画素数が異なり、画像の縦横比が異なってしまう。しかしながら後段で縦横比の変換を行ってもよいし、水平方向も同じ比率で一般的な間引き読み出し、あるいは加算間引き読み出しを行ってもよく、任意の方法で縦横比の変換が可能である。   In the present embodiment, since reading is performed without thinning in the column direction (horizontal direction), the number of pixels read out in the horizontal direction and the vertical direction is different, and the aspect ratio of the image is different. However, the conversion of the aspect ratio may be performed at the subsequent stage, or the general thinning-out reading or the addition thinning-out reading may be performed at the same ratio in the horizontal direction, and the aspect ratio can be converted by an arbitrary method.

V7行目まで第1走査で読み出した後、V8行目まで戻り、V8行目に含まれる画素のうち、まず、A画素から信号Aを読み出す。続けて、同一行のV8行目に含まれる画素のうち、B画素から信号Bを読み出す。その後、第2の周期後(図4では1行後)のV9行目に含まれる画素のうち、A画素から信号Aを読み出す。続けて、同一行のV9行目に含まれる画素のうち、B画素から信号Bを読み出す。その後、すでに第1の走査で読み出しているV4行目をスキップし、次の第2の周期後(1行後)のV10行目のA画素及びB画素、更に次の第2の周期後(1行後)のV11行目のA画素及びB画素を読み出す。同様に、すでに第1の走査で読み出しているV5行目をスキップし、V12行目及び次のV13行目を順次読み出す。これらV8からV13までの読み出しが第2走査である。   After reading out to the V7th row in the first scan, the process returns to the V8th row, and among the pixels included in the V8th row, first, the signal A is read out from the A pixel. Subsequently, the signal B is read from the B pixel among the pixels included in the V8th row of the same row. After that, the signal A is read from the pixel A among the pixels included in the V9th row after the second cycle (one row after in FIG. 4). Subsequently, the signal B is read from the B pixel among the pixels included in the V9th row of the same row. After that, the V4 line already read out in the first scan is skipped, and the A pixel and the B pixel in the V10 line after the next second cycle (after one line), and further after the next second cycle ( The A pixel and the B pixel on the V11th row (after one row) are read out. Similarly, the V5 line already read in the first scan is skipped, and the V12 line and the next V13 line are sequentially read. The reading from V8 to V13 is the second scan.

このように、第2走査では、同一行に対して、A画素から信号A及びB画素から信号Bを別々に読み出す。なお、焦点を検出する画素領域が焦点検出領域として予め設定されている場合には、この焦点検出領域を含む最も狭い行範囲を、第2走査の対象行範囲とすることが好ましい。例えば、図4(b)において、V8行目からV13行目の範囲に焦点検出領域が予め設定されている場合には、上述の動作のように、V8行目からV13行目までが第2走査の対象行範囲となる。なお、焦点検出領域は、不図示の操作部によりユーザが所望の領域を指定しても良いし、被写体検出等による公知の方法により自動的に設定しても良いし、あるいは、固定の領域であっても良い。   As described above, in the second scan, the signal A is read from the pixel A and the signal B is read from the pixel B for the same row. If the pixel area for detecting the focus is set in advance as the focus detection area, it is preferable that the narrowest row range including the focus detection area be the target row range for the second scan. For example, in FIG. 4B, when the focus detection area is set in advance in the range from the V8th row to the V13th row, the second to the V8th row to the V13th row are set as in the above-described operation. This is the range of rows to be scanned. The focus detection area may be specified by the user using an operation unit (not shown), may be automatically set by a known method such as subject detection, or may be a fixed area. There may be.

こうして読み出されて処理される順序に画素配置を並べ替えると、図4(c)に示す模式図のようになる。先に説明したように、V0〜V7行目は、第1走査において撮像信号を読み出しているため、この撮像信号を用いて通常の画像生成が可能である。一方、V8〜V13行目は、第2走査においてA画素及びB画素から焦点検出信号を読み出しているため、同一行毎に得られる一対の信号である信号Aと信号Bに基づいて、像ずれ量を検出することが可能である。   When the pixel arrangement is rearranged in the order in which the data is read out and processed, a schematic diagram shown in FIG. 4C is obtained. As described above, since the imaging signals are read out in the first scanning in the V0 to V7 rows, normal image generation can be performed using the imaging signals. On the other hand, since the focus detection signals are read from the A pixel and the B pixel in the second scan in the V8 to V13 rows, an image shift is performed based on the pair of signals A and B obtained for each row. It is possible to detect the quantity.

図4(d)は、図4(b)で説明した第2走査における第2の周期を大きくし、読み出し行数を減らした第3走査を示すものである。   FIG. 4D illustrates a third scan in which the second cycle in the second scan described with reference to FIG. 4B is increased and the number of readout rows is reduced.

同様に太枠で囲まれた行は、第1走査における読み出し対象行であり、その他の行は、第1走査において読み出されずに間引かれる行である。また、図4(d)にひし形パターンを付した行は、第3走査における読み出し対象行である。   Similarly, a row surrounded by a bold frame is a row to be read in the first scan, and the other rows are rows to be thinned out without being read in the first scan. The row with the diamond pattern in FIG. 4D is the row to be read in the third scan.

第1走査として、V0行目の撮像信号を読み出した後、第1の周期後のV1行目から撮像信号を読み出し、V2、V3、V4、V5、V6及びV7行目から撮像信号を順次読み出す。V0〜V7行目の撮像信号から画像が生成される。   As the first scan, after reading the image signal on the V0 line, the image signal is read from the V1 line after the first cycle, and the image signals are sequentially read from the V2, V3, V4, V5, V6, and V7 lines. . An image is generated from the imaging signals on the V0 to V7 rows.

V7行目まで第1走査で読み出した後、V8行目まで戻り、先と同様にV8行目に含まれる画素のA画素から信号Aを読み出し、B画素から信号Bを読み出す。その後、第3の周期後(図4では2行後)のV9行目に含まれる画素のA画素から信号Aを読み出し、B画素から信号Bを読み出す。その後、すでに第1の走査で読み出しているV4行目をスキップし、次の第3の周期後(2行後)のV10行目のA画素及びB画素を読み出す。これらV8からV10までの読み出しが第3走査である。   After the first scan is performed up to the V7th row, the process returns to the V8th row, and the signal A is read from the pixel A of the pixels included in the V8th row, and the signal B is read out from the B pixel as described above. Thereafter, the signal A is read from the pixel A among the pixels included in the V9th row after the third cycle (after the second row in FIG. 4), and the signal B is read from the B pixel. Thereafter, the V4th row already read out in the first scan is skipped, and the A pixel and the B pixel in the V10th row after the next third cycle (after the second row) are read out. The reading from V8 to V10 is the third scan.

こうして読み出されて処理される順序に画素配置を並べ替えると、図4(e)に示す模式図のようになる。先に説明したように、V0〜V7行目は、第1走査において撮像信号を読み出しているため、この撮像信号を用いて通常の画像生成が可能である。一方、V8〜V10行目は、第2走査においてA画素及びB画素から焦点検出信号を読み出しているため、同一行毎に得られる一対の信号である信号Aと信号Bに基づいて、像ずれ量を検出することが可能である。像ずれ量の演算は図7で後述する。   When the pixel arrangement is rearranged in the order in which the data is read and processed, a schematic diagram shown in FIG. As described above, since the imaging signals are read out in the first scanning in the V0 to V7 rows, normal image generation can be performed using the imaging signals. On the other hand, in the rows V8 to V10, since the focus detection signals are read from the A pixel and the B pixel in the second scan, the image shift is performed based on the signal A and the signal B, which are a pair of signals obtained for each same row. It is possible to detect the quantity. The calculation of the image shift amount will be described later with reference to FIG.

このように第2走査は第2の周期を小さくすることにより、焦点検出信号の読み出し行数が増加する。これらの行を加算することにより位相差検出時のノイズ低減効果が期待できる。これは低照度の場合に特に有利である。一方、第3走査は第3の周期を大きくすることにより焦点検出信号の読み出し行数は減少するが、図4(e)のように全体の行数が減少するため、垂直方向の読み出し時間が短縮され、高速なフレームレートへの対応が可能となる。   As described above, in the second scanning, by reducing the second period, the number of rows for reading out the focus detection signal increases. By adding these rows, a noise reduction effect at the time of detecting a phase difference can be expected. This is particularly advantageous in low light situations. On the other hand, in the third scan, the number of readout rows of the focus detection signal is reduced by increasing the third cycle. However, the total number of rows is reduced as shown in FIG. It is shortened, and it is possible to cope with a high frame rate.

次に、上述した撮像素子212の駆動の時間経過について図5の模式図を用いて説明する。   Next, the time lapse of the driving of the above-described image sensor 212 will be described with reference to the schematic diagram of FIG.

図5において横軸は時間経過を表わしており、それぞれ1周期の読み出しを表し、これをずっと繰り返される。時間aは時間bの2倍になっている。通常このような撮像センサ読み出しには次のフレームの処理を行うブランキング期間が必要だが、この模式図では図示しない。   In FIG. 5, the horizontal axis represents the passage of time, each representing one cycle of reading, and this is repeated forever. Time a is twice as long as time b. Usually, such an image sensor reading requires a blanking period for performing processing of the next frame, but is not shown in this schematic diagram.

各行ごとの読み出し動作を行っている時間を各行に対応した枠で表示している。各行の長さが露光期間を示しており、左端のタイミングで行のリセット解除を行ない、右端のタイミングで読み出しを開始することを模式的に表している。   The time during which the read operation is performed for each row is displayed in a frame corresponding to each row. The length of each row indicates the exposure period, and schematically indicates that resetting of the row is performed at the left end timing and reading is started at the right end timing.

図5(b)では、撮像素子212の読み出しにかかる時間を考慮し、各ラインの蓄積時間を同一になるように各行のリセット解除を行っている。図5(a)については後述する。   In FIG. 5B, the reset release of each row is performed so that the accumulation time of each line becomes the same in consideration of the time required for reading of the image sensor 212. FIG. 5A will be described later.

図4(b)(c)で示す第1走査、第2走査が図5(a)に対応し、図4(d)(e)で示す第1走査、第3走査が図3(b)に対応する。   The first scan and the second scan shown in FIGS. 4B and 4C correspond to FIG. 5A, and the first scan and the third scan shown in FIGS. 4D and 4E correspond to FIG. 3B. Corresponding to

なお、図5の符号において図4と同じものについて同一の符号を付している。したがって図4で解説した順で図5(a)はV0〜v13b、図5(b)ではV0〜V12bまで各行読み出しを行っていることを示している。   Note that the same reference numerals in FIG. 5 denote the same parts as in FIG. Therefore, FIG. 5A shows that rows are read from V0 to v13b, and FIG. 5B shows that rows are read from V0 to V12b in the order described in FIG.

ここで図4、図5を用いて実際のカメラ動作を解説する。   Here, the actual camera operation will be described with reference to FIGS.

一例として秒間60コマのフレームレートで動画撮影を行っていたとする。これは動画撮影によらず静止画撮影のためのライブビュー表示でも同様である。その秒間60コマ撮影している状態を図5(b)とする。この場合の読み出しは図4(d)(e)のようになる。このときの1コマの時間bは以下のようになる。   As an example, suppose that a moving image was shot at a frame rate of 60 frames per second. The same applies to live view display for still image shooting regardless of moving image shooting. FIG. 5B shows a state in which 60 frames are shot for the second. The reading in this case is as shown in FIGS. The time b of one frame at this time is as follows.

1000(ms)/60≒16.7(ms)
撮像素子212の読み出し性能の中で、画面内の輝度が同一になるよう、各行の露光時間は同一にして、各行リセット解除、露光、読み出しを行っている。
1000 (ms) /60≒16.7 (ms)
In the readout performance of the image sensor 212, the row reset release, exposure, and readout are performed with the same exposure time for each row so that the luminance in the screen is the same.

この制約の中でなるべく長く露光時間をとれるようにするため、図5(b)では焦点検出画素の行の読み出し数を減らす。これによって秒間60コマを実現している。   In order to allow the exposure time to be as long as possible under these restrictions, in FIG. 5B, the number of rows of focus detection pixels to be read is reduced. This realizes 60 frames per second.

この時に低照度環境などで露光時間を増加が必要になったとする。しかし先述の通り16.6(ms)ギリギリ使用しておりこれ以上露光時間を延ばすことはできない。   At this time, it is assumed that the exposure time needs to be increased in a low illuminance environment or the like. However, 16.6 (ms) limit is used as described above, and the exposure time cannot be further extended.

ここで特許文献3のように、スローシャッターモードに移行し秒間30コマのフレームレートに移行したとする。この場合の1コマの時間aは以下のようになる。   Here, it is assumed that the mode shifts to the slow shutter mode and shifts to a frame rate of 30 frames per second as in Patent Document 3. The time a for one frame in this case is as follows.

1000(ms)/30≒33.3(ms)
この時、従来は図5(c)のように画像信号も焦点検出信号も同じだけ露光時間を延ばしていた。なお読み出し制御は図4(d)(e)のようになる。画像信号は多少の被写体ぶれがあっても暗い中でなんらか写っていることが優先されるのでこの制御は妥当である。しかし、焦点検出信号の露光時間も延ばすと、被写体ぶれによって焦点検出が不可能になることが考えられる。これは焦点検出の目的を達成できない。
1000 (ms) /30≒33.3 (ms)
At this time, conventionally, as shown in FIG. 5C, both the image signal and the focus detection signal extend the exposure time by the same amount. Note that the read control is as shown in FIGS. This control is appropriate because the image signal is prioritized in the dark even if there is some subject blurring. However, if the exposure time of the focus detection signal is also extended, focus detection may not be possible due to subject shake. This cannot achieve the purpose of focus detection.

そこで図5(a)と図4(b)(c)のように画像信号の露光時間は延長し、時間a≒33.3(ms)とするが、焦点検出信号の露光時間は延長しない。そうすると今度は低照度で焦点検出信号のSN比が低化するので、読み出し行数を増加させる。これにより被写体ぶれを秒間60コマと同等でありながら、増加した時間bにより、読み出し行数を増やしSN比を改善することができる。   Therefore, as shown in FIGS. 5A, 4B, and 4C, the exposure time of the image signal is extended to make the time a ≒ 33.3 (ms), but the exposure time of the focus detection signal is not extended. Then, since the SN ratio of the focus detection signal is lowered at low illuminance, the number of readout rows is increased. Thus, while the subject blur is equivalent to 60 frames per second, the number of readout rows can be increased and the SN ratio can be improved by the increased time b.

[焦点検出の説明]
図7は図4のV8からV13の焦点検出領域から取得した像信号である。sからtが焦点検出範囲を表し、pからqがシフト量を踏まえた焦点検出演算に必要な範囲である。またxからyは、分割した1つ分の焦点検出領域を表す。
[Explanation of focus detection]
FIG. 7 is an image signal obtained from the focus detection areas V8 to V13 in FIG. s to t represent the focus detection range, and p to q are the ranges required for the focus detection calculation based on the shift amount. Further, x to y represent one divided focus detection area.

(A)はシフト前の像信号を波形で表した図である。実線701が像信号A、破線
702が像信号Bである。
(A) is a diagram showing the image signal before the shift by a waveform. A solid line 701 is the image signal A, and a broken line 702 is the image signal B.

(B)は(A)のシフト前の像波形に対しプラス方向にシフトした図であり、(C)は(A)のシフト前の像波形に対しマイナス方向にシフトした図である。相関量を算出する際には、それぞれ矢印の方向に701、702を1ビットずつシフトする。続いて相関量CORの算出法について説明する。   (B) is a diagram shifted in the plus direction with respect to the image waveform before the shift in (A), and (C) is a diagram shifted in the minus direction with respect to the image waveform before the shift in (A). When calculating the correlation amount, 701 and 702 are shifted one bit at a time in the directions of the arrows. Next, a method of calculating the correlation amount COR will be described.

まず、(B)(C)で説明した通りに、像信号Aと像信号Bを1ビットずつシフトしていき、その時の像信号Aと像信号Bの差の絶対値の和を算出する。この時、シフト量をiで表し、最小シフト数は図7中のp−s、最大シフト数は図7中のq−tである。またxは焦点検出領域の開始座標、yは焦点検出領域の終了座標である。これら用い、以下の式(1)によって算出する事ができる。   First, as described in (B) and (C), the image signal A and the image signal B are shifted one bit at a time, and the sum of the absolute values of the differences between the image signals A and B at that time is calculated. At this time, the shift amount is represented by i, the minimum shift number is ps in FIG. 7, and the maximum shift number is qt in FIG. Further, x is the start coordinate of the focus detection area, and y is the end coordinate of the focus detection area. Using these, it can be calculated by the following equation (1).

この相関量COR[i]が小さい方ほど、A像とB像の一致度が高く、その時のシフト量がピントずれ量となり、焦点検出できたことになる。   The smaller the correlation amount COR [i], the higher the degree of coincidence between the A image and the B image, and the shift amount at that time becomes the defocus amount, indicating that the focus can be detected.

この相関量の算出において、スローシャッターモードの際には第2の走査であるところのV8a、V9aを垂直方向に加算して像信号A。V8b、V9bを垂直方向に加算して像信号Bとすることによって、像信号のS/N比を改善し低照度での性能を向上することができる。   In the calculation of the correlation amount, the image signal A is obtained by adding V8a and V9a, which are the second scan, in the vertical direction in the slow shutter mode. By adding V8b and V9b in the vertical direction to form the image signal B, the S / N ratio of the image signal can be improved and the performance at low illuminance can be improved.

[撮像装置の動作]
次に図1で、本実施形態における撮像装置の動作について説明する。
[Operation of imaging device]
Next, the operation of the imaging apparatus according to the present embodiment will be described with reference to FIG.

図1は、撮像装置の動画撮影の処理手順を示すフローチャートである。これは静止画撮影のためのライブビュー表示でも同様である。この動画撮影では、S101からS110を繰り返しレンズのフォーカスを駆動させて焦点調節をし続ける。   FIG. 1 is a flowchart illustrating a processing procedure for capturing a moving image by the imaging apparatus. The same applies to the live view display for still image shooting. In this moving image shooting, S101 to S110 are repeated to drive the focus of the lens to continue the focus adjustment.

S101からS103では、動画記録に関する制御を行う。S101は動画記録スイッチがオンされているか否かを判断し、オンされている場合はS102へ進み、動画の記録開始し、オフの場合はS103へ進み、動画の記録停止を行う。本実施形態においては動画記録スイッチを押下することで、動画の記録開始および停止を行うが、もちろん切り替えスイッチ等の他の方式によって記録開始および停止を行っても構わない。   In S101 to S103, control relating to moving image recording is performed. In step S101, it is determined whether or not the moving image recording switch is turned on. If the switch is turned on, the process proceeds to step S102 to start recording a moving image. If the switch is turned off, the process proceeds to step S103 to stop recording the moving image. In this embodiment, the recording of the moving image is started and stopped by pressing the moving image recording switch. However, the recording may be started and stopped by another method such as a changeover switch.

S104では、露出の測定と制御を行う。図6は本実施例でのプログラム線図である。表の見方としては照度がEV13のときは絞りF1.4、蓄積時間1/4000(図6では逆数で表記)、ゲインは1倍で制御することを示す。ただし動画やライブビューのフレームレートは蓄積時間が1/60以上であれば秒間60コマのままである。   In S104, the exposure is measured and controlled. FIG. 6 is a program diagram in the present embodiment. The table shows that, when the illuminance is EV13, the aperture is F1.4, the accumulation time is 1/4000 (indicated by the reciprocal in FIG. 6), and the gain is controlled to be 1 time. However, the frame rate of a moving image or a live view remains at 60 frames per second if the accumulation time is 1/60 or more.

このプログラム線図の場合EV6より暗い場合はスローシャッターモードと判断し、フレームレートを秒間30コマに落とす。たとえばEV5の場合はスローシャッターモードと判断しフレームレートを秒間30コマとし、絞りF1.4、蓄積時間1/30、2倍のセンサゲインをかける制御を行う。   In the case of the program diagram, if the image is darker than EV6, the slow shutter mode is determined, and the frame rate is reduced to 30 frames per second. For example, in the case of EV5, it is determined that the shutter mode is the slow shutter mode, the frame rate is set to 30 frames per second, and the aperture F1.4, the accumulation time 1/30, and the control of applying a sensor gain of twice are performed.

S105では、S104での露出制御結果スローシャッターモードであればS107へ処理を移し、そうでなければS106へ。   In S105, if the result of the exposure control in S104 is the slow shutter mode, the process proceeds to S107; otherwise, the process proceeds to S106.

S106では、通常のシャッターモードとして次のフレームの露光時間を通常のままとする。秒間60コマの撮像モードであれば秒間60コマとし、露光時間は16.7(ms)とする。   In S106, the exposure time of the next frame is set to the normal exposure mode as the normal shutter mode. If the imaging mode is 60 frames per second, 60 frames per second is used, and the exposure time is 16.7 (ms).

S107では、スローシャッターモードとして次のフレームの露光時間延長する。秒間60コマの撮像モードであれば、スローシャッターモードでは秒間30コマとし、露光時間は33.3(ms)となる。   In S107, the exposure time of the next frame is extended in the slow shutter mode. In the imaging mode of 60 frames per second, the slow shutter mode sets 30 frames per second, and the exposure time is 33.3 (ms).

S108では一対の焦点検出信号に基づいて、像ずれ量を検出する。また、一対の焦点検出信号である信号A及び信号Bのピーク値を検出する。   In S108, the image shift amount is detected based on the pair of focus detection signals. Further, a peak value of a signal A and a signal B which are a pair of focus detection signals is detected.

S109では、S108で焦点検出した像すれ量をレンズ(フォーカスレンズ203)の駆動量に変換し、算出したレンズの駆動量に従ってしてレンズを駆動する。S110では、動画撮影処理が停止されたかどうかを判定する。継続する場合はS101へ進み、停止する場合は動画撮影処理を終了する。   In step S109, the amount of image blur detected in step S108 is converted into a driving amount of the lens (focus lens 203), and the lens is driven according to the calculated lens driving amount. In S110, it is determined whether or not the moving image shooting processing has been stopped. If the process is to be continued, the process proceeds to S101. If the process is to be stopped, the moving image shooting process ends.

[本実施例による効果]
以上のように、本実施形態では、
本発明によれば、低照度で撮像画素の蓄積時間を延長し、位相差検出画素の蓄積時間はそのままで被写体ぶれを軽減しつつ、位相差検出画素の読み出し行数を増やすことができ、低照度でのSN改善、位相差検出性能の改善した撮像装置及びその制御方法を提供することができる。
[Effects of the present embodiment]
As described above, in the present embodiment,
According to the present invention, it is possible to increase the number of readout rows of the phase difference detection pixels while extending the accumulation time of the imaging pixels at low illuminance and reducing the subject blur while keeping the accumulation time of the phase difference detection pixels unchanged. It is possible to provide an imaging apparatus with improved SN in illuminance and improved phase difference detection performance, and a control method thereof.

[変形例]
本実施例では低照度下でスローシャッターモードとなった時には、かならず第1と第2の走査を行うが、これは常に行わない方法もある。
[Modification]
In the present embodiment, when the slow shutter mode is entered under low illuminance, the first and second scans are always performed, but there is a method in which this is not always performed.

被写体が動いているなら第1と第2の走査を用い、図5(a)のような露光・読み出しを行い位相差検出信号の露光時間は伸ばさないこととする。そして、被写体が静止していれば第1と第3の走査を用い、図5(c)のような露光・読み出しを行い位相差検出信号の露光時間をのばしてもよい。これを行うことにより低照度でのS/N比を改善することができる。   If the subject is moving, the first and second scans are used to perform exposure and reading as shown in FIG. 5A, and the exposure time of the phase difference detection signal is not extended. If the subject is stationary, the first and third scans may be used to perform exposure and reading as shown in FIG. 5C to extend the exposure time of the phase difference detection signal. By doing this, the S / N ratio at low illuminance can be improved.

被写体が動いているかどうかの判断はたとえば、撮像装置に内蔵する不図示のジャイロを用いる方法、被写体の動きを追尾して判断する方法、画面全体の動きベクトルを検出する方法などが考えられる。   For example, a method using a gyro (not shown) built in the imaging apparatus, a method for tracking and determining the motion of the subject, a method for detecting a motion vector of the entire screen, and the like can be considered to determine whether the subject is moving.

また、図7での相関量の算出において、スローシャッターモードの際には第2の走査であるところのV8aを像信号A、V8bを像信号Bとして算出される相関量をCOR8とする。同様にV9aを像信号A、V9bを像信号Bとして算出される相関量をCOR9とする。   In the calculation of the correlation amount in FIG. 7, in the slow shutter mode, the correlation amount calculated as V8a, which is the second scan, as the image signal A, and V8b as the image signal B, is COR8. Similarly, the correlation amount calculated as V9a as image signal A and V9b as image signal B is COR9.

この相関量COR8とCOR9を加算することによっても相関量のS/N比を改善し低照度での性能を向上することができる。   By adding the correlation amounts COR8 and COR9, the S / N ratio of the correlation amount can be improved and the performance at low illuminance can be improved.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As described above, the preferred embodiments of the present invention have been described, but the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist.

20 レンズ、21 カメラ、
214 DSP(Digital Signal Processor)、
215 焦点検出信号処理部、224 カメラ制御部
20 lenses, 21 cameras,
214 DSP (Digital Signal Processor),
215 focus detection signal processing unit, 224 camera control unit

Claims (11)

被写体からの光を光電変換する単位画素が行列状に配列され、前記単位画素に生じた電荷に基づく画像生成用の第1の信号、及び前記単位画素の一部領域に生じた電荷に基づく位相差検出用の第2の信号を出力する撮像素子と、
前記第1の信号及び前記第2の信号を行毎に読み出すための走査を制御する走査回路と、
を備え、
前記走査回路は、
前記第1の信号を第1の周期で間引いて読み出す第1の走査と、
前記第1の走査で前記第1の信号が読み出されない行について、前記第2の信号を第2の周期毎に所定の間引き率で間引いて読み出す第2の走査と、
前記第1の走査で前記第1の信号が読み出されない行について、前記第3の信号を第2の周期より長い第3の周期毎に所定の間引き率で間引いて読み出す第3の走査と、
を行う撮像装置において、
スローシャッターモードの際には
前記第1の走査と前期第2の走査を行い、
前記第1の信号の光電変換の蓄積時間は前記スローシャッターモード以外よりも長く、
前記第2の信号の光電変換の蓄積時間は前記スローシャッターモード以外と等しく、
前記第2の走査行において加算演算を行い、
スローシャッターモード以外のモードでは、前記第1の走査と前期第3の走査を行う、
ことを特徴とする撮像装置。
Unit pixels for photoelectrically converting light from a subject are arranged in a matrix, a first signal for image generation based on charges generated in the unit pixels, and a position based on charges generated in a partial area of the unit pixels. An image sensor that outputs a second signal for detecting a phase difference;
A scanning circuit that controls scanning for reading out the first signal and the second signal for each row;
With
The scanning circuit,
A first scan for thinning out the first signal at a first cycle and reading the first signal;
A second scan for thinning out and reading out the second signal at a predetermined thinning rate every second cycle for a row from which the first signal is not read out in the first scan;
A third scan in which the third signal is read out by thinning out at a predetermined thinning rate every third cycle longer than the second cycle, for a row from which the first signal is not read in the first scan;
In an imaging device that performs
In the case of the slow shutter mode, the first scanning and the second scanning are performed,
The accumulation time of the photoelectric conversion of the first signal is longer than in the slow shutter mode,
The accumulation time of the photoelectric conversion of the second signal is equal to that in modes other than the slow shutter mode,
Performing an addition operation in the second scanning row;
In modes other than the slow shutter mode, the first scan and the third scan are performed.
An imaging device characterized by the above-mentioned.
前記スローシャッターモードとは、動画撮影において、被写体が低照度であり、撮像装置のフレームレートを落とし、1コマあたりのシャッタースピードを低下させるモード、であることを特徴とする請求項1に記載の撮像装置。   2. The slow shutter mode according to claim 1, wherein in shooting a moving image, a subject has low illuminance, a frame rate of an imaging device is reduced, and a shutter speed per frame is reduced. Imaging device. 前記動画撮影とは、静止画撮影のためのビューファインダーのための動画であることを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the moving image shooting is a moving image for a viewfinder for shooting a still image. 前記スローシャッターモードの際に、前記第2の信号の光電変換の蓄積時間を前記スローシャッターモード外と比べ延長するが、延長された前記第1の信号の光電変換の蓄積時間よりは短いことを特徴とする請求項1乃至3のいずれかの1項に記載の撮像装置。   In the slow shutter mode, the accumulation time of the photoelectric conversion of the second signal is extended as compared with that outside the slow shutter mode, but it is shorter than the extended accumulation time of the photoelectric conversion of the first signal. The imaging device according to any one of claims 1 to 3, wherein 前記スローシャッターモードの際に、増加された前記第2の走査を加算してから相関演算を行うことを特徴とする請求項1乃至4のいずれかの1項に記載の撮像装置。   The imaging apparatus according to any one of claims 1 to 4, wherein, in the slow shutter mode, a correlation operation is performed after adding the increased second scan. 前記スローシャッターモードの際に、増加された前記第2の走査を相関演算してから加算を行うことを特徴とする請求項1乃至4のいずれかの1項に記載の撮像装置。   5. The imaging apparatus according to claim 1, wherein in the slow shutter mode, an addition is performed after performing a correlation operation on the increased second scan. 6. 前記単位画素は、前記一部領域としてA画素及びB画素を有し、
前記第1の信号は、前記A画素及び前記B画素からの合成信号であり、
前記第2の信号は、前記A画素からの信号、及び前記B画素からの信号どちらかであることを特徴とする請求項1乃至6のいずれかの1項に記載の撮像装置。
The unit pixel has an A pixel and a B pixel as the partial region,
The first signal is a composite signal from the A pixel and the B pixel,
The imaging device according to claim 1, wherein the second signal is one of a signal from the A pixel and a signal from the B pixel.
前記走査回路は、前記第1の走査を行った後に前記第2の走査を行うであることを特徴とする請求項1乃至7のいずれかの1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the scanning circuit performs the second scan after performing the first scan. 前記被写体からの光を前記撮像素子に結像させる光学系と、
前記第2の信号に基づいて、前記光学系の焦点を調整する焦点調整手段と、
を更に備えるであることを特徴とする請求項1乃至8のいずれかの1項に記載の撮像装置。
An optical system that forms an image of light from the subject on the image sensor,
Focus adjusting means for adjusting the focus of the optical system based on the second signal;
The imaging device according to any one of claims 1 to 8, further comprising:
前記スローシャッターモードであっても、条件を満たさない限り、前記第1の信号の光電変換の蓄積時間の変更と、前記第2の信号の光電変換の蓄積時間を変更しないことと、前記第2の走査の行数の変更と加算を行わないことを特徴とする請求項1乃至9のいずれかの1項に記載の撮像装置。   Even in the slow shutter mode, unless the condition is satisfied, changing the accumulation time of photoelectric conversion of the first signal, not changing the accumulation time of photoelectric conversion of the second signal, 10. The imaging apparatus according to claim 1, wherein the number of scanning lines is not changed or added. 前記条件とは被写体が動いていることであることを特徴とする請求項10に記載の撮像装置。   The imaging apparatus according to claim 10, wherein the condition is that a subject is moving.
JP2018176701A 2018-09-21 2018-09-21 Imaging apparatus and control method of the same Pending JP2020048135A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018176701A JP2020048135A (en) 2018-09-21 2018-09-21 Imaging apparatus and control method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018176701A JP2020048135A (en) 2018-09-21 2018-09-21 Imaging apparatus and control method of the same

Publications (1)

Publication Number Publication Date
JP2020048135A true JP2020048135A (en) 2020-03-26

Family

ID=69901853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018176701A Pending JP2020048135A (en) 2018-09-21 2018-09-21 Imaging apparatus and control method of the same

Country Status (1)

Country Link
JP (1) JP2020048135A (en)

Similar Documents

Publication Publication Date Title
US10419694B2 (en) Method and apparatus for imaging an object
US9979874B2 (en) Image capturing apparatus and pixel scanning method for image generation
JP5319347B2 (en) Imaging apparatus and control method thereof
JP5241355B2 (en) Imaging apparatus and control method thereof
JP6338436B2 (en) Imaging apparatus and control method thereof
JP5219778B2 (en) Imaging apparatus and control method thereof
WO2015190156A1 (en) Image processing device, imaging device equipped with same, image processing method, and image processing program
JP5523065B2 (en) Imaging apparatus and control method thereof
JP5657184B2 (en) Imaging apparatus and signal processing method
US20060197854A1 (en) Image capturing apparatus and computer software product
JP5199736B2 (en) Imaging device
US8040407B2 (en) Image capturing apparatus and image capturing apparatus control method
JP2015018084A (en) Imaging apparatus, image processing method, and image processing program
JP5452269B2 (en) Imaging device
JP6270400B2 (en) Image processing apparatus, image processing method, and image processing program
JP6929106B2 (en) Imaging device and control method of imaging device
US20090051791A1 (en) Imaging apparatus
JP2011087050A (en) Digital camera
JP6467289B2 (en) Imaging apparatus and control method thereof
JP6594048B2 (en) Imaging apparatus and control method thereof
JPH11258491A (en) Focus detecting device and its method and storage medium readable through computer
JP2020048135A (en) Imaging apparatus and control method of the same
JPH11258489A (en) Focus detecting device and its method and storage medium readable through computer
JP2011077770A (en) Controller of solid-state imaging device and operation control method thereof
JP4992382B2 (en) Noise removal method and noise removal control program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191125