JP2014232137A - Imaging device and method of controlling the same - Google Patents

Imaging device and method of controlling the same Download PDF

Info

Publication number
JP2014232137A
JP2014232137A JP2013111591A JP2013111591A JP2014232137A JP 2014232137 A JP2014232137 A JP 2014232137A JP 2013111591 A JP2013111591 A JP 2013111591A JP 2013111591 A JP2013111591 A JP 2013111591A JP 2014232137 A JP2014232137 A JP 2014232137A
Authority
JP
Japan
Prior art keywords
image sensor
image
focus detection
imaging
pixel data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013111591A
Other languages
Japanese (ja)
Other versions
JP6249636B2 (en
Inventor
健人 稲井
Taketo Inai
健人 稲井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013111591A priority Critical patent/JP6249636B2/en
Priority to US14/107,649 priority patent/US9473688B2/en
Priority to DE102013226588.3A priority patent/DE102013226588B4/en
Priority to GB1322499.3A priority patent/GB2511183B/en
Priority to CN201710340139.4A priority patent/CN107181898A/en
Priority to CN201310713586.1A priority patent/CN103888666B/en
Publication of JP2014232137A publication Critical patent/JP2014232137A/en
Priority to US15/235,381 priority patent/US9848119B2/en
Application granted granted Critical
Publication of JP6249636B2 publication Critical patent/JP6249636B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device comprising a plurality of imaging elements capable of high-speed and accurate focusing operation without reducing throughput when reading pixel data on a captured image.SOLUTION: An imaging device 1 comprises: a first imaging element 100 used for capturing a still image; and a second imaging element 103 used for capturing moving images. While moving images are being captured with the second imaging element 103, an AF calculation unit 122 performs focus detection by acquiring pixel data output by the first imaging element 100, and a CPU 124 controls focusing operation on the basis of the result of focus detection.

Description

本発明は、撮像装置の焦点調節制御に関し、特に複数の撮像素子を備える撮像装置とその制御方法に関するものである。   The present invention relates to focus adjustment control of an imaging apparatus, and more particularly to an imaging apparatus including a plurality of imaging elements and a control method thereof.

従来、2つの撮像素子を有する撮像装置のオートフォーカス(AF)制御方法に関して、一方の撮像素子が位相差検出用画素を備え、検出した位相差から合焦判定を行う技術がある。特許文献1は、位相差検出用画素を持つ撮像素子により画像を生成する場合に位相差検出用画素のデータ補完に係る処理を効率的に行うための技術を開示する。特許文献1では位相差検出用画素を有する撮像素子によりライブビュー表示および動画撮影を行うことが記載されている。   Conventionally, regarding an autofocus (AF) control method of an image pickup apparatus having two image pickup devices, there is a technique in which one image pickup device includes a phase difference detection pixel and performs focus determination from the detected phase difference. Patent Document 1 discloses a technique for efficiently performing processing related to data interpolation of phase difference detection pixels when an image is generated by an image sensor having phase difference detection pixels. Patent Document 1 describes that live view display and moving image shooting are performed by an image sensor having a phase difference detection pixel.

特開2012−42544号公報JP 2012-42544 A

前記特許文献1に開示の従来技術では、動画撮影時にて位相差検出用画素を有する撮像素子から、動画像用画素データと位相差検出用画素データを読み出す必要がある。位相差検出用画素データの読出しに伴い、動画像用画素データの読出しのスループットが低下する可能性がある。また、AF演算速度および精度の観点からは、位相差検出用画素データを高速に複数回読み出すことが望まれる。しかし、位相差検出用画素データは動画像の画素データを読み出す時に同時に読み出されるため、AF演算の処理速度が動画のフレームレートに律速されてしまう。
また、動画像用画素と位相差検出用画素は露光蓄積時間が同じになるため、ライブビュー撮影や動画撮影に適した露光蓄積時間がAF処理にとって最適な時間とは限らない。場合によっては、AF精度の低下が懸念される。
In the prior art disclosed in Patent Document 1, it is necessary to read out moving image pixel data and phase difference detection pixel data from an image sensor having phase difference detection pixels during moving image shooting. As the phase difference detection pixel data is read, the throughput of reading the moving image pixel data may decrease. From the viewpoint of AF calculation speed and accuracy, it is desired to read out the phase difference detection pixel data a plurality of times at high speed. However, since the phase difference detection pixel data is read at the same time as the moving image pixel data is read, the processing speed of the AF calculation is limited by the frame rate of the moving image.
In addition, since the exposure accumulation time is the same for the moving image pixel and the phase difference detection pixel, the exposure accumulation time suitable for live view shooting and moving image shooting is not necessarily the optimum time for AF processing. In some cases, there is a concern that AF accuracy may be reduced.

本発明の目的は、複数の撮像素子を備える撮像装置において、撮影画像に係る画素データを読み出す際にスループットを低下させずに、高速で精度の良い焦点調節動作を実現することである。   An object of the present invention is to realize a high-speed and high-precision focus adjustment operation without reducing throughput when reading out pixel data relating to a captured image in an imaging apparatus including a plurality of imaging elements.

上記課題を解決するために、本発明に係る装置は、第1撮像素子および第2撮像素子を備える撮像装置であって、撮像光学系を通して入射する光を分割して前記第1撮像素子および第2撮像素子にそれぞれ1次結像光を受光させる光分割手段と、前記第1撮像素子の出力する画素データを取得して前記撮像光学系の焦点検出を行う焦点検出手段と、前記焦点検出手段の検出情報を取得して前記撮像光学系の焦点調節を制御する制御手段を備える。前記制御手段は、前記第2撮像素子による撮影中に前記第1撮像素子の出力する画素データから前記焦点検出手段が焦点検出を行った検出情報を取得して、前記撮像光学系の焦点調節を制御する。   In order to solve the above-described problem, an apparatus according to the present invention is an imaging apparatus including a first imaging element and a second imaging element, and divides light incident through an imaging optical system to provide the first imaging element and the first imaging element. A light splitting unit that causes each of the two image sensors to receive primary imaging light; a focus detection unit that acquires pixel data output from the first image sensor and performs focus detection of the imaging optical system; and the focus detection unit And a control means for controlling the focus adjustment of the imaging optical system. The control means acquires detection information obtained by the focus detection means performing focus detection from pixel data output from the first image sensor during photographing by the second image sensor, and performs focus adjustment of the image pickup optical system. Control.

本発明によれば、撮影画像に係る画素データを読み出す際にスループットを低下させずに、高速で精度の良い焦点調節動作を実現できる。   According to the present invention, it is possible to realize a high-speed and accurate focus adjustment operation without reducing the throughput when reading out pixel data relating to a captured image.

本発明の実施形態に係る撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像部の構成を示す模式図である。It is a schematic diagram which shows the structure of the imaging part which concerns on embodiment of this invention. 本発明の実施形態に係る撮像素子の構成例を示す図である。It is a figure showing an example of composition of an image sensor concerning an embodiment of the present invention. 本発明の第1実施形態に係る撮像素子の構成例を示す図である。It is a figure showing an example of composition of an image sensor concerning a 1st embodiment of the present invention. 本発明における焦点検出の説明図である。It is explanatory drawing of the focus detection in this invention. 本発明の第1実施形態に係る撮像装置の動作を説明するフローチャートである。5 is a flowchart for explaining the operation of the imaging apparatus according to the first embodiment of the present invention. 本発明の第1実施形態に係る撮像素子の読出し領域を示す図である。It is a figure which shows the read-out area | region of the image pick-up element which concerns on 1st Embodiment of this invention. 本発明における焦点検出に係る各像を説明する図である。It is a figure explaining each image which concerns on the focus detection in this invention. 本発明の第1実施形態に係る焦点検出領域の選択を説明する図である。It is a figure explaining selection of a focus detection area concerning a 1st embodiment of the present invention. 本発明の第1実施形態に係る撮像素子の読出しタイミングを説明する図である。It is a figure explaining the read-out timing of the image sensor concerning a 1st embodiment of the present invention. 本発明の第1実施形態の変形例に係る撮像素子の構成例を示す図である。It is a figure which shows the structural example of the image pick-up element which concerns on the modification of 1st Embodiment of this invention. 本発明の第2実施形態に係る撮像素子の構成例を示す図である。It is a figure which shows the structural example of the image pick-up element which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る撮像装置の動作を説明するフローチャートであり、処理の前半部を示す。It is a flowchart explaining operation | movement of the imaging device which concerns on 2nd Embodiment of this invention, and shows the first half part of a process. 図13に続く処理を示すフローチャートである。It is a flowchart which shows the process following FIG. 本発明の第2実施形態に係る撮影設定画面例を示す図である。It is a figure which shows the example of an imaging | photography setting screen which concerns on 2nd Embodiment of this invention.

以下に、本発明の各実施形態を、添付図面に基づいて詳細に説明する。
[第1実施形態]
図1は、本発明の第1実施形態に係る撮像装置1の構成例を示す図である。撮像装置1は、撮像光学系(結像光学系)と、複数の撮像素子100,103を備える。
第1レンズ群111は、撮影光学系の前端側(被写体側)に配置され、レンズ鏡筒にて光軸方向に進退可能に支持される。絞り110は、その開口径を調節することで撮影時の光量調節を行う。第2レンズ群109は、絞り110と一体となって光軸方向に進退する。第2レンズ群109は、第1レンズ群111の進退動作との連動により、変倍作用(ズーム機能)をもつ。第3レンズ群108は、光軸方向に進退して焦点調節を行うフォーカスレンズ群である。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration example of an imaging apparatus 1 according to the first embodiment of the present invention. The imaging device 1 includes an imaging optical system (imaging optical system) and a plurality of imaging elements 100 and 103.
The first lens group 111 is disposed on the front end side (subject side) of the photographing optical system, and is supported by the lens barrel so as to be able to advance and retract in the optical axis direction. The diaphragm 110 adjusts the light amount at the time of photographing by adjusting the aperture diameter. The second lens group 109 moves forward and backward in the optical axis direction together with the stop 110. The second lens group 109 has a zooming function (zoom function) in conjunction with the advance / retreat operation of the first lens group 111. The third lens group 108 is a focus lens group that performs focus adjustment by moving forward and backward in the optical axis direction.

図2に示すように、ハーフミラー107は、被写体からの入射光束を反射光と透過光に分割する光分割手段である。ハーフミラー107の透過光は第1撮像素子100に入射し、反射光は第2撮像素子103に入射する。フォーカルプレーンシャッタ106は静止画撮影時に露光秒時を調節する。本実施形態ではフォーカルプレーンシャッタ106により、第1撮像素子100の露光秒時を調節する構成である。これに限らず、第1撮像素子100が電子シャッタ機能を有し、制御パルスで露光秒時を調節する構成でもよい。   As shown in FIG. 2, the half mirror 107 is a light splitting unit that splits an incident light beam from a subject into reflected light and transmitted light. The light transmitted through the half mirror 107 enters the first image sensor 100, and the reflected light enters the second image sensor 103. The focal plane shutter 106 adjusts the exposure time during still image shooting. In the present embodiment, the exposure time of the first image sensor 100 is adjusted by the focal plane shutter 106. However, the present invention is not limited to this, and the first image sensor 100 may have an electronic shutter function and adjust the exposure time with a control pulse.

光学像を電気信号に変換する第1撮像素子100は、主に静止画像の撮影に使用する。第1AFE(アナログ・フロント・エンド)101は、第1撮像素子100が出力するアナログ画像信号に対して、ゲイン調整や、所定の量子化ビットに対応したデジタル信号への変換を行う。第1TG(タイミング・ジェネレータ)102は、第1撮像素子100及び第1AFE101の駆動タイミングを制御する。   The first image sensor 100 that converts an optical image into an electrical signal is mainly used for capturing a still image. A first AFE (analog front end) 101 performs gain adjustment and conversion to a digital signal corresponding to a predetermined quantization bit for an analog image signal output from the first image sensor 100. A first TG (timing generator) 102 controls the drive timing of the first image sensor 100 and the first AFE 101.

光学像を電気信号に変換する第2撮像素子103は、主に動画像の撮影に使用する。第2AFE104は、第2撮像素子103が出力するアナログの画像信号に対して、ゲイン調整や、所定の量子化ビットに対応したデジタル信号への変換を行う。第2TG105は、第2撮像素子103及び第2AFE104の駆動タイミングを制御する。第1AFE101、第2AFE104がそれぞれ出力する画像データはCPU(中央演算処理装置)124に送られる。第1TG102と第2TG105は、CPU124からの制御信号に従い、駆動信号を生成して第1撮像素子100、第2撮像素子103にそれぞれ出力する。なお、本実施形態では第1撮像素子100に関連する第1AFE101、第1TG102や、第2撮像素子103に関連する第2AFE104、第2TG105を使用するが、AFE、TGを撮像素子内に内蔵した構成でもよい。   The second image sensor 103 that converts an optical image into an electrical signal is mainly used for capturing a moving image. The second AFE 104 performs gain adjustment and conversion into a digital signal corresponding to a predetermined quantization bit for the analog image signal output from the second image sensor 103. The second TG 105 controls the drive timing of the second image sensor 103 and the second AFE 104. Image data output from each of the first AFE 101 and the second AFE 104 is sent to a CPU (Central Processing Unit) 124. The first TG 102 and the second TG 105 generate drive signals according to control signals from the CPU 124 and output them to the first image sensor 100 and the second image sensor 103, respectively. In the present embodiment, the first AFE 101 and the first TG 102 related to the first image sensor 100 and the second AFE 104 and the second TG 105 related to the second image sensor 103 are used, but the configuration in which the AFE and TG are built in the image sensor. But you can.

CPU124は撮像装置を統括的に制御する。CPU124は、フォーカス駆動回路112および絞り駆動回路113を制御する。例えば、CPU124は、AF演算部122の焦点検出結果(検出情報)に基づいて、フォーカス駆動回路112によりフォーカスアクチュエータ114を駆動制御する。これにより、第3レンズ群108が光軸方向に進退して焦点調節動作が行われる。また、CPU124は絞り駆動回路113により絞りアクチュエータ115を駆動制御し、絞り110の開口径を制御する。   The CPU 124 controls the imaging device in an integrated manner. The CPU 124 controls the focus drive circuit 112 and the aperture drive circuit 113. For example, the CPU 124 drives and controls the focus actuator 114 by the focus drive circuit 112 based on the focus detection result (detection information) of the AF calculation unit 122. As a result, the third lens group 108 advances and retreats in the optical axis direction, and the focus adjustment operation is performed. The CPU 124 controls the aperture actuator 115 by the aperture drive circuit 113 to control the aperture diameter of the aperture 110.

CPU124には各部(116ないし123参照)が接続されている。操作部116はユーザが撮影指示や撮影条件等の設定操作をCPU124に対して行う場合に使用する。表示部117は撮影済みの静止画像や動画像、メニュー等の表示を行う。表示部117はカメラ本体部背面のTFT(薄膜トランジスタ)液晶ディスプレイやファインダなどを含む。RAM(ランダム・アクセス・メモリ)118は、第1AFE101、第2AFE104がデジタル変換した画像データや、第1画像処理部120が処理したデータを記憶する。またRAM118は、第2画像処理部121が処理した画像データを記憶するための画像データ記憶部として機能と、CPU124のワークメモリとしての機能を併せ持つ。本実施形態では、これらの機能をもつRAM118を実装するが、アクセス速度が十分なレベルのメモリであれば、他のメモリを使用可能である。ROM(リード・オンリ・メモリ)119は、CPU124が解釈して実行するプログラムを格納する。フラッシュROM等のメモリデバイスが使用される。   Each unit (see 116 to 123) is connected to the CPU. The operation unit 116 is used when the user performs setting operations such as shooting instructions and shooting conditions on the CPU 124. A display unit 117 displays captured still images, moving images, menus, and the like. The display unit 117 includes a TFT (thin film transistor) liquid crystal display or a viewfinder on the back of the camera body. A RAM (random access memory) 118 stores image data digitally converted by the first AFE 101 and the second AFE 104 and data processed by the first image processing unit 120. The RAM 118 has both a function as an image data storage unit for storing image data processed by the second image processing unit 121 and a function as a work memory of the CPU 124. In this embodiment, the RAM 118 having these functions is mounted. However, other memories can be used as long as the access speed is a sufficient level. A ROM (Read Only Memory) 119 stores a program that is interpreted and executed by the CPU 124. A memory device such as a flash ROM is used.

第1画像処理部120は、撮影された静止画像の補正や圧縮等の処理を行う。第2画像処理部121は、撮影された動画像の補正や圧縮等の処理を行う。また第2画像処理部121は、後述するA画像データとB画像データを加算する機能を有する。
AF演算部122は、第1撮像素子100が出力する画素信号に基づいて焦点検出を行う。フラッシュメモリ123は、静止画像データ及び動画像データを記録するための、着脱可能なメモリデバイスである。本実施形態では記録媒体としてフラッシュメモリを使用するが、データ書き込み可能な不揮発性メモリや、ハードディスク等でもよい。また、これらの記録媒体をケースに内蔵した形態でも構わない。
The first image processing unit 120 performs processing such as correction and compression of a captured still image. The second image processing unit 121 performs processing such as correction and compression of the captured moving image. The second image processing unit 121 has a function of adding A image data and B image data, which will be described later.
The AF calculation unit 122 performs focus detection based on the pixel signal output from the first image sensor 100. The flash memory 123 is a detachable memory device for recording still image data and moving image data. In this embodiment, a flash memory is used as a recording medium. However, a non-volatile memory capable of writing data, a hard disk, or the like may be used. Further, a form in which these recording media are built in a case may be used.

図2は、第1撮像素子100、第2撮像素子103、ハーフミラー107の位置関係を説明する模式図である。ハーフミラー107の反射光は第2撮像素子103に入射し、透過光は第1撮像素子100に入射する。ハーフミラー107の中心から第1撮像素子100までの距離aと、ハーフミラー107の中心から第2撮像素子103までの距離bは等しい(a=b)。つまり、第1撮像素子100と第2撮像素子103には等しい倍率の被写体像である1次結像光が入射する。よって、第1撮像素子100の出力する画素信号を用いてAF制御を行う場合でも、第2撮像素子103に結像する被写体にピントを合わせることができる。   FIG. 2 is a schematic diagram for explaining the positional relationship between the first image sensor 100, the second image sensor 103, and the half mirror 107. The reflected light of the half mirror 107 enters the second image sensor 103, and the transmitted light enters the first image sensor 100. The distance a from the center of the half mirror 107 to the first image sensor 100 is equal to the distance b from the center of the half mirror 107 to the second image sensor 103 (a = b). That is, primary imaging light that is a subject image with the same magnification is incident on the first image sensor 100 and the second image sensor 103. Therefore, even when the AF control is performed using the pixel signal output from the first image sensor 100, the subject imaged on the second image sensor 103 can be focused.

図3は、第1撮像素子100の構成を示す。第1撮像素子100は、画素アレイ100aと、画素アレイ100aにおける行を選択する垂直選択回路100d、画素アレイ100aにおける列を選択する水平選択回路100cを備える。読出し回路100bは、画素アレイ100a中の画素のうち垂直選択回路100d及び水平選択回路100cによって選択される画素の信号を読み出す。   FIG. 3 shows the configuration of the first image sensor 100. The first image sensor 100 includes a pixel array 100a, a vertical selection circuit 100d that selects a row in the pixel array 100a, and a horizontal selection circuit 100c that selects a column in the pixel array 100a. The readout circuit 100b reads out signals of pixels selected by the vertical selection circuit 100d and the horizontal selection circuit 100c among the pixels in the pixel array 100a.

垂直選択回路100dは、画素アレイ100aの行を選択し、CPU124から出力される水平同期信号に基づいて第1TG102から出力される読出しパルスを、選択行において有効にする。読出し回路100bは列毎のアンプやメモリを含み、選択行の画素信号はアンプを介してメモリに格納される。メモリに格納された1行分の画素信号は、水平選択回路100cによって列方向に順に選択され、出力アンプ100eを介して外部に出力される。この動作を行数分繰り返し、全ての画素信号が外部に出力される。なお、第2撮像素子103の構成も同様であるため、その詳細な説明を省略する。   The vertical selection circuit 100d selects the row of the pixel array 100a, and validates the readout pulse output from the first TG 102 in the selected row based on the horizontal synchronization signal output from the CPU 124. The readout circuit 100b includes an amplifier and a memory for each column, and the pixel signal of the selected row is stored in the memory via the amplifier. The pixel signals for one row stored in the memory are sequentially selected in the column direction by the horizontal selection circuit 100c and output to the outside through the output amplifier 100e. This operation is repeated for the number of rows, and all pixel signals are output to the outside. Since the configuration of the second image sensor 103 is the same, detailed description thereof is omitted.

図4は、画素アレイ100aの構成例を示す。画素アレイ100aは、2次元の画像データを出力するため、複数の画素部を2次元アレイ状に配置した構成である。図4(A)は、位相差検出が可能な画素アレイの構成を例示し、図4(B)は、位相差検出が可能でない画素アレイの構成を例示する。本実施形態では、第1撮像素子100の画素アレイは図4(A)の構成とする。一方、第2撮像素子103の画素アレイは図4(B)の構成とする。   FIG. 4 shows a configuration example of the pixel array 100a. The pixel array 100a has a configuration in which a plurality of pixel portions are arranged in a two-dimensional array in order to output two-dimensional image data. FIG. 4A illustrates a configuration of a pixel array that can detect a phase difference, and FIG. 4B illustrates a configuration of a pixel array that cannot detect a phase difference. In the present embodiment, the pixel array of the first image sensor 100 is configured as shown in FIG. On the other hand, the pixel array of the second image sensor 103 is configured as shown in FIG.

図4(A)に円形枠で示すマイクロレンズ100fに対し、長方形枠で示す複数のフォトダイオード(以下、PDと記す)100g、100hが設けられる。PD100g、100hは、複数の光電変換部を構成する。つまり、各画素部を構成する2つのPDに対して1つのマイクロレンズが被写体側に配置される。マイクロレンズ100fを共有する領域を1画素とした場合、水平方向にh1個の画素、垂直方向にi1個の画素が並んで配置される。PD100gとPD100hにそれぞれ蓄積された信号は、読出し動作によって別々に外部に出力される。PD100gとPD100hには、後述のように位相差を持った異なる像の光がそれぞれ入射する。以下、PD100gをA像用画素とし、PD100hをB像用画素とする。本実施形態では、1つのマイクロレンズに対して2個のPDを配置した構成例を示すが、1つのマイクロレンズに対して3以上のPD(例えば4個、9個など)を配置した構成でもよい。つまり、1つのマイクロレンズに対して複数のPDが上下方向または左右方向に配置された構成にも本発明を適用できる。   A plurality of photodiodes (hereinafter referred to as PDs) 100g and 100h indicated by a rectangular frame are provided for the microlens 100f indicated by a circular frame in FIG. The PDs 100g and 100h constitute a plurality of photoelectric conversion units. That is, one microlens is arranged on the subject side for the two PDs constituting each pixel unit. When the area sharing the microlens 100f is one pixel, h1 pixels in the horizontal direction and i1 pixels in the vertical direction are arranged side by side. The signals stored in the PD 100g and PD 100h are separately output to the outside by a read operation. Lights of different images having a phase difference are incident on the PD 100g and the PD 100h, as will be described later. Hereinafter, the PD 100g is referred to as an A image pixel, and the PD 100h is referred to as a B image pixel. In the present embodiment, a configuration example in which two PDs are arranged for one microlens is shown, but a configuration in which three or more PDs (for example, four, nine, etc.) are arranged for one microlens is also possible. Good. That is, the present invention can be applied to a configuration in which a plurality of PDs are arranged in the vertical direction or the horizontal direction with respect to one microlens.

図4(B)の構成では、マイクロレンズ103fに対してPD103gが1個だけ設けられている。すなわち、正方形枠で示す1つのPDに対して、1つのマイクロレンズを被写体側に配置した構成である。水平方向にh2個の画素、垂直方向にi2個の画素が並んで配置される。
第1撮像素子100は静止画撮影で使用し、第2撮像素子103は動画撮影で使用する。このため、第1撮像素子100の画素数(h1×i1画素)は、第2撮像素子103の画素数(h2×i2画素)より多い。また第2撮像素子103は、第1撮像素子100よりも画素数が少ないため、1個のPDの面積が大きくなるので感度が高い。ハーフミラー107により分割される光束は、透過光と反射光とでM:Nの割合で分割される。「N<M」に設定され、感度が高い第2撮像素子103への入射光の割合の方が、第1撮像素子100への入射光の割合よりも小さい。
In the configuration of FIG. 4B, only one PD 103g is provided for the micro lens 103f. That is, one microlens is arranged on the subject side for one PD indicated by a square frame. H2 pixels in the horizontal direction and i2 pixels in the vertical direction are arranged side by side.
The first image sensor 100 is used for still image shooting, and the second image sensor 103 is used for moving image shooting. For this reason, the number of pixels of the first image sensor 100 (h1 × i1 pixels) is larger than the number of pixels of the second image sensor 103 (h2 × i2 pixels). Further, since the second image sensor 103 has a smaller number of pixels than the first image sensor 100, the area of one PD is increased, so that the sensitivity is high. The light beam split by the half mirror 107 is split at a ratio of M: N between transmitted light and reflected light. The ratio of incident light to the second image sensor 103 that is set to “N <M” and has high sensitivity is smaller than the ratio of incident light to the first image sensor 100.

次に、図4(A)に示す画素アレイ構成を有する第1撮像素子100にて、A像用画素とB像用画素が出力する画素データについて説明する。図5(A)および(B)は、第1撮像素子100におけるピント状態と位相差との関係を示す模式図である。
図5に示す画素アレイの断面100aにおいて、1つのマイクロレンズ128に対してA像用画素129およびB像用画素130が配置される。撮影レンズ125は、図1に示す第1レンズ群111、第2レンズ群109、第3レンズ群108を併せて1つのレンズとして表現した撮像光学系である。被写体126からの光は、光軸127を中心として、撮影レンズ125の各領域を通過して撮像素子に結像する。ここでは射出瞳と撮影レンズの中心を同一としている。撮影レンズ125の各領域は、異なる方向から光が通過する。すなわち、本構成では、撮像光学系をA像用画素から見た場合とB像用画素から見た場合とで、撮像光学系の瞳が対称に分割されたことと等価となる。言い換えれば、撮像光学系からの光束が2つの光束として、いわゆる瞳分割される。この分割光束(第1光束ΦLa及び第2光束ΦLb)がA像用画素及びB像用画素にそれぞれ入射する。
Next, pixel data output from the A image pixel and the B image pixel in the first image sensor 100 having the pixel array configuration shown in FIG. 4A will be described. 5A and 5B are schematic diagrams illustrating the relationship between the focus state and the phase difference in the first image sensor 100. FIG.
In the cross section 100 a of the pixel array shown in FIG. 5, the A image pixel 129 and the B image pixel 130 are arranged for one microlens 128. The taking lens 125 is an image pickup optical system in which the first lens group 111, the second lens group 109, and the third lens group 108 shown in FIG. The light from the subject 126 passes through each area of the photographing lens 125 with the optical axis 127 as the center, and forms an image on the image sensor. Here, the exit pupil and the center of the photographic lens are the same. Light passes through each region of the photographing lens 125 from different directions. In other words, this configuration is equivalent to dividing the pupil of the imaging optical system symmetrically when the imaging optical system is viewed from the A image pixel and from the B image pixel. In other words, the light beam from the imaging optical system is divided into so-called pupils as two light beams. The divided light beams (first light beam ΦLa and second light beam ΦLb) are incident on the A image pixel and the B image pixel, respectively.

被写体126上の特定点からの第1光束は、A像用画素129に対応する分割瞳を通ってA像用画素129に入射する光束ΦLaである。また、被写体126上の特定点からの第2光束は、B像用画素130に対応する分割瞳を通ってB像用画素130に入射する光束ΦLbである。瞳分割された2つの光束は、被写体126上の同一点から撮像光学系を通過して入射される。このため、被写体126にピントが合った状態では、図5(A)に示すように、光束ΦLa,ΦLbが同一のマイクロレンズを通過して撮像素子上の1点に到達する。したがって、A像用画素129とB像用画素130からそれぞれ得られる像信号の位相は互いに一致する。   The first light flux from a specific point on the subject 126 is a light flux ΦLa that enters the A image pixel 129 through the divided pupil corresponding to the A image pixel 129. The second light flux from a specific point on the subject 126 is a light flux ΦLb incident on the B image pixel 130 through the divided pupil corresponding to the B image pixel 130. The two pupil-divided light beams are incident from the same point on the subject 126 through the imaging optical system. For this reason, in a state where the subject 126 is in focus, as shown in FIG. 5A, the light beams ΦLa and ΦLb pass through the same microlens and reach one point on the image sensor. Therefore, the phases of the image signals obtained from the A image pixel 129 and the B image pixel 130 are in agreement with each other.

これに対し、図5(B)に示すように、光軸方向に距離Yだけピントがずれている状態では、光束ΦLa,ΦLbがマイクロレンズへ入射する入射角の変化分だけ両光束の到達位置が互いにずれる。したがって、A像用画素129とB像用画素130からそれぞれ得られる像信号には位相差が生じる。A像用画素129およびB像用画素130により検出される、互いに位相差を持った2つの被写体像(A像及びB像)はPDがそれぞれ光電変換する。光電変換後のA像、B像の各信号は別々に外部へ出力され、後述するAF動作で使用される。   On the other hand, as shown in FIG. 5B, in the state where the focus is shifted by the distance Y in the optical axis direction, the arrival positions of the two light beams by the change in the incident angle at which the light beams ΦLa and ΦLb are incident on the microlens. Are shifted from each other. Therefore, there is a phase difference between the image signals obtained from the A image pixel 129 and the B image pixel 130, respectively. The PD subjects each of the two subject images (A image and B image) detected by the A image pixel 129 and the B image pixel 130 and having a phase difference to each other to undergo photoelectric conversion. Each signal of the A image and B image after photoelectric conversion is separately output to the outside and used in an AF operation described later.

次に図6のフローチャートを参照して、本実施形態における撮像装置の動作を説明する。以下の処理はCPU124がメモリからプログラムを読み出して実行することにより実現される。
先ず、S101にて操作部116に含まれる動画撮影スイッチが押下されるまで待機状態となる。ユーザ操作により動画撮影スイッチが押下されると、S102にてCPU124は動画撮影動作を開始させる。第2撮像素子103、第2AFE104、第2TG105に電源が投入され、CPU124は動画撮影設定を行う。この設定後、CPU124から出力される同期信号に基づいて第2TG105が第2撮像素子103に読出しパルスを出力し、第2撮像素子103は所定のフレームレートでの読出し動作を開始する。なお、本実施形態にて動画像の電荷蓄積および読出し動作はスリットローリング動作による電子シャッタ機能を使用して行われるが、この限りではない。
Next, the operation of the imaging apparatus according to the present embodiment will be described with reference to the flowchart of FIG. The following processing is realized by the CPU 124 reading and executing a program from the memory.
First, a standby state is maintained until the moving image shooting switch included in the operation unit 116 is pressed in S101. When the moving image shooting switch is pressed by a user operation, the CPU 124 starts a moving image shooting operation in S102. The second image sensor 103, the second AFE 104, and the second TG 105 are powered on, and the CPU 124 performs moving image shooting settings. After this setting, the second TG 105 outputs a read pulse to the second image sensor 103 based on the synchronization signal output from the CPU 124, and the second image sensor 103 starts a read operation at a predetermined frame rate. In this embodiment, the charge accumulation and readout operations for moving images are performed using an electronic shutter function based on a slit rolling operation, but this is not restrictive.

第2撮像素子103から出力される画像データは、CPU124によりRAM118へ転送される。その後、画像データは第2画像処理部121に転送され、補正や圧縮処理等が行われて動画フレームのデータが作成される。作成された動画フレームのデータに従って表示部117は画像を表示する(ライブビュー表示)。撮影前に表示部117に表示されるメニューを見ながら操作部116を使用してユーザが操作することにより、動画記録モードが選択されている場合には、動画像データがフラッシュメモリ123に順次記録される。   Image data output from the second image sensor 103 is transferred to the RAM 118 by the CPU 124. Thereafter, the image data is transferred to the second image processing unit 121, and correction, compression processing, and the like are performed to create moving image frame data. The display unit 117 displays an image according to the created moving image frame data (live view display). When the moving image recording mode is selected by the user using the operation unit 116 while viewing the menu displayed on the display unit 117 before shooting, moving image data is sequentially recorded in the flash memory 123. Is done.

S103でCPU124は、動画撮影スイッチが再度操作されたか否かを判定する。動画撮影スイッチが操作されていない場合、動画撮影動作が継続し、S104へ処理を進める。また、S103で動画撮影スイッチが操作された場合には、動画撮影動作を終了する。S104でCPU124は、操作部116に含まれるAFスイッチが押下されたか否を判定する。AFスイッチの押下が判定された場合には、S105へ処理を進め、動画撮影中にAF演算が実行される。また、S104でAFスイッチが押下されていないと判定された場合、S108へ処理を進める。S105でCPU124は、第1撮像素子100の位相差検出用画素から画素データを読み出すための設定を行う。この場合、全画面のデータを読み出すのではなく、一部領域から画素データを読み出す処理が実行される。図7に示す領域100i内の画素部からデータが部分的に読出される。これにより、高速なAF演算を実行できる。更には動作時間を短くできるため、消費電力が抑えられる。なお、図7の領域100iでは3画素分のデータ読出しを例示するが、読み出す画素の数については任意に設定できる。また、第1撮像素子100から位相差検出用画素データを読み出す一部領域については、撮影条件が変更された場合や操作指示等に応じて適宜に変更され、変更後の領域から画素データを読み出す処理が実行される。第1撮像素子100から出力されるA像用画素データおよびB像用画素データは、CPU124によりRAM118へ転送される。CPU124はRAM118に格納されるA像用画素データを用いた画像データ(A像に対応するA画像データ)と、B像用画素データを用いた画像データ(B像に対応するB画像データ)をAF演算部122に転送する。   In S103, the CPU 124 determines whether the moving image shooting switch has been operated again. If the moving image shooting switch has not been operated, the moving image shooting operation continues, and the process proceeds to S104. If the moving image shooting switch is operated in S103, the moving image shooting operation is terminated. In step S <b> 104, the CPU 124 determines whether an AF switch included in the operation unit 116 has been pressed. If it is determined that the AF switch has been pressed, the process proceeds to S105, and AF calculation is performed during moving image shooting. If it is determined in S104 that the AF switch has not been pressed, the process proceeds to S108. In S <b> 105, the CPU 124 performs settings for reading pixel data from the phase difference detection pixels of the first image sensor 100. In this case, a process of reading pixel data from a partial area is executed instead of reading data of the entire screen. Data is partially read from the pixel portion in the region 100i shown in FIG. Thereby, high-speed AF calculation can be executed. Furthermore, since the operation time can be shortened, power consumption can be suppressed. In addition, in the area | region 100i of FIG. 7, although the data reading for 3 pixels is illustrated, the number of the pixels to read can be set arbitrarily. In addition, a partial area for reading out phase difference detection pixel data from the first image sensor 100 is appropriately changed according to a change in imaging conditions, an operation instruction, or the like, and reading out pixel data from the changed area. Processing is executed. The A image pixel data and the B image pixel data output from the first image sensor 100 are transferred to the RAM 118 by the CPU 124. The CPU 124 uses the image data (A image data corresponding to the A image) using the A image pixel data stored in the RAM 118 and the image data (B image data corresponding to the B image) using the B image pixel data. Transfer to the AF calculation unit 122.

図8(A)は、図5(A)で説明したように被写体にピントが合っている場合のA画像データおよびB画像データを例示する。横軸は、画素位置を表し、縦軸は出力レベルを表す。図8(A)に示すように、被写体にピントが合っている場合、A画像データとB画像データは一致する。図8(B)は、図5(B)で説明したように被写体にピントが合っていない場合のA画像データおよびB画像データを例示する。この場合、A画像データとB画像データは位相差を持ち、画素位置にずれ量Xが生じる。AF演算部122は、動画フレーム毎のずれ量Xを算出することによりピントずれ量、即ち図5(B)におけるY値を算出する。AF演算部122は算出したY値を、CPU124を介してフォーカス駆動回路112に送信する。   FIG. 8A illustrates A image data and B image data when the subject is in focus as described with reference to FIG. The horizontal axis represents the pixel position, and the vertical axis represents the output level. As shown in FIG. 8A, when the subject is in focus, the A image data and the B image data match. FIG. 8B illustrates A image data and B image data when the subject is not in focus as described with reference to FIG. In this case, the A image data and the B image data have a phase difference, and a shift amount X occurs in the pixel position. The AF calculation unit 122 calculates the shift amount X for each moving image frame, thereby calculating the focus shift amount, that is, the Y value in FIG. The AF calculation unit 122 transmits the calculated Y value to the focus driving circuit 112 via the CPU 124.

S106でフォーカス駆動回路112は、AF演算部122から取得したY値に基づき第3レンズ群108の駆動量を算出し、フォーカスアクチュエータ114に駆動命令を出力する。フォーカスアクチュエータ114により、第3レンズ群108は被写体にピントが合う合焦位置まで移動し、第1撮像素子100の受光面上に焦点が位置する状態となる。この時、第1撮像素子100と第2撮像素子103には、像面倍率が同じである1次結像光が入射しており、被写界深度等も同一である。このため、第1撮像素子100で被写体にピントが合った状態では、第2撮像素子103でも被写体にピントが合った状態となる。次のS107でCPU124は、フォーカス駆動の結果、合焦状態であるか否かの判定(合焦判定)を行う。そのために、S107では再度AF演算が実行される。AF演算の処理内容はS105と同様であるため、説明を省略する。撮像光学系が合焦状態であると判定された場合、S108に処理を進め、合焦状態でないと判定された場合、S104に処理を戻す。S108でCPU124は、操作部116に含まれる静止画撮影スイッチが押下されたか否かを判定する。静止画撮影スイッチが押下された場合、S109に処理を進め、静止画撮影スイッチが押下されていない場合、S103に処理を戻す。   In S <b> 106, the focus drive circuit 112 calculates the drive amount of the third lens group 108 based on the Y value acquired from the AF calculation unit 122, and outputs a drive command to the focus actuator 114. By the focus actuator 114, the third lens group 108 moves to the in-focus position where the subject is in focus, and the focus is positioned on the light receiving surface of the first image sensor 100. At this time, primary imaging light having the same image plane magnification is incident on the first image sensor 100 and the second image sensor 103, and the depth of field and the like are also the same. For this reason, when the subject is focused on the first image sensor 100, the subject is also focused on the second image sensor 103. In the next S107, the CPU 124 determines whether or not the focus state is in the focused state as a result of the focus drive (focus determination). Therefore, AF calculation is executed again in S107. Since the processing content of the AF calculation is the same as that in S105, the description is omitted. If it is determined that the imaging optical system is in focus, the process proceeds to S108. If it is determined that the imaging optical system is not in focus, the process returns to S104. In S <b> 108, the CPU 124 determines whether or not the still image shooting switch included in the operation unit 116 has been pressed. If the still image shooting switch is pressed, the process proceeds to S109. If the still image shooting switch is not pressed, the process returns to S103.

S109で静止画撮影動作が開始すると、CPU124はフォーカルプレーンシャッタ106を制御して第1撮像素子100に対する露光動作を行う。その後、CPU124から出力される同期信号に基づいて第1TG102は第1撮像素子100に読出しパルスを出力する。これにより第1撮像素子100は読出し動作を開始する。第1撮像素子100が出力した画像データは、第1AFE101がデジタルデータに変換した後、RAM118に格納される。CPU124はRAM118に格納される画像データを第1画像処理部120に転送する。第1画像処理部120は画像データの補正や圧縮処理等を行い、処理後の画像データはフラッシュメモリ123に記録される。S109の後でS103へ戻り、前記処理が繰り返される。
なお、S104においてAFスイッチが押下されていない場合には、S108に移行する。また、表示部117と操作部116を使用したメニュー表示での操作指示により、AF動作がOFF状態に設定されている場合も同様である。
When the still image shooting operation starts in S109, the CPU 124 controls the focal plane shutter 106 to perform an exposure operation on the first image sensor 100. Thereafter, the first TG 102 outputs a read pulse to the first image sensor 100 based on the synchronization signal output from the CPU 124. As a result, the first image sensor 100 starts a reading operation. The image data output from the first image sensor 100 is stored in the RAM 118 after the first AFE 101 converts it into digital data. The CPU 124 transfers the image data stored in the RAM 118 to the first image processing unit 120. The first image processing unit 120 performs image data correction, compression processing, and the like, and the processed image data is recorded in the flash memory 123. After S109, the process returns to S103 and the above process is repeated.
If the AF switch is not pressed in S104, the process proceeds to S108. The same applies to the case where the AF operation is set to the OFF state by the operation instruction in the menu display using the display unit 117 and the operation unit 116.

図9は撮影画面上でのAFフレーム枠(焦点検出領域を表示する枠)を例示した図である。図9(A)は、AFフレーム枠の選択処理について一例を示す。AFフレーム枠は表示部117等の画面に表示され、ユーザは操作部116を用いてAFフレーム枠を選択できる。図9(A)のAFフレーム枠132は選択可能なエリアを示し、AFフレーム枠131は現在選択中のAFフレーム枠を示す。図6のS105では現在選択中のAFフレーム枠132の位置に基づいて、これに対応する領域(図7に示す領域100i参照)を決定する処理が行われる。当該領域にて、第1撮像素子100の画素データが読み出されてAF演算処理が実行される。なお、図9(A)に示すAFフレーム枠の数や領域は例示であって、任意に設計可能である。   FIG. 9 is a diagram illustrating an AF frame frame (a frame for displaying a focus detection area) on the shooting screen. FIG. 9A shows an example of the AF frame selection process. The AF frame frame is displayed on the screen of the display unit 117 or the like, and the user can select the AF frame frame using the operation unit 116. The AF frame frame 132 in FIG. 9A indicates a selectable area, and the AF frame frame 131 indicates the currently selected AF frame frame. In S105 of FIG. 6, based on the position of the currently selected AF frame frame 132, a process for determining a corresponding area (see an area 100i shown in FIG. 7) is performed. In this area, the pixel data of the first image sensor 100 is read and AF calculation processing is executed. Note that the number and area of the AF frame shown in FIG. 9A are examples, and can be arbitrarily designed.

図9(B)は、被写体の顔領域を検出してAFフレーム枠を自動で選択する処理について一例を示す。図9(B)ではAFフレーム枠132と被写体像133を例示する。CPU124は、第2撮像素子103で撮影している動画フレーム(ライブビュー画像でも可)を画像解析することで被写体を判定し、被写体の顔領域を検出する。AFフレーム枠134は被写体の顔領域に対応するAFフレーム枠である。このAFフレーム枠134の位置に相当する画素データに基づいてAF演算処理が実行される。なお、被写体の顔検出方法については特に限定しない。   FIG. 9B shows an example of processing for detecting the face area of the subject and automatically selecting the AF frame frame. FIG. 9B illustrates an AF frame frame 132 and a subject image 133. The CPU 124 determines a subject by image analysis of a moving image frame (which may be a live view image) captured by the second image sensor 103, and detects a face area of the subject. The AF frame frame 134 is an AF frame frame corresponding to the face area of the subject. An AF calculation process is executed based on pixel data corresponding to the position of the AF frame frame 134. The subject face detection method is not particularly limited.

図10は、従来例と対比しつつ、本実施形態における位相差検出用画素の読出しタイミングを説明する図である。図10(A)は、従来のシステムにおいて、動画撮影用撮像素子の位相差検出用画素からデータを読み出すタイミングを例示する。図10(B)は、本実施形態における動画撮影用の第2撮像素子103から動画像用画素データを読み出すタイミングを例示する。図10(C)は、本実施形態における静止画用の第1撮像素子100から位相差検出用画素データを読み出すタイミングを例示する。なお、図10の縦軸は各撮像素子の垂直方向の位置を示し、横軸は時間軸を示す。
図10(A)に示す期間140の長さは、撮像素子の蓄積時間を示す。この蓄積時間は動画の撮影設定によって決定される。期間140において、A像用画素、B像用画素の信号電荷蓄積がそれぞれ行われる。期間140で蓄積された信号の示す画素データは斜めの線分141の時点で示すタイミングで読み出され、CPU124によってRAM118に格納される。その後、第2画像処理部121に転送され、同一のマイクロレンズ下にあるA像用画素およびB像用画素の各データを、画素毎に加算する処理が実行される。これにより、動画フレームのデータが作成される。
FIG. 10 is a diagram for explaining the readout timing of the phase difference detection pixel in the present embodiment, in contrast with the conventional example. FIG. 10A illustrates the timing of reading data from the phase difference detection pixels of the moving image capturing image sensor in the conventional system. FIG. 10B illustrates timing for reading moving image pixel data from the moving image capturing second imaging element 103 according to the present embodiment. FIG. 10C illustrates the timing of reading phase difference detection pixel data from the still image first image sensor 100 according to this embodiment. In addition, the vertical axis | shaft of FIG. 10 shows the position of the vertical direction of each image sensor, and a horizontal axis shows a time axis.
The length of the period 140 illustrated in FIG. 10A indicates the accumulation time of the image sensor. This accumulation time is determined by moving image shooting settings. In the period 140, signal charge accumulation for the A image pixel and the B image pixel is performed. Pixel data indicated by the signal accumulated in the period 140 is read at the timing indicated by the oblique line segment 141 and stored in the RAM 118 by the CPU 124. Thereafter, the data is transferred to the second image processing unit 121, and processing for adding each data of the A image pixel and the B image pixel under the same microlens for each pixel is executed. As a result, moving image frame data is created.

右向きの矢印で示す期間142の長さはAF演算の処理時間を示している。図6で説明したようにA像用画素、B像用画素の各データを用いてAF演算処理が実行される。期間143の長さはフォーカス駆動時間を示している。図6で説明したようにAF演算結果に基づいてフォーカス駆動処理が実行される。
図10(A)に示す従来例のシステムでは、線分141の時点で示す読出しタイミングにおいて、動画フレームのデータ作成とAF演算処理を行うために、A像用画素データとB像用画素データを読み出す必要がある。そのため、読出しスループット(この場合、動画のフレームレートに対応する処理能力)を十分に発揮できない。この問題を解決すべく、本実施形態での画素データ読出し方法について、図10(B)および(C)を参照して以下に説明する。
The length of the period 142 indicated by the right-pointing arrow indicates the processing time of the AF calculation. As described with reference to FIG. 6, the AF calculation processing is executed using each data of the A image pixel and the B image pixel. The length of the period 143 indicates the focus drive time. As described with reference to FIG. 6, the focus drive process is executed based on the AF calculation result.
In the system of the conventional example shown in FIG. 10A, the pixel data for A image and the pixel data for B image are stored in order to perform moving image frame data creation and AF calculation processing at the readout timing shown at the time of the line segment 141. Need to read. For this reason, the read throughput (in this case, the processing capability corresponding to the frame rate of the moving image) cannot be fully exhibited. In order to solve this problem, a pixel data reading method according to the present embodiment will be described below with reference to FIGS. 10B and 10C.

図10(B)は、第2撮像素子103の動画像用画素データの読出し処理を例示する。期間140の長さは、図10(A)と同様に蓄積時間を示す。斜めの線分144で示す時点は画素データの読出しタイミングを示し、動画像用の画素データが読み出される。すなわち、線分144の時点で動画像用の画素データの読出し処理のみが行われるので、動画のフレームレートを最大限に発揮することができる。   FIG. 10B illustrates a process of reading moving image pixel data of the second image sensor 103. The length of the period 140 indicates the accumulation time as in FIG. A time point indicated by an oblique line segment 144 indicates a pixel data read timing, and moving image pixel data is read. That is, only the moving image pixel data reading process is performed at the time of the line segment 144, so that the moving image frame rate can be maximized.

図10(C)に示す期間145の長さは、第1撮像素子100での位相差検出用画素の蓄積時間を示している。蓄積時間については動画用画素の蓄積時間(期間140参照)と同一にする必要はなく、AF演算処理に適した蓄積時間を設定できる。図10(C)の例では、図10(B)の場合に比べて蓄積時間を長く設定しているが、これに限ったものではない。本実施形態では、AF演算処理に適した蓄積時間を設定できるので、より精度の高いAF動作を行える。
線分146で示す時点は位相差検出用画素データの読出しタイミングを示している。図7の領域100iについて説明したように、第1撮像素子100の画素群における部分領域に限定してデータの読出し処理を行うことで、読出し時間(所要時間)を大幅に低減できる。その結果、より高速なAF動作を実現できる。なお、期間147の長さはAF演算処理時間を表し、図10(A)の期間142と同様である。また、期間148の長さはフォーカス駆動時間を表し、図10(A)の期間143と同様である。
The length of the period 145 shown in FIG. 10C indicates the accumulation time of the phase difference detection pixels in the first image sensor 100. The accumulation time does not have to be the same as the accumulation time of moving image pixels (see period 140), and an accumulation time suitable for AF calculation processing can be set. In the example of FIG. 10C, the accumulation time is set longer than that in the case of FIG. 10B, but the present invention is not limited to this. In the present embodiment, since an accumulation time suitable for AF calculation processing can be set, a more accurate AF operation can be performed.
A time point indicated by a line segment 146 indicates the read timing of the phase difference detection pixel data. As described for the region 100i in FIG. 7, the reading time (required time) can be greatly reduced by performing the data reading process only on the partial region in the pixel group of the first image sensor 100. As a result, a faster AF operation can be realized. Note that the length of the period 147 represents the AF calculation processing time, which is the same as the period 142 in FIG. Further, the length of the period 148 represents the focus driving time, which is the same as the period 143 in FIG.

本実施形態によれば、読出しスループットを最大限に発揮した動画撮影動作を実現でき、また、動画撮影時のAF処理を高精度かつ高速に行うことができる。
本実施形態では、第1撮像素子100の全ての画素部が焦点検出用画素を含み、位相差検出方式のAF処理を行える構成をもつが、この限りではない。例えば、第1撮像素子100が、離散的に配置された焦点検出用画素を備え、対をなす像信号を取得して位相差AF処理を行う構成でもよい。この場合、焦点検出用の画素部については、例えば、各マイクロレンズに対して1つのPDを有し、遮光層により左右または上下の部分が遮光された構成で瞳分割方式の焦点検出を行う。
また、第1撮像素子100が第2撮像素子103と同様の画素構成であって、各画素部から読み出した画像データのコントラストを検出してAF動作を行うコントラストAF方式を適用する構成も可能である。この場合、第1撮像素子100は、1つのマイクロレンズに対して1つのPDを有する構成でよい。
According to the present embodiment, it is possible to realize a moving image shooting operation that maximizes the reading throughput, and it is possible to perform AF processing at the time of moving image shooting with high accuracy and high speed.
In the present embodiment, all the pixel portions of the first image sensor 100 include focus detection pixels and have a configuration capable of performing phase difference detection AF processing, but this is not restrictive. For example, the first image sensor 100 may include a focus detection pixel that is discretely arranged, obtain a pair of image signals, and perform phase difference AF processing. In this case, the focus detection pixel unit has, for example, one PD for each microlens and performs pupil division type focus detection with a configuration in which the left and right or upper and lower portions are shielded by the light shielding layer.
Further, the first image sensor 100 may have a pixel configuration similar to that of the second image sensor 103, and may be configured to apply a contrast AF method in which the contrast of image data read from each pixel unit is detected and an AF operation is performed. is there. In this case, the first image sensor 100 may be configured to have one PD for one microlens.

本実施形態では、第1撮像素子100により取得されるA画像データとB画像データを画像処理部が加算して動画を生成する構成である。これに限らず、A画像データ、B画像データがそれぞれ必要ない場合には、一部または全部の画素部についてA画像データ、B画像データを撮像素子内で加算して出力する構成でもよい。   In the present embodiment, the image processing unit adds A image data and B image data acquired by the first image sensor 100 to generate a moving image. However, the present invention is not limited to this, and when A image data and B image data are not required, a configuration may be adopted in which A image data and B image data are added and output in the image sensor for some or all of the pixel portions.

[第1実施形態の変形例]
図11は、撮像素子の画素アレイの変形例を模式的に示す。一般的に、静止画撮影用の第1撮像素子100は動画撮影用の第2撮像素子103に比べ、高画素数の構成となる。一方、第2撮像素子103は第1撮像素子100に比べ、1画素当たりの面積を大きくして感度を高めた構成となる。
図11(A)は第1撮像素子100の画素アレイを例示し、図11(B)は第2撮像素子103の画素アレイを例示する。図11(B)に示す第2撮像素子103の1画素(103i参照)に対して、図11(A)に示す第1撮像素子100の画素部は4画素(100i参照)対応している。
[Modification of First Embodiment]
FIG. 11 schematically shows a modification of the pixel array of the image sensor. In general, the first image sensor 100 for taking a still image has a higher number of pixels than the second image sensor 103 for taking a moving image. On the other hand, the second image sensor 103 has a configuration in which the area per pixel is increased and the sensitivity is increased as compared with the first image sensor 100.
FIG. 11A illustrates a pixel array of the first image sensor 100, and FIG. 11B illustrates a pixel array of the second image sensor 103. The pixel portion of the first image sensor 100 shown in FIG. 11A corresponds to four pixels (see 100i) with respect to one pixel (see 103i) of the second image sensor 103 shown in FIG.

説明の便宜上、第2撮像素子103の1画素分の面積に対し、第1撮像素子100の1画素分の面積の比率を約4:1としたが、この比率については仕様に応じて変更可能である。また、位相差検出に使用するための、対をなすA像用画素データおよびB像用画素データについては、第1撮像素子100内で複数の画素のデータについて加算処理を行ってから、加算後のデータを読み出す構成により、処理の高速化を図ることができる。例えば、第2撮像素子103の1画素分の面積に対し、第1撮像素子100の1画素分の面積の比率をN:1とした場合、当該比率に相当するN画素分のデータを加算したデータを第1撮像素子100から読み出す処理が行われる。
変形例では、第2撮像素子103に比較して高精細な画素出力が可能な第1撮像素子100における特定領域(焦点検出用の選択領域)内の画素部から、位相差検出信号を取得して焦点ずれ量を算出することができる。
For convenience of explanation, the ratio of the area of one pixel of the first image sensor 100 to the area of one pixel of the second image sensor 103 is about 4: 1, but this ratio can be changed according to the specification. It is. In addition, for the A image pixel data and the B image pixel data to be paired for use in phase difference detection, after the addition processing is performed on the data of a plurality of pixels in the first image sensor 100, the addition is performed. By reading the data, it is possible to increase the processing speed. For example, when the ratio of the area of one pixel of the first image sensor 100 to the area of one pixel of the second image sensor 103 is N: 1, data of N pixels corresponding to the ratio is added. A process of reading data from the first image sensor 100 is performed.
In the modified example, a phase difference detection signal is acquired from a pixel portion in a specific area (selected area for focus detection) in the first image sensor 100 that can output a pixel with higher definition than the second image sensor 103. Thus, the defocus amount can be calculated.

[第2実施形態]
次に本発明の第2実施形態を説明する。なお、第2実施形態にて第1撮像素子200および第2撮像素子203を除いて、第1実施形態と同様の構成部については既に使用した符号を用いることによってそれらの詳細な説明を省略し、主に相違点を説明する。
第2実施形態に係る撮像装置の基本構成は図1と同様であるが、第1撮像素子200および第2撮像素子203の画素アレイの構成が相違する。図12(A)は第1撮像素子200の画素アレイの構成例を示し、図12(B)は第2撮像素子203の画素アレイの構成例を示す。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. Note that, except for the first image sensor 200 and the second image sensor 203 in the second embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed descriptions thereof are omitted. The difference will be mainly described.
The basic configuration of the imaging apparatus according to the second embodiment is the same as that of FIG. 1, but the configuration of the pixel arrays of the first imaging element 200 and the second imaging element 203 is different. 12A shows a configuration example of the pixel array of the first image sensor 200, and FIG. 12B shows a configuration example of the pixel array of the second image sensor 203.

図12(A)に示す1つのマイクロレンズ200fに対して、2つのPD200g、200hが配置されている。マイクロレンズ200fを共有する領域を1画素とした場合、水平方向にh1個の画素、垂直方向にi1個の画素が並んで配置される。図4(A)と比較して、単位面積当たりの画素数が多く、稠密に分布していることが分かる。また、図12(B)に示す1つのマイクロレンズ203fに対して、2つのPD203g、203hが配置されている。水平方向にh2個の画素、垂直方向にi2個の画素が並んで配置される。第2撮像素子203は動画撮影用であるため、静止画用の第1撮像素子200に比べて画素数が少なく、1画素当たりの面積が大きい。本実施形態では、第1撮像素子200および第2撮像素子203がいずれも位相差検出用画素を備えた構成である。   Two PDs 200g and 200h are arranged for one microlens 200f shown in FIG. When the area sharing the microlens 200f is one pixel, h1 pixels in the horizontal direction and i1 pixels in the vertical direction are arranged side by side. Compared with FIG. 4A, it can be seen that the number of pixels per unit area is large and densely distributed. Further, two PDs 203g and 203h are arranged for one microlens 203f shown in FIG. H2 pixels in the horizontal direction and i2 pixels in the vertical direction are arranged side by side. Since the second image sensor 203 is used for moving image shooting, the number of pixels is smaller than that of the first image sensor 200 for still images, and the area per pixel is large. In the present embodiment, each of the first image sensor 200 and the second image sensor 203 includes a phase difference detection pixel.

次に、図13および図14に示すフローチャートを参照して、本実施形態の撮像動作を説明する。
図13のS201で撮影動作が開始し、S202でCPU124は撮影モードを判定する。撮影モードが静止画撮影モードの場合、S205に移行して静止画撮影の準備動作が行われる。また、撮影モードが動画撮影モードの場合、S203から図14のS211に移行する。なお、撮影モードの選択については、操作部116を用いて選択する形態や、表示部117に表示されるメニュー画面を見ながらタッチパネルの操作により選択する形態がある。
Next, the imaging operation of this embodiment will be described with reference to the flowcharts shown in FIGS.
The shooting operation starts in S201 of FIG. 13, and the CPU 124 determines the shooting mode in S202. When the shooting mode is the still image shooting mode, the process proceeds to S205 and a preparation operation for still image shooting is performed. When the shooting mode is the moving image shooting mode, the process proceeds from S203 to S211 in FIG. Note that the shooting mode can be selected using the operation unit 116 or selected by operating the touch panel while viewing the menu screen displayed on the display unit 117.

まず、静止画撮影モードでの処理について説明する。
図13のS205でCPU124は、操作部116に含まれるAFスイッチの操作状態を判定する。AFスイッチが押下されている場合、S206へ処理を進めるが、AFスイッチが押下されていない場合には、待ち状態となってS205の判定処理が繰り返される。
S206では静止画撮影中にAF演算処理が実行される。つまり、第2撮像素子203、第2AFE104、第2TG105に電源が投入され、CPU124は第2撮像素子203の位相差検出用画素からデータを読み出すための設定を行う。第2撮像素子203から出力されるA像用画素データとB像用画素データは、CPU124によりRAM118に転送される。CPU124はRAM118に格納されるA像用画素データを用いたA像に対応するA画像データと、B像用画素データを用いたB像に対応するB画像データをAF演算部122に転送する。なお、図13および図14では説明の便宜のため、静止画撮影と動画撮影を同時に行う場合のフローチャートとして記載してはいないが、ライブビュー撮影が指定されている場合、S206でCPU124はライブビュー設定処理を行う。また、S206にて動画撮影の指定がなされている場合、CPU124は動画撮影の設定処理を行う。
First, processing in the still image shooting mode will be described.
In S <b> 205 of FIG. 13, the CPU 124 determines the operation state of the AF switch included in the operation unit 116. If the AF switch is pressed, the process proceeds to S206. If the AF switch is not pressed, the process enters a waiting state and the determination process of S205 is repeated.
In S206, AF calculation processing is executed during still image shooting. That is, power is turned on to the second image sensor 203, the second AFE 104, and the second TG 105, and the CPU 124 performs settings for reading data from the phase difference detection pixels of the second image sensor 203. The A image pixel data and the B image pixel data output from the second image sensor 203 are transferred to the RAM 118 by the CPU 124. The CPU 124 transfers the A image data corresponding to the A image using the A image pixel data stored in the RAM 118 and the B image data corresponding to the B image using the B image pixel data to the AF calculation unit 122. For convenience of explanation, FIGS. 13 and 14 are not described as flowcharts for performing still image shooting and moving image shooting simultaneously. However, when live view shooting is designated, the CPU 124 performs live view shooting in S206. Perform the setting process. If the moving image shooting is designated in S206, the CPU 124 performs moving image shooting setting processing.

次にS207でフォーカス駆動回路112は、AF演算部122から取得した焦点ずれ量に基づき、第3レンズ群108の駆動量を算出し、フォーカスアクチュエータ114に駆動命令を出力する。第3レンズ群108はフォーカスアクチュエータ114により合焦位置まで移動し、第2撮像素子203の受光面上に焦点が位置した状態となる。この時、第1撮像素子200および第2撮像素子203には、像面倍率が同じである1次結像光が入射しており、被写界深度等も同一である。このため、同一被写体に対して第2撮像素子203でピントが合った状態では、第1撮像素子200でもピントが合った状態となる。
次のS208でCPU124は合焦状態であるか否かを判定する。そのために、再度AF演算が実行される。AF演算の処理内容はS206と同様である。S208で合焦状態の判定が下された場合、S209に処理を進める。また非合焦状態の判定が下された場合、S205に処理を戻す。
Next, in S <b> 207, the focus drive circuit 112 calculates the drive amount of the third lens group 108 based on the defocus amount acquired from the AF calculation unit 122, and outputs a drive command to the focus actuator 114. The third lens group 108 is moved to the in-focus position by the focus actuator 114, and the focal point is located on the light receiving surface of the second image sensor 203. At this time, primary imaging light having the same image plane magnification is incident on the first imaging element 200 and the second imaging element 203, and the depth of field and the like are also the same. For this reason, when the second image sensor 203 is in focus with respect to the same subject, the first image sensor 200 is also in focus.
In the next S208, the CPU 124 determines whether or not it is in focus. For this purpose, the AF calculation is executed again. The processing content of the AF calculation is the same as S206. If the in-focus state is determined in S208, the process proceeds to S209. If the in-focus state is determined, the process returns to S205.

S209でCPU124は、操作部116に含まれる静止画撮影スイッチが操作されたか否かを判定する。静止画撮影スイッチが押下されていた場合、S210に移行して静止画撮影動作が行われる。その後、S204を介してS202へ処理を戻す。またS209で静止画撮影スイッチが押下されていない場合、S205に処理を戻す。   In step S <b> 209, the CPU 124 determines whether the still image shooting switch included in the operation unit 116 has been operated. If the still image shooting switch has been pressed, the process proceeds to S210 and a still image shooting operation is performed. Thereafter, the process returns to S202 via S204. If the still image shooting switch is not pressed in S209, the process returns to S205.

次に図14を参照して、動画撮影モード時の動作について説明する。
S211でCPU124は、操作部116に含まれる動画撮影スイッチの操作状態を判定する。動画撮影スイッチが押下された場合、S212に移行して動画撮影動作が開始する。また、動画撮影スイッチが押下されない場合、S204から図13のS202へ処理を戻す。
S212で動画撮影が開始すると、第2撮像素子203、第2AFE104、第2TG105に電源が投入され、CPU124は動画撮影設定処理を行う。この設定後、CPU124から出力される同期信号に基づいて、第2TG105は第2撮像素子203に対して読出しパルスを出力する。第2撮像素子203は所定のフレームレートでの読出し動作を開始する。なお、本実施形態では動画像の電荷蓄積および読出し動作がスリットローリング動作による電子シャッタ機能を使用して行われる。第2撮像素子203から出力された画素データは、CPU124によりRAM118へ転送される。その後、第2画像処理部121に転送され、補正および圧縮処理等が施され、動画フレームのデータが生成される。生成された動画フレームのデータに従って表示部117は画面に動画表示を行う(ライブビュー)。撮影前に表示部117に表示されたメニュー画面と操作部116を使用してユーザが動画記録の選択指示を既に行っている場合には、動画像のデータがフラッシュメモリ123に順次記録される。
Next, the operation in the moving image shooting mode will be described with reference to FIG.
In S <b> 211, the CPU 124 determines an operation state of the moving image shooting switch included in the operation unit 116. When the moving image shooting switch is pressed, the process proceeds to S212 and the moving image shooting operation starts. If the moving image shooting switch is not pressed, the process returns from S204 to S202 in FIG.
When moving image shooting is started in S212, the second image sensor 203, the second AFE 104, and the second TG 105 are powered on, and the CPU 124 performs moving image shooting setting processing. After this setting, the second TG 105 outputs a read pulse to the second image sensor 203 based on the synchronization signal output from the CPU 124. The second image sensor 203 starts a reading operation at a predetermined frame rate. In this embodiment, charge accumulation and readout operations for moving images are performed using an electronic shutter function based on a slit rolling operation. Pixel data output from the second image sensor 203 is transferred to the RAM 118 by the CPU 124. Thereafter, the data is transferred to the second image processing unit 121, subjected to correction and compression processing, and the like, and moving image frame data is generated. The display unit 117 displays a moving image on the screen according to the generated moving image frame data (live view). If the user has already instructed to select moving image recording using the menu screen displayed on the display unit 117 and the operation unit 116 before shooting, moving image data is sequentially recorded in the flash memory 123.

S213でCPUは、動画撮影スイッチが再度押下されたか否かを判定する。動画撮影スイッチが押下されていない場合には動画撮影を継続し、S214へ移行する。また動画撮影スイッチが押下された場合には動画撮影を終了し、S204から図13のS202へ処理を戻す。S214でCPU124は、AFスイッチの操作状態を判定する。AFスイッチが押下されている場合、S215に移行するが、AFスイッチが押下されていない場合にはS213に処理を戻す。
S215では動画撮影中にAF演算処理が実行される。つまり、第1撮像素子200、第1AFE101、第1TG102に電源が投入され、CPU124は第1撮像素子200の位相差検出用画素からデータを読み出すための設定を行う。第1撮像素子200の位相差検出用画素からデータを読み出す際には、全領域ではなく限定された対象領域内の画素データを部分的に読み出すことで、高速にAF演算を行う。これにより、動作時間を短くできるため、消費電力が抑えられる。
In S213, the CPU determines whether the moving image shooting switch has been pressed again. If the moving image shooting switch is not pressed, moving image shooting is continued, and the process proceeds to S214. If the moving image shooting switch is pressed, moving image shooting is terminated, and the process returns from S204 to S202 in FIG. In S214, the CPU 124 determines the operation state of the AF switch. If the AF switch is pressed, the process proceeds to S215. If the AF switch is not pressed, the process returns to S213.
In S215, AF calculation processing is executed during moving image shooting. That is, the first image sensor 200, the first AFE 101, and the first TG 102 are powered on, and the CPU 124 performs settings for reading data from the phase difference detection pixels of the first image sensor 200. When reading data from the phase difference detection pixels of the first image sensor 200, AF calculation is performed at high speed by partially reading pixel data in a limited target area instead of the entire area. As a result, the operation time can be shortened, so that power consumption can be suppressed.

S216でフォーカス駆動回路112は、AF演算部122から取得した焦点ずれ量に基づき第3レンズ群108の駆動量を算出し、フォーカスアクチュエータ114に駆動命令を出力する。第3レンズ群108は合焦位置まで移動する。次のS217では再度AF演算が実行された後で合焦判定処理が行われる。合焦状態の判定が下された場合、S213に移行し、また非合焦点状態の判定が下された場合、S214に処理を戻す。   In S <b> 216, the focus drive circuit 112 calculates the drive amount of the third lens group 108 based on the defocus amount acquired from the AF calculation unit 122 and outputs a drive command to the focus actuator 114. The third lens group 108 moves to the in-focus position. In the next S217, after the AF calculation is executed again, the focus determination process is performed. If the determination of the in-focus state is made, the process proceeds to S213. If the determination of the out-of-focus state is made, the process returns to S214.

以上の動作により、撮影モードに応じて位相差検出を行う撮像素子が変更される。すなわち、静止画撮影モードでは第2撮像素子203の位相差検出用画素からデータ読出し動作が行われる。また動画撮影モードでは第1撮像素子200の位相差検出用画素からデータ読出し動作が行われる。撮影モードに応じた撮像素子の切り替えにより、動画撮影時の読出しスループットを最大限に発揮できる。更には、動画撮影時のAF動作を高精度、かつ高速に行うことができる。   With the above operation, the image sensor for detecting the phase difference is changed according to the photographing mode. That is, in the still image shooting mode, a data read operation is performed from the phase difference detection pixel of the second image sensor 203. In the moving image shooting mode, a data read operation is performed from the phase difference detection pixels of the first image sensor 200. By switching the image sensor according to the shooting mode, the reading throughput during moving image shooting can be maximized. Furthermore, the AF operation during moving image shooting can be performed with high accuracy and high speed.

次に、図15を参照して設定操作について説明する。図15は表示部117の一例として、動画像の記録サイズ設定画面230と被写体追従特性の設定画面240を示す。本実施形態では、操作部116、表示部117、およびCPU124により、動画像の記録サイズを設定する記録サイズ設定処理と、動画像のフレームレートを設定するフレームレート設定処理が行われる。
図15(A)は動画記録サイズ231、動画フレームレート232、動画圧縮形式233を設定する画面例を示す。動画記録サイズについては、例えば下記の画質選択が可能である(図には1920,1280,640と略記する)。
・1920×1080画素のフルハイビジョン(Full HD)画質。
・1280×720画素のハイビジョン(HD)画質。
・640×480画素の標準画質。
Next, the setting operation will be described with reference to FIG. FIG. 15 shows a moving image recording size setting screen 230 and a subject tracking characteristic setting screen 240 as an example of the display unit 117. In this embodiment, the operation unit 116, the display unit 117, and the CPU 124 perform a recording size setting process for setting a moving image recording size and a frame rate setting process for setting a moving image frame rate.
FIG. 15A shows an example of a screen for setting the moving image recording size 231, the moving image frame rate 232, and the moving image compression format 233. For the moving picture recording size, for example, the following image quality can be selected (abbreviated as 1920, 1280, 640 in the figure).
-Full high-definition (Full HD) image quality of 1920 x 1080 pixels.
-1280 x 720 pixel high-definition (HD) image quality.
-Standard image quality of 640 x 480 pixels.

また、動画像のフレームレートについては、テレビジョン放送映像方式がNTSC(National Television System Committee)の場合、30フレームまたは60フレームを選択可能である。テレビジョン放送映像方式がPAL(Phase Alternation by Line)の場合、25フレームまたは50フレームを選択可能である。また、映画関連での使用例として24フレームを選択可能である。なお、図15(A)にはNTSC方式の場合の表示例を示す。
動画圧縮形式については、複数のフレーム単位で効率的に圧縮して記録するIPB方式や、1フレーム単位で圧縮して記録するALL-I方式などが選択可能である。
ユーザが操作部116等を操作して意図する設定項目を選択すると、選択された設定項目の内容が画面の表示枠235内に表示される。
As for the frame rate of the moving image, 30 frames or 60 frames can be selected when the television broadcast video system is NTSC (National Television System Committee). When the television broadcast video system is PAL (Phase Alternation by Line), 25 frames or 50 frames can be selected. In addition, 24 frames can be selected as a movie-related usage example. FIG. 15A shows a display example in the case of the NTSC system.
As the moving image compression format, an IPB method for efficiently compressing and recording in units of a plurality of frames, an ALL-I method for compressing and recording in units of one frame, or the like can be selected.
When the user operates the operation unit 116 or the like to select an intended setting item, the content of the selected setting item is displayed in the display frame 235 of the screen.

設定された動画記録サイズ、動画フレームレートによっては、第2撮像素子203の読出しスループットを最大限に発揮する必要がない場合がある。例えば、動画記録サイズに関して標準画質でよい場合、第2撮像素子203の画素データを間引いて読み出すことで必要な読出しスループットを低く抑えることができる。本実施形態では、記録サイズ設定処理により設定された動画像の記録サイズが閾値以下である場合、AF演算部122は第2撮像素子203の出力する画素データを取得して焦点検出を行う。
また、動画フレームレートが24乃至30フレームの場合にも、撮像素子の読出しスループットがそれほど要求されない場合がある。本実施形態では、フレームレート設定処理により設定されたフレームレートが閾値以下である場合、AF演算部122は第2撮像素子203の出力する画素データを取得して焦点検出を行う。位相差検出を第2撮像素子203で行うことにより、システム全体の消費電力を大幅に低減できる。
Depending on the set moving image recording size and moving image frame rate, it may not be necessary to maximize the reading throughput of the second image sensor 203. For example, when the standard image quality is sufficient for the moving image recording size, it is possible to reduce the necessary reading throughput by thinning out and reading out the pixel data of the second image sensor 203. In the present embodiment, when the recording size of the moving image set by the recording size setting process is equal to or smaller than the threshold value, the AF calculation unit 122 acquires the pixel data output from the second image sensor 203 and performs focus detection.
Even when the moving image frame rate is 24 to 30 frames, the readout throughput of the image sensor may not be required so much. In the present embodiment, when the frame rate set by the frame rate setting process is equal to or less than the threshold value, the AF calculation unit 122 acquires pixel data output from the second image sensor 203 and performs focus detection. By performing phase difference detection with the second image sensor 203, the power consumption of the entire system can be significantly reduced.

図15(B)は被写体追従特性の設定画面240を例示する。「サーボAF」とは、焦点検出の際に被写体に追従しつつ撮像光学系の焦点位置を変更する機能であり、動体の追尾等に便利である。操作部116、表示部117、CPU124は、この機能について有効または無効を設定する機能設定処理を行う。
ユーザは操作部116を用いて、選択カーソル241を左右に操作し、操作部116のSETボタン243で設定位置を決定する。設定値は画面の表示枠242内に表示される。被写体が急に動き出したときや、急に止まったときなど、動体の速度が瞬時に大きく変化した場合に、被写体に対する追従性を設定できる。
FIG. 15B illustrates the subject tracking characteristic setting screen 240. “Servo AF” is a function of changing the focal position of the imaging optical system while following the subject during focus detection, and is useful for tracking moving objects. The operation unit 116, the display unit 117, and the CPU 124 perform a function setting process for setting whether to enable or disable this function.
The user operates the selection cursor 241 left and right using the operation unit 116, and determines the setting position using the SET button 243 of the operation unit 116. The set value is displayed in the display frame 242 of the screen. When the speed of a moving object changes greatly instantaneously, such as when the subject suddenly starts moving or stops suddenly, the followability to the subject can be set.

被写体の追従性の設定によっては、第2撮像素子203で位相差検出を行う構成であっても、被写体の追従性を高める必要がない場合もある。追従性を要求されない場合、つまり、サーボAFの機能が無効(図中のOFF)に設定されている場合に、AF演算部122は第2撮像素子203の出力する画素データを取得して焦点検出を行う。第2撮像素子203で位相差検出を行うことで、システム全体の消費電力を大幅に低減できる。また、被写体の移動速度がほぼ一定の場合や、低速の動体に対して追従性を設定する場合には、高速性を求められない。よって、設定値が閾値以下の場合には第2撮像素子203により位相差検出を行うことでシステム全体の消費電力を大幅に低減できる。
一方、急な動き出しや、急加速、急減速、急停止などを行う被写体を撮影する場合、AF動作の追従性には高速性が求められる。設定値が閾値を超える場合には、第2撮像素子203を動画撮影に専ら使用し、第1撮像素子200により位相差検出を行うことで、高速かつ高精度のAF動作を実現できる。
Depending on the setting of the subject tracking, even if the second image sensor 203 detects the phase difference, it may not be necessary to improve the subject tracking. When followability is not required, that is, when the function of servo AF is disabled (OFF in the figure), the AF calculation unit 122 acquires pixel data output from the second image sensor 203 and detects the focus. I do. By detecting the phase difference with the second image sensor 203, the power consumption of the entire system can be significantly reduced. Further, when the moving speed of the subject is substantially constant or when the followability is set for a low-speed moving body, high speed cannot be obtained. Therefore, when the set value is less than or equal to the threshold value, the power consumption of the entire system can be significantly reduced by detecting the phase difference using the second image sensor 203.
On the other hand, when shooting a subject that suddenly starts moving, suddenly accelerates, suddenly decelerates, or suddenly stops, high-speed tracking is required for AF tracking. When the set value exceeds the threshold value, the second image sensor 203 is exclusively used for moving image shooting, and the phase difference is detected by the first image sensor 200, whereby a high-speed and high-precision AF operation can be realized.

本実施形態によれば、撮影設定(記録サイズやフレームレートを含む)やAF設定(被写体への追従性を含む)に応じて、位相差検出を行う撮像素子を変更することで、システム全体の消費電力を低減できる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
According to the present embodiment, the entire system can be changed by changing the image sensor that detects the phase difference in accordance with the shooting setting (including the recording size and frame rate) and the AF setting (including the tracking of the subject). Power consumption can be reduced.
As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

100,200 第1撮像素子
103,203 第2撮像素子
107 ハーフミラー
120 第1画像処理部
121 第2画像処理部
122 AF演算部
124 CPU
100, 200 First imaging device 103, 203 Second imaging device 107 Half mirror 120 First image processing unit 121 Second image processing unit 122 AF operation unit 124 CPU

Claims (14)

第1撮像素子および第2撮像素子を備える撮像装置であって、
撮像光学系を通して入射する光を分割して前記第1撮像素子および第2撮像素子にそれぞれ1次結像光を受光させる光分割手段と、
前記第1撮像素子の出力する画素データを取得して前記撮像光学系の焦点検出を行う焦点検出手段と、
前記焦点検出手段の検出情報を取得して前記撮像光学系の焦点調節を制御する制御手段を備え、
前記制御手段は、前記第2撮像素子による撮影中に前記第1撮像素子の出力する画素データから前記焦点検出手段が焦点検出を行った検出情報を取得して、前記撮像光学系の焦点調節を制御することを特徴とする撮像装置。
An imaging apparatus including a first imaging element and a second imaging element,
Light splitting means for splitting light incident through the imaging optical system and causing the first and second imaging elements to receive primary imaging light, respectively;
Focus detection means for acquiring pixel data output from the first image sensor and performing focus detection of the imaging optical system;
Control means for obtaining detection information of the focus detection means and controlling focus adjustment of the imaging optical system;
The control means acquires detection information obtained by the focus detection means performing focus detection from pixel data output from the first image sensor during photographing by the second image sensor, and performs focus adjustment of the image pickup optical system. An imaging device characterized by controlling.
前記焦点検出手段は、前記第2撮像素子による動画像の撮影中に、前記第1撮像素子に対して設定された領域の位相差検出用画素から読み出した画素データを取得して焦点検出を行うことを特徴とする請求項1に記載の撮像装置。   The focus detection unit performs focus detection by acquiring pixel data read from phase difference detection pixels in a region set for the first image sensor while capturing a moving image by the second image sensor. The imaging apparatus according to claim 1. 前記焦点検出手段は、撮影条件に従って変更された前記領域の位相差検出用画素から読み出した画素データを取得することを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the focus detection unit acquires pixel data read from the phase difference detection pixels in the region that are changed according to the imaging condition. 撮影画面上での焦点検出領域を選択する操作手段を備え、
前記焦点検出手段は、前記操作手段により選択された焦点検出領域の前記位相差検出用画素から読み出した画素データを取得することを特徴とする請求項2または3に記載の撮像装置。
Provided with operation means for selecting the focus detection area on the shooting screen,
The imaging apparatus according to claim 2, wherein the focus detection unit acquires pixel data read from the phase difference detection pixels in the focus detection region selected by the operation unit.
前記第2撮像素子により撮像した被写体像の顔領域を検出する顔検出手段を備え、
前記焦点検出手段は、前記顔検出手段により検出される顔領域に対応する領域の前記位相差検出用画素から読み出した画素データを取得することを特徴とする請求項2または3に記載の撮像装置。
Face detection means for detecting a face area of a subject image imaged by the second image sensor;
The imaging apparatus according to claim 2, wherein the focus detection unit acquires pixel data read from the phase difference detection pixels in a region corresponding to a face region detected by the face detection unit. .
前記第1撮像素子および第2撮像素子は、2次元アレイ状に配置した複数の光電変換部を有し、
前記第1撮像素子は、前記第2撮像素子に比べて画素数が多いことを特徴とする請求項1ないし5のいずれか1項に記載の撮像装置。
The first image sensor and the second image sensor have a plurality of photoelectric conversion units arranged in a two-dimensional array,
The imaging apparatus according to claim 1, wherein the first imaging element has a larger number of pixels than the second imaging element.
前記焦点検出手段は、前記第2撮像素子による動画像の撮影中に前記第1撮像素子の出力する画素データを取得する場合、前記第1撮像素子にて複数の画素データを加算処理したデータを取得することを特徴とする請求項6に記載の撮像装置。   The focus detection unit obtains data obtained by adding a plurality of pixel data in the first image sensor when acquiring pixel data output from the first image sensor during capturing of a moving image by the second image sensor. The imaging device according to claim 6, wherein the imaging device is acquired. 前記第1撮像素子は、前記第2撮像素子の1画素分の面積に対する前記第1撮像素子の1画素分の面積の比率に相当する画素分のデータを加算したデータを出力することを特徴とする請求項7に記載の撮像装置。   The first image sensor outputs data obtained by adding data for pixels corresponding to a ratio of an area for one pixel of the first image sensor to an area for one pixel of the second image sensor. The imaging device according to claim 7. 前記焦点検出手段は、前記第1撮像素子または第2撮像素子の出力する画素データを取得して前記撮像光学系の焦点検出を行い、
前記制御手段は、前記第1撮像素子による撮影中に前記第2撮像素子の出力する画素データから前記焦点検出手段が焦点検出を行った検出情報を取得して、前記撮像光学系の焦点調節を制御することを特徴とする請求項1ないし8のいずれか1項に記載の撮像装置。
The focus detection unit obtains pixel data output from the first image sensor or the second image sensor and performs focus detection of the image pickup optical system,
The control means acquires detection information obtained by the focus detection means performing focus detection from pixel data output from the second image sensor during photographing by the first image sensor, and performs focus adjustment of the image pickup optical system. The imaging apparatus according to claim 1, wherein the imaging apparatus is controlled.
前記焦点検出手段は、前記第1撮像素子により静止画像を撮影する場合、前記第2撮像素子の位相差検出用画素が出力する画素データを取得して焦点検出を行い、前記第2撮像素子により動画像を撮影する場合、前記第1撮像素子の位相差検出用画素が出力する画素データを取得して焦点検出を行うことを特徴とする請求項9に記載の撮像装置。   The focus detection unit obtains pixel data output by the phase difference detection pixels of the second image sensor when the still image is captured by the first image sensor, performs focus detection, and uses the second image sensor. The imaging apparatus according to claim 9, wherein when capturing a moving image, focus detection is performed by acquiring pixel data output from a phase difference detection pixel of the first imaging element. 動画像の記録サイズを設定する記録サイズ設定手段を備え、
前記焦点検出手段は、前記記録サイズ設定手段により設定された動画像の記録サイズが閾値以下である場合、前記第2撮像素子の出力する画素データを取得して焦点検出を行うことを特徴とする請求項9または10に記載の撮像装置。
A recording size setting means for setting the recording size of the moving image;
The focus detection unit acquires the pixel data output from the second image sensor and performs focus detection when the recording size of the moving image set by the recording size setting unit is equal to or less than a threshold value. The imaging device according to claim 9 or 10.
動画像のフレームレートを設定するフレームレート設定手段を備え、
前記焦点検出手段は、前記フレームレート設定手段により設定されたフレームレートが閾値以下である場合、前記第2撮像素子の出力する画素データを取得して焦点検出を行うことを特徴とする請求項9ないし11のいずれか1項に記載の撮像装置。
A frame rate setting means for setting a frame rate of the moving image;
The focus detection unit performs focus detection by acquiring pixel data output from the second image sensor when the frame rate set by the frame rate setting unit is equal to or less than a threshold value. The imaging device of any one of thru | or 11.
焦点検出の際に被写体に追従しつつ前記撮像光学系の焦点位置を変更する機能について有効または無効を設定する機能設定手段を備え、
前記焦点検出手段は、前記機能設定手段により前記機能が無効に設定された場合、前記第2撮像素子の出力する画素データを取得して焦点検出を行うことを特徴とする請求項9ないし12のいずれか1項に記載の撮像装置。
A function setting means for setting valid or invalid for the function of changing the focal position of the imaging optical system while following the subject at the time of focus detection;
13. The focus detection unit according to claim 9, wherein when the function is disabled by the function setting unit, the focus detection unit acquires the pixel data output from the second image sensor and performs focus detection. The imaging device according to any one of the above.
第1撮像素子および第2撮像素子を備える撮像装置にて実行される制御方法であって、
撮像光学系を通して入射する光を、光分割手段により分割して前記第1撮像素子および第2撮像素子にそれぞれ1次結像光を受光させるステップと、
前記第1撮像素子の出力する画素データを取得して前記撮像光学系の焦点検出を行う焦点検出ステップと、
前記焦点検出ステップでの検出情報を取得して前記撮像光学系の焦点調節を制御する制御ステップを有し、
前記制御ステップでは、前記第2撮像素子による撮影中に、前記第1撮像素子の出力する画素データを用いて前記焦点検出ステップで焦点検出を行った検出情報を取得して、前記撮像光学系の焦点調節を制御することを特徴とする撮像装置の制御方法。
A control method executed by an imaging apparatus including a first imaging element and a second imaging element,
Splitting light incident through the imaging optical system by a light splitting means and causing the first imaging element and the second imaging element to receive primary imaging light, respectively;
A focus detection step of acquiring pixel data output from the first image sensor and performing focus detection of the imaging optical system;
A control step of obtaining detection information in the focus detection step and controlling focus adjustment of the imaging optical system;
In the control step, detection information obtained by performing focus detection in the focus detection step using pixel data output from the first image sensor during photographing by the second image sensor is acquired, and the imaging optical system A method for controlling an imaging apparatus, characterized by controlling focus adjustment.
JP2013111591A 2012-12-20 2013-05-28 Imaging apparatus and control method thereof Active JP6249636B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2013111591A JP6249636B2 (en) 2013-05-28 2013-05-28 Imaging apparatus and control method thereof
US14/107,649 US9473688B2 (en) 2012-12-20 2013-12-16 Image pickup apparatus comprising a plurality of imaging sensors and image processing units
GB1322499.3A GB2511183B (en) 2012-12-20 2013-12-19 Image pickup apparatus
DE102013226588.3A DE102013226588B4 (en) 2012-12-20 2013-12-19 RECORDING DEVICE
CN201710340139.4A CN107181898A (en) 2012-12-20 2013-12-20 Picture pick-up device
CN201310713586.1A CN103888666B (en) 2012-12-20 2013-12-20 Picture pick-up device
US15/235,381 US9848119B2 (en) 2012-12-20 2016-08-12 Image pickup apparatus comprising image sensors and a light beam splitter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013111591A JP6249636B2 (en) 2013-05-28 2013-05-28 Imaging apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2014232137A true JP2014232137A (en) 2014-12-11
JP6249636B2 JP6249636B2 (en) 2017-12-20

Family

ID=52125573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013111591A Active JP6249636B2 (en) 2012-12-20 2013-05-28 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6249636B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160349522A1 (en) * 2015-05-29 2016-12-01 Canon Kabushiki Kaisha Imaging apparatus with two image sensors
JP2017016103A (en) * 2015-05-29 2017-01-19 フェーズ・ワン・アクティーゼルスカブPhase One A/S Adaptive autofocusing system
JP2017102228A (en) * 2015-11-30 2017-06-08 キヤノン株式会社 Imaging apparatus and method for controlling the same
JP2021193412A (en) * 2020-06-08 2021-12-23 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co., Ltd Device, imaging device, imaging system, and mobile object
CN114128252A (en) * 2019-07-19 2022-03-01 佳能株式会社 Image pickup apparatus and control method thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200034276A (en) 2018-09-21 2020-03-31 엘지이노텍 주식회사 Camera module and method of operating the same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005195793A (en) * 2004-01-06 2005-07-21 Olympus Corp Focus detector
JP2007097033A (en) * 2005-09-30 2007-04-12 Casio Comput Co Ltd Imaging apparatus and program therefor
JP2012147058A (en) * 2011-01-07 2012-08-02 Sony Corp Imaging system, imaging device, and program
US8289377B1 (en) * 2007-08-31 2012-10-16 DigitalOptics Corporation MEMS Video mode hidden autofocus
JP2012242549A (en) * 2011-05-18 2012-12-10 Nikon Corp Imaging device
JP2014048329A (en) * 2012-08-29 2014-03-17 Nikon Corp Imaging device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005195793A (en) * 2004-01-06 2005-07-21 Olympus Corp Focus detector
JP2007097033A (en) * 2005-09-30 2007-04-12 Casio Comput Co Ltd Imaging apparatus and program therefor
US8289377B1 (en) * 2007-08-31 2012-10-16 DigitalOptics Corporation MEMS Video mode hidden autofocus
JP2012147058A (en) * 2011-01-07 2012-08-02 Sony Corp Imaging system, imaging device, and program
JP2012242549A (en) * 2011-05-18 2012-12-10 Nikon Corp Imaging device
JP2014048329A (en) * 2012-08-29 2014-03-17 Nikon Corp Imaging device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160349522A1 (en) * 2015-05-29 2016-12-01 Canon Kabushiki Kaisha Imaging apparatus with two image sensors
JP2016224208A (en) * 2015-05-29 2016-12-28 キヤノン株式会社 Imaging device
JP2017016103A (en) * 2015-05-29 2017-01-19 フェーズ・ワン・アクティーゼルスカブPhase One A/S Adaptive autofocusing system
US9854146B2 (en) * 2015-05-29 2017-12-26 Canon Kabushiki Kaisha Imaging apparatus with two image sensors
JP2017102228A (en) * 2015-11-30 2017-06-08 キヤノン株式会社 Imaging apparatus and method for controlling the same
CN114128252A (en) * 2019-07-19 2022-03-01 佳能株式会社 Image pickup apparatus and control method thereof
JP2021193412A (en) * 2020-06-08 2021-12-23 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co., Ltd Device, imaging device, imaging system, and mobile object

Also Published As

Publication number Publication date
JP6249636B2 (en) 2017-12-20

Similar Documents

Publication Publication Date Title
US9848119B2 (en) Image pickup apparatus comprising image sensors and a light beam splitter
JP6249636B2 (en) Imaging apparatus and control method thereof
US9344617B2 (en) Image capture apparatus and method of controlling that performs focus detection
JP2014122957A (en) Imaging device
JP5886781B2 (en) FOCUS DETECTION DEVICE, FOCUS DETECTION METHOD AND PROGRAM, AND IMAGING DEVICE
US10812704B2 (en) Focus detection device, method and storage medium, for controlling image sensor operations
US20130100251A1 (en) Image capturing device and image capturing method
JP2011191617A (en) Imaging device
JP2018046535A (en) Imaging apparatus
US10999492B2 (en) Focus adjustment device and focus adjustment method
US9742983B2 (en) Image capturing apparatus with automatic focus adjustment and control method thereof, and storage medium
JP6444254B2 (en) FOCUS DETECTION DEVICE, IMAGING DEVICE, FOCUS DETECTION METHOD, PROGRAM, AND STORAGE MEDIUM
JP2018042223A (en) Imaging apparatus and control method, program thereof, storage medium
JP7309420B2 (en) Imaging device
JP2017103568A (en) Imaging apparatus, control method for imaging device, and program
JP5683135B2 (en) Imaging apparatus and control method thereof
JP2019074640A (en) Imaging apparatus and control method of the same, and program
US10277796B2 (en) Imaging control apparatus, imaging apparatus, and imaging control method
JP6222976B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US11375113B2 (en) Imaging element, and imaging apparatus which changes frame rate of output image data based on derived focus evaluation value
JP2018010213A (en) Control apparatus, imaging apparatus, control method, program, and storage medium
JP7175635B2 (en) Imaging device and its control method
JP6630173B2 (en) Imaging device, imaging control method, and program
JP2001268437A (en) Image processor
JP2013118514A (en) Imaging apparatus and method for controlling imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171121

R151 Written notification of patent or utility model registration

Ref document number: 6249636

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151