JP2013255188A - Imaging element, imaging apparatus, imaging method and program - Google Patents

Imaging element, imaging apparatus, imaging method and program Download PDF

Info

Publication number
JP2013255188A
JP2013255188A JP2012131063A JP2012131063A JP2013255188A JP 2013255188 A JP2013255188 A JP 2013255188A JP 2012131063 A JP2012131063 A JP 2012131063A JP 2012131063 A JP2012131063 A JP 2012131063A JP 2013255188 A JP2013255188 A JP 2013255188A
Authority
JP
Japan
Prior art keywords
pixel
image
phase difference
line
difference detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012131063A
Other languages
Japanese (ja)
Inventor
Manabu Kubo
久保  学
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012131063A priority Critical patent/JP2013255188A/en
Publication of JP2013255188A publication Critical patent/JP2013255188A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

PROBLEM TO BE SOLVED: To achieve both a live view image of high image quality and highly accurate phase difference detection.SOLUTION: A pixel array section includes: a first image generation pixel being an image generation pixel driven on the basis of a first synchronization signal for detection of a phase difference or generation of a recording image; a phase difference detection pixel driven on the basis of the first synchronization signal; and a second image generation pixel being an image generation pixel which is driven on the basis of a second synchronization signal different from the first synchronization signal being a synchronization signal for generating a live view image and whose number is smaller than that of the first image generation pixels. A first output section outputs pixel data of the first image generation pixel and the phase difference detection pixel to outside. A second output section outputs pixel data of the second image generation pixel to outside.

Description

本技術は、撮像素子に関し、特に、位相差検出を行う撮像素子、撮像装置、および、撮像方法ならびに当該方法をコンピュータに実行させるプログラムに関する。   The present technology relates to an imaging device, and more particularly, to an imaging device that performs phase difference detection, an imaging device, an imaging method, and a program that causes a computer to execute the method.

近年、人物等の被写体を撮像して撮像画像を生成し、この生成された撮像画像を記録するデジタルスチルカメラ等の撮像装置が普及している。また、この撮像装置として、ユーザーの撮影操作を簡便にするため、撮像時のフォーカス(ピント、焦点)調整を自動的に行うオートフォーカス(AF:Auto Focus)機能を備える撮像装置が広く普及している。   In recent years, an imaging apparatus such as a digital still camera that captures an image of a subject such as a person to generate a captured image and records the generated captured image has become widespread. In addition, as an imaging apparatus, an imaging apparatus having an auto focus (AF) function for automatically adjusting a focus (focus) at the time of imaging is widely used in order to simplify a user's shooting operation. Yes.

このような撮像装置として、例えば、フォーカス位置をずらしながら複数の画像を撮像し、最もコントラストが高いフォーカス位置を合焦位置とするコントラスト検出方式によりオートフォーカスを行う撮像装置が提案されている。また、撮像レンズを通過した光を瞳分割して1対の像を形成し、その形成された像の間隔を計測(位相差を検出)することによって撮像レンズの位置を決定する位相差検出方式によりオートフォーカスを行う撮像装置も提案されている。   As such an image pickup apparatus, for example, an image pickup apparatus that picks up a plurality of images while shifting the focus position and performs autofocus by a contrast detection method in which the focus position with the highest contrast is the in-focus position has been proposed. Also, a phase difference detection method for determining the position of the imaging lens by forming a pair of images by dividing the pupil of the light that has passed through the imaging lens, and measuring the interval between the formed images (detecting the phase difference) An image pickup apparatus that performs autofocus has also been proposed.

さらに、コントラスト検出方式と位相差検出方式との両方の機能を備える撮像装置も提案されている。このような撮像装置として、例えば、撮像レンズを通過した光を瞳分割する画素(位相差検出画素)と、撮像画像の生成用の画素(画像生成画素)との両方の画素を1つの撮像素子に設ける撮像装置が提案されている(例えば、特許文献1参照。)。   Further, an imaging apparatus having both functions of a contrast detection method and a phase difference detection method has been proposed. As such an imaging apparatus, for example, both pixels, which are pixels that split the pupil of light that has passed through the imaging lens (phase difference detection pixels) and pixels for generating a captured image (image generation pixels), are combined into a single imaging device. Has been proposed (see, for example, Patent Document 1).

特開2008−134389号公報JP 2008-134389 A

上述の従来技術では、位相差検出画素と画像生成画素の両方の画素を1つの撮像素子に設けるため、1つの撮像素子だけで、位相差検出と画像生成とを両方とも行うことができる。   In the above-described conventional technology, both the phase difference detection pixel and the image generation pixel are provided in one image sensor, so that both the phase difference detection and the image generation can be performed with only one image sensor.

なお、位相差検出と画像生成とを両方とも行うことができるものの、位相差検出画素に適切な露光時間と、画像生成画素に適切な露光時間とは異なることが多い。そこで、高画質なライブビュー画像と高精度な位相差検出とを両立させることが重要になる。   Although both phase difference detection and image generation can be performed, the exposure time appropriate for the phase difference detection pixel and the exposure time appropriate for the image generation pixel are often different. Therefore, it is important to achieve both high-quality live view images and highly accurate phase difference detection.

本技術はこのような状況に鑑みて生み出されたものであり、高画質なライブビュー画像と高精度な位相差検出とを両立させることを目的とする。   The present technology has been created in view of such a situation, and an object thereof is to achieve both high-quality live view images and high-accuracy phase difference detection.

本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、位相差検出または記録画像の生成のための第1同期信号に基づいて駆動される画像生成画素である第1画像生成画素と、上記第1同期信号に基づいて駆動される位相差検出画素と、ライブビュー画像を生成するための同期信号であって上記第1同期信号とは異なる第2同期信号に基づいて駆動されて上記第1画像生成画素よりも数が少ない画像生成画素である第2画像生成画素とにより構成される画素アレイ部と、上記第1画像生成画素および上記位相差検出画素の画素データを外部へ出力する第1出力部と、上記第2画像生成画素の画素データを外部へ出力する第2出力部とを具備する撮像素子である。これにより、第1同期信号に基づいて駆動される画像生成画素および位相差検出画素の画素データが第1出力部から出力され、第2同期信号に基づいて駆動される画像生成画素の画素データが第2出力部から出力されるという作用をもたらす。   The present technology has been made to solve the above-described problems, and a first aspect of the present technology is an image generation pixel that is driven based on a first synchronization signal for phase difference detection or generation of a recorded image. A first image generation pixel, a phase difference detection pixel driven based on the first synchronization signal, and a second synchronization different from the first synchronization signal, which is a synchronization signal for generating a live view image A pixel array unit configured by second image generation pixels that are driven based on signals and have fewer image generation pixels than the first image generation pixels, and the first image generation pixels and the phase difference detection pixels The image sensor includes a first output unit that outputs the pixel data to the outside and a second output unit that outputs the pixel data of the second image generation pixel to the outside. Thereby, the pixel data of the image generation pixel and the phase difference detection pixel driven based on the first synchronization signal are output from the first output unit, and the pixel data of the image generation pixel driven based on the second synchronization signal is output. An effect of being output from the second output unit is brought about.

また、この第1の側面において、上記画素アレイ部は、上記第2画像生成画素のみにより構成される第1ラインと、上記第1画像生成画素および上記位相差検出画素により構成される第2ラインと、上記第1画像生成画素のみにより構成される第3ラインとが配置され、上記第2ラインと第3ラインとの合計数は上記第1ラインの数より多いようにしてもよい。これにより、第2画像生成画素のみにより構成される第1ラインと、第1画像生成画素および位相差検出画素により構成される第2ラインと、第1画像生成画素のみにより構成される第3ラインとが画素アレイ部に配置されるという作用をもたらす。   In the first aspect, the pixel array section includes a first line constituted only by the second image generation pixel, and a second line constituted by the first image generation pixel and the phase difference detection pixel. And a third line composed only of the first image generation pixels, and the total number of the second line and the third line may be larger than the number of the first lines. As a result, the first line composed only of the second image generation pixel, the second line composed of the first image generation pixel and the phase difference detection pixel, and the third line composed only of the first image generation pixel. Are arranged in the pixel array portion.

また、この第1の側面において、上記画素アレイ部は、上記第1ラインが奇数ラインおきに配置され、他のラインに上記第2ラインおよび上記第3ラインのいずれかが配置されるようにしてもよい。これにより、第1ラインが奇数ラインおきに配置され、他のラインに第2ラインおよび第3ラインのいずれかが配置されるという作用をもたらす。   In the first aspect, the pixel array unit may be arranged such that the first line is arranged every odd number of lines, and one of the second line and the third line is arranged on another line. Also good. As a result, the first line is arranged every odd number of lines, and one of the second line and the third line is arranged on the other lines.

また、この第1の側面において、上記第2ラインは、上記第1ラインに隣接して配置されるようにしてもよい。これにより、第2ラインが第1ラインに隣接して配置されるという作用をもたらす。   In the first aspect, the second line may be disposed adjacent to the first line. This brings about the effect | action that a 2nd line is arrange | positioned adjacent to a 1st line.

また、本技術の第2の側面は、位相差検出または記録画像の生成のための第1同期信号に基づいて駆動される画像生成画素である第1画像生成画素と、上記第1同期信号に基づいて駆動される位相差検出画素と、ライブビュー画像を生成するための同期信号であって上記第1同期信号とは異なる第2同期信号に基づいて駆動されて上記第1画像生成画素よりも数が少ない画像生成画素である第2画像生成画素とにより構成される画素アレイ部と、上記第1画像生成画素および上記位相差検出画素の画素データを外部へ出力する第1出力部と、上記第2画像生成画素の画素データを外部へ出力する第2出力部とを備える撮像素子と、上記第2画像生成画素が配置されているラインを駆動させて上記第2出力部が出力する上記画素データを生成させるとともに、上記位相差検出を行う場合には、上記位相差検出画素が配置されているラインを駆動させて上記第1出力部が出力する上記画素データを生成させ、上記記録画像の生成を行う場合には、上記第1画像生成画素が配置されているラインを駆動させて上記第1出力部が出力する上記画素データを生成させる制御を行う制御部とを具備する撮像装置である。これにより、第1同期信号に基づいて駆動される画像生成画素および位相差検出画素の画素データが第1出力部から出力され、第2同期信号に基づいて駆動される画像生成画素の画素データが第2出力部から出力される撮像素子を用いて、ライブビュー画像の生成とともに、位相差検出のための画素データまたは記録画像の生成のための画素データが出力されるという作用をもたらす。   The second aspect of the present technology provides a first image generation pixel that is an image generation pixel driven based on a first synchronization signal for phase difference detection or generation of a recorded image, and the first synchronization signal. Driven based on a phase difference detection pixel driven based on a second synchronization signal that is a synchronization signal for generating a live view image and is different from the first synchronization signal. A pixel array unit configured by second image generation pixels that are image generation pixels with a small number, a first output unit that outputs pixel data of the first image generation pixels and the phase difference detection pixels to the outside, and An image sensor including a second output unit that outputs pixel data of the second image generation pixel to the outside, and the pixel that is output from the second output unit by driving a line in which the second image generation pixel is arranged Data generated In addition, when the phase difference detection is performed, the line on which the phase difference detection pixels are arranged is driven to generate the pixel data output from the first output unit, thereby generating the recorded image. In this case, the imaging apparatus includes a control unit that performs control to generate the pixel data output from the first output unit by driving a line in which the first image generation pixel is arranged. Thereby, the pixel data of the image generation pixel and the phase difference detection pixel driven based on the first synchronization signal are output from the first output unit, and the pixel data of the image generation pixel driven based on the second synchronization signal is output. Using the image sensor output from the second output unit, the live view image is generated and the pixel data for detecting the phase difference or the pixel data for generating the recorded image is output.

また、この第2の側面において、上記位相差検出を行う場合には、上記位相差検出に応じた露光時間に基づいて上記第1同期信号を生成し、上記記録画像の生成を行う場合には、上記記録画像の生成に応じた露光時間に基づいて上記第1同期信号を生成する第1同期信号生成部と、上記ライブビュー画像の生成に応じた露光時間に基づいて上記第2同期信号を生成する第2同期信号生成部とをさらに具備するようにしてもよい。これにより、ライブビュー画像の生成に応じた露光時間に基づいて第2同期信号が生成されるとともに、位相差検出を行う場合には、位相差検出に応じた露光時間に基づいて第1同期信号が生成され、記録画像の生成を行う場合には、記録画像の生成に応じた露光時間に基づいて第1同期信号が生成されるという作用をもたらす。   In the second aspect, when the phase difference is detected, the first synchronization signal is generated based on the exposure time corresponding to the phase difference detection, and the recorded image is generated. A first synchronization signal generator for generating the first synchronization signal based on an exposure time corresponding to the generation of the recorded image, and a second synchronization signal based on the exposure time corresponding to the generation of the live view image. You may make it further comprise the 2nd synchronizing signal production | generation part to produce | generate. As a result, the second synchronization signal is generated based on the exposure time corresponding to the generation of the live view image, and when the phase difference detection is performed, the first synchronization signal is based on the exposure time corresponding to the phase difference detection. When the recording image is generated, the first synchronization signal is generated based on the exposure time corresponding to the generation of the recording image.

また、この第2の側面において、上記制御部は、連写の際に上記ライブビュー画像を表示部に表示させる場合には、上記連写の際に生成された上記記録画像の縮小画像を上記ライブビュー画像とともに表示するようにしてもよい。これにより、連写の際にライブビュー画像が表示部に表示される場合には、連写の際に生成された記録画像の縮小画像が上記ライブビュー画像とともに表示されるという作用をもたらす。   In the second aspect, when the control unit displays the live view image on the display unit during continuous shooting, the control unit displays a reduced image of the recorded image generated during the continuous shooting. You may make it display with a live view image. As a result, when a live view image is displayed on the display unit during continuous shooting, a reduced image of the recorded image generated during continuous shooting is displayed together with the live view image.

また、本技術の第3の側面は、位相差検出または記録画像の生成のための第1同期信号に基づいて駆動される画像生成画素である第1画像生成画素と、上記第1同期信号に基づいて駆動される位相差検出画素と、ライブビュー画像を生成するための同期信号であって上記第1同期信号とは異なる第2同期信号に基づいて駆動されて上記第1画像生成画素よりも数が少ない画像生成画素である第2画像生成画素とにより構成される画素アレイ部と、上記第1画像生成画素および上記位相差検出画素の画素データを外部へ出力する第1出力部と、上記第2画像生成画素の画素データを外部へ出力する第2出力部とを備える撮像素子における上記第2画像生成画素が配置されているラインを駆動させた上記ライブビュー画像の生成とともに、上記位相差検出を行う場合には、上記位相差検出画素が配置されているラインを駆動させて上記位相差検出に用いる上記画素データを生成させる制御を行う第1制御手順と、上記撮像素子における上記第2画像生成画素が配置されているラインを駆動させた上記ライブビュー画像の生成とともに、上記記録画像の生成を行う場合には、上記第1画像生成画素が配置されているラインを駆動させて上記記録画像の生成に用いる上記画素データを生成させる制御を行う第2制御手順とを具備する撮像方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、第2同期信号に基づく駆動によりライブビュー画像が生成されるとともに、位相差検出に用いる画素データまたは記録画像の生成に用いる画素データが第1同期信号に基づく駆動により生成されるという作用をもたらす。   A third aspect of the present technology provides a first image generation pixel that is an image generation pixel that is driven based on a first synchronization signal for phase difference detection or generation of a recorded image, and the first synchronization signal. Driven based on a phase difference detection pixel driven based on a second synchronization signal that is a synchronization signal for generating a live view image and is different from the first synchronization signal. A pixel array unit configured by second image generation pixels that are image generation pixels with a small number, a first output unit that outputs pixel data of the first image generation pixels and the phase difference detection pixels to the outside, and In addition to the generation of the live view image in which the line on which the second image generation pixel is arranged is driven in an imaging device including a second output unit that outputs pixel data of the second image generation pixel to the outside, In the case of performing difference detection, a first control procedure for performing control for driving the line where the phase difference detection pixels are arranged to generate the pixel data used for the phase difference detection, and the first in the image sensor. When generating the recorded image together with the generation of the live view image in which the line where the two image generation pixels are arranged is driven, the line where the first image generation pixel is arranged is driven to An imaging method including a second control procedure for performing control for generating the pixel data used for generating a recorded image, and a program for causing a computer to execute the method. Accordingly, a live view image is generated by driving based on the second synchronization signal, and pixel data used for phase difference detection or pixel data used for generating a recorded image is generated by driving based on the first synchronization signal. Bring.

本技術によれば、高画質なライブビュー画像と高精度な位相差検出とを両立させることができるという優れた効果を奏し得る。   According to the present technology, it is possible to achieve an excellent effect that both high-quality live view images and high-accuracy phase difference detection can be achieved.

本発明の実施の形態における撮像装置100の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of the imaging device 100 in embodiment of this invention. 本発明の実施の形態の撮像装置100における撮像装置の断面構成例を模式的に示す断面図である。It is sectional drawing which shows typically the cross-sectional structural example of the imaging device in the imaging device 100 of embodiment of this invention. 本発明の実施の形態におけるイメージセンサ200の基本構成例を示すブロック図である。It is a block diagram which shows the basic structural example of the image sensor 200 in embodiment of this invention. 本発明の実施の形態におけるイメージセンサ200に備えられる画素の配置の一例を示す模式図である。It is a schematic diagram which shows an example of arrangement | positioning of the pixel with which the image sensor 200 in embodiment of this invention is equipped. 本発明の実施の形態におけるイメージセンサ200に備えられる画素と、各画素に接続される信号線との関係を模式的に示す図である。It is a figure which shows typically the relationship between the pixel with which the image sensor 200 in embodiment of this invention is equipped, and the signal line connected to each pixel. 本発明の実施の形態の撮像装置100を用いて静止画像を撮像する際におけるライブビュー表示動作と静止画像撮像動作との関係の一例を模式的に示すタイミングチャートである。It is a timing chart which shows typically an example of the relation between live view display operation and still picture imaging operation at the time of picturizing a still picture using imaging device 100 of an embodiment of the invention. 本発明の実施の形態の撮像装置100においてフォーカス調整を行う際におけるライブビュー表示動作と位相差検出動作との関係の一例を模式的に示すタイミングチャートである。6 is a timing chart schematically showing an example of a relationship between a live view display operation and a phase difference detection operation when focus adjustment is performed in the imaging apparatus 100 according to the embodiment of the present invention. 本技術の実施の形態における撮像装置100によるLVラインの画素の駆動によるライブビュー画像の表示処理が行われる際の処理手順例を示すフローチャートである。11 is a flowchart illustrating an example of a processing procedure when live view image display processing is performed by driving an LV line pixel by the imaging apparatus according to the embodiment of the present technology. 本技術の実施の形態における撮像装置100によるSTLラインの画素の駆動による位相差検出または静止画像撮像が行われる際の処理手順例を示すフローチャートである。11 is a flowchart illustrating an example of a processing procedure when phase difference detection or still image capturing is performed by driving an STL line pixel by the image capturing apparatus 100 according to the embodiment of the present technology. 本技術の実施の形態の変形例として、ライブビュー画像と撮像画像との両方を連写中に容易に確認できる表示の一例を模式的に示す図である。As a modification of the embodiment of the present technology, it is a diagram schematically illustrating an example of a display in which both a live view image and a captured image can be easily confirmed during continuous shooting. 本技術の実施の形態の変形例におけるライブビュー画像中の記録画像の表示において複数の記録画像を重ねて表示する場合の一例を模式的に示す図である。It is a figure showing typically an example in the case of displaying a plurality of record pictures on display in a display of a record picture in a live view picture in a modification of an embodiment of this art.

以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.実施の形態(撮像制御:ライブビュー画像の露光時間と位相差検出用の露光時間とを別々に設定できるとともに、同時に露光可能な撮像素子の例)
2.変形例
Hereinafter, modes for carrying out the present technology (hereinafter referred to as embodiments) will be described. The description will be made in the following order.
1. Embodiment (Imaging control: an example of an imaging device in which exposure time for live view image and exposure time for phase difference detection can be set separately, and exposure is possible at the same time)
2. Modified example

<1.本技術の実施の形態>
[撮像装置の機能構成例]
図1は、本発明の実施の形態における撮像装置100の機能構成の一例を示すブロック図である。
<1. Embodiment of the present technology>
[Functional configuration example of imaging device]
FIG. 1 is a block diagram illustrating an example of a functional configuration of the imaging apparatus 100 according to the embodiment of the present invention.

撮像装置100は、被写体を撮像して画像データ(撮像画像)を生成し、生成された画像データを画像コンテンツ(静止画コンテンツまたは動画コンテンツ)として記録する撮像装置である。なお、以下では、画像コンテンツ(画像ファイル)として静止画コンテンツ(静止画ファイル)を記録する例を主に示す。   The imaging device 100 is an imaging device that captures an image of a subject, generates image data (captured image), and records the generated image data as image content (still image content or moving image content). In the following, an example in which still image content (still image file) is recorded as image content (image file) will be mainly shown.

撮像装置100は、レンズ部110と、操作受付部125と、イメージセンサ200と、制御部120と、第1同期信号生成部130と、第1信号処理部140と、第2同期信号生成部150と、第2信号処理部160と、合焦判定部170と、レンズ駆動部175と、記録部181と、表示部182とを備える。   The imaging apparatus 100 includes a lens unit 110, an operation reception unit 125, an image sensor 200, a control unit 120, a first synchronization signal generation unit 130, a first signal processing unit 140, and a second synchronization signal generation unit 150. A second signal processing unit 160, a focus determination unit 170, a lens driving unit 175, a recording unit 181, and a display unit 182.

レンズ部110は、被写体からの光(被写体光)を集光するためのものである。このレンズ部110は、ズームレンズ111と、絞り112と、フォーカスレンズ113とを備える。   The lens unit 110 collects light from the subject (subject light). The lens unit 110 includes a zoom lens 111, a diaphragm 112, and a focus lens 113.

ズームレンズ111は、光軸方向に移動することにより焦点距離を変動させて、撮像画像に含まれる被写体の倍率を調整するものである。   The zoom lens 111 adjusts the magnification of the subject included in the captured image by moving in the optical axis direction to change the focal length.

絞り112は、開口の度合いを変化させてイメージセンサ200に入射する被写体光の光量を調整するための遮蔽物である。   The diaphragm 112 is a shield for adjusting the amount of subject light incident on the image sensor 200 by changing the degree of opening.

フォーカスレンズ113は、レンズ駆動部175の駆動により光軸方向に移動することによりフォーカスを調整するものである。   The focus lens 113 adjusts the focus by moving in the optical axis direction by driving the lens driving unit 175.

操作受付部125は、ユーザーからの操作を受け付けるものである。この操作受付部125は、例えば、シャッターボタン126(図2に示す)が押下された場合には、その押下に関する信号を、操作信号として制御部120に供給する。   The operation reception unit 125 receives an operation from the user. For example, when the shutter button 126 (shown in FIG. 2) is pressed, the operation receiving unit 125 supplies a signal related to the pressing to the control unit 120 as an operation signal.

イメージセンサ200は、受光した被写体光を電気信号に光電変換する撮像素子である。このイメージセンサ200は、例えば、CMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどにより実現される。イメージセンサ200には、受光した被写体光に基づいて撮像画像を生成するための信号を生成する画素(画像生成画素)と、位相差検出を行うための信号を生成する画素(位相差検出画素)とが配置される。イメージセンサ200には、ライブビュー画像(撮像素子が受光している被写体の像のリアルタイム画像)を撮像するために駆動される画素の行(以降では、LV(Live View)ラインと称する)と、静止画像(記録画像)の撮像または位相差の検出のために駆動される画素の行(以降では、STL(STiLl)ラインと称する)とが配置される。LVラインには画像生成画素のみが配置される。STLラインの画素配置は2パターンあり、画像生成画素のみが配置されるラインと、画像生成画素と位相差検出画素とが両方配置されるラインとにより構成される。なお、LVラインの数は、STLラインの数よりも少ないため、ライブビュー画像の画素数は、静止画像の画素数より小さくなる。   The image sensor 200 is an image sensor that photoelectrically converts received subject light into an electrical signal. The image sensor 200 is realized by, for example, a complementary metal oxide semiconductor (CMOS) sensor or a charge coupled device (CCD) sensor. The image sensor 200 includes a pixel (image generation pixel) that generates a signal for generating a captured image based on the received subject light, and a pixel (phase difference detection pixel) that generates a signal for performing phase difference detection. And are arranged. The image sensor 200 includes a row of pixels (hereinafter referred to as an LV (Live View) line) driven to capture a live view image (a real-time image of a subject image received by the image sensor), A row of pixels (hereinafter referred to as an STL (STiLl) line) driven for capturing a still image (recorded image) or detecting a phase difference is arranged. Only image generation pixels are arranged in the LV line. There are two patterns of pixel arrangement of the STL line, which are constituted by a line where only image generation pixels are arranged and a line where both image generation pixels and phase difference detection pixels are arranged. Since the number of LV lines is smaller than the number of STL lines, the number of pixels of the live view image is smaller than the number of pixels of the still image.

イメージセンサ200は、LVラインの画素を駆動するための駆動回路と、STLラインの画素を駆動するための駆動回路とをそれぞれ別々に備え、LVラインの画素とSTLラインの画素とをそれぞれ独立のタイミングで駆動する。すなわち、LVラインとSTLラインとを異なる露光時間で同時に露光させることができる。なお、イメージセンサ200については、図3および図4を参照して説明する。イメージセンサ200は、LVラインの画素の光電変換により発生した電気信号を、信号線169を介して第2信号処理部160に供給する。また、イメージセンサ200は、STLラインの画素の光電変換により発生した電気信号を、信号線149を介して第1信号処理部140に供給する。なお、イメージセンサ200は、特許請求の範囲に記載の撮像素子の一例である。   The image sensor 200 includes a driving circuit for driving the pixels on the LV line and a driving circuit for driving the pixels on the STL line, respectively, and the LV line pixels and the STL line pixels are independent of each other. Drive with timing. That is, the LV line and the STL line can be exposed simultaneously with different exposure times. The image sensor 200 will be described with reference to FIGS. 3 and 4. The image sensor 200 supplies an electrical signal generated by photoelectric conversion of the pixels on the LV line to the second signal processing unit 160 via the signal line 169. Further, the image sensor 200 supplies an electrical signal generated by photoelectric conversion of the pixels of the STL line to the first signal processing unit 140 via the signal line 149. The image sensor 200 is an example of an image sensor described in the claims.

制御部120は、撮像装置100における各部動作を制御するものである。図1では、撮像装置100の撮像動作にかかわる制御の信号線の一例として、イメージセンサ200と、第1同期信号生成部130と、第1信号処理部140と、第2同期信号生成部150と、第2信号処理部160とに制御部120から供給される制御信号の信号線が示されている。例えば、制御部120は、イメージセンサ200の動作(例えば、読み出し対象の画素の行の設定)を制御するための信号を、信号線121を介してイメージセンサ200に供給する。   The control unit 120 controls each unit operation in the imaging apparatus 100. In FIG. 1, as an example of a control signal line related to the imaging operation of the imaging apparatus 100, the image sensor 200, the first synchronization signal generation unit 130, the first signal processing unit 140, and the second synchronization signal generation unit 150 A signal line of a control signal supplied from the control unit 120 to the second signal processing unit 160 is shown. For example, the control unit 120 supplies a signal for controlling the operation of the image sensor 200 (for example, setting of a row of pixels to be read) to the image sensor 200 via the signal line 121.

また、制御部120は、シャッターボタンが押下されて、静止画像(記録画像)の撮像を開始するための操作信号を受け付けた場合には、静止画像の撮像を実行させるための各種の制御信号を、第1同期信号生成部130と、第1信号処理部140と、イメージセンサ200とに供給する。なお、制御部120は、静止画像撮像の際に、静止画像撮像に適切な露光時間を算出し、この算出した露光時間を、第1同期信号生成部130に供給する。なお、この算出は、シャッターボタンが押下される直前のLVラインの画像生成画素の画素データまたはSTLラインの画像生成画素の画素データを用いて行われる。   In addition, when the shutter button is pressed and an operation signal for starting capturing a still image (recorded image) is received, the control unit 120 outputs various control signals for executing still image capturing. The first synchronization signal generator 130, the first signal processor 140, and the image sensor 200 are supplied. Note that the control unit 120 calculates an exposure time suitable for still image capturing when the still image is captured, and supplies the calculated exposure time to the first synchronization signal generation unit 130. This calculation is performed using the pixel data of the image generation pixel of the LV line immediately before the shutter button is pressed or the pixel data of the image generation pixel of the STL line.

また、制御部120は、位相差検出によりフォーカスを調整する場合には、位相差検出によるフォーカス調整を実行させるための各種の制御信号を、第1同期信号生成部130と、第1信号処理部140と、イメージセンサ200と、合焦判定部170と、レンズ駆動部175とに供給する。また、制御部120は、位相差検出を行う際に、第1信号処理部140から供給された位相差検出画素の画素データから位相差検出画素の露光に適切な露光時間を算出し、この算出した露光時間を、第1同期信号生成部130に供給する。   In addition, when adjusting the focus by detecting the phase difference, the control unit 120 transmits various control signals for executing the focus adjustment by detecting the phase difference to the first synchronization signal generating unit 130 and the first signal processing unit. 140, the image sensor 200, the focus determination unit 170, and the lens driving unit 175. In addition, when performing the phase difference detection, the control unit 120 calculates an exposure time appropriate for the exposure of the phase difference detection pixel from the pixel data of the phase difference detection pixel supplied from the first signal processing unit 140, and calculates the calculation time. The exposed exposure time is supplied to the first synchronization signal generator 130.

なお、制御部120は、ライブビュー画像を表示させる場合には、ライブビュー表示を実行させるための各種の制御信号を、第2同期信号生成部150と、第2信号処理部160と、イメージセンサ200とに供給する。また、制御部120は、ライブビュー表示の際には、第2信号処理部160から供給されたLVラインの画像生成画素の画素データに基づいて、ライブビュー画像の生成に適切な露光時間を算出し、この算出した露光時間を、第2同期信号生成部150に供給する。   In addition, when displaying a live view image, the control unit 120 transmits various control signals for executing live view display to the second synchronization signal generation unit 150, the second signal processing unit 160, and the image sensor. 200. In addition, the control unit 120 calculates an exposure time appropriate for generating a live view image based on the pixel data of the image generation pixels of the LV line supplied from the second signal processing unit 160 during live view display. Then, the calculated exposure time is supplied to the second synchronization signal generator 150.

第1同期信号生成部130は、イメージセンサ200におけるSTLラインの画素を駆動するための同期信号(STL同期信号)を生成するものである。この第1同期信号生成部130は、静止画像撮像を実行させるための制御信号が制御部120から供給された場合には、制御部120が算出した静止画像撮像のための露光時間に応じてイメージセンサ200が駆動されるようにSTL同期信号を生成する。また、第1同期信号生成部130は、位相差検出を行うための制御信号が制御部120から供給された場合には、制御部120が算出した位相差検出のための露光時間に応じてイメージセンサ200が駆動されるようにSTL同期信号を生成する。第1同期信号生成部130は、生成したSTL同期信号を、信号線131を介してイメージセンサ200に供給する。   The first synchronization signal generation unit 130 generates a synchronization signal (STL synchronization signal) for driving the pixels of the STL line in the image sensor 200. When a control signal for executing still image capturing is supplied from the control unit 120, the first synchronization signal generating unit 130 performs image processing according to the exposure time for still image capturing calculated by the control unit 120. An STL synchronization signal is generated so that the sensor 200 is driven. In addition, when the control signal for performing the phase difference detection is supplied from the control unit 120, the first synchronization signal generation unit 130 generates an image according to the exposure time for phase difference detection calculated by the control unit 120. An STL synchronization signal is generated so that the sensor 200 is driven. The first synchronization signal generation unit 130 supplies the generated STL synchronization signal to the image sensor 200 via the signal line 131.

第1信号処理部140は、イメージセンサ200におけるSTLラインの画素が生成した電気信号に対して各種の信号処理を施すものである。第1信号処理部140は、静止画像撮像の動作の場合には、STLラインの画像生成画素からの出力信号(画素値)に基づいて、静止画像のデータ(静止画像データ)を生成する。第1信号処理部140は、この生成した静止画像データを記録部181に供給し、記録部181に記憶させる。また、第1信号処理部140は、位相差検出によりフォーカスを調整する動作の場合には、STLラインの位相差検出画素の画素データ(画素値)を、合焦判定部170に供給する。また、第1信号処理部140は、制御部120が位相差検出のための露光時間を算出する場合には、位相差検出画素の画素データを制御部120に供給する。なお、第1信号処理部140は、制御部120が静止画像の撮像のための露光時間を算出する際に、撮像の直前に取得したSTLラインの画像生成画素の画素データがある場合には、この画素データを制御部120に供給する。   The first signal processing unit 140 performs various types of signal processing on the electrical signal generated by the STL line pixels in the image sensor 200. In the case of a still image capturing operation, the first signal processing unit 140 generates still image data (still image data) based on an output signal (pixel value) from an image generation pixel of the STL line. The first signal processing unit 140 supplies the generated still image data to the recording unit 181 and stores it in the recording unit 181. The first signal processing unit 140 supplies pixel data (pixel value) of the phase difference detection pixel of the STL line to the focus determination unit 170 in the case of the operation of adjusting the focus by detecting the phase difference. Further, the first signal processing unit 140 supplies pixel data of the phase difference detection pixels to the control unit 120 when the control unit 120 calculates the exposure time for phase difference detection. The first signal processing unit 140, when the control unit 120 calculates the exposure time for capturing a still image, if there is pixel data of the image generation pixels of the STL line acquired immediately before imaging, This pixel data is supplied to the control unit 120.

第2同期信号生成部150は、イメージセンサ200におけるLVラインの画素を駆動するための同期信号(LV同期信号)を生成するものである。この第2同期信号生成部150は、ライブビュー画像を表示させるための制御信号が制御部120から供給された場合には、制御部120が算出したライブビュー画像の取得のための露光時間に応じてイメージセンサ200が駆動されるようにLV同期信号を生成する。また、第2同期信号生成部150は、生成したLV同期信号を、信号線151を介してイメージセンサ200に供給する。   The second synchronization signal generation unit 150 generates a synchronization signal (LV synchronization signal) for driving the pixels on the LV line in the image sensor 200. When the control signal for displaying the live view image is supplied from the control unit 120, the second synchronization signal generation unit 150 responds to the exposure time for acquiring the live view image calculated by the control unit 120. Then, the LV synchronization signal is generated so that the image sensor 200 is driven. In addition, the second synchronization signal generation unit 150 supplies the generated LV synchronization signal to the image sensor 200 via the signal line 151.

第2信号処理部160は、イメージセンサ200におけるLVラインの画素が生成した電気信号に対して各種の信号処理を施すものである。第2信号処理部160は、ライブビュー画像を表示させる場合には、イメージセンサ200におけるLVラインの画像生成画素からの出力信号(画素データ)に基づいて、ライブビュー画像のデータ(ライブビュー画像データ)を生成する。第2信号処理部160は、この生成したライブビュー画像データを表示部182に供給し、表示部182における表示画面にライブビューを表示させる。また、第2信号処理部160は、制御部120がライブビュー画像のための露光時間を算出する場合には、LVラインの画像生成画素の画素データを制御部120に供給する。また、第2信号処理部160は、制御部120が静止画像の撮像のための露光時間を算出する際に、撮像の直前に取得したLVラインの画像生成画素の画素データがある場合には、この画素データを制御部120に供給する。   The second signal processing unit 160 performs various types of signal processing on the electrical signal generated by the pixels of the LV line in the image sensor 200. When displaying a live view image, the second signal processing unit 160 displays live view image data (live view image data) based on an output signal (pixel data) from an image generation pixel of the LV line in the image sensor 200. ) Is generated. The second signal processing unit 160 supplies the generated live view image data to the display unit 182 to display the live view on the display screen in the display unit 182. Further, the second signal processing unit 160 supplies pixel data of image generation pixels of the LV line to the control unit 120 when the control unit 120 calculates the exposure time for the live view image. In addition, when the control unit 120 calculates the exposure time for capturing a still image, when the second signal processing unit 160 has pixel data of image generation pixels of the LV line acquired immediately before imaging, This pixel data is supplied to the control unit 120.

記録部181は、第1信号処理部140から供給された画像データを画像コンテンツ(画像ファイル)として記録するものである。例えば、この記録部181として、DVD(Digital Versatile Disk)等のディスクやメモリカード等の半導体メモリ等のリムーバブルな記録媒体(1または複数の記録媒体)を用いることができる。また、これらの記録媒体は、撮像装置100に内蔵するようにしてもよく、撮像装置100から着脱可能とするようにしてもよい。   The recording unit 181 records the image data supplied from the first signal processing unit 140 as an image content (image file). For example, the recording unit 181 may be a removable recording medium (one or a plurality of recording media) such as a disk such as a DVD (Digital Versatile Disk) or a semiconductor memory such as a memory card. In addition, these recording media may be built in the imaging apparatus 100 or may be detachable from the imaging apparatus 100.

表示部182は、第2信号処理部160から供給された画像データに基づいて、画像を表示するものである。この表示部182は、例えば、カラー液晶パネルにより実現される。この表示部182は、例えば、第2信号処理部160からライブビュー画像データが供給された場合には、表示画面にライブビュー画像を表示する。   The display unit 182 displays an image based on the image data supplied from the second signal processing unit 160. The display unit 182 is realized by a color liquid crystal panel, for example. For example, when live view image data is supplied from the second signal processing unit 160, the display unit 182 displays the live view image on the display screen.

合焦判定部170は、第1信号処理部140から供給された位相差検出画素の画素データに基づいて、フォーカスを合わせる対象の物体(合焦対象物)に対してフォーカスが合っているか否かを位相差検出により判定するものである。この合焦判定部170は、フォーカシングを行う領域(フォーカスエリア)における物体(合焦対象物)に対してフォーカスのズレ量(デフォーカス量)を算出し、その算出したデフォーカス量に基づいて、合焦するのに必要なフォーカスレンズ113の駆動量を算出する。そして、合焦判定部170は、フォーカスレンズ113の駆動量を示す情報を、レンズ駆動部175に供給する。   Based on the pixel data of the phase difference detection pixels supplied from the first signal processing unit 140, the focusing determination unit 170 determines whether or not the object to be focused (the focusing target) is in focus. Is determined by phase difference detection. The focus determination unit 170 calculates a focus shift amount (defocus amount) with respect to an object (focus target object) in a focusing area (focus area), and based on the calculated defocus amount, A driving amount of the focus lens 113 necessary for focusing is calculated. Then, the focus determination unit 170 supplies information indicating the driving amount of the focus lens 113 to the lens driving unit 175.

レンズ駆動部175は、フォーカスレンズ113を駆動させるものである。レンズ駆動部175は、合焦判定部170から供給されたフォーカスレンズの駆動量に基づいてフォーカスレンズ113を移動させ、フォーカスを合焦させる。なお、このレンズ駆動部175は、フォーカスが合っている場合(フォーカスレンズ113の駆動量が「0」)には、フォーカスレンズ113の現在の位置を維持させる。   The lens driving unit 175 drives the focus lens 113. The lens driving unit 175 moves the focus lens 113 based on the driving amount of the focus lens supplied from the focus determination unit 170 to focus. The lens driving unit 175 maintains the current position of the focus lens 113 when the focus is achieved (the driving amount of the focus lens 113 is “0”).

[撮像装置の断面構成例]
図2は、本発明の実施の形態の撮像装置100における撮像装置の断面構成例を模式的に示す断面図である。なお、同図では、撮像装置100は、一眼カメラであることを想定して説明する。
[Section configuration example of imaging device]
FIG. 2 is a cross-sectional view schematically illustrating a cross-sectional configuration example of the imaging device in the imaging device 100 according to the embodiment of the present invention. In the figure, it is assumed that the imaging apparatus 100 is a single-lens camera.

同図には、撮像装置100の断面図として、ボディ101と、交換レンズ105とが示されている。交換レンズ105は、撮像装置100における着脱可能なレンズユニットであり、図1において示したレンズ部110に対応する。ボディ101は、撮像装置100における撮像処理を行う本体であり、図1において示したレンズ部110以外の構成に対応する。ボディ101には、シャッターボタン126と、表示部182と、イメージセンサ200とが示されている。   In the drawing, a body 101 and an interchangeable lens 105 are shown as a cross-sectional view of the imaging apparatus 100. The interchangeable lens 105 is a detachable lens unit in the imaging apparatus 100, and corresponds to the lens unit 110 illustrated in FIG. The body 101 is a main body that performs an imaging process in the imaging apparatus 100, and corresponds to a configuration other than the lens unit 110 illustrated in FIG. In the body 101, a shutter button 126, a display unit 182 and an image sensor 200 are shown.

また、同図には、レンズ部110に備えられているレンズにおける光軸(光軸L12)と、被写体光が通過する範囲を示す2つの線(線L11およびL13)とが示されている。なお、線L11およびL13に挟まれた範囲は、イメージセンサ200に入射する光が通過する範囲を示している。   In addition, in the drawing, an optical axis (optical axis L12) in the lens provided in the lens unit 110 and two lines (lines L11 and L13) indicating a range through which subject light passes are shown. Note that the range between the lines L11 and L13 indicates a range through which light incident on the image sensor 200 passes.

同図に示すように、撮像装置100において、入射する被写体光は全てイメージセンサ200に入射される。すなわち、撮像装置100において位相差検出を行う場合には、イメージセンサ200が生成した信号を用いて行われる。また、ライブビュー画像の生成および静止画像の生成も、イメージセンサ200が生成した信号を用いて行われる。   As shown in the figure, in the imaging apparatus 100, all incident subject light enters the image sensor 200. That is, when the phase difference detection is performed in the imaging apparatus 100, the signal generated by the image sensor 200 is used. In addition, generation of a live view image and generation of a still image are also performed using signals generated by the image sensor 200.

[イメージセンサの基本構成例]
図3は、本発明の実施の形態におけるイメージセンサ200の基本構成例を示すブロック図である。
[Example of basic configuration of image sensor]
FIG. 3 is a block diagram illustrating a basic configuration example of the image sensor 200 according to the embodiment of the present invention.

イメージセンサ200は、画素アレイ部400と、第1制御部210と、第1垂直駆動回路220と、第1水平駆動回路230と、第1カラム信号処理部240と、第1出力バッファ260とを備える。さらに、イメージセンサ200は、第2制御部310と、第2垂直駆動回路320と、第2水平駆動回路330と、第2カラム信号処理部340と、第2出力バッファ360とを備える。   The image sensor 200 includes a pixel array unit 400, a first control unit 210, a first vertical drive circuit 220, a first horizontal drive circuit 230, a first column signal processing unit 240, and a first output buffer 260. Prepare. Further, the image sensor 200 includes a second control unit 310, a second vertical drive circuit 320, a second horizontal drive circuit 330, a second column signal processing unit 340, and a second output buffer 360.

画素アレイ部400は、位相差検出画素および画像生成画素がアレイ状に配置されているものである。画素アレイ部400の画素は、画素位置により、STLラインに属する画素と、LVラインに属する画素とに分類され、STLラインに属する画素には、第1垂直選択線270および第1垂直信号線280が接続される。一方、LVラインに属する画素には、第2垂直選択線370および第2垂直信号線380が接続される。なお、画素アレイ部400における画素配置については、図4を参照して説明するため、ここでの説明を省略する。   The pixel array unit 400 has phase difference detection pixels and image generation pixels arranged in an array. The pixels of the pixel array unit 400 are classified into pixels belonging to the STL line and pixels belonging to the LV line according to the pixel position. The pixels belonging to the STL line include the first vertical selection line 270 and the first vertical signal line 280. Is connected. On the other hand, the second vertical selection line 370 and the second vertical signal line 380 are connected to the pixels belonging to the LV line. Note that the pixel arrangement in the pixel array unit 400 will be described with reference to FIG.

第1制御部210は、第1同期信号生成部130から信号線131を介して供給されるSTL同期信号と、制御部120から供給されるイメージセンサ200の制御信号とに基づいて、STLラインに属する画素の信号の生成にかかわる各部の動作を制御するものである。すなわち、この第1制御部210は、第1垂直駆動回路220と、第1水平駆動回路230と、第1カラム信号処理部240とが動作するための各種のタイミング信号を生成するタイミングジェネレータとして機能する。   The first controller 210 is connected to the STL line based on the STL synchronization signal supplied from the first synchronization signal generator 130 via the signal line 131 and the control signal of the image sensor 200 supplied from the controller 120. It controls the operation of each unit related to the generation of the signal of the pixel to which it belongs. That is, the first control unit 210 functions as a timing generator that generates various timing signals for the operation of the first vertical driving circuit 220, the first horizontal driving circuit 230, and the first column signal processing unit 240. To do.

第1垂直駆動回路220は、STLラインを、第1垂直選択線270を介して、順次垂直方向(列方向)に行単位で選択走査するものである。この第1垂直駆動回路220は、例えば、シフトレジスタにより構成される。   The first vertical drive circuit 220 selectively scans the STL lines in units of rows in the vertical direction (column direction) sequentially via the first vertical selection line 270. The first vertical drive circuit 220 is constituted by, for example, a shift register.

第1水平駆動回路230は、第1カラム信号処理部240における画素列ごとの回路部分を順番に選択走査するものである。この第1水平駆動回路230は、例えば、シフトレジスタやアドレスデコーダなどによって構成される。第1水平駆動回路230は、第1カラム信号処理部240の回路部分を順番に選択走査することにより、第1カラム信号処理部240において画素列ごとに信号処理された画素ごとの電気信号(以降は、STL画素データと称する)を、順番に第1出力バッファ260へ出力させる。   The first horizontal drive circuit 230 selectively scans circuit portions for each pixel column in the first column signal processing unit 240 in order. The first horizontal drive circuit 230 is configured by, for example, a shift register, an address decoder, or the like. The first horizontal driving circuit 230 selectively scans the circuit portions of the first column signal processing unit 240 in order, whereby the first column signal processing unit 240 performs an electrical signal for each pixel (hereinafter referred to as pixel signal processing) for each pixel column. Are referred to as STL pixel data) in order to the first output buffer 260.

第1カラム信号処理部240は、画素アレイ部400におけるSTLラインの画素から出力されるアナログ信号に対して各種の信号処理を画素列ごとに行うものである。すなわち、第1カラム信号処理部240は、第1垂直駆動回路220により選択された行における各画素から第1垂直信号線280を介して出力されるアナログ信号に対して各種の信号処理を行う。例えば、第1カラム信号処理部240は、信号処理として、ノイズを除去するためのCDS(Correlated Double Sampling;相関二重サンプリング)処理、アナログの信号をデジタル化するためのAD(Analog Digital)変換処理などを行う。第1カラム信号処理部240は、信号処理後の電気信号(STL画素データ)を、第1出力バッファ260に画素ごとに順次供給する。   The first column signal processing unit 240 performs various types of signal processing for each pixel column on the analog signal output from the pixels on the STL line in the pixel array unit 400. That is, the first column signal processing unit 240 performs various types of signal processing on the analog signal output from each pixel in the row selected by the first vertical drive circuit 220 via the first vertical signal line 280. For example, the first column signal processing unit 240 performs CDS (Correlated Double Sampling) processing for removing noise and AD (Analog Digital) conversion processing for digitizing an analog signal as signal processing. Etc. The first column signal processing unit 240 sequentially supplies the electric signal (STL pixel data) after the signal processing to the first output buffer 260 for each pixel.

第1出力バッファ260は、第1カラム信号処理部240から供給されるSTL画素データを増幅し、信号線149を介してイメージセンサ200の外部に出力するものである。なお、第1カラム信号処理部240および第1出力バッファ260は、特許請求の範囲に記載の第1出力部の一例である。   The first output buffer 260 amplifies the STL pixel data supplied from the first column signal processing unit 240 and outputs the amplified STL pixel data to the outside of the image sensor 200 via the signal line 149. The first column signal processing unit 240 and the first output buffer 260 are examples of the first output unit described in the claims.

第2制御部310は、第2同期信号生成部150から信号線151を介して供給されるLV同期信号と、制御部120から供給されるイメージセンサ200の制御信号とに基づいて、LVラインに属する画素の信号の生成にかかわる各部の動作を制御するものである。すなわち、この第2制御部310は、第2垂直駆動回路320と、第2水平駆動回路330と、第2カラム信号処理部340とが動作するための各種のタイミング信号を生成するタイミングジェネレータとして機能する。   Based on the LV synchronization signal supplied from the second synchronization signal generation unit 150 via the signal line 151 and the control signal of the image sensor 200 supplied from the control unit 120, the second control unit 310 sets the LV line. It controls the operation of each unit related to the generation of the signal of the pixel to which it belongs. That is, the second control unit 310 functions as a timing generator that generates various timing signals for the operation of the second vertical drive circuit 320, the second horizontal drive circuit 330, and the second column signal processing unit 340. To do.

このように、第2制御部310は、LVラインに属する画素の信号の生成にかかわる機能構成が制御対象である以外は、第1制御部210と同様のものである。また、第2垂直駆動回路320についても、LVラインが選択走査対象である以外は、第1垂直駆動回路220と同様のものである。第2水平駆動回路330、第2カラム信号処理部340、および、第2出力バッファ360についても、処理対象が異なる以外は、第1水平駆動回路230、第1カラム信号処理部240、および、第1出力バッファ260と同様である。このため、これらの機能構成については、ここでの説明を省略する。なお、第2カラム信号処理部340および第2出力バッファ360は、特許請求の範囲に記載の第2出力部の一例である。   As described above, the second control unit 310 is the same as the first control unit 210 except that a functional configuration related to generation of a signal of a pixel belonging to the LV line is a control target. The second vertical drive circuit 320 is the same as the first vertical drive circuit 220 except that the LV line is a target for selective scanning. The second horizontal drive circuit 330, the second column signal processing unit 340, and the second output buffer 360 are also different from each other in processing targets, except for the first horizontal drive circuit 230, the first column signal processing unit 240, and the second output buffer 360. This is the same as the one output buffer 260. For this reason, description of these functional configurations is omitted here. The second column signal processing unit 340 and the second output buffer 360 are an example of a second output unit described in the claims.

このように、イメージセンサ200には、STLラインの駆動回路と、LVラインの駆動回路とが、別々に設けられている。そして、STLラインの駆動を制御する第1制御部210と、LVラインの駆動を制御する第2制御部310とは、別々の同期信号(STL同期信号かLV同期信号)に基づいて制御を行う。すなわち、LVラインの画素とSTLラインの画素とは、それぞれ異なるタイミングで露光を開始し、それぞれ異なるタイミングで露光を終了することができる。   As described above, the image sensor 200 is provided with the STL line drive circuit and the LV line drive circuit separately. The first control unit 210 that controls the driving of the STL line and the second control unit 310 that controls the driving of the LV line perform control based on different synchronization signals (an STL synchronization signal or an LV synchronization signal). . That is, the exposure of the LV line pixels and the STL line pixels can be started at different timings and can be ended at different timings.

次に、画素アレイ部400における画素配置について、図4を参照して説明する。   Next, the pixel arrangement in the pixel array unit 400 will be described with reference to FIG.

[イメージセンサにおける画素の配置例]
図4は、本発明の実施の形態におけるイメージセンサ200に備えられる画素の配置の一例を示す模式図である。
[Pixel arrangement example in image sensor]
FIG. 4 is a schematic diagram illustrating an example of the arrangement of pixels provided in the image sensor 200 according to the embodiment of the present invention.

図4では、左右方向をY軸とし、上下方向をX軸とするXY軸を想定して説明する。また、このイメージセンサ200における信号の読み出し方向は、X軸方向(行単位で読み出される)であるものとする。   In FIG. 4, description will be made assuming an XY axis where the left-right direction is the Y-axis and the vertical direction is the X-axis. The signal reading direction in the image sensor 200 is assumed to be in the X-axis direction (read out in units of rows).

図4では、説明の便宜上、イメージセンサ200の画素アレイ部400に配置される各画素のうちの一部の画素の領域(領域410)を用いて画素の配置を説明する。なお、画素アレイ部400における画素の配置は、領域410において示すような画素配置がX軸方向およびY軸方向に繰り返されるような配置である。   In FIG. 4, for convenience of description, the pixel arrangement will be described using a partial pixel region (region 410) among the pixels arranged in the pixel array unit 400 of the image sensor 200. The pixel arrangement in the pixel array unit 400 is an arrangement in which the pixel arrangement as shown in the region 410 is repeated in the X-axis direction and the Y-axis direction.

この領域410には、第2制御部310により制御される行(LVライン)として、5行間隔の画像生成画素のみの行(LVラインL21乃至L25)が示されている。また、この領域410には、第1制御部210により制御される複数の行(STLライン)として、列方向に連続している複数のSTLラインを示すライン群(STLライン群L11乃至L16)が示されている。なお、このSTLライン群L11乃至L16には、画像生成画素のみが配置されるSTLラインと、位相差検出画素および画像生成画素が配置されるSTLラインとが示されている。   In this area 410, as the rows (LV lines) controlled by the second control unit 310, rows (LV lines L21 to L25) having only image generation pixels at intervals of five rows are shown. Further, in this area 410, as a plurality of rows (STL lines) controlled by the first controller 210, there are line groups (STL line groups L11 to L16) indicating a plurality of STL lines continuous in the column direction. It is shown. In the STL line groups L11 to L16, an STL line in which only image generation pixels are arranged and an STL line in which phase difference detection pixels and image generation pixels are arranged are shown.

図4では、1つの画素を1つの正方形で示す。なお、図4において、画像生成画素については、備えられるカラーフィルタを表す符号(R、G、B)を内に示した正方形により示す。すなわち、R画素421は、赤色(R)の光を透過するカラーフィルタにより赤色の光を受光する画素(R画素)を示し、B画素423は、青色(B)の光を透過するカラーフィルタにより青色の光を受光する画素(B画素)を示す。また、G画素422は、緑色(G)の光を透過するカラーフィルタにより緑色の光を受光する画素(G画素)を示す。   In FIG. 4, one pixel is indicated by one square. In FIG. 4, the image generation pixels are indicated by the squares indicated by the symbols (R, G, B) representing the color filters provided. That is, the R pixel 421 indicates a pixel (R pixel) that receives red light with a color filter that transmits red (R) light, and the B pixel 423 includes a color filter that transmits blue (B) light. A pixel (B pixel) that receives blue light is shown. The G pixel 422 indicates a pixel (G pixel) that receives green light by a color filter that transmits green (G) light.

また、位相差検出画素については、白色の矩形が付加された灰色の正方形により示す。なお、位相差検出画素における白色の矩形については、入射光が受光素子により受光される側(瞳分割を行うための遮光層に覆われていない側)を示す。   Further, the phase difference detection pixel is indicated by a gray square to which a white rectangle is added. Note that the white rectangle in the phase difference detection pixel indicates the side where incident light is received by the light receiving element (the side not covered by the light shielding layer for pupil division).

ここで、図4において示されている位相差検出画素(右開口位相差検出画素431、左開口位相差検出画素432)について説明する。   Here, the phase difference detection pixels (the right opening phase difference detection pixel 431 and the left opening phase difference detection pixel 432) shown in FIG. 4 will be described.

右開口位相差検出画素431は、右開口位相差検出画素431のマイクロレンズに入射する被写体光のうち射出瞳の右側を通過した被写体光を遮光するように遮光層が形成される位相差検出画素である。すなわち、この右開口位相差検出画素431は、射出瞳の左右(X軸方向の+−側)に瞳分割された光のうちの右側(X軸方向の+側)の光を遮光し、左側(X軸方向の−側)の瞳分割された光を受光する。   The right aperture phase difference detection pixel 431 is a phase difference detection pixel in which a light shielding layer is formed so as to shield the subject light that has passed through the right side of the exit pupil from the subject light incident on the microlens of the right aperture phase difference detection pixel 431. It is. That is, the right aperture phase difference detection pixel 431 blocks light on the right side (+ side in the X-axis direction) of the light divided into the left and right sides (+ -side in the X-axis direction) of the exit pupil, and on the left side. The pupil-divided light (−side in the X-axis direction) is received.

左開口位相差検出画素432は、左開口位相差検出画素432のマイクロレンズに入射する被写体光のうち射出瞳の左側を通過した被写体光を遮光するように遮光層が形成される位相差検出画素である。すなわち、この左開口位相差検出画素432は、射出瞳の左右(X軸方向の+−側)に瞳分割された光のうちの左側(X軸方向の−側)の光を遮光し、右側(X軸方向の+側)の瞳分割された光を受光する。また、左開口位相差検出画素432は、右開口位相差検出画素431と対に用いられることで、一対の像を形成する。   The left aperture phase difference detection pixel 432 is a phase difference detection pixel in which a light shielding layer is formed so as to shield the subject light passing through the left side of the exit pupil among the subject light incident on the microlens of the left aperture phase difference detection pixel 432. It is. That is, the left aperture phase difference detection pixel 432 blocks light on the left side (−side in the X axis direction) of the light divided into the left and right sides (+ −side in the X axis direction) of the exit pupil, and The pupil-divided light on the + side in the X-axis direction is received. Further, the left aperture phase difference detection pixel 432 is used as a pair with the right aperture phase difference detection pixel 431, thereby forming a pair of images.

ここで、イメージセンサ200における画素の配置について説明する。   Here, the arrangement of pixels in the image sensor 200 will be described.

領域410に示すように、イメージセンサ200の画素配置は、画像生成画素のみが配置される行(ライン)と、画像生成画素および位相差検出画素が配置される行(ライン)とから構成される。画像生成画素および位相差検出画素の行は、読み出し方向(行方向)に対して直行する方向(列方向)において所定間隔ごとに配置され(図4では10行ごと)、その他の行には画像生成画素のみの行が配置される。また、カラーフィルタの配置がベイヤー配列となるように画像生成画素が配置される。   As shown in a region 410, the pixel arrangement of the image sensor 200 includes a row (line) in which only image generation pixels are arranged, and a row (line) in which image generation pixels and phase difference detection pixels are arranged. . Rows of image generation pixels and phase difference detection pixels are arranged at predetermined intervals in the direction (column direction) perpendicular to the readout direction (row direction) (every 10 rows in FIG. 4), and the other rows have images. Rows with only generated pixels are arranged. Further, the image generation pixels are arranged so that the color filters are arranged in a Bayer arrangement.

なお、画像生成画素および位相差検出画素が配置される行では、G画素422とB画素423とが列方向に交互に配置されている中で、一部のB画素423の代わりに、右開口位相差検出画素431および左開口位相差検出画素432のいずれかが配置される。そして、右開口位相差検出画素431および左開口位相差検出画素432は、瞳分割を精度良く行うために、この2つの画素の間隔(この2つの画素に挟まれて配置される画像生成画素の数)が小さくなるように配置される(図4では、1つのG画素422を挟んで配置)。   In the row where the image generation pixel and the phase difference detection pixel are arranged, the G pixel 422 and the B pixel 423 are alternately arranged in the column direction. One of the phase difference detection pixel 431 and the left opening phase difference detection pixel 432 is arranged. Then, the right aperture phase difference detection pixel 431 and the left aperture phase difference detection pixel 432 have an interval between the two pixels (an image generation pixel arranged between the two pixels in order to perform pupil division with high accuracy. (In FIG. 4, it is arranged with one G pixel 422 in between).

このような画素の配置のイメージセンサ200において、画像生成画素のみが配置される行のうちの所定間隔置きの行が、第2制御部310により制御される行(LVライン)とされる。すなわち、この第2制御部310により制御されるLVラインの画素には、第2垂直選択線370および第2垂直信号線380が接続される。なお、LVラインのみでベイヤー配置とするため、LVラインの間隔には奇数が設定される。   In the image sensor 200 having such a pixel arrangement, rows at predetermined intervals among rows in which only image generation pixels are arranged are rows (LV lines) controlled by the second control unit 310. That is, the second vertical selection line 370 and the second vertical signal line 380 are connected to the pixels of the LV line controlled by the second control unit 310. Note that an odd number is set as the interval between the LV lines because only the LV lines are arranged in the Bayer arrangement.

LVライン以外の行は、第1制御部210により制御される行(STLライン)とされ、第1垂直選択線270および第1垂直信号線280が接続される。なお、画像生成画素および位相差検出画素が両方ともに配置される行は、図4では、ライブビューの表示に近い合焦判定結果を取得するために、LVラインに近接した位置に配置される。図4では、2行ごとのLVラインの下側(Y軸方向の−側)に隣接する行が、画像生成画素および位相差検出画素が配置される行として配置されている。   Rows other than the LV line are rows (STL lines) controlled by the first controller 210, and the first vertical selection line 270 and the first vertical signal line 280 are connected to each other. In FIG. 4, the row where both the image generation pixel and the phase difference detection pixel are arranged is arranged at a position close to the LV line in order to obtain a focus determination result close to the live view display. In FIG. 4, the row adjacent to the lower side (−side in the Y-axis direction) of the LV line every two rows is arranged as a row in which the image generation pixel and the phase difference detection pixel are arranged.

次に、画素配置と各信号線との間の関係に着目してイメージセンサ200の画素配置を説明する。   Next, the pixel arrangement of the image sensor 200 will be described by focusing on the relationship between the pixel arrangement and each signal line.

図5は、本発明の実施の形態におけるイメージセンサ200に備えられる画素と、各画素に接続される信号線との関係を模式的に示す図である。   FIG. 5 is a diagram schematically showing the relationship between the pixels provided in the image sensor 200 and the signal lines connected to the pixels in the embodiment of the present invention.

なお、図5では、図4において示した画素のさらに一部の領域(10行×6列)を用いて説明する。   In FIG. 5, description will be made using a further partial region (10 rows × 6 columns) of the pixel shown in FIG. 4.

この図5では、画素が点線の枠の正方形で示され、図4と同様に、画像生成画素にはカラーフィルタを表す符号が付加されており、位相差検出画素には灰色の下地に開口側を示す白色の矩形が付加されている。なお、LVラインの画素は、枠内に細かい点を付して示している。   In FIG. 5, the pixels are shown as squares with a dotted frame, and as in FIG. 4, a code representing a color filter is added to the image generation pixels, and the phase difference detection pixels are open on the gray background. The white rectangle which shows is added. Note that the pixels on the LV line are shown with fine dots in the frame.

また、図5では、第1垂直選択線270と、第1垂直信号線280と、第2垂直選択線370と、第2垂直信号線380とが示されている。そして、各信号線と各画素との接続が、各信号線上に付した黒点により模式的に示されている。   In FIG. 5, a first vertical selection line 270, a first vertical signal line 280, a second vertical selection line 370, and a second vertical signal line 380 are shown. The connection between each signal line and each pixel is schematically shown by black dots on each signal line.

図5に示すように、LVラインの画素には第2垂直選択線370および第2垂直信号線380が接続され、STLラインの画素には第1垂直選択線270および第1垂直信号線280が接続される。このため、LVラインの画素とSTLラインの画素とを独立して駆動することができる。   As shown in FIG. 5, the second vertical selection line 370 and the second vertical signal line 380 are connected to the pixels of the LV line, and the first vertical selection line 270 and the first vertical signal line 280 are connected to the pixels of the STL line. Connected. Therefore, the pixels on the LV line and the pixels on the STL line can be driven independently.

[ライブビュー表示動作と静止画像撮像動作との関係例]
図6は、本発明の実施の形態の撮像装置100を用いて静止画像を撮像する際におけるライブビュー表示動作と静止画像撮像動作との関係の一例を模式的に示すタイミングチャートである。
[Example of relationship between live view display operation and still image capturing operation]
FIG. 6 is a timing chart schematically showing an example of a relationship between a live view display operation and a still image imaging operation when a still image is captured using the imaging apparatus 100 according to the embodiment of the present invention.

このタイミングチャートには、横軸を共通の時間軸として、LVラインの画素の出力を用いて行われるライブビュー表示動作と、STLラインの画素の出力を用いて行われる静止画撮像動作とが示されている。   This timing chart shows a live view display operation performed using the output of the pixels on the LV line and a still image imaging operation performed using the output of the pixels on the STL line, with the horizontal axis as the common time axis. Has been.

ライブビュー表示動作としては、信号線151の電位の遷移(パルスがLV同期信号)と、LVラインにおける画素の露光タイミング(露光期間)と、信号線169を介して出力されるLV画素データの転送タイミング(転送期間)とが示されている。また、ライブビュー表示動作として、表示部182に表示されるライブビュー画像の表示タイミング(表示期間)が示されている。   As live view display operations, potential transition of the signal line 151 (pulse is an LV synchronization signal), pixel exposure timing (exposure period) on the LV line, and transfer of LV pixel data output via the signal line 169 Timing (transfer period) is shown. In addition, the display timing (display period) of the live view image displayed on the display unit 182 is shown as the live view display operation.

静止画撮像動作としては、信号線131の電位の遷移(パルスがSTL同期信号)と、STLラインにおける画素の露光タイミング(露光期間)と、信号線149を介して出力されるSTL画素データの転送タイミング(転送期間)とが示されている。また、静止画撮像動作として、記録部181に記録される静止画像の記録タイミング(記録期間)が示されている。   As a still image capturing operation, potential transition of the signal line 131 (pulse is an STL synchronization signal), pixel exposure timing (exposure period) on the STL line, and transfer of STL pixel data output via the signal line 149 Timing (transfer period) is shown. In addition, the recording timing (recording period) of the still image recorded in the recording unit 181 is shown as the still image capturing operation.

また、図6には、表示されたライブビュー画像に基づいて撮像画像の構図をユーザーが決定している期間(ライブビュー期間)を示す両矢印(期間531および533)と、撮像装置が静止画像を生成している期間(画像生成期間)を示す両矢印(期間532)とが示されている。なお、図6では、ライブビュー期間におけるフォーカス調整は考慮せずに、静止画像の撮像に着目して説明する。なお、位相差検出画素を用いたフォーカス調整については、図7を参照して説明する。   FIG. 6 also shows a double arrow (periods 531 and 533) indicating a period (live view period) in which the user determines the composition of the captured image based on the displayed live view image, and the imaging apparatus is a still image. A double arrow (period 532) indicating a period (image generation period) during which is generated. In FIG. 6, the focus adjustment in the live view period is not considered and attention is paid to still image capturing. The focus adjustment using the phase difference detection pixels will be described with reference to FIG.

ここで、ライブビュー表示動作について説明する。例えば、ライブビュー画像の表示速度が60fpsと設定されている場合において、被写体光の光量が十分である場合には、1/60秒おきにLV同期信号が第2制御部310に供給される。そしてこの同期信号に基づいてLVラインの画素が駆動される。   Here, the live view display operation will be described. For example, when the display speed of the live view image is set to 60 fps, the LV synchronization signal is supplied to the second control unit 310 every 1/60 seconds when the amount of the subject light is sufficient. The pixels on the LV line are driven based on this synchronization signal.

露光によりLVラインの画素において生じた画素データ(LV画素データ)は、信号線169を介して第2信号処理部160へ読み出され、表示期間513において表示部182に表示される。なお、図6の露光期間511はこの露光の期間に対応し、転送期間512はこの読み出しの期間に対応する。このような動作が、STLラインの画素を用いて行われる静止画撮像動作と無関係に繰り返される。   Pixel data (LV pixel data) generated in the pixels on the LV line by the exposure is read to the second signal processing unit 160 via the signal line 169 and displayed on the display unit 182 in the display period 513. Note that the exposure period 511 in FIG. 6 corresponds to this exposure period, and the transfer period 512 corresponds to this readout period. Such an operation is repeated regardless of the still image capturing operation performed using the pixels of the STL line.

すなわち、ライブビュー画像の表示速度が60fpsの場合には、静止画撮像動作が行われている最中でも60fpsを維持してライブビュー画像が表示される。また、LVラインには位相差検出画素が配置されていないため、ライブビュー画像の生成の際には、位相差検出画素の位置の画素値の補間処理は不要である。このため、綺麗なライブビュー画像を迅速に生成することができる。   That is, when the display speed of the live view image is 60 fps, the live view image is displayed while maintaining 60 fps even during the still image capturing operation. In addition, since no phase difference detection pixel is arranged in the LV line, interpolation processing of the pixel value at the position of the phase difference detection pixel is not necessary when generating a live view image. For this reason, a beautiful live view image can be quickly generated.

次に、静止画撮像動作について説明する。シャッターボタンが押下されると、制御部120からのイメージセンサ200の制御信号により、第1制御部210は、STLラインの読み出し対象の行の設定を静止画撮像用に設定する。例えば、STLラインの全画素を読み出して静止画像を撮像する場合には、STLラインの全画素の読み出しを行うように、第1垂直駆動回路220と、第1水平駆動回路230と、第1カラム信号処理部240との動作が設定される。すなわち、全てのSTLラインが、読み出対象の行に設定される。そして、第1同期信号生成部130からSTL同期信号が第1制御部210に供給され、STLラインの画素の露光が開始される。そして、制御部120が算出した静止画像撮像用の露光時間の後に、再びSTL同期信号が供給され、露光が終了する。   Next, the still image capturing operation will be described. When the shutter button is pressed, the first control unit 210 sets a row to be read out of the STL line for still image capturing in accordance with a control signal of the image sensor 200 from the control unit 120. For example, when all the pixels of the STL line are read out to capture a still image, the first vertical driving circuit 220, the first horizontal driving circuit 230, and the first column are read so as to read out all the pixels of the STL line. The operation with the signal processing unit 240 is set. That is, all the STL lines are set to read target rows. Then, an STL synchronization signal is supplied from the first synchronization signal generation unit 130 to the first control unit 210, and exposure of pixels on the STL line is started. Then, after the exposure time for taking a still image calculated by the control unit 120, the STL synchronization signal is supplied again, and the exposure ends.

その後、露光によりイメージセンサ200において生じた画素データ(STL画素データ)は、信号線149を介して第1信号処理部140へ読み出され、記録部181に記録される。図6の露光期間521はこの露光の期間に対応し、転送期間522はこの読み出しの期間に対応する。また、記録期間523は記録部181への記録の期間に対応する。なお、第1信号処理部140における画像処理では、LVラインの画素値と位相差検出画素の画素値とが、一般的な欠陥画素補正により補間されて、画像が生成される。なお、LVラインの位置の画素データは、第1カラム信号処理部240がダミーデータを出力するようにすると、第1信号処理部140において行われる補間処理が容易になる。   Thereafter, pixel data (STL pixel data) generated in the image sensor 200 by exposure is read to the first signal processing unit 140 via the signal line 149 and recorded in the recording unit 181. The exposure period 521 in FIG. 6 corresponds to this exposure period, and the transfer period 522 corresponds to this readout period. The recording period 523 corresponds to a recording period in the recording unit 181. In the image processing in the first signal processing unit 140, the pixel value of the LV line and the pixel value of the phase difference detection pixel are interpolated by general defective pixel correction to generate an image. Note that the pixel data at the position of the LV line can be easily interpolated by the first signal processing unit 140 if the first column signal processing unit 240 outputs dummy data.

図6に示すように、イメージセンサ200では、LVラインとSTLラインとを別々に駆動できる。このため、互いの動作タイミングへの干渉がなく、静止画像の撮像中(図6の期間532)も途切れることなくライブビューを表示し続けることができる。   As shown in FIG. 6, in the image sensor 200, the LV line and the STL line can be driven separately. Therefore, there is no interference with each other's operation timing, and it is possible to continue displaying the live view without interruption even during the still image capturing (period 532 in FIG. 6).

次に、位相差検出によりフォーカス調整を行う場合について、図7を参照して説明する。   Next, a case where focus adjustment is performed by phase difference detection will be described with reference to FIG.

[ライブビュー表示動作と位相差検出動作との関係例]
図7は、本発明の実施の形態の撮像装置100においてフォーカス調整を行う際におけるライブビュー表示動作と位相差検出動作との関係の一例を模式的に示すタイミングチャートである。
[Example of relationship between live view display operation and phase difference detection operation]
FIG. 7 is a timing chart schematically showing an example of the relationship between the live view display operation and the phase difference detection operation when focus adjustment is performed in the imaging apparatus 100 according to the embodiment of the present invention.

このタイミングチャートには、横軸を共通の時間軸として、LVラインの画素の出力を用いて行われるライブビュー表示動作と、STLラインの画素の出力を用いて行われる位相差検出動作とが示されている。   This timing chart shows a live view display operation performed using the output of the pixels on the LV line and a phase difference detection operation performed using the output of the pixels on the STL line, with the horizontal axis as the common time axis. Has been.

なお、ライブビュー表示動作については、図6において示したものと同様のものであるため、ここでの説明を省略する。   Since the live view display operation is the same as that shown in FIG. 6, the description thereof is omitted here.

位相差検出動作としては、信号線131の電位の遷移(パルスがSTL同期信号)と、STLラインにおける画素の露光タイミング(露光期間)と、信号線149を介して出力されるSTL画素データの転送タイミング(転送期間)とが示されている。また、位相差検出動作として、位相差検出処理によりデフォーカス量が算出されるタイミング(検出期間)と、この算出されたデフォーカス量から求められるレンズ駆動量ほどフォーカスレンズが駆動されるタイミング(駆動期間)とが示されている。なお、フォーカスレンズの駆動タイミングは、説明の便宜上、図7では一定の期間として示すが、実際の駆動量のサイズにより時間長が個々に異なる。   As the phase difference detection operation, potential transition of the signal line 131 (pulse is an STL synchronization signal), pixel exposure timing (exposure period) on the STL line, and transfer of STL pixel data output via the signal line 149 Timing (transfer period) is shown. In addition, as a phase difference detection operation, a timing (detection period) at which the defocus amount is calculated by the phase difference detection process, and a timing at which the focus lens is driven (driving) by the lens driving amount obtained from the calculated defocus amount Period). For convenience of explanation, the focus lens drive timing is shown as a fixed period in FIG. 7, but the time length varies depending on the actual drive amount size.

ここで、位相差検出動作について説明する。位相差検出によるフォーカス調整を行う場合には、制御部120は、STLラインの読み出し対象行の設定を位相差検出用に設定させる。例えば、フォーカスを合わせる対象物(合焦対象物)が撮像されるSTLラインのうちの位相差検出画素が配置されているラインが読み出し対象のラインとなるように、第1垂直駆動回路220と、第1水平駆動回路230と、第1カラム信号処理部240との動作が設定される。このように、位相差検出を行う場合には、STLラインのうちの位相差検出画素が含まれるラインのみが駆動されるように設定される。   Here, the phase difference detection operation will be described. When performing the focus adjustment by detecting the phase difference, the control unit 120 causes the setting of the readout target row of the STL line to be set for detecting the phase difference. For example, the first vertical drive circuit 220 so that a line on which a phase difference detection pixel is arranged among STL lines in which an object to be focused (focused object) is imaged becomes a line to be read. The operations of the first horizontal driving circuit 230 and the first column signal processing unit 240 are set. Thus, when performing phase difference detection, it is set so that only the line including the phase difference detection pixel in the STL line is driven.

そして、第1同期信号生成部130は、制御部120が算出した位相差検出に適切な露光時間に基づいてSTL同期信号の供給間隔を設定し、位相差検出を行うタイミングでSTL同期信号を第1制御部210に供給する。これにより、STLラインの画素の露光が、位相差検出用の露光時間で繰り返される。なお、図7では、被写体の光量が多いため短い時間の露光時間が設定され、この露光時間の撮像で繰り返し位相差検出が行われている区間(区間561)が示されている。また、図7では、被写体の光量が少ないため長い露光時間が設定され、この露光時間の撮像で繰り返し位相差検出が行われている区間(区間562)が示されている。   Then, the first synchronization signal generation unit 130 sets the STL synchronization signal supply interval based on the exposure time appropriate for the phase difference detection calculated by the control unit 120, and sets the STL synchronization signal at the timing when the phase difference detection is performed. 1 is supplied to the control unit 210. Thereby, the exposure of the pixels of the STL line is repeated with the exposure time for phase difference detection. Note that FIG. 7 shows a section (section 561) in which a short exposure time is set because the amount of light of the subject is large, and phase difference detection is repeatedly performed by imaging with this exposure time. Further, FIG. 7 shows a section (section 562) where a long exposure time is set because the amount of light of the subject is small, and phase difference detection is repeatedly performed by imaging with this exposure time.

露光で読み出し対象のSTLラインの画素において生じた画素データ(STL画素データ)は、信号線149を介して第1信号処理部140へ読み出される。図7の露光期間551はこの露光の期間に対応し、転送期間552はこの読み出しの期間に対応する。なお、読み出し対象のSTLラインのライン数が少ないため、転送期間552は、図6の転送期間522より時間長が短くなる。   Pixel data (STL pixel data) generated in pixels on the STL line to be read by exposure is read to the first signal processing unit 140 via the signal line 149. The exposure period 551 in FIG. 7 corresponds to this exposure period, and the transfer period 552 corresponds to this readout period. Note that since the number of STL lines to be read is small, the transfer period 552 is shorter in time than the transfer period 522 in FIG.

そして、位相差検出画素の出力(画素値)のみが合焦判定部170に供給され、位相差検出画素の画素値から算出されたデフォーカス量に基づいて、合焦に必要なフォーカスレンズの駆動量が合焦判定部170により算出される。そして、この駆動量に基づいてフォーカスレンズ113が駆動されてフォーカスが合焦する。図7の検出期間553は、位相差検出画素の出力に基づいてフォーカスレンズの駆動量が算出される期間に対応し、駆動期間554は、フォーカスレンズ113の駆動期間に対応する。   Then, only the output (pixel value) of the phase difference detection pixel is supplied to the focus determination unit 170, and the focus lens required for focusing is driven based on the defocus amount calculated from the pixel value of the phase difference detection pixel. The amount is calculated by the focus determination unit 170. Then, the focus lens 113 is driven based on this driving amount to focus. A detection period 553 in FIG. 7 corresponds to a period in which the driving amount of the focus lens is calculated based on the output of the phase difference detection pixel, and a driving period 554 corresponds to a driving period of the focus lens 113.

このように、LVラインとSTLラインとを別々に駆動できるため、ライブビュー画像の露光の時間長と、位相差検出画素の露光の時間長とを別々に設定しながら、ライブビュー画像用の画素値と、位相差検出用の画素値とを同時に取得することができる。   As described above, since the LV line and the STL line can be driven separately, the live view image pixel is set while separately setting the exposure time length of the live view image and the exposure time length of the phase difference detection pixel. The value and the pixel value for phase difference detection can be acquired simultaneously.

[撮像装置の動作例]
次に、本技術の実施の形態における撮像装置100の動作について図面を参照して説明する。なお、図8では、LVラインの画素の駆動によるライブビュー画像の表示の動作例について説明し、図9では、STLラインの画素の駆動による位相差検出および静止画像撮像の動作例について説明する。
[Operation example of imaging device]
Next, the operation of the imaging apparatus 100 according to the embodiment of the present technology will be described with reference to the drawings. Note that FIG. 8 illustrates an operation example of displaying a live view image by driving pixels of the LV line, and FIG. 9 illustrates an operation example of phase difference detection and still image capturing by driving the pixels of the STL line.

図8は、本技術の実施の形態における撮像装置100によるLVラインの画素の駆動によるライブビュー画像の表示処理が行われる際の処理手順例を示すフローチャートである。   FIG. 8 is a flowchart illustrating a processing procedure example when live view image display processing is performed by driving the pixels of the LV line by the imaging apparatus 100 according to the embodiment of the present technology.

まず、ライブビュー画像の表示を開始するか否かが、制御部120により判断される(ステップS901)。そして、ライブビュー画像の表示を開始しないと判断された場合には、ライブビュー画像の表示を開始するまで待機する。例えば、撮像装置100の電源をONにしたものの、撮像を行わずに、既に撮像した画像の再生動作を行う場合には、ライブビュー画像の表示を開始しないと判断される。   First, the control unit 120 determines whether or not to start displaying a live view image (step S901). When it is determined not to start displaying the live view image, the process waits until display of the live view image is started. For example, when the power of the imaging apparatus 100 is turned on, but when an already captured image is reproduced without performing imaging, it is determined that the display of the live view image is not started.

一方、ライブビュー画像の表示を開始すると判断された場合には(ステップS901)、LVラインの画素の露光時間が、制御部120により設定される(ステップS902)。続いて、その設定されたLVラインの画素の露光時間に基づいてLV同期信号が第2同期信号生成部150により生成され、イメージセンサ200におけるLVラインの画素の露光がLV同期信号に基づいて露光処理される(ステップS903)。   On the other hand, when it is determined to start displaying the live view image (step S901), the exposure time of the pixels of the LV line is set by the control unit 120 (step S902). Subsequently, an LV synchronization signal is generated by the second synchronization signal generation unit 150 based on the set exposure time of the pixels on the LV line, and exposure of the pixels on the LV line in the image sensor 200 is performed based on the LV synchronization signal. Processing is performed (step S903).

その後、LVラインの画素が生成した画素データ(LV画素データ)に基づいて、ライブビュー画像が第2信号処理部160により生成され(ステップS904)、その生成されたライブビュー画像が表示部182に表示される(ステップS905)。続いて、ライブビュー表示を継続するか否かが、制御部120により判断される(ステップS906)。そして、ライブビュー表示を継続しないと判断された場合には(ステップS906)、LVラインの画素の駆動によるライブビュー画像表示処理手順は終了する。例えば、撮像動作を終了する場合には、ライブビュー表示を継続しないと判断される。   Thereafter, a live view image is generated by the second signal processing unit 160 based on the pixel data (LV pixel data) generated by the pixels of the LV line (step S904), and the generated live view image is displayed on the display unit 182. It is displayed (step S905). Subsequently, the control unit 120 determines whether or not to continue the live view display (step S906). If it is determined not to continue the live view display (step S906), the live view image display processing procedure by driving the pixels of the LV line is ended. For example, when the imaging operation is terminated, it is determined that the live view display is not continued.

一方、ライブビュー画像の表示を継続すると判断された場合には(ステップS906)、LVラインの露光時間の変更の必要があるか否かが、制御部120により判断される(ステップS907)。そして、LVラインの露光時間の変更の必要があると判断された場合には(ステップS907)、ステップS902に戻り、露光時間が再設定された後に、ライブビュー表示が継続される。   On the other hand, when it is determined that the display of the live view image is to be continued (step S906), the control unit 120 determines whether or not the LV line exposure time needs to be changed (step S907). If it is determined that the exposure time of the LV line needs to be changed (step S907), the process returns to step S902, and the live view display is continued after the exposure time is reset.

なお、LVラインの露光時間の変更の必要がないと判断された場合には(ステップS907)、ステップS903に戻り、ライブビュー表示が継続される。   If it is determined that there is no need to change the exposure time of the LV line (step S907), the process returns to step S903 and the live view display is continued.

図9は、本技術の実施の形態における撮像装置100によるSTLラインの画素の駆動による位相差検出または静止画像撮像が行われる際の処理手順例を示すフローチャートである。   FIG. 9 is a flowchart illustrating a processing procedure example when phase difference detection or still image capturing is performed by driving the pixels of the STL line by the image capturing apparatus 100 according to the embodiment of the present technology.

まず、位相差検出用の撮像を開始するか否かが、制御部120により判断される(ステップS911)。そして、位相差検出用の撮像を開始しないと判断された場合には(ステップS911)、ステップS918に進む。   First, the control unit 120 determines whether or not to start imaging for phase difference detection (step S911). If it is determined not to start imaging for phase difference detection (step S911), the process proceeds to step S918.

一方、ステップS911において、位相差検出用の撮像を開始すると判断された場合には(ステップS911)、STLラインの画素の露光時間が、制御部120により設定される(ステップS912)。その後、STLラインのうちの位相差検出画素が配置されているラインが、位相差検出用の撮像の読み出し対象ラインとして設定される(ステップS913)。なお、このステップS913において、合焦対象物が撮像されているSTLラインのうちの位相差検出画素が配置されているラインを読み出しラインとして設定することにより、読み出しライン数を少なくすることができる。   On the other hand, when it is determined in step S911 that imaging for phase difference detection is started (step S911), the exposure time of the pixels on the STL line is set by the control unit 120 (step S912). After that, the line in which the phase difference detection pixels are arranged in the STL line is set as a readout target line for imaging for phase difference detection (step S913). In this step S913, the number of read lines can be reduced by setting the line where the phase difference detection pixel is arranged among the STL lines where the in-focus object is imaged, as the read line.

続いて、設定されたSTLラインの画素の露光時間に基づいてSTL同期信号が第1同期信号生成部130により生成され、イメージセンサ200におけるSTLラインの画素がSTL同期信号に基づいて露光処理される(ステップS914)。次に、この露光により位相差検出画素が生成した画素データが合焦判定部170に供給されて、デフォーカス量を算出する合焦判定処理が合焦判定部170により行われる(ステップS915)。そして、算出されたデフォーカス量に基づいてフォーカスレンズ113が駆動されるフォーカスレンズ駆動処理が行われ(ステップS916)、ステップS924に進む。なお、ステップS912乃至ステップS916が行われる際には、図8に示した動作例のようにLVラインの画素が駆動されているため、ライブビュー画像の生成および表示が同時に行われている。なお、ステップS914は、特許請求の範囲に記載の第1制御手順の一例である。   Subsequently, an STL synchronization signal is generated by the first synchronization signal generation unit 130 based on the set exposure time of the pixels on the STL line, and pixels on the STL line in the image sensor 200 are exposed based on the STL synchronization signal. (Step S914). Next, pixel data generated by the phase difference detection pixels by this exposure is supplied to the focus determination unit 170, and a focus determination process for calculating a defocus amount is performed by the focus determination unit 170 (step S915). Then, a focus lens driving process is performed in which the focus lens 113 is driven based on the calculated defocus amount (step S916), and the process proceeds to step S924. Note that when Steps S912 to S916 are performed, since the pixels of the LV line are driven as in the operation example shown in FIG. 8, the generation and display of the live view image are performed simultaneously. Note that step S914 is an example of a first control procedure described in the claims.

また、ステップS911において位相差検出用の撮像を開始しないと判断された場合には、静止画像撮用の撮像を開始するか否かが、制御部120により判断される(ステップS918)。ここで、静止画像撮像用の撮像を開始しないと判断された場合には(ステップS918)、ステップS911に戻り、位相差検出用の撮像または静止画像撮像用の撮像のいずれかを開始するまで待機する。   If it is determined in step S911 that imaging for phase difference detection is not started, the control unit 120 determines whether imaging for still image shooting is to be started (step S918). If it is determined that imaging for still image imaging is not started (step S918), the process returns to step S911 and waits until either imaging for phase difference detection or imaging for still image imaging is started. To do.

一方、静止画像撮像用の撮像を開始すると判断された場合には(ステップS918)、STLラインの画素の露光時間が、制御部120により設定される(ステップS919)。その後、全てのSTLラインが、静止画像撮像用の撮像における読み出し対象ラインとして設定される(ステップS920)。続いて、設定されたSTLラインの画素の露光時間に基づいてSTL同期信号が第1同期信号生成部130により生成され、イメージセンサ200におけるSTLラインの画素がSTL同期信号に基づいて露光処理される(ステップS921)。なお、ステップS921は、特許請求の範囲に記載の第2制御手順の一例である。   On the other hand, when it is determined to start imaging for still image capturing (step S918), the exposure time of the pixels of the STL line is set by the control unit 120 (step S919). Thereafter, all the STL lines are set as readout target lines in imaging for still image imaging (step S920). Subsequently, an STL synchronization signal is generated by the first synchronization signal generation unit 130 based on the set exposure time of the pixels on the STL line, and pixels on the STL line in the image sensor 200 are exposed based on the STL synchronization signal. (Step S921). Step S921 is an example of the second control procedure described in the claims.

その後、STLラインの画素が生成した画素データ(STL画素データ)に基づいて、記録用の静止画像が第1信号処理部140により生成される(ステップS922)。そして、その生成された静止画像が記録部181に記録される(ステップS923)。なお、ステップS919乃至ステップS923が行われる際には、図8に示した動作例のようにLVラインの画素が駆動されているため、ライブビュー画像の生成および表示が同時に行われている。   Thereafter, based on the pixel data (STL pixel data) generated by the pixels of the STL line, a still image for recording is generated by the first signal processing unit 140 (step S922). Then, the generated still image is recorded in the recording unit 181 (step S923). Note that when Steps S919 to S923 are performed, since the pixels of the LV line are driven as in the operation example shown in FIG. 8, the live view image is generated and displayed at the same time.

続いて、STLラインの画素の撮像動作を終了するか否かが、制御部120により判断される(ステップS924)。そして、STLラインの画素の撮像動作を終了すると判断された場合には(ステップS924)、STLラインの画素の撮像処理手順は終了する。例えば、撮像装置100の動作モードが、撮像用のモードから画像の再生用のモードに切り替わった場合には、撮像動作を終了すると判断される。   Subsequently, the control unit 120 determines whether or not to end the imaging operation of the pixels of the STL line (step S924). When it is determined that the imaging operation for the pixels in the STL line is to be ended (step S924), the imaging processing procedure for the pixels in the STL line is ended. For example, when the operation mode of the imaging apparatus 100 is switched from the imaging mode to the image reproduction mode, it is determined that the imaging operation is finished.

一方、STLラインの画素の撮像動作を終了しないと判断された場合には(ステップS924)、ステップS911に戻り、位相差検出用の撮像または静止画像撮像用の撮像のいずれかが行われる。   On the other hand, when it is determined not to end the imaging operation of the pixels of the STL line (step S924), the process returns to step S911, and either imaging for phase difference detection or imaging for still image imaging is performed.

<2.変形例>
本技術の実施の形態では、ライブビュー用の露光と静止画像用の露光とを1枚のイメージセンサにおいて独立して設定することができる例について説明した。また、このイメージセンサでは、ライブビュー用の露光を行う画素のライン(LVライン)には位相差検出画素が配置されておらず、静止画像用の露光を行う画素のライン(STLライン)に位相差検出画素が配置されている。このため、ライブビューに適切な露光時間でライブビュー画像を生成しながら、位相差検出画素に適切な露光時間で位相差検出用の画素値を生成させることができる。
<2. Modification>
In the embodiment of the present technology, the example in which the exposure for live view and the exposure for still image can be independently set in one image sensor has been described. Further, in this image sensor, no phase difference detection pixel is arranged in the line of the pixel for exposure for live view (LV line), and it is positioned in the line of the pixel for exposure for still image (STL line). Phase difference detection pixels are arranged. For this reason, while generating a live view image with an appropriate exposure time for live view, a phase difference detection pixel value can be generated with an appropriate exposure time for a phase difference detection pixel.

なお、静止画像を撮像している最中にもライブビュー用の画像を撮像できるため、連写を行ったとしても、連写中にライブビュー表示が固まらない(ブラックアウトしない)。これにより、連写中にライブビュー表示を確認したいユーザーに対してはライブビュー表示が固まらない恩恵がある。しかしながら、ライブビュー表示が固まらずに撮像した画像を確認できないことは、連写中に撮像画像を確認したいユーザーに対しては不便となる可能性がある。   Note that since a live view image can be captured while still images are being captured, even if continuous shooting is performed, the live view display does not freeze (does not black out) during continuous shooting. This has the advantage that the live view display is not fixed for the user who wants to check the live view display during continuous shooting. However, it is inconvenient for a user who wants to check a captured image during continuous shooting to be unable to check the captured image without fixing the live view display.

そこで、連写中に、ライブビュー画像とともに連写で撮像した画像を時系列順に表示し、ライブビュー画像と撮像画像との両方をユーザーが容易に確認できる表示の一例について、本技術の実施の形態の変形例として、図10を参照して説明する。   Therefore, during continuous shooting, images taken in continuous shooting together with live view images are displayed in chronological order, and an example of a display that allows the user to easily check both live view images and captured images is shown below. A modification of the embodiment will be described with reference to FIG.

[連写中の表示例]
図10は、本技術の実施の形態の変形例として、ライブビュー画像と撮像画像との両方を連写中に容易に確認できる表示の一例を模式的に示す図である。
[Display example during continuous shooting]
FIG. 10 is a diagram schematically illustrating an example of a display in which both the live view image and the captured image can be easily confirmed during continuous shooting, as a modification of the embodiment of the present technology.

図10には、時間軸を示す軸とともに、連写により撮像された撮像画像(記録画像)を示す4枚の画像(画像611乃至614)と、連写中に表示された3つの表示画面(画面620、画面630、画面640)とが示されている。   FIG. 10 shows four images (images 611 to 614) indicating captured images (recorded images) captured by continuous shooting, along with an axis indicating the time axis, and three display screens (during continuous shooting). Screen 620, screen 630, screen 640).

なお、画面620は、画像611の撮像から画像612の撮像までに表示された表示画面であり、画面630は、画像612の撮像から画像613の撮像までに表示された表示画面である。そして、画面640は、画像613の撮像から画像614の撮像までに表示された表示画面である。   Note that the screen 620 is a display screen displayed from the image 611 to the image 612, and the screen 630 is a display screen displayed from the image 612 to the image 613. The screen 640 is a display screen that is displayed from the image 613 to the image 614.

この変形例では、連写中にライブビュー表示とともに、それまでに撮像した画像が時系列順に表示される。なお、それまでに撮像した画像は、ライブビュー画像を邪魔しないように、小さく表示されている。また、それまでに撮像した画像は、撮像関係(撮像順序)がユーザーに分かりやすいように、時間軸を示すマークとともに表示される。なお、図10では、時間軸を示すマークの一例として、現時刻を矢印の先端部分とし、連写開始時を矢印の後端部分とする矢印が示されている。   In this modification, live view display during continuous shooting and images captured so far are displayed in chronological order. Note that images captured so far are displayed small so as not to disturb the live view image. In addition, images captured so far are displayed together with marks indicating the time axis so that the user can easily understand the imaging relationship (imaging order). In FIG. 10, as an example of a mark indicating the time axis, an arrow is illustrated in which the current time is the tip of the arrow and the start of continuous shooting is the trailing end of the arrow.

画面620には、画面620が示すライブビュー表示より前に連写で撮像された記録画像(画像611)が表示されている表示領域(記録画像表示領域621)と、現時刻を先端部分とする矢印(矢印表示領域625)とが示されている。なお、画像611は連写の1枚目であるため、記録画像表示領域621は、矢印表示領域625における矢印の後端部分の位置と対応付けられて示されている。   On the screen 620, a display area (recorded image display area 621) in which a recorded image (image 611) captured in continuous shooting before the live view display shown on the screen 620 is displayed, and the current time as a front end portion is displayed. An arrow (an arrow display area 625) is shown. Since the image 611 is the first continuous shot, the recorded image display area 621 is shown in association with the position of the rear end portion of the arrow in the arrow display area 625.

画面630には、画面630が示すライブビュー表示より前に連写で撮像された2枚の記録画像(画像611および612)が表示されている表示領域(記録画像表示領域631および632)と、現時刻を先端部分とする矢印(矢印表示領域635)とが、ライブビュー表示とともに示されている。1枚目の画像(画像611)を表示している記録画像表示領域631は、矢印表示領域625における矢印の後端部分の位置と対応付けられて示されている。また、2枚目の画像(画像612)を表示している記録画像表示領域632は、矢印表示領域625の矢印の後端部分と先端部分との間の位置に対応付けられて示されている。   On the screen 630, a display area (recorded image display areas 631 and 632) in which two recorded images (images 611 and 612) captured in continuous shooting before the live view display indicated by the screen 630 is displayed; An arrow (arrow display area 635) with the current time as the tip is shown together with the live view display. The recorded image display area 631 displaying the first image (image 611) is shown in association with the position of the rear end portion of the arrow in the arrow display area 625. The recorded image display area 632 displaying the second image (image 612) is shown in association with the position between the rear end portion and the front end portion of the arrow in the arrow display region 625. .

画面640には、画面620および画面630と同様に、連写によりそれまでに撮像された記録画像を示す表示領域(記録画像表示領域641乃至642)と、現時刻を先端部分とする矢印(矢印表示領域645)とが、ライブビュー表示とともに示されている。   Similar to the screens 620 and 630, the screen 640 includes a display area (recorded image display areas 641 to 642) showing recorded images captured so far by continuous shooting, and an arrow (arrow) having the current time as a tip portion. A display area 645) is shown with a live view display.

このように、ライブビュー画像が表示されながら、連写により撮像された記録画像が時系列順に表示される。なお、連写により撮像される記録画像の枚数が多い場合には、古い記録画像から順に表示させなくしたり、1枚当たりの表示サイズを小さくして多く記録画像を表示したりすることが考えられる。また、連写により撮像される記録画像の枚数が多い場合には、記録画像を重ねて表示して表示スペースを稼ぐことも考えられる。そこで、図11では、記録画像を重ねて表示する場合の一例について説明する。   In this way, the recorded images captured by continuous shooting are displayed in chronological order while the live view image is displayed. When there are a large number of recorded images taken by continuous shooting, it is possible to display the recorded images in order starting from the oldest recorded images or by reducing the display size per image. . Further, when there are a large number of recorded images picked up by continuous shooting, it is conceivable to display the recorded images in an overlapping manner to save display space. Therefore, in FIG. 11, an example in which the recorded images are displayed in an overlapping manner will be described.

図11は、本技術の実施の形態の変形例におけるライブビュー画像中の記録画像の表示において複数の記録画像を重ねて表示する場合の一例を模式的に示す図である。   FIG. 11 is a diagram schematically illustrating an example in which a plurality of recorded images are displayed in a superimposed manner in the display of the recorded images in the live view image according to the modification of the embodiment of the present technology.

図11aでは、ライブビュー画像において、連写により撮像した記録画像を全て表示できない時に重ねて表示する例が示されている。ここでは、図10の画面640に示すように3枚の記録画像しか全体を表示できないことを想定して説明する。表示661に示すように、ライブビュー画像における記録画像の表示が枚数の上限である時に、さらに撮像された場合には、表示662に示すように記録画像が重ねて表示される。これにより、多くの記録画像を表示することができる。なお、図11aでは、枚数の上限を超えてから重ねて表示する例について説明したが、最初から画像を重ねて表示する場合も考えられる。   FIG. 11 a shows an example in which, in a live view image, all recorded images captured by continuous shooting cannot be displayed in an overlapping manner. Here, description will be made on the assumption that only three recorded images can be displayed as shown in the screen 640 of FIG. As shown in the display 661, when the number of recorded images in the live view image is the upper limit of the number of images, if the image is further imaged, the recorded images are displayed in an overlapping manner as shown in the display 662. Thereby, many recorded images can be displayed. In FIG. 11a, the example in which the images are displayed in an overlapped manner after the upper limit of the number of sheets has been described has been described.

図11bでは、撮像タイミングに応じて画像サイズを縮小して表示する例が示されている。表示671乃至表示673に示すように、撮像タイミングの最も古い記録画像が最も小さく表示され、撮像タイミングが最も新しい記録画像の表示が最も大きくなるように表示される。なお、この図11bの場合についても、図11aと同様に、記録画像の表示が枚数の上限に達してから画像を重ねて示すようにすることも、また、サイズの異なる記録画像の表示を重ねないように表示することも考えられる。   FIG. 11 b shows an example in which the image size is reduced and displayed according to the imaging timing. As shown in the displays 671 to 673, the recorded image with the oldest imaging timing is displayed the smallest, and the recorded image with the newest imaging timing is displayed with the largest display. In the case of FIG. 11b as well as in FIG. 11a, the display of the recorded images can be shown in an overlapping manner after the upper limit of the number of recorded images has been reached. It is also possible to display so that there is no.

なお、図11bの場合には、撮像タイミングの最も古い記録画像を最も小さく表示するため、1番最初(1枚目)の記録画像が確認しにくくなる。このため、1枚目の記録画像についてはサイズの縮小や表示の重ね合わせをしないようにすることで、サイズの縮小や表示の重ね合わせをする場合においても、1枚目の記録画像と最新の記録画像とが比較できるように表示することも考えられる。   In the case of FIG. 11b, since the recorded image with the oldest imaging timing is displayed smallest, it is difficult to confirm the first (first) recorded image. For this reason, the first recorded image is not reduced in size or superimposed on the display so that the first recorded image can be compared with the latest recorded image even when the size is reduced or the display is superimposed. It is also possible to display the recorded image so that it can be compared.

なお、本技術の実施の形態では、ライブビュー画像が静止しないため、連写における露光タイミングがユーザーにわかりにくい。そこで、露光期間中であることを示すマーク(例えば、枠)をライブビュー表示において表示することも考えられる。   In the embodiment of the present technology, since the live view image is not stationary, it is difficult for the user to know the exposure timing in continuous shooting. Therefore, it is conceivable to display a mark (for example, a frame) indicating that the exposure period is in progress in live view display.

このように、本技術の実施の形態によれば、静止画像用の撮像とライブビュー画像用の撮像とをそれぞれに適切な露光時間で同時に行うことができるとともに、ライブビュー画像用の撮像と位相差検出用の撮像とをそれぞれに適切な露光時間で同時に行うことができる。これにより、静止画撮影中に途切れずにライブビュー表示が可能になり、被写体の補足を容易にすることができる。特に、連写中においてもライブビューが可能となり、1枚のイメージセンサしか備えていない撮像装置においても、連写中の被写体補足を可能にすることができる。また、本技術の実施の形態によれば、位相差検出に適した露光時間およびタイミング(ユーザーがフォーカス調整を行いたいタイミングや、フォーカスレンズの駆動終了時)で位相差検出画素データを得ることができる。このため、検波精度や検波速度が向上し、合焦精度や合焦速度を向上させることができる。   As described above, according to the embodiment of the present technology, it is possible to simultaneously perform still image capturing and live view image capturing with appropriate exposure times, and to perform live view image capturing and processing. Imaging for phase difference detection can be performed simultaneously with appropriate exposure times. This enables live view display without interruption during still image shooting, and makes it easy to capture a subject. In particular, live view is possible even during continuous shooting, and even in an imaging apparatus having only one image sensor, it is possible to capture a subject during continuous shooting. Further, according to the embodiment of the present technology, it is possible to obtain phase difference detection pixel data at an exposure time and timing suitable for phase difference detection (when the user wants to perform focus adjustment or when the focus lens is driven). it can. For this reason, the detection accuracy and the detection speed are improved, and the focusing accuracy and the focusing speed can be improved.

また、本技術の実施の形態では、LVラインに位相差検出画素を配置しないため、ライブビュー画像を生成する際には位相差検出画素の位置のデータの補間が不要となる。このため、画像生成画素と位相差検出画素とを同時に読み出して位相差検出画素の位置の画素データを補完する場合と比較すると、高画質なライブビュー画像を生成することができる。すなわち、高画質なライブビュー画像の生成と、位相差検出に適した露光時間で露光させた位相差検出画素の画素値による高精度な位相差検出とを両立させることが可能となる。   Further, in the embodiment of the present technology, since no phase difference detection pixel is arranged in the LV line, interpolation of data at the position of the phase difference detection pixel is not necessary when generating a live view image. For this reason, it is possible to generate a high-quality live view image as compared with the case where the image generation pixel and the phase difference detection pixel are read simultaneously and the pixel data at the position of the phase difference detection pixel is complemented. That is, it is possible to achieve both generation of a high-quality live view image and high-accuracy phase difference detection based on the pixel values of the phase difference detection pixels exposed with an exposure time suitable for phase difference detection.

すなわち、本技術の実施の形態によれば、高画質なライブビュー画像と高精度な位相差検出とを両立させることができる。   That is, according to the embodiment of the present technology, it is possible to achieve both high-quality live view images and highly accurate phase difference detection.

なお、本技術の実施の形態では、説明の便宜上、右開口位相差検出画素と左開口位相差検出画素との対(ペア)のみが位相差検出画素として配置される例を示したが、これに限定されるものではない。射出瞳の上下(Y軸方向の+−側)に瞳分割する位相差検出画素(上開口位相差検出画素、下開口位相差検出画素)の対を配置することも考えられる。この上下に瞳分割する位相差検出画素を配置する場合には、画像の列方向のズレを検出できるように、列方向において1列に並ぶように配置される。なお、右開口位相差検出画素と左開口位相差検出画素との対と、上開口位相差検出画素と下開口位相差検出画素との対との両方を配置することにより、一方で位相差が検出しにくい場合に他方で補えるため、位相差による検出の精度を向上させることができる。このような場合においても、2つの駆動回路を設け、ライブビュー側のライン(LVライン)には位相差検出画素を設けないことにより、本技術の実施の形態と同様に実施することができる。   In the embodiment of the present technology, for convenience of explanation, an example in which only a pair of a right aperture phase difference detection pixel and a left aperture phase difference detection pixel is arranged as a phase difference detection pixel is shown. It is not limited to. It is also conceivable to arrange a pair of phase difference detection pixels (upper aperture phase difference detection pixels, lower aperture phase difference detection pixels) that divide the pupil above and below the exit pupil (+ -side in the Y-axis direction). When the phase difference detection pixels for pupil division are arranged above and below, they are arranged in a row in the column direction so that a shift in the column direction of the image can be detected. In addition, by arranging both the pair of the right aperture phase difference detection pixel and the left aperture phase difference detection pixel and the pair of the upper aperture phase difference detection pixel and the lower aperture phase difference detection pixel, the phase difference is When it is difficult to detect, the other can be compensated, so that the detection accuracy by the phase difference can be improved. Even in such a case, two drive circuits are provided, and the phase difference detection pixel is not provided in the live view side line (LV line), so that it can be implemented in the same manner as the embodiment of the present technology.

なお、本技術の実施の形態では、画像生成画素に備えられるカラーフィルタが3原色(RGB)のカラーフィルタであることを想定して説明したが、これに限定されるものではない。例えば、画像生成画素に補色のカラーフィルタが備えられる場合においても、同様に適用できる。また、1つの画素の領域で可視光領域の波長の光を全て検出する画素(例えば、青色用の画素、緑色用の画素、赤色用の画素が光軸方向に重ねて配置されている撮像素子)が画像生成画素である場合においても、本技術の実施の形態は同様に適用できる。   In the embodiment of the present technology, the color filter provided in the image generation pixel is assumed to be a color filter of three primary colors (RGB). However, the present invention is not limited to this. For example, the present invention can be similarly applied to the case where the image generation pixel is provided with a complementary color filter. In addition, a pixel that detects all light having a wavelength in the visible light region in one pixel region (for example, an image sensor in which a blue pixel, a green pixel, and a red pixel are overlapped in the optical axis direction) ) Is an image generation pixel, the embodiment of the present technology can be similarly applied.

また、本技術の実施の形態では、位相差検出画素は、2つに瞳分割された光の一方を受光することを想定して説明したが、これに限定されるものではない。例えば、瞳分割用遮光層を備えずに2つの受光素子を備え、瞳分割された光をそれぞれの受光素子で受光することができる位相差検出画素の場合においても、本技術の実施の形態を適用することができる。また、瞳分割用遮光層を備えずに半分の大きさの受光素子を備え、瞳分割された光の一方をその半分の大きさの受光素子で受光することができる位相差検出画素の場合においても、同様に実施することができる。   Further, in the embodiment of the present technology, the phase difference detection pixel has been described on the assumption that one of the light divided into two pupils is received, but the present invention is not limited to this. For example, even in the case of a phase difference detection pixel that includes two light receiving elements without including a pupil dividing light-shielding layer and can receive light divided by each of the light receiving elements, the embodiment of the present technology is used. Can be applied. In addition, in the case of a phase difference detection pixel that includes a light-receiving element having a half size without including a pupil-dividing light-shielding layer and can receive one of the light beams divided by the pupil with the light-receiving element having a half size Can also be implemented in the same manner.

なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。   The above-described embodiment shows an example for embodying the present technology, and the matters in the embodiment and the invention-specific matters in the claims have a corresponding relationship. Similarly, the invention specific matter in the claims and the matter in the embodiment of the present technology having the same name as this have a corresponding relationship. However, the present technology is not limited to the embodiment, and can be embodied by making various modifications to the embodiment without departing from the gist thereof.

また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、ハードディスク、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disk)、メモリカード、ブルーレイディスク(Blu-ray Disc(登録商標))等を用いることができる。   Further, the processing procedure described in the above embodiment may be regarded as a method having a series of these procedures, and a program for causing a computer to execute these series of procedures or a recording medium storing the program. You may catch it. As this recording medium, for example, a hard disk, a CD (Compact Disc), an MD (MiniDisc), a DVD (Digital Versatile Disk), a memory card, a Blu-ray Disc (registered trademark), or the like can be used.

なお、本技術は以下のような構成もとることができる。
(1) 位相差検出または記録画像の生成のための第1同期信号に基づいて駆動される画像生成画素である第1画像生成画素と、前記第1同期信号に基づいて駆動される位相差検出画素と、ライブビュー画像を生成するための同期信号であって前記第1同期信号とは異なる第2同期信号に基づいて駆動されて前記第1画像生成画素よりも数が少ない画像生成画素である第2画像生成画素とにより構成される画素アレイ部と、
前記第1画像生成画素および前記位相差検出画素の画素データを外部へ出力する第1出力部と、
前記第2画像生成画素の画素データを外部へ出力する第2出力部と
を具備する撮像素子。
(2) 前記画素アレイ部は、前記第2画像生成画素のみにより構成される第1ラインと、前記第1画像生成画素および前記位相差検出画素により構成される第2ラインと、前記第1画像生成画素のみにより構成される第3ラインとが配置され、前記第2ラインと第3ラインとの合計数は前記第1ラインの数より多い前記(1)に記載の撮像素子。
(3) 前記画素アレイ部は、前記第1ラインが奇数ラインおきに配置され、他のラインに前記第2ラインおよび前記第3ラインのいずれかが配置される前記(2)に記載の撮像素子。
(4) 前記第2ラインは、前記第1ラインに隣接して配置される前記(2)または(3)に記載の撮像素子。
(5) 位相差検出または記録画像の生成のための第1同期信号に基づいて駆動される画像生成画素である第1画像生成画素と、前記第1同期信号に基づいて駆動される位相差検出画素と、ライブビュー画像を生成するための同期信号であって前記第1同期信号とは異なる第2同期信号に基づいて駆動されて前記第1画像生成画素よりも数が少ない画像生成画素である第2画像生成画素とにより構成される画素アレイ部と、前記第1画像生成画素および前記位相差検出画素の画素データを外部へ出力する第1出力部と、前記第2画像生成画素の画素データを外部へ出力する第2出力部とを備える撮像素子と、
前記第2画像生成画素が配置されているラインを駆動させて前記第2出力部が出力する前記画素データを生成させるとともに、前記位相差検出を行う場合には、前記位相差検出画素が配置されているラインを駆動させて前記第1出力部が出力する前記画素データを生成させ、前記記録画像の生成を行う場合には、前記第1画像生成画素が配置されているラインを駆動させて前記第1出力部が出力する前記画素データを生成させる制御を行う制御部と
を具備する撮像装置。
(6) 前記位相差検出を行う場合には、前記位相差検出に応じた露光時間に基づいて前記第1同期信号を生成し、前記記録画像の生成を行う場合には、前記記録画像の生成に応じた露光時間に基づいて前記第1同期信号を生成する第1同期信号生成部と、
前記ライブビュー画像の生成に応じた露光時間に基づいて前記第2同期信号を生成する第2同期信号生成部と
をさらに具備する前記(5)に記載の撮像装置。
(7) 前記制御部は、連写の際に前記ライブビュー画像を表示部に表示させる場合には、前記連写の際に生成された前記記録画像の縮小画像を前記ライブビュー画像とともに表示する前記(5)または(6)に記載の撮像装置。
(8) 位相差検出または記録画像の生成のための第1同期信号に基づいて駆動される画像生成画素である第1画像生成画素と、前記第1同期信号に基づいて駆動される位相差検出画素と、ライブビュー画像を生成するための同期信号であって前記第1同期信号とは異なる第2同期信号に基づいて駆動されて前記第1画像生成画素よりも数が少ない画像生成画素である第2画像生成画素とにより構成される画素アレイ部と、前記第1画像生成画素および前記位相差検出画素の画素データを外部へ出力する第1出力部と、前記第2画像生成画素の画素データを外部へ出力する第2出力部とを備える撮像素子における前記第2画像生成画素が配置されているラインを駆動させた前記ライブビュー画像の生成とともに、前記位相差検出を行う場合には、前記位相差検出画素が配置されているラインを駆動させて前記位相差検出に用いる前記画素データを生成させる制御を行う第1制御手順と、
前記撮像素子における前記第2画像生成画素が配置されているラインを駆動させた前記ライブビュー画像の生成とともに、前記記録画像の生成を行う場合には、前記第1画像生成画素が配置されているラインを駆動させて前記記録画像の生成に用いる前記画素データを生成させる制御を行う第2制御手順と
を具備する撮像方法。
(9) 位相差検出または記録画像の生成のための第1同期信号に基づいて駆動される画像生成画素である第1画像生成画素と、前記第1同期信号に基づいて駆動される位相差検出画素と、ライブビュー画像を生成するための同期信号であって前記第1同期信号とは異なる第2同期信号に基づいて駆動されて前記第1画像生成画素よりも数が少ない画像生成画素である第2画像生成画素とにより構成される画素アレイ部と、前記第1画像生成画素および前記位相差検出画素の画素データを外部へ出力する第1出力部と、前記第2画像生成画素の画素データを外部へ出力する第2出力部とを備える撮像素子における前記第2画像生成画素が配置されているラインを駆動させた前記ライブビュー画像の生成とともに、前記位相差検出を行う場合には、前記位相差検出画素が配置されているラインを駆動させて前記位相差検出に用いる前記画素データを生成させる制御を行う第1制御手順と、
前記撮像素子における前記第2画像生成画素が配置されているラインを駆動させた前記ライブビュー画像の生成とともに、前記記録画像の生成を行う場合には、前記第1画像生成画素が配置されているラインを駆動させて前記記録画像の生成に用いる前記画素データを生成させる制御を行う第2制御手順と
をコンピュータに実行させるプログラム。
In addition, this technique can also take the following structures.
(1) A first image generation pixel that is an image generation pixel driven based on a first synchronization signal for detecting a phase difference or generating a recorded image, and a phase difference detection driven based on the first synchronization signal An image generation pixel that is driven on the basis of a second synchronization signal that is different from the first synchronization signal and is a synchronization signal for generating a pixel and a live view image. A pixel array unit composed of second image generation pixels;
A first output unit for outputting pixel data of the first image generation pixel and the phase difference detection pixel to the outside;
An imaging device comprising: a second output unit that outputs pixel data of the second image generation pixel to the outside.
(2) The pixel array unit includes a first line configured only by the second image generation pixel, a second line configured by the first image generation pixel and the phase difference detection pixel, and the first image. The imaging device according to (1), wherein a third line including only generated pixels is arranged, and a total number of the second line and the third line is larger than a number of the first lines.
(3) The imaging device according to (2), wherein in the pixel array unit, the first lines are arranged at odd-numbered lines, and one of the second line and the third line is arranged on another line. .
(4) The imaging device according to (2) or (3), wherein the second line is disposed adjacent to the first line.
(5) a first image generation pixel which is an image generation pixel driven based on a first synchronization signal for phase difference detection or generation of a recorded image, and phase difference detection driven based on the first synchronization signal An image generation pixel that is driven on the basis of a second synchronization signal that is different from the first synchronization signal and is a synchronization signal for generating a pixel and a live view image. A pixel array unit configured by second image generation pixels, a first output unit for outputting pixel data of the first image generation pixels and the phase difference detection pixels to the outside, and pixel data of the second image generation pixels An image sensor comprising: a second output unit that outputs to the outside;
When the line where the second image generation pixel is arranged is driven to generate the pixel data output from the second output unit and the phase difference detection is performed, the phase difference detection pixel is arranged. When the line data is driven to generate the pixel data output from the first output unit and the recording image is generated, the line on which the first image generation pixel is arranged is driven to An imaging apparatus comprising: a control unit that performs control to generate the pixel data output from the first output unit.
(6) When the phase difference detection is performed, the first synchronization signal is generated based on an exposure time corresponding to the phase difference detection, and when the recording image is generated, the recording image is generated. A first synchronization signal generator for generating the first synchronization signal based on an exposure time according to
The imaging apparatus according to (5), further including a second synchronization signal generation unit configured to generate the second synchronization signal based on an exposure time corresponding to the generation of the live view image.
(7) When the control unit displays the live view image on the display unit during continuous shooting, the control unit displays a reduced image of the recorded image generated during the continuous shooting together with the live view image. The imaging device according to (5) or (6).
(8) A first image generation pixel which is an image generation pixel driven based on a first synchronization signal for phase difference detection or generation of a recorded image, and a phase difference detection driven based on the first synchronization signal An image generation pixel that is driven on the basis of a second synchronization signal that is different from the first synchronization signal and is a synchronization signal for generating a pixel and a live view image. A pixel array unit configured by second image generation pixels, a first output unit for outputting pixel data of the first image generation pixels and the phase difference detection pixels to the outside, and pixel data of the second image generation pixels In the case where the phase difference detection is performed together with the generation of the live view image in which the line on which the second image generation pixel is arranged is driven in an image pickup device including a second output unit that outputs to the outside A first control procedure for performing control to drive the line in which the phase difference detection pixels are arranged to generate the pixel data used for the phase difference detection;
When generating the recorded image together with the generation of the live view image in which the line in which the second image generation pixel is arranged in the imaging element is driven, the first image generation pixel is arranged. An imaging method comprising: a second control procedure for performing control for driving the line to generate the pixel data used for generating the recorded image.
(9) A first image generation pixel that is an image generation pixel driven based on a first synchronization signal for phase difference detection or generation of a recorded image, and a phase difference detection driven based on the first synchronization signal An image generation pixel that is driven on the basis of a second synchronization signal that is different from the first synchronization signal and is a synchronization signal for generating a pixel and a live view image. A pixel array unit configured by second image generation pixels, a first output unit for outputting pixel data of the first image generation pixels and the phase difference detection pixels to the outside, and pixel data of the second image generation pixels In the case where the phase difference detection is performed together with the generation of the live view image in which the line on which the second image generation pixel is arranged is driven in an image pickup device including a second output unit that outputs to the outside A first control procedure for performing control to drive the line in which the phase difference detection pixels are arranged to generate the pixel data used for the phase difference detection;
When generating the recorded image together with the generation of the live view image in which the line in which the second image generation pixel is arranged in the imaging element is driven, the first image generation pixel is arranged. The program which makes a computer perform the 2nd control procedure which performs control which drives a line and produces | generates the said pixel data used for the production | generation of the said recording image.

100 撮像装置
110 レンズ部
111 ズームレンズ
112 絞り
113 フォーカスレンズ
120 制御部
125 操作受付部
130 第1同期信号生成部
140 第1信号処理部
150 第2同期信号生成部
160 第2信号処理部
170 合焦判定部
175 レンズ駆動部
181 記録部
182 表示部
200 イメージセンサ
210 第1制御部
220 第1垂直駆動回路
230 第1水平駆動回路
240 第1カラム信号処理部
260 第1出力バッファ
310 第2制御部
320 第2垂直駆動回路
330 第2水平駆動回路
340 第2カラム信号処理部
360 第2出力バッファ
DESCRIPTION OF SYMBOLS 100 Imaging device 110 Lens part 111 Zoom lens 112 Aperture 113 Focus lens 120 Control part 125 Operation reception part 130 1st synchronization signal generation part 140 1st signal processing part 150 2nd synchronization signal generation part 160 2nd signal processing part 170 Focusing Determination unit 175 Lens drive unit 181 Recording unit 182 Display unit 200 Image sensor 210 First control unit 220 First vertical drive circuit 230 First horizontal drive circuit 240 First column signal processing unit 260 First output buffer 310 Second control unit 320 Second vertical drive circuit 330 Second horizontal drive circuit 340 Second column signal processing unit 360 Second output buffer

Claims (9)

位相差検出または記録画像の生成のための第1同期信号に基づいて駆動される画像生成画素である第1画像生成画素と、前記第1同期信号に基づいて駆動される位相差検出画素と、ライブビュー画像を生成するための同期信号であって前記第1同期信号とは異なる第2同期信号に基づいて駆動されて前記第1画像生成画素よりも数が少ない画像生成画素である第2画像生成画素とにより構成される画素アレイ部と、
前記第1画像生成画素および前記位相差検出画素の画素データを外部へ出力する第1出力部と、
前記第2画像生成画素の画素データを外部へ出力する第2出力部と
を具備する撮像素子。
A first image generation pixel that is an image generation pixel driven based on a first synchronization signal for phase difference detection or generation of a recorded image; a phase difference detection pixel driven based on the first synchronization signal; A second image that is a synchronization signal for generating a live view image and is driven based on a second synchronization signal different from the first synchronization signal, and is an image generation pixel having a smaller number than the first image generation pixel A pixel array unit composed of generated pixels;
A first output unit for outputting pixel data of the first image generation pixel and the phase difference detection pixel to the outside;
An imaging device comprising: a second output unit that outputs pixel data of the second image generation pixel to the outside.
前記画素アレイ部は、前記第2画像生成画素のみにより構成される第1ラインと、前記第1画像生成画素および前記位相差検出画素により構成される第2ラインと、前記第1画像生成画素のみにより構成される第3ラインとが配置され、前記第2ラインと第3ラインとの合計数は前記第1ラインの数より多い請求項1記載の撮像素子。   The pixel array unit includes a first line composed only of the second image generation pixels, a second line composed of the first image generation pixels and the phase difference detection pixels, and only the first image generation pixels. 3. The imaging device according to claim 1, wherein a third line composed of the second line and the third line is greater than a number of the first lines. 前記画素アレイ部は、前記第1ラインが奇数ラインおきに配置され、他のラインに前記第2ラインおよび前記第3ラインのいずれかが配置される請求項2記載の撮像素子。   The imaging device according to claim 2, wherein in the pixel array unit, the first line is arranged every odd number of lines, and one of the second line and the third line is arranged on another line. 前記第2ラインは、前記第1ラインに隣接して配置される請求項2記載の撮像素子。   The imaging device according to claim 2, wherein the second line is disposed adjacent to the first line. 位相差検出または記録画像の生成のための第1同期信号に基づいて駆動される画像生成画素である第1画像生成画素と、前記第1同期信号に基づいて駆動される位相差検出画素と、ライブビュー画像を生成するための同期信号であって前記第1同期信号とは異なる第2同期信号に基づいて駆動されて前記第1画像生成画素よりも数が少ない画像生成画素である第2画像生成画素とにより構成される画素アレイ部と、前記第1画像生成画素および前記位相差検出画素の画素データを外部へ出力する第1出力部と、前記第2画像生成画素の画素データを外部へ出力する第2出力部とを備える撮像素子と、
前記第2画像生成画素が配置されているラインを駆動させて前記第2出力部が出力する前記画素データを生成させるとともに、前記位相差検出を行う場合には、前記位相差検出画素が配置されているラインを駆動させて前記第1出力部が出力する前記画素データを生成させ、前記記録画像の生成を行う場合には、前記第1画像生成画素が配置されているラインを駆動させて前記第1出力部が出力する前記画素データを生成させる制御を行う制御部と
を具備する撮像装置。
A first image generation pixel that is an image generation pixel driven based on a first synchronization signal for phase difference detection or generation of a recorded image; a phase difference detection pixel driven based on the first synchronization signal; A second image that is a synchronization signal for generating a live view image and is driven based on a second synchronization signal different from the first synchronization signal, and is an image generation pixel having a smaller number than the first image generation pixel A pixel array unit composed of generated pixels, a first output unit that outputs pixel data of the first image generation pixel and the phase difference detection pixel to the outside, and pixel data of the second image generation pixel to the outside An image sensor comprising a second output unit for outputting;
When the line where the second image generation pixel is arranged is driven to generate the pixel data output from the second output unit and the phase difference detection is performed, the phase difference detection pixel is arranged. When the line data is driven to generate the pixel data output from the first output unit and the recording image is generated, the line on which the first image generation pixel is arranged is driven to An imaging apparatus comprising: a control unit that performs control to generate the pixel data output from the first output unit.
前記位相差検出を行う場合には、前記位相差検出に応じた露光時間に基づいて前記第1同期信号を生成し、前記記録画像の生成を行う場合には、前記記録画像の生成に応じた露光時間に基づいて前記第1同期信号を生成する第1同期信号生成部と、
前記ライブビュー画像の生成に応じた露光時間に基づいて前記第2同期信号を生成する第2同期信号生成部と
をさらに具備する請求項5記載の撮像装置。
When performing the phase difference detection, the first synchronization signal is generated based on the exposure time according to the phase difference detection, and when generating the recorded image, the first image is generated according to the generation of the recorded image. A first synchronization signal generator for generating the first synchronization signal based on an exposure time;
The imaging apparatus according to claim 5, further comprising: a second synchronization signal generation unit configured to generate the second synchronization signal based on an exposure time corresponding to generation of the live view image.
前記制御部は、連写の際に前記ライブビュー画像を表示部に表示させる場合には、前記連写の際に生成された前記記録画像の縮小画像を前記ライブビュー画像とともに表示する請求項5記載の撮像装置。   The control unit, when displaying the live view image on a display unit during continuous shooting, displays a reduced image of the recorded image generated during the continuous shooting together with the live view image. The imaging device described. 位相差検出または記録画像の生成のための第1同期信号に基づいて駆動される画像生成画素である第1画像生成画素と、前記第1同期信号に基づいて駆動される位相差検出画素と、ライブビュー画像を生成するための同期信号であって前記第1同期信号とは異なる第2同期信号に基づいて駆動されて前記第1画像生成画素よりも数が少ない画像生成画素である第2画像生成画素とにより構成される画素アレイ部と、前記第1画像生成画素および前記位相差検出画素の画素データを外部へ出力する第1出力部と、前記第2画像生成画素の画素データを外部へ出力する第2出力部とを備える撮像素子における前記第2画像生成画素が配置されているラインを駆動させた前記ライブビュー画像の生成とともに、前記位相差検出を行う場合には、前記位相差検出画素が配置されているラインを駆動させて前記位相差検出に用いる前記画素データを生成させる制御を行う第1制御手順と、
前記撮像素子における前記第2画像生成画素が配置されているラインを駆動させた前記ライブビュー画像の生成とともに、前記記録画像の生成を行う場合には、前記第1画像生成画素が配置されているラインを駆動させて前記記録画像の生成に用いる前記画素データを生成させる制御を行う第2制御手順と
を具備する撮像方法。
A first image generation pixel that is an image generation pixel driven based on a first synchronization signal for phase difference detection or generation of a recorded image; a phase difference detection pixel driven based on the first synchronization signal; A second image that is a synchronization signal for generating a live view image and is driven based on a second synchronization signal different from the first synchronization signal, and is an image generation pixel having a smaller number than the first image generation pixel A pixel array unit composed of generated pixels, a first output unit that outputs pixel data of the first image generation pixel and the phase difference detection pixel to the outside, and pixel data of the second image generation pixel to the outside In the case where the phase difference detection is performed together with the generation of the live view image that drives the line in which the second image generation pixel is arranged in an imaging device including a second output unit that outputs A first control procedure for performing control to generate the pixel data used for the phase difference detection by driving the line phase difference detection pixels are arranged,
When generating the recorded image together with the generation of the live view image in which the line in which the second image generation pixel is arranged in the imaging element is driven, the first image generation pixel is arranged. An imaging method comprising: a second control procedure for performing control for driving the line to generate the pixel data used for generating the recorded image.
位相差検出または記録画像の生成のための第1同期信号に基づいて駆動される画像生成画素である第1画像生成画素と、前記第1同期信号に基づいて駆動される位相差検出画素と、ライブビュー画像を生成するための同期信号であって前記第1同期信号とは異なる第2同期信号に基づいて駆動されて前記第1画像生成画素よりも数が少ない画像生成画素である第2画像生成画素とにより構成される画素アレイ部と、前記第1画像生成画素および前記位相差検出画素の画素データを外部へ出力する第1出力部と、前記第2画像生成画素の画素データを外部へ出力する第2出力部とを備える撮像素子における前記第2画像生成画素が配置されているラインを駆動させた前記ライブビュー画像の生成とともに、前記位相差検出を行う場合には、前記位相差検出画素が配置されているラインを駆動させて前記位相差検出に用いる前記画素データを生成させる制御を行う第1制御手順と、
前記撮像素子における前記第2画像生成画素が配置されているラインを駆動させた前記ライブビュー画像の生成とともに、前記記録画像の生成を行う場合には、前記第1画像生成画素が配置されているラインを駆動させて前記記録画像の生成に用いる前記画素データを生成させる制御を行う第2制御手順と
をコンピュータに実行させるプログラム。
A first image generation pixel that is an image generation pixel driven based on a first synchronization signal for phase difference detection or generation of a recorded image; a phase difference detection pixel driven based on the first synchronization signal; A second image that is a synchronization signal for generating a live view image and is driven based on a second synchronization signal different from the first synchronization signal, and is an image generation pixel having a smaller number than the first image generation pixel A pixel array unit composed of generated pixels, a first output unit that outputs pixel data of the first image generation pixel and the phase difference detection pixel to the outside, and pixel data of the second image generation pixel to the outside In the case where the phase difference detection is performed together with the generation of the live view image that drives the line in which the second image generation pixel is arranged in an imaging device including a second output unit that outputs A first control procedure for performing control to generate the pixel data used for the phase difference detection by driving the line phase difference detection pixels are arranged,
When generating the recorded image together with the generation of the live view image in which the line in which the second image generation pixel is arranged in the imaging element is driven, the first image generation pixel is arranged. The program which makes a computer perform the 2nd control procedure which performs control which drives a line and produces | generates the said pixel data used for the production | generation of the said recording image.
JP2012131063A 2012-06-08 2012-06-08 Imaging element, imaging apparatus, imaging method and program Pending JP2013255188A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012131063A JP2013255188A (en) 2012-06-08 2012-06-08 Imaging element, imaging apparatus, imaging method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012131063A JP2013255188A (en) 2012-06-08 2012-06-08 Imaging element, imaging apparatus, imaging method and program

Publications (1)

Publication Number Publication Date
JP2013255188A true JP2013255188A (en) 2013-12-19

Family

ID=49952338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012131063A Pending JP2013255188A (en) 2012-06-08 2012-06-08 Imaging element, imaging apparatus, imaging method and program

Country Status (1)

Country Link
JP (1) JP2013255188A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017005554A (en) * 2015-06-12 2017-01-05 リコーイメージング株式会社 Photographing device, photographing control device, photographing control method, and photographing control program
WO2017212722A1 (en) * 2016-06-09 2017-12-14 ソニー株式会社 Control apparatus and control method
WO2018088119A1 (en) * 2016-11-09 2018-05-17 富士フイルム株式会社 Imaging device, imaging method, and imaging program
WO2018116824A1 (en) * 2016-12-19 2018-06-28 ソニー株式会社 Control device, control method, and program
WO2019021626A1 (en) * 2017-07-24 2019-01-31 ソニー株式会社 Imaging device, image processing method, and program
WO2019189892A1 (en) * 2018-03-30 2019-10-03 株式会社ニコン Imaging element and imaging device
CN114283725A (en) * 2021-12-28 2022-04-05 海宁奕斯伟集成电路设计有限公司 Signal processing method, display device, time sequence controller and source driver

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017005554A (en) * 2015-06-12 2017-01-05 リコーイメージング株式会社 Photographing device, photographing control device, photographing control method, and photographing control program
WO2017212722A1 (en) * 2016-06-09 2017-12-14 ソニー株式会社 Control apparatus and control method
JPWO2018088119A1 (en) * 2016-11-09 2019-08-08 富士フイルム株式会社 Imaging apparatus, imaging method, and imaging program
WO2018088119A1 (en) * 2016-11-09 2018-05-17 富士フイルム株式会社 Imaging device, imaging method, and imaging program
CN109906604B (en) * 2016-11-09 2021-04-20 富士胶片株式会社 Image pickup apparatus, image pickup method, and recording medium
CN109906604A (en) * 2016-11-09 2019-06-18 富士胶片株式会社 Photographic device, image capture method and imaging program
US10778880B2 (en) 2016-11-09 2020-09-15 Fujifilm Corporation Imaging device, imaging method, and imaging program
JP7028189B2 (en) 2016-12-19 2022-03-02 ソニーグループ株式会社 Control devices, control methods, and programs
CN113965704A (en) * 2016-12-19 2022-01-21 索尼公司 Control device, control method, and program
US11463612B2 (en) 2016-12-19 2022-10-04 Sony Group Corporation Control apparatus, control method, and program
JPWO2018116824A1 (en) * 2016-12-19 2019-10-24 ソニー株式会社 Control device, control method, and program
EP3557860A4 (en) * 2016-12-19 2020-01-15 Sony Corporation Control device, control method, and program
KR20190097005A (en) * 2016-12-19 2019-08-20 소니 주식회사 Control unit, control method, and program
KR102423994B1 (en) * 2016-12-19 2022-07-25 소니그룹주식회사 Control device, control method, and program
CN110063054A (en) * 2016-12-19 2019-07-26 索尼公司 Control equipment, control method and program
WO2018116824A1 (en) * 2016-12-19 2018-06-28 ソニー株式会社 Control device, control method, and program
CN110915196A (en) * 2017-07-24 2020-03-24 索尼公司 Imaging apparatus, image processing method, and program
WO2019021626A1 (en) * 2017-07-24 2019-01-31 ソニー株式会社 Imaging device, image processing method, and program
JPWO2019021626A1 (en) * 2017-07-24 2020-05-28 ソニー株式会社 Imaging device, image processing method, and program
JP7176518B2 (en) 2017-07-24 2022-11-22 ソニーグループ株式会社 IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
JPWO2019189892A1 (en) * 2018-03-30 2021-03-18 株式会社ニコン Image sensor and image sensor
WO2019189892A1 (en) * 2018-03-30 2019-10-03 株式会社ニコン Imaging element and imaging device
JP7176559B2 (en) 2018-03-30 2022-11-22 株式会社ニコン Imaging element and imaging device
US11889214B2 (en) 2018-03-30 2024-01-30 Nikon Corporation Image sensor and imaging device
CN114283725A (en) * 2021-12-28 2022-04-05 海宁奕斯伟集成电路设计有限公司 Signal processing method, display device, time sequence controller and source driver
CN114283725B (en) * 2021-12-28 2023-09-08 海宁奕斯伟集成电路设计有限公司 Signal processing method, display device, time sequence controller and source driver

Similar Documents

Publication Publication Date Title
JP5739640B2 (en) Imaging device and imaging apparatus
JP5803095B2 (en) Imaging device and imaging apparatus
JP5630146B2 (en) Imaging apparatus, imaging apparatus control method, and program.
JP5970816B2 (en) Image processing apparatus, imaging device, and imaging apparatus
US8730373B2 (en) Image forming apparatus
JP2013255188A (en) Imaging element, imaging apparatus, imaging method and program
JP5589857B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program.
JP2007150643A (en) Solid state imaging element, driving method therefor, and imaging apparatus
JP5504874B2 (en) Imaging device and imaging apparatus
JP2012145664A (en) Image processing system, imaging apparatus, image processing method and program
JP2007324985A (en) Solid-state imaging apparatus and imaging apparatus system using the same
JP2011199565A (en) Imaging device and program
JP2008199477A (en) Imaging apparatus
JP5628914B2 (en) Imaging apparatus and imaging method
JP5290557B2 (en) Imaging apparatus and imaging method
JP2013113857A (en) Imaging device, and control method therefor
JP2016123012A (en) Imaging device, focus detection apparatus, and focus detection method
JP4925168B2 (en) Imaging method and apparatus
JP2007060520A (en) Imaging apparatus
JP5963550B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2016219888A (en) Image processing apparatus, image processing method, and imaging device
JP5157757B2 (en) Electronic camera
JP2012165405A (en) Imaging apparatus and program
JP5726502B2 (en) Imaging device
JP2009044535A (en) Electronic camera