JP2020108176A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2020108176A
JP2020108176A JP2020056493A JP2020056493A JP2020108176A JP 2020108176 A JP2020108176 A JP 2020108176A JP 2020056493 A JP2020056493 A JP 2020056493A JP 2020056493 A JP2020056493 A JP 2020056493A JP 2020108176 A JP2020108176 A JP 2020108176A
Authority
JP
Japan
Prior art keywords
pixel
focus
image
pixel signal
exposure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020056493A
Other languages
Japanese (ja)
Other versions
JP7047858B2 (en
Inventor
藤井 真一
Shinichi Fujii
真一 藤井
宮腰 大輔
Daisuke Miyakoshi
大輔 宮腰
健三郎 関
Kenzaburo Seki
健三郎 関
光昭 喜多
Mitsuaki Kita
光昭 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2020056493A priority Critical patent/JP7047858B2/en
Publication of JP2020108176A publication Critical patent/JP2020108176A/en
Application granted granted Critical
Publication of JP7047858B2 publication Critical patent/JP7047858B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging apparatus and an imaging method.SOLUTION: The imaging apparatus comprises a pixel array including a normal pixel to use for image generation and a focus detection pixel to use for focal adjustment; a frame memory for recording therein a main-line pixel signal read out of the normal pixel; an input unit to which a main-line pixel signal recorded in the frame memory and a focal pixel signal read out of the focal detection pixel are input; and a lens drive instruction unit for giving an instruction to drive a focus lens based on the focal pixel signal, during the input of the main-line pixel signal.SELECTED DRAWING: Figure 4

Description

本開示は、撮像装置及び撮像方法に関する。 The present disclosure relates to an imaging device and an imaging method.

近年では、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)センサ等の撮像素子を備えたデジタルスチルカメラやデジタルビデオカメラが普及している。デジタルスチルカメラは静止画像を撮像するものであり、デジタルビデオカメラは動画像を撮像するものであるが、動画像を撮像可能なデジタルスチルカメラや静止画像を撮像可能なデジタルビデオカメラも存在する。なお、以降では、デジタルスチルカメラとデジタルビデオカメラとを特に区別しない場合には、単に「デジタルカメラ」と記載する場合がある。また、以降では、静止画像と動画像を特に区別しない場合には、単に「画像」と記載する場合がある。 In recent years, digital still cameras and digital video cameras equipped with imaging devices such as CCD (Charge Coupled Device) and CMOS (Complementary Metal-Oxide Semiconductor) sensors have become widespread. Although a digital still camera captures a still image and a digital video camera captures a moving image, there are digital still cameras capable of capturing a moving image and digital video cameras capable of capturing a still image. In the following, the digital still camera and the digital video camera may be simply referred to as “digital camera” unless otherwise distinguished. Further, hereinafter, a still image and a moving image may be simply referred to as “image” unless otherwise distinguished.

上記のようなデジタルカメラは、例えば、特許文献1に開示されるように、自動的に焦点調整を行うオートフォーカス処理の機能を有する場合が少なくない。オートフォーカス処理では、例えば、デジタルカメラと被写体との距離を測定し、測定された距離に基づいてレンズを駆動させることで焦点が適切に調整されて、ピントの合った(合焦した)画像を取得することが可能になる。 The digital camera as described above often has a function of autofocus processing for automatically performing focus adjustment, as disclosed in, for example, Japanese Patent Laid-Open No. 2004-242242. In the auto-focus process, for example, the distance between the digital camera and the subject is measured, and the lens is driven based on the measured distance to properly adjust the focus, thereby obtaining a focused (focused) image. It becomes possible to acquire.

特開2013−223054号公報JP, 2013-223054, A

上記のオートフォーカス処理においては、距離の測定から、結果反映(例えばレンズの駆動の完了)までにかかる時間(レイテンシ)を小さくすることが望まれていた。 In the above autofocus processing, it has been desired to reduce the time (latency) required from the measurement of the distance to the reflection of the result (for example, completion of driving the lens).

そこで、本開示では、オートフォーカスにかかるレイテンシを小さくすることが可能な、新規かつ改良された撮像装置及び撮像方法を提案する。 Therefore, the present disclosure proposes a new and improved imaging apparatus and imaging method capable of reducing the latency associated with autofocus.

本開示によれば、画像生成に用いられる通常画素と焦点調整に用いられる焦点検出画素を含む画素アレイと、前記通常画素から読み出された本線画素信号が記録されるフレームメモリと、前記フレームメモリに記録された前記本線画素信号と、前記焦点検出画素から読み出された焦点画素信号と、が独立して入力される入力部と、前記本線画素信号の入力中に、前記焦点画素信号に基づくフォーカスレンズの駆動指示を行うレンズ駆動指示部と、を備える撮像装置が提供される。 According to the present disclosure, a pixel array including normal pixels used for image generation and focus detection pixels used for focus adjustment, a frame memory in which main line pixel signals read from the normal pixels are recorded, and the frame memory An input unit to which the main line pixel signal recorded in and the focus pixel signal read from the focus detection pixel are independently input, and based on the focus pixel signal during input of the main line pixel signal. An image pickup apparatus is provided that includes a lens drive instruction unit that issues a drive instruction for a focus lens.

また、本開示によれば、画像生成に用いられる通常画素と焦点調整に用いられる焦点検出画素を含む画素アレイを有する撮像装置が実行する撮像方法であって、前記通常画素から読み出された本線画素信号がフレームメモリに記録されることと、前記フレームメモリに記録された前記本線画素信号と、前記焦点検出画素から読み出された焦点画素信号と、が独立して入力されることと、前記本線画素信号の入力中に、前記焦点画素信号に基づくフォーカスレンズの駆動指示を行うことと、を含む、撮像方法が提供される。 Further, according to the present disclosure, there is provided an imaging method executed by an imaging device having a pixel array including a normal pixel used for image generation and a focus detection pixel used for focus adjustment, wherein the main line read from the normal pixel is used. The pixel signal is recorded in a frame memory, the main line pixel signal recorded in the frame memory and the focus pixel signal read out from the focus detection pixel are independently input, and An image pickup method is provided, which comprises: issuing an instruction to drive a focus lens based on the focus pixel signal while inputting a main line pixel signal.

以上説明したように本開示によれば、オートフォーカスにかかるレイテンシを小さくすることが可能である。 As described above, according to the present disclosure, it is possible to reduce the latency associated with autofocus.

なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。 Note that the above effects are not necessarily limited, and in addition to or in place of the above effects, any of the effects shown in this specification, or other effects that can be grasped from this specification. May be played.

本開示の一実施形態にかかる撮像装置の利用シーンを示す説明図である。FIG. 8 is an explanatory diagram illustrating a usage scene of the imaging device according to the embodiment of the present disclosure. 同実施形態の比較例に係る撮像装置の概略的な構成の一例について説明するための説明図である。It is an explanatory view for explaining an example of a schematic structure of an imaging device concerning a comparative example of the embodiment. 同実施形態の比較例に係る撮像装置を用いた連続撮影におけるオートフォーカス処理の流れについて説明するための説明図である。FIG. 8 is an explanatory diagram for explaining a flow of an autofocus process in continuous shooting using the image pickup apparatus according to the comparative example of the embodiment. 同実施形態に係る撮像装置の概要について説明するための説明図である。It is an explanatory view for explaining the outline of the imaging device concerning the embodiment. 同実施形態に係る撮像装置の構成の一例を示す説明図である。It is explanatory drawing which shows an example of a structure of the imaging device which concerns on the embodiment. 同実施形態に係るイメージセンサが備える画素アレイ部の画素配置の一例を説明するための説明図である。FIG. 3 is an explanatory diagram illustrating an example of a pixel arrangement of a pixel array section included in the image sensor according to the same embodiment. 同実施形態に係る位相差画素の例を示す説明図である。It is explanatory drawing which shows the example of the phase contrast pixel which concerns on the same embodiment. 同実施形態に係るイメージセンサの一部の構成例を示すブロック図である。FIG. 3 is a block diagram showing a partial configuration example of the image sensor according to the same embodiment. 同実施形態に係るイメージセンサのチップの構成の一例について説明するための説明図である。FIG. 3 is an explanatory diagram illustrating an example of a configuration of a chip of the image sensor according to the same embodiment. 同実施形態に係る動作例1を説明するための概略的なタイムチャートである。6 is a schematic time chart for explaining an operation example 1 according to the embodiment. 同実施形態に係る動作例2を説明するための概略的なタイムチャートである。9 is a schematic time chart for explaining an operation example 2 according to the same embodiment.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In this specification and the drawings, constituent elements having substantially the same functional configuration are designated by the same reference numerals, and a duplicate description will be omitted.

なお、説明は以下の順序で行うものとする。
<<1.はじめに>>
<1−1.背景>
<1−2.概要>
<<2.構成>>
<2−1.撮像装置の構成>
<2−2.イメージセンサの構成>
<<3.動作例>
<3−1.動作例1>
<3−2.動作例2>
<<4.変形例>>
<4−1.変形例1>
<4−2.変形例2>
<<5.むすび>>
The description will be given in the following order.
<<1. Introduction >>
<1-1. Background>
<1-2. Overview>
<<2. Configuration >>
<2-1. Configuration of imaging device>
<2-2. Image sensor configuration>
<<3. Operation example>
<3-1. Operation example 1>
<3-2. Operation example 2>
<<4. Modification>>
<4-1. Modification 1>
<4-2. Modification 2>
<<5. Conclusion >>

<<1.はじめに>>
<1−1.背景>
本開示の一実施形態にかかる撮像装置についての説明にあたり、図面を参照しながら本開示の一実施形態に係る撮像装置の創作に至った背景を説明する。
<<1. Introduction >>
<1-1. Background>
Before describing the imaging device according to the embodiment of the present disclosure, the background that led to the creation of the imaging device according to the embodiment of the present disclosure will be described with reference to the drawings.

図1は、本開示の一実施形態にかかる撮像装置1の利用シーンを示す説明図である。図1に示す撮像装置1は、例えばデジタルカメラである。図1に示すように、撮像装置1は、焦点調整用のフォーカスレンズ11を備え、フォーカスレンズ11は被写体と撮像装置1との距離に応じて駆動制御されて自動的に焦点調整(オートフォーカス、AF)が行われる。 FIG. 1 is an explanatory diagram illustrating a usage scene of the imaging device 1 according to an embodiment of the present disclosure. The imaging device 1 shown in FIG. 1 is, for example, a digital camera. As shown in FIG. 1, the image pickup apparatus 1 includes a focus lens 11 for focus adjustment, and the focus lens 11 is drive-controlled according to a distance between a subject and the image pickup apparatus 1 to automatically perform focus adjustment (autofocus, AF) is performed.

ここで、図2、3を参照して、従来の撮像装置の一例におけるオートフォーカス処理を比較例として説明する。図2は、比較例に係る撮像装置の概略的な構成の一例について説明するための説明図である。 Here, with reference to FIGS. 2 and 3, an autofocus process in an example of a conventional image pickup apparatus will be described as a comparative example. FIG. 2 is an explanatory diagram for describing an example of a schematic configuration of an imaging device according to a comparative example.

図2に示すイメージセンサ800は、比較例に係る撮像装置に設けられ、被写体を撮像して撮像画像のデジタルデータを得る撮像素子である。イメージセンサ800は、例えばCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサ等の撮像素子であってもよい。イメージセンサ800は、複数の画素が行列(アレイ)状に配置された画素アレイ部811を有する。なお、一般的にイメージセンサ800は、画素アレイ部811以外の回路も含むが、図2に示す例では、説明をわかりやすくするために、当該画素アレイ部811以外の回路の図示を省略している。 The image sensor 800 illustrated in FIG. 2 is an image sensor that is provided in the image capturing apparatus according to the comparative example and captures a subject to obtain digital data of the captured image. The image sensor 800 may be an image sensor such as a CMOS (Complementary Metal-Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor. The image sensor 800 has a pixel array unit 811 in which a plurality of pixels are arranged in a matrix (array). Note that the image sensor 800 generally includes circuits other than the pixel array unit 811, but in the example illustrated in FIG. 2, circuits other than the pixel array unit 811 are omitted for the sake of clarity. There is.

また、画像処理LSI900は、画素アレイ部811の各画素からの画素信号に基づき供給される画素信号(画像信号)に対して、所謂画像処理を施すLSI(Large Scale Integration)である。画像処理としては、例えば、黒レベル補正や、混色補正、欠陥補正、デモザイク処理、マトリックス処理、ガンマ補正、およびYC変換等が挙げられる。画像処理部910は、画像処理LSI900aにより実現される画像処理機能を模式的に示している。なお、画像処理LSI900は、画像処理以外の他の機能を実行するための構成を含んでもよいが、図2に示す例では、説明をわかりやすくするために、画像処理部910以外の構成の図示を省略している。 The image processing LSI 900 is an LSI (Large Scale Integration) that performs so-called image processing on a pixel signal (image signal) supplied based on a pixel signal from each pixel of the pixel array unit 811. Examples of image processing include black level correction, color mixture correction, defect correction, demosaic processing, matrix processing, gamma correction, and YC conversion. The image processing unit 910 schematically shows the image processing function realized by the image processing LSI 900a. Note that the image processing LSI 900 may include a configuration for executing a function other than the image processing, but in the example shown in FIG. 2, the configuration other than the image processing unit 910 is shown for the sake of clarity. Is omitted.

また、参照符号n0は、イメージセンサ800と画像処理LSI900との間の信号の流れ(ストリーム)を模式的に示している。 Further, reference numeral n0 schematically indicates a signal flow (stream) between the image sensor 800 and the image processing LSI 900.

すなわち、図2に示した比較例に係る撮像装置では、イメージセンサ800は、図示しない光学系素子を介して入射した光を光電変換し、各画素の画素値をA/D変換することで、被写体の撮像画像を示す画素信号を生成する。そして、イメージセンサ800は、生成した画素信号をストリームn0として、画像処理LSI900の画像処理部910に出力する。 That is, in the image pickup apparatus according to the comparative example shown in FIG. 2, the image sensor 800 photoelectrically converts light incident through an optical system element (not shown) and A/D-converts the pixel value of each pixel. A pixel signal indicating a captured image of the subject is generated. Then, the image sensor 800 outputs the generated pixel signal as a stream n0 to the image processing unit 910 of the image processing LSI 900.

画像処理LSI900は、ストリームn0として、イメージセンサ800から出力された画素信号を取得し、取得した画素信号に対して画像処理を施して被写体と撮像装置との距離(被写体距離)を測定する。比較例に係る撮像装置は、測定された被写体距離に基づいて当該撮像装置が備えるフォーカスレンズを駆動制御することで焦点調整(オートフォーカス)を行う。例えば、比較例に係る撮像装置は、像面位相差方式によりオートフォーカスを実行してもよい。すなわち、比較例に係る画素アレイ部811は、位相差方式により焦点調整を行うための位相差画素を含み、画像処理部910は当該位相差画素にかかる画素信号(焦点画素信号)に基づいて被写体距離を測定し、当該被写体距離に基づいてフォーカスレンズが駆動制御される。 The image processing LSI 900 acquires the pixel signal output from the image sensor 800 as the stream n0, performs image processing on the acquired pixel signal, and measures the distance between the object and the imaging device (object distance). The imaging device according to the comparative example performs focus adjustment (autofocus) by driving and controlling the focus lens included in the imaging device based on the measured subject distance. For example, the image pickup apparatus according to the comparative example may execute autofocus by the image plane phase difference method. That is, the pixel array unit 811 according to the comparative example includes phase difference pixels for performing focus adjustment by the phase difference method, and the image processing unit 910 determines the subject based on the pixel signal (focus pixel signal) applied to the phase difference pixels. The distance is measured, and the focus lens is drive-controlled based on the subject distance.

次に、図3を参照して、図2に示した撮像装置において、イメージセンサ800により被写体の画像が露光(撮像)され、露光された画像を示す画素信号が画像処理LSI900に読出され、レンズ駆動制御が完了するまでの処理の流れの一例について説明する。図3は、比較例に係る撮像装置を用いた連続撮影におけるオートフォーカス処理の流れについて説明するための説明図であり、比較例に係る撮像装置が電子的に各画素の露光期間を制御する場合の概略的なタイムチャートの一例を示している。 Next, referring to FIG. 3, in the image pickup apparatus shown in FIG. 2, an image of a subject is exposed (imaged) by image sensor 800, pixel signals representing the exposed image are read out to image processing LSI 900, and a lens is used. An example of the process flow until the drive control is completed will be described. FIG. 3 is an explanatory diagram for explaining a flow of an autofocus process in continuous shooting using the image pickup apparatus according to the comparative example, and a case where the image pickup apparatus according to the comparative example electronically controls the exposure period of each pixel. 2 shows an example of a schematic time chart of.

図3において、横軸は時間方向を示しており、画素・出力制御における縦軸は画素アレイ部811の行方向を示している。また、参照符号d910、d911、d912、及びd913は、画素アレイ部811の各画素の露光期間を模式的に示している。なお、露光期間d910は、露光期間d911以前に撮像された画像の露光期間を示しているものとする。 In FIG. 3, the horizontal axis represents the time direction, and the vertical axis in pixel/output control represents the row direction of the pixel array unit 811. Further, reference numerals d910, d911, d912, and d913 schematically indicate the exposure period of each pixel of the pixel array unit 811. Note that the exposure period d910 indicates the exposure period of the image captured before the exposure period d911.

ここで、比較例に係る撮像装置においてオートフォーカスが実行される際の一連の処理の流れについて、露光期間d911に着目して説明する。まず、参照符号d901に示すように、各画素に蓄積された画素信号のリセットが行単位で逐次実行され、各画素のリセットが完了すると、速やかに光が当該画素に入射し、当該画素の露光が開始される。その後、参照符号d921に示すように、各画素の露光が終了すると、速やかに当該画素からの画素信号の読出しと、画像処理部910への出力が開始される。すなわち、各画素について、参照符号d901とd921との間の期間T92が、当該画素における露光時間に相当し、参照符号d921の開始から終了までの期間T93が全画素の読出しと出力にかかる時間に相当する。上記のように、図3に示す例では、行単位で、各画素の露光開始及び終了のタイミング、及び各画素の読出し・出力のタイミングが異なる。 Here, the flow of a series of processes when autofocus is executed in the image pickup apparatus according to the comparative example will be described focusing on the exposure period d911. First, as indicated by reference numeral d901, resetting of pixel signals accumulated in each pixel is sequentially performed in units of rows, and when reset of each pixel is completed, light is promptly incident on the pixel and exposure of the pixel is performed. Is started. After that, as indicated by reference numeral d921, when the exposure of each pixel is completed, the reading of the pixel signal from the pixel and the output to the image processing unit 910 are immediately started. That is, for each pixel, the period T92 between the reference symbols d901 and d921 corresponds to the exposure time of the pixel, and the period T93 from the start to the end of the reference symbol d921 is the time required to read and output all pixels. Equivalent to. As described above, in the example shown in FIG. 3, the timing of starting and ending the exposure of each pixel, and the timing of reading and outputting each pixel are different for each row.

全画素から画素信号が画像処理部910へ出力されると、画像処理部910は、図3の参照符号d951が示す期間において、位相差画素に対応する焦点画素信号に基づいて位相差検波(検出)を行うことで、被写体距離を測定(測距)する。続いて、図3の参照符号d961が示す期間において、測定された被写体距離と、露光期間d911におけるレンズ位置とに基づいてレンズ駆動量を算出するAF演算が行われる。さらに、図3の参照符号d971が示す期間において、比較例に係る撮像装置が備えるフォーカスレンズの駆動制御が行われる。その結果、図3に示す露光期間d911における撮像に基づいて実行されるオートフォーカスが反映されるのは、図3に示す露光期間d913における撮像である。すなわち、図3の例において、測距のための露光開始から、オートフォーカスが反映されるまでに必要な時間(レイテンシ)は、撮影間隔T91の2倍の時間である。 When the pixel signals from all the pixels are output to the image processing unit 910, the image processing unit 910 causes the phase difference detection (detection) based on the focus pixel signal corresponding to the phase difference pixel in the period indicated by reference numeral d951 in FIG. ), the object distance is measured (ranging). Subsequently, during a period indicated by reference numeral d961 in FIG. 3, an AF calculation is performed to calculate a lens drive amount based on the measured subject distance and the lens position in the exposure period d911. Further, during the period indicated by reference numeral d971 in FIG. 3, drive control of the focus lens included in the imaging device according to the comparative example is performed. As a result, the autofocus executed based on the image pickup in the exposure period d911 shown in FIG. 3 is reflected in the image pickup in the exposure period d913 shown in FIG. That is, in the example of FIG. 3, the time (latency) required from the start of exposure for distance measurement to the reflection of autofocus is twice the shooting interval T91.

図1に示したように、撮像装置を用いて、スポーツシーン等における動きのある被写体を撮影する場合、オートフォーカスにかかるレイテンシが重要となる。例えば、測距のための露光から、フォーカスレンズの駆動制御が完了するまでに、被写体が動き、被写体と撮像装置との距離が変化してしまうと、焦点の合わない画像が取得されてしまう場合がある。したがって、オートフォーカスにかかるレイテンシは、小さいことが望ましい。 As shown in FIG. 1, when an image capturing apparatus is used to capture a moving subject in a sports scene or the like, latency associated with autofocus is important. For example, if the subject moves and the distance between the subject and the imaging device changes from the exposure for distance measurement to the completion of the drive control of the focus lens, an out-of-focus image is acquired. There is. Therefore, it is desirable that the latency required for autofocus is small.

そこで、上記事情を一着眼点にして本実施形態を創作するに至った。本実施形態によれば、オートフォーカスにかかるレイテンシを小さくすることが可能である。以下、このような効果を有する本実施形態に係る撮像装置の概要について説明する。 Therefore, the present embodiment has been created by focusing on the above circumstances. According to this embodiment, it is possible to reduce the latency required for autofocus. The outline of the image pickup apparatus according to this embodiment having such an effect will be described below.

<1−2.概要>
図4は、本開示の実施形態に係る撮像装置の概要について説明するための説明図である。なお、図4は、本実施形態に係る撮像装置1(撮像制御装置)の概略的な構成について、イメージセンサ100と画像処理LSI200とに着目して示しており、その他の構成については図示を省略している。
<1-2. Overview>
FIG. 4 is an explanatory diagram for describing the outline of the imaging device according to the embodiment of the present disclosure. Note that FIG. 4 shows a schematic configuration of the imaging device 1 (imaging control device) according to the present embodiment, focusing on the image sensor 100 and the image processing LSI 200, and the other configurations are not shown. doing.

図4に示すように、本実施形態に係るイメージセンサ100は、フレームメモリ190を含む点で、図2に示した比較例に係るイメージセンサ800と異なる。参照符号n1及びn2は、イメージセンサ100と画像処理LSI200との間の信号の流れ(ストリーム)を模式的に示している。 As shown in FIG. 4, the image sensor 100 according to the present embodiment differs from the image sensor 800 according to the comparative example shown in FIG. 2 in that it includes a frame memory 190. Reference numerals n1 and n2 schematically show signal flows (streams) between the image sensor 100 and the image processing LSI 200.

また、本実施形態に係る撮像装置1は、図2、図3を参照して説明した比較例と同様に、像面位相差方式によりオートフォーカスを実行し、電子的に各画素の露光期間を制御する。すなわち、図4に示す本実施形態に係るイメージセンサ100が有する画素アレイ部111は、位相差方式により焦点調整を行うための位相差画素(焦点検出画素)と、画像生成に用いられる通常画素を含み、各画素の露光期間は電子的に制御される。 Further, the image pickup apparatus 1 according to the present embodiment performs autofocus by the image plane phase difference method and electronically adjusts the exposure period of each pixel, as in the comparative example described with reference to FIGS. 2 and 3. Control. That is, the pixel array unit 111 included in the image sensor 100 according to the present embodiment illustrated in FIG. 4 includes a phase difference pixel (focus detection pixel) for performing focus adjustment by a phase difference method and a normal pixel used for image generation. Including, the exposure period of each pixel is electronically controlled.

図4に示す本実施形態に係る撮像装置において、イメージセンサ100は、図示しない光学系素子を介して入射した光を光電変換し、各画素の画素値をA/D変換することで、被写体の撮像画像を示す画像信号を生成する(読出しを行う)。このとき、イメージセンサ100は、画素アレイ部111を構成する複数の画素のうち、少なくとも位相差画素からの焦点画像信号を読出し、ストリームn1として画像処理LSI200に出力する。 In the image pickup apparatus according to the present embodiment shown in FIG. 4, the image sensor 100 photoelectrically converts light incident through an optical system element (not shown), and A/D-converts the pixel value of each pixel to obtain an image of a subject. An image signal indicating a captured image is generated (reading out). At this time, the image sensor 100 reads out the focus image signal from at least the phase difference pixel among the plurality of pixels forming the pixel array unit 111, and outputs it to the image processing LSI 200 as a stream n1.

また、イメージセンサ100は、画素アレイ部111を構成する複数の画素のうち、少なくとも通常画素からの本線画素信号を読出し、フレームメモリ190に一時的に記録する。そして、イメージセンサ100は、フレームメモリ190に記録された本線画素信号をストリームn2として画像処理LSI200に出力する。 Further, the image sensor 100 reads out the main line pixel signal from at least a normal pixel among the plurality of pixels forming the pixel array unit 111, and temporarily records the main line pixel signal in the frame memory 190. Then, the image sensor 100 outputs the main line pixel signal recorded in the frame memory 190 to the image processing LSI 200 as a stream n2.

このような構成より、イメージセンサ100は、例えば、位相差画素からの焦点画像信号をストリームn1とし、通常画素からの本線画素信号(画像)をストリームn2として、各画素信号を互いに独立して画像処理LSI200に出力することが可能となる。なお、上記では位相差画素からの焦点画像信号をストリームn1として出力する例を説明したが、本技術はかかる例に限定されない。例えば、画像生成に用いられる通常画素のうち一部から読出される画素信号をストリームn1として出力することも可能であり、そのような例については変形例として後述する。 With such a configuration, the image sensor 100, for example, sets the focus image signals from the phase difference pixels as the stream n1 and the main line pixel signals (images) from the normal pixels as the stream n2, and images each pixel signal independently from each other. It becomes possible to output to the processing LSI 200. In addition, although the example in which the focus image signal from the phase difference pixel is output as the stream n1 has been described above, the present technology is not limited to this example. For example, it is possible to output a pixel signal read from a part of the normal pixels used for image generation as the stream n1, and such an example will be described later as a modified example.

なお、イメージセンサ100は、例えば全画素からの画素信号をフレームメモリ190に一時的に保持させることが可能なため、ストリームn1とストリームn2とを、必ずしも同じタイミングで並列に画像処理LSI200に出力する必要はない。すなわち、イメージセンサ100は、ストリームn1の出力後にストリームn2を出力することも可能である。もちろん、イメージセンサ100は、ストリームn1とストリームn2とを並列に画像処理LSI200に出力してもよいことは言うまでもない。 Since the image sensor 100 can temporarily hold pixel signals from all pixels in the frame memory 190, for example, the stream n1 and the stream n2 are output to the image processing LSI 200 in parallel at the same timing. No need. That is, the image sensor 100 can also output the stream n2 after outputting the stream n1. Of course, it goes without saying that the image sensor 100 may output the stream n1 and the stream n2 in parallel to the image processing LSI 200.

そのため、例えば、画像処理LSI200は、イメージセンサ100から本線画素信号(ストリームn2)より先行して出力される焦点画素信号(ストリームn1)に基づいて位相差検波処理を行うことが可能である。かかる構成により、本実施形態に係る撮像装置1は、オートフォーカスにかかるレイテンシを小さくすることが出来る。 Therefore, for example, the image processing LSI 200 can perform the phase difference detection process based on the focus pixel signal (stream n1) output prior to the main line pixel signal (stream n2) from the image sensor 100. With this configuration, the image pickup apparatus 1 according to the present embodiment can reduce the latency associated with autofocus.

また、他の一例として、画像処理LSI200は、イメージセンサ100からストリームn1として先行して出力される焦点画素信号に基づいた位相差検波処理と並行して、ストリームn2として出力される本線画素信号の取得を実行することが可能である。 In addition, as another example, the image processing LSI 200 parallelizes the phase difference detection processing based on the focus pixel signal previously output as the stream n1 from the image sensor 100, and the main line pixel signal output as the stream n2. It is possible to perform an acquisition.

なお、イメージセンサ100と、画像処理LSI200とは、必ずしも同一筐体内に設けられている必要はない。その場合には、イメージセンサ100が設けられた装置が、「撮像制御装置」の一例に相当する。 The image sensor 100 and the image processing LSI 200 do not necessarily have to be provided in the same housing. In that case, the device provided with the image sensor 100 corresponds to an example of an “imaging control device”.

以上、図4を参照しながら、本実施形態に係る撮像装置1の概要について説明した。続いて、以降では、本実施形態に係る撮像装置1の構成と動作について、さらに詳しく順次に説明する。 The outline of the imaging device 1 according to the present embodiment has been described above with reference to FIG. Subsequently, in the following, the configuration and operation of the imaging device 1 according to the present embodiment will be sequentially described in more detail.

<<2.構成>>
以下では、まず本実施形態に係る撮像装置1の構成例について図5を参照して説明した後、撮像装置1が備えるイメージセンサ100の構成例について図6〜9を参照して説明する。
<<2. Configuration >>
Hereinafter, first, a configuration example of the image pickup apparatus 1 according to the present embodiment will be described with reference to FIG. 5, and then a configuration example of the image sensor 100 included in the image pickup apparatus 1 will be described with reference to FIGS.

<2−1.撮像装置の構成>
図5は、本実施形態に係る撮像装置1の構成の一例を示す説明図であり、前述したイメージセンサ100と画像処理LSI200とを同一筐体内に設けた場合の一例を示している。図5に示される撮像装置1は、被写体を撮像し、その被写体の画像を電気信号として出力する装置である。
<2-1. Configuration of imaging device>
FIG. 5 is an explanatory diagram showing an example of the configuration of the image pickup apparatus 1 according to the present embodiment, and shows an example of the case where the image sensor 100 and the image processing LSI 200 described above are provided in the same housing. The imaging device 1 shown in FIG. 5 is a device that images a subject and outputs an image of the subject as an electrical signal.

図5に示すように撮像装置1は、フォーカスレンズ11(以下、単にレンズと呼ぶ場合がある)、イメージセンサ100、駆動制御部12、操作部13、画像処理部210、コーデック処理部14、記録部15、及び表示部16を有する。 As shown in FIG. 5, the image pickup apparatus 1 includes a focus lens 11 (hereinafter may be simply referred to as a lens), an image sensor 100, a drive control unit 12, an operation unit 13, an image processing unit 210, a codec processing unit 14, and a recording unit. It has a unit 15 and a display unit 16.

フォーカスレンズ11は、駆動制御部12によって制御されて、被写体までの焦点を調整し、焦点が合った位置からの光を集光し、イメージセンサ100に供給する。 The focus lens 11 is controlled by the drive control unit 12, adjusts the focus to the subject, collects light from a focused position, and supplies the light to the image sensor 100.

イメージセンサ100は、被写体を撮像するイメージセンサであり、駆動制御部12に制御されて、入射光を光電変換し、各画素の画素値をA/D変換することにより、画素信号を読出し、出力する。ここで、上述したように、イメージセンサ100は、焦点調整に用いられる位相差画素(焦点検出画素)からの焦点画素信号の読出しと、画像生成に用いられる通常画素からの本線画素信号の読出しと、を独立して行う。また、イメージセンサ100は、焦点画素信号と、本線画素信号とを、互いに独立して画像処理部210に出力する。 The image sensor 100 is an image sensor that images a subject, and is controlled by the drive control unit 12 to photoelectrically convert incident light and A/D-convert the pixel value of each pixel to read and output a pixel signal. To do. Here, as described above, the image sensor 100 reads out the focus pixel signal from the phase difference pixel (focus detection pixel) used for focus adjustment and reads out the main line pixel signal from the normal pixel used for image generation. , Independently. Further, the image sensor 100 outputs the focus pixel signal and the main line pixel signal to the image processing unit 210 independently of each other.

駆動制御部12は、操作部13により入力されたユーザの操作入力に対応する信号に基づいて、フォーカスレンズ11、イメージセンサ100、画像処理部210、コーデック処理部14、記録部15、及び表示部16の駆動を制御し、各部に撮像に関する処理を行わせる。特に、駆動制御部12は、イメージセンサ100から画像処理部210への本線画素信号の入力中にレンズ駆動が行われるように、当該本線画素信号に先行して入力された焦点画素信号に基づくレンズ駆動指示を行うレンズ駆動指示部としての機能を有する。例えば、駆動制御部12は、画像処理部210が焦点画素信号に基づいて行った位相差検波の結果を受け取り、AF演算によりレンズ駆動量を算出し、レンズ駆動指示を行う。なお、画像処理部210がレンズ駆動指示部として、レンズ駆動指示を行ってもよい。 The drive control unit 12 is based on a signal corresponding to a user's operation input input by the operation unit 13, the focus lens 11, the image sensor 100, the image processing unit 210, the codec processing unit 14, the recording unit 15, and the display unit. The drive of 16 is controlled and each part is made to perform the process regarding imaging. In particular, the drive control unit 12 uses a focus pixel signal input prior to the main pixel signal so that the lens drive is performed during the input of the main pixel signal from the image sensor 100 to the image processing unit 210. It has a function as a lens drive instructing unit that gives a drive instruction. For example, the drive control unit 12 receives the result of the phase difference detection performed by the image processing unit 210 based on the focus pixel signal, calculates the lens drive amount by AF calculation, and gives a lens drive instruction. Note that the image processing unit 210 may issue a lens drive instruction as a lens drive instruction unit.

操作部13は、例えば、ジョグダイヤル(商標)、キー、ボタン、またはタッチパネル等により構成され、ユーザによる操作入力を受け、その操作入力に対応する信号を駆動制御部12に供給する。 The operation unit 13 is composed of, for example, a jog dial (trademark), a key, a button, a touch panel, or the like, receives an operation input by the user, and supplies a signal corresponding to the operation input to the drive control unit 12.

画像処理部210は、イメージセンサ100から画素信号を受け取り、画像処理を行う。例えば、画像処理部210は、イメージセンサ100から出力される焦点画素信号と、本線画素信号が、互いに独立して入力される入力部としての機能を有する。また、画像処理部210は、焦点画素信号に基づいて位相差検波を行い、位相差検波の結果を駆動制御部12に提供する。また、画像処理部210は、例えば、黒レベル補正や、混色補正、欠陥補正、デモザイク処理、マトリックス処理、ガンマ補正、およびYC変換等の各種画像処理を施す。この画像処理の内容は任意であり、上述した以外の処理が行われてもよい。また、画像処理部210は、画像処理を施した画像信号をコーデック処理部14及び表示部16に供給する。 The image processing unit 210 receives a pixel signal from the image sensor 100 and performs image processing. For example, the image processing unit 210 has a function as an input unit into which the focus pixel signal output from the image sensor 100 and the main line pixel signal are input independently of each other. Further, the image processing unit 210 performs phase difference detection based on the focus pixel signal, and provides the drive control unit 12 with the result of the phase difference detection. Further, the image processing unit 210 performs various image processing such as black level correction, color mixture correction, defect correction, demosaic processing, matrix processing, gamma correction, and YC conversion. The content of this image processing is arbitrary, and processing other than the above may be performed. Further, the image processing unit 210 supplies the image signal subjected to the image processing to the codec processing unit 14 and the display unit 16.

コーデック処理部14は、画像処理部210からの画像信号に対して、所定の方式の符号化処理を施し、符号化処理の結果得られた画像データを記録部15に供給する。 The codec processing unit 14 performs an encoding process of a predetermined method on the image signal from the image processing unit 210 and supplies the image data obtained as a result of the encoding process to the recording unit 15.

記録部15は、コーデック処理部14から供給される画像データを記録する。記録部15に記録された画像データは、必要に応じて画像処理部210に読出されることで、表示部16に供給され、対応する画像が表示される。 The recording unit 15 records the image data supplied from the codec processing unit 14. The image data recorded in the recording unit 15 is supplied to the display unit 16 by being read by the image processing unit 210 as necessary, and the corresponding image is displayed.

表示部16は、例えば、液晶ディスプレイ等として構成され、画像処理部210からの画像信号に基づいて、被写体の画像を表示する。 The display unit 16 is configured as, for example, a liquid crystal display or the like, and displays the image of the subject based on the image signal from the image processing unit 210.

<2−2.イメージセンサの構成>
以上、本実施形態に係る撮像装置1の構成例について図5を参照して説明した。続いて、撮像装置1が備えるイメージセンサ100の構成例について図6〜9を参照して説明する。
<2-2. Image sensor configuration>
The example of the configuration of the imaging device 1 according to the present embodiment has been described above with reference to FIG. Next, a configuration example of the image sensor 100 included in the imaging device 1 will be described with reference to FIGS.

(画素配置)
まず、図6を参照して、図4を参照して説明した本実施形態に係るイメージセンサ100が備える画素アレイ部111の画素配置の一例について、特に画素アレイ部111が有する位相差画素の配置に着目して説明する。図6は、本実施形態に係るイメージセンサ100が備える画素アレイ部111の画素配置の一例を説明するための説明図である。画素アレイ部111には、赤、青、緑の通常画素の他、図6にA,Bとして示す位置に焦点調整に用いられる位相差画素121a、121bが周期的に配置される。
(Pixel arrangement)
First, with reference to FIG. 6, regarding an example of the pixel arrangement of the pixel array unit 111 included in the image sensor 100 according to the present embodiment described with reference to FIG. 4, particularly, the arrangement of the phase difference pixels included in the pixel array unit 111. Pay attention to the explanation. FIG. 6 is an explanatory diagram for explaining an example of the pixel arrangement of the pixel array unit 111 included in the image sensor 100 according to this embodiment. In the pixel array section 111, in addition to normal pixels of red, blue, and green, phase difference pixels 121a and 121b used for focus adjustment are periodically arranged at positions shown as A and B in FIG.

図7は、本実施形態に係る位相差画素の例を示す説明図である。画素アレイ部111に配置される位相差画素121a、121bは、例えば、図7上段に示すように左開口画素121a、右開口画素121bであってもよい。図7に示すように、左開口画素121a、及び右開口画素121bは、オンチップレンズ1211a、1211bが斜光メタル1212a、1212bによって覆われている。また、左開口画素121aが有する斜光メタル1212aの左側には左開口部1213aが設けられ、左開口画素121aは左開口部1213aの領域に入射した光のみ受光可能である。同様に、右開口画素121bが有する斜光メタル1212bの右側には右開口部1213b、が設けられ、右開口画素121bは右開口部1213bの領域に入射した光のみ受光可能である。したがって、左開口画素121aと右開口画素121bとでは、それぞれ撮影レンズの異なる光路を通った光束が受光される。 FIG. 7 is an explanatory diagram showing an example of the phase difference pixel according to the present embodiment. The phase difference pixels 121a and 121b arranged in the pixel array unit 111 may be, for example, a left opening pixel 121a and a right opening pixel 121b as shown in the upper part of FIG. As shown in FIG. 7, in the left opening pixel 121a and the right opening pixel 121b, the on-chip lenses 1211a and 1211b are covered by the oblique metal 1212a and 1212b. Further, a left opening 1213a is provided on the left side of the oblique light metal 1212a included in the left opening pixel 121a, and the left opening pixel 121a can receive only light incident on the area of the left opening 1213a. Similarly, the right opening portion 1213b is provided on the right side of the oblique light metal 1212b included in the right opening pixel 121b, and the right opening pixel 121b can receive only the light incident on the area of the right opening portion 1213b. Therefore, the left opening pixel 121a and the right opening pixel 121b respectively receive the light fluxes that have passed through different optical paths of the taking lens.

上記の左開口画素121aと右開口画素121bを1組のペア画素として、画像処理部210が当該ペア画素に対応する焦点画素信号における2つの像のズレ具合を評価することで、位相差検波処理が行われる。 The left opening pixel 121a and the right opening pixel 121b are set as a pair of pixels, and the image processing unit 210 evaluates the degree of deviation between the two images in the focus pixel signal corresponding to the pair of pixels, thereby performing the phase difference detection process. Is done.

なお、上記では、画素アレイ部111に配置される位相差画素が左開口画素と右開口画素によるペア画素である例を説明したが、本技術はかかる例に限定されない。例えば、図7の中段に示すように、画素アレイ部111に配置される位相差画素は、上開口画素121cと下開口画素121dによるペア画素であってもよい。上開口画素121c、及び下開口画素121dは、上記の左開口画素121a、及び右開口画素121bと同様に、オンチップレンズ1211c、1211dと、斜光メタル1212c、1212dと、上開口部1213c、下開口部1213dとを備える。 Note that, in the above, the example in which the phase difference pixels arranged in the pixel array unit 111 are the paired pixels including the left opening pixel and the right opening pixel has been described, but the present technology is not limited to this example. For example, as shown in the middle of FIG. 7, the phase difference pixels arranged in the pixel array unit 111 may be a pair of pixels including an upper opening pixel 121c and a lower opening pixel 121d. The upper opening pixel 121c and the lower opening pixel 121d are similar to the left opening pixel 121a and the right opening pixel 121b, and the on-chip lenses 1211c and 1211d, the oblique metal 1212c and 1212d, the upper opening 1213c, and the lower opening. And a portion 1213d.

また、画素アレイ部111に配置される位相差画素は、フォトダイオード分割画素であってもよい。この場合、例えば、図7の下段左に示す左右フォトダイオード分割画素121e、または図7の下段右に示す上下フォトダイオード分割画素121fのうちいずれか一種類が位相差画素として配置されればよい。左右フォトダイオード分割画素121eは、一つのオンチップレンズ1211eに対して、独立に受光可能な2つのフォトダイオード(左フォトダイオード1214a、右フォトダイオード1214b)を備える。また、同様に上下フォトダイオード分割画素121fは、一つのオンチップレンズ1211fに対して、独立に受光可能な2つのフォトダイオード(上フォトダイオード1214c、下フォトダイオード1214d)を備える。画像処理部210は、上記いずれかのフォトダイオード分割画素に対応する焦点画素信号における2つの像のズレ具合を評価することで、位相差検波処理を行うことが可能である。 Further, the phase difference pixels arranged in the pixel array section 111 may be photodiode divided pixels. In this case, for example, one of the left and right photodiode divided pixels 121e shown in the lower left of FIG. 7 or the upper and lower photodiode divided pixels 121f shown in the lower right of FIG. 7 may be arranged as the phase difference pixel. The left and right photodiode divided pixels 121e include two photodiodes (a left photodiode 1214a and a right photodiode 1214b) that can independently receive light with respect to one on-chip lens 1211e. Similarly, the upper and lower photodiode divided pixels 121f include two photodiodes (an upper photodiode 1214c and a lower photodiode 1214d) that can independently receive light with respect to one on-chip lens 1211f. The image processing unit 210 can perform the phase difference detection process by evaluating the degree of deviation between the two images in the focus pixel signal corresponding to any one of the photodiode divided pixels.

(読出し・出力に係る構成)
以上、本実施形態に係るイメージセンサ100が備える画素アレイ部111の画素配置の一例について説明した。続いて、図8を参照して、イメージセンサ100における読出し・出力に係る構成の一例について、特に、図示しない光学系素子を介して入射した光を光電変換し、各画素の画素値をA/D変換することで画素信号を読み出して、出力する構成に着目して説明する。
(Configuration related to read/output)
The example of the pixel arrangement of the pixel array unit 111 included in the image sensor 100 according to the present embodiment has been described above. Next, with reference to FIG. 8, regarding an example of a configuration related to reading and output in the image sensor 100, in particular, light incident through an optical system element (not shown) is photoelectrically converted, and the pixel value of each pixel is A/ A description will be given focusing on the configuration in which the pixel signal is read out and output by D conversion.

図8は、本実施形態に係るイメージセンサ100の一部の構成例を示すブロック図である。図8に示されるイメージセンサ100は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサ等の、被写体を撮像し、撮像画像のデジタルデータを得る撮像素子である。 FIG. 8 is a block diagram showing a partial configuration example of the image sensor 100 according to the present embodiment. The image sensor 100 shown in FIG. 8 is an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor that captures an image of a subject and obtains digital data of the captured image.

図8に示されるように、イメージセンサ100は、制御部101、画素アレイ部111、選択部112、A/D変換部(ADC(Analog Digital Converter))113、及び定電流回路部114を有する。 As shown in FIG. 8, the image sensor 100 includes a control unit 101, a pixel array unit 111, a selection unit 112, an A/D conversion unit (ADC (Analog Digital Converter)) 113, and a constant current circuit unit 114.

制御部101は、イメージセンサ100の各部を制御し、画像データ(画素信号)の読出し等に関する処理を実行させる。特に、本実施形態に係る制御部101は、焦点調整に用いられる位相差画素(焦点検出画素)からの焦点画素信号の読出しと、画像生成に用いられる通常画素からの本線画素信号の読出しとが、独立して行われるよう画素を制御する。 The control unit 101 controls each unit of the image sensor 100 to execute a process related to reading of image data (pixel signal). In particular, the control unit 101 according to the present embodiment performs reading of focus pixel signals from the phase difference pixels (focus detection pixels) used for focus adjustment and reading of main line pixel signals from normal pixels used for image generation. , Control the pixels to be done independently.

なお、焦点画素信号の読出しと、本線画素信号の読出しとが、独立して行われる、とは、焦点画素信号の読出しと、本線画素信号の読出しとが、互いに制限を受けることなく行われることを意味する。例えば、焦点画素信号の読出しと、本線画素信号の読出しとが、異なる期間に行われる場合や、各画素信号の読出しの開始タイミングが異なるが読出し期間が重複する場合、各画素信号が並列して読出される場合等も上記に含まれる。 Note that the reading of the focus pixel signal and the reading of the main line pixel signal are independently performed means that the reading of the focus pixel signal and the reading of the main line pixel signal are performed without being limited to each other. Means For example, when the readout of the focus pixel signal and the readout of the main line pixel signal are performed in different periods, or when the start timings of the readout of the respective pixel signals are different but the readout periods overlap, the respective pixel signals are arranged in parallel. The case where it is read is also included in the above.

また、本実施形態に係る制御部101は、焦点検出画素の露光と画像生成に用いられる画素の露光をそれぞれ制御する露光制御部としての機能を有する。例えば、制御部101は、露光制御部としての機能を発揮し、位相差画素(焦点検出画素)の露光時間と、通常画素の露光時間とが異なるように、位相差画素の露光と通常画素の露光を制御してもよい。例えば、制御部101は、位相差画素の露光時間が、通常画素の露光時間より長くなるように、位相差画素の露光と通常画素の露光を制御してもよい。かかる構成によれば、通常画素よりも受光領域が狭い位相差画素であっても、より多くの光を受光することが可能となり、例えば、暗い領域でのAF精度が向上するという効果がある。また、制御部101は、位相差画素の露光時間が、通常画素の露光時間より短くなるように、位相差画素の露光と通常画素の露光を制御してもよい。かかる構成によれば、高輝度な被写体に対してAFを行う場合に、画素値のオーバーフローによるAF精度への影響が低減されるという効果がある。 The control unit 101 according to the present embodiment also has a function as an exposure control unit that controls the exposure of the focus detection pixels and the exposure of the pixels used for image generation. For example, the control unit 101 exerts a function as an exposure control unit, and controls the exposure of the phase difference pixel and the normal pixel so that the exposure time of the phase difference pixel (focus detection pixel) is different from the exposure time of the normal pixel. The exposure may be controlled. For example, the control unit 101 may control the exposure of the phase difference pixel and the exposure of the normal pixel so that the exposure time of the phase difference pixel is longer than the exposure time of the normal pixel. With such a configuration, it is possible to receive more light even in a phase difference pixel having a light receiving area narrower than that of a normal pixel, and for example, there is an effect that the AF accuracy in a dark area is improved. The control unit 101 may control the exposure of the phase difference pixel and the exposure of the normal pixel so that the exposure time of the phase difference pixel is shorter than the exposure time of the normal pixel. According to such a configuration, when performing AF on a high-luminance subject, there is an effect that the influence of the overflow of the pixel value on the AF accuracy is reduced.

画素アレイ部111は、図6、7を参照して説明したように、フォトダイオード等の光電変換素子を有する画素構成が行列(アレイ)状に配置される画素領域である。画素アレイ部111は、制御部101に制御されて、各画素で被写体の光を受光し、その入射光を光電変換して電荷を蓄積し、所定のタイミングにおいて、各画素に蓄積された電荷をアナログ画素信号として出力する。 As described with reference to FIGS. 6 and 7, the pixel array unit 111 is a pixel region in which pixel configurations having photoelectric conversion elements such as photodiodes are arranged in a matrix. Under control of the control unit 101, the pixel array unit 111 receives light of a subject at each pixel, photoelectrically converts the incident light to accumulate charges, and at predetermined timing, accumulates charges accumulated in each pixel. Output as an analog pixel signal.

画素121および画素122は、その画素アレイ部111に配置される画素群の中の、上下に隣接する2画素を示している。画素121および画素122は、互いに同じカラム(列)の連続する行の画素である。例えば、画素121は図6、7を参照して説明した焦点調整に用いられる位相差画素であり、画素122は画像生成に用いられる通常画素であってもよい。図8の例の場合、画素121および画素122に示されるように、各画素の回路には、光電変換素子並びに4つのトランジスタが用いられている。なお、各画素の回路の構成は、任意であり、図8に示される例以外であってもよい。 A pixel 121 and a pixel 122 represent two vertically adjacent pixels in a pixel group arranged in the pixel array section 111. The pixel 121 and the pixel 122 are pixels in consecutive rows in the same column. For example, the pixel 121 may be a phase difference pixel used for focus adjustment described with reference to FIGS. 6 and 7, and the pixel 122 may be a normal pixel used for image generation. In the case of the example in FIG. 8, as shown in the pixel 121 and the pixel 122, a photoelectric conversion element and four transistors are used in the circuit of each pixel. The circuit configuration of each pixel is arbitrary and may be other than the example shown in FIG.

一般的な画素アレイには、カラム(列)毎に、アナログ画素信号の出力線が設けられる。画素アレイ部111の場合、1カラム(列)毎に、2本(2系統)の出力線が設けられる。1カラムの画素の回路は、1行おきに、この2本の出力線に交互に接続される。例えば、上から奇数番目の行の画素の回路が一方の出力線に接続され、偶数番目の行の画素の回路が他方の出力線に接続される。図8の例の場合、画素121の回路は、第1の出力線(VSL1)に接続され、画素122の回路は、第2の出力線(VSL2)に接続される。 In a general pixel array, an output line of an analog pixel signal is provided for each column. In the case of the pixel array unit 111, two (two systems) output lines are provided for each column. Circuits of pixels in one column are alternately connected to these two output lines every other row. For example, the circuits of the pixels in the odd-numbered rows from the top are connected to one output line, and the circuits of the pixels in the even-numbered rows are connected to the other output line. In the case of the example in FIG. 8, the circuit of the pixel 121 is connected to the first output line (VSL1), and the circuit of the pixel 122 is connected to the second output line (VSL2).

なお、図8においては、説明の便宜上、1カラム分の出力線のみ示されているが、実際には、各カラムに対して、同様に2本ずつ出力線が設けられる。各出力線には、そのカラムの画素の回路が1行おきに接続される。 Note that, in FIG. 8, only one column of output lines is shown for convenience of description, but in reality, two output lines are similarly provided for each column. The circuit of the pixel in the column is connected to each output line every other row.

選択部112は、画素アレイ部111の各出力線をADC113の入力に接続するスイッチを有し、制御部101に制御されて、画素アレイ部111とADC113との接続を制御する。つまり、画素アレイ部111から読出されたアナログ画素信号は、この選択部112を介してADC113に供給される。 The selection unit 112 has a switch that connects each output line of the pixel array unit 111 to the input of the ADC 113, and is controlled by the control unit 101 to control the connection between the pixel array unit 111 and the ADC 113. That is, the analog pixel signal read from the pixel array unit 111 is supplied to the ADC 113 via the selection unit 112.

選択部112は、スイッチ131、スイッチ132、およびスイッチ133を有する。スイッチ131(選択SW)は、互いに同じカラムに対応する2本の出力線の接続を制御する。例えば、スイッチ131がオン(ON)状態になると、第1の出力線(VSL1)と第2の出力線(VSL2)が接続され、オフ(OFF)状態になると切断される。 The selection unit 112 includes a switch 131, a switch 132, and a switch 133. The switch 131 (selection SW) controls connection of two output lines corresponding to the same column. For example, when the switch 131 is turned on, the first output line (VSL1) and the second output line (VSL2) are connected, and when the switch 131 is turned off, the switch 131 is disconnected.

詳細については後述するが、イメージセンサ100においては、各出力線に対してADCが1つずつ設けられている(カラムADC)。したがって、スイッチ132およびスイッチ133がともにオン状態であるとすると、スイッチ131がオン状態になれば、同カラムの2本の出力線が接続されるので、1画素の回路が2つのADCに接続されることになる。逆に、スイッチ131がオフ状態になると、同カラムの2本の出力線が切断されて、1画素の回路が1つのADCに接続されることになる。つまり、スイッチ131は、1つの画素の信号の出力先とするADC(カラムADC)の数を選択する。 Although details will be described later, in the image sensor 100, one ADC is provided for each output line (column ADC). Therefore, assuming that both the switch 132 and the switch 133 are in the ON state, when the switch 131 is in the ON state, two output lines of the same column are connected, and thus a circuit of one pixel is connected to two ADCs. Will be. On the contrary, when the switch 131 is turned off, the two output lines of the same column are disconnected and the circuit of one pixel is connected to one ADC. That is, the switch 131 selects the number of ADCs (column ADCs) to which the signal of one pixel is output.

詳細については後述するが、このようにスイッチ131がアナログ画素信号の出力先とするADCの数を制御することにより、イメージセンサ100は、そのADCの数に応じてより多様な画素信号を画像処理LSI200に出力することができる。つまり、イメージセンサ100は、より多様なデータ出力を実現することができる。 Although details will be described later, the image sensor 100 performs image processing on more diverse pixel signals according to the number of ADCs by controlling the number of ADCs to which the switch 131 outputs analog pixel signals. It can be output to the LSI 200. That is, the image sensor 100 can realize more various data outputs.

スイッチ132は、画素121に対応する第1の出力線(VSL1)と、その出力線に対応するADCとの接続を制御する。スイッチ132がオン(ON)状態になると、第1の出力線が、対応するADCの比較器の一方の入力に接続される。また、オフ(OFF)状態になるとそれらが切断される。 The switch 132 controls the connection between the first output line (VSL1) corresponding to the pixel 121 and the ADC corresponding to the output line. When the switch 132 is turned on, the first output line is connected to one input of the comparator of the corresponding ADC. Also, when they are turned off, they are disconnected.

スイッチ133は、画素122に対応する第2の出力線(VSL2)と、その出力線に対応するADCとの接続を制御する。スイッチ133がオン(ON)状態になると、第2の出力線が、対応するADCの比較器の一方の入力に接続される。また、オフ(OFF)状態になるとそれらが切断される。 The switch 133 controls connection between the second output line (VSL2) corresponding to the pixel 122 and the ADC corresponding to the output line. When the switch 133 is turned on, the second output line is connected to one input of the comparator of the corresponding ADC. Also, when they are turned off, they are disconnected.

選択部112は、制御部101の制御に従って、このようなスイッチ131〜スイッチ133の状態を切り替えることにより、1つの画素の信号の出力先とするADC(カラムADC)の数を制御することができる。 Under the control of the control unit 101, the selection unit 112 can control the number of ADCs (column ADCs) to which signals of one pixel are output by switching the states of the switches 131 to 133. ..

なお、スイッチ132やスイッチ133(いずれか一方もしくは両方)を省略し、各出力線と、その出力線に対応するADCとを常時接続するようにしてもよい。ただし、これらのスイッチによって、これらの接続・切断を制御することができるようにすることにより、1つの画素の信号の出力先とするADC(カラムADC)の数の選択の幅が拡がる。つまり、これらのスイッチを設けることにより、イメージセンサ100は、より多様な画素信号を出力することができる。 Note that the switch 132 and the switch 133 (either one or both) may be omitted, and each output line and the ADC corresponding to the output line may be always connected. However, by enabling these switches to control connection/disconnection, the range of selection of the number of ADCs (column ADCs) that are the output destinations of the signals of one pixel is expanded. That is, by providing these switches, the image sensor 100 can output more various pixel signals.

なお、図8においては、1カラム分の出力線に対する構成のみ示されているが、実際には、選択部112は、カラム毎に、図8に示されるのと同様の構成(スイッチ131〜スイッチ133)を有している。つまり、選択部112は、各カラムについて、制御部101の制御に従って、上述したのと同様の接続制御を行う。 Although only the configuration for the output line for one column is shown in FIG. 8, in actuality, the selection unit 112 has the same configuration (switch 131 to switch) as shown in FIG. 8 for each column. 133). That is, the selection unit 112 performs the same connection control as described above on each column according to the control of the control unit 101.

ADC113は、画素アレイ部111から各出力線を介して供給されるアナログ画素信号を、それぞれA/D変換し、画素信号(デジタルデータ)として出力する。ADC113は、画素アレイ部111からの出力線毎のADC(カラムADC)を有する。つまり、ADC113は、複数のカラムADCを有する。1出力線に対応するカラムADCは、比較器、D/A変換器(DAC(Digital Analog Converter))、およびカウンタを有するシングルスロープ型のADCである。 The ADC 113 A/D-converts the analog pixel signals supplied from the pixel array unit 111 via the respective output lines, and outputs them as pixel signals (digital data). The ADC 113 has an ADC (column ADC) for each output line from the pixel array unit 111. That is, the ADC 113 has a plurality of column ADCs. The column ADC corresponding to one output line is a single slope type ADC having a comparator, a D/A converter (DAC (Digital Analog Converter)), and a counter.

比較器は、DAC出力とアナログ画素信号の信号値とを比較する。カウンタは、アナログ画素信号とDAC出力が等しくなるまで、カウント値(デジタル値)をインクリメントする。比較器は、DAC出力が信号値に達すると、カウンタを停止する。その後カウンタ1,2によってデジタル化された信号をDATA1およびDATA2よりイメージセンサ100の外部に出力する。 The comparator compares the DAC output with the signal value of the analog pixel signal. The counter increments the count value (digital value) until the analog pixel signal and the DAC output become equal. The comparator stops the counter when the DAC output reaches the signal value. Thereafter, the signals digitized by the counters 1 and 2 are output from the DATA 1 and DATA 2 to the outside of the image sensor 100.

カウンタは、次のA/D変換のためデータ出力後、カウント値を初期値(例えば0)に戻す。 The counter returns the count value to the initial value (for example, 0) after outputting the data for the next A/D conversion.

ADC113は、各カラムに対して2系統のカラムADCを有する。例えば、第1の出力線(VSL1)に対して、比較器141(COMP1)、DAC142(DAC1)、およびカウンタ143(カウンタ1)が設けられ、第2の出力線(VSL2)に対して、比較器151(COMP2)、DAC152(DAC2)、およびカウンタ153(カウンタ2)が設けられている。図示は省略しているが、ADC113は、他のカラムの出力線に対しても同様の構成を有する。 The ADC 113 has two systems of column ADCs for each column. For example, a comparator 141 (COMP1), a DAC 142 (DAC1), and a counter 143 (counter 1) are provided for the first output line (VSL1), and a comparison is made for the second output line (VSL2). A device 151 (COMP2), a DAC 152 (DAC2), and a counter 153 (counter 2) are provided. Although illustration is omitted, the ADC 113 has the same configuration for output lines of other columns.

ただし、これらの構成の内、DACは、共通化することができる。DACの共通化は、系統毎に行われる。つまり、各カラムの互いに同じ系統のDACが共通化される。図8の例の場合、各カラムの第1の出力線(VSL1)に対応するDACがDAC142として共通化され、各カラムの第2の出力線(VSL2)に対応するDACがDAC152として共通化されている。なお、比較器とカウンタは、各出力線の系統毎に設けられる。 However, the DAC can be shared among these configurations. The sharing of the DAC is performed for each system. That is, the DACs of the same system in each column are shared. In the case of the example in FIG. 8, the DAC corresponding to the first output line (VSL1) of each column is shared as the DAC 142, and the DAC corresponding to the second output line (VSL2) of each column is shared as the DAC 152. ing. The comparator and the counter are provided for each output line system.

定電流回路部114は、各出力線に接続される定電流回路であり、制御部101により制御されて駆動する。定電流回路部114の回路は、例えば、MOS(Metal Oxide Semiconductor)トランジスタ等により構成される。この回路構成は任意であるが、図8においては、説明の便宜上、第1の出力線(VSL1)に対して、MOSトランジスタ161(LOAD1)が設けられ、第2の出力線(VSL2)に対して、MOSトランジスタ162(LOAD2)が設けられている。 The constant current circuit unit 114 is a constant current circuit connected to each output line, and is driven by being controlled by the control unit 101. The circuit of the constant current circuit unit 114 is composed of, for example, a MOS (Metal Oxide Semiconductor) transistor or the like. Although this circuit configuration is arbitrary, in FIG. 8, a MOS transistor 161 (LOAD1) is provided for the first output line (VSL1) and a second output line (VSL2) is provided for convenience of description. Therefore, a MOS transistor 162 (LOAD2) is provided.

制御部101は、例えばユーザ等の外部から要求を受け付けて読出しモードを選択し、選択部112を制御して、出力線に対する接続を制御する。また、制御部101は、選択した読出しモードに応じて、カラムADCの駆動を制御したりする。さらに、制御部101は、カラムADC以外にも、必要に応じて、定電流回路部114の駆動を制御したり、例えば、読出しのレートやタイミング等、画素アレイ部111の駆動を制御したりする。 The control unit 101 receives a request from the outside, such as a user, selects the read mode, controls the selection unit 112, and controls the connection to the output line. The control unit 101 also controls the drive of the column ADC according to the selected read mode. Further, in addition to the column ADC, the control unit 101 controls the driving of the constant current circuit unit 114 as necessary, and controls the driving of the pixel array unit 111 such as the reading rate and timing. ..

つまり、制御部101は、選択部112の制御だけでなく、選択部112以外の各部も、より多様なモードで動作させることができる。したがって、イメージセンサ100は、より多様な画素信号を出力することができる。 That is, the control unit 101 can operate not only the control of the selection unit 112 but also each unit other than the selection unit 112 in more various modes. Therefore, the image sensor 100 can output more various pixel signals.

なお、図8に示す各部の数は、不足しない限り任意である。例えば、各カラムに対して、出力線が3系統以上設けられるようにしてもよい。また、図8に示した、ADC132から出力される画素信号の並列数や、ADC132自体の数を増やすことで、外部に並列して出力される画素信号の数を増やしてもよい。 The number of each unit shown in FIG. 8 is arbitrary as long as it is not insufficient. For example, three or more output lines may be provided for each column. The number of pixel signals output from the ADC 132 in parallel or the number of ADCs 132 themselves shown in FIG. 8 may be increased to increase the number of pixel signals output in parallel to the outside.

次に、本実施形態に係るイメージセンサ100のチップの構成について、図9を参照して説明する。図9は、本実施形態に係るイメージセンサ100のチップの構成の一例について説明するための説明図である。図8を参照しながら説明したように、各カラムに対して複数のADCを設けると、チップサイズが増大し、コストが増大する場合がある。そのため、本実施形態に係るイメージセンサ100では、図9に示すように、チップを積層化してもよい。 Next, the configuration of the chip of the image sensor 100 according to the present embodiment will be described with reference to FIG. FIG. 9 is an explanatory diagram for describing an example of the configuration of the chip of the image sensor 100 according to the present embodiment. As described with reference to FIG. 8, providing a plurality of ADCs for each column may increase the chip size and increase the cost. Therefore, in the image sensor 100 according to this embodiment, the chips may be stacked as shown in FIG.

図9に示す例において、イメージセンサ100は、画素アレイ部111が主に形成される画素チップ100−1と、出力回路180、周辺回路、およびADC113等が形成される周辺回路チップ100−2、およびパッド(PAD)との複数チップにより構成される。画素チップ100−1の画素アレイ部111の出力線とドライブ線は、貫通ビア(VIA)を介して周辺回路チップ100−2の回路と接続されている。なお、図4に示したフレームメモリ190は、例えば、出力回路180や周辺回路の中に設ければよい。出力回路180は、上記により読出された焦点画素信号と、本線画素信号とを、互いに独立して出力する出力部として機能する。 In the example shown in FIG. 9, the image sensor 100 includes a pixel chip 100-1 in which the pixel array section 111 is mainly formed, a peripheral circuit chip 100-2 in which an output circuit 180, a peripheral circuit, an ADC 113, and the like are formed, And a pad (PAD). The output line and the drive line of the pixel array section 111 of the pixel chip 100-1 are connected to the circuit of the peripheral circuit chip 100-2 via a through via (VIA). The frame memory 190 shown in FIG. 4 may be provided in the output circuit 180 or a peripheral circuit, for example. The output circuit 180 functions as an output unit that outputs the focus pixel signal and the main line pixel signal read out as described above independently of each other.

上記のような構成とすることにより、チップサイズを小さくすることができ、コストを削減させることができる。また、配線層のスペースに余裕ができるので、配線の引き回しも容易になる。さらに、複数チップ化することにより、各チップをそれぞれ最適化することができる。例えば、画素チップにおいては、配線層による光学的な反射による量子効率の低下を防ぐためにより少ない配線層で低背化を実現し、周辺回路チップにおいては、配線間カップリング対策など最適化を可能にするために配線層の多層化を実現することができる。例えば、周辺回路チップの配線層を、画素チップの配線層よりも多層化することもできる。 With the above configuration, the chip size can be reduced and the cost can be reduced. Further, since the space of the wiring layer can be provided, the wiring can be easily routed. Further, by forming a plurality of chips, each chip can be optimized. For example, in pixel chips, the height can be reduced with fewer wiring layers to prevent deterioration of quantum efficiency due to optical reflection from the wiring layers, and in peripheral circuit chips, optimization such as inter-wiring coupling countermeasures is possible. Therefore, it is possible to realize a multilayer wiring layer. For example, the wiring layer of the peripheral circuit chip can be made more multilayer than the wiring layer of the pixel chip.

なお、裏面照射型のイメージセンサの場合、配線層による光学的な反射は生じないが、不要な配線層数の増大を抑制することにより、配線工程数の増大等を抑制し、コストの削減を実現することができる。 In the case of a back-illuminated image sensor, optical reflection does not occur due to the wiring layers, but by suppressing an increase in the number of unnecessary wiring layers, it is possible to suppress an increase in the number of wiring processes and reduce costs. Can be realized.

また、周辺回路チップエリアが、画素チップエリアと同等なチップ面積を有するため、トータルの積層チップの面積を増加させることなく周辺回路領域に複数のADCの搭載が可能になる。 Further, since the peripheral circuit chip area has a chip area equivalent to that of the pixel chip area, a plurality of ADCs can be mounted in the peripheral circuit area without increasing the total area of the laminated chips.

なお、本技術を適用した撮像制御装置(撮像装置)は、上述した構成に限らず、他の構成であってもよいことは言うまでもない。 Note that it goes without saying that the imaging control device (imaging device) to which the present technology is applied is not limited to the above-described configuration and may have another configuration.

以上のようにして、本実施形態に係るイメージセンサ100は、図示しない光学系素子を介した入射した光を光電変換し、各画素の画素値をA/D変換することで画素信号を生成し、生成した各画素信号を、図8に示すDATA1およびDATA2より読出す。そして、出力回路180は、例えば、DATA1及びDATA2のうち、いずれか(ここでは、DATA1とする)から出力される焦点画素信号を図4に示すストリームn1として画像処理LSI200に出力する。 As described above, the image sensor 100 according to the present embodiment photoelectrically converts the light incident through the optical system element (not shown) and A/D-converts the pixel value of each pixel to generate a pixel signal. The generated pixel signals are read from DATA1 and DATA2 shown in FIG. Then, the output circuit 180 outputs, for example, the focus pixel signal output from either DATA1 or DATA2 (here, DATA1) to the image processing LSI 200 as the stream n1 shown in FIG.

また、イメージセンサ100は、DATA2より読出された本線画素信号をフレームメモリ190に一時的に記録する。そして、イメージセンサ100は、フレームメモリ190に記録された本線画素信号を逐次読出し、出力回路180は、フレームメモリ190から読出された本線画素信号をストリームn2として画像処理LSI200に出力する。なお、フレームメモリ190への画素信号の入出力、及び出力回路180からの画素信号の出力に係る制御の主体は特に限定されない。例えば、前述した制御部101が当該制御を行ってもよいし、当該制御部101とは別に制御部が設けられてもよい。また、イメージセンサ100の外部(例えば画像処理LSI200など)に備えられた制御部からの制御に応じて、当該制御が行われてもよい。 Further, the image sensor 100 temporarily records the main line pixel signal read from DATA2 in the frame memory 190. Then, the image sensor 100 sequentially reads the main line pixel signals recorded in the frame memory 190, and the output circuit 180 outputs the main line pixel signals read from the frame memory 190 to the image processing LSI 200 as a stream n2. Note that the subject of control relating to input/output of pixel signals to/from the frame memory 190 and output of pixel signals from the output circuit 180 is not particularly limited. For example, the control unit 101 described above may perform the control, or a control unit may be provided separately from the control unit 101. Further, the control may be performed according to the control from the control unit provided outside the image sensor 100 (for example, the image processing LSI 200 or the like).

また、画素アレイ部111を構成する各画素で取得された画素信号を一時的に保持可能であれば、フレームメモリ190を設ける位置や、当該フレームメモリ190の数は特に限定されない。例えば、フレームメモリ190の数を複数設けることで、当該複数のフレームメモリ190それぞれに対する画素信号の入出力を並列して実行することが可能となる。そのため、フレームメモリ190への画素信号の入出力に係る速度に依存した処理速度の低下を緩和することが可能となる。 Further, the position where the frame memory 190 is provided and the number of the frame memories 190 are not particularly limited as long as the pixel signals acquired by the respective pixels forming the pixel array unit 111 can be temporarily held. For example, by providing a plurality of frame memories 190, it is possible to execute input/output of pixel signals to and from each of the plurality of frame memories 190 in parallel. Therefore, it is possible to mitigate the decrease in processing speed depending on the speed of inputting and outputting the pixel signal to and from the frame memory 190.

また、他の一例として、画素アレイ部111を構成する各画素の画素回路上に、当該画素で取得された画素信号を一時的に保持するためのキャッシュを設けてもよい。このような構成により、各画素とフレームメモリ190との間の画素信号の入出力に係る処理や、フレームメモリ190からの各画素信号の読出しに係る処理の実行タイミングを、より柔軟に制御することが可能となる。また、各画素回路から画素信号をフレームメモリ190に書き込むためのピン数が増加するため、当該画素回路と当該フレームメモリ190との間のバスの帯域をより広くすることも可能となる。 Further, as another example, a cache for temporarily holding a pixel signal acquired by the pixel may be provided on the pixel circuit of each pixel forming the pixel array unit 111. With such a configuration, it is possible to more flexibly control the execution timing of the processing related to the input/output of pixel signals between each pixel and the frame memory 190 and the processing related to the reading of each pixel signal from the frame memory 190. Is possible. Further, since the number of pins for writing the pixel signal from each pixel circuit to the frame memory 190 increases, it is possible to further widen the band of the bus between the pixel circuit and the frame memory 190.

<<3.動作例>
以上、図5〜9を参照しながら本実施形態に係る撮像装置1、及び撮像装置1が備えるイメージセンサ100の構成例について説明した。続いて、以下では本実施形態に係る撮像装置1の動作例として、1回の焦点調整のために焦点画素信号の読出しと出力が1回ずつ行われる例と、1回の焦点調整のために焦点画素信号の読出しと出力が複数回行われる例について図10、11を参照して順次説明する。
<<3. Operation example>
The configuration examples of the imaging device 1 according to the present embodiment and the image sensor 100 included in the imaging device 1 have been described above with reference to FIGS. Subsequently, hereinafter, as an operation example of the image pickup apparatus 1 according to the present embodiment, an example in which the focus pixel signal is read and output once for one focus adjustment, and one focus adjustment is performed. An example of reading and outputting the focus pixel signal a plurality of times will be sequentially described with reference to FIGS.

<3−1.動作例1>
図10は、本実施形態に係る撮像装置1において、1回の焦点調整のために焦点画素信号の読出しと出力が1回ずつ行われる動作例1を説明するための概略的なタイムチャートである。
<3-1. Operation example 1>
FIG. 10 is a schematic time chart for explaining an operation example 1 in which the focus pixel signal is read and output once for one focus adjustment in the image pickup apparatus 1 according to the present embodiment. ..

図10は、各画素での露光・読出し処理に係る画素制御と、出力回路180から画像処理LSI200への画素信号の伝送処理に係る出力制御と、画素信号に基づく焦点調整処理に係る位相差検波、AF演算、及びレンズ駆動制御と、の関係を示している。なお、画素制御1と出力制御1は画像生成に用いられる通常画素に係る画素制御と出力制御であり、画素制御2と出力制御2は、焦点調整に用いられる位相差画素に係る画素制御と出力制御である。また、図10において横軸は時間方向を示している。また、画素制御1、画素制御2、出力制御1、出力制御2における縦軸は、対象となる画素信号の出力元である画素の行方向の位置を示している。 FIG. 10 shows pixel control relating to exposure/readout processing in each pixel, output control relating to transmission processing of pixel signals from the output circuit 180 to the image processing LSI 200, and phase difference detection relating to focus adjustment processing based on the pixel signals. , AF calculation, and lens drive control are shown. Pixel control 1 and output control 1 are pixel control and output control related to normal pixels used for image generation, and pixel control 2 and output control 2 are pixel control and output related to phase difference pixels used for focus adjustment. Control. Also, in FIG. 10, the horizontal axis indicates the time direction. Further, the vertical axis in the pixel control 1, the pixel control 2, the output control 1, and the output control 2 indicates the position in the row direction of the pixel that is the output source of the target pixel signal.

図10に示す期間T11は、本実施形態に係るイメージセンサ100における撮影間隔を示している。期間T12は、本実施形態に係る通常画素の露光時間を、期間T13は本実施形態に係る位相差画素の露光時間を示している。本実施形態において、通常画素の露光時間である期間T12と位相差画素の露光時間である期間T13は異なってもよい。例えば、制御部101は、露光制御部としての機能を発揮し、位相差画素(焦点検出画素)の露光時間である期間T13が、通常画素の露光時間である期間T12よりも長くなるように、位相差画素の露光と通常画素の露光を制御してもよい。かかる構成によれば、前述したように、暗い領域でのAF精度が向上するという効果がある。 A period T11 shown in FIG. 10 indicates a shooting interval in the image sensor 100 according to this embodiment. A period T12 shows the exposure time of the normal pixel according to this embodiment, and a period T13 shows the exposure time of the phase difference pixel according to this embodiment. In the present embodiment, the period T12 which is the exposure time of the normal pixel and the period T13 which is the exposure time of the phase difference pixel may be different. For example, the control unit 101 exerts a function as an exposure control unit so that the period T13, which is the exposure time of the phase difference pixel (focus detection pixel), is longer than the period T12, which is the exposure time of the normal pixel, The exposure of the phase difference pixel and the exposure of the normal pixel may be controlled. According to this configuration, as described above, there is an effect that the AF accuracy in the dark area is improved.

また、参照符号d210〜d212は、露光期間d110〜d112のそれぞれにおいて、イメージセンサ100が通常画素から読出してフレームメモリ190に記録した本線画素信号を、出力回路180が出力する出力処理を示している。また、参照符号d221、d222は、露光期間d121、d122のそれぞれにおいて、イメージセンサ100が位相差画素から読出した焦点画素信号を、出力回路180が出力する出力処理を示している。なお、出力処理d210〜d212では、出力回路180は本線画素信号を図4に示すストリームn2として出力し、出力処理d221、d222では、出力回路180は焦点画素信号を図4に示すストリームn1として出力する。 Further, reference numerals d210 to d212 indicate an output process in which the output circuit 180 outputs the main line pixel signal read from the normal pixel by the image sensor 100 and recorded in the frame memory 190 in each of the exposure periods d110 to d112. .. Further, reference numerals d221 and d222 indicate output processing in which the output circuit 180 outputs the focus pixel signal read from the phase difference pixel by the image sensor 100 in each of the exposure periods d121 and d122. Note that in the output processing d210 to d212, the output circuit 180 outputs the main line pixel signal as the stream n2 shown in FIG. 4, and in the output processing d221 and d222, the output circuit 180 outputs the focus pixel signal as the stream n1 shown in FIG. To do.

また、参照符号d311,d312は、出力処理d221、d222において焦点画素信号が入力された(出力回路180の出力を受け取った)画像処理部210が被写体距離を測定(測距)する位相差検波処理を示している。また、参照符号d321、d322は、位相差検波処理d221,d222において測定された被写体距離と、露光期間d121、d122におけるレンズ位置と、に基づいて駆動制御部12がレンズ駆動量を算出するAF演算処理を示している。また、参照符号d331、d332は、AF演算処理d321、d322において算出されたレンズ駆動量に基づいて、駆動制御部12がレンズ駆動指示を行ってからレンズ駆動が完了するまでのレンズ駆動処理を示している。なお、以下では、位相差検波処理、AF演算処理、及びレンズ駆動処理、を合わせてAFに係る一連の処理と呼ぶ場合がある。 Reference numerals d311 and d312 are phase difference detection processing in which the image processing unit 210 to which the focus pixel signal is input in the output processing d221 and d222 (receives the output of the output circuit 180) measures (distances) the subject distance. Is shown. Reference numerals d321 and d322 are AF calculations in which the drive control unit 12 calculates the lens drive amount based on the subject distance measured in the phase difference detection processing d221 and d222 and the lens position in the exposure periods d121 and d122. The process is shown. Further, reference numerals d331 and d332 represent lens drive processing from the drive control unit 12 issuing a lens drive instruction to the completion of lens drive based on the lens drive amount calculated in the AF calculation processing d321 and d322. ing. In the following, the phase difference detection process, the AF calculation process, and the lens drive process may be collectively referred to as a series of AF-related processes.

図10に示すように、露光期間d110〜d112における通常画素の露光と本線画素信号の読出し(フレームメモリ190への記録)終了後に、フレームメモリ190から読出された本線画素信号の出力処理d210〜d212が行われる。一方、露光期間d121、d122における位相差画素の露光と焦点画素信号の読出し終了後に、読出された焦点画素信号の出力処理d221、d222が行われる。 As shown in FIG. 10, after the normal pixels are exposed and the main line pixel signals are read (recorded in the frame memory 190) in the exposure periods d110 to d112, the output process d210 to d212 of the main line pixel signals read from the frame memory 190. Is done. On the other hand, after the exposure of the phase difference pixels and the reading of the focus pixel signal in the exposure periods d121 and d122, the output processing d221 and d222 of the read focus pixel signal is performed.

ここで、本実施形態においては、通常画素の数に比べ、焦点調整に用いられる位相差画素の数は少なく、また、焦点画素信号はフレームメモリ190を経由せずに出力されるため、出力処理d221、d222の方が出力処理d210〜d212に比べて処理時間が小さい。したがって、例えば、位相差画素のA/D変換(読出し)と出力処理d221の直後に、通常画素のA/D変換とフレームメモリ190への記録が行われることで、レンズ駆動処理d331が通常画素の入出力中(出力処理d211)に完了する。すなわち、AFに係る一連の処理d311、d321、d331を通常画素の露光期間d112の開始までに完了することが可能である。したがって、図10に示す本動作例において、測距のための露光開始から、オートフォーカスが反映されるまでに必要な時間(レイテンシ)は、撮影間隔T11と位相差画素の露光期間d121の合計以下である。位相差画素の露光期間d121は、撮影間隔に比べて小さいため、図3を参照して説明した比較例と比べ、本動作例はオートフォーカスにかかるレイテンシを小さくすることが可能である。 Here, in the present embodiment, the number of phase difference pixels used for focus adjustment is smaller than the number of normal pixels, and the focus pixel signal is output without passing through the frame memory 190. The processing time of d221 and d222 is shorter than that of the output processing d210 to d212. Therefore, for example, immediately after the A/D conversion (reading) and output processing d221 of the phase difference pixel, the A/D conversion of the normal pixel and the recording in the frame memory 190 are performed, so that the lens drive processing d331 is performed by the normal pixel. Is completed during the input/output of (output processing d211). That is, it is possible to complete the series of AF-related processing d311, d321, and d331 by the start of the exposure period d112 of the normal pixel. Therefore, in the operation example shown in FIG. 10, the time (latency) required from the start of exposure for distance measurement to the reflection of autofocus is less than or equal to the total of the shooting interval T11 and the exposure period d121 of the phase difference pixel. Is. Since the exposure period d121 of the phase difference pixel is shorter than the shooting interval, this operation example can reduce the latency required for autofocusing as compared with the comparative example described with reference to FIG.

なお、図10の例では、レンズ駆動処理d331が位相差画素の露光期間d122の開始までに完了する例を示しているが、本動作例はかかる例に限定されない。例えば、レンズ駆動処理d331が位相差画素の露光期間d122の開始までに完了していなかった場合、露光期間d122におけるレンズの平均位置や中央位置等が代表的なレンズ位置として用いられて、AF演算処理d322が行われてもよい。 Although the example of FIG. 10 illustrates an example in which the lens driving process d331 is completed by the start of the exposure period d122 of the phase difference pixel, the present operation example is not limited to this example. For example, when the lens driving process d331 is not completed by the start of the exposure period d122 of the phase difference pixel, the average position and the center position of the lens in the exposure period d122 are used as the representative lens position, and the AF calculation is performed. The process d322 may be performed.

<3−2.動作例2>
以上、本実施形態に係る撮像装置1の動作例として、1回の焦点調整のために焦点画素信号の読出しと出力が1回ずつ行われる動作例1について図10を参照して説明した。続いて、1回の焦点調整のために焦点画素信号の読出しと出力が複数回行われる動作例2図11を参照して説明する。図11は、本実施形態に係る撮像装置1において、1回の焦点調整のために焦点画素信号の読出しと出力が複数回行われる動作例2を説明するための概略的なタイムチャートである。
<3-2. Operation example 2>
As above, as the operation example of the image pickup apparatus 1 according to the present embodiment, the operation example 1 in which the focus pixel signal is read and output once for the focus adjustment once is described with reference to FIG. 10. Next, an operation example 2 in which the readout and output of the focus pixel signal are performed a plurality of times for one focus adjustment will be described with reference to FIG. 11. FIG. 11 is a schematic time chart for explaining an operation example 2 in which the focus pixel signal is read and output a plurality of times for one focus adjustment in the image pickup apparatus 1 according to the present embodiment.

図11は、各画素での露光・読出し処理に係る画素制御と、出力回路180から画像処理LSI200への画素信号の伝送処理に係る出力制御と、画素信号に基づく焦点調整処理に係る位相差検波、AF演算、及びレンズ駆動制御と、の関係を示している。なお、図10と同様、図11における画素制御1と出力制御1は画像生成に用いられる通常画素に係る画素制御と出力制御であり、画素制御2と出力制御2は、焦点調整に用いられる位相差画素に係る画素制御と出力制御である。また、図10と同様、図11において横軸は時間方向を示している。また、図10と同様、図11において、画素制御1、画素制御2、出力制御1、出力制御2における縦軸は、対象となる画素信号の出力元である画素の行方向の位置を示している。 FIG. 11 shows pixel control related to exposure/readout processing in each pixel, output control related to transmission processing of pixel signals from the output circuit 180 to the image processing LSI 200, and phase difference detection related to focus adjustment processing based on the pixel signals. , AF calculation, and lens drive control are shown. Note that, similar to FIG. 10, the pixel control 1 and the output control 1 in FIG. 11 are the pixel control and the output control related to the normal pixels used for image generation, and the pixel control 2 and the output control 2 are the positions used for the focus adjustment. These are pixel control and output control related to the phase difference pixel. Further, as in FIG. 10, the horizontal axis in FIG. 11 indicates the time direction. Further, as in FIG. 10, in FIG. 11, the vertical axis in the pixel control 1, the pixel control 2, the output control 1, and the output control 2 indicates the position in the row direction of the pixel that is the output source of the target pixel signal. There is.

図11に示す参照符号T21及びT22は、本実施形態に係るイメージセンサ100における垂直同期信号の一例を示している。また、参照符号t1、t2は、撮影処理が開始される時刻であり、期間T21は時刻t1からt2までの撮影間隔(通常画素の露光が行われる間隔)である。例えば、撮影間隔である期間T21は約1/20[s]であり、対応するフレームレートは約20[fps]である。また、期間T22は約1/120[s]であり、対応するフレームレートは約120[fps]である。 Reference numerals T21 and T22 shown in FIG. 11 represent an example of a vertical synchronization signal in the image sensor 100 according to the present embodiment. Further, reference signs t1 and t2 are times at which the shooting process is started, and a period T21 is a shooting interval from time t1 to t2 (an interval at which normal pixels are exposed). For example, the period T21, which is the shooting interval, is about 1/20 [s], and the corresponding frame rate is about 20 [fps]. The period T22 is about 1/120 [s], and the corresponding frame rate is about 120 [fps].

また、図11に示す参照符号d151、d152は、図10を参照して説明した露光期間d111、d112と同様である。また、参照符号d250〜d252は、図10を参照して説明した出力処理d210〜d212と同様である。なお、出力処理d210は、露光期間d111より以前に行われた通常画素の露光・読出しに対応する出力処理を示している。 Reference numerals d151 and d152 shown in FIG. 11 are the same as the exposure periods d111 and d112 described with reference to FIG. Reference numerals d250 to d252 are the same as the output processes d210 to d212 described with reference to FIG. The output process d210 shows the output process corresponding to the exposure/readout of the normal pixels performed before the exposure period d111.

また、図11に示す参照符号d161〜d165は、図10を参照して説明した露光期間d121、d122と同様であるが、図11に示す例では、1回の焦点調整のために複数回の露光と読出し(露光期間)が複数回行われる。また、参照符号d261〜d265は、図10を参照して説明した出力処理d221、d222と同様であるが、図11に示す例では、1回の焦点調整のために複数回の出力処理が行われる。 Reference numerals d161 to d165 shown in FIG. 11 are the same as the exposure periods d121 and d122 described with reference to FIG. 10, but in the example shown in FIG. 11, a plurality of times are used for one focus adjustment. Exposure and reading (exposure period) are performed multiple times. Reference numerals d261 to d265 are similar to the output processes d221 and d222 described with reference to FIG. 10, but in the example shown in FIG. 11, a plurality of output processes are performed for one focus adjustment. Be seen.

また、図11に示す参照符号d351〜d355は、図10を参照して説明した位相差検波処理d311、d312と同様であるが、図11に示す例では、露光期間d161〜d165に対応して、1回の焦点調整のために複数回の位相差検波処理が行われる。同様に、参照符号d361〜d365は、図10を参照して説明したAF演算処理d321、d322と同様であるが、図11に示す例では、1回の焦点調整のために複数回のAF演算処理が行われる。 Reference numerals d351 to d355 shown in FIG. 11 are similar to the phase difference detection processing d311 and d312 described with reference to FIG. 10, but in the example shown in FIG. 11, they correspond to the exposure periods d161 to d165. Phase difference detection processing is performed a plurality of times for one focus adjustment. Similarly, reference numerals d361 to d365 are similar to the AF calculation processes d321 and d322 described with reference to FIG. 10, but in the example shown in FIG. 11, a plurality of AF calculations are performed for one focus adjustment. Processing is performed.

また、図11に示す参照符号d371、d372は、図10を参照して説明したレンズ駆動処理d331と同様である。ただし、図11に示す例では、1回のレンズ駆動処理(例えばレンズ駆動処理d371)に対し、AF演算処理d361〜d364による4回分のAF演算の結果が入力される。本動作例では、駆動制御部12は、レンズ駆動中であっても、AF演算処理を行う度に、最新のAF演算結果を用いてレンズ駆動指示を行うことで、より高精度にレンズ駆動制御を行うことが可能となる。その結果、オートフォーカスの精度が向上する。 Further, reference numerals d371 and d372 shown in FIG. 11 are similar to the lens driving process d331 described with reference to FIG. However, in the example shown in FIG. 11, the result of four AF calculations by the AF calculation processes d361 to d364 is input for one lens drive process (for example, the lens drive process d371). In this operation example, the drive control unit 12 gives a lens drive instruction using the latest AF calculation result every time the AF calculation process is performed even during the lens drive, so that the lens drive control can be performed with higher accuracy. Will be possible. As a result, the accuracy of autofocus is improved.

また、図11に示すレンズ駆動処理d371に係る焦点調整に着目すると、AF演算処理d364から、レンズ駆動処理d371が完了するまでの時間は、図10に示すAF演算処理d321からレンズ駆動処理d331が完了するまでの時間よりも小さい。これは、図11の例において、AF演算処理d364の結果を用いてレンズ駆動する場合、直前のAF演算処理であるAF演算処理d363の結果が既にレンズ駆動処理に入力・反映されているため、必要なレンズ駆動量が小さくなりやすいためである。ここで、測距のための露光期間d164の開始から、オートフォーカスが反映された露光期間d152の開始時間までを、オートフォーカスにかかるレイテンシと捉えることが可能である。したがって、本動作例は、よりオートフォーカスにかかるレイテンシを小さくすることが可能である。 Focusing on the focus adjustment related to the lens driving process d371 shown in FIG. 11, the time from the AF calculating process d364 to the completion of the lens driving process d371 is from the AF calculating process d321 to the lens driving process d331 shown in FIG. Less than time to complete. This is because, in the example of FIG. 11, when the lens is driven using the result of the AF calculation process d364, the result of the AF calculation process d363, which is the immediately preceding AF calculation process, is already input and reflected in the lens drive process. This is because the required lens drive amount tends to be small. Here, from the start of the exposure period d164 for distance measurement to the start time of the exposure period d152 in which autofocus is reflected, it can be considered as the latency for autofocus. Therefore, in this operation example, it is possible to further reduce the latency required for autofocus.

上記のように、図11に示す本動作例では、本線画素信号が一回出力される期間中に、焦点画素信号が複数回出力される。本実施形態に係るイメージセンサ100がフレームメモリ190を備え、フレームメモリ190が本線画素信号を記録可能であるため、上記のように、フレームメモリ190から読出された本線画素信号の入出力中に位相差画素の露光処理や出力処理が可能となる。したがって、1回の焦点調整のために、複数回の焦点画素信号の出力処理、位相差検波処理、AF演算処理が可能となり、オートフォーカスに係るレイテンシを小さくすることが可能であると共に、オートフォーカスの精度が向上する。 As described above, in the present operation example shown in FIG. 11, the focus pixel signal is output multiple times during the period in which the main line pixel signal is output once. Since the image sensor 100 according to the present embodiment includes the frame memory 190 and the frame memory 190 can record the main pixel signal, the main pixel signal read from the frame memory 190 is input or output during the input/output as described above. It is possible to perform exposure processing and output processing of the phase difference pixels. Therefore, the focus pixel signal output process, the phase difference detection process, and the AF calculation process can be performed a plurality of times for one focus adjustment, and it is possible to reduce the latency related to the autofocus and to perform the autofocus. The accuracy of is improved.

なお、図11に示すように露光期間d162、d163、d164とレンズ駆動処理d371の期間が重複するため、前述したように、各露光期間における代表的なレンズ位置が用いられて、AF演算処理d362、d363、d364が行われてもよい。 Since the exposure periods d162, d163, d164 and the lens driving process d371 overlap as shown in FIG. 11, a representative lens position in each exposure period is used as described above, and the AF calculation process d362 is performed. , D363, d364 may be performed.

<<4.変形例>>
以上、本開示の一実施形態を説明した。以下では、本実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本実施形態に適用されてもよいし、組み合わせで本実施形態に適用されてもよい。また、各変形例は、本実施形態で説明した構成に代えて適用されてもよいし、本実施形態で説明した構成に対して追加的に適用されてもよい。
<<4. Modification>>
The embodiment of the present disclosure has been described above. Hereinafter, some modified examples of the present embodiment will be described. It should be noted that each of the modified examples described below may be applied to this embodiment alone, or may be applied to this embodiment in combination. Moreover, each modification may be applied instead of the configuration described in the present embodiment, or may be additionally applied to the configuration described in the present embodiment.

<4−1.変形例1>
上記実施形態では、焦点調整に用いられる焦点検出画素が、位相差方式により焦点調整を行うための位相差画素である例を説明したが、本技術は上記の例に限定されない。例えば、焦点検出画素は、画像のコントラストが高くなるレンズ位置を合焦位置とするコントラスト方式により焦点調整を行うための画素であってもよい。焦点調整として、コントラスト方式が用いられる場合、焦点検出画素は、画像生成にも利用可能な通常画素であってもよい。この場合、後述する変形例2と同様に、通常画素の一部の画素、または一部のラインが、上記以外の画素とは独立して制御されてもよい。また、焦点調整方式として、上記の位相差方式とコントラスト方式の2つの方式を組み合わせたハイブリッド方式が用いられる場合であっても、本技術は適用可能である。
<4-1. Modification 1>
In the above embodiment, the focus detection pixel used for focus adjustment has been described as an example in which the focus detection pixel is a phase difference pixel for performing focus adjustment by the phase difference method, but the present technology is not limited to the above example. For example, the focus detection pixel may be a pixel for performing focus adjustment by a contrast method in which a lens position where the contrast of an image becomes high is a focus position. When the contrast method is used for focus adjustment, the focus detection pixel may be a normal pixel that can also be used for image generation. In this case, as in Modification 2 described below, some pixels or some lines of the normal pixels may be controlled independently of the pixels other than the above. Further, the present technology can be applied even when a hybrid method in which the above two methods of the phase difference method and the contrast method are combined is used as the focus adjustment method.

<4−2.変形例2>
上記実施形態では、制御部が、画素アレイ部に予め配置された焦点検出画素からの焦点画素信号の読出しと、画像生成用の通常画素からの本線画素信号の読出しとが、独立して行われるように画素を制御する例を説明したが本技術は上記に限定されない。本技術では、任意の画素が独立して(先行して)読出されてもよい。
<4-2. Modification 2>
In the above-described embodiment, the control unit independently reads out the focus pixel signal from the focus detection pixel previously arranged in the pixel array unit and reads out the main line pixel signal from the normal pixel for image generation. Although the example of controlling the pixels has been described above, the present technology is not limited to the above. In the present technology, any pixel may be read out independently (prior to).

例えば、先行して読出される画素は焦点検出画素に限定されず、通常画素のうち、一部の画素、または一部のラインからの読出しと出力が先行して行われ、上記以外の画素がフレームメモリに記録された後に読出されて出力されるよう制御することも可能である。上記制御を行うことで、例えば、一部の画素から先行して出力される画素信号に基づいて、画像処理LSIが画像の解析を行ったり、表示部が低解像度のプレビュー画像(所謂スルー画)を表示したりしてもよい。かかる構成によれば、全ての画素を読出してから画像の解析やプレビュー画像の表示を行う場合に比べて、撮影から解析や表示の処理が行われるまでの時間を短縮することが可能である。 For example, the pixels read out in advance are not limited to focus detection pixels, and among the normal pixels, reading out and outputting from some pixels or some lines are performed in advance, and pixels other than the above are It is also possible to control such that the data is recorded in the frame memory and then read and output. By performing the above control, for example, the image processing LSI analyzes the image based on the pixel signals output from some pixels in advance, or the display unit displays a low-resolution preview image (so-called through image). May be displayed. With such a configuration, it is possible to shorten the time from the photographing to the analysis and display processing, as compared with the case where the image analysis and the preview image display are performed after all the pixels are read out.

また、任意の画素を独立して読出し可能であるため、先行して読み出される画素が、焦点調整に用いられる焦点検出画素である場合において、焦点検出画素の配置は、予め定められている必要はない。例えば、焦点検出画素は、画像処理に基づいて特定されてもよい。この場合、制御部は画像処理に基づいて特定される焦点検出画素からの焦点画素信号の読出しと、本線画素信号の読出しとが、独立して行われるよう画素を制御する。また、画像処理は、例えば、画像処理LSIが備える画像処理部によって行われ、画像処理結果を受け取ったイメージセンサが焦点検出画素を特定してもよい。かかる構成によれば、画像処理に基づいて特定される、必要な焦点検出画素のみ先行して読出し・出力を行えばよいため、焦点画素信号の読出しと出力に係る処理時間をより短縮することが可能な場合がある。また、かかる構成によれば、ユーザの目的に応じた画像処理の結果に基づいて焦点検出画素を特定することで、撮像装置による撮影範囲の内、ユーザの望む領域に合焦した状態で撮影を行うことが可能である。 Further, since any pixel can be independently read out, when the pixel read out in advance is the focus detection pixel used for focus adjustment, the arrangement of the focus detection pixels need not be predetermined. Absent. For example, the focus detection pixel may be identified based on image processing. In this case, the control unit controls the pixels such that the reading of the focus pixel signal from the focus detection pixel specified based on the image processing and the reading of the main line pixel signal are performed independently. The image processing may be performed by, for example, an image processing unit included in the image processing LSI, and the image sensor that receives the image processing result may specify the focus detection pixel. According to such a configuration, only the necessary focus detection pixels specified based on the image processing need to be read and output in advance, so that the processing time for reading and outputting the focus pixel signals can be further shortened. May be possible. Further, according to this configuration, the focus detection pixel is specified based on the result of the image processing according to the purpose of the user, so that the image is captured in a state in which the user wants to focus on the area desired by the image capturing apparatus. It is possible to do.

例えば、上記の画像処理は、被写体追跡処理を含み、上記の画像処理に基づいて特定される焦点検出画素は、被写体追跡処理により特定される被写体領域(焦点調整用の検波枠)に対応する画素であってもよい。かかる構成によれば、撮像装置による撮影範囲の内、特定の被写体に合焦した状態で撮影を行うことが可能である。 For example, the image processing described above includes a subject tracking processing, and the focus detection pixel specified based on the image processing described above is a pixel corresponding to the object region (detection frame for focus adjustment) specified by the object tracking processing. May be With this configuration, it is possible to perform shooting while focusing on a specific subject within the shooting range of the imaging device.

例えば、上記の画像処理は、物体検出処理を含み、上記の画像処理に基づいて特定される焦点検出画素は、物体検出処理により特定される物体領域(焦点調整用の検波枠)に対応する画素であってもよい。検出される物体としては、例えば人物、顔、車、などであってもよい。かかる構成によれば、撮像装置による撮影範囲の内、特定の物体に合焦した状態で撮影を行うことが可能である。 For example, the above image processing includes object detection processing, and the focus detection pixel specified based on the above image processing is a pixel corresponding to the object region (detection frame for focus adjustment) specified by the object detection processing. May be The detected object may be, for example, a person, a face, a car, or the like. With such a configuration, it is possible to perform shooting while focusing on a specific object within the shooting range of the imaging device.

<<5.むすび>>
以上説明したように、本開示の実施形態によれば、焦点調整に用いられる焦点検出画素からの焦点画素信号を、通常画素からの本線画素信号に対して先行して読出し、出力することで、オートフォーカスにかかるレイテンシを小さくすることが可能である。また、本実施形態に係るイメージセンサは、フレームメモリを備えることで、本線画素信号を一回出力する期間に、焦点画素信号を複数回出力することが可能であり、オートフォーカスに係る精度を高めると共に、レイテンシをさらに小さくすることが可能である。
<<5. Conclusion >>
As described above, according to the embodiment of the present disclosure, by reading and outputting the focus pixel signal from the focus detection pixel used for focus adjustment in advance of the main line pixel signal from the normal pixel, It is possible to reduce the latency required for autofocus. Further, the image sensor according to the present embodiment is provided with the frame memory, so that it is possible to output the focus pixel signal a plurality of times during the period in which the main line pixel signal is output once, thereby improving the accuracy of autofocus. At the same time, it is possible to further reduce the latency.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present disclosure have been described above in detail with reference to the accompanying drawings, the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. It is understood that the above also naturally belongs to the technical scope of the present disclosure.

例えば、上記実施形態では、撮像装置が電子的に各画素の露光期間を制御する例を説明したが、本技術はかかる例に限定されない。例えば、機械式の先幕及び後幕を用いた所謂フォーカルプレーンシャッターを備え、先幕と後幕の移動により各画素の露光期間を制御する撮像装置に本技術が適用されてもよい。 For example, in the above embodiment, an example has been described in which the imaging device electronically controls the exposure period of each pixel, but the present technology is not limited to such an example. For example, the present technology may be applied to an imaging device that includes a so-called focal plane shutter that uses a mechanical front curtain and a rear curtain, and that controls the exposure period of each pixel by moving the front curtain and the rear curtain.

また、上記実施形態では、通常画素の画素制御(露光と読出しが行われる露光期間)の直前に位相差画素の画素制御が行われる例を説明したが、本技術はかかる例に限定されない。例えば、図10の例において、通常画素の画素制御(露光期間d111)の直前に位相差画素の画素制御(露光期間d121)が行われているが、通常画素の画素制御の後に位相差画素の画素制御が行われてもよい。特に、通常画素の画素制御の後に行われる位相差画素の画素制御に基づくレンズ駆動処理を、当該通常画素の画素制御の次に行われる通常画素の画素制御以前に完了することが可能な場合、オートフォーカスにかかるレイテンシが、より小さくなり得る。 In the above embodiment, the example in which the pixel control of the phase difference pixel is performed immediately before the pixel control of the normal pixel (the exposure period in which the exposure and the reading are performed) has been described, but the present technology is not limited to such an example. For example, in the example of FIG. 10, the pixel control of the phase difference pixel (exposure period d121) is performed immediately before the pixel control of the normal pixel (exposure period d111), but the pixel control of the phase difference pixel is performed after the pixel control of the normal pixel. Pixel control may be performed. In particular, when the lens drive processing based on the pixel control of the phase difference pixel performed after the pixel control of the normal pixel can be completed before the pixel control of the normal pixel performed next to the pixel control of the normal pixel, The latency associated with autofocus can be smaller.

また、上記実施形態の動作例における各処理は、必ずしもタイムチャート図として記載された順序に沿って時系列に処理する必要はない。例えば、上記実施形態の動作例における各処理は、タイムチャート図として記載した順序と異なる順序で処理されても、並列的に処理されてもよい。 Further, each processing in the operation example of the above embodiment does not necessarily have to be processed in time series in the order described as the time chart. For example, each processing in the operation example of the above-described embodiment may be processed in an order different from the order described as the time chart or may be processed in parallel.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Further, the effects described in the present specification are merely illustrative or exemplary, and are not limitative. That is, the technique according to the present disclosure may have other effects that are apparent to those skilled in the art from the description of the present specification, in addition to or instead of the above effects.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)
画像生成に用いられる通常画素と焦点調整に用いられる焦点検出画素を含む画素アレイと、
前記通常画素から読み出された本線画素信号が記録されるフレームメモリと、
前記フレームメモリに記録された前記本線画素信号と、前記焦点検出画素から読み出された焦点画素信号と、が独立して入力される入力部と、
前記本線画素信号の入力中に、前記焦点画素信号に基づくフォーカスレンズの駆動指示を行うレンズ駆動指示部と、
を備える撮像装置。
(2)
前記焦点画素信号は、前記本線画素信号が一回出力される期間中に、複数回出力される、(1)に記載の撮像装置。
(3)
前記フレームメモリに記録された前記本線画素信号を出力する出力部をさらに備える、(1)または(2)に記載の撮像装置。
(4)
前記焦点検出画素の露光と前記画像生成に用いられる画素の露光をそれぞれ制御する露光制御部をさらに備える、(1)〜(3)のいずれか一項に記載の撮像装置。
(5)
前記露光制御部は、前記焦点検出画素の露光時間と前記画像生成に用いられる画素の露光時間とが異なるように、前記焦点検出画素の露光と前記画像生成に用いられる画素の露光を制御する、(4)に記載の撮像装置。
(6)
前記露光制御部は、前記焦点検出画素の露光時間が前記画像生成に用いられる画素の露光時間より長くなるように、前記焦点検出画素の露光と前記画像生成に用いられる画素の露光を制御する、(5)に記載の撮像装置。
(7)
画像処理に基づいて特定される前記焦点検出画素からの前記焦点画素信号の読出しと、前記本線画素信号の読出しとが、独立して行われるよう画素を制御する制御部をさらに備える、(1)〜(6)のいずれか一項に記載の撮像装置。
(8)
前記画像処理は、被写体追跡処理を含み、前記画像処理に基づいて特定される前記焦点検出画素は、前記被写体追跡処理により特定される被写体領域に対応する画素である、(7)に記載の撮像装置。
(9)
前記画像処理は、物体検出処理を含み、前記画像処理に基づいて特定される前記焦点検出画素は、前記物体検出処理により特定される物体領域に対応する画素である、(7)または(8)に記載の撮像装置。
(10)
前記焦点検出画素は、位相差方式により焦点調整を行うための画素である、(1)〜(9)のいずれか一項に記載の撮像装置。
(11)
前記制御部は1つの画素から2以上の同一の画素信号の読出しが行われるよう制御する(7)に記載の撮像装置。
(12)
画像生成に用いられる通常画素と焦点調整に用いられる焦点検出画素を含む画素アレイを有する撮像装置が実行する撮像方法であって、
前記通常画素から読み出された本線画素信号がフレームメモリに記録されることと、
前記フレームメモリに記録された前記本線画素信号と、前記焦点検出画素から読み出された焦点画素信号と、が独立して入力されることと、
前記本線画素信号の入力中に、前記焦点画素信号に基づくフォーカスレンズの駆動指示を行うことと、
を含む、撮像方法。
The following configurations also belong to the technical scope of the present disclosure.
(1)
A pixel array including normal pixels used for image generation and focus detection pixels used for focus adjustment;
A frame memory in which main line pixel signals read from the normal pixels are recorded,
An input unit into which the main line pixel signal recorded in the frame memory and the focus pixel signal read from the focus detection pixel are independently input;
A lens drive instructing unit for instructing drive of the focus lens based on the focus pixel signal during input of the main line pixel signal,
An imaging device including.
(2)
The imaging device according to (1), wherein the focus pixel signal is output a plurality of times during a period in which the main line pixel signal is output once.
(3)
The imaging device according to (1) or (2), further including an output unit that outputs the main line pixel signal recorded in the frame memory.
(4)
The imaging device according to any one of (1) to (3), further including an exposure controller that controls exposure of the focus detection pixels and exposure of pixels used for the image generation.
(5)
The exposure control unit controls the exposure of the focus detection pixels and the exposure of the pixels used for the image generation so that the exposure time of the focus detection pixels and the exposure time of the pixels used for the image generation are different. The imaging device according to (4).
(6)
The exposure control unit controls the exposure of the focus detection pixel and the exposure of the pixel used for the image generation such that the exposure time of the focus detection pixel is longer than the exposure time of the pixel used for the image generation. The imaging device according to (5).
(7)
(1) further comprising a control unit that controls the pixels so that reading of the focus pixel signal from the focus detection pixel specified based on image processing and reading of the main line pixel signal are performed independently. The imaging device according to any one of (6) to (6).
(8)
The imaging according to (7), wherein the image processing includes a subject tracking process, and the focus detection pixel specified based on the image processing is a pixel corresponding to a subject region specified by the subject tracking process. apparatus.
(9)
The image processing includes object detection processing, and the focus detection pixel specified based on the image processing is a pixel corresponding to the object region specified by the object detection processing, (7) or (8) The imaging device according to.
(10)
The imaging device according to any one of (1) to (9), wherein the focus detection pixel is a pixel for performing focus adjustment by a phase difference method.
(11)
The image pickup device according to (7), wherein the control unit controls so that two or more identical pixel signals are read from one pixel.
(12)
An imaging method executed by an imaging device having a pixel array including a normal pixel used for image generation and a focus detection pixel used for focus adjustment,
Main line pixel signals read from the normal pixels are recorded in a frame memory,
The main line pixel signal recorded in the frame memory and the focus pixel signal read from the focus detection pixel are independently input;
Performing a focus lens drive instruction based on the focus pixel signal during input of the main line pixel signal,
An imaging method including:.

1 撮像装置
11 フォーカスレンズ
12 駆動制御部
13 操作部
14 コーデック処理部
15 記録部
16 表示部
100 イメージセンサ
100−1 画素チップ
100−2 周辺回路チップ
101 制御部
111 画素アレイ部
180 出力回路
190 フレームメモリ
210 画像処理部
DESCRIPTION OF SYMBOLS 1 Imaging device 11 Focus lens 12 Drive control part 13 Operation part 14 Codec processing part 15 Recording part 16 Display part 100 Image sensor 100-1 Pixel chip 100-2 Peripheral circuit chip 101 Control part 111 Pixel array part 180 Output circuit 190 Frame memory 210 Image processing unit

Claims (12)

画像生成に用いられる通常画素と焦点調整に用いられる焦点検出画素を含む画素アレイと、
前記通常画素から読み出された本線画素信号が記録されるフレームメモリと、
前記フレームメモリに記録された前記本線画素信号と、前記焦点検出画素から読み出された焦点画素信号と、が独立して入力される入力部と、
前記本線画素信号の入力中に、前記焦点画素信号に基づくフォーカスレンズの駆動指示を行うレンズ駆動指示部と、
を備える撮像装置。
A pixel array including normal pixels used for image generation and focus detection pixels used for focus adjustment;
A frame memory in which main line pixel signals read from the normal pixels are recorded,
An input unit into which the main line pixel signal recorded in the frame memory and the focus pixel signal read from the focus detection pixel are independently input;
A lens drive instructing unit for instructing drive of the focus lens based on the focus pixel signal during input of the main line pixel signal,
An imaging device including.
前記焦点画素信号は、前記本線画素信号が一回出力される期間中に、複数回出力される、請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the focus pixel signal is output a plurality of times during a period in which the main line pixel signal is output once. 前記フレームメモリに記録された前記本線画素信号を出力する出力部をさらに備える、請求項1または2に記載の撮像装置。 The image pickup apparatus according to claim 1, further comprising an output unit that outputs the main line pixel signal recorded in the frame memory. 前記焦点検出画素の露光と前記画像生成に用いられる画素の露光をそれぞれ制御する露光制御部をさらに備える、請求項1〜3のいずれか一項に記載の撮像装置。 The image pickup apparatus according to claim 1, further comprising an exposure control unit that controls exposure of the focus detection pixels and exposure of pixels used for the image generation. 前記露光制御部は、前記焦点検出画素の露光時間と前記画像生成に用いられる画素の露光時間とが異なるように、前記焦点検出画素の露光と前記画像生成に用いられる画素の露光を制御する、請求項4に記載の撮像装置。 The exposure control unit controls the exposure of the focus detection pixels and the exposure of the pixels used for the image generation so that the exposure time of the focus detection pixels and the exposure time of the pixels used for the image generation are different. The image pickup apparatus according to claim 4. 前記露光制御部は、前記焦点検出画素の露光時間が前記画像生成に用いられる画素の露光時間より長くなるように、前記焦点検出画素の露光と前記画像生成に用いられる画素の露光を制御する、請求項5に記載の撮像装置。 The exposure control unit controls the exposure of the focus detection pixels and the exposure of the pixels used for the image generation so that the exposure time of the focus detection pixels becomes longer than the exposure time of the pixels used for the image generation. The image pickup apparatus according to claim 5. 画像処理に基づいて特定される前記焦点検出画素からの前記焦点画素信号の読出しと、前記本線画素信号の読出しとが、独立して行われるよう画素を制御する制御部をさらに備える、請求項1〜6のいずれか一項に記載の撮像装置。 The control unit that controls a pixel so that reading of the focus pixel signal from the focus detection pixel specified based on image processing and reading of the main pixel signal are performed independently of each other. The image pickup apparatus according to claim 6. 前記画像処理は、被写体追跡処理を含み、前記画像処理に基づいて特定される前記焦点検出画素は、前記被写体追跡処理により特定される被写体領域に対応する画素である、請求項7に記載の撮像装置。 The imaging according to claim 7, wherein the image processing includes a subject tracking process, and the focus detection pixel specified based on the image processing is a pixel corresponding to a subject region specified by the subject tracking process. apparatus. 前記画像処理は、物体検出処理を含み、前記画像処理に基づいて特定される前記焦点検出画素は、前記物体検出処理により特定される物体領域に対応する画素である、請求項7または8に記載の撮像装置。 The image processing includes object detection processing, and the focus detection pixel specified based on the image processing is a pixel corresponding to an object region specified by the object detection processing. Imaging device. 前記焦点検出画素は、位相差方式により焦点調整を行うための画素である、請求項1〜9のいずれか一項に記載の撮像装置。 The image pickup apparatus according to claim 1, wherein the focus detection pixel is a pixel for performing focus adjustment by a phase difference method. 前記制御部は1つの画素から2以上の同一の画素信号の読出しが行われるよう制御する請求項7に記載の撮像装置。 The image pickup apparatus according to claim 7, wherein the control unit controls so that two or more identical pixel signals are read from one pixel. 画像生成に用いられる通常画素と焦点調整に用いられる焦点検出画素を含む画素アレイを有する撮像装置が実行する撮像方法であって、
前記通常画素から読み出された本線画素信号がフレームメモリに記録されることと、
前記フレームメモリに記録された前記本線画素信号と、前記焦点検出画素から読み出された焦点画素信号と、が独立して入力されることと、
前記本線画素信号の入力中に、前記焦点画素信号に基づくフォーカスレンズの駆動指示を行うことと、
を含む、撮像方法。
An imaging method executed by an imaging device having a pixel array including a normal pixel used for image generation and a focus detection pixel used for focus adjustment,
Main line pixel signals read from the normal pixels are recorded in a frame memory,
The main line pixel signal recorded in the frame memory and the focus pixel signal read from the focus detection pixel are independently input;
Performing a focus lens drive instruction based on the focus pixel signal during input of the main line pixel signal,
An imaging method including:.
JP2020056493A 2020-03-26 2020-03-26 Imaging device and imaging method Active JP7047858B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020056493A JP7047858B2 (en) 2020-03-26 2020-03-26 Imaging device and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020056493A JP7047858B2 (en) 2020-03-26 2020-03-26 Imaging device and imaging method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015116389A Division JP6682770B2 (en) 2015-06-09 2015-06-09 Imaging device and imaging method

Publications (2)

Publication Number Publication Date
JP2020108176A true JP2020108176A (en) 2020-07-09
JP7047858B2 JP7047858B2 (en) 2022-04-05

Family

ID=71449639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020056493A Active JP7047858B2 (en) 2020-03-26 2020-03-26 Imaging device and imaging method

Country Status (1)

Country Link
JP (1) JP7047858B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005215373A (en) * 2004-01-30 2005-08-11 Konica Minolta Photo Imaging Inc Imaging apparatus
JP2005333491A (en) * 2004-05-20 2005-12-02 Fuji Photo Film Co Ltd Imaging apparatus
JP2008085535A (en) * 2006-09-27 2008-04-10 Nikon Corp Imaging element, and imaging apparatus
JP2010074243A (en) * 2008-09-16 2010-04-02 Panasonic Corp Solid-state imaging apparatus, image device
JP2010219958A (en) * 2009-03-17 2010-09-30 Canon Inc Imaging apparatus
JP2013038597A (en) * 2011-08-08 2013-02-21 Olympus Imaging Corp Imaging device
JP2014241577A (en) * 2013-05-17 2014-12-25 キヤノン株式会社 Imaging apparatus
JP2015079158A (en) * 2013-10-17 2015-04-23 キヤノン株式会社 Image capturing device and control method therefor

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005215373A (en) * 2004-01-30 2005-08-11 Konica Minolta Photo Imaging Inc Imaging apparatus
JP2005333491A (en) * 2004-05-20 2005-12-02 Fuji Photo Film Co Ltd Imaging apparatus
JP2008085535A (en) * 2006-09-27 2008-04-10 Nikon Corp Imaging element, and imaging apparatus
JP2010074243A (en) * 2008-09-16 2010-04-02 Panasonic Corp Solid-state imaging apparatus, image device
JP2010219958A (en) * 2009-03-17 2010-09-30 Canon Inc Imaging apparatus
JP2013038597A (en) * 2011-08-08 2013-02-21 Olympus Imaging Corp Imaging device
JP2014241577A (en) * 2013-05-17 2014-12-25 キヤノン株式会社 Imaging apparatus
JP2015079158A (en) * 2013-10-17 2015-04-23 キヤノン株式会社 Image capturing device and control method therefor

Also Published As

Publication number Publication date
JP7047858B2 (en) 2022-04-05

Similar Documents

Publication Publication Date Title
JP6682770B2 (en) Imaging device and imaging method
TWI545950B (en) The imaging device, imaging control method and apparatus
JP7449824B2 (en) Imaging device and imaging method
JP6070599B2 (en) Information processing apparatus, information processing method, information processing system, and imaging apparatus
JP2016082354A (en) Image sensor and imaging apparatus
US10681322B2 (en) Solid state imaging device and imaging apparatus having a plurality of addition read modes
US11716554B2 (en) Solid-state imaging device and method for driving the same, and electronic apparatus
JP2015228544A (en) Solid-state imaging device
JP7047858B2 (en) Imaging device and imaging method
JP2014230242A (en) Imaging device and imaging apparatus
JP2018174592A (en) Electronic apparatus
JP7224930B2 (en) Imaging device and imaging device control method
JP2023106041A (en) Circuit for imaging and method for controlling the same
JP2014200055A (en) Image-capturing element and image-capturing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200421

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220307

R151 Written notification of patent or utility model registration

Ref document number: 7047858

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151