JP2017216649A - Imaging device, imaging apparatus and imaging signal processing method - Google Patents

Imaging device, imaging apparatus and imaging signal processing method Download PDF

Info

Publication number
JP2017216649A
JP2017216649A JP2016110503A JP2016110503A JP2017216649A JP 2017216649 A JP2017216649 A JP 2017216649A JP 2016110503 A JP2016110503 A JP 2016110503A JP 2016110503 A JP2016110503 A JP 2016110503A JP 2017216649 A JP2017216649 A JP 2017216649A
Authority
JP
Japan
Prior art keywords
pixel
signal
signal processing
photoelectric conversion
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016110503A
Other languages
Japanese (ja)
Other versions
JP6762767B2 (en
Inventor
陽平 神田
Yohei Kanda
陽平 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016110503A priority Critical patent/JP6762767B2/en
Publication of JP2017216649A publication Critical patent/JP2017216649A/en
Application granted granted Critical
Publication of JP6762767B2 publication Critical patent/JP6762767B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device capable of performing image generation and focus detection based on signals obtained by three or more kinds of output conditions in photography of a minimum requirement frequency.SOLUTION: An imaging device 102 has a plurality of pixel units and can perform signal processing of focus detection and image generation by acquiring signals from respective pixel units. Each pixel unit respectively includes first and second photoelectric conversion sections and is capable of independently set an output condition of a signal. A video signal processing unit 104 acquires signals of first to third output conditions in first and second photography and performs dynamic range expansion processing.SELECTED DRAWING: Figure 1

Description

本発明は、複数の画素部から信号を取得して、画像生成および焦点検出を行うことが可能な撮像素子および撮像装置に関するものである。   The present invention relates to an imaging device and an imaging apparatus capable of acquiring signals from a plurality of pixel units and performing image generation and focus detection.

撮像装置において、1回の撮影で取得可能な画像のダイナミックレンジよりも見かけ上、広ダイナミックレンジな画像(以下、HDR画像ともいう)を生成する処理がある。撮像素子を構成する、開口率の異なる画素を規則的に配置してHDR画像を生成する技術が開示されている(特許文献1)。また、1つのマイクロレンズに複数の画素が割り当てられた瞳分割画素部を有する撮像素子を用いて、HDR画像を生成する技術が開示されている(特許文献2)。   There is a process of generating an image (hereinafter also referred to as an HDR image) having an apparently wider dynamic range than the dynamic range of an image that can be acquired by one shooting in the imaging apparatus. A technique for generating an HDR image by regularly arranging pixels having different aperture ratios constituting an image sensor is disclosed (Patent Document 1). In addition, a technique for generating an HDR image using an imaging element having a pupil division pixel portion in which a plurality of pixels are assigned to one microlens is disclosed (Patent Document 2).

他方、1回の撮影で異なる視点の画像を取得可能な撮像装置の構成では、異なる瞳領域を通過した光束により形成された一対の被写体像を取得可能である。取得された一対の被写体像から相関演算により焦点検出を行う技術が開示されている(特許文献3)。   On the other hand, in the configuration of the imaging apparatus that can acquire images of different viewpoints by one shooting, a pair of subject images formed by light beams that have passed through different pupil regions can be acquired. A technique for performing focus detection from a pair of acquired subject images by correlation calculation is disclosed (Patent Document 3).

特開2003−179819号公報JP 2003-179819 A 特開2015−144416号公報Japanese Patent Laying-Open No. 2015-144416 特開2013−072906号公報JP 2013-072906 A

特許文献1に開示の装置では、複数の撮影フレームで取得される撮像取りこみ期間が異なる画像から1枚のHDR画像を生成する。したがって、例えば、適正露光、短秒露光、長秒露光という3つの異なる露光条件のHDR合成画像を得ようとすると、3枚を撮影する必要があり、撮影枚数が多くなり、被写体ブレが起きやすくなる。また、特許文献2に開示の装置では、マイクロレンズに対する画素の開口率がそれぞれ異なる画素の組み合わせによりHDR画像が生成される。この方式の場合、入射光が遮られ画素信号が大幅に低下した画素や、飽和した画素からの信号も用いて位相差検出を行うことになる。そのため、十分な位相差検出の精度が得られない場合がある。また、特許文献3に開示の装置は、1つのマイクロレンズに複数の画素が割り当てられた瞳分割画素部を有する撮像素子を利用して焦点検出を行うが、HDR画像を生成する処理については言及されていない。   In the apparatus disclosed in Patent Document 1, one HDR image is generated from images acquired with a plurality of imaging frames and having different imaging acquisition periods. Therefore, for example, when trying to obtain an HDR composite image under three different exposure conditions of proper exposure, short-second exposure, and long-second exposure, it is necessary to shoot three images, and the number of photographic images increases, and subject blurring tends to occur. Become. In the apparatus disclosed in Patent Document 2, an HDR image is generated by a combination of pixels having different aperture ratios of pixels with respect to the microlens. In the case of this method, phase difference detection is performed also using a pixel from a pixel in which incident light is blocked and the pixel signal is greatly reduced, or a signal from a saturated pixel. Therefore, there may be a case where sufficient accuracy of phase difference detection cannot be obtained. In addition, the apparatus disclosed in Patent Document 3 performs focus detection using an imaging element having a pupil-divided pixel unit in which a plurality of pixels are assigned to one microlens, but mentions processing for generating an HDR image. It has not been.

本発明の目的は、必要最小限の回数の撮影で、3種類以上の出力条件で得られる信号に基づく画像生成と、焦点検出を行うことが可能な撮像素子および撮像装置を提供することである。   An object of the present invention is to provide an image pickup device and an image pickup apparatus capable of performing image generation and focus detection based on signals obtained under three or more kinds of output conditions with the minimum number of times of shooting. .

本発明の一実施形態の撮像素子は、複数の画素部から信号を取得して、焦点検出および画像生成の信号処理を行うことが可能な撮像素子であって、第1および第2の画素部がそれぞれ有する第1および第2の光電変換部に対して、信号の出力条件を設定する設定手段と、第1および第2の撮影について前記第1および第2の画素部から得られる、第1ないし第3の出力条件の画素信号に基づいて、前記画像生成の信号処理を行う信号処理手段と、を備える。   An image sensor according to an embodiment of the present invention is an image sensor that can acquire signals from a plurality of pixel units and perform signal processing for focus detection and image generation, and includes first and second pixel units. Setting means for setting signal output conditions for the first and second photoelectric conversion units included in the first and second photoelectric conversion units, and the first and second pixel units obtained from the first and second pixel units for the first and second imaging, Or signal processing means for performing signal processing of the image generation based on the pixel signal of the third output condition.

本発明によれば、必要最小限の回数の撮影で、3種類以上の出力条件で得られる信号に基づく画像生成と、焦点検出を行うことができる。   According to the present invention, it is possible to perform image generation and focus detection based on signals obtained under three or more types of output conditions with the minimum number of times of photographing.

本発明に係る撮像装置のシステム構成を示すブロック図である。1 is a block diagram illustrating a system configuration of an imaging apparatus according to the present invention. 本発明に係る撮像素子の構成を示すブロック図である。It is a block diagram which shows the structure of the image pick-up element based on this invention. 本発明の第1の実施例に係る撮像素子の画素構成と配列を示す図である。It is a figure which shows the pixel structure and arrangement | sequence of an image pick-up element which concern on 1st Example of this invention. 射出瞳と撮像素子の受光との関係を示す模式図である。It is a schematic diagram which shows the relationship between an exit pupil and the light reception of an image pick-up element. 撮像素子の回路構成図である。It is a circuit block diagram of an image sensor. 画素の露光条件のパターンを示す図である。It is a figure which shows the pattern of the exposure conditions of a pixel. 画素の露光条件のパターンを示す図である。It is a figure which shows the pattern of the exposure conditions of a pixel. ダイナミックレンジ拡大処理について説明する図である。It is a figure explaining a dynamic range expansion process. 本実施例における動作処理を説明するフローチャートである。It is a flowchart explaining the operation | movement process in a present Example. 実施例2における画素の露光条件のパターンを示す図である。FIG. 10 is a diagram illustrating a pattern of pixel exposure conditions in Example 2.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。本実施形態の撮像装置は、動画機能付き電子スチルカメラやビデオカメラ等に適用可能である。
(実施形態の概要)
まず、本発明の実施形態に係る撮像素子および撮像装置、撮像信号処理方法の概要を説明してから、各実施例を詳細に説明する。本発明は、画素部が複数の光電変換部を有する撮像素子と、該撮像素子を備える撮像装置に適用可能である。複数の画素部はそれぞれ第1および第2の光電変換部を有し、画素信号の出力条件が独立に設定される。画素信号の出力条件とは、例えば画素のISO感度、露光時間、光学絞り値、ゲインアンプの増幅度等の各条件や、複数の条件を組合せた条件であり、露出設定値については任意に変更可能である。撮像素子内または撮像装置の信号処理部は、以下に示す第1および第2の信号処理を行う。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The imaging apparatus of this embodiment can be applied to an electronic still camera with a moving image function, a video camera, or the like.
(Outline of the embodiment)
First, an overview of an imaging device, an imaging apparatus, and an imaging signal processing method according to an embodiment of the present invention will be described, and then each example will be described in detail. The present invention can be applied to an image sensor in which a pixel unit includes a plurality of photoelectric conversion units and an image pickup apparatus including the image sensor. Each of the plurality of pixel units has a first photoelectric conversion unit and a second photoelectric conversion unit, and output conditions of pixel signals are set independently. The pixel signal output conditions are, for example, conditions such as the ISO sensitivity of the pixel, exposure time, optical aperture value, gain amplifier gain, and a combination of a plurality of conditions. The exposure setting value can be changed arbitrarily. Is possible. The signal processing unit in the imaging device or the imaging apparatus performs first and second signal processing described below.

第1の信号処理は、第1ないし第3の出力条件に設定された第1および第2の光電変換部の信号を用いて行われる。以下の実施形態では、画像生成の信号処理の具体例として画像信号のダイナミックレンジ拡大処理(HDR処理)を説明する。例えば、出力条件の異なる複数の信号を合成して広ダイナミックレンジな画像信号を生成することができる。また第2の信号処理では、第1ないし第3の出力条件のいずれかに設定された第1および第2の光電変換部の信号が処理される。以下の実施形態では、具体例として撮像光学系の焦点検出処理を説明する。第2の信号処理によって焦点検出用信号が生成され、焦点調節制御が可能となる。第1の信号処理は、第1および第2の撮影に係る複数の撮影フレームで得られる複数の出力条件の信号に基づいて実行される。また、第2の信号処理は、単一フレーム内で得られる同一の出力条件の信号に基づいて実行される。   The first signal processing is performed using the signals of the first and second photoelectric conversion units set to the first to third output conditions. In the following embodiments, a dynamic range expansion process (HDR process) of an image signal will be described as a specific example of signal processing for image generation. For example, a wide dynamic range image signal can be generated by combining a plurality of signals having different output conditions. In the second signal processing, the signals of the first and second photoelectric conversion units set to any one of the first to third output conditions are processed. In the following embodiments, focus detection processing of an imaging optical system will be described as a specific example. A focus detection signal is generated by the second signal processing, and focus adjustment control is enabled. The first signal processing is executed based on a plurality of output condition signals obtained in a plurality of shooting frames related to the first and second shootings. Further, the second signal processing is executed based on signals having the same output condition obtained in a single frame.

また、撮像素子の制御モードについては、焦点検出演算のみを行う第1の制御モードと、焦点検出演算およびHDR処理を行う第2の制御モードがある。制御部は制御モードの切り替えによって、撮像部から取得される信号に対する信号処理の内容を変更する。例えば、第1の制御モードで位相差検出方式の焦点検出演算が行われる場合、画素部内の複数の光電変換部がそれぞれ出力する視差を有する画像(視差画像)から位相差が検出される。第1の光電変換部の出力からA像信号が取得され、第2の光電変換部の出力からB像信号が取得される場合、A像信号およびB像信号に対する相関演算が行われ、演算結果から焦点ずれ量が算出される。また第2の制御モードでは、撮像動作で取得される画像信号に対する位相差検出方式の演算およびHDR処理が実行される。なお、本発明の実施形態としては位相差検出方式に限定されない。シフト加算によるリフォーカス処理に基づく焦点検出処理やコントラスト検出処理、あるいは複数の検出方式を組合せた併用方式への適用が可能である。   As for the control mode of the image sensor, there are a first control mode in which only focus detection calculation is performed and a second control mode in which focus detection calculation and HDR processing are performed. The control unit changes the content of the signal processing for the signal acquired from the imaging unit by switching the control mode. For example, when the focus detection calculation of the phase difference detection method is performed in the first control mode, the phase difference is detected from images (parallax images) having parallax output from a plurality of photoelectric conversion units in the pixel unit. When an A image signal is acquired from the output of the first photoelectric conversion unit and a B image signal is acquired from the output of the second photoelectric conversion unit, a correlation operation is performed on the A image signal and the B image signal, and the calculation result From this, the amount of defocus is calculated. In the second control mode, the calculation of the phase difference detection method and the HDR process are performed on the image signal acquired by the imaging operation. The embodiment of the present invention is not limited to the phase difference detection method. The present invention can be applied to focus detection processing and contrast detection processing based on refocus processing by shift addition, or a combined method combining a plurality of detection methods.

画素部の構成に関して、瞳分割方向である水平方向に2分割された光電変換部を例示する。もちろん、本発明は、水平方向および垂直方向にそれぞれ2分割された光電変換部に適用可能である。本発明の実施形態としては、さらに分割数を増やして6、9等とする実施例がある。また光電変換部の形状が矩形に限定されることはなく、六角形等の多角形に設計する実施例にも適用可能である。   Regarding the configuration of the pixel unit, a photoelectric conversion unit that is divided into two in the horizontal direction, which is the pupil division direction, is illustrated. Of course, the present invention can be applied to a photoelectric conversion unit that is divided into two in the horizontal direction and in the vertical direction. As an embodiment of the present invention, there is an example in which the number of divisions is further increased to 6, 9 or the like. Moreover, the shape of the photoelectric conversion unit is not limited to a rectangle, and can be applied to an embodiment in which the photoelectric conversion unit is designed in a polygon such as a hexagon.

(第1の実施例)
本実施例の撮像装置は、第1、第2の撮影で取得された画像から位相差検出を行いつつ、2段分以上のHDR画像を生成することが可能である。本実施例の撮像装置は、複数の画素部が2次元アレイ状に配列された撮像素子を用いる。各画素部は、撮像光学系における異なる瞳部分領域を通過する光をそれぞれ受光する2つの光電変換部を備える。
(First embodiment)
The imaging apparatus according to the present exemplary embodiment can generate two or more stages of HDR images while performing phase difference detection from images acquired in the first and second imaging. The image pickup apparatus of this embodiment uses an image pickup element in which a plurality of pixel portions are arranged in a two-dimensional array. Each pixel unit includes two photoelectric conversion units that respectively receive light passing through different pupil partial regions in the imaging optical system.

図1を参照して、撮像装置の構成を説明する。光学鏡筒101は、複数のレンズと、フォーカス機構部1011、ズーム機構部1012、絞り機構部1013、シャッタ機構部1014等から構成される。光学鏡筒101内のレンズを通過する被写体からの光は、絞り機構部1013により適切な光量に調整され、撮像素子102上の撮像面に結像される。フォーカス機構部1011は、制御部107からの制御信号に基づいて駆動され、焦点調節用のフォーカスレンズの移動制御により、焦点調節を行う。ズーム機構部1012は、制御部107からの制御信号に基づいて駆動され、ユーザのズーム操作に応じて変倍用レンズの移動制御により、画角変更を行う。絞り機構部1013、シャッタ機構部1014は、制御部107からの制御信号に基づいて駆動され、絞り値やシャッタ時間をそれぞれ変更する。   With reference to FIG. 1, the configuration of the imaging apparatus will be described. The optical barrel 101 includes a plurality of lenses, a focus mechanism unit 1011, a zoom mechanism unit 1012, a diaphragm mechanism unit 1013, a shutter mechanism unit 1014, and the like. The light from the subject passing through the lens in the optical barrel 101 is adjusted to an appropriate amount of light by the aperture mechanism unit 1013 and imaged on the imaging surface on the imaging element 102. The focus mechanism unit 1011 is driven based on a control signal from the control unit 107, and performs focus adjustment by movement control of a focus lens for focus adjustment. The zoom mechanism unit 1012 is driven based on a control signal from the control unit 107, and changes the angle of view by controlling the movement of the zoom lens according to the zoom operation of the user. The aperture mechanism unit 1013 and the shutter mechanism unit 1014 are driven based on a control signal from the control unit 107, and change the aperture value and the shutter time, respectively.

撮像素子102では、制御部107からの制御信号に応じて、露光や信号読み出しやリセット等の撮像動作が実施され、対応する画像信号を出力する。その詳細については後述する。映像信号処理部104は、撮像素子102から画像信号を取得して、撮像素子102に起因する画素の欠陥や信号のばらつき等を補正する補正処理、HDR処理やホワイトバランス調整処理、ガンマ処理、色補正処理等の各種信号処理を施して映像信号を出力する。また、映像信号処理部104は撮像素子102の露出制御のために各領域の明るさを検出し、適正な露出を算出するAE(自動露出)処理も行う。   In the imaging element 102, an imaging operation such as exposure, signal readout, and reset is performed in accordance with a control signal from the control unit 107, and a corresponding image signal is output. Details thereof will be described later. The video signal processing unit 104 acquires an image signal from the image sensor 102 and corrects pixel defects and signal variations caused by the image sensor 102, HDR processing, white balance adjustment processing, gamma processing, color Various signal processing such as correction processing is performed to output a video signal. The video signal processing unit 104 also detects the brightness of each region for exposure control of the image sensor 102 and performs AE (automatic exposure) processing for calculating appropriate exposure.

圧縮伸長部105は、制御部107の制御下で動作し、映像信号処理部104からの映像信号に対して、所定の方式の静止画像データフォーマットで圧縮符号化処理を行う。例えば、JPEG(Joint Photographic Coding Experts Group)方式等がある。また圧縮伸長部105は、画像記録部111から制御部107を介して供給された静止画像の符号化データを伸長復号化処理する。さらに、MPEG(Moving Picture Experts Group)方式等により動画像の圧縮符号化/伸長復号化処理が実行可能である。   The compression / decompression unit 105 operates under the control of the control unit 107, and performs compression coding processing on the video signal from the video signal processing unit 104 in a still image data format of a predetermined method. For example, there is a JPEG (Joint Photographic Coding Experts Group) method. The compression / decompression unit 105 performs decompression / decoding processing on the encoded data of the still image supplied from the image recording unit 111 via the control unit 107. Furthermore, it is possible to execute compression encoding / decompression decoding processing of moving images by the MPEG (Moving Picture Experts Group) method or the like.

位相差信号処理部106は、制御部107からの制御信号に従い、撮像素子102からの異なる瞳面に対応する画素信号である位相差信号に基づいて、位相差検出処理を行う。位相差検出信号を算出する際には、異なる瞳面に対応する画素信号の間で瞳面が異なること以外の要因により出力レベルに差がある信号を用いる場合に、出力レベル補正を行った上で位相差信号処理部106が位相差検出処理を行う。位相差検出信号の生成処理は公知であるため、その説明を省略し、出力レベル補正処理について後述する。位相差信号処理部106が算出した位相差検出信号(像ずれ量)は、制御部107へ送られる。   The phase difference signal processing unit 106 performs phase difference detection processing based on a phase difference signal that is a pixel signal corresponding to a different pupil plane from the image sensor 102 in accordance with a control signal from the control unit 107. When calculating the phase difference detection signal, output level correction is performed when using a signal that has a difference in output level due to factors other than the difference in pupil plane between pixel signals corresponding to different pupil planes. Then, the phase difference signal processing unit 106 performs phase difference detection processing. Since the generation process of the phase difference detection signal is known, the description thereof will be omitted and the output level correction process will be described later. The phase difference detection signal (image shift amount) calculated by the phase difference signal processing unit 106 is sent to the control unit 107.

制御部107は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等から構成されるマイクロコントローラである。制御部107は、ROM等に記憶されたプログラムを実行して、撮像装置の各部を統括的に制御する。例えば、制御部107は、取得した位相差検出信号に基づいて撮像光学系の焦点状態を示すデフォーカス量を算出する。制御部107は、算出したデフォーカス量から、合焦状態を得るために必要なフォーカスレンズの駆動量を算出し、フォーカス機構部1011へ駆動制御信号を送る。フォーカス機構部1011は制御部107からの駆動制御信号に従って、AF(自動焦点調節)機構を駆動させて目標位置までフォーカスレンズを移動させる。   The control unit 107 is a microcontroller including, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The control unit 107 executes a program stored in a ROM or the like, and comprehensively controls each unit of the imaging apparatus. For example, the control unit 107 calculates a defocus amount indicating the focus state of the imaging optical system based on the acquired phase difference detection signal. The control unit 107 calculates a drive amount of the focus lens necessary for obtaining the in-focus state from the calculated defocus amount, and sends a drive control signal to the focus mechanism unit 1011. In accordance with a drive control signal from the control unit 107, the focus mechanism unit 1011 drives an AF (automatic focus adjustment) mechanism to move the focus lens to a target position.

発光部108は、映像信号処理部104のAE処理によって被写体の露出値が低いと判断された場合に、被写体に対して光を照射する装置である。発光部108はキセノン管を用いたストロボ装置やLED発光装置等である。   The light emitting unit 108 is a device that emits light to the subject when the exposure value of the subject is determined to be low by the AE processing of the video signal processing unit 104. The light emitting unit 108 is a strobe device using a xenon tube, an LED light emitting device, or the like.

操作部109は、例えばシャッタレリーズボタン等の各種操作キーやレバー、ダイヤル、タッチパネル等から構成される。操作部109は、ユーザによる入力操作に応じた制御信号を制御部107に出力する。画像表示部110は、LCD(Liquid Crystal Display)等の表示デバイスおよび該デバイスに対するインタフェース回路等を備える。画像表示部110は制御部107から供給された映像信号から表示デバイスに表示させるための信号を生成して表示デバイスに供給し、画面に画像を表示する。   The operation unit 109 includes various operation keys such as a shutter release button, a lever, a dial, a touch panel, and the like. The operation unit 109 outputs a control signal corresponding to the input operation by the user to the control unit 107. The image display unit 110 includes a display device such as an LCD (Liquid Crystal Display) and an interface circuit for the device. The image display unit 110 generates a signal to be displayed on the display device from the video signal supplied from the control unit 107, supplies the signal to the display device, and displays an image on the screen.

画像記録部111は、例えば、可搬型の半導体メモリや、光ディスク、HDD(Hard Disk Drive)、磁気テープ等の記録媒体を備える。画像記録部111は、圧縮伸長部105により符号化された画像データファイルを制御部107から取得して記録媒体に記録する。また画像記録部111は、制御部107からの制御信号に基づき、指定されたデータを記録媒体から読み出して制御部107に出力する。   The image recording unit 111 includes, for example, a recording medium such as a portable semiconductor memory, an optical disc, an HDD (Hard Disk Drive), and a magnetic tape. The image recording unit 111 acquires the image data file encoded by the compression / decompression unit 105 from the control unit 107 and records it on a recording medium. Further, the image recording unit 111 reads designated data from the recording medium based on a control signal from the control unit 107 and outputs it to the control unit 107.

次に図2を参照して、本実施例における撮像素子102の構成を説明する。図2は撮像素子102の構成例を説明する図である。撮像素子102は、例えばシリコン(Si)を用いた半導体基板に、画素部201が行列状に複数配列された画素アレイ部202と、その周辺回路部から構成される。周辺回路部は、垂直駆動回路203、カラム信号処理回路204、水平駆動回路205、タイミング制御回路206等を含む。   Next, the configuration of the image sensor 102 in this embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating a configuration example of the image sensor 102. The image sensor 102 includes a pixel array unit 202 in which a plurality of pixel units 201 are arranged in a matrix on a semiconductor substrate using, for example, silicon (Si), and a peripheral circuit unit thereof. The peripheral circuit section includes a vertical drive circuit 203, a column signal processing circuit 204, a horizontal drive circuit 205, a timing control circuit 206, and the like.

画素部201は、光電変換部としてのフォトダイオードと、複数の画素トランジスタを備える。複数の画素トランジスタは、例えば、転送トランジスタ、増幅トランジスタ、選択トランジスタ、リセットトランジスタ等のМOS(金属酸化膜半導体)トランジスタである。   The pixel unit 201 includes a photodiode as a photoelectric conversion unit and a plurality of pixel transistors. The plurality of pixel transistors are, for example, МOS (metal oxide semiconductor) transistors such as a transfer transistor, an amplification transistor, a selection transistor, and a reset transistor.

垂直駆動回路203は、例えばシフトレジスタによって構成される。垂直駆動回路203は画素駆動配線208を選択し、選択された画素駆動配線208に画素部201を駆動するためのパルスを供給し、行単位で画素部201を駆動する。垂直駆動回路203は、画素アレイ部202上の各画素部201を行単位で順次垂直方向に選択走査する。各画素部201の光電変換部において入射光量に応じて生成された信号電荷に基づく画素信号は、垂直信号線207を通してカラム信号処理回路204に供給される。   The vertical drive circuit 203 is configured by a shift register, for example. The vertical drive circuit 203 selects the pixel drive wiring 208, supplies a pulse for driving the pixel portion 201 to the selected pixel drive wiring 208, and drives the pixel portion 201 in units of rows. The vertical drive circuit 203 selectively scans each pixel unit 201 on the pixel array unit 202 in the vertical direction sequentially in units of rows. A pixel signal based on a signal charge generated according to the amount of incident light in the photoelectric conversion unit of each pixel unit 201 is supplied to the column signal processing circuit 204 through the vertical signal line 207.

カラム信号処理回路204は、画素部201の列ごとに配置されており、1行分の画素部201から出力される画素信号に対し、画素列ごとにノイズ除去等の信号処理を行う。例えば、カラム信号処理回路204は、画素固有の固定パターンノイズを除去するためのCDS処理および垂直信号線207を通して出力された画素部201の画素信号の増幅処理とAD変換等の信号処理を行う。CDSは、“Correlated Double Sampling”(相関2重サンプリング) の略号である。   The column signal processing circuit 204 is arranged for each column of the pixel unit 201, and performs signal processing such as noise removal for each pixel column on the pixel signal output from the pixel unit 201 for one row. For example, the column signal processing circuit 204 performs signal processing such as CDS processing for removing fixed pattern noise peculiar to the pixel, amplification processing of the pixel signal of the pixel unit 201 output through the vertical signal line 207, and AD conversion. CDS is an abbreviation for “Correlated Double Sampling”.

水平駆動回路205は、例えばシフトレジスタによって構成され、水平走査パルスを順次出力することによって、カラム信号処理回路204の各々を順番に選択する。カラム信号処理回路204の各々から画素信号は水平信号線209に出力される。タイミング制御回路206は、入力クロック信号と動作モード等を指令するデータを、制御部107から受け取る。タイミング制御回路206は垂直同期信号、水平同期信号およびマスタクロック信号に基づいて、垂直駆動回路203、カラム信号処理回路204および水平駆動回路205等の動作の基準となるクロック信号や制御信号を生成する。   The horizontal drive circuit 205 is constituted by, for example, a shift register, and sequentially selects each of the column signal processing circuits 204 by sequentially outputting horizontal scanning pulses. A pixel signal is output from each of the column signal processing circuits 204 to the horizontal signal line 209. The timing control circuit 206 receives data for instructing an input clock signal and an operation mode from the control unit 107. The timing control circuit 206 generates a clock signal and a control signal that serve as a reference for operations of the vertical drive circuit 203, the column signal processing circuit 204, the horizontal drive circuit 205, and the like based on the vertical synchronization signal, the horizontal synchronization signal, and the master clock signal. .

図3を参照して、撮像素子102の画素部201の構成および画素配列について説明する。図3(A)は、撮像光学系の異なる瞳部分領域をそれぞれ通過した光を受光する光電変換部201L、201Rの構成例を示す概略図である。光電変換部201L、201Rは、フォトダイオード211、212をそれぞれ備える。Lは正面から見て左側に配置されることを意味し、Rは正面から見て右側に配置されることを意味する。以下、フォトダイオードを「PD」と略記する。   With reference to FIG. 3, the configuration and pixel arrangement of the pixel unit 201 of the image sensor 102 will be described. FIG. 3A is a schematic diagram illustrating a configuration example of photoelectric conversion units 201L and 201R that receive light that has passed through different pupil partial regions of the imaging optical system. The photoelectric conversion units 201L and 201R include photodiodes 211 and 212, respectively. L means that it is arranged on the left side when viewed from the front, and R means that it is arranged on the right side when viewed from the front. Hereinafter, the photodiode is abbreviated as “PD”.

光電変換部201Lは撮像光学系の瞳領域の一部(第1の瞳部分領域)を通過した光を受光する。光電変換部201Rは第1の瞳部分領域とは異なる瞳領域の一部(第2の瞳部分領域)を通過した光を受光する。光電変換部201Lと光電変換部201Rは、1つのマイクロレンズ210下に構成され、それぞれPD211、PD212を1つずつ有する。転送トランジスタ213、214は、PD211とPD212の各々の画素信号を読み出す。PD211、PD212は、画素信号を一時的に蓄積するフローティングディフュージョン(FD)部215、216を有している。撮像光学系の異なる瞳部分領域を通過した光から光電変換される信号をPD211とPD212がそれぞれ読み出すこと以外、2つの光電変換部の構成は同じである。   The photoelectric conversion unit 201L receives light that has passed through a part of the pupil region (first pupil partial region) of the imaging optical system. The photoelectric conversion unit 201R receives light that has passed through a part of the pupil region (second pupil partial region) different from the first pupil partial region. The photoelectric conversion unit 201L and the photoelectric conversion unit 201R are configured under one microlens 210, and each have one PD 211 and one PD 212. The transfer transistors 213 and 214 read the pixel signals of the PD 211 and PD 212, respectively. The PDs 211 and 212 have floating diffusion (FD) units 215 and 216 that temporarily store pixel signals. The configurations of the two photoelectric conversion units are the same except that the PD 211 and PD 212 read out signals that are photoelectrically converted from light that has passed through different pupil partial regions of the imaging optical system.

光電変換部201Lと光電変換部201Rから取得される画素信号は、それぞれ垂直信号線207、カラム信号処理回路204を通り(図2)、水平駆動回路205によって行単位で随時水平信号線209へ読み出される。各画素部は、図示した構成要素以外にも後述する複数の構成要素を備えるが、それらは本発明の説明において重要でないので省略する。   Pixel signals acquired from the photoelectric conversion unit 201L and the photoelectric conversion unit 201R pass through the vertical signal line 207 and the column signal processing circuit 204, respectively (FIG. 2), and are read out to the horizontal signal line 209 as needed by the horizontal drive circuit 205 in units of rows. It is. Each pixel unit includes a plurality of constituent elements which will be described later in addition to the constituent elements shown in the figure, but these are not important in the description of the present invention and will be omitted.

図3(B)は撮像素子102内における画素配列を概略的に示す平面図である。2次元の画像を提供するために、図3(A)に示す構成をもつ複数の画素部201は、所定の方向に沿って2次元アレイ状に配列される。所定の方向とは水平および垂直方向である。画素部301内のPD301L、301Rは、瞳分割方向(本例では水平方向)にて2つに分割された光電変換部を構成している。また、行305は画素301、302、303、304が含まれる行を示している。行305を例にとって説明すると、301L、302L、303L、304Lは、図3(A)のPD211に対応し、301R、302R、303R、304Rは、図3(B)のPD212に対応している。   FIG. 3B is a plan view schematically showing a pixel array in the image sensor 102. In order to provide a two-dimensional image, a plurality of pixel portions 201 having the configuration shown in FIG. 3A are arranged in a two-dimensional array along a predetermined direction. The predetermined directions are horizontal and vertical directions. The PDs 301 </ b> L and 301 </ b> R in the pixel unit 301 constitute a photoelectric conversion unit that is divided into two in the pupil division direction (the horizontal direction in this example). A row 305 indicates a row including the pixels 301, 302, 303, and 304. Taking the row 305 as an example, 301L, 302L, 303L, and 304L correspond to the PD 211 in FIG. 3A, and 301R, 302R, 303R, and 304R correspond to the PD 212 in FIG.

図4は、撮影レンズの射出瞳から出た光束(被写体光)が撮像素子102に入射する様子を示す概念図である。画素部の断面部401には、マイクロレンズ210、カラーフィルタ403、およびPD211、PD212を示す。射出瞳406には、撮影レンズの射出瞳の一部領域407、408を示しており、これらの領域は、受光する各PDから見たときの瞳部分領域である。中央のマイクロレンズ210を有する画素に対して、射出瞳406から出た光束の中心である光軸409を、一点鎖線で示す。光線410、411は、瞳部分領域407を通過する光の最外周の光線であり、光線412、413は瞳部分領域408を通過する光の最外周の光線である。   FIG. 4 is a conceptual diagram showing a state in which a light beam (subject light) emitted from the exit pupil of the photographing lens enters the image sensor 102. A cross-sectional portion 401 of the pixel portion shows a microlens 210, a color filter 403, and PD211 and PD212. The exit pupil 406 shows partial areas 407 and 408 of the exit pupil of the photographic lens, and these areas are pupil partial areas when viewed from each PD that receives light. For the pixel having the central microlens 210, an optical axis 409 that is the center of the light beam emitted from the exit pupil 406 is indicated by a one-dot chain line. Rays 410 and 411 are outermost rays of light passing through the pupil partial region 407, and rays 412 and 413 are outermost rays of light passing through the pupil partial region 408.

射出瞳406から出射した光は、光軸409を中心として撮像素子102に入射される。図4(A)からわかるように、射出瞳406から出る光束のうち、光軸409を境にして上側の光束はマイクロレンズ210、カラーフィルタ403を通過してPD212に入射する。また、光軸409を境にして下側の光束はマイクロレンズ210、カラーフィルタ403を通過してPD211に入射する。つまり、PD211とPD212はそれぞれ、撮影レンズの射出瞳406の異なる瞳部分領域408、407を通過した光を受光する。   The light emitted from the exit pupil 406 enters the image sensor 102 with the optical axis 409 as the center. As can be seen from FIG. 4A, among the light beams emitted from the exit pupil 406, the upper light beam with the optical axis 409 as a boundary passes through the microlens 210 and the color filter 403 and enters the PD 212. Further, the lower light beam with the optical axis 409 as a boundary passes through the microlens 210 and the color filter 403 and enters the PD 211. That is, the PD 211 and the PD 212 respectively receive light that has passed through different pupil partial regions 408 and 407 of the exit pupil 406 of the photographing lens.

図3を参照すると、例えば行305に含まれる画素部301の場合、PD301Lは、光軸409を挟んで一方の射出瞳(部分領域)から出る光束を受光するPD211に対応する。PD301Lから得られる像をA像とし、その画像信号をA像信号と呼ぶ。また、PD301Rは、光軸409を挟んで他方の射出瞳(部分領域)から出る光束を受光するPD212に対応する。PD301Rから得られる像をB像とし、その画像信号をB像信号と呼ぶ。   Referring to FIG. 3, for example, in the case of the pixel unit 301 included in the row 305, the PD 301 </ b> L corresponds to the PD 211 that receives a light beam emitted from one exit pupil (partial region) across the optical axis 409. An image obtained from the PD 301L is referred to as an A image, and the image signal is referred to as an A image signal. The PD 301R corresponds to the PD 212 that receives a light beam emitted from the other exit pupil (partial region) with the optical axis 409 interposed therebetween. An image obtained from the PD 301R is referred to as a B image, and the image signal is referred to as a B image signal.

このように射出瞳406に対して光軸409を中心に等分に瞳部分領域407、408に分割して、PD211、PD212の受光が行われることにより、PD211とPD212とで出力信号に位相差が生じる。この位相差により瞳部分領域407、408に対応するA像信号とB像信号とで、同一の被写体像に由来する画素信号が現れる画素部201のアドレスに変化が現れ、アドレス間隔として検出される。このアドレス間隔を検出(位相差検出)することで、デフォーカス量が算出される。PD211、PD212は光軸409に対して等分に分割された配置である。つまり、射出瞳406に対して偏芯していないため、光学鏡筒101内の構成部品等によって一部光線が遮られたとしても、A像もしくはB像の信号欠損(シェーディング)に対して対処しやすいという利点がある。   As described above, the PD 211 and the PD 212 receive light by dividing the exit pupil 406 equally into the pupil partial regions 407 and 408 around the optical axis 409, thereby causing a phase difference in the output signal between the PD 211 and the PD 212. Occurs. Due to this phase difference, the A image signal and the B image signal corresponding to the pupil partial regions 407 and 408 change in the address of the pixel portion 201 where the pixel signal derived from the same subject image appears, and is detected as an address interval. . By detecting this address interval (phase difference detection), the defocus amount is calculated. The PD 211 and the PD 212 are equally divided with respect to the optical axis 409. In other words, since the exit pupil 406 is not decentered, even if a part of the light beam is blocked by the components in the optical barrel 101, the signal loss (shading) of the A image or the B image is dealt with. There is an advantage that it is easy to do.

図5は、撮像素子の回路構成と基本的動作の例を説明する図である。
図5では、画素201Lにおける回路構成を例にとって説明するが、画素201Rにおいても同様の回路構成となる。
FIG. 5 is a diagram illustrating an example of the circuit configuration and basic operation of the image sensor.
In FIG. 5, a circuit configuration in the pixel 201L will be described as an example, but the same circuit configuration is used in the pixel 201R.

図5に示すように、画素201Lには、PD211、転送トランジスタ213、増幅トランジスタ510、選択トランジスタ511、およびリセットトランジスタ512が設けられている。なお、この例では、各トランジスタは、nチャネルMOSFET(MOS Field-Effect Transistor)である。   As illustrated in FIG. 5, the pixel 201 </ b> L includes a PD 211, a transfer transistor 213, an amplification transistor 510, a selection transistor 511, and a reset transistor 512. In this example, each transistor is an n-channel MOSFET (MOS Field-Effect Transistor).

また、転送トランジスタ213、選択トランジスタ511およびリセットトランジスタ512の各ゲートには、転送信号線513L、行選択信号線514L、リセット制御信号線515Lが接続されている。なお、画素201Rにも、同様に転送信号線513R、行選択信号線514R、リセット制御信号線515Rが接続されている。図2では、これらと転送信号線513L、行選択信号線514L、リセット制御信号線515Lを画素駆動配線208にてまとめて図示している。これらの信号線は、水平方向に延在して、同一行に含まれる画素を同時に駆動するようになっており、これによりライン順次動作型のローリングシャッタや、全行同時動作型のグローバルシャッタの動作を制御することが可能になっている。また、転送信号線513は、画素201L、201Rで別々に構成することで、画素201Lと画素201Rとで別々に露光時間を設定することが可能になる。さらに、選択トランジスタ511のソースには、垂直信号線207Lが接続され、垂直信号線207Lの一方の端部は、定電流源516を介して接地されている。なお、図2では、画素201L、201Rにそれぞれ接続される垂直信号線207L、207Rを垂直信号線207にてまとめて図示している。   A transfer signal line 513L, a row selection signal line 514L, and a reset control signal line 515L are connected to the gates of the transfer transistor 213, the selection transistor 511, and the reset transistor 512, respectively. Similarly, the transfer signal line 513R, the row selection signal line 514R, and the reset control signal line 515R are connected to the pixel 201R. In FIG. 2, these, the transfer signal line 513 </ b> L, the row selection signal line 514 </ b> L, and the reset control signal line 515 </ b> L are collectively illustrated by the pixel drive wiring 208. These signal lines extend in the horizontal direction and drive pixels included in the same row at the same time. As a result, a line-sequential operation type rolling shutter or an all-row simultaneous operation type global shutter can be used. It is possible to control the operation. Further, the transfer signal line 513 is configured separately for the pixels 201L and 201R, so that the exposure time can be set separately for the pixel 201L and the pixel 201R. Further, a vertical signal line 207L is connected to the source of the selection transistor 511, and one end of the vertical signal line 207L is grounded via a constant current source 516. In FIG. 2, the vertical signal lines 207L and 207R connected to the pixels 201L and 201R, respectively, are collectively shown as the vertical signal lines 207.

PD211は、光電変換により生成された電荷を蓄積する。PD211は、P側が接地され、N側が転送トランジスタ213のソースに接続されている。転送トランジスタ213がONすると、PD211の電荷がFD部分である215に転送されるが、FD215には寄生容量C51があるので、この部分に電荷が蓄積される。増幅トランジスタ510のドレインは、電源電圧Vddとされ、ゲートは、FD215に接続されている。この増幅トランジスタ510は、FD215の電圧を電気信号に変換する。選択トランジスタ511は、信号を読み出す画素を行単位で選択する。選択トランジスタ511のドレインは増幅トランジスタ510のソースに、ソースは垂直信号線207に接続されている。この選択トランジスタ511がONしたときには、増幅トランジスタ510と定電流源516とがソースフォロアを構成するので、FD215の電圧に対応する電圧が垂直信号線207に出力される。リセットトランジスタ512のドレインは、電源電圧Vddとされ、ソースは、FD215に接続されている。このリセットトランジスタ512は、FD215の電圧を電源電圧Vddにリセットする。   The PD 211 accumulates charges generated by photoelectric conversion. In the PD 211, the P side is grounded and the N side is connected to the source of the transfer transistor 213. When the transfer transistor 213 is turned on, the charge of the PD 211 is transferred to the FD portion 215. Since the FD 215 has the parasitic capacitance C51, the charge is accumulated in this portion. The drain of the amplification transistor 510 is set to the power supply voltage Vdd, and the gate is connected to the FD 215. The amplification transistor 510 converts the voltage of the FD 215 into an electric signal. The selection transistor 511 selects a pixel from which a signal is read out in units of rows. The drain of the selection transistor 511 is connected to the source of the amplification transistor 510, and the source is connected to the vertical signal line 207. When the selection transistor 511 is turned on, the amplification transistor 510 and the constant current source 516 constitute a source follower, so that a voltage corresponding to the voltage of the FD 215 is output to the vertical signal line 207. The drain of the reset transistor 512 is the power supply voltage Vdd, and the source is connected to the FD 215. The reset transistor 512 resets the voltage of the FD 215 to the power supply voltage Vdd.

図6および図7は、画素201L、201Rの露光条件のパターンを示す図である。本実施例においては、2枚のフレーム撮影が生じ、偶奇フレーム毎に露光条件のパターンが異なる。図6は、第1枚目のフレーム(第1のフレーム)における露光条件のパターンを示す。図7は、第2枚目のフレーム(第2のフレーム)における露光条件のパターンを示す。   6 and 7 are diagrams showing exposure condition patterns of the pixels 201L and 201R. In this embodiment, two frames are photographed, and the pattern of the exposure condition is different for every even / odd frame. FIG. 6 shows a pattern of exposure conditions in the first frame (first frame). FIG. 7 shows an exposure condition pattern in the second frame (second frame).

図6および図7に示す各画素には、それぞれ、赤・青・緑のカラーフィルタが配置されている。赤の色成分カラーフィルタに対応した画素201L、201RR画素をR(以後、R画素)、青の色成分カラーフィルタに対応した画素201L、201RB画素をBL(以後、BL画素)とする。緑の色成分カラーフィルタに対応した画素201L、201RG画素を、GrあるいはGb(以後、それぞれGr画素あるいはGb画素)とする。なお、Gr画素とはR画素のある行にあるG画素を示しており、Gb画素とは、BL画素のある行にあるG画素を示している。また、n行目においてm列目の画素は、R画素、m+1列目はGr画素、m+2列目はR画素と繰り返し構成される。n+1行目においては、m列目の画素はGb画素、m+1列目はBL画素、m+2列目はGb画素と繰り返し構成される。   Each pixel shown in FIGS. 6 and 7 is provided with red, blue, and green color filters. The pixels 201L and 201RR corresponding to the red color component color filter are R (hereinafter referred to as R pixel), and the pixels 201L and 201RB corresponding to the blue color component color filter are referred to as BL (hereinafter referred to as BL pixel). The pixels 201L and 201RG corresponding to the green color component color filter are defined as Gr or Gb (hereinafter referred to as Gr pixel or Gb pixel, respectively). The Gr pixel indicates a G pixel in a row with an R pixel, and the Gb pixel indicates a G pixel in a row with a BL pixel. In the nth row, the mth column pixel is repeatedly configured as an R pixel, the m + 1th column is a Gr pixel, and the m + 2 column is an R pixel. In the (n + 1) th row, the pixel in the m-th column is repeatedly configured as a Gb pixel, the m + 1-th column as a BL pixel, and the m + 2 column as a Gb pixel.

本実施例においては、適正露光秒時で撮影された画素を中出力画素、適正露光に対して露光時間を長くして撮影した画素を高出力画素、短くして撮影した画素を低出力画素とする。図6、図7において、3種類の異なるハッチング線を付して示す各部分は、以下のとおりである。
・横線で示す光電変換部:中出力レベル(適正出力レベル)の画素(中出力画素)である。
・粗い斜線で示す光電変換部:低出力レベルの画素(低出力画素)である。
・縦線で示す光電変換部:高出力レベルの画素(高出力画素)である。
In this embodiment, a pixel photographed at an appropriate exposure time is a medium output pixel, a pixel photographed with a long exposure time for proper exposure is a high output pixel, and a pixel photographed with a short exposure is a low output pixel. To do. In FIG. 6 and FIG. 7, each part shown with three different hatching lines is as follows.
A photoelectric conversion unit indicated by a horizontal line: a pixel (medium output pixel) at a medium output level (appropriate output level).
A photoelectric conversion unit indicated by a rough oblique line: a low output level pixel (low output pixel).
A photoelectric conversion unit indicated by a vertical line: a high output level pixel (high output pixel).

低出力画素、中出力画素、高出力画素は、それぞれ画素201Lもしくは画素201Rと同様の構成である。したがって、上述のR画素、Gb画素、Gr画素、BL画素は、図6、図7に示すように、中出力画素と低出力画素、もしくは中出力画素と高出力画素とで構成される。1つの画素部内では、複数の画素は、複数の画素部の配置方向(第1の方向)とは異なる第2の方向に配置されている。   The low output pixel, the medium output pixel, and the high output pixel have the same configuration as the pixel 201L or the pixel 201R, respectively. Therefore, the R pixel, the Gb pixel, the Gr pixel, and the BL pixel described above are configured by a medium output pixel and a low output pixel, or a medium output pixel and a high output pixel, as shown in FIGS. In one pixel portion, the plurality of pixels are arranged in a second direction different from the arrangement direction (first direction) of the plurality of pixel portions.

また、本実施例では、低出力画素の露光時間は、中出力画素の露光時間の半分に設定し、高露光画素の露光時間は適正露光に対して倍に設定することで、HDR処理後のダイナミックレンジは±1段拡張することができるが、他の設定にしても良い。   Further, in this embodiment, the exposure time of the low output pixel is set to half of the exposure time of the medium output pixel, and the exposure time of the high exposure pixel is set to double the appropriate exposure, so that the post-HDR processing time is set. The dynamic range can be extended by ± 1 step, but other settings may be used.

図6に示す第1のフレームは、低出力画素と中出力画素で構成される。n行目とn+1行目において、画素201Lにあたる画素が、中出力画素、画素201Rにあたる画素が、低出力画素である。n+2行目、n+3行目においては、R、Gr、Gb、B画素が、n行目、n+1行目と同様に繰り返し構成されるが、露光条件のパターンが異なる。n+2行目とn+3行目において、画素201Lにあたる画素が、低出力画素、画素201Rにあたる画素が、中出力画素である。n+4行目以降は、n行目、n+1行目、n+2行目、n+3行目と同様の露光条件とカラーフィルタのパターンで繰り返し構成される。   The first frame shown in FIG. 6 includes low output pixels and medium output pixels. In the nth and n + 1th rows, the pixel corresponding to the pixel 201L is a medium output pixel, and the pixel corresponding to the pixel 201R is a low output pixel. In the n + 2 and n + 3 rows, the R, Gr, Gb, and B pixels are repeatedly configured in the same way as the n and n + 1 rows, but the pattern of the exposure conditions is different. In the n + 2 and n + 3 rows, the pixel corresponding to the pixel 201L is a low output pixel, and the pixel corresponding to the pixel 201R is a medium output pixel. The n + 4th and subsequent lines are repeatedly configured with the same exposure conditions and color filter patterns as the nth, n + 1th, n + 2th, and n + 3th lines.

図7に示す第2のフレームは、高出力画素と中出力画素で構成される。n行目とn+1行目において、画素201Lにあたる画素が、中出力画素、画素201Rにあたる画素が、高出力画素である。n+2行目、n+3行目においては、R、Gr、Gb、B画素はn行目、n+1行目と同様に繰り返し構成されるが、露光条件のパターンが異なる。n+2行目とn+3行目において、画素201Lにあたる画素が、高出力画素、画素201Rにあたる画素が、中出力画素である。n+4行目以降はn行目、n+1行目、n+2行目、n+3行目と同様のパターンで繰り返し構成される。なお、第1のフレームを高出力画素と中出力画素、第2のフレームを低出力画素と中出力画素で構成してもかまわない。   The second frame shown in FIG. 7 includes high output pixels and medium output pixels. In the nth and n + 1th rows, the pixel corresponding to the pixel 201L is a medium output pixel, and the pixel corresponding to the pixel 201R is a high output pixel. In the n + 2 and n + 3 rows, the R, Gr, Gb, and B pixels are repeatedly configured in the same manner as the n and n + 1 rows, but the pattern of exposure conditions is different. In the n + 2 and n + 3 rows, the pixel corresponding to the pixel 201L is a high output pixel, and the pixel corresponding to the pixel 201R is a medium output pixel. The n + 4th and subsequent lines are repeatedly configured in the same pattern as the nth, n + 1th, n + 2 and n + 3th lines. The first frame may be composed of high output pixels and medium output pixels, and the second frame may be composed of low output pixels and medium output pixels.

本発明においては、HDR信号処理をするために、A像信号とB像信号の露光差が出るように撮影を実行する。A像信号とB像信号において露光差を発生させる場合は、例えば、露光時間をA像とB像とで別々の設定にしてもよいし、A像とB像の出力にそれぞれに対してカラム信号処理回路204内で増幅処理を別々の増倍度設定にして露光差を発生させても構わない。   In the present invention, in order to perform HDR signal processing, photographing is performed so that an exposure difference between the A image signal and the B image signal is generated. In the case where an exposure difference is generated in the A image signal and the B image signal, for example, the exposure time may be set separately for the A image and the B image, or a column for each output of the A image and the B image. In the signal processing circuit 204, the amplification process may be set to a different multiplication factor to generate an exposure difference.

図6において、位相差検出に用いる画素は、例えば、n行目、n+4行目、n+8行目のA像画素とn+2行目、n+6行目、n+10行目のB像画素である。HDR信号処理には全画素を用いる。A像信号とB像信号に露光差をつけて読み出された撮像信号は、撮像素子102から出力された後に、信号選択部103を通じて、映像信号処理部104と位相差信号処理部106へと送出され、HDR信号処理と位相差検出処理が実行される。映像信号処理部104は、例えば、図6に示す第1のフレームについての中出力画素の信号と、低出力画素の信号と、図7に示す第2のフレームについての高出力画素の信号とに基づいて、HDR信号処理を実行する。なお、制御部107(図1)が、HDR信号処理を行うかを判定し、HDR信号処理を行うと判定された場合に、映像信号処理部104が、HDR信号処理を実行するようにしてもよい。   In FIG. 6, the pixels used for phase difference detection are, for example, the A image pixels in the nth row, the n + 4th row, the n + 8th row, and the B image pixels in the n + 2, the n + 6th row, and the n + 10th row. All pixels are used for HDR signal processing. An imaging signal read out with an exposure difference between the A image signal and the B image signal is output from the imaging element 102 and then passed to the video signal processing unit 104 and the phase difference signal processing unit 106 through the signal selection unit 103. The HDR signal processing and the phase difference detection processing are executed. The video signal processing unit 104 converts, for example, a medium output pixel signal, a low output pixel signal for the first frame shown in FIG. 6, and a high output pixel signal for the second frame shown in FIG. Based on this, HDR signal processing is executed. Note that the control unit 107 (FIG. 1) determines whether to perform HDR signal processing, and if it is determined to perform HDR signal processing, the video signal processing unit 104 may execute HDR signal processing. Good.

映像信号処理部104による前フレームのAE算出結果から、制御部107が、位相差検出をする際に適切な露光条件を決定する。制御部107が、決定した条件に基づき、第1、第2のフレームについて、位相差検出に用いる画素が同一の出力条件(露光)になるように撮像設定されて複数の信号が読み出される。具体的には、n行目、n+4行目、n+8行目のR画素のA像信号と、n+2行目、n+6行目、n+10行目のR画素のB像信号とに対して、位相差信号処理部106が、公知の位相差検出処理を実行することで、位相差検出信号を生成する。つまり位相差信号処理部106は、A像信号、B像信号を用いて2像を相対的にシフトしながら相関演算を行い、相関演算結果から像ずれ量を検出する公知の位相差検出を行う。本実施例では、図6と図7とを参照するとわかるように、位相差検出処理に用いる複数の画素(例えば、中出力画素)の配置関係は、第1および第2の撮影で同じである。   From the AE calculation result of the previous frame by the video signal processing unit 104, the control unit 107 determines an appropriate exposure condition when detecting the phase difference. Based on the conditions determined by the control unit 107, for the first and second frames, imaging is set so that the pixels used for phase difference detection have the same output condition (exposure), and a plurality of signals are read out. Specifically, the phase difference between the A image signal of the R pixel in the nth, n + 4, and n + 8 rows and the B image signal of the R pixel in the n + 2, n + 6, and n + 10 rows. The signal processing unit 106 generates a phase difference detection signal by executing a known phase difference detection process. That is, the phase difference signal processing unit 106 performs correlation calculation while relatively shifting the two images using the A image signal and the B image signal, and performs known phase difference detection for detecting the image shift amount from the correlation calculation result. . In this embodiment, as can be seen with reference to FIGS. 6 and 7, the arrangement relationship of a plurality of pixels (for example, medium output pixels) used for the phase difference detection processing is the same in the first and second imaging. .

信号選択部103は、映像信号の中から、R画素のA像信号と、B像信号とを選択して位相差信号処理部106へ送る。なお、本実施例では、位相差検出処理はR画素の信号に対して行っているが、RGB各色の画素信号および各色の画素信号を演算した信号に対して行っても良い。上記のような画素201の信号読み出しを、上から下の行へと順次読みだすことで1フレーム分のデータを撮像素子102から出力する。そして、信号選択部103にてHDR処理用の映像信号と位相差検出用の信号とを振り分けて、それぞれ映像信号処理部104と、位相差信号処理部106へと同時に出力する。このように、位相差検出に用いる画素において、映像信号処理部104内に含まれる映像信号処理部104の情報を用いて位相差検出に適切な露光条件を決めることで、信号の白飛びやSNが劣る露光条件を回避しやすくすることができる。   The signal selection unit 103 selects the A image signal and the B image signal of the R pixel from the video signals and sends them to the phase difference signal processing unit 106. In the present embodiment, the phase difference detection process is performed on the R pixel signal, but may be performed on the RGB pixel signals and the signals obtained by calculating the respective color pixel signals. Data for one frame is output from the image sensor 102 by sequentially reading out the signal of the pixel 201 as described above from the top to the bottom row. Then, the signal selection unit 103 distributes the HDR processing video signal and the phase difference detection signal, and outputs them simultaneously to the video signal processing unit 104 and the phase difference signal processing unit 106, respectively. In this way, in the pixels used for phase difference detection, by determining appropriate exposure conditions for phase difference detection using information of the video signal processing unit 104 included in the video signal processing unit 104, signal whiteout and SN It is possible to easily avoid exposure conditions that are inferior.

次に、図8を参照して、ダイナミックレンジ拡大処理について説明する。図8は、ダイナミックレンジ拡大処理における入射光量(横軸X)と画素信号量(縦軸Y)との関係を示す図である。横軸XにはX* 1〜3、X1〜3を示し、縦軸YにはY1〜3を示す。Y1はノイズレベルを表し、Y2は飽和信号量を表す。X* 1〜3は、高出力画素、中出力画素、低出力画素の各画素信号レベルが、ノイズレベルY1にそれぞれ到達するときの入射光量を表す。X1〜3は、高出力画素、中出力画素、低出力画素の各画素信号レベルが、飽和信号量Y2にそれぞれ到達するときの入射光量を表す。 Next, the dynamic range expansion process will be described with reference to FIG. FIG. 8 is a diagram illustrating the relationship between the incident light amount (horizontal axis X) and the pixel signal amount (vertical axis Y) in the dynamic range expansion process. The horizontal axis X represents X * 1 to X3 and X1 to X3, and the vertical axis Y represents Y1 to Y3. Y1 represents a noise level, and Y2 represents a saturation signal amount. X * 1 to 3 represent incident light amounts when the pixel signal levels of the high output pixel, the medium output pixel, and the low output pixel reach the noise level Y1, respectively. X1 to X3 represent incident light amounts when the pixel signal levels of the high output pixel, the medium output pixel, and the low output pixel reach the saturation signal amount Y2, respectively.

高出力画素では、入射光量がX1となった時点で飽和信号量Y2に到達する。中出力画素では、入射光量がX2となった時点で飽和信号量Y2に到達する。低出力画素では、入射光量がX3となった時点で飽和信号量Y2に到達する。一方、受光により得られる画素信号量がY1以下である場合にはノイズレベルに相当するため、その画素信号は利用することができない。よって、高出力画素のダイナミックレンジは、入射光量がX* 1からX1までの範囲である。中出力画素のダイナミックレンジは、入射光量がX* 2からX2までの範囲である。低出力画素のダイナミックレンジは、入射光量がX* 3からX3までの範囲である。 In the high output pixel, the saturation signal amount Y2 is reached when the amount of incident light reaches X1. In the medium output pixel, the saturation signal amount Y2 is reached when the incident light quantity becomes X2. In the low output pixel, the saturation signal amount Y2 is reached when the incident light quantity becomes X3. On the other hand, when the amount of pixel signal obtained by light reception is Y1 or less, it corresponds to the noise level, so that the pixel signal cannot be used. Therefore, the dynamic range of the high output pixel is a range where the incident light amount is from X * 1 to X1. The dynamic range of the medium output pixel is a range where the incident light amount is from X * 2 to X2. The dynamic range of the low output pixel is a range where the incident light amount is from X * 3 to X3.

一例として低出力画素、中出力画素、高出力画素の出力レベルの比が1:2:4である場合を説明する。映像信号処理部104は、画素部201について、入射光量に応じて下記式(1)〜式(5)により、HDR処理後の画素信号HDRを求める。
・X* 1<(入射光量)≦X* 2のとき
画素信号HDR=(高出力画素信号) (1)
・X* 2<(入射光量)≦X* 3のとき
画素信号HDR=(高出力画素信号)×(1−α)+(中出力画素信号)×α×2
(2)
・X* 3<(入射光量)≦X1のとき
画素信号HDR= (高出力画素信号)×β+(中出力画素信号)×γ×2+(低出力画素信号)×(1−β−γ)×4 (3)
・X1<(入射光量)≦X2のとき
画素信号HDR=(中出力画素信号)×(1−δ)×2+(低出力画素信号)×δ×4
(4)
・X2<(入射光量)≦X3のとき
画素信号HDR=(低出力画素信号)×4 (5)
As an example, a case will be described in which the ratio of the output levels of low output pixels, medium output pixels, and high output pixels is 1: 2: 4. The video signal processing unit 104 obtains the pixel signal HDR after the HDR processing for the pixel unit 201 according to the following formulas (1) to (5) according to the amount of incident light.
When X * 1 <(incident light amount) ≦ X * 2, pixel signal HDR = (high output pixel signal) (1)
When X * 2 <(incident light amount) ≦ X * 3, pixel signal HDR = (high output pixel signal) × (1−α) + (medium output pixel signal) × α × 2
(2)
When X * 3 <(incident light amount) ≦ X1, pixel signal HDR = (high output pixel signal) × β + (medium output pixel signal) × γ × 2 + (low output pixel signal) × (1−β−γ) × 4 (3)
When X1 <(incident light quantity) ≦ X2, pixel signal HDR = (medium output pixel signal) × (1-δ) × 2 + (low output pixel signal) × δ × 4
(4)
When X2 <(incident light quantity) ≦ X3, pixel signal HDR = (low output pixel signal) × 4 (5)

上式中のα、β、γ、δ、β+γは合成用の係数であり、それらの値はいずれも1以下の正の実数とする。入射光量に応じて、低出力画素信号、中出力画素信号、高出力画素信号からHDR処理後の信号が生成される。映像信号処理部104は、画素アレイ部202の各画素部201の信号量(入射光量)に応じて、式(1)〜式(5)を用いて、ダイナミックレンジ拡大処理後の画素信号を算出する。これにより、撮影した異なる3種類の出力レベルの信号を取得して合成することで信号量がY1からY3までに拡大され、入射光量としてX* 1からX3まで対応できる広ダイナミックレンジな画像を生成できる。本実施例においては、図6、図7の露光条件パターンで撮影した2枚のフレームにおいて、R、Gr、Gb、BLのそれぞれの画素から低出力画素信号、中出力画素信号、高出力画素信号を得ることができ、これらの信号から先述のHDR信号処理を行う。 Α, β, γ, δ, β + γ in the above equation are coefficients for synthesis, and all of these values are positive real numbers of 1 or less. A signal after HDR processing is generated from the low output pixel signal, the medium output pixel signal, and the high output pixel signal according to the amount of incident light. The video signal processing unit 104 calculates the pixel signal after the dynamic range expansion processing using Equations (1) to (5) according to the signal amount (incident light amount) of each pixel unit 201 of the pixel array unit 202. To do. As a result, by acquiring and synthesizing signals of three different output levels taken, the signal amount is expanded from Y1 to Y3, and an image with a wide dynamic range that can handle X * 1 to X3 as the incident light amount is generated. it can. In this embodiment, in two frames taken with the exposure condition patterns of FIGS. 6 and 7, a low output pixel signal, a medium output pixel signal, and a high output pixel signal from each of the R, Gr, Gb, and BL pixels. The above-described HDR signal processing is performed from these signals.

図9は、本実施例における動作処理を説明するフローチャートである。
撮影が開始されると、S801において、制御部107が、撮影条件を設定する。この撮影条件は初期であれば初期条件が適用されるが、後述するステップS807からのフィードバックにより、撮影条件は更新される。
FIG. 9 is a flowchart for explaining operation processing in the present embodiment.
When shooting is started, the control unit 107 sets shooting conditions in step S801. If this shooting condition is initial, the initial condition is applied, but the shooting condition is updated by feedback from step S807 described later.

次にS802において、制御部107が、S801で設定した撮影条件で撮像素子102を駆動させて、図6に示すセンサ配列における画素毎の露光条件のパターンで、第1のフレームの撮影を行う。続いて、S803において、制御部107が、図7に示すセンサ配列における画素毎の露光条件のパターンで、第2のフレームの撮影を行う。   In step S <b> 802, the control unit 107 drives the image sensor 102 with the shooting conditions set in step S <b> 801, and performs shooting of the first frame with the pattern of exposure conditions for each pixel in the sensor array illustrated in FIG. 6. In step S <b> 803, the control unit 107 captures a second frame with a pattern of exposure conditions for each pixel in the sensor array illustrated in FIG. 7.

S804において、映像信号処理部104が、撮影された第1のフレームと第2のフレームの信号から、AE値を算出する。続いて、S805において、映像信号処理部104が、HDR信号処理を実行する。HDR信号処理は、図6、図7に示す第1のフレームと第2のフレームでの、3種類(中出力画素、低出力画素、高出力画素)の画素の信号に基づいて実行される。また、この例では、図6または図7で横線のハッチで示される中出力画素を位相差検出に用いる画素(位相差画素)とする。位相差画素の信号(位相差画素信号)については、第1、第2のフレームでの信号値を加算平均することでランダムノイズを低減させてHDR信号処理を行う。   In step S804, the video signal processing unit 104 calculates an AE value from the captured first frame and second frame signals. Subsequently, in S805, the video signal processing unit 104 executes HDR signal processing. The HDR signal processing is executed based on signals of three types of pixels (medium output pixel, low output pixel, and high output pixel) in the first frame and the second frame shown in FIGS. In this example, the medium output pixel indicated by a horizontal hatching in FIG. 6 or 7 is a pixel (phase difference pixel) used for phase difference detection. The phase difference pixel signal (phase difference pixel signal) is subjected to HDR signal processing by reducing the random noise by averaging the signal values in the first and second frames.

S806において、位相差信号処理部106が、S803で撮影された第2のフレームにおける位相差画素信号から位相差検出を実行する。位相差検出処理部106が、第1のフレームにおける位相差画素信号から位相差検出を実行してもよい。また、位相差検出処理部106が、第1、第2のフレームの信号値を加算平均することでランダムノイズを低減させた位相差画素信号から位相差検出を実行しても構わない。なお、S804とS805とS806の処理は、並行もしくは順不同に実行しても構わない。   In step S806, the phase difference signal processing unit 106 performs phase difference detection from the phase difference pixel signal in the second frame imaged in step S803. The phase difference detection processing unit 106 may execute phase difference detection from the phase difference pixel signal in the first frame. Further, the phase difference detection processing unit 106 may perform phase difference detection from the phase difference pixel signal in which random noise is reduced by averaging the signal values of the first and second frames. Note that the processes of S804, S805, and S806 may be executed in parallel or in any order.

次に、S807において、制御部107が、撮影を終了するか否かを判断する。撮影を終了する場合は、待機状態へと遷移する。撮影を続ける場合は、処理がS801に戻り、制御部107が、S804で得られたAE値から露光条件を更新する。また、フォーカス機構部1011が、S806で得られた位相差検出結果からオートフォーカス制御を実行する。以上のように、撮影条件が再設定されて撮影が繰り返される。   Next, in step S807, the control unit 107 determines whether or not to end shooting. When shooting is ended, the state transits to a standby state. In the case of continuing shooting, the process returns to S801, and the control unit 107 updates the exposure condition from the AE value obtained in S804. Further, the focus mechanism unit 1011 executes autofocus control from the phase difference detection result obtained in S806. As described above, the shooting conditions are reset and the shooting is repeated.

以上のような本実施例の動作をさせることで、HDR処理をした映像信号データと位相差検出動作を同時に両立させ、かつ撮影枚数より多い露光条件で、ランダムノイズを低減したHDR撮影を行うことができる。また、位相差検出用画素において、映像信号処理部104のAE情報を用いて位相差検出に適切な露光条件を決めることで、信号の白飛びやSNが劣る露光条件を回避しやすくすることができる。   By performing the operation of the present embodiment as described above, HDR imaging with simultaneous reduction of HDR-processed video signal data and phase difference detection operation and reduction of random noise under exposure conditions larger than the number of shots is performed. Can do. In addition, in the phase difference detection pixel, by determining appropriate exposure conditions for phase difference detection using the AE information of the video signal processing unit 104, it is possible to easily avoid exposure conditions in which signals are overexposed or SN is inferior. it can.

(実施例2)
次に、実施例2について説明する。実施例2の撮像装置は、その構成が実施例1の撮像装置と同じである。したがって、実施例1と同様の部分については、同一の符号を用いてその説明を省略する。
(Example 2)
Next, Example 2 will be described. The imaging apparatus according to the second embodiment has the same configuration as the imaging apparatus according to the first embodiment. Therefore, the same parts as those in the first embodiment are denoted by the same reference numerals and the description thereof is omitted.

図10は、実施例2における画素の露光条件のパターンを示す図である。図10では、第1のフレームに係るセンサ配列を示す。低出力画素については、図6に示すセンサ配列と同様であるが、実施例2では、画素信号を読み出さない画素201Rおよび画素201Lを設ける。図10に示す例では、画素信号を読み出さない画素201Rおよび画素201Lは、白抜きになっており(ハッチが掛かっていない)、R画素、Gr画素、Gb画素、BL画素の文字に対しては取り消し線を施している。   FIG. 10 is a diagram showing a pattern of pixel exposure conditions in the second embodiment. FIG. 10 shows a sensor array according to the first frame. The low output pixels are the same as the sensor array shown in FIG. 6, but in the second embodiment, the pixels 201 </ b> R and 201 </ b> L that do not read out pixel signals are provided. In the example shown in FIG. 10, the pixel 201R and the pixel 201L from which the pixel signal is not read out are white (not hatched), and for the characters of the R pixel, the Gr pixel, the Gb pixel, and the BL pixel, Strike through.

実施例2では、図10に示すパターンのように、第1のフレームの位相差検出に用いる画素の画素信号を読み出さず、HDR撮像に用いる画素のみを読み出す。これにより、読みださない画素のカラム信号処理回路204をスリープさせたり、垂直駆動回路203や水平駆動回路205を余計に動作させたりする必要が無くなるので、省電力効果を得ることができる。すなわち、撮像素子は、第2の撮影については、複数の画素部が有する全ての画素から信号を読み出し、第1の撮影については、位相差検出処理に用いられる画素のみから信号を読み出す。以上のことから、実施例2によれば、HDR撮像と位相差検出を両立させ、かつ撮影枚数より多い露光条件でHDR撮影ができ、かつ省電力効果を狙うことができる。もちろん、撮像素子が、第1の撮影については、複数の画素部が有する全ての画素から信号を読み出し、第2の撮影については、位相差検出処理に用いられる画素のみから信号を読み出すようにしてもよい。   In the second embodiment, as in the pattern shown in FIG. 10, only the pixels used for HDR imaging are read without reading the pixel signals of the pixels used for phase difference detection of the first frame. This eliminates the need to put the column signal processing circuit 204 for pixels that are not read out to sleep or operate the vertical driving circuit 203 or the horizontal driving circuit 205 in an extra manner, so that a power saving effect can be obtained. That is, for the second imaging, the imaging element reads signals from all the pixels included in the plurality of pixel units, and for the first imaging, reads signals only from the pixels used for the phase difference detection process. From the above, according to the second embodiment, HDR imaging and phase difference detection can be made compatible, HDR imaging can be performed under an exposure condition larger than the number of images to be captured, and a power saving effect can be aimed at. Of course, the image sensor reads out signals from all the pixels of the plurality of pixel units for the first imaging, and reads out signals only from the pixels used for the phase difference detection processing for the second imaging. Also good.

第1および第2の実施例では、撮像素子102に対して映像信号処理部104、位相差信号処理部106が撮像装置内に設けられた構成例を説明したが、これらの信号処理部の機能の少なくとも一部を撮像素子内に設けた構成でもよい。この場合、例えば撮像素子には多数の画素部を行列状に配列した画素アレイ部(撮像部)と、各画素部の信号を処理する信号処理部が集積回路チップ上に実装される。例えば、積層型撮像素子の場合、撮像素子は信号処理部を構成する第1の集積回路チップ上に撮像部を構成する第2の集積回路チップが積層された構成である。このとき、第1の集積回路チップ上に構成される信号処理部として、焦点検出用には2像の相関演算を行う相関演算部と相関演算結果から像ずれ量を算出する算出部を備えるとよい。これにより、撮像素子102からの出力としては像ずれ量(あるいはデフォーカス量)やその分布を出力すればよいので、センサの製造コストを下げたり、後段の画像処理部の帯域を確保することができる。またこのとき、HDR処理用には撮像素子102に起因する画素の欠陥や信号のばらつき等を補正する補正処理部とHDR合成を行う合成処理部を備えるとよい。これにより、撮像素子102からの出力としては合成後の1フレーム分の画像信号が出力されるので、上記と同様の効果がある上に、画質を決める重要な処理を、より高精度な解析や処理が可能であろう後段の画像処理部に任せることができる。もちろん上記に限らず、焦点検出用、HDR処理用に他の処理の一部あるいは全部を撮像素子102内の信号処理部に設けてもよい。また、信号処理部の具体的な構成例としては、HDR処理にてビットレンジ伸長処理を行う第1の信号処理と、位相差検出を行う第2の信号処理を並列に実行する1つの信号処理部を設けてもよい。   In the first and second embodiments, the configuration example in which the video signal processing unit 104 and the phase difference signal processing unit 106 are provided in the imaging device with respect to the imaging element 102 has been described. Functions of these signal processing units A configuration in which at least a part of the image sensor is provided in the image sensor may be used. In this case, for example, a pixel array unit (imaging unit) in which a large number of pixel units are arranged in a matrix and a signal processing unit that processes a signal of each pixel unit are mounted on the integrated circuit chip. For example, in the case of a stacked imaging device, the imaging device has a configuration in which a second integrated circuit chip that constitutes an imaging unit is stacked on a first integrated circuit chip that constitutes a signal processing unit. At this time, the signal processing unit configured on the first integrated circuit chip includes a correlation calculation unit that performs correlation calculation of two images for focus detection and a calculation unit that calculates an image shift amount from the correlation calculation result. Good. As a result, since the image shift amount (or defocus amount) and distribution thereof may be output as the output from the image sensor 102, it is possible to reduce the manufacturing cost of the sensor or to secure the bandwidth of the image processing unit at the subsequent stage. it can. At this time, for HDR processing, a correction processing unit that corrects pixel defects or signal variations caused by the image sensor 102 and a synthesis processing unit that performs HDR synthesis may be provided. As a result, an image signal for one frame after synthesis is output as an output from the image sensor 102. In addition to the same effects as described above, an important process for determining the image quality can be performed with higher accuracy analysis and It can be left to an image processing unit at a later stage that can be processed. Of course, the present invention is not limited to the above, and a part or all of other processing may be provided in the signal processing unit in the image sensor 102 for focus detection and HDR processing. In addition, as a specific configuration example of the signal processing unit, one signal processing that executes in parallel the first signal processing that performs bit range expansion processing in HDR processing and the second signal processing that performs phase difference detection A part may be provided.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

102 撮像素子
104 映像信号処理部
106 位相差信号処理部
107 制御部
102 Image sensor 104 Video signal processing unit 106 Phase difference signal processing unit 107 Control unit

Claims (12)

複数の画素部から信号を取得して、焦点検出および画像生成の信号処理を行うことが可能な撮像素子であって、
第1および第2の画素部がそれぞれ有する第1および第2の光電変換部に対して、信号の出力条件を設定する設定手段と、
第1および第2の撮影について前記第1および第2の画素部から得られる、第1ないし第3の出力条件の画素信号に基づいて、前記画像生成の信号処理を行う信号処理手段と、を備えることを特徴とする撮像素子。
An image sensor capable of acquiring signals from a plurality of pixel units and performing signal processing for focus detection and image generation,
Setting means for setting signal output conditions for the first and second photoelectric conversion units respectively included in the first and second pixel units;
Signal processing means for performing signal processing of the image generation based on pixel signals of the first to third output conditions obtained from the first and second pixel units for the first and second imaging; An image pickup device comprising:
前記信号処理手段はさらに、前記第1および第2の画素部がそれぞれ有する前記第1および第2の光電変換部のうち、出力条件の設定が同じである光電変換部から得られる複数の信号を用いて、前記焦点検出の信号処理を行うことを特徴とする請求項1に記載の撮像素子。   The signal processing means further outputs a plurality of signals obtained from photoelectric conversion units having the same output condition setting among the first and second photoelectric conversion units included in the first and second pixel units, respectively. The imaging device according to claim 1, wherein signal processing of the focus detection is performed. 前記焦点検出の信号処理に用いられる、前記第1の画素部が有する光電変換部と前記第2の画素部が有する光電変換部との配置関係は、前記第1および第2の撮影で同じであることを特徴とする請求項2に記載の撮像素子。   The positional relationship between the photoelectric conversion unit included in the first pixel unit and the photoelectric conversion unit included in the second pixel unit, which is used for the focus detection signal processing, is the same in the first and second imaging. The image pickup device according to claim 2, wherein the image pickup device is provided. 前記複数の画素部から画素信号を読み出す読み出し手段を備え、
前記読み出し手段は、前記第2の撮影については、前記複数の画素部が有する全ての光電変換部から信号を読み出し、前記第1の撮影については、前記焦点検出の信号処理に用いられる光電変換部のみから信号を読み出すことを特徴とする請求項1から3のいずれか1項に記載の撮像素子。
Readout means for reading out pixel signals from the plurality of pixel portions,
The reading means reads signals from all the photoelectric conversion units included in the plurality of pixel units for the second imaging, and the photoelectric conversion unit used for the focus detection signal processing for the first imaging. The image sensor according to any one of claims 1 to 3, wherein a signal is read out only from the image sensor.
前記設定手段は、
前記第1の撮影については、前記第1の画素部が有する第1の光電変換部を前記第2の出力条件に、第2の光電変換部を前記第1の出力条件に設定し、
前記第2の撮影については、前記第1の画素部が有する第1の光電変換部を前記第2の出力条件に設定し、第2の光電変換部を前記第3の出力条件に設定する
ことを特徴とする請求項1から4のいずれか1項に記載の撮像素子。
The setting means includes
For the first imaging, the first photoelectric conversion unit included in the first pixel unit is set to the second output condition, the second photoelectric conversion unit is set to the first output condition,
For the second imaging, the first photoelectric conversion unit included in the first pixel unit is set to the second output condition, and the second photoelectric conversion unit is set to the third output condition. The imaging device according to any one of claims 1 to 4, wherein
第1および第2の画素部は、第1の方向に配置され、前記第1および第2の光電変換部は、画素部内で前記第1の方向とは異なる第2の方向に配置されており、
前記信号処理手段は、前記第1の撮影についての前記第1の画素部が有する第1の光電変換部の信号と、前記第2の光電変換部の信号と、前記第2の撮影フレームについての前記第2の光電変換部の信号とに基づいて、画像信号のダイナミックレンジ拡大の信号処理を行うことを特徴とする請求項5に記載の撮像素子。
The first and second pixel units are arranged in a first direction, and the first and second photoelectric conversion units are arranged in a second direction different from the first direction in the pixel unit. ,
The signal processing means includes a signal of a first photoelectric conversion unit, a signal of the second photoelectric conversion unit, and a signal of the second shooting frame included in the first pixel unit for the first shooting. The image sensor according to claim 5, wherein signal processing for expanding a dynamic range of an image signal is performed based on a signal from the second photoelectric conversion unit.
前記画像信号のダイナミックレンジ拡大の信号処理を行うかを判定する判定手段を備え、
前記信号処理手段は、前記画像信号のダイナミックレンジ拡大の信号処理を行うと判定された場合に、前記画像信号のダイナミックレンジ拡大の信号処理を行うことを特徴とする請求項6に記載の撮像素子。
Determination means for determining whether to perform signal processing for dynamic range expansion of the image signal;
The image sensor according to claim 6, wherein the signal processing unit performs signal processing for expanding the dynamic range of the image signal when it is determined to perform signal processing for expanding the dynamic range of the image signal. .
前記第1および第2の画素部は、マイクロレンズと、前記マイクロレンズに対応する前記第1および第2の光電変換部をそれぞれ有し、
前記第1および第2の光電変換部は、撮像光学系の異なる射出瞳を通った被写体光を光電変換する
ことを特徴とする請求項1から7のいずれか1項に記載の撮像素子。
The first and second pixel units each include a microlens and the first and second photoelectric conversion units corresponding to the microlens,
The image sensor according to any one of claims 1 to 7, wherein the first and second photoelectric conversion units photoelectrically convert subject light that has passed through different exit pupils of an image pickup optical system.
前記画素信号の出力条件は、前記光電変換部の感度、露光時間、信号の増幅度および絞り値のうちの1つ以上の条件であることを特徴とする請求項1から8のいずれか1項に記載の撮像素子。   9. The output condition of the pixel signal is one or more of a sensitivity, an exposure time, a signal amplification degree, and an aperture value of the photoelectric conversion unit. The imaging device described in 1. 複数の画素部を有する撮像素子と、前記画素部の信号を取得して焦点検出および画像生成の信号処理を行う撮像装置であって、
第1および第2の画素部がそれぞれ有する第1および第2の光電変換部に対して、信号の出力条件を設定する設定手段と、
第1および第2の撮影について前記第1および第2の画素部から得られる、第1ないし第3の出力条件の画素信号に基づいて、前記画像生成の信号処理を行う信号処理手段と、備えることを特徴とする撮像装置。
An imaging device having a plurality of pixel units, and an imaging device that acquires signals from the pixel units and performs signal processing for focus detection and image generation,
Setting means for setting signal output conditions for the first and second photoelectric conversion units respectively included in the first and second pixel units;
Signal processing means for performing signal processing of the image generation based on pixel signals of the first to third output conditions obtained from the first and second pixel units for the first and second imaging. An imaging apparatus characterized by that.
前記信号処理手段はさらに、前記第1および第2の画素部がそれぞれ有する前記第1および第2の光電変換部のうち、画素信号の出力条件の設定が同じである光電変換部から得られる複数の画素信号を用いて、前記焦点検出の信号処理を行う信号処理手段とを備えることを特徴とする請求項10に記載の撮像装置。   The signal processing means further includes a plurality of signal processing units obtained from photoelectric conversion units having the same pixel signal output condition setting among the first and second photoelectric conversion units included in the first and second pixel units, respectively. The image pickup apparatus according to claim 10, further comprising: a signal processing unit that performs signal processing for the focus detection using the pixel signal. 撮像素子を構成する複数の画素部の信号を取得して、焦点検出および画像生成の信号処理を行う撮像信号処理方法であって、
第1および第2の画素部がそれぞれ有する第1および第2の光電変換部に対して、信号の出力条件を設定する工程と、
第1および第2の撮影について前記第1および第2の画素部から得られる、第1ないし第3の出力条件の画素信号に基づいて、前記画像生成の信号処理を行う工程と、を有することを特徴とする撮像信号処理方法。
An imaging signal processing method for acquiring signals from a plurality of pixel units constituting an imaging device and performing signal processing for focus detection and image generation,
A step of setting signal output conditions for the first and second photoelectric conversion units respectively included in the first and second pixel units;
A step of performing signal processing of the image generation based on pixel signals of the first to third output conditions obtained from the first and second pixel units for the first and second imaging. An imaging signal processing method characterized by the above.
JP2016110503A 2016-06-01 2016-06-01 Image sensor, image sensor, and image signal processing method Active JP6762767B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016110503A JP6762767B2 (en) 2016-06-01 2016-06-01 Image sensor, image sensor, and image signal processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016110503A JP6762767B2 (en) 2016-06-01 2016-06-01 Image sensor, image sensor, and image signal processing method

Publications (2)

Publication Number Publication Date
JP2017216649A true JP2017216649A (en) 2017-12-07
JP6762767B2 JP6762767B2 (en) 2020-09-30

Family

ID=60577337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016110503A Active JP6762767B2 (en) 2016-06-01 2016-06-01 Image sensor, image sensor, and image signal processing method

Country Status (1)

Country Link
JP (1) JP6762767B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015517516A (en) * 2012-05-18 2015-06-22 ヴィロノヴァ・アクチェボラーグ Methanethione compounds with antiviral activity
CN108366213A (en) * 2017-12-19 2018-08-03 思特威电子科技(开曼)有限公司 Pixel and its imaging method and imaging device
JP2020004804A (en) * 2018-06-26 2020-01-09 キヤノン株式会社 Solid-state imaging device, imaging system, moving object, and manufacturing method of solid-state imaging device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015181213A (en) * 2014-03-05 2015-10-15 ソニー株式会社 Imaging apparatus
JP2015201834A (en) * 2014-03-31 2015-11-12 ソニー株式会社 Solid-state imaging apparatus, drive control method and image processing method of the same, and electronic apparatus
JP2016053849A (en) * 2014-09-03 2016-04-14 ソニー株式会社 Image processor and image processing method, and solid-state imaging device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015181213A (en) * 2014-03-05 2015-10-15 ソニー株式会社 Imaging apparatus
JP2015201834A (en) * 2014-03-31 2015-11-12 ソニー株式会社 Solid-state imaging apparatus, drive control method and image processing method of the same, and electronic apparatus
JP2016053849A (en) * 2014-09-03 2016-04-14 ソニー株式会社 Image processor and image processing method, and solid-state imaging device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015517516A (en) * 2012-05-18 2015-06-22 ヴィロノヴァ・アクチェボラーグ Methanethione compounds with antiviral activity
CN108366213A (en) * 2017-12-19 2018-08-03 思特威电子科技(开曼)有限公司 Pixel and its imaging method and imaging device
CN108366213B (en) * 2017-12-19 2020-09-04 思特威(上海)电子科技有限公司 Pixel, imaging method thereof and imaging device
JP2020004804A (en) * 2018-06-26 2020-01-09 キヤノン株式会社 Solid-state imaging device, imaging system, moving object, and manufacturing method of solid-state imaging device
US11431922B2 (en) 2018-06-26 2022-08-30 Canon Kabushiki Kaisha Photoelectric conversion apparatus, imaging system, and moving object, with high sensitivity and saturation charge
JP7218108B2 (en) 2018-06-26 2023-02-06 キヤノン株式会社 Solid-state imaging device, imaging system, moving body, manufacturing method of solid-state imaging device

Also Published As

Publication number Publication date
JP6762767B2 (en) 2020-09-30

Similar Documents

Publication Publication Date Title
JP6765860B2 (en) Image sensor, image sensor, and image signal processing method
US10270990B2 (en) Imaging element, imaging apparatus, and imaging signal processing method
US9661210B2 (en) Image pickup device and image pickup apparatus
JP5850680B2 (en) Imaging apparatus and control method thereof
US10063762B2 (en) Image sensor and driving method thereof, and image capturing apparatus with output signal control according to color
JP5979961B2 (en) FOCUS DETECTION DEVICE, FOCUS DETECTION METHOD, AND IMAGING DEVICE
US20160316158A1 (en) Imaging apparatus and signal processing method
JP2022079626A (en) Imaging device and imaging apparatus
US9948850B2 (en) Image sensor, control method for the same, and image capture apparatus
JP2015049402A (en) Defocus-amount detection device, and control method of the same, and imaging device
JP2017216647A (en) Imaging device, imaging apparatus and imaging signal processing method
US10645320B2 (en) Image pickup apparatus, control method for image pickup apparatus, and computer-readable non-transitory recording medium in which control program for image pickup apparatus is recorded
JP2018019296A (en) Imaging apparatus and control method therefor
US10225494B2 (en) Image capturing apparatus and control method thereof
JP6762767B2 (en) Image sensor, image sensor, and image signal processing method
JP2018056703A (en) Imaging device and imaging apparatus
US11171169B2 (en) Image sensor, imaging device and imaging method
JP6748477B2 (en) Imaging device, control method thereof, program, and storage medium
JP6559021B2 (en) Imaging apparatus and control program therefor
US11310410B2 (en) Image capturing apparatus, method of controlling same, and storage medium
JP6762849B2 (en) Image sensor, its control method, program and recording medium
JP2016102838A (en) Imaging device
JP7329136B2 (en) Imaging device
US10904424B2 (en) Image capturing apparatus
JP6590055B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200210

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200909

R151 Written notification of patent or utility model registration

Ref document number: 6762767

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151