WO2020230675A1 - 撮像素子および電子機器 - Google Patents

撮像素子および電子機器 Download PDF

Info

Publication number
WO2020230675A1
WO2020230675A1 PCT/JP2020/018455 JP2020018455W WO2020230675A1 WO 2020230675 A1 WO2020230675 A1 WO 2020230675A1 JP 2020018455 W JP2020018455 W JP 2020018455W WO 2020230675 A1 WO2020230675 A1 WO 2020230675A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
pupil correction
photoelectric conversion
image
unit
Prior art date
Application number
PCT/JP2020/018455
Other languages
English (en)
French (fr)
Inventor
泰志 片山
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to CN202080028596.XA priority Critical patent/CN113692647A/zh
Priority to JP2021519384A priority patent/JPWO2020230675A1/ja
Priority to EP20805180.5A priority patent/EP3968377A4/en
Priority to KR1020217035980A priority patent/KR20220006522A/ko
Priority to US17/608,519 priority patent/US11930287B2/en
Publication of WO2020230675A1 publication Critical patent/WO2020230675A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/1461Pixel-elements with integrated switching, control, storage or amplification elements characterised by the photosensitive area
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/42Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by switching between different modes of operation using different resolutions or aspect ratios, e.g. switching between interlaced and non-interlaced mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0056Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/201Filters in the form of arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements

Definitions

  • the present invention relates to an image sensor and an electronic device.
  • a pixel array in which a plurality of pixels each having a microlens are arranged is irradiated with light from a main lens.
  • the entrance pupil diameter with respect to the pixel changes according to the image height with respect to the optical axis position of the main lens of each pixel, and the amount of light emitted to the pixel changes. Therefore, there is known a technique for pupil correction that suppresses a change in the entrance pupil diameter by shifting the position of a microlens or the like of each pixel according to the image height.
  • an image plane phase difference AF method in which autofocus (AF) processing and parallax detection are performed based on the phase difference between the pixel signals of a plurality of pixels arranged in the row direction (or column direction) in the above-mentioned pixel array. ing.
  • the correction amount of pupil correction for each pixel included in one pixel array was fixed for each pixel.
  • the entrance pupil diameter of the main lens changes when the main lens is changed due to lens replacement, zoom operation, or the like.
  • the pupil correction is not properly performed, and it becomes difficult to acquire the phase difference of the image signal with high accuracy.
  • An object of the present disclosure is to provide an image sensor and an electronic device capable of acquiring a phase difference of an image signal with high accuracy in a wider range of entrance pupil diameter.
  • the imaging element according to the present disclosure is a set of a plurality of photoelectric conversion elements arranged in a grid pattern and two or more photoelectric conversion elements arranged adjacent to each other among the plurality of photoelectric conversion elements.
  • the light receiving unit includes a plurality of lenses provided on a one-to-one basis, and each of the light receiving units includes a set of elements and a lens provided in the set of elements among the plurality of lenses.
  • the pupil correction amounts of at least two pixel sets adjacent to each other in the set are different from each other.
  • FIG. 10 is a diagram schematically showing a pixel array unit. It is a figure which shows schematic cross section of the pixel set which performs strong pupil correction which concerns on 1st Embodiment. It is a figure which shows schematic cross section of the pixel set which performs the weak pupil correction which concerns on 1st Embodiment.
  • FIG. 5 is a cross-sectional view showing a first example of a pixel configuration for suppressing color mixing between pixel sets, which is applicable to the first embodiment.
  • FIG. 5 is a cross-sectional view showing a second example of a pixel configuration for suppressing color mixing between pixel sets, which is applicable to the first embodiment.
  • It is a figure which shows the example of the light-shielding body arranged at the boundary of each pixel block, which can be applied to 1st Embodiment.
  • It is a figure which shows the example of the shading body arranged at the boundary of each pixel set, which can be applied to the 1st Embodiment.
  • It is a figure which shows the example of the pupil correction in a region C which concerns on the modification of 1st Embodiment.
  • FIG. 1 is a block diagram showing a configuration of an example of an electronic device that is commonly applicable to each embodiment.
  • the electronic device 1 includes an optical system 2, a control unit 3, an image sensor 4, an image processing unit 5, a memory 6, a storage unit 7, a display unit 8, and an interface (I / F).
  • a unit 9 and an input device 10 are provided.
  • the electronic device 1 a digital still camera, a digital video camera, a mobile phone with an imaging function, a smartphone, or the like can be applied. Further, as the electronic device 1, it is also possible to apply a surveillance camera, an in-vehicle camera, a medical camera, or the like.
  • the image sensor 4 includes, for example, a plurality of photoelectric conversion elements arranged in a grid pattern.
  • the photoelectric conversion element converts the received light into electric charges by photoelectric conversion.
  • the image pickup element 4 includes a drive circuit for driving the plurality of photoelectric conversion elements, and a signal processing circuit for reading charges from each of the plurality of photoelectric conversion elements and generating image data based on the read charges.
  • the optical system 2 includes a main lens formed by combining one or a plurality of lenses and a mechanism for driving the main lens, and receives image light (incident light) from a subject through the main lens in the image sensor 4. An image is formed on the light receiving surface of the lens. Further, the optical system 2 includes an autofocus mechanism that adjusts the focus according to a control signal and a zoom mechanism that changes the zoom ratio according to the control signal. Further, the electronic device 1 may have the optical system 2 detachable so that it can be replaced with another optical system 2.
  • the image processing unit 5 executes predetermined image processing on the image data output from the image sensor 4.
  • the image processing unit 5 is connected to a memory 6 such as a frame memory, and writes the image data output from the image sensor 4 to the memory 6.
  • the image processing unit 5 executes predetermined image processing on the image data written in the memory 6, and writes the image-processed image data in the memory 6 again.
  • the storage unit 7 is a non-volatile memory such as a flash memory or a hard disk drive, and stores the image data output from the image processing unit 5 non-volatilely.
  • the display unit 8 includes a display device such as an LCD (Liquid Crystal Display) and a drive circuit for driving the display device, and the image processing unit 5 can display an image based on the output image data.
  • the I / F unit 9 is an interface for transmitting the image data output from the image processing unit 5 to the outside. As the I / F unit 9, for example, USB (Universal Serial Bus) can be applied. Not limited to this, the I / F unit 9 may be an interface that can be connected to the network by wired communication or wireless communication.
  • the input device 10 includes an operator for accepting user input and the like. If the electronic device 1 is, for example, a digital still camera, a digital video camera, a mobile phone or a smartphone with an image pickup function, the input device 10 has a shutter button for instructing an image pickup by the image pickup element 4 or a function of the shutter button. It can include controls to achieve it.
  • the control unit 3 includes a processor such as a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and uses the RAM as a work memory according to a program stored in the ROM in advance. It controls the overall operation of the electronic device 1. For example, the control unit 3 can control the operation of the electronic device 1 according to the user input received by the input device 10. Further, the control unit 3 can control the autofocus mechanism in the optical system 2 based on the image processing result of the image processing unit 5.
  • a processor such as a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory)
  • the control unit 3 can control the operation of the electronic device 1 according to the user input received by the input device 10. Further, the control unit 3 can control the autofocus mechanism in the optical system 2 based on the image processing result of the image processing unit 5.
  • FIG. 2 is a block diagram showing a basic configuration example of the image sensor 4 that can be applied in common to each embodiment.
  • the image sensor 4 controls the pixel array unit 11, the vertical scanning unit 12, the AD (Analog to Digital) conversion unit 13, the pixel signal line 16, the vertical signal line 17, and the output unit 18.
  • a unit 19 and a signal processing unit 20 are included.
  • the pixel array unit 11 includes a plurality of pixels 110 each having a photoelectric conversion element that performs photoelectric conversion on the received light.
  • a photodiode can be used as the photoelectric conversion element.
  • the plurality of pixels 110 are arranged in a two-dimensional grid in the horizontal direction (row direction) and the vertical direction (column direction).
  • the arrangement of the pixels 110 in the row direction is called a line.
  • One frame of image (image data) is formed by the pixel signals read from a predetermined number of lines in the pixel array unit 11. For example, when an image of one frame is formed by 3000 pixels ⁇ 2000 lines, the pixel array unit 11 includes at least 2000 lines including at least 3000 pixels 110.
  • a pixel signal line 16 is connected to each row and column of each pixel 110, and a vertical signal line 17 is connected to each column.
  • the end of the pixel signal line 16 that is not connected to the pixel array unit 11 is connected to the vertical scanning unit 12.
  • the vertical scanning unit 12 transmits a control signal such as a drive pulse when reading a pixel signal from the pixel 110 to the pixel array unit 11 via the pixel signal line 16 in accordance with the control of the control unit 19 described later.
  • the end portion of the vertical signal line 17 that is not connected to the pixel array unit 11 is connected to the AD conversion unit 13.
  • the pixel signal read from the pixel is transmitted to the AD conversion unit 13 via the vertical signal line 17.
  • the control of reading out a pixel signal from a pixel will be outlined.
  • the pixel signal is read out from the pixel by transferring the charge accumulated in the photoelectric conversion element by exposure to the floating diffusion layer (FD) and converting the charge transferred in the floating diffusion layer into a voltage.
  • the voltage at which the charge is converted in the floating diffusion layer is output to the vertical signal line 17 via an amplifier.
  • the floating diffusion layer and the vertical signal line 17 are connected according to the selection signal supplied via the pixel signal line 16. Further, the floating diffusion layer is connected to the supply line of the power supply voltage VDD or the black level voltage in a short period of time according to the reset pulse supplied via the pixel signal line 16 to reset the floating diffusion layer. A voltage (referred to as voltage P) at the reset level of the floating diffusion layer is output to the vertical signal line 17.
  • the transfer pulse supplied via the pixel signal line 16 turns the photoelectric conversion element and the floating diffusion layer into an on (closed) state, and transfers the electric charge accumulated in the photoelectric conversion element to the floating diffusion layer.
  • a voltage (referred to as voltage Q) corresponding to the amount of electric charge of the floating diffusion layer is output to the vertical signal line 17.
  • the AD conversion unit 13 includes an AD converter 1300 provided for each vertical signal line 17, a reference signal generation unit 14, and a horizontal scanning unit 15.
  • the AD converter 1300 is a column AD converter that performs AD conversion processing on each column of the pixel array unit 11.
  • the AD converter 1300 performs AD conversion processing on the pixel signal supplied from the pixel 110 via the vertical signal line 17, and performs AD conversion processing for noise reduction.
  • 2 For Correlated Double Sampling (CDS) processing. Generates two digital values (values corresponding to voltage P and voltage Q, respectively).
  • CDS Correlated Double Sampling
  • the AD converter 1300 supplies the two generated digital values to the signal processing unit 20.
  • the signal processing unit 20 performs CDS processing based on the two digital values supplied from the AD converter 1300, and generates a pixel signal (pixel data) based on the digital signal.
  • the pixel data generated by the signal processing unit 20 is output to the outside of the image sensor 4.
  • the image data output from the signal processing unit 20 is supplied to, for example, the image processing unit 5, and is sequentially stored in, for example, the memory 6 which is a frame buffer.
  • the memory 6 which is a frame buffer.
  • the stored pixel data is read from the frame buffer as image data for one frame.
  • the reference signal generation unit 14 generates a lamp signal RAMP used by each AD converter 1300 to convert the pixel signal into two digital values based on the ADC control signal input from the control unit 19.
  • the lamp signal RAMP is a signal whose level (voltage value) decreases with a constant slope with respect to time, or a signal whose level decreases stepwise.
  • the reference signal generation unit 14 supplies the generated lamp signal RAMP to each AD converter 1300.
  • the reference signal generation unit 14 is configured by using, for example, a DA (Digital to Analog) conversion circuit or the like.
  • the horizontal scanning unit 15 performs selective scanning in which the AD converters 1300 are selected in a predetermined order to temporarily hold each digital value of the AD converters 1300.
  • the signal processing unit 20 is sequentially output.
  • the horizontal scanning unit 15 is configured by using, for example, a shift register or an address decoder.
  • the control unit 19 performs drive control of the vertical scanning unit 12, the AD conversion unit 13, the reference signal generation unit 14, the horizontal scanning unit 15, and the like.
  • the control unit 19 generates various drive signals that serve as a reference for the operation of the vertical scanning unit 12, the AD conversion unit 13, the reference signal generation unit 14, and the horizontal scanning unit 15.
  • the control unit 19 supplies the vertical scanning unit 12 to each pixel 110 via the pixel signal line 16 based on the vertical synchronization signal or the external trigger signal supplied from the outside (for example, the control unit 3) and the horizontal synchronization signal. To generate a control signal for.
  • the control unit 19 supplies the generated control signal to the vertical scanning unit 12.
  • the vertical scanning unit 12 supplies various signals including a drive pulse to the pixel signal line 16 of the selected pixel line of the pixel array unit 11 to each pixel 110 for each line. Then, each pixel 110 outputs a pixel signal to the vertical signal line 17.
  • the vertical scanning unit 12 is configured by using, for example, a shift register or an address decoder.
  • the image sensor 4 configured in this way is a column AD type CMOS (Complementary Metal Oxide Semiconductor) image sensor in which AD converters 1300 are arranged for each column.
  • CMOS Complementary Metal Oxide Semiconductor
  • Each pixel 110 may be provided with a filter that selectively transmits light in a predetermined wavelength band.
  • the filter is called a color filter.
  • a color filter of each wavelength band of red (R), green (G), and blue (B) constituting the three primary colors is arranged for each pixel 110.
  • a color filter of each color having a complementary color relationship may be arranged for each pixel 110, a filter that selectively transmits light in the wavelength band in the infrared region, or all wavelengths in the visible light region. It may be a filter that transmits light in the band.
  • these various filters will be described as represented by color filters.
  • FIG. 3 is a diagram showing an example of a commonly used Bayer array.
  • two pixels 110G in which a G color filter is arranged, one pixel 110R in which an R color filter is arranged, and a B color filter are arranged.
  • the pixel 110B and the like are included.
  • these four pixels are arranged in a grid pattern of 2 pixels ⁇ 2 pixels so that the two pixels 110G are not adjacent to each other.
  • the Bayer array is an array in which the pixels 110 on which the color filters that transmit light in the same wavelength band are arranged are not adjacent to each other.
  • pixel 110R in which the R color filter is arranged is referred to as “R color pixel 110R” or simply “pixel 110R".
  • R color pixel 110R the same applies to the pixel 110G in which the G color filter is arranged and the pixel 110B in which the B color filter is arranged.
  • each pixel 110R, 110G and 110B is described by being represented by the pixel 110.
  • FIG. 4 is a diagram showing an example of a pixel configuration applicable to the first embodiment described later.
  • the pixel block in which 2 pixels ⁇ 2 pixels of the same color are arranged in a grid pattern is used as a unit, and 4 R color pixels 110R, 4 G color pixels 110G, and 4 pixels.
  • Each pixel block of the B-color pixel 110B and the above is arranged in a pixel arrangement according to the bayer arrangement.
  • such a pixel array is referred to as a 4-division Bayer type RGB array.
  • each pixel block consisting of R color pixels 110R, G color pixels 110G, and B color pixels 110B has the number of pixels 110R, pixels 110G, and pixels 110B.
  • the ratio is 1: 2: 1 and the pixels are arranged in a 2 ⁇ 2 grid so that pixel blocks of pixels of the same color are not adjacent to each other.
  • pixel blocks of G-color pixels 110G are arranged to the left and below the pixel block of B-color pixels 110B, and R-color pixels 110R are used diagonally of the pixel block of B-color pixels 110B. Pixel blocks are arranged.
  • Each pixel 110 arranged in the pixel array unit 11 is provided with an OCL (On Chip Lens).
  • OCL On Chip Lens
  • one OCL is commonly provided for a plurality of pixels 110 adjacent to each other.
  • FIG. 5 is a diagram schematically showing an example in which one OCL is provided for two pixels 110 applicable to each embodiment.
  • the four Pixels 110G 1 , 110G 2 , 110G 3 and 110G 4 of G color in the 4-split Bayer type RGB array shown in FIG. 5 will be described more specifically by taking as an example.
  • one OCL 30 is provided for a set of two pixels 110G 1 and 110G 2 adjacent to each other in the horizontal direction.
  • one OCL 30 is provided for a set of two pixels 110G 3 and 110G 4 adjacent to each other in the horizontal direction.
  • the R-color pixel 110R and the B-color pixel 110B for the pair of two pixels 110R horizontally adjacent to each other in the horizontal direction and the set of two pixels 110B adjacent to each other in the horizontal direction in FIG. 5, respectively.
  • One OCL30 is provided.
  • a set of a plurality of pixels 110 adjacent to each other, which is appropriately provided with one OCL30 in common, and the OCL30 are collectively referred to as a "pixel set".
  • a pixel set is configured by including two pixels 110 adjacent to each other in the horizontal direction of the pixel array unit 11.
  • the left-right direction of the figure is defined as the horizontal direction
  • the vertical direction of the diagram is defined as the vertical direction.
  • FIG. 6 is a diagram schematically showing a cross section of a pixel set applicable to each embodiment.
  • the pixel set includes two pixels 110 arranged adjacent to each other.
  • each of the two pixels 110 included in the pixel set is provided with a color filter 112 with respect to the incident surface of the photoelectric conversion unit 111 that generates electric charges in accordance with the incident light. It has a structure.
  • the two color filters 112 included in one pixel set transmit light in the same wavelength band.
  • an OCL 30 is provided in common with the two pixels 110.
  • the image plane phase difference AF method (About the image plane phase difference AF method) Next, the image plane phase difference AF method will be schematically described.
  • the image plane phase difference AF method autofocus control and parallax detection are performed based on the phase difference of pixel signals extracted from pixels 110 having different positions.
  • the phase difference of each pixel signal by the pixels 110G 1 and 110G 2 is detected, and the detected position is detected. For example, information for performing autofocus control is acquired based on the phase difference.
  • FIG. 7 is a diagram for explaining the first example of the method by the existing technique for realizing the image plane phase difference AF method.
  • one pixel 110w is configured to include two photoelectric conversion units 111wa and 111wb arranged adjacent to each other.
  • One color filter 112a and one OCL31 are commonly provided in the photoelectric conversion units 111wa and 111wb.
  • a light-shielding body 113 is provided between the color filter 112a and another color filter 112b adjacent to the color filter 112a and having a wavelength band different from that of the color filter 112a, and the color filter 112a and the color filter 112b are provided. Leakage of light between and is suppressed.
  • phase difference pixels for example, by detecting the phase difference of each pixel signal by the photoelectric conversion units 111wa and 111wb, image plane phase difference AF and parallax detection can be realized. That is, in the configuration of FIG. 7, the pixel 110w including the two photoelectric conversion units 111wa and 111wb arranged adjacent to each other is the pixel for phase difference detection.
  • pixels for phase difference detection will be appropriately described as "phase difference pixels”.
  • the color filter 112a (light-shielding body 113) and the OCL 31 are directed to the right on FIG. 7 with respect to the incident surface of the photoelectric conversion units 111wa and 111wb included in the pixel 110w. They are arranged so as to be offset by a predetermined distance.
  • pupil correction is performed for the light 40 incident on the incident surface from an oblique direction.
  • the range 41 in which the light 40 is incident on the incident surface can be made appropriate, and the accuracy of image plane phase difference AF and parallax detection can be improved.
  • the amount of pupil correction that is, the amount of deviation of the color filter 112a (light-shielding body 113) and OCL31 with respect to the incident surface is set according to the image height with respect to the optical axis position of the main lens in the pixel array in which the pixels 110w are arranged. .. For example, the higher the image height at the position where the pixels 110w are arranged, the larger the pupil correction amount.
  • the pupil correction amount of the pixels 110w arranged at the position (center of the image height) corresponding to the optical axis position of the main lens in the pixel array is, for example, zero.
  • the pupil correction amount is fixed for each image height. Therefore, in order to obtain accuracy, it is necessary to use the EPD (Exit Pupil Distance) main lens corresponding to the pupil correction amount. Therefore, it becomes difficult to obtain high accuracy when the main lens is replaced with another main lens having a different EPD due to lens replacement or the like, or when the EPD changes due to the zoom operation.
  • EPD Exit Pupil Distance
  • FIG. 8A and 8B are diagrams for explaining a second example of the method by the existing technique for realizing the image plane phase difference AF method.
  • the phase difference pixels are provided separately from the pixels for forming the image.
  • two pixels, pixels 110a and 110b, are shown as examples of phase-difference pixels.
  • the pixels 110a and 110b have one photoelectric conversion unit 111a and 111b, respectively.
  • the right half of the incident surface of the photoelectric conversion unit 111a in FIG. 8A is shaded by the light shielding body 50, and the left half is in an open state.
  • the left half of the incident surface of the photoelectric conversion unit 111b in FIG. 8A is shaded by the light shielding body 50, and the right half is in an open state.
  • These pixels 110a and 110b are arranged close to each other (for example, adjacent to each other) along the deviation direction of the opening position of the light shielding body 50 with respect to the photoelectric conversion units 111a and 111b.
  • image plane phase difference AF and parallax detection can be realized. That is, in this second example, it can be considered that one phase difference pixel is formed by two pixels 110a and 110b.
  • FIG. 8A shows the pixels 110a and 110b arranged on the left end side of the pixel array on FIG. 8A.
  • the pixels 110a and 110b are arranged so that the OCL 31s are shifted to the right on FIG. 8A with respect to the incident surfaces of the photoelectric conversion units 111a and 111b, respectively, and the pupil correction according to the position (image height) on the pixel array is performed. It has been done.
  • phase difference pixel whose pupil correction amount is different from that of the pixels 110a and 110b is provided at a position on the pixel array where the image height is substantially equal to that of the pixels 110a and 110b described above.
  • FIG. 8B is a diagram showing an example of another phase difference pixel according to this second example.
  • the two pixels 110a'and 110b' that make up the phase-difference pixel have a larger pupil correction amount than the pixels 110a and 110b shown in FIG. 8A so that they can correspond to a shorter EPD main lens. This is an example of increasing the number of.
  • FIG. 8B in the pixel 110a', the opening of the photoelectric conversion unit 111a' by the light-shielding body 50 is narrower toward the left end side as compared with the pixel 110a shown in FIG. 8A.
  • the opening of the photoelectric conversion unit 111b' by the light-shielding body 50 is wider toward the right than that of the pixel 110b shown in FIG. 8A. That is, the configuration of FIG. 8B enables pupil correction for the light 40a'and 40b' in which the pixels 110a and 110b of FIG. 8A are incident at a larger angle than the light 40a and 40b whose pupil can be corrected.
  • phase difference pixels are not used as pixels for forming an image, if many phase difference pixels having different pupil correction amounts are arranged, the number of pixels for forming an image decreases. , The image quality deteriorates.
  • FIG. 9 is a diagram showing an example of the pixel configuration according to the first embodiment. Note that FIG. 9 shows an example of the pixel configuration in the region L on the left end side of FIG. 10 with respect to the center of the image height in the pixel array unit 11 schematically shown in FIG.
  • each pixel 110R, 110G and 110B has a 4-split Bayer type array described with reference to FIG. 4, and a pixel block is composed of four pixels 110R, four pixels 110G and four pixels 110B, respectively.
  • one OCL30 is commonly arranged in two horizontally adjacent pixels of the same color among the pixels 110R, 110G and 110B to form a pixel set. .. That is, each pixel block includes two pixel sets, a pixel set consisting of two upper pixels and a pixel set consisting of two lower pixels.
  • the pupil correction amounts of the two pixel sets included in each pixel block are different from each other. More specifically, in the pixel set in the upper row on FIG. 9 of each pixel block, stronger pupil correction is performed with a larger pupil correction amount toward the center of the image height in the right direction on FIG. 9 (hereinafter, Called “strong pupil correction”). Further, in the pixel set in the lower row in FIG. 9 of each pixel block, the pupil correction is weaker toward the center of the image height in the right direction in FIG. 9 due to a smaller pupil correction amount than the pixel set in the upper row of the pixel block. Is performed (hereinafter referred to as "weak pupil correction").
  • the pupil correction amount is different for each of the two pixel sets included in the pixel block. ing. Therefore, it is possible to appropriately perform pupil correction for each of two types of main lenses having different EPDs.
  • the pupil correction according to the first embodiment will be described more specifically with reference to FIGS. 11A and 11B.
  • FIG. 11A is a diagram schematically showing a cross section of a pixel set that performs strong pupil correction according to the first embodiment.
  • FIG. 11A corresponds to the cross section of the upper pixel set of each pixel block shown in FIG. 9 above.
  • a pixel set including the two upper pixels 110G 1 and 110G 2 of the pixel block will be described as an example with reference to FIG.
  • the color filters 112G 1 and 112G 2 are provided to each pixel 110G 1 and 110G 2, for each incident surface of the pixel 110G 1 and 110G 2 each photoelectric conversion unit 111G 1 and 111G 2, the image height center The positions are shifted toward (to the right on FIG. 11A). Further, the OCL 30 commonly provided in the pixels 110G 1 and 110G 2 is arranged so as to be displaced toward the center of the image height with respect to the color filters 112G 1 and 112G 2 .
  • the photoelectric conversion units 111G 1 and 111G 2 , the color filters 112G 1 and 112G 2, and the OCL 30 are arranged so as to be displaced in the same direction.
  • pupil correction is performed on the light 40c incident on the incident surfaces of the photoelectric conversion units 111G 1 and 111G 2 at a predetermined incident angle ⁇ .
  • This pupil correction is applied to the pupil correction amount according to the shift amount for each photoelectric conversion unit 111G 1 and 111G 2 of the OCL 30 commonly provided for the color filters 112G 1 and 112G 2 and the pixels 110G 1 and 110G 2 , respectively. It is done based on.
  • the range 41c in which the light 40c is incident on the incident surfaces of the photoelectric conversion units 111G 1 and 111G 2 at the incident angle ⁇ can be made appropriate.
  • FIG. 11B is a diagram schematically showing a cross section of a pixel set that performs weak pupil correction according to the first embodiment.
  • FIG. 11B corresponds to the cross section of the lower pixel set of each pixel block shown in FIG. 9 above.
  • a pixel set consisting of the two lower pixels 110G 3 and 110G 4 of the pixel block will be described as an example with reference to FIG.
  • the color filters 112G 3 and 112G 4 are provided in each pixel 110G 3 and 110G 4, for each incident surface of the pixel 110G 3 and 110G 4 each photoelectric conversion unit 111G 3 and 111G 4, the image height center The positions are shifted toward (to the right on FIG. 11B) by a smaller amount of shifting than in the case of FIG. 11A. Further, the OCL 30 commonly provided in the pixels 110G 3 and 110G 4 is arranged with respect to the color filters 112G 3 and 112G 4 toward the center of the image height by a smaller amount of deviation than in the case of FIG. 11A. To.
  • the photoelectric conversion units 111G 3 and 111G 4 , the color filters 112G 3 and 112G 4, and the OCL 30 are arranged in the same direction with a smaller amount of deviation than in the case of FIG. 11A.
  • pupil correction is performed on the incident surfaces of the photoelectric conversion units 111G 3 and 111G 4 with respect to the light 40d incident at a predetermined incident angle ⁇ smaller than the incident angle ⁇ .
  • This pupil correction is applied to the pupil correction amount according to the shift amount with respect to the photoelectric conversion units 111G 3 and 111G 4 of the OCL 30 commonly provided for the color filters 112G 3 and 112G 4 and the pixels 110G 3 and 110G 4 , respectively. It is done based on.
  • the range 41d in which the light 40d is incident on the incident surfaces of the photoelectric conversion units 111G 3 and 111G 4 can be made appropriate.
  • a metal film (metal mask) for limiting incident light can be further provided.
  • the photoelectric conversion units 111R, 111G 1 and 111G 2 and the color filters 112R, 112G 1 and 112G 2 are arranged according to the pupil correction amount.
  • a metal mask having an opening displaced with respect to 111G 2 is provided.
  • FIG. 12 is a diagram for explaining the effect of performing pupil correction with a plurality of pupil correction amounts in one pixel block according to the first embodiment.
  • FIG. 12 is a diagram schematically showing the accuracy of autofocus (AF) and parallax detection for EPD by the main lens.
  • the horizontal axis represents the main lens EPD
  • the vertical axis represents AF and parallax detection accuracy (AF / parallax detection accuracy).
  • the characteristic line 51 schematically shows an example of AF / parallax detection accuracy when pupil correction is performed with a pupil correction amount corresponding to EPD by a specific main lens.
  • the peak position of the characteristic line 51 corresponds to the EPD of the main lens, and the AF / parallax detection accuracy is attenuated with a spread in the EPD direction with respect to the EPD of the main lens.
  • the characteristic line 50a shows an example when strong pupil correction is performed
  • the characteristic line 50b shows an example when weak pupil correction is performed.
  • the strong pupil correction is set to have a peak at a shorter EPD with respect to the EPD by the particular primary lens indicated by the characteristic line 51, as shown by the characteristic line 50a.
  • the weak pupil correction is set to have a peak at a longer EPD than the EPD by the specific main lens indicated by the characteristic line 51, as shown by the characteristic line 50b.
  • the required AF / parallax detection accuracy (required accuracy) is set with a margin for the peaks of the respective characteristic lines 50a, 50b, and 51.
  • the required accuracy is set to be lower than the intersection position of the characteristic lines 50a and 50b.
  • the range of EPD from which the required accuracy can be obtained when the pupil correction is performed with the pupil correction amount corresponding to the EPD by the specific main lens is defined as the range A based on the characteristic line 51.
  • zooming is performed in a wide range from a wide angle to a telephoto lens, it becomes difficult to perform autofocus with the required accuracy in a relatively wide range on each of the wide-angle side and the telephoto side.
  • the EPD range in which the required accuracy can be obtained by the strong pupil correction and the weak pupil correction There is an overlap with the range of EPDs from which the required accuracy can be obtained.
  • the strong pupil correction and the weak pupil correction are combined, the required accuracy can be obtained in the EPD of the range B wider than the range A. Therefore, even when zooming in a wide range from the wide-angle to the telephoto described above, it is possible to execute autofocus with the required accuracy on each of the wide-angle side and the telephoto side.
  • pupil correction according to the first embodiment has been described by taking the region L on the left end side of FIG. 10 with respect to the image height center of the pixel array unit 11 as an example. Actually, in each direction with respect to the image height center of the pixel array unit 11, pupil correction is executed according to the image height and the direction toward the image height center.
  • FIG. 13 is a diagram showing an example of each region in the pixel array unit 11 in which the direction with respect to the image height center is different.
  • the region C is a region corresponding to the center of the image height.
  • Regions L and R are regions at the ends in the horizontal direction with respect to the center of image height, respectively.
  • the regions CT and CB are regions at the ends perpendicular to the center of the image height, respectively.
  • the regions LT and RB are regions at the upper left and lower right ends (corners) on FIG. 13, respectively, with respect to the center of the image height.
  • FIGS. 14A to 14G An example of the direction of pupil correction in the above-mentioned regions C, L, R, CT, CB, LT and RB according to the first embodiment will be described with reference to FIGS. 14A to 14G.
  • “None” at the right end indicates that pupil correction is not performed in the corresponding line.
  • “strong” at the right end indicates that strong pupil correction is performed in the corresponding row, and “weak” indicates that weak pupil correction is performed in the corresponding row.
  • FIG. 14A is a diagram showing an example of pupil correction in region C according to the first embodiment.
  • pupil correction is not performed in each pixel set of each pixel block.
  • FIG. 14B is a diagram showing an example of pupil correction in the region L according to the first embodiment.
  • FIG. 14B is a diagram similar to FIG. 9 described above.
  • strong pupil correction and lower pixels in the upper pixel set of each pixel block toward the right side (center of image height) on FIG. 14B. Perform weak pupil correction in the set.
  • FIG. 14C is a diagram showing an example of pupil correction in the region R according to the first embodiment.
  • strong pupil correction is performed in the upper pixel set of each pixel block and weak pupil correction is performed in the lower pixel set toward the left side (center of image height) on FIG. 14C.
  • FIG. 14D is a diagram showing an example of pupil correction in the region CB according to the first embodiment.
  • pupil correction is performed with the same pupil correction amount in the upper and lower pixel sets of each pixel block toward the upper side (center of image height) on FIG. 14D.
  • FIG. 14E is a diagram showing an example of pupil correction in the region CT according to the first embodiment.
  • pupil correction is performed with the same pupil correction amount in the upper and lower pixel sets of each pixel block toward the lower side (center of image height) on FIG. 14E.
  • FIG. 14F is a diagram showing an example of pupil correction in the region LT according to the first embodiment.
  • strong pupil correction is performed in the upper pixel set of each pixel block and weak pupil correction is performed in the lower pixel set toward the lower right side (center of image height) on FIG. 14F.
  • the pupil correction is performed in the direction in which the pupil correction direction (right side) in the region L of FIG. 14B and the pupil correction direction (lower side) in the region CT of FIG. 14E are combined. It is supposed to be.
  • FIG. 14G is a diagram showing an example of pupil correction in the region RB according to the first embodiment.
  • strong pupil correction is performed in the upper pixel set of each pixel block and weak pupil correction is performed in the lower pixel set toward the diagonally upper left side (center of image height) on FIG. 14G.
  • the pupil correction is performed in the direction in which the pupil correction direction (left side) in the region R of FIG. 14C and the pupil correction direction (upper side) in the region CB of FIG. 14D are combined. It is said.
  • the pupil correction amount can be changed according to the image height.
  • each pixel block is weak with the pixel set that performs strong pupil correction.
  • a pixel set that performs pupil correction this is not limited to this example.
  • at least one pixel block is a pixel that performs strong pupil correction.
  • the configuration may include a set and a pixel set that performs weak pupil correction.
  • FIG. 15 is a diagram for explaining a first method of reading a signal from each pixel 110 in each pixel block according to the first embodiment.
  • a pixel block including the pixels 110G 1 , 110G 2 , 110G 3 and 110G 4 of FIG. 5 will be described as an example.
  • the pixel block is configured such that each pixel 110G 1 , 110G 2 , 110G 3 and 110G 4 shares one floating diffusion layer.
  • the electric charges are sequentially read from the photoelectric conversion element (photoelectric conversion unit 111) in the pixels 110G 1 , 110G 2 , 110G 3 and 110G 4 according to the reading control described above.
  • the vertical scanning unit 12 resets the floating diffusion layer in the pixel block, and then reads out the electric charge from the photoelectric conversion unit 111 in the pixel 110G 1 , and the read out electric charge. Is transferred to the floating diffusion layer. In the floating diffusion layer, the transferred electric charge is converted into a voltage corresponding to the amount of electric charge, and is output to the vertical signal line 17 as a pixel signal read from the pixel 110G 1 .
  • the vertical scanning unit 12 resets the floating diffusion layer in the pixel block, then reads out the electric charge from the photoelectric conversion unit 111 in the pixel 110G 2 , and transfers the read charge to the floating diffusion layer.
  • the transferred electric charge is converted into a voltage corresponding to the amount of electric charge, and is output to the vertical signal line 17 as a pixel signal read from the pixel 110G 2 .
  • the vertical scanning unit 12 also reads out the pixel signals from the pixels 110G 3 and 110G 4, and after resetting the floating diffusion layer, respectively, reads out the electric charge from the photoelectric conversion unit 111 and floats the read out charge. Perform transfer to the diffusion layer.
  • Each pixel signal read from each pixel 110G 1 to 110G 4 is supplied to, for example, the image processing unit 5.
  • the image processing unit 5 is based on, for example, the two pixels constituting the pixel set, for example, the pixel signals of the pixels 110G 1 and 110G 2 , and the pixel signals of the pixels 110G 3 and 110G 4 . Detects the phase difference in the horizontal direction.
  • the image processing unit 5 passes information indicating the detected phase difference to the control unit 3.
  • the control unit 3 generates a control signal for executing, for example, image plane phase difference AF, based on the information indicating the phase difference passed from the image processing unit 5.
  • the control unit 3 controls the optical system 2 based on this control signal, and causes the optical system 2 to perform an AF operation.
  • the control unit 3 can also obtain parallax information based on the information indicating the phase difference passed from the image processing unit 5.
  • FIG. 16 is a diagram for explaining a second method of reading a signal from each pixel 110 in each pixel block according to the first embodiment.
  • the charges accumulated in the photoelectric conversion units 111 in the pixels 110G 1 , 110G 2 , 110G 3 and 110G 4 are added and read inside the pixel block.
  • the vertical scanning unit 12 resets the floating diffusion layer in the pixel block, and then, at a predetermined timing, the electric charges from the photoelectric conversion units 111 in the pixels 110G 1 to 110G 4 are charged. Read is performed and the read charge is transferred to the floating diffusion layer. In the floating diffusion layer, the charges transferred from each photoelectric conversion unit 111 are added in the addition unit 120. In this case, the addition unit 120 corresponds to the floating diffusion layer common to the pixels 110G 1 to 110G 4 . In the floating diffusion layer, the charges transferred from each photoelectric conversion unit 111 and added are converted into a voltage according to the amount of charge, and output to the vertical signal line 17 as a total pixel signal of each pixel 110G 1 to 110G 4. ..
  • the total pixel signal of each pixel 110G 1 to 110G 4 is supplied to, for example, the image processing unit 5.
  • the image processing unit 5 performs predetermined image processing on the supplied pixel signal and stores it in the memory 6 as image data in units of one frame, for example.
  • the control unit 3 stores the image data image-processed by the image processing unit 5 and stored in the memory 6 in the storage unit 7 and displays it in the display unit 8.
  • the control unit 3 can also transmit the image data to the outside via the I / F unit 9.
  • the shutter button is generally instructed to perform an autofocus operation by a half-press operation, and an exposure is instructed by a full-press operation following the half-press operation.
  • the control unit 3 executes the above-described first reading method in response to a half-press operation on the shutter button as the input device 10, and executes autofocus based on the phase difference.
  • the second reading method described above is executed in response to the subsequent full pressing operation on the shutter button, and a pixel signal based on the total charge of the charges of the four pixels included in the pixel block is acquired.
  • the electronic device 1 as a digital still camera executes autofocus control based on the phase difference in response to a series of operations of the shutter button, and a pixel signal in units of a plurality of pixels 110. It is possible to acquire image data based on. At this time, since the autofocus based on the phase difference can be executed by using all the pixels 110 included in the pixel array unit 11, more accurate autofocus control is possible. Further, since the acquired image data is composed based on the pixel signal obtained by collecting the four pixels 110 included in the pixel block, a brighter screen can be realized.
  • the electronic device 1 according to the first embodiment can individually read out each pixel signal by each pixel 110 included in the pixel block by the first reading method. Therefore, the electronic device 1 according to the first embodiment can easily be equipped with an application for generating a 3D (Dimension) image and an application for realizing the function of the light field camera.
  • an application for generating a 3D (Dimension) image and an application for realizing the function of the light field camera.
  • the OCL 30 for a certain pixel set is provided in each pixel 110 with a color filter 112 having a color different from the color filter 112 provided in each pixel 110 included in the pixel set, which is adjacent to the pixel set. It may hang on the pixel set.
  • CRA Choef Ray Angle
  • FIG. 17 is a cross-sectional view showing a first example of a configuration of pixels 110 for suppressing color mixing between pixel sets (between pixels 110), which is applicable to the first embodiment. Note that FIG. 17 shows a configuration in which one OCL 31 is provided for one photoelectric conversion unit 111 for convenience.
  • the upper side of the silicon substrate 1000 is the back surface of the substrate 1000, and the lower side is the front surface. That is, the substrate 1000 is turned inside out after the photoelectric conversion unit 111 and each wiring are formed on the front surface side, and the flattening film 1011 is formed on the back surface side.
  • a light-shielding body 113 and an R-color color filter 112R are formed on the flattening film 1011.
  • a G-color color filter 112G is formed on the left side of the color filter 112R.
  • OCL31 is formed on the color filters 112R and 112G, and a protective film 1010 is formed on the OCL31.
  • the light-shielding body 113 and the color filter 112R are formed so as to be shifted to the right side of FIG. 17 with respect to the photoelectric conversion unit 111, and the OCL 31 is further shifted to the right side.
  • pupil correction is performed on the light incident from the upper right direction to the lower left direction.
  • the color filter 112R and the light shielding body 113 are directly formed on the photoelectric conversion unit 111. Therefore, the light incident on the photoelectric conversion unit 111 via the OCL 31 and the color filter 112R leaks into the photoelectric conversion unit 111 provided with the color filter 112G on the left side from the upper right direction to the lower left direction in FIG. It can be suppressed.
  • FIG. 18 is a cross-sectional view showing a second example of the configuration of the pixel 110 for suppressing color mixing between pixel sets (between pixels 110), which is applicable to the first embodiment. Similar to FIG. 17, FIG. 18 shows a configuration in which one OCL 31 is provided for one photoelectric conversion unit 111 for convenience. Further, the front-back relationship of the substrate 1000 made of silicon is the same as in the example of FIG.
  • the upper side of the silicon substrate 1000 is the back surface of the substrate 1000, and the lower side is the front surface.
  • the substrate 1000 is turned inside out after the photoelectric conversion unit 111 and the wirings are formed on the surface side in the same manner as described above.
  • a light-shielding body 1020 formed by a trench is formed on the back surface side, and a flattening film 1011 is further formed. Since the configuration on the flattening film 1011 is the same as the example of FIG. 17, the description here will be omitted.
  • the light (indicated by the arrow C) incident on the photoelectric conversion unit 111 from the upper right direction to the lower left direction in FIG. 18, for example, through the color filter 112R is reflected by the surface of the light shielding body 1020. (Indicated by arrow D). Therefore, leakage of light incident on the photoelectric conversion unit 111 into the photoelectric conversion unit 111 provided with the adjacent color filter 112G is suppressed.
  • 19 and 20 are diagrams showing an example of the arrangement of the light-shielding body 1020 illustrated in FIG. 18, which is applicable to the first embodiment.
  • FIG. 19 is a diagram showing an example of a light-shielding body 1020a arranged at the boundary of each pixel block, which is applicable to the first embodiment.
  • a color filter 112 having a different color suppresses light leakage into a pixel block provided in each pixel 110.
  • the second light-shielding body 1020a described with reference to FIG. It is more effective for the reading method.
  • the image quality of the image based on the image data based on the pixel signal for each pixel block can be improved.
  • FIG. 20 is a diagram showing an example of a shading body 1020b arranged at the boundary of each pixel set, which is applicable to the first embodiment.
  • the light-shielding body 1020b of FIG. 20 suppresses light leakage between each pixel set that detects a phase difference, and is more effective than, for example, the first readout method described with reference to FIG. Is the target.
  • the phase difference can be detected with higher accuracy.
  • the light-shielding body 1020b shown in FIG. 20 can obtain the same effect as the light-shielding body 1020a shown in FIG. 19 described above.
  • the pixel set in the pixel block is configured by the pixels 110 adjacent to each other in a direction different from the pixel set in the first embodiment described above. More specifically, taking FIG. 9 as an example, the pixel set in the first embodiment described above is composed of two pixels 110 that are adjacent to each other in the horizontal direction. On the other hand, in the modified example of the first embodiment, a pixel set is composed of two pixels 110 that are adjacent to each other in the vertical direction.
  • FIGS. 21A to 21G Specific example of pupil correction according to the modified example of the first embodiment
  • 21A to 21G will be used to describe the pixel set according to the modification of the first embodiment, and the directions of pupil correction in the regions C, L, R, CT, CB, LT, and RB shown in FIG. An example will be described.
  • “none” at the lower end indicates that pupil correction is not performed in the corresponding column.
  • “strong” at the lower end indicates that strong pupil correction is performed in the corresponding row
  • weak indicates that weak pupil correction is performed in the corresponding row.
  • FIG. 21A is a diagram showing an example of pupil correction in region C according to a modified example of the first embodiment.
  • each pixel block composed of 2 pixels ⁇ 2 pixels
  • two pixels 110G adjacent to each other in the vertical direction and two pixels adjacent to each other in the vertical direction are used.
  • a pixel set is composed of 110R and two vertically adjacent pixels 110B, respectively.
  • One OCL30 is provided for each pixel set.
  • pupil correction is not performed in each pixel set of each pixel block.
  • FIG. 21B is a diagram showing an example of pupil correction in the region CT according to the modified example of the first embodiment.
  • FIG. 21B performs strong pupil correction in the pixel set on the right side of each pixel block and weak pupil correction in the pixel set on the left side toward the lower side (center of image height) on FIG. 21B.
  • FIG. 21C is a diagram showing an example of pupil correction in the region CB according to the modified example of the first embodiment.
  • strong pupil correction is performed on the right pixel set of each pixel block and weak pupil correction is performed on the left pixel set toward the upper side (center of image height) on FIG. 21C.
  • FIG. 21D is a diagram showing an example of pupil correction in the region L according to the modified example of the first embodiment.
  • pupil correction is performed with the same pupil correction amount in the pixel sets on the right and left sides of each pixel block toward the right side (center of image height) on FIG. 21D.
  • FIG. 21E is a diagram showing an example of pupil correction in the region R according to the modified example of the first embodiment.
  • pupil correction is performed with the same pupil correction amount in the pixel sets on the right and left sides of each pixel block toward the left side (center of image height) on FIG. 21E.
  • FIG. 21F is a diagram showing an example of pupil correction in the region LT according to the modified example of the first embodiment.
  • strong pupil correction is performed in the right pixel set of each pixel block and weak pupil correction is performed in the left pixel set toward the diagonally lower right side (center of image height) on FIG. 21F.
  • the pupil correction is performed in the direction in which the pupil correction direction (lower side) in the region CT of FIG. 21B and the pupil correction direction (right side) in the region L of FIG. 21D are combined. It is supposed to be.
  • FIG. 21G is a diagram showing an example of pupil correction in the region RB according to the modified example of the first embodiment.
  • strong pupil correction is performed in the right pixel set of each pixel block and weak pupil correction is performed in the left pixel set toward the diagonally upper left side (center of image height) on FIG. 21G.
  • the pupil correction is performed in the direction in which the pupil correction direction (upper side) in the region CB of FIG. 21C and the pupil correction direction (left side) in the region R of FIG. 21E are combined. It is said.
  • image plane phase difference AF and parallax detection can be performed with higher accuracy based on the phase difference information in the vertical direction.
  • a pixel block is composed of four pixels 110 of 2 pixels ⁇ 2 pixels.
  • n is an integer of 3 or more
  • a pixel block is composed of (n ⁇ n) pixels 110 of n pixels ⁇ n pixels.
  • the pixel set in the pixel block is composed of two pixels 110 that are adjacent to each other in the horizontal direction, similarly to the pixel set in the first embodiment described above.
  • the second embodiment it is possible to realize pupil correction with three or more different pupil correction amounts in one pixel block. As a result, it becomes possible to perform image plane phase difference AF and parallax detection with high accuracy in a wider range of EPD by the main lens as compared with the first embodiment described above and a modification thereof.
  • FIG. 22 is a diagram showing an example of a pixel configuration applicable to the second embodiment.
  • Each pixel block consisting of the pixel 110G and 16 B-color pixels 110B is arranged in a pixel arrangement according to the bayer arrangement.
  • Each pixel block according to is arranged in a 4 ⁇ 4 grid so that the number of pixels 110R, 110G and 110B is 1: 2: 1 and the pixel blocks of the same color pixels are not adjacent to each other.
  • pixel blocks of G-color pixels 110G are arranged to the left and below the pixel block of B-color pixels 110B, and R-color pixels 110R are used diagonally of the pixel block of B-color pixels 110B. Pixel blocks are arranged.
  • the pixel set according to the second embodiment will be described with reference to FIGS. 23A to 23G, and an example of the direction of pupil correction in the regions C, L, R, CT, CB, LT and RB shown in FIG. 13 will be described. To do.
  • "weak” may be a negative pupil correction, that is, a pupil correction directed in the direction opposite to “strong”, “strong” and “weak”.
  • a negative pupil correction that is, a pupil correction directed in the direction opposite to "strong”, “strong” and “weak”.
  • the diameter of the main lens is larger than the width of the light receiving surface (pixel array portion 11)
  • the light from the edge portion of the main lens is directed to the pixel array portion 11 from the direction opposite to the light in the central portion of the main lens. Incident can occur.
  • negative pupil correction is performed on the light incident on the pixel array unit 11 from the direction opposite to the light in the central portion of the main lens.
  • FIG. 23A is a diagram showing an example of pupil correction in the region C according to the second embodiment.
  • two pixels 110G adjacent in the horizontal direction, two pixels 110R adjacent to each other in the horizontal direction, and , Two pixels 110B adjacent to each other in the horizontal direction constitute a pixel set. That is, in the second embodiment, one pixel block includes a set of eight pixels.
  • One OCL30 is provided for each pixel set.
  • pupil correction is not performed in each pixel set of each pixel block.
  • FIG. 23B is a diagram showing an example of pupil correction in the region L according to the second embodiment.
  • stronger pupil correction is performed in the uppermost two pixel sets of each pixel block, and stronger pupil correction is performed in the second pixel set in the second row from the top.
  • Weak pupil correction is performed in the third pixel set from the top, and weaker pupil correction is performed in the bottom pixel set.
  • FIG. 23C is a diagram showing an example of pupil correction in the region R according to the second embodiment.
  • stronger pupil correction is performed in the uppermost two pixel sets of each pixel block, and stronger pupil correction is performed in the second pixel set in the second row from the top.
  • Weak pupil correction is performed in the third pixel set from the top, and weaker pupil correction is performed in the bottom pixel set.
  • FIG. 23D is a diagram showing an example of pupil correction in the region CT according to the second embodiment.
  • pupil correction is performed with the same pupil correction amount in the pixel set of each stage of each pixel block toward the lower side (center of image height) on FIG. 23D.
  • FIG. 23E is a diagram showing an example of pupil correction in the region CB according to the second embodiment.
  • pupil correction is performed with the same pupil correction amount in the pixel set of each stage of each pixel block toward the upper side (center of image height) on FIG. 23E.
  • FIG. 23F is a diagram showing an example of pupil correction in the region LT according to the second embodiment.
  • the pupil correction is stronger in the uppermost two pixel sets of each pixel block and stronger in the second pixel set in the second row from the top toward the lower right side (center of the image height) on FIG. 23F.
  • Eye correction, weak pupil correction in the third pixel set from the top, and weaker pupil correction in the bottom pixel set are performed.
  • the pupil correction is performed in the direction in which the pupil correction direction (right side) in the region L of FIG. 23B and the pupil correction direction (lower side) in the region CT of FIG. 23D are combined. It is supposed to be.
  • FIG. 23G is a diagram showing an example of pupil correction in the region RB according to the second embodiment.
  • the pupil correction is performed in the direction in which the pupil correction direction (left side) in the region R of FIG. 23C and the pupil correction direction (upper side) in the region CB of FIG. 23E are combined. It is said.
  • the pupil correction amount can be changed according to the image height.
  • each pixel set is provided in common to the two vertically adjacent pixels 110 and the two pixels 110. It can also be configured by one OCL30.
  • n is an integer of 3 or more
  • n pixels ⁇ n pixels are composed of (n ⁇ n) pixels 110.
  • a plurality of pixel sets in which the directions of adjacent pixels 110 are different from each other are mixed.
  • a pixel set consisting of two horizontally adjacent pixels 110 called a horizontal pixel set
  • a pixel set consisting of two vertically adjacent pixels 110 called a vertical pixel set.
  • a pixel set according to a modification of the second embodiment will be described with reference to FIGS. 24A to 24G, and the directions of pupil correction in the regions C, L, R, CT, CB, LT, and RB shown in FIG. 13 will be described. An example will be described.
  • FIG. 24A is a diagram showing an example of pupil correction in region C according to a modified example of the second embodiment.
  • n 4
  • 4 horizontal pixel sets and 4 vertical pixel sets are used in each pixel block composed of 4 pixels ⁇ 4 pixels.
  • 4 horizontal pixel sets and 4 vertical pixel sets are used.
  • two horizontal pixel sets are arranged horizontally adjacent to each other, four vertical pixel sets are arranged horizontally adjacent to each other in the middle stage, and two horizontal pixel sets are arranged horizontally adjacent to each other.
  • One OCL30 is provided for each pixel set.
  • pupil correction is not performed in each horizontal pixel set in the upper and lower rows of each pixel block.
  • Each vertical pixel set in the middle stage performs optimum pupil correction for EPD by the main lens. Since the region C is located at the center of the image height, the pupil correction is not actually performed on each vertical pixel set in the middle row shown in FIG. 24A.
  • FIG. 24B is a diagram showing an example of pupil correction in the region L according to the modified example of the second embodiment.
  • strong pupil correction is performed in the upper two horizontal pixel sets of each pixel block and weak pupil correction is performed in the lower two pixel sets toward the right side (center of image height) on FIG. 24B.
  • each vertical pixel set in the middle stage performs optimum pupil correction for EPD by the main lens according to the image height of each vertical pixel set and the direction with respect to the image height center.
  • FIG. 24C is a diagram showing an example of pupil correction in the region R according to the modified example of the second embodiment.
  • strong pupil correction is performed in the upper two pixel sets of each pixel block and weak pupil correction is performed in the lower two pixel sets toward the left side (center of image height) on FIG. 24C.
  • each vertical pixel set in the middle stage performs optimum pupil correction for EPD by the main lens according to the image height of each vertical pixel set and the direction with respect to the image height center.
  • FIG. 24D is a diagram showing an example of pupil correction in the region CT according to the modified example of the second embodiment.
  • pupil correction is performed with the same pupil correction amount in each of the upper and lower horizontal pixel sets and the middle vertical pixel sets of each pixel block toward the lower side (center of image height) on FIG. 24D. I do.
  • FIG. 24E is a diagram showing an example of pupil correction in the region CB according to the modified example of the second embodiment.
  • pupil correction is performed by the same pupil correction amount in each of the upper and lower horizontal pixel sets and the middle vertical pixel sets of each pixel block toward the lower side (center of image height) on FIG. 24E. I do.
  • FIG. 24F is a diagram showing an example of pupil correction in the region LT according to the modified example of the second embodiment.
  • strong pupil correction is performed in the upper two horizontal pixel sets of each pixel block and weak pupil correction is performed in the lower two pixel sets toward the lower right side (center of image height) on FIG. 24F.
  • each vertical pixel set in the middle stage performs optimum pupil correction for EPD by the main lens according to the image height of each vertical pixel set and the direction with respect to the image height center.
  • the pupil correction is performed in the direction in which the pupil correction direction (right side) in the region L of FIG. 24B and the pupil correction direction (lower side) in the region CT of FIG. 24D are combined. It is supposed to be.
  • FIG. 24G is a diagram showing an example of pupil correction in the region RB according to the modified example of the second embodiment.
  • strong pupil correction is performed in the upper two horizontal pixel sets of each pixel block and weak pupil correction is performed in the lower two pixel sets toward the diagonally upper left side (center of image height) on FIG. 24G.
  • each vertical pixel set in the middle stage performs optimum pupil correction for EPD by the main lens according to the image height of each vertical pixel set and the direction with respect to the image height center.
  • the pupil correction is performed in the direction in which the pupil correction direction (left side) in the region R of FIG. 24C and the pupil correction direction (upper side) in the region CB of FIG. 24E are combined. It is said.
  • the pupil correction amount can be changed according to the image height.
  • FIG. 25 is a diagram showing a first embodiment and a modification thereof, and a usage example in which the image sensor 4 according to the second embodiment and the modification thereof is used.
  • Each of the above-mentioned image pickup elements 4 can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-ray, as described below.
  • -A device that captures images used for viewing, such as digital cameras and mobile devices with camera functions.
  • in-vehicle sensors that photograph the front, rear, surroundings, interior of the vehicle, etc., surveillance cameras that monitor traveling vehicles and roads, inter-vehicle distance, etc.
  • a device used for traffic such as a distance measuring sensor that measures the distance.
  • -A device used for home appliances such as TVs, refrigerators, and air conditioners in order to take a picture of a user's gesture and operate the device according to the gesture.
  • -Devices used for medical and healthcare such as endoscopes and devices that perform angiography by receiving infrared light.
  • -Devices used for security such as surveillance cameras for crime prevention and cameras for personal authentication.
  • -Devices used for beauty such as a skin measuring device that photographs the skin and a microscope that photographs the scalp.
  • -Devices used for sports such as action cameras and wearable cameras for sports applications.
  • -Devices used for agriculture such as cameras for monitoring the condition of fields and crops.
  • the technology according to the present disclosure can be applied to various products.
  • the techniques according to the present disclosure may be applied to endoscopic surgery systems.
  • FIG. 26 is a block diagram showing an example of a schematic configuration of a patient's internal information acquisition system using a capsule-type endoscope to which the technique according to the present disclosure (the present technique) can be applied.
  • the in-vivo information acquisition system 10001 includes a capsule-type endoscope 10100 and an external control device 10200.
  • the capsule endoscope 10100 is swallowed by the patient at the time of examination.
  • the capsule-type endoscope 10100 has an imaging function and a wireless communication function, and moves inside an organ such as the stomach or intestine by peristaltic movement or the like until it is naturally excreted from the patient, and inside the organ.
  • Images (hereinafter, also referred to as in-vivo images) are sequentially imaged at predetermined intervals, and information about the in-vivo images is sequentially wirelessly transmitted to an external control device 10200 outside the body.
  • the external control device 10200 comprehensively controls the operation of the internal information acquisition system 10001. Further, the external control device 10200 receives the information about the internal image transmitted from the capsule endoscope 10100, and based on the information about the received internal image, displays the internal image on a display device (not shown). Generate image data for display.
  • the internal information acquisition system 10001 can obtain an internal image of the inside of the patient at any time from the time when the capsule endoscope 10100 is swallowed until it is discharged.
  • the capsule endoscope 10100 has a capsule-shaped housing 10101, and the light source unit 10111, the imaging unit 10112, the image processing unit 10113, the wireless communication unit 10114, the power feeding unit 10115, and the power supply unit are contained in the housing 10101.
  • the 10116 and the control unit 10117 are housed.
  • the light source unit 10111 is composed of, for example, a light source such as an LED (Light Emitting Diode), and irradiates the imaging field of view of the imaging unit 10112 with light.
  • a light source such as an LED (Light Emitting Diode)
  • LED Light Emitting Diode
  • the image pickup unit 10112 is composed of an image pickup element and an optical system including a plurality of lenses provided in front of the image pickup element.
  • the reflected light (hereinafter referred to as observation light) of the light applied to the body tissue to be observed is collected by the optical system and incident on the image sensor.
  • the observation light incident on the image sensor is photoelectrically converted, and an image signal corresponding to the observation light is generated.
  • the image signal generated by the image capturing unit 10112 is provided to the image processing unit 10113.
  • the image processing unit 10113 is composed of a processor such as a CPU or GPU (Graphics Processing Unit), and performs various signal processing on the image signal generated by the imaging unit 10112.
  • the image processing unit 10113 provides the signal-processed image signal to the wireless communication unit 10114 as RAW data.
  • the wireless communication unit 10114 performs predetermined processing such as modulation processing on the image signal that has been signal-processed by the image processing unit 10113, and transmits the image signal to the external control device 10200 via the antenna 10114A. Further, the wireless communication unit 10114 receives a control signal related to drive control of the capsule endoscope 10100 from the external control device 10200 via the antenna 10114A. The wireless communication unit 10114 provides the control unit 10117 with a control signal received from the external control device 10200.
  • the power feeding unit 10115 is composed of an antenna coil for receiving power, a power regeneration circuit that regenerates power from the current generated in the antenna coil, a booster circuit, and the like. In the power feeding unit 10115, electric power is generated by using the principle of so-called non-contact charging.
  • the power supply unit 10116 is composed of a secondary battery and stores the electric power generated by the power supply unit 10115.
  • FIG. 26 in order to avoid complicating the drawings, illustrations such as arrows indicating the power supply destinations from the power supply unit 10116 are omitted, but the power stored in the power supply unit 10116 is the light source unit 10111. , Image processing unit 10112, image processing unit 10113, wireless communication unit 10114, and control unit 10117, and can be used for driving these.
  • the control unit 10117 is composed of a processor such as a CPU, and is a control signal transmitted from the external control device 10200 to drive the light source unit 10111, the image pickup unit 10112, the image processing unit 10113, the wireless communication unit 10114, and the power supply unit 10115. Control as appropriate according to.
  • the external control device 10200 is composed of a processor such as a CPU and GPU, or a microcomputer or a control board on which a processor and a storage element such as a memory are mixedly mounted.
  • the external control device 10200 controls the operation of the capsule endoscope 10100 by transmitting a control signal to the control unit 10117 of the capsule endoscope 10100 via the antenna 10200A.
  • a control signal from the external control device 10200 can change the light irradiation conditions for the observation target in the light source unit 10111.
  • the imaging conditions for example, the frame rate in the imaging unit 10112, the exposure value, etc.
  • the content of processing in the image processing unit 10113 and the conditions for transmitting the image signal by the wireless communication unit 10114 may be changed by the control signal from the external control device 10200. ..
  • the external control device 10200 performs various image processing on the image signal transmitted from the capsule endoscope 10100, and generates image data for displaying the captured internal image on the display device.
  • the image processing includes, for example, development processing (demosaic processing), high image quality processing (band enhancement processing, super-resolution processing, noise reduction processing, camera shake correction processing, etc.), enlargement processing (electronic zoom processing, etc.), etc., respectively.
  • various signal processing can be performed.
  • the external control device 10200 controls the drive of the display device to display an in-vivo image captured based on the generated image data.
  • the external control device 10200 may have the generated image data recorded in a recording device (not shown) or printed out in a printing device (not shown).
  • the above is an example of an in-vivo information acquisition system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the imaging unit 10112 among the configurations described above.
  • the image sensor 4 according to the present disclosure to the image pickup unit 10112, it is possible to perform good autofocus even when zooming or the like, and it is possible to acquire a higher quality internal image or the like. ..
  • FIG. 27 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 27 shows a surgeon (doctor) 11131 performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an abdominal tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 equipped with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. Good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101 to be an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the image sensor, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 11201.
  • CCU Camera Control Unit
  • the CCU11201 is composed of a CPU, a GPU, and the like, and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processes on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).
  • the display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of, for example, a light source such as an LED (Light Emitting Diode), and supplies irradiation light to the endoscope 11100 when photographing an operating part or the like.
  • a light source such as an LED (Light Emitting Diode)
  • LED Light Emitting Diode
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for cauterizing, incising, sealing a blood vessel, or the like of a tissue.
  • the pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and securing the work space of the operator. Is sent.
  • the recorder 11207 is a device capable of recording various information related to surgery.
  • the printer 11208 is a device capable of printing various information related to surgery in various formats such as texts, images, and graphs.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-division manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to support each of RGB. It is also possible to capture the image in a time-division manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of the change in the light intensity to acquire images in a time-divided manner and synthesizing the images, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue to irradiate light in a narrow band as compared with the irradiation light (that is, white light) in normal observation, the mucosal surface layer.
  • narrow band imaging in which a predetermined tissue such as a blood vessel is photographed with high contrast, is performed.
  • fluorescence observation in which an image is obtained by fluorescence generated by irradiating with excitation light may be performed.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.
  • FIG. 28 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG. 27.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicatively connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image pickup unit 11402 is composed of an image pickup element.
  • the image sensor constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (Dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the biological tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the imaging unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the image pickup unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and the zoom lens and the focus lens of the lens unit 11401 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image. Contains information about the condition.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good. In the latter case, the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 11100.
  • AE Auto Exposure
  • AF Automatic Focus
  • AWB Auto White Balance
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques. For example, the control unit 11413 detects the shape and color of the edge of an object included in the captured image to remove surgical tools such as forceps, a specific biological part, bleeding, and mist when using the energy treatment tool 11112. Can be recognized.
  • the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the operation support information and presenting it to the operator 11131, it is possible to reduce the burden on the operator 11131 and to allow the operator 11131 to proceed with the operation reliably.
  • the transmission cable 11400 that connects the camera head 11102 and CCU11201 is an electric signal cable that supports electric signal communication, an optical fiber that supports optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and CCU11201 may be performed wirelessly.
  • the above is an example of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the endoscope 11100 and the imaging unit 11402 of the camera head 11102 among the configurations described above.
  • the image sensor 4 according to the present disclosure to the image pickup unit 11402, good autofocus can be performed even when zooming or the like is performed, and a higher quality captured image can be obtained.
  • the burden on the operator 11131 can be reduced, and the operator 11131 can surely proceed with the operation.
  • the technique according to the present disclosure may be applied to other, for example, a microscopic surgery system.
  • the technology according to the present disclosure may be further applied to devices mounted on various moving objects such as m-vehicles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, and robots. Good.
  • FIG. 29 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or characters on the road surface based on the received image.
  • the vehicle exterior information detection unit 12030 for example, performs image processing on the received image, and performs object detection processing and distance detection processing based on the result of the image processing.
  • the image pickup unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the imaging unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the outside information detection unit 12030 or the inside information detection unit 12040, so that the driver can control the driver. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs coordinated control for the purpose of antiglare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits the output signal of at least one of the audio and the image to the output device capable of visually or audibly notifying the passenger or the outside of the vehicle of the information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 30 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has imaging units 12101, 12102, 12103, 12104 and 12105 as imaging units 12031.
  • the imaging units 12101, 12102, 12103, 12104 and 12105 are provided at positions such as the front nose, side mirrors, rear bumpers, back door and the upper part of the windshield in the vehicle interior of the vehicle 12100, for example.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the images in front acquired by the imaging units 12101 and 12105 are mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 30 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more.
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that can be seen by the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured images of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by imaging units 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the imaging unit 12031 among the configurations described above.
  • the image sensor 4 according to the present disclosure By applying the image sensor 4 according to the present disclosure to the image pickup unit 12031, good autofocus can be performed even when zooming or the like is performed, and a higher quality captured image can be obtained.
  • the present technology can also have the following configurations.
  • the light receiving part is A plurality of pixel blocks in which n ⁇ n (n is an integer of 2 or more) photoelectric conversion elements that receive light in the same wavelength band among the plurality of photoelectric conversion elements are arranged in a grid pattern. Including Of the plurality of pixel blocks, pixel blocks having the same wavelength band received by the photoelectric conversion element are arranged according to a pattern in which they are not adjacent to each other.
  • n is an integer of 3 or more, and at least one pixel block among the plurality of pixel blocks has a direction in which adjacent photoelectric conversion elements among the plurality of photoelectric conversion elements possessed by the light receiving unit are aligned on the array.
  • the image pickup device according to (2) or (3) which includes two sets of pixels that are different from each other.
  • a control unit that controls reading for the plurality of photoelectric conversion elements is further provided. The control unit As a read mode for reading out each of the plurality of outputs corresponding to each of the photoelectric conversion elements arranged in each of the plurality of pixel blocks on a one-to-one basis.
  • the image pickup device according to any one of (2) to (4) above. (6) The n is 2.
  • the image sensor according to (2) above.
  • the light receiving part is The above (2) to (6) further include a filter provided on the incident surface of each of the plurality of photoelectric conversion elements and limiting the wavelength band of the incident light, and a first light-shielding body provided around the filter. ).
  • the image pickup device is any one of (2) to (4) above. (6) The n is 2.
  • the image sensor according to (2) above.
  • the light receiving part is The above (2) to (6) further include a filter provided on the incident surface of each of the plurality of photoelectric conversion elements and limiting the wavelength band of the incident light, and a first light-shielding body provided around the filter. ).
  • the positions of the filter and the first light-shielding body with respect to the photoelectric conversion element corresponding to the filter and the first light-shielding body are at least two adjacent to each other including the photoelectric conversion element.
  • the light receiving part is The substrate on which each of the plurality of photoelectric conversion elements is formed further has a second light-shielding body formed by a groove formed in the depth direction with respect to the incident surface of each of the plurality of photoelectric conversion elements.
  • the second shading body is The image pickup device according to any one of (2) to (8), which is formed between each of the plurality of pixel blocks. (10) The second shading body further The image pickup device according to (9), which is formed between the pixel sets. (11) The pupil correction amounts are different from each other because the positions of the lenses included in the pixel set with respect to the set of elements included in the pixel set are different from each other in at least two pixel sets adjacent to each other. The image pickup device according to any one of (10). (12) The pupil correction amount and the direction in which the pupil correction is performed by the pupil correction amount are the optical axes of the main lens that irradiates the light receiving surface with light on the light receiving surface including each incident surface of the plurality of photoelectric conversion elements.
  • the image pickup device according to any one of (1) to (11), which is further different depending on the position with respect to the center of image height corresponding to. (13)
  • the light receiving part is Further having a mask for limiting light incident on the set of elements included in the pixel set.
  • Image sensor (14) Multiple photoelectric conversion elements arranged in a grid pattern and A plurality of lenses provided on a one-to-one basis in each of a set of elements composed of two or more photoelectric conversion elements arranged adjacent to each other among the plurality of photoelectric conversion elements.
  • An optical unit that guides external light to the light receiving unit, An image processing unit that executes image processing based on a plurality of outputs read from each of the plurality of photoelectric conversion elements to generate image data, and an image processing unit.
  • a storage unit that stores the image data generated by the image processing unit, With The light receiving part is Electrons in which the pupil correction amounts of at least two pixel sets adjacent to each other in a plurality of pixel sets including the set of elements and the lens provided in the group of the plurality of lenses are different from each other. machine.
  • Image processing unit 11 Pixel array unit 30, 31 OCL 50, 113, 1020a, 1020b Shading body 110, 110a, 110b, 110a', 110b', 110R, 110G, 110G 1 , 110G 2 , 110G 3 , 110G 4 , 110B, 110w Pixels 111, 111a, 111b, 111a', 111b', 111G 1 , 111G 2 , 111G 3 , 111G 4 , 111wa, 111wb Photoconverter 112, 112a, 112b, 112G 1 , 112G 2 , 112G 3 , 112G 4 , 112R Color filter

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Optics & Photonics (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

撮像素子は、格子状の配列で配置される複数の光電変換素子(110)と、複数の光電変換素子のうち互いに隣接して配置される2以上の光電変換素子からなる素子の組のそれぞれに1対1に設けられる複数のレンズ(30)と、を有する受光部(11)を備える。受光部は、それぞれが、素子の組と、複数のレンズのうち素子の組に設けられるレンズと、を含む複数の画素セットのうち互いに隣接する少なくとも2つの画素セットの瞳補正量が互いに異なる。

Description

撮像素子および電子機器
 本発明は、撮像素子および電子機器に関する。
 それぞれマイクロレンズを備える複数の画素が配列された画素アレイに対して主レンズからの光を照射する構成が知られている。この構成において、各画素の主レンズの光軸位置に対する像高に応じて画素に対する入射瞳径が変化し、画素に対して照射される光量が変化する。そのため、各画素のマイクロレンズなどの位置を像高に応じてずらすことにより入射瞳径の変化を抑制する瞳補正の技術が知られている。
 また、上述の画素アレイにおいて行方向(または列方向)に配列される複数の画素の画素信号による位相差に基づきオートフォーカス(AF)処理や視差検出を行う、像面位相差AF方式が知られている。
特開2017-188633号公報 特開2018-014476号公報
 既存技術では、1つの画素アレイに含まれる各画素に対する瞳補正の補正量は、各画素で固定的とされていた。一方、当該画素アレイが一般的なカメラに搭載される場合、レンズ交換やズーム操作などにより主レンズが変更された場合に、主レンズの入射瞳径が変化する。このように、主レンズの入射瞳径が変わるような場合、適切に瞳補正がなされず、画像信号の位相差を高精度に取得することが難しくなる。
 本開示は、画像信号の位相差をより広い入射瞳径の範囲で高精度に取得可能とする撮像素子および電子機器を提供することを目的とする。
 本開示に係る撮像素子は、格子状の配列で配置される複数の光電変換素子と、複数の光電変換素子のうち互いに隣接して配置される2以上の光電変換素子からなる素子の組のそれぞれに1対1に設けられる複数のレンズと、を有する受光部を備え、受光部は、それぞれが、素子の組と、複数のレンズのうち素子の組に設けられるレンズと、を含む複数の画素セットのうち互いに隣接する少なくとも2つの画素セットの瞳補正量が互いに異なる。
各実施形態に共通して適用可能な電子機器の一例の構成を示すブロック図である。 各実施形態に共通して適用可能な撮像素子の基本的な構成例を示すブロック図である。 一般的に用いられるベイヤ配列の例を示す図である。 第1の実施形態に適用可能な画素構成の例を示す図である。 各実施形態に適用可能な、2個の画素に対して1個のOCLが設けられた例を概略的に示す図である。 各実施形態に適用可能な画素セットの断面を概略的に示す図である。 像面位相差AF方式を実現するための既存技術による方法の第1の例を説明するための図である。 像面位相差AF方式を実現するための既存技術による方法の第2の例を説明するための図である。 像面位相差AF方式を実現するための既存技術による方法の第2の例を説明するための図である。 第1の実施形態に係る画素構成の一例を示す図である。 図10は、画素アレイ部を概略的に示す図である。 第1の実施形態に係る、強い瞳補正を行う画素セットの断面を概略的に示す図である。 第1の実施形態に係る、弱い瞳補正を行う画素セットの断面を概略的に示す図である。 第1の実施形態に係る、1つの画素ブロックにおいて複数の瞳補正量により瞳補正を行う場合の効果を説明するための図である。 画素アレイ部における、像高中心に対する方向が異なる各領域の例を示す図である。 第1の実施形態に係る、領域Cにおける瞳補正の例を示す図である。 第1の実施形態に係る、領域Lにおける瞳補正の例を示す図である。 第1の実施形態に係る、領域Rにおける瞳補正の例を示す図である。 第1の実施形態に係る、領域CBにおける瞳補正の例を示す図である。 第1の実施形態に係る、領域CTにおける瞳補正の例を示す図である。 第1の実施形態に係る、領域LTにおける瞳補正の例を示す図である。 第1の実施形態に係る、領域RBにおける瞳補正の例を示す図である。 第1の実施形態に係る、各画素ブロックそれぞれにおいて、各画素から信号を読み出す第1の方法を説明するための図である。 第1の実施形態に係る、各画素ブロックそれぞれにおいて、各画素から信号を読み出す第2の方法を説明するための図である。 第1の実施形態に適用可能な、画素セット間での混色を抑制するための画素の構成の第1の例を示す断面図である。 第1の実施形態に適用可能な、画素セット間での混色を抑制するための画素の構成の第2の例を示す断面図である。 第1の実施形態に適用可能な、各画素ブロックの境界に配置された遮光体の例を示す図である。 第1の実施形態に適用可能な、各画素セットの境界に配置された遮光体の例を示す図である。 第1の実施形態の変形例に係る、領域Cにおける瞳補正の例を示す図である。 第1の実施形態の変形例に係る、領域CTにおける瞳補正の例を示す図である。 第1の実施形態の変形例に係る、領域CBにおける瞳補正の例を示す図である。 第1の実施形態の変形例に係る、領域Lにおける瞳補正の例を示す図である。 第1の実施形態の変形例に係る、領域Rにおける瞳補正の例を示す図である。 第1の実施形態の変形例に係る、領域LTにおける瞳補正の例を示す図である。 第1の実施形態の変形例に係る、領域RBにおける瞳補正の例を示す図である。 第2の実施形態に適用可能な画素構成の例を示す図である。 第2の実施形態に係る、領域Cにおける瞳補正の例を示す図である。 第2の実施形態に係る、領域Lにおける瞳補正の例を示す図である。 第2の実施形態に係る、領域Rにおける瞳補正の例を示す図である。 第2の実施形態に係る、領域CTにおける瞳補正の例を示す図である。 第2の実施形態に係る、領域CBにおける瞳補正の例を示す図である。 第2の実施形態に係る、領域LTにおける瞳補正の例を示す図である。 第2の実施形態に係る、領域RBにおける瞳補正の例を示す図である。 第2の実施形態の変形例に係る、領域Cにおける瞳補正の例を示す図である。 第2の実施形態の変形例に係る、領域Lにおける瞳補正の例を示す図である。 第2の実施形態の変形例に係る、領域Rにおける瞳補正の例を示す図である。 第2の実施形態の変形例に係る、領域CTにおける瞳補正の例を示す図である。 第2の実施形態の変形例に係る、領域CBにおける瞳補正の例を示す図である。 第2の実施形態の変形例に係る、領域LTにおける瞳補正の例を示す図である。 第2の実施形態の変形例に係る、領域RBにおける瞳補正の例を示す図である。 第1の実施形態およびその変形例、ならびに、第2の実施形態およびその変形例に係る撮像素子を使用する使用例を示す図である。 本開示に係る技術が適用され得る、カプセル型内視鏡を用いた患者の体内情報取得システムの概略的な構成の一例を示すブロック図である。 本開示に係る技術が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッドおよびCCUの機能構成の一例を示すブロック図である。 本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。 撮像部の設置位置の例を示す図である。
 以下、本開示の実施形態について、図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより、重複する説明を省略する。
(各実施形態に共通して適用可能な構成)
 図1は、各実施形態に共通して適用可能な電子機器の一例の構成を示すブロック図である。図1において、電子機器1は、光学系2と、制御部3と、撮像素子4と、画像処理部5と、メモリ6と、記憶部7と、表示部8と、インタフェース(I/F)部9と、入力デバイス10と、を備える。
 ここで、電子機器1としては、デジタルスチルカメラ、デジタルビデオカメラ、撮像機能付きの携帯電話やスマートフォンなどを適用することができる。また、電子機器1として、監視カメラや車載用カメラ、医療用のカメラなどを適用することも可能である。
 撮像素子4は、例えば格子状の配列で配置される複数の光電変換素子を含む。光電変換素子は、受光した光を光電変換にて電荷に変換する。撮像素子4は、この複数の光電変換素子を駆動する駆動回路と、複数の光電変換素子それぞれから電荷を読み出し、読み出した電荷に基づき画像データを生成する信号処理回路と、を含む。
 光学系2は、1または複数枚のレンズの組み合わせによる主レンズと、主レンズを駆動するための機構と、を含み、被写体からの像光(入射光)を、主レンズを介して撮像素子4の受光面上に結像させる。また、光学系2は、制御信号に従いフォーカスを調整するオートフォーカス機構や、制御信号に従いズーム率を変更するズーム機構を備える。また、電子機器1は、光学系2を着脱可能とし、他の光学系2と交換できるようにしてもよい。
 画像処理部5は、撮像素子4から出力された画像データに対して所定の画像処理を実行する。例えば、画像処理部5は、フレームメモリなどによるメモリ6が接続され、撮像素子4から出力された画像データをメモリ6に書き込む。画像処理部5は、メモリ6に書き込まれた画像データに対して所定の画像処理を実行し、画像処理された画像データを再びメモリ6に書き込む。
 記憶部7は、例えばフラッシュメモリやハードディスクドライブなどの不揮発性のメモリであって、画像処理部5から出力された画像データを不揮発に記憶する。表示部8は、例えばLCD(Liquid Crystal Display)といった表示デバイスと、当該表示デバイスを駆動する駆動回路と、を含み、画像処理部5が出力された画像データに基づく画像を表示することができる。I/F部9は、画像処理部5から出力された画像データを外部に送信するためのインタフェースである。I/F部9としては、例えばUSB(Universal Serial Bus)を適用することができる。これに限らず、I/F部9は、有線通信または無線通信によりネットワークに接続可能なインタフェースであってもよい。
 入力デバイス10は、ユーザ入力を受け付けるための操作子などを含む。電子機器1が例えばデジタルスチルカメラ、デジタルビデオカメラ、撮像機能付きの携帯電話やスマートフォンであれば、入力デバイス10は、撮像素子4による撮像を指示するためのシャッタボタン、あるいは、シャッタボタンの機能を実現するための操作子を含むことができる。
 制御部3は、例えばCPU(Central Processing Unit)などのプロセッサと、ROM(Read Only Memory)およびRAM(Random Access Memory)を含み、ROMに予め記憶されたプログラムに従い、RAMをワークメモリとして用いて、この電子機器1の全体の動作を制御する。例えば、制御部3は、入力デバイス10に受け付けられたユーザ入力に応じて、電子機器1の動作を制御することができる。また、制御部3は、画像処理部5の画像処理結果に基づき、光学系2におけるオートフォーカス機構を制御することができる。
 図2は、各実施形態に共通して適用可能な撮像素子4の基本的な構成例を示すブロック図である。図2において、撮像素子4は、画素アレイ部11と、垂直走査部12と、AD(Analog to Digital)変換部13と、画素信号線16と、垂直信号線17と、出力部18と、制御部19と、信号処理部20と、を含む。
 画素アレイ部11は、それぞれ受光した光に対して光電変換を行う光電変換素子を有する複数の画素110を含む。光電変換素子としては、フォトダイオードを用いることができる。画素アレイ部11において、複数の画素110は、水平方向(行方向)および垂直方向(列方向)に二次元格子状に配列される。画素アレイ部11において、画素110の行方向の並びをラインと呼ぶ。この画素アレイ部11において所定数のラインから読み出された画素信号により、1フレームの画像(画像データ)が形成される。例えば、3000画素×2000ラインで1フレームの画像が形成される場合、画素アレイ部11は、少なくとも3000個の画素110が含まれるラインを、少なくとも2000ライン、含む。
 また、画素アレイ部11には、各画素110の行および列に対し、行毎に画素信号線16が接続され、列毎に垂直信号線17が接続される。
 画素信号線16の画素アレイ部11と接続されない端部は、垂直走査部12に接続される。垂直走査部12は、後述する制御部19の制御に従い、画素110から画素信号を読み出す際の駆動パルスなどの制御信号を、画素信号線16を介して画素アレイ部11へ伝送する。垂直信号線17の画素アレイ部11と接続されない端部は、AD変換部13に接続される。画素から読み出された画素信号は、垂直信号線17を介してをAD変換部13に伝送される。
 画素からの画素信号の読み出し制御について、概略的に説明する。画素からの画素信号の読み出しは、露光により光電変換素子に蓄積された電荷を浮遊拡散層(FD;Floating Diffusion)に転送し、浮遊拡散層において転送された電荷を電圧に変換することで行う。浮遊拡散層において電荷が変換された電圧は、アンプを介して垂直信号線17に出力される。
 より具体的には、画素110において、露光中は、光電変換素子と浮遊拡散層との間をオフ(開)状態として、光電変換素子において、光電変換により入射された光に応じて生成された電荷を蓄積させる。露光終了後、画素信号線16を介して供給される選択信号に応じて浮遊拡散層と垂直信号線17とを接続する。さらに、画素信号線16を介して供給されるリセットパルスに応じて浮遊拡散層を電源電圧VDDまたは黒レベル電圧の供給線と短期間において接続し、浮遊拡散層をリセットする。垂直信号線17には、浮遊拡散層のリセットレベルの電圧(電圧Pとする)が出力される。その後、画素信号線16を介して供給される転送パルスにより光電変換素子と浮遊拡散層との間をオン(閉)状態として、光電変換素子に蓄積された電荷を浮遊拡散層に転送する。垂直信号線17に対して、浮遊拡散層の電荷量に応じた電圧(電圧Qとする)が出力される。
 AD変換部13は、垂直信号線17毎に設けられたAD変換器1300と、参照信号生成部14と、水平走査部15と、を含む。AD変換器1300は、画素アレイ部11の各列(カラム)に対してAD変換処理を行うカラムAD変換器である。AD変換器1300は、垂直信号線17を介して画素110から供給された画素信号に対してAD変換処理を施し、ノイズ低減を行う相関二重サンプリング(CDS:Correlated Double Sampling)処理のための2つのディジタル値(電圧Pおよび電圧Qにそれぞれ対応する値)を生成する。
 AD変換器1300は、生成した2つのディジタル値を信号処理部20に供給する。信号処理部20は、AD変換器1300から供給される2つのディジタル値に基づきCDS処理を行い、ディジタル信号による画素信号(画素データ)を生成する。信号処理部20により生成された画素データは、撮像素子4の外部に出力される。
 信号処理部20から出力された画像データは、例えば画像処理部5に供給され、例えばフレームバッファであるメモリ6に順次記憶される。フレームバッファに1フレーム分の画素データが記憶されると、記憶された画素データが1フレームの画像データとしてフレームバッファから読み出される。
 参照信号生成部14は、制御部19から入力されるADC制御信号に基づき、各AD変換器1300が画素信号を2つのディジタル値に変換するために用いるランプ信号RAMPを生成する。ランプ信号RAMPは、レベル(電圧値)が時間に対して一定の傾きで低下する信号、または、レベルが階段状に低下する信号である。参照信号生成部14は、生成したランプ信号RAMPを、各AD変換器1300に供給する。参照信号生成部14は、例えばDA(Digital to Analog)変換回路などを用いて構成される。
 水平走査部15は、制御部19の制御の下、各AD変換器1300を所定の順番で選択する選択走査を行うことによって、各AD変換器1300が一時的に保持している各ディジタル値を信号処理部20へ順次出力させる。水平走査部15は、例えばシフトレジスタやアドレスデコーダなどを用いて構成される。
 制御部19は、垂直走査部12、AD変換部13、参照信号生成部14および水平走査部15などの駆動制御を行う。制御部19は、垂直走査部12、AD変換部13、参照信号生成部14および水平走査部15の動作の基準となる各種の駆動信号を生成する。制御部19は、外部(例えば制御部3)から供給される垂直同期信号または外部トリガ信号と、水平同期信号とに基づき、垂直走査部12が画素信号線16を介して各画素110に供給するための制御信号を生成する。制御部19は、生成した制御信号を垂直走査部12に供給する。
 垂直走査部12は、制御部19から供給される制御信号に基づき、画素アレイ部11の選択された画素行の画素信号線16に駆動パルスを含む各種信号を、ライン毎に各画素110に供給し、各画素110から、画素信号を垂直信号線17に出力させる。垂直走査部12は、例えばシフトレジスタやアドレスデコーダなどを用いて構成される。
 このように構成された撮像素子4は、AD変換器1300が列毎に配置されたカラムAD方式のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。
(カラーフィルタ配列の概略)
 各画素110は、所定の波長帯域の光を選択的に透過させるフィルタを配置することができる。透過させる波長帯域が可視光領域の波長帯域の場合、当該フィルタは、カラーフィルタと呼ばれる。以下では、各画素110に対して、三原色を構成する赤色(R)、緑色(G)および青色(B)の各波長帯域のカラーフィルタを配置するものとする。これに限らず、各画素110に対して補色関係にある各色のカラーフィルタを配置してもよいし、赤外領域の波長帯域の光を選択的に透過させるフィルタや、可視光領域の全波長帯域の光を透過させるフィルタであってもよい。以下、特に記載の無い限り、これらの各種のフィルタを、カラーフィルタで代表させて説明を行う。
 図3は、一般的に用いられるベイヤ配列の例を示す図である。図3において、ベイヤ(Bayer)配列は、それぞれG色のカラーフィルタが配置される2つの画素110Gと、R色のカラーフィルタが配置される1つの画素110Rと、B色のカラーフィルタが配置される画素110Bと、を含む。ベイヤ配列においては、これら4つの画素が、2つの画素110Gが隣接しないように、2画素×2画素の格子状に配列されて構成される。換言すれば、ベイヤ配列は、同一波長帯域の光を透過させるカラーフィルタが配置された画素110が隣接しないような配列である。
 なお、以下では、特に記載の無い限り、「R色のカラーフィルタが配置される画素110R」を、「R色の画素110R」、あるいは、単に「画素110R」と呼ぶ。G色のカラーフィルタが配置される画素110G、および、B色のカラーフィルタが配置される画素110B、についても、同様である。また、カラーフィルタを特に問題にしない場合、各画素110R、110Gおよび110Bを、画素110で代表させて記述する。
 図4は、後述する第1の実施形態に適用可能な画素構成の例を示す図である。図4の画素構成では、同一色による2画素×2画素が格子状に配列された画素ブロックを単位とし、4個のR色の画素110Rと、4個のG色の画素110Gと、4個のB色の画素110Bと、による各画素ブロックが、ベイヤ配列に準じた画素配列にて配置されて構成されている。以下では、特に記載の無い限り、このような画素配列を、4分割ベイヤ型RGB配列と呼ぶ。
 より具体的には、4分割ベイヤ型RGB配列は、R色の画素110R、G色の画素110G、および、B色の画素110Bによる各画素ブロックが、画素110R、画素110Gおよび画素110Bの数が1:2:1の割合となり、且つ、同一色の画素による画素ブロックが隣接しないように、2×2の格子状に配列される。図4の例では、B色の画素110Bによる画素ブロックの左および下にG色の画素110Gによる画素ブロックが配置され、B色の画素110Bによる画素ブロックの対角に、R色の画素110Rによる画素ブロックが配置されている。
(各実施形態に共通して適用可能なOCLの配置の概略)
 画素アレイ部11に配置される各画素110は、OCL(On Chip Lense)がそれぞれ設けられる。各実施形態においては、互いに隣接する複数の画素110に対して1個のOCLが共通して設けられる。図5は、各実施形態に適用可能な、2個の画素110に対して1個のOCLが設けられた例を概略的に示す図である。
 図5に示される、4分割ベイヤ型RGB配列におけるG色の4個の画素110G1、110G2、110G3および110G4を例に取ってより具体的に説明する。図5において水平方向に互いに隣接する2個の画素110G1および110G2の組に対して1個のOCL30が設けられている。同様に、水平方向に互いに隣接する2個の画素110G3および110G4の組に対して、1個のOCL30が設けられている。R色の画素110RおよびB色の画素110Bについても同様に、図5において水平方向に互いに隣接する2個の画素110Rの組、および、互いに隣接する2個の画素110Bの組に対して、それぞれ1個のOCL30が設けられている。
 なお、以下では、適宜、1個のOCL30が共通して設けられる、互いに隣接する複数の画素110の組と、当該OCL30とを纏めて「画素セット」と呼ぶ。図5の例では、画素アレイ部11の水平方向に隣接する2つの画素110を含んで画素セットが構成されている。なお、以下では、図5のような、画素110の2次元格子上の配置を示す各図において、図の左右方向を水平方向、図の上下方向を垂直方向として説明を行う。
 図6は、各実施形態に適用可能な画素セットの断面を概略的に示す図である。図6の例では、画素セットは、互いに隣接して配置される2つの画素110を含む。図6において、画素セットに含まれる2個の画素110は、それぞれ、概略的には、入射した光に応じて電荷を生成する光電変換部111の入射面に対してカラーフィルタ112が設けられた構造となっている。1つの画素セットに含まれる2つのカラーフィルタ112は、同一波長帯域の光を透過させる。この2個の画素110それぞれのカラーフィルタ112上に、当該2個の画素110に共通してOCL30が設けられている。
(像面位相差AF方式について)
 次に、像面位相差AF方式について、概略的に説明する。像面位相差AF方式では、位置の異なる画素110から抽出した画素信号の位相差に基づきオートフォーカス制御や視差検出を行う。図5の例では、例えば1つのOCL30を共通とする2つの画素110G1および110G2を含む画素セットについて、画素110G1および110G2それぞれによる各画素信号の位相差を検出し、検出された位相差に基づき例えばオートフォーカス制御を行うための情報を取得する。
 図7は、像面位相差AF方式を実現するための既存技術による方法の第1の例を説明するための図である。この第1の例では、1つの画素110wは、隣接して配置される2つの光電変換部111waおよび111wbを含んで構成される。光電変換部111waおよび111wbは、1つのカラーフィルタ112aと、1つのOCL31とが共通に設けられる。カラーフィルタ112aと、当該カラーフィルタ112aに隣接する、当該カラーフィルタ112aとは透過させる波長帯域が異なる他のカラーフィルタ112bと、の間には遮光体113が設けられ、カラーフィルタ112aとカラーフィルタ112bとの間での光の漏れ込みが抑制されている。
 このような構成において、例えば光電変換部111waおよび111wbそれぞれによる各画素信号の位相差を検出することで、像面位相差AFや視差検出を実現できる。すなわち、図7の構成では、隣接して配置される2つの光電変換部111waおよび111wbを含む画素110wが位相差検出用の画素となる。以下、適宜、「位相差検出用の画素」を「位相差画素」と記述する。
 ここで、図7の例では、画素110wに含まれる各光電変換部111waおよび111wbによる入射面に対して、カラーフィルタ112a(遮光体113)およびOCL31が、図7上で右方向に向けて、それぞれ所定の距離ずつずらして配置されている。これにより、当該入射面に対して斜め方向から入射される光40に対する瞳補正がなされる。瞳補正を行うことで、光40が当該入射面に入射される範囲41を適正とすることができ、像面位相差AFや視差検出の精度を向上させることができる。
 瞳補正の量、すなわち、入射面に対するカラーフィルタ112a(遮光体113)およびOCL31のずらし量は、画素110wが配列される画素アレイにおける、主レンズの光軸位置に対する像高に応じて設定される。例えば、画素110wが配置される位置の像高が高いほど、瞳補正量を大きくする。当該画素アレイにおける主レンズの光軸位置に対応する位置(像高中心)に配置される画素110wの瞳補正量は、例えばゼロとする。
 この図7に示す構成によれば、瞳補正量が各像高毎に固定的である。そのため、精度を出すためには、その瞳補正量に対応するEPD(Exit Pupil Distance)の主レンズを用いる必要がある。したがって、レンズ交換などにより主レンズがEPDの異なる他の主レンズに交換された場合や、ズーム動作によりEPDが変わるような場合に、高精度を得ることが困難となる。
 図8Aおよび図8Bは、像面位相差AF方式を実現するための既存技術による方法の第2の例を説明するための図である。この第2の例では、画素アレイにおいて、位相差画素を、画像を構成するための画素とは別個に設ける。図8Aの例では、位相差画素の例として、画素110aおよび110bの2つの画素が示されている。
 図8Aにおいて、画素110aおよび110bは、それぞれ1つの光電変換部111aおよび111bを有する。画素110aは、光電変換部111aの入射面の図8Aにおける右半分が遮光体50を用いて遮光され、左半分が開口状態とている。一方、画素110bは、光電変換部111bの入射面の図8Aにおける左半分が遮光体50を用いて遮光され、右半分が開口状態とされている。
 これら画素110aおよび110bを、光電変換部111aおよび111bに対する遮光体50の開口位置のずれ方向に沿って近接して(例えば隣接させて)配置する。画素110aおよび110bそれぞれによる各画素信号の位相差を検出することで、像面位相差AFや視差検出を実現できる。すなわち、この第2の例では、2つの画素110aおよび110bにより、1つの位相差画素が構成されると考えることができる。
 ここで、図8Aの例は、画素アレイの図8A上における左端側に配置される画素110aおよび110bを示している。画素110aおよび110bは、光電変換部111aおよび111bそれぞれの入射面に対して、各OCL31が図8A上で右にずらされて配置され、画素アレイ上の位置(像高)に応じた瞳補正がなされている。
 この第2の例では、画素アレイ上において上述の画素110aおよび110bと像高が略等しい位置に、瞳補正量が当該画素110aおよび110bとは異なる他の位相差画素を設ける。
 図8Bは、この第2の例による他の位相差画素の例を示す図である。図8Bにおいて、位相差画素を構成する2つの画素110a’および110b’は、図8Aに示した画素110aおよび110bに対して、より短いEPDの主レンズに対応可能なように、より瞳補正量を多くした例である。
 図8Bにおいて、画素110a’は、図8Aに示した画素110aと比べて、光電変換部111a’の遮光体50による開口部が左端側に向けてより狭くされている。一方、画素110b’は、図8Aに示した画素110bと比べて、光電変換部111b’の遮光体50による開口部が右方向に向けてより広くされている。すなわち、図8Bの構成は、図8Aの画素110aおよび110bが瞳補正可能な光40aおよび40bと比較してより大きな角度で入射した光40a’および40b’に対する瞳補正が可能とされている。
 第2の例では、このように、画素アレイに対して瞳補正量の異なる複数の位相差画素を配置することで、像面位相差AFによるオートフォーカス処理が可能なEPDの範囲を広げることが可能である。しかしながら、第2の例では、位相差画素は、画像を構成するための画素として用いられないため、瞳補正量の異なる位相差画素を多く配置すると、画像を構成するための画素数が減少し、画質が低下してしまう。
[第1の実施形態]
 次に、第1の実施形態について説明する。図9は、第1の実施形態に係る画素構成の一例を示す図である。なお、図9は、図10に概略的に示す画素アレイ部11において、像高中心に対して図10上で左端側の領域Lにおける画素構成の例を示している。
 図9において、各画素110R、110Gおよび110Bは、図4を用いて説明した4分割ベイヤ型配列とされ、4つの画素110R、4つの画素110Gおよび4つの画素110Bにより、それぞれ画素ブロックが構成される。また、図5を用いて説明したように、各画素110R、110Gおよび110Bのうち、水平方向に隣接する同一色の2つの画素に1つのOCL30が共通して配置され、画素セットが構成される。すなわち、各画素ブロックは、上段の2画素による画素セットと、下段の2画素による画素セットと、の2つの画素セットを含む。
 ここで、第1の実施形態では、各画素ブロックに含まれる2つの画素セットの瞳補正量が互いに異ならされる。より具体的には、各画素ブロックの、図9上で上段の画素セットでは、図9上において右方向の像高中心に向けて、より多い瞳補正量により強い瞳補正が行われる(以下、「強い瞳補正」と呼ぶ)。また、各画素ブロックの、図9上で下段の画素セットでは、図9上において右方向の像高中心に向けて、画素ブロックの上段の画素セットと比較して少ない瞳補正量により弱い瞳補正が行われる(以下、「弱い瞳補正」と呼ぶ)。
 このように、第1の実施形態では、同一色の画素110が2画素×2画素の配列で配置される画素ブロックにおいて、当該画素ブロックに含まれる2つの画素セットそれぞれで瞳補正量を異ならせている。そのため、EPDが異なる2種類の主レンズに対してそれぞれ適切に瞳補正を行うことが可能となる。
 図11Aおよび図11Bを用いて、第1の実施形態に係る瞳補正について、より具体的に説明する。
 図11Aは、第1の実施形態に係る、強い瞳補正を行う画素セットの断面を概略的に示す図である。図11Aは、上述の図9に示す各画素ブロックの上段の画素セットの断面に対応する。例えば4個の画素110Gを含む画素ブロックに対し、図5を参照し、当該画素ブロックの上段の2つの画素110G1および110G2を含む画素セットを例にとって説明する。
 図11Aにおいて、画素110G1および110G2それぞれに設けられるカラーフィルタ112G1および112G2は、画素110G1および110G2それぞれの光電変換部111G1および111G2の各入射面に対して、像高中心(図11A上の右方向)に向けて位置をずらして配置される。さらに、画素110G1および110G2に共通に設けられるOCL30は、カラーフィルタ112G1および112G2に対して像高中心に向けて位置をずらして配置される。
 このように、光電変換部111G1および111G2と、カラーフィルタ112G1および112G2と、OCL30と、をそれぞれ同一方向に位置をずらして配置する。これにより、各画素110G1および110G2において、光電変換部111G1および111G2の入射面に対して所定の入射角αで入射される光40cに対する瞳補正が行われる。
 この瞳補正は、各カラーフィルタ112G1および112G2、ならびに、画素110G1および110G2に共通に設けられるOCL30それぞれの、各光電変換部111G1および111G2に対するずらし量に応じた瞳補正量に基づき行われる。この瞳補正により、光40cが光電変換部111G1および111G2の入射面に入射角αで入射される範囲41cを適正とすることができる。
 図11Bは、第1の実施形態に係る、弱い瞳補正を行う画素セットの断面を概略的に示す図である。図11Bは、上述の図9に示す各画素ブロックの下段の画素セットの断面に対応する。例えば4個の画素110Gを含む画素ブロックに対し、図5を参照し、当該画素ブロックの下段の2つの画素110G3および110G4による画素セットを例にとって説明する。
 図11Bにおいて、画素110G3および110G4それぞれに設けられるカラーフィルタ112G3および112G4は、画素110G3および110G4それぞれの光電変換部111G3および111G4の各入射面に対して、像高中心(図11B上の右方向)に向けて、図11Aの場合よりも小さいずらし量で位置をずらして配置される。さらに、画素110G3および110G4に共通に設けられるOCL30は、カラーフィルタ112G3および112G4に対して、像高中心に向けて、図11Aの場合よりも小さいずらし量で位置をずらして配置される。
 このように、光電変換部111G3および111G4と、カラーフィルタ112G3および112G4と、OCL30と、をそれぞれ同一方向に、図11Aの場合よりも小さいずらし量で位置をずらして配置する。これにより、各画素110G3および110G4において、光電変換部111G3および111G4の入射面に対して、入射角αより小さい所定の入射角βで入射される光40dに対する瞳補正が行われる。
 この瞳補正は、各カラーフィルタ112G3および112G4、ならびに、画素110G3および110G4に共通に設けられるOCL30それぞれの、各光電変換部111G3および111G4に対するずらし量に応じた瞳補正量に基づき行われる。この瞳補正により、光40dが光電変換部111G3および111G4の入射面に入射される範囲41dを適正とすることができる。
 なお、図11Aおよび図11Bの構成において、例えば入射光を制限するための金属膜(メタルマスク)をさらに設けることができる。図11Aを例に取ると、各光電変換部111R、111G1および111G2と、各カラーフィルタ112R、112G1および112G2との間に、瞳補正量に応じて各光電変換部111R、111G1および111G2に対して位置がずらされた開口部を有するメタルマスクを設ける構成が考えられる。
 図12は、第1の実施形態に係る、1つの画素ブロックにおいて複数の瞳補正量により瞳補正を行う場合の効果を説明するための図である。図12は、主レンズによるEPDに対するオートフォーカス(AF)および視差検出の精度を模式的に示す図である。図12において、横軸は主レンズEPDを示し、縦軸はAFおよび視差検出の精度(AF・視差検出精度)を示している。
 図12において、特性線51は、特定の主レンズによるEPDに対応する瞳補正量で瞳補正を行った場合のAF・視差検出精度の例を模式的に示している。特性線51のピーク位置が主レンズによるEPDに対応し、AF・視差検出精度は、主レンズによるEPDに対してEPDの方向に広がりを持って減衰する。
 図12において、特性線50aは、強い瞳補正を行った場合の例を示し、特性線50bは、弱い瞳補正を行った場合の例を示している。この例では、強い瞳補正は、特性線50aに示されるように、特性線51が示す特定の主レンズによるEPDに対して短いEPDにピークを持つように設定されている。一方、弱い瞳補正は、特性線50bに示されるように、特性線51が示す特定の主レンズによるEPDに対して長いEPDにピークを持つように設定されている。
 ここで、必要とされるAF・視差検出精度(必要精度)が、各特性線50a、50bおよび51のピークに対して余裕を持って設定されているものとする。図12の例では、必要精度が特性線50aおよび50bの交点位置より低い精度に設定されている。
 この場合において、特定の主レンズによるEPDに対応する瞳補正量で瞳補正を行った場合に必要精度を得ることができるEPDの範囲を、特性線51に基づき範囲Aとする。この場合、例えば広角から望遠まで広い範囲でズームを行うと、広角側および望遠側それぞれの比較的広い範囲で、必要とされる精度でのオートフォーカスの実行が困難となる。
 これに対して、強い瞳補正と、弱い瞳補正とを組み合わせた場合、特性線50aおよび50bに示されるように、強い瞳補正により必要精度を得ることができるEPDの範囲と、弱い瞳補正により必要精度を得ることができるEPDの範囲とに重複部分が生じる。これにより、強い瞳補正と、弱い瞳補正とを組み合わせた場合に、範囲Aより広い範囲BのEPDにおいて、必要精度を得ることができるようになる。したがって、上述した広角から望遠まで広い範囲でズームを行った場合でも、広角側および望遠側それぞれにおいて、必要とされる精度でオートフォーカスを実行することが可能である。
(第1の実施形態に係る瞳補正の具体例)
 上述では、図10に示したように、画素アレイ部11の像高中心に対して図10上で左端側の領域Lを例にとって、第1の実施形態に係る瞳補正について説明した。実際には、画素アレイ部11の像高中心に対する各方向において、像高および像高中心に向けた方向に応じた瞳補正が実行される。
 図13は、画素アレイ部11における、像高中心に対する方向が異なる各領域の例を示す図である。図13において、領域Cは、像高中心に対応する領域である。領域LおよびRは、それぞれ像高中心に対して水平方向の端部の領域である。領域CTおよびCBは、それぞれ像高中心に対して垂直方向の端部の領域である。また、領域LTおよびRBは、それぞれ像高中心に対して図13上で左上および右下の端部(角部)の領域である。
 図14A~図14Gを用いて、第1の実施形態に係る、上述した領域C、L、R、CT、CB、LTおよびRBにおける瞳補正の方向の例について説明する。なお、図14A~図14Gにおいて、右端の「無し」は、対応する行において瞳補正を行わないことを示している。また、右端の「強」は、対応する行において強い瞳補正を行うことを示し、「弱」は、対応する行において弱い瞳補正を行うことを示している。
 図14Aは、第1の実施形態に係る、領域Cにおける瞳補正の例を示す図である。領域Cにおいては、図14Aの各行の右端に示すように、各画素ブロックの各画素セットにおいて、瞳補正を行わない。
 図14Bは、第1の実施形態に係る、領域Lにおける瞳補正の例を示す図である。図14Bは、上述した図9と同様の図であって、領域Lでは、図14B上で右側(像高中心)に向けて、各画素ブロックの上段の画素セットにおいて強い瞳補正、下段の画素セットにおいて弱い瞳補正を行う。
 図14Cは、第1の実施形態に係る、領域Rにおける瞳補正の例を示す図である。領域Rでは、図14C上で左側(像高中心)に向けて、各画素ブロックの上段の画素セットにおいて強い瞳補正、下段の画素セットにおいて弱い瞳補正を行う。
 図14Dは、第1の実施形態に係る、領域CBにおける瞳補正の例を示す図である。領域CBでは、図14D上で上側(像高中心)に向けて、各画素ブロックの上段および下段の画素セットにおいて同一の瞳補正量により瞳補正を行う。
 図14Eは、第1の実施形態に係る、領域CTにおける瞳補正の例を示す図である。領域CTでは、図14E上で下側(像高中心)に向けて、各画素ブロックの上段および下段の画素セットにおいて同一の瞳補正量により瞳補正を行う。
 図14Fは、第1の実施形態に係る、領域LTにおける瞳補正の例を示す図である。領域LTでは、図14F上で右斜め下側(像高中心)に向けて、各画素ブロックの上段の画素セットにおいて強い瞳補正、下段の画素セットにおいて弱い瞳補正を行う。図14Fの例では、領域LTにおいて、図14Bの領域Lにおける瞳補正の方向(右側)と、図14Eの領域CTにおける瞳補正の方向(下側)とを組み合わせた方向で、瞳補正を行うものとしている。
 図14Gは、第1の実施形態に係る、領域RBにおける瞳補正の例を示す図である。領域RBでは、図14G上で左斜め上側(像高中心)に向けて、各画素ブロックの上段の画素セットにおいて強い瞳補正、下段の画素セットにおいて弱い瞳補正を行う。図14Gの例では、領域RBにおいて、図14Cの領域Rにおける瞳補正の方向(左側)と、図14Dの領域CBにおける瞳補正の方向(上側)とを組み合わせた方向で、瞳補正を行うものとしている。
 なお、上述した像高中心に対する各方向に応じた瞳補正に加えて、像高に応じて瞳補正量を変更することができる。
 また、上述では、画素アレイ部11に含まれる、領域C、CTおよびCBを含む水平方向に所定の幅を持つ領域以外の全ての領域で、各画素ブロックが強い瞳補正を行う画素セットと弱い瞳補正を行う画素セットとを含むように説明したが、これはこの例に限定されない。例えば、画素アレイ部11に含まれる、領域C、領域C、CTおよびCBを含む水平方向に所定の幅を持つ領域以外の全ての領域において、少なくとも1つの画素ブロックが、強い瞳補正を行う画素セットと弱い瞳補正を行う画素セットとを含むような構成でもよい。
(第1の実施形態に係る各画素ブロックにおける読み出し方法)
 次に、第1の実施形態に係る、各画素ブロックにおける各画素110(光電変換部111)からの信号の読み出し方法について説明する。第1の実施形態では、各画素ブロックのそれぞれにおいて、各画素110から個別に信号を読み出す第1の読み出し方法と、各画素110の信号を加算して纏めて読み出す第2の読み出し方法と、を実行可能としている。
 図15は、第1の実施形態に係る、各画素ブロックそれぞれにおいて、各画素110から信号を読み出す第1の方法を説明するための図である。図15および後述する図16では、図5の画素110G1、110G2、110G3および110G4を含む画素ブロックを例にとって説明を行う。ここで、画素ブロックは、各画素110G1、110G2、110G3および110G4が1つの浮遊拡散層を共有する構成となっている。
 第1の読み出し方法では、画素110G1、110G2、110G3および110G4において、順次に、上述した読み出し制御に従い光電変換素子(光電変換部111)から電荷を読み出す。
 すなわち、例えば、制御部19の制御に従い、垂直走査部12は、画素ブロックにおいて浮遊拡散層のリセットを行い、その後、画素110G1において光電変換部111から電荷の読み出しを行い、読み出された電荷を浮遊拡散層に転送する。浮遊拡散層において、転送された電荷が電荷量に応じた電圧に変換されて、画素110G1から読み出された画素信号として垂直信号線17に出力される。
 次に、垂直走査部12は、画素ブロックにおいて浮遊拡散層のリセットを行い、その後、画素110G2において光電変換部111から電荷の読み出しを行い、読み出された電荷を浮遊拡散層に転送する。浮遊拡散層において、転送された電荷が電荷量に応じた電圧に変換されて、画素110G2から読み出された画素信号として垂直信号線17に出力される。
 垂直走査部12は、画素110G3および110G4からの画素信号の読み出しも同様にして、それぞれ浮遊拡散層のリセットを行った後に、光電変換部111からの電荷の読み出しと、読み出した電荷の浮遊拡散層への転送とを実行する。
 各画素110G1~110G4から読み出された各画素信号は、それぞれ例えば画像処理部5に供給される。画像処理部5は、供給された各画素信号のうち、例えば画素セットを構成する2画素、例えば画素110G1および110G2の各画素信号や、画素110G3および110G4の各画素信号に基づき、水平方向における位相差を検出する。画像処理部5は、検出された位相差を示す情報を制御部3に渡す。
 制御部3は、画像処理部5から渡された位相差を示す情報に基づき、例えば像面位相差AFを実行するための制御信号を生成する。制御部3は、この制御信号に基づき光学系2の制御を行い、光学系2に対してAF動作を実行させる。これに限らず、制御部3は、画像処理部5から渡された位相差を示す情報に基づき、視差情報を求めることも可能である。
 図16は、第1の実施形態に係る、各画素ブロックそれぞれにおいて、各画素110から信号を読み出す第2の方法を説明するための図である。第2の読み出し方法では、画素110G1、110G2、110G3および110G4において各光電変換部111に蓄積された電荷を画素ブロック内部で加算して読み出す。
 すなわち、例えば、制御部19の制御に従い、垂直走査部12は、画素ブロックにおいて浮遊拡散層のリセットを行い、その後、所定のタイミングで、画素110G1~110G4において各光電変換部111から電荷の読み出しを行い、読み出された電荷を浮遊拡散層に転送する。浮遊拡散層では、各光電変換部111から転送された電荷が加算部120において加算される。この場合、加算部120は、画素110G1~110G4に共通の浮遊拡散層に対応する。浮遊拡散層において、各光電変換部111から転送され加算された電荷が電荷量に応じた電圧に変換されて、各画素110G1~110G4の合計の画素信号として垂直信号線17に出力される。
 各画素110G1~110G4の合計の画素信号は、例えば画像処理部5に供給される。画像処理部5は、供給された画素信号に対して所定の画像処理を施し、例えば1フレーム単位の画像データとしてメモリ6に格納する。例えば制御部3は、画像処理部5で画像処理されメモリ6に格納された画像データを記憶部7に記憶させ、また、表示部8に表示させる。制御部3は、当該画像データをI/F部9を介して外部に送信することもできる。
 これら第1の読み出し方法および第2の読み出し方法の活用例について、概略的に説明する。図1に示す電子機器1がデジタルスチルカメラである場合、シャッタボタンの押下操作は、一般的に、半押し操作でオートフォーカス動作が指示され、半押し操作に続く全押し操作で露光が指示される。そこで、制御部3は、入力デバイス10としてのシャッタボタンに対する半押し操作に応じて上述した第1の読み出し方法を実行し、位相差に基づくオートフォーカスを実行する。その後のシャッタボタンに対する全押し操作に応じて上述した第2の読み出し方法を実行し、画素ブロックに含まれる4つの画素による電荷を合計した電荷に基づく画素信号を取得する。
 このような制御とすることで、例えばデジタルスチルカメラとしての電子機器1は、シャッタボタンの一連の操作に応じて、位相差に基づくオートフォーカス制御を実行し、複数の画素110単位での画素信号に基づく画像データを取得することが可能である。このとき、位相差に基づくオートフォーカスは、画素アレイ部11に含まれる全ての画素110を用いて実行できるため、より高精度のオートフォーカス制御が可能である。また、取得される画像データは、画素ブロックに含まれる4つの画素110を纏めて得られた画素信号に基づき構成されるため、より明るい画面を実現できる。
 これに限らず、第1の実施形態に係る電子機器1は、第1の読み出し方法により、画素ブロックに含まれる各画素110による各画素信号を個別に読み出すことができる。そのため、第1の実施形態に係る電子機器1は、3D(Dimension)画像の生成を行うアプリケーションや、ライトフィールドカメラの機能を実現するためのアプリケーションを容易に搭載することが可能である。
(混色に対する対応)
 次に、第1の実施形態に適用可能な、画素間での混色に対する対応について説明する。第1の実施形態では、ある画素セットに対するOCL30が、当該画素セットに隣接する、当該画素セットに含まれる各画素110に設けられるカラーフィルタ112とは異なる色のカラーフィルタ112が各画素110に設けられる画素セットに掛かる場合がある。この場合、主レンズの主光線入射角度(CRA(Chief Ray Angle))によっては、隣接する画素セットの間で混色が発生するおそれがある。
 図17は、第1の実施形態に適用可能な、画素セット間(画素110間)での混色を抑制するための画素110の構成の第1の例を示す断面図である。なお、図17は、便宜上、1つの光電変換部111に対して1つのOCL31が設けられる構成を示している。
 図17において、シリコンによる基板1000の上側が基板1000の裏面、下側が表面である。すなわち、基板1000は、表面側に光電変換部111および各配線などが形成された後、裏返され、裏面に平坦化膜1011が形成される。平坦化膜1011に対して遮光体113とR色のカラーフィルタ112Rが形成される。カラーフィルタ112Rの左隣には、G色のカラーフィルタ112Gが形成されている。カラーフィルタ112Rおよび112Gに対して、OCL31が形成され、OCL31に対して保護膜1010が形成される。
 また、図17において、光電変換部111に対して遮光体113およびカラーフィルタ112Rが図17の右側にずらして形成され、OCL31がさらに右側にずらして配置されている。これにより、右上方向から左下方向に向けて入射する光に対する瞳補正が行われる。
 この構成によれば、光電変換部111に対して直接的にカラーフィルタ112Rおよび遮光体113が形成される。そのため、図17の右上方向から左下方向に向けて、OCL31およびカラーフィルタ112Rを介して光電変換部111に入射する光の、左隣のカラーフィルタ112Gが設けられる光電変換部111への漏れ込みを抑制することができる。
 図18は、第1の実施形態に適用可能な、画素セット間(画素110間)での混色を抑制するための画素110の構成の第2の例を示す断面図である。図17と同様に、図18は、便宜上、1つの光電変換部111に対して1つのOCL31が設けられる構成を示している。また、シリコンによる基板1000の表裏関係も、図17の例と同様である。
 図18において、シリコンによる基板1000の上側が基板1000の裏面、下側が表面である。図18の例では、基板1000は、上述と同様にして表面側に光電変換部111および各配線などが形成された後、裏返される。裏面側にトレンチによる遮光体1020が形成され、さらに平坦化膜1011が形成される。平坦化膜1011上の構成は、図17の例と同様であるので、ここでの説明を省略する。
 この構成によれば、図18の右上方向から左下方向に向けて、例えばカラーフィルタ112Rを介して光電変換部111に入射される光(矢印Cで示す)は、遮光体1020の表面で反射される(矢印Dで示す)。そのため、当該光電変換部111に入射する光の、隣接するカラーフィルタ112Gが設けられる光電変換部111への漏れ込みが抑制される。
 図19および図20は、第1の実施形態に適用可能な、図18に例示する遮光体1020の配置の例を示す図である。
 図19は、第1の実施形態に適用可能な、各画素ブロックの境界に配置された遮光体1020aの例を示す図である。この図19の遮光体1020aは、色の異なるカラーフィルタ112が各画素110に設けられた画素ブロックへの光の漏れ込みを抑制するものであって、例えば図16を用いて説明した第2の読み出し方法に対してより効果的である。例えば、この図19に示す遮光体1020aを用いることで、画素ブロック毎の画素信号に基づく画像データによる画像の画質を向上させることができる。
 図20は、第1の実施形態に適用可能な、各画素セットの境界に配置された遮光体1020bの例を示す図である。この図20の遮光体1020bは、位相差を検出する各画素セット間での光の漏れ込みを抑制するものであって、例えば図15を用いて説明した第1の読み出し方法に対してより効果的である。例えば、この図20に示す遮光体1020bを用いることで、位相差の検出をより高精度に行うことができる。また、この図20に示す遮光体1020bは、上述した図19に示した遮光体1020aと同等の効果も得ることができる。
[第1の実施形態の変形例]
 次に、第1の実施形態の変形例について説明する。第1の実施形態の変形例では、画素ブロックにおける画素セットを、上述した第1の実施形態における画素セットとは異なる方向に隣接する画素110により構成する例である。より具体的には、例えば図9を例に取ると、上述した第1の実施形態における画素セットは、水平方向に隣接する2つの画素110により構成していた。これに対して、第1の実施形態の変形例では、垂直方向に隣接する2つの画素110により画素セットを構成する。
(第1の実施形態の変形例に係る瞳補正の具体例)
 図21A~図21Gを用いて、第1の実施形態の変形例による画素セットについて説明すると共に、図13に示した領域C、L、R、CT、CB、LTおよびRBにおける瞳補正の方向の例について説明する。なお、図21A~図21Gにおいて、下端の「無し」は、対応する列において瞳補正を行わないことを示している。また、下端の「強」は、対応する列において強い瞳補正を行うことを示し、「弱」は、対応する列において弱い瞳補正を行うことを示している。
 図21Aは、第1の実施形態の変形例に係る、領域Cにおける瞳補正の例を示す図である。ここで、図21Aに示すように、第1の実施形態の変形例では、2画素×2画素からなる各画素ブロックにおいて、垂直方向に隣接する2つの画素110G、垂直方向に隣接する2つの画素110R、および、垂直方向に隣接する2つの画素110B、によりそれぞれ画素セットが構成される。各画素セットに対して、それぞれ1つのOCL30が設けられる。
 図21Aに示すように、領域Cにおいては、図21Aの各列の下端に示すように、各画素ブロックの各画素セットにおいて、瞳補正を行わない。
 図21Bは、第1の実施形態の変形例に係る、領域CTにおける瞳補正の例を示す図である。図21Bは、領域CTでは、図21B上で下側(像高中心)に向けて、各画素ブロックの右側の画素セットにおいて強い瞳補正、左側の画素セットにおいて弱い瞳補正を行う。
 図21Cは、第1の実施形態の変形例に係る、領域CBにおける瞳補正の例を示す図である。領域CBでは、図21C上で上側(像高中心)に向けて、各画素ブロックの右側の画素セットにおいて強い瞳補正、左側の画素セットにおいて弱い瞳補正を行う。
 図21Dは、第1の実施形態の変形例に係る、領域Lにおける瞳補正の例を示す図である。領域Lでは、図21D上で右側(像高中心)に向けて、各画素ブロックの右側および左側の画素セットにおいて同一の瞳補正量により瞳補正を行う。
 図21Eは、第1の実施形態の変形例に係る、領域Rにおける瞳補正の例を示す図である。領域Rでは、図21E上で左側(像高中心)に向けて、各画素ブロックの右側および左側の画素セットにおいて同一の瞳補正量により瞳補正を行う。
 図21Fは、第1の実施形態の変形例に係る、領域LTにおける瞳補正の例を示す図である。領域LTでは、図21F上で右斜め下側(像高中心)に向けて、各画素ブロックの右側の画素セットにおいて強い瞳補正、左側の画素セットにおいて弱い瞳補正を行う。図21Fの例では、領域LTにおいて、図21Bの領域CTにおける瞳補正の方向(下側)と、図21Dの領域Lにおける瞳補正の方向(右側)とを組み合わせた方向で、瞳補正を行うものとしている。
 図21Gは、第1の実施形態の変形例に係る、領域RBにおける瞳補正の例を示す図である。領域RBでは、図21G上で左斜め上側(像高中心)に向けて、各画素ブロックの右側の画素セットにおいて強い瞳補正、左側の画素セットにおいて弱い瞳補正を行う。図21Gの例では、領域RBにおいて、図21Cの領域CBにおける瞳補正の方向(上側)と、図21Eの領域Rにおける瞳補正の方向(左側)とを組み合わせた方向で、瞳補正を行うものとしている。
 この第1の実施形態の変形例によれば、垂直方向の位相差情報に基づき像面位相差AFや視差検出を、より高精度に実行できる。
[第2の実施形態]
 次に、第2の実施形態について説明する。上述した第1の実施形態およびその変形例では、2画素×2画素の4つの画素110により画素ブロックが構成されていた。これに対して、第2の実施形態では、nを3以上の整数とし、n画素×n画素の、(n×n)個の画素110により画素ブロックを構成する。また、画素ブロックにおける画素セットを、上述した第1の実施形態における画素セットと同様に、水平方向に隣接する2つの画素110により構成する。
 第2の実施形態では、1つの画素ブロックにおいて、3以上の異なる瞳補正量による瞳補正を実現できる。これにより、上述した第1の実施形態およびその変形例と比較して、主レンズによるEPDのより広い範囲において、高い精度で像面位相差AFや視差検出を実行することが可能となる。
 図22は、第2の実施形態に適用可能な画素構成の例を示す図である。図22の画素構成では、上述のn=4とし、同一色による4画素×4画素が格子状に配列された画素ブロックを単位とし、16個のR色の画素110Rと、16個のG色の画素110Gと、16個のB色の画素110Bと、による各画素ブロックが、ベイヤ配列に準じた画素配列にて配置されて構成されている。以下では、特に記載の無い限り、このような画素配列を、4分割ベイヤ型RGB配列(n=4)と呼ぶ。
 より具体的には、4分割ベイヤ型RGB配列(n=4)は、上述した4分割ベイヤ型RGB配列と同様に、R色の画素110R、G色の画素110G、および、B色の画素110Bによる各画素ブロックが、画素110R、画素110Gおよび画素110Bの数が1:2:1の割合となり、且つ、同一色の画素による画素ブロックが隣接しないように、4×4の格子状に配列される。図22の例では、B色の画素110Bによる画素ブロックの左および下にG色の画素110Gによる画素ブロックが配置され、B色の画素110Bによる画素ブロックの対角に、R色の画素110Rによる画素ブロックが配置されている。
(第2の実施形態に係る瞳補正の具体例)
 図23A~図23Gを用いて、第2の実施形態による画素セットについて説明すると共に、図13に示した領域C、L、R、CT、CB、LTおよびRBにおける瞳補正の方向の例について説明する。
 なお、図23A~図23Gにおいて、右端の「無し」は、対応する行において瞳補正を行わないことを示している。右端の「強」は、対応する行において強い瞳補正を行うことを示し、「強強」は、対応する行において「強」と比較してさらに強い瞳補正(「より強い瞳補正」と呼ぶ)を行うことを示している。さらに、右端の「弱」は、対応する行において弱い瞳補正を行うことを示し、「弱弱」は、対応する行において「弱」と比較してさらに弱い瞳補正(「より弱い瞳補正」と呼ぶ)を行うことを示している。
 これに限らず、「弱弱」は、マイナスの瞳補正、すなわち、「強強」、「強」および「弱」とは逆の方向に向けた瞳補正としてもよい。例えば、主レンズの径が受光面(画素アレイ部11)の幅より大きな場合に、主レンズの縁部分からの光が、主レンズの中央部分の光とは逆の方向から画素アレイ部11に入射することが起こり得る。このように主レンズの中央部分の光とは逆の方向から画素アレイ部11に入射する光に対して、マイナスの瞳補正を行う。
 図23Aは、第2の実施形態に係る、領域Cにおける瞳補正の例を示す図である。ここで、図23Aに示すように、第2の実施形態では、4画素×4画素からなる各画素ブロックにおいて、水平方向に隣接する2つの画素110G、水平方向に隣接する2つの画素110R、および、水平方向に隣接する2つの画素110B、によりそれぞれ画素セットが構成される。すなわち、第2の実施形態では、1つの画素ブロックが8個の画素セットを含む。各画素セットに対して、それぞれ1つのOCL30が設けられる。
 図23Aに示すように、領域Cにおいては、図23Aの各列の右端に示すように、各画素ブロックの各画素セットにおいて、瞳補正を行わない。
 図23Bは、第2の実施形態に係る、領域Lにおける瞳補正の例を示す図である。領域Lでは、図23B上で右側(像高中心)に向けて、各画素ブロックの最上段の2つの画素セットにおいてより強い瞳補正、上から2段目の2つの画素セットにおいて強い瞳補正、上から3段目の画素セットにおいて弱い瞳補正、最下段の画素セットにおいてより弱い瞳補正を行う。
 図23Cは、第2の実施形態に係る、領域Rにおける瞳補正の例を示す図である。領域Rでは、図23C上で左側(像高中心)に向けて、各画素ブロックの最上段の2つの画素セットにおいてより強い瞳補正、上から2段目の2つの画素セットにおいて強い瞳補正、上から3段目の画素セットにおいて弱い瞳補正、最下段の画素セットにおいてより弱い瞳補正を行う。
 図23Dは、第2の実施形態に係る、領域CTにおける瞳補正の例を示す図である。領域CTでは、図23D上で下側(像高中心)に向けて、各画素ブロックの各段の画素セットにおいて同一の瞳補正量により瞳補正を行う。
 図23Eは、第2の実施形態に係る、領域CBにおける瞳補正の例を示す図である。領域CTでは、図23E上で上側(像高中心)に向けて、各画素ブロックの各段の画素セットにおいて同一の瞳補正量により瞳補正を行う。
 図23Fは、第2の実施形態に係る、領域LTにおける瞳補正の例を示す図である。領域LTでは、図23F上で右斜め下側(像高中心)に向けて、各画素ブロックの最上段の2つの画素セットにおいてより強い瞳補正、上から2段目の2つの画素セットにおいて強い瞳補正、上から3段目の画素セットにおいて弱い瞳補正、最下段の画素セットにおいてより弱い瞳補正を行う。図23Fの例では、領域LTにおいて、図23Bの領域Lにおける瞳補正の方向(右側)と、図23Dの領域CTにおける瞳補正の方向(下側)とを組み合わせた方向で、瞳補正を行うものとしている。
 図23Gは、第2の実施形態に係る、領域RBにおける瞳補正の例を示す図である。領域RBでは、図23G上で左斜め上側(像高中心)に向けて、各画素ブロックの最上段の2つの画素セットにおいてより強い瞳補正、上から2段目の2つの画素セットにおいて強い瞳補正、上から3段目の画素セットにおいて弱い瞳補正、最下段の画素セットにおいてより弱い瞳補正を行う。図23Gの例では、領域RBにおいて、図23Cの領域Rにおける瞳補正の方向(左側)と、図23Eの領域CBにおける瞳補正の方向(上側)とを組み合わせた方向で、瞳補正を行うものとしている。
 なお、上述した像高中心に対する各方向に応じた瞳補正に加えて、像高に応じて瞳補正量を変更することができる。
 また、第2の実施形態においても、上述した第1の実施形態の変形例と同様に、各画素セットを、垂直方向に隣接する2つの画素110と、この2つの画素110に共通して設けられる1つのOCL30により構成することもできる。
[第2の実施形態の変形例]
 次に、第2の実施形態の変形例について説明する。第2の実施形態の変形例では、上述した第2の実施形態に係る、nを3以上の整数とし、n画素×n画素の、(n×n)個の画素110により構成した画素ブロックにおいて、互いに隣接する画素110の方向が異なる複数の画素セットを混在させる。例えば、1つの画素ブロックにおいて、水平方向に隣接する2つの画素110による画素セット(水平画素セットと呼ぶ)と、垂直方向に隣接する2つの画素110による画素セット(垂直画素セットと呼ぶ)と、を混在させる。
 第2の実施形態の変形例では、1つの画素ブロックにおいて、互いに隣接する画素110の方向が異なる複数の画素セットを混在させるため、異なる方向それぞれの位相差を検出することが可能である。より具体的には、1つの画素ブロックに対して水平画素セットと垂直画素セットとを混在させることで、水平方向および垂直方向それぞれについて位相差を検出することが可能となる。これにより、像面位相差AFや視差検出を、より高精度に行うことが可能となる。
(第2の実施形態の変形例に係る瞳補正の具体例)
 図24A~図24Gを用いて、第2の実施形態の変形例による画素セットについて説明すると共に、図13に示した領域C、L、R、CT、CB、LTおよびRBにおける瞳補正の方向の例について説明する。
 なお、図24A~図24Gにおいて、右端の「無し」は、対応する行において瞳補正を行わないことを示している。右端の「強」は、対応する行において強い瞳補正を行うことを示し、右端の「弱」は、対応する行において弱い瞳補正を行うことを示している。また、右端の「狙いCRA」は、主レンズによるEPDに対して最適な瞳補正を行うことを示している。例えば、「狙いCRA」は、強い瞳補正と、弱い瞳補正と、の中間程度の強度の瞳補正を行うことが考えられる。
 図24Aは、第2の実施形態の変形例に係る、領域Cにおける瞳補正の例を示す図である。ここで、図24Aに示すように、第2の実施形態の変形例では、n=4とし、4画素×4画素からなる各画素ブロックにおいて、4つの水平画素セットと、4つの垂直画素セットと、を混在させている。このとき、各画素ブロックにおいて、上段に2つの水平画素セットが水平方向に隣接させて配置され、中段に4つの垂直画素セットが水平方向に順次隣接させて配置され、下段に2つの水平画素セットが水平方向に隣接させて配置される。各画素セットに対して、それぞれ1つのOCL30が設けられる。
 図24Aに示すように、領域Cにおいては、図24Aの各列の右端に示すように、各画素ブロックの上段および下段の各水平画素セットにおいて、瞳補正を行わない。中段の各垂直画素セットは、主レンズによるEPDに対して最適な瞳補正を行う。領域Cは、像高中心に位置するため、図24Aに示す中段の各垂直画素セットは、実際には瞳補正が行われない。
 図24Bは、第2の実施形態の変形例に係る、領域Lにおける瞳補正の例を示す図である。領域Lでは、図24B上で右側(像高中心)に向けて、各画素ブロックの上段の2つの水平画素セットにおいて強い瞳補正、下段の2つの画素セットにおいて弱い瞳補正を行う。また、中段の各垂直画素セットは、各垂直画素セットの像高および像高中心に対する方向に応じて、主レンズによるEPDに対して最適な瞳補正を行う。
 図24Cは、第2の実施形態の変形例に係る、領域Rにおける瞳補正の例を示す図である。領域Rでは、図24C上で左側(像高中心)に向けて、各画素ブロックの上段の2つの画素セットにおいて強い瞳補正、下段の2つの画素セットにおいて弱い瞳補正を行う。また、中段の各垂直画素セットは、各垂直画素セットの像高および像高中心に対する方向に応じて、主レンズによるEPDに対して最適な瞳補正を行う。
 図24Dは、第2の実施形態の変形例に係る、領域CTにおける瞳補正の例を示す図である。領域CTでは、図24D上で下側(像高中心)に向けて、各画素ブロックの上段および下段の各水平画素セットと、中段の各垂直画素セットと、において同一の瞳補正量により瞳補正を行う。
 図24Eは、第2の実施形態の変形例に係る、領域CBにおける瞳補正の例を示す図である。領域CTでは、図24E上で下側(像高中心)に向けて、各画素ブロックの上段および下段の各水平画素セットと、中段の各垂直画素セットと、において同一の瞳補正量により瞳補正を行う。
 図24Fは、第2の実施形態の変形例に係る、領域LTにおける瞳補正の例を示す図である。領域LTでは、図24F上で右斜め下側(像高中心)に向けて、各画素ブロックの上段の2つの水平画素セットにおいて強い瞳補正、下段の2つの画素セットにおいて弱い瞳補正を行う。また、中段の各垂直画素セットは、各垂直画素セットの像高および像高中心に対する方向に応じて、主レンズによるEPDに対して最適な瞳補正を行う。図24Fの例では、領域LTにおいて、図24Bの領域Lにおける瞳補正の方向(右側)と、図24Dの領域CTにおける瞳補正の方向(下側)とを組み合わせた方向で、瞳補正を行うものとしている。
 図24Gは、第2の実施形態の変形例に係る、領域RBにおける瞳補正の例を示す図である。領域RBでは、図24G上で左斜め上側(像高中心)に向けて、各画素ブロックの上段の2つの水平画素セットにおいて強い瞳補正、下段の2つの画素セットにおいて弱い瞳補正を行う。また、中段の各垂直画素セットは、各垂直画素セットの像高および像高中心に対する方向に応じて、主レンズによるEPDに対して最適な瞳補正を行う。図24Gの例では、領域RBにおいて、図24Cの領域Rにおける瞳補正の方向(左側)と、図24Eの領域CBにおける瞳補正の方向(上側)とを組み合わせた方向で、瞳補正を行うものとしている。
 なお、上述した像高中心に対する各方向に応じた瞳補正に加えて、像高に応じて瞳補正量を変更することができる。
[第3の実施形態]
 次に、第3の実施形態として、本開示に係る、第1の実施形態およびその変形例、ならびに、第2の実施形態およびその変形例による撮像素子4の適用例について説明する。図25は、上述の第1の実施形態およびその変形例、ならびに、第2の実施形態およびその変形例に係る撮像素子4を使用する使用例を示す図である。
 上述した各撮像素子4は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置。
・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置。
・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置。
・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置。
・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置。
・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置。
・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置。
・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置。
[本開示に係る技術のさらなる適用例]
 本開示に係る技術(本技術)は、様々な製品へ適用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
(体内情報取得システムへの適用例)
 図26は、本開示に係る技術(本技術)が適用され得る、カプセル型内視鏡を用いた患者の体内情報取得システムの概略的な構成の一例を示すブロック図である。
 体内情報取得システム10001は、カプセル型内視鏡10100と、外部制御装置10200とから構成される。
 カプセル型内視鏡10100は、検査時に、患者によって飲み込まれる。カプセル型内視鏡10100は、撮像機能および無線通信機能を有し、患者から自然排出されるまでの間、胃や腸等の臓器の内部を蠕動運動等によって移動しつつ、当該臓器の内部の画像(以下、体内画像ともいう)を所定の間隔で順次撮像し、その体内画像についての情報を体外の外部制御装置10200に順次無線送信する。
 外部制御装置10200は、体内情報取得システム10001の動作を統括的に制御する。また、外部制御装置10200は、カプセル型内視鏡10100から送信されてくる体内画像についての情報を受信し、受信した体内画像についての情報に基づいて、表示装置(図示しない)に当該体内画像を表示するための画像データを生成する。
 体内情報取得システム10001では、このようにして、カプセル型内視鏡10100が飲み込まれてから排出されるまでの間、患者の体内の様子を撮像した体内画像を随時得ることができる。
 カプセル型内視鏡10100と外部制御装置10200の構成および機能についてより詳細に説明する。
 カプセル型内視鏡10100は、カプセル型の筐体10101を有し、その筐体10101内には、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、給電部10115、電源部10116、および制御部10117が収納されている。
 光源部10111は、例えばLED(Light Emitting Diode)等の光源から構成され、撮像部10112の撮像視野に対して光を照射する。
 撮像部10112は、撮像素子、および当該撮像素子の前段に設けられる複数のレンズからなる光学系から構成される。観察対象である体組織に照射された光の反射光(以下、観察光という)は、当該光学系によって集光され、当該撮像素子に入射する。撮像部10112では、撮像素子において、そこに入射した観察光が光電変換され、その観察光に対応する画像信号が生成される。撮像部10112によって生成された画像信号は、画像処理部10113に提供される。
 画像処理部10113は、CPUやGPU(Graphics Processing Unit)等のプロセッサによって構成され、撮像部10112によって生成された画像信号に対して各種の信号処理を行う。画像処理部10113は、信号処理を施した画像信号を、RAWデータとして無線通信部10114に提供する。
 無線通信部10114は、画像処理部10113によって信号処理が施された画像信号に対して変調処理等の所定の処理を行い、その画像信号を、アンテナ10114Aを介して外部制御装置10200に送信する。また、無線通信部10114は、外部制御装置10200から、カプセル型内視鏡10100の駆動制御に関する制御信号を、アンテナ10114Aを介して受信する。無線通信部10114は、外部制御装置10200から受信した制御信号を制御部10117に提供する。
 給電部10115は、受電用のアンテナコイル、当該アンテナコイルに発生した電流から電力を再生する電力再生回路、および昇圧回路等から構成される。給電部10115では、いわゆる非接触充電の原理を用いて電力が生成される。
 電源部10116は、二次電池によって構成され、給電部10115によって生成された電力を蓄電する。図26では、図面が煩雑になることを避けるために、電源部10116からの電力の供給先を示す矢印等の図示を省略しているが、電源部10116に蓄電された電力は、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、および制御部10117に供給され、これらの駆動に用いられ得る。
 制御部10117は、CPU等のプロセッサによって構成され、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、および、給電部10115の駆動を、外部制御装置10200から送信される制御信号に従って適宜制御する。
 外部制御装置10200は、CPU、GPU等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載されたマイクロコンピュータ若しくは制御基板等で構成される。外部制御装置10200は、カプセル型内視鏡10100の制御部10117に対して制御信号を、アンテナ10200Aを介して送信することにより、カプセル型内視鏡10100の動作を制御する。カプセル型内視鏡10100では、例えば、外部制御装置10200からの制御信号により、光源部10111における観察対象に対する光の照射条件が変更され得る。また、外部制御装置10200からの制御信号により、撮像条件(例えば、撮像部10112におけるフレームレート、露出値等)が変更され得る。また、外部制御装置10200からの制御信号により、画像処理部10113における処理の内容や、無線通信部10114が画像信号を送信する条件(例えば、送信間隔、送信画像数等)が変更されてもよい。
 また、外部制御装置10200は、カプセル型内視鏡10100から送信される画像信号に対して、各種の画像処理を施し、撮像された体内画像を表示装置に表示するための画像データを生成する。当該画像処理としては、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、ノイズリダクション処理、手ブレ補正処理等)、拡大処理(電子ズーム処理)等、それぞれ単独で、あるいは、組み合わせて、各種の信号処理を行うことができる。外部制御装置10200は、表示装置の駆動を制御して、生成した画像データに基づいて撮像された体内画像を表示させる。あるいは、外部制御装置10200は、生成した画像データを記録装置(図示しない)に記録させたり、印刷装置(図示しない)に印刷出力させてもよい。
 以上、本開示に係る技術が適用され得る体内情報取得システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部10112に適用され得る。本開示に係る撮像素子4を撮像部10112に適用することで、ズームなどを行った場合でも良好なオートフォーカスを行うことが可能となり、より高品質な体内画像などを取得することが可能となる。
(内視鏡手術システムへの適用例)
 本開示に係る技術は、さらに、内視鏡手術システムに適用されてもよい。図27は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図27では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系および撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)11201に送信される。
 CCU11201は、CPUやGPU等によって構成され、内視鏡11100および表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率および焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保および術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度および出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれおよび白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光および/又は励起光を供給可能に構成され得る。
 図28は、図27に示すカメラヘッド11102およびCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズおよびフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用および左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズおよびフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率および焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率および焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能およびAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、および、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102およびCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図28の例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、内視鏡11100や、カメラヘッド11102の撮像部11402に適用され得る。本開示に係る撮像素子4を撮像部11402に適用することで、ズームなどを行った場合でも良好なオートフォーカスを行うことが可能となり、より高品質な撮像画像を取得することができる。これにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
(移動体への適用例)
 本開示に係る技術は、さらにm自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボットといった各種の移動体に搭載される装置に対して適用されてもよい。
 図29は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図29に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、および統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、および車載ネットワークI/F(インタフェース)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、および、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット12030は、例えば、受信した画像に対して画像処理を施し、画像処理の結果に基づき物体検出処理や距離検出処理を行う。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声および画像のうちの少なくとも一方の出力信号を送信する。図29の例では、出力装置として、オーディオスピーカ12061、表示部12062およびインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイおよびヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図30は、撮像部12031の設置位置の例を示す図である。図30では、車両12100は、撮像部12031として、撮像部12101、12102、12103、12104および12105を有する。
 撮像部12101、12102、12103、12104および12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドアおよび車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101および車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101および12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図30には、撮像部12101~12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112および12113は、それぞれサイドミラーに設けられた撮像部12102および12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101~12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101~12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101~12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101~12104から得られた距離情報を基に、撮像範囲12111~12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101~12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101~12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101~12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101~12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101~12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031に適用され得る。本開示に係る撮像素子4を撮像部12031に適用することで、ズームなどを行った場合でも良好なオートフォーカスを行うことが可能となり、より高品質な撮像画像を取得することが可能となる。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 格子状の配列で配置される複数の光電変換素子と、
 前記複数の光電変換素子のうち互いに隣接して配置される2以上の光電変換素子からなる素子の組のそれぞれに1対1に設けられる複数のレンズと、
を有する受光部を備え、
 前記受光部は、
 それぞれが、前記素子の組と、前記複数のレンズのうち該素子の組に設けられるレンズと、を含む複数の画素セットのうち互いに隣接する少なくとも2つの該画素セットの瞳補正量が互いに異なる
撮像素子。
(2)
 前記受光部は、
 それぞれ、前記複数の光電変換素子のうち同一の波長帯域の光を受光するn個×n個(nは2以上の整数)の光電変換素子が格子状の配列で配置された複数の画素ブロックを含み、
 該複数の画素ブロックのうち配置される該光電変換素子が受光する波長帯域が同一の画素ブロックが隣接しないパターンに従い配列され、
 前記複数の画素ブロックのうち少なくとも1つは、前記瞳補正量が互いに異なる2つの前記画素セットを含む
前記(1)に記載の撮像素子。
(3)
 前記nが3以上の整数であり、前記複数の画素ブロックうち少なくとも1つの画素ブロックは、前記瞳補正量が互いに異なる3以上の前記画素セットを含む
前記(2)に記載の撮像素子。
(4)
 前記nが3以上の整数であり、前記複数の画素ブロックうち少なくとも1つの画素ブロックは、前記受光部が有する前記複数の光電変換素子のうち隣接する光電変換素子が前記配列上で整列する方向が互いに異なる2つの前記画素セットを含む
前記(2)または(3)に記載の撮像素子。
(5)
 前記複数の光電変換素子に対する読み出しを制御する制御部をさらに備え、
 前記制御部は、
 前記複数の画素ブロックのそれぞれにおいて、配置される各光電変換素子それぞれに1対1で対応する複数の出力のそれぞれを読み出す読み出しモードとして、
 前記複数の出力を個別に読み出すモードと、
 前記複数の出力を、該複数の出力に対応する各光電変換素子が配置される画素ブロック内で合成して1の出力として読み出すモードと、
を有する
前記(2)乃至(4)のいずれかに記載の撮像素子。
(6)
 前記nが2である、
前記(2)に記載の撮像素子。
(7)
 前記受光部は、
 前記複数の光電変換素子それぞれの入射面に設けられ、入射する光の波長帯域を制限するフィルタと、該フィルタの周囲に設けられる第1の遮光体と、をさらに有する
前記(2)乃至(6)のいずれかに記載の撮像素子。
(8)
 前記フィルタおよび前記第1の遮光体の、前記複数の光電変換素子のうち該フィルタおよび該第1の遮光体に対応する光電変換素子に対する位置が、それぞれ該光電変換素子を含む互いに隣接する少なくとも2つの前記画素セットで互いに異なることで前記瞳補正量が互いに異なる
前記(7)に記載の撮像素子。
(9)
 前記受光部は、
 前記複数の光電変換素子それぞれが形成される基板の、該複数の光電変換素子それぞれの入射面に対する深さ方向に形成される溝による第2の遮光体をさらに有し、
 前記第2の遮光体は、
 前記複数の画素ブロックそれぞれの間に形成される
前記(2)乃至(8)のいずれかに記載の撮像素子。
(10)
 前記第2の遮光体は、さらに、
 前記画素セットそれぞれの間に形成される
前記(9)記載の撮像素子。
(11)
 前記画素セットに含まれる前記レンズの、該画素セットに含まれる前記素子の組に対する位置が互いに隣接する少なくとも2つの前記画素セットで互いに異なることで、前記瞳補正量が互いに異なる
前記(1)乃至(10)のいずれかに記載の撮像素子。
(12)
 前記瞳補正量と、該瞳補正量による瞳補正を行う方向とが、前記複数の光電変換素子の各入射面を含む受光面において、該受光面に対して光を照射させる主レンズの光軸に対応する像高中心に対する位置に応じて、さらに異なる
前記(1)乃至(11)のいずれかに記載の撮像素子。
(13)
 前記受光部は、
 前記画素セットに含まれる前記素子の組に入射する光を制限するためのマスクをさらに有し、
 前記画素セットに含まれる前記素子の組に対する前記マスクの位置が、互いに隣接する少なくとも2つの前記画素セットで互いに異なることで前記瞳補正量が異なる
前記(1)乃至(12)のいずれかに記載の撮像素子。
(14)
 格子状の配列で配置される複数の光電変換素子と、
 前記複数の光電変換素子のうち互いに隣接して配置される2以上の光電変換素子からなる素子の組のそれぞれに1対1に設けられる複数のレンズと、
を有する受光部と、
 外部の光を前記受光部に導く光学部と、
 前記複数の光電変換素子それぞれから読み出された複数の出力に基づき画像処理を実行して画像データを生成する画像処理部と、
 前記画像処理部により生成された前記画像データを記憶する記憶部と、
を備え、
 前記受光部は、
 それぞれが、前記素子の組と、前記複数のレンズのうち該素子の組に設けられるレンズと、を含む複数の画素セットのうち互いに隣接する少なくとも2つの該画素セットの瞳補正量が互いに異なる
電子機器。
1 電子機器
4 撮像素子
5 画像処理部
11 画素アレイ部
30,31 OCL
50,113,1020a,1020b 遮光体
110,110a,110b,110a’,110b’,110R,110G,110G1,110G2,110G3,110G4,110B,110w 画素
111,111a,111b,111a’,111b’,111G1,111G2,111G3,111G4,111wa,111wb 光電変換部
112,112a,112b,112G1,112G2,112G3,112G4,112R カラーフィルタ

Claims (14)

  1.  格子状の配列で配置される複数の光電変換素子と、
     前記複数の光電変換素子のうち互いに隣接して配置される2以上の光電変換素子からなる素子の組のそれぞれに1対1に設けられる複数のレンズと、
    を有する受光部を備え、
     前記受光部は、
     それぞれが、前記素子の組と、前記複数のレンズのうち該素子の組に設けられるレンズと、を含む複数の画素セットのうち互いに隣接する少なくとも2つの該画素セットの瞳補正量が互いに異なる
    撮像素子。
  2.  前記受光部は、
     それぞれ、前記複数の光電変換素子のうち同一の波長帯域の光を受光するn個×n個(nは2以上の整数)の光電変換素子が格子状の配列で配置された複数の画素ブロックを含み、
     該複数の画素ブロックのうち配置される該光電変換素子が受光する波長帯域が同一の画素ブロックが隣接しないパターンに従い配列され、
     前記複数の画素ブロックのうち少なくとも1つは、前記瞳補正量が互いに異なる2つの前記画素セットを含む
    請求項1に記載の撮像素子。
  3.  前記nが3以上の整数であり、前記複数の画素ブロックうち少なくとも1つの画素ブロックは、前記瞳補正量が互いに異なる3以上の前記画素セットを含む
    請求項2に記載の撮像素子。
  4.  前記nが3以上の整数であり、前記複数の画素ブロックうち少なくとも1つの画素ブロックは、前記受光部が有する前記複数の光電変換素子のうち隣接する光電変換素子が前記配列上で整列する方向が互いに異なる2つの前記画素セットを含む
    請求項2に記載の撮像素子。
  5.  前記複数の光電変換素子に対する読み出しを制御する制御部をさらに備え、
     前記制御部は、
     前記複数の画素ブロックのそれぞれにおいて、配置される各光電変換素子それぞれに1対1で対応する複数の出力のそれぞれを読み出す読み出しモードとして、
     前記複数の出力を個別に読み出すモードと、
     前記複数の出力を、該複数の出力に対応する各光電変換素子が配置される画素ブロック内で合成して1の出力として読み出すモードと、
    を有する
    請求項2に記載の撮像素子。
  6.  前記nが2である、
    請求項2に記載の撮像素子。
  7.  前記受光部は、
     前記複数の光電変換素子それぞれの入射面に設けられ、入射する光の波長帯域を制限するフィルタと、該フィルタの周囲に設けられる第1の遮光体と、をさらに有する
    請求項2に記載の撮像素子。
  8.  前記フィルタおよび前記第1の遮光体の、前記複数の光電変換素子のうち該フィルタおよび該第1の遮光体に対応する光電変換素子に対する位置が、それぞれ該光電変換素子を含む互いに隣接する少なくとも2つの前記画素セットで互いに異なることで前記瞳補正量が互いに異なる
    請求項7に記載の撮像素子。
  9.  前記受光部は、
     前記複数の光電変換素子それぞれが形成される基板の、該複数の光電変換素子それぞれの入射面に対する深さ方向に形成される溝による第2の遮光体をさらに有し、
     前記第2の遮光体は、
     前記複数の画素ブロックそれぞれの間に形成される
    請求項2に記載の撮像素子。
  10.  前記第2の遮光体は、さらに、
     前記画素セットそれぞれの間に形成される
    請求項9に記載の撮像素子。
  11.  前記画素セットに含まれる前記レンズの、該画素セットに含まれる前記素子の組に対する位置が互いに隣接する少なくとも2つの前記画素セットで互いに異なることで、前記瞳補正量が互いに異なる
    請求項1に記載の撮像素子。
  12.  前記瞳補正量と、該瞳補正量による瞳補正を行う方向とが、前記複数の光電変換素子の各入射面を含む受光面において、該受光面に対して光を照射させる主レンズの光軸に対応する像高中心に対する位置に応じて、さらに異なる
    請求項1に記載の撮像素子。
  13.  前記受光部は、
     前記画素セットに含まれる前記素子の組に入射する光を制限するためのマスクをさらに有し、
     前記画素セットに含まれる前記素子の組に対する前記マスクの位置が、互いに隣接する少なくとも2つの前記画素セットで互いに異なることで前記瞳補正量が異なる
    請求項1に記載の撮像素子。
  14.  格子状の配列で配置される複数の光電変換素子と、
     前記複数の光電変換素子のうち互いに隣接して配置される2以上の光電変換素子からなる素子の組のそれぞれに1対1に設けられる複数のレンズと、
    を有する受光部と、
     外部の光を前記受光部に導く光学部と、
     前記複数の光電変換素子それぞれから読み出された複数の出力に基づき画像処理を実行して画像データを生成する画像処理部と、
     前記画像処理部により生成された前記画像データを記憶する記憶部と、
    を備え、
     前記受光部は、
     それぞれが、前記素子の組と、前記複数のレンズのうち該素子の組に設けられるレンズと、を含む複数の画素セットのうち互いに隣接する少なくとも2つの該画素セットの瞳補正量が互いに異なる
    電子機器。
PCT/JP2020/018455 2019-05-10 2020-05-01 撮像素子および電子機器 WO2020230675A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202080028596.XA CN113692647A (zh) 2019-05-10 2020-05-01 摄像元件和电子设备
JP2021519384A JPWO2020230675A1 (ja) 2019-05-10 2020-05-01
EP20805180.5A EP3968377A4 (en) 2019-05-10 2020-05-01 IMAGING ELEMENT AND ELECTRONICS
KR1020217035980A KR20220006522A (ko) 2019-05-10 2020-05-01 촬상 소자 및 전자 기기
US17/608,519 US11930287B2 (en) 2019-05-10 2020-05-01 Imaging element and electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019090200 2019-05-10
JP2019-090200 2019-05-10

Publications (1)

Publication Number Publication Date
WO2020230675A1 true WO2020230675A1 (ja) 2020-11-19

Family

ID=73290163

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/018455 WO2020230675A1 (ja) 2019-05-10 2020-05-01 撮像素子および電子機器

Country Status (7)

Country Link
US (1) US11930287B2 (ja)
EP (1) EP3968377A4 (ja)
JP (1) JPWO2020230675A1 (ja)
KR (1) KR20220006522A (ja)
CN (1) CN113692647A (ja)
TW (1) TW202044566A (ja)
WO (1) WO2020230675A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220216257A1 (en) * 2021-01-04 2022-07-07 Samsung Electronics Co.,Ltd. Image sensor
WO2023243429A1 (ja) * 2022-06-13 2023-12-21 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子および電子機器
EP4210323A4 (en) * 2020-11-18 2024-01-10 Samsung Electronics Co Ltd CAMERA MODULE AND ELECTRONIC DEVICE INCLUDING THE CAMERA MODULE

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021190659A (ja) * 2020-06-04 2021-12-13 キヤノン株式会社 光電変換装置、光電変換システム及び移動体
US11523071B1 (en) * 2021-09-27 2022-12-06 Shenzhen GOODIX Technology Co., Ltd. Disparity-preserving binning for phase detection autofocus in digital imaging systems
US11921058B2 (en) * 2021-10-12 2024-03-05 Canon Medical Systems Corporation Imaging system and data acquisition method and structure thereof

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005057024A (ja) * 2003-08-04 2005-03-03 Matsushita Electric Ind Co Ltd 固体撮像装置、固体撮像装置の製造方法、カメラ
JP2011176715A (ja) * 2010-02-25 2011-09-08 Nikon Corp 裏面照射型撮像素子および撮像装置
WO2013145886A1 (ja) * 2012-03-28 2013-10-03 富士フイルム株式会社 撮像素子及びこれを用いた撮像装置及び撮像方法
JP2017188633A (ja) 2016-04-08 2017-10-12 キヤノン株式会社 撮像素子及び撮像装置
JP2018014476A (ja) 2016-07-21 2018-01-25 采▲ぎょく▼科技股▲ふん▼有限公司VisEra Technologies Company Limited 画像センサ構造
WO2018150902A1 (ja) * 2017-02-17 2018-08-23 ソニーセミコンダクタソリューションズ株式会社 撮像素子および電子機器

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5282543B2 (ja) 2008-11-28 2013-09-04 ソニー株式会社 固体撮像装置、固体撮像装置の駆動方法および撮像装置
JP5620992B2 (ja) * 2010-07-12 2014-11-05 富士フイルム株式会社 固体撮像装置
JP2012191136A (ja) 2011-03-14 2012-10-04 Sony Corp 固体撮像装置、固体撮像装置の製造方法、電子機器
JP6186900B2 (ja) * 2013-06-04 2017-08-30 ソニー株式会社 固体撮像装置、電子機器、レンズ制御方法、および撮像モジュール
US9998691B2 (en) * 2015-03-11 2018-06-12 Canon Kabushiki Kaisha Pixel, a solid-state imaging device, and an imaging apparatus having barrier region between photoelectric conversion portions in parallel
US10002899B2 (en) * 2015-09-16 2018-06-19 Taiwan Semiconductor Manufacturing Co., Ltd. Microlens for a phase detection auto focus (PDAF) pixel of a composite grid structure
WO2017212909A1 (ja) 2016-06-06 2017-12-14 ソニー株式会社 撮像素子、撮像装置、電子機器
JP7316764B2 (ja) 2017-05-29 2023-07-28 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、及び電子機器

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005057024A (ja) * 2003-08-04 2005-03-03 Matsushita Electric Ind Co Ltd 固体撮像装置、固体撮像装置の製造方法、カメラ
JP2011176715A (ja) * 2010-02-25 2011-09-08 Nikon Corp 裏面照射型撮像素子および撮像装置
WO2013145886A1 (ja) * 2012-03-28 2013-10-03 富士フイルム株式会社 撮像素子及びこれを用いた撮像装置及び撮像方法
JP2017188633A (ja) 2016-04-08 2017-10-12 キヤノン株式会社 撮像素子及び撮像装置
JP2018014476A (ja) 2016-07-21 2018-01-25 采▲ぎょく▼科技股▲ふん▼有限公司VisEra Technologies Company Limited 画像センサ構造
WO2018150902A1 (ja) * 2017-02-17 2018-08-23 ソニーセミコンダクタソリューションズ株式会社 撮像素子および電子機器

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4210323A4 (en) * 2020-11-18 2024-01-10 Samsung Electronics Co Ltd CAMERA MODULE AND ELECTRONIC DEVICE INCLUDING THE CAMERA MODULE
US20220216257A1 (en) * 2021-01-04 2022-07-07 Samsung Electronics Co.,Ltd. Image sensor
WO2023243429A1 (ja) * 2022-06-13 2023-12-21 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子および電子機器

Also Published As

Publication number Publication date
CN113692647A (zh) 2021-11-23
TW202044566A (zh) 2020-12-01
US11930287B2 (en) 2024-03-12
US20220232183A1 (en) 2022-07-21
EP3968377A1 (en) 2022-03-16
KR20220006522A (ko) 2022-01-17
JPWO2020230675A1 (ja) 2020-11-19
EP3968377A4 (en) 2022-07-20

Similar Documents

Publication Publication Date Title
WO2020230675A1 (ja) 撮像素子および電子機器
US11670656B2 (en) Imaging element, fabrication method, and electronic equipment
WO2018198787A1 (ja) 固体撮像装置、および電子機器
JP7237595B2 (ja) 撮像素子、製造方法、および電子機器
WO2018159344A1 (ja) 固体撮像素子、電子機器、および半導体装置
WO2021060120A1 (ja) 撮像装置
JP6869717B2 (ja) 撮像装置および撮像装置の製造方法、並びに、電子機器
WO2019155906A1 (ja) 撮像装置、及び電子機器
JP2023061999A (ja) 画像処理装置、画像処理方法、および撮像装置
JP6976751B2 (ja) 撮像装置および撮像装置の製造方法、並びに、電子機器
WO2020179302A1 (ja) 撮像装置
WO2018131510A1 (ja) 固体撮像素子および電子機器
JP7034925B2 (ja) 固体撮像装置および撮像方法
WO2020084973A1 (ja) 撮像装置
WO2021090727A1 (ja) 撮像装置及び電子機器
WO2023095518A1 (ja) 光検出装置及び電子機器
WO2023013156A1 (ja) 撮像素子及び電子機器
WO2021002213A1 (ja) 固体撮像装置およびその駆動方法、並びに電子機器
US20210272995A1 (en) Imaging element and electronic apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20805180

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021519384

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020805180

Country of ref document: EP

Effective date: 20211210