WO2017154605A1 - 撮像装置、電子機器 - Google Patents

撮像装置、電子機器 Download PDF

Info

Publication number
WO2017154605A1
WO2017154605A1 PCT/JP2017/006987 JP2017006987W WO2017154605A1 WO 2017154605 A1 WO2017154605 A1 WO 2017154605A1 JP 2017006987 W JP2017006987 W JP 2017006987W WO 2017154605 A1 WO2017154605 A1 WO 2017154605A1
Authority
WO
WIPO (PCT)
Prior art keywords
photoelectric conversion
unit
conversion unit
chip lens
pixel
Prior art date
Application number
PCT/JP2017/006987
Other languages
English (en)
French (fr)
Inventor
智彦 朝妻
石田 実
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/080,575 priority Critical patent/US11563050B2/en
Priority to CN201780014844.3A priority patent/CN108738370B/zh
Priority to CN202211487422.7A priority patent/CN115942134A/zh
Publication of WO2017154605A1 publication Critical patent/WO2017154605A1/ja
Priority to US17/974,710 priority patent/US20230124400A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses

Definitions

  • the present technology relates to an imaging device and an electronic device, and particularly relates to an imaging device and an electronic device that can expand a dynamic range.
  • An imaging device equipped with a photoelectric conversion element can output a signal having gradation. (1) When photographing a subject with low illuminance, it is desirable that the sensitivity of the photoelectric conversion element is high, (2) When photographing a subject with high illuminance, it is desirable that the photoelectric conversion element is not easily saturated.
  • both means for storing electric charge are to store electric charge in a potential well generated in a depleted photodiode. is there. Since the mechanism for storing charges is the same, the amount of charge that can be accumulated per unit area in the charge storage portions of the first photoelectric conversion element and the second photoelectric conversion element is substantially the same.
  • the dynamic range is expanded by increasing the amount of charge stored in the charge storage part of the second photoelectric conversion element to be greater than the area ratio of the charge storage part of the first photoelectric conversion element and the second photoelectric conversion element. It was difficult to do.
  • This technology has been made in view of such a situation, and is intended to further expand the dynamic range.
  • An imaging device includes a first photoelectric conversion unit, a second photoelectric conversion unit that converts a smaller amount of charge per unit time than the first photoelectric conversion unit, and the second photoelectric conversion unit.
  • a charge accumulation unit that accumulates charges generated by the photoelectric conversion unit, a charge-voltage conversion unit, a first transfer gate unit that transfers charges from the first photoelectric conversion unit to the charge-voltage conversion unit, and the charge
  • a second transfer gate unit that couples the potential of the voltage conversion unit and the charge storage unit; a third transfer gate unit that transfers charge from the second photoelectric conversion unit to the charge storage unit;
  • An overflow path that is formed below the gate electrode of the transfer gate unit and transfers charges overflowing from the second photoelectric conversion unit to the charge storage unit, and diminishes light incident on the second photoelectric conversion unit.
  • a dimming unit that is formed below the gate electrode of the transfer gate unit and transfers charges overflowing from the second photoelectric conversion unit to the charge storage unit, and diminishes light incident on the second photoelectric conversion unit.
  • An electronic apparatus includes a first photoelectric conversion unit, a second photoelectric conversion unit that converts a smaller amount of charge per unit time than the first photoelectric conversion unit, and the second photoelectric conversion unit.
  • a charge accumulation unit that accumulates charges generated by the photoelectric conversion unit, a charge-voltage conversion unit, a first transfer gate unit that transfers charges from the first photoelectric conversion unit to the charge-voltage conversion unit, and the charge
  • a second transfer gate unit that couples the potential of the voltage conversion unit and the charge storage unit; a third transfer gate unit that transfers charge from the second photoelectric conversion unit to the charge storage unit;
  • An overflow path that is formed below the gate electrode of the transfer gate unit and transfers charges overflowing from the second photoelectric conversion unit to the charge storage unit, and diminishes light incident on the second photoelectric conversion unit.
  • An imaging device including a dimming unit is provided.
  • the first photoelectric conversion unit, the second photoelectric conversion unit that converts a smaller amount of charge per unit time than the first photoelectric conversion unit, and the second photoelectric conversion unit A charge storage unit that stores the charge generated by the photoelectric conversion unit, a charge-voltage conversion unit, a first transfer gate unit that transfers charge from the first photoelectric conversion unit to the charge-voltage conversion unit, a charge-voltage conversion unit, A second transfer gate unit that couples the potential of the charge storage unit; a third transfer gate unit that transfers charge from the second photoelectric conversion unit to the charge storage unit; and a lower part of the gate electrode of the third transfer gate unit And an overflow path for transferring charges overflowing from the second photoelectric conversion unit to the charge storage unit, and a dimming unit for dimming light incident on the second photoelectric conversion unit.
  • the electronic device includes the imaging device.
  • the dynamic range can be further expanded.
  • FIG. 1 is a system configuration diagram illustrating an outline of a configuration of a CMOS image sensor to which the present technology is applied. It is a system configuration
  • FIG. 1 It is a figure for demonstrating the planar layout of a color filter. It is a figure which shows the structure of the unit pixel in 1st Embodiment. It is a figure for demonstrating manufacture of an on-chip lens. It is a figure for demonstrating the planar layout concerning arrangement
  • FIG. 1 It is a figure for demonstrating the structure of an imaging device. It is a figure showing composition of one embodiment of an endoscopic operation system to which this art is applied. It is a block diagram which shows an example of a function structure of a camera head and CCU. It is a figure for demonstrating the usage example of an imaging device.
  • Imaging device to which the present technology is applied 1.
  • First embodiment 3 Modification of first embodiment Second Embodiment 5.
  • Arrangement position of neutral density filter Third embodiment 8.
  • Fourth embodiment 9. 10 Color arrangement of color filter Examples of using imaging devices
  • FIG. 1 is a system configuration diagram showing an outline of the configuration of an imaging apparatus to which the present technology is applied, for example, a CMOS image sensor which is a kind of XY address type imaging apparatus.
  • the CMOS image sensor is an image sensor created by applying or partially using a CMOS process.
  • the imaging device is configured by a backside illumination type CMOS image sensor.
  • a CMOS image sensor 10 includes a pixel array unit 11 formed on a semiconductor substrate (chip) (not shown), and a peripheral circuit unit integrated on the same semiconductor substrate as the pixel array unit 11. It has a configuration.
  • the peripheral circuit unit includes, for example, a vertical drive unit 12, a column processing unit 13, a horizontal drive unit 14, and a system control unit 15.
  • the CMOS image sensor 10 further includes a signal processing unit 18 and a data storage unit 19.
  • the signal processing unit 18 and the data storage unit 19 may be mounted on the same substrate as the CMOS image sensor 10 or may be disposed on a different substrate from the CMOS image sensor 10.
  • Each processing of the signal processing unit 18 and the data storage unit 19 may be processing by an external signal processing unit provided on a substrate different from the CMOS image sensor 10, for example, a DSP (Digital Signal Processor) circuit or software. Absent.
  • DSP Digital Signal Processor
  • the pixel array unit 11 includes unit pixels (hereinafter also simply referred to as “pixels”) having a photoelectric conversion unit that generates and accumulates charges according to the received light amount in the row direction and the column direction, that is, The configuration is two-dimensionally arranged in a matrix.
  • the row direction refers to the pixel arrangement direction (that is, the horizontal direction) of the pixel row
  • the column direction refers to the pixel arrangement direction (that is, the vertical direction) of the pixel column. Details of the specific circuit configuration and pixel structure of the unit pixel will be described later.
  • the pixel drive lines 16 are wired along the row direction for each pixel row, and the vertical signal lines 17 are wired along the column direction for each pixel column in the matrix pixel array. .
  • the pixel drive line 16 transmits a drive signal for driving when reading a signal from the pixel.
  • the pixel drive line 16 is shown as one wiring, but is not limited to one.
  • One end of the pixel drive line 16 is connected to an output end corresponding to each row of the vertical drive unit 12.
  • the vertical drive unit 12 is configured by a shift register, an address decoder, and the like, and drives each pixel of the pixel array unit 11 at the same time or in units of rows. That is, the vertical drive unit 12 constitutes a drive unit that controls the operation of each pixel of the pixel array unit 11 together with the system control unit 15 that controls the vertical drive unit 12.
  • the vertical drive unit 12 is not shown in the figure for its specific configuration, but generally has a configuration having two scanning systems, a reading scanning system and a sweeping scanning system.
  • the readout scanning system selectively scans the unit pixels of the pixel array unit 11 in units of rows in order to read out signals from the unit pixels.
  • the signal read from the unit pixel is an analog signal.
  • the sweep-out scanning system performs sweep-out scanning on the readout line on which readout scanning is performed by the readout scanning system prior to the readout scanning by the exposure time.
  • a so-called electronic shutter operation is performed by sweeping (resetting) unnecessary charges by the sweep scanning system.
  • the electronic shutter operation refers to an operation in which the electric charge in the photoelectric conversion unit is discarded and exposure is newly started (charge accumulation is started).
  • the signal read out by the readout operation by the readout scanning system corresponds to the amount of light received after the immediately preceding readout operation or electronic shutter operation.
  • a period from the read timing by the immediately preceding read operation or the sweep timing by the electronic shutter operation to the read timing by the current read operation is the charge exposure period in the unit pixel.
  • a signal output from each unit pixel of the pixel row selectively scanned by the vertical driving unit 12 is input to the column processing unit 13 through each of the vertical signal lines 17 for each pixel column.
  • the column processing unit 13 performs predetermined signal processing on signals output from the pixels in the selected row through the vertical signal line 17 for each pixel column of the pixel array unit 11, and temporarily outputs the pixel signals after the signal processing. Hold on.
  • the column processing unit 13 performs at least noise removal processing, for example, CDS (Correlated Double Sampling) processing or DDS (Double Data Sampling) processing as signal processing.
  • CDS Correlated Double Sampling
  • DDS Double Data Sampling
  • the CDS process removes pixel-specific fixed pattern noise such as reset noise and threshold variation of amplification transistors in the pixel.
  • the column processing unit 13 may have, for example, an AD (analog-digital) conversion function to convert an analog pixel signal into a digital signal and output the digital signal.
  • AD analog-digital
  • the horizontal drive unit 14 includes a shift register, an address decoder, and the like, and sequentially selects unit circuits corresponding to the pixel columns of the column processing unit 13. By the selective scanning by the horizontal driving unit 14, pixel signals subjected to signal processing for each unit circuit in the column processing unit 13 are sequentially output.
  • the system control unit 15 includes a timing generator that generates various timing signals, and the vertical driving unit 12, the column processing unit 13, and the horizontal driving unit 14 based on various timings generated by the timing generator. Drive control is performed.
  • the signal processing unit 18 has at least an arithmetic processing function, and performs various signal processing such as arithmetic processing on the pixel signal output from the column processing unit 13.
  • the data storage unit 19 temporarily stores data necessary for the signal processing in the signal processing unit 18.
  • CMOS image sensor 10 to which the present technology is applied is not limited to the system configuration described above. Examples of other system configurations include the following system configurations.
  • the data storage unit 19 is arranged at the subsequent stage of the column processing unit 13, and the pixel signal output from the column processing unit 13 is supplied to the signal processing unit 18 via the data storage unit 19.
  • a CMOS image sensor 10A having a system configuration.
  • the column processing unit 13 is provided with an AD conversion function for performing AD conversion for each column or a plurality of columns of the pixel array unit 11, and a data storage unit is provided for the column processing unit 13. 19 and a CMOS image sensor 10B having a system configuration in which the signal processing unit 18 is provided in parallel.
  • FIG. 4 is a circuit diagram illustrating a configuration example of the unit pixel 100 arranged in the pixel array unit 11 of FIGS. 1 to 3.
  • the unit pixel 100 includes a first photoelectric conversion unit 101, a second photoelectric conversion unit 102, a first transfer transistor 103, a second transfer transistor 104, a third transfer transistor 105, a fourth transfer transistor 106, and an FD (floating diffusion) unit 107.
  • the reset transistor 108 and the amplification transistor 109 are connected to the power supply VDD.
  • the first photoelectric conversion unit 101 includes a so-called embedded photodiode in which an n-type impurity region is formed inside a p-type impurity region formed in a silicon semiconductor substrate.
  • the second photoelectric conversion unit 102 includes an embedded photodiode.
  • the 1st photoelectric conversion part 101 and the 2nd photoelectric conversion part 102 produce
  • the unit pixel 100 further includes a charge storage unit 111.
  • the charge storage unit 111 is, for example, a MOS capacitor or a MIS capacitor.
  • a first transfer transistor 103, a second transfer transistor 104, a third transfer transistor 105, and a fourth transfer transistor 106 are connected in series between the first photoelectric conversion unit 101 and the second photoelectric conversion unit 102.
  • the floating diffusion layer connected between the first transfer transistor 103 and the second transfer transistor 104 becomes the FD unit 107.
  • the FD unit 107 includes a parasitic capacitance C10.
  • the floating diffusion layer connected between the second transfer transistor 104 and the third transfer transistor 105 becomes the node 112.
  • the node 112 has a parasitic capacitance C11.
  • a floating diffusion layer connected between the third transfer transistor 105 and the fourth transfer transistor 106 becomes the node 113.
  • a charge storage unit 111 is connected to the node 113.
  • a plurality of drive lines are wired, for example, for each pixel row as the pixel drive lines 16 in FIGS.
  • Various drive signals TGL, FDG, FCG, TGS, RST, and SEL are supplied from the vertical drive unit 12 of FIGS. 1 to 3 via a plurality of drive lines.
  • These drive signals are pulses in which each of the transistors of the unit pixel 100 is an NMOS transistor, so that a high level (for example, power supply voltage VDD) is in an active state and a low level (for example, a negative potential) is inactive.
  • VDD power supply voltage
  • the drive signal TGL is applied to the gate electrode of the first transfer transistor 103.
  • the first transfer transistor 103 becomes conductive, and the charge accumulated in the first photoelectric conversion unit 101 is transferred to the FD unit 107 via the first transfer transistor 103.
  • the drive signal FDG is applied to the gate electrode of the second transfer transistor 104.
  • the drive signal FDG becomes active and the second transfer transistor 104 becomes conductive, the potentials of the FD portion 107 and the node 112 are thereby combined to form one charge storage region.
  • the drive signal FCG is applied to the gate electrode of the third transfer transistor 105.
  • the drive signal FDG and the drive signal FCG are in an active state and the second transfer transistor 104 and the third transfer transistor 105 are in a conductive state, the potentials from the FD unit 107 to the charge storage unit 111 are combined to form one charge storage. It becomes an area.
  • the drive signal TGS is applied to the gate electrode of the fourth transfer transistor 106.
  • the fourth transfer transistor 106 becomes conductive, and the charge accumulated in the second photoelectric conversion unit 102 is transferred to the charge accumulation unit 111 via the fourth transfer transistor 106.
  • the fourth transfer transistor 106, the third transfer transistor 105, and the second transfer transistor 104 are in the active state, the potentials from the charge accumulation unit 111 to the FD unit 107 are coupled, and the second photoelectric transistor is coupled to the coupled charge accumulation region. The charge accumulated in the converter 102 is transferred.
  • the channel region below the gate electrode of the fourth transfer transistor 106 has a potential higher than the channel region below the gate electrode of the first transfer transistor 103, the second transfer transistor 104, or the third transfer transistor 105, for example.
  • the direction is slightly positive (in other words, the potential is slightly deeper), thereby forming a charge overflow path.
  • the overflow path formed in the channel region under the gate electrode of the fourth transfer transistor 106 is simply referred to as the overflow path of the fourth transfer transistor 106.
  • the first electrode is a node electrode connected to the node 113 between the third transfer transistor 105 and the fourth transfer transistor 106.
  • the second electrode is a grounded grounded electrode.
  • the second electrode may be connected to a specific potential other than the ground potential, for example, a power supply potential.
  • the second electrode is an impurity region formed on the silicon substrate, and the dielectric film that forms the capacitor is an oxide film formed on the silicon substrate. Or a nitride film.
  • the first electrode is an electrode formed of a conductive material such as polysilicon or metal above the second electrode and the dielectric film.
  • the second electrode When the second electrode is set to the ground potential, the second electrode may be a p-type impurity region electrically connected to the p-type impurity region provided in the first photoelectric conversion unit 101 or the second photoelectric conversion unit 102. . When the second electrode is set to a specific potential other than the ground potential, the second electrode may be an n-type impurity region formed in the p-type impurity region.
  • the reset transistor 108 is also connected to the node 112.
  • a specific potential for example, a power supply VDD is connected to the tip of the reset transistor.
  • a drive signal RST is applied to the gate electrode of the reset transistor 108. When the drive signal RST becomes active, the reset transistor 108 becomes conductive, and the potential of the node 112 is reset to the level of the voltage VDD.
  • the node 112 When the drive signal RST is activated and the drive signal FDG of the second transfer transistor 104 and the drive signal FCG of the third transfer transistor 105 are activated, the node 112, the FD unit 107, and the charge storage unit to which the potential is coupled are set. The potential of 111 is reset to the level of the voltage VDD.
  • the potentials of the FD unit 107 and the charge storage unit 111 can be reset independently (independently) to the level of the voltage VDD.
  • the FD portion 107 which is a floating diffusion layer is a charge-voltage conversion means. That is, when charge is transferred to the FD unit 107, the potential of the FD unit 107 changes according to the amount of transferred charge.
  • a current source 131 connected to one end of the vertical signal line 17 is connected to the source side, and a power source VDD is connected to the drain side, thereby forming a source follower circuit.
  • the FD unit 107 is connected to the gate electrode of the amplification transistor 109, and this becomes the input of the source follower circuit.
  • the selection transistor 110 is connected between the source of the amplification transistor 109 and the vertical signal line 17.
  • a drive signal SEL is applied to the gate electrode of the select transistor 110. When the drive signal SEL becomes active, the selection transistor 110 becomes conductive and the unit pixel 100 becomes selected.
  • the potential of the FD unit 107 becomes a potential corresponding to the amount of transferred charge, and the potential is input to the source follower circuit.
  • the drive signal SEL is in an active state, the potential of the FD unit 107 corresponding to the amount of charge is output to the vertical signal line 17 via the selection transistor 110 as an output of the source follower circuit.
  • the first photoelectric conversion unit 101 has a larger light receiving area of the photodiode than the second photoelectric conversion unit 102. For this reason, when a subject with a certain illuminance is photographed with a certain exposure time, the charge generated in the first photoelectric conversion unit 101 is larger than the charge generated in the second photoelectric conversion unit 102.
  • the first photoelectric conversion unit 101 when the charge generated in the first photoelectric conversion unit 101 and the charge generated in the second photoelectric conversion unit 102 are transferred to the FD unit 107 and subjected to charge-voltage conversion, the first photoelectric conversion unit 101 The voltage change before and after transferring the generated charge to the FD unit 107 is larger than the voltage change before and after transferring the charge generated in the second photoelectric conversion unit 102 to the FD unit 107. Therefore, when the first photoelectric conversion unit 101 and the second photoelectric conversion unit 102 are compared, the first photoelectric conversion unit 101 has higher sensitivity than the second photoelectric conversion unit 102.
  • the charge generated beyond the saturation charge amount is generated. Since the charge can be stored in the charge storage unit 111, the charge stored in the second photoelectric conversion unit 102 and the charge stored in the charge storage unit 111 when the charge generated in the second photoelectric conversion unit 102 is subjected to charge-voltage conversion.
  • the charge-voltage conversion can be performed after adding both of the charges.
  • the second photoelectric conversion unit 102 can capture an image with gradation characteristics over a wider illuminance range than the first photoelectric conversion unit 101, in other words, an image with a wide dynamic range. Can be taken.
  • Two images of a high-sensitivity image shot using the first photoelectric conversion unit 101 and an image with a wide dynamic range shot using the second photoelectric conversion unit 102 are, for example, CMOS image sensors.
  • CMOS image sensors In an image signal processing circuit provided inside 10 or an image signal processing device connected to the outside of the CMOS image sensor 10, a wide dynamic range image synthesis process for synthesizing one image from two images is performed. Composite into a single image.
  • FIGS. 5 to 9 show, as an example, a structure in which the unit pixel 100 is a so-called back-illuminated imaging device.
  • the silicon substrate on which the first photoelectric conversion unit 101 and the second photoelectric conversion unit 102 are formed has a first surface serving as a light incident surface to the photodiode, and a first surface. An opposing second surface.
  • FIG. 5 is a plan layout view of the second surface of the silicon substrate related to the unit pixel 100, and includes an active region, a photoelectric conversion unit, a pixel transistor, a charge storage unit, and a connection between them. It is a plane layout figure of wiring to do.
  • the first photoelectric conversion unit 101, the first transfer transistor 103, the FD unit 107, the second transfer transistor 104, a part of the node 112, the reset transistor 108, and the connection part to the power supply VDD are continuous first. Formed on the active region.
  • the second photoelectric conversion unit 102, the fourth transfer transistor 106, the node 113, the third transfer transistor 105, and another part of the node 112 are formed on the continuous second active region. .
  • connection portion to the vertical signal line 17, a selection transistor 110, an amplification transistor 109, and a connection portion to the power supply VDD are formed on the continuous third active region.
  • the charge storage unit 111 is formed on a fourth active region (not shown) different from these.
  • a dielectric film is disposed thereon, and an upper electrode is further disposed thereon. Therefore, in FIG. Only visible.
  • a fourth active region in which a lower electrode is formed is disposed under the upper electrode.
  • the FD portion 107 and the gate electrode of the amplification transistor 109 are connected by a wiring arranged in an upper layer than the gate electrode. Further, a portion between the part of the node 112 formed in the first active region and another part of the node 112 formed in the second active region is also an upper layer than each gate electrode illustrated in FIG. Are connected by wiring arranged in
  • node 113 and the upper electrode of the charge storage unit of the charge storage unit 111 are also connected to each gate electrode illustrated in FIG. 5 by a wiring arranged above the upper electrode of the charge storage unit 111. Yes.
  • the area surrounded by the dotted line shown in FIG. 5 is an area for one pixel of the unit pixel 100 shown in FIG.
  • FIG. 6 is a plan layout diagram related to the unit pixel 100, and is a diagram in which a plan layout diagram on the second surface of the silicon substrate and a plan layout diagram on the first surface are overlapped.
  • the active region, the photoelectric conversion unit, the pixel transistor, the charge storage unit, and the wiring connecting the active region, the photoelectric conversion unit, the pixel storage unit, and the photoelectric conversion unit disposed on the first surface are arranged on the second surface.
  • the plane layout of the on-chip lens is described.
  • the area surrounded by the dotted line shown in FIG. 6 is an area for one pixel of the unit pixel 100 shown in FIG.
  • the first photoelectric conversion unit 101 and the second photoelectric conversion unit 102 are arranged at the same position on the second surface and the first surface.
  • the first on-chip lens 151 that condenses the light incident on the first photoelectric conversion unit 101 is disposed so as to cover the first photoelectric conversion unit 101.
  • the second on-chip lens 152 that collects the light incident on the second photoelectric conversion unit 102 is disposed so as to cover the second photoelectric conversion unit 102.
  • the size of the first on-chip lens 151 and the second on-chip lens 152 is, for example, what range of light is collected and incident on the photoelectric conversion unit on the first surface.
  • the size of the photoelectric conversion unit, the pixel transistor, and the charge storage unit is increased, thereby increasing the size of one pixel and the pixel pitch when the pixels are arranged in an array. It can be set according to factors in pixel design, such as whether or not.
  • the on-chip lens is too large on the first surface, the resolution of the imaging device is lowered, and a wasteful area is generated on the second surface where the constituent elements of the unit pixels are not arranged.
  • the on-chip lens is too small on the first surface, the light incident on the photoelectric conversion unit is reduced, resulting in an imaging device with poor sensitivity.
  • the size of the on-chip lens on the first surface and the size of each component of the unit pixel on the second surface should be designed appropriately so that high sensitivity and resolution can be obtained without waste. Is preferred.
  • the diameter of the first on-chip lens 151 can be made equal to the pixel pitch, and a total of four first on-chip lenses 151 are arranged in the top, bottom, left, and right sides, It is a figure at the time of designing the diameter of the 2nd on-chip lens 152 so that the 2nd on-chip lens 152 may be settled in the inside of the area
  • the distance ab is twice the radius r1 of the first on-chip lens 151, and the distance is equal to the diameter of the first on-chip lens 151.
  • the distance ac and the distance bc are the same distance, and a value obtained by dividing the distance ab by the route 2 is divided by 2. That is, the distance ac (distance bc) is a value obtained by multiplying the radius r1 of the first on-chip lens 151 by the route 2.
  • the radius r2 of the second on-chip lens 152 can be derived from equations (1) and (2), and is equal to or less than the value obtained by multiplying the route 2 by 1 and the radius r1. .
  • FIG. 7 is a plan layout diagram relating to the unit pixel 100, and from FIG. 6, the first photoelectric conversion unit 101, the second photoelectric conversion unit 102, the first on-chip lens 151, and the second on-chip on the first surface.
  • the plane layout of the chip lens 152 is taken out and described.
  • a region surrounded by a dotted line shown in FIG. 7 is a region for one pixel of the unit pixel 100 shown in FIG.
  • the diameter of the first on-chip lens 151 is equal to the pixel pitch, and four first on-chip lenses 151 are arranged in the top, bottom, left and right, a total of four.
  • the diameter of the second on-chip lens 152 is designed so that the second on-chip lens 152 fits inside the region where the first on-chip lens 151 is not disposed.
  • FIG. 8 is a plan layout diagram related to the unit pixel 100, and the first photoelectric conversion unit 101, the second photoelectric conversion unit 102, the first on-chip lens 151, and the second on the first surface illustrated in FIG. 7.
  • the planar layout of the on-chip lens 152 the planar layout of the inter-pixel light shielding portion 181 provided between the pixels on the first surface of the unit pixel 100 is described.
  • the inter-pixel light shielding portion 181 is provided to prevent light from leaking into adjacent pixels.
  • the inter-pixel light-shielding unit 181 has a first on-chip lens 151 of a certain pixel and a first on-chip lens 151 of a pixel adjacent to the first on-chip lens 151 in the inner direction of the two on-chip lenses in the closest part. They are arranged with the same width.
  • inter-pixel light-shielding portion 181 is disposed with the same width in the inner direction of the two on-chip lenses in the portion where the first on-chip lens 151 and the second on-chip lens 152 are closest to each other. ing.
  • FIG. 9 is a plan layout diagram relating to the unit pixel 100.
  • the planar layout of the chip lens 152 and the inter-pixel light shielding portion 181 the planar layout of the color filter 201 provided in each pixel on the first surface of the unit pixel 100 is described.
  • a first on-chip lens 151 of a certain pixel and a first on-chip lens 151 of a pixel adjacent thereto are disposed below these two on-chip lenses in the closest part. .
  • the first on-chip lens 151 and the second on-chip lens 152 are arranged below these two on-chip lenses even in the closest part.
  • the color filter 201 shown in FIG. 9 shows an RGB Bayer array.
  • the first photoelectric conversion unit 101-1 and the second photoelectric conversion unit 102-1 located at the upper left in the figure include a green (G) color filter 201-1-1 and a color filter 201-2-1, Each is arranged.
  • the first photoelectric conversion unit 101-2 and the second photoelectric conversion unit 102-2 located in the upper right in the figure include a blue (B) color filter 201-1-2 and a color filter 201-2-2. Are arranged. Further, for example, a red (R) color filter 201-1-3 and a color filter 201-2-3 are included in the first photoelectric conversion unit 101-3 and the second photoelectric conversion unit 102-3 located in the lower left in the drawing. Are arranged.
  • a green (G) color filter 201-1-4 and a color filter 201-2-4 are included in the first photoelectric conversion unit 101-4 and the second photoelectric conversion unit 102-4 located in the lower right in the figure. Are arranged.
  • the color filters 201 of the same color are arranged in the first photoelectric conversion unit 101 and the second photoelectric conversion unit 102 constituting the unit pixel 100.
  • FIG. 10 is a schematic diagram of a cross section relating to the unit pixel 100.
  • each pixel includes a first photoelectric conversion unit 101, a second photoelectric conversion unit 102, a first on-chip lens 151, a second on-chip lens 152, and a photoelectric conversion unit that are respectively disposed on the photoelectric conversion units.
  • Filter 201 disposed between the on-chip lens, a film having a negative fixed charge (so-called pinning film 231), interlayer insulating film 232, first film disposed between the photoelectric conversion unit and the color filter.
  • An inter-pixel light shielding unit 181 disposed around the photoelectric conversion unit 101 and the second photoelectric conversion unit 102 is provided.
  • FIG. 10 shows an example in which R pixels, G pixels, and B pixels are arranged from the left in the horizontal direction.
  • a G pixel located at the center is referred to.
  • a wiring layer 271 having a wiring 272 disposed on a support substrate 273 is laminated.
  • a first photoelectric conversion unit 101-12 and a second photoelectric conversion unit 102-12 are formed on the wiring layer 271.
  • the first photoelectric conversion unit 101-12 and the second photoelectric conversion unit 102-12 are photodiodes each including a P well region 241 and an n-type impurity region formed therein.
  • a P-type pinning region 233-12 is formed between the first photoelectric conversion unit 101-12 and the wiring layer 271, and between the second photoelectric conversion unit 102-12 and the wiring layer 271, A P-type pinning region 235-12 is formed.
  • An inter-pixel light shielding unit 181-4 is formed between the first photoelectric conversion unit 101-12 and the second photoelectric conversion unit 102-12, and the first photoelectric conversion unit 101-12 to the second photoelectric conversion unit 102- 12 is configured to prevent light from leaking to 12 and light leaking from the second photoelectric conversion unit 102-12 to the first photoelectric conversion unit 101-12.
  • an inter-pixel light-shielding portion 181-3 is formed between pixels adjacent to the left side (R pixel in FIG. 10), preventing light leakage from the R pixel adjacent to the left side and adjacent to the left side. It is configured to prevent light from leaking into the R pixel.
  • an inter-pixel light shielding portion 181-5 is formed between pixels adjacent to the right side (B pixel in FIG. 10) to prevent light leakage from the B pixel adjacent to the right side, and to the right side. It is configured to prevent light from leaking into adjacent B pixels.
  • a method for manufacturing a pixel having such a configuration particularly a method for forming the on-chip lenses 151 and 152 shown in FIG. 10 on the color filter 201 will be described with reference to FIG.
  • step S1 using a known manufacturing method, a photoelectric conversion unit (photodiode), pixel transistor, wiring (all not shown in FIG. 11), a color filter 201, and a CMOS image provided in the unit pixel 100 on the semiconductor substrate.
  • a peripheral circuit portion provided in the sensor 10 is formed.
  • the material of the on-chip lenses 151 and 152 for example, an organic material 301 such as an epoxy resin is formed in a layered manner.
  • step S2 a resist pattern 302 for forming the second on-chip lens 152 is formed on the semiconductor substrate on which the organic material 301 is formed.
  • step S3 a resist pattern 303 for forming the first on-chip lens 151 is formed on the semiconductor substrate on which the resist pattern 302 is formed.
  • step S4 the formed resist patterns 302 and 303 and the layer of the organic material 301 that is the material of the on-chip lens are etched back over the entire surface of the semiconductor substrate.
  • the first on-chip lens 151 and the second on-chip lens 152 are formed in each pixel.
  • the CMOS image sensor 10 including the unit pixel 100 formed by using the structure and manufacturing method described with reference to FIGS. 4 to 11 captures a highly sensitive image using the first photoelectric conversion unit 101, and secondly. An image with a wide dynamic range is taken using the photoelectric conversion unit 102.
  • FIG. 12 to 16 are plan layout diagrams showing the embodiment of the unit pixel 100 shown in FIG. 4, and are diagrams showing modifications of the first embodiment shown in FIGS. .
  • FIG. 12 to FIG. 16 are diagrams in the case where the unit pixel 100 uses the structure of a so-called back-illuminated imaging device, as in the first embodiment.
  • the backside-illuminated imaging device described in FIGS. 12 to 16 has a silicon substrate on which the first photoelectric conversion unit 101 and the second photoelectric conversion unit 102 are formed, as in the first embodiment.
  • the structure includes a first surface serving as a light incident surface to the photodiode (photoelectric conversion unit) and a second surface facing the first surface.
  • FIG. 12 is a plan layout diagram of the second surface of the silicon substrate related to the unit pixel 100, in which the active region, the photoelectric conversion unit, the pixel transistor, the charge storage unit, and the connection between them are provided in the unit pixel 100. It is a plane layout figure of wiring to do.
  • the second photoelectric conversion unit 102 ′ illustrated in FIG. 12 (depicted with a dash to distinguish from the second photoelectric conversion unit 102 illustrated in FIG. 5) is the second photoelectric conversion unit 102 illustrated in FIG.
  • the light receiving area of the photodiode is wider than that.
  • the charge generated in the second photoelectric conversion unit 102 ′ illustrated in FIG. 12 is the charge generated in the second photoelectric conversion unit 102 illustrated in FIG. More than.
  • the charge generated in the second photoelectric conversion unit 102 ′ illustrated in FIG. 12 and the charge generated in the second photoelectric conversion unit 102 illustrated in FIG. 5 are transferred to the FD unit 107 having the same area,
  • the voltage change before and after the charge generated in the second photoelectric conversion unit 102 ′ illustrated in FIG. 12 is transferred to the FD unit 107 is the second photoelectric conversion unit illustrated in FIG.
  • the charge generated at 102 is larger than the voltage change before and after transfer to the FD unit 107.
  • the second photoelectric conversion unit 102 ′ illustrated in FIG. 12 has an effect that the sensitivity is higher than that of the second photoelectric conversion unit 102 illustrated in FIG. 5.
  • FIG. 13 is a plan layout diagram related to the unit pixel 100, and similarly to FIG. 6, a plan layout diagram on the second surface of the silicon substrate and a plan layout diagram on the first surface are overlapped. It is.
  • the active region, the photoelectric conversion unit, the pixel transistor, the charge storage unit, and the wiring that connects between them are arranged on the second surface and arranged on the first surface.
  • the planar layout of the photoelectric conversion unit and the on-chip lens is described.
  • the second on-chip lens 152 ′ disposed so as to cover the second photoelectric conversion unit 102 ′ in order to collect the light incident on the second photoelectric conversion unit 102 ′ is described in FIG. It is larger than the second on-chip lens 152. That is, the diameter of the second on-chip lens 152 ′ illustrated in FIG. 13 is larger than the diameter of the second on-chip lens 152 illustrated in FIG. 6.
  • the diameter of the first on-chip lens 151 ′ illustrated in FIG. 13 is smaller than the diameter of the first on-chip lens 151 illustrated in FIG. It has become a thing.
  • the first on-chip lens 151 ′ and the second on-chip lens 152 ′ are arranged in contact with each other.
  • a gap where no on-chip lens is disposed is generated between the first on-chip lens 151 ′ provided in each pixel and the first on-chip lens 151 ′ provided in an adjacent pixel.
  • the distance de is a distance that is at least twice the radius r1 'of the first on-chip lens 151', that is, a distance that is not less than the diameter of the first on-chip lens 151 '.
  • the distance df and the distance ef are the same distance, and are a distance obtained by adding the radius r1 'of the first on-chip lens 151' and the radius r2 'of the second on-chip lens 152'.
  • the distance df and the distance ef are values obtained by dividing a value obtained by multiplying the distance de by the route 2 by 2.
  • the radius r2 ′ of the second on-chip lens 152 ′ can be derived from the equations (4) and (5), and is a value obtained by multiplying the value obtained by subtracting 1 from the route 2 by the radius r1 ′. It becomes as follows.
  • FIG. 14 is a plan layout diagram relating to the unit pixel 100. From FIG. 13, the first photoelectric conversion unit 101, the second photoelectric conversion unit 102 ′, the first on-chip lens 151 ′, and the The plane layout of the 2-on-chip lens 152 ′ is taken out and described.
  • FIG. 14 is a region for one pixel of the unit pixel 100 shown in FIG.
  • the first on-chip lens 151 ′ and the second on-chip lens 152 ′ are arranged in contact with each other.
  • a gap is formed between the first on-chip lens 151 ′ provided in each pixel and the first on-chip lens 151 ′ provided in the adjacent pixel, in which no on-chip lens is disposed.
  • FIG. 15 is a plan layout diagram relating to the unit pixel 100. Similarly to FIG. 8, the first photoelectric conversion unit 101, the second photoelectric conversion unit 102 ′, and the first photoelectric conversion unit 101 on the first surface illustrated in FIG. In addition to the planar layout of the on-chip lens 151 ′ and the second on-chip lens 152 ′, the planar layout of the inter-pixel light shielding portion 181 ′ provided between the pixels on the first surface of the unit pixel 100 is described. It is.
  • the inter-pixel light-shielding portion 181 ′ is configured such that the first on-chip lens 151 ′ of a certain pixel and the first on-chip lens 151 ′ of a pixel adjacent to the pixel are inside the two on-chip lenses in the closest part. They are arranged with the same width in each direction.
  • inter-pixel light-shielding portion 181 ′ has the same width in the inner direction of the two on-chip lenses at the closest portion between the first on-chip lens 151 ′ and the second on-chip lens 152 ′. Are arranged.
  • FIG. 16 is a plan layout diagram related to the unit pixel 100.
  • the planar layout of the 2-on-chip lens 152 ′ and the inter-pixel light shielding portion 181 ′ is described.
  • the color filter 201 ′ is arranged below the two on-chip lenses in a portion where the first on-chip lens 151 ′ of a pixel and the first on-chip lens 151 ′ of a pixel adjacent thereto are closest to each other. Has been. Further, the color filter 201 ′ is disposed below the two on-chip lenses in the portion where the first on-chip lens 151 ′ and the second on-chip lens 152 ′ are closest to each other.
  • the cross-sectional structure of the unit pixel is basically the same as the cross-sectional structure of the unit pixel shown in FIG.
  • the size of the second photoelectric conversion unit 102 ′, the first on-chip lens 151 ′, and the second on-chip lens 152 ′ is different in that they are configured as described above, but the structure is basically the same. Are the same.
  • first on-chip lens 151 ′ and the second on-chip lens 152 ′ can be formed as described with reference to FIG. 11.
  • the CMOS image sensor 10 including the unit pixel 100 having the structure described with reference to FIGS. 12 to 16 is the same as the CMOS image sensor 10 including the unit pixel 100 having the structure described with reference to FIGS.
  • an image with high sensitivity can be taken using the first photoelectric conversion unit 101, and an image with a wide dynamic range can be taken using the second photoelectric conversion unit 102 ′.
  • the unit pixel 100 includes two photoelectric conversion units including a first photoelectric conversion unit 101 and a second photoelectric conversion unit 102.
  • the first photoelectric conversion unit 101 has a configuration in which the light receiving area of the photodiode is wider than that of the second photoelectric conversion unit 102, whereby the first photoelectric conversion unit 101 captures a highly sensitive image.
  • the second photoelectric conversion unit 102 accumulates charges generated exceeding the saturation charge amount even when high illuminance light is incident and charges exceeding the saturation charge amount of the second photoelectric conversion unit 102 are generated.
  • means for reducing the light incident on the second on-chip lens 152 before reaching the second photoelectric conversion unit 102 is provided. In addition.
  • dimming means By further providing such a dimming means, it is possible to further widen the range of subject illuminance in which an image with gradation can be photographed, in other words, it is possible to photograph an image having a wider dynamic range. Brought about.
  • the light is attenuated by passing through the optical filter with an achromatic optical filter. And a neutral density filter.
  • the circuit diagram showing the configuration of the unit pixel 100 in the second embodiment is the same as the circuit diagram in the first embodiment, and has been described with reference to FIG. Further, the planar layout of the unit pixel 100 in the second embodiment is basically the same as the planar layout of the first embodiment described in FIGS. 5 to 9 except that a neutral density filter is added. Therefore, the description thereof is omitted as appropriate.
  • FIG. 17 is a plan layout diagram relating to the unit pixel 100, and the first photoelectric conversion unit 101, the second photoelectric conversion unit 102, the first on-chip lens 151, and the second on the first surface illustrated in FIG. 9.
  • the planar layout of the on-chip lens 152, the inter-pixel light shielding portion 181 and the color filter 201 is described.
  • the neutral density filter 351 shown in FIG. 17 has a cross-sectional structure (for example, described later with reference to FIG. 18), and the color filter 201-provided in the second on-chip lens 152 and the second photoelectric conversion unit 102. Between the two.
  • the neutral density filter 351 illustrated in FIG. 17 is more specifically an achromatic optical filter, which is a gray filter (gray filter) that attenuates light by passing through the optical filter. .
  • the color of the neutral density filter 351 is raised as an example of gray (gray), but other colors may be used as long as they can absorb visible light uniformly.
  • the first on-chip lenses 151 provided in each pixel are arranged so that their centers are arranged at equal intervals in both the X-axis direction and the Y-axis direction.
  • Four first on-chip lenses 151 are arranged around the second on-chip lens 152 included in each pixel.
  • the centers of the four first on-chip lenses 151 arranged around one second on-chip lens 152 are at an angle of 45 ° with respect to the X axis from the center of the second on-chip lens 152, respectively. Placed in position.
  • the quadrangle indicated by a two-dot chain line around the second on-chip lens 152 has a second on-chip lens 152 and four first on-chip lenses 151 arranged around the side. Pass through the closest regions, and each side is orthogonal to a line segment connecting the centers of the four first on-chip lenses 151 arranged around the center of the second on-chip lens 152. Has been placed.
  • At least a part of the strip-shaped inter-pixel light-shielding portion 181 disposed between the second photoelectric conversion unit 102 and the four first photoelectric conversion units 101 around the second photoelectric conversion unit 102 has a strip-shaped width direction. Are arranged so as to coincide with the sides of the quadrangle described by the two-dot chain line, and are arranged along at least a part of each side.
  • the neutral density filter 351 disposed above the second photoelectric conversion unit 102 is indicated by a two-dot chain line at least in a region where the second on-chip lens 152 and the first on-chip lens 151 are closest to each other. It extends to the outside of the formed rectangle.
  • the neutral density filter 351 disposed above the second photoelectric conversion unit 102 has the second photoelectric conversion unit at least in a region where the second on-chip lens 152 and the first on-chip lens 151 are closest to each other.
  • the strip-shaped inter-pixel light shielding unit 181 disposed between the first photoelectric conversion unit 101 and the first photoelectric conversion unit 101 extends in the direction of the first photoelectric conversion unit 101 from the center in the width direction.
  • the first photoelectric conversion unit 101 has higher sensitivity than the second photoelectric conversion unit 102. For this reason, the light incident on the first on-chip lens formed on the first photoelectric conversion unit 101 is affected by the second photoelectric effect rather than the adverse effect caused by the color mixture that enters the adjacent second photoelectric conversion unit 102.
  • the adverse effect of color mixing in which light incident on the second on-chip lens formed on the conversion unit 102 is incident on the adjacent first photoelectric conversion unit 101 appears more greatly.
  • the neutral density filter 351 extends from the center in the width direction of the band-shaped inter-pixel light shielding unit 181 disposed between the second photoelectric conversion unit 102 and the first photoelectric conversion unit 101 toward the first photoelectric conversion unit 101.
  • the layout in which the color is extended brings about an effect of reducing the color mixture from the second on-chip lens 152 to the first photoelectric conversion unit 101 where the adverse effect due to the color mixture appears more greatly.
  • FIG. 18 is a schematic diagram of a cross section relating to the unit pixel 100, and shows a configuration in which a neutral density filter 351 is added to the configuration shown in FIG.
  • the cross-sectional configuration of the unit pixel 100 shown in FIG. 18 is also the closest to the first on-chip lens 151 and the second on-chip lens 152 in one pixel, similarly to the cross-sectional structure of the unit pixel 100 shown in FIG. In the two adjacent pixels, the portion where the second on-chip lens 152 of a certain pixel and the portion where the first on-chip lens 151 of the adjacent pixel is closest are repeatedly described schematically. .
  • the neutral density filter 351 disposed above the second photoelectric conversion unit 102 has the second photoelectric conversion unit 102 and the first photoelectric conversion unit in a region where the second on-chip lens 152 and the first on-chip lens 151 are closest to each other.
  • the layout extends in the direction of the first photoelectric conversion unit 101 from the center in the width direction of the band-shaped inter-pixel light-shielding unit 181 disposed between the conversion unit 101.
  • the neutral density filter 351-11 disposed on the second photoelectric conversion unit 102-11 is formed between the second on-chip lens 152-11 and the color filter 201-11.
  • the second on-chip lens 152-11 is disposed between the second photoelectric conversion unit 102-11 and the first photoelectric conversion unit 101-11.
  • the strip-shaped inter-pixel light shielding portion 181-2 has a layout extending from the center in the width direction in the direction of the first photoelectric conversion portion 101-11.
  • the second on-chip lens 152-11 is disposed between the second photoelectric conversion unit 102-11 and the first photoelectric conversion unit 101-12.
  • the strip-shaped inter-pixel light shielding portion 181-3 has a layout extending from the center in the width direction toward the first photoelectric conversion portion 101-12.
  • the illuminance of the subject that can capture an image with gradation can be obtained by including the neutral density filter 351 that attenuates the light incident on the second on-chip lens 152 before reaching the second photoelectric conversion unit 102.
  • the neutral density filter 351 that attenuates the light incident on the second on-chip lens 152 before reaching the second photoelectric conversion unit 102.
  • a modification in which the second photoelectric conversion unit 102 is configured to be large can be applied in the second embodiment.
  • the modification of the first embodiment is an embodiment in which the light receiving area of the second photoelectric conversion unit 102 ′ is increased as described with reference to FIGS. Unless otherwise noted, detailed descriptions of the same components in the second embodiment and the second embodiment (the first embodiment) are omitted.
  • the circuit showing the configuration of the unit pixel 100 in the modification of the second embodiment is the same as FIG. Further, in the modification of the second embodiment, the planar layout of the unit pixel 100 is the modification of the first embodiment described in FIGS. 12 to 16 except that the neutral density filter 351 ′ is added. It is the same as the planar layout of the example. Since parts other than the first photoelectric conversion unit 101 are different in size and shape, each part in the modification of the second embodiment will be described with a dash in order to distinguish it from each part in the second embodiment.
  • FIG. 19 is a plane layout diagram related to the unit pixel 100 according to the modification example of the second embodiment.
  • the plane layout related to the unit pixel 100 according to the modification example of the second embodiment shown in FIG. It is a figure which shows the structure which added the neutral density filter 351 to the figure.
  • FIG. 19 shows the first photoelectric conversion unit 101, the second photoelectric conversion unit 102 ′, the first on-chip lens 151 ′, the second on-chip lens 152 ′, the inter-pixel light shielding unit 181 ′, and the pixels on the first surface.
  • the planar layout of the color filter 201 ′ provided the planar layout of the neutral density filter 351 ′ disposed above the second photoelectric conversion unit 102 is described.
  • the neutral density filter 351 ′ illustrated in FIG. 19 is provided in the second on-chip lens 152 ′ and the second photoelectric conversion unit 102 ′ in the structure in the cross-sectional direction, similarly to the neutral density filter 351 illustrated in FIG. And the color filter 201-2 ′.
  • the neutral density filter 351 ′ illustrated in FIG. 19 is an achromatic optical filter similar to the neutral density filter 351 illustrated in FIG. 17, and attenuates light by passing through the optical filter. This is an optical filter 351 ′.
  • the first on-chip lenses 151 ′ included in each pixel are arranged so that the centers thereof are arranged at equal intervals in both the X-axis direction and the Y-axis direction. .
  • Four first on-chip lenses 151 ′ are arranged around the second on-chip lens 152 ′ provided in each pixel.
  • the centers of the four first on-chip lenses 151 ′ arranged around the one second on-chip lens 152 ′ are 45 ° from the center of the second on-chip lens 152 ′ with respect to the X axis. It is arranged at an angle.
  • the quadrilateral described with a two-dot chain line around the second on-chip lens 152 ′ has four sides in which each side is arranged around the second on-chip lens 152 ′, as in FIG. 17.
  • the four first on-chip lenses 151 ′ that pass through the regions closest to the first on-chip lens 151 ′ and whose sides are arranged around the center of the second on-chip lens 152 ′. It arrange
  • the strip-shaped inter-pixel light-shielding portion 181 ′ disposed between the second photoelectric conversion unit 102 ′ and the four first photoelectric conversion units 101 around the second photoelectric conversion unit 102 ′ In some cases, the band-shaped center in the width direction is arranged so as to coincide with each side of the quadrilateral described by a two-dot chain line, and is arranged along at least a part of each side.
  • the neutral density filter 351 ′ disposed above the second photoelectric conversion unit 102 ′ has at least the second on-chip lens 152 ′ and the first on-chip lens 151 ′ closest to each other as in FIG. In the area to be extended, it extends to the outside of the quadrilateral described by the two-dot chain line.
  • the neutral density filter 351 ′ disposed above the second photoelectric conversion unit 102 ′ is the first in the region where the second on-chip lens 152 ′ and the first on-chip lens 151 ′ are closest to each other. It extends in the direction of the first photoelectric conversion unit 101 from the center in the width direction of the band-shaped inter-pixel light blocking unit disposed between the two photoelectric conversion units 102 ′ and the first photoelectric conversion unit 101.
  • the neutral density filter 351 ′ is disposed so as to avoid the space below the gap between the two first on-chip lenses 151 ′.
  • the neutral density filter 351 includes: (1) At least in the region where the second on-chip lens 152 ′ and the first on-chip lens 151 ′ are closest to each other, a belt-like shape disposed between the second photoelectric conversion unit 102 ′ and the first photoelectric conversion unit 101. Extending from the center in the width direction of the inter-pixel light-shielding part 181 ′ to the direction of the first photoelectric conversion part 101, (2) The on-chip lens between the two first on-chip lenses 151 ′ provided in the two adjacent pixels is disposed so as to avoid the lower part of the gap.
  • FIGS. 20 and 21 are flowcharts of a manufacturing method for forming an on-chip lens.
  • FIG. 20 there is a gap between the two first on-chip lenses 151 ′ as shown in FIG. 19, and unlike the description of FIG. 19, there are two neutral density filters 351 ′ in FIG.
  • FIG. 12 is a flowchart when the on-chip lens forming process shown in FIG. 11 is used in the unit pixel 100 extended to each vertex of a quadrangle described by a chain line.
  • FIG. 20 is a diagram showing a cross section taken along line AA ′ shown in FIG. 19 in the step of forming a resist pattern for forming an on-chip lens. Between the resist pattern 302 for forming the two first on-chip lenses 151, there is a gap where no on-chip lens is arranged.
  • FIG. 20 is a cross-sectional view taken along line BB ′ shown in FIG. 19 in the step of forming a resist pattern for forming an on-chip lens. Since the resist pattern 302 for forming the second on-chip lens 152 ′ is disposed between the resist patterns 302 for forming the two first on-chip lenses 151, the void portion where the on-chip lens is not disposed Does not exist.
  • the on-chip lens is formed by etching back the entire surface of the substrate on which the resist pattern for forming the on-chip lens shown in FIG. 20 on the right side is formed using a dry etching apparatus, the state shown in the lower side on the right side of FIG. The cross-sectional shape is obtained.
  • the second on-chip lens 152 ′ and the first on-chip lens 151 ′ are formed above the neutral density filter 351 ′, and the neutral density filter 351 ′ is exposed. Absent.
  • the on-chip lens is formed by etching back the entire surface of the substrate on which the resist pattern for forming the on-chip lens described in FIG. 20 on the left side is etched using a dry etching apparatus, the lower side of FIG. The cross-sectional shape is obtained.
  • the neutral density filter 351 ′ When the neutral density filter 351 ′ is etched back with a dry etching apparatus, the contents contained in the neutral density filter 351 ′ may adhere to the inner wall of the chamber of the dry etching apparatus.
  • the inclusion contained in the neutral density filter 351 ' is, for example, heavy metal.
  • other products that perform dry etching processing other than the etch-back of the on-chip lens using the dry etching apparatus include the neutral density filter 351 ′. There is a possibility of contamination with inclusions.
  • FIG. 21 is a flowchart of a manufacturing method in the case of forming the neutral density filter 351 'shown in FIG.
  • the neutral density filter 351 ′ shown in FIG. 19 is formed in a shape whose apex is set back toward the second photoelectric conversion unit 102 ′ from the quadrangle described by a two-dot chain line in FIG. 19.
  • the neutral density filter 351 ' is formed so as to avoid the portion where the A-A' line crosses in FIG.
  • FIG. 21 is a diagram showing a cross section taken along line AA ′ shown in FIG. 19 in the step of forming a resist pattern for forming an on-chip lens. Between the resist pattern 302 for forming the two first on-chip lenses 151 ′, there is a gap where no on-chip lens is arranged.
  • FIG. 21 is a cross-sectional view taken along line BB ′ shown in FIG. 19 in the step of forming a resist pattern for forming an on-chip lens.
  • the resist pattern 302 for forming the second on-chip lens 152 ′ is disposed between the resist patterns 302 for forming the two first on-chip lenses 151. not exist.
  • the on-chip lens is formed by etching back the entire surface of the substrate on which the resist pattern 302 for forming the on-chip lens shown in FIG. 21 on the right side is formed using a dry etching apparatus, the lower side on the right side of FIG. The described cross-sectional shape is obtained.
  • a second on-chip lens 152 ′ and a first on-chip lens 151 ′ are formed above the neutral density filter 351 ′, and the neutral density filter 351 ′ is exposed. Absent.
  • the on-chip lens is formed by etching back the entire surface of the substrate on which the resist pattern 302 for forming the on-chip lens shown in FIG. 21 on the left side is etched using a dry etching apparatus, the lower side of FIG. The described cross-sectional shape is obtained.
  • the neutral density filter 351 ′ is not arranged below the gap between the resist patterns 302 for forming the two first on-chip lenses 151 ′. Even in the cross-sectional view shown on the lower left side, the neutral density filter 351 ′ is not exposed or etched back.
  • the layout in which the neutral density filter 351 ′ is arranged so as to avoid the space below the gap where no on-chip lens exists between the two first on-chip lenses 151 ′ provided in two adjacent pixels is on.
  • the etch-back apparatus used for forming the chip lens there is an effect that the other products that perform the etching process other than the etch-back of the on-chip lens are prevented from being contaminated by the contents of the neutral density filter 351 ′.
  • the neutral density filter 351 ′ shown in FIGS. (1) At least in the region where the second on-chip lens and the first on-chip lens are closest to each other, a band-like inter-pixel light shielding unit disposed between the second photoelectric conversion unit 102 and the first photoelectric conversion unit 101 Is arranged to extend in the direction of the first photoelectric conversion unit from the center in the width direction of (2) Between the two first on-chip lenses provided in two adjacent pixels, the second on-chip lens is disposed so as to avoid a space below the on-chip lens.
  • planar layouts shown in FIGS. 22 to 24 are basically the same as the planar layout shown in FIG. 19, but the description will be continued without adding a dash (′) to the reference numeral. Further, the layout basically similar to the planar layout shown in FIG. 19 will be described as an example, but the planar layout shown in FIG. 17 can also be described with reference to FIG. 22 to FIG. Applicable.
  • the shape of the neutral density filter 351 that covers the second photoelectric conversion unit 102 is substantially the same as that of a quadrangle, and the apex portion of the quadrilateral is retracted inward so that two adjacent pixels are provided.
  • the light-reducing filter 351 is not disposed in the gap where no on-chip lens exists between the two first on-chip lenses 151.
  • the neutral density filter 351 disposed above the second photoelectric conversion unit 102 has at least the second on-chip lens 152 and the first on-chip lens, as in the layouts shown in FIGS.
  • the chip lens 151 extends to the outside of the quadrilateral described by the two-dot chain line.
  • the neutral density filter 351 disposed above the second photoelectric conversion unit 102 has the second photoelectric conversion unit at least in a region where the second on-chip lens 152 and the first on-chip lens 151 are closest to each other.
  • the strip-shaped inter-pixel light shielding unit 181 disposed between the first photoelectric conversion unit 101 and the first photoelectric conversion unit 101 extends in the direction of the first photoelectric conversion unit 101 from the center in the width direction.
  • the neutral density filter 351 is disposed so as to avoid the space below the gap between the two first on-chip lenses 151.
  • the neutral density filter 351 shown in FIG. 22 has a substantially square shape, but its apex (corner) is formed in an arc shape, and the neutral density filter is inserted into the gap where no on-chip lens exists.
  • the shape 351 does not extend.
  • FIG. 23 shows an on-chip lens between two first on-chip lenses in which the shape of the neutral density filter 351 covering the second photoelectric conversion unit 102 is a circle or an ellipse, and two adjacent pixels are provided.
  • the layout is such that the neutral density filter 351 is not disposed in the air gap where no light is present.
  • the neutral density filter 351 disposed above the second photoelectric conversion unit 102 has at least the second on-chip lens 152 and the first on-chip lens, as in the layouts shown in FIGS.
  • the chip lens 151 extends to the outside of the quadrilateral described by the two-dot chain line.
  • the neutral density filter 351 disposed above the second photoelectric conversion unit 102 has the second photoelectric conversion unit at least in a region where the second on-chip lens 152 and the first on-chip lens 151 are closest to each other.
  • the strip-shaped inter-pixel light shielding unit 181 disposed between the first photoelectric conversion unit 101 and the first photoelectric conversion unit 101 extends in the direction of the first photoelectric conversion unit 101 from the center in the width direction.
  • the neutral density filter 351 is arranged so as to avoid the lower part of the gap between the two first on-chip lenses 151.
  • the neutral density filter 351 shown in FIG. 23 is formed in a substantially circular shape or a substantially elliptical shape, and has a shape in which the neutral density filter 351 does not extend into a gap where no on-chip lens exists.
  • the shape of the neutral density filter 351 that covers the second photoelectric conversion unit 102 is substantially the same as a quadrangle, and the second on-chip lens 152 and the first on-chip lens 151 are close to each other.
  • the neutral density filter 351 is not arranged in the gap where no on-chip lens exists between the two first on-chip lenses 151 provided in two adjacent pixels. .
  • the neutral density filter 351 disposed above the second photoelectric conversion unit 102 has at least the second on-chip lens 152 and the first on-chip lens, as in the layouts shown in FIGS.
  • the region closest to the chip lens 151 has a shape in which at least a part extends to the outside of the quadrilateral described by the two-dot chain line.
  • the neutral density filter 351 disposed above the second photoelectric conversion unit 102 has at least the second photoelectric conversion unit 102 in the region where the second on-chip lens 152 and the first on-chip lens 151 are closest to each other. And a portion extending in the direction of the first photoelectric conversion unit 101 from the center in the width direction of the band-shaped inter-pixel light shielding unit 181 disposed between the first photoelectric conversion unit 101 and the first photoelectric conversion unit 101. ing.
  • the neutral density filter 351 is disposed so as to avoid the space below the gap between the two first on-chip lenses 151.
  • the neutral density filter 351 shown in FIG. 24 is formed in a substantially quadrangular shape, and has a shape without the neutral density filter 351 in the gap where no on-chip lens exists.
  • FIGS. 22 to 24 are the same as the layout shown in FIG. 19, in which there is an air gap between the two first photoelectric conversion units 101, in other words, the second photoelectric conversion unit 102.
  • the layout when the area is large has been described as an example, but the present invention can also be applied to the layout as shown in FIG.
  • the neutral density filter 351 includes the second photoelectric conversion unit 102 and the first photoelectric conversion unit at least in the region where the second on-chip lens and the first on-chip lens are closest to each other.
  • the band-shaped inter-pixel light shielding portion 181 disposed between the first and second pixels 101 extends from the center in the width direction toward the first photoelectric conversion unit 101.
  • FIGS. 22 to 24 have a shape without the neutral density filter 351 in the space where no on-chip lens exists.
  • the on-chip lens This has the effect of preventing other products subjected to the dry etching process other than the etching back from being contaminated by the contents of the neutral density filter 351.
  • the neutral density filter 351 has a color filter 201, a second on-chip lens 152, and a cross sectional structure. The case where it arrange
  • the neutral density filter 351 is not limited to being disposed between the color filter 201 and the second on-chip lens 152, and may be disposed at a position described with reference to FIGS. .
  • FIGS. 25 to 27 show a modification of the CMOS image sensor 10 using the neutral density filter 351.
  • FIG. The configuration of the CMOS image sensor 10 shown in each of FIGS. 25 to 27 is basically the same as that of the CMOS image sensor 10 shown in FIGS. 10 and 18 except for the neutral density filter 351. The description is omitted.
  • the neutral density filter 351 is disposed below the color filter 201 and is disposed between the color filter 201 and the inter-pixel light shielding portion 181.
  • the neutral density filter 351 is disposed on the lower side of the color filter 201, the light transmitted through the second on-chip lens 152 and incident on the second photoelectric conversion unit 102 passes through the neutral density filter 351. Since it becomes the transmitted light, the light incident on the second photoelectric conversion unit 102 is dimmed light. Therefore, as in the case described above, it is possible to bring about an operational effect that the range of subject illuminance in which an image with gradation can be taken can be further widened, in other words, an image with a further expanded dynamic range can be taken.
  • the CMOS image sensor 10 shown in FIG. 26 has a configuration in which the inter-pixel light shielding portion 181 is not formed.
  • the CMOS image sensor 10 shown in FIG. 26 has basically the same configuration as the CMOS image sensor 10 shown in FIG. 25. However, the CMOS image sensor 10 shown in FIG. The difference is that the configuration is deleted.
  • the neutral density filter 351 is disposed below the color filter 201 and is disposed between the color filter 201 and the inter-pixel light shielding portion 181.
  • the neutral density filter 351 is disposed on the lower side of the color filter 201, the light transmitted through the second on-chip lens 152 and incident on the second photoelectric conversion unit 102 passes through the neutral density filter 351. Since it becomes the transmitted light, the light incident on the second photoelectric conversion unit 102 is dimmed light.
  • the neutral density filter 351 is formed on the color filter 201, for example, the CMOS image sensor 10 shown in FIG. . That is, the CMOS image sensor 10 in which the inter-pixel light-shielding portion 181 is not formed, and the neutral density filter 351 is formed on the color filter 201 (between the color filter 201 and the second on-chip lens 152).
  • the image sensor 10 can also be used.
  • the range of subject illuminance that can capture an image with gradation is further expanded, in other words, an image with a wider dynamic range can be captured. Can have an effect.
  • the first photoelectric conversion unit 101 in order to provide a difference between the sensitivity of the first photoelectric conversion unit 101 and the sensitivity of the second photoelectric conversion unit 102, the first photoelectric conversion unit 101 is more photodiode than the second photoelectric conversion unit 102.
  • the configuration in which the light receiving area is increased is described as an example.
  • the example in which the neutral density filter 351 is provided to increase the difference between the sensitivity of the first photoelectric conversion unit 101 and the sensitivity of the second photoelectric conversion unit 102 has been described.
  • the CMOS image sensor 10 When the CMOS image sensor 10 is used in the configuration in which the neutral density filter 351 is provided and the sensitivity of the first photoelectric conversion unit 101 is different from the sensitivity of the second photoelectric conversion unit 102, the configuration shown in FIG. .
  • the light receiving areas of the photodiodes of the first photoelectric conversion unit 101 and the second photoelectric conversion unit 102 are configured to be equal.
  • the first on-chip lens 151 and the second on-chip lens 152 are also configured to have the same size.
  • the neutral density filter 351 is disposed below the color filter 201, and the color filter 201 and the inter-pixel light shielding unit 181 are arranged. Arranged between.
  • the neutral density filter 351 is disposed on the lower side of the color filter 201, the light transmitted through the second on-chip lens 152 and incident on the second photoelectric conversion unit 102 passes through the neutral density filter 351. Since it becomes the transmitted light, the light incident on the second photoelectric conversion unit 102 is dimmed light.
  • the range of subject illuminance in which an image with gradation can be taken is expanded further, in other words, the dynamic range is further expanded.
  • the effect that an image can be taken can be brought about.
  • the present technology in addition to the first embodiment, similarly to the second embodiment, the light incident on the second on-chip lens 152 is converted into a second photoelectric conversion unit. Means for dimming before reaching 102 is further provided.
  • This provides the effect of further expanding the range of subject illuminance in which an image with gradation can be captured, in other words, capturing an image with a further increased dynamic range.
  • the light passes using a light blocking member that blocks the light.
  • An optical diaphragm for reducing the cross-sectional area of the light beam is provided.
  • the circuit diagram showing the configuration of the unit pixel 100 in the third embodiment is the circuit diagram shown in FIG.
  • the planar layout showing the embodiment of the unit pixel 100 is shown in FIGS. 5 to 9 except that an optical diaphragm is added (other than the part related to the optical diaphragm) as will be described later. Since it is the plane layout of the first embodiment described, the description thereof is omitted.
  • FIG. 28 is a schematic diagram of a cross section related to the unit pixel 100 in the third embodiment.
  • the unit pixel 100 according to the third embodiment includes a first photoelectric conversion unit 101, a second photoelectric conversion unit 102, a first on-chip lens 151 and a second on-chip lens 152 formed on the photoelectric conversion units, respectively.
  • the color filter 201 is disposed between the photoelectric conversion unit and the on-chip lens.
  • first photoelectric conversion unit 101 and the second photoelectric conversion unit 102 of the unit pixel 100 are each formed as an n-type impurity region in the silicon substrate 241 of the P well, and below the first photoelectric conversion unit 101.
  • a P-type pinning region 233 is formed, and a P-type pinning region 235 is formed below the second photoelectric conversion unit 102.
  • a wiring layer, a support substrate and the like are also arranged below the silicon substrate 241.
  • a film (pinning film 231) having a negative charge and an insulating film 232 are formed on the upper side of the silicon substrate 241 and between the color filter 201.
  • a planarizing film 401 is formed between the insulating film 232 and the color filter 201, and a light shielding film 411 and a light shielding film 412 for realizing an optical aperture are formed in the planarizing film 401. ing.
  • planarization film 401 can be formed using the same material as the insulating film 232, and may be formed as the insulating film 232.
  • the unit pixel 100 includes the light shielding film 411 between the first photoelectric conversion unit 101 and the first on-chip lens 151, and the second photoelectric conversion unit 102 and the second on-state.
  • a light shielding film 412 is provided between the chip lens 152 and the chip lens 152.
  • the light shielding film 411 provided on the first photoelectric conversion unit 101 mainly prevents light leakage from the adjacent second photoelectric conversion unit 102 (second on-chip lens 152), and the second photoelectric conversion unit 102. It has a function to prevent light from leaking into.
  • the light-shielding film 412 provided on the second photoelectric conversion unit 102 prevents light from leaking from the adjacent first photoelectric conversion unit 101 (first on-chip lens 151), and the first photoelectric conversion unit. 101 has a function of preventing light from leaking into 101.
  • the light-shielding film 412 provided on the second photoelectric conversion unit 102 has a function of limiting the incidence of light on the second photoelectric conversion unit 102, in other words, a function of reducing light.
  • the light shielding film 412 since the light shielding film 411 and the light shielding film 412 have different functions, in particular, the light shielding film 412 has a function of limiting the amount of light incident on the second photoelectric conversion unit 102. It is also described as an aperture 412.
  • the unit pixel 100 according to the third embodiment is provided between the second photoelectric conversion unit 102 and the color filter 201 formed above the second photoelectric conversion unit 102 as illustrated in FIG.
  • the optical aperture 412 is provided.
  • the optical diaphragm 412 is an optical component that uses a light shielding member that shields light to reduce the cross-sectional area of the light beam passing through the diaphragm.
  • the optical aperture 412 may be formed as a member constituting a part of the inter-pixel light shielding portion 181 of the unit pixel 100 illustrated in FIG. In other words, like the inter-pixel light-shielding portion 181, it is also provided between the pixels (formed in a T shape as shown in FIG. 10), and a part thereof (a strip-shaped portion formed in the horizontal direction in the figure) Alternatively, the optical aperture 412 may be used. Such a configuration can also be applied to the light shielding film 411 provided in the first photoelectric conversion unit 101.
  • the light shielding film 411 and the optical aperture 412 may be formed of the same material as the inter-pixel light shielding part 181 (FIG. 10) disposed around the first photoelectric conversion part 101 and the second photoelectric conversion part 102, respectively.
  • the light shielding film 411 and the optical aperture 412 may be formed using a material different from the inter-pixel light shielding portion 181.
  • the light incident on the first on-chip lens 151 is more incident on the second on-chip lens 152 than the ratio at which the light is blocked by the light shielding film 411 before reaching the first photoelectric conversion unit 101. Before the incident light reaches the second photoelectric conversion unit 102, the ratio of light shielding by the optical aperture 412 is increased.
  • the ratio of the area where the optical aperture 412 (light-shielding material) is arranged on the second photoelectric conversion unit 102 to the plane area of the second photoelectric conversion unit 102 is the first photoelectric conversion unit. It is larger than the ratio of the area where the light shielding film 411 (light shielding material) is disposed on the first photoelectric conversion unit 101 with respect to the plane area of 101.
  • the first photoelectric conversion unit 101 retains the characteristic of capturing an image with high sensitivity, while the second photoelectric conversion unit 102 has a wider illuminance range than the case where the optical aperture 412 is not provided.
  • the optical aperture 412 is not provided.
  • FIG. 29 is a plan layout diagram related to the unit pixel 100 in the third embodiment shown in FIG.
  • the planar layout of the unit pixel 100 shown in FIG. 29 is a layout in which a light shielding film 411 and an optical aperture 412 are added to the planar layout of the unit pixel 100 in the first embodiment shown in FIG.
  • the planar layout of the unit pixel 100 shown in FIG. 29 is in addition to the planar layout of the first photoelectric conversion unit 101, the second photoelectric conversion unit 102, the first on-chip lens 151, and the second on-chip lens 152 on the first surface.
  • the plane layout of the optical aperture 412 disposed above the second photoelectric conversion unit 102 is described.
  • the optical aperture 412 is disposed above the second photoelectric conversion unit 102.
  • the ratio of the area where the optical aperture 412 (light shielding material) is arranged on the second photoelectric conversion unit 102 to the plane area of the second photoelectric conversion unit 102 is the ratio of the first photoelectric conversion unit 101. It is larger than the ratio of the area where the light shielding film 411 (light shielding material) is disposed on the first photoelectric conversion unit 101 with respect to the plane area.
  • the first photoelectric conversion unit 101 retains the characteristic of capturing an image with high sensitivity, while the second photoelectric conversion unit 102 has a wider illuminance range than the case where the optical aperture 412 is not provided.
  • an image with gradation can be taken, in other words, an image with a wider dynamic range can be taken.
  • the shape of the outer peripheral portion of the optical aperture 412 shown in FIG. 29 is a shape arranged along the outer edge of the second photoelectric conversion unit 102.
  • the aperture shape of the optical aperture 412 shown in FIG. 29 is substantially the same as the reduced shape of the outer edge of the second photoelectric conversion unit 102.
  • the shape of the optical aperture 412 is not limited to the shape shown in FIG. 29, but may be other shapes.
  • a shape as shown in FIG. 30 may be used.
  • FIG. 30 shows a modification of the planar layout of the optical aperture 412.
  • FIG. 2 shows a planar layout of the optical aperture 412 ′ disposed above the photoelectric conversion unit 102.
  • the shape of the outer peripheral portion of the optical diaphragm 412 ′ shown in FIG. 30 is the shape arranged along the outer edge of the second photoelectric conversion unit 102, similar to the shape of the outer peripheral portion of the optical diaphragm 412 shown in FIG. ing.
  • the aperture shape of the optical aperture 412 ′ shown in FIG. 30 is a substantially circular shape.
  • FIG. 31 shows still another modification of the planar layout of the optical aperture 412.
  • FIG. 2 shows a planar layout of an optical aperture 412 ′′ disposed above the photoelectric conversion unit 102.
  • the optical diaphragm 412 ′′ does not necessarily have to be provided with a light shielding material over the entire outer periphery of the second photoelectric conversion unit 102.
  • FIG. 31 One example is shown in FIG. 31.
  • the shape of the optical diaphragm 412 ′′ shown in FIG. Is a shape in which a light shielding material is not disposed in a part of the outer edge of the second photoelectric conversion unit 102.
  • the shape of the optical diaphragm 412 ′′ shown in FIG. 31 is a shape in which the width of the light shielding material arranged at the outer edge of the second photoelectric conversion unit 102 is not necessarily constant.
  • the shape of the optical stop 412 ′′ shown in FIG. 31 is a shape in which a square opening is provided in the center and square light shielding materials are arranged at both ends.
  • the width of the optical aperture 412 ′′ is not constant.
  • the ratio of the area where the optical aperture 412 ′′, that is, the light shielding material is arranged on the second photoelectric conversion unit 102 with respect to the plane area of the second photoelectric conversion unit 102 is relative to the plane area of the first photoelectric conversion unit 101.
  • the sensitivity of the first photoelectric conversion unit 101 and the sensitivity of the second photoelectric conversion unit 102 are improved by providing the neutral density filter 351 or the optical diaphragm 412. It has been explained that the structure is such that the difference in sensitivity is increased.
  • FIGS. 32 to 34 are diagrams showing the configuration of the unit pixel 100 according to the fourth embodiment.
  • the configuration of the unit pixel 100 shown in FIGS. 32 to 34 is basically the same as that of the unit pixel 100 shown in FIGS. 10 and 28, for example. A description thereof will be omitted.
  • the shape of the second on-chip lens 152 disposed on the second photoelectric conversion unit 102 is a convex shape on the lower side.
  • the second on-chip lens 501 has a concave shape.
  • a concave second on-chip lens 501 is formed on the second photoelectric conversion unit 102.
  • the amount of light incident on the second photoelectric conversion unit 102 can be reduced, in other words, the light can be reduced.
  • the difference between the sensitivity of the first photoelectric conversion unit 101 and the sensitivity of the second photoelectric conversion unit 102 can be further increased.
  • the range of subject illuminance that can capture an image with gradation is further expanded, in other words, an image with a wider dynamic range can be captured. Can have an effect.
  • the light incident on the second on-chip lens 501 tends to diverge, and for this reason, the second photoelectric chip Although the light incident on the conversion unit 102 can be reduced, the divergent light may enter the adjacent first photoelectric conversion unit 101.
  • light shielding portions 521 to 523 are provided between the photoelectric conversion portions.
  • light shielding units 521 to 523 are disposed between the first photoelectric conversion unit 101 and the second photoelectric conversion unit 102.
  • the light shielding film 411 and the optical diaphragm 412 (for example, FIG. 28) described as the third embodiment can be applied to the light shielding portions 521 to 523.
  • the neutral density filter 351 described as the second embodiment may be formed on the upper side or the lower side of the color filter 201 as in the second embodiment. That is, the second to fourth embodiments can be applied in combination.
  • FIG. 33 is a diagram illustrating another configuration of the unit pixel 100 including the second on-chip lens 501 having a concave shape.
  • the unit pixel 100 illustrated in FIG. 33 has a configuration in which an inter-pixel light shielding unit 181 is added as the light shielding units 521 to 523 to the unit pixel 100 illustrated in FIG.
  • the diverging light transmitted through the second on-chip lens 501 can be shielded by the inter-pixel light shielding portion 181. Therefore, it is possible to further prevent light from leaking into the first photoelectric conversion unit 101.
  • FIG. 34 is a diagram showing another configuration of the unit pixel 100 including the second on-chip lens 501 having a concave shape.
  • the unit pixel 100 shown in FIG. 34 has a configuration in which the planarization film 401 is removed from the unit pixel 100 shown in FIG. Further, by eliminating the planarization film 401, the inter-pixel light shielding portion 181 (light shielding portions 521 to 523) is formed in the color filter 201 (on the interlayer insulating film 232).
  • the distance between the second on-chip lens 501 and the second photoelectric conversion unit 102 is shortened.
  • the distance between the second on-chip lens 501 and the second photoelectric conversion unit 102 By reducing the distance between the second on-chip lens 501 and the second photoelectric conversion unit 102, light that diverges after passing through the second on-chip lens 501 and enters the first photoelectric conversion unit 101 is reduced. Is possible.
  • the inter-pixel light shielding portion 181 similarly to the unit pixel 100 shown in FIG. 33, by providing the inter-pixel light shielding portion 181 (light shielding portions 521 to 523), it is possible to further prevent light from leaking into the first photoelectric conversion portion 101. Become.
  • the first on-chip lens 151 and the second on-chip lens 501 may be made of the same material or different materials.
  • a material having a high refractive index for example, an inorganic material SiN (silicon nitride, silicon nitride) or the like can be used.
  • an image with high sensitivity can be taken using the first photoelectric conversion unit 101, and an image with a wide dynamic range can be taken using the second photoelectric conversion unit 102.
  • the color arrangement of the color filter 201 has been described by taking, for example, the RGB Bayer arrangement as shown in FIG.
  • the color filter 201 shown in A of FIG. 35 has a G (green) / R (red) / G (green) / B (blue) color in a repeating unit with 2 ⁇ 2 pixels in the vertical and horizontal directions as a repeating unit.
  • the filters are arranged in a so-called Bayer array.
  • a color filter 201 has 2 ⁇ 2 pixels in the vertical and horizontal directions as a repeating unit, and R (red) / G (green) / B (blue) / C ( Transparent) color filters may be arranged.
  • the color filter 201 uses 2 ⁇ 2 pixels in the vertical and horizontal directions as a repeating unit, and R (red) / C (transparent) / C (transparent) / C (transparent) ) Color filters may be arranged.
  • the first photoelectric element can be used regardless of which color filter array is used as the array of color filters 201 included in each unit pixel 100. While the conversion unit 101 retains the characteristic of capturing an image with high sensitivity, the second photoelectric conversion unit 102 has a wider illuminance range than the case where the neutral density filter 351 and the optical aperture 412 are not provided. Thus, it is possible to obtain an effect that an image having gradation can be taken, in other words, an image having a wider dynamic range can be taken.
  • FIG. 36 is a block diagram illustrating a configuration example of an imaging apparatus (camera apparatus) 1000 that is an example of an electronic apparatus to which the present technology is applied.
  • the imaging apparatus 1000 includes an optical system including a lens group 1001, an imaging element 1002, a DSP circuit 1003 that is a camera signal processing unit, a frame memory 1004, a display apparatus 1005, a recording apparatus 1006, and an operation system 1007. And a power supply system 1008 and the like.
  • a DSP circuit 1003, a frame memory 1004, a display device 1005, a recording device 1006, an operation system 1007, and a power supply system 1008 are connected to each other via a bus line 1009.
  • the lens group 1001 takes in incident light (image light) from a subject and forms an image on the imaging surface of the imaging element 1002.
  • the imaging element 1002 converts the amount of incident light imaged on the imaging surface by the lens group 1001 into an electrical signal in units of pixels and outputs it as a pixel signal.
  • the display device 1005 includes a panel display device such as a liquid crystal display device or an organic EL (electroluminescence) display device, and displays a moving image or a still image captured by the image sensor 1002.
  • the recording device 1006 records a moving image or a still image captured by the image sensor 1002 on a recording medium such as a memory card, a video tape, or a DVD (Digital Versatile Disk).
  • the operation system 1007 issues operation commands for various functions of the imaging apparatus 1000 under the operation of the user.
  • the power supply system 1008 appropriately supplies various power supplies serving as operation power supplies for the DSP circuit 1003, the frame memory 1004, the display device 1005, the recording device 1006, and the operation system 1007 to these supply targets.
  • Such an imaging apparatus 1000 is applied to a camera module for a mobile device such as a video camera, a digital still camera, and a smartphone or a mobile phone.
  • the imaging apparatus according to each of the above-described embodiments can be used as the imaging element 1002. Thereby, the image quality of the imaging apparatus 1000 can be improved.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • an endoscopic operation system will be described as an example, but the present technology can also be applied to a surgical operation system, a microscopic operation system, and the like.
  • FIG. 37 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system 2000 to which the technology according to the present disclosure can be applied.
  • FIG. 37 shows a state where an operator (doctor) 2071 is performing an operation on a patient 2075 on a patient bed 2073 using an endoscopic operation system 2000.
  • an endoscopic surgery system 2000 includes an endoscope 2020, other surgical tools 2030, a support arm device 2040 that supports the endoscope 2020, and various devices for endoscopic surgery. And a cart 2050 on which is mounted.
  • trocars 2037a to 2037d are punctured into the abdominal wall. Then, the lens barrel 2021 of the endoscope 2020 and other surgical tools 2030 are inserted into the body cavity of the patient 2075 from the trocars 2037a to 2037d.
  • an insufflation tube 2031, an energy treatment tool 2033, and forceps 2035 are inserted into the body cavity of the patient 2075.
  • the energy treatment tool 2033 is a treatment tool that performs tissue incision and separation, blood vessel sealing, and the like by high-frequency current and ultrasonic vibration.
  • the illustrated surgical tool 2030 is merely an example, and as the surgical tool 2030, various surgical tools generally used in endoscopic surgery, such as a lever and a retractor, may be used.
  • the image of the surgical site in the body cavity of the patient 2075 taken by the endoscope 2020 is displayed on the display device 2053.
  • the surgeon 2071 performs a treatment such as excision of the affected part using the energy treatment tool 2033 and the forceps 2035 while viewing the image of the surgical part displayed on the display device 2053 in real time.
  • the pneumoperitoneum tube 2031, the energy treatment tool 2033, and the forceps 2035 are supported by an operator 2071 or an assistant during the operation.
  • the support arm device 2040 includes an arm portion 2043 extending from the base portion 2041.
  • the arm portion 2043 includes joint portions 2045 a, 2045 b, 2045 c and links 47 a, 47 b and is driven by control from the arm control device 2057.
  • the endoscope 2020 is supported by the arm unit 2043, and its position and posture are controlled. Thereby, stable fixation of the endoscope 2020 can be realized.
  • the endoscope 2020 includes a lens barrel 2021 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 2075, and a camera head 2023 connected to the proximal end of the lens barrel 2021.
  • a lens barrel 2021 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 2075, and a camera head 2023 connected to the proximal end of the lens barrel 2021.
  • an endoscope 2020 configured as a so-called rigid mirror having a rigid lens barrel 2021 is illustrated, but the endoscope 2020 is configured as a so-called flexible mirror having a flexible lens barrel 2021. Also good.
  • An opening into which an objective lens is fitted is provided at the tip of the lens barrel 2021.
  • a light source device 2055 is connected to the endoscope 2020, and light generated by the light source device 2055 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 2021. Irradiation is performed toward the observation target in the body cavity of the patient 2075 through the lens.
  • the endoscope 2020 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 2023, and reflected light (observation light) from the observation target is condensed on the image sensor by the optical system. Observation light is photoelectrically converted by the imaging element, and an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted to a camera control unit (CCU: CameraCCControl : Unit) 2051 as RAW data.
  • the camera head 2023 has a function of adjusting the magnification and the focal length by appropriately driving the optical system.
  • a plurality of image sensors may be provided in the camera head 2023 in order to cope with, for example, stereoscopic vision (3D display).
  • a plurality of relay optical systems are provided inside the lens barrel 2021 in order to guide observation light to each of the plurality of imaging elements.
  • the CCU 2051 includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls operations of the endoscope 2020 and the display device 2053. Specifically, the CCU 2051 performs various image processing for displaying an image based on the image signal, such as development processing (demosaic processing), for example, on the image signal received from the camera head 2023. The CCU 2051 provides the display device 2053 with the image signal subjected to the image processing. Further, the CCU 2051 transmits a control signal to the camera head 2023 to control the driving thereof.
  • the control signal can include information regarding imaging conditions such as magnification and focal length.
  • the display device 2053 displays an image based on an image signal subjected to image processing by the CCU 2051 under the control of the CCU 2051.
  • the endoscope 2020 is compatible with high-resolution imaging such as 4K (horizontal pixel number 3840 ⁇ vertical pixel number 2160) or 8K (horizontal pixel number 7680 ⁇ vertical pixel number 4320), and / or 3D display
  • high-resolution imaging such as 4K (horizontal pixel number 3840 ⁇ vertical pixel number 2160) or 8K (horizontal pixel number 7680 ⁇ vertical pixel number 4320)
  • 3D display In the case of the display device 2053, a display device 2053 that can display a high-resolution image and / or a 3D display device can be used.
  • 4K or 8K high-resolution imaging a more immersive feeling can be obtained by using a display device 2053 having a size of 55 inches or more.
  • a plurality of display devices 2053 having different resolutions and sizes may be provided depending on
  • the light source device 2055 is composed of a light source such as an LED (light emitting diode), and supplies irradiation light to the endoscope 2020 when photographing the surgical site.
  • a light source such as an LED (light emitting diode)
  • the arm control device 2057 is configured by a processor such as a CPU, for example, and operates according to a predetermined program to control driving of the arm portion 2043 of the support arm device 2040 according to a predetermined control method.
  • the input device 2059 is an input interface to the endoscopic surgery system 2000.
  • a user can input various types of information and instructions to the endoscopic surgery system 2000 via the input device 2059.
  • the user inputs various types of information related to the operation, such as the patient's physical information and information about the surgical technique, via the input device 2059.
  • the user instructs to drive the arm unit 2043 via the input device 2059 or to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 2020.
  • an instruction to drive the energy treatment device 2033 is input.
  • the type of the input device 2059 is not limited, and the input device 2059 may be various known input devices.
  • the input device 2059 for example, a mouse, a keyboard, a touch panel, a switch, a foot switch 2069, and / or a lever can be applied.
  • the touch panel may be provided on the display surface of the display device 2053.
  • the input device 2059 is a device worn by a user, such as a glasses-type wearable device or an HMD (Head Mounted Display), and various inputs according to the user's gesture and line of sight detected by these devices. Is done.
  • the input device 2059 includes a camera capable of detecting the user's movement, and various inputs are performed according to the user's gesture and line of sight detected from the video captured by the camera.
  • the input device 2059 includes a microphone capable of collecting a user's voice, and various inputs are performed by voice through the microphone.
  • the input device 2059 is configured to be able to input various types of information without contact, so that a user belonging to a clean area (for example, the operator 2071) can operate a device belonging to an unclean area without contact. Is possible.
  • the user since the user can operate the device without releasing his / her hand from the surgical tool he / she has, the convenience for the user is improved.
  • the treatment instrument control device 2061 controls driving of the energy treatment instrument 2033 for tissue cauterization, incision, blood vessel sealing, or the like.
  • the pneumoperitoneum device 2063 passes gas into the body cavity via the pneumothorax tube 2031 Send in.
  • the recorder 2065 is an apparatus capable of recording various types of information related to surgery.
  • the printer 2067 is a device that can print various types of information related to surgery in various formats such as text, images, or graphs.
  • the support arm device 2040 includes a base portion 2041 as a base and an arm portion 2043 extending from the base portion 2041.
  • the arm portion 2043 includes a plurality of joint portions 2045a, 2045b, and 2045c and a plurality of links 2047a and 2047b connected by the joint portion 2045b.
  • FIG. The structure of the arm portion 2043 is shown in a simplified manner.
  • the shape, number and arrangement of the joint portions 2045a to 2045c and the links 2047a and 2047b, the direction of the rotation axis of the joint portions 2045a to 2045c, and the like are appropriately set so that the arm portion 2043 has a desired degree of freedom.
  • the arm portion 2043 can be preferably configured to have six or more degrees of freedom. Accordingly, the endoscope 2020 can be freely moved within the movable range of the arm portion 2043, so that the lens barrel 2021 of the endoscope 2020 can be inserted into the body cavity of the patient 2075 from a desired direction. It becomes possible.
  • the joints 2045a to 2045c are provided with actuators, and the joints 2045a to 2045c are configured to be rotatable around a predetermined rotation axis by driving the actuators.
  • the drive of the actuator is controlled by the arm control device 2057
  • the rotation angle of each joint portion 2045a to 2045c is controlled, and the drive of the arm portion 2043 is controlled.
  • control of the position and posture of the endoscope 2020 can be realized.
  • the arm control device 2057 can control the driving of the arm unit 2043 by various known control methods such as force control or position control.
  • the arm controller 2057 appropriately controls the driving of the arm unit 2043 according to the operation input.
  • the position and orientation of the endoscope 2020 may be controlled. With this control, the endoscope 2020 at the tip of the arm portion 2043 can be moved from an arbitrary position to an arbitrary position, and then fixedly supported at the position after the movement.
  • the arm unit 2043 may be operated by a so-called master slave method. In this case, the arm unit 2043 can be remotely operated by the user via the input device 2059 installed at a location away from the operating room.
  • the arm control device 2057 receives the external force from the user, and moves the actuators of the joint portions 2045a to 2045c so that the arm portion 2043 moves smoothly according to the external force. You may perform what is called power assist control to drive. Accordingly, when the user moves the arm unit 2043 while directly touching the arm unit 2043, the arm unit 2043 can be moved with a relatively light force. Accordingly, the endoscope 2020 can be moved more intuitively and with a simpler operation, and the convenience for the user can be improved.
  • the endoscope 2020 is supported by a doctor called a scopist.
  • the position of the endoscope 2020 can be more reliably fixed without relying on human hands, so that an image of the surgical site can be stably obtained. It becomes possible to perform the operation smoothly.
  • the arm control device 2057 is not necessarily provided in the cart 2050. Further, the arm control device 2057 is not necessarily a single device. For example, the arm control device 2057 may be provided in each joint portion 2045a to 2045c of the arm portion 2043 of the support arm device 2040, and the plurality of arm control devices 2057 cooperate with each other to drive the arm portion 2043. Control may be realized.
  • the light source device 2055 supplies irradiation light to the endoscope 2020 when photographing a surgical site.
  • the light source device 2055 is composed of a white light source composed of, for example, an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Adjustments can be made.
  • the laser light from each of the RGB laser light sources is irradiated on the observation target in a time-sharing manner, and the driving of the image sensor of the camera head 2023 is controlled in synchronization with the irradiation timing, thereby corresponding to each RGB. It is also possible to take the images that have been taken in time division. According to this method, a color image can be obtained without providing a color filter in the image sensor.
  • the driving of the light source device 2055 may be controlled so as to change the intensity of light to be output every predetermined time.
  • the driving of the image sensor of the camera head 2023 is controlled to acquire an image in a time-sharing manner, and the image is synthesized, so that high dynamics without so-called blackout and overexposure are obtained. A range image can be generated.
  • the light source device 2055 may be configured to be able to supply light of a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface of the mucous membrane is irradiated by irradiating light in a narrow band compared to irradiation light (ie, white light) during normal observation.
  • a so-called narrow-band light observation is performed in which a predetermined tissue such as a blood vessel is imaged with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating excitation light.
  • a body tissue is irradiated with excitation light to observe fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and applied to the body tissue.
  • ICG indocyanine green
  • the light source device 2055 can be configured to be able to supply narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 38 is a block diagram illustrating an example of functional configurations of the camera head 2023 and the CCU 2051 illustrated in FIG.
  • the camera head 2023 has a lens unit 2025, an imaging unit 2027, a drive unit 29, a communication unit 2026, and a camera head control unit 2028 as its functions.
  • the CCU 2051 includes a communication unit 2081, an image processing unit 2083, and a control unit 2085 as its functions.
  • the camera head 2023 and the CCU 2051 are connected to each other via a transmission cable 2091 so that they can communicate with each other.
  • the lens unit 2025 is an optical system provided at a connection portion with the lens barrel 2021. Observation light captured from the tip of the lens barrel 2021 is guided to the camera head 2023 and enters the lens unit 2025.
  • the lens unit 2025 is configured by combining a plurality of lenses including a zoom lens and a focus lens. The optical characteristics of the lens unit 2025 are adjusted so that the observation light is condensed on the light receiving surface of the imaging element of the imaging unit 2027. Further, the zoom lens and the focus lens are configured such that their positions on the optical axis are movable in order to adjust the magnification and focus of the captured image.
  • the imaging unit 2027 is configured by an imaging element, and is arranged at the rear stage of the lens unit 2025.
  • the observation light that has passed through the lens unit 2025 is collected on the light receiving surface of the image sensor, and an image signal corresponding to the observation image is generated by photoelectric conversion.
  • the image signal generated by the imaging unit 2027 is provided to the communication unit 2026.
  • CMOS Complementary Metal Metal Oxide Semiconductor
  • Bayer array As the image pickup element constituting the image pickup unit 2027, for example, a CMOS (Complementary Metal Metal Oxide Semiconductor) type image sensor, which has a Bayer array and is capable of color photographing, is used.
  • CMOS Complementary Metal Metal Oxide Semiconductor
  • the imaging unit 2027 the imaging device according to each embodiment described above can be used. Thereby, the dynamic range of the imaging unit 2027 can be expanded and the image quality can be improved.
  • the said image pick-up element what can respond
  • the operator 2071 can grasp the state of the surgical site in more detail, and can proceed with the surgery more smoothly.
  • the image sensor that configures the image capturing unit 2027 is configured to include a pair of image sensors for acquiring right-eye and left-eye image signals corresponding to 3D display. By performing the 3D display, the operator 2071 can more accurately grasp the depth of the living tissue in the surgical site.
  • the imaging unit 2027 is configured as a multi-plate type, a plurality of lens units 2025 are also provided corresponding to each imaging element.
  • the imaging unit 2027 is not necessarily provided in the camera head 2023.
  • the imaging unit 2027 may be provided inside the lens barrel 2021 immediately after the objective lens.
  • the driving unit 29 is configured by an actuator, and moves the zoom lens and the focus lens of the lens unit 2025 by a predetermined distance along the optical axis under the control of the camera head control unit 2028. Thereby, the magnification and the focus of the image captured by the imaging unit 2027 can be adjusted as appropriate.
  • the communication unit 2026 includes a communication device for transmitting and receiving various types of information to and from the CCU 2051.
  • the communication unit 2026 transmits the image signal obtained from the imaging unit 2027 as RAW data to the CCU 2051 via the transmission cable 2091.
  • the image signal is preferably transmitted by optical communication.
  • the operator 2071 performs the operation while observing the state of the affected part with the captured image. For safer and more reliable operation, a moving image of the operated part is displayed in real time as much as possible. Because it is required.
  • the communication unit 2026 is provided with a photoelectric conversion module that converts an electrical signal into an optical signal. The image signal is converted into an optical signal by the photoelectric conversion module, and then transmitted to the CCU 2051 via the transmission cable 2091.
  • the communication unit 2026 receives a control signal for controlling the driving of the camera head 2023 from the CCU 2051.
  • the control signal includes, for example, information for designating the frame rate of the captured image, information for designating the exposure value at the time of imaging, and / or information for designating the magnification and focus of the captured image. Contains information about the condition.
  • the communication unit 2026 provides the received control signal to the camera head control unit 2028.
  • control signal from the CCU 2051 may also be transmitted by optical communication.
  • the communication unit 2026 is provided with a photoelectric conversion module that converts an optical signal into an electrical signal.
  • the control signal is converted into an electrical signal by the photoelectric conversion module and then provided to the camera head control unit 2028.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus are automatically set by the control unit 2085 of the CCU 2051 based on the acquired image signal. That is, a so-called AE (Auto-Exposure) function, AF (Auto-Focus) function, and AWB (Auto-White Balance) function are mounted on the endoscope 2020.
  • AE Auto-Exposure
  • AF Auto-Focus
  • AWB Auto-White Balance
  • the camera head control unit 2028 controls driving of the camera head 2023 based on the control signal from the CCU 2051 received via the communication unit 2026. For example, the camera head control unit 2028 controls driving of the imaging element of the imaging unit 2027 based on information indicating that the frame rate of the captured image is specified and / or information indicating that the exposure at the time of imaging is specified. For example, the camera head control unit 2028 appropriately moves the zoom lens and the focus lens of the lens unit 2025 via the drive unit 29 based on information indicating that the magnification and focus of the captured image are designated.
  • the camera head control unit 2028 may further have a function of storing information for identifying the lens barrel 2021 and the camera head 2023.
  • the camera head 2023 can be made resistant to autoclave sterilization by arranging the lens unit 2025, the imaging unit 2027, and the like in a sealed structure with high airtightness and waterproofness.
  • the communication unit 2081 is configured by a communication device for transmitting and receiving various types of information to and from the camera head 2023.
  • the communication unit 2081 receives an image signal transmitted from the camera head 2023 via the transmission cable 2091.
  • the image signal can be suitably transmitted by optical communication.
  • the communication unit 2081 in correspondence with optical communication, is provided with a photoelectric conversion module that converts an optical signal into an electric signal.
  • the communication unit 2081 provides the image signal converted into the electrical signal to the image processing unit 2083.
  • the communication unit 2081 transmits a control signal for controlling the driving of the camera head 2023 to the camera head 2023.
  • the control signal may also be transmitted by optical communication.
  • the image processing unit 2083 performs various types of image processing on the image signal that is RAW data transmitted from the camera head 2023.
  • image processing for example, development processing, high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing (electronic zoom processing)
  • image processing unit 2083 performs detection processing on the image signal for performing AE, AF, and AWB.
  • the image processing unit 2083 is configured by a processor such as a CPU or a GPU, and the above-described image processing and detection processing can be performed by the processor operating according to a predetermined program.
  • the image processing unit 2083 is configured by a plurality of GPUs, the image processing unit 2083 appropriately divides information related to the image signal, and performs image processing in parallel by the plurality of GPUs.
  • the control unit 2085 performs various controls relating to imaging of the surgical site by the endoscope 2020 and display of the captured image. For example, the control unit 2085 generates a control signal for controlling driving of the camera head 2023. At this time, when the imaging condition is input by the user, the control unit 2085 generates a control signal based on the input by the user. Alternatively, when the endoscope 2020 is equipped with the AE function, the AF function, and the AWB function, the control unit 2085 determines the optimum exposure value, focal length, and the distance according to the detection processing result by the image processing unit 2083. A white balance is appropriately calculated and a control signal is generated.
  • control unit 2085 causes the display device 2053 to display an image of the surgical site based on the image signal subjected to the image processing by the image processing unit 2083. At this time, the control unit 2085 recognizes various objects in the surgical unit image using various image recognition techniques.
  • control unit 2085 detects the shape and color of the edge of the object included in the surgical site image, thereby removing surgical tools such as forceps, specific biological parts, bleeding, mist when using the energy treatment tool 2033, and the like. Can be recognized.
  • the control unit 2085 uses the recognition result to superimpose and display various types of surgery support information on the image of the surgical site. Surgery support information is displayed in a superimposed manner and presented to the operator 2071, so that the surgery can be performed more safely and reliably.
  • the transmission cable 2091 connecting the camera head 2023 and the CCU 2051 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • communication is performed by wire using the transmission cable 2091.
  • communication between the camera head 2023 and the CCU 2051 may be performed wirelessly.
  • communication between the two is performed wirelessly, there is no need to lay the transmission cable 2091 in the operating room, so that the situation where the movement of the medical staff in the operating room is hindered by the transmission cable 2091 can be solved.
  • the endoscopic surgery system 2000 has been described here as an example, a system to which the technology according to the present disclosure can be applied is not limited to such an example.
  • the technology according to the present disclosure may be applied to a testing flexible endoscope system or a microscope operation system.
  • FIG. 39 is a diagram illustrating a usage example of the above-described imaging device.
  • the imaging device described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays as follows.
  • Devices for taking images for viewing such as digital cameras and mobile devices with camera functions
  • Devices used for traffic such as in-vehicle sensors that capture the back, surroundings, and interiors of vehicles, surveillance cameras that monitor traveling vehicles and roads, and ranging sensors that measure distances between vehicles, etc.
  • Equipment used for home appliances such as TVs, refrigerators, air conditioners, etc. to take pictures and operate the equipment according to the gestures ⁇ Endoscopes, equipment that performs blood vessel photography by receiving infrared light, etc.
  • Equipment used for medical and health care ⁇ Security equipment such as security surveillance cameras and personal authentication cameras ⁇ Skin measuring instrument for photographing skin and scalp photography Such as a microscope to do beauty Equipment used for sports, such as action cameras and wearable cameras for sports applications, etc.
  • Equipment used for agriculture such as cameras for monitoring the condition of fields and crops
  • system represents the entire apparatus composed of a plurality of apparatuses.
  • this technology can also take the following structures.
  • the light reduction unit is an optical filter that reduces light transmitted through the on-chip lens.
  • the dimming unit is an achromatic filter.
  • the imaging device according to any one of (2) to (4), wherein the dimming portion is a portion that is not exposed when the on-chip lens is formed, and is formed in a portion that covers the second photoelectric conversion portion. .
  • the dimming unit is a portion where the first on-chip lens formed on the first photoelectric conversion unit and the second on-chip lens formed on the second photoelectric conversion unit are close to each other.
  • the first on-chip lens is formed so as to extend and is not formed in the gap between the first on-chip lenses.
  • the imaging device described in 1. The imaging device according to any one of (2) to (6), wherein the dimming portion has a substantially quadrangular shape, and a vertex portion is formed in a substantially arc shape. (8) The imaging device according to any one of (2) to (6), wherein the dimming unit has a substantially circular shape.
  • the dimming portion has a substantially square shape, and the apex portion of the substantially square shape has a first on-chip lens formed on the first photoelectric conversion portion and a second photoelectric conversion portion.
  • an inter-pixel light blocking unit between the first photoelectric conversion unit and the second photoelectric conversion unit.
  • a part of the inter-pixel light shielding portion is formed in the same layer as the color filter.
  • the on-chip lens is formed of a material having a high refractive index.

Abstract

本技術は、画質を劣化させずに、撮像装置のダイナミックレンジを拡大することができるようにする撮像装置、電子機器に関する。 第1の光電変換部と、第1の光電変換部よりも、単位時間あたりに変換する電荷の量が小さい第2の光電変換部と、第2の光電変換部が生成した電荷を蓄積する電荷蓄積部と、電荷電圧変換部と、第1の光電変換部から電荷電圧変換部に電荷を転送する第1の転送ゲート部と、電荷電圧変換部と電荷蓄積部のポテンシャルを結合する第2の転送ゲート部と、第2の光電変換部から電荷蓄積部に電荷を転送する第3の転送ゲート部と、第3の転送ゲート部のゲート電極の下部に形成され、第2の光電変換部から溢れた電荷を電荷蓄積部に転送するオーバーフローパスと、第2の光電変換部に入射する光を減光する減光部とを備える。本技術は、例えば、撮像装置に適用できる。

Description

撮像装置、電子機器
 本技術は、撮像装置、電子機器に関し、特に、ダイナミックレンジを拡大できるようにした撮像装置、電子機器に関する。
 光電変換素子を備えた撮像装置は、階調性を持った信号を出力できるよう、
(1)照度が低い被写体を撮影する際には、光電変換素子の感度が高いことが望ましく、
(2)照度が高い被写体を撮影する際には、光電変換素子が飽和しにくいことが望ましい。
 上記2つの特性の実現を目指した撮像装置として、1つの画素の中に、感度が高い第1の光電変換素子と、感度は低いが多くの電荷を貯めることができる第2の光電変換素子と、を備えることで、階調性を持たせて画像を撮影出来る被写体の照度範囲、換言すれば撮像装置のダイナミックレンジ、を拡大することが提案されている。(例えば、特許文献1参照)。
WO2015/012098号公報
 しかしながら、特許文献1に備わる第1の光電変換素子と第2の光電変換素子において、電荷を貯める手段は、どちらも、空乏化させたフォトダイオードに生じたポテンシャルの井戸へ、電荷を貯めるものである。電荷を貯めるメカニズムが同じであるため、第1の光電変換素子と第2の光電変換素子の電荷蓄積部が、単位面積あたりに蓄積できる電荷の量は、ほぼ同等である。
 このため、第1の光電変換素子と第2の光電変換素子の電荷蓄積部の面積比以上に、第2の光電変換素子の電荷蓄積部に貯められる電荷の量を増やして、ダイナミックレンジを拡大することは、困難であった。
 本技術は、このような状況に鑑みてなされたものであり、ダイナミックレンジをさらに拡大することができるようにするものである。
 本技術の一側面の撮像装置は、第1の光電変換部と、前記第1の光電変換部よりも、単位時間あたりに変換する電荷の量が小さい第2の光電変換部と、前記第2の光電変換部が生成した電荷を蓄積する電荷蓄積部と、電荷電圧変換部と、前記第1の光電変換部から前記電荷電圧変換部に電荷を転送する第1の転送ゲート部と、前記電荷電圧変換部と前記電荷蓄積部のポテンシャルを結合する第2の転送ゲート部と、前記第2の光電変換部から前記電荷蓄積部に電荷を転送する第3の転送ゲート部と、前記第3の転送ゲート部のゲート電極の下部に形成され、前記第2の光電変換部から溢れた電荷を前記電荷蓄積部に転送するオーバーフローパスと、前記第2の光電変換部に入射する光を減光する減光部とを備える。
 本技術の一側面の電子機器は、第1の光電変換部と、前記第1の光電変換部よりも、単位時間あたりに変換する電荷の量が小さい第2の光電変換部と、前記第2の光電変換部が生成した電荷を蓄積する電荷蓄積部と、電荷電圧変換部と、前記第1の光電変換部から前記電荷電圧変換部に電荷を転送する第1の転送ゲート部と、前記電荷電圧変換部と前記電荷蓄積部のポテンシャルを結合する第2の転送ゲート部と、前記第2の光電変換部から前記電荷蓄積部に電荷を転送する第3の転送ゲート部と、前記第3の転送ゲート部のゲート電極の下部に形成され、前記第2の光電変換部から溢れた電荷を前記電荷蓄積部に転送するオーバーフローパスと、前記第2の光電変換部に入射する光を減光する減光部とを含む撮像装置を備える。
 本技術の一側面の撮像装置においては、第1の光電変換部と、第1の光電変換部よりも、単位時間あたりに変換する電荷の量が小さい第2の光電変換部と、第2の光電変換部が生成した電荷を蓄積する電荷蓄積部と、電荷電圧変換部と、第1の光電変換部から電荷電圧変換部に電荷を転送する第1の転送ゲート部と、電荷電圧変換部と電荷蓄積部のポテンシャルを結合する第2の転送ゲート部と、第2の光電変換部から電荷蓄積部に電荷を転送する第3の転送ゲート部と、第3の転送ゲート部のゲート電極の下部に形成され、第2の光電変換部から溢れた電荷を電荷蓄積部に転送するオーバーフローパスと、第2の光電変換部に入射する光を減光する減光部とが備えられる。
 本技術の一側面の電子機器は、前記撮像装置を含む構成とされている。
 本技術の一側面によれば、ダイナミックレンジをさらに拡大することができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術が適用されるCMOSイメージセンサの構成の概略を示すシステム構成図である。 本技術が適用されるCMOSイメージセンサの他のシステム構成を示すシステム構成図(その1)である。 本技術が適用されるCMOSイメージセンサの他のシステム構成を示すシステム構成図(その2)である。 単位画素の回路図である。 トランジスタなどの配置に係わる平面レイアウトについて説明するための図である。 オンチップレンズの大きさについて説明するための図である。 オンチップレンズの平面レイアウトについて説明するための図である。 画素間遮光部の平面レイアウトについて説明するための図である。 カラーフィルタの平面レイアウトについて説明するための図である。 第1の実施の形態における単位画素の構造を示す図である。 オンチップレンズの製造について説明するための図である。 トランジスタなどの配置に係わる平面レイアウトについて説明するための図である。 オンチップレンズの大きさについて説明するための図である。 オンチップレンズの平面レイアウトについて説明するための図である。 画素間遮光部の平面レイアウトについて説明するための図である。 カラーフィルタの平面レイアウトについて説明するための図である。 減光フィルタの形状について説明するための図である。 第2の実施の形態における単位画素の構造を示す図である。 減光フィルタの形状について説明するための図である。 減光フィルタを所定の形状にすることによる効果について説明するための図である。 減光フィルタを所定の形状にすることによる効果について説明するための図である。 減光フィルタの形状について説明するための図である。 減光フィルタの他の形状について説明するための図である。 減光フィルタのさらに他の形状について説明するための図である。 第2の実施の形態における単位画素の他の構造を示す図である。 第2の実施の形態における単位画素の他の構造を示す図である。 第2の実施の形態における単位画素のさらに他の構造を示す図である。 第3の実施の形態における単位画素の構造について説明するための図である。 光学絞りの構造を示す図である。 光学絞りの他の構造を示す図である。 光学絞りのさらに他の構造を示す図である。 第4の実施の形態における単位画素の構造を示す図である。 第4の実施の形態における単位画素の他の構造を示す図である。 第4の実施の形態における単位画素のさらに他の構造を示す図である。 カラーフィルタの色配置について説明するための図である。 撮像装置の構成について説明するための図である。 本技術を適用した内視鏡手術システムの一実施の形態の構成を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 撮像装置の使用例について説明するための図である。
 以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は、以下の順序で行う。
 1.本技術が適用される撮像装置
 2.第1の実施の形態
 3.第1の実施の形態の変形例
 4.第2の実施の形態
 5.第2の実施の形態の変形例
 6.減光フィルタの配置位置
 7.第3の実施の形態
 8.第4の実施の形態
 9.カラーフィルタの色配置について
 10.撮像装置の使用例
 <本技術が適用される撮像装置>
 {基本的なシステム構成}
 図1は、本技術が適用される撮像装置、例えばX-Yアドレス方式撮像装置の一種であるCMOSイメージセンサの構成の概略を示すシステム構成図である。ここで、CMOSイメージセンサとは、CMOSプロセスを応用して、または、部分的に使用して作成されたイメージセンサである。例えば、撮像装置は、裏面照射型のCMOSイメージセンサで構成される。
 本適用例に係るCMOSイメージセンサ10は、図示せぬ半導体基板(チップ)上に形成された画素アレイ部11と、当該画素アレイ部11と同じ半導体基板上に集積された周辺回路部とを有する構成となっている。周辺回路部は、例えば、垂直駆動部12、カラム処理部13、水平駆動部14及びシステム制御部15から構成されている。
 CMOSイメージセンサ10は更に、信号処理部18及びデータ格納部19を備えている。信号処理部18及びデータ格納部19については、本CMOSイメージセンサ10と同じ基板上に搭載しても構わないし、本CMOSイメージセンサ10とは別の基板上に配置するようにしても構わない。また、信号処理部18及びデータ格納部19の各処理については、本CMOSイメージセンサ10とは別の基板に設けられる外部信号処理部、例えば、DSP(Digital Signal Processor)回路やソフトウェアによる処理でも構わない。
 画素アレイ部11は、受光した光量に応じた電荷を生成しかつ蓄積する光電変換部を有する単位画素(以下、単に「画素」と記述する場合もある)が行方向及び列方向に、すなわち、行列状に2次元配置された構成となっている。ここで、行方向とは画素行の画素の配列方向(すなわち、水平方向)を言い、列方向とは画素列の画素の配列方向(すなわち、垂直方向)を言う。単位画素の具体的な回路構成や画素構造の詳細については後述する。
 画素アレイ部11において、行列状の画素配列に対して、画素行ごとに画素駆動線16が行方向に沿って配線され、画素列ごとに垂直信号線17が列方向に沿って配線されている。画素駆動線16は、画素から信号を読み出す際の駆動を行うための駆動信号を伝送する。図1では、画素駆動線16について1本の配線として示しているが、1本に限られるものではない。画素駆動線16の一端は、垂直駆動部12の各行に対応した出力端に接続されている。
 垂直駆動部12は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部11の各画素を全画素同時あるいは行単位等で駆動する。すなわち、垂直駆動部12は、当該垂直駆動部12を制御するシステム制御部15と共に、画素アレイ部11の各画素の動作を制御する駆動部を構成している。この垂直駆動部12はその具体的な構成については図示を省略するが、一般的に、読出し走査系と掃出し走査系の2つの走査系を有する構成となっている。
 読出し走査系は、単位画素から信号を読み出すために、画素アレイ部11の単位画素を行単位で順に選択走査する。単位画素から読み出される信号はアナログ信号である。掃出し走査系は、読出し走査系によって読出し走査が行われる読出し行に対して、その読出し走査よりも露光時間分だけ先行して掃出し走査を行う。
 この掃出し走査系による掃出し走査により、読出し行の単位画素の光電変換部から不要な電荷が掃き出されることによって当該光電変換部がリセットされる。そして、この掃出し走査系による不要電荷の掃き出す(リセットする)ことにより、所謂電子シャッタ動作が行われる。ここで、電子シャッタ動作とは、光電変換部の電荷を捨てて、新たに露光を開始する(電荷の蓄積を開始する)動作のことを言う。
 読出し走査系による読出し動作によって読み出される信号は、その直前の読出し動作または電子シャッタ動作以降に受光した光量に対応するものである。そして、直前の読出し動作による読出しタイミングまたは電子シャッタ動作による掃出しタイミングから、今回の読出し動作による読出しタイミングまでの期間が、単位画素における電荷の露光期間となる。
 垂直駆動部12によって選択走査された画素行の各単位画素から出力される信号は、画素列ごとに垂直信号線17の各々を通してカラム処理部13に入力される。カラム処理部13は、画素アレイ部11の画素列ごとに、選択行の各画素から垂直信号線17を通して出力される信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。
 具体的には、カラム処理部13は、信号処理として少なくとも、ノイズ除去処理、例えばCDS(Correlated Double Sampling;相関二重サンプリング)処理や、DDS(Double Data Sampling)処理を行う。例えば、CDS処理により、リセットノイズや画素内の増幅トランジスタの閾値ばらつき等の画素固有の固定パターンノイズが除去される。カラム処理部13にノイズ除去処理以外に、例えば、AD(アナログ-デジタル)変換機能を持たせ、アナログの画素信号をデジタル信号に変換して出力することも可能である。
 水平駆動部14は、シフトレジスタやアドレスデコーダなどによって構成され、カラム処理部13の画素列に対応する単位回路を順番に選択する。この水平駆動部14による選択走査により、カラム処理部13において単位回路ごとに信号処理された画素信号が順番に出力される。
 システム制御部15は、各種のタイミング信号を生成するタイミングジェネレータなどによって構成され、当該タイミングジェネレータで生成された各種のタイミングを基に、垂直駆動部12、カラム処理部13、及び、水平駆動部14などの駆動制御を行う。
 信号処理部18は、少なくとも演算処理機能を有し、カラム処理部13から出力される画素信号に対して演算処理等の種々の信号処理を行う。データ格納部19は、信号処理部18での信号処理に当たって、その処理に必要なデータを一時的に格納する。
 {他のシステム構成}
 本技術が適用されるCMOSイメージセンサ10としては、上述したシステム構成のものに限られるものではない。他のシステム構成として、以下のようなシステム構成のものを挙げることができる。
 例えば、図2に示すように、データ格納部19をカラム処理部13の後段に配置し、カラム処理部13から出力される画素信号を、データ格納部19を経由して信号処理部18に供給するシステム構成のCMOSイメージセンサ10Aを挙げることができる。
 更には、図3に示すように、画素アレイ部11の列ごとあるいは複数の列ごとにAD変換するAD変換機能をカラム処理部13に持たせるとともに、当該カラム処理部13に対してデータ格納部19及び信号処理部18を並列的に設けるシステム構成のCMOSイメージセンサ10Bを挙げることができる。
 <第1の実施の形態>
 本技術を適用した第1の実施の形態について、図4乃至図11を参照して説明する。
 {単位画素の回路構成}
 図4は、図1乃至図3の画素アレイ部11に配置される単位画素100の構成例を示す回路図である。
 単位画素100は、第1光電変換部101、第2光電変換部102、第1転送トランジスタ103、第2転送トランジスタ104、第3転送トランジスタ105、第4転送トランジスタ106、FD(フローティングディフュージョン)部107、リセットトランジスタ108、増幅トランジスタ109、および選択トランジスタ110を備える。
 リセットトランジスタ108と増幅トランジスタ109は、電源VDDに接続される。第1光電変換部101は、シリコン半導体基板に形成されたp型不純物領域の内部に、n型不純物領域が形成された、いわゆる埋め込み型のフォトダイオードを含む。同様に第2光電変換部102は、埋め込み型のフォトダイオードを含む。第1光電変換部101と第2光電変換部102は、受光した光量に応じた電荷を生成し、生成した電荷を一定量まで蓄積する。
 単位画素100は、電荷蓄積部111をさらに備える。電荷蓄積部111は、例えばMOS容量やMIS容量である。
 図4において、第1光電変換部101と第2光電変換部102の間には、第1転送トランジスタ103、第2転送トランジスタ104、第3転送トランジスタ105、第4転送トランジスタ106、が直列に接続されている。第1転送トランジスタ103と第2転送トランジスタ104の間に接続された浮遊拡散層が、FD部107となる。FD部107には、寄生容量C10が備わる。
 第2転送トランジスタ104と第3転送トランジスタ105の間に接続された浮遊拡散層が、ノード112となる。ノード112には、寄生容量C11が備わる。第3転送トランジスタ105と第4転送トランジスタ106の間に接続された浮遊拡散層が、ノード113となる。ノード113に、電荷蓄積部111が接続されている。
 単位画素100に対して、図1乃至図3の画素駆動線16として、複数の駆動線が、例えば画素行毎に配線される。そして、図1乃至図3の垂直駆動部12から複数の駆動線を介して、各種の駆動信号TGL、FDG、FCG、TGS、RST、SELが供給される。これらの駆動信号は、単位画素100の各トランジスタがNMOSトランジスタなので、高レベル(例えば、電源電圧VDD)の状態がアクティブ状態となり、低レベルの状態(例えば、負電位)が非アクティブ状態となるパルス信号である。
 第1転送トランジスタ103のゲート電極には、駆動信号TGLが印加される。駆動信号TGLがアクティブ状態になると、第1転送トランジスタ103が導通状態になり、第1光電変換部101に蓄積されている電荷が、第1転送トランジスタ103を介してFD部107へ転送される。
 第2転送トランジスタ104のゲート電極には、駆動信号FDGが印加される。駆動信号FDGがアクティブ状態となって第2転送トランジスタ104が導通状態になると、これによりFD部107とノード112のポテンシャルが結合して、1つの電荷蓄積領域となる。
 第3転送トランジスタ105のゲート電極には、駆動信号FCGが印加される。駆動信号FDGと駆動信号FCGがアクティブ状態となって第2転送トランジスタ104と第3転送トランジスタ105が導通状態になると、FD部107から電荷蓄積部111までのポテンシャルが結合して、1つの電荷蓄積領域となる。
 第4転送トランジスタ106のゲート電極には、駆動信号TGSが印加される。駆動信号TGSがアクティブ状態になると、第4転送トランジスタ106が導通状態になり、第2光電変換部102に蓄積されている電荷が、第4転送トランジスタ106を介して、電荷蓄積部111へ転送される。第4転送トランジスタ106、第3転送トランジスタ105、および第2転送トランジスタ104がアクティブ状態の場合、電荷蓄積部111からFD部107までのポテンシャルが結合し、この結合した電荷蓄積領域へ、第2光電変換部102に蓄積されている電荷が転送される。
 さらに、第4転送トランジスタ106のゲート電極の下部のチャネル領域は、例えば、第1転送トランジスタ103、第2転送トランジスタ104、または第3転送トランジスタ105のゲート電極の下部のチャネル領域よりも、ポテンシャルが若干プラスの方向になっており(換言すれば、ポテンシャルが若干深くなっており)、これにより電荷のオーバーフローパスが形成されている。第2光電変換部102における光電変換の結果、第2光電変換部102の飽和電荷量を超える電荷が発生した場合には、飽和電荷量を超えた電荷が、上記オーバーフローパスを介して、第2光電変換部102から電荷蓄積部111へとオーバーフローする(溢れ出す)。オーバーフローした電荷は、電荷蓄積部111に蓄積される。
 なお、以下、第4転送トランジスタ106のゲート電極の下部のチャネル領域に形成されているオーバーフローパスを、単に第4転送トランジスタ106のオーバーフローパスと称する。
 図4において、電荷蓄積部111が有する2つの電極のうち、第1電極は、第3転送トランジスタ105と第4転送トランジスタ106の間のノード113へ接続された、ノード電極である。電荷蓄積部111が有する2つの電極のうち、第2電極は、接地された、接地電極である。
 なお、第2電極は、変形例として、接地電位以外の特定電位、例えば電源電位に接続されても良い。
 電荷蓄積部111がMOS容量またはMIS容量である場合、一例として、第2電極は、シリコン基板に形成された不純物領域であり、容量を形成する誘電膜は、シリコン基板上に形成された酸化膜や窒化膜である。第1電極は、第2電極と誘電膜の上方において、導電性を有する材料、例えばポリシリコンや金属で形成された電極である。
 第2電極を接地電位にする場合、第2電極は、第1光電変換部101または第2光電変換部102に備わるp型不純物領域と電気的に接続されたp型不純物領域であっても良い。第2電極を、接地電位以外の特定電位にする場合、第2電極は、p型不純物領域内に形成されたn型不純物領域であっても良い。
 ノード112には、第2転送トランジスタ104の他に、リセットトランジスタ108も接続される。リセットトランジスタの先には、特定電位、例えば電源VDDが接続されている。リセットトランジスタ108のゲート電極には、駆動信号RSTが印加される。駆動信号RSTがアクティブ状態になると、リセットトランジスタ108が導通状態になり、ノード112の電位が電圧VDDのレベルにリセットされる。
 駆動信号RSTをアクティブ状態にする際に、第2転送トランジスタ104の駆動信号FDGと第3転送トランジスタ105の駆動信号FCGをアクティブ状態にすると、ポテンシャルが結合したノード112とFD部107と電荷蓄積部111の電位が、電圧VDDのレベルにリセットされる。
 なお、駆動信号FDGと駆動信号FCGを個別に制御することによって、FD部107と電荷蓄積部111の電位を、それぞれ単独で(独立して)電圧VDDのレベルにリセットできることは、言うまでもない。
 浮遊拡散層であるFD部107は、電荷―電圧変換手段である。すなわち、FD部107に電荷が転送されると、転送された電荷の量に応じて、FD部107の電位が変化する。
 増幅トランジスタ109は、ソース側に、垂直信号線17の一端に接続された電流源131が、ドレイン側に、電源VDDが接続され、これらとともにソースフォロワ回路を構成する。増幅トランジスタ109のゲート電極には、FD部107が接続され、これがソースフォロワ回路の入力となる。
 選択トランジスタ110は、増幅トランジスタ109のソースと垂直信号線17との間に接続されている。選択トランジスタ110のゲート電極には、駆動信号SELが印加される。駆動信号SELがアクティブ状態になると、選択トランジスタ110が導通状態になり、単位画素100が選択状態となる。
 FD部107に電荷が転送されると、FD部107の電位が、転送された電荷の量に応じた電位となり、その電位が、上記したソースフォロワ回路へ入力される。駆動信号SELがアクティブ状態になると、この電荷の量に応じたFD部107の電位が、ソースフォロワ回路の出力として、選択トランジスタ110を介して垂直信号線17に出力される。
 第1光電変換部101は、第2光電変換部102よりも、フォトダイオードの受光面積が広いものとなっている。このため、ある照度の被写体を、ある露光時間で撮影した場合、第1光電変換部101において発生する電荷は、第2光電変換部102において発生する電荷よりも多い。
 このため、第1光電変換部101において発生した電荷と、第2光電変換部102において発生した電荷とを、FD部107へ転送して、それぞれ電荷―電圧変換すると、第1光電変換部101で発生した電荷を、FD部107へ転送する前と後での電圧変化は、第2光電変換部102で発生した電荷を、FD部107へ転送する前と後での電圧変化よりも、大きい。従って、第1光電変換部101と第2光電変換部102を比較すると、第1光電変換部101は、第2光電変換部102よりも、感度が高いものとなっている。
 これに対して、第2光電変換部102は、高い照度の光が入射して第2光電変換部102の飽和電荷量を超える電荷が発生した場合でも、飽和電荷量を超えて発生した電荷を電荷蓄積部111へ蓄積することができるため、第2光電変換部102で生じた電荷を電荷―電圧変換する際に、第2光電変換部102内に蓄積した電荷と、電荷蓄積部111に蓄積した電荷の双方を加えた上で、電荷―電圧変換することができる。
 これにより、第2光電変換部102は、第1光電変換部101よりも、階調性を備えた画像を、広い照度範囲に渡って撮影することができる、換言すれば、ダイナミックレンジの広い画像を撮影することができる。
 第1光電変換部101を用いて撮影された、感度の高い画像と、第2光電変換部102を用いて撮影された、ダイナミックレンジの広い画像との2枚の画像は、例えば、CMOSイメージセンサ10の内部に備わる画像信号処理回路、または、CMOSイメージセンサ10の外部に接続された画像信号処理装置において、2枚の画像から1枚の画像を合成するワイドダイナミックレンジ画像合成処理を経て、1枚の画像へと合成される。
 {単位画素の平面レイアウト}
 図5乃至図9は、図4に記載の単位画素100の実施の形態を示す平面レイアウト図である。図5乃至図9は、一例として、単位画素100が、いわゆる裏面照射型の撮像装置である場合の構造を示している。
 裏面照射型の撮像装置において、第1光電変換部101と第2光電変換部102が形成されたシリコン基板は、フォトダイオードへの光の入射面となる第1の面と、第1の面に対向する第2の面と、を備える。図5は、単位画素100に関わる、シリコン基板の第2の面における平面レイアウト図であって、単位画素100に備わる活性領域、光電変換部、画素トランジスタ、電荷蓄積部、およびこれらの間を接続する配線の、平面レイアウト図である。
 図5において、第1光電変換部101、第1転送トランジスタ103、FD部107、第2転送トランジスタ104、ノード112の一部、リセットトランジスタ108、および電源VDDへの接続部が、連続した第1の活性領域上に形成されている。
 これとは別に、第2光電変換部102、第4転送トランジスタ106、ノード113、第3転送トランジスタ105、およびノード112の別の一部が、連続した第2の活性領域上に形成されている。
 さらにこれらとは別に、垂直信号線17への接続部、選択トランジスタ110、増幅トランジスタ109、および電源VDDへの接続部が、連続した第3の活性領域上に形成されている。
 さらに、電荷蓄積部111が、これらとは別の第4の活性領域(不図示)上に形成されている。電荷蓄積部111の下部電極となる不純物領域が形成される第4の活性領域は、その上に誘電膜が配置され、さらにその上に上部電極が配置されるため、図5においては、上部電極だけが見えている。この上部電極の下に、下部電極が形成される第4の活性領域が配置されている。
 図5において、FD部107と、増幅トランジスタ109のゲート電極との間は、ゲート電極よりも上層に配置された配線によって接続されている。また、第1の活性領域に形成されるノード112の一部と、第2の活性領域に形成されるノード112の別の一部との間も、図5に記載の各ゲート電極よりも上層に配置された配線によって、接続されている。
 さらに、ノード113と、電荷蓄積部111の電荷蓄積部の上部電極との間も、図5に記載の各ゲート電極と電荷蓄積部111の上部電極よりも上層に配置された配線によって接続されている。
 図5に示した点線で囲まれた領域が、図4に記載の単位画素100の1画素分の領域となる。
 図6は、単位画素100に関わる平面レイアウト図であって、シリコン基板の第2の面における平面レイアウト図と、第1の面における平面レイアウト図を、重ねて記載した図である。図6には、第2の面に配置された、活性領域、光電変換部、画素トランジスタ、電荷蓄積部、およびこれらの間を接続する配線と、第1の面に配置された、光電変換部およびオンチップレンズの平面レイアウトを記載している。
 図6に示した点線で囲まれた領域が、図4に記載の単位画素100の1画素分の領域となる。
 図6において、第1光電変換部101と第2光電変換部102は、第2の面と第1の面とにおいて、同じ位置に配置されている。
 第1光電変換部101へ入射させる光を集光する第1オンチップレンズ151は、第1光電変換部101を覆うように配置されている。同様に、第2光電変換部102へ入射させる光を集光する第2オンチップレンズ152は、第2光電変換部102を覆うように配置されている。
 第1オンチップレンズ151と第2オンチップレンズ152を、どの程度の大きさにするかは、例えば、第1の面において、どの範囲の光を集光して光電変換部へ入射させるかということや、第2の面において、光電変換部、画素トランジスタ、電荷蓄積部がどれほどの大きさになり、それによって1画素の大きさや、画素をアレイ状に配置した場合の画素ピッチがどれほどの大きさになるかということなど、画素設計上の要因によって設定することができる。
 例えば、第1の面において、オンチップレンズが大き過ぎる場合には、撮像装置の解像度が低下すると共に、第2の面において、単位画素の構成要素が配置されない、無駄な領域が生じてしまう。一方、第1の面において、オンチップレンズが小さ過ぎる場合には、光電変換部へ入射する光が減少し、感度の悪い撮像装置となってしまう。このため、第1の面におけるオンチップレンズの大きさと、第2の面における単位画素の各構成要素の大きさは、無駄なく、高い感度と解像度が得られるように、適正に設計されることが好ましい。
 図6に記載の平面レイアウトは、画素設計の結果、第1オンチップレンズ151の直径を、画素ピッチと等しく出来、かつ、第1オンチップレンズ151が上下左右2個ずつ計4個配列され、その中央部の第1オンチップレンズ151が配置されない領域の内部に、第2オンチップレンズ152が収まるように、第2オンチップレンズ152の直径を設計した場合の図である。
 この場合、ある第1の画素に備わる第1オンチップレンズ151の中心aと、第1の画素に隣接する第2の画素に備わる第1オンチップレンズ151の中心bとの間の距離abと、
 第1の画素に備わる第1オンチップレンズ151の中心aと、第3の画素に備わる第2オンチップレンズ152の中心cとの間の距離acと、
 第2の画素に備わる第1オンチップレンズ151の中心bと、第3の画素に備わる第2オンチップレンズ152の中心cとの間の距離bcと、
 各画素に備わる第1オンチップレンズ151の半径r1と、
 各画素に備わる第2オンチップレンズ152の半径r2とは、以下の関係にある。
 距離ab = r1 × 2 ・・・(1)
 距離ac = 距離bc = 距離ab × √2 / 2 ・・・(2)
 r2 ≦ r1 × (√2 - 1) ・・・(3)
 式(1)より、距離abは、第1オンチップレンズ151の半径r1の2倍となり、その距離は、第1オンチップレンズ151の直径と同等となる。また、式(2)より、距離acと距離bcは、同距離となり、距離abにルート2を乗算した値を2で除算した値となる。すなわち、距離ac(距離bc)は、第1オンチップレンズ151の半径r1に、ルート2を乗算した値となる。式(3)より、第2オンチップレンズ152の半径r2は、式(1)と式(2)から導き出すことができ、ルート2から1を減算した値に半径r1を乗算した値以下となる。
 図7は、単位画素100に関わる平面レイアウト図であって、図6から、第1の面における第1光電変換部101、第2光電変換部102、第1オンチップレンズ151、および第2オンチップレンズ152の平面レイアウトを取り出して記載したものである。図7に示した点線で囲まれた領域が、図4に記載の単位画素100の1画素分の領域となる。
 図7においては、図6と同様に、第1オンチップレンズ151の直径を、画素ピッチと等しく、かつ、第1オンチップレンズ151が上下左右2個ずつ計4個配列され、その中央部の第1オンチップレンズ151が配置されない領域の内部に、第2オンチップレンズ152が収まるように、第2オンチップレンズ152の直径が設計されている。
 図8は、単位画素100に関わる平面レイアウト図であって、図7に記載の第1の面における第1光電変換部101、第2光電変換部102、第1オンチップレンズ151、および第2オンチップレンズ152の平面レイアウトに加えて、単位画素100の第1の面において、各画素の間に備わる、画素間遮光部181の平面レイアウトを記載したものである。
 画素間遮光部181は、隣接する画素への光の漏れ込みを防ぐために設けられている。画素間遮光部181は、ある画素の第1オンチップレンズ151と、これに隣接する画素の第1オンチップレンズ151が、最も近接する部分においては、これら2つのオンチップレンズの内側方向へ、それぞれ同じ幅を持って配置されている。
 また、画素間遮光部181は、第1オンチップレンズ151と第2オンチップレンズ152が、最も近接する部分においては、これら2つのオンチップレンズの内側方向へ、それぞれ同じ幅を持って配置されている。
 図9は、単位画素100に関わる平面レイアウト図であって、図8に記載の第1の面における第1光電変換部101、第2光電変換部102、第1オンチップレンズ151、第2オンチップレンズ152、画素間遮光部181の平面レイアウトに加えて、単位画素100の第1の面において、各画素に備わる、カラーフィルタ201の平面レイアウトを記載したものである。
 カラーフィルタ201は、ある画素の第1オンチップレンズ151と、これに隣接する画素の第1オンチップレンズ151が、最も近接する部分においては、これら2つのオンチップレンズの下に配置されている。
 また、カラーフィルタ201は、第1オンチップレンズ151と第2オンチップレンズ152が、最も近接する部分においても、これら2つのオンチップレンズの下に配置されている。
 図9に示したカラーフィルタ201は、RGBのベイヤー配列である場合を示している。例えば、図中左上に位置する第1光電変換部101-1と第2光電変換部102-1には、緑色(G)のカラーフィルタ201-1-1とカラーフィルタ201-2-1が、それぞれ配置されている。
 また、例えば、図中右上に位置する第1光電変換部101-2と第2光電変換部102-2には、青色(B)のカラーフィルタ201-1-2とカラーフィルタ201-2-2が、それぞれ配置されている。また、例えば、図中左下に位置する第1光電変換部101-3と第2光電変換部102-3には、赤色(R)のカラーフィルタ201-1-3とカラーフィルタ201-2-3が、それぞれ配置されている。
 さらに例えば、図中右下に位置する第1光電変換部101-4と第2光電変換部102-4には、緑色(G)のカラーフィルタ201-1-4とカラーフィルタ201-2-4が、それぞれ配置されている。
 このように、単位画素100を構成する第1光電変換部101と第2光電変換部102には、同色のカラーフィルタ201が配置される。
 {単位画素の断面}
 図10は、単位画素100に関わる断面の模式図であって、1画素内おいて、第1オンチップレンズ151と第2オンチップレンズ152とが最も近接する部分と、隣接する2画素において、ある画素の第2オンチップレンズ152と、これに隣接する画素の第1オンチップレンズ151とが最も近接する部分とを、繰り返し模式的に記載したものである。
 図10において、各画素は、第1光電変換部101、第2光電変換部102、これら光電変換部の上にそれぞれ配置された第1オンチップレンズ151、第2オンチップレンズ152、光電変換部とオンチップレンズとの間に配置されたカラーフィルタ201、光電変換部とカラーフィルタとの間に配置された、負の固定電荷を有する膜(いわゆるピニング膜231)、層間絶縁膜232、第1光電変換部101と第2光電変換部102の周囲に配置された画素間遮光部181と、を備えている。
 図10においては、横方向に左からR画素、G画素、およびB画素が配列されている例を示した。例えば、中央に位置するG画素を参照する。G画素は、支持基板273上に配線272が配置された配線層271が積層されている。配線層271上に第1光電変換部101-12と第2光電変換部102-12が形成されている。
 第1光電変換部101-12と第2光電変換部102-12は、それぞれ、Pウェル領域241と、その内部に形成されたn型不純物領域を含むフォトダイオードである。また、第1光電変換部101-12と配線層271との間には、P型のピニング領域233-12が形成され、第2光電変換部102-12と配線層271との間には、P型のピニング領域235-12が形成されている。
 第1光電変換部101-12と第2光電変換部102-12との間には、画素間遮光部181-4が形成され、第1光電変換部101-12から第2光電変換部102-12への光の漏れ込みと、第2光電変換部102-12から第1光電変換部101-12への光の漏れ込みを防ぐように構成されている。
 また、左側に隣接する画素(図10では、R画素)との間には、画素間遮光部181-3が形成され、左側に隣接するR画素からの光の漏れ込みを防ぎ、左側に隣接するR画素への光の漏れ込みを防ぐ構成とされている。
 同様に、右側に隣接する画素(図10では、B画素)との間には、画素間遮光部181-5が形成され、右側に隣接するB画素からの光の漏れ込みを防ぎ、右側に隣接するB画素への光の漏れ込みを防ぐ構成とされている。
 このような構成を有する画素の製法、特に図10に記載のオンチップレンズ151,152を、カラーフィルタ201上に形成する、製法について、図11を参照して説明する。
 工程S1において、公知の製法を用いて、半導体基板に、単位画素100に備わる、光電変換部(フォトダイオード)、画素トランジスタ、配線(図11ではいずれも不図示)、カラーフィルタ201や、CMOSイメージセンサ10に備わる周辺回路部が形成される。
 カラーフィルタ201が形成された半導体基板上に、オンチップレンズ151,152の材料、例えばエポキシ樹脂などの有機材料301が、層状に形成される。
 工程S2において、有機材料301が層上に形成された半導体基板上に、第2オンチップレンズ152を形成するためのレジストパターン302が形成される。
 工程S3において、レジストパターン302が形成された半導体基板上に、第1オンチップレンズ151を形成するための、レジストパターン303が形成される。
 工程S4において、レジストパターン303が形成された半導体基板に、形成されたレジストパターン302,303と、オンチップレンズの材料である有機材料301の層が、半導体基板全面に渡ってエッチバックされる。
 これらの製法によって、各画素に、第1オンチップレンズ151と第2オンチップレンズ152が形成される。
 図4乃至図11を用いて説明した構造と製法を用いて形成した単位画素100を備えたCMOSイメージセンサ10は、第1光電変換部101を用いて感度の高い画像を撮影すると共に、第2光電変換部102を用いてダイナミックレンジの広い画像を撮影する。
 これらの2枚の画像は、CMOSイメージセンサ10の内部に備わる画像信号処理回路、または、CMOSイメージセンサ10の外部に接続された画像信号処理装置において、画像信号処理を経て1枚の画像へと合成される。これにより、高い感度と広いダイナミックレンジの双方を備えた画像を撮影することができる、という作用効果がもたらされる。
 <第1の実施の形態の変形例>
 本技術を適用した第1の実施の形態の変形例を、図12乃至図16を用いて説明する。なお、特に断り書きが無い限り、第1の実施の形態の変形例と第1の実施の形態(図4乃至図10)とで、同じ構成部位については詳細な説明を省略する。
 図12乃至図16は、図4に記載の単位画素100の実施の形態を示す平面レイアウト図であって、図5乃至図9に記載の第1の実施の形態の変形例を示す図である。図12乃至図16は、第1の実施の形態と同様に、単位画素100が、いわゆる裏面照射型の撮像装置の構造を用いた場合の図である。
 このため、図12乃至図16に記載の裏面照射型の撮像装置は、第1の実施の形態と同様に、第1光電変換部101と第2光電変換部102が形成されたシリコン基板が、フォトダイオード(光電変換部)への光の入射面となる第1の面と、第1の面に対向する第2の面とを備える構造とされている。
 図12は、単位画素100に関わる、シリコン基板の第2の面における平面レイアウト図であって、単位画素100に備わる活性領域、光電変換部、画素トランジスタ、電荷蓄積部、およびこれらの間を接続する配線の、平面レイアウト図である。
 図12に示した第1の実施の形態の変形例に関する平面レイアウトと、図5に示した第1の実施の形態に関する平面レイアウトを比較する。図12に記載の第2光電変換部102’(図5に示した第2光電変換部102と区別するためにダッシュを付して記載する)は、図5に記載の第2光電変換部102よりも、フォトダイオードの受光面積が広いものとなっている。
 このため、ある照度の被写体を、ある露光時間で撮影した場合、図12に記載の第2光電変換部102’において発生する電荷は、図5に記載の第2光電変換部102において発生する電荷よりも多くなる。
 このため、図12に記載の第2光電変換部102’において発生した電荷と、図5に記載の第2光電変換部102において発生した電荷とを、同じ面積のFD部107へ転送して、それぞれ電荷―電圧変換すると、図12に記載の第2光電変換部102’で発生した電荷を、FD部107へ転送する前と後での電圧変化は、図5に記載の第2光電変換部102で発生した電荷を、FD部107へ転送する前と後での電圧変化よりも、大きい。
 これにより、図12に記載の第2光電変換部102’は、図5に記載の第2光電変換部102よりも、感度が高くなるという作用効果がもたらされる。
 次に図13に示した第1の実施の形態の変形例に関する平面レイアウトと、図6に示した第1の実施の形態に関する平面レイアウトを比較する。図13は、単位画素100に関わる平面レイアウト図であって、図6と同様に、シリコン基板の第2の面における平面レイアウト図と、第1の面における平面レイアウト図を、重ねて記載した図である。
 図13には、図6と同様に、第2の面に配置された、活性領域、光電変換部、画素トランジスタ、電荷蓄積部、およびこれらの間を接続する配線と、第1の面に配置された、光電変換部とオンチップレンズの、平面レイアウトを記載している。
 図13に示した平面レイアウトと図6に示した平面レイアウトを比較すると、図12に示した平面レイアウトを参照して説明したように、図13に記載の第2光電変換部102’は、図6に記載の第2光電変換部102よりも、フォトダイオードの受光面積が広いものとなっている。
 その結果、第2光電変換部102’へ入射させる光を集光するために、第2光電変換部102’を覆うように配置されている第2オンチップレンズ152’は、図6に記載の第2オンチップレンズ152よりも、大きいものとなっている。すなわち、図13に記載の第2オンチップレンズ152’の直径は、図6に記載の第2オンチップレンズ152の直径よりも、大きいものとなっている。
 第2オンチップレンズ152’の大きさが大きくなった代わりとして、図13に記載の第1オンチップレンズ151’の直径は、図6に記載の第1オンチップレンズ151の直径よりも、小さいものとなっている。
 その結果、図13に記載の平面レイアウトでは、画素設計の結果、第1オンチップレンズ151’と第2オンチップレンズ152’とが接して配置される。また、各画素に備わる第1オンチップレンズ151’と、隣接する画素に備わる第1オンチップレンズ151’との間には、オンチップレンズが配置されない空隙部が生じている。
 この場合、ある第1光電変換部101に備わる第1オンチップレンズ151’の中心dと、第1光電変換部101の画素に隣接する第1光電変換部101に備わる第1オンチップレンズ151’の中心eとの間の距離de、
 第1光電変換部101に備わる第1オンチップレンズ151’の中心dと、第2光電変換部102’に備わる第2オンチップレンズ152’の中心fとの間の距離df、
 第1光電変換部101に備わる第1オンチップレンズ151’の中心eと、第2光電変換部102’に備わる第2オンチップレンズ152’の中心fとの間の距離ef、
 各画素に備わる第1オンチップレンズ151’の半径r1’、
 各画素に備わる第2オンチップレンズ152’の半径r2’とは、以下の関係にある。
 距離de ≧ r1 ’× 2 ・・・(4)
 距離df = 距離ef = r1’ + r2’ = 距離de × √2 / 2 ・・・(5)
 r2’ ≧ r1’ × (√2 - 1) ・・・(6)
 式(4)より、距離deは、第1オンチップレンズ151’の半径r1’の2倍以上の距離、すなわち、第1オンチップレンズ151’の直径以上の距離となる。また、式(5)より、距離dfと距離efは、同距離となり、第1オンチップレンズ151’の半径r1’と第2オンチップレンズ152’の半径r2’を加算した距離となる。また距離dfと距離efは、距離deにルート2を乗算した値を2で除算した値となる。
 式(6)より、第2オンチップレンズ152’の半径r2’は、式(4)と式(5)から導き出すことができ、ルート2から1を減算した値に半径r1’を乗算した値以下となる。
 次に図14に示した第1の実施の形態の変形例に関する平面レイアウトと、図7に示した第1の実施の形態に関する平面レイアウトを比較する。図14は、単位画素100に関わる平面レイアウト図であって、図13から、第1の面における第1光電変換部101、第2光電変換部102’、第1オンチップレンズ151’、および第2オンチップレンズ152’の平面レイアウトを取り出して記載したものである。
 図14に示した点線で囲まれた領域が、図4に記載の単位画素100の1画素分の領域となる。図14においては、図13と同様に、第1オンチップレンズ151’と第2オンチップレンズ152’とが接して配置されている。各画素に備わる第1オンチップレンズ151’と、隣接する画素に備わる第1オンチップレンズ151’との間には、オンチップレンズが配置されない、空隙部が生じている。
 図15は、単位画素100に関わる平面レイアウト図であって、図8と同様にして、図14に記載の第1の面における第1光電変換部101、第2光電変換部102’、第1オンチップレンズ151’および第2オンチップレンズ152’の平面レイアウトに加えて、単位画素100の第1の面において、各画素の間に備わる、画素間遮光部181’の平面レイアウトを記載したものである。
 画素間遮光部181’は、ある画素の第1オンチップレンズ151’と、これに隣接する画素の第1オンチップレンズ151’が、最も近接する部分においては、これら2つのオンチップレンズの内側方向へ、それぞれ同じ幅を持って配置されている。
 また、画素間遮光部181’は、第1オンチップレンズ151’と第2オンチップレンズ152’が、最も近接する部分においては、これら2つのオンチップレンズの内側方向へ、それぞれ同じ幅を持って配置されている。
 図16は、単位画素100に関わる平面レイアウト図であって、図15に記載の第1の面における第1光電変換部101、第2光電変換部102’、第1オンチップレンズ151’、第2オンチップレンズ152’、画素間遮光部181’の平面レイアウトに加えて、単位画素100の第1の面において、各画素に備わる、カラーフィルタ201’の平面レイアウトを記載したものである。
 カラーフィルタ201’は、ある画素の第1オンチップレンズ151’と、これに隣接する画素の第1オンチップレンズ151’が、最も近接する部分においては、これら2つのオンチップレンズの下に配置されている。また、カラーフィルタ201’は、第1オンチップレンズ151’と第2オンチップレンズ152’が、最も近接する部分においても、これら2つのオンチップレンズの下に配置されている。
 第1の実施の形態の変形例においても、単位画素の断面構造は、図10に示した単位画素の断面構造と基本的に同様である。第2光電変換部102’、第1オンチップレンズ151’、第2オンチップレンズ152’の大きさなどは、上記したような大きさに構成されている点で異なるが、構造は基本的に同一である。
 また、第1オンチップレンズ151’と第2オンチップレンズ152’の形成は、図11を参照して説明したようにして形成することができる。
 図12乃至図16を用いて説明した構造を有する単位画素100を備えたCMOSイメージセンサ10は、図4乃至図11を用いて説明した構造を有する単位画素100を備えたCMOSイメージセンサ10と同様に、第1光電変換部101を用いて感度の高い画像を撮影すると共に、第2光電変換部102’を用いてダイナミックレンジの広い画像を撮影することができる。
 これらの2枚の画像は、CMOSイメージセンサ10の内部に備わる画像信号処理回路、または、CMOSイメージセンサ10の外部に接続された画像信号処理装置において、画像信号処理を経て1枚の画像へと合成される。これにより、高い感度と広いダイナミックレンジの双方を備えた画像を撮影することができる、という作用効果がもたらされる。
 <第2の実施の形態>
 次に、本技術を適用した第2の実施の形態について、図17乃至図19を参照して説明する。なお、特に断り書きが無い限り、第2の実施の形態と第1の実施の形態とで、同じ構成部位については詳細な説明を省略する。
 図4乃至図11を用いて説明した本技術を適用した第1の実施の形態における単位画素100は、第1光電変換部101と第2光電変換部102からなる2つの光電変換部を備え、
 (1)第1光電変換部101は、第2光電変換部102よりも、フォトダイオードの受光面積が広い構成とされており、これにより、第1光電変換部101は、感度の高い画像を撮影し、
 (2)第2光電変換部102は、高い照度の光が入射して第2光電変換部102の飽和電荷量を超える電荷が発生した場合でも、飽和電荷量を超えて発生した電荷を電荷蓄積部111へ蓄積する構造とされており、これにより、ダイナミックレンジの広い画像を撮影し、
 (3)第1光電変換部101を用いて撮影された感度の高い画像と、第2光電変換部102を用いて撮影された、ダイナミックレンジの広い画像と、の2枚の画像を1枚の画像へと合成する、
 ことにより、高い感度と広いダイナミックレンジの双方を備えた画像を撮影する撮像装置の技術であった。
 本技術を適用した第2の実施の形態は、第1の実施の形態に加えて、第2オンチップレンズ152に入射した光を、第2光電変換部102へ至る前に減光する手段をさらに備えるものである。
 このような減光する手段をさらに備えることにより、階調性を備えた画像を撮影できる被写体照度の範囲をさらに広げる、換言すれば、ダイナミックレンジをさらに広げた画像を撮影できる、という作用効果がもたらされる。
 第2オンチップレンズ152に入射した光を、第2光電変換部102へ至る前に減光する手段として、より具体的には、無彩色の光学フィルタで、光学フィルタを透過することで減光する、減光フィルタを備えるものである。
 第2の実施の形態における、単位画素100の構成を示す回路図は、第1の実施の形態における回路図と同じであり、図4を参照して説明したため、その説明は省略する。また、第2の実施の形態における、単位画素100の平面レイアウトは、減光フィルタが追加された以外は、図5乃至図9に記載の第1の実施の形態の平面レイアウトと基本的に同様であるため、その説明は適宜省略する。
 図17は、単位画素100に関わる平面レイアウト図であって、図9に記載した、第1の面における第1光電変換部101、第2光電変換部102、第1オンチップレンズ151、第2オンチップレンズ152、画素間遮光部181、およびカラーフィルタ201の平面レイアウトに加えて、第2光電変換部102の上方に配置された、減光フィルタ351の平面レイアウトを記載したものである。
 図17に記載の減光フィルタ351は、断面方向の構造上(例えば、図18を参照して後述する)は、第2オンチップレンズ152と、第2光電変換部102に備わるカラーフィルタ201-2との間に配置されている。また、図17に記載の減光フィルタ351は、より具体的には、無彩色の光学フィルタであって、光学フィルタを透過することで光を減光する、例えばグレーフィルタ(灰色フィルタ)である。
 なお、減光フィルタ351の色は、グレー(灰色)を一例として上げるが、可視光を均一に吸収できる色であれば他の色でもよい。
 図17における減光フィルタ351の平面レイアウトについて、より詳しく説明する。便宜上、図17において、図面と平行かつ図面の左右の方向にX軸、図面と平行かつ図面の上下の方向にY軸があるものとして説明する。
 図17において、各画素に備わる第1オンチップレンズ151は、その中心が、X軸方向とY軸方向との双方において、等間隔で並ぶように配列されている。各画素に備わる第2オンチップレンズ152の周囲には、4個の第1オンチップレンズ151が配置されている。1個の第2オンチップレンズ152の周囲に配置された4個の第1オンチップレンズ151の中心は、第2オンチップレンズ152の中心から、それぞれX軸に対して45°の角度となる位置に配置されている。
 図17において、第2オンチップレンズ152の周囲に、2点鎖線で記載した四角形は、各辺が、第2オンチップレンズ152とその周囲に配置された4個の第1オンチップレンズ151とが最も近接する領域をそれぞれ通過し、かつ各辺が、第2オンチップレンズ152の中心からその周囲に配置された4個の第1オンチップレンズ151の中心を結ぶ線分と直交するように配置されている。
 図17において、第2光電変換部102と、その周囲の4個の第1光電変換部101との間に配置された帯状の画素間遮光部181は、少なくともその一部において、帯状の幅方向の中心が、上記2点鎖線で記載された四角形の各辺と一致するように配置され、かつ、それぞれの辺の、少なくとも一部に沿って配置されている。
 図17において、第2光電変換部102の上方に配置された減光フィルタ351は、少なくとも第2オンチップレンズ152と第1オンチップレンズ151とが最も近接する領域においては、2点鎖線で記載された四角形の外側にまで延在されている。
 換言すれば、第2光電変換部102の上方に配置された減光フィルタ351は、少なくとも第2オンチップレンズ152と第1オンチップレンズ151とが最も近接する領域においては、第2光電変換部102と第1光電変換部101との間に配置された帯状の画素間遮光部181の幅方向の中心よりも、第1光電変換部101の方向へと延在されている。
 第1光電変換部101は、第2光電変換部102よりも感度が高い。このため、第1光電変換部101上に形成された第1オンチップレンズへ入射した光が、隣接する第2光電変換部102へと入射する混色が発生した場合の悪影響よりも、第2光電変換部102上に形成された第2オンチップレンズへ入射した光が、隣接する第1光電変換部101へと入射する混色が発生した場合の悪影響の方が、大きく現れる。
 第2光電変換部102と第1光電変換部101との間に配置された帯状の画素間遮光部181の幅方向の中心よりも、第1光電変換部101の方向へと、減光フィルタ351を延在させるレイアウトは、混色による悪影響がより大きく現れる、第2オンチップレンズ152から第1光電変換部101への混色を、低減する作用効果をもたらす。
 図18は、単位画素100に関わる断面の模式図であって、図10に示した構成に減光フィルタ351を追加した構成を示している。図18に示した単位画素100の断面構成も、図10に示した単位画素100の断面構造と同じく、1画素内おいて、第1オンチップレンズ151と第2オンチップレンズ152とが最も近接する部分と、隣接する2画素において、ある画素の第2オンチップレンズ152と、これに隣接する画素の第1オンチップレンズ151とが最も近接する部分とを繰り返し模式的に記載したものである。
 第2光電変換部102の上方に配置された減光フィルタ351は、第2オンチップレンズ152と第1オンチップレンズ151とが最も近接する領域においては、第2光電変換部102と第1光電変換部101との間に配置された帯状の画素間遮光部181の幅方向の中心よりも、第1光電変換部101の方向へと延在しているレイアウトとされている。
 例えば、第2光電変換部102-11上に配置されている減光フィルタ351-11は、第2オンチップレンズ152-11とカラーフィルタ201-11との間に形成されている。
 また、第2オンチップレンズ152-11と第1オンチップレンズ151-11とが最も近接する領域においては、第2光電変換部102-11と第1光電変換部101-11との間に配置された帯状の画素間遮光部181-2の幅方向の中心よりも、第1光電変換部101-11の方向へと延在しているレイアウトとされている。
 また、第2オンチップレンズ152-11と第1オンチップレンズ151-12とが最も近接する領域においては、第2光電変換部102-11と第1光電変換部101-12との間に配置された帯状の画素間遮光部181-3の幅方向の中心よりも、第1光電変換部101-12の方向へと延在しているレイアウトとされている。
 このように、第2オンチップレンズ152に入射した光を、第2光電変換部102へ至る前に減光する減光フィルタ351を備えることで、階調性を備えた画像を撮影できる被写体照度の範囲をさらに広げる、換言すれば、ダイナミックレンジをさらに広げた画像を撮影できる、という作用効果をもたらすことができる。
 <第2の実施の形態の変形例>
 第1の実施の形態と同じく、第2の実施の形態においても、第2光電変換部102を大きく構成する変形例を適用することができる。第1の実施の形態の変形例については、図12乃至図16を参照して説明したように、第2光電変換部102’の受光面積が大きくされた実施の形態である。特に断り書きが無い限り、第2の実施の形態の変形例と第2の実施の形態(第1の実施の形態の変形例)とで、同じ構成部位については詳細な説明を省略する。
 第2の実施の形態の変形例における、単位画素100の構成を示す回路は、図4と同じである。また、第2の実施の形態の変形例における、単位画素100の平面レイアウトは、減光フィルタ351’が追加された以外は、図12乃至図16に記載の、第1の実施の形態の変形例の平面レイアウトと同じである。第1光電変換部101以外は、大きさや形状が異なるため、第2の実施の形態における各部と区別するために第2の実施の形態の変更例における各部は、ダッシュを付して説明する。
 図19は、第2の実施の形態の変形例に係わる単位画素100に関わる平面レイアウト図であり、図16に記載した、第2の実施の形態の変形例に係わる単位画素100に関わる平面レイアウト図に、減光フィルタ351を追加した構成を示す図である。
 図19は、第1の面における第1光電変換部101、第2光電変換部102’、第1オンチップレンズ151’、第2オンチップレンズ152’、画素間遮光部181’、各画素に備わるカラーフィルタ201’の平面レイアウトに加えて、第2光電変換部102の上方に配置された、減光フィルタ351’の平面レイアウトを記載したものである。
 図19に記載の減光フィルタ351’は、図17に記載の減光フィルタ351と同様に、断面方向の構造上は、第2オンチップレンズ152’と、第2光電変換部102’に備わるカラーフィルタ201-2’と、の間に配置されている。
 また、図19に記載の減光フィルタ351’は、図17に記載の減光フィルタ351と同様に、無彩色の光学フィルタであって、光学フィルタを透過することで光を減光する、減光フィルタ351’である。
 図19においては、図17と同様に、各画素に備わる第1オンチップレンズ151’は、その中心が、X軸方向とY軸方向との双方において、等間隔で並ぶように配列されている。各画素に備わる第2オンチップレンズ152’の周囲には、4個の第1オンチップレンズ151’が配置されている。1個の第2オンチップレンズ152’の周囲に配置された4個の第1オンチップレンズ151’の中心は、第2オンチップレンズ152’の中心から、それぞれX軸に対して45°の角度となる位置に配置されている。
 図19において、第2オンチップレンズ152’の周囲に、2点鎖線で記載した四角形は、図17と同様に、各辺が、第2オンチップレンズ152’とその周囲に配置された4個の第1オンチップレンズ151’とが最も近接する領域をそれぞれ通過し、かつ各辺が、第2オンチップレンズ152’の中心からその周囲に配置された4個の第1オンチップレンズ151’の中心を結ぶ線分と直交するように配置されている。
 図19において、第2光電変換部102’と、その周囲の4個の第1光電変換部101との間に配置された帯状の画素間遮光部181’は、図17と同様に、少なくともその一部において、帯状の幅方向の中心が、2点鎖線で記載された四角形の各辺と一致するように配置され、かつ、それぞれの辺の、少なくとも一部に沿って配置されている。
 図19において、第2光電変換部102’の上方に配置された減光フィルタ351’は、図17と同様に、少なくとも第2オンチップレンズ152’と第1オンチップレンズ151’とが最も近接する領域においては、2点鎖線で記載された四角形の外側にまで延在されている。
 換言すれば、第2光電変換部102’の上方に配置された減光フィルタ351’は、少なくとも第2オンチップレンズ152’と第1オンチップレンズ151’とが最も近接する領域においては、第2光電変換部102’と第1光電変換部101との間に配置された帯状の画素間遮光部の幅方向の中心よりも、第1光電変換部101の方向へと延在されている。
 図19に示したレイアウトでも、図17に示したレイアウトと同じく、混色による悪影響がより大きく現れる、第2オンチップレンズ152’から第1光電変換部101への混色を、低減する作用効果を得られる。
 図19に示したレイアウトにおいても、図17に示したレイアウトと同様に、各画素に備わる第1オンチップレンズ151’と、隣接する画素に備わる第1オンチップレンズ151’との間には、オンチップレンズが配置されない、空隙部が生じている。そして、図19において、減光フィルタ351’は、2つの第1オンチップレンズ151’の間の空隙部の下方を避けるように、配置されている。
 図19に示したレイアウトにおいて、減光フィルタ351は、
 (1)少なくとも第2オンチップレンズ152’と第1オンチップレンズ151’とが最も近接する領域においては、第2光電変換部102’と第1光電変換部101との間に配置された帯状の画素間遮光部181’の幅方向の中心よりも、第1光電変換部101の方向へと延在して配置され、
 (2)隣接する2つの画素に備わる2つの第1オンチップレンズ151’の間のオンチップレンズが存在しない空隙部の下方を避けて配置されている。
 減光フィルタ351’を、上記のように配置することが好ましい理由を、図20と図21を用いて説明する。図20と図21は、オンチップレンズを形成するための製法のフロー図である。
 図20は、図19に示すように2個の第1オンチップレンズ151’の間に空隙部が存在して、かつ図19の記載と異なり、減光フィルタ351’を、図19に2点鎖線で記載した四角形の各頂点にまで延在させた単位画素100において、図11に記載のオンチップレンズ形成工程を用いた場合のフロー図である。
 図20左側上段の断面図は、オンチップレンズを形成するためのレジストパターンを形成した工程において、図19に記載のA-A′線における断面を表した図である。2つの第1オンチップレンズ151を形成するためのレジストパターン302の間に、オンチップレンズが配置されない空隙部が存在する。
 図20右側上段の断面図は、オンチップレンズを形成するためのレジストパターンを形成した工程において、図19に記載のB-B′線における断面図である。2つの第1オンチップレンズ151を形成するためのレジストパターン302の間に、第2オンチップレンズ152’を形成するためのレジストパターン302が配置されているため、オンチップレンズが配置されない空隙部は存在しない。
 図20右側上段に記載の、オンチップレンズを形成するためのレジストパターンを形成した基板を、ドライエッチング装置を用いて全面エッチバックすることで、オンチップレンズを形成すると、図20右側下段に記載の断面形状が得られる。
 図20右側下段に記載の断面図において、減光フィルタ351’の上方に、第2オンチップレンズ152’および第1オンチップレンズ151’が形成されており、減光フィルタ351’は露出していない。
 図20左側上段に記載の、オンチップレンズを形成するためのレジストパターンを形成した基板を、ドライエッチング装置を用いて全面エッチバックすることで、オンチップレンズを形成すると、図20左側下段に記載の断面形状が得られる。
 図20左側上段の断面図において、2つの第1オンチップレンズを形成するためのレジストパターンの間に、オンチップレンズを配置しない空隙部が存在するため、これをエッチバックすると、減光フィルタ351’が露出してしまい、かつ露出した減光フィルタ351’をエッチバックすることになる。
 減光フィルタ351’をドライエッチング装置でエッチバックすると、減光フィルタ351’中に含まれる含有物が、ドライエッチング装置のチャンバー内壁に付着してしまう可能性がある。減光フィルタ351’中に含まれる含有物は、例えば重金属である。このような含有物がドライエッチング装置のチャンバー内壁に付着してしまうと、ドライエッチング装置を用いて、オンチップレンズのエッチバック以外のドライエッチング処理を行う他の製品は、減光フィルタ351’の含有物で汚染されてしまう可能性がある。
 このため、オンチップレンズを形成するためのエッチバック処理において、減光フィルタ351’がエッチバックされないようにすることが望ましい。
 図21は、図19に示した減光フィルタ351’を形成する場合の製法のフロー図である。図19に示した減光フィルタ351’は、その頂点が図19に2点鎖線で記載した四角形よりも第2光電変換部102’側に後退した形状で形成されている。これにより減光フィルタ351’は、図19において、A-A’線が横切る部分を避けて形成されている。
 図21左側上段の断面図は、オンチップレンズを形成するためのレジストパターンを形成した工程において、図19に記載のA-A′線における断面を表した図である。2つの第1オンチップレンズ151’を形成するためのレジストパターン302の間に、オンチップレンズが配置されない空隙部が存在する。
 図21右側上段の断面図は、オンチップレンズを形成するためのレジストパターンを形成した工程において、図19に記載のB-B′線における断面図である。2つの第1オンチップレンズ151を形成するためのレジストパターン302の間に、第2オンチップレンズ152’を形成するためのレジストパターン302が配置されており、オンチップレンズが配置されない空隙部は存在しない。
 図21右側上段に記載の、オンチップレンズを形成するためのレジストパターン302を形成した基板を、ドライエッチング装置を用いて全面エッチバックすることで、オンチップレンズを形成すると、図21右側下段に記載の断面形状が得られる。
 図21右側下段に記載の断面図において、減光フィルタ351’の上方に、第2オンチップレンズ152’と第1オンチップレンズ151’が形成されており、減光フィルタ351’は露出していない。
 図21左側上段に記載の、オンチップレンズを形成するためのレジストパターン302を形成した基板を、ドライエッチング装置を用いて全面エッチバックすることで、オンチップレンズを形成すると、図21左側下段に記載の断面形状が得られる。
 図21左側上段の断面図において、2つの第1オンチップレンズ151’を形成するためのレジストパターン302の間の空隙部の下方には、減光フィルタ351’が配置されていないため、図21左側下段に記載の断面図においても、減光フィルタ351’が露出されたり、エッチバックされたりすることはない。
 このため、オンチップレンズの形成に用いるエッチバック装置において、オンチップレンズのエッチバック以外のドライエッチング処理を行う他の製品を、減光フィルタ351’の含有物によって汚染するようなことを防ぐことができる。
 このように、減光フィルタ351’を、隣接する2つの画素に備わる2つの第1オンチップレンズ151’の間の、オンチップレンズが存在しない空隙部の下方を避けて配置するレイアウトは、オンチップレンズの形成に用いるエッチバック装置において、オンチップレンズのエッチバック以外のエッチング処理を行う他の製品を、減光フィルタ351’の含有物によって汚染することを防ぐという、作用効果をもたらす。
 このような作用効果を得られる減光フィルタ351’の他の形状について説明する。以下に説明する図22乃至図24に示す減光フィルタ351’は、
 (1)少なくとも第2オンチップレンズと第1オンチップレンズとが最も近接する領域においては、第2光電変換部102と第1光電変換部101との間に配置された帯状の画素間遮光部の幅方向の中心よりも、第1光電変換部の方向へと延在して配置され、
 (2)隣接する2つの画素に備わる2つの第1オンチップレンズの間の、オンチップレンズが存在しない空隙部の下方を避けて配置されている。
 なお、図22乃至図24に示す平面レイアウトは、図19に示した平面レイアウトと基本的に同様であるが、符号にダッシュ(’)を付さずに説明を続ける。また、図19に示した平面レイアウトと基本的に同様なレイアウトを例に挙げて説明するが、図17に示した平面レイアウトに対しても、図22乃至図24を参照して説明することは適用できる。
 図22は、第2光電変換部102を覆う減光フィルタ351の形状が、四角形と略同一であって、かつ、四角形の頂点部分を内側方向へ後退させることで、隣接する2つの画素に備わる2つの第1オンチップレンズ151の間のオンチップレンズが存在しない空隙部へ、減光フィルタ351を配置しない形状とされている。
 図22に示したレイアウトにおいて、第2光電変換部102の上方に配置された減光フィルタ351は、図17や図19に示したレイアウトと同様に、少なくとも第2オンチップレンズ152と第1オンチップレンズ151とが最も近接する領域においては、2点鎖線で記載された四角形の外側にまで延在されている。
 換言すれば、第2光電変換部102の上方に配置された減光フィルタ351は、少なくとも第2オンチップレンズ152と第1オンチップレンズ151とが最も近接する領域においては、第2光電変換部102と第1光電変換部101との間に配置された帯状の画素間遮光部181の幅方向の中心よりも、第1光電変換部101の方向へと延在されている。
 図22に示したレイアウトにおいても、図19に示したレイアウトと同様に、各画素に備わる第1オンチップレンズ151と、隣接する画素に備わる第1オンチップレンズ151との間には、オンチップレンズが配置されない、空隙部が生じている。そして、図22において、減光フィルタ351は、2つの第1オンチップレンズ151の間の空隙部の下方を避けるように、配置されている。
 すなわち、図22に示した減光フィルタ351は、略四角形状とされているが、その頂点(角)は、円弧状に形成されており、オンチップレンズが存在しない空隙部へ、減光フィルタ351が延在しない形状とされている。
 図23は、第2光電変換部102を覆う減光フィルタ351の形状が、円形または楕円形であって、かつ、隣接する2つの画素に備わる2つの第1オンチップレンズの間のオンチップレンズが存在しない空隙部へ、減光フィルタ351を配置しないレイアウトとなっている。
 図23に示したレイアウトにおいて、第2光電変換部102の上方に配置された減光フィルタ351は、図17や図19に示したレイアウトと同様に、少なくとも第2オンチップレンズ152と第1オンチップレンズ151とが最も近接する領域においては、2点鎖線で記載された四角形の外側にまで延在されている。
 換言すれば、第2光電変換部102の上方に配置された減光フィルタ351は、少なくとも第2オンチップレンズ152と第1オンチップレンズ151とが最も近接する領域においては、第2光電変換部102と第1光電変換部101との間に配置された帯状の画素間遮光部181の幅方向の中心よりも、第1光電変換部101の方向へと延在されている。
 図23に示したレイアウトにおいても、図19に示したレイアウトと同様に、各画素に備わる第1オンチップレンズ151と、隣接する画素に備わる第1オンチップレンズ151との間には、オンチップレンズが配置されない、空隙部が生じている。そして、図23において、減光フィルタ351は、2つの第1オンチップレンズ151の間の空隙部の下方を避けるように、配置されている。
 すなわち、図23に示した減光フィルタ351は、略円形状または略楕円形状で形成され、オンチップレンズが存在しない空隙部へ、減光フィルタ351が延長しない形状とされている。
 図24は、第2光電変換部102を覆う減光フィルタ351の形状が、四角形と略同一であって、かつ、第2オンチップレンズ152と第1オンチップレンズ151とが近接する領域に、四角形の頂点部分を配置することで、隣接する2つの画素に備わる2つの第1オンチップレンズ151の間のオンチップレンズが存在しない空隙部へ、減光フィルタ351が配置されない形状とされている。
 図24に示したレイアウトにおいて、第2光電変換部102の上方に配置された減光フィルタ351は、図17や図19に示したレイアウトと同様に、少なくとも第2オンチップレンズ152と第1オンチップレンズ151とが最も近接する領域においては、2点鎖線で記載された四角形の外側にまで少なくとも一部が延在されている形状とされている。
 換言すれば、第2光電変換部102の上方に配置された減光フィルタ351は、少なくとも第2オンチップレンズ152と第1オンチップレンズ151とが最も近接する領域において、第2光電変換部102と第1光電変換部101との間に配置された帯状の画素間遮光部181の幅方向の中心よりも、第1光電変換部101の方向へと延在されている部分を有する形状とされている。
 図24に示したレイアウトにおいても、図19に示したレイアウトと同様に、各画素に備わる第1オンチップレンズ151と、隣接する画素に備わる第1オンチップレンズ151との間には、オンチップレンズが配置されない、空隙部が生じている。そして、図24において、減光フィルタ351は、2つの第1オンチップレンズ151の間の空隙部の下方を避けるように、配置されている。
 すなわち、図24に示した減光フィルタ351は、略四角形状で形成され、オンチップレンズが存在しない空隙部には、減光フィルタ351がない形状とされている。
 なお、図22乃至図24に示したレイアウトは、図19に示したレイアウトと同じく、2つの第1光電変換部101の間に空隙部があるレイアウト、換言すれば、第2光電変換部102の面積を大きくとったときのレイアウトを例に挙げて説明したが、図17に示したようなレイアウトに対しても適用できる。
 すなわち、図17に示したような、2つの第1光電変換部101の間に空隙部がないようなレイアウトに対して、図19、図22乃至図24に示した減光フィルタ351の形状や配置を適用することもできる。
 図19、図22乃至図24のいずれも、少なくとも第2オンチップレンズと第1オンチップレンズとが最も近接する領域において、減光フィルタ351が、第2光電変換部102と第1光電変換部101との間に配置された帯状の画素間遮光部181の幅方向の中心よりも、第1光電変換部101の方向へと延在されて配置されている。
 また図19、図22乃至図24のいずれも、オンチップレンズが存在しない空隙部には、減光フィルタ351がない形状とされている。
 これにより、混色による悪影響がより大きく現れる、第2オンチップレンズ152から第1光電変換部101への混色を、低減する作用効果と、オンチップレンズの形成に用いるエッチバック装置において、オンチップレンズのエッチバック以外のドライエッチング処理を行う他の製品を、減光フィルタ351の含有物によって汚染されるようなことを防ぐという、作用効果がもたらされる。
 <減光フィルタの配置位置>
 上記した第2の実施の形態においては、減光フィルタ351を備えたCMOSイメージセンサ10について説明し、減光フィルタ351が、断面方向の構造上は、カラーフィルタ201と第2オンチップレンズ152との間に配置されている場合を例に挙げて説明した。
 減光フィルタ351は、カラーフィルタ201と第2オンチップレンズ152との間に配置されている場合に限らず、図25乃至図27を参照して説明するような位置に配置されていても良い。
 図25乃至図27は、減光フィルタ351を用いるCMOSイメージセンサ10の変形例を示している。図25乃至図27の各図に示したCMOSイメージセンサ10の構成は、減光フィルタ351以外は、基本的に図10や図18に示したCMOSイメージセンサ10の構成と同様であるため、同様の符号を付し、その説明は省略する。
 図25に示したCMOSイメージセンサ10において、減光フィルタ351は、カラーフィルタ201の下側に配置され、カラーフィルタ201と画素間遮光部181の間に配置されている。
 このように、減光フィルタ351を、カラーフィルタ201の下側に配置した場合も、第2オンチップレンズ152を透過し、第2光電変換部102に入射される光は、減光フィルタ351を透過してきた光となるため、第2光電変換部102に入射される光は減光された光となる。よって、上記した場合と同じく、階調性を備えた画像を撮影できる被写体照度の範囲をさらに広げる、換言すれば、ダイナミックレンジをさらに広げた画像を撮影できる、という作用効果をもたらすことができる。
 図26に示したCMOSイメージセンサ10は、画素間遮光部181が形成されていない構成とされている。図26に示したCMOSイメージセンサ10は、図25に示したCMOSイメージセンサ10と基本的に同様の構成とされているが、図25に示したCMOSイメージセンサ10から、画素間遮光部181を削除した構成とされている点が異なる。
 図26に示したCMOSイメージセンサ10においても、減光フィルタ351は、カラーフィルタ201の下側に配置され、カラーフィルタ201と画素間遮光部181の間に配置されている。
 このように、減光フィルタ351を、カラーフィルタ201の下側に配置した場合も、第2オンチップレンズ152を透過し、第2光電変換部102に入射される光は、減光フィルタ351を透過してきた光となるため、第2光電変換部102に入射される光は減光された光となる。
 仮に、第2オンチップレンズ152からの光が、第2光電変換部102に隣接する第1光電変換部101に漏れ込んだとしても、その光は、減光フィルタ351で減光された光となっている。よって、仮に第1光電変換部101に光が漏れ込んだとしても、その影響は小さい。このようなことから、図26に示したように、画素間遮光部181を形成しない構成とした場合であっても、減光フィルタ351を備えることで、光の漏れ込みによる影響を抑制することができる。
 また、図示はしないが、カラーフィルタ201上に減光フィルタ351を形成した、例えば、図18に示したCMOSイメージセンサ10に、画素間遮光部181を形成しない構成を適用することも可能である。すなわち、画素間遮光部181が形成されていないCMOSイメージセンサ10であり、減光フィルタ351がカラーフィルタ201上に(カラーフィルタ201と第2オンチップレンズ152との間に)形成されているCMOSイメージセンサ10とすることも可能である。
 このような構成とした場合も、上記した場合と同じく、階調性を備えた画像を撮影できる被写体照度の範囲をさらに広げる、換言すれば、ダイナミックレンジをさらに広げた画像を撮影できる、という作用効果をもたらすことができる。
 上述した実施の形態においては、第1光電変換部101の感度と第2光電変換部102感度に差を設けるために、第1光電変換部101を、第2光電変換部102よりも、フォトダイオードの受光面積が広くする構成を例に挙げて説明した。また、第1光電変換部101の感度と第2光電変換部102感度の差をより大きくするために、減光フィルタ351を設ける例について説明した。
 減光フィルタ351を設け、第1光電変換部101の感度と第2光電変換部102感度に差を設ける構成に、CMOSイメージセンサ10をする場合、図27に示すような構成とすることもできる。
 図27に示したCMOSイメージセンサ10は、第1光電変換部101と第2光電変換部102のフォトダイオードの受光面積は等しく構成されている。また、第1光電変換部101と第2光電変換部102のフォトダイオードの受光面積は等しく構成されているため第1オンチップレンズ151と第2オンチップレンズ152も同等の大きさに構成されているなど、付随する部分に大きさの変更などはあるが、基本的な構成は、図25などに示したCMOSイメージセンサ10と同様の構成とされている。
 図27に示したCMOSイメージセンサ10においても、図25に示したCMOSイメージセンサ10と同じく、減光フィルタ351は、カラーフィルタ201の下側に配置され、カラーフィルタ201と画素間遮光部181の間に配置されている。
 このように、減光フィルタ351を、カラーフィルタ201の下側に配置した場合も、第2オンチップレンズ152を透過し、第2光電変換部102に入射される光は、減光フィルタ351を透過してきた光となるため、第2光電変換部102に入射される光は減光された光となる。
 よって、第1光電変換部101と第2光電変換部102のフォトダイオードの受光面積を等しく構成した場合であっても、減光フィルタ351を、第2光電変換部102に設けることで、第1光電変換部101の感度と第2光電変換部102感度に差を設けることができる。
 よって、図27に示したようなCMOSイメージセンサ10においても、上記した場合と同じく、階調性を備えた画像を撮影できる被写体照度の範囲をさらに広げる、換言すれば、ダイナミックレンジをさらに広げた画像を撮影できる、という作用効果をもたらすことができる。
 <第3の実施の形態>
 次に、本技術を適用した第3の実施の形態について説明する。本技術を適用した第3の実施の形態は、第1の実施の形態に加えて、第2の実施の形態と同様に、第2オンチップレンズ152に入射した光を、第2光電変換部102へ至る前に減光する手段を、さらに備えるものである。
 これにより、階調性を備えた画像を撮影できる被写体照度の範囲をさらに広げる、換言すれば、ダイナミックレンジをさらに広げた画像を撮影できる、という作用効果がもたらされる。
 第3の実施の形態では、第2オンチップレンズ152に入射した光を、第2光電変換部102へ至る前に減光する手段として、光を遮光する遮光部材を用いて、光が通過する光束の断面積を小さくする、光学絞りを備えるものである。
 なお、特に断り書きが無い限り、第3の実施の形態と第1の実施の形態とで、同じ構成部位については、同じ符号を付し、その詳細な説明を省略する。
 第3の実施の形態における、単位画素100の構成を示す回路図は、図4に示した回路図となる。また、第3の実施の形態における、単位画素100の実施の形態を示す平面レイアウトは、後述するように光学絞りが追加された以外(光学絞りに係わる部分以外)は、図5乃至図9に記載の、第1の実施の形態の平面レイアウトとなるため、その説明は省略する。
 図28は、第3の実施の形態における、単位画素100に関わる断面の模式図である。第3の実施の形態における単位画素100は、第1光電変換部101、第2光電変換部102、それらの光電変換部上にそれぞれ形成された第1オンチップレンズ151、第2オンチップレンズ152、光電変換部とオンチップレンズとの間に配置されたカラーフィルタ201を含む構造とされている。
 また、単位画素100の第1光電変換部101と第2光電変換部102は、それぞれPウェルのシリコン基板241内に、n型不純物領域として形成され、第1光電変換部101の下側には、P型のピニング領域233が形成され、第2光電変換部102の下側には、P型のピニング領域235が形成されている。
 また、シリコン基板241の下側には、図示していない配線層や支持基板なども配置されている。また、シリコン基板241の上側であり、カラーフィルタ201との間には、負の電荷を持った膜(ピニング膜231)と絶縁膜232が形成されている。さらに、絶縁膜232とカラーフィルタ201との間には、平坦化膜401が形成されており、この平坦化膜401内に、光学絞りを実現するための遮光膜411、遮光膜412が形成されている。
 なお、平坦化膜401は、絶縁膜232と同一の材料で形成することができ、絶縁膜232として形成されていても良い。
 このように、第3の実施の形態における単位画素100は、第1光電変換部101と第1オンチップレンズ151との間に、遮光膜411を備え、第2光電変換部102と第2オンチップレンズ152との間に、遮光膜412を備える構成とされている。
 第1光電変換部101上に設けられている遮光膜411は、主に隣接する第2光電変換部102(第2オンチップレンズ152)からの光の漏れ込みを防ぎ、第2光電変換部102への光の漏れ込みを防ぐ機能を有する。
 同様に、第2光電変換部102上に設けられている遮光膜412も、隣接する第1光電変換部101(第1オンチップレンズ151)からの光の漏れ込みを防ぎ、第1光電変換部101への光の漏れ込みを防ぐ機能を有する。
 さらに、第2光電変換部102上に設けられている遮光膜412は、第2光電変換部102への光の入射を制限する機能、換言すれば、減光する機能を有する。このように、遮光膜411と遮光膜412は、異なる機能を有しているため、特に、遮光膜412は、第2光電変換部102に入射する光量を制限する機能を有するため、適宜、光学絞り412とも記載する。
 このように、第3の実施の形態における単位画素100は、図28に示したように、第2光電変換部102と、第2光電変換部102の上方に形成したカラーフィルタ201との間に、光学絞り412を備えている。
 光学絞り412は、光を遮光する遮光部材を用いて、絞りを通過する光束の断面積を小さくする、光学部品である。光学絞り412は、図10に示した単位画素100の画素間遮光部181の一部を構成する部材として形成されていても良い。すなわち、画素間遮光部181のように、画素間にも設けられ(図10に示したようにT字型に形成され)、その一部(図中横方向に形成される帯状の部分)を、光学絞り412としても良い。このような構成は、第1光電変換部101に設けられる遮光膜411に対しても適用できる。
 遮光膜411と光学絞り412は、それぞれ第1光電変換部101と第2光電変換部102の周囲に配置した、画素間遮光部181(図10)と同じ材料で形成しても良い。あるいは、遮光膜411と光学絞り412は、画素間遮光部181とは異なる材料を用いて形成されても良い。
 第3の実施の形態においては、第1オンチップレンズ151に入射した光が、第1光電変換部101へ至る前に、遮光膜411によって遮光される割合よりも、第2オンチップレンズ152に入射した光が、第2光電変換部102へ至る前に、光学絞り412によって遮光される割合を、大きくする構成とされている。
 図28に示したように、第2光電変換部102の平面積に対して、第2光電変換部102上に光学絞り412(遮光材)が配置された面積の割合は、第1光電変換部101の平面積に対して、第1光電変換部101上に遮光膜411(遮光材)が配置された面積の割合よりも、大きくなっている。
 これにより、第1光電変換部101は、高い感度で画像を撮影する特性を保持しつつ、第2光電変換部102は、光学絞り412を備えない場合と比較して、より広い照度範囲に渡って、階調性を備えた画像を撮影することができる、換言すれば、ダイナミックレンジのより広い画像を撮影することができる、という作用効果がもたらされる。
 図29は、図28に示した第3の実施の形態における単位画素100に関わる平面レイアウト図である。また図29に示した単位画素100の平面レイアウトは、図6に示した第1の実施の形態における単位画素100の平面レイアウトに、遮光膜411、光学絞り412を追加したレイアウトである。
 図29に示した単位画素100の平面レイアウトは、第1の面における第1光電変換部101、第2光電変換部102、第1オンチップレンズ151、第2オンチップレンズ152の平面レイアウトに加えて、第2光電変換部102の上方に配置された、光学絞り412の平面レイアウトを記載したものである。
 図29において、光学絞り412は、第2光電変換部102の上方に配置されている。また、図29において、第2光電変換部102の平面積に対して、第2光電変換部102上に光学絞り412(遮光材)が配置された面積の割合は、第1光電変換部101の平面積に対して、第1光電変換部101上に遮光膜411(遮光材)が配置された面積の割合よりも、大きくなっている。
 これにより、第1光電変換部101は、高い感度で画像を撮影する特性を保持しつつ、第2光電変換部102は、光学絞り412を備えない場合と比較して、より広い照度範囲に渡って、階調性を備えた画像を撮影することができる、換言すれば、ダイナミックレンジのより広い画像を撮影することができる。
 図29に示した光学絞り412の外周部分の形状は、第2光電変換部102の外縁に沿うように配置される形状とされている。また図29に示した光学絞り412の開口形状は、第2光電変換部102の外縁の形状を縮小した形状と略同一の形状とされている。
 光学絞り412の形状は、図29に示したような形状に限られるわけではなく、他の形状であっても良い。例えば、図30に示すような形状であっても良い。
 図30は、光学絞り412の平面レイアウトの変形例を示している。図30は、図29と同様に、第1の面における第1光電変換部101、第2光電変換部102、第1オンチップレンズ151、第2オンチップレンズ152の平面レイアウトに加えて、第2光電変換部102の上方に配置された、光学絞り412’の平面レイアウトを記載したものである。
 図30に示した光学絞り412’の外周部分の形状は、図29に示した光学絞り412の外周部分の形状と同じく、第2光電変換部102の外縁に沿うように配置される形状とされている。図30に示した光学絞り412’の開口形状は、略円形の形状とされている。
 光学絞り412’の平面レイアウトを、図30に記載の形状にしても、図29に記載の光学絞り412と同様の作用効果がもたらされる。
 図31は、光学絞り412の平面レイアウトのさらに他の変形例を示している。図31は、図29と同様に、第1の面における第1光電変換部101、第2光電変換部102、第1オンチップレンズ151、第2オンチップレンズ152の平面レイアウトに加えて、第2光電変換部102の上方に配置された、光学絞り412”の平面レイアウトを記載したものである。
 光学絞り412”は、必ずしも遮光材を第2光電変換部102の外縁全周に渡って配置しなくても良く、その一例を、図31に示す。図31に示した光学絞り412”の形状は、第2光電変換部102の外縁の一部において、遮光材が配置されていない形状とされている。また図31に示した光学絞り412”の形状は、第2光電変換部102の外縁に配置された遮光材の幅が、必ずしも一定の幅でない形状とされている。
 図31に示した光学絞り412”の形状は、中央部分に四角形状の開口部分が設けられ、両端にそれぞれ四角形状の遮光材が配置された形状とされている。
 図31に示したような光学絞り412”の形状が、第2光電変換部102の外縁の一部において配置されていなくても、また、光学絞り412”の幅が、一定の幅でなくても、第2光電変換部102の平面積に対して、第2光電変換部102上に光学絞り412”すなわち遮光材が配置された面積の割合が、第1光電変換部101の平面積に対して、第1光電変換部101上に遮光膜411すなわち遮光材が配置された面積の割合よりも、大きくなっていれば、図29に記載の光学絞り412を設けた場合と同様の作用効果をもたらすことが可能である。
 <第4の実施の形態>
 第2の実施の形態、第3の実施の形態においては、減光フィルタ351を設けたり、光学絞り412を設けたりすることで、第1光電変換部101の感度と第2光電変換部102の感度の差をより大きくする構造とすることについて説明した。
 第4の実施の形態とし、オンチップレンズの形状を変えることで、第1光電変換部101の感度と第2光電変換部102の感度の差をより大きくする構造について説明する。
 図32乃至図34は、第4の実施の形態における単位画素100の構成を示す図である。図32乃至図34に示した単位画素100の構成は、基本的に、例えば、図10や図28に示した単位画素100と同様の構成であるため、同一の部分には、同一の符号を付し、その説明は省略する。
 図32乃至図34は、第4の実施の形態における単位画素100においては、第2光電変換部102上に配置されている第2オンチップレンズ152の形状が、下側に凸型の形状、換言すれば凹型の形状の第2オンチップレンズ501とされている。
 図32を参照するに、第2光電変換部102上には、凹型の形状の第2オンチップレンズ501が形成されている。第2オンチップレンズ501を、凹型の形状とすることで、第2光電変換部102に入射される光の光量を少なくすること、換言すれば、減光することができる。
 よって、第1乃至第3の実施の形態と同じく、第1光電変換部101の感度と第2光電変換部102の感度に差を設けることが可能になる。また、第2の実施の形態、第3の実施の形態と同じく、第1光電変換部101の感度と第2光電変換部102感度の差をより大きくすることができる。
 このような構成とした場合も、上記した場合と同じく、階調性を備えた画像を撮影できる被写体照度の範囲をさらに広げる、換言すれば、ダイナミックレンジをさらに広げた画像を撮影できる、という作用効果をもたらすことができる。
 また、このような構成とすると、リップルの発生を抑制できるようになるという作用効果も得られる。
 図32を再度参照するに、凹型の形状の第2オンチップレンズ501を形成した場合、第2オンチップレンズ501を入射した光は、発散してしまう傾向にあり、その為に、第2光電変換部102に入射される光を減光することができるが、一方で隣接する第1光電変換部101に発散した光が入射されてしまう可能性もある。
 そこで、そのような光の漏れ込みを防ぐために、光電変換部間に遮光部521乃至523を設ける。図32に示した単位画素100においては、第1光電変換部101と第2光電変換部102との間に遮光部521乃至523が配置されている。遮光部521乃至523を設けることで、第2オンチップレンズ501を透過し、発散してしまった光を、遮光部521乃至523で遮光することができるため、第1光電変換部101に光が漏れ込むようなことを防ぐことができる。
 この遮光部521乃至523に、例えば、第3の実施の形態として説明した遮光膜411や光学絞り412(例えば、図28)を適用することも可能である。また、第2の実施の形態として説明した減光フィルタ351を、第2の実施の形態と同じく、カラーフィルタ201の上側または下側に形成した構成とすることも可能である。すなわち、第2乃至第4の実施の形態は組み合わせて適用することができる。
 図33は、凹型の形状の第2オンチップレンズ501を備えた単位画素100の他の構成を示す図である。図33に示した単位画素100は、図32に示した単位画素100に、遮光部521乃至523として、画素間遮光部181を追加した構成とされている。
 画素間遮光部181と同様の形状を有する遮光部521乃至523を追加した構成とすることで、第2オンチップレンズ501を透過し、発散した光を、画素間遮光部181で遮光することができるため、第1光電変換部101への光の漏れ込みを、より防ぐことが可能となる。
 図34は、凹型の形状の第2オンチップレンズ501を備えた単位画素100の他の構成を示す図である。図34に示した単位画素100は、図33に示した単位画素100から、平坦化膜401を削除した構成とされている。また、平坦化膜401を削除したことにより、画素間遮光部181(遮光部521乃至523)は、カラーフィルタ201内(層間絶縁膜232上)に形成されている。
 平坦化膜401を削除した構成とすることで、第2オンチップレンズ501と第2光電変換部102までの距離が短くなる。第2オンチップレンズ501と第2光電変換部102までの距離が短くなることで、第2オンチップレンズ501を透過後に発散し、第1光電変換部101に入射されてしまう光を少なくさせることが可能となる。また、図33に示した単位画素100と同じく、画素間遮光部181(遮光部521乃至523)を設けることで、第1光電変換部101への光の漏れ込みを、より防ぐことが可能となる。
 第1オンチップレンズ151と、第2オンチップレンズ501は、同一の材料で構成しても良いし、異なる材料で構成しても良い。また、材料としては、屈折率の高い材料、例えば、無機材料SiN(窒化ケイ素、シリコンナイトライド)などを用いることができる。
 第4の実施の形態においても、第1光電変換部101を用いて感度の高い画像を撮影すると共に、第2光電変換部102を用いてダイナミックレンジの広い画像を撮影することができる。
 これらの2枚の画像は、CMOSイメージセンサ10の内部に備わる画像信号処理回路、または、CMOSイメージセンサ10の外部に接続された画像信号処理装置において、画像信号処理を経て1枚の画像へと合成される。これにより、高い感度と広いダイナミックレンジの双方を備えた画像を撮影することができる、という作用効果がもたらされる。
 <カラーフィルタの色配置について>
 上述した実施の形態においては、カラーフィルタ201の色配置として、例えば、図35のAに示したようなRGBのベイヤー配列を例に挙げて説明した。図35のAに示したカラーフィルタ201は、上下左右2×2個の画素を繰り返し単位として、繰り返し単位において、G(緑色)/R(赤色)/G(緑色)/B(青色)のカラーフィルタが、いわゆるベイヤ―配列に配列されている。
 本技術は、このような色配置のCMOSイメージセンサ10に適用範囲が限定されるのではなく、他の色配置に対しても適用可能である。例えば、図35のBに示すような、カラーフィルタ201が、上下左右2×2個の画素を繰り返し単位として、繰り返し単位において、R(赤色)/G(緑色)/B(青色)/C(透明)のカラーフィルタが配列されていても良い。
 また図35のCに示すように、カラーフィルタ201が、上下左右2×2個の画素を繰り返し単位として、繰り返し単位において、R(赤色)/C(透明)/C(透明)/C(透明)のカラーフィルタが配列されていても良い。
 さらに図示はしない他の色配置であっても、本技術を適用することは可能である。
 図4に記載の単位画素100を、複数個アレイ状に配置した画素アレイにおいて、それぞれの単位画素100が備えるカラーフィルタ201の配列として、これらいずれのカラーフィルタの配列を用いても、第1光電変換部101は、高い感度で画像を撮影する特性を保持しつつ、第2光電変換部102は、減光フィルタ351や光学絞り412を備えない場合と比較して、より広い照度範囲に渡って、階調性を備えた画像を撮影することができる、換言すれば、ダイナミックレンジのより広い画像を撮影することができる、という作用効果を得ることができる。
 <撮像装置の使用例>
 {撮像装置}
 図36は、本技術を適用した電子機器の一例である撮像装置(カメラ装置)1000の構成例を示すブロック図である。
 図36に示すように、撮像装置1000は、レンズ群1001などを含む光学系、撮像素子1002、カメラ信号処理部であるDSP回路1003、フレームメモリ1004、表示装置1005、記録装置1006、操作系1007、及び、電源系1008等を有している。そして、DSP回路1003、フレームメモリ1004、表示装置1005、記録装置1006、操作系1007、及び、電源系1008が、バスライン1009を介して相互に接続された構成となっている。
 レンズ群1001は、被写体からの入射光(像光)を取り込んで撮像素子1002の撮像面上に結像する。撮像素子1002は、レンズ群1001によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。
 表示装置1005は、液晶表示装置や有機EL(electro luminescence)表示装置等のパネル型表示装置から成り、撮像素子1002で撮像された動画または静止画を表示する。記録装置1006は、撮像素子1002で撮像された動画または静止画を、メモリカードやビデオテープやDVD(Digital Versatile Disk)等の記録媒体に記録する。
 操作系1007は、ユーザによる操作の下に、本撮像装置1000が持つ様々な機能について操作指令を発する。電源系1008は、DSP回路1003、フレームメモリ1004、表示装置1005、記録装置1006、及び、操作系1007の動作電源となる各種の電源を、これら供給対象に対して適宜供給する。
 このような撮像装置1000は、ビデオカメラやデジタルスチルカメラ、更には、スマートフォン、携帯電話機等のモバイル機器向けカメラモジュールに適用される。そして、この撮像装置1000において、撮像素子1002として、上述した各実施形態に係る撮像装置を用いることができる。これにより、撮像装置1000の画質を向上させることができる。
 {内視鏡システムの構成}
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。またここでは、内視鏡手術システムを例に挙げて説明をするが、本技術は、外科手術システム、顕微鏡下手術システムなどにも適用できる。
 図37は、本開示に係る技術が適用され得る内視鏡手術システム2000の概略的な構成の一例を示す図である。図37では、術者(医師)2071が、内視鏡手術システム2000を用いて、患者ベッド2073上の患者2075に手術を行っている様子が図示されている。図示するように、内視鏡手術システム2000は、内視鏡2020と、その他の術具2030と、内視鏡2020を支持する支持アーム装置2040と、内視鏡下手術のための各種の装置が搭載されたカート2050と、から構成される。
 内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ2037a~2037dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ2037a~2037dから、内視鏡2020の鏡筒2021や、その他の術具2030が患者2075の体腔内に挿入される。図示する例では、その他の術具2030として、気腹チューブ2031、エネルギー処置具2033及び鉗子2035が、患者2075の体腔内に挿入されている。また、エネルギー処置具2033は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具2030はあくまで一例であり、術具2030としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
 内視鏡2020によって撮影された患者2075の体腔内の術部の画像が、表示装置2053に表示される。術者2071は、表示装置2053に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具2033や鉗子2035を用いて、例えば患部を切除する等の処置を行う。なお、気腹チューブ2031、エネルギー処置具2033及び鉗子2035は、手術中に、術者2071又は助手等によって支持される。
 (支持アーム装置)
 支持アーム装置2040は、ベース部2041から延伸するアーム部2043を備える。図示する例では、アーム部2043は、関節部2045a、2045b、2045c、及びリンク47a、47bから構成されており、アーム制御装置2057からの制御により駆動される。アーム部2043によって内視鏡2020が支持され、その位置及び姿勢が制御される。これにより、内視鏡2020の安定的な位置の固定が実現され得る。
 (内視鏡)
 内視鏡2020は、先端から所定の長さの領域が患者2075の体腔内に挿入される鏡筒2021と、鏡筒2021の基端に接続されるカメラヘッド2023と、から構成される。図示する例では、硬性の鏡筒2021を有するいわゆる硬性鏡として構成される内視鏡2020を図示しているが、内視鏡2020は、軟性の鏡筒2021を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒2021の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡2020には光源装置2055が接続されており、当該光源装置2055によって生成された光が、鏡筒2021の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者2075の体腔内の観察対象に向かって照射される。なお、内視鏡2020は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド2023の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)2051に送信される。なお、カメラヘッド2023には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
 なお、例えば立体視(3D表示)等に対応するために、カメラヘッド2023には撮像素子が複数設けられてもよい。この場合、鏡筒2021の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。
 (カートに搭載される各種の装置)
 CCU2051は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡2020及び表示装置2053の動作を統括的に制御する。具体的には、CCU2051は、カメラヘッド2023から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU2051は、当該画像処理を施した画像信号を表示装置2053に提供する。また、CCU2051は、カメラヘッド2023に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。
 表示装置2053は、CCU2051からの制御により、当該CCU2051によって画像処理が施された画像信号に基づく画像を表示する。内視鏡2020が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置2053としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置2053として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置2053が設けられてもよい。
 光源装置2055は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡2020に供給する。
 アーム制御装置2057は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置2040のアーム部2043の駆動を制御する。
 入力装置2059は、内視鏡手術システム2000に対する入力インタフェースである。ユーザは、入力装置2059を介して、内視鏡手術システム2000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置2059を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置2059を介して、アーム部2043を駆動させる旨の指示や、内視鏡2020による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具2033を駆動させる旨の指示等を入力する。
 入力装置2059の種類は限定されず、入力装置2059は各種の公知の入力装置であってよい。入力装置2059としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ2069及び/又はレバー等が適用され得る。入力装置2059としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置2053の表示面上に設けられてもよい。
 あるいは、入力装置2059は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置2059は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。
 更に、入力装置2059は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置2059が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者2071)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
 処置具制御装置2061は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具2033の駆動を制御する。気腹装置2063は、内視鏡2020による視野の確保及び術者の作業空間の確保の目的で、患者2075の体腔を膨らめるために、気腹チューブ2031を介して当該体腔内にガスを送り込む。レコーダ2065は、手術に関する各種の情報を記録可能な装置である。プリンタ2067は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 以下、内視鏡手術システム2000において特に特徴的な構成について、更に詳細に説明する。
 (支持アーム装置)
 支持アーム装置2040は、基台であるベース部2041と、ベース部2041から延伸するアーム部2043と、を備える。図示する例では、アーム部2043は、複数の関節部2045a、2045b、2045cと、関節部2045bによって連結される複数のリンク2047a、2047bと、から構成されているが、図37では、簡単のため、アーム部2043の構成を簡略化して図示している。
 実際には、アーム部2043が所望の自由度を有するように、関節部2045a~2045c及びリンク2047a、2047bの形状、数及び配置、並びに関節部2045a~2045cの回転軸の方向等が適宜設定され得る。例えば、アーム部2043は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部2043の可動範囲内において内視鏡2020を自由に移動させることが可能になるため、所望の方向から内視鏡2020の鏡筒2021を患者2075の体腔内に挿入することが可能になる。
 関節部2045a~2045cにはアクチュエータが設けられており、関節部2045a~2045cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置2057によって制御されることにより、各関節部2045a~2045cの回転角度が制御され、アーム部2043の駆動が制御される。これにより、内視鏡2020の位置及び姿勢の制御が実現され得る。この際、アーム制御装置2057は、力制御又は位置制御等、各種の公知の制御方式によってアーム部2043の駆動を制御することができる。
 例えば、術者2071が、入力装置2059(フットスイッチ2069を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置2057によってアーム部2043の駆動が適宜制御され、内視鏡2020の位置及び姿勢が制御されてよい。当該制御により、アーム部2043の先端の内視鏡2020を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部2043は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部2043は、手術室から離れた場所に設置される入力装置2059を介してユーザによって遠隔操作され得る。
 また、力制御が適用される場合には、アーム制御装置2057は、ユーザからの外力を受け、その外力にならってスムーズにアーム部2043が移動するように、各関節部2045a~2045cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部2043に触れながらアーム部2043を移動させる際に、比較的軽い力で当該アーム部2043を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡2020を移動させることが可能となり、ユーザの利便性を向上させることができる。
 ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡2020が支持されていた。これに対して、支持アーム装置2040を用いることにより、人手によらずに内視鏡2020の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
 なお、アーム制御装置2057は必ずしもカート2050に設けられなくてもよい。また、アーム制御装置2057は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置2057は、支持アーム装置2040のアーム部2043の各関節部2045a~2045cにそれぞれ設けられてもよく、複数のアーム制御装置2057が互いに協働することにより、アーム部2043の駆動制御が実現されてもよい。
 (光源装置)
 光源装置2055は、内視鏡2020に術部を撮影する際の照射光を供給する。光源装置2055は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置2055において撮像画像のホワイトバランスの調整を行うことができる。
 また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド2023の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置2055は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド2023の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置2055は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。
 あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注すると共に当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置2055は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 (カメラヘッド及びCCU)
 図38を参照して、内視鏡2020のカメラヘッド2023及びCCU2051の機能についてより詳細に説明する。図38は、図37に示すカメラヘッド2023及びCCU2051の機能構成の一例を示すブロック図である。
 図38を参照すると、カメラヘッド2023は、その機能として、レンズユニット2025、撮像部2027、駆動部29、通信部2026、およびカメラヘッド制御部2028を有する。また、CCU2051は、その機能として、通信部2081、画像処理部2083、および制御部2085を有する。カメラヘッド2023とCCU2051とは、伝送ケーブル2091によって双方向に通信可能に接続されている。
 まず、カメラヘッド2023の機能構成について説明する。レンズユニット2025は、鏡筒2021との接続部に設けられる光学系である。鏡筒2021の先端から取り込まれた観察光は、カメラヘッド2023まで導光され、当該レンズユニット2025に入射する。レンズユニット2025は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット2025は、撮像部2027の撮像素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。
 撮像部2027は撮像素子によって構成され、レンズユニット2025の後段に配置される。レンズユニット2025を通過した観察光は、当該撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部2027によって生成された画像信号は、通信部2026に提供される。
 撮像部2027を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。
 この撮像部2027として、上述した各実施形態に係る撮像装置を用いることができる。これにより、撮像部2027のダイナミックレンジを拡大し、画質を向上させることができる。
 なお、当該撮像素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者2071は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
 また、撮像部2027を構成する撮像素子は、3D表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成される。3D表示が行われることにより、術者2071は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部2027が多板式で構成される場合には、各撮像素子に対応して、レンズユニット2025も複数系統設けられる。
 また、撮像部2027は、必ずしもカメラヘッド2023に設けられなくてもよい。例えば、撮像部2027は、鏡筒2021の内部に、対物レンズの直後に設けられてもよい。
 駆動部29は、アクチュエータによって構成され、カメラヘッド制御部2028からの制御により、レンズユニット2025のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部2027による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部2026は、CCU2051との間で各種の情報を送受信するための通信装置によって構成される。通信部2026は、撮像部2027から得た画像信号をRAWデータとして伝送ケーブル2091を介してCCU2051に送信する。この際、術部の撮像画像を低レイテンシで表示するために、当該画像信号は光通信によって送信されることが好ましい。
 手術の際には、術者2071が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部2026には、電気信号を光信号に変換する光電変換モジュールが設けられる。画像信号は当該光電変換モジュールによって光信号に変換された後、伝送ケーブル2091を介してCCU2051に送信される。
 また、通信部2026は、CCU2051から、カメラヘッド2023の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部2026は、受信した制御信号をカメラヘッド制御部2028に提供する。
 なお、CCU2051からの制御信号も、光通信によって伝送されてもよい。この場合、通信部2026には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は当該光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部2028に提供される。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU2051の制御部2085によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡2020に搭載される。
 カメラヘッド制御部2028は、通信部2026を介して受信したCCU2051からの制御信号に基づいて、カメラヘッド2023の駆動を制御する。例えば、カメラヘッド制御部2028は、撮像画像のフレームレートを指定する旨の情報及び/又は撮像時の露光を指定する旨の情報に基づいて、撮像部2027の撮像素子の駆動を制御する。また、例えば、カメラヘッド制御部2028は、撮像画像の倍率及び焦点を指定する旨の情報に基づいて、駆動部29を介してレンズユニット2025のズームレンズ及びフォーカスレンズを適宜移動させる。カメラヘッド制御部2028は、更に、鏡筒2021やカメラヘッド2023を識別するための情報を記憶する機能を備えてもよい。
 なお、レンズユニット2025や撮像部2027等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド2023について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
 次に、CCU2051の機能構成について説明する。通信部2081は、カメラヘッド2023との間で各種の情報を送受信するための通信装置によって構成される。通信部2081は、カメラヘッド2023から、伝送ケーブル2091を介して送信される画像信号を受信する。この際、上記のように、当該画像信号は好適に光通信によって送信され得る。この場合、光通信に対応して、通信部2081には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部2081は、電気信号に変換した画像信号を画像処理部2083に提供する。
 また、通信部2081は、カメラヘッド2023に対して、カメラヘッド2023の駆動を制御するための制御信号を送信する。当該制御信号も光通信によって送信されてよい。
 画像処理部2083は、カメラヘッド2023から送信されたRAWデータである画像信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部2083は、AE、AF及びAWBを行うための、画像信号に対する検波処理を行う。
 画像処理部2083は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部2083が複数のGPUによって構成される場合には、画像処理部2083は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
 制御部2085は、内視鏡2020による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部2085は、カメラヘッド2023の駆動を制御するための制御信号を生成する。この際、撮像条件がユーザによって入力されている場合には、制御部2085は、当該ユーザによる入力に基づいて制御信号を生成する。あるいは、内視鏡2020にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部2085は、画像処理部2083による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。
 また、制御部2085は、画像処理部2083によって画像処理が施された画像信号に基づいて、術部の画像を表示装置2053に表示させる。この際、制御部2085は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。
 例えば、制御部2085は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具2033使用時のミスト等を認識することができる。制御部2085は、表示装置2053に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者2071に提示されることにより、より安全かつ確実に手術を進めることが可能になる。
 カメラヘッド2023及びCCU2051を接続する伝送ケーブル2091は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル2091を用いて有線で通信が行われていたが、カメラヘッド2023とCCU2051との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル2091を手術室内に敷設する必要がなくなるため、手術室内における医療スタッフの移動が当該伝送ケーブル2091によって妨げられる事態が解消され得る。
 以上、本開示に係る技術が適用され得る内視鏡手術システム2000の一例について説明した。
 なお、ここでは、一例として内視鏡手術システム2000について説明したが、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、本開示に係る技術は、検査用軟性内視鏡システムや顕微鏡手術システムに適用されてもよい。
 図39は、上述の撮像装置の使用例を示す図である。
 上述した撮像装置は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・デジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供され装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
 本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 なお、本技術は以下のような構成も取ることができる。
(1)
 第1の光電変換部と、
 前記第1の光電変換部よりも、単位時間あたりに変換する電荷の量が小さい第2の光電変換部と、
 前記第2の光電変換部が生成した電荷を蓄積する電荷蓄積部と、
 電荷電圧変換部と、
 前記第1の光電変換部から前記電荷電圧変換部に電荷を転送する第1の転送ゲート部と、
 前記電荷電圧変換部と前記電荷蓄積部のポテンシャルを結合する第2の転送ゲート部と、
 前記第2の光電変換部から前記電荷蓄積部に電荷を転送する第3の転送ゲート部と、
 前記第3の転送ゲート部のゲート電極の下部に形成され、前記第2の光電変換部から溢れた電荷を前記電荷蓄積部に転送するオーバーフローパスと、
 前記第2の光電変換部に入射する光を減光する減光部と
 を備える撮像装置。
(2)
 前記減光部は、前記第2の光電変換部と、前記第2の光電変換部上に形成されているオンチップレンズとの間に形成されている
 前記(1)に記載の撮像装置。
(3)
 前記減光部は、前記オンチップレンズを透過した光を減光する光学フィルタである
 前記(2)に記載の撮像装置。
(4)
 前記減光部は、無彩色のフィルタである
 前記(2)に記載の撮像装置。
(5)
 前記減光部は、前記オンチップレンズの形成時に露出しない部分であり、前記第2の光電変換部を覆う部分に形成されている
 前記(2)乃至(4)のいずれかに記載の撮像装置。
(6)
 前記減光部は、前記第1の光電変換部上に形成されている第1のオンチップレンズと、前記第2の光電変換部上に形成されている第2のオンチップレンズが近接した部分においては、前記第1のオンチップレンズ側に延在して形成され、かつ前記第1のオンチップレンズの間の空隙部においては、形成されていない
 前記(2)乃至(5)のいずれかに記載の撮像装置。
(7)
 前記減光部は、略四角形状であり、頂点部分が略円弧で形成されている
 前記(2)乃至(6)のいずれかに記載の撮像装置。
(8)
 前記減光部は、略円形状である
 前記(2)乃至(6)のいずれかにに記載の撮像装置。
(9)
 前記減光部は、略四角形状であり、前記略四角形状の頂点部分は、前記第1の光電変換部上に形成されている第1のオンチップレンズと、前記第2の光電変換部上に形成されている第2のオンチップレンズが近接している部分に配置されている
 前記(2)乃至(6)のいずれかにに記載の撮像装置。
(10)
 前記第1の光電変換部と前記第2の光電変換部との間に、画素間遮光部をさらに備える
 前記(2)乃至(9)のいずれかに記載の撮像装置。
(11)
 前記第1の光電変換部と前記第2の光電変換部は、略同一の大きさで形成されている
 前記(2)乃至(10)のいずれかに記載の撮像装置。
(12)
 前記減光部は、前記オンチップレンズを透過した光が通過する通過面積を小さくする
 前記(2)のいずれかに記載の撮像装置。
(13)
 前記遮光部の開口形状は、前記第2の光電変換部の外縁の形状を縮小した形状とされている
 前記(12)に記載の撮像装置。
(14)
 前記遮光部の開口形状は、略円形形状である
 前記(12)に記載の撮像装置。
(15)
 前記遮光部は、前記第2の光電変換部の両端に略四角形状で配置されている
 前記(12)に記載の撮像装置。
(16)
 前記減光部は、前記第2の光電変換部上に凹状に形成されているオンチップレンズである
 前記(1)に記載の撮像装置。
(17)
 前記第1の光電変換部と前記第2の光電変換部との間に、画素間遮光部をさらに備える
 前記(16)に記載の撮像装置。
(18)
 前記画素間遮光部の一部は、カラーフィルタと同層に形成されている
 前記(17)に記載の撮像装置。
(19)
 前記オンチップレンズは、高屈折率を有する材料で形成されている
 前記(16)に記載の撮像装置。
(20)
 第1の光電変換部と、
 前記第1の光電変換部よりも、単位時間あたりに変換する電荷の量が小さい第2の光電変換部と、
 前記第2の光電変換部が生成した電荷を蓄積する電荷蓄積部と、
 電荷電圧変換部と、
 前記第1の光電変換部から前記電荷電圧変換部に電荷を転送する第1の転送ゲート部と、
 前記電荷電圧変換部と前記電荷蓄積部のポテンシャルを結合する第2の転送ゲート部と、
 前記第2の光電変換部から前記電荷蓄積部に電荷を転送する第3の転送ゲート部と、
 前記第3の転送ゲート部のゲート電極の下部に形成され、前記第2の光電変換部から溢れた電荷を前記電荷蓄積部に転送するオーバーフローパスと、
 前記第2の光電変換部に入射する光を減光する減光部と
 を含む撮像装置を
 備える電子機器。
 10,10A,10B CMOSイメージセンサ, 11 画素アレイ部, 12 垂直駆動部, 13 カラム処理部, 14 水平駆動部, 15 システム制御部, 16 画素駆動線, 17 垂直信号線, 18 信号処理部, 19 データ格納部, 100A乃至100F 単位画素, 101 第1光電変換部, 102 第2光電変換部, 103 第1転送トランジスタ, 104 第2転送トランジスタ, 105 第3転送トランジスタ, 106 第4転送トランジスタ, 107 FD(フローティングディフュージョン)部, 108 リセットトランジスタ, 109 増幅トランジスタ, 110 選択トランジスタ, 351 減光フィルタ, 412 光学絞り, 501 第2オンチップレンズ

Claims (20)

  1.  第1の光電変換部と、
     前記第1の光電変換部よりも、単位時間あたりに変換する電荷の量が小さい第2の光電変換部と、
     前記第2の光電変換部が生成した電荷を蓄積する電荷蓄積部と、
     電荷電圧変換部と、
     前記第1の光電変換部から前記電荷電圧変換部に電荷を転送する第1の転送ゲート部と、
     前記電荷電圧変換部と前記電荷蓄積部のポテンシャルを結合する第2の転送ゲート部と、
     前記第2の光電変換部から前記電荷蓄積部に電荷を転送する第3の転送ゲート部と、
     前記第3の転送ゲート部のゲート電極の下部に形成され、前記第2の光電変換部から溢れた電荷を前記電荷蓄積部に転送するオーバーフローパスと、
     前記第2の光電変換部に入射する光を減光する減光部と
     を備える撮像装置。
  2.  前記減光部は、前記第2の光電変換部と、前記第2の光電変換部上に形成されているオンチップレンズとの間に形成されている
     請求項1に記載の撮像装置。
  3.  前記減光部は、前記オンチップレンズを透過した光を減光する光学フィルタである
     請求項2に記載の撮像装置。
  4.  前記減光部は、無彩色のフィルタである
     請求項2に記載の撮像装置。
  5.  前記減光部は、前記オンチップレンズの形成時に露出しない部分であり、前記第2の光電変換部を覆う部分に形成されている
     請求項2に記載の撮像装置。
  6.  前記減光部は、前記第1の光電変換部上に形成されている第1のオンチップレンズと、前記第2の光電変換部上に形成されている第2のオンチップレンズが近接した部分においては、前記第1のオンチップレンズ側に延在して形成され、かつ前記第1のオンチップレンズの間の空隙部においては、形成されていない
     請求項2に記載の撮像装置。
  7.  前記減光部は、略四角形状であり、頂点部分が略円弧で形成されている
     請求項2に記載の撮像装置。
  8.  前記減光部は、略円形状である
     請求項2に記載の撮像装置。
  9.  前記減光部は、略四角形状であり、前記略四角形状の頂点部分は、前記第1の光電変換部上に形成されている第1のオンチップレンズと、前記第2の光電変換部上に形成されている第2のオンチップレンズが近接している部分に配置されている
     請求項2に記載の撮像装置。
  10.  前記第1の光電変換部と前記第2の光電変換部との間に、画素間遮光部をさらに備える
     請求項2に記載の撮像装置。
  11.  前記第1の光電変換部と前記第2の光電変換部は、略同一の大きさで形成されている
     請求項2に記載の撮像装置。
  12.  前記減光部は、前記オンチップレンズを透過した光が通過する通過面積を小さくする
     請求項2に記載の撮像装置。
  13.  前記遮光部の開口形状は、前記第2の光電変換部の外縁の形状を縮小した形状とされている
     請求項12に記載の撮像装置。
  14.  前記遮光部の開口形状は、略円形形状である
     請求項12に記載の撮像装置。
  15.  前記遮光部は、前記第2の光電変換部の両端に略四角形状で配置されている
     請求項12に記載の撮像装置。
  16.  前記減光部は、前記第2の光電変換部上に凹状に形成されているオンチップレンズである
     請求項1に記載の撮像装置。
  17.  前記第1の光電変換部と前記第2の光電変換部との間に、画素間遮光部をさらに備える
     請求項16に記載の撮像装置。
  18.  前記画素間遮光部の一部は、カラーフィルタと同層に形成されている
     請求項17に記載の撮像装置。
  19.  前記オンチップレンズは、高屈折率を有する材料で形成されている
     請求項16に記載の撮像装置。
  20.  第1の光電変換部と、
     前記第1の光電変換部よりも、単位時間あたりに変換する電荷の量が小さい第2の光電変換部と、
     前記第2の光電変換部が生成した電荷を蓄積する電荷蓄積部と、
     電荷電圧変換部と、
     前記第1の光電変換部から前記電荷電圧変換部に電荷を転送する第1の転送ゲート部と、
     前記電荷電圧変換部と前記電荷蓄積部のポテンシャルを結合する第2の転送ゲート部と、
     前記第2の光電変換部から前記電荷蓄積部に電荷を転送する第3の転送ゲート部と、
     前記第3の転送ゲート部のゲート電極の下部に形成され、前記第2の光電変換部から溢れた電荷を前記電荷蓄積部に転送するオーバーフローパスと、
     前記第2の光電変換部に入射する光を減光する減光部と
     を含む撮像装置を
     備える電子機器。
PCT/JP2017/006987 2016-03-10 2017-02-24 撮像装置、電子機器 WO2017154605A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/080,575 US11563050B2 (en) 2016-03-10 2017-02-24 Imaging device and electronic device
CN201780014844.3A CN108738370B (zh) 2016-03-10 2017-02-24 成像装置和电子装置
CN202211487422.7A CN115942134A (zh) 2016-03-10 2017-02-24 成像装置和电子装置
US17/974,710 US20230124400A1 (en) 2016-03-10 2022-10-27 Imaging device and electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-046633 2016-03-10
JP2016046633A JP2017163010A (ja) 2016-03-10 2016-03-10 撮像装置、電子機器

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/080,575 A-371-Of-International US11563050B2 (en) 2016-03-10 2017-02-24 Imaging device and electronic device
US17/974,710 Continuation US20230124400A1 (en) 2016-03-10 2022-10-27 Imaging device and electronic device

Publications (1)

Publication Number Publication Date
WO2017154605A1 true WO2017154605A1 (ja) 2017-09-14

Family

ID=59789433

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/006987 WO2017154605A1 (ja) 2016-03-10 2017-02-24 撮像装置、電子機器

Country Status (4)

Country Link
US (2) US11563050B2 (ja)
JP (1) JP2017163010A (ja)
CN (2) CN108738370B (ja)
WO (1) WO2017154605A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10991741B2 (en) 2018-09-12 2021-04-27 Canon Kabushiki Kaisha Photoelectric conversion apparatus and equipment
WO2021145127A1 (ja) * 2020-01-16 2021-07-22 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置
EP3896966A4 (en) * 2018-12-11 2022-05-18 Sony Semiconductor Solutions Corporation SOLID STATE IMAGING DEVICE AND ELECTRONIC INSTRUMENT
EP4099685A4 (en) * 2020-01-29 2023-04-26 Sony Semiconductor Solutions Corporation IMAGING ELEMENT, IMAGING DEVICE AND DISTANCE MEASUREMENT DEVICE
WO2023080197A1 (ja) * 2021-11-05 2023-05-11 ソニーセミコンダクタソリューションズ株式会社 撮像素子、電子機器

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3550273B1 (en) * 2017-09-28 2021-07-28 Sony Semiconductor Solutions Corporation Image capturing element and image capturing device
US10677972B2 (en) 2017-12-08 2020-06-09 Viavi Solutions Inc. Multispectral sensor response balancing
JP2019125757A (ja) * 2018-01-19 2019-07-25 ソニーセミコンダクタソリューションズ株式会社 撮像素子、製造方法、および電子機器
JP7294792B2 (ja) * 2018-10-26 2023-06-20 ヌヴォトンテクノロジージャパン株式会社 撮像モジュール
KR102615669B1 (ko) * 2018-12-11 2023-12-20 에스케이하이닉스 주식회사 이미지 센싱 장치
WO2020230332A1 (ja) * 2019-05-16 2020-11-19 オリンパス株式会社 内視鏡、画像処理装置、内視鏡システム、画像処理方法およびプログラム
KR20200145978A (ko) * 2019-06-21 2020-12-31 삼성전자주식회사 이미지 센서
CN114730779A (zh) 2019-12-17 2022-07-08 索尼半导体解决方案公司 摄像元件、摄像元件驱动方法和电子装置
US11362121B2 (en) * 2020-01-28 2022-06-14 Omnivision Technologies, Inc. Light attenuation layer fabrication method and structure for image sensor
US11393861B2 (en) * 2020-01-30 2022-07-19 Omnivision Technologies, Inc. Flare-suppressing image sensor
US11469264B2 (en) * 2020-01-30 2022-10-11 Omnivision Technologies, Inc. Flare-blocking image sensor
US20230299113A1 (en) 2020-08-19 2023-09-21 Sony Semiconductor Solutions Corporation Solid-state imaging device and electronic device
US11710752B2 (en) * 2020-12-10 2023-07-25 Omnivision Technologies, Inc. Flicker-mitigating pixel-array substrate
US11670648B2 (en) 2020-12-10 2023-06-06 Omnivision Technologies Inc. Flicker-mitigating pixel-array substrate
JP2022106333A (ja) * 2021-01-07 2022-07-20 ソニーセミコンダクタソリューションズ株式会社 光検出装置および電子機器
JP2022149093A (ja) * 2021-03-25 2022-10-06 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
US20220320173A1 (en) * 2021-03-30 2022-10-06 Taiwan Semiconductor Manufacturing Co., Ltd. Reduced cross-talk in color and infrared image sensor
US20230110102A1 (en) * 2021-10-07 2023-04-13 Visera Technologies Company Limited Solid-state image sensor

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08125933A (ja) * 1994-10-20 1996-05-17 Toshiba Corp 固体撮像素子及び固体撮像装置
JP2002305685A (ja) * 2001-01-24 2002-10-18 Eastman Kodak Co 撮像装置の効果的ダイナミックレンジを拡張する方法及び装置並びに残存画像の使用
JP2009268083A (ja) * 2008-04-03 2009-11-12 Sony Corp 固体撮像装置、固体撮像装置の駆動方法および電子機器
JP2010186818A (ja) * 2009-02-10 2010-08-26 Sony Corp 固体撮像装置とその製造方法、及び電子機器
JP2012227474A (ja) * 2011-04-22 2012-11-15 Panasonic Corp 固体撮像装置およびその製造方法
JP2013081154A (ja) * 2011-07-26 2013-05-02 Foveon Inc 異なる光感度をもつフォトダイオードを有する画像化アレイおよび関連する画像復元方法
US20130256510A1 (en) * 2012-03-29 2013-10-03 Omnivision Technologies, Inc. Imaging device with floating diffusion switch
JP2015133469A (ja) * 2013-12-12 2015-07-23 ソニー株式会社 固体撮像素子およびその製造方法、並びに電子機器

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6850278B1 (en) * 1998-11-27 2005-02-01 Canon Kabushiki Kaisha Solid-state image pickup apparatus
US7489352B2 (en) * 2002-11-15 2009-02-10 Micron Technology, Inc. Wide dynamic range pinned photodiode active pixel sensor (APS)
US7227692B2 (en) * 2003-10-09 2007-06-05 Micron Technology, Inc Method and apparatus for balancing color response of imagers
US7332786B2 (en) * 2003-11-26 2008-02-19 Micron Technology, Inc. Anti-blooming storage pixel
JP3859158B2 (ja) * 2003-12-16 2006-12-20 セイコーエプソン株式会社 マイクロレンズ用凹部付き基板、マイクロレンズ基板、透過型スクリーン、およびリア型プロジェクタ
JP4317115B2 (ja) * 2004-04-12 2009-08-19 国立大学法人東北大学 固体撮像装置、光センサおよび固体撮像装置の動作方法
JP4416668B2 (ja) * 2005-01-14 2010-02-17 キヤノン株式会社 固体撮像装置、その制御方法及びカメラ
US7446294B2 (en) * 2006-01-12 2008-11-04 Taiwan Semiconductor Manufacturing Company, Ltd. True color image by modified microlens array
US7821559B2 (en) * 2006-10-04 2010-10-26 Canon Kabushiki Kaisha Photoelectric conversion apparatus provided with arrangement of plurality of pixels each having plurality of photoelectric conversion devices and accumulating unit for temporarily accumulating charges accumulated in plurality of photoelectric conversion devices
KR100830587B1 (ko) * 2007-01-10 2008-05-21 삼성전자주식회사 이미지 센서 및 이를 이용한 이미지 표시 방법
TWI479887B (zh) * 2007-05-24 2015-04-01 Sony Corp 背向照明固態成像裝置及照相機
JP5358136B2 (ja) * 2008-07-29 2013-12-04 パナソニック株式会社 固体撮像装置
KR101776955B1 (ko) 2009-02-10 2017-09-08 소니 주식회사 고체 촬상 장치와 그 제조 방법, 및 전자 기기
JP5511203B2 (ja) * 2009-03-16 2014-06-04 キヤノン株式会社 撮像素子及び撮像装置
JP5232118B2 (ja) * 2009-09-30 2013-07-10 富士フイルム株式会社 撮像デバイスおよび電子カメラ
US20110175981A1 (en) * 2010-01-19 2011-07-21 Chun-Hung Lai 3d color image sensor
JP5614993B2 (ja) * 2010-01-19 2014-10-29 キヤノン株式会社 撮像装置及び固体撮像素子の駆動方法
JP5091964B2 (ja) * 2010-03-05 2012-12-05 株式会社東芝 固体撮像装置
JP5025746B2 (ja) * 2010-03-19 2012-09-12 株式会社東芝 固体撮像装置
JP5581954B2 (ja) * 2010-10-07 2014-09-03 ソニー株式会社 固体撮像装置、固体撮像装置の製造方法、及び電子機器
JP5708025B2 (ja) * 2011-02-24 2015-04-30 ソニー株式会社 固体撮像装置、および、その製造方法、電子機器
KR101241704B1 (ko) * 2011-04-14 2013-03-19 엘지이노텍 주식회사 픽셀, 픽셀 어레이, 이를 포함하는 이미지센서 및 그 구동방법
TWI505453B (zh) * 2011-07-12 2015-10-21 Sony Corp 固態成像裝置,用於驅動其之方法,用於製造其之方法,及電子裝置
KR101294479B1 (ko) * 2011-07-20 2013-08-07 엘지이노텍 주식회사 픽셀, 픽셀 어레이, 이를 포함하는 이미지센서 및 그 구동방법
JP2013084785A (ja) * 2011-10-11 2013-05-09 Sony Corp 固体撮像装置、撮像装置
US9490373B2 (en) * 2012-02-02 2016-11-08 Sony Corporation Solid-state imaging device and electronic apparatus with improved storage portion
CN103258829A (zh) 2012-02-16 2013-08-21 索尼公司 固态成像装置、图像传感器及其制造方法以及电子设备
JP2014175553A (ja) * 2013-03-11 2014-09-22 Canon Inc 固体撮像装置およびカメラ
US9372286B2 (en) * 2013-04-11 2016-06-21 Omnivision Technologies, Inc. Method of forming dual size microlenses for image sensors
CN105324986B (zh) 2013-07-22 2020-10-27 索尼半导体解决方案公司 固态图像拾取元件和电子设备
JP2015065270A (ja) * 2013-09-25 2015-04-09 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
US10498983B2 (en) * 2015-03-16 2019-12-03 Sony Corporation Solid-state imaging device, method for driving solid-state imaging device, and electronic apparatus
TWI701819B (zh) * 2015-06-09 2020-08-11 日商索尼半導體解決方案公司 攝像元件、驅動方法及電子機器
US10341592B2 (en) * 2015-06-09 2019-07-02 Sony Semiconductor Solutions Corporation Imaging element, driving method, and electronic device
US10291867B2 (en) * 2015-07-08 2019-05-14 Sony Semiconductor Solutions Corporation Solid-state imaging element and driving method and electronic equipment
TWI704811B (zh) * 2015-07-27 2020-09-11 日商新力股份有限公司 固體攝像裝置及其控制方法、以及電子機器
US11297258B2 (en) * 2015-10-01 2022-04-05 Qualcomm Incorporated High dynamic range solid state image sensor and camera system
JP6754157B2 (ja) * 2015-10-26 2020-09-09 ソニーセミコンダクタソリューションズ株式会社 撮像装置
WO2017130728A1 (ja) * 2016-01-29 2017-08-03 ソニー株式会社 固体撮像装置および電子機器
TWI717450B (zh) * 2016-02-18 2021-02-01 日商新力股份有限公司 固體攝像裝置、固體攝像裝置之驅動方法、及電子機器
WO2017169754A1 (ja) * 2016-03-29 2017-10-05 ソニー株式会社 固体撮像装置、及び電子機器
US10411063B2 (en) * 2017-06-20 2019-09-10 Omnivision Technologies, Inc. Single-exposure high dynamic range sensor
JP7072362B2 (ja) * 2017-09-26 2022-05-20 ブリルニクス シンガポール プライベート リミテッド 固体撮像装置、固体撮像装置の駆動方法、および電子機器
EP3732876B1 (en) * 2017-12-28 2023-04-19 Sony Semiconductor Solutions Corporation Imaging device and diagnosis method
CN110278396A (zh) * 2018-03-16 2019-09-24 松下知识产权经营株式会社 摄像装置
KR102446297B1 (ko) * 2018-05-02 2022-09-23 에스케이하이닉스 주식회사 엑스트라 트랜스퍼 트랜지스터 및 엑스트라 플로팅 디퓨전 영역을 포함하는 이미지 센서
US11431926B2 (en) * 2018-11-09 2022-08-30 Semiconductor Components Industries, Llc Image sensors having high dynamic range imaging pixels

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08125933A (ja) * 1994-10-20 1996-05-17 Toshiba Corp 固体撮像素子及び固体撮像装置
JP2002305685A (ja) * 2001-01-24 2002-10-18 Eastman Kodak Co 撮像装置の効果的ダイナミックレンジを拡張する方法及び装置並びに残存画像の使用
JP2009268083A (ja) * 2008-04-03 2009-11-12 Sony Corp 固体撮像装置、固体撮像装置の駆動方法および電子機器
JP2010186818A (ja) * 2009-02-10 2010-08-26 Sony Corp 固体撮像装置とその製造方法、及び電子機器
JP2012227474A (ja) * 2011-04-22 2012-11-15 Panasonic Corp 固体撮像装置およびその製造方法
JP2013081154A (ja) * 2011-07-26 2013-05-02 Foveon Inc 異なる光感度をもつフォトダイオードを有する画像化アレイおよび関連する画像復元方法
US20130256510A1 (en) * 2012-03-29 2013-10-03 Omnivision Technologies, Inc. Imaging device with floating diffusion switch
JP2015133469A (ja) * 2013-12-12 2015-07-23 ソニー株式会社 固体撮像素子およびその製造方法、並びに電子機器

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10991741B2 (en) 2018-09-12 2021-04-27 Canon Kabushiki Kaisha Photoelectric conversion apparatus and equipment
EP3896966A4 (en) * 2018-12-11 2022-05-18 Sony Semiconductor Solutions Corporation SOLID STATE IMAGING DEVICE AND ELECTRONIC INSTRUMENT
JP7391041B2 (ja) 2018-12-11 2023-12-04 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
WO2021145127A1 (ja) * 2020-01-16 2021-07-22 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置
EP4099685A4 (en) * 2020-01-29 2023-04-26 Sony Semiconductor Solutions Corporation IMAGING ELEMENT, IMAGING DEVICE AND DISTANCE MEASUREMENT DEVICE
WO2023080197A1 (ja) * 2021-11-05 2023-05-11 ソニーセミコンダクタソリューションズ株式会社 撮像素子、電子機器

Also Published As

Publication number Publication date
CN108738370B (zh) 2022-12-16
US20210193727A1 (en) 2021-06-24
CN108738370A (zh) 2018-11-02
US11563050B2 (en) 2023-01-24
JP2017163010A (ja) 2017-09-14
US20230124400A1 (en) 2023-04-20
CN115942134A (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
WO2017154605A1 (ja) 撮像装置、電子機器
JP7439214B2 (ja) 固体撮像素子および電子機器
JP7230808B2 (ja) 撮像素子および撮像装置
JP6915615B2 (ja) 撮像素子、撮像装置、電子機器
WO2017150167A1 (ja) 固体撮像素子
WO2022044897A1 (ja) 医療撮像システム、医療撮像装置、および動作方法
JP2023181289A (ja) 固体撮像装置及び固体撮像装置の製造方法、並びに電子機器
US11039067B2 (en) Image pickup apparatus, video signal processing apparatus, and video signal processing method
EP3598732B1 (en) Imaging device and video signal processing method
WO2022044898A1 (ja) 医療撮像システム、医療撮像装置、および動作方法
JP2019042413A (ja) 医療用観察装置、および医療用観察システム
US11979670B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program for blending plurality of image signals based on a peaking signal
US20220085092A1 (en) Imaging device and electronic device
JP2023174229A (ja) 光電変換装置
JP2020088729A (ja) 固体撮像装置、固体撮像装置の駆動方法、及び電子機器
CN110785110A (zh) 医学成像系统、方法以及计算机程序产品

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17762945

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17762945

Country of ref document: EP

Kind code of ref document: A1