WO2023079842A1 - 固体撮像装置、撮像システム及び撮像処理方法 - Google Patents

固体撮像装置、撮像システム及び撮像処理方法 Download PDF

Info

Publication number
WO2023079842A1
WO2023079842A1 PCT/JP2022/034642 JP2022034642W WO2023079842A1 WO 2023079842 A1 WO2023079842 A1 WO 2023079842A1 JP 2022034642 W JP2022034642 W JP 2022034642W WO 2023079842 A1 WO2023079842 A1 WO 2023079842A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
photoelectric conversion
unit
aberration
imaging
Prior art date
Application number
PCT/JP2022/034642
Other languages
English (en)
French (fr)
Inventor
勝治 木村
大地 村上
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023079842A1 publication Critical patent/WO2023079842A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/30Systems for automatic generation of focusing signals using parallactic triangle with a base line
    • G02B7/32Systems for automatic generation of focusing signals using parallactic triangle with a base line using active means, e.g. light emitter
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/40Systems for automatic generation of focusing signals using time delay of the reflected waves, e.g. of ultrasonic waves
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals

Definitions

  • the technology (this technology) according to the present disclosure relates to a solid-state imaging device, an imaging system, and an imaging processing method.
  • CCD Charge-Coupled Device
  • CMOS Complementary Metal-Oxide-Semiconductor
  • IR light with a wavelength of 840 nm or 940 nm (hereinafter referred to as IR ) has been proposed.
  • the solid-state imaging device described above has a layer for capturing visible light of RGB and a layer for capturing IR light, as described in Patent Document 1 and Patent Document 4, so that visible light and IR light can be captured at the same time.
  • a solid-state imaging device has been proposed that can do this.
  • Patent document 4 has a structure similar to that of patent document 1, but changes the configuration of the pixels for visible light (R, G, B) and infrared light (IR) so that a plurality of image pickup elements for visible light emit red light. It is configured with one external light imaging device.
  • the solid-state image sensor is equipped with a dual bandpass filter (hereinafter referred to as DBPF) that cuts light other than visible light and IR light between the lens and the solid-state image sensor.
  • DBPF dual bandpass filter
  • Japanese Patent Laid-Open No. 2002-200000 addresses the problem of shifting the focus position by switching the optical path lengths of visible light and IR light at the time of photographing by using the structure that changes the thickness of the dual bandpass filter described above.
  • Patent Document 2 discloses that a memory is provided in the solid-state imaging device as correction of the axial chromatic aberration by the above-mentioned lens, and this memory is read into the CPU each time the camera is started, and the visible It has been proposed to correct the amount of aberration deviation between light and IR light by driving the lens at the time of photographing.
  • Patent Document 3 stores the amount of axial chromatic aberration of visible light and infrared light in an external storage device, reads the amount of axial chromatic aberration from the external storage device, and measures the distance with infrared light. , the lens is driven when imaging visible light.
  • Patent Document 5 a method of irradiating a laser light source as a hologram and assisting autofocusing has been proposed (for example, Patent Document 5).
  • JP 2017-208496 A Japanese Patent Application Laid-Open No. 2001-272708 Japanese Patent Application Laid-Open No. 2002-182105 WO2020/255999 JP-A-2002-237990
  • Patent Document 2 uses separate imaging elements for visible light and infrared light, it is expensive, and aberration correction within the imaging plane for visible light is extremely complicated, such as alignment of two sensors. As a result, there is a problem that manufacturing becomes complicated and expensive.
  • the method according to Patent Document 3 requires an external storage device and also requires a separate solid-state imaging device for capturing infrared light, resulting in an increase in cost. Furthermore, in the method according to Patent Document 5, in the case of infrared light, axial chromatic aberration may occur as a problem. In addition, when the laser light source is a light source close to the red wavelength of visible light, there is a problem that the distance measurement of the object and the RGB image pickup cannot be performed at the same time.
  • An object of the present invention is to provide an imaging device, an imaging system, and an imaging processing method.
  • One aspect of the present disclosure includes a lens optical system, and a plurality of first photoelectric conversion elements formed in a matrix that detects and photoelectrically converts light in a first wavelength region including visible light reflected from an object.
  • a first photoelectric conversion unit provided at a position overlapping with the first photoelectric conversion unit and arranged in a matrix for detecting light in a second wavelength region including infrared light reflected from the subject and photoelectrically converting the light;
  • a second photoelectric conversion unit having a plurality of second photoelectric conversion elements formed in the lens optical system, and an amount of aberration at the focus of the light in the first wavelength range and the light in the second wavelength range in the lens optical system and after focusing at the focal point of the light in the second wavelength region detected by the second photoelectric conversion unit, based on the amount of aberration stored in the storage unit, the second
  • the solid-state imaging device corrects focal aberration between light in one wavelength region and light in the second wavelength region.
  • Another aspect of the present disclosure includes an irradiation unit that emits infrared light to a subject, and an imaging device that receives reflected light from the subject, and the imaging device includes a lens optical system and a light reflected from the subject.
  • a first photoelectric conversion unit having a plurality of first photoelectric conversion elements formed in a matrix for photoelectric conversion by detecting light in a first wavelength region including visible light; and a plurality of second photoelectric conversion elements formed in a matrix for detecting and photoelectrically converting light in a second wavelength region including infrared light reflected from the subject.
  • the imaging device comprises the After focusing at the focal point of the light in the second wavelength range detected by the second photoelectric conversion section, the light in the first wavelength range and the second wavelength range are determined based on the amount of aberration stored in the storage section.
  • an irradiation unit emits infrared light to a subject
  • a signal processing unit drives a lens optical system with respect to the subject based on reflected light from the subject. and focusing at the focal point of the light in the first wavelength region including the infrared light, and based on the result of focusing at the focal point of the light in the first wavelength region by the signal processing unit, the storage unit reading out the amount of aberration stored in and based on the amount of aberration, correcting the aberration of the focus between the light in the second wavelength range including visible light and the light in the first wavelength range. processing method.
  • FIG. 1 is a schematic configuration diagram showing an example configuration of a sensor system to which an imaging system according to a first embodiment of the present disclosure is applied;
  • FIG. It is an example of filter transmission characteristics when the wavelength of the laser light source according to the first embodiment of the present disclosure is 940 nm.
  • It is a figure showing an example of composition of an image sensor concerning a 1st embodiment of this indication.
  • 1 is a partial vertical cross-sectional view showing an example of a cross-sectional structure of a semiconductor substrate of an imaging device according to a first embodiment of the present disclosure;
  • the laser light source according to the first embodiment of the present disclosure outputs infrared light with 6 and 4 dots in X and Y, respectively, and the angle of view is adjusted by the correction lens and emitted to the subject.
  • FIG. 2 illustrates blocks divided into functions of an imaging device according to the first embodiment of the present disclosure;
  • FIG. It is a figure shown in order to demonstrate each focus of visible light and infrared light by a lens.
  • FIG. 10 is an example of a graph obtained by optically simulating a focal position using an imaging device and a lens according to the first embodiment of the present disclosure;
  • 4 is a characteristic diagram showing the depth of focus for the size of an image sensor and the size of a circle required for resolution of a lens; Similarly, it is a characteristic diagram showing the depth of focus with respect to the size of the imaging element and the size of the circle required for the resolution of the lens.
  • 4 is a flowchart showing an example of a processing procedure of an application processor that performs autofocus and imaging in the imaging device according to the first embodiment of the present disclosure
  • FIG. 10 is a flowchart showing an example of a processing procedure of an application processor that performs autofocus and imaging in the imaging device according to the first modification of the first embodiment of the present disclosure
  • FIG. 10 is a flowchart showing an example of a processing procedure of an application processor that performs autofocus and imaging in an imaging device according to a second modified example of the first embodiment of the present disclosure
  • FIG. FIG. 7 is a partial vertical cross-sectional view showing an example of a cross-sectional structure of a semiconductor substrate of an imaging device according to a second embodiment of the present disclosure
  • FIG. 11 is a partial vertical cross-sectional view showing an example of a cross-sectional structure of a semiconductor substrate of an imaging device according to a third embodiment of the present disclosure
  • FIG. 11 is a partial vertical cross-sectional view showing an example of a cross-sectional structure of a semiconductor substrate of an imaging device according to a fourth embodiment of the present disclosure
  • FIG. 10 is an example of data output of the image sensor in the image sensor 1 according to the fifth embodiment of the present disclosure
  • FIG. FIG. 11 is a schematic diagram showing an example of the overall configuration of a photodetection system according to a sixth embodiment of the present disclosure
  • FIG. 11 is a schematic diagram showing an example of a circuit configuration of a photodetection system according to a sixth embodiment of the present disclosure
  • FIG. It is a block diagram showing a configuration example of an electronic device to which the present technology is applied.
  • 1 is a diagram showing an example of a schematic configuration of an endoscopic surgery system
  • FIG. 3 is a block diagram showing an example of functional configurations of a camera head and a CCU
  • FIG. 1 is a block diagram showing an example of a schematic configuration of a vehicle control system
  • FIG. FIG. 4 is an explanatory diagram showing an example of installation positions of an outside information detection unit and an imaging unit;
  • FIG. 1 is a schematic configuration diagram showing an example configuration of a sensor system to which an imaging system according to the first embodiment of the present disclosure is applied.
  • the sensor system 10 can be applied to an imaging device including an imaging element such as a CCD (Charge-Coupled Device) sensor or a CMOS (Complementary Metal-Oxide-Semiconductor) image sensor.
  • an imaging device including an imaging element such as a CCD (Charge-Coupled Device) sensor or a CMOS (Complementary Metal-Oxide-Semiconductor) image sensor.
  • the present invention can be applied to a device including such an imaging device, such as a mobile terminal device.
  • a sensor system 10 includes an imaging device 1 , a lens 2 , an actuator 3 , a laser light source 4 and a correction lens 5 .
  • the sensor system 10 may include at least the imaging element 1 and the laser light source 4 .
  • the lens 2, actuator 3 and correction lens 5 can be connected to the sensor system 10 from the outside.
  • the laser light source 4 emits infrared light for distance measurement to the subject OBJ and biometric authentication.
  • This laser light source 4 is provided with a correcting lens 5 for the purpose of appropriately emitting light in accordance with the object OBJ.
  • an optical diffraction element hereinafter referred to as DOE
  • ToF structure light, etc.
  • DOE optical diffraction element
  • the present disclosure can be used with any dot or pattern that corrects the light output from the laser light source 4 and emits it to the object OBJ, regardless of the emitted light shape.
  • the lens 2 converges the light from the object OBJ on the imaging element 1 and forms an image on the pixel section 100 (illustrated in FIG. 3) of the imaging element 1 .
  • the imaging device 1 is a CCD sensor, a CMOS image sensor, or the like that photoelectrically converts light from the object OBJ to take an image, and has a function of receiving visible light and infrared light according to their respective wavelengths.
  • a Bayer arrangement (Bayer), in which part of the R, G, B filters are removed and R, G, B, W (White) is.
  • the laser light source 4 generally uses infrared light with wavelengths in the 850 nm, 940 nm, and 1300 nm regions, where the spectrum of sunlight is relatively small. By changing, it becomes possible to correspond to any wavelength. In the present disclosure, infrared wavelengths can be used independently.
  • a dual bandpass filter (DBPF) 9 is arranged between the imaging device 1 and the lens 2 so that visible light (R, G, B) and infrared light (IR) can be efficiently imaged.
  • FIG. 2 shows an example of filter transmission characteristics when the wavelength of the laser light source 4 is 940 nm. As described above, the characteristics of the DBPF 9 can be changed according to the wavelength of the laser light source 4.
  • the sensor system 10 has an actuator 3 that drives the lens 2 vertically in the direction of the imaging device 1 (hereinafter referred to as the Z-axis direction as appropriate) in order to focus the lens 2 .
  • the lens 2 is integrated with a holder mounted with a coil for driving in the Z-axis direction.
  • the actuator 3 is driven in a direction (hereinafter referred to as an X-axis direction or a Y-axis direction as appropriate) in a plane (hereinafter referred to as an XY plane) parallel to the imaging surface of the imaging element 1.
  • a direction hereinafter referred to as an X-axis direction or a Y-axis direction as appropriate
  • XY plane a plane parallel to the imaging surface of the imaging element 1.
  • the sensor system 10 includes a gyro sensor 7 for camera shake correction, an autofocus/OIS (Optical Image Stabilizer) driver LSI 6 for controlling the actuator 3 from the outside, and an electric signal of the imaging element 1 to the outside. It also has a circuit board 8 for outputting to. Although described as a circuit board here, it may not be a plate-shaped board, and may be a circuit substrate.
  • a gyro sensor 7 for camera shake correction
  • an autofocus/OIS (Optical Image Stabilizer) driver LSI 6 for controlling the actuator 3 from the outside
  • an electric signal of the imaging element 1 to the outside It also has a circuit board 8 for outputting to.
  • a circuit board may not be a plate-shaped board, and may be a circuit substrate.
  • OIS means optical camera shake correction, and is a method of processing correction in the optical system to reduce the effects of camera shake.
  • the gyro sensor 7 senses vibration during shooting and adjusts the position of the lens 2 or the image pickup device 1 to suppress the effects of camera shake.
  • camera shake correction is performed by adjusting the position of the lens 2 .
  • the sensor system 10 has a metal wire 31 for electrically connecting the imaging device 1 and the circuit board 8 and has an adhesive 32 for fixing the imaging device 1 and the circuit board 8 .
  • FIG. 3 is a diagram showing an example of the configuration of the imaging device 1.
  • the imaging device 1 is, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the imaging element 1 takes in incident light (image light) from a subject, for example, via an optical lens system, converts the incident light formed into an image on an imaging surface into an electric signal for each pixel, and outputs the electric signal as a pixel signal. It has become.
  • the imaging device 1 can be configured integrally as a system-on-chip (SoC) such as a CMOS LSI, for example, but for example, some components shown below may be configured as separate LSIs.
  • SoC system-on-chip
  • the imaging device 1 is assumed to be a so-called back-illuminated solid-state imaging device.
  • the surface of the semiconductor substrate 11 on which light from the outside enters is called the "rear surface", and the opposite side is called the "front surface”.
  • the imaging device 1 includes, for example, a semiconductor substrate 11, a pixel section 100 as an imaging area, and vertical drive circuits 111, column signal processing circuits 112, horizontal drive circuits 113, and output circuits arranged in peripheral regions of the pixel section 100. 114 , a control circuit 115 and an input/output terminal 116 .
  • the pixel unit 100 has, for example, a plurality of pixels P arranged two-dimensionally in a matrix.
  • pixel rows each composed of a plurality of pixels P arranged in a row direction (horizontal direction of the paper) and pixel columns composed of a plurality of pixels P arranged in a column direction (vertical direction of the paper) are respectively arranged. Multiple are provided.
  • a region composed of a plurality of pixels P arranged in a matrix form a so-called "image height" corresponding to the target space to be imaged.
  • one pixel drive line Lread row selection line and reset control line
  • one vertical signal line Lsig is wired for each pixel column.
  • the pixel drive line Lread transmits a drive signal for signal readout from each pixel P.
  • FIG. The ends of the plurality of pixel drive lines Lread are connected to the plurality of output terminals corresponding to the pixel rows of the vertical drive circuit 111, respectively.
  • the vertical drive circuit 111 is composed of a shift register, an address decoder, and the like, and is a pixel drive section that drives each pixel P in the pixel section 100, for example, in units of pixel rows.
  • a signal output from each pixel P in a pixel row selectively scanned by the vertical driving circuit 111 is supplied to the column signal processing circuit 112 through each vertical signal line Lsig.
  • the column signal processing circuit 112 is composed of amplifiers, horizontal selection switches, etc. provided for each vertical signal line Lsig.
  • the horizontal drive circuit 113 is composed of a shift register, an address decoder, and the like, and sequentially drives the horizontal selection switches of the column signal processing circuit 112 while scanning them. By the selective scanning by the horizontal driving circuit 113, the signals of the pixels P transmitted through each of the plurality of vertical signal lines Lsig are sequentially output to the horizontal signal line 121, and are output to the outside of the semiconductor substrate 11 through the horizontal signal line 121. It is designed to be transmitted.
  • the output circuit 114 performs signal processing on signals sequentially supplied from each of the column signal processing circuits 112 via the horizontal signal line 121 and outputs the processed signals.
  • the output circuit 114 may perform only buffering, or may perform black level adjustment, column variation correction, various digital signal processing, and the like.
  • a circuit portion consisting of the vertical drive circuit 111, the column signal processing circuit 112, the horizontal drive circuit 113, the horizontal signal line 121 and the output circuit 114 may be formed directly on the semiconductor substrate 11, or may be formed on the external control IC. It may be arranged. Moreover, those circuit portions may be formed on another substrate connected by a cable or the like.
  • the control circuit 115 receives a clock given from the outside of the semiconductor substrate 11, data instructing an operation mode, etc., and outputs data such as internal information of the pixel P which is an imaging device.
  • the control circuit 115 further has a timing generator that generates various timing signals, and controls the vertical drive circuit 111, the column signal processing circuit 112, the horizontal drive circuit 113, etc. based on the various timing signals generated by the timing generator. It controls driving of peripheral circuits.
  • the imaging device 1 of the present disclosure also includes an aberration correction memory 117 that stores aberration information (aberration amount) of the focus of visible light and infrared light in the lens 2 .
  • the amount of aberration stored in the aberration correction memory 117 is read by an external application processor (details will be described later) and used to correct focal aberrations of visible light and infrared light.
  • FIG. 4 is a partial vertical cross-sectional view showing an example of the cross-sectional structure of the semiconductor substrate 11 of the imaging device 1 according to the first embodiment of the present disclosure.
  • the semiconductor substrate 11 schematically includes, for example, a semiconductor support substrate 21, a wiring layer 22, an IR photoelectric conversion layer 23, an intermediate layer 24, an organic photoelectric conversion layer 25, a color It includes a filter 26 and an on-chip lens 27 .
  • the on-chip lens 27 efficiently collects light incident on the image sensor 1 from the outside via the DBPF 9 to form each pixel P of the IR photoelectric conversion layer 23 and the organic photoelectric conversion layer 25 (that is, the IR photoelectric conversion element 231, an optical lens for forming an image on the organic photoelectric conversion elements 251 and 252).
  • the on-chip lens 27 is typically arranged for each pixel P.
  • FIG. The on-chip lens 27 is made of, for example, silicon oxide, silicon nitride, silicon oxynitride, organic SOG, polyimide resin, fluorine resin, or the like.
  • the color filter 26 is an optical filter that selectively transmits light of a predetermined wavelength out of the light condensed by the on-chip lens 27 .
  • two color filters 26 that selectively transmit the wavelengths of red light (R) and green light (G) are used, but the present invention is not limited to this.
  • Each pixel P is provided with a color filter 26 corresponding to any color (wavelength) of red light, green light, blue light, and infrared light.
  • the organic photoelectric conversion layer 25 is a functional layer in which organic photoelectric conversion elements 251 and 252 forming each pixel P are formed.
  • an organic photoelectric conversion element 251 sensitive to green light (G) and an organic photoelectric conversion element 252 sensitive to red light (R) are sequentially stacked.
  • the organic photoelectric conversion element 251 detects green light (G), photoelectrically converts it, and outputs it as a pixel signal.
  • the organic photoelectric conversion element 252 detects red light (R), photoelectrically converts it, and outputs it as a pixel signal.
  • Part of the light (eg, infrared light) incident on the incident surface of the organic photoelectric conversion layer 25 can pass through the surface (ie, front surface) opposite to the incident surface (ie, back surface). .
  • electrodes 241 and wirings 242 for transmitting electric power and various drive signals to each pixel P in the organic photoelectric conversion layer 25 and for transmitting pixel signals read out from each pixel P. layer.
  • the IR photoelectric conversion layer 23 is a functional layer in which a pixel circuit group including an IR photoelectric conversion element 231 constituting each pixel P and electronic elements such as various transistors is formed.
  • the IR photoelectric conversion element 231 of the IR photoelectric conversion layer 23 detects infrared light (IR) incident through the on-chip lens 27 and the color filter 26, performs photoelectric conversion, and outputs it as a pixel signal.
  • the IR photoelectric conversion element 231 and various electronic elements are electrically connected to the electrode 241 of the intermediate layer 24 via the electrode 232 and wiring 242, and are also electrically connected to predetermined metal wiring in the wiring layer 22. .
  • the wiring layer 22 transmits electric power and various driving signals to each pixel P in the IR photoelectric conversion layer 23 and the organic photoelectric conversion layer 25, and also has a metal wiring pattern for transmitting pixel signals read from each pixel P. It is a formed layer.
  • the wiring layer 22 is formed on the semiconductor support substrate 21 .
  • the wiring layer 22 can typically be configured by laminating a plurality of metal wiring pattern layers with an interlayer insulating film interposed therebetween. Moreover, the laminated metal wiring patterns are electrically connected by vias, for example, as required.
  • the wiring layer 22 is made of metal such as aluminum (Al) or copper (Cu), for example.
  • the interlayer insulating film is formed of silicon oxide or the like, for example.
  • the semiconductor support substrate 21 is a substrate for supporting various layers formed in the semiconductor manufacturing process. Also, on the semiconductor support substrate 21, for example, logic circuits and an aberration correction memory 117 for realizing some of the various components described above are formed.
  • the semiconductor support substrate 21 is made of single crystal silicon, for example.
  • the aberration correction memory 117 stores the amount of longitudinal chromatic aberration in the plane of the lens 2 and the imaging device 1 .
  • the amount of axial chromatic aberration at the center and periphery of the image sensor 1 is not constant, but varies from the center to the periphery.
  • the amount of longitudinal chromatic aberration for each image height is stored in the aberration correction memory 117 for adjusting the variation.
  • the amount of aberration may be stored for each area obtained by dividing the imaged screen in the X (row direction) and Y (column direction) by the storage capacity, and the lens 2 may be stored from the center to the periphery (hereinafter referred to as image height ), which usually have the same characteristics, may be stored for each image height.
  • FIG. 5 shows an example in which infrared light is output from the laser light source 4 as 6 dots and 4 dots respectively in X and Y, and is emitted to the object OBJ after the angle of view is adjusted by the correction lens 5.
  • Reference numeral 2 denotes a lens 2 that corresponds to the above-described radiation angle, and reflected visible light and infrared light are received by the imaging device 1 as reflected light from the subject OBJ.
  • the area of the image sensor 1 is also divided into 6 and 4 in X and Y, respectively, and the aberration information (aberration amount) of each area, which will be described later, is calculated. Just memorize it.
  • the output of the laser light source 4 When the output of the laser light source 4 is emitted from a DOE or the like, it becomes multiple points. Therefore, the areas of X and Y in FIG. aberration amount) may be stored.
  • FIG. 6 illustrates functional blocks of the imaging device 1 .
  • the imaging device has visible light R, G, and B color filters 26, and includes photodiodes (PD) 311, 312, and 313 for receiving light of respective light wavelengths, and a PD 314 for receiving infrared light.
  • amplifiers 321, 322, 323, and 324 for amplifying the analog signals from the aforementioned PDs to a predetermined signal level; CDS/A/D circuits 331, 332, 333, and 334 are provided.
  • the imaging device 1 has an output I/F circuit 34 for outputting the digital signal to an external application processor 40 or the like.
  • the output I/F circuit 34 has a function of receiving a control signal from the application processor 40 and passing the control content to the sensor control circuit 35 provided in the image sensor 1 .
  • the sensor control circuit 35 is a circuit for controlling the sensor drive frequency, exposure time, etc. This circuit reads necessary information from the aberration correction memory 117 and the image quality adjustment storage device 36 provided in the image sensor 1. , is a circuit having a function of writing as needed.
  • FIG. 8 is an example of a graph obtained by optically simulating focal positions using the plurality of lenses shown in FIG.
  • the vertical axis represents the image height
  • the horizontal axis represents the focal position of each light wavelength of red (R), green (G), blue (B), and infrared (IR).
  • Red is indicated by a solid line in the figure
  • green is indicated by a broken line in the figure
  • blue is indicated by a thick dotted line in the figure
  • infrared is indicated by a thin dotted line in the figure.
  • the inside of the dotted line in FIG. 9(a) is the depth of focus with respect to the sensor surface of the depth of focus. is off even considering the depth of focus, and IR is off significantly.
  • FIG. 9(b) shows an optical simulation example in which an image pickup device having infrared pixels larger than visible light pixels, which will be described later, is provided. is 5.6 ⁇ m.
  • the depth of focus of R, G, and B does not change, but the depth of focus of IR increases.
  • the depth of focus does not match for each light wavelength even in this imaging device.
  • the configuration of the R, G, and B color filters 26 of the image pickup device 1 is generally a mosaic array called Bayer, and the light wavelength of G is x2 for the R and B devices. It is known that numbers are arranged. Therefore, R and B do not require resolution as high as G, and are generally calculated with the reciprocal of 2.8 ⁇ m in accordance with the number of elements.
  • the depth of focus differs for each light wavelength due to the influence of longitudinal chromatic aberration.
  • R and IR are out of focus.
  • IR is used, R, G, and B are out of focus.
  • the content of longitudinal chromatic aberration varies depending on the image height of the lens 2 . This means that the focus of the G pixel and the focus of the IR are more shifted at an image height of 9 than at an image height of 0, for example, when the lens is focused at the wavelength of G light.
  • FIG. 11 is a flow chart showing an example of the processing procedure of the application processor 40 that performs auto-focusing and imaging in the imaging device 1.
  • the application processor 40 causes the laser light source 4 to emit infrared light to assist distance measurement or autofocus (step ST11a).
  • the imaging element 1 picks up the reflected light of the subject OBJ through the lens 2 and the DBPF 9 .
  • the imaging device 1, here, a camera or a mobile terminal the focus point of the subject is specified by the user, or the focus point in the imaging area is automatically specified by the above-mentioned camera or mobile terminal. .
  • the application processor 40 drives and controls the laser light source 4 to irradiate infrared light, and uses the reflected light of the object OBJ (for example, green light in FIG. 11).
  • the actuator 3 is controlled for focusing, the lens 2 is driven, autofocus is performed (step ST11b), and the IR photoelectric conversion layer 23 of the image sensor 1 is focused at the focal point of the infrared light detected in (step ST11c).
  • the application processor 40 reads out the pre-stored axial chromatic aberration amount from the aberration correction memory 117 (step ST11d). ), the lens 2 is moved by controlling the actuator 3 according to the amount of aberration (step ST11e).
  • the amount of axial chromatic aberration deviation is stored for each image height in the aberration correction memory 117, and the amount of aberration of the focus point, that is, the focus point within the imaging area can be used.
  • the above-described lens 2 is driven by the amount of aberration, and the imaging device 1 performs visible light imaging (step ST11f).
  • the application processor 40 controls the imaging device 1 so as to perform visible light imaging.
  • the organic photoelectric conversion layer 25 for visible light and the IR photoelectric conversion layer 23 for infrared light (IR) are stacked on the same semiconductor substrate 11 in the thickness direction.
  • the semiconductor support substrate 21 of the semiconductor substrate 11 is provided with an aberration correction memory 117 that stores the amount of aberration at the focal point of visible light and infrared light. Therefore, a visible light image and an infrared light image can be simultaneously acquired at the same position on the imaging surface of the semiconductor substrate 11 of the imaging device 1, and furthermore, the aberration amount stored in the aberration correction memory 117 can be used.
  • a simple procedure of correcting focal aberration between visible light and infrared light after focusing has achieved high performance, miniaturization, and low cost without defocusing between visible light and infrared light.
  • the imaging device 1 can be realized.
  • the actuator 3 drives the lens 2 in at least one of the X-axis direction (row direction) and the Y-axis direction (column direction) in response to camera shake. , the effects of camera shake can be reduced.
  • the aberration correction memory 117 stores the amount of aberration for each image height at the position where the pixel P is formed or the position of the pixel P. Even if the aberration fluctuates, the aberration can be effectively corrected according to the image height.
  • the color of the object OBJ can be determined, and the amount of aberration corresponding to the color of the object OBJ can be calculated.
  • the aberration correction memory 117 By reading out from the aberration correction memory 117 and correcting the aberration of the focus between the light of the color component of the object OBJ and the infrared light, it is possible to easily and in a short time pick up an image with a suitable focus. .
  • the actuator 3 and driving the lens 2 in the focus direction (Z-axis direction) according to the amount of aberration corresponding to the color of the object OBJ the color components of the object OBJ are corrected.
  • the actuator 3 has a function of controlling in the X-axis direction (row direction) and the Y-axis direction (column direction), and corrects camera shake of the photographer.
  • FIG. 12 is a flowchart showing an example of a processing procedure of the application processor 40 that performs autofocus and imaging in the imaging device 1 according to the first modified example of the first embodiment.
  • the green wavelength of visible light and the amount of axial chromatic aberration of infrared light are corrected. It is possible to determine the color of an object.
  • the object OBJ is dominated by the red light wavelength, and in this case, the aberration between the red light wavelength and the infrared light wavelength is used to perform suitably focused imaging. be able to.
  • the application processor 40 emits infrared light from the laser light source 4 to assist distance measurement or autofocus (step ST12a). Then, the imaging element 1 picks up the reflected light of the subject OBJ through the lens 2 and the DBPF 9 .
  • the application processor 40 drives and controls the laser light source 4 to irradiate infrared light, and uses the reflected light of the object OBJ (for example, red light in FIG. 12).
  • the actuator 3 is controlled for focusing, the lens 2 is driven, autofocus is performed (step ST12b), and the IR photoelectric conversion layer 23 of the image sensor 1 is focused at the focal point of the infrared light detected in (step ST12c).
  • the application processor 40 reads out prerecorded axial chromatic yield data from the aberration correction memory 117 (Ste ST12d), the lens 2 is moved by controlling the actuator 3 according to the amount of aberration (step ST12e).
  • the amount of axial chromatic aberration deviation is stored for each image height in the aberration correction memory 117, and the amount of aberration of the focus point, that is, the focus point within the imaging area can be used.
  • the above-described lens 2 is driven by the amount of aberration, and the imaging device 1 performs visible light imaging (step ST12f).
  • the application processor 40 controls the imaging device 1 so as to perform visible light imaging.
  • FIG. 13 is a flow chart showing an example of a processing procedure of the application processor 40 that performs autofocus and imaging in the imaging device 1 according to the second modification of the first embodiment.
  • the green wavelength of visible light and the infrared light and in the first modification of the first embodiment, the aberration amount of the green wavelength of the visible light and the infrared light is
  • all stored aberration amounts are corrected using visible light data.
  • the depths of blue and green visible light overlap in many areas from the depth of focus, but when viewed in detail, it can be seen that they are slightly shifted from the original in-focus position. Since red visible light overlaps with green visible light in a small area, precision is required to adjust the lens 2 in this overlapped area.
  • the application processor 40 causes the laser light source 4 to emit infrared light to assist distance measurement or autofocus (step ST13a). Then, the imaging element 1 picks up the reflected light of the subject OBJ through the lens 2 and the DBPF 9 .
  • the application processor 40 drives and controls the laser light source 4 to irradiate the infrared light, and uses the reflected light of the object OBJ (for example, red light, green light, and blue light in FIG. 13) to Although not explained in , using contrast, phase difference, ToF, a structure light system, etc., the actuator 3 is controlled for focusing, the lens 2 is driven, autofocus is performed (step ST13b), and the image sensor 1 is focused at the focal point of the infrared light detected by the IR photoelectric conversion layer 23 (step ST13c).
  • the object OBJ for example, red light, green light, and blue light in FIG. 13
  • the application processor 40 obtains the previously stored amount of longitudinal chromatic aberration with blue light from the aberration correction memory 117. Reading is performed (step ST13d), and the lens 2 is moved by controlling the actuator 3 according to the amount of aberration (step ST13e).
  • the amount of axial chromatic aberration deviation is stored for each image height in the aberration correction memory 117, and the amount of aberration of the focus point, that is, the focus point within the imaging area can be used.
  • the lens 2 is driven by the amount of aberration, the imaging device 1 performs visible light imaging, and outputs the obtained pixel signal (imaging data) to the application processor 40 (step ST13f).
  • the application processor 40 controls the imaging device 1 so as to perform visible light imaging.
  • the application processor 40 reads from the aberration correction memory 117 the pre-stored axial chromatic aberration amount with green light (step ST13g), and controls the actuator 3 according to the aberration amount to move the lens 2 ( step ST13h).
  • the lens 2 is driven by the amount of aberration, the imaging device 1 performs visible light imaging, and outputs the obtained pixel signal (imaging data) to the application processor 40 (step ST13j).
  • the application processor 40 reads out the previously stored amount of longitudinal chromatic aberration with red light from the aberration correction memory 117 (step ST13j), and controls the actuator 3 according to the amount of aberration to move the lens 2 ( step ST13k).
  • the lens 2 is driven by the amount of aberration, the imaging device 1 performs visible light imaging, and outputs the obtained pixel signal (imaging data) to the application processor 40 (step ST13l).
  • the application processor 40 synthesizes the blue light image data, the green light image data, and the red light image data output from the image sensor 1 (step ST13m).
  • the output of the image sensor 1 is set to output data of only blue pixels, only green pixels, and only red pixels. , the amount of data can be reduced.
  • the first embodiment is an example in which the amounts of aberration of visible light and infrared light of the primary colors red, green, and blue are stored. Purple, green, and magenta are also acceptable. Also, in order to reduce the capacity of the memory for aberration correction 117, one aberration amount of visible light and infrared light may be used in comparison with lens performance.
  • the present disclosure stores an image sensor 1 that can simultaneously capture visible light and infrared light regardless of color, and one or more aberration amounts for each increase in visible light and infrared light, and the above-described aberration The amount is corrected by driving the lens 2, and suitable imaging is performed.
  • FIG. 14 is a partial vertical cross-sectional view showing an example of the cross-sectional structure of the semiconductor substrate 11 of the imaging device 1A according to the second embodiment of the present disclosure.
  • the same reference numerals are given to the same parts as in FIG. 4, and detailed description thereof will be omitted.
  • the imaging element 1 according to the first embodiment and the imaging element 1A according to the second embodiment are divided according to the configuration of the projector including the laser light source 4 and the correction lens 5 .
  • a method called ToF in which infrared light emitted from a projector is irradiated in a specific pattern using an optical diffraction element or the like, and distance measurement is performed based on the shape of the pattern, generally uses a structure similar to that of the imaging device 1. target.
  • infrared light pixels and visible pixels, that is, RGB pixels have the same size, and the accuracy of distance measurement using infrared light is the same as that of visible pixels, so highly accurate focusing can be achieved.
  • the infrared light pixels are configured to have a size of 4 ⁇ 4 of the visible light pixels P, the sensitivity is high, that is, the distance for distance measurement can be measured over long distances.
  • the infrared light pixels are configured to have a size of 4 ⁇ 4 of the visible light pixels P, the sensitivity is high. The distance of the distance can be measured to a long distance.
  • FIG. 15 is a partial vertical cross-sectional view showing an example of the cross-sectional structure of the semiconductor substrate 11 of the imaging device 1B according to the third embodiment of the present disclosure.
  • the same reference numerals are given to the same parts as in FIG. 4, and detailed description thereof will be omitted.
  • the infrared light from the projector described above is used as auxiliary light
  • a structure that can detect the phase difference in the infrared pixels is effective.
  • the light shielding film 243 is formed for each pixel P for visible light, and the pixel P for visible light is half shielded or divided to form a phase difference pixel.
  • each pixel P for visible light is provided with the light shielding film 243 to form a phase difference pixel, thereby performing distance measurement with both visible light and infrared light. This makes it possible to improve the accuracy of distance measurement.
  • FIG. 16 is a partial vertical cross-sectional view showing an example of the cross-sectional structure of the semiconductor substrate 11 of the imaging device 1C according to the fourth embodiment of the present disclosure.
  • the same parts as those in FIG. 14 are denoted by the same reference numerals, and detailed description thereof will be omitted.
  • the light shielding film 243 is formed for each pixel P for visible light, and the pixel P for visible light is half shielded or divided, so that the phase difference pixel , it is also possible to measure the distance using both visible light and infrared light.
  • FIG. 17 is an example of data output of the image sensor 1 in the image sensor 1 according to the fifth embodiment of the present disclosure.
  • the imaging device 1 uses infrared light for distance measurement and autofocus.
  • photoelectrically converted data corresponding to infrared light from the image sensor 1 is output to an external device such as the application processor 40 through the output I/F circuit 34 .
  • the application processor 40 calculates the distance to the object OBJ from the received infrared light imaging data, and drives the actuator 3 to perform autofocus for focusing.
  • the imaging device 1 outputs the aberration amounts of infrared light and visible light stored in advance in the aberration correction memory 117 to the application processor 40 as data through the output I/F circuit 34 .
  • the fifth embodiment of the present disclosure is an example of sequentially outputting in the vertical blanking period of the captured frame of the infrared light image output.
  • a captured frame is composed of a plurality of pixels P.
  • the application processor 40 has a sufficient storage capacity, the aberration amounts stored in the image pickup device 1 are collectively sent when the power of the image pickup device 1 is turned on or when the entire device such as a mobile terminal is adjusted. 40 storage devices.
  • the application processor 40 drives the lens 2 according to the aberration amount for the next visible light imaging, and prepares for the next visible light imaging.
  • the lens 2 is focused on the visible light, and the imaging device 1 outputs image data obtained by photoelectrically converting the visible light to the application processor 40 .
  • the fifth embodiment of the present disclosure is an example in which infrared light and visible light are separately output.
  • both infrared and visible light may be output before and after focusing.
  • the application processor 40 uses the vertical blanking period of the imaging frame of the infrared image to control the readout of the aberration amount from the aberration correction memory 117 and to control the lens for the actuator 3.
  • the drive control of 2 it is possible to correct the focal aberration of the visible light and the infrared light while performing the imaging process of the infrared light and the visible light, and to shorten the time of the imaging process. can be done.
  • FIG. 18A is a schematic diagram showing an example of the overall configuration of a photodetection system 401 according to the sixth embodiment of the present disclosure.
  • FIG. 18B is a schematic diagram showing an example of the circuit configuration of the photodetection system 401.
  • the light detection system 401 includes a light emitting device 410 as a light source section that emits infrared light L2, and an imaging element 420 as a light receiving section having a photoelectric conversion element.
  • the imaging device 420 the imaging device 1 described above can be used.
  • the light detection system 401 may further include a system controller 430 , a light source driver 440 , a sensor controller 450 , a light source side optical system 460 and a camera side optical system 470 .
  • the imaging element 420 can detect the light L1 and the light L2.
  • the light L1 is ambient light from the outside reflected by the object (measurement object) 400 (FIG. 18A).
  • the light L2 is light that is emitted by the light emitting device 410 and then reflected by the subject 400 .
  • the light L1 is, for example, visible light, and the light L2 is, for example, infrared light.
  • the light L1 can be detected by the organic photoelectric converter in the imaging element 420, and the light L2 can be detected by the photoelectric converter in the imaging element 420.
  • FIG. Image information of the object 400 can be obtained from the light L1, and distance information between the object 400 and the light detection system 401 can be obtained from the light L2.
  • the light detection system 401 can be mounted on, for example, an electronic device such as a smart phone or a mobile object such as a car.
  • the light emitting device 410 can be composed of, for example, a semiconductor laser, a surface emitting semiconductor laser, or a vertical cavity surface emitting laser (VCSEL).
  • VCSEL vertical cavity surface emitting laser
  • an iTOF method can be adopted, but the method is not limited to this.
  • the photoelectric conversion unit can measure the distance to the subject 400 by, for example, time-of-flight (TOF).
  • a structured light method or a stereo vision method can be adopted as a method for detecting the light L2 emitted from the light emitting device 410 by the imaging device 420.
  • the distance between the photodetection system 401 and the subject 400 can be measured by projecting a predetermined pattern of light onto the subject 400 and analyzing the degree of distortion of the pattern.
  • the stereo vision method for example, two or more cameras are used to acquire two or more images of the subject 400 viewed from two or more different viewpoints, thereby measuring the distance between the light detection system 401 and the subject. can.
  • the light emitting device 410 and the imaging element 420 can be synchronously controlled by the system control section 430 .
  • FIG. 19 is a block diagram showing a configuration example of an electronic device 2000 to which the present technology is applied.
  • Electronic device 2000 has a function as a camera, for example.
  • An electronic device 2000 includes an optical unit 2001 including a lens group, an image sensor 2002 to which the above-described image sensor 1 or the like (hereinafter referred to as the image sensor 1 or the like) is applied, and a DSP (Digital Signal Processor) which is a camera signal processing circuit. ) circuit 2003;
  • Electronic device 2000 also includes frame memory 2004 , display unit 2005 , recording unit 2006 , operation unit 2007 , and power supply unit 2008 .
  • DSP circuit 2003 , frame memory 2004 , display unit 2005 , recording unit 2006 , operation unit 2007 and power supply unit 2008 are interconnected via bus line 2009 .
  • the optical unit 2001 captures incident light (image light) from a subject and forms an image on the imaging surface of the imaging element 2002 .
  • the imaging device 2002 converts the amount of incident light imaged on the imaging surface by the optical unit 2001 into an electric signal on a pixel-by-pixel basis, and outputs the electric signal as a pixel signal.
  • the display unit 2005 is composed of, for example, a panel type display device such as a liquid crystal panel or an organic EL panel, and displays moving images or still images captured by the imaging device 2002 .
  • a recording unit 2006 records a moving image or still image captured by the image sensor 2002 in a recording medium such as a hard disk or a semiconductor memory.
  • An operation unit 2007 issues operation commands for various functions of the electronic device 2000 under user's operation.
  • a power supply unit 2008 appropriately supplies various power supplies as operating power supplies for the DSP circuit 2003, the frame memory 2004, the display unit 2005, the recording unit 2006, and the operation unit 2007 to these supply targets.
  • image sensor 1 or the like as the image sensor 2002, acquisition of a good image can be expected.
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 20 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique (the present technique) according to the present disclosure can be applied.
  • FIG. 20 shows an operator (doctor) 11131 performing an operation on a patient 11132 on a patient bed 11133 using an endoscopic surgery system 11000 .
  • an endoscopic surgery system 11000 includes an endoscope 11100, other surgical instruments 11110 such as a pneumoperitoneum tube 11111 and an energy treatment instrument 11112, and a support arm device 11120 for supporting the endoscope 11100. , and a cart 11200 loaded with various devices for endoscopic surgery.
  • An endoscope 11100 is composed of a lens barrel 11101 whose distal end is inserted into the body cavity of a patient 11132 and a camera head 11102 connected to the proximal end of the lens barrel 11101 .
  • an endoscope 11100 configured as a so-called rigid scope having a rigid lens barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible scope having a flexible lens barrel. good.
  • An optical system and an imaging element are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the imaging element by the optical system.
  • the imaging device photoelectrically converts the observation light to generate an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • the image signal is transmitted to a camera control unit (CCU: Camera Control Unit) 11201 as RAW data.
  • CCU Camera Control Unit
  • the CCU 11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the operations of the endoscope 11100 and the display device 11202 in an integrated manner. Further, the CCU 11201 receives an image signal from the camera head 11102 and performs various image processing such as development processing (demosaicing) for displaying an image based on the image signal. The display device 11202 displays an image based on an image signal subjected to image processing by the CCU 11201 under the control of the CCU 11201 .
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the light source device 11203 is composed of, for example, a light source such as an LED (Light Emitting Diode), and supplies the endoscope 11100 with irradiation light for photographing a surgical site or the like.
  • Input device 11204 is an input interface for endoscopic surgery system 11000 .
  • the user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204 .
  • the user inputs an instruction or the like to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100 .
  • the treatment instrument control device 11205 controls driving of the energy treatment instrument 11112 for tissue cauterization, incision, blood vessel sealing, or the like.
  • the pneumoperitoneum device 11206 inflates the body cavity of the patient 11132 for the purpose of securing the visual field of the endoscope 11100 and securing the operator's working space, and injects gas into the body cavity through the pneumoperitoneum tube 11111. send in.
  • the recorder 11207 is a device capable of recording various types of information regarding surgery.
  • the printer 11208 is a device capable of printing various types of information regarding surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the endoscope 11100 with irradiation light for photographing the surgical site can be composed of, for example, a white light source composed of an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. It can be carried out.
  • the observation target is irradiated with laser light from each of the RGB laser light sources in a time-division manner, and by controlling the drive of the imaging element of the camera head 11102 in synchronization with the irradiation timing, each of RGB can be handled. It is also possible to pick up images by time division. According to this method, a color image can be obtained without providing a color filter in the imaging device.
  • the driving of the light source device 11203 may be controlled so as to change the intensity of the output light every predetermined time.
  • the drive of the imaging device of the camera head 11102 in synchronism with the timing of the change in the intensity of the light to obtain an image in a time-division manner and synthesizing the images, a high dynamic A range of images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, the wavelength dependence of light absorption in body tissues is used to irradiate a narrower band of light than the irradiation light (i.e., white light) used during normal observation, thereby observing the mucosal surface layer.
  • narrow band imaging in which a predetermined tissue such as a blood vessel is imaged with high contrast, is performed.
  • fluorescence observation may be performed in which an image is obtained from fluorescence generated by irradiation with excitation light.
  • the body tissue is irradiated with excitation light and the fluorescence from the body tissue is observed (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is A fluorescence image can be obtained by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 can be configured to be able to supply narrowband light and/or excitation light corresponding to such special light observation.
  • FIG. 21 is a block diagram showing an example of functional configurations of the camera head 11102 and CCU 11201 shown in FIG.
  • the camera head 11102 has a lens unit 11401 , an imaging section 11402 , a drive section 11403 , a communication section 11404 and a camera head control section 11405 .
  • the CCU 11201 has a communication section 11411 , an image processing section 11412 and a control section 11413 .
  • the camera head 11102 and the CCU 11201 are communicably connected to each other via a transmission cable 11400 .
  • a lens unit 11401 is an optical system provided at a connection with the lens barrel 11101 . Observation light captured from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401 .
  • a lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the imaging unit 11402 is composed of an imaging device.
  • the imaging device constituting the imaging unit 11402 may be one (so-called single-plate type) or plural (so-called multi-plate type).
  • image signals corresponding to RGB may be generated by each image pickup element, and a color image may be obtained by synthesizing the image signals.
  • the imaging unit 11402 may be configured to have a pair of imaging elements for respectively acquiring right-eye and left-eye image signals corresponding to 3D (Dimensional) display.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of systems of lens units 11401 may be provided corresponding to each imaging element.
  • the imaging unit 11402 does not necessarily have to be provided in the camera head 11102 .
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is configured by an actuator, and moves the zoom lens and focus lens of the lens unit 11401 by a predetermined distance along the optical axis under the control of the camera head control unit 11405 . Thereby, the magnification and focus of the image captured by the imaging unit 11402 can be appropriately adjusted.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400 .
  • the communication unit 11404 receives a control signal for controlling driving of the camera head 11102 from the CCU 11201 and supplies it to the camera head control unit 11405 .
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and/or information to specify the magnification and focus of the captured image. Contains information about conditions.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately designated by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. good.
  • the endoscope 11100 is equipped with so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls driving of the camera head 11102 based on control signals from the CCU 11201 received via the communication unit 11404 .
  • the communication unit 11411 is configured by a communication device for transmitting/receiving various information to/from the camera head 11102 .
  • the communication unit 11411 receives image signals transmitted from the camera head 11102 via the transmission cable 11400 .
  • the communication unit 11411 also transmits a control signal for controlling driving of the camera head 11102 to the camera head 11102 .
  • Image signals and control signals can be transmitted by electrical communication, optical communication, or the like.
  • the image processing unit 11412 performs various types of image processing on the image signal, which is RAW data transmitted from the camera head 11102 .
  • the control unit 11413 performs various controls related to imaging of the surgical site and the like by the endoscope 11100 and display of the captured image obtained by imaging the surgical site and the like. For example, the control unit 11413 generates control signals for controlling driving of the camera head 11102 .
  • control unit 11413 causes the display device 11202 to display a captured image showing the surgical site and the like based on the image signal that has undergone image processing by the image processing unit 11412 .
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edges of objects included in the captured image, thereby detecting surgical instruments such as forceps, specific body parts, bleeding, mist during use of the energy treatment instrument 11112, and the like. can recognize.
  • the control unit 11413 may use the recognition result to display various types of surgical assistance information superimposed on the image of the surgical site. By superimposing and presenting the surgery support information to the operator 11131, the burden on the operator 11131 can be reduced and the operator 11131 can proceed with the surgery reliably.
  • a transmission cable 11400 connecting the camera head 11102 and the CCU 11201 is an electrical signal cable compatible with electrical signal communication, an optical fiber compatible with optical communication, or a composite cable of these.
  • wired communication is performed using the transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • an example of an endoscopic surgery system to which the technology according to the present disclosure can be applied has been described above.
  • the technology according to the present disclosure can be applied to, for example, the endoscope 11100, the imaging unit 11402 of the camera head 11102, the image processing unit 11412 of the CCU 11201, etc. among the configurations described above.
  • the imaging element 1 in FIG. 1 can be applied to the imaging unit 10402 .
  • the technology according to the present disclosure may also be applied to, for example, a microsurgery system.
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be realized as a device mounted on any type of moving body such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, and robots. may
  • FIG. 22 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 12000 comprises a plurality of electronic control units connected via communication network 12001 .
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, a vehicle exterior information detection unit 12030, a vehicle interior information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/image output unit 12052, and an in-vehicle network I/F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the driving system control unit 12010 includes a driving force generator for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism to adjust and a brake device to generate braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, winkers or fog lamps.
  • the body system control unit 12020 can receive radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives the input of these radio waves or signals and controls the door lock device, power window device, lamps, etc. of the vehicle.
  • the vehicle exterior information detection unit 12030 detects information outside the vehicle in which the vehicle control system 12000 is installed.
  • the vehicle exterior information detection unit 12030 is connected with an imaging section 12031 .
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electric signal as an image, and can also output it as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • the in-vehicle information detection unit 12040 is connected to, for example, a driver state detection section 12041 that detects the state of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing off.
  • the microcomputer 12051 calculates control target values for the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and controls the drive system control unit.
  • a control command can be output to 12010 .
  • the microcomputer 12051 realizes the functions of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, etc. based on the information about the vehicle surroundings acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver's Cooperative control can be performed for the purpose of autonomous driving, etc., in which vehicles autonomously travel without depending on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the information detection unit 12030 outside the vehicle.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control aimed at anti-glare such as switching from high beam to low beam. It can be carried out.
  • the audio/image output unit 12052 transmits at least one of audio and/or image output signals to an output device capable of visually or audibly notifying the passengers of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 23 is a diagram showing an example of the installation position of the imaging unit 12031.
  • vehicle 12100 has imaging units 12101 , 12102 , 12103 , 12104 , and 12105 as imaging unit 12031 .
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided at positions such as the front nose of the vehicle 12100, the side mirrors, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior, for example.
  • An image pickup unit 12101 provided in the front nose and an image pickup unit 12105 provided above the windshield in the passenger compartment mainly acquire images in front of the vehicle 12100 .
  • Imaging units 12102 and 12103 provided in the side mirrors mainly acquire side images of the vehicle 12100 .
  • An imaging unit 12104 provided in the rear bumper or back door mainly acquires an image behind the vehicle 12100 .
  • Forward images acquired by the imaging units 12101 and 12105 are mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 23 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of an imaging unit 12104 provided on the rear bumper or back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera composed of a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and changes in this distance over time (relative velocity with respect to the vehicle 12100). , it is possible to extract, as the preceding vehicle, the closest three-dimensional object on the course of the vehicle 12100, which runs at a predetermined speed (for example, 0 km/h or more) in substantially the same direction as the vehicle 12100. can. Furthermore, the microcomputer 12051 can set the inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including following stop control) and automatic acceleration control (including following start control). In this way, cooperative control can be performed for the purpose of automatic driving in which the vehicle runs autonomously without relying on the operation of the driver.
  • automatic brake control including following stop control
  • automatic acceleration control including following start control
  • the microcomputer 12051 converts three-dimensional object data related to three-dimensional objects to other three-dimensional objects such as motorcycles, ordinary vehicles, large vehicles, pedestrians, and utility poles. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into those that are visible to the driver of the vehicle 12100 and those that are difficult to see. Then, the microcomputer 12051 judges the collision risk indicating the degree of danger of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, an audio speaker 12061 and a display unit 12062 are displayed. By outputting an alarm to the driver via the drive system control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not the pedestrian exists in the captured images of the imaging units 12101 to 12104 .
  • recognition of a pedestrian is performed by, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and performing pattern matching processing on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian.
  • the audio image output unit 12052 outputs a rectangular outline for emphasis to the recognized pedestrian. is superimposed on the display unit 12062 . Also, the audio/image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to, for example, the imaging unit 12031 among the configurations described above. Specifically, it can be applied to the imaging device 1 in FIG.
  • a lens optical system a first photoelectric conversion unit having a plurality of first photoelectric conversion elements formed in a matrix for detecting and photoelectrically converting light in a first wavelength region including visible light reflected from an object; A plurality of second photoelectric converters formed in a matrix for detecting and photoelectrically converting light in a second wavelength region including infrared light reflected from the subject and provided at a position overlapping with the first photoelectric conversion unit.
  • a second photoelectric conversion unit having a photoelectric conversion element; a storage unit for storing focal aberration amounts of the light in the first wavelength range and the light in the second wavelength range in the lens optical system; After focusing at the focal point of the light in the second wavelength range detected by the second photoelectric conversion section, the light in the first wavelength range and the light in the first wavelength range are determined based on the amount of aberration stored in the storage section.
  • a solid-state imaging device that corrects focal aberration with light in two wavelength ranges.
  • a driving unit that drives the lens optical system in at least one direction of a perspective direction to the subject, and a row direction and a column direction in which the plurality of first photoelectric conversion elements and the plurality of second photoelectric conversion elements are formed.
  • the solid-state imaging device according to (1) wherein the drive unit drives the lens optical system based on the amount of aberration stored in the storage unit.
  • the drive section drives the lens optical system in at least one of the row direction and the column direction in response to camera shake.
  • the storage section is provided on a semiconductor substrate on which the first photoelectric conversion section and the second photoelectric conversion section are formed.
  • the solid-state imaging device wherein the storage unit stores an amount of aberration for each position where the first photoelectric conversion element or the second photoelectric conversion element is formed, or for each image height at the position. .
  • the solid-state imaging device wherein at least one of the first photoelectric conversion unit and the second photoelectric conversion unit includes a light shielding film and constitutes a phase difference pixel for each of the first photoelectric conversion elements.
  • Device. (8) A driving unit that drives the lens optical system, The solid-state imaging device according to (1), wherein focal aberration between the light in the first wavelength range and the light in the second wavelength range is corrected by driving the lens optical system according to the amount of aberration.
  • an irradiation unit that emits infrared light to a subject; an imaging device for receiving reflected light from the subject, wherein the imaging device a lens optical system; a first photoelectric conversion unit having a plurality of first photoelectric conversion elements formed in a matrix for detecting and photoelectrically converting light in a first wavelength region including visible light reflected from an object; A plurality of second photoelectric converters formed in a matrix for detecting and photoelectrically converting light in a second wavelength region including infrared light reflected from the subject and provided at a position overlapping with the first photoelectric conversion unit.
  • a second photoelectric conversion unit having a photoelectric conversion element; a storage unit for storing focal aberration amounts of the light in the first wavelength range and the light in the second wavelength range in the lens optical system; After focusing at the focal point of the light in the second wavelength band detected by the second photoelectric conversion unit, the imaging device detects the first wavelength band based on the amount of aberration stored in the storage unit. and the light in the second wavelength range.
  • a signal processing unit that performs signal processing based on the electrical signal output from each of the first photoelectric conversion elements and the electrical signal that is output from each of the second photoelectric conversion elements, and executes read control with respect to the storage unit.
  • the signal processing unit adjusts the first wavelength based on the amount of aberration stored in the storage unit.
  • the imaging system according to (9) above which corrects focal aberration between the light in the second wavelength range and the light in the second wavelength range.
  • a driving unit that drives the lens optical system in at least one direction of a perspective direction to the subject, and a row direction and a column direction in which the plurality of first photoelectric conversion elements and the plurality of second photoelectric conversion elements are formed.
  • the signal processing unit corrects the focus aberration by controlling the driving unit to drive the lens optical system based on the amount of aberration stored in the storage unit.
  • imaging system (20) The signal processing unit controls readout of the storage unit during a blanking period of an imaging frame formed by the plurality of first photoelectric conversion elements or the plurality of second photoelectric conversion elements, and The imaging system according to (12) above, which executes drive control of the lens optical system with respect to the drive unit.
  • the aberration amount stored in the storage unit is read out by the signal processing unit based on the result of focusing at the focus of the light in the first wavelength band, and the second wavelength including visible light is read based on the aberration amount. correcting focal aberrations between light in the first wavelength band and light in the first wavelength band.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Hardware Design (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)

Abstract

赤外光及び可視光の撮像を同時に実行し、高性能化、小型化及び低コスト化を図り得る固体撮像装置を提供する。固体撮像装置は、レンズ光学系と、第1の光電変換部と、第2の光電変換部と、記憶部とを備える。第1の光電変換部は、可視光を検出して光電変換を行う。第2の光電変換部は、第1の光電変換部と重なる位置に設けられ、赤外光を検出して光電変換を行う。記憶部は、レンズ光学系における可視光と赤外光との焦点の収差量を記憶する。固体撮像装置は、第2の光電変換部で検出された第2の波長域の光の焦点で合焦した後、記憶部に記憶された収差量に基づいて、可視光と赤外光との焦点の収差を補正する。

Description

固体撮像装置、撮像システム及び撮像処理方法
 本開示に係る技術(本技術)は、固体撮像装置、撮像システム及び撮像処理方法に関する。
 近年、撮像装置の高画素化、高性能化、小型化などが進んできている。撮像装置の高画素化や高性能化にともない、撮像装置に実装されるCCD(Charge-Coupled Device)センサやCMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサなどの高機能化が進んでいる。
 撮像装置において、固体撮像素子に可視光つまりR(赤),G(緑),B(青)光波長域(以下、可視光)に合わせて、高性能化の1つとして、センシング機能、つまり、赤外光を使ったレンズ焦点を合わせる補助光での測長や、被写体の3次元(3D)センシングのために、赤外光波長域、例えば840nm、940nmの波長のIR光(以下、IR)を光電変換する機能を有したCMOSイメージセンサなどが提案されている。
 前述の固体撮像素子は、特許文献1及び特許文献4で示されるように、RGBの可視の光を撮像する層とIRの光を撮像する層を有することで、可視光とIR光を同時に撮影することができる固体撮像素子が提案されている。特許文献4は特許文献1と近い構造ではあるが、可視光(R,G,B)と赤外光(IR)の画素の構成を変えて、可視光の複数の撮像素子に対して、赤外光の撮像素子が1つで構成されている。
 しかしながら、固体撮像素子の光学特性に注目した場合は、レンズの収差、特に軸上色収差の影響により、固体撮像素子の可視光の層と、IR光の層でフォーカス位置がずれるという課題があった。
 前述のフォーカス位置のずれを解決するために、レンズと固体撮像素子の間には、可視光とIR光以外をカットするデュアルバンドパスフィルタ(以下、DBPF)などが固体撮像素子には具備されるが、たとえば、特許文献2は前述のデュアルバンドパスフィルタの厚みを変える構造により、可視光とIR光の光路長さを撮影時に切り替え、フォーカス位置がずれるという課題に対応している。
 しかしながら、特許文献1の手法では、DBPFを2つ組み合わせるため、DBPFの厚みが厚くなり、つまり、固体撮像素子の高さが高くなってしまう。また、DBPFの2つを機械的に動作させるために、駆動部が必要となり高価になってしまう。近年のモバイル、ウェアラブルなどに有する固体撮像装置は小型化、低背、低コスト化が進んでおり、特許文献1では課題になってしまう。
 前述の特許文献1の解決策として、特許文献2には、前述のレンズによる軸上色収差の補正として、固体撮像素子内にメモリを具備し、カメラの起動毎に本メモリをCPUに読み込み、可視光とIR光との収差ズレ量を撮影時にレンズを駆動させて補正することが提案されている。
 また、特許文献3に記載の技術は、可視光と赤外光との軸上色収差量を外部記憶装置に保存し、外部記憶装置から軸上色収差量を読み出して、赤外光で測距し、可視光の撮像時にはレンズを駆動させて撮像している。
 その他のオートフォーカスと撮像の手法として、レーザ光源をホログラムにして照射し、オートフォーカスの補助とする方法が提案されている(例えば、特許文献5)。
特開2017-208496号公報 特開2001-272708号公報 特開2002-182105号公報 国際公開2020/255999号 特開2002-237990号公報
 しかしながら、特許文献2は可視光と赤外光が別々の撮像素子であるために、高価であるとともに、可視光の撮像面内での収差補正は2つのセンサの位置合わせなどが非常に複雑となることから、製造が複雑になり高価になるといった問題があった。
 また、特許文献3による方法では、外部記憶装置が必要となる上に、赤外光を撮像する固体撮像素子を別に具備することになるため、高価になってしまう。
 さらに、特許文献5による方法では、赤外光の場合は軸上色収差が課題として発生することが考えられる。また、レーザ光源が可視光の赤の波長に近い光源の場合は、被写体の測距とRGBの撮像が同時にはできないなど課題があった。
 本開示はこのような事情に鑑みてなされたもので、赤外光の撮像と可視光の撮像とを同時に実行可能で、かつ高性能化、小型化及び低コスト化を図ることが可能な固体撮像装置、撮像システム及び撮像処理方法を提供することを目的とする。
 本開示の一態様は、レンズ光学系と、被写体から反射され可視光を含む第1の波長域の光を検出して光電変換を行う行列状に形成された複数の第1の光電変換素子を有する第1の光電変換部と、前記第1の光電変換部と重なる位置に設けられ、前記被写体から反射され赤外光を含む第2の波長域の光を検出して光電変換を行う行列状に形成された複数の第2の光電変換素子を有する第2の光電変換部と、前記レンズ光学系における前記第1の波長域の光と前記第2の波長域の光との焦点の収差量を記憶する記憶部とを備え、前記第2の光電変換部で検出された第2の波長域の光の焦点で合焦した後、前記記憶部に記憶された収差量に基づいて、前記第1の波長域の光と前記第2の波長域の光との焦点の収差を補正する固体撮像装置である。
 本開示の他の態様は、被写体に対して赤外光を出射する照射部と、前記被写体からの反射光を受光する撮像素子とを備え、前記撮像素子は、レンズ光学系と、被写体から反射され可視光を含む第1の波長域の光を検出して光電変換を行う行列状に形成された複数の第1の光電変換素子を有する第1の光電変換部と、前記第1の光電変換部と重なる位置に設けられ、前記被写体から反射され赤外光を含む第2の波長域の光を検出して光電変換を行う行列状に形成された複数の第2の光電変換素子を有する第2の光電変換部と、前記レンズ光学系における前記第1の波長域の光と前記第2の波長域の光との焦点の収差量を記憶する記憶部とを備え、前記撮像素子は、前記第2の光電変換部で検出された第2の波長域の光の焦点で合焦した後、前記記憶部に記憶された収差量に基づいて、前記第1の波長域の光と前記第2の波長域の光との焦点の収差を補正する撮像システムである。
 また、本開示の他の態様は、照射部により被写体に対して赤外光を出射することと、信号処理部により前記被写体からの反射光に基づいて、前記被写体に対しレンズ光学系を駆動させて、前記赤外光を含む第1の波長域の光の焦点で合焦することと、前記信号処理部により前記第1の波長域の光の焦点での合焦結果に基づいて、記憶部に記憶された収差量を読み出し、当該収差量に基づいて、可視光を含む第2の波長域の光と前記第1の波長域の光との焦点の収差を補正することとを含む、撮像処理方法である。
本開示の第1の実施形態に係る撮像システムを適用したセンサシステムの構成の一例を示す概略構成図である。 本開示の第1の実施形態に係るレーザ光源の波長が940nm特性時のフィルタ透過特性の一例である。 本開示の第1の実施形態に係る撮像素子の構成の一例を示す図である。 本開示の第1の実施形態に係る撮像素子の半導体基板の断面構造の一例を示す部分縦断面図である。 本開示の第1の実施形態に係るレーザ光源から赤外光がX、Yそれぞれ6、4ドットで出力され、補正レンズにより画角が調整されて被写体に放射される例である。 本開示の第1の実施形態に係る撮像素子の機能に分けたブロックを図示したものである。 レンズによる可視光及び赤外光それぞれの焦点を説明するために示す図である。 本開示の第1の実施形態に係る撮像素子を対象とレンズにより、焦点位置を光学シミュレーションしたグラフの一例である。 撮像素子の大きさ、レンズの解像に必要な円のサイズにおける焦点深度を示す特性図である。 同じく、撮像素子の大きさ、レンズの解像に必要な円のサイズにおける焦点深度を示す特性図である。 本開示の第1の実施形態に係る撮像素子において、オートフォーカスと撮像を行うアプリケーションプロセッサの処理手順の一例を示すフローチャートである。 本開示の第1の実施形態の第1の変形例に係る撮像素子において、オートフォーカスと撮像を行うアプリケーションプロセッサの処理手順の一例を示すフローチャートである。 本開示の第1の実施形態の第2の変形例に係る撮像素子において、オートフォーカスと撮像を行うアプリケーションプロセッサの処理手順の一例を示すフローチャートである。 本開示の第2の実施形態に係る撮像素子の半導体基板の断面構造の一例を示す部分縦断面図である。 本開示の第3の実施形態に係る撮像素子の半導体基板の断面構造の一例を示す部分縦断面図である。 本開示の第4の実施形態に係る撮像素子の半導体基板の断面構造の一例を示す部分縦断面図である。 本開示の第5の実施形態に係る撮像素子1において、撮像素子のデータ出力の一例である。 本開示の第6の実施形態に係る光検出システムの全体構成の一例を表す模式図である。 本開示の第6の実施形態に係る光検出システムの回路構成の一例を表す模式図である。 本技術を適用した電子機器の構成例を示すブロック図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下において、図面を参照して本開示の実施形態を説明する。以下の説明で参照する図面の記載において、同一又は類似の部分には同一又は類似の符号を付し、重複する説明を省略する。但し、図面は模式的なものであり、厚みと平面寸法との関係、各装置や各部材の厚みの比率等は現実のものと異なることに留意すべきである。したがって、具体的な厚みや寸法は以下の説明を参酌して判定すべきものである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。
 また、以下の説明における上下等の方向の定義は、単に説明の便宜上の定義であって、本開示の技術的思想を限定するものではない。例えば、対象を90°回転して観察すれば上下は左右に変換して読まれ、180°回転して観察すれば上下は反転して読まれることは勿論である。
 なお、本明細書中に記載される効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 <第1の実施形態>
 (センサシステムの構成) 
 図1は、本開示の第1の実施形態に係る撮像システムを適用したセンサシステムの構成の一例を示す概略構成図である。
 第1の実施形態に係るセンサシステム10は、CCD(Charge-Coupled Device)センサやCMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサなどの撮像素子を含む撮像装置に適用できる。また、そのような撮像装置を含む装置、例えば、携帯端末装置などにも適用できる。
 センサシステム10は、撮像素子1と、レンズ2と、アクチュエータ3と、レーザ光源4と、補正レンズ5とを備える。なお、センサシステム10は、少なくとも撮像素子1と、レーザ光源4とを備えるものであってもよい。この場合、レンズ2、アクチュエータ3及び補正レンズ5は、センサシステム10に対し外部から接続可能なものとなる。
 レーザ光源4は、被写体OBJまでの測距や生態認証のための赤外光を発光する。このレーザ光源4には、被写体OBJに合わせて適切に放射することを目的として、補正レンズ5が備えられる。また、補正レンズ5の代わりにToFやストラクチャーライトなどで使用される光学回折素子(以下、DOEと称す)であってもよい。本開示は、レーザ光源4から出力された光を補正し被写体OBJに放射するどのようなドットやパターンであっても、放射光形状に依存なく使用できる。
 レンズ2は、被写体OBJからの光を撮像素子1に集光し、撮像素子1の画素部100(図3で図示)に結像させる。撮像素子1は、被写体OBJからの光を光電変換して撮像するCCDセンサやCMOSイメージセンサなどであり、可視光と赤外光とをそれぞれの波長に合わせて受光する機能を有する。本開示では、詳細には図示しないが、ベイヤー配列(Bayer)と称される、R,G,Bフィルタの一部を外し、R,G,B、W(White)とした撮像素子においても有用である。
 上記レーザ光源4は、一般に太陽光スペクトルが比較的少ない850nm,940nm,1300nm域の波長の赤外が使用されるのが一般的であるが、後述するデュアルバンドパスフィルタ(DBPF)9の特性を変更することで、どの波長であっても対応可能となる。本開示では、赤外の波長に依存なく使用できる。
 撮像素子1とレンズ2との間には、可視光(R,G,B)と赤外光(IR)を効率よく撮像できるためにデュアルバンドパスフィルタ(DBPF)9が配置される。図2は、レーザ光源4の波長が940nm特性時のフィルタ透過特性の一例である。前述の通り、レーザ光源4の波長に合わせてDBPF9の特性を変更することができる。
 また、センサシステム10は、レンズ2の焦点を合わせるため、撮像素子1の方向に上下(以下、適宜、Z軸方向と記述する)にレンズ2を駆動するアクチュエータ3を有する。レンズ2は、Z軸方向へ駆動するためのコイルが搭載されたホルダと一体化されている。
 また、アクチュエータ3は、撮像素子1の撮像面に対して水平な面(以下、適宜、XY平面と記述する)の方向(以下、適宜、X軸方向、またはY軸方向と記述する)に駆動することにより、手振れによる影響を低減する補正を行う機能も有する。
 また、センサシステム10は、手振れ補正のためにジャイロセンサ7を備え、アクチュエータ3を外部からコントロールするためのオートフォーカス・OIS(Optical Image Stabilizer)ドライバLSI6を有し、撮像素子1の電気信号を外部に出力するための回路基板8も有する。なおここでは、回路基板と記述するが、板状の基板でなくても良く、回路基体であっても良い。
 OISは、光学式手ぶれ補正を意味し、手ぶれによる影響を低減するための補正を、光学系において処理する方式のことである。光学式手ぶれ補正は、ジャイロセンサ7により撮影時の振動を感知し、レンズ2の位置を調整したり、撮像素子1の位置を調整したりすることにより、手ぶれの影響を抑える。ここでは、レンズ2の位置を調整することで、手振れ補正を行う。
 センサシステム10は、撮像素子1と回路基板8とを電気的に接続するための金属ワイヤ31を有し、撮像素子1と回路基板8を固定するための接着材32を有している。
 (撮像素子の構成) 
 図3は、上記撮像素子1の構成の一例を示す図である。撮像素子1は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。撮像素子1は、例えば光学レンズ系を介して被写体からの入射光(像光)を取り込み、撮像面上に結像された入射光を画素単位で電気信号に変換して画素信号として出力するようになっている。撮像素子1は、例えば、CMOS LSIのようなシステム・オン・チップ(SoC)として一体的に構成され得るが、例えば、以下に示すいくつかのコンポーネントが別体のLSIとして構成されても良い。本開示では、撮像素子1は、いわゆる裏面照射型固体撮像素子であるものとする。裏面照射型固体撮像素子では、外部からの光が入射する半導体基板11の面を「裏面」と称し、その反対側を「表面」と称している。撮像素子1は、例えば半導体基板11上に、撮像エリアとしての画素部100と、その画素部100の周辺領域に配置された垂直駆動回路111、カラム信号処理回路112、水平駆動回路113、出力回路114、制御回路115および入出力端子116とを有している。
 画素部100には、例えば、行列状に2次元配置された複数の画素Pを有している。画素部100には、例えば行方向(紙面横方向)に並ぶ複数の画素Pにより構成される画素行と、列方向(紙面縦方向)に並ぶ複数の画素Pにより構成される画素列とがそれぞれ複数設けられている。行列状に配列された複数の画素Pによる領域は、撮像する対象空間に対応するいわゆる「像高」を構成する。画素部100には、例えば、画素行ごとに1つの画素駆動線Lread(行選択線およびリセット制御線)が配線され、画素列ごとに1つの垂直信号線Lsigが配線されている。画素駆動線Lreadは、各画素Pからの信号読み出しのための駆動信号を伝送するものである。複数の画素駆動線Lreadの端部は、垂直駆動回路111の各画素行に対応した複数の出力端子にそれぞれ接続されている。
 垂直駆動回路111は、シフトレジスタやアドレスデコーダ等によって構成されており、画素部100における各画素Pを、例えば、画素行単位で駆動する画素駆動部である。垂直駆動回路111によって選択走査された画素行の各画素Pから出力される信号は、垂直信号線Lsigの各々を通してカラム信号処理回路112に供給される。
 カラム信号処理回路112は、垂直信号線Lsig毎に設けられたアンプや水平選択スイッチ等によって構成されている。
 水平駆動回路113は、シフトレジスタやアドレスデコーダ等によって構成され、カラム信号処理回路112の各水平選択スイッチを走査しつつ順番に駆動するものである。この水平駆動回路113による選択走査により、複数の垂直信号線Lsigの各々を通して伝送される各画素Pの信号が順番に水平信号線121に出力され、その水平信号線121を通じて半導体基板11の外部へ伝送されるようになっている。
 出力回路114は、カラム信号処理回路112の各々から水平信号線121を介して順次供給される信号に対し、信号処理を行って出力するものである。出力回路114は、例えば、バッファリングのみを行う場合もあるし、黒レベル調整、列ばらつき補正および各種デジタル信号処理等が行われる場合もある。
 垂直駆動回路111、カラム信号処理回路112、水平駆動回路113、水平信号線121および出力回路114からなる回路部分は、半導体基板11上に直に形成されていてもよいし、あるいは外部制御ICに配設されたものであってもよい。また、それらの回路部分は、ケーブル等により接続された他の基板に形成されていてもよい。
 制御回路115は、半導体基板11の外部から与えられるクロックや、動作モードを指令するデータ等を受け取り、また、撮像素子である画素Pの内部情報等のデータを出力するものである。制御回路115はさらに、各種のタイミング信号を生成するタイミングジェネレータを有し、当該タイミングジェネレータで生成された各種のタイミング信号を基に垂直駆動回路111、カラム信号処理回路112および水平駆動回路113等の周辺回路の駆動制御を行う。
 また、本開示の撮像素子1は、レンズ2における可視光と赤外光との焦点の収差情報(収差量)を記憶する収差補正用メモリ117を備える。収差補正用メモリ117に記憶される収差量は、外部のアプリケーションプロセッサ(詳細は後述する)により読み出され、可視光と赤外光との焦点の収差の補正に使用される。
 (撮像素子の断面構造) 
 図4は、本開示の第1の実施形態に係る撮像素子1の半導体基板11の断面構造の一例を示す部分縦断面図である。同図に示すように、半導体基板11は、概略的には、例えば、半導体支持基板21と、配線層22と、IR光電変換層23と、中間層24と、有機光電変換層25と、カラーフィルタ26と、オンチップレンズ27とを含み構成される。
 オンチップレンズ27は、外部からDBPF9を介して撮像素子1に入射する光を、効率的に集光してIR光電変換層23及び有機光電変換層25の各画素P(すなわち、IR光電変換素子231、有機光電変換素子251,252)に結像するための光学レンズである。オンチップレンズ27は、典型的には、画素Pごとに配置される。なお、オンチップレンズ27は、例えば、酸化シリコン、窒化シリコン、酸窒化シリコン、有機SOG、ポリイミド系樹脂、又はフッ素系樹脂等から形成される。
 カラーフィルタ26は、オンチップレンズ27により集光された光のうち、所定の波長の光を選択的に透過する光学フィルタである。本例では、赤色光(R)、緑色光(G)の波長をそれぞれ選択的に透過する2つのカラーフィルタ26が用いられるが、これに限られない。各画素Pには、赤色光、緑色光、青色光、及び赤外光のいずれかの色(波長)に対応するカラーフィルタ26が配置される。
 有機光電変換層25は、各画素Pを構成する有機光電変換素子251,252が形成された機能層である。有機光電変換層25には、緑色光(G)に感度を持つ有機光電変換素子251、赤色光(R)に感度を持つ有機光電変換素子252が順次積層される。有機光電変換素子251は、緑色光(G)を検出して光電変換を行い、画素信号として出力する。有機光電変換素子252は、赤色光(R)を検出して光電変換を行い、画素信号として出力する。なお、有機光電変換層25の入射面に入射した光の一部(例えば赤外光等)は、入射面(すなわち裏面)とは反対側の面(すなわち、おもて面)に通過し得る。
 中間層24には、有機光電変換層25における各画素Pへ電力及び各種の駆動信号を伝達し、また、各画素Pから読み出される画素信号を伝達するための電極241及び配線242が形成された層である。
 IR光電変換層23は、各画素Pを構成するIR光電変換素子231及び各種のトランジスタ等の電子素子を含む画素回路群が形成された機能層である。IR光電変換層23のIR光電変換素子231は、オンチップレンズ27及びカラーフィルタ26を介して入射した赤外光(IR)を検出して光電変換を行い、画素信号として出力する。IR光電変換素子231及び各種の電子素子は、電極232及び配線242を介して中間層24の電極241と電気的に接続されるとともに、配線層22における所定の金属配線に電気的に接続される。
 配線層22は、IR光電変換層23及び有機光電変換層25における各画素Pへ電力及び各種の駆動信号を伝達し、また、各画素Pから読み出される画素信号を伝達するための金属配線パターンが形成された層である。本例では、配線層22は、半導体支持基板21上に形成されている。配線層22は、典型的には、複数の金属配線パターンの層が層間絶縁膜を挟み積層されて構成され得る。また、積層された金属配線パターンは、必要に応じて例えばビアにより電気的に接続される。配線層22は、例えば、アルミニウム(Al)や銅(Cu)等の金属により形成される。一方、層間絶縁膜は、例えば、酸化シリコン等により形成される。
 半導体支持基板21は、半導体製造プロセスにおいて形成される各種の層を支持するための基板である。また、半導体支持基板21には、例えば、上述した各種のコンポーネントのいくつかを実現するロジック回路及び収差補正用メモリ117が形成される。半導体支持基板21は、例えば、単結晶シリコンにより作製される。
 収差補正用メモリ117は、レンズ2と撮像素子1の面内の軸上色収差量を記憶する。例えば、撮像素子1の中心と周辺の軸上色収差量は、一定ではなく、中心から周辺で変化する。そのばらつきを調整するための像高毎に軸上色収差量が収差補正用メモリ117に記憶されている。また、記憶容量により撮像される画面内をX(行方向),Y(列方向)で分割したエリアごとに収差量を記憶してもよいし、レンズ2は中心から周辺にかけて(以下、像高と称する)、通常は同じ特性を取ることが多いため、像高ごとに記憶してもよい。
 例えば、図5は、レーザ光源4から赤外光がX、Yそれぞれ6、4ドットで出力され、補正レンズ5により画角が調整されて被写体OBJに放射さる例であり、撮像素子1のレンズ2は前述の放射される角度に対応したレンズ2として、可視光と赤外光の反射が被写体OBJの反射光として、撮像素子1に受光される。この例の場合、レーザ光源4のドットが6x4=24ドットであるため、撮像素子1のエリアもX,Yそれぞれに6、4で分割し、それぞれのエリアの後述する収差情報(収差量)を記憶しておくだけでよい。
 レーザ光源4の出力がDOEなどで、放出された場合は、多点になるため前述の図5のX,Yのエリアを増やしてもいいし、中心からの像高ごとの後述する収差情報(収差量)を記憶してもよい。
 図6は、撮像素子1の機能に分けたブロックを図示したものである。撮像素子は可視光のR,G,Bのカラーフィルタ26を有し、それぞれの光波長の光を受光するフォトダイオード(PD)311,312,313と赤外光を受光するPD314とを具備し、前述のPDからのアナログ信号を所定信号レベルに増幅するアンプ321,322,323,324と、アンプ321,322,323,324により増幅されたアナログ信号をサンプリングし、デジタル信号に変換するためのCDS・A/D回路331,332,333,334を具備する。そして、撮像素子1は、デジタル信号を外部のアプリケーションプロセッサ40などに出力するための出力I/F回路34を有する。出力I/F回路34は、アプリケーションプロセッサ40から制御信号を受け、その制御内容を、撮像素子1に具備するセンサーコントロール回路35に設定を渡す機能を有している。センサーコントロール回路35は、センサの駆動周波数や、露出時間などを制御する回路であり、本回路は撮像素子1に具備される収差補正用メモリ117及び画質調整用記憶装置36から必要な情報を読み込み、必要に応じて書き込む機能を有した回路である。
 次に、前述の機能を有した撮像素子1におけるレンズ2の収差補正について説明する。図8は、撮像素子1を対象と図7の複数のレンズにより、焦点位置を光学シミュレーションしたグラフの一例である。縦軸は像高であり、横軸は赤(R),緑(G),青(B)、赤外(IR)の各光波長の焦点の位置を表したものである。赤は図中実線で示し、緑は図中破線で示し、青は図中太い点線で示し、赤外は図中細い点線で示す。
 図8から、厳密にはR,G,B、IRとも焦点を結ぶ位置は異なり、たとえば像高0(IH0.00)を見た場合、Gの光波長をゼロとしたばあい、撮像素子面に対して、青は上側に4μm、赤は下側に8μm、赤外(IR)は下側に24μmずれることがわかる。これは軸上色収差と称される。
 ここで、図9(a)は、撮像素子1の大きさ、つまりレンズの解像に必要な円のサイズ(以下許容錯乱円と称す。)を1.4μmとし、レンズのF値を2とした場合の焦点深度を示したもので、焦点深度は下記の計算式で算出される。
焦点深度=±εF (ε:許容錯乱円F:レンズのF値)
 図9(a)の点線内が焦点深度のセンサ面に対しての焦点深度であり、焦点深度を鑑みても、増高0(IH0.00)で、G,Rの焦点は重なるが、Rは焦点深度を考慮しても外れており、IRは大きく外れていることがわかる。
 図9(b)は、後述する赤外光の画素が可視光の画素より大きい撮像素子を具備した場合の光学シミュレーション実施例で、撮像素子の大きさを1.4μm、IRの素子の大きさを5.6μmとした場合の焦点深度を表したものである。図9(a)と比較して、R,G、Bの焦点深度に変化はないが、IRの焦点深度が広がっていることがわかる。しかしながら、この撮像素子においても各光波長では、焦点深度が合わないことがわかる。
 前述の通り、レンズ構成を増やすか、大きくするかなど高価なレンズを使わないと、焦点深度が各光波長で合わないことを説明した。ここで、撮像素子1のR,G,Bのカラーフィルタ26の構成は一般的にベイヤーと呼ばれるモザイク配列が一般てきであり、Gの光波長は、R,Bの素子に対して、x2の数が配置されることが知られている。したがって、R,BはGほどの解像度は必要なく、素子の数に合わせて逆数の2.8μmで計算することが一般的である。図10は、許容錯乱円をG=1.4μm、R=B=2.8μm、IR=5.6μmで算出した表である。
 前述の図9(a),(b)、図10の説明より、これらの光学シミュレーションなどから、いずれの場合おいても、軸上色収差の影響により焦点深度が各光波長で異なり、例えばGでレンズフォーカスを合わせた場合、RとIRの焦点が合わない、逆にIRで合わせた場合はR,G,Bが合わないということが課題であった。また、それぞれの図においても、レンズ2の像高により軸上色収差の内容が変動していることがわかる。これは例えばGの光波長でレンズフォーカスを合わせた、像高0より像高9の方が,G画素の焦点とIRの焦点がずれるこということを表している。
 (撮像処理) 
 図11は、撮像素子1において、オートフォーカスと撮像を行うアプリケーションプロセッサ40の処理手順の一例を示すフローチャートである。
 まず、アプリケーションプロセッサ40は、測距もしくはオートフォーカスの補助として、赤外光をレーザ光源4から発光させる(ステップST11a)。そして、被写体OBJの反射光を撮像素子1がレンズ2、DBPF9を介して撮像する。通常、撮像素子1、ここでは、カメラや移動体端末は被写体のフォーカスポイントをユーザが指定する、もしくは、前述のカメラや移動体端末により、自動的に、撮像エリア内のフォーカスポイントが指定される。
 その後、アプリケーションプロセッサ40は、レーザ光源4を駆動制御して赤外光を照射させ、反射された被写体OBJの光(図11中では、例えば緑色光)を用いて、詳細には説明しないが、コントラスト、位相差、ToF、ストラクチャーライトシステムなどを用いて、合焦のためにアクチュエータ3を制御してレンズ2を駆動し、オートフォーカスを行い(ステップST11b)、撮像素子1のIR光電変換層23で検出された赤外光の焦点で合焦させる(ステップST11c)。
 前述の合焦されたレンズ2のオートフォーカス位置は、赤外光での合焦ポイントであるため、アプリケーションプロセッサ40は、あらかじめ記憶された軸上色収差量を収差補正用メモリ117から読み出し(ステップST11d)、収差量に合わせてアクチュエータ3を制御してレンズ2を移動させる(ステップST11e)。ここで、収差補正用メモリ117には像高毎に軸上色収差のズレ量が保存されており、合焦ポイントの、つまり、撮像エリア内のフォーカスポイントの収差量を用いることができる。
 そして、前述のレンズ2を収差量駆動して、撮像素子1は可視光の撮像を行う(ステップST11f)。このとき、アプリケーションプロセッサ40は、可視光の撮像を行うように撮像素子1を制御する。
 <第1の実施形態による作用効果>
 以上のように第1の実施形態によれば、可視光用の有機光電変換層25と、赤外光(IR)用のIR光電変換層23とを同じ半導体基板11に厚さ方向に重ねるように設け、しかも可視光と赤外光との焦点の収差量を記憶した収差補正用メモリ117を半導体基板11の半導体支持基板21に備えるようにしている。従って、可視光画像と赤外光画像とを同時に、撮像素子1の半導体基板11の撮像面における同じ位置で取得することができ、しかも収差補正用メモリ117に記憶される収差量を使用して、合焦後に可視光と赤外光との焦点の収差を補正するという簡単な手順により、可視光と赤外光との焦点のずれがない高性能化、小型化及び低コスト化を図った撮像素子1を実現できる。
 また、第1の実施形態によれば、アクチュエータ3により、手振れに応じて、レンズ2をX軸方向(行方向)及びY軸方向(列方向)の少なくとも1方向に駆動するようにしているので、手振れによる影響を低減することができる。
 また、第1の実施形態によれば、収差補正用メモリ117に、画素Pが形成される位置、または画素Pの位置の像高ごとに、収差量を記憶しておくことで、像高により収差が変動する場合でも、収差を像高に合わせて効果的に補正することができる。
 さらに、第1の実施形態によれば、可視光画像と赤外光画像とを同時に取得することができるため、被写体OBJの色を判定することができ、被写体OBJの色に対応する収差量を収差補正用メモリ117から読み出して、被写体OBJの色成分の光と赤外光との焦点の収差を補正することで、簡単かつ短時間のうちに好適に合焦された撮像を行うことができる。
 なお、第1の実施形態では、被写体OBJの色に対応する収差量に応じて、アクチュエータ3を制御してレンズ2をフォーカス方向(Z軸方向)に駆動することにより、被写体OBJの色成分の光と赤外光との焦点の収差を補正することも可能である。
 なお、アクチュエータ3は、X軸方向(行方向)及びY軸方向(列方向)に制御する機能を有し、撮影者の手振れを補正する。
 <第1の実施形態の第1の変形例>
 図12は、第1の実施形態の第1の変形例に係る撮像素子1において、オートフォーカスと撮像を行うアプリケーションプロセッサ40の処理手順の一例を示すフローチャートである。
 例えば、上記第1の実施形態では、可視光の緑光波長と、赤外光の軸上色収差の収差量を補正したが、撮像素子1は、赤外光と可視光を同時に撮影できるため、被写体の色を判定することができる。ここで、第1の変形例では、赤光波長が支配的な被写体OBJであり、この場合は、赤光波長と赤外光波長との収差を用いることで好適に合焦された撮像を行うことができる。
 まず、アプリケーションプロセッサ40は、測距もしくはオートフォーカスの補助として、赤外光をレーザ光源4から発光させる(ステップST12a)。そして、被写体OBJの反射光を撮像素子1がレンズ2、DBPF9を介して撮像する。
 その後、アプリケーションプロセッサ40は、レーザ光源4を駆動制御して赤外光を照射させ、反射された被写体OBJの光(図12中では、例えば赤色光)を用いて、詳細には説明しないが、コントラスト、位相差、ToF、ストラクチャーライトシステムなどを用いて、合焦のためにアクチュエータ3を制御してレンズ2を駆動し、オートフォーカスを行い(ステップST12b)、撮像素子1のIR光電変換層23で検出された赤外光の焦点で合焦させる(ステップST12c)。
 前述の合焦されたレンズ2のオートフォーカス位置は、赤外光での合焦ポイントであるため、アプリケーションプロセッサ40は、あらかじめ記録された軸上色収量のデータを収差補正用メモリ117から読み出し(ステップST12d)、収差量に合わせてアクチュエータ3を制御してレンズ2を移動させる(ステップST12e)。ここで、収差補正用メモリ117には像高毎に軸上色収差のズレ量が保存されており、合焦ポイントの、つまり、撮像エリア内のフォーカスポイントの収差量を用いることができる。
 そして、前述のレンズ2を収差量駆動して、撮像素子1は可視光の撮像を行う(ステップST12f)。このとき、アプリケーションプロセッサ40は、可視光の撮像を行うように撮像素子1を制御する。
 <第1の実施形態の第1の変形例による作用効果>
 以上のように第1の実施形態の第1の変形例によれば、上記第1の実施形態と同様の作用効果が得られる。
 <第1の実施形態の第2の変形例>
 図13は、第1の実施形態の第2の変形例に係る撮像素子1において、オートフォーカスと撮像を行うアプリケーションプロセッサ40の処理手順の一例を示すフローチャートである。
 例えば、前述の第1の実施形態では、可視光の緑光波長と赤外光、第1の実施形態の第1の変形例では、可視光の緑光波長と赤外光との収差量を用いたが、第2の変形例では、記憶された収差量すべての可視光のデータを用いて補正する。第2の変形例では、焦点深度からは青と緑の可視光の深度は重なっている部分が多いが、詳細にみると本来の合焦する位置からは少しずれていることがわかる。赤の可視光は、緑の可視光と重なり部分が小さいため、レンズ2をこの重なった部分で調整するのは、精度が必要である。
 そこで、第2の変形例では、可視光それぞれの可視光と赤外光を分けて撮像する。まず、アプリケーションプロセッサ40は、測距もしくはオートフォーカスの補助として、赤外光をレーザ光源4から発光させる(ステップST13a)。そして、被写体OBJの反射光を撮像素子1がレンズ2、DBPF9を介して撮像する。
 その後、アプリケーションプロセッサ40は、レーザ光源4を駆動制御して赤外光を照射させ、反射された被写体OBJの光(図13中では、例えば赤色光、緑色光、青色光)を用いて、詳細には説明しないが、コントラスト、位相差、ToF、ストラクチャーライトシステムなどを用いて、合焦のためにアクチュエータ3を制御してレンズ2を駆動し、オートフォーカスを行い(ステップST13b)、撮像素子1のIR光電変換層23で検出された赤外光の焦点で合焦させる(ステップST13c)。
 前述の合焦されたレンズ2のオートフォーカス位置は、赤外光での合焦ポイントであるため、アプリケーションプロセッサ40は、あらかじめ記憶された青色光との軸上色収差量を収差補正用メモリ117から読み出し(ステップST13d)、収差量に合わせてアクチュエータ3を制御してレンズ2を移動させる(ステップST13e)。ここで、収差補正用メモリ117には像高毎に軸上色収差のズレ量が保存されており、合焦ポイントの、つまり、撮像エリア内のフォーカスポイントの収差量を用いることができる。
 そして、前述のレンズ2を収差量駆動して、撮像素子1は可視光の撮像を行い、得られた画素信号(撮像データ)をアプリケーションプロセッサ40に出力する(ステップST13f)。このとき、アプリケーションプロセッサ40は、可視光の撮像を行うように撮像素子1を制御する。
 次に、アプリケーションプロセッサ40は、あらかじめ記憶された緑色光との軸上色収差量を収差補正用メモリ117から読み出し(ステップST13g)、収差量に合わせてアクチュエータ3を制御してレンズ2を移動させる(ステップST13h)。
 そして、前述のレンズ2を収差量駆動して、撮像素子1は可視光の撮像を行い、得られた画素信号(撮像データ)をアプリケーションプロセッサ40に出力する(ステップST13j)。
 次に、アプリケーションプロセッサ40は、あらかじめ記憶された赤色光との軸上色収差量を収差補正用メモリ117から読み出し(ステップST13j)、収差量に合わせてアクチュエータ3を制御してレンズ2を移動させる(ステップST13k)。
 そして、前述のレンズ2を収差量駆動して、撮像素子1は可視光の撮像を行い、得られた画素信号(撮像データ)をアプリケーションプロセッサ40に出力する(ステップST13l)。
 以後、アプリケーションプロセッサ40は、撮像素子1から出力された青色光の撮像データと緑色光の撮像データと赤色光の撮像データとを合成する(ステップST13m)。
 第2の変形例では、3回の撮像が必要となるため、データ量削減のため、撮像素子1の出力を青画素のみ、緑画素のみ、赤画素のみのデータを出力する設定にすることで、データ量を削減することができる。
 また、第2の変形例の方法を使うことで、安価な軸上色収差のレンズ2を用いても、撮像に時間を有するが可視光すべてが合焦した撮像を実施できる。
 なお、第1の実施形態では原色の赤、緑、青の可視光と赤外光の収差量を記憶した実施例であるが、撮像素子1の色フィルタが、例えば、補色の場合なら黄、紫、緑、マゼンタでもよい。また、収差補正用メモリ117の容量削減のため、レンズの性能と対比させて、1つの可視光と赤外光の収差量でもよい。
 つまり、本開示は、色に問わず、可視光と赤外光を同時に撮像できる撮像素子1と、1つ以上の可視光と赤外光の増高毎の収差量を記憶し、前述の収差量を、レンズ2を駆動して補正し、好適な撮像を実施することを特徴とする。
 <第1の実施形態の第2の変形例による作用効果>
 以上のように第1の実施形態の第2の変形例によれば、レンズ2として安価な軸上色収差のレンズを用いた場合でも、可視光すべてが合焦した撮像を実行できる。
 <第2の実施形態>
 図14は、本開示の第2の実施形態に係る撮像素子1Aの半導体基板11の断面構造の一例を示す部分縦断面図である。図14において、上記図4と同一部分には同一符号を付して詳細な説明を省略する。
 レーザ光源4及び補正レンズ5を含むプロジェクタの構成によって第1の実施形態による撮像素子1及び第2の実施形態による撮像素子1Aが分けられる。たとえば、プロジェクタより照射する赤外光を、光学回折素子などを使って特定パターンとして照射し、そのパターンの形状により測距を行うToFと呼ばれる方式は撮像素子1のような構造を使うことが一般的である。撮像素子1は、赤外光画素と可視つまりRGBの画素が同じ大きさで構成され、赤外光をつかった測距の精度が可視の画素と同じであるため高精度なフォーカスを実現できる。
 本開示の第2の実施形態では、赤外光の画素(IR光電変換素子231A)が可視光用の画素Pの4x4の大きさで構成されているため、感度が高く、つまり測距の距離を遠くまで測長することができる。
 <第2の実施形態による作用効果>
 以上のように第2の実施形態によれば、赤外光の画素(IR光電変換素子231A)が可視光用の画素Pの4x4の大きさで構成されているため、感度が高く、つまり測距の距離を遠くまで測長することができる。
 <第3の実施形態>
 図15は、本開示の第3の実施形態に係る撮像素子1Bの半導体基板11の断面構造の一例を示す部分縦断面図である。図15において、上記図4と同一部分には同一符号を付して詳細な説明を省略する。
 前述のプロジェクタの赤外光が補助光として使用される場合は、赤外用の画素(IR光電変換素子231A)に位相差を検出できるような構造が有効的である。本開示の第3の実施形態では、中間層24に、可視光用の画素Pごとに、遮光膜243を形成し、可視光用の画素Pを半分遮光する、もしくは分割することで位相差画素として、可視光、赤外光の両方で測距することも可能である。このような構造にすることで、測距の精度を上げることができる。
 <第3の実施形態による作用効果>
 以上のように第3の実施形態によれば、可視光用の画素Pごとに、遮光膜243を備えて位相差画素を構成することで、可視光と赤外光との両方で測距することが可能となり、測距の精度を上げることができる。
 <第4の実施形態>
 図16は、本開示の第4の実施形態に係る撮像素子1Cの半導体基板11の断面構造の一例を示す部分縦断面図である。図16において、上記図14と同一部分には同一符号を付して詳細な説明を省略する。
 本開示の第4の実施形態では、中間層24に、可視光用の画素Pごとに、遮光膜243を形成し、可視光用の画素Pを半分遮光する、もしくは分割することで位相差画素として、可視光、赤外光の両方で測距することも可能である。
 <第4の実施形態による作用効果>
 以上のように第4の実施形態によれば、上記第2の実施形態及び上記第3の実施形態と同様の作用効果が得られる。
 <第5の実施形態>
 図17は、本開示の第5の実施形態に係る撮像素子1において、撮像素子1のデータ出力の一例である。撮像素子1は、赤外光を用いて測距やオートフォーカスする。そのために、撮像素子1の赤外光に対応した光電変換されたデータを出力I/F回路34を通してアプリケーションプロセッサ40などの外部装置に出力する。アプリケーションプロセッサ40は受けとった赤外光の撮像データから、被写体OBJまでの測距を算出し、アクチュエータ3を駆動して合焦するためにオートフォーカスを行う。
 撮像素子1は、出力I/F回路34を通して、収差補正用メモリ117にあらかじめ記憶された、赤外光と可視光の収差量をデータとして、アプリケーションプロセッサ40に出力する。本開示の第5の実施形態では赤外光画像出力の撮像フレームの垂直ブランキング期間で逐次出力する一例である。撮像フレームは、複数の画素Pにより構成される。アプリケーションプロセッサ40に十分な記憶容量がある場合は、撮像素子1の電源投入時や、移動体端末などの装置全体の調整時に、撮像素子1に記憶された収差量をまとめて送付し、アプリケーションプロセッサ40の記憶装置に保存しておいてもよい。
 収差量を受け取ったアプリケーションプロセッサ40は、次の可視光の撮像のため、収差量に従ってレンズ2を駆動させて、可視光の撮像に備える。レンズ2を可視光に合わせた位置で合焦し、撮像素子1は可視光を光電変換した画像データをアプリケーションプロセッサ40に出力する。
 本開示の第5の実施形態では、赤外光と可視光をそれぞれ、分けて出力した実施例であるが、可視光で画像のコントラストで合焦を判定することでオートフォーカスの精度を上げるようなシステムの場合は、合焦前後でおいても、赤外光と可視光を両方出力してもよい。
 <第5の実施形態による作用効果>
 以上のように第5の実施形態によれば、赤外画像の撮像フレームの垂直ブランキング期間を利用して、アプリケーションプロセッサ40による収差補正用メモリ117に対する収差量の読み出し制御、及びアクチュエータ3に対するレンズ2の駆動制御を実行することにより、赤外光と可視光との撮像処理を行いつつ、可視光と赤外光との焦点の収差を補正することができ、撮像処理の時間短縮を図ることができる。
 なお、第5の実施形態では、赤外画像の撮像フレームの垂直ブランキング期間を利用する例について説明したが、赤外画像の撮像フレームの水平ブランキング期間を利用する例であっても実施できる。
 <その他の実施形態>
 上記のように、本技術は第1から第5の実施形態及び第1の実施形態の第1の変形例及び第2の変形例によって記載したが、この開示の一部をなす論述及び図面は本技術を限定するものであると理解すべきではない。上記の第1から第5の実施形態及び第1の実施形態の第1の変形例及び第2の変形例が開示する技術内容の趣旨を理解すれば、当業者には様々な代替実施形態、実施例及び運用技術が本技術に含まれ得ることが明らかとなろう。また、第1から第5の実施形態及び第1の実施形態の第1の変形例及び第2の変形例がそれぞれ開示する構成を、矛盾の生じない範囲で適宜組み合わせることができる。例えば、複数の異なる実施形態がそれぞれ開示する構成を組み合わせてもよく、同一の実施形態の複数の異なる変形例がそれぞれ開示する構成を組み合わせてもよい。
 <光検出システムへの応用例>
 図18Aは、本開示の第6の実施形態に係る光検出システム401の全体構成の一例を表す模式図である。図18Bは、光検出システム401の回路構成の一例を表す模式図である。光検出システム401は、赤外光L2を発する光源部としての発光装置410と、光電変換素子を有する受光部としての撮像素子420とを備えている。撮像素子420としては、上述した撮像素子1を用いることができる。光検出システム401は、さらに、システム制御部430、光源駆動部440、センサ制御部450、光源側光学系460、およびカメラ側光学系470を備えていてもよい。
 撮像素子420は光L1と光L2とを検出することができる。光L1は、外部からの環境光が被写体(測定対象物)400(図18A)において反射された光である。光L2は発光装置410において発光されたのち、被写体400に反射された光である。光L1は例えば可視光であり、光L2は例えば赤外光である。光L1は、撮像素子420における有機光電変換部において検出可能であり、光L2は、撮像素子420における光電変換部において検出可能である。光L1から被写体400の画像情報を獲得し、光L2から被写体400と光検出システム401との間の距離情報を獲得することができる。光検出システム401は、例えばスマートフォン等の電子機器や、車などの移動体に搭載することができる。発光装置410は例えば、半導体レーザ、面発光半導体レーザ、垂直共振器型面発光レーザ(VCSEL)で構成することができる。発光装置410から発光された光L2の撮像素子420による検出方法としては、例えばiTOF方式を採用することができるが、これに限定されることはない。iTOF方式では、光電変換部は、例えば光飛行時間(Time-of-Flight ;TOF)により被写体400との距離を測定することができる。発光装置410から発光された光L2の撮像素子420による検出方法としては、例えば、ストラクチャード・ライト方式やステレオビジョン方式を採用することもできる。例えばストラクチャード・ライト方式では、あらかじめ定められたパターンの光を被写体400に投影し、そのパターンのひずみ具合を解析することによって光検出システム401と被写体400との距離を測定することができる。また、ステレオビジョン方式においては、例えば2以上のカメラを用い、被写体400を2以上の異なる視点から見た2以上の画像を取得することで光検出システム401と被写体との距離を測定することができる。なお、発光装置410と撮像素子420とは、システム制御部430によって同期制御することができる。
 <電子機器への応用例>
 図19は、本技術を適用した電子機器2000の構成例を示すブロック図である。電子機器2000は、例えばカメラとしての機能を有する。
 電子機器2000は、レンズ群などからなる光学部2001、上述の撮像素子1など(以下、撮像素子1等という。)が適用される撮像素子2002、およびカメラ信号処理回路であるDSP(Digital Signal Processor)回路2003を備える。また、電子機器2000は、フレームメモリ2004、表示部2005、記録部2006、操作部2007、および電源部2008も備える。DSP回路2003、フレームメモリ2004、表示部2005、記録部2006、操作部2007および電源部2008は、バスライン2009を介して相互に接続されている。
 光学部2001は、被写体からの入射光(像光)を取り込んで撮像素子2002の撮像面上に結像する。撮像素子2002は、光学部2001によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。
 表示部2005は、例えば、液晶パネルや有機ELパネル等のパネル型表示装置からなり、撮像素子2002で撮像された動画または静止画を表示する。記録部2006は、撮像素子2002で撮像された動画または静止画を、ハードディスクや半導体メモリ等の記録媒体に記録する。
 操作部2007は、ユーザによる操作の下に、電子機器2000が持つ様々な機能について操作指令を発する。電源部2008は、DSP回路2003、フレームメモリ2004、表示部2005、記録部2006および操作部2007の動作電源となる各種の電源を、これら供給対象に対して適宜供給する。
 上述したように、撮像素子2002として、上述した撮像素子1等を用いることで、良好な画像の取得が期待できる。
 <内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図20は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図20では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図21は、図20に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、内視鏡11100や、カメラヘッド11102の撮像部11402、CCU11201の画像処理部11412等に適用され得る。具体的には、図1の撮像素子1は、撮像部10402に適用することができる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 <移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図22は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図41に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図41の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図23は、撮像部12031の設置位置の例を示す図である。
 図23では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図23には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031等に適用され得る。具体的には、図1の撮像素子1に適用することができる。
 なお、本開示は以下のような構成も取ることができる。 
(1)
 レンズ光学系と、
 被写体から反射され可視光を含む第1の波長域の光を検出して光電変換を行う行列状に形成された複数の第1の光電変換素子を有する第1の光電変換部と、
 前記第1の光電変換部と重なる位置に設けられ、前記被写体から反射され赤外光を含む第2の波長域の光を検出して光電変換を行う行列状に形成された複数の第2の光電変換素子を有する第2の光電変換部と、
 前記レンズ光学系における前記第1の波長域の光と前記第2の波長域の光との焦点の収差量を記憶する記憶部と
を備え、
 前記第2の光電変換部で検出された第2の波長域の光の焦点で合焦した後、前記記憶部に記憶された収差量に基づいて、前記第1の波長域の光と前記第2の波長域の光との焦点の収差を補正する
固体撮像装置。
(2)
 前記第1の光電変換部の、前記第2の光電変換部とは反対側に設けられ、所定の波長域に含まれる所定の色成分の光を透過する光学フィルタを備える
前記(1)に記載の固体撮像装置。
(3)
 前記レンズ光学系を、前記被写体への遠近方向、前記複数の第1の光電変換素子及び前記複数の第2の光電変換素子が形成される行方向及び列方向の少なくとも1方向に駆動する駆動部を備え、
 前記駆動部は、前記記憶部に記憶された収差量に基づいて、前記レンズ光学系を駆動する
前記(1)に記載の固体撮像装置。
(4)
 前記駆動部は、手振れに応じて、前記レンズ光学系を前記行方向及び前記列方向の少なくとも1方向に駆動する
前記(3)に記載の固体撮像装置。
(5)
 前記記憶部は、前記第1の光電変換部及び前記第2の光電変換部が形成される半導体基板に設けられる
前記(1)に記載の固体撮像装置。
(6)
 前記記憶部は、前記第1の光電変換素子または前記第2の光電変換素子が形成される位置、または当該位置の像高ごとに、収差量を記憶する
前記(1)に記載の固体撮像装置。
(7)
 前記第1の光電変換部及び前記第2の光電変換部の少なくとも一方は、前記第1の光電変換素子ごとに、遮光膜を備えて位相差画素を構成する
前記(1)に記載の固体撮像装置。
(8)
 前記レンズ光学系を駆動する駆動部を備え、
 前記収差量に応じて前記レンズ光学系を駆動することにより、前記第1の波長域の光と前記第2の波長域の光との焦点の収差を補正する
前記(1)に記載の固体撮像装置。
(9)
 被写体に対して赤外光を出射する照射部と、
 前記被写体からの反射光を受光する撮像素子と
を備え
 前記撮像素子は、
 レンズ光学系と、
 被写体から反射され可視光を含む第1の波長域の光を検出して光電変換を行う行列状に形成された複数の第1の光電変換素子を有する第1の光電変換部と、
 前記第1の光電変換部と重なる位置に設けられ、前記被写体から反射され赤外光を含む第2の波長域の光を検出して光電変換を行う行列状に形成された複数の第2の光電変換素子を有する第2の光電変換部と、
 前記レンズ光学系における前記第1の波長域の光と前記第2の波長域の光との焦点の収差量を記憶する記憶部と
を備え、
 前記撮像素子は、前記第2の光電変換部で検出された第2の波長域の光の焦点で合焦した後、前記記憶部に記憶された収差量に基づいて、前記第1の波長域の光と前記第2の波長域の光との焦点の収差を補正する
撮像システム。
(10)
 前記第1の光電変換素子ごとに出力される電気信号、及び前記第2の光電変換素子ごとに出力される電気信号に基づいて信号処理を行い、前記記憶部に対する読み出し制御を実行する信号処理部を備え、
 前記信号処理部は、前記第2の光電変換部で検出された第2の波長域の光の焦点で合焦した後、前記記憶部に記憶された収差量に基づいて、前記第1の波長域の光と前記第2の波長域の光との焦点の収差を補正する
前記(9)に記載の撮像システム。
(11)
 前記第1の光電変換部の、前記第2の光電変換部とは反対側に設けられ、所定の波長域に含まれる所定の色成分の光を透過する光学フィルタを備える
前記(9)に記載の撮像システム。
(12)
 前記レンズ光学系を、前記被写体への遠近方向、前記複数の第1の光電変換素子及び前記複数の第2の光電変換素子が形成される行方向及び列方向の少なくとも1方向に駆動する駆動部を備え、
 前記駆動部は、前記信号処理部による駆動制御で前記記憶部に記憶された収差量に基づいて、前記レンズ光学系を駆動する
前記(10)に記載の撮像システム。
(13)
 前記駆動部は、手振れに応じて、前記レンズ光学系を前記行方向及び前記列方向の少なくとも1方向に駆動する
前記(12)に記載の撮像システム。
(14)
 前記記憶部は、前記第1の光電変換部及び前記第2の光電変換部が形成される半導体基板に設けられる
前記(9)に記載の撮像システム。
(15)
 前記記憶部は、前記第1の光電変換素子または前記第2の光電変換素子が形成される位置、または当該位置の像高ごとに、収差量を記憶する
前記(9)に記載の撮像システム。
(16)
 前記第1の光電変換部及び前記第2の光電変換部の少なくとも一方は、前記第1の光電変換素子ごとに、遮光膜を備えて位相差画素を構成する
前記(9)に記載の撮像システム。
(17)
 前記信号処理部は、前記記憶部に記憶された収差量に基づいて、前記可視光に含まれる少なくとも1つの色成分の光と前記赤外光との焦点の収差を補正する
前記(10)に記載の撮像システム。
(18)
 前記信号処理部は、前記記憶部に記憶された収差量に基づいて、前記可視光に含まれる少なくとも3つ以上の色成分の光と前記赤外光との焦点の収差を順に補正する
前記(10)に記載の撮像システム。
(19)
 前記信号処理部は、前記記憶部に記憶された収差量に基づいて、前記駆動部を制御して前記レンズ光学系の駆動させることにより、前記焦点の収差を補正する
前記(12)に記載の撮像システム。
(20)
 前記信号処理部は、前記複数の第1の光電変換素子または前記複数の第2の光電変換素子によって形成される撮像フレームにおいて、前記撮像フレームのブランキング期間に、前記記憶部に対する読み出し制御、及び前記駆動部に対する前記レンズ光学系の駆動制御を実行する
前記(12)に記載の撮像システム。
(21)
 照射部により被写体に対して赤外光を出射することと、
 信号処理部により前記被写体からの反射光に基づいて、前記被写体に対しレンズ光学系を駆動させて、前記赤外光を含む第1の波長域の光の焦点で合焦することと、
 前記信号処理部により前記第1の波長域の光の焦点での合焦結果に基づいて、記憶部に記憶された収差量を読み出し、当該収差量に基づいて、可視光を含む第2の波長域の光と前記第1の波長域の光との焦点の収差を補正することと
を含む、撮像処理方法。
 1,1A,1B,1C 撮像素子
2 レンズ
3 アクチュエータ
4 レーザ光源
5 補正レンズ
7 ジャイロセンサ
8 回路基板
9 デュアルバンドパスフィルタ(DBPF)
10 センサシステム
11 半導体基板
21 半導体支持基板
22 配線層
23 IR光電変換層
24 中間層
25 有機光電変換層
26 カラーフィルタ
27 オンチップレンズ
31 金属ワイヤ
32 接着材
34 出力I/F回路
35 センサーコントロール回路
36 画質調整用記憶装置
40 アプリケーションプロセッサ
100 画素部
111 垂直駆動回路
112 カラム信号処理回路
113 水平駆動回路
114 出力回路
115 制御回路
116 入出力端子
117 収差補正用メモリ
121 水平信号線
231,231A IR光電変換素子
232 電極
241 電極
242 配線
243 遮光膜
251,252 有機光電変換素子
311,312,313,314 フォトダイオード(PD)
321,322,323,324 アンプ
331,332,333,334 CDS・A/D回路
400 被写体(測定対象物)
401 光検出システム
410 発光装置
420 撮像素子
430 システム制御部
440 光源駆動部
450 センサ制御部
460 光源側光学系
470 カメラ側光学系
2000 電子機器
2001 光学部
2002 撮像素子
2003 DSP回路
2003 (Digital Signal Processor)回路
2004 フレームメモリ
2005 表示部
2006 記録部
2007 操作部
2008 電源部
2009 バスライン
10402 撮像部
11000 内視鏡手術システム
11100 内視鏡
11101 鏡筒
11102 カメラヘッド
11110 術具
11111 気腹チューブ
11112 エネルギー処置具
11120 支持アーム装置
11131 術者(医師)
11131 術者
11132 患者
11133 患者ベッド
11200 カート
11201 カメラコントロールユニット(CCU: Camera Control Unit)
11202 表示装置
11203 光源装置
11204 入力装置
11205 処置具制御装置
11206 気腹装置
11207 レコーダ
11208 プリンタ
11400 伝送ケーブル
11401 レンズユニット
11402 撮像部
11403 駆動部
11404 通信部
11405 カメラヘッド制御部
11411 通信部
11412 画像処理部
11413 制御部
12000 車両制御システム
12001 通信ネットワーク
12010 駆動系制御ユニット
12020 ボディ系制御ユニット
12030 車外情報検出ユニット
12031 撮像部
12040 車内情報検出ユニット
12041 運転者状態検出部
12050 統合制御ユニット
12051 マイクロコンピュータ
12052 音声画像出力部
12061 オーディオスピーカ
12062 表示部
12063 インストルメントパネル
12100 車両
12101,12102,12103,12104,12105 撮像部
12111,12112,12113,12114 撮像範囲

Claims (21)

  1.  レンズ光学系と、
     被写体から反射され可視光を含む第1の波長域の光を検出して光電変換を行う行列状に形成された複数の第1の光電変換素子を有する第1の光電変換部と、
     前記第1の光電変換部と重なる位置に設けられ、前記被写体から反射され赤外光を含む第2の波長域の光を検出して光電変換を行う行列状に形成された複数の第2の光電変換素子を有する第2の光電変換部と、
     前記レンズ光学系における前記第1の波長域の光と前記第2の波長域の光との焦点の収差量を記憶する記憶部と
    を備え、
     前記第2の光電変換部で検出された第2の波長域の光の焦点で合焦した後、前記記憶部に記憶された収差量に基づいて、前記第1の波長域の光と前記第2の波長域の光との焦点の収差を補正する
    固体撮像装置。
  2.  前記第1の光電変換部の、前記第2の光電変換部とは反対側に設けられ、所定の波長域に含まれる所定の色成分の光を透過する光学フィルタを備える
    請求項1に記載の固体撮像装置。
  3.  前記レンズ光学系を、前記被写体への遠近方向、前記複数の第1の光電変換素子及び前記複数の第2の光電変換素子が形成される行方向及び列方向の少なくとも1方向に駆動する駆動部を備え、
     前記駆動部は、前記記憶部に記憶された収差量に基づいて、前記レンズ光学系を駆動する
    請求項1に記載の固体撮像装置。
  4.  前記駆動部は、手振れに応じて、前記レンズ光学系を前記行方向及び前記列方向の少なくとも1方向に駆動する
    請求項3に記載の固体撮像装置。
  5.  前記記憶部は、前記第1の光電変換部及び前記第2の光電変換部が形成される半導体基板に設けられる
    請求項1に記載の固体撮像装置。
  6.  前記記憶部は、前記第1の光電変換素子または前記第2の光電変換素子が形成される位置、または当該位置の像高ごとに、収差量を記憶する
    請求項1に記載の固体撮像装置。
  7.  前記第1の光電変換部及び前記第2の光電変換部の少なくとも一方は、前記第1の光電変換素子ごとに、遮光膜を備えて位相差画素を構成する
    請求項1に記載の固体撮像装置。
  8.  前記レンズ光学系を駆動する駆動部を備え、
     前記収差量に応じて前記レンズ光学系を駆動することにより、前記第1の波長域の光と前記第2の波長域の光との焦点の収差を補正する
    請求項1に記載の固体撮像装置。
  9.  被写体に対して赤外光を出射する照射部と、
     前記被写体からの反射光を受光する撮像素子と
    を備え
     前記撮像素子は、
     レンズ光学系と、
     被写体から反射され可視光を含む第1の波長域の光を検出して光電変換を行う行列状に形成された複数の第1の光電変換素子を有する第1の光電変換部と、
     前記第1の光電変換部と重なる位置に設けられ、前記被写体から反射され赤外光を含む第2の波長域の光を検出して光電変換を行う行列状に形成された複数の第2の光電変換素子を有する第2の光電変換部と、
     前記レンズ光学系における前記第1の波長域の光と前記第2の波長域の光との焦点の収差量を記憶する記憶部と
    を備え、
     前記撮像素子は、前記第2の光電変換部で検出された第2の波長域の光の焦点で合焦した後、前記記憶部に記憶された収差量に基づいて、前記第1の波長域の光と前記第2の波長域の光との焦点の収差を補正する
    撮像システム。
  10.  前記第1の光電変換素子ごとに出力される電気信号、及び前記第2の光電変換素子ごとに出力される電気信号に基づいて信号処理を行い、前記記憶部に対する読み出し制御を実行する信号処理部を備え、
     前記信号処理部は、前記第2の光電変換部で検出された第2の波長域の光の焦点で合焦した後、前記記憶部に記憶された収差量に基づいて、前記第1の波長域の光と前記第2の波長域の光との焦点の収差を補正する
    請求項9に記載の撮像システム。
  11.  前記第1の光電変換部の、前記第2の光電変換部とは反対側に設けられ、所定の波長域に含まれる所定の色成分の光を透過する光学フィルタを備える
    請求項9に記載の撮像システム。
  12.  前記レンズ光学系を、前記被写体への遠近方向、前記複数の第1の光電変換素子及び前記複数の第2の光電変換素子が形成される行方向及び列方向の少なくとも1方向に駆動する駆動部を備え、
     前記駆動部は、前記信号処理部による駆動制御で前記記憶部に記憶された収差量に基づいて、前記レンズ光学系を駆動する
    請求項10に記載の撮像システム。
  13.  前記駆動部は、手振れに応じて、前記レンズ光学系を前記行方向及び前記列方向の少なくとも1方向に駆動する
    請求項12に記載の撮像システム。
  14.  前記記憶部は、前記第1の光電変換部及び前記第2の光電変換部が形成される半導体基板に設けられる
    請求項9に記載の撮像システム。
  15.  前記記憶部は、前記第1の光電変換素子または前記第2の光電変換素子が形成される位置、または当該位置の像高ごとに、収差量を記憶する
    請求項9に記載の撮像システム。
  16.  前記第1の光電変換部及び前記第2の光電変換部の少なくとも一方は、前記第1の光電変換素子ごとに、遮光膜を備えて位相差画素を構成する
    請求項9に記載の撮像システム。
  17.  前記信号処理部は、前記記憶部に記憶された収差量に基づいて、前記可視光に含まれる少なくとも1つの色成分の光と前記赤外光との焦点の収差を補正する
    請求項10に記載の撮像システム。
  18.  前記信号処理部は、前記記憶部に記憶された収差量に基づいて、前記可視光に含まれる少なくとも3つ以上の色成分の光と前記赤外光との焦点の収差を順に補正する
    請求項10に記載の撮像システム。
  19.  前記信号処理部は、前記記憶部に記憶された収差量に基づいて、前記駆動部を制御して前記レンズ光学系の駆動させることにより、前記焦点の収差を補正する
    請求項12に記載の撮像システム。
  20.  前記信号処理部は、前記複数の第1の光電変換素子または前記複数の第2の光電変換素子によって形成される撮像フレームにおいて、前記撮像フレームのブランキング期間に、前記記憶部に対する読み出し制御、及び前記駆動部に対する前記レンズ光学系の駆動制御を実行する
    請求項12に記載の撮像システム。
  21.  照射部により被写体に対して赤外光を出射することと、
     信号処理部により前記被写体からの反射光に基づいて、前記被写体に対しレンズ光学系を駆動させて、前記赤外光を含む第1の波長域の光の焦点で合焦することと、
     前記信号処理部により前記第1の波長域の光の焦点での合焦結果に基づいて、記憶部に記憶された収差量を読み出し、当該収差量に基づいて、可視光を含む第2の波長域の光と前記第1の波長域の光との焦点の収差を補正することと
    を含む、撮像処理方法。
PCT/JP2022/034642 2021-11-08 2022-09-15 固体撮像装置、撮像システム及び撮像処理方法 WO2023079842A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-182003 2021-11-08
JP2021182003 2021-11-08

Publications (1)

Publication Number Publication Date
WO2023079842A1 true WO2023079842A1 (ja) 2023-05-11

Family

ID=86241278

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/034642 WO2023079842A1 (ja) 2021-11-08 2022-09-15 固体撮像装置、撮像システム及び撮像処理方法

Country Status (1)

Country Link
WO (1) WO2023079842A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009020217A (ja) * 2007-07-10 2009-01-29 Canon Inc 撮像装置及びその制御方法
JP2014507856A (ja) * 2011-01-14 2014-03-27 ソニー株式会社 レンズ部の縦の色収差を利用したイメージングシステム及びその操作方法
WO2016111175A1 (ja) * 2015-01-07 2016-07-14 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
JP2017536171A (ja) * 2014-11-06 2017-12-07 ソニー株式会社 軸上色収差を有するレンズを含む撮像システム、内視鏡及び撮像方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009020217A (ja) * 2007-07-10 2009-01-29 Canon Inc 撮像装置及びその制御方法
JP2014507856A (ja) * 2011-01-14 2014-03-27 ソニー株式会社 レンズ部の縦の色収差を利用したイメージングシステム及びその操作方法
JP2017536171A (ja) * 2014-11-06 2017-12-07 ソニー株式会社 軸上色収差を有するレンズを含む撮像システム、内視鏡及び撮像方法
WO2016111175A1 (ja) * 2015-01-07 2016-07-14 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム

Similar Documents

Publication Publication Date Title
JP7146376B2 (ja) 撮像装置、および電子機器
WO2018139278A1 (ja) 撮像素子、製造方法、および電子機器
WO2018074250A1 (ja) 半導体装置、製造方法、および電子機器
WO2019207978A1 (ja) 撮像素子および撮像素子の製造方法
WO2021235101A1 (ja) 固体撮像装置
WO2021241019A1 (ja) 撮像素子および撮像装置
WO2019220696A1 (ja) 撮像素子および撮像装置
WO2021193266A1 (ja) 固体撮像装置
WO2023013444A1 (ja) 撮像装置
WO2023079842A1 (ja) 固体撮像装置、撮像システム及び撮像処理方法
WO2021186907A1 (ja) 固体撮像装置及びその製造方法、並びに電子機器
WO2023162496A1 (ja) 撮像装置
WO2023132137A1 (ja) 撮像素子および電子機器
WO2023013393A1 (ja) 撮像装置
WO2023058326A1 (ja) 撮像装置
WO2023106316A1 (ja) 受光装置
WO2023013394A1 (ja) 撮像装置
WO2023080011A1 (ja) 撮像装置及び電子機器
WO2024095832A1 (en) Photodetector, electronic apparatus, and optical element
WO2024029408A1 (ja) 撮像装置
WO2023012989A1 (ja) 撮像装置
WO2023013156A1 (ja) 撮像素子及び電子機器
WO2023106308A1 (ja) 受光装置
WO2023067935A1 (ja) 撮像装置
WO2023162487A1 (ja) 固体撮像装置および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22889666

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023557643

Country of ref document: JP