WO2023248855A1 - 光検出装置及び電子機器 - Google Patents

光検出装置及び電子機器 Download PDF

Info

Publication number
WO2023248855A1
WO2023248855A1 PCT/JP2023/021792 JP2023021792W WO2023248855A1 WO 2023248855 A1 WO2023248855 A1 WO 2023248855A1 JP 2023021792 W JP2023021792 W JP 2023021792W WO 2023248855 A1 WO2023248855 A1 WO 2023248855A1
Authority
WO
WIPO (PCT)
Prior art keywords
circuit
pixel
event
event detection
substrate
Prior art date
Application number
PCT/JP2023/021792
Other languages
English (en)
French (fr)
Inventor
風太 望月
篤親 丹羽
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023248855A1 publication Critical patent/WO2023248855A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/707Pixels for event detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components

Definitions

  • each pixel can acquire gradation information and also detect events (Patent Document 1).
  • an imaging device has also been proposed in which a pixel for acquiring gradation information (hereinafter referred to as a gradation pixel) and a pixel for detecting an event (hereinafter referred to as an EVS pixel) are separately provided.
  • a pixel for acquiring gradation information hereinafter referred to as a gradation pixel
  • an EVS pixel a pixel for detecting an event
  • an imaging device in which two chips are stacked has been put into practical use.
  • a pixel array section is arranged on an upper chip, and peripheral circuits such as an AD converter and a signal processing circuit are arranged on a lower chip.
  • the first substrate has a pixel array section including the plurality of pixel groups,
  • the event detection circuit may be arranged within an area of the same size facing the pixel array section on the second substrate.
  • the charge-voltage conversion section may include a plurality of transistors of the same conductivity type, including the bias circuit.
  • the event detection circuit may include a first circuit portion disposed on the first substrate and a second circuit portion disposed on the second substrate.
  • Two or more of the first circuit parts connected to two or more of the second pixels may share one second circuit part.
  • the event detection circuit is provided for each of the plurality of second pixels,
  • the plurality of event detection circuits may be arranged close to each other within a certain area on the second substrate.
  • FIG. 1 shows an example in which the pixel array section 2 is divided into a plurality of pixel groups 13. Each pixel group 13 has two or more gradation pixels 8 and one EVS pixel 9. Note that there is no particular restriction on the number of pixel groups 13 in the pixel array section 2.
  • the off-event signal is a signal for detecting an off-event indicating that the amount of change in brightness of the EVS pixel 9 has fallen below a predetermined threshold. For example, when the off-event signal becomes a logic high, it indicates that an off-event has occurred.
  • the on-event signals detected by all the EVS pixels 9 in the pixel array section 2 are simultaneously output, and the off-event signals detected by all the EVS pixels 9 in the pixel array section 2 are simultaneously output at a different timing. do.
  • the on-event signal and the off-event signal are collectively referred to as an event signal.
  • the gradation ADC 3, bias circuit 7, control circuit 6, event detection circuit 4, and EVS digital circuit 5 are arranged along the column direction y of the lower chip 12, but this is just an example. , may be changed arbitrarily.
  • the upper chip 11 and the lower chip 12 are joined by Cu--Cu junction, vias, bumps, etc., and perform signal transmission.
  • a wiring path 17 connecting four EVS pixels 9 and four event detection circuits 4 is illustrated.
  • a wiring path 17 extends vertically from each EVS pixel 9 to the lower chip 12 via, for example, a Cu-Cu junction, and is directly connected to the corresponding event detection circuit 4, or a wiring pattern on the lower chip 12 18 to the corresponding event detection circuit 4.
  • FIG. 3 is an example of the circuit configuration of the pixel circuit 15 of the gradation pixel 8, and various circuit configurations different from that in FIG. 3 may be adopted.
  • the differential circuit 23 outputs a differential signal from the drain of the transistor Q28 and the source of the transistor Q29. This differential signal is input to the comparator 24.
  • the comparator 24 in FIG. 4 can switch and output an on-event signal or an off-event signal from the source of the transistor Q31 by switching the gate voltage of the transistor Q28 with the switch 26.
  • the event detection circuit 4 of FIG. 4 has one differentiating circuit 23 and one comparator 24, and detects an on-event signal and an off-event signal with different timings.
  • the event detection circuit 4 may be provided with a differentiation circuit 23 and a comparator 24 for on-event signals and a differentiation circuit 23 and comparator 24 for off-event signals.
  • FIG. 7 is a circuit diagram of a modified example of the event detection circuit 4 in FIG. 4.
  • An EVS pixel 9 having the same configuration as that in FIG. 4 is connected to the event detection circuit 4 in FIG. 7 .
  • the event detection circuit 4 in FIG. 7 includes a first event detection section 31 that detects an on-event signal, and a second event detection section 32 that detects an off-event signal.
  • the first event detection section 31 and the second event detection section 32 each have the same circuit configuration as the event detection circuit 4 in FIG. 4. Therefore, in FIG. 7, each transistor in the first event detection section 31 and the second event detection section 32 is given the same reference numeral as in the event detection circuit 4 of FIG.
  • a voltage signal output from the buffer 22 in the EVS pixel 9 is input to the first event detection section 31 and the second event detection section 32.
  • a bias signal for an on-event signal is input to the gate of the transistor Q28 in the differentiating circuit (first differentiator) 23 in the first event detection section 31. Further, the threshold voltage for the on-event signal is input to the gate of the transistor Q30 in the comparator 24 in the first event detection section 31.
  • a bias signal for an off-event signal is input to the gate of the transistor Q28 in the differentiating circuit (second differentiator) 23 in the second event detection section 32. Further, the threshold voltage for the off-event signal is input to the gate of the transistor Q30 in the comparator 24 in the second event detection section 32.
  • the on-event signal detected by the first event detection section 31 and the off-event signal detected by the second event detection section 32 are input to the output circuit 25.
  • the first event detection section 31 and the second event detection section 32 operate simultaneously. Therefore, when the EVS pixel 9 detects an on event, the first event detection unit 31 outputs an on event signal, and when another EVS pixel 9 detects an off event at the same timing, the first event detection unit 31 outputs a second event signal. The detection unit 32 outputs an off event signal.
  • FIG. 8 is a diagram showing the drive timing of the photodetector 1 equipped with the event detection circuit 4 of FIG. 7.
  • first, on-events and off-events of all EVS pixels 9 in the pixel array section 2 are detected simultaneously (period T1).
  • a reset operation is performed for all EVS pixels 9 in the pixel array section 2 (period T2).
  • the on-event signals and off-event signals of all EVS pixels 9 in the pixel array section 2 are read out simultaneously (period T3).
  • the EVS pixel 9 detects an on-event
  • the first event detection unit 31 in the corresponding event detection circuit 4 outputs an on-event signal.
  • the second event detection section 32 in the corresponding event detection circuit 4 outputs an off event signal.
  • FIG. 9 is a diagram showing a chip configuration of a photodetecting device 1 according to a comparative example.
  • the photodetecting device 1 shown in FIG. 9 is constructed by stacking an upper chip 11 and a lower chip 12.
  • the pixel array section 2 arranged on the upper chip 11 has one EVS pixel 9 for every three gradation pixels 8.
  • the pixel array section 2 of FIG. 9 has more EVS pixels 9 than the pixel array section 2 of FIG. 2.
  • the event detection circuit 4 is arranged in almost the entire area on the lower chip 12 facing the pixel array section 2, and outside the event detection circuit 4, a gradation ADC 3, a readout circuit 33, an EVS digital circuit 5, A control circuit 6 and a bias circuit 7 are provided.
  • the readout circuit 33 which did not exist in FIG. 2, is provided to increase the drive ability of the event signal output from the event detection circuit 4.
  • the event signal output from the readout circuit 33 is input to the EVS digital circuit 5.
  • the reason why the readout circuit 33 is required in the photodetection device 1 in FIG. 9 is that the event detection circuit 4 is arranged over a wide area, and the distance from the event detection circuit 4 to the EVS digital circuit 5 becomes long. be.
  • the event detection circuit 4 can be arranged in a line near the EVS digital circuit 5 of the lower chip 12. . Therefore, in the photodetection device 1 of FIG. 9, the distance between the event detection circuit 4 and the EVS digital circuit 5 is shorter than that of FIG. 2, and there is no need to increase the drive capability of the event signal in the readout circuit 33. Therefore, in the photodetecting device 1 of FIG. 9, there is no need to provide the readout circuit 33 on the lower chip 12, so that the size of the lower chip 12 can be reduced.
  • the photodetecting device 1 of FIG. 9 the area of the event detection circuit 4 disposed on the lower chip 12 becomes large, and the readout circuit 33 is also required, so the size of the lower chip 12 has to be increased. Unfortunately, the photodetector 1 also becomes larger.
  • FIG. 10 is a circuit diagram showing the internal configuration of the EVS pixel 9, event detection circuit 4, readout circuit 33, and EVS digital circuit 5 in FIG. 9.
  • the EVS pixel 9 in FIG. 10 is configured with a circuit similar to the EVS pixel 9 in FIG. 4.
  • the transistors Q21 to Q25 in the EVS pixel 9 are placed on the upper chip 11, and the transistor Q26 is placed on the lower chip 12, whereas in FIG.
  • the transistors Q24 to Q26 are arranged on the lower chip 12.
  • the event detection circuit 4 in FIG. 10 includes a differentiating circuit 23 and a comparator 24, which are configured with the same circuit as the event detection circuit 4 in FIG.
  • the output circuit 25 provided after the comparator 24 has a different circuit configuration from the output circuit 25 in FIG. 4 .
  • the output circuit 25 of FIG. 10 has a logic circuit 27 configured similarly to the logic circuit 27 of FIG. 4, and also includes NMOS transistors Q32 and Q33 as a configuration not present in the output circuit 25 of FIG.
  • the readout circuit 33 in FIG. 10 includes a PMOS transistor Q34 and a latch circuit (Latch) 34.
  • the source of transistor Q34 is connected to a power supply voltage node, and the drain of transistor Q34 is connected to latch circuit 34 and the drain of transistor Q32 in event detection circuit 4.
  • the latch circuit 34 latches and outputs the drain voltage of the transistor Q34 according to the event signal output from the event detection circuit 4.
  • the output signal of the latch circuit 34 is input to the EVS digital circuit 5.
  • the event detection circuit 4 in FIG. 10 includes transistors Q32 and Q33 in addition to the circuit configuration of the event detection circuit 4 in FIG. 4. Further, a readout circuit 33 is provided between the event detection circuit 4 and the digital circuit in FIG. Therefore, the lower chip 12 in FIG. 10 is larger in size than the lower chip 12 in FIGS. 2 and 3, which becomes an obstacle to miniaturization of the photodetecting device 1.
  • the number of EVS pixels 9 in the pixel array section 2 is made smaller than the number of gradation pixels 8, and a plurality of events for a plurality of EVS pixels 9 in the pixel array section 2 are arranged.
  • the detection circuit 4 is concentrated near the EVS digital circuit 5 in the lower chip 12. Thereby, circuits other than the event detection circuit 4 can be arranged in the region of the lower chip 12 facing the pixel array section 2 arranged on the upper chip 11.
  • the event detection circuit 4 is placed close to the EVS digital circuit 5, there is no need to provide the readout circuit 33 between the event detection circuit 4 and the EVS digital circuit 5, so the size of the lower chip 12 can be reduced. The size can be reduced, and the photodetecting device 1 can also be made smaller.
  • the photodetection device 1 according to the first embodiment is a synchronous type that reads out event signals in synchronization with the frame cycle, whereas the photodetection device 1 according to the second embodiment described below is an asynchronous type. .
  • FIG. 11 is a diagram showing the chip configuration of the photodetector 1 according to the second embodiment.
  • the photodetecting device 1 in FIG. 11 is constructed by stacking an upper chip 11 and a lower chip 12, similarly to the first embodiment.
  • the configuration of the upper chip 11 is the same as that shown in FIG. 2, and a pixel array section 2 having gradation pixels 8 and EVS pixels 9 is arranged on the upper chip 11.
  • the second embodiment is also common to the first embodiment in that the number of EVS pixels 9 is smaller than the number of gradation pixels 8.
  • the lower chip 12 in FIG. 11 includes a gradation ADC 3, an event detection circuit 4, an EVS digital circuit 5, and a bias circuit 7.
  • the control circuit 6 provided in the lower chip 12 of FIG. 2 is omitted, and the size can be further reduced than that of the lower chip 12 of FIG.
  • FIG. 12 is a circuit diagram showing the internal configuration of the EVS pixel 9 and the event detection circuit 4 according to the second embodiment.
  • the internal configuration of the EVS pixel 9 in FIG. 12 is the same as that in FIG. 4.
  • the event detection circuit 4 in FIG. 12 outputs an event signal indicating that an event has been detected each time the event detection circuit 4 detects an event, regardless of the frame period. More specifically, the event detection circuit 4 in FIG. 12 includes a first event detection section 31, a second event detection section 32, and a control signal generation section 35.
  • the circuit configurations of the first event detection section 31 and the second event detection section 32 in FIG. 12 are similar to the circuit configurations of the first event detection section 31 and the second event detection section 32 in FIG. 7. Therefore, in FIG. 12, the same reference numerals as in FIG. 7 are given to each circuit element that constitutes the first event detection section 31 and the second event detection section 32 in FIG.
  • the control signal generation section 35 includes a PMOS transistor Q41, an NMOS transistor Q42, and a capacitor C2. Transistors Q41 and Q42 are cascode-connected between a power supply voltage node and a ground voltage node.
  • a first control signal from the EVS digital circuit 5 is input to the gate of the transistor Q41.
  • a control signal SLOPE is input to the gate of the transistor Q42.
  • a control signal AZ_SLOPE similar to that in FIG. 4 is output from the connection node between the drain of the transistor Q41 and the drain of the transistor Q42.
  • This control signal AZ_SLOPE is input to the gate of the transistor Q27 in the first event detection section 31 and the gate of the transistor Q27 in the second event detection section 32.
  • the EVS digital circuit 5 outputs a switching control signal BIAS_SW for controlling switching of the switch 26. Based on this switching control signal BIAS_SW, the switch 26 switches the gate voltage of the transistor Q28.
  • FIG. 13A is a circuit diagram showing a first division of the EVS pixel 9 and the event detection circuit 4. Similar to FIG. 4, FIG. 13A shows an example in which the transistors Q21 to Q25 in the EVS pixel 9 are arranged on the upper chip 11, and the transistor Q26 in the EVS pixel 9 and the event detection circuit 4 are arranged on the lower chip 12. In this way, the EVS pixel 9 has the logarithmic response section 21 and the buffer 22, but in the example of FIG. It is arranged on the lower chip 12. Therefore, the EVS pixel 9 in FIG. 13A is arranged separately into an upper chip 11 and a lower chip 12.
  • FIG. 13C is a circuit diagram showing a third division of the EVS pixel 9 and the event detection circuit 4.
  • the logarithmic response section 21 in the EVS pixel 9 in FIG. 13C has an NMOS transistor Q24a instead of the PMOS transistor Q24.
  • NMOS transistor Q24a By replacing the PMOS transistor Q24 with the NMOS transistor Q24a, a bias current can be generated using leakage current.
  • all the transistors Q21 to Q25 of the EVS pixel 9 arranged on the upper chip 11 can be unified to NMOS, and the manufacturing process can be simplified.
  • FIG. 13D is a circuit diagram showing a fourth division of the EVS pixel 9 and the event detection circuit 4.
  • the EVS pixel 9 not only the EVS pixel 9 but also at least a part of the differentiation circuit 23 in the event detection circuit 4 are arranged on the upper chip 11. Note that at least a part of the comparator 24 in the event detection circuit 4 may be arranged on the upper chip 11.
  • FIG. 13A, FIG. 13B, FIG. 13C, and FIG. 13D show an example in which a set of differentiating circuits 23 and a comparator 24 are provided in the event detecting circuit 4; Even when the comparator 24 is provided, it is conceivable to arbitrarily separate the circuits arranged on the upper chip 11 and the lower chip 12.
  • FIG. 7 described above is a diagram showing an example of how to separate the upper chip 11 and the lower chip 12 when the first event detection section 31 and the second event detection section 32 are provided in the event detection circuit 4.
  • FIG. 7 shows an example in which the transistors Q21 to Q25 in the EVS pixel 9 are arranged on the upper chip 11, and the transistor Q26 in the EVS pixel 9 and the entire event detection circuit 4 are arranged on the lower chip 12.
  • FIG. 14 is a circuit diagram showing an example in which at least a part of the event detection circuit 4 is shared by a plurality of EVS pixels 9. 14 has a plurality of individual pixel sections 41 including EVS pixels 9 and a first portion of the event detection circuit 4, and a common section 42 including a second portion of the event detection circuit 4 other than the first portion. A plurality of individual pixel sections 41 are arranged on the upper chip 11, and a shared section 42 is arranged on the lower chip 12.
  • Each of the plurality of individual pixel sections 41 includes transistors Q21 to Q26 in the EVS pixel 9, transistors Q27 and Q28 in the event detection circuit 4, and a capacitor C3.
  • the sharing section 42 includes transistors Q29 to Q31 and a switch 43. The switch 43 switches and controls the plurality of individual pixel units 41 to connect any one individual pixel unit 41 to the shared unit 42 .
  • FIG. 14 shows an example in which the switch 43 is provided on the lower chip 12, the switch 43 may be arranged on the upper chip 11 as shown in FIG.
  • FIG. 16 is a circuit diagram corresponding to FIG. 15.
  • the EVS pixel 9 and the event detection circuit 4 can be arbitrarily divided and arranged on the upper chip 11 and the lower chip 12, so that the circuit area of the upper chip 11 and the lower chip 12 can be optimized. , the entire information processing device can be downsized. In some cases, it is also possible to configure an information processing device by stacking three or more chips.
  • one or more intermediate chips 13 may be stacked between the upper chip 11 and the lower chip 12 to produce a photodetector 1 having a stacked structure of three or more layers.
  • FIG. 18 is a circuit diagram showing an example of a photodetecting device 1 having a three-layer structure.
  • the photoelectric conversion element 14 and transistors Q21 to Q23 are arranged on the upper chip 11, the transistors Q24 and Q25 are arranged on the middle chip 10, and the remaining circuit parts of the event detection circuit 4 and the output circuit 25 are arranged on the lower chip 12. are placed.
  • the photodetector 1 has a laminated structure of three or more layers, the chips are connected by Cu-Cu junctions, vias, or bumps, but each circuit is connected so that the wiring pattern within each chip is as short as possible. It is desirable to arrange the elements.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be applied to any type of transportation such as a car, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility vehicle, an airplane, a drone, a ship, a robot, a construction machine, an agricultural machine (tractor), etc. It may also be realized as a device mounted on the body.
  • FIG. 20 is a block diagram showing a schematic configuration example of a vehicle control system 7000, which is an example of a mobile object control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 7000 includes multiple electronic control units connected via communication network 7010.
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an outside vehicle information detection unit 7400, an inside vehicle information detection unit 7500, and an integrated control unit 7600. .
  • the communication network 7010 connecting these plurality of control units is, for example, a communication network based on any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • Each control unit includes a microcomputer that performs calculation processing according to various programs, a storage unit that stores programs executed by the microcomputer or parameters used in various calculations, and a drive circuit that drives various devices to be controlled. Equipped with.
  • Each control unit is equipped with a network I/F for communicating with other control units via the communication network 7010, and also communicates with devices or sensors inside and outside the vehicle through wired or wireless communication.
  • a communication I/F is provided for communication.
  • the functional configuration of the integrated control unit 7600 includes a microcomputer 7610, a general-purpose communication I/F 7620, a dedicated communication I/F 7630, a positioning section 7640, a beacon receiving section 7650, an in-vehicle device I/F 7660, an audio image output section 7670, An in-vehicle network I/F 7680 and a storage unit 7690 are illustrated.
  • the other control units similarly include a microcomputer, a communication I/F, a storage section, and the like.
  • the drive system control unit 7100 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 7100 includes a drive force generation device such as an internal combustion engine or a drive motor that generates drive force for the vehicle, a drive force transmission mechanism that transmits the drive force to wheels, and a drive force transmission mechanism that controls the steering angle of the vehicle. It functions as a control device for a steering mechanism to adjust and a braking device to generate braking force for the vehicle.
  • the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • a vehicle state detection section 7110 is connected to the drive system control unit 7100.
  • the vehicle state detection unit 7110 includes, for example, a gyro sensor that detects the angular velocity of the axial rotation movement of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, or an operation amount of an accelerator pedal, an operation amount of a brake pedal, or a steering wheel. At least one sensor for detecting angle, engine rotational speed, wheel rotational speed, etc. is included.
  • the drive system control unit 7100 performs arithmetic processing using signals input from the vehicle state detection section 7110, and controls the internal combustion engine, the drive motor, the electric power steering device, the brake device, and the like.
  • the body system control unit 7200 controls the operations of various devices installed in the vehicle body according to various programs.
  • the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a turn signal, or a fog lamp.
  • radio waves transmitted from a portable device that replaces a key or signals from various switches may be input to the body control unit 7200.
  • the body system control unit 7200 receives input of these radio waves or signals, and controls the door lock device, power window device, lamp, etc. of the vehicle.
  • the battery control unit 7300 controls the secondary battery 7310, which is a power supply source for the drive motor, according to various programs. For example, information such as battery temperature, battery output voltage, or remaining battery capacity is input to the battery control unit 7300 from a battery device including a secondary battery 7310. The battery control unit 7300 performs arithmetic processing using these signals, and controls the temperature adjustment of the secondary battery 7310 or the cooling device provided in the battery device.
  • the external information detection unit 7400 detects information external to the vehicle in which the vehicle control system 7000 is mounted. For example, at least one of an imaging section 7410 and an external information detection section 7420 is connected to the vehicle exterior information detection unit 7400.
  • the imaging unit 7410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the vehicle external information detection unit 7420 includes, for example, an environmental sensor for detecting the current weather or weather, or a sensor for detecting other vehicles, obstacles, pedestrians, etc. around the vehicle equipped with the vehicle control system 7000. At least one of the surrounding information detection sensors is included.
  • the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunlight sensor that detects the degree of sunlight, and a snow sensor that detects snowfall.
  • the surrounding information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • the imaging section 7410 and the vehicle external information detection section 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 21 shows an example of the installation positions of the imaging section 7410 and the external information detection section 7420.
  • the imaging units 7910, 7912, 7914, 7916, and 7918 are provided, for example, in at least one of the front nose, side mirrors, rear bumper, back door, and upper part of the windshield inside the vehicle 7900.
  • An imaging unit 7910 provided in the front nose and an imaging unit 7918 provided above the windshield inside the vehicle mainly acquire images in front of the vehicle 7900.
  • Imaging units 7912 and 7914 provided in the side mirrors mainly capture images of the sides of the vehicle 7900.
  • An imaging unit 7916 provided in the rear bumper or back door mainly acquires images of the rear of the vehicle 7900.
  • the imaging unit 7918 provided above the windshield inside the vehicle is mainly used to detect preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 21 shows an example of the imaging range of each of the imaging units 7910, 7912, 7914, and 7916.
  • Imaging range a indicates the imaging range of imaging unit 7910 provided on the front nose
  • imaging ranges b and c indicate imaging ranges of imaging units 7912 and 7914 provided on the side mirrors, respectively
  • imaging range d is The imaging range of an imaging unit 7916 provided in the rear bumper or back door is shown. For example, by superimposing image data captured by imaging units 7910, 7912, 7914, and 7916, an overhead image of vehicle 7900 viewed from above can be obtained.
  • the external information detection units 7920, 7922, 7924, 7926, 7928, and 7930 provided at the front, rear, sides, corners, and the upper part of the windshield inside the vehicle 7900 may be, for example, ultrasonic sensors or radar devices.
  • External information detection units 7920, 7926, and 7930 provided on the front nose, rear bumper, back door, and upper part of the windshield inside the vehicle 7900 may be, for example, LIDAR devices.
  • These external information detection units 7920 to 7930 are mainly used to detect preceding vehicles, pedestrians, obstacles, and the like.
  • the vehicle exterior information detection unit 7400 causes the imaging unit 7410 to capture an image of the exterior of the vehicle, and receives the captured image data. Further, the vehicle exterior information detection unit 7400 receives detection information from the vehicle exterior information detection section 7420 to which it is connected.
  • the external information detection unit 7420 is an ultrasonic sensor, a radar device, or a LIDAR device
  • the external information detection unit 7400 transmits ultrasonic waves, electromagnetic waves, etc., and receives information on the received reflected waves.
  • the external information detection unit 7400 may perform object detection processing such as a person, car, obstacle, sign, or text on the road surface or distance detection processing based on the received information.
  • the external information detection unit 7400 may perform environment recognition processing to recognize rain, fog, road surface conditions, etc. based on the received information.
  • the vehicle exterior information detection unit 7400 may calculate the distance to the object outside the vehicle based on the received information.
  • the outside-vehicle information detection unit 7400 may perform image recognition processing or distance detection processing for recognizing people, cars, obstacles, signs, characters on the road, etc., based on the received image data.
  • the outside-vehicle information detection unit 7400 performs processing such as distortion correction or alignment on the received image data, and also synthesizes image data captured by different imaging units 7410 to generate an overhead image or a panoramic image. Good too.
  • the outside-vehicle information detection unit 7400 may perform viewpoint conversion processing using image data captured by different imaging units 7410.
  • the in-vehicle information detection unit 7500 detects in-vehicle information.
  • a driver condition detection section 7510 that detects the condition of the driver is connected to the in-vehicle information detection unit 7500.
  • the driver state detection unit 7510 may include a camera that images the driver, a biosensor that detects biometric information of the driver, a microphone that collects audio inside the vehicle, or the like.
  • the biosensor is provided, for example, on a seat surface or a steering wheel, and detects biometric information of a passenger sitting on a seat or a driver holding a steering wheel.
  • the in-vehicle information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, or determine whether the driver is dozing off. You may.
  • the in-vehicle information detection unit 7500 may perform processing such as noise canceling processing on the collected audio signal.
  • the integrated control unit 7600 controls overall operations within the vehicle control system 7000 according to various programs.
  • An input section 7800 is connected to the integrated control unit 7600.
  • the input unit 7800 is realized by, for example, a device such as a touch panel, a button, a microphone, a switch, or a lever that can be inputted by the passenger.
  • the integrated control unit 7600 may be input with data obtained by voice recognition of voice input through a microphone.
  • the input unit 7800 may be, for example, a remote control device that uses infrared rays or other radio waves, or an externally connected device such as a mobile phone or a PDA (Personal Digital Assistant) that is compatible with the operation of the vehicle control system 7000. You can.
  • the input unit 7800 may be, for example, a camera, in which case the passenger can input information using gestures. Alternatively, data obtained by detecting the movement of a wearable device worn by a passenger may be input. Further, the input section 7800 may include, for example, an input control circuit that generates an input signal based on information input by a passenger or the like using the input section 7800 described above and outputs it to the integrated control unit 7600. By operating this input unit 7800, a passenger or the like inputs various data to the vehicle control system 7000 and instructs processing operations.
  • the storage unit 7690 may include a ROM (Read Only Memory) that stores various programs executed by the microcomputer, and a RAM (Random Access Memory) that stores various parameters, calculation results, sensor values, etc. Further, the storage unit 7690 may be realized by a magnetic storage device such as a HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the general-purpose communication I/F 7620 is a general-purpose communication I/F that mediates communication with various devices existing in the external environment 7750.
  • the general-purpose communication I/F7620 supports cellular communication protocols such as GSM (registered trademark) (Global System of Mobile communications), WiMAX (registered trademark), LTE (registered trademark) (Long Term Evolution), or LTE-A (LTE-Advanced). , or other wireless communication protocols such as wireless LAN (also referred to as Wi-Fi (registered trademark)) or Bluetooth (registered trademark).
  • the general-purpose communication I/F 7620 connects to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or an operator-specific network) via a base station or an access point, for example. You may.
  • the general-purpose communication I/F 7620 uses, for example, P2P (Peer To Peer) technology to communicate with a terminal located near the vehicle (for example, a driver, a pedestrian, a store terminal, or an MTC (Machine Type Communication) terminal). You can also connect it with a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or an operator-specific network) via a base station or an access point, for example. You may.
  • P2P Peer To Peer
  • a terminal located near the vehicle for example, a driver, a pedestrian, a store terminal, or an MTC (Machine Type Communication) terminal. You can also connect it with
  • the dedicated communication I/F 7630 is a communication I/F that supports communication protocols developed for use in vehicles.
  • the dedicated communication I/F 7630 uses standard protocols such as WAVE (Wireless Access in Vehicle Environment), which is a combination of lower layer IEEE802.11p and upper layer IEEE1609, DSRC (Dedicated Short Range Communications), or cellular communication protocol. May be implemented.
  • the dedicated communication I/F 7630 typically supports vehicle-to-vehicle communication, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-pedestrian communication. ) communications, a concept that includes one or more of the following:
  • the positioning unit 7640 performs positioning by receiving, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a GPS (Global Positioning System) satellite), and determines the latitude, longitude, and altitude of the vehicle. Generate location information including. Note that the positioning unit 7640 may specify the current location by exchanging signals with a wireless access point, or may acquire location information from a terminal such as a mobile phone, PHS, or smartphone that has a positioning function.
  • GNSS Global Navigation Satellite System
  • GPS Global Positioning System
  • the beacon receiving unit 7650 receives, for example, radio waves or electromagnetic waves transmitted from a wireless station installed on the road, and obtains information such as the current location, traffic jams, road closures, or required travel time. Note that the function of the beacon receiving unit 7650 may be included in the dedicated communication I/F 7630 described above.
  • the in-vehicle device I/F 7660 is a communication interface that mediates connections between the microcomputer 7610 and various in-vehicle devices 7760 present in the vehicle.
  • the in-vehicle device I/F 7660 may establish a wireless connection using a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
  • the in-vehicle device I/F 7660 connects to USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), or MHL (Mobile High).
  • USB Universal Serial Bus
  • HDMI registered trademark
  • MHL Mobile High
  • the in-vehicle device 7760 may include, for example, at least one of a mobile device or wearable device owned by a passenger, or an information device carried into or attached to the vehicle.
  • the in-vehicle device 7760 may include a navigation device that searches for a route to an arbitrary destination. or exchange data signals.
  • the in-vehicle network I/F 7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010.
  • the in-vehicle network I/F 7680 transmits and receives signals and the like in accordance with a predetermined protocol supported by the communication network 7010.
  • the microcomputer 7610 realizes ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. Coordination control may be performed for the purpose of
  • the microcomputer 7610 controls the driving force generating device, steering mechanism, braking device, etc. based on the acquired information about the surroundings of the vehicle, so that the microcomputer 7610 can drive the vehicle autonomously without depending on the driver's operation. Cooperative control for the purpose of driving etc. may also be performed.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 7610 acquires information through at least one of a general-purpose communication I/F 7620, a dedicated communication I/F 7630, a positioning section 7640, a beacon reception section 7650, an in-vehicle device I/F 7660, and an in-vehicle network I/F 7680. Based on this, three-dimensional distance information between the vehicle and surrounding objects such as structures and people may be generated, and local map information including surrounding information of the current position of the vehicle may be generated. Furthermore, the microcomputer 7610 may predict dangers such as a vehicle collision, a pedestrian approaching, or entering a closed road, based on the acquired information, and generate a warning signal.
  • the warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the output device When the output device is a display device, the display device displays results obtained from various processes performed by the microcomputer 7610 or information received from other control units in various formats such as text, images, tables, graphs, etc. Show it visually. Further, when the output device is an audio output device, the audio output device converts an audio signal consisting of reproduced audio data or acoustic data into an analog signal and audibly outputs the analog signal.
  • the present technology can have the following configuration. (1) comprising a first substrate and a second substrate stacked on each other,
  • the first substrate has a pixel group including a first pixel that generates a pixel signal according to the amount of incident light and a second pixel that detects a change in brightness of the incident light
  • the second substrate includes an event detection circuit that detects an event based on a change in brightness of the second pixel, At least a portion of the event detection circuit is arranged in an area other than an area of the same size facing the pixel group on the second substrate.
  • the photodetection device according to any one of (1) to (6), wherein at least a portion of the second pixel is arranged on the second substrate.
  • the second pixel is A photoelectric conversion element, a charge-voltage converter that generates a voltage signal obtained by logarithmically converting the charge photoelectrically converted by the photoelectric conversion element; a buffer circuit that buffers the voltage signal; The photoelectric conversion element, the charge voltage conversion section, and a portion of the buffer circuit are arranged on the first substrate, The photodetecting device according to (7), wherein the buffer circuit other than the part is arranged on the second substrate.
  • the second pixel is A photoelectric conversion element, a charge-voltage conversion unit that converts the charge photoelectrically converted by the second pixel into a logarithmically converted voltage signal;
  • the photodetection device according to any one of (1) to (7), wherein the charge-voltage conversion section includes a diode connected between the cathode of the photoelectric conversion element and a power supply voltage node.
  • the second pixel is A photoelectric conversion element, a charge-voltage conversion unit that converts the charge photoelectrically converted by the second pixel into a logarithmically converted voltage signal;
  • the charge voltage converter includes: an amplifier connected to the cathode of the photoelectric conversion element;
  • the voltage conversion unit other than the bias circuit includes a plurality of transistors of the first conductivity type,
  • the event detection circuit includes: a differentiator that time-differentiates the voltage signal output from the second pixel; a source follower circuit connected to the output node of the differentiator; a comparator connected to an output node of the source follower circuit and detecting the event based on a result of comparing the output signal of the source follower circuit with a predetermined reference signal;
  • the first circuit portion includes the differentiator and the source follower circuit, and a portion of the comparator,
  • the photodetection device according to (13), wherein the second circuit portion includes a portion other than the portion of the comparator.
  • (16) The light according to any one of (13) to (15), wherein two or more of the first circuit parts connected to two or more of the second pixels share one second circuit part.
  • the photodetection device includes: comprising a first substrate and a second substrate stacked on each other,
  • the first substrate has a pixel group including a first pixel that generates a pixel signal according to the amount of incident light and a second pixel that detects a change in brightness of the incident light
  • the second substrate includes an event detection circuit that detects an event based on a change in brightness of the second pixel, At least a portion of the event detection circuit is arranged in an area other than an area of the same size facing the pixel group on the second substrate.
  • Photodetection device 2. Pixel array unit, 4. Event detection circuit, 5. Digital circuit for EVS, 6. Control circuit, 7. Bias circuit, 8. Gradation pixel, 9. EVS pixel, 11. Upper chip, 12. Lower chip, 13. Pixel group. 14 Photoelectric conversion element, 15 Pixel circuit, 17 Wiring route, 18 Wiring pattern, 21 Logarithmic response section, 22 Buffer, 23 Differential circuit, 24 Comparator, 25 Output circuit, 26 Switch, 27 Logic circuit, 31 First event detection section , 32 second event detection section, 34 latch circuit, 35 control signal generation section, 41 individual pixel section, 42 shared section, 43 switch

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Abstract

[課題]回路面積を大きくせずに階調情報の取得とイベント検出を行う。 [解決手段]光検出装置は、互いに積層される第1基板及び第2基板を備え、前記第1基板は、入射光の光量に応じた画素信号を生成する第1画素と、入射光の輝度変化を検出する第2画素とを含む画素群を有し、前記第2基板は、前記第2画素の輝度変化に基づくイベントを検出するイベント検出回路を有し、前記イベント検出回路の少なくとも一部は、前記第2基板上の前記画素群と対向する同一サイズの領域以外の領域に配置される。

Description

光検出装置及び電子機器
 本開示は、光検出装置及び電子機器に関する。
 撮像シーンの中で、輝度の変化量の絶対値が所定の閾値を超えるイベントが発生したときに、当該イベントを検出する撮像装置が知られている(特許公報1参照)。この種の撮像装置は、EVS(Event base Vision Sensor)と呼ばれることがある。
 また、個々の画素が階調情報を取得できるとともに、イベントを検出できるようにした撮像装置も提案されている(特許文献1)。
 さらに、階調情報を取得する画素(以下、階調画素)と、イベントを検出する画素(以下、EVS画素)を別個に設けた撮像装置も提案されている。
特開2020-88724号公報
 撮像装置で、高解像度の撮像画像を生成するには画素数を増やす必要があり、画素数を増えるほど、各画素から出力された画素信号を処理するアナログ-デジタル(AD)変換器、及び信号処理回路などの周辺回路の回路規模が大きくなる。
 そこで、例えば二つのチップを積層した撮像装置が実用化されている。この種の撮像装置では、例えば、上チップに画素アレイ部を配置し、下チップにAD変換器及び信号処理回路などの周辺回路を配置する。
 上述したEVS画素は、画素回路の他に、イベント検出回路が必要になる。イベント検出回路は、下チップに配置されることが多い。画素アレイ部内に階調画素と同程度の数だけEVS画素を設ける場合、画素アレイ部に対向する下チップの領域のほぼすべてにイベント検出回路を配置しなければならなくなり、その他の周辺回路は、イベント検出回路の外側に配置せざるを得なくなり、チップサイズが大きくなる。
 そこで、本開示では、回路面積を大きくせずに階調情報の取得とイベント検出を行うことができる光検出装置及び電子機器を提供するものである。
 上記の課題を解決するために、本開示によれば、
 互いに積層される第1基板及び第2基板を備え、
 前記第1基板は、入射光の光量に応じた画素信号を生成する第1画素と、入射光の輝度変化を検出する第2画素とを含む画素群を有し、
 前記第2基板は、前記第2画素の輝度変化に基づくイベントを検出するイベント検出回路を有し、
 前記イベント検出回路の少なくとも一部は、前記第2基板上の前記画素群と対向する同一サイズの領域以外の領域に配置される、光検出装置が提供される。
 前記第1基板は、複数の前記第1画素と複数の前記第2画素とを含む複数の前記画素群を有し、
 前記第2基板は、それぞれが隣接して配置される複数の前記イベント検出回路を有し、
 前記複数のイベント検出回路の少なくとも一部は、前記第2基板上の前記複数の画素群と対向する同一サイズの領域以外の領域に配置されてもよい。
 前記第1基板は、前記複数の画素群を含む画素アレイ部を有し、
 前記イベント検出回路は、前記第2基板上の前記画素アレイ部に対向する同一サイズの領域内に配置されてもよい。
 前記イベント検出回路は、予め定めたフレーム周期に同期させて、前記複数の第2画素のそれぞれが前記イベントを検出したか否かを示す信号を出力してもよい。
 前記イベント検出回路は、輝度変化の方向が異なる2つの前記第2画素で光電変換された電気信号をそれぞれ時間微分する第1微分器及び第2微分器を有してもよい。
 前記イベント検出回路は、フレーム周期とは無関係に、前記イベント検出回路が前記イベントを検出するたびに、前記イベントを検出したことを示すイベント信号を出力してもよい。
 前記第2画素の少なくとも一部は、前記第2基板に配置されてもよい。
 前記第2画素は、
 光電変換素子と、
 前記光電変換素子で光電変換された電荷を対数変換した電圧信号を生成する電荷電圧変換部と、
 前記電圧信号をバッファリングするバッファ回路と、を有し、
 前記光電変換素子、前記電荷電圧変換部、及び前記バッファ回路の一部分は、前記第1基板に配置され、
 前記バッファ回路の前記一部分以外は前記第2基板に配置されてもよい。
 前記第2画素は、
 光電変換素子と、
 前記第2画素で光電変換された電荷を対数変換した電圧信号に変換する電荷電圧変換部と、を有し、
 前記電荷電圧変換部は、前記光電変換素子のカソードと電源電圧ノードとの間に接続されるダイオードを有してもよい。
 前記第2画素は、
 光電変換素子と、
 前記第2画素で光電変換された電荷を対数変換した電圧信号に変換する電荷電圧変換部と、を有し、
 前記電荷電圧変換部は、
 前記光電変換素子のカソードに接続される増幅器と、
 前記増幅器にバイアス電流を供給するバイアス回路と、を有してもよい。
 前記電荷電圧変換部は、前記バイアス回路を含めて、同一の導電型の複数のトランジスタを有してもよい。
 前記電荷電圧変換部内の前記バイアス回路以外は、第1導電型の複数のトランジスタを有し、
 前記バイアス回路は、第2導電型のトランジスタを有してもよい。
 前記イベント検出回路は、前記第1基板に配置される第1回路部分と、前記第2基板に配置される第2回路部分とを有してもよい。
 前記イベント検出回路は、
 前記第2画素から出力された電圧信号を時間微分する微分器と、
 前記微分器の出力ノードに接続されるソースフォロワ回路と、
 前記ソースフォロワ回路の出力ノードに接続され、前記ソースフォロワ回路の出力信号を所定の基準信号と比較した結果に基づいて前記イベントを検出する比較器と、を有し、
 前記第1回路部分は、前記微分器及び前記ソースフォロワ回路を有し、
 前記第2回路部分は、前記比較器を有してもよい。
 前記イベント検出回路は、
 前記第2画素から出力された電圧信号を時間微分する微分器と、
 前記微分器の出力ノードに接続されるソースフォロワ回路と、
 前記ソースフォロワ回路の出力ノードに接続され、前記ソースフォロワ回路の出力信号を所定の基準信号と比較した結果に基づいて前記イベントを検出する比較器と、を有し、
 前記第1回路部分は、前記微分器及び前記ソースフォロワ回路と、前記比較器の一部分とを有し、
 前記第2回路部分は、前記比較器の前記一部分以外を有してもよい。
 2以上の第2画素に接続される2以上の前記第1回路部分は、1つの前記第2回路部分を共有してもよい。
 前記2以上の第1回路部分の出力ノードに接続される切替器を備え、
 前記切替器は、前記2以上の第1回路部分のいずれか一つの出力ノードを前記第2回路部分の入力ノードに接続してもよい。
 前記切替器は、前記第1基板又は前記第2基板に配置されてもよい。
 前記イベント検出回路は、前記複数の第2画素のそれぞれごとに設けられ、
 複数の前記イベント検出回路は、前記第2基板上の一部の領域内に近接して配置されてもよい。
 本開示によれば、光検出装置と、
 前記光検出装置から出力された画素信号及びイベント信号に基づいて信号処理を行う信号処理部と、を備え、
 前記光検出装置は、
 互いに積層される第1基板及び第2基板を備え、
 前記第1基板は、入射光の光量に応じた画素信号を生成する第1画素と、入射光の輝度変化を検出する第2画素とを含む画素群を有し、
 前記第2基板は、前記第2画素の輝度変化に基づくイベントを検出するイベント検出回路を有し、
 前記イベント検出回路の少なくとも一部は、前記第2基板上の前記画素群と対向する同一サイズの領域以外の領域に配置される、電子機器が提供される。
第1の実施形態による光検出装置の概略構成を示すブロック図。 第1の実施形態による光検出装置のチップ構成を模式的に示す図。 階調画素の回路構成を示す回路図。 EVS画素とイベント検出回路の内部構成を示す回路図。 第1の実施形態による光検出装置の駆動タイミングを示す図。 図2のチップ構成の一変形例を示す図。 図4のイベント検出回路の一変形例の回路図。 図7のイベント検出回路を備えた光検出装置1の駆動タイミングを示す図。 一比較例による光検出装置のチップ構成を示す図。 図9のEVS画素、イベント検出回路、読出し回路、及びEVS用デジタル回路の内部構成を示す回路図。 第2の実施形態による光検出装置のチップ構成を示す図。 第2の実施形態によるEVS画素とイベント検出回路の内部構成を示す回路図。 EVS画素とイベント検出回路の第1の切り分けを示す回路図。 EVS画素とイベント検出回路の第2の切り分けを示す回路図。 EVS画素とイベント検出回路の第3の切り分けを示す回路図。 EVS画素とイベント検出回路の第4の切り分けを示す回路図。 EVS画素とイベント検出回路の第5の切り分けを示す回路図。 イベント検出回路の少なくとも一部を複数のEVS画素で共有する一例を示す回路図。 切替器を上チップに配置するチップ構成を示す図。 図15に対応する回路図。 上チップと下チップの回路配置例を示す回路図。 3層構造の光検出装置の一例を示す回路図。 複数のイベント検出回路を列方向に配置した図。 車両制御システムの概略的な構成の一例を示すブロック図。 車外情報検出部及び撮像部の設置位置の一例を示す説明図。
 以下、図面を参照して、光検出装置及び電子機器の実施形態について説明する。以下では、光検出装置及び電子機器の主要な構成部分を中心に説明するが、光検出装置及び電子機器には、図示又は説明されていない構成部分や機能が存在しうる。以下の説明は、図示又は説明されていない構成部分や機能を除外するものではない。
 (第1の実施形態)
 図1は第1の実施形態による光検出装置1の概略構成を示すブロック図である。図1の光検出装置1は、画素アレイ部2と、階調用ADC(Analog-Digital Converter)3と、イベント検出回路4と、EVS用デジタル回路5と、制御回路6と、バイアス回路7とを備えている。
 画素アレイ部2は、複数の階調画素8と、複数のEVS画素9とを有する。画素アレイ部2内の階調画素8の数は、EVS画素9の数よりも多いことを想定しているが、階調画素8の数とEVS画素9の数の割合は任意である。
 階調画素8とEVS画素9は、画素アレイ部2の行方向x及び列方向yに複数個ずつ配置されている。図1では、画素アレイ部2を複数の画素群13に分ける例を示している。各画素群13は、2以上の階調画素8と1つのEVS画素9とを有する。なお、画素アレイ部2内の画素群13の数には特に制限はない。
 階調画素8とEVS画素9はいずれも、光電変換素子14(フォトダイオード)と、画素回路とを有する。階調画素8用の画素回路は、階調画素8の光電変換素子14で光電変換された電荷を電圧に変換して画素信号を生成する。画素信号は、階調情報を含んでいる。EVS用の画素回路は、EVS画素9の光電変換素子14で光電変換された電荷に応じた電圧信号を生成する。この電圧信号は、輝度の変化量を検出するために用いられる。階調画素8とEVS画素9の具体的な回路構成については後述する。
 階調画素8で光電変換された画素信号は、列方向yに延びる信号線を介して階調用ADC3に伝送される。EVS画素9で光電変換された電荷に応じた電圧信号は、イベント検出回路4に伝送される。
 階調用ADC3は、行方向xに沿って所定間隔で配置される複数の信号線上の画素信号をAD変換してデジタル画素信号を生成する。
 図1では、一つのイベント検出回路4を図示しているが、実際には、イベント検出回路4は、個々のEVS画素9ごとに設けられ、対応するEVS画素9で光電変換された電荷に応じた電圧信号をしきい値電圧と比較することで、イベントが発生したか否かを検出する。より具体的には、イベント検出回路4は、イベントが発生したか否かを示すイベント信号を出力する。イベント信号は、例えばオンイベント信号とオフイベント信号を含んでいる。オンイベント信号は、EVS画素9の輝度変化量が所定の閾値を超えたことを示すオンイベントを検出する信号である。例えば、オンイベント信号がハイ論理になると、オンイベントが発生したことを示す。オフイベント信号は、EVS画素9の輝度変化量が所定の閾値を下回ったことを示すオフイベントを検出する信号である。例えば、オフイベント信号がハイ論理になると、オフイベントが発生したことを示す。
 本実施形態では、画素アレイ部2内の全EVS画素9が検出したオンイベント信号を同時に出力し、別のタイミングで、画素アレイ部2内の全EVS画素9が検出したオフイベント信号を同時に出力する。本明細書では、オンイベント信号とオフイベント信号を総称してイベント信号と呼ぶ。
 イベント検出回路4は、オンイベントとオフイベントを同時に検出して、オンイベント信号とオフイベント信号を同時に出力してもよい。この場合、イベント信号は2ビットになり、一方のビットはオンイベント信号を表し、他方のビットはオフイベント信号を表す。
 EVS用デジタル回路5は、画素アレイ部2内の複数のEVS画素9で検出された複数のイベント信号をAD変換したデジタル信号を生成する。
 制御回路6は、図1の光検出装置1内の各部が使用する各種の制御信号を生成して、各部に供給する。バイアス回路7は、図1の光検出装置1内の各部が使用する各種のバイアス信号を生成する。
 図2は第1の実施形態による光検出装置1のチップ構成を模式的に示す図である。図2に示すように、第1の実施形態による光検出装置1は、複数のチップを積層して構成されうる。図2では、上チップ(第1基板)11と下チップ(第2基板)12を積層して光検出装置1を構成する例を示している。
 上チップ11は、光入射側に配置されることを想定している。よって、上チップ11には、図1の画素アレイ部2が配置される。下チップ12には、図1の階調用ADC3と、イベント検出回路4と、EVS用デジタル回路5と、制御回路6と、バイアス回路7とが配置される。なお、図2の下チップ12に配置される一部の回路を上チップ11に配置してもよい。また、後述するように、図1の光検出装置1は、3つ以上のチップを積層して構成してもよい。
 図2は、画素アレイ部2が4つの画素群13を有し、各画素群13が複数の階調画素8と1つのEVS画素9を有する例を示しているが、画素アレイ部2が有する画素群13の数は任意である。図2の下チップ12には、上チップ11内の4つのEVS画素9に対応する4つのイベント検出回路4が設けられている。4つのイベント検出回路4は、例えば行方向xに沿って1列に隣接して配置されている。
 このように、図2のイベント検出回路4の少なくとも一部は、下チップ12における画素群13と対向する同一サイズの領域以外の領域に配置されている。よって、下チップ12における画素群13の直下の領域には、イベント検出回路4以外の回路(例えば、階調用ADC3、制御回路6、バイアス回路7、EVS用デジタル回路5など)を配置でき、下チップ12のサイズを小さくできる。なお、図2の例では、上チップ11上の画素アレイ部2の直下にある下チップ12の領域内の一部領域にイベント検出回路4を集約して配置している。
 図2では、下チップ12の列方向yに沿って、階調用ADC3、バイアス回路7、制御回路6、イベント検出回路4、及びEVS用デジタル回路5を配置しているが、これは一例であり、任意に変更してもよい。
 上チップ11と下チップ12は、Cu-Cu接合、ビア、バンプなどにより接合されて、信号伝送を行う。図2では、4つのEVS画素9と4つのイベント検出回路4とを接続する配線経路17を図示している。各EVS画素9から、例えばCu-Cu接合を介して鉛直方向に下チップ12まで配線経路17が延びて、対応するイベント検出回路4に直接接続されるか、又は、下チップ12上の配線パターン18を介して、対応するイベント検出回路4に接続される。
 図3は階調画素8の回路構成を示す回路図である。図3に示すように、階調画素8は、光電変換素子14と画素回路15とを有する。階調画素8の画素回路15は、転送トランジスタQ1と、リセットトランジスタQ2と、増幅トランジスタQ3と、選択トランジスタQ4とを有する。画素回路15内の全トランジスタQ1~Q4がNMOSトランジスタである。
 光電変換素子14のアノードは基準電圧ノードに設定され、カソードは転送トランジスタQ1のソースに接続されている。転送トランジスタQ1のドレインはフローティングディフュージョンと、リセットトランジスタQ2のソースと、増幅トランジスタQ3のゲートに接続されている。増幅トランジスタQ3のドレインは電源電圧ノードに接続され、増幅トランジスタQ3のソースは選択トランジスタQ4のドレインに接続されている。選択トランジスタQ4のソースは信号線に接続されている。
 なお、図3は階調画素8の画素回路15の回路構成の一例であり、図3とは異なる種々の回路構成も取りうる。
 図4はEVS画素9とイベント検出回路4の内部構成を示す回路図である。EVS画素9は、対数応答部21とバッファ22を有する。対数応答部21は、光電変換素子14で光電変換された電荷を対数変換した電圧信号を生成する。対数変換することにより、EVS画素9の光電変換時のダイナミックレンジを広げることができ、感度を向上できる。
 対数応答部21は、NMOSトランジスタQ21~Q23と、PMOSトランジスタQ24とを有する。トランジスタQ22はゲートとドレインが接続されており、ダイオードとして機能する。トランジスタQ21のドレインは電源電圧ノードに接続され、トランジスタQ21のソースはトランジスタQ22のゲートとドレインに接続されている。トランジスタQ21のゲートは、トランジスタQ23のドレインとトランジスタQ24のドレインとに接続されており、この接続ノードが対数応答部21の出力ノードである。トランジスタQ24のソースは電源電圧ノードに接続され、トランジスタQ24のゲートには所定のバイアス電圧Vlogが印加される。
 バッファ22は、電源電圧ノードと接地電圧ノードの間にカスコード接続されるNMOSトランジスタQ25、Q26を有する。トランジスタQ25のゲートには、対数応答部21の出力ノードが接続される。トランジスタQ26のゲートには基準電圧SFが印加される。トランジスタQ25のソース及びトランジスタQ26のドレインがバッファ22の出力ノードである。トランジスタQ26はソースフォロワ回路として機能し、トランジスタQ24のソース電圧に応じた波形の電圧信号がトランジスタQ25のソースから出力される。
 図4は、EVS画素9内の対数応答部21とバッファ22内のトランジスタQ25を上チップ11に配置し、バッファ22内のトランジスタQ26を下チップ12に配置する例を示している。これは一例であり、例えばバッファ22内のトランジスタQ26を上チップ11に配置してもよいし、あるいは、バッファ22を構成するトランジスタQ25,Q26を下チップ12に配置してもよい。
 図4のイベント検出回路4は、同期式の構成であり、予め定めたフレーム周期に同期させて、複数のEVS画素9のそれぞれがイベントを検出したか否かを示すイベント信号を出力する。図4のイベント検出回路4は、微分回路23と、コンパレータ24と、出力回路25を有する。微分回路23は、キャパシタC1と、NMOSトランジスタQ27、Q28と、PMOSトランジスタQ29とを有する。
 キャパシタC1は、バッファ22の出力ノードとトランジスタQ29のゲートとの間に接続されている。キャパシタC1は、バッファ22から出力された電圧信号Vpの時間微分である電圧信号Vpの変化量に応じた電流をトランジスタQ29のゲートに供給する。トランジスタQ29とQ28は、電源電圧ノードと接地電圧ノードの間にカスコード接続されている。トランジスタQ28のゲートには、3種類のバイアス電圧を選択する切替器26が接続されている。切替器26は、制御回路6から出力された切替制御信号BIAS_SWに基づいて、オートゼロ用のバイアス電圧AZ、正極性のイベント検出用のバイアス電圧POS、負極性のイベント検出用のバイアス電圧NEGのいずれかを選択する。切替器26の切替制御により、トランジスタQ28のゲートは、最適なバイアス電圧に設定される。
 微分回路23は、トランジスタQ28のドレイン及びトランジスタQ29のソースから微分信号を出力する。この微分信号はコンパレータ24に入力される。
 コンパレータ24は、電源電圧ノードと接地電圧ノードの間にカスコード接続されるPMOSトランジスタQ31及びNMOSトランジスタQ30を有する。トランジスタQ30のゲートには、閾値信号2NDCOMPが印加される。トランジスタQ31のゲートは、トランジスタQ29のソースに接続されており、トランジスタQ31のゲートには、微分回路23から出力された微分信号が入力される。コンパレータ24は、微分信号の電圧レベルが閾値信号2NDCOMPの電圧レベルよりも高ければ、イベントを検出したことを示すハイレベルのイベント信号を出力する。
 図4のコンパレータ24は、トランジスタQ28のゲート電圧を切替器26で切り替えることで、トランジスタQ31のソースからオンイベント信号又はオフイベント信号を切り替えて出力できる。
 出力回路25は、論理ゲート及びフリップフロップなどで構成されるロジック回路(Logic)27を有する。ロジック回路27には、制御回路6から出力された制御信号LATCH_EN、POLARITYが入力される。制御信号LATCH_ENはイベント信号をラッチするタイミングを規定する信号である。制御信号POLARITYは、イベント信号の極性を指定する信号である。ロジック回路27は、フレーム周期に同期させて、イベント信号を出力する。ロジック回路27から出力されたイベント信号は、EVS用デジタル回路5に入力される。
 EVS用デジタル回路5は、画素アレイ部2内のすべてのEVS画素9で検出されたイベント信号に基づいてデジタル信号を生成する。
 図5は第1の実施形態による光検出装置1の駆動タイミングを示す図である。図5には、3フレーム分の階調画素8とEVS画素9の駆動タイミングが図示されている。第1の実施形態による光検出装置1は、フレーム同期信号XVSに同期して階調画素8とEVS画素9の読出しを行う。
 図5の例では、1フレーム期間内に、まず、画素アレイ部2内の全EVS画素9のオンイベントの検出を同時に行う(期間T1)。次に、画素アレイ部2内の全EVS画素9のリセット動作を行う(期間T2)。次に、画素アレイ部2内の全EVS画素9のオンイベント信号の読出しを同時に行う(期間T3)。次に、画素アレイ部2内の全EVS画素9のオフイベントの検出を行う(期間T4)。次に、画素アレイ部2内の全EVS画素9のリセット動作を行う(期間T5)。次に、画素アレイ部2内の全EVS画素9のオフイベント信号の読出しを行う(期間T6)。その後、画素アレイ部2内の全階調画素8の読出しを行う(期間T7)。
 図2では、上チップ11に配置されたEVS画素9からCu-Cu接合等で下チップ12に配線経路17を設け、下チップ12上の配線パターン18にて、対応するイベント検出回路4と接続する例を示したが、上チップ11側に配線パターンを設けてもよい。図6は図2のチップ構成の一変形例を示す図である。図6では、上チップ11に配置されたEVS画素9から、上チップ11上の配線パターンを、下チップ12上の対応するイベント検出回路4の直上位置まで配置し、この位置からCu-Cu接合等で下チップ12のイベント検出回路4に直接接続する。上チップ11には、画素アレイ部2だけが配置されているため、画素アレイ部2の内部、又は画素アレイ部2の外側の空き領域に配線パターンを配置することで、図6のチップ構成を実現できる。
 図5のタイミング図に示したように、図4のイベント検出回路4は、微分回路23とコンパレータ24を一つずつ有し、タイミングをずらしてオンイベント信号とオフイベント信号を検出する。図4の一変形例として、イベント検出回路4内にオンイベント信号用の微分回路23及びコンパレータ24と、オフイベント信号用の微分回路23及びコンパレータ24を設けてもよい。
 図7は図4のイベント検出回路4の一変形例の回路図である。図7のイベント検出回路4には、図4と同様の構成のEVS画素9が接続される。図7のイベント検出回路4は、オンイベント信号を検出する第1イベント検出部31と、オフイベント信号を検出する第2イベント検出部32とを有する。
 第1イベント検出部31と第2イベント検出部32はそれぞれ、図4のイベント検出回路4と同じ回路構成を有する。このため、図7では、第1イベント検出部31と第2イベント検出部32内の各トランジスタに、図4のイベント検出回路4と同じ符号を付している。
 第1イベント検出部31と第2イベント検出部32には、EVS画素9内のバッファ22から出力された電圧信号が入力される。第1イベント検出部31内の微分回路(第1微分器)23内のトランジスタQ28のゲートには、オンイベント信号用のバイアス信号が入力される。また、第1イベント検出部31内のコンパレータ24内のトランジスタQ30のゲートには、オンイベント信号用の閾値電圧が入力される。同様に、第2イベント検出部32内の微分回路(第2微分器)23内のトランジスタQ28のゲートには、オフイベント信号用のバイアス信号が入力される。また、第2イベント検出部32内のコンパレータ24内のトランジスタQ30のゲートには、オフイベント信号用の閾値電圧が入力される。第1イベント検出部31で検出されたオンイベント信号と第2イベント検出部32で検出されたオフイベント信号は、出力回路25に入力される。
 第1イベント検出部31と第2イベント検出部32は同時に動作する。よって、EVS画素9がオンイベントを検出した場合には、第1イベント検出部31はオンイベント信号を出力し、同じタイミングで別のEVS画素9がオフイベントを検出した場合には、第2イベント検出部32はオフイベント信号を出力する。
 図8は図7のイベント検出回路4を備えた光検出装置1の駆動タイミングを示す図である。1フレーム期間内に、まず、画素アレイ部2内の全EVS画素9のオンイベントとオフイベントを同時に検出する(期間T1)。次に、画素アレイ部2内の全EVS画素9のリセット動作を行う(期間T2)。次に、画素アレイ部2内の全EVS画素9のオンイベント信号とオフイベント信号を同時に読み出す(期間T3)。EVS画素9がオンイベントを検出した場合には、対応するイベント検出回路4内の第1イベント検出部31はオンイベント信号を出力する。EVS画素9がオフイベントを検出した場合には、対応するイベント検出回路4内の第2イベント検出部32はオフイベント信号を出力する。
 このように、イベント検出回路4内にオンイベント用の第1イベント検出部31と、オフイベント用の第2イベント検出部32とを設けることで、オンイベントとオフイベントを同時に検出して、オンイベント信号とオフイベント信号を同時に出力できる。これにより、オンイベント及びオフイベントの検出時間を短縮できる。
 図9は一比較例による光検出装置1のチップ構成を示す図である。図9の光検出装置1は、上チップ11と下チップ12を積層して構成されている。上チップ11に配置される画素アレイ部2は、3つの階調画素8に対して1個の割合でEVS画素9を有する。このように、図9の画素アレイ部2は、図2の画素アレイ部2よりも多くのEVS画素9を有する。このため、画素アレイ部2に対向する下チップ12上の領域のほとんどすべてにイベント検出回路4が配置され、イベント検出回路4の外側に、階調用ADC3、読出し回路33、EVS用デジタル回路5、制御回路6、及びバイアス回路7が設けられる。
 図2には存在しなかった読出し回路33は、イベント検出回路4から出力されたイベント信号のドライブ能力を高めるために設けられている。読出し回路33から出力されたイベント信号は、EVS用デジタル回路5に入力される。
 図9の光検出装置1内に読出し回路33が必要になる理由は、イベント検出回路4が広い面積に配置されており、イベント検出回路4からEVS用デジタル回路5までの距離が長くなるためである。図2の光検出装置1では、画素アレイ部2内のEVS画素9の数が図9よりも少ないことから、イベント検出回路4を下チップ12のEVS用デジタル回路5の近傍に一列に配置できる。このため、図9の光検出装置1では、イベント検出回路4とEVS用デジタル回路5との距離が図2よりも短くなり、読出し回路33でイベント信号のドライブ能力を高める必要はない。よって、図9の光検出装置1は、下チップ12に読出し回路33を設ける必要がなくなることから、下チップ12のサイズを小型化できる。
 このように、図9の光検出装置1では、下チップ12に配置されるイベント検出回路4の面積が大きくなり、かつ読出し回路33も必要になるため、下チップ12のサイズを大きくせざるを得ず、光検出装置1も大型化してしまう。
 図10は図9のEVS画素9、イベント検出回路4、読出し回路33、及びEVS用デジタル回路5の内部構成を示す回路図である。
 図10のEVS画素9は、図4のEVS画素9と同様の回路で構成されている。図4では、EVS画素9内のトランジスタQ21~Q25を上チップ11に配置し、トランジスタQ26を下チップ12に配置するのに対し、図10では、EVS画素9内のトランジスタQ21~Q23を上チップ11に配置し、トランジスタQ24~Q26を下チップ12に配置している。
 図10のイベント検出回路4は、図4のイベント検出回路4と同様の回路で構成される微分回路23及びコンパレータ24を有する。コンパレータ24の後段に設けられる出力回路25は、図4の出力回路25とは回路構成が異なっている。図10の出力回路25は、図4のロジック回路27と同様に構成されるロジック回路27を有する他に、図4の出力回路25に存在しなかった構成として、NMOSトランジスタQ32、Q33を有する。
 図10の読出し回路33は、PMOSトランジスタQ34と、ラッチ回路(Latch)34とを有する。トランジスタQ34のソースは電源電圧ノードに接続され、トランジスタQ34のドレインはラッチ回路34と、イベント検出回路4内のトランジスタQ32のドレインとに接続されている。
 ラッチ回路34は、イベント検出回路4から出力されたイベント信号に応じたトランジスタQ34のドレイン電圧をラッチして出力する。ラッチ回路34の出力信号はEVS用デジタル回路5に入力される。
 上述したように、図10のイベント検出回路4は、図4のイベント検出回路4の回路構成に加えて、トランジスタQ32、Q33を有する。また、図10のイベント検出回路4とデジタル回路の間には読出し回路33が設けられている。このため、図10の下チップ12は、図2及び図3の下チップ12よりもサイズが大きくなり、光検出装置1の小型化の障害になる。
 このように、第1の実施形態では、画素アレイ部2内のEVS画素9の数を階調画素8の数よりも少なくし、画素アレイ部2内の複数のEVS画素9用の複数のイベント検出回路4を下チップ12内のEVS用デジタル回路5の近傍に集約させる。これにより、上チップ11に配置される画素アレイ部2に対向する下チップ12の領域に、イベント検出回路4以外の回路を配置できる。また、イベント検出回路4がEVS用デジタル回路5に間近に配置されるため、イベント検出回路4とEVS用デジタル回路5の間に読出し回路33を設ける必要がなくなるため、下チップ12のサイズをより小型化でき、ひいては光検出装置1を小型化できる。
 (第2の実施形態)
 第1の実施形態による光検出装置1は、イベント信号をフレーム周期に同期させて読み出す同期式であるのに対し、以下に説明する第2の実施形態による光検出装置1は、非同期式である。
 図11は第2の実施形態による光検出装置1のチップ構成を示す図である。図11の光検出装置1は、第1の実施形態と同様に、上チップ11と下チップ12を積層して構成される。上チップ11の構成は図2と同様であり、上チップ11には、階調画素8とEVS画素9を有する画素アレイ部2が配置されている。EVS画素9の数が階調画素8の数よりも少ない点でも第2の実施形態は第1の実施形態と共通する。
 図11の下チップ12は、階調用ADC3と、イベント検出回路4と、EVS用デジタル回路5と、バイアス回路7とを有する。図2の下チップ12に設けられていた制御回路6は省略されており、図2の下チップ12よりもさらにサイズを小型化できる。
 図12は第2の実施形態によるEVS画素9とイベント検出回路4の内部構成を示す回路図である。図12のEVS画素9の内部構成は図4と同様である。
 図12のイベント検出回路4は、フレーム周期とは無関係に、イベント検出回路4がイベントを検出するたびに、イベントを検出したことを示すイベント信号を出力する。より具体的には、図12のイベント検出回路4は、第1イベント検出部31と、第2イベント検出部32と、制御信号生成部35とを有する。
 図12の第1イベント検出部31及び第2イベント検出部32の回路構成は、図7の第1イベント検出部31及び第2イベント検出部32の回路構成と同様である。このため、図12では、図7の第1イベント検出部31及び第2イベント検出部32を構成する各回路素子に図7と同一の符号を付している。
 制御信号生成部35は、PMOSトランジスタQ41と、NMOSトランジスタQ42と、キャパシタC2とを有する。トランジスタQ41、Q42は電源電圧ノードと接地電圧ノードの間にカスコード接続されている。トランジスタQ41のゲートには、EVS用デジタル回路5からの第1制御信号が入力される。トランジスタQ42のゲートには、制御信号SLOPEが入力される。トランジスタQ41のドレイン及びトランジスタQ42のドレインの接続ノードからは、図4と同様の制御信号AZ_SLOPEが出力される。この制御信号AZ_SLOPEは、第1イベント検出部31内のトランジスタQ27のゲートと、第2イベント検出部32内のトランジスタQ27のゲートに入力される。EVS用デジタル回路5は、切替器26を切替制御するための切替制御信号BIAS_SWを出力する。この切替制御信号BIAS_SWにより、切替器26はトランジスタQ28のゲート電圧を切り替える。
 このように、第2の実施形態による光検出装置1は、イベント検出回路4内で制御信号AZ_SLOPEを生成するとともに、EVS用デジタル回路5で切替器26の切替制御信号BIAS_SWを生成するため、図4の制御回路6が不要になる。よって、下チップ12のチップサイズをより小型化できる。図11の光検出装置1は、制御回路6を持たないことから、フレーム周期とは非同期にオンイベント信号とオフイベント信号を出力することができる。
 (第3の実施形態)
 第1及び第2の実施形態で説明したように、光検出装置1に含まれるEVS画素9とイベント検出回路4の一部は上チップ11に配置され、残りは下チップ12に配置される。EVS画素9とイベント検出回路4のうち、上チップ11に配置される回路と、下チップ12に配置される回路の切り分け方は、一通りだけではなく、複数通りの切り分け方がある。
 図13AはEVS画素9とイベント検出回路4の第1の切り分けを示す回路図である。図13Aは図4と同様に、EVS画素9内のトランジスタQ21~Q25を上チップ11に配置し、EVS画素9内のトランジスタQ26と、イベント検出回路4を下チップ12に配置する例を示す。このように、EVS画素9は、対数応答部21とバッファ22を有するが、図13Aの例では、対数応答部21とバッファ22の一部分は上チップ11に配置され、バッファ22の残りの部分は下チップ12に配置される。よって、図13AのEVS画素9は、上チップ11と下チップ12に分かれて配置される。
 図13BはEVS画素9とイベント検出回路4の第2の切り分けを示す回路図である。図13Bは図13Aと同様に切り分けているが、図13BのEVS画素9の回路構成は図13AのEVS画素9の回路構成とは一部異なっている。図13BのEVS画素9内の対数応答部21は、トランジスタQ22が省略され、トランジスタQ21はダイオード接続されている。これにより、図13Aよりも対数応答部21の内部構成を簡略化できる。
 図13CはEVS画素9とイベント検出回路4の第3の切り分けを示す回路図である。図13CのEVS画素9内の対数応答部21は、PMOSトランジスタQ24の代わりに、NMOSトランジスタQ24aを有する。PMOSトランジスタQ24からNMOSトランジスタQ24aに置換することで、リーク電流でバイアス電流を生成できる。また、NMOSのトランジスタQ24aを設けることで、上チップ11に配置されるEVS画素9の全トランジスタQ21~Q25をNMOSで統一させることができ、製造プロセスを簡略化できる。
 図13DはEVS画素9とイベント検出回路4の第4の切り分けを示す回路図である。図13Dは、EVS画素9だけでなく、イベント検出回路4内の微分回路23の少なくとも一部までを上チップ11に配置している。なお、イベント検出回路4内のコンパレータ24の少なくとも一部までを上チップ11に配置してもよい。
 図13Eは、EVS画素9とイベント検出回路4の第5の切り分けを示す回路図である。図13Eは、コンパレータ24の一部までを上チップ11に配置する例を示している。図13Eでは、コンパレータ24内のトランジスタQ30を上チップ11に配置し、トランジスタQ31を下チップ12に配置する例を示しているが、トランジスタQ31を上チップ11に配置し、トランジスタQ30を下チップ12に配置してもよい。
 図13A、図13B、図13C、及び図13Dは、イベント検出回路4内に一組の微分回路23とコンパレータ24を設ける例を示したが、イベント検出回路4内に複数組の微分回路23及びコンパレータ24を設ける場合にも、上チップ11と下チップ12に配置する回路を任意に切り分けることが考えられる。
 上述した図7は、イベント検出回路4内に第1イベント検出部31と第2イベント検出部32を設ける場合の上チップ11と下チップ12の切り分け方の一例を示す図である。図7は、EVS画素9内のトランジスタQ21~Q25までを上チップ11に配置し、EVS画素9内のトランジスタQ26と、イベント検出回路4の全体を下チップ12に配置する例を示す。
 上述した光検出装置1では、EVS画素9とイベント検出回路4が一対一に対応する例を示したが、複数のEVS画素9で1つのイベント検出回路4を共有する構成も採用可能である。
 図14はイベント検出回路4の少なくとも一部を複数のEVS画素9で共有する一例を示す回路図である。図14は、EVS画素9とイベント検出回路4の第1部分を含む複数の個別画素部41と、イベント検出回路4の第1部分を除いた残りの第2部分を含む共有部42を有する。複数の個別画素部41は上チップ11に配置され、共有部42は下チップ12に配置される。
 複数の個別画素部41のそれぞれは、EVS画素9内のトランジスタQ21~Q26と、イベント検出回路4内のトランジスタQ27、Q28及びキャパシタC3を有する。共有部42は、トランジスタQ29~Q31と、切替器43とを有する。切替器43は、複数の個別画素部41を切替制御して、いずれか一つの個別画素部41を共有部42に接続する。
 図14は、切替器43を下チップ12に設ける例を示しているが、図15のように切替器43を上チップ11に配置してもよい。図16は図15に対応する回路図である。
 図14に示すように、下チップ12にはイベント検出回路4の一部分である共有部42が設けられ、共有部42は上チップ11に配置される複数の個別画素部41で共有されるため、個別画素部41に対向する下チップ12上の領域に、共有部42以外の回路(例えば、階調用ADC3、EVS用デジタル回路5、制御回路6、及びバイアス回路7などを配置でき、下チップ12のチップサイズを小型化できる。
 このように、第3の実施形態では、EVS画素9とイベント検出回路4を任意に切り分けて上チップ11と下チップ12に配置できるため、上チップ11と下チップ12の回路面積を最適化でき、情報処理装置全体を小型化できる。また、場合によっては、3つ以上のチップを積層させて情報処理装置を構成することも可能である。
 (第4の実施形態)
 第1~第3の実施形態による光検出装置1は、上チップ11と下チップ12に分けて構成される。上述したように、光検出装置1内の各回路を上チップ11と下チップ12に区分けする分け方は任意である。例えば、図17はEVS画素9と、イベント検出回路4内のトランジスタQ25とを上チップ11に配置し、それ以外の回路部分を下チップ12に配置する例を示している。
 また、上チップ11と下チップ12の間に1つ以上の中間チップ13を積層させて、3層以上の積層構造の光検出装置1を作製してもよい。
 図18は3層構造の光検出装置1の一例を示す回路図である。図18では、上チップ11に光電変換素子14とトランジスタQ21~Q23を配置し、中間チップ10にトランジスタQ24及びQ25を配置し、下チップ12にイベント検出回路4の残りの回路部分と出力回路25を配置している。光検出装置1を3層以上の積層構造にする場合は、各チップ間をCu-Cu接合、ビア又はバンプで接続することになるが、各チップ内の配線パターンができるだけ短くなるように各回路素子を配置するのが望ましい。
 上述した図2では、行方向xに沿って複数のイベント検出回路4を配置する例を示したが、図19に示すように、複数のイベント検出回路4を列方向に配置してもよい。複数のイベント検出回路4を下チップ12上の一部の領域内に集約して配置することで、その他の領域を他の回路を配置するために有効利用でき、下チップ12のサイズを小型化できる。
 (応用例)
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図20は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図20に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図20では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図21は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図21には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図20に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図20の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図20に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 なお、本技術は以下のような構成を取ることができる。
 (1)互いに積層される第1基板及び第2基板を備え、
 前記第1基板は、入射光の光量に応じた画素信号を生成する第1画素と、入射光の輝度変化を検出する第2画素とを含む画素群を有し、
 前記第2基板は、前記第2画素の輝度変化に基づくイベントを検出するイベント検出回路を有し、
 前記イベント検出回路の少なくとも一部は、前記第2基板上の前記画素群と対向する同一サイズの領域以外の領域に配置される、光検出装置。
 (2)前記第1基板は、複数の前記第1画素と複数の前記第2画素とを含む複数の前記画素群を有し、
 前記第2基板は、それぞれが隣接して配置される複数の前記イベント検出回路を有し、
 前記複数のイベント検出回路の少なくとも一部は、前記第2基板上の前記複数の画素群と対向する同一サイズの領域以外の領域に配置される、(1)に記載の光検出装置。
 (3)前記第1基板は、前記複数の画素群を含む画素アレイ部を有し、
 前記イベント検出回路は、前記第2基板上の前記画素アレイ部に対向する同一サイズの領域内に配置される、(2)に記載の光検出装置。
 (4)前記イベント検出回路は、予め定めたフレーム周期に同期させて、前記複数の第2画素のそれぞれが前記イベントを検出したか否かを示す信号を出力する、(2)又は(3)に記載の光検出装置。
 (5)前記イベント検出回路は、輝度変化の方向が異なる2つの前記第2画素で光電変換された電気信号をそれぞれ時間微分する第1微分器及び第2微分器を有する、(1)乃至(3)のいずれか一項に記載の光検出装置。
 (6)前記イベント検出回路は、フレーム周期とは無関係に、前記イベント検出回路が前記イベントを検出するたびに、前記イベントを検出したことを示すイベント信号を出力する、(5)に記載の光検出装置。
 (7)前記第2画素の少なくとも一部は、前記第2基板に配置される、(1)乃至(6)のいずれか一項に記載の光検出装置。
 (8)前記第2画素は、
 光電変換素子と、
 前記光電変換素子で光電変換された電荷を対数変換した電圧信号を生成する電荷電圧変換部と、
 前記電圧信号をバッファリングするバッファ回路と、を有し、
 前記光電変換素子、前記電荷電圧変換部、及び前記バッファ回路の一部分は、前記第1基板に配置され、
 前記バッファ回路の前記一部分以外は前記第2基板に配置される、(7)に記載の光検出装置。
 (9)前記第2画素は、
 光電変換素子と、
 前記第2画素で光電変換された電荷を対数変換した電圧信号に変換する電荷電圧変換部と、を有し、
 前記電荷電圧変換部は、前記光電変換素子のカソードと電源電圧ノードとの間に接続されるダイオードを有する、(1)乃至(7)のいずれか一項に記載の光検出装置。
 (10)前記第2画素は、
 光電変換素子と、
 前記第2画素で光電変換された電荷を対数変換した電圧信号に変換する電荷電圧変換部と、を有し、
 前記電荷電圧変換部は、
 前記光電変換素子のカソードに接続される増幅器と、
 前記増幅器にバイアス電流を供給するバイアス回路と、を有する、(1)乃至(7)のいずれか一項に記載の光検出装置。
 (11)電圧変換部は、前記バイアス回路を含めて、同一の導電型の複数のトランジスタを有する、(10)記載の光検出装置。
 (12)電圧変換部内の前記バイアス回路以外は、第1導電型の複数のトランジスタを有し、
 前記バイアス回路は、第2導電型のトランジスタを有する、(10)に記載の光検出装置。
 (13)前記イベント検出回路は、前記第1基板に配置される第1回路部分と、前記第2基板に配置される第2回路部分とを有する、(1)乃至(12)のいずれか一項に記載の光検出装置。
 (14)前記イベント検出回路は、
 前記第2画素から出力された電圧信号を時間微分する微分器と、
 前記微分器の出力ノードに接続されるソースフォロワ回路と、
 前記ソースフォロワ回路の出力ノードに接続され、前記ソースフォロワ回路の出力信号を所定の基準信号と比較した結果に基づいて前記イベントを検出する比較器と、を有し、
 前記第1回路部分は、前記微分器及び前記ソースフォロワ回路を有し、
 前記第2回路部分は、前記比較器を有する、(13)に記載の光検出装置。
 (15)前記イベント検出回路は、
 前記第2画素から出力された電圧信号を時間微分する微分器と、
 前記微分器の出力ノードに接続されるソースフォロワ回路と、
 前記ソースフォロワ回路の出力ノードに接続され、前記ソースフォロワ回路の出力信号を所定の基準信号と比較した結果に基づいて前記イベントを検出する比較器と、を有し、
 前記第1回路部分は、前記微分器及び前記ソースフォロワ回路と、前記比較器の一部分とを有し、
 前記第2回路部分は、前記比較器の前記一部分以外を有する、(13)に記載の光検出装置。
 (16)2以上の第2画素に接続される2以上の前記第1回路部分は、1つの前記第2回路部分を共有する、(13)乃至(15)のいずれか一項に記載の光検出装置。
 (17)前記2以上の第1回路部分の出力ノードに接続される切替器を備え、
 前記切替器は、前記2以上の第1回路部分のいずれか一つの出力ノードを前記第2回路部分の入力ノードに接続する、(16)に記載の光検出装置。
 (18)前記切替器は、前記第1基板又は前記第2基板に配置される、(17)に記載の光検出装置。
 (19)前記イベント検出回路は、前記複数の第2画素のそれぞれごとに設けられ、
 複数の前記イベント検出回路は、前記第2基板上の一部の領域内に近接して配置される、(3)乃至(15)のいずれか一項に記載の光検出装置。
 (20)光検出装置と、
 前記光検出装置から出力された画素信号及びイベント信号に基づいて信号処理を行う信号処理部と、を備え、
 前記光検出装置は、
 互いに積層される第1基板及び第2基板を備え、
 前記第1基板は、入射光の光量に応じた画素信号を生成する第1画素と、入射光の輝度変化を検出する第2画素とを含む画素群を有し、
 前記第2基板は、前記第2画素の輝度変化に基づくイベントを検出するイベント検出回路を有し、
 前記イベント検出回路の少なくとも一部は、前記第2基板上の前記画素群と対向する同一サイズの領域以外の領域に配置される、電子機器。
 本開示の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本開示の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。
1 光検出装置、2 画素アレイ部、4 イベント検出回路、5 EVS用デジタル回路、6 制御回路、7 バイアス回路、8 階調画素、9 EVS画素、11 上チップ、12 下チップ、13 画素群、14 光電変換素子、15 画素回路、17 配線経路、18 配線パターン、21 対数応答部、22 バッファ、23 微分回路、24 コンパレータ、25 出力回路、26 切替器、27 ロジック回路、31 第1イベント検出部、32 第2イベント検出部、34 ラッチ回路、35 制御信号生成部、41 個別画素部、42 共有部、43 切替器

Claims (20)

  1.  互いに積層される第1基板及び第2基板を備え、
     前記第1基板は、入射光の光量に応じた画素信号を生成する第1画素と、入射光の輝度変化を検出する第2画素とを含む画素群を有し、
     前記第2基板は、前記第2画素の輝度変化に基づくイベントを検出するイベント検出回路を有し、
     前記イベント検出回路の少なくとも一部は、前記第2基板上の前記画素群と対向する同一サイズの領域以外の領域に配置される、光検出装置。
  2.  前記第1基板は、複数の前記第1画素と複数の前記第2画素とを含む複数の前記画素群を有し、
     前記第2基板は、それぞれが隣接して配置される複数の前記イベント検出回路を有し、
     前記複数のイベント検出回路の少なくとも一部は、前記第2基板上の前記複数の画素群と対向する同一サイズの領域以外の領域に配置される、請求項1に記載の光検出装置。
  3.  前記第1基板は、前記複数の画素群を含む画素アレイ部を有し、
     前記イベント検出回路は、前記第2基板上の前記画素アレイ部に対向する同一サイズの領域内に配置される、請求項2に記載の光検出装置。
  4.  前記イベント検出回路は、予め定めたフレーム周期に同期させて、前記複数の第2画素のそれぞれが前記イベントを検出したか否かを示す信号を出力する、請求項2に記載の光検出装置。
  5.  前記イベント検出回路は、輝度変化の方向が異なる2つの前記第2画素で光電変換された電気信号をそれぞれ時間微分する第1微分器及び第2微分器を有する、請求項1に記載の光検出装置。
  6.  前記イベント検出回路は、フレーム周期とは無関係に、前記イベント検出回路が前記イベントを検出するたびに、前記イベントを検出したことを示すイベント信号を出力する、請求項5に記載の光検出装置。
  7.  前記第2画素の少なくとも一部は、前記第2基板に配置される、請求項1に記載の光検出装置。
  8.  前記第2画素は、
     光電変換素子と、
     前記光電変換素子で光電変換された電荷を対数変換した電圧信号を生成する電荷電圧変換部と、
     前記電圧信号をバッファリングするバッファ回路と、を有し、
     前記光電変換素子、前記電荷電圧変換部、及び前記バッファ回路の一部分は、前記第1基板に配置され、
     前記バッファ回路の前記一部分以外は前記第2基板に配置される、請求項7に記載の光検出装置。
  9.  前記第2画素は、
     光電変換素子と、
     前記第2画素で光電変換された電荷を対数変換した電圧信号に変換する電荷電圧変換部と、を有し、
     前記電荷電圧変換部は、前記光電変換素子のカソードと電源電圧ノードとの間に接続されるダイオードを有する、請求項1に記載の光検出装置。
  10.  前記第2画素は、
     光電変換素子と、
     前記第2画素で光電変換された電荷を対数変換した電圧信号に変換する電荷電圧変換部と、を有し、
     前記電荷電圧変換部は、
     前記光電変換素子のカソードに接続される増幅器と、
     前記増幅器にバイアス電流を供給するバイアス回路と、を有する、請求項1に記載の光検出装置。
  11.  前記電荷電圧変換部は、前記バイアス回路を含めて、同一の導電型の複数のトランジスタを有する、請求項10に記載の光検出装置。
  12.  前記電荷電圧変換部内の前記バイアス回路以外は、第1導電型の複数のトランジスタを有し、
     前記バイアス回路は、第2導電型のトランジスタを有する、請求項10に記載の光検出装置。
  13.  前記イベント検出回路は、前記第1基板に配置される第1回路部分と、前記第2基板に配置される第2回路部分とを有する、請求項1に記載の光検出装置。
  14.  前記イベント検出回路は、
     前記第2画素から出力された電圧信号を時間微分する微分器と、
     前記微分器の出力ノードに接続されるソースフォロワ回路と、
     前記ソースフォロワ回路の出力ノードに接続され、前記ソースフォロワ回路の出力信号を所定の基準信号と比較した結果に基づいて前記イベントを検出する比較器と、を有し、
     前記第1回路部分は、前記微分器及び前記ソースフォロワ回路を有し、
     前記第2回路部分は、前記比較器を有する、請求項13に記載の光検出装置。
  15.  前記イベント検出回路は、
     前記第2画素から出力された電圧信号を時間微分する微分器と、
     前記微分器の出力ノードに接続されるソースフォロワ回路と、
     前記ソースフォロワ回路の出力ノードに接続され、前記ソースフォロワ回路の出力信号を所定の基準信号と比較した結果に基づいて前記イベントを検出する比較器と、を有し、
     前記第1回路部分は、前記微分器及び前記ソースフォロワ回路と、前記比較器の一部分とを有し、
     前記第2回路部分は、前記比較器の前記一部分以外を有する、請求項13に記載の光検出装置。
  16.  2以上の第2画素に接続される2以上の前記第1回路部分は、1つの前記第2回路部分を共有する、請求項13に記載の光検出装置。
  17.  前記2以上の第1回路部分の出力ノードに接続される切替器を備え、
     前記切替器は、前記2以上の第1回路部分のいずれか一つの出力ノードを前記第2回路部分の入力ノードに接続する、請求項16に記載の光検出装置。
  18.  前記切替器は、前記第1基板又は前記第2基板に配置される、請求項17に記載の光検出装置。
  19.  前記イベント検出回路は、前記複数の第2画素のそれぞれごとに設けられ、
     複数の前記イベント検出回路は、前記第2基板上の一部の領域内に近接して配置される、請求項3に記載の光検出装置。
  20.  光検出装置と、
     前記光検出装置から出力された画素信号及びイベント信号に基づいて信号処理を行う信号処理部と、を備え、
     前記光検出装置は、
     互いに積層される第1基板及び第2基板を備え、
     前記第1基板は、入射光の光量に応じた画素信号を生成する第1画素と、入射光の輝度変化を検出する第2画素とを含む画素群を有し、
     前記第2基板は、前記第2画素の輝度変化に基づくイベントを検出するイベント検出回路を有し、
     前記イベント検出回路の少なくとも一部は、前記第2基板上の前記画素群と対向する同一サイズの領域以外の領域に配置される、電子機器。
PCT/JP2023/021792 2022-06-20 2023-06-12 光検出装置及び電子機器 WO2023248855A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022099104 2022-06-20
JP2022-099104 2022-06-20

Publications (1)

Publication Number Publication Date
WO2023248855A1 true WO2023248855A1 (ja) 2023-12-28

Family

ID=89379759

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/021792 WO2023248855A1 (ja) 2022-06-20 2023-06-12 光検出装置及び電子機器

Country Status (2)

Country Link
TW (1) TW202401811A (ja)
WO (1) WO2023248855A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019087471A1 (ja) * 2017-10-30 2019-05-09 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子
JP2021040294A (ja) * 2019-08-30 2021-03-11 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2022009664A1 (ja) * 2020-07-09 2022-01-13 ソニーグループ株式会社 撮像装置及び撮像方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019087471A1 (ja) * 2017-10-30 2019-05-09 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子
JP2021040294A (ja) * 2019-08-30 2021-03-11 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2022009664A1 (ja) * 2020-07-09 2022-01-13 ソニーグループ株式会社 撮像装置及び撮像方法

Also Published As

Publication number Publication date
TW202401811A (zh) 2024-01-01

Similar Documents

Publication Publication Date Title
US20220166958A1 (en) Imaging system, method of controlling imaging system, and object recognition system
US11895398B2 (en) Imaging device and imaging system
US20220172488A1 (en) Imaging system, method for controlling imaging system, and object recognition system
US20230047180A1 (en) Imaging device and imaging method
TWI788818B (zh) 攝像裝置及攝像方法
US20230276141A1 (en) Imaging device and imaging method
CN113647089A (zh) 成像系统
WO2022004502A1 (ja) 撮像装置及び撮像方法
WO2021153428A1 (ja) 撮像装置、電子機器及び撮像方法
WO2023248855A1 (ja) 光検出装置及び電子機器
WO2024070523A1 (ja) 光検出素子及び電子機器
WO2024048292A1 (ja) 光検出素子、撮像装置、及び車両制御システム
WO2024075492A1 (ja) 固体撮像装置及び比較装置
WO2022065032A1 (ja) 撮像装置及び撮像方法
WO2022186040A1 (ja) 撮像装置、その駆動方法、および電子機器
WO2024034271A1 (ja) 光検出素子及び電子機器
US20240080587A1 (en) Solid-state imaging device and electronic instrument
WO2024057995A1 (ja) 光検出素子及び電子機器
WO2024004644A1 (ja) センサ装置
WO2022209256A1 (ja) 撮像素子、撮像装置及び撮像素子の制御方法
WO2023181663A1 (ja) 比較器、増幅器及び固体撮像装置
WO2022107570A1 (ja) Apdセンサ及び測距システム
WO2024070740A1 (ja) 固体撮像装置、コンパレータ及び電子機器
WO2022102549A1 (ja) 固体撮像装置
WO2024106169A1 (ja) 光検出素子及び電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23827041

Country of ref document: EP

Kind code of ref document: A1