WO2019176303A1 - 撮像装置駆動回路および撮像装置 - Google Patents

撮像装置駆動回路および撮像装置 Download PDF

Info

Publication number
WO2019176303A1
WO2019176303A1 PCT/JP2019/002026 JP2019002026W WO2019176303A1 WO 2019176303 A1 WO2019176303 A1 WO 2019176303A1 JP 2019002026 W JP2019002026 W JP 2019002026W WO 2019176303 A1 WO2019176303 A1 WO 2019176303A1
Authority
WO
WIPO (PCT)
Prior art keywords
control signal
unit
signal
control
imaging
Prior art date
Application number
PCT/JP2019/002026
Other languages
English (en)
French (fr)
Inventor
智行 弘
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US16/975,052 priority Critical patent/US11128827B2/en
Publication of WO2019176303A1 publication Critical patent/WO2019176303A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/618Noise processing, e.g. detecting, correcting, reducing or removing noise for random or high-frequency noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • H04N25/621Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels for the control of blooming
    • H04N25/623Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels for the control of blooming by evacuation via the output or reset lines
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/67Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response
    • H04N25/671Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/709Circuitry for control of the power supply
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/779Circuitry for scanning or addressing the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/7795Circuitry for generating timing or clock signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters

Definitions

  • the present disclosure relates to an imaging device driving circuit and an imaging device. Specifically, the present invention relates to an imaging device driving circuit that drives an imaging device in which a plurality of pixels are arranged, and an imaging device including the imaging device driving circuit.
  • the imaging device includes a plurality of pixels arranged in a two-dimensional grid and peripheral circuits that drive the pixels.
  • the peripheral circuit is provided with a pixel drive circuit that generates a control signal for controlling imaging in the pixel, and the generated control signal is transmitted to a plurality of pixels.
  • This control signal is transmitted, for example, via a signal line wired in a daisy chain to a plurality of pixels.
  • many pixels are arranged on a semiconductor chip. As a result of the increase in the number of pixels connected to the signal line, the wiring distance of the signal line becomes longer. For this reason, the control signal may be attenuated when the control signal is transmitted.
  • the control signal lines are arranged on the second substrate in the vicinity of the plurality of pixels on the first substrate, and the pixels on the first substrate are connected via pads arranged on the bonding surface with the first substrate. A control signal is supplied every time. Then, an amplification circuit is arranged for each pixel on the control signal line of the second substrate, and an imaging apparatus that transmits the attenuated control signal while amplifying it has been proposed (for example, see Patent Document 1).
  • the present disclosure has been made in view of the above-described problems, and an object thereof is to reduce the influence of delay in transmitting a control signal in an imaging apparatus that transmits the control signal to a large number of pixels.
  • the 1st mode is the above-mentioned control signal for every plurality of pixels which generate the image signal according to the incident light based on the control signal.
  • a plurality of control signal lines to be transmitted, and the control signal lines configured in a line and connected in a distributed manner to distribute the control signals respectively supplied from both ends of the lines to the plurality of control signal lines
  • Control signal distribution lines and two control signal transmissions configured to transmit the control signals to the end portions of the control signal distribution lines, each of which includes a plurality of transmission paths in which a signal shaping unit for shaping the control signals is arranged.
  • two arithmetic units that are arranged for each end of the control signal distribution line and that calculate control signals respectively transmitted through the plurality of transmission paths and supply the calculation results to the end.
  • Imaging device It is a circuit.
  • the arithmetic unit may perform an AND operation on the plurality of transmitted control signals.
  • the arithmetic unit may perform a logical sum operation on the plurality of transmitted control signals.
  • the arithmetic unit may perform a majority operation on the transmitted plurality of control signals.
  • control signal transmission unit may be arranged on the transmission line by dispersing a plurality of the signal shaping units.
  • a control signal output unit arranged on the plurality of control signal lines and converting the transmitted control signal into the control signal of the pixel may be further provided.
  • a second aspect of the present disclosure includes a plurality of pixels that generate an image signal corresponding to incident light based on a control signal, a plurality of control signal lines that transmit the control signal for each of the plurality of pixels, A control signal distribution line configured to be distributed and connected to the plurality of control signal lines, the control signal distribution lines being distributed and connected to each of the plurality of control signal lines.
  • Two control signal transmission units each configured by a plurality of transmission lines each having a signal shaping unit for shaping a signal and transmitting the control signal to an end of the control signal distribution line; and the control signal distribution line It is an imaging device including two calculation units that are arranged for each end portion and calculate control signals respectively transmitted through the plurality of transmission paths and supply calculation results to the end portions.
  • the imaging device drive circuit has a configuration in which a plurality of control signal lines are connected to the control signal distribution line, and control signals supplied from both ends of the control signal distribution line are distributed to the plurality of control signal lines. It becomes. At that time, the control signal is calculated in parallel after being transmitted to the end portion of the control signal line wiring in parallel through a plurality of transmission lines, and the calculation result is sent to the end portion of the control signal distribution line as a pixel control signal. The effect of being supplied is brought about. Absorption of the difference in delay time in the transmission path is expected by calculation between the control signals transmitted through the plurality of transmission paths.
  • FIG. 5 is a diagram illustrating an example of a delay of a control signal according to an embodiment of the present disclosure.
  • FIG. It is a figure which shows the structural example of the vertical drive part which concerns on 2nd Embodiment of this indication. It is a figure which shows an example of transmission of the control signal which concerns on 2nd Embodiment of this indication.
  • FIG. 1 is a diagram illustrating a configuration example of an imaging apparatus according to an embodiment of the present disclosure.
  • the imaging apparatus 1 in FIG. 1 includes a pixel array unit 10, a vertical driving unit 20, a column signal processing unit 30, and a control unit 40.
  • the pixel array unit 10 is configured by arranging the pixels 100 in a two-dimensional grid.
  • the pixel 100 generates an image signal corresponding to the irradiated light.
  • the pixel 100 includes a photoelectric conversion unit that generates charges according to the irradiated light.
  • the pixel 100 further includes a pixel circuit. This pixel circuit generates an image signal based on the charges generated by the photoelectric conversion unit. The generation of the image signal is controlled by a control signal generated by the vertical drive unit 20 described later.
  • signal lines 11 and 12 are arranged in an XY matrix.
  • the signal line 11 is a signal line that transmits a control signal of the pixel circuit in the pixel 100, and is arranged for each row of the pixel array unit 10, and is wired in common to the pixels 100 arranged in each row.
  • the signal line 12 is a signal line that transmits an image signal generated by the pixel circuit of the pixel 100, and is arranged for each column of the pixel array unit 10, and is wired in common to the pixels 100 arranged in each column.
  • the vertical drive unit 20 generates a control signal for the pixel circuit of the pixel 100.
  • the vertical drive unit 20 transmits the generated control signal to the pixel 100 via the signal line 11 in FIG.
  • the column signal processing unit 30 processes the image signal generated by the pixel 100.
  • the column signal processing unit 30 processes the image signal transmitted from the pixel 100 via the signal line 12 shown in FIG.
  • the processing in the column signal processing unit 30 corresponds to, for example, analog-digital conversion that converts an analog image signal generated in the pixel 100 into a digital image signal.
  • the image signal processed by the column signal processing unit 30 is output as an image signal of the imaging device 1.
  • the control unit 40 controls the entire imaging apparatus 1.
  • the control unit 40 controls the imaging apparatus 1 by generating and outputting control signals for controlling the vertical driving unit 20 and the column signal processing unit 30.
  • the control signal generated by the control unit 40 is transmitted to the vertical drive unit 20 and the column signal processing unit 30 through signal lines 41 and 42, respectively.
  • the vertical drive unit 20 generates and outputs a control signal for the pixels 100 arranged in m rows.
  • the vertical drive unit 20 is an example of an imaging device drive circuit described in the claims.
  • FIG. 2 is a diagram illustrating an example of a circuit configuration of a pixel according to the embodiment of the present disclosure.
  • FIG. 2 is a circuit diagram illustrating the configuration of the pixel 100.
  • the pixel 100 in the figure includes a photoelectric conversion unit 101, a first charge holding unit 103, a second charge holding unit 102, and MOS transistors 104 to 109.
  • signal lines OFG, TR1, TR2, RST, SEL, and OUT are wired to the pixel 100.
  • the signal lines OFG, TR1, TR2, RST, and SEL are signal lines that transmit a control signal of the pixel 100. These signal lines are connected to the gates of the MOS transistors.
  • the MOS transistor By applying a voltage higher than the threshold between the gate and the source to the MOS transistor via these signal lines, the MOS transistor can be made conductive.
  • the signal lines OFG, TR1, TR2, RST, and SEL constitute the signal line 11.
  • the signal line OUT constitutes the signal line 12 and transmits the image signal generated by the pixel 100.
  • the pixel 100 is provided with a power supply line Vdd and supplied with power.
  • the anode of the photoelectric conversion unit 101 is grounded, and the cathode is connected to the sources of the MOS transistors 104 and 105.
  • the drain of the MOS transistor 104 is connected to the power supply line Vdd, and the gate is connected to the signal line OFG.
  • the drain of the MOS transistor 105 is connected to the source of the MOS transistor 106 and one end of the second charge holding unit 102. The other end of the second charge holding portion 102 is grounded.
  • the gate of MOS transistor 105 is connected to signal line TR1, and the gate of MOS transistor 106 is connected to signal line TR2.
  • the drain of the MOS transistor 106 is connected to the source of the MOS transistor 107, the gate of the MOS transistor 108, and one end of the first charge holding unit 103.
  • the other end of the first charge holding unit 103 is grounded.
  • the gate of the MOS transistor 107 is connected to the signal line RST.
  • the drains of the MOS transistors 107 and 108 are commonly connected to the power supply line Vdd, and the source of the MOS transistor 108 is connected to the drain of the MOS transistor 109.
  • the source of the MOS transistor 109 is connected to the signal line OUT, and the gate is connected to the signal line SEL.
  • the photoelectric conversion unit 101 generates and holds charges according to the irradiated light as described above.
  • a photodiode can be used for the photoelectric conversion unit 101.
  • the MOS transistor 104 is a transistor that resets the photoelectric conversion unit 101.
  • the MOS transistor 104 applies a power supply voltage to the photoelectric conversion unit 101, thereby discharging the charge held in the photoelectric conversion unit 101 to the power supply line Vdd and resetting.
  • the reset of the photoelectric conversion unit 101 by the MOS transistor 104 is controlled by a signal transmitted through the signal line OFG.
  • the MOS transistor 105 is a transistor that transfers charges generated by photoelectric conversion of the photoelectric conversion unit 101 to the second charge holding unit 102.
  • the transfer of charge in the MOS transistor 105 is controlled by a signal transmitted through the signal line TR1.
  • the second charge holding unit 102 is a capacitor that holds the charge transferred by the MOS transistor 105. *
  • the MOS transistor 106 is a transistor that transfers the charge held in the second charge holding unit 102 to the first charge holding unit 103.
  • the charge transfer in the MOS transistor 106 is controlled by a signal transmitted through the signal line TR2.
  • the MOS transistor 108 is a transistor that generates a signal based on the charge held in the first charge holding unit 103.
  • the MOS transistor 109 is a transistor that outputs a signal generated by the MOS transistor 108 to the signal line OUT as an image signal.
  • the MOS transistor 109 is controlled by a signal transmitted through the signal line SEL.
  • the MOS transistors 108 and 109 constitute an image signal generation unit 110.
  • the MOS transistor 107 is a transistor that resets the first charge holding unit 103 by discharging the charge held in the first charge holding unit 103 to the power supply line Vdd.
  • the reset by the MOS transistor 107 is controlled by a signal transmitted through the signal line RST.
  • the generation of the image signal in the pixel 100 in the figure can be performed as follows. First, the MOS transistor 104 is turned on to reset the photoelectric conversion unit 101. Next, after a predetermined time has elapsed, the MOS transistors 106 and 107 are turned on to reset the second charge holding unit 102. Next, the MOS transistor 105 is turned on. As a result, the charge generated in the photoelectric conversion unit 101 is transferred to and held in the second charge holding unit 102. The operations from the resetting of the photoelectric conversion unit 101 to the charge transfer by the MOS transistor 105 are performed simultaneously in all the pixels 100 arranged in the pixel array unit 10. That is, a global reset which is a simultaneous reset in all the pixels 100 and a simultaneous charge transfer in all the pixels 100 are executed. Thereby, a global shutter is realized. Note that the period from the reset of the photoelectric conversion unit 101 to the transfer of charge by the MOS transistor 105 corresponds to the exposure period.
  • the MOS transistor 107 is turned on again to reset the first charge holding unit 103.
  • the MOS transistor 106 is turned on to transfer and hold the charge held in the second charge holding unit 102 to the first charge holding unit 103.
  • the MOS transistor 108 generates an image signal corresponding to the charge held in the first charge holding unit 103.
  • the MOS transistor 109 is turned on, the image signal generated by the MOS transistor 108 is output to the signal line OUT.
  • the operations from the reset of the first charge holding unit 103 to the output of the image signal are sequentially performed for each pixel 100 arranged in the row of the pixel array unit 10. By outputting image signals in the pixels 100 in all rows of the pixel array unit 10, a frame that is an image signal for one screen is generated and output from the imaging device 1.
  • the time required for imaging and image signal transfer can be shortened by generating and outputting the image signal in the pixel 100 in parallel with the above-described exposure period. Further, by performing exposure simultaneously on all the pixels 100 of the pixel array unit 10, it is possible to prevent the occurrence of frame distortion and improve the image quality.
  • the second charge holding unit 102 is used to temporarily hold the charge generated by the photoelectric conversion unit 101 when performing the global shutter.
  • FIG. 3 is a diagram illustrating a configuration example of the vertical drive unit according to the first embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating a configuration example of the vertical drive unit 20.
  • Such a control signal corresponds to a control signal transmitted through the signal line OFG or the signal line TR1.
  • the configuration of the vertical drive unit 20 will be described by taking a control signal transmitted through the signal line OFG as an example.
  • the control signal transmitted through the signal line OFG is a control signal transmitted at the time of global reset.
  • the control unit 40 generates a control signal corresponding to the global reset timing, and inputs the control signal to the vertical drive unit 20 via the signal line 41.
  • the vertical drive unit 20 distributes the input control signal to the plurality of signal lines 11 and outputs the signal to the pixels 100.
  • the vertical drive unit 20 in the figure includes inversion gates 21, 24a and 24b, control signal transmission units 22a and 22b, arithmetic units 23a and 23b, a control signal distribution line 25, and a control signal output unit 26.
  • a plurality of signal lines OFG (OFG1 to OFGm) among the signal lines 11 are shown.
  • OFG1 to OFGm in the figure represent signal lines OFG wired to the pixels 100 in the first row to the m-th row of the pixel array section 10, respectively. That is, the signal lines OFG 1 to OFGm are control signal lines for transmitting a control signal to each pixel 100 arranged in each row of the pixel array unit 10.
  • the control signal distribution wiring 25 is a signal line to which a plurality of signal lines (signal lines OFG1 to OFGm) are connected, and is a wiring that distributes control signals to these signal lines OFG1 to OFGm.
  • Calculation units 23a and 23b which will be described later, are connected to both ends of the control signal distribution line 25, respectively, and a control signal is supplied to the control signal distribution line 25 by the calculation units 23a and 23b.
  • the signal lines OFG1 to OFGm are distributed and connected to the control signal distribution line 25.
  • control signal distribution lines 25 are configured to have, for example, substantially the same length as the row direction of the pixel array unit 10, and the signal lines OFG 1 to OFGm are dispersed and connected in the order of the rows of the pixel array unit 10. .
  • the control signal distribution line 25 it is possible to reduce the skew when the control signals supplied from both ends of the control signal distribution line 25 are distributed to the signal lines OFG1 to OFGm, and to align the global reset timing for each row of the pixel array unit 10. be able to.
  • a control signal output unit 26 described later is inserted into the signal lines OFG1 to OFGm in FIG.
  • the control signal transmission unit 22 transmits the control signal generated by the control unit 40 to the end of the control signal distribution line 25.
  • two control signal transmission units 22 a and 22 b are arranged, and a control signal input via the inverting gate 21 is transmitted to both ends of the control signal distribution line 25.
  • the paths from the signal line 41 to both ends of the control signal distribution line 25 are configured symmetrically. . This is to reduce the difference in the delay time of the control signal at both ends of the control signal distribution line 25.
  • the control signal transmission unit 22 includes a plurality of transmission lines 222 and a signal shaping unit 221 disposed in each of the plurality of transmission lines 222.
  • the control signal transmission unit 22 in the figure represents an example in which two transmission paths 222 are arranged.
  • the transmission line 222 transmits the input control signal to the end of the control signal distribution line 25.
  • the signal shaping unit 221 is inserted into the transmission line 222 and shapes the waveform of the control signal.
  • waveform distortion such as a decrease in signal level and a dull pulse waveform occurs due to the influence of wiring resistance and parasitic capacitance of the transmission line 222.
  • the signal shaping unit 221 shapes the waveform of the control signal that causes this distortion.
  • a repeater or an amplifier circuit can be used as the signal shaping unit 221.
  • by disposing a plurality of signal shaping units 221 on the transmission line 222 it is possible to transmit the control signal while preventing an increase in the distortion of the waveform of the control signal in the transmission line 222.
  • control signal transmission unit 22 includes two transmission paths 222 in which the signal shaping unit 221 is similarly arranged. These two transmission lines 222 are commonly connected to the signal line 41 via the inverting gate 21 and transmit the control signals in parallel. The two transmission paths 222 are connected to the calculation unit 23 described later.
  • the calculation unit 23 calculates the control signal transmitted through the plurality of transmission paths 222 of the control signal transmission unit 22.
  • the operation unit 23 in the figure performs a logical product operation.
  • the output of the calculation unit 23 is connected to one end of the control signal distribution line 25, and the result of calculation by the calculation unit 23 is supplied to one end of the control signal distribution line 25.
  • the output of the arithmetic unit 23 is connected to one end of a control signal distribution line 25 via an inversion gate 24.
  • the signal lines 201 and 202 connected to the two transmission paths 222 of the control signal transmission unit 22a are connected to the input of the calculation unit 23a, and the signal line 203 connected to the output of the calculation unit 23a is inverted.
  • the control signal distribution line 25 is connected to one end of the gate 24a.
  • signal lines 204 and 205 respectively connected to the two transmission paths 222 of the control signal transmission unit 22b are connected to the input of the calculation unit 23b, and the signal line 206 connected to the output of the calculation unit 23b is the inverting gate 24b. To the other end of the control signal distribution line 25.
  • control signals having the same configuration are transmitted to both ends of the control signal distribution line 25 by the control signal transmission units 22a and 22b.
  • the transmission characteristics of the control signal transmission units 22a and 22b are different from each other, the propagation delay time of the control signal is also different.
  • the control unit 40 generates a digital signal control signal and the control signal transmission unit 22 transmits a digital signal, when the control signal transitions from a value “0” to “1”, for example.
  • the signals are transmitted by the transmission units 22a and 22b, there is a case where a time lag occurs, and control signals having different values are input to both ends of the control signal distribution line 25 in some cases.
  • the output of the inversion gate 24b transitions to the value “1” after the output of the inversion gate 24a transitions to the value “1”.
  • the inverting gate 24a that outputs the value “1” and the inverting gate 24b that outputs the value “0” are commonly connected to the control signal distribution line 25, and the short circuit current from the inverting gate 24a toward the inverting gate 24b. Flows. For this reason, the power consumption in the vertical drive part 20 increases.
  • control signal distribution line 25 becomes an intermediate potential between the values “0” and “1”, the propagation delay of the control signal increases, and a malfunction may occur in the pixel 100. For this reason, it is necessary to shorten the period in which the logics of such control signals are different.
  • a plurality of transmission lines 222 are arranged in the control signal transmission unit 22 to transmit the control signals, respectively, and a logical product operation is performed by the calculation unit 23.
  • a difference in delay characteristics of different transmission paths 222 can be absorbed.
  • the delay time can be converged to a specific value by increasing the number of transmission lines 222 in the control signal transmission unit 22.
  • the delay times in the control signal transmission units 22a and 22b can be made uniform. Details of the operation of the calculation unit 23 will be described later.
  • the control signal output unit 26 converts the control signal distributed for each of the signal lines OFG1 to OFGm into a control signal for the pixel 100 and outputs it. Digital signal control signals are transmitted to the signal lines OFG1 to OFGm. In order to transmit at high speed, this digital signal is constructed with a relatively small amplitude. In addition, transmission using a differential transmission line may be performed.
  • the control signal of the pixel 100 is connected to the gate of the MOS transistor arranged in the pixel 100. For this reason, the control signal output unit 26 converts the digital control signal into a control signal of a voltage that makes the MOS transistor conductive.
  • the control signal output unit 26 can also amplify the control signal so that a large number of pixels 100 can be driven.
  • signal lines OFG1 to OFGm are examples of control signal lines described in the claims.
  • FIG. 4 is a diagram illustrating an example of control signal transmission according to the first embodiment of the present disclosure. This figure shows how control signals are transmitted in control signal transmission units 22a and 22b and arithmetic units 23a and 23b, and shows control signals transmitted through signal line 201 and the like described in FIG. .
  • signal line 41 represents a control signal input to the vertical drive unit 20 through the signal line 41.
  • Signal line 201 through “signal line 206” represent control signals transmitted through the signal line 201 through signal line 206, respectively.
  • the logic of the control signal input to the vertical drive unit 20 by the signal line 41 is inverted by the inversion gate 21 and input to the control signal transmission units 22a and 22b.
  • Control signals transmitted through the transmission path 222 of the control signal transmission units 22a and 22b are output to the signal lines 201 and 202 and the signal lines 204 and 205, respectively.
  • the delay time and the pulse width of the control signals output to the signal lines 201 and 202 and the signal lines 204 and 205 change according to the characteristics of the transmission line 222 and the like, respectively.
  • An AND operation is performed on these control signals by the operation units 23a and 23b.
  • the signal lines 203 and 206 are output with the resulting signals calculated by the calculation units 23a and 23b, respectively.
  • the signal output from the calculation unit 23 is transmitted to the pixel 100 via the inversion gate 24 and the control signal output unit 26.
  • positive logic in which the MOS transistor of the pixel 100 is turned on when the value is “1” can be employed.
  • the arithmetic unit 23 Since the arithmetic unit 23 performs an AND operation, the value transitions based on the rising edge of the control signal output to the signal line 202 at the rising edge of the input signal of the arithmetic unit 23a (the falling edge of the signal on the signal line 41). A control signal is output. This is because the signal transition on the signal line 202 is slower than the signal transition on the signal line 201. On the other hand, at the falling edge of the input signal of the arithmetic unit 23a (rising edge of the signal line 41), a control signal whose value transitions based on the falling edge of the control signal output to the signal line 201 is output. This is because the signal transition of the signal line 201 is earlier than the signal transition of the signal line 202.
  • a control signal whose value changes based on the rising edge of the control signal output to the signal line 204 is output.
  • a control signal whose value transitions based on the falling edge of the control signal output to the signal line 205 is output.
  • the transition difference period between the control signal output to the signal line 203 and the control signal output to the signal line 206 is a period in which the logic of the control signal in the control signal distribution line 25 is different.
  • the period A corresponds to the rising edge
  • the period B corresponds to the falling edge.
  • the delay variation of the control signals of the signal lines 201, 202, 204 and 205 is the period C at the rising edge and the period D at the falling edge. That is, the delay of the signal via the four transmission lines 222 of the control signal transmission units 22a and 22b causes variations in the periods C and D.
  • FIG. 5 is a diagram illustrating an example of the delay of the control signal according to the embodiment of the present disclosure.
  • the figure shows the frequency distribution of the delay time of the control signal.
  • a graph 301 in the figure is a graph representing a delay time distribution of the control signal transmitted via the transmission path 222.
  • the delay time distribution is a normal distribution.
  • the signal transitions based on the longest delay time among the delay times of the plurality of transmission paths 222 at the rising edge. At the falling edge, the signal transitions based on the shortest delay time among the delay times of the plurality of transmission lines 222.
  • the delay times at the rising edge and the falling edge converge to the maximum delay time and the minimum delay time of the graph 301, respectively. That is, as the number of transmission lines 222 is increased, the delay time is absorbed. It is possible to shorten the period in which the logic of the control signal is different, and it is possible to reduce the short-circuit current in the inverting gates 24a and 24b. In addition, since the delay time of the control signal of the pixel 100 can be made uniform, a shift in imaging timing for each pixel 100 can be reduced, and deterioration in image quality can be prevented.
  • the control signal sequentially output for each pixel 100 arranged in the row of the pixel array unit 10 like the control signal transmitted through the signal line SEL is generated by, for example, a shift register. be able to.
  • a control signal output from the control unit 40 can be sequentially output for each row of the pixels 100 by a shift register disposed in the vertical drive unit 20.
  • the imaging device 1 transmits the control signal through the plurality of transmission paths 222 in the vertical drive unit 20.
  • a plurality of control signals transmitted are calculated, and a control signal as a result of the calculation is supplied to both ends of the control signal distribution line 25 and distributed to the pixels 100.
  • a control signal as a result of the calculation is supplied to both ends of the control signal distribution line 25 and distributed to the pixels 100.
  • Second Embodiment> In the imaging apparatus 1 according to the first embodiment described above, the logical product calculation is performed in the calculation unit 23 of the vertical drive unit 20. On the other hand, the imaging device 1 according to the second embodiment of the present disclosure is different from the above-described first embodiment in that a logical sum operation is performed.
  • FIG. 6 is a diagram illustrating a configuration example of the vertical drive unit according to the second embodiment of the present disclosure.
  • the vertical drive unit 20 shown in the figure is different from the vertical drive unit 20 described in FIG. 3 in that a calculation unit 28 is provided instead of the calculation unit 23.
  • the calculation unit 28 performs a logical sum operation as a calculation of the control signal transmitted through the plurality of transmission paths 222 of the control signal transmission unit 22. Arithmetic units 28a and 28b in the same figure calculate the control signals transmitted by the control signal transmission units 22a and 22b, respectively.
  • FIG. 7 is a diagram illustrating an example of transmission of a control signal according to the second embodiment of the present disclosure. It is assumed that the same control signals as in FIG. 3 are transmitted to the signal lines 41, 201, 202, 204, and 205 and input to the arithmetic units 28a and 28b. Since the arithmetic unit 28 performs a logical sum operation, the control signal output to the signal line 201 transitions earlier at the rising edge of the input signal of the arithmetic unit 28a. A control signal for transitioning is output.
  • the control signal output to the signal line 202 transitions later, so that a control signal whose value transitions based on the falling edge of the control signal is output.
  • a control signal whose value transitions based on the rising edge of the control signal output to the signal line 205 is output.
  • a control signal whose value transitions based on the falling edge of the control signal output to the signal line 204 is output.
  • the signal transitions based on the shortest delay time among the delay times of the plurality of transmission lines 222 at the rising edge.
  • the signal transitions based on the longest delay time among the delay times of the plurality of transmission lines 222. For this reason, with an increase in the number of transmission lines 222 arranged in parallel, the delay times at the rising edge and the falling edge converge to the minimum delay time and the maximum delay time of the graph 301, respectively.
  • the delay time is absorbed and the period in which the logic of the control signal is different is shortened.
  • imaging apparatus 1 Other configurations of the imaging apparatus 1 are the same as the configuration of the imaging apparatus 1 described in the first embodiment of the present disclosure, and thus the description thereof is omitted.
  • the imaging apparatus 1 performs a logical sum operation as a calculation on the control signals transmitted through the plurality of transmission paths 222, thereby causing a difference in delay time between control signals. To absorb. As a result, it is possible to reduce the influence of the delay in transmitting the control signal.
  • the imaging apparatus 1 according to the first embodiment described above the logical product calculation is performed in the calculation unit 23 of the vertical drive unit 20.
  • the imaging device 1 according to the third embodiment of the present disclosure is different from the first embodiment described above in that the majority calculation is performed.
  • FIG. 8 is a diagram illustrating a configuration example of the vertical drive unit according to the third embodiment of the present disclosure.
  • the vertical drive unit 20 shown in the figure is different from the vertical drive unit 20 described in FIG. 3 in that a calculation unit 29 is provided instead of the calculation unit 23.
  • the control signal output units 22a and 22b in the figure are configured by three transmission lines 222 in which the signal shaping units 221 are respectively arranged.
  • the calculation unit 29 performs majority calculation as the calculation of the control signal transmitted through the plurality of transmission paths 222 of the control signal transmission unit 22. Arithmetic units 29a and 29b in the figure perform the majority calculation of the three control signals transmitted by the control signal transmission units 22a and 22b, respectively.
  • the majority operation is an operation in which the output is logic “1” when more than half of the input signals are logic “1”.
  • FIG. 9 is a diagram illustrating a configuration example of a calculation unit according to the third embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating a configuration example of the calculation unit 29a.
  • the arithmetic unit 29 can be constituted by three logical product gates 291 and logical sum gates 292, and at least two of the signals input through the signal lines 201, 202, and 207 have the value “1”.
  • the value “1” is output to the signal line 203. Therefore, in the delay time distribution described in FIG. 5, the delay of the control signal can be converged to the delay time near the vertex of the graph 301.
  • FIG. 10 is a diagram illustrating an example of transmission of a control signal according to the third embodiment of the present disclosure.
  • “Signal line 207” and “signal line 208” represent control signals transmitted through the signal line 207 and the signal line 208, respectively. Since the calculation unit 28 performs majority calculation, a control signal whose value transitions based on the rising of the second input signal of the three inputs is output at the rising edge of the input signal of the calculation unit 29a. . Similarly, at the falling edge of the input signal of the arithmetic unit 29a, a control signal whose value transitions based on the falling edge of the second input signal of the three inputs is output.
  • a control signal whose value transitions is output based on the control signal output to the signal line 207 having the middle delay time among the three signals at both the rising edge and the falling edge.
  • the arithmetic unit 29b outputs a control signal whose value transitions based on the control signal output to the signal line 208 having the middle delay time among the three signals.
  • the delay times at the rising edge and the falling edge converge to the most distributed delay times in the graph 301, respectively.
  • the delay time is absorbed and the period in which the logic of the control signal is different is shortened.
  • imaging apparatus 1 Other configurations of the imaging apparatus 1 are the same as the configuration of the imaging apparatus 1 described in the first embodiment of the present disclosure, and thus the description thereof is omitted.
  • the imaging apparatus 1 performs a majority operation as an operation on the control signals transmitted through the plurality of transmission paths 222, thereby calculating the difference in delay time of the control signals. Absorb. As a result, it is possible to reduce the influence of the delay in transmitting the control signal.
  • FIG. 11 is a cross-sectional view illustrating a configuration example of a solid-state imaging device that can be applied to the imaging device of the present disclosure.
  • a PD (photodiode) 20019 receives incident light 20001 incident from the back surface (upper surface in the drawing) side of the semiconductor substrate 20018.
  • a planarizing film 20013, a CF (color filter) 20012, and a micro lens 20011 are provided above the PD 20019, and incident light 20001 incident through each part is received by the light receiving surface 20017 to perform photoelectric conversion. Is called.
  • the n-type semiconductor region 20020 is formed as a charge accumulation region for accumulating charges (electrons).
  • the n-type semiconductor region 20020 is provided inside the p-type semiconductor regions 20061 and 20041 of the semiconductor substrate 20018.
  • a p-type semiconductor region 20009 having a higher impurity concentration than the back surface (upper surface) side is provided on the front surface (lower surface) side of the semiconductor substrate 20018 in the n-type semiconductor region 20020.
  • the PD 20019 has a HAD (Hole-Accumulation-Diode) structure, and a p-type semiconductor is used to suppress the generation of dark current at each interface between the upper surface side and the lower surface side of the n-type semiconductor region 20020. Regions 20061 and 20041 are formed.
  • HAD Hole-Accumulation-Diode
  • a pixel separation unit 20030 for electrically separating a plurality of pixels 20010 is provided, and a PD 20019 is provided in a region partitioned by the pixel separation unit 20030.
  • the pixel separation unit 20030 is formed in a lattice shape so as to be interposed between a plurality of pixels 20010, for example, and the PD 20001 includes the pixel separation unit 20030. It is formed in a region partitioned by
  • each PD20019 the anode is grounded, and in the solid-state imaging device, signal charges (for example, electrons) accumulated in the PD20019 are read out via a transfer transistor (MOS FET) or the like (not shown), and as an electric signal, It is output to a VSL (vertical signal line) (not shown).
  • MOS FET transfer transistor
  • VSL vertical signal line
  • the wiring layer 20050 is provided on the surface (lower surface) opposite to the back surface (upper surface) on which each part such as the light shielding film 20014, CF20012, and microlens 20011 is provided in the semiconductor substrate 20018. *
  • the wiring layer 20050 includes a wiring 20051 and an insulating layer 20052, and the wiring 20051 is formed in the insulating layer 20052 so as to be electrically connected to each element.
  • the wiring layer 20050 is a so-called multilayer wiring layer, and is formed by alternately stacking an interlayer insulating film constituting the insulating layer 20052 and the wiring 20051 a plurality of times.
  • the wiring 20051 wiring to a transistor for reading out charges from the PD 20019 such as a transfer transistor, and wirings such as VSL are stacked with an insulating layer 20052 interposed therebetween.
  • a support substrate 20061 is provided on the surface of the wiring layer 20050 opposite to the side on which the PD 20019 is provided.
  • a substrate made of a silicon semiconductor having a thickness of several hundred ⁇ m is provided as the support substrate 20061.
  • the light shielding film 20014 is provided on the back surface (upper surface in the drawing) side of the semiconductor substrate 20018.
  • the light shielding film 20014 is configured to shield a part of incident light 20001 from the upper side of the semiconductor substrate 20018 toward the back surface of the semiconductor substrate 20018.
  • the light shielding film 20014 is provided above the pixel separation unit 20030 provided inside the semiconductor substrate 20018.
  • the light shielding film 20014 is provided on the back surface (upper surface) of the semiconductor substrate 20018 so as to protrude in a convex shape through an insulating film 20015 such as a silicon oxide film.
  • the light shielding film 20014 is not provided and is opened so that the incident light 20001 enters the PD 20019.
  • the planar shape of the light shielding film 20014 is a lattice shape, and an opening through which incident light 20001 passes to the light receiving surface 20017 is formed.
  • the light shielding film 20014 is formed of a light shielding material that shields light.
  • a light shielding film 20014 is formed by sequentially stacking a titanium (Ti) film and a tungsten (W) film.
  • the light shielding film 20014 can be formed by sequentially stacking, for example, a titanium nitride (TiN) film and a tungsten (W) film.
  • the light shielding film 20014 is covered with a planarizing film 20013.
  • the planarization film 20013 is formed using an insulating material that transmits light.
  • the pixel separation portion 20030 includes a groove portion 20031, a fixed charge film 20032, and an insulating film 20033.
  • the fixed charge film 20032 is formed on the back surface (upper surface) side of the semiconductor substrate 20018 so as to cover the groove portions 20031 partitioning the plurality of pixels 20010.
  • the fixed charge film 20032 is provided so as to cover the inner surface of the groove portion 20031 formed on the back surface (upper surface) side of the semiconductor substrate 20018 with a certain thickness. Then, an insulating film 20003 is provided (filled) so as to fill the inside of the groove part 20031 covered with the fixed charge film 20032.
  • the fixed charge film 20032 is made of a high dielectric material having a negative fixed charge so that a positive charge (hole) accumulation region is formed at the interface with the semiconductor substrate 20018 and generation of dark current is suppressed. Is formed.
  • the fixed charge film 20032 By forming the fixed charge film 20032 to have a negative fixed charge, an electric field is applied to the interface with the semiconductor substrate 20018 by the negative fixed charge, and a positive charge (hole) accumulation region is formed.
  • the fixed charge film 20032 can be formed of, for example, a hafnium oxide film (HfO 2 film).
  • the fixed charge film 20032 can be formed to include at least one of oxides such as hafnium, zirconium, aluminum, tantalum, titanium, magnesium, yttrium, and a lanthanoid element.
  • the solid-state imaging device as described above can be applied to the present disclosure.
  • FIG. 12 is a diagram illustrating a configuration example of an imaging apparatus according to the present disclosure.
  • FIG. 1 is a diagram illustrating an example of an imaging device 1 configured by stacking two semiconductor chips.
  • the imaging apparatus 1 shown in FIG. 1 includes a pixel chip 310 and a signal processing chip 320.
  • a in the figure represents a configuration of the pixel chip 310.
  • the pixel chip 310 of a in the same figure the pixel array part 10, the vertical drive part 20, and the pad 311 which were demonstrated in FIG.
  • the pad 311 is an electrode that transmits an image signal and the like to the signal processing chip 320 described later.
  • a plurality of pads 311 are arranged on the periphery of the back surface of the pixel chip 310.
  • the B in the figure represents the configuration of the signal processing chip 320.
  • the pads 321 are arranged in one-to-one correspondence with the above-described pads 311 and transmit electric signals.
  • the column signal processing unit 30 and the control unit 40 constitute a signal processing circuit.
  • C in the figure is a side view showing the imaging device 1 constituted by the pixel chip 310 and the signal processing chip 320.
  • the imaging device 1 is configured by stacking a pixel chip 310 on a signal processing chip 320.
  • the pads 311 and 321 are aligned and connected by solder 331.
  • the pads 311 and 321 constitute part of the signal lines 11 and 12 described in FIG.
  • the pixel array unit 10, the vertical drive unit 20, the column signal processing unit 30, and the control unit 40 described in FIG. 1 are divided into two semiconductor chips, and these chips are stacked.
  • the imaging device 1 can be configured.
  • an analog image signal generation process is performed.
  • the processing in the pixel array unit 10 is relatively slow processing.
  • the column signal processing unit 30 performs analog-digital conversion of the image signal, and further performs processing of the converted digital image signal. For this reason, the column signal processing unit 30 performs relatively high-speed processing. Therefore, by forming them on different semiconductor chips, it is possible to configure a semiconductor chip to which an optimum process is applied for each processing.
  • the control unit 40 and the vertical drive unit 20 are connected by the signal line 41.
  • the pads 311 and 322 constituting the signal line 41 are preferably arranged in the vicinity of the center of the vertical drive unit 20 in the figure.
  • the path from the signal line 41 to both ends of the control signal distribution line 25 has a symmetric configuration, and the delay times of the control signals at both ends of the control signal distribution line 25 are substantially equal.
  • the imaging device 1 by configuring the imaging device 1 with a plurality of semiconductor chips, the degree of freedom of arrangement of the pixel array unit 10 and the like described in FIG. 1 is improved, and the configuration of the imaging device 1 can be optimized.
  • the present disclosure can be applied to various products.
  • the present disclosure may be realized as an imaging element mounted on an imaging device such as a camera.
  • FIG. 13 is a block diagram illustrating a schematic configuration example of a camera that is an example of an imaging apparatus to which the present disclosure can be applied.
  • the camera 1000 shown in FIG. 1 includes a lens 1001, an image sensor 1002, an imaging control unit 1003, a lens driving unit 1004, an image processing unit 1005, an operation input unit 1006, a frame memory 1007, a display unit 1008, And a recording unit 1009.
  • the lens 1001 is a photographing lens of the camera 1000.
  • the lens 1001 collects light from the subject and makes it incident on an image sensor 1002 described later to form an image of the subject.
  • the imaging element 1002 is a semiconductor element that images light from the subject condensed by the lens 1001.
  • the image sensor 1002 generates an analog image signal corresponding to the irradiated light, converts it into a digital image signal, and outputs it.
  • the imaging control unit 1003 controls imaging in the imaging element 1002.
  • the imaging control unit 1003 controls the imaging element 1002 by generating a control signal and outputting the control signal to the imaging element 1002.
  • the imaging control unit 1003 can perform autofocus in the camera 1000 based on the image signal output from the imaging element 1002.
  • the autofocus is a system that detects the focal position of the lens 1001 and automatically adjusts it.
  • a method image plane phase difference autofocus
  • an image plane phase difference is detected by a phase difference pixel arranged in the image sensor 1002 to detect a focal position
  • a method (contrast autofocus) in which a position where the contrast of an image is the highest is detected as a focal position can be applied.
  • the imaging control unit 1003 adjusts the position of the lens 1001 via the lens driving unit 1004 based on the detected focal position, and performs autofocus.
  • the imaging control unit 1003 can be configured by, for example, a DSP (Digital Signal Processor) equipped with firmware.
  • DSP Digital Signal Processor
  • the lens driving unit 1004 drives the lens 1001 based on the control of the imaging control unit 1003.
  • the lens driving unit 1004 can drive the lens 1001 by changing the position of the lens 1001 using a built-in motor.
  • the image processing unit 1005 processes the image signal generated by the image sensor 1002. This processing includes, for example, demosaic that generates an image signal of insufficient color among image signals corresponding to red, green, and blue for each pixel, noise reduction that removes noise of the image signal, and encoding of the image signal. Applicable.
  • the image processing unit 1005 can be configured by, for example, a microcomputer equipped with firmware.
  • the operation input unit 1006 receives an operation input from the user of the camera 1000.
  • the operation input unit 1006 for example, a push button or a touch panel can be used.
  • the operation input received by the operation input unit 1006 is transmitted to the imaging control unit 1003 and the image processing unit 1005. Thereafter, processing according to the operation input, for example, processing such as imaging of a subject is started.
  • the frame memory 1007 is a memory that stores frames that are image signals for one screen.
  • the frame memory 1007 is controlled by the image processing unit 1005 and holds a frame in the course of image processing.
  • the display unit 1008 displays the image processed by the image processing unit 1005.
  • a liquid crystal panel can be used for the display unit 1008.
  • the recording unit 1009 records the image processed by the image processing unit 1005.
  • a memory card or a hard disk can be used.
  • the camera to which the present invention can be applied has been described above.
  • the present technology can be applied to the image sensor 1002 among the configurations described above.
  • the imaging device 1 described with reference to FIG. 1 can be applied to the imaging element 1002.
  • the influence of the delay of the control signal of the pixel 100 can be reduced, and the deterioration of the image quality can be prevented.
  • FIG. 14 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • an endoscopic surgery system 11000 includes an endoscope 11100, other surgical instruments 11110 such as an insufflation tube 11111 and an energy treatment instrument 11112, and a support arm device 11120 that supports the endoscope 11100. And a cart 11200 on which various devices for endoscopic surgery are mounted.
  • the endoscope 11100 includes a lens barrel 11101 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the proximal end of the lens barrel 11101.
  • a lens barrel 11101 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the proximal end of the lens barrel 11101.
  • an endoscope 11100 configured as a so-called rigid mirror having a rigid lens barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible lens barrel. Good.
  • An opening into which the objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101. Irradiation is performed toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 11102, and reflected light (observation light) from the observation target is condensed on the image sensor by the optical system. Observation light is photoelectrically converted by the imaging element, and an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted to a camera control unit (CCU: Camera Control Unit) 11201 as RAW data.
  • CCU Camera Control Unit
  • the CCU 11201 is configured by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102 and performs various kinds of image processing for displaying an image based on the image signal, such as development processing (demosaic processing), for example.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on an image signal subjected to image processing by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of a light source such as an LED (Light Emitting Diode), for example, and supplies irradiation light to the endoscope 11100 when photographing a surgical site or the like.
  • a light source such as an LED (Light Emitting Diode), for example, and supplies irradiation light to the endoscope 11100 when photographing a surgical site or the like.
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • a user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment instrument control device 11205 controls the drive of the energy treatment instrument 11112 for tissue ablation, incision, blood vessel sealing, or the like.
  • the pneumoperitoneum device 11206 passes gas into the body cavity via the pneumoperitoneum tube 11111.
  • the recorder 11207 is an apparatus capable of recording various types of information related to surgery.
  • the printer 11208 is a device that can print various types of information related to surgery in various formats such as text, images, or graphs.
  • the light source device 11203 that supplies the irradiation light when the surgical site is imaged to the endoscope 11100 can be configured by, for example, a white light source configured by an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the driving of the light source device 11203 may be controlled so as to change the intensity of the output light every predetermined time. Synchronously with the timing of changing the intensity of the light, the drive of the image sensor of the camera head 11102 is controlled to acquire an image in a time-sharing manner, and the image is synthesized, so that high dynamic without so-called blackout and overexposure A range image can be generated.
  • the light source device 11203 may be configured to be able to supply light of a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface of the mucous membrane is irradiated by irradiating light in a narrow band compared to irradiation light (ie, white light) during normal observation.
  • a so-called narrow band imaging is performed in which a predetermined tissue such as a blood vessel is imaged with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating excitation light.
  • the body tissue is irradiated with excitation light to observe fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally administered to the body tissue and applied to the body tissue. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 can be configured to be able to supply narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 15 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU 11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • the CCU 11201 includes a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and the CCU 11201 are connected to each other by a transmission cable 11400 so that they can communicate with each other.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101. Observation light taken from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the imaging unit 11402 includes an imaging element.
  • One (so-called single plate type) image sensor may be included in the imaging unit 11402, or a plurality (so-called multi-plate type) may be used.
  • image signals corresponding to RGB may be generated by each imaging element, and a color image may be obtained by combining them.
  • the imaging unit 11402 may be configured to include a pair of imaging elements for acquiring right-eye and left-eye image signals corresponding to 3D (Dimensional) display. By performing the 3D display, the operator 11131 can more accurately grasp the depth of the living tissue in the surgical site.
  • 3D 3D
  • the imaging unit 11402 is not necessarily provided in the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the driving unit 11403 is configured by an actuator, and moves the zoom lens and the focus lens of the lens unit 11401 by a predetermined distance along the optical axis under the control of the camera head control unit 11405. Thereby, the magnification and the focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is configured by a communication device for transmitting and receiving various types of information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling driving of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information for designating the frame rate of the captured image, information for designating the exposure value at the time of imaging, and / or information for designating the magnification and focus of the captured image. Contains information about the condition.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good. In the latter case, a so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 11100.
  • AE Auto Exposure
  • AF Automatic Focus
  • AWB Auto White Balance
  • the camera head control unit 11405 controls driving of the camera head 11102 based on a control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured by a communication device for transmitting and receiving various types of information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling driving of the camera head 11102 to the camera head 11102.
  • the image signal and the control signal can be transmitted by electrical communication, optical communication, or the like.
  • the image processing unit 11412 performs various types of image processing on the image signal that is RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various types of control related to imaging of the surgical site by the endoscope 11100 and display of a captured image obtained by imaging of the surgical site. For example, the control unit 11413 generates a control signal for controlling driving of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display a picked-up image showing the surgical part or the like based on the image signal subjected to the image processing by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques.
  • the control unit 11413 detects surgical tools such as forceps, specific biological parts, bleeding, mist when using the energy treatment tool 11112, and the like by detecting the shape and color of the edge of the object included in the captured image. Can be recognized.
  • the control unit 11413 may display various types of surgery support information superimposed on the image of the surgical unit using the recognition result. Surgery support information is displayed in a superimposed manner and presented to the operator 11131, thereby reducing the burden on the operator 11131 and allowing the operator 11131 to proceed with surgery reliably.
  • the transmission cable 11400 for connecting the camera head 11102 and the CCU 11201 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • communication is performed by wire using the transmission cable 11400.
  • communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technology according to the present disclosure can be applied to the imaging unit 11402 of the camera head 11102 among the configurations described above.
  • the imaging device 1 in FIG. 1 can be applied to the imaging unit 10402.
  • an endoscopic surgery system has been described as an example, the technology according to the present disclosure may be applied to, for example, a microscope surgery system and the like.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device that is mounted on any type of mobile body such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, and a robot. May be.
  • FIG. 16 is a block diagram illustrating a schematic configuration example of a vehicle control system that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, a vehicle exterior information detection unit 12030, a vehicle interior information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a blinker, or a fog lamp.
  • the body control unit 12020 can be input with radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives input of these radio waves or signals, and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle on which the vehicle control system 12000 is mounted.
  • the imaging unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle and receives the captured image.
  • the vehicle outside information detection unit 12030 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or a character on a road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal corresponding to the amount of received light.
  • the imaging unit 12031 can output an electrical signal as an image, or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared rays.
  • the vehicle interior information detection unit 12040 detects vehicle interior information.
  • a driver state detection unit 12041 that detects a driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the vehicle interior information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether the driver is asleep.
  • the microcomputer 12051 calculates a control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside / outside the vehicle acquired by the vehicle outside information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 realizes an ADAS (Advanced Driver Assistance System) function including vehicle collision avoidance or impact mitigation, following traveling based on inter-vehicle distance, vehicle speed maintaining traveling, vehicle collision warning, or vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform cooperative control for the purpose of automatic driving that autonomously travels without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on information outside the vehicle acquired by the vehicle outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 12030, and performs cooperative control for the purpose of anti-glare, such as switching from a high beam to a low beam. It can be carried out.
  • the sound image output unit 12052 transmits an output signal of at least one of sound and image to an output device capable of visually or audibly notifying information to a vehicle occupant or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 17 is a diagram illustrating an example of an installation position of the imaging unit 12031.
  • the vehicle 12100 includes imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as a front nose, a side mirror, a rear bumper, a back door, and an upper part of a windshield in the vehicle interior of the vehicle 12100.
  • the imaging unit 12101 provided in the front nose and the imaging unit 12105 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirror mainly acquire an image of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 12100.
  • the forward images acquired by the imaging units 12101 and 12105 are mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 17 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of the imaging part 12104 provided in the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, an overhead image when the vehicle 12100 is viewed from above is obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 based on the distance information obtained from the imaging units 12101 to 12104, the distance to each three-dimensional object in the imaging range 12111 to 12114 and the temporal change in this distance (relative speed with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • cooperative control for the purpose of autonomous driving or the like autonomously traveling without depending on the operation of the driver can be performed.
  • the microcomputer 12051 converts the three-dimensional object data related to the three-dimensional object to other three-dimensional objects such as a two-wheeled vehicle, a normal vehicle, a large vehicle, a pedestrian, and a utility pole based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles.
  • the microcomputer 12051 identifies obstacles around the vehicle 12100 as obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see.
  • the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 is connected via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration or avoidance steering via the drive system control unit 12010, driving assistance for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether a pedestrian is present in the captured images of the imaging units 12101 to 12104. Such pedestrian recognition is, for example, whether or not the user is a pedestrian by performing a pattern matching process on a sequence of feature points indicating the outline of an object and a procedure for extracting feature points in the captured images of the imaging units 12101 to 12104 as infrared cameras. It is carried out by the procedure for determining.
  • the audio image output unit 12052 When the microcomputer 12051 determines that there is a pedestrian in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 has a rectangular contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to be superimposed and displayed.
  • voice image output part 12052 may control the display part 12062 so that the icon etc. which show a pedestrian may be displayed on a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 and the like among the configurations described above.
  • the imaging apparatus 1 in FIG. 1 can be applied to the imaging units 12031 and 12101 to 12105.
  • this technique can also take the following structures.
  • a control signal distribution line configured to be distributed and connected to each of the plurality of control signal lines, the control signal lines being distributed and connected in a distributed manner to be supplied from both ends of the line;
  • Two control signal transmission units each configured by a plurality of transmission paths in which signal shaping units for shaping the control signals are respectively arranged and transmitting the control signals to the end portions of the control signal distribution lines;
  • An image pickup apparatus drive comprising: two arithmetic units that are arranged for each end of the control signal distribution line and that calculate control signals respectively transmitted through the plurality of transmission paths and supply the calculation result to the end circuit.
  • the control signal output unit according to any one of (1) to (5), further including a control signal output unit that is disposed on the plurality of control signal lines and converts the transmitted control signal into a control signal of the pixel.
  • Imaging device drive circuit (7) a plurality of pixels that generate an image signal corresponding to incident light based on the control signal; A plurality of control signal lines for transmitting the control signal for each of the plurality of pixels; A control signal distribution line configured to be distributed and connected to each of the plurality of control signal lines, the control signal lines being distributed and connected in a distributed manner to be supplied from both ends of the line; Two control signal transmission units each configured by a plurality of transmission paths in which signal shaping units for shaping the control signals are respectively arranged and transmitting the control signals to the end portions of the control signal distribution lines; An imaging apparatus comprising: two arithmetic units that are arranged for each end of the control signal distribution line and that perform arithmetic operations on control signals respectively transmitted through the plurality of transmission paths and supply calculation results to the end units.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

多数の画素に制御信号を伝達する撮像装置において信号伝達の際の遅延の影響を軽減する。 撮像装置駆動回路は、複数の制御信号線、制御信号分配線、2つの制御信号伝達部および2つの演算部を具備する。複数の制御信号線は、制御信号に基づいて入射光に応じた画像信号を生成する複数の画素毎に制御信号を伝達する。制御信号分配線は、線状に構成されるとともに複数の制御信号線が分散して接続されて線の両端からそれぞれ供給される制御信号を複数の制御信号線に分配する。2つの制御信号伝達部は、制御信号を整形する信号整形部がそれぞれ配置される複数の伝送路により構成されて制御信号を制御信号分配線の端部にそれぞれ伝達する。2つの演算部は、制御信号分配線の端部毎に配置されて複数の伝送路によりそれぞれ伝送された制御信号の演算を行って演算結果を端部に供給する。

Description

撮像装置駆動回路および撮像装置
 本開示は、撮像装置駆動回路および撮像装置に関する。詳しくは、複数の画素が配置された撮像素子を駆動する撮像装置駆動回路および当該撮像装置駆動回路を備える撮像装置に関する。
 撮像装置は、2次元格子状に配置された複数の画素と画素を駆動する周辺回路とにより構成される。周辺回路には、画素における撮像を制御する制御信号を生成する画素駆動回路が配置され、生成された制御信号が複数の画素に伝達される。この制御信号は、例えば、複数の画素に数珠つなぎに配線された信号線を介して伝達される。近年の撮像装置の大画面化および高解像度化に伴い、半導体チップに多くの画素が配置される。信号線に接続される画素数が増大する結果、信号線の配線距離が長くなる。このため、制御信号の伝達の際に制御信号が減衰する場合がある。
 そこで、複数の画素および周辺回路をそれぞれ第1の基板および第2の基板に形成し、これらの基板を積層して構成することにより、制御信号の画素への伝達距離を短縮し、制御信号の減衰を軽減する撮像装置が提案されている。具体的には、第1の基板の複数の画素の近傍の第2の基板に制御信号線を配置し、第1の基板との接合面に配置されたパッドを介して第1の基板の画素毎に制御信号を供給する。そして、第2の基板の制御信号線には、画素毎に増幅回路が配置され、減衰した制御信号を増幅しながら伝達する撮像装置が提案されている(例えば、特許文献1参照。)。
特開2017-022259号公報
 上述の従来技術では、第2の基板に配置された信号線には画素毎に配置された増幅回路が直列に接続されるため、制御信号に遅延を生るという問題がある。このため、画素毎の撮像のタイミングがずれて画質が低下するという問題がある。
 本開示は、上述した問題点に鑑みてなされたものであり、多数の画素に制御信号を伝達する撮像装置において制御信号の伝達の際の遅延の影響を軽減することを目的としている。
 本開示は、上述の問題点を解消するためになされたものであり、その第1の態様は、制御信号に基づいて入射光に応じた画像信号を生成する複数の画素毎に上記制御信号を伝達する複数の制御信号線と、線状に構成されるとともに上記複数の制御信号線が分散して接続されて上記線の両端からそれぞれ供給される上記制御信号を上記複数の制御信号線に分配する制御信号分配線と、上記制御信号を整形する信号整形部がそれぞれ配置される複数の伝送路により構成されて上記制御信号を上記制御信号分配線の端部にそれぞれ伝達する2つの制御信号伝達部と、上記制御信号分配線の端部毎に配置されて上記複数の伝送路によりそれぞれ伝送された制御信号の演算を行って演算結果を上記端部に供給する2つの演算部とを具備する撮像装置駆動回路である。
また、この第1の態様において、上記演算部は、上記伝達された複数の制御信号の論理積演算を行ってもよい。
 また、この第1の態様において、上記演算部は、上記伝達された複数の制御信号の論理和演算を行ってもよい。
 また、この第1の態様において、上記演算部は、上記伝達された複数の制御信号の多数決演算を行ってもよい。
 また、この第1の態様において、上記制御信号伝達部は、複数の上記信号整形部が分散して上記伝送路に配置されてもよい。
 また、この第1の態様において、上記複数の制御信号線に配置されて上記伝達された制御信号を前記画素の制御信号に変換する制御信号出力部をさらに具備してもよい。
 また、本開示の第2の態様は、制御信号に基づいて入射光に応じた画像信号を生成する複数の画素と、上記複数の画素毎に上記制御信号を伝達する複数の制御信号線と、線状に構成されるとともに上記複数の制御信号線が分散して接続されて上記線の両端からそれぞれ供給される上記制御信号を上記複数の制御信号線に分配する制御信号分配線と、上記制御信号を整形する信号整形部がそれぞれ配置される複数の伝送路により構成されて上記制御信号を上記制御信号分配線の端部にそれぞれ伝達する2つの制御信号伝達部と、上記制御信号分配線の端部毎に配置されて上記複数の伝送路によりそれぞれ伝送された制御信号の演算を行って演算結果を上記端部に供給する2つの演算部とを具備する撮像装置である。
 このような態様により、撮像装置駆動回路は、制御信号分配線に複数の制御信号線が接続され、制御信号分配線の両端から供給される制御信号がその複数の制御信号線に分配される構成となる。その際、制御信号は、複数の伝送路により並列して制御信号線分配線の端部に伝達された後に演算が行われ、その演算結果が画素の制御信号として制御信号分配線の端部に供給されるという作用をもたらす。複数の伝送路により伝達された制御信号同士の演算により、伝送路における遅延時間の差分の吸収が期待される。
 本開示によれば、多数の画素に制御信号を伝達する撮像装置において制御信号の伝達の際の遅延の影響を軽減するという優れた効果を奏する。
本開示の実施の形態に係る撮像装置の構成例を示す図である。 本開示の実施の形態に係る画素の回路構成の一例を示す図である。 本開示の第1の実施の形態に係る垂直駆動部の構成例を示す図である。 本開示の第1の実施の形態に係る制御信号の伝達の一例を示す図である。 本開示の実施の形態に係る制御信号の遅延の一例を示す図である。 本開示の第2の実施の形態に係る垂直駆動部の構成例を示す図である。 本開示の第2の実施の形態に係る制御信号の伝達の一例を示す図である。 本開示の第3の実施の形態に係る垂直駆動部の構成例を示す図である。 本開示の第3の実施の形態に係る演算部の構成例を示す図である。 本開示の第3の実施の形態に係る制御信号の伝達の一例を示す図である。 本開示の撮像装置に適用し得る固体撮像装置の構成例を示す断面図である。 本開示の撮像装置の構成例を示す図である。 本開示が適用され得る撮像装置の一例であるカメラの概略的な構成例を示すブロック図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 次に、図面を参照して、本開示を実施するための形態(以下、実施の形態と称する)を説明する。以下の図面において、同一または類似の部分には同一または類似の符号を付している。ただし、図面は、模式的なものであり、各部の寸法の比率等は現実のものとは必ずしも一致しない。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれることは勿論である。また、以下の順序で実施の形態の説明を行う。
 1.第1の実施の形態
 2.第2の実施の形態
 3.第3の実施の形態
 4.固体撮像装置の構成
 5.積層型撮像装置への応用例
 6.カメラへの応用例
 7.内視鏡手術システムへの応用例
 8.移動体への応用例
 <1.第1の実施の形態>
 [撮像装置の構成]
 図1は、本開示の実施の形態に係る撮像装置の構成例を示す図である。同図の撮像装置1は、画素アレイ部10と、垂直駆動部20と、カラム信号処理部30と、制御部40とを備える。
 画素アレイ部10は、画素100が2次元格子状に配置されて構成されたものである。ここで、画素100は、照射された光に応じた画像信号を生成するものである。この画素100は、照射された光に応じた電荷を生成する光電変換部を有する。また画素100は、画素回路をさらに有する。この画素回路は、光電変換部により生成された電荷に基づく画像信号を生成する。画像信号の生成は、後述する垂直駆動部20により生成された制御信号により制御される。画素アレイ部10には、信号線11および12がXYマトリクス状に配置される。信号線11は、画素100における画素回路の制御信号を伝達する信号線であり、画素アレイ部10の行毎に配置され、各行に配置される画素100に対して共通に配線される。信号線12は、画素100の画素回路により生成された画像信号を伝達する信号線であり、画素アレイ部10の列毎に配置され、各列に配置される画素100に対して共通に配線される。これら光電変換部および画素回路は、半導体基板に形成される。
 垂直駆動部20は、画素100の画素回路の制御信号を生成するものである。この垂直駆動部20は、生成した制御信号を同図の信号線11を介して画素100に伝達する。カラム信号処理部30は、画素100により生成された画像信号を処理するものである。このカラム信号処理部30は、同図の信号線12を介して画素100から伝達された画像信号の処理を行う。カラム信号処理部30における処理には、例えば、画素100において生成されたアナログの画像信号をデジタルの画像信号に変換するアナログデジタル変換が該当する。カラム信号処理部30により処理された画像信号は、撮像装置1の画像信号として出力される。制御部40は、撮像装置1の全体を制御するものである。この制御部40は、垂直駆動部20およびカラム信号処理部30を制御する制御信号を生成して出力することにより、撮像装置1の制御を行う。制御部40により生成された制御信号は、信号線41および42により垂直駆動部20およびカラム信号処理部30に対してそれぞれ伝達される。
 画素アレイ部10にはm行の画素100が配置されることを想定する。後述するように、垂直駆動部20は、m行に配置された画素100に対する制御信号を生成し、出力する。なお、垂直駆動部20は、請求の範囲に記載の撮像装置駆動回路の一例である。
 [画素の回路構成]
 図2は、本開示の実施の形態に係る画素の回路構成の一例を示す図である。同図は、画素100の構成を表す回路図である。同図の画素100は、光電変換部101と、第1の電荷保持部103と、第2の電荷保持部102と、MOSトランジスタ104乃至109とを備える。また、画素100には、信号線OFG、TR1、TR2、RST、SELおよびOUTが配線される。信号線OFG、TR1、TR2、RSTおよびSELは、画素100の制御信号を伝達する信号線である。これらの信号線は、MOSトランジスタのゲートに接続される。これらの信号線を介してゲートおよびソース間の閾値以上の電圧をMOSトランジスタに印加することにより、当該MOSトランジスタを導通させることができる。信号線OFG、TR1、TR2、RSTおよびSELは、信号線11を構成する。一方、信号線OUTは信号線12を構成し、画素100により生成された画像信号を伝達する。また、画素100には、電源線Vddが配線され、電源が供給される。
 光電変換部101のアノードは接地され、カソードはMOSトランジスタ104および105のソースに接続される。MOSトランジスタ104のドレインは電源線Vddに接続され、ゲートは信号線OFGに接続される。MOSトランジスタ105のドレインは、MOSトランジスタ106のソースおよび第2の電荷保持部102の一端に接続される。第2の電荷保持部102の他の一端は接地される。MOSトランジスタ105のゲートは信号線TR1に接続され、MOSトランジスタ106のゲートは信号線TR2に接続される。MOSトランジスタ106のドレインは、MOSトランジスタ107のソース、MOSトランジスタ108のゲートおよび第1の電荷保持部103の一端に接続される。第1の電荷保持部103の他の一端は、接地される。MOSトランジスタ107のゲートは、信号線RSTに接続される。MOSトランジスタ107および108のドレインは電源線Vddに共通に接続され、MOSトランジスタ108のソースはMOSトランジスタ109のドレインに接続される。MOSトランジスタ109のソースは信号線OUTに接続され、ゲートは信号線SELに接続される。
 光電変換部101は、前述のように照射された光に応じた電荷を生成し、保持するものである。この光電変換部101には、フォトダイオードを使用することができる。
 MOSトランジスタ104は、光電変換部101をリセットするトランジスタである。このMOSトランジスタ104は、光電変換部101に電源電圧を印加することにより、光電変換部101に保持された電荷を電源線Vddに排出し、リセットを行う。MOSトランジスタ104による光電変換部101のリセットは、信号線OFGにより伝達される信号により制御される。
 MOSトランジスタ105は、光電変換部101の光電変換により生成された電荷を第2の電荷保持部102に転送するトランジスタである。MOSトランジスタ105における電荷の転送は、信号線TR1により伝達される信号により制御される。
 第2の電荷保持部102は、MOSトランジスタ105により転送された電荷を保持するキャパシタである。 
 MOSトランジスタ106は、第2の電荷保持部102に保持された電荷を第1の電荷保持部103に転送するトランジスタである。MOSトランジスタ106における電荷の転送は、信号線TR2により伝達される信号により制御される。
 MOSトランジスタ108は、第1の電荷保持部103に保持された電荷に基づく信号を生成するトランジスタである。MOSトランジスタ109は、MOSトランジスタ108により生成された信号を画像信号として信号線OUTに出力するトランジスタである。このMOSトランジスタ109は、信号線SELにより伝達される信号により制御される。また、MOSトランジスタ108および109は、画像信号生成部110を構成する。
 MOSトランジスタ107は、第1の電荷保持部103に保持された電荷を電源線Vddに排出することにより第1の電荷保持部103をリセットするトランジスタである。このMOSトランジスタ107によるリセットは、信号線RSTにより伝達される信号により制御される。
 同図の画素100における画像信号の生成は、以下の様に行うことができる。まず、MOSトランジスタ104を導通させて光電変換部101をリセットする。次に所定の時間の経過後にMOSトランジスタ106および107を導通させて第2の電荷保持部102をリセットする。次に、MOSトランジスタ105を導通させる。これにより、光電変換部101において生成された電荷が第2の電荷保持部102に転送されて保持される。この光電変換部101のリセットからMOSトランジスタ105による電荷の転送までの操作は、画素アレイ部10に配置された全ての画素100において同時に行う。すなわち、全ての画素100における同時リセットであるグローバルリセットと全ての画素100における同時の電荷転送が実行される。これにより、グローバルシャッタが実現される。なお、光電変換部101のリセットからMOSトランジスタ105による電荷の転送までの期間は露光期間に該当する。
 次に、MOSトランジスタ107を再度導通させて第1の電荷保持部103をリセットする。次に、MOSトランジスタ106を導通させて第2の電荷保持部102に保持された電荷を第1の電荷保持部103に転送して保持させる。これにより、MOSトランジスタ108が第1の電荷保持部103に保持された電荷に応じた画像信号を生成する。次に、MOSトランジスタ109を導通させることにより、MOSトランジスタ108により生成された画像信号が信号線OUTに出力される。この、第1の電荷保持部103のリセットから画像信号の出力までの操作は、画素アレイ部10の行に配置された画素100毎に順次行う。画素アレイ部10の全ての行の画素100における画像信号が出力されることにより、1画面分の画像信号であるフレームが生成され、撮像装置1から出力される。
 この画素100における画像信号の生成および出力を上述の露光期間に平行して行うことにより、撮像および画像信号の転送に要する時間を短縮することができる。又、画素アレイ部10の全画素100において同時に露光を行うことにより、フレームの歪みの発生を防ぎ、画質を向上させることができる。このように、第2の電荷保持部102は、グローバルシャッタを行う際に、光電変換部101により生成された電荷を一時的に保持するために使用される。
 [垂直駆動部の構成]
 図3は、本開示の第1の実施の形態に係る垂直駆動部の構成例を示す図である。同図は、垂直駆動部20の構成例を表す図であり、図2において説明した制御信号のうち画素アレイ部10に配置された全ての画素100に同時に入力される制御信号を生成する部分の構成例を表す図である。このような制御信号には、信号線OFGや信号線TR1により伝達される制御信号が該当する。信号線OFGにより伝達される制御信号を例に挙げて、垂直駆動部20の構成を説明する。前述のように、信号線OFGにより伝達される制御信号は、グローバルリセットの際に伝達される制御信号である。制御部40により、グローバルリセットのタイミングに応じた制御信号が生成され、信号線41を介して垂直駆動部20に入力される。垂直駆動部20は、この入力された制御信号を複数の信号線11に分配し、画素100に対して出力する。
 同図の垂直駆動部20は、反転ゲート21、24aおよび24bと、制御信号伝達部22aおよび22bと、演算部23aおよび23bと、制御信号分配線25と、制御信号出力部26とを備える。また、同図には、信号線11のうち複数の信号線OFG(OFG1乃至OFGm)を記載した。同図のOFG1乃至OFGmは、画素アレイ部10の第1行乃至第m行の画素100にそれぞれ配線される信号線OFGを表す。すなわち、この信号線OFG1乃至OFGmは、画素アレイ部10のそれぞれの行に配置された画素100毎に制御信号を伝達する制御信号線である。
 制御信号分配線25は、複数の信号線(信号線OFG1乃至OFGm)が接続される信号線であり、これらの信号線OFG1乃至OFGmに対して制御信号を分配する配線である。制御信号分配線25の両端には、後述する演算部23aおよび23bがそれぞれ接続され、この演算部23aおよび23bにより制御信号が制御信号分配線25に供給される。信号線OFG1乃至OFGmは、制御信号分配線25に分散して接続される。具体的には、制御信号分配線25は、例えば、画素アレイ部10の行方向と略同じ長さに構成され、信号線OFG1乃至OFGmが画素アレイ部10の行の順に分散して接続される。これにより、制御信号分配線25の両端から供給された制御信号が信号線OFG1乃至OFGmに分配される際のスキューを低減することができ、画素アレイ部10の行毎のグローバルリセットのタイミングを揃えることができる。なお、同図の信号線OFG1乃至OFGmには、後述する制御信号出力部26が挿入される。
 制御信号伝達部22は、制御部40により生成された制御信号を制御信号分配線25の端部にそれぞれ伝達するものである。同図においては、2つ制御信号伝達部22aおよび22bが配置され、反転ゲート21を介して入力された制御信号が制御信号分配線25の両端にそれぞれ伝達される。同一の構成の制御信号伝達部22aおよび22bにより制御信号が制御信号分配線25の両端にそれぞれ伝達させることにより、信号線41から制御信号分配線25の両端に至る経路を対称な構成にしている。制御信号分配線25の両端における制御信号の遅延時間の差を小さくするためである。制御信号伝達部22は、複数の伝送路222と、複数の伝送路222のそれぞれに配置される信号整形部221とにより構成される。同図の制御信号伝達部22は、2つの伝送路222が配置される例を表したものである。
 伝送路222は、入力された制御信号を制御信号分配線25の端部に伝送するものである。信号整形部221は、伝送路222に挿入され、制御信号の波形を整形するものである。制御信号が伝送路222により伝送される際、伝送路222の配線抵抗や寄生容量の影響を受けて信号レベルの低下やパルス波形の鈍り等の波形の歪みを生じる。信号整形部221は、この歪みを生じた制御信号の波形を整形するものである。信号整形部221としてリピータや増幅回路を使用することができる。また、複数の信号整形部221を伝送路222に分散して配置することにより、伝送路222における制御信号の波形の歪みの増加を防ぎながら、制御信号の伝送を行うことができる。
 また、制御信号伝達部22は、信号整形部221が同様に配置された2つの伝送路222を備える。これら2つの伝送路222は、反転ゲート21を介して信号線41に共通に接続され、制御信号を並列に伝送する。2つの伝送路222は、後述する演算部23に接続される。
 演算部23は、制御信号伝達部22の複数の伝送路222により伝送された制御信号の演算を行うものである。同図の演算部23は、論理積演算を行う。演算部23の出力は制御信号分配線25の一端に接続され、演算部23による演算の結果は制御信号分配線25の一端に供給される。同図においては、演算部23の出力は、反転ゲート24を介して制御信号分配線25の一端に接続される。具体的には、制御信号伝達部22aの2つの伝送路222にそれぞれ接続される信号線201および202が演算部23aの入力に接続され、演算部23aの出力に接続される信号線203が反転ゲート24aを介して制御信号分配線25の一端に接続される。同様に、制御信号伝達部22bの2つの伝送路222にそれぞれ接続される信号線204および205が演算部23bの入力に接続され、演算部23bの出力に接続される信号線206が反転ゲート24bを介して制御信号分配線25の他の一端に接続される。
 上述のように、同一の構成の制御信号が制御信号伝達部22aおよび22bにより、制御信号分配線25の両端にそれぞれ伝達される。しかし、制御信号伝達部22aおよび22bの伝達特性がそれぞれ異なるため、制御信号の伝搬遅延時間も異なることとなる。制御部40は、デジタル信号の制御信号を生成し、制御信号伝達部22がデジタルの信号を伝達する場合を想定すると、制御信号が例えば値「0」から「1」に遷移する場合、制御信号伝達部22aおよび22bによりそれぞれ伝達される際に時間的なずれを生じ、制御信号分配線25の両端に異なる値の制御信号が入力される場合がある。
 例えば、制御信号伝達部22aより制御信号伝達部22bの遅延時間が長い場合には、反転ゲート24aの出力が値「1」に遷移した後に反転ゲート24bの出力が値「1」に遷移する。この間、値「1」を出力する反転ゲート24aおよび値「0」を出力する反転ゲート24bが制御信号分配線25に共通に接続されることとなり、反転ゲート24aから反転ゲート24bに向かって短絡電流が流れる。このため、垂直駆動部20における消費電力が増大する。この際、制御信号分配線25は、値「0」および「1」の中間の電位となり、制御信号の伝播遅延が増加するとともに、画素100において誤動作を生じる可能性がある。このため、このような制御信号の論理が食い違う期間を短縮する必要がある。
 そこで、制御信号伝達部22の中に複数の伝送路222を配置して制御信号をそれぞれ伝達し、演算部23により論理積演算を行う。これにより、異なる伝送路222の遅延特性の差を吸収することができる。また、制御信号伝達部22の中の伝送路222を増加させることにより、遅延時間を特定の値に収束させることができる。これにより、制御信号伝達部22aおよび22bにおける遅延時間を揃えることが可能となる。演算部23の動作の詳細については後述する。
 制御信号出力部26は、信号線OFG1乃至OFGm毎に分配された制御信号を画素100の制御信号に変換して出力するものである。信号線OFG1乃至OFGmには、デジタル信号の制御信号が伝達される。高速に伝達するため、このデジタル信号は比較的小さな振幅に構成される。また、差動伝送線を使用した伝送等が行われることもある。一方、図2において説明したように、画素100の制御信号は、画素100に配置されたMOSトランジスタのゲートに接続される。このため、制御信号出力部26は、デジタルの制御信号からMOSトランジスタを導通させる電圧の制御信号への変換を行う。また、制御信号出力部26は、多数の画素100を駆動可能とするために制御信号の増幅を行うこともできる。
 なお、信号線OFG1乃至OFGmは、請求の範囲に記載の制御信号線の一例である。
 [制御信号の伝達]
 図4は、本開示の第1の実施の形態に係る制御信号の伝達の一例を示す図である。同図は、制御信号伝達部22aおよび22bならびに演算部23aおよび23bにおける制御信号の伝達の様子を表す図であり、図3において説明した信号線201等により伝達される制御信号を表す図である。同図において、「信号線41」は、信号線41により垂直駆動部20に入力される制御信号を表す。また、「信号線201」乃至「信号線206」は、それぞれ信号線201乃至信号線206により伝達される制御信号を表す。
 信号線41により垂直駆動部20に入力された制御信号は、反転ゲート21により論理が反転されて制御信号伝達部22aおよび22bに入力される。制御信号伝達部22aおよび22bの伝送路222を介して伝達された制御信号は、信号線201および202ならびに信号線204および205にそれぞれ出力される。同図に表したように、信号線201および202ならびに信号線204および205に出力された制御信号は、伝送路222等の特性に応じて、遅延時間やパルス幅がそれぞれ変化する。これらの制御信号に対して演算部23aおよび23bによる論理積演算が行われる。信号線203および206には、演算部23aおよび23bにより演算された結果の信号がそれぞれ出力される。この演算部23から出力された信号は、反転ゲート24および制御信号出力部26を介して画素100に伝達される。この信号には、例えば、値「1」の時に画素100のMOSトランジスタが導通する正論理を採用することができる。
 演算部23は論理積演算を行うため、演算部23aの入力信号の立ち上がり(信号線41の信号の立ち下がり)エッジにおいては、信号線202に出力された制御信号の立ち上がりに基づいて値が遷移する制御信号が出力される。信号線201の信号の遷移より信号線202の信号の遷移の方が遅いためである。一方、演算部23aの入力信号の立ち下がり(信号線41の信号の立ち上がり)エッジにおいては、信号線201に出力された制御信号の立ち下がりに基づいて値が遷移する制御信号が出力される。信号線202の信号の遷移より信号線201の信号の遷移が早いためである。同様に、演算部23bの入力の立ち上がりエッジにおいては、信号線204に出力された制御信号の立ち上がりに基づいて値が遷移する制御信号が出力される。演算部23bの入力の立ち下がりエッジにおいては、信号線205に出力された制御信号の立ち下がりに基づいて値が遷移する制御信号が出力される。
 そして、信号線203に出力された制御信号と信号線206に出力された制御信号との遷移の差分の期間が制御信号分配線25における制御信号の論理が食い違う期間となる。同図に表したように、この論理が食い違う期間は、立ち上がりエッジにおいては期間Aが該当し、立ち下がりエッジにおいては期間Bが該当する。これに対し、同図の例では、信号線201、202、204および205の制御信号の遅延ばらつきは、立ち上がりエッジにおいては期間C、立ち下がりエッジにおいては期間Dとなる。すなわち、制御信号伝達部22aおよび22bの4つの伝送路222を経由した信号の遅延は期間CおよびDのばらつきを生じる。演算部23の演算により、制御信号分配線25に供給される制御信号の遅延時間の差はAおよびBにそれぞれ縮小される。
 [制御信号の遅延のばらつき]
 図5は、本開示の実施の形態に係る制御信号の遅延の一例を示す図である。同図は、制御信号の遅延時間の度数分布を表す図である。同図のグラフ301は、伝送路222を経由して伝達された制御信号の遅延時間の分布を表すグラフである。グラフ301に表したように、遅延時間の分布は正規分布となる。図4において説明したように演算部23は論理積演算を行うため、立ち上がりエッジにおいては複数の伝送路222の遅延時間のうち最も長い遅延時間に基づいて信号が遷移する。また、立ち下がりエッジにおいては複数の伝送路222の遅延時間のうち最も短い遅延時間に基づいて信号が遷移する。
 並列に配置される伝送路222を増加させた場合には、立ち上がりエッジおよび立ち下がりエッジにおける遅延時間は、グラフ301の最大の遅延時間および最小の遅延時間にそれぞれ収束することとなる。すなわち、伝送路222の配置数を増加させる程、遅延時間のずれが吸収される。制御信号の論理が食い違う期間の短縮が可能となり、反転ゲート24aおよび24bにおける短絡電流を低減することができる。また、画素100の制御信号の遅延時間を揃えることができるため、画素100毎の撮像タイミングのずれを小さくすることができ、画質の低下を防止することができる。
 なお、垂直駆動部20において、信号線SELにより伝達される制御信号のように、画素アレイ部10の行に配置された画素100毎に順次出力される制御信号は、例えば、シフトレジスタにより生成することができる。垂直駆動部20に配置されたシフトレジスタにより制御部40から出力された制御信号を順次転送しながら画素100の行毎に出力することができる。
 以上説明したように、本開示の第1の実施の形態の撮像装置1は、垂直駆動部20において複数の伝送路222により制御信号の伝達を行う。この伝達された複数の制御信号の演算を行って、演算結果の制御信号を制御信号分配線25の両端に供給し、画素100に分配する。これにより、制御信号の伝達の際の遅延の影響を軽減することができる。
 <2.第2の実施の形態>
 上述の第1の実施の形態の撮像装置1は、垂直駆動部20の演算部23において論理積演算を行っていた。これに対し、本開示の第2の実施の形態の撮像装置1は、論理和演算を行う点で、上述の第1の実施の形態と異なる。
 [垂直駆動部の構成]
 図6は、本開示の第2の実施の形態に係る垂直駆動部の構成例を示す図である。同図の垂直駆動部20は、演算部23の代わり演算部28を備える点で、図3において説明した垂直駆動部20と異なる。
 演算部28は、制御信号伝達部22の複数の伝送路222により伝送された制御信号の演算として論理和演算を行うものである。同図の演算部28aおよび28bは、それぞれ制御信号伝達部22aおよび22bにより伝達された制御信号の演算を行う。
 [制御信号の伝達]
 図7は、本開示の第2の実施の形態に係る制御信号の伝達の一例を示す図である。なお、信号線41、201、202、204および205には、図3と同じ制御信号が伝達されて演算部28aおよび28bに入力されるものと想定する。演算部28は、論理和演算を行うため、演算部28aの入力信号の立ち上がりエッジにおいては、信号線201に出力された制御信号の方が早く遷移するため、この制御信号の立ち上がりに基づいて値が遷移する制御信号が出力される。一方、演算部28aの入力信号の立ち下がりエッジにおいては、信号線202に出力された制御信号の方が遅く遷移するため、この制御信号の立ち下がりに基づいて値が遷移する制御信号が出力される。同様に、演算部28bの入力信号の立ち上がりエッジにおいては、信号線205に出力された制御信号の立ち上がりに基づいて値が遷移する制御信号が出力される。演算部28bの入力信号の立ち下がりエッジにおいては、信号線204に出力された制御信号の立ち下がりに基づいて値が遷移する制御信号が出力される。
演算部28は論理和演算を行うため、立ち上がりエッジにおいては複数の伝送路222の遅延時間のうち最も短い遅延時間に基づいて信号が遷移する。また、立ち下がりエッジにおいては複数の伝送路222の遅延時間のうち最も長い遅延時間に基づいて信号が遷移する。このため、並列に配置される伝送路222の増加に伴い、立ち上がりエッジおよび立ち下がりエッジにおける遅延時間は、グラフ301の最小の遅延時間および最大の遅延時間にそれぞれ収束する。伝送路222の配置数を増加させることにより、遅延時間のずれが吸収され、制御信号の論理が食い違う期間が短縮される。
 これ以外の撮像装置1の構成は本開示の第1の実施の形態において説明した撮像装置1の構成と同様であるため、説明を省略する。
 以上説明したように、本開示の第2の実施の形態の撮像装置1は、複数の伝送路222により伝達された制御信号に対する演算として論理和演算を行うことにより、制御信号の遅延時間の差分を吸収する。これにより、制御信号の伝達の際の遅延の影響を軽減することができる。
 <3.第3の実施の形態>
 上述の第1の実施の形態の撮像装置1は、垂直駆動部20の演算部23において論理積演算を行っていた。これに対し、本開示の第3の実施の形態の撮像装置1は、多数決演算を行う点で、上述の第1の実施の形態と異なる。
 [垂直駆動部の構成]
 図8は、本開示の第3の実施の形態に係る垂直駆動部の構成例を示す図である。同図の垂直駆動部20は、演算部23の代わりに演算部29を備える点で、図3において説明した垂直駆動部20と異なる。また、同図の制御信号出力部22aおよび22bは、信号整形部221がそれぞれ配置される3つの伝送路222により構成される。
 演算部29は、制御信号伝達部22の複数の伝送路222により伝送された制御信号の演算として多数決演算を行うものである。同図の演算部29aおよび29bは、それぞれ制御信号伝達部22aおよび22bにより伝達された3つの制御信号の多数決演算を行う。ここで、多数決演算とは、半数以上の入力信号が論理「1」のとき出力が論理「1」となる演算である。
 [垂直駆動部の構成]
 図9は、本開示の第3の実施の形態に係る演算部の構成例を示す図である。同図は、演算部29aの構成例を表す図である。同図に表したように演算部29は、3つの論理積ゲート291および論理和ゲート292により構成することができ、信号線201、202および207により入力される信号のうち少なくとも2つが値「1」になると値「1」が信号線203に出力される。このため、図5において説明した遅延時間の分布において、グラフ301の頂点近傍の遅延時間に制御信号の遅延を収束させることができる。
 [制御信号の伝達]
 図10は、本開示の第3の実施の形態に係る制御信号の伝達の一例を示す図である。なお、「信号線207」および「信号線208」は、それぞれ信号線207および信号線208により伝達される制御信号を表す。演算部28は、多数決演算を行うため、演算部29aの入力信号の立ち上がりエッジにおいては、3つの入力のうちの2つ目の入力信号の立ち上がりに基づいて値が遷移する制御信号が出力される。演算部29aの入力信号の立ち下がりエッジにおいても同様に、3つの入力のうちの2つ目の入力信号の立ち下がりに基づいて値が遷移する制御信号が出力される。同図においては、立ち上がりおよび立ち下がりの両方において、3つの信号のうち中位の遅延時間となる信号線207に出力された制御信号に基づいて値が遷移する制御信号が出力される。演算部29bにおいても同様に、3つの信号のうち中位の遅延時間となる信号線208に出力された制御信号に基づいて値が遷移する制御信号が出力される。
 このように、演算部29は多数決演算を行うため、立ち上がりエッジおよび立ち下がりエッジにおける遅延時間は、グラフ301の最も多く分布する遅延時間にそれぞれ収束する。伝送路222の配置数を増加させることにより、遅延時間のずれが吸収され、制御信号の論理が食い違う期間が短縮される。
 これ以外の撮像装置1の構成は本開示の第1の実施の形態において説明した撮像装置1の構成と同様であるため、説明を省略する。
 以上説明したように、本開示の第3の実施の形態の撮像装置1は、複数の伝送路222により伝達された制御信号に対する演算として多数決演算を行うことにより、制御信号の遅延時間の差分を吸収する。これにより、制御信号の伝達の際の遅延の影響を軽減することができる。
 <4.固体撮像装置の構成>
 図11は、本開示の撮像装置に適用し得る固体撮像装置の構成例を示す断面図である。
 固体撮像装置では、PD(フォトダイオード)20019が、半導体基板20018の裏面(図では上面)側から入射する入射光20001を受光する。PD20019の上方には、平坦化膜20013、CF(カラーフィルタ)20012、マイクロレンズ20011が設けられており、各部を順次介して入射した入射光20001を、受光面20017で受光して光電変換が行われる。
 例えば、PD20019は、n型半導体領域20020が、電荷(電子)を蓄積する電荷蓄積領域として形成されている。PD20019においては、n型半導体領域20020は、半導体基板20018のp型半導体領域20016、20041の内部に設けられている。n型半導体領域20020の、半導体基板20018の表面(下面)側には、裏面(上面)側よりも不純物濃度が高いp型半導体領域20041が設けられている。つまり、PD20019は、HAD(Hole-Accumulation Diode)構造になっており、n型半導体領域20020の上面側と下面側との各界面において、暗電流が発生することを抑制するように、p型半導体領域20016、20041が形成されている。
 半導体基板20018の内部には、複数の画素20010の間を電気的に分離する画素分離部20030が設けられており、この画素分離部20030で区画された領域に、PD20019が設けられている。図中、上面側から、固体撮像装置を見た場合、画素分離部20030は、例えば、複数の画素20010の間に介在するように格子状に形成されており、PD20019は、この画素分離部20030で区画された領域内に形成されている。
 各PD20019では、アノードが接地されており、固体撮像装置において、PD20019が蓄積した信号電荷(例えば、電子)は、図示せぬ転送トランジスタ(MOS FET)等を介して読み出され、電気信号として、図示せぬVSL(垂直信号線)へ出力される。
 配線層20050は、半導体基板20018のうち、遮光膜20014、CF20012、マイクロレンズ20011等の各部が設けられた裏面(上面)とは反対側の表面(下面)に設けられている。 
 配線層20050は、配線20051と絶縁層20052とを含み、絶縁層20052内において、配線20051が各素子に電気的に接続するように形成されている。配線層20050は、いわゆる多層配線の層になっており、絶縁層20052を構成する層間絶縁膜と配線20051とが交互に複数回積層されて形成されている。ここでは、配線20051としては、転送トランジスタ等のPD20019から電荷を読み出すためのトランジスタへの配線や、VSL等の各配線が、絶縁層20052を介して積層されている。
 配線層20050の、PD20019が設けられている側に対して反対側の面には、支持基板20061が設けられている。例えば、厚みが数百μmのシリコン半導体からなる基板が、支持基板20061として設けられている。
 遮光膜20014は、半導体基板20018の裏面(図では上面)の側に設けられている。
 遮光膜20014は、半導体基板20018の上方から半導体基板20018の裏面へ向かう入射光20001の一部を、遮光するように構成されている。
 遮光膜20014は、半導体基板20018の内部に設けられた画素分離部20030の上方に設けられている。ここでは、遮光膜20014は、半導体基板20018の裏面(上面)上において、シリコン酸化膜等の絶縁膜20015を介して、凸形状に突き出るように設けられている。これに対して、半導体基板20018の内部に設けられたPD20019の上方においては、PD20019に入射光20001が入射するように、遮光膜20014は、設けられておらず、開口している。
 つまり、図中、上面側から、固体撮像装置を見た場合、遮光膜20014の平面形状は、格子状になっており、入射光20001が受光面20017へ通過する開口が形成されている。
 遮光膜20014は、光を遮光する遮光材料で形成されている。例えば、チタン(Ti)膜とタングステン(W)膜とを、順次、積層することで、遮光膜20014が形成されている。この他に、遮光膜20014は、例えば、窒化チタン(TiN)膜とタングステン(W)膜とを、順次、積層することで形成することができる。
 遮光膜20014は、平坦化膜20013によって被覆されている。平坦化膜20013は、光を透過する絶縁材料を用いて形成されている。
 画素分離部20030は、溝部20031、固定電荷膜20032、及び、絶縁膜20033を有する。
 固定電荷膜20032は、半導体基板20018の裏面(上面)の側において、複数の画素20010の間を区画している溝部20031を覆うように形成されている。
 具体的には、固定電荷膜20032は、半導体基板20018において裏面(上面)側に形成された溝部20031の内側の面を一定の厚みで被覆するように設けられている。そして、その固定電荷膜20032で被覆された溝部20031の内部を埋め込むように、絶縁膜20033が設けられている(充填されている)。
 ここでは、固定電荷膜20032は、半導体基板20018との界面部分において正電荷(ホール)蓄積領域が形成されて暗電流の発生が抑制されるように、負の固定電荷を有する高誘電体を用いて形成されている。固定電荷膜20032が負の固定電荷を有するように形成されていることで、その負の固定電荷によって、半導体基板20018との界面に電界が加わり、正電荷(ホール)蓄積領域が形成される。
 固定電荷膜20032は、例えば、ハフニウム酸化膜(HfO2膜)で形成することができる。また、固定電荷膜20032は、その他、例えば、ハフニウム、ジルコニウム、アルミニウム、タンタル、チタン、マグネシウム、イットリウム、ランタノイド元素等の酸化物の少なくとも1つを含むように形成することができる。
 以上のような固体撮像装置は、本開示に適用することができる。
 <5.積層型撮像装置への応用例>
 図12は、本開示の撮像装置の構成例を示す図である。同図は、2つの半導体チップを積層して構成された撮像装置1の例を表す図である。同図の撮像装置1は、画素チップ310および信号処理チップ320により構成される。
 同図におけるaは、画素チップ310の構成を表す図である。同図におけるaの画素チップ310には、図1において説明した画素アレイ部10、垂直駆動部20およびパッド311が配置される。パッド311は、後述する信号処理チップ320との間で画像信号等を伝達する電極である。このパッド311は、画素チップ310の裏面の周辺部に複数配置される。
 同図におけるbは、信号処理チップ320の構成を表す図である。同図におけるbの信号処理チップ320には、図1において説明したカラム信号処理部30、制御部40およびパッド321が配置される。パッド321は、上述のパッド311と一対一に対応して配置されて電気信号の伝達を行う。なお、カラム信号処理部30および制御部40は、信号処理回路を構成する。
 同図におけるcは、画素チップ310および信号処理チップ320により構成された撮像装置1を表す側面図である。同図におけるcに表したように、撮像装置1は、信号処理チップ320の上に画素チップ310が積層されて構成される。この積層の際、パッド311および321は、位置合わせされて半田331により接続される。これにより、パッド311および321は、図1において説明した信号線11および12の一部を構成することとなる。
 同図に表したように、図1において説明した画素アレイ部10、垂直駆動部20、カラム信号処理部30および制御部40を2つの半導体チップに分けて配置し、これらのチップを積層して撮像装置1を構成することができる。画素アレイ部10では、アナログの画像信号の生成処理が行われる。この画素アレイ部10における処理は、比較的低速な処理となる。一方、カラム信号処理部30は、画像信号のアナログデジタル変換を行い、変換後のデジタルの画像信号の処理をさらに行う。このため、カラム信号処理部30は、比較的高速な処理を行う。そこで、これらを異なる半導体チップに形成することにより、それぞれの処理に最適なプロセスを適用した半導体チップを構成することができる。
 なお、図1において説明したように、制御部40と垂直駆動部20との間は、信号線41により接続される。この信号線41を構成するパッド311および322は、同図の垂直駆動部20の中央部近傍に配置すると好適である。図3において説明したように、信号線41から制御信号分配線25の両端に至る経路が対称な構成となり、制御信号分配線25の両端における制御信号の遅延時間が略等しくなるためである。
このように、複数の半導体チップにより撮像装置1を構成することにより、図1において説明した画素アレイ部10等の配置の自由度が向上し、撮像装置1の構成を最適化することができる。
 <6.カメラへの応用例>
 本開示は、様々な製品に応用することができる。例えば、本開示は、カメラ等の撮像装置に搭載される撮像素子として実現されてもよい。
 図13は、本開示が適用され得る撮像装置の一例であるカメラの概略的な構成例を示すブロック図である。同図のカメラ1000は、レンズ1001と、撮像素子1002と、撮像制御部1003と、レンズ駆動部1004と、画像処理部1005と、操作入力部1006と、フレームメモリ1007と、表示部1008と、記録部1009とを備える。
 レンズ1001は、カメラ1000の撮影レンズである。このレンズ1001は、被写体からの光を集光し、後述する撮像素子1002に入射させて被写体を結像させる。
 撮像素子1002は、レンズ1001により集光された被写体からの光を撮像する半導体素子である。この撮像素子1002は、照射された光に応じたアナログの画像信号を生成し、デジタルの画像信号に変換して出力する。
 撮像制御部1003は、撮像素子1002における撮像を制御するものである。この撮像制御部1003は、制御信号を生成して撮像素子1002に対して出力することにより、撮像素子1002の制御を行う。また、撮像制御部1003は、撮像素子1002から出力された画像信号に基づいてカメラ1000におけるオートフォーカスを行うことができる。ここでオートフォーカスとは、レンズ1001の焦点位置を検出して、自動的に調整するシステムである。このオートフォーカスとして、撮像素子1002に配置された位相差画素により像面位相差を検出して焦点位置を検出する方式(像面位相差オートフォーカス)を使用することができる。また、画像のコントラストが最も高くなる位置を焦点位置として検出する方式(コントラストオートフォーカス)を適用することもできる。撮像制御部1003は、検出した焦点位置に基づいてレンズ駆動部1004を介してレンズ1001の位置を調整し、オートフォーカスを行う。なお、撮像制御部1003は、例えば、ファームウェアを搭載したDSP(Digital Signal Processor)により構成することができる。
 レンズ駆動部1004は、撮像制御部1003の制御に基づいて、レンズ1001を駆動するものである。このレンズ駆動部1004は、内蔵するモータを使用してレンズ1001の位置を変更することによりレンズ1001を駆動することができる。
 画像処理部1005は、撮像素子1002により生成された画像信号を処理するものである。この処理には、例えば、画素毎の赤色、緑色および青色に対応する画像信号のうち不足する色の画像信号を生成するデモザイク、画像信号のノイズを除去するノイズリダクションおよび画像信号の符号化等が該当する。画像処理部1005は、例えば、ファームウェアを搭載したマイコンにより構成することができる。
 操作入力部1006は、カメラ1000の使用者からの操作入力を受け付けるものである。この操作入力部1006には、例えば、押しボタンやタッチパネルを使用することができる。操作入力部1006により受け付けられた操作入力は、撮像制御部1003や画像処理部1005に伝達される。その後、操作入力に応じた処理、例えば、被写体の撮像等の処理が起動される。
フレームメモリ1007は、1画面分の画像信号であるフレームを記憶するメモリである。このフレームメモリ1007は、画像処理部1005により制御され、画像処理の過程におけるフレームの保持を行う。
 表示部1008は、画像処理部1005により処理された画像を表示するものである。この表示部1008には、例えば、液晶パネルを使用することができる。
 記録部1009は、画像処理部1005により処理された画像を記録するものである。この記録部1009には、例えば、メモリカードやハードディスクを使用することができる。
 以上、本発明が適用され得るカメラについて説明した。本技術は以上において説明した構成のうち、撮像素子1002に適用され得る。具体的には、図1において説明した撮像装置1は、撮像素子1002に適用することができる。撮像素子1002に撮像装置1を適用することにより、画素100の制御信号の遅延の影響を軽減することができ、画質の低下を防止することができる。
 なお、ここでは、一例としてカメラについて説明したが、本発明に係る技術は、その他、例えば監視装置等に適用されてもよい。
 <7.内視鏡手術システムへの応用例>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図14は、本開示に係る技術が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 10では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図15は、図14に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、カメラヘッド11102の撮像部11402に適用され得る。具体的には、図1の撮像装置1は、撮像部10402に適用することができる。撮像部10402に本開示に係る技術を適用することにより、画質の低下を防止することができるため、術者が術部を確実に確認することが可能になる。
なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 <8.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図16は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図16に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図16の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図17は、撮像部12031の設置位置の例を示す図である。
 図17では、車両12100は、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図17には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112、12113は、それぞれサイドミラーに設けられた撮像部12102、12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。具体的には、図1の撮像装置1は、撮像部12031および12101ないし12105に適用することができる。撮像部12031等に本開示に係る技術を適用することにより、画質の低下を防止することができるため、ドライバの疲労を軽減することが可能になる。
 最後に、上述した各実施の形態の説明は本開示の一例であり、本開示は上述の実施の形態に限定されることはない。このため、上述した各実施の形態以外であっても、本開示に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。
 なお、本技術は以下のような構成もとることができる。
(1)制御信号に基づいて入射光に応じた画像信号を生成する複数の画素毎に前記制御信号を伝達する複数の制御信号線と、
 線状に構成されるとともに前記複数の制御信号線が分散して接続されて前記線の両端からそれぞれ供給される前記制御信号を前記複数の制御信号線に分配する制御信号分配線と、
 前記制御信号を整形する信号整形部がそれぞれ配置される複数の伝送路により構成されて前記制御信号を前記制御信号分配線の端部にそれぞれ伝達する2つの制御信号伝達部と、
 前記制御信号分配線の端部毎に配置されて前記複数の伝送路によりそれぞれ伝送された制御信号の演算を行って演算結果を前記端部に供給する2つの演算部と
を具備する撮像装置駆動回路。
(2)前記演算部は、前記伝達された複数の制御信号の論理積演算を行う前記(1)に記載の撮像装置駆動回路。
(3)前記演算部は、前記伝達された複数の制御信号の論理和演算を行う前記(1)に記載の撮像装置駆動回路。
(4)前記演算部は、前記伝達された複数の制御信号の多数決演算を行う前記(1)に記載の撮像装置駆動回路。
(5)前記制御信号伝達部は、複数の前記信号整形部が分散して前記伝送路に配置される前記(1)から(4)のいずれかに記載の撮像装置駆動回路。
(6)前記複数の制御信号線に配置されて前記伝達された制御信号を前記画素の制御信号に変換する制御信号出力部をさらに具備する前記(1)から(5)のいずれかに記載の撮像装置駆動回路。
(7)制御信号に基づいて入射光に応じた画像信号を生成する複数の画素と、
 前記複数の画素毎に前記制御信号を伝達する複数の制御信号線と、
 線状に構成されるとともに前記複数の制御信号線が分散して接続されて前記線の両端からそれぞれ供給される前記制御信号を前記複数の制御信号線に分配する制御信号分配線と、
 前記制御信号を整形する信号整形部がそれぞれ配置される複数の伝送路により構成されて前記制御信号を前記制御信号分配線の端部にそれぞれ伝達する2つの制御信号伝達部と、
 前記制御信号分配線の端部毎に配置されて前記複数の伝送路によりそれぞれ伝送された制御信号の演算を行って演算結果を前記端部に供給する2つの演算部と
を具備する撮像装置。
 1 撮像装置
 10 画素アレイ部
 11、41 信号線
 20 垂直駆動部
 21、24、24a、24b 反転ゲート
 22、22a、22b 制御信号伝達部
 23、23a、23b、28、28a、28b、29、29a、29b 演算部
 25 制御信号分配線
 26 制御信号出力部
 30 カラム信号処理部
 40 制御部 100 画素
 221 信号整形部
 222 伝送路
 1002 撮像素子
 10402、12031、12101~12105 撮像部

Claims (7)

  1.  制御信号に基づいて入射光に応じた画像信号を生成する複数の画素毎に前記制御信号を伝達する複数の制御信号線と、
     線状に構成されるとともに前記複数の制御信号線が分散して接続されて前記線の両端からそれぞれ供給される前記制御信号を前記複数の制御信号線に分配する制御信号分配線と、
     前記制御信号を整形する信号整形部がそれぞれ配置される複数の伝送路により構成されて前記制御信号を前記制御信号分配線の端部にそれぞれ伝達する2つの制御信号伝達部と、
     前記制御信号分配線の端部毎に配置されて前記複数の伝送路によりそれぞれ伝送された制御信号の演算を行って演算結果を前記端部に供給する2つの演算部と
    を具備する撮像装置駆動回路。
  2.  前記演算部は、前記伝達された複数の制御信号の論理積演算を行う請求項1記載の撮像装置駆動回路。
  3.  前記演算部は、前記伝達された複数の制御信号の論理和演算を行う請求項1記載の撮像装置駆動回路。
  4.  前記演算部は、前記伝達された複数の制御信号の多数決演算を行う請求項1記載の撮像装置駆動回路。
  5.  前記制御信号伝達部は、複数の前記信号整形部が分散して前記伝送路に配置される請求項1記載の撮像装置駆動回路。
  6.  前記複数の制御信号線に配置されて前記伝達された制御信号を前記画素の制御信号に変換する制御信号出力部をさらに具備する請求項1記載の撮像装置駆動回路。
  7.  制御信号に基づいて入射光に応じた画像信号を生成する複数の画素と、
     前記複数の画素毎に前記制御信号を伝達する複数の制御信号線と、
     線状に構成されるとともに前記複数の制御信号線が分散して接続されて前記線の両端からそれぞれ供給される前記制御信号を前記複数の制御信号線に分配する制御信号分配線と、
     前記制御信号を整形する信号整形部がそれぞれ配置される複数の伝送路により構成されて前記制御信号を前記制御信号分配線の端部にそれぞれ伝達する2つの制御信号伝達部と、
     前記制御信号分配線の端部毎に配置されて前記複数の伝送路によりそれぞれ伝送された制御信号の演算を行って演算結果を前記端部に供給する2つの演算部と
    を具備する撮像装置。
PCT/JP2019/002026 2018-03-15 2019-01-23 撮像装置駆動回路および撮像装置 WO2019176303A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/975,052 US11128827B2 (en) 2018-03-15 2019-01-23 Imaging device drive circuit and imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-047406 2018-03-15
JP2018047406A JP2019161520A (ja) 2018-03-15 2018-03-15 撮像装置駆動回路および撮像装置

Publications (1)

Publication Number Publication Date
WO2019176303A1 true WO2019176303A1 (ja) 2019-09-19

Family

ID=67908143

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/002026 WO2019176303A1 (ja) 2018-03-15 2019-01-23 撮像装置駆動回路および撮像装置

Country Status (3)

Country Link
US (1) US11128827B2 (ja)
JP (1) JP2019161520A (ja)
WO (1) WO2019176303A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3109667B1 (fr) * 2020-04-28 2024-04-05 Commissariat Energie Atomique Capteur d’image piloté par évènements et son procédé de lecture
JP2024006550A (ja) * 2022-07-04 2024-01-17 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、および、撮像装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001045377A (ja) * 1999-07-29 2001-02-16 Nec Corp Mos型イメージセンサ
JP2005210626A (ja) * 2004-01-26 2005-08-04 Hamamatsu Photonics Kk 固体撮像装置
JP2007221368A (ja) * 2006-02-15 2007-08-30 Sony Corp 負荷を駆動する駆動方法および駆動装置、並びに電子機器
JP2008141705A (ja) * 2006-12-05 2008-06-19 Canon Inc 放射線撮像装置及び放射線撮像システム
JP2012029005A (ja) * 2010-07-22 2012-02-09 Panasonic Corp 固体撮像装置及び撮像装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08298624A (ja) * 1995-04-25 1996-11-12 Sony Corp Ccd撮像装置
US7652703B2 (en) * 2004-07-12 2010-01-26 Micron Technology, Inc. Dual panel pixel readout in an imager
US7750964B2 (en) 2005-09-30 2010-07-06 Sony Corporation Method and apparatus for driving a semiconductor device including driving of signal charges within and outside an effective transfer period
JP5504136B2 (ja) * 2010-11-05 2014-05-28 ルネサスエレクトロニクス株式会社 イメージセンサ
JP2013012809A (ja) * 2011-06-28 2013-01-17 Toshiba Corp 固体撮像装置
JP2014072788A (ja) * 2012-09-28 2014-04-21 Sony Corp 固体撮像装置および駆動方法、並びに電子機器
CN104811634B (zh) * 2013-12-29 2018-07-31 芯视达系统公司 支持多种电压的紧凑型行解码器
JP2015177320A (ja) * 2014-03-14 2015-10-05 株式会社東芝 固体撮像装置
JP6651720B2 (ja) 2015-07-10 2020-02-19 株式会社ニコン 撮像素子および撮像装置
US10998373B2 (en) * 2016-07-11 2021-05-04 Sony Semiconductor Solutions Corporation Imaging element and imaging device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001045377A (ja) * 1999-07-29 2001-02-16 Nec Corp Mos型イメージセンサ
JP2005210626A (ja) * 2004-01-26 2005-08-04 Hamamatsu Photonics Kk 固体撮像装置
JP2007221368A (ja) * 2006-02-15 2007-08-30 Sony Corp 負荷を駆動する駆動方法および駆動装置、並びに電子機器
JP2008141705A (ja) * 2006-12-05 2008-06-19 Canon Inc 放射線撮像装置及び放射線撮像システム
JP2012029005A (ja) * 2010-07-22 2012-02-09 Panasonic Corp 固体撮像装置及び撮像装置

Also Published As

Publication number Publication date
US11128827B2 (en) 2021-09-21
JP2019161520A (ja) 2019-09-19
US20200412988A1 (en) 2020-12-31

Similar Documents

Publication Publication Date Title
US12022209B2 (en) Solid-state imaging device and electronic apparatus
WO2020008907A1 (ja) 受光素子、測距モジュール、および、電子機器
US11990486B2 (en) Solid-state imaging device
JP7341141B2 (ja) 撮像装置および電子機器
US11756971B2 (en) Solid-state imaging element and imaging apparatus
JP2018195719A (ja) 撮像素子および撮像素子の製造方法
WO2021235101A1 (ja) 固体撮像装置
WO2021106732A1 (ja) 撮像装置および電子機器
WO2021100332A1 (ja) 半導体装置、固体撮像装置及び電子機器
WO2019176303A1 (ja) 撮像装置駆動回路および撮像装置
US20240006443A1 (en) Solid-state imaging device, imaging device, and electronic apparatus
WO2022172711A1 (ja) 光電変換素子および電子機器
US20230005993A1 (en) Solid-state imaging element
JP2019134229A (ja) 撮像素子および撮像装置
US20220311943A1 (en) Imaging element and imaging apparatus
US20240038807A1 (en) Solid-state imaging device
WO2022158170A1 (ja) 光検出素子および電子機器
WO2021215299A1 (ja) 撮像素子および撮像装置
WO2022201839A1 (ja) 撮像素子及び撮像装置
US20240321917A1 (en) Imaging device
WO2022085695A1 (ja) 固体撮像装置
KR20230123941A (ko) 고체 촬상 장치 및 그 제조 방법
JP2023152523A (ja) 光検出装置
JP2019022020A (ja) 固体撮像素子、固体撮像素子の駆動方法および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19766884

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19766884

Country of ref document: EP

Kind code of ref document: A1