WO2019239675A1 - 固体撮像装置及び電子機器 - Google Patents

固体撮像装置及び電子機器 Download PDF

Info

Publication number
WO2019239675A1
WO2019239675A1 PCT/JP2019/012639 JP2019012639W WO2019239675A1 WO 2019239675 A1 WO2019239675 A1 WO 2019239675A1 JP 2019012639 W JP2019012639 W JP 2019012639W WO 2019239675 A1 WO2019239675 A1 WO 2019239675A1
Authority
WO
WIPO (PCT)
Prior art keywords
wiring
imaging device
solid
state imaging
signal processing
Prior art date
Application number
PCT/JP2019/012639
Other languages
English (en)
French (fr)
Inventor
ルォンフォン 朝倉
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US16/972,172 priority Critical patent/US11310449B2/en
Publication of WO2019239675A1 publication Critical patent/WO2019239675A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/617Noise processing, e.g. detecting, correcting, reducing or removing noise for reducing electromagnetic interference, e.g. clocking noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/67Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response
    • H04N25/671Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction
    • H04N25/677Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction for reducing the column or line fixed pattern noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors

Definitions

  • the present disclosure relates to a solid-state imaging device and an electronic apparatus.
  • CMOS Complementary Metal Oxide Semiconductor
  • solid-state imaging device a common column signal processing unit is provided for each of a plurality of pixels arranged in the column direction.
  • the column signal processing unit performs signal processing such as A / D (Analog-Digital) conversion on the pixel signal output from the pixel, and outputs an output signal.
  • the column signal processing unit as described above shares a power supply line, a ground line, a bias line, and the like with a plurality of pixels that are not directly electrically connected to the column signal processing unit. Therefore, unintentionally, pixel signals from a plurality of pixels that are not directly electrically connected to the column signal processing unit may appear as noise in the column signal processing unit. is there. As a result, streaking may occur in the output image obtained by the output signal converted by the column signal processing unit due to the noise.
  • a / D Analog-Digital
  • the HOPB region is provided, it is difficult to suppress an increase in the chip area of the semiconductor chip on which the image sensor (solid-state imaging device) is mounted and an increase in power consumption of the image sensor.
  • the configuration using the HOPB area is not satisfactory as a means for eliminating streaking.
  • the present disclosure proposes a new and improved solid-state imaging device and electronic apparatus that can eliminate streaking.
  • a plurality of pixels provided in a matrix in a pixel region on the substrate, and a plurality of first wirings provided in common for the plurality of pixels arranged in the first direction;
  • a second wiring capacitively coupled to each of the plurality of first wirings, and a second signal electrically connected to the second wiring and detecting a second signal appearing on the second wiring.
  • a solid-state imaging device is provided.
  • a plurality of pixels provided in a matrix in a pixel region on the substrate and a plurality of first wirings provided in common for the plurality of pixels arranged in the first direction And a second wiring that capacitively couples to each of the plurality of first wirings, and a second signal that is electrically connected to the second wiring and that appears on the second wiring is detected.
  • An electronic apparatus including a solid-state imaging device having a second detection unit is provided.
  • FIG. 1 is a schematic layout diagram of an image sensor 10 according to an embodiment of the present disclosure.
  • FIG. 4B is a circuit diagram illustrating an example of a circuit of the pixel 100 in FIG. 4A.
  • 5 is an explanatory diagram illustrating an example of a detailed configuration of a detection unit 52 according to an embodiment of the present disclosure.
  • FIG. 5 is an explanatory diagram for describing a reading method in a detection unit 52 according to an embodiment of the present disclosure.
  • FIG. 5 is an explanatory diagram for explaining coupling capacitors 520 and 530 in a detection unit 52 according to an embodiment of the present disclosure.
  • FIG. It is an explanatory view showing an example of detailed composition of unit for detection 52a concerning a modification of an embodiment of this indication.
  • 5 is an explanatory diagram illustrating an example of a layout of a detection wiring 510 according to an embodiment of the present disclosure.
  • FIG. FIG. 9 is an explanatory diagram illustrating an example of a layout of a detection wiring 510a according to a modification of the embodiment of the present disclosure.
  • FIG. 6 is an explanatory diagram illustrating an example of an electronic apparatus 700 including an imaging device 702 including the image sensor 10 according to an embodiment of the present disclosure.
  • FIG. It is a block diagram which shows an example of a schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of a vehicle exterior information detection part and an imaging part.
  • a plurality of constituent elements having substantially the same or similar functional configuration may be distinguished by adding different numerals after the same reference numerals. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same or similar functional configuration, only the same reference numerals are given.
  • similar components in different embodiments may be distinguished by attaching different alphabets after the same reference numerals. However, if it is not necessary to distinguish each similar component, only the same reference numerals are given.
  • connection means that a plurality of elements are electrically connected unless otherwise specified. Furthermore, the “connection” in the following description includes not only a case where a plurality of elements are directly and electrically connected, but also a case where they are indirectly and electrically connected via other elements. Including.
  • gate represents a gate electrode of a field effect transistor (FET).
  • Drain represents the drain electrode or drain region of the FET, and “source” represents the source electrode or source region of the FET.
  • a common column signal processing unit is provided for each of a plurality of pixels arranged in the column direction.
  • the column signal processing unit performs signal processing such as A / D (Analog-Digital) conversion on the pixel signal output from the pixel, and outputs an output signal.
  • the column signal processing unit as described above shares a power supply line, a ground line, a bias line, and the like with a plurality of pixels that are not directly electrically connected to the column signal processing unit. Therefore, unintentionally, pixel signals from a plurality of pixels that are not directly electrically connected to the column signal processing unit may appear as noise in the column signal processing unit. is there.
  • streaking may occur in the output image obtained by the output signal converted by the column signal processing unit due to the noise.
  • streaking refers to a phenomenon in which an area that should be a black background adjacent to the white area is displayed in gray in an output image in which there is a white area in the black background. . That is, streaking refers to an image different from a real image generated in an output image.
  • FIG. 1A is an explanatory diagram illustrating an example of an input image 900 input to the CMOS image sensor
  • FIG. 1B is an explanatory diagram illustrating an example of an output image 902 after digital conversion of the CMOS image sensor.
  • the input image 900 shown in FIG. 1A includes a region a, a region b, a region c, and a region d.
  • the levels of the input signals input to the pixels included in the region a and the region b are the same.
  • the level of the input signal input to the pixels included in each of the area c positioned beside the area a and the area d positioned beside the area b is large.
  • the level of the input signal input to the pixels included in the region c is low, and the level of the input signal input to the pixels included in the region d is high.
  • the column signal processing unit sequentially reads pixel signals from the plurality of pixels in units of rows for each of the plurality of pixels to which the input images as described above are input, and converts the read pixel signals into digital signals. Convert.
  • the column signal processing unit connected to the pixels included in the region a the pixel signal from the pixels included in the region c appears as noise unintentionally, and the column connected to the pixels included in the region b.
  • a pixel signal from a pixel included in the region d may appear as noise unintentionally.
  • the input signal of the pixel included in the region a and the input signal of the pixel included in the region b have the same signal level. Therefore, originally, also in the output image 902, an output signal obtained by converting a pixel signal from a pixel included in the region a, and an output signal obtained by converting a pixel signal from a pixel included in the region b Should have the same signal level. However, as shown in the output image 902 of FIG. 1B, a difference may occur in the signal level of the output signal obtained by converting the pixel signals of the pixels included in the converted region a and region b. .
  • the region from the pixel in region c is caused by the degree of signal interference via the power supply line or the like, or the difference between the level of the input signal of the pixel in region c and the level of the input signal of the pixel in region d.
  • the signal level of noise to the column signal processing unit a may be different from the signal level of noise from the pixel in the region d to the column signal processing unit in the region b.
  • a difference is generated between the signal level of the output signal from the column signal processing unit in the region a and the signal level of the output signal from the column signal processing unit in the region b, as shown in FIG. 1B.
  • An output image 902 including a region b (that is, streaking) different from the real image is output. Since such streaking is easily recognized by human eyes, it is required to eliminate streaking.
  • the difference between streaking and a real image is referred to as streaking amount (noise amount).
  • FIG. 2 is a layout diagram of the image sensor 80 according to the comparative example, and more specifically, is an explanatory diagram for explaining a HOPB (Horizontal Optical Black) region 802 according to the comparative example.
  • the comparative example means an image sensor that has been studied by the inventor before making an embodiment of the present disclosure.
  • the image sensor 80 according to the comparative example is provided with a normal pixel region 800 in which a plurality of normal pixels (not shown) are arranged in a matrix.
  • a column signal processing region 804 is provided below the normal pixel region 800 in the drawing.
  • a plurality of column signal processing units (not shown) that are common to a plurality of normal pixels arranged in the column direction (vertical direction in the drawing) are arranged.
  • a plurality of light-shielded HOPB pixels are arranged so as to sandwich the normal pixel region 800 from the left or right side or adjacent to one of the left and right sides.
  • a HOPB area 802 is provided.
  • the column signal processing unit reads out both the pixel signal of the normal pixel and the pixel signal of the HOPB pixel, performs digital conversion, and then converts the output signal related to the normal pixel to the HOPB pixel as a reference signal. A process of subtracting the output signal is performed.
  • the streaking amount common to the normal pixel and the HOPB pixel can be removed by performing the subtraction process as described above, and thus correction for eliminating the streaking is performed. be able to.
  • the HOPB area 802 is arranged on the left and right of the normal pixel area 800. Accordingly, when the generated streaking has a place dependency in the left-right direction (row direction) due to the pattern dependence of the input signal (for example, when streaking occurs only in a specific column), the HOPB region 802 HOPB pixels may not be fully dependent on their location. As a result, even if the reference signal from the HOPB pixel is subtracted from the output signal related to the normal pixel, the streaking amount remains in the output signal related to the normal pixel. In other words, a correction residue may occur.
  • HOPB regions 802 are uniformly arranged in the pixel region of the image sensor 80 so that location-dependent streaking can be detected even in the HOPB pixel. It is conceivable that they are provided so as to be distributed. However, providing a large number of HOPB pixels that are shielded from light deteriorates the quality of the captured image obtained by the image sensor 80 and also increases the chip area of the semiconductor chip, which is not realistic. .
  • FIG. 3 is a graph showing the relationship between the amount of generated streaking and the average value of the sum of pixel signals read from a plurality of normal pixels.
  • the X axis indicates the average value of the sum of pixel signals read from a predetermined number of normal pixels
  • the Y axis indicates the streaking amount.
  • the relationship between the average value of the sum of pixel signals read from a predetermined number of normal pixels and the amount of streaking is often a linear relationship as shown by a straight line 600 in FIG. I understood.
  • the relationship between the average value and the streaking amount may be a gentle curve relationship as shown by a curve 602 in FIG.
  • it turned out that such a relationship is acquired beforehand based on the design verification result or evaluation result of the image sensor used as object.
  • the inventor can calculate the amount of streaking generated from the average value of the sum total of pixel signals read from a predetermined number of normal pixels by referring to the relationship obtained in advance.
  • the present inventor eliminates the occurrence of streaking by performing correction using the streaking amount calculated from the above average value without using the above-mentioned HOPB pixel, that is, a region different from the real image ( It was conceived that an output image without streaking could be obtained.
  • the column signal processing unit Outputs an output signal indicating saturation.
  • the degree of amplification (analog gain) for the input signal in the column signal processing unit can be adjusted as appropriate. When the analog gain is set high, the column signal processing unit is more likely to be saturated.
  • FIGS. 4A and 4B are schematic layout diagrams of the image sensor 10 according to the embodiment of the present disclosure
  • FIG. 4B is a circuit diagram illustrating an example of a circuit of the pixel 100 in FIG. 4A.
  • the image sensor 10 includes a pixel array region (pixel region) 20, a vertical drive circuit region 30, and a load element region provided on a semiconductor substrate 300 made of, for example, silicon. 40, a column signal processing region (detection unit region) 50, a horizontal drive circuit region 60, an output circuit unit (processing unit) 70, and the like.
  • 4A shows a straight broken line 90 extending in the left and right directions in the drawing, the area shown in the upper side in the drawing from the broken line 90 (specifically, the pixel array region 20 and the vertical drive).
  • the circuit region 30) and the region (in detail, the load element region 40, the column signal processing region 50, and the horizontal drive circuit region 60) illustrated on the lower side of the drawing from the broken line 90 are the same in the semiconductor substrate 300. May be provided on the other surface, or may be provided on different surfaces (first surface, second surface). Further, a region illustrated on the upper side in the drawing from the broken line 90 and a region illustrated on the lower side in the drawing from the broken line 90 are different semiconductor substrates (first substrate, second substrate) stacked on each other. Substrate) may be provided. Below, the detail of each block of the image sensor 10 which concerns on this embodiment is demonstrated.
  • the pixel array region 20 includes a plurality of pixels (solid-state imaging devices) 100 that are two-dimensionally arranged in a matrix on a semiconductor substrate 300.
  • each pixel 100 includes a photoelectric conversion element (PD) and a plurality of pixel transistors (for example, a MOS (Metal-Oxide-Semiconductor) transistor) as shown in FIG. 4B.
  • the plurality of pixel transistors may include, for example, a transfer transistor T trs , a selection transistor T sel , a reset transistor T rst , and an amplification transistor T amp .
  • one of the PDs that receives light and generates charge is electrically connected to one of the source / drain of the transfer transistor T trs that transfers the charge via a wiring.
  • the other of the source / drain of the transfer transistor T trs (the side not connected to the PD) is electrically connected to one of the source / drain of the reset transistor T rst for resetting the accumulated charge via a wiring. Is done.
  • the gate of the transfer transistor T trs is electrically connected to a transfer gate line (not shown) and further connected to a vertical drive circuit region 30 described later.
  • the other of the source / drain of the reset transistor T rst (the side not connected to the transfer transistor T trs ) is electrically connected to the power supply circuit V DD . Further, the gate of the reset transistor T rst is electrically connected to a reset line (not shown) and further connected to the vertical drive circuit region 30.
  • the other of the source / drain (the side not connected to the PD) of the transfer transistor T trs is electrically connected to the gate of the amplification transistor T amp that amplifies (converts) the charge and outputs it as a pixel signal via the wiring.
  • the other of the source / drain of the transfer transistor T trs, node FD to connect one of the drain / source of the gate and the reset transistor T rst of the amplifying transistor T AMP constitutes a part of the reset transistor T rst.
  • the charge transferred from the PD changes the potential of the node FD and is converted into a voltage by the amplification transistor T amp .
  • one of the source / drain of the amplification transistor T amp is applied to one of the source / drain of the selection transistor T sel that outputs the pixel signal obtained by the conversion to the signal line (first wiring) V SL according to the selection signal. It is electrically connected via wiring.
  • the other of the source / drain of the amplification transistor T amp (side not connected to the selection transistor T sel ) is electrically connected to the power supply circuit V DD .
  • the other of the source / drain of the selection transistor T sel (the side not connected to the amplification transistor T amp ) is electrically connected to the signal line V SL , and further, column signal processing in a column signal processing region 50 described later. Part 500a is electrically connected.
  • the gate of the selection transistor T sel is electrically connected to a selection line (not shown), and is further electrically connected to the vertical drive circuit region 30.
  • the charge from the PD is the source follower circuit formed by the amplification transistor T # 038 and a constant current source is converted into the pixel signal (pixel voltage signals), through a signal line V SL to the column signal processing section 500a Will be read out.
  • the signal line V SL is vertical direction in FIG extending along (column direction, first direction), common for a plurality of pixels 100 arranged along the vertical direction (That is, electrically connected to these pixels 100). Further, the signal line V SL extends to the column signal processing unit 500 a in the column signal processing region 50.
  • the vertical drive circuit region 30 is provided adjacent to the pixel array region 20.
  • the vertical drive circuit region 30 is formed by, for example, a shift register, selects a selection line (not shown) for driving the pixel 100, and supplies a pulse for driving the pixel 100 to the selected selection line.
  • the pixels 100 are driven in units of rows (horizontal direction in the figure). That is, the vertical drive circuit region 30 is generated in accordance with the amount of light received by the PD of each pixel 100 by selectively scanning each pixel 100 of the pixel array region 20 in the vertical direction (vertical direction in the drawing) in units of rows. a pixel signal based on the electric charge supplied to the column signal processing section 500a to be described later through the signal line V SL.
  • Load element region 40 In the load element region 40, for example, a plurality of load elements 400 (see FIG. 5) made of MOS transistors are arranged on the semiconductor substrate 300, and these load elements 400 are connected to the signal line V. It is electrically connected to SL and functions as a constant current source.
  • the column signal processing region 50 is provided with a plurality of column signal processing units (first detection units) 500a arranged for each column (vertical direction in the drawing) of the pixels 100, and pixels for one row. Signal processing is performed for each pixel column on the pixel signal (first signal) output from 100 and input through the signal line VSL .
  • the column signal processing unit 500a can function as an A / D (analog-digital) converter.
  • the column signal processing unit 500a compares the pixel signal (analog signal) output from the pixels 100 for one row and input via the signal line VSL with a reference voltage, and the comparison between the comparators 502.
  • An up / down counter 504 (denoted as U / D CNT in FIG. 4A) for counting the output and a memory 506 for holding the count value are included. That is, the column signal processing unit 500a has a function of converting an analog signal given from the pixel 100 into an N-bit digital signal.
  • the comparator 502 compares the signal voltage corresponding to the pixel signal output from each pixel 100 with the reference voltage, and for example, outputs the “H” level when the reference voltage is larger than the signal voltage. When the reference voltage is equal to or lower than the signal voltage, “L” level output is performed.
  • the up / down counter 504 is an asynchronous counter. By performing a down (DOWN) count or an up (UP) count, a comparison period from the start of the comparison operation in the comparator 502 to the end of the comparison operation is obtained. measure.
  • the transfer switch 508 is turned on (closed) when the count operation of the up / down counter 504 for the pixel 100 in a certain row is completed under the control of the control signal, and the count result of the up / down counter 504 is displayed. Transfer to memory 506.
  • the column signal processing units 500a are provided so as to be arranged in the left-right direction (row direction) in the figure. It is not something.
  • the column signal processing units 500a may be provided in multiple stages along the vertical direction (column direction) in the drawing. In this way, signal processing can be performed at higher speed.
  • FIG. 4A shows an analog-digital converter having a circuit configuration similar to that of the column signal processing unit 500a so as to be adjacent to the column signal processing unit 500a arranged in the horizontal direction (row direction) in the drawing.
  • a column signal processing unit 500b is provided.
  • the column signal processing unit 500b is different from the column signal processing unit 500a, instead of connecting the signal line V SL and electrically in each pixel 100, the detection wire (second wire) 510 and electrically connected ing.
  • the detection wiring 510 electrically connected to the column signal processing unit 500b is not electrically connected to a predetermined number (for example, several hundred to several thousand) of signal lines VSL ( Each signal line VSL is provided so as to intersect with the signal line VSL .
  • the column signal processing unit 500b that connects one detection wiring 510 and electrically, which is electrically connected to a predetermined number of signal lines V SL intersecting with the detection wire 510
  • the predetermined number of column signal processing units 500a are referred to as detection units 52. 4A, in the detection unit 52, the column signal processing unit 500b is provided on one side of the plurality of column signal processing units 500a.
  • the present embodiment is not limited to this.
  • a plurality of column signal processing units 500b may be provided so as to sandwich the plurality of column signal processing units 500a from both sides. Details of the detection unit 52 according to this embodiment will be described later.
  • the horizontal drive circuit region 60 is formed by, for example, a shift register, and sequentially outputs horizontal scanning pulses to sequentially select each of the column signal processing units 500a described above, and outputs an output signal from each of the column signal processing units 500a. It can be output to the horizontal signal line 200.
  • the output circuit unit 70 can perform signal processing and output the output signals sequentially supplied from each of the column signal processing units 500a described above through the horizontal signal line 200.
  • the output circuit unit 70 may function as a functional unit that performs buffering, or may perform various correction processes. Note that buffering refers to temporarily storing a signal in order to compensate for a difference in processing speed or transfer speed when exchanging signals.
  • the output circuit unit 70 estimates the streaking amount based on a signal (signal amount) obtained by a column signal processing unit 500b (second detection unit) described later, and uses the estimated streaking amount to You may have the correction process part which correct
  • layout configuration example of the image sensor 10 according to the present embodiment is not limited to the example illustrated in FIG. 4A, and may include other circuit units, for example, and is not particularly limited.
  • FIG. 5 is an explanatory diagram showing an example of a detailed configuration of the detection unit 52 according to the present embodiment
  • FIG. 6 is an explanatory diagram for explaining a reading method in the detection unit 52 according to the present embodiment. .
  • the detection unit 52 includes k signal lines (extending in the vertical direction (column direction, first direction) in FIG. First wiring) V SL- 1, V SL- 1,..., V SL -k k column signal processing units 500 a-1, 500 a-2,. k is provided (k is an arbitrary natural number). Further, a load element 400 that functions as a constant current source is electrically connected to each of the signal lines V SL ⁇ 1, V SL ⁇ 1,..., V SL ⁇ k.
  • the column signal processing unit 500b is provided adjacent to the plurality of column signal processing units 500a-1, 500a-2,..., 500a-k. ing.
  • the column signal processing unit (second detection unit) 500b performs signal processing such as AD conversion on the input signal (second signal) in the same manner as the column signal processing unit 500a described above.
  • the column signal processing unit 500b has the same circuit configuration as the column signal processing unit 500a.
  • the column signal processing unit 500b is different from the other column signal processing unit 500a, not electrically connected to the signal line V SL. Instead, the column signal processing unit 500b is electrically connected to the detection wiring 510.
  • the detection wiring 510 extends, for example, in a direction orthogonal to the direction in which the signal line V SL extends, that is, in the left-right direction (row direction, second direction) in the figure, and each signal line V SL -1, Crosses without being electrically connected to V SL -1,..., V SL -k. Further, the detection wiring 510 is capacitively coupled to each of the signal lines V SL ⁇ 1, V SL ⁇ 1,..., V SL ⁇ k, and each coupling capacitance (first coupling capacitance) 520 -1, 520-2,... 520-k. Further, the column signal processing unit 500b and the detection wiring 510 are electrically connected to a power supply V DD or a bias circuit (not shown) via a switch 512.
  • the detection wire 510, the signal line V SL -1, V SL -1, ⁇ since the respectively capacitive coupling of V SL -k, each signal line V SL -1 , V SL ⁇ 1,..., V SL ⁇ k, the potential of the detection wiring 510 varies depending on the pixel signal from the pixel 100.
  • the column signal processing unit 500b can detect the potential of the detection wiring 510. That is, in the present embodiment, the column signal processing unit 500b can detect the sum of the pixel signals appearing on the signal lines V SL ⁇ 1, V SL ⁇ 1,..., V SL ⁇ k. . In this embodiment, the sum of the pixel signals appearing on the signal lines V SL ⁇ 1, V SL ⁇ 1,..., V SL ⁇ k detected by the column signal processing unit 500b is used. The generated streaking amount can be accurately calculated by the method described above.
  • the sum of the pixel signals appearing on the signal lines V SL ⁇ 1, V SL ⁇ 1,..., V SL ⁇ k can be read out from the column signal processing unit 500b as follows. .
  • the selection transistor T sel of the pixel 100 in the target row is turned on. Furthermore, the accumulated charge is reset by turning on the reset transistor T rst of the pixel 100. Thereafter, the transfer transistor T trs of the pixel 100 is turned on, whereby the accumulated charge is converted into a voltage signal. By the voltage signal, the potential of each signal line V SL changes from V SLRST to V sldata.
  • the column signal processing unit 500a includes, so that the output signal amplitude V SLsig a differential voltage between V SLRST and V sldata.
  • V SL ⁇ 1, V SL ⁇ 1,..., V SL ⁇ k voltage signals appearing on the signal lines V SL ⁇ 1, V SL ⁇ 1,..., V SL ⁇ k are coupled to the coupling capacitors 520-1, 520-2,.
  • the potential of the detection wiring 510 in the high impedance state is changed through 520-k.
  • the potential of the detection wiring 510 changes from V rst to V data . Therefore, the column signal processing unit 500b uses the difference voltage between V rst and V data as the sum of the pixel signals appearing on the signal lines V SL ⁇ 1, V SL ⁇ 1,..., V SL ⁇ k.
  • a certain signal amplitude V sig is output. The details of the relationship between the signal amplitude V SLsig and the signal amplitude V sig will be described later.
  • the detection wiring 510 is capacitively coupled to each of the plurality of signal lines VSL , and therefore, by the pixel signal from the pixel 100 appearing on each signal line VSL , The potential of the detection wiring 510 will fluctuate. Therefore, according to this embodiment, the sum of the pixel signals appearing on the signal lines V SL, can be detected by the column signal processing section 500b. As a result, according to this embodiment, without using the HOPB pixels described above, by using the sum of the pixel signals appearing on the signal lines V SL detected by the column signal processing section 500b, streaking amount generated Can be calculated with high accuracy.
  • the detection wiring 510 it is preferable to provide the detection wiring 510 so as to intersect with several thousand signal lines VSL . Accordingly, in one image sensor 10, about 10 to several tens of the detection wirings 510 and column signal processing units 500b electrically connected to the detection wirings 510 are provided. Further, in the present embodiment, the detection wiring 510 and the column signal processing unit 500b are distributed more and more uniformly on the image sensor 10 so that streaking having location dependency can be detected. It is preferable to be provided. Since the detection wiring 510 and the column signal processing unit 500b according to the present embodiment occupy a smaller area than the HOPB region 802 described above, a large number can be provided on the image sensor 10.
  • the detection upper limit signal amount that can be detected by the column signal processing unit 500b is the detection upper limit signal that can be detected by a predetermined number of column signal processing units 500a.
  • the signal amount is set to be larger than the total value.
  • the predetermined number refers to the number of signal lines V SL to be detected by the column signal processing unit 500b, can be set as appropriate.
  • saturation of the column signal processing unit 500b can be avoided by controlling the capacitance value of the coupling capacitor 520 and the like related to the detection wiring 510. Details of the coupling capacitor 520 and the like according to this embodiment will be described below.
  • FIG. 7A is an explanatory diagram for explaining the coupling capacitors 520 and 530 in the detection unit 52 according to the present embodiment
  • FIG. 7B is a detailed configuration of the detection unit 52a according to the modification of the present embodiment.
  • FIG. 8A is an explanatory diagram showing an example of the layout of the detection wiring 510 according to the present embodiment. Specifically, a plan view and a cross-sectional view of the detection wiring 510 are shown.
  • FIG. 8B is an explanatory diagram showing an example of the layout of the detection wiring 510a according to the modification of the present embodiment, and specifically shows a plan view of the detection wiring 510a.
  • one detection wiring 510 is capacitively coupled to each of the signal lines V SL ⁇ 1, V SL ⁇ 1,..., V SL ⁇ k as described above.
  • 520-k are formed as coupling capacitors (first coupling capacitors) 520-1, 520-2,. Further, the detection wiring 510 is capacitively coupled with other wirings such as a power supply line, a ground line, and a bias line, the semiconductor substrate 300, etc. (third wiring) in addition to the signal line VSL ,
  • the coupling capacitors 530-1, 530-2,..., 530-k are formed.
  • V SL signal in -i amplitude V SLsig (i) (the difference between V SLRST (i) and V SLdata (i))
  • V rst of detection wiring 510 (Difference from V data )
  • the signal amplitude V sig of the detection wiring 510 is proportional to the sum of the signal amplitudes V SLsig in the signal line V SL , and the proportional coefficient is Ca / Ct. Therefore, by appropriately designing Ca / Ct, saturation of the column signal processing unit 500b can be avoided. Therefore, to avoid saturation of the column signal processing section 500b, it is preferable to reduce the capacitance value (first capacitance) C a of the coupling capacitance 520, the capacitance value C b of the respective coupling capacitance 530 It is preferable to increase the total sum C tb . For example, in the present embodiment, it is preferable that the total sum C tb of the capacitance values C b of the respective coupling capacitors 530 be larger than the capacitance value C a of each of the coupling capacitors 520.
  • a plurality of capacitors electrically connected to each signal line V SL (for example, An MIM (Metal Insulator Metal) capacitor, a MOS capacitor, or the like may be provided.
  • a single capacitor 540 (for example, an MIM capacitor or a MOS capacitor) electrically connected to the detection wiring 510 may be provided as in the column signal processing region 50a shown in FIG. 7B. Good.
  • the capacitance value of the capacitor 540 is, for example, about several femto. As described above, when one capacitor 540 is provided as shown in FIG.
  • the degree of freedom in adjusting the layout and the capacitance value C tb is increased.
  • a configuration in which the value of the total sum C tb of the capacitance values is adjusted by register setting according to the analog gain of the column signal processing unit 500b can be easily realized.
  • the coupling capacitor 520 may be considered to be a MIM capacitor comprising a detection wire 510 and the signal line V SL.
  • the capacitance value (first capacitance value) C a of each coupling capacitor 520 is the area of the region where the detection wiring 510 and the signal line V SL overlap. It will be proportional to.
  • the capacitance value C a of the coupling capacitance 520 and thus proportional to the wiring width W SL of the wiring width W line and the signal line V SL of the detection wire 510. Therefore, in the present embodiment, the wiring width W SL of the wiring width W line and the signal line V SL of the detection wire 510 by appropriately adjusting, it is possible to easily realize a desired capacitance value C a.
  • the shape of the detection wire 510a May be changed.
  • a desired capacitance value C a can be easily realized even when the signal lines VSL are arranged with a narrow pitch and a narrow wiring width. be able to.
  • the desired capacitance value C a can be easily realized by changing the wiring width and shape of the detection wiring 510 and the signal line V SL .
  • a desired capacitance value C tb can be easily realized. Therefore, according to this embodiment, since the capacitance values C a and C tb can be easily set to desired values, saturation of the column signal processing unit 500b can be easily avoided. As a result, according to the present embodiment, the streaking amount can be accurately detected without using the above-described HOPB pixel, so that the streaking amount can be corrected, and the streaking can be eliminated.
  • the HOPB region 802 having a plurality of HOPB pixels is not provided, an increase in chip area and an increase in power consumption can be suppressed.
  • FIG. 9 is an explanatory diagram showing an example of the layout of the column signal processing region 50a according to a modification of the present embodiment.
  • the column signal processing unit 500b constitutes one detection unit 52 together with a predetermined number (for example, about several thousand) of column signal processing units 500a. That is, the detection unit 52 is provided for each predetermined number of signal lines VSL . Therefore, in the column signal processing region 50 according to the present embodiment, a predetermined number of column signal processing units 500a and column signal processing units 500b can be arranged alternately. In the present embodiment, since the column signal processing unit 500b and the column signal processing unit 500a have the same circuit configuration, the above-mentioned circuit configuration can be formed with high accuracy by the semiconductor manufacturing process. It is preferable to arrange them side by side.
  • the column signal processing unit 500b having the same circuit configuration as the column signal processing section 500a, a detection wire 510 that intersects with the signal line V SL has the simple structure. Therefore, according to the present embodiment, the column signal processing unit 500b and the detection wiring 510 can be provided more and more uniformly on the image sensor 10 without greatly increasing the chip area. As a result, according to the present embodiment, the column signal processing unit 500b finely distributed on the image sensor 10 can detect even the streaking having location dependency, and the streaking amount is accurately corrected. It becomes possible to do.
  • the arrangement of the column signal processing unit 500b can be modified.
  • a plurality of normal column regions (arrangement regions) 54 in which a plurality of column signal processing units 500b are arranged are provided in the column signal processing region 50a of the image sensor 10,
  • a power wiring region 58 is provided.
  • the power supply wiring area 58 is provided with power supply wiring, accessory lines such as a control circuit, a buffer circuit, and a bias voltage generation circuit.
  • the column signal processing unit 500b is provided in the additional column region 56 provided at the left and right ends of the normal column region 54 in the drawing.
  • the additional column region 56 including the plurality of column signal processing units 500b is provided so as to sandwich the normal column region 54.
  • the additional column area 56 is provided so as to sandwich the power supply wiring area 58.
  • the column signal processing unit 500 positioned at the end of the column does not have a desired circuit configuration due to misalignment in manufacturing or the like. There is. Therefore, the end of the column, the one or more, not connected the signal line V SL and electrically, the column signal processing section of the unused (not illustrated) (invalid column) is often provided. Therefore, in this modification, part or all of the unused column signal processing unit is diverted to the column signal processing unit 500b. In this way, according to this modification, a plurality of column signal processing units 500a in the normal column region 54 can be manufactured uniformly, and a column signal can be obtained without using a special additional circuit. A processing unit 500b can also be formed.
  • the column signal processing unit 500b and the detection wiring 510 have a simple configuration, and thus, on the image sensor 10 without greatly increasing the chip area. More can be provided so as to be distributed uniformly. As a result, according to the present embodiment and the present modification, the column signal processing unit 500b finely distributed on the image sensor 10 can detect even the streaking having location dependency, and the streaking amount can be accurately determined. It becomes possible to correct.
  • the column signal processing unit 500a and the column signal processing unit 500b have been described as having the same circuit configuration.
  • the present embodiment is not limited to this.
  • the constants of the circuit elements to be configured may be different depending on the coupling capacitors 520 and 530, the operating point, the input signal level, and the like.
  • the column signal processing unit 500b includes It does not need to be provided at a position as shown in FIG.
  • a detection wire 510 that respectively capacitive coupling of a plurality of signal lines V SL, a column signal processing section 500b to be electrically connected to the said detection wire 510
  • the generated streaking amount It can be calculated with high accuracy.
  • streaking can be eliminated by performing correction using the streaking amount calculated as described above.
  • the HOPB region 802 having a plurality of HOPB pixels is not provided, an increase in chip area and an increase in power consumption can be suppressed.
  • the desired capacitance value C a can be easily realized by changing the wiring width and shape of the detection wiring 510 and the signal line V SL .
  • a desired capacitance value C tb can be easily realized. Therefore, according to this embodiment, since the capacitance values C a and C tb can be easily set to desired values, saturation of the column signal processing unit 500b can be easily avoided.
  • the column signal processing unit 500b and the detection wiring 510 have a simple configuration, they are distributed more and more uniformly on the image sensor 10 without greatly increasing the chip area. Can be provided. As a result, according to the present embodiment, the column signal processing unit 500b and the detection wiring 510 that are finely distributed on the image sensor 10 can be detected even with streaking having location dependency. The streaking amount can be accurately corrected.
  • the direction in which the signal line VSL extends is not limited to the vertical direction (column direction) in the drawing, and for example, the horizontal direction (row) in the drawing. Direction).
  • the arrangement of the column signal processing unit 500 and the like is changed along with the arrangement of the signal lines VSL and the like.
  • the image sensor (solid-state imaging device) 10 includes an imaging device such as a digital still camera and a video camera, a portable terminal device having an imaging function, and a copier that uses an image sensor for an image reading unit.
  • the present invention can be applied to all electronic devices using an image sensor in the image capturing unit.
  • the embodiment of the present disclosure can be applied to a robot, a drone, an automobile, a medical device (endoscope), and the like including the above-described imaging device.
  • the image sensor 10 according to the present embodiment may be formed as a single chip, or a module having an imaging function in which an imaging unit and a signal processing unit or an optical system are packaged together. It may be.
  • FIG. 10 is an explanatory diagram illustrating an example of the electronic apparatus 700 including the imaging device 702 including the image sensor 10 according to the embodiment of the present disclosure.
  • the electronic device 700 includes an imaging device 702, an optical lens 710, a shutter mechanism 712, a drive circuit unit 714, and a signal processing circuit unit 716.
  • the optical lens 710 forms image light (incident light) from the subject on the imaging surface of the imaging device 702. Thereby, signal charges are accumulated in the image sensor 10 of the imaging device 702 for a certain period.
  • the shutter mechanism 712 controls the light irradiation period and the light shielding period to the imaging device 702 by opening and closing.
  • the drive circuit unit 714 supplies a drive signal for controlling a signal transfer operation of the imaging device 702, a shutter operation of the shutter mechanism 712, and the like.
  • the imaging device 702 performs signal transfer based on the drive signal (timing signal) supplied from the drive circuit unit 714.
  • the signal processing circuit unit 716 performs various signal processing. For example, the signal processing circuit unit 716 outputs the video signal subjected to the signal processing to a storage medium (not shown) such as a memory or to a display unit (not shown).
  • the image sensor 10 is not limited to an image sensor that detects the distribution of the amount of incident light of visible light and picks up an image as an image.
  • an image sensor that captures an incident amount distribution such as infrared rays, X-rays, or particles as an image, or a fingerprint that detects an image of another physical quantity distribution such as pressure or capacitance and captures it as an image.
  • the present invention can be applied to an image sensor (physical quantity distribution detection device) such as a detection sensor.
  • the image sensor 10 is, for example, an “automobile, electric vehicle, hybrid electric vehicle, motorcycle, bicycle, personal mobility, airplane, drone, ship, robot, artificial satellite, spacecraft, etc.
  • Image sensors used in mobiles in Japan “industrial image sensors used in factories and logistics systems”, “image sensors used in intelligent transport systems (ITS)”, “image sensors for crime prevention”, etc. It can be applied to various image sensors.
  • this embodiment is applicable to arbitrary apparatuses provided with image sensors, such as the said mobile body provided with an image sensor, for example.
  • FIG. 11 is a block diagram illustrating a schematic configuration example of a vehicle control system that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, a vehicle exterior information detection unit 12030, a vehicle interior information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, a sound image output unit 12052, and an in-vehicle network I / F (Interface) 12053 are illustrated as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a blinker, or a fog lamp.
  • the body control unit 12020 can be input with radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives input of these radio waves or signals, and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle on which the vehicle control system 12000 is mounted.
  • the imaging unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle and receives the captured image.
  • the vehicle outside information detection unit 12030 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or a character on a road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal corresponding to the amount of received light.
  • the imaging unit 12031 can output an electrical signal as an image, or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared rays.
  • the vehicle interior information detection unit 12040 detects vehicle interior information.
  • a driver state detection unit 12041 that detects a driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the vehicle interior information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether the driver is asleep.
  • the microcomputer 12051 calculates a control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside / outside the vehicle acquired by the vehicle outside information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 realizes an ADAS (Advanced Driver Assistance System) function including vehicle collision avoidance or impact mitigation, following traveling based on inter-vehicle distance, vehicle speed maintaining traveling, vehicle collision warning, or vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform cooperative control for the purpose of automatic driving that autonomously travels without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on information outside the vehicle acquired by the vehicle outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle outside information detection unit 12030, and performs cooperative control for the purpose of preventing glare such as switching from a high beam to a low beam. It can be carried out.
  • the sound image output unit 12052 transmits an output signal of at least one of sound and image to an output device capable of visually or audibly notifying information to a vehicle occupant or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 12 is a diagram illustrating an example of an installation position of the imaging unit 12031.
  • the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as a front nose, a side mirror, a rear bumper, a back door, and an upper part of a windshield in the vehicle interior of the vehicle 12100.
  • the imaging unit 12101 provided in the front nose and the imaging unit 12105 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirror mainly acquire an image of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 12100.
  • the imaging unit 12105 provided on the upper part of the windshield in the passenger compartment is mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 12 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of the imaging part 12104 provided in the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, an overhead image when the vehicle 12100 is viewed from above is obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 based on the distance information obtained from the imaging units 12101 to 12104, the distance to each three-dimensional object in the imaging range 12111 to 12114 and the temporal change of this distance (relative speed with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • cooperative control for the purpose of autonomous driving or the like autonomously traveling without depending on the operation of the driver can be performed.
  • the microcomputer 12051 converts the three-dimensional object data related to the three-dimensional object to other three-dimensional objects such as a two-wheeled vehicle, a normal vehicle, a large vehicle, a pedestrian, and a utility pole based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles.
  • the microcomputer 12051 identifies obstacles around the vehicle 12100 as obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see.
  • the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 is connected via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration or avoidance steering via the drive system control unit 12010, driving assistance for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether a pedestrian is present in the captured images of the imaging units 12101 to 12104.
  • pedestrian recognition is, for example, whether or not a person is a pedestrian by performing a pattern matching process on a sequence of feature points indicating the outline of an object and a procedure for extracting feature points in the captured images of the imaging units 12101 to 12104 as infrared cameras. It is carried out by the procedure for determining.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 has a rectangular outline for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to be superimposed and displayed. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present embodiment can be applied to, for example, the imaging unit 12031 in the vehicle control system.
  • the component to which the technique which concerns on this embodiment is applied is not restricted to the imaging part 12031 in the said vehicle control system.
  • a plurality of first detection units that are electrically connected to the first wirings and detect a first signal appearing on the first wirings; The solid-state imaging device according to (1) above.
  • the plurality of first detection units and the second detection unit are: An analog-to-digital converter arranged in a detection area on the substrate; The solid-state imaging device according to (2) above.
  • the plurality of first detection units and the second detection unit have the same circuit configuration.
  • a processing unit that estimates a noise amount based on the signal amount detected by the second detection unit, and corrects the signal amount detected by the plurality of first detection units using the estimated noise amount.
  • the first capacitance value of the first coupling capacitance generated by the capacitive coupling between the first wiring and the second wiring is such that the first wiring and the second wiring are mutually connected.
  • Each of the first wirings extends on the substrate along the first direction,
  • the second wiring extends on the substrate along a second direction orthogonal to the first direction.
  • the solid-state imaging device according to any one of (1) to (10) above.
  • (12) A plurality of the second wiring and the second detection unit, respectively, Each of the second wirings is capacitively coupled with a predetermined number of the first wirings;
  • a plurality of the second wiring and the second detection unit, respectively, The second detection unit is provided so as to sandwich an array region in which the plurality of first detection units are arranged.
  • the solid-state imaging device according to (3) above.
  • the pixel region is provided on a first surface of the substrate; The detection unit region is provided on a second surface of the substrate different from the first surface.
  • the pixel region is provided on a first substrate; The detection unit region is provided on a second substrate different from the first substrate.
  • a plurality of pixels provided in a matrix in a pixel region on the substrate; A plurality of first wirings provided in common for the plurality of pixels arranged along the first direction; A second wiring that capacitively couples to each of the plurality of first wirings; A second detector that is electrically connected to the second wiring and detects a second signal appearing on the second wiring; An electronic apparatus including a solid-state imaging device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

【課題】ストリーキングを解消することが可能な、新たな固体撮像装置及び電子機器を提供する。 【解決手段】基板上の画素領域にマトリックス状に設けられた複数の画素と、第1の方向に沿って並ぶ前記複数の画素ごとに共通して設けられる複数の第1の配線と、前記複数の第1の配線のそれぞれと容量性カップリングする第2の配線と、前記第2の配線に電気的に接続し、前記第2の配線上に現れる第2の信号を検出する第2の検出部と、を備える、固体撮像装置を提供する。

Description

固体撮像装置及び電子機器
 本開示は、固体撮像装置及び電子機器に関する。
 例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ(固体撮像装置)においては、列方向に並ぶ複数の画素ごとに共通するカラム信号処理部が設けられている。当該カラム信号処理部は、画素から出力される画素信号に対して、A/D(Analog-Degital)変換等の信号処理を行い、出力信号を出力する。上述のようなカラム信号処理部は、直接的に当該カラム信号処理部と電気的に接続されていない複数の画素との間で、電源線、グランド線、バイアス線等を共有している。そのため、当該カラム信号処理部には、意図せず、上述の配線を介して、直接的に当該カラム信号処理部と電気的に接続されていない複数の画素からの画素信号がノイズとして現れることがある。その結果、上記ノイズによって、カラム信号処理部によって変換された出力信号によって得られる出力画像において、ストリーキングが発生してしまうことがある。
 そこで、このようなストリーキングを補正する構成が提案されている。当該構成としては、例えば、下記特許文献1に開示の技術を挙げることができる。当該構成においては、通常画素がマトリックス状に配列する通常画素領域と、当該通常画素領域を左右から挟み込むように、遮光された複数のHOPB(Horizontal Optical Black)画素が配列するHOPB領域とが設けられている。そして、カラム信号処理部は、通常画素からの画素信号とHOPB画素からの画素信号とをともに読み出し、補正処理部は、通常画素に係る出力信号から、基準信号としてHOPB画素に係る出力信号を差し引く処理を行う。このような差し引く処理を行うことにより、通常画素とHOPB画素とに共通するストリーキングを除去することができることで、ストリーキングの補正を行うことができる。
特開2014-207631号公報
 しかしながら、上述の構成によれば、HOPB領域を設けることから、イメージセンサ(固体撮像装置)が搭載される半導体チップのチップ面積の増加や、イメージセンサの消費電力の増加を抑えることが難しい。加えて、ストリーキングの補正ができないケースが存在することから、HOPB領域を用いた構成は、ストリーキングを解消する手段として満足できるものではなかった。
 そこで、上述のような状況を鑑みて、本開示においては、ストリーキングを解消することが可能な、新規且つ改良された固体撮像装置及び電子機器を提案する。
 本開示によれば、基板上の画素領域にマトリックス状に設けられた複数の画素と、第1の方向に沿って並ぶ前記複数の画素ごとに共通して設けられる複数の第1の配線と、前記複数の第1の配線のそれぞれと容量性カップリングする第2の配線と、前記第2の配線に電気的に接続し、前記第2の配線上に現れる第2の信号を検出する第2の検出部と、を備える、固体撮像装置が提供される。
 さらに、本開示によれば、基板上の画素領域にマトリックス状に設けられた複数の画素と、第1の方向に沿って並ぶ前記複数の画素ごとに共通して設けられる複数の第1の配線と、前記複数の第1の配線のそれぞれと容量性カップリングする第2の配線と、前記第2の配線に電気的に接続し、前記第2の配線上に現れる第2の信号を検出する第2の検出部と、を有する固体撮像装置を含む、電子機器が提供される。
 以上説明したように本開示によれば、ストリーキングを解消することが可能な、新たな固体撮像装置及び電子機器を提供することができる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
イメージセンサに入力される入力画像900の一例を示す説明図である。 上記イメージセンサのデジタル変換後の出力画像902の一例を示す説明図である。 比較例に係るイメージセンサ80のレイアウト図である。 複数の画素から読み出された画素信号の総和の平均値に対する、発生したストリーキング量の関係を示したグラフである。 本開示の実施形態に係るイメージセンサ10の概略レイアウト図である。 図4A中の画素100の回路の一例を示す回路図である。 本開示の実施形態に係る検出用ユニット52の詳細構成の一例を示す説明図である。 本開示の実施形態に係る検出用ユニット52における読み出し方法を説明するための説明図である。 本開示の実施形態に係る検出用ユニット52におけるカップリング容量520、530を説明するための説明図である。 本開示の実施形態の変形例に係る検出用ユニット52aの詳細構成の一例を示す説明図である。 本開示の実施形態に係る検出用配線510のレイアウトの一例を示す説明図である。 本開示の実施形態の変形例に係る検出用配線510aのレイアウトの一例を示す説明図である。 本開示の実施形態の変形例に係るカラム信号処理領域50aのレイアウトの一例を示す説明図である。 本開示の実施形態に係るイメージセンサ10を有する撮像装置702を含む電子機器700の一例を示す説明図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 そして、以下の説明で参照される図面は、本開示の一実施形態の説明とその理解を促すための図面であり、わかりやすくするために、図中に示される形状や寸法、比などは実際と異なる場合がある。従って、図中に示されるイメージセンサ等は、以下の説明と公知の技術を参酌して適宜、設計変更することができる。
 さらに、以下の回路構成の説明の際には、特段の断りがない限りは、「接続」とは、複数の要素の間を電気的に接続することを意味する。さらに、以下の説明における「接続」には、複数の要素を直接的に、且つ、電気的に接続する場合だけでなく、他の要素を介して間接的に、且つ、電気的に接続する場合も含む。
 また、以下の説明においては、「ゲート」とは、電界効果トランジスタ(FET)のゲート電極を表す。「ドレイン」とは、FETのドレイン電極またはドレイン領域を表し、「ソース」とは、FETのソース電極またはソース領域を表す。
 なお、説明は以下の順序で行うものとする。
  1.本発明者が本開示の実施形態を創作するに至った背景
  2.本開示の実施形態
    2.1  イメージセンサ10の概略構成
    2.2  検出用ユニット52の詳細構成
    2.3  カップリング容量520等について
    2.4  カラム信号処理部500bの配置について
  3.まとめ
  4.電子機器への適用例
  5.補足
 <<1. 本発明者が本開示の実施形態を創作するに至った背景>>
 まず、本開示の実施形態の詳細を説明する前に、本発明者が本開示の実施形態を創作するに至った背景について説明する。
 先に説明したように、CMOSイメージセンサにおいては、列方向に並ぶ複数の画素ごとに共通するカラム信号処理部が設けられている。当該カラム信号処理部は、画素から出力される画素信号に対して、A/D(Analog-Degital)変換等の信号処理を行い、出力信号を出力する。上述のようなカラム信号処理部は、直接的に当該カラム信号処理部と電気的に接続されていない複数の画素との間で、電源線、グランド線、バイアス線等を共有している。そのため、当該カラム信号処理部には、意図せず、上述の配線を介して、直接的に当該カラム信号処理部と電気的に接続されていない複数の画素からの画素信号がノイズとして現れることがある。その結果、上記ノイズによって、カラム信号処理部によって変換された出力信号によって得られる出力画像において、ストリーキングが発生してしまうことがある。ここで、ストリーキングとは、例えば、黒地の中に、一部白い領域があるような出力画像において、白い領域と隣り合う黒地となるべき領域がグレーに表示されてしまうような現象のことをいう。すなわち、ストリーキングとは、出力画像に生じる実像とは異なる像のことをいう。
 ここで、このようなストリーキング現象の詳細を、図1A及び図1Bを参照して説明する。図1Aは、CMOSイメージセンサに入力される入力画像900の一例を示す説明図であり、図1Bは、当該CMOSイメージセンサのデジタル変換後の出力画像902の一例を示す説明図である。
 例えば、図1Aに示される入力画像900は、領域a、領域b、領域c、領域dを含むものとする。当該入力画像900においては、領域a及び領域bに含まれる画素に入力される入力信号のレベルは同一であるものとする。一方、当該入力画像900においては、領域aの横に位置する領域cと、領域bの横に位置する領域dとでは、それぞれの領域に含まれる画素に入力される入力信号のレベルには大きな差分があるものとする。詳細には、領域cに含まれる画素へ入力される入力信号のレベルは低く、領域dに含まれる画素へ入力される入力信号のレベルは高い。
 そこで、上述のような入力画像がそれぞれ入力された複数の画素に対して、カラム信号処理部は、行単位で複数の画素から画素信号を順次に読みだして、読み出した画素信号をデジタル信号に変換する。この際、領域aに含まれる画素に接続されたカラム信号処理部には、意図せず、領域cに含まれる画素からの画素信号がノイズとして現れ、領域bに含まれる画素に接続されたカラム信号処理部には、意図せず、領域dに含まれる画素からの画素信号がノイズとして現れることがある。
 先に説明したように、領域aに含まれる画素の入力信号と領域bに含まれる画素の入力信号とは、同一の信号レベルである。従って、本来なら、出力画像902においても、領域aに含まれる画素からの画素信号を変換して得られる出力信号と、領域bに含まれる画素からの画素信号を変換して得られる出力信号とは、同一の信号レベルになるはずである。しかしながら、図1Bの出力画像902に示すように、変換後の領域a及び領域bに含まれる画素の画素信号を変換して得られる出力信号の信号レベルには、差分が生じてしまうことがある。詳細には、電源線等を介した信号干渉の程度や、領域cの画素の入力信号のレベルと領域dの画素の入力信号のレベルとの差に起因して、領域cの画素からの領域aのカラム信号処理部へのノイズの信号レベルと領域dの画素からの領域bのカラム信号処理部へのノイズの信号レベルとは異なることがある。その結果、ノイズの分だけ、領域aのカラム信号処理部からの出力信号の信号レベルと、領域bのカラム信号処理部からの出力信号の信号レベルとの間で差分が生じ、図1Bに示される、実像とは異なる領域b(すなわち、ストリーキング)を含む出力画像902が出力されることとなる。このようなストリーキングは、人間の目によって認識されやすいため、ストリーキングを解消することが求められる。なお、以下の説明においては、ストリーキングと実像との差分をストリーキング量(ノイズ量)と呼ぶ。
 このようなストリーキングの発生を抑えるために、画素とカラム信号処理部との間で共有されている電源線、グランド線、バイアス線等のインピーダンスの強化を行うことが考えられる。また、電源線等において、信号干渉のパスとなり得る、意図しない容量性カップリングの発生を避けるレイアウトを採用することが考えられる。しかしながら、配線のインピーダンス強化のためには、広い配線領域を設けることが求められ、イメージセンサ(固体撮像装置)が搭載される半導体チップのチップ面積の増加を避けることが難しい。また、容量性カップリングの発生を避けるようなレイアウトについても、回路構成や他の回路ブロックによるレイアウトの自由度に対する制限により、発生を避けるために最適なレイアウトを行うことが難しく、ストリーキングを完全になくすことは困難である。
 そこで、上述のような方法の代わりに、デジタル変換の際に上記ストリーキング量を補正して、ストリーキングを解消する構成が提案されている(例えば、上記特許文献1に開示の技術を挙げることができる)。以下に、補正によりストリーキングを解消する構成について、図2を参照して説明する。図2は、比較例に係るイメージセンサ80のレイアウト図であり、詳細には、比較例に係るHOPB(Horizontal Optical Black)領域802を説明するための説明図である。ここで、比較例とは、本発明者が本開示の実施形態をなす前に、検討を重ねていたイメージセンサのことを意味するものとする。
 図2に示すように、比較例に係るイメージセンサ80においては、複数の通常画素(図示省略)がマトリックス状に配列する通常画素領域800が設けられている。また、比較例に係るイメージセンサ80においては、当該通常画素領域800の図中の下側に、カラム信号処理領域804が設けられている。当該カラム信号処理領域804には、列方向(図中の上下方向)に並ぶ複数の通常画素ごとに共通する、複数のカラム信号処理部(図示省略)が配列している。さらに、比較例に係るイメージセンサ80においては、当該通常画素領域800を左右から挟み込むように、もしくは、左右の一方の側に隣接するように、遮光された複数のHOPB画素(図示省略)が配列するHOPB領域802が設けられている。
 そして、当該イメージセンサ80においては、カラム信号処理部によって、通常画素の画素信号とHOPB画素の画素信号とをともに読み出し、デジタル変換した後に、通常画素に係る出力信号から、基準信号としてHOPB画素に係る出力信号を差し引く処理を行う。比較例に係るイメージセンサ80によれば、上述のような差し引く処理を行うことにより、通常画素とHOPB画素とに共通するストリーキング量を除去することができることから、ストリーキングを解消するための補正を行うことができる。
 しかしながら、素子特有のランダムノイズに起因する上記基準信号の変動を十分に小さくするために、HOPB領域802に含まれるHOPB画素は、一行につき数百程度設けることが求められることとなる。その結果、上記構成を適用した場合、ストリーキングを解消することができても、イメージセンサ80が搭載される半導体チップのチップ面積の増加や、イメージセンサ80における消費電力の増加を抑えることが難しい。
 加えて、上記構成においては、HOPB領域802は、通常画素領域800の左右に配置されている。従って、入力信号のパターン依存に起因して、発生したストリーキングが左右方向(行方向)の場所依存性を持っていた場合には(例えば、特定の列のみにストリーキングが発生した場合)、HOPB領域802のHOPB画素にはその場所依存性が現れきれないことがある。その結果、通常画素に係る出力信号からHOPB画素による基準信号を差し引いても、通常画素に係る出力信号にはストリーキング量が残存したままとなり、言い換えると、補正残りが生じることがある。そこで、このような補正残りを避けるため、場所依存性のあるストリーキングをHOPB画素でも検出することができるよう、イメージセンサ80の画素領域に、より多くのHOPB領域802を当該画素領域の全体に均一に分布するように設けることが考えられる。しかしながら、遮光された複数のHOPB画素を多く設けることは、イメージセンサ80によって得られる撮像画像の品質を劣化させることとなり、また、半導体チップのチップ面積の増加にもつながることから、現実的ではない。
 上述のような状況を鑑みて、本発明者は、HOPB画素を用いることなく、補正を行うことができる構成について鋭意検討を進めていた。そして、本発明者は、独自の検討を通じて、複数の通常画素から読み出された画素信号の総和の平均値から、ストリーキング量を推定することができることを独自に知得した。以下に、図3を参照して、本発明者が独自に知得した、複数の通常画素から読み出された画素信号の総和の平均値とストリーキング量との関係について説明する。図3は、複数の通常画素から読み出された画素信号の総和の平均値に対する、発生したストリーキング量の関係を示したグラフである。
 詳細には、図3においては、X軸が、所定の数の通常画素から読み出された画素信号の総和の平均値を示し、Y軸が、ストリーキング量を示す。本発明者によれば、所定の数の通常画素から読み出された画素信号の総和の平均値とストリーキング量との関係は、図3の直線600に示すような線形関係となる場合が多いことがわかった。もしくは、上記平均値とストリーキング量との関係は、図3の曲線602に示すような緩やかな曲線関係となる場合もあることが分かった。そして、本発明者によれば、このような関係性は、対象となるイメージセンサの設計検証結果又は評価結果に基づいて、予め得られることが分かった。
 そして、本発明者は、予め得られた関係性を参照することにより、所定の数の通常画素から読み出された画素信号の総和の平均値から、発生したストリーキング量を算出することができることに着想した。言い換えると、本発明者は、上述のHOPB画素を用いることなく、上記平均値から算出したストリーキング量を用いて補正を行うことにより、ストリーキングの発生を解消すること、すなわち、実像とは異なる領域(ストリーキング)のない出力画像を得ることができることに想到した。
 しかしながら、図3に示すような、カラム信号処理部がリニアにデジタル変換することができる信号レベルの範囲を示すレンジ604よりも大きな信号がカラム信号処理部に入力された場合、当該カラム信号処理部は、飽和したことを示す出力信号を出力する。このような場合、カラム信号処理部からの出力信号によって、実際に画素に入力された入力信号の信号レベルを知ることができないことから、画素信号の総和の平均値から、発生したストリーキング量を精度よく算出することができないこととなる。特に、カラム信号処理部における入力される信号に対する増幅度(アナログゲイン)は、適宜調整することが可能であり、アナログゲインを高く設定すると、カラム信号処理部はより飽和しやすくなることとなる。
 そこで、このような状況を鑑みて、本発明者は、上記レンジ604よりも大きな入力信号がカラム信号処理部に入力される場合であっても、通常画素の画素信号の総和の平均値から、ストリーキング量を精度よく算出することができる、本開示の実施形態を創作するに至った。以下に、このような本開示の実施形態の詳細について順次説明する。
 <<2.本開示の実施形態>>
 <2.1  イメージセンサ10の概略構成>
 まずは、図4A及び図4Bを参照して、本開示の実施形態に係るイメージセンサ(固体撮像装置)10の概略を説明する。図4Aは、本開示の実施形態に係るイメージセンサ10の概略レイアウト図であり、図4Bは、図4A中の画素100の回路の一例を示す回路図である。
 図4Aに示すように、本実施形態に係るイメージセンサ10は、例えばシリコンからなる半導体基板300上に設けられた、画素アレイ領域(画素領域)20と、垂直駆動回路領域30と、負荷素子領域40と、カラム信号処理領域(検出部領域)50と、水平駆動回路領域60、出力回路部(処理部)70等を含む。なお、図4Aには、図中の左右に延びる直線状の破線90が図示されているが、破線90から図中の上側に図示されている領域(詳細には、画素アレイ領域20及び垂直駆動回路領域30)と、破線90から図中の下側に図示されている領域(詳細には、負荷素子領域40、カラム信号処理領域50及び水平駆動回路領域60)とは、半導体基板300の同一の面上に設けられてもよく、異なる面(第1の面、第2の面)上に設けられていてもよい。また、破線90から図中の上側に図示されている領域と、破線90から図中の下側に図示されている領域とは、互いに積層された異なる半導体基板(第1の基板、第2の基板)に設けられていてもよい。以下に、本実施形態に係るイメージセンサ10の各ブロックの詳細について説明する。
 (画素アレイ領域20)
 画素アレイ領域20は、半導体基板300上にマトリックス状に2次元配置された複数の画素(固体撮像素子)100を有する。詳細には、各画素100は、図4Bに示すように、光電変換素子(PD)と、複数の画素トランジスタ(例えばMOS(Metal-Oxide-Semiconductor)トランジスタ)とを有している。複数の画素トランジスタは、例えば、転送トランジスタTtrs、選択トランジスタTsel、リセットトランジスタTrst、及び、増幅トランジスタTampを含むことができる。
 より具体的には、光を受光して電荷を発生するPDの一方は、電荷を転送する転送トランジスタTtrsのソース/ドレインの一方と配線を介して電気的に接続される。さらに、転送トランジスタTtrsのソース/ドレインの他方(PDと接続されていない側)は、蓄積した電荷をリセットするためのリセットトランジスタTrstのソース/ドレインの一方と配線を介して電気的に接続される。また、転送トランジスタTtrsのゲートは、転送ゲート線(図示省略)に電気的に接続され、さらに後述する垂直駆動回路領域30に接続される。そして、リセットトランジスタTrstのソース/ドレインの他方(転送トランジスタTtrsと接続されていない側)は、電源回路VDDに電気的に接続される。さらに、リセットトランジスタTrstのゲートは、リセット線(図示省略)に電気的に接続され、さらに垂直駆動回路領域30に接続される。
 さらに、転送トランジスタTtrsのソース/ドレインの他方(PDと接続されていない側)は、電荷を増幅(変換)して画素信号として出力する増幅トランジスタTampのゲートにも配線を介して電気的に接続される。また、転送トランジスタTtrsのソース/ドレインの他方、増幅トランジスタTAMPのゲート及びリセットトランジスタTrstのドレイン/ソースの一方を接続するノードFDは、リセットトランジスタTrstの一部を構成する。PDから転送された電荷は、ノードFDの電位を変化させ、増幅トランジスタTampによって電圧に変換される。また、増幅トランジスタTampのソース/ドレインの一方は、選択信号に従って、変換によって得た上記画素信号を信号線(第1の配線)VSLに出力する選択トランジスタTselのソース/ドレインの一方に配線を介して電気的に接続される。そして、増幅トランジスタTampのソース/ドレインの他方(選択トランジスタTselと接続されていない側)は、電源回路VDDに電気的に接続される。また、選択トランジスタTselのソース/ドレインの他方(増幅トランジスタTampと接続されていない側)は、上記信号線VSLに電気的に接続され、さらに後述するカラム信号処理領域50のカラム信号処理部500aに電気的に接続される。さらに、選択トランジスタTselのゲートは、選択線(図示省略)に電気的に接続され、さらに垂直駆動回路領域30に電気的に接続される。すなわち、PDからの電荷は、増幅トランジスタTampと定電流源で構成されるソース・フォロワー回路によって、画素信号(画素電圧信号)に変換され、信号線VSLを介してカラム信号処理部500aへと読み出されることとなる。
 なお、図4Aに示されるように、信号線VSLは、図中の上下方向(列方向、第1の方向)に沿って延伸し、当該上下方向に沿って並ぶ複数の画素100ごとに共通して設けられている(すなわち、これら画素100に電気的に接続されている)。さらに、信号線VSLは、カラム信号処理領域50のカラム信号処理部500aにまで延伸している。
 (垂直駆動回路領域30)
 垂直駆動回路領域30は、上記画素アレイ領域20に隣接して設けられる。また、垂直駆動回路領域30は、例えばシフトレジスタによって形成され、画素100の駆動のための選択線(図示省略)を選択し、選択された選択線に画素100を駆動するためのパルスを供給し、行(図中の左右方向)単位で画素100を駆動する。すなわち、垂直駆動回路領域30は、画素アレイ領域20の各画素100を行単位で順次垂直方向(図中の上下方向)に選択走査し、各画素100のPDの受光量に応じて生成された電荷に基づく画素信号を、信号線VSLを通して後述するカラム信号処理部500aに供給する。
 (負荷素子領域40)
 負荷素子領域40においては、例えば、MOSトランジスタからなる、複数の負荷素子400(図5 参照)が、半導体基板300上に配列するように設けられており、これらの負荷素子400は、信号線VSLに電気的に接続し、定電流源として機能する。
 (カラム信号処理領域50)
 カラム信号処理領域50には、画素100の列(図中の上下方向)ごとに配置された、複数のカラム信号処理部(第1の検出部)500aが設けられており、1行分の画素100から出力され、信号線VSLを通して入力される画素信号(第1の信号)に対して画素列ごとに信号処理を行う。例えば、カラム信号処理部500aは、A/D(アナログ-デジタル)変換器として機能することができる。
 カラム信号処理部500aは、1行分の画素100から出力され、信号線VSLを介して入力される画素信号(アナログ信号)を参照電圧と比較する比較器502と、当該比較器502の比較出力を計数するアップ/ダウン カウンタ504(図4A中、U/D CNTと記している)と、カウント値を保持するメモリ506とを含む。すなわち、カラム信号処理部500aは、画素100から与えられるアナログ信号をNビットのデジタル信号に変換する機能を有している。
 比較器502は、各画素100から出力される画素信号に応じた信号電圧と、参照電圧とを比較し、例えば、参照電圧が信号電圧よりも大きい場合には“H”レベルの出力を行い、参照電圧が信号電圧以下のときには“L”レベルの出力を行う。また、アップ/ダウン カウンタ504は、非同期カウンタであり、ダウン(DOWN)カウント又はアップ(UP)カウントを行うことにより、上記比較器502での比較動作の開始から比較動作の終了までの比較期間を計測する。転送スイッチ508は、制御信号による制御により、ある行の画素100についてのアップ/ダウン カウンタ504のカウント動作が完了した時点でオン(閉)状態となって、当該アップ/ダウン カウンタ504のカウント結果をメモリ506に転送する。
 このようにして、各画素100から信号線VSLを経由して列毎に供給されるアナログ信号が、カラム信号処理部500aにおける比較器502及びアップ/ダウン カウンタ504の各動作により、Nビットのデジタル信号に変換されてメモリ506に格納される。
 なお、図4Aに示されるカラム信号処理領域50においては、カラム信号処理部500aは、図中の左右方向(行方向)に並ぶように設けられているが、本実施形態においてはこれに限定されるものではない。例えば、本実施形態においては、カラム信号処理部500aは、図中の上下方向(列方向)に沿って多段に設けられていてもよい。このようにすることで、信号処理をより高速に行うことができる。
 さらに、図4Aには、図中の左右方向(行方向)に沿って並ぶカラム信号処理部500aと隣り合うように、カラム信号処理部500aと同様の回路構成を持つアナログ-デジタル変換器であるカラム信号処理部500bが設けられている。当該カラム信号処理部500bは、カラム信号処理部500aとは異なり、各画素100の信号線VSLと電気的に接続する代わりに、検出用配線(第2の配線)510と電気的に接続している。さらに、当該カラム信号処理部500bと電気的に接続された検出用配線510は、所定の数(例えば、数100から数1000程度)の信号線VSLと、電気的に接続されることなく(各信号線VSLと絶縁された状態で)、交差するように設けられている。なお、本実施形態においては、1つの検出用配線510と電気的に接続するカラム信号処理部500bと、当該検出用配線510と交差する所定の数の信号線VSLに電気的に接続された、所定の数のカラム信号処理部500aとを、検出用ユニット52と呼ぶ。図4Aでは、検出用ユニット52においては、複数のカラム信号処理部500aの一方の側にカラム信号処理部500bが設けられているが、本実施形態においては、これに限定されるものではない。例えば、本実施形態においては、複数のカラム信号処理部500aを両側から挟み込みようにして、複数のカラム信号処理部500bが設けられていてもよい。なお、本実施形態に係る検出用ユニット52の詳細については、後述する。
 (水平駆動回路領域60)
 水平駆動回路領域60は、例えばシフトレジスタによって形成され、水平走査パルスを順次出力することによって、上述したカラム信号処理部500aの各々を順番に選択し、カラム信号処理部500aの各々から出力信号を水平信号線200に出力させることができる。
 (出力回路部70)
 出力回路部70は、上述したカラム信号処理部500aの各々から水平信号線200を通して順次に供給される出力信号に対し、信号処理を行い出力することができる。出力回路部70は、例えば、バッファリング(buffering)を行う機能部として機能してもよく、もしくは、各種の補正処理を行ってもよい。なお、バッファリングとは、信号のやり取りの際に、処理速度や転送速度の差を補うために、一時的に信号を保存することをいう。
 また、出力回路部70は、後述するカラム信号処理部500b(第2の検出部)によって得られた信号(信号量)に基づき、ストリーキング量を推定し、推定した当該ストリーキング量を用いて、カラム信号処理部500aによって得られた信号を補正する補正処理部を有していてもよい。
 なお、本実施形態に係るイメージセンサ10のレイアウト構成例は、図4Aに示される例に限定されるものではなく、例えば、他の回路部等を含んでもよく、特に限定されるものではない。
 <2.2  検出用ユニット52の詳細構成>
 以上、本実施形態に係るイメージセンサ10の概略を説明した。次に、図5及び図6を参照して、本実施形態に係る検出用ユニット52の詳細構成について説明する。図5は、本実施形態に係る検出用ユニット52の詳細構成の一例を示す説明図であり、図6は、本実施形態に係る検出用ユニット52における読み出し方法を説明するための説明図である。
 図5に示すように、本実施形態に係る検出用ユニット52には、先に説明したように、図中の上下方向(列方向、第1の方向)に延伸する、k個の信号線(第1の配線)VSL-1、VSL-1、・・・、VSL-kと電気的に接続するk個のカラム信号処理部500a-1、500a-2、・・・、500a-kが設けられている(kは、任意の自然数)。また、各信号線VSL-1、VSL-1、・・・、VSL-kには、それぞれ、定電流源として機能する負荷素子400が電気的に接続されている。
 さらに、本実施形態においては、先に説明したように、複数のカラム信号処理部500a-1、500a-2、・・・、500a-kと隣り合うように、カラム信号処理部500bが設けられている。カラム信号処理部(第2の検出部)500bは、上述したカラム信号処理部500aと同様に、入力される信号(第2の信号)に対して、AD変換等の信号処理を行う。例えば、カラム信号処理部500bは、カラム信号処理部500aと同一の回路構成を持つ。しかしながら、カラム信号処理部500bは、他のカラム信号処理部500aとは異なり、信号線VSLに電気的に接続されていない。代わりに、カラム信号処理部500bは、検出用配線510に電気的に接続されている。当該検出用配線510は、例えば、信号線VSLが延伸する方向と直交する方向、すなわち、図中の左右方向(行方向、第2の方向)に延伸し、各信号線VSL-1、VSL-1、・・・、VSL-kと電気的に接続されることなく、交差する。さらに、検出用配線510は、信号線VSL-1、VSL-1、・・・、VSL-kのそれぞれと容量性カップリングし、各カップリング容量(第1のカップリング容量)520-1、520-2、・・・、520-kを形成する。また、カラム信号処理部500b及び検出用配線510は、スイッチ512を介して電源VDD又はバイアス回路(図示省略)に電気的に接続されている。
 本実施形態においては、検出用配線510は、信号線VSL-1、VSL-1、・・・、VSL-kのそれぞれと容量性カップリングすることから、各信号線VSL-1、VSL-1、・・・、VSL-k上に現れる画素100からの画素信号によって、検出用配線510の電位が変動することとなる。さらに、カラム信号処理部500bは、検出用配線510の電位を検出することができる。すなわち、本実施形態においては、各信号線VSL-1、VSL-1、・・・、VSL-k上に現れる各画素信号の総和を、カラム信号処理部500bによって検出することができる。そして、本実施形態においては、カラム信号処理部500bによって検出された各信号線VSL-1、VSL-1、・・・、VSL-k上に現れる各画素信号の総和を用いることで、先に説明した方法で、発生したストリーキング量を精度よく算出することができる。
 詳細には、以下のようにして、カラム信号処理部500bから各信号線VSL-1、VSL-1、・・・、VSL-k上に現れる各画素信号の総和を読み出すことができる。
 まず、図6に示すように、水平期間の先頭においてスイッチ512がオンされることにより、検出用配線510の電位は基準電圧Vrstにリセットされる。その後、スイッチ512がオフされることにより、検出用配線510は高インピーダンス状態となる。
 また、画素100側における動作としては、対象となる行の画素100の選択トランジスタTselがオンされる。さらに、当該画素100のリセットトランジスタTrstがオンされることにより、蓄積した電荷がリセットされる。その後、当該画素100の転送トランジスタTtrsがオンされることにより、蓄積された電荷が電圧信号へ変換される。当該電圧信号により、各信号線VSLの電位は、VSLrstからVSLdataへと変化する。なお、カラム信号処理部500aは、VSLrstとVSLdataとの差分電圧である信号振幅VSLsigを出力することとなる。
 さらに、本実施形態においては、各信号線VSL-1、VSL-1、・・・、VSL-k上に現れる電圧信号が、カップリング容量520-1、520-2、・・・、520-kを介して、高インピーダンス状態の検出用配線510の電位を変動させる。その結果、検出用配線510の電位は、VrstからVdataへと変化する。そこで、カラム信号処理部500bは、各信号線VSL-1、VSL-1、・・・、VSL-k上に現れる各画素信号の総和として、VrstとVdataとの差分電圧である信号振幅Vsigを出力することとなる。なお、信号振幅VSLsigと信号振幅Vsigとの関係の詳細については、後述する。
 以上のように、本実施形態においては、検出用配線510は、複数の信号線VSLのそれぞれと容量性カップリングすることから、各信号線VSL上に現れる画素100からの画素信号によって、検出用配線510の電位が変動することとなる。従って、本実施形態によれば、各信号線VSL上に現れる各画素信号の総和を、カラム信号処理部500bによって検出することができる。その結果、本実施形態によれば、上述のHOPB画素を用いることなく、カラム信号処理部500bによって検出された各信号線VSL上に現れる各画素信号の総和を用いることで、発生したストリーキング量を精度よく算出することができる。
 なお、本実施形態においては、例えば、数1000の信号線VSLと交差するように、検出用配線510を設けることが好ましい。従って、1つのイメージセンサ10においては、検出用配線510、及び、当該検出用配線510に電気的に接続されるカラム信号処理部500bは、10個から数10個程度設けられることとなる。また、本実施形態においては、場所依存性のあるストリーキングを検出することができるように、検出用配線510及びカラム信号処理部500bは、イメージセンサ10上に、より多く、均一に分布するように設けられることが好ましい。本実施形態に係る検出用配線510やカラム信号処理部500bは、上述したHOPB領域802に比べて占める面積が小さいことから、イメージセンサ10上に多く設けることが可能である。
 しかしながら、カラム信号処理部500bには、各信号線VSL-1、VSL-1、・・・、VSL-k上に現れる各画素信号の総和が入力されることから、カラム信号処理部500bが飽和する可能性が考えられる。このような場合、先に説明したように、当該カラム信号処理部500bは、飽和したことを示す出力信号を出力することから、実際に入力された各信号線VSL上に現れる各画素信号の総和を正確に知ることができないこととなる。
 そこで、本実施形態においては、飽和を避けるために、カラム信号処理部500bによって検出することが可能な検出上限信号量は、所定の数のカラム信号処理部500aによって検出することが可能な検出上限信号量の総和値に比べて大きくなるようにしている。ここで、所定の数とは、カラム信号処理部500bによって検出対象となる信号線VSLの数のことを言い、適宜設定することができる。詳細には、本実施形態においては、検出用配線510に係るカップリング容量520等の容量値を制御することにより、カラム信号処理部500bの飽和を避けることができる。以下に、本実施形態に係るカップリング容量520等の詳細について説明する。
 <2.3  カップリング容量520等について>
 次に、図7A、図7B及び図8A、図8Bを参照して、本実施形態に係るカップリング容量520等の詳細について説明する。図7Aは、本実施形態に係る検出用ユニット52におけるカップリング容量520、530を説明するための説明図であり、図7Bは、本実施形態の変形例に係る検出用ユニット52aの詳細構成の一例を示す説明図である。また、図8Aは、本実施形態に係る検出用配線510のレイアウトの一例を示す説明図であり、詳細には、検出用配線510の平面図と断面図とが示されている。さらに、図8Bは、本実施形態の変形例に係る検出用配線510aのレイアウトの一例を示す説明図であり、詳細には、検出用配線510aの平面図を示す。
 図7Aに示すように、1つの検出用配線510は、先に説明したように、信号線VSL-1、VSL-1、・・・、VSL-kのそれぞれと容量性カップリングし、各カップリング容量(第1のカップリング容量)520-1、520-2、・・・、520-kを形成する。さらに、検出用配線510は、信号線VSLの他に、電源線、グランド線、バイアス線等の他の配線や半導体基板300等(第3の配線)との間でも容量性カップリングし、各カップリング容量530-1、530-2、・・・、530-kを形成する。
 ここで、各カップリング容量520の容量値(第1の容量値)をCとし、各カップリング容量530の容量値Cの総和をCtbとした場合、検出用配線510に係る合計容量値C(第2のカップリング容量、第2の容量値)は、下記の式(1)で示すことができる。
Figure JPOXMLDOC01-appb-M000001
 さらに、i番目の信号線VSL-iにおける信号振幅VSLsig(i)(VSLrst(i)とVSLdata(i)との差分)とし、検出用配線510の信号振幅Vsig(VrstとVdataとの差分)とすると、両者の関係は、下記の式(2)で示すことができる。
Figure JPOXMLDOC01-appb-M000002
 すなわち、検出用配線510の信号振幅Vsigは、信号線VSLにおける信号振幅VSLsigの総和に比例し、その比例係数は、Ca/Ctとなる。そこで、Ca/Ctを適切に設計することにより、カラム信号処理部500bの飽和を避けることができる。そこで、カラム信号処理部500bの飽和を避けるためには、各カップリング容量520の容量値(第1の容量値)Cを小さくすることが好ましく、各カップリング容量530の容量値Cの総和Ctbを大きくすることが好ましい。例えば、本実施形態においては、各カップリング容量530の容量値Cの総和Ctbを各カップリング容量520の容量値Cに比べて大きくすることが好ましい。
 そこで、本実施形態においては、各カップリング容量530の容量値Cの総和Ctbを調整するために、各信号線VSLに電気的に接続された複数のキャパシタ(図示省略)(例えば、MIM(Metal Insulator Metal)容量やMOS容量等)を設けてもよい。また、本実施形態においては、図7Bに示すカラム信号処理領域50aのように、検出用配線510に電気的に接続された1つのキャパシタ540(例えば、MIM容量やMOS容量等)を設けてもよい。この場合、キャパシタ540の容量値は、例えば、数フェムト程度となる。このように、図7Bのように1つのキャパシタ540を設ける場合には、レイアウトや容量値Ctbの調整の自由度が高くなる。例えば、図7Bのような場合、カラム信号処理部500bのアナログゲインに応じて、容量値の総和Ctbの値をレジスタ設定によって調整するような構成を容易に実現することができる。
 また、カップリング容量520は、検出用配線510と信号線VSLとからなるMIM容量であると考えることができる。例えば、図8Aに示すようなレイアウトであった場合には、各カップリング容量520の容量値(第1の容量値)Cは、検出用配線510と信号線VSLとが重なり合う領域の面積に比例することとなる。詳細には、各カップリング容量520の容量値Cは、検出用配線510の配線幅Wlineと信号線VSLの配線幅WSLとに比例することとなる。そこで、本実施形態においては、検出用配線510の配線幅Wlineと信号線VSLの配線幅WSLを適宜調整することにより、所望の容量値Cを容易に実現することができる。
 また、本実施形態においては、図8Bに示すように、検出用配線510と信号線VSLとが重なり合う領域において、検出用配線510aの配線幅Wlineを広げるように、検出用配線510aの形状を変更してもよい。このように、検出用配線510aの形状を変更することにより、狭いピッチや狭い配線幅で、信号線VSLが配置されている場合であっても、所望の容量値Cを容易に実現することができる。
 以上のように、本実施形態においては、検出用配線510や信号線VSLの配線幅や形状を変更することにより、所望の容量値Cを容易に実現することができる。加えて、キャパシタ540等を設けることにより、所望の容量値Ctbを容易に実現することができる。従って、本実施形態によれば、上記容量値C、Ctbを容易に所望の値にすることができることから、カラム信号処理部500bの飽和を容易に避けることができる。その結果、本実施形態によれば、上述したHOPB画素を用いることなく、ストリーキング量を精度よく検出することができることから、ストリーキング量の補正は可能となり、ひいてはストリーキングを解消することができる。加えて、本実施形態によれば、複数のHOPB画素を有するHOPB領域802を設けないことから、チップ面積の増加や、消費電力の増加を抑えることができる。
 <2.4  カラム信号処理部500bの配置について>
 次に、図4A及び図9を参照して、本実施形態に係るカラム信号処理部500bの配置について説明する。図9は、本実施形態の変形例に係るカラム信号処理領域50aのレイアウトの一例を示す説明図である。
 本実施形態に係るカラム信号処理部500bは、図4Aに示すように、所定の数(例えば、数1000個程度)のカラム信号処理部500aとともに、1つの検出用ユニット52を構成する。すなわち、当該検出用ユニット52は、所定の数の信号線VSLごとに設けられることとなる。従って、本実施形態に係るカラム信号処理領域50においては、所定の数のカラム信号処理部500aと、カラム信号処理部500bとが交互に並ぶように配置されることができる。また、本実施形態においては、カラム信号処理部500bとカラム信号処理部500aとは、同一の回路構成であることから、半導体製造プロセスにより精度よく同一の回路構成を形成するためにも、上述のように並べて配置することが好ましい。
 そして、本実施形態においては、カラム信号処理部500aと同一の回路構成を持つカラム信号処理部500bと、信号線VSLと交差する検出用配線510とは、シンプルな構成を持っている。従って、本実施形態によれば、カラム信号処理部500b及び検出用配線510は、チップ面積を大きく増加させることなく、イメージセンサ10上に、より多く、均一に分布するように設けることができる。その結果、本実施形態によれば、イメージセンサ10上に細かく分布するカラム信号処理部500bが、場所依存性のあるストリーキングであっても検出することができるようになり、ストリーキング量を精度よく補正することが可能となる。
 また、本実施形態においては、カラム信号処理部500bの配置を変形することも可能である。例えば、本実施形態の変形例を示す図9においては、イメージセンサ10のカラム信号処理領域50a内に、複数のカラム信号処理部500bが配列する通常カラム領域(配列領域)54を複数設け、その間に、電源配線用領域58を設けている。当該電源配線用領域58には、電源配線や、制御回路、バッファ回路、バイアス電圧生成回路等のアクセサリ回線等が設けられる。さらに、本変形例においては、カラム信号処理部500bは、通常カラム領域54の図中の左右の端に設けられた追加カラム領域56に設けられている。言い換えると、本変形例においては、複数のカラム信号処理部500bを含む追加カラム領域56は、通常カラム領域54を挟むようにして設けられている。さらに、追加カラム領域56は、上記電源配線用領域58を挟むようにして設けられている。
 一般的に、列状に並んだ複数のカラム信号処理部500を半導体プロセスで製造する際に、製造における位置ずれ等によって列の端に位置するカラム信号処理部500が所望の回路構成にならないことがある。そこで、列の端には、1個又は複数個の、信号線VSLと電気的に接続されていない、不使用のカラム信号処理部(図示省略)(無効カラム)が設けられることが多い。そこで、本変形例においては、不使用のカラム信号処理部の一部又は全部をカラム信号処理部500bに転用する。このようにすることで、本変形例によれば、通常カラム領域54内の複数のカラム信号処理部500aを一様に製造することができ、且つ、特別な追加回路を用いることなく、カラム信号処理部500bも形成することができる。
 以上のように、本実施形態及び本変形例においては、カラム信号処理部500b及び検出用配線510は、シンプルな構成であることから、チップ面積を大きく増加させることなく、イメージセンサ10上に、より多く、均一に分布するように設けることができる。その結果、本実施形態及び本変形例によれば、イメージセンサ10上に細かく分布するカラム信号処理部500bが、場所依存性のあるストリーキングであっても検出することができ、ストリーキング量を精度よく補正することが可能となる。
 なお、上述の説明においては、カラム信号処理部500aとカラム信号処理部500bとは同一の回路構成であるとして説明したが、本実施形態においては、これに限定されるものではない。例えば、カップリング容量520、530、動作点、入力信号レベル等に応じて、構成される回路素子の定数等が異なっていてもよく、このような場合、カラム信号処理部500bは、図4A及び図9に示すような位置に設けられていなくてもよい。
 <<3.まとめ>>
 以上のように、本開示の実施形態によれば、ストリーキングを解消することが可能な、新たなイメージセンサ(固体撮像装置)10を提供することができる。
 詳細には、本開示の実施形態によれば、複数の信号線VSLのそれぞれと容量性カップリングする検出用配線510と、当該検出用配線510と電気的に接続するカラム信号処理部500bを用いることにより、各信号線VSL上に現れる各画素信号の総和を検出することができる。そして、本実施形態によれば、上述のHOPB画素を用いることなく、カラム信号処理部500bによって検出された各信号線VSL上に現れる各画素信号の総和を用いることで、発生したストリーキング量を精度よく算出することができる。その結果、本実施形態によれば、上述のように算出したストリーキング量を用いて補正を行うことにより、ストリーキングを解消することができる。
 また、本実施形態によれば、複数のHOPB画素を有するHOPB領域802を設けないことから、チップ面積の増加や、消費電力の増加を抑えることができる。
 さらに、本実施形態によれば、検出用配線510や信号線VSLの配線幅や形状を変更することにより、所望の容量値Cを容易に実現することができる。加えて、キャパシタ540等を設けることにより、所望の容量値Ctbを容易に実現することができる。従って、本実施形態によれば、上記容量値C、Ctbを容易に所望の値にすることができることから、カラム信号処理部500bの飽和を容易に避けることができる。
 加えて、本実施形態においては、カラム信号処理部500b及び検出用配線510は、シンプルな構成であることから、チップ面積を大きく増加させることなく、イメージセンサ10上に、より多く、均一に分布するように設けることができる。その結果、本実施形態によれば、イメージセンサ10上に細かく分布するカラム信号処理部500b及び検出用配線510が、場所依存性のあるストリーキングであっても検出することができるようになることから、ストリーキング量を精度よく補正することが可能となる。
 なお、上述の本開示の実施形態においては、信号線VSLの延伸する方向等については、図中の上下方向(列方向)に限定されるものではなく、例えば、図中の左右方向(行方向)であってもよい。この場合、信号線VSLの配置等に伴って、カラム信号処理部500等の配置も変更されることとなる。
 <<4. 電子機器への適用例>>
 上述した本開示の実施形態に係るイメージセンサ(固体撮像装置)10は、デジタルスチルカメラやビデオカメラ等の撮像装置や、撮像機能を有する携帯端末装置や、画像読取部にイメージセンサを用いる複写機等、画像取込部にイメージセンサを用いる電子機器全般に対して適用可能である。さらに、本開示の実施形態は、上述の撮像装置を含むロボット、ドローン、自動車、医療機器(内視鏡)等にも適用可能である。なお、本実施形態に係るイメージセンサ10は、ワンチップとして形成された形態であってもよく、撮像部と信号処理部又は光学系とが1つにパッケージングされた撮像機能を有するモジュールの形態であってもよい。
 まずは、本実施形態に係るイメージセンサ10を有する撮像装置702を含む電子機器700の一例を、図10を参照して説明する。図10は、本開示の実施形態に係るイメージセンサ10を有する撮像装置702を含む電子機器700の一例を示す説明図である。
 図10に示すように、電子機器700は、撮像装置702、光学レンズ710、シャッタ機構712、駆動回路ユニット714、及び、信号処理回路ユニット716を有する。光学レンズ710は、被写体からの像光(入射光)を撮像装置702の撮像面上に結像させる。これにより、撮像装置702のイメージセンサ10内に、一定期間、信号電荷が蓄積される。シャッタ機構712は、開閉することにより、撮像装置702への光照射期間及び遮光期間を制御する。駆動回路ユニット714は、撮像装置702の信号の転送動作やシャッタ機構712のシャッタ動作等を制御する駆動信号をこれらに供給する。すなわち、撮像装置702は、駆動回路ユニット714から供給される駆動信号(タイミング信号)に基づいて信号転送を行うこととなる。信号処理回路ユニット716は、各種の信号処理を行う。例えば、信号処理回路ユニット716は、信号処理を行った映像信号を例えばメモリ等の記憶媒体(図示省略)に出力したり、表示部(図示省略)に出力したりする。
 さらに、本実施形態に係るイメージセンサ10は、可視光の入射光量の分布を検出して画像として撮像するイメージセンサに限定されるものではない。例えば、本実施形態は、赤外線やX線、あるいは粒子等の入射量の分布を画像として撮像するイメージセンサや、圧力や静電容量など、他の物理量の分布を検出して画像として撮像する指紋検出センサ等のイメージセンサ(物理量分布検出装置)に対して適用することができる。
 また、本実施形態に係るイメージセンサ10は、例えば、“自動車や、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、人工衛星、探査機などの、任意の移動体において利用される画像センサ”、“工場や物流システムなどで利用される産業用画像センサ”、“ITS(Intelligent Transport Systems)において利用される画像センサ”、“防犯用画像センサ”など、様々な画像センサに適用することができる。また、本実施形態は、例えば、画像センサを備える上記移動体など、画像センサを備える任意の装置に適用することが可能である。
 以下、本実施形態に係る技術が移動体(例えば、自動車)に適用される場合の一例を説明する。
 図11は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図11に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図11の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図12は、撮像部12031の設置位置の例を示す図である。
 図12では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図12には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本実施形態に係る技術が移動体に適用される場合における車両制御システムの一例について説明した。本実施形態に係る技術は、例えば、上記車両制御システムにおける撮像部12031に適用されうる。なお、上記車両制御システムにおいて本実施形態に係る技術が適用される構成要素が、撮像部12031に限られないことは、言うまでもない。
 <<5.補足>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 基板上の画素領域にマトリックス状に設けられた複数の画素と、
 第1の方向に沿って並ぶ前記複数の画素ごとに共通して設けられる複数の第1の配線と、
 前記複数の第1の配線のそれぞれと容量性カップリングする第2の配線と、
 前記第2の配線に電気的に接続し、前記第2の配線上に現れる第2の信号を検出する第2の検出部と、
 を備える、
 固体撮像装置。
(2)
 前記各第1の配線に電気的に接続し、前記各第1の配線上に現れる第1の信号を検出する複数の第1の検出部をさらに備える、
 上記(1)に記載の固体撮像装置。
(3)
 前記複数の第1の検出部と、前記第2の検出部とは、
 前記基板上の検出部領域に配列するアナログ-デジタル変換器である、
 上記(2)に記載の固体撮像装置。
(4)
 前記複数の第1の検出部と、前記第2の検出部とは、同一の回路構成を有する、
 上記(3)に記載の固体撮像装置。
(5)
 前記第2の配線は、スイッチを介してバイアス回路と電気的に接続する、上記(4)に記載の固体撮像装置。
(6)
 前記第2の検出部によって検出された信号量に基づき、ノイズ量を推定し、推定した当該ノイズ量を用いて、前記複数の第1の検出部によって検出された信号量を補正する処理部をさらに備える、上記(2)~(5)のいずれか1つに記載の固体撮像装置。
(7)
 前記第1の配線と前記第2の配線とが前記容量性カップリングすることによって生じる第1のカップリング容量の第1の容量値は、前記第1の配線と前記第2の配線とが互いに重なりあう領域の面積に比例する、上記(1)~(6)のいずれか1つに記載の固体撮像装置。
(8)
 前記第2の配線に電気的に接続される、第2の容量値を有するキャパシタをさらに備える、上記(7)に記載の固体撮像装置。
(9)
 前記第2の配線は、第3の配線と容量性カップリングして、第2の容量値を有する第2のカップリング容量を生じる、上記(7)に記載の固体撮像装置。
(10)
 前記第2の容量値は、前記第1の容量値に比べて大きい、上記(8)又は(9)に記載の固体撮像装置。
(11)
 前記各第1の配線は、前記第1の方向に沿って前記基板上を延伸し、
 前記第2の配線は、前記第1の方向と直交する第2の方向に沿って前記基板上を延伸する、
 上記(1)~(10)のいずれか1つに記載の固体撮像装置。
(12)
 前記第2の配線及び前記第2の検出部をそれぞれ複数個備え、
 前記各第2の配線は、所定の数の前記第1の配線と容量性カップリングする、
 上記(3)に記載の固体撮像装置。
(13)
 前記検出部領域においては、
 前記所定の数の第1の検出部と、前記第2の検出部とが交互に配置される、
 上記(12)に記載の固体撮像装置。
(14)
 前記第2の配線及び前記第2の検出部をそれぞれ複数個備え、
 前記第2の検出部は、前記複数の第1の検出部が配列する配列領域を挟むように設けられている、
 上記(3)に記載の固体撮像装置。
(15)
 前記画素領域は、前記基板の第1の面上に設けられ、
 前記検出部領域は、前記第1の面とは異なる、当該基板の第2の面上に設けられる、
 上記(3)に記載の固体撮像装置。
(16)
 前記画素領域は、第1の基板上に設けられ、
 前記検出部領域は、前記第1の基板とは異なる、第2の基板上に設けられる、
 上記(3)に記載の固体撮像装置。
(17)
 前記各第1の配線に電気的にそれぞれ接続された複数の負荷素子が前記基板上に配列する負荷素子領域をさらに備える、上記(1)~(16)のいずれか1つに記載の固体撮像装置。
(18)
 基板上の画素領域にマトリックス状に設けられた複数の画素と、
 第1の方向に沿って並ぶ前記複数の画素ごとに共通して設けられる複数の第1の配線と、
 前記複数の第1の配線のそれぞれと容量性カップリングする第2の配線と、
 前記第2の配線に電気的に接続し、前記第2の配線上に現れる第2の信号を検出する第2の検出部と、
 を有する
 固体撮像装置を含む、電子機器。
 10、80  イメージセンサ
 20  画素アレイ領域
 30  垂直駆動回路領域
 40  負荷素子領域
 50、50a、804  カラム信号処理領域
 52、52a  検出用ユニット
 54  通常カラム領域
 56  追加カラム領域
 58  電源配線用領域
 60  水平駆動回路領域
 70  出力回路部
 90  破線
 100  画素
 200  水平信号線
 300  半導体基板
 400  負荷素子
 500a-1、500a-2、500a-k、500b  カラム信号処理部
 502  比較器
 504  アップ/ダウン カウンタ
 506  メモリ
 508  転送スイッチ
 510、510a  検出用配線
 512  スイッチ
 520、520-1、520-2、520-k、530-1、530-2、530-k  カップリング容量
 540  キャパシタ
 600  直線
 602  曲線
 604  レンジ
 700  電子機器
 702  撮像装置
 710  光学レンズ
 712  シャッタ機構
 714  駆動回路ユニット
 716  信号処理回路ユニット
 800  通常画素領域
 802  HOPB領域
 900  入力画像
 902  出力画像
 12000  車両制御システム
 12001  通信ネットワーク
 12010  駆動系制御ユニット
 12020  ボディ系制御ユニット
 12030  車外情報検出ユニット
 12031、12101、12102、12103、12104、12105  撮像部
 12040  車内情報検出ユニット
 12041  運転者状態検出部
 12050  統合制御ユニット12050
 12051  マイクロコンピュータ
 12052  音声画像出力部
 12053  車載ネットワークI/F(Interface)
 12061  オーディオスピーカ
 12062  表示部
 12063  インストルメントパネル
 12100  車両
 12111、12112、12113、12114  撮像範囲

Claims (18)

  1.  基板上の画素領域にマトリックス状に設けられた複数の画素と、
     第1の方向に沿って並ぶ前記複数の画素ごとに共通して設けられる複数の第1の配線と、
     前記複数の第1の配線のそれぞれと容量性カップリングする第2の配線と、
     前記第2の配線に電気的に接続し、前記第2の配線上に現れる第2の信号を検出する第2の検出部と、
     を備える、
     固体撮像装置。
  2.  前記各第1の配線に電気的に接続し、前記各第1の配線上に現れる第1の信号を検出する複数の第1の検出部をさらに備える、
     請求項1に記載の固体撮像装置。
  3.  前記複数の第1の検出部と、前記第2の検出部とは、
     前記基板上の検出部領域に配列するアナログ-デジタル変換器である、
     請求項2に記載の固体撮像装置。
  4.  前記複数の第1の検出部と、前記第2の検出部とは、同一の回路構成を有する、
     請求項3に記載の固体撮像装置。
  5.  前記第2の配線は、スイッチを介してバイアス回路と電気的に接続する、請求項4に記載の固体撮像装置。
  6.  前記第2の検出部によって検出された信号量に基づき、ノイズ量を推定し、推定した当該ノイズ量を用いて、前記複数の第1の検出部によって検出された信号量を補正する処理部をさらに備える、請求項2に記載の固体撮像装置。
  7.  前記第1の配線と前記第2の配線とが前記容量性カップリングすることによって生じる第1のカップリング容量の第1の容量値は、前記第1の配線と前記第2の配線とが互いに重なりあう領域の面積に比例する、請求項1に記載の固体撮像装置。
  8.  前記第2の配線に電気的に接続される、第2の容量値を有するキャパシタをさらに備える、請求項7に記載の固体撮像装置。
  9.  前記第2の配線は、第3の配線と容量性カップリングして、第2の容量値を有する第2のカップリング容量を生じる、請求項7に記載の固体撮像装置。
  10.  前記第2の容量値は、前記第1の容量値に比べて大きい、請求項8に記載の固体撮像装置。
  11.  前記各第1の配線は、前記第1の方向に沿って前記基板上を延伸し、
     前記第2の配線は、前記第1の方向と直交する第2の方向に沿って前記基板上を延伸する、
     請求項1に記載の固体撮像装置。
  12.  前記第2の配線及び前記第2の検出部をそれぞれ複数個備え、
     前記各第2の配線は、所定の数の前記第1の配線と容量性カップリングする、
     請求項3に記載の固体撮像装置。
  13.  前記検出部領域においては、
     前記所定の数の第1の検出部と、前記第2の検出部とが交互に配置される、
     請求項12に記載の固体撮像装置。
  14.  前記第2の配線及び前記第2の検出部をそれぞれ複数個備え、
     前記第2の検出部は、前記複数の第1の検出部が配列する配列領域を挟むように設けられている、
     請求項3に記載の固体撮像装置。
  15.  前記画素領域は、前記基板の第1の面上に設けられ、
     前記検出部領域は、前記第1の面とは異なる、当該基板の第2の面上に設けられる、
     請求項3に記載の固体撮像装置。
  16.  前記画素領域は、第1の基板上に設けられ、
     前記検出部領域は、前記第1の基板とは異なる、第2の基板上に設けられる、
     請求項3に記載の固体撮像装置。
  17.  前記各第1の配線に電気的にそれぞれ接続された複数の負荷素子が前記基板上に配列する負荷素子領域をさらに備える、請求項1に記載の固体撮像装置。
  18.  基板上の画素領域にマトリックス状に設けられた複数の画素と、
     第1の方向に沿って並ぶ前記複数の画素ごとに共通して設けられる複数の第1の配線と、
     前記複数の第1の配線のそれぞれと容量性カップリングする第2の配線と、
     前記第2の配線に電気的に接続し、前記第2の配線上に現れる第2の信号を検出する第2の検出部と、
     を有する固体撮像装置を含む、電子機器。
PCT/JP2019/012639 2018-06-12 2019-03-26 固体撮像装置及び電子機器 WO2019239675A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/972,172 US11310449B2 (en) 2018-06-12 2019-03-26 Solid-state imaging device and electronic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-111778 2018-06-12
JP2018111778A JP2019216331A (ja) 2018-06-12 2018-06-12 固体撮像装置及び電子機器

Publications (1)

Publication Number Publication Date
WO2019239675A1 true WO2019239675A1 (ja) 2019-12-19

Family

ID=68842012

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/012639 WO2019239675A1 (ja) 2018-06-12 2019-03-26 固体撮像装置及び電子機器

Country Status (3)

Country Link
US (1) US11310449B2 (ja)
JP (1) JP2019216331A (ja)
WO (1) WO2019239675A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012191379A (ja) * 2011-03-10 2012-10-04 Nikon Corp 撮像装置
JP2016039463A (ja) * 2014-08-06 2016-03-22 キヤノン株式会社 放射線撮像装置及び放射線撮像システム
JP2016201665A (ja) * 2015-04-09 2016-12-01 キヤノン株式会社 放射線撮像装置および放射線撮像システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7787036B2 (en) * 2006-09-07 2010-08-31 Canon Kabushiki Kaisha Imaging apparatus configured to correct noise
JP5108713B2 (ja) * 2008-10-10 2012-12-26 パナソニック株式会社 固体撮像装置及び撮像装置
JP6037170B2 (ja) 2013-04-16 2016-11-30 ソニー株式会社 固体撮像装置およびその信号処理方法、並びに電子機器
JP2015119154A (ja) * 2013-12-20 2015-06-25 ソニー株式会社 固体撮像素子、固体撮像素子の製造方法、及び電子機器
US9804719B2 (en) * 2014-10-23 2017-10-31 Semiconductor Energy Laboratory Co., Ltd. Electronic device
JP6674838B2 (ja) * 2015-05-21 2020-04-01 株式会社半導体エネルギー研究所 電子装置
KR102505695B1 (ko) * 2016-03-18 2023-03-02 가부시키가이샤 한도오따이 에네루기 켄큐쇼 반도체 장치 및 이를 사용한 시스템
US9934826B2 (en) * 2016-04-14 2018-04-03 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device
TW202117694A (zh) * 2019-09-27 2021-05-01 日商半導體能源研究所股份有限公司 顯示裝置、識別方法及程式

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012191379A (ja) * 2011-03-10 2012-10-04 Nikon Corp 撮像装置
JP2016039463A (ja) * 2014-08-06 2016-03-22 キヤノン株式会社 放射線撮像装置及び放射線撮像システム
JP2016201665A (ja) * 2015-04-09 2016-12-01 キヤノン株式会社 放射線撮像装置および放射線撮像システム

Also Published As

Publication number Publication date
US20210243392A1 (en) 2021-08-05
US11310449B2 (en) 2022-04-19
JP2019216331A (ja) 2019-12-19

Similar Documents

Publication Publication Date Title
CN110537366B (zh) 固态摄像装置
JP7029890B2 (ja) 撮像素子、撮像素子の制御方法、及び、電子機器
US11770629B2 (en) Solid-state imaging element and imaging device
JP2019057873A (ja) 固体撮像素子及び電子機器
WO2018190126A1 (ja) 固体撮像装置、及び電子機器
JP7331180B2 (ja) 撮像素子及び電子機器
US11284024B2 (en) Solid-state imaging device, driving method, and electronic device
JP7316262B2 (ja) 固体撮像装置
CN115604558B (zh) 传感器元件和电子器件
WO2019239887A1 (ja) 撮像素子、制御方法、および電子機器
WO2018139187A1 (ja) 固体撮像装置およびその駆動方法、並びに電子機器
KR20220089698A (ko) 센싱 디바이스, 전자 기기 및 센싱 디바이스의 제어 방법
US11330212B2 (en) Imaging device and diagnosis method
US20240064437A1 (en) Solid-state imaging element, imaging device, and method for controlling solid-state imaging element
WO2019239675A1 (ja) 固体撮像装置及び電子機器
WO2021251041A1 (ja) 固体撮像素子
US20230217135A1 (en) Imaging device
WO2023218774A1 (ja) 撮像素子および電子機器
US20240089637A1 (en) Imaging apparatus
WO2022050035A1 (ja) 固体撮像装置
US20240064430A1 (en) Imaging device and electronic apparatus
WO2021157263A1 (ja) 撮像装置及び電子機器
US20230232128A1 (en) Photodetection device and electronic apparatus
WO2023186527A1 (en) Image sensor assembly with converter circuit for temporal noise reduction

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19818782

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19818782

Country of ref document: EP

Kind code of ref document: A1