WO2023105921A1 - イメージセンサ装置、機器及びイメージセンサ装置の製造方法 - Google Patents

イメージセンサ装置、機器及びイメージセンサ装置の製造方法 Download PDF

Info

Publication number
WO2023105921A1
WO2023105921A1 PCT/JP2022/038249 JP2022038249W WO2023105921A1 WO 2023105921 A1 WO2023105921 A1 WO 2023105921A1 JP 2022038249 W JP2022038249 W JP 2022038249W WO 2023105921 A1 WO2023105921 A1 WO 2023105921A1
Authority
WO
WIPO (PCT)
Prior art keywords
substrate
image sensor
sensor device
bolt insertion
pixel
Prior art date
Application number
PCT/JP2022/038249
Other languages
English (en)
French (fr)
Inventor
優美 鈴木
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023105921A1 publication Critical patent/WO2023105921A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/024Details of scanning heads ; Means for illuminating the original
    • H04N1/028Details of scanning heads ; Means for illuminating the original for picture information pick-up

Definitions

  • this technology relates to an image sensor device, equipment, and a method for manufacturing an image sensor device.
  • Patent Document 1 Japanese Patent Document 1
  • the main purpose of the present technology is to provide an image sensor device capable of reducing the risk of component damage and/or contamination during manufacturing.
  • This technology consists of a substrate, a plurality of sensor units arranged side by side in at least one axial direction on the substrate; with each of the plurality of sensor units, a pixel chip having a plurality of pixels; a translucent cover that covers the pixel chip;
  • An image sensor device comprising: The plurality of sensor units may be arranged in the uniaxial direction. A longitudinal direction of each of the substrate and the plurality of sensor units may substantially coincide with the one axial direction.
  • the light-transmitting cover may be plate-shaped, and each of the plurality of sensor units may further include a spacer arranged between the pixel chip and the light-transmitting cover.
  • Each of the plurality of sensor units may further include a mounting substrate on which the pixel chips are mounted.
  • the pixel chip may protrude to at least one side in the uniaxial direction with respect to the mounting substrate.
  • the pixel chip may protrude to the at least one side with respect to the mounting substrate by at least an amount corresponding to a difference between a coefficient of linear expansion of the pixel chip and a coefficient of linear expansion of the mounting substrate.
  • a positioning structure may be provided for positioning the substrate and each of the plurality of sensor units.
  • the positioning structure includes a pin and first bolt insertion hole provided in one of the substrate and the mounting substrate, a pin insertion hole provided in the other of the substrate and the mounting substrate and into which the pin is inserted, and the other.
  • a second bolt insertion hole provided at a position corresponding to the first bolt insertion hole, a bolt inserted through the first and second bolt insertion holes, and a nut screwed onto the bolt.
  • the pin insertion hole is a round hole into which the pin is inserted, and the first and second bolt insertion holes are elongated holes with lengths in the lateral direction greater than the diameter of the threaded portion of the bolt. good too.
  • a plurality of sets of the first and second bolt insertion holes are provided, a plurality of the bolts are provided corresponding to the plurality of sets, the positioning structure has at least one of the plurality of bolts inserted therethrough, and the substrate and the At least one spacer disposed between the mounting substrates may be included.
  • the positioning structures are provided at positions corresponding to the plurality of first bolt insertion holes provided in one of the substrate and the mounting substrate and at positions corresponding to the plurality of first bolt insertion holes provided in the other of the substrate and the mounting substrate.
  • a plurality of second bolt insertion holes provided, a plurality of bolts respectively inserted into the plurality of sets of corresponding first and second bolt insertion holes, a plurality of nuts screwed onto each of the plurality of bolts; may contain
  • the first and second bolt insertion holes may be elongated holes having a length in the lateral direction greater than the diameter of the threaded portion of the bolt.
  • At least three sets of the first and second bolt insertion holes are provided, at least three bolts corresponding to the at least three sets of bolts are provided, and at least one of the at least three bolts is inserted through the positioning structure.
  • at least one spacer disposed between the substrate and the mounting substrate.
  • the pixel chip and the mounting substrate may be electrically connected by wire bonding.
  • the pixel chip has a pixel substrate provided with a pixel region including the plurality of pixels, and the pixel substrate includes electrode pads provided on a side opposite to the mounting substrate side of the pixel substrate and the mounting substrate.
  • a through electrode may be provided for electrically connecting to the substrate.
  • Each of the plurality of sensor units may be a sensor unit for imaging.
  • Each of the plurality of sensor units may be a sensor unit for distance measurement.
  • the plurality of sensor units may include a sensor unit for imaging and a sensor unit for distance measurement.
  • the present technology also provides an apparatus comprising the image sensor device.
  • the present technology includes a step of generating a plurality of sensor units each including a pixel chip and a translucent cover covering the pixel chip, and a step of mounting the plurality of sensor units on a substrate in at least one axial direction.
  • a method of manufacturing a sensor device is also provided. In the mounting step, the sensor units may be fixed to the substrate after the position of each sensor unit is adjusted with respect to the substrate.
  • FIG. 1 is a plan view of an image sensor device according to an embodiment of the present technology
  • FIG. FIG. 2 is a cross-sectional view taken along the line AA of FIG. 1
  • 1 is a bottom view of an image sensor device according to one embodiment
  • FIG. FIG. 2 is a cross-sectional view taken along line BB of FIG. 1
  • FIG. 2 is a sectional view taken along line CC of FIG. 1
  • FIG. 2 is a cross-sectional view taken along line DD of FIG. 1
  • 2A and 2B are a plan view and a partially enlarged view of a sensor unit
  • FIG. FIG. 3 is a sectional view corresponding to FIG. 2 of the sensor unit
  • FIG. 5 is a sectional view corresponding to FIG. 4 of the sensor unit
  • FIG. 3 is a sectional view corresponding to FIG. 2 of the sensor unit
  • FIG. 5 is a sectional view corresponding to FIG. 4 of the sensor unit
  • FIG. 3 is a sectional view corresponding to FIG
  • FIG. 6 is a sectional view corresponding to FIG. 5 of the sensor unit;
  • FIG. 7 is a sectional view corresponding to FIG. 6 of the sensor unit; It is a bottom view of a sensor unit. It is a top view of a board
  • FIG. 14 is a cross-sectional view taken along line EE of FIG. 13;
  • 4 is a flow chart for explaining a method for manufacturing an image sensor device according to an embodiment of the present technology; 4 is a flowchart for explaining a sensor unit generation process; 4 is a flowchart for explaining a sensor unit mounting process;
  • 18A to 18E are cross-sectional views for each process of the sensor unit production process.
  • 19A to 19D are cross-sectional views for each process of the sensor unit production process.
  • 20A to 20C are cross-sectional views for each process of the sensor unit mounting process.
  • 21A to 21C are cross-sectional views for each process of the sensor unit mounting process.
  • 22A to 22C are cross-sectional views for each process of the sensor unit mounting process.
  • 23A is a plan view of a sensor unit of an image sensor device according to Modification 1 of the present technology;
  • FIG. 23B is a plan view of the substrate of the image sensor device according to Modification 1 of the present technology;
  • FIG. It is a top view of a sensor unit of an image sensor device concerning modification 2 of this art.
  • 25A is a plan view of a sensor unit of an image sensor device according to Modification 3 of the present technology;
  • 25B is a cross-sectional view (part 1) taken along line FF of FIG. 25A.
  • FIG. 25C is a cross-sectional view (part 2) taken along line FF of FIG. 25A.
  • 26A is a plan view of a sensor unit of an image sensor device according to Modification 4 of the present technology;
  • FIG. 26B is a cross-sectional view (part 1) taken along line GG of FIG. 26A.
  • FIG. 26C is a cross-sectional view (part 2) taken along line GG of FIG. 26A.
  • 27A is a plan view of a sensor unit of an image sensor device according to Modification 5 of the present technology;
  • FIG. 27B is a plan view of a substrate of an image sensor device according to Modification 5 of the present technology;
  • FIG. 28A is a plan view of a sensor unit of an image sensor device according to Modification 6 of the present technology
  • FIG. 28B is a plan view of a substrate of an image sensor device according to Modification 6 of the present technology
  • FIG. FIG. 20 is a diagram showing a cross section along the longitudinal direction of an image sensor device according to Modification 7 of the present technology
  • FIG. 20 is a diagram showing a cross section along the lateral direction of an image sensor device according to Modification 7 of the present technology
  • FIG. 20 is a plan view of an image sensor device according to Modification 8 of the present technology
  • FIG. 20 is a plan view of a substrate of an image sensor device according to Modification 8 of the present technology
  • 32 is a partially enlarged view of FIG. 31;
  • FIG. 20 is a plan view of an image sensor device according to Modification 9 of the present technology
  • FIG. 20 is a plan view of a substrate of an image sensor device according to Modification 9 of the present technology
  • It is a figure which shows the usage example of the solid-state imaging device of one embodiment of this technique, and each modification.
  • 1 is a functional block diagram of an example of an electronic device according to the present technology
  • FIG. 1 is a block diagram showing an example of a schematic configuration of a vehicle control system
  • FIG. FIG. 4 is an explanatory diagram showing an example of installation positions of an outside information detection unit and an imaging unit
  • 1 is a diagram showing an example of a schematic configuration of an endoscopic surgery system
  • FIG. 3 is a block diagram showing an example of functional configurations of a camera head and a CCU;
  • a conventional image sensor unit see, for example, Patent Document 1
  • a plurality of sensor substrates provided with sensor chips are accommodated side by side in a case composed of a substrate holder and a frame, and one elongated sensor substrate is placed in the opening of the frame.
  • a transparent substrate is attached and the case is sealed.
  • the image sensor unit it is difficult to handle the long transparent substrate during manufacturing, and there is a high risk of damage to components such as the transparent substrate and sensor chip.
  • the image sensor unit since all the sensor substrates are assembled in the case and the transparent substrate is attached, it takes a long time to seal the case. components are at high risk of contamination.
  • an image sensor device capable of reducing the risk of component damage and/or contamination during manufacturing.
  • FIG. 1 is a plan view of an image sensor device 1 according to an embodiment of the present technology.
  • FIG. 2 is a cross-sectional view taken along line AA of FIG.
  • FIG. 3 is a bottom view of the image sensor device 1 according to one embodiment.
  • 4 is a cross-sectional view taken along line BB of FIG. 1.
  • FIG. 5 is a sectional view taken along line CC of FIG.
  • FIG. 6 is a cross-sectional view taken along line DD of FIG.
  • FIG. 7 is a plan view and a partially enlarged view of the sensor unit.
  • the XYZ three-dimensional orthogonal coordinate system shown in FIG. 1 and the like will be used as appropriate.
  • An image sensor device 1 is, as an example, a linear image sensor.
  • the image sensor device 1 as a linear image sensor scans an object irradiated with light (including natural light and artificial light) by being relatively moved, for example, in a direction orthogonal to the longitudinal direction.
  • image data two-dimensional image information, three-dimensional image information, etc.
  • sensing data distance measurement information, shape information, etc.
  • the image sensor device 1 includes a substrate 300 and a plurality of (for example, three) sensor units arranged side by side in at least the X-axis direction (uniaxial direction) on the substrate 300. 10. As an example, the image sensor device 1 further includes a positioning structure that positions the substrate 300 and each of the plurality of sensor units 10 .
  • the image sensor device 1 configures one linear image sensor by positioning a plurality of sensor units 10 relative to each other on the substrate 300 .
  • each of the substrate 300 and the plurality of sensor units 10 substantially coincides with the X-axis direction.
  • the lateral direction of each sensor unit 10 is the Y-axis direction
  • the direction orthogonal to both the longitudinal direction and the lateral direction of each sensor unit 10 is the Z-axis direction.
  • the substrate 300 has, for example, an insulating layer 300a and internal wiring 300b provided inside the insulating layer 300a (see FIG. 14).
  • the internal wiring 300b is, for example, a multi-layer wiring, but may be a single-layer wiring.
  • a connector 350 electrically connected to a circuit board (for example, a printed wiring board) and peripheral components 370 are provided on the back surface (the surface on the ⁇ Z side) of the substrate 300 (see FIG. 3).
  • Each of the plurality of sensor units 10 includes, as an example, a pixel chip 100 having a plurality of pixels 100a and a plate-shaped translucent cover 101 covering the pixel chip 100, as shown in FIGS.
  • Each of the multiple sensor units 10 further includes a spacer 102 arranged between the pixel chip 100 and the translucent cover 101 .
  • Each of the plurality of sensor units 10 further includes a mounting board 200 on which the pixel chip 100 is mounted, as shown in FIGS.
  • a portion of the sensor unit 10 excluding the mounting substrate 200 is also called a sensor section 50 .
  • the mounting board 200 has, for example, an insulating layer 200a and internal wiring 200b provided inside the insulating layer 200a.
  • the internal wiring 200b is, for example, a multi-layer wiring, but may be a single-layer wiring.
  • a connector 250 electrically connected to the substrate 300 and peripheral components 270 are provided on the back surface (the surface on the ⁇ Z side) of the mounting substrate 200 (see FIG. 12).
  • the pixel chip 100 includes multiple pixels 100a.
  • the plurality of pixels 100a are two-dimensionally arranged along the XY plane (for example, arranged in a matrix in the X-axis direction and the Y-axis direction).
  • the plurality of pixels 100a are arranged in a matrix so that the number of arrangement (number of rows) in the X-axis direction (row direction) is larger than the number of arrangement (number of columns) in the Y-axis direction (column direction).
  • the plurality of pixels 100a are arranged so as to form a rectangular pixel region whose longitudinal direction is the X-axis direction.
  • the planar view shape of the pixel chip 100 is also rectangular.
  • Each pixel 100a has a photoelectric conversion element 100a1, a color filter 100a2 arranged on the photoelectric conversion element 100a1, and a microlens 100a3 arranged on the color filter 100a2.
  • the photoelectric conversion element 100a1 is, for example, a PD (photodiode). More specifically, the photoelectric conversion element is, for example, a PN photodiode, a PIN photodiode, a SPAD (Single Photo Avalanche Photodiode), an APD (avalanche photo Diode), or the like.
  • the pixel chip 100 includes a semiconductor substrate 103 as a pixel substrate provided with a pixel region including a plurality of pixels 100a.
  • a photoelectric conversion element 100 a 1 is provided in the semiconductor substrate 103 .
  • the semiconductor substrate 103 is electrically connected to the mounting substrate 200 with electrode pads for wire bonding provided on the opposite side of the semiconductor substrate 103 from the mounting substrate 200 side (for example, provided on spacers 102 to be described later).
  • a through electrode 104 is provided for connection to the .
  • the through-electrode 104 includes a via penetrating the semiconductor substrate 103 and having one end connected to an electrode pad, and a land provided on the surface of the semiconductor substrate 103 on the mounting substrate 200 side and connected to the other end of the via.
  • the lands are electrically connected to the mounting board 200 via metal bumps (for example, solder balls).
  • a chip means a wafer on which an integrated circuit is mounted and separated into individual pieces.
  • the semiconductor substrate 103 is, for example, a Si substrate, a Ge substrate, a GaAs substrate, an InGaAs substrate, or the like.
  • the semiconductor substrate 103 is provided with a plurality of pixels 100a and a control circuit (analog circuit) that controls each pixel 100a.
  • the control circuit has circuit elements such as transistors. More specifically, the control circuit includes, for example, a plurality of pixel transistors (so-called MOS transistors).
  • MOS transistors a plurality of pixel transistors
  • a plurality of pixel transistors can be composed of, for example, three transistors, a transfer transistor, a reset transistor, and an amplification transistor. In addition, it is also possible to add a selection transistor and configure it with four transistors.
  • a pixel can be configured as one unit pixel.
  • the pixels can also have a shared pixel structure.
  • This pixel-sharing structure is a structure in which a plurality of photodiodes share a floating diffusion that constitutes a transfer transistor and a transistor other than the transfer transistor.
  • the pixel chip 100 protrudes to at least one side (for example, both sides) of the mounting board 200 in the X-axis direction (see FIG. 7). More specifically, the pixel chip 100 has at least a coefficient of linear expansion of the pixel chip 100 (for example, about the same as a coefficient of linear expansion of the semiconductor substrate 103) and a coefficient of linear expansion of the mounting substrate 200 (for example, a coefficient of linear expansion greater than that of the pixel chip 100). It protrudes to at least one side (for example, both sides) in the X-axis direction with respect to the mounting board 200 by an amount d corresponding to the difference from the large coefficient of linear expansion.
  • the amount of protrusion of the pixel chip 100 with respect to the mounting substrate 200 is preferably d or more, but may be less than d.
  • Two adjacent sensor units 10 are positioned in a state in which the adjacent ends (short sides of the rectangle) of the pixel chips 100 in the X-axis direction are butted against each other (see FIGS. 21B and 22B). Thereby, the positional relationship between adjacent pixel chips 100 is maintained in a proper state.
  • the translucent cover 101 transmits visible light and/or invisible light.
  • the translucent cover 101 is made of, for example, a short glass plate or resin plate.
  • the translucent cover 101 is bonded (eg, adhered) to the semiconductor substrate 103 via a frame-shaped (eg, rectangular frame-shaped) spacer 102 surrounding the pixel region.
  • the spacer 102 is made of, for example, an epoxy-based resin, a silicone-based resin, or the like.
  • the spacers 102 may be photospacers or may consist of SU-8 permanent resist.
  • Photospacers, spacers made of SU-8 permanent resist can be produced by photolithographically forming a resist in the desired shape, size and position.
  • the spacer 102 is composed of a single frame-like body, but may be composed of, for example, a plurality of spacers arranged in a frame shape as a whole.
  • the aforementioned electrode pads are provided on the surface of the spacer 102 on the semiconductor substrate 103 side.
  • each sensor unit 10 a sealed internal space is formed by the translucent cover 101, the spacer 102, and the pixel chip 100.
  • Each of the plurality of sensor units 10 may be a sensor unit for imaging.
  • the pixel chip 100 of each sensor unit 10 may be a pixel chip for imaging.
  • the imaging pixel chip 100 preferably has pixels 100a that are highly sensitive to visible light (for example, at least one of red light, green light, and blue light).
  • the translucent cover 101 of the imaging sensor unit preferably transmits at least visible light (for example, at least one of red light, green light, and blue light, preferably only visible light).
  • Each of the plurality of sensor units 10 may be a sensor unit for distance measurement (eg TOF sensor).
  • a rangefinding sensor unit is used in combination with a rangefinding light source (for example, an invisible light source).
  • the pixel chip 100 of each sensor unit 10 may be a pixel chip for distance measurement.
  • the pixel chip 100 for distance measurement preferably has pixels 100a that are highly sensitive to the emission wavelength (for example, infrared region) of the light source for distance measurement.
  • the translucent cover 101 of the sensor unit for distance measurement preferably transmits at least invisible light (preferably only invisible light).
  • the plurality of sensor units 10 may include an imaging sensor unit and a ranging sensor unit.
  • the pixel chip 100 of the sensor unit for imaging may be the pixel chip for imaging.
  • the imaging pixel chip 100 preferably has pixels 100a that are highly sensitive to visible light (for example, at least one of red light, green light, and blue light).
  • the translucent cover 101 of the imaging sensor unit preferably transmits only visible light (for example, at least one of red light, green light, and blue light). Thereby, crosstalk with the sensor unit for distance measurement can be suppressed.
  • the pixel chip 100 of the distance measurement sensor unit is sensitive to the emission wavelength (for example, infrared region) of the distance measurement light source. It is preferable to have pixels 100a with high . It is preferable that the translucent cover 101 of the sensor unit for distance measurement transmits only non-visible light. As a result, crosstalk with the imaging sensor unit can be suppressed.
  • the positioning structure includes pins 400 and first bolt insertion holes 300d provided on the substrate 300, and mounting substrate 200.
  • the pin 400 has one end side ( ⁇ Z side) portion inserted and fixed in a pin insertion hole 300c provided in the substrate 300, and the other end side (+Z side) portion provided in the mounting substrate 200. It is inserted through the pin insertion hole 200c.
  • the positioning structure is laid out so that the pins 400 and bolts 500 are positioned diagonally between the sensor unit 10 and the substrate 300 (see FIG. 1).
  • the pin insertion hole 200c is a circular hole into which the pin 400 is inserted. It is an elongated hole that is larger than its diameter.
  • the mounting substrate 200 is provided with pins and first bolt insertion holes
  • the substrate 300 is provided with pin insertion holes into which the pins are inserted
  • the substrate 300 is provided at positions corresponding to the first bolt insertion holes. may be provided with a second bolt insertion hole.
  • the sensor unit generation process (see FIG. 16) is performed. Details of the sensor unit generation process will be described later.
  • the sensor unit mounting process (see FIG. 17) is performed. The details of the sensor unit mounting process will be described later.
  • the sensor unit generation step (step S1 in FIG. 15) will be described below with reference to the flowchart in FIG. 16 and FIGS. 18A to 19D.
  • a plurality of pixel regions are formed on the wafer. Specifically, first, by photolithography, a plurality of photoelectric conversion elements 100a1 for each pixel region are formed on a wafer serving as a base material of the semiconductor substrate 103 on which each pixel region is formed (see FIG. 18A). Next, a color filter 100a2 and a microlens 100a3 are formed in this order on each photoelectric conversion element 100a1 (see FIG. 18B).
  • spacers 102 are formed. Specifically, a frame-shaped spacer 102 is formed on each semiconductor substrate 103 by photolithography, for example, so as to surround the pixel region (see FIG. 18C).
  • the translucent cover 101 is attached. Specifically, the outer edge of the translucent cover 101 is bonded to the spacers 102 formed on the semiconductor substrates 103 with an adhesive, for example (see FIG. 18D).
  • through holes TH are formed. Specifically, for example, by photolithography, through holes TH are formed at positions corresponding to the electrode pads of the semiconductor substrate 103 (see FIG. 18E).
  • an insulating film IF is formed. Specifically, an insulating film IF made of, for example, SiO 2 is formed in the through hole TH and its peripheral portion.
  • the insulating film IF is opened.
  • the insulating film IF formed at the bottom of the through hole TH is removed by etching to open and expose the electrode pad (see FIG. 19A).
  • a metal film MF is formed. Specifically, first, a barrier layer is formed on the insulating film IF where the electrode pad is exposed. Next, Cu plating is performed using this barrier layer as a seed (see FIG. 19B). As a result, a metal film MF is formed which includes a via having one end connected to the electrode pad and a land connected to the other end of the via.
  • a sealing resin is formed. Specifically, the metal film MF (via) in the through hole TH and the metal film MF (land) on the periphery of the through hole TH are sealed with resin (FIG. 19C). Thereby, the through electrode 104 is completed. As a result, a plurality of sensor units 50 are generated in series.
  • each sensor unit 50 is singulated. Specifically, by dicing, a series of integrated sensor units 50 are separated for each sensor unit 50 .
  • the sensor section 50 is mounted on the mounting board 200.
  • the sensor unit mounting step (step S2 in FIG. 15) will be described below with reference to the flowchart in FIG. 17 and FIGS. 20A to 22C.
  • the plurality (for example, three) of sensor units 10 are referred to as first to third sensor units 10-1 to 10-3, respectively.
  • the first sensor unit 10-1 is placed on the substrate 300 (see FIG. 20A). Specifically, the first sensor unit 10-1 is placed on one end in the longitudinal direction of the substrate 300 so that the pin 400 is inserted into the pin insertion hole 200c, and the connector 250 of the first sensor unit 10-1 is , is placed so as to be connected to a connector connecting portion provided on the substrate 300 .
  • the position of the first sensor unit 10-1 is adjusted (see FIGS. 20B and 20C). Specifically, first, the bolt 500 is inserted through the first bolt insertion hole 300d of the substrate 300 and the second bolt insertion hole 200d of the first sensor unit 10-1, and the nut 600 is screwed onto the bolt 500 to temporarily Tighten. Next, the position of the first sensor unit 10-1 with respect to the substrate 300 is adjusted by rotating the pin 400 as an axis. Position adjustment of the first sensor unit 10-1 may be relatively rough.
  • step S2-3 the first sensor unit 10-1 is fixed to the substrate 300. Specifically, while maintaining the state after the position adjustment in step S2-2, the nut 600 screwed onto the bolt 500 is tightened for final tightening.
  • the second sensor unit 10-2 is placed on the substrate 300 (see FIG. 21A). Specifically, the second sensor unit 10-2 is placed on the middle portion of the substrate 300 in the longitudinal direction so that the pin 400 is inserted into the pin insertion hole 200c, and the connector 250 of the second sensor unit 10-2 is , is placed so as to be connected to a connector connecting portion provided on the substrate 300 .
  • the position of the second sensor unit 10-2 is adjusted (see FIGS. 21B and 21C). Specifically, first, the bolt 500 is inserted through the first bolt insertion hole 300d of the substrate 300 and the second bolt insertion hole 200d of the second sensor unit 10-2, and the nut 600 is screwed onto the bolt 500 to temporarily Tighten. Next, the position of the second sensor unit 10-2 with respect to the substrate 300 is adjusted by rotating the pin 400 as an axis. At this time, the position of the second sensor unit 100-2 is adjusted so that the end face of the pixel chip 100 of the second sensor unit 10-2 hits the end face of the pixel chip 100 of the first sensor unit 10-1 (FIG. 21B). (Refer to the partial enlarged view of ).
  • step S2-6 the second sensor unit 10-2 is fixed to the substrate 300. Specifically, while maintaining the state after the position adjustment in step S2-5, the nut 600 screwed onto the bolt 500 is tightened for final tightening.
  • the third sensor unit 10-3 is placed on the substrate 300 (see FIG. 22A). Specifically, the third sensor unit 10-3 is placed on the other longitudinal end of the substrate 300 so that the pin 400 is inserted into the pin insertion hole 200c, and the connector 250 of the third sensor unit 10-3 is mounted. is placed so as to be connected to a connector connecting portion provided on the substrate 300 .
  • the position of the third sensor unit 10-3 is adjusted (see FIGS. 22B and 22C). Specifically, first, the bolt 500 is inserted through the first bolt insertion hole 300d of the substrate 300 and the second bolt insertion hole 200d of the third sensor unit 10-3, and the nut 600 is screwed onto the bolt 500 to temporarily Tighten. Next, the position of the third sensor unit 10-3 with respect to the substrate 300 is adjusted by rotating the pin 400 as an axis. At this time, the position of the third sensor unit 100-3 is adjusted so that the end face of the pixel chip 100 of the third sensor unit 10-3 hits the end face of the pixel chip 100 of the second sensor unit 10-2 (FIG. 22B). (Refer to the partial enlarged view of ).
  • step S2-9 the third sensor unit 10-3 is fixed to the board 300. Specifically, while maintaining the state after the position adjustment in step S2-8, the nut 600 screwed onto the bolt 500 is tightened for final tightening.
  • the image sensor device 1 in which the positional relationship between the sensor units 10 is optimized is manufactured.
  • an image sensor device 1 includes a substrate 300, and a plurality of sensor units 10 arranged side by side in at least one axial direction (for example, the X-axis direction) on the substrate 300,
  • Each of the multiple sensor units 10 includes a pixel chip 100 having multiple pixels 100 a and a translucent cover 101 covering the pixel chip 100 .
  • the translucent cover 101 is provided for each pixel chip 100, it is possible to provide an image sensor device capable of reducing the risk of component damage and/or contamination during manufacturing. be able to.
  • a plurality of sensor units 10 may be arranged in one axial direction (for example, the X-axis direction). Further, the substrate 300 and each of the plurality of sensor units 10 have longitudinal directions substantially aligned with one axial direction (X-axis direction). Thereby, the image sensor device 1 can constitute a linear image sensor.
  • the translucent cover 101 is plate-shaped, and each of the plurality of sensor units 10 may further include a spacer 102 arranged between the pixel chip 100 and the translucent cover 101 . This makes it possible to easily form an internal space for each pixel chip 100 using the plate-like translucent cover 101 .
  • the light-transmitting cover 101 provided for each pixel chip 100 is short, it is possible to suppress peeling of the light-transmitting cover 101 due to a mismatch of the coefficient of linear expansion with the semiconductor substrate 103 and deterioration of image quality due to warpage of the pixel chip 100 .
  • the light-transmitting cover 101 Since the light-transmitting cover 101 is short, there is a low risk of damage to the light-transmitting cover 101 and the pixel chips 100 due to handling by the sensor unit 10 .
  • Each of the multiple sensor units 10 may further include a mounting substrate 200 on which the pixel chip 100 is mounted. This makes it possible to easily mount the sensor unit 10 including the pixel chip 100 on the substrate 300 .
  • the pixel chip 100 protrude from the mounting substrate 200 to at least one side in a uniaxial direction (for example, the X-axis direction).
  • the pixel chip 100 protrudes to at least one side in one axial direction (for example, the X-axis direction) with respect to the mounting substrate 200 by at least an amount corresponding to the difference between the coefficient of linear expansion of the pixel chip 100 and the coefficient of linear expansion of the mounting substrate 200. preferably.
  • a positioning structure for positioning the substrate 300 and each of the plurality of sensor units 10 is preferably provided. This enables positioning adjustment between the sensor units.
  • the positioning structure includes a pin 400 and a first bolt insertion hole provided in one of the substrate 300 and the mounting substrate 200, a pin insertion hole provided in the other of the substrate 300 and the mounting substrate 200 and into which the pin 400 is inserted, and A second bolt insertion hole provided at a position corresponding to the first bolt insertion hole, a bolt 500 inserted through the first and second bolt insertion holes, and a nut 600 screwed onto the bolt 500. may have. Accordingly, the position of each sensor unit 10 can be adjusted around the axis perpendicular to the substrate 300 with a simple configuration.
  • the pin insertion hole is a round hole into which the pin 400 is inserted, and the first and second bolt insertion holes are preferably elongated holes whose length in the lateral direction is larger than the diameter of the screw portion of the bolt. This makes it possible to easily adjust the position of each sensor unit 10 around the axis perpendicular to the substrate 300 .
  • the pixel chip 100 has a semiconductor substrate 103 as a pixel substrate on which a pixel region including a plurality of pixels is provided.
  • a through electrode 104 may be provided for electrically connecting the electrode pad and the mounting substrate 200 .
  • Each of the plurality of sensor units 10 may be a sensor unit 10 for imaging.
  • Each of the plurality of sensor units 10 may be a sensor unit 10 for range finding.
  • the plurality of sensor units 10 may include an imaging sensor unit and a ranging sensor unit.
  • an imaging sensor unit and a ranging sensor unit.
  • a method for manufacturing an image sensor device 1 includes a step of generating a plurality of sensor units 10 each including a pixel chip 100 and a translucent cover 101 covering the pixel chip 100; and mounting them side by side on the substrate 300 in at least one axial direction. Accordingly, since the translucent cover 101 is provided for each pixel chip 100, it is possible to manufacture an image sensor device capable of reducing the risk of damage and/or contamination of components during manufacturing.
  • the sensor units 10 may be fixed to the substrate 300 after the position of each sensor unit 10 is adjusted with respect to the substrate 300 . Thereby, the image sensor device 1 in which the positional relationship between the pixel chips 100 is optimized can be manufactured.
  • the hollow structure can be formed by the wafer process, contamination of the surface of the pixel chip 100 can be suppressed.
  • Patent Document 1 has the following problems (1) to (6).
  • the sensor chip alone is handled in a protruding state, the risk of chip breakage is high.
  • Image sensor devices according to modifications 1 to 9 of the present technology > Image sensor devices according to modified examples 1 to 9 of the present technology will be described below with reference to the drawings. In the description of each modified example, points different from the above embodiment will be mainly described, and members having the same configuration will be denoted by the same reference numerals, and the description thereof will be omitted.
  • the mounting substrate 200A of the sensor unit 10A including the sensor section 50 and the mounting substrate 200A has the second bolt insertion holes instead of the pin insertion holes 200c. 200d, and the board 300A has a first bolt insertion hole 300d instead of the pin insertion hole 300c.
  • the mounting substrate 200A has two second bolt insertion holes 200d diagonally.
  • the substrate 300A has two first bolt insertion holes 300d on the diagonal line of the mounting portion to which each sensor unit 10A is mounted (positions corresponding to the two second bolt insertion holes 200d, respectively).
  • the bolt 500 is inserted through the corresponding first and second bolt insertion holes 300d and 200d, and the nut 600 is screwed onto the screw portion of the bolt 500.
  • the positioning structure includes a plurality of (for example, two) first bolt insertion holes provided in one of the substrate 300A and the mounting substrate 200A, the other of the substrate 300A and the mounting substrate 200A, A plurality of (for example, two) second bolt insertion holes provided at positions corresponding to the plurality of (for example, two) first bolt insertion holes, and a plurality of sets of corresponding first and second bolt insertion holes, respectively. It includes a plurality of (for example, two) bolts 500 to be inserted and a plurality of (two) nuts 600 screwed onto each of the plurality of bolts 500 .
  • each sensor unit 10A is fixed to the substrate 300A at two points, it can be fixed more firmly.
  • Image sensor device according to modification 2 In the image sensor device according to Modified Example 2, as shown in FIG.
  • the electrode pads are electrically connected through bonding wires BW.
  • Image sensor device according to modification 3 In the image sensor device 3 according to Modification 3, as shown in FIGS. 25A to 25C, the mounting substrate 200C of the sensor unit 10C is additionally provided with the second bolt insertion holes 200d, and the substrate 300 is provided with the first bolt insertion holes 300d.
  • the configuration is generally the same as that of the image sensor device according to Modification 1, except that is added.
  • the second bolt insertion holes 200d are provided at three positions that are not on the same straight line on the mounting substrate 200C, and the positions corresponding to the positions of the three second bolt insertion holes 200d are provided on the substrate 300C.
  • Three first bolt insertion holes 300d are provided.
  • the image sensor device 3 has two bolts 500 arranged side by side in the lateral direction of the sensor unit 10C, as shown in FIG. One is inserted through the spacer 700 arranged between the mounting substrate 200C and the substrate 300C, and the other is inserted through the spacer 800 arranged between the mounting substrate 200C and the substrate 300C.
  • the inclination of the sensor unit 10C in the lateral direction and the longitudinal direction with respect to the substrate 300C can be adjusted to desired inclinations.
  • the image sensor device 3 may have spacers 700 and not have spacers 800, as shown in FIG.
  • the thickness of the spacer 700 can adjust the inclination of the sensor unit 10C in the lateral direction and the longitudinal direction with respect to the substrate 300C.
  • another bolt 500 of the sensor unit 10C may be inserted through a spacer arranged between the mounting board 200C and the board 300C.
  • the bolts 500 are at least corresponding to the at least three sets (for example, three sets).
  • the positioning structure includes a spacer through which each of at least three (eg, three) bolts 500 is inserted and positioned between the substrate 300C and the mounting substrate 200C.
  • FIGS. 26A to 26C Two second sensors are arranged at two positions out of three positions that are not on the same straight line on the mounting substrate 200D of the sensor unit 10D.
  • a bolt insertion hole 200d is provided
  • a pin insertion hole 200c is provided at one position
  • two first bolt insertion holes 300d are provided at positions corresponding to the two second bolt insertion holes 200d of the board 300D.
  • a pin insertion hole 300c into which the pin 400 is inserted and fixed is provided at a position corresponding to the pin insertion hole 200c of the substrate 300D.
  • the image sensor device 4 includes bolts 500 and pins 400 arranged side by side in the lateral direction of the sensor unit 10D, as shown in FIG. Among them, the bolt 500 is inserted through the spacer 700 arranged between the mounting substrate 200D and the substrate 300D, and the pin 400 is inserted through the spacer 800 arranged between the mounting substrate 200D and the substrate 300D. In this case, depending on the thickness of the spacers 700 and 800, the inclination of the sensor unit 10D in the lateral direction and the longitudinal direction with respect to the substrate 300D can be adjusted to desired inclinations.
  • the image sensor device 4 may have spacers 700 and not have spacers 800, as shown in FIG.
  • the thickness of the spacer 700 can adjust the inclination of the sensor unit 10D in the lateral direction and the longitudinal direction with respect to the substrate 300D.
  • another bolt 500 of the sensor unit 10D may be inserted through a spacer arranged between the mounting board 200D and the board 300D.
  • the positioning structure includes a spacer through which each of the plurality of bolts 500 is inserted and disposed between the substrate 300D and the mounting substrate 200D.
  • Second bolt insertion holes 200d are provided at four positions (for example, four corners) that are not on the same straight line on the mounting substrate 200E of the sensor unit 10E.
  • first bolt insertion holes 300d are provided at positions corresponding to the four second bolt insertion holes 200d in the mounting portion of the substrate 300E to which each sensor unit 10E is mounted.
  • the bolt 500 is inserted through the corresponding first and second bolt insertion holes 300d and 200d, and the nut 600 is screwed onto the screw portion of the bolt 500.
  • the degree of freedom in adjusting the inclination of the sensor unit 10E with respect to the substrate 300E in the lateral direction and the longitudinal direction is higher.
  • the second bolts are provided at three of the four positions (for example, four corners) that are not on the same straight line on the mounting board 200F of the sensor unit 10F.
  • An insertion hole 200d is provided, a pin insertion hole 200c is provided at one position, and a mounting portion to which each sensor unit 10F of the board 300F is mounted has a third bolt insertion hole 200d at positions corresponding to the three second bolt insertion holes 200d.
  • a 1-bolt insertion hole 300d is provided, and a pin insertion hole 300c into which the pin 400 is inserted and fixed is provided at a position corresponding to the pin insertion hole 200c.
  • the bolt 500 is inserted through the first and second bolt insertion holes 300d and 200d corresponding to each other, the nut 600 is screwed onto the threaded portion of the bolt 500, and the pin 400 is inserted into the pin. It is inserted into hole 200c.
  • the degree of freedom in adjusting the inclination of the sensor unit 10F with respect to the substrate 300F in the lateral direction and the longitudinal direction is higher.
  • the sensor unit 10G has a translucent cover 101G having a substantially U-shaped cross section and does not have a spacer 102. It has the same configuration as the image sensor device 1 according to one embodiment, except for .
  • the light-transmitting cover 101G is joined (eg, glued) to the semiconductor substrate 103 at its open end. That is, the light-transmitting cover 101 ⁇ /b>G also functions as the plate-like light-transmitting cover 101 and the spacer 102 .
  • the number of parts and manufacturing man-hours can be reduced.
  • An image sensor device 8 according to Modification 8 is formed by arranging a plurality (for example, five) of sensor units 10H shown in FIG. 31 on a substrate 300H shown in FIG. , constitutes an area image sensor as a whole.
  • each sensor unit 10H as shown in FIG. 33, which is a partial enlarged view of FIG. 31, the pixel chip of the sensor section 50H protrudes in the lateral direction with respect to the mounting substrate 200H (for example, a line between the pixel chip and the mounting substrate).
  • the two sensor portions 50H protrude by an amount corresponding to the difference in coefficient of expansion), and are positioned in a state in which the end faces in the short direction of the pixel chips of the two adjacent sensor portions 50H are abutted against each other.
  • the image sensor device 8 it is possible to realize an area image sensor that has the same effect as the image sensor device 1 according to the above embodiment.
  • Image sensor device (Image sensor device according to modification 9)
  • a plurality of (for example, ten) sensor units 10I shown in FIG. 34 are two-dimensionally arranged on a substrate 300I shown in FIG.
  • an area image sensor is configured as a whole.
  • the mounting substrate 200I of each sensor unit 10I has two second bolt insertion holes 200d aligned in the lateral direction, and the substrate 300I has two second bolt insertion holes 200d corresponding to the two second bolt insertion holes 200d. It has a 1-bolt insertion hole 300d.
  • a bolt 500 is inserted through the corresponding first and second bolt insertion holes 300d and 200d, and a nut 600 is screwed onto the screw portion of the bolt 500. As shown in FIG.
  • the pixel chip of the sensor section 50I protrudes in the lateral direction and the longitudinal direction with respect to the mounting substrate 200I (for example, it protrudes by an amount corresponding to the difference in coefficient of linear expansion between the pixel chip and the mounting substrate. ), the pixel chips of two adjacent sensor portions 50I are positioned in a state in which the end surfaces in the lateral direction and/or the longitudinal direction are abutted against each other.
  • the image sensor device 9 it is possible to realize an area image sensor that has the same effect as the image sensor device 1 according to the above embodiment.
  • the number of sensor units (hereinafter also referred to as “division number”) of the image sensor device according to the above embodiment and each modification is three, but is not limited to this, and may be two or four or more. good too.
  • the image sensor device constitutes, for example, a linear image sensor
  • the image sensor device by optimizing the number of sensor units and the length in the longitudinal direction of each sensor unit with respect to the total length in the longitudinal direction, any longitudinal direction It is possible to obtain the above-described effects even in an image sensor device having a total length of .
  • the length in the longitudinal direction and/or the length in the lateral direction may differ between sensor units.
  • the above effects can be obtained by optimizing the number of vertical and horizontal divisions and the vertical and horizontal lengths of each sensor unit with respect to the entire area. Obtainable.
  • the areas may differ between the sensor units.
  • the pixel chip 100 may have a laminated structure in which the semiconductor substrate 103 and wiring layers are laminated.
  • the wiring layer and the semiconductor substrate 103 may be arranged in this order from the mounting substrate 200 side (the former), or the semiconductor substrate 103 and the wiring layer may be arranged in this order from the mounting substrate 200 side (the latter). good.
  • the electrode pad, the wiring layer, and the mounting substrate may be electrically connected by, for example, through-electrodes penetrating the semiconductor substrate 103 and the wiring layer.
  • the electrode pads and the wiring layer may be electrically connected by through electrodes penetrating the semiconductor substrate 103, and the wiring layer and the mounting substrate 200 may be electrically connected by metal bonding or the like.
  • the electrode pads and the wiring layer may be electrically connected by metal bonding or the like, and the wiring layer and the mounting substrate may be electrically connected by through electrodes penetrating the semiconductor substrate 103 .
  • the pixel chip may protrude only on one side in a uniaxial direction (for example, the direction in which a plurality of sensor units are arranged) with respect to the mounting substrate on which the pixel chip is mounted.
  • a uniaxial direction for example, the direction in which a plurality of sensor units are arranged
  • the pixel chips of the sensor units positioned at both ends in one axial direction protrude only toward the pixel chips of the adjacent sensor units with respect to the mounting substrate on which the pixel chips are mounted.
  • FIG. 36 is a diagram illustrating a usage example of an image sensor device according to an embodiment and modifications of the present technology.
  • An image sensor device can be used in various cases of sensing light such as visible light, infrared light, ultraviolet light, and X-rays, for example, as follows. can. That is, as shown in FIG. 36, for example, the field of appreciation for photographing images to be used for viewing, the field of transportation, the field of home appliances, the field of medicine/health care, the field of security, the field of beauty, the field of sports field, agricultural field and the like.
  • in-vehicle sensors that capture images of the front, back, surroundings, and interior of a vehicle, and monitor running vehicles and roads for safe driving such as automatic stopping and recognition of the driver's condition.
  • the image sensor device according to the embodiment and each modified example of the present technology can be used for devices used for transportation, such as a surveillance camera that monitors traffic, a distance sensor that measures distance between vehicles, and the like.
  • a device provided for home appliances such as a television receiver, a refrigerator, and an air conditioner.
  • the image sensor device of one embodiment and each modification can be used.
  • an embodiment of the present technology and a device used for medical or health care such as an endoscope or a device that performs angiography by receiving infrared light
  • An image sensor device of each variant can be used.
  • an image sensor device is used in a security device such as a surveillance camera for crime prevention and a camera for person authentication. be able to.
  • an image sensor device is applied to a device used for beauty, such as a skin measuring device for photographing the skin and a microscope for photographing the scalp. can be used.
  • an image sensor device can be used in devices used for sports, such as action cameras and wearable cameras for sports. .
  • the image sensor device of one embodiment and each modification of the present technology is used in devices used for agriculture, such as cameras for monitoring the state of fields and crops. can be done.
  • the image sensor device of one embodiment and each modification of the present technology has an imaging function such as a camera system such as a digital still camera or a video camera, or a mobile phone having an imaging function as the image sensor device 501.
  • an imaging function such as a camera system such as a digital still camera or a video camera, or a mobile phone having an imaging function as the image sensor device 501.
  • FIG. 37 shows a schematic configuration of an electronic device 510 (camera) as an example.
  • This electronic device 510 is, for example, a video camera capable of capturing still images or moving images, and drives an image sensor device 501, an optical system (optical lens) 502, a shutter device 503, and an image sensor device 501 and a shutter device 503. and a signal processing unit 505 .
  • the optical system 502 guides image light (incident light) from a subject to the pixel area of the image sensor device 501 .
  • This optical system 502 may be composed of a plurality of optical lenses.
  • the shutter device 503 controls a light irradiation period and a light shielding period for the image sensor device 501 .
  • the drive unit 504 controls the transfer operation of the image sensor device 501 and the shutter operation of the shutter device 503 .
  • a signal processing unit 505 performs various kinds of signal processing on the signal output from the image sensor device 501 .
  • the video signal Dout after signal processing is stored in a storage medium such as a memory, or output to a monitor or the like.
  • the image sensor device of one embodiment and each modification of the present technology can also be applied to other electronic devices that detect light, such as TOF (Time Of Flight) sensors.
  • TOF Time Of Flight
  • a TOF sensor for example, it can be applied to a range image sensor based on the direct TOF measurement method and a range image sensor based on the indirect TOF measurement method.
  • the arrival timing of photons in each pixel is obtained directly in the time domain. Therefore, an optical pulse with a short pulse width is transmitted, and an electrical pulse is generated by a receiver that responds at high speed.
  • the present disclosure can be applied to the receiver in that case.
  • the time of flight of light is measured using a semiconductor element structure in which the amount of detection and accumulation of carriers generated by light changes depending on the arrival timing of light.
  • the present disclosure can also be applied as such a semiconductor structure.
  • provision of a color filter array and a microlens array is optional, and at least one of these may be omitted.
  • the image sensor device of one embodiment and each modification of the present technology may be used in a device (equipment) having an image reading function, such as a facsimile machine and a scanner.
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be applied to devices (equipment) mounted on any type of moving object such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, and robots. may be implemented as
  • FIG. 38 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • a vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an exterior information detection unit 12030, an interior information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/image output unit 12052, and an in-vehicle network I/F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the driving system control unit 12010 includes a driving force generator for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism to adjust and a brake device to generate braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, winkers or fog lamps.
  • body system control unit 12020 can receive radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives the input of these radio waves or signals and controls the door lock device, power window device, lamps, etc. of the vehicle.
  • the vehicle exterior information detection unit 12030 detects information outside the vehicle in which the vehicle control system 12000 is installed.
  • the vehicle exterior information detection unit 12030 is connected with an imaging section 12031 .
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electric signal as an image, and can also output it as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • the in-vehicle information detection unit 12040 is connected to, for example, a driver state detection section 12041 that detects the state of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing off.
  • the microcomputer 12051 calculates control target values for the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and controls the drive system control unit.
  • a control command can be output to 12010 .
  • the microcomputer 12051 realizes the functions of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, etc. based on the information about the vehicle surroundings acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver's Cooperative control can be performed for the purpose of autonomous driving, etc., in which vehicles autonomously travel without depending on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the information detection unit 12030 outside the vehicle.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control aimed at anti-glare such as switching from high beam to low beam. It can be carried out.
  • the audio/image output unit 12052 transmits at least one of audio and/or image output signals to an output device capable of visually or audibly notifying the passengers of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 39 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided at positions such as the front nose of the vehicle 12100, the side mirrors, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior, for example.
  • An image pickup unit 12101 provided in the front nose and an image pickup unit 12105 provided above the windshield in the passenger compartment mainly acquire images in front of the vehicle 12100 .
  • Imaging units 12102 and 12103 provided in the side mirrors mainly acquire side images of the vehicle 12100 .
  • An imaging unit 12104 provided in the rear bumper or back door mainly acquires an image behind the vehicle 12100 .
  • Forward images acquired by the imaging units 12101 and 12105 are mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 39 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of an imaging unit 12104 provided in the rear bumper or back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera composed of a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and changes in this distance over time (relative velocity with respect to the vehicle 12100). , it is possible to extract, as the preceding vehicle, the closest three-dimensional object on the course of the vehicle 12100, which runs at a predetermined speed (for example, 0 km/h or more) in substantially the same direction as the vehicle 12100. can. Furthermore, the microcomputer 12051 can set the inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including following stop control) and automatic acceleration control (including following start control). In this way, cooperative control can be performed for the purpose of automatic driving in which the vehicle runs autonomously without relying on the operation of the driver.
  • automatic brake control including following stop control
  • automatic acceleration control including following start control
  • the microcomputer 12051 converts three-dimensional object data related to three-dimensional objects to other three-dimensional objects such as motorcycles, ordinary vehicles, large vehicles, pedestrians, and utility poles. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into those that are visible to the driver of the vehicle 12100 and those that are difficult to see. Then, the microcomputer 12051 judges the collision risk indicating the degree of danger of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, an audio speaker 12061 and a display unit 12062 are displayed. By outputting an alarm to the driver via the drive system control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not the pedestrian exists in the captured images of the imaging units 12101 to 12104 .
  • recognition of a pedestrian is performed by, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and performing pattern matching processing on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian.
  • the audio image output unit 12052 outputs a rectangular outline for emphasis to the recognized pedestrian. is superimposed on the display unit 12062 . Also, the audio/image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to, for example, the imaging unit 12031 among the configurations described above.
  • the solid-state imaging device 111 of the present disclosure can be applied to the imaging unit 12031 .
  • Example of application to an endoscopic surgery system> This technology can be applied to various products.
  • the technique (the present technique) according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 40 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technology according to the present disclosure (this technology) can be applied.
  • FIG. 40 illustrates a situation in which an operator (doctor) 11131 is performing surgery on a patient 11132 on a patient bed 11133 using an endoscopic surgery system 11000 .
  • an endoscopic surgery system 11000 includes an endoscope 11100, other surgical instruments 11110 such as a pneumoperitoneum tube 11111 and an energy treatment instrument 11112, and a support arm device 11120 for supporting the endoscope 11100. , and a cart 11200 loaded with various devices for endoscopic surgery.
  • An endoscope 11100 is composed of a lens barrel 11101 whose distal end is inserted into the body cavity of a patient 11132 and a camera head 11102 connected to the proximal end of the lens barrel 11101 .
  • an endoscope 11100 configured as a so-called rigid scope having a rigid lens barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible scope having a flexible lens barrel. good.
  • the tip of the lens barrel 11101 is provided with an opening into which the objective lens is fitted.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the tip of the lens barrel 11101 by a light guide extending inside the lens barrel 11101, where it reaches the objective. Through the lens, the light is irradiated toward the observation object inside the body cavity of the patient 11132 .
  • the endoscope 11100 may be a straight scope, a perspective scope, or a side scope.
  • An optical system and an imaging element are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the imaging element by the optical system.
  • the imaging element photoelectrically converts the observation light to generate an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • the image signal is transmitted to a camera control unit (CCU: Camera Control Unit) 11201 as RAW data.
  • CCU Camera Control Unit
  • the CCU 11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the operations of the endoscope 11100 and the display device 11202 in an integrated manner. Further, the CCU 11201 receives an image signal from the camera head 11102 and performs various image processing such as development processing (demosaicing) for displaying an image based on the image signal.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on an image signal subjected to image processing by the CCU 11201 under the control of the CCU 11201 .
  • the light source device 11203 is composed of a light source such as an LED (Light Emitting Diode), for example, and supplies the endoscope 11100 with irradiation light for photographing a surgical site or the like.
  • a light source such as an LED (Light Emitting Diode), for example, and supplies the endoscope 11100 with irradiation light for photographing a surgical site or the like.
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204 .
  • the user inputs an instruction or the like to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100 .
  • the treatment instrument control device 11205 controls driving of the energy treatment instrument 11112 for tissue cauterization, incision, blood vessel sealing, or the like.
  • the pneumoperitoneum device 11206 inflates the body cavity of the patient 11132 for the purpose of securing the visual field of the endoscope 11100 and securing the operator's working space, and injects gas into the body cavity through the pneumoperitoneum tube 11111. send in.
  • the recorder 11207 is a device capable of recording various types of information regarding surgery.
  • the printer 11208 is a device capable of printing various types of information regarding surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the endoscope 11100 with irradiation light for photographing the surgical site can be composed of, for example, a white light source composed of an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation object in a time division manner, and by controlling the driving of the imaging device of the camera head 11102 in synchronization with the irradiation timing, each of RGB can be handled. It is also possible to pick up images by time division. According to this method, a color image can be obtained without providing a color filter in the imaging device.
  • the driving of the light source device 11203 may be controlled so as to change the intensity of the output light every predetermined time.
  • the drive of the imaging device of the camera head 11102 in synchronism with the timing of the change in the intensity of the light to obtain an image in a time-division manner and synthesizing the images, a high dynamic A range of images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissues, by irradiating light with a narrower band than the irradiation light (i.e., white light) during normal observation, the mucosal surface layer So-called narrow band imaging is performed, in which a predetermined tissue such as a blood vessel is imaged with high contrast.
  • fluorescence observation may be performed in which an image is obtained from fluorescence generated by irradiation with excitation light.
  • the body tissue is irradiated with excitation light and the fluorescence from the body tissue is observed (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is A fluorescence image can be obtained by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 can be configured to be able to supply narrowband light and/or excitation light corresponding to such special light observation.
  • FIG. 41 is a block diagram showing an example of functional configurations of the camera head 11102 and CCU 11201 shown in FIG.
  • the camera head 11102 has a lens unit 11401, an imaging section 11402, a drive section 11403, a communication section 11404, and a camera head control section 11405.
  • the CCU 11201 has a communication section 11411 , an image processing section 11412 and a control section 11413 .
  • the camera head 11102 and the CCU 11201 are communicably connected to each other via a transmission cable 11400 .
  • a lens unit 11401 is an optical system provided at a connection with the lens barrel 11101 . Observation light captured from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401 .
  • a lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the imaging unit 11402 is composed of an imaging element.
  • the imaging device constituting the imaging unit 11402 may be one (so-called single-plate type) or plural (so-called multi-plate type).
  • image signals corresponding to RGB may be generated by each image pickup element, and a color image may be obtained by synthesizing the image signals.
  • the imaging unit 11402 may be configured to have a pair of imaging elements for respectively acquiring right-eye and left-eye image signals corresponding to 3D (Dimensional) display.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of systems of lens units 11401 may be provided corresponding to each imaging element.
  • the imaging unit 11402 does not necessarily have to be provided in the camera head 11102 .
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is configured by an actuator, and moves the zoom lens and focus lens of the lens unit 11401 by a predetermined distance along the optical axis under control from the camera head control unit 11405 . Thereby, the magnification and focus of the image captured by the imaging unit 11402 can be appropriately adjusted.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400 .
  • the communication unit 11404 receives a control signal for controlling driving of the camera head 11102 from the CCU 11201 and supplies it to the camera head control unit 11405 .
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and/or information to specify the magnification and focus of the captured image. Contains information about conditions.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately designated by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. good.
  • the endoscope 11100 is equipped with so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls driving of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102 .
  • the communication unit 11411 receives image signals transmitted from the camera head 11102 via the transmission cable 11400 .
  • the communication unit 11411 transmits a control signal for controlling driving of the camera head 11102 to the camera head 11102 .
  • Image signals and control signals can be transmitted by electrical communication, optical communication, or the like.
  • the image processing unit 11412 performs various types of image processing on the image signal, which is RAW data transmitted from the camera head 11102 .
  • the control unit 11413 performs various controls related to imaging of the surgical site and the like by the endoscope 11100 and display of the captured image obtained by imaging the surgical site and the like. For example, the control unit 11413 generates control signals for controlling driving of the camera head 11102 .
  • control unit 11413 causes the display device 11202 to display a captured image showing the surgical site and the like based on the image signal that has undergone image processing by the image processing unit 11412 .
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edges of objects included in the captured image, thereby detecting surgical instruments such as forceps, specific body parts, bleeding, mist during use of the energy treatment instrument 11112, and the like. can recognize.
  • the control unit 11413 may use the recognition result to display various types of surgical assistance information superimposed on the image of the surgical site. By superimposing and presenting the surgery support information to the operator 11131, the burden on the operator 11131 can be reduced and the operator 11131 can proceed with the surgery reliably.
  • a transmission cable 11400 connecting the camera head 11102 and the CCU 11201 is an electrical signal cable compatible with electrical signal communication, an optical fiber compatible with optical communication, or a composite cable of these.
  • wired communication is performed using the transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technology according to the present disclosure can be applied to the endoscope 11100, the camera head 11102 (the imaging unit 11402 thereof), and the like among the configurations described above.
  • the solid-state imaging device 111 of the present disclosure can be applied to the imaging unit 10402 .
  • the technology according to the present disclosure may also be applied to, for example, a microsurgery system.
  • this technique can also take the following structures.
  • a substrate a plurality of sensor units arranged side by side in at least one axial direction on the substrate; with each of the plurality of sensor units, a pixel chip having a plurality of pixels; a translucent cover that covers the pixel chip;
  • An image sensor device comprising: (2) The image sensor device according to (1), wherein the plurality of sensor units are arranged in the uniaxial direction. (3) The image sensor device according to (1) or (2), wherein the longitudinal direction of each of the substrate and the plurality of sensor units substantially coincides with the uniaxial direction.
  • each of the plurality of sensor units further includes a spacer arranged between the pixel chip and the translucent cover, (1) to (3) The image sensor device according to any one of .
  • each of the plurality of sensor units further includes a mounting board on which the pixel chip is mounted.
  • the pixel chip protrudes to at least one side in the uniaxial direction with respect to the mounting substrate.
  • the pixel chip protrudes to the at least one side with respect to the mounting substrate by at least an amount corresponding to the difference between the linear expansion coefficient of the pixel chip and the linear expansion coefficient of the mounting substrate. ).
  • the image sensor device further comprising a positioning structure for positioning the substrate and each of the plurality of sensor units.
  • the positioning structure includes a pin and first bolt insertion hole provided in one of the substrate and the mounting substrate, and a pin insertion hole provided in the other of the substrate and the mounting substrate and into which the pin is inserted. , a second bolt insertion hole provided at a position corresponding to the first bolt insertion hole, a bolt inserted through the first and second bolt insertion holes, and a nut screwed onto the bolt.
  • the image sensor device comprising: (10) The pin insertion hole is a round hole into which the pin is inserted, and the first and second bolt insertion holes are elongated holes each having a length in the lateral direction larger than the diameter of the screw portion of the bolt.
  • the image sensor device wherein (11) A plurality of sets of the first and second bolt insertion holes are provided, a plurality of the bolts are provided corresponding to the plurality of sets, the positioning structure has at least one of the plurality of bolts inserted therethrough, and the The image sensor device according to (9) or (10), comprising at least one spacer arranged between the substrate and the mounting substrate.
  • the positioning structure corresponds to the plurality of first bolt insertion holes provided in one of the substrate and the mounting substrate and the plurality of first bolt insertion holes provided in the other of the substrate and the mounting substrate. a plurality of second bolt insertion holes respectively provided at respective positions; a plurality of bolts respectively inserted through the corresponding sets of the first and second bolt insertion holes;
  • the image sensor device according to (8) comprising: a nut; (13) The image sensor device according to (12), wherein the first and second bolt insertion holes are elongated holes with lengths in the lateral direction greater than the diameter of the screw portion of the bolt.
  • At least three sets of the first and second bolt insertion holes are provided, at least three bolts corresponding to the at least three sets of bolts are provided, and the positioning structure includes at least one of the at least three bolts.
  • the pixel chip has a pixel substrate provided with a pixel region including the plurality of pixels, and electrode pads provided on the pixel substrate on a side opposite to the mounting substrate side of the pixel substrate.
  • the image sensor device according to any one of (5) to (14), further comprising through electrodes for electrically connecting the mounting substrate and the mounting substrate.
  • each of the plurality of sensor units is a sensor unit for imaging.
  • each of the plurality of sensor units is a sensor unit for distance measurement.
  • the image sensor device includes an imaging sensor unit and a ranging sensor unit. (20) An apparatus comprising the image sensor device according to claim 1.
  • (21) generating a plurality of sensor units each including a pixel chip and a translucent cover covering the pixel chip; a step of mounting a plurality of the sensor units side by side on a substrate in at least one axial direction;
  • a method of manufacturing an image sensor device comprising: (22) The method of manufacturing an image sensor device according to (21), wherein in the mounting step, the plurality of sensor units are sequentially mounted on the substrate. (23) Manufacture of the image sensor device according to (21) or (22), wherein in the mounting step, the sensor units are fixed to the substrate after the position of each sensor unit is adjusted with respect to the substrate.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

製造時に構成部品が損傷されるリスク及び/又は汚染されるリスクを低減することができるイメージセンサ装置を提供することを主目的とする。 本技術に係るイメージセンサ装置は、基板と、前記基板上に少なくとも一軸方向に並べて配置された 複数のセンサユニットと、を備え、前記複数のセンサユニットの各々は、複数の画素を有する画素チップと、前記画素チップを覆う透光カバーと、を含む、イメージセンサ装置である。本技術に係るイメージセンサ装置によれば、製造時に構成部品が損傷されるリスク及び/又は汚染されるリスクを低減することができるイメージセンサ装置を提供することができる。

Description

イメージセンサ装置、機器及びイメージセンサ装置の製造方法
 本開示に係る技術(以下「本技術」とも呼ぶ)は、イメージセンサ装置、機器及びイメージセンサ装置の製造方法に関する。
 従来、基板上に並置された複数の画素チップが長尺の透光カバーで覆われているイメージセンサ装置が知られている(例えば特許文献1参照)。
特開2013-150311号公報
 しかしながら、従来のイメージセンサ装置では、製造時に構成部品が損傷されるリスク及び/又は汚染されるリスクを低減することに関して改善の余地があった。
 そこで、本技術は、製造時に構成部品が損傷されるリスク及び/又は汚染されるリスクを低減することができるイメージセンサ装置を提供することを主目的とする。
 本技術は、基板と、
 前記基板上に少なくとも一軸方向に並べて配置された 複数のセンサユニットと、
 を備え、
 前記複数のセンサユニットの各々は、
 複数の画素を有する画素チップと、
 前記画素チップを覆う透光カバーと、
 を含む、イメージセンサ装置を提供する。
 前記複数のセンサユニットは、前記一軸方向に並んでいてもよい。
 前記基板及び前記複数のセンサユニットの各々は、長手方向が前記一軸方向に略一致していてもよい。
 前記透光カバーは、板状であり、前記複数のセンサユニットの各々は、前記画素チップと前記透光カバーとの間に配置されたスペーサを更に含んでいてもよい。
 前記複数のセンサユニットの各々は、前記画素チップが実装される実装基板を更に含んでいてもよい。
 前記画素チップは、前記実装基板に対して前記一軸方向の少なくとも一側に突出していてもよい。
 前記画素チップは、少なくとも、前記画素チップの線膨張係数と前記実装基板の線膨張係数との差に応じた量だけ前記実装基板に対して前記少なくとも一側に突出していてもよい。
 前記基板と、前記複数のセンサユニットの各々とを位置決めする位置決め構造が設けられていてもよい。
 前記位置決め構造は、前記基板及び前記実装基板の一方に設けられたピン及び第1ボルト挿通孔と、前記基板及び前記実装基板の他方に設けられ前記ピンが挿入されるピン挿入孔と、前記他方の、前記第1ボルト挿通孔に対応する位置に設けられた第2ボルト挿通孔と、前記第1及び第2ボルト挿通孔に挿通されるボルトと、前記ボルトに螺合するナットと、を有していてもよい。
 前記ピン挿入孔は、前記ピンが嵌入される丸孔であり、前記第1及び第2ボルト挿通孔は、短手方向の長さが前記ボルトの螺子部の直径よりも大きい長孔であってもよい。
 前記第1及び第2ボルト挿通孔は、複数組設けられ、前記ボルトは、前記複数組に対応して複数あり、前記位置決め構造は、前記複数のボルトの少なくとも1つが挿通され、前記基板及び前記実装基板の間に配置される少なくとも1つのスペーサを含んでいてもよい。
 前記位置決め構造は、前記基板及び前記実装基板の一方に設けられた複数の第1ボルト挿通孔と、前記基板及び前記実装基板の他方の、前記複数の第1ボルト挿通孔に対応する位置にそれぞれ設けられた複数の第2ボルト挿通孔と、複数組の対応する前記第1及び第2ボルト挿通孔にそれぞれ挿通される複数のボルトと、複数の前記ボルトそれぞれに螺合する複数のナットと、を含んでいてもよい。
 前記第1及び第2ボルト挿通孔は、短手方向の長さが前記ボルトの螺子部の直径よりも大きい長孔であってもよい。
 前記第1及び第2ボルト挿通孔は、少なくとも3組設けられ、前記ボルトは、前記少なくとも3組に対応して少なくとも3つあり、前記位置決め構造は、前記少なくとも3つのボルトの少なくとも1つが挿通され、前記基板及び前記実装基板の間に配置される少なくとも1つのスペーサを含んでいてもよい。
 前記画素チップと前記実装基板とがワイヤーボンディングにより電気的に接続されていてもよい。
 前記画素チップは、前記複数の画素を含む画素領域が設けられた画素基板を有し、前記画素基板には、該画素基板の前記実装基板側とは反対側に設けられた電極パッドと前記実装基板とを電気的に接続するための貫通電極が設けられていてもよい。
 前記複数のセンサユニットの各々は、撮像用のセンサユニットであってもよい。
 前記複数のセンサユニットの各々は、測距用のセンサユニットであってもよい。
 前記複数のセンサユニットは、撮像用のセンサユニット及び測距用のセンサユニットを含んでいてもよい。
 本技術は、前記イメージセンサ装置を備える、機器も提供する。
 本技術は、画素チップと該画素チップを覆う透光カバーとを含むセンサユニットを複数生成する工程と、複数の前記センサユニットを基板上に少なくとも一軸方向に並べて実装する工程と、を含む、イメージセンサ装置の製造方法も提供する。
 前記実装する工程では、各センサユニットの前記基板に対する位置調整を行った後、該センサユニットを前記基板に対して固定してもよい。
本技術の一実施形態に係るイメージセンサ装置の平面図である。 図1のA-A線断面図である。 一実施形態に係るイメージセンサ装置の底面図である。 図1のB-B線断面図である。 図1のC-C線断面図である。 図1のD-D線断面図である。 センサユニットの平面図及びその部分拡大図である。 センサユニットの図2に対応する断面図である。 センサユニットの図4に対応する断面図である。 センサユニットの図5に対応する断面図である。 センサユニットの図6に対応する断面図である。 センサユニットの底面図である。 基板の平面図である。 図13のE-E線断面図である。 本技術の一実施形態に係るイメージセンサ装置の製造方法を説明するためのフローチャートである。 センサユニット生成工程を説明するためのフローチャートである。 センサユニット搭載工程を説明するためのフローチャートである。 図18A~図18Eは、センサユニット生成工程の工程毎の断面図である。 図19A~図19Dは、センサユニット生成工程の工程毎の断面図である。 図20A~図20Cは、センサユニット搭載工程の工程毎の断面図である。 図21A~図21Cは、センサユニット搭載工程の工程毎の断面図である。 図22A~図22Cは、センサユニット搭載工程の工程毎の断面図である。 図23Aは、本技術の変形例1に係るイメージセンサ装置のセンサユニットの平面図である。図23Bは、本技術の変形例1に係るイメージセンサ装置の基板の平面図である。 本技術の変形例2に係るイメージセンサ装置のセンサユニットの平面図である。 図25Aは、本技術の変形例3に係るイメージセンサ装置のセンサユニットの平面図である。図25Bは、図25AのF-F線断面図(その1)である。図25Cは、図25AのF-F線断面図(その2)である。 図26Aは、本技術の変形例4に係るイメージセンサ装置のセンサユニットの平面図である。図26Bは、図26AのG-G線断面図(その1)である。図26Cは、図26AのG-G線断面図(その2)である。 図27Aは、本技術の変形例5に係るイメージセンサ装置のセンサユニットの平面図である。図27Bは、本技術の変形例5に係るイメージセンサ装置の基板の平面図である。 図28Aは、本技術の変形例6に係るイメージセンサ装置のセンサユニットの平面図である。図28Bは、本技術の変形例6に係るイメージセンサ装置の基板の平面図である。 本技術の変形例7に係るイメージセンサ装置の長手方向に沿う断面を示す図である。 本技術の変形例7に係るイメージセンサ装置の短手方向に沿う断面を示す図である。 本技術の変形例8に係るイメージセンサ装置の平面図である。 本技術の変形例8に係るイメージセンサ装置の基板の平面図である。 図31の部分拡大図である。 本技術の変形例9に係るイメージセンサ装置の平面図である。 本技術の変形例9に係るイメージセンサ装置の基板の平面図である。 本技術の一実施形態及び各変形例の固体撮像装置の使用例を示す図である。 本技術に係る電子機器の一例の機能ブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 以下に添付図面を参照しながら、本技術の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。以下に説明する実施形態は、本技術の代表的な実施形態を示したものであり、これにより本技術の範囲が狭く解釈されることはない。本明細書において、本技術に係るイメージセンサ装置、機器及びイメージセンサ装置の製造方法の各々が複数の効果を奏することが記載される場合でも、本技術に係るイメージセンサ装置、機器及びイメージセンサ装置の製造方法の各々は、少なくとも1つの効果を奏すればよい。本明細書に記載された効果はあくまで例示であって限定されるものではなく、また他の効果があってもよい。
 また、以下の順序で説明を行う。
0.導入
1.本技術の一実施形態に係るイメージセンサ装置
2.本技術の変形例1~9に係るイメージセンサ装置
3.本技術の他の変形例
4.本技術に係るイメージセンサ装置の使用例
5.本技術に係るイメージセンサ装置の他の使用例
6.移動体への応用例
7.内視鏡手術システムへの応用例
<0.導入>
 従来(例えば特許文献1参照)のイメージセンサユニットでは、基板保持体及びフレームからなるケースに、センサチップが設けられたセンサ基板が複数並べて収容され、該フレームの開口部に1枚の長尺の透明基板が装着されて該ケースが封止されている。
 当該イメージセンサユニットでは、製造時に長尺の透明基板のハンドリングが難しく、透明基板、センサチップ等の構成部品が損傷するリスクが高い。また、当該イメージセンサユニットでは、全てのセンサ基板がケースに組み付けられてから透明基板が装着されるため封止するまでの時間が長くなり、ケース内に異物が混入して透明基板、センサチップ等の構成部品が汚染されるリスクが高い。
 そこで、発明者は、鋭意検討の末、製造時に構成部品が損傷されるリスク及び/又は汚染されるリスクを低減することができるイメージセンサ装置として、本技術に係るイメージセンサ装置を開発した。
<1.本技術の一実施形態に係るイメージセンサ装置>
 以下、本技術に係るイメージセンサ装置の一実施形態について、図面を参照して説明する。図1は、本技術の一実施形態に係るイメージセンサ装置1の平面図である。図2は、図1のA-A線断面図である。図3は、一実施形態に係るイメージセンサ装置1の底面図である。図4は、図1のB-B線断面図である。図5は、図1のC-C線断面図である。図6は、図1のD-D線断面図である。図7は、センサユニットの平面図及びその部分拡大図である。以下では、図1等に示すXYZ3次元直交座標系を適宜用いて説明する。
≪イメージセンサ装置の構成≫
 本技術の一実施形態に係るイメージセンサ装置1は、一例として、リニアイメージセンサである。リニアイメージセンサとしてのイメージセンサ装置1は、光(自然光及び人工光を含む)が照射されている物体に対して例えば長手方向に直交する方向に相対的に移動されることにより該物体をスキャンして、該物体の画像データ(2次元画像情報、3次元画像情報等)及び/又はセンシングデータ(測距情報、形状情報等)を生成する。
 イメージセンサ装置1は、一例として、図1~図3に示すように、基板300と、該基板300上に少なくともX軸方向(一軸方向)に並べて配置された複数(例えば3つ)のセンサユニット10とを備える。イメージセンサ装置1は、一例として、基板300と、複数のセンサユニット10の各々とを位置決めする位置決め構造を更に備える。
 すなわち、イメージセンサ装置1は、複数のセンサユニット10が基板300上で相互に位置決めされることにより1つのリニアイメージセンサを構成している。
 基板300及び複数のセンサユニット10の各々は、長手方向がX軸方向に略一致する。ここでは、各センサユニット10の短手方向がY軸方向であり、各センサユニット10の長手方向及び短手方向のいずれにも直交する方向がZ軸方向である。
[基板]
 基板300は、例えば絶縁層300aと、該絶縁層300aの内部に設けられた内部配線300bとを有している(図14参照)。内部配線300bは、一例として、多層配線であるが、単層配線であってもよい。基板300の裏面(-Z側の面)には、回路基板(例えばプリント配線基板)と電気的に接続されるコネクタ350と、周辺部品370とが設けられている(図3参照)。
[センサユニット]
 複数のセンサユニット10の各々は、一例として、図4~図6に示すように、複数の画素100aを有する画素チップ100と、該画素チップ100を覆う板状の透光カバー101とを含む。
 複数のセンサユニット10の各々は、画素チップ100と透光カバー101との間に配置されたスペーサ102を更に含む。
 複数のセンサユニット10の各々は、図1~図7に示すように、画素チップ100が実装される実装基板200を更に含む。センサユニット10のうち実装基板200を除いた部分をセンサ部50とも呼ぶ。
(実装基板)
 実装基板200は、図8~図11に示すように、例えば絶縁層200aと、該絶縁層200aの内部に設けられた内部配線200bとを有している。内部配線200bは、一例として、多層配線であるが、単層配線であってもよい。実装基板200の裏面(-Z側の面)には、基板300と電気的に接続されるコネクタ250と、周辺部品270とが設けられている(図12参照)。
(画素チップ)
 画素チップ100は、複数の画素100aを含む。複数の画素100aは、一例としてXY平面に沿って2次元配置(例えばX軸方向及びY軸方向にマトリクス状に配置)されている。ここでは、複数の画素100aは、X軸方向(行方向)の配置数(行数)がY軸方向(列方向)の配置数(列数)よりも多くなるようにマトリクス状に配置されている。すなわち、複数の画素100aは、X軸方向を長手方向とする矩形の画素領域を構成するように配置されている。一例として、画素チップ100の平面視形状も矩形となっている。
 各画素100aは、光電変換素子100a1と、該光電変換素子100a1上に配置されたカラーフィルタ100a2と、該カラーフィルタ100a2上に配置されたマイクロレンズ100a3とを有する。
 光電変換素子100a1は、例えばPD(フォトダイオード)である。より詳細には、当該光電変換素子は、例えばPNフォトダイオード、PINフォトダイオード、SPAD(Single Photon Avalanche Photodiode)、APD(avalanche photo Diode)等である。
 画素チップ100は、複数の画素100aを含む画素領域が設けられた画素基板としての半導体基板103を含む。半導体基板103内に光電変換素子100a1が設けられている。半導体基板103には、一例として、半導体基板103の実装基板200側とは反対側に設けられた(例えば後述するスペーサ102に設けられた)ワイヤボンディング用の電極パッドと実装基板200とを電気的に接続するための貫通電極104が設けられている。貫通電極104は、半導体基板103を貫通し電極パッドに一端が接続されたビアと、半導体基板103の実装基板200側の面に設けられビアの他端に接続されたランドとを含む。ランドは、金属バンプ(例えば半田ボール)を介して実装基板200に電気的に接続されている。ここで、チップとは、集積回路を搭載し、ウェハから個片化したものを意味する。
 半導体基板103は、例えばSi基板、Ge基板、GaAs基板、InGaAs基板等である。半導体基板103には、一例として、複数の画素100a及び各画素100aを制御する制御回路(アナログ回路)が設けられている。当該制御回路は、例えばトランジスタ等の回路素子を有する。詳述すると、当該制御回路は、一例として、複数の画素トランジスタ(いわゆるMOSトランジスタ)を含んで構成される。複数の画素トランジスタは、例えば転送トランジスタ、リセットトランジスタ及び増幅トランジスタの3つのトランジスタで構成することができる。その他、選択トランジスタ追加して4つのトランジスタで構成することもできる。単位画素の等価回路は通常と同様であるので、詳細説明は省略する。画素は、1つの単位画素として構成することができる。また、画素は、共有画素構造とすることもできる。この画素共有構造は、複数のフォトダイオードが、転送トランジスタを構成するフローティングディフュージョン、及び転送トランジスタ以外の他のトランジスタを共有する構造である。
 画素チップ100は、一例として、実装基板200に対してX軸方向の少なくとも一側(例えば両側)に突出している(図7参照)。詳述すると、画素チップ100は、少なくとも、画素チップ100の線膨張係数(例えば半導体基板103の線膨張係数と同程度)と実装基板200の線膨張係数(例えば画素チップ100の線膨張係数よりも大きい線膨張係数)との差に応じた量dだけ実装基板200に対してX軸方向の少なくとも一側に(例えば両側)突出している。これにより、センサユニット10の動作中に画素チップ100及び実装基板200が温度上昇により膨張しても、隣接するセンサユニット10間で画素チップ100と実装基板200とが干渉することが抑制される。なお、画素チップ100の実装基板200に対する突出量は、d以上であることが好ましいが、d未満であってもよい。
 隣り合う2つのセンサユニット10は、画素チップ100のX軸方向の隣接する端部同士(矩形の短辺同士)が突き合てられた状態で位置決めされている(図21B、図22B参照)。これにより、隣接する画素チップ100間の位置関係が適正な状態に維持されている。
(透光カバー)
 透光カバー101は、可視光及び/又は非可視光を透過させる。透光カバー101は、一例として、短尺のガラス板又は樹脂板から成る。透光カバー101は、一例として、画素領域を取り囲む枠状(例えば矩形枠状)のスペーサ102を介して半導体基板103に接合(例えば接着)されている。
 隣り合う2つのセンサユニット10の透光カバー101のX軸方向の隣接する端部同士の間には、ある程度のクリアランスがあることが好ましい。装置駆動時の温度上昇等により透光カバー101が膨張して隣接する透光カバー101同士が干渉するのを抑制するためである。
(スペーサ)
 スペーサ102は、一例として、エポキシ系、シリコーン系等の樹脂からなる。具体的には、スペーサ102は、フォトスペーサであってもよいし、SU-8永久レジストからなってもよい。フォトスペーサ、SU-8永久レジストからなるスペーサは、フォトリソグラフィーによりレジストを所望の形状、大きさ、位置に形成することで生成するこができる。ここでは、スペーサ102は、単一の枠状体で構成されているが、例えば全体として枠状に並ぶ複数のスペーサ部で構成されてもよい。スペーサ102の半導体基板103側の面には、前述した電極パッドが設けられている。
 各センサユニット10では、透光カバー101、スペーサ102及び画素チップ100により、封止された内部空間が形成されている。
(センサユニットの用途)
 複数のセンサユニット10の各々は、撮像用のセンサユニットであってもよい。具体的には、各センサユニット10の画素チップ100は、撮像用の画素チップであってもよい。撮像用の画素チップ100は、可視光(例えば赤色光、緑色光、青色光の少なくとも1つ)に対して感度の高い画素100aを有することが好ましい。撮像用のセンサユニットの透光カバー101は、少なくとも可視光(例えば赤色光、緑色光、青色光の少なくとも1つ、好ましくは可視光のみ)を透過させるものであることが好ましい。
 複数のセンサユニット10の各々は、測距用のセンサユニット(例えばTOFセンサ)であってもよい。測距用のセンサユニットは、測距用の光源(例えば非可視光源)と組み合わせて用いられる。具体的には、各センサユニット10の画素チップ100は、測距用の画素チップであってもよい。測距用の画素チップ100は、測距用の光源の発光波長(例えば赤外域)に対して感度の高い画素100aを有することが好ましい。測距用のセンサユニットの透光カバー101は、少なくとも非可視光(好ましくは非可視光のみ)を透過させるものであることが好ましい。
 複数のセンサユニット10は、撮像用のセンサユニット及び測距用のセンサユニットを含んでいてもよい。
 具体的には、撮像用のセンサユニット及び測距用のセンサユニットを含む複数のセンサユニット10のうち撮像用のセンサユニットの画素チップ100は、撮像用の画素チップであってもよい。撮像用の画素チップ100は、可視光(例えば赤色光、緑色光、青色光の少なくとも1つ)に対して感度の高い画素100aを有することが好ましい。撮像用のセンサユニットの透光カバー101は、可視光(例えば赤色光、緑色光、青色光の少なくとも1つ)のみを透過させるものであることが好ましい。これにより、測距用のセンサユニットとの間でのクロストークを抑制することができる。
 撮像用のセンサユニット及び測距用のセンサユニットを含む複数のセンサユニット10のうち測距用のセンサユニットの画素チップ100は、測距用の光源の発光波長(例えば赤外域)に対して感度の高い画素100aを有することが好ましい。測距用のセンサユニットの透光カバー101は非可視光のみを透過させるものであることが好ましい。これにより、撮像用のセンサユニットとの間でのクロストークを抑制することができる。
(位置決め構造)
 上記位置決め構造は、一例として、図5、図6、図10、図11及び図13に示すように、基板300に設けられたピン400及び第1ボルト挿通孔300dと、実装基板200に設けられピン400が挿入されるピン挿入孔200cと、実装基板200の、第1ボルト挿通孔300dに対応する位置に設けられた第2ボルト挿通孔200dと、第1及び第2ボルト挿通孔300d、200dに挿通されるボルト500と、該ボルト500に螺合するナット600と、を有する。ピン400は、一例として、基板300に設けられたピン挿入孔300cに一端側(-Z側)の部分が挿入及び固定され、他端側(+Z側)の部分が実装基板200に設けられたピン挿入孔200cに挿通されている。ここでは、位置決め構造は、一例として、ピン400とボルト500とがセンサユニット10及び基板300の対角線上に位置するようにレイアウトされている(図1参照)。
 ピン挿入孔200cは、図7に示すように、ピン400が嵌入される丸孔であり、第1及び第2ボルト挿通孔300d、200dは、短手方向の長さがボルト500の螺子部の直径よりも大きい長孔である。これにより、例えば、ボルト500に対するナット600の締め付けを緩くした状態でセンサユニット10にピン400を軸とした回転モーメントを作用させることにより、該長孔内におけるボルト500の可動範囲に対応する範囲内で該センサユニット10をピン400を軸に回転させることができる。
 なお、当該位置決め構造において、実装基板200にピン及び第1ボルト挿通孔が設けられ、基板300にピンが挿入されるピン挿入孔が設けられ、基板300の、第1ボルト挿通孔に対応する位置に第2ボルト挿通孔が設けられてもよい。
≪イメージセンサ装置の製造方法≫
 以下、本技術の一実施形態に係るイメージセンサ装置1の製造方法について、図15のフローチャートを参照して説明する。
 最初のステップS1では、センサユニット生成工程(図16参照)を実施する。センサユニット生成工程の詳細は、後述する。
 最後のステップS2では、センサユニット搭載工程(図17参照)を実施する。センサユニット搭載工程の詳細は、後述する。
(センサユニット生成工程)
 以下、センサユニット生成工程(図15のステップS1)について、図16のフローチャート、図18A~図19Dを参照して説明する。
 最初のステップS1-1では、ウェハに複数の画素領域を形成する。具体的には、先ず、フォトリソグラフィーにより、各画素領域が形成される半導体基板103の基材となるウェハに該画素領域の複数の光電変換素子100a1を形成する(図18A参照)。次いで、各光電変換素子100a1上にカラーフィルタ100a2、マイクロレンズ100a3をこの順に形成する(図18B参照)。
 次のステップS1-2では、スペーサ102を形成する。具体的には、各半導体基板103上に枠状のスペーサ102を画素領域を取り囲むように例えばフォトリソグラフィーにより形成する(図18C参照)。
 次のステップS1-3では、透光カバー101を装着する。具体的には、透光カバー101の外縁部を各半導体基板103上に形成されたスペーサ102に例えば接着剤を介して接合する(図18D参照)。
 次のステップS1-4では、貫通孔THを形成する。具体的には、例えばフォトリソグラフィーにより、半導体基板103の電極パッドに対応する位置に貫通孔THを形成する(図18E参照)。
 次のステップS1-5では、絶縁膜IFを成膜する。具体的には、貫通孔TH及びその周辺部に例えばSiOからなる絶縁膜IFを成膜する。
 次のステップS1-6では、絶縁膜IFを開口する。貫通孔THの底部に形成された絶縁膜IFをエッチングにより除去して開口し、電極パッドを露出させる(図19A参照)。
 次のステップS1-7では、金属膜MFを形成する。具体的には、先ず、電極パッドが露出した絶縁膜IF上にバリア層を形成する。次いで、このバリア層をシードとしてCuメッキを行う(図19B参照)。この結果、一端が電極パッドに接続されたビアと、該ビアの他端に接続されたランドとを含む金属膜MFが形成される。
 次のステップS1-8では、封止樹脂を形成する。具体的には、貫通孔TH内の金属膜MF(ビア)及び貫通孔THの周辺部上の金属膜MF(ランド)を樹脂により封止する(図19C)。これにより、貫通電極104が完成する。この結果、複数のセンサ部50が一連一体で生成される。
 次のステップS1-9では、センサ部50毎に個片化する。具体的には、ダイシングにより、一連一体の複数のセンサ部50をセンサ部50毎に分離する。
 最後のステップS1-10では、センサ部50を実装基板200に実装する。具体的には、センサ部50の半導体基板103側の面と実装基板200の実装面(ランドが設けられた面)とを対向させ、貫通電極104のランドと実装基板200のランドとを金属バンプ(例えば半田ボール)を介して接合する(図19D参照)。この結果、センサユニット10(図8参照)が生成される。
(センサユニット搭載工程)
 以下、センサユニット搭載工程(図15のステップS2)について、図17のフローチャート、図20A~図22Cを参照して説明する。ここで、複数(例えば3つ)のセンサユニット10を、それぞれ第1~第3センサユニット10-1~10-3とする。
 最初のステップS2-1では、第1センサユニット10-1を基板300上に載置する(図20A参照)。具体的には、第1センサユニット10-1を基板300の長手方向の一端部上にピン400がピン挿入孔200cに挿入されるように、且つ、第1センサユニット10-1のコネクタ250が、基板300に設けられたコネクタ接続部に接続されるように載置する。
 次のステップS2-2では、第1センサユニット10-1の位置を調整する(図20B、図20C参照)。具体的には、先ず、基板300の第1ボルト挿通孔300d及び第1センサユニット10-1の第2ボルト挿通孔200dにボルト500を挿通して該ボルト500にナット600を螺合させて仮締めする。次いで、第1センサユニット10-1をピン400を軸に回転させて基板300に対する位置調整を行う。第1センサユニット10-1の位置調整は比較的ラフでよい。
 次のステップS2-3では、第1センサユニット10-1を基板300に固定する。具体的には、ステップS2-2での位置調整後の状態を維持しつつボルト500に螺合させたナット600を締め付けて本締めする。
 次のステップS2-4では、第2センサユニット10-2を基板300上に載置する(図21A参照)。具体的には、第2センサユニット10-2を基板300の長手方向の中間部上にピン400がピン挿入孔200cに挿入されるように、且つ、第2センサユニット10-2のコネクタ250が、基板300に設けられたコネクタ接続部に接続されるように載置する。
 次のステップS2-5では、第2センサユニット10-2の位置を調整する(図21B、図21C参照)。具体的には、先ず、基板300の第1ボルト挿通孔300d及び第2センサユニット10-2の第2ボルト挿通孔200dにボルト500を挿通して該ボルト500にナット600を螺合させて仮締めする。次いで、第2センサユニット10-2をピン400を軸に回転させて基板300に対する位置調整を行う。このとき、第2センサユニット10-2の画素チップ100の端面が、第1センサユニット10-1の画素チップ100の端面に突き当たるように第2センサユニット100-2の位置を調整する(図21Bの部分拡大図参照)。
 次のステップS2-6では、第2センサユニット10-2を基板300に固定する。具体的には、ステップS2-5での位置調整後の状態を維持しつつボルト500に螺合させたナット600を締め付けて本締めする。
 次のステップS2-7では、第3センサユニット10-3を基板300上に載置する(図22A参照)。具体的には、第3センサユニット10-3を基板300の長手方向の他端部上にピン400がピン挿入孔200cに挿入されるように、且つ、第3センサユニット10-3のコネクタ250が、基板300に設けられたコネクタ接続部に接続されるように載置する。
 次のステップS2-8では、第3センサユニット10-3の位置を調整する(図22B、図22C参照)。具体的には、先ず、基板300の第1ボルト挿通孔300d及び第3センサユニット10-3の第2ボルト挿通孔200dにボルト500を挿通して該ボルト500にナット600を螺合させて仮締めする。次いで、第3センサユニット10-3をピン400を軸に回転させて基板300に対する位置調整を行う。このとき、第3センサユニット10-3の画素チップ100の端面が、第2センサユニット10-2の画素チップ100の端面に突き当たるように第3センサユニット100-3の位置を調整する(図22Bの部分拡大図参照)。
 最後のステップS2-9では、第3センサユニット10-3を基板300に固定する。具体的には、ステップS2-8での位置調整後の状態を維持しつつボルト500に螺合させたナット600を締め付けて本締めする。
 以上のようにして、センサユニット10間での位置関係が適正化されたイメージセンサ装置1が製造される。
≪イメージセンサ装置及びその製造方法の効果≫
 以下に、本技術の一実施形態に係るイメージセンサ装置1は、基板300と、該基板300上に少なくとも一軸方向(例えばX軸方向)に並べて配置された複数のセンサユニット10と、を備え、複数のセンサユニット10の各々は、複数の画素100aを有する画素チップ100と、該画素チップ100を覆う透光カバー101と、を含む。
 イメージセンサ装置1によれば、画素チップ100毎に透光カバー101が設けられるので、製造時に構成部品が損傷されるリスク及び/又は汚染されるリスクを低減することができるイメージセンサ装置を提供することができる。
 複数のセンサユニット10は、一軸方向(例えばX軸方向)に並んでいてもよい。さらに、基板300及び複数のセンサユニット10の各々は、長手方向が一軸方向(X軸方向)に略一致する。これにより、イメージセンサ装置1は、リニアイメージセンサを構成することができる。
 透光カバー101は、板状であり、複数のセンサユニット10の各々は、画素チップ100と透光カバー101との間に配置されたスペーサ102を更に含みうる。これにより、板状の透光カバー101を用いて画素チップ100毎の内部空間を簡易に形成することができる。
 画素チップ100毎に設けられる透光カバー101が短尺なので、半導体基板103との線膨張係数のミスマッチによる透光カバー101の剥離や、画素チップ100の反りによる画質劣化が抑制できる。
 透光カバー101が短尺なので、センサユニット10でのハンドリングにより、透光カバー101や、画素チップ100の破損のリスクが低い。
 画素チップ100を長尺にする必要がないので、大口径ウエハが不要であり、低コスト化が図れる。
 複数のセンサユニット10の各々は、画素チップ100が実装される実装基板200を更に含みうる。これにより、画素チップ100を含むセンサユニット10を基板300に容易に搭載することができる。
 画素チップ100は、実装基板200に対して一軸方向(例えばX軸方向)の少なくとも一側に突出していることが好ましい。
 画素チップ100は、少なくとも、画素チップ100の線膨張係数と実装基板200の線膨張係数との差に応じた量だけ実装基板200に対して一軸方向(例えばX軸方向)の少なくとも一側に突出していることが好ましい。
 基板300と、複数のセンサユニット10の各々とを位置決めする位置決め構造が設けられていることが好ましい。これにより、センサユニット間の位置決め調整が可能となる。
 当該位置決め構造は、基板300及び実装基板200の一方に設けられたピン400及び第1ボルト挿通孔と、基板300及び実装基板200の他方に設けられピン400が挿入されるピン挿入孔と、他方の、第1ボルト挿通孔に対応する位置に設けられた第2ボルト挿通孔と、第1及び第2ボルト挿通孔に挿通されるボルト500と、該ボルト500に螺合するナット600と、を有していてもよい。これにより、簡素な構成により、各センサユニット10の、基板300に垂直な軸周りの位置調整を行うことができる。
 ピン挿入孔は、ピン400が嵌入される丸孔であり、第1及び第2ボルト挿通孔は、短手方向の長さがボルトの螺子部の直径よりも大きい長孔であることが好ましい。これにより、各センサユニット10の、基板300に垂直な軸周りの位置調整を簡単に行うことができる。
 画素チップ100は、複数の画素を含む画素領域が設けられた画素基板としての半導体基板103を有し、該画素基板103には、該画素基板103の実装基板200側とは反対側に設けられた電極パッドと実装基板200とを電気的に接続するための貫通電極104が設けられていてもよい。
 複数のセンサユニット10の各々は、撮像用のセンサユニット10であってもよい。
 複数のセンサユニット10の各々は、測距用のセンサユニット10であってもよい。
 複数のセンサユニット10は、撮像用のセンサユニット及び測距用のセンサユニットを含んでいてもよい。これにより、イメージセンサ装置1を用いて、撮像及び測距の両方を並行して行うこともできるし、撮像及び測距の一方を選択的に(例えば交互に)行うこともできる。
 このように、イメージセンサ装置1では、性能及び/又は用途の異なるセンサユニット10を組み合わせて、パッケージングされた単一の装置により、複数の機能を保有することが可能である。
 本技術の一実施形態に係るイメージセンサ装置1の製造方法は、画素チップ100と該画素チップ100を覆う透光カバー101とを含むセンサユニット10を複数生成する工程と、複数のセンサユニット10を基板300上に少なくとも一軸方向に並べて実装する工程と、を含む。これにより、画素チップ100毎に透光カバー101が設けられるので、製造時に構成部品が損傷されるリスク及び/又は汚染されるリスクを低減することができるイメージセンサ装置を製造することができる。
 上記実装する工程では、各センサユニット10の基板300に対する位置調整を行った後、該センサユニット10を基板300に対して固定してもよい。これにより、画素チップ100間の位置関係が適正化されたイメージセンサ装置1を製造することができる。
 イメージセンサ装置1の製造方法によれば、ウエハプロセスで中空構造を形成できるので、画素チップ100表面の汚染を抑制することが可能である。
 一方、従来技術(例えば特許文献1)では、以下の(1)~(6)のような問題がある。
(1)センサチップ及びセンサ基板を含むセンサユニットの加工精度でセンサユニットの位置が決まるので、センサユニットの位置の調整ができない。
(2)全てのセンサユニットを基板保持体に保持させた後に、ワイヤーボンディングを行い、フレーム、カバーガラス等を組み立てるので、センサ表面が汚染されるリスクが高い。
(3)カバーガラスが長尺なのでハンドリング時にカバーガラスが破損するリスクが高い。
(4)センサチップ単体が突出した状態で、ハンドリングされるのでチップ破損リスクが高い。
(5)基板保持体の他、位置決めのための基板が複数種類必要であり、部品点数が多く、位置決め構造が複雑である。
(6)カバーガラスの線膨張係数と基板保持体の線膨張係数が近い材料の選定が困難であり、基板保持体の反りによるセンサ面の反りや、ガラス剥離のリスクが高い。
<2.本技術の変形例1~9に係るイメージセンサ装置>
 以下、本技術の変形例1~9に係るイメージセンサ装置について図面を用いて説明する。各変形例の説明において、上記実施形態と異なる点を主に説明し、同一の構成を有する部材には同一の符号を付してその説明を省略する。
(変形例1に係るイメージセンサ装置)
 変形例1に係るイメージセンサ装置では、図23A及び図23Bに示すように、センサ部50及び実装基板200Aを含むセンサユニット10Aの実装基板200Aが、ピン挿入孔200cに代えて第2ボルト挿通孔200dを有しており、且つ、基板300Aがピン挿入孔300cに代えて第1ボルト挿通孔300dを有している。
 実装基板200Aは、2つの第2ボルト挿通孔200dを対角線上に有している。
 基板300Aは、2つの第1ボルト挿通孔300dを各センサユニット10Aが装着される装着部の対角線上(2つの第2ボルト挿通孔200dにそれぞれ対応する位置)に有している。
 変形例1に係るイメージセンサでは、互いに対応する第1及び第2ボルト挿通孔300d、200dにボルト500が挿通され、該ボルト500の螺子部にナット600が螺合される。
 変形例1に係るイメージセンサ装置では、位置決め構造は、基板300A及び実装基板200Aの一方に設けられた複数(例えば2つ)の第1ボルト挿通孔と、基板300A及び実装基板200Aの他方の、複数(例えば2つ)の第1ボルト挿通孔に対応する位置にそれぞれ設けられた複数(例えば2つ)の第2ボルト挿通孔と、複数組の対応する第1及び第2ボルト挿通孔にそれぞれ挿通される複数(例えば2つ)のボルト500と、複数のボルト500それぞれに螺合する複数(2つ)のナット600とを含む。
 変形例1に係るイメージセンサ装置によれば、各センサユニット10Aの基板300Aに対する位置調整の自由度が高い。また、各センサユニット10Aが基板300Aに対して2点で固定されるため、より強固に固定できる。
(変形例2に係るイメージセンサ装置)
 変形例2に係るイメージセンサ装置では、図24に示すように、センサ部50及び実装基板200を含むセンサユニット10Bにおいて、貫通電極104に代えて、画素チップ100の電極パッド部と実装基板200の電極パッド部とがボンディングワイヤBWを介して電気的に接続されている。
(変形例3に係るイメージセンサ装置)
 変形例3に係るイメージセンサ装置3では、図25A~図25Cに示すように、センサユニット10Cの実装基板200Cに第2ボルト挿通孔200dが増設され、且つ、基板300に第1ボルト挿通孔300dが増設されている点を除いて、変形例1に係るイメージセンサ装置と概ね同様の構成を有する。
 イメージセンサ装置3では、実装基板200Cの同一直線上にない3つの位置に第2ボルト挿通孔200dが設けられ、且つ、基板300Cの、3つの第2ボルト挿通孔200dの位置に対応する位置に3つの第1ボルト挿通孔300dが設けられている。
 詳述すると、イメージセンサ装置3は、一例として、図25AのF-F線断面図の一例である図25Bに示すように、センサユニット10Cの短手方向に並べて配置される2つのボルト500の一方が実装基板200Cと基板300Cとの間に配置されたスペーサ700に挿通され、他方が実装基板200Cと基板300Cとの間に配置されたスペーサ800に挿通されている。この場合、スペーサ700、800の厚さにより、センサユニット10Cの基板300Cに対する短手方向及び長手方向の傾きを所望の傾きに調整することができる。
 イメージセンサ装置3は、一例として、図25AのF-F線断面図の他の例である図25Cに示すように、スペーサ700を有し、且つ、スペーサ800を有していなくてもよい。この場合、スペーサ700の厚さにより、センサユニット10Cの基板300Cに対する短手方向及び長手方向の傾きを調整することができる。
 さらに、図25B及び図25Cの例において、センサユニット10Cの他のもう1つのボルト500が実装基板200Cと基板300Cとの間に配置されたスペーサに挿通されていてもよい。
 以上のように、イメージセンサ装置3では、第1及び第2ボルト挿通孔は、少なくとも3組(例えば3組)設けられ、ボルト500は、該少なくとも3組(例えば3組)に対応して少なくとも3つ(例えば3つ)あり、位置決め構造は、少なくとも3つ(例えば3つ)のボルト500の各々が挿通され、基板300C及び実装基板200Cの間に配置されるスペーサを含む。
(変形例4に係るイメージセンサ装置)
 変形例4係るイメージセンサ装置4では、一例として、図26A~図26Cに示すように、センサユニット10Dの実装基板200Dの同一直線上にない3つの位置のうち2つの位置にそれぞれ2つの第2ボルト挿通孔200dが設けられ、1つの位置にピン挿入孔200cが設けられ、且つ、基板300Dの、2つの第2ボルト挿通孔200dに対応する位置に2つの第1ボルト挿通孔300dが設けられ、且つ、基板300Dの、ピン挿入孔200cに対応する位置にピン400が挿入及び固定されたピン挿入孔300cが設けられている。
 詳述すると、イメージセンサ装置4は、一例として、図26AのG-G線断面図の一例である図26Bに示すように、センサユニット10Dの短手方向に並べて配置されるボルト500及びピン400のうちボルト500が実装基板200Dと基板300Dとの間に配置されたスペーサ700に挿通され、ピン400が実装基板200Dと基板300Dとの間に配置されたスペーサ800に挿通されている。この場合、スペーサ700、800の厚さにより、センサユニット10Dの基板300Dに対する短手方向及び長手方向の傾きを所望の傾きに調整することができる。
 イメージセンサ装置4は、一例として、図26AのG-G線断面図の他の例である図26Cに示すように、スペーサ700を有し、且つ、スペーサ800を有していなくてもよい。この場合、スペーサ700の厚さにより、センサユニット10Dの基板300Dに対する短手方向及び長手方向の傾きを調整することができる。
 さらに、図26B及び図26Cの例において、センサユニット10Dの他のもう1つのボルト500が実装基板200Dと基板300Dとの間に配置されたスペーサに挿通されていてもよい。
 以上のように、イメージセンサ装置4では、第1及び第2ボルト挿通孔は、複数組(例えば2組)設けられ、ボルト500は、該複数組(例えば2組)に対応して複数(例えば2つ)あり、位置決め構造は、複数のボルト500の各々が挿通され、基板300D及び実装基板200Dの間に配置されるスペーサを含む。
(変形例5に係るイメージセンサ装置)
 実施例5に係るイメージセンサ装置では、図27A及び図27Bに示すように、センサユニット10Eの実装基板200Eの同一直線上にない4つの位置(例えば4隅)に第2ボルト挿通孔200dが設けられ、且つ、基板300Eの各センサユニット10Eが装着される装着部の、4つの第2ボルト挿通孔200dに対応する位置に第1ボルト挿通孔300dが設けられている。
 変形例5に係るイメージセンサ装置では、互いに対応する第1及び第2ボルト挿通孔300d、200dにボルト500が挿通され、該ボルト500の螺子部にナット600が螺合される。
 変形例5に係るイメージセンサ装置によれば、変形例3に係るイメージセンサ装置3よりも、センサユニット10Eの基板300Eに対する短手方向及び長手方向の傾き調整の自由度が高い。
(変形例6に係るイメージセンサ装置)
 実施例6に係るイメージセンサ装置では、図28A及び図28Bに示すように、センサユニット10Fの実装基板200Fの同一直線上にない4つの位置(例えば4隅)のうち3つの位置に第2ボルト挿通孔200dが設けられるとともに1つの位置にピン挿入孔200cが設けられ、且つ、基板300Fの各センサユニット10Fが装着される装着部の、3つの第2ボルト挿通孔200dに対応する位置に第1ボルト挿通孔300dが設けられるとともにピン挿入孔200cに対応する位置にピン400が挿入及び固定されるピン挿入孔300cが設けられている。
 変形例6に係るイメージセンサ装置では、互いに対応する第1及び第2ボルト挿通孔300d、200dにボルト500が挿通され、該ボルト500の螺子部にナット600が螺合され、ピン400がピン挿入孔200cに挿入される。
 変形例6に係るイメージセンサ装置によれば、変形例4に係るイメージセンサ装置4よりも、センサユニット10Fの基板300Fに対する短手方向及び長手方向の傾き調整の自由度が高い。
(変形例7に係るイメージセンサ装置)
 変形例7に係るイメージセンサ装置7は、図29及び図30に示すように、センサユニット10Gが、断面略U字状の透光カバー101Gを有し、且つ、スペーサ102を有していない点を除いて、一実施形態に係るイメージセンサ装置1と同様の構成を有する。
 透光カバー101Gは、開口端部が半導体基板103に接合(例えば接着)されている。すなわち、透光カバー101Gは、板状の透光カバー101及びスペーサ102の機能を兼ねる。
 イメージセンサ装置7によれば、部品点数及び製造工数を削減できる。
(変形例8に係るイメージセンサ装置)
 変形例8に係るイメージセンサ装置8は、図31に示す複数(例えば5つ)のセンサユニット10Hが図32に示す基板300H上にセンサユニット10Hの短手方向に沿って並べて配置されることにより、全体としてエリアイメージセンサを構成している。
 各センサユニット10Hでは、図31の部分拡大図である図33に示すように、センサ部50Hの画素チップが実装基板200Hに対して短手方向に突出しており(例えば画素チップと実装基板の線膨張係数の差に相当する分だけ突出しており)、隣り合う2つのセンサ部50Hの画素チップの短手方向の端面同士が突き当てられた状態で位置決めされている。
 イメージセンサ装置8によれば、上記実施形態に係るイメージセンサ装置1と同様の効果を奏するエリアイメージセンサを実現できる。
(変形例9に係るイメージセンサ装置)
 変形例9に係るイメージセンサ装置9は、図34に示す複数(例えば10個)のセンサユニット10Iが図35に示す基板300I上にセンサユニット10Iの短手方向及び長手方向に2次元配置されることにより、全体としてエリアイメージセンサを構成している。
 イメージセンサ装置9では、各センサユニット10Iの実装基板200Iが短手方向に並ぶ2つの第2ボルト挿通孔200dを有し、基板300Iが該2つの第2ボルト挿通孔200dに対応する2つの第1ボルト挿通孔300dを有している。互いに対応する第1及び第2ボルト挿通孔300d、200dにボルト500が挿通され、該ボルト500の螺子部にナット600が螺合される。
 各センサユニット10Iでは、センサ部50Iの画素チップが実装基板200Iに対して短手方向及び長手方向に突出しており(例えば画素チップと実装基板の線膨張係数の差に相当する分だけ突出しており)、隣り合う2つのセンサ部50Iの画素チップの短手方向及び/又は長手方向の端面同士が突き当てられた状態で位置決めされている。
 イメージセンサ装置9によれば、上記実施形態に係るイメージセンサ装置1と同様の効果を奏するエリアイメージセンサを実現できる。
<3.本技術の他の変形例>
 以上説明した一実施形態及び各変形例に係るイメージセンサ装置の構成は、適宜変更可能である。
 例えば、上記一実施形態及び各変形例に係るイメージセンサ装置の構成を技術的に矛盾しない範囲内で相互に組み合わせてもよい。
 上記一実施形態及び各変形例に係るイメージセンサ装置のセンサユニットの数(以下、「分割数」とも呼ぶ)は、3つであるが、これに限らず、2つ又は4つ以上であってもよい。
 本技術に係るイメージセンサ装置が例えばリニアイメージセンサを構成する場合に、長手方向の全長に対してセンサユニットの数及び各センサユニットの長手方向の長さの適正化を図ることにより、如何なる長手方向の全長のイメージセンサ装置においても前述した効果を得ることが可能である。この場合に、センサユニット間で長手方向の長さ及び/又は短手方向の長さが異なっていてもよい。
 本技術に係るイメージセンサ装置が例えばエリアイメージセンサを構成する場合には、全体の面積に対して、縦横の分割数及び各センサユニットの縦横の長さの適正化を図ることにより前述した効果を得ることができる。この場合に、センサユニット間で面積が異なっていてもよい。
 画素チップ100は、半導体基板103と配線層とが積層された積層構造を有していてもよい。この場合に、例えば配線層及び半導体基板103が実装基板200側からこの順に配置(前者)されてもよいし、半導体基板103及び配線層が実装基板200側からこの順に配置(後者)されてもよい。前者及び後者の場合に、例えば半導体基板103及び配線層を貫通する貫通電極により、電極パッドと配線層と実装基板とが電気的に接続されてもよい。前者の場合に、半導体基板103を貫通する貫通電極により電極パッドと配線層とが電気的に接続され、且つ、配線層と実装基板200とが金属接合等により電気的に接続されてもよい。後者の場合に、電極パッドと配線層とが金属接合等により電気的に接続され、且つ、半導体基板103を貫通する貫通電極により配線層と実装基板とが電気的に接続されてもよい。
 上記実施形態及び各変形例において、画素チップは、該画素チップが実装される実装基板に対して一軸方向(例えば複数のセンサユニットの並び方向)の一側にのみ突出していてもよい。例えば、複数のセンサユニットのうち一軸方向(並び方向)の両端に位置するセンサユニットの画素チップは、該画素チップが実装される実装基板に対して、隣接するセンサユニットの画素チップ側にのみ突出していてもよい。
<4.本技術を適用したイメージセンサ装置の使用例>
 図36は、本技術の一実施形態及び各変形例のイメージセンサ装置の使用例を示す図である。
 本技術の一実施形態及び各変形例のイメージセンサ装置は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングするさまざまなケースに使用することができる。すなわち、図36に示すように、例えば、鑑賞の用に供される画像を撮影する鑑賞の分野、交通の分野、家電の分野、医療・ヘルスケアの分野、セキュリティの分野、美容の分野、スポーツの分野、農業の分野等において用いられる装置(機器)に使用することができる。
 具体的には、鑑賞の分野においては、例えば、デジタルカメラやスマートフォン、カメラ機能付きの携帯電話機等の、鑑賞の用に供される画像を撮影するための装置に、本技術の一実施形態及び各変形例のイメージセンサ装置を使用することができる。
 交通の分野においては、例えば、自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置に、本技術の一実施形態及び各変形例のイメージセンサ装置を使用することができる。
 家電の分野においては、例えば、ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、テレビ受像機や冷蔵庫、エアーコンディショナ等の家電に供される装置で、本技術の一実施形態及び各変形例のイメージセンサ装置を使用することができる。
 医療・ヘルスケアの分野においては、例えば、内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置に、本技術の一実施形態及び各変形例のイメージセンサ装置を使用することができる。
 セキュリティの分野においては、例えば、防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置に、本技術の一実施形態及び各変形例のイメージセンサ装置を使用することができる。
 美容の分野においては、例えば、肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置に、本技術の一実施形態及び各変形例のイメージセンサ装置を使用することができる。
 スポーツの分野において、例えば、スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置に、本技術の一実施形態及び各変形例のイメージセンサ装置を使用することができる。
 農業の分野においては、例えば、畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置に、本技術の一実施形態及び各変形例のイメージセンサ装置を使用することができる。
 次に、本技術の一実施形態及び各変形例のイメージセンサ装置の使用例を具体的に説明する。例えば、本技術の一実施形態及び各変形例のイメージセンサ装置は、イメージセンサ装置501として、例えばデジタルスチルカメラやビデオカメラ等のカメラシステムや、撮像機能を有する携帯電話など、撮像機能を備えたあらゆるタイプの電子機器に適用することができる。図37に、その一例として、電子機器510(カメラ)の概略構成を示す。この電子機器510は、例えば静止画または動画を撮影可能なビデオカメラであり、イメージセンサ装置501と、光学系(光学レンズ)502と、シャッタ装置503と、イメージセンサ装置501およびシャッタ装置503を駆動する駆動部504と、信号処理部505とを有する。
 光学系502は、被写体からの像光(入射光)をイメージセンサ装置501の画素領域へ導くものである。この光学系502は、複数の光学レンズから構成されていてもよい。シャッタ装置503は、イメージセンサ装置501への光照射期間および遮光期間を制御するものである。駆動部504は、イメージセンサ装置501の転送動作およびシャッタ装置503のシャッタ動作を制御するものである。信号処理部505は、イメージセンサ装置501から出力された信号に対し、各種の信号処理を行うものである。信号処理後の映像信号Doutは、メモリなどの記憶媒体に記憶されるか、あるいは、モニタ等に出力される。
<5.本技術に係るイメージセンサ装置の他の使用例>
 本技術の一実施形態及び各変形例のイメージセンサ装置は、例えば、TOF(Time Of Flight)センサなど、光を検出する他の電子機器へ適用することもできる。TOFセンサへ適用する場合は、例えば、直接TOF計測法による距離画像センサ、間接TOF計測法による距離画像センサへ適用することが可能である。直接TOF計測法による距離画像センサでは、フォトンの到来タイミングを各画素において直接時間領域で求めるため、短いパルス幅の光パルスを送信し、高速に応答する受信機で電気的パルスを生成する。その際の受信機に本開示を適用することができる。また、間接TOF法では、光で発生したキャリアーの検出と蓄積量が、光の到来タイミングに依存して変化する半導体素子構造を利用して光の飛行時間を計測する。本開示は、そのような半導体構造としても適用することが可能である。TOFセンサへ適用する場合は、カラーフィルタアレイ及びマイクロレンズアレイを設けることは任意であり、これらの少なくとも一方を設けなくても良い。
 本技術の一実施形態及び各変形例のイメージセンサ装置は、ファクシミリ、スキャナー等の画像読取機能を有する装置(機器)に用いられてもよい。
<6.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置(機器)として実現されてもよい。
 図38は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図38に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図38の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図39は、撮像部12031の設置位置の例を示す図である。
 図39では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図39には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術(本技術)が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031等に適用され得る。具体的には、本開示の固体撮像装置111は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、歩留まりを向上させ、製造に係るコストを低減させることが可能となる。
<7.内視鏡手術システムへの応用例>
 本技術は、様々な製品へ応用することができる。例えば、本開示に係る技術(本技術)は、内視鏡手術システムに適用されてもよい。
 図40は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図40では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図41は、図40に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、内視鏡11100や、カメラヘッド11102(の撮像部11402)等に適用され得る。具体的には、本開示の固体撮像装置111は、撮像部10402に適用することができる。内視鏡11100や、カメラヘッド11102(の撮像部11402)等に本開示に係る技術を適用することにより、歩留まりを向上させ、製造に係るコストを低減させることが可能となる。
 ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 また、本技術は、以下のような構成をとることもできる。
(1)基板と、
 前記基板上に少なくとも一軸方向に並べて配置された複数のセンサユニットと、
 を備え、
 前記複数のセンサユニットの各々は、
 複数の画素を有する画素チップと、
 前記画素チップを覆う透光カバーと、
 を含む、イメージセンサ装置。
(2)前記複数のセンサユニットは、前記一軸方向に並んでいる、(1)に記載のイメージセンサ装置。
(3)前記基板及び前記複数のセンサユニットの各々は、長手方向が前記一軸方向に略一致する、(1)又は(2)に記載のイメージセンサ装置。
(4)前記透光カバーは、板状であり、前記複数のセンサユニットの各々は、前記画素チップと前記透光カバーとの間に配置されたスペーサを更に含む、(1)~(3)のいずれか1つに記載のイメージセンサ装置。
(5)前記複数のセンサユニットの各々は、前記画素チップが実装される実装基板を更に含む、(1)~(4)のいずれか1つに記載のイメージセンサ装置。
(6)前記画素チップは、前記実装基板に対して前記一軸方向の少なくとも一側に突出している、(5)に記載のイメージセンサ装置。
(7)前記画素チップは、少なくとも、前記画素チップの線膨張係数と前記実装基板の線膨張係数との差に応じた量だけ前記実装基板に対して前記少なくとも一側に突出している、(6)に記載のイメージセンサ装置。
(8)前記基板と、前記複数のセンサユニットの各々とを位置決めする位置決め構造が設けられている、(1)~(8)のいずれか1つに記載のイメージセンサ装置。
(9)前記位置決め構造は、前記基板及び前記実装基板の一方に設けられたピン及び第1ボルト挿通孔と、前記基板及び前記実装基板の他方に設けられ前記ピンが挿入されるピン挿入孔と、前記他方の、前記第1ボルト挿通孔に対応する位置に設けられた第2ボルト挿通孔と、前記第1及び第2ボルト挿通孔に挿通されるボルトと、前記ボルトに螺合するナットと、を有する、(8)に記載のイメージセンサ装置。
(10)前記ピン挿入孔は、前記ピンが嵌入される丸孔であり、前記第1及び第2ボルト挿通孔は、短手方向の長さが前記ボルトの螺子部の直径よりも大きい長孔である、(9)に記載のイメージセンサ装置。
(11)前記第1及び第2ボルト挿通孔は、複数組設けられ、前記ボルトは、前記複数組に対応して複数あり、前記位置決め構造は、前記複数のボルトの少なくとも1つが挿通され、前記基板及び前記実装基板の間に配置される少なくとも1つのスペーサを含む、(9)又は(10)に記載のイメージセンサ装置。
(12)前記位置決め構造は、前記基板及び前記実装基板の一方に設けられた複数の第1ボルト挿通孔と、前記基板及び前記実装基板の他方の、前記複数の第1ボルト挿通孔に対応する位置にそれぞれ設けられた複数の第2ボルト挿通孔と、複数組の対応する前記第1及び第2ボルト挿通孔にそれぞれ挿通される複数のボルトと、複数の前記ボルトそれぞれに螺合する複数のナットと、を含む、(8)に記載のイメージセンサ装置。
(13)前記第1及び第2ボルト挿通孔は、短手方向の長さが前記ボルトの螺子部の直径よりも大きい長孔である、(12)に記載のイメージセンサ装置。
(14)前記第1及び第2ボルト挿通孔は、少なくとも3組設けられ、前記ボルトは、前記少なくとも3組に対応して少なくとも3つあり、前記位置決め構造は、前記少なくとも3つのボルトの少なくとも1つが挿通され、前記基板及び前記実装基板の間に配置される少なくとも1つのスペーサを含む、(12)又は(13)に記載のイメージセンサ装置。
(15)前記画素チップと前記実装基板とがワイヤーボンディングにより電気的に接続されている、(5)~(14)のいずれか1つに記載のイメージセンサ装置。
(16)前記画素チップは、前記複数の画素を含む画素領域が設けられた画素基板を有し、前記画素基板には、該画素基板の前記実装基板側とは反対側に設けられた電極パッドと前記実装基板とを電気的に接続する貫通電極が設けられている、(5)~(14)のいずれか1つに記載のイメージセンサ装置。
(17)前記複数のセンサユニットの各々は、撮像用のセンサユニットである、(1)~(16)のいずれか1つに記載のイメージセンサ装置。
(18)前記複数のセンサユニットの各々は、測距用のセンサユニットである、(1)~(17)のいずれか1つに記載のイメージセンサ装置。
(19)前記複数のセンサユニットは、撮像用のセンサユニット及び測距用のセンサユニットを含む、(1)~(17)のいずれか1つに記載のイメージセンサ装置。
(20)請求項1に記載のイメージセンサ装置を備える、機器。
(21)画素チップと該画素チップを覆う透光カバーとを含むセンサユニットを複数生成する工程と、
 複数の前記センサユニットを基板上に少なくとも一軸方向に並べて実装する工程と、
 を含む、イメージセンサ装置の製造方法。
(22)前記実装する工程では、前記複数のセンサユニットを前記基板上に順次実装する、(21)に記載のイメージセンサ装置の製造方法。
(23)前記実装する工程では、各センサユニットの前記基板に対する位置調整を行った後、該センサユニットを前記基板に対して固定する、(21)又は(22)に記載のイメージセンサ装置の製造方法。
 1、3、4、7、8、9、501:イメージセンサ装置、10、10A、10B、10C、10D、10E、10F、10G、10H、10I:センサユニット、100:画素チップ、100a:画素、101、101G:透光カバー、102:スペーサ、103:半導体基板(画素基板)、104:貫通電極、200、200A、200C、200D、200E、200F、200H、200I:実装基板、200c:ピン挿入孔、200d:第2ボルト挿通孔、300、300A、300C、300D、300E、300F、300H、300I:基板、300d:第1ボルト挿通孔、510:電子機器(機器)、BW:ボンディングワイヤ。

Claims (22)

  1.  基板と、
     前記基板上に少なくとも一軸方向に並べて配置された複数のセンサユニットと、
     を備え、
     前記複数のセンサユニットの各々は、
     複数の画素を有する画素チップと、
     前記画素チップを覆う透光カバーと、
     を含む、イメージセンサ装置。
  2.  前記複数のセンサユニットは、前記一軸方向に並んでいる、請求項1に記載のイメージセンサ装置。
  3.  前記基板及び前記複数のセンサユニットの各々は、長手方向が前記一軸方向に略一致する、請求項2に記載のイメージセンサ装置。
  4.  前記透光カバーは、板状であり、
     前記複数のセンサユニットの各々は、前記画素チップと前記透光カバーとの間に配置されたスペーサを更に含む、請求項1に記載のイメージセンサ装置。
  5.  前記複数のセンサユニットの各々は、前記画素チップが実装される実装基板を更に含む、請求項1に記載のイメージセンサ装置。
  6.  前記画素チップは、前記実装基板に対して前記一軸方向の少なくとも一側に突出している、請求項5に記載のイメージセンサ装置。
  7.  前記画素チップは、少なくとも、前記画素チップの線膨張係数と前記実装基板の線膨張係数との差に応じた量だけ前記実装基板に対して前記少なくとも一側に突出している、請求項6に記載のイメージセンサ装置。
  8.  前記基板と、前記複数のセンサユニットの各々とを位置決めする位置決め構造が設けられている、請求項5に記載のイメージセンサ装置。
  9.  前記位置決め構造は、
     前記基板及び前記実装基板の一方に設けられたピン及び第1ボルト挿通孔と、
     前記基板及び前記実装基板の他方に設けられ前記ピンが挿入されるピン挿入孔と、
     前記他方の、前記第1ボルト挿通孔に対応する位置に設けられた第2ボルト挿通孔と、
     前記第1及び第2ボルト挿通孔に挿通されるボルトと、
     前記ボルトに螺合するナットと、
     を有する、請求項8に記載のイメージセンサ装置。
  10.  前記ピン挿入孔は、前記ピンが嵌入される丸孔であり、
     前記第1及び第2ボルト挿通孔は、短手方向の長さが前記ボルトの螺子部の直径よりも大きい長孔である、請求項9に記載のイメージセンサ装置。
  11.  前記第1及び第2ボルト挿通孔は、複数組設けられ、
     前記ボルトは、前記複数組に対応して複数あり、
     前記位置決め構造は、前記複数のボルトの少なくとも1つが挿通され、前記基板及び前記実装基板の間に配置される少なくとも1つのスペーサを含む、請求項9に記載のイメージセンサ装置。
  12.  前記位置決め構造は、
     前記基板及び前記実装基板の一方に設けられた複数の第1ボルト挿通孔と、
     前記基板及び前記実装基板の他方の、前記複数の第1ボルト挿通孔に対応する位置にそれぞれ設けられた複数の第2ボルト挿通孔と、
     複数組の対応する前記第1及び第2ボルト挿通孔にそれぞれ挿通される複数のボルトと、
     複数の前記ボルトそれぞれに螺合する複数のナットと、
     を含む、請求項8に記載のイメージセンサ装置。
  13.  前記第1及び第2ボルト挿通孔は、短手方向の長さが前記ボルトの螺子部の直径よりも大きい長孔である、請求項12に記載のイメージセンサ装置。
  14.  前記第1及び第2ボルト挿通孔は、少なくとも3組設けられ、
     前記ボルトは、前記少なくとも3組に対応して少なくとも3つあり、
     前記位置決め構造は、前記少なくとも3つのボルトの少なくとも1つが挿通され、前記基板及び前記実装基板の間に配置される少なくとも1つのスペーサを含む、請求項12に記載のイメージセンサ装置。
  15.  前記画素チップと前記実装基板とがワイヤーボンディングにより電気的に接続されている、請求項5に記載のイメージセンサ装置。
  16.  前記画素チップは、前記複数の画素を含む画素領域が設けられた画素基板を有し、
     前記画素基板には、該画素基板の前記実装基板側とは反対側に設けられた電極パッドと前記実装基板とを電気的に接続するための貫通電極が設けられている、請求項5に記載のイメージセンサ装置。
  17.  前記複数のセンサユニットの各々は、撮像用のセンサユニットである、請求項1に記載のイメージセンサ装置。
  18.  前記複数のセンサユニットの各々は、測距用のセンサユニットである、請求項1に記載のイメージセンサ装置。
  19.  前記複数のセンサユニットは、撮像用のセンサユニット及び測距用のセンサユニットを含む、請求項1に記載のイメージセンサ装置。
  20.  請求項1に記載のイメージセンサ装置を備える、機器。
  21.  画素チップと該画素チップを覆う透光カバーとを含むセンサユニットを複数生成する工程と、
     複数の前記センサユニットを基板上に少なくとも一軸方向に並べて実装する工程と、
     を含む、イメージセンサ装置の製造方法。
  22.  前記実装する工程では、各センサユニットの前記基板に対する位置調整を行った後、該センサユニットを前記基板に対して固定する、請求項21に記載のイメージセンサ装置の製造方法。
PCT/JP2022/038249 2021-12-06 2022-10-13 イメージセンサ装置、機器及びイメージセンサ装置の製造方法 WO2023105921A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-197960 2021-12-06
JP2021197960 2021-12-06

Publications (1)

Publication Number Publication Date
WO2023105921A1 true WO2023105921A1 (ja) 2023-06-15

Family

ID=86730072

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/038249 WO2023105921A1 (ja) 2021-12-06 2022-10-13 イメージセンサ装置、機器及びイメージセンサ装置の製造方法

Country Status (1)

Country Link
WO (1) WO2023105921A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014534611A (ja) * 2011-09-21 2014-12-18 ケーエルエー−テンカー コーポレイション 高速画像取得システム及び高速画像検査システム用の、インターポーザをベースにした画像センサ
JP2017183386A (ja) * 2016-03-29 2017-10-05 株式会社ニコン 基板
JP2019519967A (ja) * 2016-04-28 2019-07-11 ▲寧▼波舜宇光▲電▼信息有限公司 撮像モジュール、そのモールディング感光アセンブリ、モールディング感光アセンブリの半製品及びそれらの製造方法並びに電子機器
JP2019160866A (ja) * 2018-03-08 2019-09-19 ソニーセミコンダクタソリューションズ株式会社 撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014534611A (ja) * 2011-09-21 2014-12-18 ケーエルエー−テンカー コーポレイション 高速画像取得システム及び高速画像検査システム用の、インターポーザをベースにした画像センサ
JP2017183386A (ja) * 2016-03-29 2017-10-05 株式会社ニコン 基板
JP2019519967A (ja) * 2016-04-28 2019-07-11 ▲寧▼波舜宇光▲電▼信息有限公司 撮像モジュール、そのモールディング感光アセンブリ、モールディング感光アセンブリの半製品及びそれらの製造方法並びに電子機器
JP2019160866A (ja) * 2018-03-08 2019-09-19 ソニーセミコンダクタソリューションズ株式会社 撮像装置

Similar Documents

Publication Publication Date Title
JP7293123B2 (ja) 裏面照射型の固体撮像装置、および裏面照射型の固体撮像装置の製造方法、撮像装置、並びに電子機器
US11837616B2 (en) Wafer level lens
TW201901946A (zh) 影像感測器及用於製造影像感測器之方法
JP2023164552A (ja) 固体撮像装置及び電子機器
WO2022131109A1 (ja) 光検出器および電子機器
JP2019161171A (ja) 受光素子および電子機器
US20230103730A1 (en) Solid-state imaging device
WO2022102278A1 (ja) 固体撮像装置及び電子機器
WO2023105921A1 (ja) イメージセンサ装置、機器及びイメージセンサ装置の製造方法
US20230040457A1 (en) Photodetector
WO2021111893A1 (en) Semiconductor element and electronic apparatus
WO2020246293A1 (ja) 撮像装置
WO2019097909A1 (ja) 半導体素子、半導体装置および半導体素子の製造方法
US20230048188A1 (en) Light-receiving device
WO2022244297A1 (ja) 固体撮像装置及び電子機器
WO2023171008A1 (ja) 光検出装置および電子機器ならびに光検出システム
WO2023067891A1 (ja) 半導体装置、固体撮像装置及び半導体装置の製造方法
WO2022209128A1 (ja) 半導体装置
WO2022163351A1 (ja) 固体撮像装置
WO2023100492A1 (ja) 半導体装置及び電子機器
WO2023162505A1 (ja) 半導体装置、光学装置、光学モジュール、電子機器、及び半導体装置の製造方法
WO2022190623A1 (ja) 半導体パッケージ、電子機器
WO2023234069A1 (ja) 撮像装置および電子機器
WO2023127498A1 (ja) 光検出装置および電子機器
WO2023017838A1 (ja) 撮像装置及び電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22903855

Country of ref document: EP

Kind code of ref document: A1