WO2020017205A1 - 撮像素子および電子機器 - Google Patents

撮像素子および電子機器 Download PDF

Info

Publication number
WO2020017205A1
WO2020017205A1 PCT/JP2019/023618 JP2019023618W WO2020017205A1 WO 2020017205 A1 WO2020017205 A1 WO 2020017205A1 JP 2019023618 W JP2019023618 W JP 2019023618W WO 2020017205 A1 WO2020017205 A1 WO 2020017205A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image
resin layer
imaging
sensor substrate
Prior art date
Application number
PCT/JP2019/023618
Other languages
English (en)
French (fr)
Inventor
佳明 桝田
大岡 豊
聡哲 斎藤
貴弘 亀井
石井 渉
佐藤 直喜
伸一 松岡
広和 吉田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US17/250,355 priority Critical patent/US20210272995A1/en
Publication of WO2020017205A1 publication Critical patent/WO2020017205A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L23/00Details of semiconductor or other solid state devices
    • H01L23/28Encapsulations, e.g. encapsulating layers, coatings, e.g. for protection
    • H01L23/29Encapsulations, e.g. encapsulating layers, coatings, e.g. for protection characterised by the material, e.g. carbon
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L23/00Details of semiconductor or other solid state devices
    • H01L23/28Encapsulations, e.g. encapsulating layers, coatings, e.g. for protection
    • H01L23/31Encapsulations, e.g. encapsulating layers, coatings, e.g. for protection characterised by the arrangement or shape
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14618Containers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the present disclosure relates to, for example, an imaging device in which an optical sensor is configured as a chip-scale package, and an electronic device including the imaging device.
  • a wafer chip scale package (WCSP) structure As a simple packaging method for an optical sensor, a wafer chip scale package (WCSP) structure has been proposed.
  • WCSP structure a process of bonding a silicon substrate and a glass substrate is performed, but it is necessary to appropriately perform the bonding structure.
  • an imaging element in which dug portions are provided near four corners of an outer peripheral region outside an effective pixel region of the sensor substrate Is disclosed. Sealing resin is embedded in the dug portion, thereby improving the reliability by improving the shear strength of the joint portion.
  • An image sensor includes a sensor substrate having a light receiving region in which a plurality of light receiving devices are arranged and a peripheral region provided around the light receiving region, and a sealing substrate arranged to face one surface of the sensor substrate.
  • the layer has one or more voids inside the dug portion in plan view.
  • the electronic device has the image sensor according to the embodiment of the present disclosure as an image sensor.
  • a dug portion is provided in a peripheral region of a sensor substrate having a light receiving region in which a plurality of light receiving elements are arranged.
  • one or a plurality of gaps are provided in the resin layer embedded in the dug portion in plan view. Thereby, the application of local stress to the dug portion is reduced.
  • a dug portion is provided in a peripheral region of a sensor substrate to which a sealing member is bonded via a resin layer, and the dug portion is formed in a plan view.
  • One or more voids are provided in the resin layer embedded in the portion.
  • FIG. 1 is a schematic cross-sectional view illustrating an example of a configuration of a main part of an imaging element according to an embodiment of the present disclosure.
  • FIG. 2 is a schematic cross-sectional view illustrating an entire configuration of the imaging device illustrated in FIG. 1.
  • FIG. 2 is a schematic plan view illustrating an entire configuration of the imaging device illustrated in FIG. 1.
  • FIG. 2 is a schematic cross-sectional view illustrating another example of a position of a gap in the image sensor illustrated in FIG. 1.
  • FIG. 2 is a schematic cross-sectional view illustrating another example of a position of a gap in the image sensor illustrated in FIG. 1.
  • FIG. 2 is a schematic cross-sectional view illustrating another example of a position of a gap in the image sensor illustrated in FIG. 1.
  • FIG. 1 is a schematic cross-sectional view illustrating an example of a position of a gap in the image sensor illustrated in FIG. 1.
  • FIG. 1 is a schematic cross-sectional view illustrating an example of a configuration of
  • FIG. 2 is a schematic cross-sectional view illustrating another example of a configuration of a main part of the imaging device illustrated in FIG. 1.
  • FIG. 6 is a schematic cross-sectional view illustrating another example of a position of a gap in the imaging device illustrated in FIG. 5.
  • FIG. 6 is a schematic cross-sectional view illustrating another example of a position of a gap in the imaging device illustrated in FIG. 5.
  • FIG. 6 is a schematic cross-sectional view illustrating another example of a position of a gap in the imaging device illustrated in FIG. 5.
  • FIG. 2 is a schematic cross-sectional view for explaining a method for manufacturing the imaging device shown in FIG. 1.
  • FIG. 7B is a schematic sectional view illustrating a step following FIG. 7A.
  • FIG. 7B is a schematic sectional view illustrating a step following FIG. 7B.
  • FIG. 4 is a schematic cross-sectional view illustrating another example of the shape of the dug portion of the image sensor illustrated in FIG. 1.
  • FIG. 4 is a schematic cross-sectional view illustrating another example of the shape of the dug portion of the image sensor illustrated in FIG. 1.
  • FIG. 4 is a schematic cross-sectional view illustrating another example of the shape of the dug portion of the image sensor illustrated in FIG. 1.
  • FIG. 4 is a schematic cross-sectional view illustrating another example of the shape of the dug portion of the image sensor illustrated in FIG. 1.
  • FIG. 9 is a schematic cross-sectional view illustrating a configuration of a main part of an image sensor as a comparative example.
  • FIG. 2 is a block diagram illustrating a configuration of an image sensor illustrated in FIG. 1.
  • FIG. 13 is a functional block diagram illustrating an example of an electronic apparatus (camera) using the imaging device illustrated in FIG. 12. It is a block diagram which shows an example of a schematic structure of an in-vivo information acquisition system. It is a figure showing an example of the schematic structure of an endoscope operation system.
  • FIG. 3 is a block diagram illustrating an example of a functional configuration of a camera head and a CCU. It is a block diagram showing an example of a schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of a vehicle exterior information detection part and an imaging part.
  • Embodiment an example in which a black layer is provided on a light-shielding layer provided on an organic photoelectric conversion layer
  • Configuration of imaging device 1-2. Structure of dug portion and its vicinity 1-3. Action / effect 2.
  • Application example
  • FIG. 1 schematically illustrates a cross-sectional configuration of a main part of an image sensor (image sensor 1) according to an embodiment of the present disclosure.
  • FIG. 2 schematically illustrates the entire cross-sectional configuration of the imaging device 1 illustrated in FIG.
  • FIG. 3 schematically illustrates a planar configuration of the entire imaging device 1 illustrated in FIG.
  • FIG. 1 shows a part of a cross-sectional configuration taken along line II shown in FIG. 3, and
  • FIG. 2 shows a cross-sectional configuration taken along line II-II shown in FIG.
  • the imaging device 1 is, for example, a backside illumination (backside light receiving type) CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • the imaging device 1 of the present embodiment is an imaging device having a so-called WCSP structure packaged by bonding a sealing member 20 via a resin layer 30 on a sensor substrate 10 on which a plurality of light receiving elements 11 are arranged. Element.
  • the image pickup device 1 is provided with a dug portion 101 on the back surface (surface S ⁇ b>1; one surface) of the sensor substrate 10.
  • the dug portion 101 is embedded with the resin layer 30, and has a configuration in which a plurality of gaps G are formed inside the dug portion 101 in plan view.
  • the imaging element 1 has a configuration in which a sensor substrate 10, a resin layer 30, and a sealing member 20 are stacked in this order.
  • the sensor substrate 10 has a light receiving region 100A in which a plurality of light receiving elements 11 are arranged in an array on the back surface (surface S1) side and a peripheral region 100B provided around the light receiving region 100A.
  • dug portions 101 are provided near the four corners.
  • a resin layer 30 is buried in the dug portion 101, and a plurality of gaps G are formed in the resin layer 30 buried in the dug portion 101.
  • a support substrate 40 is bonded to the surface (surface S2; other surface) of the sensor substrate 10.
  • the sensor substrate 10 has a light receiving area 100A and a peripheral area 100B around the light receiving area 100A.
  • a light receiving element 11 for selectively detecting light in different wavelength ranges and performing photoelectric conversion is provided on the back surface (surface S1) side for each unit pixel P (for example, see FIG. 12).
  • the light receiving element 11 is made of, for example, a photodiode or the like, and is formed by being buried in the back surface (surface S1) of the sensor substrate 10, for example, and constitutes a light receiving surface.
  • peripheral circuit unit 130 including a row scanning unit 131, a horizontal selection unit 133, a column scanning unit 134, and a system control unit 132, which will be described later, is provided (for example, see FIG. 12). ).
  • a color filter 12 is provided.
  • red (R), green (G), and blue (B) color filters which are three primary colors, are arranged in, for example, a Bayer shape in the light receiving region 100A.
  • an on-chip lens 13 is further provided via a color filter 12.
  • the on-chip lens 13 is for condensing incident light on the light receiving element 11, and is made of a material having light transmittance.
  • the material having optical transparency include a transparent resin material such as acrylic, silicon oxide (SiO), silicon nitride (SiN), and silicon oxynitride (SiON).
  • the on-chip lens 13 is composed of a single-layer film made of any of these, or a laminated film made of two or more of them.
  • an optical filter such as an antireflection layer or an infrared cut filter is provided on the color filter 12. You may.
  • a pixel transistor is formed and a multilayer wiring layer is provided.
  • the sealing member 20 is for sealing the light receiving region 100A of the sensor substrate 10, and is a member having light transmittance.
  • a glass substrate is used, but it is not limited to this.
  • an acrylic resin substrate, a sapphire substrate, or the like may be used.
  • the resin layer 30 is for bonding the sensor substrate 10 and the sealing member 20 at least in a region including the light receiving region 100A.
  • a resin material giving priority to optical characteristics is selected so that light incident on the imaging element 1 can be favorably received by the light receiving element 11.
  • the material of the resin layer 30 include a siloxane resin material, an acrylic resin material, a styrene resin material, and an epoxy resin material.
  • the sensor substrate 10 and the sealing member 20 may be joined by using an inorganic film such as SiO (silicon oxide) or SiN (silicon nitride) instead of an organic resin as the resin layer 30. Good.
  • the support substrate 40 is for supporting the sensor substrate 10.
  • a signal processing circuit that performs signal processing on pixel signals output from the sensor substrate 10 may be formed on the support substrate 40.
  • the dug portion 101 is provided in the peripheral region 100B on the back surface (the surface S1; one surface) of the sensor substrate 10 bonded to the sealing member 20. Have been.
  • dug portions 101 are provided near, for example, four corners of the peripheral region 100 ⁇ / b> B, and are formed in the same cross-sectional shape. Specifically, as shown in FIG. 1, it is formed as a concave portion having a trapezoidal cross-sectional shape having a tapered surface narrowing in the depth direction.
  • the size of the dug portion 101 may be, for example, 100 ⁇ m ⁇ 100 ⁇ m and a depth of 5 ⁇ m as an example, but is not limited thereto.
  • the resin layer 30 is embedded in the dug portion 101.
  • a plurality of gaps G are formed in the resin layer 30 embedded inside the dug portion 101 in a plan view, and the dug portion 101 and the resin layer 30 in the vicinity thereof are separated from the surroundings. Even the stiffness is low.
  • the gap G formed in the resin layer 30 has, for example, a nanobubble structure including a plurality of bubbles having an average pore diameter of 30 nm to 300 nm.
  • the plurality of voids G formed as a nanobubble structure are preferably provided inside the dug portion 101 and above the dug portion 101 in a side view as shown in FIG. 1, but are not limited thereto.
  • the plurality of gaps G may be formed only in the concave portion formed as the dug portion 101.
  • the plurality of voids G may be formed only above the dug portion 101.
  • the plurality of gaps G may be formed separately in the recess formed as the dug portion 101 and two regions 31A and 31B above the recess.
  • the gap G formed in the resin layer 30 has a microbubble structure having an average pore diameter of, for example, 10 ⁇ m to 30 ⁇ m, as shown in FIG. 5, and may be formed as, for example, one bubble.
  • the gap G formed as a microbubble structure is preferably provided at a position hanging inside and above the dug portion 101 in a side view as shown in FIG. 4, but is not limited thereto.
  • the gap G may be formed so as to fit in a concave portion formed as the dug portion 101.
  • the gap G may be formed above the dug portion 101.
  • one gap G may be formed in each of the recesses formed as the dug portion 101 and above the recess.
  • the one or more gaps G may be formed in the resin layer 30 inside the dug portion 101 and in the vicinity thereof, and the size, shape and number thereof are not particularly limited.
  • the air is usually contained in the gap G, it is not limited to this.
  • the gap G may be filled with a material softer than the resin layer 30 such as rubber or a low-strength resin material.
  • the gap G as described above can be formed, for example, as follows.
  • a region on the sensor substrate 10 other than the position where the dug portion 101 is formed is patterned with photoresist so that the position where the dug portion 101 is formed is opened.
  • the etched side surface is removed by, for example, ashing.
  • a resin material to be the resin layer 30 is applied to the entire surface of the sensor substrate 10. At this time, a resin material is applied so as to fill the dug portion 101.
  • the shape of the dug portion 101 is not limited.
  • FIG. 1 shows an example of the dug portion 101 having a trapezoidal cross-sectional shape having a tapered surface narrowing in the depth direction.
  • the present invention is not limited to this.
  • the dug portion 101 has a shape as shown in FIGS. It may be.
  • the dug portion 101 may be a trapezoidal concave portion having a tapered surface such that its cross-sectional shape expands in the depth direction, like the dug portion 101A shown in FIG. 8A.
  • the dug portion 101 may be a concave portion having a concave cross-sectional shape, like the dug portion 101B shown in FIG. 8B.
  • the dug portion 101 may be a triangular concave portion having a tapered surface having a vertex in cross section, like the dug portion 101C shown in FIG. 8C.
  • the dug portion 101 has a concave portion whose side surface is substantially orthogonal to the surface S1 of the sensor substrate 10 so that the cross-sectional shape is rectangular, like the dug portion 101D shown in FIG. 8D. It may be.
  • FIG. 9 schematically illustrates a cross-sectional configuration of the dug portion X of the image pickup device (image pickup device 1000) having the above-described structure and the periphery thereof.
  • a resin layer 1030 provided between the sensor substrate 1010 and the sealing member 1020 is indicated by an arrow.
  • a difference occurs in the amount of change in the plane direction (for example, the X-axis direction) due to contraction or expansion between the inside of the dug portion X and other regions. Due to the difference, the resin layer 1030 may be broken by applying a local stress to, for example, a corner of the dug portion X.
  • a hole is formed in the dug portion X so that no step is formed in the resin layer 1030, or the inside of the dug portion X and the dug portion X and the upper portion thereof are connected to other regions. Can be buried using a different material.
  • the adhesive strength between the sensor substrate 1010 and the resin layer 1030 may be reduced, or the manufacturing process may be complicated.
  • one or a plurality of gaps G are formed in the dug portion 101 provided in the peripheral region 100B of the sensor substrate 10 or the resin layer 300 in the vicinity thereof. The stress applied to the corners of the dug portion 101 or the like due to the contraction or expansion of the resin layer 30 is reduced.
  • FIG. 10 shows an image sensor (Comparative Example 1) having no dug portion in the peripheral region of the sensor substrate, an image sensor 1000 (Comparative Example 2) having the above structure, and an image sensor 1 (Example) of the present embodiment. It shows the fracture strength characteristics of the resin layer (for example, the resin layer 30). Compared to Comparative Example 1 having no dug portion, Comparative Example 2 having the dug portion and the example have the same breaking strength regardless of the internal structure of the dug portion.
  • FIG. 11 shows the cloudiness intensity characteristics of the resin layer (for example, the resin layer 30) in the image sensor 1000 (Comparative Example 2) having the above structure and the image sensor 1 (Example) of the present embodiment.
  • the cloudiness intensity is a strength at which the resin starts to become cloudy when a stress is applied, and indicates that the higher the strength, the less likely it is to affect a captured image, for example.
  • Comparative Example 2 in which the dug portion X is completely filled with the resin layer 1030, in the example in which the void G is provided in the dug portion 101, improvement in the cloudiness intensity can be confirmed.
  • one or a plurality of gaps G are provided in the resin layer 30 embedded in the dug portion 101 provided in the peripheral region 100B of the sensor substrate 10. .
  • application of local stress to the corners of the dug portion 101 and the like is reduced, and it is possible to prevent the resin layer 30 from breaking. Therefore, the reliability can be improved.
  • the occurrence of white turbidity due to breakage or the like of the resin layer 30 is reduced, so that the manufacturing yield and design can be improved.
  • FIG. 12 is a block diagram illustrating the overall configuration of the imaging device 1 described in the above embodiment.
  • the imaging device 1 is a CMOS image sensor, has a pixel portion 1a as an imaging area on a sensor substrate 10, and has, for example, a row scanning portion 131, a horizontal selection portion 133,
  • the peripheral circuit unit 130 includes a column scanning unit 134 and a system control unit 132.
  • the pixel unit 1a has, for example, a plurality of unit pixels P (corresponding to the image sensor 1) two-dimensionally arranged in a matrix.
  • a pixel drive line Lread (specifically, a row selection line and a reset control line) is wired for each pixel row, and a vertical signal line Lsig is wired for each pixel column.
  • the pixel drive line Lread transmits a drive signal for reading a signal from a pixel.
  • One end of the pixel drive line Lread is connected to an output terminal corresponding to each row of the row scanning unit 131.
  • the row scanning unit 131 is a pixel driving unit that includes a shift register, an address decoder, and the like, and drives each unit pixel P of the pixel unit 1a, for example, in a row unit.
  • a signal output from each unit pixel P of the pixel row selected and scanned by the row scanning unit 131 is supplied to the horizontal selection unit 133 through each of the vertical signal lines Lsig.
  • the horizontal selection unit 133 includes an amplifier, a horizontal selection switch, and the like provided for each vertical signal line Lsig.
  • the column scanning unit 134 includes a shift register, an address decoder, and the like, and sequentially drives the horizontal selection switches of the horizontal selection unit 133 while scanning. By the selective scanning by the column scanning unit 134, the signal of each pixel transmitted through each of the vertical signal lines Lsig is sequentially output to the horizontal signal line 135 and transmitted to the outside of the sensor substrate 10 through the horizontal signal line 135. .
  • a circuit portion including the row scanning section 131, the horizontal selection section 133, the column scanning section 134, and the horizontal signal line 135 may be formed directly on the sensor substrate 10, or may be provided on an external control IC. It may be. Further, those circuit portions may be formed on another substrate connected by a cable or the like.
  • the system controller 132 receives a clock supplied from outside the sensor substrate 10, data instructing an operation mode, and the like, and outputs data such as internal information of the image sensor 1.
  • the system control unit 132 further includes a timing generator that generates various timing signals, and controls the row scanning unit 131, the horizontal selection unit 133, and the column scanning unit 134 based on the various timing signals generated by the timing generator. Controls driving of peripheral circuits.
  • the image sensor 1 can be applied to all types of electronic devices having an image capturing function, such as a camera system such as a digital still camera and a video camera, and a mobile phone having an image capturing function.
  • FIG. 13 shows a schematic configuration of an electronic device 2 (camera) as an example.
  • the electronic device 2 is, for example, a video camera capable of shooting a still image or a moving image, and drives the image sensor 1, the optical system (optical lens) 310, the shutter device 311, and the image sensor 1 and the shutter device 311. It has a drive unit 313 and a signal processing unit 312.
  • the optical system 310 guides image light (incident light) from a subject to the pixel section 1 a of the image sensor 1.
  • This optical system 310 may be composed of a plurality of optical lenses.
  • the shutter device 311 controls a light irradiation period and a light blocking period to the image sensor 1.
  • the drive unit 313 controls the transfer operation of the image sensor 1 and the shutter operation of the shutter device 311.
  • the signal processing unit 312 performs various kinds of signal processing on a signal output from the image sensor 1.
  • the video signal Dout after the signal processing is stored in a storage medium such as a memory or output to a monitor or the like.
  • the imaging device 1 can be applied to the following electronic devices (capsule endoscope 10100 and a moving body such as a vehicle).
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 14 is a block diagram illustrating an example of a schematic configuration of a system for acquiring in-vivo information of a patient using a capsule endoscope to which the technology (the present technology) according to the present disclosure may be applied.
  • the in-vivo information acquisition system 10001 includes a capsule endoscope 10100 and an external control device 10200.
  • the capsule endoscope 10100 is swallowed by the patient at the time of examination.
  • the capsule endoscope 10100 has an imaging function and a wireless communication function, and moves inside an organ such as a stomach and an intestine by peristalsis and the like until the spontaneous excretion from the patient, while moving the inside of the organ.
  • Images (hereinafter, also referred to as in-vivo images) are sequentially captured at predetermined intervals, and information on the in-vivo images is sequentially wirelessly transmitted to an external control device 10200 outside the body.
  • the external control device 10200 controls the operation of the in-vivo information acquisition system 10001 as a whole. Further, the external control device 10200 receives information about the in-vivo image transmitted from the capsule endoscope 10100, and displays the in-vivo image on a display device (not shown) based on the received information about the in-vivo image. Generate image data for displaying.
  • the in-vivo information acquiring system 10001 can obtain an in-vivo image of the inside of the patient at any time from when the capsule endoscope 10100 is swallowed until the capsule endoscope 10100 is discharged.
  • the capsule endoscope 10100 has a capsule-type housing 10101, and inside the housing 10101, a light source unit 10111, an imaging unit 10112, an image processing unit 10113, a wireless communication unit 10114, a power supply unit 10115, a power supply unit 10116 and a control unit 10117 are housed.
  • the light source unit 10111 is configured by a light source such as an LED (light emitting diode), and irradiates the imaging field of view of the imaging unit 10112 with light.
  • a light source such as an LED (light emitting diode)
  • the imaging unit 10112 includes an imaging device and an optical system including a plurality of lenses provided at a stage preceding the imaging device. Reflected light (hereinafter referred to as observation light) of light applied to a body tissue to be observed is collected by the optical system and enters the imaging device. In the imaging unit 10112, the observation light incident thereon is photoelectrically converted in the imaging element, and an image signal corresponding to the observation light is generated. The image signal generated by the imaging unit 10112 is provided to the image processing unit 10113.
  • the image processing unit 10113 includes a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), and performs various kinds of signal processing on the image signal generated by the imaging unit 10112.
  • the image processing unit 10113 provides the image signal subjected to the signal processing to the wireless communication unit 10114 as RAW data.
  • the wireless communication unit 10114 performs a predetermined process such as a modulation process on the image signal subjected to the signal processing by the image processing unit 10113, and transmits the image signal to the external control device 10200 via the antenna 10114A. Further, the wireless communication unit 10114 receives, from the external control device 10200, a control signal related to drive control of the capsule endoscope 10100 via the antenna 10114A. The wireless communication unit 10114 provides a control signal received from the external control device 10200 to the control unit 10117.
  • a predetermined process such as a modulation process
  • the wireless communication unit 10114 receives, from the external control device 10200, a control signal related to drive control of the capsule endoscope 10100 via the antenna 10114A.
  • the wireless communication unit 10114 provides a control signal received from the external control device 10200 to the control unit 10117.
  • the power supply unit 10115 includes a power receiving antenna coil, a power regeneration circuit that reproduces power from a current generated in the antenna coil, a booster circuit, and the like. In the power supply unit 10115, electric power is generated using the principle of non-contact charging.
  • the power supply unit 10116 is configured by a secondary battery, and stores the power generated by the power supply unit 10115.
  • FIG. 14 for the sake of simplicity, the illustration of arrows and the like indicating the supply destination of the power from the power supply unit 10116 is omitted.
  • the control unit 10117 is configured by a processor such as a CPU, and controls the light source unit 10111, the imaging unit 10112, the image processing unit 10113, the wireless communication unit 10114, and the power supply unit 10115 by transmitting a control signal transmitted from the external control device 10200. Is appropriately controlled in accordance with
  • the external control device 10200 includes a processor such as a CPU and a GPU, or a microcomputer or a control board on which a storage element such as a processor and a memory are mixed.
  • the external control device 10200 controls the operation of the capsule endoscope 10100 by transmitting a control signal to the control unit 10117 of the capsule endoscope 10100 via the antenna 10200A.
  • the irradiation condition of light on the observation target in the light source unit 10111 can be changed by a control signal from the external control device 10200.
  • an imaging condition for example, a frame rate, an exposure value, and the like in the imaging unit 10112
  • a control signal from the external control device 10200 can be changed by a control signal from the external control device 10200.
  • the content of the process in the image processing unit 10113 and the conditions (for example, the transmission interval, the number of transmitted images, and the like) for transmitting the image signal by the wireless communication unit 10114 may be changed by a control signal from the external control device 10200. .
  • the external control device 10200 performs various types of image processing on the image signal transmitted from the capsule endoscope 10100, and generates image data for displaying a captured in-vivo image on a display device.
  • the image processing includes, for example, development processing (demosaic processing), image quality enhancement processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing, and / or camera shake correction processing, etc.), and / or enlargement processing ( Various kinds of signal processing such as electronic zoom processing) can be performed.
  • the external control device 10200 controls the driving of the display device to display an in-vivo image captured based on the generated image data. Alternatively, the external control device 10200 may record the generated image data on a recording device (not shown) or print out the image data on a printing device (not shown).
  • the technology according to the present disclosure can be applied to, for example, the imaging unit 10112 among the configurations described above. Thereby, the detection accuracy is improved.
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 15 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system to which the technology (the present technology) according to the present disclosure may be applied.
  • FIG. 15 shows a state in which an operator (doctor) 11131 is performing an operation on a patient 11132 on a patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an insufflation tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 on which various devices for endoscopic surgery are mounted.
  • the endoscope 11100 includes a lens barrel 11101 having a predetermined length from the distal end inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the proximal end of the lens barrel 11101.
  • the endoscope 11100 which is configured as a so-called rigid endoscope having a hard lens barrel 11101 is illustrated.
  • the endoscope 11100 may be configured as a so-called flexible endoscope having a soft lens barrel. Good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the distal end of the lens barrel by a light guide that extends inside the lens barrel 11101, and the objective The light is radiated toward the observation target in the body cavity of the patient 11132 via the lens.
  • the endoscope 11100 may be a direct view scope, a perspective view scope, or a side view scope.
  • An optical system and an image sensor are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the imaging element, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted to a camera control unit (CCU: ⁇ Camera ⁇ Control ⁇ Unit) 11201 as RAW data.
  • the $ CCU 11201 is configured by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and controls the operations of the endoscope 11100 and the display device 11202 overall. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as a development process (demosaicing process).
  • a development process demosaicing process
  • the display device 11202 displays an image based on an image signal on which image processing has been performed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 includes a light source such as an LED (light emitting diode), for example, and supplies the endoscope 11100 with irradiation light when capturing an image of an operation part or the like.
  • a light source such as an LED (light emitting diode), for example, and supplies the endoscope 11100 with irradiation light when capturing an image of an operation part or the like.
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction or the like to change imaging conditions (type of irradiation light, magnification, focal length, and the like) by the endoscope 11100.
  • the treatment instrument control device 11205 controls the driving of the energy treatment instrument 11112 for cauterizing, incising a tissue, sealing a blood vessel, and the like.
  • the insufflation device 11206 is used to inflate the body cavity of the patient 11132 for the purpose of securing the visual field by the endoscope 11100 and securing the working space of the operator.
  • the recorder 11207 is a device that can record various types of information related to surgery.
  • the printer 11208 is a device capable of printing various types of information on surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the endoscope 11100 with irradiation light at the time of imaging the operation site can be configured by, for example, a white light source including an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of the RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy, so that the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is radiated to the observation target in a time-division manner, and the driving of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing, so that each of the RGB laser light sources is controlled. It is also possible to capture the image obtained in a time sharing manner. According to this method, a color image can be obtained without providing a color filter in the image sensor.
  • the driving of the light source device 11203 may be controlled so as to change the intensity of output light at predetermined time intervals.
  • the driving of the image sensor of the camera head 11102 in synchronization with the timing of the change of the light intensity, an image is acquired in a time-division manner, and the image is synthesized, so that a high dynamic image without so-called blackout and whiteout is obtained. An image of the range can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of the absorption of light in the body tissue, by irradiating light in a narrower band than the irradiation light (ie, white light) at the time of normal observation, the surface of the mucous membrane is exposed.
  • a so-called narrow-band light observation (Narrow Band Imaging) for photographing a predetermined tissue such as a blood vessel with high contrast is performed.
  • fluorescence observation in which an image is obtained by fluorescence generated by irradiating excitation light may be performed.
  • the body tissue is irradiated with excitation light to observe fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and Irradiation with excitation light corresponding to the fluorescence wavelength of the reagent can be performed to obtain a fluorescence image.
  • the light source device 11203 can be configured to be able to supply narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 16 is a block diagram showing an example of a functional configuration of the camera head 11102 and the CCU 11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • the CCU 11201 includes a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and the CCU 11201 are communicably connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection with the lens barrel 11101. Observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102, and enters the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the number of imaging elements constituting the imaging unit 11402 may be one (so-called single-panel type) or plural (so-called multi-panel type).
  • the imaging unit 11402 When the imaging unit 11402 is configured as a multi-panel type, for example, an image signal corresponding to each of RGB may be generated by each imaging element, and a color image may be obtained by combining the image signals.
  • the imaging unit 11402 may be configured to include a pair of imaging elements for acquiring right-eye and left-eye image signals corresponding to 3D (dimensional) display. By performing the 3D display, the operator 11131 can more accurately grasp the depth of the living tissue in the operative part.
  • a plurality of lens units 11401 may be provided for each imaging element.
  • the imaging unit 11402 does not necessarily have to be provided in the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is configured by an actuator, and moves the zoom lens and the focus lens of the lens unit 11401 by a predetermined distance along the optical axis under the control of the camera head control unit 11405.
  • the magnification and the focus of the image captured by the imaging unit 11402 can be appropriately adjusted.
  • the communication unit 11404 is configured by a communication device for transmitting and receiving various information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling driving of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information indicating that the frame rate of the captured image is specified, information that specifies the exposure value at the time of imaging, and / or information that specifies the magnification and focus of the captured image. Contains information about the condition.
  • imaging conditions such as the frame rate, the exposure value, the magnification, and the focus may be appropriately designated by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good.
  • a so-called AE (Auto Exposure) function, an AF (Auto Focus) function, and an AWB (Auto White Balance) function are mounted on the endoscope 11100.
  • the camera head control unit 11405 controls the driving of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured by a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling driving of the camera head 11102 to the camera head 11102.
  • the image signal and the control signal can be transmitted by electric communication, optical communication, or the like.
  • the image processing unit 11412 performs various types of image processing on an image signal that is RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various kinds of control related to imaging of the operation section and the like by the endoscope 11100 and display of a captured image obtained by imaging the operation section and the like. For example, the control unit 11413 generates a control signal for controlling driving of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display a captured image showing the operative part or the like based on the image signal subjected to the image processing by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 detects a shape, a color, or the like of an edge of an object included in the captured image, and thereby detects a surgical tool such as forceps, a specific living body site, bleeding, a mist when using the energy treatment tool 11112, and the like. Can be recognized.
  • the control unit 11413 may use the recognition result to superimpose and display various types of surgery support information on the image of the operative site.
  • the burden on the operator 11131 can be reduced, and the operator 11131 can reliably perform the operation.
  • the transmission cable 11400 connecting the camera head 11102 and the CCU 11201 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technology according to the present disclosure can be applied to the imaging unit 11402 in the configuration described above.
  • detection accuracy is improved.
  • the endoscopic surgery system has been described as an example, but the technology according to the present disclosure may be applied to, for example, a microscopic surgery system or the like.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to any type of mobile such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, a robot, a construction machine, an agricultural machine (tractor), and the like. It may be realized as a device mounted on the body.
  • FIG. 17 is a block diagram illustrating a schematic configuration example of a vehicle control system that is an example of a mobile object control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 12000 includes a plurality of electronic control units connected via communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an inside information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio / video output unit 12052, and an in-vehicle network I / F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the driving system control unit 12010 includes a driving force generating device for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting driving force to wheels, and a steering angle of the vehicle. It functions as a control mechanism such as a steering mechanism for adjusting and a braking device for generating a braking force of the vehicle.
  • the body control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a head lamp, a back lamp, a brake lamp, a blinker, and a fog lamp.
  • a radio wave or various switch signals transmitted from a portable device replacing the key may be input to the body control unit 12020.
  • the body control unit 12020 receives the input of these radio waves or signals and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • Out-of-vehicle information detection unit 12030 detects information external to the vehicle on which vehicle control system 12000 is mounted.
  • an imaging unit 12031 is connected to the outside-of-vehicle information detection unit 12030.
  • the out-of-vehicle information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle, and receives the captured image.
  • the out-of-vehicle information detection unit 12030 may perform an object detection process or a distance detection process of a person, a vehicle, an obstacle, a sign, a character on a road surface, or the like based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of received light.
  • the imaging unit 12031 can output an electric signal as an image or can output the information as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects information in the vehicle.
  • the in-vehicle information detection unit 12040 is connected to, for example, a driver status detection unit 12041 that detects the status of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 determines the degree of driver fatigue or concentration based on the detection information input from the driver state detection unit 12041. The calculation may be performed, or it may be determined whether the driver has fallen asleep.
  • the microcomputer 12051 calculates a control target value of the driving force generation device, the steering mechanism or the braking device based on the information on the inside and outside of the vehicle acquired by the outside information detection unit 12030 or the inside information detection unit 12040, and the drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 realizes functions of an ADAS (Advanced Driver Assistance System) including a vehicle collision avoidance or a shock mitigation, a following operation based on an inter-vehicle distance, a vehicle speed maintaining operation, a vehicle collision warning, or a vehicle lane departure warning. Cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generation device, the steering mechanism, the braking device, and the like based on the information about the surroundings of the vehicle obtained by the outside information detection unit 12030 or the inside information detection unit 12040, so that the driver 120 It is possible to perform cooperative control for automatic driving or the like in which the vehicle travels autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on information on the outside of the vehicle acquired by the outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp in accordance with the position of the preceding vehicle or the oncoming vehicle detected by the outside-of-vehicle information detection unit 12030, and performs cooperative control for the purpose of preventing glare such as switching a high beam to a low beam. It can be carried out.
  • the sound image output unit 12052 transmits at least one of a sound signal and an image signal to an output device capable of visually or audibly notifying a passenger of the vehicle or the outside of the vehicle of information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 18 is a diagram illustrating an example of an installation position of the imaging unit 12031.
  • imaging units 12031, 12102, 12103, 12104, and 12105 are provided as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as a front nose, a side mirror, a rear bumper, a back door of the vehicle 12100, and an upper portion of a windshield in the vehicle interior.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided above the windshield in the passenger compartment mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirror mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 12100.
  • the imaging unit 12105 provided above the windshield in the passenger compartment is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, and the like.
  • FIG. 18 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates 13 shows an imaging range of an imaging unit 12104 provided in a rear bumper or a back door.
  • a bird's-eye view image of the vehicle 12100 viewed from above is obtained by superimposing image data captured by the imaging units 12101 to 12104.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging elements or an imaging element having pixels for detecting a phase difference.
  • the microcomputer 12051 calculates a distance to each three-dimensional object in the imaging ranges 12111 to 12114 and a temporal change of the distance (relative speed with respect to the vehicle 12100). , It is possible to extract, as a preceding vehicle, a three-dimensional object that travels at a predetermined speed (for example, 0 km / h or more) in a direction substantially the same as that of the vehicle 12100, which is the closest three-dimensional object on the traveling path of the vehicle 12100. it can.
  • a predetermined speed for example, 0 km / h or more
  • microcomputer 12051 can set an inter-vehicle distance to be secured before the preceding vehicle and perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts the three-dimensional object data relating to the three-dimensional object into other three-dimensional objects such as a motorcycle, a normal vehicle, a large vehicle, a pedestrian, a telephone pole, and the like based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines a collision risk indicating a risk of collision with each obstacle, and when the collision risk is equal to or more than the set value and there is a possibility of collision, via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver through forced driving and avoidance steering via the drive system control unit 12010, driving assistance for collision avoidance can be performed.
  • driving assistance for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared light.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian exists in the captured images of the imaging units 12101 to 12104. The recognition of such a pedestrian is performed by, for example, extracting a feature point in an image captured by the imaging units 12101 to 12104 as an infrared camera, and performing a pattern matching process on a series of feature points indicating the outline of the object to determine whether the object is a pedestrian.
  • the audio image output unit 12052 outputs a rectangular contour for emphasis to the recognized pedestrian.
  • the display unit 12062 is controlled so that is superimposed. Further, the sound image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the present disclosure may have the following configurations.
  • a sensor substrate having a light receiving region in which a plurality of light receiving elements are arranged and a peripheral region provided around the light receiving region, A sealing member disposed to face one surface of the sensor substrate, A resin layer for bonding the sensor substrate and the sealing member, And a dug portion in which the resin layer is buried, provided in the peripheral region of the one surface of the sensor substrate.
  • the imaging element wherein the resin layer has one or a plurality of voids inside the dug portion in a plan view.
  • the sealing member has light transmittance.
  • the resin layer is formed using at least one of an acrylic resin material, a styrene resin material, and an epoxy resin material.
  • the sensor substrate has another surface facing the one surface, and has a multilayer wiring layer on the other surface.
  • the image sensor A sensor substrate having a light receiving region in which a plurality of light receiving elements are arranged and a peripheral region provided around the light receiving region, A sealing member disposed to face one surface of the sensor substrate, A resin layer for bonding the sensor substrate and the sealing member, And a dug portion in which the resin layer is buried, provided in the peripheral region of the one surface of the sensor substrate.
  • the electronic device wherein the resin layer has one or a plurality of gaps inside the dug portion in a plan view.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Structures Or Materials For Encapsulating Or Coating Semiconductor Devices Or Solid State Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

本開示の一実施形態の撮像素子は、複数の受光素子が配列された受光領域および受光領域の周囲に設けられた周辺領域を有するセンサ基板と、センサ基板の一の面と対向配置された封止部材と、センサ基板と封止部材とを貼り合わせる樹脂層と、センサ基板の一の面の周辺領域に設けられると共に、樹脂層が埋設された掘り込み部とを備え、樹脂層は、平面視において、掘り込み部の内側に1または複数の空隙を有する。

Description

撮像素子および電子機器
 本開示は、例えば、光学センサがチップスケールのパッケージとして構成された撮像素子およびこれを備えた電子機器に関する。
 光学センサの簡易なパッケージ方法として、ウェハチップスケールパッケージ(Wafer Chip Scale Package;WCSP)構造が提案されている。このWCSP構造では、シリコン基板とガラス基板とを接着する処理が行われるが、その接着構造を適切に行う必要がある。例えば、特許文献1では、センサ基板、シール樹脂および封止ガラスが順に積層された構造において、センサ基板の有効画素領域よりも外側となる外周領域の四隅の近傍に掘り込み部を設けた撮像素子が開示されている。掘り込み部にはシール樹脂が埋め込まれており、これにより、接合部分のシェア強度を向上させることで信頼性の向上が図られている。
特開2013-41878号公報
 このように、撮像素子では、信頼性を向上させることが求められている。
 信頼性を向上させることが可能な撮像素子および電子機器を提供することが望ましい。
 本開示の一実施形態の撮像素子は、複数の受光素子が配列された受光領域および受光領域の周囲に設けられた周辺領域を有するセンサ基板と、センサ基板の一の面と対向配置された封止部材と、センサ基板と封止部材とを貼り合わせる樹脂層と、センサ基板の一の面の周辺領域に設けられると共に、樹脂層が埋設された掘り込み部とを備えたものであり、樹脂層は、平面視において、掘り込み部の内側に1または複数の空隙を有する。
 本開示の一実施形態の電子機器は、撮像素子として、上記本開示の一実施形態の撮像素子を有するものである。
 本開示の一実施形態の撮像素子および一実施形態の電子機器では、複数の受光素子が配列された受光領域を有するセンサ基板の周辺領域に掘り込み部を設け、この掘り込み部に、センサ基板と封止部材とを貼り合わせる樹脂層を埋設すると共に、掘り込み部に埋設された樹脂層に、平面視において、1または複数の空隙を設けるようにした。これにより、掘り込み部への局所的な応力の印加を低減する。
 本開示の一実施形態の撮像素子および一実施形態の電子機器によれば、樹脂層を介して封止部材が貼り合わされるセンサ基板の周辺領域に掘り込み部を設け、平面視において、掘り込み部に埋設される樹脂層に1または複数の空隙を設けるようにした。これにより、掘り込み部への局所的な応力の印加が低減され、樹脂層の破断を防ぐことが可能となる。よって、信頼性を向上させることが可能となる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれの効果であってもよい。
本開示の一実施の形態に係る撮像素子の要部の構成の一例を表す断面模式図である。 図1に示した撮像素子の全体の構成を表す断面模式図である。 図1に示した撮像素子の全体の構成を表す平面模式図である。 図1に示した撮像素子における空隙の位置の他の例を表す断面模式図である。 図1に示した撮像素子における空隙の位置の他の例を表す断面模式図である。 図1に示した撮像素子における空隙の位置の他の例を表す断面模式図である。 図1に示した撮像素子の要部の構成の他の例を表す断面模式図である。 図5に示した撮像素子における空隙の位置の他の例を表す断面模式図である。 図5に示した撮像素子における空隙の位置の他の例を表す断面模式図である。 図5に示した撮像素子における空隙の位置の他の例を表す断面模式図である。 図1に示した撮像素子の製造方法を説明するための断面模式図である。 図7Aに続く工程を表す断面模式図である。 図7Bに続く工程を表す断面模式図である。 図1に示した撮像素子の掘り込み部の形状の他の例を表す断面模式図である。 図1に示した撮像素子の掘り込み部の形状の他の例を表す断面模式図である。 図1に示した撮像素子の掘り込み部の形状の他の例を表す断面模式図である。 図1に示した撮像素子の掘り込み部の形状の他の例を表す断面模式図である。 比較例としての撮像素子の要部の構成を表す断面模式図である。 比較例1,2および実施例の破壊強度特性を表す図である。 比較例1,2および実施例の白濁強度特性を表す図である。 図1に示した撮像素子の構成を表すブロック図である。 図12に示した撮像素子を用いた電子機器(カメラ)の一例を表す機能ブロック図である。 体内情報取得システムの概略的な構成の一例を示すブロック図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本開示における一実施形態について、図面を参照して詳細に説明する。以下の説明は本開示の一具体例であって、本開示は以下の態様に限定されるものではない。また、本開示は、各図に示す各構成要素の配置や寸法、寸法比等についても、それらに限定されるものではない。なお、説明する順序は、下記の通りである。
 1.実施の形態(有機光電変換層上に設けられた遮光層上に黒色層を設けた例)
   1-1.撮像素子の構成
   1-2.掘り込み部およびその近傍の構成
   1-3.作用・効果
 2.適用例
<1.実施の形態>
 図1は、本開示の一実施の形態に係る撮像素子(撮像素子1)の要部の断面構成を模式的に表したものである。図2は、図1に示した撮像素子1の全体の断面構成を模式的に表したものである。図3は、図1に示した撮像素子1の全体の平面構成を模式的に表したものである。図1は、図3に示したI-I線における断面構成の一部を表しており、図2は、図3に示したII-II線における断面構成を表している。撮像素子1は、例えば、裏面照射型(裏面受光型)のCCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等である。本実施の形態の撮像素子1は、複数の受光素子11が配列されたセンサ基板10上に樹脂層30を介して封止部材20を貼り合わせることでパッケージ化された、所謂WCSP構造を有する撮像素子である。撮像素子1には、センサ基板10の裏面(面S1;一の面)に掘り込み部101が設けられている。この掘り込み部101には、樹脂層30が埋設されており、平面視において、掘り込み部101の内側に複数の空隙Gが形成された構成を有する。
(1-1.撮像素子の構成)
 撮像素子1は、センサ基板10と、樹脂層30と、封止部材20とがこの順に積層された構成を有する。センサ基板10は、裏面(面S1)側に複数の受光素子11がアレイ状に配列された受光領域100Aと、その周辺に設けられた周辺領域100Bとを有し、周辺領域100Bには、上記のように、例えば四隅の近傍に掘り込み部101が設けられている。掘り込み部101には樹脂層30が埋設されており、その掘り込み部101に埋設された樹脂層30には複数の空隙Gが形成されている。センサ基板10の表面(面S2;他の面)には、例えば、支持基板40が貼り合わされている。
 センサ基板10は、受光領域100Aと、その周辺に周辺領域100Bとを有する。受光領域100Aには、単位画素P(例えば、図12参照)毎に、それぞれ異なる波長域の光を選択的に検出して光電変換を行う受光素子11が裏面(面S1)側に設けられている。受光素子11は、例えばフォトダイオード等からなり、例えばセンサ基板10の裏面(面S1)内に埋め込み形成され、受光面を構成している。周辺領域100Bには、例えば、後述する行走査部131、水平選択部133、列走査部134およびシステム制御部132からなる周辺回路(周辺回路部130)が設けられている(例えば、図12参照)。
 受光素子11上には、例えばカラーフィルタ12が設けられている。カラーフィルタ12は、色の3原色である赤(R)、緑(G)および青(B)のカラーフィルタが、受光領域100Aにおいて、例えばベイヤ状に配列されている。
 受光素子11上には、カラーフィルタ12を介して、さらにオンチップレンズ13が設けられている。オンチップレンズ13は、受光素子11に入射光を集光させるためのものであり、光透過性を有する材料により構成されている。光透過性を有する材料としては、例えば、アクリル等の透明樹脂材、酸化シリコン(SiO)、窒化シリコン(SiN)および酸窒化シリコン(SiON)等が挙げられる。オンチップレンズ13は、これらのうちのいずれかよりなる単層膜、あるいはそれらのうちの2種以上よりなる積層膜によって構成されている。
 なお、受光素子11とオンチップレンズ13との間には、他の層が設けられていてもよく、例えば、カラーフィルタ12上に反射防止層や赤外カットフィルタ等の光学フィルタが設けられていてもよい。
 センサ基板10の表面(受光面とは反対側の面S2)側には、例えば画素トランジスタが形成されると共に、多層配線層が設けられている。
 封止部材20は、センサ基板10の受光領域100Aを封止するためのものであり、光透過性を有する部材である。封止部材20としては、例えばガラス基板が用いられるがこれに限らない。例えば、アクリル樹脂基板やサファイア基板等を用いるようにしてもよい。
 樹脂層30は、少なくとも受光領域100Aを含む領域においてセンサ基板10と封止部材20とを貼り合わせるためのものである。樹脂層30には、例えば、撮像素子1に入射する光を受光素子11において良好に受光することができるように、光学特性(屈折率や消衰係数等)を優先した樹脂材料が選択される。樹脂層30の材料としては、例えば、シロキサン系樹脂材料、アクリル系樹脂材料、スチレン系樹脂材料およびエポキシ系樹脂材料等が挙げられる。または、樹脂層30として、有機材料の樹脂に置き換えて、SiO(酸化ケイ素)やSiN(窒化ケイ素)等の無機膜を使用して、センサ基板10と封止部材20とを接合する構成としてもよい。
 支持基板40は、センサ基板10を支持するためのものである。支持基板40には、例えば、センサ基板10から出力される画素信号にたいして信号処理を施す信号処理回路等が形成されていてもよい。
(1-2.掘り込み部およびその近傍の構成)
 本実施の形態の撮像素子1では、上記のように、封止部材20と貼り合わされるセンサ基板10の裏面(面S1;一の面)には、その周辺領域100Bに掘り込み部101が設けられている。
 掘り込み部101は、図3に示したように、例えば周辺領域100Bの四隅の近傍に、例えば4つ設けられており、それぞれ同様の断面形状に形成されている。具体的には、図1に示したように、深さ方向に狭まるようなテーパ面を有する台形状の断面形状を有する凹部として形成されている。掘り込み部101の大きさとしては、例えば100μm×100μm、深さ5μmを一例として挙げることができるが、これに限定されるものではない。掘り込み部101には、樹脂層30が埋設されている。
 本実施の形態では、平面視において、掘り込み部101の内側に埋設された樹脂層30に複数の空隙Gが形成されており、この掘り込み部101およびその近傍の樹脂層30は、周囲よりも剛性が低くなっている。
 樹脂層30に形成される空隙Gは、例えば平均孔径が30nm~300nmの複数の気泡からなるナノバブル構造を有する。ナノバブル構造として形成された複数の空隙Gは、図1に示したように、側面視において、掘り込み部101の内部およびその上方に設けられていることが好ましいがこの限りではない。例えば、図4Aに示したように、複数の空隙Gは掘り込み部101として形成される凹部内にのみ形成されていてもよい。または、図4Bに示したように、複数の空隙Gは掘り込み部101の上方にのみ形成されていてもよい。あるいは、図4Cに示したように、複数の空隙Gは掘り込み部101として形成される凹部内と、その上方の2つの領域31A,31Bに別れて形成されていてもよい。
 また、樹脂層30に形成される空隙Gは、図5に示したように、例えば平均孔径が10μm~30μmのマイクロバブル構造を有し、例えば1つの気泡として形成されていてもよい。マイクロバブル構造として形成された空隙Gは、図4に示したように、側面視において、掘り込み部101の内部および上方に懸かる位置に設けられていることが好ましいがこの限りではない。例えば、図6Aに示したように、空隙Gは掘り込み部101として形成される凹部内に収まるように形成されていてもよい。または、図6Bに示したように、空隙Gは掘り込み部101の上方に形成されていてもよい。あるいは、図6Cに示したように、空隙Gは掘り込み部101として形成される凹部内およびその上方にそれぞれ1つずつ形成されていてもよい。
 即ち、1または複数の空隙Gは、掘り込み部101の内部およびその近傍の樹脂層30に形成されていればよく、その大きさ、形状および数は特に問わない。
 更に、空隙Gには通常空気が内包されているが、これに限らない。例えば、空隙Gには、ゴムや強度の低い樹脂材料等の樹脂層30よりも柔らかいものが充填されていてもよい。
 上記のような空隙Gは、例えば以下のようにして形成することができる。
 まず、掘り込み部101の形成箇所が開口するように、センサ基板10上の掘り込み部101の形成箇所以外の領域をフォトレジストでパターニングする。続いて、例えばドライエッチングにより、フォトレジストが開口している位置に掘り込み部101を形成したのち、図7Aに示したように、エッチング後の側面(面S101)を、例えばアッシングにより除去する。
 次に、図7Bに示したように、掘り込み部101を構成する側面および底面に水分等のガス成分を吸着させたのち、センサ基板10の全面に樹脂層30となる樹脂材料を塗布する。このとき、掘り込み部101にも充填されるように樹脂材料が塗布される。
 続いて、図7Cに示したように、センサ基板10を加熱処理することにより、掘り込み部101の側面および底面に吸着させた水分等が気化し、掘り込み部101内およびその近傍に、1または複数の空隙Gが形成される。
 なお、掘り込み部101の形状は限定されない。図1では、深さ方向に狭まるようなテーパ面を有する台形状の断面形状を有する掘り込み部101の例を示したがこれに限らず、例えば、図8A~図8Dに示したような形状としてもよい。
 例えば、掘り込み部101は、図8Aに示した掘り込み部101Aのように、その断面形状が深さ方向に広がるようなテーパ面を有する台形状の凹部としてもよい。また、掘り込み部101は、図8Bに示した掘り込み部101Bのように、その断面形状が凹曲面状の凹部としてもよい。更に、掘り込み部101は、図8Cに示した掘り込み部101Cのように、その断面形状が頂点を有するテーパ面からなる三角形状の凹部としてもよい。更にまた、掘り込み部101は、図8Dに示した掘り込み部101Dのように、その断面形状が矩形状となるように、センサ基板10の面S1に対して側面が略直交するような凹部としてもよい。
(1-3.作用・効果)
 前述したように、WCSP構造では、シリコン基板とガラス基板とを接着する処理が行われるが、その接着構造を適切に行う必要がある。このため、センサ基板の有効画素領域よりも外側となる外周領域の四隅の近傍に掘り込み部を設け、この掘り込み部にシリコン基板とガラス基板とを貼り合わせるシール樹脂を充填することで接合部のシェア強度を向上させる方法が報告されている。
 図9は、上記構造を有する撮像素子(撮像素子1000)の掘り込み部Xおよびその周辺の断面構成を模式的に表したものである。撮像素子1000のように、センサ基板1010に設けられた掘り込み部Xにシール樹脂を充填させた構造では、センサ基板1010と封止部材1020との間に設けられた樹脂層1030は、矢印で示したように、掘り込み部X内とその他の領域とにおいて、収縮あるいは膨張による平面方向(例えば、X軸方向)の変化量に差が生じる。その差によって、樹脂層1030には、例えば掘り込み部Xの角部に局所的な応力が印加されて破断する虞がある。
 この問題を解決する方法としては、樹脂層1030に段差を設けないように、掘り込み部X内を空孔としたり、掘り込み部X内や掘り込み部Xおよびその上方を、その他の領域とは異なる材料を用いて埋設する方法が考えられる。しかしながら、上記方法では、センサ基板1010と樹脂層1030との接着強度が低下したり、製造工程が複雑化したりする虞がる。
 これに対して、本実施の形態の撮像素子1では、センサ基板10の周辺領域100Bに設けられた掘り込み部101またはその近傍の樹脂層300に1また複数の空隙Gを形成することで、樹脂層30の収縮または膨張によって掘り込み部101の角部等に印加される応力を緩和するようにした。
 図10は、センサ基板の周辺領域に掘り込み部を持たない撮像素子(比較例1)、上記構造を有する撮像素子1000(比較例2)および本実施の形態の撮像素子1(実施例)における樹脂層(例えば樹脂層30)の破壊強度特性を表したものである。掘り込み部を持たない比較例1と比較して、掘り込み部を有する比較例2および実施例では、掘り込み部の内部構造に関わらず、同等の破壊強度が得られている。
 図11は、上記構造を有する撮像素子1000(比較例2)および本実施の形態の撮像素子1(実施例)における樹脂層(例えば樹脂層30)の白濁強度特性を表したものである。この白濁強度とは、応力を印加した際に樹脂が白く濁り始める強度であり、強度が高いほど、例えば撮影画像への影響が出にくいことを表している。掘り込み部Xが樹脂層1030によって完全に充填された比較例2と比較して、掘り込み部101内に空隙Gを設けた実施例では、白濁強度の向上が確認できる。
 以上のように本実施の形態の撮像素子1では、センサ基板10の周辺領域100Bに設けられた掘り込み部101内に埋設された樹脂層30に、1または複数の空隙Gを設けるようにした。これにより、掘り込み部101の角部等への局所的な応力の印加が低減され、樹脂層30の破断を防ぐことが可能となる。よって、信頼性を向上させることが可能となる。
 また、本実施の形態では、樹脂層30の破断等による白濁の発生が低減されるため、製造歩留まりおよびデザイン性も向上させることが可能となる。
<2.適用例>
(適用例1)
 図12は、上記実施の形態において説明した撮像素子1の全体構成を表したブロック図である。この撮像素子1は、CMOSイメージセンサであり、センサ基板10上に、撮像エリアとしての画素部1aを有すると共に、この画素部1aの周辺領域に、例えば、行走査部131、水平選択部133、列走査部134およびシステム制御部132からなる周辺回路部130を有している。
 画素部1aは、例えば、行列状に2次元配置された複数の単位画素P(撮像素子1に相当)を有している。この単位画素Pには、例えば、画素行ごとに画素駆動線Lread(具体的には行選択線およびリセット制御線)が配線され、画素列ごとに垂直信号線Lsigが配線されている。画素駆動線Lreadは、画素からの信号読み出しのための駆動信号を伝送するものである。画素駆動線Lreadの一端は、行走査部131の各行に対応した出力端に接続されている。
 行走査部131は、シフトレジスタやアドレスデコーダ等によって構成され、画素部1aの各単位画素Pを、例えば、行単位で駆動する画素駆動部である。行走査部131によって選択走査された画素行の各単位画素Pから出力される信号は、垂直信号線Lsigの各々を通して水平選択部133に供給される。水平選択部133は、垂直信号線Lsigごとに設けられたアンプや水平選択スイッチ等によって構成されている。
 列走査部134は、シフトレジスタやアドレスデコーダ等によって構成され、水平選択部133の各水平選択スイッチを走査しつつ順番に駆動するものである。この列走査部134による選択走査により、垂直信号線Lsigの各々を通して伝送される各画素の信号が順番に水平信号線135に出力され、当該水平信号線135を通してセンサ基板10の外部へ伝送される。
 行走査部131、水平選択部133、列走査部134および水平信号線135からなる回路部分は、センサ基板10上に直に形成されていてもよいし、あるいは外部制御ICに配設されたものであってもよい。また、それらの回路部分は、ケーブル等により接続された他の基板に形成されていてもよい。
 システム制御部132は、センサ基板10の外部から与えられるクロックや、動作モードを指令するデータ等を受け取り、また、撮像素子1の内部情報等のデータを出力するものである。システム制御部132はさらに、各種のタイミング信号を生成するタイミングジェネレータを有し、当該タイミングジェネレータで生成された各種のタイミング信号を基に行走査部131、水平選択部133および列走査部134等の周辺回路の駆動制御を行う。
(適用例2)
 上記撮像素子1は、例えば、デジタルスチルカメラやビデオカメラ等のカメラシステムや、撮像機能を有する携帯電話等、撮像機能を備えたあらゆるタイプの電子機器に適用することができる。図13に、その一例として、電子機器2(カメラ)の概略構成を示す。この電子機器2は、例えば、静止画または動画を撮影可能なビデオカメラであり、撮像素子1と、光学系(光学レンズ)310と、シャッタ装置311と、撮像素子1およびシャッタ装置311を駆動する駆動部313と、信号処理部312とを有する。
 光学系310は、被写体からの像光(入射光)を撮像素子1の画素部1aへ導くものである。この光学系310は、複数の光学レンズから構成されていてもよい。シャッタ装置311は、撮像素子1への光照射期間および遮光期間を制御するものである。駆動部313は、撮像素子1の転送動作およびシャッタ装置311のシャッタ動作を制御するものである。信号処理部312は、撮像素子1から出力された信号に対し、各種の信号処理を行うものである。信号処理後の映像信号Doutは、メモリ等の記憶媒体に記憶されるか、あるいは、モニタ等に出力される。
 更に、上記撮像素子1は、下記電子機器(カプセル型内視鏡10100および車両等の移動体)にも適用することが可能である。
(適用例3)
<体内情報取得システムへの応用例>
 更に、本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図14は、本開示に係る技術(本技術)が適用され得る、カプセル型内視鏡を用いた患者の体内情報取得システムの概略的な構成の一例を示すブロック図である。
 体内情報取得システム10001は、カプセル型内視鏡10100と、外部制御装置10200とから構成される。
 カプセル型内視鏡10100は、検査時に、患者によって飲み込まれる。カプセル型内視鏡10100は、撮像機能及び無線通信機能を有し、患者から自然排出されるまでの間、胃や腸等の臓器の内部を蠕動運動等によって移動しつつ、当該臓器の内部の画像(以下、体内画像ともいう)を所定の間隔で順次撮像し、その体内画像についての情報を体外の外部制御装置10200に順次無線送信する。
 外部制御装置10200は、体内情報取得システム10001の動作を統括的に制御する。また、外部制御装置10200は、カプセル型内視鏡10100から送信されてくる体内画像についての情報を受信し、受信した体内画像についての情報に基づいて、表示装置(図示せず)に当該体内画像を表示するための画像データを生成する。
 体内情報取得システム10001では、このようにして、カプセル型内視鏡10100が飲み込まれてから排出されるまでの間、患者の体内の様子を撮像した体内画像を随時得ることができる。
 カプセル型内視鏡10100と外部制御装置10200の構成及び機能についてより詳細に説明する。
 カプセル型内視鏡10100は、カプセル型の筐体10101を有し、その筐体10101内には、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、給電部10115、電源部10116、及び制御部10117が収納されている。
 光源部10111は、例えばLED(light emitting diode)等の光源から構成され、撮像部10112の撮像視野に対して光を照射する。
 撮像部10112は、撮像素子、及び当該撮像素子の前段に設けられる複数のレンズからなる光学系から構成される。観察対象である体組織に照射された光の反射光(以下、観察光という)は、当該光学系によって集光され、当該撮像素子に入射する。撮像部10112では、撮像素子において、そこに入射した観察光が光電変換され、その観察光に対応する画像信号が生成される。撮像部10112によって生成された画像信号は、画像処理部10113に提供される。
 画像処理部10113は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサによって構成され、撮像部10112によって生成された画像信号に対して各種の信号処理を行う。画像処理部10113は、信号処理を施した画像信号を、RAWデータとして無線通信部10114に提供する。
 無線通信部10114は、画像処理部10113によって信号処理が施された画像信号に対して変調処理等の所定の処理を行い、その画像信号を、アンテナ10114Aを介して外部制御装置10200に送信する。また、無線通信部10114は、外部制御装置10200から、カプセル型内視鏡10100の駆動制御に関する制御信号を、アンテナ10114Aを介して受信する。無線通信部10114は、外部制御装置10200から受信した制御信号を制御部10117に提供する。
 給電部10115は、受電用のアンテナコイル、当該アンテナコイルに発生した電流から電力を再生する電力再生回路、及び昇圧回路等から構成される。給電部10115では、いわゆる非接触充電の原理を用いて電力が生成される。
 電源部10116は、二次電池によって構成され、給電部10115によって生成された電力を蓄電する。図14では、図面が煩雑になることを避けるために、電源部10116からの電力の供給先を示す矢印等の図示を省略しているが、電源部10116に蓄電された電力は、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、及び制御部10117に供給され、これらの駆動に用いられ得る。
 制御部10117は、CPU等のプロセッサによって構成され、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、及び、給電部10115の駆動を、外部制御装置10200から送信される制御信号に従って適宜制御する。
 外部制御装置10200は、CPU,GPU等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載されたマイクロコンピュータ若しくは制御基板等で構成される。外部制御装置10200は、カプセル型内視鏡10100の制御部10117に対して制御信号を、アンテナ10200Aを介して送信することにより、カプセル型内視鏡10100の動作を制御する。カプセル型内視鏡10100では、例えば、外部制御装置10200からの制御信号により、光源部10111における観察対象に対する光の照射条件が変更され得る。また、外部制御装置10200からの制御信号により、撮像条件(例えば、撮像部10112におけるフレームレート、露出値等)が変更され得る。また、外部制御装置10200からの制御信号により、画像処理部10113における処理の内容や、無線通信部10114が画像信号を送信する条件(例えば、送信間隔、送信画像数等)が変更されてもよい。
 また、外部制御装置10200は、カプセル型内視鏡10100から送信される画像信号に対して、各種の画像処理を施し、撮像された体内画像を表示装置に表示するための画像データを生成する。当該画像処理としては、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の信号処理を行うことができる。外部制御装置10200は、表示装置の駆動を制御して、生成した画像データに基づいて撮像された体内画像を表示させる。あるいは、外部制御装置10200は、生成した画像データを記録装置(図示せず)に記録させたり、印刷装置(図示せず)に印刷出力させてもよい。
 以上、本開示に係る技術が適用され得る体内情報取得システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部10112に適用され得る。これにより、検出精度が向上する。
(適用例4)
<内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図15は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図15では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図16は、図15に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部11402に適用され得る。撮像部11402に本開示に係る技術を適用することにより、検出精度が向上する。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
(適用例5)
<移動体への応用例>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図17は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図17に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図17の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図18は、撮像部12031の設置位置の例を示す図である。
 図18では、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図18には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、実施の形態および適用例を挙げて説明したが、本開示内容は上記実施の形態等に限定されるものではなく、種々変形が可能である。
 なお、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、また、他の効果があってもよい。
 なお、本開示は、以下のような構成であってもよい。
(1)
 複数の受光素子が配列された受光領域および前記受光領域の周囲に設けられた周辺領域を有するセンサ基板と、
 前記センサ基板の一の面と対向配置された封止部材と、
 前記センサ基板と前記封止部材とを貼り合わせる樹脂層と、
 前記センサ基板の前記一の面の前記周辺領域に設けられると共に、前記樹脂層が埋設された掘り込み部とを備え、
 前記樹脂層は、平面視において、前記掘り込み部の内側に1または複数の空隙を有する
 撮像素子。
(2)
 前記樹脂層は、前記空隙としてナノバブル構造を有する、前記(1)に記載の撮像素子。
(3)
 前記樹脂層は、前記空隙としてマイクロバブル構造を有する、前記(1)または(2)に記載の撮像素子。
(4)
 前記空隙は、前記掘り込み部の内部および前記掘り込み部の上方の少なくとも一方に設けられている、前記(1)乃至(3)のうちのいずれかに記載の撮像素子。
(5)
 前記封止部材は光透過性を有する、前記(1)乃至(4)のうちのいずれかに記載の撮像素子。
(6)
 前記樹脂層は、アクリル系樹脂材料、スチレン系樹脂材料およびエポキシ樹脂材料の少なくとも1種を用いて形成されている、前記(1)乃至(5)のうちのいずれかに記載の撮像素子。
(7)
 前記センサ基板は、前記一の面と対向する他の面を有し、前記他の面に多層配線層を有する、前記(1)乃至(6)のうちのいずれかに記載の撮像素子。
(8)
 撮像素子を備え、
 前記撮像素子は、
 複数の受光素子が配列された受光領域および前記受光領域の周囲に設けられた周辺領域を有するセンサ基板と、
 前記センサ基板の一の面と対向配置された封止部材と、
 前記センサ基板と前記封止部材とを貼り合わせる樹脂層と、
 前記センサ基板の前記一の面の前記周辺領域に設けられると共に、前記樹脂層が埋設された掘り込み部とを備え、
 前記樹脂層は、平面視において、前記掘り込み部の内側に1または複数の空隙を有する
 電子機器。
 本出願は、日本国特許庁において2018年7月19日に出願された日本特許出願番号2018-136049号を基礎として優先権を主張するものであり、この出願の全ての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (8)

  1.  複数の受光素子が配列された受光領域および前記受光領域の周囲に設けられた周辺領域を有するセンサ基板と、
     前記センサ基板の一の面と対向配置された封止部材と、
     前記センサ基板と前記封止部材とを貼り合わせる樹脂層と、
     前記センサ基板の前記一の面の前記周辺領域に設けられると共に、前記樹脂層が埋設された掘り込み部とを備え、
     前記樹脂層は、平面視において、前記掘り込み部の内側に1または複数の空隙を有する
     撮像素子。
  2.  前記樹脂層は、前記空隙としてナノバブル構造を有する、請求項1に記載の撮像素子。
  3.  前記樹脂層は、前記空隙としてマイクロバブル構造を有する、請求項1に記載の撮像素子。
  4.  前記空隙は、前記掘り込み部の内部および前記掘り込み部の上方の少なくとも一方に設けられている、請求項1に記載の撮像素子。
  5.  前記封止部材は光透過性を有する、請求項1に記載の撮像素子。
  6.  前記樹脂層は、アクリル系樹脂材料、スチレン系樹脂材料およびエポキシ樹脂材料の少なくとも1種を用いて形成されている、請求項1に記載の撮像素子。
  7.  前記センサ基板は、前記一の面と対向する他の面を有し、前記他の面に多層配線層を有する、請求項1に記載の撮像素子。
  8.  撮像素子を備え、
     前記撮像素子は、
     複数の受光素子が配列された受光領域および前記受光領域の周囲に設けられた周辺領域を有するセンサ基板と、
     前記センサ基板の一の面と対向配置された封止部材と、
     前記センサ基板と前記封止部材とを貼り合わせる樹脂層と、
     前記センサ基板の前記一の面の前記周辺領域に設けられると共に、前記樹脂層が埋設された掘り込み部とを備え、
     前記樹脂層は、平面視において、前記掘り込み部の内側に1または複数の空隙を有する
     電子機器。
PCT/JP2019/023618 2018-07-19 2019-06-14 撮像素子および電子機器 WO2020017205A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/250,355 US20210272995A1 (en) 2018-07-19 2019-06-14 Imaging element and electronic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-136049 2018-07-19
JP2018136049A JP2020013928A (ja) 2018-07-19 2018-07-19 撮像素子および電子機器

Publications (1)

Publication Number Publication Date
WO2020017205A1 true WO2020017205A1 (ja) 2020-01-23

Family

ID=69163495

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/023618 WO2020017205A1 (ja) 2018-07-19 2019-06-14 撮像素子および電子機器

Country Status (3)

Country Link
US (1) US20210272995A1 (ja)
JP (1) JP2020013928A (ja)
WO (1) WO2020017205A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003037222A (ja) * 2001-07-26 2003-02-07 Sony Corp 半導体装置の実装方法及びその実装構造、並びに半導体装置及びその製造方法
WO2008050635A1 (fr) * 2006-10-19 2008-05-02 Panasonic Corporation Structure de montage d'élément semiconducteur et procédé de montage d'élément semiconducteur
WO2018030140A1 (ja) * 2016-08-08 2018-02-15 ソニーセミコンダクタソリューションズ株式会社 撮像素子、製造方法、および電子機器

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008192769A (ja) * 2007-02-02 2008-08-21 Sharp Corp 樹脂封止型半導体受光素子、樹脂封止型半導体受光素子の製造方法、及び樹脂封止型半導体受光素子を用いた電子機器
JP5037450B2 (ja) * 2008-08-08 2012-09-26 シャープ株式会社 表示素子・電子素子モジュールおよび電子情報機器
JP2013041878A (ja) * 2011-08-11 2013-02-28 Sony Corp 撮像装置およびカメラモジュール
EP3028033B1 (en) * 2013-08-04 2020-10-07 Photonicsys Ltd. Optical sensor based on multilayered plasmonic structure comprising a nanoporous metallic layer
JP6300029B2 (ja) * 2014-01-27 2018-03-28 ソニー株式会社 撮像素子、製造装置、製造方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003037222A (ja) * 2001-07-26 2003-02-07 Sony Corp 半導体装置の実装方法及びその実装構造、並びに半導体装置及びその製造方法
WO2008050635A1 (fr) * 2006-10-19 2008-05-02 Panasonic Corporation Structure de montage d'élément semiconducteur et procédé de montage d'élément semiconducteur
WO2018030140A1 (ja) * 2016-08-08 2018-02-15 ソニーセミコンダクタソリューションズ株式会社 撮像素子、製造方法、および電子機器

Also Published As

Publication number Publication date
US20210272995A1 (en) 2021-09-02
JP2020013928A (ja) 2020-01-23

Similar Documents

Publication Publication Date Title
JP7449317B2 (ja) 撮像装置
US20210183928A1 (en) Imaging element, method of manufacturing the same, and electronic appliance
US10872998B2 (en) Chip size package, method of manufacturing the same, electronic device, and endoscope
WO2018139278A1 (ja) 撮像素子、製造方法、および電子機器
CN110431668B (zh) 固态摄像装置和电子设备
WO2021241019A1 (ja) 撮像素子および撮像装置
WO2020179290A1 (ja) センサおよび測距装置
WO2020036054A1 (ja) 固体撮像素子および電子機器
WO2019171879A1 (ja) 撮像装置
CN111133581B (zh) 摄像元件、其制造方法和电子设备
JP6976751B2 (ja) 撮像装置および撮像装置の製造方法、並びに、電子機器
JPWO2018180570A1 (ja) 固体撮像素子、電子機器、および半導体装置
WO2019188131A1 (ja) 半導体装置および半導体装置の製造方法
WO2023013444A1 (ja) 撮像装置
WO2021240982A1 (ja) 半導体装置とその製造方法、及び電子機器
WO2022009674A1 (ja) 半導体パッケージ及び半導体パッケージの製造方法
WO2021075117A1 (ja) 固体撮像装置及び電子機器
WO2020017205A1 (ja) 撮像素子および電子機器
WO2020080154A1 (ja) センサモジュールおよび電子機器
WO2024029408A1 (ja) 撮像装置
JP7422676B2 (ja) 撮像装置
WO2021186907A1 (ja) 固体撮像装置及びその製造方法、並びに電子機器
JP7504802B2 (ja) 固体撮像素子、固体撮像装置及び電子機器
WO2023058326A1 (ja) 撮像装置
WO2023013393A1 (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19838041

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19838041

Country of ref document: EP

Kind code of ref document: A1