WO2020194069A2 - 타일형 이미지 센서 - Google Patents

타일형 이미지 센서 Download PDF

Info

Publication number
WO2020194069A2
WO2020194069A2 PCT/IB2020/020015 IB2020020015W WO2020194069A2 WO 2020194069 A2 WO2020194069 A2 WO 2020194069A2 IB 2020020015 W IB2020020015 W IB 2020020015W WO 2020194069 A2 WO2020194069 A2 WO 2020194069A2
Authority
WO
WIPO (PCT)
Prior art keywords
image sensor
light
sub
substrate
lens
Prior art date
Application number
PCT/IB2020/020015
Other languages
English (en)
French (fr)
Other versions
WO2020194069A3 (ko
Inventor
민병일
Original Assignee
아르크소프트 코포레이션 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아르크소프트 코포레이션 리미티드 filed Critical 아르크소프트 코포레이션 리미티드
Priority to US17/441,976 priority Critical patent/US11848306B2/en
Priority to CN202080020313.7A priority patent/CN113826104B/zh
Publication of WO2020194069A2 publication Critical patent/WO2020194069A2/ko
Publication of WO2020194069A3 publication Critical patent/WO2020194069A3/ko

Links

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L25/00Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof
    • H01L25/03Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes
    • H01L25/04Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes the devices not having separate containers
    • H01L25/065Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes the devices not having separate containers the devices being of a type provided for in group H01L27/00
    • H01L25/0655Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes the devices not having separate containers the devices being of a type provided for in group H01L27/00 the devices being arranged next to each other
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0056Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0062Stacked lens arrays, i.e. refractive surfaces arranged in at least two planes, without structurally separate optical elements in-between
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/003Light absorbing elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/005Diaphragms
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1318Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L23/00Details of semiconductor or other solid state devices
    • H01L23/52Arrangements for conducting electric current within the device in operation from one component to another, i.e. interconnections, e.g. wires, lead frames
    • H01L23/538Arrangements for conducting electric current within the device in operation from one component to another, i.e. interconnections, e.g. wires, lead frames the interconnection structure between a plurality of semiconductor chips being formed on, or in, insulating substrates
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery

Definitions

  • the present invention relates to an image sensor.
  • the image sensor is a device that detects light reflected from a subject and outputs an image expressed as an electrical signal.
  • the image sensor is composed of a plurality of pixels that generate an electrical signal corresponding to the detected amount of light.
  • the size of the image sensor is mainly determined by the number of pixels. When the area occupied by the pixels on the surface of the image sensor is increased, for example, the number of pixels or the area of the light receiving unit is increased, the area detectable by the image sensor is also increased.
  • the silicon wafer required to manufacture the image sensor is also limited in size and accounts for a significant portion of the cost of manufacturing the image sensor.
  • the X-ray imaging device is a typical device that requires an image sensor having a large area detection area.
  • structures in which a plurality of image sensors are arranged have been proposed.
  • the image sensor applied to these structures is a packaged commercial image sensor.
  • the physical dimensions of the packaged commercial image sensor array are not a big problem. 2020/194069 1»(:1' year2020/020015
  • a tile-type image sensor having a large area detection area includes a substrate on which a conductive wire is formed, and a plurality of image sensor dies disposed on the substrate so as to be spaced apart from each other by a first distance and electrically connected to the conductive wire, wherein the image sensor die comprises: a second A plurality of sub-light-receiving regions formed to be spaced apart from each other by a distance, a peripheral formed between the plurality of sub-light-receiving regions, and converting pixel currents generated for each pixel included in the plurality of sub-light-receiving regions into image data and outputting block units A circuit and a contact pad formed on a surface of the image sensor die to electrically connect to the substrate.
  • the plurality of sub light-receiving regions may be disposed at corners of a light incident surface of the image sensor die, and the first distance and the second distance may be the same.
  • the plurality of sub light-receiving regions may be a 1 ⁇ /1 pixel array.
  • the tile-type image sensor includes the plurality of image sensor dies. 2020/194069 1» (:1' year 2020/020015 Further comprising an optical lens layer disposed on the upper portion of the plurality of sub-light-receiving regions, the optical path is formed, wherein the plurality of image sensor dies, light incident A lower surface facing a surface is coupled to the substrate, and the conductive wiring may be formed on the upper surface of the substrate.
  • the optical lens layer is formed of an optically opaque material, and the optical path may be a pinhole extending from an upper surface to a lower surface of the optical lens layer.
  • the optical lens layer includes an optically transparent light path layer, a light blocking layer disposed above the light path layer and having an opening formed at a position corresponding to the sub light-receiving region, and an upper lens formed in the opening Including, the optical path may be defined by the opening and the upper lens.
  • the optical lens layer includes an optically transparent light path layer, a light blocking layer disposed above the light path layer and having an opening formed at a position corresponding to the sub light-receiving region, an upper lens formed in the opening, And a lower lens formed to correspond to the upper lens.
  • the substrate includes an optical path formed at a position corresponding to the plurality of sub light-receiving regions, wherein the plurality of image sensor dies have a light incident surface coupled to the substrate, and the conductive wiring is It may be formed on the lower surface of the substrate.
  • the peripheral circuit converts a pixel current generated for each pixel included in the plurality of sub light-receiving regions into image data, and a readout circuit, and the 2020/194069 1» (: 1'year 2020/020015
  • a data output circuit for sequentially outputting the image data in block units through a data line formed by conductive wiring may be included.
  • the peripheral circuit may further include a row driver that selects a pixel to output the pixel current from the plurality of sub light-receiving regions.
  • some or all of the plurality of image sensor dies may share the data line.
  • the plurality of image sensor dies may be operated by a control signal applied through a control line formed by the conductive wiring.
  • the image sensor according to the exemplary embodiment of the present invention has a large-area detection area at a relatively small cost compared to the conventional image sensor.
  • It can have physical dimensions that can also be mounted on electronic devices.
  • FIG. 2 is a schematic diagram of a tile-type image sensor.
  • 3 is an exemplary illustration of an embodiment of a tile-type image sensor
  • FIG. 4 is a cross-sectional view illustrating an exemplary embodiment of the tile-type image sensor shown in FIG. 3.
  • FIG. 5 is a cross-sectional view illustrating another exemplary embodiment of the tile-type image sensor shown in FIG. 3.
  • FIG. 6 is a cross-sectional view illustrating still another embodiment of the tile-type image sensor shown in FIG. 3.
  • FIG. 7 is an exploded perspective view illustrating another embodiment of a tile-type image sensor.
  • FIG. 8 is a cross-sectional view illustrating another embodiment of the tile-type image sensor illustrated in FIG. 7.
  • FIG. 9 is a diagram illustrating an exemplary embodiment of implementing an upper lens and a lower lens using a ball lens.
  • 1 ⁇ is a diagram illustrating an exemplary embodiment of a functional structure of an image sensor die.
  • Fig. 1 is a schematic diagram showing the operating principle of a tile type image sensor using panel light.
  • the tiled image sensor 10 may be disposed under the display panel 20.
  • the electronic device includes a display panel 20 and a cover glass 30 disposed on the display panel 20 and protecting the display panel 20.
  • the tile type image sensor 10 may be disposed to correspond to a partial area or the entire lower portion of the display panel 20.
  • the tile type image sensor 10 is reflected from the top surface of the cover glass 30 among the light 31 (hereinafter referred to as panel light) generated by the display panel 20 to be displayed.
  • the reflected panel light 32 traveling toward the panel 20 can be detected.
  • the display panel 20 is irradiated toward the subject 40 by turning on a combination of ⁇ 6 and 6 pixels.
  • Panel light 31 can be produced.
  • the panel light 31 may be visible light.
  • the panel light 31 may be visible light belonging to a specific band, green or blue band.
  • the tile type image sensor 10 may detect the subject 40 in contact with the upper surface of the cover glass 30.
  • the subject 40 may be, for example, a finger, a stylus pen, or the like in contact with the upper surface of the cover glass 30.
  • the tile-type image sensor 10 may generate a fingerprint image of an area in contact with the upper surface of the cover glass 30. At least a part of the panel light 31 generated by the display panel 20 proceeds toward the cover glass 30.
  • the ridge of the fingerprint contacts the cover glass 30, a part of the panel light 31 reaching the contact point of the cover glass-ridge is absorbed by the ridge.
  • the panel light 31 reaching the point corresponding to the valley of the fingerprint is reflected toward the display panel 20.
  • the reflected panel light 32 refers to the display panel 20 2020/194069 1» (:1' year 2020/020015 passes, reaching the tiled image sensor 10). Reflected from various angles
  • the panel light 32 reaches the tile-type image sensor 10 at various angles.
  • the tile-type image sensor 10 generates a fingerprint image using the reflected panel light 32 that has passed through the display panel 20 from among the panel light 32 reflected at various angles.
  • the panel light 32 reflected from the point corresponding to the valley of the fingerprint is relatively bright, and the panel light 32 reflected from the point corresponding to the ridge of the fingerprint is relatively dark. Therefore, the fingerprint image generated by the tile-type image sensor 10 corresponds to the ridge of the fingerprint.
  • a relatively dark pattern may be displayed on a bright background as a whole.
  • the tile-type image sensor 10 may detect a position in contact with the cover glass 30 when the subject 40 is a finger or a stylus pen.
  • the sub light-receiving area of the tiled image sensor 10 (1103 in Fig. 2, It is composed of a plurality of pixels, and each pixel generates a pixel current corresponding to the amount of incident light.
  • the resolution of the tile-type image sensor 10 may be determined by a pixel array arranged in the sub-light-receiving area and a distance between the sub-light-receiving areas, and the area of the detection area on the upper surface of the cover glass 30 is It can be roughly determined by the resolution and the distance between the cover glass-tile image sensor.
  • the tile-type image sensor 10 includes a plurality of sub light-receiving regions respectively corresponding to a plurality of sub-detection regions constituting the large-area detection region.
  • an optical system composed of a plurality of lenses the area of the detection area corresponding to a single image sensor can be extended to near infinity.
  • the distance to the subject is only hundreds to thousands of micrometers. 2020/194069 1»(:1' year 2020/020015 It is difficult to deploy.
  • the optical fingerprint sensor is disposed under the display panel 20, since the distance between the light-receiving area and the detection area of the image sensor is short, it is difficult to secure a large-area detection area.
  • the detection area can be expanded by placing an optical lens between the image sensor and the display panel, but light incident through the periphery of the optical lens is distorted. May result in lost images.
  • the tile-type image sensor 10 since one sub light-receiving area is arranged to correspond to one sub-detection area 1:1, the possibility of image distortion is minimized, and at the same time, a large-area detection area can be secured.
  • image distortion may occur, and there have been many technological developments to solve this problem.
  • the tiled image sensor 10 can implement a large-area detection area without significantly increasing the manufacturing cost of the image sensor, and is not limited to the size of a wafer used when manufacturing the image sensor.
  • the thickness of the image sensor can be drastically reduced, and thus can be disposed under the display panel 20.
  • FIG. 2 is a schematic diagram of a tile-type image sensor.
  • the tile type image sensor 10 includes a substrate 200 to which a plurality of image sensor dies (10()3 to 1 ⁇ Lee; hereinafter referred to as 1 ⁇ ) and a plurality of image sensor dies 100 are electrically connected to each other. Includes.
  • the image sensor die 100 includes a plurality of spaced apart sub light-receiving areas 1103, 110 110 (collectively referred to as 11° below:, 110 degrees) and a plurality of sub light-receiving areas 1103, 11, 110 (:, 110 ratios). And a peripheral circuit 120 formed in an area not occupied by it. 2020/194069 1» (:1' year 2020/020015
  • the image sensor die 100 is bonded to the substrate 200 in an unpackaged state.
  • Each of the plurality of sub light-receiving regions 11 and 110 110 (:, 110 ratio is formed by arranging a plurality of pixels May be the same) pixel array.
  • the pixel may include, for example, a light receiving unit that receives the reflected panel light 32 and a plurality of transistors for outputting a pixel current corresponding to an amount of charge accumulated in the light receiving unit.
  • the resolution of the tile-type image sensor 10 may be substantially the same as the number of pixels of the plurality of sub light-receiving regions 110 formed in the plurality of image sensors 100.
  • the plurality of sub light-receiving areas 1103 to 110 may be spaced apart by substantially the same distance ratio to be formed on the image sensor die 100.
  • the plurality of sub light-receiving areas 1103 to 110 are centered on the image sensor die 100 It may be arranged to be symmetrical horizontally and vertically with respect to a virtual vertical line and horizontal line passing by.
  • a plurality of sub light-receiving areas ((1) 03 to 11) are the light incident surface of the image sensor die 100 (ie, the upper surface).
  • the plurality of sub-light-receiving areas (1) 03 to 110 may be formed at the corners of the light incidence surface, respectively.
  • the separation distance ⁇ between the image sensor dies 100 can be substantially equal to the distance burr.
  • a plurality of sub detection areas(1) 0 3 _ to 11 ⁇ ⁇ correspond to a plurality of sub light-receiving areas (11()3 to 110 ratios, respectively, and may be formed so that no overlapping area occurs or is minimal).
  • the horizontal and vertical lengths of the plurality of sub detection areas (1) 0 3 _ to ⁇ are the magnification of the micro-optical structure disposed between the sub light-receiving area and the sub-detection area, and the sub-light-receiving area and the sub 2020/194069 1» (:1' year 2020/020015 Can be determined by the combination of the distance between detection areas.
  • the distance ratio between the plurality of sub light-receiving areas 11()3 to 110 ratios is closer than the arrangement example shown in FIG. 2, the area overlapping between the plurality of sub detection areas 1103_ to 11_ is increased and the area of the actual detection area In order to compensate for the reduction in area, if the distance ⁇ between other image sensor dies disposed around is decreased, the number of image sensor dies required to secure a large-area detection area of the same area may increase.
  • the peripheral circuit 120 is formed in the remaining regions in which the plurality of sub light-receiving regions 110 are not formed.
  • the peripheral circuit 120 includes a readout circuit for converting a pixel current into image data.
  • the readout circuit includes an analog-to-digital converter, and may further include a buffer for storing image data.
  • a pixel control signal for controlling (eg, resetting a light receiving unit and/or a capacitor) and selecting pixels arranged in the plurality of sub light-receiving regions 110 may be applied from the outside of the image sensor die 100. Meanwhile, an output control signal that controls the readout circuit to output image data may be applied from the outside of the image sensor die 100.
  • the peripheral circuit 120 may further include a row driver for controlling and selecting pixels. A driver control signal for controlling the row driver may be applied from the outside of the image sensor die 100.
  • the peripheral circuit 120 may further include a timing controller that drives the row driver. The timing control signal to control the timing controller is from the outside of the image sensor die 100 Can be authorized.
  • the plurality of image sensor dies 100 may be spaced apart by a substantially the same distance d 2 and disposed on the substrate 100.
  • the distance ratio and the distance d 2 may be formed such that an overlapping area does not occur between the plurality of sub detection areas 110a ⁇ to 110d_ or is minimized even if it occurs.
  • the distance d 2 can be substantially equal to the distance ratio.
  • the area of the substrate 100 and the number of image sensor dies 100 to be disposed therein may be determined by a large area detection area to be implemented.
  • a large-area detection area having a width and length of M x wn may be implemented by arranging 9 image sensor dies 100 by 3x3. Assuming that the area of an image sensor having a single light-receiving area is 100%, it is about 100%. It is possible to secure the same large area detection area with 9 image sensor dies 100 corresponding to 25%.
  • the substrate 200 is electrically connected to the plurality of image sensor dies 100 to transmit externally applied control signals to the plurality of image sensor dies 100, and the image data generated by the image sensor dies 100 to the outside.
  • Conductive wiring output to the plurality of image sensor dies 100 to transmit externally applied control signals to the plurality of image sensor dies 100, and the image data generated by the image sensor dies 100 to the outside.
  • the substrate 200 may be, for example, a low-cost semiconductor substrate, a printed circuit board (PCB), a flexible printed circuit board (FPCB), or the like.
  • Semiconductor substrates such as solar cell silicon wafers and the like are relatively inexpensive compared to silicon wafers for image sensors, and are thus suitable for implementing the tile type image sensor 10.
  • the conductive wiring may be precisely formed on a semiconductor substrate by using a semiconductor process such as photo and etching.
  • the contact pads of the plurality of image sensor die 100 may be formed on the lower surface of the die. 2020/194069 1»(:1' year 2020/020015, it can be electrically connected to the substrate 200 by soldering or the like.
  • the contact pads of the plurality of image sensor dies 100 may be formed on an upper surface of the die, and may be electrically connected to the substrate 200 by wiring or the like.
  • 3 is an exemplary illustration of an embodiment of a tile-type image sensor
  • the tile-type image sensor 10 includes a plurality of image sensor dies and an optical lens layer 300 for limiting an incident angle of light incident to a plurality of sub light-receiving regions formed on each of the plurality of image sensors. do.
  • the optical lens layer 300 is disposed on the image sensor die 100 so that the reflected panel light 32 proceeds toward the sub light-receiving area 110.
  • the optical lens layer 300 includes an optical path 310 through which the reflected panel light 32 passes.
  • the optical path 310 is formed at a position corresponding to the sub light-receiving area 110 of the image sensor die 100.
  • the optical lens layer 300 may be spaced apart from the image sensor die 100 (FIGS. 4 and 6) or may be coupled to the image sensor die 100.
  • the plurality of image sensor dies 100 are electrically coupled to the substrate 200.
  • a conductive wiring 210 including a pad electrically connected to a contact pad of the image sensor die 100 and a wiring connected to the pad is formed on the substrate 200.
  • FIG. 4 is a cross-sectional view illustrating an exemplary embodiment of the tile-type image sensor shown in FIG. 3, and illustrates in detail / ⁇ of FIG. 1 to describe the structure of the optical lens layer 300.
  • the optical path provided by the optical lens layer 300 is
  • the optical lens layer 300 is formed of an optically opaque material, 2020/194069 1» (: 1'year 2020/020015 pinhole 311 is formed at a position corresponding to the sub light-receiving area 110).
  • the pinhole 311 passes through the optical lens layer 300 from the top to the bottom of the optical lens layer 300, and the inside of the pinhole 311 may be filled with air or a material having a refractive index different from that of air.
  • the panel light 323, 33 ⁇ 4, and 32 (:) reflected from the first sub detection area 11 o passes through the pinhole 311 to reach the sub light-receiving area 110.
  • the lower surface of the display panel 20 is .
  • the reflected panel light (323, 33 ⁇ 4, 32(:) is refracted at different refraction angles depending on the incident angle.
  • Light belonging to the effective incident angle range is the effective area (20_) on the lower surface of the display panel 20)
  • the first sub-detection area (light reflected from the first sub-detection area 110, but traveling at an angle other than the effective incidence angle range) and the second sub-detection area (110) are effective.
  • the light reaching the region 20_ cannot pass through the corresponding pinhole 311.
  • the first sub detection area (11 ⁇ panel light (33 ⁇ 4), which is reflected obliquely downward from the left side of it, is refracted counterclockwise from the lower surface of the display panel 20, and the refracted light passes through the pinhole 311 to receive the sub light. It reaches the pixel on the right side of the area 110.
  • the panel light 33 ⁇ 4 which is reflected obliquely downward from the right side of the first sub detection area 1103_, is refracted clockwise from the lower surface of the display panel 20 and is refracted. Passes through the pinhole 311 to reach the left pixel of the sub light-receiving area 110.
  • FIG. 5 is a cross-sectional view illustrating another embodiment of the tile-type image sensor shown in FIG. 3 as an example, and / ⁇ of FIG. 1 is used to describe the structure of the optical lens layer 300.
  • 2020/194069 1»(:1' year 2020/020015 is shown in detail.
  • the optical lens layer 300 is disposed above the optically transparent light path layer 320 and the light path layer 320 and has an opening 331 at a position corresponding to the sub light-receiving region 110.
  • a light blocking layer 330 is formed, and an upper lens 340 formed in the opening 331.
  • the optical path can be defined by an aperture 331 and an upper lens 340.
  • the optical path layer 320 may be formed by laminating an optically transparent material on the image sensor die 100 and the substrate 200.
  • the lens 340 concentrates the reflected panel lights 323 and 32 (:) belonging to a predetermined angular range starting from the same point on the first sub detection area 110 ⁇ .
  • the panel light 323, 33 ⁇ 4 32 (:) reflected from the first sub detection area (11 ⁇ ) is concentrated by the lens 340 to reach the sub light-receiving area 110.
  • the lower surface of the display panel 20 is , As the interface with air, the reflected panel light (323, 33 ⁇ 4, 32(:) is refracted at different refraction angles depending on the incident angle. Light belonging to the effective incident angle range is the effective area (20_) on the lower surface of the display panel 20) It is refracted at and can pass through the upper lens 240.
  • FIG. 6 is another embodiment of the tile type image sensor shown in FIG.
  • FIG. 1 As an exemplary cross-sectional view, / ⁇ of FIG. 1 is shown in detail to explain the structure of the optical lens layer 300.
  • the optical lens layer 300 is disposed above the light path layer 320 and the light path layer 320 and has an opening 331 formed at a position corresponding to the sub light receiving area 110. And a blocking layer 330, an upper lens 340 formed in the opening 331, and a lower lens 345 formed to correspond to the upper lens 340.
  • the optical path may be defined by an aperture 331, an upper lens 340 and a lower lens 345.
  • the upper lens 340 and the lower lens 345 concentrate the reflected panel light 323, 32 (:) belonging to a predetermined angular range starting from the same point on the first sub detection area 1103_ .
  • the optical path may be shortened by a combination of the lens 340 and the lower lens 345.
  • the optical path layer 320 may be formed of an optically transparent material. Is optically coupled to the light path layer 320 through the opening 331, and the lower lens 345 may be optically coupled to the lower surface of the light path layer 320. In another embodiment, the upper lens 340 ) And the lower lens 345 may be integrally formed.
  • the first sub detection area (the panel light 323, 33 ⁇ 4, 32 (:) reflected from the 110 teeth is 2020/194069 1» (: 1'year 2020/020015 It is concentrated by the lens 340 and the lower lens 345 and reaches the sub light-receiving area 110.
  • the panel light 323 reflected downward from the center of the first sub detection area 1103_ the light within the first angular range 0 1 is concentrated by the upper lens 340 and the lower lens 345 and is concentrated by the sub light receiving area ( 110) at or near the center of the pixel.
  • the first sub-detection area (11 ⁇ from the left side of the panel light that is inclined downwards (out of 32, the light within the second angular range 0 2 is refracted counterclockwise from the bottom surface of the display panel 20) and the upper lens 340 ) And the lower lens 345 to reach the right pixel of the sub light-receiving area 110.
  • the second angular range of the panel light (33 ⁇ 4) that is obliquely reflected downward from the right side of the first sub detection area 1103_
  • the light within 0 2 is refracted clockwise from the lower surface of the display panel 20 and is concentrated by the upper lens 340 and the lower lens 345 to receive sub-light.
  • the lower lens 345 is spaced apart from the sub light-receiving area 110.
  • a medium having a different refractive index for example, air is interposed between the lower lens 345 and the sub light-receiving region 110, and light emitted from the lower lens 345 is refracted to reach the sub light-receiving region 110.
  • air is interposed between the lower lens 345 and the sub light-receiving region 110, and light emitted from the lower lens 345 is refracted to reach the sub light-receiving region 110.
  • a spacer (not shown) may be disposed between the lens layer 300 and the substrate 200.
  • FIG. 7 is an exemplary illustration showing another embodiment of a tile-type image sensor
  • the tile-type image sensor 10 limits the incident angle of light incident to a plurality of image sensor dies and a plurality of sub light-receiving regions formed on each of the plurality of image sensors, and the plurality of image sensor dies 100 Electrically coupled with 2020/194069 1»(:1' year 2020/020015 Including the substrate 201.
  • the overall thickness of the tiled image sensor 10 can be reduced.
  • a conductive wire including a pad electrically connected to the contact pad of the image sensor die 100 and a wire connected to the pad is formed on the lower surface of the substrate 201.
  • the plurality of image sensor dies 100 are electrically coupled to the lower surface of the substrate 201.
  • the substrate 201 is disposed above the image sensor die 100 so that the reflected panel light 32 travels toward the sub light-receiving region 110.
  • the substrate 201 includes an optical path 220 through which the reflected panel light 32 passes.
  • the light path 220 is formed at a position corresponding to the sub light-receiving area 110 of the image sensor die 100.
  • the light path 220 through which the reflected panel light 32 passes is formed to extend from the upper surface to the lower surface of the substrate 201.
  • the optical path 220 may be, for example, the structure illustrated in FIGS. 4 to 6.
  • FIG. 8 is a cross-sectional view illustrating an exemplary embodiment of the tile-type image sensor shown in FIG. 7, and illustrates in detail / ⁇ of FIG. 1 to explain the structure of the optical lens layer 300.
  • the substrate 201 corresponds to the through hole 202 formed at a position corresponding to the sub light-receiving region 110, the upper lens 340 and the upper lens 340 located in the through hole 202 It includes a lower lens (345) formed to be.
  • the optical path may be defined by the through hole 202, the upper lens 340 and the lower lens 345.
  • the upper lens 340 and the lower lens 345 concentrate the reflected panel light 323, 33 ⁇ 4 32 (:) belonging to a certain angular range starting from the same point on the first sub detection area 110.
  • the upper lens The optical path may be shortened by the combination of 340 and the lower lens 345.
  • the substrate 201 is optically transparent.
  • the substrate 201 does not include a through hole 202, and a light blocking layer (not shown) including an opening formed at a position corresponding to the upper lens 340 is formed on the substrate 201 It can be formed on the upper surface of.
  • the upper lens 340 and the lower lens 345 may be integrally formed.
  • optically transparent substrate 201 in the case of the optically opaque substrate 201, the upper lens 340 and the lower lens 345 may be integrally formed.
  • optically transparent substrate 201 in the case of the optically opaque substrate 201, the upper lens 340 and the lower lens 345 may be integrally formed.
  • optically transparent substrate 201 in the case of the optically opaque substrate 201, the upper lens 340 and the lower lens 345 may be integrally formed.
  • optically transparent substrate 201 in the case of the optically opaque substrate 201, the upper lens 340 and the lower lens 345 may be integrally formed.
  • the upper lens 340 is optically coupled to the substrate 201 through an opening formed in the light blocking layer, and the lower lens 345 may be optically coupled to the lower surface of the substrate 201. .
  • the image sensor die 100 is electrically coupled to a conductive line formed on the lower surface of the substrate 201.
  • the contact pad is formed on the upper surface of the image sensor die 100 and may be electrically coupled to the conductive wiring of the substrate 201 using soldering 225 or the like.
  • the contact pad is formed on the lower surface of the image sensor die 100, and may be electrically coupled to the conductive wiring of the substrate 201 by wiring.
  • the lower lens 345 is spaced apart from the sub light-receiving area 110.
  • the lower lens 345 may be separated from the sub light-receiving area 110 by soldering 225.
  • a spacer (not shown) may be disposed between the substrate 200 and the image sensor die 100 to separate the lower lens 345 from the sub light-receiving region 110.
  • FIG. 9 is a diagram illustrating an exemplary embodiment of implementing an upper lens and a lower lens using a ball lens.
  • 2020/194069 1» (: 1'year 2020/020015 In Fig. 6 or 8
  • the upper lens 340 and the lower lens 345 increase the incident amount of the reflected panel light and/or increase the incident angle of the reflected panel light. To limit, it can have different radii of curvature.
  • the upper lens 3123 and the lower lens 312 of FIG. 9 may have substantially the same radius of curvature because they are implemented using a part of the curved surface of the ball lens 312.
  • a through hole 3113 is formed in the light path layer 320 or the substrate 201.
  • the width of the through hole 3113 may be substantially the same as or greater than the diameter of the ball lens 312.
  • the through hole 3113 may be formed at a position corresponding to the sub light-receiving region 110.
  • the optical path layer 320 may be an optically transparent or opaque film, and the substrate 201 may be an optically transparent or opaque semiconductor substrate.
  • the ball lens 312 is disposed inside the through hole 3113, and in ( ⁇ :), the upper light blocking layer 3133 is formed on the upper surface of the light path layer 320 or the substrate 201
  • the upper light blocking layer 3133 may be formed to expose a part of the upper curved surface of the ball lens 312 disposed in the through hole 3113.
  • the upper curved surface exposed by the upper light blocking layer 3133 Becomes the upper lens 3123.
  • the upper light blocking layer 3133 is formed on the side surface of the ball lens 312
  • It may be filled in at least a part of the space between the inner surfaces of the through hole 3113.
  • the lower light blocking layer 313 ⁇ 4 may be further formed on the lower surface of the light path layer 320 or the substrate 201.
  • the lower curved surface exposed by the lower light blocking layer 313 is the lower lens 312
  • the width of the opening of the upper light blocking layer 3133, defining the upper lens 312, and the width of the opening of the lower light blocking layer 313, defining the lower lens 312 may be different.
  • 2020/194069 1 » (: 1'year 2020/020015
  • Fig. 1 ⁇ is a diagram showing an exemplary embodiment of a functional structure of an image sensor die.
  • the peripheral circuit 120 is disposed between the remaining areas in which the plurality of sub light-receiving areas 110 are not formed, that is, the sub-light-receiving areas 110 spaced apart from each other.
  • the image sensor die 100 includes: a readout circuit 0; 122) and data
  • the microcontroller 400 may control the operation of the plurality of image sensor dies 100.
  • the controller 400 controls the readout circuit 122 and the data output circuit 123 of the image sensor die 100 to output an image data block.
  • the image data block is a set of image data generated by 2/21 ⁇ /1 pixels constituting the plurality of sub light-receiving areas 110 on one image sensor die 100. That is, the data output circuit 123 outputs video data corresponding to 2/21 pixels in block units.
  • the microcontroller may perform a function of a row driver that generates a pixel control signal for controlling and selecting a pixel located in the sub light-receiving area 110.
  • a row driver is provided separately, and may be electrically connected to the sub light-receiving region 110 through a pixel control line. The row driver may be controlled by the microcontroller 400 or the timing controller.
  • the peripheral circuit 120 of the image sensor die 100 may further include a row driver.
  • the microcontroller 400 may perform a function of a timing controller controlling a row driver.
  • a timing controller is provided separately, and may be electrically connected to the row driver through a pixel control line. 2020/194069 1»(:1' year2020/020015 microcontroller 400, through the output control line, the image sensor
  • the die 100 is electrically connected to the readout circuit 122 and the data output circuit 123.
  • the data output circuit 1 23 of the image sensor die 100 is electrically connected to a data line.
  • the data output circuit 123 outputs an image data block through a data line according to an output control signal transmitted through an output control line.
  • the data line can be configured in various ways.
  • the data line may be provided for each image sensor die 100 or may be shared by all or part of the image sensor die. That is, in a structure in which all or part of the image sensor dies share data lines, the data output circuit 123 may output an image data block in a daisy chain method. If the entire image sensor die shares one data line, the micro
  • the controller 400 may control to output the image data blocks in the order from the first image sensor die to the ninth image sensor die.
  • First to third image sensor dies share a first data line
  • fourth to sixth image sensor dies share a second data line
  • seventh to ninth image sensor dies share a third data line.
  • the microcontroller 400 may block image data blocks in the order of the first, fourth and seventh image sensor die-second, fifth, eighth image sensor die-third, sixth and ninth image sensor die.
  • the microcontroller 400 controls each image sensor die 100 at intervals sufficient for one image sensor die 100 to output an image data block to sequentially output the image data blocks. I can.
  • the die 100 outputs a transmission completion signal
  • the microcontroller 400 is transmission completion 2020/194069 1»(:1' year 2020/020015 You can select the image sensor die 100 that does not output a signal to output an image data block.
  • the readout circuit 122 includes an analog-to-digital converter for converting a pixel current output from the pixels included in the first to fourth sub light-receiving areas 110 into image data, and a buffer for storing the converted image data. .
  • the data output circuit 123 outputs the image data stored in the buffer in block units, in parallel or serially according to the configuration of the data line.
  • At least some or all of the plurality of image sensor dies 100 share the data lines 2123, 213 ⁇ 4, and 212 (:), and may be operated by one control signal applied at a viewpoint 3 ⁇ 4.
  • 100) or the substrates 200 and 201 may include one or more time delay elements 124.
  • the time delay element 124 delays the input control signal by a delay time of 3 ⁇ 4 and then outputs the delay time.
  • 3 ⁇ 4 is sufficient time for the image sensor die 100 to scan a plurality of sub light-receiving areas and output an image data block.
  • a different number of time delay elements or different delays Time delay element with time controlled
  • control line 211 It may be electrically connected between the line 211 and the peripheral circuit 120.
  • the control line 211 is directly connected to the peripheral circuit 120
  • the control line 211 is connected to the peripheral circuit 120 through one time delay element
  • the third, sixth and ninth image sensors For the 2020/194069 1» (:1' year 2020/020015 die, the control line 211 can be connected to the peripheral circuit 120 via two time delay elements.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

본 발명은 이미지 센서에 관한 것이다. 타일형 이미지 센서는, 전도성 배선이 형성된 기판, 및 제 1 거 리로 서로 이격되도록 상기 기판에 배치되며 상기 전도성 배선에 전기적으로 연결되는 복수의 이미지 센서 다이를 포함하되, 상기 이미지 센서 다이는, 제 2 거리로 서로 이격되도록 형성된 복수의 서브 수광 영역, 상기 복수의 서브 수광 영역 사이에 형성되며, 상기 복수의 서브 수광 영역에 포함된 화소별로 생성된 화소 전류를 영상 데이터로 변환하여 블록 단위로 출력하는 주변 회로, 및 상기 기판에 전기적으로 연결하기 위해 상기 이미지 센서 다이의 표면에 형성된 컨택 패드를 포함할 수 있다.

Description

【발명의 설명】
【발명의 명칭】
타일형 이미지 센서 {Tiled image sensor}
【기술분야】
본 발명은 이미지 센서에 관한 것이다.
【발명의 배경이 되는 기술】
이미지 센서는 피사체에 반사된 빛을 검출하여 전기 신호로 표현된 영상을 출력하는 장치이다. 이미지 센서는 검출된 빛의 광량에 상응하는 전기 신호를 생성하는 복수의 화소로 구성된다. 이미지 센서의 크기는 화소의 수에 의해 주로 결정된다. 이미지 센서의 표면에서 화소가 차지하는 면적을 증가, 예를 들어, 화소의 수 또는 수광부의 면적을 증가시키면, 이미지 센서가 검출할 수 있는 영역도 증가하게 된다. 그러나 이미지 센서를 제조하는데 필요한 실리콘 웨이퍼는, 크기도 제한되어 있으며, 이미지 센서 제조 원가의 상당 부분을 차지한다.
대면적의 검출 영역을 가진 이미지 센서에 대한 수요는 꾸준히 있다 . X선 촬영 장치는, 대면적의 검출 영역을 가진 이미지 센서를 요구하는 대표적인 장치이다. 검출 영역을 확장하거나 해상도를 증가시키기 위해서, 복수의 이미지 센서를 배열한 구조들이 제안되었다. 이들 구조에 적용된 이미지 센서는, 패키징된 상용 이미지 센서이다. 적용 대상이 대형 장치(예를 들어,) á선 촬영 장치, TV 카메라 등)인 경우, 패키징된 상용 이미지 센서 어레이의 물리적 치수는 크게 문제되지 않는다. 2020/194069 1»(:1'해2020/020015
【발명의 내용】
【해결하고자 하는 과제】
대면적의 검출 영역을 가지며, 휴대용 전자장치에도 장착 가능한 이미지 센서를 제공하고자 한다.
【과제의 해결 수단】
본 발명의 일 측면에 따르면, 대면적 검출 영역을 갖는 타일형 이미지 센서가 제공된다. 타일형 이미지 센서는, 전도성 배선이 형성된 기판, 및 제 1 거리로 서로 이격되도록 상기 기판에 배치되며 상기 전도성 배선에 전기적으로 연결되는 복수의 이미지 센서 다이를 포함하되, 상기 이미지 센서 다이는, 제 2 거리로 서로 이격되도록 형성된 복수의 서브 수광 영역, 상기 복수의 서브 수광 영역 사이에 형성되며, 상기 복수의 서브 수광 영역에 포함된 화소별로 생성된 화소 전류를 영상 데이터로 변환하여 블록 단위로 출력하는 주변 회로, 및 상기 기판에 전기적으로 연결하기 위해 상기 이미지 센서 다이의 표면에 형성된 컨택 패드를 포함할 수 있다.
일 실시예로, 상기 복수의 서브 수광 영역은, 상기 이미지 센서 다이의 광 입사면의 코너에 각각 배치되며, 상기 제 1 거리와 상기 제 2 거리는 동일할 수 있다.
일 실시예로, 상기 복수의 서브 수광 영역은, 1\/1 화소 어레이일 수 있다.
*8일 실시예로, 타일형 이미지 센서는, 상기 복수의 이미지 센서 다이 2020/194069 1»(:1'해2020/020015 상부에 배치되며 상기 복수의 서브 수광 영역에 대응하는 위치에 광 경로가 형성된 광학 렌즈층을 더 포함하되, 상기 복수의 이미지 센서 다이는, 광 입사면에 대향하는 하면이 상기 기판에 결합되며, 상기 전도성 배선은 상기 기판의 상면에 형성될 수 있다.
일 실시예로, 상기 광학 렌즈층은 광학적으로 불투명한 소재로 형성되며, 상기 광 경로는 상기 광학 렌즈층의 상면으로부터 하면까지 연장된 핀홀일 수 있다.
일 실시예로, 상기 광학 렌즈층은, 광학적으로 투명한 광 경로층, 상기 광 경로층의 상부에 배치되며 상기 서브 수광 영역에 대응하는 위치에 개구가 형성된 광 차단층, 및 상기 개구에 형성된 상부 렌즈를 포함하되, 상기 광 경로는 상기 개구 및 상기 상부 렌즈에 의해 정의될 수 있다.
일 실시예로, 상기 광학 렌즈층은, 광학적으로 투명한 광 경로층, 상기 광 경로층의 상부에 배치되며 상기 서브 수광 영역에 대응하는 위치에 개구가 형성된 광 차단층, 상기 개구에 형성된 상부 렌즈, 및 상기 상부 렌즈에 대응하도록 형성된 하부 렌즈를 포함할 수 있다.
일 실시예로, 상기 기판은, 상기 복수의 서브 수광 영역에 대응하는 위치에 형성된 광 경로를 포함하되, 상기 복수의 이미지 센서 다이는, 광 입사면이 상기 기판에 결합되며, 상기 전도성 배선은 상기 기판의 하면에 형성될 수 있다.
일 실시예로, 상기 주변 회로는, 상기 복수의 서브 수광 영역에 포함된 화소별로 생성된 화소 전류를 영상 데이터로 변환하여 리드아웃 회로, 및 상기 2020/194069 1»(:1'해2020/020015 전도성 배선에 의해 형성된 데이터 라인을 통해 상기 영상 데이터를 블록 단위로 순차적으로 출력하는 데이터 출력 회로를 포함할 수 있다.
일 실시예로, 상기 주변 회로는, 상기 화소 전류를 출력할 화소를 상기 복수의 서브 수광 영역에서 선택하는 로우 드라이버를 더 포함할 수 있다.
일 실시예로, 상기 복수의 이미지 센서 다이의 일부 또는 전체는 상기 데이터 라인을 공유할 수 있다.
일 실시예로, 상기 복수의 이미지 센서 다이는, 상기 전도성 배선에 의해 형성된 제어 라인을 통해 인가된 제어 신호에 의해 동작할 수 있다.
【발명의 효과】
본 발명의 실시예에 따른 이미지 센서는, 기존 이미지 센서에 비해 상대적으로 작은 원가로 대면적의 검출 영역을 가지며, 특히, 휴대용
전자장치에도 장착 가능한 물리적 치수를 가질 수 있다.
【도면의 간단한 설명】
이하에서, 본 발명은 첨부된 도면에 도시된 실시예를 참조하여 설명된다. 이해를 돕기 위해, 첨부된 전체 도면에 걸쳐, 동일한 구성 요소에는 동일한 도면 부호가 할당되었다. 첨부된 도면에 도시된 구성은 본 발명을 설명하기 위해 예시적으로 구현된 실시예에 불과하며, 본 발명의 범위를 이에 한정하기 위한 것은 아니다. 특히, 첨부된 도면들은, 발명의 이해를 돕기 위해서, 일부 구성 요소를 다소 과장하여 표현하고 있다. 도면은 발명을 이해하기 위한 수단이므로, 도면에 표현된 구성 요소의 폭이나 두께 등은 실제 구현시 달라질 수 있음을 이해하여야 한다. 2020/194069 1»(:1'해2020/020015 도 1은 패널광을 이용한 타일형 이미지 센서의 동작 원리를 개략적으로 도시한 도면이다.
도 2는 타일형 이미지 센서를 개략적으로 나타낸 도면이다.
도 3은 타일형 이미지 센서의 일 실시예를 예시적으로 나타낸
분해사시도이다.
도 4는 도 3에 도시된 타일형 이미지 센서의 일 실시예를 예시적으로 나타낸 단면도이다.
도 5는 도 3에 도시된 타일형 이미지 센서의 다른 실시예를 예시적으로 나타낸 단면도이다.
도 6은 도 3에 도시된 타일형 이미지 센서의 또 다른 실시예를 예시적으로 나타낸 단면도이다.
도 7은 타일형 이미지 센서의 다른 실시예를 예시적으로 나타낸 분해사시도이다.
도 8은 도 7에 도시된 타일형 이미지 센서의 다른 실시예를 예시적으로 나타낸 단면도이다.
도 9는 볼 렌즈를 이용하여 상부 렌즈 및 하부 렌즈를 구현하는 일 실시예를 예시적으로 나타낸 도면이다.
도 1◦은 이미지 센서 다이의 기능적 구조의 일 실시예를 예시적으로 나타낸 도면이다.
도 은 이미지 센서 다이의 기능적 구조의 다른 실시예를 예시적으로 나타낸 도면이다. 2020/194069 1»(:1'해2020/020015
【발명을 실시하기 위한 구체적인 내용】
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히
설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 특히, 이하에서 첨부된 도면을 참조하여 설명될 기능, 특징, 실시예들은, 단독으로 또는 다른 실시예와 결합하여 구현될 수 있다. 따라서 본 발명의 범위가 첨부된 도면에 도시된 형태에만 한정되는 것이 아님을 유의하여야 한다.
한편, 본 명세서에서 사용되는 용어 중 "실질적으로", "거의", "약" 등과 같은 표현은 실제 구현시 적용되는 마진이나 발생가능한 오차를 고려하기 위한 표현이다. 예를 들어, "실질적으로 9◦도"는 9◦도일 때의 효과와 동일한 효과를 기대할 수 있는 각도까지 포함하는 의미로 해석되어야 한다. 다른 예로, "거의 없는"은 무엇인가가 미미하게 존재하더라도 무시할 수 있는 정도까지 포함하는 의미로 해석되어야 한다.
한편, 특별한 언급이 없는 한, "측면", 또는 "수평"은 도면의 좌우 방향을 언급하기 위한 것이며, "수직"은 도면의 상하 방향을 언급하기 위한 것이다. 또한, 특별히 정의되지 않는 한, 각도, 입사각 등은 도면에 표시된 수평면에 수직한 가상의 직선을 기준으로 한다.
첨부된 도면 전체에 걸쳐서, 동일하거나 유사한 요소는 동일한 도면 부호를 사용하여 인용된다. 2020/194069 1»(:1'해2020/020015 도 1은 패널광을 이용한 타일형 이미지 센서의 동작 원리를 개략적으로 도시한 도면이다.
타일형 이미지 센서 (10)는 디스플레이 패널 (20)의 하부에 배치될 수 있다. 전자장치는, 디스플레이 패널 (20) 및 디스플레이 패널 (20)의 상부에 배치되며 디스플레이 패널 (20)을 보호하는 커버 글라스 (30)를 포함한다. 타일형 이미지 센서 (10)는, 디스플레이 패널 (20) 하부의 일부 영역 또는 전체에 대응하게 배치될 수 있다. 타일형 이미지 센서 (10)는, 디스플레이 패널 (20)에 의해 생성된 빛 (31; 이하 패널광) 중에서 커버 글라스 (30)의 상면에서 반사되어 디스플레이
패널 (20)을 향해 진행하는 반사된 패널광 (32)을 검출할 수 있다. 디스플레이 패널 (20)은 ^ 6, 6 화소의 조합을 턴온하여 피사체 (40)를 향해 조사되는
패널광 (31)을 생성할 수 있다. 여기서, 패널광 (31)은, 가시광일 수 있다. 예를 들어, 패널광 (31)은, 특정 대역, 녹색 또는 청색 대역에 속하는 가시광일 수 있다.
타일형 이미지 센서 (10)는 커버 글라스 (30)의 상면에 접촉한 피사체 (40)를 검출할 수 있다. 피사체 (40)는, 예를 들어, 커버 글라스 (30)의 상면에 접촉한 손가락, 스타일러스 펜 등일 수 있다. 일 실시예로, 타일형 이미지 센서 (10)는, 피사체 (40)가 손가락인 경우, 커버 글라스 (30)의 상면에 접촉한 영역의 지문 이미지를 생성할 수 있다. 디스플레이 패널 (20)이 생성한 패널광 (31) 중 적어도 일부는, 커버 글라스 (30)를 향해 진행한다. 지문의 융선이 커버 글라스 (30)에 접촉할 때, 커버 글라스-융선의 접촉 지점에 도달한 패널광 (31)의 일부는, 융선에 흡수된다. 반면에, 지문의 골에 해당하는 지점에 도달한 패널광 (31)은, 디스플레이 패널 (20)을 향해 반사된다. 여기서, 반사된 패널광 (32)은 디스플레이 패널 (20)을 2020/194069 1»(:1'해2020/020015 통과하여 타일형 이미지 센서 (10)에 도달한다. 다양한 각도로 반사된
패널광 (32)은, 다양한 각도로 타일형 이미지 센서 (10)에 도달하게 된다. 타일형 이미지 센서 (10)는, 다양한 각도로 반사된 패널광 (32) 중에서, 디스플레이 패널 (20)을 통과한 반사된 패널광 (32)을 이용하여 지문이미지를 생성한다. 지문의 골에 대응하는 지점에서 반사된 패널광 (32)은, 상대적으로 밝으며, 지문의 융선에 대응하는 지점에서 반사된 패널광 (32)은, 상대적으로 어둡다. 따라서, 타일형 이미지 센서 (10)에 의해 생성된 지문 이미지는, 지문의 융선에 해당하는
상대적으로 어두운 패턴이 전체적으로 밝은 배경에 표시되는 형태를 가질 수 있다. 다른 실시예로, 타일형 이미지 센서 (10)는, 피사체 (40)가 손가락 또는 스타일러스 펜인 경우, 커버 글라스 (30)에 접촉한 위치를 검출할 수 있다. 타일형 이미지 센서 (10)의 서브 수광 영역 (도 2의 1103,
Figure imgf000009_0001
복수의 화소로 구성되며, 각 화소는 입사된 빛의 광량에 상응하는 화소 전류를 생성한다. 타일형 이미지 센서 (10)의 해상도는, 서브 수광 영역에 배치된 화소 어레이 및 서브 수광 영역간 거리에 의해 결정될 수 있으며, 커버 글라스 (30) 상면상의 검출 영역의 면적은 타일형 이미지 센서 (10)의 해상도와 커버 글라스-타일형 이미지 센서간 거리에 의해 대략적으로 결정될 수 있다.
타일형 이미지 센서 (10)는, 대면적 검출 영역을 구성하는 복수의 서브 검출 영역에 각각 대응하는 복수의 서브 수광 영역을 포함한다. 복수의 렌즈로 구성된 광학계를 이용하면, 단일 이미지 센서에 대응하는 검출 영역의 면적은 무한대에 가깝게 확장될 수 있다. 그러나, 이러한 광학계는, 피사체까지의 거리가 수백 내지 수천 마이크로 미터에 불과한 우 I치, 예를 들어, 디스플레이 패널 (20) 하부에 2020/194069 1»(:1'해2020/020015 배치하기 어렵다. 광학식 지문 센서를 디스플레이 패널 (20) 하부에 배치하면, 이미지 센서의 수광 영역과 검출 영역간의 거리가 짧기 때문에, 대면적 검출 영역을 확보하기가 어렵다. 디스플레이 패널 (20) 하부에 충분한 공간을 확보할 수 있는 구조를 위해서, 이미지 센서와 디스플레이 패널 사이에 광학 렌즈를 배치하여 검출 영역을 확장시킬 수는 있지만, 광학 렌즈의 주변부를 통해 입사한 빛은 왜곡된 영상을 초래할 수 있다. 타일형 이미지 센서 (10)에서, 하나의 서브 수광 영역은 하나의 서브 검출 영역에 1:1 대응하도록 배치되므로, 영상 왜곡의 가능성은 최소화되면서, 동시에, 대면적 검출 영역이 확보될 수 있다. 패키징된 상용 이미지 센서를 배치하여 대면적 검출 영역을 구현하는 경우 영상 왜곡이 발생할 수 있으며, 이를 해결하기 위한 기술 개발이 많이 있었다. 타일형 이미지 센서 (10)는, 이미지 센서의 제조 비용을 크게 증가시키지 않으면서도 대면적 검출 영역을 구현할 수 있고, 이미지 센서를 제조할 때 사용되는 웨이퍼 크기에도 제한을 받지 않는다. 특히, 패키징된 상용 이미지 센서 어레이와 비교할 때, 이미지 센서의 두께가 획기적으로 감소될 수 있어서, 디스플레이 패널 (20)의 하부에도 배치될 수 있다.
도 2는 타일형 이미지 센서를 개략적으로 나타낸 도면이다.
타일형 이미지 센서 (10)는, 복수의 이미지 센서 다이 (10()3 내지 1◦이; 이하 1◦◦으로 총칭함) 및 복수의 이미지 센서 다이 (100)가 전기적으로 연결되는 기판 (200)을 포함한다. 이미지 센서 다이 (100)는, 이격된 복수의 서브 수광 영역 (1103, 110 110(:, 110솨 이하 11◦으로 총칭함) 및 복수의 서브 수광 영역 (1103, 11 , 110(:, 110비에 의해 점유되지 않은 영역에 형성된 주변 회로 (120)를 포함한다. 2020/194069 1»(:1'해2020/020015 여기서, 이미지 센서 다이 (100)는, 패키징 되지 않은 상태로 기판 (200)에 결합된다. 복수의 서브 수광 영역 (11 , 110 110(:, 110비 각각은, 복수의 화소를 배열하여 형성된
Figure imgf000011_0001
동일할 수도 있음) 화소 어레이이다. 화소는, 예를 들어, 반사된 패널광 (32)을 수광하는 수광부 및 수광부에 축적된 전하량에 상응하는 화소 전류를 출력하기 위한 복수의 트랜지스터로 구성될 수 있다.
타일형 이미지 센서 (10)의 해상도는, 복수의 이미지 센서 (100)에 형성된 복수의 서브 수광 영역 (110)의 화소수와 실질적으로 동일할 수 있다.
복수의 서브 수광 영역 (1103 내지 110비은, 실질적으로 동일한 거리 비로 이격되어 이미지 센서 다이 (100)에 형성될 수 있다. 복수의 서브 수광 영역 (1103 내지 110비은, 이미지 센서 다이 (100)의 중심을 지나는 가상의 수직선 및 수평선에 대해 좌우 및 상하 대칭되도록 배치될 수 있다. 일 실시예로, 복수의 서브 수광 영역⑴ 03 내지 11애)은, 이미지 센서 다이 (100)의 광 입사면 (즉, 상면 또는 하면)의 중심으로부터 최대로 이격되어 배치될 수 있다. 예를 들어, 복수의 서브 수광 영역⑴ 03 내지 110비은, 광 입사면의 코너에 각각 형성될 수 있다. 복수의 서브 수광 영역 (11()3 내지 11애)을 코너에 배치하면, 이미지 센서 다이 (100)간 이격 거리 山가 거리 버과 실질적으로 동일해질 수 있다. 그 결고ᅡ, 대면적 검출 영역을 확보하는데 필요한 이미지 센서 다이의 수가 감소될 수 있다. 복수의 서브 검출 영역⑴ 03_ 내지 11◦則은, 복수의 서브 수광 영역 (11()3 내지 110비 각각에 대응하며, 중첩 영역이 발생하지 않거나 최소가 되도록 형성될 수 있다. 복수의 서브 검출 영역⑴ 03_ 내지 ◦則의 가로 및 세로 길이 는, 서브 수광 영역과 서브 검출 영역 사이에 배치되는 마이크로 광학 구조물의 배율 및 서브 수광 영역과 서브 2020/194069 1»(:1'해2020/020015 검출 영역 사이 거리의 조합에 의해 결정될 수 있다. 예를 들어, 제 1 서브 수광
Figure imgf000012_0001
1:1◦일 수 있다. 복수의 서브 수광 영역 (11()3 내지 110비간 거리 비이 도 2에 도시된 배치예보다 가까워지면, 복수의 서브 검출 영역 (1103_ 내지 11애_)간 중첩하는 영역이 증가되어 실제 검출 영역의 면적은 감소할 수 있다. 면적 감소를 보완하기 위해 주변에 배치된 다른 이미지 센서 다이와의 거리 山가 감소되면, 동일한 면적의 대면적 검출 영역을 확보하기 위해 필요한 이미지 센서 다이의 수가 증가할 수 있다.
주변 회로 (120)는, 복수의 서브 수광 영역 (110)이 형성되지 않은 나머지 영역에 형성된다. 일 실시예로, 주변 회로 (120)는, 화소 전류를 영상 데이터로 변환하는 리드아웃 회로를 포함한다. 리드아웃 회로는, 아날로그-디지털 컨버터를 포함하며, 추가적으로, 영상 데이터를 저장하는 버퍼를 더 포함할 수 있다.
복수의 서브 수광 영역 (110)에 배열된 화소를 제어 (예를 들어, 수광부 및/또는 커패시터를 리셋) 및 선택하는 화소 제어 신호는, 이미지 센서 다이 (100)의 외부로부터 인가될 수 있다. 한편, 리드아웃 회로가 영상 데이터를 출력하도록 제어하는 출력 제어 신호는, 이미지 센서 다이 (100)의 외부에서 인가될 수 있다. 다른 실시예로, 주변 회로 (120)는, 화소를 제어 및 선택하는 로우 드라이버를 더 포함할 수 있다. 로우 드라이버를 제어하는 드라이버 제어 신호는, 이미지 센서 다이 (100)의 외부로부터 인가될 수 있다. 또 다른 실시예로, 주변 회로 (120)는, 로우 드라이버를 구동하는 타이밍 컨트롤러를 더 포함할 수 있다. 타이밍 컨트롤러를 제어하는 타이밍 제어 신호는 이미지 센서 다이 (100)의 외부로부터 인가될 수 있다.
복수의 이미지 센서 다이 (100)는, 실질적으로 동일한 거리 d2로 이격되어 기판 (100)에 배치될 수 있다. 거리 비과 거리 d2는, 복수의 서브 검출 영역 (110a· 내지 110d_) 간에 중첩 영역이 발생하지 않거나 발생하더라도 최소가 되도록 형성될 수 있다. 예를 들어, 거리 d2는 거리 비과 실질적으로 동일할 수 있다. 기판 (100)의 면적 및 이에 배치될 이미지 센서 다이 (100)의 수는 구현할 대면적 검출 영역에 의해 결정될 수 있다. 예를 들어, 제 1 서브 수광 영역 (110a)의 가로 길이 W1과 제 1 서브 검출 영역 (11◦이의 가로 길이 w2의 비는 1:1◦이고 과 비의 가로 길이의 비가 1:1◦이면, 가로 및 세로의 길이가 M x wn인 대면적 검출 영역은, 9개의 이미지 센서 다이 (100)를 3x3 배열하여 구현할 수 있다. 단일 수광 영역을 갖는 이미지 센서의 면적을 100%이라고 할 때, 약 25%에 해당하는 9개의 이미지 센서 다이 (100)로 동일한 대면적 검출 영역을 확보할 수 있게 된다.
기판 (200)은, 복수의 이미지 센서 다이 (100)와 전기적으로 연결되어 외부에서 인가되는 제어 신호를 복수의 이미지 센서 다이 (100)에 전달하며 이미지 센서 다이 (100)가 생성한 영상 데이터를 외부로 출력하는 전도성 배선을
포함한다. 기판 (200)은, 예를 들어, 저가의 반도체 기판, PCB(Printed circuit board), FPCB(Flexible printed circuit board) 등일 수 있다. 태양 전지용 실리콘 웨이퍼 등과 반도체 기판은, 이미지 센서용 실리콘 웨이퍼에 비해 상대적으로 저가여서, 타일형 이미지 센서 (10)를 구현하기에 적합하다. 특히, 전도성 배선은, 포토, 에칭 등과 같은 반도체 공정을 이용하여 반도체 기판에 정밀하게 형성될 수 있다. 일 실시예로, 복수의 이미지 센서 다이 (100)의 컨택 패드는 다이 하면에 형성될 수 2020/194069 1»(:1'해2020/020015 있으며, 솔더링 등에 의해 기판 (200)에 전기적으로 연결될 수 있다. 다른 실시예로, 복수의 이미지 센서 다이 (100)의 컨택 패드는, 다이 상면에 형성될 수 있으며, 와이어링 등에 의해 기판 (200)에 전기적으로 연결될 수 있다.
도 3은 타일형 이미지 센서의 일 실시예를 예시적으로 나타낸
분해사시도이다.
도 3을 참조하면, 타일형 이미지 센서 (10)는, 복수의 이미지 센서 다이 및 복수의 이미지 센서 각각에 형성된 복수의 서브 수광 영역으로 입사하는 빛의 입사각을 제한하는 광학 렌즈층 (300)을 포함한다. 광학 렌즈층 (300)은, 이미지 센서 다이 (100)의 상부에 배치되어 반사된 패널광 (32)이 서브 수광 영역 (110)을 향해 진행하도록 한다. 광학 렌즈층 (300)은, 반사된 패널광 (32)이 통과하는 광 경로 (310)를 포함한다. 광 경로 (310)는 이미지 센서 다이 (100)의 서브 수광 영역 (110)에 대응하는 위치에 형성된다. 광학 렌즈층 (300)은, 이미지 센서 다이 (100)로부터 이격되거나 (도 4, 및 도 6) 이미지 센서 다이 (100)에 결합될 수 있다. 복수의 이미지 센서 다이 (100)는, 기판 (200)에 전기적으로 결합된다.
기판 (200)에는, 이미지 센서 다이 (100)의 컨택 패드와 전기적으로 연결되는 패드 및 패드에 연결된 배선을 포함하는 전도성 배선 (210)이 형성되어 있다.
도 4는 도 3에 도시된 타일형 이미지 센서의 일 실시예를 예시적으로 나타낸 단면도로서, 광학 렌즈층 (300)의 구조를 설명하기 위해 도 1의 /\를 상세하게 도시하고 있다.
도 4를 참조하면, 광학 렌즈층 (300)에 의해 제공되는 광 경로는
핀홀 (311)일 수 있다. 광학 렌즈층 (300)은, 광학적으로 불투명한 소재로 형성되며, 2020/194069 1»(:1'해2020/020015 핀홀 (311)은 서브 수광 영역 (110)에 대응하는 위치에 형성된다. 핀홀 (311)은, 광학 렌즈층 (300)의 상면에서부터 하면까지 광학 렌즈층 (300)을 관통하며, 핀홀 (311)의 내부는 공기 또는 공기와 다른 굴절율을 갖는 물질로 충진될 수 있다.
제 1 서브 검출 영역 (11◦이에서 반사된 패널광 (323, 3¾, 32(:)은, 핀홀 (311)을 통과하여 서브 수광 영역 (110)에 도달한다. 디스플레이 패널 (20)의 하면은, 공기와의 계면으로, 반사된 패널광 (323, 3¾, 32(:)을 입사각에 따라 상이한 굴절각으로 굴절시킨다. 유효 입사각 범위에 속하는 빛은, 디스플레이 패널 (20) 하면의 유효 영역 (20_)에서 굴절되어 핀홀 (311)을 통과할 수 있다. 이에 반해, 제 1 서브 검출 영역 (110別에서 반사되었으나 유효 입사각 범위 이외의 각도로 진행하는 빛 및 제 2 서브 검출 영역 (110 )에서 반사되어 유효 영역 (20_)에 도달한 빛을 대응하는 핀홀 (311)을 통과할 수 없게 된다. 상세하게, 제 1 서브 검출 영역 (1103_)의 중앙에서 수직 하방으로 반사된 패널광 (323)은, 서브 수광
영역 (110)의 중심 또는 그 부근의 화소에 도달한다. 제 1 서브 검출 영역 (11◦이의 좌측에서 경사지게 하방으로 반사된 패널광 (3¾)은, 디스플레이 패널 (20)의 하면에서 반시계 방향으로 굴절되며 굴절된 빛은 핀홀 (311)을 통과하여 서브 수광 영역 (110)의 우측 화소에 도달한다. 제 1 서브 검출 영역 (1103_)의 우측에서 경사지게 하방으로 반사된 패널광 (3¾)은, 디스플레이 패널 (20)의 하면에서 시계 방향으로 굴절되며 굴절된 빛은 핀홀 (311)을 통과하여 서브 수광 영역 (110)의 좌측 화소에 도달한다.
도 5는 도 3에 도시된 타일형 이미지 센서의 다른 실시예를 예시적으로 나타낸 단면도로서, 광학 렌즈층 (300)의 구조를 설명하기 위해 도 1의 /\를 2020/194069 1»(:1'해2020/020015 상세하게 도시하고 있다.
도 5를 참조하면, 광학 렌즈층 (300)은, 광학적으로 투명한 광 경로층 (320), 광 경로층 (320)의 상부에 배치되며 서브 수광 영역 (110)에 대응하는 위치에 개구 (331)가 형성된 광 차단층 (330), 및 개구 (331)에 형성된 상부 렌즈 (340)를 포함한다. 광 경로는 개구 (331) 및 상부 렌즈 (340)에 의해 정의될 수 있다. 광 경로층 (320)은, 광학적으로 투명한 물질을 이미지 센서 다이 (100) 및 기판 (200) 상부에 적층하여 형성될 수 있다. 렌즈 (340)는, 제 1 서브 검출 영역 (110別상의 동일한 지점에서 출발한 일정 각도 범위에 속한 반사된 패널광 (323, 32 32(:)을 집중한다.
제 1 서브 검출 영역 (11◦이에서 반사된 패널광 (323, 3¾ 32(:)은, 렌즈 (340)에 의해 집중되어 서브 수광 영역 (110)에 도달한다. 디스플레이 패널 (20)의 하면은, 공기와의 계면으로, 반사된 패널광 (323, 3¾, 32(:)을 입사각에 따라 상이한 굴절각으로 굴절시킨다. 유효 입사각 범위에 속하는 빛은, 디스플레이 패널 (20) 하면의 유효 영역 (20_)에서 굴절되어 상부 렌즈 (240)를 통과할 수 있다. 이에 반해, 제 1 서브 검출 영역 (1103_)에서 반사되었으나 유효 입사각 범위 이외의 각도로 진행하는 빛 및 제 2 서브 검출 영역 (110 )에서 반사되어 유효 영역 (20_)에 도달한 빛을 대응하는 상부 렌즈 (340)를 통과할 수 없게 된다. 상세하게, 제 1 서브 검출 영역 (1103_)의 중앙에서 하방으로 반사된 패널광 (323) 중 제 1 각도 범위 01 내의 빛은, 렌즈 (340)에 의해 집중되어 서브 수광 영역 (110)의 중심 또는 그 부근의 화소에 도달한다. 제 1 서브 검출 영역 (1103_)의 좌측에서 경사지게 하방으로 반사된 패널광 (32的 중 제 2 각도 범위 02 내의 빛은, 디스플레이 패널 (20)의 2020/194069 1»(:1'해2020/020015 하면에서 반시계 방향으로 굴절되며 렌즈 (340)에 의해 집중되어 서브 수광 영역 (110)의 우측 화소에 도달한다. 제 1 서브 검출 영역 (1103_)의 우측에서 경사지게 하방으로 반사된 패널광 (32的 중 제 2 각도 범위 02 내의 빛은, 디스플레이 패널 (20)의 하면에서 시계 방향으로 굴절되며 렌즈 (340)에 의해 집중되어 서브 수광 영역 (110)의 좌측 화소에 도달한다.
도 6은 도 3에 도시된 타일형 이미지 센서의 또 다른 실시예를
예시적으로 나타낸 단면도로서, 광학 렌즈층 (300)의 구조를 설명하기 위해 도 1의 /\를 상세하게 도시하고 있다.
도 6을 참조하면, 광학 렌즈층 (300)은, 광 경로층 (320), 광 경로층 (320)의 상부에 배치되며 서브 수광 영역 (110)에 대응하는 위치에 개구 (331)가 형성된 광 차단층 (330), 개구 (331)에 형성된 상부 렌즈 (340) 및 상부 렌즈 (340)에 대응하도록 형성된 하부 렌즈 (345)를 포함한다. 광 경로는 개구 (331), 상부 렌즈 (340) 및 하부 렌즈 (345)에 의해 정의될 수 있다. 상부 렌즈 (340)와 하부 렌즈 (345)는, 제 1 서브 검출 영역 (1103_)상의 동일한 지점에서 출발한 일정 각도 범위에 속한 반사된 패널광 (323, 32 32(:)을 집중한다. 상부 렌즈 (340)와 하부 렌즈 (345)의 조합에 의해 광 경로가 단축될 수 있다. 일 실시예로, 광 경로층 (320)은, 광학적으로 투명한 물질로 형성될 수 있다. 상부 렌즈 (340)는 개구 (331)를 통해 광 경로층 (320)에 광학적으로 결합되며, 하부 렌즈 (345)는 광 경로층 (320)의 하면에 광학적으로 결합될 수 있다. 다른 실시예로, 상부 렌즈 (340)와 하부 렌즈 (345)는 일체로 형성될 수 있다.
제 1 서브 검출 영역 (110이에서 반사된 패널광 (323, 3¾, 32(:)은, 상부 2020/194069 1»(:1'해2020/020015 렌즈 (340) 및 하부 렌즈 (345)에 의해 집중되어 서브 수광 영역 (110)에 도달한다. 제 1 서브 검출 영역 (1103_)의 중앙에서 하방으로 반사된 패널광 (323) 중 제 1 각도 범위 01 내의 빛은, 상부 렌즈 (340) 및 하부 렌즈 (345)에 의해 집중되어 서브 수광 영역 (110)의 중심 또는 그 부근의 화소에 도달한다. 제 1 서브 검출 영역 (11◦이의 좌측에서 경사지게 하방으로 반사된 패널광 (32的 중 제 2 각도 범위 02 내의 빛은, 디스플레이 패널 (20)의 하면에서 반시계 방향으로 굴절되며 상부 렌즈 (340) 및 하부 렌즈 (345)에 의해 집중되어 서브 수광 영역 (110)의 우측 화소에 도달한다. 제 1 서브 검출 영역 (1103_)의 우측에서 경사지게 하방으로 반사된 패널광 (3¾) 중 제 2 각도 범위 02 내의 빛은, 디스플레이 패널 (20)의 하면에서 시계 방향으로 굴절되며 상부 렌즈 (340) 및 하부 렌즈 (345)에 의해 집중되어 서브 수광
영역 (110)의 좌측 화소에 도달한다.
하부 렌즈 (345)는 서브 수광 영역 (110)으로부터 이격된다. 하부 렌즈 (345)와 서브 수광 영역 (110) 사이에는 굴절율이 다른 매질, 예를 들어, 공기가 개재되어, 하부 렌즈 (345)에서 나온 빛은 굴절되어 서브 수광 영역 (110)에 도달하게 된다. 하부 렌즈 (345)를 서브 수광 영역 (110)으로부터 이격시키기 위해서,
스페이서 (미도시)가 렌즈층 (300)과 기판 (200) 사이에 배치될 수 있다.
도 7은 타일형 이미지 센서의 다른 실시예를 예시적으로 나타낸
분해사시도이다.
도 7을 참조하면, 타일형 이미지 센서 (10)는, 복수의 이미지 센서 다이 및 복수의 이미지 센서 각각에 형성된 복수의 서브 수광 영역으로 입사하는 빛의 입사각을 제한하며 복수의 이미지 센서 다이 (100)와 전기적으로 결합하는 2020/194069 1»(:1'해2020/020015 기판 (201)을 포함한다. 도 3 내지 6에 예시된 구조와 비교할 때, 기판 (200)과 광학 센서층 (300)을 일체화함으로써, 타일형 이미지 센서 (10)의 전체 두께가 감소될 수 있다. 기판 (201)의 하면에는, 이미지 센서 다이 (100)의 컨택 패드와 전기적으로 연결되는 패드 및 패드에 연결된 배선을 포함하는 전도성 배선이 형성되어 있다. 복수의 이미지 센서 다이 (100)는, 기판 (201)의 하면에 전기적으로 결합된다.
기판 (201)은, 이미지 센서 다이 (100)의 상부에 배치되어 반사된 패널광 (32)이 서브 수광 영역 (110)을 향해 진행하도록 한다. 기판 (201)은, 반사된 패널광 (32)이 통과하는 광 경로 (220)를 포함한다. 광 경로 (220)는 이미지 센서 다이 (100)의 서브 수광 영역 (110)에 대응하는 위치에 형성된다. 반사된 패널광 (32)이 통과하는 광 경로 (220)는, 기판 (201)의 상면부터 하면까지 연장되게 형성된다. 광 경로 (220)는, 예를 들어, 도 4 내지 도 6에 예시된 구조일 수 있다.
도 8은 도 7에 도시된 타일형 이미지 센서의 일 실시예를 예시적으로 나타낸 단면도로서, 광학 렌즈층 (300)의 구조를 설명하기 위해 도 1의 /\를 상세하게 도시하고 있다.
도 8을 참조하면, 기판 (201)은, 서브 수광 영역 (110)에 대응하는 위치에 형성된 관통홀 (202), 관통홀 (202)에 위치한 상부 렌즈 (340) 및 상부 렌즈 (340)에 대응하도록 형성된 하부 렌즈 (345)를 포함한다. 광 경로는 관통홀 (202), 상부 렌즈 (340) 및 하부 렌즈 (345)에 의해 정의될 수 있다. 상부 렌즈 (340)와 하부 렌즈 (345)는, 제 1 서브 검출 영역 (110 상의 동일한 지점에서 출발한 일정 각도 범위에 속한 반사된 패널광 (323, 3¾ 32(:)을 집중한다. 상부 렌즈 (340)와 하부 렌즈 (345)의 조합에 의해 광 경로가 단축될 수 있다. 기판 (201)은 광학적으로 투명 2020/194069 1»(:1'해2020/020015 또는 불투명한 물질로 형성될 수 있다. 광학적으로 투명한 물질로 형성된 경우, 기판 (201)은 관통홀 (202)을 포함하지 않으며, 상부 렌즈 (340)에 상응하는 위치에 형성된 개구를 포함하는 광 차단층 (미도시)이 기판 (201)의 상면에 형성될 수 있다. 일 실시예로, 광학적으로 불투명한 기판 (201)의 경우, 상부 렌즈 (340)와 하부 렌즈 (345)는 일체로 형성될 수 있다. 다른 실시예로, 광학적으로 투명한
기판 (201)의 경우, 상부 렌즈 (340)는 광 차단층에 형성된 개구를 통해 기판 (201)에 광학적으로 결합되며, 하부 렌즈 (345)는 기판 (201)의 하면에 광학적으로 결합될 수 있다.
이미지 센서 다이 (100)는 기판 (201)의 하면에 형성된 도전성 배선에 전기적으로 결합된다. 일 실시예로, 컨택 패드는 이미지 센서 다이 (100)의 상면에 형성되며, 솔더링 (225) 등을 이용하여 기판 (201)의 도전성 배선에 전기적으로 결합될 수 있다. 다른 실시예로, 컨택 패드는 이미지 센서 다이 (100)의 하면에 형성되며, 와이어링에 의해 기판 (201)의 도전성 배선에 전기적으로 결합될 수 있다.
하부 렌즈 (345)는 서브 수광 영역 (110)으로부터 이격된다. 일 실시예로, 솔더링 (225)에 의해, 하부 렌즈 (345)가 서브 수광 영역 (110)으로부터 이격될 수 있다. 다른 실시예로, 하부 렌즈 (345)를 서브 수광 영역 (110)으로부터 이격시키기 위해서, 스페이서 (미도시)가 기판 (200)과 이미지 센서 다이 (100) 사이에 배치될 수도 있다.
도 9는 볼 렌즈를 이용하여 상부 렌즈 및 하부 렌즈를 구현하는 일 실시예를 예시적으로 나타낸 도면이다. 2020/194069 1»(:1'해2020/020015 도 6 또는 도 8에서, 상부 렌즈 (340) 및 하부 렌즈 (345)는, 반사된 패널광의 입사량을 증가 및/또는 반사된 패널광의 입사각을 제한하기 위해서, 상이한 곡률 반경을 가질 수 있다. 이에 반해, 도 9의 상부 렌즈 (3123) 및 하부 렌즈 (312미는, 볼 렌즈 (312)의 곡면 일부를 이용하여 구현되기 때문에, 실질적으로 동일한 곡률 반경을 가질 수 있다.
⑶에서, 관통홀 (3113)이 광 경로층 (320) 또는 기판 (201)에 형성된다.
관통홀 (3113)의 폭은, 볼 렌즈 (312)의 직경과 실질적으로 동일하거나 클 수 있다. 관통홀 (3113)은, 서브 수광 영역 (110)에 대응하는 위치에 형성될 수 있다. 광 경로층 (320)은, 광학적으로 투명 또는 불투명한 필름이며, 기판 (201)은, 광학적으로 투명 또는 불투명한 반도체 기판일 수 있다.
(미에서, 볼 렌즈 (312)가 관통홀 (3113) 내부에 배치되며, (<:)에서, 상부 광 차단층 (3133)이 광 경로층 (320) 또는 기판 (201)의 상면에 형성된다. 상부 광 차단층 (3133)은, 관통홀 (3113)에 배치된 볼 렌즈 (312)의 상부 곡면의 일부를 노출시키도록 형성될 수 있다. 상부 광 차단층 (3133)에 의해 노출된 상부 곡면은 상부 렌즈 (3123)가 된다. 상부 광 차단층 (3133)은, 볼 렌즈 (312)의 측면과
관통홀 (3113)의 내측면 사이 공간의 적어도 일부에 충진될 수 있다. 추가적으로,
(비에서, 하부 광 차단층 (31¾)이 광 경로층 (320) 또는 기판 (201)의 하면에 더 형성될 수 있다. 하부 광 차단층 (313미에 의해 노출된 하부 곡면은 하부 렌즈 (312미가 된다. 여기서, 상부 렌즈 (312리를 정의하는, 상부 광 차단층 (3133)의 개구의 폭과 하부 렌즈 (312미를 정의하는, 하부 광 차단층 (313미의 개구의 폭은 상이할 수 있다. 2020/194069 1»(:1'해2020/020015 도 1◦은 이미지 센서 다이의 기능적 구조의 일 실시예를 예시적으로 나타낸 도면이다.
이미지 센서 다이 (100)는, 복수의 서브 수광 영역 (110)이 형성되지 않은 나머지 영역, 즉, 이격되어 배치된 서브 수광 영역 (110) 사이에 주변 회로 (120)가 배치된다. 이미지 센서 다이 (100)는, 리드아웃 회로 0; 122) 및 데이터
출력회로 (123)를 포함한다. 도 1◦에 예시된 구조에서, 마이크로 컨트롤러 (400)가 복수의 이미지 센서 다이 (100)의 동작을 제어할 수 있다. 마이크로
컨트롤러 (400)는, 이미지 센서 다이 (100)의 리드아웃 회로 (122) 및 데이터 출력 회로 (123)를 제어하여 영상 데이터 블록을 출력하게 한다. 여기서, 영상 데이터 블록은, 하나의 이미지 센서 다이 (100) 상의 복수의 서브 수광 영역 (110)을 구성하는 2 / 21\/1 화소에 의해 생성된 영상 데이터의 집합이다. 즉, 데이터 출력 회로 (123)는, 2 / 21 화소에 대응하는 영상 데이터를 블록 단위로 출력한다. 일 실시예로, 마이크로 컨트롤러아 )는, 서브 수광 영역 (110)에 위치한 화소를 제어 및 선택하기 위한 화소 제어 신호를 생성하는 로우 드라이버의 기능을 수행할 수 있다. 다른 실시예로, 로우 드라이버가 별도로 구비되며, 화소 제어 라인을 통해 서브 수광 영역 (110)과 전기적으로 연결될 수 있다. 로우 드라이버는, 마이크로 컨트롤러 (400) 또는 타이밍 컨트롤러에 의해 제어될 수 있다.
이미지 센서 다이 (100)의 주변 회로 (120)는, 로우 드라이버를 더 포함할 수 있다. 일 실시예로, 마이크로 컨트롤러 (400)가 로우 드라이버를 제어하는 타이밍 컨트롤러의 기능을 수행할 수 있다. 다른 실시예로, 타이밍 컨트롤러가 별도로 구비되며, 화소 제어 라인을 통해 로우 드라이버와 전기적으로 연결될 수 있다. 2020/194069 1»(:1'해2020/020015 마이크로 컨트롤러 (400)는, 출력 제어 라인을 통해 이미지 센서
다이 (100)의 리드아웃 회로 (122) 및 데이터 출력 회로 (123)와 전기적으로 연결된다. 이미지 센서 다이 (100)의 데이터 출력 회로 (123)는, 데이터 라인에 전기적으로 연결된다. 데이터 출력 회로 (123)는, 출력 제어 라인을 통해 전송된 출력 제어 신호에 따라 영상 데이터 블록을 데이터 라인을 통해 출력한다. 데이터 라인은 다양하게 구성될 수 있다. 예를 들어, 데이터 라인은, 이미지 센서 다이 (100)별로 구비되거나, 전체 또는 일부 이미지 센서 다이에 의해 공유될 수 있다. 즉, 전체 또는 일부의 이미지 센서 다이가 데이터 라인을 공유하는 구조에서, 데이터 출력 회로 (123)는 데이지 체인 방식으로 영상 데이터 블록을 출력할 수 있다. 전체 이미지 센서 다이가 하나의 데이터 라인을 공유하는 경우, 마이크로
컨트롤러 (400)는, 제 1 이미지 센서 다이부터 제 9 이미지 센서 다이의 순서로 영상 데이터 블록을 출력하도록 제어할 수 있다. 제 1 내지 제 3 이미지 센서 다이가 제 1 데이터 라인을 공유하고, 제 4 내지 제 6 이미지 센서 다이가 제 2 데이터 라인을 공유하며, 제 7 내지 제 9 이미지 센서 다이가 제 3 데이터 라인을 공유하는 경우, 마이크로 컨트롤러 (400)는, 제 1, 제 4 및 제 7 이미지 센서 다이-제 2, 제 5, 제 8 이미지 센서 다이-제 3, 제 6 및 제 9 이미지 센서 다이의 순서로 영상 데이터 블록을 출력하도록 제어할 수 있다. 예를 들어, 마이크로 컨트롤러 (400)는, 하나의 이미지 센서 다이 (100)가 영상 데이터 블록을 출력하기에 충분한 시간 간격으로 각 이미지 센서 다이 (100)를 제어하여 영상 데이터 블록을 순차적으로 출력하도록 할 수 있다. 다른 예로, 영상 데이터 블록의 출력을 완료한 이미지 센서
다이 (100)는, 전송 완료 신호를 출력하며, 마이크로 컨트롤러 (400)는 전송 완료 2020/194069 1»(:1'해2020/020015 신호를 출력하지 않은 이미지 센서 다이 (100)를 선택하여 영상 데이터 블록을 출력하도록 할 수 있다.
리드아웃 회로 (122)는, 제 1 내지 제 4 서브 수광 영역 (110)에 포함된 화소로부터 출력된 화소 전류를 영상 데이터로 변환하는 아날로그-디지털 변환기 및 변환된 영상 데이터를 저장하는 버퍼를 포함한다. 데이터 출력 회로 (123)는, 버퍼에 저장된 영상 데이터를 블록 단위로, 데이터 라인의 구성에 따라, 병렬 또는 직렬로 출력한다.
도 은 이미지 센서 다이의 기능적 구조의 다른 실시예를 예시적으로 나타낸 도면이다.
복수의 이미지 센서 다이 (100) 중 적어도 일부 또는 전체는, 데이터 라인 (2123, 21¾, 212(:)을 공유하며, 시점 ¾에 인가된 하나의 제어 신호에 의해 동작할 수 있다. 이미지 센서 다이 (100) 또는 기판 (200, 201)은 하나 이상의 시간 지연 소자 (124)를 포함할 수 있다. 시간 지연 소자 (124)는, 입력된 제어 신호를 지연 시간 ¾만큼 지연시킨 후 출력한다. 여기서 지연 시간 ¾는, 이미지 센서 다이 (100)가 복수의 서브 수광 영역을 스캔하여 영상 데이터 블록을 출력하는데 충분한 시간이다. 이미지 센서 다이 (100)가 배치되는 위치에 따라, 상이한 개수의 시간 지연 소자 또는 상이한 지연 시간을 갖는 시간 지연 소자가 제어
라인 (211)과 주변 회로 (120) 사이에 전기적으로 연결될 수 있다. 예를 들어, 제 1, 제 4 및 제 7 이미지 센서 다이의 경우, 제어 라인 (211)이 주변 회로 (120)에 직접 연결되며, 제 2, 제 5 및 제 8 이미지 센서 다이의 경우, 제어 라인 (211)이 하나의 시간 지연 소자를 통해 주변 회로 (120)에 연결되며, 제 3, 제 6 및 제 9 이미지 센서 2020/194069 1»(:1'해2020/020015 다이의 경우, 제어 라인 (211)이 두 개의 시간 지연 소자를 통해 주변 회로 (120)에 연결될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타나며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims

2020/194069 1»(:1'해2020/020015 【청구범우 I】
【청구항 1】
대면적 검출 영역을 갖는 타일형 이미지 센서에 있어서,
전도성 배선이 형성된 기판; 및
제 1 거리로 서로 이격되도록 상기 기판에 배치되며 상기 전도성 배선에 전기적으로 연결되는 복수의 이미지 센서 다이를 포함하되,
상기 이미지 센서 다이는,
제 2 거리로 서로 이격되도록 형성된 복수의 서브 수광 영역,
상기 복수의 서브 수광 영역 사이에 형성되며, 상기 복수의 서브 수광 영역에 포함된 화소별로 생성된 화소 전류를 영상 데이터로 변환하여 블록 단위로 출력하는 주변 회로, 및
상기 기판에 전기적으로 연결하기 위해 상기 이미지 센서 다이의 표면에 형성된 컨택 패드를 포함하는 타일형 이미지 센서.
【청구항 2】
청구항 1에 있어서, 상기 복수의 서브 수광 영역은, 상기 이미지 센서 다이의 광 입사면의 코너에 각각 배치되며, 상기 제 1 거리와 상기 제 2 거리는 동일한, 타일형 이미지 센서.
【청구항 3】
청구항 1에 있어서, 상기 복수의 서브 수광 영역은, 1\/1 화소 어레이인, 타일형 이미지 센서.
【청구항 4】 2020/194069 1»(:1'해2020/020015 청구항 1에 있어서, 상기 복수의 이미지 센서 다이 상부에 배치되며 상기 복수의 서브 수광 영역에 대응하는 위치에 광 경로가 형성된 광학 렌즈층을 더 포함하되,
상기 복수의 이미지 센서 다이는, 광 입사면에 대향하는 하면이 상기 기판에 결합되며,
상기 전도성 배선은 상기 기판의 상면에 형성되는, 타일형 이미지 센서.
【청구항 5】
청구항 4에 있어서, 상기 광학 렌즈층은 광학적으로 불투명한 소재로 형성되며, 상기 광 경로는 상기 광학 렌즈층의 상면으로부터 하면까지 연장된 핀홀인, 타일형 이미지 센서.
【청구항 6】
청구항 4에 있어서, 상기 광학 렌즈층은,
광학적으로 투명한 광 경로층;
상기 광 경로층의 상부에 배치되며 상기 서브 수광 영역에 대응하는 위치에 개구가 형성된 광 차단층; 및
상기 개구에 형성된 상부 렌즈를 포함하되,
상기 광 경로는 상기 개구 및 상기 상부 렌즈에 의해 정의되는, 타일형 이미지 센서.
【청구항 7】
청구항 4에 있어서, 상기 광학 렌즈층은,
광학적으로 투명한 광 경로층; 2020/194069 1»(:1'해2020/020015 상기 광 경로층의 상부에 배치되며 상기 서브 수광 영역에 대응하는 위치에 개구가 형성된 광 차단층;
상기 개구에 형성된 상부 렌즈; 및
상기 상부 렌즈에 대응하도록 형성된 하부 렌즈를 포함하는, 타일형 이미지 센서.
【청구항 8】
청구항 1에 있어서, 상기 기판은, 상기 복수의 서브 수광 영역에 대응하는 위치에 형성된 광 경로를 포함하되,
상기 복수의 이미지 센서 다이는, 광 입사면이 상기 기판에 결합되며, 상기 전도성 배선은 상기 기판의 하면에 형성되는, 타일형 이미지 센서.
【청구항 9】
청구항 1에 있어서, 상기 주변 회로는,
상기 복수의 서브 수광 영역에 포함된 화소별로 생성된 화소 전류를 영상 데이터로 변환하여 리드아웃 회로; 및
상기 전도성 배선에 의해 형성된 데이터 라인을 통해 상기 영상 데이터를 블록 단위로 순차적으로 출력하는 데이터 출력 회로를 포함하는, 타일형 이미지 센서.
【청구항 10】
청구항 9에 있어서, 상기 주변 회로는,
상기 화소 전류를 출력할 화소를 상기 복수의 서브 수광 영역에서 선택하는 로우 드라이버를 더 포함하는, 타일형 이미지 센서. 2020/194069 1»(:1'해2020/020015
【청구항 11】
청구항 9에 있어서, 상기 복수의 이미지 센서 다이의 일부 또는 전체는 상기 데이터 라인을 공유하는, 타일형 이미지 센서.
【청구항 12】
청구항 11에 있어서, 상기 복수의 이미지 센서 다이는, 상기 전도성 배선에 의해 형성된 제어 라인을 통해 인가된 제어 신호에 의해 동작하는, 타일형 이미지 센서.
PCT/IB2020/020015 2019-03-22 2020-03-19 타일형 이미지 센서 WO2020194069A2 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/441,976 US11848306B2 (en) 2019-03-22 2020-03-19 Tiled image sensor
CN202080020313.7A CN113826104B (zh) 2019-03-22 2020-03-19 平铺图像传感器

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0033081 2019-03-22
KR1020190033081A KR102393910B1 (ko) 2019-03-22 2019-03-22 타일형 이미지 센서

Publications (2)

Publication Number Publication Date
WO2020194069A2 true WO2020194069A2 (ko) 2020-10-01
WO2020194069A3 WO2020194069A3 (ko) 2021-10-14

Family

ID=72611093

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2020/020015 WO2020194069A2 (ko) 2019-03-22 2020-03-19 타일형 이미지 센서

Country Status (4)

Country Link
US (1) US11848306B2 (ko)
KR (1) KR102393910B1 (ko)
CN (1) CN113826104B (ko)
WO (1) WO2020194069A2 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220345555A1 (en) * 2021-04-22 2022-10-27 Samsung Electronics Co., Ltd. Electronic device including sensor panel
CN115472636A (zh) * 2021-06-11 2022-12-13 群创光电股份有限公司 感测装置以及电子装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002214351A (ja) 2001-01-12 2002-07-31 Canon Inc 放射線検出装置
JP4681774B2 (ja) * 2001-08-30 2011-05-11 キヤノン株式会社 撮像素子、その撮像素子を用いた撮像装置、及びその撮像装置を用いた撮像システム
JP3641619B2 (ja) * 2002-05-14 2005-04-27 株式会社日立製作所 生体試料検査装置
CA2542581A1 (en) * 2003-11-10 2005-05-26 Ls Technologies, Inc. Flat-panel detector utilizing electrically interconnecting tiled photosensor arrays
JP5312774B2 (ja) 2006-12-15 2013-10-09 日立オートモティブシステムズ株式会社 薄型認証センサ
KR100885505B1 (ko) * 2007-09-28 2009-02-26 삼성전기주식회사 카메라 모듈 및 그 제조방법
KR101018175B1 (ko) * 2008-07-18 2011-02-28 삼성전기주식회사 해상도 열화 개선용 픽셀 센서 어레이 및 이미지 센서
JP2010153813A (ja) * 2008-11-18 2010-07-08 Semiconductor Energy Lab Co Ltd 発光装置及びその作製方法、並びに、携帯電話機
KR101803719B1 (ko) * 2010-10-26 2017-12-04 삼성전자 주식회사 후면 조사형 액티브 픽셀 센서 어레이 및 그 제조 방법, 이를 구비하는 후면 조사형 이미지 센서
JP5027339B1 (ja) * 2011-03-09 2012-09-19 誠 雫石 撮像装置及び製造方法
KR102149772B1 (ko) * 2013-11-14 2020-08-31 삼성전자주식회사 이미지 센서 및 이를 제조하는 방법
CN105679782B (zh) 2014-11-20 2018-12-11 上海箩箕技术有限公司 接触式图像传感器
US9557954B2 (en) * 2014-12-23 2017-01-31 X Development Llc Display panel using direct emission pixel arrays
KR101928319B1 (ko) * 2015-06-18 2018-12-12 선전 구딕스 테크놀로지 컴퍼니, 리미티드 광 감지 능력을 가지는 다기능 지문 센서
US9819889B2 (en) * 2015-08-07 2017-11-14 Omnivision Technologies, Inc. Method and system to implement a stacked chip high dynamic range image sensor
US9599723B2 (en) * 2015-08-18 2017-03-21 Carestream Health, Inc. Method and apparatus with tiled image sensors
WO2017049318A1 (en) * 2015-09-18 2017-03-23 Synaptics Incorporated Optical fingerprint sensor package
WO2017074097A1 (ko) * 2015-10-28 2017-05-04 크루셜텍 (주) 지문 이미지 스캐닝 장치 및 이를 포함하는 이미지 스캔 가능한 디스플레이 장치
US9749562B2 (en) * 2015-11-13 2017-08-29 Omnivision Technologies, Inc. Liquid crystal display and infrared image sensor on silicon
JP2017108062A (ja) * 2015-12-11 2017-06-15 ソニー株式会社 固体撮像素子、撮像装置、および、固体撮像素子の製造方法
JP2017130610A (ja) * 2016-01-22 2017-07-27 ソニー株式会社 イメージセンサ、製造方法、及び、電子機器
EP3254235B1 (en) * 2016-01-31 2023-07-12 Shenzhen Goodix Technology Co., Ltd. Under-screen optical sensor module for on-screen fingerprint sensing
US11239275B2 (en) * 2016-05-23 2022-02-01 Apple Inc. Electronic device including processing circuitry for sensing images from spaced apart sub-arrays and related methods
KR101895841B1 (ko) * 2017-02-24 2018-10-04 주식회사 비욘드아이즈 디스플레이 패널을 광원으로 사용하는 지문센서 패키지 및 지문인식 기능을 구비한 전자장치
US10284824B2 (en) * 2017-01-20 2019-05-07 Caeleste Cvba Opto-electronic stacked sensor
CN109496313B (zh) * 2018-10-26 2022-05-17 深圳市汇顶科技股份有限公司 指纹识别装置和电子设备
US10785437B2 (en) * 2018-11-07 2020-09-22 Semiconductor Components Industries, Llc Area and power efficient multi-voltage row driver circuitry for image sensors
CN109376714A (zh) 2018-12-13 2019-02-22 固安翌光科技有限公司 一种指纹识别模组及其制备方法

Also Published As

Publication number Publication date
US11848306B2 (en) 2023-12-19
KR102393910B1 (ko) 2022-05-03
CN113826104A (zh) 2021-12-21
US20220199576A1 (en) 2022-06-23
CN113826104B (zh) 2024-04-19
WO2020194069A3 (ko) 2021-10-14
KR20200113129A (ko) 2020-10-06

Similar Documents

Publication Publication Date Title
US9880391B2 (en) Lens array modules and wafer-level techniques for fabricating the same
US11580773B2 (en) Semiconductor package having self-aligned structure
CN108875662B (zh) 一种显示面板及显示装置
CN111597865B (zh) 屏组件及电子设备
WO2020194069A2 (ko) 타일형 이미지 센서
US20120262635A1 (en) Elementary image acquisition or display device
US20230324586A1 (en) Image sensor including color separating lens array and electronic apparatus including the image sensor
US20230238409A1 (en) Image sensor and electronic device including the image sensor
US20230020980A1 (en) Optical sensor including planar nano-photonic microlens array and electronic apparatus including the same
KR102587961B1 (ko) 색분리 렌즈 어레이를 구비하는 이미지 센서 및 이를 포함하는 전자 장치
KR102629588B1 (ko) 나노 광학 마이크로렌즈 어레이를 구비하는 광학 센서 및 이를 포함하는 전자 장치
US20240230960A1 (en) Image sensor and electronic apparatus including the image sensor
EP4398302A2 (en) Image sensor having meta-photonic structure and electronic apparatus including the image sensor
EP4163978A1 (en) Image sensor including color separating lens array and electronic apparatus including the image sensor
US20240079429A1 (en) Image sensor and electronic apparatus including the same
US20240243147A1 (en) Image sensors including color routing meta-structure configured to correspond to oblique incident light and electronic devices including image sensors
US20240230412A1 (en) Ir sensor with nano-structur
US20240079430A1 (en) Image sensor and electronic apparatus including the same
US20230111183A1 (en) Window assemblies, imaging system including the same, method of manufacturing the imaging system, and electronic apparatus including the imaging system
EP4300580A1 (en) Image sensor and electronic apparatus including the image sensor
CN118301452A (zh) 图像传感器和包括该图像传感器的电子装置
KR20240109905A (ko) 이미지 센서 및 이를 포함하는 전자 장치
KR20240111222A (ko) 메타 광학 구조를 구비하는 이미지 센서 및 이를 포함하는 전자 장치
KR20240015496A (ko) 이미지 센서 및 이를 포함하는 전자 장치
KR20220168131A (ko) 색분리 렌즈 어레이를 구비하는 이미지 센서 및 이를 포함하는 전자 장치

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20778948

Country of ref document: EP

Kind code of ref document: A2