WO2024014356A1 - 検出装置 - Google Patents

検出装置 Download PDF

Info

Publication number
WO2024014356A1
WO2024014356A1 PCT/JP2023/024787 JP2023024787W WO2024014356A1 WO 2024014356 A1 WO2024014356 A1 WO 2024014356A1 JP 2023024787 W JP2023024787 W JP 2023024787W WO 2024014356 A1 WO2024014356 A1 WO 2024014356A1
Authority
WO
WIPO (PCT)
Prior art keywords
light emitting
light
photodiodes
detection
detection device
Prior art date
Application number
PCT/JP2023/024787
Other languages
English (en)
French (fr)
Inventor
朋幸 石原
晃彦 藤沢
知球 中岡
勉 原田
薫 伊藤
則夫 萬場
Original Assignee
株式会社ジャパンディスプレイ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ジャパンディスプレイ filed Critical 株式会社ジャパンディスプレイ
Publication of WO2024014356A1 publication Critical patent/WO2024014356A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures

Definitions

  • the present invention relates to a detection device.
  • Patent Document 1 describes a display device with a photosensor that includes an active matrix substrate having a plurality of pixels and a photosensor provided in a pixel region.
  • a plurality of pixels and a plurality of optical sensors are provided on the same substrate.
  • Patent Document 2 describes a mounting device that performs super-resolution processing to generate an image with a higher resolution than a captured image. Further, Non-Patent Documents 1 and 2 each describe a super-resolution processing technique for acquiring high-resolution data higher than the resolution of a sensor.
  • Patent Document 1 In the display device with a photosensor of Patent Document 1, the arrangement pitch of the plurality of photosensors is larger than the arrangement pitch of the plurality of pixels, so the resolution of the photosensor is lower than the resolution of the pixels. Detection devices equipped with such optical sensors are required to have higher detection resolution. Patent Document 2 and Non-Patent Documents 1 and 2 do not describe a specific configuration when applying super-resolution processing to a detection device equipped with an optical sensor.
  • An object of the present invention is to provide a detection device equipped with an optical sensor and capable of acquiring an image having a resolution exceeding the sensor resolution.
  • a detection device includes a plurality of photodiodes provided on a substrate, a plurality of light emitting sections arranged facing the plurality of photodiodes, and a plurality of photodiodes and the light emitting section. and a collimating lens that is disposed between and emits parallel light toward the plurality of photodiodes, and turns on at least one of the plurality of light emitting parts, The other light emitting portions are in a non-lit state, and the collimating lens has a different emitting angle of the parallel light depending on the position of the light emitting portion in a lit state.
  • FIG. 1 is a cross-sectional view schematically showing a detection device according to a first embodiment.
  • FIG. 2 is a cross-sectional view schematically showing the detection device in a detection period different from that in FIG.
  • FIG. 3 is a block diagram showing a configuration example of the detection device according to the first embodiment.
  • FIG. 4 is a block diagram showing a configuration example of the detection control circuit according to the first embodiment.
  • FIG. 5 is a circuit diagram showing a sensor pixel.
  • FIG. 6 is a plan view schematically showing a sensor pixel according to the first embodiment.
  • FIG. 7 is a cross-sectional view taken along line VII-VII' in FIG. FIG.
  • FIG. 8 is an explanatory diagram schematically showing lighting patterns of a plurality of light emitting elements for each detection period of the light source according to the first embodiment.
  • FIG. 9 is an explanatory diagram for explaining a super-resolution image generation method of the detection device according to the first embodiment.
  • FIG. 10 is a plan view schematically showing the stage of the detection device according to the first embodiment.
  • FIG. 11 is a plan view showing a reference marker of the detection device according to the first embodiment.
  • FIG. 12 is an explanatory diagram for explaining the relationship between the amount of light that passes through the reference marker and the sensor values of a plurality of photodiodes.
  • FIG. 13 is an explanatory diagram for explaining the relationship between the amount of light passing through the reference marker and the sensor values of a plurality of photodiodes in a detection period different from that in FIG. 12.
  • FIG. 14 is a plan view showing a modified example of the reference marker.
  • FIG. 15 is a flowchart showing an example of the detection operation of the detection device according to the first embodiment.
  • FIG. 16 is a cross-sectional view schematically showing a detection device according to the second embodiment.
  • FIG. 17 is a cross-sectional view schematically showing the detection device in a detection period different from that in FIG. 16.
  • FIG. 18 is a cross-sectional view schematically showing a liquid crystal panel according to the second embodiment.
  • FIG. 1 is a cross-sectional view schematically showing a detection device according to a first embodiment.
  • the detection device 1 includes an optical sensor 10, a stage 101, and a parallel light generation section 80.
  • a stage 101 and a parallel light generating section 80 are arranged in this order.
  • An object to be detected 100 is placed on a stage 101 and placed between the optical sensor 10 and the parallel light generating section 80 .
  • the collimated light generator 80 includes a light source 81, a light distribution lens 82, and a collimating lens 83.
  • the light source 81 is arranged facing the plurality of photodiodes 30 (see FIG. 3) of the optical sensor 10, and has a plurality of light emitting elements 85 (light emitting parts).
  • each of the plurality of light emitting elements 85 is configured of, for example, a light emitting diode (LED).
  • the collimating lens 83 is arranged between the plurality of photodiodes 30 (see FIG. 3) of the optical sensor 10 and the light source 81, and emits the parallel light L toward the plurality of photodiodes 30.
  • a Fresnel lens is used as the collimating lens 83.
  • the collimating lens 83 is not limited to this, as long as it is configured to be able to emit parallel light L, and a lens different from a Fresnel lens, such as an aspherical lens, may be used.
  • the collimating lens 83 is not limited to one lens, and may be a combination of a plurality of lenses.
  • the light distribution lens 82 is provided between the light source 81 and the collimating lens 83.
  • the light distribution lens 82 is an optical element that appropriately adjusts the light from the light emitting element 85 and emits the light toward the collimating lens 83 .
  • the light distribution lens 82 adjusts, for example, the directivity (spread angle) of the light incident from the light emitting element 85, the distribution of the amount of light, and the like.
  • the light distribution lens 82 is not limited to one, and a plurality of light distribution lenses 82 may be provided corresponding to each of the plurality of light emitting elements 85. Alternatively, the light distribution lens 82 may not be provided.
  • the object to be detected 100 is, for example, a microscopic object such as a cell.
  • the detection device 1 is applicable to detecting minute objects such as cells.
  • the present invention is not limited thereto, and the detected object 100 may be a living body such as a finger, a palm, a wrist, or the like.
  • the optical sensor 10 may be configured as a fingerprint detection device that detects a fingerprint or a vein detection device that detects blood vessel patterns such as veins.
  • the stage 101 is arranged between the plurality of photodiodes 30 (see FIG. 3) of the optical sensor 10 and the collimating lens 83 of the parallel light generating section 80 in a direction perpendicular to the substrate 21 (see FIG. 3) of the optical sensor 10. established in A detected object 100 is placed on a stage 101 .
  • the upper surface of the stage 101 is formed of a light-transmitting plate-like member such as glass, and is configured such that the parallel light L emitted from the collimating lens 83 is transmitted therethrough and reaches the optical sensor 10 .
  • FIG. 2 is a cross-sectional view schematically showing the detection device in a detection period different from that in FIG. 1.
  • the light source 81 turns on at least one of the plurality of light emitting elements 85 and turns off the other light emitting elements 85. Then, the light source 81 sequentially turns on the plurality of light emitting elements 85 for each detection period.
  • the light source 81 turns on the light emitting element 85-2 located at the center, and turns off the light emitting elements 85-1 and 85-3 located on the left and right sides.
  • the light emitted from the light emitting element 85-2 passes through the light distribution lens 82 and the collimating lens 83, and is irradiated as parallel light L toward the plurality of photodiodes 30 of the optical sensor 10.
  • the parallel light L travels in a direction substantially perpendicular to the optical sensor 10.
  • a portion of the parallel light L passes through the object to be detected 100 and enters the plurality of photodiodes 30 of the optical sensor 10 .
  • the light source 81 turns on the light emitting element 85-3 located on the right side, and turns off the light emitting element 85-1 and the light emitting element 85-2.
  • the light emitted from the light emitting element 85-3 passes through the light distribution lens 82 and the collimating lens 83, and is irradiated as parallel light L toward the plurality of photodiodes 30 of the optical sensor 10.
  • the parallel light L travels in a direction oblique to the optical sensor 10.
  • a portion of the parallel light L passes through the object to be detected 100 and enters the plurality of photodiodes 30 of the optical sensor 10 .
  • the collimating lens 83 emits light at different angles depending on the position of the light emitting element 85 in the lit state. Since the traveling direction of the parallel light L shown in FIG. 2 is different from the traveling direction of the parallel light L shown in FIG. . For this reason, a positional shift occurs between the image of the detected object 100 taken by the optical sensor 10 in FIG. 1 and the image of the detected object 100 taken by the optical sensor 10 in FIG. 2.
  • the "positional shift" of the image means that even if the relative positional relationship between the optical sensor 10 and the detected object 100 is the same in plan view, the “positional shift” of the image is the same as that of the light emitting element 85 in the lit state. It represents a positional shift of the detected object 100 in a plurality of captured images due to a shift in the projection position of the parallel light L depending on the position.
  • the light source 81 sequentially scans the light-emitting elements 85 in the lit state for each detection period, thereby acquiring a plurality of images with positional deviations. Then, the detection device 1 synthesizes these plurality of images and performs super-resolution processing to generate a super-resolution image having a resolution higher than the resolution of the plurality of photodiodes 30 of the optical sensor 10. Note that the details of the method of acquiring a plurality of images and the generation of a super-resolution image will be described later.
  • FIG. 3 is a block diagram showing an example of the configuration of the detection device according to the first embodiment.
  • the detection device 1 further includes a host IC 70 that controls the optical sensor 10 and the light source 81.
  • the optical sensor 10 includes an array substrate 2, a plurality of sensor pixels 3 (photodiodes 30) formed on the array substrate 2, gate line drive circuits 15A and 15B, a signal line drive circuit 16A, and a detection control circuit 11. , has.
  • the array substrate 2 is formed using the substrate 21 as a base. Further, each of the plurality of sensor pixels 3 includes a photodiode 30, a plurality of transistors, and various types of wiring.
  • the array substrate 2 on which the photodiodes 30 are formed is a drive circuit board that drives sensors for each predetermined detection area, and is also called a backplane or an active matrix substrate.
  • the substrate 21 has a detection area AA and a peripheral area GA.
  • the detection area AA is an area where a plurality of sensor pixels 3 (a plurality of photodiodes 30) are provided.
  • the peripheral area GA is an area between the outer periphery of the detection area AA and the outer edge of the substrate 21, and is an area where a plurality of sensor pixels 3 are not provided.
  • the gate line drive circuits 15A, 15B, the signal line drive circuit 16A, and the detection control circuit 11 are provided in the peripheral area GA.
  • Each of the plurality of sensor pixels 3 is an optical sensor having a photodiode 30 as a sensor element.
  • the photodiodes 30 each output an electric signal according to the light irradiated thereon. More specifically, the photodiode 30 is a PIN (Positive Intrinsic Negative) photodiode or an OPD (Organic Photodiode) using an organic semiconductor.
  • a plurality of sensor pixels 3 (a plurality of photodiodes 30) are arranged in a matrix in the detection area AA.
  • the detection control circuit 11 is a circuit that supplies control signals Sa, Sb, and Sc to the gate line drive circuits 15A, 15B and the signal line drive circuit 16A, respectively, and controls their operations. Specifically, the gate line drive circuits 15A and 15B output gate drive signals to the sensor gate lines GLS (see FIG. 5) based on the control signals Sa and Sb.
  • the signal line drive circuit 16A electrically connects the sensor signal line SLS selected based on the control signal Sc and the detection control circuit 11.
  • the detection control circuit 11 also includes a signal processing circuit that processes the detection signals Vdet from the plurality of photodiodes 30.
  • the photodiodes 30 included in the plurality of sensor pixels 3 perform detection according to gate drive signals supplied from the gate line drive circuits 15A and 15B.
  • the plurality of photodiodes 30 each output an electric signal corresponding to the light irradiated onto the photodiode 30 as a detection signal Vdet to the signal line drive circuit 16A.
  • the detection control circuit 11 performs signal processing on the detection signals Vdet from the plurality of photodiodes 30, and outputs a sensor value So based on the detection signal Vdet to the host IC 70. Thereby, the detection device 1 detects information regarding the detected object 100.
  • FIG. 4 is a block diagram showing a configuration example of the detection control circuit according to the first embodiment.
  • the detection control circuit 11 includes a detection signal amplitude adjustment circuit 41, an A/D conversion circuit 42, a signal processing circuit 43, and a detection timing control circuit 44.
  • the detection timing control circuit 44 allows the detection signal amplitude adjustment circuit 41, the A/D conversion circuit 42, and the signal processing circuit 43 to operate synchronously based on a control signal supplied from the host IC 70 (see FIG. 3). Control.
  • the detection signal amplitude adjustment circuit 41 is a circuit that adjusts the amplitude of the detection signal Vdet output from the photodiode 30, and includes, for example, an amplifier.
  • the A/D conversion circuit 42 converts the analog signal output from the detection signal amplitude adjustment circuit 41 into a digital signal.
  • the signal processing circuit 43 is a circuit that processes the digital signal from the A/D conversion circuit 42 and transmits the sensor value So to the host IC 70.
  • the light source 81 includes an array substrate 84, a plurality of light emitting elements 85 formed on the array substrate 84, gate line drive circuits 15C and 15D, a signal line drive circuit 16B, and a light emitting element control circuit 12. and has.
  • the plurality of light emitting elements 85 are arranged in a matrix in a region of the array substrate 84 that overlaps with the detection area AA.
  • the array substrate 84 is a drive circuit board that drives each of the plurality of light emitting elements 85 by switching between on (lit state) and off (non-lit state).
  • the light emitting element control circuit 12 is a circuit that supplies control signals Sd, Se, and Sf to the gate line drive circuits 15C and 15D and the signal line drive circuit 16B, respectively, and controls their operations. Specifically, the gate line drive circuits 15C and 15D output drive signals to gate lines (not shown) based on the control signals Sd and Se to select the light emitting elements 85 in a predetermined row.
  • the signal line drive circuit 16B supplies a light emitting element control signal to a signal line (not shown) selected based on the control signal Sf. Thereby, the light source 81 can switch between a lighting state and a non-lighting state for each of the plurality of light emitting elements 85.
  • the array substrate 84 of the light source 81 is a so-called active matrix substrate, but is not limited thereto. Any method may be used to turn on and off the plurality of light emitting elements 85.
  • the light emitting element control circuit 12 may control each of the plurality of light emitting elements 85 individually.
  • the host IC 70 includes a sensor value storage circuit 71, a reference marker storage circuit 72, a correction value generation circuit 73, and a correction value storage circuit 79 as control circuits on the optical sensor 10 side.
  • the sensor value storage circuit 71 is a circuit that stores the sensor value So output from the detection control circuit 11 of the optical sensor 10.
  • the reference marker storage circuit 72 is a circuit that stores in advance a correlation equation indicating the relationship between the sensor value So of the photodiode 30 at a position overlapping with the reference marker 90 (see FIG. 10) and the position of the light emitting element 85 in the lit state. .
  • the correction value generation circuit 73 is a circuit that calculates correction values for positional deviations of a plurality of images caused by on/off switching of a plurality of light emitting elements 85.
  • the correction value generation circuit 73 may calculate a correction value for the positional deviation of a plurality of images based on the correlation equation of the reference marker storage circuit 72, or may calculate the correction value for the positional deviation of a plurality of images based on the correlation formula of the reference marker storage circuit 72, and may also calculate the correction value for the positional deviation of the plurality of images based on the correlation formula of the reference marker storage circuit 72, or calculate the correction value for the positional deviation of each of the light emitting elements 85 of the detection device 1 and the design of the optical system.
  • the correction value may be calculated based on the information.
  • the correction value storage circuit 79 is a circuit that stores correction values for positional deviations of a plurality of images for each position of the light emitting element 85 in a lighting state.
  • the reference marker storage circuit 72, the correction value generation circuit 73, and the correction value storage circuit 79 will be described later in FIG. 10 and thereafter.
  • the host IC 70 includes a lighting pattern generation circuit 74 and a lighting pattern storage circuit 75 as control circuits on the light source 81 side.
  • the lighting pattern storage circuit 75 is a circuit that stores information about the arrangement pattern of the plurality of light emitting elements 85 on (lighting state) and off (non-lighting state) for each detection period F (see FIG. 8).
  • the lighting pattern generation circuit 74 is a circuit that generates various control signals based on information on the arrangement pattern in the lighting pattern storage circuit 75. Then, the lighting pattern generation circuit 74 outputs a light emitting element control signal including information on the on/off arrangement pattern of the plurality of light emitting elements 85 to the light emitting element control circuit 12 for each detection period F.
  • the host IC 70 further includes an image generation circuit 76 and an image processing circuit 77.
  • the image generation circuit 76 is a circuit that generates a plurality of images for each of the plurality of detection periods F (that is, for each position of the light emitting element 85 in the lighting state) based on the sensor value So from the sensor value storage circuit 71. be.
  • the image processing circuit 77 synthesizes the plurality of images acquired for each of the plurality of detection periods F and performs super-resolution processing to generate one super-resolution image having a resolution higher than the resolution of the optical sensor 10. This is a circuit that does this. Detailed operation examples of the image generation circuit 76 and the image processing circuit 77 will be described later with reference to FIGS. 8 and 9.
  • the host IC 70 includes a control circuit that controls the detection control circuit 11 and the light emitting element control circuit 12 in synchronization. That is, based on the control signal from the host IC 70, the switching of the on/off arrangement pattern of the plurality of light emitting elements 85 on the light source 81 side and the detection of the plurality of photodiodes 30 on the optical sensor 10 side are synchronously controlled. be done.
  • the optical sensor 10 has two gate line drive circuits 15A and 15B, it may have one gate line drive circuit.
  • the light source 81 has two gate line drive circuits 15C and 15D, it may have one gate line drive circuit.
  • FIG. 5 is a circuit diagram showing a sensor pixel.
  • the sensor pixel 3 includes a photodiode 30, a capacitive element Ca, and a first transistor TrS.
  • the first transistor TrS is provided corresponding to the photodiode 30.
  • the first transistor TrS is constituted by a thin film transistor, and in this example, is constituted by an n-channel MOS (Metal Oxide Semiconductor) type TFT (Thin Film Transistor).
  • the gate of the first transistor TrS is connected to the sensor gate line GLS.
  • the source of the first transistor TrS is connected to the sensor signal line SLS.
  • the drain of the first transistor TrS is connected to the anode of the photodiode 30 and the capacitive element Ca.
  • a power supply potential SVS is supplied from the detection control circuit 11 to the cathode of the photodiode 30. Further, the detection control circuit 11 supplies the reference potential VR1, which is the initial potential of the capacitive element Ca, to the capacitive element Ca.
  • the optical sensor 10 of the detection device 1 can detect a signal corresponding to the amount of light irradiated onto the photodiode 30 for each sensor pixel 3.
  • the first transistor TrS is not limited to an n-type TFT, and may be formed of a p-type TFT.
  • the pixel circuit of the sensor pixel 3 shown in FIG. 5 is merely an example, and the sensor pixel 3 may be provided with a plurality of transistors corresponding to one photodiode 30.
  • FIG. 6 is a plan view schematically showing a sensor pixel according to the first embodiment.
  • the first direction Dx is one direction within a plane parallel to the substrate 21 (see FIG. 7).
  • the second direction Dy is one direction within a plane parallel to the substrate 21, and is a direction orthogonal to the first direction Dx. Note that the second direction Dy may not be perpendicular to the first direction Dx but may intersect with the first direction Dx.
  • the third direction Dz is a direction perpendicular to the first direction Dx and the second direction Dy, and is a normal direction to the main surface of the substrate 21.
  • “planar view” refers to the positional relationship when viewed from a direction perpendicular to the substrate 21.
  • the sensor pixel 3 is an area surrounded by the sensor gate line GLS and the sensor signal line SLS.
  • the sensor gate line GLS includes a first sensor gate line GLA and a second sensor gate line GLB.
  • the first sensor gate line GLA is provided to overlap the second sensor gate line GLB.
  • the first sensor gate line GLA and the second sensor gate line GLB are provided in different layers with insulating layers 22c and 22d (see FIG. 7) interposed therebetween.
  • the first sensor gate line GLA and the second sensor gate line GLB are electrically connected at any location, and are supplied with gate drive signals having the same potential.
  • At least one of the first sensor gate line GLA and the second sensor gate line GLB is connected to gate line drive circuits 15A and 15B. Note that although the first sensor gate line GLA and the second sensor gate line GLB have different widths in FIG. 6, they may have the same width.
  • the photodiode 30 is provided in a region surrounded by the sensor gate line GLS and the sensor signal line SLS.
  • the upper electrode 34 and the lower electrode 35 are provided corresponding to each of the photodiodes 30.
  • the photodiode 30 is, for example, a PIN photodiode.
  • the lower electrode 35 is, for example, an anode electrode of the photodiode 30.
  • the upper electrode 34 is, for example, a cathode electrode of the photodiode 30.
  • the upper electrode 34 is connected to the power signal line Lvs via the connection wiring 36.
  • the power supply signal line Lvs is a wiring that supplies the power supply potential SVS to the photodiode 30.
  • the power supply signal line Lvs extends in the second direction Dy, overlapping with the sensor signal line SLS.
  • the plurality of sensor pixels 3 arranged in the second direction Dy are connected to a common power signal line Lvs. With such a configuration, the aperture of the sensor pixel 3 can be made large.
  • the lower electrode 35, the photodiode 30, and the upper electrode 34 have a substantially rectangular shape in plan view. However, the shapes of the lower electrode 35, photodiode 30, and upper electrode 34 can be changed as appropriate without being limited thereto.
  • the first transistor TrS is provided near the intersection of the sensor gate line GLS and the sensor signal line SLS.
  • the first transistor TrS includes a semiconductor layer 61, a source electrode 62, a drain electrode 63, a first gate electrode 64A, and a second gate electrode 64B.
  • the semiconductor layer 61 is an oxide semiconductor. More preferably, the semiconductor layer 61 is a transparent amorphous oxide semiconductor (TAOS) among oxide semiconductors.
  • TAOS transparent amorphous oxide semiconductor
  • the semiconductor layer 61 is not limited to this, and may be a microcrystalline oxide semiconductor, an amorphous oxide semiconductor, polysilicon, low temperature polysilicon (LTPS), or the like.
  • the semiconductor layer 61 is provided along the first direction Dx, and intersects the first gate electrode 64A and the second gate electrode 64B in plan view.
  • the first gate electrode 64A and the second gate electrode 64B are provided branching from the first sensor gate line GLA and the second sensor gate line GLB, respectively.
  • the portions of the first sensor gate line GLA and the second sensor gate line GLB that overlap with the semiconductor layer 61 function as the first gate electrode 64A and the second gate electrode 64B.
  • the first gate electrode 64A and the second gate electrode 64B are made of aluminum (Al), copper (Cu), silver (Ag), molybdenum (Mo), or an alloy thereof.
  • a channel region is formed in a portion of the semiconductor layer 61 that overlaps with the first gate electrode 64A and the second gate electrode 64B.
  • One end of the semiconductor layer 61 is connected to the source electrode 62 via the contact hole H1.
  • the other end of the semiconductor layer 61 is connected to a drain electrode 63 via a contact hole H2.
  • a portion of the sensor signal line SLS that overlaps with the semiconductor layer 61 is a source electrode 62.
  • a portion of the third conductive layer 67 that overlaps with the semiconductor layer 61 functions as the drain electrode 63.
  • Third conductive layer 67 is connected to lower electrode 35 via contact hole H3.
  • FIG. 7 is a cross-sectional view taken along line VII-VII' in FIG.
  • the direction from the substrate 21 toward the photodiode 30 in the direction perpendicular to the surface of the substrate 21 is referred to as “upper side” or “upper”.
  • the direction from the photodiode 30 toward the substrate 21 is defined as “lower side” or “lower side.”
  • the substrate 21 is an insulating substrate, and for example, a glass substrate such as quartz or alkali-free glass is used.
  • the array substrate 2 is formed by providing a first transistor TrS, various wirings (sensor gate line GLS and sensor signal line SLS), and an insulating layer on one surface of the substrate 21.
  • the plurality of photodiodes 30 are arranged on the array substrate 2, that is, on one side of the substrate 21.
  • the substrate 21 may be a resin substrate or a resin film made of resin such as polyimide.
  • Insulating layers 22a and 22b are provided on substrate 21.
  • the insulating layers 22a, 22b, 22c, 22d, 22e, 22f, and 22g are inorganic insulating films, such as silicon oxide (SiO 2 ) and silicon nitride (SiN). Further, each inorganic insulating layer is not limited to a single layer, but may be a laminated film.
  • the first gate electrode 64A is provided on the insulating layer 22b.
  • the insulating layer 22c is provided on the insulating layer 22b, covering the first gate electrode 64A.
  • the semiconductor layer 61, the first conductive layer 65, and the second conductive layer 66 are provided on the insulating layer 22c.
  • the first conductive layer 65 is provided to cover the end of the semiconductor layer 61 that is connected to the source electrode 62 .
  • the second conductive layer 66 is provided to cover the end of the semiconductor layer 61 that is connected to the drain electrode 63 .
  • the insulating layer 22d is provided on the insulating layer 22c, covering the semiconductor layer 61, the first conductive layer 65, and the second conductive layer 66.
  • the second gate electrode 64B is provided on the insulating layer 22d.
  • the semiconductor layer 61 is provided between the first gate electrode 64A and the second gate electrode 64B in a direction perpendicular to the substrate 21. That is, the first transistor TrS has a so-called dual gate structure. However, the first transistor TrS may have a bottom gate structure in which the first gate electrode 64A is provided and the second gate electrode 64B is not provided, or the first transistor TrS is not provided and only the second gate electrode 64B is provided. A top gate structure may also be used.
  • the insulating layer 22e is provided on the insulating layer 22d, covering the second gate electrode 64B.
  • the source electrode 62 (sensor signal line SLS) and the drain electrode 63 (third conductive layer 67) are provided on the insulating layer 22e.
  • the drain electrode 63 is a third conductive layer 67 provided on the semiconductor layer 61 via the insulating layers 22d and 22e.
  • the source electrode 62 is electrically connected to the semiconductor layer 61 via the contact hole H1 and the first conductive layer 65.
  • Drain electrode 63 is electrically connected to semiconductor layer 61 via contact hole H2 and second conductive layer 66.
  • the third conductive layer 67 is provided in a region overlapping with the photodiode 30 in plan view.
  • the third conductive layer 67 is also provided above the semiconductor layer 61, the first gate electrode 64A, and the second gate electrode 64B. That is, the third conductive layer 67 is provided between the second gate electrode 64B and the lower electrode 35 in the direction perpendicular to the substrate 21.
  • the third conductive layer 67 has a function as a protective layer that protects the first transistor TrS.
  • the second conductive layer 66 extends opposite to the third conductive layer 67 in a region that does not overlap with the semiconductor layer 61. Further, in a region that does not overlap with the semiconductor layer 61, a fourth conductive layer 68 is provided on the insulating layer 22d. The fourth conductive layer 68 is provided between the second conductive layer 66 and the third conductive layer 67. As a result, a capacitance is formed between the second conductive layer 66 and the fourth conductive layer 68, and a capacitance is formed between the third conductive layer 67 and the fourth conductive layer 68.
  • the capacitance formed by the second conductive layer 66, the third conductive layer 67, and the fourth conductive layer 68 is the capacitance of the capacitive element Ca shown in FIG.
  • the first organic insulating layer 23a is provided on the insulating layer 22e, covering the source electrode 62 (sensor signal line SLS) and the drain electrode 63 (third conductive layer 67).
  • the first organic insulating layer 23a is a flattening layer that flattens unevenness formed by the first transistor TrS and various conductive layers.
  • a lower electrode 35, a photodiode 30, and an upper electrode 34 are stacked in this order on the first organic insulating layer 23a of the array substrate 2.
  • the lower electrode 35 is provided on the first organic insulating layer 23a and electrically connected to the third conductive layer 67 via the contact hole H3.
  • the lower electrode 35 is an anode of the photodiode 30, and is an electrode for reading out the detection signal Vdet.
  • the lower electrode 35 is made of, for example, a metal material such as molybdenum (Mo) or aluminum (Al).
  • the lower electrode 35 may be a laminated film in which a plurality of these metal materials are laminated.
  • the lower electrode 35 may be made of a light-transmitting conductive material such as ITO (Indium Tin Oxide) or IZO (Indium Zinc Oxide).
  • the photodiode 30 includes an i-type semiconductor layer 31, an n-type semiconductor layer 32, and a p-type semiconductor layer 33 as semiconductor layers.
  • the i-type semiconductor layer 31, the n-type semiconductor layer 32, and the p-type semiconductor layer 33 are made of, for example, amorphous silicon (a-Si).
  • a-Si amorphous silicon
  • FIG. 7 a p-type semiconductor layer 33, an i-type semiconductor layer 31, and an n-type semiconductor layer 32 are stacked in this order in the direction perpendicular to the surface of the substrate 21.
  • the opposite structure may be used, that is, the n-type semiconductor layer 32, the i-type semiconductor layer 31, and the p-type semiconductor layer 33 may be stacked in this order.
  • each semiconductor layer may be a photoelectric conversion element made of an organic semiconductor.
  • n-type semiconductor layer 32 a-Si is doped with impurities to form an n+ region.
  • p-type semiconductor layer 33 a-Si is doped with impurities to form a p+ region.
  • the i-type semiconductor layer 31 is, for example, a non-doped intrinsic semiconductor, and has lower conductivity than the n-type semiconductor layer 32 and the p-type semiconductor layer 33.
  • the upper electrode 34 is a cathode of the photodiode 30, and is an electrode for supplying the power supply potential SVS to the photoelectric conversion layer.
  • the upper electrode 34 is a transparent conductive layer such as ITO, and a plurality of upper electrodes 34 are provided for each photodiode 30.
  • An insulating layer 22f and an insulating layer 22g are provided on the first organic insulating layer 23a.
  • the insulating layer 22f covers the peripheral edge of the upper electrode 34, and has an opening provided at a position overlapping with the upper electrode 34.
  • the connection wiring 36 is connected to the upper electrode 34 at a portion of the upper electrode 34 where the insulating layer 22f is not provided.
  • the insulating layer 22g is provided on the insulating layer 22f, covering the upper electrode 34 and the connection wiring 36.
  • a second organic insulating layer 23b which is a planarization layer, is provided on the insulating layer 22g.
  • an insulating layer 22h may be further provided thereon.
  • FIG. 8 is an explanatory diagram schematically showing lighting patterns of a plurality of light emitting elements for each detection period of the light source according to the first embodiment.
  • the plurality of light emitting elements 85 among the plurality of light emitting elements 85, the light emitting elements 85 in a lit state are displayed in white, and the light emitting elements 85 in a non-lighting state are hatched.
  • the plurality of light emitting elements 85 of the light source 81 are arranged in a matrix in a plan view.
  • the plurality of light emitting elements 85-1, 85-2, . . . , 85-9 are arranged in three rows and three columns. In the following description, when there is no need to distinguish between the light emitting elements 85-1, 85-2, .
  • the light source 81 sequentially turns on the plurality of light emitting elements 85 every detection period F.
  • the detection period F1 the light source 81 turns on the light emitting element 85-1 among the plurality of light emitting elements 85, and turns off the other light emitting elements 85-2 to 85-9.
  • the next detection period F2 the light source 81 turns on the light emitting element 85-2 among the plurality of light emitting elements 85, and turns on the other light emitting elements 85-1, 85-3 to 85-9. is in a non-lit state.
  • the light source 81 switches the position of the light emitting element 85 in the lit state every detection period F.
  • the final detection period F9 among the plurality of light emitting elements 85, the light emitting element 85-9 is turned on, and the other light emitting elements 85-1 to 85-8 are turned off.
  • FIG. 8 is just an example, and the number of the plurality of light emitting elements 85 may be 8 or less, or 10 or more. Further, the arrangement of the plurality of light emitting elements 85 is not limited to a matrix shape, and may be other arrangement patterns such as a triangular lattice shape. In FIG. 8, one light emitting element 85 is turned on in each detection period F, but the light source 81 is arranged for each light emitting element group including a plurality of adjacent light emitting elements 85 according to the size and light amount of the light emitting element 85. You may switch between a lighting state and a non-lighting state.
  • the photodiode 30 of the optical sensor 10 sequentially outputs a detection signal Vdet (sensor value So) corresponding to the position of the light emitting element 85 in the lit state in each detection period F1, F2, . . . , F9. Specifically, in each detection period F, the light-emitting elements 85 in the lit state are sequentially scanned, so that the emission angle of the parallel light L emitted from the collimating lens 83 is changed as in the example shown in FIGS. 1 and 2. differs for each detection period F (that is, for each position of the light emitting element 85 in the lit state).
  • each detection period F although the relative positional relationship between the optical sensor 10 and the detected object 100 is constant, the emission angle of the parallel light L is different, so the projection position of the parallel light L on the optical sensor 10 is also different. different.
  • the plurality of photodiodes 30 output a detection signal Vdet (sensor value So) according to the projection position of the parallel light L in each detection period F.
  • FIG. 9 is an explanatory diagram for explaining a super-resolution image generation method of the detection device according to the first embodiment.
  • the image generation circuit 76 (see FIG. 3) generates a plurality of images A1, A2, . . . for each of the plurality of detection periods F based on the sensor value So from the sensor value storage circuit 71. Generate A9. Images A1, A2, . . . , A9 correspond to, for example, images acquired during the detection periods F1, F2, . . . , F9 shown in FIG.
  • the relative positional relationship between the optical sensor 10 and the detected object 100 is constant as described above, the plurality of images A1, A2, ..., A9 are displayed in parallel on the optical sensor 10 in each detection period F.
  • the projection position of the light L is different.
  • the position of the detected object 100 captured in the plurality of images A1, A2, . . . , A9 is shifted.
  • the information regarding the correction value for the positional deviation of the plurality of images A1, A2, . is calculated in advance based on the design of the image, and is stored in the correction value storage circuit 79 (see FIG. 3) as a correction value for image positional deviation.
  • the correction value for the positional shift of the image is calculated for each position of the light emitting element 85 in the lit state, for example, and is stored in the correction value storage circuit 79 in association with the position of the light emitting element 85 in the lit state.
  • the pixel pitches P1 and P2 (resolution) of each of the plurality of images A1, A2, . . . , A9 are determined corresponding to the arrangement pitches PS1 and PS2 of the photodiodes 30 (see FIG. 3).
  • the pixel pitches P1 and P2 match the arrangement pitches PS1 and PS2 of the photodiodes 30.
  • the arrangement pitch PS1 of the photodiodes 30 in the first direction Dx is defined by the arrangement pitch of the sensor signal lines SLS (see FIG. 6) in the first direction Dx.
  • the arrangement pitch PS2 of the photodiodes 30 in the second direction Dy is defined by the arrangement pitch of the sensor gate lines GLS (see FIG. 6) in the second direction Dy.
  • the image processing circuit 77 processes a plurality of images A1, A2, .
  • Super-resolution processing is performed based on the positional deviation correction value.
  • the image processing circuit 77 superimposes and synthesizes a plurality of images A1, A2, ..., A9 so that the position of the detected object 100 matches, based on the correction value of the positional deviation of the images.
  • a resolved image AX is generated.
  • the image processing circuit 77 can employ, for example, the method described in Non-Patent Document 1 and Non-Patent Document 2 as a specific example of super-resolution processing.
  • the amount of deviation of the plurality of images A1, A2, ..., A9 for each detection period F in plan view is This is a non-integer multiple of the arrangement pitches PS1 and PS2 of the diodes 30.
  • the plurality of light emitting elements 85, the collimating lenses 83, etc. are arranged so that the amount of deviation of the plurality of images A1, A2, .
  • the design of the optical system including this, the arrangement pattern of the light emitting elements 85 in the lit state, etc. are determined.
  • the resolution of the super-resolution image AX is improved compared to the resolution of the original multiple images A1, A2, ..., A9, and the resolution of the multiple images A1, A2, ..., A9 is improved.
  • the outline of the detected object 100 in the super-resolution image AX is clearly reproduced.
  • the pixel pitches PX1 and PX2 of the super-resolution image AX are smaller than the pixel pitches P1 and P2 of each of the original images A1, A2, . . . , A9.
  • the detection device 1 has a resolution that exceeds the sensor resolution of the optical sensor 10 by the image processing circuit 77 performing super-resolution processing based on the plurality of images A1, A2, . . . , A9.
  • a super-resolution image AX can be generated.
  • the detection device 1 of the present embodiment switches the plurality of light emitting elements 85 of the light source 81 on and off while keeping the relative positional relationship between the detected object 100 and the optical sensor 10 constant, thereby preventing positional deviation.
  • a plurality of images A1, A2, . . . , A9 can be captured.
  • the detection device 1 can detect a plurality of images A1 and A2 having positional deviations with a simple structure. , . . . A9 can be imaged.
  • the image processing circuit 77 may utilize the correction value acquired by the reference marker 90.
  • FIG. 10 is a plan view schematically showing the stage of the detection device according to the first embodiment.
  • a reference marker 90 is provided on a stage 101.
  • the reference marker 90 is arranged between the plurality of photodiodes 30 of the optical sensor 10 and the collimating lens 83 of the collimated light generating section 80 (see FIG. 1).
  • the reference marker 90 is provided in an area that overlaps with the detection area AA of the stage 101 and does not overlap with the detected object 100 in plan view.
  • the reference marker 90 is arranged, for example, at a corner of an area overlapping with the detection area AA of the stage 101.
  • FIG. 11 is a plan view showing a reference marker of the detection device according to the first embodiment.
  • the reference marker 90 has a first region 91 with a high light transmittance and a second region 92 with a lower light transmittance than the first region 91.
  • the first region 91 is a light-transmitting region made of a light-transmitting member
  • the second region 92 is a light-blocking region made of a black material.
  • the first region 91 and second region 92 of the reference marker 90 are arranged in a grid pattern. Specifically, the first region 91 and the second region 92 are arranged adjacent to each other in the first direction Dx. Moreover, the first region 91 and the second region 92 are arranged adjacent to each other in the second direction Dy.
  • the width W1 of the second region 92 in the first direction Dx is equal to the width of the first region 91 in the first direction Dx. Further, the width W2 of the second region 92 in the second direction Dy is equal to the width of the first region 91 in the second direction Dy.
  • the widths W1 and W2 of the second region 92 are larger than twice the arrangement pitches PS1 and PS2 of the photodiodes 30 (see FIG. 3). More preferably, the widths W1 and W2 of the second region 92 are non-integer multiples of the arrangement pitches PS1 and PS2 of the photodiodes 30.
  • FIG. 12 is an explanatory diagram for explaining the relationship between the amount of light that passes through the reference marker and the sensor values of a plurality of photodiodes.
  • FIG. 13 is an explanatory diagram for explaining the relationship between the amount of light passing through the reference marker and the sensor values of a plurality of photodiodes in a detection period different from that in FIG. 12.
  • FIGS. 12 and 13 schematically show the detection results when the reference marker 90 is detected along the line XII-XII' shown in FIG. 11.
  • the upper graphs in FIGS. 12 and 13 each show the relationship between the position in the first direction Dx and the amount of light that passes through the reference marker.
  • the lower graphs in FIGS. 12 and 13 each show the relationship between the position in the first direction Dx and the sensor value So of the plurality of photodiodes 30.
  • the lower graphs in FIGS. 12 and 13 show sensor values So for three photodiodes 30 adjacent to each other in the first direction Dx in association with the arrangement pitch PS1 of each photodiode 30.
  • the position of the light emitting element 85 in the lit state is different between the detection period Fa shown in FIG. 12 and the detection period Fb shown in FIG. 13.
  • the photodiode 30 located at a position overlapping the first region 91 of the reference marker 90 outputs the sensor value So-b.
  • the photodiode 30 located at a position overlapping the second region 92 of the reference marker 90 outputs a sensor value So-a that is smaller than the sensor value So-b.
  • the photodiode 30 in the area overlapping the boundary EG between the first area 91 and the second area 92 of the reference marker 90 outputs the sensor value So-c.
  • the sensor value So-c corresponding to the area straddling the boundary EG is larger than the sensor value So-a corresponding to the second area 92 and larger than the sensor value So-b corresponding to the first area 91. This is a small sensor value.
  • the position of the light emitting element 85 in the lit state is different from that in the detection period Fa shown in FIG. Therefore, even if the relative positional relationship between the optical sensor 10 and the reference marker 90 is the same, the projection position of the parallel light L transmitted through the first region 91 depends on the position of the light emitting element 85 in the lit state. A deviation occurs.
  • the area of the photodiode 30 at the position overlapping the boundary EG is irradiated with the parallel light L that has passed through the first region 91. Therefore, the sensor value So-d corresponding to the region overlapping the boundary EG has a larger value than the sensor value So-c corresponding to the region overlapping the boundary EG in FIG.
  • the detection device 1 sequentially turns on the plurality of light emitting elements 85 in advance, and acquires the sensor value So of the photodiode 30 at the position overlapping the boundary EG for each position of the light emitting element 85 in the turned on state.
  • the reference marker storage circuit 72 stores the sensor value So of the photodiode 30 at the position overlapping with the reference marker 90 (see FIG. 10) and the position of the light emitting element 85 in the lit state.
  • a correlation formula showing the relationship between the two is stored in advance.
  • the correction value generation circuit 73 calculates a correction value for the positional deviation of the plurality of images for each position of the light emitting element 85 in the lit state, based on the correlation equation of the reference marker storage circuit 72.
  • the correlation between the sensor value So of the photodiode 30 and the displacement amount of the boundary EG of the captured image in the first direction Dx has been explained, but the reference marker storage circuit 72 ( (see FIG. 3) also obtains the correlation between the sensor value So of the photodiode 30 and the positional shift amount of the boundary EG of the captured image in the second direction Dy.
  • FIG. 14 is a plan view showing a modification of the reference marker.
  • FIG. 11 shows a pattern in which the first region 91 and second region 92 of the reference marker 90 are arranged in a grid pattern, the present invention is not limited to this.
  • the reference marker 90 may have any pattern as long as it has a boundary EG between the first region 91 and the second region 92 in each of the first direction Dx and the second direction Dy.
  • a first region 91 is provided as a background, and a second region 92 is provided in a cross shape.
  • the second region 92 is provided so that a portion 92a extending in the second direction Dy and a portion 92b extending in the first direction Dx intersect with each other.
  • the width W1A of the portion 92a of the second region 92 and the width W2A of the portion 92b of the second region 92 are larger than twice the arrangement pitches PS1 and PS2 of the photodiodes 30 (see FIG. 3). More preferably, the widths W1A and W2A are non-integer multiples of the arrangement pitches PS1 and PS2 of the photodiodes 30.
  • FIG. 15 is a flowchart showing an example of the detection operation of the detection device according to the first embodiment.
  • the light emitting element number n is a natural number greater than or equal to 1 and less than or equal to N. That is, the light emitting elements 85 are provided from light emitting element 85-1 to light emitting element 85-N.
  • the plurality of photodiodes 30 of the optical sensor 10 output a plurality of sensor values So based on the parallel light L from the light emitting element 85-n in the lit state, and the sensor value storage circuit 71 stores the plurality of sensor values So. do.
  • the image generation circuit 76 generates an image based on the plurality of sensor values So of the optical sensor 10 (step ST3). Further, the image generation circuit 76 generates an image of the reference marker 90 together with an image of the detected object 100.
  • the correction value generation circuit 73 calculates the amount of positional deviation of the image corresponding to the light emitting element 85-n in the lit state by analyzing the image of the reference marker 90 generated in step ST3, and calculates the amount of positional deviation of the calculated image. It is generated as a correction value (step ST4).
  • the correction value storage circuit 79 stores correction values corresponding to the light emitting elements 85-n in the lighting state.
  • the circuit 77 uses the plurality of images of the image generation circuit 76 acquired for each position of the light emitting element 85 in the lit state, based on the correction value stored in the correction value storage circuit 79 calculated for each position of the light emitting element 85 in the lit state. , performs superimposition processing (step ST7).
  • the image processing circuit 77 performs super-resolution processing to generate a super-resolution image AX having a resolution exceeding the sensor resolution of the optical sensor 10 (step ST8).
  • step ST4 does not necessarily need to be performed, and may be performed at predetermined intervals, such as when the detection device 1 is started, for example. Further, in step ST4, the generated correction value and the correlation equation held in the reference marker storage circuit 72 are compared, and if a difference occurs between these values, calibration is performed to update the correlation equation. good.
  • FIG. 16 is a cross-sectional view schematically showing a detection device according to the second embodiment.
  • the same components as those described in the above-described embodiments are denoted by the same reference numerals, and redundant description will be omitted.
  • a detection device 1A includes a liquid crystal panel 50 and a light source 86 in place of the light source 81 and light distribution lens 82 of the first embodiment described above. That is, the collimated light generating section 80A of the second embodiment includes a liquid crystal panel 50, a light source 86, and a collimating lens 83. In the collimated light generating section 80A, the collimating lens 83, the liquid crystal panel 50, and the light source 86 are arranged in this order in a direction perpendicular to the substrate 21 of the optical sensor 10.
  • the light source 86 is a backlight for the liquid crystal panel 50, and is provided on the back surface of the liquid crystal panel 50 (the surface opposite to the optical sensor 10).
  • the light source 86 has at least one light emitting element 88 and irradiates light toward the liquid crystal panel 50.
  • the light source 86 includes a transparent light guide plate 87 and a light emitting element 88 facing the side surface of the light guide plate 87.
  • the light emitting elements 88 are composed of, for example, LEDs, and a plurality of light emitting elements 88 are arranged along the side surface of the light guide plate 87.
  • the light guide plate 87 is arranged facing the liquid crystal panel 50. The light emitted from the light emitting element 88 propagates within the light guide plate 87 while repeating reflection and scattering, and a portion of the light within the light guide plate 87 is emitted to the liquid crystal panel 50.
  • the liquid crystal panel 50 is arranged facing the plurality of photodiodes 30 (see FIG. 3) of the optical sensor 10, and has a plurality of pixels Pix (light emitting section). Although not shown, the plurality of pixels Pix are arranged in a matrix in a plan view.
  • the liquid crystal panel 50 functions as an optical filter layer that switches between a light transmitting state and a non-light transmitting state for each of the plurality of pixels Pix. Of the light from the light source 86 , the liquid crystal panel 50 emits the light that has passed through the pixel Pix in the transmission state toward the collimating lens 83 . Further, the liquid crystal panel 50 blocks the light from the light source 86 in the non-transmissive state pixel Pix, and does not emit the light toward the collimating lens 83 .
  • the collimating lens 83 is arranged between the plurality of photodiodes 30 (see FIG. 3) of the optical sensor 10 and the liquid crystal panel 50, and emits the parallel light L toward the plurality of photodiodes 30.
  • FIG. 17 is a cross-sectional view schematically showing the detection device in a detection period different from that in FIG. 16.
  • the liquid crystal panel 50 sets at least one pixel Pix among the plurality of pixels Pix to a transparent state, and sets the other pixels Pix to a non-transparent state. Then, the liquid crystal panel 50 sequentially scans the pixels Pix in the transparent state in each detection period.
  • the plurality of photodiodes 30 of the optical sensor 10 sequentially output a detection signal Vdet (sensor value So) corresponding to the light transmitted through the pixel Pix in the transmission state in each detection period.
  • the liquid crystal panel 50 puts the pixel Pix-1 located at the center in a transparent state, and puts the other pixels Pix in a non-transparent state.
  • the light from the light source 86 passes through the pixel Pix-1 of the liquid crystal panel 50, which is in a transmissive state.
  • the light emitted from the pixel Pix-1 in the transparent state of the liquid crystal panel 50 is converted into parallel light L by the collimating lens 83, and the parallel light L is irradiated toward the plurality of photodiodes 30 of the optical sensor 10.
  • the parallel light L travels in a direction substantially perpendicular to the optical sensor 10.
  • a portion of the parallel light L passes through the object to be detected 100 and enters the plurality of photodiodes 30 of the optical sensor 10 .
  • the liquid crystal panel 50 puts pixel Pix-2 adjacent to pixel Pix-1 in a transparent state, and puts other pixels Pix in a non-transparent state.
  • the light from the light source 86 passes through the pixel Pix-2 of the liquid crystal panel 50, which is in a transmissive state.
  • the light emitted from the transparent pixel Pix-2 of the liquid crystal panel 50 is converted into parallel light L by the collimating lens 83, and the parallel light L is irradiated toward the plurality of photodiodes 30 of the optical sensor 10.
  • the parallel light L travels in a direction oblique to the optical sensor 10.
  • a portion of the parallel light L passes through the detected object 100 and enters the plurality of photodiodes 30 of the optical sensor 10 .
  • the collimating lens 83 has a different light output angle depending on the position of the pixel Pix in the transmitting state.
  • the traveling direction of the parallel light L shown in FIG. 17 is different from the traveling direction of the parallel light L shown in FIG. A shift in the projection position onto the optical sensor 10 occurs. Therefore, when the liquid crystal panel 50 sequentially scans the pixels Pix in the transmissive state, a plurality of images of the detected object 100 captured by the optical sensor 10 are shifted in position for each position of the pixel Pix in the transmissive state.
  • the detection device 1A can generate a super-resolution image AX by combining a plurality of images with positional deviations.
  • FIG. 18 is a cross-sectional view schematically showing a liquid crystal panel according to the second embodiment.
  • the liquid crystal panel 50 includes, for example, an array substrate SUB1, a counter substrate SUB2, and a liquid crystal layer LC.
  • the counter substrate SUB2 is arranged to face the array substrate SUB1.
  • the liquid crystal layer LC is sealed between the array substrate SUB1 and the counter substrate SUB2.
  • the array substrate SUB1 includes a first insulating substrate 51, a circuit formation layer 52, a common electrode 53, an insulating film 54, a pixel electrode 55, and a lower alignment film 56.
  • a circuit forming layer 52, a common electrode 53, an insulating film 54, a pixel electrode 55, and a lower alignment film 56 are stacked in this order on the first insulating substrate 51.
  • the first insulating substrate 51 is a transparent glass substrate or a film substrate.
  • the circuit formation layer 52 is a layer in which a pixel circuit including a transistor of the pixel Pix and various wiring lines is formed.
  • the common electrode 53 is an electrode to which a predetermined constant potential is applied.
  • the insulating film 54 insulates the common electrode 53 and the pixel electrode 55.
  • the pixel electrode 55 is provided for each pixel Pix, and the potential of each pixel electrode 55 is individually controlled.
  • the lower alignment film 56 is provided to cover the pixel electrode 55 and the insulating film 54.
  • the counter substrate SUB2 includes a second insulating substrate 59 and an upper alignment film 58.
  • the upper alignment film 58 is provided on the surface of the second insulating substrate 59 that faces the first insulating substrate 51 .
  • the upper alignment film 58 becomes the surface of the counter substrate SUB2 on the liquid crystal layer LC side.
  • no color filter is provided on the array substrate SUB1 and the counter substrate SUB2. That is, the liquid crystal panel 50 emits monochrome light toward the photodiode 30.
  • optical elements including polarizing plates are provided on the outer surface of the first insulating substrate 51 and the outer surface of the second insulating substrate 59, respectively.
  • the polarization axes of each of the pair of polarizing plates have a crossed Nicol positional relationship in plan view.
  • the counter substrate SUB2 may be provided with a color filter or a light shielding film as necessary.
  • the liquid crystal layer LC modulates the light passing through it according to the state of the electric field, and for example, the liquid crystal layer LC modulates the light passing through it according to the state of the electric field.
  • mode liquid crystal is used.
  • the liquid crystal layer LC is driven by a horizontal electric field generated between the pixel electrode 55 and the common electrode 53 provided on the array substrate, and the orientation of the liquid crystal molecules 57 included in the liquid crystal layer LC is controlled.
  • the liquid crystal panel 50 may be of a vertical electric field type.
  • the pixel electrode is provided on the array substrate SUB1, and the common electrode is provided on the counter substrate SUB2.
  • Vertical electric field type liquid crystal panels are TN (Twisted Nematic), VA (Vertical Alignment), and ECB (Electrically Controlled Birefringe) in which a so-called vertical electric field is applied to the liquid crystal layer. nce: electric field controlled birefringence) etc. be.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

検出装置は、基板に設けられた複数のフォトダイオードと、複数のフォトダイオードと対向して配置された複数の光出射部と、複数のフォトダイオードと光出射部との間に配置され、平行光を複数のフォトダイオードに向けて出射する平行化レンズと、を有し、複数の光出射部のうち、少なくとも1つの光出射部を点灯状態とし、他の光出射部を非点灯状態とし、平行化レンズは、点灯状態の光出射部の位置に応じて平行光の出射角度が異なる。

Description

検出装置
 本発明は、検出装置に関する。
 特許文献1には、複数の画素を有するアクティブマトリクス基板と、画素領域内に設けられた光センサと、を有する光センサ付き表示装置が記載されている。特許文献1の光センサ付き表示装置では、複数の画素と複数の光センサとが同一基板上に設けられている。
 特許文献2には、撮像された画像よりも解像度の高い画像を生成する超解像処理を実行する実装装置について記載されている。また、非特許文献1、2には、それぞれセンサの解像度以上の高解像度データを取得する超解像処理の技術について記載されている。
国際公開第2012/060303号 国際公開第2018/203373号
Yuji Nakazawa, Takashi Komatsu & Takahiro Saito:"Sub-pixel registration for super high resolution image acquisition based on temporal integration", ICIAP 1995: Image Analysis and Processing pp 387-392 Shin Aoki:"Super Resolution Processing by Plural Number of Lower Resolution Images", Ricoh Technical Report No.24, NOVEMBER, 1998
 特許文献1の光センサ付き表示装置では、複数の光センサの配置ピッチは、複数の画素の配置ピッチに比べて大きいため、画素の解像度に対して光センサの解像度が低い。このような光センサを備えた検出装置では、検出の解像度を高めることが要求されている。特許文献2及び非特許文献1、2には、光センサを備えた検出装置で、超解像処理を適用する際の具体的な構成について記載されていない。
 本発明は、光学センサを備え、センサ解像度を超えた解像度を有する画像を取得することが可能な検出装置を提供することを目的とする。
 本発明の一態様の検出装置は、基板に設けられた複数のフォトダイオードと、複数の前記フォトダイオードと対向して配置された複数の光出射部と、複数の前記フォトダイオードと前記光出射部との間に配置され、平行光を複数の前記フォトダイオードに向けて出射する平行化レンズと、を有し、複数の前記光出射部のうち、少なくとも1つの前記光出射部を点灯状態とし、他の前記光出射部を非点灯状態とし、前記平行化レンズは、点灯状態の前記光出射部の位置に応じて前記平行光の出射角度が異なる。
図1は、第1実施形態に係る検出装置を模式的に示す断面図である。 図2は、図1とは異なる検出期間での検出装置を模式的に示す断面図である。 図3は、第1実施形態に係る検出装置の構成例を示すブロック図である。 図4は、第1実施形態に係る検出制御回路の構成例を示すブロック図である。 図5は、センサ画素を示す回路図である。 図6は、第1実施形態に係るセンサ画素を模式的に示す平面図である。 図7は、図6のVII-VII’断面図である。 図8は、第1実施形態に係る光源の、検出期間ごとの複数の発光素子の点灯パターンを模式的に示す説明図である。 図9は、第1実施形態に係る検出装置の、超解像画像の生成方法を説明するための説明図である。 図10は、第1実施形態に係る検出装置の、ステージを模式的に示す平面図である。 図11は、第1実施形態に係る検出装置の、基準マーカーを示す平面図である。 図12は、基準マーカーを透過する光の光量と、複数のフォトダイオードのセンサ値との関係を説明するための説明図である。 図13は、図12とは異なる検出期間での、基準マーカーを透過する光の光量と、複数のフォトダイオードのセンサ値との関係を説明するための説明図である。 図14は、基準マーカーの変形例を示す平面図である。 図15は、第1実施形態に係る検出装置の検出動作例を示すフローチャート図である。 図16は、第2実施形態に係る検出装置を模式的に示す断面図である。 図17は、図16とは異なる検出期間での検出装置を模式的に示す断面図である。 図18は、第2実施形態に係る液晶パネルを模式的に示す断面図である。
 本発明を実施するための形態(実施形態)につき、図面を参照しつつ詳細に説明する。以下の実施形態に記載した内容により本開示が限定されるものではない。また、以下に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものが含まれる。さらに、以下に記載した構成要素は適宜組み合わせることが可能である。なお、開示はあくまで一例にすぎず、当業者において、本開示の主旨を保っての適宜変更について容易に想到し得るものについては、当然に本開示の範囲に含有されるものである。また、図面は説明をより明確にするため、実際の態様に比べ、各部の幅、厚さ、形状等について模式的に表される場合があるが、あくまで一例であって、本開示の解釈を限定するものではない。また、本開示と各図において、既出の図に関して前述したものと同様の要素には、同一の符号を付して、詳細な説明を適宜省略することがある。
 本明細書及び特許請求の範囲において、ある構造体の上に他の構造体を配置する態様を表現するにあたり、単に「上に」と表記する場合、特に断りの無い限りは、ある構造体に接するように、直上に他の構造体を配置する場合と、ある構造体の上方に、さらに別の構造体を介して他の構造体を配置する場合との両方を含むものとする。
(第1実施形態)
 図1は、第1実施形態に係る検出装置を模式的に示す断面図である。図1に示すように、検出装置1は、光学センサ10と、ステージ101と、平行光生成部80と、を含む。光学センサ10の上に、ステージ101、平行光生成部80の順に配置されている。検出対象の被検出体100は、ステージ101の上に載置され、光学センサ10と平行光生成部80との間に配置される。
 平行光生成部80は、光源81と、配光レンズ82と、平行化レンズ83と、を有する。光源81は、光学センサ10の複数のフォトダイオード30(図3参照)と対向して配置され、複数の発光素子85(光出射部)を有する。光源81はどのような構成であってもよいが、複数の発光素子85は、それぞれ例えば発光ダイオード(LED:Light Emitting Diode)で構成される。
 平行化レンズ83は、光学センサ10の複数のフォトダイオード30(図3参照)と光源81との間に配置され、平行光Lを複数のフォトダイオード30に向けて出射する。平行化レンズ83は、例えばフレネルレンズが用いられる。ただしこれに限定されず、平行化レンズ83は、平行光Lを出射できるように構成されていればよく、非球面レンズ等、フレネルレンズとは異なるレンズを用いてもよい。また、平行化レンズ83は、1つのレンズに限定されず、複数のレンズが組み合わされていてもよい。
 配光レンズ82は、光源81と平行化レンズ83との間に設けられる。配光レンズ82は、発光素子85からの光を適切に調整して、平行化レンズ83に向けて出射する光学素子である。配光レンズ82は、例えば発光素子85から入射した光の指向性(拡がり角)や光量の分布等を調整する。なお、配光レンズ82は、1つに限定されず複数の配光レンズ82が複数の発光素子85のそれぞれに対応して設けられていてもよい。あるいは、配光レンズ82は、無くてもよい。
 被検出体100は、例えば細胞等の微小対象物である。検出装置1は、細胞等の微小対象物の検出に適用できる。ただし、これに限定されず、被検出体100は、指、手のひら、手首等の生体であってもよい。例えば、光学センサ10は、指紋を検出する指紋検出装置や、静脈などの血管パターンを検出する静脈検出装置として構成されてもよい。
 ステージ101は、光学センサ10の基板21(図3参照)に垂直な方向で、光学センサ10の複数のフォトダイオード30(図3参照)と、平行光生成部80の平行化レンズ83との間に設けられる。ステージ101の上に被検出体100が載置される。ステージ101の上面は、例えばガラス等の透光性の板状部材で形成され、平行化レンズ83から出射された平行光Lが透過して光学センサ10に到達するように構成される。
 図2は、図1とは異なる検出期間での検出装置を模式的に示す断面図である。図1及び図2に示すように、光源81は、複数の発光素子85のうち、少なくとも1つの発光素子85を点灯状態とし、他の発光素子85を非点灯状態とする。そして、光源81は、検出期間ごとに複数の発光素子85を順次、点灯状態とする。
 例えば、図1に示す例では、光源81は、中央に位置する発光素子85-2を点灯状態とし、左右に位置する発光素子85-1及び発光素子85-3を非点灯状態とする。発光素子85-2から出射された光は、配光レンズ82及び平行化レンズ83を透過して、平行光Lとして光学センサ10の複数のフォトダイオード30に向けて照射される。図1では、平行光Lは光学センサ10に対して実質的に垂直な方向に進行する。平行光Lの一部は、被検出体100を透過して光学センサ10の複数のフォトダイオード30に入射する。
 図2に示す例では、光源81は、右側に位置する発光素子85-3を点灯状態とし、発光素子85-1及び発光素子85-2を非点灯状態とする。発光素子85-3から出射された光は、配光レンズ82及び平行化レンズ83を透過して、平行光Lとして光学センサ10の複数のフォトダイオード30に向けて照射される。図2では、平行光Lは光学センサ10に対して傾斜する方向に進行する。平行光Lの一部は、被検出体100を透過して光学センサ10の複数のフォトダイオード30に入射する。
 図1及び図2に示すように、平行化レンズ83は、点灯状態の発光素子85の位置に応じて光の出射角度が異なる。図2に示す平行光Lの進行方向が図1に示す平行光Lの進行方向に対して異なるので、被検出体100を透過した平行光Lの、光学センサ10への投影位置のずれが生じる。このため、図1において光学センサ10で撮像される被検出体100の画像と、図2において光学センサ10で撮像される被検出体100の画像と、で位置ずれが生じる。
 なお、以下の説明において、画像の「位置ずれ」とは、平面視で、光学センサ10と被検出体100との相対的な位置関係は同じ状態であっても、点灯状態の発光素子85の位置に応じて平行光Lの投影位置のずれが生じることに起因する、撮像された複数の画像での被検出体100の位置ずれを表す。
 本実施形態の検出装置1は、光源81が、検出期間ごとに点灯状態の発光素子85を順次、走査することで、位置ずれを有する複数の画像を取得する。そして、検出装置1は、これら複数の画像を合成して超解像処理を実行し、光学センサ10の複数のフォトダイオード30の解像度よりも高い解像度を有する超解像画像を生成する。なお、複数の画像の取得方法、及び、超解像画像の生成の詳細については、後述する。
 図3は、第1実施形態に係る検出装置の構成例を示すブロック図である。図3に示すように、検出装置1は、さらに、光学センサ10及び光源81を制御するホストIC70を有する。光学センサ10は、アレイ基板2と、アレイ基板2に形成された複数のセンサ画素3(フォトダイオード30)と、ゲート線駆動回路15A、15Bと、信号線駆動回路16Aと、検出制御回路11と、を有する。
 アレイ基板2は、基板21を基体として形成される。また、複数のセンサ画素3は、それぞれフォトダイオード30、複数のトランジスタ、各種配線を有して構成される。フォトダイオード30が形成されたアレイ基板2は、所定の検出領域ごとにセンサを駆動する駆動回路基板であり、バックプレーン又はアクティブマトリクス基板とも呼ばれる。
 基板21は、検出領域AAと、周辺領域GAとを有する。検出領域AAは、複数のセンサ画素3(複数のフォトダイオード30)が設けられた領域である。周辺領域GAは、検出領域AAの外周と、基板21の外縁部との間の領域であり、複数のセンサ画素3が設けられない領域である。ゲート線駆動回路15A、15B、信号線駆動回路16A及び検出制御回路11は、周辺領域GAに設けられる。
 複数のセンサ画素3は、それぞれ、センサ素子としてフォトダイオード30を有する光センサである。フォトダイオード30は、それぞれに照射される光に応じた電気信号を出力する。より具体的には、フォトダイオード30は、PIN(Positive Intrinsic Negative)フォトダイオードや有機半導体を用いたOPD(Organic Photodiode)である。複数のセンサ画素3(複数のフォトダイオード30)は、検出領域AAにマトリクス状に配列される。
 検出制御回路11は、ゲート線駆動回路15A、15B及び信号線駆動回路16Aにそれぞれ制御信号Sa、Sb、Scを供給し、これらの動作を制御する回路である。具体的には、ゲート線駆動回路15A、15Bは、制御信号Sa、Sbに基づいてゲート駆動信号をセンサゲート線GLS(図5参照)に出力する。信号線駆動回路16Aは、制御信号Scに基づいて選択されたセンサ信号線SLSと検出制御回路11とを電気的に接続する。また、検出制御回路11は、複数のフォトダイオード30からの検出信号Vdetの信号処理を行う信号処理回路を備える。
 複数のセンサ画素3が有するフォトダイオード30は、ゲート線駆動回路15A、15Bから供給されるゲート駆動信号に従って検出を行う。複数のフォトダイオード30は、それぞれに照射される光に応じた電気信号を、検出信号Vdetとして信号線駆動回路16Aに出力する。検出制御回路11は、複数のフォトダイオード30からの検出信号Vdetの信号処理を行い、検出信号Vdetに基づくセンサ値SoをホストIC70に出力する。これにより、検出装置1は、被検出体100に関する情報を検出する。
 図4は、第1実施形態に係る検出制御回路の構成例を示すブロック図である。図4に示すように、検出制御回路11は、検出信号振幅調整回路41、A/D変換回路42、信号処理回路43及び検出タイミング制御回路44を有する。検出タイミング制御回路44は、ホストIC70(図3参照)から供給される制御信号に基づいて、検出信号振幅調整回路41、A/D変換回路42及び信号処理回路43が同期して動作するように制御する。
 検出信号振幅調整回路41は、フォトダイオード30から出力された検出信号Vdetの振幅を調整する回路であり、例えば増幅器を含み構成される。A/D変換回路42は、検出信号振幅調整回路41から出力されるアナログ信号をデジタル信号に変換する。信号処理回路43は、A/D変換回路42からのデジタル信号の信号処理を行い、センサ値SoをホストIC70へ送信する回路である。
 図3に戻って、光源81は、アレイ基板84と、アレイ基板84に形成された複数の発光素子85と、ゲート線駆動回路15C、15Dと、信号線駆動回路16Bと、発光素子制御回路12と、を有する。
 複数の発光素子85は、アレイ基板84の検出領域AAと重なる領域にマトリクス状に配列される。アレイ基板84は、複数の発光素子85ごとにオン(点灯状態)と、オフ(非点灯状態)とを切り替えて駆動する駆動回路基板である。
 発光素子制御回路12は、ゲート線駆動回路15C、15D、信号線駆動回路16Bにそれぞれ制御信号Sd、Se、Sfを供給し、これらの動作を制御する回路である。具体的には、ゲート線駆動回路15C、15Dは、制御信号Sd、Seに基づいて駆動信号をゲート線(図示しない)に出力し、所定行の発光素子85を選択する。信号線駆動回路16Bは、制御信号Sfに基づいて選択された信号線(図示しない)に発光素子制御信号を供給する。これにより、光源81は、複数の発光素子85ごとに点灯状態と非点灯状態とを切り替えることができる。
 なお、光源81のアレイ基板84は、いわゆるアクティブマトリクス基板であるが、これに限定されない。複数の発光素子85のオンオフ制御はどのような方法でもよく、例えば、発光素子制御回路12は、複数の発光素子85をそれぞれ個別に制御してもよい。
 ホストIC70は、光学センサ10側の制御回路として、センサ値記憶回路71と、基準マーカー記憶回路72と、補正値生成回路73と、補正値記憶回路79と、を有する。センサ値記憶回路71は、光学センサ10の検出制御回路11から出力されたセンサ値Soを記憶する回路である。基準マーカー記憶回路72は、基準マーカー90(図10参照)と重なる位置のフォトダイオード30のセンサ値Soと、点灯状態の発光素子85の位置との関係を示す相関式をあらかじめ記憶する回路である。
 補正値生成回路73は、複数の発光素子85のオンオフ切り替えにより生じる、複数の画像の位置ずれの補正値を演算する回路である。補正値生成回路73は、基準マーカー記憶回路72の相関式に基づいて複数の画像の位置ずれの補正値を演算してもよいし、検出装置1の各発光素子85の位置及び光学系の設計の情報に基づいて補正値を演算してもよい。補正値記憶回路79は、点灯状態の発光素子85の位置ごとに、複数の画像の位置ずれの補正値を記憶する回路である。基準マーカー記憶回路72、補正値生成回路73及び補正値記憶回路79については、図10以降で後述する。
 ホストIC70は、光源81側の制御回路として、点灯パターン生成回路74及び点灯パターン記憶回路75と、を有する。点灯パターン記憶回路75は、検出期間F(図8参照)ごとの、複数の発光素子85のオン(点灯状態)、オフ(非点灯状態)の配置パターンの情報を記憶する回路である。点灯パターン生成回路74は、点灯パターン記憶回路75の配置パターンの情報に基づいて、各種制御信号を生成する回路である。そして、点灯パターン生成回路74は、検出期間Fごとに、複数の発光素子85のオン、オフの配置パターンの情報を含む発光素子制御信号を、発光素子制御回路12に出力する。
 ホストIC70は、さらに画像生成回路76及び画像処理回路77を有する。画像生成回路76は、センサ値記憶回路71からのセンサ値Soに基づいて、複数の検出期間Fごとに(すなわち、点灯状態の発光素子85の位置ごとに)、複数の画像を生成する回路である。画像処理回路77は、複数の検出期間Fごとに取得された複数の画像を合成して超解像処理を行って、光学センサ10の解像度よりも高い解像度を有する1つの超解像画像を生成する回路である。画像生成回路76及び画像処理回路77の詳細な動作例については、図8、9にて後述する。
 なお、図示は省略するが、ホストIC70は、検出制御回路11と発光素子制御回路12とを同期して制御する制御回路を有する。すなわち、ホストIC70からの制御信号に基づいて、光源81側の複数の発光素子85のオン、オフの配置パターンの切り替えと、光学センサ10側の複数のフォトダイオード30の検出とが同期して制御される。なお、光学センサ10は2つのゲート線駆動回路15A、15Bを有しているが、1つのゲート線駆動回路を有していてもよい。光源81は2つのゲート線駆動回路15C、15Dを有しているが、1つのゲート線駆動回路を有していてもよい。
 次に、光学センサ10の構成例について説明する。図5は、センサ画素を示す回路図である。図5に示すように、センサ画素3は、フォトダイオード30と、容量素子Caと、第1トランジスタTrSと、を含む。第1トランジスタTrSは、フォトダイオード30に対応して設けられる。第1トランジスタTrSは、薄膜トランジスタにより構成されるものであり、この例では、nチャネルのMOS(Metal Oxide Semiconductor)型のTFT(Thin Film Transistor)で構成されている。第1トランジスタTrSのゲートはセンサゲート線GLSに接続される。第1トランジスタTrSのソースはセンサ信号線SLSに接続される。第1トランジスタTrSのドレインは、フォトダイオード30のアノード及び容量素子Caに接続される。
 フォトダイオード30のカソードには、検出制御回路11から電源電位SVSが供給される。また、容量素子Caには、検出制御回路11から、容量素子Caの初期電位となる基準電位VR1が供給される。
 センサ画素3に光が照射されると、フォトダイオード30には光量に応じた電流が流れ、これにより容量素子Caに電荷が蓄積される。第1トランジスタTrSがオンになると、容量素子Caに蓄積された電荷に応じて、センサ信号線SLSに電流が流れる。センサ信号線SLSは、信号線駆動回路16Aを介して検出制御回路11に接続される。これにより、検出装置1の光学センサ10は、センサ画素3ごとに、フォトダイオード30に照射される光の光量に応じた信号を検出できる。
 なお、第1トランジスタTrSは、n型TFTに限定されず、p型TFTで構成されてもよい。また、図5に示すセンサ画素3の画素回路はあくまで一例であり、センサ画素3には、1つのフォトダイオード30に対応して、複数のトランジスタが設けられていてもよい。
 次に、光学センサ10の詳細な構成について説明する。図6は、第1実施形態に係るセンサ画素を模式的に示す平面図である。
 なお、以下の説明において、第1方向Dxは、基板21(図7参照)と平行な面内の一方向である。第2方向Dyは、基板21と平行な面内の一方向であり、第1方向Dxと直交する方向である。なお、第2方向Dyは、第1方向Dxと直交しないで交差してもよい。第3方向Dzは、第1方向Dx及び第2方向Dyと直交する方向であり、基板21の主面の法線方向である。また、「平面視」とは、基板21と垂直な方向から見た場合の位置関係をいう。
 図6に示すように、センサ画素3は、センサゲート線GLSと、センサ信号線SLSとで囲まれた領域である。本実施形態では、センサゲート線GLSは、第1センサゲート線GLAと第2センサゲート線GLBとを含む。第1センサゲート線GLAは、第2センサゲート線GLBと重なって設けられる。第1センサゲート線GLAと第2センサゲート線GLBとは、絶縁層22c、22d(図7参照)を介して異なる層に設けられている。第1センサゲート線GLAと第2センサゲート線GLBとは、任意の箇所で電気的に接続され、同じ電位を有するゲート駆動信号が供給される。第1センサゲート線GLA及び第2センサゲート線GLBの少なくとも一方が、ゲート線駆動回路15A、15Bに接続される。なお、図6では、第1センサゲート線GLAと第2センサゲート線GLBとは異なる幅を有しているが、同じ幅であってもよい。
 フォトダイオード30は、センサゲート線GLSと、センサ信号線SLSとで囲まれた領域に設けられる。上部電極34及び下部電極35は、フォトダイオード30のそれぞれに対応して設けられる。フォトダイオード30は、例えば、PINフォトダイオードである。下部電極35は、例えば、フォトダイオード30のアノード電極である。上部電極34は、例えば、フォトダイオード30のカソード電極である。
 上部電極34は、接続配線36を介して電源信号線Lvsと接続される。電源信号線Lvsは、電源電位SVSをフォトダイオード30に供給する配線である。本実施形態では、電源信号線Lvsは、センサ信号線SLSと重なって第2方向Dyに延在する。第2方向Dyに配列された複数のセンサ画素3は、共通の電源信号線Lvsに接続される。このような構成により、センサ画素3の開口を大きくすることができる。下部電極35、フォトダイオード30及び上部電極34は、平面視で略四角形状である。ただし、これに限定されず、下部電極35、フォトダイオード30及び上部電極34の形状は適宜変更できる。
 第1トランジスタTrSは、センサゲート線GLSとセンサ信号線SLSとの交差部の近傍に設けられる。第1トランジスタTrSは、半導体層61、ソース電極62、ドレイン電極63、第1ゲート電極64A及び第2ゲート電極64Bを含む。
 半導体層61は、酸化物半導体である。より好ましくは、半導体層61は、酸化物半導体のうち透明アモルファス酸化物半導体(TAOS:Transparent Amorphous Oxide Semiconductor)である。第1トランジスタTrSに酸化物半導体を用いることにより、第1トランジスタTrSのリーク電流を抑制できる。すなわち、第1トランジスタTrSは、非選択のセンサ画素3からのリーク電流を低減できる。このため、光学センサ10は、S/N比を向上させることができる。ただし、半導体層61は、これに限定されず、微結晶酸化物半導体、アモルファス酸化物半導体、ポリシリコン、低温ポリシリコン(LTPS:Low Temperature Polycrystalline Silicone)等であってもよい。
 半導体層61は、第1方向Dxに沿って設けられ、平面視で第1ゲート電極64A及び第2ゲート電極64Bと交差する。第1ゲート電極64A及び第2ゲート電極64Bは、それぞれ第1センサゲート線GLA及び第2センサゲート線GLBから分岐して設けられる。言い換えると、第1センサゲート線GLA及び第2センサゲート線GLBのうち、半導体層61と重なる部分が第1ゲート電極64A及び第2ゲート電極64Bとして機能する。第1ゲート電極64A及び第2ゲート電極64Bは、アルミニウム(Al)、銅(Cu)、銀(Ag)、モリブデン(Mo)又はこれらの合金が用いられる。また、半導体層61の、第1ゲート電極64A及び第2ゲート電極64Bと重なる部分にチャネル領域が形成される。
 半導体層61の一端は、コンタクトホールH1を介してソース電極62と接続される。半導体層61の他端は、コンタクトホールH2を介してドレイン電極63と接続される。センサ信号線SLSのうち、半導体層61と重なる部分がソース電極62である。また、第3導電層67のうち、半導体層61と重なる部分がドレイン電極63として機能する。第3導電層67はコンタクトホールH3を介して下部電極35と接続される。このような構成により、第1トランジスタTrSは、フォトダイオード30とセンサ信号線SLSとの間の接続と遮断とを切り換え可能になっている。
 次に光学センサ10の層構成について説明する。図7は、図6のVII-VII’断面図である。
 なお、光学センサ10を含む検出装置1の説明において、基板21の表面に垂直な方向(第3方向Dz)において、基板21からフォトダイオード30に向かう方向を「上側」又は「上」とする。フォトダイオード30から基板21に向かう方向を「下側」又は「下」とする。
 図7に示すように、基板21は絶縁基板であり、例えば、石英、無アルカリガラス等のガラス基板が用いられる。基板21の一方の面に、第1トランジスタTrS、各種配線(センサゲート線GLS及びセンサ信号線SLS)及び絶縁層が設けられてアレイ基板2が形成される。複数のフォトダイオード30は、アレイ基板2の上、すなわち、基板21の一方の面側に配列される。なお、基板21は、ポリイミド等の樹脂で構成された樹脂基板又は樹脂フィルムであってもよい。
 絶縁層22a、22bは、基板21の上に設けられる。絶縁層22a、22b、22c、22d、22e、22f、22gは、無機絶縁膜であり、例えば、酸化シリコン(SiO)や窒化シリコン(SiN)等である。また、各無機絶縁層は、単層に限定されず積層膜であってもよい。
 第1ゲート電極64Aは、絶縁層22bの上に設けられる。絶縁層22cは、第1ゲート電極64Aを覆って絶縁層22bの上に設けられる。半導体層61、第1導電層65及び第2導電層66は、絶縁層22cの上に設けられる。第1導電層65は、半導体層61のうちソース電極62と接続される端部を覆って設けられる。第2導電層66は、半導体層61のうちドレイン電極63と接続される端部を覆って設けられる。
 絶縁層22dは、半導体層61、第1導電層65及び第2導電層66を覆って絶縁層22cの上に設けられる。第2ゲート電極64Bは、絶縁層22dの上に設けられる。半導体層61は、基板21に垂直な方向において、第1ゲート電極64Aと第2ゲート電極64Bとの間に設けられる。つまり、第1トランジスタTrSは、いわゆるデュアルゲート構造である。ただし、第1トランジスタTrSは、第1ゲート電極64Aが設けられ、第2ゲート電極64Bが設けられないボトムゲート構造でもよく、第1ゲート電極64Aが設けられず、第2ゲート電極64Bのみが設けられるトップゲート構造でもよい。
 絶縁層22eは、第2ゲート電極64Bを覆って絶縁層22dの上に設けられる。ソース電極62(センサ信号線SLS)及びドレイン電極63(第3導電層67)は、絶縁層22eの上に設けられる。本実施形態では、ドレイン電極63は、絶縁層22d、22eを介して半導体層61の上に設けられた第3導電層67である。ソース電極62は、コンタクトホールH1及び第1導電層65を介して半導体層61と電気的に接続される。ドレイン電極63は、コンタクトホールH2及び第2導電層66を介して半導体層61と電気的に接続される。
 第3導電層67は、平面視で、フォトダイオード30と重なる領域に設けられる。第3導電層67は、半導体層61、第1ゲート電極64A及び第2ゲート電極64Bの上側にも設けられる。つまり、第3導電層67は、基板21に垂直な方向において、第2ゲート電極64Bと下部電極35との間に設けられる。これにより、第3導電層67は、第1トランジスタTrSを保護する保護層としての機能を有する。
 第2導電層66は、半導体層61と重ならない領域において、第3導電層67と対向して延在する。また、半導体層61と重ならない領域において、絶縁層22dの上に第4導電層68が設けられる。第4導電層68は、第2導電層66と第3導電層67との間に設けられる。これにより、第2導電層66と第4導電層68との間に容量が形成され、第3導電層67と第4導電層68との間に容量が形成される。第2導電層66、第3導電層67及び第4導電層68により形成される容量は、図5に示す容量素子Caの容量である。
 第1有機絶縁層23aは、ソース電極62(センサ信号線SLS)及びドレイン電極63(第3導電層67)を覆って、絶縁層22eの上に設けられる。第1有機絶縁層23aは、第1トランジスタTrSや、各種導電層で形成される凹凸を平坦化する平坦化層である。
 次に、フォトダイオード30の断面構成について説明する。フォトダイオード30は、アレイ基板2の第1有機絶縁層23aの上に、下部電極35、フォトダイオード30、上部電極34の順に積層される。
 下部電極35は、第1有機絶縁層23aの上に設けられ、コンタクトホールH3を介して第3導電層67と電気的に接続される。下部電極35は、フォトダイオード30のアノードであり、検出信号Vdetを読み出すための電極である。下部電極35は、例えば、モリブデン(Mo)、アルミニウム(Al)等の金属材料が用いられる。又は、下部電極35は、これらの金属材料が複数積層された積層膜であってもよい。下部電極35は、ITO(Indium Tin Oxide)やIZO(Indium Zinc Oxide)等の透光性を有する導電材料であってもよい。
 フォトダイオード30は、半導体層としてi型半導体層31、n型半導体層32及びp型半導体層33を含む。i型半導体層31、n型半導体層32及びp型半導体層33は、例えばアモルファスシリコン(a-Si)で形成される。図7では、基板21の表面に垂直な方向において、p型半導体層33、i型半導体層31及びn型半導体層32の順に積層されている。ただし、反対の構成、つまり、n型半導体層32、i型半導体層31及びp型半導体層33の順に積層されていてもよい。また各半導体層は、有機半導体からなる光電変換素子であってもよい。
 n型半導体層32は、a-Siに不純物がドープされてn+領域を形成する。p型半導体層33は、a-Siに不純物がドープされてp+領域を形成する。i型半導体層31は、例えば、ノンドープの真性半導体であり、n型半導体層32及びp型半導体層33よりも低い導電性を有する。
 上部電極34は、フォトダイオード30のカソードであり、電源電位SVSを光電変換層に供給するための電極である。上部電極34は、例えばITO等の透光性導電層であり、フォトダイオード30ごとに複数設けられる。
 第1有機絶縁層23aの上に絶縁層22f及び絶縁層22gが設けられている。絶縁層22fは、上部電極34の周縁部を覆い、上部電極34と重なる位置に開口が設けられている。接続配線36は、上部電極34のうち、絶縁層22fが設けられていない部分で上部電極34と接続される。絶縁層22gは、上部電極34及び接続配線36を覆って絶縁層22fの上に設けられる。絶縁層22gの上に平坦化層である第2有機絶縁層23bが設けられる。また、有機半導体のフォトダイオード30の場合には、さらにその上に絶縁層22hが設けられる場合がある。
 次に、本実施形態の検出装置1の検出方法の一例について説明する。図8は、第1実施形態に係る光源の、検出期間ごとの複数の発光素子の点灯パターンを模式的に示す説明図である。図8では、複数の発光素子85のうち、点灯状態の発光素子85を白表示とし、非点灯状態の発光素子85にハッチングを付けて表わしている。
 図8に示すように、光源81の複数の発光素子85は、平面視でマトリクス状に配置されている。図8に示す例では、複数の発光素子85-1、85-2、・・・、85-9は、3行3列で配置される。なお、以下の説明において、発光素子85-1、85-2、・・・、85-9を区別して説明する必要がない場合には、単に発光素子85と表す。
 図8に示すように、光源81は、検出期間Fごとに複数の発光素子85を順次、点灯状態とする。検出期間F1では、光源81は、複数の発光素子85のうち、発光素子85-1を点灯状態とし、他の発光素子85-2から発光素子85-9を非点灯状態とする。次の検出期間F2では、光源81は、複数の発光素子85のうち、発光素子85-2を点灯状態とし、他の発光素子85-1、及び、発光素子85-3から発光素子85-9を非点灯状態とする。以下同様に、光源81は、検出期間Fごとに点灯状態の発光素子85の位置を切り替える。最後の検出期間F9では、複数の発光素子85のうち、発光素子85-9を点灯状態とし、他の発光素子85-1から発光素子85-8を非点灯状態とする。
 ただし、図8はあくまで一例であり、複数の発光素子85の数は、8個以下であってもよく、10個以上であってもよい。また、複数の発光素子85の配置は、マトリクス状に限定されず、三角格子状等、他の配置パターンであってもよい。図8では、各検出期間Fで1つの発光素子85を点灯状態としているが、光源81は、発光素子85のサイズ、光量に応じて、隣接する複数の発光素子85を含む発光素子グループごとに点灯状態と、非点灯状態とを切り替えてもよい。
 光学センサ10のフォトダイオード30は、点灯状態の発光素子85の位置に対応した検出信号Vdet(センサ値So)を、検出期間F1、F2、・・・、F9ごとに順次出力する。具体的には、各検出期間Fで、点灯状態の発光素子85が順次走査されるので、図1及び図2に示す例と同様に、平行化レンズ83から出射される平行光Lの出射角度は、検出期間Fごとに(すなわち、点灯状態の発光素子85の位置ごとに)異なる。
 そして、各検出期間Fで、光学センサ10と被検出体100との相対的な位置関係は一定であるものの、平行光Lの出射角度が異なるので光学センサ10上の平行光Lの投影位置も異なる。複数のフォトダイオード30は、各検出期間Fで、平行光Lの投影位置に応じた検出信号Vdet(センサ値So)を出力する。
 図9は、第1実施形態に係る検出装置の、超解像画像の生成方法を説明するための説明図である。図9に示すように、画像生成回路76(図3参照)は、センサ値記憶回路71からのセンサ値Soに基づいて、複数の検出期間Fごとに複数の画像A1、A2、・・・、A9を生成する。画像A1、A2、・・・、A9は、例えば、図8に示す検出期間F1、F2、・・・、F9で取得された画像に対応する。
 複数の画像A1、A2、・・・、A9は、上述したように光学センサ10と被検出体100との相対的な位置関係は一定であるが、各検出期間Fで光学センサ10上の平行光Lの投影位置が異なる。このため、複数の画像A1、A2、・・・、A9で撮像された被検出体100の位置ずれが生じている。複数の画像A1、A2、・・・、A9の位置ずれの補正値に関する情報は、上述したように、検出装置1の各発光素子85の位置(点灯状態の発光素子85の位置)及び光学系の設計に基づいてあらかじめ演算され、画像の位置ずれの補正値として補正値記憶回路79(図3参照)に格納される。画像の位置ずれの補正値は、例えば点灯状態の発光素子85の位置ごとに演算され、点灯状態の発光素子85の位置と対応づけて補正値記憶回路79に格納される。
 また、複数の画像A1、A2、・・・、A9のそれぞれの画素ピッチP1、P2(解像度)は、フォトダイオード30の配置ピッチPS1、PS2(図3参照)に対応して決められる。画素ピッチP1、P2は、フォトダイオード30の配置ピッチPS1、PS2と一致する。なお、フォトダイオード30の第1方向Dxでの配置ピッチPS1は、センサ信号線SLS(図6参照)の第1方向Dxでの配置ピッチで規定される。また、フォトダイオード30の第2方向Dyでの配置ピッチPS2は、センサゲート線GLS(図6参照)の第2方向Dyでの配置ピッチで規定される。
 画像処理回路77(図3参照)は、画像生成回路76にて複数の検出期間Fごとに取得された複数の画像A1、A2、・・・、A9と、補正値記憶回路79から取得した画像の位置ずれの補正値と、に基づいて、超解像処理を行う。例えば、画像処理回路77は、画像の位置ずれの補正値に基づいて、被検出体100の位置が一致するように複数の画像A1、A2、・・・、A9を重ね合わせて合成し、超解像画像AXを生成する。画像処理回路77は、超解像処理の具体例として、例えば、非特許文献1や非特許文献2に記載されている方法を採用することができる。
 ここで、平面視での、検出期間Fごとの複数の画像A1、A2、・・・、A9のずれ量(具体的には、被検出体100の位置ずれの大きさ)は、複数のフォトダイオード30の配置ピッチPS1、PS2の非整数倍である。言い換えると、複数の画像A1、A2、・・・、A9のずれ量が複数のフォトダイオード30の配置ピッチPS1、PS2の非整数倍になるように、複数の発光素子85及び平行化レンズ83等を含む光学系の設計、及び、点灯状態の発光素子85の配置パターン等が決定される。
 これにより、図9に示すように、元の複数の画像A1、A2、・・・、A9の解像度に比べて、超解像画像AXの解像度が向上しており、複数の画像A1、A2、・・・、A9のそれぞれの被検出体100の輪郭に比べて、超解像画像AXでの被検出体100の輪郭は明確に再現されている。言い換えると、超解像画像AXの画素ピッチPX1、PX2が、元の複数の画像A1、A2、・・・、A9のそれぞれの画素ピッチP1、P2よりも小さくなる。
 以上のように、検出装置1は、画像処理回路77が複数の画像A1、A2、・・・、A9に基づいて超解像処理を行うことにより、光学センサ10のセンサ解像度を超えた解像度を有する超解像画像AXを生成することができる。また、本実施形態の検出装置1は、被検出体100と光学センサ10との相対的な位置関係を一定としたまま、光源81の複数の発光素子85のオンオフを切り替えることで、位置ずれを有する複数の画像A1、A2、・・・、A9を撮像できる。このため、被検出体100を移動させるためのステージ101の機構や、光学センサ10を移動させるための構成が不要であり、検出装置1は簡易な構成で位置ずれを有する複数の画像A1、A2、・・・、A9を撮像できる。
 なお、画像の位置ずれの補正値は、あらかじめ演算され補正値記憶回路79に格納されたものを用いる例を説明したが、これに限定されない。画像処理回路77は、基準マーカー90により取得された補正値を利用してもよい。
 次に、基準マーカー90を用いた画像の位置ずれの補正方法について説明する。図10は、第1実施形態に係る検出装置の、ステージを模式的に示す平面図である。図10に示すように基準マーカー90は、ステージ101の上に設けられる。言い換えると、基準マーカー90は、光学センサ10の複数のフォトダイオード30と、平行光生成部80の平行化レンズ83との間に、配置される(図1参照)。
 基準マーカー90は、平面視で、ステージ101の検出領域AAと重なる領域であって、被検出体100と重ならない領域に設けられる。基準マーカー90は、例えばステージ101の検出領域AAと重なる領域のコーナー部に配置される。
 図11は、第1実施形態に係る検出装置の、基準マーカーを示す平面図である。図11に示すように、基準マーカー90は、光の透過率が高い第1領域91と、第1領域91よりも光の透過率が低い第2領域92とを有する。図11に示す例では、第1領域91は透光性の部材で形成された透光領域であり、第2領域92は、黒色部材で形成された遮光領域である。
 基準マーカー90の第1領域91と第2領域92とは格子状に配置される。具体的には、第1領域91と第2領域92とは、第1方向Dxで隣り合って配置される。かつ、第1領域91と第2領域92とは、第2方向Dyで隣り合って配置される。
 第2領域92の第1方向Dxでの幅W1は、第1領域91の第1方向Dxでの幅と等しい。また、第2領域92の第2方向Dyでの幅W2は、第1領域91の第2方向Dyでの幅と等しい。第2領域92の幅W1、W2は、フォトダイオード30の配置ピッチPS1、PS2(図3参照)の2倍よりも大きい。より好ましくは、第2領域92の幅W1、W2は、フォトダイオード30の配置ピッチPS1、PS2の非整数倍である。
 図12は、基準マーカーを透過する光の光量と、複数のフォトダイオードのセンサ値との関係を説明するための説明図である。図13は、図12とは異なる検出期間での、基準マーカーを透過する光の光量と、複数のフォトダイオードのセンサ値との関係を説明するための説明図である。
 図12及び図13は、図11に示すXII-XII’線に沿って基準マーカー90を検出したときの検出結果を模式的に示す。具体的には、図12及び図13の上側のグラフは、それぞれ、第1方向Dxでの位置と、基準マーカーを透過する光の光量との関係を示す。また、図12及び図13の下側のグラフは、それぞれ、第1方向Dxでの位置と、複数のフォトダイオード30のセンサ値Soとの関係を示す。図12及び図13の下側のグラフでは、第1方向Dxに隣り合う3つのフォトダイオード30について、それぞれのフォトダイオード30の配置ピッチPS1と対応づけてセンサ値Soを示している。また、図12に示す検出期間Faと、図13に示す検出期間Fbとで、点灯状態の発光素子85の位置が異なる。
 図12に示すように、検出期間Faでは、基準マーカー90の第1領域91に重なる位置のフォトダイオード30は、センサ値So-bを出力する。基準マーカー90の第2領域92に重なる位置のフォトダイオード30は、センサ値So-bよりも小さいセンサ値So-aを出力する。基準マーカー90の第1領域91と第2領域92との境界EGに重なる領域のフォトダイオード30は、センサ値So-cを出力する。
 境界EGに重なる領域のフォトダイオード30では、第1領域91と対応する一部の領域で、第1領域91を透過した平行光Lが照射される。また、第2領域92で平行光Lが遮光されるので、境界EGに重なる位置のフォトダイオード30の、第2領域92と対応する他の領域では、平行光Lが照射されない。このため、境界EGを跨がる領域に対応するセンサ値So-cは、第2領域92に対応するセンサ値So-aよりも大きく、第1領域91に対応するセンサ値So-bよりも小さいセンサ値である。
 図13に示すように、図12とは異なる検出期間Fbでは、基準マーカー90の第1領域91に重なる位置のフォトダイオード30のセンサ値So-b、及び、第2領域92に重なる位置のフォトダイオード30のセンサ値So-aは、図12と同等である。
 図13に示す検出期間Fbでは、図12に示す検出期間Faに対し点灯状態の発光素子85の位置が異なる。このため、光学センサ10と基準マーカー90との相対的な位置関係は同じ状態であっても、点灯状態の発光素子85の位置に応じて、第1領域91を透過した平行光Lの投影位置のずれが生じる。図13に示す例では、図12に比べて境界EGに重なる位置のフォトダイオード30で、第1領域91を透過した平行光Lが照射される部分の面積が大きくなる。このため、境界EGに重なる領域に対応するセンサ値So-dは、図12における境界EGに重なる領域に対応するセンサ値So-cよりも大きい値を示す。
 このように、境界EGに重なる位置のフォトダイオード30のセンサ値Soと、撮像された画像の、境界EGの位置ずれ量との間には相関がある。検出装置1は、あらかじめ複数の発光素子85を順次点灯状態として、点灯状態の発光素子85の位置ごとに、境界EGに重なる位置のフォトダイオード30のセンサ値Soを取得する。これにより、上述したように、基準マーカー記憶回路72(図3参照)は、基準マーカー90(図10参照)と重なる位置のフォトダイオード30のセンサ値Soと、点灯状態の発光素子85の位置との関係を示す相関式をあらかじめ記憶する。そして、補正値生成回路73は、基準マーカー記憶回路72の相関式に基づいて、点灯状態の発光素子85の位置ごとに、複数の画像の位置ずれの補正値を演算する。
 なお、図12及び図13では、第1方向Dxで、フォトダイオード30のセンサ値Soと、撮像された画像の、境界EGの位置ずれ量との相関について説明したが、基準マーカー記憶回路72(図3参照)は、第2方向Dyについてもフォトダイオード30のセンサ値Soと、撮像された画像の、境界EGの位置ずれ量との相関を取得する。
 図14は、基準マーカーの変形例を示す平面図である。図11では、基準マーカー90の第1領域91と、第2領域92とが格子状に配置されるパターンについて示したが、これに限定されない。基準マーカー90は、第1方向Dx及び第2方向Dyのそれぞれで、第1領域91と第2領域92との境界EGを有するパターンであれば、どのようなものであってもよい。
 図14に示すように、変形例に係る基準マーカー90Aは、第1領域91が背景として設けられ、第2領域92が十字状に設けられる。第2領域92は、第2方向Dyに延在する部分92aと、第1方向Dxに延在する部分92bとが交差して設けられる。本変形例では、第2領域92の部分92aと交差するXV-XV’線に沿った領域で、第1領域91と第2領域92との境界EGが2箇所存在する。また、第2領域92の部分92bと交差する領域でも、第1領域91と第2領域92との境界EGが2箇所存在する。
 第2領域92の部分92aの幅W1A、及び、第2領域92の部分92bのW2Aは、フォトダイオード30の配置ピッチPS1、PS2(図3参照)の2倍よりも大きい。より好ましくは、幅W1A、W2Aは、フォトダイオード30の配置ピッチPS1、PS2の非整数倍である。
 次に、図3、図15等を参照して、検出装置の検出動作例について説明する。図15は、第1実施形態に係る検出装置の検出動作例を示すフローチャート図である。まず、ホストIC70の点灯パターン生成回路74は、点灯パターン記憶回路75からの情報に基づいて、発光素子番号nをn=1に設定する(ステップST1)。ただし、発光素子番号nは、1以上N以下の自然数である。すなわち、発光素子85は、発光素子85-1から発光素子85-Nまで設けられる。
 光源81は、点灯パターン生成回路74からの制御信号に基づいて、n(=1)番目の発光素子85-nを点灯させる(ステップST2)。また、光源81は、発光素子85-n以外の他の発光素子85は、非点灯状態とする。
 光学センサ10の複数のフォトダイオード30は、点灯状態の発光素子85-nからの平行光Lに基づいた複数のセンサ値Soを出力し、センサ値記憶回路71は、複数のセンサ値Soを記憶する。画像生成回路76は光学センサ10の複数のセンサ値Soに基づいて、画像を生成する(ステップST3)。また、画像生成回路76は、被検出体100の画像とともに基準マーカー90の画像を生成する。
 補正値生成回路73は、ステップST3で生成された基準マーカー90の画像解析により、点灯状態の発光素子85-nに対応する画像の位置ずれ量を算出し、算出された画像の位置ずれ量を補正値として生成する(ステップST4)。補正値記憶回路79は、点灯状態の発光素子85-nに対応する補正値を記憶する。
 点灯パターン生成回路74は、発光素子番号nがn=Nであるかどうかを判断する(ステップST5)。発光素子番号nがn=Nでない場合(ステップST5、No)、点灯パターン生成回路74は、発光素子番号nをn=n+1に更新する(ステップST6)。そして、検出装置1は、点灯状態の発光素子85の位置を異ならせて、ステップST1からステップST4を実行する。
 発光素子番号nがn=Nである場合(ステップST5、Yes)、すなわち、光源81が発光素子85-1から発光素子85-Nまで点灯状態の発光素子85の走査を完了した場合、画像処理回路77は、点灯状態の発光素子85の位置ごとに取得した画像生成回路76の複数の画像を、点灯状態の発光素子85の位置ごとに演算された補正値記憶回路79の補正値に基づいて、重ね合わせ処理を行う(ステップST7)。
 これにより、画像処理回路77は超解像処理を行って、光学センサ10のセンサ解像度を超えた解像度を有する超解像画像AXを生成する(ステップST8)。
 なお、ステップST4における補正値の生成は、必ずしも行う必要はなく、例えば、検出装置1の起動時等、所定期間ごとに行ってもよい。また、ステップST4では、生成された補正値と、基準マーカー記憶回路72が有する相関式とを比較し、これらの値に違いが生じた場合には、相関式を更新するキャリブレーションを行ってもよい。
(第2実施形態)
 図16は、第2実施形態に係る検出装置を模式的に示す断面図である。なお、以下の説明では、上述した実施形態で説明したものと同じ構成要素には同一の符号を付して重複する説明は省略する。
 図16に示すように、第2実施形態に係る検出装置1Aは、上述した第1実施形態の光源81及び配光レンズ82に換えて、液晶パネル50及び光源86を有する。すなわち、第2実施形態の平行光生成部80Aは、液晶パネル50、光源86及び平行化レンズ83を有する。平行光生成部80Aは、光学センサ10の基板21に垂直な方向で、平行化レンズ83、液晶パネル50、光源86の順に配置される。
 光源86は、液晶パネル50のバックライトであり、液晶パネル50の背面(光学センサ10と反対側の面)に設けられる。光源86は、少なくとも1つの発光素子88を有し、液晶パネル50に向けて光を照射する。具体的には、光源86は、透光性の導光板87と、導光板87の側面に対向する発光素子88と、を含む。発光素子88は、例えばLEDで構成され、導光板87の側面に沿って複数並べられている。導光板87は液晶パネル50と対向して配置される。発光素子88から出射された光は、反射、散乱を繰り返しつつ導光板87内を伝搬し、導光板87内の光の一部が液晶パネル50に出射される。
 液晶パネル50は、光学センサ10の複数のフォトダイオード30(図3参照)と対向して配置され、複数の画素Pix(光出射部)を有する。図示は省略するが、複数の画素Pixは、平面視でマトリクス状に配置される。液晶パネル50は、複数の画素Pixごとに光の透過状態と非透過状態を切り替える光フィルタ層として機能する。液晶パネル50は、光源86からの光のうち、透過状態の画素Pixを透過した光を平行化レンズ83に向けて出射する。また、液晶パネル50は、非透過状態の画素Pixでは、光源86からの光を遮光し、平行化レンズ83に向けて出射しない。
 平行化レンズ83は、光学センサ10の複数のフォトダイオード30(図3参照)と液晶パネル50との間に配置され、平行光Lを複数のフォトダイオード30に向けて出射する。
 図17は、図16とは異なる検出期間での検出装置を模式的に示す断面図である。図16及び図17に示すように、液晶パネル50は、複数の画素Pixのうち、少なくとも1つの画素Pixを透過状態とし、他の画素Pixを非透過状態とする。そして、液晶パネル50は、検出期間ごとに透過状態の画素Pixを順次、走査する。光学センサ10の複数のフォトダイオード30は、透過状態の画素Pixを透過した光に対応した検出信号Vdet(センサ値So)を、検出期間ごとに順次出力する。
 例えば、図16に示す例では、液晶パネル50は、中央に位置する画素Pix-1を透過状態とし、他の画素Pixを非透過状態とする。光源86からの光は、液晶パネル50の透過状態の画素Pix-1を透過する。液晶パネル50の透過状態の画素Pix-1から出射された光は、平行化レンズ83により平行光Lとされ、平行光Lは光学センサ10の複数のフォトダイオード30に向けて照射される。図16では、平行光Lは光学センサ10に対して実質的に垂直な方向に進行する。平行光Lの一部は、被検出体100を透過して光学センサ10の複数のフォトダイオード30に入射する。
 図17に示す例では、液晶パネル50は、画素Pix-1に隣り合う画素Pix-2を透過状態とし、他の画素Pixを非透過状態とする。光源86からの光は、液晶パネル50の透過状態の画素Pix-2を透過する。液晶パネル50の透過状態の画素Pix-2から出射された光は、平行化レンズ83により平行光Lとされ、平行光Lは光学センサ10の複数のフォトダイオード30に向けて照射される。図17では、平行光Lは光学センサ10に対して傾斜する方向に進行する。平行光Lの一部は、被検出体100を透過して光学センサ10の複数のフォトダイオード30に入射する。
 本実施形態において、平行化レンズ83は、透過状態の画素Pixの位置に応じて光の出射角度が異なる。これにより、第1実施形態と同様に、図17に示す平行光Lの進行方向が図16に示す平行光Lの進行方向に対して異なるので、被検出体100を透過した平行光Lの、光学センサ10への投影位置のずれが生じる。したがって、液晶パネル50が透過状態の画素Pixを順次走査すると、透過状態の画素Pixの位置ごとに光学センサ10で撮像される被検出体100の複数の画像の位置ずれが生じる。検出装置1Aは、上述した第1実施形態と同様に、位置ずれを有する複数の画像を合成することで超解像画像AXを生成することができる。
 図18は、第2実施形態に係る液晶パネルを模式的に示す断面図である。図18に示すように、液晶パネル50は、例えば、アレイ基板SUB1と、対向基板SUB2と、液晶層LCと、を備える。対向基板SUB2は、アレイ基板SUB1と対向して配置される。液晶層LCはアレイ基板SUB1と対向基板SUB2との間に封止される。
 アレイ基板SUB1は、第1絶縁基板51と、回路形成層52と、共通電極53と、絶縁膜54と、画素電極55と、下配向膜56と、を有する。第3方向Dzで、第1絶縁基板51の上に、回路形成層52、共通電極53、絶縁膜54、画素電極55、下配向膜56の順に積層される。
 第1絶縁基板51は、透光性を有するガラス基板あるいはフィルム基板である。回路形成層52は、画素Pixのトランジスタや、各種配線を含む画素回路が形成される層である。共通電極53は、所定の定電位が与えられる電極である。絶縁膜54は、共通電極53と画素電極55とを絶縁する。画素電極55は、画素Pixごとに設けられ、それぞれの電位が個別に制御される。下配向膜56は画素電極55及び絶縁膜54を覆って設けられる。
 対向基板SUB2は、第2絶縁基板59と、上配向膜58と、を有する。上配向膜58は、第2絶縁基板59の第1絶縁基板51と対向する面に設けられる。上配向膜58は、対向基板SUB2の液晶層LC側の表面となる。本実施形態では、アレイ基板SUB1及び対向基板SUB2にカラーフィルタは設けられない。すなわち、液晶パネル50は、モノクロの光をフォトダイオード30に向けて出射する。
 なお、図18では図示を省略しているが、第1絶縁基板51の外面及び第2絶縁基板59の外面にそれぞれ、偏光板を含む光学素子が設けられる。1対の偏光板のそれぞれの偏光軸は、平面視においてクロスニコルの位置関係にある。また、対向基板SUB2は、必要に応じてカラーフィルタや遮光膜が設けられていてもよい。
 液晶層LCは、通過する光を電界の状態に応じて変調するものであり、例えば、FFS(Fringe Field Switching:フリンジフィールドスイッチング)を含むIPS(In-Plane Switching:インプレーンスイッチング)等の横電界モードの液晶が用いられる。本実施形態では、アレイ基板に設けられた画素電極55と共通電極53との間に発生する横電界により、液晶層LCが駆動され、液晶層LCが有する液晶分子57の配向が制御される。
 ただしこの態様に限られず、液晶パネル50は、縦電界型であってもよい。この場合、画素電極はアレイ基板SUB1に設けられ、共通電極は対向基板SUB2に設けられる。縦電界型の液晶パネルは、いわゆる縦電界が液晶層に印加される、TN(Twisted Nematic:ツイステッドネマティック)、VA(Vertical Alignment:垂直配向)及びECB(Electrically Controlled Birefringence:電界制御複屈折)等がある。
 以上、本発明の好適な実施の形態を説明したが、本発明はこのような実施の形態に限定されるものではない。実施の形態で開示された内容はあくまで一例にすぎず、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。本発明の趣旨を逸脱しない範囲で行われた適宜の変更についても、当然に本発明の技術的範囲に属する。上述した各実施形態及び各変形例の要旨を逸脱しない範囲で、構成要素の種々の省略、置換及び変更のうち少なくとも1つを行うことができる。
 1、1A 検出装置
 2、84 アレイ基板
 3 センサ画素
 10 光学センサ
 11 検出制御回路
 12 発光素子制御回路
 21 基板
 30 フォトダイオード
 50 液晶パネル
 70 ホストIC
 71 センサ値記憶回路
 73 補正値生成回路
 76 画像生成回路
 77 画像処理回路
 80、80A 平行光生成部
 81、86 光源
 82 配光レンズ
 83 平行化レンズ
 85、88 発光素子
 90、90A 基準マーカー
 100 被検出体
 101 ステージ
 Pix、Pix-1、Pix-2 画素

Claims (11)

  1.  基板に設けられた複数のフォトダイオードと、
     複数の前記フォトダイオードと対向して配置された複数の光出射部と、
     複数の前記フォトダイオードと前記光出射部との間に配置され、平行光を複数の前記フォトダイオードに向けて出射する平行化レンズと、を有し、
     複数の前記光出射部のうち、少なくとも1つの前記光出射部を点灯状態とし、他の前記光出射部を非点灯状態とし、
     前記平行化レンズは、点灯状態の前記光出射部の位置に応じて前記平行光の出射角度が異なる
     検出装置。
  2.  前記基板に垂直な方向で、複数の前記フォトダイオードと前記平行化レンズとの間に設けられたステージを有し、
     被検出体は、前記ステージの上に載置される
     請求項1に記載の検出装置。
  3.  複数の前記光出射部は検出期間ごとに順次、点灯状態とし、
     前記フォトダイオードは、点灯状態の前記光出射部の位置に対応した検出信号を、前記検出期間ごとに順次出力する
     請求項1に記載の検出装置。
  4.  前記検出期間ごとに出力された複数の前記検出信号と、前記検出期間ごとの点灯状態の前記光出射部の情報と、に基づいて、前記検出期間ごとの複数の画像を合成して1つの画像を生成する画像処理回路を有する
     請求項3に記載の検出装置。
  5.  平面視での、前記検出期間ごとの複数の画像のずれ量は、複数の前記フォトダイオードの配置ピッチの非整数倍である
     請求項3に記載の検出装置。
  6.  前記光出射部と前記平行化レンズとの間に設けられた配光レンズを有する
     請求項1に記載の検出装置。
  7.  複数の前記フォトダイオードと、前記平行化レンズとの間に、光の透過率が高い第1領域と、前記第1領域よりも光の透過率が低い第2領域とを有する基準マーカーを有する
     請求項1に記載の検出装置。
  8.  平面視で、前記基準マーカーの前記第1領域と前記第2領域とは、第1方向で隣り合って配置され、かつ、前記第1方向と直交する第2方向で隣り合って配置される
     請求項7に記載の検出装置。
  9.  前記基準マーカーと重なる位置の複数の前記フォトダイオードの検出信号に基づいて、点灯状態の前記光出射部の位置ごとの画像のずれ量を検出する
     請求項7に記載の検出装置。
  10.  複数の前記フォトダイオードと対向して配置され、複数の発光素子を有する光源を有し、
     前記光出射部は前記発光素子である
     請求項1に記載の検出装置。
  11.  複数の前記フォトダイオードと対向して配置され、複数の画素を有する液晶パネルを有し、
     前記光出射部は前記画素である
     請求項1に記載の検出装置。
PCT/JP2023/024787 2022-07-15 2023-07-04 検出装置 WO2024014356A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022113828 2022-07-15
JP2022-113828 2022-07-15

Publications (1)

Publication Number Publication Date
WO2024014356A1 true WO2024014356A1 (ja) 2024-01-18

Family

ID=89536619

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/024787 WO2024014356A1 (ja) 2022-07-15 2023-07-04 検出装置

Country Status (1)

Country Link
WO (1) WO2024014356A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0799297A (ja) * 1993-09-27 1995-04-11 Canon Inc 固体撮像装置
US20200057145A1 (en) * 2018-08-15 2020-02-20 Stmicroelectronics (Research & Development) Limited Apparatus
US20210112187A1 (en) * 2017-03-24 2021-04-15 Nanjing University Of Science And Technology High-illumination numerical aperture-based large field-of-view high-resolution microimaging device and a method for iterative reconstruction

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0799297A (ja) * 1993-09-27 1995-04-11 Canon Inc 固体撮像装置
US20210112187A1 (en) * 2017-03-24 2021-04-15 Nanjing University Of Science And Technology High-illumination numerical aperture-based large field-of-view high-resolution microimaging device and a method for iterative reconstruction
US20200057145A1 (en) * 2018-08-15 2020-02-20 Stmicroelectronics (Research & Development) Limited Apparatus

Similar Documents

Publication Publication Date Title
CN108604296B (zh) 发光指纹识别面板及包括其的指纹识别显示装置
CN110289288B (zh) 有机发光二极管显示装置
KR101818423B1 (ko) 유기발광 표시장치
TWI396899B (zh) 液晶顯示器
KR101598222B1 (ko) 액정 표시 장치 및 그 제조 방법
JP2009139597A (ja) 表示装置
JP7320970B2 (ja) 表示装置
CN110972506B (zh) 显示面板及其操作方法
US11747665B2 (en) Display device
US20120074406A1 (en) Photosensor
JP7111793B2 (ja) 画素アレイ基板およびこれを備えるディスプレイ装置
WO2020226021A1 (ja) 検出装置
US11966112B2 (en) Detection apparatus
WO2024014356A1 (ja) 検出装置
US11579480B2 (en) Display device
WO2024014353A1 (ja) 検出装置
JP2022107203A (ja) 液晶表示装置
US11874572B2 (en) Electronic device
US20240071327A1 (en) Liquid crystal displays with optical sensors
US11709402B2 (en) Display device comprising a sensor located between a base and a liquid crystal layer and that outputs a detection signal corresponding to incident light
JP2023005488A (ja) 表示装置
JP2022146394A (ja) 表示装置
US20230178574A1 (en) Detection device
US20220238578A1 (en) Detection device
JP2024032250A (ja) 光学センサ付き液晶表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23839528

Country of ref document: EP

Kind code of ref document: A1