WO2020213621A1 - 検出装置 - Google Patents

検出装置 Download PDF

Info

Publication number
WO2020213621A1
WO2020213621A1 PCT/JP2020/016504 JP2020016504W WO2020213621A1 WO 2020213621 A1 WO2020213621 A1 WO 2020213621A1 JP 2020016504 W JP2020016504 W JP 2020016504W WO 2020213621 A1 WO2020213621 A1 WO 2020213621A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection
output
signal
photodiode
period
Prior art date
Application number
PCT/JP2020/016504
Other languages
English (en)
French (fr)
Inventor
卓 中村
真 内田
多田 正浩
真里奈 望月
加藤 博文
昭雄 瀧本
隆夫 染谷
知之 横田
Original Assignee
株式会社ジャパンディスプレイ
国立大学法人東京大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ジャパンディスプレイ, 国立大学法人東京大学 filed Critical 株式会社ジャパンディスプレイ
Priority to JP2021514183A priority Critical patent/JP7255818B2/ja
Priority to DE112020001263.8T priority patent/DE112020001263T5/de
Priority to CN202080028822.4A priority patent/CN113711376A/zh
Publication of WO2020213621A1 publication Critical patent/WO2020213621A1/ja
Priority to US17/500,329 priority patent/US20220037410A1/en
Priority to JP2023043797A priority patent/JP2023083277A/ja

Links

Images

Classifications

    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K39/00Integrated devices, or assemblies of multiple devices, comprising at least one organic radiation-sensitive element covered by group H10K30/00
    • H10K39/30Devices controlled by radiation
    • H10K39/32Organic image sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1172Identification of persons based on the shapes or appearances of their bodies or parts thereof using fingerprinting
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/0261Measuring blood flow using optical means, e.g. infrared light
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6825Hand
    • A61B5/6826Finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1306Sensors therefor non-optical, e.g. ultrasonic or capacitive sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1318Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L29/00Semiconductor devices adapted for rectifying, amplifying, oscillating or switching, or capacitors or resistors with at least one potential-jump barrier or surface barrier, e.g. PN junction depletion layer or carrier concentration layer; Details of semiconductor bodies or of electrodes thereof  ; Multistep manufacturing processes therefor
    • H01L29/66Types of semiconductor device ; Multistep manufacturing processes therefor
    • H01L29/68Types of semiconductor device ; Multistep manufacturing processes therefor controllable by only the electric current supplied, or only the electric potential applied, to an electrode which does not carry the current to be rectified, amplified or switched
    • H01L29/76Unipolar devices, e.g. field effect transistors
    • H01L29/772Field effect transistors
    • H01L29/78Field effect transistors with field effect produced by an insulated gate
    • H01L29/786Thin film transistors, i.e. transistors with a channel being at least partly a thin film
    • H01L29/78645Thin film transistors, i.e. transistors with a channel being at least partly a thin film with multiple gate
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/08Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors
    • H01L31/10Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors characterised by at least one potential-jump barrier or surface barrier, e.g. phototransistors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/12Healthy persons not otherwise provided for, e.g. subjects of a marketing survey
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/12Manufacturing methods specially adapted for producing sensors for in-vivo measurements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • A61B5/02108Measuring pressure in heart or blood vessels from analysis of pulse wave characteristics
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K30/00Organic devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E10/00Energy generation through renewable energy sources
    • Y02E10/50Photovoltaic [PV] energy
    • Y02E10/549Organic PV cells

Definitions

  • the present invention relates to a detection device.
  • Patent Document 1 An optical sensor capable of detecting a fingerprint pattern or a vein pattern is known (for example, Patent Document 1).
  • An object of the present invention is to provide a detection device capable of providing a configuration for shading a thin film transistor with fewer manufacturing steps.
  • the detection device of one aspect of the present invention includes a photodiode and a thin film transistor that opens and closes the output path of the photodiode.
  • the thin film transistor includes a semiconductor layer laminated on the photodiode side with respect to the light shielding layer and the semiconductor layer. A position including an electrode layer laminated between the semiconductor layer and the photodiode to form a source electrode and a drain electrode of the thin film transistor, the source electrode facing the light-shielding layer with the semiconductor layer interposed therebetween. Extend to.
  • FIG. 1 is a plan view showing a detection device according to the first embodiment.
  • FIG. 2 is a block diagram showing a configuration example of the detection device according to the first embodiment.
  • FIG. 3 is a circuit diagram showing a detection device.
  • FIG. 4 is a circuit diagram showing a plurality of partial detection regions.
  • FIG. 5A is an enlarged schematic configuration diagram of the sensor unit.
  • FIG. 5B is a cross-sectional view taken along the line QQ of FIG. 5A.
  • FIG. 6 is a graph schematically showing the relationship between the wavelength of light incident on the photodiode and the conversion efficiency.
  • FIG. 7 is a timing waveform diagram showing an operation example of the detection device.
  • FIG. 8 is a timing waveform diagram showing an operation example of the read period in FIG. 7.
  • FIG. 7 is a timing waveform diagram showing an operation example of the detection device.
  • FIG. 8 is a timing waveform diagram showing an operation example of the read period in FIG. 7.
  • FIG. 7 is a
  • FIG. 9 is an explanatory diagram for explaining the relationship between the driving of the sensor unit of the detection device and the lighting operation of the light source.
  • FIG. 10 is an explanatory diagram for explaining the relationship between the driving of the sensor unit and the lighting operation of the light source according to the first modification of the first embodiment.
  • FIG. 11 is a side view schematically showing the relationship between the sensor unit and the first light source and the second light source of the detection device according to the first embodiment.
  • FIG. 12 is a side view schematically showing the relationship between the sensor unit and the first light source and the second light source of the detection device according to the first embodiment.
  • FIG. 13 is a schematic view showing an example of the positional relationship between the second light source, the sensor unit, and the blood vessel in the finger.
  • FIG. 14 is a schematic view showing a plurality of positions in the photodiode exemplarily set when a planar detection region formed by a plurality of photodiodes provided so as to face a finger is viewed in a plan view. ..
  • FIG. 15 is a graph showing an example of time-dependent changes in the detection signals acquired at the plurality of positions shown in FIG.
  • FIG. 16 is a time chart for explaining the relationship between the predetermined period and the output from the photodiode specified by the focus process.
  • FIG. 17 is a flowchart showing an example of a processing flow related to output of pulse wave data in the first embodiment.
  • FIG. 18 is a schematic diagram for explaining acquisition control of pulse wave data in a group area unit.
  • FIG. 19 is a schematic diagram for explaining acquisition control of pulse wave data in a group area unit.
  • FIG. 20 is an explanatory diagram showing an example of an averaging process of outputs from a plurality of partial detection regions.
  • FIG. 21 is a flowchart showing an example of a processing flow related to the output of pulse wave data in the second embodiment.
  • FIG. 22 is a flowchart showing an example of a processing flow related to output of pulse wave data in the third and fourth embodiments.
  • FIG. 23 is a flowchart showing an example of the flow of the initial processing of FIG. 22.
  • FIG. 24 is a flowchart showing an example of the flow of the misalignment handling process of FIG. 22 in the third embodiment.
  • FIG. 25 is a flowchart showing an example of the flow of the misalignment handling process of FIG. 22 in the modified example of the third embodiment.
  • FIG. 26 is a flowchart showing an example of the flow of the misalignment handling process of FIG. 22 in the fourth embodiment.
  • FIG. 27 is a flowchart showing an example of the flow of the misalignment handling process of FIG. 22 in the modified example of the fourth embodiment.
  • FIG. 28 is a schematic view showing a main configuration example of a detection device in a form that can be worn on the wrist.
  • FIG. 29 is a schematic view showing an example of detecting a blood vessel by the detection device shown in FIG. 28.
  • FIG. 30 is a diagram showing a configuration example in which a lens is provided between a finger and a sensor unit.
  • FIG. 31 is a schematic view showing a main configuration example of a mutual capacitance type sensor.
  • FIG. 32 is a schematic view showing a main configuration example of the self-capacitance type sensor.
  • FIG. 33 is a diagram showing an arrangement example of the sensor unit of the detection device mounted on the bandana.
  • FIG. 34 is a diagram showing an arrangement example of the sensor unit of the detection device mounted on the clothes.
  • FIG. 35 is a diagram showing an arrangement example of the sensor unit of the detection device mounted on the adhesive sheet.
  • FIG. 1 is a plan view showing a detection device according to the first embodiment.
  • the detection device 1 includes a sensor base material 21, a sensor unit 10, a gate line drive circuit 15, a signal line selection circuit 16, a detection circuit 48, a control circuit 122, and a power supply circuit 123.
  • the control board 121 is electrically connected to the sensor base material 21 via the flexible printed circuit board 71.
  • the flexible printed circuit board 71 is provided with a detection circuit 48.
  • the control board 121 is provided with a control circuit 122 and a power supply circuit 123.
  • the control circuit 122 is, for example, an FPGA (Field Programmable Gate Array).
  • the control circuit 122 supplies a control signal to the sensor unit 10, the gate line drive circuit 15, and the signal line selection circuit 16 to control the detection operation of the sensor unit 10. Further, the control circuit 122 supplies a control signal to the first light source 61 and the second light source 62 to control the lighting or non-lighting of the first light source 61 and the second light source 62.
  • the power supply circuit 123 supplies a voltage signal such as a sensor power supply signal VDDSNS (see FIG. 4) to the sensor unit 10, the gate line drive circuit 15, and the signal line selection circuit 16. Further, the power supply circuit 123 supplies the power supply voltage to the first light source 61 and the second light source 62.
  • VDDSNS sensor power supply signal
  • the sensor base material 21 has a detection region AA and a peripheral region GA.
  • the detection area AA is an area provided with a plurality of photodiode PDs (see FIG. 4) included in the sensor unit 10.
  • the peripheral region GA is a region between the outer circumference of the detection region AA and the end portion of the sensor base material 21, and is a region that does not overlap with the photodiode PD.
  • the gate line drive circuit 15 and the signal line selection circuit 16 are provided in the peripheral region GA. Specifically, the gate line drive circuit 15 is provided in a region extending along the second direction Dy in the peripheral region GA.
  • the signal line selection circuit 16 is provided in a region extending along the first direction Dx in the peripheral region GA, and is provided between the sensor unit 10 and the detection circuit 48.
  • the first direction Dx is one direction in a plane parallel to the sensor base material 21.
  • the second direction Dy is one direction in a plane parallel to the sensor base material 21, and is a direction orthogonal to the first direction Dx.
  • the second direction Dy may intersect with the first direction Dx without being orthogonal to each other.
  • the third direction Dz is a direction orthogonal to the first direction Dx and the second direction Dy, and is a normal direction of the sensor base material 21.
  • the plurality of first light sources 61 are provided on the first light source base material 51 and are arranged along the second direction Dy.
  • the plurality of second light sources 62 are provided on the second light source base material 52 and are arranged along the second direction Dy.
  • the first light source base material 51 and the second light source base material 52 are electrically connected to the control circuit 122 and the power supply circuit 123 via the terminal portions 124 and 125 provided on the control board 121, respectively.
  • the plurality of first light sources 61 and the plurality of second light sources 62 for example, an inorganic LED (Light Emitting Diode), an organic EL (OLED: Organic Light Emitting Diode), or the like is used.
  • the plurality of first light sources 61 and the plurality of second light sources 62 emit first light L61 and second light L62 (see FIG. 11 and the like) having different wavelengths, respectively.
  • the first light L61 and the second light L62 have different emission maximum wavelengths.
  • the maximum emission wavelength is a wavelength that exhibits the maximum emission intensity in the emission spectrum showing the relationship between the respective wavelengths of the first light L61 and the second light L62 and the emission intensity.
  • the numerical value of the wavelength is simply described, it shall indicate the assumed maximum emission wavelength.
  • the first light L61 emitted from the first light source 61 is mainly reflected by the surface of the object to be detected such as a finger Fg and is incident on the sensor unit 10.
  • the sensor unit 10 can detect the fingerprint by detecting the shape of the uneven surface of the finger Fg or the like.
  • the second light L62 emitted from the second light source 62 is mainly reflected inside the finger Fg or the like or transmitted through the finger Fg or the like and is incident on the sensor unit 10.
  • the sensor unit 10 can detect information about the internal living body such as the finger Fg.
  • the information about the living body is, for example, a finger Fg, a pulse wave of the palm, a pulse, a blood vessel image, or the like.
  • the first light L61 may have a wavelength of 520 nm or more and 600 nm or less, for example, about 500 nm
  • the second light L62 may have a wavelength of 780 nm or more and 900 nm or less, for example, about 850 nm.
  • the first light L61 is blue or green visible light
  • the second light L62 is infrared light.
  • the sensor unit 10 can detect a fingerprint based on the first light L61 emitted from the first light source 61.
  • the second light L62 emitted from the second light source 62 is reflected inside the object to be detected such as the finger Fg or is transmitted / absorbed by the finger Fg or the like and is incident on the sensor unit 10.
  • the sensor unit 10 can detect a pulse wave or a blood vessel image (blood vessel pattern) as information about an internal living body such as a finger Fg.
  • the first light L61 may have a wavelength of 600 nm or more and 700 nm or less, for example, about 660 nm
  • the second light L62 may have a wavelength of 780 nm or more and 900 nm or less, for example, about 850 nm.
  • the sensor unit 10 adds the pulse and blood vessel images as information about the living body. Blood oxygen saturation can be detected.
  • the detection device 1 since the detection device 1 has the first light source 61 and the plurality of second light sources 62, the detection device 1 can perform the detection based on the first light L61 and the detection based on the second light L62. , Information about various living bodies can be detected.
  • the arrangement of the first light source 61 and the second light source 62 shown in FIG. 1 is merely an example and can be changed as appropriate.
  • a plurality of first light sources 61 and a plurality of second light sources 62 may be arranged on each of the first light source base material 51 and the second light source base material 52.
  • the group including the plurality of first light sources 61 and the group including the plurality of second light sources 62 may be arranged side by side in the second direction Dy, or the first light source 61 and the second light source 62 may be arranged side by side. And may be alternately arranged in the second direction Dy.
  • the number of light source base materials provided with the first light source 61 and the second light source 62 may be one or three or more.
  • FIG. 2 is a block diagram showing a configuration example of the detection device according to the first embodiment.
  • the detection device 1 further includes a detection control unit 11 and a detection unit 40.
  • a part or all of the functions of the detection control unit 11 are included in the control circuit 122.
  • a part or all of the functions other than the detection circuit 48 are included in the control circuit 122.
  • the sensor unit 10 is an optical sensor having a photodiode PD which is a photoelectric conversion element.
  • the photodiode PD included in the sensor unit 10 outputs an electric signal corresponding to the emitted light to the signal line selection circuit 16.
  • the signal line selection circuit 16 sequentially selects the signal line SGL according to the selection signal ASW from the detection control unit 11. As a result, the electric signal is output to the detection unit 40 as a detection signal Vdet. Further, the sensor unit 10 performs detection according to the gate drive signal Vgcl supplied from the gate line drive circuit 15.
  • the detection control unit 11 is a circuit that supplies control signals to the gate line drive circuit 15, the signal line selection circuit 16, and the detection unit 40, respectively, and controls their operations.
  • the detection control unit 11 supplies various control signals such as a start signal STV, a clock signal CK, and a reset signal RST1 to the gate line drive circuit 15. Further, the detection control unit 11 supplies various control signals such as the selection signal ASW to the signal line selection circuit 16. Further, the detection control unit 11 supplies various control signals to the first light source 61 and the second light source 62 to control the lighting and non-lighting of each.
  • the gate line drive circuit 15 is a circuit that drives a plurality of gate line GCLs (see FIG. 3) based on various control signals.
  • the gate line drive circuit 15 sequentially or simultaneously selects a plurality of gate line GCLs and supplies a gate drive signal Vgcl to the selected gate line GCLs. As a result, the gate line drive circuit 15 selects a plurality of photodiodes PD connected to the gate line GCL.
  • the signal line selection circuit 16 is a switch circuit that sequentially or simultaneously selects a plurality of signal line SGLs (see FIG. 3).
  • the signal line selection circuit 16 is, for example, a multiplexer.
  • the signal line selection circuit 16 connects the selected signal line SGL and the detection circuit 48 based on the selection signal ASW supplied from the detection control unit 11. As a result, the signal line selection circuit 16 outputs the detection signal Vdet of the photodiode PD to the detection unit 40.
  • the detection unit 40 includes a detection circuit 48, a signal processing unit 44, a coordinate extraction unit 45, a storage unit 46, a detection timing control unit 47, an image processing unit 49, and an output processing unit 50.
  • the detection timing control unit 47 operates in synchronization with the detection circuit 48, the signal processing unit 44, the coordinate extraction unit 45, and the image processing unit 49 based on the control signal supplied from the detection control unit 11. To control.
  • the detection circuit 48 is, for example, an analog front end circuit (AFE, Analog Front End).
  • the detection circuit 48 is, for example, a signal processing circuit having the functions of the detection signal amplification unit 42 and the A / D conversion unit 43.
  • the detection signal amplification unit 42 amplifies the detection signal Vdet.
  • the A / D conversion unit 43 converts the analog signal output from the detection signal amplification unit 42 into a digital signal.
  • the signal processing unit 44 is a logic circuit that detects a predetermined physical quantity input to the sensor unit 10 based on the output signal of the detection circuit 48.
  • the signal processing unit 44 can detect the unevenness of the finger Fg or the surface of the palm based on the signal from the detection circuit 48. Further, the signal processing unit 44 can detect information about the living body based on the signal from the detection circuit 48. Information about the living body is, for example, a blood vessel image of a finger Fg or a palm, a pulse wave, a pulse, a blood oxygen saturation, and the like.
  • the photodiode PD detects the amount of light obtained by subtracting the light absorbed by blood (hemoglobin) from the irradiated first light L61 and second light L62. To do. Most of the oxygen in the blood is reversibly bound to hemoglobin in red blood cells, and a small part is dissolved in plasma.
  • oxygen saturation the value of what percentage of oxygen is bound to the blood as a whole is called oxygen saturation (SpO2). It is possible to calculate the blood oxygen saturation from the amount obtained by subtracting the light absorbed by blood (hemoglobin) from the irradiated light at the two wavelengths of the first light L61 and the second light L62.
  • the signal processing unit 44 may acquire the detection signal Vdet (information about the living body) detected simultaneously by the plurality of photodiode PDs and execute a process of averaging them.
  • the detection unit 40 suppresses measurement errors due to noise and the relative positional deviation between the detected object such as the finger Fg and the sensor unit 10, and stable detection is possible.
  • the storage unit 46 temporarily stores the signal calculated by the signal processing unit 44.
  • the storage unit 46 may be, for example, a RAM (Random Access Memory), a register circuit, or the like.
  • the coordinate extraction unit 45 is a logic circuit that obtains the detection coordinates of the unevenness of the surface of the finger or the like when the signal processing unit 44 detects the contact or proximity of the finger. Further, the coordinate extraction unit 45 is a logic circuit for obtaining the detection coordinates of the finger Fg and the blood vessel of the palm.
  • the image processing unit 49 combines the detection signals Vdet output from each photodiode PD of the sensor unit 10 to show two-dimensional information indicating the shape of surface irregularities such as finger Fg and the shape of finger Fg and blood vessels in the palm. Generates two-dimensional information.
  • the coordinate extraction unit 45 and the image processing unit 49 may be omitted.
  • the output processing unit 50 functions as a processing unit that performs processing based on outputs from a plurality of photodiode PDs. Specifically, the output processing unit 50 of the embodiment outputs at least a sensor output Vo including pulse wave data based on the detection signal Vdet acquired through the signal processing unit 44. In the embodiment, the signal processing unit 44 outputs data indicating a change (amplitude) of the output of the detection signal Vdet of each photodiode PD, which will be described later, and the output processing unit 50 determines which output is adopted for the sensor output Vo. Although it is determined, both of them may be performed by the signal processing unit 44 or the output processing unit 50.
  • the output processing unit 50 may include the detection coordinates obtained by the coordinate extraction unit 45, the two-dimensional information generated by the image processing unit 49, and the like in the sensor output Vo. Further, the function of the output processing unit 50 may be integrated into another configuration (for example, the image processing unit 49 or the like).
  • the signal processing unit 44 may provide a noise filter as necessary. ..
  • the frequency component of noise generated by changes in breathing and posture is, for example, 1 Hz or less, which is a frequency sufficiently lower than the frequency component of pulse waves, and therefore can be removed by using a bandpass filter as a noise filter.
  • the bandpass filter can be provided, for example, in the detection signal amplifier 42.
  • the frequency component of noise generated by the movement of the human body is, for example, about several Hz to 100 Hz, and may overlap with the frequency component of the pulse wave.
  • a noise filter that removes the frequency having the fluctuation component is used.
  • a pulse wave may utilize the property that a time lag of a peak value occurs depending on a measurement location of the human body. That is, the pulse wave has a time lag depending on the measurement location of the human body, and the noise generated by the movement of the human body has no time lag, or the time lag is smaller than that of the pulse wave.
  • the pulse wave is measured at at least two different places, and if the peak value measured at a plurality of different places is within a predetermined time, it is removed as noise.
  • the waveform due to noise and the waveform due to the pulse wave accidentally overlap, but in this case, the two waveforms overlap only at one location in multiple different locations, so the waveform due to noise and the pulse wave overlap. It is possible to discriminate the waveform by the wave.
  • This process can be performed, for example, by the signal processing unit 44.
  • the signal processing unit 44 removes the frequency components having different phases.
  • a short-time Fourier transform may be performed to remove the fluctuation component, and an inverse Fourier transform may be performed.
  • commercial frequency power supplies 50Hz, 60Hz
  • noise sources 50Hz, 60Hz
  • noise generated by a commercial frequency power supply may be removed by providing a shield on the surface of the detector opposite to the detection surface.
  • FIG. 3 is a circuit diagram showing a detection device.
  • FIG. 4 is a circuit diagram showing a plurality of partial detection regions. Note that FIG. 4 also shows the circuit configuration of the detection circuit 48.
  • the sensor unit 10 has a plurality of partial detection regions PAA arranged in a matrix. Photodiode PDs are provided in each of the plurality of partial detection regions PAA.
  • the signal line SGL extends in the second direction Dy and is connected to the photodiode PDs of the plurality of partial detection regions PAA arranged in the second direction Dy. Further, the plurality of signal lines SGL (1), SGL (2), ..., SGL (12) are arranged in the first direction Dx and connected to the signal line selection circuit 16 and the reset circuit 17, respectively. In the following description, when it is not necessary to distinguish and explain a plurality of signal lines SGL (1), SGL (2), ..., SGL (12), they are simply referred to as signal lines SGL.
  • the resolution of the sensor is, for example, 508 dpi (dot per inch), and the number of cells is 252 ⁇ 256.
  • a sensor unit 10 is provided between the signal line selection circuit 16 and the reset circuit 17.
  • the signal line selection circuit 16 and the reset circuit 17 may be connected to the ends of the signal line SGL in the same direction, respectively.
  • the effective area of one sensor is, for example, 50 ⁇ 50 um 2, and the area of the detection area AA is, for example, 12.6 ⁇ 12.8 mm 2 .
  • the gate line drive circuit 15 receives various control signals such as a start signal STV, a clock signal CK, and a reset signal RST1 from the control circuit 122 (see FIG. 1).
  • the gate line drive circuit 15 sequentially selects a plurality of gate lines GCL (1), GCL (2), ..., GCL (8) in a time-division manner based on various control signals.
  • the gate line drive circuit 15 supplies the gate drive signal Vgcl to the selected gate line GCL.
  • the gate drive signal Vgcl is supplied to the plurality of first switching elements Tr connected to the gate line GCL, and the plurality of partial detection regions PAA arranged in the first direction Dx are selected as detection targets.
  • the gate line drive circuit 15 may drive a plurality of gate line GCLs in a bundle.
  • the gate line drive circuit 15 simultaneously selects a predetermined number of gate line GCLs among the gate lines GCL (1), GCL (2), ..., GCL (8) based on the control signal. May be good.
  • the gate line drive circuit 15 simultaneously selects the gate line GCL (6) from the six gate line GCL (1) and supplies the gate drive signal Vgcl.
  • the gate line drive circuit 15 supplies a gate drive signal Vgcl to a plurality of first switching elements Tr via the six selected gate line GCLs.
  • the group regions PAG1 and PAG2 including the plurality of partial detection regions PAA arranged in the first direction Dx and the second direction Dy are selected as detection targets, respectively.
  • the gate line drive circuit 15 bundles and drives a predetermined number of gate line GCLs, and sequentially supplies a gate drive signal Vgcl for each of a predetermined number of gate line GCLs.
  • group region PAG when the positions of different group regions such as the detection region position groups PAG1 and PAG2 are not particularly distinguished, they are described as group region PAG.
  • the signal line selection circuit 16 has a plurality of selection signal lines Lsel, a plurality of output signal lines Lout, and a third switching element TrS.
  • the plurality of third switching elements TrS are each provided corresponding to the plurality of signal lines SGL.
  • the six signal lines SGL (1), SGL (2), ..., SGL (6) are connected to the common output signal line Lout1.
  • the six signal lines SGL (7), SGL (8), ..., SGL (12) are connected to the common output signal line Lout2.
  • the output signal lines Lout1 and Lout2 are connected to the detection circuit 48, respectively.
  • the signal lines SGL (1), SGL (2), ..., SGL (6) are used as the first signal line block, and the signal lines SGL (7), SGL (8), ..., SGL (12) are second. It is a signal line block.
  • the plurality of selection signal lines Lsel are connected to the gates of the third switching element TrS included in one signal line block. Further, one selection signal line Lsel is connected to the gate of the third switching element TrS of the plurality of signal line blocks.
  • the selection signal lines Lsel1, Lsel2, ..., Lsel6 are connected to the third switching element TrS corresponding to the signal lines SGL (1), SGL (2), ..., SGL (6), respectively.
  • the selection signal line Lsel1 is connected to a third switching element TrS corresponding to the signal line SGL (1) and a third switching element TrS corresponding to the signal line SGL (7).
  • the selection signal line Lsel2 is connected to a third switching element TrS corresponding to the signal line SGL (2) and a third switching element TrS corresponding to the signal line SGL (8).
  • the control circuit 122 (see FIG. 1) sequentially supplies the selection signal ASW to the selection signal line Lsel.
  • the signal line selection circuit 16 sequentially selects the signal line SGL in one signal line block in a time-division manner by the operation of the third switching element TrS. Further, the signal line selection circuit 16 selects one signal line SGL for each of the plurality of signal line blocks.
  • the detection device 1 can reduce the number of ICs (Integrated Circuits) including the detection circuit 48 or the number of terminals of the ICs.
  • the signal line selection circuit 16 may bundle a plurality of signal line SGLs and connect them to the detection circuit 48.
  • the control circuit 122 (see FIG. 1) simultaneously supplies the selection signal ASW to the selection signal line Lsel.
  • the signal line selection circuit 16 selects a plurality of signal line SGLs (for example, six signal line SGLs) in one signal line block by the operation of the third switching element TrS, and detects the plurality of signal line SGLs. It is connected to the circuit 48.
  • the signal detected in each group area PAG is output to the detection circuit 48.
  • the signals from the plurality of partial detection regions PAA photodiode PD) are integrated and output to the detection circuit 48 in units of the group region PAG.
  • the gate line drive circuit 15 and the signal line selection circuit 16 By operating the gate line drive circuit 15 and the signal line selection circuit 16 to perform detection for each group region PAG, the strength of the detection signal Vdet obtained by one detection is improved, so that the sensor sensitivity can be improved. .. In addition, the time required for detection can be shortened. Therefore, since the detection device 1 can repeatedly execute the detection in a short time, the S / N ratio can be improved, and the temporal change of the information about the living body such as the pulse wave can be accurately detected. can do.
  • the reset circuit 17 includes a reference signal line Lvr, a reset signal line Lrst, and a fourth switching element TrR.
  • the fourth switching element TrR is provided corresponding to a plurality of signal lines SGL.
  • the reference signal line Lvr is connected to one of the source or drain of the plurality of fourth switching elements TrR.
  • the reset signal line Lrst is connected to the gates of a plurality of fourth switching elements TrR.
  • the control circuit 122 supplies the reset signal RST2 to the reset signal line Lrst.
  • the plurality of fourth switching elements TrR are turned on, and the plurality of signal lines SGL are electrically connected to the reference signal line Lvr.
  • the power supply circuit 123 supplies the reference signal COM to the reference signal line Lvr.
  • the reference signal COM is supplied to the capacitive element Ca (see FIG. 4) included in the plurality of partial detection regions PAA.
  • the partial detection region PAA includes a photodiode PD, a capacitive element Ca, and a first switching element Tr.
  • FIG. 4 shows two gate lines GCL (m) and GCL (m + 1) arranged in the second direction Dy among the plurality of gate lines GCL. Further, among the plurality of signal lines SGL, two signal lines SGL (n) and SGL (n + 1) arranged in the first direction Dx are shown.
  • the partial detection region PAA is a region surrounded by the gate line GCL and the signal line SGL.
  • the first switching element Tr is provided corresponding to the photodiode PD.
  • the first switching element Tr is composed of a thin film transistor, and in this example, it is composed of an n-channel MOS (Metal Oxide Semiconductor) type TFT (Thin Film Transistor).
  • MOS Metal Oxide Semiconductor
  • the gate of the first switching element Tr belonging to a plurality of partial detection regions PAA arranged in the first direction Dx is connected to the gate line GCL.
  • the sources of the first switching element Tr belonging to the plurality of partial detection regions PAA arranged in the second direction Dy are connected to the signal line SGL.
  • the drain of the first switching element Tr is connected to the cathode of the photodiode PD and the capacitive element Ca.
  • the sensor power signal VDDSNS is supplied from the power supply circuit 123 to the anode of the photodiode PD. Further, the signal line SGL and the capacitance element Ca are supplied with a reference signal COM which is an initial potential of the signal line SGL and the capacitance element Ca from the power supply circuit 123.
  • the detection device 1 can detect a signal according to the amount of light emitted to the photodiode PD for each partial detection region PAA or for each group region PAG.
  • the detection circuit 48 is connected to the signal line SGL when the switch SSW is turned on during the read period Pdet (see FIG. 7).
  • the detection signal amplification unit 42 of the detection circuit 48 converts the fluctuation of the current supplied from the signal line SGL into the fluctuation of the voltage and amplifies it.
  • a reference potential (Vref) having a fixed potential is input to the non-inverting input unit (+) of the detection signal amplification unit 42, and a signal line SGL is connected to the inverting input terminal (-).
  • the same signal as the reference signal COM is input as the reference potential (Vref).
  • the detection signal amplification unit 42 has a capacitance element Cb and a reset switch RSW. In the reset period Prst (see FIG. 7), the reset switch RSW is turned on and the charge of the capacitive element Cb is reset.
  • FIG. 5A is an enlarged schematic configuration diagram of the sensor unit 10.
  • FIG. 5B is a cross-sectional view taken along the line QQ of FIG. 5A.
  • a backplane BP containing LTPS (Low Temperature Poly Silicon) 22 was formed on the undercoat 26, the light-shielding layer 27, and the insulator laminated on the polyimide 25 formed on the glass substrate 21.
  • the thickness of the polyimide 25 is, for example, 10 ⁇ m.
  • the device for forming the backplane BP is peeled from the glass substrate by LLO (Laser lift off) after all the processes for forming the backplane BP are completed.
  • the backplane BP functions as the first switching element Tr.
  • LTPS22 is adopted as the semiconductor layer, but the present invention is not limited to this, and other semiconductors such as amorphous silicon may be used.
  • Each first switching element Tr is composed of a double gate TFT in which two NMOS transistors are directly connected.
  • the NMOS has, for example, a channel length of 4.5 ⁇ m, a channel width of 2.5 ⁇ m, and a mobility of about 40 to 70 cm 2 / Vs.
  • a film is formed using four materials of silicon monoxide (SiO), silicon nitride (SiN), SiO, and amorphous silicon (a-Si), and then a- Si is crystallized to form polysilicon.
  • the circuit of the surrounding driver portion is formed by a CMOS (Complementary MOS) circuit composed of a MOSFET transistor and an NMOS transistor.
  • CMOS Complementary MOS
  • the NMOS transistor has, for example, a channel length of 4.5 ⁇ m, a channel width of 3.5 ⁇ m, and a mobility of about 40 to 70 cm 2 / Vs.
  • the NMOS transistor has, for example, a channel length of 4.5 ⁇ m, a channel width of 2.5 ⁇ m, and a mobility of about 40 to 70 cm 2 / Vs, as described above.
  • the electrodes of the NMOS and the NMOS were formed by doping with boron (B) and phosphorus (Phosphorus: P).
  • SiO is formed as the insulating film 23a
  • MoW molybdenum tungsten alloy
  • the thickness of the insulating film 23a is, for example, 70 nm.
  • the thickness of MoW for forming the gate electrodes GA and GB is, for example, 250 nm.
  • the interlayer film 23b is formed, and the electrode layer 28 for forming the source electrode 28a and the drain electrode 28b is formed.
  • the electrode layer 28 is, for example, an aluminum alloy.
  • Vias V1 and via V2 for connecting the source electrode 28a and the drain electrode 28b to the electrodes of the MOSFET and the NMOS of the LTPS22 formed by doping are formed by dry etching.
  • the insulating film 23a and the intermediate film 23b function as an insulating layer 23 that separates the gate electrodes GA and GB that function as the gate wire GCL from the LTPS 22 and the electrode layer 28.
  • the back plane BP formed in this way is laminated between the LTPS 22 laminated on the photodiode PD side with respect to the light-shielding layer 27, and the source electrode 28a of the first switching element Tr laminated between the LTPS 22 and the photodiode PD. And an electrode layer 28 on which the drain electrode 28b is formed.
  • the source electrode 28a extends to a position facing the light-shielding layer 27 with the LTPS 22 interposed therebetween.
  • a smooth layer 29 having a thickness of 2 ⁇ m is formed in order to form a layer of an organic photodetector on the upper part.
  • a sealing film is further formed on the smooth layer 29.
  • a via V3 for connecting the backplane BP and the photodiode PD is formed by etching.
  • an atmospherically stable inverted structure organic photodiode (OPD) was formed as a photodiode PD on the upper part of the backplane BP.
  • the active layer 31 of the photodiode PD of the sensor unit 10 which is an organic sensor uses a material having sensitivity to near-infrared light (for example, light having a wavelength of 850 nm).
  • ITO Indium Tin Oxide
  • the cathode electrode 35 which is a transparent electrode, and is connected to the backplane BP through the via V3.
  • the work function of the electrode is adjusted by forming a zinc oxide (Zinc Oxide: ZnO) layer 35a on the surface of ITO.
  • organic photodiodes two different devices are manufactured by using different types of organic semiconductor materials as active layers.
  • organic semiconductor materials PMDPP3T (Poly [[2,5-bis (2-hexyldecyl) -2,3,5,6-tetrahydro-3,6-dioxopyrrolo [3,4-c] ] pyrrole-1,4-diyl] -alt- [3', 3''-dimethyl-2,2': 5', 2''-terthiophene] -5,5''-diyl]) and STD-001 Two kinds of materials (Sumitomo Chemical) were used.
  • a bulk heterostructure is realized by mixing each material with phenyl C61 butyric acid methyl ester ([6,6] -Phenyl-C 61- Butyric Acid Methyl Ester: PCBM) to form a film. Further, a polythiophene-based conductive polymer (PEDOT: PSS) and silver (Ag) were formed as the anode electrode 34. Although not shown, the organic photodiode is sealed with a parylene with a thickness of 1 ⁇ m and is made of chrome and gold as a contact pad for connection with a flexible substrate on which an analog front end (AFE) is mounted. (Cr / Au) is formed on the upper part.
  • PEDOT polythiophene-based conductive polymer
  • Ag silver
  • the organic photodiode is sealed with a parylene with a thickness of 1 ⁇ m and is made of chrome and gold as a contact pad for connection with a flexible substrate on which an analog front end (AFE) is mounted.
  • AFE
  • parerin was used as the sealing film, it may be silicon dioxide (SiO2) or silicon oxynitride (SiON).
  • PEDOT: PSS is laminated at 10 nm and Ag is laminated at 80 nm as the anode electrode 34, but the film thickness range may be 10 to 30 nm for PEDOT: PSS and 10 to 100 nm for Ag.
  • MoOx molybdenum oxide
  • Ag aluminum (Al), gold (Au) and the like can be mentioned as alternative materials.
  • ZnO is formed on ITO in the cathode electrode 35, a polymer such as polyethyleneimine (PEI) or ethoxylated PEI (PEI Ethoxylation: PEIE) may be formed on ITO.
  • the photodiode PD produced by the forming process sandwiches the active layer 31, which is an organic material having a photovoltaic effect, the cathode electrode 35 provided on the back plane BP side with the active layer 31 interposed therebetween, and the active layer 31. It includes an anode electrode 34 provided on the opposite side of the cathode electrode 35.
  • the layer of the active layer 31 and the anode electrode with respect to each of the cathode electrodes 35 of the plurality of photodiode PDs (see FIGS. 3, 4, etc.) arranged along the detection surface of the sensor unit 10 provided so as to be able to detect light. Thirty-four layers are continuous along the detection surface (see FIG. 5B). That is, the cathode electrode 35 is provided independently in each photodiode PD, and the active layer 31 and the anode electrode 34 are continuous over the entire detection region AA.
  • FIG. 6 is a graph schematically showing the relationship between the wavelength of light incident on the photodiode and the conversion efficiency.
  • the horizontal axis of the graph shown in FIG. 6 is the wavelength of light incident on the photodiode PD, and the vertical axis is the external quantum efficiency of the photodiode PD.
  • the external quantum efficiency is represented by, for example, the ratio of the number of photons of light incident on the photodiode PD to the current flowing from the photodiode PD to the external detection circuit 48.
  • the photodiode PD has good efficiency in the wavelength band of about 300 nm to 1000 nm. That is, the photodiode PD has sensitivity to the wavelengths of both the first light L61 emitted from the first light source 61 and the second light L62 emitted from the second light source 62. Therefore, one photodiode PD can detect a plurality of lights having different wavelengths.
  • FIG. 7 is a timing waveform diagram showing an operation example of the detection device.
  • the detection device 1 has a reset period Prst, an effective exposure period Pex, and a read period Pdet.
  • the power supply circuit 123 supplies the sensor power supply signal VDDSNS to the anode of the photodiode PD over the reset period Prst, the effective exposure period Pex, and the read period Pdet.
  • the sensor power supply signal VDDSNS is a signal for applying a reverse bias between the anode and the cathode of the photodiode PD.
  • the cathode of the photodiode PD has a reference signal COM of 0.75 V, but by applying the sensor power signal VDDSNS of -1.25 V to the anode, the voltage between the anode and the cathode is 2.0 V. Is reverse biased. Further, when detecting a wavelength of 850 nm, by applying a reverse bias of 2 V, the photodiode PD obtains high sensitivity of 0.5 A / W or more and 0.7 A / W or less, preferably about 0.57 A / W. be able to.
  • the characteristics of the photodiode are that the dark current density is 1.0 ⁇ 10-7 A / cm 2 when a reverse bias of 2 V is applied, and the output is 850 nm, which is 2.9 mW / cm 2 .
  • a photodiode having a photocurrent density of 1.2 ⁇ 10 -3 A / cm 2 is used.
  • the external quantum efficiency (EQE) becomes about 1.0.
  • the control circuit 122 supplies the start signal STV and the clock signal CK to the gate line drive circuit 15 after setting the RST2 signal to “H”, and the reset period Prst starts.
  • the control circuit 122 supplies the reference signal COM to the reset circuit 17, and turns on the fourth switching transistor TrR for supplying the reset voltage by the reset signal RST2.
  • the reference signal COM is supplied to each signal line SGL as a reset voltage.
  • the reference signal COM is, for example, 0.75V.
  • the gate line drive circuit 15 sequentially selects the gate line GCL based on the start signal STV, the clock signal CK, and the reset signal RST1.
  • the gate line drive circuit 15 sequentially supplies the gate drive signals Vgcl ⁇ Vgcl (1) to Vgcl (M) ⁇ to the gate line GCL.
  • the gate drive signal Vgcl has a pulsed waveform having a power supply voltage VDD which is a high level voltage and a power supply voltage VSS which is a low level voltage.
  • the switching element Tr is sequentially conducted for each row, and a reset voltage is supplied. For example, a reference signal COM voltage of 0.75 V is supplied as the reset voltage.
  • the capacitive elements Ca of all the partial detection regions PAA are sequentially electrically connected to the signal line SGL, and the reference signal COM is supplied.
  • the electric charge accumulated in the capacitance of the capacitive element Ca is reset. It is also possible to reset the capacitance of a part of the capacitance element Ca in the partial detection region PAA by partially selecting the gate line and the signal line SGL.
  • Examples of exposure timing include a gate line scanning exposure control method and a constant exposure control method.
  • gate line scanning exposure control method gate drive signals ⁇ Vgcl (1) to (M) ⁇ are sequentially supplied to all gate wire GCLs connected to the photodiode PD to be detected, and all the photos to be detected.
  • a reset voltage is supplied to the diode PD. After that, when all the gate wire GCLs connected to the photodiode PD to be detected become low voltage (the first switching element Tr is turned off), the exposure is started, and the exposure is performed during the effective exposure period Pex.
  • the gate drive signals ⁇ Vgcl (1) to (M) ⁇ are sequentially supplied to the gate line GCL connected to the photodiode PD to be detected as described above, and the reading is performed during the reading period Pdet.
  • the effective exposure period Pex (1) starts after the gate drive signal Vgcl (M) is supplied to the gate line GCL.
  • the effective exposure period Pex ⁇ (1) ... (M) ⁇ is a period during which the photodiode PD charges the capacitance Ca.
  • the start timing and end timing of the actual effective exposure periods Pex (1), ..., Pex (M) in the partial detection region PAA corresponding to each gate line GCL are different.
  • the effective exposure periods Pex (1), ..., Pex (M) are started at the timing when the gate drive signal Vgcl changes from the high level voltage power supply voltage VDD to the low level voltage power supply voltage VSS in the reset period Prst, respectively. ..
  • the effective exposure periods Pex (1), ..., And Pex (M) end at the timing when the gate drive signal Vgcl changes from the power supply voltage VSS to the power supply voltage VDD in the read period Pdet, respectively.
  • the lengths of exposure time of each effective exposure period Pex (1), ..., Pex (M) are equal.
  • the control circuit 122 sets the reset signal RST2 to a low level voltage. As a result, the operation of the reset circuit 17 is stopped.
  • the reset signal may have a high level voltage only during the reset period Prst.
  • the gate line drive circuit 15 sequentially supplies the gate drive signals Vgcl (1), ..., Vgcl (M) to the gate line GCL as in the reset period Prst.
  • the gate line drive circuit 15 supplies the gate line GCL (1) with a gate drive signal Vgcl (1) having a high level voltage (power supply voltage VDD) during the period V (1).
  • the control circuit 122 sequentially supplies the selection signals ASW1, ..., ASW6 to the signal line selection circuit 16 during the period when the gate drive signal Vgcl (1) has a high level voltage (power supply voltage VDD).
  • the signal line SGL of the partial detection region PAA selected by the gate drive signal Vgcl (1) is sequentially or simultaneously connected to the detection circuit 48.
  • the detection signal Vdet is supplied to the detection circuit 48 for each partial detection region PAA.
  • the time from when the gate drive signal Vgcl (1) becomes high level until the supply of the first selection signal ASW1 is started is set to about 20us (substantially 20us) as an example, and each selection signal ASW1 ..., The time for supplying ASW6 is, for example, about 60us (substantially 60us).
  • TFT thin film transistor
  • LTPS low-temperature polysilicon
  • the gate line drive circuit 15 has gate lines GCL (2), ..., GCL (M-1), GCL (M) in the periods V (2), ..., V (M-1), V (M). ) Are supplied with high level voltage gate drive signals Vgcl (2), ..., Vgcl (M-1), and Vgcl (M), respectively. That is, the gate line drive circuit 15 supplies the gate drive signal Vgcl to the gate line GCL for each period V (1), V (2), ..., V (M-1), V (M).
  • the signal line selection circuit 16 sequentially selects the signal line SGL based on the selection signal ASW every period when each gate drive signal Vgcl becomes a high level voltage.
  • the signal line selection circuit 16 is sequentially connected to one detection circuit 48 for each signal line SGL. As a result, during the read period Pdet, the detection device 1 can output the detection signal Vdet of all the partial detection areas PAA to the detection circuit 48.
  • FIG. 8 is a timing waveform diagram showing an operation example of the drive period of one gate line included in the read period Readout in FIG. 7.
  • Vgcl (j) an operation example during the supply period Readout of one gate drive signal Vgcl (j) in FIG. 7 will be described with reference to FIG.
  • the first gate drive signal Vgcl (1) is designated by the supply period Readout, but the same applies to the other gate drive signals Vgcl (2), ..., Vgcl (M).
  • j is a natural number from 1 to M.
  • the output (V out ) of the third switching element TrS is reset to the reference potential (Vref) in advance.
  • the reference potential (Vref) is a reset voltage, for example 0.75V.
  • the gate drive signal Vgcl (j) becomes high level, the first switching transistor Tr of the row is turned on, and the signal line SGL of each row corresponds to the charge accumulated in the capacitance (capacitive element Ca) of the partial detection region PAA. It becomes a voltage.
  • a period t1 elapses from the rise of the gate drive signal Vgcl (j)
  • a period t2 in which the selection signal ASW (k) becomes high occurs.
  • the capacitance (capacitive element Ca) of the partial detection region PAA connected to the detection circuit 48 via the third switching element TrS is charged. Due to the generated electric charge, the output (V out ) of the third switching element TrS (see FIG. 4) changes to a voltage corresponding to the electric charge accumulated in the capacitance (capacitive element Ca) of the partial detection region PAA (period t3). .. In the example of FIG. 8, this voltage is lower than the reset voltage as in the period t3.
  • the electric charge accumulated in the capacitance (capacitive element Ca) of the partial detection region PAA is the capacitance (capacitive element) of the detection signal amplification unit 42 of the detection circuit 48.
  • the electric charge moves to Cb), and the output voltage of the detection signal amplification unit 42 becomes a voltage corresponding to the electric charge accumulated in the capacitive element Cb.
  • the inverting input unit of the detection signal amplification unit 42 becomes the imaginary short potential of the operational amplifier, it returns to the reference potential (Vref).
  • the output voltage of the detection signal amplification unit 42 is read out by the A / D conversion unit 43. In the example of FIG.
  • the electric charge moves from the capacitance of the partial detection region PAA (capacitive element Ca) to the capacitance of the detection signal amplification unit 42 of the detection circuit 48 (capacitive element Cb). ..
  • the non-inverting input (+) of the detection signal amplification unit 42 is biased to the reference potential (Vref) (for example, 0.75 [V]). Therefore, the output (V out ) of the third switching element TrS also becomes the reference potential (Vref) due to the imaginary short circuit between the inputs of the detection signal amplification unit 42.
  • the voltage of the capacitive element Cb becomes a voltage corresponding to the electric charge accumulated in the capacitance (capacitive element Ca) of the partial detection region PAA at the position where the third switching element TrS is turned on according to the selection signal ASW (k). ..
  • the output of the detection signal amplification unit 42 becomes a capacitance corresponding to the voltage of the capacitance element Cb after the output (V out ) of the third switching element TrS becomes the reference potential (Vref) due to the imaginary short circuit, and this output voltage is used.
  • the voltage of the capacitance element Cb is, for example, a voltage between two electrodes provided in the capacitor constituting the capacitance element Cb.
  • the period t1 is, for example, 20 [ ⁇ s].
  • the period t2 is, for example, 60 [ ⁇ s].
  • the period t3 is, for example, 44.7 [ ⁇ s].
  • the period t4 is, for example, 0.98 [ ⁇ s].
  • FIGS. 7 and 8 show an example in which the gate line drive circuit 15 individually selects the gate line GCL, but the present invention is not limited to this.
  • the gate line drive circuit 15 may simultaneously select two or more predetermined number of gate line GCLs and sequentially supply a gate drive signal Vgcl for each predetermined number of gate line GCLs.
  • the signal line selection circuit 16 may also connect two or more predetermined number of signal line SGLs to one detection circuit 48 at the same time.
  • the gate line drive circuit 15 may scan a plurality of gate line GCLs by thinning them out.
  • the dynamic range as an example, the exposure time Pex becomes about 103 when about 4.3Ms. Further, high resolution can be realized by setting the frame rate to about 4.4 fps (substantially 4.4 fps).
  • the detection device 1 can detect fingerprints by capacitance.
  • the capacitive element Ca is used. First, all the capacitive elements Ca are charged with a predetermined electric charge. After that, when the finger Fg touches it, a capacitance corresponding to the unevenness of the fingerprint is added to the capacitance element Ca of each cell. Therefore, the capacitance indicated by the output from the capacitance element Ca of each cell in the state where the finger Fg is in contact is the detection signal as in the acquisition of the output from each partial detection region PAA described with reference to FIGS. 7 and 8.
  • a fingerprint pattern can be generated by reading by the amplification unit 42 and the A / D conversion unit 43. By this method, fingerprints can be detected by the capacitance method. It is desirable to have a structure in which the capacity of the partial detection area PAA and the distance between the object to be detected such as a fingerprint are set to 100 um to 300 um.
  • FIG. 9 is an explanatory diagram for explaining the relationship between the driving of the sensor unit of the detection device and the lighting operation of the light source.
  • the detection device 1 performs the reset period Prst, the effective exposure period Pex ⁇ (1) ... (M) ⁇ and the reading as described above. Execute the period Pdate.
  • the gate line drive circuit 15 sequentially scans from the gate line GCL (1) to the gate line GCL (M).
  • the second light source 62 is turned on and the first light source 61 is not turned on.
  • the detection device 1 causes a current to flow from the photodiode PD to the detection circuit 48 via the signal line SGL based on the second light L62 emitted from the second light source 62.
  • the first light source 61 is lit and the second light source 62 is not lit.
  • the detection device 1 causes a current to flow from the photodiode PD to the detection circuit 48 via the signal line SGL based on the first light L61 emitted from the first light source 61.
  • the second light source 62 is turned on and the first light source 61 is turned off
  • the first light source 61 is turned on and the second light source 62 is turned off.
  • the first light source 61 and the second light source 62 are time-divisionally lit every period t.
  • the first detection signal detected by the photodiode PD based on the first light L61 and the second detection signal detected by the photodiode PD based on the second light L62 are time-divided into the detection circuit 48. Is output to. Therefore, it is possible to prevent the first detection signal and the second detection signal from being superimposed and output to the detection circuit 48. Therefore, the detection device 1 can satisfactorily detect information on various living organisms.
  • the driving method of the first light source 61 and the second light source 62 can be changed as appropriate.
  • the first light source 61 and the second light source 62 are alternately lit every period t, but the present invention is not limited to this.
  • the second light source 62 may be continuously lit for a plurality of periods t.
  • the first light source 61 and the second light source 62 may be turned on at the same time in each period t.
  • FIG. 9 shows an example of the constant exposure control method, also in the gate line scanning exposure control method, the first light source 61 and the second light source 62 are alternately driven every period t as in FIG. May be good.
  • FIG. 10 is an explanatory diagram for explaining the relationship between the driving of the sensor unit and the lighting operation of the light source, which are different from those in FIG.
  • the first light source 61 and the second light source 62 are lit during the effective exposure period Pex, and are not lit during the reset period Prst and the read period Pdet.
  • the detection device 1 can reduce the power consumption required for detection.
  • the first light source 61 and the second light source 62 may be continuously lit for the entire period of the reset period Prst, the effective exposure period Pex, and the read period Pdet. Further, either one of the first light source 61 and the second light source 62 may be turned on during the effective exposure period Pex, and may be turned on alternately every time t.
  • 11 and 12 are side views schematically showing the relationship between the sensor unit and the first light source and the second light source of the detection device according to the first embodiment. 11 and 12 show an operation example when the relative positional relationship between the finger Fg and the sensor unit 10 is different.
  • the sensor base material 21 has a first curved surface Sa1 and a second curved surface Sa2 on the opposite side of the first curved surface Sa1.
  • the first curved surface Sa1 is curved in a convex shape in the direction from the second curved surface Sa2 to the first curved surface Sa1.
  • the second curved surface Sa2 is concavely curved along the surface of the finger Fg.
  • a plurality of photodiode PDs are provided on the first curved surface Sa1.
  • the sensor base material 21 may be a film-like resin material having translucency, or may be a curved glass substrate.
  • the plurality of first light sources 61-1, 61-2, 61-3 are provided along the first curved surface Sa1 and emit the first light L61 in different directions.
  • the plurality of second light sources 62-1, 62-2, and 62-3 are provided so as to face the second curved surface Sa2, and emit the second light L62 in different directions.
  • the first light source 61-1 and the second light source 62-3 are arranged so as to sandwich the finger Fg, and emit the first light L61 and the second light L62 in opposite directions.
  • the first light source 61-2 and the second light source 62-2 are arranged so as to sandwich the finger Fg, and emit the first light L61 and the second light L62 in opposite directions.
  • the first light source 61-3 and the second light source 62-1 are arranged so as to sandwich the finger Fg, and emit the first light L61 and the second light L62 in opposite directions.
  • first light sources 61-1, 61-2, and 61-3 When it is not necessary to distinguish the first light sources 61-1, 61-2, and 61-3 in the following description, they are referred to as the first light source 61.
  • second light sources 62-1, 62-2, and 62-3 When it is not necessary to distinguish the second light sources 62-1, 62-2, and 62-3, they are referred to as the second light source 62.
  • first light source base material 51 and the second light source base material 52 are omitted in FIGS. 11 and 12, each of them has a curved shape along the surface of the finger Fg.
  • one light source base material may be formed in an annular shape so as to surround the finger Fg, and the first light source 61 and the second light source 62 may be provided on the inner peripheral surface of the light source base material.
  • FIG. 13 is a schematic view showing an example of the positional relationship between the second light source 62, the sensor unit 10, and the blood vessel VB in the finger Fg.
  • the second light L62 emitted from the second light source 62 (at least one or more of the second light sources 62-1, 62-2, 62-3) passes through the finger Fg and is a photo of each partial detection region PAA. It is incident on the diode PD.
  • the transmittance of the second light L62 in the finger Fg changes according to the pulsation of the blood vessel VB in the finger Fg. Therefore, the pulse rate can be calculated based on the cycle of the change (amplitude) of the detection signal Vdet during the period equal to or longer than the pulsation cycle of the blood vessel VB.
  • the information for calculating the pulse rate can be continuously acquired more reliably by performing the calculation based on the detection signal Vdet having a larger amplitude. It will be.
  • FIG. 14 shows a plurality of partial detection regions in the photodiode PD exemplarily set when the planar detection region AA formed by the plurality of photodiodes PD provided so as to face the finger Fg is viewed in a plan view.
  • It is a schematic diagram which shows the position (position P1, P2, P3, P4, P5, P6) of PAA.
  • FIG. 15 is a graph showing an example of time-dependent changes in the detection signals Vdet acquired at the plurality of positions shown in FIG.
  • Line L1 in FIG. 15 shows an example of time-dependent changes in the detection signal Vdet from the partial detection region PAA at position P1 in FIG. Line L2 in FIG.
  • Line L3 in FIG. 15 shows an example of time-dependent changes in the detection signal Vdet from the partial detection region PAA at position P2 in FIG.
  • Line L4 in FIG. 15 shows an example of time-dependent changes in the detection signal Vdet from the partial detection region PAA at position P4 in FIG.
  • Line L5 in FIG. 15 shows an example of time-dependent changes in the detection signal Vdet from the partial detection region PAA at position P5 in FIG.
  • Line L6 in FIG. 15 shows an example of time-dependent changes in the detection signal Vdet from the partial detection region PAA at position P6 in FIG.
  • the detection signal Vdet from the partial detection region PAA provided at the position P5 near the center of the tip side of the finger Fg of the photodiode PD facing the finger Fg in FIG. 14 is the time-lapse as shown by the line L5 in FIG. Show change.
  • the line L5 is the output of the digitized detection signal Vdet such as the first peak Max1, the first bottom Min1, the second peak Max2, the second bottom Min2, the third peak Max3, and so on. It shows the amplitude that alternates between rising and falling.
  • the output values of the first peak Max1, the second peak Max2, and the third peak Max3 are larger than the output values of the first bottom Min1 and the second bottom Min2.
  • the line L5 shows the change (amplitude) of the detection signal Vdet that repeats peak up and peak down, including the range not marked in FIG.
  • a pair of consecutive peak-ups and peak-downs corresponds to a single pulsation that occurs in the blood vessel VB.
  • Lines L1, L2, L3, L4, and L6 also show changes (amplitude) in the detection signal Vdet that repeats peak up and peak down, similar to line L5.
  • the output of the detection signal Vdet from the partial detection region PAA provided at the different positions P1, P2, P3, P4, P5, P6 in the detection region AA changes according to the pulsation of the blood vessel VB.
  • the change corresponding to the transmittance of the second light L62 is shown.
  • the degree of change (amplitude) of the detection signal Vdet differs depending on the position where the partial detection region PAA faces the finger Fg.
  • the degree of amplitude of line L1 and line L6 is clearly smaller than the degree of amplitude of line L5. Therefore, when it is desired to more reliably and continuously acquire information indicating a change (amplitude) of the detection signal Vdet according to the pulsation generated in the blood vessel VB, the position P5 is more than the partial detection region PAA provided at the positions P1 and P6. It is considered that the partial detection region PAA provided in the above is more desirable.
  • each position (for example, positions P1, ..., Where the partial detection region PAA is provided) is provided at a timing before and after a predetermined time (for example, a predetermined period Pt in FIG. 16 described later). P6) and the degree of change (amplitude) of the detection signal Vdet may change.
  • the output processing unit 50 of the embodiment performs processing (focus processing) for identifying a part of the partial detection region PAA in which the degree of change (amplitude) of the detection signal Vdet is larger. Specifically, the output processing unit 50 acquires the detection signal Vdet during a predetermined period for each partial detection region PAA. The output processing unit 50 identifies the peak-down and peak-up that occur in the detection signals Vdet output from the plurality of partial detection regions PAA during the predetermined period, and which has the largest difference between the peak and the bottom. The output processing unit 50 identifies the partial detection region PAA that outputs the detection signal Vdet that caused the specified peak down or peak up.
  • the location where the degree of change (amplitude) of the detection signal Vdet is acquired is not limited to the positions P1, P2, P3, P4, P5, and P6.
  • the output processing unit 50 may individually acquire the degree of change (amplitude) of the detection signal Vdet for all of the plurality of partial detection areas PAA provided in the sensor unit 10, or a part of the partial detection areas. It is also possible to extract a plurality of partial detection regions PAA as PAA in a sampling manner and individually acquire the degree of change (amplitude) of the detection signal Vdet.
  • the output processing unit 50 individually acquires the degree of change (amplitude) of the detection signal Vdet for all of the plurality of partial detection regions PAA provided in the sensor unit 10 and performs the focus processing, and the focus processing is performed.
  • Data based on the detection signal Vdet from the specified partial detection region PAA is output as pulse wave data.
  • the pulse wave data may be data including information indicating the number of amplitudes generated during a predetermined period, or may be a predetermined calculation formula based on the relationship between the unit time (for example, minutes) of the pulse rate and the predetermined period.
  • the data may include information indicating the value of the pulse rate calculated by the output processing unit 50 based on the above, or may be data including information indicating the change itself of the detection signal Vdet that can be drawn by the line L1 or the like. Good.
  • FIG. 16 is a time chart for explaining the relationship between the predetermined period Pt and the output from the partial detection region PAA specified by the focus processing.
  • the detection signal Vdet with the largest value is specified.
  • Data Ia based on the identified detection signal Vdet is output as pulse wave data during a predetermined period Pt from the first timing Ta to the second timing Tb.
  • the degree of change during the predetermined period Pt is the highest.
  • a large detection signal Vdet is identified.
  • Data Ib based on the identified detection signal Vdet is output as pulse wave data during a predetermined period Pt from the second timing Tb to the third timing Tc.
  • the degree of change during the predetermined period Pt is the highest.
  • a large detection signal Vdet is identified.
  • Data Ic based on the identified detection signal Vdet is output as pulse wave data during a predetermined period Pt from the third timing Tc to the fourth timing Td. Similarly, for the fourth timing Td and thereafter, pulse wave data is output in Pt units for a predetermined period.
  • the predetermined period Pt is a period including the output of a plurality of detection signals Vdet in which the amplitude waveform by the combination of continuous peak up and peak down is derived one or more times.
  • the predetermined period Pt is preset.
  • the predetermined period Pt is, for example, 4 seconds, but the present invention is not limited to this, and can be appropriately changed.
  • FIG. 17 is a flowchart showing an example of a processing flow related to the output of pulse wave data in the first embodiment.
  • the output processing unit 50 acquires each output (detection signal Vdet) of the optical sensor (for example, the photodiode PD) (step S1).
  • the output processing unit 50 repeats the processing of step S1 until Pt elapses for a predetermined period (step S2; No).
  • Pt elapses for a predetermined period step S2; Yes
  • the output processing unit 50 acquires the degree of change in each output (detection signal Vdet) of the optical sensor (photodiode PD) (step S3).
  • the output processing unit 50 identifies the optical sensor having the largest degree of change among the degrees of change in the output (detection signal Vdet) acquired in the process of step S3 (step S4).
  • the output processing unit 50 adopts data based on the output (detection signal Vdet) of the optical sensor identified in the process of step S4 as pulse wave data (step S5). If the operation of the detection device 1 is not completed (step S6; No), the process of step S1 is performed again. When the operation of the detection device 1 is completed (step S6; Yes), the process is terminated.
  • the plurality of optical sensors (for example, photodiode PD) arranged in the detection region AA and the light irradiated to the object to be detected (for example, finger Fg) and detected by the optical sensor are emitted.
  • It includes a light source that emits light (for example, a first light source 61 and a second light source 62) and a processing unit (for example, an output processing unit 50) that performs processing based on outputs from a plurality of optical sensors.
  • the processing unit determines the optical sensor to which the output is adopted among the plurality of optical sensors based on the output of each of the plurality of optical sensors obtained in a predetermined period (for example, a predetermined period Pt) cycle.
  • the optical sensor whose output is adopted is appropriately determined in a predetermined period cycle, so that the change in the position can be dealt with in a predetermined period cycle. You can get the output. Therefore, it is possible to cope with a change in the positional relationship between the optical sensor and the object to be detected.
  • the processing unit (for example, the output processing unit 50) is an optical sensor (for example, a photodiode) having the largest degree of change in the output generated during a predetermined period (for example, Pt for a predetermined period) or the output generated during the predetermined period.
  • the output of PD is adopted.
  • the optical sensor (photodiode PD) having the largest degree of change in the output (detection signal Vdet) is specified, and the data based on the output from the optical sensor is adopted as the pulse wave data.
  • the pulse wave data of the second embodiment is data based on the output from the group region (group region PAG) including the optical sensor (photodiode PD) having the largest change in the output (detection signal Vdet). It differs from the first embodiment in that it exists.
  • 18 and 19 are schematic views for explaining the acquisition control of pulse wave data in the group area PAG unit. 18 and 19 are, for example, enlarged schematic views of the vicinity of position P5 in FIG. 14, but are not limited thereto.
  • the coordinates x1, x2, x3, x4, x5, x6 are attached to the first direction Dx, and the second direction.
  • the coordinates y1, y2, y3, y4, y5, y6 are attached to Dy.
  • the group area PAG of (x1, y1) refers to the group area PAG corresponding to the position of the combination of the coordinate x1 and the coordinate y1.
  • FIG. 18 shows an example in which the blood vessel VB is within the range of coordinates y2, y3, y4.
  • the position of the partial detection region PAA having the largest degree of change in the output (detection signal Vdet) is the position Pmax1 in the group region PAG of (x5, y3).
  • FIG. 19 shows an example in which the blood vessel VB is within the range of coordinates y3, y4, y5.
  • the difference between FIG. 18 and FIG. 19, that is, the difference in the position of the blood vessel VB is caused by, for example, the displacement of the sensor unit 10 with respect to the finger Fg (see FIGS. 11 and 12).
  • the position of the partial detection region PAA where the degree of change of the output (detection signal Vdet) is the largest is the group of (x5, y4) from the position Pmax1. It shifts to the position Pmax2 in the region PAG.
  • the output (detection signal Vdet) from the partial detection region PAA at the position Pmax1 is adopted as the output during the predetermined period Pt before the misalignment (see FIG. 18), and the predetermined output after the misalignment (see FIG. 19).
  • the output from the partial detection region PAA at position Pmax2 (detection signal Vdet) is adopted as the output during the period Pt.
  • a plurality of partial detection regions provided in the group region PAG (x5, y3) including the partial detection region PAA at the position Pmax1 as the output during the predetermined period Pt before the misalignment see FIG. 18).
  • the output from the PAA (detection signal Vdet) is adopted, and is provided in the group region PAG (x5, y4) including the partial detection region PAA at the position Pmax2 as the output during the predetermined period Pt after the misalignment (see FIG. 19).
  • Outputs (detection signal Vdet) from a plurality of partial detection regions PAA are adopted.
  • the output from the group region PAG including the partial detection region PAA having the largest degree of change in the output (detection signal Vdet) is adopted.
  • FIG. 20 is an explanatory diagram showing an example of averaging processing of outputs from a plurality of partial detection areas PAA.
  • the averaging process is performed to average the outputs from the partial detection area PAA.
  • the output (detection signal Vdet) of each partial detection area PAA is digitized by analog / digital change processing to obtain an output value, and the output values of a plurality of partial detection areas PAA are added together, and the output values are added together.
  • the process of dividing by the number of partial detection areas PAA is performed.
  • the output value obtained by quantifying the output (detection signal Vdet) from each of the plurality of partial detection areas PAA is shown.
  • the coordinates xa, xb, xc are attached to the first direction Dx and the coordinates ya, yb, yc, yd, ye are attached to the second direction Dy for the purpose of distinguishing the respective positions of the plurality of partial detection regions PAA.
  • Yf, yg are attached. That is, the value of one cell in the table indicates the output value of one partial detection area PAA. It should be noted that the value of each cell is merely an example, and does not indicate that the output value from each of the plurality of partial detection areas PAA is limited to this.
  • the value of each cell in the "output value” column of "no averaging process”, “averaging process example 1 (3)” and “averaging process example 2 (5)” in FIG. 20 is the same. ..
  • the output value shown in each cell of these tables is an output value at a certain timing, but the graph of the output value shown in the "graph” column is a plurality of times in a period including the timing (for example, a predetermined period Pt). It is a graph which shows how the output value of is changed within the said period.
  • the line La in the graph of “no averaging process” in FIG. 20 shows the time course of the output value when the output value of each partial detection region PAA is adopted as it is.
  • the line Lb in the graph of "Average processing example 1 (3)” the average value of the output values of the three partial detection regions PAA arranged continuously in one direction (for example, the second direction Dy) is adopted. ing.
  • the influence of noise on the output value is alleviated, and the peak and bottom periodicity indicated by the change over time of the output value is reduced. It becomes more apparent.
  • the average value of the output values of the five partial detection regions PAA arranged continuously in the one direction is adopted.
  • the influence of various noises such as element variation and power supply noise on the output value is further mitigated, and the peak indicated by the time-dependent change of the output value. And the periodicity of the bottom becomes more apparent.
  • the number (predetermined number) of the partial detection regions PAA to which the output value is averaged is merely an example for explaining the averaging process, and the embodiment is not limited to this.
  • the output values of a plurality of partial detection region PAA provided in one group region PAG including the partial detection region PAA having the largest degree of change in the output (detection signal Vdet) are averaged and the group is averaged. It is adopted as the output value from the area PAG.
  • the output values of the one group area PAG and the plurality of partial detection area PAAs provided in the group area PAG near the one group area PAG are averaged, and the output values from the group area PAG are averaged. It may be adopted as.
  • the group area PAG near the one group area PAG may be, for example, a group area PAG adjacent to the one group area PAG along the first direction Dx or the second direction Dy, or a first group area PAG. It may be a plurality of group region PAGs that are continuously aligned with the one group region PAG along one of the one-way Dx or the second-direction Dy.
  • FIG. 21 is a flowchart showing an example of a processing flow related to output of pulse wave data in the second embodiment.
  • the processing flow of the second embodiment shown in FIG. 21 is the same as that of the first embodiment except that the processing of step S5 in the processing flow of the first embodiment shown in FIG. 17 is replaced with the processing of step S15. The same is true.
  • the output processing unit 50 averages the output of the group region (group region PAG) including the optical sensor (photodiode PD of the partial detection region PAA) specified in the process of step S4. Is performed, and pulse wave data is acquired based on the amplitude indicated by the time course of the output value obtained by the averaging process.
  • the second embodiment is the same as the first embodiment, except for the matters noted above.
  • the detection area AA includes a plurality of group areas (for example, group area PAG).
  • Each of the plurality of group areas includes a plurality of optical sensors (eg, photodiode PD).
  • the output processing unit 50 adopts the output of the group region including the optical sensor having the largest degree of change in the output generated during the predetermined period (for example, Pt in the predetermined period) or the output generated during the predetermined period.
  • the output generated during the predetermined period or the group area including the optical sensor having the largest degree of change in the output generated during the predetermined period can be further improved even when the positional relationship between the optical sensor and the object to be detected changes. Therefore, it is possible to cope with a change in the positional relationship between the optical sensor and the object to be detected.
  • a plurality of optical sensors are arranged in a matrix in the detection region AA.
  • the output processing unit 50 performs an averaging process for averaging the outputs of a predetermined number of optical sensors that are two or more adjacent optical sensors and are not all the optical sensors, and is averaged by the averaging process. Based on the output, the optical sensor for which the output is adopted is determined. As a result, the influence of various noises on the output value is further mitigated, and the periodicity of the peak and bottom indicated by the change over time of the output value becomes more apparent. Therefore, the accuracy of the sensor output Vo such as pulse wave data can be further improved.
  • the specific content of the averaging process is not limited to this, and can be changed as appropriate. For example, at least one gate line GCL and a plurality of signal lines SGL, or a plurality of gate lines and at least one signal line SGL may be bundled and read simultaneously from a plurality of adjacent partial detection regions PAA.
  • fingerprint detection is performed by generating a fingerprint pattern of the finger Fg. This fingerprint detection is performed every Pt for a predetermined period.
  • the output processing unit 50 determines the position of the photodiode PD with respect to the finger Fg based on the difference in the positional relationship between the position of the first detected fingerprint pattern (first fingerprint pattern) and the position of the fingerprint pattern detected thereafter. Calculate the amount of deviation.
  • the output processing unit 50 corrects the positional deviation of the optical sensor (partial detection region PAA) treated as the output to be adopted based on the calculated deviation amount.
  • Any method of recognizing the unevenness of a fingerprint by a capacitance sensor using the capacitance of the capacitive element Ca can be used.
  • the first light L61 has a wavelength of 360 nm or more and less than 800 nm, for example, about 500 nm.
  • the second light L62 has a wavelength of 800 nm or more and 930 nm or less, for example, about 850 nm. That is, the wavelength of the second light L62 is longer than the wavelength of the first light L61.
  • the first light L61 is visible light.
  • the second light L62 is infrared light.
  • the first light L61 is used for detecting the fingerprint and the second light L61 is used.
  • Light L62 is used to detect blood vessel and pulse wave patterns.
  • both the fingerprint and the blood vessel may be detected by the light of one wavelength of the second light L62.
  • FIG. 22 is a flowchart showing an example of a processing flow related to output of pulse wave data in the third embodiment and the fourth embodiment described later.
  • the initial processing is first performed (step S21).
  • the misalignment handling process is performed (step S22).
  • the process of step S22 is repeated until the operation of the detection device 1 is completed (step S23; No).
  • step S23; Yes When the operation of the detection device 1 is completed (step S23; Yes), the process is completed.
  • FIG. 23 is a flowchart showing an example of the flow of the initial processing of FIG. 22.
  • the initial processing is the same as the processing described with reference to the flowchart shown in FIG. 21, except that the processing in step S6 is omitted from the flowchart shown in FIG.
  • the return after the process of step S15 of FIG. 23 indicates that the process of step S21 shown in FIG. 22 (initial process) is completed and the process proceeds to the process of step S22 (positional deviation corresponding process), which is the next process.
  • FIG. 24 is a flowchart showing an example of the flow of the misalignment handling process of FIG. 22 in the third embodiment.
  • the fingerprint pattern is acquired (step S31).
  • the acquisition of the fingerprint pattern in step S31 is performed based on, for example, the output of each optical sensor (photodiode PD) during the initial processing. If the fingerprint pattern is generated based on the output at which timing during the initial processing, it is predetermined (for example, the first time).
  • the output processing unit 50 acquires each output (detection signal Vdet) of the optical sensor (photodiode PD) (step S32).
  • the output processing unit 50 repeats the processing of step S32 until Pt elapses for a predetermined period (step S33; No).
  • Pt elapses for a predetermined period step S33; Yes
  • the fingerprint pattern is acquired (step S34).
  • the acquisition of the fingerprint pattern in step S34 is performed based on, for example, the output of each of the latest optical sensors (photodiode PD), but is not limited to this, and each light within a predetermined period of Pt or more does not go back. It may be the output of the sensor (photodiode PD).
  • the output processing unit 50 calculates the amount of deviation of the latest fingerprint pattern with respect to the initial fingerprint pattern (step S35). Specifically, as the process of step S35, the output processing unit 50 has the positional relationship between the fingerprint pattern obtained in the process of step S31 and the plurality of partial detection areas PAA, and the fingerprint pattern obtained in the process of step S34. And the positional relationship with the plurality of partial detection regions PAA are compared. The output processing unit 50 determines whether or not the position of the partial detection region PAA in which the unevenness determined to be the same fingerprint pattern is detected is deviated and deviated based on the collation process such as the feature point detection included in the fingerprint pattern. If so, the amount of deviation is quantified as the amount of deviation in the first direction Dx and the second direction Dy of the partial detection region PAA.
  • the output processing unit 50 has only the amount of deviation calculated in the process of step S35 from the position of the optical sensor specified as the optical sensor (photodiode PD) having the largest degree of change in output in the process of step S4 in the initial process.
  • the optical sensor (photodiode PD) at the displaced position is specified (step S36).
  • the output processing unit 50 acquires pulse wave data from the amplitude of the output value obtained by averaging the outputs of the group region (group region PAG) including the optical sensor identified in the process of step S36 (step S37).
  • step S37 is the same as the process of step S15, except that the criterion for determining the group area changes from the optical sensor specified in the process of step S4 to the optical sensor specified in the process of step S36.
  • the return after the processing of step S37 of FIG. 24 and FIG. 26 to be described later indicates that the processing of step S22 (positional deviation corresponding processing) shown in FIG. 22 is completed and the process proceeds to the next processing of step S23. ..
  • fingerprint detection is performed at the time of pulse wave measurement, that is, every time Pt for a predetermined period in which a change (amplitude) of the output for acquiring the pulse wave occurs.
  • Fingerprint detection may be performed during the entire operation period, which will be described later, and fingerprint detection may be performed during other periods, and fingerprint detection may be performed once for each of a plurality of pulse wave measurements (thinning fingerprint measurement). ..
  • the third embodiment is the same as the second embodiment except for the matters noted above.
  • the detection region AA faces the finger Fg (see FIGS. 11 and 12).
  • the output processing unit 50 determines which of a plurality of optical sensors (for example, photodiode PD) the output is adopted based on the fingerprint pattern generated based on the output of each of the plurality of partial detection regions PAA. ..
  • the output to be adopted is determined based on the positional deviation of the detected fingerprint pattern, so that the position changes at a predetermined period cycle. You can get the corresponding output. Therefore, it is possible to cope with a change in the positional relationship between the optical sensor and the finger Fg.
  • FIG. 25 is a flowchart showing an example of the flow of the misalignment handling process of FIG. 22 in the modified example of the third embodiment.
  • the processing from step S31 to step S34 is the same as the processing described with reference to FIG. 24.
  • the output processing unit 50 determines whether or not the latest fingerprint pattern is deviated from the first fingerprint pattern (step S45). Specifically, as the process of step S35, the output processing unit 50 has the positional relationship between the fingerprint pattern obtained in the process of step S31 and the plurality of partial detection areas PAA, and the fingerprint pattern obtained in the process of step S34. And the positional relationship with the plurality of partial detection regions PAA are compared. The output processing unit 50 determines whether or not the position of the partial detection region PAA in which the unevenness determined to be the same fingerprint pattern is detected is displaced based on the collation process such as the detection of feature points included in the fingerprint pattern. ..
  • step 46; Yes When it is determined in the process of step S45 that there is a deviation (step 46; Yes), the output processing unit 50 sequentially performs the process of step S3, the process of step S4, and the process of step S15.
  • step S46; No when it is determined that there is no deviation in the process of step S45 (step S46; No), the output processing unit 50 determines that the degree of change in the output is the largest in the process of step S4 of the initial process.
  • the pulse wave data is acquired from the amplitude of the output value obtained by averaging the output of the group region (group region PAG) including (photodiode PD) (step S47).
  • step S47 The process of step S15 of FIG. 25 and FIG. 27 described later.
  • the return after the processing of step S47 and after processing indicates that the processing of step S22 (positional deviation corresponding processing) shown in FIG. 22 is completed and the process proceeds to the processing of step S23, which is the next processing.
  • the modified example of the third embodiment is the same as that of the third embodiment, except for the matters specified specially.
  • the fingerprint pattern is used in the misalignment handling process, but in the fourth embodiment, the blood vessel pattern generated based on the shape of the blood vessel VB facing the detection region AA is used. Different from. Specifically, in the fourth embodiment, the initial processing in the processing flow described with reference to FIG. 22 is the same as that in the third embodiment, and a part of the misalignment handling processing is different from the third embodiment.
  • FIG. 26 is a flowchart showing an example of the flow of the misalignment handling process of FIG. 22 in the fourth embodiment.
  • the blood vessel pattern is acquired as the process of step S51 instead of the process of step S31 in the third embodiment.
  • the acquisition of the blood vessel pattern in step S51 is performed based on, for example, the output of each optical sensor (photodiode PD) during the initial processing.
  • the initial processing it is arbitrary at which timing the output is used to generate the blood vessel pattern, but it is predetermined (for example, the first time).
  • the blood vessel pattern is acquired as the process of step S54 instead of the process of step S34 in the third embodiment.
  • the acquisition of the blood vessel pattern in step S54 is performed based on, for example, the output of each of the latest optical sensors (photodiode PD), but is not limited to this, and each light within a period not exceeding Pt for a predetermined period. It may be the output of the sensor (photodiode PD).
  • the process of step S55 is performed instead of the process of step S35 in the third embodiment.
  • the output processing unit 50 calculates the amount of deviation of the latest blood vessel pattern with respect to the initial blood vessel pattern. Specifically, the output processing unit 50 has a positional relationship between the blood vessel pattern obtained in the process of step S51 and the plurality of partial detection regions PAA, and the blood vessel pattern and the plurality of partial detection regions obtained in the process of step S54. Compare with the positional relationship with PAA.
  • the output processing unit 50 determines whether or not the position of the partial detection region PAA in which the same blood vessel pattern is detected is displaced based on collation processing such as detection of feature points included in the blood vessel pattern, and if it is displaced, the output processing unit 50 determines whether or not the position is displaced.
  • the process of quantifying the deviation amount as the deviation amount of the first direction Dx and the second direction Dy of the partial detection region PAA is performed.
  • the fourth embodiment is the same as the third embodiment, except for the matters noted above.
  • the blood vessel pattern corresponding to the blood vessel VB is adopted, but the blood vessel VB is not particularly limited to any type such as arteries, veins and the like.
  • the detection region AA faces a living tissue (for example, finger Fg or wrist Wr described later) containing a blood vessel (for example, blood vessel VB) inside.
  • the output processing unit 50 uses the light of the plurality of optical sensors whose output is adopted based on the blood vessel pattern (for example, blood vessel pattern) generated based on the output of each of the plurality of optical sensors (for example, photodiode PD). Determine the sensor.
  • the output to be adopted is determined based on the positional deviation of the detected blood vessel pattern, so that the position changes at a predetermined period cycle. You can get the corresponding output. Therefore, it is possible to respond to changes in the positional relationship between the optical sensor and the living tissue.
  • FIG. 27 is a flowchart showing an example of the flow of the misalignment handling process of FIG. 22 in the modified example of the fourth embodiment.
  • the processing from step S51 to step S34 in the modified example of the fourth embodiment is the same as that of the fourth embodiment (see FIG. 26).
  • the output processing unit 50 determines whether or not the latest blood vessel pattern deviates from the first blood vessel pattern (step S65). Specifically, the output processing unit 50 determines the positional relationship between the blood vessel pattern obtained in the process of step S51 and the plurality of partial detection regions PAA and the blood vessel pattern obtained in the process of step S54 as the process of step S65. And the positional relationship with the plurality of partial detection regions PAA are compared. The output processing unit 50 determines whether or not the position of the partial detection region PAA in which the same blood vessel pattern is detected is displaced based on collation processing such as detection of feature points included in the blood vessel pattern.
  • step 46; Yes When it is determined that there is a deviation in the processing of step S65 (step 46; Yes), the output processing unit 50 sequentially performs the processing of step S3, the processing of step S4, and the processing of step S15. On the other hand, when it is determined in the process of step S65 that there is no deviation (step S46; No), the output processing unit 50 performs the process of step S47.
  • the modified example of the fourth embodiment is the same as that of the fourth embodiment, except for the matters specified specially.
  • the detection control unit 11 generates an entire operating period in which the plurality of optical sensors (photodiodes PD) are all operated in a predetermined period cycle, and in a period other than the entire operating period, the output or the entire operation generated during the entire operating period.
  • Some optical sensors, including the optical sensor with the greatest degree of change in output during the period, may be operated. In this case, as shown by the broken line in FIG.
  • Information indicating the position or the group area PAG including the optical sensor is fed back.
  • the detection control unit 11 includes a part of the optical sensor including the optical sensor having the largest degree of change in the output generated during the entire operation period or the output generated during the entire operation period based on the information fed back from the output processing unit 50. Identify and operate the optical sensor.
  • the entire operating period Ba that operates all of the plurality of partial detection regions PAA is set.
  • the detection signal Vdet having the largest degree of change during the entire operation period Ba is specified, and the partial detection area PAA or the group area provided in the group area PAG including the partial detection area PAA that outputs the specified detection signal Vdet.
  • the partial detection region PAA provided in the region containing PAG and not including all of the plurality of partial detection regions PAA is determined as the partial detection region PAA that operates during the period Aa other than the entire operation period.
  • the detection signal Vdet having the largest degree of change during the entire operation period Ba and the period Aa is specified, and the output from the group area PAG including the partial detection area PAA having the largest degree of change in the specified detection signal Vdet is output.
  • the based data is output as pulse wave data.
  • the pulse wave data based on the output from the group region PAG including the partial detection region PAA in which the degree of change of the detection signal Vdet is the largest is, for example, pulse wave data obtained through an averaging process.
  • the relationship between the total operation period Bb and the period Ab set during the predetermined period Pt from the second timing Tb to the third timing Tc is the same as the operation control in the total operation period Ba and the period Aa.
  • the relationship between the total operation period Bc and the period Ac set during the predetermined period Pt from the third timing Tc to the fourth timing Td is the same as the operation control in the total operation period Ba and the period Aa.
  • the operation control in the period other than the total operation period and the total operation period set in the predetermined period Pt thereafter is the same as the operation control in the total operation period Ba and the period Aa.
  • the group area PAG including the partial detection area PAA that outputs the detection signal Vdet having the largest degree of change during the entire operation period (for example, the entire operation period Ba, Bb, Bc) is included, and a plurality of partial detection areas are included.
  • the region that does not include all of PAA is, for example, a region that includes a plurality of group region PAGs in which the position of the first direction Dx or the position of the second direction Dx is the same as that of the group region PAG, but the region is limited to this. It is not something that can be changed, and it can be changed as appropriate.
  • the detection control unit 11 that controls the operation of the plurality of optical sensors (for example, the photodiode PD) operates all the plurality of optical sensors in a predetermined period (for example, a predetermined period Pt) cycle (for example).
  • the entire operating period Ba, Bb, Bc) is generated.
  • the period other than the entire operation period includes the optical sensor having the largest degree of change in the output generated during the entire operation period or the output generated during the entire operation period. Operate some optical sensors. This makes it possible to reduce the number of optical sensors that operate during periods other than the entire operating period. Therefore, it becomes easier to increase the operation cycle (refresh rate) of the optical sensor that is operated during a period other than the entire operation period.
  • the detection signal Vdet to be averaged is not limited to the detection signal Vdet from the partial detection area PAA provided in one group area PAG.
  • the detection signal Vdet of the partial detection area PAA that outputs the detection signal Vdet having the largest degree of change and the detection signal Vdet of the partial detection area PAA whose positional relationship with the partial detection area PAA satisfies a predetermined condition are averaged.
  • the predetermined condition is, for example, that the position of the first direction Dx and the position of at least one of the second direction Dx are the same with respect to the position of the partial detection region PAA that outputs the detection signal Vdet having the largest degree of change.
  • the number of other partial detection region PAAs intervening with the partial detection region PAA is within a predetermined number, and the condition of the combination thereof is satisfied. It is desirable that the predetermined number of values is sufficiently smaller than the number of rows of the first direction Dx and the number of rows of the second direction Dx of the plurality of partial detection regions PAA.
  • the averaging process is not essential.
  • a group area PAG including a partial detection area PAG that outputs a detection signal Vdet having the largest degree of change during the entire operation period for example, the entire operation period Ba, Bb, Bc
  • a period other than the entire operation period for example, at least one of the gate line GCL and the signal line SGL of the group region PAG is collectively driven during the detection period Aa, Ab, Ac), and detection from a plurality of partial detection regions PAA provided in the group region PAG is performed.
  • the signal Vdet may be integrated.
  • the size and characteristics of the partial detection region PAA do not have to be uniform.
  • a plurality of types of photodiode PDs having different sensitivities may be arranged alternately to widen the dynamic range of the entire partial detection region PAA.
  • FIG. 28 is a schematic view showing a main configuration example of the detection device 1A in a form that can be worn on the wrist Wr.
  • FIG. 29 is a schematic view showing an example of detection of blood vessel VB by the detection device 1A shown in FIG. 28.
  • the sensor base material 21 of the detection device 1A has an annular deformable flexibility surrounding the wrist Wr.
  • the photodiode PD, the first light source 61, and the second light source 62 are arranged in an arc shape along the annular sensor base material 21.
  • FIG. 30 is a configuration example in which the lens Op is provided between the finger Fg and the sensor unit 10. As shown in FIG. 30, even if the lens Op is provided at a position facing the light source 60 with the living tissue (for example, finger Fg) sandwiched between the living tissue and the sensor unit 10. Good.
  • the light source 60 includes at least one of the first light source 61 and the second light source 62.
  • the lens Op is, for example, an optical lens that focuses the light from the light source 60 toward the sensor unit 10.
  • the detection device 1 and the detection device 1A may be further provided with a configuration capable of detecting a fingerprint or the like by a capacitance method as a sensor different from the photodiode PD.
  • FIG. 31 is a schematic view showing a main configuration example of the mutual capacitance type sensor 130.
  • the sensor 130 includes a first substrate 102 and a second substrate 103 that are arranged to face each other.
  • the first substrate 102 and the second substrate 103 are along a plane (XY plane) orthogonal to the opposite direction (Z direction).
  • the XY plane does not have to be a fixed and immovable plane. Displacement is allowed as in the case of curvature of the first direction Dx-second direction Dy plane according to the flexibility of the sensor base material 21.
  • the two directions along the plane (XY plane) orthogonal to the Z direction in FIG. 31 are defined as the X direction and the Y direction.
  • the X direction and the Y direction are orthogonal to each other.
  • the first substrate 102 is provided with a plurality of first electrode TXs whose longitudinal direction is along the X direction and which is arranged along the Y direction.
  • the second substrate 103 is provided with a plurality of second electrodes RX whose longitudinal direction is along the Y direction and which is arranged along the X direction.
  • the plurality of first electrode TX and the plurality of second electrode RX face each other in the Z direction in a non-contact state.
  • the sensor 130 is provided on the side of the second substrate 103 so as to be close to or in contact with an external object such as a finger Fg.
  • the position of the sensor 130 corresponds to the position of the sensor unit 10 in advance.
  • the sensor 130 is arranged in the detection device 1 or the like so as to face the finger Fg with the sensor unit 10 interposed therebetween, but the present invention is not limited to this.
  • the first electrode TX and the second electrode RX may be transparent electrodes made of ITO (Indium Tin Oxide) or the like, and may be arranged on the finger Fg side with respect to the sensor unit 10.
  • the plurality of first electrode TX and the plurality of second electrode RX may be individually driven to form a self-capacitating sensor.
  • FIG. 32 is a schematic view showing a main configuration example of the self-capacitance type sensor 210.
  • the sensor 210 includes a plurality of electrodes 220.
  • the plurality of electrodes 220 are arranged in a matrix, for example.
  • the self-capacitance held by each electrode 220 changes when the finger Fg or the like is brought close to or abutted.
  • the control unit 240 connected to the plurality of electrodes 220 via the wiring 230 is a circuit that detects the presence or absence of a change in the self-capacitance and the degree of the change.
  • the position of the sensor 210 corresponds to the position of the sensor unit 10 in advance.
  • the sensor 210 is arranged in the detection device 1 or the like so as to face the finger Fg with the sensor unit 10 interposed therebetween, but the present invention is not limited to this.
  • the electrode 220 may be a transparent electrode made of ITO (Indium Tin Oxide) or the like, and may be arranged on the finger Fg side with respect to the sensor unit 10.
  • the detection device 1 can be mounted on various products that are supposed to come into contact with or approach living tissues. An example of mounting the detection device 1 will be described with reference to FIGS. 33, 34, and 35.
  • FIG. 33 is a diagram showing an arrangement example of the sensor unit 10 of the detection device 1 mounted on the bandana Ke.
  • FIG. 34 is a diagram showing an arrangement example of the sensor unit 10 of the detection device 1 mounted on the clothes TS.
  • FIG. 35 is a diagram showing an arrangement example of the sensor unit 10 of the detection device 1 mounted on the adhesive sheet PS.
  • the detection device 1 may be incorporated into a product that is operated in contact with a living tissue, such as the bandana Ke in FIG. 33, the clothing TS in FIG. 34, and the adhesive sheet PS in FIG. In this case, it is desirable that at least the sensor unit 10 is provided at a portion that is expected to come into contact with the living tissue when the product is used.
  • the light sources such as the first light source 61 and the second light source 62 are arranged in consideration of the positional relationship between the sensor unit 10 and the living tissue.
  • the product is not limited to the bandana Ke, the clothes TS, and the adhesive sheet PS, and the detection device 1 can be incorporated into any product that is expected to come into contact with living tissue during use.
  • the adhesive sheet PS is a sheet-like product to which adhesiveness is added, such as an external pain-relieving / anti-inflammatory sheet.
  • the gate line drive circuit 15 performs time division selection drive for sequentially supplying the gate drive signal Vgcl to a plurality of gate line GCLs is shown, but the present invention is not limited to this.
  • the sensor unit 10 may perform detection by code division selection drive (hereinafter referred to as CDM (Code Division Multiplexing) drive). Since the CDM drive and the drive circuit are described in, for example, Japanese Patent Application Laid-Open No. 2018-005178, the description of Japanese Patent Application Laid-Open No. 2018-005178 is included in each embodiment and modification (embodiment, etc.), and the description is omitted. ..
  • the gate line GCL follows the general direction of blood flow. Specifically, it is desirable that the gate line GCL in the sensor unit 10 that draws an arc along the annular sensor base material 21 wound around the finger Fg or the wrist Wr is along the central axis of the ring.

Abstract

検出装置は、フォトダイオードと、フォトダイオードの出力経路を開閉する薄膜トランジスタとを備え、薄膜トランジスタは、遮光層に対してフォトダイオード側に積層される半導体層と、半導体層とフォトダイオードとの間に積層されて薄膜トランジスタのソース電極及びドレイン電極が形成される電極層と、を含み、ソース電極は、半導体層を挟んで遮光層と対向する位置に延出する。

Description

検出装置
 本発明は、検出装置に関する。
 指紋パターンや静脈パターンを検出可能な光センサが知られている(例えば、特許文献1)。
特開2009-32005号公報
 光センサからの出力タイミングを制御するために薄膜トランジスタを利用する場合、半導体の光起電力効果による誤動作を抑制するために遮光が必要になる。一方、半導体を挟んで両面に遮光層を設けようとすると、遮光層の形成のためだけに製造工程が増大するため、係る製造工程の増大を抑制するための技術が求められていた。
 本発明は、より少ない製造工程で薄膜トランジスタの遮光を行う構成を設けることが可能な検出装置を提供することを目的とする。
 本発明の一態様の検出装置は、フォトダイオードと、前記フォトダイオードの出力経路を開閉する薄膜トランジスタとを備え、前記薄膜トランジスタは、遮光層に対して前記フォトダイオード側に積層される半導体層と、前記半導体層と前記フォトダイオードとの間に積層されて前記薄膜トランジスタのソース電極及びドレイン電極が形成される電極層と、を含み、前記ソース電極は、前記半導体層を挟んで前記遮光層と対向する位置に延出する。
図1は、実施形態1に係る検出装置を示す平面図である。 図2は、実施形態1に係る検出装置の構成例を示すブロック図である。 図3は、検出装置を示す回路図である。 図4は、複数の部分検出領域を示す回路図である。 図5Aは、センサ部の拡大概略構成図である。 図5Bは、図5AのQ-Q断面図である。 図6は、フォトダイオードに入射する光の波長と変換効率との関係を模式的に示すグラフである。 図7は、検出装置の動作例を表すタイミング波形図である。 図8は、図7における読み出し期間の動作例を表すタイミング波形図である。 図9は、検出装置のセンサ部の駆動と、光源の点灯動作との関係を説明するための説明図である。 図10は、実施形態1の第1変形例に係るセンサ部の駆動と、光源の点灯動作との関係を説明するための説明図である。 図11は、実施形態1に係る検出装置の、センサ部と、第1光源及び第2光源との関係を模式的に示す側面図である。 図12は、実施形態1に係る検出装置の、センサ部と、第1光源及び第2光源との関係を模式的に示す側面図である。 図13は、第2光源と、センサ部と、指内の血管との位置関係の例を示す模式図である。 図14は、指と対向するように設けられた複数のフォトダイオードが形成する面状の検出領域を平面視した場合において例示的に設定されたフォトダイオード内の複数の位置を示す模式図である。 図15は、図14に示す複数の位置で取得された検出信号の経時変化例を示すグラフである。 図16は、所定期間と、フォーカス処理で特定されたフォトダイオードからの出力との関係を説明するためのタイムチャートである。 図17は、実施形態1における脈波データの出力に係る処理の流れの一例を示すフローチャートである。 図18は、グループ領域単位での脈波データの取得制御を説明するための模式図である。 図19は、グループ領域単位での脈波データの取得制御を説明するための模式図である。 図20は、複数の部分検出領域からの出力の平均化処理の例を示す説明図である。 図21は、実施形態2における脈波データの出力に係る処理の流れの一例を示すフローチャートである。 図22は、実施形態3及び実施形態4における脈波データの出力に係る処理の流れの一例を示すフローチャートである。 図23は、図22の初回処理の流れの一例を示すフローチャートである。 図24は、実施形態3における図22の位置ずれ対応処理の流れの一例を示すフローチャートである。 図25は、実施形態3の変形例における図22の位置ずれ対応処理の流れの一例を示すフローチャートである。 図26は、実施形態4における図22の位置ずれ対応処理の流れの一例を示すフローチャートである。 図27は、実施形態4の変形例における図22の位置ずれ対応処理の流れの一例を示すフローチャートである。 図28は、手首に装着可能な形態の検出装置の主要構成例を示す模式図である。 図29は、図28に示す検出装置による血管の検出例を示す模式図である。 図30は、指とセンサ部との間にレンズが設けられる構成例を示す図である。 図31は、相互静電容量方式のセンサの主要構成例を示す模式図である。 図32は、自己静電容量方式のセンサの主要構成例を示す模式図である。 図33は、バンダナに搭載された検出装置のセンサ部の配置例を示す図である。 図34は、衣服に搭載された検出装置のセンサ部の配置例を示す図である。 図35は、粘着性シートに搭載された検出装置のセンサ部の配置例を示す図である。
 発明を実施するための形態(実施形態)につき、図面を参照しつつ詳細に説明する。以下の実施形態に記載した内容により本発明が限定されるものではない。また、以下に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものが含まれる。さらに、以下に記載した構成要素は適宜組み合わせることが可能である。なお、開示はあくまで一例にすぎず、当業者において、発明の主旨を保っての適宜変更について容易に想到し得るものについては、当然に本発明の範囲に含有されるものである。また、図面は説明をより明確にするため、実際の態様に比べ、各部の幅、厚さ、形状等について模式的に表される場合があるが、あくまで一例であって、本発明の解釈を限定するものではない。また、本明細書と各図において、既出の図に関して前述したものと同様の要素には、同一の符号を付して、詳細な説明を適宜省略することがある。
(実施形態1)
 図1は、実施形態1に係る検出装置を示す平面図である。図1に示すように、検出装置1は、センサ基材21と、センサ部10と、ゲート線駆動回路15と、信号線選択回路16と、検出回路48と、制御回路122と、電源回路123と、第1光源基材51と、第2光源基材52と、少なくとも1つの第1光源61と、少なくとも1つの第2光源62と、を有する。
 センサ基材21には、フレキシブルプリント基板71を介して制御基板121が電気的に接続される。フレキシブルプリント基板71には、検出回路48が設けられている。制御基板121には、制御回路122及び電源回路123が設けられている。制御回路122は、例えばFPGA(Field Programmable Gate Array)である。制御回路122は、センサ部10、ゲート線駆動回路15及び信号線選択回路16に制御信号を供給して、センサ部10の検出動作を制御する。また、制御回路122は、第1光源61及び第2光源62に制御信号を供給して、第1光源61及び第2光源62の点灯又は非点灯を制御する。電源回路123は、センサ電源信号VDDSNS(図4参照)等の電圧信号をセンサ部10、ゲート線駆動回路15及び信号線選択回路16に供給する。また、電源回路123は、電源電圧を第1光源61及び第2光源62に供給する。
 センサ基材21は、検出領域AAと、周辺領域GAとを有する。検出領域AAは、センサ部10が有する複数のフォトダイオードPD(図4参照)が設けられた領域である。周辺領域GAは、検出領域AAの外周と、センサ基材21の端部との間の領域であり、フォトダイオードPDと重ならない領域である。
 ゲート線駆動回路15及び信号線選択回路16は、周辺領域GAに設けられる。具体的には、ゲート線駆動回路15は、周辺領域GAのうち第2方向Dyに沿って延在する領域に設けられる。信号線選択回路16は、周辺領域GAのうち第1方向Dxに沿って延在する領域に設けられ、センサ部10と検出回路48との間に設けられる。
 なお、第1方向Dxは、センサ基材21と平行な面内の一方向である。第2方向Dyは、センサ基材21と平行な面内の一方向であり、第1方向Dxと直交する方向である。なお、第2方向Dyは、第1方向Dxと直交しないで交差してもよい。また、第3方向Dzは、第1方向Dx及び第2方向Dyと直交する方向であり、センサ基材21の法線方向である。
 複数の第1光源61は、第1光源基材51に設けられ、第2方向Dyに沿って配列される。複数の第2光源62は、第2光源基材52に設けられ、第2方向Dyに沿って配列される。第1光源基材51及び第2光源基材52は、それぞれ、制御基板121に設けられた端子部124、125を介して、制御回路122及び電源回路123と電気的に接続される。
 複数の第1光源61及び複数の第2光源62は、例えば、無機LED(Light Emitting Diode)や、有機EL(OLED:Organic Light Emitting Diode)等が用いられる。複数の第1光源61及び複数の第2光源62は、それぞれ異なる波長の第1光L61及び第2光L62(図11等参照)を出射する。第1光L61と第2光L62は、それぞれ異なる発光極大波長を有する。発光極大波長とは、第1光L61及び第2光L62のそれぞれの波長と発光強度との関係を示す発光スペクトルにおいて、最大の発光強度を示す波長である。以後、単に波長の数値を記載した場合、想定された発光極大波長を示すものとする。
 第1光源61から出射された第1光L61は、主に指Fg等の被検出体の表面で反射されセンサ部10に入射する。これにより、センサ部10は、指Fg等の表面の凹凸の形状を検出することで指紋を検出することができる。第2光源62から出射された第2光L62は、主に指Fg等の内部で反射し又は指Fg等を透過してセンサ部10に入射する。これにより、センサ部10は、指Fg等の内部の生体に関する情報を検出できる。生体に関する情報とは、例えば、指Fgや掌の脈波、脈拍、血管像等である。
 一例として、第1光L61は、520nm以上600nm以下、例えば500nm程度の波長を有し、第2光L62は、780nm以上900nm以下、例えば850nm程度の波長を有していてもよい。この場合、第1光L61は、青色又は緑色の可視光であり、第2光L62は、赤外光である。センサ部10は、第1光源61から出射された第1光L61に基づいて、指紋を検出することができる。第2光源62から出射された第2光L62は、指Fg等の被検出体の内部で反射し又は指Fg等を透過・吸収されてセンサ部10に入射する。これにより、センサ部10は、指Fg等の内部の生体に関する情報として脈波や血管像(血管パターン)を検出できる。
 又は、第1光L61は、600nm以上700nm以下、例えば660nm程度の波長を有し、第2光L62は、780nm以上900nm以下、例えば850nm程度の波長を有していてもよい。この場合、第1光源61から出射された第1光L61及び第2光源62から出射された第2光L62に基づいて、センサ部10は、生体に関する情報として、脈拍や血管像に加えて、血中酸素飽和度を検出することができる。このように、検出装置1は、第1光源61及び複数の第2光源62を有しているので、第1光L61に基づいた検出と、第2光L62に基づいた検出とを行うことで、種々の生体に関する情報を検出することができる。
 なお、図1に示す第1光源61及び第2光源62の配置は、あくまで一例であり適宜変更することができる。例えば、第1光源基材51及び第2光源基材52のそれぞれに、複数の第1光源61及び複数の第2光源62が配置されていてもよい。この場合、複数の第1光源61を含むグループと、複数の第2光源62を含むグループとが、第2方向Dyに並んで配置されていてもよいし、第1光源61と第2光源62とが交互に第2方向Dyに配置されていてもよい。また、第1光源61及び第2光源62が設けられる光源基材は1つ又は3つ以上であってもよい。
 図2は、実施形態1に係る検出装置の構成例を示すブロック図である。図2に示すように、検出装置1は、さらに検出制御部11と検出部40を有する。検出制御部11の機能の一部又は全部は、制御回路122に含まれる。また、検出部40のうち、検出回路48以外の機能の一部又は全部は、制御回路122に含まれる。
 センサ部10は、光電変換素子であるフォトダイオードPDを有する光センサである。センサ部10が有するフォトダイオードPDは、照射される光に応じた電気信号を信号線選択回路16へ出力する。信号線選択回路16は検出制御部11からの選択信号ASWに従い順次信号線SGLを選択する。これによって、当該電気信号は、検出信号Vdetとして検出部40へ出力される。また、センサ部10は、ゲート線駆動回路15から供給されるゲート駆動信号Vgclにしたがって検出を行う。
 検出制御部11は、ゲート線駆動回路15、信号線選択回路16及び検出部40にそれぞれ制御信号を供給し、これらの動作を制御する回路である。検出制御部11は、スタート信号STV、クロック信号CK、リセット信号RST1等の各種制御信号をゲート線駆動回路15に供給する。また、検出制御部11は、選択信号ASW等の各種制御信号を信号線選択回路16に供給する。また、検出制御部11は、各種制御信号を第1光源61及び第2光源62に供給して、それぞれの点灯及び非点灯を制御する。
 ゲート線駆動回路15は、各種制御信号に基づいて複数のゲート線GCL(図3参照)を駆動する回路である。ゲート線駆動回路15は、複数のゲート線GCLを順次又は同時に選択し、選択されたゲート線GCLにゲート駆動信号Vgclを供給する。これにより、ゲート線駆動回路15は、ゲート線GCLに接続された複数のフォトダイオードPDを選択する。
 信号線選択回路16は、複数の信号線SGL(図3参照)を順次又は同時に選択するスイッチ回路である。信号線選択回路16は、例えばマルチプレクサである。信号線選択回路16は、検出制御部11から供給される選択信号ASWに基づいて、選択された信号線SGLと検出回路48とを接続する。これにより、信号線選択回路16は、フォトダイオードPDの検出信号Vdetを検出部40に出力する。
 検出部40は、検出回路48と、信号処理部44と、座標抽出部45と、記憶部46と、検出タイミング制御部47と、画像処理部49と、出力処理部50とを備える。検出タイミング制御部47は、検出制御部11から供給される制御信号に基づいて、検出回路48と、信号処理部44と、座標抽出部45と、画像処理部49と、が同期して動作するように制御する。
 検出回路48は、例えばアナログフロントエンド回路(AFE、Analog Front End)である。検出回路48は、例えば、検出信号増幅部42及びA/D変換部43の機能を有する信号処理回路である。検出信号増幅部42は、検出信号Vdetを増幅する。A/D変換部43は、検出信号増幅部42から出力されるアナログ信号をデジタル信号に変換する。
 信号処理部44は、検出回路48の出力信号に基づいて、センサ部10に入力された所定の物理量を検出する論理回路である。信号処理部44は、指Fgが検出領域AAに接触又は近接した場合に、検出回路48からの信号に基づいて指Fgや掌の表面の凹凸を検出できる。また、信号処理部44は、検出回路48からの信号に基づいて生体に関する情報を検出できる。生体に関する情報は、例えば、指Fgや掌の血管像、脈波、脈拍、血中酸素飽和度等である。
 ヒトの血中酸素飽和度を取得する場合、例えば、第1光L61として660nm(この範囲は500nm~700nm)が採用され、第2光L62として約850nm(この範囲は800nm~930nm)が採用される。ヘモグロビンが酸素を取り込んだ量によって光の吸収量が変化するので、照射した第1光L61、第2光L62から血液(ヘモグロビン)に吸収された光を差し引いた量の光をフォトダイオードPDで検出する。血中酸素のほとんどは赤血球中のヘモグロビンと可逆的に結合しており、ごく一部が血漿中に溶解している。より具体的には、血液全体として、その許容量の何%の酸素が結合しているかの値を酸素飽和度(SpO2)と呼ぶ。第1光L61と第2光L62の2波長にて、照射した光から血液(ヘモグロビン)に吸収された光を差し引いた量から血中酸素飽和度を算出することが可能となる。
 また、信号処理部44は、複数のフォトダイオードPDにより同時に検出された検出信号Vdet(生体に関する情報)を取得し、これらを平均化する処理を実行してもよい。この場合、検出部40は、ノイズや、指Fg等の被検出体とセンサ部10との相対的な位置ずれに起因する測定誤差を抑制して、安定した検出が可能となる。
 記憶部46は、信号処理部44で演算された信号を一時的に保存する。記憶部46は、例えばRAM(Random Access Memory)、レジスタ回路等であってもよい。
 座標抽出部45は、信号処理部44において指の接触又は近接が検出されたときに、指等の表面の凹凸の検出座標を求める論理回路である。また、座標抽出部45は、指Fgや掌の血管の検出座標を求める論理回路である。画像処理部49は、センサ部10の各フォトダイオードPDから出力される検出信号Vdetを組み合わせて、指Fg等の表面の凹凸の形状を示す二次元情報及び指Fgや掌の血管の形状を示す二次元情報を生成する。なお、座標抽出部45及び画像処理部49は省略されてもよい。
 出力処理部50は、複数のフォトダイオードPDからの出力に基づいた処理を行う処理部として機能する。具体的には、実施形態の出力処理部50は、少なくとも、信号処理部44を経て取得された検出信号Vdetに基づいて、少なくとも脈波データを含むセンサ出力Voを出力する。実施形態では、後述する各フォトダイオードPDの検出信号Vdetの出力の変化(振幅)を示すデータを信号処理部44が出力し、どの出力がセンサ出力Voに採用されるかを出力処理部50が決定するが、この両方を信号処理部44又は出力処理部50が行うようにしてもよい。なお、出力処理部50は、座標抽出部45が求めた検出座標、画像処理部49が生成した二次元情報等をセンサ出力Voに含めるようにしてもよい。また、出力処理部50の機能は、他の構成(例えば、画像処理部49等)に統合されてもよい。
 尚、脈波等の検出装置を人体に装着すると、呼吸や姿勢の変化、人体の運動等に伴うノイズも検出されるため、信号処理部44は、必要に応じてノイズフィルタを設けてもよい。呼吸や姿勢の変化によって生じるノイズの周波数成分は例えば1Hz以下とされ、脈波の持つ周波数成分よりも十分に低い周波数であるため、ノイズフィルタとしてバンドパスフィルタを用いることで除去することができる。バンドパスフィルタは、例えば検出信号増幅器42に設けることができる。人体の運動等によって生じるノイズの周波数成分は例えば数Hz~100Hz程度とされ脈波の持つ周波数成分と重なる場合がある。しかし、この場合の周波数は一定の周波数ではなく周波数のゆらぎを有するため、ゆらぎ成分を有する周波数に対して除去を行うノイズフィルタを用いる。ゆらぎ成分を有する周波数を除去する方法の一例(第1のゆらぎ成分除去方法)として、脈波は人体の測定場所によってピーク値のタイムラグが生じるという性質を利用してもよい。すなわち、脈波は人体の測定箇所によってタイムラグが生じ、人体の運動等によって生じるノイズはタイムラグが生じないか、あるいは脈波に比べてタイムラグが小さい。従って、少なくとも2点の異なる場所において脈波を測定し、異なる複数の場所で測定されたピーク値が所定時間以内であればノイズとして除去する。この場合においても、ノイズによる波形と脈波による波形が偶然重なる場合が考えられるが、この場合は異なる複数の場所の一方の場所のみで2つの波形が重なることになるため、ノイズによる波形と脈波による波形の判別が可能となる。この処理は、例えば信号処理部44にて実施することができる。ゆらぎ成分を有する周波数を除去する方法の他の一例(第2のゆらぎ成分除去方法)として、信号処理部44にて位相が異なる周波数成分を除去する。この場合、例えば短時間フーリエ変換を行い、ゆらぎ成分を除去し、逆フーリエ変換を行ってもよい。更に、商用周波数電源(50Hz、60Hz)もノイズ源となるが、この場合も人体の運動等によって生じるノイズと同様に異なる複数の場所で測定されたピーク値のタイムラグが生じないか脈波によるタイムラグよりも小さい。このため、上記の第1のゆらぎ成分除去方法と同様の方法にてノイズ除去が可能である。あるいは、検出器の検出面と反対側の面にシールドを設けることで商用周波数電源によって生じるノイズを除去してもよい。
 次に、検出装置1の回路構成例について説明する。図3は、検出装置を示す回路図である。図4は、複数の部分検出領域を示す回路図である。なお、図4では、検出回路48の回路構成も併せて示している。
 図3に示すように、センサ部10は、マトリクス状に配列された複数の部分検出領域PAAを有する。複数の部分検出領域PAAには、それぞれフォトダイオードPDが設けられている。
 ゲート線GCLは、第1方向Dxに延在し、第1方向Dxに配列された複数の部分検出領域PAAと接続される。また、複数のゲート線GCL(1)、GCL(2)、…、GCL(8)は、第2方向Dyに配列され、それぞれゲート線駆動回路15に接続される。なお、以下の説明において、複数のゲート線GCL(1)、GCL(2)、…、GCL(8)を区別して説明する必要がない場合には、単にゲート線GCLと表す。また、図3では説明を分かりやすくするために、8本のゲート線GCLを示しているが、あくまで一例であり、ゲート線GCLは、M本(Mは8以上、例えばM=256)配列されていてもよい。
 信号線SGLは、第2方向Dyに延在し、第2方向Dyに配列された複数の部分検出領域PAAのフォトダイオードPDに接続される。また、複数の信号線SGL(1)、SGL(2)、…、SGL(12)は、第1方向Dxに配列されて、それぞれ信号線選択回路16及びリセット回路17に接続される。なお、以下の説明において、複数の信号線SGL(1)、SGL(2)、…、SGL(12)を区別して説明する必要がない場合には、単に信号線SGLと表す。
 また、説明を分かりやすくするために、12本の信号線SGLを示しているが、あくまで一例であり、信号線SGLは、N本(Nは12以上、例えばN=252)配列されていてもよい。また、センサの解像度は例えば508dpi(dot per inch)とされ、セル数は252×256とされる。また、図3では、信号線選択回路16とリセット回路17との間にセンサ部10が設けられている。これに限定されず、信号線選択回路16とリセット回路17とは、信号線SGLの同じ方向の端部にそれぞれ接続されていてもよい。また、1つのセンサの実質的な面積は例えば実質50×50umとされ、検出領域AAの面積は例えば12.6×12.8mmとされる。
 ゲート線駆動回路15は、スタート信号STV、クロック信号CK、リセット信号RST1等の各種制御信号を、制御回路122(図1参照)から受け取る。ゲート線駆動回路15は、各種制御信号に基づいて、複数のゲート線GCL(1)、GCL(2)、…、GCL(8)を時分割的に順次選択する。ゲート線駆動回路15は、選択されたゲート線GCLにゲート駆動信号Vgclを供給する。これにより、ゲート線GCLに接続された複数の第1スイッチング素子Trにゲート駆動信号Vgclが供給され、第1方向Dxに配列された複数の部分検出領域PAAが、検出対象として選択される。
 なお、ゲート線駆動回路15は、指紋の検出及び異なる複数の生体に関する情報(脈波、脈拍、血管像、血中酸素飽和度等)のそれぞれの検出モードごとに、異なる駆動を実行してもよい。例えば、ゲート線駆動回路15は、複数のゲート線GCLを束ねて駆動してもよい。
 具体的には、ゲート線駆動回路15は、制御信号に基づいて、ゲート線GCL(1)、GCL(2)、…、GCL(8)のうち、所定数のゲート線GCLを同時に選択してもよい。例えば、ゲート線駆動回路15は、6本のゲート線GCL(1)からゲート線GCL(6)を同時に選択し、ゲート駆動信号Vgclを供給する。ゲート線駆動回路15は、選択された6本のゲート線GCLを介して、複数の第1スイッチング素子Trにゲート駆動信号Vgclを供給する。これにより、第1方向Dx及び第2方向Dyに配列された複数の部分検出領域PAAを含むグループ領域PAG1、PAG2が、それぞれ検出対象として選択される。ゲート線駆動回路15は、所定数のゲート線GCLを束ねて駆動し、所定数のゲート線GCLごとに順次ゲート駆動信号Vgclを供給する。以下、検出領域位グループPAG1,PAG2のようにそれぞれ異なるグループ領域の各々の位置を特に区別しない場合、グループ領域PAGと記載する。
 信号線選択回路16は、複数の選択信号線Lselと、複数の出力信号線Loutと、第3スイッチング素子TrSと、を有する。複数の第3スイッチング素子TrSは、それぞれ複数の信号線SGLに対応して設けられている。6本の信号線SGL(1)、SGL(2)、…、SGL(6)は、共通の出力信号線Lout1に接続される。6本の信号線SGL(7)、SGL(8)、…、SGL(12)は、共通の出力信号線Lout2に接続される。出力信号線Lout1、Lout2は、それぞれ検出回路48に接続される。
 ここで、信号線SGL(1)、SGL(2)、…、SGL(6)を第1信号線ブロックとし、信号線SGL(7)、SGL(8)、…、SGL(12)を第2信号線ブロックとする。複数の選択信号線Lselは、1つの信号線ブロックに含まれる第3スイッチング素子TrSのゲートにそれぞれ接続される。また、1本の選択信号線Lselは、複数の信号線ブロックの第3スイッチング素子TrSのゲートに接続される。
 具体的には、選択信号線Lsel1、Lsel2、…、Lsel6は、それぞれ信号線SGL(1)、SGL(2)、…、SGL(6)に対応する第3スイッチング素子TrSと接続される。また、選択信号線Lsel1は、信号線SGL(1)に対応する第3スイッチング素子TrSと、信号線SGL(7)に対応する第3スイッチング素子TrSと、に接続される。選択信号線Lsel2は、信号線SGL(2)に対応する第3スイッチング素子TrSと、信号線SGL(8)に対応する第3スイッチング素子TrSと、に接続される。
 制御回路122(図1参照)は、選択信号ASWを順次選択信号線Lselに供給する。これにより、信号線選択回路16は、第3スイッチング素子TrSの動作により、1つの信号線ブロックにおいて信号線SGLを時分割的に順次選択する。また、信号線選択回路16は、複数の信号線ブロックでそれぞれ1本ずつ信号線SGLを選択する。このような構成により、検出装置1は、検出回路48を含むIC(Integrated Circuit)の数、又はICの端子数を少なくすることができる。
 なお、信号線選択回路16は、複数の信号線SGLを束ねて検出回路48に接続してもよい。具体的には、制御回路122(図1参照)は、選択信号ASWを同時に選択信号線Lselに供給する。これにより、信号線選択回路16は、第3スイッチング素子TrSの動作により、1つの信号線ブロックにおいて複数の信号線SGL(例えば6本の信号線SGL)を選択し、複数の信号線SGLと検出回路48とを接続する。これにより、各グループ領域PAGで検出された信号が検出回路48に出力される。この場合、グループ領域PAG単位で複数の部分検出領域PAA(フォトダイオードPD)からの信号が統合されて検出回路48に出力される。
 ゲート線駆動回路15及び信号線選択回路16の動作により、グループ領域PAGごとに検出を行うことで、1回の検出で得られる検出信号Vdetの強度が向上するのでセンサ感度を向上させることができる。また、検出に要する時間を短縮することができる。このため、検出装置1は、検出を短時間で繰り返し実行することができるので、S/N比を向上させることができ、又、脈波等の生体に関する情報の時間的な変化を精度よく検出することができる。
 図3に示すように、リセット回路17は、基準信号線Lvr、リセット信号線Lrst及び第4スイッチング素子TrRを有する。第4スイッチング素子TrRは、複数の信号線SGLに対応して設けられている。基準信号線Lvrは、複数の第4スイッチング素子TrRのソース又はドレインの一方に接続される。リセット信号線Lrstは、複数の第4スイッチング素子TrRのゲートに接続される。
 制御回路122は、リセット信号RST2をリセット信号線Lrstに供給する。これにより、複数の第4スイッチング素子TrRがオンになり、複数の信号線SGLは基準信号線Lvrと電気的に接続される。電源回路123は、基準信号COMを基準信号線Lvrに供給する。これにより、複数の部分検出領域PAAに含まれる容量素子Ca(図4参照)に基準信号COMが供給される。
 図4に示すように、部分検出領域PAAは、フォトダイオードPDと、容量素子Caと、第1スイッチング素子Trとを含む。図4では、複数のゲート線GCLのうち、第2方向Dyに並ぶ2つのゲート線GCL(m)、GCL(m+1)を示す。また、複数の信号線SGLのうち、第1方向Dxに並ぶ2つの信号線SGL(n)、SGL(n+1)を示す。部分検出領域PAAは、ゲート線GCLと信号線SGLとで囲まれた領域である。第1スイッチング素子Trは、フォトダイオードPDに対応して設けられる。第1スイッチング素子Trは、薄膜トランジスタにより構成されるものであり、この例では、nチャネルのMOS(Metal Oxide Semiconductor)型のTFT(Thin Film Transistor)で構成されている。
 第1方向Dxに並ぶ複数の部分検出領域PAAに属する第1スイッチング素子Trのゲートは、ゲート線GCLに接続される。第2方向Dyに並ぶ複数の部分検出領域PAAに属する第1スイッチング素子Trのソースは、信号線SGLに接続される。第1スイッチング素子Trのドレインは、フォトダイオードPDのカソード及び容量素子Caに接続される。
 フォトダイオードPDのアノードには、電源回路123からセンサ電源信号VDDSNSが供給される。また、信号線SGL及び容量素子Caには、電源回路123から、信号線SGL及び容量素子Caの初期電位となる基準信号COMが供給される。
 部分検出領域PAAに光が照射されると、フォトダイオードPDには光量に応じた電流が流れ、これにより容量素子Caに電荷が蓄積される。第1スイッチング素子Trがオンになると、容量素子Caに蓄積された電荷に応じて、信号線SGLに電流が流れる。信号線SGLは、信号線選択回路16の第3スイッチング素子TrSを介して検出回路48に接続される。これにより、検出装置1は、部分検出領域PAAごとに、又はグループ領域PAGごとにフォトダイオードPDに照射される光の光量に応じた信号を検出できる。
 検出回路48は、読み出し期間Pdet(図7参照)にスイッチSSWがオンになり、信号線SGLと接続される。検出回路48の検出信号増幅部42は、信号線SGLから供給された電流の変動を電圧の変動に変換して増幅する。検出信号増幅部42の非反転入力部(+)には、固定された電位を有する基準電位(Vref)が入力され、反転入力端子(-)には、信号線SGLが接続される。実施形態1では、基準電位(Vref)として基準信号COMと同じ信号が入力される。また、検出信号増幅部42は、容量素子Cb及びリセットスイッチRSWを有する。リセット期間Prst(図7参照)において、リセットスイッチRSWがオンになり、容量素子Cbの電荷がリセットされる。
 次に、センサ部10の製造方法の概略及びフォトダイオードPDの形成プロセス(OPD形成プロセス)について説明する。図5Aは、センサ部10の拡大概略構成図である。図5Bは、図5AのQ-Q断面図である。
(製造方法の概略)
 センサ部10の製造方法の概略を述べる。ガラス基板21に成膜されたポリイミド25上に積層されたアンダーコート26、遮光層27及びインシュレータ上に、LTPS(Low Temperature Poly Silicon)22を含むバックプレーンBPを形成した。ポリイミド25の厚みは、例えば10μmである。バックプレーンBPを形成するためのデバイスは、バックプレーンBPを形成するための全てのプロセスが終了後にLLO(Laser lift off)でガラス基板から剥離する。バックプレーンBPは、第1スイッチング素子Trとして機能する。なお、実施形態では、半導体層としてLTPS22が採用されているが、これに限られるものでなく、アモルファスシリコン等、他の半導体によってもよい。
 各第1スイッチング素子Trは、2個のNMOSトランジスタが直接に接続されたダブルゲートTFTから構成されている。当該NMOSは、例えば、チャネル長4.5μm、チャネル幅2.5μm、移動度約40~70cm/Vsである。LTPSのTFTの形成に係り、まず一酸化珪素(SiO)、窒化ケイ素(SiN)、SiO、アモルファスシリコン(a-Si)の4つの材料を用いて成膜した後に、エキシマレーザーによるアニールでa-Siを結晶化させてポリシリコンを形成する。また、周りのドライバ部分の回路は、PMOSトランジスタとNMOSトランジスタからなるCMOS(Complementary MOS)回路で形成されている。当該PMOSトランジスタは、例えば、チャネル長4.5μm、チャネル幅3.5μm、移動度約40~70cm/Vsである。当該NMOSトランジスタは、例えば、前述と同様、チャネル長4.5μm、チャネル幅2.5μm、移動度約40~70cm/Vsである。ポリシリコンの形成後に、ホウ素(Boron:B)とリン(Phosphorus:P)をドーピングすることで、PMOSとNMOSの電極を形成した。
 その後、絶縁膜23aとしてSiOが成膜され、ダブルゲートTFTの2個のゲート電極GA,GBとしてモリブデンタングステン合金(MoW)が成膜される。絶縁膜23aの厚みは、例えば70nmである。ゲート電極GA,GBを形成するためのMoWの厚みは、例えば250nmである。
 MoWの成膜後、中間膜23bが成膜され、ソース電極28a、ドレイン電極28bを形成するための電極層28が成膜される。電極層28は、例えばアルミニウム合金である。なお、ソース電極28a、ドレイン電極28bと、ドーピングによって形成されたLTPS22のPMOS、NMOSの電極との接続を行うためのビアV1、ビアV2がドライエッチングによって形成される。絶縁膜23aと中間膜23bは、ゲート線GCLとして機能するゲート電極GA,GBと、LTPS22及び電極層28とを隔てる絶縁層23として機能する。
 このようにして形成されたバックプレーンBPは、遮光層27に対してフォトダイオードPD側に積層されるLTPS22と、LTPS22とフォトダイオードPDとの間に積層されて第1スイッチング素子Trのソース電極28a及びドレイン電極28bが形成される電極層28と、を含む。ソース電極28aは、LTPS22を挟んで遮光層27と対向する位置に延出する。
 バックプレーンBPを製造後、上部に有機フォトディテクタの層を形成するために、厚さ2μmの平滑層29が形成される。図示しないが、平滑層29に、さらに封止膜が形成される。また、バックプレーンBPとフォトダイオードPDとの接続を行う為のビアV3がエッチングによって形成される。
 次に、大気安定な逆型構造の有機フォトダイオード(Organic Photo Diode:OPD)をフォトダイオードPDとしてバックプレーンBP上部に形成した。有機センサであるセンサ部10のフォトダイオードPDのアクティブ層31は、近赤外光(例えば、波長850nmの光)に感度を持つ材料を用いている。透明電極であるカソード電極35にはITO(Indium Tin Oxide)を用いており、ビアV3を通じてバックプレーンBPと接続されている。さらに、図示しないが、ITOの表面に酸化亜鉛(Zinc Oxide:ZnO)層35aを形成することで、電極の仕事関数を調整している。
 有機フォトダイオードは、種類の異なる有機半導体材料を活性層にして、2つ別なデバイスを作製している。具体的には、種類の異なる有機半導体材料として、PMDPP3T(Poly[[2,5-bis(2-hexyldecyl)-2,3,5,6-tetrahydro-3,6-dioxopyrrolo[3,4-c]pyrrole-1,4-diyl]-alt-[3‘,3’‘-dimethyl-2,2’:5‘,2’‘-terthiophene]-5,5’‘-diyl])とSTD-001(住友化学)の2種類の材料を用いた。それぞれの材料をフェニルC61酪酸メチルエステル( [6,6]-Phenyl-C61-Butyric Acid Methyl Ester:PCBM)と混合して成膜することでバルクヘテロ構造を実現している。さらに、アノード電極34として、ポリチオフェン系導電性ポリマー(PEDOT:PSS)と銀(Ag)を成膜した。図示しないが、有機フォトダイオードは、厚さ1μmのパリレンで封止を行っており、アナログフロントエンド(Analog Front End:AFE)が実装されたフレキ基板との接続のためにコンタクトパッドとしてクロム及び金(Cr/Au)が上部に成膜されている。
 封止膜としてパレリンを用いたが、二酸化珪素(SiO2)や酸窒化珪素(SiON)であってもよい。アノード電極34としてPEDOT:PSSを10nm、Agを80nm積層したが、膜厚の範囲は、PEDOT:PSSに関し10~30nm、Agに関し10~100nmであってもよい。PEDOT:PSSに関しては、酸化モリブデン(MoOx)などが代替材料として挙げられ、Agに関しては、アルミニウム(Al)や金(Au)などが代替材料として挙げられる。カソード電極35はITO上にZnOを形成しているが、ITO上にポリエチレンイミン(Polyethylenimine:PEI)やエトキシ化PEI(PEI Ethoxylation:PEIE)といったポリマー形成でもよい。
(OPD形成プロセス)
 チップの表面を300W、10秒(sec)の条件でO2プラズマ処理を行った。次に、ZnO層をスピンコート条件5000rpm、30秒(sec)で成膜し、180℃で30分(min)アニールを行った。ZnO表面に有機層として、PMDPP3T:PCBM溶液またはSTD-001:PCBM溶液をそれぞれ250rpm、4minでスピンコートした。その後、窒素雰囲気化においてPEDOT:PSS(例えば、Al4083)をイソプロピルアルコール(IsoPropyl Alcohol:IPA)で(3:17)に希釈した溶液を0.45μmのPVDFフィルターで濾過した後、2000rpmで30秒(sec)の条件でスピンコート法により成膜した。成膜後、窒素雰囲気化で80℃、5分(min)アニールを行った。最後に、アノード電極34として銀を80nm真空蒸着した。デバイスが完成後、封止膜として1μmのパリレンをCVD(Chemical Vapor Deposition)法にて成膜し、コンタクトパッドとしてCr/Auを真空蒸着した。
 なお、係る形成プロセスによるフォトダイオードPDは、光起電力効果を有する有機材料であるアクティブ層31と、アクティブ層31を挟んでバックプレーンBP側に設けられるカソード電極35と、アクティブ層31を挟んでカソード電極35の反対側に設けられるアノード電極34とを備える。光を検出可能に設けられたセンサ部10の検出面に沿って並ぶ複数のフォトダイオードPD(図3、図4等参照)の各々のカソード電極35に対して、アクティブ層31の層及びアノード電極34の層が検出面に沿って連続する(図5B参照)。すなわち、カソード電極35が各々のフォトダイオードPDで独立して設けられ、アクティブ層31及びアノード電極34は検出領域AAの全域に渡って連続する。
 図6は、フォトダイオードに入射する光の波長と変換効率との関係を模式的に示すグラフである。図6に示すグラフの横軸は、フォトダイオードPDに入射する光の波長であり、縦軸は、フォトダイオードPDの外部量子効率である。外部量子効率は、例えば、フォトダイオードPDに入射する光の光量子数と、フォトダイオードPDから外部の検出回路48に流れる電流との比で表される。
 図6に示すように、フォトダイオードPDは、300nmから1000nm程度の波長帯で良好な効率を有する。すなわち、フォトダイオードPDは、第1光源61から出射される第1光L61及び第2光源62から出射される第2光L62の両方の波長に対して感度を有している。このため、1つのフォトダイオードPDで、異なる波長を有する複数の光を検出することができる。
 次に、検出装置1の動作例について説明する。図7は、検出装置の動作例を表すタイミング波形図である。図7に示すように、検出装置1は、リセット期間Prst、有効露光期間Pex及び読み出し期間Pdetを有する。電源回路123は、リセット期間Prst、有効露光期間Pex及び読み出し期間Pdetに亘って、センサ電源信号VDDSNSをフォトダイオードPDのアノードに供給する。センサ電源信号VDDSNSはフォトダイオードPDのアノード-カソード間に逆バイアスを印加する信号である。例えば、フォトダイオードPDのカソードには実質0.75Vの基準信号COMがされているが、アノードに実質-1.25Vのセンサ電源信号VDDSNSを印加することにより、アノード-カソード間は実質2.0Vで逆バイアスされる。また、850nmの波長を検出するとき、2Vの逆バイアスを印加することで、フォトダイオードPDは0.5A/W以上0.7A/W以下、好ましくは0.57A/W程度の高感度を得ることができる。また、フォトダイオードの特性は、2Vの逆バイアスを印加時に暗電流密度(dark current density)が1.0×10-7A/cmであり、出力が実質2.9mW/cmの850nmの波長の光を検出するときに光電流密度(photocurrent density)が1.2×10-3A/cmとなるものを使用する。また、850nmの波長の光を照射時、逆バイアス2V印加時に、外部量子効率(EQE)は約1.0になる。制御回路122は、RST2信号を”H”とした後にゲート線駆動回路15にスタート信号STVおよびクロック信号CKを供給し、リセット期間Prstが開始する。リセット期間Prstにおいて、制御回路122は、基準信号COMをリセット回路17に供給し、リセット信号RST2によってリセット電圧を供給するための第4スイッチングトランジスタTrRをオンさせる。これにより各信号線SGLにはリセット電圧として基準信号COMが供給される。基準信号COMは、例えば0.75Vとされる。
 リセット期間Prstにおいて、ゲート線駆動回路15は、スタート信号STV、クロック信号CK及びリセット信号RST1に基づいて、順次ゲート線GCLを選択する。ゲート線駆動回路15は、ゲート駆動信号Vgcl{Vgcl(1)~Vgcl(M)}をゲート線GCLに順次供給する。ゲート駆動信号Vgclは、高レベル電圧である電源電圧VDDと低レベル電圧である電源電圧VSSとを有するパルス状の波形を有する。図7では、M本(例えばM=256)のゲート線GCLが設けられており、各ゲート線GCLに、ゲート駆動信号Vgcl(1)、…、Vgcl(M)が順次供給され、複数の第1スイッチング素子Trは各行毎に順次導通され、リセット電圧が供給される。リセット電圧として例えば、基準信号COMの電圧0.75Vが供給される。
 これにより、リセット期間Prstでは、全ての部分検出領域PAAの容量素子Caは、順次信号線SGLと電気的に接続されて、基準信号COMが供給される。この結果、容量素子Caの容量に蓄積された電荷がリセットされる。尚、部分的にゲート線、および信号線SGLを選択することにより部分検出領域PAAのうち一部の容量素子Caの容量をリセットすることも可能である。
 露光するタイミングの例として、ゲート線走査時露光制御方法と常時露光制御方法がある。ゲート線走査時露光制御方法においては、検出対象のフォトダイオードPDに接続された全てのゲート線GCLにゲート駆動信号{Vgcl(1)~(M)}が順次供給され、検出対象の全てのフォトダイオードPDにリセット電圧が供給される。その後、検出対象のフォトダイオードPDに接続された全てのゲート線GCLが低電圧(第1スイッチング素子Trがオフ)になると露光が開始され、有効露光期間Pexの間に露光が行われる。露光が終了すると前述のように検出対象のフォトダイオードPDに接続されたゲート線GCLにゲート駆動信号{Vgcl(1)~(M)}が順次供給され、読み出し期間Pdetに読み出しが行われる。常時露光制御方法においては、リセット期間Prst、読み出し期間においても露光を行う制御(常時露光制御)をすることも可能である。この場合は、ゲート駆動信号Vgcl(M)がゲート線GCLに供給された後に、有効露光期間Pex(1)が開始する。ここで、有効露光期間Pex{(1)・・・(M)}とはフォトダイオードPDから容量Caへ充電される期間とされる。なお、各ゲート線GCLに対応する部分検出領域PAAでの、実際の有効露光期間Pex(1)、…、Pex(M)は、開始のタイミング及び終了のタイミングが異なっている。有効露光期間Pex(1)、…、Pex(M)は、それぞれ、リセット期間Prstでゲート駆動信号Vgclが高レベル電圧の電源電圧VDDから低レベル電圧の電源電圧VSSに変化したタイミングで開始される。また、有効露光期間Pex(1)、…、Pex(M)は、それぞれ、読み出し期間Pdetでゲート駆動信号Vgclが電源電圧VSSから電源電圧VDDに変化したタイミングで終了する。各有効露光期間Pex(1)、…、Pex(M)の露光時間の長さは等しい。
 ゲート線走査時露光制御方法において、有効露光期間Pexでは、各部分検出領域PAAで、フォトダイオードPDに照射された光に応じて電流が流れる。この結果、各容量素子Caに電荷が蓄積される。
 読み出し期間Pdetが開始する前のタイミングで、制御回路122は、リセット信号RST2を低レベル電圧にする。これにより、リセット回路17の動作が停止する。尚、リセット信号はリセット期間Prstのみ高レベル電圧としてもよい。読み出し期間Pdetでは、リセット期間Prstと同様に、ゲート線駆動回路15は、ゲート線GCLにゲート駆動信号Vgcl(1)、…、Vgcl(M)を順次供給する。
 具体的には、ゲート線駆動回路15は、期間V(1)において、ゲート線GCL(1)に、高レベル電圧(電源電圧VDD)のゲート駆動信号Vgcl(1)を供給する。制御回路122は、ゲート駆動信号Vgcl(1)が高レベル電圧(電源電圧VDD)の期間に、選択信号ASW1、…、ASW6を、信号線選択回路16に順次供給する。これにより、ゲート駆動信号Vgcl(1)により選択された部分検出領域PAAの信号線SGLが順次、又は同時に検出回路48に接続される。この結果、検出信号Vdetが部分検出領域PAAごとに検出回路48に供給される。尚、ゲート駆動信号Vgcl(1)が高レベルになってから、最初の選択信号ASW1の供給が開始されるまでの時間は、一例として約20us(実質20us)とされ、各々の選択信号ASW1、…、ASW6が供給される時間は、一例として約60us(実質60us)とされる。このような高速応答性は、移動度が実質40cm/Vsの低温ポリシリコン(LTPS)を用いた薄膜トランジスタ(TFT)を用いることで実現可能となる。
 同様に、ゲート線駆動回路15は、期間V(2)、…、V(M-1)、V(M)において、ゲート線GCL(2)、…、GCL(M-1)、GCL(M)に、それぞれ高レベル電圧のゲート駆動信号Vgcl(2)、…、Vgcl(M-1)、Vgcl(M)を供給する。すなわち、ゲート線駆動回路15は、期間V(1)、V(2)、…、V(M-1)、V(M)ごとに、ゲート線GCLにゲート駆動信号Vgclを供給する。各ゲート駆動信号Vgclが高レベル電圧となる期間ごとに、信号線選択回路16は選択信号ASWに基づいて、順次信号線SGLを選択する。信号線選択回路16は、信号線SGLごとに順次、1つの検出回路48に接続する。これにより、読み出し期間Pdetで、検出装置1は、全ての部分検出領域PAAの検出信号Vdetを検出回路48に出力することができる。
 図8は、図7における読み出し期間Readoutに含まれる1つのゲート線の駆動期間の動作例を表すタイミング波形図である。以下、図8を参照して、図7における1つのゲート駆動信号Vgcl(j)の供給期間Readout中の動作例について説明する。図7では、最初のゲート駆動信号Vgcl(1)に供給期間Readoutの符号を付しているが、他のゲート駆動信号Vgcl(2)、…、Vgcl(M)についても同様である。jは、1からMのいずれかの自然数である。
 図8および図4に示すように、第3スイッチング素子TrSの出力(Vout)は予め基準電位(Vref)にリセットされている。基準電位(Vref)はリセット電圧とされ、例えば0.75Vとされる。次にゲート駆動信号Vgcl(j)がハイレベルとなり当該行の第1スイッチングトランジスタTrがオンし、各行の信号線SGLは当該部分検出領域PAAの容量(容量素子Ca)に蓄積された電荷に応じた電圧になる。ゲート駆動信号Vgcl(j)の立ち上がりから期間t1の経過後、選択信号ASW(k)がハイになる期間t2が生じる。選択信号ASW(k)がハイになって第3スイッチング素子TrSがオンすると、当該第3スイッチング素子TrSを介して検出回路48と接続されている部分検出領域PAAの容量(容量素子Ca)に充電された電荷により、第3スイッチング素子TrSの出力(Vout)(図4参照)が当該部分検出領域PAAの容量(容量素子Ca)に蓄積された電荷に応じた電圧に変化する(期間t3)。図8の例では期間t3のようにこの電圧はリセット電圧から下がっている。その後、第5スイッチSSWがオン(SSW信号のハイレベル期間t4)すると当該部分検出領域PAAの容量(容量素子Ca)に蓄積された電荷が検出回路48の検出信号増幅部42の容量(容量素子Cb)へ電荷が移動し、検出信号増幅部42の出力電圧は容量素子Cbに蓄積された電荷に応じた電圧となる。このとき検出信号増幅部42の反転入力部はオペアンプのイマジナリショート電位となるため、基準電位(Vref)に戻っている。検出信号増幅部42の出力電圧はA/D変換部43で読み出す。図8の例では、各列の信号線SGLに対応する選択信号ASW(k)、ASW(k+1)、…の波形がハイになって第3スイッチング素子TrSを順次オンさせ、同様の動作を順次行うことで当該ゲート線GCLに接続された部分検出領域PAAの容量(容量素子Ca)に蓄積された電荷を順次読み出している。なお図8におけるASW(k)、ASW(k+1)…は、例えば、図7におけるASW1~6のいずれかである。
 具体的には、スイッチSSWがオンになる期間t4が生じると、部分検出領域PAAの容量(容量素子Ca)から検出回路48の検出信号増幅部42の容量(容量素子Cb)へ電荷が移動する。このとき検出信号増幅部42の非反転入力(+)は、基準電位(Vref)(例えば、0.75[V])にバイアスされている。このため、検出信号増幅部42の入力間のイマジナリショートにより第3スイッチング素子TrSの出力(Vout)も基準電位(Vref)になる。また、容量素子Cbの電圧は、選択信号ASW(k)に応じて第3スイッチング素子TrSがオンした箇所の部分検出領域PAAの容量(容量素子Ca)に蓄積された電荷に応じた電圧となる。検出信号増幅部42の出力は、イマジナリショートによって第3スイッチング素子TrSの出力(Vout)が基準電位(Vref)になった後に、容量素子Cbの電圧に応じた容量になり、この出力電圧をA/D変換部43で読み取る。なお、容量素子Cbの電圧とは、例えば、容量素子Cbを構成するコンデンサに設けられる2つの電極間の電圧である。
 なお、期間t1は、例えば20[μs]である。期間t2は、例えば60[μs]である。期間t3は、例えば44.7[μs]である。期間t4は、例えば0.98[μs]である。
 なお、図7及び図8では、ゲート線駆動回路15がゲート線GCLを個別に選択する例を示したが、これに限定されない。ゲート線駆動回路15は、2以上の所定数のゲート線GCLを同時に選択し、所定数のゲート線GCLごとに順次ゲート駆動信号Vgclを供給してもよい。また、信号線選択回路16も、2以上の所定数の信号線SGLを同時に1つの検出回路48に接続してもよい。また更には、ゲート線駆動回路15は、複数のゲート線GCLを間引いて走査してもよい。また、ダイナミックレンジは一例として、露光時間Pexが約4.3msのときに約10となる。また、フレームレートを約4.4fps(実質4.4fps)とすることで高解像度を実現することができる。
 また、検出装置1は、静電容量にて指紋を検出可能である。具体的には、容量素子Caを用いる。まず、全ての容量素子Caに所定の電荷を充電させる。その後、指Fgが触れることにより、指紋の凹凸に応じた容量が各セルの容量素子Caに付加される。従って、指Fgが接触した状態で、各セルの容量素子Caからの出力が示す容量を、図7及び図8を参照して説明した各部分検出領域PAAからの出力の取得と同様、検出信号増幅部42とA/D変換部43で読み取ることによって指紋パターンを生成できる。この方法により、静電容量方式にて指紋を検出できる。尚、部分検出領域PAAの容量と指紋などの被検出物との距離を100um~300umに設定する構造にすることが望ましい。
 次に、センサ部10、第1光源61及び第2光源62の動作例について説明する。図9は、検出装置のセンサ部の駆動と、光源の点灯動作との関係を説明するための説明図である。
 図9に示すように、期間t(1)から期間t(4)のそれぞれにおいて、検出装置1は、上述したリセット期間Prst、有効露光期間Pex{(1)・・・(M)}及び読み出し期間Pdetを実行する。リセット期間Prst及び読み出し期間Pdetにおいて、ゲート線駆動回路15は、ゲート線GCL(1)からゲート線GCL(M)まで順次走査する。
 期間t(1)では、第2光源62が点灯し、第1光源61は非点灯となる。これにより、検出装置1は、第2光源62から出射された第2光L62に基づいて、フォトダイオードPDから信号線SGLを介して検出回路48に電流が流れる。また、期間t(2)では、第1光源61が点灯し、第2光源62は非点灯である。これにより、検出装置1は、第1光源61から出射された第1光L61に基づいて、フォトダイオードPDから信号線SGLを介して検出回路48に電流が流れる。同様に、期間t(3)で第2光源62が点灯し第1光源61が非点灯となり、期間t(4)で第1光源61が点灯し第2光源62が非点灯となる。
 このように、第1光源61及び第2光源62は、期間tごとに時分割的に点灯する。これにより、第1光L61に基づいてフォトダイオードPDで検出された第1検出信号と、第2光L62に基づいてフォトダイオードPDで検出された第2検出信号とが、時分割で検出回路48に出力される。したがって、第1検出信号と第2検出信号とが重畳して検出回路48に出力されることを抑制することができる。このため、検出装置1は、種々の生体に関する情報を良好に検出することができる。
 なお、第1光源61及び第2光源62の駆動方法は適宜変更することができる。例えば、図9では、第1光源61及び第2光源62は、期間tごとに交互に点灯しているが、これに限定されない。第1光源61が複数回の期間tで連続して点灯した後、第2光源62が複数回の期間tで連続して点灯してもよい。また、第1光源61及び第2光源62が各期間tに同時に点灯してもよい。また、図9では常時露光制御方法の例を示しているが、ゲート線走査時露光制御方法においても第1光源61及び第2光源62を図9と同様に期間tごとに交互に駆動してもよい。
 図10は、図9とは異なるセンサ部の駆動と、光源の点灯動作との関係を説明するための説明図である。図10に示す例では、第1光源61及び第2光源62は、有効露光期間Pexで点灯し、リセット期間Prst及び読み出し期間Pdetでは非点灯である。これにより、検出装置1は、検出に要する消費電力を低減することができる。
 なお、図10に示す例に限定されず、第1光源61及び第2光源62は、リセット期間Prst、有効露光期間Pex及び読み出し期間Pdetの全期間に亘って連続して点灯してもよい。また、有効露光期間Pexに第1光源61及び第2光源62のいずれか一方が点灯し、期間tごとに交互に点灯してもよい。
 図11及び図12は、実施形態1に係る検出装置の、センサ部と、第1光源及び第2光源との関係を模式的に示す側面図である。図11及び図12では、指Fgとセンサ部10との相対的な位置関係が異なる場合の動作例を示している。図11及び図12に示すように、センサ基材21は、第1曲面Sa1と、第1曲面Sa1と反対側の第2曲面Sa2とを有する。第1曲面Sa1は、第2曲面Sa2から第1曲面Sa1に向かう方向に凸状に湾曲している。第2曲面Sa2は、指Fgの表面に沿って凹状に湾曲している。第1曲面Sa1には、複数のフォトダイオードPDが設けられる。センサ基材21は、透光性を有するフィルム状の樹脂材料であってもよく、湾曲したガラス基板であってもよい。
 複数の第1光源61-1、61-2、61-3は、第1曲面Sa1に沿って設けられ、異なる方向に第1光L61を出射する。複数の第2光源62-1、62-2、62-3は、第2曲面Sa2と対向して設けられ、異なる方向に第2光L62を出射する。第1光源61-1と、第2光源62-3とは、指Fgを挟んで配置され、反対の向きに第1光L61及び第2光L62を出射する。同様に、第1光源61-2と、第2光源62-2とは、指Fgを挟んで配置され、反対の向きに第1光L61及び第2光L62を出射する。第1光源61-3と、第2光源62-1とは、指Fgを挟んで配置され、反対の向きに第1光L61及び第2光L62を出射する。
 なお、以下の説明において第1光源61-1、61-2、61-3を区別して説明する必要がない場合には、第1光源61と表す。また、第2光源62-1、62-2、62-3を区別して説明する必要がない場合には、第2光源62と表す。
 なお、図11及び図12では、第1光源基材51及び第2光源基材52を省略して示しているが、それぞれ、指Fgの表面に沿った湾曲形状を有している。或いは、1つの光源基材を、指Fgを囲むように環状に形成し、光源基材の内周面に第1光源61及び第2光源62が設けられていてもよい。
 図13は、第2光源62と、センサ部10と、指Fg内の血管VBとの位置関係の例を示す模式図である。第2光源62(第2光源62-1、62-2、62-3の少なくともいずれか1つ以上)から出射された第2光L62は、指Fgを透過して各部分検出領域PAAのフォトダイオードPDに入射する。このとき、指Fgにおける第2光L62の透過率は、指Fg内の血管VBの脈動に応じて変化する。従って、血管VBの脈動周期以上の期間中における検出信号Vdetの変化(振幅)の周期に基づいて、脈拍数を算出できる。
 検出信号Vdetの変化(振幅)の周期に基づいた脈拍数の算出では、当該振幅がより大きい検出信号Vdetに基づいて行うことで、脈拍数を算出するための情報をより確実に取得し続けられることになる。
 図14は、指Fgと対向するように設けられた複数のフォトダイオードPDが形成する面状の検出領域AAを平面視した場合において例示的に設定されたフォトダイオードPD内の複数の部分検出領域PAAの位置(位置P1,P2,P3,P4,P5,P6)を示す模式図である。図15は、図14に示す複数の位置で取得された検出信号Vdetの経時変化例を示すグラフである。図15の線L1は、図14の位置P1の部分検出領域PAAからの検出信号Vdetの経時変化例を示す。図15の線L2は、図14の位置P2の部分検出領域PAAからの検出信号Vdetの経時変化例を示す。図15の線L3は、図14の位置P3の部分検出領域PAAからの検出信号Vdetの経時変化例を示す。図15の線L4は、図14の位置P4の部分検出領域PAAからの検出信号Vdetの経時変化例を示す。図15の線L5は、図14の位置P5の部分検出領域PAAからの検出信号Vdetの経時変化例を示す。図15の線L6は、図14の位置P6の部分検出領域PAAからの検出信号Vdetの経時変化例を示す。
 例えば、図14において指Fgと対向するフォトダイオードPDのうち指Fgの先端側中央付近の位置P5に設けられた部分検出領域PAAからの検出信号Vdetは、図15の線L5が示すような経時変化を示す。具体的には、線L5は、第1ピークMax1、第1ボトムMin1、第2ピークMax2、第2ボトムMin2、第3ピークMax3、…、のように、値化された検出信号Vdetの出力の上昇と低下とを交互に繰り返す振幅を示している。なお、第1ピークMax1、第2ピークMax2及び第3ピークMax3の出力値は、第1ボトムMin1及び第2ボトムMin2の出力値よりも大きい。従って、線L5では、第1ピークMax1から第1ボトムMin1に向かう第1ピークダウンPd1が生じている。また、線L5では、第1ボトムMin1から第2ピークMax2に向かう第1ピークアップPu1が生じている。また、線L5では、第2ピークMax2から第2ボトムMin2に向かう第2ピークダウンPd2が生じている。また、線L5では、第2ボトムMin2から第3ピークMax3に向かう第2ピークアップPu2が生じている。このように、線L5は、図15で符号を付していない範囲を含めて、ピークアップとピークダウンを繰り返す検出信号Vdetの変化(振幅)を示している。ここで、連続する1回のピークアップとピークダウンの組が、血管VBで生じる1回の脈動に対応する。
 線L1,L2,L3,L4,L6も線L5と同様、ピークアップとピークダウンを繰り返す検出信号Vdetの変化(振幅)を示す。このように、検出領域AA内のそれぞれ異なる位置P1,P2,P3,P4,P5,P6に設けられた部分検出領域PAAからの検出信号Vdetの出力は、それぞれ血管VBの脈動に応じて変化する第2光L62の透過率に対応した変化を示す。
 図14及び図15の例で示すように、指Fgに対してどの位置で部分検出領域PAAが対向しているかによって、検出信号Vdetの変化(振幅)の度合いは異なる。例えば、線L1及び線L6の振幅の度合いは、線L5の振幅の度合いに比して明らかに小さい。従って、血管VBで生じる脈動に応じた検出信号Vdetの変化(振幅)を示す情報をより確実に継続して取得したい場合、位置P1、位置P6に設けられている部分検出領域PAAよりも位置P5に設けられている部分検出領域PAAの方がより望ましいと考えられる。
 また、図11と図12とのセンサ部10と指Fgとの位置関係の相違が示すように、センサ部10は、使用中に指Fgのような生体組織との位置ずれを生じることがある。このような位置ずれが生じると、所定時間(例えば、後述する図16の所定期間Pt)を挟んだ前後のタイミングで、部分検出領域PAAが設けられている各位置(例えば、位置P1,…,P6)と、検出信号Vdetの変化(振幅)の度合いとが変化することがある。
 そこで、実施形態の出力処理部50は、検出信号Vdetの変化(振幅)の度合いがより大きい一部の部分検出領域PAAを特定するための処理(フォーカス処理)を行う。具体的には、出力処理部50は、所定期間中の検出信号Vdetを部分検出領域PAA毎に取得する。出力処理部50は、当該所定期間中に複数の部分検出領域PAAからそれぞれ出力される検出信号Vdetで生じたピークダウンとピークアップのうち、ピークとボトムの差が最も大きいものを特定する。出力処理部50は、特定されたピークダウン又はピークアップを生じさせた検出信号Vdetを出力した部分検出領域PAAを特定する。
 なお、検出信号Vdetの変化(振幅)の度合いを取得する箇所は、位置P1,P2,P3,P4,P5,P6に限られない。出力処理部50は、センサ部10に設けられた複数の部分検出領域PAAの全てについて個別に検出信号Vdetの変化(振幅)の度合いを取得するようにしてもよいし、一部の部分検出領域PAAであって複数の部分検出領域PAAをサンプリング的に抽出して個別に検出信号Vdetの変化(振幅)の度合いを取得するようにしてもよい。
 実施形態では、出力処理部50は、センサ部10に設けられた複数の部分検出領域PAAの全てについて個別に検出信号Vdetの変化(振幅)の度合いを取得してフォーカス処理を行い、フォーカス処理で特定された部分検出領域PAAからの検出信号Vdetに基づいたデータを脈波データとして出力する。脈波データは、所定期間中に生じた振幅の回数を示す情報を含むデータであってもよいし、脈拍数の単位時間(例えば、分)と所定期間との関係に基づいた所定の演算式に基づいて出力処理部50が算出した脈拍数の値を示す情報を含むデータであってもよいし、線L1等で描画可能な検出信号Vdetの変化そのものを示す情報を含むデータであってもよい。
 図16は、所定期間Ptと、フォーカス処理で特定された部分検出領域PAAからの出力との関係を説明するためのタイムチャートである。実施形態では、第1タイミングTaから所定期間Ptが経過するまでの第2タイミングTbまでの間に取得された各部分検出領域PAAからの検出信号Vdetのうち、当該所定期間Pt中の変化の度合いが最も大きい検出信号Vdetが特定される。特定された検出信号Vdetに基づいたデータIaが、第1タイミングTaから第2タイミングTbまでの所定期間Pt中の脈波データとして出力される。また、第2タイミングTbから所定期間Ptが経過するまでの第3タイミングTcまでの間に取得された各部分検出領域PAAからの検出信号Vdetのうち、当該所定期間Pt中の変化の度合いが最も大きい検出信号Vdetが特定される。特定された検出信号Vdetに基づいたデータIbが、第2タイミングTbから第3タイミングTcまでの所定期間Pt中の脈波データとして出力される。また、第3タイミングTcから所定期間Ptが経過するまでの第4タイミングTdまでの間に取得された各部分検出領域PAAからの検出信号Vdetのうち、当該所定期間Pt中の変化の度合いが最も大きい検出信号Vdetが特定される。特定された検出信号Vdetに基づいたデータIcが、第3タイミングTcから第4タイミングTdまでの所定期間Pt中の脈波データとして出力される。第4タイミングTd以降についても、同様に、所定期間Pt単位で脈波データが出力される。
 なお、所定期間Ptは、連続したピークアップとピークダウンの組み合わせによる振幅波形が1回以上導出される、複数回の検出信号Vdetの出力を含む期間である。所定期間Ptは、予め設定される。所定期間Ptは、例えば4秒であるが、これに限られるものでなく、適宜変更可能である。
 図17は、実施形態1における脈波データの出力に係る処理の流れの一例を示すフローチャートである。出力処理部50は、光センサ(例えば、フォトダイオードPD)の各々の出力(検出信号Vdet)を取得する(ステップS1)。出力処理部50は、所定期間Ptが経過するまで(ステップS2;No)、ステップS1の処理を繰り返す。所定期間Ptが経過すると(ステップS2;Yes)、出力処理部50は、光センサ(フォトダイオードPD)の各々の出力(検出信号Vdet)の変化の度合いを取得する(ステップS3)。出力処理部50は、ステップS3の処理で取得された出力(検出信号Vdet)の変化の度合いのうち、変化の度合いが最も大きい光センサを特定する(ステップS4)。出力処理部50は、ステップS4の処理で特定された光センサの出力(検出信号Vdet)に基づいたデータを脈波データとして採用する(ステップS5)。検出装置1の動作が終了していない場合(ステップS6;No)、再度ステップS1の処理が行われる。検出装置1の動作が終了した場合(ステップS6;Yes)、処理が終了される。
 なお、これまでは、変化の度合いが最も大きい検出信号Vdetに基づいた脈波データの取得について説明してきたが、変化の度合いが最も大きい検出信号Vdetに代えて、ピーク値(Max1、Max2、Max3・・・)が最も高い検出信号Vdetを採用してもよい。すなわち、ピーク値が最も高い検出信号Vdetに基づいた脈波データの取得を行ってもよい。
 以上、実施形態1によれば、検出領域AAに配置された複数の光センサ(例えば、フォトダイオードPD)と、被検出物(例えば、指Fg)に照射されて光センサに検出される光を発する光源(例えば、第1光源61、第2光源62)と、複数の光センサからの出力に基づいた処理を行う処理部(例えば、出力処理部50)とを備える。処理部は、所定期間(例えば、所定期間Pt)周期で得られる複数の光センサの各々の出力に基づいて、複数の光センサのうち出力が採用される光センサを決定する。これによって、光センサと被検出物との位置関係が変化した場合であっても、所定期間周期で出力が採用される光センサを適宜決定するので、所定期間周期で当該位置の変化に対応した出力を得られる。従って、光センサと被検出物との位置関係の変化に対応できる。
 また、処理部(例えば、出力処理部50)は、所定期間(例えば、所定期間Pt)中に生じた出力又は所定期間中に生じた出力の変化の度合いが最も大きい光センサ(例えば、フォトダイオードPD)の出力を採用する。これによって、脈波データを含むセンサ出力Voを得るために最も適当な出力として、所定期間中に生じた出力又は所定期間中に生じた出力の変化の度合いが最も大きい光センサの出力を採用することで、光センサと被検出物との位置関係が変化した場合であっても、脈波データの精度をより高められる。従って、光センサと被検出物との位置関係の変化に対応できる。
(実施形態2)
 次に、実施形態2について説明する。実施形態2の説明に係り、実施形態1と同様の構成については同じ符号を付して説明を省略する。
 実施形態1では、出力(検出信号Vdet)の変化の度合いが最も大きい光センサ(フォトダイオードPD)を特定し、当該光センサからの出力に基づいたデータを脈波データとして採用している。これに対し、実施形態2の脈波データは、出力(検出信号Vdet)の変化の度合いが最も大きい光センサ(フォトダイオードPD)を含むグループ領域(グループ領域PAG)からの出力に基づいたデータであるという点で実施形態1と異なる。
 図18及び図19は、グループ領域PAG単位での脈波データの取得制御を説明するための模式図である。図18及び図19は、例えば図14の位置P5付近を拡大した模式図であるが、これに限られるものでない。図18及び図19では、例示的に、x×y=6×6[個]のグループ領域PAGがマトリクス状に配置されたセンサ部10の検出領域を示している。また、x×y=6×6[個]のグループ領域PAGの各々の位置を区別する目的で、第1方向Dxに座標x1,x2,x3,x4,x5,x6を付し、第2方向Dyに座標y1,y2,y3,y4,y5,y6を付している。例えば、(x1,y1)のグループ領域PAGと記載した場合、座標x1と座標y1との組み合わせの位置に対応するグループ領域PAGをさす。また、図18及び図19では、例示的に、マトリクス状に配置された複数の部分検出領域PAAを、所定数(例えば、x×y=6×6[個])単位で1つのグループ領域PAGとしている。
 図18では、血管VBが座標y2,y3,y4の範囲内にある例を示している。ここで、図18に示す部分検出領域PAAのうち、出力(検出信号Vdet)の変化の度合いが最も大きい部分検出領域PAAの位置は、(x5,y3)のグループ領域PAG内の位置Pmax1であるとする。
 一方、図19では、血管VBが座標y3,y4,y5の範囲内にある例を示している。図18と図19との差、すなわち、血管VBの位置の差は、例えば指Fgに対するセンサ部10の位置ずれによって生じる(図11、図12参照)。図18の状態から図19の状態になる位置ずれが生じた場合、出力(検出信号Vdet)の変化の度合いが最も大きい部分検出領域PAAの位置は、位置Pmax1から、(x5,y4)のグループ領域PAG内の位置Pmax2にずれる。
 実施形態1では、位置ずれ前(図18参照)の所定期間Pt中の出力として位置Pmax1の部分検出領域PAAからの出力(検出信号Vdet)を採用し、位置ずれ後(図19参照)の所定期間Pt中の出力として位置Pmax2の部分検出領域PAAからの出力(検出信号Vdet)を採用する。一方、実施形態2では、位置ずれ前(図18参照)の所定期間Pt中の出力として位置Pmax1の部分検出領域PAAを含む(x5,y3)のグループ領域PAGに設けられた複数の部分検出領域PAAからの出力(検出信号Vdet)を採用し、位置ずれ後(図19参照)の所定期間Pt中の出力として位置Pmax2の部分検出領域PAAを含む(x5,y4)のグループ領域PAGに設けられた複数の部分検出領域PAAからの出力(検出信号Vdet)を採用する。このように、実施形態2では、出力(検出信号Vdet)の変化の度合いが最も大きい部分検出領域PAAを含むグループ領域PAGからの出力が採用される。
 図20は、複数の部分検出領域PAAからの出力の平均化処理の例を示す説明図である。実施形態2では、出力(検出信号Vdet)の変化の度合いが最も大きい部分検出領域PAAを含むグループ領域PAGに設けられた複数の部分検出領域PAAからの出力(検出信号Vdet)の採用に際して、複数の部分検出領域PAAからの出力の平均を取る平均化処理が行われる。平均化処理では、各部分検出領域PAAの出力(検出信号Vdet)をアナログ・デジタル変化処理で値化して出力値とし、複数の部分検出領域PAAの出力値を足し合わせ、出力値が足し合わされた部分検出領域PAAの数で除算する処理が行われる。
 図20では、表の「出力値」欄で、複数の部分検出領域PAAの各々からの出力(検出信号Vdet)を数値化した出力値を示している。当該表では、複数の部分検出領域PAAの各々の位置を区別する目的で、第1方向Dxに座標xa,xb,xcを付し、第2方向Dyに座標ya,yb,yc,yd,ye,yf,ygを付している。すなわち、当該表の1つのセルの値が、1つの部分検出領域PAAの出力値を示す。なお、各セルの値はあくまでも例示的なものであり、複数の部分検出領域PAAの各々からの出力値がこれに限定されることを示すものでない。
 なお、図20の「平均化処理なし」、「平均化処理例1(3つ)」及び「平均化処理例2(5つ)」の「出力値」欄の各セルの値は同一である。また、これらの表の各セルで示す出力値は、あるタイミングの出力値であるが、「グラフ」欄で示す出力値のグラフは、当該タイミングを含む期間(例えば、所定期間Pt)における複数回の出力値が当該期間内でどのように変化したかを示すグラフである。
 図20の「平均化処理なし」のグラフにおける線Laでは、各部分検出領域PAAの出力値がそのまま採用された場合の出力値の経時変化が示されている。一方、「平均化処理例1(3つ)」のグラフにおける線Lbでは、一方向(例えば、第2方向Dy)に連続して並ぶ3つの部分検出領域PAAの出力値の平均値が採用されている。「平均化処理例1(3つ)」のグラフで示すように、平均化処理を行うことで、出力値に対するノイズの影響が緩和され、出力値の経時変化が示すピークとボトムの周期性がより顕在化する。また、「平均化処理例2(5つ)」のグラフにおける線Lcでは、当該一方向に連続して並ぶ5つの部分検出領域PAAの出力値の平均値が採用されている。出力値が平均化される対象になる部分検出領域PAAの数をより多くすることで、出力値における素子ばらつき、電源ノイズ等の各種ノイズの影響がより緩和され、出力値の経時変化が示すピークとボトムの周期性がさらに顕在化する。
 図20において出力値が平均化される対象になる部分検出領域PAAの数(所定数)は、あくまで平均化処理を説明するための一例であって実施形態をこれに限るものでない。実施形態2では、例えば、出力(検出信号Vdet)の変化の度合いが最も大きい部分検出領域PAAを含む1つのグループ領域PAGに設けられた複数の部分検出領域PAAの出力値を平均化し、当該グループ領域PAGからの出力値として採用する。また、実施形態2では、当該1つのグループ領域PAG及び当該1つのグループ領域PAG付近のグループ領域PAGに設けられた複数の部分検出領域PAAの出力値を平均化し、当該グループ領域PAGからの出力値として採用するようにしてもよい。ここで、当該1つのグループ領域PAG付近のグループ領域PAGは、例えば、第1方向Dx又は第2方向Dyに沿って当該1つのグループ領域PAGと隣接するグループ領域PAGであってもよいし、第1方向Dx又は第2方向Dyの一方に沿って当該1つのグループ領域PAGと連続して並ぶ複数のグループ領域PAGであってもよい。
 図21は、実施形態2における脈波データの出力に係る処理の流れの一例を示すフローチャートである。図21に示す実施形態2の処理の流れは、図17に示す実施形態1の処理の流れにおけるステップS5の処理がステップS15の処理に置換されている点を除いて、実施形態1の処理と同様である。
 ステップS15の処理として、出力処理部50は、ステップS4の処理で特定された光センサ(部分検出領域PAAのフォトダイオードPD)を含むグループ領域(グループ領域PAG)の出力を平均化する平均化処理を行い、平均化処理によって得られた出力値の経時変化が示す振幅に基づいて脈波データを取得する。
 以上、特筆した事項を除いて、実施形態2は、実施形態1と同様である。
 実施形態2によれば、検出領域AAは、複数のグループ領域(例えば、グループ領域PAG)を含む。複数のグループ領域はそれぞれ、複数の光センサ(例えば、フォトダイオードPD)を含む。出力処理部50は、所定期間(例えば、所定期間Pt)中に生じた出力又は所定期間中に生じた出力の変化の度合いが最も大きい光センサを含むグループ領域の出力を採用する。これによって、脈波データを含むセンサ出力Voを得るために最も適当な出力として、所定期間中に生じた出力又は所定期間中に生じた出力の変化の度合いが最も大きい光センサを含むグループ領域の出力を採用することで、光センサと被検出物との位置関係が変化した場合であっても、脈波データの精度をより高められる。従って、光センサと被検出物との位置関係の変化に対応できる。
 また、複数の光センサ(例えば、フォトダイオードPD)は、検出領域AAにマトリクス状に配置される。出力処理部50は、隣接する2つ以上の光センサであって、かつ、全ての光センサでない所定数の光センサの出力を平均化する平均化処理を行い、平均化処理で平均化された出力に基づいて出力が採用される光センサを決定する。これによって、出力値における各種ノイズの影響がより緩和され、出力値の経時変化が示すピークとボトムの周期性がさらに顕在化する。従って、脈波データ等、センサ出力Voの精度をより高められる。なお、平均化処理の具体的な内容についてはこれに限られるものでなく、適宜変更可能である。例えば、少なくとも1つのゲート線GCLと複数の信号線SGL、あるいは複数のゲート線と少なくとも1つの信号線SGLを束ねて、隣接する複数の部分検出領域PAAから同時に読み取ってもよい。
(実施形態3)
 次に、実施形態3について説明する。実施形態3の説明に係り、実施形態1、実施形態2と同様の構成については同じ符号を付して説明を省略する。
 実施形態3では、図11及び図12で説明したように、指Fgの指紋パターンの生成による指紋の検出が行われる。この指紋の検出は、所定期間Pt毎に行われる。出力処理部50は、最初に検出された指紋パターン(初回の指紋パターン)の位置と、それ以降に検出された指紋パターンの位置との位置関係の相違に基づいて、指Fgに対するフォトダイオードPDのずれ量を算出する。出力処理部50は、算出されたずれ量に基づいて、採用される出力として扱われる光センサ(部分検出領域PAA)の位置ずれを補正する。
 なお、指紋検出の具体的な方法としては、第1光源61、第2光源62の少なくとも一方からの光の検出に基づいた光学センサとしてのセンサ部10を利用して指紋パターンを生成する方法、容量素子Caの容量を利用した静電容量センサによって指紋の凹凸を認識する方法のいずれも利用可能である。
 実施形態3では、一例として、第1光L61は、360nm以上800nm未満、例えば500nm程度の波長を有する。第2光L62は、800nm以上930nm以下、例えば850nm程度の波長を有する。つまり、第2光L62の波長は、第1光L61の波長よりも長い。この場合、第1光L61は、可視光である。第2光L62は、赤外光である。
 上述の第1光L61、第2光L62の2波長の光の一方で指紋を検出し、他方で血管及び脈波パターンを検出する場合、第1光L61が指紋の検出に用いられ、第2光L62が血管及び脈波パターンの検出に用いられる。なお、第2光L62の1波長の光で指紋と血管両方を検出するようにしてもよい。
 図22は、実施形態3及び後述する実施形態4における脈波データの出力に係る処理の流れの一例を示すフローチャートである。実施形態3及び後述する実施形態4では、まず初回処理が行われる(ステップS21)。その後、位置ずれ対応処理が行われる(ステップS22)。ステップS22の処理は、検出装置1の動作が終了するまで繰り返される(ステップS23;No)。検出装置1の動作が終了すると(ステップS23;Yes)、処理が終了される。
 図23は、図22の初回処理の流れの一例を示すフローチャートである。初回処理は、図21に示すフローチャートからステップS6の処理が省略されている点を除いて、図21に示すフローチャートを参照して説明した処理と同様である。図23のステップS15の処理後のリターンは、図22に示すステップS21の処理(初回処理)が終了し、次の処理であるステップS22の処理(位置ずれ対応処理)に移行することを示す。
 図24は、実施形態3における図22の位置ずれ対応処理の流れの一例を示すフローチャートである。まず、指紋パターンの取得が行われる(ステップS31)。ステップS31の指紋パターンの取得は、例えば、初回処理中における各光センサ(フォトダイオードPD)の出力に基づいて行われる。初回処理中であればどのタイミングの出力に基づいて指紋パターンを生成するかは任意であるが、予め定められている(例えば、初回)。
 出力処理部50は、光センサ(フォトダイオードPD)の各々の出力(検出信号Vdet)を取得する(ステップS32)。出力処理部50は、所定期間Ptが経過するまで(ステップS33;No)、ステップS32の処理を繰り返す。所定期間Ptが経過すると(ステップS33;Yes)、指紋パターンの取得が行われる(ステップS34)。ステップS34の指紋パターンの取得は、例えば、最新の各光センサ(フォトダイオードPD)の出力に基づいて行われるが、これに限られるものでなく、所定期間Pt以上溯らない期間内の各光センサ(フォトダイオードPD)の出力であればよい。
 出力処理部50は、初回の指紋パターンに対する最新の指紋パターンのずれ量を算出する(ステップS35)。具体的には、出力処理部50は、ステップS35の処理として、ステップS31の処理で得られた指紋パターンと複数の部分検出領域PAAとの位置関係と、ステップS34の処理で得られた指紋パターンと複数の部分検出領域PAAとの位置関係とを比較する。出力処理部50は、指紋パターンに含まれる特徴点検出等の照合処理に基づいて、同じ指紋パターンと判断される凸凹が検出された部分検出領域PAAの位置がずれているか否かの判定及びずれている場合にそのずれ量を部分検出領域PAAの第1方向Dx及び第2方向Dyのずれ量として数値化する処理を行う。
 出力処理部50は、初回処理におけるステップS4の処理で出力の変化の度合いが最も大きい光センサ(フォトダイオードPD)として特定された光センサの位置から、ステップS35の処理で算出されたずれ量だけずれた位置にある光センサ(フォトダイオードPD)を特定する(ステップS36)。出力処理部50は、ステップS36の処理で特定された光センサを含むグループ領域(グループ領域PAG)の出力を平均化して得られた出力値の振幅から脈波データを取得する(ステップS37)。ステップS37の処理は、グループ領域を決める基準が、ステップS4の処理で特定された光センサからステップS36の処理で特定された光センサに変わる点を除いて、ステップS15の処理と同様である。図24及び後述する図26のステップS37の処理後のリターンは、図22に示すステップS22の処理(位置ずれ対応処理)が終了し、次の処理であるステップS23の処理に移行することを示す。
 なお、図22、図23、図24を参照した説明では、指紋検出を脈波測定時、すなわち、脈波を取得するための出力の変化(振幅)が生じる所定期間Pt毎に毎回行っているが、これに限られるものではない。後述する全動作期間に指紋検出を行い、それ以外の期間には指紋検出を行わないようにして、複数の脈波測定毎に1回の指紋検出を行う(間引き指紋測定)ようにしてもよい。以上、特筆した事項を除いて、実施形態3は、実施形態2と同様である。
 実施形態3によれば、検出領域AAは、指Fgと対向する(図11、図12参照)。出力処理部50は、複数の部分検出領域PAAの各々の出力に基づいて生成された指紋パターンに基づいて複数の光センサ(例えば、フォトダイオードPD)のうち出力が採用される光センサを決定する。これによって、光センサと指Fgとの位置関係が変化した場合であっても、検出された指紋パターンの位置ずれに基づいて採用される出力を決定するので、所定期間周期で当該位置の変化に対応した出力を得られる。従って、光センサと指Fgとの位置関係の変化に対応できる。
(実施形態3の変形例)
 次に、実施形態3におけるステップS35からステップS37の処理を他の処理に置き換えた変形例について説明する。具体的には、当該変形例では、初回の指紋パターン(ステップS31参照)に対する最新の指紋パターン(ステップS34参照)のずれの有無によって処理を分岐させる。
 図25は、実施形態3の変形例における図22の位置ずれ対応処理の流れの一例を示すフローチャートである。ステップS31からステップS34までの処理は、図24を参照して説明した処理と同様である。
 出力処理部50は、初回の指紋パターンに対する最新の指紋パターンのずれの有無を判定する(ステップS45)。具体的には、出力処理部50は、ステップS35の処理として、ステップS31の処理で得られた指紋パターンと複数の部分検出領域PAAとの位置関係と、ステップS34の処理で得られた指紋パターンと複数の部分検出領域PAAとの位置関係とを比較する。出力処理部50は、指紋パターンに含まれる特徴点検出等の照合処理に基づいて、同じ指紋パターンと判断される凸凹が検出された部分検出領域PAAの位置がずれているか否かの判定を行う。
 出力処理部50は、ステップS45の処理でずれがあると判定された場合(ステップ46;Yes)、ステップS3の処理、ステップS4の処理、ステップS15の処理を順次行う。一方、ステップS45の処理でずれがないと判定された場合(ステップS46;No)、出力処理部50は、初回処理のステップS4の処理で出力の変化の度合いが最も大きいと判定された光センサ(フォトダイオードPD)を含むグループ領域(グループ領域PAGの出力を平均化して得られた出力値の振幅から脈波データを取得する(ステップS47)。図25及び後述する図27のステップS15の処理後及びステップS47の処理後のリターンは、図22に示すステップS22の処理(位置ずれ対応処理)が終了し、次の処理であるステップS23の処理に移行することを示す。
 以上、特筆した事項を除いて、実施形態3の変形例は、実施形態3と同様である。
(実施形態4)
 次に、実施形態4について説明する。実施形態4の説明に係り、実施形態1、実施形態2、実施形態3と同様の構成については同じ符号を付して説明を省略する。
 実施形態3では、位置ずれ対応処理で指紋パターンを利用していたが、実施形態4では、検出領域AAに対向する血管VBの形状に基づいて生成される血管パターンを利用する点で実施形態3と異なる。具体的には、実施形態4では、図22を参照して説明した処理の流れにおける初回処理については、実施形態3と同様であり、位置ずれ対応処理の一部が実施形態3と異なる。
 図26は、実施形態4における図22の位置ずれ対応処理の流れの一例を示すフローチャートである。実施形態4では、実施形態3におけるステップS31の処理に代わるステップS51の処理として、血管パターンの取得が行われる。ステップS51の血管パターンの取得は、例えば、初回処理中における各光センサ(フォトダイオードPD)の出力に基づいて行われる。初回処理中であればどのタイミングの出力に基づいて血管パターンを生成するかは任意であるが、予め定められている(例えば、初回)。
 また、実施形態4では、実施形態3におけるステップS34の処理に代わるステップS54の処理として、血管パターンの取得が行われる。ステップS54の血管パターンの取得は、例えば、最新の各光センサ(フォトダイオードPD)の出力に基づいて行われるが、これに限られるものでなく、所定期間Pt以上溯らない期間内の各光センサ(フォトダイオードPD)の出力であればよい。
 また、実施形態4では、実施形態3におけるステップS35の処理に代わるステップS55の処理が行われる。ステップS55の処理で、出力処理部50は、初回の血管パターンに対する最新の血管パターンのずれ量を算出する。具体的には、出力処理部50は、ステップS51の処理で得られた血管パターンと複数の部分検出領域PAAとの位置関係と、ステップS54の処理で得られた血管パターンと複数の部分検出領域PAAとの位置関係とを比較する。出力処理部50は、血管パターンに含まれる特徴点検出等の照合処理に基づいて、同じ血管パターンが検出された部分検出領域PAAの位置がずれているか否かの判定及びずれている場合にそのずれ量を部分検出領域PAAの第1方向Dx及び第2方向Dyのずれ量として数値化する処理を行う。
 以上、特筆した事項を除いて、実施形態4は、実施形態3と同様である。なお、実施形態4では、血管VBに対応する血管パターンが採用されているが、血管VBは、動脈、静脈その他の種別を特に問われない。
 実施形態4によれば、検出領域AAは、内側に血管(例えば、血管VB)を含む生体組織(例えば、指Fg又は後述する手首Wr)と対向する。出力処理部50は、複数の光センサ(例えば、フォトダイオードPD)の各々の出力に基づいて生成された血管パターン(例えば、血管パターン)に基づいて複数の光センサのうち出力が採用される光センサを決定する。これによって、光センサと生体組織との位置関係が変化した場合であっても、検出された血管パターンの位置ずれに基づいて採用される出力を決定するので、所定期間周期で当該位置の変化に対応した出力を得られる。従って、光センサと生体組織との位置関係の変化に対応できる。
(実施形態4の変形例)
 次に、実施形態4におけるステップS55、ステップS36、ステップS37の処理を他の処理に置き換えた変形例について説明する。具体的には、実施形態3における指紋パターンが実施形態4において血管パターンに置換されたことと同様、実施形態3の変形例における指紋パターンが、実施形態4の変形例では血管パターンに置換される。すなわち、実施形態4の変形例では、初回の血管パターン(ステップS51参照)に対する最新の血管パターン(ステップS54参照)のずれの有無によって処理を分岐させる。
 図27は、実施形態4の変形例における図22の位置ずれ対応処理の流れの一例を示すフローチャートである。実施形態4の変形例におけるステップS51からステップS34までの処理は、実施形態4(図26参照)と同様である。
 出力処理部50は、初回の血管パターンに対する最新の血管パターンのずれの有無を判定する(ステップS65)。具体的には、出力処理部50は、ステップS65の処理として、ステップS51の処理で得られた血管パターンと複数の部分検出領域PAAとの位置関係と、ステップS54の処理で得られた血管パターンと複数の部分検出領域PAAとの位置関係とを比較する。出力処理部50は、血管パターンに含まれる特徴点検出等の照合処理に基づいて、同じ血管パターンが検出された部分検出領域PAAの位置がずれているか否かの判定を行う。
 出力処理部50は、ステップS65の処理でずれがあると判定された場合(ステップ46;Yes)、ステップS3の処理、ステップS4の処理、ステップS15の処理を順次行う。一方、ステップS65の処理でずれがないと判定された場合(ステップS46;No)、出力処理部50は、ステップS47の処理を行う。
 以上、特筆した事項を除いて、実施形態4の変形例は、実施形態4と同様である。
 これまでの説明では、所定期間Pt中に複数の光センサ(フォトダイオードPD)の全てからの出力を繰り返し取得する方法について説明したが、複数の光センサの動作制御はこれに限られるものでない。検出制御部11は、所定期間周期で複数の光センサ(フォトダイオードPD)を全て動作させる全動作期間を生じさせ、全動作期間以外の期間には、全動作期間中に生じた出力又は全動作期間中に生じた出力の変化の度合いが最も大きい光センサを含む一部の光センサを動作させるようにしてもよい。この場合、図2の破線で示すように、出力処理部50から検出制御部11に、全動作期間中に生じた出力又は全動作期間中に生じた出力の変化の度合いが最も大きい光センサの位置又は当該光センサを含むグループ領域PAGを示す情報がフィードバックされる。検出制御部11は、出力処理部50からフィードバックされた情報に基づいて、全動作期間中に生じた出力又は全動作期間中に生じた出力の変化の度合いが最も大きい光センサを含む一部の光センサを特定し、動作させる。
 例えば、図16における第1タイミングTaから第2タイミングTbまでの所定期間Pt中、複数の部分検出領域PAAを全て動作させる全動作期間Baが設定される。当該全動作期間Ba中の変化の度合いが最も大きい検出信号Vdetが特定され、特定された検出信号Vdetを出力した部分検出領域PAAを含むグループ領域PAGに設けられた部分検出領域PAA又は当該グループ領域PAGを含み、かつ、複数の部分検出領域PAAの全てを含まない領域に設けられた部分検出領域PAAが全動作期間以外の期間Aaに動作する部分検出領域PAAとして決定される。そして、全動作期間Ba及び期間Aa中の変化の度合いが最も大きい検出信号Vdetが特定され、特定された検出信号Vdetの変化の度合いが最も大きい部分検出領域PAAを含むグループ領域PAGからの出力に基づいたデータが脈波データとして出力される。検出信号Vdetの変化の度合いが最も大きい部分検出領域PAAを含むグループ領域PAGからの出力に基づいた脈波データとは、例えば平均化処理を経て得られた脈波データである。第2タイミングTbから第3タイミングTcまでの所定期間Pt中に設定される全動作期間Bbと期間Abとの関係についても、全動作期間Baと期間Aaにおける動作制御と同様である。第3タイミングTcから第4タイミングTdまでの所定期間Pt中に設定される全動作期間Bcと期間Acとの関係についても、全動作期間Baと期間Aaにおける動作制御と同様である。それ以降の所定期間Pt中に設定される全動作期間と全動作期間以外の期間における動作制御についても、全動作期間Baと期間Aaにおける動作制御と同様である。
 なお、全動作期間(例えば、全動作期間Ba,Bb,Bc)中の変化の度合いが最も大きい検出信号Vdetを出力した部分検出領域PAAを含むグループ領域PAGを含み、かつ、複数の部分検出領域PAAの全てを含まない領域とは、例えばグループ領域PAGと第1方向Dxの位置又は第2方向Dxの位置が同じである複数のグループ領域PAGを含む領域であるが、当該領域はこれに限られるものでなく、適宜変更可能である。
 このように、複数の光センサ(例えば、フォトダイオードPD)の動作を制御する検出制御部11は、所定期間(例えば、所定期間Pt)周期で複数の光センサを全て動作させる全動作期間(例えば、全動作期間Ba,Bb,Bc)を生じさせる。また、全動作期間以外の期間(例えば、検出領域Aa,Ab,Ac)には、全動作期間中に生じた出力又は全動作期間中に生じた出力の変化の度合いが最も大きい光センサを含む一部の光センサを動作させる。これによって、全動作期間以外の期間に動作させる光センサをより少なくすることができる。従って、全動作期間以外の期間に動作させる光センサの動作周期(リフレッシュレート)をより高めやすくなる。
 また、平均化処理の対象となる検出信号Vdetは、1つのグループ領域PAGに設けられた部分検出領域PAAからの検出信号Vdetに限られない。例えば、変化の度合いが最も大きい検出信号Vdetを出力した部分検出領域PAAの検出信号Vdetと、当該部分検出領域PAAとの位置関係が所定条件を満たす部分検出領域PAAの検出信号Vdetとを平均化してもよい。所定条件は、例えば、変化の度合いが最も大きい検出信号Vdetを出力した部分検出領域PAAの位置を基準として、第1方向Dxの位置及び第2方向Dxの少なくとも一方の位置が同じであること、当該部分検出領域PAAとの間に介在する他の部分検出領域PAAの数が所定個以内であること、これらの組み合わせによる条件を満たすこと等が挙げられる。所定個の値は、複数の部分検出領域PAAの第1方向Dxの並び数及び第2方向Dxの並び数に対して十分に小さい値であることが望ましい。
 また、平均化処理は必須でない。例えば、全動作期間(例えば、全動作期間Ba,Bb,Bc)中に変化の度合いが最も大きい検出信号Vdetを出力した部分検出領域PAAを含むグループ領域PAGを対象として、全動作期間以外の期間(例えば、検出期間Aa,Ab,Ac)に当該グループ領域PAGのゲート線GCL及び信号線SGLの少なくとも一方をまとめて駆動し、当該グループ領域PAGに設けられた複数の部分検出領域PAAからの検出信号Vdetを統合してもよい。
 また、部分検出領域PAAの大きさ及び特性は均一でなくてもよい。例えば、感度の異なる複数種類のフォトダイオードPDを互い違いに配置し、部分検出領域PAA全体のダイナミックレンジをより広くするようにしてもよい。
 また、検出装置1の具体的形態は、図11から図13を参照して説明した形態に限られない。図28は、手首Wrに装着可能な形態の検出装置1Aの主要構成例を示す模式図である。図29は、図28に示す検出装置1Aによる血管VBの検出例を示す模式図である。図28に示すように、検出装置1Aのセンサ基材21は、手首Wrを取り巻く環状に変形可能な可撓性を有する。フォトダイオードPD、第1光源61及び第2光源62は、当該環状のセンサ基材21に沿って円弧状に配置される。
 また、センサ部10は生体組織と直接当接していなくてもよい。図30は、指Fgとセンサ部10との間にレンズOpが設けられる構成例である。図30に示すように、生体組織(例えば、指Fg)を挟んで光源60と対向する位置であって、当該生体組織とセンサ部10との間に介在する位置にレンズOpが設けられてもよい。光源60は、第1光源61及び第2光源62の少なくとも一方を含む。レンズOpは、例えば、光源60からセンサ部10に向かう光を集束させる光学レンズである。
 また、検出装置1や検出装置1Aには、フォトダイオードPDと異なるセンサとして、静電容量方式で指紋等を検出可能な構成がさらに設けられてもよい。
 図31は、相互静電容量方式のセンサ130の主要構成例を示す模式図である。センサ130は、対向配置される第1基板102と第2基板103とを備える。第1基板102と第2基板103は、対向方向(Z方向)に直交する平面(X-Y平面)に沿う。なお、X-Y平面は、固定された不動の平面である必要はない。センサ基材21の可撓性に応じた、第1方向Dx-第2方向Dy平面の湾曲等と同様、変位が許容される。ただし、以下の説明では、分かりやすさを目的として、図31のZ方向に直交する平面(X-Y平面)に沿う2方向をX方向とY方向とする。X方向とY方向とは直交する。
 第1基板102には、長手方向がX方向に沿い、Y方向に沿って並ぶ複数の第1電極TXが設けられる。第2基板103には、長手方向がY方向に沿い、X方向に沿って並ぶ複数の第2電極RXが設けられる。複数の第1電極TXと複数の第2電極RXは、非接触状態でZ方向に対向する。センサ130は、第2基板103側で指Fg等の外部の物と近接又は当接するよう設けられる。
 複数の第1電極TXに対して駆動パルスを順次与える走査Scanが行われると、第2電極RXと駆動パルスが与えられた第1電極TXとの間に静電容量が生じる。第2電極RXに対する指Fg等の近接又は当接が生じた場合、当該静電容量に変化が生じる。当該静電容量の変化の有無及び変化の度合いを検出信号Vdet1として第2電極RXから取得することで、指紋等の検出を行うことができる。
 なお、センサ130の位置は予めセンサ部10の位置と対応が取られている。センサ130は、例えばセンサ部10を挟んで指Fgと対向するよう検出装置1等に配置されるが、これに限られるものでない。例えば、第1電極TX及び第2電極RXをITO(Indium Tin Oxide)等による透明電極とし、センサ部10に対して指Fg側に配置してもよい。また、複数の第1電極TXと複数の第2電極RXを各々個別に駆動して自己容量方式のセンサとしてもよい。
 図32は、自己静電容量方式のセンサ210の主要構成例を示す模式図である。センサ210は、複数の電極220を備える。複数の電極220は、例えばマトリクス状に配置される。各電極220が保持する自己静電容量は、指Fg等の近接又は当接が生じた場合に変化が生じる。複数の電極220と配線230を介して接続された制御部240は、当該自己静電容量の変化の有無及び変化の度合いを検出する回路である。
 なお、センサ210の位置は予めセンサ部10の位置と対応が取られている。センサ210は、例えばセンサ部10を挟んで指Fgと対向するよう検出装置1等に配置されるが、これに限られるものでない。例えば、電極220をITO(Indium Tin Oxide)等による透明電極とし、センサ部10に対して指Fg側に配置してもよい。
 また、検出装置1は、生体組織への当接又は近接が想定された各種の製品に搭載可能である。図33、図34及び図35を参照して、検出装置1の搭載例を説明する。
 図33は、バンダナKeに搭載された検出装置1のセンサ部10の配置例を示す図である。図34は、衣服TSに搭載された検出装置1のセンサ部10の配置例を示す図である。図35は、粘着性シートPSに搭載された検出装置1のセンサ部10の配置例を示す図である。例えば、図33のバンダナKe、図34の衣服TS、図35の粘着性シートPSのように、生体組織に当接する運用がなされる製品に検出装置1を組み込んでもよい。この場合、少なくともセンサ部10は、製品の使用時に生体組織に当接することが想定される部位に設けられることが望ましい。また、図示を省略しているが、第1光源61、第2光源62等の光源は、センサ部10と生体組織との位置関係を考慮して配置されることが望ましい。なお、製品はバンダナKe、衣服TS、粘着性シートPSに限られるものでなく、使用時に生体組織に当接することが想定されるあらゆる製品に検出装置1を組み込み可能である。なお、粘着性シートPSは、例えば外用鎮痛・消炎シートのように、粘着性が付加されたシート状の製品である。
 なお、各実施形態において、ゲート線駆動回路15が、複数のゲート線GCLに順次ゲート駆動信号Vgclを供給する時分割選択駆動を行う場合を示したがこれに限定されない。センサ部10は、符号分割選択駆動(以下、CDM(Code Division Multiplexing)駆動と表す)により、の検出を行ってもよい。CDM駆動及び駆動回路は、例えば特願2018-005178号公報に記載されているので、特願2018-005178号公報の記載を各実施形態及び変形例(実施形態等)に含め、記載を省略する。
 また、ゲート線GCLは、大まかな血流の方向に沿うことが望ましい。具体的には、指Fgや手首Wrに巻き付けられる環状のセンサ基材21に沿って円弧を描くセンサ部10におけるゲート線GCLが、当該環の中心軸に沿うことが望ましい。
 以上、本発明の好適な実施形態等を説明したが、本発明はこのような実施形態等に限定されるものではない。実施形態等で開示された内容はあくまで一例にすぎず、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。本発明の趣旨を逸脱しない範囲で行われた適宜の変更についても、当然に本発明の技術的範囲に属する。
 1,1A 検出装置
 10 センサ部
 11 検出制御部
 21 センサ基材
 22 TFT層
 23 絶縁層
 24 保護膜
 31 光電変換層
 34 アノード電極
 35 カソード電極
 48 検出回路
 50 出力処理部
 61 第1光源
 62 第2光源
 AA 検出領域
 GCL ゲート線
 PAA 部分検出領域
 PD フォトダイオード
 SGL 信号線

Claims (3)

  1.  フォトダイオードと、
     前記フォトダイオードの出力経路を開閉する薄膜トランジスタとを備え、
     前記薄膜トランジスタは、
     遮光層に対して前記フォトダイオード側に積層される半導体層と、
     前記半導体層と前記フォトダイオードとの間に積層されて前記薄膜トランジスタのソース電極及びドレイン電極が形成される電極層と、を含み、
     前記ソース電極は、前記半導体層を挟んで前記遮光層と対向する位置に延出する
     検出装置。
  2.  前記フォトダイオードは、
     光起電力効果を有する有機材料と、
     前記有機材料を挟んで前記薄膜トランジスタ側に設けられるカソード電極と、
     前記有機材料を挟んで前記カソード電極の反対側に設けられるアノード電極とを備え、
     検出領域に沿って並ぶ複数の前記フォトダイオードの各々の前記カソード電極に対して前記有機材料の層及び前記アノード電極の層が前記検出面に沿って連続する
     請求項1に記載の検出装置。
  3.  前記薄膜トランジスタは、前記ソース電極と前記半導体層との間に形成された2つのゲート電極を備える
     請求項1又は2に記載の検出装置。
PCT/JP2020/016504 2019-04-17 2020-04-15 検出装置 WO2020213621A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2021514183A JP7255818B2 (ja) 2019-04-17 2020-04-15 検出装置
DE112020001263.8T DE112020001263T5 (de) 2019-04-17 2020-04-15 Detektionsvorrichtung
CN202080028822.4A CN113711376A (zh) 2019-04-17 2020-04-15 检测装置
US17/500,329 US20220037410A1 (en) 2019-04-17 2021-10-13 Detection device
JP2023043797A JP2023083277A (ja) 2019-04-17 2023-03-20 検出装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-078926 2019-04-17
JP2019078926 2019-04-17

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/500,329 Continuation US20220037410A1 (en) 2019-04-17 2021-10-13 Detection device

Publications (1)

Publication Number Publication Date
WO2020213621A1 true WO2020213621A1 (ja) 2020-10-22

Family

ID=72837901

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/016504 WO2020213621A1 (ja) 2019-04-17 2020-04-15 検出装置

Country Status (5)

Country Link
US (1) US20220037410A1 (ja)
JP (2) JP7255818B2 (ja)
CN (1) CN113711376A (ja)
DE (1) DE112020001263T5 (ja)
WO (1) WO2020213621A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022220287A1 (ja) * 2021-04-14 2022-10-20 株式会社ジャパンディスプレイ 検出装置
WO2023182032A1 (ja) * 2022-03-24 2023-09-28 株式会社ジャパンディスプレイ 検出装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022175012A (ja) * 2021-05-12 2022-11-25 株式会社ジャパンディスプレイ 生体認証装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001109404A (ja) * 1999-10-01 2001-04-20 Sanyo Electric Co Ltd El表示装置
JP2005241910A (ja) * 2004-02-26 2005-09-08 Nec Corp 薄膜トランジスタアレイ基板、それを用いた液晶パネルおよび液晶プロジェクタ
WO2008062544A1 (fr) * 2006-11-21 2008-05-29 Hitachi, Ltd. Dispositif d'authentification biométrique et terminal portable
JP2009044135A (ja) * 2007-07-19 2009-02-26 Canon Inc 放射線検出用基板、放射線検出装置及び放射線撮像システム
JP2010226005A (ja) * 2009-03-25 2010-10-07 Seiko Epson Corp 光電変換装置
JP2011135561A (ja) * 2009-11-27 2011-07-07 Sony Corp センサ装置、センサ素子の駆動方法、入力機能付き表示装置および電子機器、ならびに放射線撮像装置
JP2012227364A (ja) * 2011-04-20 2012-11-15 Fujifilm Corp 有機撮像素子および有機撮像素子の製造方法
JP2015056512A (ja) * 2013-09-12 2015-03-23 セイコーエプソン株式会社 光電変換装置及びその製造方法並びに電子機器
JP2015177155A (ja) * 2014-03-18 2015-10-05 セイコーエプソン株式会社 光電変換装置および電子機器

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS645178A (en) 1987-06-26 1989-01-10 Matsushita Electric Ind Co Ltd Magnetic video recording and reproducing device
JPH0786613B2 (ja) 1987-10-06 1995-09-20 凸版印刷株式会社 液晶表示素子の配向装置及びその配向方法
JP3687415B2 (ja) * 1999-05-28 2005-08-24 セイコーエプソン株式会社 電気光学装置の製造方法、電気光学装置及び投射型表示装置
US7242449B1 (en) * 1999-07-23 2007-07-10 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and integral image recognition/display apparatus
JP4203783B2 (ja) * 2000-09-13 2009-01-07 カシオ計算機株式会社 2次元画像読取装置
JP4305533B2 (ja) * 2007-03-12 2009-07-29 エプソンイメージングデバイス株式会社 表示装置
JP2008251610A (ja) * 2007-03-29 2008-10-16 Mitsubishi Electric Corp フォトセンサーおよびその製造方法
JPWO2008132862A1 (ja) * 2007-04-25 2010-07-22 シャープ株式会社 半導体装置およびその製造方法
JP2009032005A (ja) 2007-07-26 2009-02-12 Toshiba Corp 入力表示装置および入力表示パネル
JP2009128520A (ja) * 2007-11-21 2009-06-11 Sharp Corp 表示装置およびその製造方法
WO2009116205A1 (ja) * 2008-03-21 2009-09-24 シャープ株式会社 タッチセンサー内蔵液晶表示装置
RU2469378C1 (ru) * 2008-09-19 2012-12-10 Шарп Кабусики Кайся Дисплейная панель со встроенными оптическими сенсорами
JP2010177362A (ja) * 2009-01-28 2010-08-12 Sharp Corp 半導体装置およびその製造方法ならびに表示装置
WO2011045956A1 (ja) * 2009-10-16 2011-04-21 シャープ株式会社 半導体装置、それを備えた表示装置、および半導体装置の製造方法
CN102859693B (zh) * 2010-04-16 2015-12-16 夏普株式会社 半导体装置
JP2012079820A (ja) * 2010-09-30 2012-04-19 Canon Inc 検出装置及び放射線検出システム
JP6232914B2 (ja) * 2013-10-16 2017-11-22 セイコーエプソン株式会社 半導体装置およびその製造方法
CN105336751B (zh) * 2014-06-23 2018-06-22 上海箩箕技术有限公司 光电传感器及其制造方法
US20190081077A1 (en) * 2016-03-15 2019-03-14 Sharp Kabushiki Kaisha Active matrix substrate
JP6931979B2 (ja) 2016-07-08 2021-09-08 日本電産コパル株式会社 レンズ保持機構及び撮像装置
KR20180070334A (ko) * 2016-12-16 2018-06-26 엘지디스플레이 주식회사 박막 트랜지스터 기판 및 이를 포함하는 표시 장치
CN107579101A (zh) * 2017-08-30 2018-01-12 京东方科技集团股份有限公司 一种显示基板及其制作方法、显示装置
CN108987422A (zh) * 2018-07-27 2018-12-11 深圳阜时科技有限公司 图像传感器及其制造方法、身份识别装置及设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001109404A (ja) * 1999-10-01 2001-04-20 Sanyo Electric Co Ltd El表示装置
JP2005241910A (ja) * 2004-02-26 2005-09-08 Nec Corp 薄膜トランジスタアレイ基板、それを用いた液晶パネルおよび液晶プロジェクタ
WO2008062544A1 (fr) * 2006-11-21 2008-05-29 Hitachi, Ltd. Dispositif d'authentification biométrique et terminal portable
JP2009044135A (ja) * 2007-07-19 2009-02-26 Canon Inc 放射線検出用基板、放射線検出装置及び放射線撮像システム
JP2010226005A (ja) * 2009-03-25 2010-10-07 Seiko Epson Corp 光電変換装置
JP2011135561A (ja) * 2009-11-27 2011-07-07 Sony Corp センサ装置、センサ素子の駆動方法、入力機能付き表示装置および電子機器、ならびに放射線撮像装置
JP2012227364A (ja) * 2011-04-20 2012-11-15 Fujifilm Corp 有機撮像素子および有機撮像素子の製造方法
JP2015056512A (ja) * 2013-09-12 2015-03-23 セイコーエプソン株式会社 光電変換装置及びその製造方法並びに電子機器
JP2015177155A (ja) * 2014-03-18 2015-10-05 セイコーエプソン株式会社 光電変換装置および電子機器

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022220287A1 (ja) * 2021-04-14 2022-10-20 株式会社ジャパンディスプレイ 検出装置
WO2023182032A1 (ja) * 2022-03-24 2023-09-28 株式会社ジャパンディスプレイ 検出装置

Also Published As

Publication number Publication date
US20220037410A1 (en) 2022-02-03
DE112020001263T5 (de) 2021-12-02
JP7255818B2 (ja) 2023-04-11
JP2023083277A (ja) 2023-06-15
CN113711376A (zh) 2021-11-26
JPWO2020213621A1 (ja) 2020-10-22

Similar Documents

Publication Publication Date Title
WO2020213621A1 (ja) 検出装置
JP7144814B2 (ja) 検出装置
US20240071128A1 (en) Detection device
JPWO2020213621A5 (ja)
JP7417968B2 (ja) 検出装置
US20230280865A1 (en) Detection device, fingerprint detection device, and vein detection device
US11604543B2 (en) Detection device
US20220190038A1 (en) Detection device
US11645825B2 (en) Detection device
WO2024009876A1 (ja) 検出装置及びウェアラブルデバイス
US11915096B2 (en) Detection system
US20230028839A1 (en) Detection device
WO2023032863A1 (ja) 検出装置
WO2022168828A1 (ja) 検出装置
US20220338352A1 (en) Detection device
JP2022160898A (ja) 検出装置及び撮像装置
JP2023064621A (ja) 検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20791731

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021514183

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 20791731

Country of ref document: EP

Kind code of ref document: A1