WO2020171094A1 - 検出装置及び認証方法 - Google Patents

検出装置及び認証方法 Download PDF

Info

Publication number
WO2020171094A1
WO2020171094A1 PCT/JP2020/006374 JP2020006374W WO2020171094A1 WO 2020171094 A1 WO2020171094 A1 WO 2020171094A1 JP 2020006374 W JP2020006374 W JP 2020006374W WO 2020171094 A1 WO2020171094 A1 WO 2020171094A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
sensor unit
unit
detection device
biometric information
Prior art date
Application number
PCT/JP2020/006374
Other languages
English (en)
French (fr)
Inventor
多田 正浩
卓 中村
昭雄 瀧本
Original Assignee
株式会社ジャパンディスプレイ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ジャパンディスプレイ filed Critical 株式会社ジャパンディスプレイ
Priority to CN202080014778.1A priority Critical patent/CN113439273A/zh
Publication of WO2020171094A1 publication Critical patent/WO2020171094A1/ja
Priority to US17/405,202 priority patent/US11989270B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1172Identification of persons based on the shapes or appearances of their bodies or parts thereof using fingerprinting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/83Protecting input, output or interconnection devices input devices, e.g. keyboards, mice or controllers thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/021Arrangements integrating additional peripherals in a keyboard, e.g. card or barcode reader, optical scanner
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1318Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • G06V40/145Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0336Mouse integrated fingerprint sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Definitions

  • the present invention relates to a detection device and an authentication method.
  • Patent Document 1 describes that a display for authenticating a user is displayed.
  • Patent Document 1 also describes that a keyboard for an electronic device is provided with a sensor for authentication.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide a detection device and an authentication method capable of suppressing the trouble of authentication.
  • a detection device an input unit that receives a user operation, a sensor unit that is provided in the input unit, and that detects biometric information of the user when the user operates the input unit, Have.
  • An authentication method an input unit that accepts a user operation, a sensor unit that is provided in the input unit, and that detects biometric information of the user when the user operates the input unit, It is a method of authenticating the user using a detection device having, and determines whether to execute a predetermined function based on biometric information of the user detected by the sensor unit.
  • FIG. 1 is a schematic diagram of a detection device according to the first embodiment.
  • FIG. 2 is a diagram showing an example of the keyboard according to the first embodiment.
  • FIG. 3 is a cross-sectional view showing a schematic cross-sectional configuration of the detection device according to the first embodiment.
  • FIG. 4 is a block diagram showing a configuration example of the detection device according to the first embodiment.
  • FIG. 5 is a circuit diagram showing the detection device according to the first embodiment.
  • FIG. 6 is an equivalent circuit diagram showing the first sensor unit according to the first embodiment.
  • FIG. 7 is a timing waveform chart showing an operation example of the detection apparatus according to the first embodiment.
  • FIG. 8 is a plan view schematically showing the partial detection area of the first sensor unit according to the first embodiment.
  • FIG. 9 is a sectional view taken along line IX-IX in FIG.
  • FIG. 10 is a graph schematically showing the relationship between the wavelength and the light absorption coefficient of the first photodiode and the second photodiode.
  • FIG. 11 is a sectional view showing a schematic sectional structure of a switching element included in the drive circuit.
  • FIG. 12 is an equivalent circuit diagram showing the second sensor unit according to the first embodiment.
  • FIG. 13 is a schematic cross-sectional view of the partial detection area of the second sensor unit.
  • FIG. 14A is a flowchart illustrating the flow of user authentication.
  • FIG. 14B is a flowchart illustrating the flow of user authentication.
  • FIG. 15 is a diagram showing another example of the keyboard.
  • FIG. 16 is a diagram showing an example in which the mouse is provided with a sensor unit.
  • FIG. 17 is a schematic diagram showing an example of arrangement of light sources of a mouse and a sensor unit.
  • FIG. 18 is a schematic diagram showing an example of the arrangement of light sources of the mouse and the sensor unit.
  • FIG. 19 is a schematic diagram of the detection device according to the second embodiment.
  • FIG. 20 is a diagram showing an example of the keyboard according to the second embodiment.
  • FIG. 21 is a schematic diagram of the detection device according to the third embodiment.
  • FIG. 22 is a schematic diagram of the detection device according to the third embodiment.
  • FIG. 23 is a schematic diagram of the detection device according to the third embodiment.
  • FIG. 24 is a schematic diagram of the detection device according to the third embodiment.
  • FIG. 1 is a schematic diagram of a detection device according to the first embodiment.
  • the detection apparatus 100 according to the first embodiment is an electronic device that accepts a user operation by the input unit 1 and executes a predetermined operation (process) based on the user operation input to the input unit 1.
  • the input unit 1 is provided with the sensor unit 10 (see FIG. 2) that detects biometric information of the user when the user operates the input unit 1.
  • the detection device 100 is a computer, and includes an input unit 1, a display unit 5, a control unit 6 and a storage unit 8 described below.
  • the input unit 1 is an input device that receives a user operation, and includes a keyboard 2 and a mouse 4 in the present embodiment.
  • the display unit 5 as an output unit is a display device that displays an image. Note that the detection device 100 in FIG. 1 is a laptop computer, but is not limited thereto, and may be a desktop computer.
  • FIG. 2 is a diagram showing an example of the keyboard according to the first embodiment.
  • the keyboard 2 has a plurality of buttons (keys) 2A, an operation unit 2B, and a housing 2C.
  • the housing 2C is a main body of the keyboard 2, and has a plurality of buttons 2A and an operation unit 2B on its surface.
  • a direction X one direction along the surface of the button 2A
  • a direction Y one direction along the surface of the button 2A that intersects the direction X
  • the direction Y is orthogonal to the direction X.
  • a direction orthogonal to the surface of the button 2A that is, one direction orthogonal to the directions X and Y is referred to as a direction Z.
  • the direction Z is a direction toward the front surface side of the button 2A.
  • the button 2A is a physical button and is arranged in a matrix in the directions X and Y.
  • the operation unit 2B is an operation panel for moving the cursor displayed on the display unit 5 by operating the user to trace the surface of the operation unit 2B.
  • the operation unit 2B is located on the side opposite to the direction Y with respect to the plurality of buttons 2A.
  • the direction Y side is the side far from the user, and the side opposite to the direction Y is the side close to the user.
  • the keyboard 2 configured as described above is provided with the sensor unit 10 that detects biometric information of the user.
  • a plurality of sensor units 10 are provided on the keyboard 2, but the number of sensor units 10 is arbitrary and may be one.
  • the detection device 100 has, as the sensor unit 10, a first sensor unit 10A and a second sensor unit 10B.
  • the first sensor unit 10A is provided on the button 2A.
  • the first sensor unit 10A is provided on a part of the plurality of buttons 2A.
  • the first sensor unit 10A includes a button 2A for inputting F for a long time to place the left and right index fingers, a button 2A for inputting J, a button 2A for inputting a space for a long time to place a thumb, and the frequency of pressing. It is provided on the button 2A for inputting high enter, the control button, and the Alt button.
  • the button 2A provided with the first sensor unit 10A is not limited to this and is optional.
  • the first sensor unit 10A may be provided on all the buttons 2A.
  • the second sensor 10 part B is provided in the area 2D.
  • the region 2D is the surface of the housing 2C, which is closer to the user than the button 2A, that is, the region opposite to the direction Y than the button 2A. More specifically, the region 2D is located on both sides of the operation unit 2B, that is, on the X direction side of the operation unit 2B and on the opposite side to the X direction of the operation unit 2B. That is, the second sensor unit 10B is provided at a position where the palm of the user comes into contact when the user operates the keyboard 2. However, the position where the second sensor unit 10B is provided is not limited to this. Moreover, the second sensor unit 10B may not be provided. Alternatively, the operation unit 2B may have a structure in which the first sensor unit 10A is incorporated.
  • the first sensor unit 10A is a sensor that acquires biometric information of the user, and detects the fingerprint of the user and the blood vessel pattern of the user in the first embodiment.
  • the blood vessel pattern refers to an image of blood vessels, and is a vein pattern in the present embodiment.
  • the second sensor unit 10B is a sensor that detects the blood vessel pattern of the user's hand.
  • the 2nd sensor part 10B may be constituted so that a user's fingerprint, a palm print, etc. can be detected.
  • the sensor unit 10 detects the fingerprint and the blood vessel pattern as the biometric information of the user, but may detect at least one of the fingerprint and the blood vessel pattern. Further, the sensor unit 10 may detect biological information other than the fingerprint and the blood vessel pattern (for example, pulse, pulse wave, etc.). The configuration of the sensor unit 10 will be described later.
  • FIG. 3 is a sectional view showing a schematic sectional configuration of the detection device according to the first embodiment.
  • FIG. 3 shows a laminated structure of the input unit 1, the sensor unit 10, and the light source unit 110.
  • the light source unit 110, the sensor unit 10, and the input unit 1 are arranged in this order in the direction Z.
  • the button 2A is shown as the input unit 1 in the example of FIG. 3, the same laminated structure is provided when the sensor unit 10 is provided in the other input unit 1 such as the mouse 4. Also, when the sensor unit 10 (second sensor unit 10B) is provided in the region 2D, the same laminated structure is obtained.
  • the light source unit 110 has a light irradiation surface 110a that irradiates light, and irradiates the light L1 from the light irradiation surface 110a toward the sensor unit 10 of the detection device 100.
  • the light source unit 110 is a backlight.
  • the light source unit 110 may include, for example, a light emitting diode (LED: Light Emitting Diode) that emits light of a predetermined color as a light source.
  • a micro LED mounted on an insulating substrate 21 (see FIG. 9) described later may be used as the light source.
  • the light source unit 110 includes a light guide plate provided at a position corresponding to the sensor unit 10 and a light guide plate of the light guide plate.
  • the light source unit 110 may be a so-called sidelight type backlight having a plurality of light sources arranged at one end or both ends.
  • the light source unit 110 may be a so-called direct-type backlight having a light source (for example, an LED) provided directly below the sensor unit 10. Further, the light source unit 110 is not limited to the backlight, and may be provided on the side of the detection device 100 and may irradiate the light L1 from the side of the user's finger Fg. Alternatively, the light may be detected by natural light without using the light source.
  • the sensor unit 10 is provided so as to face the light irradiation surface 110a of the light source unit 110. In other words, the sensor unit 10 is provided between the light source unit 110 and the input unit 1.
  • the light L1 emitted from the light source unit 110 passes through the sensor unit 10 and the input unit 1.
  • the sensor unit 10 is, for example, a light reflection type biometric information sensor, and detects the light L2 reflected at the interface between the input unit 1 and the air, so that the surface irregularities of the finger Fg or the palm (for example, fingerprint). Can be detected. Further, the sensor unit 10 may detect the blood vessel pattern by detecting the light L2 reflected inside the finger Fg or the palm, or may detect other biological information.
  • the color of the light L1 from the light source unit 110 may be different depending on the detection target.
  • the light source unit 110 in the case of fingerprint detection, can emit blue or green light L1, and in the case of blood vessel pattern detection, the light source unit 110 can emit infrared light L1.
  • the input unit 1 provided with the sensor unit 10 is configured to cover the sensor unit 10 and the light source unit 110.
  • the input unit 1 is made of a translucent member, and is preferably made of, for example, transparent resin.
  • the input unit 1 that is not provided with the sensor unit 10 may not have a light-transmitting property.
  • the light source unit 110 is provided for each sensor unit 10, but one light source unit 110 common to the plurality of sensor units 10 may be provided.
  • FIG. 4 is a block diagram showing a configuration example of the detection device according to the first embodiment.
  • the detection device 100 includes a control unit 6, a storage unit 8, a sensor unit 10, a detection control unit 11, a power supply circuit 13, a gate line drive circuit 15, and a signal line selection circuit 16. And a detection unit 40.
  • the control unit 6 is an arithmetic device mounted on the detection device 100, that is, a CPU (Central Processing Unit).
  • the control unit 6 executes various processes by reading the program from the storage unit 8, for example.
  • the storage unit 8 is a memory that stores the calculation contents of the control unit 6 and program information, and is external to, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), and an HDD (Hard Disk Drive). At least one of the storage device is included. It is also possible that the control unit 6 and the storage unit 8 have some or all of the functions of the signal processing unit 44, the storage unit 46, and the coordinate extraction unit 45 included in the detection unit 40.
  • the sensor unit 10 is an optical sensor having at least one of a first photodiode PD1 and a second photodiode PD2 which are photoelectric conversion elements.
  • the first photodiode PD1 and the second photodiode PD2 included in the sensor unit 10 output an electrical signal corresponding to the emitted light to the signal line selection circuit 16 as a detection signal Vdet.
  • the sensor unit 10 also performs detection according to the gate drive signal VGCL supplied from the gate line drive circuit 15.
  • the detection control unit 11 is a circuit that supplies a control signal to each of the gate line drive circuit 15, the signal line selection circuit 16, and the detection unit 40 to control the operation thereof.
  • the detection controller 11 supplies various control signals such as a start signal STV, a clock signal CK, and a reset signal RST1 to the gate line drive circuit 15.
  • the detection control unit 11 also supplies various control signals such as the selection signal SEL to the signal line selection circuit 16.
  • the power supply circuit 13 is a circuit provided in the detection device 100 and supplies a voltage signal such as a power supply signal SVS (see FIG. 7) to the sensor unit 10, the gate line drive circuit 15, and the like.
  • the gate line drive circuit 15 is a circuit that drives a plurality of gate lines GCL (see FIG. 5) based on various control signals.
  • the gate line drive circuit 15 sequentially or simultaneously selects a plurality of gate lines GCL and supplies a gate drive signal VGCL to the selected gate line GCL.
  • the gate line drive circuit 15 selects the plurality of first photodiodes PD1 and second photodiodes PD2 connected to the gate line GCL.
  • the signal line selection circuit 16 is a switch circuit that selects a plurality of signal lines SGL (see FIG. 5) sequentially or simultaneously.
  • the signal line selection circuit 16 connects the selected signal line SGL based on the selection signal SEL supplied from the detection control unit 11 and an AFE 48, which will be described later, which is a detection circuit.
  • the signal line selection circuit 16 outputs the detection signal Vdet of the first photodiode PD1 and the second photodiode PD2 to the detection unit 40.
  • the signal line selection circuit 16 is, for example, a multiplexer.
  • the detection device 100 may include the light source drive circuit 14.
  • the light source drive circuit 14 drives the first photodiode PD1 and the second photodiode PD2 based on the signal from the detection control unit 11.
  • the light source drive circuit 14 may drive the light source unit 110 based on a signal from the detection control unit 11 to cause the light source unit 110 to emit the light L1.
  • the detection unit 40 is a circuit that includes an AFE (Analog Front End) 48, a signal processing unit 44, a coordinate extraction unit 45, a storage unit 46, and a detection timing control unit 47.
  • the detection timing control unit 47 synchronizes the AFE (Analog Front End) 48, the signal processing unit 44, and the coordinate extraction unit 45 based on the control signal supplied from the detection control unit 11. Control to operate.
  • the AFE 48 is a signal processing circuit having at least the functions of the detection signal amplifier 42 and the A/D converter 43.
  • the detection signal amplification unit 42 amplifies the detection signal Vdet output from the sensor unit 10 via the signal line selection circuit 16.
  • the A/D converter 43 converts the analog signal output from the detection signal amplifier 42, that is, the amplified detection signal Vdet, into a digital signal.
  • the signal processing unit 44 is a logic circuit that detects a predetermined physical quantity input to the sensor unit 10 based on the output signal of the AFE 48, that is, the detection signal Vdet converted into a digital signal.
  • the signal processing unit 44 based on the detection signal Vdet from the AFE 48, the unevenness of the surface of the finger Fg ( That is, a fingerprint), a blood vessel pattern of the finger Fg, or a palm can be detected.
  • proximity when the finger Fg or the palm comes into contact with the input unit 1, or when the finger Fg or the palm is at a position close to a level where biometric information can be detected, it is referred to as “proximity”. Enter.
  • the storage unit 46 temporarily stores the signal calculated by the signal processing unit 44.
  • the storage unit 46 may be, for example, a RAM (Random Access Memory), a register circuit, or the like.
  • the coordinate extracting unit 45 is a logic circuit that obtains the detected coordinates of the unevenness of the surface of the finger Fg or the like when the signal processing unit 44 detects the proximity of the finger Fg or the palm.
  • the coordinate extracting unit 45 combines the detection signal Vdet output from each of the first photodiode PD1 and the second photodiode PD2 of the sensor unit 10 to form the shape of the surface unevenness (that is, fingerprint) of the finger Fg, the finger Fg, or the like. Two-dimensional information indicating the shape of the blood vessel pattern of the palm is generated. It can be said that this binary information is the biometric information of the user.
  • the coordinate extraction unit 45 may output the detection signal Vdet as the sensor output Vo without calculating the detected coordinates. In this case, the detection signal Vdet may be called biometric information of the user.
  • the control unit 6 acquires the two-dimensional information created by the coordinate extraction unit 45, that is, the biometric information of the user detected by the sensor unit 10.
  • the control unit 6 reads from the storage unit 8 the two-dimensional information stored in advance, that is, the reference biometric information that is the reference biometric information. Then, the control unit 6 compares the reference biometric information with the biometric information of the user detected by the sensor unit 10, and determines whether the biometric information of the user detected by the sensor unit 10 matches the reference biometric information. That is, the control unit 6 performs user authentication using the biometric information of the user detected by the sensor unit 10.
  • the control unit 6 determines that authentication is possible, controls the detection device 100, and executes a predetermined function.
  • the predetermined function is, for example, a function that the user requests the detection device 100 to execute, and examples thereof include activation of a program (application) of the detection device 100 and access to a website.
  • the control unit 6 determines that authentication is not possible and does not execute the predetermined function.
  • the control unit 6 When the coordinate extraction unit 45 does not calculate the detected coordinates, the control unit 6 indicates the shape of the unevenness (that is, the fingerprint) of the surface of the finger Fg or the shape of the blood vessel pattern of the finger Fg or the palm from the detection signal Vdet. , Generate two-dimensional information.
  • FIG. 5 is a circuit diagram showing the detection device according to the first embodiment.
  • FIG. 5 shows a circuit diagram including the first sensor unit 10A of the sensor unit 10, but the circuit diagram including the second sensor unit 10B is similar to that shown in FIG. The description of is omitted.
  • FIG. 6 is an equivalent circuit diagram showing the first sensor unit according to the first embodiment.
  • FIG. 7 is a timing waveform chart showing an operation example of the detection apparatus according to the first embodiment.
  • the first sensor unit 10A has a plurality of partial detection areas PAA arranged in a matrix.
  • the partial detection area PAA of the first sensor unit 10A includes a first photodiode PD1 and a second photodiode PD2, a capacitive element Ca, and a first switching element Tr.
  • the first switching element Tr is provided corresponding to the first photodiode PD1 and the second photodiode PD2.
  • the first switching element Tr is composed of a thin film transistor, and in this example, is composed of an n-channel type TFT (Thin Film Transistor).
  • the gate of the first switching element Tr is connected to the gate line GCL.
  • the source of the first switching element Tr is connected to the signal line SGL.
  • the drain of the first switching element Tr is connected to the cathode electrode 34 of the first photodiode PD1, the cathode electrode 54 of the second photodiode PD2, and one end of the capacitive element Ca.
  • the anode electrode 35 of the first photodiode PD1, the anode electrode 55 of the second photodiode PD2, and the other end of the capacitive element Ca are connected to a reference potential, for example, the ground potential.
  • the first photodiode PD1 and the second photodiode PD2 are connected in parallel to the first switching element Tr in the same direction.
  • the third switching element TrS and the fourth switching element TrR are connected to the signal line SGL.
  • the third switching element TrS and the fourth switching element TrR are elements that form a drive circuit that drives the first switching element Tr.
  • the drive circuit includes a gate line drive circuit 15, a signal line selection circuit 16, a reset circuit 17 and the like which are provided in a peripheral area that does not overlap the partial detection area PAA.
  • the third switching element TrS is composed of, for example, a CMOS (complementary MOS) transistor in which a p-channel transistor p-TrS and an n-channel transistor n-TrS are combined.
  • the fourth switching element TrR is also composed of a CMOS transistor.
  • the fourth switching element TrR of the reset circuit 17 When the fourth switching element TrR of the reset circuit 17 is turned on, the reference signal VR1 which is the initial potential of the capacitance element Ca is supplied from the power supply circuit 13 to the capacitance element Ca. As a result, the capacitive element Ca is reset.
  • the partial detection area PAA When the partial detection area PAA is irradiated with light, a current corresponding to the amount of light flows in each of the first photodiode PD1 and the second photodiode PD2, whereby charges are accumulated in the capacitive element Ca.
  • the first switching element Tr When the first switching element Tr is turned on, a current flows through the signal line SGL according to the electric charge accumulated in the capacitive element Ca.
  • the signal line SGL is connected to the AFE 48 via the third switching element TrS of the signal line selection circuit 16. Accordingly, the detection apparatus 100 can detect a signal corresponding to the light amount of the light with which the first photodiode PD1 and the second photo
  • the gate line GCL extends in the first direction Dx and is connected to a plurality of partial detection areas PAA arranged in the first direction Dx. Further, the plurality of gate lines GCL1, GCL2,..., GCL8 are arranged in the second direction Dy and are connected to the gate line drive circuit 15, respectively.
  • the gate lines GCL1, GCL2,..., GCL8 are simply referred to as the gate lines GCL unless it is necessary to distinguish them.
  • the number of gate lines GCL is eight, but this is merely an example, and eight or more gate lines GCL may be arranged.
  • the first direction Dx is one direction in a plane parallel to the insulating substrate 21 of the sensor unit 10, for example, a direction parallel to the gate line GCL.
  • the second direction Dy is one direction in a plane parallel to the insulating substrate 21 and is a direction orthogonal to the first direction Dx.
  • the second direction Dy may intersect with the first direction Dx instead of intersecting at right angles.
  • the third direction Dz is a direction orthogonal to the first direction Dx and the second direction Dy, and is a direction perpendicular to the insulating substrate 21.
  • the third direction Dz matches the direction Z described above.
  • the signal line SGL extends in the second direction Dy and is connected to the plurality of partial detection areas PAA arranged in the second direction Dy.
  • the plurality of signal lines SGL1, SGL2,..., SGL12 are arranged in the first direction Dx and are connected to the signal line selection circuit 16 and the reset circuit 17, respectively.
  • the number of signal lines SGL is 12, but this is merely an example, and 12 or more signal lines SGL may be arranged.
  • the first sensor unit 10A is provided between the signal line selection circuit 16 and the reset circuit 17. The configuration is not limited to this, and the signal line selection circuit 16 and the reset circuit 17 may be connected to the ends of the signal line SGL in the same direction.
  • the gate line drive circuit 15 receives various control signals such as a start signal STV, a clock signal CK, and a reset signal RST1 via the level shifter 151.
  • the gate line drive circuit 15 has a plurality of second switching elements TrG (not shown).
  • the gate line driving circuit 15 sequentially selects the plurality of gate lines GCL1, GCL2,..., GCL8 in a time division manner by the operation of the second switching element TrG.
  • the gate line drive circuit 15 supplies the gate drive signal VGCL to the plurality of first switching elements Tr via the selected gate line GCL.
  • the plurality of partial detection areas PAA arranged in the first direction Dx are selected as detection targets.
  • the signal line selection circuit 16 has a plurality of selection signal lines Lsel, a plurality of output signal lines Lout, and a third switching element TrS.
  • the plurality of third switching elements TrS are provided corresponding to the plurality of signal lines SGL, respectively.
  • the six signal lines SGL1, SGL2,..., SGL6 are connected to a common output signal line Lout1.
  • the six signal lines SGL7, SGL8,..., SGL12 are connected to a common output signal line Lout2.
  • the output signal lines Lout1 and Lout2 are connected to the AFE 48, respectively.
  • the signal lines SGL1, SGL2,..., SGL6 are the first signal line blocks
  • the signal lines SGL7, SGL8,..., SGL12 are the second signal line blocks.
  • the plurality of selection signal lines Lsel are respectively connected to the gates of the third switching elements TrS included in one signal line block. Further, one selection signal line Lsel is connected to the gates of the third switching elements TrS of the plurality of signal line blocks.
  • the selection signal lines Lsel1, Lsel2,..., Lsel6 are connected to the third switching elements TrS corresponding to the signal lines SGL1, SGL2,..., SGL6.
  • the selection signal line Lsel1 is connected to the third switching element TrS corresponding to the signal line SGL1 and the third switching element TrS corresponding to the signal line SGL7.
  • the selection signal line Lsel2 is connected to the third switching element TrS corresponding to the signal line SGL2 and the third switching element TrS corresponding to the signal line SGL8.
  • the detection control unit 11 sequentially supplies the selection signal SEL to the selection signal line Lsel via the level shifter 161.
  • the signal line selection circuit 16 sequentially selects the signal lines SGL in one signal line block in a time division manner by the operation of the third switching element TrS. Further, the signal line selection circuit 16 simultaneously selects the signal lines SGL one by one in the plurality of signal line blocks.
  • the detection apparatus 100 can reduce the number of ICs (Integrated Circuits) including the AFE 48 or the number of IC terminals.
  • the reset circuit 17 has a reference signal line Lvr, a reset signal line Lrst, and a fourth switching element TrR.
  • the fourth switching element TrR is provided corresponding to the plurality of signal lines SGL.
  • the reference signal line Lvr is connected to one of the source and the drain of the plurality of fourth switching elements TrR.
  • the reset signal line Lrst is connected to the gates of the plurality of fourth switching elements TrR.
  • the detection control unit 11 supplies the reset signal RST2 to the reset signal line Lrst via the level shifter 171.
  • the plurality of fourth switching elements TrR are turned on, and the plurality of signal lines SGL are electrically connected to the reference signal line Lvr.
  • the power supply circuit 13 supplies the reference signal VR1 to the reference signal line Lvr.
  • the reference signal VR1 is supplied to the capacitive element Ca included in the plurality of partial detection areas PAA.
  • the above is the circuit configuration of the circuit connected to the first sensor unit 10A.
  • one detection control unit 11, one gate line drive circuit 15, one signal line selection circuit 16, one reset circuit 17, and 1 for one first sensor unit 10A respectively.
  • a circuit such as one detection unit 40 is provided, one circuit that is common to the plurality of first sensors 10 A may be provided. That is, in this case, circuits such as one gate line drive circuit 15, one signal line selection circuit 16, one reset circuit 17, and one detection unit 40 are provided for the plurality of first sensor units 10A. May be.
  • the detection apparatus 100 has a reset period Prst, an exposure period Pex, and a read period Pdet.
  • the power supply circuit 13 supplies the power supply signal SVS to the first photodiode PD1 and the second photodiode PD2 over the reset period Prst, the exposure period Pex, and the read period Pdet.
  • the detection control unit 11 supplies the reference signal VR1 and the reset signal RST2, which are high-level voltage signals, to the reset circuit 17 at the time before the reset period Prst starts.
  • the detection control unit 11 supplies the start signal STV to the gate line drive circuit 15, and the reset period Prst starts.
  • the gate line drive circuit 15 sequentially selects the gate line GCL based on the start signal STV, the clock signal CK, and the reset signal RST1.
  • the gate line drive circuit 15 sequentially supplies the gate drive signal VGCL to the gate line GCL.
  • the gate drive signal VGCL has a pulsed waveform having a high level voltage VGH and a low level voltage VGL.
  • 256 gate lines GCL are provided, and the gate drive signals VGCL1,..., VGCL256 are sequentially supplied to each gate line GCL.
  • the capacitive elements Ca in all the partial detection areas PAA are sequentially electrically connected to the signal line SGL and the reference signal VR1 is supplied.
  • the capacitance of the capacitive element Ca is reset.
  • the exposure period Pex starts after the gate drive signal VGCL 256 is supplied to the gate line GCL.
  • the actual exposure periods Pex1,..., Pex256 in the partial detection area PAA corresponding to each gate line GCL have different start timings and end timings.
  • the exposure periods Pex1,..., Pex256 are started at the timing when the gate drive signal VGCL changes from the high level voltage VGH to the low level voltage VGL in the reset period Prst.
  • the exposure periods Pex1,..., Pex256 are ended at the timing when the gate drive signal VGCL changes from the low level voltage VGL to the high level voltage VGH in the read period Pdet.
  • the exposure time lengths of the exposure periods Pex1,..., Pex256 are equal.
  • the detection control unit 11 sets the reset signal RST2 to a low level voltage at the timing before the read period Pdet starts. As a result, the operation of the reset circuit 17 is stopped.
  • the gate line drive circuit 15 sequentially supplies the gate drive signals VGCL1,..., VGCL256 to the gate line GCL.
  • the detection control section 11 sequentially supplies the selection signals SEL1,..., SEL6 to the signal line selection circuit 16 while the gate drive signal VGCL1 is at the high level voltage VGH.
  • the signal lines SGL in the partial detection area PAA selected by the gate drive signal VGCL1 are connected to the AFE 48 sequentially or simultaneously.
  • the detection signal Vdet is supplied to the AFE 48.
  • the signal line selection circuit 16 sequentially selects the signal line SGL in each period in which each gate drive signal VGCL becomes the high level voltage VGH.
  • the detection device 100 can output the detection signal Vdet of all the partial detection areas PAA to the AFE 48 during the read period Pdet.
  • the detection apparatus 100 may perform detection by repeatedly executing the reset period Prst, the exposure period Pex, and the read period Pdet. Alternatively, the detection device 100 may start the detection operation at the timing when it is detected that the finger Fg or the like has approached the input unit 1.
  • FIG. 8 is a plan view schematically showing the partial detection area of the first sensor unit according to the first embodiment.
  • FIG. 9 is a sectional view taken along line IX-IX in FIG. Note that, in FIG. 8, the cathode electrode 34 and the anode electrode 35 are shown by chain double-dashed lines in order to make the drawing easy to see.
  • the direction from the insulating substrate 21 to the first photodiode PD1 that is, the third direction Dz side is referred to as “upper side” or simply “upper side”.
  • the direction from the first photodiode PD1 to the insulating substrate 21, that is, the side opposite to the third direction Dz is referred to as "lower side” or simply “lower side”.
  • the “plan view” refers to a case viewed from a direction perpendicular to the surface of the insulating substrate 21.
  • the partial detection area PAA of the first sensor unit 10A is an area surrounded by a plurality of gate lines GCL and a plurality of signal lines SGL.
  • the first photodiode PD1, the second photodiode PD2, and the first switching element Tr are provided in the partial detection area PAA, that is, in the area surrounded by the plurality of gate lines GCL and the plurality of signal lines SGL.
  • the first photodiode PD1 and the second photodiode PD2 are, for example, PIN (Positive Intrinsic Negative Diode) type photodiodes.
  • the first photodiode PD1 includes a first semiconductor layer 31, a cathode electrode 34, and an anode electrode 35.
  • the first semiconductor layer 31 includes a first partial semiconductor layer 31a and a second partial semiconductor layer 31b.
  • the first partial semiconductor layer 31a and the second partial semiconductor layer 31b of the first photodiode PD1 are amorphous silicon (a-Si).
  • the first partial semiconductor layer 31a and the second partial semiconductor layer 31b are provided adjacent to each other with a spacing SP in the first direction Dx.
  • the cathode electrode 34 and the anode electrode 35 are continuously provided over a region overlapping with the first partial semiconductor layer 31a, the second partial semiconductor layer 31b, and the space SP.
  • the first semiconductor layer 31 when it is not necessary to distinguish between the first partial semiconductor layer 31a and the second partial semiconductor layer 31b, they may be simply referred to as the first semiconductor layer 31.
  • the first photodiode PD1 is provided so as to overlap the second photodiode PD2. Specifically, the first partial semiconductor layer 31a of the first photodiode PD1 overlaps the second photodiode PD2.
  • the second photodiode PD2 includes a second semiconductor layer 51, a cathode electrode 54, and an anode electrode 55.
  • the second semiconductor layer 51 is polysilicon. More preferably, the second semiconductor layer 51 is low temperature polysilicon (hereinafter referred to as LTPS (Low Temperature Polycrystalline Silicon)).
  • the second semiconductor layer 51 has an i region 52a, ap region 52b, and an n region 52c.
  • i region 52a is arranged between p region 52b and n region 52c.
  • the p region 52b, the i region 52a, and the n region 52c are arranged in this order.
  • polysilicon is doped with impurities to form an n+ region.
  • p region 52b polysilicon is doped with impurities to form ap+ region.
  • the i region 52a is, for example, a non-doped intrinsic semiconductor and has a lower conductivity than the p region 52b and the n region 52c.
  • the second semiconductor layer 51 and the first partial semiconductor layer 31a of the first photodiode PD1 are connected via the first relay electrode 56 and the second relay electrode 57.
  • the portion of the first relay electrode 56 that overlaps the second semiconductor layer 51 functions as the cathode electrode 54.
  • a portion of the second relay electrode 57 that overlaps the second semiconductor layer 51 functions as the anode electrode 55.
  • the first switching element Tr is provided in a region overlapping the second partial semiconductor layer 31b of the first photodiode PD1.
  • the first switching element Tr has a third semiconductor layer 61, a source electrode 62, a drain electrode 63, and a gate electrode 64.
  • the third semiconductor layer 61 is polysilicon like the second semiconductor layer 51. More preferably, the third semiconductor layer 61 is LTPS.
  • the portion of the first relay electrode 56 that overlaps the third semiconductor layer 61 functions as the source electrode 62.
  • a portion of the signal line SGL that overlaps with the third semiconductor layer 61 functions as the drain electrode 63.
  • the gate electrode 64 branches from the gate line GCL in the second direction Dy and overlaps with the third semiconductor layer 61.
  • the two gate electrodes 64 have a so-called double gate structure provided so as to overlap the third semiconductor layer 61.
  • the first switching element Tr is connected to the cathode electrode 34 of the first photodiode PD1 and the cathode electrode 54 of the second photodiode PD2 via the first relay electrode 56.
  • the first switching element Tr is also connected to the signal line SGL.
  • the first switching element Tr is provided on the insulating substrate 21.
  • the insulating substrate 21 is, for example, a translucent glass substrate.
  • the insulating substrate 21 may be a resin substrate or a resin film made of a resin having translucency such as polyimide.
  • the first photodiode PD1, the second photodiode PD2, and the first switching element Tr are formed on the insulating substrate 21.
  • Light-shielding layers 67 and 68 are provided on the insulating substrate 21.
  • the undercoat film 22 covers the light shielding layers 67 and 68, and is provided on the insulating substrate 21.
  • the undercoat film 22, the gate insulating film 23, and the first interlayer insulating film 24 are inorganic insulating films, and a silicon oxide film (SiO), a silicon nitride film (SiN), a silicon oxynitride film (SiON), or the like is used. Further, each inorganic insulating film is not limited to a single layer and may be a laminated film.
  • the second semiconductor layer 51 and the third semiconductor layer 61 are provided on the undercoat film 22. That is, the second semiconductor layer 51 of the second photodiode PD2 and the third semiconductor layer 61 of the first switching element Tr are provided in the same layer. Further, the light shielding layer 67 is provided between the second semiconductor layer 51 and the insulating substrate 21 in the third direction Dz. This can prevent the light L1 from the light source unit 110 (see FIG. 3) from directly irradiating the second photodiode PD2. Further, the light shielding layer 68 is provided between the third semiconductor layer 61 and the insulating substrate 21 in the third direction Dz. Thereby, the light leak current of the first switching element Tr can be suppressed.
  • the third semiconductor layer 61 includes an i region 61a, an LDD (Lightly Doped Drain) region 61b, and an n region 61c.
  • the i region 61a is formed in a region overlapping with the gate electrode 64, respectively.
  • the n region 61c is a high-concentration impurity region and is formed in a region connected to the source electrode 62 and the drain electrode 63.
  • the LDD region 61b is a low-concentration impurity region and is formed between the n region 61c and the i region 61a and between the two i regions 61a.
  • the gate insulating film 23 is provided on the undercoat film 22 so as to cover the second semiconductor layer 51 and the third semiconductor layer 61.
  • the gate electrode 64 is provided on the gate insulating film 23. That is, the first switching element Tr has a so-called top gate structure in which the gate electrode 64 is provided on the upper side of the third semiconductor layer 61. However, the first switching element Tr may have a so-called dual gate structure in which the gate electrode 64 is provided on both the upper side and the lower side of the third semiconductor layer 61, or the gate electrode 64 may be the third semiconductor layer 61. It may be a bottom gate structure provided on the lower side.
  • the first interlayer insulating film 24 is provided on the gate insulating film 23 so as to cover the gate electrode 64.
  • the first interlayer insulating film 24 is also provided on the upper side of the second semiconductor layer 51.
  • the first relay electrode 56, the second relay electrode 57, and the signal line SGL are provided on the first interlayer insulating film 24.
  • the source electrode 62 (first relay electrode 56) is connected to the third semiconductor layer 61 via the contact hole H8.
  • the drain electrode 63 (signal line SGL) is connected to the third semiconductor layer 61 via the contact hole H7.
  • the cathode electrode 54 (first relay electrode 56) is connected to the n region 52c of the second semiconductor layer 51 via the contact hole H6.
  • the cathode electrode 54 of the second photodiode PD2 is connected to the first switching element Tr.
  • the anode electrode 55 (second relay electrode 57) is connected to the p region 52b of the second semiconductor layer 51 via the contact hole H5.
  • the second interlayer insulating film 25 is provided on the first interlayer insulating film 24 so as to cover the second photodiode PD2 and the first switching element Tr.
  • the second interlayer insulating film 25 is an organic film, and is a flattening film that flattens unevenness formed by various conductive layers.
  • the second interlayer insulating film 25 may be formed of the above-mentioned inorganic material.
  • the anode electrode 35 of the first photodiode PD1 is provided on the second interlayer insulating film 25 of the backplane 19.
  • the backplane 19 is a drive circuit board that drives the sensor for each predetermined detection area.
  • the backplane 19 includes an insulating substrate 21, a first switching element Tr, a second switching element TrG provided on the insulating substrate 21, various wirings, and the like.
  • the first partial semiconductor layer 31a includes an i-type semiconductor layer 32a, a p-type semiconductor layer 32b, and an n-type semiconductor layer 32c.
  • the second partial semiconductor layer 31b includes an i-type semiconductor layer 33a, a p-type semiconductor layer 33b and an n-type semiconductor layer 33c.
  • the i-type semiconductor layers 32a and 33a, the p-type semiconductor layers 32b and 33b, and the n-type semiconductor layers 32c and 33c are specific examples of photoelectric conversion elements. In FIG.
  • the i-type semiconductor layers 32a and 33a are provided between the p-type semiconductor layers 32b and 33b and the n-type semiconductor layers 32c and 33c.
  • the p-type semiconductor layers 32b and 33b, the i-type semiconductor layers 32a and 33a, and the n-type semiconductor layers 32c and 33c are sequentially stacked on the anode electrode 35.
  • the n-type semiconductor layers 32c and 33c form an n+ region by doping a-Si with impurities.
  • a-Si is doped with impurities to form p+ regions.
  • the i-type semiconductor layers 32a and 33a are, for example, non-doped intrinsic semiconductors and have lower conductivity than the n-type semiconductor layers 32c and 33c and the p-type semiconductor layers 32b and 33b.
  • the cathode electrode 34 and the anode electrode 35 are a light-transmitting conductive material such as ITO (Indium Tin Oxide).
  • the cathode electrode 34 is an electrode for supplying the power supply signal SVS to the photoelectric conversion layer.
  • the anode electrode 35 is an electrode for reading the detection signal Vdet.
  • the anode electrode 35 is provided on the second interlayer insulating film 25.
  • the anode electrode 35 is continuously provided over the first partial semiconductor layer 31a and the second partial semiconductor layer 31b.
  • the anode electrode 35 is connected to the second relay electrode 57 via a contact hole H4 provided in the second interlayer insulating film 25.
  • a third interlayer insulating film 26 is provided so as to cover the first partial semiconductor layer 31a and the second partial semiconductor layer 31b.
  • the third interlayer insulating film 26 is an organic film, and is a flattening film that flattens the unevenness formed by the first partial semiconductor layer 31a and the second partial semiconductor layer 31b.
  • the cathode electrode 34 is provided on the third interlayer insulating film 26.
  • the cathode electrode 34 is continuously provided on the first partial semiconductor layer 31a and the second partial semiconductor layer 31b.
  • the cathode electrode 34 is connected to the first partial semiconductor layer 31a and the second partial semiconductor layer 31b through the contact holes H2 and H1 provided in the third interlayer insulating film 26. Thereby, the first partial semiconductor layer 31a and the second partial semiconductor layer 31b are connected in parallel between the anode electrode 35 and the cathode electrode 34, and function as one photoelectric conversion element.
  • the cathode electrode 34 is connected to the first relay electrode 56 via the contact hole H3 at the interval SP between the first partial semiconductor layer 31a and the second partial semiconductor layer 31b.
  • the contact hole H3 is a through hole penetrating the second interlayer insulating film 25 and the third interlayer insulating film 26 in the third direction Dz.
  • An opening 35a is provided in a portion of the anode electrode 35 overlapping the contact hole H3, and the contact hole H3 is formed through the opening 35a.
  • the capacitance of the capacitive element Ca shown in FIG. 6 is formed between the anode electrode 55 and the cathode electrode 34 that face each other with the third interlayer insulating film 26 in between at the interval SP. Alternatively, it is formed between the anode electrode 55 and the cathode electrode 34 facing each other with the third interlayer insulating film 26 interposed therebetween at the interval SPa around the periphery of the first photodiode PD1. Positive charges are held in the capacitor Ca during the exposure period Pex.
  • the first sensor unit 10A is configured as described above. That is, the first sensor unit 10A has the first photodiode PD1 having the first semiconductor layer 31 containing amorphous silicon and the second photodiode PD2 having the second semiconductor layer 51 containing polysilicon.
  • the first semiconductor layer 31 containing amorphous silicon and the second semiconductor layer 51 containing polysilicon that is, the first photodiode PD1 and the second photodiode PD2 are in the third direction Dz.
  • the first photodiode PD1 and the second photodiode PD2 may not be stacked in the third direction Dz, and may be provided in the same layer, for example.
  • FIG. 10 is a graph schematically showing the relationship between the wavelength and the light absorption coefficient of the first photodiode and the second photodiode.
  • the horizontal axis of FIG. 10 represents the wavelength, and the vertical axis represents the light absorption coefficient.
  • the light absorption coefficient is an optical constant indicating the degree of absorption of light traveling in a substance.
  • the first photodiode PD1 including amorphous silicon exhibits a good light absorption coefficient in the visible light region, for example, the wavelength region of 300 nm or more and 800 nm or less.
  • the second photodiode PD2 including polysilicon exhibits a good light absorption coefficient in a region including a visible light region to an infrared region, for example, a wavelength region of 500 nm or more and 1100 nm or less.
  • the first photodiode PD1 has high sensitivity in the visible light region
  • the second photodiode PD2 has high sensitivity in the red wavelength region, which is a different wavelength region from the first photodiode PD1, to the infrared region.
  • the first sensor unit 10A of the present embodiment has a stack of a first photodiode PD1 and a second photodiode PD2 having different sensitivity wavelength regions. Therefore, the wavelength region having sensitivity can be widened as compared with the configuration including either one of the photodiodes.
  • the light L1 passes through the detection device 100 through the space SP and the space SPa.
  • the light L2 (see FIG. 3) reflected by the finger Fg enters the first photodiode PD1.
  • the first photodiode PD1 can favorably detect blue or green light L2.
  • the infrared light L2 is not absorbed by the first photodiode PD1 and is incident on the second photodiode PD2. Accordingly, the second photodiode PD2 can satisfactorily detect the infrared light L2.
  • the first sensor unit 10A can detect information regarding various living bodies.
  • the detection device 100 can improve the photosensitivity.
  • the first photodiode PD1 and the second photodiode PD2 are provided in the partial detection area PAA, that is, in the area surrounded by the plurality of gate lines GCL and the plurality of signal lines SGL. According to this, the number of switching elements and the number of wirings are reduced as compared with the case where the first switching element Tr, the gate line GCL, and the signal line SGL are provided in each of the first photodiode PD1 and the second photodiode PD2. can do. Therefore, the detection apparatus 100 can improve the detection resolution.
  • FIG. 11 is a sectional view showing a schematic sectional structure of a switching element included in the drive circuit.
  • FIG. 11 illustrates the third switching element TrS included in the signal line selection circuit 16 as a drive circuit switching element.
  • the description of FIG. 11 can be applied to a switching element included in another drive circuit. That is, the second switching element TrG included in the gate line driving circuit 15 and the fourth switching element TrR included in the reset circuit 17 can have the same configurations as those in FIG. 11.
  • the n-channel transistor n-TrS of the third switching element TrS includes a fourth semiconductor layer 71, a source electrode 72, a drain electrode 73 and a gate electrode 74.
  • the p-channel transistor p-TrS includes a fifth semiconductor layer 81, a source electrode 82, a drain electrode 83 and a gate electrode 84.
  • a light shielding layer 75 is provided between the fourth semiconductor layer 71 and the insulating substrate 21, and a light shielding layer 85 is provided between the fifth semiconductor layer 81 and the insulating substrate 21.
  • the fourth semiconductor layer 71 and the fifth semiconductor layer 81 are both polysilicon. More preferably, the fourth semiconductor layer 71 and the fifth semiconductor layer 81 are LTPS.
  • the fourth semiconductor layer 71 includes an i region 71a, an LDD region 71b, and an n region 61c.
  • the fifth semiconductor layer 81 also includes an i region 81a and a p region 81b.
  • the layer structure of the n-channel transistor n-TrS and the p-channel transistor p-TrS is the same as that of the first switching element Tr shown in FIG. That is, the fourth semiconductor layer 71 and the fifth semiconductor layer 81 are provided in the same layer as the second semiconductor layer 51 and the third semiconductor layer 61 shown in FIG. 9.
  • the gate electrode 74 and the gate electrode 84 are provided in the same layer as the gate electrode 64 shown in FIG.
  • the source electrode 72, the drain electrode 73, the source electrode 82, and the drain electrode 83 are provided in the same layer as the source electrode 62 (first relay electrode 56) and the drain electrode 63 (signal line SGL) shown in FIG. 9.
  • the first photodiode PD1 and the first switching element Tr and the switching elements such as the third switching element TrS are provided in the same layer using the same material. This simplifies the manufacturing process of the detection device 100 and suppresses the manufacturing cost.
  • the third switching element TrS is not limited to the CMOS transistor, and may be configured by either the n-channel transistor n-TrS or the p-channel transistor p-TrS. However, the material and laminated structure of the first sensor unit 10A are not limited to those described above.
  • FIG. 12 is an equivalent circuit diagram showing the second sensor unit according to the first embodiment.
  • the second sensor unit 10B has a plurality of partial detection areas PAA arranged in a matrix.
  • the partial detection area PAA of the second sensor unit 10B includes the second photodiode PD2, the capacitive element Ca, and the first switching element Tr.
  • the first switching element Tr is provided corresponding to the second photodiode PD2.
  • the gate of the first switching element Tr is connected to the gate line GCL.
  • the source of the first switching element Tr is connected to the signal line SGL.
  • the drain of the first switching element Tr is connected to the cathode electrode 54 of the second photodiode PD2 and one end of the capacitive element Ca.
  • the anode electrode 55 of the second photodiode PD2 and the other end of the capacitive element Ca are connected to a reference potential, for example, the ground potential. That is, the second sensor unit 10B has a configuration in which the first photodiode PD1 is not included in the first sensor unit 10A.
  • the second sensor unit 10B may be configured to be able to detect the user's fingerprint, palm print, or the like. In this case, the second sensor unit 10B may have the same configuration as the first sensor unit 10A, for example.
  • FIG. 13 is a schematic cross-sectional view of the partial detection area of the second sensor unit.
  • the first switching element Tr is provided on the insulating substrate 21 similarly to the first sensor unit 10A shown in FIG.
  • the second sensor unit 10B is not provided with the first photodiode PD1.
  • the second sensor unit 10B is different from the first sensor unit 10A in the position where the second photodiode PD2 is provided.
  • the second photodiode PD2 is provided above the first switching element Tr, that is, on the third direction Dz side.
  • the anode electrode 35 of the second photodiode PD2 is provided on the second interlayer insulating film 25.
  • the anode electrode 35, the second semiconductor layer 51, and the cathode electrode 34 are stacked in this order.
  • the second semiconductor layer 51 is laminated on the anode electrode 35 in the order of a p region 52b, an i region 52a, and an n region 52c.
  • the anode electrode 35 is connected to the source electrode 62 of the first switching element Tr via a contact hole H4 provided in the second interlayer insulating film 25.
  • the laminated structure of the third switching element TrS and the fourth switching element TrR in the second sensor unit 10B is the same as in FIG.
  • the second sensor unit 10B includes the second photodiode PD2 having the second semiconductor layer 51 containing polysilicon as described above, the blood vessel pattern of the user can be preferably detected.
  • the material and laminated structure of the second sensor unit 10B are not limited to those described above.
  • the first sensor unit 10A When the first sensor unit 10A is a sensor that detects the user's fingerprint and does not detect the user's blood vessel pattern, the first sensor unit 10A does not include the second photodiode PD2 and includes the first photodiode PD1. It can be configured. In that case, the equivalent circuit of the first sensor unit 10A is obtained by replacing the second photodiode PD2 of FIG. 12 with the first photodiode PD1, and the laminated structure of the first sensor unit 10A is the same as that of the second photo diode in FIG. It is preferable that the diode PD2 is replaced with the first photodiode PD1.
  • FIG. 14A is a flowchart illustrating the flow of user authentication.
  • the detection device 100 causes the control unit 6 to determine whether or not there is a request to execute a predetermined function (step S1).
  • a user operates the input unit 1 provided with the sensor unit 10 to execute a predetermined function (start of the detection device 100, return from a sleep state, start of a program, access to a website, etc.) on the detection device 100.
  • start of the detection device 100 return from a sleep state, start of a program, access to a website, etc.
  • the input unit 1 provided with the sensor unit 10 is assigned with a function of receiving an execution request of a predetermined function from the user.
  • the control unit 6 acquires information indicating that the input unit 1 has been operated from the input unit 1, and determines whether or not the input unit 1 is assigned with a function for receiving a request to execute a predetermined function. The control unit 6 determines that there is a predetermined function execution request when the operated input unit 1 is assigned with a function that receives a predetermined function execution request. On the other hand, the control unit 6 determines that there is no execution request for the predetermined function when the operated input unit 1 is not assigned with the function for receiving the execution request for the predetermined function.
  • the control unit 6 acquires the biometric information of the user (step S2). More specifically, the control unit 6 acquires, from the sensor unit 10, the biometric information of the user when the operation of requesting the execution of the predetermined function is performed.
  • the sensor unit 10 detects the biometric information of the user when the input unit 1 that receives the execution request of the predetermined function is close to the input unit 1, that is, when the user operates the input unit 1.
  • the sensor unit 10 outputs the detection signal Vdet corresponding to the light F2 reflected by the finger Fg or the palm of the user, which is close to the input unit 1, via the signal line selection circuit 16 (see FIG. 4). And outputs it to the detector 40 (see FIG. 4).
  • the detection unit 40 causes the coordinate extraction unit 45 to generate biometric information of the user (here, two-dimensional information of the fingerprint or blood vessel pattern) based on the detection signal Vdet, and outputs this biometric information to the control unit 6.
  • biometric information of the user here, two-dimensional information of the fingerprint or blood vessel pattern
  • the control unit 6 performs the operation of the execution request.
  • the biometric information of the user at the time of contact is acquired from the sensor unit 10.
  • step S1; No the process returns to step S1 and continues to receive the execution request for the predetermined function.
  • the sensor unit 10 may be driven as triggered by a request to execute a predetermined function, or may be constantly driven.
  • the control unit 6 compares the biometric information of the user with the reference biometric information (step S3), and determines whether the biometric information of the user matches the reference biometric information (step). S4). Specifically, the control unit 6 reads from the storage unit 8 reference biometric information that is prestored reference biometric information.
  • the reference biometric information is, for example, prestored as biometric information (here, two-dimensional information of a fingerprint or a blood vessel pattern) of a user who is permitted to use a predetermined function.
  • the control unit 6 compares the biometric information of the user with the reference biometric information to determine whether the biometric information of the user matches the reference biometric information.
  • control unit 6 pattern-matches the biometric information of the user with the reference biometric information, and determines that the biometric information of the user matches the reference biometric information if the similarity of the feature points is a predetermined degree or more, If the degree of similarity is less than the predetermined degree, it may be determined that the biometric information of the user does not match the reference biometric information. It should be noted that the biometric information of the user and the reference biometric information may be collated using a known technique.
  • step S4 When it is determined that the biometric information of the user and the reference biometric information match (step S4; Yes), the control unit 6 controls the detection device 100 as the authentication is possible and executes the predetermined function requested to be executed. Execute (step S5). When it is determined that the biometric information of the user does not match the reference biometric information (step S4; No), the control unit 6 determines that the authentication is not possible and does not execute the predetermined function (step S6). Although the present process is completed by the steps S5 and S6 described above, for example, even when the authentication is not possible and the process proceeds to the step S6, the process may return to the step S2 and the authentication process may be continued again if the user is close. Further, even after the authentication is permitted and step S5 is executed, the process may return to step S2 and the authentication process may be continued at predetermined time intervals.
  • the detection apparatus 100 performs authentication based on biometric information when the user performs an operation requesting execution of a predetermined function, and if authentication is possible, executes the predetermined function. That is, the detection apparatus 100 performs the authentication operation and the predetermined function execution operation based on only the operation requesting the execution of the predetermined function. Therefore, according to the detection apparatus 100, an operation only for authentication is unnecessary, and it becomes possible to execute the predetermined function together with the authentication only by performing the operation of requesting the execution of the predetermined function (for example, the application start operation). Can be saved.
  • FIG. 14B is a flowchart illustrating the flow of user authentication.
  • the detection device 100 detects whether there is an object in proximity to the input unit 1 provided with the sensor unit 10 (step S10). That is, the detection device 100 detects whether the user's finger Fg or the palm has come close to the input unit 1 provided with the sensor unit 10. For example, the detection apparatus 100 always drives the sensor unit 10 to detect the light L2 reflected by the input unit 1 (see FIG. 3), and the sensor unit 10 causes the input unit 1 to detect the finger Fg of the user or the palm of the hand. Detects whether or not the two are close to each other. For example, in the detection device 100, the control unit 6 (see FIG.
  • the input unit 1 uses the user's finger Fg or palm. It may be judged whether or not is close. In this case, for example, when the intensity of the light L2, here the detection signal Vdet output by the sensor unit 10 is equal to or greater than a predetermined threshold value, the control unit 6 determines that the user's finger Fg or the palm has approached the input unit 1. If the intensity of the light L2 is less than the threshold value, it is determined that the user's finger Fg or palm is not in proximity to the input unit 1. Further, the user presses a key provided with the sensor unit 10 of the input unit 1 to input, for example, a character to the detection device 100. The control unit 6 may recognize the proximity of the user when the user presses a key.
  • step S10 the detection apparatus 100 acquires biometric information of the user (step S12). That is, the sensor unit 10 provided in the input unit 1 where the proximity is detected detects the biometric information of the user when the user operates the input unit 1. Then, the control unit 6 acquires the biometric information of the user when the input unit 1 is operated from the sensor unit 10.
  • step S10 the process returns to step S10 to continue the proximity detection.
  • the detection apparatus 100 After acquiring the biometric information of the user, the detection apparatus 100 causes the control unit 6 to collate the biometric information of the user with the reference biometric information (step S14) to determine whether the biometric information of the user matches the reference biometric information. Is determined (step S16). If it is determined that the biometric information of the user and the reference biometric information match (step S16; Yes), the control unit 6 controls the detection device 100 to execute a predetermined function (step S18). ..
  • the predetermined function here may be a preset function. That is, the predetermined function may be preset in the detection device 100 as a function to be executed when the user operates the input unit 1. However, the predetermined function may be a function that the user has requested to execute by operation.
  • control unit 6 determines that the biometric information of the user matches the reference biometric information, in other words, determines that the predetermined function is executed, in addition to the execution of the predetermined function, the input in which the proximity is detected is performed.
  • the operation assigned to the section 1 is executed (step S20).
  • the operation assigned to the input unit 1 in which the proximity is detected is the input operated by the user when the sensor unit 10 detects biological information in the predetermined function (for example, the started program) executed in step S18.
  • the detection device 100 causes the enter key to be the action assigned to the enter key whose proximity is detected in the activated program.
  • the process corresponding to the input of is executed.
  • the detection unit 100 when the user operates the input unit 1 provided with the sensor unit 10, the detection unit 100 detects the proximity of the user to the input unit 1 and the sensor unit provided in the input unit 1. The biometric information of the user is detected by 10, and the control section 6 collates the biometric information of the user with the reference biometric information.
  • the detection apparatus 100 accepts an input to the input unit 1 and executes an operation assigned to the input unit 1 in addition to executing a predetermined function. To do.
  • step S16 When it is determined that the biometric information of the user and the reference biometric information do not match (step S16; No), the control unit 6 does not execute the predetermined function, and the input unit 1 in which the proximity is detected is not performed.
  • the assigned operation is not executed (step S22). That is, when the control unit 6 determines not to execute the predetermined function, the control unit 6 does not execute the operation assigned to the input unit 1 in which the proximity is detected.
  • the detection device 100 is provided with the input unit 1 that receives a user operation, and the biometric information of the user when the user operates the input unit 1 when the input unit 1 is operated. It has the sensor part 10 which detects.
  • the sensor unit 10 detects biometric information of the user when the user operates the input unit 1. Therefore, according to the detection device 100, the user can perform the authentication based on the biometric information only by performing the operation for operating the detection device 100 (for example, the operation requesting the execution of the predetermined function). Therefore, according to this detection device 100, operations such as password input by the user and user operations on the fingerprint authentication screen are not required, and the time and effort required for authentication can be reduced.
  • the detection device 100 has the control unit 6 that determines whether to execute a predetermined function based on the biometric information of the user detected by the sensor unit 10.
  • the control unit 6 acquires from the sensor unit 10 the biometric information of the user when the operation requesting the execution of the predetermined function is performed by the user when the operation requesting the execution of the predetermined function is input to the input unit 1. Based on the acquired biometric information of the user, it is determined whether to execute a predetermined function. Since this detection device 100 has the control unit 6, it can appropriately perform authentication. Furthermore, according to the detection device 100, the user's operation only for authentication is not required, and the predetermined function can be executed together with the authentication only by performing the operation of requesting the execution of the predetermined function. Can be suppressed.
  • the detection device 100 may not include the control unit 6.
  • the detection device 100 transmits the biometric information of the user detected by the sensor unit 10 to another device (such as an external server) including the control unit 6, and the other device is controlled by the control unit 6. Authentication may be performed and the result of the authentication may be transmitted to the detection device 100.
  • control unit 6 determines not to execute the predetermined function, that is, when the biometric information of the user does not match the reference biometric information, the input unit 1 operated by the user when the biometric information is detected. Do not perform the action assigned to. Further, when the control unit 6 determines to execute the predetermined function, the control unit 6 executes the operation assigned to the input unit 1 operated by the user when the biometric information is detected. When the authentication is possible, the detection device 100 executes a predetermined function and also performs an operation assigned to the input unit 1 in the predetermined function.
  • the detection device 100 since the detection device 100 not only performs the authentication and executes the predetermined function by the operation of the input unit 1 by the user, but also performs the operation in the predetermined function, the operation only for the authentication becomes unnecessary, The labor of authentication can be suppressed.
  • the sensor unit 10 includes a first sensor unit 10A that detects a user's fingerprint and a second sensor unit 10B that detects a user's blood vessel pattern.
  • a first sensor unit 10A that detects a user's fingerprint
  • a second sensor unit 10B that detects a user's blood vessel pattern.
  • the biometric information (fingerprint) of the user acquired by the first sensor unit 10A matches the reference biometric information (fingerprint in the reference biometric information), and the biometric of the user acquired by the second sensor unit 10B.
  • the detection device 100 acquires any one of the biometric information of the user acquired by the first sensor unit 10A and the biometric information of the user acquired by the second sensor unit 10B, and acquires one of the acquired biometric information.
  • the biometric information matches the reference biometric information
  • authentication is possible and a predetermined function may be executed.
  • the detection device 100 acquires the other of the biometric information of the user acquired by the first sensor unit 10A and the biometric information of the user acquired by the second sensor unit 10B, and the other biometric information is acquired. If the reference biometric information does not match, execution of the predetermined function may be interrupted.
  • the first sensor unit 10A includes a semiconductor containing amorphous silicon (first semiconductor layer 31), and the second sensor unit 10B includes a semiconductor containing polysilicon (second semiconductor layer 51). Therefore, the detection device 100 can preferably detect the user's fingerprint and the blood vessel pattern.
  • FIG. 15 is a diagram showing another example of the keyboard.
  • the button 2A1 is provided with the first sensor unit 10A
  • the button 2A2 is provided with the second sensor unit 10B.
  • the second sensor unit 10B is provided on the button 2A2 on the side farther from the user than the button 2A1 on which the first sensor unit 10A is provided, that is, the direction Y side.
  • the button 2A for inputting F and J is the button 2A1 for providing the first sensor unit 10A
  • the button 2A for inputting R and U is the button 2A2 for providing the second sensor unit 10B.
  • the first sensor unit 10A is preferably a sensor that detects a fingerprint without detecting a blood vessel pattern, but may be a sensor that detects both a blood vessel pattern and a fingerprint.
  • the button 2A1 closer to the user may be provided with the first sensor unit 10A, and the button 2A2 farther from the user than the button 2A1 may be provided with the second sensor unit 10B.
  • the contact area of the finger Fg it is preferable to make the contact area of the finger Fg larger than when detecting a fingerprint.
  • buttons 2A1 and 2A2 may be provided with the first sensor unit 10A and the second sensor unit 10B, respectively, and may be appropriately used depending on the usage pattern of the input unit 1 of the user, the size of the user's hand, and the like. It is possible.
  • the fingerprint or the blood vessel pattern may be detected by using the sensor unit 10 provided on the button adjacent to the pressed button. .. Specifically, when the "5" and “7" buttons 2A3 further away from the user than the R and U buttons 2A2 are pressed, the sensor units provided in the R, U, F, and J are driven. Therefore, the fingerprint or the blood vessel pattern may be detected.
  • the key provided with the sensor unit can be appropriately changed according to the size of the input unit 1, the arrangement of the keys of the input unit 1, the frequency of use of the key by the user, and the like. Further, when the ten keys are frequently used, they can be provided on the ten keys.
  • the present embodiment is characterized in that the type of biometric information to be detected and the biometric information position to be detected are changed depending on the difference in distance from the user.
  • the detection device 100 is not limited to providing the sensor unit 10 on the keyboard 2, but may also provide the sensor unit 10 on another input unit 1, for example, the mouse 4. Further, the detection device 100 may include the sensor unit 10 on both the keyboard 2 and the mouse 4. That is, in the detection device 100, the sensor unit 10 may be provided on at least one of the keyboard 2 and the mouse 4 as the input unit 1.
  • FIG. 16 is a diagram showing an example in which a mouse is provided with a sensor unit.
  • the mouse 4 has a housing 4A and buttons 4B.
  • the housing 4A is the main body of the mouse 4 and includes various devices inside.
  • the button 4B is provided at the tip of the housing 4A and receives a click operation by the user. Further, the user can move the cursor displayed on the display unit 5 by gripping and moving the housing unit 4A.
  • the sensor unit 10 is provided in such a mouse 4. More specifically, the button 4B is provided with the first sensor unit 10A, and the surface 4Aa of the housing unit 4A is provided with the second sensor unit 10B.
  • the surface 4Aa of the housing 4A is provided on the rear end side of the mouse 4 with respect to the button 4B. Therefore, when the user operates the mouse 4, the palm of the hand approaches the surface 4Aa of the housing 4A and the finger Fg of the user approaches the button 4B.
  • the first sensor unit 10A on the button 4B pressed by the user and providing the second sensor unit 10B on the housing unit 4A close to the palm of the user the blood vessel pattern and the fingerprint can be preferably detected. ..
  • FIG. 17 shows an example in which the mouse 4 has a light source unit and the sensor unit 10 does not have a light source unit.
  • the mouse 4 includes a light source unit 4C and a light receiving unit 4D inside the housing unit 4A.
  • the light source unit 110 for the sensor unit 10 is not provided.
  • the bottom surface 4Ab of the housing portion 4A is in contact with the contact surface G, and the bottom surface 4Ab is provided with an opening 4Ac for irradiating the contact surface G with light L0 from the light source portion 4C.
  • the light L0 emitted from the light source unit 4C passes through the opening 4Ac, is reflected by the contact surface G, and is emitted to the light receiving unit 4D as the light L1.
  • the amount of movement and the moving direction of the mouse 4 are detected by the light L1 applied to the light receiving unit 4D. Further, the light L1 is also applied to the sensor unit 10, and the sensor unit 10 can detect biological information by the light L1.
  • FIG. 18 shows an example in which the mouse 4 does not have a light source unit and the sensor unit 10 has a light source unit 110.
  • the mouse 4 includes a light receiving section 4D inside the housing section 4A.
  • the light L1 emitted from the light source unit 110 is emitted to the sensor unit 10, and the sensor unit 10 detects biological information by the light L1.
  • the light source unit 110 is configured such that the light L1 is also emitted toward the contact surface G. Therefore, the light L1 from the light source unit 110 is reflected by the contact surface G and is applied to the light receiving unit 4D as the light L3.
  • the amount of movement and the moving direction of the mouse 4 are detected by the light L3 emitted to the light receiving unit 4D.
  • the user when the user is authenticated by a terminal such as a personal computer, the user can be authenticated while performing work such as inputting characters by the keyboard. Therefore, it is not necessary to perform another operation for authentication.
  • the user can be authenticated over the period in which the user operates the keyboard or at predetermined intervals.
  • a plurality of users share the same detection device 100 (terminal)
  • authentication is required every time the user changes, but in the present embodiment, at the same time when the user inputs something or operates a mouse, Since the detection device 100 recognizes the change of the above, the convenience for the user is improved.
  • the detection device 100a according to the second embodiment is different from the first embodiment in that the detection device 100a is a device for performing financial transactions. Descriptions of parts of the second embodiment that have the same configuration as the first embodiment will be omitted.
  • FIG. 19 is a schematic diagram of the detection device according to the second embodiment.
  • the detection device 100a is a device capable of depositing and withdrawing cash, for example, an automated teller machine (ATM) installed in a financial institution or a convenience store. For example, it is a multi-function device that handles cash and is installed in the etc.
  • the detection device 100a has a keyboard 2a as an input unit 1a, a display unit 5a, a card insertion unit 200, and a bill processing unit 202.
  • the detection device 100a has various circuits (such as the detection control unit 11 and the detection unit 40) for detecting biological information, as in the detection device 100 of the first embodiment.
  • the card insertion unit 200 is configured to insert and eject a card in a transaction using a card such as a cash card. Further, the card insertion unit 200 ejects the receipt issued at the end of the transaction.
  • the bill processing unit 202 delivers bills at the time of deposit and withdrawal transactions.
  • the detection device 100a is connected to the server 220, which is an external device, via the network 210, and sends and receives information to and from the server 220.
  • the server 220 has a control unit 6a that executes the same function as the control unit 6 of the first embodiment, and a storage unit 8a.
  • FIG. 20 is a diagram showing an example of the keyboard according to the second embodiment.
  • the keyboard 2a has a plurality of buttons 2Aa, and the sensor unit 10 is provided on the buttons 2Aa.
  • the sensor unit 10 here is preferably the first sensor unit 10A, but may be the second sensor unit 10B.
  • the sensor unit 10 detects the biometric information of the user.
  • the biometric information of the user detected by the sensor unit 10 is transmitted to the server 220 via the network 210, and the control unit 6a of the server 220, similar to the control unit 6 of the first embodiment, stores the reference biometric information from the storage unit 8a. Is read out and the reference biometric information is compared with the biometric information of the user to perform authentication.
  • the control unit 6a of the server 220 transmits information to that effect to the detection device 100a via the network 210.
  • the detection device 100a starts a predetermined function (for example, depositing or dispensing procedure). Further, the detection device 100a executes an operation (for example, input of a numerical value) assigned to the operated button 2Aa while starting a predetermined function.
  • the detection device 100a is a device that performs financial transactions, a device that controls entry and exit, and the like, and has a user interface such as a keyboard, and is a system that performs predetermined processing by performing biometric authentication of a user. By applying it, the operation only for authentication becomes unnecessary, and the trouble of authentication can be suppressed.
  • the detection device 100b according to the third embodiment is different from that of the first embodiment in the position where the sensor unit 10 is provided, and is a touch panel type computer in which a display unit and an input unit are integrated, that is, a tablet type. It differs from the first embodiment in that it is a terminal. Descriptions of parts of the third embodiment that have the same configuration as the first embodiment will be omitted.
  • 21 to 24 are schematic views of the detection device according to the third embodiment.
  • a touch panel integrally formed by laminating the input unit 1b and the display unit 5b is provided on the surface 230A of the housing unit 230.
  • the detection device 100b has various circuits (such as the detection control unit 11 and the detection unit 40) for detecting biological information, like the detection device 100 of the first embodiment.
  • the detection device 100b is rectangular, and the direction along the long side is the direction X, the direction along the short side is the direction Y, and the direction orthogonal to the surface 230A is the direction Z.
  • the sensor unit 10 is provided on the back surface 230B of the housing unit 230.
  • the back surface 230B is a surface opposite to the front surface 230A on which the touch panel is provided. That is, the sensor unit 10 is provided in a region where the input unit 1b and the display unit 5b are not provided.
  • the sensor unit 10 may be provided, for example, as shown in FIG. 22, on one end side and the other end side in the direction Y of the back surface 230B. Further, the plurality of sensor units 10 may be provided along the direction X on each of the one end side and the other end side in the direction Y of the back surface 230B.
  • one of the sensor units 10 arranged along the direction X may be the first sensor unit 10A and the other may be the second sensor unit 10B.
  • the sensor unit 10 is provided at the position touched when the user holds the detection device 100b, and the biometric information of the user can be preferably detected.
  • the position where the sensor unit 10 is provided is not limited to the example shown in FIG. 22, and may be provided at any position on the back surface 230B as shown in FIG. 23, for example.
  • the sensor unit 10 is not limited to the back surface 230B, and may be provided on the side surface of the detection device 100b or a frame area on the front surface 230A where the input unit 1b and the display unit 5b are not provided.
  • a tablet terminal may be shared by a plurality of users in a scene such as product management work. According to the present embodiment, it is possible to always grasp the relationship between the user and the terminal, and it is possible to efficiently switch the displayed screen for each terminal.
  • a support member that matches the shape of a finger may be provided from the side surface to the back surface of the terminal housing. In this case, by providing the sensor unit 10 at the portion of the supporting member that is in contact with the finger, the user can perform authentication without being aware of the sensor unit 10.
  • the sensor unit 10 can be provided on the surface of the pen input unit 240 connected to the detection device 100b which is a tablet terminal. In this case, it is preferable to dispose the first sensor unit 10A closer to the tip end side of the pen input unit 240 than the second sensor unit 10B.
  • the tip of the pen input means 240 is a portion where the screen is touched by the pen input means 240.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Vascular Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Collating Specific Patterns (AREA)
  • Position Input By Displaying (AREA)

Abstract

認証の手間を抑制する。検出装置(100)は、ユーザの操作を受け付ける入力部(1)と、入力部(1)に設けられて、ユーザが入力部(1)を操作した際にユーザの生体情報を検出するセンサ部(10)とを有する。

Description

検出装置及び認証方法
 本発明は、検出装置及び認証方法に関する。
 電子デバイスへのアクセスを制限するために、電子デバイスに認証システムが搭載されることがある。例えば特許文献1には、ユーザに認証させるためのディスプレイを表示する旨が記載されている。また、特許文献1には、電子デバイスのキーボードに認証用のセンサを設ける旨も記載されている。
特開2017-117477号公報
 しかし、特許文献1のように認証させるためのディスプレイを表示する場合、ユーザは、電子デバイスを動作させるための認証のためだけの操作が必要となり、ユーザにとって手間となるおそれがある。従って、認証の手間を抑制することが求められている。
 本発明は、上記の課題に鑑みてなされたもので、認証の手間を抑制することが可能な検出装置及び認証方法を提供することを目的とする。
 本発明の一態様による検出装置は、ユーザの操作を受け付ける入力部と、前記入力部に設けられて、前記ユーザが前記入力部を操作した際に前記ユーザの生体情報を検出するセンサ部と、を有する。
 本発明の一態様による認証方法は、ユーザの操作を受け付ける入力部と、前記入力部に設けられて、前記ユーザが前記入力部を操作した際に前記ユーザの生体情報を検出するセンサ部と、を有する検出装置を用いた前記ユーザの認証方法であって、前記センサ部が検出した前記ユーザの生体情報に基づき、予め定めた機能を実行するかを判断する。
図1は、第1実施形態に係る検出装置の模式図である。 図2は、第1実施形態に係るキーボードの一例を示す図である。 図3は、第1実施形態に係る検出装置の概略断面構成を示す断面図である。 図4は、第1実施形態に係る検出装置の構成例を示すブロック図である。 図5は、第1実施形態に係る検出装置を示す回路図である。 図6は、第1実施形態に係る第1センサ部を示す等価回路図である。 図7は、第1実施形態に係る検出装置の動作例を表すタイミング波形図である。 図8は、第1実施形態に係る第1センサ部の部分検出領域を模式的に示す平面図である。 図9は、図8のIX-IX断面図である。 図10は、第1フォトダイオード及び第2フォトダイオードの、波長と光吸収係数との関係を模式的に示すグラフである。 図11は、駆動回路が有するスイッチング素子の概略断面構成を示す断面図である。 図12は、第1実施形態に係る第2センサ部を示す等価回路図である。 図13は、第2センサ部の部分検出領域の模式的な断面図である。 図14Aは、ユーザ認証のフローを説明するフローチャートである。 図14Bは、ユーザ認証のフローを説明するフローチャートである。 図15は、キーボードの他の例を示す図である。 図16は、マウスにセンサ部を設ける例を示す図である。 図17は、マウスとセンサ部との光源の配置の例を示す模式図である。 図18は、マウスとセンサ部との光源の配置の例を示す模式図である。 図19は、第2実施形態に係る検出装置の模式図である。 図20は、第2実施形態に係るキーボードの一例を示す図である。 図21は、第3実施形態に係る検出装置の模式図である。 図22は、第3実施形態に係る検出装置の模式図である。 図23は、第3実施形態に係る検出装置の模式図である。 図24は、第3実施形態に係る検出装置の模式図である。
 発明を実施するための形態(実施形態)につき、図面を参照しつつ詳細に説明する。以下の実施形態に記載した内容により本発明が限定されるものではない。また、以下に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものが含まれる。さらに、以下に記載した構成要素は適宜組み合わせることが可能である。なお、開示はあくまで一例にすぎず、当業者において、発明の主旨を保っての適宜変更について容易に想到し得るものについては、当然に本発明の範囲に含有されるものである。また、図面は説明をより明確にするため、実際の態様に比べ、各部の幅、厚さ、形状等について模式的に表される場合があるが、あくまで一例であって、本発明の解釈を限定するものではない。また、本明細書と各図において、既出の図に関して前述したものと同様の要素には、同一の符号を付して、詳細な説明を適宜省略することがある。
 (第1実施形態)
 (全体構成)
 図1は、第1実施形態に係る検出装置の模式図である。第1実施形態に係る検出装置100は、入力部1によってユーザの操作を受け付けて、入力部1に入力されたユーザの操作に基づき所定の動作(処理)を実行する電子機器である。そして、検出装置100は、ユーザが入力部1を操作した際にユーザの生体情報を検出するセンサ部10(図2を参照)が、入力部1に備えられる。
 図1に示すように、第1実施形態に係る検出装置100は、コンピュータであり、入力部1と、表示部5と、後述する制御部6及び記憶部8と、を有する。入力部1は、ユーザの操作を受け付ける入力装置であり、本実施形態では、キーボード2及びマウス4を備える。出力部としての表示部5は、画像を表示する表示装置である。なお、図1における検出装置100は、ラップトップ型のコンピュータであるが、それに限られず、デスクトップ型のコンピュータであってもよい。
 図2は、第1実施形態に係るキーボードの一例を示す図である。図2に示すように、キーボード2は、複数のボタン(キー)2Aと、操作部2Bと、筐体2Cと、を有する。筐体2Cは、キーボード2の本体部であり、表面に、複数のボタン2Aと操作部2Bとを備えている。以下、ボタン2Aの表面に沿った一方向を、方向Xとし、ボタン2Aの表面に沿った一方向であって方向Xに交差する一方向を、方向Yとする。さらに言えば、本実施形態では、方向Yは、方向Xに直交する。そして、ボタン2Aの表面に直交する方向、すなわち方向X、Yに直交する一方向を、方向Zとする。方向Zは、ボタン2Aの表面側に向かう方向である。
 ボタン2Aは、物理ボタンであり、方向X、Yにおいてマトリクス状に並んでいる。操作部2Bは、ユーザが操作部2Bの表面をなぞるように操作することで、表示部5に表示されるカーソルを動かすための操作盤である。操作部2Bは、複数のボタン2Aよりも方向Yと反対方向側に位置している。キーボード2において、方向Y側が、ユーザから遠い側であり、方向Yと反対側が、ユーザに近い側である。
 第1実施形態に係る検出装置100は、このように構成されるキーボード2に、ユーザの生体情報を検出するセンサ部10が設けられている。センサ部10は、キーボード2に複数設けられているが、センサ部10の数は任意であり1つであってもよい。
 より詳しくは、第1実施形態に係る検出装置100は、センサ部10として、第1センサ部10Aと、第2センサ部10Bとを有している。第1センサ部10Aは、ボタン2Aに設けられている。図2の例では、第1センサ部10Aは、複数のボタン2Aのうちの一部に設けられている。例えば、第1センサ部10Aは、左右の人差し指を配置する時間の長いFを入力するボタン2A、Jを入力するボタン2A、親指を配置する時間の長いスペースを入力するボタン2A、及び押す頻度の高いエンターを入力するボタン2A、コントロールボタン、Altボタンに設けられている。ただし、第1センサ部10Aが設けられるボタン2Aは、これに限られず任意である。例えば、第1センサ部10Aは、全てのボタン2Aに設けられてもよい。
 第2センサ10部Bは、領域2Dに設けられている。領域2Dは、筐体2Cの表面であって、ボタン2Aよりもユーザに近い側、すなわちボタン2Aよりも方向Yと反対側の領域である。より詳しくは、領域2Dは、操作部2Bの両側方、すなわち、操作部2Bの方向X側、及び操作部2Bの方向Xと反対側に位置している。すなわち、第2センサ部10Bは、ユーザがキーボード2を操作する際に、手のひらを接触させる箇所に設けられている。ただし、第2センサ部10Bが設けられる位置はこれに限られない。また、第2センサ部10Bは、設けられていなくてもよい。また、操作部2Bに第1センサ部10Aを組み込んだ構造であってもよい。
 第1センサ部10Aは、ユーザの生体情報を取得するセンサであり、第1実施形態においては、ユーザの指紋及びユーザの血管パターンを検出する。血管パターンとは、血管の像を指し、本実施形態では、静脈パターンである。また、第2センサ部10Bは、ユーザの手の血管パターンを検出するセンサである。第2センサ部10Bは、ユーザの指紋、あるいは、掌紋などを検出可能に構成されていてもよい。このように、センサ部10は、ユーザの生体情報として、指紋及び血管パターンを検出するが、指紋及び血管パターンの少なくとも1つを検出するものであってもよい。また、センサ部10は、指紋及び血管パターン以外の生体情報(例えば脈拍、脈波など)を検出するものであってもよい。センサ部10の構成については後述する。
 図3は、第1実施形態に係る検出装置の概略断面構成を示す断面図である。図3は、入力部1と、センサ部10と、光源部110との積層構成を示している。光源部110と、センサ部10と、入力部1とは、方向Zに向かってこの順で並んで設けられる。なお、図3の例では、入力部1としてボタン2Aを示しているが、マウス4など他の入力部1にセンサ部10を設ける場合も、同様の積層構成となる。また、領域2Dにセンサ部10(第2センサ部10B)を設ける場合も、同様の積層構成となる。
 光源部110は、光を照射する光照射面110aを有し、光照射面110aから、検出装置100のセンサ部10に向けて光L1を照射する。光源部110は、バックライトである。光源部110は、光源として、例えば、所定の色の光を発する発光ダイオード(LED:Light Emitting Diode))を有していてもよい。光源として、後述する絶縁基板21(図9参照)上に搭載されたマイクロLEDを用いてもよいまた、光源部110は、センサ部10に対応する位置に設けられた導光板と、導光板の一方端又は両端に並ぶ複数の光源とを有する、いわゆるサイドライト型のバックライトであってもよい。また、光源部110は、センサ部10の直下に設けられた光源(例えば、LED)を有する、いわゆる直下型のバックライトであっても良い。また、光源部110は、バックライトに限定されず、検出装置100の側方に設けられていてもよく、ユーザの指Fgの側方から光L1を照射してもよい。また、光源を用いず、自然光で検出するものであってもよい。
 センサ部10は、光源部110の光照射面110aと対向して設けられる。言い換えると、光源部110と入力部1との間に、センサ部10が設けられる。光源部110から照射された光L1は、センサ部10及び入力部1を透過する。センサ部10は、例えば、光反射型の生体情報センサであり、入力部1と空気との界面で反射した光L2を検出することで、指Fgや手のひらなどの表面の凹凸(例えば、指紋)を検出できる。また、センサ部10は、指Fgや手のひらの内部で反射した光L2を検出することで、血管パターンを検出してもよいし、他の生体情報を検出してもよい。また、光源部110からの光L1の色は、検出対象に応じて異ならせてもよい。例えば、指紋検出の場合には、光源部110は青色又は緑色の光L1を照射し、血管パターン検出の場合には、光源部110は赤外光の光L1を照射することができる。
 センサ部10が設けられている入力部1は、センサ部10及び光源部110を覆うように構成される。この場合、入力部1は、透光性を有する部材で構成されており、例えば、透明樹脂などで構成されることが好ましい。ただし、センサ部10が設けられていない入力部1は、透光性を有していなくてもよい。なお、本実施形態では、センサ部10毎に光源部110が設けられているが、複数のセンサ部10に対して共通する1つの光源部110が設けられてもよい。
 図4は、第1実施形態に係る検出装置の構成例を示すブロック図である。図4に示すように、検出装置100は、制御部6と、記憶部8と、センサ部10と、検出制御部11と、電源回路13と、ゲート線駆動回路15と、信号線選択回路16と、検出部40とを有する。制御部6は、検出装置100に搭載される演算装置、すなわちCPU(Central Processing Unit)である。制御部6は、例えば、記憶部8からプログラムを読み出すことで、各種処理を実行する。記憶部8は、制御部6の演算内容やプログラムの情報などを記憶するメモリであり、例えば、RAM(Random Access Memory)と、ROM(Read Only Memory)と、HDD(Hard Disk Drive)などの外部記憶装置とのうち、少なくとも1つ含む。なお、検出部40が有する信号処理部44、記憶部46、座標抽出部45の機能の一部、或いは全てを上述の制御部6と記憶部8とに担わせることも可能である。
 センサ部10は、光電変換素子である第1フォトダイオードPD1及び第2フォトダイオードPD2の少なくとも一方を有する光センサである。センサ部10が有する第1フォトダイオードPD1及び第2フォトダイオードPD2は、照射される光に応じた電気信号を、検出信号Vdetとして信号線選択回路16に出力する。また、センサ部10は、ゲート線駆動回路15から供給されるゲート駆動信号VGCLに従って検出を行う。
 検出制御部11は、ゲート線駆動回路15、信号線選択回路16及び検出部40にそれぞれ制御信号を供給し、これらの動作を制御する回路である。検出制御部11は、スタート信号STV、クロック信号CK、リセット信号RST1等の各種制御信号をゲート線駆動回路15に供給する。また、検出制御部11は、選択信号SEL等の各種制御信号を信号線選択回路16に供給する。電源回路13は、検出装置100に設けられる回路であり、電源信号SVS(図7参照)等の電圧信号をセンサ部10及びゲート線駆動回路15などに供給する。
 ゲート線駆動回路15は、各種制御信号に基づいて複数のゲート線GCL(図5参照)を駆動する回路である。ゲート線駆動回路15は、複数のゲート線GCLを順次又は同時に選択し、選択されたゲート線GCLにゲート駆動信号VGCLを供給する。これにより、ゲート線駆動回路15は、ゲート線GCLに接続された複数の第1フォトダイオードPD1及び第2フォトダイオードPD2を選択する。
 信号線選択回路16は、複数の信号線SGL(図5参照)を順次又は同時に選択するスイッチ回路である。信号線選択回路16は、検出制御部11から供給される選択信号SELに基づいて、選択された信号線SGLと、検出回路である後述のAFE48とを接続する。これにより、信号線選択回路16は、第1フォトダイオードPD1及び第2フォトダイオードPD2の検出信号Vdetを検出部40に出力する。信号線選択回路16は、例えばマルチプレクサである。また、検出装置100は、光源駆動回路14を備えていてよい。光源駆動回路14は、検出制御部11からの信号に基づいて、第1フォトダイオードPD1及び第2フォトダイオードPD2を駆動する。光源駆動回路14は、検出制御部11からの信号に基づいて、光源部110を駆動して光源部110に光L1を照射させるものであってよい。
 検出部40は、AFE(Analog Front End;アナログフロントエンド回路)48と、信号処理部44と、座標抽出部45と、記憶部46と、検出タイミング制御部47と、を備える回路である。検出タイミング制御部47は、検出制御部11から供給される制御信号に基づいて、AFE(Analog Front End;アナログフロントエンド回路)48と、信号処理部44と、座標抽出部45と、が同期して動作するように制御する。
 AFE48は、少なくとも検出信号増幅部42及びA/D変換部43の機能を有する信号処理回路である。検出信号増幅部42は、信号線選択回路16を介してセンサ部10から出力された検出信号Vdetを、増幅する。A/D変換部43は、検出信号増幅部42から出力されるアナログ信号、すなわち増幅された検出信号Vdetを、デジタル信号に変換する。
 信号処理部44は、AFE48の出力信号、すなわちデジタル信号に変換された検出信号Vdetに基づいて、センサ部10に入力された所定の物理量を検出する論理回路である。信号処理部44は、指Fgや手のひらが入力部1に接触又は近づいた場合、制御部6からの指示を受けた場合に、AFE48からの検出信号Vdetに基づいて、指Fgの表面の凹凸(すなわち指紋)や、指Fgや手のひらの血管パターンを検出できる。なお、以下、特に断りがない場合は、指Fgや手のひらが入力部1に接触した場合、又は、指Fgや手のひらが生体情報を検出可能な程度に近い位置にある場合を、「近接」と記載する。
 記憶部46は、信号処理部44で演算された信号を一時的に保存する。記憶部46は、例えばRAM(Random Access Memory)、レジスタ回路等であってもよい。
 座標抽出部45は、信号処理部44において指Fgや手のひらの近接が検出されたときに、指Fg等の表面の凹凸の検出座標を求める論理回路である。座標抽出部45は、センサ部10の各第1フォトダイオードPD1及び第2フォトダイオードPD2から出力される検出信号Vdetを組み合わせて、指Fgの表面の凹凸(すなわち指紋)の形状や、指Fgや手のひらの血管パターンの形状を示す、二次元情報を生成する。この二元情報が、ユーザの生体情報であるといえる。なお、座標抽出部45は、検出座標を算出せずにセンサ出力Voとして検出信号Vdetを出力してもよい。この場合は、検出信号Vdetを、ユーザの生体情報と呼んでもよい。
 制御部6は、座標抽出部45が作成した二次元情報、すなわちセンサ部10が検出したユーザの生体情報を取得する。制御部6は、記憶部8から、予め記憶していた二次元情報、すなわち基準となる生体情報である基準生体情報を読み出す。そして、制御部6は、基準生体情報と、センサ部10が検出したユーザの生体情報とを照合して、センサ部10が検出したユーザの生体情報が基準生体情報と一致するかを判断する。すなわち、制御部6は、センサ部10が検出したユーザの生体情報を用いて、ユーザ認証を行う。制御部6は、センサ部10が検出したユーザの生体情報が基準生体情報と一致する場合、認証可として、検出装置100を制御して、所定機能を実行する。所定機能とは、例えばユーザが検出装置100に対して実行を要求している機能であり、例えば、検出装置100のプログラム(アプリケーション)の起動やウェブサイトへのアクセスなどが挙げられる。制御部6は、センサ部10が検出したユーザの生体情報が基準生体情報と一致しない場合は、認証不可として、所定機能を実行しない。なお、座標抽出部45が検出座標を算出しない場合は、制御部6が、検出信号Vdetから、指Fgの表面の凹凸(すなわち指紋)の形状や、指Fgや手のひらの血管パターンの形状を示す、二次元情報を生成する。
 (第1センサ部の構成)
 次に、検出装置100の回路構成例及び動作例、さらに言えば第1センサ部10Aの構成について説明する。図5は、第1実施形態に係る検出装置を示す回路図である。図5は、センサ部10のうちの第1センサ部10Aを含む回路図を示しているが、第2センサ部10Bを含む回路図も、図5に示すものと同様であるため、共通する部分の説明は省略する。図6は、第1実施形態に係る第1センサ部を示す等価回路図である。図7は、第1実施形態に係る検出装置の動作例を表すタイミング波形図である。
 図5に示すように、第1センサ部10Aは、マトリクス状に配列された複数の部分検出領域PAAを有する。図6に示すように、第1センサ部10Aの部分検出領域PAAは、第1フォトダイオードPD1及び第2フォトダイオードPD2と、容量素子Caと、第1スイッチング素子Trとを含む。第1スイッチング素子Trは、第1フォトダイオードPD1及び第2フォトダイオードPD2に対応して設けられる。第1スイッチング素子Trは、薄膜トランジスタにより構成されるものであり、この例では、nチャネル型のTFT(Thin Film Transistor)で構成されている。
 第1スイッチング素子Trのゲートは、ゲート線GCLに接続される。第1スイッチング素子Trのソースは、信号線SGLに接続される。第1スイッチング素子Trのドレインは、第1フォトダイオードPD1のカソード電極34、第2フォトダイオードPD2のカソード電極54及び容量素子Caの一端に接続される。第1フォトダイオードPD1のアノード電極35、第2フォトダイオードPD2のアノード電極55及び容量素子Caの他端は、基準電位、例えばグランド電位に接続される。このように、第1フォトダイオードPD1及び第2フォトダイオードPD2は、第1スイッチング素子Trに、同方向に並列接続される。
 信号線SGLには、第3スイッチング素子TrS及び第4スイッチング素子TrRが接続される。第3スイッチング素子TrS及び第4スイッチング素子TrRは、第1スイッチング素子Trを駆動する駆動回路を構成する素子である。本実施形態において、駆動回路は、部分検出領域PAAと重畳しない周辺領域に設けられたゲート線駆動回路15、信号線選択回路16及びリセット回路17等を含む。第3スイッチング素子TrSは、例えば、pチャネルトランジスタp-TrSとnチャネルトランジスタn-TrSとを組み合わせたCMOS(相補型MOS)トランジスタで構成される。第4スイッチング素子TrRも同様にCMOSトランジスタで構成される。
 リセット回路17の第4スイッチング素子TrRがオンになると、容量素子Caには、電源回路13から、容量素子Caの初期電位となる基準信号VR1が供給される。これにより、容量素子Caがリセットされる。部分検出領域PAAに光が照射されると、第1フォトダイオードPD1及び第2フォトダイオードPD2にはそれぞれ光量に応じた電流が流れ、これにより容量素子Caに電荷が蓄積される。第1スイッチング素子Trがオンになると、容量素子Caに蓄積された電荷に応じて、信号線SGLに電流が流れる。信号線SGLは、信号線選択回路16の第3スイッチング素子TrSを介してAFE48に接続される。これにより、検出装置100は、部分検出領域PAAごとに、第1フォトダイオードPD1及び第2フォトダイオードPD2に照射される光の光量に応じた信号を検出できる。
 図5に示すように、ゲート線GCLは、第1方向Dxに延在し、第1方向Dxに配列された複数の部分検出領域PAAと接続される。また、複数のゲート線GCL1、GCL2、…、GCL8は、第2方向Dyに配列され、それぞれゲート線駆動回路15に接続される。なお、以下の説明において、複数のゲート線GCL1、GCL2、…、GCL8を区別して説明する必要がない場合には、単にゲート線GCLと表す。ゲート線GCLの数は8本であるが、あくまで一例であり、ゲート線GCLは、8本以上配列されていてもよい。
 なお、第1方向Dxは、センサ部10の絶縁基板21と平行な面内の一方向であり、例えば、ゲート線GCLと平行な方向である。また、第2方向Dyは、絶縁基板21と平行な面内の一方向であり、第1方向Dxと直交する方向である。なお、第2方向Dyは、第1方向Dxと直交しないで交差してもよい。第3方向Dzは、第1方向Dx及び第2方向Dyと直交する方向であり、絶縁基板21に垂直な方向である。第3方向Dzは、上述の方向Zと一致する。
 信号線SGLは、第2方向Dyに延在し、第2方向Dyに配列された複数の部分検出領域PAAに接続される。また、複数の信号線SGL1、SGL2、…、SGL12は、第1方向Dxに配列されて、それぞれ信号線選択回路16及びリセット回路17に接続される。信号線SGLの数は12本であるが、あくまで一例であり、信号線SGLは、12本以上配列されていてもよい。また、図5では、信号線選択回路16とリセット回路17との間に第1センサ部10Aが設けられている。これに限定されず、信号線選択回路16とリセット回路17とは、信号線SGLの同じ方向の端部にそれぞれ接続されていてもよい。
 ゲート線駆動回路15は、スタート信号STV、クロック信号CK、リセット信号RST1等の各種制御信号を、レベルシフタ151を介して受け取る。ゲート線駆動回路15は、複数の第2スイッチング素子TrG(図示は省略する)を有している。ゲート線駆動回路15は、第2スイッチング素子TrGの動作により、複数のゲート線GCL1、GCL2、…、GCL8を時分割的に順次選択する。ゲート線駆動回路15は、選択されたゲート線GCLを介して、複数の第1スイッチング素子Trにゲート駆動信号VGCLを供給する。これにより、第1方向Dxに配列された複数の部分検出領域PAAが、検出対象として選択される。
 信号線選択回路16は、複数の選択信号線Lselと、複数の出力信号線Loutと、第3スイッチング素子TrSと、を有する。複数の第3スイッチング素子TrSは、それぞれ複数の信号線SGLに対応して設けられている。6本の信号線SGL1、SGL2、…、SGL6は、共通の出力信号線Lout1に接続される。6本の信号線SGL7、SGL8、…、SGL12は、共通の出力信号線Lout2に接続される。出力信号線Lout1、Lout2は、それぞれAFE48に接続される。
 ここで、信号線SGL1、SGL2、…、SGL6を第1信号線ブロックとし、信号線SGL7、SGL8、…、SGL12を第2信号線ブロックとする。複数の選択信号線Lselは、1つの信号線ブロックに含まれる第3スイッチング素子TrSのゲートにそれぞれ接続される。また、1本の選択信号線Lselは、複数の信号線ブロックの第3スイッチング素子TrSのゲートに接続される。具体的には、選択信号線Lsel1、Lsel2、…、Lsel6は、信号線SGL1、SGL2、…、SGL6に対応する第3スイッチング素子TrSと接続される。また、選択信号線Lsel1は、信号線SGL1に対応する第3スイッチング素子TrSと、信号線SGL7に対応する第3スイッチング素子TrSと、に接続される。選択信号線Lsel2は、信号線SGL2に対応する第3スイッチング素子TrSと、信号線SGL8に対応する第3スイッチング素子TrSと、に接続される。
 検出制御部11(図4参照)は、レベルシフタ161を介して、選択信号SELを順次選択信号線Lselに供給する。これにより、信号線選択回路16は、第3スイッチング素子TrSの動作により、1つの信号線ブロックにおいて信号線SGLを時分割的に順次選択する。また、信号線選択回路16は、複数の信号線ブロックで同時に1本ずつ信号線SGLを選択する。このような構成により、検出装置100は、AFE48を含むIC(Integrated Circuit)の数、又はICの端子数を少なくすることができる。
 図5に示すように、リセット回路17は、基準信号線Lvr、リセット信号線Lrst及び第4スイッチング素子TrRを有する。第4スイッチング素子TrRは、複数の信号線SGLに対応して設けられている。基準信号線Lvrは、複数の第4スイッチング素子TrRのソース又はドレインの一方に接続される。リセット信号線Lrstは、複数の第4スイッチング素子TrRのゲートに接続される。
 検出制御部11(図4参照)は、リセット信号RST2を、レベルシフタ171を介してリセット信号線Lrstに供給する。これにより、複数の第4スイッチング素子TrRがオンになり、複数の信号線SGLは基準信号線Lvrと電気的に接続される。電源回路13(図4参照)は、基準信号VR1を基準信号線Lvrに供給する。これにより、複数の部分検出領域PAAに含まれる容量素子Caに基準信号VR1が供給される。
 以上が、第1センサ部10Aに接続される回路の回路構成である。なお、以上の説明では、1つの第1センサ部10Aに対し、それぞれ、1つの検出制御部11、1つのゲート線駆動回路15、1つの信号線選択回路16、1つのリセット回路17、および1つの検出部40などの回路が設けられるように説明されているが、複数の第1センサ10部Aに対し、共通する1つの回路が設けられる構成であってよい。すなわち、この場合、複数の第1センサ部10Aに対し、1つのゲート線駆動回路15、1つの信号線選択回路16、1つのリセット回路17、および1つの検出部40などの回路が設けられていてもよい。
 次に、検出装置100の動作例について説明する。図7に示すように、検出装置100は、リセット期間Prst、露光期間Pex及び読み出し期間Pdetを有する。電源回路13は、リセット期間Prst、露光期間Pex及び読み出し期間Pdetに亘って、電源信号SVSを第1フォトダイオードPD1及び第2フォトダイオードPD2に供給する。また、リセット期間Prstが開始する前の時刻に、検出制御部11は、高レベル電圧信号の基準信号VR1及びリセット信号RST2を、リセット回路17に供給する。検出制御部11は、ゲート線駆動回路15にスタート信号STVを供給し、リセット期間Prstが開始する。
 リセット期間Prstにおいて、ゲート線駆動回路15は、スタート信号STV、クロック信号CK及びリセット信号RST1に基づいて、順次ゲート線GCLを選択する。ゲート線駆動回路15は、ゲート駆動信号VGCLをゲート線GCLに順次供給する。ゲート駆動信号VGCLは、高レベル電圧VGHと低レベル電圧VGLとを有するパルス状の波形を有する。図7の例では、256本のゲート線GCLが設けられており、各ゲート線GCLに、ゲート駆動信号VGCL1、…、VGCL256が順次供給される。
 これにより、リセット期間Prstでは、全ての部分検出領域PAAの容量素子Caは、順次信号線SGLと電気的に接続されて、基準信号VR1が供給される。この結果、容量素子Caの容量がリセットされる。
 ゲート駆動信号VGCL256がゲート線GCLに供給された後に、露光期間Pexが開始する。なお、各ゲート線GCLに対応する部分検出領域PAAでの、実際の露光期間Pex1、…、Pex256は、開始のタイミング及び終了のタイミングが異なっている。露光期間Pex1、…、Pex256は、それぞれ、リセット期間Prstでゲート駆動信号VGCLが高レベル電圧VGHから低レベル電圧VGLに変化したタイミングで開始される。また、露光期間Pex1、…、Pex256は、それぞれ、読み出し期間Pdetでゲート駆動信号VGCLが低レベル電圧VGLから高レベル電圧VGHに変化したタイミングで終了する。露光期間Pex1、…、Pex256の露光時間の長さは等しい。
 露光期間Pexでは、各部分検出領域PAAで、第1フォトダイオードPD1及び第2フォトダイオードPD2に照射された光に応じて電流が流れる。この結果、各容量素子Caに電荷が蓄積される。
 読み出し期間Pdetが開始する前のタイミングで、検出制御部11は、リセット信号RST2を低レベル電圧にする。これにより、リセット回路17の動作が停止する。読み出し期間Pdetでは、リセット期間Prstと同様に、ゲート線駆動回路15は、ゲート線GCLにゲート駆動信号VGCL1、…、VGCL256を順次供給する。
 例えば、ゲート駆動信号VGCL1が高レベル電圧VGHの期間に、検出制御部11は、選択信号SEL1、…、SEL6を、信号線選択回路16に順次供給する。これにより、ゲート駆動信号VGCL1により選択された部分検出領域PAAの信号線SGLが順次、又は同時にAFE48に接続される。この結果、検出信号VdetがAFE48に供給される。同様に、各ゲート駆動信号VGCLが高レベル電圧VGHとなる期間ごとに、信号線選択回路16が順次信号線SGLを選択する。これにより、読み出し期間Pdetで、検出装置100は、全ての部分検出領域PAAの検出信号VdetをAFE48に出力することができる。
 検出装置100は、リセット期間Prst、露光期間Pex及び読み出し期間Pdetを、繰り返し実行して検出を行ってもよい。或いは、検出装置100は、指Fg等が入力部1に近接したことを検出したタイミングで、検出動作を開始してもよい。
 次に、第1センサ部10Aの詳細な構成について説明する。図8は、第1実施形態に係る第1センサ部の部分検出領域を模式的に示す平面図である。図9は、図8のIX-IX断面図である。なお、図8では、図面を見やすくするために、カソード電極34及びアノード電極35を二点鎖線で示している。
 なお、以下の説明において、絶縁基板21の表面に垂直な方向において、絶縁基板21から第1フォトダイオードPD1に向かう方向、すなわち第3方向Dz側を「上側」又は単に「上」とする。第1フォトダイオードPD1から絶縁基板21に向かう方向、すなわち第3方向Dzと反対方向側を「下側」又は単に「下」とする。また、「平面視」とは、絶縁基板21の表面に垂直な方向から見た場合を示す。
 図8に示すように、第1センサ部10Aの部分検出領域PAAは、複数のゲート線GCLと、複数の信号線SGLとで囲まれた領域である。第1フォトダイオードPD1、第2フォトダイオードPD2及び第1スイッチング素子Trは、部分検出領域PAA、すなわち、複数のゲート線GCLと、複数の信号線SGLとで囲まれた領域に設けられる。第1フォトダイオードPD1及び第2フォトダイオードPD2は、例えば、PIN(Positive Intrinsic Negative Diode)型のフォトダイオードである。
 第1フォトダイオードPD1は、第1半導体層31と、カソード電極34と、アノード電極35とを含む。第1半導体層31は、第1部分半導体層31aと、第2部分半導体層31bとを含む。第1フォトダイオードPD1の第1部分半導体層31a及び第2部分半導体層31bは、アモルファスシリコン(a-Si)である。第1部分半導体層31a及び第2部分半導体層31bは、第1方向Dxにおいて、間隔SPを有して隣り合って設けられる。カソード電極34及びアノード電極35は、第1部分半導体層31a、第2部分半導体層31b及び間隔SPと重なる領域に亘って連続して設けられる。なお、以下の説明において、第1部分半導体層31a及び第2部分半導体層31bを区別して説明する必要がない場合には、単に第1半導体層31と表す場合がある。
 第1フォトダイオードPD1は、第2フォトダイオードPD2と重なって設けられる。具体的には、第1フォトダイオードPD1の第1部分半導体層31aは、第2フォトダイオードPD2と重なる。第2フォトダイオードPD2は、第2半導体層51と、カソード電極54と、アノード電極55とを含む。第2半導体層51は、ポリシリコンである。より好ましくは、第2半導体層51は、低温ポリシリコン(以下、LTPS(Low Temperature Polycrystalline Silicone)と表す)である。
 第2半導体層51は、i領域52a、p領域52b及びn領域52cを有する。平面視で、i領域52aは、p領域52bとn領域52cとの間に配置される。具体的には、第1方向Dxにおいて、p領域52b、i領域52a、n領域52cの順に配置される。n領域52cは、ポリシリコンに不純物がドープされてn+領域を形成する。p領域52bは、ポリシリコンに不純物がドープされてp+領域を形成する。i領域52aは、例えば、ノンドープの真性半導体であり、p領域52b及びn領域52cよりも低い導電性を有する。
 第2半導体層51と、第1フォトダイオードPD1の第1部分半導体層31aとは、第1中継電極56及び第2中継電極57を介して接続される。本実施形態では、第1中継電極56のうち第2半導体層51と重なる部分が、カソード電極54として機能する。第2中継電極57のうち第2半導体層51と重なる部分が、アノード電極55として機能する。なお、第2半導体層51と、第1フォトダイオードPD1との詳細な接続構成については後述する。
 第1スイッチング素子Trは、第1フォトダイオードPD1の第2部分半導体層31bと重なる領域に設けられる。第1スイッチング素子Trは、第3半導体層61、ソース電極62、ドレイン電極63及びゲート電極64を有する。第3半導体層61は、第2半導体層51と同様にポリシリコンである。より好ましくは、第3半導体層61は、LTPSである。
 本実施形態では、第1中継電極56のうち第3半導体層61と重なる部分が、ソース電極62として機能する。信号線SGLのうち第3半導体層61と重なる部分が、ドレイン電極63して機能する。また、ゲート電極64は、ゲート線GCLから第2方向Dyに分岐して第3半導体層61と重なる。本実施形態では、2つのゲート電極64は第3半導体層61と重なって設けられた、いわゆるダブルゲート構造である。
 第1スイッチング素子Trは、第1中継電極56を介して、第1フォトダイオードPD1のカソード電極34及び第2フォトダイオードPD2のカソード電極54と接続される。また、第1スイッチング素子Trは、信号線SGLとも接続される。
 より具体的には、図9に示すように、第1スイッチング素子Trは、絶縁基板21に設けられている。絶縁基板21は、例えば透光性を有するガラス基板である。或いは、絶縁基板21は、透光性を有するポリイミド等の樹脂で構成された樹脂基板又は樹脂フィルムであってもよい。第1センサ部10Aは、第1フォトダイオードPD1、第2フォトダイオードPD2及び第1スイッチング素子Trが絶縁基板21の上に形成される。
 絶縁基板21の上に、遮光層67、68が設けられる。アンダーコート膜22は、遮光層67、68を覆って、絶縁基板21の上に設けられる。アンダーコート膜22、ゲート絶縁膜23、第1層間絶縁膜24は、無機絶縁膜であり、シリコン酸化膜(SiO)、シリコン窒化膜(SiN)又はシリコン酸化窒化膜(SiON)等が用いられる。また、各無機絶縁膜は、単層に限定されず積層膜であってもよい。
 第2半導体層51及び第3半導体層61は、アンダーコート膜22の上に設けられる。つまり、第2フォトダイオードPD2の第2半導体層51及び第1スイッチング素子Trの第3半導体層61は、同層に設けられる。また、第3方向Dzにおいて、第2半導体層51と絶縁基板21との間に遮光層67が設けられる。これにより、光源部110(図3参照)からの光L1が直接、第2フォトダイオードPD2に照射されることを抑制することができる。また、第3方向Dzにおいて、第3半導体層61と絶縁基板21との間に遮光層68が設けられる。これにより、第1スイッチング素子Trの光リーク電流を抑制することができる。
 第3半導体層61は、i領域61a、LDD(Lightly Doped Drain)領域61b及びn領域61cを含む。i領域61aは、それぞれゲート電極64と重なる領域に形成される。また、n領域61cは、高濃度不純物領域であり、ソース電極62及びドレイン電極63と接続される領域に形成される。LDD領域61bは、低濃度不純物領域であり、n領域61cとi領域61aとの間、及び2つのi領域61aの間に形成される。
 ゲート絶縁膜23は、第2半導体層51及び第3半導体層61を覆ってアンダーコート膜22の上に設けられる。ゲート電極64は、ゲート絶縁膜23の上に設けられる。つまり、第1スイッチング素子Trは、第3半導体層61の上側にゲート電極64が設けられた、いわゆるトップゲート構造である。ただし、第1スイッチング素子Trは、ゲート電極64が第3半導体層61の上側及び下側の両方に設けられた、いわゆるデュアルゲート構造であってもよいし、ゲート電極64が第3半導体層61の下側に設けられたボトムゲート構造でもよい。
 第1層間絶縁膜24は、ゲート電極64を覆ってゲート絶縁膜23の上に設けられる。第1層間絶縁膜24は、第2半導体層51の上側にも設けられる。第1中継電極56、第2中継電極57及び信号線SGLは、第1層間絶縁膜24の上に設けられる。第1スイッチング素子Trにおいて、ソース電極62(第1中継電極56)は、コンタクトホールH8を介して第3半導体層61と接続される。ドレイン電極63(信号線SGL)は、コンタクトホールH7を介して第3半導体層61と接続される。
 第2フォトダイオードPD2において、カソード電極54(第1中継電極56)は、コンタクトホールH6を介して第2半導体層51のn領域52cと接続される。これにより、第2フォトダイオードPD2のカソード電極54は、第1スイッチング素子Trと接続される。また、アノード電極55(第2中継電極57)は、コンタクトホールH5を介して第2半導体層51のp領域52bと接続される。
 第2層間絶縁膜25は、第2フォトダイオードPD2及び第1スイッチング素子Trを覆って、第1層間絶縁膜24の上に設けられる。第2層間絶縁膜25は、有機膜であり、各種導電層で形成される凹凸を平坦化する平坦化膜である。なお、第2層間絶縁膜25は、上述した無機材料により形成してもよい。
 第1フォトダイオードPD1のアノード電極35は、バックプレーン19の第2層間絶縁膜25の上に設けられる。第1フォトダイオードPD1は、アノード電極35、第1部分半導体層31a及び第2部分半導体層31b、カソード電極34の順に積層される。バックプレーン19は、所定の検出領域ごとにセンサを駆動する駆動回路基板である。バックプレーン19は、絶縁基板21と、絶縁基板21に設けられた第1スイッチング素子Tr、第2スイッチング素子TrG及び各種配線等を有する。
 第1部分半導体層31aは、i型半導体層32a、p型半導体層32b及びn型半導体層32cを含む。第2部分半導体層31bは、i型半導体層33a、p型半導体層33b及びn型半導体層33cを含む。i型半導体層32a、33a、p型半導体層32b、33b及びn型半導体層32c、33cは、光電変換素子の一具体例である。図9では、絶縁基板21の表面に垂直な方向(第3方向Dz)において、i型半導体層32a、33aは、p型半導体層32b、33bとn型半導体層32c、33cとの間に設けられる。本実施形態では、アノード電極35の上に、p型半導体層32b、33b、i型半導体層32a、33a及びn型半導体層32c、33cの順に積層されている。
 n型半導体層32c、33cは、a-Siに不純物がドープされてn+領域を形成する。p型半導体層32b、33bは、a-Siに不純物がドープされてp+領域を形成する。i型半導体層32a、33aは、例えば、ノンドープの真性半導体であり、n型半導体層32c、33c及びp型半導体層32b、33bよりも低い導電性を有する。
 カソード電極34及びアノード電極35は、ITO(Indium Tin Oxide)等の透光性を有する導電材料である。カソード電極34は、電源信号SVSを光電変換層に供給するための電極である。アノード電極35は、検出信号Vdetを読み出すための電極である。
 アノード電極35は、第2層間絶縁膜25の上に設けられる。アノード電極35は、第1部分半導体層31a及び第2部分半導体層31bに亘って連続して設けられる。アノード電極35は、第2層間絶縁膜25に設けられたコンタクトホールH4を介して第2中継電極57と接続される。
 第1部分半導体層31a及び第2部分半導体層31bを覆って第3層間絶縁膜26が設けられる。第3層間絶縁膜26は有機膜であり、第1部分半導体層31a及び第2部分半導体層31bで形成される凹凸を平坦化する平坦化膜である。カソード電極34は、第3層間絶縁膜26の上に設けられる。カソード電極34は、第1部分半導体層31a及び第2部分半導体層31bの上に連続して設けられる。カソード電極34は、第3層間絶縁膜26に設けられたコンタクトホールH2、H1を介して第1部分半導体層31a及び第2部分半導体層31bと接続される。これにより、第1部分半導体層31a及び第2部分半導体層31bは、アノード電極35とカソード電極34との間に並列に接続され、1つの光電変換素子として機能する。
 カソード電極34は、第1部分半導体層31aと第2部分半導体層31bとの間隔SPにおいて、コンタクトホールH3を介して第1中継電極56と接続される。コンタクトホールH3は、第2層間絶縁膜25及び第3層間絶縁膜26を第3方向Dzに貫通する貫通孔である。アノード電極35の、コンタクトホールH3と重なる部分には開口35aが設けられており、コンタクトホールH3は開口35aを通って形成される。このような構成により、第1フォトダイオードPD1のカソード電極34及び第2フォトダイオードPD2のカソード電極54が、第1中継電極56を介して第1スイッチング素子Trに接続される。また、第1フォトダイオードPD1のアノード電極35と第2フォトダイオードPD2のアノード電極55とが、第2中継電極57を介して接続される。
 なお、図6に示す容量素子Caの容量は、間隔SPにおいて、第3層間絶縁膜26を介して対向するアノード電極55とカソード電極34との間に形成される。又は、第1フォトダイオードPD1の周縁の間隔SPaにおいて、第3層間絶縁膜26を介して対向するアノード電極55とカソード電極34との間に形成される。容量素子Caには、露光期間Pexでプラスの電荷が保持される。
 第1センサ部10Aは、以上のような構成となっている。すなわち、第1センサ部10Aは、アモルファスシリコンを含む第1半導体層31を有する第1フォトダイオードPD1と、ポリシリコンを含む第2半導体層51を有する第2フォトダイオードPD2とを有する。そして、第1センサ部10Aは、アモルファスシリコンを含む第1半導体層31とポリシリコンを含む第2半導体層51とが、すなわち第1フォトダイオードPD1と第2フォトダイオードPD2とが、第3方向Dzにおいて重なるように積層されている。ただし、第1センサ部10Aは、第1フォトダイオードPD1と第2フォトダイオードPD2とが、第3方向Dzにおいて積層されていなくてもよく、例えば同層に設けられていてもよい。
 次に、第1フォトダイオードPD1と第2フォトダイオードPD2との光吸収について説明する。図10は、第1フォトダイオード及び第2フォトダイオードの、波長と光吸収係数との関係を模式的に示すグラフである。図10の横軸は、波長を示し、縦軸は、光吸収係数を示す。光吸収係数は、物質中を進行する光の、吸収の程度を示す光学定数である。
 図10に示すように、アモルファスシリコンを含む第1フォトダイオードPD1は、可視光領域、例えば300nm以上800nm以下の波長領域で良好な光吸収係数を示す。一方、ポリシリコンを含む第2フォトダイオードPD2は、可視光領域から赤外領域を含む領域、例えば500nm以上1100nm以下の波長領域で良好な光吸収係数を示す。言い換えると、第1フォトダイオードPD1は、可視光領域で高い感度を有し、第2フォトダイオードPD2は、第1フォトダイオードPD1とは異なる波長領域である赤色の波長領域から赤外領域で高い感度を有する。
 本実施形態の第1センサ部10Aは、感度波長領域が異なる第1フォトダイオードPD1及び第2フォトダイオードPD2が積層されている。このため、いずれか一方のフォトダイオードを有する構成に比べて、感度を有する波長領域を広げることができる。
 光L1(図3参照)は、間隔SP及び間隔SPaを通って検出装置100を透過する。指Fgで反射された光L2(図3参照)は、第1フォトダイオードPD1に入射する。また、光L2のうち、第1フォトダイオードPD1に吸収されない波長領域の光は、第1フォトダイオードPD1を透過して第2フォトダイオードPD2に入射する。例えば、指紋検出において、第1フォトダイオードPD1は青色又は緑色の光L2を良好に検出することができる。また、欠陥パターン検出において、赤外光の光L2は、第1フォトダイオードPD1に吸収されず、第2フォトダイオードPD2に入射する。これにより、第2フォトダイオードPD2は赤外光の光L2を良好に検出することができる。これにより第1センサ部10Aは、種々の生体に関する情報を検出することができる。
 また、第1層間絶縁膜24等の絶縁膜の帯電や不純物の影響で、第2フォトダイオードPD2のi領域52aがn型になった場合でも、i領域52aは、第1フォトダイオードPD1のカソード電極34で中性化される。このため、検出装置100は、光感度を向上させることができる。
 また、第1フォトダイオードPD1及び第2フォトダイオードPD2は、部分検出領域PAA、すなわち、複数のゲート線GCLと複数の信号線SGLとで囲まれた領域に設けられる。これによれば、第1フォトダイオードPD1及び第2フォトダイオードPD2のそれぞれに第1スイッチング素子Tr、ゲート線GCL及び信号線SGLを設けた場合に比べて、スイッチング素子の数及び配線の数を少なくすることができる。したがって、検出装置100は、検出の解像度を向上させることができる。
 次に、第3スイッチング素子TrS及び第4スイッチング素子TrRについて説明する。図11は、駆動回路が有するスイッチング素子の概略断面構成を示す断面図である。図11は、駆動回路スイッチング素子として信号線選択回路16が有する第3スイッチング素子TrSについて説明する。ただし、図11の説明は、他の駆動回路が有するスイッチング素子にも適用できる。すなわち、ゲート線駆動回路15が有する第2スイッチング素子TrG及びリセット回路17が有する第4スイッチング素子TrRも図11と同様の構成を適用できる。
 図11に示すように、第3スイッチング素子TrSのnチャネルトランジスタn-TrSは、第4半導体層71、ソース電極72、ドレイン電極73及びゲート電極74を含む。また、pチャネルトランジスタp-TrSは、第5半導体層81、ソース電極82、ドレイン電極83及びゲート電極84を含む。第4半導体層71と絶縁基板21との間には、遮光層75が設けられ、第5半導体層81と絶縁基板21との間には、遮光層85が設けられる。
 第4半導体層71及び第5半導体層81は、いずれもポリシリコンである。より好ましくは、第4半導体層71及び第5半導体層81は、LTPSである。第4半導体層71は、i領域71a、LDD領域71b及びn領域61cを含む。また、第5半導体層81は、i領域81a及びp領域81bを含む。
 nチャネルトランジスタn-TrS及びpチャネルトランジスタp-TrSの層構成は、図9に示す第1スイッチング素子Trと同様である。すなわち、第4半導体層71及び第5半導体層81は、図9に示す第2半導体層51及び第3半導体層61と同層に設けられる。ゲート電極74及びゲート電極84は、図9に示すゲート電極64と同層に設けられる。ソース電極72、ドレイン電極73、ソース電極82及びドレイン電極83は、図9に示すソース電極62(第1中継電極56)、ドレイン電極63(信号線SGL)と同層に設けられる。
 このように、第1センサ部10Aにおいて、第1フォトダイオードPD1及び第1スイッチング素子Trと、第3スイッチング素子TrS等のスイッチング素子とが、同じ材料が用いられ同層に設けられる。これにより、検出装置100の製造工程が簡略化され、製造コストを抑制することができる。なお、第3スイッチング素子TrSは、CMOSトランジスタに限定されず、nチャネルトランジスタn-TrS又はpチャネルトランジスタp-TrSのいずれか一方で構成されていてもよい。ただし、第1センサ部10Aの材料や積層構造は、以上説明したものに限られない。
 (第2センサ部の構成)
 次に、第2センサ部10Bの構成について説明する。第2センサ部10Bを含んだ回路構成は、図5に示す回路構成と同様であるため、説明を省略する。図12は、第1実施形態に係る第2センサ部を示す等価回路図である。図12に示すように、第2センサ部10Bは、マトリクス状に配列された複数の部分検出領域PAAを有する。図12に示すように、第2センサ部10Bの部分検出領域PAAは、第2フォトダイオードPD2と、容量素子Caと、第1スイッチング素子Trとを含む。第1スイッチング素子Trは、第2フォトダイオードPD2に対応して設けられる。第1スイッチング素子Trのゲートは、ゲート線GCLに接続される。第1スイッチング素子Trのソースは、信号線SGLに接続される。第1スイッチング素子Trのドレインは、第2フォトダイオードPD2のカソード電極54及び容量素子Caの一端に接続される。第2フォトダイオードPD2のアノード電極55及び容量素子Caの他端は、基準電位、例えばグランド電位に接続される。すなわち、第2センサ部10Bは、第1センサ部10Aに対し、第1フォトダイオードPD1を含まない構成となっている。なお、第2センサ部10Bは、ユーザの指紋、あるいは、掌紋などを検出可能な構成であってもよい。この場合は、第2センサ部10Bは、例えば、第1センサ部10Aと同様の構成になってよい。
 図13は、第2センサ部の部分検出領域の模式的な断面図である。図13に示すように、第2センサ部10Bは、図9に示す第1センサ部10Aと同様に、絶縁基板21上に第1スイッチング素子Trが設けられている。ただし、第2センサ部10Bは、第1センサ部10Aと異なり、第1フォトダイオードPD1が設けられていない。そして、第2センサ部10Bは、第2フォトダイオードPD2が設けられる位置が、第1センサ部10Aとは異なる。第2センサ部10Bにおいて、第2フォトダイオードPD2は、第1スイッチング素子Trよりも上側、すなわち第3方向Dz側に設けられている。すなわち、第2フォトダイオードPD2のアノード電極35は、第2層間絶縁膜25の上に設けられる。第2フォトダイオードPD2は、アノード電極35、第2半導体層51、カソード電極34の順に積層される。第2半導体層51は、アノード電極35の上に、p領域52b、i領域52a、n領域52cの順に積層されている。アノード電極35は、第2層間絶縁膜25に設けられたコンタクトホールH4を介して、第1スイッチング素子Trのソース電極62に接続される。なお、第2センサ部10Bにおける第3スイッチング素子TrS及び第4スイッチング素子TrRの積層構造は、図11と同様である。
 第2センサ部10Bは、以上のように、ポリシリコンを含む第2半導体層51を有する第2フォトダイオードPD2を備えるため、ユーザの血管パターンを好適に検出できる。ただし、第2センサ部10Bの材料や積層構造は、以上説明したものに限られない。
 なお、第1センサ部10Aがユーザの指紋を検出してユーザの血管パターンを検出しないセンサである場合、第1センサ部10Aは、第2フォトダイオードPD2を備えず第1フォトダイオードPD1を備えた構成となってよい。その場合、第1センサ部10Aの等価回路は、図12の第2フォトダイオードPD2を第1フォトダイオードPD1に置き換えたものとなり、第1センサ部10Aの積層構成は、図13において、第2フォトダイオードPD2を第1フォトダイオードPD1に置き換えたものとなることが好ましい。
 (認証フロー)
 次に、以上のように構成されるセンサ部10を用いたユーザ認証のフローについて説明する。図14Aは、ユーザ認証のフローを説明するフローチャートである。図14Aに示すように、検出装置100は、制御部6により、所定機能の実行要求があるかを判断する(ステップS1)。ユーザは、センサ部10が設けられた入力部1を操作して、検出装置100に所定機能(検出装置100の起動、スリープ状態からの復帰、プログラムの起動、ウェブサイトへのアクセスなど)の実行を要求する。言い換えれば、センサ部10が設けられた入力部1には、ユーザからの所定機能の実行要求を受け付ける機能が割り当てられている場合がある。制御部6は、入力部1が操作された旨の情報を入力部1から取得して、その入力部1に、所定機能の実行要求を受け付ける機能が割り当てられているかを判断する。制御部6は、操作された入力部1に、所定機能の実行要求を受け付ける機能が割り当てられている場合に、所定機能の実行要求があると判断する。一方、制御部6は、操作された入力部1に、所定機能の実行要求を受け付ける機能が割り当てられていない場合には、所定機能の実行要求がないと判断する。
 所定機能の実行要求がある場合(ステップS1;Yes)、制御部6は、ユーザの生体情報を取得する(ステップS2)。より詳しくは、制御部6は、所定機能の実行要求の操作がされた際のユーザの生体情報を、センサ部10から取得する。センサ部10は、所定機能の実行要求を受け付ける入力部1に近接がある場合、すなわちその入力部1をユーザが操作した場合に、ユーザの生体情報を検出する。具体的には、センサ部10は、入力部1に近接しているユーザの指Fgや手のひらに反射された光L2に応じた検出信号Vdetを、信号線選択回路16(図4参照)を介して検出部40(図4参照)に出力する。そして、検出部40は、座標抽出部45によって、検出信号Vdetに基づき、ユーザの生体情報(ここでは指紋や血管パターンの二次元情報)を生成し、制御部6にこの生体情報を出力する。このように、所定機能の実行要求を受け付け、かつセンサ部10が設けられている入力部1に、所定機能の実行要求の操作がある場合に、制御部6は、その実行要求の操作がされた際のユーザの生体情報を、センサ部10から取得する。所定機能の実行要求が無い場合(ステップS1;No)、ステップS1に戻り、所定機能の実行要求の受け付けを続ける。なお、センサ部10は、所定機能の実行要求があることをトリガとして駆動開始してもよいし、常時駆動していてもよい。
 ユーザの生体情報を取得したら、制御部6は、ユーザの生体情報と基準生体情報とを照合して(ステップS3)、ユーザの生体情報と基準生体情報とが一致しているかを判断する(ステップS4)。具体的には、制御部6は、記憶部8から、予め記憶された基準となる生体情報である基準生体情報を読み出す。基準生体情報は、例えば所定機能の利用が許可されるユーザの生体情報(ここでは指紋や血管パターンの二次元情報)として、予め記憶されたものである。制御部6は、ユーザの生体情報と基準生体情報とを照合して、ユーザの生体情報が基準生体情報に一致するかを判断する。例えば、制御部6は、ユーザの生体情報と基準生体情報とをパターン照合して、特徴点の類似度が所定の度合い以上であれば、ユーザの生体情報が基準生体情報に一致すると判断し、類似度が所定の度合い未満であれば、ユーザの生体情報が基準生体情報に一致しないと判断してよい。なお、ユーザの生体情報と基準生体情報とは、周知の技術を用いて照合してよい。
 ユーザの生体情報と基準生体情報とが一致していると判断した場合(ステップS4;Yes)、制御部6は、認証可として、検出装置100を制御して、実行要求がされた所定機能を実行する(ステップS5)。また、ユーザの生体情報と基準生体情報とが一致していないと判断した場合(ステップS4;No)、制御部6は、認証不可として、所定機能を実行しない(ステップS6)。以上説明したステップS5、ステップS6により本処理は終了するが、例えば認証不可となってステップS6に進んだ場合でも、ステップS2に戻り、ユーザの近接があれば再度認証処理を続けてもよい。また、認証可となってステップS5を実行した後でも、ステップS2に戻り、所定時間毎に認証処理を続けてもよい。
 このように、本実施形態に係る検出装置100は、ユーザが所定機能の実行を要求する操作をした際の生体情報に基づき認証を行い、認証可であれば、所定機能を実行する。すなわち、この検出装置100は、所定機能の実行を要求する操作のみに基づき、認証動作と、所定機能の実行動作とを行う。従って、検出装置100によると、認証のためだけの操作が不要となり、所定機能の実行要求の動作(例えばアプリケーションの起動動作)を行うだけで、認証と共に所定機能を実行することが可能となり、認証の手間を抑制することができる。
 また、検出装置100は、以下の図14Bに示すように、ユーザが入力部1を操作した場合に、認証処理を行って所定機能を実行することに加え、その入力部1に割り当てられた動作も実行してよい。図14Bは、ユーザ認証のフローを説明するフローチャートである。
 図14Bに示すように、検出装置100は、センサ部10が設けられた入力部1に近接する物体があるかを検出する(ステップS10)。すなわち、検出装置100は、センサ部10が設けられた入力部1に、ユーザの指Fgや手のひらが近接したかを検出する。例えば、検出装置100は、センサ部10を常時駆動しておき、入力部1で反射した光L2(図3参照)を検出して、センサ部10によって、入力部1にユーザの指Fgや手のひらが近接したかを検出する。例えば、検出装置100は、制御部6(図4参照)が、センサ部10が検出した光L2の情報を取得して、その光L2の情報に基づき、入力部1にユーザの指Fgや手のひらが近接したかを判断してよい。この場合、制御部6は、例えば、光L2の強度、ここではセンサ部10が出力する検出信号Vdetが所定の閾値以上である場合、入力部1にユーザの指Fgや手のひらが近接したと判断し、光L2の強度が閾値未満である場合、入力部1にユーザの指Fgや手のひらが近接していないと判断する。また、ユーザは、入力部1のセンサ部10が設けられたキーを押すことで、検出装置100に例えば文字入力を行う。制御部6は、ユーザがキーを押すことでユーザの近接を認識するものであってもよい。
 センサ部10が設けられた入力部1に近接があると判断した場合(ステップS10;Yes)、検出装置100は、ユーザの生体情報を取得する(ステップS12)。すなわち、近接が検出された入力部1に設けられたセンサ部10は、ユーザがその入力部1を操作した際のユーザの生体情報を検出する。そして、制御部6は、そのセンサ部10から、入力部1を操作した際のユーザの生体情報を取得する。ステップS10においてセンサ部10が設けられた入力部1に近接がないと判断された場合(ステップS10;No)、ステップS10に戻り近接検出を続ける。
 ユーザの生体情報を取得したら、検出装置100は、制御部6により、ユーザの生体情報と基準生体情報とを照合して(ステップS14)、ユーザの生体情報と基準生体情報とが一致しているかを判断する(ステップS16)。ユーザの生体情報と基準生体情報とが一致していると判断した場合(ステップS16;Yes)、制御部6は、検出装置100を制御して、予め定めた所定機能を実行する(ステップS18)。ここでの所定機能は、予め設定された機能であってよい。すなわち、所定機能は、ユーザが入力部1を操作した場合に実行する機能として、検出装置100に予め設定されていてもよい。ただし、所定機能は、ユーザが操作によって実行を要求した機能であってもよい。
 さらに、制御部6は、ユーザの生体情報と基準生体情報とが一致していると判断した場合、言い換えれば所定機能を実行すると判断した場合、所定機能の実行に加え、近接が検出された入力部1に割り当てられた動作を実行する(ステップS20)。言い換えれば、近接が検出された入力部1に割り当てられた動作とは、ステップS18で実行した所定機能(例えば起動したプログラム)において、センサ部10が生体情報を検出した際にユーザが操作した入力部1に対して、割り当てられた動作である。例えば、所定機能がプログラムの起動であり、入力部1としてエンターキーが操作された場合、検出装置100は、起動したプログラムにおいて、近接が検出されたエンターキーに割り当てられた動作として、エンターキーへの入力に対応する処理を実行する。このように、検出装置100は、センサ部10が設けられた入力部1をユーザが操作した場合、その入力部1へのユーザの近接を検出して、その入力部1に設けられたセンサ部10によりユーザの生体情報を検出して、制御部6によりユーザの生体情報と基準生体情報との照合を行う。検出装置100は、ユーザの生体情報と基準生体情報との照合とが一致した場合、所定機能の実行に加え、その入力部1への入力を受け付け、その入力部1に割り当てられた動作も実行する。
 また、ユーザの生体情報と基準生体情報とが一致していないと判断した場合(ステップS16;No)、制御部6は、所定機能を実行せず、かつ、近接が検出された入力部1に割り当てられた動作を実行しない(ステップS22)。すなわち、制御部6は、所定機能を実行しないと判断した場合に、近接が検出された入力部1に割り当てられた動作を実行しない。
 以上説明したように、第1実施形態に係る検出装置100は、ユーザの操作を受け付ける入力部1と、入力部1に設けられて、ユーザが入力部1を操作した際にユーザの生体情報を検出するセンサ部10とを有する。この検出装置100は、センサ部10が、ユーザが入力部1を操作した際に、ユーザの生体情報を検出する。従って、この検出装置100によると、検出装置100を動作させるための操作(例えば所定機能の実行要求操作)をユーザが行うだけで、生体情報による認証を行うことができる。そのため、この検出装置100によると、ユーザによるパスワード入力や、指紋認証画面におけるユーザ操作など、認証のためだけの操作が不要になり、認証の手間を抑制することができる。
 また、検出装置100は、センサ部10が検出したユーザの生体情報に基づき、所定機能を実行するかを判断する制御部6を有する。制御部6は、ユーザによって所定機能の実行を要求する操作が入力部1に入力された場合に、所定機能の実行を要求する操作がされた際のユーザの生体情報をセンサ部10から取得し、取得したユーザの生体情報に基づき、所定機能を実行するかを判断する。この検出装置100は、制御部6を有するため、認証を適切に行うことができる。さらに言えば、検出装置100によると、認証のためだけのユーザの操作が不要となり、所定機能の実行要求の動作を行うだけで、認証と共に所定機能を実行することが可能となり、認証の手間を抑制することができる。なお、検出装置100は、制御部6を備えなくてもよい。この場合、例えば、検出装置100は、センサ部10が検出したユーザの生体情報を、制御部6を備えた別の装置(外部サーバなど)に送信し、この別の装置が、制御部6により認証を行い、認証の結果を検出装置100に送信してよい。
 また、制御部6は、所定機能を実行しないと判断した場合、すなわちユーザの生体情報と基準生体情報とが一致しないと判断した場合に、生体情報を検出した際にユーザが操作した入力部1に割り当てられた動作を実行しない。また、制御部6は、所定機能を実行すると判断した場合に、生体情報を検出した際にユーザが操作した入力部1に割り当てられた動作を実行する.この検出装置100は、認証可の場合に、所定機能を実行すると共に、その所定機能において入力部1に割り当てられた動作を実行する。すなわち、この検出装置100は、ユーザの入力部1への操作により、認証を行って所定機能を実行するだけでなく、所定機能における動作も行うため、認証のためだけの操作が不要になり、認証の手間を抑制することができる。
 また、第1実施形態においては、センサ部10として、ユーザの指紋を検出する第1センサ部10Aと、ユーザの血管パターンを検出する第2センサ部10Bと、を有する。このように第1センサ部10Aと第2センサ部10Bとを備えることで、複数種類の生体情報から認証を行う事が可能となり、認証の精度を高くすることができる。例えば、検出装置100は、第1センサ部10Aが取得したユーザの生体情報(指紋)が基準生体情報(基準生体情報における指紋)と一致し、かつ、第2センサ部10Bが取得したユーザの生体情報(血管パターン)が基準生体情報(基準生体情報における血管パターン)と一致した場合に、認証可として、所定機能を実行してもよい。また、検出装置100は、第1センサ部10Aが取得したユーザの生体情報と第2センサ部10Bが取得したユーザの生体情報とのうちの、いずれか一方を取得して、その取得した一方の生体情報が基準生体情報と一致した場合に、認証可として、所定機能を実行してもよい。検出装置100は、その後に、第1センサ部10Aが取得したユーザの生体情報と第2センサ部10Bが取得したユーザの生体情報とのうちの、他方を取得して、その他方の生体情報が基準生体情報と一致しない場合、所定機能の実行を中断してもよい。
 また、第1センサ部10Aは、アモルファスシリコンを含む半導体(第1半導体層31)を備え、第2センサ部10Bは、ポリシリコンを含む半導体(第2半導体層51)を備える。従って、この検出装置100は、ユーザの指紋と血管パターンとを好適に検出できる。
 なお、図2の例では、キーボード2のボタン2Aに第1センサ部10Aを設け、手のひらが近接する領域2Dに第2センサ部10Bを設けていた。これにより、ユーザが指Fgで操作するボタン2Aの第1センサ部10Aにより指紋を好適に検出し、手のひらが近接する領域2Dに第2センサ部10Bにより血管パターンを好適に検出できる。ただし、第1センサ部10A及び第2センサ部10Bの位置は、これに限られない。図15は、キーボードの他の例を示す図である。図15の例では、ボタン2A1に第1センサ部10Aを設け、ボタン2A2に第2センサ部10Bを設けている。さらに言えば、第1センサ部10Aが設けられるボタン2A1よりもユーザから遠い側、すなわち方向Y側のボタン2A2に、第2センサ部10Bを設けている。図15の例では、FとJとを入力するボタン2Aを、第1センサ部10Aを設けるボタン2A1とし、RとUとを入力するボタン2Aを、第2センサ部10Bを設けるボタン2A2としているが、それに限られない。なお、図15においては、第1センサ部10Aは、血管パターンを検出せずに指紋を検出するセンサであることが好ましいが、血管パターンと指紋との両方を検出するセンサであってよい。
 このように、検出装置100は、ユーザに近い側のボタン2A1に第1センサ部10Aを設け、ボタン2A1よりもユーザから遠い側のボタン2A2に第2センサ部10Bを設けてもよい。ここで、血管パターンを検出する場合は、指紋を検出する場合よりも、指Fgの接触面積を広くとることが好ましい。ボタン2A2は、ボタン2A1より遠い側にあるため、ユーザがボタン2A2を操作する際には、指先でなく指の腹をボタン2A2に接触させる傾向があり、ボタン2A2と指Fgとの接触面積が広くなる。従って、このように第1センサ部10Aと第2センサ部10Bとを配置することで、血管パターンと指紋とを好適に検出できる。なお、ボタン2A1とボタン2A2のそれぞれに第1センサ部10Aと第2センサ部10Bとを設け、ユーザの入力部1の使用パターンやユーザの手の大きさ等に応じて適宜それらを使い分けることも可能である。また、押されたボタンで指紋や血管パターンを検出するのではなく、押されたボタンに隣接するボタンに設けられたセンサ部10を用いて、指紋や血管パターンを検出するものであってもよい。具体的には、R、Uのボタン2A2よりも更にユーザより離れた「5」「7」のボタン2A3が押された際に、R、U、F、Jに設けられたセンサ部を駆動することで指紋或いは血管パターンを検出するものであってもよい。以上は一例であり、入力部1の大きさ、入力部1のキーの配列、ユーザによるキーの使用頻度等に応じてセンサ部を設けるキーを適宜変更可能である。また、テンキーの使用頻度が高い場合はテンキーに設けることも可能である。本実施形態では、ユーザからの距離の相違によって検出する生体情報の種類、検出する生体情報位置を異ならせることを特徴とする。
 また、検出装置100は、キーボード2にセンサ部10を設けることに限られず、他の入力部1、例えばマウス4にセンサ部10を設けてもよい。また、検出装置100は、キーボード2とマウス4との両方にセンサ部10を設けてもよい。すなわち、検出装置100は、入力部1としてのキーボード2及びマウス4の少なくとも一方に、センサ部10を設けてよい。
 図16は、マウスにセンサ部を設ける例を示す図である。図16に示すように、マウス4は、筐体部4Aと、ボタン4Bとを有する。筐体部4Aは、マウス4の本体であり、内部に各種機器を備えている。ボタン4Bは、筐体部4Aの先端部分に設けられており、ユーザのクリック操作を受け付ける。また、ユーザは、筐体部4Aを把持して動かすことで、表示部5に表示させるカーソルを動かすことができる。
 図16の例では、このようなマウス4に、センサ部10が設けられる。より詳しくは、ボタン4Bに、第1センサ部10Aが設けられ、筐体部4Aの表面4Aaに、第2センサ部10Bが設けられる。筐体部4Aの表面4Aaは、ボタン4Bよりもマウス4の後端側に設けられる。従って、ユーザがマウス4を操作する場合、手のひらが筐体部4Aの表面4Aaに近接し、ユーザの指Fgがボタン4Bに近接する。このように、ユーザが押圧するボタン4Bに第1センサ部10Aを設け、ユーザの手のひらに近接する筐体部4Aに第2センサ部10Bを設けることで、血管パターンと指紋とを好適に検出できる。
 また、マウス4が光学マウスである場合、センサ部10の光源部とマウス4の光源部とを共通化することができる。図17及び図18は、マウスとセンサ部との光源の配置の例を示す模式図である。図17は、マウス4が光源部を有しセンサ部10が光源部を有さない場合の例である。図17の例では、マウス4は、筐体部4Aの内部に、光源部4Cと受光部4Dとを備える。図17の例では、センサ部10用の光源部110が設けられていない。マウス4は、筐体部4Aの底面4Abが接触面Gに接触しており、底面4Abには、光源部4Cからの光L0を接触面Gに照射するための開口4Acが設けられている。光源部4Cから照射された光L0は、開口4Acを通って接触面Gで反射して、光L1として、受光部4Dに照射される。受光部4Dに照射された光L1により、マウス4の移動量及び移動方向が検出される。また、光L1は、センサ部10にも照射され、センサ部10は、この光L1により、生体情報を検出できる。
 図18は、マウス4が光源部を有さずセンサ部10が光源部110を有する場合の例である。図18の例では、マウス4は、筐体部4Aの内部に、受光部4Dを備える。光源部110から照射された光L1は、センサ部10に照射され、センサ部10は、この光L1により生体情報を検出する。また、図18の例では、光源部110は、光L1が接触面Gにも向けて照射されるよう構成される。従って、光源部110からの光L1は、接触面Gで反射して、光L3として、受光部4Dに照射される。受光部4Dに照射された光L3により、マウス4の移動量及び移動方向が検出される。以上示した実施形態において、パソコン等の端末でユーザの認証を行う場合、ユーザがキーボードで文字を入力する等の作業を行いながらユーザの認証を行うことが可能となる。そのため、認証のための別段の操作を行わなくてもよい。また、ユーザがキーボードを操作している期間に亘って、或いは所定の間隔毎にユーザの認証が可能となる。また、同一の検出装置100(端末)を複数のユーザが共有する場合、ユーザが変更するたびに認証が必要となるが、本実施形態では、ユーザによる何かしらの入力やマウスの操作と同時に、ユーザの変更を検出装置100が認識することとなり、ユーザの利便性が向上する。
 (第2実施形態)
 次に、第2実施形態について説明する。第2実施形態に係る検出装置100aは、金融取引を行う装置である点で、第1実施形態とは異なる。第2実施形態において第1実施形態と構成が共通する箇所は、説明を省略する。
 図19は、第2実施形態に係る検出装置の模式図である。図19に示すように、検出装置100aは、現金の出入金を行う事が可能な装置であり、例えば、金融機関などに設置される現金自動預払機(ATM;Automated Teller Machine)や、コンビニエンスストア等に設置される現金を取り扱う複合機などである。検出装置100aは、入力部1aとしてのキーボード2aと、表示部5aと、カード投入部200と、紙幣処理部202とを有する。また、図示は省略するが、検出装置100aは、第1実施形態の検出装置100と同様に、生体情報を検出するための各種回路(検出制御部11や検出部40など)を有する。カード投入部200は、キャッシュカード等のカードを用いる取引において、カードの挿入と排出とを行うよう構成される。また、カード投入部200は、取引終了時に発行するレシートを排出する。紙幣処理部202は、入金及び出金取引の際に、紙幣の受け渡しを行う。
 また、検出装置100aは、ネットワーク210を介して、外部機器であるサーバ220に接続されており、サーバ220と情報の送受信を行う。サーバ220は、第1実施形態の制御部6と同様の機能を実行する制御部6aと、記憶部8aと、を有している。
 図20は、第2実施形態に係るキーボードの一例を示す図である。キーボード2aは、複数のボタン2Aaを有しており、ボタン2Aaに、センサ部10が設けられている。ここでのセンサ部10は、第1センサ部10Aであることが好ましいが、第2センサ部10Bであってもよい。
 ユーザがボタン2Aaを操作すると、センサ部10がユーザの生体情報を検出する。センサ部10が検出したユーザの生体情報は、ネットワーク210を介してサーバ220に送信され、サーバ220の制御部6aは、第1実施形態の制御部6と同様に、記憶部8aから基準生体情報を読み出し、基準生体情報とユーザの生体情報とを照合することで、認証を行う。基準生体情報とユーザの生体情報とが一致した場合、サーバ220の制御部6aは、ネットワーク210を介してその旨の情報を検出装置100aに伝達する。検出装置100aは、所定機能(例えば入金や出金の手続き)を開始する。また、検出装置100aは、所定機能を開始しつつ、操作されたボタン2Aaに割り当てられた動作(例えば数値入力)を実行する。
 このように、検出装置100aは、金融取引を行う装置、入退室を制御する装置等であって、キーボード等のユーザーインターフェースを有し、ユーザの生体認証を行うことで所定の処理を行うシステムに適用することで、認証のためだけの操作が不要になり、認証の手間を抑制することができる。
 (第3実施形態)
 次に、第3実施形態について説明する。第3実施形態に係る検出装置100bは、センサ部10が設けられている位置が第1実施形態とは異なり、また、表示部と入力部が一体となったタッチパネル型のコンピュータ、いわゆるタブレット型の端末である点で、第1実施形態とは異なる。第3実施形態において第1実施形態と構成が共通する箇所は、説明を省略する。
 図21から図24は、第3実施形態に係る検出装置の模式図である。図21に示すように、第3実施形態に係る検出装置100bは、入力部1bと表示部5bとが積層されて一体として構成されたタッチパネルが、筐体部230の表面230Aに設けられている、タブレット型のコンピュータである。また、図示は省略するが、検出装置100bは、第1実施形態の検出装置100と同様に、生体情報を検出するための各種回路(検出制御部11や検出部40など)を有する。なお、ここでは、検出装置100bは、矩形であり、長辺に沿った方向を方向Xとし、短辺に沿った方向を方向Yとし、表面230Aに直交する方向を方向Zとする。
 図22及び図23に示すように、第3実施形態においては、センサ部10は、筐体部230の裏面230Bに設けられている。裏面230Bは、タッチパネルが設けられる表面230Aの反対側の面である。すなわち、センサ部10は、入力部1bと表示部5bとが設けられていない領域に設けられる。センサ部10は、例えば図22に示すように、裏面230Bの方向Yにおける一方の端部側と他方の端部側に設けられてよい。また、センサ部10は、裏面230Bの方向Yにおける一方の端部側と他方の端部側のそれぞれにおいて、方向Xに沿って複数設けられてよい。そして、方向Xに沿って並ぶセンサ部10のうちの一方を第1センサ部10Aとし、他方を第2センサ部10Bとしてもよい。このように設けることで、ユーザが検出装置100bを把持した際に触れる位置にセンサ部10が設けられることとなり、ユーザの生体情報を好適に検出できる。ただし、センサ部10が設けられる位置は図22の例に限られず、例えば図23のように、裏面230Bの任意の位置に設けられてもよい。また、センサ部10は、裏面230Bに限られず、検出装置100bの側面や、表面230Aにおいて入力部1bと表示部5bとが設けられない額縁領域に設けられてもよい。タブレット型端末は、商品管理業務等の場面において、複数の端末を複数のユーザが共有する場合がある。本実施形態によると、ユーザと端末との関連を常時把握することが可能となり、表示する画面を端末ごとに効率的に切り替えることが可能となる。また、ユーザが常時使用する端末では、手での保持性を高めるため、端末筐体の側面から裏面にかけて指の形状に合わせた支持部材を設ける場合がある。この場合、センサ部10を支持部材の指が接触する部分に設けることで、ユーザがセンサ部10を意識することなく認証が可能となる。また、図24に示すように、タブレット端末である検出装置100bに接続されたペン入力手段240の表面に、センサ部10を設けることも可能である。この場合、第1センサ部10Aを、第2センサ部10Bよりも、ペン入力手段240の先端側に配置することが好ましい。ペン入力手段240の先端とは、ペン入力手段240で画面をタッチする部分である。
 また、本実施形態において述べた態様によりもたらされる他の作用効果について本明細書記載から明らかなもの、又は当業者において適宜想到し得るものについては、当然に本発明によりもたらされるものと解される。
 1 入力部
 2 キーボード
 2A ボタン
 4 マウス
 6 制御部
 10 センサ部
 10A 第1センサ部
 10B 第2センサ部
 100 検出装置
 PD1 第1フォトダイオード
 PD2 第2フォトダイオード

Claims (10)

  1.  ユーザの操作を受け付ける入力部と、
     前記入力部に設けられて、前記ユーザが前記入力部を操作した際に前記ユーザの生体情報を検出するセンサ部と、
     を有する、
     検出装置。
  2.  取得した前記ユーザの生体情報に基づき、所定機能を実行するかを判断する制御部をさらに有する、請求項1に記載の検出装置。
  3.  前記制御部は、前記ユーザによって前記所定機能の実行を要求する操作が前記入力部に入力された場合に、前記所定機能の実行を要求する操作がされた際の前記ユーザの生体情報を、前記センサ部から取得し、取得した前記ユーザの生体情報に基づき、前記所定機能を実行するかを判断する、請求項2に記載の検出装置。
  4.  前記制御部は、
     前記所定機能を実行しないと判断した場合に、前記生体情報を検出した際に前記ユーザが操作した前記入力部に割り当てられた動作を実行せず、
     前記所定機能を実行すると判断した場合に、前記生体情報を検出した際に前記ユーザが操作した前記入力部に割り当てられた動作を実行する、
     請求項2に記載の検出装置。
  5.  前記センサ部は、前記入力部としてのキーボード及びマウスの少なくとも一方に設けられる、請求項1から請求項4のいずれか1項に記載の検出装置。
  6.  前記センサ部として、前記ユーザの指紋を検出する第1センサ部と、前記ユーザの血管パターンを検出する第2センサ部と、を有する、請求項1から請求項5のいずれか1項に記載の検出装置。
  7.  前記第1センサ部は、アモルファスシリコンを含む半導体を備え、前記第2センサ部は、ポリシリコンを含む半導体を備える、請求項6に記載の検出装置。
  8.  前記第1センサ部は、前記入力部としてのキーボードにおいて、前記ユーザに近い側に設けられ、前記第2センサ部は、前記キーボードにおいて、前記第1センサ部よりも前記ユーザから遠い側に設けられる、請求項6又は請求項7に記載の検出装置。
  9.  前記第1センサ部は、前記入力部としてのマウスにおいて、前記ユーザが押圧するボタンに設けられ、前記第2センサ部は、前記マウスにおいて、前記ユーザの手のひらに近接する筐体部に設けられる、請求項6又は請求項7に記載の検出装置。
  10.  ユーザの操作を受け付ける入力部と、前記入力部に設けられて、前記ユーザが前記入力部を操作した際に前記ユーザの生体情報を検出するセンサ部と、を有する検出装置を用いた前記ユーザの認証方法であって、
     前記センサ部が検出した前記ユーザの生体情報に基づき、予め定めた機能を実行するかを判断する、
     認証方法。
PCT/JP2020/006374 2019-02-19 2020-02-18 検出装置及び認証方法 WO2020171094A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202080014778.1A CN113439273A (zh) 2019-02-19 2020-02-18 检测装置以及认证方法
US17/405,202 US11989270B2 (en) 2019-02-19 2021-08-18 Detection device and authentication method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019027835A JP7292050B2 (ja) 2019-02-19 2019-02-19 検出装置及び認証方法
JP2019-027835 2019-02-19

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/405,202 Continuation US11989270B2 (en) 2019-02-19 2021-08-18 Detection device and authentication method

Publications (1)

Publication Number Publication Date
WO2020171094A1 true WO2020171094A1 (ja) 2020-08-27

Family

ID=72143967

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/006374 WO2020171094A1 (ja) 2019-02-19 2020-02-18 検出装置及び認証方法

Country Status (4)

Country Link
US (1) US11989270B2 (ja)
JP (1) JP7292050B2 (ja)
CN (1) CN113439273A (ja)
WO (1) WO2020171094A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062826A (ja) * 2002-07-31 2004-02-26 Fujitsu Ltd 個人認識機能付き処理装置および操作機器
JP2009140019A (ja) * 2007-12-03 2009-06-25 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2017151508A (ja) * 2016-02-22 2017-08-31 日本電気株式会社 操作入力装置、方法およびプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337919B1 (en) * 1999-04-28 2002-01-08 Intel Corporation Fingerprint detecting mouse
KR101961052B1 (ko) * 2007-09-24 2019-03-21 애플 인크. 전자 장치 내의 내장형 인증 시스템들
WO2012111664A1 (ja) * 2011-02-15 2012-08-23 富士通フロンテック株式会社 認証装置、認証プログラム、および認証方法
WO2013046373A1 (ja) * 2011-09-28 2013-04-04 富士通株式会社 情報処理装置、制御方法及びプログラム
US9733727B2 (en) * 2012-12-07 2017-08-15 Wen-Chieh Geoffrey Lee Optical mouse with cursor rotating ability
US20150019873A1 (en) * 2013-07-15 2015-01-15 HGN Holdings, LLC System for embedded biometric authentication, identification and differentiation
CN104537366A (zh) 2015-01-07 2015-04-22 小米科技有限责任公司 触摸按键和指纹识别实现方法、装置及终端设备
JP6559024B2 (ja) * 2015-09-10 2019-08-14 ローレルバンクマシン株式会社 機器セキュリティ管理装置、金融処理システム、機器セキュリティ管理方法及びプログラム
CN106611116A (zh) * 2015-10-26 2017-05-03 施耐德电气It公司 用于多因素生物计量认证的系统和方法
US10339531B2 (en) * 2016-06-10 2019-07-02 Bank Of America Corporation Organic light emitting diode (“OLED”) security authentication system
US20170374065A1 (en) * 2016-06-28 2017-12-28 Alex Shtraym Method and apparatus for performing operations associated with biometric templates
GB2552721A (en) * 2016-08-03 2018-02-07 Cirrus Logic Int Semiconductor Ltd Methods and apparatus for authentication in an electronic device
EP3531241A4 (en) 2016-10-24 2019-11-20 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
US10496808B2 (en) * 2016-10-25 2019-12-03 Apple Inc. User interface for managing access to credentials for use in an operation
KR102570180B1 (ko) * 2016-11-28 2023-08-25 엘지디스플레이 주식회사 지문 센서 일체형 전계 발광 표시장치
US20200050342A1 (en) * 2018-08-07 2020-02-13 Wen-Chieh Geoffrey Lee Pervasive 3D Graphical User Interface

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062826A (ja) * 2002-07-31 2004-02-26 Fujitsu Ltd 個人認識機能付き処理装置および操作機器
JP2009140019A (ja) * 2007-12-03 2009-06-25 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2017151508A (ja) * 2016-02-22 2017-08-31 日本電気株式会社 操作入力装置、方法およびプログラム

Also Published As

Publication number Publication date
JP2020135396A (ja) 2020-08-31
CN113439273A (zh) 2021-09-24
US20210382973A1 (en) 2021-12-09
JP7292050B2 (ja) 2023-06-16
US11989270B2 (en) 2024-05-21

Similar Documents

Publication Publication Date Title
US11210489B2 (en) Method for fingerprint recognition and related devices
US10558839B2 (en) Reduced thickness touch sensing pattern recognition array substrate, sensing unit, sensor, apparatus, and fabricating method thereof
US10048795B2 (en) Display device with fingerprint identification and touch detection
KR102555180B1 (ko) 터치표시장치, 표시패널 및 일체형 스위치 소자
JP4573856B2 (ja) マルチタッチ感知機能を有する液晶表示装置及びその駆動方法
WO2017005147A1 (en) Array substrate, display panel and display apparatus having the same, and driving method thereof
US20170351364A1 (en) Method of Driving Display Device Capable of Scanning Image
KR102458529B1 (ko) 표시장치, 표시패널, 지문 감지 방법 및 이를 위한 회로
WO2019148798A1 (en) Pattern identification device and display apparatus
US11301088B2 (en) Fingerprint module includes identification components in an identification area and a chip disposed in a nonidentification area and display device
CN112740153A (zh) 屏内指纹识别装置及电子设备
WO2020154895A1 (zh) 显示装置及其操作方法
WO2020171094A1 (ja) 検出装置及び認証方法
JP7274284B2 (ja) 検出装置
JP7355504B2 (ja) 検出装置
JP7443077B2 (ja) 検出装置
WO2021039161A1 (ja) 検出装置
JP4743579B2 (ja) 画像読取装置
WO2020170522A1 (ja) 検出システム及び認証方法
CN116207117A (zh) 检测装置及显示装置
JP7446826B2 (ja) 検出装置
WO2023085405A1 (ja) 検出装置
WO2023085404A1 (ja) 検出装置
WO2021070918A1 (ja) 検出装置
KR20230050445A (ko) 광-정전용량 센서

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20759329

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20759329

Country of ref document: EP

Kind code of ref document: A1