WO2013076859A1 - 生体情報登録装置、生体情報取得装置、生体情報登録プログラムおよび生体情報登録方法 - Google Patents
生体情報登録装置、生体情報取得装置、生体情報登録プログラムおよび生体情報登録方法 Download PDFInfo
- Publication number
- WO2013076859A1 WO2013076859A1 PCT/JP2011/077120 JP2011077120W WO2013076859A1 WO 2013076859 A1 WO2013076859 A1 WO 2013076859A1 JP 2011077120 W JP2011077120 W JP 2011077120W WO 2013076859 A1 WO2013076859 A1 WO 2013076859A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- information
- finger
- unit
- biometric
- biometric feature
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/63—Static or dynamic means for assisting the user to position a body part for biometric acquisition by static guides
Definitions
- This case relates to a biometric information registration device, a biometric information acquisition device, a biometric information registration program, and a biometric information registration method.
- biometrics biological authentication that can identify an individual with high accuracy using human biological features such as fingerprints, irises, and veins is widely used as a means for identity verification.
- biometric information of a hand such as a palm vein or a palm print
- finger biometric information such as finger veins or fingerprints
- ten types (ten fingers) of biometric information may exist for each individual.
- each biometric information of the same individual is based on the type.
- it is desired to perform an acquisition process by distinguishing biometric information In such a case, there is a problem that it takes time to distinguish the type of user, and biometric information cannot be acquired quickly.
- the present invention has been made in view of such points, and provides a biological information registration device, a biological information acquisition device, a biological information registration program, and a biological information registration acquisition method that can determine the type of a biological body when acquiring biological information. With the goal.
- a direction determining unit that determines the direction of the living body with respect to the reading unit, a type determining unit that determines the type of the living body based on the direction determined by the direction determining unit, and a living body by the reading unit
- An information generation unit that generates biometric information indicating a biometric feature based on the read result, and stores biometric feature information including the biometric information and the type determined by the type determining unit in the biometric feature information storage unit;
- a biometric information registration device is provided.
- the type of the biometric can be determined when biometric information is acquired.
- FIG. 1 is a diagram illustrating a biometric information registration apparatus according to the first embodiment.
- the biometric information registration apparatus 1 according to the first embodiment includes a reading unit 2, a direction determination unit 10a, a type determination unit 10b, an information generation unit 10c, and a biometric feature information storage unit 11.
- the reading unit 2 reads a predetermined part of the living body (hereinafter referred to as “reading target part”) as, for example, image information.
- the part to be read is, for example, a palm or a finger.
- the information about the living body obtained by the reading unit 2 is, for example, palm vein pattern image information, finger vein pattern image information, palm print pattern image information, and fingerprint pattern image information.
- the reading target portion can be arranged in a plurality of directions instead of always in a fixed direction with respect to the reading unit 2.
- the reading unit 2 may be disposed outside the biometric information registration apparatus 1, for example.
- the direction determination unit 10a determines the direction of the part to be read with respect to the reading unit 2.
- the type determination unit 10b determines the type of the part to be read based on the direction determination result by the direction determination unit 10a.
- the direction of the reading target part indicates two different directions based on the right and left of the hand, for example, when the reading target part is information on a palm such as a palm vein or palm print.
- the direction of the hand relative to the reading unit 2 differs between when the information on the palm of the right hand is read and when the information on the palm of the left hand is read.
- the direction of the finger with respect to the reading unit 2 is different when the information of the predetermined finger of the right hand is read and when the information of the same finger of the left hand is read.
- the direction of the finger with respect to the reading unit 2 may differ depending on which finger information is read in the hand on the same side.
- the type determining unit 10b determines the type of the reading target part based on the determination result of the direction of the reading target part with respect to the reading unit 2.
- the type of the part to be read is associated with the direction of the part to be read. For example, when reading palm information, each of the left and right palms may be associated with each of the two different directions. When reading finger information, the left and right hand fingers may be associated with each of the two different directions separately. Further, the direction of the finger relative to the reading unit 2 may be associated with a combination of left and right and each finger type (thumb, forefinger, middle finger, ring finger, little finger).
- the information generation unit 10c generates biometric information indicating the characteristics of the part to be read based on the reading result by the reading unit 2.
- the information generation unit 10c generates biometric feature information including the generated biometric information and the type determined by the type determination unit 10b, and stores the generated biometric feature information in the biometric feature information storage unit 11.
- the types included in the biometric feature information are, for example, left and right in the case of information related to the palm.
- information about a finger for example, it is at least one of left and right or finger types (thumb, index finger, middle finger, ring finger, little finger). That is, the type indicates from which part of the living body the biological information associated therewith is obtained. With such a type, it is possible to automatically determine the left and right sides and the type of finger for the part that is the basis of the obtained biological information.
- the biometric feature information storage unit 11 stores biometric feature information including biometric information and type. Thereby, a user's biometric information and a classification are matched and memorize
- the biometric information registration apparatus is configured to obtain the biometric information on the basis of the biometric information according to the angle of the read target site such as the palm when acquiring the biometric information such as the palm vein. The type of right hand or left hand can be determined.
- FIG. 2 is a diagram illustrating an appearance of the information processing apparatus according to the second embodiment.
- An information processing apparatus 100 shown in FIG. 2 is a notebook type (laptop type) personal computer to which a security function by biometric authentication using a palm vein is added.
- the information processing apparatus 100 includes a display unit 120 having an LCD (Liquid Crystal Display) 121, a keyboard 131, and a main body unit 130 having a reading unit 142.
- LCD Liquid Crystal Display
- Each of the display unit 120 and the main body unit 130 has a substantially rectangular parallelepiped housing having a front surface, a rear surface facing the front surface, and two side surfaces connecting them.
- the display unit 120 and the main unit 130 are connected to each other near the rear surface of the main unit 130 so as to be opened and closed by a hinge (not shown).
- a hinge not shown.
- the LCD 121 is a display device having a display screen for displaying characters or images.
- other thin display devices such as an organic EL (Electroluminescence) display may be used as the display device.
- the keyboard 131 is an input device for inputting characters and performing other operations.
- the reading unit 142 is an input device that inputs biometric information by reading the veins of the palm by the user holding the palm.
- the reading unit 142 includes a square vein sensor that acquires a biological image of the palm vein by reading the vein of the user's palm.
- the vein sensor is arranged so that each side of the vein sensor is parallel to each side of the reading unit 142.
- the reading unit 142 is on the same top surface of the main body 130 as the keyboard 131 of the information processing apparatus 100, and each side of the square vein sensor is 45 ° on the front and side surfaces of the information processing apparatus 100 at the front center of the keyboard 131. They are arranged at an angle.
- the vein sensor reads vein information by scanning the object to be read.
- the main scanning direction of the vein sensor is parallel to one side of the square vein sensor. Accordingly, the main scanning direction of the vein sensor is parallel to one side of the reading unit 142.
- the main scanning direction of the vein sensor is the D11 direction in FIG.
- the vein sensor is arranged so that the angle formed by the main scanning direction D11 and the direction D12 in which the front surface 130a of the main body 130 extends is 45 °.
- the vein sensor is, for example, either the direction D12 of the front surface 130a of the main body 130, the operation key arrangement direction D13 (the longitudinal direction of the keyboard 131) on the keyboard 131, or the main scanning direction D14 of the LCD 121 and the main scanning direction D11.
- the angle may be 45 °.
- the notebook type personal computer has been described.
- the information processing apparatus 100 is an example of the information processing apparatus, and the user authentication function of the present embodiment is not limited to a mobile phone or a PDA. (Personal Digital Assistant) and other mobile communication terminal devices, desktop type personal computers, automated teller machines (ATMs) that accept and withdraw deposits from banks, etc., information processing
- the present invention can be applied to an information processing apparatus that performs user authentication, such as a system terminal device.
- FIG. 3 is a diagram illustrating a reading unit according to the second embodiment.
- a reading unit 142 illustrated in FIG. 3 is an input device that allows a user to read a vein of a palm and input biometric information.
- the reading unit 142 includes a vein sensor that acquires biological information of the palm vein by reading the vein of the palm of the user.
- the palm vein has a high identification capability because it has a larger amount of information than other veins, and the vein of the vein is thick, so that stable authentication that is not easily affected by the temperature is possible.
- it is in-vivo information it is difficult to counterfeit, and since it is not affected by body surface such as rough hands, dryness / wetting, the application rate is high.
- the reading unit 142 may read a palm print on the palm.
- the reading unit 142 may read a finger vein or a fingerprint.
- FIG. 4 is a diagram illustrating a hardware configuration of the information processing apparatus according to the second embodiment.
- the information processing apparatus 100 shown in FIG. 4 is a notebook type personal computer as described above, and the entire apparatus is controlled by a CPU (Central Processing Unit) 101.
- a RAM (Random Access Memory) 102, a hard disk drive (HDD: Hard Disk Drive) 103, a graphic processing device 104, an input interface 105, and a communication interface 106 are connected to the CPU 101 via a bus 107.
- the RAM 102 temporarily stores at least a part of an OS (Operating System) program and application programs to be executed by the CPU 101.
- the RAM 102 stores various data necessary for processing by the CPU 101.
- the HDD 103 stores an OS and application programs.
- a display device such as an LCD 121 is connected to the graphic processing device 104.
- the graphic processing device 104 can display an image on a display screen of a display device such as the LCD 121 in accordance with a command from the CPU 101. Further, the graphic processing device 104 and the LCD 121 are connected by, for example, a serial communication cable, and control signals and image signals are alternately transmitted and received.
- the input interface 105 is connected to input devices such as a keyboard 131 and a mouse 132.
- the input interface 105 outputs a signal sent from an input device such as a keyboard 131 to the CPU 101 via the bus 107.
- An authentication unit 141 is connected to the input interface 105.
- the communication interface 106 can be connected to a communication line such as a LAN (Local Area Network).
- the communication interface 106 can send and receive data to and from other computers via a communication line.
- the authentication unit 141 receives input of biometric information acquired from the veins of the user's palm and generates biometric feature information indicating the features of the biometric information. Moreover, it authenticates based on the received biometric information. When the authentication unit 141 succeeds in the authentication, the information processing apparatus 100 executes predetermined processing of the information processing apparatus 100 such as enabling the information processing apparatus 100 to be activated.
- the authentication unit 141 includes an authentication control unit 141a and a biometric feature information storage unit 141b.
- the authentication control unit 141a controls authentication using the biometric feature information of the palm vein.
- the biometric feature information storage unit 141b stores biometric feature information used for authentication performed by the authentication unit 141.
- the biometric feature information storage unit 141b includes an HDD.
- the biometric feature information storage unit 141b may include an EEPROM (ElectronicallynErasable and Programmable Read Only Memory).
- the authentication unit 141 can store biometric feature information and identification / authentication information used for authentication in the HDD of the biometric feature information storage unit 141b, and is acquired by the biometric feature information stored in the HDD and the reading unit 142. Authentication is performed based on the biometric feature information.
- the reading unit 142 is an input device that inputs biometric information by reading the veins of the palm by the user holding the palm.
- the reading unit 142 includes a living body detection unit 142a, an imaging unit 142b that acquires a vein image of the palm, and a light source unit 142c that emits near-infrared light when the vein is imaged.
- the living body detection unit 142a detects the base of the finger of the palm and also detects the height of the palm from the upper surface of the reading unit 142.
- the base of the finger of the palm refers to a region including a valley between adjacent fingers.
- the living body detection unit 142a includes, for example, an image sensor as a mechanism for detecting the base of the finger of the palm. The detection result by the image sensor is used to determine the direction of the hand with respect to the reading unit 142. Note that this image sensor may also be used as the imaging unit 142b.
- the living body detection unit 142a includes a distance sensor as a mechanism for detecting the height of the palm, for example.
- the imaging unit 142b is a vein sensor that images a biological vein.
- the light source unit 142c is a light source that irradiates near infrared light.
- the palm is detected by the living body detection unit 142a, the palm is irradiated with near infrared light from the light source unit 142c, and the palm portion is imaged by the imaging unit 142b.
- the reduced hemoglobin in the vein in the subcutaneous tissue of the palm is reflected in black because it absorbs near-infrared light, and a mesh-like biological image is acquired.
- the user When causing the reading unit 142 to read the vein of the palm, the user turns the palm of the hand that causes the reading unit 142 to read the vein. Thereby, the reading part 142 can read the vein of a user's palm.
- the reading unit 142 may be connected to the outside of the information processing apparatus 100, for example.
- the living body detection unit 142a may have a function of determining the direction of the hand with respect to the reading unit 142.
- FIG. 5 is a block diagram illustrating an information processing apparatus according to the second embodiment.
- the information processing apparatus 100 according to the second embodiment includes an information acquisition unit 111, a type determination unit 112, an information generation unit 113, a collation unit 114, and a biometric feature information storage unit 141b.
- the information acquisition unit 111 is connected to a reading unit 142.
- the information acquisition unit 111 acquires a biometric image of a person to be authenticated such as a user of the information processing apparatus 100.
- the information acquisition unit 111 can acquire the direction of the living body in a state where the biological image is acquired.
- the biological image acquired by the information acquisition unit 111 is image information of a palm vein pattern.
- the direction of the living body is two orthogonal different directions based on the left and right of the hand.
- the reading unit 142 is fixed to the upper part of the information processing apparatus 100.
- the information acquisition unit 111 determines that the living body is arranged at a predetermined distance from the reading unit 142 and the direction of the living body with respect to the reading unit 142 based on the detection result by the living body detection unit 142a of the reading unit 142.
- the information acquisition unit 111 determines the direction of the living body by determining the position of the direction feature portion in the living body from the image obtained by the living body detection unit 142a of the reading unit 142.
- the directions are orthogonal to each other and the angle with the keyboard 131 is an oblique angle.
- the direction feature portion is a valley portion at the base of the finger in the palm. The direction feature portion will be described later in detail. Note that the directions of the left and right hands may be opposite to each other.
- the information acquisition unit 111 acquires an image (biological image) including a living body imaged by the imaging unit 142b of the reading unit 142.
- the type determination unit 112 determines the type of biological information based on the direction of the biological body determined by the information acquisition unit 111. The type indicates the left and right of the hand that is the basis for generating biometric information.
- the information generating unit 113 generates biological information indicating the characteristics of the living body based on the living body image acquired by the information acquiring unit 111.
- the information generation unit 113 generates collation biometric feature information including the generated biometric information and the type of biometric information determined by the type determination unit 112.
- the collation biometric feature information is basically data having the same configuration as the biometric feature information stored in the biometric feature information storage unit 141b.
- the biometric feature information of the user to be authenticated in the second embodiment, palm veins). ) Feature information. Thereby, the biometric information and type of the user who collates the biometric information for authentication are shown.
- the information generation unit 113 for example, biometric information based on the biometric image acquired by the information acquisition unit 111, the type of biometric information determined by the type determination unit 112, and identification information that identifies an individual corresponding to the biometric information, Is generated and stored in the biometric feature information storage unit 141b.
- biometric feature information including the biometric information and the type of the user who has a normal authority registered in advance and is used for authentication is registered.
- the type is different for the left and right hands.
- the information generation unit 113 stores the generated biometric feature information in the biometric feature information storage unit 141b.
- the verification unit 114 performs authentication using the verification biometric feature information generated by the information generation unit 113.
- the collation unit 114 performs authentication using the collation biometric feature information generated by the information generation unit 113.
- the collation unit 114 extracts biometric feature information whose type matches the collation biometric feature information from the biometric feature information storage unit 141b, and collates based on the biometric information of the collation biometric feature information and the extracted biometric feature information.
- the information processing apparatus 100 performs biometric authentication of the user based on the collation result. Since collation is performed by limiting the collation targets to those of the same type, an increase in time and load required for the collation process can be suppressed.
- the biometric feature information storage unit 141b stores biometric feature information indicating the biometric information and the type of the biometric information. Thereby, a user's biometric information and a classification are matched and memorize
- FIG. 6 is a diagram illustrating a biometric feature table according to the second embodiment.
- the biometric feature table 141b1 illustrated in FIG. 6 is set in the biometric feature information storage unit 141b included in the information processing apparatus 100 according to the second embodiment.
- the biometric feature table 141b1 is a table that manages biometric feature information used for biometric authentication of the information processing apparatus 100.
- the biometric feature table 141b1 is provided with “number”, “ID”, “left / right”, and “feature data” as items. In the biometric feature table 141b1, values set in the above items are associated with each other as biometric feature information.
- the number is a code that can uniquely identify the biometric feature information. Numbers are set on a one-to-one basis with respect to biometric feature information. Different numbers are set for different biometric feature information of the same user.
- the ID is a code that can uniquely identify the user of the biometric feature information. The same ID is set in the biometric feature information of the same user. Different IDs are set in the biometric feature information of different users.
- Left and right indicate the type of palm vein indicated by the biometric feature information. “Right” is set for the biological feature information of the vein of the palm of the right hand. “Left” is set for the biological feature information of the vein of the palm of the left hand.
- the feature data indicates a file name of data indicating biometric information.
- the biometric feature table 141b1 illustrated in FIG. 6 is an example, and any item can be set in the biometric feature table.
- FIGS. 7 and 8 are diagrams illustrating a state when reading the vein of the palm of the right hand according to the second embodiment.
- FIG. 7 is a diagram of the state when the information processing apparatus 100 reads the vein of the palm of the right hand as viewed from above.
- FIG. 8 is a view of the state when the information processing apparatus 100 reads the vein of the palm of the right hand as viewed from the front.
- the information processing apparatus 100 includes a display unit 120 and a main body unit 130.
- a keyboard 131 and a reading unit 142 are provided on the upper surface of the main body 130 of the information processing apparatus 100.
- the reading unit 142 is on the same top surface of the main body 130 as the keyboard 131 of the information processing apparatus 100, and each side of the square vein sensor is 45 ° on the front and side surfaces of the information processing apparatus 100 at the front center of the keyboard 131. Arranged at an angle. In addition, a user's head 201, torso 202, upper right arm 203, right lower arm 204, and right hand palm 205 are shown.
- the user moves the palm (for example, the palm 205 of the right hand) that reads the vein to the left of the side of the information processing apparatus 100. It is positioned so as to be parallel to the upper surface of the main body 130 of the information processing apparatus 100 at an angle of 45 °. At this time, the user is a space separated from the vein sensor surface by a certain distance (for example, several centimeters) with the finger 205 of the palm of the right hand open so that the center of the palm coincides with the center of the reading unit 142. Position on top.
- the user does not need to bend the wrist between the palm 205 of the right hand and the right lower arm 204 at the time of reading, and can be made almost straight.
- each finger of the user's right hand is straightened and opened sufficiently and the four bases between the finger of the user's right hand are sufficiently spaced. Therefore, there is no twist of the horizontal plane in the palm 205 of the right hand, and a correct image can be obtained quickly and reliably. Accordingly, correct features can be detected quickly and reliably, and biometric information registration and user authentication can be performed quickly and reliably.
- the right and left hands can be determined quickly and reliably. be able to. Further, the angle of the right wrist part of the user, the right lower arm part 204 and the upper right arm part 203 from the right wrist, the elbow between the lower right arm part 204 and the upper right arm part 203, the upper right arm part 203 and the torso part 202 There is no unreasonable posture of the right shoulder between and the user's burden can be reduced.
- FIG. 7 demonstrated the case where the vein of the palm of a user's right hand was read, it is the same also when reading the vein of the palm of a left hand, and description is abbreviate
- each finger of the user's right hand is located in a space apart from the vein sensor surface by a certain distance from the vein sensor surface together with the palm 205 of the right hand. It is possible to prevent the palm from touching and causing an erroneous operation.
- FIG. 9 is a diagram illustrating detection of a directional feature portion of the hand according to the second embodiment.
- FIG. 9 shows hand direction and biological direction characteristic portions in the information processing apparatus 100 according to the second embodiment.
- FIG. 9A shows an acquired image 1421 of the palm of the right hand.
- FIG. 9B shows an acquired image 1422 of the palm of the left hand.
- the acquired images 1421 and 1422 are images acquired by the living body detection unit 142a of the reading unit 142.
- the acquired images 1421 and 1422 are captured by, for example, an image sensor included in the living body detection unit 142a.
- the upper side in FIG. 9 is the back side (rear side of the information processing apparatus 100) when viewed from the front of the information processing apparatus 100, and the lower side in FIG. 9 (the front side of the information processing apparatus 100), the right side in FIG. 9 is the right side (the right side of the information processing apparatus 100) when viewed from the front of the information processing apparatus 100, and the left side in FIG. It is the left side (left side surface side of the information processing apparatus 100) when viewed from the front.
- the image acquired by the living body detection unit 142a includes a right hand detection rectangular image area 1420a for detecting a valley portion of the base of the palm of the right hand palm along the upper left side, and an upper right side.
- a left hand detection rectangular image area 1420b for detecting a valley portion at the base of the finger of the palm of the left hand is set.
- the right-hand detection rectangular image region 1420a and the left-hand detection rectangular image region 1420b are provided along two sides that are orthogonal to each other in the acquired image.
- the valley portion at the base of the finger functions as a direction feature portion.
- the reading unit 142 When the reading unit 142 detects a palm of a user positioned above the reading unit 142 with a distance sensor (not shown) of the living body detection unit 142a, the reading unit 142 acquires a palm image with an image sensor (not shown) of the living body detection unit 142a, and acquires information. Supplied to the unit 111.
- the information acquisition unit 111 determines whether or not a finger base valley portion is detected in the right-hand detection rectangular image region 1420a or the left-hand detection rectangular image region 1420b set in the acquired image.
- the palm image acquisition by the image sensor here is performed without being irradiated with near-infrared light from the light source unit 142c.
- the image acquired here is not an image of the vein of the palm but an image of the appearance of the palm.
- this detection process is performed for the position where the rectangular image area for right hand detection 1420a or the rectangular image area for left hand detection 1420b is set in the image of the appearance of the palm.
- the information acquisition unit 111 includes the right hand detection rectangular image region 1420a and the left hand detection rectangular image region 1420b in the valley portion of the base of the finger. It is determined whether or not a certain direction feature portion exists. For example, if the image is an acquired image 1421 as shown in FIG. 9A, the direction feature portion 1421a1 exists in the right hand detection rectangular image area 1420a, but does not exist in the left hand detection rectangular image area 1420b. It is determined that the palm is located at an angle of “0 °”. Thereby, the information processing apparatus 100 determines that the acquired image is an image of the palm of the right hand.
- the direction feature portion 1422b1 exists in the left-hand detection rectangular image region 1420b, but does not exist in the right-hand detection rectangular image region 1420a. It is determined that the palm of the user is positioned at an angle of “90 °” clockwise. As a result, the information processing apparatus 100 determines that the acquired image is an image of the palm of the left hand.
- the reading unit 142 acquires an image of the direction feature portion of the palm.
- the information acquisition unit 111 determines the angle of the palm based on the presence / absence of the direction feature portion of the right hand detection rectangular image region 1420a or the left hand detection rectangular image region 1420b.
- the type determining unit 112 determines the type of palm (one of the left and right hands) arranged on the reading unit 142 based on the determined palm angle.
- the detection of the direction feature portion in the second embodiment that is, the valley portion of the base of the finger, for example, the valley portion of the base of the index finger and the middle finger, the valley portion of the base of the middle finger and the ring finger, All or at least some combinations may be detected based on being open at a predetermined interval.
- the detection of the valley portion at the base of the finger may be realized by the position of the base of each finger in the palm acquired image acquired by the living body detection unit 142a and the contour identification between the base of the finger. Good.
- FIG. 10 is a flowchart illustrating biometric feature information acquisition registration processing according to the second embodiment.
- the biometric feature information acquisition / registration processing is processing for determining the type of palm to be registered, and generating and registering biometric feature information indicating the type of palm and the characteristics of veins.
- the biometric feature information acquisition / registration process is executed, for example, when the user registers biometric feature information of a palm vein. In the following, the process illustrated in FIG. 10 will be described in order of step number.
- the information acquisition unit 111 determines that the palm is placed at a predetermined height on the reading unit 142 based on the detection result of the distance sensor included in the living body detection unit 142a of the reading unit 142. If it is determined that the palm is placed, the information acquisition unit 111 detects a valley portion at the base of the finger, which is a direction feature portion, from an image captured by the image sensor included in the living body detection unit 142a, and based on the detected direction feature portion. The direction of the registration target hand is determined.
- the type determination unit 112 determines the type (left or right) of the palm based on the direction of the hand determined in step S11.
- the information acquisition unit 111 causes the imaging unit 142b of the reading unit 142 to capture an image and acquires a biological image in which the veins of the palm are reflected.
- Step S14 The information generation unit 113 extracts features of the living body based on the living body image acquired in step S13.
- the information generation unit 113 generates biometric information indicating the feature extraction result.
- the biometric information may be information indicating, for example, feature points in veins (eg, branch points of veins) reflected in a biometric image.
- the biological information may be image information obtained by cutting out a region where a vein is reflected from a biological image.
- the biological information may be a biological image itself.
- the information generation unit 113 generates biometric feature information including the type determined in step S12, the biometric information generated in step S14, and the user ID.
- the information generation unit 113 stores the biometric feature information generated in step S15 in the biometric feature information storage unit 141b. Accordingly, the biometric feature information is registered in the biometric feature information storage unit 141b. Thereafter, the process ends.
- FIG. 11 is a flowchart illustrating the biometric feature information authentication process according to the second embodiment.
- the biometric feature information authentication process determines the type of palm to be authenticated, generates verification biometric feature information indicating the type of palm to be authenticated and the characteristics of veins, and verifies the biometric feature information registered in advance to perform authentication. It is processing to do.
- the collation biometric feature information is data having the same configuration as that of the biometric feature information, and indicates the feature of the user's biometric subject (the palm vein in the second embodiment).
- the biometric feature information authentication process is executed, for example, when the user authenticates with a palm vein. In the following, the process illustrated in FIG. 11 will be described in order of step number.
- the information acquisition unit 111 determines that the palm is placed at a predetermined height on the reading unit 142 based on the detection result of the distance sensor included in the living body detection unit 142a of the reading unit 142. If it is determined that the palm is placed, the information acquisition unit 111 detects a valley portion at the base of the finger, which is a direction feature portion, from an image captured by the image sensor included in the living body detection unit 142a, and based on the detected direction feature portion. Determine the direction of the hand to be authenticated.
- the type determination unit 112 determines the type (left or right) of the palm based on the direction of the hand determined in step S21.
- the information acquisition unit 111 causes the imaging unit 142b of the reading unit 142 to capture an image, and acquires a biological image in which the veins of the palm are reflected.
- Step S24 The information generation unit 113 extracts features of the living body based on the living body image acquired in step S23.
- the information generation unit 113 generates biometric information indicating the feature extraction result.
- the information generation unit 113 generates verification biometric feature information including the type determined in step S22 and the biometric information generated in step S24.
- the matching unit 114 performs biometric feature information matching processing (described later in FIG. 12) using the matching biometric feature information generated in step S25. Thereafter, the process ends.
- the determination of the direction of the living body and the extraction of the characteristics of the living body are performed based on the images from the individual sensors.
- the sensor captures an image and stores the image in the RAM 102.
- the information acquisition unit 111 determines the direction of the living body based on the image stored in the RAM 102 (corresponding to steps S11 and S21), and the type determination unit 112 determines the type based on the direction determination result. (Corresponding to steps S12 and S22).
- the sensor also captures an image again in the state in which near-infrared light is irradiated from the light source unit 142 c and stores the image in the RAM 102.
- the information generation unit 113 extracts biometric features based on the image stored in the RAM 102, and generates biometric information (corresponding to steps S14 and S24).
- the information generation unit 113 acquires a biological image by extracting a predetermined region where a vein exists from the image stored in the RAM 102 when extracting the characteristics of the biological body (corresponding to steps S13 and S23).
- Features may be extracted based on a biological image.
- FIG. 12 is a flowchart illustrating the biometric feature information matching process according to the second embodiment.
- the biometric feature information matching process is a process of matching verification biometric feature information to be authenticated with biometric feature information registered in advance.
- the biometric feature information matching process is executed, for example, when called by the biometric feature information authentication process. In the following, the process illustrated in FIG. 12 will be described in order of step number.
- the collation unit 114 acquires collation biometric feature information generated by the biometric feature information authentication process.
- the collation unit 114 refers to the biometric feature information storage unit 141b, and extracts biometric feature information that matches the type of collation biometric feature information acquired in step S31.
- the matching unit 114 extracts biometric feature information in which both the type of matching biometric feature information and the user ID match, from the biometric feature information storage unit 141b.
- Step S33 The collation unit 114 selects one of the biometric feature information extracted in step S32 and selects biometric information included in each of the selected biometric feature information and collation biometric feature information.
- Step S34 The collation unit 114 determines whether or not the collation between the selected biometric feature information and the collation biometric feature information has succeeded as a result of the collation in step S33. If the verification is successful (step S34, YES), the process proceeds to step S35. On the other hand, if the verification fails (NO in step S34), the process proceeds to step S36.
- the collation unit 114 executes a predetermined process when the authentication is successful.
- the predetermined processing when the authentication is successful may be, for example, authority of the user to log in to the information processing apparatus 100 or a predetermined Internet site, start up an application, permit data access, and the like. Thereafter, the process returns.
- Step S36 The collation unit 114 determines whether all the biometric feature information extracted in step S32 has been selected in step S33. If all have been selected (step S36 YES), the process proceeds to step S37. On the other hand, if there is an unselected item (NO in step S36), the process proceeds to step S33.
- the collation unit 114 executes a predetermined process when authentication fails.
- the predetermined processing when the authentication fails is, for example, denial of login to the information processing apparatus 100 or the predetermined Internet site of the user, denial of activation of the application, denial of authorization such as data access permission, etc. It may be an output of a message indicating refusal. Thereafter, the process returns.
- FIG. 13 is a diagram illustrating a message window at the time of registration according to the second embodiment.
- a message window 121a illustrated in FIG. 13 is an example of a window displayed on the display screen of the LCD 121 included in the information processing apparatus 100.
- the message window 121a displays a message and an image for notifying the user that biometric feature information has been successfully registered based on the palm read.
- the message window 121a for example, a message “successful registration of the palm of the right hand” and a biological image showing the vein of the palm of the right hand imaged at the time of registration are displayed.
- the message window 121a has an OK button 121a1.
- the OK button 121a1 is a button for ending the display of the message window 121a.
- the user can end the display of the message window 121a by operating the OK button 121a1.
- the type of living body such as the right hand or the left hand can be determined according to the angle of the living body such as the palm when acquiring the biological information about the vein of the palm or the like. It becomes possible. As a result, adverse effects caused by an increase in the number of objects to be verified can be suppressed.
- the reading unit 142 can acquire biometric images in a plurality of directions, the degree of freedom of the posture of the user when acquiring biometric information is increased, and the burden on the user's shoulder, arm, and wrist joints can be suppressed. it can.
- one-to-N collation is performed to collate one collating biometric feature information with a plurality of biometric feature information stored in the biometric feature information storage unit 141b.
- the palm can be positioned in the right and left directions, the degree of freedom of the posture of the user's arm and wrist is increased as compared with the case where the left and right palms are read in a single direction. The increase in the burden at the time of reading can be suppressed.
- FIG. 14 is a block diagram illustrating an information processing apparatus according to a first modification of the second embodiment.
- An information processing apparatus 100a according to a first modification of the second embodiment includes an information acquisition unit 111, a type determination unit 112, an information generation unit 113a, and a collation unit 114a.
- the information acquisition unit 111 is connected to a reading unit 142.
- the server 150 is connected to the information processing apparatus 100a via a network 151 that is a communication line such as a LAN or a WAN (Wide Area Network), and includes a biometric feature information storage unit 141b.
- the information acquisition unit 111 performs the same processing as the information acquisition unit 111 of FIG. That is, the information acquisition unit 111 acquires a biometric image of a person to be authenticated such as a user of the information processing apparatus 100a.
- the information acquisition unit 111 also has a function of detecting that a palm is placed at a predetermined height on the reading unit 142 and a function of determining the direction of the hand placed on the reading unit 142.
- the type determination unit 112 determines the type of biological information based on the direction of the biological body determined by the information acquisition unit 111, as with the type determination unit 112 in FIG.
- the type indicates the left and right of the hand that is the basis for generating biometric information.
- the information generation unit 113 a includes collation that includes biological information based on the biological image acquired by the information acquisition unit 111 and the type of biological information determined by the type determination unit 112. Biometric feature information is generated. Thereby, the biometric information and type of the user who collates the biometric information for authentication are shown.
- the information generating unit 113a includes biometric information including biometric information based on the biometric image acquired by the information acquiring unit 111, the type of biometric information determined by the type determining unit 112, and identification information that identifies an individual corresponding to the biometric information. Information is generated and stored in the biometric feature information storage unit 141b of the server 150.
- biometric feature information indicating the biometric information and type of a user who has a normal authority registered in advance and is used for authentication is registered.
- the type is different for the left and right hands.
- the information generating unit 113a stores the generated biometric feature information in the biometric feature information storage unit 141b.
- the collation part 114a performs collation using the collation biometric feature information produced
- the collation unit 114a extracts biometric feature information whose type matches the collation biometric feature information from the biometric feature information stored in the biometric feature information storage unit 141b, and the biometric information of the collation biometric feature information and the extracted biometric feature information Match based on. Thereby, the information processing apparatus 100a performs biometric authentication of the user based on the collation result. Since collation is performed by limiting the collation targets to those of the same type, an increase in time and load required for the collation process can be suppressed.
- the biometric feature information storage unit 141b stores biometric feature information indicating the biometric information and the type of biometric information generated by the information processing apparatus 100a. Thereby, a user's biometric information and a classification are matched and memorize
- the first modification of the second embodiment as described above also provides the same effects as those of the second embodiment.
- security and management efficiency are further improved by centralized management by storing biometric feature information in a centralized manner. Can be increased.
- each user can register and update biometric feature information with a large number of information processing apparatuses via the network 151, the convenience of the administrator and the user can be improved.
- the processing time for 1-to-N collation is proportional to the number (N) of registered biometric feature information. For this reason, it is possible to double the number of pieces of biometric feature information while suppressing an increase in time required for verification and time required for authentication processing.
- FIG. 15 is a flowchart showing the biometric feature information acquisition registration process of the second modification of the second embodiment.
- the biometric feature information acquisition / registration processing is processing for determining the type of palm to be registered, and generating and registering biometric feature information indicating the type of palm and the characteristics of veins.
- the biometric feature information acquisition / registration process is executed, for example, when the user registers biometric feature information of a palm vein. In the following, the process illustrated in FIG. 15 will be described in order of step number.
- the information acquisition unit 111 determines that the palm is placed at a predetermined height on the reading unit 142 based on the detection result of the distance sensor included in the living body detection unit 142a of the reading unit 142. If it is determined that the palm is placed, the information acquisition unit 111 detects a valley portion at the base of the finger, which is a direction feature portion, from an image captured by the image sensor included in the living body detection unit 142a, and based on the detected direction feature portion. The direction of the registration target hand is determined.
- the type determination unit 112 determines the type (left or right) of the palm based on the direction of the hand determined in step S41.
- the information acquisition unit 111 causes the imaging unit 142b of the reading unit 142 to capture an image and acquires a biological image in which the veins of the palm are reflected.
- Step S44 The information generation unit 113a refers to the type determined in step S42 based on the biometric image acquired in step S43, extracts biometric features, and generates biometric information.
- the information generation unit 113a extracts the features of the living body by, for example, different processing procedures according to the type determined in step S42. For example, the information generation unit 113a may select a template image corresponding to the type, and extract a biological feature from the biological image using the selected template image. Alternatively, the information generation unit 113a may change the region for detecting the vein from the biological image or change the direction of scanning the biological image when detecting the vein according to the type. By these processes, it is possible to obtain an effect of increasing the processing efficiency when extracting features of the living body or increasing the extraction accuracy.
- step S43 the information acquisition unit 111 may perform processing according to the type determined in step S42.
- the information acquisition unit 111 may change the imaging region when capturing a biological image according to the type.
- the information generation unit 113a generates biometric feature information including the type determined in step S42, the biometric information generated in step S44, and the user ID.
- the information generation unit 113a stores the biometric feature information generated in step S45 in the biometric feature information storage unit 141b. Accordingly, the biometric feature information is registered in the biometric feature information storage unit 141b. Thereafter, the process ends.
- FIG. 16 is a flowchart showing a biometric feature information authentication process according to the second modification of the second embodiment.
- the biometric feature information authentication process determines the type of palm to be authenticated, generates verification biometric feature information indicating the type of palm to be authenticated and the characteristics of veins, and verifies the biometric feature information registered in advance to perform authentication. It is processing to do.
- the biometric feature information authentication process is executed, for example, when the user authenticates with a palm vein. In the following, the process illustrated in FIG. 16 will be described in order of step number.
- the information acquisition unit 111 determines that the palm is placed at a predetermined height on the reading unit 142 based on the detection result of the distance sensor included in the living body detection unit 142a of the reading unit 142. If it is determined that the palm is placed, the information acquisition unit 111 detects a valley portion at the base of the finger, which is a direction feature portion, from an image captured by the image sensor included in the living body detection unit 142a, and based on the detected direction feature portion. Determine the direction of the hand to be authenticated.
- the type determining unit 112 determines the type (left or right) of the palm based on the direction of the hand determined in step S51.
- the information acquisition unit 111 causes the imaging unit 142b of the reading unit 142 to capture an image, and acquires a biological image in which the veins of the palm are reflected.
- Step S54 The information generation unit 113a extracts features of the living body with reference to the type determined in step S52 based on the biological image acquired in step S53. In step S54, the information generation unit 113a extracts biological features and generates biological information by the same processing procedure as in step S44 of FIG.
- step S53 the information acquisition unit 111 may perform processing according to the type determined in step S52.
- the information acquisition unit 111 may change the imaging region when capturing a biological image according to the type.
- the information generation unit 113a generates verification biometric feature information including the type determined in step S52 and the biometric information generated in step S54.
- the matching unit 114a performs biometric feature information matching processing (described later in FIG. 17) using the matching biometric feature information generated in step S55. Thereafter, the process ends.
- FIG. 17 is a flowchart showing biometric feature information matching processing according to the second modification of the second embodiment.
- the biometric feature information matching process is a process of matching verification biometric feature information to be authenticated with biometric feature information registered in advance.
- the biometric feature information matching process is executed, for example, when called by the biometric feature information authentication process. In the following, the process illustrated in FIG. 17 will be described in order of step number.
- the collation unit 114a acquires collation biometric feature information generated by the biometric feature information authentication process.
- the collation unit 114a refers to the biometric feature information storage unit 141b and extracts biometric feature information that matches the type of collation biometric feature information acquired in step S61.
- the matching unit 114a extracts biometric feature information in which both the type of matching biometric feature information and the user ID match, from the biometric feature information storage unit 141b.
- the matching unit 114a selects an unselected one of the biometric feature information extracted in step S62, and selects the biometric feature selected with reference to the type determined in step S52 of the biometric feature information authentication process. The information is compared with the matching biometric feature information.
- the collation unit 114a refers to the type of the living body and performs a process suitable for the type, so that the efficiency of the process can be improved. For example, the collation unit 114a changes the order or the calculation method when comparing the biological information according to the type.
- Step S64 The collation unit 114a determines whether or not the collation between the selected biometric feature information and the collation biometric feature information is successful as a result of the collation in Step S63. If the verification is successful (step S64: YES), the process proceeds to step S65. On the other hand, if the verification fails (NO in step S64), the process proceeds to step S66.
- Step S65 The collation unit 114a performs a predetermined process when the authentication is successful. Thereafter, the process returns.
- Step S66 The collation unit 114a determines whether all the biometric feature information extracted in step S62 has been selected in step S63. If all have been selected (YES in step S66), the process proceeds to step S67. On the other hand, if there is an unselected item (NO in step S66), the process proceeds to step S63.
- Step S67 The collation unit 114a performs a predetermined process when authentication fails. Thereafter, the process returns.
- the second modification example of the second embodiment as described above also provides the same effects as those of the second embodiment.
- the information processing apparatus is the second implementation in that the extraction of the vein of the palm and the matching of the features are performed by correcting the angle of the living body. The form is different.
- the direction of the left hand rotates by a predetermined angle (for example, 90 ° clockwise) with respect to the placement direction of the right hand.
- a predetermined angle for example, 90 ° clockwise
- the direction from the biological image acquired in the direction of the left hand that is rotated by a predetermined angle with respect to the mounting direction of the right hand The feature may not be extracted because of the difference.
- the biometric image of the left hand is rotated and corrected by a predetermined angle (for example, 90 ° counterclockwise) to align the direction of the biometric image and extract features. And feature matching.
- the predetermined angle can be set arbitrarily.
- FIG. 18 is a flowchart showing biometric feature information acquisition registration processing according to the third modification of the second embodiment.
- the biometric feature information acquisition / registration processing is processing for determining the type of palm to be registered, and generating and registering biometric feature information indicating the type of palm and the characteristics of veins.
- the biometric feature information acquisition / registration process is executed, for example, when the user registers biometric feature information of a palm vein. In the following, the process illustrated in FIG. 18 will be described in order of step number.
- the information acquisition unit 111 determines that the palm is placed at a predetermined height on the reading unit 142 based on the detection result of the distance sensor included in the living body detection unit 142a of the reading unit 142. If it is determined that the palm is placed, the information acquisition unit 111 detects a valley portion at the base of the finger, which is a direction feature portion, from an image captured by the image sensor included in the living body detection unit 142a, and based on the detected direction feature portion. The direction of the registration target hand is determined.
- the type determining unit 112 determines the type (left or right) of the palm based on the direction of the hand determined in step S71.
- the information acquisition unit 111 causes the imaging unit 142 b of the reading unit 142 to capture an image and acquires a biological image in which a palm vein is reflected.
- Step S74 Based on the biological image acquired in Step S73, the information generation unit 113 corrects the angle of the biological image based on the direction determined in Step S71, extracts the characteristics of the biological image, and generates biological information. To do.
- the correction of the angle of the living body image is performed by rotating the living body image acquired in step S73 in the direction opposite to the angle indicating the direction determined in step S71, regardless of the angle of the living body with respect to the reading unit 142. Processing is performed so that the palm veins are in the same direction.
- the present invention is not limited to this, and the angle may be corrected on the processing side for extracting features without rotating the biological image.
- the information generation unit 113 generates biometric feature information including the type determined in step S72, the biometric information generated in step S74, and the user ID.
- the information generation unit 113 stores the biometric feature information generated in step S75 in the biometric feature information storage unit 141b. Accordingly, the biometric feature information is registered in the biometric feature information storage unit 141b. Thereafter, the process ends.
- FIG. 19 is a flowchart showing a biometric feature information authentication process according to the third modification of the second embodiment.
- the biometric feature information authentication process determines the type of palm to be authenticated, generates verification biometric feature information indicating the type of palm to be authenticated and the characteristics of veins, and verifies the biometric feature information registered in advance to perform authentication. It is processing to do.
- the biometric feature information authentication process is executed, for example, when the user authenticates with a palm vein. In the following, the process illustrated in FIG. 19 will be described in order of step number.
- the information acquisition unit 111 determines that the palm is placed at a predetermined height on the reading unit 142 based on the detection result of the distance sensor included in the living body detection unit 142a of the reading unit 142. If it is determined that the palm is placed, the information acquisition unit 111 detects a valley portion at the base of the finger, which is a direction feature portion, from an image captured by the image sensor included in the living body detection unit 142a, and based on the detected direction feature portion. Determine the direction of the hand to be authenticated.
- the type determination unit 112 determines the type (left or right) of the palm based on the direction of the hand determined in step S81.
- the information acquisition unit 111 causes the imaging unit 142b of the reading unit 142 to capture an image and acquires a biological image in which the veins of the palm are reflected.
- Step S84 The information generation unit 113 corrects the angle of the biological image based on the direction determined in Step S81 based on the biological image acquired in Step S83, extracts the characteristics of the biological image, and acquires the biological information. Generate.
- the present invention is not limited to this, and the angle may be corrected on the processing side for extracting features without rotating the biological image.
- the information generation unit 113 generates verification biometric feature information including the type determined in step S84 and the biometric information generated in step S84.
- the collation unit 114 executes biometric feature information collation processing (described later in FIG. 20) using the collation biometric feature information generated in step S85. Thereafter, the process ends.
- FIG. 20 is a flowchart showing biometric feature information matching processing according to the third modification of the second embodiment.
- the biometric feature information matching process is a process of matching verification biometric feature information to be authenticated with biometric feature information registered in advance.
- the biometric feature information matching process is executed, for example, when called by the biometric feature information authentication process. In the following, the process illustrated in FIG. 20 will be described in order of step number.
- the collation unit 114 acquires collation biometric feature information generated by the biometric feature information authentication process.
- the collation unit 114 refers to the biometric feature information storage unit 141b, and extracts biometric feature information that matches the type of collation biometric feature information acquired in step S91.
- the matching unit 114 extracts biometric feature information in which both the type of matching biometric feature information and the user ID match, from the biometric feature information storage unit 141b.
- the matching unit 114 selects one of the biometric feature information extracted in step S92 and selects biometric information included in each of the selected biometric feature information and the matching biometric feature information.
- Step S94 The collation unit 114 determines whether or not the collation between the selected biometric feature information and the collation biometric feature information has succeeded as a result of the collation in step S93. If the verification is successful (YES in step S94), the process proceeds to step S95. On the other hand, if the verification fails (NO in step S94), the process proceeds to step S96.
- Step S95 The collation unit 114 executes a predetermined process when authentication is successful. Thereafter, the process returns.
- the collation unit 114 determines whether all the biometric feature information extracted in step S92 has been selected in step S93. If all have been selected (YES in step S96), the process proceeds to step S97. On the other hand, if there is an unselected item (NO in step S96), the process proceeds to step S93.
- Step S97 The collation unit 114 executes a predetermined process when authentication fails. Thereafter, the process returns.
- the third modification of the second embodiment as described above also has the same effect as that of the second embodiment.
- the direction of the right hand of the user when used as a reference, the direction of the left hand rotates by a predetermined angle (for example, 90 ° clockwise) with respect to the placement direction of the right hand.
- a predetermined angle for example, 90 ° clockwise
- the type of biological information is specified.
- the predetermined angle can be set arbitrarily.
- FIG. 21 is a diagram illustrating a biometric feature table of the fourth modification example of the second embodiment.
- the biometric feature table 141b2 illustrated in FIG. 21 is set in the biometric feature information storage unit 141b included in the information processing apparatus 100.
- the biometric feature table 141b2 is a table that manages biometric feature information used for biometric authentication of the information processing apparatus 100.
- the biometric feature table 141b2 is provided with “number”, “ID”, “angle”, and “feature data” as items. In the biometric feature table 141b2, values set in the above items are associated with each other as biometric feature information.
- the angle indicates the angle when the palm vein indicated by the biometric feature information is detected.
- biometric feature information of the vein of the palm of the right hand “0” indicating 0 ° as a reference angle is set.
- biometric feature information of the vein of the palm of the left hand “90” or “180” indicating a predetermined angle rotated clockwise from the reference angle is set.
- a plurality of different angles can be set as the predetermined angle.
- the angle is set to “0” indicating 0 ° for the biometric feature information of the right hand, and “90” and 180 ° indicating 90 ° for the biometric feature information of the left hand. “180” is set.
- the biometric feature information whose angle is 0 is the biometric feature information of the right hand.
- the biometric feature information whose angle is 90 is the biometric feature information of the left hand acquired in a state where the direction of the right hand and the direction of the left hand are orthogonal to the direction in which the left hand rotates 90 ° clockwise with respect to the right hand.
- the biometric feature information whose angle is 180 is the biometric feature information of the left hand acquired in a state where the direction of the right hand and the direction of the left hand are opposite.
- the fourth modification of the second embodiment is applicable even when there are a plurality of types of angles between the left hand direction and the right hand direction.
- FIG. 22 is a flowchart illustrating biometric feature information acquisition and registration processing according to the fourth modification of the second embodiment.
- the biometric feature information acquisition / registration process is a process for determining the direction of the hand to be registered, and generating and registering biometric feature information indicating the direction of the hand and the characteristics of the vein.
- the biometric feature information acquisition / registration process is executed, for example, when the user registers biometric feature information of a palm vein. In the following, the process illustrated in FIG. 22 will be described in order of step number.
- the information acquisition unit 111 determines that the palm is placed at a predetermined height position on the reading unit 142 based on the detection result of the distance sensor included in the living body detection unit 142a of the reading unit 142. If it is determined that the palm is placed, the information acquisition unit 111 detects a valley portion at the base of the finger, which is a direction feature portion, from an image captured by the image sensor included in the living body detection unit 142a, and based on the detected direction feature portion. The direction of the registration target hand is determined.
- the information acquisition unit 111 causes the imaging unit 142b of the reading unit 142 to capture an image, and acquires a biological image in which the veins of the palm are reflected.
- the information generation unit 113 extracts features of the living body based on the biological image acquired in step S102.
- the information generation unit 113 generates biometric information indicating the feature extraction result.
- the information generation unit 113 generates biometric feature information including the angle indicating the direction of the hand determined in step S101, the biometric information generated in step S103, and the user ID.
- Step S105 The information generation unit 113 stores the biometric feature information generated in step S104 in the biometric feature information storage unit 141b. Accordingly, the biometric feature information is registered in the biometric feature information storage unit 141b. Thereafter, the process ends.
- FIG. 23 is a flowchart showing biometric feature information authentication processing according to the fourth modification of the second embodiment.
- the biometric feature information authentication process determines the direction of the hand to be authenticated, generates verification biometric feature information indicating the direction of the hand to be authenticated and the features of the vein, and performs authentication by comparing with biometric feature information registered in advance. It is processing to do.
- the biometric feature information authentication process is executed, for example, when the user authenticates with a palm vein. In the following, the process illustrated in FIG. 23 will be described in order of step number.
- Step S111 The information acquisition unit 111 determines that the palm is placed at a predetermined height position on the reading unit 142 based on the detection result of the distance sensor included in the living body detection unit 142a of the reading unit 142. If it is determined that the palm is placed, the information acquisition unit 111 detects a valley portion at the base of the finger, which is a direction feature portion, from an image captured by the image sensor included in the living body detection unit 142a, and based on the detected direction feature portion. Determine the direction of the hand to be authenticated.
- the information acquisition unit 111 causes the imaging unit 142b of the reading unit 142 to capture an image, and acquires a biological image in which the veins of the palm are reflected.
- the information generation unit 113 extracts features of the living body based on the living body image acquired in step S112.
- the information generation unit 113 generates biometric information indicating the feature extraction result.
- Step S114 The information generation unit 113 generates collation biometric feature information including the angle indicating the direction of the hand determined in step S111 and the biometric information generated in step S113.
- Step S115 The collation unit 114 executes biometric feature information collation processing (described later in FIG. 24) using the collation biometric feature information generated in step S114. Thereafter, the process ends.
- FIG. 24 is a flowchart showing biometric feature information matching processing according to the fourth modification of the second embodiment.
- the biometric feature information matching process is a process of matching verification biometric feature information to be authenticated with biometric feature information registered in advance.
- the biometric feature information matching process is executed, for example, when called by the biometric feature information authentication process. In the following, the process illustrated in FIG. 24 will be described in order of step number.
- the collation unit 114 acquires collation biometric feature information generated by the biometric feature information authentication process.
- the collation unit 114 refers to the biometric feature information storage unit 141b, and extracts biometric feature information that matches the angle of the collation biometric feature information acquired in step S121.
- the matching unit 114 extracts the biometric feature information in which both the angle of the matching biometric feature information and the user ID match from the biometric feature information storage unit 141b.
- Step S123 The collation unit 114 selects one of the biometric feature information extracted in step S122 and selects biometric information included in each of the selected biometric feature information and collation biometric feature information.
- Step S124 The collation unit 114 determines whether or not the collation between the selected biometric feature information and the collation biometric feature information has succeeded as a result of the collation in step S123. If the verification is successful (step S124: YES), the process proceeds to step S125. On the other hand, if the verification fails (NO in step S124), the process proceeds to step S126.
- Step S125 The collation unit 114 performs a predetermined process when the authentication is successful. Thereafter, the process returns.
- the collation unit 114 determines whether all the biometric feature information extracted in step S122 has been selected in step S123. If all have been selected (YES in step S126), the process proceeds to step S127. On the other hand, if there is an unselected item (NO in step S126), the process proceeds to step S123.
- Step S127 The collation unit 114 executes predetermined processing when authentication fails. Thereafter, the process returns.
- the fourth modification of the second embodiment as described above also has the same effect as that of the second embodiment.
- the direction of the living body with respect to the reading unit 142 is determined, and the features of the living body are extracted and collated with an angle based on the determined direction. Extraction and collation processing of biometric feature information can be performed.
- the direction of the right hand of the user when used as a reference, the direction of the left hand rotates by a predetermined angle (for example, 90 ° clockwise) with respect to the placement direction of the right hand.
- a predetermined angle for example, 90 ° clockwise
- the right hand in addition to information indicating the type of living body (for example, the left or right palm vein) of the biological feature information, the right hand is 0 °, By setting an angle indicating a predetermined angle for the left hand, when new biometric feature information is acquired, it is possible to update the biometric feature information of the same type and angle.
- the predetermined angle can be set arbitrarily.
- FIG. 25 is a diagram illustrating a biometric feature table of the fifth modification example of the second embodiment.
- the biometric feature table 141b3 illustrated in FIG. 25 is set in the biometric feature information storage unit 141b included in the information processing apparatus 100.
- the biometric feature table 141b3 is a table that manages biometric feature information used for biometric authentication of the information processing apparatus 100.
- the biometric feature table 141b3 is provided with “number”, “ID”, “left / right”, “angle”, and “feature data” as items.
- values set in the above items are associated with each other as biometric feature information.
- the fifth modification example of the second embodiment is also applicable when there are a plurality of types of hand angles for each of the left hand and the right hand.
- the biometric feature table 141b3 illustrated in FIG. 25 is an example, and any item can be set in the biometric feature table.
- FIG. 26 is a flowchart showing a biometric feature information acquisition / registration process according to a fifth modification of the second embodiment.
- the biometric feature information acquisition / registration process is a process for determining the direction and type of a hand to be registered, and generating and registering biometric feature information indicating the direction, type, and vein characteristics of the hand.
- the biometric feature information acquisition / registration process is executed, for example, when the user registers biometric feature information of a palm vein.
- the process illustrated in FIG. 26 will be described in order of step number.
- the information acquisition unit 111 determines that the palm is placed at a predetermined height position on the reading unit 142 based on the detection result of the distance sensor included in the living body detection unit 142a of the reading unit 142. If it is determined that the palm is placed, the information acquisition unit 111 detects a valley portion at the base of the finger, which is a direction feature portion, from an image captured by the image sensor included in the living body detection unit 142a, and based on the detected direction feature portion. The direction of the registration target hand is determined.
- the type determination unit 112 determines the type (left or right) of the palm based on the direction of the hand determined in step S131.
- the information acquisition unit 111 causes the imaging unit 142b of the reading unit 142 to capture an image and acquires a biological image in which the veins of the palm are reflected.
- Step S134 The information generation unit 113 extracts features of biological information based on the biological image acquired in step S133.
- the information generation unit 113 generates biometric information indicating the feature extraction result.
- the information generation unit 113 generates biometric feature information including the type determined in step S132, the biometric information generated in step S134, and the user ID.
- the information generation unit 113 is the same user as the biometric feature information generated in Step S135, and has the same angle indicating the type determined in Step S132 and the direction of the hand determined in Step S131. It is determined whether or not feature information exists. If there is biometric feature information of the same user and the same type and angle (YES in step S136), the process proceeds to step S137. On the other hand, if there is no biometric feature information of the same user and the same type and angle (NO in step S136), the process proceeds to step S138.
- whether or not the users of the biometric feature information are the same, for example, accepts input of personal information such as a user ID and a name that can identify the ID when performing biometric feature information acquisition processing, You may determine by comparing with ID.
- Step S137 The information generation unit 113 stores the biometric feature information generated in step S135 in the biometric feature information storage unit 141b. Thereby, the biometric feature information stored in the biometric feature information storage unit 141b is updated. Thereafter, the process ends.
- Step S138 The information generation unit 113 newly stores the biometric feature information generated in step S135 in the biometric feature information storage unit 141b. Thereby, biometric feature information is newly registered in the biometric feature information storage unit 141b. Thereafter, the process ends.
- FIG. 27 is a flowchart showing biometric feature information authentication processing according to the fifth modification of the second embodiment.
- the biometric feature information authentication process determines the direction and type of the authentication target hand, generates matching biometric feature information indicating the direction, type, and vein characteristics of the authentication target hand. This is a process of verifying by verification.
- the biometric feature information authentication process is executed, for example, when the user authenticates with a palm vein. In the following, the process illustrated in FIG. 27 will be described in order of step number.
- the information acquisition unit 111 determines that the palm is placed at a predetermined height position on the reading unit 142 based on the detection result of the distance sensor included in the living body detection unit 142a of the reading unit 142. If it is determined that the palm is placed, the information acquisition unit 111 detects a valley portion at the base of the finger, which is a direction feature portion, from an image captured by the image sensor included in the living body detection unit 142a, and based on the detected direction feature portion. Determine the direction of the hand to be authenticated.
- the type determining unit 112 determines the type (left or right) of the palm based on the direction of the hand determined in step S141.
- the information acquisition unit 111 causes the imaging unit 142b of the reading unit 142 to capture an image and acquires a biological image in which the veins of the palm are reflected.
- Step S144 The information generation unit 113 extracts features of biological information based on the biological image acquired in step S143.
- the information generation unit 113 generates biometric information indicating the feature extraction result.
- Step S145 The information generation unit 113 generates collation biometric feature information based on the angle (hand direction) determined in step S141, the type determined in step S142, and the biometric information extracted in step S144. .
- Step S146 The matching unit 114 executes biometric feature information matching processing (described later in FIG. 28) using the matching biometric feature information generated in step S145. Thereafter, the process ends.
- FIG. 28 is a flowchart illustrating biometric feature information matching processing according to the fifth modification of the second embodiment.
- the biometric feature information matching process is a process of matching verification biometric feature information to be authenticated with biometric feature information registered in advance.
- the biometric feature information matching process is executed, for example, when called by the biometric feature information authentication process. In the following, the process illustrated in FIG. 28 will be described in order of step number.
- the collation unit 114 acquires collation biometric feature information generated by the biometric feature information authentication process.
- the collation unit 114 refers to the biometric feature information storage unit 141b, and extracts biometric feature information that matches the angle (hand direction) and type of the collation biometric feature information acquired in step S151.
- the matching unit 114 extracts biometric feature information in which the angle, type, and user ID of the matching biometric feature information match from the biometric feature information storage unit 141b.
- the collation unit 114 selects one of the biometric feature information extracted in step S152, and collates the biometric information included in each of the selected biometric feature information and the collated biometric feature information. At this time, when the angle of the selected biometric feature information matches the angle of the matching biometric feature information, the matching unit 114 performs matching without correcting the biometric angle. On the other hand, when the angle of the selected biometric feature information and the angle of the matching biometric feature information do not match, matching is performed after correcting the angle of the living body so that the respective angles match.
- Step S154 The collation unit 114 determines whether or not the collation between the selected biometric feature information and the collation biometric feature information is successful as a result of the collation in step S153. If the verification is successful (step S154 YES), the process proceeds to step S155. On the other hand, if the verification fails (NO in step S154), the process proceeds to step S156.
- Step S155 The collation unit 114 executes a predetermined process when authentication is successful. Thereafter, the process returns.
- the collation unit 114 determines whether all the biometric feature information extracted in step S152 has been selected in step S153. If all have been selected (YES in step S156), the process proceeds to step S157. On the other hand, if there is an unselected item (NO in step S156), the process proceeds to step S153.
- Step S157 The collation unit 114 performs a predetermined process when authentication fails. Thereafter, the process returns.
- the fifth modification of the second embodiment as described above also has the same effect as that of the second embodiment.
- the direction of the left hand rotates by a predetermined angle (for example, 90 ° clockwise) with respect to the placement direction of the right hand.
- a predetermined angle for example, 90 ° clockwise
- biometric information generated from the biometric image acquired in the direction of the right hand, and biometric information generated from the biometric image acquired in the direction of the left hand that has a relationship rotated by a predetermined angle with respect to the right hand placement direction May not be verified due to different directions.
- the biometric feature information of the left hand generated from the biometric image is corrected by rotating it by a predetermined angle (for example, 90 ° counterclockwise), and the direction of the biometric feature information is changed. Matching makes it possible to collate.
- the predetermined angle can be set arbitrarily.
- FIG. 29 is a flowchart showing a biometric feature information acquisition / registration process according to a sixth modification of the second embodiment.
- the biometric feature information acquisition / registration processing is processing for determining the type of palm to be registered, and generating and registering biometric feature information indicating the type of palm and the characteristics of veins.
- the biometric feature information acquisition / registration process is executed, for example, when the user registers biometric feature information of a palm vein. In the following, the process illustrated in FIG. 29 will be described in order of step number.
- the information acquisition unit 111 determines that the palm is placed at a predetermined height on the reading unit 142 based on the detection result of the distance sensor included in the living body detection unit 142a of the reading unit 142. If it is determined that the palm is placed, the information acquisition unit 111 detects a valley portion at the base of the finger, which is a direction feature portion, from an image captured by the image sensor included in the living body detection unit 142a, and based on the detected direction feature portion. The direction of the registration target hand is determined.
- the type determination unit 112 determines the type (left or right) of the palm based on the direction of the hand determined in step S161.
- the information acquisition unit 111 causes the imaging unit 142b of the reading unit 142 to capture an image and acquires a biological image in which the veins of the palm are reflected.
- Step S164 The information generation unit 113 extracts features of the living body based on the living body image acquired in Step S163.
- the information generation unit 113 generates biometric information indicating the feature extraction result.
- the information generation unit 113 generates biometric feature information including the type determined in step S162, the biometric information generated in step S164, and the user ID. Moreover, the information generation part 113 correct
- the correction of the angle of the biometric information is performed by converting the biometric information generated in step S164 so that the biometric information is converted into information when rotated in the direction opposite to the angle determined in step S161. Regardless, processing is performed so that the biometric information included in the biometric feature information becomes information based on the same direction.
- the information generation unit 113 may correct the angle of the biological information before generating the biological feature information.
- the information generation unit 113 stores the biometric feature information generated in step S165 in the biometric feature information storage unit 141b. Accordingly, the biometric feature information is registered in the biometric feature information storage unit 141b. Thereafter, the process ends.
- FIG. 30 is a flowchart showing a biometric feature information authentication process according to the sixth modification of the second embodiment.
- the biometric feature information authentication process determines the type of palm to be authenticated, generates verification biometric feature information indicating the type of palm to be authenticated and the characteristics of veins, and verifies the biometric feature information registered in advance to perform authentication. It is processing to do.
- the biometric feature information authentication process is executed, for example, when the user authenticates with a palm vein. In the following, the process illustrated in FIG. 30 will be described in order of step number.
- the information acquisition unit 111 determines that the palm is placed at a predetermined height on the reading unit 142 based on the detection result of the distance sensor included in the living body detection unit 142a of the reading unit 142. If it is determined that the palm is placed, the information acquisition unit 111 detects a valley portion at the base of the finger, which is a direction feature portion, from an image captured by the image sensor included in the living body detection unit 142a, and based on the detected direction feature portion. Determine the direction of the hand to be authenticated.
- the type determination unit 112 determines the type (left or right) of the palm based on the direction of the hand determined in step S171.
- the information acquisition unit 111 causes the imaging unit 142b of the reading unit 142 to capture an image and acquires a biological image in which the veins of the palm are reflected.
- Step S174 The information generation unit 113 extracts features of the living body based on the living body image acquired in step S173.
- the information generation unit 113 generates biometric information indicating the feature extraction result.
- Step S175 The information generation unit 113 generates verification biometric feature information including the type determined in step S172 and the biometric information generated in step S174. Moreover, the information generation part 113 correct
- Step S176 The matching unit 114 executes biometric feature information matching processing (described later in FIG. 31) using the matching biometric feature information generated in step S175. Thereafter, the process ends.
- FIG. 31 is a flowchart showing a biometric feature information matching process according to the sixth modification of the second embodiment.
- the biometric feature information matching process is a process of matching verification biometric feature information to be authenticated with biometric feature information registered in advance.
- the biometric feature information matching process is executed, for example, when called by the biometric feature information authentication process. In the following, the process illustrated in FIG. 31 will be described in order of step number.
- the collation unit 114 acquires collation biometric feature information generated by the biometric feature information authentication process.
- the collation unit 114 refers to the biometric feature information storage unit 141b, and extracts biometric feature information that matches the type of collation biometric feature information acquired in step S181.
- the matching unit 114 extracts biometric feature information in which both the type of matching biometric feature information and the user ID match, from the biometric feature information storage unit 141b.
- Step S183 The collation unit 114 selects one of the biometric feature information extracted in step S182 and selects biometric information included in each of the selected biometric feature information and collation biometric feature information.
- Step S184 The collation unit 114 determines whether or not the collation between the selected biometric feature information and the collation biometric feature information is successful as a result of the collation in step S183. If the verification is successful (step S184: YES), the process proceeds to step S185. On the other hand, if the verification fails (NO in step S184), the process proceeds to step S186.
- Step S185 The collation unit 114 executes a predetermined process when authentication is successful. Thereafter, the process returns.
- the collation unit 114 determines whether all the biometric feature information extracted in step S182 has been selected in step S183. If all have been selected (YES in step S186), the process proceeds to step S187. On the other hand, if there is an unselected one (step S186 NO), the process proceeds to step S183.
- Step S187 The collation unit 114 executes a predetermined process when authentication fails. Thereafter, the process returns.
- the sixth modification of the second embodiment as described above also has the same effect as that of the second embodiment.
- FIG. 32 is a diagram illustrating an appearance of an information processing apparatus according to a seventh modification example of the second embodiment.
- An information processing apparatus 300 illustrated in FIG. 32 is a notebook personal computer to which a security function based on biometric authentication using a palm vein is added.
- the information processing apparatus 300 includes a display unit 120 having an LCD 121, a keyboard 131, and a main body unit 330 having a reading unit 342.
- Each of the display unit 120 and the main body unit 330 has a substantially rectangular parallelepiped housing having a front surface, a rear surface facing the front surface, and two side surfaces connecting them.
- the display unit 120 and the main body 330 are connected to each other near the rear surface of the main body 330 so as to be opened and closed by a hinge (not shown).
- a hinge not shown.
- the LCD 121 is a display device having a display screen for displaying characters or images.
- other thin display devices such as an organic EL display may be used as the display device.
- the keyboard 131 is an input device for inputting characters and performing other operations.
- the reading unit 342 is an input device that inputs a biological image by reading a vein of a palm by a user holding the palm.
- the reading unit 342 includes a square vein sensor that acquires a biological image of the palm vein by reading the vein of the user's palm.
- the vein sensor is arranged so that each side of the vein sensor is parallel to each side of the reading unit 342.
- the reading unit 342 is on the same top surface of the main body 330 as the keyboard 131 of the information processing apparatus 300, and each side of the square vein sensor is parallel to the front and side surfaces of the information processing apparatus 300 at the front center of the keyboard 131. Is arranged.
- the vein sensor reads vein information by scanning the reading object.
- the main scanning direction of the vein sensor is parallel to one side of the square vein sensor. Therefore, the main scanning direction of the vein sensor is parallel to one side of the reading unit 342.
- the main scanning direction of the vein sensor is the D31 direction in FIG.
- the vein sensor is arranged so that the angle formed by the main scanning direction D31 and the direction D32 in which the front surface 330a of the main body 330 extends is 90 °.
- the vein sensor is, for example, either the direction D32 of the front surface 330a of the main body 330, the arrangement direction D33 of operation keys on the keyboard 131 (longitudinal direction of the keyboard 131), or the main scanning direction D34 of the LCD 121 and the main scanning direction D31.
- the angle may be 90 °.
- the information processing apparatus 300 of the present embodiment a notebook type personal computer has been described.
- the information processing apparatus 300 is an example of an information processing apparatus, and the user authentication function of the present embodiment is not limited to a mobile phone or a PDA.
- other mobile communication terminal devices desktop personal computers, automatic teller machines for accepting and withdrawing deposits from banks, information processing system terminal devices, etc. Can be applied to.
- FIG. 33 is a diagram illustrating a biometric feature table of the seventh modification example of the second embodiment.
- the biometric feature table 141b4 illustrated in FIG. 33 is set in the biometric feature information storage unit 141b included in the information processing apparatus 300 according to the seventh modification example of the second embodiment.
- the biometric feature table 141b4 is a table for managing biometric feature information used for biometric authentication of the information processing apparatus 300.
- the biometric feature table 141b4 is provided with “number”, “ID”, “left / right”, “angle”, and “feature data” as items.
- values set in the above items are associated with each other as biometric feature information.
- the angle indicates the angle when the palm vein indicated by the biometric feature information is detected as described above.
- biometric feature information of the vein of the palm of the right hand “0” indicating 0 ° as a reference angle is set.
- biometric feature information of the vein of the palm of the left hand “90” or “180” indicating a predetermined angle rotated clockwise from the reference angle is set.
- a plurality of different angles can be set as the predetermined angle.
- the direction of the biometric feature information of the right hand and the direction of the biometric feature information of the left hand are opposite directions (180 ° rotation).
- the biometric feature information of the left hand that is opposite to the direction of the biometric feature information of the right hand and the biometric feature in which the direction of the biometric feature information of the left hand is orthogonal (rotated by 90 °) with the direction of the biometric feature information of the right hand. It can be distinguished from feature information.
- the seventh modification of the second embodiment is applicable even when there are a plurality of types of angles between the left hand direction and the right hand direction.
- FIG. 34 is a diagram illustrating a state when the vein of the palm of the right hand is read according to the seventh modification example of the second embodiment.
- FIG. 34 is a diagram of the state when the information processing apparatus 300 reads the vein of the palm of the right hand as viewed from above.
- the information processing apparatus 300 includes a display unit 120 and a main body unit 330.
- a keyboard 131 and a reading unit 342 are provided on the upper surface of the main body 330 of the information processing apparatus 300.
- the reading unit 342 is on the upper surface of the same main body 330 as the keyboard 131 of the information processing apparatus 300, and the sides of the rectangular vein sensor having a long horizontal direction are the front and side surfaces of the information processing apparatus 300 at the center in front of the keyboard 131. It is arranged in parallel with.
- a user's head 201, torso 202, upper right arm 203, right lower arm 204, and right hand palm 205 are shown.
- the user When the user causes the reading unit 342 to read the vein of the palm, as shown in FIG. 34, the user makes the palm (for example, the palm 205 of the right hand) that reads the vein parallel to the front surface of the information processing apparatus 300. And it positions so that it may become parallel to the upper surface of the main-body part 330 of the information processing apparatus 300.
- the user is a space separated from the vein sensor surface by a certain distance (for example, several centimeters) with the finger 205 of the palm of the right hand open so that the center of the palm coincides with the center of the reading unit 342. Position on top.
- the user does not need to bend the wrist between the palm 205 of the right hand and the right lower arm 204 at the time of reading, and can be made almost straight.
- each finger of the user's right hand is straightened and opened sufficiently and the four bases between the finger of the user's right hand are sufficiently spaced. Therefore, there is no twist of the horizontal plane in the palm 205 of the right hand, and a correct image can be obtained quickly and reliably. Accordingly, correct features can be detected quickly and reliably, and biometric information registration and user authentication can be performed quickly and reliably.
- the base between the fingers of the hand to detect that the palm 205 of the right hand is placed on the reading unit 342, it is possible to quickly and reliably determine the left and right hands. Further, the angle of the right wrist part of the user, the right lower arm part 204 and the upper right arm part 203 from the right wrist, the elbow between the lower right arm part 204 and the upper right arm part 203, the upper right arm part 203 and the torso part 202 There is no unreasonable posture of the right shoulder between and the user's burden can be reduced. 34, the case where the vein of the palm of the right hand of the user is read has been described. However, the present invention is not limited to this, and the same applies to the case of reading the vein of the palm of the left hand.
- FIG. 35 is a diagram illustrating detection of a direction characteristic portion of the hand according to the seventh modification example of the second embodiment.
- FIG. 35 shows the direction features of the hand direction and the biological information in the information processing apparatus 300 according to the second embodiment.
- FIG. 35A shows an acquired image 3421 of the palm of the right hand.
- FIG. 35B shows an acquired image 3422 of the palm of the left hand.
- the acquired images 3421 and 3422 are images acquired by the living body detection unit 142a of the reading unit 342.
- the acquired images 3421 and 3422 are captured by, for example, an image sensor provided in the living body detection unit 142a.
- the image acquired by the living body detection unit 142a includes a right hand detection rectangular image area 3420a for detecting the root part of the palm of the right hand palm, and a valley part of the base of the finger of the left hand palm.
- a left-hand detection rectangular image region 3420b for detecting the image is set.
- the right-hand detection rectangular image region 3420a and the left-hand detection rectangular image region 3420b are provided along two parallel sides of the acquired image.
- the valley portion at the base of the finger functions as a direction feature portion.
- the reading unit 342 When the reading unit 342 detects a palm of a user positioned above the reading unit 342 with a distance sensor (not shown) of the living body detection unit 142a, the reading unit 342 acquires a palm image using an image sensor (not shown) of the living body detection unit 142a, and acquires information. Supplied to the unit 111.
- the information acquisition unit 111 determines whether or not a valley portion at the base of the finger is detected in the right-hand detection rectangular image region 3420a or the left-hand detection rectangular image region 3420b set in the acquired image.
- the palm image acquisition by the image sensor here is performed without being irradiated with near-infrared light from the light source unit 142c.
- the image acquired here is not an image of the vein of the palm but an image of the appearance of the palm.
- this detection process is performed for the position where the right hand detection rectangular image area 3420a or the left hand detection rectangular image area 3420b is set in the image of the appearance of the palm.
- the information acquisition unit 111 includes the right hand detection rectangular image region 3420a and the left hand detection rectangular image region 3420b in the valley portion of the base of the finger. It is determined whether or not a certain direction feature portion exists. For example, if the image is an acquired image 3421 as shown in FIG. 35A, the direction feature portion 3421a1 exists in the right-hand detection rectangular image region 3420a, but not in the left-hand detection rectangular image region 3420b. It is determined that the palm is located at an angle of “0 °”. As a result, the information processing apparatus 300 determines that the acquired image is an image of the vein of the palm of the right hand.
- the information processing apparatus 300 determines that the acquired image is an image of the vein of the palm of the left hand.
- the reading unit 342 acquires an image of the direction feature portion in the palm.
- the information acquisition unit 111 determines the angle of the palm based on the presence or absence of the direction feature portion of the right-hand detection rectangular image region or the left-hand detection rectangular image region.
- the type determination unit 112 determines the type of the palm arranged on the reading unit 342 (one of the left and right hands) based on the determined palm angle.
- the acquired image for detecting the direction feature portion illustrated in FIGS. 35A and 35B may be an image captured by the imaging unit 142b.
- the detection of the direction feature portion in the seventh modification of the second embodiment that is, the valley portion of the base of the finger, for example, the valley portion of the base of the index finger and the middle finger, the valley portion of the base of the middle finger and ring finger, the ring finger and the little finger What is necessary is just to detect based on that all or at least one part combination of the valley part of the root of this is open at predetermined intervals.
- the detection of the valley portion at the base of the finger may be realized by the position of the base of each finger in the palm acquired image acquired by the living body detection unit 142a and the contour identification between the base of the finger. Good.
- the seventh modification of the second embodiment as described above also has the same effect as that of the second embodiment.
- an eighth modification of the second embodiment will be described. Differences from the second embodiment will be mainly described, and description of similar matters will be omitted.
- the position of the reading unit is deviated from the center line of the main body, and the directions of the left and right living bodies (hands) are on each side of the main body.
- the second embodiment differs from the second embodiment in that it intersects at a predetermined angle other than orthogonal or parallel.
- FIG. 36 is a diagram illustrating an appearance of an information processing apparatus according to an eighth modification of the second embodiment.
- An information processing apparatus 400 illustrated in FIG. 36 is a notebook personal computer to which a security function based on biometric authentication using a palm vein is added.
- the information processing apparatus 400 includes a display unit 120 having an LCD 121, a keyboard 131, and a main body unit 430 having a reading unit 442.
- the LCD 121 is a display device having a display screen for displaying characters or images.
- other thin display devices such as an organic EL display may be used as the display device.
- the keyboard 131 is an input device for inputting characters and performing other operations.
- the reading unit 442 is an input device that inputs a biometric image by reading a vein of a palm by the user holding the palm.
- the reading unit 442 includes a square vein sensor that acquires a biological image of a palm vein by reading the vein of the palm of the user.
- the vein sensor is arranged so that each side of the vein sensor is parallel to each side of the reading unit 442.
- the reading unit 442 is on the same top surface of the main body 430 as the keyboard 131 of the information processing apparatus 400, and in front of the keyboard 131 and on the left side, one side of the square vein sensor is located on the side of the main body 430.
- the other side is inclined at 65 ° with respect to the front surface of the main body 430.
- the reading unit 442 is provided on the upper surface of the main body 430 and on the left side. It may be provided. In addition, the main body 430 may be provided at an arbitrary angle with respect to the front surface and the side surface.
- the vein sensor reads vein information by scanning the reading object.
- the main scanning direction of the vein sensor is parallel to one side of the square vein sensor. Therefore, the main scanning direction of the vein sensor is parallel to one side of the reading unit 442.
- the main scanning direction of the vein sensor is the D41 direction in FIG.
- the vein sensor is arranged such that an angle formed between the main scanning direction D41 and the direction D42 in which the front surface 430a of the main body 430 extends is 65 °.
- the vein sensor is, for example, either the direction D42 of the front surface 430a of the main body 430, the operation key arrangement direction D43 (the longitudinal direction of the keyboard 131) on the keyboard 131, or the main scanning direction D44 of the LCD 121 and the main scanning direction D41.
- the angle may be 65 °.
- the notebook type personal computer has been described.
- the information processing apparatus 400 is an example of the information processing apparatus, and the user authentication function according to the present embodiment can be applied to a mobile phone or a PDA.
- other mobile communication terminal devices desktop personal computers, automatic teller machines for accepting and withdrawing deposits from banks, information processing system terminal devices, etc. Can be applied to.
- FIG. 37 is a diagram showing a state at the time of reading the vein of the palm of the right hand according to the eighth modified example of the second embodiment.
- FIG. 37 is a diagram of the state when the information processing apparatus 400 reads the vein of the palm of the right hand as viewed from above.
- the information processing apparatus 400 includes a display unit 120 and a main body unit 430.
- a keyboard 131 and a reading unit 442 are provided on the upper surface of the main body 430 of the information processing apparatus 400.
- a user's head 201, torso 202, upper right arm 203, right lower arm 204, and right hand palm 205 are shown.
- the user When the user causes the reading unit 442 to read the vein of the palm 205 of the right hand, the user holds the palm 205 of the right hand with a predetermined angle with respect to the front surface of the information processing apparatus 400 as shown in FIG.
- the main body portion 430 of 400 is positioned so as to be parallel to the upper surface.
- the user is a space separated from the vein sensor surface by a certain distance (for example, several centimeters) with the palm of the right hand 205 open with the finger open so that the center of the palm coincides with the center of the reading unit 442. Position on top. As shown in FIG.
- the reading unit 442 since the reading unit 442 is installed on the left side of the main body unit 430, the user's right arm (upper right arm unit 203, right lower arm unit 204) is compared with the second embodiment.
- the body portion 202 is bent toward the body portion 202 and is located near the body portion 202.
- the user does not need to bend the wrist between the palm 205 of the right hand and the right lower arm 204 at the time of reading, and can be made almost straight.
- each finger of the user's right hand is straightened and opened sufficiently and the four bases between the finger of the user's right hand are sufficiently spaced. Therefore, there is no twist of the horizontal plane in the palm 205 of the right hand, and a correct image can be obtained quickly and reliably. Accordingly, correct features can be detected quickly and reliably, and biometric information registration and user authentication can be performed quickly and reliably.
- the detection can be performed without any problem. Further, the angle of the right wrist part of the user, the right lower arm part 204 and the upper right arm part 203 from the right wrist, the elbow between the lower right arm part 204 and the upper right arm part 203, the upper right arm part 203 and the torso part 202 There is no unreasonable posture of the right shoulder between and the user's burden can be reduced.
- FIG. 38 is a diagram illustrating a state when the vein of the palm of the left hand is read according to the eighth modification example of the second embodiment.
- FIG. 38 is a diagram of the state when the information processing apparatus 400 reads the vein of the palm of the left hand as viewed from above.
- the information processing apparatus 400 includes a display unit 120 and a main body unit 430.
- a keyboard 131 and a reading unit 442 are provided on the upper surface of the main body 430 of the information processing apparatus 400.
- a user's head 201, torso 202, left upper arm 206, left lower arm 207, and left hand palm 208 are shown.
- the user When the user causes the reading unit 442 to read the vein of the palm 208 of the left hand, the user holds the palm 208 of the left hand that reads the vein at a predetermined angle with respect to the front surface of the information processing apparatus 400 as shown in FIG. And it arrange
- FIG. At this time, the user is a space separated from the vein sensor surface by a certain distance (for example, several centimeters) with the palm 208 of the left hand open so that the center of the palm coincides with the center of the reading unit 442. Position on top. As shown in FIG.
- the user's left arm (left upper arm unit 206, left lower arm unit 207) is the same as in the second embodiment or FIG. Compared to the case of the palm of the right hand described above, it is in a stretched state and is located far from the body portion 202. The user does not need to twist the wrist between the palm 208 of the left hand and the left lower arm 207 at the time of reading, and can be made almost straight. Along with this, each finger of the user's left hand is straightened and opened sufficiently, and the four bases between the finger of the user's left hand are sufficiently spaced. Therefore, the palm 208 of the left hand has no horizontal twist, and a correct image can be obtained quickly and reliably. Accordingly, correct features can be detected quickly and reliably, and biometric information registration and user authentication can be performed quickly and reliably.
- the left and right hands can be determined quickly and reliably. Also, the angle of the user's left wrist, the left wrist to the left lower arm 207 and the left upper arm 206, the elbow between the left lower arm 207 and the left upper arm 206, and between the left upper arm 206 and the torso 202 There is no unreasonable posture of the left shoulder, and the burden on the user can be reduced.
- the eighth modification of the second embodiment as described above also provides the same effects as those of the second embodiment.
- a third embodiment will be described. Differences from the second embodiment will be mainly described, and description of similar matters will be omitted.
- the information processing apparatus according to the third embodiment is different from the second embodiment in that the biological information is feature information about the finger vein.
- FIG. 39 is a block diagram illustrating an information processing apparatus according to the third embodiment.
- the information processing apparatus 500 according to the third embodiment includes an information acquisition unit 511, a type determination unit 512, an information generation unit 513, a collation unit 514, and a biometric feature information storage unit 541b.
- a reading unit 542 is connected to the information acquisition unit 511.
- the information acquisition unit 511 acquires a biometric image of a person to be authenticated such as a user of the information processing apparatus 500.
- the information acquisition unit 511 can acquire the direction of the living body in a state where the biological image is acquired.
- the biological image acquired by the information acquisition unit 511 is image information of a finger vein pattern.
- the direction of the living body is two orthogonal different directions based on the left and right of the hand.
- the information processing apparatus 500 includes a guide that indicates the direction of a finger to be read. Details of the guide will be described later.
- the reading unit 542 is fixed to the upper part of the information processing apparatus 500.
- the reading unit 542 includes the living body detection unit 142a, the imaging unit 142b, and the light source unit 142c illustrated in FIG.
- the information acquisition unit 511 determines that the living body is arranged at a predetermined distance from the reading unit 542 and the direction of the living body with respect to the reading unit 542 based on the detection result by the living body detection unit 142a of the reading unit 542.
- the information acquisition unit 511 determines the direction of the living body by determining the position of the direction feature portion in the living body from the image obtained by the living body detection unit 142a of the reading unit 542.
- the directions are orthogonal to each other, and the angle with the keyboard 131 is an oblique angle.
- the direction feature portion is a valley portion at the base of the finger in the palm.
- the information acquisition unit 511 acquires a biological image obtained by imaging a living body by the imaging unit 142b of the reading unit 542.
- the information acquisition unit 511 receives an input of the finger type (thumb, forefinger, middle finger, ring finger, and little finger distinction) from which the biometric information of the vein is acquired by the user.
- the type determination unit 512 determines the type of biometric information based on the direction of the biometric acquired by the information acquisition unit 511. The type indicates the left and right of the hand that is the basis for generating biometric information.
- the information generation unit 513 generates biological information indicating the characteristics of the living body based on the living body image acquired by the information acquisition unit 511.
- the information generation unit 513 generates verification biometric feature information including the generated biometric information and the type of biometric information determined by the type determination unit 512. Thereby, the biometric information and type of the user who collates the biometric information for authentication are shown.
- the information generation unit 513 includes, for example, the biological information acquired by the information generation unit 513, the type of biological information determined by the type determination unit 512, and the type of finger received by the information acquisition unit 511 (thumb, index finger, Biometric feature information including a middle finger, a ring finger, and a little finger) and identification information for identifying an individual corresponding to the biometric information is generated and stored in the biometric feature information storage unit 541b.
- the biometric information indicating the biometric information and the type and the type of the finger of the user who has a normal authority registered in advance for use in authentication is registered.
- the information generating unit 513 stores the generated biometric feature information in the biometric feature information storage unit 541b.
- the verification unit 514 performs authentication using the verification biometric feature information generated by the information generation unit 513.
- the collation unit 514 extracts biometric feature information whose type matches the collation biometric feature information, and collates based on the biometric information of the collation biometric feature information and the extracted biometric feature information. Thereby, the information processing apparatus 500 performs biometric authentication of the user based on the collation result. Since collation is performed by limiting the collation targets to those of the same type, an increase in time and load required for the collation process can be suppressed.
- the biometric feature information storage unit 541b stores biometric feature information indicating the biometric information, the type of biometric information, and the type of finger. As a result, the user's biometric information, type, and finger type are stored in association with each other.
- FIG. 40 is a diagram illustrating a reading unit according to the third embodiment.
- a reading unit 542 illustrated in FIG. 40 is an input device that allows a user to read a vein of a finger and input a biological image.
- the reading unit 542 includes a vein sensor that acquires a biological image of a finger vein by reading the vein of the user's finger.
- the reading unit 542 has a square shape and is inclined by 45 °.
- a cross-shaped guide 542 a having sides (side A and side B) parallel to the sides of the reading unit 542 is provided on the upper surface of the reading unit 542.
- the side A of the guide 542a is inclined 45 ° to the left when viewed from the front of the information processing apparatus 500.
- the side B of the guide 542a is inclined 45 ° to the right when viewed from the front of the information processing apparatus 500.
- the user positions a finger for acquiring a biological image along one of the cross-shaped sides of the guide 542a. That is, the user positions the finger to be acquired along the side A when the information processing apparatus 500 acquires a biological image of the vein of one finger of the right hand. Further, when the user causes the information processing apparatus 500 to acquire a biological image of a vein of one finger of the left hand, the user positions the finger to be acquired along the side B. This allows the user to acquire a natural image of the right hand finger biometric image and the left hand biometric image of the user in a natural and easy posture, and the information processing apparatus 500 is also an acquisition target. It is possible to determine whether the finger is the finger of the right hand or the finger of the left hand.
- Finger veins are difficult to counterfeit because they are in-vivo information, and are highly applicable because they are not affected by body surface such as rough hands, dryness, and wetness. Further, since it is non-contact, hygienic and natural operability is realized, user resistance is low, and high-speed authentication is possible.
- the reading unit 542 may read a fingerprint. Further, the reading unit 542 is not limited to a square shape, and may have any shape.
- the information processing apparatus 500 it is automatically determined whether the vein is that of the finger of the right hand or the finger of the left hand.
- the distinction between the thumb, the index finger, the middle finger, the ring finger, and the little finger of each of the right hand and the left hand is determined based on a user input when obtaining biometric information.
- a biometric image of a finger vein is acquired in response to the user positioning the finger to be acquired on a space separated from the vein sensor surface by a certain distance (for example, several centimeters).
- FIG. 41 is a diagram illustrating a biometric feature table according to the third embodiment.
- the biometric feature table 541b1 illustrated in FIG. 41 is set in the biometric feature information storage unit 541b included in the information processing apparatus 500 according to the third embodiment.
- the biometric feature table 541b1 is a table for managing biometric feature information used for biometric authentication of the information processing apparatus 500.
- the biometric feature table 541b1 includes “number”, “ID”, “left / right”, “finger type”, and “feature data” as items. In the biometric feature table 541b1, values set in the above items are associated with each other as biometric feature information.
- Left and right indicate whether the biometric feature information is for the right or left finger. “Right” is set for the biometric feature information of the vein of any finger of the right hand. “Left” is set for the biometric feature information of the vein of any finger of the left hand.
- the finger type indicates the type of finger indicated by the biometric feature information.
- “1” is set.
- “2” is set for the biometric feature information of the index finger vein.
- “3” is set for the biometric feature information of the middle finger vein.
- “4” is set for the biometric feature information of the vein of the ring finger.
- “5” is set for the biometric feature information of the vein of the little finger.
- the left and right indicate types in the biometric feature information.
- biometric feature table 541b1 shown in FIG. 41 is an example, and any item can be set in the biometric feature table.
- an item of an angle indicating the left and right as angles for example, “0 ° for the right hand and“ 90 ° ”for the left hand
- an angle item may be provided instead of the left and right items.
- FIG. 42 is a diagram illustrating a state at the time of reading the vein of the index finger of the right hand according to the third embodiment.
- FIG. 42 is a diagram of the state when the information processing apparatus 500 reads the vein of the index finger of the right hand as viewed from above.
- the information processing apparatus 500 includes a display unit 120 and a main body unit 530.
- a keyboard 131 and a reading unit 542 are provided on the upper surface of the main body 530 of the information processing apparatus 500.
- the reading unit 542 is on the same top surface of the main body 530 as the keyboard 131 of the information processing apparatus 500, and each side of a square vein sensor having a cross-shaped guide 542 a is located at the front center of the keyboard 131.
- the little finger 205e is shown.
- the user moves the finger for reading the vein (for example, the index finger 205b of the right hand) to the left of the side surface of the information processing apparatus 500 as illustrated in FIG. It is positioned so as to be parallel to the upper surface of the main body 530 of the information processing apparatus 500 at an angle of 45 °.
- the user opens the right hand finger so that the center line of the index finger 205b of the right hand to be read coincides with the center line of one side of the cross shape of the reading unit 542 (dotted line AA in FIG. 40).
- the finger is positioned in a space separated from the vein sensor surface by a certain distance (for example, several centimeters).
- the user does not need to bend the wrist between the palm 205 of the right hand and the right lower arm 204 at the time of reading, and can be made almost straight.
- each finger of the user's right hand is straightened and opened sufficiently and the four bases between the finger of the user's right hand are sufficiently spaced. Therefore, there is no twist of the horizontal plane in the palm 205 of the right hand, and a correct image can be obtained quickly and reliably with respect to the direction feature portion. Therefore, the right hand or left hand can be determined quickly and reliably, and biometric information registration and user authentication can be performed quickly and reliably.
- the angle of the right wrist part of the user, the right lower arm part 204 and the upper right arm part 203 from the right wrist, the elbow between the lower right arm part 204 and the upper right arm part 203, the upper right arm part 203 and the torso part 202 There is no unreasonable posture of the right shoulder between and the user's burden can be reduced. 42, the case where the vein of the index finger of the right hand of the user is read has been described. However, the present invention is not limited to this, and the same applies to the case of reading the vein of the finger other than the index finger of the right hand and the finger of the left hand. Yes, the description is omitted.
- each finger of the user's right hand is located in a space that is a certain distance away from the vein sensor surface together with the palm 205 of the right hand, so that the finger or palm touches the keyboard 131 or other operation unit to cause an erroneous operation. This can be suppressed.
- FIG. 43 is a diagram illustrating detection of a direction characteristic portion of a finger according to the third embodiment.
- FIG. 43 shows left and right hand and directional features of the living body in the information processing apparatus 500 according to the third embodiment.
- FIG. 43A shows an acquired image 5421 of the right hand finger.
- FIG. 43B shows an acquired image 5422 of the finger vein of the left hand.
- the acquired images 5421 and 5422 are images acquired by the living body detection unit 142a of the reading unit 542.
- the acquired images 5421 and 5422 are captured by, for example, an image sensor included in the living body detection unit 142a.
- the upper side in FIG. 43 is the back side when viewed from the front of the information processing apparatus 500
- the lower side in FIG. 43 is the front side when viewed from the front of the information processing apparatus 500
- the right side in FIG. 43 is the right side when viewed from the front of the information processing apparatus 500
- the left side in FIG. 43 is the left side when viewed from the front of the information processing apparatus 500.
- the image acquired by the living body detection unit 142a includes a right hand detection rectangular image region 5420a for detecting a valley portion of the base of the palm of the right hand palm along the lower right side, and a lower left side.
- a left hand detection rectangular image region 5420b for detecting a valley portion at the base of the finger of the palm of the left hand is set.
- the right-hand detection rectangular image region 5420a and the left-hand detection rectangular image region 5420b are provided along two sides that are orthogonal to each other in the acquired image.
- the valley portion at the base of the finger functions as a direction feature portion.
- the reading unit 542 When the reading unit 542 detects a finger of a user's hand located above the reading unit 542 with a distance sensor (not shown) of the living body detection unit 142a, the reading unit 542 acquires an image of the finger of the hand with an image sensor (not shown) of the living body detection unit 142a. To the information acquisition unit 511. The information acquisition unit 511 determines whether a valley portion at the base of the finger is detected in the right-hand detection rectangular image region 5420a or the left-hand detection rectangular image region 5420b set in the acquired image. The image acquisition of the finger by the image sensor here is performed without being irradiated with near-infrared light from the light source unit 142c.
- the image acquired here is not an image of a finger vein but an image of the appearance of the finger.
- this detection processing is performed for the position where the right hand detection rectangular image region 5420a or the left hand detection rectangular image region 5420b is set in the image of the appearance of the finger.
- the information acquisition unit 511 is in the valley portion of the base of the finger in the rectangular image region 5420a for right hand detection or the rectangular image region 5420b for left hand detection. It is determined whether or not a certain direction feature portion exists. For example, in the case of an acquired image 5421 as shown in FIG. 43A, the direction feature portion 5421a1 exists in the right-hand detection rectangular image region 5420a, but does not exist in the left-hand detection rectangular image region 5420b. , It is determined to be located at an angle of “0 °”. Thereby, the information processing apparatus 500 determines that the acquired image is an image of the finger of the right hand.
- the direction feature portion 5422b1 exists in the left-hand detection rectangular image region 5420b, but does not exist in the right-hand detection rectangular image region 5420a. It is determined that the palm is positioned at an angle of “90 °” clockwise. As a result, the information processing apparatus 500 determines that the acquired image is an image of the finger of the left hand.
- the reading unit 542 acquires an image of the direction feature portion at the base of the finger.
- the information acquisition unit 511 determines the angle of the hand based on the presence or absence of the direction feature portion of the right hand detection rectangular image region or the left hand detection rectangular image region.
- the information acquisition unit 511 determines the type of finger (right finger or left hand finger) in the acquired image based on the determined hand angle. In the following description of the third embodiment, the information indicated by the finger type is described as “hand left and right”.
- the acquired image for detecting the direction feature portion illustrated in FIGS. 43A and 43B may be an image captured by the imaging unit 142b.
- the detection of the direction feature portion in the third embodiment that is, the valley portion of the base of the finger, for example, the valley portion of the base of the index finger and the middle finger, the valley portion of the base of the middle finger and the ring finger, the valley portion of the base of the ring finger and the little finger All or at least some combinations may be detected based on being open at a predetermined interval.
- the detection of the valley portion of the base of the finger may be realized by the position of the base of each finger in the acquired image of the finger acquired by the living body detection unit 142a and the contour identification between the base of the finger. Good.
- FIG. 44 is a flowchart illustrating the biometric feature information acquisition registration process according to the third embodiment.
- the biometric feature information acquisition / registration process is a process for determining the type of finger to be registered, and generating and registering biometric feature information indicating the type of finger (left and right of the hand), the type of finger, and the characteristics of veins.
- the biometric feature information acquisition / registration process is executed, for example, when the user registers biometric feature information of a finger vein. In the following, the process illustrated in FIG. 44 will be described in order of step number.
- the information acquisition unit 511 receives an input of a finger type from which a biometric information of veins is acquired by the user.
- the information acquisition unit 511 determines that the finger is placed at a predetermined height on the reading unit 542 based on the detection result of the distance sensor included in the living body detection unit 142a of the reading unit 542. If it is determined that a finger is placed, the information acquisition unit 511 detects a valley portion at the base of the finger, which is a direction feature portion, from a captured image by the image sensor provided in the living body detection unit 142a, and based on the detected direction feature portion. The direction of the finger to be registered is determined.
- the type of finger is specified based on the user's input, and the direction feature portion is used to determine the left and right of the hand.
- the type determination unit 512 determines the type of finger (left and right of the hand) based on the direction of the finger determined in step S192.
- the information acquisition unit 511 causes the imaging unit 142b of the reading unit 542 to capture an image and acquires a biological image in which a finger vein is reflected.
- Step S195 The information generation unit 513 extracts features of the living body based on the living body image acquired in step S194.
- the information generation unit 513 generates biometric information indicating the feature extraction result.
- the information generation unit 513 generates biometric feature information including the type determined in step S193, the type of finger received in step S191, the biometric information generated in step S195, and the user ID. To do.
- the information generation unit 513 stores the biometric feature information generated in step S196 in the biometric feature information storage unit 541b. Thereby, the biometric feature information is registered in the biometric feature information storage unit 541b. Thereafter, the process ends.
- FIG. 45 is a flowchart illustrating biometric feature information authentication processing according to the third embodiment.
- the biometric feature information authentication process is a process for determining the type of the finger to be authenticated, generating collation biometric information indicating the characteristics of the vein of the finger to be authenticated, and performing authentication by collating with the biometric feature information registered in advance. It is.
- the collation biometric feature information is data having the same configuration as that of the biometric feature information, and indicates the feature of the authentication target user's biometric (in the third embodiment, the finger vein).
- the biometric feature information authentication process is executed, for example, when the user authenticates with a finger vein. In the following, the process illustrated in FIG. 45 will be described in order of step number.
- the information acquisition unit 511 determines that the finger is placed at a predetermined height on the reading unit 542 based on the detection result of the distance sensor included in the living body detection unit 142a of the reading unit 542. If it is determined that a finger is placed, the information acquisition unit 511 detects a valley portion at the base of the finger, which is a direction feature portion, from a captured image by the image sensor provided in the living body detection unit 142a, and based on the detected direction feature portion. The direction of the finger to be authenticated is determined.
- the type determination unit 512 determines the type of finger (left and right of the hand) based on the direction of the finger determined in step S201.
- the information acquisition unit 511 causes the imaging unit 142b of the reading unit 542 to capture an image and acquires a biological image in which a finger vein is reflected.
- Step S204 The information generation unit 513 extracts a feature of the living body based on the living body image acquired in step S203.
- the information generation unit 513 generates biometric information indicating the feature extraction result.
- the information generation unit 513 generates verification biometric feature information including the type determined in step S202 and the biometric information generated in step S204.
- the matching unit 514 performs biometric feature information matching processing (described later in FIG. 46) using the matching biometric feature information generated in step S205. Thereafter, the process ends.
- FIG. 46 is a flowchart illustrating the biometric feature information matching process according to the third embodiment.
- the biometric feature information matching process is a process of matching verification biometric feature information to be authenticated with biometric feature information registered in advance.
- the biometric feature information matching process is executed, for example, when called by the biometric feature information authentication process. In the following, the process illustrated in FIG. 46 will be described in order of step number.
- the collation unit 514 acquires collation biometric feature information generated by the biometric feature information authentication process.
- the collation unit 514 refers to the biometric feature information storage unit 541b and extracts biometric feature information that matches the type (left and right) of the collation biometric feature information acquired in step S211.
- the matching unit 514 extracts biometric feature information in which both the type of matching biometric feature information and the user ID match, from the biometric feature information storage unit 541b.
- the collation unit 514 selects one of the biometric feature information extracted in step S212, and collates the biometric information included in each of the selected biometric feature information and the collated biometric feature information.
- Step S214 The collation unit 514 determines whether or not the collation between the selected biometric feature information and the collation biometric feature information is successful as a result of the collation in step S213. If the verification is successful (step S214: YES), the process proceeds to step S215. On the other hand, if the verification fails (step S214: NO), the process proceeds to step S216.
- Step S215 The collation unit 514 executes predetermined processing when authentication is successful. Thereafter, the process returns.
- Step S216 The collation unit 514 determines whether all the biometric feature information extracted in Step S212 has been selected in Step S213. If all have been selected (YES in step S216), the process proceeds to step S217. On the other hand, if there is an unselected item (NO in step S216), the process proceeds to step S213.
- FIG. 47 is a diagram illustrating a message window at the time of registration according to the third embodiment.
- a message window 121b illustrated in FIG. 47 is an example of a window displayed on the display screen of the LCD 121 included in the information processing apparatus 500.
- the message window 121b a message and an image for notifying the user that biometric feature information has been successfully registered based on the read finger are displayed.
- the message window 121b for example, a message “Registration of the index finger of the right hand succeeded” and a biological image showing the vein of the index finger of the right hand imaged at the time of registration are displayed.
- the message window 121b has an OK button 121b1.
- the OK button 121b1 is a button for ending display of the message window 121b.
- the user confirms the display contents of the message window 121b, the user can end the display of the message window 121b by operating the OK button 121b1.
- the third embodiment it is possible to determine whether the finger is the right hand or the left hand according to the angle of the living body when acquiring the biological information about the vein of the finger. It becomes possible.
- the biometric image can be acquired in a plurality of directions in the reading unit 542, the degree of freedom of the user's posture when acquiring the biometric information is increased, and the burden on the user's shoulder, arm, and wrist joint can be suppressed. it can.
- biometric feature information storage unit 541b By previously classifying and registering biometric feature information according to type (left and right hand) and finger type, one piece of biometric feature information and a plurality of pieces of biometric feature information stored in the biometric feature information storage unit 541b Can be narrowed down based on the type. For this reason, it is possible to suppress an increase in authentication processing load and processing speed.
- FIG. 48 is a block diagram illustrating an information processing apparatus according to the fourth embodiment.
- An information processing apparatus 600 according to the fourth embodiment includes an information acquisition unit 611, a type determination unit 612, an information generation unit 613, a collation unit 614, and a biometric feature information storage unit 641b.
- a reading unit 642 is connected to the information acquisition unit 611.
- the information acquisition unit 611 acquires a biometric image of a person to be authenticated such as a user of the information processing apparatus 600.
- the information acquisition unit 611 can acquire the direction of the living body in a state where the biological image is acquired.
- the biological image acquired by the information acquisition unit 611 is image information of a plurality of types of finger vein patterns.
- the direction of the living body is a direction in which two orthogonal different directions based on the left and right of the hand and the directions of the fingers are combined.
- the information processing apparatus 600 includes a guide that indicates a direction corresponding to each of a plurality of types of fingers to be read.
- the reading unit 642 is fixed to the upper part of the information processing apparatus 600.
- the reading unit 642 includes the living body detection unit 142a, the imaging unit 142b, and the light source unit 142c illustrated in FIG.
- the information acquisition unit 611 determines that the living body is disposed at a predetermined distance from the reading unit 642 and the direction of the living body with respect to the reading unit 642 based on the detection result by the living body detection unit 142a of the reading unit 642.
- the information acquisition unit 611 determines the direction of the living body by determining the position of the direction feature portion in the living body from the image obtained by the living body detection unit 142a of the reading unit 642.
- the directions of the left and right hands to be placed are orthogonal to each other and the angle with the keyboard 131 is an oblique angle. Further, the direction of each finger is a predetermined direction with respect to the direction of the hand. The direction characteristic portion is a valley portion at the base of the finger in the palm of the finger to be read.
- the information acquisition unit 611 acquires a biological image in which a living body is captured by the imaging unit 142b of the reading unit 642.
- the type determination unit 612 determines the type of biometric information based on the direction of the biometric acquired by the information acquisition unit 611. The type indicates the left and right hand and finger type that are the basis for generating biometric information.
- the information generation unit 613 generates biological information indicating the characteristics of the living body based on the living body image acquired by the information acquisition unit 611.
- the information generation unit 613 generates collation biometric feature information including the generated biometric information and the type of biometric information determined by the type determination unit 612. Thereby, the biometric information and type of the user who collates the biometric information for authentication are shown.
- the information generation unit 613 includes, for example, biological features including the biological information acquired by the information generation unit 613, the type of biological information determined by the type determination unit 612, and identification information that identifies an individual corresponding to the biological information. Information is generated and stored in the biometric feature information storage unit 641b.
- biometric feature information indicating the biometric information and type of a user who has a normal authority registered in advance and is used for authentication is registered.
- the type includes information indicating whether the finger is the right hand or the left hand, and information indicating whether the thumb, index finger, middle finger, ring finger, or little finger.
- the contents indicated by the former are described as “left and right hands”, and the contents indicated by the latter are described as “finger types”.
- the information generation unit 613 stores the generated biometric feature information in the biometric feature information storage unit 641b when registering the biometric information of the user. Further, at the time of authentication using the user's biometric information, the verification unit 614 performs authentication using the verification biometric feature information generated by the information generation unit 613.
- the collation unit 614 extracts biometric feature information whose type matches the collation biometric feature information, and collates based on the biometric information of the collation biometric feature information and the extracted biometric feature information. Thereby, the information processing apparatus 600 performs biometric authentication of the user based on the collation result. Since collation is performed by limiting the collation targets to those of the same type, an increase in time and load required for the collation process can be suppressed.
- the type indicates the right and left of the hand and the type of finger.
- the biometric feature information storage unit 641b stores biometric feature information indicating the biometric information and the type of the biometric information. Thereby, a user's biometric information and a classification are matched and memorize
- FIG. 49 is a diagram illustrating a reading unit according to the fourth embodiment.
- a reading unit 642 illustrated in FIG. 49 is an input device that allows a user to read a vein of a finger and input a biological image.
- the reading unit 642 includes a vein sensor that acquires biological information of the finger vein by reading the vein of the user's finger.
- the reading unit 642 has a square shape and is inclined by 45 °.
- guides 642c, 642d1, 642d2, 642e1, 642e2, 642f1, 642f2, 642g1, 642g2, 642h1, 642h2, 642i1, 642i2, 642j1, 642j2, 642k1, 642k2, 642l are provided.
- a guide 642m is provided in the center of the reading unit 642.
- the direction C connecting the guide 642c and the guide 642m is set to have a predetermined angle (for example, 180 °) clockwise with respect to the left-right direction toward the information processing apparatus 600.
- a direction D connecting the guide 642d1 and the guide 642d2 is set to have a predetermined angle (for example, 150 °) clockwise with respect to the left-right direction toward the information processing apparatus 600.
- a direction E connecting the guide 642e1 and the guide 642e2 is set to have a predetermined angle (for example, 135 °) clockwise with respect to the left-right direction toward the information processing apparatus 600.
- a direction F connecting the guide 642f1 and the guide 642f2 is set to have a predetermined angle (for example, 120 °) clockwise with respect to the left-right direction toward the information processing apparatus 600.
- a direction G connecting the guide 642g1 and the guide 642g2 is set to have a predetermined angle (for example, 105 °) clockwise with respect to the left-right direction toward the information processing apparatus 600.
- a direction H connecting the guide 642h1 and the guide 642h2 is set to have a predetermined angle (for example, 75 °) clockwise with respect to the left-right direction toward the information processing apparatus 600.
- a direction I connecting the guide 642i1 and the guide 642i2 is set to have a predetermined angle (for example, 60 °) clockwise with respect to the left-right direction toward the information processing apparatus 600.
- a direction J connecting the guide 642j1 and the guide 642j2 is set to have a predetermined angle (for example, 45 °) clockwise with respect to the left-right direction toward the information processing apparatus 600.
- a direction K connecting the guide 642k1 and the guide 642k2 is set to have a predetermined angle (for example, 30 °) clockwise with respect to the left-right direction toward the information processing apparatus 600.
- a direction L connecting the guides 642l and 642m is set to have a predetermined angle (for example, 0 °) clockwise with respect to the left-right direction toward the information processing apparatus 600.
- each guide corresponds to the type of finger. That is, the guide 642c and the guide 642m correspond to the thumb of the left hand.
- the guide 642d1 and the guide 642d2 correspond to the left index finger.
- the guide 642e1 and the guide 642e2 correspond to the middle finger of the left hand.
- Guide 642f1 and guide 642f2 correspond to the ring finger of the left hand.
- the guide 642g1 and the guide 642g2 correspond to the little finger of the left hand.
- the guide 642h1 and the guide 642h2 correspond to the little finger of the right hand.
- the guide 642i1 and the guide 642i2 correspond to the ring finger of the right hand.
- the guide 642j1 and the guide 642j2 correspond to the middle finger of the right hand.
- the guide 642k1 and the guide 642k2 correspond to the index finger of the right hand.
- the guide 642l and the guide 642m correspond to the thumb of the right hand.
- the user places a finger for acquiring biometric information between any of the above guide combinations. That is, when the user causes the information processing apparatus 600 to acquire the biological information of the vein of the right index finger, the user moves the belly of the index finger of the right hand, which is the acquisition target, along the direction K between the guide 642k1 and the guide 642k2. Position. The same applies to the other fingers, and a description thereof will be omitted. Thereby, when acquiring biometric information of a finger for a user, it can be acquired in a natural and easy posture, and the information processing apparatus 600 also depends on which direction the finger vein is along in the acquired image. It is possible to determine whether the acquisition target finger is a right-hand finger or a left-hand finger, and which type.
- the reading unit 642 may read a fingerprint.
- the reading unit 642 is not limited to a square shape, and can have any shape.
- the finger to be acquired is placed on the right hand based on the side opposite to the side with the valley portion of the base of the finger that is the direction feature portion. Whether the finger is a finger or a left hand and the kind of the finger is determined. Further, in the information processing apparatus 600, a biometric image of a finger vein is acquired when the user places the acquisition target finger on a space separated from the vein sensor surface by a certain distance (for example, several cm).
- FIG. 50 is a diagram illustrating a biometric feature table according to the fourth embodiment.
- the biometric feature table 641b1 illustrated in FIG. 50 is set in the biometric feature information storage unit 641b included in the information processing apparatus 600 according to the fourth embodiment.
- the biometric feature table 641b1 is a table for managing biometric feature information used for biometric authentication of the information processing apparatus 600.
- the biometric feature table 641b1 is provided with “number”, “ID”, “left / right”, “finger type”, “angle”, and “feature data” as items. In the biometric feature table 641b1, values set in the above items are associated with each other as biometric feature information.
- the angle indicates the angle of the finger when the finger vein indicated by the biometric feature information is detected.
- the angle is associated with the type of finger. For example, with respect to the biometric feature information of the vein of the thumb of the right hand, “0”, which is a reference angle and indicates 0 ° that is an angle in the direction L, is set. For the biometric feature information of the right index finger vein, “30” indicating the direction K angle of 30 ° is set. For the biometric feature information of the middle finger vein of the right hand, “45” indicating 45 degrees that is the angle of direction J is set. For the biometric feature information of the vein of the ring finger of the right hand, “60” indicating 60 degrees that is the angle of direction I is set.
- biometric feature information of the vein of the little finger of the right hand “75” indicating 75 ° that is the angle of direction H is set.
- biometric feature information of the left thumb vein “180” indicating 180 degrees that is the angle of direction C is set.
- biometric feature information of the vein of the left index finger “150” indicating 150 degrees that is the angle of direction D is set.
- biometric feature information of the vein of the middle finger of the left hand “135” indicating 135 degrees that is the angle of direction E is set.
- biometric feature information of the left finger ring “120” indicating 120 degrees that is the angle of the direction F is set.
- 105 indicating 105 ° that is the angle of the direction G is set.
- Such biometric feature information can be distinguished from the biometric feature information of which finger in which hand according to the type of finger specified by left and right and finger type.
- the biometric feature table 641b1 illustrated in FIG. 50 is an example, and any item can be set in the biometric feature table.
- the left and right and finger type items may be omitted.
- the angle item may be omitted.
- FIG. 51 is a diagram illustrating a state when reading the vein of the index finger of the right hand according to the fourth embodiment.
- FIG. 51 is a diagram of the state when the information processing apparatus 600 reads the vein of the index finger of the right hand as viewed from above.
- the information processing apparatus 600 includes a display unit 120 and a main body unit 630.
- a keyboard 131 and a reading unit 642 are provided on the upper surface of the main body 630 of the information processing apparatus 600.
- the reading unit 642 is on the same top surface of the main body 630 as the keyboard 131 of the information processing apparatus 600, and each side of the square vein sensor surrounded by the guides 642c to 642m is located at the front center of the keyboard 131.
- the front and side surfaces of 600 are arranged at a 45 ° angle. Also, the user's head 201, torso 202, upper right arm 203, right lower arm 204, right hand palm 205, right hand thumb 205a, right hand index finger 205b, right hand middle finger 205c, right hand ring finger 205d, right hand The little finger 205e is shown.
- the user When the user causes the reading unit 642 to read the vein of the finger of the hand, the user watches the finger for reading the vein (for example, the index finger 205b of the right hand) with respect to the front surface of the information processing apparatus 600 as shown in FIG. It is positioned so as to be parallel to the upper surface of the main body 630 of the information processing apparatus 600 at an angle of 30 ° around.
- the user opens the right hand finger on a space separated from the vein sensor surface by a certain distance (for example, several centimeters) so that the center line of the right index finger 205b to be read coincides with the direction K. Position your finger.
- the user does not need to bend the wrist between the palm 205 of the right hand and the right lower arm 204 at the time of reading, and can be made almost straight.
- each finger of the user's right hand is straightened and opened sufficiently and the four bases between the finger of the user's right hand are sufficiently spaced. Therefore, there is no twist of the horizontal plane in the palm 205 of the right hand, and a correct image can be obtained quickly and reliably with respect to the direction feature portion. Therefore, the right hand or left hand can be determined quickly and reliably, and biometric information registration and user authentication can be performed quickly and reliably.
- FIG. 51 demonstrated the case where the vein of the index finger of a user's right hand was read, it is not limited to this, and the same applies to the case of reading the vein of a finger other than the index finger of the right hand and the finger of the left hand. Yes, the description is omitted.
- each finger of the user's right hand is located in a space that is a certain distance away from the vein sensor surface together with the palm 205 of the right hand, so that the finger or palm touches the keyboard 131 or other operation unit to cause an erroneous operation. This can be suppressed.
- 52 and 53 are diagrams illustrating a finger direction determination method according to the fourth embodiment. 52 and 53 show acquired images 6421 and 6422 when reading the vein of the middle finger of the right hand.
- Acquired images 6421 and 6422 are images acquired by the living body detection unit 142a of the reading unit 642.
- the acquired images 6421 and 6422 are captured by, for example, an image sensor included in the living body detection unit 142a.
- the upper side in FIGS. 52 and 53 is the back side when viewed from the front of the information processing apparatus 600
- the lower side in FIGS. 52 and 53 is the front side when viewed from the front of the information processing apparatus 600.
- the right side is the right side when viewed from the front of the information processing apparatus 600
- the left side of FIGS. 52 and 53 is the left side when viewed from the front of the information processing apparatus 600.
- FIG. 52 shows an index finger image 205b1 of the right hand of the user, an image 205c1 of the middle finger of the right hand, an image 205d1 of the ring finger of the right hand, and an image 205e1 of the little finger of the right hand.
- FIG. 53 shows an index finger image 205b2 of the right hand of the user, an image 205c2 of the middle finger of the right hand, an image 205d2 of the ring finger of the right hand, and an image 205e2 of the little finger of the right hand.
- the acquired image 6421 includes a right hand detection rectangular image area 6421n0, 6421n1, 6421n2, 6421n3, 6421n4 for detecting a valley portion at the base of the finger of the palm of the right hand.
- Left hand detection rectangular image areas 6421n5, 6421n6, 6421n7, 6421n8, and 6421n9 are set for detecting a valley portion at the base of the finger of the palm of the left hand.
- the rectangular image areas for right hand detection 6421n0 to 6421n4 and the rectangular image areas for left hand detection 6421n5 to 6421n9 are provided inside the lower two sides of the acquired image 6421.
- the right hand detection rectangular image areas 6421n0 to 6421n4 correspond to the thumb of the right hand, the index finger of the right hand, the middle finger of the right hand, the ring finger of the right hand, and the little finger of the right hand, and also correspond to the directions L to H, respectively.
- the left hand detection rectangular image regions 6421n5 to 6421n9 correspond to the little finger of the left hand, the ring finger of the left hand, the middle finger of the left hand, the index finger of the left hand, the thumb of the left hand, and correspond to the directions G to C, respectively.
- the information processing apparatus 600 detects a directional feature portion when a directional feature portion that is a valley portion at the base of the finger is detected in any of the rectangular image regions 6421n0 to 6421n4 for detecting the right hand and the rectangular image regions 6421n5 to 6421n9 for detecting the left hand. It is determined that the finger corresponding to the right-hand detection rectangular image region or the left-hand detection rectangular image region in which is detected is a reading target.
- the valley portion at the base of the finger functions as a direction feature portion.
- the acquired images 6421 and 6422 are images acquired by an image sensor (not shown) of the living body detection unit 142a of the reading unit 642.
- the image acquisition of the finger by the image sensor here is performed without being irradiated with near-infrared light from the light source unit 142c. Therefore, the image acquired here is not an image of a finger vein but an image of the appearance of the finger. In the detection processing of the valley portion at the base of the finger, this detection processing is performed for the position where each rectangular image region is set in the image of the appearance of the finger.
- a directional characteristic portion 6421n21 which is a valley portion of the index finger, middle finger, and ring finger base of the user's right hand exists in the right hand detection rectangular image region 6421n2 corresponding to the middle finger of the right hand.
- the palm in the state where the finger is opened is on a space separated from the vein sensor surface by a certain distance (for example, several centimeters). To be located.
- the user positions the root of the middle finger of the right hand above the right hand detection rectangular image region 6421n2 corresponding to the middle finger based on the guides 642j1 and 642j2 corresponding to the middle finger of the right hand, and moves the guide 642m at the center of the vein sensor.
- the passing direction J and the center line of the middle finger of the right hand are matched.
- the information processing apparatus 600 detects that the middle finger of the right hand is positioned at a predetermined height by a distance sensor (not shown) of the living body detection unit 142a, the right hand detection rectangular image areas 6421n0 to 6421n4 corresponding to the fingers of both hands, For the left-hand detection rectangular image regions 6421n5 to 6421n9, it is determined whether or not there is a valley portion at the base of the finger. At this time, a valley portion (direction feature portion 6421n21) at the base of the finger exists in the right-hand detection rectangular image region 6421n2 corresponding to the middle finger of the right hand. For this reason, the information processing apparatus 600 determines that the finger to be read is the middle finger of the right hand.
- the detection of the valley portion of the base of the finger can be performed by, for example, a combination of all or at least a combination of the valley portion of the base of the index finger and the middle finger, the valley portion of the base of the middle finger and the ring finger, and the valley portion of the base of the ring finger and the little finger at a predetermined interval. You may detect based on being open.
- the detection of the valley portion of the base of the finger may be realized by the position of the base of each finger in the acquired image of the palm acquired by the imaging unit (not shown) and the contour identification between the base of the finger. Good.
- the determination example of the middle finger of the right hand has been shown, the same applies to the case of other fingers, and the description thereof is omitted.
- the information processing apparatus 600 prevents an erroneous determination of the finger type in the acquired image 6422 as shown in FIG.
- the direction J passes through the right hand detection rectangular image region 6422n2 corresponding to the middle finger of the right hand and the guide 642m at the center of the vein sensor.
- the tangent line P is a tangent line of the contour of the index finger of the right hand positioned so as to pass through the guide 642m.
- the tangent line P may be a tangent line in the vicinity of the guide 642m of the target finger.
- the index finger image 205b2 of the right hand to be read is positioned above the reading unit 642 by the user.
- a right hand detection rectangular image region 6422n2 corresponding to the middle finger, other right hand detection rectangular image regions (not shown), and a left hand rectangular image region (not shown) are set.
- the information processing device 600 starts reading the finger vein.
- the direction feature portion 6422n21 is detected in the right hand detection rectangular image region 6422n2 corresponding to the middle finger of the right hand from the image acquired by the living body detection unit 142a.
- the information processing apparatus 600 obtains the tangent line P of the contour line of the index finger image 205b2 of the right hand to be read, and whether or not the intersection angle R between the tangent line P and the direction J is equal to or greater than a predetermined angle Rt. Determine whether.
- the position of the finger to be read is incorrect, for example, “remove the palm from the sensor once and fix it to the correct position.
- the user may read the finger again after prompting the user to correct the position of the finger to be read.
- the message may be displayed on the LCD 121 or may be output by voice from a speaker (not shown).
- FIG. 54 is a diagram illustrating another method for determining the finger direction according to the fourth embodiment.
- the information processing apparatus 600 according to the fourth embodiment may prevent an erroneous determination of the finger type as shown in FIG. 54, the upper side in FIG. 54 is the back side when viewed from the front of the information processing apparatus 600, the lower side in FIG. 54 is the front side when viewed from the front of the information processing apparatus 600, and the right side in FIG.
- the left side in FIG. 54 is the left side when viewed from the front side of the information processing apparatus 600.
- an index finger image 205b3 of the user's right hand a middle finger image 205c3 of the right hand, a ring finger image 205d3 of the right hand, and a pinkie image 205e3 of the right hand are shown.
- finger position impossibility areas 6423o1 and 6423o2 in which the image of the user's finger cannot be located are set in the acquired image 6423.
- the finger position impossibility regions 6423o1 and 6423o2 are the sides on the opposite side of the acquired image 6423 from the direction feature portions 6423n21 and 6423n22 after the direction feature portions 6423n21 and 6423n22 in the right-hand detection rectangular image region 6423n2 are detected by the information processing device 600. It is formed to extend to.
- the finger position impossible area is similarly defined as the right hand detection rectangular image area (or left hand detection area). (Rectangular image area for detection) is formed to extend from the direction feature portion to the opposite side of the acquired image 6423.
- the index finger image 205b3 of the right hand to be read is positioned above the reading unit 642 by the user.
- a right-hand detection rectangular image region 6423n2 corresponding to the middle finger, other right-hand detection rectangular image regions (not shown), and a left-hand rectangular image region (not shown) are set in the acquired image 6423.
- the information processing device 600 starts reading the finger vein.
- the direction characteristic portions 6423n21 and 6423n22 are detected in the right hand detection rectangular image region 6423n2 corresponding to the middle finger of the right hand from the image acquired by the living body detection unit 142a.
- the information processing apparatus 600 determines whether or not the middle finger image 205b3 of the right hand overlaps at least one of the finger position impossible regions 6423o1 and 6423o2 as shown in FIG. As a result of the determination, when it overlaps with the finger position impossible areas 6423o1 and 6423o2 (in the example of FIG.
- the middle finger image 205b3 of the right hand overlaps with the finger position impossible area 6423o1), the position of the finger to be read
- output a message such as “remove the palm from the sensor and fix it to the correct position”, prompt the user to correct the position of the finger to be read, and then read the finger again. May be performed.
- the message may be displayed on the LCD 121 or may be output by voice from a speaker (not shown).
- FIG. 55 is a flowchart illustrating biometric feature information acquisition and registration processing according to the fourth embodiment.
- the biometric feature information acquisition / registration process is a process for determining the type of a finger to be registered, and generating and registering biometric feature information indicating the type of finger (left / right / finger type) and vein characteristics.
- the biometric feature information acquisition / registration process is executed, for example, when the user registers biometric feature information of a finger vein.
- the process illustrated in FIG. 55 will be described in order of step number.
- the information acquisition unit 611 determines that the finger is placed at a predetermined height on the reading unit 642 based on the detection result of the distance sensor included in the living body detection unit 142a of the reading unit 642. If it is determined that a finger is placed, the information acquisition unit 611 detects a valley portion at the base of the finger, which is a directional feature portion, from an image captured by the image sensor included in the living body detection unit 142a, and based on the detected directional feature portion. The direction of the finger to be registered is determined. In the fourth embodiment, the contour of a finger to be registered is detected, and the direction of the finger is determined from the detected contour of the finger, thereby preventing erroneous detection of finger placement. The direction feature is used to determine the left and right hand and finger type.
- the type determining unit 612 determines the type of finger (left and right hand and finger type) based on the direction of the hand determined in step S221.
- the information acquisition unit 611 causes the imaging unit 142b of the reading unit 642 to capture an image, and acquires a biological image in which a finger vein is reflected.
- Step S224 The information generation unit 613 extracts features of biometric information based on the biometric image acquired in step S223.
- the information generation unit 613 generates biometric information indicating the feature extraction result.
- the information generation unit 613 generates biometric feature information including the type determined in step S222, the biometric information generated in step S224, and the user ID.
- the information generation unit 613 stores the biometric feature information generated in step S225 in the biometric feature information storage unit 641b. Thereby, the biometric feature information is registered in the biometric feature information storage unit 641b. Thereafter, the process ends.
- FIG. 56 is a flowchart showing a biometric feature information authentication process according to the fourth embodiment.
- the biometric feature information authentication process determines the type of finger to be authenticated (left and right of the hand and the type of finger), generates verification biometric feature information indicating the type of finger to be authenticated and the characteristics of the vein, and is registered in advance. This is a process of verifying against biometric feature information.
- the collation biometric feature information is data having the same configuration as that of the biometric feature information, and indicates the features of the authentication target user's biometric (in the fourth embodiment, the finger vein).
- the biometric feature information authentication process is executed, for example, when the user authenticates with a finger vein. In the following, the process illustrated in FIG. 56 will be described in order of step number.
- the information acquisition unit 611 determines that the finger is placed at a predetermined height on the reading unit 642 based on the detection result of the distance sensor included in the living body detection unit 142a of the reading unit 642. If it is determined that a finger is placed, the information acquisition unit 611 detects a valley portion at the base of the finger, which is a directional feature portion, from an image captured by the image sensor included in the living body detection unit 142a, and based on the detected directional feature portion. The direction of the finger to be authenticated is determined. In the fourth embodiment, the contour of a finger to be registered is detected, and the direction of the finger is determined from the detected contour of the finger, thereby preventing erroneous detection of finger placement. The direction feature is used to determine the left and right hand and finger type.
- the type determination unit 612 determines the type of finger (left and right hand and finger type) based on the direction of the finger determined in step S231.
- the information acquisition unit 611 causes the imaging unit 142b of the reading unit 642 to capture an image, and acquires a biological image in which a finger vein is reflected.
- Step S234 The information generation unit 613 extracts features of biometric information based on the biometric image acquired in step S233.
- the information generation unit 613 generates biometric information indicating the feature extraction result.
- the information generation unit 613 generates verification biometric feature information including the type (left and right hand and finger type) determined in step S232 and the biometric information generated in step S234.
- Step S236 The matching unit 614 executes biometric feature information matching processing (described later in FIG. 57) using the matching biometric feature information generated in step S235. Thereafter, the process ends.
- FIG. 57 is a flowchart illustrating the biometric feature information matching process according to the fourth embodiment.
- the biometric feature information matching process is a process of matching verification biometric feature information to be authenticated with biometric feature information registered in advance.
- the biometric feature information matching process is executed, for example, when called by the biometric feature information authentication process. In the following, the process illustrated in FIG. 57 will be described in order of step number.
- the collation unit 614 acquires collation biometric feature information generated by the biometric feature information authentication process.
- the collation unit 614 refers to the biometric feature information storage unit 641b, and extracts biometric feature information that matches the type of collation biometric feature information (left and right hand and finger type) acquired in step S241.
- the matching unit 614 extracts biometric feature information in which both the type of matching biometric feature information and the user ID match, from the biometric feature information storage unit 641b.
- the collation unit 614 selects one of the biometric feature information extracted in step S242, and collates the biometric information included in each of the selected biometric feature information and the collated biometric feature information.
- Step S244 The collation unit 614 determines whether or not the collation between the selected biometric feature information and the collation biometric feature information is successful as a result of the collation in Step S243. If the verification is successful (step S244: YES), the process proceeds to step S245. On the other hand, if the verification fails (NO in step S244), the process proceeds to step S246.
- Step S245 The collation unit 614 executes a predetermined process when the authentication is successful. Thereafter, the process returns.
- Step S246 The collation unit 614 determines whether all the biometric feature information extracted in Step S242 has been selected in Step S243. If all have been selected (YES in step S246), the process proceeds to step S247. On the other hand, if there is an unselected item (NO in step S246), the process proceeds to step S243.
- Step S247 The collation unit 614 performs a predetermined process when authentication fails. Thereafter, the process returns. According to the fourth embodiment as described above, the same effects as those of the third embodiment can be obtained.
- the time of acquiring the biological information of the finger vein it is possible to determine which type of finger is the ten fingers according to the angle of the biological body. In addition, this eliminates the need for the user to input all ten finger types as well as left and right, and can suppress the burden of operations during registration. Moreover, when performing 1-to-N collation, the object of collation can be narrowed down according to classification about 10 types of fingers. For this reason, it becomes possible to perform collation at high speed when performing one-to-N collation. Alternatively, it is possible to increase the number of pieces of biometric feature information while suppressing an increase in time required for verification and time required for authentication processing.
- FIG. 58 is a block diagram illustrating an information processing apparatus according to the fifth embodiment.
- An information processing apparatus 700 according to the fifth embodiment includes an information acquisition unit 711, a type determination unit 712, an information generation unit 713, a collation unit 714, and a biometric feature information storage unit 741b.
- the information acquisition unit 711 is connected to a reading unit 742.
- the information acquisition unit 711 acquires a biometric image of a person to be authenticated such as a user of the information processing apparatus 700.
- the information acquisition unit 711 can acquire the direction of the living body in a state where the biological image is acquired.
- the biological images acquired by the information acquisition unit 711 are palm vein pattern image information and finger vein pattern image information.
- the directions at the palm are two orthogonal different directions based on the left and right of the hand.
- the finger direction is two orthogonal different directions based on the left and right of the hand.
- the information processing apparatus 700 includes a guide that indicates the direction of the finger to be read.
- the information acquisition unit 711 determines the direction of the living body by determining the position of the direction feature portion in the acquired image.
- the reading unit 742 is fixed to the upper part of the information processing apparatus 700.
- the reading unit 742 includes the living body detection unit 142a, the imaging unit 142b, and the light source unit 142c illustrated in FIG.
- the information acquisition unit 711 determines that the living body is arranged at a predetermined distance from the reading unit 742 and the direction of the living body with respect to the reading unit 742 based on the detection result by the living body detection unit 142a of the reading unit 742.
- the information acquisition unit 711 determines the direction of the living body by determining the position of the direction feature portion in the living body from the image obtained by the living body detection unit 142a of the reading unit 742.
- the directions are orthogonal to each other and the angle with the keyboard 131 is an oblique angle.
- the direction characteristic portion is a valley portion at the base of the finger.
- the information acquisition unit 711 determines whether the direction is correct based on the tangent line of the finger outline from the image obtained by the living body detection unit 142a. The determination is not limited to this, and the determination may be made based on the center line of the contour line of the finger.
- the information acquisition unit 711 accepts an input of a finger type in which biometric information of veins is registered by the user. In addition, the information acquisition unit 711 acquires a biological image in which a living body is captured by the imaging unit 142b of the reading unit 742.
- the type determination unit 712 determines the type of biological information based on the direction of the biological body acquired by the information acquisition unit 711.
- the type includes information indicating the left and right of the hand that is the basis for generating biometric information.
- the type includes information indicating whether the information is about palm or information about a finger. As will be described in detail later, the type determination unit 712 determines whether the type of the living body is information related to the palm or information related to the finger based on the determination result of the position of the direction feature portion.
- the information generation unit 713 generates biological information indicating the characteristics of the biological body based on the biological image acquired by the information acquisition unit 711.
- the information generation unit 713 generates collation biometric feature information including the generated biometric information and the biometric type determined by the type determination unit 712. Thereby, the biometric information and type of the user who collates the biometric information for authentication are shown.
- the information generation unit 713 specifies, for example, the biological information generated by the information generation unit 713, the type of the living body determined by the type determination unit 712, the type of finger received from the user, and the individual corresponding to the biological information.
- the biometric feature information including the identification information to be generated is generated and stored in the biometric feature information storage unit 741b.
- biometric feature information indicating the biometric information and type of a user who has a normal authority registered in advance and is used for authentication is registered.
- the type includes information indicating the left and right of the hand and information indicating whether the hand is a palm or a finger.
- the information generating unit 713 stores the generated biometric feature information in the biometric feature information storage unit 741b.
- the matching unit 714 performs authentication using the authentication biometric feature information generated by the information generation unit 713.
- the collation unit 714 extracts biometric feature information whose type matches the collation biometric feature information, and collates based on the biometric information of the collation biometric feature information and the extracted biometric feature information. Thereby, the information processing apparatus 700 performs biometric authentication of the user based on the collation result. Since collation is performed by limiting the collation targets to those of the same type, an increase in time and load required for the collation process can be suppressed.
- the biometric feature information storage unit 741b stores biometric feature information indicating the biometric information and the type of biometric information. Thereby, a user's biometric information and a classification are matched and memorize
- FIG. 59 is a diagram illustrating a reading unit according to the fifth embodiment.
- a reading unit 742 illustrated in FIG. 59 is an input device that allows a user to read a finger vein or a palm vein and input a biometric image.
- the reading unit 742 includes a vein sensor that acquires a biological image of a finger vein or a palm vein by reading a vein of the user's finger or a palm vein.
- the reading unit 742 has a square shape and is inclined by 45 °.
- a cross-shaped guide 742 a having sides (side A, side B) parallel to the sides of the reading unit 742 is provided on the upper surface of the reading unit 742.
- the side A of the guide 742a is inclined 45 ° to the left when viewed from the front of the information processing apparatus 700.
- the side B of the guide 742a is inclined 45 ° to the right when viewed from the front of the information processing apparatus 700.
- the vein sensor of the reading unit 742 can acquire a biological image of a vein regardless of the inside or outside of the guide 742a in order to acquire a biological image of a palm vein.
- the user When acquiring a biological image of a palm vein, the user positions the palm on which the biological image is acquired on the upper surface of the reading unit 742, as in the information processing apparatus 100 of the second embodiment.
- the user can acquire the natural image of the palm of the right hand and the biometric image of the palm of the left hand for the user in a natural and easy posture, and the information processing apparatus 700 can also be acquired. It can be determined whether the palm of the hand is the right hand palm or the left hand palm.
- the user when acquiring the biological image of the finger vein, the user positions the finger for acquiring the biological image along one of the cross-shaped sides of the guide 742a, as in the third embodiment. Accordingly, the user can acquire a natural image of the right hand finger biometric image and the left hand biometric image of the user in a natural and easy posture, and the information processing apparatus 700 can also be acquired. It is possible to determine whether the finger is the finger of the right hand or the finger of the left hand.
- the reading unit 742 may read a fingerprint of a finger or a palm print of a palm. Further, the reading unit 742 is not limited to a square shape, and may have any shape. In the information processing apparatus 700 according to the fifth embodiment, the details will be described later with reference to FIGS. 63 and 64. However, as in the second and third embodiments, the user can It is automatically determined whether the biometric information to be read is a palm vein or a finger vein, and whether it is a left or right hand. On the other hand, the distinction between the thumb, the index finger, the middle finger, the ring finger, and the little finger of each of the right hand and the left hand is determined based on a user input when obtaining biometric information. Further, in the information processing apparatus 700, biometric information on the palm or finger vein is acquired in response to the user positioning the palm or finger to be acquired on a space separated from the vein sensor surface by a certain distance (for example, several centimeters). To do.
- FIG. 60 is a diagram illustrating a biometric feature table according to the fifth embodiment.
- the biometric feature table 741b1 illustrated in FIG. 60 is set in the biometric feature information storage unit 741b included in the information processing apparatus 700 according to the fifth embodiment.
- the biometric feature table 741b1 is a table for managing biometric feature information used for biometric authentication of the information processing apparatus 700.
- the biometric feature table 741b1 is provided with “number”, “ID”, “left / right”, “finger type”, “finger”, “hand”, and “feature data” as items. In the biometric feature table 741b1, values set in the above items are associated with each other as biometric feature information.
- Finger indicates that the biometric feature information is the biometric feature information of the finger.
- the hand indicates that the biometric feature information is the biometric feature information of the hand. For example, when the biometric feature information is the biometric feature information of the finger, “0” is set for the finger and not set for the hand (here, indicated by “ ⁇ ”). When the biometric feature information is the biometric feature information of the palm, “0” is set for the hand, not for the finger.
- biometric feature table 741b1 shown in FIG. 60 is an example, and any item can be set in the biometric feature table. For example, if the finger item is omitted and a value is set for the finger type item, it may be indicated that it is the biometric feature information of the finger.
- FIG. 61 is a diagram showing a state when reading the vein of the palm of the right hand according to the fifth embodiment.
- FIG. 61 is a view of the state when the information processing apparatus 700 reads the vein of the palm of the right hand as viewed from above.
- the information processing apparatus 700 includes a display unit 120 and a main body unit 730, as in the information processing apparatus 100 according to the second embodiment.
- a keyboard 131 and a reading unit 742 are provided on the upper surface of the main body 730 of the information processing apparatus 700.
- the reading unit 742 is the same top surface of the main body 730 as the keyboard 131 of the information processing device 700, and each side of the square vein sensor is 45 ° on the front and side surfaces of the information processing device 700 at the front center of the keyboard 131. Arranged at an angle.
- the reading unit 742 includes a guide 742a, but the guide 742a is not used when reading the palm vein.
- a user's head 201, torso 202, upper right arm 203, right lower arm 204, and right hand palm 205 are shown.
- the user moves the palm of the person reading the vein (for example, the palm 205 of the right hand) to the left of the side of the information processing apparatus 700.
- the information processing device 700 is positioned parallel to the upper surface of the main body 730 at an angle of 45 °.
- the user is a space separated from the vein sensor surface by a certain distance (for example, several centimeters) with the palm of the right hand 205 open with the finger open so that the center of the palm coincides with the center of the reading unit 742. Position on top.
- the user does not have to twist the wrist between the palm 205 of the right hand and the right lower arm 204 when reading the vein of the palm, and can be made almost straight.
- each finger of the user's right hand is straightened and opened sufficiently and the four bases between the finger of the user's right hand are sufficiently spaced. Therefore, there is no twist of the horizontal plane in the palm 205 of the right hand, and a correct image can be obtained quickly and reliably. Accordingly, correct features can be detected quickly and reliably, and biometric information registration and user authentication can be performed quickly and reliably.
- FIG. 61 demonstrated the case where the vein of the palm of a user's right hand was read, it is the same also when reading the vein of the palm of a left hand, and description is abbreviate
- each finger of the user's right hand is located in a space apart from the vein sensor surface together with the palm 205 of the right hand, so that the finger or palm touches the keyboard 131 or other operation unit to cause an erroneous operation. This can be suppressed.
- FIG. 62 is a diagram illustrating a state when reading the vein of the index finger of the right hand according to the fifth embodiment.
- FIG. 62 is a view of the state when the information processing apparatus 700 reads the vein of the right index finger viewed from above.
- the information processing apparatus 700 includes a display unit 120 and a main body unit 730.
- a keyboard 131 and a reading unit 742 are provided on the upper surface of the main body 730 of the information processing apparatus 700.
- the reading unit 742 is on the same top surface of the main body 730 as the keyboard 131 of the information processing apparatus 700, and each side of a square vein sensor having a cross-shaped guide 742 a is located at the front center of the keyboard 131.
- the little finger 205e is shown.
- the user When the user causes the reading unit 742 to read the vein of the finger of the hand, as shown in FIG. 62, the user moves the finger that reads the vein (for example, the index finger 205b of the right hand) to the left of the side surface of the information processing apparatus 700. It is positioned so as to be parallel to the upper surface of the main body 730 of the information processing apparatus 700 at an angle of 45 °.
- the user opens the right hand finger so that the center line of the index finger 205b of the right hand to be read coincides with the center line of one side of the cross of the reading unit 742, and a certain distance from the vein sensor surface ( For example, a finger is placed in a space separated by several centimeters.
- the user does not need to twist the wrist between the palm 205 of the right hand and the right lower arm 204 when reading the finger vein, as in the case of reading the vein of the palm, and can be made almost straight.
- each finger of the user's right hand is straightened and opened sufficiently and the four bases between the finger of the user's right hand are sufficiently spaced. Therefore, there is no twist of the horizontal plane in the palm 205 of the right hand, and a correct image can be obtained quickly and reliably with respect to the direction feature portion. Therefore, the right hand or left hand can be determined quickly and reliably, and biometric information registration and user authentication can be performed quickly and reliably.
- the angle of the right wrist part of the user, the right lower arm part 204 and the upper right arm part 203 from the right wrist, the elbow between the lower right arm part 204 and the upper right arm part 203, the upper right arm part 203 and the torso part 202 There is no unreasonable posture of the right shoulder between and the user's burden can be reduced. 62, the case where the vein of the index finger of the user's right hand is read has been described. However, the present invention is not limited to this, and the same applies to the case where the vein of the finger other than the index finger of the right hand and the finger of the left hand is read. Yes, the description is omitted.
- each finger of the user's right hand is located in a space that is a certain distance away from the vein sensor surface together with the palm 205 of the right hand, so that the finger or palm touches the keyboard 131 or other operation unit to cause an erroneous operation. This can be suppressed.
- FIG. 63 and FIG. 64 are diagrams showing detection of the direction feature portion of the fifth embodiment.
- FIG. 63A shows an acquired image 7421 when the vein of the palm of the right hand is read.
- FIG. 63B shows an acquired image 7422 when the vein of the palm of the left hand is read.
- FIG. 64A shows an acquired image 7423 when the finger vein of the right hand is read.
- FIG. 64B shows an acquired image 7424 when the finger vein of the left hand is read.
- Acquired images 7421 to 7424 are images acquired by the living body detection unit 142a of the reading unit 742.
- the acquired images 7421 to 7424 are captured by, for example, an image sensor included in the living body detection unit 142a.
- the upper side in FIGS. 63 and 64 is the back side when viewed from the front of the information processing apparatus 700
- the lower side in FIGS. 63 and 64 is the front side when viewed from the front of the information processing apparatus 700.
- the right side is the right side when viewed from the front of the information processing apparatus 700
- the left side in FIGS. 63 and 64 is the left side when viewed from the front of the information processing apparatus 700.
- the image acquired by the living body detection unit 142a includes a right hand detection rectangular image region 7420a for detecting a valley portion of the base of the palm of the right hand palm along the upper left side, and an upper right portion.
- the right finger detection rectangular image region 7420d for detecting the valley portion of the base of the palm of the right hand palm is set along the lower right side of the image region 7420c.
- the right-hand detection rectangular image region 7420a and the left-hand detection rectangular image region 7420b are provided along two sides that are orthogonal to each other in the acquired image.
- the right finger detection rectangular image region 7420d and the left finger detection rectangular image region 7420c are provided along two mutually orthogonal sides in the acquired image.
- the valley portion at the base of the finger functions as a direction feature portion.
- the image acquisition by the image sensor of the living body detection unit 142a is performed without being irradiated with near infrared light from the light source unit 142c. Therefore, the image acquired here is not a vein image but an image of the appearance of a palm or a finger. In the detection process of the valley portion at the base of the finger, this detection process is performed for the position where each rectangular image region is set in the image of the palm or the appearance of the finger.
- the right hand detection rectangular image region 7420a has a direction feature portion 7421a1 which is a valley portion of the index finger, middle finger, ring finger, and little finger base of the user's right hand. . Accordingly, the information processing apparatus 700 can determine that the palm of the right hand of the user is located above the vein sensor of the reading unit 742.
- the left hand detection rectangular image region 7420b has a direction feature portion 7422b1 which is a valley portion of the index finger, middle finger, ring finger, and little finger base of the user's left hand. .
- the information processing apparatus 700 can determine that the palm of the left hand of the user is located above the vein sensor of the reading unit 742.
- the right finger detection rectangular image area 7420d has the base of any three adjacent fingers of the index finger, middle finger, ring finger, and little finger of the user's right hand.
- the information processing apparatus 700 can determine that the finger of the right hand of the user is located in the information of the vein sensor of the reading unit 742.
- the left finger detection rectangular image area 7420c has the base of any three adjacent fingers of the index finger, middle finger, ring finger, and little finger of the user's left hand.
- the information processing apparatus 700 can determine that the finger of the user's left hand is located in the information of the vein sensor of the reading unit 742.
- the reading unit 742 is a distance sensor (not shown) of the living body detection unit 142a.
- the imaging unit 742b acquires a palm or finger image and provides the acquired image. Whether or not a valley portion at the base of the finger is detected in the right hand detection rectangular image region 7420a, left hand detection rectangular image region 7420b, left finger detection rectangular image region 7420c, or right finger detection rectangular image region 7420d. judge.
- the reading unit 742 detects the palm or finger of the user, the reading unit 742 acquires an image of the palm or finger.
- the reading unit 742 reads the right hand detection rectangular image area 7420a, the left hand detection rectangular image area 7420b, the left finger detection rectangular image area 7420c, or the right finger detection rectangular image area 7420d based on the presence / absence of a direction feature portion. Is the finger or the palm, and the left or right hand (type of acquisition target).
- the acquired image for detecting the direction feature portion is an image captured by the imaging unit 142b. There may be.
- the detection of the direction feature portion in the fifth embodiment that is, the valley portion of the base of the finger, for example, the valley portion of the base of the index finger and the middle finger, the valley portion of the base of the middle finger and the ring finger, the valley portion of the base of the ring finger and the little finger All or at least some combinations may be detected based on being open at a predetermined interval.
- the detection of the valley portion at the base of the finger may be realized by the position of the base of each finger in the palm acquired image acquired by the living body detection unit 142a and the contour identification between the base of the finger. Good.
- FIG. 65 is a flowchart showing the biometric feature information acquisition / registration process of the fifth embodiment.
- the biometric feature information acquisition / registration process determines whether the biometric object to be registered is a finger or a palm and the right and left of the hand, and in the case of a finger, accepts the input of the finger type by the user, and the palm type (hand Left and right) or finger type (left and right hand / finger type) and biometric feature information indicating vein characteristics.
- the biometric feature information acquisition / registration process is executed, for example, when the user registers biometric feature information of a finger or palm vein. In the following, the process illustrated in FIG. 65 will be described in order of step number.
- the information acquisition unit 711 determines that a palm or a finger is placed at a predetermined height on the reading unit 742, based on the detection result of the distance sensor included in the living body detection unit 142a of the reading unit 742. . If it is determined that a palm or a finger is placed, the information acquisition unit 711 detects a valley portion at the base of the finger, which is a direction feature portion, from an image captured by the image sensor provided in the living body detection unit 142a, and the detected direction feature portion. Determine the position. In the fifth embodiment, the direction feature portion is used to determine whether the acquisition target is a palm or a finger and the left and right of the hand. In the case of a finger, the contour of the finger to be registered may be detected, the direction of the finger may be determined from the detected finger contour, and erroneous detection of finger placement may be prevented.
- Step S252 If the result of determination in step S251 is that the acquisition target is a finger, the information acquisition unit 711 displays a message window that requests the user to input the finger type, and the user acquires the target finger. Accept input of type.
- the type determination unit 712 determines the type of acquisition target (whether it is a finger or a palm and the left and right of the hand) based on the position of the direction feature portion determined in step S251.
- Step S254 The information acquisition unit 711 causes the imaging unit 142b of the reading unit 742 to capture an image, and acquires a biological image in which a palm or finger vein is reflected. It should be noted that the processing order of steps S253 and S254 may be reversed or simultaneous when the palm and finger vein reading operations are the same.
- Step S255 The information generation unit 713 extracts features of the biological information based on the biological image acquired in step S254.
- the information generation unit 713 generates biometric information indicating the feature extraction result.
- the information generation unit 713 includes the type determined in step S253, the type of the finger received in step S252 in the case of a finger, the biological information generated in step S255, and the user ID. Generate feature information.
- the information generation unit 713 stores the biometric feature information generated in step S256 in the biometric feature information storage unit 741b. Thereby, the biometric feature information is registered in the biometric feature information storage unit 741b. Thereafter, the process ends.
- FIG. 66 is a flowchart showing a biometric feature information authentication process according to the fifth embodiment.
- the biometric feature information authentication process determines whether the biometric subject to be authenticated is a finger or a palm and the left and right sides of the hand, generates collation biometric feature information indicating the type of palm or the type of finger and the characteristics of a vein, This is a process of verifying against registered biometric feature information.
- the collation biometric feature information is data having the same configuration as the biometric feature information, and indicates the features of the user's biometric subject (in the fifth embodiment, a finger vein or a palm vein).
- the biometric feature information authentication process is executed, for example, when the user authenticates with a finger vein or a palm vein. In the following, the process illustrated in FIG. 66 will be described in order of step number.
- the information acquisition unit 711 determines that a palm or a finger is placed at a predetermined height on the reading unit 742, based on a detection result by a distance sensor provided in the living body detection unit 142a of the reading unit 742. . If it is determined that a palm or a finger is placed, the information acquisition unit 711 detects a valley portion at the base of the finger, which is a direction feature portion, from an image captured by the image sensor provided in the living body detection unit 142a, and the detected direction feature portion. Determine the position. In the case of a finger, the contour of the finger to be registered may be detected, the direction of the finger may be determined from the detected finger contour, and erroneous detection of finger placement may be prevented.
- the type determination unit 712 determines the type of the acquisition target (whether it is a finger or a palm and the left and right of the hand) based on the position of the direction feature portion determined in step S261.
- Step S263 The information acquisition unit 711 causes the imaging unit 142b of the reading unit 742 to capture an image and acquires a biological image in which a palm or finger vein is reflected. Note that the processing order of steps S262 and S263 may be reversed or simultaneous when the palm and finger vein reading operations are the same.
- Step S264 The information generation unit 713 extracts features of the biological information based on the biological image acquired in Step S263.
- the information generation unit 713 generates biometric information indicating the feature extraction result.
- the information generation unit 713 generates verification biometric feature information including the type determined in step S262 and the biometric information generated in step S264.
- the collation unit 714 executes biometric feature information collation processing (described later in FIG. 67) using the collation biometric feature information generated in step S265. Thereafter, the process ends.
- FIG. 67 is a flowchart showing the biometric feature information matching process according to the fifth embodiment.
- the biometric feature information matching process is a process of matching verification biometric feature information to be authenticated with biometric feature information registered in advance.
- the biometric feature information matching process is executed, for example, when called by the biometric feature information authentication process. In the following, the process illustrated in FIG. 67 will be described in order of step number.
- the collation unit 714 obtains collation biometric feature information generated by the biometric feature information authentication process.
- the collation unit 714 refers to the biometric feature information storage unit 741b, and matches the type of collation biometric feature information (whether it is a finger or a palm and the left and right of the hand) acquired in step S271. Extract information.
- the matching unit 714 extracts from the biometric feature information storage unit 741b biometric feature information that matches both the type of matching biometric feature information and the user ID.
- the collation unit 714 selects one of the biometric feature information extracted in step S272 and selects biometric information included in each of the selected biometric feature information and collation biometric feature information.
- Step S274 The collation unit 714 determines whether or not the collation between the selected biometric feature information and the collation biometric feature information is successful as a result of the collation in step S273. If the verification is successful (step S274: YES), the process proceeds to step S275. On the other hand, if the verification fails (step S274: NO), the process proceeds to step S276.
- Step S275 The collation unit 714 executes a predetermined process when the authentication is successful. Thereafter, the process returns.
- the collation unit 714 determines whether all the biometric feature information extracted in Step S272 has been selected in Step S273. If all have been selected (YES in step S276), the process proceeds to step S277. On the other hand, if there is an unselected one (step S276 NO), the process proceeds to step S273.
- Step S277 The collation unit 714 executes predetermined processing when authentication fails. Thereafter, the process returns.
- the fifth embodiment as described above also provides the same effects as those of the second and third embodiments.
- the user it becomes possible for the user to arbitrarily select and use the finger vein biometric information and the palm vein biometric information for authentication of the user.
- user authentication can be performed by using both biometric information of finger veins and biometric information of palm veins, so that the accuracy of authentication can be improved.
- FIG. 68 is a block diagram illustrating an information processing apparatus according to the sixth embodiment.
- An information processing apparatus 800 according to the sixth embodiment includes an information acquisition unit 811, a type determination unit 812, an information generation unit 813, a collation unit 814, and a biometric feature information storage unit 841b.
- a reading unit 842 is connected to the information acquisition unit 811.
- the information acquisition unit 811 acquires a biometric image of a person to be authenticated such as a user of the information processing apparatus 800.
- the information acquisition unit 811 can acquire the direction of the living body in a state where the biological image is acquired.
- the biological image acquired by the information acquisition unit 811 is image information of a palm vein pattern and image information of one finger vein pattern specified in advance.
- the direction of the palm (the direction of the hand) is the reverse direction (180 ° rotation) based on the left and right of the hand.
- the direction of the finger is a reverse direction (180 ° rotation) based on the left and right sides of the finger's hand.
- the information acquisition unit 811 determines the direction of the living body by determining the position of the direction feature portion in the acquired image.
- the reading unit 842 is fixed to the upper part of the information processing apparatus 800.
- the reading unit 842 includes the living body detection unit 142a, the imaging unit 142b, and the light source unit 142c illustrated in FIG.
- the information acquisition unit 811 determines that the living body is arranged at a predetermined distance from the reading unit 842 and the direction of the living body with respect to the reading unit 842 based on the detection result by the living body detection unit 142a of the reading unit 842.
- the information acquisition unit 811 determines the direction of the living body by determining the position of the direction feature portion in the living body from the image obtained by the living body detection unit 142a of the reading unit 842.
- the directions of the left and right hands are opposite (rotated 180 °) and the angle with the keyboard 131 is parallel.
- the direction feature portion is a valley portion at the base of the finger in the palm.
- the information acquisition unit 811 acquires a biological image obtained by imaging a living body by the imaging unit 142b of the reading unit 842.
- the type determination unit 812 determines the type of palm biometric information and the type of finger biometric information based on the hand direction acquired by the information acquisition unit 811. The type indicates whether the hand is left or right. In the sixth embodiment, the types of fingers are specified in advance, such as the left and right middle fingers. As will be described in detail later, the type determination unit 812 determines whether the type of generated information is information related to the palm or information related to the finger based on the determination result of the position of the direction feature portion.
- the information generation unit 813 generates biological information indicating the characteristics of the biological body based on the biological image acquired by the information acquisition unit 811.
- the information generation unit 813 generates collation biometric feature information including the generated biometric information and the type of biometric information determined by the type determination unit 812. Thereby, the biometric information and type of the user who collates the biometric information for authentication are shown.
- the information generation unit 813 generates biometric feature information including, for example, the generated biometric information, the type of biometric information determined by the type determination unit 812, and identification information that identifies an individual corresponding to the biometric information, It memorize
- biometric feature information indicating the biometric information and type of a user who has a normal authority registered in advance and is used for authentication is registered.
- the information generation unit 813 stores the generated biometric feature information in the biometric feature information storage unit 841b.
- the verification unit 814 performs authentication using the verification biometric feature information generated by the information generation unit 813.
- the collation unit 814 extracts biometric feature information whose type matches the collation biometric feature information, and collates with each palm and finger based on the biometric information of the collation biometric feature information and the extracted biometric feature information. Thereby, the information processing apparatus 800 performs biometric authentication of the user based on the collation result. Since collation is performed by limiting the collation targets to those of the same type, an increase in time and load required for the collation process can be suppressed.
- the biometric feature information storage unit 841b stores biometric feature information indicating the biometric information of the palm acquired by the information acquiring unit 811 and the biometric information of the finger and the type of the biometric information determined by the type determining unit 812. Thereby, the biometric information of the palm of the user and the biometric information of the finger are stored in association with the left and right of the hand.
- FIG. 69 is a diagram illustrating a biometric feature table according to the sixth embodiment.
- the biometric feature table 841b1 illustrated in FIG. 69 is set in the biometric feature information storage unit 841b included in the information processing apparatus 800 according to the sixth embodiment.
- the biometric feature table 841b1 is a table for managing biometric feature information used for biometric authentication of the information processing apparatus 800.
- the biometric feature table 841b1 is provided with “number”, “ID”, “left / right”, and “feature data” as items.
- the feature data has “hand” and “finger 3” as items.
- values set in the above items are associated with each other as biometric feature information.
- the hand indicates the file name of the biometric information indicating the characteristics of the palm vein of the right hand and the vein of the palm of the left hand.
- the finger 3 indicates a file name of biometric information indicating the characteristics of either the middle finger vein of the right hand or the middle finger vein of the left hand. Whether the biometric information of the biometric feature information is right-handed or left-handed is indicated by the left and right items.
- biometric feature table 841b1 shown in FIG. 69 is an example, and any item can be set in the biometric feature table.
- feature data of the middle finger vein is used, but feature data of another finger vein may be used.
- FIG. 70 is a diagram illustrating a state when reading the palm of the right hand and the vein of the middle finger according to the sixth embodiment.
- FIG. 70 is a diagram of the state when the information processing apparatus 800 reads the palm of the right hand and the vein of the middle finger as viewed from above.
- the information processing apparatus 800 includes a display unit 120 and a main body unit 830.
- a keyboard 131 and reading units 8425 and 8426 are provided on the upper surface of the main body 830 of the information processing apparatus 800.
- the reading units 8425 and 8426 include a living body detection unit 142a, an imaging unit 142b, and a light source unit 142c shown in FIG.
- the reading units 8425 and 8426 are on the same top surface of the main body 830 as the keyboard 131 of the information processing apparatus 800, and are arranged side by side in front of the keyboard 131, and each side of the square vein sensor (imaging unit 142 b) Arranged parallel to the front and side of device 800.
- the imaging unit 142b of the reading unit 8425 can read the vein of the middle finger of the right hand and the vein of the palm of the left hand.
- the imaging unit 142b of the reading unit 8426 can read the vein of the middle finger of the left hand and the vein of the palm of the right hand.
- a user's head 201, body 202, upper right arm 203, right lower arm 204, right hand palm 205, and middle finger 205c of the right hand are shown.
- each vein sensor in the reading units 8425 and 8426 in FIG. 70 has an angle of 90 ° with respect to the direction in which the front surface 830a of the main body 830 extends. It is arranged to make.
- each vein sensor includes, for example, either the direction in which the front surface 830a of the main body 830 extends, the operation key arrangement direction on the keyboard 131 (longitudinal direction of the keyboard 131), or the main scanning direction of the LCD 121, and the main vein sensor. You may arrange
- the user When the user causes the reading unit 8425 or 8426 to read the palm vein and the finger vein of the finger specified in advance, as shown in FIG. 70, the user reads the palm of the person reading the vein (for example, the palm 205 of the right hand) and A finger (for example, the middle finger 205c of the right hand) is positioned parallel to the front surface of the information processing apparatus 800 and parallel to the upper surface of the main body 830 of the information processing apparatus 800.
- the user can set the center of the palm 205 of the right hand to coincide with the center of the reading unit 8426, and the center line of the middle finger 205c of the right hand is the horizontal center line of the reading unit 8425. Position to match.
- the user positions the palm 205 of the right hand so that fingers other than the middle finger 205 c of the right hand to be read do not cover the vicinity of the center line in the horizontal direction of the reading unit 8425 with the finger 205 open.
- the user positions the palm 205 of the right hand and the middle finger 205c of the right hand in a space separated from the vein sensor surfaces of the reading units 8426 and 8425 by a certain distance (for example, several centimeters). The user does not need to bend the wrist between the palm 205 of the right hand and the right lower arm 204 at the time of reading, and can be made almost straight.
- each finger of the user's right hand is straightened and opened sufficiently and the four bases between the finger of the user's right hand are sufficiently spaced. Therefore, there is no twist of the horizontal plane in the palm 205 of the right hand, and a correct image can be obtained quickly and reliably. Accordingly, correct features can be detected quickly and reliably, and biometric information registration and user authentication can be performed quickly and reliably.
- the base between the fingers of the hand is detected in a detection rectangular area set on the left side (not shown) of the acquired image acquired by the image sensor of the living body detection unit 142a included in the reading unit 8426 of the palm 205 of the right hand. It is possible to quickly and surely determine that the right hand has been placed.
- This detection rectangular area is set on the left side of the acquired image, for example, as shown in the right-hand detection rectangular image area 7420a shown in FIGS.
- the angle of the right wrist part of the user, the right lower arm part 204 and the upper right arm part 203 from the right wrist, the elbow between the lower right arm part 204 and the upper right arm part 203, the upper right arm part 203 and the torso part 202 There is no unreasonable posture of the right shoulder between and the user's burden can be reduced.
- the user can set the center of the palm of the left hand to match the center of the reading unit 8425 and the center line of the middle finger of the left hand is the horizontal center line of the reading unit 8426. Position to match.
- the base between the fingers of the hand is detected from a detection rectangular region set on the right side (not shown) of the acquired image acquired by the image sensor of the living body detection unit 142a included in the reading unit 8425. It is determined that the left hand is placed.
- This detection rectangular area is set on the right side of the acquired image, for example, as the left-hand detection rectangular image area 7420b shown in FIGS.
- FIG. 71 is a flowchart illustrating biometric feature information acquisition registration processing according to the sixth embodiment.
- the biometric feature information acquisition / registration process is a process for determining the right and left palms and finger hands of a biometric target to be registered, and generating and registering biometric feature information indicating the types of palms and fingers (left and right hands) and veins It is.
- the biometric feature information acquisition / registration process is executed, for example, when the user registers biometric feature information of a finger and a palm vein.
- the process illustrated in FIG. 71 will be described in order of step number.
- the information acquisition unit 811 has palms or fingers placed at predetermined height positions on the reading units 8425 and 8426 based on the detection results of the living body detection unit 142a included in the reading units 8425 and 8426, respectively. Determine that. If it is determined that a palm or a finger is placed, the information acquisition unit 811 detects a valley portion at the base of the finger, which is a direction feature portion, from an image captured by the image sensor included in each of the living body detection units 142a of the reading units 8425 and 8426. The position of the detected direction feature portion is determined.
- the kind of finger is determined in advance as a predetermined finger (for example, the middle finger), and the direction feature portion is used to determine whether the acquisition target is the left or right hand.
- the information acquisition unit 811 determines that the hand to be read is the right hand when the direction feature portion is detected in the detection rectangular area set on the left side (not shown) of the acquired image acquired by the reading unit 8426. On the other hand, when the direction feature portion is detected in the detection rectangular area set on the right side (not shown) of the acquired image acquired by the reading unit 8425, the information acquisition unit 811 determines that the hand to be read is the left hand.
- the type determination unit 812 determines the type (left and right) of the acquisition target based on the position of the direction feature portion determined in step S281.
- the information acquisition unit 811 causes the imaging unit 142b included in each of the reading units 8425 and 8426 to capture an image, and acquires a biological image in which the palm and finger veins are reflected.
- Step S284 The information generation unit 813 extracts features of the biological information based on the biological image acquired in step S283.
- the information generation unit 813 generates biometric information indicating the feature extraction result.
- the information generation unit 813 generates biometric feature information including the type determined in step S282, the biometric information generated in step S284, and the user ID.
- the information generation unit 813 stores the biometric feature information generated in step S285 in the biometric feature information storage unit 841b. Thereby, the biometric feature information is registered in the biometric feature information storage unit 841b. Thereafter, the process ends.
- FIG. 72 is a flowchart showing a biometric feature information authentication process according to the sixth embodiment.
- the biometric feature information authentication process determines the left and right sides of the palm of the biometric subject and the finger, generates biometric feature information indicating the type of the palm and fingers (left and right of the hand) and vein characteristics, and is registered in advance. This is a process of verifying against biometric feature information.
- the collation biometric feature information is data having the same configuration as the biometric feature information, and indicates the features of the user's biometric subject (in the sixth embodiment, finger veins and palm veins).
- the biometric feature information authentication process is executed, for example, when the user authenticates with a finger vein and a palm vein. In the following, the process illustrated in FIG. 72 will be described in order of step number.
- the information acquisition unit 811 has palms or fingers placed at predetermined height positions on the reading units 8425 and 8426 based on the detection results of the living body detection unit 142a included in the reading units 8425 and 8426, respectively. Determine that. If it is determined that a palm or a finger is placed, the information acquisition unit 811 detects a valley portion at the base of the finger, which is a direction feature portion, from an image captured by the image sensor included in each of the living body detection units 142a of the reading units 8425 and 8426. The position of the detected direction feature portion is determined.
- the kind of finger is determined in advance as a predetermined finger (for example, the middle finger), and the direction feature portion is used to determine whether the acquisition target is the left or right hand.
- the information acquisition unit 811 determines that the hand to be read is the right hand when the direction feature portion is detected in the detection rectangular area set on the left side (not shown) of the acquired image acquired by the reading unit 8426. On the other hand, when the direction feature portion is detected in the detection rectangular area set on the right side (not shown) of the acquired image acquired by the reading unit 8425, the information acquisition unit 811 determines that the hand to be read is the left hand.
- the type determination unit 812 determines the type (left and right) of the acquisition target based on the position of the direction feature portion determined in step S291.
- the information acquisition unit 811 causes the imaging unit 142b included in each of the reading units 8425 and 8426 to capture an image, and acquires a biological image in which the palm and finger veins are reflected.
- Step S294 The information generation unit 813 extracts features of the biological information based on the biological image acquired in step S293.
- the information generation unit 813 generates biometric information indicating the feature extraction result.
- the information generation unit 813 generates verification biometric feature information including the type determined in step S292 and the biometric information generated in step S294.
- the collation unit 814 executes biometric feature information collation processing (described later in FIG. 73) using the collation biometric feature information generated in step S295. Thereafter, the process ends.
- FIG. 73 is a flowchart showing the biometric feature information matching process according to the sixth embodiment.
- the biometric feature information matching process is a process of matching verification biometric feature information to be authenticated with biometric feature information registered in advance.
- the biometric feature information matching process is executed, for example, when called by the biometric feature information authentication process. In the following, the process illustrated in FIG. 73 will be described in order of step number.
- the collation unit 814 obtains collation biometric feature information generated by the biometric feature information authentication process.
- the collation unit 814 refers to the biometric feature information storage unit 841b, and extracts biometric feature information that matches the type of collation biometric feature information acquired in step S301 (palm and left and right hand of the finger).
- the matching unit 814 extracts from the biometric feature information storage unit 841b biometric feature information that matches both the type of matching biometric feature information and the user ID.
- the matching unit 814 selects one of the unselected biometric feature information extracted in step S302, and matches the biometric information included in each of the selected biometric feature information and the matching biometric feature information.
- biometric feature information and collation biometric feature information are collated, both palm veins and finger veins are collated.
- Step S304 The collation unit 814 determines whether or not the collation between the selected biometric feature information and the collation biometric feature information is successful as a result of the collation in Step S303. If the verification is successful (step S304 YES), the process proceeds to step S305. On the other hand, if the verification fails (NO in step S304), the process proceeds to step S306. For example, it may be determined that the collation is successful when both the palm vein and the finger vein match, and the other cases may be determined as unsuccessful. Moreover, when evaluating a collation result by a numerical value or a step, each collation result may be comprehensively determined.
- Step S305 The collation unit 814 executes predetermined processing when authentication is successful. Thereafter, the process returns.
- Step S306 The collation unit 814 determines whether all the biometric feature information extracted in Step S302 has been selected in Step S303. If all have been selected (YES in step S306), the process proceeds to step S307. On the other hand, if there is an unselected item (NO in step S306), the process proceeds to step S303.
- the collation unit 814 executes a predetermined process when authentication fails. Thereafter, the process returns.
- the type of the finger to be read is specified in advance (the middle finger of the right hand or the left hand).
- the present invention is not limited to this, and the information processing apparatus 800 determines based on the direction of the finger itself. May be. Further, any finger other than the middle finger may be specified in advance as a reading target.
- the effect of combining the same effect as that of the second embodiment and the same effect as that of the third embodiment can be achieved by placing the hand once.
- user authentication is performed using biometric information of both finger veins and palm veins, it is possible to improve the accuracy of authentication.
- the right hand is placed from the image acquired from the image sensor of the reading unit 8426, and the left hand is placed from the image acquired from the image sensor of the reading unit 8425. It was determined that However, as another example, the direction of the hand may be determined from only one of the reading units 8425 and 8426.
- the information acquisition unit 711 sets the detection rectangular area on the left side of the image acquired from the image sensor of the reading unit 8426.
- the information acquisition unit 811 determines that the right hand detection rectangular image region 7420a in FIG. 63A has a valley portion at the base of the four fingers of the right hand as the right hand direction feature portion in the detection rectangular region. It is determined that the right hand is placed.
- the information acquisition unit 811 has a valley portion at the base of the three fingers of the left hand as in the left finger detection rectangular image region 7420c of FIG. It is determined that the left hand is placed.
- the direction of the hand from one of the reading units 8425 and 8426 it is only necessary to provide an image sensor in only one of them, and the manufacturing cost can be reduced.
- the information acquisition unit 811 may always determine the direction of the hand based on the acquired images from both image sensors of the reading units 8425 and 8426. For example, the information acquisition unit 811 detects the valley portion of the base of the four fingers of the right hand from the detection rectangular area set on the left side of the image acquired from the image sensor of the reading unit 8426, and the image of the reading unit 8425 When the valley portion of the base of the three fingers of the right hand is detected from the detection rectangular area set on the right side of the image acquired from the sensor, it is determined that the right hand is placed. Thereby, the determination accuracy of the hand direction can be increased.
- the information processing apparatus is different from the sixth embodiment in that the biological information of the palm vein and the biological information of a plurality of specific finger veins are read simultaneously.
- FIG. 74 is a block diagram illustrating an information processing apparatus according to the seventh embodiment.
- the information processing apparatus 900 according to the seventh embodiment includes an information acquisition unit 911, a type determination unit 912, an information generation unit 913, a collation unit 914, and a biometric feature information storage unit 941b.
- a reading unit 942 is connected to the information acquisition unit 911.
- the information acquisition unit 911 acquires a biometric image of a person to be authenticated such as a user of the information processing apparatus 900.
- the information acquisition unit 911 can acquire the direction of the living body in a state where the biological image is acquired.
- the biological image acquired by the information acquisition unit 911 is image information of a palm vein pattern and image information of a plurality of finger vein patterns.
- the direction of the palm (the direction of the hand) is the reverse direction (180 ° rotation) based on the left and right of the hand.
- the direction of the finger is a direction that combines the reverse direction (rotation by 180 °) and the direction of each finger based on the left and right of the hand.
- the information acquisition unit 911 determines the direction of the living body by determining the position of the direction feature portion in the acquired image.
- the reading unit 942 is fixed to the upper part of the information processing apparatus 900.
- the reading unit 942 includes the living body detection unit 142a, the imaging unit 142b, and the light source unit 142c illustrated in FIG.
- the information acquisition unit 911 determines that the living body is arranged at a predetermined distance from the reading unit 942 and the direction of the living body with respect to the reading unit 942 based on the detection result by the living body detection unit 142a of the reading unit 942.
- the information acquisition unit 911 determines the direction of the living body by determining the position of the direction feature portion in the living body from the image obtained by the living body detection unit 142a of the reading unit 942.
- the directions of the left and right hands are opposite (rotated 180 °) and the angle with the keyboard 131 is parallel.
- the direction feature portion is a valley portion at the base of the finger in the palm.
- the information acquisition unit 911 obtains a contour image of a finger from the image obtained by the living body detection unit 142a of the reading unit 942.
- the information acquisition unit 911 acquires a biological image obtained by imaging a living body by the imaging unit 142b of the reading unit 942.
- the type determining unit 912 determines the type of palm and finger biometric information (left and right of the hand) based on the hand direction acquired by the information acquiring unit 911.
- the type determination unit 912 determines the type of the finger from the finger contour image acquired by the information acquisition unit 911. For example, in the case of the right hand, when viewed from above the reading unit 942, the finger extending in the direction extending from the left base of the center of the middle finger is determined as the index finger, and the finger extending in the direction extending from the right base is determined as the ring finger. To do.
- the type determination unit 912 determines whether the type of generated information is information related to the palm or information related to the finger based on the determination result of the position of the direction feature portion.
- the information generation unit 913 generates biological information indicating the characteristics of the biological body based on the biological image acquired by the information acquisition unit 911.
- the information generation unit 913 generates collation biometric feature information including the generated biometric information and the type of biometric information determined by the type determination unit 912. Thereby, the biometric information and type of the user who collates the biometric information for authentication are shown.
- the information generation unit 913 generates biometric feature information including, for example, the generated biometric information, the type of biometric information determined by the type determination unit 912, and identification information that identifies an individual corresponding to the biometric information. It is stored in the feature information storage unit 941b.
- biometric feature information indicating the biometric information and type of a user who has a normal authority registered in advance and is used for authentication is registered.
- the types are the left and right hand types and the finger type.
- the information generating unit 913 stores the generated biometric feature information in the biometric feature information storage unit 941b.
- the verification unit 914 performs authentication using the verification authentication biometric feature information generated by the information generation unit 913.
- the collation unit 914 extracts biometric feature information whose type matches the collation biometric feature information, and collates based on the biometric information of the collation biometric feature information and the extracted biometric feature information. Thereby, the information processing apparatus 900 performs biometric authentication of the user based on the collation result. Since collation is performed by limiting the collation targets to those of the same type, an increase in time and load required for the collation process can be suppressed.
- the biometric feature information storage unit 941b stores biometric feature information indicating the biometric information of the palm acquired by the information acquiring unit 911, the biometric information of the finger, and the type of the biometric information determined by the type determining unit 912. Thereby, the biometric information of the user's palm and the biometric information of the finger are stored in association with the right and left of the hand and the type of the finger.
- FIG. 75 is a diagram illustrating a biometric feature table according to the seventh embodiment.
- the biometric feature table 941b1 illustrated in FIG. 75 is set in the biometric feature information storage unit 941b included in the information processing apparatus 900 according to the seventh embodiment.
- the biometric feature table 941b1 is a table for managing biometric feature information used for biometric authentication of the information processing apparatus 900.
- the biometric feature table 941b1 is provided with “number”, “ID”, “left / right”, and “feature data” as items.
- the feature data includes “hand”, “finger 2”, “finger 3”, and “finger 4” as items.
- values set in the above items are associated with each other as biometric feature information.
- Finger 2 indicates the file name of biometric information indicating the characteristics of either the right index finger vein or the left index finger vein.
- the finger 3 indicates the file name of the biometric information indicating the characteristics of either the middle finger vein of the right hand or the middle finger vein of the left hand, as in the sixth embodiment.
- the finger 4 indicates the file name of the biometric information indicating the characteristics of either the right finger ring or the left ring finger.
- biometric feature table 941b1 shown in FIG. 75 is an example, and any item can be set in the biometric feature table.
- feature data of veins of the index finger, middle finger, and ring finger are used, but feature data of veins of other fingers may be used, and some combinations of these fingers are used. May be.
- FIG. 76 is a diagram illustrating a state when the palm of the right hand and the veins of the finger are read according to the seventh embodiment.
- FIG. 76 is a diagram when the information processing apparatus 900 reads from the upper side the state when the palm of the right hand and the veins of the index finger, middle finger, and ring finger are read.
- the information processing apparatus 900 includes a display unit 120 and a main body unit 930.
- a keyboard 131 and reading units 9425 and 9426 are provided on the upper surface of the main body 930 of the information processing apparatus 900.
- the reading units 9425 and 9426 include a living body detection unit 142a, an imaging unit 142b, and a light source unit 142c shown in FIG.
- the reading units 9425 and 9426 are on the same top surface of the main body 930 as the keyboard 131 of the information processing apparatus 900, and are arranged in the left and right in front of the keyboard 131 and each of the rectangular vein sensors (imaging unit 142 b) that are long in the vertical direction.
- the sides are arranged in parallel to the front and side surfaces of the information processing apparatus 900.
- the imaging unit 142b of the reading unit 9425 can read the veins of the index finger, middle finger and ring finger of the right hand, or the vein of the palm of the left hand.
- the imaging unit 142b of the reading unit 9426 can read the left index finger, middle finger, ring finger vein, or right hand palm vein. Also, the user's head 201, torso 202, upper right arm 203, right lower arm 204, right hand palm 205, right hand thumb 205a, right hand index finger 205b, right hand middle finger 205c, right hand ring finger 205d, right hand The little finger 205e is shown.
- each vein sensor in the reading units 9425 and 9426 in FIG. 76 has a main scanning direction of 90 ° with respect to the direction in which the front surface 930a of the main body 930 extends. It is arranged to make an angle.
- each vein sensor includes, for example, either the direction in which the front surface 930a of the main body 930 extends, the operation key arrangement direction on the keyboard 131 (longitudinal direction of the keyboard 131), or the main scanning direction of the LCD 121, and the main vein sensor. You may arrange
- the user When the user causes the reading units 9425 and 9426 to read the veins of the palm and a plurality of finger veins specified in advance, as shown in FIG. 76, the user reads the palm of the person reading the vein (for example, the palm 205 of the right hand). ) And a finger (for example, the index finger 205b of the right hand, the middle finger 205c of the right hand, and the ring finger 205d of the right hand) are positioned parallel to the front surface of the information processing apparatus 900 and parallel to the upper surface of the main body 930 of the information processing apparatus 900.
- a finger for example, the index finger 205b of the right hand, the middle finger 205c of the right hand, and the ring finger 205d of the right hand
- the user can set the center part of the palm 205 of the right hand to coincide with the center part of the reading unit 9426 and the center line of the middle finger 205c of the right hand is the horizontal center line of the reading unit 9425. Position to match.
- the user opens a finger on the palm 205 of the right hand, and the fingers other than the index finger 205b of the right hand, the middle finger 205c of the right hand, and the ring finger 205d of the right hand (the thumb 205a of the right hand and the little finger 205e of the right hand). Is positioned so as not to be above the reading range of the reading unit 9425.
- the user positions the palm 205 of the right hand, the index finger 205b of the right hand, the middle finger 205c of the right hand, and the ring finger 205d of the right hand so as to be over the reading range of the reading units 9425 and 9426, and the reading units 9425 and 9426. It is located on a space separated from each vein sensor surface by a certain distance (for example, several centimeters).
- the user does not need to bend the wrist between the palm 205 of the right hand and the right lower arm 204 at the time of reading, and can be made almost straight.
- each finger of the user's right hand is straightened and opened sufficiently and the four bases between the finger of the user's right hand are sufficiently spaced. Therefore, there is no twist of the horizontal plane in the palm 205 of the right hand, and a correct image can be obtained quickly and reliably. Accordingly, correct features can be detected quickly and reliably, and biometric information registration and user authentication can be performed quickly and reliably.
- the base between the fingers of the hand is detected in a detection rectangular area set on the left side (not shown) of the acquired image acquired by the image sensor of the living body detection unit 142a provided in the reading unit 9426 of the palm 205 of the right hand. It is possible to quickly and surely determine that the right hand has been placed.
- This detection rectangular area is set on the left side of the acquired image, for example, as shown in the right-hand detection rectangular image area 7420a shown in FIGS.
- the angle of the right wrist part of the user, the right lower arm part 204 and the upper right arm part 203 from the right wrist, the elbow between the lower right arm part 204 and the upper right arm part 203, the upper right arm part 203 and the torso part 202 There is no unreasonable posture of the right shoulder between and the user's burden can be reduced.
- the user can set the center of the palm of the left hand to coincide with the center of the reading unit 9425, and the center line of the middle finger of the left hand is the horizontal center line of the reading unit 9426. Position to match.
- the base between the fingers of the hand is detected from a detection rectangular region set on the right side (not shown) of the acquired image acquired by the image sensor of the living body detection unit 142a included in the reading unit 9425. It is determined that the left hand is placed.
- the detection rectangular area is set on the right side of the acquired image, for example, as a left-hand detection rectangular image area 7420b shown in FIGS.
- the information acquisition unit 911 may determine the direction of the hand from only one of the reading units 9425 and 9426. Alternatively, the information acquisition unit 911 may always determine the direction of the hand based on the acquired images from both image sensors of the reading units 9425 and 9426.
- the acquired image for detecting the direction feature portion may be an image captured by the imaging unit 142b.
- the type of the finger to be read is specified in advance (the index finger, middle finger, and ring finger of the right or left hand).
- the present invention is not limited to this, and the user inputs the type of the finger to be read. May be.
- the information processing apparatus 900 may make the determination based on the direction of the finger itself. Also, any combination of fingers other than the index finger, middle finger, and ring finger may be specified in advance as a reading target.
- the same effects as in the sixth embodiment can be obtained.
- authentication is performed using biometric information on a plurality of finger veins and biometric information on palm veins, so that the accuracy of authentication can be improved.
- biometric information of the finger vein it is possible to determine which type of finger is the finger among the six fingers of the three left and right fingers according to the angle of the finger biometric.
- this eliminates the need for the user to input all six types of fingers as well as left and right, and can suppress the burden of operations during authentication and registration.
- 1-to-N collation the object of collation can be narrowed down according to classification about 6 types of fingers. For this reason, it becomes possible to perform collation at high speed when performing one-to-N collation.
- the eighth embodiment is an eighth modification of the second embodiment in that the information processing apparatus is an automatic transaction apparatus and is an automatic teller machine that accepts and pays out deposits such as banks. Different from the example.
- FIG. 77 is a diagram showing the appearance of the automatic transaction apparatus according to the eighth embodiment.
- the automatic transaction apparatus 1000 includes an operation screen 1081, a bill input / output unit 1082a, a coin input / output unit 1082b, a passbook receiving unit 1083, a card receiving unit 1084, a receipt issuing unit 1085, a reading unit 1086, and a speaker 1087.
- the operation screen 1081 has a display screen for displaying an image showing the contents of a transaction, an image including a message for guiding an ATM user, and a touch panel for receiving user input.
- the banknote deposit / withdrawal unit 1082a deposits / withdraws banknotes for accepting the user's deposit and for dispensing the user's deposit.
- the coin deposit / withdrawal unit 1082b deposits / withdraws coins for accepting the deposit of the user and paying out the deposit of the user.
- the passbook accepting unit 1083 accepts a passbook when accepting a user's deposit, when paying out a user's deposit, and when other users wish to book.
- the card receiving unit 1084 receives a cash card or the like when the user uses it.
- the receipt issuing unit 1085 issues a receipt in which usage details are recorded when the user uses it.
- the reading unit 1086 reads the biometric information of the palm of the user's palm, generates verification biometric feature information, and compares the biometric feature information with the registered biometric feature information. Authenticate.
- the reading unit 1086 is provided on the right side of the automatic transaction apparatus 1000 when viewed from the front. Thereby, the user can position the left and right palms in different directions and read the palm veins when the automatic transaction apparatus 1000 reads the palm veins.
- the biometric feature information may be managed by a server as in the first modification of the second embodiment.
- the automatic transaction apparatus 1000 performs authentication using the reading result obtained by the reading unit 1086.
- the speaker 1087 outputs a voice guidance and a warning sound for guiding the transaction status and operation to the user.
- the reading unit 1086 is provided on the right side of the automatic transaction apparatus 1000 when viewed from the front, but is not limited thereto, and may be provided on the left side or the center of the automatic transaction apparatus. Further, the reading unit 1086 reads the vein of the palm of the user, but is not limited to this, and may read the vein of the finger. Also, a fingerprint or palm print may be read. Moreover, you may read combining these.
- the automatic transaction apparatus 1000 is not limited to an automatic teller machine, and may be an apparatus that performs biometric authentication of a user such as a vending machine.
- the automatic transaction apparatus 1000 has the same effects as those of the second embodiment.
- the above processing functions can be realized by a computer.
- a program describing the processing contents of the functions that the information processing apparatuses 100 to 900 and the automatic transaction apparatus 1000 should have is provided.
- the program describing the processing contents can be recorded on a computer-readable recording medium.
- the computer-readable recording medium include a magnetic storage device, an optical disk, a magneto-optical recording medium, and a semiconductor memory.
- Magnetic storage devices include hard disk devices (HDD), flexible disks (FD), magnetic tapes, and the like.
- Examples of the optical disc include a DVD (Digital Versatile Disc), a DVD-RAM, and a CD-ROM / RW (Rewritable).
- Magneto-optical recording media include MO (Magneto-Optical disk).
- the computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. In addition, each time a program is transferred from a server computer connected via a network, the computer can sequentially execute processing according to the received program.
- processing functions described above can be realized by an electronic circuit such as a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or a PLD (Programmable Logic Device).
- DSP Digital Signal Processor
- ASIC Application Specific Integrated Circuit
- PLD Programmable Logic Device
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Collating Specific Patterns (AREA)
- Image Input (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
生体情報取得時に生体の種別を判定できる。 方向判定部(10a)は、読み取り部(2)に対する生体の方向を判定し、種別判定部(10b)は、判定された方向に基づいて生体の種別を判定する。情報生成部(10c)は、読み取り部(2)による生体の読み取り結果を基に生体の特徴を示す生体情報を生成し、生体情報と、種別判定部(10b)によって判定された種別とを含む生体特徴情報を、生体特徴情報記憶部(11)に記憶させる。
Description
本件は、生体情報登録装置、生体情報取得装置、生体情報登録プログラムおよび生体情報登録方法に関する。
現在、一般住宅の防犯対策、個人情報保護、車の盗難防止、テロ対策等のさまざまな分野においてセキュリティ技術が用いられている。その一つに指紋、虹彩、静脈等の人の生体的特徴を利用して高精度で個人を識別することのできるバイオメトリクス(生体)認証が本人確認の手段として広く利用されている。
ここで、手のひら静脈または掌紋のような手の生体情報を取得する場合、各個人について左手のひらおよび右手のひらの2の種別の生体情報が存在し得ることになる。また、指静脈または指紋のような指の生体情報を取得する場合、各個人について10の種別(10指)の生体情報が存在し得ることになる。このように、各個人において複数存在する生体情報を取得する場合において、生体情報を用いて本人認証を行う場合の生体情報登録時には、同一の個人の生体情報であっても種別に基づいてそれぞれの生体情報を区別して取得処理を行いたい場合がある。このような場合、ユーザの種別の区別処理に手間がかかり、生体情報取得が迅速に行えない問題がある。
本件はこのような点に鑑みてなされたものであり、生体情報取得時に生体の種別を判定可能な生体情報登録装置、生体情報取得装置、生体情報登録プログラムおよび生体情報登録取得方法を提供することを目的とする。
上記課題を解決するために、読み取り部に対する生体の方向を判定する方向判定部と、方向判定部によって判定された方向に基づいて、生体の種別を判定する種別判定部と、読み取り部による生体の読み取り結果を基に生体の特徴を示す生体情報を生成し、生体情報と、種別判定部によって判定された種別とを含む生体特徴情報を生体特徴情報記憶部に記憶させる情報生成部と、を有する生体情報登録装置が提供される。
上記生体情報登録装置によれば、生体情報取得時に生体の種別を判定できる。
本発明の上記および他の目的、特徴および利点は本発明の例として好ましい実施の形態を表す添付の図面と関連した以下の説明により明らかになるであろう。
本発明の上記および他の目的、特徴および利点は本発明の例として好ましい実施の形態を表す添付の図面と関連した以下の説明により明らかになるであろう。
以下、本実施の形態を、図面を参照して説明する。
[第1の実施の形態]
図1は、第1の実施の形態の生体情報登録装置を示す図である。第1の実施の形態の生体情報登録装置1は、読み取り部2、方向判定部10a、種別判定部10b、情報生成部10cおよび生体特徴情報記憶部11を有する。
[第1の実施の形態]
図1は、第1の実施の形態の生体情報登録装置を示す図である。第1の実施の形態の生体情報登録装置1は、読み取り部2、方向判定部10a、種別判定部10b、情報生成部10cおよび生体特徴情報記憶部11を有する。
読み取り部2は、生体における所定の部位(以下、「読み取り対象部位」と呼ぶ)を、例えば画像情報などとして読み取る。読み取り対象部位は、例えば、手のひらや指である。読み取り部2によって得られる生体についての情報は、例えば、手のひらの静脈のパターンの画像情報、指の静脈のパターンの画像情報、掌紋のパターンの画像情報、指紋のパターンの画像情報である。また、読み取り対象部位は、読み取り部2に対して常に一定の方向でなく、複数の方向に配置され得る。なお、読み取り部2は、例えば、生体情報登録装置1の外部に配置されてもよい。
方向判定部10aは、読み取り部2に対する読み取り対象部位の方向を判定する。種別判定部10bは、方向判定部10aによる方向の判定結果に基づいて、読み取り対象部位についての種別を判定する。
ここで、読み取り対象部位の方向は、例えば、読み取り対象部位が手のひらの静脈や掌紋等の手のひらに関する情報の場合、手の左右に基づき2つの異なる方向を示す。例えば、右手の手のひらの情報が読み取られる場合と、左手の手のひらの情報が読み取られる場合とでは、読み取り部2に対する手の方向が異なる。また、指の情報を読み取る場合であっても、例えば、右手の所定の指の情報が読み取られる場合と、左手の同じ指の情報が読み取られる場合とでは、読み取り部2に対する指の方向が異なる。さらに、別の例として、同じ側の手におけるどの指の情報が読み取られるかによって、読み取り部2に対する指の方向が異なる場合もある。
種別判定部10bは、読み取り部2に対する読み取り対象部位の方向の判定結果に基づいて、読み取り対象部位の種別を判定する。読み取り対象部位の種別は、読み取り対象部位の方向と対応付けられている。例えば、手のひらの情報を読み取る場合、左右の手のひらのそれぞれを、上記2つの異なる方向のそれぞれに対応付けてもよい。また、指の情報を読み取る場合、左右の手の指を左右の別で、上記2つの異なる方向のそれぞれに対応付けてもよい。また、読み取り部2に対する指の方向に対して、左右および各指の種類(親指、人差指、中指、薬指、小指)を組み合わせて対応付けてもよい。
情報生成部10cは、読み取り部2による読み取り結果を基に、読み取り対象部位の特徴を示す生体情報を生成する。情報生成部10cは、生成した生体情報と、種別判定部10bによって判定された種別とを含む生体特徴情報を生成し、生成した生体特徴情報を生体特徴情報記憶部11に記憶させる。生体特徴情報に含められる種別は、手のひらに関する情報の場合、例えば、左右の別である。また、指に関する情報の場合、例えば、左右の別または指の種類(親指、人差指、中指、薬指、小指)の少なくとも一方である。すなわち、種別は、それに対応付けられた生体情報が生体におけるどのような部位から得られたものかを示す。このような種別により、得られた生体情報の基になった部位についての左右の別や指の種類を自動的に判定することができる。
生体特徴情報記憶部11は、生体情報と種別とを含む生体特徴情報を記憶する。これにより、ユーザの生体情報と種別とが対応付けられて記憶される。
以上により、第1の実施の形態の生体情報登録装置は、手のひらの静脈等の生体情報の取得時において、手のひら等の読み取り対象部位の角度に応じて、生体情報の基になった部位についての右手または左手等の種別を判定できる。
以上により、第1の実施の形態の生体情報登録装置は、手のひらの静脈等の生体情報の取得時において、手のひら等の読み取り対象部位の角度に応じて、生体情報の基になった部位についての右手または左手等の種別を判定できる。
[第2の実施の形態]
図2は、第2の実施の形態の情報処理装置の外観を示す図である。図2に示す情報処理装置100は、手のひらの静脈を用いた生体認証によるセキュリティ機能が付加された、ノートタイプ(ラップトップタイプ:laptop type)のパーソナルコンピュータである。情報処理装置100は、LCD(Liquid Crystal Display)121を有するディスプレイ部120、キーボード131、読み取り部142を有する本体部130を有する。
図2は、第2の実施の形態の情報処理装置の外観を示す図である。図2に示す情報処理装置100は、手のひらの静脈を用いた生体認証によるセキュリティ機能が付加された、ノートタイプ(ラップトップタイプ:laptop type)のパーソナルコンピュータである。情報処理装置100は、LCD(Liquid Crystal Display)121を有するディスプレイ部120、キーボード131、読み取り部142を有する本体部130を有する。
ディスプレイ部120および本体部130のそれぞれは、前面、前面に対向する後面およびそれらを連結する2つの側面を備える略直方体の筐体を有する。ディスプレイ部120と本体部130は、本体部130の後面寄りにおいて、図示しないヒンジにより開閉可能に連結されている。ディスプレイ部120と本体部130が閉状態にあるとき、情報処理装置100の外観は全体として略直方体となる。
LCD121は、文字または画像を表示する表示画面を有する表示装置である。なお、表示装置としては、LCD以外にも、例えば有機EL(Electroluminescence)ディスプレイ等の他の薄型表示デバイスを用いてもよい。キーボード131は、文字の入力およびその他の操作を行うための入力装置である。
読み取り部142は、ユーザが手のひらをかざすことで、手のひらの静脈を読み取らせて生体情報の入力を行う入力装置である。読み取り部142は、ユーザの手のひらの静脈を読み取ることによって手のひらの静脈の生体画像を取得する正方形状の静脈センサを有している。静脈センサは、静脈センサの各辺が読み取り部142の各辺と平行になるように配置されている。読み取り部142は、情報処理装置100のキーボード131と同じ本体部130上面であって、キーボード131の手前中央に、正方形状の静脈センサの各辺が情報処理装置100の前面および側面に45°の角度になるように配置されている。
静脈センサは、読み取り対象物を走査することで静脈の情報を読み取る。静脈センサの主走査方向は、正方形状の静脈センサにおける1つの辺と平行である。従って、静脈センサの主走査方向は、読み取り部142における1つの辺とも平行である。本実施の形態では例として、静脈センサの主走査方向は図2中のD11方向である。そして、静脈センサは、主走査方向D11と、本体部130の前面130aが延びる方向D12とのなす角が45°となるように配置されている。
なお、静脈センサは、例えば、本体部130の前面130aの方向D12、キーボード131における操作キーの配列方向D13(キーボード131の長手方向)、または、LCD121の主走査方向D14のいずれかと主走査方向D11との角度が45°となるように、配置されていてもよい。
また、本実施の形態の情報処理装置100では、ノートタイプのパーソナルコンピュータについて説明したが、情報処理装置100は情報処理装置の一例であり、本実施の形態のユーザ認証機能は、携帯電話やPDA(Personal Digital Assistant)をはじめとする移動通信用端末装置、デスクトップタイプ(desktop type)のパーソナルコンピュータ、銀行等の預金の受け入れおよび払い出しを行う現金自動預け払い機(ATM:Automated Teller Machine)、情報処理システムの端末装置等のように、ユーザ認証を行う情報処理装置に適用することができる。
図3は、第2の実施の形態の読み取り部を示す図である。図3に示す読み取り部142は、ユーザが手のひらの静脈を読み取らせて生体情報の入力を行う入力装置である。
読み取り部142は、ユーザの手のひらの静脈を読み取ることによって手のひらの静脈の生体情報を取得する静脈センサを有している。手のひらの静脈は、他の部位の静脈に比べて情報量が多いため識別能力が高く、静脈の血管が太いため寒暖にも左右されにくい安定した認証が可能である。また、体内情報であるため偽造が困難であり、手荒れや乾燥・湿潤等の体表の影響を受けないため適用率が高い。また、非接触であるため衛生的で自然な操作性を実現し、ユーザの抵抗が少なく、高速な認証が可能であることを特徴とする。なお、読み取り部142は、手のひらの掌紋を読み取ってもよい。また、読み取り部142は、指の静脈や指紋を読み取ってもよい。
読み取り部142は、ユーザの手のひらの静脈を読み取ることによって手のひらの静脈の生体情報を取得する静脈センサを有している。手のひらの静脈は、他の部位の静脈に比べて情報量が多いため識別能力が高く、静脈の血管が太いため寒暖にも左右されにくい安定した認証が可能である。また、体内情報であるため偽造が困難であり、手荒れや乾燥・湿潤等の体表の影響を受けないため適用率が高い。また、非接触であるため衛生的で自然な操作性を実現し、ユーザの抵抗が少なく、高速な認証が可能であることを特徴とする。なお、読み取り部142は、手のひらの掌紋を読み取ってもよい。また、読み取り部142は、指の静脈や指紋を読み取ってもよい。
図4は、第2の実施の形態の情報処理装置のハードウェア構成を示す図である。図4に示す情報処理装置100は、前述のようにノートタイプのパーソナルコンピュータであり、CPU(Central Processing Unit)101によって装置全体が制御されている。CPU101には、バス107を介してRAM(Random Access Memory)102、ハードディスクドライブ(HDD:Hard Disk Drive)103、グラフィック処理装置104、入力インタフェース105および通信インタフェース106が接続されている。
RAM102には、CPU101に実行させるOS(Operating System:オペレーティングシステム)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM102には、CPU101による処理に必要な各種データが格納される。HDD103には、OSやアプリケーションプログラムが格納される。
グラフィック処理装置104には、LCD121等の表示装置が接続されている。グラフィック処理装置104は、CPU101からの命令にしたがって、画像をLCD121等の表示装置の表示画面に表示させることができる。また、グラフィック処理装置104とLCD121とは、例えば、シリアル通信ケーブルで接続され制御信号と画像信号とが交互に送受信される。
入力インタフェース105には、キーボード131、マウス132等の入力装置が接続されている。入力インタフェース105は、キーボード131等の入力装置から送られてくる信号を、バス107を介してCPU101に出力する。また、入力インタフェース105には、認証部141が接続されている。
通信インタフェース106は、LAN(Local Area Network)等の通信回線に接続可能である。通信インタフェース106は、通信回線を介して、他のコンピュータとの間でデータの送受信を行うことができる。
認証部141は、ユーザの手のひらの静脈から取得された生体情報の入力を受け付けて生体情報の特徴を示す生体特徴情報を生成する。また、受け付けた生体情報に基づいて認証を行う。認証部141が認証に成功した場合、情報処理装置100において、例えば、情報処理装置100の起動が可能になる等、情報処理装置100の所定の処理が実行される。認証部141は、認証制御部141aおよび生体特徴情報記憶部141bを有する。
認証制御部141aは、手のひらの静脈の生体特徴情報を用いた認証を制御する。生体特徴情報記憶部141bは、認証部141で行われる認証に用いられる生体特徴情報を記憶する。生体特徴情報記憶部141bは、HDDを有する。なお、生体特徴情報記憶部141bは、EEPROM(Electronically Erasable and Programmable Read Only Memory)を有してもよい。認証部141は、認証に使用する生体特徴情報および識別認証情報を、生体特徴情報記憶部141bが有するHDDに記憶させることができ、HDDに記憶させた生体特徴情報および読み取り部142によって取得された生体特徴情報に基づいて認証を行う。
読み取り部142は、ユーザが手のひらをかざすことで、手のひらの静脈を読み取らせて生体情報の入力を行う入力装置である。読み取り部142は、生体検出部142a、手のひらの静脈の画像を取得する撮像部142b、静脈の撮像の際に近赤外光を照射する光源部142cを有する。
生体検出部142aは、手のひらの指の付け根を検出するとともに、手のひらの読み取り部142の上面からの高さを検出する。なお、「手のひらの指の付け根」とは、隣り合う指と指との谷間を含む領域を指す。生体検出部142aは、例えば、手のひらの指の付け根を検出する機構として、画像センサを有する。この画像センサによる検出結果は、読み取り部142に対する手の方向の判定に利用される。なお、この画像センサは、撮像部142bと兼用されてもよい。また、生体検出部142aは、例えば、手のひらの高さを検出する機構として、距離センサを有する。
撮像部142bは、生体静脈を撮影する静脈センサである。光源部142cは、近赤外光を照射する光源である。生体検出部142aによって手のひらが検出されると、手のひらに対して光源部142cより近赤外光が照射され、撮像部142bにより手のひら部分が撮像される。これにより、手のひらの皮下組織にある静脈中の還元ヘモグロビンが近赤外光を吸収するため黒く映し出され、網目状の生体画像が取得される。
手のひらの静脈を読み取り部142に読み取らせる場合、ユーザは、読み取り部142に対して静脈を読み取らせる方の手のひらを向ける。これにより、読み取り部142は、ユーザの手のひらの静脈を読み取ることができる。
なお、読み取り部142は、例えば、情報処理装置100の外部に接続されていてもよい。この場合、生体検出部142aは、読み取り部142に対する手の方向を判定する機能を備えていてもよい。
以上のようなハードウェア構成によって、本実施の形態の処理機能を実現することができる。
図5は、第2の実施の形態の情報処理装置を示すブロック図である。第2の実施の形態の情報処理装置100は、情報取得部111、種別判定部112、情報生成部113、照合部114、生体特徴情報記憶部141bを有する。また、情報取得部111には、読み取り部142が接続されている。
図5は、第2の実施の形態の情報処理装置を示すブロック図である。第2の実施の形態の情報処理装置100は、情報取得部111、種別判定部112、情報生成部113、照合部114、生体特徴情報記憶部141bを有する。また、情報取得部111には、読み取り部142が接続されている。
情報取得部111は、情報処理装置100のユーザ等の認証対象の人物の生体画像を取得する。情報取得部111は、生体画像が取得される状態における生体の方向を取得可能である。情報取得部111により取得される生体画像は、手のひらの静脈のパターンの画像情報である。生体の方向は、手の左右に基づく2つの直交する異なる方向である。
読み取り部142は、情報処理装置100の上部に固定されている。情報取得部111は、読み取り部142の生体検出部142aによる検出結果に基づいて、生体が読み取り部142から所定の距離に配置されたことや、読み取り部142に対する生体の方向を判定する。情報取得部111は、読み取り部142の生体検出部142aによって得られた画像から、生体における方向特徴部分の位置を判定することで、生体の方向を判定する。
第2の実施の形態では、方向は、互いに直交するとともにキーボード131との角度は斜角である。方向特徴部分は、手のひらにおける指の付け根の谷間部分である。方向特徴部分については、詳しくは後述する。なお、左右の手の方向は、互いに逆方向であってもよい。
また、情報取得部111は、読み取り部142の撮像部142bによって撮像された、生体を含む画像(生体画像)を取得する。
種別判定部112は、情報取得部111によって判定された生体の方向に基づいて生体情報の種別を判定する。種別は、生体情報生成の基となった手の左右を示す。
種別判定部112は、情報取得部111によって判定された生体の方向に基づいて生体情報の種別を判定する。種別は、生体情報生成の基となった手の左右を示す。
情報生成部113は、情報取得部111で取得された生体画像を基に、生体の特徴を示す生体情報を生成する。情報生成部113は、生成した生体情報と、種別判定部112によって判定された生体情報の種別とを含む照合生体特徴情報を生成する。照合生体特徴情報は、基本的に、生体特徴情報記憶部141bに記憶される生体特徴情報と同一の構成のデータであり、認証対象のユーザの生体(第2の実施の形態では、手のひらの静脈)の特徴の情報を含む。これにより、認証のために生体情報を照合するユーザの生体情報および種別が示される。
情報生成部113は、例えば、情報取得部111で取得された生体画像に基づく生体情報と、種別判定部112によって判定された生体情報の種別と、生体情報に対応する個人を特定する識別情報とを含む生体特徴情報を生成して、生体特徴情報記憶部141bに記憶させる。これにより、認証に使用する予め登録された正規の権限を有するユーザの生体情報および種別を含む生体特徴情報が登録される。種別は、手の左右の別である。
また、ユーザの生体情報の登録時には、情報生成部113は、生成した生体特徴情報を生体特徴情報記憶部141bに記憶させる。また、ユーザの生体情報による認証時には、照合部114は、情報生成部113により生成された照合生体特徴情報を用いて認証を行う。
照合部114は、情報生成部113により生成された照合生体特徴情報を用いて認証を行う。照合部114は、照合生体特徴情報と種別が一致する生体特徴情報を、生体特徴情報記憶部141bより抽出し、照合生体特徴情報の生体情報と抽出した生体特徴情報とに基づいて照合する。これにより、情報処理装置100は、照合結果に基づいてユーザの生体認証を行う。照合の対象を種別が同一のものに絞って照合を行うので、照合の処理に要する時間や負荷の増加を抑制することができる。
生体特徴情報記憶部141bは、生体情報と生体情報の種別とを示す生体特徴情報を記憶する。これにより、ユーザの生体情報と種別とが対応付けられて記憶される。
図6は、第2の実施の形態の生体特徴テーブルを示す図である。図6に示す生体特徴テーブル141b1は、第2の実施の形態の情報処理装置100が有する生体特徴情報記憶部141bに設定される。生体特徴テーブル141b1は、情報処理装置100の生体認証に使用する生体特徴情報を管理するテーブルである。
図6は、第2の実施の形態の生体特徴テーブルを示す図である。図6に示す生体特徴テーブル141b1は、第2の実施の形態の情報処理装置100が有する生体特徴情報記憶部141bに設定される。生体特徴テーブル141b1は、情報処理装置100の生体認証に使用する生体特徴情報を管理するテーブルである。
生体特徴テーブル141b1には、項目として“番号”、“ID”、“左右”、“特徴データ”が設けられている。生体特徴テーブル141b1には、上記項目に設定された値が、生体特徴情報として互いに関連付けられる。
番号は、生体特徴情報を一意に特定可能な符号である。番号は、生体特徴情報に対して1対1で設定される。同一のユーザの異なる生体特徴情報には異なる番号が設定される。
IDは、生体特徴情報のユーザを一意に特定可能な符号である。同一のユーザの生体特徴情報には同一のIDが設定される。異なるユーザの生体特徴情報には異なるIDが設定される。
IDは、生体特徴情報のユーザを一意に特定可能な符号である。同一のユーザの生体特徴情報には同一のIDが設定される。異なるユーザの生体特徴情報には異なるIDが設定される。
左右は、生体特徴情報が示す手のひらの静脈の種別を示す。右手の手のひらの静脈の生体特徴情報については、“右”が設定される。左手の手のひらの静脈の生体特徴情報については、“左”が設定される。
特徴データは、生体情報を示すデータのファイル名を示す。
なお、図6に示した生体特徴テーブル141b1は一例であり、生体特徴テーブルには任意の項目を設定することができる。
なお、図6に示した生体特徴テーブル141b1は一例であり、生体特徴テーブルには任意の項目を設定することができる。
図7および図8は、第2の実施の形態の右手の手のひらの静脈の読み取り時の状態を示す図である。図7は、情報処理装置100が右手の手のひらの静脈を読み取る際の状態を上方から見た場合の図である。図8は、情報処理装置100が右手の手のひらの静脈を読み取る際の状態を正面から見た場合の図である。図7および図8に示すように、情報処理装置100は、ディスプレイ部120および本体部130を有する。情報処理装置100の本体部130の上面には、キーボード131、読み取り部142が設けられている。読み取り部142は、情報処理装置100のキーボード131と同じ本体部130上面であって、キーボード131の手前中央に、正方形状の静脈センサの各辺が情報処理装置100の前面および側面に45°の角度で配置されている。また、ユーザの頭部201、胴体部202、右上腕部203、右下腕部204、右手の手のひら205を示す。
ユーザが手のひらの静脈を読み取り部142に読み取らせる場合、ユーザは、図7に示すように、静脈を読み取らせる方の手のひら(例えば、右手の手のひら205)を情報処理装置100の側面に対して左45°の角度で情報処理装置100の本体部130の上面と平行になるように位置させる。このとき、ユーザは、手のひらの中心部が読み取り部142の中心部に一致するように、右手の手のひら205を指を開いた状態で、静脈センサ面から一定の距離(例えば数cm)離した空間上に位置させる。ユーザは、読み取り時に右手の手のひら205と右下腕部204との間の手首をねじ曲げる必要がなく、ほぼ真直ぐにできる。これに伴い、ユーザの右手の各指は、各々真直ぐ伸ばし十分正しく開け、ユーザの右手の指と指の間の付け根4か所は、間隔が十分開いている。従って右手の手のひら205に水平面のねじれはなく、早く確実に正しい画像が得られる。従って正しい特徴を早く確実に検出でき、生体情報の登録やユーザの認証を早く確実に行うことができる。
また、後述するように、手の指と指の間の付け根を、右手の手のひら205が読み取り部142上に配置されたことの検出に利用することで、左右の手の判定を早く確実に行うことができる。また、ユーザの右手首の部分の角度、右手首から右下腕部204や右上腕部203、右下腕部204と右上腕部203との間の肘、右上腕部203と胴体部202との間の右肩の姿勢に無理がなく、ユーザの負担の軽減を図ることができる。なお、図7では、ユーザの右手の手のひらの静脈を読み取らせる場合について説明したが、これに限らず、左手の手のひらの静脈を読み取らせる場合についても同様であり、説明を省略する。
また、図8に示すように、ユーザの右手の各指が、右手の手のひら205とともに静脈センサ面から一定の距離離れた空間上に位置しているため、キーボード131やその他の操作部に指や手のひらが触れて誤操作を起こすことを抑制できる。
図9は、第2の実施の形態の手の方向特徴部分の検出を示す図である。図9に、第2の実施の形態の情報処理装置100における、手の方向および生体の方向特徴部分を示す。図9(A)は、右手の手のひらの取得画像1421を示す。図9(B)は、左手の手のひらの取得画像1422を示す。
取得画像1421,1422は、読み取り部142の生体検出部142aによって取得される画像である。取得画像1421,1422は、例えば、生体検出部142aが備える画像センサによって撮像される。取得画像1421,1422は、図9における上側が情報処理装置100における正面から見て奥側(情報処理装置100の後面側)であり、図9における下側が情報処理装置100における正面から見て手前側(情報処理装置100の前面側)であり、図9における右側が情報処理装置100における正面から見て右側(情報処理装置100の右側面側)であり、図9における左側が情報処理装置100における正面から見て左側(情報処理装置100の左側面側)である。
図9に示すように、生体検出部142aによって取得される画像には、左上の辺に沿って右手の手のひらの指の付け根の谷間部分を検出する右手検出用矩形画像領域1420aと、右上の辺に沿って左手の手のひらの指の付け根の谷間部分を検出する左手検出用矩形画像領域1420bが設定される。右手検出用矩形画像領域1420aと、左手検出用矩形画像領域1420bとは、取得画像における互いに直交する2辺に沿って設けられる。指の付け根の谷間部分は、方向特徴部分として機能する。
読み取り部142は、生体検出部142aの図示しない距離センサで、読み取り部142の上方に位置するユーザの手のひらを検出すると、生体検出部142aの図示しない画像センサで手のひらの画像を取得し、情報取得部111に供給する。情報取得部111は、取得画像に設定した右手検出用矩形画像領域1420aまたは左手検出用矩形画像領域1420bに指の付け根の谷間部分が検出されるか否かを判定する。ここでの画像センサによる手のひらの画像取得は、光源部142cから近赤外光が照射されずに行われる。従って、ここで取得される画像は手のひらの静脈の画像ではなく手のひらの外観の画像である。指の付け根の谷間部分の検出処理においては、その手のひらの外観の画像において右手検出用矩形画像領域1420aまたは左手検出用矩形画像領域1420bが設定された位置を対象にこの検出処理が行われる。
生体検出部142aにより上記のようにして手のひらの外観の画像が取得された場合、情報取得部111は、右手検出用矩形画像領域1420aおよび左手検出用矩形画像領域1420bに指の付け根の谷間部分である方向特徴部分が存在するか否かを判定する。例えば画像が図9(A)に示すような取得画像1421である場合、右手検出用矩形画像領域1420aに方向特徴部分1421a1が存在する一方、左手検出用矩形画像領域1420bに存在しないので、ユーザの手のひらは、“0°”の角度に位置すると判定される。これにより、情報処理装置100は、取得画像を右手の手のひらの画像であると判定する。
また、例えば画像が図9(B)に示すような取得画像1422である場合、左手検出用矩形画像領域1420bに方向特徴部分1422b1が存在する一方、右手検出用矩形画像領域1420aに存在しないので、ユーザの手のひらは、時計回りに“90°”の角度に位置すると判定される。これにより、情報処理装置100は、取得画像を左手の手のひらの画像であると判定する。
このようにして、読み取り部142は、ユーザの手のひらが検出されると、手のひらにおける方向特徴部分の画像を取得する。情報取得部111は、右手検出用矩形画像領域1420aまたは左手検出用矩形画像領域1420bの方向特徴部分の有無に基づいて、手のひらの角度を判定する。種別判定部112は、判定された手のひらの角度に基づいて、読み取り部142上に配置された手のひらの種別(左右の手のいずれか)を判定する。
第2の実施の形態における方向特徴部分、すなわち指の付け根の谷間部分の検出は、例えば人差指と中指の付け根の谷間部分、中指と薬指の付け根の谷間部分、薬指と小指の付け根の谷間部分のすべてまたは少なくとも一部の組み合わせが、所定の間隔開いていることに基づいて検出してもよい。例えば、指の付け根の谷間部分の検出は、生体検出部142aで取得した手のひらの取得画像における、手の各指の付け根の位置と、指の付け根と付け根の間の輪郭識別によって実現してもよい。
なお、図9に示した、方向特徴部分を検出するための取得画像は、撮像部142bによって撮像される画像であってもよい。
図10は、第2の実施の形態の生体特徴情報取得登録処理を示すフローチャートである。生体特徴情報取得登録処理は、登録対象の手のひらの種別を判定し、手のひらの種別および静脈の特徴を示す生体特徴情報を生成して登録する処理である。生体特徴情報取得登録処理は、例えば、ユーザが手のひらの静脈の生体特徴情報を登録する場合に実行される。以下、図10に示す処理をステップ番号に沿って説明する。
図10は、第2の実施の形態の生体特徴情報取得登録処理を示すフローチャートである。生体特徴情報取得登録処理は、登録対象の手のひらの種別を判定し、手のひらの種別および静脈の特徴を示す生体特徴情報を生成して登録する処理である。生体特徴情報取得登録処理は、例えば、ユーザが手のひらの静脈の生体特徴情報を登録する場合に実行される。以下、図10に示す処理をステップ番号に沿って説明する。
[ステップS11]情報取得部111は、読み取り部142の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部142上の所定高さの位置に手のひらが配置されたことを判定する。手のひらが配置されたと判定すると、情報取得部111は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分に基づいて、登録対象の手の方向を判定する。
[ステップS12]種別判定部112は、ステップS11で判定された手の方向に基づいて、手のひらの種別(左右いずれか)を判定する。
[ステップS13]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
[ステップS13]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
なお、ステップS12,S13の処理順は、逆であっても、あるいは同時であってもよい。
[ステップS14]情報生成部113は、ステップS13で取得された生体画像に基づいて生体の特徴を抽出する。情報生成部113は、特徴の抽出結果を示す生体情報を生成する。
[ステップS14]情報生成部113は、ステップS13で取得された生体画像に基づいて生体の特徴を抽出する。情報生成部113は、特徴の抽出結果を示す生体情報を生成する。
なお、生体情報は、例えば、生体画像に映った静脈における特徴点(静脈の分岐点など)を示す情報であってもよい。あるいは、生体情報は、生体画像から静脈が映った領域を切り出した画像情報であってもよい。あるいは、生体情報は、生体画像そのものであってもよい。
[ステップS15]情報生成部113は、ステップS12で判定された種別と、ステップS14で生成した生体情報と、ユーザのIDとを含む生体特徴情報を生成する。
[ステップS16]情報生成部113は、ステップS15で生成した生体特徴情報を生体特徴情報記憶部141bに記憶させる。これにより、生体特徴情報が生体特徴情報記憶部141bに登録される。その後、処理は終了する。
[ステップS16]情報生成部113は、ステップS15で生成した生体特徴情報を生体特徴情報記憶部141bに記憶させる。これにより、生体特徴情報が生体特徴情報記憶部141bに登録される。その後、処理は終了する。
図11は、第2の実施の形態の生体特徴情報認証処理を示すフローチャートである。生体特徴情報認証処理は、認証対象の手のひらの種別を判定し、認証対象の手のひらの種別および静脈の特徴を示す照合生体特徴情報を生成し、予め登録されている生体特徴情報と照合して認証する処理である。照合生体特徴情報は、生体特徴情報と同一の構成のデータであり、認証対象のユーザの生体(第2の実施の形態では、手のひらの静脈)の特徴を示す。生体特徴情報認証処理は、例えば、ユーザが手のひらの静脈で認証する場合に実行される。以下、図11に示す処理をステップ番号に沿って説明する。
[ステップS21]情報取得部111は、読み取り部142の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部142上の所定高さの位置に手のひらが配置されたことを判定する。手のひらが配置されたと判定すると、情報取得部111は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分に基づいて、認証対象の手の方向を判定する。
[ステップS22]種別判定部112は、ステップS21で判定された手の方向に基づいて、手のひらの種別(左右いずれか)を判定する。
[ステップS23]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
[ステップS23]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
なお、ステップS22,S23の処理順は、逆であっても、あるいは同時であってもよい。
[ステップS24]情報生成部113は、ステップS23で取得された生体画像に基づいて生体の特徴を抽出する。情報生成部113は、特徴の抽出結果を示す生体情報を生成する。
[ステップS24]情報生成部113は、ステップS23で取得された生体画像に基づいて生体の特徴を抽出する。情報生成部113は、特徴の抽出結果を示す生体情報を生成する。
[ステップS25]情報生成部113は、ステップS22で判定された種別およびステップS24で生成した生体情報を含む照合生体特徴情報を生成する。
[ステップS26]照合部114は、ステップS25で生成した照合生体特徴情報を用いて生体特徴情報照合処理(図12において後述)を実行する。その後、処理は終了する。
[ステップS26]照合部114は、ステップS25で生成した照合生体特徴情報を用いて生体特徴情報照合処理(図12において後述)を実行する。その後、処理は終了する。
なお、上記の図10および図11では、生体の方向の判定と生体の特徴の抽出とをそれぞれ個別のセンサからの画像を基に行った。しかしながら、これらの処理を共通のセンサからの画像を基に行う場合には、次のような処理手順とすることもできる。例えば、図10、図11のそれぞれの処理の開始時に、センサが画像を撮像し、その画像をRAM102に保存する。次に、情報取得部111は、RAM102に保存された画像を基に生体の方向を判定し(ステップS11,S21に対応)、種別判定部112は、方向の判定結果を基に種別を判定する(ステップS12,S22に対応)。センサはまた、光源部142cより近赤外光が照射された状態で再度画像を撮像し、RAM102に保存する。次に、情報生成部113は、RAM102に保存された画像を基に生体の特徴を抽出し、生体情報を生成する(ステップS14,S24に対応)。なお、情報生成部113は、生体の特徴を抽出する際に、RAM102に保存された画像から静脈が存在する所定領域を切り出すことで生体画像を取得し(ステップS13,S23に対応)、取得した生体画像を基に特徴を抽出してもよい。
図12は、第2の実施の形態の生体特徴情報照合処理を示すフローチャートである。生体特徴情報照合処理は、認証対象の照合生体特徴情報と予め登録されている生体特徴情報とを照合する処理である。生体特徴情報照合処理は、例えば、生体特徴情報認証処理によって呼び出された場合に実行される。以下、図12に示す処理をステップ番号に沿って説明する。
[ステップS31]照合部114は、生体特徴情報認証処理で生成された照合生体特徴情報を取得する。
[ステップS32]照合部114は、生体特徴情報記憶部141bを参照して、ステップS31で取得した照合生体特徴情報の種別と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部114は、照合生体特徴情報の種別およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部141bから抽出する。
[ステップS32]照合部114は、生体特徴情報記憶部141bを参照して、ステップS31で取得した照合生体特徴情報の種別と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部114は、照合生体特徴情報の種別およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部141bから抽出する。
[ステップS33]照合部114は、ステップS32で抽出した生体特徴情報のうちの未選択の1つを選択し、選択した生体特徴情報と照合生体特徴情報のそれぞれに含まれる生体情報を照合する。
[ステップS34]照合部114は、ステップS33の照合の結果、選択した生体特徴情報と照合生体特徴情報との照合に成功したか否かを判定する。照合に成功すれば(ステップS34 YES)、処理はステップS35に進められる。一方、照合に失敗すれば(ステップS34 NO)、処理はステップS36に進められる。
[ステップS35]照合部114は、認証に成功した場合の所定の処理を実行する。ここで、認証に成功した場合の所定の処理は、例えば、ユーザの情報処理装置100や所定のインターネットサイトへのログイン、アプリケーションの起動、データアクセス許可等の権限付与であってもよい。その後、処理は復帰する。
[ステップS36]照合部114は、ステップS32で抽出した生体特徴情報が、ステップS33ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS36 YES)、処理はステップS37に進められる。一方、未選択のものがあれば(ステップS36 NO)、処理はステップS33に進められる。
[ステップS37]照合部114は、認証に失敗した場合の所定の処理を実行する。ここで、認証に失敗した場合の所定の処理は、例えば、ユーザの情報処理装置100や所定のインターネットサイトへのログインの拒否、アプリケーションの起動の拒否、データアクセス許可等の権限付与の拒否、これらの拒否を示すメッセージの出力であってもよい。その後、処理は復帰する。
図13は、第2の実施の形態の登録時のメッセージウインドウを示す図である。図13に示すメッセージウインドウ121aは、情報処理装置100が有するLCD121の表示画面に表示されるウインドウの一例である。メッセージウインドウ121aには、ユーザに読み取った手のひらに基づく生体特徴情報の登録に成功したことを通知するメッセージおよび画像が表示される。
メッセージウインドウ121aには、例えば、「右手の手のひらの登録に成功しました」というメッセージと、登録の際に撮像された右手の手のひらの静脈を示す生体画像とが表示される。また、メッセージウインドウ121aは、OKボタン121a1を有する。
OKボタン121a1は、メッセージウインドウ121aの表示を終了するボタンである。ユーザは、メッセージウインドウ121aの表示内容を確認した場合、OKボタン121a1を操作することにより、メッセージウインドウ121aの表示を終了させることができる。
以上のような第2の実施の形態によれば、手のひらの静脈等についての生体情報の取得時において、手のひら等の生体の角度に応じて、右手または左手等の生体の種別を判定することが可能になる。これにより、照合の対象の増加による弊害を抑制することができる。
また、読み取り部142において複数方向で生体画像の取得が可能であるため、生体情報の取得時のユーザの姿勢の自由度が高まり、ユーザの肩、腕、手首の関節の負担を抑制することができる。
また、管理者またはユーザが毎回手動で種別を選択していた動作の手間を省き、管理者やユーザの利便性を向上できるとともに、生体特徴情報の登録や更新を早く正しく確実に行うことができる。
また、予め生体特徴情報を種別で分類して登録することにより、1つの照合生体特徴情報と生体特徴情報記憶部141bに記憶されている複数の生体特徴情報とを照合する1対N照合を行う際に、種別に基づいて照合の対象を絞り込むことができる。このため、認証処理の負荷や処理速度の増加を抑制することができる。
また、手のひらを左右の別に応じた方向に位置させることができるので、例えば、左右の手のひらを単一の方向で読み取る場合に比較して、ユーザの腕や手首の姿勢の自由度が高まり、ユーザの読み取り時の負担の増加を抑制することができる。
[第2の実施の形態の第1の変形例]
次に、第2の実施の形態の第1の変形例を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第2の実施の形態の第1の変形例の情報処理装置は、ネットワークを介して接続されたサーバと通信することにより生体認証を行う点で、第2の実施の形態と異なる。
次に、第2の実施の形態の第1の変形例を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第2の実施の形態の第1の変形例の情報処理装置は、ネットワークを介して接続されたサーバと通信することにより生体認証を行う点で、第2の実施の形態と異なる。
図14は、第2の実施の形態の第1の変形例の情報処理装置を示すブロック図である。第2の実施の形態の第1の変形例の情報処理装置100aは、情報取得部111、種別判定部112、情報生成部113a、照合部114aを有する。また、情報取得部111には、読み取り部142が接続されている。また、サーバ150は、LANまたはWAN(Wide Area Network)等の通信回線であるネットワーク151で情報処理装置100aと接続されており、生体特徴情報記憶部141bを有する。
情報取得部111は、図5の情報取得部111と同様の処理を行う。すなわち、情報取得部111は、情報処理装置100aのユーザ等の認証対象の人物の生体画像を取得する。また、情報取得部111は、読み取り部142上の所定高さの位置に手のひらが配置されたことを検知する機能、および、読み取り部142に配置された手の方向を判定する機能を備える。
種別判定部112は、図5の種別判定部112と同様に、情報取得部111によって判定された生体の方向に基づいて生体情報の種別を判定する。種別は、生体情報生成の基となった手の左右を示す。
情報生成部113aは、図5の情報生成部113と同様に、情報取得部111で取得された生体画像に基づく生体情報と、種別判定部112によって判定された生体情報の種別とを含む示す照合生体特徴情報を生成する。これにより、認証のために生体情報を照合するユーザの生体情報および種別が示される。情報生成部113aは、情報取得部111で取得された生体画像に基づく生体情報と種別判定部112によって判定された生体情報の種別と生体情報に対応する個人を特定する識別情報とを含む生体特徴情報を生成して、サーバ150が有する生体特徴情報記憶部141bに記憶させる。これにより、認証に使用する予め登録された正規の権限を有するユーザの生体情報および種別を示す生体特徴情報が登録される。種別は、手の左右の別である。また、ユーザの生体情報の登録時には、情報生成部113aは、生成した生体特徴情報を生体特徴情報記憶部141bに記憶させる。また、ユーザの生体情報による認証時には、照合部114aは、情報生成部113aにより生成された照合生体特徴情報を用いて照合を行う。
照合部114aは、生体特徴情報記憶部141bに記憶されている生体特徴情報から照合生体特徴情報と種別が一致する生体特徴情報を抽出し、照合生体特徴情報の生体情報と抽出した生体特徴情報とに基づいて照合する。これにより、情報処理装置100aは、照合結果に基づいてユーザの生体認証を行う。照合の対象を種別が同一のものに絞って照合を行うので、照合の処理に要する時間や負荷の増加を抑制することができる。
生体特徴情報記憶部141bは、情報処理装置100aで生成された、生体情報と生体情報の種別とを示す生体特徴情報を記憶する。これにより、ユーザの生体情報と種別とが対応付けられて記憶される。また、情報処理装置100aにおけるユーザの認証時には、ネットワーク151を介して生体特徴情報が情報処理装置100aに送信される。
以上のような第2の実施の形態の第1の変形例によっても、第2の実施の形態と同様の効果を奏する。
また、ネットワーク151を介して多数の情報処理装置で多数のユーザが多数の生体特徴情報を登録および更新する場合、生体特徴情報を集中的に記憶することによる集中管理により、セキュリティおよび管理効率をより高めることができる。
また、ネットワーク151を介して多数の情報処理装置で多数のユーザが多数の生体特徴情報を登録および更新する場合、生体特徴情報を集中的に記憶することによる集中管理により、セキュリティおよび管理効率をより高めることができる。
また、各ユーザがネットワーク151を介して多数の情報処理装置で生体特徴情報を登録および更新することも可能になるため、管理者およびユーザの利便性を高めることができる。
また、予め生体特徴情報を種別で分類して登録することにより、ネットワークを介して多数の情報処理装置で多数のユーザが1対N照合を行う際に、種別に基づいて照合の対象を絞り込むことができる。このため、認証処理の負荷や処理速度の増加を抑制することができる。すなわち、1対N照合を行う場合に高速で照合することが可能になるため、ユーザの利便性を増加させることができる。
また、1対N照合の処理時間は登録されている生体特徴情報の数(N)に比例する。このため、照合に要する時間や認証処理に要する時間の増加を抑制しながら、生体特徴情報の数を2倍にすることが可能になる。
[第2の実施の形態の第2の変形例]
次に、第2の実施の形態の第2の変形例を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第2の実施の形態の第2の変形例の情報処理装置は、手のひらの静脈の特徴の抽出および特徴の照合の処理について、生体の種別を参照して、種別に適した処理を行う点で、第2の実施の形態と異なる。
次に、第2の実施の形態の第2の変形例を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第2の実施の形態の第2の変形例の情報処理装置は、手のひらの静脈の特徴の抽出および特徴の照合の処理について、生体の種別を参照して、種別に適した処理を行う点で、第2の実施の形態と異なる。
図15は、第2の実施の形態の第2の変形例の生体特徴情報取得登録処理を示すフローチャートである。生体特徴情報取得登録処理は、登録対象の手のひらの種別を判定し、手のひらの種別および静脈の特徴を示す生体特徴情報を生成して登録する処理である。生体特徴情報取得登録処理は、例えば、ユーザが手のひらの静脈の生体特徴情報を登録する場合に実行される。以下、図15に示す処理をステップ番号に沿って説明する。
[ステップS41]情報取得部111は、読み取り部142の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部142上の所定高さの位置に手のひらが配置されたことを判定する。手のひらが配置されたと判定すると、情報取得部111は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分に基づいて、登録対象の手の方向を判定する。
[ステップS42]種別判定部112は、ステップS41で判定された手の方向に基づいて、手のひらの種別(左右いずれか)を判定する。
[ステップS43]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
[ステップS43]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
なお、ステップS42,S43の処理順は、逆であっても、あるいは同時であってもよい。
[ステップS44]情報生成部113aは、ステップS43で取得された生体画像に基づいて、ステップS42で判定された種別を参照して生体の特徴を抽出し、生体情報を生成する。
[ステップS44]情報生成部113aは、ステップS43で取得された生体画像に基づいて、ステップS42で判定された種別を参照して生体の特徴を抽出し、生体情報を生成する。
情報生成部113aは、例えば、ステップS42で判定された種別に応じた異なる処理手順で、生体の特徴を抽出する。例えば、情報生成部113aは、種別に応じたテンプレート画像を選択し、選択したテンプレート画像を用いて、生体画像から生体の特徴を抽出してもよい。あるいは、情報生成部113aは、種別に応じて、生体画像から静脈を検出する領域を変化させたり、静脈を検出する際に生体画像をスキャンする方向を変化させてもよい。これらの処理により、生体の特徴を抽出する際の処理効率を高める、あるいは抽出精度を高めるといった効果を得ることができる。
なお、例えば、ステップS43において、情報取得部111は、ステップS42で判定された種別に応じた処理を行ってもよい。例えば、情報取得部111は、ステップS43において、生体画像を撮像する際の撮像領域を種別に応じて変化させてもよい。
[ステップS45]情報生成部113aは、ステップS42で判定された種別と、ステップS44で生成した生体情報と、ユーザのIDとを含む生体特徴情報を生成する。
[ステップS46]情報生成部113aは、ステップS45で生成した生体特徴情報を生体特徴情報記憶部141bに記憶させる。これにより、生体特徴情報が生体特徴情報記憶部141bに登録される。その後、処理は終了する。
[ステップS46]情報生成部113aは、ステップS45で生成した生体特徴情報を生体特徴情報記憶部141bに記憶させる。これにより、生体特徴情報が生体特徴情報記憶部141bに登録される。その後、処理は終了する。
図16は、第2の実施の形態の第2の変形例の生体特徴情報認証処理を示すフローチャートである。生体特徴情報認証処理は、認証対象の手のひらの種別を判定し、認証対象の手のひらの種別および静脈の特徴を示す照合生体特徴情報を生成し、予め登録されている生体特徴情報と照合して認証する処理である。生体特徴情報認証処理は、例えば、ユーザが手のひらの静脈で認証する場合に実行される。以下、図16に示す処理をステップ番号に沿って説明する。
[ステップS51]情報取得部111は、読み取り部142の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部142上の所定高さの位置に手のひらが配置されたことを判定する。手のひらが配置されたと判定すると、情報取得部111は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分に基づいて、認証対象の手の方向を判定する。
[ステップS52]種別判定部112は、ステップS51で判定された手の方向に基づいて、手のひらの種別(左右いずれか)を判定する。
[ステップS53]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
[ステップS53]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
なお、ステップS52,S53の処理順は、逆であっても、あるいは同時であってもよい。
[ステップS54]情報生成部113aは、ステップS53で取得された生体画像に基づいて、ステップS52で判定された種別を参照して生体の特徴を抽出する。このステップS54では、情報生成部113aは、図15のステップS44と同様の処理手順で、生体の特徴を抽出し、生体情報を生成する。
[ステップS54]情報生成部113aは、ステップS53で取得された生体画像に基づいて、ステップS52で判定された種別を参照して生体の特徴を抽出する。このステップS54では、情報生成部113aは、図15のステップS44と同様の処理手順で、生体の特徴を抽出し、生体情報を生成する。
なお、例えば、ステップS53において、情報取得部111は、ステップS52で判定された種別に応じた処理を行ってもよい。例えば、情報取得部111は、ステップS53において、生体画像を撮像する際の撮像領域を種別に応じて変化させてもよい。
[ステップS55]情報生成部113aは、ステップS52で判定された種別およびステップS54で生成した生体情報を含む照合生体特徴情報を生成する。
[ステップS56]照合部114aは、ステップS55で生成された照合生体特徴情報を用いて生体特徴情報照合処理(図17において後述)を実行する。その後、処理は終了する。
[ステップS56]照合部114aは、ステップS55で生成された照合生体特徴情報を用いて生体特徴情報照合処理(図17において後述)を実行する。その後、処理は終了する。
図17は、第2の実施の形態の第2の変形例の生体特徴情報照合処理を示すフローチャートである。生体特徴情報照合処理は、認証対象の照合生体特徴情報と予め登録されている生体特徴情報とを照合する処理である。生体特徴情報照合処理は、例えば、生体特徴情報認証処理によって呼び出された場合に実行される。以下、図17に示す処理をステップ番号に沿って説明する。
[ステップS61]照合部114aは、生体特徴情報認証処理で生成された照合生体特徴情報を取得する。
[ステップS62]照合部114aは、生体特徴情報記憶部141bを参照して、ステップS61で取得した照合生体特徴情報の種別と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部114aは、照合生体特徴情報の種別およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部141bから抽出する。
[ステップS62]照合部114aは、生体特徴情報記憶部141bを参照して、ステップS61で取得した照合生体特徴情報の種別と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部114aは、照合生体特徴情報の種別およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部141bから抽出する。
[ステップS63]照合部114aは、ステップS62で抽出した生体特徴情報のうちの未選択の1つを選択し、生体特徴情報認証処理のステップS52で判定された種別を参照して選択した生体特徴情報と照合生体特徴情報とを照合する。このとき照合部114aは、生体の種別を参照して種別に適した処理を行うので、処理の効率化を図ることが可能になる。例えば、照合部114aは、種別に応じて、生体情報同士を比較する際の順序あるいは計算方法などを変化させる。
[ステップS64]照合部114aは、ステップS63の照合の結果、選択した生体特徴情報と照合生体特徴情報との照合に成功したか否かを判定する。照合に成功すれば(ステップS64 YES)、処理はステップS65に進められる。一方、照合に失敗すれば(ステップS64 NO)、処理はステップS66に進められる。
[ステップS65]照合部114aは、認証に成功した場合の所定の処理を実行する。その後、処理は復帰する。
[ステップS66]照合部114aは、ステップS62で抽出した生体特徴情報が、ステップS63ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS66 YES)、処理はステップS67に進められる。一方、未選択のものがあれば(ステップS66 NO)、処理はステップS63に進められる。
[ステップS66]照合部114aは、ステップS62で抽出した生体特徴情報が、ステップS63ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS66 YES)、処理はステップS67に進められる。一方、未選択のものがあれば(ステップS66 NO)、処理はステップS63に進められる。
[ステップS67]照合部114aは、認証に失敗した場合の所定の処理を実行する。その後、処理は復帰する。
以上のような第2の実施の形態の第2の変形例によっても、第2の実施の形態と同様の効果を奏する。
以上のような第2の実施の形態の第2の変形例によっても、第2の実施の形態と同様の効果を奏する。
また、予め生体の種別(左右のいずれの手のひらの静脈であるか)を参照して生体を取得し、特徴を抽出するとともに照合することで、生体情報の取得、特徴の抽出および特徴の照合の処理の効率化を図ることができ、また、生体情報の取得、特徴の抽出および特徴の照合の精度を高めることができる。
[第2の実施の形態の第3の変形例]
次に、第2の実施の形態の第3の変形例を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第2の実施の形態の第3の変形例の情報処理装置は、手のひらの静脈の特徴の抽出および特徴の照合において、生体の角度を補正して抽出および照合を行う点で、第2の実施の形態と異なる。
次に、第2の実施の形態の第3の変形例を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第2の実施の形態の第3の変形例の情報処理装置は、手のひらの静脈の特徴の抽出および特徴の照合において、生体の角度を補正して抽出および照合を行う点で、第2の実施の形態と異なる。
例えば、情報処理装置100で取得する生体画像において、ユーザの右手の方向を基準にした場合、左手の方向は、右手の載置向きに対して所定の角度(例えば、時計回りに90°)回転しているものとする。このような場合、右手の方向で取得した生体画像からは特徴を抽出できても、右手の載置向きに対して所定の角度回転した関係となる左手の方向で取得した生体画像からは、方向が異なるために特徴を抽出できない場合がある。
第2の実施の形態の第3の変形例では、左手の生体画像を所定の角度(例えば、反時計回りに90°)回転させて補正することで生体画像の方向を揃えて、特徴の抽出および特徴の照合を可能にする。なお、所定の角度は、任意に設定することができる。
図18は、第2の実施の形態の第3の変形例の生体特徴情報取得登録処理を示すフローチャートである。生体特徴情報取得登録処理は、登録対象の手のひらの種別を判定し、手のひらの種別および静脈の特徴を示す生体特徴情報を生成して登録する処理である。生体特徴情報取得登録処理は、例えば、ユーザが手のひらの静脈の生体特徴情報を登録する場合に実行される。以下、図18に示す処理をステップ番号に沿って説明する。
[ステップS71]情報取得部111は、読み取り部142の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部142上の所定高さの位置に手のひらが配置されたことを判定する。手のひらが配置されたと判定すると、情報取得部111は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分に基づいて、登録対象の手の方向を判定する。
[ステップS72]種別判定部112は、ステップS71で判定された手の方向に基づいて、手のひらの種別(左右いずれか)を判定する。
[ステップS73]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
[ステップS73]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
なお、ステップS72,S73の処理順は、逆であっても、あるいは同時であってもよい。
[ステップS74]情報生成部113は、ステップS73で取得された生体画像に基づいて、ステップS71で判定された方向に基づき生体画像の角度を補正して生体の特徴を抽出し、生体情報を生成する。ここで、生体画像の角度の補正は、ステップS73で取得された生体画像を、ステップS71で判定された方向を示す角度の逆に回転させ、読み取り部142に対する生体の角度にかかわらず生体の特徴(手のひらの静脈)が同一の方向となるように処理する。なお、これに限らず、生体画像を回転させずに、特徴を抽出する処理側において角度の補正を行ってもよい。
[ステップS74]情報生成部113は、ステップS73で取得された生体画像に基づいて、ステップS71で判定された方向に基づき生体画像の角度を補正して生体の特徴を抽出し、生体情報を生成する。ここで、生体画像の角度の補正は、ステップS73で取得された生体画像を、ステップS71で判定された方向を示す角度の逆に回転させ、読み取り部142に対する生体の角度にかかわらず生体の特徴(手のひらの静脈)が同一の方向となるように処理する。なお、これに限らず、生体画像を回転させずに、特徴を抽出する処理側において角度の補正を行ってもよい。
[ステップS75]情報生成部113は、ステップS72で判定された種別と、ステップS74で生成した生体情報と、ユーザのIDとを含む生体特徴情報を生成する。
[ステップS76]情報生成部113は、ステップS75で生成した生体特徴情報を生体特徴情報記憶部141bに記憶させる。これにより、生体特徴情報が生体特徴情報記憶部141bに登録される。その後、処理は終了する。
[ステップS76]情報生成部113は、ステップS75で生成した生体特徴情報を生体特徴情報記憶部141bに記憶させる。これにより、生体特徴情報が生体特徴情報記憶部141bに登録される。その後、処理は終了する。
図19は、第2の実施の形態の第3の変形例の生体特徴情報認証処理を示すフローチャートである。生体特徴情報認証処理は、認証対象の手のひらの種別を判定し、認証対象の手のひらの種別および静脈の特徴を示す照合生体特徴情報を生成し、予め登録されている生体特徴情報と照合して認証する処理である。生体特徴情報認証処理は、例えば、ユーザが手のひらの静脈で認証する場合に実行される。以下、図19に示す処理をステップ番号に沿って説明する。
[ステップS81]情報取得部111は、読み取り部142の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部142上の所定高さの位置に手のひらが配置されたことを判定する。手のひらが配置されたと判定すると、情報取得部111は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分に基づいて、認証対象の手の方向を判定する。
[ステップS82]種別判定部112は、ステップS81で判定された手の方向に基づいて、手のひらの種別(左右いずれか)を判定する。
[ステップS83]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
[ステップS83]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
なお、ステップS82,S83の処理順は、逆であっても、あるいは同時であってもよい。
[ステップS84]情報生成部113は、ステップS83で取得された生体画像に基づいて、ステップS81で判定された方向に基づき生体画像の角度を補正して、生体の特徴を抽出し、生体情報を生成する。なお、これに限らず、生体画像を回転させずに、特徴を抽出する処理側において角度の補正を行ってもよい。
[ステップS84]情報生成部113は、ステップS83で取得された生体画像に基づいて、ステップS81で判定された方向に基づき生体画像の角度を補正して、生体の特徴を抽出し、生体情報を生成する。なお、これに限らず、生体画像を回転させずに、特徴を抽出する処理側において角度の補正を行ってもよい。
[ステップS85]情報生成部113は、ステップS84で判定された種別およびステップS84で生成した生体情報を含む照合生体特徴情報を生成する。
[ステップS86]照合部114は、ステップS85で生成された照合生体特徴情報を用いて生体特徴情報照合処理(図20において後述)を実行する。その後、処理は終了する。
[ステップS86]照合部114は、ステップS85で生成された照合生体特徴情報を用いて生体特徴情報照合処理(図20において後述)を実行する。その後、処理は終了する。
図20は、第2の実施の形態の第3の変形例の生体特徴情報照合処理を示すフローチャートである。生体特徴情報照合処理は、認証対象の照合生体特徴情報と予め登録されている生体特徴情報とを照合する処理である。生体特徴情報照合処理は、例えば、生体特徴情報認証処理によって呼び出された場合に実行される。以下、図20に示す処理をステップ番号に沿って説明する。
[ステップS91]照合部114は、生体特徴情報認証処理で生成された照合生体特徴情報を取得する。
[ステップS92]照合部114は、生体特徴情報記憶部141bを参照して、ステップS91で取得した照合生体特徴情報の種別と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部114は、照合生体特徴情報の種別およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部141bから抽出する。
[ステップS92]照合部114は、生体特徴情報記憶部141bを参照して、ステップS91で取得した照合生体特徴情報の種別と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部114は、照合生体特徴情報の種別およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部141bから抽出する。
[ステップS93]照合部114は、ステップS92で抽出した生体特徴情報のうちの未選択の1つを選択し、選択した生体特徴情報と照合生体特徴情報のそれぞれに含まれる生体情報を照合する。
[ステップS94]照合部114は、ステップS93の照合の結果、選択した生体特徴情報と照合生体特徴情報との照合に成功したか否かを判定する。照合に成功すれば(ステップS94 YES)、処理はステップS95に進められる。一方、照合に失敗すれば(ステップS94 NO)、処理はステップS96に進められる。
[ステップS95]照合部114は、認証に成功した場合の所定の処理を実行する。その後、処理は復帰する。
[ステップS96]照合部114は、ステップS92で抽出した生体特徴情報が、ステップS93ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS96 YES)、処理はステップS97に進められる。一方、未選択のものがあれば(ステップS96 NO)、処理はステップS93に進められる。
[ステップS96]照合部114は、ステップS92で抽出した生体特徴情報が、ステップS93ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS96 YES)、処理はステップS97に進められる。一方、未選択のものがあれば(ステップS96 NO)、処理はステップS93に進められる。
[ステップS97]照合部114は、認証に失敗した場合の所定の処理を実行する。その後、処理は復帰する。
以上のような第2の実施の形態の第3の変形例によっても、第2の実施の形態と同様の効果を奏する。
以上のような第2の実施の形態の第3の変形例によっても、第2の実施の形態と同様の効果を奏する。
また、生体情報の方向を判定し、判定した方向に基づく角度で補正して生体の特徴を抽出することで、特徴の抽出処理の効率化を図ることができるとともに、特徴の抽出および特徴の照合の精度を高めることができる。
[第2の実施の形態の第4の変形例]
次に、第2の実施の形態の第4の変形例を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第2の実施の形態の第4の変形例の情報処理装置は、生体特徴情報に、生体の種別の代わりに生体の方向を示す角度を含める点で、第2の実施の形態と異なる。
次に、第2の実施の形態の第4の変形例を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第2の実施の形態の第4の変形例の情報処理装置は、生体特徴情報に、生体の種別の代わりに生体の方向を示す角度を含める点で、第2の実施の形態と異なる。
例えば、情報処理装置100で取得する生体画像において、ユーザの右手の方向を基準にした場合、左手の方向は、右手の載置向きに対して所定の角度(例えば、時計回りに90°)回転しているものとする。
第2の実施の形態の第4の変形例では、生体特徴情報の生体の種別(例えば、左右のいずれの手のひらの静脈であるか)を示す情報の代わりに、右手に対しては0°、左手に対しては所定の角度を示す角度を設定することで、生体情報の種別を特定する。なお、所定の角度は、任意に設定することができる。
図21は、第2の実施の形態の第4の変形例の生体特徴テーブルを示す図である。図21に示す生体特徴テーブル141b2は、情報処理装置100が有する生体特徴情報記憶部141bに設定される。生体特徴テーブル141b2は、情報処理装置100の生体認証に使用する生体特徴情報を管理するテーブルである。
生体特徴テーブル141b2には、項目として“番号”、“ID”、“角度”、“特徴データ”が設けられている。生体特徴テーブル141b2には、上記項目に設定された値が、生体特徴情報として互いに関連付けられる。
角度は、生体特徴情報が示す手のひらの静脈が検出された際の角度を示す。右手の手のひらの静脈の生体特徴情報については、基準となる角度である0°を示す“0”が設定される。左手の手のひらの静脈の生体特徴情報については、基準となる角度から時計回りに回転した所定の角度を示す“90”または“180”が設定される。ここで、図21に示すように、所定の角度には、複数の異なる角度を設定することができる。例えば、上記のように、角度には、右手の生体特徴情報については、0°を示す“0”が設定されており、左手の生体特徴情報については、90°を示す“90”および180°を示す“180”が設定されている。この場合、角度が0である生体特徴情報は、右手の生体特徴情報である。角度が90である生体特徴情報は、右手の方向と左手の方向とが、右手を基準として左手が時計回りに90°回転した方向に直交する状態で取得した左手の生体特徴情報である。また、角度が180である生体特徴情報は、右手の方向と左手の方向とが逆方向の状態で取得した左手の生体特徴情報である。このように、第2の実施の形態の第4の変形例では、左手の方向と右手の方向との角度が複数種類存在する場合にも適用可能である。
なお、図21に示した生体特徴テーブル141b2は一例であり、生体特徴テーブルには任意の項目を設定することができる。
図22は、第2の実施の形態の第4の変形例の生体特徴情報取得登録処理を示すフローチャートである。生体特徴情報取得登録処理は、登録対象の手の方向を判定し、手の方向および静脈の特徴を示す生体特徴情報を生成して登録する処理である。生体特徴情報取得登録処理は、例えば、ユーザが手のひらの静脈の生体特徴情報を登録する場合に実行される。以下、図22に示す処理をステップ番号に沿って説明する。
図22は、第2の実施の形態の第4の変形例の生体特徴情報取得登録処理を示すフローチャートである。生体特徴情報取得登録処理は、登録対象の手の方向を判定し、手の方向および静脈の特徴を示す生体特徴情報を生成して登録する処理である。生体特徴情報取得登録処理は、例えば、ユーザが手のひらの静脈の生体特徴情報を登録する場合に実行される。以下、図22に示す処理をステップ番号に沿って説明する。
[ステップS101]情報取得部111は、読み取り部142の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部142上の所定高さの位置に手のひらが配置されたことを判定する。手のひらが配置されたと判定すると、情報取得部111は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分に基づいて、登録対象の手の方向を判定する。
[ステップS102]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
[ステップS103]情報生成部113は、ステップS102で取得された生体画像に基づいて生体の特徴を抽出する。情報生成部113は、特徴の抽出結果を示す生体情報を生成する。
[ステップS103]情報生成部113は、ステップS102で取得された生体画像に基づいて生体の特徴を抽出する。情報生成部113は、特徴の抽出結果を示す生体情報を生成する。
[ステップS104]情報生成部113は、ステップS101で判定された手の方向を示す角度と、ステップS103で生成した生体情報と、ユーザのIDとを含む生体特徴情報を生成する。
[ステップS105]情報生成部113は、ステップS104で生成した生体特徴情報を生体特徴情報記憶部141bに記憶させる。これにより、生体特徴情報が生体特徴情報記憶部141bに登録される。その後、処理は終了する。
図23は、第2の実施の形態の第4の変形例の生体特徴情報認証処理を示すフローチャートである。生体特徴情報認証処理は、認証対象の手の方向を判定し、認証対象の手の方向および静脈の特徴を示す照合生体特徴情報を生成し、予め登録されている生体特徴情報と照合して認証する処理である。生体特徴情報認証処理は、例えば、ユーザが手のひらの静脈で認証する場合に実行される。以下、図23に示す処理をステップ番号に沿って説明する。
[ステップS111]情報取得部111は、読み取り部142の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部142上の所定高さの位置に手のひらが配置されたことを判定する。手のひらが配置されたと判定すると、情報取得部111は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分に基づいて、認証対象の手の方向を判定する。
[ステップS112]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
[ステップS113]情報生成部113は、ステップS112で取得された生体画像に基づいて生体の特徴を抽出する。情報生成部113は、特徴の抽出結果を示す生体情報を生成する。
[ステップS113]情報生成部113は、ステップS112で取得された生体画像に基づいて生体の特徴を抽出する。情報生成部113は、特徴の抽出結果を示す生体情報を生成する。
[ステップS114]情報生成部113は、ステップS111で判定された手の方向を示す角度およびステップS113で生成した生体情報を含む照合生体特徴情報を生成する。
[ステップS115]照合部114は、ステップS114で生成された照合生体特徴情報を用いて生体特徴情報照合処理(図24において後述)を実行する。その後、処理は終了する。
図24は、第2の実施の形態の第4の変形例の生体特徴情報照合処理を示すフローチャートである。生体特徴情報照合処理は、認証対象の照合生体特徴情報と予め登録されている生体特徴情報とを照合する処理である。生体特徴情報照合処理は、例えば、生体特徴情報認証処理によって呼び出された場合に実行される。以下、図24に示す処理をステップ番号に沿って説明する。
[ステップS121]照合部114は、生体特徴情報認証処理で生成された照合生体特徴情報を取得する。
[ステップS122]照合部114は、生体特徴情報記憶部141bを参照して、ステップS121で取得した照合生体特徴情報の角度と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部114は、照合生体特徴情報の角度およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部141bから抽出する。
[ステップS122]照合部114は、生体特徴情報記憶部141bを参照して、ステップS121で取得した照合生体特徴情報の角度と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部114は、照合生体特徴情報の角度およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部141bから抽出する。
[ステップS123]照合部114は、ステップS122で抽出した生体特徴情報のうちの未選択の1つを選択し、選択した生体特徴情報と照合生体特徴情報のそれぞれに含まれる生体情報を照合する。
[ステップS124]照合部114は、ステップS123の照合の結果、選択した生体特徴情報と照合生体特徴情報との照合に成功したか否かを判定する。照合に成功すれば(ステップS124 YES)、処理はステップS125に進められる。一方、照合に失敗すれば(ステップS124 NO)、処理はステップS126に進められる。
[ステップS125]照合部114は、認証に成功した場合の所定の処理を実行する。その後、処理は復帰する。
[ステップS126]照合部114は、ステップS122で抽出した生体特徴情報が、ステップS123ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS126 YES)、処理はステップS127に進められる。一方、未選択のものがあれば(ステップS126 NO)、処理はステップS123に進められる。
[ステップS126]照合部114は、ステップS122で抽出した生体特徴情報が、ステップS123ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS126 YES)、処理はステップS127に進められる。一方、未選択のものがあれば(ステップS126 NO)、処理はステップS123に進められる。
[ステップS127]照合部114は、認証に失敗した場合の所定の処理を実行する。その後、処理は復帰する。
以上のような第2の実施の形態の第4の変形例によっても、第2の実施の形態と同様の効果を奏する。
以上のような第2の実施の形態の第4の変形例によっても、第2の実施の形態と同様の効果を奏する。
また、読み取り部142に対する生体の方向を判定し、判定した方向に基づく角度で生体の特徴を抽出するとともに照合することで、左右の手の方向の角度が複数種類存在する場合にも共通して生体特徴情報の抽出および照合の処理を行うことができる。
[第2の実施の形態の第5の変形例]
次に、第2の実施の形態の第5の変形例を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第2の実施の形態の第5の変形例の情報処理装置は、生体特徴情報に、生体の種別に加えて生体の方向を示す角度を含める点で、第2の実施の形態と異なる。
次に、第2の実施の形態の第5の変形例を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第2の実施の形態の第5の変形例の情報処理装置は、生体特徴情報に、生体の種別に加えて生体の方向を示す角度を含める点で、第2の実施の形態と異なる。
例えば、情報処理装置100で取得する生体画像において、ユーザの右手の方向を基準にした場合、左手の方向は、右手の載置向きに対して所定の角度(例えば、時計回りに90°)回転しているものとする。
第2の実施の形態の第5の変形例では、生体特徴情報の生体の種別(例えば、左右のいずれの手のひらの静脈であるか)を示す情報に加えて、右手に対しては0°、左手に対しては所定の角度を示す角度を設定することで、新たな生体特徴情報を取得した場合に、種別および角度が同一の生体特徴情報毎に更新することが可能になる。なお、所定の角度は、任意に設定することができる。
図25は、第2の実施の形態の第5の変形例の生体特徴テーブルを示す図である。図25に示す生体特徴テーブル141b3は、情報処理装置100が有する生体特徴情報記憶部141bに設定される。生体特徴テーブル141b3は、情報処理装置100の生体認証に使用する生体特徴情報を管理するテーブルである。
生体特徴テーブル141b3には、項目として“番号”、“ID”、“左右”、“角度”、“特徴データ”が設けられている。生体特徴テーブル141b3には、上記項目に設定された値が、生体特徴情報として互いに関連付けられる。
第2の実施の形態の第5の変形例では、左手および右手のそれぞれについて手の角度が複数種類存在する場合にも適用可能である。
なお、図25に示した生体特徴テーブル141b3は一例であり、生体特徴テーブルには任意の項目を設定することができる。
なお、図25に示した生体特徴テーブル141b3は一例であり、生体特徴テーブルには任意の項目を設定することができる。
図26は、第2の実施の形態の第5の変形例の生体特徴情報取得登録処理を示すフローチャートである。生体特徴情報取得登録処理は、登録対象の手の方向および種別を判定し、手の方向、種別および静脈の特徴を示す生体特徴情報を生成して登録する処理である。生体特徴情報取得登録処理は、例えば、ユーザが手のひらの静脈の生体特徴情報を登録する場合に実行される。以下、図26に示す処理をステップ番号に沿って説明する。
[ステップS131]情報取得部111は、読み取り部142の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部142上の所定高さの位置に手のひらが配置されたことを判定する。手のひらが配置されたと判定すると、情報取得部111は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分に基づいて、登録対象の手の方向を判定する。
[ステップS132]種別判定部112は、ステップS131で判定された手の方向に基づいて、手のひらの種別(左右いずれか)を判定する。
[ステップS133]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
[ステップS133]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
なお、ステップS132,S133の処理順は、逆であっても、あるいは同時であってもよい。
[ステップS134]情報生成部113は、ステップS133で取得された生体画像に基づいて生体情報の特徴を抽出する。情報生成部113は、特徴の抽出結果を示す生体情報を生成する。
[ステップS134]情報生成部113は、ステップS133で取得された生体画像に基づいて生体情報の特徴を抽出する。情報生成部113は、特徴の抽出結果を示す生体情報を生成する。
[ステップS135]情報生成部113は、ステップS132で判定された種別と、ステップS134で生成した生体情報と、ユーザのIDとを含む生体特徴情報を生成する。
[ステップS136]情報生成部113は、ステップS135で生成した生体特徴情報と同一のユーザであって、ステップS132で判定された種別およびステップS131で判定された手の方向を示す角度が同一の生体特徴情報が存在するか否かを判定する。同一のユーザであって種別および角度が同一の生体特徴情報が存在すれば(ステップS136 YES)、処理はステップS137に進められる。一方、同一のユーザであって種別および角度が同一の生体特徴情報が存在しなければ(ステップS136 NO)、処理はステップS138に進められる。ここで、生体特徴情報のユーザが同一であるか否かは、例えば、生体特徴情報取得処理の実行時にユーザのIDやIDを特定可能な氏名等の個人情報の入力を受け付け、生体特徴情報のIDと比較することにより判定してもよい。
[ステップS136]情報生成部113は、ステップS135で生成した生体特徴情報と同一のユーザであって、ステップS132で判定された種別およびステップS131で判定された手の方向を示す角度が同一の生体特徴情報が存在するか否かを判定する。同一のユーザであって種別および角度が同一の生体特徴情報が存在すれば(ステップS136 YES)、処理はステップS137に進められる。一方、同一のユーザであって種別および角度が同一の生体特徴情報が存在しなければ(ステップS136 NO)、処理はステップS138に進められる。ここで、生体特徴情報のユーザが同一であるか否かは、例えば、生体特徴情報取得処理の実行時にユーザのIDやIDを特定可能な氏名等の個人情報の入力を受け付け、生体特徴情報のIDと比較することにより判定してもよい。
[ステップS137]情報生成部113は、ステップS135で生成した生体特徴情報を生体特徴情報記憶部141bに記憶させる。これにより、生体特徴情報記憶部141bに記憶されている生体特徴情報が更新される。その後、処理は終了する。
[ステップS138]情報生成部113は、ステップS135で生成した生体特徴情報を新規に生体特徴情報記憶部141bに記憶させる。これにより、生体特徴情報が新規に生体特徴情報記憶部141bに登録される。その後、処理は終了する。
図27は、第2の実施の形態の第5の変形例の生体特徴情報認証処理を示すフローチャートである。生体特徴情報認証処理は、認証対象の手の方向および種別を判定し、認証対象の手の方向、種別および静脈の特徴を示す照合生体特徴情報を生成し、予め登録されている生体特徴情報と照合して認証する処理である。生体特徴情報認証処理は、例えば、ユーザが手のひらの静脈で認証する場合に実行される。以下、図27に示す処理をステップ番号に沿って説明する。
[ステップS141]情報取得部111は、読み取り部142の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部142上の所定高さの位置に手のひらが配置されたことを判定する。手のひらが配置されたと判定すると、情報取得部111は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分に基づいて、認証対象の手の方向を判定する。
[ステップS142]種別判定部112は、ステップS141で判定された手の方向に基づいて、手のひらの種別(左右いずれか)を判定する。
[ステップS143]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
[ステップS143]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
なお、ステップS142,S143の処理順は、逆であっても、あるいは同時であってもよい。
[ステップS144]情報生成部113は、ステップS143で取得された生体画像に基づいて生体情報の特徴を抽出する。情報生成部113は、特徴の抽出結果を示す生体情報を生成する。
[ステップS144]情報生成部113は、ステップS143で取得された生体画像に基づいて生体情報の特徴を抽出する。情報生成部113は、特徴の抽出結果を示す生体情報を生成する。
[ステップS145]情報生成部113は、ステップS141で判定された角度(手の方向)、ステップS142で判定された種別およびステップS144で抽出した生体情報の特徴に基づいて照合生体特徴情報を生成する。
[ステップS146]照合部114は、ステップS145で生成された照合生体特徴情報を用いて生体特徴情報照合処理(図28において後述)を実行する。その後、処理は終了する。
図28は、第2の実施の形態の第5の変形例の生体特徴情報照合処理を示すフローチャートである。生体特徴情報照合処理は、認証対象の照合生体特徴情報と予め登録されている生体特徴情報とを照合する処理である。生体特徴情報照合処理は、例えば、生体特徴情報認証処理によって呼び出された場合に実行される。以下、図28に示す処理をステップ番号に沿って説明する。
[ステップS151]照合部114は、生体特徴情報認証処理で生成された照合生体特徴情報を取得する。
[ステップS152]照合部114は、生体特徴情報記憶部141bを参照して、ステップS151で取得した照合生体特徴情報の角度(手の方向)、種別と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部114は、照合生体特徴情報の角度、種別およびユーザのIDのすべてが一致する生体特徴情報を、生体特徴情報記憶部141bから抽出する。
[ステップS152]照合部114は、生体特徴情報記憶部141bを参照して、ステップS151で取得した照合生体特徴情報の角度(手の方向)、種別と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部114は、照合生体特徴情報の角度、種別およびユーザのIDのすべてが一致する生体特徴情報を、生体特徴情報記憶部141bから抽出する。
[ステップS153]照合部114は、ステップS152で抽出した生体特徴情報のうちの未選択の1つを選択し、選択した生体特徴情報と照合生体特徴情報のそれぞれに含まれる生体情報を照合する。このとき、照合部114は、選択した生体特徴情報の角度と照合生体特徴情報の角度とが一致する場合には、生体の角度を補正せずに照合する。一方、選択した生体特徴情報の角度と照合生体特徴情報の角度とが一致しない場合には、それぞれの角度が一致するように生体の角度を補正してから照合する。
[ステップS154]照合部114は、ステップS153の照合の結果、選択した生体特徴情報と照合生体特徴情報との照合に成功したか否かを判定する。照合に成功すれば(ステップS154 YES)、処理はステップS155に進められる。一方、照合に失敗すれば(ステップS154 NO)、処理はステップS156に進められる。
[ステップS155]照合部114は、認証に成功した場合の所定の処理を実行する。その後、処理は復帰する。
[ステップS156]照合部114は、ステップS152で抽出した生体特徴情報が、ステップS153ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS156 YES)、処理はステップS157に進められる。一方、未選択のものがあれば(ステップS156 NO)、処理はステップS153に進められる。
[ステップS156]照合部114は、ステップS152で抽出した生体特徴情報が、ステップS153ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS156 YES)、処理はステップS157に進められる。一方、未選択のものがあれば(ステップS156 NO)、処理はステップS153に進められる。
[ステップS157]照合部114は、認証に失敗した場合の所定の処理を実行する。その後、処理は復帰する。
以上のような第2の実施の形態の第5の変形例によっても、第2の実施の形態と同様の効果を奏する。
以上のような第2の実施の形態の第5の変形例によっても、第2の実施の形態と同様の効果を奏する。
また、生体の種別が一致するが角度が異なる情報については新規に登録する一方、生体の種別および角度が一致する生体特徴情報については更新することで、左右の手の方向について複数の角度のデータを共通して管理する場合に、角度毎に新規および更新を管理することができる。
[第2の実施の形態の第6の変形例]
次に、第2の実施の形態の第6の変形例を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第2の実施の形態の第6の変形例の情報処理装置は、手のひらの静脈の特徴の抽出後、生体の角度を補正して登録を行う点で、第2の実施の形態と異なる。
次に、第2の実施の形態の第6の変形例を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第2の実施の形態の第6の変形例の情報処理装置は、手のひらの静脈の特徴の抽出後、生体の角度を補正して登録を行う点で、第2の実施の形態と異なる。
例えば、情報処理装置100で取得する生体画像において、ユーザの右手の方向を基準にした場合、左手の方向は、右手の載置向きに対して所定の角度(例えば、時計回りに90°)回転しているものとする。このような場合、右手の方向で取得した生体画像から生成した生体情報と、右手の載置向きに対して所定の角度回転した関係となる左手の方向で取得した生体画像から生成した生体情報とは、方向が異なるために照合できない場合がある。
第2の実施の形態の第6の変形例では、生体画像から生成した左手の生体特徴情報を所定の角度(例えば、反時計回りに90°)回転させて補正し、生体特徴情報の方向を揃えることで、照合を可能にする。なお、所定の角度は、任意に設定することができる。
図29は、第2の実施の形態の第6の変形例の生体特徴情報取得登録処理を示すフローチャートである。生体特徴情報取得登録処理は、登録対象の手のひらの種別を判定し、手のひらの種別および静脈の特徴を示す生体特徴情報を生成して登録する処理である。生体特徴情報取得登録処理は、例えば、ユーザが手のひらの静脈の生体特徴情報を登録する場合に実行される。以下、図29に示す処理をステップ番号に沿って説明する。
[ステップS161]情報取得部111は、読み取り部142の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部142上の所定高さの位置に手のひらが配置されたことを判定する。手のひらが配置されたと判定すると、情報取得部111は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分に基づいて、登録対象の手の方向を判定する。
[ステップS162]種別判定部112は、ステップS161で判定された手の方向に基づいて、手のひらの種別(左右いずれか)を判定する。
[ステップS163]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
[ステップS163]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
なお、ステップS162,S163の処理順は、逆であっても、あるいは同時であってもよい。
[ステップS164]情報生成部113は、ステップS163で取得された生体画像に基づいて生体の特徴を抽出する。情報生成部113は、特徴の抽出結果を示す生体情報を生成する。
[ステップS164]情報生成部113は、ステップS163で取得された生体画像に基づいて生体の特徴を抽出する。情報生成部113は、特徴の抽出結果を示す生体情報を生成する。
[ステップS165]情報生成部113は、ステップS162で判定された種別と、ステップS164で生成した生体情報と、ユーザのIDとを含む生体特徴情報を生成する。また、情報生成部113は、ステップS161で判定された方向に基づいて、生体特徴情報に含まれる生体情報の角度を補正する。ここで、生体情報の角度の補正は、ステップS164で生成した生体情報を、ステップS161で判定された方向を示す角度の逆に回転させた場合の情報となるように変換し、生体の角度にかかわらず生体特徴情報に含まれている生体情報が同一の方向を基準とした情報になるように処理する。
なお、情報生成部113は、生体特徴情報を生成する前に、生体情報の角度の補正を行ってもよい。
[ステップS166]情報生成部113は、ステップS165で生成した生体特徴情報を生体特徴情報記憶部141bに記憶させる。これにより、生体特徴情報が生体特徴情報記憶部141bに登録される。その後、処理は終了する。
[ステップS166]情報生成部113は、ステップS165で生成した生体特徴情報を生体特徴情報記憶部141bに記憶させる。これにより、生体特徴情報が生体特徴情報記憶部141bに登録される。その後、処理は終了する。
図30は、第2の実施の形態の第6の変形例の生体特徴情報認証処理を示すフローチャートである。生体特徴情報認証処理は、認証対象の手のひらの種別を判定し、認証対象の手のひらの種別および静脈の特徴を示す照合生体特徴情報を生成し、予め登録されている生体特徴情報と照合して認証する処理である。生体特徴情報認証処理は、例えば、ユーザが手のひらの静脈で認証する場合に実行される。以下、図30に示す処理をステップ番号に沿って説明する。
[ステップS171]情報取得部111は、読み取り部142の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部142上の所定高さの位置に手のひらが配置されたことを判定する。手のひらが配置されたと判定すると、情報取得部111は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分に基づいて、認証対象の手の方向を判定する。
[ステップS172]種別判定部112は、ステップS171で判定された手の方向に基づいて、手のひらの種別(左右いずれか)を判定する。
[ステップS173]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
[ステップS173]情報取得部111は、読み取り部142の撮像部142bに画像を撮像させ、手のひらの静脈が映り込んだ生体画像を取得する。
なお、ステップS172,S173の処理順は、逆であっても、あるいは同時であってもよい。
[ステップS174]情報生成部113は、ステップS173で取得された生体画像に基づいて生体の特徴を抽出する。情報生成部113は、特徴の抽出結果を示す生体情報を生成する。
[ステップS174]情報生成部113は、ステップS173で取得された生体画像に基づいて生体の特徴を抽出する。情報生成部113は、特徴の抽出結果を示す生体情報を生成する。
[ステップS175]情報生成部113は、ステップS172で判定された種別およびステップS174で生成した生体情報を含む照合生体特徴情報を生成する。また、情報生成部113は、図29のステップS165と同様に、ステップS171で判定された方向に基づいて、照合生体特徴情報に含まれる生体情報の角度を補正する。
[ステップS176]照合部114は、ステップS175で生成された照合生体特徴情報を用いて生体特徴情報照合処理(図31において後述)を実行する。その後、処理は終了する。
図31は、第2の実施の形態の第6の変形例の生体特徴情報照合処理を示すフローチャートである。生体特徴情報照合処理は、認証対象の照合生体特徴情報と予め登録されている生体特徴情報とを照合する処理である。生体特徴情報照合処理は、例えば、生体特徴情報認証処理によって呼び出された場合に実行される。以下、図31に示す処理をステップ番号に沿って説明する。
[ステップS181]照合部114は、生体特徴情報認証処理で生成された照合生体特徴情報を取得する。
[ステップS182]照合部114は、生体特徴情報記憶部141bを参照して、ステップS181で取得した照合生体特徴情報の種別と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部114は、照合生体特徴情報の種別およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部141bから抽出する。
[ステップS182]照合部114は、生体特徴情報記憶部141bを参照して、ステップS181で取得した照合生体特徴情報の種別と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部114は、照合生体特徴情報の種別およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部141bから抽出する。
[ステップS183]照合部114は、ステップS182で抽出した生体特徴情報のうちの未選択の1つを選択し、選択した生体特徴情報と照合生体特徴情報のそれぞれに含まれる生体情報を照合する。
[ステップS184]照合部114は、ステップS183の照合の結果、選択した生体特徴情報と照合生体特徴情報との照合に成功したか否かを判定する。照合に成功すれば(ステップS184 YES)、処理はステップS185に進められる。一方、照合に失敗すれば(ステップS184 NO)、処理はステップS186に進められる。
[ステップS185]照合部114は、認証に成功した場合の所定の処理を実行する。その後、処理は復帰する。
[ステップS186]照合部114は、ステップS182で抽出した生体特徴情報が、ステップS183ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS186 YES)、処理はステップS187に進められる。一方、未選択のものがあれば(ステップS186 NO)、処理はステップS183に進められる。
[ステップS186]照合部114は、ステップS182で抽出した生体特徴情報が、ステップS183ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS186 YES)、処理はステップS187に進められる。一方、未選択のものがあれば(ステップS186 NO)、処理はステップS183に進められる。
[ステップS187]照合部114は、認証に失敗した場合の所定の処理を実行する。その後、処理は復帰する。
以上のような第2の実施の形態の第6の変形例によっても、第2の実施の形態と同様の効果を奏する。
以上のような第2の実施の形態の第6の変形例によっても、第2の実施の形態と同様の効果を奏する。
また、読み取り部142に対する生体の方向を判定し、生体情報を、判定した方向に基づく角度で補正して登録するとともに照合することで、特徴の照合の処理の効率化を図ることができるとともに、特徴の照合の精度を高めることができる。
[第2の実施の形態の第7の変形例]
次に、第2の実施の形態の第7の変形例を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第2の実施の形態の第7の変形例の情報処理装置は、左右の生体(手)の方向が、逆方向(180°回転)である点で、第2の実施の形態と異なる。
次に、第2の実施の形態の第7の変形例を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第2の実施の形態の第7の変形例の情報処理装置は、左右の生体(手)の方向が、逆方向(180°回転)である点で、第2の実施の形態と異なる。
図32は、第2の実施の形態の第7の変形例の情報処理装置の外観を示す図である。図32に示す情報処理装置300は、手のひらの静脈を用いた生体認証によるセキュリティ機能が付加された、ノートタイプのパーソナルコンピュータである。情報処理装置300は、LCD121を有するディスプレイ部120、キーボード131、読み取り部342を有する本体部330を有する。
ディスプレイ部120および本体部330のそれぞれは、前面、前面に対向する後面およびそれらを連結する2つ側面を備える略直方体の筐体を有する。ディスプレイ部120と本体部330は、本体部330の後面寄りにおいて、図示しないヒンジにより開閉可能に連結されている。ディスプレイ部120と本体部330が閉状態にあるとき、情報処理装置300の外観は全体として略直方体となる。
LCD121は、文字または画像を表示する表示画面を有する表示装置である。なお、表示装置としては、LCD以外にも、例えば有機ELディスプレイ等の他の薄型表示デバイスを用いてもよい。キーボード131は、文字の入力およびその他の操作を行うための入力装置である。
読み取り部342は、ユーザが手のひらをかざすことで、手のひらの静脈を読み取らせて生体画像の入力を行う入力装置である。読み取り部342は、ユーザの手のひらの静脈を読み取ることによって手のひらの静脈の生体画像を取得する正方形状の静脈センサを有している。静脈センサは、静脈センサの各辺が読み取り部342の各辺と平行になるように配置されている。読み取り部342は、情報処理装置300のキーボード131と同じ本体部330上面であって、キーボード131の手前中央に、正方形状の静脈センサの各辺が情報処理装置300の前面および側面に対して平行に配置されている。
上記各実施の形態と同様に、静脈センサは、読み取り対象物を走査することで静脈の情報を読み取る。静脈センサの主走査方向は、正方形状の静脈センサにおける1つの辺と平行である。従って、静脈センサの主走査方向は、読み取り部342における1つの辺とも平行である。本実施の形態では例として、静脈センサの主走査方向は図32中のD31方向である。そして、静脈センサは、主走査方向D31と、本体部330の前面330aが延びる方向D32とのなす角が90°となるように配置されている。
なお、静脈センサは、例えば、本体部330の前面330aの方向D32、キーボード131における操作キーの配列方向D33(キーボード131の長手方向)、または、LCD121の主走査方向D34のいずれかと主走査方向D31との角度が90°となるように、配置されていてもよい。
また、本実施の形態の情報処理装置300では、ノートタイプのパーソナルコンピュータについて説明したが、情報処理装置300は情報処理装置の一例であり、本実施の形態のユーザ認証機能は、携帯電話やPDAをはじめとする移動通信用端末装置、デスクトップタイプのパーソナルコンピュータ、銀行等の預金の受け入れおよび払い出しを行う現金自動預け払い機、情報処理システムの端末装置等のように、ユーザ認証を行う情報処理装置に適用することができる。
図33は、第2の実施の形態の第7の変形例の生体特徴テーブルを示す図である。図33に示す生体特徴テーブル141b4は、第2の実施の形態の第7の変形例の情報処理装置300が有する生体特徴情報記憶部141bに設定される。生体特徴テーブル141b4は、情報処理装置300の生体認証に使用する生体特徴情報を管理するテーブルである。
生体特徴テーブル141b4には、項目として“番号”、“ID”、“左右”、“角度”、“特徴データ”が設けられている。生体特徴テーブル141b4には、上記項目に設定された値が、生体特徴情報として互いに関連付けられる。
角度は、上記のように、生体特徴情報が示す手のひらの静脈が検出された際の角度を示す。右手の手のひらの静脈の生体特徴情報については、基準となる角度である0°を示す“0”が設定される。左手の手のひらの静脈の生体特徴情報については、基準となる角度から時計回りに回転した所定の角度を示す“90”または“180”が設定される。ここで、図33に示すように、所定の角度には、複数の異なる角度を設定することができる。また、第2の実施の形態の第7の変形例では、右手の生体特徴情報の方向と左手の生体特徴情報の方向とが逆方向(180°回転)である。また、角度の項目により、右手の生体特徴情報の方向と逆方向である左手の生体特徴情報と、左手の生体特徴情報の方向が右手の生体特徴情報の方向と直交(90°回転)する生体特徴情報とを区別可能である。このように、第2の実施の形態の第7の変形例では、左手の方向と右手の方向との角度が複数種類存在する場合にも適用可能である。
なお、図33に示した生体特徴テーブル141b4は一例であり、生体特徴テーブルには任意の項目を設定することができる。
図34は、第2の実施の形態の第7の変形例の右手の手のひらの静脈の読み取り時の状態を示す図である。図34は、情報処理装置300が右手の手のひらの静脈を読み取る際の状態を上方から見た場合の図である。図34に示すように、情報処理装置300は、ディスプレイ部120および本体部330を有する。情報処理装置300の本体部330の上面には、キーボード131、読み取り部342が設けられている。読み取り部342は、情報処理装置300のキーボード131と同じ本体部330上面であって、キーボード131の手前中央に、横方向が長い長方形状の静脈センサの各辺が情報処理装置300の前面および側面に平行に配置されている。また、ユーザの頭部201、胴体部202、右上腕部203、右下腕部204、右手の手のひら205を示す。
図34は、第2の実施の形態の第7の変形例の右手の手のひらの静脈の読み取り時の状態を示す図である。図34は、情報処理装置300が右手の手のひらの静脈を読み取る際の状態を上方から見た場合の図である。図34に示すように、情報処理装置300は、ディスプレイ部120および本体部330を有する。情報処理装置300の本体部330の上面には、キーボード131、読み取り部342が設けられている。読み取り部342は、情報処理装置300のキーボード131と同じ本体部330上面であって、キーボード131の手前中央に、横方向が長い長方形状の静脈センサの各辺が情報処理装置300の前面および側面に平行に配置されている。また、ユーザの頭部201、胴体部202、右上腕部203、右下腕部204、右手の手のひら205を示す。
ユーザが手のひらの静脈を読み取り部342に読み取らせる場合、ユーザは、図34に示すように、静脈を読み取らせる方の手のひら(例えば、右手の手のひら205)を情報処理装置300の前面に対して平行かつ情報処理装置300の本体部330の上面と平行になるように位置させる。このとき、ユーザは、手のひらの中心部が読み取り部342の中心部に一致するように、右手の手のひら205を指を開いた状態で、静脈センサ面から一定の距離(例えば数cm)離した空間上に位置させる。ユーザは、読み取り時に右手の手のひら205と右下腕部204との間の手首をねじ曲げる必要がなく、ほぼ真直ぐにできる。これに伴い、ユーザの右手の各指は、各々真直ぐ伸ばし十分正しく開け、ユーザの右手の指と指の間の付け根4か所は、間隔が十分開いている。従って右手の手のひら205に水平面のねじれはなく、早く確実に正しい画像が得られる。従って正しい特徴を早く確実に検出でき、生体情報の登録やユーザの認証を早く確実に行うことができる。
また、手の指と指の間の付け根を、右手の手のひら205が読み取り部342上に配置されたことの検出に利用することで、左右の手の判定を早く確実に行うことができる。また、ユーザの右手首の部分の角度、右手首から右下腕部204や右上腕部203、右下腕部204と右上腕部203との間の肘、右上腕部203と胴体部202との間の右肩の姿勢に無理がなく、ユーザの負担の軽減を図ることができる。なお、図34では、ユーザの右手の手のひらの静脈を読み取らせる場合について説明したが、これに限らず、左手の手のひらの静脈を読み取らせる場合についても同様であり、説明を省略する。
図35は、第2の実施の形態の第7の変形例の手の方向特徴部分の検出を示す図である。図35に、第2の実施の形態の情報処理装置300における、手の方向および生体情報の方向特徴部分を示す。図35(A)は、右手の手のひらの取得画像3421を示す。図35(B)は、左手の手のひらの取得画像3422を示す。取得画像3421,3422は、読み取り部342の生体検出部142aによって取得される画像である。取得画像3421,3422は、例えば、生体検出部142aが備える画像センサによって撮像される。
図35に示すように、生体検出部142aによって取得される画像には、右手の手のひらの指の付け根の谷間部分を検出する右手検出用矩形画像領域3420a、左手の手のひらの指の付け根の谷間部分を検出する左手検出用矩形画像領域3420bが設定される。右手検出用矩形画像領域3420aと、左手検出用矩形画像領域3420bとは、取得画像における互いに平行する2辺に沿って設けられる。指の付け根の谷間部分は、方向特徴部分として機能する。
読み取り部342は、生体検出部142aの図示しない距離センサで、読み取り部342の上方に位置するユーザの手のひらを検出すると、生体検出部142aの図示しない画像センサで手のひらの画像を取得し、情報取得部111に供給する。情報取得部111は、取得画像に設定した右手検出用矩形画像領域3420aまたは左手検出用矩形画像領域3420bに指の付け根の谷間部分が検出されるか否かを判定する。ここでの画像センサによる手のひらの画像取得は、光源部142cから近赤外光が照射されずに行われる。従って、ここで取得される画像は手のひらの静脈の画像ではなく手のひらの外観の画像である。指の付け根の谷間部分の検出処理においては、その手のひらの外観の画像において右手検出用矩形画像領域3420aまたは左手検出用矩形画像領域3420bが設定された位置を対象にこの検出処理が行われる。
生体検出部142aにより上記のようにして手のひらの外観の画像が取得された場合、情報取得部111は、右手検出用矩形画像領域3420aおよび左手検出用矩形画像領域3420bに指の付け根の谷間部分である方向特徴部分が存在するか否かを判定する。例えば画像が図35(A)に示すような取得画像3421である場合、右手検出用矩形画像領域3420aに方向特徴部分3421a1が存在する一方、左手検出用矩形画像領域3420bに存在しないので、ユーザの手のひらは、“0°”の角度に位置すると判定される。これにより、情報処理装置300は、取得画像を右手の手のひらの静脈の画像であると判定する。
また、例えば画像が図35(B)に示すような取得画像3422である場合、左手検出用矩形画像領域3420bに方向特徴部分3422b1が存在する一方、右手検出用矩形画像領域3420aに存在しないので、ユーザの手のひらは、“180°”の角度に位置すると判定される。これにより、情報処理装置300は、取得画像を左手の手のひらの静脈の画像であると判定する。
このようにして、読み取り部342は、ユーザの手のひらが検出されると、手のひらにおける方向特徴部分の画像を取得する。情報取得部111は、右手検出用矩形画像領域または左手検出用矩形画像領域の方向特徴部分の有無に基づいて、手のひらの角度を判定する。種別判定部112は、判定した手のひらの角度に基づいて、読み取り部342上に配置された手のひらの種別(左右の手のいずれか)を判定する。
なお、図35(A)、図35(B)に示した、方向特徴部分を検出するための取得画像は、撮像部142bによって撮像される画像であってもよい。
第2の実施の形態の第7の変形例における方向特徴部分、すなわち指の付け根の谷間部分の検出は、例えば人差指と中指の付け根の谷間部分、中指と薬指の付け根の谷間部分、薬指と小指の付け根の谷間部分のすべてまたは少なくとも一部の組み合わせが、所定の間隔開いていることに基づいて検出すればよい。例えば、指の付け根の谷間部分の検出は、生体検出部142aで取得した手のひらの取得画像における、手の各指の付け根の位置と、指の付け根と付け根の間の輪郭識別によって実現してもよい。
第2の実施の形態の第7の変形例における方向特徴部分、すなわち指の付け根の谷間部分の検出は、例えば人差指と中指の付け根の谷間部分、中指と薬指の付け根の谷間部分、薬指と小指の付け根の谷間部分のすべてまたは少なくとも一部の組み合わせが、所定の間隔開いていることに基づいて検出すればよい。例えば、指の付け根の谷間部分の検出は、生体検出部142aで取得した手のひらの取得画像における、手の各指の付け根の位置と、指の付け根と付け根の間の輪郭識別によって実現してもよい。
以上のような第2の実施の形態の第7の変形例によっても、第2の実施の形態と同様の効果を奏する。
[第2の実施の形態の第8の変形例]
次に、第2の実施の形態の第8の変形例を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第2の実施の形態の第8の変形例の情報処理装置は、読み取り部の位置が本体部の中心線から偏っているとともに、左右の生体(手)の方向が、本体部の各辺に対して直交または平行以外の所定の角度で交差する点で、第2の実施の形態と異なる。
[第2の実施の形態の第8の変形例]
次に、第2の実施の形態の第8の変形例を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第2の実施の形態の第8の変形例の情報処理装置は、読み取り部の位置が本体部の中心線から偏っているとともに、左右の生体(手)の方向が、本体部の各辺に対して直交または平行以外の所定の角度で交差する点で、第2の実施の形態と異なる。
図36は、第2の実施の形態の第8の変形例の情報処理装置の外観を示す図である。図36に示す情報処理装置400は、手のひらの静脈を用いた生体認証によるセキュリティ機能が付加された、ノートタイプのパーソナルコンピュータである。情報処理装置400は、LCD121を有するディスプレイ部120、キーボード131、読み取り部442を有する本体部430を有する。
LCD121は、文字または画像を表示する表示画面を有する表示装置である。なお、表示装置としては、LCD以外にも、例えば有機ELディスプレイ等の他の薄型表示デバイスを用いてもよい。キーボード131は、文字の入力およびその他の操作を行うための入力装置である。
読み取り部442は、ユーザが手のひらをかざすことで、手のひらの静脈を読み取らせて生体画像の入力を行う入力装置である。読み取り部442は、ユーザの手のひらの静脈を読み取ることによって手のひらの静脈の生体画像を取得する正方形状の静脈センサを有している。静脈センサは、静脈センサの各辺が読み取り部442の各辺と平行になるように配置されている。読み取り部442は、情報処理装置400のキーボード131と同じ本体部430上面であって、キーボード131の手前であって向かって左寄りに、正方形状の静脈センサの1辺が本体部430の側面に対して25°の角度で傾斜しており、他辺が本体部430の前面に対して65°で傾斜している。なお、第2の実施の形態の第8の変形例の情報処理装置400では、読み取り部442は、本体部430上面であって向かって左寄りに設けられているが、これに限らず、右寄りに設けられていてもよい。また、本体部430の前面および側面に対して、任意の角度で設けられていてもよい。
上記各実施の形態と同様に、静脈センサは、読み取り対象物を走査することで静脈の情報を読み取る。静脈センサの主走査方向は、正方形状の静脈センサにおける1つの辺と平行である。従って、静脈センサの主走査方向は、読み取り部442における1つの辺とも平行である。本実施の形態では例として、静脈センサの主走査方向は図36中のD41方向である。そして、静脈センサは、主走査方向D41と、本体部430の前面430aが延びる方向D42とのなす角が65°となるように配置されている。
なお、静脈センサは、例えば、本体部430の前面430aの方向D42、キーボード131における操作キーの配列方向D43(キーボード131の長手方向)、または、LCD121の主走査方向D44のいずれかと主走査方向D41との角度が65°となるように、配置されていてもよい。
また、本実施の形態の情報処理装置400では、ノートタイプのパーソナルコンピュータについて説明したが、情報処理装置400は情報処理装置の一例であり、本実施の形態のユーザ認証機能は、携帯電話やPDAをはじめとする移動通信用端末装置、デスクトップタイプのパーソナルコンピュータ、銀行等の預金の受け入れおよび払い出しを行う現金自動預け払い機、情報処理システムの端末装置等のように、ユーザ認証を行う情報処理装置に適用することができる。
図37は、第2の実施の形態の第8の変形例の右手の手のひらの静脈の読み取り時の状態を示す図である。図37は、情報処理装置400が右手の手のひらの静脈を読み取る際の状態を上方から見た場合の図である。図37に示すように、情報処理装置400は、ディスプレイ部120および本体部430を有する。情報処理装置400の本体部430の上面には、キーボード131、読み取り部442が設けられている。また、ユーザの頭部201、胴体部202、右上腕部203、右下腕部204、右手の手のひら205を示す。
ユーザが右手の手のひら205の静脈を読み取り部442に読み取らせる場合、ユーザは、図37に示すように、右手の手のひら205を情報処理装置400の前面に対して所定の角度を持ちかつ情報処理装置400の本体部430の上面と平行になるように位置させる。このとき、ユーザは、手のひらの中心部が読み取り部442の中心部に一致するように、右手の手のひら205を指を開いた状態で、静脈センサ面から一定の距離(例えば数cm)離した空間上に位置させる。図37に示すように、読み取り部442は、本体部430の左側に設置されているため、ユーザの右腕(右上腕部203、右下腕部204)は、第2の実施の形態に比較して胴体部202側に曲げられた状態となり、胴体部202の近くに位置する。ユーザは、読み取り時に右手の手のひら205と右下腕部204との間の手首をねじ曲げる必要がなく、ほぼ真直ぐにできる。これに伴い、ユーザの右手の各指は、各々真直ぐ伸ばし十分正しく開け、ユーザの右手の指と指の間の付け根4か所は、間隔が十分開いている。従って右手の手のひら205に水平面のねじれはなく、早く確実に正しい画像が得られる。従って正しい特徴を早く確実に検出でき、生体情報の登録やユーザの認証を早く確実に行うことができる。
また、手の指と指の間の付け根を、右手の手のひら205の静脈センサによる検出に利用することで、検出を問題なく行うことができる。また、ユーザの右手首の部分の角度、右手首から右下腕部204や右上腕部203、右下腕部204と右上腕部203との間の肘、右上腕部203と胴体部202との間の右肩の姿勢に無理がなく、ユーザの負担の軽減を図ることができる。
図38は、第2の実施の形態の第8の変形例の左手の手のひらの静脈の読み取り時の状態を示す図である。図38は、情報処理装置400が左手の手のひらの静脈を読み取る際の状態を上方から見た場合の図である。図38に示すように、情報処理装置400は、ディスプレイ部120および本体部430を有する。情報処理装置400の本体部430の上面には、キーボード131、読み取り部442が設けられている。また、ユーザの頭部201、胴体部202、左上腕部206、左下腕部207、左手の手のひら208を示す。
ユーザが左手の手のひら208の静脈を読み取り部442に読み取らせる場合、ユーザは、図38に示すように、静脈を読み取らせる左手の手のひら208を情報処理装置400の前面に対して所定の角度を持ちかつ情報処理装置400の本体部430の上面と平行になるように配置させる。このとき、ユーザは、手のひらの中心部が読み取り部442の中心部に一致するように、左手の手のひら208を指を開いた状態で、静脈センサ面から一定の距離(例えば数cm)離した空間上に位置させる。図38に示すように、読み取り部442は、本体部430の左側に設置されているため、ユーザの左腕(左上腕部206、左下腕部207)は、第2の実施の形態や図37において前述した右手の手のひらの場合に比較して伸ばされた状態となり、胴体部202から遠くに位置する。ユーザは、読み取り時に左手の手のひら208と左下腕部207との間の手首をねじ曲げる必要がなく、ほぼ真直ぐにできる。これに伴い、ユーザの左手の各指は、各々真直ぐ伸ばし十分正しく開け、ユーザの左手の指と指の間の付け根4か所は、間隔が十分開いている。従って左手の手のひら208に水平面のねじれはなく、早く確実に正しい画像が得られる。従って正しい特徴を早く確実に検出でき、生体情報の登録やユーザの認証を早く確実に行うことができる。
また、手の指と指の間の付け根を、左手の手のひら208が読み取り部442上に配置されたことの検出に利用することで、左右の手の判定を早く確実に行うことができる。また、ユーザの左手首の部分の角度、左手首から左下腕部207や左上腕部206、左下腕部207と左上腕部206との間の肘、左上腕部206と胴体部202との間の左肩の姿勢に無理がなく、ユーザの負担の軽減を図ることができる。
以上のような第2の実施の形態の第8の変形例によっても、第2の実施の形態と同様の効果を奏する。
[第3の実施の形態]
次に、第3の実施の形態を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第3の実施の形態の情報処理装置は、生体情報が指の静脈についての特徴情報である点で、第2の実施の形態と異なる。
[第3の実施の形態]
次に、第3の実施の形態を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第3の実施の形態の情報処理装置は、生体情報が指の静脈についての特徴情報である点で、第2の実施の形態と異なる。
図39は、第3の実施の形態の情報処理装置を示すブロック図である。第3の実施の形態の情報処理装置500は、情報取得部511、種別判定部512、情報生成部513、照合部514、生体特徴情報記憶部541bを有する。また、情報取得部511には、読み取り部542が接続されている。
情報取得部511は、情報処理装置500のユーザ等の認証対象の人物の生体画像を取得する。情報取得部511は、生体画像が取得される状態における生体の方向を取得可能である。情報取得部511により取得される生体画像は、指の静脈のパターンの画像情報である。生体の方向は、手の左右に基づく2つの直交する異なる方向である。また、情報処理装置500は、読み取りの対象の指の方向を示すガイドを有する。ガイドについては、詳しくは後述する。
読み取り部542は、情報処理装置500の上部に固定されている。読み取り部542は、図4に示した生体検出部142a、撮像部142bおよび光源部142cを備える。情報取得部511は、読み取り部542の生体検出部142aによる検出結果に基づいて、生体が読み取り部542から所定の距離に配置されたことや、読み取り部542に対する生体の方向を判定する。情報取得部511は、読み取り部542の生体検出部142aによって得られた画像から、生体における方向特徴部分の位置を判定することで、生体の方向を判定する。第3の実施の形態では、方向は、互いに直交するとともにキーボード131との角度は斜角である。方向特徴部分は、手のひらにおける指の付け根の谷間部分である。
また、情報取得部511は、読み取り部542の撮像部142bによって生体が撮像された生体画像を取得する。
情報取得部511は、ユーザによる、静脈の生体情報の取得対象の指の種類(親指、人差指、中指、薬指、小指の区別)の入力を受け付ける。
情報取得部511は、ユーザによる、静脈の生体情報の取得対象の指の種類(親指、人差指、中指、薬指、小指の区別)の入力を受け付ける。
種別判定部512は、情報取得部511によって取得された生体の方向に基づいて生体情報の種別を判定する。種別は、生体情報生成の基となった手の左右を示す。
情報生成部513は、情報取得部511で取得された生体画像を基に、生体の特徴を示す生体情報を生成する。情報生成部513は、生成した生体情報と、種別判定部512によって判定された生体情報の種別とを含む照合生体特徴情報を生成する。これにより、認証のために生体情報を照合するユーザの生体情報および種別が示される。情報生成部513は、例えば、情報生成部513で取得された生体情報と、種別判定部512によって判定された生体情報の種別と、情報取得部511で受け付けられた指の種類(親指、人差指、中指、薬指、小指の区別)と、生体情報に対応する個人を特定する識別情報とを含む生体特徴情報を生成して、生体特徴情報記憶部541bに記憶させる。これにより、認証に使用する予め登録された正規の権限を有するユーザの生体情報および種別および指の種類を示す生体特徴情報が登録される。また、ユーザの生体情報の登録時には、情報生成部513は、生成した生体特徴情報を生体特徴情報記憶部541bに記憶させる。また、ユーザの生体情報による認証時には、照合部514は、情報生成部513により生成された照合生体特徴情報を用いて認証を行う。
情報生成部513は、情報取得部511で取得された生体画像を基に、生体の特徴を示す生体情報を生成する。情報生成部513は、生成した生体情報と、種別判定部512によって判定された生体情報の種別とを含む照合生体特徴情報を生成する。これにより、認証のために生体情報を照合するユーザの生体情報および種別が示される。情報生成部513は、例えば、情報生成部513で取得された生体情報と、種別判定部512によって判定された生体情報の種別と、情報取得部511で受け付けられた指の種類(親指、人差指、中指、薬指、小指の区別)と、生体情報に対応する個人を特定する識別情報とを含む生体特徴情報を生成して、生体特徴情報記憶部541bに記憶させる。これにより、認証に使用する予め登録された正規の権限を有するユーザの生体情報および種別および指の種類を示す生体特徴情報が登録される。また、ユーザの生体情報の登録時には、情報生成部513は、生成した生体特徴情報を生体特徴情報記憶部541bに記憶させる。また、ユーザの生体情報による認証時には、照合部514は、情報生成部513により生成された照合生体特徴情報を用いて認証を行う。
照合部514は、照合生体特徴情報と種別が一致する生体特徴情報を抽出し、照合生体特徴情報の生体情報と抽出した生体特徴情報とに基づいて照合する。これにより、情報処理装置500は、照合結果に基づいてユーザの生体認証を行う。照合の対象を種別が同一のものに絞って照合を行うので、照合の処理に要する時間や負荷の増加を抑制することができる。
生体特徴情報記憶部541bは、生体情報と生体情報の種別と指の種類とを示す生体特徴情報を記憶する。これにより、ユーザの生体情報と種別と指の種類とが対応付けられて記憶される。
図40は、第3の実施の形態の読み取り部を示す図である。図40に示す読み取り部542は、ユーザが指の静脈を読み取らせて生体画像の入力を行う入力装置である。
読み取り部542は、ユーザの指の静脈を読み取ることによって指の静脈の生体画像を取得する静脈センサを有している。読み取り部542は、正方形状であるとともに45°傾斜している。読み取り部542の上面には、読み取り部542の各辺に平行な辺(辺A、辺B)を有する十字形のガイド542aが設けられている。ガイド542aの辺Aは、情報処理装置500の正面から見て左に45°傾斜している。ガイド542aの辺Bは、情報処理装置500の正面から見て右に45°傾斜している。
読み取り部542は、ユーザの指の静脈を読み取ることによって指の静脈の生体画像を取得する静脈センサを有している。読み取り部542は、正方形状であるとともに45°傾斜している。読み取り部542の上面には、読み取り部542の各辺に平行な辺(辺A、辺B)を有する十字形のガイド542aが設けられている。ガイド542aの辺Aは、情報処理装置500の正面から見て左に45°傾斜している。ガイド542aの辺Bは、情報処理装置500の正面から見て右に45°傾斜している。
ユーザは、生体画像を取得させる指を、ガイド542aの十字形の辺の一方に沿って位置させる。すなわち、ユーザは、情報処理装置500に対して右手のいずれかの指の静脈の生体画像を取得させる場合には、取得対象の指を辺Aに沿って位置させる。また、ユーザは、情報処理装置500に対して左手のいずれかの指の静脈の生体画像を取得させる場合には、取得対象の指を辺Bに沿って位置させる。これにより、ユーザにとって右手の指の生体画像を取得させる場合および左手の指の生体画像を取得させる場合のいずれにおいても自然かつ楽な姿勢で取得させることができるとともに、情報処理装置500も取得対象の指が右手の指であるか左手の指であるかを判定することができる。
指の静脈は、体内情報であるため偽造が困難であり、手荒れや乾燥・湿潤等の体表の影響を受けないため適用率が高い。また、非接触であるため衛生的で自然な操作性を実現し、ユーザの抵抗が少なく、高速な認証が可能であることを特徴とする。なお、読み取り部542は、指紋を読み取ってもよい。また、読み取り部542は、正方形状に限らず、任意の形状とすることができる。
第3の実施の形態の情報処理装置500では、静脈が右手の指のものであるか左手の指のものであるかが自動的に判定される。一方、右手および左手の各々の親指、人差指、中指、薬指、小指の区別は、生体情報の取得時にユーザの入力に基づいて決定される。
また、情報処理装置500では、詳しくは図43で後述するように、方向特徴部分である指の付け根の谷間部分のある側の反対側に基づいて、取得対象の指が右手の指であるか左手の指であるかを判定する。また、情報処理装置500では、ユーザが取得対象の指を静脈センサ面から一定の距離(例えば数cm)離した空間上に位置させることに応じて指の静脈の生体画像を取得する。
図41は、第3の実施の形態の生体特徴テーブルを示す図である。図41に示す生体特徴テーブル541b1は、第3の実施の形態の情報処理装置500が有する生体特徴情報記憶部541bに設定される。生体特徴テーブル541b1は、情報処理装置500の生体認証に使用する生体特徴情報を管理するテーブルである。
生体特徴テーブル541b1には、項目として“番号”、“ID”、“左右”、“指種類”、“特徴データ”が設けられている。生体特徴テーブル541b1には、上記項目に設定された値が、生体特徴情報として互いに関連付けられる。
左右は、生体特徴情報が右手と左手のどちらの指のものかを示す。右手のいずれかの指の静脈の生体特徴情報については、“右”が設定される。左手のいずれかの指の静脈の生体特徴情報については、“左”が設定される。
指種類は、生体特徴情報が示す指の種類を示す。親指の静脈の生体特徴情報については、“1”が設定される。人差指の静脈の生体特徴情報については、“2”が設定される。中指の静脈の生体特徴情報については、“3”が設定される。薬指の静脈の生体特徴情報については、“4”が設定される。小指の静脈の生体特徴情報については、“5”が設定される。また、左右は、生体特徴情報における種別を示す。
なお、図41に示した生体特徴テーブル541b1は一例であり、生体特徴テーブルには任意の項目を設定することができる。例えば、左右の項目に加えて、左右を角度(例えば、右手を“0°”、左手を“90°”)で示す角度の項目を設けてもよい。また、左右の項目に代えて角度の項目を設けてもよい。
図42は、第3の実施の形態の右手の人差指の静脈の読み取り時の状態を示す図である。図42は、情報処理装置500が右手の人差指の静脈を読み取る際の状態を上方から見た場合の図である。図42に示すように、情報処理装置500は、ディスプレイ部120および本体部530を有する。情報処理装置500の本体部530の上面には、キーボード131、読み取り部542が設けられている。読み取り部542は、情報処理装置500のキーボード131と同じ本体部530上面であって、キーボード131の手前中央に、十字形のガイド542aを有する正方形状の静脈センサの各辺が情報処理装置500の前面および側面に45°の角度で配置されている。また、ユーザの頭部201、胴体部202、右上腕部203、右下腕部204、右手の手のひら205、右手の親指205a、右手の人差指205b、右手の中指205c、右手の薬指205d、右手の小指205eを示す。
ユーザが手の指の静脈を読み取り部542に読み取らせる場合、ユーザは、図42に示すように、静脈を読み取らせる指(例えば、右手の人差指205b)を情報処理装置500の側面に対して左45°の角度で情報処理装置500の本体部530の上面と平行になるように位置させる。このとき、ユーザは、読み取らせる右手の人差指205bの中心線が読み取り部542の十字形の一辺の中心線(図40における点線A-A)に一致するように、右手の指を開いた状態で、静脈センサ面から一定の距離(例えば数cm)離した空間上に指を位置させる。ユーザは、読み取り時に右手の手のひら205と右下腕部204との間の手首をねじ曲げる必要がなく、ほぼ真直ぐにできる。これに伴い、ユーザの右手の各指は、各々真直ぐ伸ばし十分正しく開け、ユーザの右手の指と指の間の付け根4か所は、間隔が十分開いている。従って右手の手のひら205に水平面のねじれはなく、方向特徴部分について早く確実に正しい画像が得られる。従って、右手または左手の判定を早く確実に行うことができ、生体情報の登録やユーザの認証を早く確実に行うことができる。
また、ユーザの右手首の部分の角度、右手首から右下腕部204や右上腕部203、右下腕部204と右上腕部203との間の肘、右上腕部203と胴体部202との間の右肩の姿勢に無理がなく、ユーザの負担の軽減を図ることができる。なお、図42では、ユーザの右手の人差指の静脈を読み取らせる場合について説明したが、これに限らず、右手の人差指以外の指および左手のいずれかの指の静脈を読み取らせる場合についても同様であり、説明を省略する。
また、ユーザの右手の各指は、右手の手のひら205とともに静脈センサ面から一定の距離離れた空間上に位置しているため、キーボード131やその他の操作部に指や手のひらが触れて誤操作を起こすことを抑制できる。
図43は、第3の実施の形態の指の方向特徴部分の検出を示す図である。図43に、第3の実施の形態の情報処理装置500における、手の左右および生体の方向特徴部分を示す。図43(A)は、右手の指の取得画像5421を示す。図43(B)は、左手の指の静脈の取得画像5422を示す。
取得画像5421,5422は、読み取り部542の生体検出部142aによって取得される画像である。取得画像5421,5422は、例えば、生体検出部142aが備える画像センサによって撮像される。取得画像5421,5422は、図43における上側が情報処理装置500における正面から見て奥側であり、図43における下側が情報処理装置500における正面から見て手前側であり、図43における右側が情報処理装置500における正面から見て右側であり、図43における左側が情報処理装置500における正面から見て左側である。
図43に示すように、生体検出部142aによって取得される画像には、右下の辺に沿って右手の手のひらの指の付け根の谷間部分を検出する右手検出用矩形画像領域5420a、左下の辺に沿って左手の手のひらの指の付け根の谷間部分を検出する左手検出用矩形画像領域5420bが設定される。右手検出用矩形画像領域5420aと、左手検出用矩形画像領域5420bとは、取得画像における互いに直交する2辺に沿って設けられる。指の付け根の谷間部分は、方向特徴部分として機能する。
読み取り部542は、生体検出部142aの図示しない距離センサで、読み取り部542の上方に位置するユーザの手の指を検出すると、生体検出部142aの図示しない画像センサで手の指の画像を取得し、情報取得部511に供給する。情報取得部511は、取得画像に設定した右手検出用矩形画像領域5420aまたは左手検出用矩形画像領域5420bに指の付け根の谷間部分が検出されるか否かを判定する。ここでの画像センサによる指の画像取得は、光源部142cから近赤外光が照射されずに行われる。従って、ここで取得される画像は指の静脈の画像ではなく指の外観の画像である。指の付け根の谷間部分の検出処理においては、その指の外観の画像において右手検出用矩形画像領域5420aまたは左手検出用矩形画像領域5420bが設定された位置を対象にこの検出処理が行われる。
生体検出部142aにより上記のようにして指の外観の画像が取得された場合、情報取得部511は、右手検出用矩形画像領域5420aまたは左手検出用矩形画像領域5420bに指の付け根の谷間部分である方向特徴部分が存在するか否かを判定する。例えば図43(A)に示すような取得画像5421である場合、右手検出用矩形画像領域5420aに方向特徴部分5421a1が存在する一方、左手検出用矩形画像領域5420bに存在しないので、ユーザの手のひらは、“0°”の角度に位置すると判定される。これにより、情報処理装置500は、取得画像を右手の指の画像であると判定する。
また、例えば図43(B)に示すような取得画像5422である場合、左手検出用矩形画像領域5420bに方向特徴部分5422b1が存在する一方、右手検出用矩形画像領域5420aに存在しないので、ユーザの手のひらは、時計回りに“90°”の角度に位置すると判定される。これにより、情報処理装置500は、取得画像を左手の指の画像であると判定する。
このようにして、読み取り部542は、ユーザの手の指が検出されると、指の付け根における方向特徴部分の画像を取得する。情報取得部511は、右手検出用矩形画像領域または左手検出用矩形画像領域の方向特徴部分の有無に基づいて、手の角度を判定する。情報取得部511は、判定した手の角度に基づいて、取得画像の指の種別(右手の指か、左手の指か)を判定する。以下の第3の実施の形態の説明では、指の種別が示す情報を、「手の左右」と記載する。
なお、図43(A)、図43(B)に示した、方向特徴部分を検出するための取得画像は、撮像部142bによって撮像される画像であってもよい。
第3の実施の形態における方向特徴部分、すなわち指の付け根の谷間部分の検出は、例えば人差指と中指の付け根の谷間部分、中指と薬指の付け根の谷間部分、薬指と小指の付け根の谷間部分のすべてまたは少なくとも一部の組み合わせが、所定の間隔開いていることに基づいて検出してもよい。例えば、指の付け根の谷間部分の検出は、生体検出部142aで取得した指の取得画像における、手の各指の付け根の位置と、指の付け根と付け根の間の輪郭識別によって実現してもよい。
第3の実施の形態における方向特徴部分、すなわち指の付け根の谷間部分の検出は、例えば人差指と中指の付け根の谷間部分、中指と薬指の付け根の谷間部分、薬指と小指の付け根の谷間部分のすべてまたは少なくとも一部の組み合わせが、所定の間隔開いていることに基づいて検出してもよい。例えば、指の付け根の谷間部分の検出は、生体検出部142aで取得した指の取得画像における、手の各指の付け根の位置と、指の付け根と付け根の間の輪郭識別によって実現してもよい。
図44は、第3の実施の形態の生体特徴情報取得登録処理を示すフローチャートである。生体特徴情報取得登録処理は、登録対象の指の種別を判定し、指の種別(手の左右)、指の種類および静脈の特徴を示す生体特徴情報を生成して登録する処理である。生体特徴情報取得登録処理は、例えば、ユーザが指の静脈の生体特徴情報を登録する場合に実行される。以下、図44に示す処理をステップ番号に沿って説明する。
[ステップS191]情報取得部511は、ユーザによる静脈の生体情報の取得対象の指の種類の入力を受け付ける。
[ステップS192]情報取得部511は、読み取り部542の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部542上の所定高さの位置に指が配置されたことを判定する。指が配置されたと判定すると、情報取得部511は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分に基づいて、登録対象の指の方向を判定する。第3の実施の形態では、指の種類はユーザの入力に基づいて特定され、方向特徴部分は手の左右を判定するために用いられる。
[ステップS192]情報取得部511は、読み取り部542の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部542上の所定高さの位置に指が配置されたことを判定する。指が配置されたと判定すると、情報取得部511は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分に基づいて、登録対象の指の方向を判定する。第3の実施の形態では、指の種類はユーザの入力に基づいて特定され、方向特徴部分は手の左右を判定するために用いられる。
[ステップS193]種別判定部512は、ステップS192で判定された指の方向に基づいて、指の種別(手の左右)を判定する。
[ステップS194]情報取得部511は、読み取り部542の撮像部142bに画像を撮像させ、指の静脈が映り込んだ生体画像を取得する。
[ステップS194]情報取得部511は、読み取り部542の撮像部142bに画像を撮像させ、指の静脈が映り込んだ生体画像を取得する。
なお、ステップS193,S194の処理順は、逆であっても、あるいは同時であってもよい。
[ステップS195]情報生成部513は、ステップS194で取得された生体画像に基づいて生体の特徴を抽出する。情報生成部513は、特徴の抽出結果を示す生体情報を生成する。
[ステップS195]情報生成部513は、ステップS194で取得された生体画像に基づいて生体の特徴を抽出する。情報生成部513は、特徴の抽出結果を示す生体情報を生成する。
[ステップS196]情報生成部513は、ステップS193で判定された種別と、ステップS191で受付けられた指の種類と、ステップS195で生成した生体情報と、ユーザのIDとを含む生体特徴情報を生成する。
[ステップS197]情報生成部513は、ステップS196で生成した生体特徴情報を生体特徴情報記憶部541bに記憶させる。これにより、生体特徴情報が生体特徴情報記憶部541bに登録される。その後、処理は終了する。
図45は、第3の実施の形態の生体特徴情報認証処理を示すフローチャートである。生体特徴情報認証処理は、認証対象の指の種別を判定し、認証対象の指の静脈の特徴を示す照合生体特徴情報を生成し、予め登録されている生体特徴情報と照合して認証する処理である。照合生体特徴情報は、生体特徴情報と同一の構成のデータであり、認証対象のユーザの生体(第3の実施の形態では、指の静脈)の特徴を示す。生体特徴情報認証処理は、例えば、ユーザが指の静脈で認証する場合に実行される。以下、図45に示す処理をステップ番号に沿って説明する。
[ステップS201]情報取得部511は、読み取り部542の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部542上の所定高さの位置に指が配置されたことを判定する。指が配置されたと判定すると、情報取得部511は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分に基づいて、認証対象の指の方向を判定する。
[ステップS202]種別判定部512は、ステップS201で判定された指の方向に基づいて、指の種別(手の左右)を判定する。
[ステップS203]情報取得部511は、読み取り部542の撮像部142bに画像を撮像させ、指の静脈が映り込んだ生体画像を取得する。
[ステップS203]情報取得部511は、読み取り部542の撮像部142bに画像を撮像させ、指の静脈が映り込んだ生体画像を取得する。
なお、ステップS202,S203の処理順は、逆であっても、あるいは同時であってもよい。
[ステップS204]情報生成部513は、ステップS203で取得された生体画像に基づいて生体の特徴を抽出する。情報生成部513は、特徴の抽出結果を示す生体情報を生成する。
[ステップS204]情報生成部513は、ステップS203で取得された生体画像に基づいて生体の特徴を抽出する。情報生成部513は、特徴の抽出結果を示す生体情報を生成する。
[ステップS205]情報生成部513は、ステップS202で判定された種別およびステップS204で生成した生体情報を含む照合生体特徴情報を生成する。
[ステップS206]照合部514は、ステップS205で生成された照合生体特徴情報を用いて生体特徴情報照合処理(図46において後述)を実行する。その後、処理は終了する。
[ステップS206]照合部514は、ステップS205で生成された照合生体特徴情報を用いて生体特徴情報照合処理(図46において後述)を実行する。その後、処理は終了する。
図46は、第3の実施の形態の生体特徴情報照合処理を示すフローチャートである。生体特徴情報照合処理は、認証対象の照合生体特徴情報と予め登録されている生体特徴情報とを照合する処理である。生体特徴情報照合処理は、例えば、生体特徴情報認証処理によって呼び出された場合に実行される。以下、図46に示す処理をステップ番号に沿って説明する。
[ステップS211]照合部514は、生体特徴情報認証処理で生成された照合生体特徴情報を取得する。
[ステップS212]照合部514は、生体特徴情報記憶部541bを参照して、ステップS211で取得した照合生体特徴情報の種別(手の左右)と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部514は、照合生体特徴情報の種別およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部541bから抽出する。
[ステップS212]照合部514は、生体特徴情報記憶部541bを参照して、ステップS211で取得した照合生体特徴情報の種別(手の左右)と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部514は、照合生体特徴情報の種別およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部541bから抽出する。
[ステップS213]照合部514は、ステップS212で抽出した生体特徴情報のうちの未選択の1つを選択し、選択した生体特徴情報と照合生体特徴情報のそれぞれに含まれる生体情報を照合する。
[ステップS214]照合部514は、ステップS213の照合の結果、選択した生体特徴情報と照合生体特徴情報との照合に成功したか否かを判定する。照合に成功すれば(ステップS214 YES)、処理はステップS215に進められる。一方、照合に失敗すれば(ステップS214 NO)、処理はステップS216に進められる。
[ステップS215]照合部514は、認証に成功した場合の所定の処理を実行する。その後、処理は復帰する。
[ステップS216]照合部514は、ステップS212で抽出した生体特徴情報が、ステップS213ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS216 YES)、処理はステップS217に進められる。一方、未選択のものがあれば(ステップS216 NO)、処理はステップS213に進められる。
[ステップS216]照合部514は、ステップS212で抽出した生体特徴情報が、ステップS213ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS216 YES)、処理はステップS217に進められる。一方、未選択のものがあれば(ステップS216 NO)、処理はステップS213に進められる。
[ステップS217]照合部514は、認証に失敗した場合の所定の処理を実行する。その後、処理は復帰する。
図47は、第3の実施の形態の登録時のメッセージウインドウを示す図である。図47に示すメッセージウインドウ121bは、情報処理装置500が有するLCD121の表示画面に表示されるウインドウの一例である。メッセージウインドウ121bには、ユーザに読み取った指に基づく生体特徴情報の登録に成功したことを通知するメッセージおよび画像が表示される。
図47は、第3の実施の形態の登録時のメッセージウインドウを示す図である。図47に示すメッセージウインドウ121bは、情報処理装置500が有するLCD121の表示画面に表示されるウインドウの一例である。メッセージウインドウ121bには、ユーザに読み取った指に基づく生体特徴情報の登録に成功したことを通知するメッセージおよび画像が表示される。
メッセージウインドウ121bには、例えば、「右手の人差指の登録に成功しました」というメッセージと、登録の際に撮像された右手の人差指の静脈を示す生体画像が表示される。また、メッセージウインドウ121bは、OKボタン121b1を有する。
OKボタン121b1は、メッセージウインドウ121bの表示を終了するボタンである。ユーザは、メッセージウインドウ121bの表示内容を確認した場合、OKボタン121b1を操作することにより、メッセージウインドウ121bの表示を終了させることができる。
以上のような第3の実施の形態によれば、指の静脈についての生体情報の取得時において、生体の角度に応じて、指が右手または左手のいずれの指であるかを判定することが可能になる。
また、読み取り部542において複数方向で生体画像の取得が可能であるため、生体情報の取得時のユーザの姿勢の自由度が高まり、ユーザの肩、腕、手首の関節の負担を抑制することができる。
また、管理者またはユーザが毎回手動で左右を選択していた動作の手間を省き、管理者やユーザの利便性を向上できるとともに、生体特徴情報の登録や更新を早く正しく確実に行うことができる。
また、予め生体特徴情報を種別(手の左右)および指の種類で分類して登録することにより、1つの照合生体特徴情報と生体特徴情報記憶部541bに記憶されている複数の生体特徴情報とを照合する1対N照合を行う際に、種別に基づいて照合の対象を絞り込むことができる。このため、認証処理の負荷や処理速度の増加を抑制することができる。
[第4の実施の形態]
次に、第4の実施の形態を説明する。第3の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第4の実施の形態の情報処理装置は、生体情報取得時または登録時、指の種類の指定を必要としない点で、第3の実施の形態と異なる。
次に、第4の実施の形態を説明する。第3の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第4の実施の形態の情報処理装置は、生体情報取得時または登録時、指の種類の指定を必要としない点で、第3の実施の形態と異なる。
図48は、第4の実施の形態の情報処理装置を示すブロック図である。第4の実施の形態の情報処理装置600は、情報取得部611、種別判定部612、情報生成部613、照合部614、生体特徴情報記憶部641bを有する。また、情報取得部611には、読み取り部642が接続される。
情報取得部611は、情報処理装置600のユーザ等の認証対象の人物の生体画像を取得する。情報取得部611は、生体画像が取得される状態における生体の方向を取得可能である。情報取得部611により取得される生体画像は、複数の種類の指の静脈のパターンの画像情報である。生体の方向は、手の左右に基づく2つの直交する異なる方向および各指の方向を組み合わせた方向である。また、情報処理装置600は、読み取りの対象の複数の種類の指のそれぞれに対応する方向を示すガイドを有する。
読み取り部642は、情報処理装置600の上部に固定されている。読み取り部642は、図4に示した生体検出部142a、撮像部142bおよび光源部142cを備える。情報取得部611は、読み取り部642の生体検出部142aによる検出結果に基づいて、生体が読み取り部642から所定の距離に配置されたことや、読み取り部642に対する生体の方向を判定する。情報取得部611は、読み取り部642の生体検出部142aによって得られた画像から、生体における方向特徴部分の位置を判定することで、生体の方向を判定する。
第4の実施の形態では、載置する左右の手の方向は、互いに直交するとともにキーボード131との角度は斜角である。また、各指の方向は手の方向を基準として所定の向きである。方向特徴部分は、読み取り対象の指の手のひらにおける指の付け根の谷間部分である。
また、情報取得部611は、読み取り部642の撮像部142bによって生体が撮像された生体画像を取得する。
種別判定部612は、情報取得部611によって取得された生体の方向に基づいて生体情報の種別を判定する。種別は、生体情報生成の基となった手の左右および指の種類を示す。
種別判定部612は、情報取得部611によって取得された生体の方向に基づいて生体情報の種別を判定する。種別は、生体情報生成の基となった手の左右および指の種類を示す。
情報生成部613は、情報取得部611で取得された生体画像を基に、生体の特徴を示す生体情報を生成する。情報生成部613は、生成した生体情報と、種別判定部612によって判定された生体情報の種別とを含む照合生体特徴情報を生成する。これにより、認証のために生体情報を照合するユーザの生体情報および種別が示される。情報生成部613は、例えば、情報生成部613で取得された生体情報と、種別判定部612によって判定された生体情報の種別と、生体情報に対応する個人を特定する識別情報とを含む生体特徴情報を生成して、生体特徴情報記憶部641bに記憶させる。これにより、認証に使用する予め登録された正規の権限を有するユーザの生体情報および種別を示す生体特徴情報が登録される。種別は、右手の指か左手の指かを示す情報と、親指、人差指、中指、薬指、小指の別を示す情報とを含む。以下の第4の実施の形態の説明では、前者が示す内容を「手の左右」、後者が示す内容を「指の種類」と記載する。
情報生成部613は、ユーザの生体情報の登録時に、生成した生体特徴情報を生体特徴情報記憶部641bに記憶させる。また、ユーザの生体情報による認証時には、照合部614は、情報生成部613により生成された照合生体特徴情報を用いて認証を行う。
照合部614は、照合生体特徴情報と種別が一致する生体特徴情報を抽出し、照合生体特徴情報の生体情報と抽出した生体特徴情報とに基づいて照合する。これにより、情報処理装置600は、照合結果に基づいてユーザの生体認証を行う。照合の対象を種別が同一のものに絞って照合を行うので、照合の処理に要する時間や負荷の増加を抑制することができる。種別は、手の左右および指の種類を示す。
生体特徴情報記憶部641bは、生体情報と生体情報の種別とを示す生体特徴情報を記憶する。これにより、ユーザの生体情報と種別とが対応付けられて記憶される。
図49は、第4の実施の形態の読み取り部を示す図である。図49に示す読み取り部642は、ユーザが指の静脈を読み取らせて生体画像の入力を行う入力装置である。
図49は、第4の実施の形態の読み取り部を示す図である。図49に示す読み取り部642は、ユーザが指の静脈を読み取らせて生体画像の入力を行う入力装置である。
読み取り部642は、ユーザの指の静脈を読み取ることによって指の静脈の生体情報を取得する静脈センサを有している。読み取り部642は、正方形状であるとともに45°傾斜している。
読み取り部642の周囲には、ガイド642c,642d1,642d2,642e1,642e2,642f1,642f2,642g1,642g2,642h1,642h2,642i1,642i2,642j1,642j2,642k1,642k2,642lが設けられている。読み取り部642の中央には、ガイド642mが設けられている。
ガイド642cおよびガイド642mを結ぶ方向Cは、情報処理装置600に向かって左右方向に対して時計回りに所定の角度(例えば、180°)を有するように設定されている。ガイド642d1およびガイド642d2を結ぶ方向Dは、情報処理装置600に向かって左右方向に対して時計回りに所定の角度(例えば、150°)を有するように設定されている。ガイド642e1およびガイド642e2を結ぶ方向Eは、情報処理装置600に向かって左右方向に対して時計回りに所定の角度(例えば、135°)を有するように設定されている。ガイド642f1およびガイド642f2を結ぶ方向Fは、情報処理装置600に向かって左右方向に対して時計回りに所定の角度(例えば、120°)を有するように設定されている。ガイド642g1およびガイド642g2を結ぶ方向Gは、情報処理装置600に向かって左右方向に対して時計回りに所定の角度(例えば、105°)を有するように設定されている。ガイド642h1およびガイド642h2を結ぶ方向Hは、情報処理装置600に向かって左右方向に対して時計回りに所定の角度(例えば、75°)を有するように設定されている。ガイド642i1およびガイド642i2を結ぶ方向Iは、情報処理装置600に向かって左右方向に対して時計回りに所定の角度(例えば、60°)を有するように設定されている。ガイド642j1およびガイド642j2を結ぶ方向Jは、情報処理装置600に向かって左右方向に対して時計回りに所定の角度(例えば、45°)を有するように設定されている。ガイド642k1およびガイド642k2を結ぶ方向Kは、情報処理装置600に向かって左右方向に対して時計回りに所定の角度(例えば、30°)を有するように設定されている。ガイド642lおよびガイド642mを結ぶ方向Lは、情報処理装置600に向かって左右方向に対して時計回りに所定の角度(例えば、0°)を有するように設定されている。
また、各ガイドは、指の種別に対応している。すなわち、ガイド642cおよびガイド642mは、左手の親指に対応している。ガイド642d1およびガイド642d2は、左手の人差指に対応している。ガイド642e1およびガイド642e2は、左手の中指に対応している。ガイド642f1およびガイド642f2は、左手の薬指に対応している。ガイド642g1およびガイド642g2は、左手の小指に対応している。ガイド642h1およびガイド642h2は、右手の小指に対応している。ガイド642i1およびガイド642i2は、右手の薬指に対応している。ガイド642j1およびガイド642j2は、右手の中指に対応している。ガイド642k1およびガイド642k2は、右手の人差指に対応している。ガイド642lおよびガイド642mは、右手の親指に対応している。
ユーザは、生体情報を取得させる指を、上記のいずれかのガイドの組み合わせの間に位置させる。すなわち、ユーザは、情報処理装置600に対して右手の人差指の静脈の生体情報を取得させる場合には、取得対象である右手の人差指の腹をガイド642k1およびガイド642k2の間に方向Kに沿って位置させる。他の指についても同様であり、説明を省略する。これにより、ユーザにとって指の生体情報を取得させる場合に、自然かつ楽な姿勢で取得させることができるとともに、情報処理装置600も、取得画像において指の静脈がいずれの方向に沿っているかにより、取得対象の指が右手の指であるか左手の指であるかおよびいずれの種類であるかを判定することができる。
なお、読み取り部642は、指紋を読み取ってもよい。また、読み取り部642は、正方形状に限らず、任意の形状とすることができる。
第4の実施の形態の情報処理装置600では、第3の実施の形態と同様、方向特徴部分である指の付け根の谷間部分のある側の反対側に基づいて、取得対象の指が右手の指であるか左手の指であるかおよび指の種類を判定する。また、情報処理装置600では、ユーザが取得対象の指を静脈センサ面から一定の距離(例えば数cm)離した空間上に位置させることに応じて指の静脈の生体画像を取得する。
第4の実施の形態の情報処理装置600では、第3の実施の形態と同様、方向特徴部分である指の付け根の谷間部分のある側の反対側に基づいて、取得対象の指が右手の指であるか左手の指であるかおよび指の種類を判定する。また、情報処理装置600では、ユーザが取得対象の指を静脈センサ面から一定の距離(例えば数cm)離した空間上に位置させることに応じて指の静脈の生体画像を取得する。
図50は、第4の実施の形態の生体特徴テーブルを示す図である。図50に示す生体特徴テーブル641b1は、第4の実施の形態の情報処理装置600が有する生体特徴情報記憶部641bに設定される。生体特徴テーブル641b1は、情報処理装置600の生体認証に使用する生体特徴情報を管理するテーブルである。
生体特徴テーブル641b1には、項目として“番号”、“ID”、“左右”、“指種類”、“角度”、“特徴データ”が設けられている。生体特徴テーブル641b1には、上記項目に設定された値が、生体特徴情報として互いに関連付けられる。
角度は、生体特徴情報が示す指の静脈が検出された際の指の角度を示す。第4の実施の形態において角度は、指の種類と対応付けられている。例えば、右手の親指の静脈の生体特徴情報については、基準となる角度であり、方向Lの角度である0°を示す“0”が設定される。右手の人差指の静脈の生体特徴情報については、方向Kの角度である30°を示す“30”が設定される。右手の中指の静脈の生体特徴情報については、方向Jの角度である45°を示す“45”が設定される。右手の薬指の静脈の生体特徴情報については、方向Iの角度である60°を示す“60”が設定される。右手の小指の静脈の生体特徴情報については、方向Hの角度である75°を示す“75”が設定される。左手の親指の静脈の生体特徴情報については、方向Cの角度である180°を示す“180”が設定される。左手の人差指の静脈の生体特徴情報については、方向Dの角度である150°を示す“150”が設定される。左手の中指の静脈の生体特徴情報については、方向Eの角度である135°を示す“135”が設定される。左手の薬指の静脈の生体特徴情報については、方向Fの角度である120°を示す“120”が設定される。左手の小指の静脈の生体特徴情報については、方向Gの角度である105°を示す“105”が設定される。
このような生体特徴情報は、左右および指種類で特定される指の種別により、いずれの手におけるいずれの指の生体特徴情報であるか区別可能である。
なお、図50に示した生体特徴テーブル641b1は一例であり、生体特徴テーブルには任意の項目を設定することができる。例えば、左右および指種別の項目を省略してもよい。あるいは角度の項目を省略してもよい。
なお、図50に示した生体特徴テーブル641b1は一例であり、生体特徴テーブルには任意の項目を設定することができる。例えば、左右および指種別の項目を省略してもよい。あるいは角度の項目を省略してもよい。
図51は、第4の実施の形態の右手の人差指の静脈の読み取り時の状態を示す図である。図51は、情報処理装置600が右手の人差指の静脈を読み取る際の状態を上方から見た場合の図である。図51に示すように、情報処理装置600は、ディスプレイ部120および本体部630を有する。情報処理装置600の本体部630の上面には、キーボード131、読み取り部642が設けられている。読み取り部642は、情報処理装置600のキーボード131と同じ本体部630上面であって、キーボード131の手前中央に、ガイド642c~642mに囲まれている正方形状の静脈センサの各辺が情報処理装置600の前面および側面に45°の角度で配置されている。また、ユーザの頭部201、胴体部202、右上腕部203、右下腕部204、右手の手のひら205、右手の親指205a、右手の人差指205b、右手の中指205c、右手の薬指205d、右手の小指205eを示す。
ユーザが手の指の静脈を読み取り部642に読み取らせる場合、ユーザは、図51に示すように、静脈を読み取らせる指(例えば、右手の人差指205b)を情報処理装置600の前面に対して時計回りに30°の角度で情報処理装置600の本体部630の上面と平行になるように位置させる。このとき、ユーザは、読み取らせる右手の人差指205bの中心線が方向Kに一致するように、右手の指を開いた状態で、静脈センサ面から一定の距離(例えば数cm)離した空間上に指を位置させる。ユーザは、読み取り時に右手の手のひら205と右下腕部204との間の手首をねじ曲げる必要がなく、ほぼ真直ぐにできる。これに伴い、ユーザの右手の各指は、各々真直ぐ伸ばし十分正しく開け、ユーザの右手の指と指の間の付け根4か所は、間隔が十分開いている。従って右手の手のひら205に水平面のねじれはなく、方向特徴部分について早く確実に正しい画像が得られる。従って、右手または左手の判定を早く確実に行うことができ、生体情報の登録やユーザの認証を早く確実に行うことができる。
また、ユーザの右手首の部分の角度、右手首から右下腕部204や右上腕部203、右下腕部204と右上腕部203との間の肘、右上腕部203と胴体部202との間の右肩の姿勢に無理がなく、ユーザの負担の軽減を図ることができる。なお、図51では、ユーザの右手の人差指の静脈を読み取らせる場合について説明したが、これに限らず、右手の人差指以外の指および左手のいずれかの指の静脈を読み取らせる場合についても同様であり、説明を省略する。
また、ユーザの右手の各指は、右手の手のひら205とともに静脈センサ面から一定の距離離れた空間上に位置しているため、キーボード131やその他の操作部に指や手のひらが触れて誤操作を起こすことを抑制できる。
図52および図53は、第4の実施の形態の指の方向の判定方法を示す図である。図52、図53に、右手の中指の静脈の読み取りを行う場合の取得画像6421,6422を示す。
取得画像6421,6422は、読み取り部642の生体検出部142aによって取得される画像である。取得画像6421,6422は、例えば、生体検出部142aが備える画像センサによって撮像される。取得画像6421,6422は、図52、図53における上側が情報処理装置600における正面から見て奥側であり、図52、図53における下側が情報処理装置600における正面から見て手前側であり、図52、図53における右側が情報処理装置600における正面から見て右側であり、図52、図53における左側が情報処理装置600における正面から見て左側である。また、図52に、ユーザの右手の人差指の像205b1、右手の中指の像205c1、右手の薬指の像205d1、右手の小指の像205e1を示す。また、図53に、ユーザの右手の人差指の像205b2、右手の中指の像205c2、右手の薬指の像205d2、右手の小指の像205e2を示す。
図52に示すように、第4の実施の形態では、取得画像6421には、右手の手のひらの指の付け根の谷間部分を検出する右手検出用矩形画像領域6421n0,6421n1,6421n2,6421n3,6421n4、左手の手のひらの指の付け根の谷間部分を検出する左手検出用矩形画像領域6421n5,6421n6,6421n7,6421n8,6421n9が設定される。右手検出用矩形画像領域6421n0~6421n4、左手検出用矩形画像領域6421n5~6421n9は、取得画像6421の下側の2辺の内側に設けられている。右手検出用矩形画像領域6421n0~6421n4は、それぞれ右手の親指、右手の人差指、右手の中指、右手の薬指、右手の小指と対応するとともに、それぞれ方向L~方向Hと対応する。左手検出用矩形画像領域6421n5~6421n9は、それぞれ左手の小指、左手の薬指、左手の中指、左手の人差指、左手の親指と対応するとともに、それぞれ方向G~方向Cと対応する。情報処理装置600は、右手検出用矩形画像領域6421n0~6421n4、左手検出用矩形画像領域6421n5~6421n9のいずれかにおいて指の付け根の谷間部分である方向特徴部分が検出された場合に、方向特徴部分が検出された右手検出用矩形画像領域または左手検出用矩形画像領域に対応する指が読み取り対象であると判定する。指の付け根の谷間部分は、方向特徴部分として機能する。
上記の取得画像6421,6422は、読み取り部642の生体検出部142aの図示しない画像センサによって取得される画像である。ここでの画像センサによる指の画像取得は、光源部142cから近赤外光が照射されずに行われる。従って、ここで取得される画像は指の静脈の画像ではなく指の外観の画像である。指の付け根の谷間部分の検出処理においては、その指の外観の画像において上記各矩形画像領域が設定された位置を対象にこの検出処理が行われる。
ここで、取得画像6421では、右手中指に対応する右手検出用矩形画像領域6421n2に、ユーザの右手の人差指、中指、薬指の付け根の谷間部分である方向特徴部分6421n21が存在する。
第4の実施の形態の情報処理装置600では、ユーザは右手の中指の静脈を読み取らせる場合、指を開いた状態の手のひらを、静脈センサ面から一定の距離(例えば数cm)離した空間上に位置させる。このとき、ユーザは、右手の中指に対応するガイド642j1,642j2に基づいて右手の中指の根元を中指に対応する右手検出用矩形画像領域6421n2の上方に位置させ、静脈センサの中央のガイド642mを通る方向Jと右手の中指の中心線とを一致させる。情報処理装置600は、生体検出部142aの図示しない距離センサにより、右手の中指が所定の高さに位置することを検出すると、両手の各指に対応する右手検出用矩形画像領域6421n0~6421n4、左手検出用矩形画像領域6421n5~6421n9について、指の付け根の谷間部分が存在するか判定する。このとき、右手の中指に対応する右手検出用矩形画像領域6421n2に指の付け根の谷間部分(方向特徴部分6421n21)が存在する。このため、情報処理装置600は、読み取り対象の指は右手の中指であると判定する。指の付け根の谷間部分の検出は、例えば人差指と中指の付け根の谷間部分、中指と薬指の付け根の谷間部分、薬指と小指の付け根の谷間部分のすべてまたは少なくとも一部の組み合わせが、所定の間隔開いていることに基づいて検出してもよい。例えば、指の付け根の谷間部分の検出は、図示しない撮像部で取得した手のひらの取得画像における、手の各指の付け根の位置と、指の付け根と付け根の間の輪郭識別によって実現してもよい。なお、右手の中指の判定例を示したが、他の指の場合も同様であり、説明を省略する。
また、第4の実施の形態の情報処理装置600では、図53に示すように取得画像6422における指の種類の誤判定を防止する。図53において、方向Jは、右手の中指に対応する右手検出用矩形画像領域6422n2と静脈センサの中央のガイド642mを通る。接線Pは、ガイド642mを通過するように位置する右手の人差指の輪郭の接線である。接線Pは、対象の指におけるガイド642m近傍における接線としてもよい。
図53の例では、ユーザにより、読み取り対象の右手の人差指の像205b2が読み取り部642の上方に位置されている。図53では、取得画像6422には、中指に対応する右手検出用矩形画像領域6422n2およびその他の図示しない右手検出用矩形画像領域ならびに図示しない左手用矩形画像領域が設定されている。情報処理装置600は、距離センサで右手の人差指の像205b2を検出すると、指の静脈の読み取りを開始する。このとき、生体検出部142aで取得された画像から、右手の中指に対応する右手検出用矩形画像領域6422n2において方向特徴部分6422n21が検出される。この場合、方向特徴部分6422n21に従って判断すれば、読み取り対象は右手の中指となり、誤って判断されてしまうことになる。しかし、情報処理装置600では、このような場合、読み取り対象の右手の人差指の像205b2の輪郭線の接線Pを求め、接線Pと方向Jの交差角Rが所定の角度Rt以上であるか否かを判定する。判定の結果、接線Pと方向Jの交差角Rが所定の角度Rt以上であるときには、読み取り対象の指の位置が誤っていると判断し、例えば「手のひらを一度センサから離し、正しい位置に直してください。」等のメッセージを出力し、ユーザに読み取り対象の指の位置の修正を促してから再度指の読み取りを行ってもよい。メッセージは、LCD121に表示してもよく、図示しないスピーカ等から音声で出力してもよい。
図54は、第4の実施の形態の指の方向の別の判定方法を示す図である。第4の実施の形態の情報処理装置600は、図54に示すようにして、指の種類の誤判定を防止してもよい。取得画像6423は、図54における上側が情報処理装置600における正面から見て奥側であり、図54における下側が情報処理装置600における正面から見て手前側であり、図54における右側が情報処理装置600における正面から見て右側であり、図54における左側が情報処理装置600における正面から見て左側である。また、ユーザの右手の人差指の像205b3、右手の中指の像205c3、右手の薬指の像205d3、右手の小指の像205e3を示す。
図54に示す判定方法では、取得画像6423に、ユーザの指の像が位置することが不可能な指位置不可領域6423o1,6423o2が設定される。指位置不可領域6423o1,6423o2は、情報処理装置600により右手検出用矩形画像領域6423n2における方向特徴部分6423n21,6423n22が検出された後、方向特徴部分6423n21,6423n22から、取得画像6423の反対側の辺まで延長して形成される。ここで、右手検出用矩形画像領域(または左手検出用矩形画像領域)に3以上の指位置不可領域が検出された場合、同様に、指位置不可領域は、右手検出用矩形画像領域(または左手検出用矩形画像領域)における取得画像6423の反対側の辺まで方向特徴部分から延長して形成される。
図54の例では、ユーザにより、読み取り対象の右手の人差指の像205b3が読み取り部642の上方に位置されている。図54では、取得画像6423には、中指に対応する右手検出用矩形画像領域6423n2およびその他の図示しない右手検出用矩形画像領域ならびに図示しない左手用矩形画像領域が設定されている。情報処理装置600は、距離センサで右手の人差指の像205b3を検出すると、指の静脈の読み取りを開始する。このとき、生体検出部142aで取得された画像から、右手の中指に対応する右手検出用矩形画像領域6423n2において方向特徴部分6423n21,6423n22が検出される。この場合、方向特徴部分6423n21,6423n22に従って判断すれば、読み取り対象は右手の中指となり、誤って判断されてしまうことになる。しかし、情報処理装置600では、このような場合、図54に示すように右手の中指の像205b3が指位置不可領域6423o1,6423o2のうちの少なくともいずれか一方と重なっているか否かを判定する。判定の結果、指位置不可領域6423o1,6423o2と重なっているとき(図54の例では、右手の中指の像205b3が指位置不可領域6423o1と重なっている。)には、読み取り対象の指の位置が誤っていると判断し、例えば「手のひらを一度センサから離し、正しい位置に直してください。」等のメッセージを出力し、ユーザに読み取り対象の指の位置の修正を促してから再度指の読み取りを行ってもよい。メッセージは、LCD121に表示してもよく、図示しないスピーカ等から音声で出力してもよい。
なお、図52、図53、図54に示した、方向特徴部分を検出するための取得画像は、撮像部142bによって撮像される画像であってもよい。
図55は、第4の実施の形態の生体特徴情報取得登録処理を示すフローチャートである。生体特徴情報取得登録処理は、登録対象の指の種別を判定し、指の種別(手の左右・指の種類)および静脈の特徴を示す生体特徴情報を生成して登録する処理である。生体特徴情報取得登録処理は、例えば、ユーザが指の静脈の生体特徴情報を登録する場合に実行される。以下、図55に示す処理をステップ番号に沿って説明する。
図55は、第4の実施の形態の生体特徴情報取得登録処理を示すフローチャートである。生体特徴情報取得登録処理は、登録対象の指の種別を判定し、指の種別(手の左右・指の種類)および静脈の特徴を示す生体特徴情報を生成して登録する処理である。生体特徴情報取得登録処理は、例えば、ユーザが指の静脈の生体特徴情報を登録する場合に実行される。以下、図55に示す処理をステップ番号に沿って説明する。
[ステップS221]情報取得部611は、読み取り部642の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部642上の所定高さの位置に指が配置されたことを判定する。指が配置されたと判定すると、情報取得部611は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分に基づいて、登録対象の指の方向を判定する。第4の実施の形態では、登録対象の指の輪郭を検出し、検出した指の輪郭より指の方向を判定することで、指の載置の誤検出を防止するようにしている。方向特徴部分は手の左右および指の種類を判定するために用いられる。
[ステップS222]種別判定部612は、ステップS221で判定された手の方向に基づいて、指の種別(手の左右および指の種類)を判定する。
[ステップS223]情報取得部611は、読み取り部642の撮像部142bに画像を撮像させ、指の静脈が映り込んだ生体画像を取得する。
[ステップS223]情報取得部611は、読み取り部642の撮像部142bに画像を撮像させ、指の静脈が映り込んだ生体画像を取得する。
なお、ステップS222,S223の処理順は、逆であっても、あるいは同時であってもよい。
[ステップS224]情報生成部613は、ステップS223で取得された生体画像に基づいて生体情報の特徴を抽出する。情報生成部613は、特徴の抽出結果を示す生体情報を生成する。
[ステップS224]情報生成部613は、ステップS223で取得された生体画像に基づいて生体情報の特徴を抽出する。情報生成部613は、特徴の抽出結果を示す生体情報を生成する。
[ステップS225]情報生成部613は、ステップS222で判定された種別と、ステップS224で生成した生体情報と、ユーザのIDとを含む生体特徴情報を生成する。
[ステップS226]情報生成部613は、ステップS225で生成した生体特徴情報を生体特徴情報記憶部641bに記憶させる。これにより、生体特徴情報が生体特徴情報記憶部641bに登録される。その後、処理は終了する。
[ステップS226]情報生成部613は、ステップS225で生成した生体特徴情報を生体特徴情報記憶部641bに記憶させる。これにより、生体特徴情報が生体特徴情報記憶部641bに登録される。その後、処理は終了する。
図56は、第4の実施の形態の生体特徴情報認証処理を示すフローチャートである。生体特徴情報認証処理は、認証対象の指の種別(手の左右および指の種類)を判定し、認証対象の指の種別および静脈の特徴を示す照合生体特徴情報を生成し、予め登録されている生体特徴情報と照合して認証する処理である。照合生体特徴情報は、生体特徴情報と同一の構成のデータであり、認証対象のユーザの生体(第4の実施の形態では、指の静脈)の特徴を示す。生体特徴情報認証処理は、例えば、ユーザが指の静脈で認証する場合に実行される。以下、図56に示す処理をステップ番号に沿って説明する。
[ステップS231]情報取得部611は、読み取り部642の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部642上の所定高さの位置に指が配置されたことを判定する。指が配置されたと判定すると、情報取得部611は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分に基づいて、認証対象の指の方向を判定する。第4の実施の形態では、登録対象の指の輪郭を検出し、検出した指の輪郭より指の方向を判定することで、指の載置の誤検出を防止するようにしている。方向特徴部分は手の左右および指の種類を判定するために用いられる。
[ステップS232]種別判定部612は、ステップS231で判定された指の方向に基づいて、指の種別(手の左右および指の種類)を判定する。
[ステップS233]情報取得部611は、読み取り部642の撮像部142bに画像を撮像させ、指の静脈が映り込んだ生体画像を取得する。
[ステップS233]情報取得部611は、読み取り部642の撮像部142bに画像を撮像させ、指の静脈が映り込んだ生体画像を取得する。
なお、ステップS232,S233の処理順は、逆であっても、あるいは同時であってもよい。
[ステップS234]情報生成部613は、ステップS233で取得された生体画像に基づいて生体情報の特徴を抽出する。情報生成部613は、特徴の抽出結果を示す生体情報を生成する。
[ステップS234]情報生成部613は、ステップS233で取得された生体画像に基づいて生体情報の特徴を抽出する。情報生成部613は、特徴の抽出結果を示す生体情報を生成する。
[ステップS235]情報生成部613は、ステップS232で判定された種別(手の左右および指の種類)およびステップS234で生成した生体情報を含む照合生体特徴情報を生成する。
[ステップS236]照合部614は、ステップS235で生成された照合生体特徴情報を用いて生体特徴情報照合処理(図57において後述)を実行する。その後、処理は終了する。
図57は、第4の実施の形態の生体特徴情報照合処理を示すフローチャートである。生体特徴情報照合処理は、認証対象の照合生体特徴情報と予め登録されている生体特徴情報とを照合する処理である。生体特徴情報照合処理は、例えば、生体特徴情報認証処理によって呼び出された場合に実行される。以下、図57に示す処理をステップ番号に沿って説明する。
[ステップS241]照合部614は、生体特徴情報認証処理で生成された照合生体特徴情報を取得する。
[ステップS242]照合部614は、生体特徴情報記憶部641bを参照して、ステップS241で取得した照合生体特徴情報の種別(手の左右および指の種類)と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部614は、照合生体特徴情報の種別およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部641bから抽出する。
[ステップS242]照合部614は、生体特徴情報記憶部641bを参照して、ステップS241で取得した照合生体特徴情報の種別(手の左右および指の種類)と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部614は、照合生体特徴情報の種別およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部641bから抽出する。
[ステップS243]照合部614は、ステップS242で抽出した生体特徴情報のうちの未選択の1つを選択し、選択した生体特徴情報と照合生体特徴情報のそれぞれに含まれる生体情報を照合する。
[ステップS244]照合部614は、ステップS243の照合の結果、選択した生体特徴情報と照合生体特徴情報との照合に成功したか否かを判定する。照合に成功すれば(ステップS244 YES)、処理はステップS245に進められる。一方、照合に失敗すれば(ステップS244 NO)、処理はステップS246に進められる。
[ステップS245]照合部614は、認証に成功した場合の所定の処理を実行する。その後、処理は復帰する。
[ステップS246]照合部614は、ステップS242で抽出した生体特徴情報が、ステップS243ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS246 YES)、処理はステップS247に進められる。一方、未選択のものがあれば(ステップS246 NO)、処理はステップS243に進められる。
[ステップS246]照合部614は、ステップS242で抽出した生体特徴情報が、ステップS243ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS246 YES)、処理はステップS247に進められる。一方、未選択のものがあれば(ステップS246 NO)、処理はステップS243に進められる。
[ステップS247]照合部614は、認証に失敗した場合の所定の処理を実行する。その後、処理は復帰する。
以上のような第4の実施の形態によっても、第3の実施の形態と同様の効果を奏する。
以上のような第4の実施の形態によっても、第3の実施の形態と同様の効果を奏する。
また、指の静脈の生体情報の取得時において、生体の角度に応じて、指が10指のいずれの種類の指であるかを判定することが可能になる。また、これにより、ユーザが左右の別だけでなく10指すべての指の種類を入力する必要がなく、登録時の操作の負担を抑制できる。また、1対N照合を行う際に、10種の指について種別に応じて照合の対象を絞り込むことができる。このため、1対N照合を行う際に高速で照合することが可能になる。あるいは、照合に要する時間や認証処理に要する時間の増加を抑制しながら、生体特徴情報の数を多くすることが可能になる。
[第5の実施の形態]
次に、第5の実施の形態を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第5の実施の形態の情報処理装置は、生体情報の生成のために手のひらの静脈および指の静脈のいずれも使用可能である点で、第2の実施の形態と異なる。
次に、第5の実施の形態を説明する。第2の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第5の実施の形態の情報処理装置は、生体情報の生成のために手のひらの静脈および指の静脈のいずれも使用可能である点で、第2の実施の形態と異なる。
図58は、第5の実施の形態の情報処理装置を示すブロック図である。第5の実施の形態の情報処理装置700は、情報取得部711、種別判定部712、情報生成部713、照合部714、生体特徴情報記憶部741bを有する。また、情報取得部711には、読み取り部742が接続されている。
情報取得部711は、情報処理装置700のユーザ等の認証対象の人物の生体画像を取得する。情報取得部711は、生体画像が取得される状態における生体の方向を取得可能である。情報取得部711により取得される生体画像は、手のひらの静脈のパターンの画像情報および指の静脈のパターンの画像情報である。手のひらにおける方向は、手の左右に基づく2つの直交する異なる方向である。指の方向は、手の左右に基づく2つの直交する異なる方向である。また、情報処理装置700は、読み取りの対象の指の方向を示すガイドを有する。情報取得部711は、取得した画像における方向特徴部分の位置を判定することで生体の方向を判定する。
読み取り部742は、情報処理装置700の上部に固定されている。読み取り部742は、図4に示した生体検出部142a、撮像部142bおよび光源部142cを備える。情報取得部711は、読み取り部742の生体検出部142aによる検出結果に基づいて、生体が読み取り部742から所定の距離に配置されたことや、読み取り部742に対する生体の方向を判定する。情報取得部711は、読み取り部742の生体検出部142aによって得られた画像から、生体における方向特徴部分の位置を判定することで、生体の方向を判定する。第5の実施の形態では、方向は、互いに直交するとともにキーボード131との角度は斜角である。方向特徴部分は、手のひらまたは指の場合共に指の付け根の谷間部分である。
また、情報取得部711は、生体検出部142aによって得られた画像から、指の輪郭線の接線に基づいて方向が正しいか否かを判定する。なお、これに限らず、指の輪郭線の中心線に基づいて判定してもよい。
情報取得部711は、ユーザによる、静脈の生体情報を登録した指の種類の入力を受け付ける。
また、情報取得部711は、読み取り部742の撮像部142bによって生体が撮像された生体画像を取得する。
また、情報取得部711は、読み取り部742の撮像部142bによって生体が撮像された生体画像を取得する。
種別判定部712は、情報取得部711によって取得された生体の方向に基づいて生体情報の種別を判定する。種別は、生体情報生成の基となった手の左右を示す情報を含む。また、種別は、手のひらに関する情報であるか、指に関する情報であるかを示す情報を含む。種別判定部712は、詳しくは後述するが、方向特徴部分の位置の判定結果に基づいて生体の種別が手のひらに関する情報であるか、指に関する情報であるかを判定する。
情報生成部713は、情報取得部711で取得された生体画像を基に、生体の特徴を示す生体情報を生成する。情報生成部713は、生成した生体情報と、種別判定部712によって判定された生体の種別とを含む照合生体特徴情報を生成する。これにより、認証のために生体情報を照合するユーザの生体情報および種別が示される。情報生成部713は、例えば、情報生成部713で生成された生体情報と、種別判定部712によって判定された生体の種別と、ユーザより受け付けた指の種類と、生体情報に対応する個人を特定する識別情報とを含む生体特徴情報を生成して生体特徴情報記憶部741bに記憶させる。これにより、認証に使用する予め登録された正規の権限を有するユーザの生体情報および種別を示す生体特徴情報が登録される。種別は、手の左右を示す情報と、手のひらか指かを示す情報とを含む。また、ユーザの生体情報の登録時には、情報生成部713は、生成した生体特徴情報を生体特徴情報記憶部741bに記憶させる。また、ユーザの生体情報による認証時には、照合部714は、情報生成部713により生成された認証生体特徴情報を用いて認証を行う。
照合部714は、照合生体特徴情報と種別が一致する生体特徴情報を抽出し、照合生体特徴情報の生体情報と抽出した生体特徴情報とに基づいて照合する。これにより、情報処理装置700は、照合結果に基づいてユーザの生体認証を行う。照合の対象を種別が同一のものに絞って照合を行うので、照合の処理に要する時間や負荷の増加を抑制することができる。
生体特徴情報記憶部741bは、生体情報と生体情報の種別とを示す生体特徴情報を記憶する。これにより、ユーザの生体情報と種別とが対応付けられて記憶される。
図59は、第5の実施の形態の読み取り部を示す図である。図59に示す読み取り部742は、ユーザが指の静脈または手のひらの静脈を読み取らせて生体画像の入力を行う入力装置である。
図59は、第5の実施の形態の読み取り部を示す図である。図59に示す読み取り部742は、ユーザが指の静脈または手のひらの静脈を読み取らせて生体画像の入力を行う入力装置である。
読み取り部742は、ユーザの指の静脈または手のひらの静脈を読み取ることによって指の静脈または手のひらの静脈の生体画像を取得する静脈センサを有している。読み取り部742は、正方形状であるとともに45°傾斜している。読み取り部742の上面には、読み取り部742の各辺に平行な辺(辺A、辺B)を有する十字形のガイド742aが設けられている。ガイド742aの辺Aは、情報処理装置700の正面から見て左に45°傾斜している。ガイド742aの辺Bは、情報処理装置700の正面から見て右に45°傾斜している。読み取り部742の静脈センサは、手のひらの静脈の生体画像を取得するために、ガイド742aの内外にかかわらず静脈の生体画像を取得可能である。
ユーザは、手のひらの静脈の生体画像を取得させる場合、第2の実施の形態の情報処理装置100と同様、生体画像を取得させる手のひらを、読み取り部742の上面に位置させる。これにより、ユーザにとって右手の手のひらの生体画像を取得させる場合および左手の手のひらの生体画像を取得させる場合のいずれにおいても自然かつ楽な姿勢で取得させることができるとともに、情報処理装置700も取得対象の手のひらが右の手のひらであるか左の手のひらであるかを判定することができる。
また、ユーザは、指の静脈の生体画像を取得させる場合、第3の実施の形態と同様、生体画像を取得させる指を、ガイド742aの十字形の辺の一方に沿って位置させる。これにより、ユーザにとって右手の指の生体画像を取得させる場合および左手の指の生体画像を取得させる場合のいずれにおいても自然かつ楽な姿勢で取得させることができるとともに、情報処理装置700も取得対象の指が右手の指であるか左手の指であるかを判定することができる。
なお、読み取り部742は、指の指紋や手のひらの掌紋を読み取ってもよい。また、読み取り部742は、正方形状に限らず、任意の形状とすることができる。
第5の実施の形態の情報処理装置700では、詳しくは図63および図64において後述するが、第2の実施の形態および第3の実施の形態と同様、方向特徴部分に基づいて、ユーザが読み取らせる生体情報が、手のひらの静脈および指の静脈のいずれであるか、また、左右いずれの手であるかが自動的に判定される。一方、右手および左手の各々の親指、人差指、中指、薬指、小指の区別は、生体情報の取得時にユーザの入力に基づいて決定される。また、情報処理装置700では、ユーザが取得対象の手のひらまたは指を静脈センサ面から一定の距離(例えば数cm)離した空間上に位置させることに応じて手のひらまたは指の静脈の生体情報を取得する。
第5の実施の形態の情報処理装置700では、詳しくは図63および図64において後述するが、第2の実施の形態および第3の実施の形態と同様、方向特徴部分に基づいて、ユーザが読み取らせる生体情報が、手のひらの静脈および指の静脈のいずれであるか、また、左右いずれの手であるかが自動的に判定される。一方、右手および左手の各々の親指、人差指、中指、薬指、小指の区別は、生体情報の取得時にユーザの入力に基づいて決定される。また、情報処理装置700では、ユーザが取得対象の手のひらまたは指を静脈センサ面から一定の距離(例えば数cm)離した空間上に位置させることに応じて手のひらまたは指の静脈の生体情報を取得する。
図60は、第5の実施の形態の生体特徴テーブルを示す図である。図60に示す生体特徴テーブル741b1は、第5の実施の形態の情報処理装置700が有する生体特徴情報記憶部741bに設定される。生体特徴テーブル741b1は、情報処理装置700の生体認証に使用する生体特徴情報を管理するテーブルである。
生体特徴テーブル741b1には、項目として“番号”、“ID”、“左右”、“指種類”、“指”、“手”、“特徴データ”が設けられている。生体特徴テーブル741b1には、上記項目に設定された値が、生体特徴情報として互いに関連付けられる。
指は、生体特徴情報が、指の生体特徴情報であることを示す。手は、生体特徴情報が、手の生体特徴情報であることを示す。例えば、生体特徴情報が指の生体特徴情報である場合、指に“0”が設定され、手には設定されない(ここでは、“-”によって示す)。生体特徴情報が手のひらの生体特徴情報である場合、指には設定されず、手に“0”が設定される。
なお、図60に示した生体特徴テーブル741b1は一例であり、生体特徴テーブルには任意の項目を設定することができる。例えば、指の項目を省略し、指種類の項目に値が設定されていれば、指の生体特徴情報であることを示してもよい。
図61は、第5の実施の形態の右手の手のひらの静脈の読み取り時の状態を示す図である。図61は、情報処理装置700が右手の手のひらの静脈を読み取る際の状態を上方から見た場合の図である。図61に示すように、情報処理装置700は、第2の実施の形態の情報処理装置100と同様、ディスプレイ部120および本体部730を有する。情報処理装置700の本体部730の上面には、キーボード131、読み取り部742が設けられている。読み取り部742は、情報処理装置700のキーボード131と同じ本体部730上面であって、キーボード131の手前中央に、正方形状の静脈センサの各辺が情報処理装置700の前面および側面に45°の角度で配置されている。読み取り部742は、ガイド742aを有するが、手のひらの静脈の読み取り時にはガイド742aは使用されない。また、ユーザの頭部201、胴体部202、右上腕部203、右下腕部204、右手の手のひら205を示す。
ユーザが手のひらの静脈を読み取り部742に読み取らせる場合、ユーザは、図61に示すように、静脈を読み取らせる方の手のひら(例えば、右手の手のひら205)を情報処理装置700の側面に対して左45°の角度で情報処理装置700の本体部730の上面と平行に位置させる。このとき、ユーザは、手のひらの中心部が読み取り部742の中心部に一致するように、右手の手のひら205を指を開いた状態で、静脈センサ面から一定の距離(例えば数cm)離した空間上に位置させる。ユーザは、手のひらの静脈の読み取り時に右手の手のひら205と右下腕部204との間の手首をねじ曲げる必要がなく、ほぼ真直ぐにできる。これに伴い、ユーザの右手の各指は、各々真直ぐ伸ばし十分正しく開け、ユーザの右手の指と指の間の付け根4か所は、間隔が十分開いている。従って右手の手のひら205に水平面のねじれはなく、早く確実に正しい画像が得られる。従って正しい特徴を早く確実に検出でき、生体情報の登録やユーザの認証を早く確実に行うことができる。
また、手の指と指の間の付け根を、右手の手のひら205の検出に利用することで、左右の手の判定を早く確実に行うことができる。また、ユーザの右手首の部分の角度、右手首から右下腕部204や右上腕部203、右下腕部204と右上腕部203との間の肘、右上腕部203と胴体部202との間の右肩の姿勢に無理がなく、ユーザの負担の軽減を図ることができる。なお、図61では、ユーザの右手の手のひらの静脈を読み取らせる場合について説明したが、これに限らず、左手の手のひらの静脈を読み取らせる場合についても同様であり、説明を省略する。
また、ユーザの右手の各指が、右手の手のひら205とともに静脈センサ面から一定の距離離れた空間上に位置しているため、キーボード131やその他の操作部に指や手のひらが触れて誤操作を起こすことを抑制できる。
図62は、第5の実施の形態の右手の人差指の静脈の読み取り時の状態を示す図である。図62は、情報処理装置700が右手の人差指の静脈を読み取る際の状態を上方から見た場合の図である。図62に示すように、情報処理装置700は、ディスプレイ部120および本体部730を有する。情報処理装置700の本体部730の上面には、キーボード131、読み取り部742が設けられている。読み取り部742は、情報処理装置700のキーボード131と同じ本体部730上面であって、キーボード131の手前中央に、十字形のガイド742aを有する正方形状の静脈センサの各辺が情報処理装置700の前面および側面に45°の角度で配置されている。また、ユーザの頭部201、胴体部202、右上腕部203、右下腕部204、右手の手のひら205、右手の親指205a、右手の人差指205b、右手の中指205c、右手の薬指205d、右手の小指205eを示す。
ユーザが手の指の静脈を読み取り部742に読み取らせる場合、ユーザは、図62に示すように、静脈を読み取らせる指(例えば、右手の人差指205b)を情報処理装置700の側面に対して左45°の角度で情報処理装置700の本体部730の上面と平行になるように位置させる。このとき、ユーザは、読み取らせる右手の人差指205bの中心線が読み取り部742の十字形の一辺の中心線に一致するように、右手の指を開いた状態で、静脈センサ面から一定の距離(例えば数cm)離した空間上に指を位置させる。ユーザは、手のひらの静脈の読み取り時と同様、指の静脈の読み取り時に右手の手のひら205と右下腕部204との間の手首をねじ曲げる必要がなく、ほぼ真直ぐにできる。これに伴い、ユーザの右手の各指は、各々真直ぐ伸ばし十分正しく開け、ユーザの右手の指と指の間の付け根4か所は、間隔が十分開いている。従って右手の手のひら205に水平面のねじれはなく、方向特徴部分について早く確実に正しい画像が得られる。従って、右手または左手の判定を早く確実に行うことができ、生体情報の登録やユーザの認証を早く確実に行うことができる。
また、ユーザの右手首の部分の角度、右手首から右下腕部204や右上腕部203、右下腕部204と右上腕部203との間の肘、右上腕部203と胴体部202との間の右肩の姿勢に無理がなく、ユーザの負担の軽減を図ることができる。なお、図62では、ユーザの右手の人差指の静脈を読み取らせる場合について説明したが、これに限らず、右手の人差指以外の指および左手のいずれかの指の静脈を読み取らせる場合についても同様であり、説明を省略する。
また、ユーザの右手の各指は、右手の手のひら205とともに静脈センサ面から一定の距離離れた空間上に位置しているため、キーボード131やその他の操作部に指や手のひらが触れて誤操作を起こすことを抑制できる。
図63および図64は、第5の実施の形態の方向特徴部分の検出を示す図である。図63(A)は、右手の手のひらの静脈を読み取らせる場合の取得画像7421を示す。図63(B)は、左手の手のひらの静脈を読み取らせる場合の取得画像7422を示す。図64(A)は、右手の指の静脈を読み取らせる場合の取得画像7423を示す。図64(B)は、左手の指の静脈を読み取らせる場合の取得画像7424を示す。
取得画像7421~7424は、読み取り部742の生体検出部142aによって取得される画像である。取得画像7421~7424は、例えば、生体検出部142aが備える画像センサによって撮像される。取得画像7421~7424は、図63、図64における上側が情報処理装置700における正面から見て奥側であり、図63、図64における下側が情報処理装置700における正面から見て手前側であり、図63、図64における右側が情報処理装置700における正面から見て右側であり、図63、図64における左側が情報処理装置700における正面から見て左側である。
図63および図64に示すように、生体検出部142aによって取得される画像には、左上の辺に沿って右手の手のひらの指の付け根の谷間部分を検出する右手検出用矩形画像領域7420a、右上の辺に沿って左手の手のひらの指の付け根の谷間部分を検出する左手検出用矩形画像領域7420b、左下の辺に沿って左手の手のひらの指の付け根の谷間部分を検出する左指検出用矩形画像領域7420c、右下の辺に沿って右手の手のひらの指の付け根の谷間部分を検出する右指検出用矩形画像領域7420dが設定される。右手検出用矩形画像領域7420aと、左手検出用矩形画像領域7420bとは、取得画像における互いに直交する2辺に沿って設けられる。右指検出用矩形画像領域7420dと、左指検出用矩形画像領域7420cとは、取得画像における互いに直交する2辺に沿って設けられる。指の付け根の谷間部分は、方向特徴部分として機能する。
ここで、生体検出部142aの画像センサによる画像取得は、光源部142cから近赤外光が照射されずに行われる。従って、ここで取得される画像は静脈の画像ではなく手のひらや指の外観の画像である。指の付け根の谷間部分の検出処理においては、その手のひらまたは指の外観の画像において上記各矩形画像領域が設定された位置を対象にこの検出処理が行われる。
図63(A)に示す右手の手のひらの取得画像7421では、右手検出用矩形画像領域7420aに、ユーザの右手の人差指、中指、薬指、小指の付け根の谷間部分である方向特徴部分7421a1が存在する。これにより、情報処理装置700は、ユーザの右手の手のひらが読み取り部742の静脈センサの上方に位置していると判定できる。
図63(B)に示す左手の手のひらの取得画像7422では、左手検出用矩形画像領域7420bに、ユーザの左手の人差指、中指、薬指、小指の付け根の谷間部分である方向特徴部分7422b1が存在する。これにより、情報処理装置700は、ユーザの左手の手のひらが読み取り部742の静脈センサの上方に位置していると判定できる。
図64(A)に示す右手の指の取得画像7423では、右指検出用矩形画像領域7420dに、ユーザの右手の人差指、中指、薬指、小指のうちの隣接するいずれか3つの指の付け根の谷間部分である方向特徴部分7423d1が存在する。これにより、情報処理装置700は、ユーザの右手の指が読み取り部742の静脈センサの情報に位置していると判定できる。
図64(B)に示す左手の指の取得画像7424では、左指検出用矩形画像領域7420cに、ユーザの左手の人差指、中指、薬指、小指のうちの隣接するいずれか3つの指の付け根の谷間部分である方向特徴部分7424c1が存在する。これにより、情報処理装置700は、ユーザの左手の指が読み取り部742の静脈センサの情報に位置していると判定できる。
読み取り部742は、生体検出部142aの図示しない距離センサで、読み取り部742の上部に位置するユーザの手のひらまたは指を検出すると、撮像部742bで手のひらまたは指の画像を取得し、取得画像に設けられた右手検出用矩形画像領域7420a、左手検出用矩形画像領域7420b、左指検出用矩形画像領域7420cまたは右指検出用矩形画像領域7420dに指の付け根の谷間部分が検出されるか否かを判定する。
このようにして、読み取り部742は、ユーザの手のひらまたは指を検出すると、手のひらまたは指の画像を取得する。読み取り部742は、右手検出用矩形画像領域7420a、左手検出用矩形画像領域7420b、左指検出用矩形画像領域7420cまたは右指検出用矩形画像領域7420dにおける方向特徴部分の有無に基づいて、読み取り対象が指および手のひらのいずれであるか並びに左右のいずれの手であるか(取得対象の種別)を判定する。
なお、図63(A)、図63(B)、図64(A)、図64(B)に示した、方向特徴部分を検出するための取得画像は、撮像部142bによって撮像される画像であってもよい。
第5の実施の形態における方向特徴部分、すなわち指の付け根の谷間部分の検出は、例えば人差指と中指の付け根の谷間部分、中指と薬指の付け根の谷間部分、薬指と小指の付け根の谷間部分のすべてまたは少なくとも一部の組み合わせが、所定の間隔開いていることに基づいて検出してもよい。例えば、指の付け根の谷間部分の検出は、生体検出部142aで取得した手のひらの取得画像における、手の各指の付け根の位置と、指の付け根と付け根の間の輪郭識別によって実現してもよい。
図65は、第5の実施の形態の生体特徴情報取得登録処理を示すフローチャートである。生体特徴情報取得登録処理は、登録対象の生体が指であるか手のひらであるかおよび手の左右を判定し、指の場合にはユーザによる指の種類の入力を受け付け、手のひらの種別(手の左右)または指の種別(手の左右・指の種類)および静脈の特徴を示す生体特徴情報を生成して登録する処理である。生体特徴情報取得登録処理は、例えば、ユーザが指または手のひらの静脈の生体特徴情報を登録する場合に実行される。以下、図65に示す処理をステップ番号に沿って説明する。
[ステップS251]情報取得部711は、読み取り部742の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部742上の所定高さの位置に手のひらまたは指が配置されたことを判定する。手のひらまたは指が配置されたと判定すると、情報取得部711は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分の位置を判定する。第5の実施の形態では、方向特徴部分は取得対象が手のひらであるか指であるかおよび手の左右を判定するために用いられる。指の場合、登録対象の指の輪郭を検出し、検出した指の輪郭より指の方向を判定し、指の載置の誤検出を防止するようにしてもよい。
[ステップS252]情報取得部711は、ステップS251での判定の結果、取得対象が指である場合、ユーザに対して指の種類の入力を要求するメッセージウインドウを表示し、ユーザによる取得対象の指の種類の入力を受け付ける。
[ステップS253]種別判定部712は、ステップS251で判定された方向特徴部分の位置に基づいて、取得対象の種別(指または手のひらのいずれであるかおよび手の左右)を判定する。
[ステップS254]情報取得部711は、読み取り部742の撮像部142bに画像を撮像させ、手のひらまたは指の静脈が映り込んだ生体画像を取得する。
なお、ステップS253,S254の処理順は、手のひらと指の静脈の読み取り動作が同じである場合、逆であっても、あるいは同時であってもよい。
なお、ステップS253,S254の処理順は、手のひらと指の静脈の読み取り動作が同じである場合、逆であっても、あるいは同時であってもよい。
[ステップS255]情報生成部713は、ステップS254で取得された生体画像に基づいて生体情報の特徴を抽出する。情報生成部713は、特徴の抽出結果を示す生体情報を生成する。
[ステップS256]情報生成部713は、ステップS253で判定された種別と、指の場合ステップS252で入力を受け付けた指の種類と、ステップS255で生成した生体情報と、ユーザのIDとを含む生体特徴情報を生成する。
[ステップS257]情報生成部713は、ステップS256で生成した生体特徴情報を生体特徴情報記憶部741bに記憶させる。これにより、生体特徴情報が生体特徴情報記憶部741bに登録される。その後、処理は終了する。
図66は、第5の実施の形態の生体特徴情報認証処理を示すフローチャートである。生体特徴情報認証処理は、認証対象の生体が指であるか手のひらであるかおよび手の左右を判定し、手のひらの種別または指の種別および静脈の特徴を示す照合生体特徴情報を生成し、予め登録されている生体特徴情報と照合して認証する処理である。照合生体特徴情報は、生体特徴情報と同一の構成のデータであり、認証対象のユーザの生体(第5の実施の形態では、指の静脈または手のひらの静脈)の特徴を示す。生体特徴情報認証処理は、例えば、ユーザが指の静脈または手のひらの静脈で認証する場合に実行される。以下、図66に示す処理をステップ番号に沿って説明する。
[ステップS261]情報取得部711は、読み取り部742の生体検出部142aが備える距離センサによる検出結果に基づき、読み取り部742上の所定高さの位置に手のひらまたは指が配置されたことを判定する。手のひらまたは指が配置されたと判定すると、情報取得部711は、生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分の位置を判定する。指の場合、登録対象の指の輪郭を検出し、検出した指の輪郭より指の方向を判定し、指の載置の誤検出を防止するようにしてもよい。
[ステップS262]種別判定部712は、ステップS261で判定された方向特徴部分の位置に基づいて、取得対象の種別(指であるか手のひらであるかおよび手の左右)を判定する。
[ステップS263]情報取得部711は、読み取り部742の撮像部142bに画像を撮像させ、手のひらまたは指の静脈が映り込んだ生体画像を取得する。
なお、ステップS262,S263の処理順は、手のひらと指の静脈の読み取り動作が同じである場合、逆であっても、あるいは同時であってもよい。
なお、ステップS262,S263の処理順は、手のひらと指の静脈の読み取り動作が同じである場合、逆であっても、あるいは同時であってもよい。
[ステップS264]情報生成部713は、ステップS263で取得された生体画像に基づいて生体情報の特徴を抽出する。情報生成部713は、特徴の抽出結果を示す生体情報を生成する。
[ステップS265]情報生成部713は、ステップS262で判定された種別およびステップS264で生成した生体情報を含む照合生体特徴情報を生成する。
[ステップS266]照合部714は、ステップS265で生成された照合生体特徴情報を用いて生体特徴情報照合処理(図67において後述)を実行する。その後、処理は終了する。
[ステップS266]照合部714は、ステップS265で生成された照合生体特徴情報を用いて生体特徴情報照合処理(図67において後述)を実行する。その後、処理は終了する。
図67は、第5の実施の形態の生体特徴情報照合処理を示すフローチャートである。生体特徴情報照合処理は、認証対象の照合生体特徴情報と予め登録されている生体特徴情報とを照合する処理である。生体特徴情報照合処理は、例えば、生体特徴情報認証処理によって呼び出された場合に実行される。以下、図67に示す処理をステップ番号に沿って説明する。
[ステップS271]照合部714は、生体特徴情報認証処理で生成された照合生体特徴情報を取得する。
[ステップS272]照合部714は、生体特徴情報記憶部741bを参照して、ステップS271で取得した照合生体特徴情報の種別(指であるか手のひらであるかおよび手の左右)と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部714は、照合生体特徴情報の種別およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部741bから抽出する。
[ステップS272]照合部714は、生体特徴情報記憶部741bを参照して、ステップS271で取得した照合生体特徴情報の種別(指であるか手のひらであるかおよび手の左右)と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部714は、照合生体特徴情報の種別およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部741bから抽出する。
[ステップS273]照合部714は、ステップS272で抽出した生体特徴情報のうちの未選択の1つを選択し、選択した生体特徴情報と照合生体特徴情報のそれぞれに含まれる生体情報を照合する。
[ステップS274]照合部714は、ステップS273の照合の結果、選択した生体特徴情報と照合生体特徴情報との照合に成功したか否かを判定する。照合に成功すれば(ステップS274 YES)、処理はステップS275に進められる。一方、照合に失敗すれば(ステップS274 NO)、処理はステップS276に進められる。
[ステップS275]照合部714は、認証に成功した場合の所定の処理を実行する。その後、処理は復帰する。
[ステップS276]照合部714は、ステップS272で抽出した生体特徴情報が、ステップS273ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS276 YES)、処理はステップS277に進められる。一方、未選択のものがあれば(ステップS276 NO)、処理はステップS273に進められる。
[ステップS276]照合部714は、ステップS272で抽出した生体特徴情報が、ステップS273ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS276 YES)、処理はステップS277に進められる。一方、未選択のものがあれば(ステップS276 NO)、処理はステップS273に進められる。
[ステップS277]照合部714は、認証に失敗した場合の所定の処理を実行する。その後、処理は復帰する。
以上のような第5の実施の形態によっても、第2の実施の形態および第3の実施の形態と同様の効果を奏する。
以上のような第5の実施の形態によっても、第2の実施の形態および第3の実施の形態と同様の効果を奏する。
また、ユーザが本人の認証について、指の静脈の生体情報および手のひらの静脈の生体情報を任意で選択して使用することが可能になる。また、ユーザが手のひらか指かの異なる生体種別を入力する必要がなく、認証時および登録時の操作の負担を抑制できる。また、ユーザの認証について、指の静脈の生体情報および手のひらの静脈の両方の生体情報を使用して認証を行うことができるので、認証の精度を高めることが可能になる。
[第6の実施の形態]
次に、第6の実施の形態を説明する。第2の実施の形態の第7の変形例との差異を中心に説明し、同様の事項については説明を省略する。第6の実施の形態の情報処理装置は、手のひらの静脈の生体情報および1つの特定の指の静脈の生体情報を同時に読み取る点で、第2の実施の形態の第7の変形例と異なる。
次に、第6の実施の形態を説明する。第2の実施の形態の第7の変形例との差異を中心に説明し、同様の事項については説明を省略する。第6の実施の形態の情報処理装置は、手のひらの静脈の生体情報および1つの特定の指の静脈の生体情報を同時に読み取る点で、第2の実施の形態の第7の変形例と異なる。
図68は、第6の実施の形態の情報処理装置を示すブロック図である。第6の実施の形態の情報処理装置800は、情報取得部811、種別判定部812、情報生成部813、照合部814、生体特徴情報記憶部841bを有する。また、情報取得部811には、読み取り部842が接続されている。
情報取得部811は、情報処理装置800のユーザ等の認証対象の人物の生体画像を取得する。情報取得部811は、生体画像が取得される状態における生体の方向を取得可能である。情報取得部811により取得される生体画像は、手のひらの静脈のパターンの画像情報および予め特定された1つの指の静脈のパターンの画像情報である。手のひらについての方向(手の方向)は、手の左右に基づき逆方向(180°回転)である。指の方向は、指の手の左右に基づき逆方向(180°回転)方向である。情報取得部811は、取得した画像における方向特徴部分の位置を判定することで生体の方向を判定する。
読み取り部842は、情報処理装置800の上部に固定されている。読み取り部842は、図4に示した生体検出部142a、撮像部142bおよび光源部142cを備える。情報取得部811は、読み取り部842の生体検出部142aによる検出結果に基づいて、生体が読み取り部842から所定の距離に配置されたことや、読み取り部842に対する生体の方向を判定する。情報取得部811は、読み取り部842の生体検出部142aによって得られた画像から、生体における方向特徴部分の位置を判定することで、生体の方向を判定する。第6の実施の形態では、左右の手の方向は、逆方向(180°回転)であるとともにキーボード131との角度は平行である。方向特徴部分は、手のひらにおける指の付け根の谷間部分である。
また、情報取得部811は、読み取り部842の撮像部142bによって生体が撮像された生体画像を取得する。
種別判定部812は、情報取得部811によって取得された手の方向に基づいて手のひらの生体情報の種別および指の生体情報の種別を判定する。種別は、手の左右の別を示す。第6の実施の形態では、指の種類は、左右の中指等のように、予め特定されている。種別判定部812は、詳しくは後述するが、方向特徴部分の位置の判定結果に基づいて生成情報の種別が手のひらに関する情報であるか、指に関する情報であるかを判定する。
種別判定部812は、情報取得部811によって取得された手の方向に基づいて手のひらの生体情報の種別および指の生体情報の種別を判定する。種別は、手の左右の別を示す。第6の実施の形態では、指の種類は、左右の中指等のように、予め特定されている。種別判定部812は、詳しくは後述するが、方向特徴部分の位置の判定結果に基づいて生成情報の種別が手のひらに関する情報であるか、指に関する情報であるかを判定する。
情報生成部813は、情報取得部811で取得された生体画像を基に、生体の特徴を示す生体情報を生成する。情報生成部813は、生成した生体情報と種別判定部812によって判定された生体情報の種別とを含む照合生体特徴情報を生成する。これにより、認証のために生体情報を照合するユーザの生体情報および種別が示される。情報生成部813は、例えば、生成した生体情報と、種別判定部812によって判定された生体情報の種別と、生体情報に対応する個人を特定する識別情報とを含む生体特徴情報を生成して、生体特徴情報記憶部841bに記憶させる。これにより、認証に使用する予め登録された正規の権限を有するユーザの生体情報および種別を示す生体特徴情報が登録される。また、ユーザの生体情報の登録時には、情報生成部813は、生成した生体特徴情報を生体特徴情報記憶部841bに記憶させる。また、ユーザの生体情報による認証時には、照合部814は、情報生成部813により生成された照合生体特徴情報を用いて認証を行う。
照合部814は、照合生体特徴情報と種別が一致する生体特徴情報を抽出し、照合生体特徴情報の生体情報と抽出した生体特徴情報とに基づいて、手のひらおよび指各々で照合する。これにより、情報処理装置800は、照合結果に基づいてユーザの生体認証を行う。照合の対象を種別が同一のものに絞って照合を行うので、照合の処理に要する時間や負荷の増加を抑制することができる。
生体特徴情報記憶部841bは、情報取得部811によって取得された手のひらの生体情報および指の生体情報と種別判定部812によって判定された生体情報の種別とを示す生体特徴情報を記憶する。これにより、ユーザの手のひらの生体情報および指の生体情報と手の左右とが対応付けられて記憶される。
図69は、第6の実施の形態の生体特徴テーブルを示す図である。図69に示す生体特徴テーブル841b1は、第6の実施の形態の情報処理装置800が有する生体特徴情報記憶部841bに設定される。生体特徴テーブル841b1は、情報処理装置800の生体認証に使用する生体特徴情報を管理するテーブルである。
生体特徴テーブル841b1には、項目として“番号”、“ID”、“左右”、“特徴データ”が設けられている。また、特徴データには、項目として“手”、“指3”が設けられている。生体特徴テーブル841b1には、上記項目に設定された値が、生体特徴情報として互いに関連付けられる。
手は、右手の手のひらの静脈および左手の手のひらの静脈のいずれかの特徴を示す生体情報のファイル名を示す。指3は、右手の中指の静脈および左手の中指の静脈のいずれかの特徴を示す生体情報のファイル名を示す。生体特徴情報の生体情報が右手のものであるか左手のものであるかは、左右の項目によって示される。
なお、図69に示した生体特徴テーブル841b1は一例であり、生体特徴テーブルには任意の項目を設定することができる。例えば、第6の実施の形態では、中指の静脈の特徴データを用いるが、他の指の静脈の特徴データを用いてもよい。
図70は、第6の実施の形態の右手の手のひらおよび中指の静脈の読み取り時の状態を示す図である。図70は、情報処理装置800が右手の手のひらおよび中指の静脈を読み取る際の状態を上方から見た場合の図である。図70に示すように、情報処理装置800は、ディスプレイ部120および本体部830を有する。情報処理装置800の本体部830の上面には、キーボード131、読み取り部8425,8426が設けられている。
読み取り部8425,8426は、図4に示す生体検出部142a、撮像部142bおよび光源部142cをそれぞれ備えている。読み取り部8425,8426は、情報処理装置800のキーボード131と同じ本体部830上面であって、キーボード131の手前に左右に並んで、正方形状の静脈センサ(撮像部142b)の各辺が情報処理装置800の前面および側面に平行に配置されている。読み取り部8425の撮像部142bは、右手の中指の静脈および左手の手のひらの静脈の読み取りが可能である。読み取り部8426の撮像部142bは、左手の中指の静脈および右手の手のひらの静脈の読み取りが可能である。また、ユーザの頭部201、胴体部202、右上腕部203、右下腕部204、右手の手のひら205、右手の中指205cを示す。
なお、図32における読み取り部342の静脈センサと同様に、図70における読み取り部8425,8426における各静脈センサは、主走査方向が、本体部830の前面830aが延びる方向に対して90°の角度をなすように配置されている。ただし、各静脈センサは、例えば、本体部830の前面830aが延びる方向、キーボード131における操作キーの配列方向(キーボード131の長手方向)、または、LCD121の主走査方向のいずれかと、静脈センサの主走査方向との角度が90°となるように、配置されていてもよい。
ユーザが手のひらの静脈および予め特定された指の静脈を読み取り部8425,8426に読み取らせる場合、ユーザは、図70に示すように、静脈を読み取らせる方の手のひら(例えば、右手の手のひら205)および指(例えば、右手の中指205c)を情報処理装置800の前面に対して平行かつ情報処理装置800の本体部830の上面と平行に位置させる。右手を読み取り対象とする場合、ユーザは、右手の手のひら205の中心部が読み取り部8426の中心部に一致するように、かつ、右手の中指205cの中心線が読み取り部8425の横方向の中心線に一致するように位置させる。また、ユーザは、右手の手のひら205を指を開いた状態で、読み取りの対象である右手の中指205c以外の指が、読み取り部8425の横方向の中心線近傍上方にかからないように位置させる。また、ユーザは、右手の手のひら205および右手の中指205cを、読み取り部8426,8425のそれぞれの静脈センサ面から一定の距離(例えば数cm)離した空間上に位置させる。ユーザは、読み取り時に右手の手のひら205と右下腕部204との間の手首をねじ曲げる必要がなく、ほぼ真直ぐにできる。これに伴い、ユーザの右手の各指は、各々真直ぐ伸ばし十分正しく開け、ユーザの右手の指と指の間の付け根4か所は、間隔が十分開いている。従って右手の手のひら205に水平面のねじれはなく、早く確実に正しい画像が得られる。従って正しい特徴を早く確実に検出でき、生体情報の登録やユーザの認証を早く確実に行うことができる。
また、手の指と指の間の付け根を、右手の手のひら205の読み取り部8426が備える生体検出部142aの画像センサで取得した取得画像の図示しない左辺に設定される検出用矩形領域での検出に利用することで、右手が載置されたことを早く確実に判定することができる。この検出用矩形領域とは、取得画像の左辺において、例えば、図63、図64に示した右手検出用矩形画像領域7420aのように設定されるものである。また、ユーザの右手首の部分の角度、右手首から右下腕部204や右上腕部203、右下腕部204と右上腕部203との間の肘、右上腕部203と胴体部202との間の右肩の姿勢に無理がなく、ユーザの負担の軽減を図ることができる。
なお、左手を読み取り対象とする場合、ユーザは、左手の手のひらの中心部が読み取り部8425の中心部に一致するように、かつ、左手の中指の中心線が読み取り部8426の横方向の中心線に一致するように位置させる。このとき、手の指と指の間の付け根が、読み取り部8425が備える生体検出部142aの画像センサで取得した取得画像の図示しない右辺に設定される検出用矩形領域から検出されることで、左手が載置されたことが判定される。この検出用矩形領域とは、取得画像の右辺において、例えば、図63、図64に示した左手検出用矩形画像領域7420bのように設定されるものである。
なお、方向特徴部分を検出するための取得画像は、撮像部142bによって撮像される画像であってもよい。
図71は、第6の実施の形態の生体特徴情報取得登録処理を示すフローチャートである。生体特徴情報取得登録処理は、登録対象の生体の手のひらおよび指の手の左右を判定し、手のひらおよび指の種別(手の左右)ならびに静脈の特徴を示す生体特徴情報を生成して登録する処理である。生体特徴情報取得登録処理は、例えば、ユーザが指および手のひらの静脈の生体特徴情報を登録する場合に実行される。以下、図71に示す処理をステップ番号に沿って説明する。
図71は、第6の実施の形態の生体特徴情報取得登録処理を示すフローチャートである。生体特徴情報取得登録処理は、登録対象の生体の手のひらおよび指の手の左右を判定し、手のひらおよび指の種別(手の左右)ならびに静脈の特徴を示す生体特徴情報を生成して登録する処理である。生体特徴情報取得登録処理は、例えば、ユーザが指および手のひらの静脈の生体特徴情報を登録する場合に実行される。以下、図71に示す処理をステップ番号に沿って説明する。
[ステップS281]情報取得部811は、読み取り部8425,8426がそれぞれ備える生体検出部142aの距離センサによる検出結果に基づき、読み取り部8425,8426上の所定高さの位置に手のひらまたは指が配置されたことを判定する。手のひらまたは指が配置されたと判定すると、情報取得部811は、読み取り部8425,8426の各生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分の位置を判定する。第6の実施の形態では、指の種類は予め所定の指(例えば、中指)に定められており、方向特徴部分は取得対象が左右どちらの手のものかを判定するために用いられる。情報取得部811は、読み取り部8426で取得した取得画像の図示しない左辺に設定される検出用矩形領域において方向特徴部分が検出された場合、読み取り対象の手は右手であると判定する。一方、情報取得部811は、読み取り部8425で取得した取得画像の図示しない右辺に設定される検出用矩形領域において方向特徴部分が検出された場合、読み取り対象の手は左手であると判定する。
[ステップS282]種別判定部812は、ステップS281で判定された方向特徴部分の位置に基づいて、取得対象の種別(手の左右)を判定する。
[ステップS283]情報取得部811は、読み取り部8425,8426のそれぞれが備える撮像部142bに画像を撮像させ、手のひらおよび指の静脈が映り込んだ生体画像を取得する。
[ステップS283]情報取得部811は、読み取り部8425,8426のそれぞれが備える撮像部142bに画像を撮像させ、手のひらおよび指の静脈が映り込んだ生体画像を取得する。
なお、ステップS282,S283の処理順は、手のひらと指の静脈の読み取り動作が同じである場合、逆であっても、あるいは同時であってもよい。
[ステップS284]情報生成部813は、ステップS283で取得された生体画像に基づいて生体情報の特徴を抽出する。情報生成部813は、特徴の抽出結果を示す生体情報を生成する。
[ステップS284]情報生成部813は、ステップS283で取得された生体画像に基づいて生体情報の特徴を抽出する。情報生成部813は、特徴の抽出結果を示す生体情報を生成する。
[ステップS285]情報生成部813は、ステップS282で判定された種別と、ステップS284で生成した生体情報と、ユーザのIDとを含む生体特徴情報を生成する。
[ステップS286]情報生成部813は、ステップS285で生成した生体特徴情報を生体特徴情報記憶部841bに記憶させる。これにより、生体特徴情報が生体特徴情報記憶部841bに登録される。その後、処理は終了する。
[ステップS286]情報生成部813は、ステップS285で生成した生体特徴情報を生体特徴情報記憶部841bに記憶させる。これにより、生体特徴情報が生体特徴情報記憶部841bに登録される。その後、処理は終了する。
図72は、第6の実施の形態の生体特徴情報認証処理を示すフローチャートである。生体特徴情報認証処理は、認証対象の生体の手のひらおよび指の手の左右を判定し、手のひらおよび指の種別(手の左右)ならびに静脈の特徴を示す生体特徴情報を生成し、予め登録されている生体特徴情報と照合して認証する処理である。照合生体特徴情報は、生体特徴情報と同一の構成のデータであり、認証対象のユーザの生体(第6の実施の形態では、指の静脈および手のひらの静脈)の特徴を示す。生体特徴情報認証処理は、例えば、ユーザが指の静脈および手のひらの静脈で認証する場合に実行される。以下、図72に示す処理をステップ番号に沿って説明する。
[ステップS291]情報取得部811は、読み取り部8425,8426がそれぞれ備える生体検出部142aの距離センサによる検出結果に基づき、読み取り部8425,8426上の所定高さの位置に手のひらまたは指が配置されたことを判定する。手のひらまたは指が配置されたと判定すると、情報取得部811は、読み取り部8425,8426の各生体検出部142aが備える画像センサによる撮像画像から、方向特徴部分である指の付け根の谷間部分を検出し、検出した方向特徴部分の位置を判定する。第6の実施の形態では、指の種類は予め所定の指(例えば、中指)に定められており、方向特徴部分は取得対象が左右どちらの手のものかを判定するために用いられる。情報取得部811は、読み取り部8426で取得した取得画像の図示しない左辺に設定される検出用矩形領域において方向特徴部分が検出された場合、読み取り対象の手は右手であると判定する。一方、情報取得部811は、読み取り部8425で取得した取得画像の図示しない右辺に設定される検出用矩形領域において方向特徴部分が検出された場合、読み取り対象の手は左手であると判定する。
[ステップS292]種別判定部812は、ステップS291で判定された方向特徴部分の位置に基づいて、取得対象の種別(手の左右)を判定する。
[ステップS293]情報取得部811は、読み取り部8425,8426のそれぞれが備える撮像部142bに画像を撮像させ、手のひらおよび指の静脈が映り込んだ生体画像を取得する。
[ステップS293]情報取得部811は、読み取り部8425,8426のそれぞれが備える撮像部142bに画像を撮像させ、手のひらおよび指の静脈が映り込んだ生体画像を取得する。
なお、ステップS292,S293の処理順は、手のひらと指の静脈の読み取り動作が同じである場合、逆であっても、あるいは同時であってもよい。
[ステップS294]情報生成部813は、ステップS293で取得された生体画像に基づいて生体情報の特徴を抽出する。情報生成部813は、特徴の抽出結果を示す生体情報を生成する。
[ステップS294]情報生成部813は、ステップS293で取得された生体画像に基づいて生体情報の特徴を抽出する。情報生成部813は、特徴の抽出結果を示す生体情報を生成する。
[ステップS295]情報生成部813は、ステップS292で判定された種別およびステップS294で生成した生体情報を含む照合生体特徴情報を生成する。
[ステップS296]照合部814は、ステップS295で生成された照合生体特徴情報を用いて生体特徴情報照合処理(図73において後述)を実行する。その後、処理は終了する。
[ステップS296]照合部814は、ステップS295で生成された照合生体特徴情報を用いて生体特徴情報照合処理(図73において後述)を実行する。その後、処理は終了する。
図73は、第6の実施の形態の生体特徴情報照合処理を示すフローチャートである。生体特徴情報照合処理は、認証対象の照合生体特徴情報と予め登録されている生体特徴情報とを照合する処理である。生体特徴情報照合処理は、例えば、生体特徴情報認証処理によって呼び出された場合に実行される。以下、図73に示す処理をステップ番号に沿って説明する。
[ステップS301]照合部814は、生体特徴情報認証処理で生成された照合生体特徴情報を取得する。
[ステップS302]照合部814は、生体特徴情報記憶部841bを参照して、ステップS301で取得した照合生体特徴情報の種別(手のひらおよび指の手の左右)と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部814は、照合生体特徴情報の種別およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部841bから抽出する。
[ステップS302]照合部814は、生体特徴情報記憶部841bを参照して、ステップS301で取得した照合生体特徴情報の種別(手のひらおよび指の手の左右)と一致する生体特徴情報を抽出する。なお、1対1照合が行われる場合、照合部814は、照合生体特徴情報の種別およびユーザのIDの両方が一致する生体特徴情報を、生体特徴情報記憶部841bから抽出する。
[ステップS303]照合部814は、ステップS302で抽出した生体特徴情報のうちの未選択の1つを選択し、選択した生体特徴情報と照合生体特徴情報のそれぞれに含まれる生体情報を照合する。第6の実施の形態では、生体特徴情報と照合生体特徴情報との照合時には、手のひらの静脈および指の静脈の両方についてそれぞれ照合される。
[ステップS304]照合部814は、ステップS303の照合の結果、選択した生体特徴情報と照合生体特徴情報との照合に成功したか否かを判定する。照合に成功すれば(ステップS304 YES)、処理はステップS305に進められる。一方、照合に失敗すれば(ステップS304 NO)、処理はステップS306に進められる。例えば、手のひらの静脈および指の静脈の両方が一致した場合に、照合が成功したと判定し、それ以外の場合を照合が失敗したと判定してもよい。また、照合結果を数値や段階で評価する場合には、それぞれの照合結果を総合して判定してもよい。
[ステップS305]照合部814は、認証に成功した場合の所定の処理を実行する。その後、処理は復帰する。
[ステップS306]照合部814は、ステップS302で抽出した生体特徴情報が、ステップS303ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS306 YES)、処理はステップS307に進められる。一方、未選択のものがあれば(ステップS306 NO)、処理はステップS303に進められる。
[ステップS306]照合部814は、ステップS302で抽出した生体特徴情報が、ステップS303ですべて選択済であるか否かを判定する。すべて選択済であれば(ステップS306 YES)、処理はステップS307に進められる。一方、未選択のものがあれば(ステップS306 NO)、処理はステップS303に進められる。
[ステップS307]照合部814は、認証に失敗した場合の所定の処理を実行する。その後、処理は復帰する。
なお、第6の実施の形態では、読み取り対象の指の種類は予め特定(右手または左手の中指)されているが、これに限らず、情報処理装置800が指自体の方向に基づいて判定してもよい。また、中指以外の任意の指を読み取り対象として予め特定してもよい。
なお、第6の実施の形態では、読み取り対象の指の種類は予め特定(右手または左手の中指)されているが、これに限らず、情報処理装置800が指自体の方向に基づいて判定してもよい。また、中指以外の任意の指を読み取り対象として予め特定してもよい。
以上のような第6の実施の形態によれば、1回の手の載置で、第2の実施の形態と同等な効果および第3の実施形態と同等な効果を合わせた効果を奏する。
また、ユーザの認証について、指の静脈および手のひらの静脈の両方の生体情報を使用して認証を行うので、認証の精度を高めることが可能になる。
また、ユーザの認証について、指の静脈および手のひらの静脈の両方の生体情報を使用して認証を行うので、認証の精度を高めることが可能になる。
なお、上記の第6の実施の形態では、読み取り部8426の画像センサから取得した画像から右手が載置されたことが判定され、読み取り部8425の画像センサから取得した画像から左手が載置されたことが判定された。しかしながら、他の例として、読み取り部8425,8426のうちの一方のみから、手の方向が判定されてもよい。
読み取り部8426のみから手の方向を判定する例を挙げると、情報取得部711は、例えば、読み取り部8426の画像センサから取得した画像における左辺に、検出用矩形領域を設定する。情報取得部811は、検出用矩形領域に、右手の方向特徴部分として、図63(A)の右手検出用矩形画像領域7420aのように右手の4つの指の付け根の谷間部分が存在する場合に、右手が載置されたと判定する。一方、情報取得部811は、検出用矩形領域に、左手の方向特徴部分として、図64(B)の左指検出用矩形画像領域7420cのように左手の3つの指の付け根の谷間部分が存在する場合に、左手が載置されたと判定する。このように、読み取り部8425,8426のうちの一方から手の方向を判定することで、これらのうちの一方のみに画像センサを設ければよくなり、製造コストを低減できる。
また、他の例として、情報取得部811は、常に読み取り部8425,8426の両方の画像センサからの取得画像を基に、手の方向を判定してもよい。例えば、情報取得部811は、読み取り部8426の画像センサからの取得画像の左辺に設定した検出用矩形領域から、右手の4つの指の付け根の谷間部分が検出され、かつ、読み取り部8425の画像センサからの取得画像の右辺に設定した検出用矩形領域から、右手の3つの指の付け根の谷間部分が検出された場合に、右手が載置されたと判定する。これにより、手の方向の判定精度を高めることができる。
[第7の実施の形態]
次に、第7の実施の形態を説明する。第6の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第7の実施の形態の情報処理装置は、手のひらの静脈の生体情報および複数の特定の指の静脈の生体情報を同時に読み取る点で、第6の実施の形態と異なる。
次に、第7の実施の形態を説明する。第6の実施の形態との差異を中心に説明し、同様の事項については説明を省略する。第7の実施の形態の情報処理装置は、手のひらの静脈の生体情報および複数の特定の指の静脈の生体情報を同時に読み取る点で、第6の実施の形態と異なる。
図74は、第7の実施の形態の情報処理装置を示すブロック図である。第7の実施の形態の情報処理装置900は、情報取得部911、種別判定部912、情報生成部913、照合部914、生体特徴情報記憶部941bを有する。また、情報取得部911には、読み取り部942が接続されている。
情報取得部911は、情報処理装置900のユーザ等の認証対象の人物の生体画像を取得する。情報取得部911は、生体画像が取得される状態における生体の方向を取得可能である。情報取得部911により取得される生体画像は、手のひらの静脈のパターンの画像情報および複数の指の静脈のパターンの画像情報である。手のひらについての方向(手の方向)は、手の左右に基づき逆方向(180°回転)である。指の方向は、手の左右に基づき逆方向(180°回転)および各指の方向を組み合わせた方向である。情報取得部911は、取得した画像における方向特徴部分の位置を判定することで生体の方向を判定する。
読み取り部942は、情報処理装置900の上部に固定されている。読み取り部942は、図4に示した生体検出部142a、撮像部142bおよび光源部142cを備える。情報取得部911は、読み取り部942の生体検出部142aによる検出結果に基づいて、生体が読み取り部942から所定の距離に配置されたことや、読み取り部942に対する生体の方向を判定する。情報取得部911は、読み取り部942の生体検出部142aによって得られた画像から、生体における方向特徴部分の位置を判定することで、生体の方向を判定する。第7の実施の形態では、左右の手の方向は、逆方向(180°回転)であるとともにキーボード131との角度は平行である。方向特徴部分は、手のひらにおける指の付け根の谷間部分である。情報取得部911は、例えば、読み取り部942の生体検出部142aによって得られた画像から、指の輪郭像を求める。
また、情報取得部911は、読み取り部942の撮像部142bによって生体が撮像された生体画像を取得する。
種別判定部912は、情報取得部911によって取得された手の方向に基づいて手のひらおよび指の生体情報の種別(手の左右)を判定する。種別判定部912は、情報取得部911によって取得された指の輪郭像より、指の種類を判定する。例えば、右手の場合読み取り部942上方より見て、中心の中指の付け根の左隣の付け根より延伸している方向の指を人差指、右隣の付け根より延伸している方向の指を薬指と判定する。第7の実施の形態では、指の種類は複数存在するとともに、左右の人差指、中指および薬指等のように、予め特定することもできる。種別判定部912は、詳しくは後述するが、方向特徴部分の位置の判定結果に基づいて生成情報の種別が手のひらに関する情報であるか、指に関する情報であるかを判定する。
種別判定部912は、情報取得部911によって取得された手の方向に基づいて手のひらおよび指の生体情報の種別(手の左右)を判定する。種別判定部912は、情報取得部911によって取得された指の輪郭像より、指の種類を判定する。例えば、右手の場合読み取り部942上方より見て、中心の中指の付け根の左隣の付け根より延伸している方向の指を人差指、右隣の付け根より延伸している方向の指を薬指と判定する。第7の実施の形態では、指の種類は複数存在するとともに、左右の人差指、中指および薬指等のように、予め特定することもできる。種別判定部912は、詳しくは後述するが、方向特徴部分の位置の判定結果に基づいて生成情報の種別が手のひらに関する情報であるか、指に関する情報であるかを判定する。
情報生成部913は、情報取得部911で取得された生体画像を基に、生体の特徴を示す生体情報を生成する。情報生成部913は、生成した生体情報と種別判定部912によって判定された生体情報の種別とを含む照合生体特徴情報を生成する。これにより、認証のために生体情報を照合するユーザの生体情報および種別が示される。情報生成部913は、例えば、生成した生体情報と、種別判定部912によって判定された生体情報の種別と、生体情報に対応する個人を特定する識別情報とを含む生体特徴情報を生成して生体特徴情報記憶部941bに記憶させる。これにより、認証に使用する予め登録された正規の権限を有するユーザの生体情報および種別を示す生体特徴情報が登録される。種別は、手の左右及び指の種別である。また、ユーザの生体情報の登録時には、情報生成部913は、生成した生体特徴情報を生体特徴情報記憶部941bに記憶させる。また、ユーザの生体情報による認証時には、照合部914は、情報生成部913により生成された照合認証生体特徴情報を用いて認証を行う。
照合部914は、照合生体特徴情報と種別が一致する生体特徴情報を抽出し、照合生体特徴情報の生体情報と抽出した生体特徴情報とに基づいて照合する。これにより、情報処理装置900は、照合結果に基づいてユーザの生体認証を行う。照合の対象を種別が同一のものに絞って照合を行うので、照合の処理に要する時間や負荷の増加を抑制することができる。
生体特徴情報記憶部941bは、情報取得部911によって取得された手のひらの生体情報および指の生体情報と種別判定部912によって判定された生体情報の種別とを示す生体特徴情報を記憶する。これにより、ユーザの手のひらの生体情報および指の生体情報と手の左右および指の種類とが対応付けられて記憶される。
図75は、第7の実施の形態の生体特徴テーブルを示す図である。図75に示す生体特徴テーブル941b1は、第7の実施の形態の情報処理装置900が有する生体特徴情報記憶部941bに設定される。生体特徴テーブル941b1は、情報処理装置900の生体認証に使用する生体特徴情報を管理するテーブルである。
生体特徴テーブル941b1には、項目として“番号”、“ID”、“左右”、“特徴データ”が設けられている。また、特徴データには、項目として“手”、“指2”、“指3”、“指4”が設けられている。生体特徴テーブル941b1には、上記項目に設定された値が、生体特徴情報として互いに関連付けられる。
指2は、右手の人差指の静脈および左手の人差指の静脈のいずれかの特徴を示す生体情報のファイル名を示す。指3は、第6の実施の形態と同様、右手の中指の静脈および左手の中指の静脈のいずれかの特徴を示す生体情報のファイル名を示す。指4は、右手の薬指の静脈および左手の薬指の静脈のいずれかの特徴を示す生体情報のファイル名を示す。
なお、図75に示した生体特徴テーブル941b1は一例であり、生体特徴テーブルには任意の項目を設定することができる。例えば、第7の実施の形態では、人差指、中指および薬指の静脈の特徴データを用いるが、他の指の静脈の特徴データを用いてもよく、これらの指のうちの一部の組み合わせを用いてもよい。
図76は、第7の実施の形態の右手の手のひらおよび指の静脈の読み取り時の状態を示す図である。図76は、情報処理装置900が右手の手のひらならびに人差指、中指および薬指の静脈を読み取る際の状態を上方から見た場合の図である。図76に示すように、情報処理装置900は、ディスプレイ部120および本体部930を有する。情報処理装置900の本体部930の上面には、キーボード131、読み取り部9425,9426が設けられている。
読み取り部9425,9426は、図4に示す生体検出部142a、撮像部142bおよび光源部142cをそれぞれ備えている。読み取り部9425,9426は、情報処理装置900のキーボード131と同じ本体部930上面であって、キーボード131の手前に左右に並んで、縦方向に長い長方形状の静脈センサ(撮像部142b)の各辺が情報処理装置900の前面および側面に平行に配置されている。読み取り部9425の撮像部142bは、右手の人差指、中指および薬指の静脈、または左手の手のひらの静脈の読み取りが可能である。読み取り部9426の撮像部142bは、左手の人差指、中指および薬指の静脈、または右手の手のひらの静脈の読み取りが可能である。また、ユーザの頭部201、胴体部202、右上腕部203、右下腕部204、右手の手のひら205、右手の親指205a、右手の人差指205b、右手の中指205c、右手の薬指205d、右手の小指205eを示す。
なお、図70における読み取り部8425,8426の静脈センサと同様に、図76における読み取り部9425,9426における各静脈センサは、主走査方向が、本体部930の前面930aが延びる方向に対して90°の角度をなすように配置されている。ただし、各静脈センサは、例えば、本体部930の前面930aが延びる方向、キーボード131における操作キーの配列方向(キーボード131の長手方向)、または、LCD121の主走査方向のいずれかと、静脈センサの主走査方向との角度が90°となるように、配置されていてもよい。
ユーザが手のひらの静脈および予め特定された複数の指の静脈を読み取り部9425,9426に読み取らせる場合、ユーザは、図76に示すように、静脈を読み取らせる方の手のひら(例えば、右手の手のひら205)および指(例えば、右手の人差指205b、右手の中指205c、右手の薬指205d)を情報処理装置900の前面に対して平行かつ情報処理装置900の本体部930の上面と平行に位置させる。右手を読み取り対象とする場合、ユーザは、右手の手のひら205の中心部が読み取り部9426の中心部に一致するように、かつ、右手の中指205cの中心線が読み取り部9425の横方向の中心線に一致するように位置させる。また、ユーザは、右手の手のひら205を指を開いた状態で、読み取りの対象である右手の人差指205b、右手の中指205c、右手の薬指205d以外の指(右手の親指205aおよび右手の小指205e)が、読み取り部9425の読み取り範囲の上方にかからないように位置させる。また、ユーザは、右手の手のひら205ならびに右手の人差指205b、右手の中指205cおよび右手の薬指205dを、読み取り部9425,9426の読み取り範囲の上方にかかるように位置させるとともに、読み取り部9425,9426のそれぞれの静脈センサ面から一定の距離(例えば数cm)離した空間上に位置させる。ユーザは、読み取り時に右手の手のひら205と右下腕部204との間の手首をねじ曲げる必要がなく、ほぼ真直ぐにできる。これに伴い、ユーザの右手の各指は、各々真直ぐ伸ばし十分正しく開け、ユーザの右手の指と指の間の付け根4か所は、間隔が十分開いている。従って右手の手のひら205に水平面のねじれはなく、早く確実に正しい画像が得られる。従って正しい特徴を早く確実に検出でき、生体情報の登録やユーザの認証を早く確実に行うことができる。
また、手の指と指の間の付け根を、右手の手のひら205の読み取り部9426が備える生体検出部142aの画像センサで取得した取得画像の図示しない左辺に設定される検出用矩形領域での検出に利用することで、右手が載置されたことを早く確実に判定することができる。この検出用矩形領域とは、取得画像の左辺において、例えば、図63、図64に示した右手検出用矩形画像領域7420aのように設定されるものである。また、ユーザの右手首の部分の角度、右手首から右下腕部204や右上腕部203、右下腕部204と右上腕部203との間の肘、右上腕部203と胴体部202との間の右肩の姿勢に無理がなく、ユーザの負担の軽減を図ることができる。
なお、左手を読み取り対象とする場合、ユーザは、左手の手のひらの中心部が読み取り部9425の中心部に一致するように、かつ、左手の中指の中心線が読み取り部9426の横方向の中心線に一致するように位置させる。このとき、手の指と指の間の付け根が、読み取り部9425が備える生体検出部142aの画像センサで取得した取得画像の図示しない右辺に設定される検出用矩形領域から検出されることで、左手が載置されたことが判定される。この検出用矩形領域とは、取得画像の右辺において、例えば、図63,図64に示した左手検出用矩形画像領域7420bのように設定されるものである。
なお、前述の第6の実施の形態と同様に、情報取得部911は、読み取り部9425,9426の一方のみから、手の方向を判定してもよい。あるいは、情報取得部911は、常に、読み取り部9425,9426の両方の画像センサからの取得画像を基に手の方向を判定してもよい。
また、方向特徴部分を検出するための取得画像は、撮像部142bによって撮像される画像であってもよい。
また、第7の実施の形態では、読み取り対象の指の種類は予め特定(右手または左手の人差指、中指および薬指)されているが、これに限らず、ユーザが読み取り対象の指の種類を入力してもよい。また、情報処理装置900が指自体の方向に基づいて判定してもよい。また、人差指、中指および薬指以外の任意の指の組み合わせを読み取り対象として予め特定してもよい。
また、第7の実施の形態では、読み取り対象の指の種類は予め特定(右手または左手の人差指、中指および薬指)されているが、これに限らず、ユーザが読み取り対象の指の種類を入力してもよい。また、情報処理装置900が指自体の方向に基づいて判定してもよい。また、人差指、中指および薬指以外の任意の指の組み合わせを読み取り対象として予め特定してもよい。
以上のような第7の実施の形態によっても、第6の実施の形態と同様の効果を奏する。
また、ユーザの認証について、複数の指の静脈の生体情報および手のひらの静脈の両方の生体情報を使用して認証を行うので、認証の精度を高めることが可能になる。また、指の静脈の生体情報の取得時において、指の生体の角度に応じて、指が左右3指ずつの6指のうちいずれの種類の指であるかを判定することが可能になる。また、これにより、ユーザが左右の別だけでなく6指すべての指の種類を入力する必要がなく、認証時および登録時の操作の負担を抑制できる。また、1対N照合を行う際に、6種の指について種別に応じて照合の対象を絞り込むことができる。このため、1対N照合を行う際に高速で照合することが可能になる。あるいは、照合に要する時間や認証処理に要する時間の増加を抑制しながら、生体特徴情報の数を増やすことが可能になる。
また、ユーザの認証について、複数の指の静脈の生体情報および手のひらの静脈の両方の生体情報を使用して認証を行うので、認証の精度を高めることが可能になる。また、指の静脈の生体情報の取得時において、指の生体の角度に応じて、指が左右3指ずつの6指のうちいずれの種類の指であるかを判定することが可能になる。また、これにより、ユーザが左右の別だけでなく6指すべての指の種類を入力する必要がなく、認証時および登録時の操作の負担を抑制できる。また、1対N照合を行う際に、6種の指について種別に応じて照合の対象を絞り込むことができる。このため、1対N照合を行う際に高速で照合することが可能になる。あるいは、照合に要する時間や認証処理に要する時間の増加を抑制しながら、生体特徴情報の数を増やすことが可能になる。
[第8の実施の形態]
次に、第8の実施の形態について説明する。上記の第2の実施の形態の第8の変形例との相違点を中心に説明し、同様の事項については同一の符号を用いると共に説明を省略する。
次に、第8の実施の形態について説明する。上記の第2の実施の形態の第8の変形例との相違点を中心に説明し、同様の事項については同一の符号を用いると共に説明を省略する。
第8の実施の形態は、情報処理装置が、自動取引装置であり、銀行等の預金の受け入れおよび払い出しを行う現金自動預け払い機である点で、第2の実施の形態の第8の変形例と異なる。
図77は、第8の実施の形態の自動取引装置の外観を示す図である。自動取引装置1000は、操作画面1081、紙幣入出部1082a、硬貨入出部1082b、通帳受付部1083、カード受付部1084、レシート発行部1085、読み取り部1086、スピーカ1087を有する。
操作画面1081は、取引の内容を示す画像やATMの利用者を案内するメッセージを含む画像等を表示する表示画面および利用者の入力を受け付けるタッチパネルを有する。紙幣入出部1082aは、利用者の預金の受け入れおよび利用者の預金の払い出しのために紙幣を入出金する。硬貨入出部1082bは、利用者の預金の受け入れおよび利用者の預金の払い出しのために硬貨を入出金する。通帳受付部1083は、利用者の預金の受け入れ時、利用者の預金の払い出し時およびその他利用者の記帳希望時に通帳を受け付ける。カード受付部1084は、利用者の利用時にキャッシュカード等を受け付ける。レシート発行部1085は、利用者の利用時に利用内容等を記録したレシートを発行する。読み取り部1086は、利用時に利用者を認証するために、利用者の手のひらの静脈の生体情報を読み取って照合生体特徴情報を生成し、登録されている生体特徴情報と比較することで利用者の認証を行う。読み取り部1086は、正面から見て自動取引装置1000の右側に設けられている。これにより、ユーザは自動取引装置1000による手のひらの静脈の読み取り時に、左右の手のひらについて異なる方向に位置させて読み取らせることができる。生体特徴情報は、第2の実施の形態の第1の変形例と同様、サーバで管理するとよい。自動取引装置1000は、読み取り部1086による読み取り結果を用いて認証を行う。スピーカ1087は、利用者に取引の状況や操作を案内する音声案内や警告音を出力する。
なお、第8の実施の形態では、読み取り部1086は、正面から見て自動取引装置1000の右側に設けられているが、これに限らず、自動取引装置の左側または中央に設けてもよい。また、読み取り部1086は、利用者の手のひらの静脈を読み取るが、これに限らず、指の静脈を読み取ってもよい。また、指紋または掌紋を読み取ってもよい。また、これらを組み合わせて読み取ってもよい。また、自動取引装置1000は、現金自動預け払い機に限らず、自動販売機等の利用者の生体認証を行う装置であってもよい。
以上のように、第8の実施の形態によれば、自動取引装置1000について、第2の実施の形態と同様の効果を奏する。
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、情報処理装置100~900、自動取引装置1000が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリ等がある。磁気記憶装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープ等がある。光ディスクには、DVD(Digital Versatile Disc)、DVD-RAM、CD-ROM/RW(Rewritable)等がある。光磁気記録媒体には、MO(Magneto-Optical disk)等がある。
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、情報処理装置100~900、自動取引装置1000が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリ等がある。磁気記憶装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープ等がある。光ディスクには、DVD(Digital Versatile Disc)、DVD-RAM、CD-ROM/RW(Rewritable)等がある。光磁気記録媒体には、MO(Magneto-Optical disk)等がある。
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD-ROM等の可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送される毎に、逐次、受け取ったプログラムに従った処理を実行することもできる。
また、上記の処理機能の少なくとも一部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)等の電子回路で実現することもできる。
上記については単に本発明の原理を示すものである。更に、多数の変形や変更が当業者にとって可能であり、本発明は上記に示し、説明した正確な構成および応用例に限定されるものではなく、対応するすべての変形例および均等物は、添付の請求項およびその均等物による本発明の範囲とみなされる。
1 生体情報登録装置
2 読み取り部
10a 方向判定部
10b 種別判定部
10c 情報生成部
11 生体特徴情報記憶部
2 読み取り部
10a 方向判定部
10b 種別判定部
10c 情報生成部
11 生体特徴情報記憶部
Claims (20)
- 読み取り部に対する生体の方向を判定する方向判定部と、
前記方向判定部によって判定された方向に基づいて、前記生体の種別を判定する種別判定部と、
前記読み取り部による前記生体の読み取り結果を基に前記生体の特徴を示す生体情報を生成し、前記生体情報と、前記種別判定部によって判定された前記種別とを含む生体特徴情報を生体特徴情報記憶部に記憶させる情報生成部と、
を有することを特徴とする生体情報登録装置。 - 前記方向判定部は、前記生体における方向特徴部分の検出結果に基づいて、前記生体の方向を判定することを特徴とする請求の範囲第1項記載の生体情報登録装置。
- 前記生体情報は、手に関する情報であり、
前記方向特徴部分は、手のひらにおける指の付け根の谷間部分である、
ことを特徴とする請求の範囲第2項記載の生体情報登録装置。 - 前記生体情報は、手のひらに関する情報を含むことを特徴とする請求の範囲第3項記載の生体情報登録装置。
- 前記生体情報は、指に関する情報を含むことを特徴とする請求の範囲第3項記載の生体情報登録装置。
- 前記生体情報は、手のひらに関する情報および指に関する情報のいずれかを含み、
前記種別は、前記生体が手のひらか、指かを示す情報を含み、
前記方向判定部は、前記方向特徴部分の位置を判定し、
前記種別判定部は、前記方向特徴部分の位置の判定結果に基づいて前記種別が手のひらか、指かを判定することを特徴とする請求の範囲第2項記載の生体情報登録装置。 - 前記生体情報は、指に関する情報を含み、
前記方向判定部は、指の輪郭線に基づく接線に基づいて方向が正しいか否かを判定する、
ことを特徴とする請求の範囲第1項記載の生体情報登録装置。 - 前記読み取り部を一体に備えるとともに、
所定方向に配列して設置された複数の操作キーを有し、
前記方向判定部によって判定される方向のうちの少なくとも一方と前記操作キーの配列方向との角度が斜角となる、
ことを特徴とする請求の範囲第1項記載の生体情報登録装置。 - 前記方向判定部は、前記生体における第1の部位および第2の部位のうちの互いに異なる部位を読み取る第1の読み取り部および第2の読み取り部のうち、少なくとも一方に対する撮像対象部位の方向を判定し、
前記種別判定部は、前記方向判定部による方向の判定結果に基づいて、方向が判定された部位についての前記種別を判定し、
前記情報生成部は、前記第1の読み取り部および前記第2の読み取り部による読み取り結果に基づく、前記第1の部位に関する生体情報および前記第2の部位に関する生体情報と、前記種別判定部によって判定された前記種別とを含む生体特徴情報を、前記生体特徴情報記憶部に記憶させる、
ことを特徴とする請求の範囲第1項記載の生体情報登録装置。 - 前記読み取り部を一体に備えるとともに、
前記読み取り部による生体の走査方向が、前記生体情報登録装置の筐体における操作者と対向する側の端部が延びる方向に対して斜角になるように、前記読み取り部が配置された、
ことを特徴とする請求の範囲第1項記載の生体情報登録装置。 - 前記読み取り部を一体に備えるとともに、
所定方向に配列して設置された複数の操作キーを有し、
前記読み取り部による生体の走査方向が、前記操作キーの配列方向に対して斜角になるように、前記読み取り部が配置された、
ことを特徴とする請求の範囲第1項記載の生体情報登録装置。 - 前記読み取り部を一体に備えるとともに、
画像を表示する表示装置を有し、
前記読み取り部による生体の走査方向が、前記表示装置の走査方向に対して斜角になるように、前記読み取り部が配置された、
ことを特徴とする請求の範囲第1項記載の生体情報登録装置。 - 前記方向判定部は、互いに直交するいずれかの方向を判定することを特徴とする請求の範囲第10項~第12項のいずれか1項に記載の生体情報登録装置。
- 前記読み取り部を一体に備えるとともに、
前記読み取り部による生体の走査方向が、前記生体情報登録装置の筐体における操作者と対向する側の端部が延びる方向に対して垂直になるように、前記読み取り部が配置された、
ことを特徴とする請求の範囲第1項記載の生体情報登録装置。 - 前記読み取り部を一体に備えるとともに、
所定方向に配列して設置された複数の操作キーを有し、
前記読み取り部による生体の走査方向が、前記操作キーの配列方向に対して垂直になるように、前記読み取り部が配置された、
ことを特徴とする請求の範囲第1項記載の生体情報登録装置。 - 前記読み取り部を一体に備えるとともに、
画像を表示する表示装置を有し、
前記読み取り部による生体の走査方向が、前記表示装置の走査方向に対して垂直になるように、前記読み取り部が配置された、
ことを特徴とする請求の範囲第1項記載の生体情報登録装置。 - 前記方向判定部は、互いに逆方向であるいずれかの方向を判定することを特徴とする請求の範囲第14項~第16項のいずれか1項に記載の生体情報登録装置。
- 生体の情報を読み取る読み取り部と、
前記読み取り部に対する前記生体の方向を判定する方向判定部と、
を有することを特徴とする生体情報取得装置。 - コンピュータに、
読み取り部に対する生体の方向を判定し、
判定された前記生体の方向に基づいて、前記生体の種別を判定し、
前記読み取り部による前記生体の読み取り結果を基に前記生体の特徴を示す生体情報を生成し、
前記生体情報と前記種別とを含む生体特徴情報を生体特徴情報記憶部に記憶させる、
処理を実行させることを特徴とする生体情報登録プログラム。 - 情報処理装置が、
読み取り部に対する生体の方向を判定し、
判定された前記生体の方向に基づいて、前記生体の種別を判定し、
前記読み取り部による前記生体の読み取り結果を基に前記生体の特徴を示す生体情報を生成し、
前記生体情報と前記種別とを含む生体特徴情報を生体特徴情報記憶部に記憶させる、
ことを特徴とする生体情報登録方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013545732A JP5720802B2 (ja) | 2011-11-25 | 2011-11-25 | 生体情報登録装置、生体情報取得装置、生体情報登録プログラムおよび生体情報登録方法 |
PCT/JP2011/077120 WO2013076859A1 (ja) | 2011-11-25 | 2011-11-25 | 生体情報登録装置、生体情報取得装置、生体情報登録プログラムおよび生体情報登録方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2011/077120 WO2013076859A1 (ja) | 2011-11-25 | 2011-11-25 | 生体情報登録装置、生体情報取得装置、生体情報登録プログラムおよび生体情報登録方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2013076859A1 true WO2013076859A1 (ja) | 2013-05-30 |
Family
ID=48469337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2011/077120 WO2013076859A1 (ja) | 2011-11-25 | 2011-11-25 | 生体情報登録装置、生体情報取得装置、生体情報登録プログラムおよび生体情報登録方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5720802B2 (ja) |
WO (1) | WO2013076859A1 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006024209A (ja) * | 2004-07-01 | 2006-01-26 | Hewlett-Packard Development Co Lp | 一体型指紋センサを備えた電子装置の操作性を向上させる方法および装置 |
JP2006277341A (ja) * | 2005-03-29 | 2006-10-12 | Fujitsu Ltd | 複数同時バイオメトリクス入力装置および複数同時バイオメトリクス認証装置 |
JP2007226623A (ja) * | 2006-02-24 | 2007-09-06 | Murata Mach Ltd | 指紋入力装置 |
JP2010146158A (ja) * | 2008-12-17 | 2010-07-01 | Fujitsu Ltd | 生体認証装置、生体認証方法、及びコンピュータプログラム |
JP2010218562A (ja) * | 2010-04-12 | 2010-09-30 | Nec Corp | 認証用撮像装置、認証用撮像方法、および認証用撮像プログラム |
JP2010224903A (ja) * | 2009-03-24 | 2010-10-07 | Fujitsu Ltd | 生体認証装置 |
-
2011
- 2011-11-25 WO PCT/JP2011/077120 patent/WO2013076859A1/ja active Application Filing
- 2011-11-25 JP JP2013545732A patent/JP5720802B2/ja not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006024209A (ja) * | 2004-07-01 | 2006-01-26 | Hewlett-Packard Development Co Lp | 一体型指紋センサを備えた電子装置の操作性を向上させる方法および装置 |
JP2006277341A (ja) * | 2005-03-29 | 2006-10-12 | Fujitsu Ltd | 複数同時バイオメトリクス入力装置および複数同時バイオメトリクス認証装置 |
JP2007226623A (ja) * | 2006-02-24 | 2007-09-06 | Murata Mach Ltd | 指紋入力装置 |
JP2010146158A (ja) * | 2008-12-17 | 2010-07-01 | Fujitsu Ltd | 生体認証装置、生体認証方法、及びコンピュータプログラム |
JP2010224903A (ja) * | 2009-03-24 | 2010-10-07 | Fujitsu Ltd | 生体認証装置 |
JP2010218562A (ja) * | 2010-04-12 | 2010-09-30 | Nec Corp | 認証用撮像装置、認証用撮像方法、および認証用撮像プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP5720802B2 (ja) | 2015-05-20 |
JPWO2013076859A1 (ja) | 2015-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10489577B2 (en) | Identifying one or more users based on typing pattern and/or behavior | |
US9965608B2 (en) | Biometrics-based authentication method and apparatus | |
EP1461673B1 (en) | Validating the identity of a user using a pointing device | |
KR101848948B1 (ko) | 생체인식 데이터를 등록하기 위한 방법들 및 시스템들 | |
JP5907283B2 (ja) | 情報処理装置、生体部位判定プログラムおよび生体部位判定方法 | |
KR20170025802A (ko) | 지문 인식 기반 인증 방법 및 장치 | |
JP6024141B2 (ja) | 生体情報処理装置、生体情報処理方法、および生体情報処理プログラム | |
GB2525660A (en) | Methods, devices and systems for transaction initiation | |
JP5337431B2 (ja) | カード処理装置及びカード処理方法 | |
US11544364B2 (en) | Authentication-based on handholding information | |
JP2008021074A (ja) | 取引処理システム | |
US20160048718A1 (en) | Enhanced kinematic signature authentication using embedded fingerprint image array | |
JP6674683B2 (ja) | 認証処理装置及び認証処理方法 | |
JP5720803B2 (ja) | 生体情報照合装置、生体情報照合プログラムおよび生体情報照合方法 | |
JP5794310B2 (ja) | 情報処理装置 | |
JP5720802B2 (ja) | 生体情報登録装置、生体情報取得装置、生体情報登録プログラムおよび生体情報登録方法 | |
CN109426713A (zh) | 用于身份核实系统中的造假生物特征过滤装置 | |
JP2006331169A (ja) | 現金自動取引装置及び取引システム | |
JP4644689B2 (ja) | 電気機器及び電気機器の制御方法 | |
TWI646474B (zh) | 用於身分核實系統中的造假生物特徵過濾裝置 | |
US20180157814A1 (en) | Personal authentication method and apparatus based on recognition of fingertip gesture and identification of fake pattern | |
JP5244521B2 (ja) | 自動取引装置 | |
Tang et al. | Continuous Smartphone User Authentication Based on Gesture-Sensor Fusion | |
JP2011123729A (ja) | 認証システム、人体通信端末装置、およびホスト装置 | |
Kuraku et al. | Biometric Authentication In Digital Payments: Utilizing AI And Big Data For Real-Time Security And Efficiency |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 11876334 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2013545732 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 11876334 Country of ref document: EP Kind code of ref document: A1 |