WO2020170719A1 - 認証装置、認証方法及びプログラム - Google Patents

認証装置、認証方法及びプログラム Download PDF

Info

Publication number
WO2020170719A1
WO2020170719A1 PCT/JP2020/002709 JP2020002709W WO2020170719A1 WO 2020170719 A1 WO2020170719 A1 WO 2020170719A1 JP 2020002709 W JP2020002709 W JP 2020002709W WO 2020170719 A1 WO2020170719 A1 WO 2020170719A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
authentication
fingertip
authentication device
fingerprint
Prior art date
Application number
PCT/JP2020/002709
Other languages
English (en)
French (fr)
Inventor
啓宏 王
倉田 雅友
小形 崇
茂井 博之
佐藤 真
雄 田中
綾花 西
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP20758911.0A priority Critical patent/EP3929868A4/en
Priority to JP2021501757A priority patent/JP7302650B2/ja
Priority to US17/310,553 priority patent/US20220358197A1/en
Publication of WO2020170719A1 publication Critical patent/WO2020170719A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1318Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user

Definitions

  • the present disclosure relates to an authentication device, an authentication method and a program.
  • the sensor for acquiring biometric information is downsized, it will be difficult to acquire biometric information from a wider area of the body. Therefore, it is necessary to acquire feature points for authenticating individuals without omission. Becomes difficult. As a result, it becomes difficult to reliably authenticate each individual with a small number of trials, in other words, the authentication performance of the authentication device deteriorates. Then, in some cases, the authentication device requires the user to perform the authentication operation a plurality of times until the feature points can be acquired without omission, which reduces the convenience of the user.
  • the present disclosure proposes a new and improved authentication device, authentication method, and program capable of avoiding deterioration of authentication performance while reducing the size of the sensor.
  • a determination unit that determines the position of the part of the body for authentication of the user is determined based on distribution information of the feature points included in the pattern that appears in the part of the user's body. Based on the position, a guide unit that guides a part of the body to the position for authentication of the user, and authentication of the user based on the characteristic information of the pattern obtained by the guide.
  • An authentication device is provided that includes an authentication unit that performs.
  • the position of the part of the body for authentication of the user is determined based on the distribution information of the feature points included in the pattern that appears in the part of the user's body, and the determination is performed. Based on the determined position, guiding a part of the body to the position for authenticating the user, and authenticating the user based on the characteristic information of the pattern obtained by the guiding.
  • An authentication method is provided, including:
  • a program for causing a computer to realize the function of performing is provided.
  • FIG. 8 is an explanatory diagram illustrating a fingerprint pattern 610. It is a figure showing an example of the form of authentication device 10 concerning a 1st embodiment of this indication. It is a block diagram which shows the structural example of the authentication device 10 which concerns on the same embodiment. It is the figure which showed the flowchart of the authentication method which concerns on the same embodiment.
  • FIG. 9 is an explanatory diagram illustrating registration of a fingerprint pattern 610 according to the same embodiment. It is a figure showing the flow chart of the registration stage concerning the embodiment. It is explanatory drawing (the 1) explaining an example of the guidance display 200 in the registration stage which concerns on the same embodiment.
  • FIG. 7 is an explanatory diagram illustrating an example of a posture of a fingertip 600.
  • FIG. 9 is an explanatory diagram (part 1) explaining an example of the order of registration of the fingerprint pattern 610 at the registration stage according to the embodiment.
  • FIG. 7 is an explanatory diagram (part 2) explaining an example of the order of registration of the fingerprint pattern 610 at the registration stage according to the embodiment.
  • FIG. 9 is an explanatory diagram (No. 3) explaining an example of the order of registration of the fingerprint pattern 610 at the registration stage according to the embodiment.
  • FIG. 8 is an explanatory diagram (part 1) explaining an example of a method of registering the fingerprint pattern 610 at the registration stage according to the embodiment.
  • FIG. 7 is an explanatory diagram (part 2) explaining an example of a method of registering the fingerprint pattern 610 at the registration stage according to the embodiment.
  • FIG. 7 is an explanatory diagram (part 1) explaining an example of a section 300 of the fingerprint pattern 610 at the registration stage according to the same embodiment.
  • FIG. 9 is an explanatory diagram (part 2) explaining an example of a section 300 of the fingerprint pattern 610 at the registration stage according to the same embodiment.
  • FIG. 9 is an explanatory diagram (part 3) explaining an example of a section 300 of the fingerprint pattern 610 at the registration stage according to the same embodiment.
  • FIG. 11 is an explanatory diagram (Part 4) illustrating an example of a section 300 of the fingerprint pattern 610 at the registration stage according to the same embodiment.
  • FIG. 11 is an explanatory diagram (Part 5) explaining an example of a section 300 of the fingerprint pattern 610 at the registration stage according to the same embodiment.
  • FIG. 11 is an explanatory diagram (No. 6) explaining an example of a section 300 of the fingerprint pattern 610 at the registration stage according to the same embodiment.
  • It is explanatory drawing explaining an example of the score which concerns on the same embodiment.
  • FIG. 6 is a diagram showing a flowchart of a fingerprint template update stage according to the embodiment. It is an explanatory view (the 1) for explaining the modification of the embodiment. It is an explanatory view (the 2) for explaining the modification of the embodiment. It is a block diagram which shows the structural example of the authentication apparatus 10a which concerns on the 2nd Embodiment of this indication. It is the figure which showed the flowchart of the authentication method which concerns on the same embodiment.
  • FIG. 16 is an explanatory diagram (part 1) for describing an example of the guide display 200 according to the third embodiment of the present disclosure.
  • FIG. 11 is an explanatory diagram (part 2) for describing an example of the guide display 200 according to the same embodiment. It is an explanatory view (the 3) for explaining an example of guidance display 200 concerning the embodiment. It is an explanatory view (the 4) for explaining an example of guidance display 200 concerning the embodiment. It is an explanatory view (the 5) for explaining an example of guidance display 200 concerning the embodiment. It is an explanatory view (the 6) for explaining an example of guidance display 200 concerning the embodiment. It is an explanatory view (the 7) for explaining an example of guidance display 200 concerning the embodiment. It is an explanatory view (the 8) for explaining an example of guidance display 200 concerning the embodiment.
  • FIG. 11 is an explanatory diagram (part 1) for describing an example of the display method of the guide display 200 according to the same embodiment.
  • FIG. 11 is an explanatory diagram (part 2) for describing an example of the display method of the guide display 200 according to the same embodiment.
  • 3 is an explanatory diagram illustrating an example of a hardware configuration of an information processing device 900 according to an embodiment of the present disclosure.
  • a user a person who performs personal authentication using the authentication device according to the embodiment of the present disclosure described later is called a user.
  • the pattern appearing on a part of the user's body is, for example, a fingerprint pattern appearing on the user's fingertip, a pattern appearing on the skin of the user's sole, or various parts of the user's body ( It means a vein pattern of a fingertip, face, etc.).
  • the fingerprint pattern refers to a pattern formed by a line (ridge) in which the opening of the sweat gland on the surface of the skin inside the tip side (fingertip) of the first joint of the finger is raised.
  • a vein pattern is a pattern formed by blood vessels that return blood from the tip of the body to the heart.
  • the characteristic point information of the pattern or the partial characteristic information of the pattern means the information of the pattern itself of the pattern or the information including the characteristic point information included in the pattern. ..
  • the feature point means an element that characterizes the above pattern.
  • the characteristic points in the fingerprint pattern are attribute information such as shape, orientation and position (relative coordinates) of the center point of the pattern of the fingerprint pattern, the ridge bifurcation, the intersection and the end point (called minutiae).
  • the feature points may be attribute information such as ridge shape, orientation, width, spacing, and distribution density.
  • the distribution of the above-mentioned feature points that is, the number of feature points and the distribution density (distribution information) will be referred to as a feature amount.
  • context information means information about the status, state, and background of the user who performs authentication.
  • the context information may include profile information (attribute information) such as gender and age of the user, and information indicating the position of the user (position coordinate in world coordinate system, position coordinate in relative coordinate system, home, Location information such as a supermarket, train or hospital).
  • the context information may include information indicating the environment in which the user exists, and examples thereof include information such as environmental sound, temperature, weather, and humidity.
  • the context information may include information indicating the behavior of the user. Examples of the information indicating the behavior of the user include exercise motion information and schedule information.
  • the context information may include information on a holding attitude of a device used by the user (for example, a smartphone), information on an application being activated, information on an activation state, or the like.
  • FIG. 1 is an explanatory diagram illustrating a fingerprint pattern.
  • the fingerprint pattern of each individual includes attribute information such as shape, orientation and position (relative coordinates) of the center point of the pattern, the ridge branch point, the intersection and the end point.
  • the feature can be grasped by the information of the feature point. Therefore, when performing the authentication using the fingerprint pattern, the authentication device performs the authentication using the information of the characteristic points that characterize the fingerprint pattern unique to the individual. Therefore, in order to surely authenticate an individual with a small number of trials, it is preferable that the authentication device acquire a fingerprint pattern in a wide range so as to extract feature points without omission.
  • the inventors of the present invention have been earnestly studying an authentication device that can reduce the authentication performance while reducing the size of the sensor. Then, the present inventors, while proceeding with such an examination, show that the characteristic points included in the fingerprint pattern are not evenly distributed over the entire inner surface of the fingertip, but show different distributions for each individual. Especially, I focused on it. Then, based on the above viewpoint, the present inventors, in the authentication device for performing authentication by using the information of the feature points that characterize the fingerprint pattern, if it is possible to obtain the fingerprint pattern of the region including a large number of feature points. I thought that it would be possible to authenticate each individual.
  • the fingerprint pattern of each individual is defined by characteristic point information that is attribute information such as shape, direction and position (relative coordinates) of the center point of the pattern, the ridge bifurcation point, the intersection point and the end point.
  • characteristic point information is attribute information such as shape, direction and position (relative coordinates) of the center point of the pattern, the ridge bifurcation point, the intersection point and the end point.
  • You can capture the characteristics. Therefore, instead of using all the characteristic points distributed over the entire fingerprint pattern to capture the characteristic of the fingerprint pattern peculiar to the individual, the present inventors use a characteristic number of a certain level or more to identify the characteristic I originally thought that I could capture the fingerprint pattern of. According to the idea of the present inventors, it is sufficient to acquire not the entire fingerprint pattern but the fingerprint pattern of a region including a large number of feature points, so that the sensor can be downsized and the deterioration of the authentication performance can be avoided. It is possible to realize an authentication device that can do this.
  • a fingerprint pattern 610 of a fingertip 600 is provided with an area a located at the center of the inner surface of the fingertip 600, an area b located around the area a, and an outside of the inner surface of the fingertip 600.
  • the area is divided into areas c.
  • the region a includes a large number of the above-mentioned feature points
  • the region b and the region c include only a small number of the above-mentioned feature points.
  • the area b includes a large number of the above-mentioned feature points
  • the area a and the area c include a small number of the above-mentioned feature points.
  • the present inventors believe that in order to authenticate the individual A in the above-described case, the individual A can be authenticated by acquiring the fingerprint pattern 610 of the area a including many feature points. It was. Furthermore, the present inventors have thought that, in order to authenticate the individual B, if the fingerprint pattern 610 of the region b including many feature points can be acquired, the individual B can be authenticated.
  • the authentication device must appropriately acquire the fingerprint pattern 610 in the area including a large number of feature points at each authentication. For example, when the authentication device cannot obtain the fingerprint pattern 610 properly, the authentication device requires the user to perform the authentication operation a plurality of times until it can obtain the fingerprint pattern 610 in the area including a large number of feature points, which reduces the convenience of the user. Lead to Further, the area including a large number of feature points may differ not only for each user but also for each finger and each time (for example, the fingerprint pattern 610 having the feature points cannot be acquired due to an injury of the fingertip 600). ..
  • the inventors of the present invention specify a region including a large number of feature points that may dynamically change for each individual and acquire the fingerprint pattern 610 of the specified region for each individual.
  • the authors have created an authentication device according to an embodiment of the present disclosure that guides the fingertip 600 to a suitable position. That is, according to the authentication device according to the embodiment of the present disclosure, it is possible to reduce the authentication performance while reducing the size of the sensor. Further, according to the authentication device, a region including a large number of characteristic points is specified for each individual, and the fingertip 600 is guided to a suitable position for each individual based on the specified region, so that a large number of characteristic points are included.
  • the fingerprint pattern 610 of the area can be preferably acquired. As a result, according to the authentication device, it is possible to authenticate each individual with a small number of trials, and it is possible to avoid deterioration of convenience.
  • the details of the embodiment of the present disclosure created by the present inventors will be described below.
  • FIG. 2 is a diagram showing an example of the form of the authentication device 10 according to the present embodiment.
  • the authentication device 10 according to the present embodiment can have a form as a wearable terminal that is used by being worn on the user's body, for example.
  • the authentication device 10 may have a wristwatch type, a ring type, a collar type, an earphone type, or the like, and may be a device that can be attached to a part of the person to be measured, such as a wrist, an arm, a neck, or an ear.
  • the authentication device 10 may be a device having a pad shape such as a bandage type and capable of being attached to a part of the user's body such as a hand, an arm, a neck, or a leg.
  • the authentication device 10 can have a wrist watch type configuration having a belt-shaped wrist band.
  • the authentication device 10 includes a belt-shaped band unit 150, a display unit 102 provided on a part of the outer periphery of the band unit 150, and a touch sensor unit 100 provided around the display unit 102.
  • the authentication device 10 can include a fingerprint sensor unit (pattern sensor) 104 provided so as to overlap a part of the display unit 102.
  • a control unit (not shown) that controls the operation of the authentication device 10 may be provided inside the band unit 150. The details of the functional units of the authentication device 10 will be described later.
  • the authentication device 10 is not limited to the wearable terminal as shown in FIG. It may be a mobile terminal such as a top type PC or a camera. Alternatively, in the present embodiment, the authentication device 10 may be a desktop PC, a security device installed at a gate or a door, a stationary terminal such as a server device that provides various medical devices, supplements, cosmetics, or the like. Good.
  • FIG. 3 is a block diagram showing a configuration example of the authentication device 10 according to the present embodiment.
  • the authentication device 10 mainly includes a touch sensor unit 100, a display unit 102, a fingerprint sensor unit 104, a processing unit 110, and a storage unit 130. Below, each function part which the authentication device 10 has is demonstrated.
  • the touch sensor unit 100 is provided, for example, around a display unit 102, which will be described later, with respect to a sensing surface (not shown) of a fingerprint sensor unit 104 that is provided so as to overlap with the display unit 102, and a user's fingertip (user's fingertip A contact state such as whether or not the part 600 of the body is in proper contact is sensed.
  • the touch sensor unit 100 can be a pressure sensor or the like that detects the pressure from the fingertip 600.
  • the display unit 102 is controlled by the guide unit 120 of the processing unit 110, which will be described later, to display guide information for guiding the user's fingertip 600 to an appropriate position for fingerprint authentication.
  • the display unit 102 includes a display device such as a liquid crystal display (LCD) device and an OLED (organic light emitting diode) device.
  • LCD liquid crystal display
  • OLED organic light emitting diode
  • the surface of the display unit 102 is preferably a smooth surface with few irregularities in order to avoid giving discomfort to the fingertip 600 of the user regardless of which position the fingertip 600 of the user contacts. Further, the surface of the display unit 102 may be formed by using a flexible material in order to improve the contact with the fingertip 600.
  • the fingerprint sensor unit 104 can acquire a part of the fingerprint pattern 610 as the characteristic information.
  • the width of the sensing surface (not shown) of the fingerprint sensor unit 104 may be smaller than that of the surface of the fingertip 600.
  • the sensing surface may have a rectangular shape, and the width of the sensing surface in the long axis direction may be narrower than the width of the user's fingertip 600. Therefore, in the present embodiment, since the fingerprint sensor unit 104 can be downsized, the authentication device 10 including the fingerprint sensor unit 104 can be downsized.
  • the fingerprint sensor unit 104 is, for example, a capacitance detection type that acquires the fingerprint pattern 610 by sensing the capacitance of each point on the sensing surface that occurs when the fingertip 600 is placed on the sensing surface. It can be a fingerprint sensor.
  • the electrostatic capacitance detection type fingerprint sensor has a structure in which micro electrodes are arranged in a matrix on the sensing surface, and a micro current is passed to detect a potential difference appearing in a capacitance generated between the micro electrodes and the fingertip 600. Thereby, the fingerprint pattern 610 can be detected.
  • the fingerprint sensor unit 104 detects the pressure of each point on the sensing surface that occurs when the fingertip 600 is placed on the sensing surface and acquires the fingerprint pattern 610 to obtain the fingerprint pattern 610.
  • the pressure detection fingerprint sensor for example, minute semiconductor sensors whose resistance value changes with pressure are arranged in a matrix on the sensing surface.
  • the fingerprint sensor unit 104 may be, for example, a heat-sensitive fingerprint sensor that acquires the fingerprint pattern 610 by sensing a temperature difference generated when the fingertip 600 is placed on the sensing surface.
  • a heat-sensitive fingerprint sensor for example, minute temperature sensors whose resistance value changes with temperature are arranged in a matrix on the sensing surface.
  • the fingerprint sensor unit 104 may be, for example, an optical fingerprint sensor that detects reflected light generated when the fingertip 600 is placed on the sensing surface and acquires a captured image of the fingerprint pattern 610.
  • the optical fingerprint sensor has, for example, a microlens array (MLA), which is an example of a lens array, and a photoelectric conversion element. That is, it can be said that the optical fingerprint sensor is one type of imaging device.
  • MLA microlens array
  • the fingerprint sensor unit 104 is, for example, an ultrasonic fingerprint sensor that emits ultrasonic waves and detects ultrasonic waves reflected by the unevenness of the skin surface of the fingertip 600 to acquire the fingerprint pattern 610. It may be.
  • the fingerprint sensor unit 104 and the above-described display unit 102 are preferably provided so as to overlap with each other or to be adjacent to each other on the surface of the authentication device 10.
  • the processing unit 110 can cooperate with the fingerprint sensor unit 104 to authenticate a user with a fingerprint or guide the user's fingertip 600 to an appropriate position for fingerprint authentication.
  • the processing unit 110 is realized by, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the processing unit 110 includes a fingerprint acquisition unit 112, a feature amount calculation unit 114, a score calculation unit (index calculation unit) 116, a selection unit (determination unit) 118, and a guidance unit. It mainly has 120 and the authentication part 122.
  • the functional blocks of the processing unit 110 will be described below.
  • the fingerprint acquisition unit 112 acquires the fingerprint pattern 610 of the user from the above-described fingerprint sensor unit 104 and outputs it to the feature amount calculation unit 114 and the authentication unit 122 described later. Furthermore, the fingerprint acquisition unit 112 may output the acquired information of the fingerprint pattern 610 of the user to the storage unit 130 described below.
  • the fingerprint acquisition unit 112 may perform predetermined processing on the acquired fingerprint pattern 610 to emphasize the fingerprint pattern 610, remove noise, or the like. More specifically, the fingerprint acquisition unit 112 can use various filters for smoothing and noise removal, such as a moving average filter, a difference filter, a median filter, or a Gaussian filter. Furthermore, the fingerprint acquisition unit 112 may use various algorithms for binarization and thinning, for example.
  • the feature amount calculation unit 114 virtually divides the fingerprint pattern 610 of one finger of the user or each finger into a plurality of sections (see FIG. 5), and calculates the feature amount of the fingerprint pattern 610 in each section of each finger. .. In addition, the feature amount calculation unit 114 may calculate the feature amount in each section by averaging the feature values of the plurality of fingers of the user for each section. Details of the division of the fingerprint pattern 610 by the feature amount calculation unit 114 will be described later.
  • the score calculation unit 116 selects an authentication section for user authentication from a plurality of sections by performing predetermined weighting on the characteristic amount of each section calculated by the above-described characteristic amount calculation unit 114. To calculate the score (index) for each section. Further, the score calculation unit 116 may calculate the score based on the calculated feature amount of each section and the feature amount of the section adjacent to each section. Further, the score calculation unit 116 may change the predetermined weighting based on the number of successful authentications of the user by the fingerprint pattern 610 of the authentication section selected by the selection unit 118 described later. That is, in the present embodiment, the weighting determination method is not particularly limited. The details of the score calculation method will be described later.
  • the selection unit 118 can determine the position of the fingertip 600 for authenticating the user based on the score calculated from the feature amount of each section described above. In detail, the selection unit 118 determines the relative position of the tip of the fingertip 600 with respect to the fingerprint sensor unit 104 by selecting an authentication section for user authentication from a plurality of sections based on the score. can do. In addition, when the scores of the plurality of sections for the plurality of fingers of the user have been calculated, the selection unit 118 selects the finger to be guided for the user authentication and the authentication section for the finger based on the score. You may choose. Furthermore, when the authentication device 10 has a finger identification unit (not shown) that identifies a finger used by the user at the time of authentication, the selection unit 118, based on the score in each section of the identified finger, The authentication section may be selected.
  • the guidance unit 120 is arranged so that it is located at the position of the fingertip 600 determined by the selection unit 118, that is, the fingerprint sensor unit 104 can acquire the fingerprint pattern 610 of the authentication section determined by the selection unit 118 described above.
  • the user's fingertip 600 can be guided to.
  • the guidance unit 120 can control the display unit 102 described above to display the relative position of the tip of the fingertip 600 with respect to the fingerprint sensor unit 104 as guidance information.
  • the authentication unit 122 can authenticate the user based on part of the characteristic information of the fingerprint pattern 610 appearing on the user's fingertip 600 obtained by the guidance of the guidance unit 120 described above. For example, the authentication unit 122 authenticates the user by comparing a part of the fingerprint pattern 610 output from the fingerprint acquisition unit 112 with the fingerprint template of the fingerprint pattern 610 stored in the storage unit 130 or the like in advance. Can be performed (pattern matching method). In addition, for example, the authentication unit 122 extracts the feature points extracted from a part of the fingerprint pattern 610 output from the fingerprint acquisition unit 112 and the feature points of the fingerprint pattern 610 previously recorded in the storage unit 130 and the like. By collating, the user can be authenticated (feature point method).
  • the authentication unit 122 slices the fingerprint pattern 610 into strips, spectrally analyzes the pattern for each sliced pattern, and collates using the spectral analysis result of the fingerprint pattern 610 stored in the storage unit 130 or the like in advance. By doing so, authentication can also be performed (frequency analysis method).
  • the storage unit 130 is realized by a RAM (Random Access Memory), a storage device, or the like, and stores programs and various data used for the processing in the processing unit 110. Specifically, the storage unit 130 stores programs used by the authentication unit 122 and various types of data (for example, the above-described fingerprint template and feature point information), and the score calculated by the score calculation unit 116. .. In addition to these data, the storage unit 130 may appropriately store various parameters that need to be saved when performing some processing, the progress of processing, and the like. Then, the processing unit 110 or the like can freely access the storage unit 130, and, for example, when the authentication is successful, the fingerprint template or the feature point information is updated, or the data is written or read. You can
  • the authentication device 10 may include, for example, a voice output device (not shown) such as a speaker, and a lighting device (not shown) that notifies the user of predetermined information by blinking or the like. ) And the like, and may have a functional unit not shown in FIG.
  • the authentication device 10 has a configuration in which the fingerprint sensor unit 104 and the like and the processing unit 110 and the like are integrated, but the present embodiment is not limited to this. ..
  • the authentication device 10 is configured as an integrated device including the touch sensor unit 100, the display unit 102, and the fingerprint sensor unit 104, and the processing unit 110 and the storage unit 130 are configured as separate units. , May be connected to each other by wireless communication or the like.
  • FIG. 4 is a diagram showing a flowchart of the authentication method according to the present embodiment. As shown in FIG. 4, the authentication method according to this embodiment includes steps S100 to S400. Each step of the authentication method according to this embodiment will be described below.
  • the user's fingerprint pattern 610 is registered in advance in the authentication device 10 as a fingerprint template used for authentication.
  • the authentication device 10 may register the fingerprint pattern 610 of one finger, the fingerprint patterns 610 of a plurality of fingers, or a plurality of fingerprint patterns of both hands.
  • the fingerprint pattern 610 of the finger may be registered and is not particularly limited.
  • the authentication device 10 virtually divides the fingerprint pattern 610 registered in step S100 into a plurality of sections, extracts the characteristic points of the fingerprint pattern 610 in each section, and extracts the distribution amount of the extracted characteristic points. Is calculated for each section. Further, the authentication device 10 calculates the score of each section based on the calculated feature amount. The calculated score will be used when selecting a section 300 including a large number of characteristic points for each individual. The details of the method of dividing the fingerprint pattern 610 and the method of calculating the score will be described later.
  • the authentication device 10 selects an authentication section for user authentication based on the score calculated in step S200.
  • the authentication device 10 guides the user's fingertip 600 so that the fingerprint sensor unit 104 can acquire the fingerprint pattern 610 of the authentication section based on the authentication section determined in step S300.
  • the fingerprint pattern 610 in the region including a large number of feature points can be suitably acquired.
  • the authentication device 10 then authenticates the user.
  • FIG. 5 is an explanatory diagram for explaining registration of the fingerprint pattern 610 according to the present embodiment
  • FIG. 6 is a diagram showing a flowchart of a registration step according to the present embodiment
  • 7 and 9 to 11 are explanatory diagrams illustrating an example of the guidance display 200 at the registration stage according to the present embodiment
  • FIG. 8 is an explanatory diagram illustrating an example of the posture of the fingertip 600.
  • 12 to 14 are explanatory views illustrating an example of the order of registration of the fingerprint pattern 610 at the registration stage according to the present embodiment.
  • FIGS. 15 and 16 are explanatory diagrams illustrating an example of a method of registering the fingerprint pattern 610 at the registration stage according to the present embodiment. Further, FIGS. 17 to 23 are explanatory diagrams illustrating an example of the section 300 of the fingerprint pattern 610 at the registration stage according to the present embodiment.
  • the fingerprint surface 610 of the user's fingertip is divided and acquired because the sensing surface (not shown) of the fingerprint sensor unit 104 is narrow.
  • the authentication device 10 has the fingerprint pattern 610 of the user's fingertip 600 registered as a fingerprint template in three rows (rows extending in the vertical direction in FIG. 5) and seven rows (in the horizontal direction in FIG. 5). Are obtained for each of the 21 sections 300 made up of the lines (that are stretched by stretching).
  • the user's fingertip 600 is displayed by dynamically displaying the guide display 200 (see FIG. 7) indicating the position of the tip of the fingertip 600 to be touched by the user and the central position of the fingertip 600. Guide and register the fingerprint pattern 610.
  • the registration step according to this embodiment includes steps S101 to S117. Each step of the registration stage will be described below.
  • specific information (ID (identification) number or the like) for identifying the user is input to the authentication device 10 by the user. Further, the user inputs specific information regarding the type of hand and finger to be registered (whether the hand is the right hand, the left hand, the index finger, or the like).
  • the authentication device 10 guides the user's fingertip to a predetermined position by displaying the guidance display 200 toward the user, and starts registration of one section 300 of the fingerprint pattern 610. For example, as illustrated in FIG. 7, the authentication device 10 displays, on the display unit 102, a guide display 200 indicating the tip position of the fingertip and a center line 202 indicating the center position of the fingertip. The user can appropriately bring his or her fingertip 600 into contact with the fingerprint sensor unit 104 by overlapping the guide display 200 and the center of his or her fingertip with the center line 202.
  • the authentication device 10 can obtain the fingerprint pattern 610 on the surface of the fingertip 600 that is in contact with the sensing surface (not shown) of the fingerprint sensor unit 104. That is, in the present embodiment, by being guided by the guidance display 200, the fingerprint pattern 610 of the desired section 300 can be acquired even when the sensing surface (not shown) of the fingerprint sensor unit 104 is small. it can. Then, the authentication device 10 proceeds to the process of step S103 after, for example, a predetermined time has elapsed.
  • the authentication device 10 determines whether the user's fingertip 600 is properly in contact with the sensing surface (not shown) of the fingerprint sensor unit 104, that is, whether the posture of the fingertip is appropriate. to decide. For example, as shown in FIG. 8, even when the tip portion of the fingertip 600 overlaps the display unit 102, the inner surface of the fingertip 600 including the fingerprint pattern 610 contacts the sensing surface of the fingerprint sensor unit 104. If not, the fingerprint pattern 610 cannot be properly acquired. Therefore, in the present embodiment, based on the sensing data from the touch sensor unit 100, it is determined whether the inner surface of the user's fingertip 600 is properly in contact with the sensing surface of the fingerprint sensor unit 104. Then, the authentication device 10 proceeds to the process of step S107 when it is determined that the contacts are properly made, and proceeds to the process of step S105 when it is determined that the contacts are not properly made.
  • Step S105 The authentication device 10 appropriately guides the posture of the user's fingertip 600 by outputting, for example, a display such as “Please tilt your fingertip” or a voice. Then, the authentication device 10 returns to the process of step S101 described above.
  • Step S107 The authentication device 10 acquires the fingerprint pattern 610 of the predetermined section 300 from the fingerprint sensor unit 104. Then, the authentication device 10 proceeds to the process of step S109.
  • Step S109 The authentication device 10 determines whether or not the fingerprint pattern 610 of the predetermined section 300 has been acquired in step S107 described above. If the authentication device 10 determines that the fingerprint pattern 610 has been acquired, the process proceeds to step S111. On the other hand, when the authentication device 10 determines that the fingerprint pattern 610 cannot be acquired, the process proceeds to step S115.
  • Step S111 ⁇ The authentication device 10 extracts feature points from the fingerprint pattern 610 acquired in step S107 described above. Then, the authentication device 10 proceeds to the process of step S113.
  • the authentication device 10 acquires the fingerprint patterns 610 of all the sections 300 and determines whether the feature points have been extracted, that is, whether the fingerprint patterns 610 of all the sections 300 have been registered. When the authentication device 10 determines that the registration of the fingerprint patterns 610 of all the sections 300 is completed, the authentication device 10 ends the flow of the registration stage. On the other hand, when the authentication device 10 determines that the fingerprint patterns 610 of all the sections 300 have not been registered, it returns to step S101 described above in order to register the fingerprint pattern 610 of the next section 300. Then, the authentication device 10 repeats the flow of FIG. 6 until registration of the fingerprint patterns 610 of all the sections 300 is completed.
  • Step S115 The authentication device 10 determines whether or not the fingerprint pattern 610 of the predetermined section 300 has been acquired three or more times. When the authentication device 10 determines that the fingerprint pattern 610 of the predetermined section 300 has not been acquired three or more times, the above-described steps are performed to acquire the fingerprint pattern 610 of the predetermined section 300 again. Return to S101. On the other hand, if the authentication device 10 determines that the fingerprint pattern 610 of the predetermined section 300 has been acquired three times or more, it is determined that the finger the user is trying to register is not appropriate for registration. , In order to guide registration with another finger, the process proceeds to step S117.
  • Step S117 The authentication device 10 guides the user to change the finger to be registered to another finger, for example, by outputting a display such as “Please change to the middle finger” or a voice. Then, the authentication device 10 returns to the process of step S101 described above.
  • the authentication device 10 displays, for example, 21 guide displays 200 as shown in FIG. It will be displayed on the display unit 102.
  • the authentication device 10 can obtain the fingerprint pattern 610 of the 21 sections 300 by displaying the guidance display 200 indicating the position of the fingertip 600 to be superimposed by the user with a slight shift with respect to the fingerprint sensor unit 104.
  • the user can be guided (for example, in FIG. 9, the position of each section 300 is displayed by a combination of alphabets and numbers, and the position corresponds to the section 300 shown in FIG. 5. To).
  • a fingerprint template used for authentication can be obtained. Further, the acquired fingerprint template is stored in the storage unit 130 in association with the previously input specific information for specifying the user and specific information for specifying the finger.
  • the fingerprint patterns 610 for the respective sections 300 that do not overlap each other as shown in FIG. 5 may be registered, or the fingerprint patterns 610 for each section 300 that partially overlap each other. May be registered.
  • the outer peripheral area of the sensing surface (not shown) of the fingerprint sensor unit 104 has a poorer acquisition performance of the fingerprint pattern 610 than the central area of the fingerprint sensor section 104, part of the sections 300 may overlap each other as described above. By doing so, the quality of the fingerprint pattern to be acquired can be further improved.
  • the display surface of the display unit 102 is smaller, when the fingerprint pattern 610 of 21 sections 300 as shown in FIG. 5 is to be registered, for example, as shown in FIG. 21 pieces of guidance displays 200 as shown in FIG. 11 may be displayed on the display unit 102. 10 and 11, similarly to FIG. 9, the position of each section 300 is displayed by a combination of alphabets and numbers, and the position corresponds to the section 300 shown in FIG. ..
  • the display unit 102 and the fingerprint sensor unit 104 are provided so as to overlap each other.
  • the display surface of the display unit 102 may have a rectangular shape, and the width of the display surface in the lateral direction may be narrower than the width of the user's fingertip 600. Therefore, in this example, since the display surface of the display unit 102 can be narrowed, it is possible to further reduce the size of the authentication device 10 in which the display unit 102 is mounted.
  • the display unit 102 and the fingerprint sensor unit 104 are provided adjacent to each other on the surface of the authentication device 10.
  • the display surface of the display unit 102 has a rectangular shape, and the width of the display surface in the lateral direction is narrower than the width of the user's fingertip 600. May be. Therefore, also in this example, since the display surface of the display unit 102 can be narrowed, it is possible to further reduce the size of the authentication device 10 in which the display unit 102 is mounted.
  • blinking devices 108 including LEDs (Light Emitting Diodes) at the four corners of the fingerprint sensor unit 104 so that the user can visually recognize the position of the fingerprint sensor unit 104.
  • the blinking device 108 When the blinking device 108 is turned on, the user can easily recognize the position of the fingerprint sensor unit 104.
  • the authentication device 10 may register the fingerprint pattern 610 of each section 300 in the order of the numbers shown in FIG. Specifically, in the example of FIG. 12, the fingerprint pattern 610 of the section 300 in the central column (column A in FIG. 5) is registered from top to bottom, and then the left column (column B in FIG. 5). The fingerprint pattern 610 of the section 300 is registered from top to bottom, and finally, the fingerprint pattern 610 of the section 300 in the right column (column C in FIG. 5) is registered from top to bottom.
  • the authentication device 10 starts from the central section 300 (section 300 in the fourth row of column A in FIG. 5) and registers nine sections 300 in the central region e in the clockwise direction. .. Specifically, in the authentication device 10, the section 300 in the fourth row of the column A, the section 300 in the third row of the column A, and the section 300 in the third row of the C column in FIG. Register up to 300. Further, in the example of FIG. 13, the authentication device 10 divides the six sections 300 of the upper area d from the lower left section 300 (the section 300 in the second row of B column in FIG. 5) to the upper left section 300 (B in FIG. 5). Register up to the first row, section 300). Then, in the example of FIG.
  • the authentication device 10 changes the six sections 300 of the lower area f from the upper left section 300 (the section 300 in the B column and the sixth row in FIG. 5) to the lower left section 300 (the B section in FIG. 5). Register up to the section 300 in the seventh row. Note that, also in FIG. 13, the fingerprint pattern 610 of each section 300 is registered in the order of the numbers in the figure.
  • the order in the central area e is different from that in the example in FIG. Specifically, in the example of FIG. 14, the authentication device 10 registers the fingerprint pattern 610 of the section 300 in the center column (column A in FIG. 5) from the top to the bottom in FIG. 14, and then the left side. The fingerprint pattern 610 of the section 300 in the row (row B in FIG. 5) is registered from the top to the bottom in FIG. In the example of FIG. 14, the authentication device 10 registers the fingerprint pattern 610 of the section 300 in the right column (column C of FIG. 5) from top to bottom in FIG. Note that, also in FIG. 14, the fingerprint pattern 610 of each section 300 is registered in the order of the numbers in the figure.
  • the entire fingerprint pattern 610 is virtually divided into sections 300 of 4 columns and 9 rows.
  • a fingerprint pattern 610 for three sections 300 arranged in a line from top to bottom for example, a fingertip 600 from above (the position of Start in the figure) to below (the position of End in the figure). You can register at once by sliding to). By doing so, the number of registration operations can be reduced, and thus the burden on the user for registration can be reduced.
  • the fingerprint patterns 610 of all the sections 300 are once registered in Phase 1, the section 300 having the most feature points is selected and the selected section 300 (for example, shown on the right side of FIG. 16 is shown. As described above, the fingerprint pattern 610 may be registered again in Phase 2 for the section 300 in the fifth row of the A column.
  • the number of sections 300 to be registered may be reduced, the intervals of the sections 300 to be registered may not be even, and the positions of the sections 300 to be registered are adjacent to each other.
  • the left and right positions or the upper and lower positions may be shifted.
  • by reducing the number of sections 300 to be registered it is possible to suppress an increase in the processing load in the subsequent score calculation and an increase in the amount of information stored in the storage unit 130. Note that, in FIGS. 17 to 23, numbers and alphabets for specifying the position of each section 300 are also shown.
  • the compartments 300 are not limited to being arranged in parallel and perpendicular to the extending direction of the fingertip, and for example, with respect to the extending direction of the fingertip. You may line up diagonally.
  • the authentication device 10 re-registers the user. Is preferred. At that time, when the number of the sections 300 to be registered is reduced as described above, the range of the fingerprint pattern 610 to be registered is expanded from the initial registration, that is, the number of the sections 300 to be registered is the first. You may increase it from the time of registration. Furthermore, the direction of the fingertip 600 to be guided may be rotated so as to be different from that at the time of initial registration so that more feature points can be extracted.
  • a predetermined level or more for example, a predetermined number or more
  • FIG. 24 is an explanatory diagram illustrating a score calculation method according to the present embodiment
  • FIG. 25 is an explanatory diagram illustrating an example of a score according to the present embodiment.
  • the fingerprint pattern 610 of the user obtained in the above-described registration step is virtually divided into a plurality of sections 300, and the number of feature points of the fingerprint pattern 610 in each section 300. That is, the feature amount is calculated.
  • the score of each section 300 may be calculated by performing a predetermined weighting on the above-described feature amount. The method of calculating the score according to this embodiment will be described below.
  • Calculation example 1 described below is a calculation example in which the feature amount registered in each section 300 is directly used as a score.
  • the score Score(i,J) of each section 300 is It can be shown by the following mathematical expression (1).
  • the weighting W(i, j, m, n) described above may be set in advance or dynamically based on the number of successful authentications, the situation at the time of user authentication, and the like. You can
  • the score Score(i, j) of each section 300 as in the example shown in FIG. 25 can be calculated by using the mathematical formula (1) or the mathematical formula (2). it can. Note that, in the example shown in FIG. 25, the position of each section 300 is represented by a combination of alphabets and numbers, and the position corresponds to each section 300 shown in FIG.
  • the calculation of the score Score(i, j) is not limited to each of the sections 300 of one finger, but is performed for each of the sections 300 of the plurality of fingers of the user. You may go, and in that case, you may calculate the average value of the feature-value P(i,j) in the same division 300 in several fingers as score Score(i,j). By using such an average value as the score Score(i,j), the authentication device 10 can select the optimal authentication section 300 for authentication no matter which finger the user uses for authentication. ..
  • the score Score(i,j) is updated by weighting the weighting W(i,j,m,n) based on the number of successful authentications using the fingerprint pattern 610 of the section 300. Good. By doing so, the score Score(i, j) can dynamically respond to a change in the user's fingerprint such as an injury of the fingertip 600. Therefore, in this embodiment, the score It is possible to acquire the score Score(i, j) for determining the optimal authentication section 300 for the authentication. At this time, weighting may be performed only on the weighting W(i, j, m, n) of the section 300 that has been successfully authenticated in a predetermined latest period (for example, the latest one month). By doing so, even for fingerprints that may change, the optimal authentication section 300 for authentication can be determined according to the state of the latest fingerprint.
  • the score Score(i, j) of each section 300 calculated in this way is stored in the storage unit 130 in association with specific information (ID (identification) number or the like) for specifying the user. .. At this time, it may be stored in association with the identification information for identifying the finger corresponding to the fingerprint pattern 610 used when calculating the score Score(i, j). As described above, these pieces of specific information are information preliminarily input by the user.
  • the score Score(i,j) is associated with the context information of the user at the time of registration (the user's behavior, position, device holding state, use state, time, etc.) and is stored in the storage unit. It may be stored in 130.
  • the authentication device 10 extracts, for example, the score Score(i, j) of each section 300 at a predetermined finger of a predetermined user shown in FIG. 25 from the storage unit 130. Further, the authentication device 10 selects the section 300 corresponding to the score Score(i,j) having the largest value among the extracted scores Score(i,j) as the optimum authentication section 300 for user authentication. .. Therefore, in the present embodiment, by using the score Score(i, j), it is possible to specify the section 300 including a large number of feature points for each individual.
  • the authentication device 10 When the score Score(i,j) of a plurality of fingers is stored for the same user, the authentication device 10 causes the finger and the section 300 corresponding to the score Score(i,j) having the largest value. Is selected as the authentication section 300.
  • the authentication device 10 identifies the type of finger touched by the user on the fingerprint sensor unit 104 at the time of authentication, and scores Score(i, i) of each section 300 corresponding to the identified finger. j) may be extracted. In this case, the authentication device 10 selects, as the authentication partition 300, the partition 300 corresponding to the score Score(i,j) having the largest value among the extracted scores Score(i,j).
  • the authentication device 10 acquires the context information of the user at the time of authentication (user's behavior, position, device holding state, usage state, time, etc.), and is the most similar to the acquired context information.
  • the score Score(i,j) of each section 300 associated with the context information to be extracted may be extracted.
  • the authentication device 10 corresponds to the score Score(i,j) having the largest value among the scores Score(i,j) associated with the context information similar to the context information of the user at the time of authentication.
  • the partition 300 to be selected is selected as the authentication partition 300.
  • FIG. 26 is a diagram showing a flowchart of the authentication stage according to the present embodiment. As shown in FIG. 26, the authentication stage according to this embodiment includes steps S401 to S423. Each step of the authentication stage will be described below.
  • the authentication device 10 specifies a user who is going to perform authentication by, for example, an input operation from the user, and selects the authentication partition 300 corresponding to the specified user. At this time, the authentication device 10 may specify the finger used by the user who is going to perform the authentication, and in this case, the authentication section 300 corresponding to the specified finger is selected.
  • the authentication device 10 displays the guidance display 200 toward the user based on the authentication partition 300 selected in the authentication partition 300 selection step described above, so that the fingerprint sensor section 104 causes the fingertip 600 to be displayed. Guide the fingerprint pattern 610 of 300 to a position where it can be obtained.
  • the fingerprint pattern 610 in the area including a large number of feature points can be suitably acquired.
  • the authentication device 10 may also display the type of finger to be touched by the user, output a voice, or blink the blinking device 108. Then, the authentication device 10, for example, proceeds to the process of step S403 after a predetermined time has elapsed.
  • Step S403 Similar to step S103 described above, the authentication device 10 determines whether the user's fingertip 600 is appropriately in contact with the sensing surface (not shown) of the fingerprint sensor unit 104, that is, the fingertip, based on the sensing data of the touch sensor unit 100. It is determined whether the posture of 600 is appropriate. Then, the authentication device 10 proceeds to the process of step S407 when it determines that the contact is appropriate, and proceeds to the process of step S405 when it determines that the contact is not appropriate.
  • Step S405 Similar to step S105 described above, the authentication device 10 appropriately guides the posture of the fingertip 600 of the user by outputting a display such as "Please tilt your fingertip" or a voice. Then, the authentication device 10 returns to the process of step S401 described above.
  • the authentication device 10 acquires the fingerprint pattern 610 of the authentication section 300 from the fingerprint sensor unit 104. At this time, the fingerprint sensor unit 104 may acquire the fingerprint pattern 610 around the authentication section 300. By doing so, even if the surface of the fingertip 600 that contacts the sensing surface (not shown) of the fingerprint sensor unit 104 is slightly displaced from the authentication section 300, authentication can be performed.
  • the authentication device 10 will perform authentication using part of the acquired fingerprint pattern 610.
  • the authentication method as described above, an arbitrary method such as a pattern matching method or a feature point extraction method can be used.
  • the template to be collated with a part of the acquired fingerprint pattern 610 is not limited to the one including only the fingerprint pattern 610 related to the authentication section 300, the feature point information, etc.
  • the fingerprint pattern 610, feature point information, and the like may be included. By doing so, even if the surface of the fingertip 600 that contacts the sensing surface (not shown) of the fingerprint sensor unit 104 is slightly displaced from the authentication section 300, authentication can be performed. Then, the authentication device 10 proceeds to the process of step S409.
  • Step S409 The authentication device 10 uses the fingerprint pattern 610 of the authentication partition 300 acquired in step S407 to determine whether the authentication has succeeded. If the authentication device 10 determines that the authentication is successful, the process proceeds to step S411. On the other hand, when the authentication device 10 determines that the authentication has not succeeded, the process proceeds to step S417.
  • Step S411 The authentication device 10 weights (updates) the weight W(i, j, m, n) of the finger and the authentication section 300 that have been successfully authenticated in step S407, and again sets the score Score(i, j). Calculate and update. Then, the authentication device 10 selects the authentication section 300 to be used next time in the same manner as described above, based on the updated score Score(i, j). In the present embodiment, since the weighting W(i, j, m, n) of the successfully authenticated section 300 is weighted, the dynamically changing score Score(i) corresponding to the latest authentication result of the user. , J) can be obtained.
  • Step S413 The authentication device 10 determines whether or not there is an area of good quality in the fingerprint pattern 610 of the authentication section 300 acquired in step S407 described above. Here, it is assumed that the quality is good when the feature amount is large compared to the fingerprint pattern 610 as the fingerprint template that has already been registered. When the authentication device 10 determines that there is a region of good quality, the process proceeds to step S415. On the other hand, when the authentication device 10 determines that there is no area with good quality, the authentication device 10 ends the authentication process.
  • Step S415 The authentication device 10 updates the fingerprint pattern 610 as the registered fingerprint template so as to include an area of good quality among the fingerprint patterns 610 of the authentication section 300 acquired in step S407 described above. Then, the authentication device 10 calculates and updates the score Score(i,j) using the updated fingerprint template. Then, the authentication device 10 selects the authentication section 300 to be used next time in the same manner as described above, based on the updated score Score(i, j). The details of step S415 will be described later.
  • Step S417 The authentication device 10 determines whether the authentication has been performed three times or more. When the authentication device 10 determines that the authentication has not been performed three times or more, the authentication device 10 returns to the process of step S401 to perform the authentication again. On the other hand, when the authentication device 10 determines that the authentication has been performed three times or more, the process proceeds to step S419.
  • Step S419 The authentication device 10 determines whether the authentication has been performed four times or more. When the authentication device 10 determines that the authentication has not been performed four times or more, the process proceeds to step S423. On the other hand, if the authentication device 10 determines that the authentication has been performed four times or more, the process proceeds to step S421.
  • the authentication device 10 Since it is difficult to authenticate with a fingerprint, the authentication device 10 changes to an authentication method other than the fingerprint, for example, another authentication mode such as password input or face authentication, and ends the authentication process.
  • another authentication mode such as password input or face authentication
  • the authentication device 10 identifies the finger currently used by the user for authentication.
  • information pre-input by the user may be used, or if fingerprint templates of a plurality of fingers are stored in advance, the fingerprint template may be used. ..
  • the authentication section 300 with fingers other than the finger currently used is stored in the score Score(i, Select based on j). Further, the authentication device 10 returns to the process of step S401 in order to perform the authentication again.
  • FIG. 27 is a diagram showing a flowchart of a fingerprint template update stage according to the present embodiment.
  • the fingerprint template used for the authentication is dynamically updated, and further, the score Score(i,j) of each section 300 calculated from the updated fingerprint template is updated. Therefore, it is possible to always select the optimal authentication section 300 for user authentication.
  • the step of updating the fingerprint template corresponding to step S415 of FIG. 26 includes steps S4150 to S4153. The details of each step will be described below.
  • Step S4150 The authentication device 10 extracts feature points from a part of the fingerprint pattern 610 acquired in step S407 described above.
  • the authentication device 10 identifies the position corresponding to the fingerprint pattern 610 acquired in step S407 described above.
  • the corresponding position is supposed to be the authentication section 300, but the position may be slightly deviated from the authentication section 300 depending on the state in which the user brings the fingertip 600 into contact with the fingerprint sensor unit 104. Therefore, in the present embodiment, the position corresponding to the fingerprint pattern 610 acquired in step S407 described above is specified by referring to the fingerprint template registered in advance.
  • Step S4152 ⁇ The authentication device 10 extracts a duplicate feature point in which the feature point extracted in the above step S4150 and the feature point at the position specified in the above step S4151 in the fingerprint template registered in advance overlap. Further, the authentication device 10 adds the feature points obtained by removing the duplicate feature points from the feature points extracted in the above step S4150 to the positions specified in the above step S4151 in the fingerprint template registered in advance. In this embodiment, the fingerprint template is updated in this way.
  • Step S4153 The authentication device 10 recalculates the score Score(i,j) of each partition 300 based on the fingerprint template updated in step S4152, and based on the calculated score Score(i,j), the authentication partition 300. Select.
  • the fingerprint template used for authentication is dynamically updated, and further, the score Score (i, j) of each section 300 calculated from the updated fingerprint template is updated.
  • the optimal authentication section 300 can always be selected for user authentication.
  • the fingerprint sensor unit 104 can be downsized and the deterioration of the authentication performance can be avoided. Further, according to the present embodiment, a region including a large number of characteristic points is specified for each individual, and the fingertip 600 is guided to a suitable position for each individual based on the specified region, so that a large number of characteristic points are included.
  • the fingerprint pattern 610 of the area can be preferably acquired. As a result, according to the present embodiment, it is possible to authenticate each individual with a small number of trials, and it is possible to avoid a reduction in convenience.
  • the authentication method is not limited to fingerprint authentication, and may be, for example, vein authentication using the shape (feature information) of the vein of the fingertip 600 of the user.
  • vein authentication using the shape (feature information) of the vein of the fingertip 600 of the user.
  • FIGS. 28 and 29 are explanatory diagrams for describing modified examples of the present embodiment.
  • the vein authentication refers to an authentication method in which individual authentication is performed using a vein pattern in the shape of a vein inside the fingertip 600 or the like.
  • a part of the authentication device 10b is schematically displayed on the lower side of FIG. 28, and in the authentication device 10b, a vein sensor unit 104a is arranged instead of the fingerprint sensor unit 104.
  • the vein sensor unit 104a has an irradiation unit (not shown) and a detection unit (not shown), and can acquire the vein pattern 602.
  • the irradiation unit can irradiate the user's fingertip 600 with irradiation light having a predetermined wavelength (for example, light that is absorbed by hemoglobin in blood).
  • the wavelength of the irradiation light emitted by the irradiation unit can be appropriately selected, and for example, light having a wavelength of about 850 nm is emitted.
  • the irradiation unit As the irradiation unit, a small laser or the like can be used to emit coherent light. Further, the detection unit detects the light scattered from the fingertip 600 of the user.
  • the detection unit has, for example, a photodiode (Photo Detector: PD), converts the intensity of the received light into an electric signal, and outputs the electric signal to the information processing apparatus 30 described later.
  • a CCD (Charge Coupled Devices) type sensor, a CMOS (Complementary Metal Oxide Semiconductor) type sensor, or the like can also be used as the detection unit.
  • the vein pattern 602 of the fingertip 600 is acquired by the vein sensor unit 104a, and the vein pattern 602 of the fingertip 600 is compared with the previously registered template of the vein pattern 602 to perform personal authentication.
  • the vein pattern 602 also has different characteristics for each individual, and it is considered that the optimal region for authentication also differs. Therefore, also in the present modification, as in the above-described embodiment, the region of the vein pattern 602 that is optimal for authentication can be specified for each individual based on the feature point information, and the vein pattern 602 of the specified region can be acquired. The position or the like of the fingertip 600 is selected so that it can be performed.
  • the user's fingertip 600 is guided so as to be at the selected position or height with respect to the vein sensor unit 104a.
  • the authentication device 10b displays the relative position or height of the fingertip 600 with respect to the vein sensor unit 104a as the guidance information.
  • the authentication device 10b may combine the fingerprint sensor unit 104 and the vein sensor unit 104a, and by doing so, two authentication methods are used simultaneously. be able to. Therefore, in the example shown in FIG. 29, since two authentication methods can be used, security can be further enhanced.
  • the vein sensor unit 104a may have a function of acquiring blood flow information of the blood vessel of the fingertip 600 instead of the function of acquiring the vein pattern 602.
  • the authentication device 10b shown in FIG. 29 can perform authentication using a fingerprint, and further can acquire blood flow information.
  • the context information (user's behavior, position, device holding state, use state, time, etc.) of the user at the time of authentication is acquired, and based on the acquired context information, authentication is performed. You may select as the division 300. By doing so, since the user's fingertip 600 can be guided based on the authentication section 300 according to the user's situation at the time of authentication, the user's convenience can be further enhanced.
  • the smartphone (not shown) owned by the user includes the authentication device 10 according to the present embodiment as an example.
  • the type of finger used by the user for authentication may differ depending on how the user holds the smartphone, that is, the inclination of the smartphone.
  • the authentication device 10 can guide one of the fingers of the left hand as an authentication finger, the convenience of the user can be further enhanced.
  • the authentication device 10 is a wristwatch-type wearable terminal.
  • the type of finger used by the user for authentication may differ depending on whether the user holds heavy luggage or does not carry any luggage.
  • the user authenticates using the index finger of the fingers corresponding to the wrist opposite to the wrist wearing the wearable terminal.
  • the handle of the luggage is held by the thumb and the index finger among the fingers corresponding to the wrist on the opposite side, the user is highly likely to perform authentication using fingers other than these fingers. Therefore, in such a case, if the authentication device 10 can guide any of the fingers other than the thumb and the index finger as the authentication finger, the convenience of the user can be further enhanced.
  • the type of finger that the user intends to use for authentication changes depending on the user's behavior during authentication, position, holding of the authentication device 10, wearing state, and the like. Therefore, in the authentication device 10, by pre-estimating the type of the finger that the user will use for the authentication and selecting the finger or the authentication section 300 to be used for the authentication based on the estimation result, the convenience of the user is improved. Can be increased.
  • the context information (user's behavior, position, device holding state, usage state, time, etc.) of the user at the time of authentication is acquired, and the authentication section 300 is set based on the acquired context information. select.
  • the context information user's behavior, position, device holding state, usage state, time, etc.
  • FIG. 30 is a block diagram showing a configuration example of the authentication device 10a according to the present embodiment.
  • the sensor unit 106, the score calculation unit 116a of the processing unit 110a, the selection unit 118a, and the context information acquisition unit 124 are different from those of the first embodiment described above. Therefore, in the following description, the description of the points common to the first embodiment will be omitted, and the points different from the first embodiment will be described.
  • the sensor unit 106 can sense user's contest information.
  • the sensor unit 106 is a motion sensor that detects a user's action, a sound sensor that detects a sound generated around the user, a position sensor that detects the position of the user, and information about a device (device) used by the user. It may include a device sensor for detecting.
  • the sensor unit 106 includes a time sensor that acquires information on the current time, a schedule information acquisition unit that acquires user schedule information, a profile information acquisition unit that acquires user profile information (sex, age, etc.), and surroundings of the user. It may include an environment sensor that acquires information on temperature, humidity, and weather.
  • the motion sensor is realized by, for example, one or a plurality of sensor devices that detect a spatial movement or angle such as an acceleration sensor, a gyro sensor, a geomagnetic sensor, a potentiometer, and an encoder.
  • the motion sensor may include an image pickup device and an image pickup device that picks up an image of a user using various members such as a lens for controlling the formation of a subject image on the image pickup device.
  • an imaging device may be provided in the authentication device 10 or may be installed around the user as a device separate from the authentication device 10. Based on the sensing data sensed by the motion sensor, it is possible to detect the situation of the user such as whether the user is exercising or whether the authentication device 10 which is a wearable terminal is worn on the right arm or the left arm of the user.
  • the sound sensor consists of a microphone and collects the user's voice and surrounding sounds. Based on the sensing data sensed by the sound sensor, it is possible to detect the user's situation such as the place (the shop, the workplace, etc.) where the user is located, the user's behavior (on the phone, at work, etc.).
  • the position sensor is a sensor that detects the position of the user, and specifically, can be a GNSS (Global Navigation Satellite System) receiver or the like. In this case, the position sensor generates a sensing result indicating the latitude/longitude of the user's current location based on the signal from the GNSS satellite.
  • GNSS Global Navigation Satellite System
  • the position sensor since it is possible to detect the relative positional relationship of the user from, for example, RFID (RADIO frequency Identification), Wi-Fi access point, wireless base station information, etc., such a communication device is used as the positioning sensor. It is also possible to use.
  • the device sensor can recognize the status of the authentication device and other terminals used by the user.
  • the device sensor can recognize the type of application started by the authentication device 10.
  • the device sensor is a type of an external device such as a smartphone connected to the authentication device 10 via the communication unit (not shown) of the authentication device 10, a type of an application activated by the external device, or the external device. It is possible to recognize the type of device connected to the.
  • a headset connected to the smartphone can be cited as a device connected to the external device.
  • the state of the external device recognized in this way is information regarding the user's use of the terminal, and thus can be said to be information indicating the state of the user.
  • the device sensor may be an acceleration sensor, a gyro sensor, a geomagnetic sensor, or the like provided in the authentication device 10 or the like, and based on the sensing data sensed by such a device sensor, the authentication held by the user.
  • the tilt of the device 10 or the like can be sensed.
  • the schedule information acquisition unit and the profile information acquisition unit may acquire user attribute information (user's gender, age, etc.) and action schedule (user's scheduled action and its scheduled date and time, etc.).
  • the attribute information and the action schedule may be input to the authentication device 10 in advance, or may be acquired from an external server (not shown).
  • the environment sensor can be a thermometer, a hygrometer, etc., and can acquire information on the temperature, humidity, and weather around the user.
  • a clear fingerprint pattern 610 may or may not be acquired depending on temperature and humidity. Therefore, in the present embodiment, the finger or the authentication section 300 may be selected so that a clearer fingerprint pattern 610 can be obtained according to the temperature and humidity information.
  • the context information acquisition unit 124 acquires various kinds of information from the above-described sensor unit 106 and outputs it to the score calculation unit 116a described later.
  • the score calculation unit 116a changes a predetermined weighting for the feature amount of each section of each finger calculated by the feature amount calculation unit 114, according to the context information, and calculates the score of each section 300 of each finger. To calculate. Specifically, the score calculation unit 116a acquires the context information of the user at the time of authentication, and compares the acquired context information with the context information associated with the fingerprint template registered in advance. Then, the score calculation unit 116a adjusts so that the weighting of the feature amount of each section 300 of the finger of the fingerprint template having the context information close to the context information acquired at the time of authentication is more weighted. Therefore, in the present embodiment, since the finger and the section 300 having a high score are selected, the finger and the section 300 of the fingerprint template having the context information close to the context information acquired at the time of authentication are easily selected.
  • the selection unit 118a selects the finger used for authentication and the authentication section 300 based on the score calculated by the score calculation unit 116a described above. The details of the selection method in this embodiment will be described later.
  • the finger and the authentication section 300 can be determined using the following mathematical expression (3).
  • the context information to be used is the behavior of the user, the time, the position, the holding state of the device, and the respective states are the respective scores (N act , N time , N loc , N loc) . pos etc.). Then, as described above, in the present embodiment, the context information of the user at the time of authentication is acquired, and the acquired context information is compared with the context information associated with the pre-registered fingerprint template. Further, in the present embodiment, in the case of context information close to the context information acquired at the time of authentication, weighting (W act , W time , W loc , W pos, etc.) for each score is more weighted.
  • the weighting F W for the feature amount ( F P ij ) of each section 300 of the finger of the fingerprint template that is associated with the context information close to the context information acquired at the time of authentication is further weighted. To adjust. Therefore, in the present embodiment, since the finger and the section 300 having a high score are selected, the finger and the section 300 of the fingerprint template having the context information close to the context information acquired at the time of authentication are easily selected.
  • FIG. 31 is a diagram showing a flowchart of the authentication method according to the present embodiment. As shown in FIG. 31, the authentication method according to this embodiment includes steps S501 to S517. The details of each step will be described below.
  • the authentication device 10a acquires the context information of the user at the time of authentication.
  • the authentication device 10 extracts the fingerprint template of each finger of the user and the feature amount of each section 300 from the storage unit 130.
  • the authentication device 10a calculates the score of each section 300 of each finger using the mathematical expression (3).
  • Step S507 The authentication device 10a selects the optimal finger and authentication section 300 for user authentication based on the score calculated in step S505.
  • Step S509 The authentication device 10a displays the guidance display 200 toward the user based on the authentication section 300 selected in step S507 described above, so that the fingerprint sensor unit 104 causes the fingertip 600 to display the fingerprint pattern 610 of the authentication section 300. To a position where you can get.
  • Step S511 The authentication device 10a acquires the fingerprint pattern 610 of the authentication section 300 from the fingerprint sensor unit 104. Furthermore, the authentication device 10a uses the acquired fingerprint pattern 610 to authenticate the user. Then, the authentication device 10 proceeds to the process of step S513.
  • Step S513 The authentication device 10a uses the fingerprint pattern 610 of the authentication section 300 acquired in step S511 described above to determine whether the user has been successfully authenticated. When the authentication device 10a determines that the authentication is successful, the process proceeds to step S515. On the other hand, when the authentication device 10 determines that the authentication has not succeeded, the process proceeds to step S517.
  • Step S515 The authentication device 10a adjusts so that the weighting FW to the feature amount of the authentication partition 300 is further weighted so that the authentication partition 300 selected in step S507 described above is more selected. That is, in the present embodiment, since the weighting FW is updated so that the section 300 that has been successfully authenticated in the past has a high score, the result of successful authentication is reflected in the calculation of the next score. Will be done.
  • Step S517 The authentication device 10a selects the optimal finger and authentication section 300 for the next user authentication based on the score calculated in step S505, and returns to the process of step S509.
  • the user's fingertip 600 can be guided based on the authentication section 300 according to the user's situation at the time of authentication, so that the convenience of the user can be further enhanced. ..
  • a region including a large number of feature points is specified for each individual, and the fingertip 600 is guided to a suitable position for each individual based on the specified region.
  • the authentication device 10 displays a guide display 200 indicating the tip position of the fingertip and a center line 202 indicating the center position of the fingertip on the display unit 102, and sets the fingertip 600 at a suitable position. Induce to.
  • the user is required to bring the fingertip 600 into contact with the fingerprint sensor unit 104 so that the tip position of the fingertip indicated by the guide display 200 and the tip position of the fingertip 600 coincide with each other.
  • the guidance display 200 is covered by the fingertip 600 during the guidance, it becomes difficult for the user to visually recognize the tip end position of the fingertip indicated by the guidance display 200. Therefore, it is difficult to bring the finger tip 600 into contact with the fingerprint sensor unit 104 so that the tip end position of the finger tip indicated by the guide display 200 and the tip end position of the finger tip 600 match. Further, even when the nail is elongated or when a nail tip or the like is attached to the own nail, the guide display 200 is covered by the nail or the like, and therefore, the tip of the fingertip indicated by the guide display 200 is displayed from the user. It is difficult to see the position. Therefore, also in this case, it becomes difficult for the user to properly bring the fingertip 600 into contact with the fingerprint sensor unit 104.
  • a guidance display 200 is proposed as the third embodiment of the present disclosure.
  • the guide display 200 according to the third embodiment has a portion having a form that can be visually recognized by the user even when the fingertip 600 of the user is superimposed. Therefore, even in the case as described above, since the above-mentioned portion is visible, the user can visually recognize or infer the tip end position of the fingertip indicated by the guide display 200.
  • the user can bring his or her fingertip 600 into contact with the fingerprint sensor unit 104 so that the tip end position of the fingertip indicated by the guide display 200 and the tip end position of the fingertip 600 match. it can.
  • FIGS. 32 to 41 are explanatory diagrams for describing an example of the guidance display 200 according to the third embodiment of the present disclosure
  • FIGS. 40 and 41 are display methods of the guidance display 200 according to the present embodiment. It is an explanatory view for explaining an example of.
  • the guide display 200 shows a portion (fingerprint mark) indicating the tip position of the fingertip, a center line extending in the vertical direction to indicate the center position of the fingertip, and the most distal position of the fingertip in the vertical direction.
  • a cross mark formed of a horizontal line extending in the horizontal direction is included.
  • the center line and the horizontal line of the cross mark extend to the end of the display unit 102. Therefore, the user can visually recognize a part of the ends of the center line and the horizontal line. Therefore, even when the intersection is covered by the user's fingertip 600, the user estimates the position of the intersection based on the positions of some of the ends of the center line and the horizontal line that can be visually recognized. It is possible to Then, the user aims at the estimated position of the intersection of the cross mark and aligns the tip end position of his/her fingertip 600. As a result, according to the example, the user can easily bring the fingertip 600 into contact with the fingerprint sensor unit 104 so that the tip end position of the finger tip indicated by the guide display 200 and the tip end position of the finger tip 600 match. ..
  • the cross mark makes the user aware of the tip position of the fingertip, and therefore the guidance display 200 guides the tip of the fingertip 600 to the tip position of the fingertip indicated by the guidance display 200. You can
  • the horizontal line may be moved and displayed.
  • the center line may be moved and displayed.
  • the guidance display 200 shows the center line extending in the vertical direction to indicate the center position of the fingertip and the tip position of the fingertip.
  • a cross mark composed of a horizontal line extending in the horizontal direction is included.
  • the guide display 200 extends in the vertical direction so as to indicate the portion (fingerprint mark) indicating the tip position of the fingertip and the center position of the fingertip, as in the example shown in FIG. Including and.
  • the arrow may overlap with the portion (fingerprint mark) indicating the tip position of the fingertip. The arrow can be visually recognized by the user because it is located at a position where the fingertip 600 faces the area where it should be superposed.
  • the user can infer the position of the tip portion of the arrow from the other part of the arrow that is visually recognized. Then, the user aims at the position of the tip of the arrow that can be visually recognized or guessed, and aligns the tip end position of his/her fingertip 600. As a result, according to the example, the user can bring the fingertip 600 into contact with the fingerprint sensor unit 104 so that the tip position of the fingertip indicated by the guide display 200 and the tip position of the fingertip 600 match.
  • the guide display 200 is composed of an arrow extending in the vertical direction so as to indicate the center position of the fingertip, as in the example shown in FIG. 34.
  • the user brings the fingertip 600 into contact with the fingerprint sensor unit 104 so that the tipmost position of the fingertip indicated by the guidance display 200 and the tipmost position of the fingertip 600 match. be able to.
  • the guide display 200 is composed of an arrow extending in the vertical direction so as to indicate the center position of the fingertip, as in the example shown in FIG.
  • the user brings the fingertip 600 into contact with the fingerprint sensor unit 104 so that the tipmost position of the fingertip indicated by the guidance display 200 and the tipmost position of the fingertip 600 match. be able to.
  • the guide display 200 may be a gradation display.
  • the guide display 200 includes a gradation display and a center line extending in the vertical direction of the display unit 102.
  • the gradation display has a gradation in which colors, patterns, and the like change in stages along the vertical direction of the display unit 102, and a boundary line where different colors are adjacent to each other (the boundary line is along the horizontal direction of the display unit 102).
  • (Stretch) indicates the most distal position of the fingertip in the longitudinal direction.
  • the user aims at the position of the intersection of the boundary line and the center line, and aligns the tip end position of his/her fingertip 600.
  • the user can easily bring the fingertip 600 into contact with the fingerprint sensor unit 104 so that the tip end position of the fingertip indicated by the guide display 200 and the tip end position of the fingertip 600 match. ..
  • the guidance display 200 may be a section display.
  • the guide display 200 includes a portion (section) indicating a portion where the fingertips are not overlapped, and a center line that passes through the center of the section and extends in the vertical direction.
  • the lower end of the section display indicates the tip end position of the fingertip.
  • the section display is a portion in which the fingertip is not superimposed, and thus is likely to be visually recognized by the user. .. Therefore, the user aims at the position of the intersection of the lower end of the section display and the center line, and aligns the tip end position of his/her fingertip 600.
  • the user can bring the fingertip 600 into contact with the fingerprint sensor unit 104 so that the tip position of the fingertip indicated by the guide display 200 and the tip position of the fingertip 600 match.
  • a display example when registering the fingerprint pattern 610 will be described using the guide display 200 shown in FIG. 32.
  • 21 guide displays 200 as shown in FIG. 39 are displayed on the display unit 102.
  • the guidance display 200 indicating the position of the fingertip 600 to be superimposed by the user is displayed with a slight shift with respect to the fingerprint sensor unit 104 to display the fingerprint patterns 610 of the 21 sections 300.
  • the user can be guided so that the information can be acquired (for example, in FIG. 39, the position of each section 300 is displayed by a combination of alphabets and numbers, and the position corresponds to the section 300 shown in FIG. 5. Assumed).
  • the guide display 200 has a portion having a form that can be visually recognized by the user when the fingertip 600 of the user is superimposed. Therefore, since the user can visually recognize and infer the tip end position of the fingertip indicated by the guide display 200, according to the present embodiment, the user can detect the tip end position of the fingertip indicated by the guide display 200 and the tip end of the fingertip 600. The fingertip 600 can be brought into contact with the fingerprint sensor unit 104 so as to match the position.
  • the registration is not limited to using the guide display 200 shown in FIG. 32.
  • the cross mark in FIG. 33, the arrows in FIGS. 34 and 36, the combination of these with the fingerprint mark, and the drawing The gradation display of 37, the division display of FIG. 38, and the like may be used.
  • the user adjusts the position of the cross mark according to the angle of the user's eye 620 with respect to the display unit 102 so that the cross mark or the like can be visually recognized.
  • the user swipes the display position of the cross mark with respect to the cross mark according to the angle of the user's eye 620 with respect to the display unit 102, so that the cross mark is displayed. Move the cross mark display position so that you can see it.
  • the cross mark that can be visually recognized by the user may have an offset between the cross mark and the portion (fingerprint mark) indicating the tip position of the fingertip.
  • the guide display 200 can be displayed in consideration of the relative position of the user's eyes 620 with respect to the display unit 102, and in particular, the cross mark can be displayed. 200 can guide the fingertip 600 to a suitable position.
  • the display is not limited to the cross mark, and the display may be performed in other forms.
  • the operation is not limited to the swipe operation as described above, and a dial (not shown) of the authentication device 10 may be operated, which is particularly limited. is not.
  • the user himself adjusts the position of the cross mark but the present embodiment is not limited to this, and the detection result of the eye sensor unit 400 that detects the position of the user's eyes 620 is obtained.
  • the position of the cross mark may be adjusted accordingly. By doing so, it is not necessary for the user to make adjustments, so that convenience can be further improved.
  • the eye sensor unit 400 including, for example, an imaging device detects that the angle of the user's eyes 620 with respect to the plane of the display unit 102 is close to 90°
  • the cross pattern is detected.
  • the mark is shifted and displayed at a position visible to the user.
  • the fingerprint mark is displayed without providing an offset between the cross mark and the portion (fingerprint mark) indicating the tip position of the fingertip.
  • the angle of the user's eye 620 with respect to the plane of the display unit 102 is close to 90°, even if the user's fingertip 600 is superposed on the fingerprint mark, it is superposed on the tip of the fingerprint mark. Since the displayed cross mark can be visually recognized, the offset is not provided.
  • the cross mark is visually recognized by the user.
  • the display is shifted to a position where it can be done.
  • the fingerprint mark is displayed by providing an offset between the cross mark and the portion (fingerprint mark) indicating the tip position of the fingertip.
  • the cross mark is superimposed on the tip of the fingerprint mark.
  • an offset is provided between the cross mark and the portion (fingerprint mark) indicating the tip position of the fingertip to display the fingerprint mark, so that the user's fingertip 600 is superimposed on the fingerprint mark. , Make the cross mark visible.
  • the eye sensor unit 400 is not limited to detecting the position of the user's eyes 620, and when the fingerprint sensor unit 104 is an imaging device, the fingerprint sensor unit 104 allows The position of the user's eyes 620 may be detected.
  • the position of the cross mark or the like is not limited to be adjusted according to the detected eye position of the user, and the user superimposed on the display unit 102 in the initial display of the guide display 200.
  • the position of the cross mark or the like may be adjusted according to the position of the fingertip 600.
  • the sensor fingertip sensor
  • the sensor that detects the position of the user's fingertip 600 is a pressure sensor, a temperature sensor, an optical sensor (which detects a blood vessel of the fingertip 600) superimposed on the display unit 102, a depth sensor (ToF sensor, Ultrasonic sensor).
  • the position of the cross mark is adjusted according to the detection result of the eye sensor unit 400 that detects the position of the user's eyes 620, etc.
  • the sex can be enhanced.
  • the guide display 200 may be changed based on profile information (attribute information) such as gender and age of the user that the user has input in advance to the authentication device 10. For example, when the user is a child, since the fingertip 600 is considered to be thin, the guidance display 200 having a form (for example, a thin fingerprint mark) according to the thin fingertip 600 is performed.
  • profile information attribute information
  • the guidance display 200 having a form (for example, a thin fingerprint mark) according to the thin fingertip 600 is performed.
  • the display orientation of the guidance display 200 may be changed according to the hand (right hand, left hand) with which the user attempts to register and authenticate.
  • the detection of the hand (right hand, left hand) for which the user is trying to register and authenticate can be performed by the user's input, image recognition by the imaging device (fingerprint sensor unit 104 or eye sensor unit 400), or the like. it can.
  • the authentication device 10 according to each embodiment of the present disclosure as described above can be used for ensuring security such as biometric information, personal information such as asset information, and electronic payment. Furthermore, the authentication device 10 according to the present embodiment can be applied to a security device installed at a facility gate or a door of an automobile, or a security device installed in an IoT device. In addition, the authentication device 10 according to the present embodiment is not only for ensuring security, but also for ensuring safety, a medical device (a device that manages medicines and supplements to be dispensed to each individual, It may also be applied to a device for controlling surgery to be performed).
  • a medical device a device that manages medicines and supplements to be dispensed to each individual, It may also be applied to a device for controlling surgery to be performed).
  • each embodiment of the present disclosure it is possible to reduce the size of the fingerprint sensor unit 104 and avoid deterioration of the authentication performance. Further, according to the present embodiment, a region including a large number of characteristic points is specified for each individual, and the fingertip 600 is guided to a suitable position for each individual based on the specified region, so that a large number of characteristic points are included.
  • the fingerprint pattern 610 of the area can be preferably acquired. As a result, according to the present embodiment, it is possible to authenticate each individual with a small number of trials, and it is possible to avoid a reduction in convenience.
  • FIG. 42 is an explanatory diagram showing an example of the hardware configuration of the information processing apparatus 900 according to the present embodiment.
  • the information processing apparatus 900 shows an example of the hardware configuration of the authentication apparatus 10 described above.
  • the information processing apparatus 900 has, for example, a CPU 950, a ROM 952, a RAM 954, a recording medium 956, an input/output interface 958, and an operation input device 960. Furthermore, the information processing device 900 includes a display device 962, a communication interface 968, and a sensor 980. In addition, the information processing apparatus 900 connects the respective constituent elements via a bus 970 as a data transmission path, for example.
  • the CPU 950 is configured by, for example, one or more processors configured by an arithmetic circuit such as a CPU, various processing circuits, and the like, and a control unit (not shown) that controls the entire information processing apparatus 900 and the above-described processing. It functions as the unit 110.
  • the ROM 952 stores programs used by the CPU 950, control data such as calculation parameters, and the like.
  • the RAM 954 temporarily stores, for example, a program executed by the CPU 950.
  • the ROM 952 and the RAM 954 serve, for example, the function of the storage unit 130 described above.
  • the recording medium 956 functions as the storage unit 130 described above, and stores, for example, data related to the authentication method according to the present embodiment and various data such as various applications.
  • examples of the recording medium 956 include a magnetic recording medium such as a hard disk and a non-volatile memory such as a flash memory.
  • the recording medium 956 may be removable from the information processing device 900.
  • the input/output interface 958 connects, for example, the operation input device 960 and the display device 962.
  • Examples of the input/output interface 958 include a USB (Universal Serial Bus) terminal, a DVI (Digital Visual Interface) terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) terminal, and various processing circuits.
  • the operation input device 960 functions as an operation unit (not shown), is provided in the information processing apparatus 900, and is connected to the input/output interface 958 inside the information processing apparatus 900, for example.
  • Examples of the operation input device 960 include a keyboard, buttons, direction keys, a rotary selector such as a jog dial, a touch panel, and a combination thereof.
  • the display device 962 functions as an information presentation device including the above-described display unit 102, is provided on the information processing device 900, and is connected to the input/output interface 958 inside the information processing device 900, for example.
  • Examples of the display device 962 include a liquid crystal display and an organic EL display (Organic Electro-Luminescence Display).
  • the input/output interface 958 can also be connected to an external device such as an operation input device (for example, keyboard or mouse) external to the information processing apparatus 900 or an external display device.
  • an operation input device for example, keyboard or mouse
  • the communication interface 968 is a communication unit included in the information processing device 900, and is a communication unit (not shown) for performing wireless or wired communication with an external device such as a server via a network (or directly). Function as.
  • the communication interface 968 for example, a communication antenna and an RF (Radio Frequency) circuit (wireless communication), an IEEE802.15.1 port and a transceiver circuit (wireless communication), an IEEE802.11 port and a transceiver circuit (wireless communication). ), or a LAN (Local Area Network) terminal and a transmission/reception circuit (wired communication).
  • RF Radio Frequency
  • the sensor 980 functions as the fingerprint sensor unit 104 described above, and is, for example, a sensor according to any method capable of detecting the fingerprint information of the user.
  • the sensor 980 may include, as the above-described sensor unit 106, one or more sensors such as an acceleration sensor and a gyro sensor. That is, the sensor included in the sensor 980 is not limited to the above example.
  • the hardware configuration of the information processing device 900 is not limited to the configuration shown in FIG.
  • the information processing apparatus 900 does not include the communication interface 968 when communicating with an external apparatus or the like via an external communication device connected to the information processing apparatus 900 or when configured to perform stand-alone processing.
  • the communication interface 968 may have a configuration capable of communicating with one or more external devices by a plurality of communication methods.
  • the information processing apparatus 900 can also be configured without the recording medium 956, the operation input device 960, the display device 962, and the like, for example.
  • the present embodiment is not limited to this.
  • the present embodiment can also be applied to various devices capable of performing the processing related to the information processing method according to the present embodiment, such as a communication device such as a mobile phone.
  • the information processing apparatus 900 according to the present embodiment may be applied to a system including a plurality of devices on the premise of connection to a network (or communication between each device) such as cloud computing. Good. That is, the above-described information processing apparatus 900 according to the present embodiment can also be realized, for example, as an information processing system that performs processing related to the information processing method according to the present embodiment by a plurality of devices.
  • Each component described above may be configured by using a general-purpose member, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed depending on the technical level at the time of implementation.
  • the embodiment of the present disclosure described above may include, for example, a program for causing a computer to function as the information processing apparatus according to the present embodiment, and a non-transitory tangible medium in which the program is recorded. Further, the program may be distributed via a communication line (including wireless communication) such as the Internet.
  • each step in the processing of each of the above-described embodiments does not necessarily have to be processed in the order described.
  • the order of the steps may be appropriately changed and processed.
  • each step may be processed partially in parallel or individually instead of being processed in time series.
  • the processing method of each step does not necessarily have to be processed according to the described method, and may be processed by another method by another functional unit, for example.
  • the effects described in the present specification are merely explanatory or exemplifying ones, and are not limiting. That is, the technique according to the present disclosure can exert other effects that are apparent to those skilled in the art from the description of the present specification, in addition to or instead of the above effects.
  • a determination unit that determines the position of the part of the body for authentication of the user, based on distribution information of the feature points included in the pattern that appears in the part of the user's body, A guide unit that guides a part of the body to the position for authenticating the user based on the determined position; An authentication unit that authenticates the user based on the characteristic information of the pattern obtained by the guidance; An authentication device comprising: (2) The pattern is virtually divided into a plurality of sections, and the apparatus further includes a feature amount calculation unit that calculates a feature amount that is a distribution amount of the feature points in each of the sections.
  • the deciding unit selects a position of a part of the user's body by selecting an authentication section for authenticating the user from the plurality of sections based on the calculated feature amount of each section. decide, The authentication device according to (1) above. (3) Further comprising an index calculation unit that calculates an index for selecting the authentication partition based on the calculated feature quantity of each partition and the feature quantity of each partition adjacent to each partition. The authentication device according to (2) above. (4) Further comprising an index calculation unit that calculates an index for selecting the authentication section by performing a predetermined weighting on the calculated feature amount of each section. The authentication device according to (2) above.
  • the authentication device authenticates the user based on the characteristic information of a part of a fingerprint or a vein that appears on the fingertip of the user.
  • the determination unit based on the distribution information of the feature points contained in the fingerprint or vein, determines the relative position of the tip of the fingertip with respect to the authentication device or the relative height of the fingertip, The guide unit guides the fingertip based on the determined relative position or relative height.
  • the authentication device according to (5) above.
  • the feature amount calculation unit virtually divides the fingerprint or vein appearing at the fingertip of each finger of the user into the plurality of sections, and calculates the feature amount in each section, The determination unit selects the authentication section based on the calculated feature amount of each section of each finger.
  • the authentication device calculates the feature amount in each of the sections by averaging the feature values of the fingerprints or veins that appear at the fingertips of the plurality of fingers of the user, for each section.
  • the authentication device according to (7) above.
  • the authentication device wherein the determination unit selects the finger to be guided for authentication of the user based on the calculated feature amount of each section of each finger.
  • the determination unit selects the authentication section based on the characteristic amount in each section of the identified finger, The authentication device according to (7) above.
  • the authentication device (11) The authentication device according to (4), wherein the index calculation unit changes the predetermined weighting in accordance with the number of times the user has been successfully authenticated based on the characteristic information of the authentication section. (12) Further comprising a context information acquisition unit for acquiring the context information of the user, The authentication device according to (4), wherein the index calculation unit changes the predetermined weighting according to the context information. (13) The context information acquisition unit, A motion sensor that detects the motion of the user, a sound sensor that detects a sound generated around the user, a position sensor that detects the position of the user, a device sensor that detects information about devices used by the user, and a current time.
  • the authentication device Information from at least one of a time sensor that acquires information on a user, a schedule information acquisition unit that acquires schedule information of the user, and a profile information acquisition unit that acquires profile information of the user,
  • the authentication device according to (12) above.
  • the device sensor includes a tilt sensor that senses a tilt of the device held by the user.
  • the guidance display for displaying the relative position of the tip of the fingertip with respect to the pattern sensor as the guidance information has a portion having a form that can be visually recognized by the user when the fingertip of the user is superimposed.
  • the authentication device according to (21), wherein the guide display includes at least one of a cross display, an arrow display, a gradation display, and a partition display. (23) The display position of the guide display is adjusted based on sensing data from an eye sensor that detects the position of the user's eyes or a fingertip sensor that detects the position of the user's fingertip, (21) or ( 22) The authentication device described in 22.
  • Authentication device 100 Touch sensor unit 102 Display unit 104 Fingerprint sensor unit 104a Vein sensor unit 106 Sensor unit 108 Blinking device 110, 110a Processing unit 112 Fingerprint acquisition unit 114 Feature amount calculation unit 116, 116a Score calculation unit 118, 118a selection unit 120 guide unit 122 authentication unit 130 storage unit 150 band unit 200 guide display 202 center line 300 section 400 eye sensor unit 600 fingertip 602 vein pattern 610 fingerprint pattern 620 eyes 900 information processing device 950 CPU 952 ROM 954 RAM 956 recording medium 958 input/output interface 960 operation input device 962 display device 968 communication interface 970 bus 980 sensor a, b, c, d, e, f area

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • Vascular Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)

Abstract

ユーザの身体の一部に現れるパターンに含まれる特徴点の分布情報に基づいて、当該ユーザの認証のための前記身体の一部の位置を決定する決定部(118)と、決定された前記位置に基づき、前記ユーザの認証のために前記身体の一部を前記位置になるように誘導する誘導部(120)と、前記誘導によって得られた前記パターンの特徴情報に基づいて、当該ユーザの認証を行う認証部(122)とを備える、認証装置を提供する。

Description

認証装置、認証方法及びプログラム
 本開示は、認証装置、認証方法及びプログラムに関する。
 個人に特有の情報である、指紋パターン等の生体情報を用いた個人認証は、ネットワーク社会において、個人の権利や資産等を守る為に非常に重要な技術となってきている。特に、電子商取引においては、パスワードの入力の代わりに、生体情報を用いた個人認証を行うことにより、高いセキュリティを確保しつつ、ユーザの利便性を向上させている。このような技術の一例としては、下記特許文献1に開示の技術を挙げることができる。
特開2002-312324号公報
 近年、日常生活のすべてのシチュエーションにおいて上述のような生体情報を用いた個人認証を可能にするために、認証装置の小型化が強く求められている。それに伴い、認証装置に設けられる、生体情報を取得するためのセンサについても、小型化が強く求められている。一方、個人を識別するために用いる生体情報に含まれる特徴点は、身体の特定の箇所の全体に一様に分布しているのではなく、個人ごとに異なる分布を示す。従って、少ない試行回数で各個人を確実に認証しようとするためには、認証装置は、漏れなく特徴点を抽出するように、身体のより広い範囲から生体情報を取得するようにすることが好ましい。
 しかしながら、生体情報を取得するためのセンサを小型化した場合には、身体のより広い範囲から生体情報を取得することが難しくなることから、個人を認証するための特徴点を漏れなく取得することが難しくなる。その結果、少ない試行回数で各個人を確実に認証することが難しくなり、言い換えると、認証装置の認証性能が低下することとなる。そして、場合によっては、認証装置は、上記特徴点を漏れなく取得できるまで、複数回の認証操作をユーザに求めることとなり、ユーザの利便性を低下させることとなる。
 そこで、本開示では、上記事情に鑑みて、センサを小型化しつつ、認証性能の低下を避けることができる、新規且つ改良された認証装置、認証方法及びプログラムを提案する。
 本開示によれば、ユーザの身体の一部に現れるパターンに含まれる特徴点の分布情報に基づいて、当該ユーザの認証のための前記身体の一部の位置を決定する決定部と、決定された前記位置に基づき、前記ユーザの認証のために前記身体の一部を前記位置になるように誘導する誘導部と、前記誘導によって得られた前記パターンの特徴情報に基づいて、当該ユーザの認証を行う認証部とを備える、認証装置が提供される。
 また、本開示によれば、ユーザの身体の一部に現れるパターンに含まれる特徴点の分布情報に基づいて、当該ユーザの認証のための前記身体の一部の位置を決定することと、決定された前記位置に基づき、前記ユーザの認証のために前記身体の一部を前記位置になるように誘導することと、前記誘導によって得られた前記パターンの特徴情報に基づいて、当該ユーザの認証を行うこととを含む、認証方法が提供される。
 さらに、本開示によれば、ユーザの身体の一部に現れるパターンに含まれる特徴点の分布情報に基づいて、当該ユーザの認証のための前記身体の一部の位置を決定する機能と、決定された前記位置に基づき、前記ユーザの認証のために前記身体の一部を前記位置になるように誘導する機能と、前記誘導によって得られた前記パターンの特徴情報に基づいて、当該ユーザの認証を行う機能とをコンピュータに実現させるためのプログラムが提供される。
指紋パターン610について説明する説明図である。 本開示の第1の実施形態に係る認証装置10の形態の一例を示した図である。 同実施形態に係る認証装置10の構成例を示すブロック図である。 同実施形態に係る認証方法のフローチャートを示した図である。 同実施形態に係る指紋パターン610の登録を説明するための説明図である。 同実施形態に係る登録段階のフローチャートを示した図である。 同実施形態に係る登録段階における誘導表示200の一例を説明する説明図(その1)である。 指先600の姿勢の一例を説明する説明図である。 同実施形態に係る登録段階における誘導表示200の一例を説明する説明図(その2)である。 同実施形態に係る登録段階における誘導表示200の一例を説明する説明図(その3)である。 同実施形態に係る登録段階における誘導表示200の一例を説明する説明図(その4)である。 同実施形態に係る登録段階における指紋パターン610の登録の順番の一例を説明する説明図(その1)である。 同実施形態に係る登録段階における指紋パターン610の登録の順番の一例を説明する説明図(その2)である。 同実施形態に係る登録段階における指紋パターン610の登録の順番の一例を説明する説明図(その3)である。 同実施形態に係る登録段階における指紋パターン610の登録の方法の一例を説明する説明図(その1)である。 同実施形態に係る登録段階における指紋パターン610の登録の方法の一例を説明する説明図(その2)である。 同実施形態に係る登録段階における指紋パターン610の区画300の一例を説明する説明図(その1)である。 同実施形態に係る登録段階における指紋パターン610の区画300の一例を説明する説明図(その2)である。 同実施形態に係る登録段階における指紋パターン610の区画300の一例を説明する説明図(その3)である。 同実施形態に係る登録段階における指紋パターン610の区画300の一例を説明する説明図(その4)である。 同実施形態に係る登録段階における指紋パターン610の区画300の一例を説明する説明図(その5)である。 同実施形態に係る登録段階における指紋パターン610の区画300の一例を説明する説明図(その6)である。 同実施形態に係る登録段階における指紋パターン610の区画300の一例を説明する説明図(その7)である。 同実施形態に係るスコアの算出方法について説明する説明図である。 同実施形態に係るスコアの一例について説明する説明図である。 同実施形態に係る認証段階のフローチャートを示した図である。 同実施形態に係る指紋テンプレートの更新段階のフローチャートを示した図である。 同実施形態の変形例を説明するための説明図(その1)である。 同実施形態の変形例を説明するための説明図(その2)である。 本開示の第2の実施形態に係る認証装置10aの構成例を示すブロック図である。 同実施形態に係る認証方法のフローチャートを示した図である。 本開示の第3の実施形態に係る誘導表示200の一例について説明するための説明図(その1)である。 同実施形態に係る誘導表示200の一例について説明するための説明図(その2)である。 同実施形態に係る誘導表示200の一例について説明するための説明図(その3)である。 同実施形態に係る誘導表示200の一例について説明するための説明図(その4)である。 同実施形態に係る誘導表示200の一例について説明するための説明図(その5)である。 同実施形態に係る誘導表示200の一例について説明するための説明図(その6)である。 同実施形態に係る誘導表示200の一例について説明するための説明図(その7)である。 同実施形態に係る誘導表示200の一例について説明するための説明図(その8)である。 同実施形態に係る誘導表示200の表示方法の一例について説明するための説明図(その1)である。 同実施形態に係る誘導表示200の表示方法の一例について説明するための説明図(その2)である。 本開示の実施形態に係る情報処理装置900のハードウェア構成の一例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 なお、以下の説明においては、後述する本開示の実施形態に係る認証装置を用いて個人認証を行う者をユーザと呼ぶ。
 また、以下の説明においては、ユーザの身体の一部に現れるパターンとは、例えば、ユーザの指先に現れる指紋パターンや、ユーザの足裏の皮膚に現れるパターンや、ユーザの身体の様々な箇所(指先、顔等)の静脈パターンのことを意味する。さらに、指紋パターンとは、指の第1関節より先端側(指先)内側の皮膚の表面にある汗腺の開口部が隆起した線(隆線)により形作られる紋様のことをいう。静脈パターンとは、身体の先端部等から心臓に血液を戻す血管により形作られる紋様のことをいう。また、以下の説明においては、パターンの特徴点情報又はパターンの一部の特徴情報とは、上記パターンの紋様自体の情報や、当該パターンに含まれる特徴点の情報を含む情報のことを意味する。
 さらに、以下の説明においては、特徴点とは、上記パターンを特徴づける要素のことをいう。例えば、指紋パターンにおける特徴点とは、指紋パターンの紋様の中心点、隆線の分岐点、交差点及び端点(マニューシャと呼ばれる)についての、形状、向き及び位置(相対座標)等の属性情報のことをいう。さらに、上記特徴点とは、隆線の形状、向き、幅、間隔、分布密度等の属性情報であってもよい。また、以下の説明においては、上記特徴点の分布、すなわち、特徴点の数や分布密度(分布情報)のことを特徴量と呼ぶ。
 また、以下の説明において、コンテクスト情報とは、認証を行うユーザの状況、状態及び背景に関する情報のことを意味する。具体的には、コンテクスト情報は、ユーザの性別 、年齢等のプロファイル情報(属性情報)を含んでもよく、ユーザの位置を示す情報(世界座標系における位置座標、相対座標系における位置座標、自宅、スーパーマーケット、電車又は病院等の場所の情報等)を含んでもよい。また、コンテクスト情報は、ユーザの存在する環境を示す情報を含んでもよく、例えば、環境音、気温、天気、湿度等の情報が挙げられる。また、コンテクスト情報は、ユーザの行動を示す情報を含んでもよい。ユーザの行動を示す情報としては、運動動作の情報や、スケジュール情報等を挙げることができる。さらに、コンテクスト情報は、ユーザが使用する機器(例えば、スマートフォン等)の保持の姿勢の情報や、起動されているアプリケーションの情報や、起動状態の情報等を含んでもよい。
 なお、説明は以下の順序で行うものとする。
 1.本開示の実施形態を創作するに至るまでの背景
 2.第1の実施形態
   2.1 認証装置10の形態
   2.2 認証装置10の詳細構成
   2.3 認証方法
   2.4 変形例
 3.第2の実施形態
   3.1 認証装置10aの詳細構成
   3.2 選択方法
   3.3 認証方法
 4.第3の実施形態
 5.用途
 6.まとめ
 7.ハードウェア構成について
 8.補足
 <<1.本開示の実施形態を創作するに至るまでの背景>>
 まずは、本開示の実施形態の詳細を説明する前に、本発明者らが本開示の実施形態を創作するに至る背景について、図1を参照して説明する。図1は、指紋パターンについて説明する説明図である。
 先に説明したように、個人認証は、ネットワーク社会において個人の権利や資産等を守る為に非常に重要な技術となってきており、指紋パターン等の生体情報は、個人ごとに異なる特徴を持っていることから、上述のような個人認証に用いられることができる。
 例えば、指紋パターンを用いた認証を説明すると、各個人の指紋パターンは、紋様の中心点、隆線の分岐点、交差点及び端点についての、形状、向き及び位置(相対座標)等の属性情報の特徴点の情報によって、その特徴を捉えることができる。従って、指紋パターンを用いて認証を行う場合、認証装置は、当該個人に特有の指紋パターンを特徴づける特徴点の情報を利用して認証を行うこととなる。従って、少ない試行回数で個人を確実に認証しようとするためには、認証装置は、漏れなく特徴点を抽出するように広い範囲の指紋パターンを取得するようにすることが好ましい。
 ところで、先に説明したように、近年、指紋パターンを取得するためのセンサに対して、小型化が強く求められている。しかしながら、指紋パターンを取得するためのセンサを小型化した場合には、広い範囲の指紋パターンを取得することが難しくなる。その結果、少ない試行回数で各個人を確実に認証することが難しくなり、言い換えると、認証装置の認証性能が低下することとなる。
 このような状況において、本発明者らは、センサを小型化しつつ、認証性能の低下を避けることができる認証装置について鋭意検討を重ねていた。そして、本発明者らは、このような検討を進める中、指紋パターンに含まれる特徴点は、指先の内側表面の全体に一様に分布しているのではなく、個人ごとに異なる分布を示すことに独自に着眼した。そして、上記着眼に基づき、本発明者らは、指紋パターンを特徴づける特徴点の情報を利用して認証を行う認証装置においては、特徴点が多数含まれる領域の指紋パターンを取得することができれば、各個人を認証することができるのではないかと考えたのである。
 詳細には、各個人の指紋パターンは、紋様の中心点、隆線の分岐点、交差点及び端点についての、形状、向き及び位置(相対座標)等の属性情報である特徴点の情報によって、その特徴を捉えることができる。そこで、本発明者らは、指紋パターンの全体に分布する全ての特徴点を用いて個人に特有の指紋パターンの特徴を捉える代わりに、一定水準以上の数の特徴点を用いることにより個人に特有の指紋パターンを捉えることができるのではないかと独自に考えたのである。このような本発明者らの着想によれば、指紋パターンの全体ではなく、特徴点が多数含まれる領域の指紋パターンを取得すればよいことから、センサを小型化しつつ、認証性能の低下を避けることができる認証装置を実現することができる。
 具体的には、当該特徴点は各個人によってその分布が異なる。例えば、図1に示すように、指先600の指紋パターン610を、指先600の内側表面の中心に位置する領域a、当該領域aの周囲に位置する領域b、及び、指先600の内側表面の外側に位置する領域cに分けた場合を考える。そして、個人Aにおいては、領域aには、上記特徴点が多数含まれており、領域b及び領域cには、少ない上記特徴点しか含まれていないものとする。一方、個人Bにおいては、領域bには、上記特徴点が多数含まれており、領域a及び領域cには、少ない上記特徴点しか含まれていないものとする。
 そして、本発明者らは、上述のような場合、個人Aを認証するためには、特徴点が多く含まれる領域aの指紋パターン610を取得すれば、個人Aを認証できるのではないかと考えたのである。さらに、本発明者らは、個人Bを認証するためには、特徴点が多く含まれる領域bの指紋パターン610を取得することができれば、個人Bを認証できるのではないかと考えたのである。
 しかしながら、上述した例からも明らかなように、個人毎に、特徴点が多数含まれる領域が異なる。従って、認証装置は、毎回の認証の際に、特徴点が多数含まれる領域の指紋パターン610を好適に取得するようにしなくてはならない。例えば、好適に取得できない場合には、認証装置は、特徴点が多数含まれる領域の指紋パターン610を取得できるまで、複数回の認証操作をユーザに求めることとなり、ユーザの利便性を低下させることにつながる。さらに、特徴点が多数含まれる領域は、ユーザ毎に異なるだけでなく、指ごと、時期ごと(例えば、指先600の怪我等によって特徴点を有する指紋パターン610を取得できない等)に異なることがある。
 そこで、本発明者らは、動的に変化する可能性がある特徴点が多数含まれる領域を個人毎に特定し、特定した領域の指紋パターン610を取得することができるように、個人毎に指先600を好適な位置に誘導する本開示の実施形態に係る認証装置を創作するに至った。すなわち、本開示の実施形態に係る認証装置によれば、センサを小型化しつつ、認証性能の低下を避けることができる。さらに、当該認証装置によれば、特徴点が多数含まれる領域を個人毎に特定し、特定した領域に基づいて個人毎に指先600を好適な位置に誘導することから、特徴点が多数含まれる領域の指紋パターン610を好適に取得することができる。その結果、当該認証装置によれば、少ない試行回数で各個人を認証することができ、利便性を低下させることを避けることができる。以下に、本発明者らが創作した本開示の実施形態の詳細を説明する。
 <<2.第1の実施形態>>
 <2.1 認証装置10の形態>
 まずは、本開示の第1の実施形態に係る認証装置10の形態の例について、図2を参照して説明する。図2は、本実施形態に係る認証装置10の形態の一例を示した図である。本実施形態に係る認証装置10は、例えば、ユーザの身体に装着して用いられるウェアラブル端末としての形態を有することができる。例えば、認証装置10は、腕時計型、指輪型、首輪型、イヤーフォン型等の形状を有し、手首や腕、首、耳等の被測定者の部位に装着可能な装置であってもよい。また、認証装置10は、絆創膏型のようなパッド形状を有し、手や腕、首、脚等のユーザの身体の一部に貼付可能な装置であってもよい。
 例えば、図2に示すように、認証装置10は、ベルト状のリストバンドを持つ腕時計型の形態を有することができる。詳細には、当該認証装置10は、ベルト状のバンド部150と、バンド部150の外周の一部に設けられた表示部102と、表示部102の周囲に設けられたタッチセンサ部100とを有する。さらに、当該認証装置10は、表示部102の一部と重畳するように設けられた指紋センサ部(パターンセンサ)104を有することができる。加えて、図示を省略するものの、バンド部150の内部には、認証装置10の動作を制御する制御部(図示省略)が設けられていてもよい。なお、これら認証装置10の機能部の詳細については後述する。
 さらに、本実施形態においては、認証装置10は、図2に示すようなウェアラブル端末であることに限定されるものではなく、ユーザが携帯するスマートフォン、携帯電話、ノート型PC(Personal Computer)、ラップトップ型PC、カメラ等の携帯端末であってもよい。もしくは、本実施形態においては、認証装置10は、デスクトップ型PC、ゲートやドアに設置されたセキュリティ装置、各種医療用装置、サプリメント、化粧品等を提供するサーバ装置等の据え置き型端末であってもよい。
 <2.2 認証装置10の詳細構成>
 以上、本実施形態に係る認証装置10の形態について説明した。次に、図3を参照して、本実施形態に係る認証装置10の詳細構成の一例について説明する。図3は、本実施形態に係る認証装置10の構成例を示すブロック図である。図3に示すように、認証装置10は、タッチセンサ部100と、表示部102と、指紋センサ部104と、処理部110と、記憶部130とを主に有する。以下に、認証装置10の有する各機能部について説明する。
 (タッチセンサ部100)
 タッチセンサ部100は、例えば、後述する表示部102の周囲に設けられ、表示部102と重畳して設けられた指紋センサ部104のセンシング面(図示省略)に対して、ユーザの指先(ユーザの身体の一部)600が適切に接触しているかどうかといった接触状態をセンシングする。例えば、タッチセンサ部100は、指先600からの圧力を検出する圧力センサ等であることができる。
 (表示部102)
 表示部102は、後述する処理部110の誘導部120によって制御されることにより、ユーザの指先600を指紋認証のために適切な位置に誘導するための誘導情報を表示する。表示部102は、例えば、液晶ディスプレイ(Liquid Crystal Display;LCD)装置、OLED(Organic Light Emitting Diode)装置等の表示装置からなる。なお、表示部102の表面は、どの位置にユーザの指先600が接触しても、当該指先600に不快感を与えることを避けるために、凹凸の少ない滑らかな表面であることが好ましい。また、表示部102の表面は、当該指先600との接触具合を良くするために、柔軟な材料を用いて形成してもよい。
 (指紋センサ部104)
 指紋センサ部104は、特徴情報として指紋パターン610の一部を取得することができる。本実施形態においては、例えば、指紋センサ部104のセンシング面(図示省略)の広さは、指先600の表面の広さに比べて狭くてもよい。また、本実施形態においては、上記センシング面は、矩形状の形状を持ち、当該センシング面の長軸方向の幅は、ユーザの指先600の幅に比べて狭くてもよい。従って、本実施形態においては、指紋センサ部104を小型化することができることから、指紋センサ部104が搭載される認証装置10を小型化することができる。
 本実施形態においては、指紋センサ部104は、例えば、指先600をセンシング面に置いたときに生じるセンシング面上の各点の静電容量を感知して指紋パターン610を取得する静電容量検出型指紋センサであることができる。当該静電容量検出型指紋センサは、上記センシング面に微小電極をマトリックス状に配置し、微小電流を流すことにより、微小電極と指先600との間に生じる静電容量に現れる電位差を検出することにより、指紋パターン610を検出することができる。
 また、本実施形態においては、指紋センサ部104は、例えば、指先600をセンシング面に置いたときに生じるセンシング面上の各点の圧力を感知して指紋パターン610を取得する圧力検出型指紋センサであってもよい。当該圧力検出型指紋センサにおいては、例えば、上記センシング面に圧力により抵抗値が変化する微小半導体センサがマトリックス状に配置されている。
 また、本実施形態においては、指紋センサ部104は、例えば、指先600をセンシング面に置いたときに生じる温度差を感知して指紋パターン610を取得する感熱型指紋センサであってもよい。当該感熱型指紋センサにおいては、例えば、上記センシング面に温度により抵抗値が変化する微小温度センサがマトリックス状に配置されている。
 さらに、本実施形態においては、指紋センサ部104は、例えば、指先600をセンシング面に置いたときに生じる反射光を検知して指紋パターン610の撮像画像を取得する光学型指紋センサであってもよい。光学型指紋センサにおいては、例えば、レンズアレイの一例であるマイクロレンズアレイ(Micro Lens Array:MLA)と、光電変換素子とを有する。すなわち、当該光学型指紋センサは、撮像装置の1種であるといえる。
 さらに、本実施形態においては、指紋センサ部104は、例えば、超音波を放射し、指先600の皮膚表面の凹凸で反射する超音波を検知して指紋パターン610を取得する超音波型指紋センサであってもよい。
 なお、指紋センサ部104と上述した表示部102とは、重畳して、又は、認証装置10の表面上で隣り合うように設けられることが好ましい。
 (処理部110)
 処理部110は、指紋センサ部104と連携して指紋によりユーザの認証を行ったり、指紋認証のためにユーザの指先600を適切な位置に誘導したりすることができる。処理部110は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により実現される。詳細には、図3に示すように、処理部110は、指紋取得部112と、特徴量算出部114と、スコア算出部(指標算出部)116、選択部(決定部)118と、誘導部120と、認証部122とを主に有する。以下に、処理部110の有する各機能ブロックについて説明する。
 ~指紋取得部112~
 指紋取得部112は、上述した指紋センサ部104からユーザの指紋パターン610を取得して、後述する特徴量算出部114や認証部122に出力する。さらに、指紋取得部112は、取得したユーザの指紋パターン610の情報を、後述する記憶部130に出力してもよい。なお、指紋取得部112は、取得した指紋パターン610に対して、所定の処理を行い、指紋パターン610の強調やノイズの除去等を行ってもよい。より具体的には、指紋取得部112は、例えば、移動平均フィルタ、差分フィルタ、メディアンフィルタ又はガウシアンフィルタ等の平滑化及びノイズ除去のための各種フィルタを用いることができる。さらに、指紋取得部112は、例えば、二値化および細線化のための各種のアルゴリズムを用いてもよい。
 ~特徴量算出部114~
 特徴量算出部114は、ユーザの1つの指又は各指の指紋パターン610を仮想的に複数の区画に分割し(図5 参照)、各指の各区画における指紋パターン610の特徴量を算出する。また、特徴量算出部114は、区画ごとに、ユーザの複数の指の特徴量を平均化することにより、各区画における特徴量を算出してもよい。なお、特徴量算出部114による指紋パターン610の分割の詳細については後述する。
 ~スコア算出部116~
 スコア算出部116は、上述した特徴量算出部114により算出された各区画の特徴量に対して所定の重みづけを行うことで、複数の区画からユーザの認証のための認証用区画を選択するための各区画のスコア(指標)を算出する。また、スコア算出部116は、算出された各区画の特徴量と、各区画に隣接する区画の特徴量とに基づいて、上記スコアを算出してもよい。さらに、スコア算出部116は、後述する選択部118により選択された認証用区画の指紋パターン610によりユーザの認証が成功した成功回数に基づいて、上記所定の重みづけを変化させてもよい。すなわち、本実施形態においては、上記重みづけの決定の方法については特に限定されるものではない。なお、スコアの算出方法の詳細については後述する。
 ~選択部118~
 選択部118は、上述した各区画の特徴量から算出したスコアに基づいて、当該ユーザの認証のための指先600の位置を決定することができる。詳細には、選択部118は、上記スコアに基づいて、複数の区画からユーザの認証のための認証用区画を選択することにより、指紋センサ部104に対する指先600の先端の相対的な位置を決定することができる。また、ユーザの複数の指における複数の区画のスコアが算出されていた場合には、選択部118は、上記スコアに基づいて、ユーザの認証のために誘導する指及び当該指における認証用区画を選択してもよい。さらに、選択部118は、認証装置10が、認証の際にユーザが使用する指を特定する指特定部(図示省略)を有する場合には、特定された指の各区画におけるスコアに基づいて、認証用区画を選択してもよい。
 ~誘導部120~
 誘導部120は、選択部118が決定した指先600の位置になるように、すなわち、上述した選択部118により決定された認証用区画の指紋パターン610を指紋センサ部104が取得することができるように、ユーザの指先600を誘導することができる。例えば、誘導部120は、上述した表示部102を制御して、誘導情報として、指紋センサ部104に対する指先600の先端の相対的な位置を表示することができる。
 ~認証部122~
 認証部122は、上述の誘導部120の誘導によって得られたユーザの指先600に現れる指紋パターン610の一部の特徴情報に基づいて、当該ユーザの認証を行うことができる。例えば、認証部122は、上述した指紋取得部112から出力された指紋パターン610の一部と、予め記憶部130等に格納されている指紋パターン610の指紋テンプレートと照合することにより、ユーザの認証を行うことができる(パターンマッチング方式)。また、例えば、認証部122は、上述した指紋取得部112から出力された指紋パターン610の一部から抽出された特徴点と、予め記憶部130等に記録されている指紋パターン610の特徴点と照合することにより、ユーザの認証を行うこともできる(特徴点方式)。例えば、認証部122は、指紋パターン610を短冊状にスライスし、スライスしたパターンごとに紋様をスペクトル解析し、予め記憶部130等に格納されている指紋パターン610のスペクトル解析結果を用いて照合することにより、認証を行うこともできる(周波数解析方式)。
 (記憶部130)
 記憶部130は、RAM(Random Access Memory)やストレージ装置等により実現され、処理部110における処理に用いられるプログラムや各種データが格納される。詳細には、記憶部130は、認証部122で用いられるプログラムや各種データ(例えば、上述した指紋テンプレートや特徴点の情報等)、さらに、スコア算出部116で算出されたスコア等が格納される。また、記憶部130には、これらのデータ以外にも、何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等を適宜格納してもよい。そして、当該記憶部130に対しては、処理部110等が、自由にアクセスし、例えば、認証が成功した場合には指紋テンプレートや特徴点の情報等を更新したりと、データを書き込んだり読み出したりすることができる。
 また、本実施形態においては、認証装置10は、例えば、スピーカ等の音声出力装置(図示省略)を含んでいてもよく、点滅等することにより所定の情報をユーザに通知する点灯装置(図示省略)等を含んでいてもよく、図3に図示されない機能部を有していてもよい。
 また、図3においては、認証装置10は、指紋センサ部104等と、処理部110等とが一体となった構成となっているが、本実施形態においては、これに限定されるものではない。例えば、当該認証装置10は、タッチセンサ部100と、表示部102と、指紋センサ部104とを含む一体と装置として構成され、上記処理部110及び記憶部130は、別体のものとして構成され、互いに無線通信等によって接続されてもよい。
 <2.3 認証方法>
 (全体概要)
 以上、本実施形態に係る認証装置10の詳細構成について説明した。次に、図4を参照して、本実施形態に係る認証方法の概要について説明する。図4は、本実施形態に係る認証方法のフローチャートを示した図である。図4に示すように、本実施形態に係る認証方法には、ステップS100からステップS400までが含まれる。以下に、本実施形態に係る認証方法の各ステップを説明する。
 ~ステップS100~
 まず、本実施形態においては、認証装置10には、認証に用いる指紋テンプレートとして、ユーザの指紋パターン610が予め登録される。この際、本実施形態においては、認証装置10は、1つの指の指紋パターン610を登録されてもよく、複数の指の指紋パターン610を登録されてもよく、または、両手の夫々の複数の指の指紋パターン610を登録されてもよく、特に限定されるものではない。
 ~ステップS200~
 次に、認証装置10は、上記ステップS100で登録された当該指紋パターン610を仮想的に複数の区画に分割し、各区画における指紋パターン610の特徴点を抽出し、抽出した特徴点の分布量である特徴量を区画毎に算出する。さらに、認証装置10は、算出した特徴量に基づいて、各区画のスコアを算出する。算出されたスコアは、特徴点が多数含まれる区画300を個人毎に選択する際に用いられることとなる。なお、指紋パターン610の分割の方法や、スコアの算出の方法の詳細については、後述する。
 ~ステップS300~
 そして、認証装置10は、上記ステップS200で算出したスコアに基づき、ユーザの認証のための認証用区画を選択する。
 ~ステップS400~
 さらに、認証装置10は、上記ステップS300で決定した認証用区画に基づいて、認証用区画の指紋パターン610を指紋センサ部104が取得することができるように、ユーザの指先600を誘導する。本実施形態においては、個人毎に選択された認証用区画に基づいて、ユーザの指先600を誘導することから、特徴点が多数含まれる領域の指紋パターン610を好適に取得することができる。そして、認証装置10は、ユーザの認証を実施する。
 以下に、上述した各ステップの詳細についてさらに説明する。
 (登録段階)
 まずは、図4のステップS100に対応する登録段階の詳細について、図5から図23を参照して、説明する。図5は、本実施形態に係る指紋パターン610の登録を説明するための説明図であり、図6は、本実施形態に係る登録段階のフローチャートを示した図である。また、図7及び図9から図11は、本実施形態に係る登録段階における誘導表示200の一例を説明する説明図である。図8は、指先600の姿勢の一例を説明する説明図である。図12から図14は、本実施形態に係る登録段階における指紋パターン610の登録の順番の一例を説明する説明図である。図15及び図16は、本実施形態に係る登録段階における指紋パターン610の登録の方法の一例を説明する説明図である。さらに、図17から図23は、本実施形態に係る登録段階における指紋パターン610の区画300の一例を説明する説明図である。
 まずは、図5に示すように、本実施形態に係る登録段階においては、指紋センサ部104のセンシング面(図示省略)が狭いため、ユーザの指先の指紋パターン610を分割して取得する。例えば、認証装置10は、指紋テンプレートして登録されるユーザの指先600の指紋パターン610を、3列(図5中上下方向に沿って延伸する列)及び7行(図5中左右方向に沿って延伸する行)からなる21個の区画300ごとに取得する。その際、本実施形態においては、ユーザが接触させるべき指先600の先端の位置や指先600の中央位置を示す誘導表示200(図7 参照)を動的に表示することにより、ユーザの指先600を誘導し、指紋パターン610を登録する。なお、本実施形態においては、登録を実施する前に、登録の手順をスマートフォン等の端末に表示することにより、ユーザに当該手順を理解させることが好ましい。
 本実施形態に係る登録段階のフローについて、図6、図7及び図8を参照して説明する。図6に示すように、本実施形態に係る登録段階には、ステップS101からステップS117までが含まれる。以下に、登録段階の各ステップを説明する。
 まずは、本実施形態においては、登録段階を開始する際に、ユーザを特定するための特定情報(ID(identification)番号等)がユーザによって、認証装置10に入力される。さらに、ユーザによって、登録しようとする手及び指の種別(右手なのか、左手なのか、人差し指なのか等)に関する特定情報が入力される。
 ~ステップS101~
 認証装置10は、ユーザに向けて誘導表示200を表示することにより、ユーザの指先を所定の位置に誘導し、指紋パターン610のうちの1つの区画300の登録を開始する。例えば、図7に示すように、認証装置10は、表示部102に、指先の先端位置を示す誘導表示200と、指先の中央位置を示す中央線202とを表示する。ユーザは、誘導表示200と重畳し、且つ、自身の指先の中央が当該中央線202と重畳するようにすることにより、自身の指先600を指紋センサ部104に適切に接触させることができる。そして、誘導表示200によってユーザの指先600を誘導することにより、認証装置10は、指紋センサ部104のセンシング面(図示省略)と接触した指先600の表面の指紋パターン610を取得することができる。すなわち、本実施形態においては、誘導表示200によって誘導されることにより、指紋センサ部104のセンシング面(図示省略)が小さい場合であっても、所望する区画300の指紋パターン610を取得することができる。そして、認証装置10は、例えば所定の時間が経過した後に、ステップS103の処理へ進む。
 ~ステップS103~
 認証装置10は、タッチセンサ部100によるセンシングデータに基づき、ユーザの指先600が適切に指紋センサ部104のセンシング面(図示省略)に接触しているか、すなわち、指先の姿勢が適切であるかを判断する。例えば、図8に示すように、指先600の先端部分が表示部102と重畳している場合であっても、指紋パターン610を含む指先600の内側の表面が指紋センサ部104のセンシング面に接触していない場合には、適切に指紋パターン610を取得することができない。そこで、本実施形態においては、タッチセンサ部100でのセンシングデータに基づいて、ユーザの指先600の内側の表面が適切に指紋センサ部104のセンシング面に接触しているか判断する。そして、認証装置10は、適切に接触していると判断した場合には、ステップS107の処理へ進み、適切に接触していないと判断した場合には、ステップS105の処理へ進む。
 ~ステップS105~
 認証装置10は、例えば「指先を倒してください」等の表示や音声を出力することにより、ユーザの指先600の姿勢を適切に誘導する。そして、認証装置10は、上述したステップS101の処理へ戻る。
 ~ステップS107~
 認証装置10は、指紋センサ部104から所定の区画300の指紋パターン610を取得する。そして、認証装置10はステップS109の処理へ進む。
 ~ステップS109~
 認証装置10は、上述のステップS107で所定の区画300の指紋パターン610が取得できたかどうかを判断する。認証装置10は、指紋パターン610が取得できたと判断した場合には、ステップS111の処理へ進む。一方、認証装置10は、指紋パターン610が取得できなかったと判断した場合には、ステップS115の処理へ進む。
 ~ステップS111~
 認証装置10は、上述のステップS107で取得した指紋パターン610から特徴点を抽出する。そして、認証装置10はステップS113の処理へ進む。
 ~ステップS113~
 認証装置10は、全ての区画300の指紋パターン610を取得し、特徴点の抽出が完了したか、すなわち、全ての区画300の指紋パターン610の登録が終わったかどうかを判断する。認証装置10は、全ての区画300の指紋パターン610の登録が終わったと判断した場合には、登録段階のフローを終了する。一方、認証装置10は、全ての区画300の指紋パターン610の登録が終わっていないと判断した場合には、次の区画300の指紋パターン610の登録を行うため上述したステップS101へ戻る。そして、認証装置10は、全ての区画300の指紋パターン610の登録が終わるまで、図6のフローを繰り返すこととなる。
 ~ステップS115~
 認証装置10は、所定の区画300の指紋パターン610の取得が3回以上行われたかどうかを判断する。認証装置10は、所定の区画300の指紋パターン610の取得が3回以上行われていないと判断した場合には、再度、所定の区画300の指紋パターン610の取得を行うために、上述したステップS101へ戻る。一方、認証装置10は、所定の区画300の指紋パターン610の取得が3回以上行われていると判断した場合には、ユーザが登録しようとしている指が登録にあたって適切でないと判断されることから、別の指における登録を誘導するためステップS117の処理へ進む。
 ~ステップS117~
 認証装置10は、例えば、「中指に変更してください」等の表示や音声を出力することにより、ユーザが登録しようとする指を別の指にするように誘導する。そして、認証装置10は、上述したステップS101の処理へ戻る。
 より具体的には、図5に示すような21個の区画300の指紋パターン610を登録しようとする場合には、認証装置10は、例えば、図9に示すような21個の誘導表示200を表示部102に表示することとなる。例えば、認証装置10は、ユーザが重畳すべき指先600の位置を示す誘導表示200を指紋センサ部104に対して少しずつずらして表示することにより、21個の区画300の指紋パターン610を取得できるように、ユーザを誘導することができる(例えば、図9では、各区画300の位置をアルファベットと数字の組み合わせで表示しており、当該位置は、図5に示される区画300に対応するものとする)。本実施形態においては、このような誘導を繰り返し、さらには、各区画300の指紋パターン610の登録を繰り返すことにより、認証で用いる指紋テンプレートを取得することができる。さらに、取得した指紋テンプレートは、予め入力されたユーザを特定するための特定情報や手指を特定するための特定情報と紐づけられて、記憶部130に格納される。
 なお、本実施形態においては、図5に示すような互いに重なりのない区画300ごとの指紋パターン610を登録するようにしてもよく、もしくは、互いに一部が重なるような区画300ごとの指紋パターン610を登録するようにしてもよい。区画300の一部を互いに重なるようにすることで、指紋パターン610の登録の漏れを防ぐことができる。さらに、指紋センサ部104のセンシング面(図示省略)の外周領域が、その中央領域に比べて指紋パターン610の取得性能が悪い場合には、上述したように区画300の一部を互いに重なるようにすることで、取得する指紋パターンの品質をより向上させることができる。
 また、本実施形態においては、表示部102の表示面がより小さい場合には、図5に示すような21個の区画300の指紋パターン610を登録しようとする場合には、例えば、図10及び図11に示すような21個の誘導表示200を表示部102に表示してもよい。なお、図10及び図11においても、図9と同様に、各区画300の位置をアルファベットと数字の組み合わせで表示しており、当該位置は、図5に示される区画300に対応するものとする。
 例えば、図10に示す例においては、表示部102と指紋センサ部104とは、重畳して設けられている。さらに、当該例においては、表示部102の表示面は矩形状の形状を持ち、当該表示面の短手方向の幅は、ユーザの指先600の幅に比べて狭くてもよい。従って、当該例においては、表示部102の表示面を狭くすることができることから、表示部102が搭載される認証装置10をより小型化することが可能となる。
 例えば、図11に示す例においては、認証装置10の表面上で、表示部102と指紋センサ部104とは隣り合うようにして設けられる。さらに、当該例においては、図10の例と同様に、表示部102の表示面は矩形状の形状を持ち、当該表示面の短手方向の幅は、ユーザの指先600の幅に比べて狭くてもよい。従って、当該例においても、表示部102の表示面を狭くすることができることから、表示部102が搭載される認証装置10をより小型化することが可能となる。なお、当該例においては、指紋センサ部104の位置をユーザが視認できるように、指紋センサ部104の四隅にLED(Light Emitting Diode)等からなる点滅装置108を設けることが好ましい。当該点滅装置108が点灯することにより、ユーザは指紋センサ部104の位置を容易に認識することができる。
 また、本実施形態においては、区画300の登録の順番についても、様々な順番を選択することができる。例えば、図12に示すように、認証装置10は、図12に示される数字の順番で各区画300の指紋パターン610を登録してもよい。詳細には、図12の例では、中央の列(図5のA列)の区画300の指紋パターン610を上から下に向かって登録し、次に、左側の列(図5のB列)の区画300の指紋パターン610を上から下に向かって登録し、最後に、右側の列(図5のC列)の区画300の指紋パターン610を上から下に向かって登録する。
 また、図13に示す例では、認証装置10は、中央の区画300(図5のA列4行目の区画300)から開始して、時計回りに中央領域eの9つの区画300を登録する。具体的には、認証装置10は、図5のA列4行目の区画300、A列3行目の区画300、C列3行目の区画300といった順で、B列3行目の区画300まで登録する。さらに、認証装置10は、図13の例では、上段領域dの6つの区画300を、左下の区画300(図5のB列2行目の区画300)から左上の区画300(図5のB列1行目の区画300)まで登録する。そして、図13の例では、認証装置10は、下段領域fの6つの区画300を、左上の区画300(図5のB列6行目の区画300)から左下の区画300(図5のB列7行目の区画300)まで登録する。なお、図13においても、図中の数字の順番で各区画300の指紋パターン610が登録されるものとする。
 さらに、図14に示す例では、図13の例と比べて、中央領域eでの順番が異なる。詳細には、図14の例では、認証装置10は、中央の列(図5のA列)の区画300の指紋パターン610を図14中の上から下に向かって登録し、次に、左側の列(図5のB列)の区画300の指紋パターン610を図14中の上から下に向かって登録する。そして、図14の例では、認証装置10は、右側の列(図5のC列)の区画300の指紋パターン610を図14中の上から下に向かって登録する。なお、図14においても、図中の数字の順番で各区画300の指紋パターン610が登録されるものとする。
 また、これまで説明したように21個の区画300の指紋パターン610を1つずつ登録操作することはユーザには負担をかけることとなる。そこで、本実施形態においては、図15の右側に示すように、指紋パターン610の全体を4列9行の区画300に仮想的に分割する。そして、図15の左側に示すように、上から下へ並ぶ3つの区画300分の指紋パターン610を、例えば、指先600を上(図中のStartの位置)から下(図中のEndの位置)へスライドさせることにより一度で登録してもよい。このようにすることで、登録操作の回数を減らすことができることから、ユーザの登録における負担を低減することができる。
 また、図16に示す例では、Phase1で、一度全ての区画300の指紋パターン610を登録した後に、もっとも特徴点が多い区画300を選択し、選択した区画300(例えば、図16の右側に示すように、A列5行目の区画300)については、Phase2で、もう一度指紋パターン610を登録するようにしてもよい。
 また、図17から図23に示すように、登録する区画300の数を減らしてもよく、また、登録する区画300の間隔も均等でなくてもよく、登録する区画300が隣り合う区画の位置と左右又は上下の位置がずれていてもよい。なお、本実施形態においては、登録する区画300の数を減らす等を行う場合には、特徴点が多く含まれる領域が含まれるように、例えば、指先600の中央部分を含むように設定することが好ましい。本実施形態においては、登録する区画300の数を減らすことにより、この後に、実施するスコアの算出における処理負担の増加を抑え、記憶部130が格納する情報量の増加を抑えることができる。なお、図17から図23においては、各区画300の位置を特定するための数字及びアルファベットも表記されている。
 さらに、本実施形態においては、区画300も、指先の延伸する方向に対して平行及び垂直方向に並ぶように配置されることに限定されるものではなく、例えば、指先の延伸する方向に対して斜めに並んでいてもよい。
 なお、本実施形態においては、認証装置10は、登録時に取得した指紋パターン610から所定の水準以上(例えば、所定の数以上)の特徴点が抽出できなった場合には、再度の登録をユーザに要求することが好ましい。その際には、上述のように登録する区画300の数を減らしていた場合には、登録すべき指紋パターン610の範囲を最初の登録時から広げる、すなわち、登録する区画300の数を最初の登録時から増やしてもよい。さらには、より特徴点が多く抽出できるように、誘導する指先600の方向も、最初の登録時と異なる向きになるように回転させてもよい。
 (スコア算出段階)
 次に、図4のステップS200に対応するスコア算出段階の詳細について、図24及び図25を参照して説明する。ここで算出されるスコアは、特徴点が多数含まれる区画300を個人毎に選択する際に用いられることとなる。図24は、本実施形態に係るスコアの算出方法について説明する説明図であり、図25は、本実施形態に係るスコアの一例について説明する説明図である。
 本実施形態においては、先に説明したように、上述の登録段階で得られたユーザの指紋パターン610を仮想的に複数の区画300に分割し、各区画300における指紋パターン610の特徴点の数、すなわち特徴量を算出する。さらに、本実施形態においては、上述のような特徴量に所定の重みづけを行うことにより、各区画300のスコアを算出してもよい。以下に、本実施形態におけるスコアの算出方法について説明する。
 ~算出例1~
 以下に説明する算出例1は、各区画300に登録された特徴量をそのままスコアとして用いる算出例である。例えば、図24に示すように、指先600の各区画300(i,j)の指紋パターン610の特徴量をP(i、j)とした場合、各区画300のスコアScore(i,J)は以下の数式(1)で示すことができる。
Figure JPOXMLDOC01-appb-M000001
 ~算出例2~
 以下に説明する算出例2は、各区画300(m、n)の特徴量P(m、n)と、各区画の周囲に位置する(隣接する)区画300の特徴量P(m、n)とに基づいて、各区画300のスコアScore(i,j)を算出する。算出例2においては、対象となる区画300に登録された特徴量P(m、n)と、当該対象となる区画300の周囲に位置する区画300に登録された特徴量P(m、n)とは、それぞれ所定の重みづけW(i、j、m、n)によって重みづけされた上で積算される。
Figure JPOXMLDOC01-appb-M000002
 なお、算出例1では同一スコアScore(i、j)を持つ区画300が複数存在する可能性があるが、算出例2では、周囲の区画300も考慮して算出することから、同一スコアScore(i、j)を持つ区画300が複数存在する可能性を減らすことができる。従って、容易に、算出されたスコアScore(i、j)に基づいて、ユーザの認証に最適な認証用区画300を容易に決定することができる。
 なお、本実施形態においては、上述の重みづけW(i、j、m、n)は、認証の成功の回数や、ユーザの認証時の状況等に基づいて、予め又は動的に設定することができる。
 そして、本実施形態においては、このような数式(1)又は数式(2)を用いることにより、図25に示す例のような、各区画300のスコアScore(i、j)を算出することができる。なお、図25に示される例においては、各区画300の位置は、アルファベットと数字の組み合わせで表記されており、当該位置は、図5に示される各区画300に対応するものとする。
 なお、本実施形態においては、スコアScore(i、j)の算出は、1つの指の各区画300に対してのみに限定されるものではなく、ユーザの複数の指の各区画300に対して行ってもよく、その際には、複数の指における同一区画300における特徴量P(i、j)の平均値をスコアScore(i、j)として算出してよい。このような平均値をスコアScore(i、j)として用いることにより、認証装置10は、ユーザがどの指を用いて認証を行ったとしても認証に最適な認証用区画300を選択することができる。
 さらに、当該区画300の指紋パターン610を用いた認証の成功回数に基づいて、上記重みづけW(i、j、m、n)を加重することにより、スコアScore(i、j)を更新してもよい。このようにすることにより、スコアScore(i、j)は、指先600の怪我等のユーザの指紋の変化にも動的に対応することが可能となることから、本実施形態においては、常にユーザの認証に最適な認証用区画300を決定するためのスコアScore(i、j)を取得することができる。この際、所定の直近の期間(例えば、直近1か月等)の間に認証に成功した区画300の重みづけW(i、j、m、n)のみに加重するようにしてもよい。このようにすることで、変化する恐れのある指紋であっても、直近の指紋の状態に応じて、認証に最適な認証用区画300を決定することができる。
 そして、このように算出された各区画300のスコアScore(i、j)は、当該ユーザを特定するための特定情報(ID(identification)番号等)に紐づけられて記憶部130に格納される。この際、スコアScore(i、j)を算出する際に用いた指紋パターン610に対応する指を特定するための特定情報に紐づけられて格納されてもよい。これら特定情報は、先に説明したように、ユーザによってあらかじめ入力された情報である。
 また、本実施形態においては、上記スコアScore(i、j)は、登録の際のユーザのコンテクスト情報(ユーザの行動、位置、デバイスの保持状態、使用状態、時刻等)に紐づけて記憶部130に格納されてもよい。
 (認証用区画300の選択段階)
 次に、図4のステップS300に対応する誘導先の決定段階の詳細について、図25を参照して説明する。
 詳細には、認証装置10は、例えば、記憶部130から、図25に示される所定のユーザの所定の指における各区画300のスコアScore(i、j)を抽出する。さらに、認証装置10は、抽出したスコアScore(i、j)のうち、最も大きな値を持つスコアScore(i、j)に対応する区画300をユーザの認証に最適な認証用区画300として選択する。従って、本実施形態においては、上記スコアScore(i、j)を用いることにより、特徴点が多数含まれる区画300を個人毎に特定することができる。
 なお、同一ユーザについて、複数の指のスコアScore(i、j)が格納されていた場合には、認証装置10は、最も大きな値を持つスコアScore(i、j)に対応する指及び区画300を認証用区画300として選択する。
 さらに、本実施形態においては、認証装置10は、認証の際に、ユーザが指紋センサ部104に接触させた指の種別を特定し、特定した指に対応する各区画300のスコアScore(i、j)を抽出してもよい。この場合、認証装置10は、抽出したスコアScore(i、j)のうち、最も大きな値を持つスコアScore(i、j)に対応する区画300を認証用区画300として選択することとなる。
 また、本実施形態においては、認証装置10は、認証の際のユーザのコンテクスト情報(ユーザの行動、位置、デバイスの保持状態、使用状態、時刻等)を取得し、取得したコンテクスト情報に最も類似するコンテクスト情報と紐づけられた各区画300のスコアScore(i、j)を抽出してもよい。この場合、認証装置10は、認証の際のユーザのコンテクスト情報に類似するコンテクスト情報に紐づけられたスコアScore(i、j)のうち、最も大きな値を持つスコアScore(i、j)に対応する区画300を認証用区画300として選択することとなる。
 (認証段階)
 次に、図4のステップS400に対応する認証段階の詳細について、図26を参照して、説明する。図26は、本実施形態に係る認証段階のフローチャートを示した図である。図26に示すように、本実施形態に係る認証段階には、ステップS401からステップS423までが含まれる。以下に、認証段階の各ステップを説明する。
 まずは、本実施形態においては、認証装置10は、認証を行おうとするユーザを、例えば、ユーザからの入力操作等によって特定し、特定したユーザに対応する認証用区画300を選択することとなる。この際、認証装置10は、認証を行おうとするユーザが使用する指を特定してもよく、この場合には、特定した指に対応する認証用区画300を選択することとなる。
 ~ステップS401~
 認証装置10は、上述した認証用区画300の選択段階で選択された認証用区画300に基づいて、ユーザに向けて誘導表示200を表示することにより、指先600を指紋センサ部104が認証用区画300の指紋パターン610を取得することができる位置に誘導する。本実施形態においては、個人毎に選択された認証用区画300に基づいて、指先600を誘導することから、特徴点が多数含まれる領域の指紋パターン610を好適に取得することができる。例えば、この際の誘導表示200の一例としては、先に説明した図7に示す誘導表示200を挙げることができる。この際、認証装置10は、ユーザが接触させるべき指の種別を併せて表示したり、音声出力したり、点滅装置108を点滅してもよい。そして、認証装置10は、例えば、所定の時間が経過した後に、ステップS403の処理へ進む。
 ~ステップS403~
 認証装置10は、上述したステップS103と同様に、タッチセンサ部100のセンシングデータに基づき、ユーザの指先600が適切に指紋センサ部104のセンシング面(図示省略)に接触しているか、すなわち、指先600の姿勢が適切であるかを判断する。そして、認証装置10は、適切に接触していると判断した場合にはステップS407の処理へ進み、適切に接触していないと判断した場合には、ステップS405の処理へ進む。
 ~ステップS405~
 認証装置10は、上述したステップS105と同様に、例えば、「指先を倒してください」等の表示や音声を出力することにより、ユーザの指先600の姿勢を適切に誘導する。そして、認証装置10は上述したステップS401の処理へ戻る。
 ~ステップS407~
 認証装置10は、指紋センサ部104から認証用区画300の指紋パターン610を取得する。この際、指紋センサ部104は、認証用区画300の周囲の指紋パターン610を取得してもよい。このようにすることで、指紋センサ部104のセンシング面(図示省略)に接触した指先600の表面が、認証用区画300から少しずれた場合であっても、認証を行うことができる。
 さらに、認証装置10は、取得した指紋パターン610の一部を用いて認証を行うこととなる。ここで認証方式については、先に説明したように、パターンマッチング方式や、特徴点抽出方式等の任意の方法を用いて行うことができる。この際、取得した指紋パターン610の一部と照合されるテンプレートは、認証用区画300に係る指紋パターン610や特徴点情報等のみを含むものに限定されるものではなく、認証用区画300の周囲の指紋パターン610や特徴点情報等を含んでいてもよい。このようにすることで、指紋センサ部104のセンシング面(図示省略)に接触した指先600の表面が、認証用区画300から少しずれた場合であっても、認証を行うことができる。そして、認証装置10はステップS409の処理へ進む。
 ~ステップS409~
 認証装置10は、上述のステップS407で取得した認証用区画300の指紋パターン610を用いて認証が成功したかどうかを判断する。認証装置10は、認証が成功したと判断した場合にはステップS411の処理へ進む。一方、認証装置10は、認証が成功しなかったと判断した場合には、ステップS417の処理へ進む。
 ~ステップS411~
 認証装置10は、上述のステップS407で認証に成功した指及び認証用区画300の重みづけW(i、j、m、n)を加重(更新)し、再度、スコアScore(i、j)を算出、更新する。そして、認証装置10は、更新したスコアScore(i、j)に基づき、次回に用いる認証用区画300を上述と同様に選択する。本実施形態においては、認証が成功した区画300の重みづけW(i、j、m、n)を加重することから、ユーザの直近の認証結果に対応した、動的に変化するスコアScore(i、j)を取得することができる。
 ~ステップS413~
 認証装置10は、上述のステップS407で取得した認証用区画300の指紋パターン610に品質がよい領域が存在するかどうかを判断する。ここでは、すでに登録されていた指紋テンプレートとしての指紋パターン610に比べて特徴量が多い等の場合、品質は良いとするものとする。認証装置10は、品質がよい領域が存在すると判断した場合には、ステップS415の処理へ進む。一方、認証装置10は、品質がよい領域が存在しないと判断した場合には、認証処理を終了する。
 ~ステップS415~
 認証装置10は、上述のステップS407で取得した認証用区画300の指紋パターン610のうちの品質がよい領域が含まれるように、登録されていた指紋テンプレートとしての指紋パターン610を更新する。そして、認証装置10は、更新された指紋テンプレートを用いて、スコアScore(i、j)を算出、更新する。そして、認証装置10は、更新したスコアScore(i、j)に基づき、次回に用いる認証用区画300を上述と同様に選択する。なお、当該ステップS415の詳細については後述する。
 ~ステップS417~
 認証装置10は、認証が3回以上行われたかどうかを判断する。認証装置10は、認証が3回以上行われていないと判断した場合には、再度認証を行うために、ステップS401の処理へ戻る。一方、認証装置10は、認証が3回以上行われていると判断した場合には、ステップS419の処理へ進む。
 ~ステップS419~
 認証装置10は、認証が4回以上行われたかどうかを判断する。認証装置10は、認証が4回以上行われていないと判断した場合には、ステップS423の処理へ進む。一方、認証装置10は、認証が4回以上行われていると判断した場合には、ステップS421の処理へ進む。
 ~ステップS421~
 認証装置10は、指紋による認証が難しいことから、指紋以外の認証方法、例えばパスワードの入力、顔認証等の別の認証モードへ変更し、認証処理を終了する。
 ~ステップS423~
 認証装置10は、現在ユーザが認証に使用している指を特定する。ここで、指を特定する方法については、ユーザが予め入力した情報を用いてもよく、もしくは、複数の指の指紋テンプレートが予め格納されている場合には、当該指紋テンプレートを利用してもよい。そして、認証装置10は、現在ユーザが使用している指による認証が難しいことから、使用している指以外の指での認証用区画300を、記憶部130に格納されたスコアScore(i、j)に基づいて選択する。さらに、認証装置10は、再度認証を行うために、ステップS401の処理へ戻る。
 (登録指紋の更新段階)
 次に、図26のステップS415に対応する登録された指紋テンプレートの更新の詳細について、図27を参照して説明する。図27は、本実施形態に係る指紋テンプレートの更新段階のフローチャートを示した図である。本実施形態においては、認証が成功するごとに、認証に用いる指紋テンプレートを動的に更新し、さらには、更新した指紋テンプレートから算出される各区画300のスコアScore(i、j)を更新することから、常にユーザの認証に最適な認証用区画300を選択することができる。図27に示すように、図26のステップS415に対応する指紋テンプレートの更新の段階には、ステップS4150からステップS4153までが含まれる。以下に、各ステップの詳細を説明する。
 ~ステップS4150~
 認証装置10は、上述のステップS407で取得した指紋パターン610の一部から特徴点を抽出する。
 ~ステップS4151~
 認証装置10は、上述のステップS407で取得した指紋パターン610に対応する位置を特定する。ここで、対応する位置は、認証用区画300となるはずであるが、ユーザが指先600を指紋センサ部104に接触させる状態により、上記位置が認証用区画300と少しずれる場合がある。そこで、本実施形態においては、予め登録された指紋テンプレートを参照することにより、上述のステップS407で取得した指紋パターン610に対応する位置を特定する。
 ~ステップS4152~
 認証装置10は、上述のステップS4150で抽出した特徴点と、予め登録された指紋テンプレートにおける上述のステップS4151で特定された位置の特徴点とが重複する重複特徴点を抽出する。さらに、認証装置10は、上述のステップS4150で抽出した特徴点から重複特徴点を除いた特徴点を、予め登録された指紋テンプレートにおける上述のステップS4151で特定された位置に追加する。本実施形態においては、このようにすることで、指紋テンプレートが更新される。
 ~ステップS4153~
 認証装置10は、ステップS4152で更新された指紋テンプレートに基づいて、各区画300のスコアScore(i、j)を再度算出し、算出したスコアScore(i、j)に基づいて、認証用区画300を選択する。このように、本実施形態においては、認証に用いる指紋テンプレートを動的に更新し、さらには、更新した指紋テンプレートから算出される各区画300のスコアScore(i、j)を更新することから、常にユーザの認証に最適な認証用区画300を選択することができる。
 以上のように、本実施形態によれば、指紋センサ部104を小型化しつつ、認証性能の低下を避けることができる。さらに、本実施形態によれば、特徴点が多数含まれる領域を個人毎に特定し、特定した領域に基づいて個人毎に指先600を好適な位置に誘導することから、特徴点が多数含まれる領域の指紋パターン610を好適に取得することができる。その結果、本実施形態によれば、少ない試行回数で各個人を認証することができ、利便性を低下させることを避けることができる。
 <2.4 変形例>
 なお、本実施形態においては、認証方法は、指紋認証に限定されるものではなく、例えば、ユーザの指先600の静脈の形状(特徴情報)による静脈認証であってもよい。本実施形態の変形例として、静脈認証を用いた例を、図28及び図29を参照して説明する。図28及び図29は、本実施形態の変形例を説明するための説明図である。
 ここで、静脈認証とは、指先600等の内部にある静脈の形状である静脈パターンを用いて個人認証する認証方式のことをいう。
 例えば、図28の下側には、認証装置10bの一部が模式的に表示されており、当該認証装置10bにおいては、指紋センサ部104の代わりに静脈センサ部104aが配置されている。静脈センサ部104aは、詳細には、照射部(図示省略)及び検出部(図示省略)を有し、静脈パターン602を取得することができる。例えば、上記照射部は、所定の波長を持つ照射光(例えば、血液中のヘモグロビンが吸収するような光)をユーザの指先600に向かって照射することができる。照射部が照射する照射光の波長は、適宜選択することが可能であり、例えば、850nm前後の波長の光を照射する。当該照射部としては、コヒーレント光を照射するために小型レーザ等を利用することができる。また、検出部は、ユーザの指先600から散乱された光を検出する。検出部は、例えばフォトダイオード(Photo Detector:PD)を有し、受光した光の強度を電気信号に変換して、後述する情報処理装置30へと出力する。なお、検出部としては、CCD(Charge Coupled Devices)型センサ、CMOS(Complementary Metal Oxide Semiconductor)型センサ等を利用することもできる。
 そして、本変形例においては、静脈センサ部104aによって指先600の静脈パターン602を取得し、予め登録されていた静脈パターン602のテンプレートと照合することにより、個人認証を行うこととなる。静脈パターン602についても、指紋パターン610と同様に、個人ごとに異なる特徴を有し、さらに認証に最適な領域も異なるものと考えられる。そこで、本変形例においても、上述した実施形態と同様に、認証に最適な静脈パターン602の領域を特徴点情報に基づいて個人毎に特定し、特定した領域の静脈パターン602を取得することができるように、指先600の位置等を選択する。そして、本変形例においても、静脈センサ部104aに対して選択した位置や高さになるように、ユーザの指先600を誘導する。例えば、認証装置10bは、誘導情報として、静脈センサ部104aに対する指先600の相対的な位置や高さを表示する。
 さらに、本変形例においては、図29に示すように、認証装置10bは、指紋センサ部104と静脈センサ部104aとを組み合わせてもよく、このようにすることで、2つの認証方式を同時に用いることができる。従って、図29に示す例では、2つの認証方式を利用することができることから、よりセキュリティを高めることができる。
 また、図29に示す例では、静脈センサ部104aに、静脈パターン602を取得する機能ではなく、指先600の血管の血流情報を取得する機能を持たせてもよい。このようにすることで、図29に示す認証装置10bは、指紋により認証を行うことができ、さらに、血流情報を取得することができる。その結果、本変形例によれば、個人のプライバシーにかかわる血流情報に対するセキュリティを維持しつつ、特定の個人の血流情報を取得することができる。
 <<3.第2の実施形態>>
 ところで、本開示の実施形態においては、認証の際のユーザのコンテクスト情報(ユーザの行動、位置、デバイスの保持状態、使用状態、時刻等)を取得し、取得したコンテクスト情報に基づいて、認証用区画300として選択してもよい。このようにすることで、認証時のユーザの状況に応じた認証用区画300に基づいてユーザの指先600を誘導することができることから、ユーザの利便性をより高めることができる。
 ここで、ユーザが所有するスマートフォン(図示省略)に本実施形態に係る認証装置10が含まれている場合を例に考える。このような場合、ユーザのスマートフォンの保持の仕方、すなわちスマートフォンの傾きによって、ユーザが認証に使用する指の種別が異なる場合がある。例えば、ユーザが右手でスマートフォンを保持していた場合には、当該ユーザにとっては、左手のいずれかの指で認証を行うことが自然な動作となる。従って、このような場合、認証装置10が左手の指のいずれかを認証用の指として誘導することができれば、ユーザの利便性をより高めることができる。
 また、本実施形態に係る認証装置10が腕時計型のウェアラブル端末であった場合を例に考える。このような場合、ユーザが重い荷物を保持していた場合と、何も荷物を持っていない場合とでは、ユーザが認証に使用する指の種別が異なる場合がある。例えば、ユーザが荷物を持っていない場合には、ユーザは、ウェアラブル端末を装着した手首とは反対側の手首に対応する手指のうちの人差し指を用いて認証を行うものとする。しかしながら、反対側の手首に対応する手指のうち、親指及び人差し指で荷物のハンドルを保持していた場合には、ユーザは、これら指以外の指を使用して認証を行う可能性が高い。従って、このような場合、認証装置10が親指及び人差し指以外の指のいずれかを認証用の指として誘導することができれば、ユーザの利便性をより高めることができる。
 すなわち、認証時のユーザの行動、位置、認証装置10の保持、装着の状態等に応じて、ユーザが認証に使用しようとする指の種別が変化する。従って、認証装置10において、ユーザが認証に使用するであろう指の種別を予め推定して、推定結果に基づいて、認証に用いる指や認証用区画300を選択することにより、ユーザの利便性をより高めることができる。
 そこで、本実施形態においては、認証の際のユーザのコンテクスト情報(ユーザの行動、位置、デバイスの保持状態、使用状態、時刻等)を取得し、取得したコンテクスト情報に基づいて認証用区画300を選択する。以下に、このような実施形態を本開示の第2の実施形態として説明する。
 <3.1 認証装置10aの詳細構成>
 まずは、本実施形態に係る認証装置10aの構成について、図30を参照して説明する。図30は、本実施形態に係る認証装置10aの構成例を示すブロック図である。本実施形態においては、図30に示すように、センサ部106、処理部110aのスコア算出部116a、選択部118a及びコンテクスト情報取得部124が、上述した第1の実施形態と異なる。従って、以下の説明においては、第1の実施形態と共通する点については説明を省略し、第1の実施形態と異なる点を説明する。
 (センサ部106)
 センサ部106は、ユーザのコンテスト情報をセンシングすることができる。詳細には、センサ部106は、ユーザの動作を検出するモーションセンサ、ユーザの周囲で発生した音を検出するサウンドセンサ、ユーザの位置を検出する位置センサ、ユーザが使用する機器(デバイス)に関する情報を検出するデバイスセンサを含んでもよい。また、センサ部106は、現在時刻の情報を取得する時刻センサ、ユーザのスケジュール情報を取得するスケジュール情報取得部、ユーザのプロファイル情報(性別、年齢等)を取得するプロファイル情報取得部、ユーザの周囲の気温、湿度、天気の情報を取得する環境センサを含んでいてもよい。
 より具体的には、モーションセンサは、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、ポテンショメータ、エンコーダ等の空間的な動きや角度を検出する、1つ又は複数のセンサデバイスにより実現される。また、当該モーションセンサは、撮像素子、及び撮像素子への被写体像の結像を制御するためのレンズ等の各種の部材を用いてユーザを撮像する撮像装置を含んでいてもよい。なお、このような撮像装置は、認証装置10に設けられていてもよく、もしくは、ユーザの周囲に、認証装置10とは別体の装置として設置されていてもよい。モーションセンサによってセンシングされたセンシングデータに基づいて、ユーザが運動中であるか、ウェアラブル端末である認証装置10がユーザの右腕又は左腕に装着されているか等のユーザの状況を検出することができる。
 サウンドセンサは、マイクロフォンからなり、ユーザの音声や、周囲の音を収音したりする。サウンドセンサによってセンシングされたセンシングデータに基づいて、ユーザが位置する場所(お店、職場等)や、ユーザの行動(電話中、仕事中)等のユーザの状況を検出することができる。
 位置センサは、ユーザの位置を検出するセンサであり、具体的には、GNSS(Global Navigation Satellite System)受信機等であることができる。この場合、位置センサは、GNSS衛星からの信号に基づいて、ユーザの現在地の緯度・経度を示すセンシング結果を生成する。または、例えばRFID(RADIO frequency Identification)、Wi-Fiのアクセスポイント、無線基地局の情報等からユーザの相対的な位置関係を検出することが可能なため、このような通信装置を上記測位センサとして利用することも可能である。
 デバイスセンサは、ユーザが使用する認証装置や他の端末の状態を認識することができる。詳細には、デバイスセンサは、認証装置10で起動するアプリケーションの種類等を認識することができる。また、デバイスセンサは、認証装置10の通信部(図示省略)を介して、認証装置10と接続されたスマートフォン等の外部装置の種類や、外部装置で起動するアプリケーションの種類、又は、当該外部装置に接続されたデバイスの種類等を認識することができる。なお、当該外部装置に接続されたデバイスとしては、例えば外部装置がスマートフォンである場合には、当該スマートフォンに接続されたヘッドセットを挙げることができる。ところで、このように認識された外部装置の状態は、ユーザの端末使用に関する情報であることから、ユーザの状況を示す情報であると言える。例えば、ユーザ端末がスマートフォンであり、当該スマートフォンにおいて音楽プレーヤアプリが起動している場合には、ユーザは音楽を聴いている状況にあることが推測できる。さらに、デバイスセンサは、認証装置10等に設けられた加速度センサ、ジャイロセンサ、地磁気センサ等であってもよく、このようなデバイスセンサによってセンシングされたセンシングデータに基づいて、ユーザによって保持された認証装置10等の傾きをセンシングすることができる。
 さらに、スケジュール情報取得部及びプロファイル情報取得部は、ユーザの属性情報(ユーザの性別や年齢等)及び行動予定(ユーザの予定された行動とその予定日時等)を取得してもよい。なお、これら属性情報及び行動予定は、あらかじめ認証装置10に入力されていてもよく、もしくは、外部のサーバ(図示省略)から取得してもよい。
 また、環境センサは、温度計、湿度計等であることができ、ユーザの周囲の気温、湿度、天気の情報を取得することができる。指紋認証のための指紋パターン610の取得の際、温度や湿度によって、鮮明な指紋パターン610が取得できたり、取得できなかったりすることがある。そこで、本実施形態においては、温度や湿度の情報に応じて、より鮮明な指紋パターン610が取得できるよう、指や認証用区画300を選択するようにしてもよい。
 (コンテクスト情報取得部124)
 コンテクスト情報取得部124は、上述したセンサ部106から各種の情報を取得して、後述するスコア算出部116aに出力する。
 (スコア算出部116a)
 スコア算出部116aは、特徴量算出部114により算出された各指の各区画の特徴量に対して、コンテクスト情報に応じて、所定の重みづけを変化させて、各指の各区画300のスコアを算出する。詳細には、スコア算出部116aは、認証時のユーザのコンテクスト情報を取得し、取得したコンテクスト情報を、予め登録された指紋テンプレートに紐づけられたコンテクスト情報と比較する。そして、スコア算出部116aは、認証時に取得したコンテクスト情報に近いコンテクスト情報を持つ指紋テンプレートの指の各区画300の特徴量の重みづけがより加重されるように調整する。従って、本実施形態においては、高いスコアを持つ指及び区画300が選択されることから、認証時に取得したコンテクスト情報に近いコンテクスト情報を持つ指紋テンプレートの指及び区画300が選択されやすくなる。
 (選択部118a)
 選択部118aは、上述したスコア算出部116aが算出したスコアに基づいて、認証に用いる指及び認証用区画300を選択する。なお、本実施形態における選択方法の詳細については後述する。
 <3.2 選択方法>
 以上、本実施形態に係る認証装置10aの詳細構成について説明した。次に、本実施形態に係る指及び認証用区画300の選択方法について説明する。
 本実施形態において、認証用区画300をPijとした場合、下記の数式(3)を用いて、指及び認証用区画300を決定することができる。
Figure JPOXMLDOC01-appb-M000003
 なお、上記数式(3)においては、用いるコンテクスト情報は、ユーザの行動、時刻、位置、デバイスの保持状態であるものとし、それぞれの状態は、各スコア(Nact、Ntime、Nloc、Npos等)として示されているものとする。そして、先に説明したように、本実施形態においては、認証時のユーザのコンテクスト情報を取得し、取得したコンテクスト情報を、予め登録された指紋テンプレートに紐づけられたコンテクスト情報と比較する。さらに、本実施形態においては、認証時に取得したコンテクスト情報に近いコンテクスト情報の場合には、各スコアに対する重みづけ(Wact、Wtime、Wloc、Wpos等)がより加重される。すなわち、本実施形態においては、認証時に取得したコンテクスト情報に近いコンテクスト情報に紐づけられた指紋テンプレートの指の各区画300の特徴量(ij)への重みづけWがより加重されるように調整する。従って、本実施形態においては、高いスコアを持つ指及び区画300が選択されることから、認証時に取得したコンテクスト情報に近いコンテクスト情報を持つ指紋テンプレートの指及び区画300が選択されやすくなる。
 <3.3 認証方法>
 次に、本実施形態に係る認証方法について、図31を参照して説明する。図31は、本実施形態に係る認証方法のフローチャートを示した図である。図31に示すように、本実施形態に係る認証方法には、ステップS501からステップS517までが含まれる。以下に各ステップの詳細を説明する。
 ~ステップS501~
 認証装置10aは、認証時におけるユーザのコンテクスト情報を取得する。
 ~ステップS503~
 認証装置10は、記憶部130から、当該ユーザに係る各指の指紋テンプレート及び各区画300の特徴量を抽出する。
 ~ステップS505~
 認証装置10aは、上記数式(3)を用いて、各指の各区画300のスコアを算出する。
 ~ステップS507~
 認証装置10aは、ステップS505で算出されたスコアに基づき、ユーザ認証に最適な指及び認証用区画300を選択する。
 ~ステップS509~
 認証装置10aは、上述したステップS507で選択された認証用区画300に基づいて、ユーザに向けて誘導表示200を表示することにより、指先600を指紋センサ部104が認証用区画300の指紋パターン610を取得することができる位置に誘導する。
 ~ステップS511~
 認証装置10aは、指紋センサ部104から認証用区画300の指紋パターン610を取得する。さらに、認証装置10aは、取得した指紋パターン610を用いて、ユーザの認証を行う。そして、認証装置10はステップS513の処理へ進む。
 ~ステップS513~
 認証装置10aは、上述のステップS511で取得した認証用区画300の指紋パターン610を用いてユーザの認証が成功したかどうかを判断する。認証装置10aは、認証が成功したと判断した場合には、ステップS515の処理へ進む。一方、認証装置10は、認証が成功しなかったと判断した場合には、ステップS517の処理へ進む。
 ~ステップS515~
 認証装置10aは、上述したステップS507で選択された認証用区画300がより選択されるように、当該認証用区画300の特徴量への重みづけFWがより加重されるように調整する。すなわち、本実施形態においては、過去に認証に成功した区画300が高いスコアを持つように、重みづけFWが更新されることから、次回のスコアの算出において、認証が成功した旨の実績が反映されることとなる。
 ~ステップS517~
 認証装置10aは、ステップS505で算出されたスコアに基づき、次のユーザ認証に最適な指及び認証用区画300を選択し、ステップS509の処理へ戻る。
 以上のように、本実施形態によれば、認証時のユーザの状況に応じた認証用区画300に基づいてユーザの指先600を誘導することができることから、ユーザの利便性をより高めることができる。
 <<4.第3の実施形態>>
 上述した本開示の実施形態においては、特徴点が多数含まれる領域を個人毎に特定し、特定した領域に基づいて個人毎に指先600を好適な位置に誘導する。例えば、図7に示すように、認証装置10は、表示部102に、指先の先端位置を示す誘導表示200と、指先の中央位置を示す中央線202とを表示し、指先600を好適な位置に誘導する。この際、ユーザは、誘導表示200が示す指先の先端位置と指先600の最先端位置とを一致させるように、指先600を指紋センサ部104の接触させることが求められる。
 しかしながら、誘導の最中、指先600によって誘導表示200が覆い隠されるため、ユーザからは、誘導表示200が示す指先の最先端位置が視認し難くなる。そのため、誘導表示200が示す指先の最先端位置と指先600の最先端位置とを一致させるように指先600を指紋センサ部104に接触させることは、難しくなる。また、爪が長く伸びている場合や、ネイルチップ等が自爪に装着されている場合等も、爪等によって誘導表示200が覆い隠されるため、ユーザからは誘導表示200が示す指先の最先端位置を視認することは難しい。従って、この場合も、ユーザは、適切に指先600を指紋センサ部104に接触させることが難しくなる。
 そこで、上述のような場合であっても、誘導表示200が示す指先の最先端位置と指先600の最先端位置とを一致させるように指先600を指紋センサ部104の接触させることができるような誘導表示200を、本開示の第3の実施形態として提案する。詳細には、第3の実施形態に係る誘導表示200は、ユーザの指先600が重畳された際であっても、ユーザが視認可能な形態を持つ部分を有する。従って、上述のような場合であっても、上記部分が視認可能であることから、ユーザは誘導表示200が示す指先の最先端位置を視認又は推測することができる。その結果、本実施形態によれば、ユーザは、誘導表示200が示す指先の最先端位置と指先600の最先端位置とを一致させるように自身の指先600を指紋センサ部104に接触させることができる。
 以下に、より具体的に、図32から図41を参照して、本実施形態に係る誘導表示200について説明する。図32から図39は、本開示の第3の実施形態に係る誘導表示200の一例について説明するための説明図であり、図40及び図41は、本実施形態に係る誘導表示200の表示方法の一例について説明するための説明図である。
 まずは、図32に示す例を説明する。図32に示すように、誘導表示200は、指先の先端位置を示す部分(指紋マーク)と、指先の中央位置を示すように縦方向に延伸する中央線及び指先の縦方向における最先端位置を示すように横方向に延伸する横線からなる十字マークとを含む。当該例においては、ユーザの指先600が誘導表示200の指先の先端位置を示す部分(指紋マーク)と重畳された場合であっても、ユーザからは十字マークの少なくとも一部を視認することができる。
 詳細には、例えば、指先の最先端位置を示す十字マークの交点がユーザの指先600によって覆い隠された場合であっても、当該十字マークの中央線及び横線は、表示部102の端まで延伸していることから、ユーザは、中央線及び横線の端の一部を視認することができる。従って、上記交点がユーザの指先600によって覆い隠された場合であっても、ユーザは、視認することができた中央線及び横線の端の一部の位置に基づいて、当該交点の位置を推測することが可能である。そして、ユーザは、十字マークの交点の推測位置を目標にして、自身の指先600の最先端位置を合わせることとなる。その結果、当該例によれば、ユーザは、誘導表示200が示す指先の最先端位置と指先600の最先端位置とを一致させるように指先600を指紋センサ部104に接触させることが容易にできる。
 さらに、当該例では、十字マークにより、ユーザが指先の最先端位置を意識するようになるため、誘導表示200は、指先600の最先端を誘導表示200が示す指先の最先端位置に誘導することができる。
 なお、当該例においては、ユーザの指先600の最先端を縦方向に沿って移動させて適切な位置に誘導したい場合には、上記横線を移動させて表示してもよい。また、当該例においては、ユーザの指先600の最先端を横方向に沿って移動させて適切な位置に誘導したい場合には、上記中央線を移動させて表示してもよい。
 また、図33に示す例においては、誘導表示200は、図32に示す例と同様に、指先の中央位置を示すように縦方向に延伸する中央線と、指先の最先端位置を示すように横方向に延伸する横線とからなる十字マークを含む。当該例においても、図32に示す例と同様に、ユーザは、誘導表示200が示す指先の最先端位置と指先600の最先端位置とを一致させるように指先600を指紋センサ部104に接触させることができる。
 また、図34に示す例においては、誘導表示200は、図32に示す例と同様に、指先の先端位置を示す部分(指紋マーク)と、指先の中央位置を示すように縦方向に延伸する矢印とを含む。当該例においては、指先の先端位置を示す部分(指紋マーク)がユーザの指先600によって覆い隠された場合であっても、矢印が指先の先端位置を示す部分(指紋マーク)と重複することのない位置(指先600が重畳すべき領域と向かい合うような位置)にあることから、矢印はユーザから視認されることができる。もしくは、矢印の先端がユーザの指先600で覆い隠された場合であっても、視認される矢印の他の部分から、ユーザは、矢印の先端部分の位置を推測することができる。そして、ユーザは、視認又は推測することができた矢印の先端の位置を目標にして、自身の指先600の最先端位置を合わせることとなる。その結果、当該例によれば、ユーザは、誘導表示200が示す指先の最先端位置と指先600の最先端位置とを一致させるように指先600を指紋センサ部104に接触させることができる。
 また、図35に示す例においては、誘導表示200は、図34に示す例と同様に、指先の中央位置を示すように縦方向に延伸する矢印からなる。当該例においても、図34に示す例と同様に、ユーザは、誘導表示200が示す指先の最先端位置と指先600の最先端位置とを一致させるように指先600を指紋センサ部104に接触させることができる。
 また、図36に示す例においては、誘導表示200は、図35に示す例と同様に、指先の中央位置を示すように縦方向に延伸する矢印からなる。当該例においても、図34に示す例と同様に、ユーザは、誘導表示200が示す指先の最先端位置と指先600の最先端位置とを一致させるように指先600を指紋センサ部104に接触させることができる。
 また、図37に示すように、誘導表示200はグラデーション表示であってもよい。詳細には、図37に示す例では、誘導表示200は、グラデーション表示と、表示部102の縦方向に延伸する中央線とを含む。当該グラデーション表示は、表示部102の縦方向に沿って段階的に色彩や模様等が変化するグラデーションを有し、異なる色彩が隣り合う境界線(当該境界線は表示部102の横方向に沿って延伸する)が指先の縦方向における最先端位置を示す。ユーザは、境界線と中央線との交点の位置を目標にして、自身の指先600の最先端位置を合わせることとなる。その結果、当該例によれば、ユーザは、誘導表示200が示す指先の最先端位置と指先600の最先端位置とを一致させるように指先600を指紋センサ部104に容易に接触させることができる。
 さらに、図38に示すように、誘導表示200は区画表示であってもよい。詳細には、図38に示す例では、誘導表示200は、指先を重畳させない部分を示す部分(区画)と、当該区画の中心を通過して縦方向に延伸する中央線とを含む。さらに、当該区画表示の下端は、指先の最先端位置を示す。当該例においても、ユーザの指先600が表示部102に重畳された場合であっても、当該区画表示は、指先を重畳させない部分であることから、ユーザによって視認される状態にある可能性が高い。従って、ユーザは、区画表示の下端と中央線との交点の位置を目標にして、自身の指先600の最先端位置を合わせることとなる。その結果、当該例によれば、ユーザは、誘導表示200が示す指先の最先端位置と指先600の最先端位置とを一致させるように指先600を指紋センサ部104に接触させることができる。
 また、図32に示す誘導表示200を用いて、指紋パターン610を登録する際の表示例を説明する。詳細には、図5に示すような21個の区画300の指紋パターンを登録しようとする場合には、例えば、図39に示すような21個の誘導表示200を表示部102に表示する。例えば、図39に示すように、ユーザが重畳すべき指先600の位置を示す誘導表示200を指紋センサ部104に対して少しずつずらして表示することにより、21個の区画300の指紋パターン610を取得できるように、ユーザを誘導することができる(例えば、図39では、各区画300の位置をアルファベットと数字の組み合わせで表示しており、当該位置は、図5に示される区画300に対応するものとする)。本実施形態においては、このような誘導を繰り返し、さらには、各区画300の指紋パターン610の登録を繰り返すことにより、認証で用いる指紋テンプレートを取得することができる。さらに、本実施形態においては、誘導表示200は、ユーザの指先600が重畳された際に、ユーザが視認可能な形態を持つ部分を有する。従って、ユーザは誘導表示200が示す指先の最先端位置を視認、推測することができることから、本実施形態によれば、ユーザは、誘導表示200が示す指先の最先端位置と指先600の最先端位置とを一致させるように指先600を指紋センサ部104に接触させることができる。なお、本実施形態においては、複数の区画300の指紋パターンを登録しようとする場合には、図32に示す誘導表示200を用いて行うことに限定されるものではない。例えば、本実施形態においては、複数の区画300の指紋パターンを登録しようとする場合には、図33の十字マークや、図34及び図36の矢印や、これらと指紋マークとの組み合わせや、図37のグラデーション表示や、図38の区画表示等を用いてもよい。
 さらに、本実施形態においては、誘導表示200の初期表示において、ユーザは、十字マーク等を視認できるように、表示部102に対するユーザの目620の角度に応じて、十字マークの位置を調整してもよい。図40に示すように、ユーザは、初期表示において、表示部102に対するユーザの目620の角度に応じて、十字マークの表示位置を十字マークに対してスワイプ操作する等することにより、十字マークを視認できるように、十字マークの表示位置をずらす。この際、ユーザが視認できるようになった十字マークは、指先の先端位置を示す部分(指紋マーク)との間にオフセットが生じていてもよい。本実施形態においては、このようにすることで、表示部102に対するユーザの目620の相対位置を考慮して、誘導表示200を表示させる、特に十字マークを表示させることができることから、当該誘導表示200は指先600を好適な位置に誘導することができる。なお、本実施形態においては、十字マークに対して行われることに限定されるものではなく、他の形態の表示に対して行われてもよい。また、本実施形態においては、操作についても上述したようなスワイプ操作に限定されるものでなく、認証装置10の有するダイヤル(図示省略)に対して操作を行ってもよく、特に限定されるものではない。
 さらに、上述においては、ユーザ自身が十字マークの位置を調整していたが、本実施形態においては、これに限定されるものではなく、ユーザの目620の位置を検出するアイセンサ部400の検出結果に応じて、十字マークの位置を調整してもよい。このようにすることで、ユーザ自身で調整することがなくなることから、利便性をより高めることができる。
 詳細には、図41の左側に示すように、例えば撮像装置からなるアイセンサ部400が、表示部102の平面に対するユーザの目620の角度が90°近くであることを検出した場合には、十字マークをユーザから視認されることができる位置にずらして表示する。さらに、図41の左側に示す例においては、十字マークと指先の先端位置を示す部分(指紋マーク)との間にオフセットを設けることなく、指紋マークを表示する。当該例においては、表示部102の平面に対するユーザの目620の角度が90°近くである場合であっても、指紋マークにユーザの指先600が重畳されても、指紋マークの先端に重畳して表示された十字マークを視認することができるため、上記オフセットを設けていない。
 一方、図41の右側に示すように、例えば、アイセンサ部400が、表示部102の平面に対するユーザの目620の角度が60°近くであることを検出した場合には、十字マークをユーザから視認されることができる位置にずらして表示する。さらに、図41の右側に示す例においては、十字マークと指先の先端位置を示す部分(指紋マーク)との間にオフセットを設けて、指紋マークを表示する。当該例においては、表示部102の平面に対するユーザの目620の角度60°近くである場合には、指紋マークにユーザの指先600が重畳されると、指紋マークの先端に重畳して十字マークを表示した場合には、十字マークを視認することが難しい。そこで、当該例においては、十字マークと指先の先端位置を示す部分(指紋マーク)との間にオフセットを設けて、指紋マークを表示することにより、指紋マークにユーザの指先600が重畳されても、十字マークを視認することができるようにする。
 なお、本実施形態においては、アイセンサ部400により、ユーザの目620の位置を検出することに限定されるものではなく、指紋センサ部104が撮像装置からなる場合には、指紋センサ部104により、ユーザの目620の位置を検出してもよい。
 また、本実施形態においては、検出したユーザの目の位置に応じて十字マーク等の位置を調整することに限定されるものではなく、誘導表示200の初期表示において表示部102に重畳されたユーザの指先600の位置に応じて、十字マーク等の位置を調整してもよい。この場合、ユーザの指先600の位置を検出するセンサ(指先センサ)は、表示部102に重畳された圧力センサ、温度センサ、光センサ(指先600の血管を検出する)、深度センサ(ToFセンサ、超音波センサ)であることができる。
 このように、本実施形態においては、ユーザの目620の位置を検出するアイセンサ部400の検出結果等に応じて、十字マークの位置を調整することから、ユーザ自身で調整することがなく、利便性をより高めることができる。
 なお、本実施形態においては、ユーザが予め認証装置10に入力した当該ユーザの性別、年齢等のプロファイル情報(属性情報)に基づいて、誘導表示200を変化させてもよい。例えば、ユーザが子供である場合には、指先600が細いことが考えられるため、細い指先600に応じた形態(例えば、指紋マークが細い)を持つ誘導表示200を行う。
 また、本実施形態においては、ユーザが登録、認証を行おうとする手(右手、左手)に応じて、誘導表示200の表示向き等を変化させてもよい。なお、この場合、ユーザが登録、認証を行おうとする手(右手、左手)の検出については、ユーザによる入力や、撮像装置(指紋センサ部104やアイセンサ部400)による画像認識等により行うことができる。
 <<5.用途>>
 以上のような本開示の各実施形態に係る認証装置10は、生体情報、資産情報等の個人情報、電子決済等のセキュリティを確保するために用いることができる。さらに、本実施形態に係る認証装置10は、施設のゲートや自動車のドアに設置されたセキュリティ装置、IoT装置に設置されたセキュリティ装置に適用することもできる。また、本実施形態に係る認証装置10は、セキュリティを確保するためだけでなく、安全性を確保するために、医療用装置(各個人に調剤される医薬品やサプリメントを管理する装置、各個人に施される手術を管理する装置等)に適用してもよい。
 <<6.まとめ>>
 以上のように、本開示の各実施形態によれば、指紋センサ部104を小型化しつつ、認証性能の低下を避けることができる。さらに、本実施形態によれば、特徴点が多数含まれる領域を個人毎に特定し、特定した領域に基づいて個人毎に指先600を好適な位置に誘導することから、特徴点が多数含まれる領域の指紋パターン610を好適に取得することができる。その結果、本実施形態によれば、少ない試行回数で各個人を認証することができ、利便性を低下させることを避けることができる。
 <<7.ハードウェア構成について>>
 図42は、本実施形態に係る情報処理装置900のハードウェア構成の一例を示す説明図である。図42では、情報処理装置900は、上述の認証装置10のハードウェア構成の一例を示している。
 情報処理装置900は、例えば、CPU950と、ROM952と、RAM954と、記録媒体956と、入出力インタフェース958と、操作入力デバイス960とを有する。さらに、情報処理装置900は、表示デバイス962と、通信インタフェース968と、センサ980とを有する。また、情報処理装置900は、例えば、データの伝送路としてのバス970で各構成要素間を接続する。
 (CPU950)
 CPU950は、例えば、CPU等の演算回路で構成される、1又は2以上のプロセッサや、各種処理回路等で構成され、情報処理装置900全体を制御する制御部(図示省略)や、上述の処理部110として機能する。
 (ROM952及びRAM954)
 ROM952は、CPU950が使用するプログラムや演算パラメータ等の制御用データ等を記憶する。RAM954は、例えば、CPU950により実行されるプログラム等を一時的に記憶する。ROM952及びRAM954は、情報処理装置900において、例えば、上述の記憶部130の機能を果たす。
 (記録媒体956)
 記録媒体956は、上述の記憶部130として機能し、例えば、本実施形態に係る認証方法に係るデータや、各種アプリケーション等の様々なデータを記憶する。ここで、記録媒体956としては、例えば、ハードディスク等の磁気記録媒体や、フラッシュメモリ等の不揮発性メモリが挙げられる。また、記録媒体956は、情報処理装置900から着脱可能であってもよい。
 (入出力インタフェース958、操作入力デバイス960及び表示デバイス962)
 入出力インタフェース958は、例えば、操作入力デバイス960や、表示デバイス962等を接続する。入出力インタフェース958としては、例えば、USB(Universal Serial Bus)端子や、DVI(Digital Visual Interface)端子、HDMI(登録商標)(High-Definition Multimedia Interface)端子、各種処理回路等が挙げられる。
 操作入力デバイス960は、操作部(図示省略)として機能し、例えば、情報処理装置900に備えられ、情報処理装置900の内部で入出力インタフェース958と接続される。操作入力デバイス960としては、例えば、キーボード、ボタンや、方向キー、ジョグダイヤル等の回転型セレクター、タッチパネル、あるいは、これらの組み合わせ等が挙げられる。
 表示デバイス962は、上述の表示部102からなる情報提示装置として機能し、例えば、情報処理装置900上に備えられ、情報処理装置900の内部で入出力インタフェース958と接続される。表示デバイス962としては、例えば、液晶ディスプレイや有機ELディスプレイ(Organic Electro-Luminescence Display)等が挙げられる。
 なお、入出力インタフェース958が、情報処理装置900の外部の操作入力デバイス(例えば、キーボードやマウス等)や外部の表示デバイス等の、外部デバイスと接続することも可能であることは、言うまでもない。
 (通信インタフェース968)
 通信インタフェース968は、情報処理装置900が備える通信手段であり、ネットワークを介して(あるいは、直接的に)、サーバ等の外部装置と、無線又は有線で通信を行うための通信部(図示省略)として機能する。ここで、通信インタフェース968としては、例えば、通信アンテナおよびRF(Radio Frequency)回路(無線通信)や、IEEE802.15.1ポート及び送受信回路(無線通信)、IEEE802.11ポート及び送受信回路(無線通信)、あるいはLAN(Local Area Network)端子及び送受信回路(有線通信)等が挙げられる。
 (センサ980)
 センサ980は、上述の指紋センサ部104として機能し、例えば、ユーザの指紋情報を検出することが可能な任意の方式によるセンサである。また、センサ980は、上述のセンサ部106として、例えば、加速度センサや、ジャイロセンサ等、1又は2以上のセンサを含んでもよい。すなわち、センサ980に含まれるセンサは、上述の例に限られない。
 なお、情報処理装置900のハードウェア構成は、図42に示す構成に限られない。例えば、情報処理装置900は、接続されている外部の通信デバイスを介して外部装置等と通信を行う場合や、スタンドアローンで処理を行う構成である場合には、通信インタフェース968を備えていなくてもよい。また、通信インタフェース968は、複数の通信方式によって、1又は2以上の外部装置と通信を行うことが可能な構成を有していてもよい。また、情報処理装置900は、例えば、記録媒体956や、操作入力デバイス960、表示デバイス962等を備えない構成をとることも可能である。
 以上、本実施形態として、情報処理装置900を挙げて説明したが、本実施形態は、かかる形態に限られない。本実施形態は、例えば、携帯電話等の通信装置等、本実施形態に係る情報処理方法に係る処理を行うことが可能な、様々な機器に適用することもできる。
 また、本実施形態に係る情報処理装置900は、例えばクラウドコンピューティング等のように、ネットワークへの接続(または各装置間の通信)を前提とした、複数の装置からなるシステムに適用されてもよい。つまり、上述した本実施形態に係る情報処理装置900は、例えば、複数の装置により本実施形態に係る情報処理方法に係る処理を行う情報処理システムとして実現することも可能である。
 以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
 <<8.補足>>
 なお、先に説明した本開示の実施形態は、例えば、コンピュータを本実施形態に係る情報処理装置として機能させるためのプログラム、及びプログラムが記録された一時的でない有形の媒体を含みうる。また、プログラムをインターネット等の通信回線(無線通信も含む)を介して頒布してもよい。
 また、上述した各実施形態の処理における各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。さらに、各ステップの処理方法についても、必ずしも記載された方法に沿って処理されなくてもよく、例えば、他の機能部によって他の方法で処理されていてもよい。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 ユーザの身体の一部に現れるパターンに含まれる特徴点の分布情報に基づいて、当該ユーザの認証のための前記身体の一部の位置を決定する決定部と、
 決定された前記位置に基づき、前記ユーザの認証のために前記身体の一部を前記位置になるように誘導する誘導部と、
 前記誘導によって得られた前記パターンの特徴情報に基づいて、当該ユーザの認証を行う認証部と、
 を備える、認証装置。
(2)
 前記パターンを仮想的に複数の区画に分割し、前記各区画における前記特徴点の分布量である特徴量を算出する特徴量算出部をさらに備え、
 前記決定部は、算出された前記各区画の前記特徴量に基づいて、前記複数の区画から前記ユーザの認証のための認証用区画を選択することにより、前記ユーザの身体の一部の位置を決定する、
 上記(1)に記載の認証装置。
(3)
 算出された前記各区画の前記特徴量と、前記各区画に隣接する前記各区画の前記特徴量とに基づいて、前記認証用区画を選択するための指標を算出する指標算出部をさらに備える、
 上記(2)に記載の認証装置。
(4)
 算出された前記各区画の前記特徴量に対して所定の重みづけを行うことにより、前記認証用区画を選択するための指標を算出する指標算出部をさらに備える、
 上記(2)に記載の認証装置。
(5)
 前記認証部は、前記ユーザの指先に現れる指紋又は静脈の一部の前記特徴情報に基づいて、当該ユーザの認証を行う、上記(2)に記載の認証装置。
(6)
 前記決定部は、前記指紋又は静脈に含まれる前記特徴点の分布情報に基づいて、前記認証装置に対する前記指先の先端の相対的な位置又は当該指先の相対的な高さを決定し、
 前記誘導部は、決定された前記相対的な位置又は前記相対的な高さに基づき、前記指先を誘導する、
 上記(5)に記載の認証装置。
(7)
 前記特徴量算出部は、前記ユーザの各指の前記指先に現れる前記指紋又は静脈を仮想的に前記複数の区画に分割し、前記各区画における前記特徴量を算出し、
 前記決定部は、算出された前記各指の前記各区画の前記特徴量に基づいて、前記認証用区画を選択する、
 上記(6)に記載の認証装置。
(8)
 前記特徴量算出部は、前記区画ごとに、前記ユーザの複数の前記指の前記指先に現れる前記指紋又は静脈の前記特徴量を平均化することにより、前記各区画における前記特徴量を算出する、上記(7)に記載の認証装置。
(9)
 前記決定部は、算出された前記各指の前記各区画の前記特徴量に基づいて、前記ユーザの認証のために誘導する前記指を選択する、上記(7)に記載の認証装置。
(10)
 前記認証の際に前記ユーザが使用する前記指を特定する指特定部をさらに備え、
 前記決定部は、特定された前記指の前記各区画における前記特徴量に基づいて、前記認証用区画を選択する、
 上記(7)に記載の認証装置。
(11)
 前記指標算出部は、前記認証用区画の特徴情報に基づいて前記ユーザの認証が成功した回数に応じて、前記所定の重みづけを変化させる、上記(4)に記載の認証装置。
(12)
 前記ユーザのコンテクスト情報を取得するコンテクスト情報取得部をさらに備え、
 前記指標算出部は、前記コンテクスト情報に応じて、前記所定の重みづけを変化させる、上記(4)に記載の認証装置。
(13)
 前記コンテクスト情報取得部は、
 前記ユーザの動作を検出するモーションセンサ、前記ユーザの周囲で発生した音を検出するサウンドセンサ、前記ユーザの位置を検出する位置センサ、前記ユーザが使用する機器に関する情報を検出するデバイスセンサ、現在時刻の情報を取得する時刻センサ、前記ユーザのスケジュール情報を取得するスケジュール情報取得部、前記ユーザのプロファイル情報を取得するプロファイル情報取得部のうちの少なくとも1つからの情報を取得する、
 上記(12)に記載の認証装置。
(14)
 前記デバイスセンサは、前記ユーザによって保持された前記機器の傾きをセンシングする傾きセンサを含む、上記(13)に記載の認証装置。
(15)
 前記パターンの一部を取得するパターンセンサと、
 前記誘導部によって制御されることにより、前記ユーザを誘導するための誘導情報を表示する表示部と、をさらに備え、
 前記パターンセンサと前記表示部とは、重畳して、又は、前記認証装置の表面上で隣り合うように設けられる、
 上記(5)に記載の認証装置。
(16)
 前記パターンセンサの、前記ユーザの前記指先と向かい合うセンシング面の広さは、前記指先の表面の広さに比べて狭い、上記(15)に記載の認証装置。
(17)
 前記表示部は、前記誘導情報として、前記パターンセンサに対する前記指先の先端の相対的な位置又は当該指先の相対的な高さを表示する、上記(15)又は(16)に記載の認証装置。
(18)
 前記認証装置は、前記ユーザの前記身体に装着されたウェアラブル端末、又は、前記ユーザが使用する携帯端末に含まれる、上記(1)~(17)のいずれか1つに記載の認証装置。
(19)
 ユーザの身体の一部に現れるパターンに含まれる特徴点の分布情報に基づいて、当該ユーザの認証のための前記身体の一部の位置を決定することと、
 決定された前記位置に基づき、前記ユーザの認証のために前記身体の一部を前記位置になるように誘導することと、
 前記誘導によって得られた前記パターンの特徴情報に基づいて、当該ユーザの認証を行うことと、
 を含む、認証方法。
(20)
 ユーザの身体の一部に現れるパターンに含まれる特徴点の分布情報に基づいて、当該ユーザの認証のための前記身体の一部の位置を決定する機能と、
 決定された前記位置に基づき、前記ユーザの認証のために前記身体の一部を前記位置になるように誘導する機能と、
 前記誘導によって得られた前記パターンの特徴情報に基づいて、当該ユーザの認証を行う機能と、
 をコンピュータに実現させるためのプログラム。
(21)
 前記誘導情報として前記パターンセンサに対する前記指先の先端の相対的な位置を表示する誘導表示は、前記ユーザの前記指先が重畳された際に、前記ユーザが視認可能な形態を持つ部分を有する、上記(17)に記載の認証装置。
(22)
 前記誘導表示は、十字表示、矢印表示、グラデーション表示、及び、区画表示のうちの少なくとも1つを含む、上記(21)に記載の認証装置。
(23)
 前記誘導表示の表示位置は、前記ユーザの目の位置を検出するアイセンサ、又は、前記ユーザの指先の位置を検出する指先センサからのセンシングデータに基づいて、調整される、上記(21)又は(22)に記載の認証装置。
  10、10a、10b  認証装置
  100  タッチセンサ部
  102  表示部
  104  指紋センサ部
  104a  静脈センサ部
  106  センサ部
  108  点滅装置
  110、110a  処理部
  112  指紋取得部
  114  特徴量算出部
  116、116a  スコア算出部
  118、118a  選択部
  120  誘導部
  122  認証部
  130  記憶部
  150  バンド部
  200  誘導表示
  202  中央線
  300  区画
  400  アイセンサ部
  600  指先
  602  静脈パターン
  610  指紋パターン
  620  目
  900  情報処理装置
  950  CPU
  952  ROM
  954  RAM
  956  記録媒体
  958  入出力インタフェース
  960  操作入力デバイス
  962  表示デバイス
  968  通信インタフェース
  970  バス
  980  センサ
  a、b、c、d、e、f  領域

Claims (20)

  1.  ユーザの身体の一部に現れるパターンに含まれる特徴点の分布情報に基づいて、当該ユーザの認証のための前記身体の一部の位置を決定する決定部と、
     決定された前記位置に基づき、前記ユーザの認証のために前記身体の一部を前記位置になるように誘導する誘導部と、
     前記誘導によって得られた前記パターンの特徴情報に基づいて、当該ユーザの認証を行う認証部と、
     を備える、認証装置。
  2.  前記パターンを仮想的に複数の区画に分割し、前記各区画における前記特徴点の分布量である特徴量を算出する特徴量算出部をさらに備え、
     前記決定部は、算出された前記各区画の前記特徴量に基づいて、前記複数の区画から前記ユーザの認証のための認証用区画を選択することにより、前記ユーザの身体の一部の位置を決定する、
     請求項1に記載の認証装置。
  3.  算出された前記各区画の前記特徴量と、前記各区画に隣接する前記各区画の前記特徴量とに基づいて、前記認証用区画を選択するための指標を算出する指標算出部をさらに備える、
     請求項2に記載の認証装置。
  4.  算出された前記各区画の前記特徴量に対して所定の重みづけを行うことにより、前記認証用区画を選択するための指標を算出する指標算出部をさらに備える、
     請求項2に記載の認証装置。
  5.  前記認証部は、前記ユーザの指先に現れる指紋又は静脈の一部の前記特徴情報に基づいて、当該ユーザの認証を行う、請求項2に記載の認証装置。
  6.  前記決定部は、前記指紋又は静脈に含まれる前記特徴点の分布情報に基づいて、前記認証装置に対する前記指先の先端の相対的な位置又は当該指先の相対的な高さを決定し、
     前記誘導部は、決定された前記相対的な位置又は前記相対的な高さに基づき、前記指先を誘導する、
     請求項5に記載の認証装置。
  7.  前記特徴量算出部は、前記ユーザの各指の前記指先に現れる前記指紋又は静脈を仮想的に前記複数の区画に分割し、前記各区画における前記特徴量を算出し、
     前記決定部は、算出された前記各指の前記各区画の前記特徴量に基づいて、前記認証用区画を選択する、
     請求項6に記載の認証装置。
  8.  前記特徴量算出部は、前記区画ごとに、前記ユーザの複数の前記指の前記指先に現れる前記指紋又は静脈の前記特徴量を平均化することにより、前記各区画における前記特徴量を算出する、請求項7に記載の認証装置。
  9.  前記決定部は、算出された前記各指の前記各区画の前記特徴量に基づいて、前記ユーザの認証のために誘導する前記指を選択する、請求項7に記載の認証装置。
  10.  前記認証の際に前記ユーザが使用する前記指を特定する指特定部をさらに備え、
     前記決定部は、特定された前記指の前記各区画における前記特徴量に基づいて、前記認証用区画を選択する、
     請求項7に記載の認証装置。
  11.  前記指標算出部は、前記認証用区画の特徴情報に基づいて前記ユーザの認証が成功した回数に応じて、前記所定の重みづけを変化させる、請求項4に記載の認証装置。
  12.  前記ユーザのコンテクスト情報を取得するコンテクスト情報取得部をさらに備え、
     前記指標算出部は、前記コンテクスト情報に応じて、前記所定の重みづけを変化させる、請求項4に記載の認証装置。
  13.  前記コンテクスト情報取得部は、デバイスセンサからの情報を取得し、
     前記デバイスセンサは、前記ユーザによって保持された機器の傾きをセンシングする傾きセンサを含む、請求項12に記載の認証装置。
  14.  前記パターンの一部を取得するパターンセンサと、
     前記誘導部によって制御されることにより、前記ユーザを誘導するための誘導情報を表示する表示部と、をさらに備え、
     前記パターンセンサと前記表示部とは、重畳して、又は、前記認証装置の表面上で隣り合うように設けられる、
     請求項5に記載の認証装置。
  15.  前記表示部は、前記誘導情報として、前記パターンセンサに対する前記指先の先端の相対的な位置又は当該指先の相対的な高さを表示する、請求項14に記載の認証装置。
  16.  ユーザの身体の一部に現れるパターンに含まれる特徴点の分布情報に基づいて、当該ユーザの認証のための前記身体の一部の位置を決定することと、
     決定された前記位置に基づき、前記ユーザの認証のために前記身体の一部を前記位置になるように誘導することと、
     前記誘導によって得られた前記パターンの特徴情報に基づいて、当該ユーザの認証を行うことと、
     を含む、認証方法。
  17.  ユーザの身体の一部に現れるパターンに含まれる特徴点の分布情報に基づいて、当該ユーザの認証のための前記身体の一部の位置を決定する機能と、
     決定された前記位置に基づき、前記ユーザの認証のために前記身体の一部を前記位置になるように誘導する機能と、
     前記誘導によって得られた前記パターンの特徴情報に基づいて、当該ユーザの認証を行う機能と、
     をコンピュータに実現させるためのプログラム。
  18.  前記誘導情報として前記パターンセンサに対する前記指先の先端の相対的な位置を表示する誘導表示は、前記ユーザの前記指先が重畳された際に、前記ユーザが視認可能な形態を持つ部分を有する、請求項15に記載の認証装置。
  19.  前記誘導表示は、十字表示、矢印表示、グラデーション表示、及び、区画表示のうちの少なくとも1つを含む、請求項18に記載の認証装置。
  20.  前記誘導表示の表示位置は、前記ユーザの目の位置を検出するアイセンサ、又は、前記ユーザの指先の位置を検出する指先センサからのセンシングデータに基づいて、調整される、請求項18に記載の認証装置。
PCT/JP2020/002709 2019-02-19 2020-01-27 認証装置、認証方法及びプログラム WO2020170719A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP20758911.0A EP3929868A4 (en) 2019-02-19 2020-01-27 AUTHENTICATION DEVICE, AUTHENTICATION METHOD AND PROGRAM
JP2021501757A JP7302650B2 (ja) 2019-02-19 2020-01-27 認証装置、認証方法及びプログラム
US17/310,553 US20220358197A1 (en) 2019-02-19 2020-01-27 Authentication device, recognition method, and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019027248 2019-02-19
JP2019-027248 2019-02-19
JP2019235076 2019-12-25
JP2019-235076 2019-12-25

Publications (1)

Publication Number Publication Date
WO2020170719A1 true WO2020170719A1 (ja) 2020-08-27

Family

ID=72144654

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/002709 WO2020170719A1 (ja) 2019-02-19 2020-01-27 認証装置、認証方法及びプログラム

Country Status (4)

Country Link
US (1) US20220358197A1 (ja)
EP (1) EP3929868A4 (ja)
JP (1) JP7302650B2 (ja)
WO (1) WO2020170719A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002312324A (ja) 2001-04-13 2002-10-25 Sony Corp リストバンド型認証デバイス、認証システム、情報出力デバイス
WO2010119500A1 (ja) * 2009-04-13 2010-10-21 富士通株式会社 生体情報登録装置、生体情報登録方法及び生体情報登録用コンピュータプログラムならびに生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
JP2015018413A (ja) * 2013-07-11 2015-01-29 セイコーエプソン株式会社 携帯端末、画像表示方法、及びプログラム
JP2018506799A (ja) * 2015-02-27 2018-03-08 フィンガープリント カーズ アーベー 携帯用電子デバイスのユーザをガイドする方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7035443B2 (en) * 2002-03-22 2006-04-25 Wong Jacob Y Personal choice biometric signature
JP4640582B2 (ja) * 2005-03-09 2011-03-02 ソニー株式会社 照合装置、登録装置、画像補正方法及びプログラム
JP5065965B2 (ja) * 2008-03-31 2012-11-07 富士通株式会社 非接触型生体認証装置の生体誘導制御方法及び非接触型生体認証装置
WO2011042950A1 (ja) * 2009-10-05 2011-04-14 富士通株式会社 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
JP5213908B2 (ja) * 2010-06-03 2013-06-19 日立オムロンターミナルソリューションズ株式会社 生体認証ユニット
US9965607B2 (en) * 2012-06-29 2018-05-08 Apple Inc. Expedited biometric validation
US9928422B2 (en) * 2014-10-15 2018-03-27 Samsung Electronics Co., Ltd. User terminal apparatus and IRIS recognition method thereof
US10678897B2 (en) * 2015-04-16 2020-06-09 Tobii Ab Identification, authentication, and/or guiding of a user using gaze information
US10122764B1 (en) * 2017-04-25 2018-11-06 T-Mobile Usa, Inc. Multi-factor and context sensitive biometric authentication system
CN107798228A (zh) * 2017-09-27 2018-03-13 维沃移动通信有限公司 一种人脸识别方法及移动终端
JP6988523B2 (ja) * 2018-01-30 2022-01-05 富士通株式会社 生体認証装置、生体認証プログラム、及び生体認証方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002312324A (ja) 2001-04-13 2002-10-25 Sony Corp リストバンド型認証デバイス、認証システム、情報出力デバイス
WO2010119500A1 (ja) * 2009-04-13 2010-10-21 富士通株式会社 生体情報登録装置、生体情報登録方法及び生体情報登録用コンピュータプログラムならびに生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
JP2015018413A (ja) * 2013-07-11 2015-01-29 セイコーエプソン株式会社 携帯端末、画像表示方法、及びプログラム
JP2018506799A (ja) * 2015-02-27 2018-03-08 フィンガープリント カーズ アーベー 携帯用電子デバイスのユーザをガイドする方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3929868A4

Also Published As

Publication number Publication date
US20220358197A1 (en) 2022-11-10
JP7302650B2 (ja) 2023-07-04
EP3929868A1 (en) 2021-12-29
JPWO2020170719A1 (ja) 2021-12-16
EP3929868A4 (en) 2022-04-13

Similar Documents

Publication Publication Date Title
US11281262B2 (en) Detecting a gesture made by a person wearing a wearable electronic device
US11755137B2 (en) Gesture recognition devices and methods
JP6938697B2 (ja) 認証システムにおいてユーザを登録および認証するための方法、顔認証システム、ならびに認証システムにおいてユーザを認証するための方法
US10860097B2 (en) Eye-brain interface (EBI) system and method for controlling same
US20170332963A1 (en) Blood pressure measurement device
US20150323998A1 (en) Enhanced user interface for a wearable electronic device
JP6669069B2 (ja) 検出装置、検出方法、制御装置、および制御方法
JP2022058471A (ja) プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法
US20160259986A1 (en) User Authenticating Method and Head Mounted Device Supporting the Same
US20170319065A1 (en) Information processing device, information processing method, and program
US11341776B2 (en) Method, electronic apparatus and recording medium for automatically configuring sensors
JP2016212636A (ja) 生体撮影装置、生体撮影方法及び生体撮影プログラム
US20180204346A1 (en) Device and method for determining a position of a mobile device in relation to a subject
US10536852B2 (en) Electronic apparatus, method for authenticating the same, and recording medium
US20190098149A1 (en) Image processing apparatus and method for processing image
KR101851099B1 (ko) 영상처리 기계학습을 이용한 소프트웨어 기반의 거북목 방지 방법 및 시스템
CN110245548A (zh) 包括非接触式手掌生物特征传感器的电子设备和相关方法
JP5163281B2 (ja) 静脈認証装置および静脈認証方法
US20120307031A1 (en) Biometric information process device, biometric information process method, and computer readable medium
US20190303696A1 (en) Terminal Device And Display Control Method
WO2020170719A1 (ja) 認証装置、認証方法及びプログラム
JP2018128785A (ja) 生体認証装置、生体認証方法及び生体認証プログラム
US20180098729A1 (en) Body composition measuring device and mobile terminal wirelessly connected to the same
US11837015B2 (en) Imaging apparatus and imaging method
JP2022128627A (ja) 生体認証システム、認証端末、および認証方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20758911

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021501757

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020758911

Country of ref document: EP

Effective date: 20210920