WO2022215328A1 - 認証システム、処理方法及びプログラム - Google Patents

認証システム、処理方法及びプログラム Download PDF

Info

Publication number
WO2022215328A1
WO2022215328A1 PCT/JP2022/003351 JP2022003351W WO2022215328A1 WO 2022215328 A1 WO2022215328 A1 WO 2022215328A1 JP 2022003351 W JP2022003351 W JP 2022003351W WO 2022215328 A1 WO2022215328 A1 WO 2022215328A1
Authority
WO
WIPO (PCT)
Prior art keywords
face
image
change
registered
authentication system
Prior art date
Application number
PCT/JP2022/003351
Other languages
English (en)
French (fr)
Inventor
麻理子 萩原
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US18/272,749 priority Critical patent/US20240096130A1/en
Priority to JP2023512829A priority patent/JP7435908B2/ja
Publication of WO2022215328A1 publication Critical patent/WO2022215328A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof

Definitions

  • This disclosure relates to an authentication system, processing method and program.
  • Patent Literature 1 discloses a technique for accumulating and matching features of face information using facial parts, attribute information, and related information without accumulating the face information of a person detected from an image.
  • Patent Document 2 a plurality of parts necessary for biometric authentication are extracted from a face image, and first feature information obtained by arithmetic processing of positions and features is compared with second feature information to perform face authentication. and, when aging is detected based on the first feature information and the second feature information, a notification prompting the user to update the first feature information is disclosed.
  • the first feature information is registration data
  • the second feature information is data acquired for authentication.
  • Japanese Patent Laid-Open No. 2002-200002 discloses a technique for matching a facial image cut out from a wide-angle image with a pre-registered facial image, correcting the facial image based on the position and orientation of the subject in the image, Techniques for matching based on facial images have been disclosed.
  • Face recognition technology has the following problems.
  • Patent Document 2 when a change over time is detected based on first feature information, which is registered data, and second feature information, which is data acquired for face authentication, updating of registered image data is prompted. Providing a notification to a user is disclosed. However, if the user simply prompts for updating, such as "please update the registered image data", the user cannot understand why the registered image data needs to be updated. That is, the user cannot appropriately determine whether or not the registered image data needs to be updated.
  • the purpose of this disclosure is to make it possible to appropriately determine whether or not image data registered for face authentication needs to be updated.
  • Acquisition means for acquiring a processing target image including a user's face; part-by-part evaluation means for evaluating a change for each part of the face based on a registered image registered in advance and the image to be processed; matching means for performing face matching processing based on the registered image and the processing target image; notification means for notifying a person to be notified of an evaluation result of a change in each part of the face when the matching score of the face matching process satisfies a predetermined condition;
  • An authentication system is provided having:
  • the computer Acquire an image to be processed that includes the user's face, Evaluating a change for each part of the face based on a registered image registered in advance and the image to be processed, performing face matching processing based on the registered image and the processing target image;
  • a processing method is provided for notifying a person to be notified of an evaluation result of a change in each part of the face when the matching score of the face matching process satisfies a predetermined condition.
  • the computer Acquisition means for acquiring a processing target image including the user's face; part-by-part evaluation means for evaluating a change for each part of the face based on a registered image registered in advance and the image to be processed; matching means for performing face matching processing based on the registered image and the processing target image; and notification means for notifying a person to be notified of an evaluation result of a change in each part of the face when the matching score of the face matching process satisfies a predetermined condition;
  • a program is provided to act as a
  • the authentication system of the present embodiment has a function of verifying the identity of the user using face authentication.
  • the authentication system performs face matching processing based on the processing target image and a registration image registered in advance for face authentication.
  • the authentication system then notifies the user of the result of the face matching process.
  • a “processing target image” is an image including a user's face.
  • an image including a user's face that is input to the authentication system for face authentication is an image to be processed.
  • a “user” is a user of a service that can be received by a person who has successfully completed face authentication performed by the authentication system.
  • the authentication system evaluates the change for each part of the face based on the processing target image and the registered image registered in advance for face authentication. Then, when the matching score of the face matching process based on the registered image and the processing target image is equal to or less than the reference value, the authentication system notifies the notification target person of the evaluation result of the change for each part of the face.
  • a “notification target” is a person who needs or preferably receives notification of information related to the update of the registered image. etc. are exemplified.
  • the authentication system extracts users whose registered images need to be updated based on the matching scores of the face matching process based on the registered images and the image to be processed. Then, the authentication system notifies the person to be notified of the material information for determining whether or not to update the extracted user, specifically, the evaluation result of the change for each part of the face.
  • the notification target person can appropriately determine whether or not the registration image registered for face authentication needs to be updated based on the evaluation result of the change for each part of the face.
  • FIG. 1 is a diagram showing a hardware configuration example of an authentication system 10.
  • Each functional unit provided in the authentication system 10 includes a CPU (Central Processing Unit) of any computer, a memory, a program loaded into the memory, a storage unit such as a hard disk for storing the program, a network connection interface, and other hardware. and software in any combination.
  • the storage unit can store not only the programs stored in advance from the stage of shipping the device, but also the programs downloaded from storage media such as CDs (Compact Discs), servers on the Internet, etc. It will be understood by those skilled in the art that there are various modifications of .
  • the authentication system 10 has a processor 1A, a memory 2A, an input/output interface 3A, a peripheral circuit 4A, and a bus 5A.
  • the peripheral circuit 4A includes various modules.
  • the authentication system 10 may not have the peripheral circuit 4A.
  • the authentication system 10 may be composed of a plurality of physically and/or logically separated devices, or may be composed of one device that is physically and logically integrated. When configured with a plurality of physically and/or logically separated devices, each of the plurality of devices can have the above hardware configuration.
  • the bus 5A is a data transmission path for mutually transmitting and receiving data between the processor 1A, the memory 2A, the peripheral circuit 4A and the input/output interface 3A.
  • the processor 1A is, for example, an arithmetic processing device such as a CPU or a GPU (Graphics Processing Unit).
  • the memory 2A is, for example, RAM (Random Access Memory) or ROM (Read Only Memory).
  • the input/output interface 3A includes an interface for acquiring information from an input device, an external device, an external server, an external sensor, or the like, an interface for outputting information to an output device, an external device, an external server, or the like.
  • the input device is, for example, a keyboard, mouse, microphone, or the like.
  • the output device is, for example, a display, speaker, printer, mailer, or the like.
  • the processor 1A can issue commands to each module and perform calculations based on the calculation results thereof.
  • FIG. 2 shows an example of a functional block diagram of the authentication system 10.
  • the authentication system 10 includes an acquisition unit 11 , a collation unit 12 , a part-by-part evaluation unit 13 , a notification unit 14 and a storage unit 15 .
  • the authentication system 10 may not have the storage unit 15 as shown in the functional block diagram of FIG. In this case, an external device configured to be accessible from the authentication system 10 has the storage unit 15 .
  • the storage unit 15 stores various information.
  • the storage unit 15 stores registered images registered for face authentication. Other information stored in the storage unit 15 will be described as appropriate below.
  • the acquisition unit 11 acquires an image to be processed that includes the user's face.
  • the acquisition unit 11 acquires an image including the user's face, which is captured for face authentication and input to the authentication system 10, as a processing target image.
  • the authentication system 10 may have a camera. Then, the acquiring unit 11 may acquire the image created by the camera as the processing target image.
  • the camera is installed at a position and orientation for photographing the face of the user for whom face authentication is to be performed.
  • the authentication system 10 may receive an image including the user's face from an external device. Then, the acquiring unit 11 may acquire the image received from the external device as the processing target image.
  • the external device is a device having a camera function and a communication function, and examples thereof include, but are not limited to, personal computers, smart phones, tablet terminals, smart watches, mobile phones, mobile games, and the like. This example assumes online face authentication.
  • the matching unit 12 performs face matching processing based on registered images registered in the storage unit 15 in advance and the processing target image acquired by the acquisition unit 11 .
  • the face matching process the user's entire face indicated by the registered image and the user's entire face indicated by the processing target image are matched, and a matching score is calculated according to the matching result.
  • the matching unit 12 may perform matching for each part of the face.
  • the collation unit 12 integrates the collation results for each part of the face, and calculates and outputs the collation result for the entire face.
  • the result of matching is a matching score. Face matching processing by the matching unit 12 can be realized using any technique.
  • the storage unit 15 stores the matching score calculated by the matching unit 12 in association with each user.
  • the storage unit 15 may store the matching score of each face matching process performed in the past as a matching history.
  • the past period may be the most recent predetermined period, or may be another period.
  • the part-by-part evaluation unit 13 evaluates changes in facial parts based on registered images registered in advance in the storage unit 15 and the processing target image acquired by the acquisition unit 11 .
  • the processing target image is an image including the user's face that is input to the authentication system 10 for face authentication.
  • Various evaluation methods can be employed in this embodiment, and one example will be described below.
  • the part-by-part evaluation unit 13 creates a 3D registered image and a 3D processing target image from the 2D registration image and the 2D processing target image, and performs the 3D registration image and the 3D processing.
  • the target images are matched with each other.
  • the part-by-part evaluation unit 13 extracts a plurality of feature points for each part of the face from each of the three-dimensional registered image and the three-dimensional processing target image.
  • the extraction result includes information indicating the position of each of the plurality of feature points in coordinates of a three-dimensional coordinate system. Based on the extraction result, the part-by-part evaluation unit 13 calculates, for each facial part, the difference between the feature points of the 3D registered image and the 3D image to be processed, for example, the amount of change in the feature points.
  • facial parts include, but are not limited to, eyes, nose, mouth, eyebrows, chin, and ears.
  • the storage unit 15 stores the evaluation result of the change for each part of the face calculated by the part-by-part evaluation unit 3 in association with each user.
  • the storage unit 15 may store the evaluation result of the change for each facial part calculated in the past period as a matching history.
  • the past period may be the most recent predetermined period, or may be another period.
  • the storage unit 15 may store the evaluation result of the change in the facial parts only when a change of a predetermined level or more is detected. "When a change equal to or greater than a predetermined level is detected” is, for example, a case where a change equal to or greater than a threshold is detected. In other words, the storage unit 15 does not need to store the evaluation result when no change of a predetermined level or more is detected. "When a change equal to or greater than a predetermined level is not detected” is, for example, a case where a change equal to or greater than a threshold value is not detected.
  • the notification unit 14 When the matching score of the face matching process by the matching unit 12 satisfies a predetermined condition, the notification unit 14 notifies the person to be notified of the evaluation result regarding the change for each part of the face.
  • the predetermined condition is "the collation score is equal to or less than the reference value”. That is, when the degree of similarity between the user's face indicated by the registered image and the user's face indicated by the processing target image is equal to or lower than the reference level, the notification unit 14 makes the above notification.
  • the person to be notified is, for example, the user.
  • the notification unit 14 may notify the evaluation result of the change for each part of the face together with the result of the face matching process.
  • the result of face matching processing indicates the result of face authentication, that is, authentication success or authentication failure.
  • the notification unit 14 can make the notification via, for example, a display, a speaker, a projection device, or a user terminal.
  • User terminals are, for example, personal computers, smart phones, tablet terminals, smart watches, mobile phones, mobile games, and the like.
  • the person to be notified may be the operator of the authentication system 10 or the person in charge of the facility that uses the authentication system 10.
  • the notification unit 14 may notify the person to be notified by real-time processing, or may notify the person to be notified by batch processing. In the latter case, a list of users who satisfy the predetermined condition may be presented to the person to be notified along with the evaluation result of the change for each part of the face.
  • the notification unit 14 Guidance on updating registered images, information indicating the parts of the face for which a change equal to or greater than the reference level has been detected; information indicating the degree of change in facial parts for which changes equal to or greater than the reference level have been detected; information indicating transitions of changes in facial parts for which changes equal to or greater than the reference level have been detected; Information indicating the number of detected changes in facial parts where changes equal to or greater than the reference level were detected; Information indicating the number of times a change equal to or greater than the reference level was detected in each facial part; Information indicating the degree of change of each facial part, and Information indicating the transition of changes in each facial part, can be notified as the evaluation result of the change for each part of the face.
  • the notification unit 14 may notify the person to be notified of information indicating the transition of the matching score of the face matching process by the matching unit 12 .
  • "Guidance on updating the registered image” is intended to encourage consideration of updating the registered image. For example, it may be a sentence such as "Please consider updating the registered image.” Other information serves as material for each user to appropriately determine whether or not image data registered for face authentication needs to be updated.
  • Information indicating facial parts for which a change equal to or greater than a reference level has been detected is, for example, information indicating facial parts for which the amount of change calculated for each facial part has been equal to or greater than a threshold.
  • “Information indicating the degree of change in facial parts for which changes equal to or greater than the reference level have been detected” is created based on the amount of change calculated for each facial part.
  • the information may directly indicate the amount of change calculated for each part of the face, or may be information obtained by converting the amount of change calculated for each part of the face into another index.
  • the conversion is realized based on a conversion standard such as "change amount A1 or more: large change", “change amount less than A1, A2 or more: change slightly large”.
  • the information may be information in which the amount of change calculated for each part of the face or the values of other indices converted from the amount of change are arranged in time series, or the amount of change calculated for each part of the face. It may be a graphical representation of the change over time.
  • ⁇ Information indicating the number of times a change equal to or greater than the reference level has been detected in the face parts detected'' is, for example, information indicating a facial part for which the amount of change calculated for each facial part has been equal to or greater than a threshold. and the number of times.
  • ⁇ Information indicating the number of times a change equal to or greater than the reference level was detected in each facial part'' has the same content as the above-mentioned ⁇ Information indicating the number of times a change equal to or greater than the reference level was detected in the facial part'' show.
  • ⁇ information indicating the number of detected times in facial parts where changes equal to or greater than the reference level have been detected'' includes only information on facial parts where changes equal to or greater than the reference level have been detected
  • ⁇ each face "Information indicating the number of times a change was detected in a part of" differs in that it does not have such a limitation.
  • “Information indicating the number of times a change equal to or greater than the reference level is detected in each facial part” may include, for example, information on all facial parts.
  • “information indicating the number of times changes above the reference level were detected in each facial part” for example, all facial parts are displayed in a list, linked to each facial part, and changes above the reference level are detected. number of times Note that "0" is indicated as the number of times for parts of the face for which a change equal to or greater than the reference level has not been detected.
  • “Information indicating the degree of change in each facial part” indicates the same content as the above "Information indicating the degree of change in facial parts for which a change equal to or greater than the reference level is detected". However, the ⁇ information indicating the degree of change in facial parts for which changes equal to or greater than the reference level have been detected'' includes only information for facial parts for which changes equal to or greater than the reference level have been detected. “Information indicating degree of change of parts” differs in that it does not have such a limitation. “Information indicating the degree of change of each facial part” may include, for example, information on all facial parts.
  • the degree of change of each facial part for example, all facial parts are displayed in a list, and information indicating the degree of change is displayed in association with each facial part.
  • the information indicating the degree of change may directly indicate the amount of change calculated for each part of the face, or may be information obtained by converting the amount of change calculated for each part of the face into another index.
  • the conversion is based on a conversion standard such as "change amount A1 or more: large change", “change amount less than A1, A2 or more: slightly large change", “change amount less than A2, A3 or more: small”, etc. Realized.
  • “Information indicating the change transition of each facial part” indicates the same content as the above "information indicating the change transition of the facial part for which a change equal to or greater than the reference level is detected". However, the ⁇ information indicating the transition of changes in facial parts for which a change equal to or greater than the reference level has been detected'' includes only information for the facial parts for which a change equal to or greater than the reference level has been detected. "Information indicating transition of change of parts” is different in that it does not have such a limitation. "Information indicating transition of change in each facial part” may include, for example, information on all facial parts. In the “information indicating transition of change of each facial part”, for example, all facial parts are displayed in a list, and information indicating transition of change is displayed in association with each facial part.
  • the "information indicating the transition of the matching score of the face matching process by the matching unit 12" may be information in which the matching score of the face matching process is arranged in chronological order, or a graph showing the time change of the matching score of the face matching process. may be displayed in .
  • the notification unit 14 may further notify the person to be notified of the registration date of the registered image.
  • the authentication system 10 When the authentication system 10 acquires the processing target image including the user's face (S10), the authentication system 10 evaluates the change for each part of the face based on the registered image registered in advance and the processing target image acquired in S10 (S11 ). Further, the authentication system 10 performs face matching processing based on the registration image registered in advance and the processing target image acquired in S10 (S12). Then, when the matching score of the face matching process satisfies the predetermined condition that the matching score is equal to or less than the reference value (Yes in S13), the authentication system 10 notifies the person to be notified of the evaluation result of the change for each part of the face (S14). If the matching score of the face matching process does not satisfy the predetermined condition that the matching score is equal to or less than the reference value (No in S13), the authentication system 10 does not notify the person to be notified of the evaluation result of the change for each part of the face.
  • the processing order of the processing of S11 and the processing of S12 is not limited to the illustrated example.
  • the processing of S11 may be performed after the processing of S12, or the processing of S11 and the processing of S12 may be performed in parallel.
  • the user who performs face authentication takes a picture of his/her own face (S100).
  • face authentication is performed for personal identification when logging into a predetermined system, entering a predetermined facility, receiving services provided by a company or government, and the like.
  • a device for capturing a face image of the user may be a dedicated device installed at a predetermined position, or may be a user terminal of the user himself/herself.
  • the predetermined position where the dedicated device is installed is exemplified by the entrance of a facility, but is not limited to this.
  • User terminals include, but are not limited to, personal computers, smart phones, tablet terminals, smart watches, mobile phones, mobile games, and the like.
  • the captured two-dimensional face image is transmitted to the authentication system 10 through wired and/or wireless communication.
  • the authentication system 10 acquires the two-dimensional face image as an image to be processed, and performs face matching processing for matching a two-dimensional registered image that has been registered in advance (S101).
  • the authentication system 10 notifies the user that face authentication has failed (S103).
  • the notification may be made through a dedicated device installed at a predetermined location, or may be made through the user's own user terminal.
  • S1 is a threshold defined using a numerical value indicating a matching score, and indicates the boundary between success and failure of face authentication.
  • S2 is a threshold defined using a numerical value indicating a matching score, and indicates a boundary as to whether or not to notify the evaluation result of the change for each facial part. Note that S1 ⁇ S2. The notification may be made through a dedicated device installed at a predetermined location, or may be made through the user's own user terminal.
  • the authentication system 10 recognizes each face part registered in association with the user. is read out from the storage unit 15 (S106). Then, the authentication system 10 notifies the user of the fact that the face authentication has succeeded and the evaluation result of the change for each part of the face (S107). The notification may be made through a dedicated device installed at a predetermined location, or may be made through the user's own user terminal.
  • FIG. 3 shows an example of information notified together with the fact that face authentication has succeeded, but the information is not limited to this.
  • the authentication system 10 associates the image to be processed with the matching score, which is the result of face matching in S101, and stores them in the storage unit 15 (S108).
  • the storage unit 15 stores a photo ID (identifier) that is information for mutually identifying images to be processed, a user ID that is information for mutually identifying users, and images to be processed.
  • the authentication system 10 creates a three-dimensional image to be processed from the acquired two-dimensional image to be processed (S109). Then, the authentication system 10 creates a three-dimensional processing target image created from the acquired two-dimensional processing target image and a three-dimensional processing target image created from the user's two-dimensional registered image stored in the storage unit 15. Based on the registered image, changes are evaluated for each part of the face (S110). As such, the authentication system 10 stores the evaluation result of S110 in the storage unit 15 (S111).
  • the storage unit 15 stores information in which photo IDs, user IDs, matching scores, analysis dates and times, face part information, and change amount information are linked.
  • the photo ID, user ID and matching score are as described above.
  • the analysis date and time indicates the date and time when the process of S110 was performed.
  • the facial part information indicates facial parts for which a change equal to or greater than the reference level has been detected.
  • the amount of change indicates the amount of change in facial parts for which changes equal to or greater than the reference level have been detected.
  • FIG. 4 includes processes other than the processes of S108 to S111 of FIG.
  • the user performs a task of registering a two-dimensional registration image 2R including his/her own face in the authentication system 10.
  • the authentication system 10 acquires the two-dimensional registered image 2R and stores it in the storage unit 15 (S200).
  • the work performed by the user for registration of the two-dimensional registration image 2R and the details of the processing of S200 are not particularly limited.
  • the authentication system 10 creates a three-dimensional registered image 3R from the two-dimensional registered image 2R and stores it in the storage unit 15 (S201).
  • the authentication system 10 performs the following processing. do.
  • the authentication system 10 associates the processing target image 2P with the matching score, which is the result of face matching in S101 of FIG. 3, and stores them in the storage unit 15 (S203, S205, S207).
  • the authentication system 10 also creates a three-dimensional processing target image 3P from each of the two-dimensional processing target images 2P stored in the storage unit 15, and stores the three-dimensional processing target image 3P in the storage unit 15 (S204, S206, S208).
  • the authentication system 10 Based on the three-dimensional registered image 3R created from the two-dimensional registered image 2R and the three-dimensional processing target image 3P created from the two-dimensional processing target image 2P, the authentication system 10 identifies facial parts. Each time, the changes in facial parts are evaluated. For example, the authentication system 10 calculates the amount of change described above for each part of the face (S209). Next, the authentication system 10 stores the evaluation result of S209 in the storage unit 15 (S210).
  • An example of the information that the notification unit 14 of the authentication system 10 notifies to the person to be notified is shown in the "output unit" column of FIG.
  • Information included in the "result display” is an example of information notified to the user.
  • Report output is an example of information notified to the operator of the authentication system 10 or the person in charge of the facility using the authentication system 10 .
  • the authentication system 10 of the present embodiment notifies the person to be notified of the evaluation result of the change for each part of the face when a predetermined condition is satisfied. Based on the evaluation result of the change for each part of the face, the person to be notified can appropriately judge whether or not the image data registered for face authentication needs to be updated, even if the update period is not reached. can. Moreover, even if the person is authenticated by advanced face authentication technology, the image data may not be suitable as image data to be registered for authentication because the image changes greatly when viewed by the human eye. Even in this case, in this embodiment, the image data registered for face authentication can be updated to the latest image data at an appropriate timing for the individual in accordance with changes in the face.
  • the authentication system 10 of the present embodiment can limit the notification of the evaluation result to cases where a predetermined condition is satisfied. By configuring in this way, it is possible to suppress the inconvenience of unnecessary notification and unnecessary prompting of the user or the like to determine whether or not image data registered for face authentication needs to be updated.
  • the predetermined condition is "when the matching score of the face matching process based on the registered image and the processing target image is equal to or less than the reference value S2", that is, when the similarity between the registered image and the processing target image is If it is equal to or less than the reference value S2, it can be assumed.
  • the user or the like can be notified of the evaluation result at an appropriate timing, and can be encouraged to determine whether or not the image data registered for face authentication needs to be updated.
  • the authentication system 10 provides the notification target person with information indicating the facial parts for which a change equal to or greater than the reference level has been detected, information indicating the degree of change in the facial parts for which a change equal to or greater than the reference level has been detected, and the reference level.
  • At least one of them can be notified to the person to be notified. Based on such useful information, the person to be notified can appropriately determine whether or not the image data registered for face authentication needs to be updated.
  • the notification unit 14 notifies the evaluation result of the change for each part of the face when the matching score of the face matching process by the matching unit 12 satisfies the predetermined condition that it is equal to or less than the reference value.
  • the notification unit 14 determines that the matching score of the face matching process by the matching unit 12 satisfies the above-described predetermined conditions, and the evaluation result of the change for each part of the face is one or more of the other predetermined conditions. is satisfied, the notification target person is notified of the evaluation result of the change for each part of the face.
  • Another predetermined condition is There are parts of the face where changes above the reference level are detected, There is a part of the face for which a change equal to or greater than the reference level has been detected more than a predetermined number of times. There are a predetermined number or more of facial parts for which changes equal to or greater than the reference level have been detected, There are a predetermined number or more of facial parts for which a change equal to or greater than the reference level has been detected a predetermined number of times or more.
  • a change above the standard level was detected in important pre-registered facial parts, A change equal to or greater than a reference level is detected a predetermined number of times or more in important pre-registered facial parts, or There is a part of the face for which a change equal to or greater than the reference level has been detected, and the fact that the detected part of the face has undergone surgery is registered in the surgery history information. is.
  • the “reference level” can be defined using the amount of change described in the first embodiment.
  • Pre-registered important facial parts are facial parts that are highly important for facial recognition. Although there are no particular restrictions on which facial parts are set as important facial parts, for example, the eyes, nose, mouth, etc. may be treated as important facial parts.
  • “Surgery history information” is information indicating the history of each user's surgery.
  • An external system stores the information. Then, the authentication system 10 acquires surgery history information from an external system.
  • FIG. 5 schematically shows an example of surgery history information.
  • a user ID, a surgery date, and a surgically operated facial part are registered in association with each other.
  • the user ID in the surgery history information and the user ID managed by the authentication system 10 may be the same information or different information. In the case of using the same information, for example, identification information given to citizens by the government, such as my number, may be used as the user ID. If different information is used, means for identifying the correspondence relationship between the user ID in the surgery history information and the user ID managed by the authentication system 10 is required. In this case, based on the user ID in the surgery history information and other information associated with each user ID managed by the authentication system 10, the correspondence relationship between these two user IDs may be specified.
  • the authentication system 10 identifies a combination of the "user ID of the surgery history information" and the "user ID managed by the authentication system 10" that match other information as the user ID of the same user. Other information includes, but is not limited to, address, phone number, date of birth, and the like.
  • the predetermined condition for notifying the person to be notified of the evaluation result of the change for each part of the face is that "the matching score of the face matching process based on the registered image and the processing target image is equal to or less than the reference value. (if the similarity is less than or equal to the reference value), and if the evaluation result of the change for each facial part satisfies the above other predetermined conditions”, that is, if the similarity between the registered image and the image to be processed is less than or equal to the reference value and the evaluation result of the change for each part of the face satisfies the other predetermined condition.
  • the evaluation result can be notified to the user at appropriate timing, and the user can be prompted to determine whether or not the image data registered for face authentication needs to be updated. Further, it is possible to suppress the inconvenience of unnecessary notification and unnecessary prompting of the user to determine whether or not image data registered for face authentication needs to be updated.
  • the part-by-part evaluation unit 13 creates a 3D registered image and a 3D processing target image from the 2D registration image and the 2D processing target image, and generates the 3D registration image and the 3D processing target image. Based on the image to be processed, changes were evaluated for each part of the face. As a modified example, the part-by-part evaluation unit 13 does not create a 3D registered image and a 3D processing target image, and changes each part of the face while maintaining the 2D registration image and the 2D processing target image. may be evaluated.
  • the acquisition unit 11 acquires an image input for face authentication as an image to be processed.
  • the acquisition unit 11 may acquire an image different from the image input for face authentication as the processing target image. Further, the acquisition unit 11 may acquire both an image input for face authentication and an image different from the image input for face authentication, as images to be processed.
  • the acquisition unit 11 may acquire, from an external system, the user's face image input to the external system. There are no particular restrictions on the functions of the external system or the content of services provided to users.
  • the user ID managed by the external system and the user ID managed by the authentication system 10 may be the same information or different information. In the case of using the same information, for example, identification information given to citizens by the government, such as my number, may be used as the user ID. If different information is used, means for identifying the correspondence between the user ID managed by the external system and the user ID managed by the authentication system 10 is required. In this case, the correspondence relationship between these two user IDs may be specified based on other information associated with the user ID managed by the external system and the user ID managed by the authentication system 10 .
  • the authentication system 10 identifies a combination of the "user ID managed by the external system" and the "user ID managed by the authentication system 10" that match other information as the user ID of the same user. Other information includes, but is not limited to, address, phone number, date of birth, and the like.
  • the external system is a system that performs face authentication, and may be a system different from the authentication system 10 or a system with other functions.
  • the authentication system 10 when the matching score of the face matching process by the matching unit 12 is S1 or less (Yes in S102), the authentication system 10 indicates that the face authentication has failed. was notified to the user (S103). As a modification, when the matching score of the face matching process by the matching unit 12 is S1 or less (Yes in S102), the authentication system 10 notifies that the face authentication has failed and the evaluation result of the change for each part of the face. person may be notified.
  • the authentication system 10 cannot identify the user who has input the image to be processed. Therefore, the authentication system 10 notifies the person to be notified of the evaluation result of the change for each part of the user's face associated with the registered image with the highest matching score in the face matching process with the processing target image. good too.
  • acquisition means "acquisition of data stored in another device or storage medium by one's own device based on user input or program instructions (active acquisition)", for example, receiving by requesting or querying other devices, accessing and reading other devices or storage media, etc., and based on user input or program instructions, " Inputting data output from other devices to one's own device (passive acquisition), for example, receiving data distributed (or transmitted, push notification, etc.), and received data or information Select and acquire from among, and create new data by "editing data (converting to text, rearranging data, extracting some data, changing file format, etc.), and/or "obtaining data”.
  • Acquisition means for acquiring a processing target image including a user's face; part-by-part evaluation means for evaluating a change for each part of the face based on a registered image registered in advance and the image to be processed; matching means for performing face matching processing based on the registered image and the processing target image; notification means for notifying a person to be notified of an evaluation result of a change in each part of the face when the matching score of the face matching process satisfies a predetermined condition; authentication system.
  • the notification means 1. Notifying the person to be notified of information on facial parts for which a change equal to or greater than a reference level has been detected. The authentication system described in .
  • the notification means 1. Notifying the person to be notified of information indicating the transition of the matching score. or 2.
  • the notification means When the matching score of the face matching process satisfies a predetermined condition and the evaluation result satisfies another predetermined condition, the notification target person is notified of the evaluation result.1. to 3.
  • the other predetermined conditions are defined based on changes for each part of the face.
  • the evaluation means are 1. Evaluate changes for each facial part based on a three-dimensional registered image created from the two-dimensional registered image and a three-dimensional image to be processed created from the two-dimensional image to be processed. to 5.
  • the notification means Notifying the user of the evaluation result together with the result of the face matching process1. to 6.
  • the notification means Notification of the evaluation result to an administrator who manages the registered images of the plurality of users1. to 7.
  • the authentication system according to any one of . 9. the computer Acquire an image to be processed that includes the user's face, Evaluating a change for each part of the face based on a registered image registered in advance and the image to be processed, performing face matching processing based on the registered image and the processing target image; A processing method for notifying a person to be notified of an evaluation result of a change in each part of the face when the matching score of the face matching process satisfies a predetermined condition. 10.
  • Acquisition means for acquiring a processing target image including the user's face; part-by-part evaluation means for evaluating a change for each part of the face based on a registered image registered in advance and the image to be processed; matching means for performing face matching processing based on the registered image and the processing target image; and notification means for notifying a person to be notified of an evaluation result of a change in each part of the face when the matching score of the face matching process satisfies a predetermined condition;
  • a program that acts as

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Collating Specific Patterns (AREA)

Abstract

この開示は、ユーザの顔を含む処理対象画像を取得する取得部(11)と、予め登録された登録画像と処理対象画像とに基づき、顔のパーツ毎に変化を評価するパーツ毎評価部(13)と、登録画像と処理対象画像とに基づき、顔照合処理を行う照合部(12)と、顔照合処理の照合スコアが所定条件を満たす場合、顔のパーツ毎の変化の評価結果を通知対象者に通知する通知部(14)と、を有する認証システム(10)を提供する。

Description

認証システム、処理方法及びプログラム
 この開示は、認証システム、処理方法及びプログラムに関する。
 この開示に関連する技術が、特許文献1乃至3に開示されている。
 特許文献1には、画像から検出した人物の顔情報そのものを蓄積せずに、顔のパーツ、属性情報及び関連情報で顔情報の特徴を蓄積して照合する技術が開示されている。
 特許文献2には、顔の画像から生体認証に必要な複数のパーツを抽出し、位置や特徴を演算処理して求めた第1の特徴情報と第2の特徴情報とを照合して顔認証を行うこと、及び、第1の特徴情報及び第2の特徴情報に基づき経年変化が検出された場合、第1の特徴情報の更新を促す通知を利用者に対して行うことが開示されている。第1の特徴情報は登録データであり、第2の特徴情報は認証用に取得されたデータである。
 特許文献3には、広角画像から切り出した顔画像と、予め登録された顔画像とを照合する技術であって、画像内の被写体の位置や向きに基づき上記顔画像を補正し、補正後の顔画像に基づき照合する技術が開示されている。
特開2012-203592号公報 特開2013-206232号公報 特開2020-154408号公報
 近年、顔認証技術が広く利用されている。顔認証技術においては、次の課題がある。
 特許文献2には、登録データである第1の特徴情報と、顔認証用に取得されたデータである第2の特徴情報に基づき経年変化が検出された場合、登録した画像データの更新を促す通知をユーザに対して行うことが開示されている。しかし、「登録した画像データを更新してください」等のように、単に更新を促すだけの場合、ユーザは、なぜ登録した画像データの更新が必要なのかを理解できない。すなわち、ユーザは、登録した画像データの更新の要否を適切に判断することができない。
 この開示は、顔認証用に登録した画像データの更新要否を適切に判断できるようにすることを課題とする。
 この開示によれば、
 ユーザの顔を含む処理対象画像を取得する取得手段と、
 予め登録された登録画像と前記処理対象画像とに基づき、顔のパーツ毎に変化を評価するパーツ毎評価手段と、
 前記登録画像と前記処理対象画像とに基づき、顔照合処理を行う照合手段と、
 前記顔照合処理の照合スコアが所定条件を満たす場合、顔のパーツ毎の変化の評価結果を通知対象者に通知する通知手段と、
を有する認証システムが提供される。
 また、この開示によれば、
 コンピュータが、
  ユーザの顔を含む処理対象画像を取得し、
  予め登録された登録画像と前記処理対象画像とに基づき、顔のパーツ毎に変化を評価し、
  前記登録画像と前記処理対象画像とに基づき、顔照合処理を行い、
  前記顔照合処理の照合スコアが所定条件を満たす場合、顔のパーツ毎の変化の評価結果を通知対象者に通知する処理方法が提供される。
 また、この開示によれば、
 コンピュータを、
  ユーザの顔を含む処理対象画像を取得する取得手段、
  予め登録された登録画像と前記処理対象画像とに基づき、顔のパーツ毎に変化を評価するパーツ毎評価手段、
  前記登録画像と前記処理対象画像とに基づき、顔照合処理を行う照合手段、及び、
  前記顔照合処理の照合スコアが所定条件を満たす場合、顔のパーツ毎の変化の評価結果を通知対象者に通知する通知手段、
として機能させるプログラムが提供される。
本実施形態の認証システムのハードウエア構成の一例を示す図である。 本実施形態の認証システムの機能ブロック図の一例を示す図である。 本実施形態の認証システムの処理の流れの一例を示す図である。 本実施形態の認証システムの処理の流れの一例を示す図である。 本実施形態の認証システムが処理する情報の一例を模式的に示す図である。 本実施形態の認証システムの機能ブロック図の一例を示す図である。 本実施形態の認証システムの処理の流れの一例を示す図である。
 以下、この開示の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
 まず、この開示の実施形態の理解を容易にするために、この開示の背景を説明する。
 顔認証用に登録した画像データにおいて、人の顔は、加齢、生活習慣、外科手術等の様々な要因により変化するため、更新時期に満たない場合であっても最新の画像データに更新する方が適切な場合がある。それは、例えば、高度な顔認証技術により本人であるという認証がなされたとしても、人が目で見た場合の変化が大きく、認証用に登録する画像データとして適切ではない場合である。このため、顔認証用に登録した画像データを、顔の変化に応じて個人の適切なタイミングで最新の画像データに更新する必要がある。また、関連する技術には、登録した画像データの更新要否を、適切に判断する手段がなかった。
 以下に説明されるこの開示の実施形態によれば、顔認証用に登録した画像データの更新要否を、顔の変化に応じて個人の適切なタイミングで判断できる。
<第1の実施形態>
「概要」
 本実施形態の認証システムは、顔認証を利用してユーザの本人確認を行う機能を備える。認証システムは、処理対象画像を取得すると、処理対象画像と予め顔認証用に登録された登録画像とに基づき顔照合処理を行う。そして、認証システムは、顔照合処理の結果をユーザに通知する。「処理対象画像」は、ユーザの顔を含む画像である。本実施形態では、顔認証のために認証システムに入力されたユーザの顔を含む画像が処理対象画像となる。「ユーザ」は、認証システムが実施する顔認証に成功した人が受けられるサービスのユーザである。
 また、認証システムは、処理対象画像を取得すると、当該処理対象画像と予め顔認証用に登録された登録画像とに基づき、顔のパーツ毎に変化を評価する。そして、認証システムは、登録画像と処理対象画像とに基づく上記顔照合処理の照合スコアが基準値以下の場合、顔のパーツ毎の変化の評価結果を通知対象者に通知する。「通知対象者」は、登録画像の更新に関わる情報を通知する必要がある又は通知することが好ましい人であり、例えばユーザ自身や、認証システムのオペレータや、認証システムを利用する施設の担当者等が例示される。
 このように、認証システムは、登録画像と処理対象画像とに基づく顔照合処理の照合スコアに基づき、登録画像の更新要否を検討する必要があるユーザを抽出する。そして、認証システムは、抽出したユーザに関する更新の要否を判断するための材料情報、具体的には顔のパーツ毎の変化の評価結果を、通知対象者に通知する。通知対象者は、顔のパーツ毎の変化の評価結果に基づき、顔認証用に登録した登録画像の更新要否を適切に判断できる。
「ハードウエア構成」
 次に、認証システム10のハードウエア構成の一例を説明する。図1は、認証システム10のハードウエア構成例を示す図である。認証システム10が備える各機能部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされるプログラム、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェイスを中心にハードウエアとソフトウエアの任意の組合せによって実現される。記憶ユニットは、あらかじめ装置を出荷する段階から格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納できるそして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
 図1に示すように、認証システム10は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路4Aには、様々なモジュールが含まれる。認証システム10は、周辺回路4Aを有さなくてもよい。なお、認証システム10は物理的及び/又は論理的に分かれた複数の装置で構成されてもよいし、物理的及び論理的に一体となった1つの装置で構成されてもよい。物理的及び/又は論理的に分かれた複数の装置で構成される場合、複数の装置各々が上記ハードウエア構成を備えることができる。
 バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU、GPU(Graphics Processing Unit)などの演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力インターフェイス3Aは、入力装置、外部装置、外部サーバ、外部センサ等から情報を取得するためのインターフェイスや、出力装置、外部装置、外部サーバ等に情報を出力するためのインターフェイスなどを含む。入力装置は、例えばキーボード、マウス、マイク等である。出力装置は、例えばディスプレイ、スピーカ、プリンター、メーラ等である。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。
「機能構成」
 次に、認証システム10の機能構成を説明する。図2に、認証システム10の機能ブロック図の一例を示す。図示するように、認証システム10は、取得部11と、照合部12と、パーツ毎評価部13と、通知部14と、記憶部15とを有する。なお、認証システム10は、図6の機能ブロック図に示すように記憶部15を有さなくてもよい。この場合、認証システム10からアクセス可能に構成された外部装置が記憶部15を備える。
 記憶部15は、各種情報を記憶する。例えば、記憶部15は、顔認証用に登録された登録画像を記憶する。記憶部15が記憶するその他の情報は、以下で適宜説明する。
 取得部11は、ユーザの顔を含む処理対象画像を取得する。本実施形態では、取得部11は、顔認証のために撮影され、認証システム10に入力されたユーザの顔を含む画像を処理対象画像として取得する。
 例えば、認証システム10はカメラを有してもよい。そして、取得部11は、当該カメラが作成した画像を、処理対象画像として取得してもよい。当該カメラは、顔認証を行うユーザの顔を撮影する位置及び向きで設置される。
 その他、認証システム10は、外部装置から、ユーザの顔を含む画像を受信してもよい。そして、取得部11は、当該外部装置から受信した画像を、処理対象画像として取得してもよい。外部装置は、カメラ機能と通信機能とを備えた装置であり、例えばパーソナルコンピュータ、スマートフォン、タブレット端末、スマートウォッチ、携帯電話、携帯ゲーム等が例示されるが、これらに限定されない。この例は、オンラインでの顔認証を想定したものである。
 照合部12は、予め記憶部15に登録されている登録画像と、取得部11が取得した処理対象画像とに基づき、顔照合処理を行う。顔照合処理では、登録画像で示されるユーザの顔全体と、処理対象画像で示されるユーザの顔全体とが照合され、照合結果に応じた照合スコアが算出される。本実施形態では、登録画像で示されるユーザの顔と、処理対象画像で示されるユーザの顔とが類似しているほど、照合スコアの値が大きくなるものとするが、その逆であってもよい。当該照合において、照合部12は、顔のパーツ毎の照合を行ってもよい。しかし、この場合であっても、照合部12は、顔のパーツ毎の照合結果を統合し、顔全体での照合の結果を算出して出力する。照合の結果は、照合スコアである。照合部12による顔照合処理は、あらゆる技術を利用して実現できる。
 記憶部15は、照合部12が算出した照合スコアを、各ユーザに紐付けて記憶する。記憶部15は、過去の期間に行われた顔照合処理各々の照合スコアを照合履歴として記憶してもよい。過去の期間は、直近の所定期間であってもよいし、その他であってもよい。
 パーツ毎評価部13は、予め記憶部15に登録されている登録画像と、取得部11が取得した処理対象画像とに基づき、顔のパーツの変化を評価する。上述の通り、処理対象画像は、顔認証のために認証システム10に入力されたユーザの顔を含む画像である。本実施形態では、様々な評価手法を採用できるが、以下一例を説明する。
 当該例では、パーツ毎評価部13は、2次元の登録画像及び2次元の処理対象画像から3次元の登録画像及び3次元の処理対象画像を作成し、3次元の登録画像及び3次元の処理対象画像同士で照合する。この場合、パーツ毎評価部13は、3次元の登録画像及び3次元の処理対象画像各々から、顔のパーツ毎に特徴点を複数抽出する。抽出結果には、複数の特徴点各々の位置を3次元座標系の座標で示した情報等が含まれる。そして、パーツ毎評価部13は、抽出結果に基づき、顔のパーツ毎に、3次元の登録画像及び3次元の処理対象画像の特徴点の差、例えば特徴点の変化量を算出する。
 顔のパーツは、目、鼻、口、眉毛、顎、耳等が例示されるが、これらに限定されない。
 記憶部15は、パーツ毎評価部3が算出した顔のパーツ毎の変化の評価結果を、各ユーザに紐付けて記憶する。記憶部15は、過去の期間に算出された顔のパーツ毎の変化の評価結果を照合履歴として記憶してもよい。過去の期間は、直近の所定期間であってもよいし、その他であってもよい。また、記憶部15は、所定レベル以上の変化が検出された場合のみ、その顔のパーツの変化の評価結果を記憶してもよい。「所定レベル以上の変化が検出された場合」は、例えば閾値以上の変化量が検出された場合である。すなわち、記憶部15は、所定レベル以上の変化が検出されなかった場合の上記評価結果は記憶しなくてもよい。「所定レベル以上の変化が検出されかった場合」は、例えば閾値以上の変化量が検出されなかった場合である。
 通知部14は、照合部12による顔照合処理の照合スコアが所定条件を満たす場合、顔のパーツ毎の変化に関する評価結果を通知対象者に通知する。
 上述の通り、本実施形態では、登録画像で示されるユーザの顔と、処理対象画像で示されるユーザの顔とが類似しているほど、顔照合処理の照合スコアの値が大きくなる。この場合の上記所定条件は、「照合スコアが基準値以下」である。すなわち、登録画像で示されるユーザの顔と、処理対象画像で示されるユーザの顔との類似度が基準レベル以下である場合、通知部14は上記通知を行う。
 通知対象者は、例えばユーザである。この場合、通知部14は、顔照合処理の結果とともに、顔のパーツ毎の変化の評価結果を通知してもよい。顔照合処理の結果は、顔認証の結果、すなわち認証成功又は認証失敗を示す。通知部14は、例えば、ディスプレイ、スピーカ、投影装置、ユーザ端末を介して、当該通知を行うことができる。ユーザ端末は、例えばパーソナルコンピュータ、スマートフォン、タブレット端末、スマートウォッチ、携帯電話、携帯ゲーム等である。
 その他、通知対象者は、認証システム10のオペレータ又は認証システム10を利用する施設の担当者であってもよい。この場合、通知部14は、リアルタイム処理で通知対象者に通知してもよいし、バッチ処理で通知対象者に通知してもよい。後者の場合、上記所定条件を満たしたユーザの一覧が、上記顔のパーツ毎の変化の評価結果とともに、通知対象者に提示されてもよい。
 通知部14は、
 登録画像の更新の案内、
 基準レベル以上の変化が検出された顔のパーツを示す情報、
 基準レベル以上の変化が検出された顔のパーツの変化の程度を示す情報、
 基準レベル以上の変化が検出された顔のパーツの変化の遷移を示す情報、
 基準レベル以上の変化が検出された顔のパーツにおける検出された回数を示す情報、
 各顔のパーツにおいて基準レベル以上の変化が検出された回数を示す情報、
 各顔のパーツの変化の程度を示す情報、及び、
 各顔のパーツの変化の遷移を示す情報、
の中の少なくとも1つを、顔のパーツ毎の変化の評価結果として通知することができる。その他、通知部14は、照合部12による顔照合処理の照合スコアの遷移を示す情報を、通知対象者に通知してもよい。
 「登録画像の更新の案内」は、登録画像の更新の検討を促すものであり、例えば、「登録画像の更新を検討してください。」等の文章であってもよい。その他の情報が、顔認証用に登録した画像データの更新要否を各ユーザが適切に判断するための材料となる。
 「基準レベル以上の変化が検出された顔のパーツを示す情報」は、例えば上記顔のパーツ毎に算出した変化量が閾値以上となったことがある顔のパーツを示す情報である。
 「基準レベル以上の変化が検出された顔のパーツの変化の程度を示す情報」は、上記顔のパーツ毎に算出した変化量に基づき作成される。当該情報は、顔のパーツ毎に算出した変化量そのものを示してもよいし、顔のパーツ毎に算出した変化量を他の指標に変換した情報であってもよい。当該変換は、例えば「変化量A1以上:変化大」、「変化量A1より小、A2以上:変化やや大」等のような変換基準に基づき実現される。
 「基準レベル以上の変化が検出された顔のパーツの変化の遷移を示す情報」は、上記顔のパーツ毎に算出した変化量に基づき作成される。当該情報は、顔のパーツ毎に算出した変化量又は当該変化量から変換された他の指標の値を時系列に並べた情報であってもよいし、顔のパーツ毎に算出した変化量の時間変化をグラフで表示したものであってもよい。
 「基準レベル以上の変化が検出された顔のパーツにおける検出された回数を示す情報」は、例えば上記顔のパーツ毎に算出した変化量が閾値以上となったことがある顔のパーツを示す情報と、その回数とを示す情報である。
 「各顔のパーツにおいて基準レベル以上の変化が検出された回数を示す情報」は、上記「基準レベル以上の変化が検出された顔のパーツにおける検出された回数を示す情報」と同様の内容を示す。しかし、「基準レベル以上の変化が検出された顔のパーツにおける検出された回数を示す情報」は、基準レベル以上の変化が検出された顔のパーツの情報のみを含むのに対し、「各顔のパーツにおいて変化が検出された回数を示す情報」は、このような限定を有さない点で異なる。「各顔のパーツにおいて基準レベル以上の変化が検出された回数を示す情報」は、例えばすべての顔のパーツの情報を含んでもよい。「各顔のパーツにおいて基準レベル以上の変化が検出された回数を示す情報」においては、例えばすべての顔のパーツが一覧表示され、各顔のパーツに紐付けて、基準レベル以上の変化が検出された回数が示される。なお、基準レベル以上の変化が検出されていない顔のパーツにおいては、上記回数として「0」が示される。
 「各顔のパーツの変化の程度を示す情報」は、上記「基準レベル以上の変化が検出された顔のパーツの変化の程度を示す情報」と同様の内容を示す。しかし、「基準レベル以上の変化が検出された顔のパーツの変化の程度を示す情報」は、基準レベル以上の変化が検出された顔のパーツの情報のみを含むのに対し、「各顔のパーツの変化の程度を示す情報」は、このような限定を有さない点で異なる。「各顔のパーツの変化の程度を示す情報」は、例えばすべての顔のパーツの情報を含んでもよい。「各顔のパーツの変化の程度を示す情報」においては、例えばすべての顔のパーツが一覧表示され、各顔のパーツに紐付けて、変化の程度を示す情報が表示される。変化の程度を示す情報は、顔のパーツ毎に算出した変化量そのものを示してもよいし、顔のパーツ毎に算出した変化量を他の指標に変換した情報であってもよい。当該変換は、例えば「変化量A1以上:変化大」、「変化量A1より小、A2以上:変化やや大」、「変化量A2より小、A3以上:小」等のような変換基準に基づき実現される。
 「各顔のパーツの変化の遷移を示す情報」は、上記「基準レベル以上の変化が検出された顔のパーツの変化の遷移を示す情報」と同様の内容を示す。しかし、「基準レベル以上の変化が検出された顔のパーツの変化の遷移を示す情報」は、基準レベル以上の変化が検出された顔のパーツの情報のみを含むのに対し、「各顔のパーツの変化の遷移を示す情報」は、このような限定を有さない点で異なる。「各顔のパーツの変化の遷移を示す情報」は、例えばすべての顔のパーツの情報を含んでもよい。「各顔のパーツの変化の遷移を示す情報」においては、例えばすべての顔のパーツが一覧表示され、各顔のパーツに紐付けて、変化の遷移を示す情報が表示される。
 「照合部12による顔照合処理の照合スコアの遷移を示す情報」は、顔照合処理の照合スコアを時系列に並べた情報であってもよいし、顔照合処理の照合スコアの時間変化をグラフで表示したものであってもよい。
 また、登録画像の登録日が記憶部15に記憶されている場合、通知部14は、登録画像の登録日をさらに通知対象者に通知してもよい。
 次に、図7のフローチャートを用いて、認証システム10の処理の流れの一例を説明する。
 認証システム10は、ユーザの顔を含む処理対象画像を取得すると(S10)、予め登録された登録画像と、S10で取得した処理対象画像とに基づき、顔のパーツ毎に変化を評価する(S11)。また、認証システム10は、予め登録された登録画像と、S10で取得した処理対象画像とに基づき、顔照合処理を行う(S12)。そして、認証システム10は、顔照合処理の照合スコアが基準値以下という所定条件を満たす場合(S13のYes)、顔のパーツ毎の変化の評価結果を通知対象者に通知する(S14)。認証システム10は、顔照合処理の照合スコアが基準値以下という所定条件を満たさない場合(S13のNo)、顔のパーツ毎の変化の評価結果を通知対象者に通知しない。
 なお、S11の処理とS12の処理の処理順は、図示する例に限定されない。S12の処理の後にS11の処理を行ってもよいし、S11の処理とS12の処理を並行して行ってもよい。
 次に、図3を用いて、認証システム10の処理の流れの一例をより詳細に説明する。
 まず、顔認証を行うユーザは、自身の顔画像を撮影する作業を行う(S100)。顔認証は、例えば所定のシステムへのログインや、所定の施設への入場や、企業や行政が提供するサービスを受ける際等に本人確認のために実施される。ユーザの顔画像を撮影する装置は、所定位置に設置された専用の装置であってもよいし、ユーザ自身のユーザ端末であってもよい。専用の装置が設置される所定位置は、施設の入口等が例示されるが、これに限定されない。ユーザ端末は、パーソナルコンピュータ、スマートフォン、タブレット端末、スマートウォッチ、携帯電話、携帯ゲーム等であるが、これらに限定されない。撮影された2次元の顔画像は、有線及び/又は無線での通信で、認証システム10に送信される。
 認証システム10は、上記2次元の顔画像を処理対象画像として取得し、事前に登録されている2次元の登録画像を照合する顔照合処理を行う(S101)。
 照合スコアがS1以下の場合(S102のYes)、認証システム10は、顔認証に失敗した旨をユーザに通知する(S103)。当該通知は、所定位置に設置された専用の装置を介して行われてもよいし、ユーザ自身のユーザ端末を介して行われてもよい。S1は、照合スコアを示す数値を用いて定義される閾値であり、顔認証の成功と失敗の境界を示す。
 また、照合スコアがS1以下でなく(S102のNo)、かつ、照合スコアがS2以下でもない場合(S104のNo)、認証システム10は、顔認証に成功した旨をユーザに通知する(S105)。S2は、照合スコアを示す数値を用いて定義される閾値であり、顔のパーツ毎の変化の評価結果を通知するか否かの境界を示す。なお、S1<S2である。当該通知は、所定位置に設置された専用の装置を介して行われてもよいし、ユーザ自身のユーザ端末を介して行われてもよい。
 また、照合スコアがS1以下でなく(S102のNo)、かつ、照合スコアがS2以下である場合(S104のYes)、認証システム10は、そのユーザに紐付けて登録されている顔のパーツ毎の変化の評価結果を記憶部15から読み出す(S106)。そして、認証システム10は、顔認証に成功した旨と、顔のパーツ毎の変化の評価結果とをユーザに通知する(S107)。当該通知は、所定位置に設置された専用の装置を介して行われてもよいし、ユーザ自身のユーザ端末を介して行われてもよい。図3に、顔認証に成功した旨とともに通知される情報の一例が示されているが、これに限定されない。
 また、認証システム10は、処理対象画像と、S101の顔照合の結果である照合スコアとを紐付けて記憶部15に記憶させる(S108)。
 記憶部15は、例えば図3に示すように、処理対象画像を互いに識別するための情報である写真ID(identifier)と、ユーザを互いに識別するための情報であるユーザIDと、処理対象画像を記憶部15に登録した日時である登録日時と、S101の顔照合の結果である照合スコアとを紐付けた情報を記憶する。
 さらに、認証システム10は、取得した2次元の処理対象画像から3次元の処理対象画像を作成する(S109)。そして、認証システム10は、取得した2次元の処理対象画像から作成された3次元の処理対象画像と、記憶部15に記憶されているそのユーザの2次元の登録画像から作成された3次元の登録画像とに基づき、顔のパーツ毎に変化を評価する(S110)。として、認証システム10は、S110の評価結果を記憶部15に記憶する(S111)。
 記憶部15は、例えば図3に示すように、写真IDと、ユーザIDと、照合スコアと、分析日時と、顔パーツ情報と、変化量情報とを紐付けた情報を記憶する。写真ID、ユーザID及び照合スコアは、上述の通りである。分析日時は、S110の処理を実施した日時を示す。顔パーツ情報は、基準レベル以上の変化が検出された顔のパーツを示す。変化量は、基準レベル以上の変化が検出された顔のパーツの変化量を示す。
 次に、図4を用いて、図3のS108乃至S111の処理を具体的に説明する。なお、図4のフローの中には、図3のS108乃至S111の処理以外の処理も含まれる。
 まず、ユーザは、自身の顔を含む2次元の登録画像2Rを認証システム10に登録する作業を行う。認証システム10は、2次元の登録画像2Rを取得し、記憶部15に記憶させる(S200)。2次元の登録画像2Rの登録のためにユーザが行う作業、及びS200の処理の詳細は特段制限されない。次いで、認証システム10は、2次元の登録画像2Rから3次元の登録画像3Rを作成し、記憶部15に記憶させる(S201)。
 その後、利用者が顔認証するたびに、すなわち顔認証のために作成されたユーザの顔を含む処理対象画像2Pが認証システム10に入力されるたびに、認証システム10は、以下の処理を実行する。
 まず、認証システム10は、処理対象画像2Pと、図3のS101の顔照合の結果である照合スコアとを互いに紐付けて、記憶部15に記憶させる(S203、S205、S207)。また、認証システム10は、記憶部15に記憶させた2次元の処理対象画像2P各々から3次元の処理対象画像3Pを作成し、記憶部15に記憶させる(S204、S206、S208)。
 そして、認証システム10は、2次元の登録画像2Rから作成された3次元の登録画像3Rと、2次元の処理対象画像2Pから作成された3次元の処理対象画像3Pとに基づき、顔のパーツ毎に、顔のパーツの変化を評価する。例えば、認証システム10は、顔のパーツ毎に、上述した変化量を算出する(S209)。次に、認証システム10は、S209の評価結果を記憶部15に記憶させる(S210)。
 図4の「出力部」の欄において、認証システム10の通知部14が通知対象者に通知する情報の一例が示されている。「結果表示」に含まれる情報は、ユーザに向けて通知される情報の一例である。「帳票出力」は、認証システム10のオペレータや認証システム10を利用する施設の担当者に向けて通知される情報の一例である。
「作用効果」
 本実施形態の認証システム10は、所定条件を満たす場合、顔のパーツ毎の変化の評価結果を通知対象者に通知する。通知対象者は、この顔のパーツごとの変化の評価結果に基づき、例えば、更新の時期に満たない場合であっても顔認証用に登録した画像データの更新要否を適切に判断することができる。また、高度な顔認証技術により本人であるという認証がなされたとしても、人が目で見た場合の変化が大きく、認証用に登録する画像データとして適切ではない場合もある。この場合でも本実施形態では、顔認証用に登録した画像データを、顔の変化に応じて個人の適切なタイミングで最新の画像データに更新することができる。
 また、本実施形態の認証システム10は、上記評価結果の通知を、所定条件を満たす場合に限ることができる。このように構成することで、不要に当該通知を行い、顔認証用に登録した画像データの更新要否の判断を不要にユーザ等に促す不都合を抑制できる。
 また、本実施形態の場合、上記所定条件は、『登録画像と処理対象画像とに基づく顔照合処理の照合スコアが基準値S2以下の場合』、すなわち登録画像と処理対象画像との類似度が基準値S2以下の場合、とすることができる。所定条件をこのように適切に設定することで、適切なタイミングでユーザ等に対し上記評価結果の通知を行い、顔認証用に登録した画像データの更新要否の判断を促すことができる。
 また、認証システム10は、通知対象者に対し、基準レベル以上の変化が検出された顔のパーツを示す情報、基準レベル以上の変化が検出された顔のパーツの変化の程度を示す情報、基準レベル以上の変化が検出された顔のパーツの変化の遷移を示す情報、基準レベル以上の変化が検出された顔のパーツにおける検出された回数を示す情報、各顔のパーツにおいて基準レベル以上の変化が検出された回数を示す情報、各顔のパーツの変化の程度を示す情報、各顔のパーツの変化の遷移を示す情報、及び照合部12による顔照合処理の照合スコアの遷移を示す情報の中の少なくとも1つを、通知対象者に通知することができる。このような有益な情報に基づき、通知対象者は、顔認証用に登録した画像データの更新要否を適切に判断できる。
<第2の実施形態>
 第1の実施形態では、通知部14は、照合部12による顔照合処理の照合スコアが基準値以下という所定条件を満たす場合に、顔のパーツ毎の変化の評価結果を通知した。本実施形態では、通知部14は、照合部12による顔照合処理の照合スコアが上記所定条件を満たし、かつ、顔のパーツ毎の変化の評価結果が他の所定条件の一つあるいは複数の条件を満たす場合に、顔のパーツ毎の変化の評価結果を通知対象者に通知する。
 他の所定条件は、
 基準レベル以上の変化が検出された顔のパーツが存在する、
 基準レベル以上の変化を所定回数以上検出された顔のパーツが存在する、
 基準レベル以上の変化が検出された顔のパーツが所定数以上存在する、
 基準レベル以上の変化を所定回数以上検出された顔のパーツが所定数以上存在する、
 予め登録された重要な顔のパーツにおいて、基準レベル以上の変化が検出された、
 予め登録された重要な顔のパーツにおいて、基準レベル以上の変化が所定回数以上検出された、または、
 基準レベル以上の変化が検出された顔のパーツが存在し、かつ、その検出された顔のパーツを手術したことが手術履歴情報に登録されている、
である。
 「上記基準レベル」は、第1の実施形態で説明した変化量を用いて定義できる。
 「予め登録された重要な顔のパーツ」は、顔認証において重要度が高い顔のパーツである。どの顔のパーツを重要な顔のパーツとするかは特段制限されないが、例えば、目、鼻、口等が重要な顔のパーツとして扱われてもよい。
 「手術履歴情報」は、各ユーザの手術の履歴を示す情報である。外部システムが当該情報を記憶している。そして、認証システム10は外部システムから手術履歴情報を取得する。図5に、手術履歴情報の一例を模式的に示す。図示する手術履歴情報は、ユーザIDと、手術日と、手術した顔のパーツとが紐付けて登録されている。
 なお、手術履歴情報のユーザIDと、認証システム10が管理するユーザIDとは、同じ情報であってもよいし、異なる情報であってもよい。同じ情報とする場合、例えばマイナンバー等、国が国民に付与した識別情報等をユーザIDとして利用してもよい。異なる情報とする場合、手術履歴情報のユーザIDと、認証システム10が管理するユーザIDとの対応関係を特定する手段が必要となる。この場合、手術履歴情報のユーザID、及び、認証システム10が管理するユーザID各々に紐付けられた他の情報に基づき、これら2つのユーザIDの対応関係を特定してもよい。認証システム10は、他の情報が一致する「手術履歴情報のユーザID」、及び、「認証システム10が管理するユーザID」の組み合わせを、同じユーザのユーザIDとして特定する。他の情報は、住所、電話番号、生年月日等が例示されるが、これらに限定されない。
 本実施形態の認証システム10のその他の構成は、第1の実施形態と同様である。
 本実施形態の認証システム10によれば、第1の実施形態と同様の作用効果が実現される。また、本実施形態の場合、顔のパーツ毎の変化の評価結果を通知対象者に通知するための所定条件は、『登録画像と処理対象画像とに基づく顔照合処理の照合スコアが基準値以下であり(類似度が基準値以下の場合)、かつ、顔のパーツ毎の変化の評価結果が上記他の所定条件を満たす場合』、すなわち登録画像と処理対象画像との類似度が基準値以下であり、かつ、顔のパーツ毎の変化の評価結果が上記他の所定条件を満たす場合、とすることができる。所定条件をこのように適切に設定することで、適切なタイミングでユーザに対し上記評価結果の通知を行い、顔認証用に登録した画像データの更新要否の判断を促すことができる。そして、不要に当該通知を行い、顔認証用に登録した画像データの更新要否の判断を不要にユーザに促す不都合を抑制できる。
<変形例>
-第1の変形例-
 上記実施形態では、パーツ毎評価部13は、2次元の登録画像及び2次元の処理対象画像から3次元の登録画像及び3次元の処理対象画像を作成し、3次元の登録画像及び3次元の処理対象画像に基づき、顔のパーツ毎に変化を評価した。変形例として、パーツ毎評価部13は、3次元の登録画像及び3次元の処理対象画像を作成せず、2次元の登録画像及び2次元の処理対象画像のまま、顔のパーツ毎に変化を評価してもよい。
-第2の変形例-
 上記実施形態では、取得部11は、顔認証のために入力された画像を処理対象画像として取得した。変形例として、取得部11は、顔認証のために入力された画像と異なる画像を、処理対象画像として取得してもよい。また、取得部11は、顔認証のために入力された画像と、顔認証のために入力された画像と異なる画像の両方を、処理対象画像として取得してもよい。
 例えば、取得部11は、外部システムから、外部システムに入力されたユーザの顔画像を取得してもよい。外部システムの機能やユーザに提供するサービスの内容などは特段制限されない。
 この場合、外部システムが管理しているユーザIDと、認証システム10が管理しているユーザIDとは、同じ情報であってもよいし、異なる情報であってもよい。同じ情報とする場合、例えばマイナンバー等、国が国民に付与した識別情報等をユーザIDとして利用してもよい。異なる情報とする場合、外部システムが管理するユーザIDと、認証システム10が管理するユーザIDとの対応関係を特定する手段が必要となる。この場合、外部システムが管理するユーザID、及び、認証システム10が管理するユーザID各々に紐付けられた他の情報に基づき、これら2つのユーザIDの対応関係を特定してもよい。認証システム10は、他の情報が一致する「外部システムが管理するユーザID」、及び、「認証システム10が管理するユーザID」の組み合わせを、同じユーザのユーザIDとして特定する。他の情報は、住所、電話番号、生年月日等が例示されるが、これらに限定されない。外部システムは、顔認証を行うシステムであって、認証システム10とは異なるシステムであってもよいし、その他の機能を備えたシステムであってもよい。
-第3の変形例-
 第1の実施形態で図3を用いて説明した処理の流れでは、照合部12による顔照合処理の照合スコアがS1以下の場合(S102のYes)、認証システム10は、顔認証に失敗した旨のみをユーザに通知した(S103)。変形例として、照合部12による顔照合処理の照合スコアがS1以下の場合(S102のYes)、認証システム10は、顔認証に失敗した旨と、顔のパーツ毎の変化の評価結果を通知対象者に通知してもよい。
 なお、この場合、顔認証に失敗しているので、認証システム10は、処理対象画像を入力したユーザを特定できていない。そこで、認証システム10は、処理対象画像との間での顔照合処理の照合スコアが最も高い登録画像に紐付いているユーザの顔のパーツ毎の変化の評価結果を、通知対象者に通知してもよい。
 これら変形例においても、上記実施形態と同様の作用効果が実現される。
 なお、本明細書において、「取得」とは、ユーザ入力に基づき、又は、プログラムの指示に基づき、「自装置が他の装置や記憶媒体に格納されているデータを取りに行くこと(能動的な取得)」、たとえば、他の装置にリクエストまたは問い合わせして受信すること、他の装置や記憶媒体にアクセスして読み出すこと等、および、ユーザ入力に基づき、又は、プログラムの指示に基づき、「自装置に他の装置から出力されるデータを入力すること(受動的な取得)」、たとえば、配信(または、送信、プッシュ通知等)されるデータを受信すること、また、受信したデータまたは情報の中から選択して取得すること、及び、「データを編集(テキスト化、データの並び替え、一部データの抽出、ファイル形式の変更等)などして新たなデータを作成し、当該新たなデータを取得すること」の少なくともいずれか一方を含む。
 上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1. ユーザの顔を含む処理対象画像を取得する取得手段と、
 予め登録された登録画像と前記処理対象画像とに基づき、顔のパーツ毎に変化を評価するパーツ毎評価手段と、
 前記登録画像と前記処理対象画像とに基づき、顔照合処理を行う照合手段と、
 前記顔照合処理の照合スコアが所定条件を満たす場合、顔のパーツ毎の変化の評価結果を通知対象者に通知する通知手段と、
を有する認証システム。
2. 前記通知手段は、
  基準レベル以上の変化が検出された顔のパーツに関する情報を、前記通知対象者に通知する1.に記載の認証システム。
3. 前記通知手段は、
  前記照合スコアの遷移を示す情報を、前記通知対象者に通知する1.又は2.に記載の認証システム。
4. 前記通知手段は、
  前記顔照合処理の照合スコアが所定条件を満たし、かつ、前記評価結果が他の所定条件を満たす場合、前記評価結果を前記通知対象者に通知する1.から3.のいずれか1つに記載の認証システム。
5. 前記他の所定の条件は、顔のパーツ毎の変化に基づき定義される4.に記載の認証システム。
6. 前記評価手段は、
  2次元の前記登録画像から作成された3次元の登録画像と、2次元の前記処理対象画像から作成された3次元の処理対象画像とに基づき、顔のパーツ毎に変化を評価する1.から5.のいずれか1つに記載の認証システム。
7. 前記通知手段は、
  前記顔照合処理の結果とともに、前記評価結果を前記ユーザに通知する1.から6.のいずれか1つに記載の認証システム。
8. 前記通知手段は、
  前記評価結果を、複数の前記ユーザの前記登録画像を管理する管理者に通知する1.から7.のいずれか1つに記載の認証システム。
9. コンピュータが、
  ユーザの顔を含む処理対象画像を取得し、
  予め登録された登録画像と前記処理対象画像とに基づき、顔のパーツ毎に変化を評価し、
  前記登録画像と前記処理対象画像とに基づき、顔照合処理を行い、
  前記顔照合処理の照合スコアが所定条件を満たす場合、顔のパーツ毎の変化の評価結果を通知対象者に通知する処理方法。
10. コンピュータを、
  ユーザの顔を含む処理対象画像を取得する取得手段、
  予め登録された登録画像と前記処理対象画像とに基づき、顔のパーツ毎に変化を評価するパーツ毎評価手段、
  前記登録画像と前記処理対象画像とに基づき、顔照合処理を行う照合手段、及び、
  前記顔照合処理の照合スコアが所定条件を満たす場合、顔のパーツ毎の変化の評価結果を通知対象者に通知する通知手段、
として機能させるプログラム。
 この出願は、2021年4月9日に出願された日本出願特願2021-066319号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 10  認証システム
 11  取得部
 12  照合部
 13  パーツ毎評価部
 14  通知部
 15  記憶部
 1A  プロセッサ
 2A  メモリ
 3A  入出力I/F
 4A  周辺回路
 5A  バス

Claims (10)

  1.  ユーザの顔を含む処理対象画像を取得する取得手段と、
     予め登録された登録画像と前記処理対象画像とに基づき、顔のパーツ毎に変化を評価するパーツ毎評価手段と、
     前記登録画像と前記処理対象画像とに基づき、顔照合処理を行う照合手段と、
     前記顔照合処理の照合スコアが所定条件を満たす場合、顔のパーツ毎の変化の評価結果を通知対象者に通知する通知手段と、
    を有する認証システム。
  2.  前記通知手段は、
      基準レベル以上の変化が検出された顔のパーツに関する情報を、前記通知対象者に通知する請求項1に記載の認証システム。
  3.  前記通知手段は、
      前記照合スコアの遷移を示す情報を、前記通知対象者に通知する請求項1又は2に記載の認証システム。
  4.  前記通知手段は、
      前記顔照合処理の照合スコアが所定条件を満たし、かつ、前記評価結果が他の所定条件を満たす場合、前記評価結果を前記通知対象者に通知する請求項1から3のいずれか1項に記載の認証システム。
  5.  前記他の所定の条件は、顔のパーツ毎の変化に基づき定義される請求項4に記載の認証システム。
  6.  前記評価手段は、
      2次元の前記登録画像から作成された3次元の登録画像と、2次元の前記処理対象画像から作成された3次元の処理対象画像とに基づき、顔のパーツ毎に変化を評価する請求項1から5のいずれか1項に記載の認証システム。
  7.  前記通知手段は、
      前記顔照合処理の結果とともに、前記評価結果を前記ユーザに通知する請求項1から6のいずれか1項に記載の認証システム。
  8.  前記通知手段は、
      前記評価結果を、複数の前記ユーザの前記登録画像を管理する管理者に通知する請求項1から7のいずれか1項に記載の認証システム。
  9.  コンピュータが、
      ユーザの顔を含む処理対象画像を取得し、
      予め登録された登録画像と前記処理対象画像とに基づき、顔のパーツ毎に変化を評価し、
      前記登録画像と前記処理対象画像とに基づき、顔照合処理を行い、
      前記顔照合処理の照合スコアが所定条件を満たす場合、顔のパーツ毎の変化の評価結果を通知対象者に通知する処理方法。
  10.  コンピュータを、
      ユーザの顔を含む処理対象画像を取得する取得手段、
      予め登録された登録画像と前記処理対象画像とに基づき、顔のパーツ毎に変化を評価するパーツ毎評価手段、
      前記登録画像と前記処理対象画像とに基づき、顔照合処理を行う照合手段、及び、
      前記顔照合処理の照合スコアが所定条件を満たす場合、顔のパーツ毎の変化の評価結果を通知対象者に通知する通知手段、
    として機能させるプログラム。
PCT/JP2022/003351 2021-04-09 2022-01-28 認証システム、処理方法及びプログラム WO2022215328A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/272,749 US20240096130A1 (en) 2021-04-09 2022-01-28 Authentication system, processing method, and non-transitory storage medium
JP2023512829A JP7435908B2 (ja) 2021-04-09 2022-01-28 認証システム、処理方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021066319 2021-04-09
JP2021-066319 2021-04-09

Publications (1)

Publication Number Publication Date
WO2022215328A1 true WO2022215328A1 (ja) 2022-10-13

Family

ID=83545843

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/003351 WO2022215328A1 (ja) 2021-04-09 2022-01-28 認証システム、処理方法及びプログラム

Country Status (3)

Country Link
US (1) US20240096130A1 (ja)
JP (1) JP7435908B2 (ja)
WO (1) WO2022215328A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005078413A (ja) * 2003-09-01 2005-03-24 Matsushita Electric Ind Co Ltd 電子機器及び電子機器における応答情報出力方法
JP2008176645A (ja) * 2007-01-19 2008-07-31 Konica Minolta Holdings Inc 3次元形状処理装置、3次元形状処理装置の制御方法、および3次元形状処理装置の制御プログラム
JP2018049655A (ja) * 2015-09-08 2018-03-29 日本電気株式会社 顔認識装置、顔認識方法、顔認識プログラム、表示制御装置、表示制御方法および表示制御プログラム
JP2019125003A (ja) * 2018-01-12 2019-07-25 日本電気株式会社 顔認証装置
JP2019168929A (ja) * 2018-03-23 2019-10-03 キヤノン株式会社 情報処理装置、情報処理装置における認証方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005078413A (ja) * 2003-09-01 2005-03-24 Matsushita Electric Ind Co Ltd 電子機器及び電子機器における応答情報出力方法
JP2008176645A (ja) * 2007-01-19 2008-07-31 Konica Minolta Holdings Inc 3次元形状処理装置、3次元形状処理装置の制御方法、および3次元形状処理装置の制御プログラム
JP2018049655A (ja) * 2015-09-08 2018-03-29 日本電気株式会社 顔認識装置、顔認識方法、顔認識プログラム、表示制御装置、表示制御方法および表示制御プログラム
JP2019125003A (ja) * 2018-01-12 2019-07-25 日本電気株式会社 顔認証装置
JP2019168929A (ja) * 2018-03-23 2019-10-03 キヤノン株式会社 情報処理装置、情報処理装置における認証方法、及びプログラム

Also Published As

Publication number Publication date
JP7435908B2 (ja) 2024-02-21
US20240096130A1 (en) 2024-03-21
JPWO2022215328A1 (ja) 2022-10-13

Similar Documents

Publication Publication Date Title
CN111886842B (zh) 使用基于阈值的匹配进行远程用户身份验证
US20200082157A1 (en) Periocular facial recognition switching
US11367305B2 (en) Obstruction detection during facial recognition processes
JP2020528170A (ja) ブロックチェーン上で追跡情報を取得及び記録するための方法及び装置
US9262615B2 (en) Methods and systems for improving the security of secret authentication data during authentication transactions
US20220046012A1 (en) Method and System for Verifying the Identity of a User
US20180012005A1 (en) System, Method, and Apparatus for Personal Identification
US20200314094A1 (en) Server, method for controlling server, and terminal device
CN109816543B (zh) 一种图像查找方法及装置
CN112330322A (zh) 用于用户身份验证的设备、方法和系统
US11935327B1 (en) On the fly enrollment for facial recognition
JP2014071610A (ja) データ処理装置、名寄せ処理方法及びコンピュータプログラム
US20230386255A1 (en) Method and system for verifying image identification
JP7364057B2 (ja) 情報処理装置、システム、顔画像の更新方法及びプログラム
JP2006085268A (ja) 生体認証システムおよび生体認証方法
WO2015016262A1 (ja) 情報処理装置、認証システム、認証方法、及びプログラム
CN107656959A (zh) 一种留言方法、装置及留言设备
JP2006085289A (ja) 顔認証システムおよび顔認証方法
WO2022215328A1 (ja) 認証システム、処理方法及びプログラム
TWM574283U (zh) 利用活體及人臉辨識進行無卡交易開通的交易系統及自動櫃員機
WO2021073270A1 (zh) 风险管控方法、装置、计算机装置及存储介质
WO2021255821A1 (ja) 認証サーバ、顔画像更新勧告方法及び記憶媒体
JP2015022593A (ja) 認証システム、クライアント端末、認証サーバー、端末プログラム及びサーバープログラム
TWI673623B (zh) 具有整合介面裝置的影音記錄裝置
JP7266071B2 (ja) オンライン認証装置、方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22784313

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023512829

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18272749

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22784313

Country of ref document: EP

Kind code of ref document: A1