WO2019138840A1 - 顔認証装置 - Google Patents

顔認証装置 Download PDF

Info

Publication number
WO2019138840A1
WO2019138840A1 PCT/JP2018/047065 JP2018047065W WO2019138840A1 WO 2019138840 A1 WO2019138840 A1 WO 2019138840A1 JP 2018047065 W JP2018047065 W JP 2018047065W WO 2019138840 A1 WO2019138840 A1 WO 2019138840A1
Authority
WO
WIPO (PCT)
Prior art keywords
similarity
authentication
face
change
threshold
Prior art date
Application number
PCT/JP2018/047065
Other languages
English (en)
French (fr)
Inventor
剛人 古地
謙志 斉藤
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to EP18899315.8A priority Critical patent/EP3739547A4/en
Priority to US16/961,537 priority patent/US11163979B2/en
Publication of WO2019138840A1 publication Critical patent/WO2019138840A1/ja
Priority to US17/490,695 priority patent/US11625949B2/en
Priority to US18/114,015 priority patent/US12014570B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Definitions

  • the present invention relates to a face authentication apparatus, a face authentication method, and a recording medium.
  • Patent Document 1 and Patent Document 2 a face image to be authenticated is acquired, a similarity between the face image to be authenticated and a reference face image of an individual registered in advance is calculated and compared with a threshold value.
  • a face recognition apparatus for performing face recognition is described.
  • Patent Document 1 when the authentication fails, it is determined whether the brightness of the face image to be authenticated is appropriate, and if it is not appropriate, the person rejection rate is lowered by lowering the threshold. Moreover, in patent document 2, a threshold value is changed according to the difference of the similarity at the time of authentication success, and a threshold value. Specifically, according to Patent Document 2, when the authentication processing is successful, if the similarity at the time of the authentication success greatly exceeds the threshold, the threshold is considered to be too low, and the threshold is corrected upward.
  • the threshold can be changed before the face authentication fails.
  • it is difficult to change the threshold appropriately. The reason is that, in the method described in Patent Document 2, the threshold value is changed based on the similarity at the time of one face authentication success.
  • An object of the present invention is to provide a face recognition device that solves the above-mentioned problems.
  • a face recognition apparatus is A face image acquisition unit for acquiring a face image to be authenticated; A matching unit that performs face authentication by calculating the degree of similarity between face information based on the face image to be authenticated and reference face information for each registered user, and comparing with the threshold value; A prediction unit that predicts the change in the similarity based on the history of the similarity at the time of successful authentication; And a threshold changing unit that changes the threshold based on the result of the prediction.
  • a face authentication method is Acquire the face image of the authentication target, Face recognition is performed based on the result of comparing the similarity between the face information based on the face image of the authentication target and the reference face information for each registered user registered in advance with a threshold, Predicting the change in the similarity based on the history of the similarity when face recognition is successful; The threshold is changed based on the result of the prediction.
  • a computer readable recording medium is Computer, A face image acquisition unit for acquiring a face image to be authenticated; A matching unit that performs face authentication by calculating the degree of similarity between face information based on the face image to be authenticated and reference face information for each registered user, and comparing with the threshold value; A prediction unit that predicts the change in the similarity based on the history of the similarity at the time of successful authentication; A program for functioning as a threshold value changing unit that changes the threshold value based on the result of the prediction is recorded.
  • the present invention can appropriately change the threshold before failing in face recognition.
  • FIG. 1 It is a block diagram of a face recognition device concerning a 1st embodiment of the present invention. It is a figure which shows the example of the system which applied the face recognition apparatus of this invention. It is a flowchart which shows the outline
  • FIG. 1 is a block diagram of a face authentication apparatus 100 according to a first embodiment of the present invention.
  • FIG. 2 is a schematic view of an entry and exit management system including the face authentication apparatus 100 according to the present embodiment.
  • the face recognition apparatus 100 includes an interface unit 111 with the camera unit 141, an interface unit 112 with the gate apparatus 142, a communication interface unit 113, an operation input unit 114, and a screen.
  • a display unit 115, a storage unit 120, and an arithmetic processing unit 130 are included.
  • the interface unit 111 is configured to exchange signals with the camera unit 141 that captures an image of the face of a person to be authenticated.
  • the transmission and reception of signals may be either wired or wireless.
  • the camera unit 141 is set at a position and an angle of view at which the face portion of the user 143 passing through the gate device 142 can be imaged.
  • the camera unit 141 outputs image data obtained by imaging the face of a person to be authenticated to the arithmetic processing unit 130 through the interface unit 111, such as a charge coupled device (CCD) element or a complementary metal-oxide semiconductor (CMOS). It is an imaging device which consists of an element etc.
  • the image data captured by the camera unit 141 is, for example, a black and white grayscale image of 256 gradations, but may be a color image.
  • the interface unit 112 is configured to exchange signals such as the result of face authentication with the gate device 142.
  • the transmission and reception of signals may be either wired or wireless.
  • the gate apparatus 142 performs a predetermined operation according to the received result of face authentication.
  • the predetermined operation may be variously considered.
  • the gate device 142 automatically performs the opening and closing operation of the door attached to the gate device 142 according to the result of face recognition.
  • the gate device 142 includes a gate bar that can be opened and closed manually, and unlocks the gate bar only for a predetermined time only when face recognition is successful.
  • the gate device 142 visually or acoustically outputs a passability message from an alarm attached to the gate device 142 according to the result of face recognition.
  • the gate device 142 may be stationary or movable.
  • the gate apparatus 142 may be an apparatus independent of the face authentication apparatus 100 or an apparatus integrated with the face authentication apparatus 100.
  • the communication interface unit 113 is a communication device that performs data communication with an external device such as a terminal.
  • the communication method may be either wired or wireless.
  • the operation input unit 114 is an input device such as a keyboard and a ten key, and is configured to detect an operation of the operator and output the operation to the arithmetic processing unit 130.
  • the screen display unit 115 is a screen display device such as an LCD (Liquid Crystal Display) or a PDP (Plasma Display Panel).
  • the screen display unit 115 is configured to display various information such as an authentication result on the screen in response to an instruction from the arithmetic processing unit 130.
  • the storage unit 120 is a storage device such as a hard disk or a memory.
  • the storage unit 120 is configured to store process information and a program 121 necessary for various processes performed by the arithmetic processing unit 130.
  • the program 121 implements various processing units by being read and executed by the arithmetic processing unit 130.
  • the program 121 is read in advance from an external device (not shown) or a storage medium (not shown) via a data input / output function such as the communication interface unit 113 and stored in the storage unit 120.
  • Main processing information stored in the storage unit 120 includes reference face image data 122, a matching threshold 123, and authentication history data 124.
  • the reference face image data 122 is data in which a user ID is associated with a face image serving as a reference used when performing face authentication.
  • at least one face image of a person having the user ID may be associated as a reference face image in association with the user ID.
  • the feature amount of the face extracted from the face image of the person having the user ID may be associated as the reference face information in association with the user ID.
  • the feature amount of the face is a numerical value indicating the feature of each part of the face image for recognizing the positional relationship and shape of each part such as eyes, nose, mouth, eyebrows, etc. constituting the face, and the similarity judgment between the images It is used when carrying out etc.
  • the matching threshold 123 is a threshold used when performing face recognition. In the case of the present embodiment, the comparison threshold 123 is common to all user IDs.
  • the authentication history data 124 is data in which the similarity at the time of face authentication success, the user ID, and the authentication time are associated.
  • the arithmetic processing unit 130 is an arithmetic processing unit having a microprocessor such as an MPU and its peripheral circuits.
  • the arithmetic processing unit 130 is configured to realize various processing units by causing the hardware and the program 121 to cooperate with each other by reading and executing the program 121 from the storage unit 120.
  • processing units realized by the arithmetic processing unit 130 there are an input unit 131, a face image acquisition unit 132, a collation unit 133, an output unit 134, a prediction unit 135, and a threshold change unit 136.
  • the input unit 131 is configured to input the reference face image data 122 and the matching threshold 123 from the outside through the communication interface unit 113 or the operation input unit 114, and store the reference face image data 122 and the matching threshold 123 in the storage unit 120.
  • the face image acquisition unit 132 is configured to input image data obtained by capturing an image of a face of a person to be authenticated from the camera unit 141, and acquire (detect) a face image to be authenticated from the image data. There is.
  • the face image acquisition unit 132 acquires a face image present in the image data by matching a template indicating the outline of a general face of a person with the image data. In addition to template matching, various known face detection algorithms may be used.
  • the face image acquisition unit 132 is configured to transmit the acquired face image to the matching unit 133.
  • the collation unit 133 reads the reference face image data 122 and the collation threshold 123 from the storage unit 120, and the reference face image included in the reference face image data 122 and the face image of the authentication target acquired by the face image acquisition unit 132. Between the reference face image data 152 and the face image to be authenticated, based on the result of calculating the similarity between each user ID and comparing the calculated similarity for each user ID with the comparison threshold 123. It is configured to determine whether it matches the reference face image of the user ID or does not match any reference face image. As an example of the degree of similarity, a cross correlation coefficient between face images can be used.
  • the degree of similarity is increased when the face parts of the same person are included in both face images, and the degree of similarity is reduced when the face parts of different persons are included in both face images.
  • similarity between face images known similarity calculation techniques other than cross correlation coefficients can be used.
  • the matching unit 133 extracts the feature amount of the face from the face image to be authenticated, and matches the feature amount of the reference face included in the reference face image data 122 with the feature amount of the face extracted from the face image to be authenticated Then, the similarity between the reference face image and the face image to be authenticated may be calculated.
  • the matching unit 133 does not have at least one face image of a user ID for which the similarity with the face image to be authenticated obtained by the face image obtaining unit 132 is equal to or higher than the matching threshold 123 in the reference face image data 122 In the case, it is configured to generate an authentication result of authentication failure.
  • the collation unit 133 determines the user with the highest similarity. It is configured to generate authentication history data 124 including the authentication result of the authentication success including the ID, the user ID with the highest similarity, and the similarity and the authentication time.
  • the collation unit 133 is configured to transmit the authentication result to the output unit 134.
  • the collation unit 133 is configured to additionally register the authentication history data 124 as a part of the authentication history data 124 already stored in the storage unit 120.
  • the output unit 134 is configured to transmit the authentication result generated by the collation unit 133 to the gate apparatus 142 through the interface unit 112. Further, the output unit 134 may display the authentication result on the screen display unit 115 and / or transmit the authentication result to an external device through the communication interface unit 113.
  • the prediction unit 135 is configured to predict a change in the degree of similarity based on the authentication history data 124 recorded in the storage unit 120 when it is time to change the matching threshold.
  • the time to change the verification threshold is a specific time set in advance after the previous change time when the number of successful authentications after the previous change time reaches a fixed number when a fixed time has elapsed since the previous change time. It can be assumed that the number of authentication successes for the user ID has reached a predetermined number.
  • the prediction unit 135 is also configured to transmit the predicted change in the degree of similarity to the threshold change unit 136.
  • the threshold changing unit 136 is configured to change the matching threshold 123 stored in the storage unit 120 based on the change in the degree of similarity predicted by the prediction unit 135.
  • FIG. 3 is a flowchart showing an outline of the operation of the face authentication apparatus 100.
  • the input unit 131 of the face authentication apparatus 100 inputs reference face image data 122 from the outside, and stores the reference face image data 122 in the storage unit 120 (step S1).
  • the input unit 131 inputs the collation threshold value 123 from the outside and stores the same in the storage unit 120 (step S2).
  • the processes in steps S1 and S2 are preparation processes for starting the operation of face authentication, and may be omitted if they are performed once.
  • the face image acquisition unit 132 of the face authentication apparatus 100 inputs image data obtained by imaging an authentication target from the camera unit 141 through the interface unit 111, and acquires a face image of the authentication target from the image data (Ste S3).
  • the collation unit 133 of the face authentication apparatus 100 calculates the similarity between the reference face image included in the reference face image data 122 and the face image of the authentication target acquired by the face image acquisition unit 132, and the collation threshold value. By comparing with 123, it is determined whether the face image to be authenticated matches any of the reference face images included in the reference face image data 122 or does not match any of the reference face images (step S4).
  • collation unit 133 uses the maximum similarity.
  • the authentication history data 124 including the authentication result of the authentication success including the person ID, the user ID having the highest similarity, and the similarity and the authentication time is generated, the former is transmitted to the output unit 134, and the latter is stored in the storage unit 120.
  • the output unit 134 of the face authentication apparatus 100 outputs the authentication result to the gate apparatus 142 through the interface unit 112 (step S5).
  • the prediction unit 135 of the face authentication apparatus 100 determines whether it is time to change the matching threshold 123 (step S6). If not, the process returns to step S3 and is similar to the process described above. repeat. On the other hand, if it is the change time, the prediction unit 135 predicts the change of the similarity based on the authentication history data 124 stored in the storage unit 120 (step S7). Next, the threshold changing unit 136 of the face authentication apparatus 100 changes the matching threshold 123 stored in the storage unit 120 based on the change in the degree of similarity predicted by the prediction unit 135 (step S8). Then, the face authentication apparatus 100 returns to step S3 and repeats the same process as the process described above.
  • the future change in similarity is predicted based on the history of similarity at the time of successful authentication, and the match threshold is changed based on the result of the prediction. Can be changed to
  • FIG. 4 is a flowchart showing an example of step S7 by the prediction unit 135.
  • the prediction unit 135 reads from the storage unit 120 the similarity at the time of successful authentication of the period used for prediction of the similarity for the authentication history data 124 of all the user IDs, and in order of authentication time. It is divided into N groups G1 to GN each having the same time width (step S11).
  • the prediction unit 135 uses authentication time Tc and a positive integer N, which have been set in advance, and has authentication time data 154 having an authentication time after time Tc ⁇ N time before current time t0 (t0 ⁇ Tc ⁇ N).
  • the similarity is read from the storage unit 120 regardless of the user ID, and divided into N groups G1 to GN having the same time width Tc in the order of authentication time.
  • FIG. 5 is a diagram in which the degree of similarity is taken along the vertical axis, the time is taken along the horizontal axis, and the distribution of the degree of similarity at the time of successful authentication is represented by black dots.
  • the grouping in step S11 corresponds to grouping the distribution of the similarities of black circles in the time axis direction as in the groups G1 to G5 in FIG.
  • the prediction unit 135 calculates the average similarity R1 to RN of each group (step S12).
  • the prediction unit 135 divides the sum of M similarities by M to calculate an average when M similarity is included in one group.
  • the rectangular marks in the graph of FIG. 5 represent the average similarities R1 to R5 of each group.
  • the prediction unit 135 prepares a function (for example, a linear function) for the average similarities R1 to RN, performs fitting using the least squares method, and generates an approximate function K (t) (step S13).
  • a function for example, a linear function
  • K (t) a ⁇ t + b
  • a and b are constants determined by the least squares method.
  • the line segment in the graph of FIG. 5 represents the approximation function K (t).
  • the prediction unit 135 predicts the average similarity at a future time by substituting the future time into the variable t of the approximate function K (t) (step S14).
  • FIG. 5 shows the average similarity at the future time t0 + ⁇ t.
  • ⁇ t may be a fixed value or a variable value.
  • FIG. 6 is a flowchart showing an example of step S8 by the threshold value changing unit 136.
  • the threshold changing unit 136 calculates the difference between the current matching threshold 123 and the average similarity predicted by the prediction unit 135 (step S21).
  • the threshold changing unit 136 compares the difference with a predetermined value ⁇ 1 (step S22), and if the difference is larger than the value ⁇ 1, it is determined in advance that the current matching threshold 123 is too large. The value is changed to be smaller by the value P1 (step S23).
  • the threshold changing unit 136 compares the difference with a predetermined value ⁇ 1 ( ⁇ 1 ⁇ 1) if the difference is equal to or less than the value ⁇ 1 (step S24), and if the difference is smaller than the value ⁇ 1, the current value
  • the verification threshold value 123 is determined to be too small, and is changed to be larger by a predetermined value Q1 (step S25). In other cases, that is, when the difference is equal to or smaller than the value ⁇ 1 and equal to or larger than the value ⁇ 1, the threshold changing unit 136 does not change the current matching threshold 123.
  • the average similarity at the time of successful authentication is determined based on the history of the similarities at the time of successful authentication of a plurality of users.
  • the change is predicted, and the matching threshold 123 commonly used by a plurality of users is changed based on the prediction result of the average similarity. Therefore, it is preferable that the prediction unit 135 and the threshold change unit 136 described with reference to FIGS. 4 to 6 be applied to an environment in which the similarity of many users changes in the same manner due to the same factor.
  • One application is described below with reference to FIG.
  • FIG. 2 is a schematic view of an entry / exit management system including the face authentication apparatus 100 of the present embodiment as described above.
  • the camera unit 141 of the face authentication apparatus 100 is configured to acquire a face image of the user 143 passing through the gate device 142.
  • the face authentication apparatus 100 performs face authentication on the face image of the user 143 acquired by the camera unit 141, and transmits the authentication result from the interface unit 112 to the gate apparatus 142.
  • the gate apparatus 142 is configured to open the gate if the authentication result is a success, and close the gate if the authentication result is a failure. In such a system, the image quality of the face image of the user 143 may be degraded due to the influence of the west day.
  • the image quality of the face image of almost all the users who pass the gate apparatus 142 is affected regardless of the user. Therefore, when the face recognition apparatus 100 according to the present embodiment is used, if the image quality of the face image of the user 143 is deteriorated due to the influence of the west day and the average similarity decreases, the matching threshold 123 is accordingly It is automatically changed to be smaller. As a result, it is possible to prevent a person's refusal from occurring, and the convenience is improved. In addition, when the influence of the west sun fades and the image quality of the face image of the user 143 passing through the gate apparatus 142 is improved and the average similarity is increased, the matching threshold 123 is automatically changed to increase accordingly. Ru. As a result, security strength can be enhanced again.
  • Factors that affect the similarity of many users include the change in illuminance of lighting fixtures due to aging, the change in illuminance due to deterioration of weather, and the increase in mask wearing rate at the time of pollinosis other than the western day illustrated in FIG. 2 There is a decline in the acquisition rate of the frontal face at the time of a rainy season, where the tendency to crawl is increased.
  • the face recognition apparatus 100 of the present embodiment is also effective for these.
  • the influence of the lighting of the west day and the deterioration illumination may differ for every gate apparatus.
  • the matching threshold values of the plurality of gate devices may be similarly changed using the determined matching threshold value after change.
  • FIG. 7 is a flowchart showing another example of step S7 by the prediction unit 135.
  • the prediction unit 135 selects the similarity of a predetermined period from the authentication history data 124 including the specific user ID used for prediction of the similarity (step S31). For example, the prediction unit 135 sets the similarity in the authentication history data 124 having a predetermined specific user ID and having an authentication time after a time (T0 to T) before the time T set in advance. It is selected from the storage unit 120 and read out. It is desirable that the specific user ID is a registered user who is relatively frequently subjected to authentication among the entire users and has an average similarity value, but is not limited thereto.
  • FIG. 8 is a diagram in which the degree of similarity is taken along the vertical axis, the time is taken along the horizontal axis, and the distribution of the degree of similarity when authentication of a specific user ID is successful is expressed by black dots.
  • the prediction unit 135 prepares a function (for example, a linear function) for the degree of similarity of a specific user ID, performs fitting using the least squares method, and generates an approximate function K (t) (step S32) ).
  • a function for example, a linear function
  • K (t) is expressed as Equation 1 described above.
  • the line segment in the graph of FIG. 8 represents the approximation function K (t).
  • the prediction unit 135 predicts the similarity at the time of successful authentication of a specific user ID at a future time by substituting the future time into the variable t of the approximate function K (t) (step S33).
  • FIG. 8 illustrates the similarity at the time of the authentication success of the specific user ID at a future time t0 + ⁇ t.
  • ⁇ t may be a fixed value or a variable value.
  • FIG. 9 is a flowchart showing another example of step S8 by the threshold value changing unit 136.
  • the threshold changing unit 136 calculates the difference between the current matching threshold 123 and the similarity at the time of successful authentication of the specific user ID predicted by the prediction unit 135 (step S41).
  • the threshold changing unit 136 compares the difference with a predetermined value ⁇ 2 (step S42), and if the difference is larger than the value ⁇ 2, it is determined in advance that the current matching threshold 123 is too large. It is changed so as to be smaller by the value P2 (step S43).
  • the threshold changing unit 136 compares the difference with a predetermined value ⁇ 2 ( ⁇ 2 ⁇ 2) if the difference is equal to or smaller than the value ⁇ 2 (step S44), and if the difference is smaller than the value ⁇ 2, the current value
  • the comparison threshold 123 is determined to be too small, and is changed to be larger by a predetermined value Q2 (step S25). In other cases, that is, when the difference is equal to or smaller than the value ⁇ 2 and equal to or larger than the value ⁇ 2, the threshold changing unit 136 does not change the current matching threshold 123.
  • the prediction unit 135 and the threshold change unit 136 described above with reference to FIGS. 7 to 9 when the authentication of a specific user succeeds based on the history of the similarities at the time of authentication success of the specific user.
  • the change in similarity is predicted, and the matching threshold 123 commonly used by a plurality of users is changed based on the prediction result.
  • the prediction unit 135 and the threshold change unit 136 described with reference to FIGS. 7 to 9 have similarities at the time of authentication success of a specific user as similarity at the time of authentication success of many other users. It is preferable to apply to an environment that changes in the same way due to the same factor. As one application example, for example, a system as described in FIG. 2 can be considered.
  • FIG. 10 is a block diagram of a face authentication apparatus 200 according to the second embodiment of the present invention.
  • the face authentication apparatus 200 includes an interface unit 211 with the camera unit 141, an interface unit 212 with the gate apparatus 142, a communication interface unit 213, an operation input unit 214, a screen display unit 215, a storage unit 220, and calculation. It comprises a processing unit 230.
  • the interface unit 211, the interface unit 212, the communication interface unit 213, the operation input unit 214, and the screen display unit 215 are the interface unit 111, the interface unit 112, the communication interface unit 113, the operation input unit 114, and the like in FIG. It is configured in the same manner as the screen display unit 115.
  • the storage unit 220 is a storage device such as a hard disk or a memory.
  • the storage unit 220 is configured to store processing information and a program 221 necessary for various types of processing performed by the arithmetic processing unit 230.
  • the program 221 implements various processing units by being read and executed by the arithmetic processing unit 230.
  • the program 221 is read in advance from an external device (not shown) or a storage medium (not shown) via a data input / output function such as the communication interface unit 213, and stored in the storage unit 220.
  • Main processing information stored in the storage unit 220 includes reference face image data 222, a matching threshold 223, and authentication history data 224.
  • the reference face image data 222 and the authentication history data 224 are configured in the same manner as the reference face image data 122 and the authentication history data 124 in FIG. 1.
  • the matching threshold 223 is a threshold used when performing face recognition. In the case of the present embodiment, the collation threshold 223 exists for each user ID.
  • the arithmetic processing unit 230 is an arithmetic processing unit having a microprocessor such as an MPU and its peripheral circuits.
  • the arithmetic processing unit 230 is configured to realize various processing units by causing the hardware and the program 221 to cooperate with each other by reading and executing the program 221 from the storage unit 220.
  • processing units realized by the arithmetic processing unit 230 there are an input unit 231, a face image acquisition unit 232, a collation unit 233, an output unit 234, a prediction unit 235, and a threshold change unit 236.
  • the input unit 231, the face image acquisition unit 232, and the output unit 234 are configured in the same manner as the input unit 131, the face image acquisition unit 132, and the output unit 134 in FIG.
  • the comparison unit 233 is different from the comparison unit 133 in FIG. 1 in that the comparison unit 233 compares the similarity between the face image to be authenticated and the reference face image for each user ID with the comparison threshold 223 for each user ID. Other than that, it is comprised similarly to the collation part 133. FIG.
  • the prediction unit 235 is different from the prediction unit 135 in FIG. 1 in that the prediction unit 235 predicts the change in the similarity at the time of the authentication success for each user ID using the authentication history data 224 for each user ID.
  • the configuration is the same as that of the prediction unit 135. That is, the prediction unit 235 derives an approximate function K (t) for each user ID by repeating the same process as the process shown in FIG. 7 for each user ID.
  • the threshold changing unit 236 is configured to change the matching threshold 223 for each user ID stored in the storage unit 220 based on the change in the degree of similarity for each user ID predicted by the prediction unit 235. . That is, the threshold changing unit 236 repeats the same processing as the processing shown in FIG. 9 for each user ID, and if the difference between the predicted similarity and the current matching threshold is larger than a predetermined value.
  • the matching threshold is reduced by a predetermined value, and if the difference is smaller than a predetermined value, the matching threshold is increased by a predetermined value, and otherwise the matching threshold is not changed.
  • the change of the similarity at the time of the authentication success of the user ID is predicted, and based on the prediction result Change the matching threshold.
  • the change in the similarity of the user ID is predicted based on the history of the similarity at the time of the authentication success of the user ID, and the comparison threshold of the user ID is changed based on the prediction result.
  • the change in average similarity at the time of successful collation of a plurality of users based on the history of similarities at the time of successful collation of a plurality of users by the prediction method described in FIG.
  • the matching threshold value for each user ID may be changed in the same manner as in FIG. 6 based on the prediction result of the average similarity.
  • FIG. 11 is a block diagram of a face authentication apparatus 300 according to a third embodiment of the present invention.
  • the face authentication apparatus 300 according to the present embodiment includes a face image acquisition unit 301, a matching unit 302, a prediction unit 303, and a threshold change unit 304.
  • the face image acquisition unit 301 is configured to acquire a face image to be authenticated.
  • the face image acquisition unit 301 can be configured, for example, in the same manner as the face image acquisition unit 132 of FIG. 1, but is not limited thereto.
  • the matching unit 302 calculates the similarity between the face information based on the face image to be authenticated acquired by the face image acquiring unit 301 and the reference face information for each registered user, and compares the similarity with a threshold value. It is configured to perform authentication.
  • the collation part 302 can be comprised similarly to the collation part 133 of FIG. 1, for example, it is not limited to it.
  • the prediction unit 303 is configured to predict the change in the similarity based on the history of the similarity at the time of the authentication success by the matching unit 302.
  • the prediction unit 303 can be configured, for example, in the same manner as the prediction unit 135 of FIG. 1 or the prediction unit 235 of FIG. 10, but is not limited thereto.
  • the threshold changing unit 304 is configured to change the threshold used by the matching unit 302 based on the prediction result of the prediction unit 303.
  • the threshold changing unit 304 can be configured similarly to the threshold changing unit 136 of FIG. 1 or the threshold changing unit 236 of FIG. 10, but is not limited thereto.
  • the face recognition apparatus 300 operates as follows. That is, first, the face image acquisition unit 301 acquires a face image to be authenticated. Next, the matching unit 302 performs face authentication by calculating the degree of similarity between the face information based on the face image to be authenticated and the reference face information for each registered user and comparing it with a threshold. Next, the prediction unit 303 predicts the change in the similarity based on the history of the similarity at the time of successful authentication. Then, the threshold changing unit 304 changes the threshold based on the result of the prediction.
  • the change in the similarity is predicted based on the history of the similarity at the time of the authentication success, and the threshold used for the matching is changed based on the result of the prediction.
  • the threshold can be changed appropriately before.
  • the present invention can be used for a room entry / exit monitoring system, an attendance management system, etc. When improving the convenience and safety by automatically correcting the threshold used for collation appropriately without causing a burden on the user. Suitable for
  • a face image acquisition unit for acquiring a face image to be authenticated;
  • a matching unit that performs face authentication by calculating the degree of similarity between face information based on the face image to be authenticated and reference face information for each registered user, and comparing with the threshold value;
  • a prediction unit that predicts the change in the similarity based on the history of the similarity at the time of successful authentication;
  • a threshold change unit configured to change the threshold based on a result of the prediction.
  • Authentication device [Supplementary Note 3] The prediction unit classifies the history of the degree of similarity at the time of the authentication success of the plurality of registered users into a plurality of groups based on the authentication time, and at the time of the authentication success of the plurality of registered users for each group. It is configured to predict the change of the average similarity by calculating the average of the similarity and using the average similarity to generate an approximation function representing the change of the similarity as a function of time.
  • the threshold changing unit changes the threshold based on a prediction result of the change in the average similarity.
  • the prediction unit generates the approximation function representing the change in similarity as a function of time using the history of the similarity at the time of the authentication success of the one registered user, thereby generating the one registered user. Configured to predict a change in the degree of similarity upon successful authentication of the The face recognition device according to appendix 1 or 2.
  • the threshold changing unit changes the threshold based on a prediction result of the change in the similarity at the time of the authentication success of the one registered user.
  • the face recognition device is a threshold commonly set for a plurality of registered users.
  • the face authentication apparatus according to any one of appendices 1 to 6.
  • the threshold is a threshold set for each registered user.
  • the face authentication apparatus according to any one of appendices 1 to 6.
  • the matching unit compares the similarity between the face image to be authenticated and the reference face image registered for each registered user in advance, based on the result of comparison with a threshold common to a plurality of the registered users.
  • the prediction unit classifies the authentication history data into a plurality of groups based on the authentication time, calculates an average of the similarities for each group, and uses the average similarity as a function of time Configured to predict a change in the average similarity by generating an approximation function representing the change in similarity,
  • the threshold changing unit is configured to change the common threshold based on a prediction result of a change in the average similarity.
  • the matching unit compares the similarity between the face image to be authenticated and the reference face image registered for each registered user in advance, based on the result of comparison with a threshold common to a plurality of the registered users. It is determined whether the face image to be authenticated matches the reference face image of which registered user, and the degree of similarity when it is determined to match the user identification information and authentication uniquely identifying the registered user Configured to generate authentication history data including time of day,
  • the prediction unit classifies the authentication history data into a plurality of groups for each of the user identification information, and changes the similarity as a function of time using the similarity of the group for at least one of the groups Configured to predict a change in the similarity of the group by generating an approximation function representing
  • the threshold changing unit is configured to change the common threshold based on a prediction result of a change in similarity of the group.
  • the face recognition device according to appendix 1 or 2.
  • the verification unit compares the degree of similarity between the face image to be authenticated and a reference face image for each registered user registered in advance with the threshold value for each registered user. It determines which face image matches the reference face image of which registered user, and includes the user identification information uniquely identifying the registered user and the authentication time when it is determined that they match.
  • the prediction unit classifies the authentication history data into a plurality of groups for each of the user identification information, and changes the similarity as a function of time using the similarity of the group for at least one of the groups Configured to predict a change in the similarity of the group by generating an approximation function representing
  • the threshold changing unit is configured to change the threshold of the registered user corresponding to the group based on a prediction result of a change in similarity of the group.
  • the face recognition device according to appendix 1 or 2.
  • the verification unit compares the degree of similarity between the face image to be authenticated and a reference face image for each registered user registered in advance with the threshold value for each registered user.
  • the prediction unit classifies the authentication history data into a plurality of groups based on the authentication time, calculates an average of the similarities for each group, and uses the average similarity as a function of time Configured to predict a change in the average similarity by generating an approximation function representing the change in similarity,
  • the threshold changing unit is configured to change the threshold for each registered user based on a prediction result of the change in the average similarity.
  • the face feature amount of the face to be authenticated is compared with the face feature amount of the face to be authenticated, and the face feature amount of the face extracted from the reference face image for each registered user. Calculate the degree of similarity with The face authentication apparatus according to any one of appendices 1 to 12.
  • [Supplementary Note 14] Acquire the face image of the authentication target, Face recognition is performed based on the result of comparing the similarity between the face information based on the face image of the authentication target and the reference face information for each registered user registered in advance with a threshold, Predicting the change in the similarity based on the history of the similarity at the time of successful authentication; Changing the threshold based on the result of the prediction; Face recognition method.
  • the change in the similarity is predicted by generating an approximate function representing the change in the similarity as a function of time, using the history of the similarity at the time of the authentication success.
  • the history of the similarities at the time of the successful authentication of a plurality of registered users is classified into a plurality of groups based on the authentication time, and the above-mentioned at the time of the successful authentication of the plurality of registered users The average similarity is calculated, and the average similarity is used to predict the change in the average similarity by generating an approximation function representing the change in the similarity as a function of time.
  • the threshold is changed based on a prediction result of change in the average similarity.
  • the history of the similarity at the time of the authentication success of the one registered user is used to generate an approximate function representing a change in the similarity as a function of the one registered user. Predict changes in the degree of similarity upon successful authentication;
  • the threshold is changed based on a prediction result of the change in the degree of similarity at the time of the authentication success of the one registered user.
  • the threshold is a threshold commonly set for a plurality of registered users.
  • the face authentication method according to any one of appendices 14 to 19.
  • the threshold is a threshold set for each registered user.
  • the face authentication method according to any one of appendices 14 to 19.
  • the similarity between the face image to be authenticated and a reference face image for each registered user registered in advance is compared with a threshold value common to a plurality of the registered users. It determines whether the face image to be authenticated matches the reference face image of which registered user, and generates authentication history data including the similarity and the authentication time when it is determined that the face images match.
  • the authentication history data is classified into a plurality of groups based on the authentication time, an average of the similarities is calculated for each of the groups, and a similarity as a function of time using the average similarity Predict the change in similarity of the average by generating an approximation function representing the change in degree,
  • the common threshold is changed based on a prediction result of change in the average similarity.
  • the face authentication method according to appendix 14 or 15. [Supplementary Note 23] In the face authentication, the similarity between the face image to be authenticated and a reference face image for each registered user registered in advance is compared with a threshold value common to a plurality of the registered users.
  • the authentication history data is classified into a plurality of groups for each of the user identification information, and for at least one of the groups, a change in similarity as a function of time is used using the group similarity. Predict changes in the similarity of the groups by generating an approximation function representing In the change, the common threshold is changed based on a prediction result of change in similarity of the group.
  • the face authentication method according to appendix 14 or 15.
  • the face authentication based on the result of comparing the degree of similarity between the face image of the authentication target and the reference face image of each registered user registered in advance with the threshold for the registered user, It determines which face image matches the reference face image of which registered user, and includes the user identification information uniquely identifying the registered user and the authentication time when it is determined that they match.
  • Generate authentication history data In the prediction, the authentication history data is classified into a plurality of groups for each of the user identification information, and for at least one of the groups, a change in similarity as a function of time is used using the group similarity.
  • the face authentication method according to appendix 14 or 15. [Supplementary Note 25] In the face authentication, based on the result of comparing the degree of similarity between the face image of the authentication target and the reference face image of each registered user registered in advance with the threshold for the registered user, It determines whether the face image matches the reference face image of which of the registered users, and generates authentication history data including the degree of similarity and the authentication time when it is determined that the face images match.
  • the authentication history data is classified into a plurality of groups based on the authentication time, an average of the similarities is calculated for each of the groups, and a similarity as a function of time using the average similarity Predict the change in similarity of the average by generating an approximation function representing the change in degree,
  • the threshold for each registered user is changed based on a prediction result of change in the average similarity.
  • the face authentication method according to appendix 14 or 15. [Supplementary Note 26] In the face authentication, the face feature amount of the face to be authenticated is compared with the face feature amount of the face to be authenticated, and the face feature amount of the face extracted from the reference face image for each registered user.
  • a face image acquisition unit for acquiring a face image to be authenticated;
  • a matching unit that performs face authentication by calculating the degree of similarity between face information based on the face image to be authenticated and reference face information for each registered user, and comparing with the threshold value;
  • a prediction unit that predicts the change in the similarity based on the history of the similarity at the time of successful authentication;
  • a computer readable recording medium for recording a program to function as a threshold value changing unit that changes the threshold value based on a result of the prediction.
  • Authentication history data 230 ... Arithmetic processing unit 231 ... input unit 232 ... face image acquisition unit 233 Collating unit 234 ... output section 235 ... prediction unit 236 ... threshold changing unit 300 ... face authentication apparatus 301 ... face image obtaining unit 302 ... collating unit 303 ... prediction unit 304 ... threshold changing unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)

Abstract

認証象の顔画像を取得する顔画像取得部と、認証対象の顔画像に基づく顔情報と登録利用者毎の基準顔情報との間の類似度を算出して閾値と比較することにより、顔認証を行う照合部と、認証成功時の類似度の履歴に基づいて類似度の変化を予測する予測部と、予測の結果に基づいて閾値を変更する閾値変更部とを含む。

Description

顔認証装置
 本発明は、顔認証装置、顔認証方法、および記録媒体に関する。
 従来から、入退室監視システムや勤怠管理システムなどの各種のシステムにおいて、ゲートなどを通過する利用者に対して顔画像による個人認証が行われている。
 例えば特許文献1および特許文献2には、認証対象の顔画像を取得し、その認証対象の顔画像と予め登録された個人の基準顔画像との間の類似度を算出して閾値と比較することにより、顔認証を行う顔認証装置が記載されている。
 また、この種の顔認証装置では、照合に使用する閾値を自動的に変更する構成が採用されている。
 例えば特許文献1では、認証に失敗したときに認証対象の顔画像の明るさが適切か否かを判定し、適切でなければ閾値を下げることで本人拒否率を低下させる。また特許文献2では、認証成功時の類似度と閾値との差に応じて閾値を変更する。具体的には、特許文献2では、認証処理が成功したとき、その認証成功時の類似度が閾値を大きく超える場合には、閾値が低すぎるとみなして閾値を上方修正する。
特開2007-226327号公報 特開2013-117876号公報
 顔認証に失敗したときに顔画像の明るさが適切か否かを判定して適切でなければ閾値を下げる特許文献1に記載の方法では、認証に失敗してからでないと閾値を変更することができないため、利便性が低下する。
 一方、顔認証成功時の類似度と閾値との差に応じて閾値を変更する特許文献2に記載の方法によれば、顔認証に失敗する前に閾値を変更できる。しかしながら、特許文献2に記載の方法では、適切に閾値を変更するのは困難である。その理由は、特許文献2に記載の方法では、1回の顔認証成功時における類似度に基づいて閾値を変更しているためである。
 本発明の目的は、上述した課題を解決する顔認証装置を提供することにある。
 本発明の一形態に係る顔認証装置は、
 認証対象の顔画像を取得する顔画像取得部と、
 前記認証対象の顔画像に基づく顔情報と登録利用者毎の基準顔情報との間の類似度を算出して閾値と比較することにより、顔認証を行う照合部と、
 認証成功時の前記類似度の履歴に基づいて前記類似度の変化を予測する予測部と、
 前記予測の結果に基づいて前記閾値を変更する閾値変更部と、を含む。
 本発明の他の形態に係る顔認証方法は、
 認証対象の顔画像を取得し、
 前記認証対象の顔画像に基づく顔情報と予め登録された登録利用者毎の基準顔情報との間の類似度を閾値と比較した結果に基づいて、顔認証を行い、
 顔認証に成功したときの前記類似度の履歴に基づいて前記類似度の変化を予測し、
 前記予測の結果に基づいて前記閾値を変更する。
 本発明の他の形態に係るコンピュータ読み取り可能な記録媒体は、
 コンピュータを、
 認証対象の顔画像を取得する顔画像取得部と、
 前記認証対象の顔画像に基づく顔情報と登録利用者毎の基準顔情報との間の類似度を算出して閾値と比較することにより、顔認証を行う照合部と、
 認証成功時の前記類似度の履歴に基づいて前記類似度の変化を予測する予測部と、
 前記予測の結果に基づいて前記閾値を変更する閾値変更部と、して機能させるためのプログラムを記録する。
 本発明は上述した構成を有することにより、顔認証に失敗する前に閾値を適切に変更することができる。
本発明の第1の実施形態に係る顔認証装置のブロック図である。 本発明の顔認証装置を適用したシステムの例を示す図である。 本発明の第1の実施形態に係る顔認証装置の動作の概要を示すフローチャートである。 本発明の第1の実施形態に係る顔認証装置の予測部の動作の一例を示すフローチャートである。 本発明の第1の実施形態に係る顔認証装置の類似度予測処理の一例を説明するための図である。 本発明の第1の実施形態に係る顔認証装置の閾値変更部の動作の一例を示すフローチャートである。 本発明の第1の実施形態に係る顔認証装置の予測部の動作の他の例を示すフローチャートである。 本発明の第1の実施形態に係る顔認証装置の類似度予測処理の他の例を説明するための図である。 本発明の第1の実施形態に係る顔認証装置の閾値変更部の動作の他の例を示すフローチャートである。 本発明の第2の実施形態に係る顔認証装置のブロック図である。 本発明の第3の実施形態に係る顔認証装置のブロック図である。
 次に本発明の実施の形態について図面を参照して詳細に説明する。
[第1の実施形態]
 図1は本発明の第1の実施形態に係る顔認証装置100のブロック図である。また図2は本実施形態に係る顔認証装置100を含む入退室管理システムの概略図である。図1を参照すると、本実施形態に係る顔認証装置100は、カメラ部141との間のインタフェース部111、ゲート装置142との間のインタフェース部112、通信インタフェース部113、操作入力部114、画面表示部115、記憶部120、および演算処理部130から構成されている。
 インタフェース部111は、認証対象である人物の顔を撮像するカメラ部141との間で信号を授受するように構成されている。信号の授受は有線または無線の何れであってもよい。カメラ部141は、図2に示すように、ゲート装置142を通過する利用者143の顔部分を撮像できる位置および画角に設定されている。カメラ部141は、認証対象である人物の顔を撮像して得られた画像データを、インタフェース部111を通じて演算処理部130に出力するCCD(Charge Coupled Device)素子やCMOS(Complementary Metal-oxide Semiconductor)素子などからなる撮像装置である。カメラ部141で撮像される画像データは、例えば256階調の白黒濃淡画像であるが、カラー画像であってもよい。
 インタフェース部112は、ゲート装置142との間で顔認証の結果などの信号を授受するように構成されている。信号の授受は有線または無線の何れであってもよい。ゲート装置142は、受信した顔認証の結果に従って所定の動作を行う。所定の動作は各種考えられる。例えばゲート装置142は、顔認証の結果に従ってゲート装置142に取り付けられた扉の開閉動作を自動的に行う。或いはゲート装置142は、手動で開閉自在なゲートバーを備え、顔認証に成功したときに限り一定時間だけゲートバーのロックを解除する。或いはゲート装置142は、顔認証の結果に従ってゲート装置142に取り付けられた報知器から通行可否のメッセージを視覚的または音響的に出力する。ゲート装置142は、据え置き型であってもよいし、移動可能な可搬型であってもよい。またゲート装置142は、顔認証装置100と独立した装置であってもよいし、顔認証装置100と一体となった装置であってもよい。
 通信インタフェース部113は、端末などの外部装置との間でデータ通信を行う通信装置である。通信方式は、有線または無線の何れであってもよい。
 操作入力部114は、キーボードやテンキーなどの入力装置であり、オペレータの操作を検出して演算処理部130に出力するように構成されている。
 画面表示部115は、LCD(Liquid Crystal Display)やPDP(Plasma Display Panel)などの画面表示装置である。画面表示部115は、演算処理部130からの指示に応じて、認証結果などの各種情報を画面表示するように構成されている。
 記憶部120は、ハードディスクやメモリなどの記憶装置である。記憶部120は、演算処理部130で行われる各種処理に必要な処理情報およびプログラム121を記憶するように構成されている。
 プログラム121は、演算処理部130に読み込まれて実行されることにより各種処理部を実現する。プログラム121は、通信インタフェース部113などのデータ入出力機能を介して外部装置(図示せず)や記憶媒体(図示せず)から予め読み込まれて記憶部120に保存される。
 記憶部120に記憶される主な処理情報には、基準顔画像データ122、照合閾値123、および認証履歴データ124がある。
 基準顔画像データ122は、顔認証を行う際に用いられる基準となる顔画像と利用者IDを関連付けたデータである。基準顔画像データ122には、利用者IDに関連付けて、その利用者IDを有する人物の顔画像が基準顔画像として少なくとも1枚関連付けられていてよい。或いは、基準顔画像データ122には、利用者IDに関連付けて、その利用者IDを有する人物の顔画像から抽出された顔の特徴量が基準顔情報として関連付けられていてよい。ここで、顔の特徴量は、顔を構成する目、鼻、口、眉等の各部の位置関係や形状を認識するための顔画像の各部における特徴を示す数値であり、画像どうしの類似判断等を行う場合に用いられる。
 照合閾値123は、顔認証を行う際に用いられる閾値である。本実施形態の場合、照合閾値123は、全ての利用者IDで共通である。
 認証履歴データ124は、顔認証成功時の類似度と利用者IDと認証時刻を関連付けたデータである。
 演算処理部130は、MPUなどのマイクロプロセッサとその周辺回路を有する演算処理装置である。演算処理部130は、記憶部120からプログラム121を読み込んで実行することにより、上記ハードウェアとプログラム121とを協働させて各種処理部を実現するように構成されている。演算処理部130で実現される処理部として、入力部131、顔画像取得部132、照合部133、出力部134、予測部135、および閾値変更部136がある。
 入力部131は、通信インタフェース部113或いは操作入力部114を通じて外部から基準顔画像データ122および照合閾値123を入力し、記憶部120に記憶するように構成されている。
 顔画像取得部132は、カメラ部141から認証対象の人物の顔を撮像して得られた画像データを入力し、その画像データから認証対象の顔画像を取得(検出)するように構成されている。顔画像取得部132は、人の一般的な顔の輪郭を示すテンプレートを画像データにマッチングさせることにより、画像データ内に存在する顔画像を取得する。テンプレートマッチング以外に公知の各種の顔検出アルゴリズムを使用してもよい。顔画像取得部132は、取得した顔画像を照合部133に伝達するように構成されている。
 照合部133は、記憶部120から基準顔画像データ122と照合閾値123とを読み出し、基準顔画像データ122に含まれる基準顔画像と顔画像取得部132によって取得された認証対象の顔画像との間の類似度を利用者ID毎に算出し、算出した利用者ID毎の類似度を照合閾値123と比較した結果に基づいて、認証対象の顔画像が基準顔画像データ152に含まれる何れの利用者IDの基準顔画像と一致するか、或いは何れの基準顔画像とも一致しないかを判定するように構成されている。類似度の一例として、顔画像相互間の相互相関係数を用いることができる。その場合、両顔画像に同一人物の顔部分が含まれる場合に類似度が大きくなり、両顔画像に異なる人物の顔部分が含まれる場合に類似度が小さくなる。顔画像間の類似度としては、相互相関係数以外の公知の類似度算出技術を用いることができる。例えば、照合部133は、認証対象の顔画像から顔の特徴量を抽出し、基準顔画像データ122に含まれる基準顔の特徴量と認証対象の顔画像から抽出した顔の特徴量とを照合して、基準顔画像と認証対象の顔画像との類似度を算出するように構成されていてよい。
 また照合部133は、顔画像取得部132によって取得された認証対象の顔画像との間の類似度が照合閾値123以上になる利用者IDの顔画像が基準顔画像データ122に1つも存在しない場合、認証失敗の認証結果を生成するように構成されている。また照合部133は、顔画像取得部132によって取得された認証対象の顔画像との間の類似度が照合閾値123以上になる基準顔画像が1以上存在する場合、類似度が最大の利用者IDを含む認証成功の認証結果と、類似度が最大の利用者IDと当該類似度と認証時刻を含む認証履歴データ124を生成するように構成されている。さらに照合部133は、認証結果を出力部134に伝達するように構成されている。また照合部133は、認証履歴データ124を記憶部120に既に記憶されている認証履歴データ124の一部として追加登録するように構成されている。
 出力部134は、照合部133によって生成された認証結果を、インタフェース部112を通じてゲート装置142へ送信するように構成されている。また出力部134は、認証結果を画面表示部115に表示し、または/および、通信インタフェース部113を通じて外部の装置へ送信してもよい。
 予測部135は、照合閾値を変更する時期が到来すると、記憶部120に記録されている認証履歴データ124に基づいて、類似度の変化を予測するように構成されている。照合閾値を変更する時期は、前回の変更時期から一定時間が経過したとき、前回の変更時期以降に認証成功した回数が一定数に達したとき、前回の変更時期以降に予め定められた特定の利用者IDについての認証成功回数が一定数に達したときなどとすることができる。また予測部135は、予測した類似度の変化を閾値変更部136に伝達するように構成されている。
 閾値変更部136は、予測部135が予測した類似度の変化に基づいて、記憶部120に記憶されている照合閾値123を変更するように構成されている。
 図3は顔認証装置100の動作の概要を示すフローチャートである。図3を参照すると、まず顔認証装置100の入力部131は、外部から基準顔画像データ122を入力し、記憶部120に記憶する(ステップS1)。次に入力部131は、外部から照合閾値123を入力し、記憶部120に記憶する(ステップS2)。このステップS1、S2の処理は、顔認証の運用を開始するための準備処理であり、一度実施していれば省略してよい。
 次に顔認証装置100の顔画像取得部132は、インタフェース部111を通じてカメラ部141から認証対象を撮像して得られた画像データを入力し、その画像データから認証対象の顔画像を取得する(ステップS3)。次に顔認証装置100の照合部133は、基準顔画像データ122に含まれる基準顔画像と顔画像取得部132によって取得された認証対象の顔画像との間の類似度を算出して照合閾値123と比較することにより、認証対象の顔画像が基準顔画像データ122に含まれる何れの基準顔画像と一致するか、或いは何れの基準顔画像とも一致しないかを判定する(ステップS4)。このとき照合部133は、顔画像取得部132によって取得された認証対象の顔画像との間の類似度が照合閾値123以上になる基準顔画像が基準顔画像データ122に1つも存在しない場合、認証失敗の認証結果を生成して出力部134に伝達する。また、照合部133は、顔画像取得部132によって取得された認証対象の顔画像との間の類似度が照合閾値123以上になる基準顔画像が1以上存在する場合、類似度が最大の利用者IDを含む認証成功の認証結果と、類似度が最大の利用者IDと当該類似度と認証時刻を含む認証履歴データ124を生成し、前者を出力部134に伝達し、後者を記憶部120に登録する。次に顔認証装置100の出力部134は、認証結果を、インタフェース部112を通じてゲート装置142に出力する(ステップS5)。
 また顔認証装置100の予測部135は、照合閾値123を変更する時期が到来したか否かを判定し(ステップS6)、変更時期でなければ、ステップS3に戻って上述した処理と同様の処理を繰り返す。一方、変更時期であれば、予測部135は、記憶部120に記憶されている認証履歴データ124に基づいて、類似度の変化を予測する(ステップS7)。次に顔認証装置100の閾値変更部136は、予測部135によって予測された類似度の変化に基づいて、記憶部120に記憶されている照合閾値123を変更する(ステップS8)。そして、顔認証装置100は、ステップS3に戻って、上述した処理と同様の処理を繰り返す。
 以上のように、認証成功時の類似度の履歴に基づいて将来の類似度の変化を予測し、その予測の結果に基づいて照合閾値を変更するため、認証に失敗する前に照合閾値を適切に変更することができる。
 次に予測部135および閾値変更部136によるステップS7、S8の詳細を説明する。
 図4は予測部135によるステップS7の一例を示すフローチャートである。図4を参照すると、予測部135は、全ての利用者IDの認証履歴データ124を対象にして類似度の予測に使用する期間の認証成功時の類似度を記憶部120から読み出し、認証時刻順にそれぞれが同じ時間幅のN個のグループG1~GNに分割する(ステップS11)。例えば、予測部135は、事前に設定された時間Tcと正整数Nを使用し、現在時刻t0からTc×N時間前の時刻(t0-Tc×N)以降の認証時刻を有する認証履歴データ154中の類似度を利用者IDは問わずに記憶部120から読み出し、認証時刻順にそれぞれが同じ時間幅TcのN個のグループG1~GNに分割する。
 図5は、縦軸に類似度をとり、横軸に時刻をとって、認証成功時の類似度の分布を黒丸印で表現した図である。ステップS11のグループ化は、図5のグループG1~G5のように黒丸印の類似度の分布を時間軸方向にグループ分けすることに相当する。
 次に予測部135は、各グループの平均類似度R1~RNを算出する(ステップS12)。予測部135は、1つのグループに類似度がM個含まれる場合、M個の類似度の合計値をMで割って平均値を算出する。図5のグラフ中の矩形印は、各グループの平均類似度R1~R5を表している。
 次に予測部135は、平均類似度R1~RNに対し、関数(例えば線形関数)を準備し、最小二乗法を用いてフィッティングを行い、近似関数K(t)を生成する(ステップS13)。例えば近似関数K(t)は、以下のように表現される。
  K(t)=a・t+b   …(1)
 ここで、a、bは最小二乗法により定まる定数である。
 図5のグラフ中の線分は上記近似関数K(t)を表している。
 次に予測部135は、近似関数K(t)の変数tに将来の時刻を代入することにより、将来の時刻における平均類似度を予測する(ステップS14)。図5には、将来の時刻t0+Δt時点の平均類似度が図示されている。Δtは固定値であってもよいし、可変値であってもよい。
 図6は閾値変更部136によるステップS8の一例を示すフローチャートである。図6を参照すると、閾値変更部136は、現在の照合閾値123と予測部135によって予測された平均類似度との差を算出する(ステップS21)。次に閾値変更部136は、上記差を予め定められた値α1と比較し(ステップS22)、上記差が値α1より大きければ、現在の照合閾値123は大きすぎると判断して予め定められた値P1だけ小さくなるように変更する(ステップS23)。また閾値変更部136は、上記差が値α1以下であれば、上記差を予め定められた値β1(β1<α1)と比較し(ステップS24)、上記差が値β1より小さければ、現在の照合閾値123は小さすぎると判断して予め定められた値Q1だけ大きくなるように変更する(ステップS25)。それ以外の場合、即ち、上記差が値α1以下、かつ、値β1以上であれば、閾値変更部136は、現在の照合閾値123を変更しない。
 上記図4乃至図6を参照して説明した予測部135および閾値変更部136の動作によれば、複数の利用者の認証成功時における類似度の履歴に基づいて認証成功時の平均類似度の変化を予測し、その平均類似度の予測結果に基づいて複数の利用者で共通に使用する照合閾値123を変更する。このため、図4乃至図6を参照して説明した予測部135および閾値変更部136は、多くの利用者の類似度が同じ要因で同じように変化する環境に適用すると好適である。その一適用例を図2を参照して以下で説明する。
 図2は前述したように本実施形態の顔認証装置100を含む入退場管理システムの概略図である。図2を参照すると、顔認証装置100のカメラ部141は、ゲート装置142を通過する利用者143の顔画像を取得するように構成されている。顔認証装置100は、カメラ部141で取得された利用者143の顔画像に対して顔認証を行い、その認証結果をインタフェース部112からゲート装置142に送信する。ゲート装置142は、認証結果が成功であればゲートを開き、認証結果が失敗であればゲートを閉じるように構成されている。このようなシステムにおいては、西日の影響を受けて利用者143の顔画像の画質が低下するケースが発生することがある。その場合、利用者によらず、ゲート装置142を通過する殆ど全ての利用者の顔画像の画質が影響を受ける。そのため、本実施形態の顔認証装置100を使用すると、西日の影響を受けて利用者143の顔画像の画質が劣化して平均類似度が低下していくと、照合閾値123がそれに応じて小さくなるように自動的に変更される。その結果、本人拒否が発生するのを防止でき、利便性が向上する。また、西日の影響が薄れてゲート装置142を通過する利用者143の顔画像の画質が向上して平均類似度が高まると、照合閾値123がそれに応じて大きくなるように自動的に変更される。その結果、セキュリティ強度を再び高めることができる。
 多くの利用者の類似度に影響を与える要因には、図2で例示した西日以外に、経年変化による照明器具の照度変化、天候悪化による照度変化、花粉症の時期におけるマスク装着率の増大、俯く傾向が高まる雨模様時の正面顔の取得率の低下等がある。これらに対しても本実施形態の顔認証装置100は有効である。なお、同じ場所にゲート装置142が複数台設置されている場合、西日の当たり方や劣化した照明の影響はゲート装置毎に異なる可能性がある。そのため、ゲート装置毎に、認証成功時の類似度の履歴に基づいて類似度の変化を予測し、その予測の結果に応じて照合閾値を変更するのが望ましい。但し、西日の当たり方や劣化した照明の影響がほぼ等しい複数のゲート装置であれば、その何れか1つのゲート装置で上記類似度の変化の予測と変更後の照合閾値の決定を行い、この決定された変更後の照合閾値を使って複数のゲート装置の照合閾値を同じように変更してもよい。
 図7は予測部135によるステップS7の他の例を示すフローチャートである。図7を参照すると、予測部135は、類似度の予測に使用する特定の利用者IDを含む認証履歴データ124から所定期間の類似度を選択する(ステップS31)。例えば、予測部135は、予め定められた特定の利用者IDを有し且つ事前に設定された時間T前の時刻(t0-T)以降の認証時刻を有する認証履歴データ124中の類似度を記憶部120から選択して読み出す。特定の利用者IDは、全体の利用者の中で、認証対象となる頻度が比較的高く、類似度の値が平均的な登録利用者であることが望ましいが、それに限定されない。
 図8は、縦軸に類似度をとり、横軸に時刻をとって、特定の利用者IDの認証成功時における類似度の分布を黒丸印で表現した図である。
 次に予測部135は、特定の利用者IDの類似度に対し、関数(例えば線形関数)を準備し、最小二乗法を用いてフィッティングを行い、近似関数K(t)を生成する(ステップS32)。例えば近似関数K(t)は、上述した式1のように表現される。図8のグラフ中の線分は上記近似関数K(t)を表している。
 次に予測部135は、近似関数K(t)の変数tに将来の時刻を代入することにより、将来の時刻における特定の利用者IDの認証成功時の類似度を予測する(ステップS33)。図8には、将来の時刻t0+Δt時点における特定の利用者IDの認証成功時の類似度が図示されている。Δtは固定値であってもよいし、可変値であってもよい。
 図9は閾値変更部136によるステップS8の他の例を示すフローチャートである。図9を参照すると、閾値変更部136は、現在の照合閾値123と予測部135によって予測された特定の利用者IDの認証成功時の類似度との差を算出する(ステップS41)。次に閾値変更部136は、上記差を予め定められた値α2と比較し(ステップS42)、上記差が値α2より大きければ、現在の照合閾値123は大きすぎると判断して予め定められた値P2だけ小さくなるように変更する(ステップS43)。また閾値変更部136は、上記差が値α2以下であれば、上記差を予め定められた値β2(β2<α2)と比較し(ステップS44)、上記差が値β2より小さければ、現在の照合閾値123は小さすぎると判断して予め定められた値Q2だけ大きくなるように変更する(ステップS25)。それ以外の場合、即ち、上記差が値α2以下、かつ、値β2以上であれば、閾値変更部136は、現在の照合閾値123を変更しない。
 上記図7乃至図9を参照して説明した予測部135および閾値変更部136の動作によれば、特定の利用者の認証成功時における類似度の履歴に基づいて特定の利用者の認証成功時における類似度の変化を予測し、その予測結果に基づいて複数の利用者で共通に使用する照合閾値123を変更する。このため、図7乃至図9を参照して説明した予測部135および閾値変更部136は、特定の利用者の認証成功時における類似度が他の多くの利用者の認証成功時における類似度と同じ要因で同じように変化する環境に適用すると好適である。その一適用例として、例えば図2で説明したようなシステムが考えられる。
[第2の実施形態]
 図10は本発明の第2の実施形態に係る顔認証装置200のブロック図である。本実施形態に係る顔認証装置200は、カメラ部141とのインタフェース部211、ゲート装置142とのインタフェース部212、通信インタフェース部213、操作入力部214、画面表示部215、記憶部220、および演算処理部230から構成されている。このうち、インタフェース部211、インタフェース部212、通信インタフェース部213、操作入力部214、および画面表示部215は、図1のインタフェース部111、インタフェース部112、通信インタフェース部113、操作入力部114、および画面表示部115と同じように構成されている。
 記憶部220は、ハードディスクやメモリなどの記憶装置である。記憶部220は、演算処理部230で行われる各種処理に必要な処理情報およびプログラム221を記憶するように構成されている。
 プログラム221は、演算処理部230に読み込まれて実行されることにより各種処理部を実現する。プログラム221は、通信インタフェース部213などのデータ入出力機能を介して外部装置(図示せず)や記憶媒体(図示せず)から予め読み込まれて記憶部220に保存される。
 記憶部220に記憶される主な処理情報には、基準顔画像データ222、照合閾値223、および認証履歴データ224がある。このうち、基準顔画像データ222、および認証履歴データ224は、図1の基準顔画像データ122、および認証履歴データ124と同じように構成されている。
 照合閾値223は、顔認証を行う際に用いられる閾値である。本実施形態の場合、照合閾値223は、利用者ID毎に存在する。
 演算処理部230は、MPUなどのマイクロプロセッサとその周辺回路を有する演算処理装置である。演算処理部230は、記憶部220からプログラム221を読み込んで実行することにより、上記ハードウェアとプログラム221とを協働させて各種処理部を実現するように構成されている。演算処理部230で実現される処理部として、入力部231、顔画像取得部232、照合部233、出力部234、予測部235、および閾値変更部236がある。このうち、入力部231、顔画像取得部232、および出力部234は、図1の入力部131、顔画像取得部132、および出力部134と同じように構成されている。
 照合部233は、認証対象の顔画像と利用者ID毎の基準顔画像との間の類似度を利用者ID毎の照合閾値223と比較する点で、図1の照合部133と相違し、それ以外は照合部133と同様に構成されている。
 予測部235は、利用者ID毎の認証履歴データ224を用いて、利用者ID毎の認証成功時の類似度の変化を予測する点で、図1の予測部135と相違し、それ以外は予測部135と同様に構成されている。即ち、予測部235は、利用者ID毎に、図7に示した処理と同様の処理を繰り返すことによって、利用者ID毎の近似関数K(t)を導出する。
 閾値変更部236は、予測部235が予測した利用者ID毎の類似度の変化に基づいて、記憶部220に記憶されている利用者ID毎の照合閾値223を変更するように構成されている。即ち、閾値変更部236は、利用者ID毎に、図9に示した処理と同様の処理を繰り返すことによって、予測した類似度と現在の照合閾値との差が予め定められた値より大きければ照合閾値を所定値だけ小さくし、上記差が予め定められた値より小さければ照合閾値を所定値だけ大きくし、それ以外は照合閾値を変更しない。
 本実施形態によれば、利用者IDの認証成功時における類似度の履歴に基づいてその利用者IDの認証成功時における類似度の変化を予測し、その予測結果に基づいてその利用者IDの照合閾値を変更する。これによって、利用者ID毎に設定された照合閾値を、例えば利用者毎の顔画像の経年変化に追従して自動的に適切に変更することができる。
 本実施形態では、利用者IDの認証成功時における類似度の履歴に基づいてその利用者IDの類似度の変化を予測し、その予測結果に基づいてその利用者IDの照合閾値を変更した。しかし、本実施形態の変形例として、図4で説明した予測方法によって複数の利用者の照合成功時における類似度の履歴に基づいて、複数の利用者の照合成功時における平均の類似度の変化を予測し、その平均の類似度の予測結果に基づいて利用者ID毎の照合閾値を図6と同様の方法で変更するように構成してもよい。
[第3の実施形態]
 図11は本発明の第3の実施形態に係る顔認証装置300のブロック図である。図11を参照すると、本実施形態に係る顔認証装置300は、顔画像取得部301と、照合部302と、予測部303と、閾値変更部304とを備えている。
 顔画像取得部301は、認証対象の顔画像を取得するように構成されている。顔画像取得部301は、例えば図1の顔画像取得部132と同様に構成することができるが、それに限定されない。
 照合部302は、顔画像取得部301によって取得された認証対象の顔画像に基づく顔情報と登録利用者毎の基準顔情報との間の類似度を算出して閾値と比較することにより、顔認証を行うように構成されている。照合部302は、例えば図1の照合部133と同様に構成することができるが、それに限定されない。
 予測部303は、照合部302による認証成功時の類似度の履歴に基づいて、類似度の変化を予測するように構成されている。予測部303は、例えば図1の予測部135或いは図10の予測部235と同様に構成することができるが、それに限定されない。
 閾値変更部304は、予測部303の予測の結果に基づいて、照合部302が使用する上記閾値を変更するように構成されている。閾値変更部304は、図1の閾値変更部136或いは図10の閾値変更部236と同様に構成することができるが、それに限定されない。
 このように構成された本実施形態に係る顔認証装置300は、以下のように動作する。即ち、まず顔画像取得部301が、認証対象の顔画像を取得する。次に照合部302が、認証対象の顔画像に基づく顔情報と登録利用者毎の基準顔情報との間の類似度を算出して閾値と比較することにより、顔認証を行う。次に予測部303が、認証成功時の類似度の履歴に基づいて前記類似度の変化を予測する。そして閾値変更部304が、予測の結果に基づいて閾値を変更する。
 このように本実施形態によれば、認証成功時の類似度の履歴に基づいて類似度の変化を予測し、その予測の結果に基づいて照合に使用する閾値を変更するため、認証に失敗する前に閾値を適切に変更することができる。
 以上、上記各実施形態を参照して本発明を説明したが、本発明は、上述した実施形態に限定されるものではない。本発明の構成や詳細には、本発明の範囲内で当業者が理解しうる様々な変更をすることができる。
 なお、本発明は、日本国にて2018年1月12日に特許出願された特願2018-003232の特許出願に基づく優先権主張の利益を享受するものであり、当該特許出願に記載された内容は、全て本明細書に含まれるものとする。
 本発明は、入退室監視システムや勤怠管理システムなどに利用でき、特に利用者の負担を招くことなく、照合に使用する閾値を適切に自動修正して、利便性や安全性の向上を図る場合に適している。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
 認証対象の顔画像を取得する顔画像取得部と、
 前記認証対象の顔画像に基づく顔情報と登録利用者毎の基準顔情報との間の類似度を算出して閾値と比較することにより、顔認証を行う照合部と、
 認証成功時の前記類似度の履歴に基づいて前記類似度の変化を予測する予測部と、
 前記予測の結果に基づいて前記閾値を変更する閾値変更部と、を含む
顔認証装置。
[付記2]
 前記予測部は、前記認証成功時の類似度の履歴を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって前記類似度の変化を予測する
付記1に記載の顔認証装置。
[付記3]
 前記予測部は、複数の登録利用者の前記認証成功時における前記類似度の履歴を認証時刻に基づいて複数のグループに分類し、前記グループ毎に前記複数の登録利用者の前記認証成功時における前記類似度の平均を算出し、前記平均の類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記平均の類似度の変化を予測するように構成されている、
付記1または2に記載の顔認証装置。
[付記4]
 前記閾値変更部は、前記平均の類似度の変化の予測結果に基づいて、前記閾値を変更する、
付記3に記載の顔認証装置。
[付記5]
 前記予測部は、一の登録利用者の前記認証成功時における前記類似度の履歴を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記一の登録利用者の前記認証成功時における前記類似度の変化を予測するように構成されている、
付記1または2に記載の顔認証装置。
[付記6]
 前記閾値変更部は、前記一の登録利用者の前記認証成功時における前記類似度の変化の予測結果に基づいて、前記閾値を変更する、
付記5に記載の顔認証装置。
[付記7]
 前記閾値は、複数の登録利用者に共通に設定される閾値である、
付記1乃至6の何れかに記載の顔認証装置。
[付記8]
 前記閾値は、登録利用者毎に設定される閾値である、
付記1乃至6の何れかに記載の顔認証装置。
[付記9]
 前記照合部は、前記認証対象の顔画像と予め登録された登録利用者毎の基準顔画像との間の類似度を複数の前記登録利用者で共通な閾値と比較した結果に基づいて、前記認証対象の顔画像が何れの前記登録利用者の前記基準顔画像と一致するかを判定し、一致すると判定したときの前記類似度と認証時刻を含む認証履歴データを生成するように構成され、
 前記予測部は、前記認証履歴データを前記認証時刻に基づいて複数のグループに分類し、前記グループ毎に前記類似度の平均を算出し、前記平均の類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記平均の類似度の変化を予測するように構成され、
 前記閾値変更部は、前記平均の類似度の変化の予測結果に基づいて前記共通な閾値を変更するように構成されている、
付記1または2に記載の顔認証装置。
[付記10]
 前記照合部は、前記認証対象の顔画像と予め登録された登録利用者毎の基準顔画像との間の類似度を複数の前記登録利用者で共通な閾値と比較した結果に基づいて、前記認証対象の顔画像が何れの前記登録利用者の前記基準顔画像と一致するかを判定し、一致すると判定したときの前記類似度と前記登録利用者を一意に識別する利用者識別情報と認証時刻を含む認証履歴データを生成するように構成され、
 前記予測部は、前記認証履歴データを前記利用者識別情報毎の複数のグループに分類し、前記グループの少なくとも1つについて、前記グループの類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記グループの類似度の変化を予測するように構成され、
 前記閾値変更部は、前記グループの類似度の変化の予測結果に基づいて前記共通な閾値を変更するように構成されている、
付記1または2に記載の顔認証装置。
[付記11]
 前記照合部は、前記認証対象の顔画像と予め登録された登録利用者毎の基準顔画像との間の類似度を前記登録利用者毎の閾値と比較した結果に基づいて、前記認証対象の顔画像が何れの前記登録利用者の前記基準顔画像と一致するかを判定し、一致すると判定したときの前記類似度と前記登録利用者を一意に識別する利用者識別情報と認証時刻を含む認証履歴データを生成するように構成され、
 前記予測部は、前記認証履歴データを前記利用者識別情報毎の複数のグループに分類し、前記グループの少なくとも1つについて、前記グループの類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記グループの類似度の変化を予測するように構成され、
 前記閾値変更部は、前記グループの類似度の変化の予測結果に基づいて前記グループに対応する前記登録利用者の閾値を変更するように構成されている、
付記1または2に記載の顔認証装置。
[付記12]
 前記照合部は、前記認証対象の顔画像と予め登録された登録利用者毎の基準顔画像との間の類似度を前記登録利用者毎の閾値と比較した結果に基づいて、前記認証対象の顔画像が何れの前記登録利用者の前記基準顔画像と一致するかを判定し、一致すると判定したときの前記類似度と認証時刻を含む認証履歴データを生成するように構成され、
 前記予測部は、前記認証履歴データを前記認証時刻に基づいて複数のグループに分類し、前記グループ毎に前記類似度の平均を算出し、前記平均の類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記平均の類似度の変化を予測するように構成され、
 前記閾値変更部は、前記平均の類似度の変化の予測結果に基づいて前記登録利用者毎の閾値を変更するように構成されている、
付記1または2に記載の顔認証装置。
[付記13]
 前記顔認証では、前記認証対象の顔画像から抽出した顔の特徴量と登録利用者毎の基準顔画像から抽出した顔の特徴量とを照合して前記認証対象の顔画像と前記基準顔画像との類似度を算出する、
付記1乃至12の何れかに記載の顔認証装置。
[付記14]
 認証対象の顔画像を取得し、
 前記認証対象の顔画像に基づく顔情報と予め登録された登録利用者毎の基準顔情報との間の類似度を閾値と比較した結果に基づいて、顔認証を行い、
 認証成功時の前記類似度の履歴に基づいて前記類似度の変化を予測し、
 前記予測の結果に基づいて前記閾値を変更する、
顔認証方法。
[付記15]
 前記予測では、前記認証成功時の類似度の履歴を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって前記類似度の変化を予測する、
付記14に記載の顔認証方法。
[付記16]
 前記予測では、複数の登録利用者の前記認証成功時における前記類似度の履歴を認証時刻に基づいて複数のグループに分類し、前記グループ毎に前記複数の登録利用者の前記認証成功時における前記類似度の平均を算出し、前記平均の類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記平均の類似度の変化を予測する、
付記14または15に記載の顔認証方法。
[付記17]
 前記変更では、前記平均の類似度の変化の予測結果に基づいて、前記閾値を変更する、
付記16に記載の顔認証方法。
[付記18]
 前記予測では、一の登録利用者の前記認証成功時における前記類似度の履歴を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記一の登録利用者の前記認証成功時における前記類似度の変化を予測する、
付記14または15に記載の顔認証方法。
[付記19]
 前記変更では、前記一の登録利用者の前記認証成功時における前記類似度の変化の予測結果に基づいて、前記閾値を変更する、
付記18に記載の顔認証方法。
[付記20]
 前記閾値は、複数の登録利用者に共通に設定される閾値である、
付記14乃至19の何れかに記載の顔認証方法。
[付記21]
 前記閾値は、登録利用者毎に設定される閾値である、
付記14乃至19の何れかに記載の顔認証方法。
[付記22]
 前記顔認証では、前記認証対象の顔画像と予め登録された登録利用者毎の基準顔画像との間の類似度を複数の前記登録利用者で共通な閾値と比較した結果に基づいて、前記認証対象の顔画像が何れの前記登録利用者の前記基準顔画像と一致するかを判定し、一致すると判定したときの前記類似度と認証時刻を含む認証履歴データを生成し、
 前記予測では、前記認証履歴データを前記認証時刻に基づいて複数のグループに分類し、前記グループ毎に前記類似度の平均を算出し、前記平均の類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記平均の類似度の変化を予測し、
 前記変更では、前記平均の類似度の変化の予測結果に基づいて前記共通な閾値を変更する、
付記14または15に記載の顔認証方法。
[付記23]
 前記顔認証では、前記認証対象の顔画像と予め登録された登録利用者毎の基準顔画像との間の類似度を複数の前記登録利用者で共通な閾値と比較した結果に基づいて、前記認証対象の顔画像が何れの前記登録利用者の前記基準顔画像と一致するかを判定し、一致すると判定したときの前記類似度と前記登録利用者を一意に識別する利用者識別情報と認証時刻を含む認証履歴データを生成し、
 前記予測では、前記認証履歴データを前記利用者識別情報毎の複数のグループに分類し、前記グループの少なくとも1つについて、前記グループの類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記グループの類似度の変化を予測し、
 前記変更では、前記グループの類似度の変化の予測結果に基づいて前記共通な閾値を変更する、
付記14または15に記載の顔認証方法。
[付記24]
 前記顔認証では、前記認証対象の顔画像と予め登録された登録利用者毎の基準顔画像との間の類似度を前記登録利用者毎の閾値と比較した結果に基づいて、前記認証対象の顔画像が何れの前記登録利用者の前記基準顔画像と一致するかを判定し、一致すると判定したときの前記類似度と前記登録利用者を一意に識別する利用者識別情報と認証時刻を含む認証履歴データを生成し、
 前記予測では、前記認証履歴データを前記利用者識別情報毎の複数のグループに分類し、前記グループの少なくとも1つについて、前記グループの類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記グループの類似度の変化を予測し、
 前記変更では、前記グループの類似度の変化の予測結果に基づいて前記グループに対応する前記登録利用者の閾値を変更する、
付記14または15に記載の顔認証方法。
[付記25]
 前記顔認証では、前記認証対象の顔画像と予め登録された登録利用者毎の基準顔画像との間の類似度を前記登録利用者毎の閾値と比較した結果に基づいて、前記認証対象の顔画像が何れの前記登録利用者の前記基準顔画像と一致するかを判定し、一致すると判定したときの前記類似度と認証時刻を含む認証履歴データを生成し、
 前記予測では、前記認証履歴データを前記認証時刻に基づいて複数のグループに分類し、前記グループ毎に前記類似度の平均を算出し、前記平均の類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記平均の類似度の変化を予測し、
 前記変更では、前記平均の類似度の変化の予測結果に基づいて前記登録利用者毎の閾値を変更する、
付記14または15に記載の顔認証方法。
[付記26]
 前記顔認証では、前記認証対象の顔画像から抽出した顔の特徴量と登録利用者毎の基準顔画像から抽出した顔の特徴量とを照合して前記認証対象の顔画像と前記基準顔画像との類似度を算出する、
付記14乃至25の何れかに記載の顔認証方法。
[付記27]
 コンピュータを、
 認証対象の顔画像を取得する顔画像取得部と、
 前記認証対象の顔画像に基づく顔情報と登録利用者毎の基準顔情報との間の類似度を算出して閾値と比較することにより、顔認証を行う照合部と、
 認証成功時の前記類似度の履歴に基づいて前記類似度の変化を予測する予測部と、
 前記予測の結果に基づいて前記閾値を変更する閾値変更部と、して機能させるためのプログラムを記録するコンピュータ読み取り可能な記録媒体。
100…顔認証装置
111…インタフェース部
112…インタフェース部
113…通信インタフェース部
114…操作入力部
115…画面表示部
120…記憶部
121…プログラム
122…基準顔画像データ
123…照合閾値
124…認証履歴データ
130…演算処理部
131…入力部
132…顔画像取得部
133…照合部
134…出力部
135…予測部
136…閾値変更部
141…カメラ部
142…ゲート装置
143…利用者
200…顔認証装置
211…インタフェース部
212…インタフェース部
213…通信インタフェース部
214…操作入力部
215…画面表示部
220…記憶部
221…プログラム
222…基準顔画像データ
223…照合閾値
224…認証履歴データ
230…演算処理部
231…入力部
232…顔画像取得部
233…照合部
234…出力部
235…予測部
236…閾値変更部
300…顔認証装置
301…顔画像取得部
302…照合部
303…予測部
304…閾値変更部

Claims (27)

  1.  認証対象の顔画像を取得する顔画像取得部と、
     前記認証対象の顔画像に基づく顔情報と登録利用者毎の基準顔情報との間の類似度を算出して閾値と比較することにより、顔認証を行う照合部と、
     認証成功時の前記類似度の履歴に基づいて前記類似度の変化を予測する予測部と、
     前記予測の結果に基づいて前記閾値を変更する閾値変更部と、を含む
    顔認証装置。
  2.  前記予測部は、前記認証成功時の類似度の履歴を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって前記類似度の変化を予測する
    請求項1に記載の顔認証装置。
  3.  前記予測部は、複数の登録利用者の前記認証成功時における前記類似度の履歴を認証時刻に基づいて複数のグループに分類し、前記グループ毎に前記複数の登録利用者の前記認証成功時における前記類似度の平均を算出し、前記平均の類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記平均の類似度の変化を予測するように構成されている、
    請求項1または2に記載の顔認証装置。
  4.  前記閾値変更部は、前記平均の類似度の変化の予測結果に基づいて、前記閾値を変更する、
    請求項3に記載の顔認証装置。
  5.  前記予測部は、一の登録利用者の前記認証成功時における前記類似度の履歴を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記一の登録利用者の前記認証成功時における前記類似度の変化を予測するように構成されている、
    請求項1または2に記載の顔認証装置。
  6.  前記閾値変更部は、前記一の登録利用者の前記認証成功時における前記類似度の変化の予測結果に基づいて、前記閾値を変更する、
    請求項5に記載の顔認証装置。
  7.  前記閾値は、複数の登録利用者に共通に設定される閾値である、
    請求項1乃至6の何れかに記載の顔認証装置。
  8.  前記閾値は、登録利用者毎に設定される閾値である、
    請求項1乃至6の何れかに記載の顔認証装置。
  9.  前記照合部は、前記認証対象の顔画像と予め登録された登録利用者毎の基準顔画像との間の類似度を複数の前記登録利用者で共通な閾値と比較した結果に基づいて、前記認証対象の顔画像が何れの前記登録利用者の前記基準顔画像と一致するかを判定し、一致すると判定したときの前記類似度と認証時刻を含む認証履歴データを生成するように構成され、
     前記予測部は、前記認証履歴データを前記認証時刻に基づいて複数のグループに分類し、前記グループ毎に前記類似度の平均を算出し、前記平均の類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記平均の類似度の変化を予測するように構成され、
     前記閾値変更部は、前記平均の類似度の変化の予測結果に基づいて前記共通な閾値を変更するように構成されている、
    請求項1または2に記載の顔認証装置。
  10.  前記照合部は、前記認証対象の顔画像と予め登録された登録利用者毎の基準顔画像との間の類似度を複数の前記登録利用者で共通な閾値と比較した結果に基づいて、前記認証対象の顔画像が何れの前記登録利用者の前記基準顔画像と一致するかを判定し、一致すると判定したときの前記類似度と前記登録利用者を一意に識別する利用者識別情報と認証時刻を含む認証履歴データを生成するように構成され、
     前記予測部は、前記認証履歴データを前記利用者識別情報毎の複数のグループに分類し、前記グループの少なくとも1つについて、前記グループの類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記グループの類似度の変化を予測するように構成され、
     前記閾値変更部は、前記グループの類似度の変化の予測結果に基づいて前記共通な閾値を変更するように構成されている、
    請求項1または2に記載の顔認証装置。
  11.  前記照合部は、前記認証対象の顔画像と予め登録された登録利用者毎の基準顔画像との間の類似度を前記登録利用者毎の閾値と比較した結果に基づいて、前記認証対象の顔画像が何れの前記登録利用者の前記基準顔画像と一致するかを判定し、一致すると判定したときの前記類似度と前記登録利用者を一意に識別する利用者識別情報と認証時刻を含む認証履歴データを生成するように構成され、
     前記予測部は、前記認証履歴データを前記利用者識別情報毎の複数のグループに分類し、前記グループの少なくとも1つについて、前記グループの類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記グループの類似度の変化を予測するように構成され、
     前記閾値変更部は、前記グループの類似度の変化の予測結果に基づいて前記グループに対応する前記登録利用者の閾値を変更するように構成されている、
    請求項1または2に記載の顔認証装置。
  12.  前記照合部は、前記認証対象の顔画像と予め登録された登録利用者毎の基準顔画像との間の類似度を前記登録利用者毎の閾値と比較した結果に基づいて、前記認証対象の顔画像が何れの前記登録利用者の前記基準顔画像と一致するかを判定し、一致すると判定したときの前記類似度と認証時刻を含む認証履歴データを生成するように構成され、
     前記予測部は、前記認証履歴データを前記認証時刻に基づいて複数のグループに分類し、前記グループ毎に前記類似度の平均を算出し、前記平均の類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記平均の類似度の変化を予測するように構成され、
     前記閾値変更部は、前記平均の類似度の変化の予測結果に基づいて前記登録利用者毎の閾値を変更するように構成されている、
    請求項1または2に記載の顔認証装置。
  13.  前記顔認証では、前記認証対象の顔画像から抽出した顔の特徴量と登録利用者毎の基準顔画像から抽出した顔の特徴量とを照合して前記認証対象の顔画像と前記基準顔画像との類似度を算出する、
    請求項1乃至12の何れかに記載の顔認証装置。
  14.  認証対象の顔画像を取得し、
     前記認証対象の顔画像に基づく顔情報と予め登録された登録利用者毎の基準顔情報との間の類似度を閾値と比較した結果に基づいて、顔認証を行い、
     認証成功時の前記類似度の履歴に基づいて前記類似度の変化を予測し、
     前記予測の結果に基づいて前記閾値を変更する、
    顔認証方法。
  15.  前記予測では、前記認証成功時の類似度の履歴を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって前記類似度の変化を予測する、
    請求項14に記載の顔認証方法。
  16.  前記予測では、複数の登録利用者の前記認証成功時における前記類似度の履歴を認証時刻に基づいて複数のグループに分類し、前記グループ毎に前記複数の登録利用者の前記認証成功時における前記類似度の平均を算出し、前記平均の類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記平均の類似度の変化を予測する、
    請求項14または15に記載の顔認証方法。
  17.  前記変更では、前記平均の類似度の変化の予測結果に基づいて、前記閾値を変更する、
    請求項16に記載の顔認証方法。
  18.  前記予測では、一の登録利用者の前記認証成功時における前記類似度の履歴を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記一の登録利用者の前記認証成功時における前記類似度の変化を予測する、
    請求項14または15に記載の顔認証方法。
  19.  前記変更では、前記一の登録利用者の前記認証成功時における前記類似度の変化の予測結果に基づいて、前記閾値を変更する、
    請求項18に記載の顔認証方法。
  20.  前記閾値は、複数の登録利用者に共通に設定される閾値である、
    請求項14乃至19の何れかに記載の顔認証方法。
  21.  前記閾値は、登録利用者毎に設定される閾値である、
    請求項14乃至19の何れかに記載の顔認証方法。
  22.  前記顔認証では、前記認証対象の顔画像と予め登録された登録利用者毎の基準顔画像との間の類似度を複数の前記登録利用者で共通な閾値と比較した結果に基づいて、前記認証対象の顔画像が何れの前記登録利用者の前記基準顔画像と一致するかを判定し、一致すると判定したときの前記類似度と認証時刻を含む認証履歴データを生成し、
     前記予測では、前記認証履歴データを前記認証時刻に基づいて複数のグループに分類し、前記グループ毎に前記類似度の平均を算出し、前記平均の類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記平均の類似度の変化を予測し、
     前記変更では、前記平均の類似度の変化の予測結果に基づいて前記共通な閾値を変更する、
    請求項14または15に記載の顔認証方法。
  23.  前記顔認証では、前記認証対象の顔画像と予め登録された登録利用者毎の基準顔画像との間の類似度を複数の前記登録利用者で共通な閾値と比較した結果に基づいて、前記認証対象の顔画像が何れの前記登録利用者の前記基準顔画像と一致するかを判定し、一致すると判定したときの前記類似度と前記登録利用者を一意に識別する利用者識別情報と認証時刻を含む認証履歴データを生成し、
     前記予測では、前記認証履歴データを前記利用者識別情報毎の複数のグループに分類し、前記グループの少なくとも1つについて、前記グループの類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記グループの類似度の変化を予測し、
     前記変更では、前記グループの類似度の変化の予測結果に基づいて前記共通な閾値を変更する、
    請求項14または15に記載の顔認証方法。
  24.  前記顔認証では、前記認証対象の顔画像と予め登録された登録利用者毎の基準顔画像との間の類似度を前記登録利用者毎の閾値と比較した結果に基づいて、前記認証対象の顔画像が何れの前記登録利用者の前記基準顔画像と一致するかを判定し、一致すると判定したときの前記類似度と前記登録利用者を一意に識別する利用者識別情報と認証時刻を含む認証履歴データを生成し、
     前記予測では、前記認証履歴データを前記利用者識別情報毎の複数のグループに分類し、前記グループの少なくとも1つについて、前記グループの類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記グループの類似度の変化を予測し、
     前記変更では、前記グループの類似度の変化の予測結果に基づいて前記グループに対応する前記登録利用者の閾値を変更する、
    請求項14または15に記載の顔認証方法。
  25.  前記顔認証では、前記認証対象の顔画像と予め登録された登録利用者毎の基準顔画像との間の類似度を前記登録利用者毎の閾値と比較した結果に基づいて、前記認証対象の顔画像が何れの前記登録利用者の前記基準顔画像と一致するかを判定し、一致すると判定したときの前記類似度と認証時刻を含む認証履歴データを生成し、
     前記予測では、前記認証履歴データを前記認証時刻に基づいて複数のグループに分類し、前記グループ毎に前記類似度の平均を算出し、前記平均の類似度を用いて、時間を関数とした類似度の変化を表す近似関数を生成することによって、前記平均の類似度の変化を予測し、
     前記変更では、前記平均の類似度の変化の予測結果に基づいて前記登録利用者毎の閾値を変更する、
    請求項14または15に記載の顔認証方法。
  26.  前記顔認証では、前記認証対象の顔画像から抽出した顔の特徴量と登録利用者毎の基準顔画像から抽出した顔の特徴量とを照合して前記認証対象の顔画像と前記基準顔画像との類似度を算出する、
    請求項14乃至25の何れかに記載の顔認証方法。
  27.  コンピュータを、
     認証対象の顔画像を取得する顔画像取得部と、
     前記認証対象の顔画像に基づく顔情報と登録利用者毎の基準顔情報との間の類似度を算出して閾値と比較することにより、顔認証を行う照合部と、
     認証成功時の前記類似度の履歴に基づいて前記類似度の変化を予測する予測部と、
     前記予測の結果に基づいて前記閾値を変更する閾値変更部と、して機能させるためのプログラムを記録するコンピュータ読み取り可能な記録媒体。
PCT/JP2018/047065 2018-01-12 2018-12-20 顔認証装置 WO2019138840A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP18899315.8A EP3739547A4 (en) 2018-01-12 2018-12-20 FACE RECOGNITION DEVICE
US16/961,537 US11163979B2 (en) 2018-01-12 2018-12-20 Face authentication apparatus
US17/490,695 US11625949B2 (en) 2018-01-12 2021-09-30 Face authentication apparatus
US18/114,015 US12014570B2 (en) 2018-01-12 2023-02-24 Face authentication apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-003232 2018-01-12
JP2018003232A JP6648769B2 (ja) 2018-01-12 2018-01-12 顔認証装置

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/961,537 A-371-Of-International US11163979B2 (en) 2018-01-12 2018-12-20 Face authentication apparatus
US17/490,695 Continuation US11625949B2 (en) 2018-01-12 2021-09-30 Face authentication apparatus

Publications (1)

Publication Number Publication Date
WO2019138840A1 true WO2019138840A1 (ja) 2019-07-18

Family

ID=67218638

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/047065 WO2019138840A1 (ja) 2018-01-12 2018-12-20 顔認証装置

Country Status (4)

Country Link
US (3) US11163979B2 (ja)
EP (1) EP3739547A4 (ja)
JP (1) JP6648769B2 (ja)
WO (1) WO2019138840A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6249263B2 (ja) * 2015-09-08 2017-12-20 日本電気株式会社 顔認識システム、顔認識方法、表示制御装置、表示制御方法および表示制御プログラム
JP6648769B2 (ja) * 2018-01-12 2020-02-14 日本電気株式会社 顔認証装置
JP7271915B2 (ja) * 2018-11-22 2023-05-12 コニカミノルタ株式会社 画像処理プログラムおよび画像処理装置
JP6635208B1 (ja) * 2019-02-22 2020-01-22 日本電気株式会社 検索装置、検索方法、およびプログラム
CN110929617B (zh) * 2019-11-14 2023-05-30 绿盟科技集团股份有限公司 一种换脸合成视频检测方法、装置、电子设备及存储介质
WO2021140588A1 (ja) * 2020-01-08 2021-07-15 三菱電機株式会社 生体認証装置、生体認証方法、および、生体認証プログラム
US11967173B1 (en) * 2020-05-19 2024-04-23 T Stamp Inc. Face cover-compatible biometrics and processes for generating and using same
CN112667984A (zh) 2020-12-31 2021-04-16 上海商汤临港智能科技有限公司 一种身份认证方法及装置、电子设备和存储介质
WO2023187996A1 (ja) * 2022-03-29 2023-10-05 日本電気株式会社 認証システム、認証方法およびコンピュータ可読媒体
CN114944030B (zh) * 2022-05-19 2024-02-09 杭州海康威视数字技术股份有限公司 一种门禁控制方法及装置
CN115037987B (zh) * 2022-06-07 2024-05-07 厦门蝉羽网络科技有限公司 一种直播带货视频的回看方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11104112A (ja) * 1997-09-30 1999-04-20 Glory Ltd 個人認証装置
JP2001202513A (ja) * 2000-01-21 2001-07-27 Mitsubishi Electric Corp 指紋照合装置及びその照合方法
JP2007226327A (ja) 2006-02-21 2007-09-06 Oki Electric Ind Co Ltd 個人識別装置,個人識別方法
JP2008079680A (ja) * 2006-09-26 2008-04-10 Hitachi Software Eng Co Ltd 生体情報認証装置及び生体情報による個人認証方法
JP2008257404A (ja) * 2007-04-03 2008-10-23 Fuji Heavy Ind Ltd 時系列データの未来値予測装置
JP2013117876A (ja) 2011-12-02 2013-06-13 Sogo Keibi Hosho Co Ltd 顔認証データベース管理方法、顔認証データベース管理装置及び顔認証データベース管理プログラム
JP2016189162A (ja) * 2015-03-30 2016-11-04 オムロン株式会社 個人識別装置、識別閾値設定方法、およびプログラム
JP2018003232A (ja) 2016-06-23 2018-01-11 東レ・オペロンテックス株式会社 伸縮性布帛

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4575060B2 (ja) * 2004-07-23 2010-11-04 株式会社山武 指紋登録方法および指紋登録装置
JP2007011764A (ja) * 2005-06-30 2007-01-18 Casio Comput Co Ltd 画像照合装置、および画像照合処理プログラム、画像照合方法
JP5017873B2 (ja) 2006-02-07 2012-09-05 コニカミノルタホールディングス株式会社 個人照合装置及び個人照合方法
JP4456617B2 (ja) * 2007-04-16 2010-04-28 富士通株式会社 類似分析装置、画像表示装置、および画像表示プログラム
JP2009104599A (ja) * 2007-10-04 2009-05-14 Toshiba Corp 顔認証装置、顔認証方法、及び顔認証システム
WO2011092828A1 (ja) * 2010-01-28 2011-08-04 富士通株式会社 認証装置、認証システム及び認証方法
JP5669082B2 (ja) * 2010-04-19 2015-02-12 パナソニックIpマネジメント株式会社 照合装置
DE102012216191A1 (de) * 2011-09-14 2013-03-14 Hitachi Information & Communication Engineering, Ltd. Authentifizierungssystem
JP2013074461A (ja) * 2011-09-28 2013-04-22 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
KR102133534B1 (ko) * 2015-07-01 2020-07-13 삼성전자주식회사 사용자 인증 방법 및 장치
US9875398B1 (en) * 2016-06-30 2018-01-23 The United States Of America As Represented By The Secretary Of The Army System and method for face recognition with two-dimensional sensing modality
JP6659524B2 (ja) * 2016-11-18 2020-03-04 株式会社東芝 移動体追跡装置、表示装置および移動体追跡方法
US10120862B2 (en) 2017-04-06 2018-11-06 International Business Machines Corporation Dynamic management of relative time references in documents
US10210381B1 (en) * 2017-08-01 2019-02-19 Apple Inc. Multiple enrollments in facial recognition
US10719692B2 (en) * 2017-09-09 2020-07-21 Apple Inc. Vein matching for difficult biometric authentication cases
JP6692045B2 (ja) * 2017-09-28 2020-05-13 パナソニックIpマネジメント株式会社 認証装置、認証システム、認証方法、及びプログラム
JP6648769B2 (ja) * 2018-01-12 2020-02-14 日本電気株式会社 顔認証装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11104112A (ja) * 1997-09-30 1999-04-20 Glory Ltd 個人認証装置
JP2001202513A (ja) * 2000-01-21 2001-07-27 Mitsubishi Electric Corp 指紋照合装置及びその照合方法
JP2007226327A (ja) 2006-02-21 2007-09-06 Oki Electric Ind Co Ltd 個人識別装置,個人識別方法
JP2008079680A (ja) * 2006-09-26 2008-04-10 Hitachi Software Eng Co Ltd 生体情報認証装置及び生体情報による個人認証方法
JP2008257404A (ja) * 2007-04-03 2008-10-23 Fuji Heavy Ind Ltd 時系列データの未来値予測装置
JP2013117876A (ja) 2011-12-02 2013-06-13 Sogo Keibi Hosho Co Ltd 顔認証データベース管理方法、顔認証データベース管理装置及び顔認証データベース管理プログラム
JP2016189162A (ja) * 2015-03-30 2016-11-04 オムロン株式会社 個人識別装置、識別閾値設定方法、およびプログラム
JP2018003232A (ja) 2016-06-23 2018-01-11 東レ・オペロンテックス株式会社 伸縮性布帛

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3739547A4

Also Published As

Publication number Publication date
US12014570B2 (en) 2024-06-18
JP6648769B2 (ja) 2020-02-14
EP3739547A4 (en) 2021-03-03
US11625949B2 (en) 2023-04-11
JP2019125002A (ja) 2019-07-25
US20210056289A1 (en) 2021-02-25
US20220019763A1 (en) 2022-01-20
EP3739547A1 (en) 2020-11-18
US11163979B2 (en) 2021-11-02
US20230222832A1 (en) 2023-07-13

Similar Documents

Publication Publication Date Title
WO2019138840A1 (ja) 顔認証装置
US20210303829A1 (en) Face liveness detection using background/foreground motion analysis
JP6607266B2 (ja) 顔認証装置
EP3067829A1 (en) Person authentication method
JP6151582B2 (ja) 顔認証システム
TW200407792A (en) Person recognizing apparatus, person recognizing method and passage controller
WO2019138688A1 (ja) 顔認証装置
JP4850609B2 (ja) 顔画像照合装置
WO2019138838A1 (ja) 顔認証装置
JP2009087232A (ja) 人物認証装置および人物認証方法
US20230222842A1 (en) Improved face liveness detection using background/foreground motion analysis
KR20190093799A (ko) Cctv를 통한 실시간 실종자 얼굴 인식 시스템 및 그 방법
WO2019138841A1 (ja) 顔認証装置
JP2020205117A (ja) 顔認証装置
JP6767683B2 (ja) 顔認証装置
JP2007300185A (ja) 画像監視装置
CN111675059A (zh) 基于人脸识别的电梯控制方法、装置和计算机设备
JP2009032116A (ja) 顔認証装置、顔認証方法および入退場管理装置
JP2005084824A (ja) 顔画像照合装置、顔画像照合方法及び通行制御装置
JP2006085289A (ja) 顔認証システムおよび顔認証方法
JP7251593B2 (ja) 顔認証装置
JP2023079948A (ja) 情報処理装置、及びその制御方法、プログラム
WO2024046740A1 (en) System for liveness determination using several models
JP2007280040A (ja) 顔認証装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18899315

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018899315

Country of ref document: EP

Effective date: 20200812