WO2022070321A1 - 顔認証装置、顔認証方法、及び、記録媒体 - Google Patents

顔認証装置、顔認証方法、及び、記録媒体 Download PDF

Info

Publication number
WO2022070321A1
WO2022070321A1 PCT/JP2020/037191 JP2020037191W WO2022070321A1 WO 2022070321 A1 WO2022070321 A1 WO 2022070321A1 JP 2020037191 W JP2020037191 W JP 2020037191W WO 2022070321 A1 WO2022070321 A1 WO 2022070321A1
Authority
WO
WIPO (PCT)
Prior art keywords
shard key
line segment
face image
face
input
Prior art date
Application number
PCT/JP2020/037191
Other languages
English (en)
French (fr)
Inventor
健太郎 小澤
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2022553315A priority Critical patent/JP7400987B2/ja
Priority to US18/023,584 priority patent/US20230316805A1/en
Priority to PCT/JP2020/037191 priority patent/WO2022070321A1/ja
Publication of WO2022070321A1 publication Critical patent/WO2022070321A1/ja
Priority to JP2023206709A priority patent/JP2024023582A/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Definitions

  • the present invention relates to a face recognition technique.
  • Patent Document 1 describes a method of calculating a weighted value indicating the degree of collation for each combination of a collation source and a collation destination in biometric authentication, and classifying the feature vector of the collation destination into a plurality of groups using the weighted value. are doing.
  • One object of the present invention is to provide a face recognition device capable of performing collation with a large number of collation targets at high speed by distributed processing using an appropriate key.
  • the face recognition device is Multiple collation means that distribute and store multiple facial features corresponding to multiple faces based on the shard key value, and
  • a shard key calculation means that extracts a plurality of line segments each defined by a facial feature point from the input face image and calculates the ratio of the plurality of line segments as a shard key.
  • the authentication means for authenticating the input face image by using the collation means corresponding to the calculated shard key value is provided.
  • the face recognition method is: Get the input face image, A plurality of line segments each defined by the feature points of the face are extracted from the input face image, and the ratio of the plurality of line segments is calculated as a shard key.
  • the collation means corresponding to the calculated shard key value is used to input the face. Authenticate the image.
  • the recording medium is: Get the input face image, A plurality of line segments each defined by the feature points of the face are extracted from the input face image, and the ratio of the plurality of line segments is calculated as a shard key.
  • the plurality of collation means in which a plurality of facial features corresponding to a plurality of faces are sorted and stored based on the shard key value, the collation means corresponding to the calculated shard key value is used to input the face.
  • the outline of the face recognition system which concerns on 1st Embodiment is shown. It is a block diagram which shows the hardware configuration of a face recognition server. It is a block diagram which shows the functional structure of a face recognition server. The calculation method of the shard key in 1st Embodiment is shown. A method of assigning all feature data to multiple face matching nodes is shown. It is a flowchart of a face recognition process. Shows the correspondence between the pan, roll, and tilt ranges of the input face image and the distance that should be used as the shard key. The correspondence between the presence or absence of masks and sunglasses and the distance that should be used as a shard key is shown. Shows the priority of multiple line segments defined by the parts included in the face image. It is a block diagram which shows the functional structure of the face recognition apparatus which concerns on 6th Embodiment. It is a flowchart of face recognition processing according to 6th Embodiment.
  • FIG. 1 shows an outline of the face recognition system according to the first embodiment.
  • the face recognition system 1 includes a terminal device 5 and a face recognition server 100.
  • the terminal device 5 is a client terminal used by a user who performs face recognition, and examples thereof include a user's PC, tablet, and smartphone.
  • the user transmits a face image taken by a camera or the like from the terminal device 5 to the face authentication server 100.
  • the face recognition server 100 stores face images and feature amounts of face images of registered persons in advance, and is a face image to be authenticated (hereinafter, also referred to as “input face image”” transmitted from the terminal device 5. .) And the registered face image are collated to perform face recognition. Specifically, the face authentication server 10 extracts a feature amount from the input face image and collates it with a plurality of feature amounts registered in the face recognition server 10 to perform face authentication.
  • FIG. 2 is a block diagram showing a hardware configuration of the face authentication server 100.
  • the face recognition server 100 includes a communication unit 11, a processor 12, a memory 13, a recording medium 14, and a database (DB) 15.
  • DB database
  • the communication unit 11 inputs / outputs data to / from an external device. Specifically, the communication unit 11 receives the input face image to be authenticated from the terminal device 5. Further, the communication unit 11 transmits the authentication result by the face recognition server 100 to the terminal device 5.
  • the processor 12 is a computer such as a CPU (Central Processing Unit), and controls the entire face recognition server 100 by executing a program prepared in advance.
  • the processor 12 may be a GPU (Graphics Processing Unit) or an FPGA (Field-Programmable Gate Array). Specifically, the processor 12 executes the face recognition process described later.
  • the memory 13 is composed of a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the memory 13 is also used as a working memory during execution of various processes by the processor 12.
  • the recording medium 14 is a non-volatile, non-temporary recording medium such as a disk-shaped recording medium or a semiconductor memory, and is configured to be removable from the face recognition server 100.
  • the recording medium 14 records various programs executed by the processor 12. When the face recognition server 100 executes the face recognition process, the program recorded in the recording medium 14 is loaded into the memory 13 and executed by the processor 12.
  • the database (DB) 15 stores a face image and a feature amount extracted from the face image (hereinafter, also referred to as "registered feature amount") for the registered person. Further, the DB 15 temporarily stores the input face image received through the communication unit 11 and the authentication result of the input face image.
  • the face recognition server 100 may include a display unit, an input unit, and the like for performing operations and the like required by the administrator.
  • FIG. 3 is a block diagram showing a functional configuration of the face authentication server 100.
  • the face recognition server 100 functionally includes a data acquisition unit 20, a calculation unit 21, a determination unit 22, face matching nodes 23a to 23d, a total feature amount DB 25, and an authentication result output unit 26.
  • the data acquisition unit 20 acquires an input face image to be authenticated from the user's terminal device 5 and outputs it to the calculation unit 21.
  • the calculation unit 21 extracts a feature amount for collation with the registered face image (hereinafter, also referred to as “collation feature amount”) from the input face image, and shards a predetermined feature amount in the input face image. It is output to the determination unit 22 as a key.
  • the calculation unit 21 uses as a shard key a feature amount that can be relatively easily acquired and has a stable value among the information obtained from the face image.
  • Most of the information obtained from facial images is ambiguous. For example, the accuracy of determining the age and gender estimated from the facial image is greatly reduced by makeup, wigs, clothes, and the like. Therefore, if these are used as shard keys, it is conceivable that erroneous judgments will increase. Therefore, in this embodiment, the T-shaped aspect ratio of both eyes and the upper lip is used as the shard key.
  • FIG. 4 shows a method of calculating a shard key in this embodiment.
  • the T-shaped aspect ratio created by both eyes and upper lip of the face is used as the shard key.
  • the calculation unit 21 determines a first line segment connecting both eyes in the input face image, and further sets a perpendicular line drawn from the upper lip to the first line segment as the second line segment, and sets the first line segment. Let the ratio (W / H) of the length of the minute (W) and the length of the second line segment (H) be the shard key.
  • the calculation unit 21 calculates the shard key after making necessary corrections in the pan, roll, and tilt directions for the input face image.
  • the above ratio (W / H), that is, the T-shaped aspect ratio of both eyes and upper lip can be easily measured from the facial image and can be stably measured without depending on makeup, etc., so that there is a possibility of erroneous judgment. It can be reduced and stable distributed processing of face recognition becomes possible.
  • the total feature amount DB 25 is a DB that stores all the registered feature amounts for the registered person, and is realized by the DB 15 in FIG.
  • the total feature amount data stored in the total feature amount DB 25 is distributed to a plurality of nodes by sharding.
  • the total feature amount data is distributed and stored in the four face matching nodes 23a to 23d based on the shard key.
  • the face matching nodes 23a to 23d include cache memories 24a to 24d for storing feature amount data.
  • a subscript such as "face matching node 23a" is added, and when not limited to any of them, the subscript is omitted. Then, it is called "face matching node 23" or the like.
  • FIG. 5 shows a method of allocating all feature amount data to four face matching nodes 23 using a shard key. This process is executed by the calculation unit 21 and the determination unit 22. First, for all the registered facial images, the aspect ratio of the T-shape of both eyes and the upper lip is calculated as a shard key. As a result, the value of the shard key corresponding to all the feature amount data can be obtained. Next, as shown in FIG. 5, the total feature amount data is sorted by the shard key value. Then, the total feature amount data is classified into four groups G1 to G4 according to the value of the shard key, and assigned to the face matching nodes 23a to 23d.
  • the group G1 of the feature amount data having the largest shard key value is stored in the cache memory 24a of the face matching node 23a
  • the group G2 of the feature amount data having the second largest shard key value is the face matching node 23b. It is stored in the cache memory 24b of.
  • the group G3 of the feature amount data having the third largest shard key value is stored in the cache memory 24c of the face matching node 23c
  • the group G4 of the feature amount data having the smallest shard key value is the face matching node 23d. It is saved in the cache memory 24d.
  • the feature amount data of each group grouped into four by the value of the shard key is stored in each of the cache memories 24a to 24d. As a result, it is not necessary to make an inquiry to the total feature amount DB 25 in which all the facial feature amounts are stored every time the collation described later is performed, so that the processing speed can be increased.
  • FIG. 5 shows. As shown, it is preferable to overlap the boundaries of adjacent groups to some extent.
  • the feature amount data included in the area X1 is stored in both the face matching nodes 23a and 23b
  • the feature amount data included in the area X2 is stored in both the face matching nodes 23b and 23c
  • the feature amount data is stored in both the face matching nodes 23b and 23c.
  • the feature amount data included in is stored in both the face matching nodes 23c and 23d.
  • FIG. 3 is merely an example, and the number of face collation nodes 23 can be determined according to the number of total feature amount data.
  • the process of allocating all the feature amount data to the four face matching nodes 23 is performed before starting the face authentication process for the input face image. Then, when the allocation is completed, the range of the shard key corresponding to the group of feature amount data assigned to each face matching node 23a to 23d is stored in the determination unit 22.
  • the determination unit 22 When the determination unit 22 acquires the value of the shard key calculated for the input face image from the calculation unit 21, the determination unit 22 selects the face matching node 23 to which the value belongs, and the matching feature of the input face image to the selected face matching node 23. Output the amount. For example, assuming that the value of the shard key acquired from the calculation unit 21 for a certain input face image is a value corresponding to the face matching node 23b, the determination unit 22 sets the matching feature amount of the input face image to the face matching node 23b. Output to.
  • the value of the shard key of the input face image belongs to any of the areas X1 to X3 shown in FIG. 5, two face matching nodes 23 adjacent to any of the areas X1 to X3 perform face recognition. However, the remaining two face recognition nodes 23 do not perform face recognition. In this way, the collation of the feature amount of the input face image can be speeded up by the distributed processing.
  • the face matching node 23 that performs face recognition using the matching feature amount of the input face image outputs the authentication result to the authentication result output unit 26.
  • the authentication result output unit 26 transmits the authentication result to the user's terminal device 5. In this way, the user can know the authentication result.
  • the data acquisition unit 20 is an example of acquisition means
  • the calculation unit 21 is an example of shard key calculation means and feature amount extraction means
  • the determination unit 22 and face matching node 23 are examples of authentication means. ..
  • the calculation unit 21 and the determination unit 22 are examples of storage control means
  • the total feature amount DB 25 is an example of storage means.
  • FIG. 6 is a flowchart of the face recognition process. This process is realized by the processor 12 shown in FIG. 2 executing a program prepared in advance and operating as an element shown in FIG. As a premise of the processing, it is assumed that all the feature amount data are distributed and cached in the face matching nodes 23a to 23d based on the value of the shard key as described above.
  • the data acquisition unit 20 acquires an input face image from the terminal device 5 (step S11).
  • the calculation unit 21 calculates the matching feature amount from the input face image (step S12), and further calculates the shard key from the input face image (step S13).
  • the determination unit 22 selects the face matching node 23 corresponding to the calculated shard key from the plurality of face matching nodes 23, and outputs the matching feature amount to the face matching node 23 (step S14). ..
  • the selected face matching node 23 collates the matching feature amount of the input face image calculated in step S12 with the feature amount cached in the selected face matching node 23 (step S15).
  • the result output unit 26 outputs the collation result to the terminal device 5 (step S16). In this way, the face recognition process is completed.
  • the shard key can be calculated easily and stably from the face image, and the face recognition distributed processing can be performed stably. It can be performed.
  • the aspect ratio of the T-shape between both eyes and the upper lip specifically, the length (W) of the first line segment connecting both eyes in the facial image, and the first line segment from the upper lip are lowered.
  • the length (distance) of the following line segment that can be stably obtained from the face image is used.
  • the ratio of two or more of the above-mentioned plurality of lengths is used as the shard key. This makes it possible to generate a shard key using a ratio of lengths that can be relatively stably obtained from a facial image. Except for this point, the second embodiment is the same as the first embodiment.
  • the third embodiment it is determined which part of the face is used to calculate the shard key based on the amount of pan, roll, and tilt of the input face image.
  • the calculation unit 21 calculates pan, roll, and tilt from the input face image, and determines the distance (length of the line segment) to be used as the shard key with reference to the first table shown in FIG. 7. do.
  • FIG. 7 shows the correspondence between the pan, roll, and tilt ranges of the input face image and the distance (line segment length) to be used in the range. In the first table of FIG.
  • the bread has a value of 0 degrees in the front direction of the user's face, a negative value in the left direction, and a positive value in the right direction. Further, the tilt is 0 degrees in the front direction of the user's face, plus in the upward direction, and minus in the downward direction.
  • the calculation unit 21 calculates the pan and tilt from the input face image and the pan belongs to "-20 ° to 20 °" and the tilt belongs to the range of "-30 ° to 30 °", the distance (2). ), That is, a line segment connecting both eyes can be used.
  • the distance (3) that is, the perpendicular line drawn from the upper lip to the line segment connecting both eyes. Can be used. Therefore, the arithmetic unit 21 can use the ratio of the lengths of these two line segments as a shard key. When the shard key is generated using the distance selected as described above, the number of face matching nodes 23 may be increased as necessary.
  • the shard key is calculated using the facial parts shown in the input face image based on the result of calculating the pan and tilt from the input face image, so that the distributed processing by the shard key is stable. Can be transformed into. Except for this point, the third embodiment is the same as the first embodiment.
  • the fourth embodiment it is determined which part of the face is used to calculate the shard key based on whether or not the input face image is an image wearing a mask or sunglasses.
  • the calculation unit 21 analyzes the input face image to detect the mask and sunglasses, and refers to the second table shown in FIG. 8 to determine the distance (line segment length) used as the shard key. decide.
  • FIG. 8 shows the correspondence between the presence / absence of a mask and sunglasses and the distance (line segment length) to be used as a shard key.
  • the arithmetic unit 21 detects a mask from the input face image but does not detect sunglasses, the ratio of two or more of the distances (1), (2), and (9) is used as the shard key. be able to.
  • the shard key is generated using the distance selected as described above, the number of face matching nodes 23 may be increased as necessary.
  • the shard key is calculated using the facial parts shown in the input face image based on the result of detecting the mask and sunglasses from the input face image, so that the distributed processing by the shard key is stable. Can be transformed into. Except for this point, the fourth embodiment is the same as the first embodiment.
  • FIG. 9 is an example of a third table in which the priority is defined for a plurality of line segments defined by the parts included in the face image.
  • the calculation unit 21 detects the facial parts shown in the input face image, and calculates the shard key using the length of the line segment that can be used according to the priority shown in FIG.
  • the ratio of the lengths of the two line segments is used as the shard key.
  • the calculation unit 21 calculates the ratio of the distance (2) and the distance (3) as the shard key according to the priority shown in FIG.
  • the calculation unit 21 calculates the ratio of the distance (6) and the distance (7) without using the eye position as a shard key according to the priority order shown in FIG. do.
  • the shard key is generated using the distance selected as described above, the number of face matching nodes 23 may be increased as necessary.
  • the shard key is calculated by selecting the distance from the plurality of face parts shown in the input face image according to the priority order, so that the distributed processing by the shard key can be stabilized. Except for this point, the fifth embodiment is the same as the first embodiment.
  • FIG. 10 is a block diagram showing a functional configuration of the face recognition device 50 according to the sixth embodiment.
  • the face recognition device 50 includes a plurality of collation means 51, an acquisition means 52, a shard key calculation means 53, and an authentication means 54.
  • the plurality of collation means 51 distributes and stores a plurality of facial features corresponding to the plurality of faces based on the value of the shard key.
  • the acquisition means 52 acquires an input face image.
  • the shard key calculation means 53 extracts a plurality of line segments each defined by the feature points of the face from the input face image, and calculates the ratio of the plurality of line segments as the shard key.
  • the authentication means 54 authenticates the input face image by using the matching means corresponding to the calculated shard key value.
  • FIG. 11 is a flowchart of the face recognition process according to the sixth embodiment.
  • the acquisition means 52 acquires the input face image (step S31).
  • the shard key calculation means 53 extracts a plurality of line segments each defined by the feature points of the face from the input face image, and calculates the ratio of the plurality of line segments as the shard key (step S32).
  • the authentication means 54 is a collation means corresponding to the calculated shard key value among the plurality of collation means in which the plurality of facial features corresponding to the plurality of faces are sorted and stored based on the shard key values. Is used to authenticate the input face image (step S33).
  • the shard is used from the face image.
  • the key can be generated stably, and the distributed processing of face recognition can be performed stably.
  • the registered feature amounts stored in the total feature amount DB 25 are distributed and stored in a plurality of face matching nodes 23, if the number of registered persons increases, they are stored in each face matching node 23. There may be a bias in the number of registered features. In that case, the registered feature amount stored in the total feature amount DB 25 may be re-allocated to the plurality of face matching nodes 23, that is, the update process may be performed.
  • the number of face matching nodes 23 may be increased as the number of registered persons increases. For example, it is assumed that at a certain point in time, the registered feature amount is distributed and stored in the four face matching nodes 23 as illustrated in FIG. After that, when the number of registered persons increases and the total number of registered features in the total feature amount DB 25 exceeds a predetermined reference number, the face matching node 23 is increased by one, and all the registered features at that time are increased. The amount may be redistributed into the five face matching nodes 23.
  • first to seventh embodiments apply this disclosed method to face authentication, they can also be applied to biometric authentication related to hands such as fingerprint authentication, hand vein authentication, and palm print authentication. ..
  • biometric authentication related to hands such as fingerprint authentication, hand vein authentication, and palm print authentication.
  • vein authentication and palm print authentication of the hand it is a prerequisite that the photographed image of the entire hand can be acquired.
  • the ratio of the distance from the base of each of the five fingers to the fingertip, the ratio between the length between the first joint and the second joint of a specific finger and the length of the finger, etc. are used as the shard key. Therefore, the same processing as that of the above embodiment can be executed.
  • (Appendix 1) Multiple collation means that distribute and store multiple facial features corresponding to multiple faces based on the shard key value, and The acquisition method to acquire the input face image and A shard key calculation means that extracts a plurality of line segments each defined by a facial feature point from the input face image and calculates the ratio of the plurality of line segments as a shard key.
  • An authentication means that authenticates the input face image by using a collation means corresponding to the calculated shard key value, and an authentication means.
  • Appendix 2 The face recognition device according to Appendix 1, wherein the shard key is a ratio between the length of a line segment connecting both eyes in a face image and the length of a perpendicular line drawn from the upper lip to the line segment.
  • the line segment was divided into a line segment connecting either the left or right ear hole and the center of the pupil, a line segment connecting both eyes, a vertical line segment connecting the upper lip to both eyes, and a line segment connecting both eyes from the tip of the nose.
  • a vertical line a line segment that connects both eyes from the tip of the jaw, a line segment that connects the tip of the nose and the tip of the jaw, a line segment that connects the lower lip and the tip of the jaw, a line segment that connects the hole of the left or right ear and the tip of the nose, and the eyes.
  • the face recognition device according to Appendix 1 which is one of a line segment drawn from a line segment connecting either the left or right ear hole and the tip of the nose.
  • the shard key calculation means calculates the amount of pan, roll, and tilt of the input face image, determines the line segment to be used with reference to the first table, and calculates the shard key.
  • the face recognition device according to any one of the above.
  • a second table that defines the length of the line segment that should be used as a shard key if the facial image contains at least one of the mask and sunglasses.
  • the shard key calculation means detects whether or not the input face image includes a mask and sunglasses, determines a line segment to be used with reference to the second table, and calculates the shard key.
  • the face recognition device according to any one of 3.
  • the shard key calculation means is any one of Supplementary note 1 to 3 for calculating a shard key by selecting a plurality of line segments having a high priority from a plurality of line segments defined by feature points included in the input face image.
  • the face recognition device according to item 1.
  • a feature amount extraction means for extracting a feature amount from the input face image is provided.
  • the face authentication device according to any one of Supplementary note 1 to 6, wherein the authentication means collates the feature amount extracted from the input face image with the feature amount stored in the collation means.
  • Terminal device 12 Processor 20 Data acquisition unit 21 Calculation unit 22 Judgment unit 23 Face matching node 24 Cache memory 25 Total feature amount DB 26 Result output unit 100 Face recognition server

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Collating Specific Patterns (AREA)

Abstract

顔認証装置は、複数の顔に対応する複数の顔特徴量をシャードキーの値に基づいてそれぞれ振り分けて記憶した複数の照合手段と、取得手段と、シャードキー算出手段と、認証手段とを備える。取得手段は、入力顔画像を取得する。シャードキー算出手段は、入力顔画像から、各々が顔の特徴点により規定される複数の線分を抽出し、当該複数の線分の比をシャードキーとして算出する。認証手段は、算出されたシャードキーの値に対応する照合手段を用いて、入力顔画像の認証を行う。

Description

顔認証装置、顔認証方法、及び、記録媒体
 本発明は、顔認証技術に関する。
 大量のデータに対して効率的な検索を行う手法として、シャーディングにより検索対象を分割する技術が知られている。例えば、特許文献1は、生体認証において、照合元と照合先の組み合わせごとに照合の度合いを示す重み付け値を算出し、これを用いて照合先の特徴ベクトルを複数のグループに分類する手法を記載している。
国際公開WO2018/116918号公報
 顔認証においても、照合対象が膨大になる場合にシャーディングによる認証処理の高速化が期待できるが、顔認証のような非構造データの分散解析においては、照合の前段での振り分けに使える適切なキーが無いことが課題となっている。
 本発明の1つの目的は、適切なキーを用いて、大量の照合対象との照合を分散処理により高速に行うことが可能な顔認証装置を提供することにある。
 本発明の一つの観点では、顔認証装置は、
 複数の顔に対応する複数の顔特徴量をシャードキーの値に基づいてそれぞれ振り分けて記憶した複数の照合手段と、
 入力顔画像を取得する取得手段と、
 前記入力顔画像から、各々が顔の特徴点により規定される複数の線分を抽出し、当該複数の線分の比をシャードキーとして算出するシャードキー算出手段と、
 算出されたシャードキーの値に対応する照合手段を用いて、前記入力顔画像の認証を行う認証手段と、を備える。
 本発明の他の観点では、顔認証方法は、
 入力顔画像を取得し、
 前記入力顔画像から、各々が顔の特徴点により規定される複数の線分を抽出し、当該複数の線分の比をシャードキーとして算出し、
 複数の顔に対応する複数の顔特徴量をシャードキーの値に基づいてそれぞれ振り分けて記憶した複数の照合手段のうち、算出されたシャードキーの値に対応する照合手段を用いて、前記入力顔画像の認証を行う。
 本発明のさらに他の観点では、記録媒体は、
 入力顔画像を取得し、
 前記入力顔画像から、各々が顔の特徴点により規定される複数の線分を抽出し、当該複数の線分の比をシャードキーとして算出し、
 複数の顔に対応する複数の顔特徴量をシャードキーの値に基づいてそれぞれ振り分けて記憶した複数の照合手段のうち、算出されたシャードキーの値に対応する照合手段を用いて、前記入力顔画像の認証を行う処理をコンピュータに実行させるプログラムを記録する。
第1実施形態に係る顔認証システムの概略を示す。 顔認証サーバのハードウェア構成を示すブロック図である。 顔認証サーバの機能構成を示すブロック図である。 第1実施形態におけるシャードキーの算出方法を示す。 全特徴量データを複数の顔照合ノードに割り当てる方法を示す。 顔認証処理のフローチャートである。 入力顔画像のパン、ロール、チルトの範囲と、シャードキーとして使用すべき距離との対応を示す。 マスク及びサングラスの有無と、シャードキーとして使用すべき距離との対応を示す。 顔画像に含まれるパーツにより規定される複数の線分の優先順位を示す。 第6実施形態に係る顔認証装置の機能構成を示すブロック図である。 第6実施形態による顔認証処理のフローチャートである。
 以下、図面を参照して、この開示の好適な実施形態について説明する。
 <第1実施形態>
 [顔認証システム]
 図1は、第1実施形態に係る顔認証システムの概略を示す。顔認証システム1は、端末装置5と、顔認証サーバ100とを備える。端末装置5は、顔認証を行う利用者が使用するクライアント端末であり、例えば、利用者のPC、タブレット、スマートフォンなどが挙げられる。利用者は、カメラなどにより撮影した顔画像を端末装置5から顔認証サーバ100へ送信する。
 顔認証サーバ100は、登録済人物について顔画像や顔画像の特徴量を予め記憶しており、端末装置5から送信された、認証の対象となる顔画像(以下、「入力顔画像」とも呼ぶ。)と登録済の顔画像とを照合して顔認証を行う。具体的には、顔認証サーバ10は、入力顔画像から特徴量を抽出し、顔認証サーバ10に登録されている複数の特徴量と照合して顔認証を行う。
 [ハードウェア構成]
 図2は、顔認証サーバ100のハードウェア構成を示すブロック図である。図示のように、顔認証サーバ100は、通信部11と、プロセッサ12と、メモリ13と、記録媒体14と、データベース(DB)15とを備える。
 通信部11は、外部装置との間でデータの入出力を行う。具体的に、通信部11は、端末装置5から、認証の対象となる入力顔画像を受信する。また、通信部11は、顔認証サーバ100による認証結果を端末装置5へ送信する。
 プロセッサ12は、CPU(Central Processing Unit)などのコンピュータであり、予め用意されたプログラムを実行することにより、顔認証サーバ100の全体を制御する。なお、プロセッサ12は、GPU(Graphics Processing Unit)またはFPGA(Field-Programmable Gate Array)であってもよい。具体的に、プロセッサ12は、後述する顔認証処理を実行する。
 メモリ13は、ROM(Read Only Memory)、RAM(Random Access Memory)などにより構成される。メモリ13は、プロセッサ12による各種の処理の実行中に作業メモリとしても使用される。
 記録媒体14は、ディスク状記録媒体、半導体メモリなどの不揮発性で非一時的な記録媒体であり、顔認証サーバ100に対して着脱可能に構成される。記録媒体14は、プロセッサ12が実行する各種のプログラムを記録している。顔認証サーバ100が顔認証処理を実行する際には、記録媒体14に記録されているプログラムがメモリ13にロードされ、プロセッサ12により実行される。
 データベース(DB)15は、登録済人物について、顔画像及び顔画像から抽出した特徴量(以下、「登録済特徴量」とも呼ぶ。)を記憶している。また、DB15は、通信部11を通じて受信した入力顔画像や、その入力顔画像の認証結果などを一時的に保存する。このほか、顔認証サーバ100は、管理者が必要な操作などを行うための表示部や入力部などを備えていてもよい。
 [機能構成]
 図3は、顔認証サーバ100の機能構成を示すブロック図である。顔認証サーバ100は、機能的には、データ取得部20と、演算部21と、判定部22と、顔照合ノード23a~23dと、全特徴量DB25と、認証結果出力部26とを備える。
 データ取得部20は、利用者の端末装置5から、認証の対象となる入力顔画像を取得し、演算部21へ出力する。演算部21は、入力顔画像から、登録済顔画像との照合のための特徴量(以下、「照合用特徴量」とも呼ぶ。)を抽出するとともに、入力顔画像における所定の特徴量をシャードキーとして判定部22へ出力する。
 演算部21は、顔画像から得られる情報のうち、比較的簡単に取得でき、かつ、安定した値となる特徴量をシャードキーとして使用する。顔画像から得られる情報は、曖昧なものが多い。例えば、顔画像から推定される年齢や性別は、化粧やかつらや服装などで判定精度が大きく低下する。このため、これらをシャードキーとして使用すると、誤判定が増加することが考えられる。そこで、本実施形態では、両目と上唇のT字のアスペクト比をシャードキーとして用いる。
 図4は、本実施形態におけるシャードキーの算出方法を示す。図示のように、顔の両目と上唇で作られるT字のアスペクト比をシャードキーとして用いる。具体的には、演算部21は、入力顔画像における両目を結ぶ第1の線分を決定し、さらに上唇から第1の線分に下した垂線を第2の線分とし、第1の線分の長さ(W)と第2の線分の長さ(H)の比(W/H)をシャードキーとする。なお、演算部21は、入力顔画像に対して、パン、ロール、チルト方向において必要な補正を行ってからシャードキーを算出する。上記の比(W/H)、即ち、両目と上唇のT字のアスペクト比は、顔画像から容易に測定でき、化粧などに依存せずに安定して計測できるため、誤判定の可能性を低減でき、顔認証の安定的な分散処理が可能となる。
 全特徴量DB25は、登録済人物についての全ての登録済特徴量を記憶したDBであり、図2のDB15により実現される。全特徴量DB25に記憶された全特徴量データは、シャーディングにより複数のノードに分散されている。図3の例では、全特徴量データは、シャードキーに基づいて4つの顔照合ノード23a~23dに分散して記憶される。顔照合ノード23a~23dは、特徴量データを記憶するためのキャッシュメモリ24a~24dを備える。なお、以下の説明では、4つの顔照合ノードやキャッシュメモリのうちのいずれかを指す場合は「顔照合ノード23a」などと添え字を付し、いずれかに限定しない場合には添え字を省略して「顔照合ノード23」などと呼ぶ。
 図5は、全特徴量データを、シャードキーを用いて4つの顔照合ノード23に割り当てる方法を示す。この処理は、演算部21及び判定部22により実行される。まず、登録済みの全ての顔画像について、両目と上唇のT字のアスペクト比がシャードキーとして算出される。これにより、全特徴量データに対応するシャードキーの値が得られる。次に、図5に示すように、全特徴量データをシャードキーの値でソートする。そして、全特徴量データを、シャードキーの値で4つのグループG1~G4に分類し、顔照合ノード23a~23dに割り当てる。
 具体的に、シャードキーの値が最も大きい特徴量データのグループG1は顔照合ノード23aのキャッシュメモリ24aに保存され、シャードキーの値が2番目に大きい特徴量データのグループG2は顔照合ノード23bのキャッシュメモリ24bに保存される。同様に、シャードキーの値が3番目に大きい特徴量データのグループG3は顔照合ノード23cのキャッシュメモリ24cに保存され、シャードキーの値が最も小さい特徴量データのグループG4は顔照合ノード23dのキャッシュメモリ24dに保存される。こうして、各キャッシュメモリ24a~24dには、シャードキーの値で4つにグループ化された各グループの特徴量データが保存される。これにより、後述する照合の度に全ての顔特徴量が記憶されている全特徴量DB25に問い合わせを行う必要がないため、処理の高速化が可能となる。
 なお、全特徴量データを4つの顔照合ノード23a~23dに割り当てる際には、顔画像から算出されるシャードキーの値に多少の誤差が含まれる可能性があることを考慮し、図5に示すように隣接するグループの境界を多少重複させることが好ましい。図5の例では、領域X1に含まれる特徴量データは顔照合ノード23aと23bの両方に記憶され、領域X2に含まれる特徴量データは顔照合ノード23bと23cの両方に記憶され、領域X3に含まれる特徴量データは顔照合ノード23cと23dの両方に記憶される。なお、図3は単なる一例であり、顔照合ノード23の数は、全特徴量データの数に応じて決定することができる。
 以上のように、全特徴量データを4つの顔照合ノード23に割り当てる処理は、入力顔画像に対する顔認証処理を開始する前に行われる。そして、割り当てが終了すると、各顔照合ノード23a~23dに割り当てられた特徴量データのグループに対応するシャードキーの値域が判定部22に記憶される。
 判定部22は、入力顔画像について算出されたシャードキーの値を演算部21から取得すると、その値が属する顔照合ノード23を選択し、選択した顔照合ノード23に入力顔画像の照合用特徴量を出力する。例えば、ある入力顔画像について演算部21から取得したシャードキーの値が顔照合ノード23bに対応する値であるとすると、判定部22は、その入力顔画像の照合用特徴量を顔照合ノード23bに出力する。
 判定部22から入力顔画像の照合用特徴量が入力された顔照合ノード23は、入力された照合用特徴量と、キャッシュメモリ24に記憶されている特徴量データとを照合し、顔認証を行う。例えば、シャードキーの値に基づいて判定部22が入力顔画像の照合用特徴量を顔照合ノード23bに出力したとすると、顔照合ノード23bはその照合用特徴量を用いて顔認証を行うが、基本的に他の3つの顔照合ノード23a、23c及び23dは顔認証を行わない。なお、入力顔画像のシャードキーの値が図5に示す領域X1~X3のいずれかに属する場合には、その領域X1~X3のいずれかに隣接する2つの顔照合ノード23が顔認証を行うことになるが、残りの2つの顔認証ノード23は顔認証を行わない。こうして、入力顔画像の特徴量の照合を分散処理により高速化することができる。
 入力顔画像の照合用特徴量を用いて顔認証を行った顔照合ノード23は、認証結果を認証結果出力部26へ出力する。認証結果出力部26は、認証結果を利用者の端末装置5へ送信する。こうして、利用者は認証結果を知ることができる。
 上記の構成において、データ取得部20は取得手段の一例であり、演算部21はシャードキー算出手段及び特徴量抽出手段の一例であり、判定部22及び顔照合ノード23は認証手段の一例である。また、演算部21及び判定部22は記憶制御手段の一例であり、全特徴量DB25は記憶手段の一例である。
 [顔認証処理]
 次に、顔認証サーバ100で行われる顔認証処理について説明する。図6は、顔認証処理のフローチャートである。この処理は、図2に示すプロセッサ12が予め用意されたプログラムを実行し、図3に示す要素として動作することにより実現される。なお、処理の前提として、前述のようにシャードキーの値に基づいて全特徴量データが顔照合ノード23a~23dに分散してキャッシュされているものとする。
 まず、データ取得部20は、端末装置5から入力顔画像を取得する(ステップS11)。次に、演算部21は、入力顔画像から照合用特徴量を算出し(ステップS12)、さらに入力顔画像からシャードキーを算出する(ステップS13)。
 次に、判定部22は、複数の顔照合ノード23のうち、算出されたシャードキーに対応する顔照合ノード23を選択し、その顔照合ノード23に照合用特徴量を出力する(ステップS14)。選択された顔照合ノード23は、ステップS12で算出された入力顔画像の照合用特徴量と、選択された顔照合ノード23にキャッシュされている特徴量とを照合する(ステップS15)。そして、結果出力部26は、照合結果を端末装置5へ出力する(ステップS16)。こうして、顔認証処理は終了する。
 以上のように、第1実施形態では、両目と上唇のT次のアスペクト比をシャードキーとして使用するので、シャードキーを顔画像から容易かつ安定的に算出でき、安定的に顔認証の分散処理を行うことができる。
 <第2実施形態>
 次に、第2実施形態について説明する。第1実施形態では、両目と上唇のT字のアスペクト比、具体的には、顔画像における両目を結ぶ第1の線分の長さ(W)と、上唇から第1の線分に下した垂線である第2の線分の長さ(H)との比(W/H)をシャードキーとして用いている。これに対し、第2実施形態では、顔画像から安定的に取得可能な以下の線分の長さ(距離)を用いる。
 (1)左右のいずれかの耳の穴と瞳孔中心とを結ぶ線分の長さ
 (2)両目を結ぶ線分の長さ
 (3)上唇から両目を結ぶ線分に下した垂線の長さ
 (4)鼻先から両目を結ぶ線分に下した垂線の長さ
 (5)顎先から両目を結ぶ線分に下した垂線の長さ
 (6)鼻先と顎先を結ぶ線分の長さ
 (7)下唇と顎先を結ぶ線分の長さ
 (8)左右のいずれかの耳の穴と鼻先を結ぶ線分の長さ
 (9)左右のいずれかの耳の穴と鼻先を結ぶ線分に対して目から下した垂線の長さ
 具体的に、第2実施形態では、上記の複数の長さのうちの2つ以上の比をシャードキーとして使用する。これにより、顔画像から比較的安定的に取得できる長さの比を用いて、シャードキーを生成することができる。なお、この点以外は、第2実施形態は第1実施形態と同様である。
 <第3実施形態>
 次に、第3実施形態について説明する。第3実施形態では、入力顔画像のパン、ロール、チルトの量に基づいて、顔のどのパーツを用いてシャードキーを算出するかを決定する。具体的には、演算部21は、入力顔画像からパン、ロール及びチルトを算出し、図7に示す第1のテーブルを参照して、シャードキーとして用いる距離(線分の長さ)を決定する。図7は、入力顔画像のパン、ロール、チルトの範囲と、その範囲で使用すべき距離(線分の長さ)との対応を示す。なお、図7の第1のテーブルにおいて、パンは利用者の顔の正面方向を0度とし、左方向がマイナス、右方向がプラスの値としている。また、チルトは、利用者の顔の正面方向を0度とし、上方向をプラス、下方向をマイナスとしている。
 例えば、演算部21が入力顔画像からパンとチルトを算出した結果、パンが「-20°~20°」に属し、チルトが「-30°~30°」の範囲に属する場合、距離(2)、即ち両目を結ぶ線分を使用することができる。また、同時に、パンが「-20°~20°」に属し、チルトが「-60°~60°」の範囲に属する場合、距離(3)、即ち上唇から両目を結ぶ線分に下した垂線を使用することができる。よって、演算部21は、この2つの線分の長さの比をシャードキーとして使用することができる。なお、上記のように選択した距離を用いてシャードキーを生成する場合、必要に応じて顔照合ノード23の数を増加させてもよい。
 第3実施形態によれば、入力顔画像からパンとチルトを算出した結果に基づき、その入力顔画像に写っている顔のパーツを用いてシャードキーを算出するので、シャードキーによる分散処理を安定化することができる。なお、この点以外は、第3実施形態は第1実施形態と同様である。
 <第4実施形態>
 次に、第4実施形態について説明する。第4実施形態では、入力顔画像がマスクやサングラスを装着した画像であるか否かに基づき、顔のどのパーツを用いてシャードキーを算出するかを決定する。具体的には、演算部21は、入力顔画像を分析してマスク及びサングラスを検出し、図8に示す第2のテーブルを参照して、シャードキーとして用いる距離(線分の長さ)を決定する。図8は、マスク及びサングラスの有無と、シャードキーとして使用すべき距離(線分の長さ)との対応を示す。
 例えば、演算部21が入力顔画像からマスクを検出したが、サングラスを検出しなかった場合、距離(1)、(2)、(9)のうちの2つ以上の比をシャードキーとして使用することができる。なお、上記のように選択した距離を用いてシャードキーを生成する場合、必要に応じて顔照合ノード23の数を増加させてもよい。
 第4実施形態によれば、入力顔画像からマスク及びサングラスを検出した結果に基づき、その入力顔画像に写っている顔のパーツを用いてシャードキーを算出するので、シャードキーによる分散処理を安定化することができる。なお、この点以外は、第4実施形態は第1実施形態と同様である。
 <第5実施形態>
 次に、第5実施形態について説明する。第5実施形態では、顔画像に含まれるパーツにより規定される複数の線分を、予め決められた優先順位に従ってシャードキーの算出に使用する。図9は、顔画像に含まれるパーツにより規定される複数の線分について、優先順位を規定した第3のテーブルの例である。演算部21は、入力顔画像に写っている顔のパーツを検出し、図9に示す優先順位に従って使用可能な線分の長さを用いてシャードキーを算出する。
 いま、シャードキーとして2つの線分の長さの比を用いるものとする。例えば、入力顔画像に顔の全てのパーツが写っている場合、演算部21は、図9に示す優先順位に従い、距離(2)と距離(3)の比をシャードキーとして算出する。一方、入力顔画像に目の付近が写っていない場合、演算部21は、図9に示す優先順位に従い、目の位置を使用しない距離(6)と距離(7)の比をシャードキーとして算出する。なお、上記のように選択した距離を用いてシャードキーを生成する場合、必要に応じて顔照合ノード23の数を増加させてもよい。
 第5実施形態によれば、入力顔画像に写っている複数の顔のパーツから優先順位に従って距離を選択してシャードキーを算出するので、シャードキーによる分散処理を安定化することができる。なお、この点以外は、第5実施形態は第1実施形態と同様である。
 <第6実施形態>
 次に、第6実施形態について説明する。図10は、第6実施形態に係る顔認証装置50の機能構成を示すブロック図である。顔認証装置50は、複数の照合手段51と、取得手段52と、シャードキー算出手段53と、認証手段54とを備える。複数の照合手段51は、複数の顔に対応する複数の顔特徴量をシャードキーの値に基づいてそれぞれ振り分けて記憶している。取得手段52は、入力顔画像を取得する。シャードキー算出手段53は、入力顔画像から、各々が顔の特徴点により規定される複数の線分を抽出し、当該複数の線分の比をシャードキーとして算出する。認証手段54は、算出されたシャードキーの値に対応する照合手段を用いて、入力顔画像の認証を行う。
 図11は、第6実施形態による顔認証処理のフローチャートである。まず、取得手段52は、入力顔画像を取得する(ステップS31)。次に、シャードキー算出手段53は、入力顔画像から、各々が顔の特徴点により規定される複数の線分を抽出し、当該複数の線分の比をシャードキーとして算出する(ステップS32)。そして、認証手段54は、複数の顔に対応する複数の顔特徴量をシャードキーの値に基づいてそれぞれ振り分けて記憶した複数の照合手段のうち、算出されたシャードキーの値に対応する照合手段を用いて、入力顔画像の認証を行う(ステップS33)。
 第6実施形態によれば、入力顔画像から、各々が顔の特徴点により規定される複数の線分を抽出し、当該複数の線分の比をシャードキーとして使用するので、顔画像からシャードキーを安定して生成することができ、顔認証の分散処理を安定的に行うことが可能となる。
 <第7実施形態>
 ある時点において、全特徴量DB25に記憶されている登録済特徴量を複数の顔照合ノード23に振り分けて記憶した後、登録済人物が増加した場合には、各顔照合ノード23に記憶している登録済特徴量の数に偏りが生じることがある。その場合には、全特徴量DB25に記憶されている登録済特徴量を複数の顔照合ノード23に振り分けし直す処理、即ち更新処理を行ってもよい。
 また、登録済人物の増加に伴って、顔照合ノード23の数を増加させてもよい。例えば、ある時点で図3に例示するように登録済特徴量を4つの顔照合ノード23に振り分けて記憶していたとする。その後、登録済人物が増加し、全特徴量DB25における登録済特徴量の総数が所定の基準数を超えたような場合、顔照合ノード23を1つ増加し、そのときの全ての登録済特徴量を5つの顔照合ノード23に振り分けし直してもよい。
 <第8実施形態>
 上記の第1~第7実施形態は、この開示の手法を顔認証に適用しているが、例えば、指紋認証、手の静脈認証、掌紋認証など、手に関する生体認証にも適用することができる。なお、手の静脈認証及び掌紋認証については、手全体の撮影画像を取得できることが前提となる。この場合、例えば、5指それぞれの指の付け根から指先までの距離の比率や、特定の指の第1関節と第2関節の間の長さと指の長さとの比率、などをシャードキーとして用いることで、上記の実施形態と同様の処理を実行することができる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 複数の顔に対応する複数の顔特徴量をシャードキーの値に基づいてそれぞれ振り分けて記憶した複数の照合手段と、
 入力顔画像を取得する取得手段と、
 前記入力顔画像から、各々が顔の特徴点により規定される複数の線分を抽出し、当該複数の線分の比をシャードキーとして算出するシャードキー算出手段と、
 算出されたシャードキーの値に対応する照合手段を用いて、前記入力顔画像の認証を行う認証手段と、
 を備える顔認証装置。
 (付記2)
 前記シャードキーは、顔画像における両目を結ぶ線分の長さと、上唇から前記線分に下した垂線の長さとの比である付記1に記載の顔認証装置。
 (付記3)
 前記線分は、左右のいずれかの耳の穴と瞳孔中心とを結ぶ線分、両目を結ぶ線分、上唇から両目を結ぶ線分に下した垂線、鼻先から両目を結ぶ線分に下した垂線、顎先から両目を結ぶ線分に下した垂線、鼻先と顎先を結ぶ線分、下唇と顎先を結ぶ線分、左右のいずれかの耳の穴と鼻先を結ぶ線分、目から、左右のいずれかの耳の穴と鼻先を結ぶ線分に下した垂線、のいずれかである付記1に記載の顔認証装置。
 (付記4)
 顔画像のパン、ロール及びチルトの量に対応して、シャードキーの算出に使用すべき線分の長さを規定した第1のテーブルを備え、
 前記シャードキー算出手段は、前記入力顔画像のパン、ロール及びチルトの量を算出し、前記第1のテーブルを参照して使用すべき線分を決定してシャードキーを算出する付記1乃至3のいずれか一項に記載の顔認証装置。
 (付記5)
 顔画像がマスク及びサングラスの少なくとも一方を含む場合にシャードキーとして使用すべき線分の長さを規定した第2のテーブルを備え、
 前記シャードキー算出手段は、前記入力顔画像がマスク及びサングラスを含むか否かを検出し、前記第2のテーブルを参照して使用すべき線分を決定してシャードキーを算出する付記1乃至3のいずれか一項に記載の顔認証装置。
 (付記6)
 顔の特徴点により規定される複数の線分の優先順位を示す第3のテーブルを備え、
 前記シャードキー算出手段は、前記入力顔画像に含まれる特徴点により規定される複数の線分から、前記優先順位の高い複数の線分を選択してシャードキーを算出する付記1乃至3のいずれか一項に記載の顔認証装置。
 (付記7)
 前記入力顔画像から特徴量を抽出する特徴量抽出手段を備え、
 前記認証手段は、前記入力顔画像から抽出された特徴量と、前記照合手段に記憶されている特徴量とを照合する付記1乃至6のいずれか一項に記載の顔認証装置。
 (付記8)
 記憶手段に記憶されている前記複数の顔の特徴量を、前記シャードキーに基づき前記複数の照合手段に振り分けて記憶させる記憶制御手段をさらに備える付記1乃至7のいずれか一項に記載の顔認証装置。
 (付記9)
 入力顔画像を取得し、
 前記入力顔画像から、各々が顔の特徴点により規定される複数の線分を抽出し、当該複数の線分の比をシャードキーとして算出し、
 複数の顔に対応する複数の顔特徴量をシャードキーの値に基づいてそれぞれ振り分けて記憶した複数の照合手段のうち、算出されたシャードキーの値に対応する照合手段を用いて、前記入力顔画像の認証を行う顔認証方法。
 (付記10)
 入力顔画像を取得し、
 前記入力顔画像から、各々が顔の特徴点により規定される複数の線分を抽出し、当該複数の線分の比をシャードキーとして算出し、
 複数の顔に対応する複数の顔特徴量をシャードキーの値に基づいてそれぞれ振り分けて記憶した複数の照合手段のうち、算出されたシャードキーの値に対応する照合手段を用いて、前記入力顔画像の認証を行う処理をコンピュータに実行させるプログラムを記録した記録媒体。
 以上、実施形態及び実施例を参照して本発明を説明したが、本発明は上記実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 5 端末装置
 12 プロセッサ
 20 データ取得部
 21 演算部
 22 判定部
 23 顔照合ノード
 24 キャッシュメモリ
 25 全特徴量DB
 26 結果出力部
 100 顔認証サーバ

Claims (10)

  1.  複数の顔に対応する複数の顔特徴量をシャードキーの値に基づいてそれぞれ振り分けて記憶した複数の照合手段と、
     入力顔画像を取得する取得手段と、
     前記入力顔画像から、各々が顔の特徴点により規定される複数の線分を抽出し、当該複数の線分の比をシャードキーとして算出するシャードキー算出手段と、
     算出されたシャードキーの値に対応する照合手段を用いて、前記入力顔画像の認証を行う認証手段と、
     を備える顔認証装置。
  2.  前記シャードキーは、顔画像における両目を結ぶ線分の長さと、上唇から前記線分に下した垂線の長さとの比である請求項1に記載の顔認証装置。
  3.  前記線分は、左右のいずれかの耳の穴と瞳孔中心とを結ぶ線分、両目を結ぶ線分、上唇から両目を結ぶ線分に下した垂線、鼻先から両目を結ぶ線分に下した垂線、顎先から両目を結ぶ線分に下した垂線、鼻先と顎先を結ぶ線分、下唇と顎先を結ぶ線分、左右のいずれかの耳の穴と鼻先を結ぶ線分、目から、左右のいずれかの耳の穴と鼻先を結ぶ線分に下した垂線、のいずれかである請求項1に記載の顔認証装置。
  4.  顔画像のパン、ロール及びチルトの量に対応して、シャードキーの算出に使用すべき線分の長さを規定した第1のテーブルを備え、
     前記シャードキー算出手段は、前記入力顔画像のパン、ロール及びチルトの量を算出し、前記第1のテーブルを参照して使用すべき線分を決定してシャードキーを算出する請求項1乃至3のいずれか一項に記載の顔認証装置。
  5.  顔画像がマスク及びサングラスの少なくとも一方を含む場合にシャードキーとして使用すべき線分の長さを規定した第2のテーブルを備え、
     前記シャードキー算出手段は、前記入力顔画像がマスク及びサングラスを含むか否かを検出し、前記第2のテーブルを参照して使用すべき線分を決定してシャードキーを算出する請求項1乃至3のいずれか一項に記載の顔認証装置。
  6.  顔の特徴点により規定される複数の線分の優先順位を示す第3のテーブルを備え、
     前記シャードキー算出手段は、前記入力顔画像に含まれる特徴点により規定される複数の線分から、前記優先順位の高い複数の線分を選択してシャードキーを算出する請求項1乃至3のいずれか一項に記載の顔認証装置。
  7.  前記入力顔画像から特徴量を抽出する特徴量抽出手段を備え、
     前記認証手段は、前記入力顔画像から抽出された特徴量と、前記照合手段に記憶されている特徴量とを照合する請求項1乃至6のいずれか一項に記載の顔認証装置。
  8.  記憶手段に記憶されている前記複数の顔の特徴量を、前記シャードキーに基づき前記複数の照合手段に振り分けて記憶させる記憶制御手段をさらに備える請求項1乃至7のいずれか一項に記載の顔認証装置。
  9.  入力顔画像を取得し、
     前記入力顔画像から、各々が顔の特徴点により規定される複数の線分を抽出し、当該複数の線分の比をシャードキーとして算出し、
     複数の顔に対応する複数の顔特徴量をシャードキーの値に基づいてそれぞれ振り分けて記憶した複数の照合手段のうち、算出されたシャードキーの値に対応する照合手段を用いて、前記入力顔画像の認証を行う顔認証方法。
  10.  入力顔画像を取得し、
     前記入力顔画像から、各々が顔の特徴点により規定される複数の線分を抽出し、当該複数の線分の比をシャードキーとして算出し、
     複数の顔に対応する複数の顔特徴量をシャードキーの値に基づいてそれぞれ振り分けて記憶した複数の照合手段のうち、算出されたシャードキーの値に対応する照合手段を用いて、前記入力顔画像の認証を行う処理をコンピュータに実行させるプログラムを記録した記録媒体。
PCT/JP2020/037191 2020-09-30 2020-09-30 顔認証装置、顔認証方法、及び、記録媒体 WO2022070321A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022553315A JP7400987B2 (ja) 2020-09-30 2020-09-30 顔認証装置、顔認証方法、及び、プログラム
US18/023,584 US20230316805A1 (en) 2020-09-30 2020-09-30 Face authentication device, face authentication method, and recording medium
PCT/JP2020/037191 WO2022070321A1 (ja) 2020-09-30 2020-09-30 顔認証装置、顔認証方法、及び、記録媒体
JP2023206709A JP2024023582A (ja) 2020-09-30 2023-12-07 顔認証装置、顔認証方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/037191 WO2022070321A1 (ja) 2020-09-30 2020-09-30 顔認証装置、顔認証方法、及び、記録媒体

Publications (1)

Publication Number Publication Date
WO2022070321A1 true WO2022070321A1 (ja) 2022-04-07

Family

ID=80949931

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/037191 WO2022070321A1 (ja) 2020-09-30 2020-09-30 顔認証装置、顔認証方法、及び、記録媒体

Country Status (3)

Country Link
US (1) US20230316805A1 (ja)
JP (2) JP7400987B2 (ja)
WO (1) WO2022070321A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018116918A1 (ja) * 2016-12-19 2018-06-28 日本電気株式会社 照合処理装置、照合処理方法、及び、照合処理プログラムが格納された記録媒体
US20190286798A1 (en) * 2016-07-14 2019-09-19 Yong Sang Kim User authentication method using face recognition and device therefor
WO2020158078A1 (ja) * 2019-02-01 2020-08-06 パナソニックIpマネジメント株式会社 顔認証システムおよび顔認証方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190286798A1 (en) * 2016-07-14 2019-09-19 Yong Sang Kim User authentication method using face recognition and device therefor
WO2018116918A1 (ja) * 2016-12-19 2018-06-28 日本電気株式会社 照合処理装置、照合処理方法、及び、照合処理プログラムが格納された記録媒体
WO2020158078A1 (ja) * 2019-02-01 2020-08-06 パナソニックIpマネジメント株式会社 顔認証システムおよび顔認証方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HAYASAKA, AKIHIRO ET AL.: "A Study of a Face Recognition Algorithm Using Phase-Only Correlation", IEICE TECHNICAL REPORT, THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. 108, no. 213, 18 September 2008 (2008-09-18), pages 47 - 52 *

Also Published As

Publication number Publication date
JPWO2022070321A1 (ja) 2022-04-07
JP2024023582A (ja) 2024-02-21
JP7400987B2 (ja) 2023-12-19
US20230316805A1 (en) 2023-10-05

Similar Documents

Publication Publication Date Title
JP5012092B2 (ja) 生体認証装置、生体認証プログラムおよび複合型生体認証方法
US9355236B1 (en) System and method for biometric user authentication using 3D in-air hand gestures
US11837017B2 (en) System and method for face recognition based on dynamic updating of facial features
US8700557B2 (en) Method and system for association and decision fusion of multimodal inputs
JP4863423B2 (ja) 虹彩を用いた身元確認システム及び方法並びにその方法を実行するための身元確認プログラムを格納したコンピュータ読取り可能な記録媒体
CN101178768B (zh) 图像处理设备和方法以及个人识别设备
JP2016189162A (ja) 個人識別装置、識別閾値設定方法、およびプログラム
CN106650350B (zh) 一种身份认证方法及系统
KR20120114564A (ko) 대표 지문 템플릿 생성 장치 및 방법
JP2008243054A (ja) 照合装置、照合方法および照合プログラム
KR102558741B1 (ko) 사용자 등록 장치 및 방법
WO2017075913A1 (zh) 一种基于鼠标行为的认证方法
JP2007058683A (ja) 認証装置
JP2015170101A (ja) 生体認証装置、方法及びプログラム
KR20180138002A (ko) 지문 인증 방법 및 장치
US8316028B2 (en) Biometric indexing and searching system
US20210342432A1 (en) Decentralized biometric identification and authentication network
JP6164284B2 (ja) 認証装置、認証方法およびコンピュータプログラム
CN111444928A (zh) 关键点检测的方法、装置、电子设备及存储介质
WO2022070321A1 (ja) 顔認証装置、顔認証方法、及び、記録媒体
Fenu et al. Leveraging continuous multi-modal authentication for access control in mobile cloud environments
JP6079440B2 (ja) 認証装置、認証方法および認証プログラム
Bilan et al. Interactive biometric identification system based on the keystroke dynamic
Lu et al. Combining mouse and eye movement biometrics for user authentication
Karnan et al. Feature subset selection in keystroke dynamics using ant colony optimization

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20956249

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022553315

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20956249

Country of ref document: EP

Kind code of ref document: A1