WO2020179335A1 - ゲート開閉制御装置およびゲート開閉制御方法 - Google Patents

ゲート開閉制御装置およびゲート開閉制御方法 Download PDF

Info

Publication number
WO2020179335A1
WO2020179335A1 PCT/JP2020/004330 JP2020004330W WO2020179335A1 WO 2020179335 A1 WO2020179335 A1 WO 2020179335A1 JP 2020004330 W JP2020004330 W JP 2020004330W WO 2020179335 A1 WO2020179335 A1 WO 2020179335A1
Authority
WO
WIPO (PCT)
Prior art keywords
face
user
authentication
matching
unit
Prior art date
Application number
PCT/JP2020/004330
Other languages
English (en)
French (fr)
Inventor
大園 正司
米本 佳史
邦夫 古田
隆夫 注連
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=72337369&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2020179335(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to US17/433,894 priority Critical patent/US20220108576A1/en
Priority to CN202080017580.9A priority patent/CN113519014A/zh
Publication of WO2020179335A1 publication Critical patent/WO2020179335A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00309Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys operated with bidirectional data transmission between data carrier and locks
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00896Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys specially adapted for particular uses
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/10Movable barriers with registering means
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/38Individual registration on entry or exit not involving the use of a pass with central registration
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C2009/00634Power supply for the lock
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/20Individual registration on entry or exit involving the use of a pass

Definitions

  • the present disclosure relates to a gate opening/closing control device and a gate opening/closing control method for controlling opening/closing of a gate device through which the subject passes based on the result of face authentication of the subject.
  • a reading unit that receives an identifier transmitted from a wireless tag (remote IC card) owned by a user and a facial feature amount registered corresponding to the identifier received from the wireless tag are acquired.
  • An acquisition unit an imaging unit that captures an image of the user, an extraction unit that extracts a facial feature amount from the image data captured by the imaging unit, a facial feature amount that is extracted by the extraction unit, and the acquisition unit.
  • a face matching unit that matches whether the acquired face feature amount matches, and an opening/closing control unit that opens or closes the exit of the gate according to the matching result of the face matching unit.
  • a gate device is known (see Patent Document 1).
  • the gate device executes a process of collating whether the facial feature amount extracted by the extraction unit and the facial feature amount acquired by the acquisition unit match each other. No consideration is given to the mechanism for facilitating the process related to face authentication when a person enters or leaves.
  • the present disclosure provides a gate opening/closing control device and a gate opening/closing control that can easily perform face authentication when a user enters or leaves the facility while safely managing the face image of the user who uses the facility.
  • the main purpose is to provide a method.
  • the gate opening/closing control device of the present disclosure requests the face authentication server, which executes face authentication of the user of the facility, to process the face authentication when the user of the entrance/exit gate device in the facility passes by the user.
  • a face image which is a gate opening/closing control device for controlling opening/closing of the gate device according to the result of the authentication, wherein the user takes an image of the user before passing through the gate device and acquires a face image for authentication of the user.
  • the gate opening/closing control method of the present disclosure issues a face authentication processing request to the face authentication server that executes face authentication of the user of the facility when the user of the entrance/exit gate apparatus in the facility passes by the user.
  • FIG. 1 is an overall configuration diagram of a face authentication system according to an embodiment of the present disclosure.
  • FIG. 2 is an explanatory diagram showing an example of an event that occurs in a facility.
  • FIG. 3 is an explanatory diagram showing an outline of the matching group.
  • FIG. 4A is an explanatory diagram showing an outline of a face matching inquiry made by the face authentication device 1.
  • FIG. 4B is an explanatory diagram showing an outline of a face matching inquiry made by the face authentication device 1.
  • FIG. 4C is an explanatory diagram showing an outline of a face collation inquiry made by the face authentication device 1.
  • FIG. 5A is an explanatory diagram showing an outline of the face matching unit.
  • FIG. 5B is an explanatory diagram showing an outline of the face matching unit.
  • FIG. 5A is an explanatory diagram showing an outline of the face matching unit.
  • FIG. 5C is an explanatory diagram showing an outline of the face matching unit.
  • FIG. 6 is a block diagram showing a schematic configuration of the face recognition machine 1.
  • FIG. 7 is a block diagram showing a schematic configuration of the management terminal 2.
  • FIG. 8 is a block diagram showing a schematic configuration of the registration device 4.
  • FIG. 9 is a block diagram showing a schematic configuration of the face management server 5.
  • FIG. 10 is a block diagram showing a schematic configuration of the face matching server 6.
  • FIG. 11 is a block diagram showing a schematic configuration of an external device.
  • FIG. 12 is an explanatory diagram showing an outline of the face image extraction process.
  • FIG. 13 is an explanatory diagram showing an outline of a face authentication inquiry by the collation group information.
  • FIG. 14 is an explanatory diagram showing an example of a registration screen displayed on the registration device 4.
  • FIG. 15 is a sequence diagram showing a procedure of registration processing for a user.
  • FIG. 16 is a sequence diagram showing a first example of face recognition processing for a user.
  • FIG. 17 is a sequence diagram showing a second example of face recognition processing for a user.
  • FIG. 18A is an explanatory diagram showing an example of an authentication screen displayed on the face recognition machine 1.
  • FIG. 18B is an explanatory diagram showing an example of an authentication screen displayed on the face recognition machine 1.
  • FIG. 18C is an explanatory diagram showing an example of an authentication screen displayed on the face recognition machine 1.
  • FIG. 19 is a sequence diagram showing a third example of the face recognition process for the user.
  • FIG. 19 is a sequence diagram showing a third example of the face recognition process for the user.
  • FIG. 20 is an explanatory diagram showing a login screen displayed on the management terminal 2.
  • FIG. 21A is a screen displayed on the management terminal 2 at the time of registration, reference, update, and deletion regarding the association between the face recognition machine 1 and the matching group.
  • FIG. 21B is a screen displayed on the management terminal 2 at the time of registration, reference, update, and deletion regarding the association between the face recognition machine 1 and the matching group.
  • FIG. 22 is a screen displayed on the management terminal 2 at the time of registration, reference, update, and deletion regarding association between the face authentication device 1 and the matching group.
  • FIG. 23 is an explanatory diagram showing an example of a user's management screen displayed on the management terminal 2.
  • FIG. 24 is an explanatory diagram showing an example of a conference room search screen displayed on the management terminal 2.
  • FIG. 25 is an explanatory diagram showing an example of an attendee display screen displayed on the management terminal 2.
  • FIG. 26 is an explanatory diagram showing an example of a personal connection search screen displayed on the management terminal 2.
  • a first aspect of the present invention made to solve the above-mentioned problems is directed to a face authentication server that performs face authentication of a user of a facility, when the user of an entrance/exit gate device in the facility passes the face authentication.
  • a gate opening/closing control device that controls opening/closing of the gate device according to the result of the authentication, the user is photographed before passing through the gate device, and a face for authentication of the user is taken.
  • a face image acquisition unit that acquires an image
  • a transmission unit that transmits the face authentication processing request to the face authentication server based on the face image for authentication, and an authentication result returned from the face authentication server.
  • a configuration is provided that includes a receiving unit that receives the information and a control unit that reflects the authentication result in the opening/closing control signal of the gate device.
  • the face authentication of the user is executed by the face authentication server, and the result of the authentication is reflected in the opening/closing control signal of the gate device. It is possible to easily perform face authentication when entering and leaving the user.
  • the second aspect of the invention is configured to include a power feeding unit that receives power from the gate device.
  • the gate device can perform normal operation even if a power failure occurs in the facility. It is possible to maintain.
  • a third aspect of the invention further includes a storage unit that stores the face image for authentication, and the face image for authentication stored in the storage unit is deleted after the face authentication processing is completed.
  • a fourth aspect of the present invention makes a face authentication processing request to a face authentication server that executes face authentication of a user of the facility when the user of the entrance/exit gate apparatus at the facility passes through the face authentication server, A gate opening/closing control method for controlling opening/closing of the gate device according to the authentication result, wherein the user is photographed before passing through the gate device, a face image for authentication of the user is acquired, and the authentication is performed.
  • a face authentication processing request to the face authentication server based on a face image for use, receives an authentication result returned from the face authentication server, and outputs the authentication result to an opening/closing control signal of the gate device. It is configured to reflect.
  • the face authentication of the user is executed by the face authentication server, and the result of the authentication is reflected in the opening/closing control signal of the gate device. It is possible to easily perform face authentication when entering and leaving the user.
  • FIG. 1 is an overall configuration diagram of the face authentication system according to the present embodiment.
  • This face authentication system includes a face authentication device 1, a management terminal 2, a face authentication server 3 (cloud server), and a registration device 4 (face authentication registration device).
  • the face recognition server 3 includes a face management server 5 (face recognition management server) and a face matching server 6.
  • the face recognition machine 1, the management terminal 2, the registration device 4, the face management server 5, and the face matching server 6 are connected via a network such as the Internet.
  • the face authentication system is constructed for each face authentication service provider (business operator).
  • a plurality of face authentication machines 1 are installed at each place where face authentication is required, such as a doorway of a building or a doorway of a room.
  • the registration device 4 is arranged at a reception counter or the like that accepts visitors to the facility.
  • a required number of face matching servers 6 are provided according to the number of face authentication machines 1 and the like.
  • the face recognition machine 1 is provided with a camera 11, and the camera 11 acquires a photographed image of a user (a visitor of a facility, a worker at a company, a store, etc. in the facility, etc.). Further, the face recognition machine 1 has a display 12, and the display 12 displays the face recognition result acquired from the face matching server 6 and notifies the user of the face recognition result.
  • the management terminal 2 is operated by an administrator of the face authentication system, is composed of a personal computer (PC), and manages the operations of the face authentication device 1, the registration device 4, the face management server 5, and the face matching server 6.
  • the management application is installed. With this management application, the administrator can perform various management tasks.
  • the management application is implemented as a Web application. As for the administrator, a plurality of administrator groups having different access rights to each information in the face authentication system are set.
  • the registration device 4 acquires information (hereinafter referred to as authentication information) used for the face authentication processing of the user.
  • the authentication information may include not only a face image for registration of each user but also specific information other than the face image used for identifying the user.
  • the specific information indicates the information displayed on the user's business card, the information displayed on the payment card that the user has (for example, a credit card or a cash card), and the place where the user stays in the facility. Information or the like can be used.
  • the specific information may include information that can permanently identify the user, such as the name of the user.
  • the specific information is, for example, the user number given to the user of the facility, the number of the conference room (including any space where an interview is possible) used by the user in the facility, the accommodation facility, etc. It may be information that can temporarily identify the user, such as the number of the room in which the user stays.
  • the face management server 5 centrally manages user information (including personal information). Specifically, the face management server 5 stores the face image data for registration and the specific information in association with each user, and manages them. The face management server 5 acquires a face image for registration and specific information from the registration device 4 at the time of user registration. The face management server 5 may also acquire at least a part of the information included in the registration face image and the specific information from the management terminal 2 (that is, the administrator).
  • the face matching server 6 acquires data of a face image for authentication of a target person of face authentication from the face authentication device 1, and generates face feature amount data of the target person from the data of the face image. , Whether or not the target person is a registrant by performing face matching by comparing the face feature amount data of the target person with the face feature amount data of the registrant (registered user) stored in the own device. Face recognition is performed to determine whether or not.
  • the face matching server 6 acquires face image data for user registration from the face management server 5 (or registration device 4) at the time of user registration prior to face recognition, and the face image data.
  • the facial feature amount data of the user is generated from this and stored in the own device.
  • the face matching server 6 can also acquire the captured image of the user from the management terminal 2 (that is, the administrator) and acquire the face image data from the captured image.
  • the face management server 5 (face image management unit) and the face matching server 6 (face image matching unit) are assumed to exist in physically different information processing devices. It may be present in the information processing device.
  • the management terminal 2 and the face management server 5 are provided, but the management terminal 2 and the face management server 5 can be configured by a single information processing device.
  • the face management server 5 can also serve as the management terminal 2.
  • an administrator who has limited access authority to the information of the face authentication system uses the face management server 5 from his/her information processing terminal (PC or tablet). It is possible to access information that is less confidential than the user's personal information (for example, the information about the meeting in which the user attended and the information about the user's personal connections, which will be described later). ..
  • the face feature amount matching is performed, but the face matching is not limited to the face feature amount matching, and a matching method to which machine learning or the like is applied may be adopted. Further, the present embodiment can be applied to biometric authentication other than face authentication.
  • FIG. 2 is an explanatory diagram showing an example of an event that occurs in a facility.
  • the user 10 of the facility uses the registration device 4 arranged at the reception to perform an operation of registration as a user of the facility (that is, registration of information used for face matching processing). You can Note that registration by the registration device 4 can be omitted for registered users who return to the facility within a predetermined period.
  • the registered user 10 can pass through the security gate by receiving face recognition in front of the security gate that manages the passage of the user 10 in the facility.
  • a face authentication machine 1 that cooperates with the gate device 16 (that is, controls the opening/closing state of the door) can be installed in the security gate.
  • the registered user 10 can enter the conference room by receiving face recognition in front of the conference room in the facility.
  • a face recognition machine 1 that cooperates with a lock device that locks the door of the conference room (that is, controls the locking or unlocking of the door) can be arranged.
  • a face recognition machine 1 that cooperates with a lock device for the door of the room in which the user stays can be installed instead of the conference room.
  • the registered user 10 can automatically settle the usage fee of the restaurant by receiving face recognition in the restaurant in the facility.
  • a camera 11 capable of photographing the face of the user 10 is installed in the restaurant, and the face recognition machine 1 cooperates with a payment terminal device (or a payment system) used for payment of a usage fee at the restaurant.
  • the registered user 10 can automatically settle the usage fee of the gym by receiving face authentication at the gym in the facility.
  • a camera 11 capable of photographing a user's face is installed in the gym, and the face authentication device 1 cooperates with a payment terminal device (or a payment system) used for paying a usage fee in the gym.
  • the events that occur in the facility are not limited to the above-mentioned examples, and for example, settlement of the usage fee in the parking lot of the facility, settlement of the usage fee of the laundry service in the facility, and usage fee of the bath in the facility Various events, such as payments for
  • the face authentication device 1 when an employee or the like of a company that provides services in the facility is registered as a user, by arranging the face authentication device 1 at the entrance of the backyard of the facility (for example, a warehouse, a work place, etc.), It is possible to ensure security in the backyard.
  • the backyard of the facility for example, a warehouse, a work place, etc.
  • FIG. 3 is an explanatory diagram showing an outline of the matching group.
  • the users are divided into groups according to the installation location of the face recognition machine 1 for which the users receive face recognition, and a matching group is set for each user.
  • the face recognition machine 1 is divided into groups according to the installation location of the face recognition machine 1, and a collation group is set for each face recognition machine 1.
  • the face matching servers 6 corresponding to the face authenticator 1, that is, the face matching servers 6 that receive inquiries (requests) for face matching from the face authenticator 1 are divided into groups in the same manner as the face authenticator 1, and each face is divided into groups.
  • a collation group is set in the collation server 6.
  • the face recognition machine 1 installed at the entrance of a multi-tenant building where multiple companies are occupying, users belonging to multiple companies receive face recognition.
  • the information of users who belong to different organizations cannot be managed in the same database. Therefore, in such a case, a collation group for each of a plurality of companies is formed, user registration information is stored for each collation group, and the face recognition machine 1 uses the face verification server 6 for the collation group for each company. Inquires about face matching.
  • the user can be authenticated only by the face authentication device 1 corresponding to the matching group to which the user belongs. Therefore, even a registered user cannot be authenticated by the face recognition machine 1 that does not belong to his / her collation group, for example, the face recognition machine 1 of a building that he / she is not allowed to enter. For example, when a user working at a certain business office goes to another business office, the face recognition machine 1 of that business office cannot be authenticated.
  • FIG. 4A, FIG. 4B, and FIG. 4C are explanatory diagrams showing the outline of the face matching inquiry made by the face authentication device 1.
  • the face authenticator 1 makes an inquiry for face matching to the face matching server 6 belonging to the same matching group as the own device, and makes a request for face matching to the face matching server 6 that is the inquiry destination (request destination) (face authentication processing). Request). Further, the face recognition machine 1 holds the network address (IP address) of the face matching server 6 as the matching group information, and based on this network address, the face matching server 6 corresponding to the own device is face-matched. Inquire.
  • IP address network address
  • the inquiry method for face recognition includes a simultaneous inquiry shown in FIG. 4A, a random inquiry shown in FIG. 4B, and a sequential inquiry (inquiry destination switching) shown in FIG. 4C.
  • the face recognition machine 1 simultaneously makes a face matching inquiry to the face matching server 6 corresponding to each of the plurality of matching groups. For example, when the face authentication device 1 is installed at the entrance of a multi-tenant building and the users of a plurality of matching groups receive face authentication, the face authentication device 1 sends the face matching servers 6 of each group all together. Send a face matching request.
  • the face feature amount data of users belonging to one matching group can be divided and stored in a plurality of face matching servers 6. Also in this case, the face authentication device 1 simultaneously makes an inquiry for face matching to all the face matching servers 6 having different registered contents in the same matching group as itself.
  • the face recognition machine 1 randomly selects a face matching server 6 as a face matching inquiry destination from a plurality of face matching servers 6 in the same matching group as itself. To do.
  • the registered contents of the plurality of face matching servers 6 are the same. That is, the same user is set as a collation target, and the facial feature amount data of the same user is stored.
  • the load on each face matching server 6 can be reduced and the load can be distributed.
  • the face recognition machine 1 sequentially selects a face matching inquiry destination from a plurality of face matching servers 6 in the same matching group as itself. Specifically, when an order (priority) is given to the face matching server 6, the face recognition machine 1 selects the face matching server 6 according to the order, and there is no response from the high-ranking face matching server 6. To switch the destination, the face matching server 6 is selected. That is, the face authentication device 1 selects the first face matching server 6 in the matching group and requests the face matching server 6 to perform face authentication. Then, when there is no response from the face matching server 6, the face recognition machine 1 selects another face matching server 6 having the next rank in the same matching group, and performs face recognition on the face matching server 6. Request. By such control, redundancy (backup) can be achieved.
  • 5A, 5B, and 5C are explanatory diagrams showing an outline of the face matching unit.
  • the face matching server 6 can be provided with a plurality of face matching units that perform face matching.
  • This face matching unit has a face matching process that executes a face matching program, and a face matching database in which information (face feature amount data) of users to be compared with face matching is registered.
  • This face matching unit is provided for each matching group, and performs face matching in response to a face matching request from the face recognition machine 1 belonging to the matching group. Therefore, one face matching server 6 can handle a plurality of matching groups.
  • the face authentication device 1 holds the network address (IP address) of the face matching server 6 as the matching group information, and based on this network address, the face matching server 6 corresponding to its own device performs face matching. Can be inquired. Furthermore, in the present embodiment, the face authentication device 1 holds a network address (IP address) for each face matching unit, and based on this network address, the face matching unit corresponding to the device itself is inquired about face matching. It can be performed.
  • IP address network address
  • the face matching database is provided for each matching group, the user's face feature amount data can be stored for each matching group.
  • the face matching process executes a matching process between the face feature amount data stored in group units and the face feature amount data generated from the face image data acquired from the face authentication device 1 of the same group.
  • the face matching server 6 is provided with one face matching unit of the matching group to which the face authenticating device 1 belongs, and the face authenticating device 1 and the face matching server 6 have a one-to-one correspondence. ing.
  • the face recognition machine 1 and the face matching server 6 have a one-to-one correspondence, but the face matching server 6 is provided with two face matching units of the matching group to which the face recognition machine 1 belongs. There is.
  • the face recognition machine 1 installed at the entrance of a multi-tenant building, the information of users (for example, user A and user B) to which the organization belongs is managed by different collation databases. You can
  • the face authentication device 1 and the face matching server 6 are in a one-to-two correspondence, and the face authentication device 1 queries the two face matching servers 6 for face matching (user's matching request). )I do.
  • the load distribution of the face matching server 6 is provided by providing the same face matching unit, that is, two or more face matching units that perform face matching using the face feature amount data of the same user, on different face matching servers 6. It is possible to deal with life and death.
  • FIG. 6 is a block diagram showing a schematic configuration of the face recognition machine 1.
  • the face recognition machine 1 includes a camera 11 (face image acquisition unit), a display 12 (display unit), a communication unit 13 (transmission unit, reception unit), a storage unit 14, a control unit 15, and a control signal transmission unit. 17 is provided.
  • the camera 11 constantly shoots a predetermined shooting area, and when a person enters the shooting area, the person is shot, and a shot image of a person subject to face recognition (including a registered user) can be acquired.
  • a human sensor (not shown) may be provided to detect the arrival of a person and activate the camera 11.
  • the display 12 displays the progress of face recognition and the face recognition result, and the person who receives the face recognition can confirm them.
  • a speaker may be provided as an output unit that outputs the authentication result of the target person, and the face authentication result may be notified by voice.
  • the display 12 may be omitted depending on the installation location of the face authentication device 1 (for example, when the face authentication device 1 is installed at a security gate).
  • the communication unit 13 communicates with the face matching server 6 via the network.
  • the face image data is transmitted to the face matching server 6. Further, the authentication result of the user is received from the face matching server 6.
  • the communication unit 13 also communicates with the face management server 5 via the network. In the present embodiment, the collation group information and the like are received from the face management server 5.
  • the storage unit 14 stores data of a photographed image (face image) of a user, collation group information, a control program executed by a processor constituting the control unit 15, and the like.
  • the control unit 15 includes an activation processing unit 21, a face image extraction unit 22, a face matching request unit 23, an authentication result notification unit 24, an authentication result adjustment unit 25 (history information generation unit), and an operation status monitoring unit 26. And are equipped with.
  • the control unit 15 is composed of a processor, and each unit of the control unit 15 is realized by executing a program stored in the storage unit 14 by the processor.
  • the activation processing unit 21 acquires the collation group information from the face management server 5 and stores it in the storage unit 14 when the face authentication device 1 is activated.
  • the acquisition of the matching group information is not limited to this, and the matching group information may be distributed from the face management server 5 to the target face recognition machine 1 as the matching group information is updated.
  • the face image extraction unit 22 acquires a captured image of a person subject to face authentication from the camera 11 (camera image capture), detects a person's face from the captured image (face detection), and detects the size of the detected face. It is possible to determine whether it is appropriate (face size check), cut out a face area from the captured image (face cutout), and acquire the data of the face image (face image for authentication) of the subject.
  • the face image data may be only the image of the face area, but the data of the captured image (the image of the predetermined capturing area) and the position information (face frame information) of the face area on the data of the captured image. May be a combination of.
  • the face matching request unit 23 sends a face matching request to the face matching server 6 whose matching group matches the own device through the communication unit 13.
  • the authentication result notifying unit 24 notifies the user of the face authentication result by displaying the face authentication result acquired from the face matching server 6 by the communication unit 13 on the display 12.
  • the authentication result adjustment unit 25 performs control for linking with the external device 16 based on the user's face matching result acquired from the face matching server 6.
  • the external device 16 for example, a gate device (see FIG. 2) that manages the passage of the user in the facility, a lock device for the door that manages the entry and exit of the conference room and the predetermined area in the facility, and the user are in the facility. It is possible to use a payment terminal device for making payments for services received in the above or purchased items.
  • the authentication result adjustment unit 25 cooperates with the lock device for the door of the conference room, the authentication result adjustment unit 25 can generate information on the entry history in which a plurality of users who have entered the conference room are associated with each other.
  • the face authentication device 1 and the external device 16 are directly connected by a communication cable or the like, or are communicatively connected via a known network.
  • the authentication result adjusting unit 25 can notify the user's face matching result to the server or the like of the external system including the external device 16 by being configured by the connection application.
  • the operating status monitoring unit 26 monitors the operating status of its own device and notifies the face management server 5 of the operating status of its own device.
  • the control signal transmission unit 17 transmits a control signal for controlling the operation of the external device 16.
  • FIG. 7 is a block diagram showing a schematic configuration of the management terminal 2.
  • the management terminal 2 includes a communication unit 31, a display 32 (display unit), an input device 33 (operation unit), a storage unit 34, and a control unit 35.
  • the communication unit 31 communicates with the face management server 5 via the network.
  • screen information and the like are received from the face management server 5, and the operation information and the like of the administrator corresponding thereto are transmitted to the face management server 5.
  • the display 32 displays various screens.
  • the input device 33 is a mouse, a keyboard, or the like, and operates the screen displayed on the display 32.
  • the storage unit 34 stores a program (management application) executed by the processor configuring the control unit 35.
  • the control unit 35 includes a GUI (Graphical User Interface) control unit 38.
  • the control unit 35 is composed of a processor, and each unit of the control unit 35 is realized by executing a program (management application) stored in the storage unit 34 by the processor.
  • the GUI control unit 38 displays various operation screens distributed from the face management server 5 on the display 32.
  • the input information is acquired and the screen is controlled.
  • the GUI control unit 38 performs display input control on a screen related to login, specifically, a login screen.
  • the GUI control unit 38 controls the display and input of screens related to user management, specifically, screens related to registration (individual registration, batch registration), reference, update, and deletion of user information. To do.
  • the GUI control unit 38 also performs display input control on screens related to collation group management, specifically, registration (individual registration, collective registration) related to collation groups, and screens related to reference, update, and deletion.
  • GUI control unit 38 performs display input control on a screen related to the authenticator management, specifically, a screen related to registration, reference, update, and deletion related to the association between the authenticator and the matching group. Further, the GUI control unit 38 performs display input control on the reference screen of the authentication log (face authentication history information).
  • FIG. 8 is a block diagram showing a schematic configuration of the registration device 4.
  • the registration device 4 includes a camera 41A for face shooting and a camera 41B (personal information acquisition unit) for information acquisition, a display 42 (display unit), a communication unit 43, a storage unit 44, and a control unit 45. I have it.
  • the face shooting camera 41A can acquire a photographed image of the user, for example, by photographing the face of the user who stopped by the reception desk of the facility.
  • the information acquisition camera 41B can acquire a photographed image of the business card by photographing the business card presented by the user.
  • the information acquisition camera 41B is not limited to a business card, but is a user's belongings (for example, a user's payment card, information about a user's place of stay) in which information that can identify the user is displayed. It is also possible to take a photographed image (such as the described card) and obtain the photographed image.
  • the registration device 4 has a mounting table (mounting surface) 116 (in FIG. 14) on which a user can easily place a business card or the like in the photographing area of the camera 41B in order to reliably photograph the information acquisition camera 41B. (See (C)) can be provided.
  • the cameras 41A and 41B for face shooting and information acquisition may be configured by one camera. Further, the shooting timing of the face shooting camera 41A and the information acquisition camera 41B can be determined by the user's operation (for example, pressing the shooting button) in the registration device 4. Alternatively, the person in charge of reception at the facility may determine the shooting timing.
  • the registration device 4 can be provided with an information reading device (for example, an RFID reader) that can read the user's specific information from the information recording medium (for example, an RFID tag) possessed by the user by wireless communication. is there.
  • an information reading device for example, an RFID reader
  • the information recording medium for example, an RFID tag
  • the display 42 can display the registration procedure (see (A)-(F) of FIG. 14) of the authentication information (including the personal information of the user) to the user. Further, a speaker may be attached to the display 42 so that the user can be informed by voice of the registration procedure and the like. Further, by configuring the display 42 with a touch panel, it is possible to acquire the information input by the user by touch operation.
  • the communication unit 43 communicates with the face management server 5 via the network.
  • the face image data and the specific information are transmitted to the face management server 5.
  • the storage unit 44 stores data of a photographed image (face image) of the user, specific information of the user, a control program executed by a processor constituting the control unit 45, and the like.
  • the control unit 45 includes a face image extraction unit 46, a specific information acquisition unit 47, a registration request unit 48, a GUI control unit 49, and an operating status monitoring unit 50.
  • the control unit 45 is composed of a processor, and each unit of the control unit 45 is realized by executing a program stored in the storage unit 44 by the processor.
  • the face image extraction unit 46 acquires a photographed image of a person subject to face recognition from the camera 41A for face photographing, detects a person's face from the photographed image, and whether or not the user's face image is appropriately acquired. Can be determined. If the acquired face image is not appropriate, the face image extraction unit 46 can display a message prompting the user to take a picture again on the display 42.
  • the face image extraction unit 46 may have the functions of camera image capture, face detection, face size check, and face cutout, like the face image extraction unit 22 of the face authentication device 1 described above.
  • the specific information acquisition unit 47 has an OCR (optical character recognition) function, and generates specific information (here, business card description information) from characters and symbols extracted from an image captured by the camera 41B for information acquisition.
  • OCR optical character recognition
  • the registration request unit 48 sends a request for user registration to the face management server 5 via the communication unit 43.
  • the GUI control unit 49 displays various guidance screens for the user distributed from the face management server 5 on the display 42.
  • the input information is acquired and the screen is controlled according to the input operation of the user using the input function of the display 42 (here, the touch panel).
  • the operation status monitoring unit 50 monitors the operation status of the own device and notifies the face management server 5 of the operation status of the own device.
  • FIG. 9 is a block diagram showing a schematic configuration of the face management server 5.
  • the face management server 5 includes a communication unit 51, a storage unit 52, and a control unit 53.
  • the communication unit 51 communicates with the management terminal 2 via the network. In addition, the communication unit 51 communicates with the face recognition device 1 via the network. The communication unit 51 also communicates with the registration device 4. Further, the communication unit 51 communicates with the face matching server 6.
  • the storage unit 52 includes a face information database, a database regarding association information between the face authentication device 1 and the matching group, a database regarding association information between the face matching server 6 and the matching group, an administrator access log, and a control unit 53.
  • the control program and the like executed by the configuring processor are stored.
  • the face information database stores face images for registration as information about each registered user. Further, the face information database stores the specific information of each user in association with the face image for registration. Further, a collation group or the like is registered in the face information database.
  • the face image of the user and the specific information may be stored in an encrypted state for privacy protection. Further, the face information database may store a user's face image and a part of specific information in a state of being replaced with anonymized information.
  • the control unit 53 includes an administrator access management unit 61, a user management unit 62, a collation group management unit 63, a device management unit 64, a face collation server management unit 65, a face information management unit 66, and database management. It includes a unit 67, an operation status monitoring unit 68, an authentication log presentation unit 69, an encryption unit 70, an anonymization information generation unit 80, and an image generation unit 90.
  • the control unit 53 is composed of a processor, and each unit of the control unit 53 is realized by executing a program stored in the storage unit 52 by the processor. Each part of the control unit 53 is configured as a Web API (Web Application Programming Interface).
  • the administrator access management unit 61 permits or denies the administrator's access (login) according to the access authority of the administrator who accesses the own device from the management terminal 2.
  • the administrator access management unit 61 monitors the status of access (login) from the management terminal 2 to the face management server 5 and the face matching server 6, and when the access from the management terminal 2 is detected, information related to the access (accessed Record the administrator, date and time, etc. as an administrator access log (history information).
  • the face management server 5 provides the administrator access log to the management terminal 2 in response to a request from the management terminal 2 to refer to the administrator access log, and the administrator can browse the administrator access log. it can.
  • the administrator access management unit 61 manages access from the management terminal 2 to the own device, and when the administrator operates the management terminal 2 to access the own device, the information at that time is stored in the administrator access log (history). Information) in the storage unit 52. In addition, in response to a reference request from the management terminal 2, the administrator access log is presented to the management terminal 2.
  • the user management unit 62 manages information about the user such as a registration face image and specific information, and performs necessary processing about the user in response to a request from the management terminal 2.
  • the management terminal 2 requests registration, reference, update, and deletion regarding the user, and the user management unit 62 performs necessary processing in response to the request.
  • the user management unit 62 manages information on the meetings attended by the users and information on the personal connections of the users.
  • the collation group management unit 63 manages information about the collation group and performs necessary processing regarding the collation group in response to a request from the management terminal 2.
  • the management terminal 2 requests registration, reference, update, and deletion regarding the collation group, and performs necessary processing according to the request.
  • the matching group information that is, the information necessary for the face authentication device 1 to request the face matching server 6 that matches the matching group of itself to perform face authentication is generated for each face authentication device 1, and the matching group is generated. Information is provided to the face authentication device 1.
  • the device management unit 64 manages information regarding the face authentication device 1 and the registration device 4, and performs necessary processing regarding the face authentication device 1 and the registration device 4 in response to a request from the management terminal 2.
  • the management terminal 2 requests registration, reference, update, and deletion related to the association between the face authentication device 1 and the matching group, and performs necessary processing according to the request.
  • the face matching server management unit 65 manages information about the face matching server 6 and performs necessary processing related to the face matching server 6 in response to a request from the management terminal 2.
  • the management terminal 2 requests registration, reference, and deletion regarding the association between the face matching server 6 and the matching group, and performs necessary processing in response to the request.
  • the face information management unit 66 includes the user's face information (face image, specific information, etc.) stored in the own device and the user's face information (user's face feature amount data) stored in the face matching server 6. Face information is synchronized so that and are maintained in a consistent state. In addition, the face information management unit 66 copies the face information (user's face feature amount data).
  • the database management unit 67 manages the database provided in its own device and backs up and restores the database.
  • the operation status monitoring unit 68 monitors the operation status of its own device, receives notifications of the operation status from the face recognition machine 1, the registration device 4, and the face verification server 6, and operates the administrator on the management terminal 2. Correspondingly, the operating status of the face recognition machine 1, the registration device 4, the own device (face management server 5), and the face matching server 6 is displayed on the screen of the management terminal 2.
  • the authentication log presentation unit 69 acquires the authentication log from the face matching server 6 in response to the reference request from the management terminal 2, and presents the authentication log to the management terminal 2.
  • the encryption unit 70 can encrypt at least a part of the user's face image and specific information.
  • the encrypted information is stored in the storage unit 52.
  • the original information (information before encryption processing) corresponding to the information encrypted by the encryption unit 70 may be deleted from the storage unit 52.
  • the anonymization information generation unit 80 can perform a process of anonymizing at least a part of the user's face image and specific information. As anonymization processing, the anonymization information generation unit 80 can replace part of the user's face image and specific information with dummy information. Further, in the anonymization process, dummy information may be used for information missing in the user's face image and specific information (for example, information refused to be provided by the user).
  • the anonymized information is stored in the storage unit 52.
  • the encryption unit 70 may encrypt only the original information (information before the anonymization process) corresponding to the information anonymized by the anonymization information generation unit 80.
  • the image generation unit 90 generates a management screen for the administrator to confirm or change the information management status by the user management unit 62 and the device management unit 64.
  • the management screen is distributed to the management terminal 2 and the like.
  • FIG. 10 is a block diagram showing a schematic configuration of the face matching server 6.
  • the face matching server 6 includes a communication unit 71, a storage unit 72, and a control unit 73.
  • the communication unit 71 communicates with the face authentication device 1 via the network. In this embodiment, face image data and the like are received from the face authentication device 1. Further, the user authentication result and the like are transmitted to the face authentication machine 1.
  • the communication unit 71 also communicates with the face management server 5 via the network. In the present embodiment, requests for various processes are received from the face management server 5, and responses and the like corresponding to the requests are transmitted to the face management server 5.
  • the storage unit 72 stores a face matching database, association information between a user and a feature amount, information about a matching group of the own device, an authentication log, a control program executed by a processor configuring the control unit 73, and the like.
  • the face matching database user face feature amount data, etc. are registered as information about each registered user. Further, the face matching database is provided for each matching group, and stores the user's face feature amount data in group units.
  • the registered user's facial feature amount data includes an HDD (Hard Disk Drive), SSD (Solid State Drive), etc. provided in the face matching server 6 in preparation for unexpected disappearance from the face matching database. It may be backed up and stored in the non-volatile memory.
  • the control unit 73 includes a collation group management unit 81, an image quality check unit 82, a face image extraction unit 83, a face feature amount generation unit 84, a face feature amount management unit 85, and a face feature amount collation unit 86. It includes an authentication log management unit 87, a database management unit 88, and an operation status monitoring unit 89.
  • the control unit 73 is composed of a processor, and each unit of the control unit 73 is realized by executing the program stored in the storage unit 72 by the processor.
  • Each unit of the control unit 73 is configured as a WebAPI.
  • the collation group management unit 81 manages the collation group to which the own device belongs, and performs registration / deletion processing related to the collation group in response to a request from the face management server 5.
  • the image quality check unit 82 determines whether or not the image of the face region in the captured image satisfies a predetermined quality. Specifically, whether or not a mask is worn and whether or not sunglasses are worn is detected from the target image, and the face authentication suitability (evaluation value depending on the face orientation and facial expression) is calculated.
  • the face image extraction unit 83 extracts a face image from the photographed image of the user acquired by the registration device 4 at the time of user registration. At this time, if necessary, the face image extraction unit 83 detects a person's face from the captured image (face detection), determines whether the detected face size is appropriate (face size check), and determines from the captured image. A face area is cut out (face cutout), and a face image of a person is acquired. The face image extraction unit 83 can also extract the face image from the captured image of the target person acquired by the face authentication device 1 at the time of face authentication.
  • the face feature amount generation unit 84 detects face feature points from the data of the registration face image and the authentication face image and generates face feature amount data at the time of user registration and face authentication, respectively.
  • the face feature amount management unit 85 registers the user face feature amount data generated by the face feature amount generation unit 84 in the face matching database corresponding to the user matching group at the time of user registration. Further, at the time of updating or deleting, the face feature amount data registered in the face matching database is deleted in response to a request from the face management server 5. In addition, when the program related to the face feature amount generation or face matching algorithm is upgraded, the face feature amount data registered in the face matching database is updated with new data in response to a request from the face management server 5. Update to match the program.
  • the face feature amount collation unit 86 has the face feature amount data of the target person generated from the face image data for authentication acquired from the face recognition machine 1 at the time of face recognition, and the registrant (registered) stored in the own device. It is determined whether or not the target person is a registrant by comparing with the facial feature amount data of the user).
  • the face feature amount matching unit 86 corresponds to the matching group associated with the own device. When the own device is associated with a plurality of matching groups, a plurality of face feature amount matching for each matching group is performed. It has a part 86.
  • the face feature amount matching unit 86 (face matching process) forms a face matching unit in combination with the face matching database.
  • the facial feature amount matching unit 86 calculates the degree of similarity (matching score) between the target person and the registrant. By comparing this similarity with a predetermined threshold value, the success or failure of face recognition can be determined. In addition to notifying the face authentication device 1 of the determination result of success or failure, the face ID device 1 may be notified of the person ID or the similarity degree regarding the registrant having a high similarity as the comparison result.
  • the authentication log management unit 87 When the face authentication device 1 makes a face authentication request to the device itself, the authentication log management unit 87 outputs information at that time, that is, the device ID of the face authentication device 1 that is the source of the face authentication, the face matching result, and the like. The information is accumulated in the storage unit 72 as an authentication log. Further, the authentication log is provided to the face management server 5 in response to the request from the face management server 5.
  • the database management unit 88 manages the database provided in its own device and backs up and restores the database.
  • the operation status monitoring unit 89 monitors the operation status of the own device and notifies the face management server 5 of the operation status of the own device.
  • the main functions of the face matching server 6 are face image extraction, face feature amount generation, and face feature amount matching functions, but these functions are independent of each other.
  • the device can be configured.
  • the face image extraction function may be configured by another information processing device independent of other functions such as face feature amount generation and face feature amount matching.
  • FIG. 11 is a block diagram showing a schematic configuration of the external device 16.
  • the external device 16 includes a control signal receiving unit 91, a driving unit 92, a power supply unit 93, and a control unit 94.
  • the control signal receiving unit 91 receives the control signal transmitted from the control signal transmitting unit 17 of the face authentication device 1 (operation command from the face authentication device 1 that cooperates with the external device 16).
  • the drive unit 92 is controlled by the control unit 94 based on the control signal from the face recognition machine 1. For example, when the external device 16 is a gate device, the drive unit 92 supplies power for opening (or closing) the door unit of the gate device. When the external device 16 is a door lock device, the drive unit 92 supplies power for locking (or unlocking) the lock device. If the external device 16 is a device that does not include a portion to be driven (for example, a payment terminal device), the drive unit 92 can be omitted.
  • the power supply unit 93 supplies power to each unit of the external device 16. Further, the power supply unit 93 is electrically connected to the power feeding unit 97 of the face authentication device 1 and can also supply power to the power feeding unit 97.
  • the power supply unit 97 supplies power to each unit of the face recognition device 1. Further, by connecting to the power supply unit 97 of the face recognition machine 1 via a LAN (Local Area Network) cable, power can be supplied to the power supply unit 97 by PoE (Power over Ethernet) power supply.
  • LAN Local Area Network
  • the power supply unit 93 can receive power supply from an uninterruptible power supply (or emergency power supply) independent of the power supply line in the entire facility.
  • an uninterruptible power supply or emergency power supply
  • the gate device as the external device 16 can perform normal operation even when a power failure occurs in the facility, and has an advantage that the security of the facility can be maintained.
  • the control unit 94 controls the operation of each unit of the external device 16. Further, the control unit 94 can execute the necessary processing as the external device 16.
  • the control unit 94 is configured by a processor, and is realized by executing a program stored in a storage unit (memory) (not shown) by the processor.
  • FIG. 12 is an explanatory diagram showing an outline of the face image extraction process.
  • the face image extraction unit 22 of the face authentication machine 1 generates face image data from the photographed image data of the user by the face image extraction process, that is, each process of face detection, face size check, and face cutout.
  • the face image extraction process is also performed in the face image extraction unit 83 of the face matching server 6.
  • the data of the photographed image of the user is sent from the registration device 4 to the face matching server 6 via the face management server 5, so that the face image extracting unit 83 of the face matching server 6 performs face image extraction processing.
  • the data of the photographed image of the user may be sent from the management terminal 2 to the face matching server 6 via the face management server 5.
  • the face authentication machine 1 is provided with a highly accurate face detection function. Further, in the face authentication device 1, the camera 11 always shoots the shooting area, and the face image information (shot image data and face frame information) is sent to the face matching server 6 at the timing when the face is detected. As a result, the load of the face image extraction process is distributed to the plurality of face recognition machines 1, and the load of the face matching server 6 can be reduced. Moreover, since the amount of communication can be reduced, the load on the network can be reduced. Then, since the face recognition response can be performed at high speed, the face recognition of the target person appearing one after another can be efficiently performed.
  • the face recognition machine 1 may not be provided with the face image extraction function, that is, the face recognition machine 1 may not be provided with the face image extraction unit 22.
  • FIG. 13 is an explanatory diagram showing an outline of an inquiry for face recognition using collation group information.
  • the face management server 5 holds information about the matching group to which the user belongs, association information between the face authentication device 1 and the matching group, and association information between the face matching server 6 and the matching group. Further, the matching group management unit 63 of the face management server 5 uses the face authentication device 1 and the matching group based on the association information between the face authentication server 1 and the matching group. The collation group information for each one is generated.
  • This matching group information is information required for the face recognition machine 1 to request face recognition from the face matching server 6 that matches its own matching group.
  • the matching group information includes the identification information (group number) of the matching group to which the face authentication device 1 belongs, and the face matching server 6 that requests face recognition from the face authentication device 1, that is, the matching group with the face authentication device 1.
  • the destination information of the face matching server 6 corresponding to is specifically a network address (for example, an IP address) of the face matching server 6, and the face matching server 6 that is the request destination of face recognition is specified by this destination information, and the face matching machine is identified. 1 is associated with the face matching server 6 that is the request destination for the face recognition.
  • the matching group information includes the addresses (IP addresses) of the corresponding plurality of face matching servers 6.
  • the start processing unit 21 acquires collation group information from the face management server 5 as operation setting information and stores it in its own device at the time of start-up or the like.
  • the face authentication device 1 detects a person's face, it sends a face matching request to the face matching server 6 that matches the matching group to which the device belongs.
  • the face matching request includes information on the matching group to which the device belongs.
  • the setting information regarding the collation group information and the like may be acquired from the face management server 5 at a predetermined timing or at regular intervals other than at the start-up, or , It is also possible to adopt a configuration in which the collation group information is distributed from the face management server 5.
  • the face matching server 6 holds the association information between the face matching process of its own device and the matching group. Upon receiving the face authentication request from the face authentication device 1, the face verification server 6 performs face authentication based on the association information between the verification group and the face authentication process and the verification group acquired from the face authentication device 1. The face recognition process corresponding to the machine 1 is specified, and the face recognition process is made to perform face matching. As a result, the face matching process is performed in the face recognition process corresponding to the designated matching group.
  • the face matching server 6 provides a face matching database for each matching group and stores face feature amount data for each matching group. Therefore, at the time of face matching, face matching may be performed on the face feature amount data registered in the face matching database corresponding to the matching group of the face recognition machine 1.
  • the face matching server 6 may perform matching regardless of the matching group of the face authentication device 1, and then filter the matching result. That is, after performing face matching on the face feature amount data of all the users stored in the face matching server 6, only the matching result with the users belonging to the matching group of the face authentication device 1 is extracted. You may do it. In this case, the face matching database may not be separately provided for each matching group.
  • FIG. 14 is an explanatory diagram showing an example of a registration screen displayed on the registration device 4.
  • the user can perform the registration operation for authentication by the registration device 4 when starting to use the facility (or if he does not return to the facility within a predetermined period after registration).
  • the user can perform the registration operation according to the guide screen displayed on the display 42 (here, the touch panel) of the registration device 4.
  • a part of the registration operation for authentication described below may be performed by the receptionist who has the consent of the user.
  • the initial screen on which the registration start button 101 is displayed is displayed on the display 42 of the registration device 4 (see (A) in FIG. 14). Therefore, when the user presses (touches) the registration start button 101, an explanation about the handling of personal information in the face authentication system and a screen requesting the user to give his/her consent are displayed (see (B) in FIG. 14).
  • the user can consent to the handling of personal information in the face recognition system by pressing the consent button 102 on the screen (B) of FIG.
  • the registration device 4 starts acquiring the authentication information of the user. Therefore, the display 42 displays a screen (first screen) showing a method of acquiring specific information used for identifying the user (see (C) of FIG. 14).
  • the user can cancel the registration operation by pressing the cancel button 103.
  • the screen for asking the user for consent may be omitted, as the user may not need the consent.
  • consent may be obtained by operating the shooting button 104, the shooting button 107, and the registration button 111, which will be described later. Alternatively, the consent may be obtained through a predetermined procedure before using the registration device 4.
  • a screen showing a method of photographing a user's business card (here, guidance for placing the user's business card in the photographing area of the information acquisition camera 41B) (No. Screen 1) is displayed. Therefore, when the user places the business card on the mounting table 116 of the registration device 4 and presses the shooting button 104, the business card is shot by the registration device 4. The user can stop shooting the business card by pressing the stop button 105.
  • the registration device 4 is subsequently subjected to a method of shooting a face image for user registration (guidance for positioning the user's face in the shooting area of the face shooting camera 41A).
  • (First screen) is displayed (see (D) in FIG. 14).
  • the registration device 4 can prompt the user to align the face by blinking the shooting frame 106 corresponding to the shooting area.
  • a live image (real-time moving image) shot by the face shooting camera 41A is displayed. Therefore, when the user positions his / her face in the shooting frame and presses the shooting button 107, the registration device 4 takes a picture of the user's face. At this time, the registration device 4 can generate a shutter sound when the photographing button 107 is pressed. The user can cancel the face shooting by pressing the stop button 108.
  • the registration device 4 When the face shooting is completed, the registration device 4 subsequently displays a screen (first screen) for the user to confirm the shot face image (see (E) in FIG. 14). A photographed face image (still image) is displayed on this screen, and the user presses the registration button 111 when it is determined that there is no problem with the photographed face image. On the other hand, if the user determines that there is a problem with the captured face image, the user can press the reshooting button 112. As a result, the screen shown in FIG. 14D is displayed on the registration device 4, and the face can be re-photographed. Note that the user can stop shooting the face by pressing the stop button 113.
  • the acquired face image and specific information (here, including the business card image and the business card description information extracted from the business card image by OCR) are transmitted to the face management server 5.
  • the face management server 5 executes the registration process (see FIG. 15) regarding the user.
  • the registration device 4 displays a screen (second screen) indicating that the registration is completed ((F) in FIG. 14 and “in FIG. 15”. Display the processing result on the screen"). Therefore, when the user presses the end button 115, the registration operation in the registration device 4 ends.
  • the order of obtaining the face image and the business card image may be reversed.
  • the registration device 4 can delete the face image and the specific information stored in the storage unit 44. As a result, it is possible to prevent the personal information from being stored in the registration device 4 used by an unspecified person for a long period of time, and it becomes possible to manage the personal information of the user more safely.
  • the administrator instead of registering the user by the registration device 4 described above, the administrator prepares a face image file for registering the user in advance, and then registers the user using the management terminal 2. You can The administrator can also modify the authentication information registered by the registration device 4 or add new information from the management terminal 2 in order to complement the registration by the registration device 4.
  • FIG. 15 is a sequence diagram showing a procedure of registration processing for a user.
  • the face management server 5 when the user registration operation is performed in the registration device 4 as described above, the registration process for the user is started as shown in FIG. At this time, the face management server 5 receives a photographed image of the face and specific information from the registration device 4 together with the operation information of the user. In this registration process, first, the face management server 5 sends a request for face image extraction to the face matching server 6 whose matching group matches the target user. This request includes a photographed image of the user's face acquired from the registration device 4. At this time, when there are a plurality of face matching servers 6 whose matching groups match the target user, one face matching server 6 is selected and a face image extraction request is sent to the one face matching server 6. To send.
  • the face matching server 6 receives a request for face image extraction from the face management server 5, the face image extraction process is performed.
  • processing such as face detection and face cutout is performed on the captured image of the user's face acquired from the face management server 5, and the user's face image is extracted.
  • the face image extraction response is sent to the face management server 5. This response includes the face image of the user.
  • the face management server 5 Upon receiving the face image extraction response from the face matching server 6, the face management server 5 sends a face registration request to the face matching server 6 whose matching group matches the target user.
  • This request can include the face image of the user acquired from the specific face matching server 6.
  • all (including 2 in FIG. 15) of the face images of the user acquired from the specific face matching server 6 are included.
  • the face registration request is sent to the face matching server 6.
  • the face management server 5 omits the above-described request for face image extraction to the face matching server 6 and requests the face matching server 6 for the captured image of the user's face acquired from the registration device 4 together with the operation information. May be added to.
  • the face matching server 6 Upon receipt of a face registration request from the face management server 5, the face matching server 6 performs face registration processing. In this face registration process, a face feature amount is generated from the user's face image, and the face feature amount is registered in the database. At this time, the face registration ID is given in association with the facial feature amount of the user. Then, the face registration response is sent to the face management server 5. This response includes a result indicating whether the face registration is normally completed and the face registration ID. The face image of the user on the face matching server 6 is deleted when the registration of the face feature amount in the database is completed. Further, the face feature amount data may be backed up and saved in a non-volatile memory such as an HDD or SSD managed separately from the face matching DB of the face matching server 6.
  • a non-volatile memory such as an HDD or SSD managed separately from the face matching DB of the face matching server 6.
  • the face management server 5 receives the face registration response from the face matching server 6, and if the process is completed normally, performs the registration process for the user. In this registration process, the face image of the user acquired from the registration device 4 is registered in the face information database. Further, the face management server 5 associates the user's specific information acquired from the face matching server 6 with the face image and registers it in the face information database. Further, the face management server 5 registers the face registration ID issued by the face matching server 6 in the face information database as user information.
  • FIG. 16 shows a first example of face recognition processing relating to a user.
  • a gate device security gate
  • the external device 16 that cooperates with the face authentication device 1.
  • the face matching request is transmitted to the face matching server 6.
  • the request for face matching includes the device ID of the requesting face recognition device 1, the matching group of the face recognition device 1, the data of the photographed image (face image for authentication) of the person subject to face recognition, and the face frame. Information and matching conditions are included.
  • the face matching server 6 When the face matching server 6 receives the request for face matching, the face feature amount generation unit 84 first generates the face feature amount of the target person from the face image of the target person acquired from the face authentication device 1. Next, the face feature amount matching unit 86 of the face authentication unit corresponding to the matching group of the face authentication device 1 matches the face feature amount of the target person with the face feature amount of the user registered in the face authentication database. .. At this time, the face matching process is performed in the face recognition process in which the matching group matches the requesting face authenticator 1. When the face matching process is completed, the face matching server 6 transmits the face matching response to the requesting face recognition machine 1. The response of this face matching includes a matching result (success, failure), a matching score, and a user code.
  • the face feature amount matching unit 86 calculates a matching score representing the degree of similarity between the target person of face authentication and the registered user, and when the matching score is equal to or higher than a predetermined reference value, The target person is regarded as the registered user himself/herself, and a matching result indicating that the face matching is successful is generated. On the other hand, if the matching scores of all users do not exceed the reference value, it is determined that the target person for face authentication is not a registered user, and a matching result indicating that face matching has failed is generated. ..
  • the face matching processing conditions (face matching parameters) performed by the face matching server 6 may be added to the matching request. This allows the face authentication device 1 to instruct the content of the face matching process performed by the face matching server 6.
  • a threshold value for the matching score is specified, and the matching result having the matching score equal to or higher than a predetermined threshold value is included in the response.
  • the number of matching results is specified, and a predetermined number of matching results are included in the response from the one with the highest matching score.
  • the authentication log management unit 87 stores information such as the matching result acquired by the face matching in the database as an authentication log (face authentication history information).
  • the verification score may be included in the authentication log.
  • the face image of the target person acquired from the face recognition machine 1 may be included in the authentication log. In this case, the face image of the target person may be encrypted and stored.
  • the collation score may be narrowed down to a predetermined number from the one with the highest collation score and saved as an authentication log.
  • the authentication log only the information included in the request from the face recognition machine 1 is used as the authentication log. It may be saved.
  • the face authentication device 1 when the face authentication device 1 receives a face verification response indicating the success of face authentication from the face verification server 6, it sends an opening/closing control signal of the door to the associated gate device.
  • the face authentication device 1 functions as a control device (gate opening/closing control device) that converts the response of face verification into a door opening/closing control signal, and controls the operation of the door of the associated gate device.
  • the gate device causes the drive unit 92 to open the door (that is, allow the user to pass through).
  • the face authentication device 1 deletes the face image of the user stored in the storage unit 14 upon completion of transmission of the control signal (opening/closing control signal).
  • the response of face matching is configured to be converted into a door opening/closing control signal, but when the gate device door opening/closing control is performed by the entrance/exit management system built as an external system, A control signal is transmitted to the entrance/exit management system so that the face authentication result is reflected in the opening/closing control of the gate device.
  • FIG. 17 shows a second example of face authentication processing regarding a user.
  • 18A, 18B, and 18C are explanatory diagrams showing an example of an authentication screen (screen at the time of authentication) displayed on the face authentication machine 1.
  • an example is shown in which a lock device provided on the door of the conference room is used as the external device 16 that cooperates with the face authentication device 1.
  • the second example of the face authentication processing detailed description of the same items as the above-described first example will be omitted.
  • the face recognition machine 1 is installed, for example, on the wall of the corridor facing the conference room.
  • the face authentication device 1 displays a standby screen (initial screen) of an authentication screen on the display 12 when detecting the approach of a person (that is, detecting a user) by a human sensor or the like (see FIG. 18A).
  • the authentication screen (notification screen) displayed on the display 12 includes an image display area 121 displaying a live image (real-time moving image) of a predetermined shooting area taken by the camera 11, and the progress of the face authentication process.
  • an information display area 122 for displaying information indicating.
  • the face authentication device 1 detects a person's face from the image captured by the camera 11 and acquires the face image, it sends a face matching request to the face matching server 6.
  • the characters 123 and the graphic 124 indicating that the user authentication is in progress are displayed (see FIG. 18B).
  • the display of one of the character 123 and the graphic 124 may be omitted.
  • an LED (light emitting diode) lamp is used to blink the LED during authentication and turn on the LED when the authentication is successful. You may want to be notified of the progress of authentication.
  • the progress of face recognition may be notified by the display color of the LED. Further, the display color of the LED may be changed depending on whether or not the face authentication of the user is successful.
  • the face matching server 6 When the face matching server 6 receives the face matching request, it generates a face feature amount and executes the face matching process as in the first example described above. When the face matching process is completed, the face matching server 6 transmits the face matching response to the requesting face recognition machine 1.
  • the face authentication device 1 receives the face verification response indicating the success of the face authentication from the face verification server 6, the character 127 and the graphic indicating that the user authentication is completed are displayed in the information display area 122 of the authentication screen. 128 is displayed (see FIG. 18C).
  • the face authentication device 1 transmits a control signal (a command to unlock the door) to the associated door locking device. That is, the face authentication device 1 functions as a control device that controls the operation of the locking device that works together. As a result, the lock device performs an operation of releasing the lock (that is, allowing the user to enter the room).
  • the face authentication device 1 deletes the face image of the user stored in the storage unit 14 upon completion of transmission of the control signal.
  • the face recognition machine 1 can be linked with an external device that only processes information without mechanical operation like the above-mentioned gate device and door lock device.
  • FIG. 19 shows a third example of the face authentication processing regarding the user.
  • the face authentication device 1 when the face authentication device 1 receives a face verification response indicating the success of the face authentication from the face verification server 6, the face authentication device 1 instructs the associated payment terminal device (or payment system) to Send a control signal.
  • the settlement terminal device executes a process of associating the data of the usage fee for the service (for example, provision of a meal at a restaurant) used by the corresponding user with the authenticated user, and as a result, The usage fee is added to the billing data at the facility for the user.
  • FIG. 20 is an explanatory diagram showing a login screen displayed on the management terminal 2.
  • a login screen is displayed.
  • the administrator can enter his/her user ID and password.
  • the face management server 5 authenticates the user. If the login is successful, various management screens can be displayed. If login fails, an error will be displayed.
  • 21A, 21B, and 22 are explanatory diagrams showing a management screen displayed on the management terminal 2 at the time of registration, reference, update, and deletion regarding association between the face authentication device 1 and the matching group. ..
  • the reference screen shown in FIG. 21A and the registration screen shown in FIG. 21B are used for registration, reference, update, and deletion regarding the association between the face recognition machine 1 and the matching group.
  • the deletion screen shown in FIG. 22 can be displayed.
  • the reference screen shown in FIG. 21A displays a list of association settings between the registered face authentication device 1 and the matching group. By browsing this reference screen, the administrator can confirm the registered contents of the matching group.
  • This reference screen is provided with a list display unit 211 and a face recognition machine designation unit 212.
  • the list display unit 211 the device ID of each authentication machine, the collation group (number) associated with each authentication machine, and the explanation about the collation group are displayed.
  • the target face recognition machine 1 (device ID) can be selected from the pull-down menu.
  • the display content of the list display unit 211 can be narrowed down to the specific face authentication device 1, and only the collation group associated with the specific face authentication device 1 is displayed on the list display unit 211.
  • the face recognition machine 1 is not specified by the face recognition machine designation unit 212, information about all the face recognition machines 1 is displayed on the list display unit 211.
  • items can be specified and sorting can be executed.
  • the number of items displayed on the list display unit 211 (the number of face authentication devices 1) and the display range of the face matching server 6 or the matching group may be specified.
  • the face recognition machine 1 is grouped according to the place where the face recognition machine 1 is installed (for example, the location of the business office).
  • the registration screen shown in FIG. 21B is used for setting the association between the face authentication device 1 and the matching group. It is possible to register information associating the verification group with the authentication device.
  • This registration screen is provided with an authentication machine designation unit 213, a collation group designation unit 214, and a registration button 215.
  • the authentication device designation unit 213 can select the target face authentication device 1 (device ID) from the pull-down menu.
  • the matching group designation unit 214 can select the matching group of the target face authentication device 1 from the pull-down menu. In this pull-down menu, already registered matching groups are displayed.
  • the registration button 215 is operated after inputting the face recognition machine 1 and the matching group on this registration screen, the face management server 5 performs a process of registering the matching group information with the input contents.
  • one face recognition machine 1 may be associated with a plurality of matching groups.
  • the registration operation of associating one matching group with one face recognition machine 1 may be repeated on the registration screen.
  • a plurality of collation group designation units 214 may be provided on the registration screen.
  • the deletion screen shown in FIG. 22 is for deleting the association setting between the face authentication device 1 and the matching group.
  • a list display unit 216, a face authentication device designation unit 217, and a delete button 218 are provided on this delete screen.
  • the list display unit 216 displays the device ID of each authentication device, the verification group (number) associated with each face authentication device 1, and an explanation about the verification group. Further, the list display portion 216 is provided with a check box for each association setting. The check box allows selection of the association setting.
  • the face management server 5 performs a process of deleting the selected registered item.
  • the face authentication device designation unit 217 can select the face authentication device 1 from a pull-down menu. As a result, the display content of the list display unit 216 is updated in a state where the display is narrowed down to the specific face authentication device 1.
  • the screen changes to the reference screen shown in FIG. 21A. Further, by selecting registration on the menu screen, the screen transitions to the registration screen shown in FIG. 21B. In addition, by selecting delete on the menu screen, the screen changes to the delete screen shown in FIG. Further, by selecting update on the menu screen, the screen changes to an update screen (not shown). Further, when the administrator selects the association between the face authentication device 1 and the matching group on the reference screen, the screen transitions to an update screen (not shown).
  • the registered associations are displayed in a list on the deletion screen, but the deletion may be possible on the individual edit screen.
  • the update screen (not shown) is the same as the registration screen (FIG. 21B).
  • FIG. 23 is an explanatory diagram showing an example of a user management screen displayed on the management terminal 2.
  • the user management screen shown in FIG. 23 is displayed when managing information about the user.
  • the user management screen shown in FIG. 23 is for the administrator to perform operations of registration, reference, update, deletion, and search of a face image and specific information (here, business card information) regarding the user. ..
  • the information (including the image) input to the management screen of the user includes the information acquired by the registration device 4.
  • the user management screen includes an operation selection area 131, a user information area 132, and a business card information area 133.
  • the administrator can select items to be executed (information registration, reference, update, deletion, search, etc.).
  • items to be executed information registration, reference, update, deletion, search, etc.
  • business card registration is selected as an item to be executed. This allows the administrator to newly input the business card description information displayed on the management screen of the user.
  • the user information area 132 includes the user's face image, first and last name, and information used for face authentication.
  • a face image display unit 141 a family name input unit 142
  • a user ID input unit 143 a user ID input unit 143
  • an identification ID input unit 144 a collation group input unit 145
  • an access permission group input unit 146 and additional information.
  • An input unit 147, an activation date input unit 148, and an invalidation date input unit 149 are included.
  • a face image of the user is displayed on the face image display unit 141.
  • the administrator can delete the face image on the face image display unit 141 by pressing the delete button 151.
  • the administrator can select the prepared face image (image file) as a display target by pressing the image selection button 152.
  • the administrator can display the face image selected by the image selection button 152 on the face image display unit 141 instead of the face image acquired by the registration device 4.
  • the face image prepared by the administrator is not limited to the actual face image of the user, but may be a dummy image (for example, an avatar image of the user).
  • the surname and first name of the user are input to the surname and first name input section 142.
  • the user ID for example, employee number
  • the user ID input unit 143 an ID capable of identifying the user (for example, a series and unique number assigned in the order of registration of the user) is input.
  • the collation group is input to the collation group input unit 145.
  • the access permission group input unit 146 is input with an access permission group indicating an administrator group that can access the user information.
  • the additional information input unit 147 can input additional information.
  • the date when the face matching of the person can be validated is input to the validation date input unit 148.
  • the invalidation date input unit 149 a date when face matching can be invalidated is input.
  • the business card information area 133 includes a captured image of the business card registered by the registration device 4 and information extracted from the captured image of the business card.
  • the business card information area 133 includes a business card image display unit 161, an belonging information input unit 162, an activation date input unit 163, and an invalidation date input unit 164.
  • the business card image of the user is displayed on the business card image display unit 161.
  • the administrator can delete the business card image and select the prepared business card image (image file) as in the case of the above-mentioned face image.
  • the company name to which the user belongs, the department name of the user, the job title, the telephone number, the fax number, the e-mail, the zip code, the address, etc. are input to the affiliation information input unit 162.
  • the date on which the information regarding the business card of the person can be validated is input to the validation date input unit 163.
  • the invalidation date input unit 164 the date when the information regarding the business card of the person can be invalidated is input.
  • the input (added or changed) information becomes valid.
  • the administrator can search for necessary information by selecting a search tab (for example, matching group search) in the operation selection area 131 of the user management screen.
  • a search tab for example, matching group search
  • each input unit in the above-mentioned user management screen is displayed as a blank space.
  • the administrator can search for users belonging to the entered collation group by inputting the collation group to be searched into the blank collation group input unit 145.
  • a list display screen that reflects the search results (for example, a list of extracted users is shown. Screen).
  • FIG. 24 is an explanatory diagram showing an example of a conference room search screen (conference search screen) displayed as a management screen on the management terminal 2 or the like.
  • FIG. 25 is an explanatory diagram showing an example of an attendee display screen displayed on the management terminal 2 as a management screen.
  • the conference room search screen shown in FIG. 24 is for the administrator to use (reference) the information about the conference acquired in the face authentication process.
  • the administrator can appropriately add information that cannot be acquired by the face authentication device 1 regarding the conference held at the facility.
  • the meeting room search screen displays information such as the date, time, room number (meeting room No.), etc. regarding the meetings that were held in the meeting room of the facility in the past.
  • the information on the entry history acquired by the face authentication device 1 that cooperates with the lock device for the door of the conference room can be used to generate the conference room search screen.
  • the administrator selects a desired meeting (click the check box of the meeting shown at the top in FIG. 24) and presses the selection button 173, the screen transitions to the search result display screen in which the search result is reflected.
  • an attendee display screen including an attendee list is displayed on the management terminal 2.
  • the attendee list includes an attendee information area 175 and an attendee information area 176.
  • attendee information area 175 face images of the attendees of the conference and specific information (here, the company name to which the user belongs and the name of the user) are displayed.
  • respondent information area 176 information (here, the department and the name) about the person who responded to the attendee (for example, the employee of the company resident in the facility) is displayed.
  • FIG. 26 is an explanatory diagram showing an example of a personal connection search screen displayed on the management terminal 2 as a management screen.
  • the administrator uses the information on the personal connections of the user 10 acquired in the face recognition process (here, the information on the connections of people estimated from the information of the attendees of the conference) ( (See). By accessing the face management server 5 from the management terminal 2, the administrator can appropriately add necessary information regarding the personal connection of the user.
  • the personal connection search screen includes a correlation diagram display area 181 and a list display area 182.
  • a diagram in which the personal connections regarding the person selected by the administrator are visualized is displayed.
  • the personal connection list 185 regarding the person (user 10) selected by the administrator is displayed.
  • face images of persons, affiliation information (company name, department, etc.), numerical values indicating personal connection strength (personal connection strength), and the like are displayed.
  • Such a personal connection search screen may be displayed by the administrator selecting (clicking) the area of the desired attendee on the attendee display screen of FIG. 25, for example.
  • conference room search screen and the personal connection search screen described above need not be limited to those via the management terminal 2.
  • a conference room search screen can be displayed from an information processing terminal (PC, tablet, etc.) owned by the user. You may be able to refer to the network search screen.
  • CPS Chip-Physical Systems
  • IoT Internet of Things
  • CPS Chip-Physical Systems
  • the CPS concept can be adopted also in this embodiment. That is, as a basic configuration of the CPS, for example, an edge device arranged in a physical space and a cloud server arranged in a cyber space are connected via a network, and the face device is connected to the face server by a processor mounted in the cloud server.
  • the authentication process can be distributed and processed. In this face recognition process, the user's face image data taken by the camera of the authentication machine is acquired as an edge device.
  • the cloud server executes a process of generating feature amount data from the face image data received from the edge device via the network, collates with the feature amount data of the user registered in advance, and authenticates the user.
  • the process is executed, the authentication result related to the authentication process is taken over by the face authentication application software, and displayed on the display etc. in the output format defined on the application.
  • each data generated in the edge device or the cloud server is preferably generated by a Web application or the like installed on a standardized platform. By using such a standardized platform, various sensor groups can be collected. It is possible to improve the efficiency when constructing a system including the or IoT application software.
  • the gate opening / closing control device and the gate opening / closing control method according to the present disclosure can easily perform face recognition when a user enters or leaves the facility while safely managing the face image of the user who uses the facility.
  • the present invention has the effect that can be achieved, and is useful as a gate opening/closing control device and a gate opening/closing control method for controlling the opening/closing of the gate device through which the subject passes based on the result of the face authentication of the subject.
  • Face recognition machine 2 Management terminal 3: Face recognition server 4: Registration device 5: Face management server 6: Face matching server 10: User 11: Camera (face image acquisition unit) 12: Display (display section) 14: storage unit 15: control unit (processor) 16: External device 25: Authentication result adjustment unit (history information generation unit) 41A: Face shooting camera (personal information acquisition unit) 41B: Information acquisition camera (personal information acquisition unit) 42: Display (display section) 45: control unit (processor) 62: User management unit 64: Device management unit 90: Image generation unit 97: Power supply unit

Abstract

ゲート開閉制御装置(顔認証機(1))が、ゲート装置(外部装置(16))を通過する前の利用者を撮影し、利用者の認証用の顔画像を取得する顔画像取得部(カメラ(11))と、認証用の顔画像に基づき、顔照合サーバ(6)に対して顔認証の処理要求を送信する送信部(通信部(13))と、顔照合サーバ(6)から返信される認証結果を受信する受信部(通信部(13))と、認証結果をゲート装置の開閉制御信号に反映させる制御部(15)と、を備えた構成とする。

Description

ゲート開閉制御装置およびゲート開閉制御方法
 本開示は、対象者の顔認証の結果に基づき、当該対象者が通過するゲート装置の開閉を制御するゲート開閉制御装置およびゲート開閉制御方法に関する。
 従来、例えば、利用者が所持する無線タグ(遠隔型ICカード)から送信された識別子を受信する読み取り部と、その無線タグから受信した識別子に対応して登録されている顔特徴量を取得する取得部と、利用者を撮像する撮像部と、その撮像部で撮像した画像データから顔の特徴量を抽出する抽出部と、その抽出部で抽出された顔の特徴量と、その取得部で取得された顔特徴量とが一致するかを照合する顔照合部と、その顔照合部での照合の結果に応じて、ゲートの出口を開状態または閉状態とする開閉制御部と、を備えたゲート装置が知られている(特許文献1参照)。
国際公開第2018/181968号公報
 ところで、上記従来技術では、利用者の無線タグから送信された識別子によって顔認証の対象者(すなわち、登録されている顔特徴量)を絞り込むことが可能となるが、ゲートを通過する利用者は、ICカードを常に携帯する必要があるため、当該ICカードに含まれる個人情報(すなわち、特定の個人を識別できる情報)を安全に管理することは難しくなる。また、上記従来技術では、顔画像データとその特徴量データの両方のデータをクラウドサーバなどに置いて、それらのデータを安全に管理する仕組みについては、何ら配慮されていない。
 また、上記従来技術では、ゲート装置は、抽出部で抽出された顔の特徴量と、取得部で取得された顔特徴量とが一致するかを照合する処理を実行するが、施設への利用者の入場時または退場時の顔認証に関する処理を簡易に行う仕組みについては、何ら配慮されていない。
 そこで、本開示は、施設を利用する利用者の顔画像を安全に管理しつつ、施設への利用者の入退場時の顔認証を簡易に実行することができるゲート開閉制御装置およびゲート開閉制御方法を提供することを主な目的とする。
 本開示のゲート開閉制御装置は、施設の利用者の顔認証を実行する顔認証サーバに対し、前記施設における入退場用のゲート装置の前記利用者の通過時に前記顔認証の処理要求を行って、その認証結果により前記ゲート装置の開閉を制御するゲート開閉制御装置であって、前記ゲート装置を通過する前の前記利用者を撮影し、前記利用者の認証用の顔画像を取得する顔画像取得部と、前記認証用の顔画像に基づき、前記顔認証サーバに対して前記顔認証の処理要求を送信する送信部と、前記顔認証サーバから返信される認証結果を受信する受信部と、前記認証結果を前記ゲート装置の開閉制御信号に反映させる制御部と、を備えた構成とする。
 また、本開示のゲート開閉制御方法は、施設の利用者の顔認証を実行する顔認証サーバに対し、前記施設における入退場用のゲート装置の前記利用者の通過時に前記顔認証の処理要求を行って、その認証結果により前記ゲート装置の開閉を制御するゲート開閉制御方法であって、前記ゲート装置を通過する前の前記利用者を撮影し、前記利用者の認証用の顔画像を取得し、前記認証用の顔画像に基づき、前記顔認証サーバに対して前記顔認証の処理要求を送信し、前記顔認証サーバから返信される認証結果を受信し、前記認証結果を前記ゲート装置の開閉制御信号に反映させる構成とする。
 本開示によれば、施設を利用する利用者の顔画像を安全に管理しつつ、施設への利用者の入退場時の顔認証を簡易に実行することができる。
図1は、本開示の実施形態に係る顔認証システムの全体構成図である。 図2は、施設において発生するイベントの例を示す説明図である。 図3は、照合グループの概要を示す説明図である。 図4Aは、顔認証機1で行われる顔照合の問合せの概要を示す説明図である。 図4Bは、顔認証機1で行われる顔照合の問合せの概要を示す説明図である。 図4Cは、顔認証機1で行われる顔照合の問合せの概要を示す説明図である。 図5Aは、顔照合ユニットの概要を示す説明図である。 図5Bは、顔照合ユニットの概要を示す説明図である。 図5Cは、顔照合ユニットの概要を示す説明図である。 図6は、顔認証機1の概略構成を示すブロック図である。 図7は、管理端末2の概略構成を示すブロック図である。 図8は、登録装置4の概略構成を示すブロック図である。 図9は、顔管理サーバ5の概略構成を示すブロック図である。 図10は、顔照合サーバ6の概略構成を示すブロック図である。 図11は、外部装置の概略構成を示すブロック図である。 図12は、顔画像抽出処理の概要を示す説明図である。 図13は、照合グループ情報による顔認証の問合せの概要を示す説明図である。 図14は、登録装置4に表示される登録画面の一例を示す説明図である。 図15は、利用者に関する登録処理の手順を示すシーケンス図である。 図16は、利用者に関する顔認証の処理の第1の例を示すシーケンス図である。 図17は、利用者に関する顔認証の処理の第2の例を示すシーケンス図である。 図18Aは、顔認証機1に表示される認証画面の一例を示す説明図である。 図18Bは、顔認証機1に表示される認証画面の一例を示す説明図である。 図18Cは、顔認証機1に表示される認証画面の一例を示す説明図である。 図19は、利用者に関する顔認証の処理の第3の例を示すシーケンス図である。 図20は、管理端末2に表示されるログイン画面を示す説明図である。 図21Aは、顔認証機1と照合グループとの間の関連付けに関する登録、参照、更新および削除の際に管理端末2に表示される画面である。 図21Bは、顔認証機1と照合グループとの間の関連付けに関する登録、参照、更新および削除の際に管理端末2に表示される画面である。 図22は、顔認証機1と照合グループとの間の関連付けに関する登録、参照、更新および削除の際に管理端末2に表示される画面である。 図23は、管理端末2に表示される利用者の管理用画面の一例を示す説明図である。 図24は、管理端末2に表示される会議室検索画面の一例を示す説明図である。 図25は、管理端末2に表示される出席者表示画面の一例を示す説明図である。 図26は、管理端末2に表示される人脈検索画面の一例を示す説明図である。
 前記課題を解決するためになされた第1の発明は、施設の利用者の顔認証を実行する顔認証サーバに対し、前記施設における入退場用のゲート装置の前記利用者の通過時に前記顔認証の処理要求を行って、その認証結果により前記ゲート装置の開閉を制御するゲート開閉制御装置であって、前記ゲート装置を通過する前の前記利用者を撮影し、前記利用者の認証用の顔画像を取得する顔画像取得部と、前記認証用の顔画像に基づき、前記顔認証サーバに対して前記顔認証の処理要求を送信する送信部と、前記顔認証サーバから返信される認証結果を受信する受信部と、前記認証結果を前記ゲート装置の開閉制御信号に反映させる制御部と、を備えた構成とする。
 これによると、利用者の顔認証を顔認証サーバによって実行し、その認証結果をゲート装置の開閉制御信号に反映させるため、施設を利用する利用者の顔画像を安全に管理しつつ、施設への利用者の入退場時の顔認証を簡易に実行することができる。
 また、第2の発明は、前記ゲート装置から電力供給を受ける給電部を備えた構成とする。
 これによると、簡易な構成により電力供給を受けることが可能となる。また、ゲート装置を無停電電源装置(または非常用電源)に接続した構成とすれば、施設内で停電が発生した場合でも、ゲート装置は通常の動作を行うことが可能であり、施設のセキュリティを維持することが可能となる。
 また、第3の発明は、前記認証用の顔画像を記憶する記憶部を更に備え、前記記憶部に記憶された前記認証用の顔画像は、前記顔認証処理が完了した後に削除される構成とする。
 これによると、不特定の者が利用するゲート装置にゲート開閉制御装置が付設される場合でも、ゲート開閉制御装置に顔画像が長期的に保存されることを回避し、利用者の顔画像をより安全に管理することが可能となる。
 また、第4の発明は、施設の利用者の顔認証を実行する顔認証サーバに対し、前記施設における入退場用のゲート装置の前記利用者の通過時に前記顔認証の処理要求を行って、その認証結果により前記ゲート装置の開閉を制御するゲート開閉制御方法であって、前記ゲート装置を通過する前の前記利用者を撮影し、前記利用者の認証用の顔画像を取得し、前記認証用の顔画像に基づき、前記顔認証サーバに対して前記顔認証の処理要求を送信し、前記顔認証サーバから返信される認証結果を受信し、前記認証結果を前記ゲート装置の開閉制御信号に反映させる構成とする。
 これによると、利用者の顔認証を顔認証サーバによって実行し、その認証結果をゲート装置の開閉制御信号に反映させるため、施設を利用する利用者の顔画像を安全に管理しつつ、施設への利用者の入退場時の顔認証を簡易に実行することができる。
 以下、本開示の実施の形態を、図面を参照しながら説明する。
 図1は、本実施形態に係る顔認証システムの全体構成図である。
 この顔認証システムは、顔認証機1と、管理端末2と、顔認証サーバ3(クラウドサーバ)と、登録装置4(顔認証登録装置)を備えている。顔認証サーバ3は、顔管理サーバ5(顔認証管理サーバ)と、顔照合サーバ6と、を備えている。
 顔認証機1と管理端末2と登録装置4と顔管理サーバ5と顔照合サーバ6とは、インターネットなどのネットワークを介して接続されている。顔認証システムは、顔認証サービスの提供者(事業者)ごとに構築される。顔認証機1は、建物の出入口や部屋の出入口など、顔認証が必要とされる場所ごとに複数設置される。登録装置4は、施設の来訪者等の受付を行う受付カウンタなどに配置される。顔照合サーバ6は、顔認証機1の台数などに応じて所要の数が設けられる。
 顔認証機1は、カメラ11を備えており、このカメラ11により、利用者(施設の来訪者や、施設内の会社や店舗等における勤務者など)が写る撮影画像を取得する。また、顔認証機1は、ディスプレイ12を有しており、このディスプレイ12により、顔照合サーバ6から取得した顔認証結果を表示して、顔認証結果を利用者に通知する。
 管理端末2は、顔認証システムの管理者が操作するものであり、パーソナルコンピュータ(PC)で構成され、顔認証機1、登録装置4、顔管理サーバ5および顔照合サーバ6の動作を管理する管理アプリケーションがインストールされている。この管理アプリケーションにより、管理者が種々の管理業務を行うことができる。なお、管理アプリケーションはWebアプリケーションとして実装される。なお、管理者については、顔認証システムにおける各情報に対して異なるアクセス権限を有する複数の管理者グループが設定されている。
 登録装置4は、利用者の顔認証の処理に用いられる情報(以下、認証用情報という。)を取得する。認証用情報には、各利用者の登録用の顔画像のみならず、その顔画像以外の情報であって利用者の特定に用いられる特定情報が含まれ得る。
 特定情報としては、利用者の名刺に表示された情報、利用者が所持する決済用のカード(例えば、クレジットカードやキャッシュカード)に表示された情報、及び施設内における利用者の滞在場所を示す情報などを用いることができる。なお、特定情報には、利用者の氏名のように永続的に利用者を特定可能な情報が含まれ得る。ただし、特定情報は、例えば、施設の利用者に付与される利用者番号や、施設内で利用者が使用する会議室(面談が可能な任意のスペースを含む)の番号や、宿泊施設等で利用者が滞在する部屋の番号のように、利用者を一時的に特定可能な情報であってもよい。
 顔管理サーバ5は、利用者の情報(個人情報を含む)を一元管理する。具体的には、顔管理サーバ5は、各利用者について、登録用の顔画像のデータおよび特定情報を関連付けて蓄積し、それらを管理する。顔管理サーバ5は、登録用の顔画像および特定情報を、利用者の登録時に登録装置4から取得する。また、顔管理サーバ5は、登録用の顔画像および特定情報に含まれる少なくとも一部の情報を管理端末2(すなわち、管理者)から取得してもよい。
 顔照合サーバ6は、顔認証時に、顔認証の対象者の認証用の顔画像のデータを顔認証機1から取得して、その顔画像のデータから対象者の顔特徴量データを生成して、その対象者の顔特徴量データと、自装置に保管された登録者(登録済みの利用者)の顔特徴量データとを比較することによる顔照合を行って、対象者が登録者か否かを判定する顔認証を行う。
 また、顔照合サーバ6は、顔認証に先だって、利用者の登録時に、利用者の登録用の顔画像のデータを顔管理サーバ5(または登録装置4)から取得して、その顔画像のデータから利用者の顔特徴量データを生成して、自装置に保管する。場合によっては、顔照合サーバ6は、利用者の撮影画像を管理端末2(すなわち、管理者)から取得して、その撮影画像から顔画像のデータを取得することもできる。
 なお、本実施形態では、顔管理サーバ5(顔画像管理部)と顔照合サーバ6(顔画像照合部)とを、それぞれ物理的に異なる情報処理装置内に存在するものとしたが、単一の情報処理装置内に存在するものとしてもよい。
 また、本実施形態では、管理端末2と顔管理サーバ5とを設けるようにしたが、管理端末2と顔管理サーバ5とを単一の情報処理装置で構成することができる。例えば顔管理サーバ5に管理アプリケーションをインストールすることで、顔管理サーバ5が管理端末2を兼用することができる。また、顔認証システムの情報へのアクセス権限が限定された管理者(例えば、施設内の会社や店舗等における勤務者など)は、自身の情報処理端末(PCやタブレットなど)から顔管理サーバ5にアクセスし、利用者の個人情報に比べて秘匿の必要性が低い情報(例えば、後述する利用者が出席した会議に関する情報や、利用者の人脈に関する情報など)を参照することが可能である。
 また、本実施形態では、顔特徴量照合を行うようにしたが、顔照合は、顔特徴量照合に限定されず、機械学習などを適用した照合方法を採用してもよい。さらに、本実施形態は、顔認証以外の生体認証にも適用することができる。
 次に、顔認証システムを適用した施設の利用者の行為によって発生するイベントの例について説明する。図2は、施設において発生するイベントの例を示す説明図である。
 図2に示すように、施設の利用者10は、受付に配置された登録装置4により、施設の利用者としての登録(すなわち、顔照合の処理に用いられる情報の登録)の操作を行うことができる。なお、所定期間内に施設を再訪した登録済みの利用者については、登録装置4による登録を省略することができる。
 施設では、施設内での人物(登録された利用者を含む)の行為によって発生する様々なイベント(図2中の2点鎖線内を参照)ごとに顔認証が実行される。
 例えば、登録された利用者10は、施設内での利用者10の通行を管理するセキュリティゲート前で顔認証を受けることにより、当該セキュリティゲートを通過することが可能となる。セキュリティゲートには、ゲート装置16と連携する(すなわち、扉部の開閉状態を制御する)顔認証機1を設置することができる。
 また例えば、登録された利用者10は、施設内の会議室前において顔認証を受けることにより、当該会議室の入室が可能となる。会議室前には、会議室のドアを施錠するロック装置と連携する(すなわち、ドアの施錠またはその解除を制御する)顔認証機1を配置することができる。なお、例えばホテルなどの宿泊施設では、会議室の代わりに、利用者が宿泊する部屋のドアのロック装置と連携する顔認証機1を設置することができる。
 また例えば、登録された利用者10は、施設内のレストラン内において顔認証を受けることにより、当該レストランの利用料金の自動決済が可能となる。レストランには、利用者10の顔を撮影可能なカメラ11が設置され、顔認証機1は、レストランでの利用料金の支払いに用いられる決済端末装置(または決済システム)と連携する。
 また例えば、登録された利用者10は、施設内のジムにおいて顔認証を受けることにより、当該ジムの利用料金の自動決済が可能となる。ジムには、利用者の顔を撮影可能なカメラ11が設置され、顔認証機1は、ジムでの利用料金の支払いに用いられる決済端末装置(または決済システム)と連携する。
 なお、施設内で発生するイベントには、上述の例に限らず、例えば、施設の駐車場における利用料金の決済や、施設内のランドリーサービスの利用料金の決済や、施設内の浴場の利用料金の決済などの種々の事象が含まれ得る。
 また、例えば、施設内でサービスを提供する会社の従業員等が利用者として登録された場合、施設のバックヤード(例えば、倉庫、作業場など)の出入口に顔認証機1を配置することにより、バックヤードにおけるセキュリティを確保することが可能となる。
 次に、照合グループについて説明する。図3は、照合グループの概要を示す説明図である。
 本実施形態では、利用者が顔認証を受ける顔認証機1の設置場所などに応じて、利用者をグループ分けして各利用者に照合グループを設定する。また、利用者と同様に、顔認証機1の設置場所などに応じて、顔認証機1をグループ分けして、各顔認証機1に照合グループを設定する。さらに、顔認証機1に対応する顔照合サーバ6、すなわち、顔認証機1から顔照合の問合せ(リクエスト)を受け付ける顔照合サーバ6を、顔認証機1と同様にグループ分けして、各顔照合サーバ6に照合グループを設定する。
 例えば、複数の会社が入居しているマルチテナントの建物の玄関に設置された顔認証機1では、複数の会社に所属する利用者が顔認証を受ける。一方、所属する組織が異なる利用者の情報を、同一のデータベースで管理することができない。そこで、このような場合には、複数の会社ごとの照合グループを形成して、照合グループ単位で利用者の登録情報を保管し、顔認証機1では、会社ごとの照合グループの顔照合サーバ6に対して顔照合の問合せを行う。
 利用者は、自身が属する照合グループに対応する顔認証機1でのみ、認証を受けることができる。したがって、登録済みの利用者でも、自分の照合グループに属さない顔認証機1、例えば自分の入館が許可されていない建物の顔認証機1では、認証を受けることができない。例えば、ある事業所に勤務している利用者が、別の事業所に出向いた場合、その事業所の顔認証機1では認証を受けることができない。
 次に、顔認証機1から顔照合サーバ6に対する顔照合の問合せについて説明する。図4A、図4B、図4Cは、顔認証機1で行われる顔照合の問合せの概要を示す説明図である。
 顔認証機1では、自装置と同じ照合グループに属する顔照合サーバ6に対して顔照合の問合せを行い、問合せ先(要求先)となる顔照合サーバ6に顔照合のリクエスト(顔認証の処理要求)を送る。また、顔認証機1には、照合グループ情報として、顔照合サーバ6のネットワークアドレス(IPアドレス)を保持しており、このネットワークアドレスに基づいて、自装置に対応する顔照合サーバ6に顔照合の問合せを行う。
 この顔認証の問合せ方法には、図4Aに示す一斉問合せと、図4Bに示すランダム問合せと、図4Cに示す順次問合せ(問合せ先切り替え)とがある。
 図4Aに示すように、一斉問合せの場合、顔認証機1は、複数の照合グループの各々に対応した顔照合サーバ6に対して一斉に顔照合の問合せを行う。例えば、顔認証機1が、マルチテナントの建物の玄関に設置され、複数の照合グループの利用者が顔認証を受ける場合、顔認証機1は、各グループの顔照合サーバ6に対して一斉に顔照合のリクエストを送る。
 なお、1つの顔照合サーバ6の負荷を軽減するため、1つの照合グループに属する利用者の顔特徴量データを複数の顔照合サーバ6に分割して保管することも可能である。この場合にも、顔認証機1は、自身と同じ照合グループ内で互いに登録内容が異なる全ての顔照合サーバ6に対して一斉に顔照合の問合せを行う。
 図4Bに示すように、ランダム問合せの場合、顔認証機1は、自身と同じ照合グループ内の複数の顔照合サーバ6の中から、顔照合の問合せ先となる顔照合サーバ6をランダムに選択する。複数の顔照合サーバ6は登録内容が同一である。すなわち、同一の利用者を照合対象とし、同一の利用者の顔特徴量データを保管している。このような問合せ方法では、顔認証機1からの問合せが各顔照合サーバ6に振り分けられるため、各顔照合サーバ6の負荷を軽減することができ、負荷分散を図ることができる。
 図4Cに示すように、順次問合せの場合、顔認証機1は、自身と同じ照合グループ内の複数の顔照合サーバ6の中から、顔照合の問合せ先を順次選択する。具体的には、顔照合サーバ6に順番(優先順位)を付与して、顔認証機1は、その順番にしたがって顔照合サーバ6を選択し、順位の高い顔照合サーバ6から応答がない場合には、送信先を顔照合サーバ6に切り替える。すなわち、顔認証機1は、照合グループ内の第1順位の顔照合サーバ6を選択して、その顔照合サーバ6に対して顔認証を要求する。そして、顔認証機1は、顔照合サーバ6から応答がない場合には、同じ照合グループ内の次順位の別の顔照合サーバ6を選択して、その顔照合サーバ6に対して顔認証を要求する。このような制御により冗長化(バックアップ)を図ることができる。
 次に、顔照合ユニットについて説明する。図5A、図5B、図5Cは、顔照合ユニットの概要を示す説明図である。
 顔照合サーバ6には、顔照合を行う顔照合ユニットを複数設けることができる。この顔照合ユニットは、顔照合プログラムを実行する顔照合プロセスと、顔照合の比較対象となる利用者の情報(顔特徴量データ)が登録された顔照合データベースとを有している。
 この顔照合ユニットは、照合グループごとに設けられており、照合グループに属する顔認証機1からの顔照合のリクエストに応じて顔照合を行う。したがって、1つの顔照合サーバ6で、複数の照合グループに対応することができる。
 ここで、顔認証機1は、照合グループ情報として、顔照合サーバ6のネットワークアドレス(IPアドレス)を保持しており、このネットワークアドレスに基づいて、自装置に対応する顔照合サーバ6に顔照合の問合せを行うことができる。さらに、本実施形態では、顔認証機1は、顔照合ユニット単位のネットワークアドレス(IPアドレス)を保持しており、このネットワークアドレスに基づいて、自装置に対応する顔照合ユニットに顔照合の問合せを行うことができる。
 また、顔照合データベースは、照合グループごとに設けられるため、利用者の顔特徴量データを照合グループ単位で保管することができる。顔照合プロセスは、グループ単位で保管されている顔特徴量データと、同一のグループの顔認証機1から取得した顔画像データから生成した顔特徴量データとの照合処理を実行する。
 ここで、顔認証機1と顔照合ユニットとの対応関係には種々の態様がある。図5Aに示す例は、顔照合サーバ6に、顔認証機1が属する照合グループの顔照合ユニットが1つ設けられており、顔認証機1と顔照合サーバ6とが1対1で対応している。
 図5Bに示す例は、顔認証機1と顔照合サーバ6とが1対1で対応するが、顔照合サーバ6に、顔認証機1が属する照合グループの顔照合ユニットが2つ設けられている。この場合、マルチテナントの建物の玄関に設置された顔認証機1の場合に、所属する組織が異なる利用者の情報(例えば、利用者A、利用者B)を、異なる照合データベースで管理することができる。
 図5Cに示す例は、顔認証機1と顔照合サーバ6とが1対2で対応し、顔認証機1が、2つの顔照合サーバ6に対して顔照合の問合せ(利用者の照合リクエスト)を行う。この場合、異なる顔照合サーバ6に、同一の顔照合ユニット、すなわち、同一の利用者の顔特徴量データで顔照合を行う顔照合ユニットを2つ以上設けることで、顔照合サーバ6の負荷分散や死活対応を図ることができる。
 次に、顔認証機1の概略構成について説明する。図6は、顔認証機1の概略構成を示すブロック図である。
 顔認証機1は、カメラ11(顔画像取得部)と、ディスプレイ12(表示部)と、通信部13(送信部、受信部)と、記憶部14と、制御部15と、制御信号送信部17と、を備えている。
 カメラ11は、所定の撮影エリアを常時撮影し、撮影エリアに人物が入るとその人物が撮影され、顔認証の対象者(登録済みの利用者を含む)の撮影画像を取得することができる。なお、省電力化のため、人感センサ(図示せず)を設けて、人の到来を検知してカメラ11が起動するようにしてもよい。
 ディスプレイ12は、顔認証の進行状況や顔認証結果を表示し、顔認証を受ける人物は、それらを確認することができる。なお、対象者の認証結果を出力する出力部としてスピーカーを設けて、顔認証結果を音声で通知するようにしてもよい。また、ディスプレイ12は、顔認証機1の設置場所によっては(例えば、セキュリティゲートに顔認証機1を設置する場合)、省略することができる。
 通信部13は、ネットワークを介して顔照合サーバ6と通信を行う。本実施形態では、顔画像データを顔照合サーバ6に送信する。また、顔照合サーバ6から利用者の認証結果を受信する。また、通信部13は、ネットワークを介して顔管理サーバ5と通信を行う。本実施形態では、顔管理サーバ5から照合グループ情報などを受信する。
 記憶部14は、利用者の撮影画像(顔画像)のデータ、照合グループ情報、制御部15を構成するプロセッサで実行される制御プログラムなどを記憶する。
 制御部15は、起動処理部21と、顔画像抽出部22と、顔照合要求部23と、認証結果通知部24と、認証結果調整部25(履歴情報生成部)と、稼働状況監視部26と、を備えている。この制御部15は、プロセッサで構成され、制御部15の各部は、記憶部14に記憶されたプログラムをプロセッサで実行することで実現される。
 起動処理部21は、顔認証機1の起動時に、顔管理サーバ5から照合グループ情報を取得して、記憶部14に記憶する。なお、照合グループ情報の取得は、これに限らず、照合グループ情報の更新などに伴って、顔管理サーバ5から照合グループ情報を対象の顔認証機1へ配信するようにしても良い。
 顔画像抽出部22は、カメラ11から顔認証の対象者の撮影画像を取得して(カメラ画像キャプチャ)、その撮影画像から人物の顔を検知して(顔検知)、検知した顔のサイズが適正であるかを判定し(顔サイズチェック)、撮影画像から顔領域を切り出して(顔切出し)、対象者の顔画像(認証用の顔画像)のデータを取得することができる。なお、顔画像データは、顔領域の画像のみのデータでもよいが、撮影画像(所定の撮影エリアの画像)のデータと、その撮影画像のデータ上の顔領域の位置情報(顔枠情報)との組み合わせとしてもよい。
 顔照合要求部23は、自装置と照合グループが一致する顔照合サーバ6に顔照合のリクエストを通信部13によって送信する。
 認証結果通知部24は、通信部13によって顔照合サーバ6から取得した顔認証結果をディスプレイ12に表示することにより、顔認証結果を利用者に通知する。
 認証結果調整部25は、顔照合サーバ6から取得した利用者の顔照合結果に基づき外部装置16と連携するための制御を行う。外部装置16としては、例えば、施設における利用者の通行を管理するゲート装置(図2参照)、施設における会議室や所定エリアへの入退室を管理するドアのロック装置、及び利用者が施設内で受けたサービスや購入品等に対する支払いを行うための決済端末装置などを用いることができる。また、認証結果調整部25は、会議室のドアのロック装置と連携する場合には、会議室に入室した複数の利用者を関連づけた入室履歴の情報を生成することができる。
 顔認証機1と外部装置16とは、通信ケーブル等によって直接接続されるか、公知のネットワークを介して通信可能に接続される。認証結果調整部25は、接続アプリケーションで構成されることにより、利用者の顔照合結果を、外部装置16を含む外部システムのサーバ等に通知することができる。
 稼働状況監視部26は、自装置の稼働状況を監視し、自装置の稼働状況を顔管理サーバ5に通知する。
 制御信号送信部17は、外部装置16に対し、その動作を制御するめの制御信号を送信する。
 次に、管理端末2について説明する。図7は、管理端末2の概略構成を示すブロック図である。
 管理端末2は、通信部31と、ディスプレイ32(表示部)と、入力デバイス33(操作部)と、記憶部34と、制御部35と、を備えている。
 通信部31は、ネットワークを介して顔管理サーバ5と通信を行う。本実施形態では、顔管理サーバ5から画面情報などを受信し、これに応じた管理者の操作情報などを顔管理サーバ5に送信する。
 ディスプレイ32は、各種の画面を表示する。入力デバイス33は、マウスやキーボードなどであり、ディスプレイ32に表示された画面の操作を行う。
 記憶部34は、制御部35を構成するプロセッサで実行されるプログラム(管理アプリケーション)などを記憶する。
 制御部35は、GUI(Graphical User Interface)制御部38を備えている。この制御部35は、プロセッサで構成され、制御部35の各部は、記憶部34に記憶されたプログラム(管理アプリケーション)をプロセッサで実行することで実現される。
 GUI制御部38は、顔管理サーバ5から配信される各種の操作画面をディスプレイ32に表示する。また、入力デバイス33を用いた管理者の入力操作に応じて、入力情報を取得するとともに画面制御を行う。本実施形態では、GUI制御部38は、ログインに関連する画面、具体的にはログイン画面に関する表示入力制御を行う。また、GUI制御部38は、利用者の管理に関連する画面、具体的には、利用者の情報に関する登録(個別登録、一括登録)、参照、更新および削除に関連する画面に関する表示入力制御を行う。また、GUI制御部38は、照合グループ管理に関連する画面、具体的には、照合グループに関する登録(個別登録、一括登録)、参照、更新および削除に関連する画面に関する表示入力制御を行う。また、GUI制御部38は、認証機管理に関連する画面、具体的には、認証機と照合グループとの間の関連付けに関する登録、参照、更新および削除に関連する画面に関する表示入力制御を行う。また、GUI制御部38は、認証ログ(顔認証の履歴情報)の参照画面に関する表示入力制御を行う。
 次に、登録装置4の概略構成について説明する。図8は、登録装置4の概略構成を示すブロック図である。
 登録装置4は、顔撮影用のカメラ41Aおよび情報取得用のカメラ41B(個人情報取得部)と、ディスプレイ42(表示部)と、通信部43と、記憶部44と、制御部45と、を備えている。
 顔撮影用のカメラ41Aは、例えば施設の受付に立ち寄った利用者の顔を撮影することにより、利用者の撮影画像を取得することができる。
 情報取得用のカメラ41Bは、利用者が提示した名刺を撮影することにより、名刺の撮影画像を取得することができる。ただし、情報取得用のカメラ41Bは、名刺に限らず、利用者を特定可能な情報が表示された利用者の所持品(例えば、利用者の決済用のカード、利用者の滞在先の情報が記載されたカードなど)を撮影し、その撮影画像を取得することもできる。登録装置4には、情報取得用のカメラ41Bの撮影を確実に行うために、カメラ41Bの撮影エリア内に利用者が名刺等を簡易に配置できる載置台(載置面)116(図14の(C)参照)を設けることができる。
 なお、登録装置4では、1つのカメラにより顔撮影用および情報取得用のカメラ41A、41Bを構成してもよい。また、顔撮影用のカメラ41Aおよび情報取得用のカメラ41Bの撮影タイミングについては、登録装置4における利用者の操作(例えば、撮影ボタンの押下)によって決定することができる。或いは、施設の受付担当者が、撮影タイミングを決定してもよい。
 さらに、登録装置4には、利用者が所持する情報記録媒体(例えば、RFIDタグ)から利用者の特定情報を無線通信によって読み取り可能な情報読取装置(例えば、RFIDリーダ)を設けることも可能である。
 ディスプレイ42は、利用者に対して認証用情報(利用者の個人情報を含む)の登録手順(図14の(A)-(F)参照)を表示することができる。また、ディスプレイ42にスピーカーを付設することにより、登録手順等を利用者に音声で案内するようにしてもよい。また、ディスプレイ42をタッチパネルにより構成することで、利用者がタッチ操作により入力した情報を取得することが可能となる。
 通信部43は、ネットワークを介して顔管理サーバ5と通信を行う。本実施形態では、顔画像データおよび特定情報を顔管理サーバ5に送信する。
 記憶部44は、利用者の撮影画像(顔画像)のデータ、利用者の特定情報、及び制御部45を構成するプロセッサで実行される制御プログラムなどを記憶する。
 制御部45は、顔画像抽出部46と、特定情報取得部47と、登録要求部48と、GUI制御部49と、稼働状況監視部50と、を備えている。この制御部45は、プロセッサで構成され、制御部45の各部は、記憶部44に記憶されたプログラムをプロセッサで実行することで実現される。
 顔画像抽出部46は、顔撮影用のカメラ41Aから顔認証の対象者の撮影画像を取得し、その撮影画像から人物の顔を検知し、利用者の顔画像が適切に取得されたか否かを判定することができる。また、取得された顔画像が適切でない場合には、顔画像抽出部46は、利用者に再撮影を促すメッセージをディスプレイ42に表示させることができる。なお、顔画像抽出部46は、上述の顔認証機1の顔画像抽出部22と同様に、カメラ画像キャプチャ、顔検知、顔サイズチェック、及び顔切出しの機能を有してもよい。
 特定情報取得部47は、OCR(光学文字認識)機能を備え、情報取得用のカメラ41Bの撮影画像から抽出された文字や記号などから、特定情報(ここでは、名刺記載情報)を生成する。
 登録要求部48は、顔管理サーバ5に対し、利用者の登録のリクエストを通信部43によって送信する。
 GUI制御部49は、顔管理サーバ5から配信される利用者に対する各種の案内画面をディスプレイ42に表示する。また、ディスプレイ42(ここでは、タッチパネル)の入力機能を用いた利用者の入力操作に応じて、入力情報を取得するとともに画面制御を行う。
 稼働状況監視部50は、自装置の稼働状況を監視し、自装置の稼働状況を顔管理サーバ5に通知する。
 次に、顔管理サーバ5の概略構成について説明する。図9は、顔管理サーバ5の概略構成を示すブロック図である。
 顔管理サーバ5は、通信部51と、記憶部52と、制御部53と、を備えている。
 通信部51は、ネットワークを介して管理端末2と通信を行う。また、通信部51は、ネットワークを介して顔認証機1と通信を行う。また、通信部51は、登録装置4と通信を行う。また、通信部51は、顔照合サーバ6と通信を行う。
 記憶部52は、顔情報データベース、顔認証機1と照合グループとの間の関連付け情報に関するデータベース、顔照合サーバ6と照合グループとの間の関連付け情報に関するデータベース、管理者アクセスログ、制御部53を構成するプロセッサで実行される制御プログラムなどを記憶する。
 顔情報データベースには、登録された各利用者に関する情報として、登録用の顔画像が蓄積される。また、顔情報データベースには、各利用者の特定情報が登録用の顔画像に関連付けられて蓄積される。また、顔情報データベースには、照合グループなどが登録される。なお、利用者の顔画像および特定情報は、プライバシー保護のために暗号化された状態で記憶してもよい。さらに、顔情報データベースには、利用者の顔画像および特定情報の一部を、匿名化した情報で置き換えた状態で記憶してもよい。
 制御部53は、管理者アクセス管理部61と、利用者管理部62と、照合グループ管理部63と、機器管理部64と、顔照合サーバ管理部65と、顔情報管理部66と、データベース管理部67と、稼働状況監視部68と、認証ログ提示部69と、暗号化部70と、匿名化情報生成部80と、画像生成部90と、を備えている。この制御部53は、プロセッサで構成され、制御部53の各部は、記憶部52に記憶されたプログラムをプロセッサで実行することで実現される。制御部53の各部は、WebAPI(Web Application Programming Interface)として構成される。
 管理者アクセス管理部61は、管理端末2から自装置にアクセスする管理者のアクセス権限に応じて、管理者のアクセス(ログイン)を許可または拒否する。管理者アクセス管理部61は、顔管理サーバ5および顔照合サーバ6に対する管理端末2からのアクセス(ログイン)の状況を監視し、管理端末2からのアクセスを検知すると、そのアクセスに関する情報(アクセスした管理者や日時など)を管理者アクセスログ(履歴情報)として記録する。これにより、顔管理サーバ5は、管理端末2からの管理者アクセスログの参照の要求に応じて、管理端末2に管理者アクセスログを提供し、管理者が管理者アクセスログを閲覧することができる。
 また、管理者アクセス管理部61は、自装置に対する管理端末2からのアクセスを管理し、管理者が管理端末2を操作して自装置にアクセスすると、そのときの情報を管理者アクセスログ(履歴情報)として記憶部52に蓄積する。また、管理端末2からの参照要求に応じて、管理者アクセスログを管理端末2に提示する。
 利用者管理部62は、登録用の顔画像および特定情報などの利用者に関する情報を管理し、管理端末2からの要求に応じて、利用者に関する必要な処理を行う。本実施形態では、管理端末2から、利用者に関する登録、参照、更新および削除の要求が行われ、利用者管理部62は、その要求に応じて必要な処理を行う。また、利用者管理部62は、利用者が出席した会議に関する情報や、利用者の人脈に関する情報を管理する。
 照合グループ管理部63は、照合グループに関する情報を管理し、管理端末2からの要求に応じて、照合グループに関する必要な処理を行う。本実施形態では、管理端末2から、照合グループに関する登録、参照、更新および削除の要求が行われ、その要求に応じて必要な処理を行う。また、照合グループ情報、すなわち、顔認証機1が自分の照合グループと一致した顔照合サーバ6に顔認証を要求するために必要となる情報を顔認証機1ごとに生成して、その照合グループ情報を顔認証機1に提供する。
 機器管理部64は、顔認証機1および登録装置4に関する情報を管理し、管理端末2からの要求に応じて、顔認証機1および登録装置4に関する必要な処理を行う。本実施形態では、管理端末2から、顔認証機1と照合グループとの間の関連付けに関する登録、参照、更新および削除の要求が行われ、その要求に応じて必要な処理を行う。
 顔照合サーバ管理部65は、顔照合サーバ6に関する情報を管理し、管理端末2からの要求に応じて、顔照合サーバ6に関する必要な処理を行う。本実施形態では、管理端末2から、顔照合サーバ6と照合グループとの間の関連付けに関する登録、参照および削除の要求が行われ、その要求に応じて必要な処理を行う。
 顔情報管理部66は、自装置に保管された利用者の顔情報(顔画像、特定情報など)と、顔照合サーバ6に保管された利用者の顔情報(利用者の顔特徴量データ)とが整合した状態に維持されるように、顔情報の同期を行う。また、顔情報管理部66は、顔情報(利用者の顔特徴量データ)のコピーを行う。
 データベース管理部67は、自装置に設けられたデータベースを管理し、データベースのバックアップおよびレストアを行う。
 稼働状況監視部68は、自装置の稼働状況を監視し、また、顔認証機1、登録装置4および顔照合サーバ6からの稼働状況の通知を受け取り、管理端末2での管理者の操作に応じて、顔認証機1、登録装置4、自装置(顔管理サーバ5)、および顔照合サーバ6の稼働状況を管理端末2に画面表示する。
 認証ログ提示部69は、管理端末2からの参照要求に応じて、顔照合サーバ6から認証ログを取得して、認証ログを管理端末2に提示する。
 暗号化部70は、利用者の顔画像および特定情報の少なくとも一部を暗号化処理することができる。暗号化された情報は、記憶部52に記憶される。なお、顔管理サーバ5では、暗号化部70によって暗号化された情報に対応するオリジナルの情報(暗号化処理前の情報)を記憶部52から削除してもよい。
 匿名化情報生成部80は、利用者の顔画像および特定情報の少なくとも一部を匿名化する処理を行うことができる。匿名化情報生成部80は、匿名化の処理として、例えば、利用者の顔画像および特定情報の一部をダミー情報で置き換えることができる。また、匿名化の処理では、利用者の顔画像および特定情報において欠落している情報(例えば、利用者から提供を拒否された情報)にダミー情報を用いてもよい。匿名化された情報は、記憶部52に記憶される。なお、暗号化部70は、匿名化情報生成部80によって匿名化された情報に対応するオリジナルの情報(匿名化処理前の情報)のみを暗号化してもよい。
 画像生成部90は、利用者管理部62および機器管理部64による情報の管理状態を管理者が確認または変更するための管理用画面を生成する。管理用画面は、管理端末2等に対して配信される。
 次に、顔照合サーバ6の概略構成について説明する。図10は、顔照合サーバ6の概略構成を示すブロック図である。
 顔照合サーバ6は、通信部71と、記憶部72と、制御部73と、を備えている。
 通信部71は、ネットワークを介して顔認証機1と通信を行う。本実施形態では、顔認証機1から顔画像データなどを受信する。また、利用者の認証結果などを顔認証機1に送信する。また、通信部71は、ネットワークを介して顔管理サーバ5と通信を行う。本実施形態では、各種の処理のリクエストなどを顔管理サーバ5から受信し、それに応じたレスポンスなどを顔管理サーバ5に送信する。
 記憶部72は、顔照合データベース、利用者と特徴量との間の関連付け情報、自装置の照合グループに関する情報、認証ログ、制御部73を構成するプロセッサで実行される制御プログラムなどを記憶する。
 顔照合データベースには、登録された各利用者に関する情報として、利用者の顔特徴量データなどが登録される。また、顔照合データベースは、照合グループごとに設けられ、利用者の顔特徴量データをグループ単位で保管する。ここで、登録された利用者の顔特徴量データは、予期しない顔照合データベースからの消失に備えて、顔照合サーバ6内に設けられたHDD(Hard Disk Drive)やSSD(Solid State Drive)等の不揮発性メモリへバックアップ保存してもよい。
 制御部73は、照合グループ管理部81と、画像品質チェック部82と、顔画像抽出部83と、顔特徴量生成部84と、顔特徴量管理部85と、顔特徴量照合部86と、認証ログ管理部87と、データベース管理部88と、稼働状況監視部89と、を備えている。この制御部73は、プロセッサで構成され、制御部73の各部は、記憶部72に記憶されたプログラムをプロセッサで実行することで実現される。制御部73の各部は、WebAPIとして構成される。
 照合グループ管理部81は、自装置が属する照合グループを管理し、顔管理サーバ5からの要求に応じて、照合グループに関する登録や削除の処理を行う。
 画像品質チェック部82は、撮影画像内の顔領域の画像が所定の品質を満足しているか否かを判定する。具体的には、対象となる画像から、マスクの着用の有無およびサングラスの着用の有無を検知し、また、顔認証適合度(顔の向きや表情による評価値)を算出する。
 顔画像抽出部83は、利用者登録時に、登録装置4によって取得された利用者の撮影画像から顔画像を抽出する。このとき必要に応じて、顔画像抽出部83は、撮影画像から人物の顔を検知し(顔検知)、検知した顔のサイズが適正であるかを判定し(顔サイズチェック)、撮影画像から顔領域を切り出して(顔切出し)、人物の顔画像を取得する。なお、顔画像抽出部83は、顔認証時に、顔認証機1によって取得された対象者の撮影画像から顔画像を抽出することもできる。
 顔特徴量生成部84は、利用者登録時および顔認証時に、登録用の顔画像および認証用の顔画像のデータから顔特徴点を検出して顔特徴量データをそれぞれ生成する。
 顔特徴量管理部85は、利用者登録時に、顔特徴量生成部84で生成した利用者の顔特徴量データを、利用者の照合グループに対応した顔照合データベースに登録する。また、更新や削除の際に、顔管理サーバ5からの要求に応じて、顔照合データベースに登録された顔特徴量データを削除する。また、顔特徴量生成や顔照合のアルゴリズムに関係するプログラムのバージョンアップが行われた場合に、顔管理サーバ5からの要求に応じて、顔照合データベースに登録された顔特徴量データを、新しいプログラムに対応するように更新する。
 顔特徴量照合部86は、顔認証時に、顔認証機1から取得した認証用の顔画像のデータから生成した対象者の顔特徴量データと、自装置に保管された登録者(登録済みの利用者)の顔特徴量データとを比較して、対象者が登録者か否かを判定する。この顔特徴量照合部86は、自装置に関連付けされた照合グループに対応したものであり、自装置に複数の照合グループが関連付けられている場合には、照合グループごとの複数の顔特徴量照合部86を有する。この顔特徴量照合部86(顔照合プロセス)は、顔照合データベースと組み合わせて顔照合ユニットを構成する。
 なお、顔特徴量照合部86では、対象者と登録者との類似度(照合スコア)を算出する。この類似度を所定のしきい値と比較することで、顔認証の成否を判定することができる。この成否の判定結果を照合結果として顔認証機1に通知する他に、類似度の高い登録者に関する人物IDや類似度を照合結果として顔認証機1に通知するようにしてもよい。
 認証ログ管理部87は、顔認証機1から自装置に顔認証の要求が行われると、そのときの情報、すなわち、顔認証の要求元の顔認証機1の機器ID、顔照合結果などの情報を、認証ログとして記憶部72に蓄積する。また、顔管理サーバ5からの要求に応じて、認証ログを顔管理サーバ5に提供する。
 データベース管理部88は、自装置に設けられたデータベースを管理し、データベースのバックアップおよびレストアを行う。
 稼働状況監視部89は、自装置の稼働状況を監視し、自装置の稼働状況を顔管理サーバ5に通知する。
 なお、本実施形態では、顔照合サーバ6の主たる機能として、顔画像抽出、顔特徴量生成、および顔特徴量照合の各機能を備えているが、これらの機能を互いに独立した別の情報処理装置で構成することができる。例えば、顔画像抽出の機能を、他の顔特徴量生成および顔特徴量照合などの機能とは独立した別の情報処理装置で構成するようにしてもよい。
 次に、外部装置16の概略構成について説明する。図11は、外部装置16の概略構成を示すブロック図である。
 外部装置16は、制御信号受信部91と、駆動部92と、電源部93と、制御部94と、を備えている。
 制御信号受信部91は、顔認証機1の制御信号送信部17から送信された制御信号(外部装置16と連携する顔認証機1からの動作指令)を受信する。
 駆動部92は、顔認証機1からの制御信号に基づき、制御部94によって制御される。例えば、外部装置16がゲート装置である場合、駆動部92は、ゲート装置の扉部を開放(または閉鎖)するための動力を供給する。また、外部装置16がドアのロック装置である場合、駆動部92は、ロック装置の施錠(または施錠を解除)するための動力を供給する。なお、外部装置16が駆動される部位を備えない装置(例えば、決済端末装置)である場合には、駆動部92を省略することが可能である。
 電源部93は、外部装置16の各部に電力を供給する。また、電源部93は、顔認証機1の給電部97に電気的に接続され、当該給電部97に対しても電力を供給することが可能である。給電部97は、顔認証機1の各部に電力を供給する。また、LAN(Local Area Network)ケーブルを介して顔認証機1の給電部97と接続されることにより、PoE(Power over Ethernet)給電によって給電部97に電力を供給することができる。
 また、電源部93は、施設内全般の電力供給ラインとは独立した無停電電源装置(または非常用電源)から電力供給を受けることが可能である。これにより、例えば外部装置16としてのゲート装置は、施設内で停電が発生した場合でも、通常の動作を行うことが可能となり、施設のセキュリティを維持できるという利点がある。
 制御部94は、外部装置16の各部の動作を制御する。また、制御部94は、外部装置16として必要な処理を実行することができる。制御部94は、プロセッサで構成され、図示しない記憶部(メモリ)に記憶されたプログラムをプロセッサで実行することで実現される。
 次に、顔画像抽出処理について説明する。図12は、顔画像抽出処理の概要を示す説明図である。
 前記のように、顔認証機1の顔画像抽出部22において、顔画像抽出処理、すなわち、顔検知、顔サイズチェック、顔切出しの各処理により、利用者の撮影画像データから顔画像データを生成する処理が行われるが、この顔画像抽出処理は、顔照合サーバ6の顔画像抽出部83でも同様に行われる。
 利用者登録時には、登録装置4から顔管理サーバ5を介して顔照合サーバ6に利用者の撮影画像のデータが送られることで、顔照合サーバ6の顔画像抽出部83で顔画像抽出処理を行う。場合によっては、管理端末2から顔管理サーバ5を介して顔照合サーバ6に利用者の撮影画像のデータが送られるようにしてもよい。
 一方、顔認証時には、顔認証機1でのみ顔画像抽出処理を行い、顔照合サーバ6では顔画像抽出処理を行わないようにするとよい。この場合、顔認証機1に高精度な顔検知の機能を与える。また、顔認証機1ではカメラ11で撮影エリアを常時撮影し、顔が検知されたタイミングで顔画像情報(撮影画像データと顔枠情報)を顔照合サーバ6に送るようにする。これにより、顔画像抽出処理の負荷が複数の顔認証機1に分散され、顔照合サーバ6の負荷を軽減することができる。また、通信量の削減を図ることができるため、ネットワークの負荷を軽減することができる。そして、顔認証の応答を高速に行うことができるため、次々に現れる対象者の顔認証を効率よく行うことができる。
 すなわち、利用者の顔認証処理を顔認証機1と顔照合サーバ6とで分担することにより、従来のように利用者の顔認証処理の全てを顔認証機1へ集中させた高価な認証機を多数設ける必要がない。また、顔特徴量データの更新などが発生しても、大規模な認証機のメンテナンス作業を必要とせず、顔照合サーバ6での作業で済む。したがって、本実施形態によれば、安価な構成、かつ、作業性に優れた顔認証システムを構築することができる。
 ただし、顔認証機1が顔画像抽出の機能を備えない構成、すなわち、顔認証機1に顔画像抽出部22を設けないようにしてもよい。
 図13は、照合グループ情報による顔認証の問合せの概要を示す説明図である。
 顔管理サーバ5は、利用者が属する照合グループに関する情報と、顔認証機1と照合グループとの間の関連付け情報と、顔照合サーバ6と照合グループとの間の関連付け情報と、を保持する。また、顔管理サーバ5の照合グループ管理部63では、顔認証機1と照合グループとの間の関連付け情報と、顔照合サーバ6と照合グループとの間の関連付け情報とに基づいて、顔認証機1ごとの照合グループ情報を生成する。
 この照合グループ情報は、顔認証機1が自分の照合グループと一致した顔照合サーバ6に顔認証を要求するために必要となる情報である。この照合グループ情報には、顔認証機1が属する照合グループの識別情報(グループ番号)と、その顔認証機1から顔認証を要求する顔照合サーバ6、すなわち、顔認証機1との照合グループに対応する顔照合サーバ6の宛先情報とが含まれる。ここで、宛先情報は、具体的には、顔照合サーバ6のネットワークアドレス(例えばIPアドレス)であり、この宛先情報により、顔認証の要求先となる顔照合サーバ6が特定され、顔認証機1と、その顔認証の要求先となる顔照合サーバ6とが関連付けられる。なお、顔認証機1が複数の照合グループに所属する場合には、対応する複数の顔照合サーバ6ごとのアドレス(IPアドレス)が照合グループ情報に含まれる。
 顔認証機1では、起動時などに、起動処理部21が動作設定情報として顔管理サーバ5から照合グループ情報を取得して自装置に記憶する。顔認証機1では、人物の顔を検知すると、自装置が属する照合グループと一致する顔照合サーバ6に対して顔照合のリクエストを送る。この顔照合のリクエストには、自装置が属する照合グループの情報などを含む。
 なお、顔認証機1において、照合グループ情報などに関する設定情報を顔管理サーバ5から取得するタイミングは、起動時の他、所定のタイミングでまたは所定間隔で定期的に行うようにしてもよく、または、顔管理サーバ5から照合グループ情報を配信する構成を採用することもできる。
 顔照合サーバ6では、自装置の顔照合プロセスと照合グループとの間の関連付け情報を保持する。顔照合サーバ6では、顔認証機1からの顔認証のリクエストを受け取ると、照合グループと顔認証プロセスとの間の関連付け情報と、顔認証機1から取得した照合グループとに基づいて、顔認証機1に対応する顔認証プロセスを特定して、その顔認証プロセスに顔照合を行わせる。これにより、指定された照合グループに対応した顔認証プロセスで顔照合処理が行われる。
 ところで、本実施形態では、顔照合サーバ6において、照合グループごとに顔照合データベースを設けて、照合グループ単位で顔特徴量データを保管する。このため、顔照合時には、顔認証機1の照合グループに対応する顔照合データベースに登録された顔特徴量データを対象にして顔照合を行えばよい。一方、顔照合サーバ6において、顔認証機1の照合グループに関係なく照合を行った上で、照合結果に対してフィルタをかけるようにしてもよい。すなわち、顔照合サーバ6に保管された全ての利用者の顔特徴量データを対象にして顔照合を行った上で、顔認証機1の照合グループに属する利用者との照合結果のみを抽出するようにしてもよい。この場合、照合グループごとに顔照合データベースを分けて設けないようにしてもよい。
 次に、登録装置4における利用者による登録操作について説明する。図14は、登録装置4に表示される登録画面の一例を示す説明図である。
 利用者は、施設の利用を開始するにあたり(あるいは、登録後の所定期間内に施設を再訪しなかった場合に)、登録装置4によって認証用の登録操作を行うことができる。本実施形態では、利用者は、登録装置4のディスプレイ42(ここでは、タッチパネル)に表示された案内画面にしたがって、登録操作を行うことができる。なお、以下で説明する認証用の登録操作の一部(ボタンの押下など)については、利用者の同意を得た受付者が行ってもよい。
 登録装置4のディスプレイ42には、登録開始ボタン101が表示された初期画面が表示される(図14の(A)参照)。そこで、利用者が登録開始ボタン101を押下(タッチ)すると、顔認証システムにおける個人情報の取扱いに関する説明と、その同意を利用者に求める画面が表示される(図14の(B)参照)。
 利用者は、図14の(B)の画面において、同意ボタン102を押下することにより、顔認証システムにおける個人情報の取扱いに同意することができる。これにより、登録装置4では、当該利用者の認証用情報の取得が開始される。そこで、ディスプレイ42には、利用者の特定に用いられる特定情報を取得する方法を示す画面(第1の画面)が表示される(図14の(C)参照)。なお、利用者は、中止ボタン103を押下することにより、登録操作を中止することができる。なお、同意を利用者に求める画面は、利用者によって同意が必要でない場合があり、省略することができる。また、後述の撮影ボタン104、撮影ボタン107、登録ボタン111の操作をもって同意に代えてもよい。また、登録装置4の利用前の所定の手続きをもって同意を得るようにしてもよい。
 図14の(C)に示す例では、利用者の名刺を撮影する方法(ここでは、情報取得用カメラ41Bの撮影エリア内に利用者の名刺を載置させるための案内)を示す画面(第1の画面)が表示される。そこで、利用者が、登録装置4の載置台116に名刺を載置して撮影ボタン104を押下すると、登録装置4による名刺の撮影が実行される。なお、利用者は、中止ボタン105を押下することにより、名刺の撮影を中止することができる。
 名刺の撮影が終了すると、続いて、登録装置4には、利用者の登録用の顔画像を撮影する方法(顔撮影用カメラ41Aの撮影エリア内に利用者の顔を位置させるための案内)を示す画面(第1の画面)が表示される(図14の(D)参照)。このとき、登録装置4では、撮影エリアに対応する撮影枠106を点滅させることにより、利用者に顔の位置合わせを促すことができる。撮影枠106内には、顔撮影用カメラ41Aによって撮影されたライブ画像(リアルタイムの動画像)が表示される。そこで、利用者が、自身の顔を撮影枠内に位置させて撮影ボタン107を押下すると、登録装置4による利用者の顔の撮影が実行される。このとき、登録装置4では、撮影ボタン107の押下時にシャッター音を発生させることができる。なお、利用者は、中止ボタン108を押下することにより、顔の撮影を中止することができる。
 顔の撮影が終了すると、続いて、登録装置4には、撮影された顔画像を利用者が確認するための画面(第1の画面)が表示される(図14の(E)参照)。この画面には、撮影された顔画像(静止画像)が表示されており、利用者は、撮影された顔画像に問題がないと判断した場合には、登録ボタン111を押下する。一方、利用者は、撮影された顔画像に問題があると判断した場合には、再撮影ボタン112を押下することができる。これにより、登録装置4には、図14の(D)に示した画面が表示され、顔の再撮影が可能となる。なお、利用者は、中止ボタン113を押下することにより、顔の撮影を中止することができる。
 顔の撮影が終了すると、取得された顔画像および特定情報(ここでは、名刺画像およびOCRによって名刺画像から抽出された名刺記載情報を含む)が顔管理サーバ5に送信される。この場合、顔画像および名刺画像の両方の提供を望まない利用者に対しては、顔管理サーバ5に対し、顔画像および名刺画像の少なくとも一方が送信されればよい。これにより、顔管理サーバ5では、利用者に関する登録処理(図15参照)が実行される。顔管理サーバ5の登録処理が正常に終了すると、登録装置4には、登録が終了した旨を示す画面(第2の画面)が表示される(図14の(F)および図15中の「処理結果を画面表示」を参照)。そこで、利用者が終了ボタン115を押下することにより、登録装置4における登録操作が終了する。なお、顔画像および名刺画像の取得の順序は、逆であっても良い。
 登録操作が終了した後は、登録装置4は、記憶部44に記憶した顔画像や特定情報を削除することができる。これにより、不特定の者が利用する登録装置4に個人情報が長期的に保存されることが回避され、利用者の個人情報をより安全に管理することが可能となる。
 なお、上述の登録装置4による利用者の登録に代えて、管理者は、利用者の登録用の顔画像のファイルを予め準備した上で、管理端末2を用いて利用者に関する登録を行うことができる。また、管理者は、登録装置4による登録を補完するために、登録装置4によって登録された認証用情報の修正や新たな情報の追加を管理端末2から行うこともできる。
 次に、上述の利用者の登録操作に応じて実行される利用者に関する登録処理について説明する。図15は、利用者に関する登録処理の手順を示すシーケンス図である。
 顔管理サーバ5では、上述のように登録装置4において利用者の登録操作が行われると、図15に示すように、当該利用者に関する登録処理を開始する。このとき、顔管理サーバ5は、登録装置4から利用者の操作情報とともに顔の撮影画像や特定情報を受け取る。この登録処理では、まず、顔管理サーバ5は、対象となる利用者と照合グループが一致する顔照合サーバ6に、顔画像抽出のリクエストを送る。このリクエストには、登録装置4から取得した利用者の顔の撮影画像が含まれる。このとき、対象となる利用者と照合グループが一致する顔照合サーバ6が複数存在する場合には、1つの顔照合サーバ6を選択して、その1つの顔照合サーバ6に顔画像抽出のリクエストを送る。
 顔照合サーバ6では、顔管理サーバ5からの顔画像抽出のリクエストを受け取ると、顔画像抽出処理を行う。この顔画像抽出処理では、顔管理サーバ5から取得した利用者の顔の撮影画像に対して顔検知、および顔切出しなどの処理を行い、利用者の顔画像を抽出する。そして、顔画像抽出のレスポンスを顔管理サーバ5に送る。このレスポンスには、利用者の顔画像が含まれる。
 顔管理サーバ5では、顔画像抽出のレスポンスを顔照合サーバ6から受け取ると、対象となる利用者と照合グループが一致する顔照合サーバ6に、顔登録のリクエストを送る。このリクエストには、特定の顔照合サーバ6から取得した利用者の顔画像を含めることができる。このとき、対象となる利用者と照合グループが一致する顔照合サーバ6が複数存在する場合には、特定の顔照合サーバ6から取得した利用者の顔画像が含めて、全て(図15では2つ)の顔照合サーバ6に顔登録のリクエストを送る。
 なお、顔管理サーバ5では、上述の顔照合サーバ6に対する顔画像抽出のリクエストを省略し、登録装置4から操作情報とともに取得した利用者の顔の撮影画像を顔照合サーバ6に対する顔登録のリクエストに付加してもよい。
 顔照合サーバ6では、顔管理サーバ5からの顔登録のリクエストを受け取ると、顔登録処理を行う。この顔登録処理では、利用者の顔画像から顔特徴量を生成して、その顔特徴量をデータベースに登録する。このとき、利用者の顔特徴量に関連付けて顔登録IDを付与する。そして、顔登録のレスポンスを顔管理サーバ5に送る。このレスポンスには、顔登録が正常に終了したか否かを表す結果と顔登録IDとが含まれる。なお、顔特徴量のデータベースへの登録の完了に伴い、顔照合サーバ6における利用者の顔画像は削除される。また、顔特徴量のデータは、顔照合サーバ6の顔照合DBとは別管理のHDDやSSD等の不揮発性メモリへバックアップ保存してもよい。
 顔管理サーバ5では、顔登録のレスポンスを顔照合サーバ6から受け取り、処理が正常に終了している場合には、利用者に関する登録処理を行う。この登録処理では、登録装置4から取得した利用者の顔画像を顔情報データベースに登録する。また、顔管理サーバ5では、顔照合サーバ6から取得した利用者の特定情報を顔画像と関連付けて顔情報データベースに登録する。また、顔管理サーバ5では、顔照合サーバ6で発行された顔登録IDを利用者の情報として顔情報データベースに登録する。
 次に、顔認証機1における利用者の顔認証の処理について説明する。図16は、利用者に関する顔認証の処理の第1の例を示す。ここでは、顔認証機1と連携する外部装置16として、利用者の通行を管理するゲート装置(セキュリティゲート)を用いる例を示している。
 顔認証機1では、カメラ11の撮影画像から人物の顔を検知して顔画像を取得すると、顔照合のリクエストを顔照合サーバ6に送信する。この顔照合のリクエストには、要求元の顔認証機1の機器IDと、顔認証機1の照合グループと、顔認証の対象者の撮影画像(認証用の顔画像)のデータと、顔枠情報と、照合条件とが含まれる。
 顔照合サーバ6は、その顔照合のリクエストを受信すると、まず、顔特徴量生成部84によって、顔認証機1から取得した対象者の顔画像から対象者の顔特徴量を生成する。次に、顔認証機1の照合グループに対応する顔認証ユニットの顔特徴量照合部86において、対象者の顔特徴量と、顔認証データベースに登録された利用者の顔特徴量とを照合する。このとき、要求元の顔認証機1と照合グループが一致する顔認証プロセスで顔照合処理が行われる。顔照合処理が終了すると、顔照合サーバ6は、顔照合のレスポンスを要求元の顔認証機1に送信する。この顔照合のレスポンスには、照合結果(成功、失敗)と、照合スコアと、利用者コードとが含まれる。
 顔特徴量照合部86では、顔認証の対象者と登録された利用者との間の類似度を表す照合スコアを算出し、この照合スコアが所定の基準値以上となる場合に、顔認証の対象者を登録された利用者本人とみなし、顔照合が成功したことを表す照合結果を生成する。一方、全ての利用者について照合スコアが基準値以上とならない場合には、顔認証の対象者が登録された利用者ではないと判定して、顔照合が失敗したことを表す照合結果を生成する。
 なお、顔照合サーバ6で行われる顔照合の処理条件(顔照合のパラメータ)を照合のリクエストに付加するようにしてもよい。これにより、顔照合サーバ6で行われる顔照合の処理内容を顔認証機1から指示することができる。例えば、顔照合の処理条件として、照合スコアに関する閾値を指定して、照合スコアが所定の閾値以上となる照合結果をレスポンスに含めるようにする。また、顔照合の処理条件として、照合結果数を指定して、照合スコアが高い方から所定数の照合結果をレスポンスに含めるようにする。
 また、顔照合サーバ6では、顔照合が終了すると、認証ログ管理部87において、顔照合で取得した照合結果などの情報を認証ログ(顔認証の履歴情報)としてデータベースに保存する。このとき、顔認証の結果(成功、失敗)のみを認証ログとして保存する他、照合スコアを認証ログに含めるようにしてもよい。また、顔認証機1から取得した対象者の顔画像を認証ログに含めるようにしてもよい。この場合、対象者の顔画像を暗号化して保存するとよい。
 なお、照合スコアが閾値を超えた有効な照合結果が多数得られた場合には、照合スコアの高い方から所定数の照合結果に絞り込んで認証ログとして保存するようにしてもよい。また、顔照合が正常に終了しなかった場合や、照合スコアが閾値を超えた有効な照合結果が得られなかった場合には、顔認証機1からのリクエストに含まれる情報のみを認証ログとして保存するようにしてもよい。
 また、顔認証機1は、顔照合サーバ6から顔認証の成功を示す顔照合のレスポンスを受信すると、連携するゲート装置に対し、その扉部の開閉制御信号を送信する。つまり、顔認証機1は、顔照合のレスポンスを扉部の開閉制御信号に変換し、これにより、連携するゲート装置の扉部の動作を制御する制御装置(ゲート開閉制御装置)として機能する。これにより、ゲート装置は、駆動部92によって扉部を開放(すなわち、利用者の通行を許可)する動作を行う。なお、顔認証機1は、制御信号(開閉制御信号)の送信の完了にともない、記憶部14に記憶した利用者の顔画像を削除する。ここで、顔照合のレスポンスを扉部の開閉制御信号に変換する構成としたが、外部システムとして構築された入退管理システムによってゲート装置の扉部の開閉制御が行われている場合には、その入退管理システムに対して顔認証結果がゲート装置の開閉制御に反映されるように制御信号を送信する。
 図17は、利用者に関する顔認証の処理の第2の例を示す。図18A、図18B、図18Cは、顔認証機1に表示される認証画面(認証時の画面)の一例を示す説明図である。ここでは、顔認証機1と連携する外部装置16として、会議室のドアに設けられたロック装置を用いる例を示している。なお、顔認証処理の第2の例に関し、上述の第1の例と同様の事項については詳細な説明を省略する。
 顔認証機1は、例えば、会議室に面した廊下の壁等に設置される。顔認証機1は、人感センサ等によって人の接近を感知(すなわち、利用者を検知)すると、ディスプレイ12に認証画面の待機画面(初期画面)を表示する(図18A参照)。ここで、ディスプレイ12に表示される認証画面(通知画面)は、カメラ11による所定の撮影エリアを撮影したライブ画像(リアルタイムの動画像)を表示する画像表示エリア121と、顔認証処理の進行状況を示す情報を表示する情報表示エリア122とを含む。
 その後、顔認証機1は、カメラ11の撮影画像から人物の顔を検知して顔画像を取得すると、顔照合のリクエストを顔照合サーバ6に送信する。このとき、情報表示エリア122には、利用者の認証が進行中であることを示す文字123および図形124が表示される(図18B参照)。なお、情報表示エリア122では、文字123および図形124の一方の表示を省略してもよい。また、表示ディスプレイを持たないような顔認証機1の場合には、例えば、LED(発光ダイオード)ランプを用い、認証中はLEDを点滅させ、認証の成功時にLEDを点灯するようにして、顔認証の進行状況を通知するようにしても良い。また、LEDの表示色で顔認証の進行状況を通知するようにしても良い。また、利用者の顔認証の成否によってLEDの表示色を変更するようにしても良い。
 顔照合サーバ6は、その顔照合のリクエストを受信すると、上述の第1の例と同様に、顔特徴量を生成し、顔照合処理を実行する。顔照合処理が終了すると、顔照合サーバ6は、顔照合のレスポンスを要求元の顔認証機1に送信する。
 また、顔認証機1は、顔照合サーバ6から顔認証の成功を示す顔照合のレスポンスを受信すると、認証画面の情報表示エリア122に、利用者の認証が完了したことを示す文字127および図形128を表示する(図18C参照)。これと同時に、顔認証機1は、連携するドアのロック装置に対し、制御信号(ドアのロックを解除する命令)を送信する。つまり、顔認証機1は、連携するロック装置の動作を制御する制御装置として機能する。これにより、ロック装置は、ロックを解除(すなわち、利用者の入室を許可)する動作を行う。なお、顔認証機1は、制御信号の送信の完了にともない、記憶部14に記憶した利用者の顔画像を削除する。
 顔認証機1は、上述のゲート装置やドアのロック装置のように機械的動作をともなうことなく、情報処理のみを行う外部装置と連携させることも可能である。図19は、利用者に関する顔認証の処理の第3の例を示す。
 ここでは、顔認証機1と連携する外部装置16として、決済端末装置を用いる例を示している。なお、顔認証の処理の第3の例に関し、上述の第1または第2の例と同様の事項については詳細な説明を省略する。
 この顔認証の処理の第3の例では、顔認証機1は、顔照合サーバ6から顔認証の成功を示す顔照合のレスポンスを受信すると、連携する決済端末装置(または決済システム)に対し、制御信号を送信する。これにより、決済端末装置では、該当する利用者が利用したサービス(例えば、レストランでの食事の提供)に対する利用料金のデータと認証された利用者とを紐付ける処理を実行し、その結果、当該利用料金が当該利用者に対する施設での費用請求データに加算される。
 次に、顔認証システムの管理者による管理業務について説明する。図20は、管理端末2に表示されるログイン画面を示す説明図である。
 管理端末2では、管理者が管理アプリケーションを起動して顔管理サーバ5にアクセスすると、ログイン画面が表示される。このログイン画面では、管理者が自分のユーザIDとパスワードとを入力することができる。このログイン画面で管理者がユーザIDおよびパスワードを入力してログインボタンを操作すると、顔管理サーバ5において、ユーザ認証が行われる。ログインに成功した場合、種々の管理用画面を表示することが可能となる。ログインに失敗した場合、エラーを表示する。
 次に、本システムにおける顔認証機1と照合グループとの間の関連付けに関する登録、参照、更新および削除について説明する。図21A、図21B、および図22は、顔認証機1と照合グループとの間の関連付けに関する登録、参照、更新および削除の際に管理端末2に表示される管理用画面を示す説明図である。
 管理端末2では、顔管理サーバ5にログインすると、顔認証機1と照合グループとの間の関連付けに関する登録、参照、更新および削除の際に、図21Aに示す参照画面、図21Bに示す登録画面、および図22に示す削除画面を表示させることができる。
 図21Aに示す参照画面は、登録済みの顔認証機1と照合グループとの関連付け設定を一覧表示するものである。この参照画面を閲覧することで、照合グループの登録内容を管理者が確認することができる。
 この参照画面には、一覧表示部211と顔認証機指定部212とが設けられている。一覧表示部211では、各認証機の機器IDと、各認証機に関連付けられた照合グループ(番号)と、照合グループに関する説明とが表示される。顔認証機指定部212では、プルダウンメニューにより、対象となる顔認証機1(機器ID)を選択することができる。これにより、一覧表示部211の表示内容を特定の顔認証機1に絞り込むことができ、一覧表示部211に、特定の顔認証機1に関連付けられた照合グループのみが表示される。なお、顔認証機指定部212で顔認証機1を指定しない場合には、一覧表示部211に、全ての顔認証機1に関する情報が表示される。
 また、この参照画面では、項目(機器ID、顔認証機1、説明)を指定してソートを実行することができる。なお、一覧表示部211の表示件数(顔認証機1の台数)や、顔照合サーバ6や照合グループの表示範囲を指定できるようにしてもよい。また、各項目(機器ID、顔認証機1、説明)に関する検索条件を指定して検索できるようにしてもよい。
 なお、図21Aに示した例では、顔認証機1が設置された場所(例えば事業所の所在地)で顔認証機1がグループ分けされている。図21Bに示す登録画面は、顔認証機1と照合グループとの関連付け設定を行わせるものである。認証機に照合グループを関連付ける情報を登録することができる。
 この登録画面には、認証機指定部213と照合グループ指定部214と登録ボタン215とが設けられている。認証機指定部213では、プルダウンメニューにより、対象となる顔認証機1(機器ID)を選択することができる。照合グループ指定部214では、プルダウンメニューにより、対象となる顔認証機1の照合グループを選択することができる。このプルダウンメニューには、既に登録された照合グループが表示される。この登録画面で顔認証機1および照合グループを入力した上で登録ボタン215を操作すると、入力内容で照合グループ情報を登録する処理が顔管理サーバ5で行われる。
 なお、1つの顔認証機1に複数の照合グループを関連付ける場合があるが、この場合には、登録画面で1つの顔認証機1に1つの照合グループを関連付ける登録操作を繰り返せばよい。また、登録画面に照合グループ指定部214を複数設けるようにしてもよい。
 図22に示す削除画面は、顔認証機1と照合グループとの関連付け設定を削除するものである。
 この削除画面には、一覧表示部216と顔認証機指定部217と削除ボタン218とが設けられている。一覧表示部216では、各認証機の機器IDと、各顔認証機1に関連付けられた照合グループ(番号)と、照合グループに関する説明とが表示される。また、この一覧表示部216には、関連付け設定ごとにチェックボックスが設けられている。チェックボックスにより関連付け設定を選択することができる。チェックボックスにより削除する登録事項を選択して削除ボタン218を操作すると、選択した登録事項を削除する処理が顔管理サーバ5で行われる。顔認証機指定部217では、プルダウンメニューにより顔認証機1を選択することができる。これにより、特定の顔認証機1に絞り込んだ状態で一覧表示部216の表示内容が更新される。
 ここで、メニュー画面(図示せず)において参照を選択することで、図21Aに示す参照画面に遷移する。また、メニュー画面において登録を選択することで、図21Bに示す登録画面に遷移する。また、メニュー画面において削除を選択することで、図22に示す削除画面に遷移する。また、メニュー画面において更新を選択することで、更新画面(図示せず)に遷移する。また、参照画面において、管理者が、顔認証機1と照合グループとの関連付けを選択すると、更新画面(図示せず)に遷移する。
 なお、図22に示す例では、削除画面に、登録済みの関連付けを一覧表示するようにしたが、個別編集画面で削除ができるようにしてもよい。また、更新画面(図示せず)は、登録画面(図21B)と同様である。
 図23は、管理端末2に表示される利用者の管理用画面の一例を示す説明図である。
 管理端末2では、利用者に関する情報の管理の際に、図23に示す利用者の管理用画面が表示される。
 図23に示す利用者の管理用画面は、利用者に関する顔画像および特定情報(ここでは、名刺の情報)の登録、参照、更新、削除および検索の操作を管理者が行うためのものである。利用者の管理用画面に入力された情報(画像を含む)には、登録装置4によって取得された情報が含まれる。
 利用者の管理用画面には、操作選択エリア131、利用者情報エリア132、及び名刺情報エリア133が含まれる。
 操作選択エリア131において、管理者は、実行する項目(情報の登録、参照、更新、削除、および検索など)を選択することができる。図23では、実行する項目として名刺登録が選択されている。これにより、管理者は、利用者の管理用画面に表示された名刺記載情報について、新たに入力することが可能である。
 利用者情報エリア132には、利用者の顔画像および姓名や、顔認証に使用される情報が含まれる。ここでは、利用者情報エリア132には、顔画像表示部141、姓名入力部142、利用者ID入力部143、識別ID入力部144、照合グループ入力部145、アクセス許可グループ入力部146、付加情報入力部147、有効化日入力部148、及び無効化日入力部149が含まれる。
 顔画像表示部141には、利用者の顔画像が表示される。管理者は、削除ボタン151を押下することにより、顔画像表示部141の顔画像を削除することが可能である。管理者は、登録装置4によって顔画像を取得できなかった場合に、画像選択ボタン152を押下することにより、準備した顔画像(画像ファイル)を表示対象として選択することができる。或いは、管理者は、画像選択ボタン152によって選択した顔画像を、登録装置4によって取得された顔画像に代えて顔画像表示部141に表示させることもできる。管理者が準備する顔画像は、利用者の実際の顔画像に限らず、ダミー画像(例えば、利用者のアバター画像)であってもよい。
 姓名入力部142には、利用者の姓名が入力される。利用者ID入力部143には、利用者ID(例えば、社員番号など)が入力される。識別ID入力部144では、利用者を識別可能なID(例えば、利用者の登録順に割り当てられる一連かつ一意の番号)が入力される。照合グループ入力部145には、照合グループが入力される。アクセス許可グループ入力部146には、利用者の情報にアクセスすることができる管理者グループを示すアクセス許可グループが入力される。付加情報入力部147では、付加情報を入力することができる。有効化日入力部148には、当該人物の顔照合を有効にすることができる日付が入力される。無効化日入力部149には、顔照合を無効にすることができる日付が入力される。これら有効化日および無効化日の設定により、複数の利用者に対するサービスを一斉に開始したり終了したりすることができる。
 名刺情報エリア133には、登録装置4で登録された名刺の撮影画像や、名刺の撮影画像から抽出された情報が含まれる。ここでは、名刺情報エリア133には、名刺画像表示部161、所属情報入力部162、有効化日入力部163、及び無効化日入力部164が含まれる。
 名刺画像表示部161には、利用者の名刺画像が表示される。管理者は、上述の顔画像の場合と同様に、削除ボタン171や、画像選択ボタン172を押下することにより、名刺画像の削除や、準備した名刺画像(画像ファイル)の選択が可能となる。
 所属情報入力部162には、利用者が所属する会社名、利用者の部署名、役職名、電話番号、FAX番号、Eメール、郵便番号、及び住所などが入力される。有効化日入力部163には、当該人物の名刺に関する情報を有効にすることができる日付が入力される。無効化日入力部164には、当該人物の名刺に関する情報を無効にすることができる日付が入力される。
 管理者が、所望の入力部への入力を終えた後に登録ボタン167を押下すると、それらの入力(追加または変更)された情報が有効となる。
 なお、利用者の管理用画面では、名刺記載情報とともに、或いは名刺記載情報に代えて、他の特定情報(例えば、決済用のカードに表示された情報や、施設内における利用者の滞在場所を示す情報)の管理を行うこともできる。
 また、管理者は、利用者の管理用画面の操作選択エリア131において、検索タブ(例えば、照合グループ検索)を選択することにより、必要な情報を検索することができる。そのような情報の検索画面では、上述の利用者の管理用画面における各入力部は空欄として表示される。例えば、管理者は、検索したい照合グループを空欄の照合グループ入力部145に入力することで、その入力した照合グループに属する利用者を検索することができる。
 管理者が、検索画面において、必要な項目で検索条件を入力して検索ボタン(図示せず)を押下すると、検索結果が反映された一覧表示画面(例えば、抽出された利用者の一覧を示す画面)に遷移する。
 次に、利用者に関する情報の利用について説明する。図24は、管理端末2等に管理用画面として表示される会議室検索画面(会議検索画面)の一例を示す説明図である。図25は、管理端末2に管理用画面として表示される出席者表示画面の一例を示す説明図である。
 図24に示す会議室検索画面は、顔認証の処理において取得された会議に関する情報を管理者が利用(参照)するためのものである。なお、管理者は、管理端末2から顔管理サーバ5にアクセスすることにより、施設で開催された会議に関し、顔認証機1によって取得できない情報を適宜追加することができる。
 会議室検索画面には、施設の会議室において過去に実施された会議に関し、開催日、時間、部屋番号(会議室No.)などの情報が表示される。会議室検索画面の生成には、会議室のドアのロック装置と連携する顔認証機1が取得した入室履歴の情報を利用することができる。管理者が、所望の会議を選択(図24では、最上位に示された会議のチェック欄をクリック)し、選択ボタン173を押下すると、検索結果が反映された検索結果表示画面に遷移する。
 検索結果表示画面としては、例えば、図25に示すように、出席者リストを含む出席者表示画面が管理端末2に表示される。
 出席者リストには、出席者情報エリア175および応対者情報エリア176が含まれる。出席者情報エリア175には、会議の出席者の顔画像や特定情報(ここでは、利用者が所属する会社名および利用者の氏名)が表示される。また、応対者情報エリア176には、当該出席者に応対した人物(例えば、施設に入居する会社の勤務者)に関する情報(ここでは、所属部署および氏名)が表示される。
 図26は、管理端末2に管理用画面として表示される人脈検索画面の一例を示す説明図である。
 図26に示す人脈検索画面は、顔認証の処理において取得された利用者10の人脈に関する情報(ここでは、会議の出席者の情報から推定された人のつながりに関する情報)を管理者が利用(参照)するためのものである。管理者は、管理端末2から顔管理サーバ5にアクセスすることにより、利用者の人脈に関し、必要な情報を適宜追加することができる。
 人脈検索画面には、相関図表示エリア181および一覧表示エリア182が含まれる。相関図表示エリア181には、管理者が選択した人物に関する人脈を可視化した図が表示される。また、一覧表示エリア182には、管理者が選択した人物(利用者10)に関する人脈リスト185が表示される。この人脈リスト185には、人物の顔画像、所属情報(会社名、部署等)、人脈の強さを示す数値(人脈強度)などが表示される。
 このような人脈検索画面は、例えば、図25の出席者表示画面において、所望の出席者のエリアを管理者が選択(クリック)することによって表示されるようにしてもよい。
 なお、上述の会議室検索画面や人脈検索画面の利用は、管理端末2を介したものに限定される必要はない。例えば、施設の利用者(例えば、施設に入居する会社の勤務者)に管理者としてのアクセス権を付与することにより、利用者が所有する情報処理端末(PCやタブレットなど)から会議室検索画面や人脈検索画面を参照できるようにしてもよい。
 以上のように、本出願において開示する技術の例示として、実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施形態にも適用できる。また、上記の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。
 なお、近年、IoT(Internet of Things)の世界では、フィジカル空間とサイバー空間の情報連携により新たな付加価値を作りだすという新しいコンセプトであるCPS(Cyber-Physical Systems)が注目されている。こうした中、本実施形態においても、CPSコンセプトを採用することができる。すなわち、CPSの基本構成として、例えば、フィジカル空間に配置されるエッジデバイスと、サイバー空間に配置されるクラウドサーバとをネットワークを介して接続し、エッジデバイスとクラウドサーバに搭載されたプロセッサにより、顔認証の処理を分散して処理することが可能である。この顔認証の処理においては、エッジデバイスとして、認証機のカメラにより撮影された利用者の顔画像データを取得する。次に、クラウドサーバは、ネットワークを介してエッジデバイスより受信した顔画像データから特徴量データを生成する処理を実行し、予め登録された利用者の特徴量データと照合して、利用者の認証処理を実行し、その認証処理にかかる認証結果を顔認証アプリケーションソフトウェアで引き継ぎ、アプリケーション上で定義された出力フォーマットでディスプレイ等に表示する。ここで、エッジデバイスまたはクラウドサーバにおいて生成される各データは、標準化されたプラットフォームに搭載されたWebアプリケーション等で生成されることが好ましく、このような標準化プラットフォームを用いることで、各種多様なセンサ群やIoTアプリケーションソフトウェアを含むシステムを構築する際の効率化を図ることができる。
 本開示に係るゲート開閉制御装置およびゲート開閉制御方法は、施設を利用する利用者の顔画像を安全に管理しつつ、施設への利用者の入退場時の顔認証を簡易に実行することができる効果を有し、対象者の顔認証の結果に基づき、当該対象者が通過するゲート装置の開閉を制御するゲート開閉制御装置およびゲート開閉制御方法などとして有用である。
1   :顔認証機
2   :管理端末
3   :顔認証サーバ
4   :登録装置
5   :顔管理サーバ
6   :顔照合サーバ
10  :利用者
11  :カメラ(顔画像取得部)
12  :ディスプレイ(表示部)
14  :記憶部
15  :制御部(プロセッサ)
16  :外部装置
25  :認証結果調整部(履歴情報生成部)
41A :顔撮影用カメラ(個人情報取得部)
41B :情報取得用カメラ(個人情報取得部)
42  :ディスプレイ(表示部)
45  :制御部(プロセッサ)
62  :利用者管理部
64  :機器管理部
90  :画像生成部
97  :給電部

Claims (4)

  1.  施設の利用者の顔認証を実行する顔認証サーバに対し、前記施設における入退場用のゲート装置の前記利用者の通過時に前記顔認証の処理要求を行って、その認証結果により前記ゲート装置の開閉を制御するゲート開閉制御装置であって、
     前記ゲート装置を通過する前の前記利用者を撮影し、前記利用者の認証用の顔画像を取得する顔画像取得部と、
     前記認証用の顔画像に基づき、前記顔認証サーバに対して前記顔認証の処理要求を送信する送信部と、
     前記顔認証サーバから返信される認証結果を受信する受信部と、
     前記認証結果を前記ゲート装置の開閉制御信号に反映させる制御部と、
     を備えたことを特徴とするゲート開閉制御装置。
  2.  前記ゲート装置から電力供給を受ける給電部を備えたことを特徴とする請求項1に記載のゲート開閉制御装置。
  3.  前記認証用の顔画像を記憶する記憶部を更に備え、
     前記記憶部に記憶された前記認証用の顔画像は、前記顔認証処理が完了した後に削除されることを特徴とする請求項1または請求項2に記載のゲート開閉制御装置。
  4.  施設の利用者の顔認証を実行する顔認証サーバに対し、前記施設における入退場用のゲート装置の前記利用者の通過時に前記顔認証の処理要求を行って、その認証結果により前記ゲート装置の開閉を制御するゲート開閉制御方法であって、
     前記ゲート装置を通過する前の前記利用者を撮影し、前記利用者の認証用の顔画像を取得し、
     前記認証用の顔画像に基づき、前記顔認証サーバに対して前記顔認証の処理要求を送信し、
     前記顔認証サーバから返信される認証結果を受信し、
     前記認証結果を前記ゲート装置の開閉制御信号に反映させることを特徴とするゲート開閉制御方法。
PCT/JP2020/004330 2019-03-04 2020-02-05 ゲート開閉制御装置およびゲート開閉制御方法 WO2020179335A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/433,894 US20220108576A1 (en) 2019-03-04 2020-02-05 Gate open/close control device and gate open/close control method
CN202080017580.9A CN113519014A (zh) 2019-03-04 2020-02-05 闸门开闭控制装置以及闸门开闭控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019038658A JP7038293B2 (ja) 2019-03-04 2019-03-04 ゲート開閉制御装置およびゲート開閉制御方法
JP2019-038658 2019-03-04

Publications (1)

Publication Number Publication Date
WO2020179335A1 true WO2020179335A1 (ja) 2020-09-10

Family

ID=72337369

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/004330 WO2020179335A1 (ja) 2019-03-04 2020-02-05 ゲート開閉制御装置およびゲート開閉制御方法

Country Status (4)

Country Link
US (1) US20220108576A1 (ja)
JP (1) JP7038293B2 (ja)
CN (1) CN113519014A (ja)
WO (1) WO2020179335A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2020436230A1 (en) * 2020-03-18 2022-05-26 Nec Corporation Gate device, authentication system, gate control method, and storage medium
JP7040690B1 (ja) * 2020-06-26 2022-03-23 日本電気株式会社 サーバ装置、システム、サーバ装置の制御方法及びコンピュータプログラム
US11763617B2 (en) * 2020-07-10 2023-09-19 Cubic Corporation Turnstile gate for regulating access in a transit system
KR102408528B1 (ko) * 2020-11-30 2022-06-15 (주)나린시스 사용자 인증 방법 및 그 장치
JP7100819B1 (ja) * 2022-01-26 2022-07-14 日本電気株式会社 端末、システム、端末の制御方法及びプログラム
JP7335651B1 (ja) * 2022-08-05 2023-08-30 株式会社Interior Haraguchi 顔認証決済システムおよび顔認証決済方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249953A (ja) * 2006-02-15 2007-09-27 Toshiba Corp 人物認識装置および人物認識方法
JP2009138490A (ja) * 2007-12-10 2009-06-25 Oki Electric Ind Co Ltd 扉装置および扉システム
JP2011205308A (ja) * 2010-03-25 2011-10-13 Nohmi Bosai Ltd インターホンシステム
JP2017223037A (ja) * 2016-06-15 2017-12-21 日本電産サンキョー株式会社 電気錠システム
JP2018022320A (ja) * 2016-08-03 2018-02-08 清水建設株式会社 入退場管理システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4312444B2 (ja) * 2002-11-05 2009-08-12 シャープ株式会社 画像処理システム,スキャナ及び端末装置
JP2008027286A (ja) * 2006-07-24 2008-02-07 Mitsubishi Electric Corp 個人認証システム
CN105469478A (zh) * 2015-11-16 2016-04-06 国网山东省电力公司潍坊供电公司 一种基于电力线通信与二维码的门禁系统
CN106504375A (zh) * 2016-10-09 2017-03-15 胡家安 指纹锁管理方法
JP6246403B1 (ja) 2017-03-13 2017-12-13 株式会社A−スタイル 入場管理システム
EP3605473A4 (en) * 2017-03-31 2020-07-22 Nec Corporation FACIAL RECOGNITION SYSTEM, DEVICE, METHOD AND PROGRAM
US10679443B2 (en) * 2017-10-13 2020-06-09 Alcatraz AI, Inc. System and method for controlling access to a building with facial recognition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249953A (ja) * 2006-02-15 2007-09-27 Toshiba Corp 人物認識装置および人物認識方法
JP2009138490A (ja) * 2007-12-10 2009-06-25 Oki Electric Ind Co Ltd 扉装置および扉システム
JP2011205308A (ja) * 2010-03-25 2011-10-13 Nohmi Bosai Ltd インターホンシステム
JP2017223037A (ja) * 2016-06-15 2017-12-21 日本電産サンキョー株式会社 電気錠システム
JP2018022320A (ja) * 2016-08-03 2018-02-08 清水建設株式会社 入退場管理システム

Also Published As

Publication number Publication date
CN113519014A (zh) 2021-10-19
JP7038293B2 (ja) 2022-03-18
JP2020144447A (ja) 2020-09-10
US20220108576A1 (en) 2022-04-07

Similar Documents

Publication Publication Date Title
WO2020179335A1 (ja) ゲート開閉制御装置およびゲート開閉制御方法
WO2020179334A1 (ja) 顔認証管理サーバおよび顔認証管理方法
WO2020179315A1 (ja) 顔認証機および顔認証方法
WO2020179333A1 (ja) 顔認証システムおよび顔認証方法
CN110148232B (zh) 访客管理系统、方法、设备及存储介质
JP2020126334A (ja) 顔認証システムおよび顔認証方法
JP2023157932A (ja) 顔認証登録装置および顔認証登録方法
JP7266185B2 (ja) 顔認証システムおよび顔認証方法
JP7296607B2 (ja) 顔認証機および顔認証方法
JP7474957B2 (ja) 顔認証システムおよび顔認証方法
JP2022084586A (ja) 入室制御装置および入室制御方法
JP2023111935A (ja) ゲート開閉制御用の顔認証機および顔認証方法
JP2023101822A (ja) 顔認証機および顔認証方法
JP2020126345A (ja) 顔認証サーバ装置、顔認証方法および顔認証プログラム
JP7108882B2 (ja) 顔認証システム、顔認証管理装置、顔認証管理方法および顔認証管理プログラム
JP7108881B2 (ja) 顔認証システム、顔認証管理装置、顔認証管理方法および顔認証管理プログラム
JP2022132322A (ja) 顔認証システム、顔認証機、顔認証方法および顔認証プログラム
JP2020126343A (ja) 顔認証サーバ装置、顔認証方法および顔認証プログラム
JP2020126344A (ja) 顔認証サーバ装置、顔認証方法および顔認証プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20765583

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20765583

Country of ref document: EP

Kind code of ref document: A1