WO2021006260A1 - 認証システム及び認証方法 - Google Patents

認証システム及び認証方法 Download PDF

Info

Publication number
WO2021006260A1
WO2021006260A1 PCT/JP2020/026518 JP2020026518W WO2021006260A1 WO 2021006260 A1 WO2021006260 A1 WO 2021006260A1 JP 2020026518 W JP2020026518 W JP 2020026518W WO 2021006260 A1 WO2021006260 A1 WO 2021006260A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
user
feature point
wireless communication
wireless tag
Prior art date
Application number
PCT/JP2020/026518
Other languages
English (en)
French (fr)
Inventor
享慶 神谷
佐藤 雅彦
Original Assignee
株式会社デンソーウェーブ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソーウェーブ filed Critical 株式会社デンソーウェーブ
Priority to EP20836271.5A priority Critical patent/EP3998388A4/en
Priority to US17/625,929 priority patent/US20220245965A1/en
Publication of WO2021006260A1 publication Critical patent/WO2021006260A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/34User authentication involving the use of external additional devices, e.g. dongles or smart cards
    • G06F21/35User authentication involving the use of external additional devices, e.g. dongles or smart cards communicating wirelessly
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/42User authentication using separate channels for security data
    • G06F21/43User authentication using separate channels for security data wireless channels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/067Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
    • G06K19/07Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
    • G06K19/0723Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips the record carrier comprising an arrangement for non-contact communication, e.g. wireless communication circuits on transponder cards, non-contact smart cards or RFIDs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/20Individual registration on entry or exit involving the use of a pass
    • G07C9/22Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder
    • G07C9/25Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition
    • G07C9/257Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition electronically
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C2209/00Indexing scheme relating to groups G07C9/00 - G07C9/38
    • G07C2209/60Indexing scheme relating to groups G07C9/00174 - G07C9/00944
    • G07C2209/63Comprising locating means for detecting the position of the data carrier, i.e. within the vehicle or within a certain distance from the vehicle
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00563Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns

Definitions

  • the present disclosure relates to an authentication system and an authentication method using a wireless tag, and more particularly to a system and a method for authenticating a target person by using information stored in advance in the wireless tag at an authentication site.
  • an authentication system using a wireless tag such as RFID
  • an ID number stored in the wireless tag and biometric information to be authenticated are associated with each other and stored in the database of an authentication device, and the biometric authentication is performed from a face image.
  • a composite authentication that combines authentication and authentication using an ID number or the like read from a wireless tag has been proposed.
  • a composite authentication device disclosed in Patent Document 1 below is known.
  • the composite authentication device disclosed in Patent Document 1 obtains biometric information searched from the bioregistration information storage unit based on the RFID tag information read by the RFID reading unit and biometric information read by the biometric information reading unit. It is configured to verify and authenticate the person.
  • the composite authentication device disclosed in Patent Document 1 makes it possible to set authentication conditions as necessary by using additional information associated with RFID tag information.
  • the composite authentication device as disclosed in Patent Document 1 has a problem that the cost related to security measures or management of biometric information tends to increase.
  • the face feature points extracted from the user's face image are stored in advance in the wireless tag carried by the user, and the face feature points read from the user's wireless tag at the time of authentication and their use.
  • the face feature points can be extracted even if the face feature points can be read from the wireless tag.
  • the face image cannot be captured, or even if the face feature points can be extracted from the face image, the face feature points cannot be read from the wireless tag. In such a case, the user who has been notified that authentication is not possible needs to change the position with respect to the authentication device, and there is a problem that smooth authentication cannot be performed.
  • the present disclosure provides a configuration that can increase the chances of executing the authentication and realize smooth authentication even for the authentication that requires the extraction of facial feature points from the captured image and the reading of the wireless tag.
  • the purpose is.
  • An authentication system including an authentication device (20) that authenticates the user based on information stored in advance in a wireless tag (T) carried by the user.
  • the wireless tag In the wireless tag, the face feature points extracted from the captured image of the user's face are stored in advance as the first face feature points as a part of the information.
  • the authentication device is A wireless communication unit (22) capable of wirelessly reading and writing the information to and from the wireless tag, A radio tag position estimation unit (21) that estimates the position of the radio tag based on at least the distance to the radio tag detected in response to the response wave from the radio tag.
  • An authentication system (10) including an authentication device (20) that authenticates the user based on information stored in advance in a wireless tag (T) carried by the user.
  • a wireless tag (T) carried by the user.
  • facial feature points extracted from the captured image of the user's face are stored in advance as the first facial feature points as a part of the information.
  • the authentication device is A wireless communication unit (22) capable of wirelessly reading and writing information to and from the wireless tag, and A wireless communication condition adjusting unit (21) that adjusts the wireless communication conditions of the wireless communication unit, and An imaging unit (23) for imaging the user's face, and A user position detecting unit (21) that detects the position of the user according to the imaging result of the imaging unit, and An extraction unit (21) that extracts facial feature points as a second facial feature point from the image of the user's face captured by the imaging unit, and A collation unit (21) that collates the first face feature point read from the wireless tag by the wireless communication unit with the second face feature point extracted by the extraction unit.
  • the wireless communication condition adjusting unit provides an authentication system characterized in that the wireless communication condition is adjusted according to the position of the user detected by the user position detecting unit.
  • An authentication system (10) including an authentication device (20) that authenticates the user based on information stored in advance in a wireless tag (T) carried by the user.
  • the authentication device is A wireless communication unit (22) capable of wirelessly reading and writing the information to and from the wireless tag, A wireless communication condition adjusting unit (21) that adjusts the wireless communication conditions of the wireless communication unit, and A radio tag position estimation unit (21) that estimates the position of the radio tag based on at least the distance to the radio tag detected according to the response wave from the radio tag.
  • An authentication unit (21) that authenticates the user based on the collation result of the collation unit, and With When the first face feature point is read by the wireless communication unit before the second face feature point is extracted by the extraction unit, the imaging condition adjusting unit is estimated by the wireless tag position estimation unit. Adjust the imaging conditions according to the position of the wireless tag, When the second face feature point was extracted by the extraction unit before the first face feature point was read by the wireless communication unit, the wireless communication condition adjusting unit was detected by the user position detection unit. An authentication system is provided that adjusts the wireless communication conditions according to the position of the user.
  • the reference numerals in the parentheses indicate the correspondence with the specific means described in the embodiments described later.
  • the first facial feature points read from the wireless tag by the wireless communication unit and the second facial feature points extracted by the extraction unit from the user's face image captured by the imaging unit are collated. It is collated by the department, and the user is authenticated based on the collation result.
  • the imaging condition of the image of the user's face is adjusted by the imaging condition adjusting unit according to the position of the wireless tag estimated by the wireless tag position estimation unit.
  • the position of the wireless tag estimated by the wireless tag position estimation unit can be regarded as the position of the user. Therefore, even if the user is at a position where the facial feature points cannot be extracted from the facial image with respect to the imaging unit, the focal length is determined according to the position of the wireless tag estimated earlier, that is, the position of the user.
  • the imaging conditions such as the angle of view, the imaging direction, and the white balance by the imaging condition adjusting unit, it is possible to increase the possibility that facial feature points are extracted from the facial image captured after this adjustment. Therefore, even for authentication that requires extraction of facial feature points from captured images and reading of wireless tags, smooth authentication can be realized.
  • the first facial feature points read from the wireless tag by the wireless communication unit and the second facial feature points extracted by the extraction unit from the user's face image captured by the imaging unit are collated. It is collated by the department, and the user is authenticated based on the collation result.
  • the wireless communication condition is adjusted by the wireless communication condition adjusting unit according to the position of the user detected by the user position detecting unit.
  • the position of the user detected by the user position detection unit can be regarded as the position of the wireless tag. Therefore, even if the wireless tag is located in a position that is difficult to read with respect to the wireless communication unit, the radio wave output in the wireless communication unit or the radio wave output in the wireless communication unit depends on the position of the user detected earlier, that is, the position of the wireless tag.
  • the wireless communication conditions such as the radio wave radiation direction by the wireless communication condition adjusting unit, it is possible to increase the possibility that the wireless communication unit reads the first face feature point from the wireless tag after this adjustment. Therefore, even for authentication that requires extraction of facial feature points from captured images and reading of wireless tags, smooth authentication can be realized.
  • the first facial feature points read from the wireless tag by the wireless communication unit and the second facial feature points extracted by the extraction unit from the user's face image captured by the imaging unit are collated. It is collated by the department, and the user is authenticated based on the collation result.
  • the first face feature point is read by the wireless communication unit before the second face feature point is extracted by the extraction unit, an image is taken according to the position of the wireless tag estimated by the wireless tag position estimation unit.
  • the conditions are adjusted by the imaging condition adjustment unit.
  • the wireless communication condition is set according to the position of the user detected by the user position detection unit. It is adjusted by the wireless communication condition adjustment unit.
  • the imaging condition adjustment unit adjusts the face from the face image captured after this adjustment. It is possible to increase the possibility that feature points will be extracted.
  • the wireless tag even if the wireless tag is located at a position that is difficult to read with respect to the wireless communication unit, if the user's position is detected by the user position detection unit, the detected user's position, that is, By adjusting the wireless communication conditions such as the radio wave output and radio wave radiation direction in the wireless communication unit by the wireless communication condition adjustment unit according to the position of the wireless tag, the wireless communication unit will be the first face feature from the wireless tag after this adjustment. The possibility of reading a point can be increased. Therefore, even for authentication that requires extraction of facial feature points from captured images and reading of wireless tags, smooth authentication can be realized.
  • the wireless communication unit stores the collation score in the wireless tag.
  • the first facial feature points to be generated are rewritten so as to match the second facial feature points extracted by the extraction unit.
  • the problem related to the above authentication can be improved by periodically updating the first face feature point stored in the wireless tag, but it is necessary to prepare a face image for user authentication each time the update is performed. There is a problem that it is troublesome. Further, since the facial feature point is equivalent to personal information and is information related to confidential matters that need to be managed by the person in charge, there is a problem that the updating work is troublesome from this point as well.
  • the wireless communication unit rewrites the first facial feature points stored in the wireless tag so as to match the second facial feature points extracted by the extraction unit.
  • the second face feature point whose collation score is equal to or higher than a predetermined threshold is highly reliable as the face feature point for authentication
  • the highly reliable face feature point is stored in the wireless tag as the first face feature point. be able to.
  • the wireless tag stores the writing date and time when the first face feature point is written, and when the collation score is equal to or higher than a predetermined threshold value, the wireless communication unit starts the writing date and time.
  • the first face feature point whose elapsed date and time has passed the predetermined period is rewritten so as to match the second face feature point.
  • the first face feature point whose elapsed date and time from the writing date and time does not elapse the above-mentioned predetermined period is not updated, and is stored in the wireless tag every time the collation score exceeds the predetermined threshold value. Since the facial feature points are not updated, it is possible to eliminate unnecessary updates of the first facial feature points.
  • the oldest one of the plurality of first face feature points is set as the second face feature point.
  • the wireless communication condition is adjusted by the wireless communication condition adjustment unit according to the position of the user detected by the user position detection unit. As a result, the success rate of rewriting by the wireless communication unit after this adjustment can be increased.
  • the entry / exit management system 10 is an authentication system that manages entry / exit of a room in which entry is restricted, and is an electric key 12 installed on the door 11 of this room. It includes an entry / exit management device 20 for locking / unlocking, and a server 30 for managing the authentication history of the entry / exit management device 20.
  • the door 11 is configured to be, for example, a sliding type or a rotating type.
  • the electric key 12 is an electromagnetic electric key, for example, which is arranged on the wall surface near the door 11 to be locked / unlocked, and the locked state is maintained in response to the input of the locking signal, and the locked state is maintained in response to the input of the unlocking signal. It is configured so that the unlocking operation is performed. As long as the door 11 can be locked and unlocked by electrical control, various known electric keys can be used as the electric key 12.
  • facial feature points extracted from the user's face image are stored as authentication information in the wireless tag T carried by the user, and these facial feature points are stored in the wireless tag T. Use it to authenticate the user.
  • items such as the size and shape of each facial organ such as eyes, eyebrows, nose, ears, and mouth, contour, and arrangement position of facial organs are adopted.
  • the face image data D acquired as shown in FIG. 2 is characterized for each item. For example, data such as "D1: cut length" and "D2: large mouth” are calculated and extracted as facial feature points.
  • the face feature point extraction process is performed on, for example, the eyes, eyebrows, nose, based on the edge pixels, the positions of the edge pixels, and the histogram calculated by the edge extraction process or the histogram calculation process on the user's face image. It is performed by specifying the size and shape of each facial organ such as the ear and mouth, the contour, and the arrangement position of the facial organs.
  • the entry / exit management device 20 is configured to function as an authentication device that authenticates the user by using the user's wireless tag T and the face image captured on the spot.
  • the entry / exit management device 20 includes a management controller 21, a wireless tag reader / writer 22, a camera 23, a motion sensor 24, and the like.
  • the authentication is executed using the user's face image captured when the user is authenticated, instead of the user's face image captured in advance.
  • the management controller 21 includes a control circuit 21a, a memory 21b, a communication unit 21c, and the like, and is mainly composed of a microcomputer.
  • the control circuit 21a includes, for example, a CPU (central processing unit) 21a1 that is in charge of calculation.
  • the control circuit 21a (CPU 21a1) controls the entire management controller 21 so that a predetermined authentication process is executed by reading and executing a control program stored in advance in the memory 21b.
  • the CPU 21a1 may have a different name (for example, a processor or an arithmetic unit) as long as it is an element that plays a central role in the calculation of a computer system and has the same function.
  • the management controller 21 is configured to be able to electrically acquire information from the wireless tag reader / writer 22, the camera 23, the motion sensor 24, etc. via the communication unit 21c, and performs various information processing according to the acquired information. Function.
  • the authentication process executed by the control circuit 21a (that is, the CPU 21a1) will be described later.
  • the management controller 21 has a configuration in which the electric key 12 can be controlled via the communication unit 21c, and outputs a lock signal to the electric key 12 at the time of locking according to the locking / unlocking process described later to unlock the electric key 12. At the time of locking, an unlocking signal is output to the electric key 12.
  • the memory 21b is configured to be readable by a known storage medium such as a ROM (read-only memory) 21b1 that functions as a non-transition computer readable memory, a RAM (random-access memory) 21b2, and a non-volatile memory.
  • a procedure of a program for executing a predetermined locking / unlocking process is stored as a source code.
  • the memory 21b is configured to be able to store an image or the like captured by the camera 23.
  • the communication unit 21c is configured by, for example, a LAN interface, and is used to perform wireless communication or wired communication with an external device such as a wireless tag reader / writer 22, a camera 23, a motion sensor 24, an electric key 12, and a server 30. Acts as an interface for.
  • the wireless tag reader / writer 22 can correspond to an example of a "wireless communication unit" capable of reading and writing information (data) to the wireless tag T several meters away, and can read and write wireless tags such as RFID by a non-contact communication method. It is configured as a wireless tag reader / writer.
  • the wireless tag reader / writer 22 is arranged on the wall surface near the door 11, outputs the information read from the wireless tag T in the wireless communication range to the management controller 21, receives a writing instruction from the management controller 21, and outputs predetermined information. It functions to write to the wireless tag T.
  • the wireless tag reader / writer 22 is configured so that wireless communication conditions such as radio wave output and radio wave radiation direction can be adjusted by the management controller 21.
  • the wireless communication conditions such as the radio wave output and the radio wave radiation direction are adjusted according to the estimated position of the wireless tag T. The success rate of reading and writing to the tag T can be increased.
  • the wireless tag T to be communicated with by the wireless tag reader / writer 22 configured in this way is attached to, for example, an employee ID card that is always carried by a user who is permitted to enter or leave the room.
  • the face feature points extracted as described above from the captured image of the user's face are stored as the first face feature points together with the unique ID number for identifying the user. There is.
  • the camera 23 can correspond to an example of an "imaging unit", and is composed of, for example, a camera (CCD camera, CMOS camera, etc.) that captures an image with a solid-state image sensor.
  • the camera 23 captures the face of a person heading toward the door 11 to enter the room, and is arranged on the ceiling, wall surface, or the like.
  • the camera 23 is configured so that the imaging conditions such as the focal length (focus), the angle of view (viewing angle), the imaging direction, and the white balance can be adjusted by the management controller 21.
  • the imaging conditions such as the focal length, the angle of view, the imaging direction, and the white balance are adjusted according to the detected position of the user. It is possible to capture a facial image in which facial feature points can be easily extracted.
  • the motion sensor 24 is composed of, for example, an infrared sensor, an ultrasonic sensor, a visible light sensor, or the like, and is mounted on the ceiling or so as to detect that a user has invaded the imageable area of the camera 23 under the initial imaging conditions. It is placed on the wall surface. When the motion sensor 24 detects a user who wants to enter the room, the motion sensor 24 functions to output a predetermined detection signal to the management controller 21.
  • the server 30 is mainly composed of a computer that manages authentication history, entry / exit permission information, etc. in the entry / exit management device 20, and is communicably connected to the entry / exit management device 20 via a network N such as an in-house LAN. ing. As shown in FIG. 4, the server 30 is an input in which information from the outside such as a control unit 31, a ROM 32A, a RAM 32B, a storage unit 32 including an HDD, a mouse, a keyboard, etc., which collectively controls the entire server 30, is input.
  • An input unit 33 composed of a medium, a display unit 34 composed of a display medium for visually displaying information such as a liquid crystal monitor, a communication unit 35 configured to be able to send and receive information from the outside such as a LAN interface, and the like. I have.
  • the storage unit 32 stores a database for authentication history in which authentication success information and authentication failure information received from the entry / exit management device 20 as described later are sequentially stored.
  • the control unit 31 can grasp the authentication history including the entry history of the room in which the entry / exit management device 20 is provided by analyzing the authentication history database or the like.
  • the control circuit 21a that is, CPU 21a1 of the management controller 21 starts the operation at regular intervals in the main routine, or in the main routine.
  • the locking / unlocking process as the process to be activated when a predetermined start condition is satisfied will be described with reference to the flowcharts shown in FIGS. 5 and 6.
  • step S101 When the locking / unlocking process is started by the control circuit 21a, the process of reading the wireless tag T by the wireless tag reader / writer 22 is executed under predetermined wireless communication conditions (S101 in FIG. 5), and the camera is subjected to the predetermined imaging conditions. A process for extracting facial feature points from the captured image captured by 23 is executed (S103). Then, if the first facial feature point cannot be read from the wireless tag T (No in S105) and the human face cannot be imaged so that the facial feature point can be extracted (No in S107), the process from step S101 is repeated. Is done. When the motion sensor 24 detects a person heading for the door 11, the process after step S101 may be performed.
  • a predetermined detection signal is output to the management controller 21, and the management controller 21 inputs the detection signal.
  • the locking / unlocking process may be started.
  • step S109 the wireless tag position estimation process shown in step S109 is performed.
  • the distance DS from the wireless tag reader / writer 22 to the wireless tag T is calculated based on the received signal strength (RSSI) of the response wave from the wireless tag T and its change. It can be calculated (see FIG. 1).
  • the position of the radio tag T is estimated based on the information of the distance DS. That is, in the scene of entry / exit management according to the present embodiment, if at least the distance DS is calculated, which side of the door the position of the wireless tag T is located based on the information of the distance DS is determined. Is estimated.
  • the direction of the wireless tag T with respect to the set of the two wireless tag reader / writers 22 can also be calculated, and the direction of the wireless tag T can be calculated in consideration of the direction.
  • the position of the wireless tag reader / writer 22 with respect to the wireless tag reader / writer 22 may be estimated more accurately.
  • the management controller 21 that performs the wireless tag position estimation process corresponds to an example of the “wireless tag position estimation unit”.
  • the imaging condition adjustment process shown in step S111 is performed.
  • the user is at the estimated position of the wireless tag T, and the imaging conditions of the camera 23, specifically, for example, the focal length, the angle of view, the imaging direction, and the white balance. Etc. are adjusted to conditions suitable for imaging the face of the user at the estimated position of the wireless tag T.
  • the management controller 21 that performs the imaging condition adjustment process corresponds to an example of the “imaging condition adjusting unit”.
  • the imaging process shown in step S113 is performed, and the process for imaging the face of the user at the estimated position of the wireless tag T is performed under the imaging conditions adjusted as described above.
  • the face feature point extraction process shown in step S115 a process for extracting the face feature points as the second face feature points from the captured image is performed.
  • the management controller 21 that performs the facial feature point extraction process corresponds to an example of the “extraction unit”.
  • step S117 it is determined whether or not the facial feature points are extracted from the captured image.
  • the facial feature points are not extracted (No in S117)
  • whether or not the same wireless tag T as the wireless tag read in step S101 is read in the determination process in step S119. If the same radio tag T is continuously read, it is determined as Yes, and the process from step S109 is repeated.
  • the determination process of step S119 for example, it is determined whether or not the ID number read in step S101 and the ID number read in step S119 match, and if they match, the same wireless tag is continuously used. Determined to be read. If the same wireless tag T cannot be read during this iterative process (No in S119), it is determined that the wireless tag T of a user who does not wish to be authenticated is being read, and the process from step S101 is performed.
  • step S117 the first facial feature points read from the wireless tag T carried by the person heading for the door 11 and the second facial feature points extracted from the facial image of the person are acquired.
  • the second face feature point is extracted from the face image captured by the camera 23 in a state where the first face feature point cannot be read from the wireless tag T (No in S105).
  • the user position detection process shown in step S121 of FIG. 6 is performed.
  • the position of the user with respect to the camera 23 is detected based on the image capture result of the camera 23, specifically, the range of the user in the captured image and the like.
  • the management controller 21 that executes the user position detection process corresponds to an example of the “user position detection unit”.
  • the wireless communication condition adjustment process shown in step S123 is performed.
  • the wireless tag T is located at the detected position of the user, and the wireless communication condition of the wireless tag reader / writer 22, specifically, for example, radio wave output or radio wave emission.
  • the direction and the like are adjusted to conditions suitable for reading the radio tag T at the detected position of the user.
  • the management controller 21 that executes the wireless communication condition adjustment process corresponds to an example of the "wireless communication condition adjustment unit".
  • step S125 the wireless tag reading process shown in step S125 is performed, and the process for reading the wireless tag T at the detected user's position is performed under the wireless communication conditions adjusted as described above.
  • step S127 it is determined whether or not the first face feature point or the like can be read from the wireless tag T.
  • the first facial feature point or the like cannot be read (No in S127)
  • step S129 it is determined in the determination process of step S129 whether or not the facial feature points of the same person have been extracted, and the process is continued. If the facial feature points of the same person are extracted, it is determined as Yes, and the process from step S121 is repeated. If the face feature points of the same person are no longer detected during this iterative process (No in S129), it is assumed that the face image of a user who does not wish to be authenticated is being imaged, and the process from step S101 is performed.
  • step S127 if the first facial feature point, ID number, etc. are read from the wireless tag T while the facial feature points of the same person are continuously detected (Yes in S129), it is determined as Yes in step S127. To. As a result, the second face feature point extracted from the face image of the person heading to the door 11 and the first face feature point read from the wireless tag T carried by the person are acquired.
  • the collation process shown in step S131 is performed.
  • the first face feature points read from the wireless tag T and the second face feature points extracted from the captured image are collated as described above.
  • the management controller 21 that performs the collation process corresponds to an example of the “collation unit”.
  • the collation score corresponding to the matching rate between the first face feature point and the second face feature point becomes a specified value or more, it is determined that the authentication is successful (Yes in S133), and in step S135.
  • the unlocking signal output processing shown above is performed, and the unlocking signal is output to the electric key 12 (S135).
  • the electric key 12 is unlocked for a certain period of time, and the user can enter the desired room.
  • the management controller 21 that determines that the authentication is successful when the collation score exceeds the specified value corresponds to an example of an "authentication unit" that authenticates the user based on the collation result.
  • the authentication result transmission process shown in step S139 is performed, and the authentication success information such as the collation result information, the ID number, and the date and time information on which the authentication is successful is transmitted to the server 30.
  • the entry / exit management device is used for authentication by using the first face feature point read from the wireless tag T and the second face feature point extracted from the face image captured by the camera 23. It is not necessary to store confidential information such as facial feature points in the 20 or server 30 in advance, and face authentication can be performed offline.
  • the lock signal output process shown in step S137 is performed, and the lock signal is output to the electric key 12.
  • the authentication result transmission process shown in step S139 is performed, and the authentication failure information such as the collation result in which the authentication has failed, the ID number, and the date and time information is transmitted to the server 30.
  • the above-mentioned authentication result transmission process may be performed every time collation is performed, or may be collectively performed at a predetermined transmission timing.
  • the authentication restriction information is registered in the predetermined negative list to be restricted by the ID number included in the authentication success information in the server 30. May be transmitted to the entry / exit management device 20 to limit the processing at the time of successful authentication in the entry / exit management device 20.
  • the first facial feature points read from the wireless tag T by the wireless tag reader / writer 22 and the user's face image captured by the camera 23 are extracted.
  • the second face feature point is collated by the collation process (S131), and the user is authenticated based on the collation result.
  • the imaging condition is determined according to the estimated position of the wireless tag T. Is adjusted by the imaging condition adjustment process (S111).
  • the wireless communication condition is changed according to the detected position of the user. It is adjusted by the wireless communication condition adjustment process (S123).
  • the estimated position of the wireless tag T That is, by adjusting the imaging conditions such as the focal length, the angle of view, the imaging direction, and the white balance according to the position of the user, the face feature point (second face feature point) is taken from the face image captured after this adjustment. Can be increased in the possibility of being extracted.
  • the wireless tag T is located at a position that is difficult to read with respect to the wireless tag reader / writer 22, if the user's position is detected, the detected user's position, that is, the wireless tag T
  • the wireless communication conditions such as the radio wave output and the radio wave radiation direction of the wireless tag reader / writer 22 according to the position, the possibility that the wireless tag reader / writer 22 reads the first face feature point from the wireless tag T after this adjustment is made. Can be enhanced. Therefore, even for authentication that requires extraction of facial feature points from captured images and reading of wireless tags, it is possible to increase the number of situations in which the authentication can be performed and to realize smooth authentication.
  • the processes of steps S101 and S103 are performed until the first face feature point is read from the wireless tag T. You may do so. Then, when the first face feature point is read from the wireless tag T (Yes in S105) and the second face feature point is not extracted (No in S107), the processes after step S109 are performed. If the second facial feature points are extracted (Yes in S107), the processing related to the wireless communication condition adjustment after step S121 may be unnecessary by performing the processing after step S131.
  • the position of the wireless tag T estimated earlier that is, the position of the user
  • the imaging conditions such as the focal length, the angle of view, the imaging direction, and the white balance
  • step S101 and S103 may be performed.
  • the steps S121 and subsequent steps are performed.
  • the processing in step S131 and subsequent steps eliminates the need for the processing related to the imaging condition adjustment in step S109 and subsequent steps. May be good.
  • the wireless tag T is wirelessly determined according to the previously detected position of the user, that is, the position of the wireless tag T.
  • the wireless communication conditions such as the radio wave output and the radio wave radiation direction in the tag reader / writer 22
  • the possibility that the wireless tag reader / writer 22 reads the first face feature point from the wireless tag T can be increased after this adjustment.
  • the entry / exit management system 10 according to the second embodiment of the present invention will be described with reference to FIG.
  • the second embodiment is mainly different from the first embodiment in that the first facial feature points stored in the wireless tag T are updated. Therefore, the same reference numerals are given to the components substantially the same as those in the first embodiment, and the description thereof will be omitted.
  • the problem related to the above authentication is improved by periodically updating the first face feature point stored in the wireless tag T, but a face image for user authentication is prepared each time the update is performed. There is a problem that it is necessary and troublesome. Further, since the facial feature point is equivalent to personal information and is information related to confidential matters that need to be managed by the person in charge, there is a problem that the updating work is troublesome from this point as well.
  • the predetermined threshold value is set to a value larger than the above-mentioned specified value, but the present invention is not limited to this, and for example, the above-mentioned predetermined threshold value may be set to be equal to the above-mentioned specified value.
  • the wireless tag T two types of first face feature points having different writing dates and times are stored together with the ID number and its writing date and time. Therefore, in the locking / unlocking process, the first face feature point that is normal and has a new writing date / time among the two types of first face feature points read during the wireless tag reading process is used for collation processing ( S131) is carried out. Then, in the update process performed when the collation score at the time of the collation process is equal to or higher than a predetermined threshold value, the first face feature point that is not used for authentication among the two types of first face feature points is targeted for update.
  • the data constituting the first facial feature point may include an error correction code or the like in order to determine whether or not the data is accurate.
  • the update process performed by the management controller 21 will be described with reference to the flowchart shown in FIG.
  • the wireless tag T gives an abnormal first. It is determined whether or not the facial feature points are read.
  • the wireless tag reading process S101, S125
  • S201 an error correction code or the like
  • the first face feature point with the old writing date and time is set as the update target (S203).
  • step S207 it is determined whether or not the elapsed date and time from the writing date and time of the first face feature point set as the update target has elapsed a predetermined period.
  • the first face feature point This update process ends, assuming that the update is unnecessary.
  • the predetermined period can be set to any period such as January, half a year, and one year.
  • the first face feature point is updated. Is required, and the rewriting process shown in step S209 is performed.
  • the wireless tag reader / writer 22 rewrites the first face feature point set as the update target so as to match the second face feature point extracted as described above. Further, in the above rewriting process, the writing date and time is also rewritten in the same manner as the first face feature point.
  • this abnormal first face feature point is set as the update target (yes in S201).
  • S205 regardless of the writing date and time, a process for rewriting the abnormal first face feature point so as to match the extracted second face feature point is performed (S209).
  • this update process is completed.
  • the writing process fails because the amount of information of the first face feature point to be written is large and the user is moving during writing (No in S211)
  • the face of the same person is determined in step S213. It is determined whether or not the feature points have been extracted.
  • this update process ends without waiting for the completion of rewriting.
  • the user position detection process shown in step S215 is performed, and the user position detection process is performed based on the user image captured by the camera 23. Then, the position of the user is detected. Subsequently, the wireless communication condition adjustment process shown in step S217 is performed, and it is considered that the wireless tag T is located at the detected user position, and the wireless communication condition of the wireless tag reader / writer 22, specifically, for example, radio wave output. The radio wave radiation direction and the like are adjusted to conditions suitable for reading the wireless tag T at the detected user position. Then, the process from step S209 is performed with the wireless communication conditions adjusted in this way.
  • the collation score corresponding to the matching rate between the first face feature point and the second face feature point is equal to or higher than a predetermined threshold value as the collation result of the collation process.
  • the wireless tag reader / writer 22 causes the first face feature point whose elapsed date and time from the writing date and time has passed a predetermined period to match the second face feature point. Can be rewritten.
  • the first face feature point stored in the wireless tag T by the wireless tag reader / writer 22 coincides with the extracted second face feature point.
  • the second face feature point whose collation score is equal to or higher than a predetermined threshold is highly reliable as a face feature point for authentication
  • the highly reliable face feature point is stored in the wireless tag T as the first face feature point. can do.
  • the elapsed date and time from the writing date and time sets the above predetermined period.
  • the first face feature point that has not passed is not updated, and the first face feature point stored in the wireless tag is not updated every time the collation score exceeds a predetermined threshold value, so that the unnecessary first face feature point is not updated. It is possible to eliminate the update of one facial feature point.
  • the wireless communication conditions are adjusted according to the position of the user detected by the user position detection unit. As a result, the success rate of rewriting by the wireless tag reader / writer 22 after this adjustment can be increased.
  • the wireless tag T is not limited to writing two first face feature points, and three or more first face feature points may be written together with their respective writing dates and times. By rewriting the oldest one of the plurality of first face feature points so as to match the second face feature points in this way, the first face feature points of the plurality of patterns can be retained. In particular, even if rewriting fails for one first face feature point because the wireless tag T moves out of the communication range of the wireless tag reader / writer 22 at the time of update, the remaining first face feature points can be used for authentication. , It is possible to prevent authentication from becoming impossible due to rewriting failure. Further, the wireless tag T is not limited to writing a plurality of types of first face feature points, and one first face feature point is written depending on the usage environment, such as a low possibility that the rewriting process will fail. It may be configured to be.
  • the third embodiment is mainly different from the first embodiment in that the moving speed of the user is detected and the opening / closing timing of the door 11 is changed according to the detected moving speed. Therefore, the same reference numerals are given to the components substantially the same as those in the first embodiment, and the description thereof will be omitted.
  • the response powers Ea and B of the wireless tag T of the user at the point A When the response power Eb of the wireless tag T of the user at the point and the response power Ec of the wireless tag T of the user at the point C, the response power Ea is the smallest and the response power Ec is the largest. It is shown in the figure. That is, the closer to the wireless tag reader / writer 22, the higher the response power of the wireless tag T to be read. Therefore, the management controller 21 reads a signal indicating the response power from the wireless tag T (FIG.
  • step S221 obtains the amplitude (for example, maximum amplitude) of the response power waveform (waveform indicating the position-power intensity) from the signal. It is calculated (step S222), and the moving speed of the radio tag T, that is, the moving speed of the user is measured according to the rate of change of the response power per unit time (for example, the rate of change of the maximum amplitude) (step S223).
  • the rate of change of the response power per unit time for example, the rate of change of the maximum amplitude
  • the management controller 21 accelerates the output timing of the unlocking signal for successful authentication as the moving speed of the user increases (step S224). Thereby, the opening / closing timing of the door 11 can be adjusted according to the moving speed of the user with respect to the door 11.
  • the movement speed of the user is measured according to the change in the range occupied by the face image per unit time in the captured image captured by the camera 23, and the faster the measured movement speed of the user, the more successful the authentication.
  • the output timing of the unlocking signal to be made may be accelerated.
  • the present invention is not limited to the above embodiments and modifications, and may be embodied as follows, for example.
  • the focal length (focus), angle of view (viewing angle), imaging direction, white balance, etc. are not limited to the imaging conditions adjusted by the imaging condition adjustment process, and for example, they are separately added.
  • the brightness of the illumination light of the provided illumination unit, the irradiation direction, and the like may be adopted.
  • the wireless communication condition may be adjusted by preparing a plurality of antennas having different directivities and changing the combination of antennas to be used.
  • the authentication system according to the present invention is not limited to being applied to the entrance / exit management system 10 that allows entry into a specific room, for example, an entrance / exit gate to a room without a door, a concert venue, or the like. It may be adopted in a management system that manages the above, or it may be adopted in a system used when providing a service that requires authentication at a retail store or the like.
  • the authentication is successful. It may be determined that there is.
  • the distance to the wireless tag T and the direction of the wireless tag T which are obtained according to the received signal strength (RSSI) of the response wave from the wireless tag T and its change, etc.
  • RSSI received signal strength
  • the position of the radio tag T is not limited to be estimated, and for example, without considering the direction of the radio tag T, at least up to the radio tag T according to the received signal strength of the response wave from the radio tag T. Distance may be detected.
  • the image pickup condition adjustment process (S111) for example, as the image pickup condition of the camera 23, the focal length (focus of the camera 23) is set according to the distance to the wireless tag T detected as described above. It will be adjusted.
  • the position of the wireless tag T is estimated using at least the distance to the wireless tag T detected according to the response wave from the wireless tag T, and the imaging condition is determined according to the estimated position of the wireless tag T. Is adjusted. Even in this way, when the user is located in the imaging direction of the camera 23, the possibility that the face feature points (second face feature points) are extracted from the face image captured after the above adjustment is increased. be able to.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Collating Specific Patterns (AREA)
  • Lock And Its Accessories (AREA)

Abstract

認証システム(10)によれば、無線タグ(T)は、利用者の顔の撮像画像から抽出された顔特徴点である第1顔特徴点を記憶している。認証システム(10)は認証装置(20)を備える。こ認証装置(20)では、無線通信部(22)により無線タグとの間で情報を無線で読み書き可能である。認証装置(20)では、コントローラ(21)により、無線通信部(22)の無線通信条件が調整され、無線タグ(T)からの応答波に応じて検出される当該無線タグ(T)までの距離に基づいて前記無線タグ(T)の位置が推定される。また、撮像部(23)の撮像条件が調整される。撮像部(23)の撮像結果に応じて利用者の位置が検出される。撮像部(23)により撮像された利用者の顔画像から顔特徴点を第2顔特徴点として抽出され、無線通信部(23)により無線タグ(T)から読み取られた第1顔特徴点と抽出された第2顔特徴点とが照合される。この照合結果に基づいて利用者の認証が行われる。

Description

認証システム及び認証方法
 本開示は、無線タグを利用した認証システム及び認証方法に関し、とくに、無線タグに予め保存した情報を認証の現場で利用して、例えば、対象者を認証するシステム及び方法に関する。
 従来、RFIDなどの無線タグを利用した認証システムとして、無線タグに記憶されたID番号等と認証対象となる生体情報とを関連付けて認証装置のデータベースに格納し、顔画像から本人認証を行う生体認証と無線タグから読み取ったID番号等を利用した認証とを組み合わせた複合認証が提案されている。このような複合認証に関する技術としては、例えば、下記特許文献1に開示される複合認証装置が知られている。
 特許文献1に開示されている複合認証装置は、RFID読み取り部で読み取られたRFIDタグ情報を基に生体登録情報記憶部から検索した生体情報と、生体情報読み取り部で読み取られた生体情報とを照合して本人認証をするように構成されている。特に、特許文献1に開示されている複合認証装置は、RFIDタグ情報に対応付けられた付加情報も利用することで、必要に応じた認証条件の設定を可能にしている。
特開2012-088835号公報
 ところで、上記特許文献1に開示される複合認証装置に適合される、認証用の生体情報を認証装置のデータベース等に予め格納するシステム構成では、認証用の生体情報自体が秘匿すべき情報である。このため、特許文献1に開示されているような複合認証装置では、セキュリティ対策または生体情報の管理に関するコストが増大しやすいという課題がある。この課題を解決するため、例えば、利用者の顔画像から抽出した顔特徴点をその利用者が携帯する無線タグに予め記憶し、認証時に利用者の無線タグから読み取った顔特徴点とその利用者の顔を撮像した顔画像から抽出した顔特徴点とを照合することで、認証装置にて秘匿情報を管理不要とすることができる。
 しかしながら、認証の都度、認証装置に対する利用者の位置が変化するような構成では、例えば、利用者の認証する位置等によっては、無線タグから顔特徴点を読み取れても顔特徴点を抽出可能にしながら顔画像を撮像できない場合、または顔画像から顔特徴点を抽出できても無線タグから顔特徴点を読み取れない場合がある。このような場合には、認証不可等との報知を受けた利用者が認証装置に対して位置を変える必要があり、スムーズな認証ができないという課題がある。
 本開示は、撮像画像からの顔特徴点の抽出と無線タグの読み取りとを必要とする認証であっても、当該認証を実行できる機会を増やし、かつスムーズな認証を実現し得る構成を提供することを目的とする。
 本開示の第1の態様においては、
 利用者が携帯する無線タグ(T)に予め保存された情報に基づいて前記利用者の認証を行う認証装置(20)を備える認証システム(10)であって、
 前記無線タグには、前記利用者の顔を撮像した撮像画像から抽出される顔特徴点が前記情報の一部として第1顔特徴点として予め記憶され、
 前記認証装置は、
 前記無線タグとの間で前記情報を無線で読み書き可能な無線通信部(22)と、
 少なくとも前記無線タグからの応答波に応じて検出される当該無線タグまでの距離に基づいて前記無線タグの位置を推定する無線タグ位置推定部(21)と、
 前記利用者の顔を撮像するための撮像部(23)と、
 前記撮像部の撮像条件を調整する撮像条件調整部(21)と、
 前記撮像部により撮像された前記利用者の顔の画像から顔特徴点を第2顔特徴点として抽出する抽出部(21)と、
 前記無線通信部により前記無線タグから読み取られた前記第1顔特徴点と前記抽出部により抽出された前記第2顔特徴点とを照合する照合部(21)と、
 前記照合部の照合結果に基づいて前記利用者の認証を行う認証部(21)と、
 を備え、
 前記撮像条件調整部は、前記無線タグ位置推定部により推定された前記無線タグの位置に応じて前記撮像条件を調整することを特徴とする認証システムが提供される。
 なお、本認証システムを認証方法として実施する態様も提供される。
 本開示の第2の態様においては、
 利用者が携帯する無線タグ(T)に予め保存された情報に基づいて前記利用者の認証を行う認証装置(20)を備える認証システム(10)であって、
 前記無線タグ(T)には、前記利用者の顔を撮像した撮像画像から抽出される顔特徴点が前記情報の一部として第1顔特徴点として予め記憶され、
 前記認証装置は、
 前記無線タグとの間で情報を無線で読み書き可能な無線通信部(22)と、
 前記無線通信部の無線通信条件を調整する無線通信条件調整部(21)と、
 前記利用者の顔を撮像するための撮像部(23)と、
 前記撮像部の撮像結果に応じて前記利用者の位置を検出する利用者位置検出部(21)と、
 前記撮像部により撮像された前記利用者の顔の画像から顔特徴点を第2顔特徴点として抽出する抽出部(21)と、
 前記無線通信部により前記無線タグから読み取られた前記第1顔特徴点と前記抽出部により抽出された前記第2顔特徴点とを照合する照合部(21)と、
 前記照合部の照合結果に基づいて前記利用者の認証を行う認証部(21)と、
 を備え、
 前記無線通信条件調整部は、前記利用者位置検出部により検出された前記利用者の位置に応じて前記無線通信条件を調整することを特徴とする認証システムが提供される。
 本開示の第3の態様においては、
 利用者が携帯する無線タグ(T)に予め保存された情報に基づいて前記利用者の認証を行う認証装置(20)を備える認証システム(10)であって、
 前記無線タグ(T)には、前記利用者の顔を撮像した撮像画像から抽出される顔特徴点が前記情報の一部として第1顔特徴点として予め記憶され、
 前記認証装置は、
 前記無線タグとの間で前記情報を無線で読み書き可能な無線通信部(22)と、
 前記無線通信部の無線通信条件を調整する無線通信条件調整部(21)と、
 少なくとも前記無線タグからの応答波に応じて検出される当該無線タグまでの距離に基づいて前記無線タグの位置を推定する無線タグ位置推定部(21)と、
 前記利用者の顔を撮像するための撮像部(23)と、
 前記撮像部の撮像条件を調整する撮像条件調整部と、
 前記撮像部の撮像結果に応じて前記利用者の位置を検出する利用者位置検出部(21)と、
 前記撮像部により撮像された前記利用者の顔の画像から顔特徴点を第2顔特徴点として抽出する抽出部(21)と、
 前記無線通信部により前記無線タグから読み取られた前記第1顔特徴点と前記抽出部により抽出された前記第2顔特徴点とを照合する照合部(21)と、
 前記照合部の照合結果に基づいて前記利用者の認証を行う認証部(21)と、
 を備え、
 前記抽出部により前記第2顔特徴点が抽出される前に前記無線通信部により前記第1顔特徴点が読み取られると、前記撮像条件調整部は、前記無線タグ位置推定部により推定された前記無線タグの位置に応じて前記撮像条件を調整し、
 前記無線通信部により前記第1顔特徴点が読み取られる前に前記抽出部により前記第2顔特徴点が抽出されると、前記無線通信条件調整部は、前記利用者位置検出部により検出された前記利用者の位置に応じて前記無線通信条件を調整することを特徴とする認証システムが提供される。
 なお、上記各括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示す。
 第1の態様では、無線通信部により無線タグから読み取られた第1顔特徴点と、撮像部により撮像された利用者の顔の画像から抽出部により抽出された第2顔特徴点とが照合部により照合され、この照合結果に基づいて利用者の認証が認証部により行われる。当該認証の際、無線タグ位置推定部により推定された無線タグの位置に応じて、利用者の顔の画像の撮像条件が撮像条件調整部により調整される。
 無線タグ位置推定部により推定された無線タグの位置は、利用者の位置とみなすことができる。このため、撮像部に対して顔画像から顔特徴点を抽出不能な位置に利用者がいたとしても、先に推定された無線タグの位置、すなわち、利用者の位置に応じて、焦点距離、画角、撮像方向またはホワイトバランス等の撮像条件を撮像条件調整部により調整することで、この調整後に撮像された顔画像から顔特徴点が抽出される可能性を高めることができる。したがって、撮像画像からの顔特徴点の抽出と無線タグの読み取りとを必要とする認証であっても、スムーズな認証を実現することができる。
 第2の態様では、無線通信部により無線タグから読み取られた第1顔特徴点と、撮像部により撮像された利用者の顔の画像から抽出部により抽出された第2顔特徴点とが照合部により照合され、この照合結果に基づいて利用者の認証が認証部により行われる。当該認証の際、利用者位置検出部により検出された利用者の位置に応じて、無線通信条件が無線通信条件調整部により調整される。
 利用者位置検出部により検出された利用者の位置は無線タグの位置とみなすことができる。このため、無線通信部に対して読み取り困難な位置に無線タグがあったとしても、先に検出された利用者の位置、すなわち、無線タグの位置に応じて、無線通信部での電波出力や電波放射方向等の無線通信条件を無線通信条件調整部により調整することで、この調整後に無線通信部が無線タグから第1顔特徴点を読み取る可能性を高めることができる。したがって、撮像画像からの顔特徴点の抽出と無線タグの読み取りとを必要とする認証であっても、スムーズな認証を実現することができる。
 第3の態様では、無線通信部により無線タグから読み取られた第1顔特徴点と、撮像部により撮像された利用者の顔の画像から抽出部により抽出された第2顔特徴点とが照合部により照合され、この照合結果に基づいて利用者の認証が認証部により行われる。当該認証の際、抽出部により第2顔特徴点が抽出される前に無線通信部により第1顔特徴点が読み取られると、無線タグ位置推定部により推定された無線タグの位置に応じて撮像条件が撮像条件調整部により調整される。また、無線通信部により第1顔特徴点が読み取られる前に抽出部により第2顔特徴点が抽出されると、利用者位置検出部により検出された利用者の位置に応じて無線通信条件が無線通信条件調整部により調整される。
 これにより、撮像部に対して顔画像から顔特徴点を抽出不能な位置に利用者がいたとしても、無線タグ位置推定部により無線タグの位置が推定された場合には、この推定された無線タグの位置、すなわち、利用者の位置に応じて、焦点距離や画角、撮像方向やホワイトバランス等の撮像条件を撮像条件調整部により調整することで、この調整後に撮像された顔画像から顔特徴点が抽出される可能性を高めることができる。一方、無線通信部に対して読み取り困難な位置に無線タグがあったとしても、利用者位置検出部により利用者の位置が検出された場合には、この検出された利用者の位置、すなわち、無線タグの位置に応じて、無線通信部での電波出力や電波放射方向等の無線通信条件を無線通信条件調整部により調整することで、この調整後に無線通信部が無線タグから第1顔特徴点を読み取る可能性を高めることができる。したがって、撮像画像からの顔特徴点の抽出と無線タグの読み取りとを必要とする認証であっても、スムーズな認証を実現することができる。
 別の例では、照合部の照合結果として第1顔特徴点と第2顔特徴点との一致率に相当する照合スコアが所定の閾値以上となる場合に、無線通信部により、無線タグに記憶される第1顔特徴点が、抽出部により抽出された第2顔特徴点に一致するように書き換えられる。
 第1顔特徴点が無線タグに記憶されてから更新されない構成では、利用者の顔の経年変化等により、徐々に認証が難しくなる傾向になる。その一方で、無線タグに記憶される第1顔特徴点を定期的に更新することで上記認証に関する問題は改善されるが、その更新の都度、利用者の認証用の顔画像を用意する必要があり手間になるという問題がある。さらに、顔特徴点は個人情報に相当するもので責任者の管理が必要な機密事項に関わる情報となるため、この点からしても更新作業が手間になるという問題がある。
 そこで、照合スコアが所定の閾値以上となる場合に、無線通信部により、無線タグに記憶される第1顔特徴点が、抽出部により抽出された第2顔特徴点に一致するように書き換えられることで、利用者や管理者等が更新用の作業を行う必要もないので、更新のための手間をなくすことができる。特に、照合スコアが所定の閾値以上となる第2顔特徴点は、認証用の顔特徴点として信頼性が高いため、信頼性の高い顔特徴点を第1顔特徴点として無線タグに記憶することができる。
 さらに別の例では、無線タグには、第1顔特徴点を書き込んだ書込日時が記憶されており、上記照合スコアが所定の閾値以上となる場合に、無線通信部により、書込日時からの経過日時が所定期間を経過している第1顔特徴点が、第2顔特徴点に一致するように書き換えられる。
 これにより、書込日時からの経過日時が上記所定期間を経過していない第1顔特徴点が更新対象にならず、照合スコアが所定の閾値以上となるごとに無線タグに記憶される第1顔特徴点が更新されることもないので、不要な第1顔特徴点の更新をなくすことができる。
 また別の例では、無線タグには、複数の第1顔特徴点がそれぞれの書込日時とともに書き込まれるため、例えば、複数の第1顔特徴点のうち最も古い1つを第2顔特徴点に一致するように書き換えることで、複数パターンの第1顔特徴点を保持することができる。特に、更新時に無線タグが無線通信部の通信範囲外に移動等したために1つの第1顔特徴点について書き換えが失敗した場合でも、残りの第1顔特徴点を利用して認証できるので、書き換え失敗のために認証不能となることを防止することができる。
 さらに別の例では、無線通信部による書き換えが失敗すると、利用者位置検出部により検出された利用者の位置に応じて無線通信条件が無線通信条件調整部により調整される。これにより、この調整後での無線通信部による書き換え成功率を高めることができる。
第1実施形態に係る入退室管理システムを概略的に示す説明図である。 撮像された顔画像データから顔特徴点を抽出する箇所の一部を例示する説明図である。 入退室管理装置の電気的構成を概略的に示すブロック図である。 サーバの電気的構成を概略的に示すブロック図である。 第1実施形態における入退室管理装置の管理コントローラにて実行される施解錠処理の流れを例示するフローチャートの一部である。 第1実施形態において入退室管理装置の管理コントローラにて実行される施解錠処理の流れを例示するフローチャートの一部である。 第1実施形態の第1変形例において入退室管理装置の管理コントローラにて実行される施解錠処理の流れを例示するフローチャートである。 第1実施形態の第2変形例において入退室管理装置の管理コントローラにて実行される施解錠処理の流れを例示するフローチャートである。 第2実施形態において入退室管理装置の管理コントローラにて実行される更新処理の流れを例示するフローチャートである。 第3実施形態において無線タグの応答電力の変化と利用者の移動速度との関係を説明する説明図である。 第3実施形態において管理コントローラにより実行される処理の概念を示すフローチャートである。
[第1実施形態]
 以下、本開示に係る認証システム及び認証方法を入退室管理システムに適用した第1実施形態について、図面を参照して説明する。
 図1に示すように、本実施形態に係る入退室管理システム10は、入室が制限される部屋の入退室を管理する認証システムであって、この部屋の扉11に設置される電気鍵12の施解錠を行う入退室管理装置20と、入退室管理装置20における認証履歴を管理するサーバ30とを備えている。
 扉11は、例えばスライド式或いは回動式に構成されている。電気鍵12は、電磁式電気鍵であって、例えば施解錠対象である扉11近傍の壁面に配置されており、施錠信号の入力に応じて施錠状態が維持され、解錠信号の入力に応じて解錠動作がなされるように構成されている。なお、電気的な制御によって扉11を施錠及び解錠し得る構成であれば公知の様々な電気鍵を電気鍵12として用いることができる。
 本実施形態に係る入退室管理システム10では、利用者が携帯する無線タグTに認証用の情報としてその利用者の顔画像から抽出された顔特徴点が記憶されており、この顔特徴点を利用してその利用者の認証を行う。本実施形態では、顔特徴点として、目、眉、鼻、耳、口などの顔器官のそれぞれの大きさや形状、輪郭や顔器官同士の配置位置等の項目が採用されている。そして、利用者の顔画像に対して実施される公知の顔特徴点を抽出するための顔特徴点抽出処理に応じて、図2に示すように取得した顔画像データDについて、項目ごとの特徴、例えば、「D1:目が切れ長」や「D2:口が大きめ」等のデータが顔特徴点としてそれぞれ算出されて抽出される。顔特徴点抽出処理は、例えば、利用者の顔画像に対してエッジ抽出処理またはヒストグラム算出処理により算出された、エッジ画素、当該エッジ画素の位置、及びヒストグラムに基づいて、目、眉、鼻、耳、口などの顔器官のそれぞれの大きさや形状、輪郭、や顔器官同士の配置位置を特定することにより実行される。
 次に、入退室管理装置20について図3を用いて説明する。
 入退室管理装置20は、利用者の無線タグTとその場で撮像した顔画像とを利用してその利用者の認証を行う認証装置として機能するように構成されている。入退室管理装置20は、図3に示すように、管理コントローラ21、無線タグリーダライタ22、カメラ23、人感センサ24などを備えている。本実施形態では具体的に、予め撮像された利用者の顔画像ではなく、利用者の認証を行う際に撮像された利用者の顔画像を用いて認証を実行する。
 管理コントローラ21は、制御回路21a、メモリ21b、通信部21cなどを備え、主にマイクロコンピュータを主体として構成されている。制御回路21aは、例えば演算を担うCPU(central processing unit)21a1を備える。制御回路21a(CPU21a1)は、メモリ21bに予め記憶された制御プログラムを読み込み実行することにより、管理コントローラ21全体を所定の認証処理が実行されるように制御している。CPU21a1は、コンピュータシステムの演算の中枢を担う要素であって、同様の機能を保有するものであれば、呼び名は違っていても(例えばプロセッサ、演算装置)よいことは勿論である。管理コントローラ21は、通信部21cを介して無線タグリーダライタ22、カメラ23および人感センサ24等から電気的に情報を取得可能に構成され、この取得した情報に応じて各種情報処理を行うように機能する。なお、制御回路21a(すなわちCPU21a1)によって実行される認証処理については後述する。
 また、管理コントローラ21は、通信部21cを介して電気鍵12を制御し得る構成をなしており、後述する施解錠処理に応じて、施錠時には電気鍵12に対して施錠信号を出力し、解錠時には電気鍵12に対して解錠信号を出力する。
 メモリ21bは、non-transitory computer readable recording mediumとして機能するROM(read-only memory)21b1、RAM(random-access memory)21b2、不揮発性メモリなどの公知の記憶媒体によって読み出し可能に構成されている。メモリ21bには、予め定めた施解錠処理を実行するためのプログラムの手順がソースコードとして格納されている。さらにメモリ21bには、カメラ23により撮像された画像等が記憶可能に構成されている。
 通信部21cは、例えばLANインタフェースなどによって構成されており、無線タグリーダライタ22、カメラ23および人感センサ24や電気鍵12、サーバ30などの外部装置との間で無線通信或いは有線通信を行うためのインタフェースとして機能する。
 無線タグリーダライタ22は、数メートル先の無線タグTに対して情報(データ)を読み書き可能な「無線通信部」の一例に相当し得るもので、非接触通信方式でRFID等の無線タグを読み書きする無線タグリーダライタとして構成されている。無線タグリーダライタ22は、扉11近傍の壁面に配置されており、無線通信範囲の無線タグTから読み取った情報を管理コントローラ21に出力し、管理コントローラ21からの書き込み指示を受けて所定の情報を無線タグTに書き込むように機能する。
 特に、本実施形態では、無線タグリーダライタ22は、電波出力および電波放射方向等の無線通信条件が管理コントローラ21によって調整可能に構成されている。これにより、無線タグリーダライタ22に対する無線タグTの位置が推定された場合に、当該推定された無線タグTの位置に応じて電波出力および電波放射方向等の無線通信条件を調整することで、無線タグTに対する読み書きの成功率を高めることができる。
 このように構成される無線タグリーダライタ22の通信対象となる無線タグTは、例えば、入退室を許可された利用者が常時携帯する社員証等に付されている。無線タグTには、利用者を特定するための固有のID番号とともに、その利用者の顔を撮像した撮像画像から上述のように抽出された顔特徴点が第1顔特徴点として記憶されている。
 カメラ23は、「撮像部」の一例に相当し得るもので、例えば、固体撮像素子によって画像を撮像するカメラ(CCDカメラ、CMOSカメラ等)によって構成されている。カメラ23は、入室するために扉11に向かう人の顔を撮像し、天井または壁面等に配置されている。
 特に、本実施形態では、カメラ23は、焦点距離(フォーカス)、画角(視野角)、撮像方向、ホワイトバランス等の撮像条件が管理コントローラ21によって調整可能に構成されている。これにより、カメラ23に対する利用者の位置が検出された場合に、当該検出された利用者の位置に応じて、焦点距離、画角、撮像方向、ホワイトバランス等の撮像条件を調整することで、顔特徴点を抽出しやすい顔画像を撮像することができる。
 人感センサ24は、例えば、赤外線センサ、超音波センサ、可視光センサなどによって構成されており、初期撮像条件でのカメラ23による撮像可能エリアに利用者が侵入したことを検知するように天井または壁面等に配置されている。人感センサ24は、入室を希望する利用者を検知すると、所定の検知信号を管理コントローラ21に出力するように機能する。
 次に、サーバ30について図4を用いて説明する。
 サーバ30は、入退室管理装置20における認証履歴や入退許可情報等を管理するコンピュータを主体として構成されており、社内LAN等のネットワークNを介して入退室管理装置20と通信可能に接続されている。サーバ30は、図4に示すように、サーバ30全体を統括的に制御する制御部31、ROM32A、RAM32B、HDD等からなる記憶部32、マウスやキーボード等、外部からの情報が入力される入力媒体によって構成される入力部33、液晶モニタ等、情報を視覚的に表示する表示媒体によって構成される表示部34、LANインタフェース等、外部からの情報を送受信可能に構成される通信部35などを備えている。
 そして、記憶部32には、入退室管理装置20から後述するように受信した認証成功情報および認証失敗情報等が逐次記憶される認証履歴用のデータベースが格納されている。例えば制御部31が、当該認証履歴用データベースを解析等することで、入退室管理装置20が設けられる部屋に関する入室履歴等を含めた認証履歴を把握することができる。
 次に、このように構成される入退室管理装置20において、管理コントローラ21の制御回路21a(すなわちCPU21a1)にて、メインルーチンの中で一定時間毎に起動される処理として、又は、メインルーチンにおいて所定の開始条件が満たされたときに起動される処理としての施解錠処理について、図5及び図6に示すフローチャートを参照して説明する。
 制御回路21aにより施解錠処理が開始されると、所定の無線通信条件にて無線タグリーダライタ22により無線タグTを読み取る処理が実行されるとともに(図5のS101)、所定の撮像条件にてカメラ23により撮像された撮像画像から顔特徴点を抽出するための処理が実行される(S103)。そして、無線タグTから第1顔特徴点が読み取られず(S105でNo)、顔特徴点を抽出可能に人の顔を撮像できない場合には(S107でNo)、上記ステップS101からの処理が繰り返される。なお、人感センサ24にて扉11に向かう人を検知した場合に、ステップS101以降の処理を行うように設定してもよい。例えば、人感センサ24が所定の期間(例えば0.5sec)継続して人を検知した場合に所定の検知信号を管理コントローラ21に出力し、管理コントローラ21はその検知信号が入力された場合に、施解錠処理を開始するよう構成してもよい。
 そして、ステップS101からの繰り返し処理中に、例えば、利用者がカメラ23の死角から扉11に近づいたために、顔特徴点を抽出可能に人の顔を撮像できない状態で(S107でNo)、無線タグリーダライタ22により無線タグTに記憶された第1顔特徴点やID番号等が読み取られると(S105でYes)、ステップS109に示す無線タグ位置推定処理がなされる。この無線タグ位置推定処理では、無線タグTからの応答波の受信信号強度(RSSI)やその変化等に基づいて、少なくとも、無線タグリーダライタ22から無線タグT(つまり利用者)までの距離DSを算出できる(図1参照)。この距離DSの情報に基づいて、無線タグTの位置が推定される。つまり、本実施形態に係る入退室管理の場面では、少なくともその距離DSが算出されれば、その距離DSの情報に基づいて無線タグTの位置が扉のどちら側に位置しているのかということが推定される。なお、無線タグリーダライタ22を2つ、互いに離して設けることで、2つの無線タグリーダライタ22の組に対する無線タグTの方向をも算出することができ、その方向をも加味して、無線タグTの無線タグリーダライタ22に対する位置をより精度よく推定してもよい。
 なお、上記無線タグ位置推定処理を実施する管理コントローラ21は、「無線タグ位置推定部」の一例に相当する。
 このように無線タグTの位置が推定されると、ステップS111に示す撮像条件調整処理がなされる。ステップS111で実行される処理では、推定された無線タグTの位置に利用者がいるとみなして、カメラ23の撮像条件、具体的には、例えば、焦点距離、画角、撮像方向およびホワイトバランス等が、推定された無線タグTの位置にいる利用者の顔を撮像するために適した条件に調整される。なお、上記撮像条件調整処理を実施する管理コントローラ21は、「撮像条件調整部」の一例に相当する。
 続いて、ステップS113に示す撮像処理がなされて、上述のように調整された撮像条件にて、推定された無線タグTの位置にいる利用者の顔を撮像するための処理がなされる。そして、ステップS115に示す顔特徴点抽出処理にて、撮像画像から顔特徴点を第2顔特徴点として抽出するための処理がなされる。なお、上記顔特徴点抽出処理を実施する管理コントローラ21は、「抽出部」の一例に相当する。
 続いて、ステップS117の判定処理にて、撮像画像から顔特徴点が抽出されるか否かについて判定される。ここで、顔特徴点が抽出されないと判定された場合には(S117でNo)、ステップS119の判定処理にて、ステップS101で読み取られた無線タグと同じ無線タグTが読み取られているか否かについて判定され、継続して同じ無線タグTが読み取られている場合にはYesと判定されて、上記ステップS109からの処理が繰り返される。ステップS119の判定処理では、例えば、ステップS101で読み取られたID番号とステップS119で読み取るID番号が一致しているか否かを判定し、一致している場合には、継続して同じ無線タグが読み取られていると判定する。この繰り返し処理中に、同じ無線タグTが読み取られなくなると(S119でNo)、認証を希望しない利用者の無線タグTを読み取っていると判定され、上記ステップS101からの処理がなされる。
 一方、継続して同じ無線タグTが読み取られている間に(S119でYes)、撮像画像から第2顔特徴点が抽出されると、ステップS117にてYesと判定される。これにより、扉11に向かう人が携帯する無線タグTから読み取った第1顔特徴点とその人の顔画像から抽出された第2顔特徴点とが取得される。
 また、ステップS101からの繰り返し処理中に、無線タグTから第1顔特徴点が読み取られない状態で(S105でNo)、カメラ23により撮像された顔画像から第2顔特徴点が抽出されると(S107でYes)、図6のステップS121に示す利用者位置検出処理がなされる。ステップS121に示される処理では、カメラ23の撮像結果、具体的には、撮像画像に占める利用者の範囲等に基づいて、カメラ23に対する利用者の位置が検出される。なお、上記利用者位置検出処理を実施する管理コントローラ21は、「利用者位置検出部」の一例に相当する。
 このように利用者の位置が検出されると、ステップS123に示す無線通信条件調整処理がなされる。ステップS123に示される無線通信条件調整処理では、検出された利用者の位置に無線タグTがあるとみなして、無線タグリーダライタ22の無線通信条件、具体的には、例えば、電波出力や電波放射方向等が、検出された利用者の位置にある無線タグTを読み取るために適した条件に調整される。なお、上記無線通信条件調整処理を実施する管理コントローラ21は、「無線通信条件調整部」の一例に相当する。
 続いて、ステップS125に示す無線タグ読取処理がなされて、上述のように調整された無線通信条件にて、検出された利用者の位置にある無線タグTを読み取るための処理がなされる。そして、ステップS127の判定処理にて、無線タグTから第1顔特徴点等が読み取られるか否かについて判定される。ここで、第1顔特徴点等が読み取られない場合には(S127でNo)、ステップS129の判定処理にて、同一人物の顔特徴点が抽出されているか否かについて判定され、継続して同一人物の顔特徴点が抽出されている場合にはYesと判定されて、上記ステップS121からの処理が繰り返される。この繰り返し処理中に、同一人物の顔特徴点が検出されなくなると(S129でNo)、認証を希望しない利用者の顔画像を撮像しているとして、上記ステップS101からの処理がなされる。
 一方、継続して同一人物の顔特徴点が検出されている間に(S129でYes)、無線タグTから第1顔特徴点やID番号等が読み取られると、ステップS127にてYesと判定される。これにより、扉11に向かう人の顔画像から抽出された第2顔特徴点とその人が携帯する無線タグTから読み取った第1顔特徴点とが取得される。
 上述のように、無線タグTから第1顔特徴点が読み取られた後に撮像画像から第2顔特徴点が抽出されるか(S117でYes)、撮像画像から第2顔特徴点が抽出された後に無線タグTから第1顔特徴点が読み取られると(S127でYes)、ステップS131に示す照合処理がなされる。ステップS131に示される照合処理では、上述のように無線タグTから読み取られた第1顔特徴点と撮像画像から抽出された第2顔特徴点とが照合される。なお、上記照合処理を実施する管理コントローラ21は、「照合部」の一例に相当する。
 この照合結果として、例えば、第1顔特徴点と第2顔特徴点との一致率に相当する照合スコアが規定値以上になると、認証成功であると判定され(S133でYes)、ステップS135に示す解錠信号出力処理がなされ、電気鍵12に対して解錠信号が出力される(S135)。これにより、電気鍵12が一定時間解錠状態となり、利用者は、希望する部屋に入室することができる。なお、照合スコアが規定値以上になることで認証成功であると判断する管理コントローラ21は、照合結果に基づいて利用者の認証を行う「認証部」の一例に相当する。
 そして、ステップS139に示す認証結果送信処理がなされ、認証成功となった照合結果に関する情報、ID番号、日時情報等の認証成功情報がサーバ30に送信される。このように、本実施形態では、無線タグTから読み取った第1顔特徴点とカメラ23にて撮像した顔画像から抽出した第2顔特徴点とを利用して認証するため、入退室管理装置20やサーバ30等に顔特徴点等の秘匿情報を予め記憶する必要もなく、オフラインで顔認証することができる。
 一方、照合スコアが上記規定値未満になると、認証失敗であるとして(S133でNo)、ステップS137に示す施錠信号出力処理がなされ、電気鍵12に対して施錠信号が出力される。この場合には、電気鍵12の施錠状態が維持されるため、扉11が開くことなく入室できない状態が継続する。この場合にも、ステップS139に示す認証結果送信処理がなされ、認証失敗となった照合結果に関する情報やID番号、日時情報等の認証失敗情報がサーバ30に送信される。
 なお、上述した認証結果送信処理は、照合されるごとに実施されてもよいし、所定の送信タイミングにて一括して実施されてもよい。特に、照合されるごとに認証結果をサーバ30に送信する構成では、サーバ30において認証成功情報に含まれるID番号が認証制限すべき所定のネガリストに登録されたものである場合に、認証制限情報を入退室管理装置20に送信することで、入退室管理装置20における認証成功時での処理を制限するようにしてもよい。
 以上説明したように、本実施形態に係る入退室管理システム10では、無線タグリーダライタ22により無線タグTから読み取られた第1顔特徴点とカメラ23により撮像された利用者の顔の画像から抽出された第2顔特徴点とが照合処理(S131)により照合され、この照合結果に基づいて利用者の認証が行われる。その際、抽出処理により第2顔特徴点が抽出される前に無線タグリーダライタ22により第1顔特徴点が読み取られると(S105でYes)、推定された無線タグTの位置に応じて撮像条件が撮像条件調整処理(S111)により調整される。また、無線タグリーダライタ22により第1顔特徴点が読み取られる前に抽出処理により第2顔特徴点が抽出されると(S107でYes)、検出された利用者の位置に応じて無線通信条件が無線通信条件調整処理(S123)により調整される。
 これにより、カメラ23に対して顔画像から顔特徴点を抽出不能な位置に利用者がいたとしても、無線タグTの位置が推定された場合には、この推定された無線タグTの位置、すなわち、利用者の位置に応じて、焦点距離や画角、撮像方向やホワイトバランス等の撮像条件を調整することで、この調整後に撮像された顔画像から顔特徴点(第2顔特徴点)が抽出される可能性を高めることができる。一方、無線タグリーダライタ22に対して読み取り困難な位置に無線タグTがあったとしても、利用者の位置が検出された場合には、この検出された利用者の位置、すなわち、無線タグTの位置に応じて、無線タグリーダライタ22での電波出力や電波放射方向等の無線通信条件を調整することで、この調整後に無線タグリーダライタ22が無線タグTから第1顔特徴点を読み取る可能性を高めることができる。したがって、撮像画像からの顔特徴点の抽出と無線タグの読み取りとを必要とする認証であっても、当該認証出来る状況を増やし、かつスムーズな認証を実現することができる。
 なお、本実施形態の第1変形例として、図7に例示するフローチャートのように、上記施解錠処理では、無線タグTから第1顔特徴点が読み取られるまで上記ステップS101,S103の処理を行うようにしてもよい。そして、無線タグTから第1顔特徴点が読み取られた際に(S105でYes)、第2顔特徴点が抽出されていない場合には(S107でNo)、上記ステップS109以降の処理を行い、第2顔特徴点が抽出されていると(S107でYes)、上記ステップS131以降の処理を行うことで、上記ステップS121以降の無線通信条件調整に関する処理を不要にしてもよい。
 このようにしても、カメラ23に対して顔画像から顔特徴点を抽出不能な位置に利用者がいた場合には、先に推定された無線タグTの位置、すなわち、利用者の位置に応じて、焦点距離や画角、撮像方向やホワイトバランス等の撮像条件を調整することで、この調整後に撮像された顔画像から顔特徴点が抽出される可能性を高めることができる。
 また、本実施形態の第2変形例として、図8に例示するフローチャートのように、上記施解錠処理では、カメラ23にて撮像された顔画像から第2顔特徴点が抽出されるまで上記ステップS101,S103の処理を行うようにしてもよい。そして、顔画像から第2顔特徴点が抽出された際に(S107でYes)、無線タグTから第1顔特徴点が読み取られていない場合には(S105でNo)、上記ステップS121以降の処理を行い、無線タグTから第1顔特徴点が読み取られていると(S105でYes)、上記ステップS131以降の処理を行うことで、上記ステップS109以降の撮像条件調整に関する処理を不要にしてもよい。
 このようにしても、無線タグリーダライタ22に対して読み取り困難な位置に無線タグTがあった場合には、先に検出された利用者の位置、すなわち、無線タグTの位置に応じて、無線タグリーダライタ22での電波出力および電波放射方向等の無線通信条件を調整することで、この調整後に無線タグリーダライタ22が無線タグTから第1顔特徴点を読み取る可能性を高めることができる。
[第2実施形態]
 次に、本発明の第2実施形態に係る入退室管理システム10について、図9を用いて説明する。
 本第2実施形態では、無線タグTに記憶される第1顔特徴点を更新する点が主に上記第1実施形態と異なる。このため、第1実施形態と実質的に同様の構成部分には同一符号を付して説明を省略する。
 第1顔特徴点が無線タグTに記憶されてから更新されないシステム構成では、利用者の顔の経年変化等により、徐々に認証が難しくなる傾向になる。その一方で、無線タグTに記憶される第1顔特徴点を定期的に更新することで上記認証に関する問題は改善されるが、その更新の都度、利用者の認証用の顔画像を用意する必要があり手間になるという問題がある。さらに、顔特徴点は個人情報に相当するもので責任者の管理が必要な機密事項に関わる情報となるため、この点からしても更新作業が手間になるという問題がある。
 そこで、本実施形態では、照合処理時の照合スコアが所定の閾値以上となる場合に、管理コントローラ21の制御回路21aにてなされる更新処理において、無線タグTに記憶される第1顔特徴点を、抽出された第2顔特徴点に一致するように書き換える。本実施形態では、上記所定の閾値は、上記規定値よりも大きな値に設定されているが、これに限らず、例えば、上記規定値に等しくなるように設定されてもよい。
 具体的には、無線タグTには、書込日時が異なる2種類の第1顔特徴点がID番号やその書込日時とともに記憶されている。このため、上記施解錠処理では、上記無線タグ読取処理時に読み取られた2種類の第1顔特徴点のうち正常であって書込日時が新しい第1顔特徴点を利用して、照合処理(S131)が実施される。そして、上記照合処理時の照合スコアが所定の閾値以上となる場合になされる更新処理では、2種類の第1顔特徴点のうち認証に利用されなかった第1顔特徴点が更新対象とされる。また、第1顔特徴点を構成するデータには、正確なデータであるか否かを判断するために誤り訂正符号等を含めることができる。
 以下、管理コントローラ21にてなされる更新処理について、図9に示すフローチャートを参照して説明する。
 上記照合処理時の照合スコアが所定の閾値以上となることで、管理コントローラ21により更新処理が開始されると、まず、図9のステップS201の判定処理にて、無線タグTから異常な第1顔特徴点が読み取られているか否かについて判定される。ここで、誤り訂正符号等を利用することで、上記無線タグ読取処理(S101,S125)にて正常な2種類の第1顔特徴点が読み取られていると判断される場合には(S201でNo)、書込日時が古い第1顔特徴点が更新対象として設定される(S203)。
 そして、ステップS207の判定処理にて、更新対象に設定された第1顔特徴点の書込日時からの経過日時が所定期間を経過しているか否かについて判定される。ここで、更新対象に設定された第1顔特徴点の書込日時からの経過日時が上記所定期間を経過してないと判定された場合には(S207でNo)、第1顔特徴点の更新が不要であるとして、本更新処理が終了する。なお、上記所定期間は、例えば、1月、半年、1年など、任意の期間に設定することができる。
 一方、更新対象に設定された第1顔特徴点の書込日時からの経過日時が上記所定期間を経過していると判定された場合には(S207でYes)、第1顔特徴点の更新が必要であるとして、ステップS209に示す書換処理がなされる。ステップS209に示す書換処理では、無線タグリーダライタ22により、更新対象に設定された第1顔特徴点を、上述のように抽出された第2顔特徴点に一致するように書き換える処理がなされる。また、上記書換処理では、書込日時も第1顔特徴点と同様に書き換えられる。
 また、上記無線タグ読取処理にて異常な第1顔特徴点が読み取られていると判断される場合には(S201でYes)、この異常な第1顔特徴点が更新対象に設定されて(S205)、その書込日時にかかわらず、この異常な第1顔特徴点を抽出された第2顔特徴点に一致するように書き換えるための処理がなされる(S209)。
 上記書換処理が完了すると(S211でYes)、本更新処理が終了する。一方、書き込むべき第1顔特徴点の情報量が多く書き込み中に利用者が移動しているために上記書き込み処理が失敗すると(S211でNo)、ステップS213の判定処理にて、同一人物の顔特徴点が抽出されているか否かについて判定される。ここで、同一人物の顔特徴点が抽出されなくなっていると判定された場合には(S213でNo)、書換完了を待つことなく、本更新処理が終了する。
 一方、同一人物の顔特徴点が抽出されていると判定された場合には(S213でYes)、ステップS215に示す利用者位置検出処理がなされ、カメラ23により撮像された利用者の画像に基づいて、その利用者の位置が検出される。続いて、ステップS217に示す無線通信条件調整処理がなされ、検出された利用者の位置に無線タグTがあるとみなして、無線タグリーダライタ22の無線通信条件、具体的には、例えば、電波出力や電波放射方向等が、検出された利用者の位置にある無線タグTを読み取るために適した条件に調整される。そして、このように無線通信条件が調整された状態で上記ステップS209からの処理がなされる。
 以上説明したように、本実施形態に係る入退室管理システム10では、上記照合処理の照合結果として第1顔特徴点と第2顔特徴点との一致率に相当する照合スコアが所定の閾値以上となる場合に、上記更新処理が開始され、無線タグリーダライタ22により、書込日時からの経過日時が所定期間を経過している第1顔特徴点が、第2顔特徴点に一致するように書き換えられる。
 このように、照合スコアが上記所定の閾値以上となる場合に、無線タグリーダライタ22により、無線タグTに記憶される第1顔特徴点が、抽出された第2顔特徴点に一致するように書き換えられることで、利用者や管理者等が更新用の作業を行う必要もないので、更新のための手間をなくすことができる。特に、照合スコアが所定の閾値以上となる第2顔特徴点は、認証用の顔特徴点として信頼性が高いため、信頼性の高い顔特徴点を第1顔特徴点として無線タグTに記憶することができる。
 さらに、書込日時からの経過日時が所定期間を経過している第1顔特徴点が、第2顔特徴点に一致するように書き換えられるため、書込日時からの経過日時が上記所定期間を経過していない第1顔特徴点が更新対象にならず、照合スコアが所定の閾値以上となるごとに無線タグに記憶される第1顔特徴点が更新されることもないので、不要な第1顔特徴点の更新をなくすことができる。
 特に、無線タグリーダライタ22による書き換えが失敗すると(S211でNo)、利用者位置検出部により検出された利用者の位置に応じて無線通信条件が調整される。これにより、この調整後での無線タグリーダライタ22による書き換え成功率を高めることができる。
 なお、無線タグTには、2つの第1顔特徴点が書き込まれることに限らず、3つ以上の第1顔特徴点がそれぞれの書込日時とともに書き込まれてもよい。このように複数の第1顔特徴点のうち最も古い1つを第2顔特徴点に一致するように書き換えることで、複数パターンの第1顔特徴点を保持することができる。特に、更新時に無線タグTが無線タグリーダライタ22の通信範囲外に移動等したために1つの第1顔特徴点について書き換えが失敗した場合でも、残りの第1顔特徴点を利用して認証できるので、書き換え失敗のために認証不能となることを防止することができる。また、無線タグTには、複数種類の第1顔特徴点が書き込まれることに限らず、書換処理が失敗する可能性が低いなど、使用環境等によっては、1つの第1顔特徴点が書き込まれるように構成されてもよい。
[第3実施形態]
 次に、本開示の第3実施形態に係る入退室管理システム10について、図10及び図11を用いて説明する。
 本第3実施形態では、利用者の移動速度を検出し、この検出した移動速度に応じて扉11の開閉タイミングを変える点が主に上記第1実施形態と異なる。このため、第1実施形態と実質的に同様の構成部分には同一符号を付して説明を省略する。
 図10では、無線タグリーダライタ22に対してA地点、B地点、C地点と近づいている利用者の無線タグTの応答電力について、A地点にいる利用者の無線タグTの応答電力Ea、B地点にいる利用者の無線タグTの応答電力Eb、C地点にいる利用者の無線タグTの応答電力Ecとするとき、応答電力Eaが最も小さく、応答電力Ecが最も大きく測定されることを図示している。すなわち、無線タグリーダライタ22に近づくほど読み取られる無線タグTの応答電力が高くなる。
 そこで、管理コントローラ21は、無線タグTからの応答電力を示す信号を読み込み(図11、ステップS221)、その信号から応答電力波形(位置-電力強度を示す波形)の振幅(例えば最大振幅)を算出し(ステップS222)、単位時間当たりの応答電力の変化率(例えば最大振幅の変化率)に応じて無線タグTの移動速度、すなわち、利用者の移動速度を測定する(ステップS223)。
 そこで、本実施形態では、管理コントローラ21は、利用者の移動速度が速くなるほど、認証成功になされる解錠信号の出力タイミングを速めている(ステップS224)。これにより、扉11に対する利用者の移動速度にあわせて扉11の開閉タイミングを調整することができる。
 なお、カメラ23により撮像される撮像画像において顔画像が占める範囲の単位時間当たりの変化に応じて利用者の移動速度を測定し、この測定された利用者の移動速度が速くなるほど、認証成功になされる解錠信号の出力タイミングを速めてもよい。
 なお、本発明は上記各実施形態及び変形例等に限定されるものではなく、例えば、以下のように具体化してもよい。
(1)上記撮像条件調整処理にて調整される撮像条件として、焦点距離(フォーカス)や画角(視野角)、撮像方向やホワイトバランス等が採用されることに限らず、例えば、さらに、別途設けられる照明部の照明光の明るさや照射方向等が採用されてもよい。
(2)上記無線通信条件調整処理では、例えば、指向性の異なるアンテナを複数用意して利用するアンテナの組み合わせを変えることで無線通信条件を調整してもよい。
(3)本発明に係る認証システムは、特定の部屋への入室を許可される入退室管理システム10に適用されることに限らず、例えば、扉が無い部屋やコンサート会場等への入退場ゲートを管理する管理システムに採用されてもよいし、小売店等で認証が必要なサービス提供時に利用されるシステムに採用されてもよい。
(4)上記施解錠処理では、無線タグリーダライタ22により読み取られる無線タグTの数とカメラ23の撮像画像から抽出される顔特徴点の数(人の顔の数)とが異なる場合には、許可されてない人が許可されている人に連れられるように通過する共連れを防止するため、認証失敗となるように制御されてもよい。
(5)上記施解錠処理では、照合スコアが規定値以上であって、所定の場所的条件、所定の時間的条件、所定の回数的条件の少なくともいずれか1つを満たす場合に、認証成功であると判定してもよい。
(6)上記無線タグ位置推定処理(S109)では、無線タグTからの応答波の受信信号強度(RSSI)やその変化等に応じて求められる無線タグTまでの距離や無線タグTの方向に基づいて、その無線タグTの位置が推定されることに限らず、例えば、無線タグTの方向を考慮することなく、少なくとも無線タグTからの応答波の受信信号強度に応じて無線タグTまでの距離が検出されてもよい。この場合には、上記撮像条件調整処理(S111)では、例えば、カメラ23の撮像条件として、焦点距離(カメラ23のピント)が、上述のように検出された無線タグTまでの距離に応じて調整される。すなわち、少なくとも無線タグTからの応答波に応じて検出される当該無線タグTまでの距離を利用して無線タグTの位置が推定され、この推定された無線タグTの位置に応じて撮像条件が調整される。このようにしても、カメラ23の撮像方向に利用者が位置している場合には、上記調整後に撮像された顔画像から顔特徴点(第2顔特徴点)が抽出される可能性を高めることができる。
 10…入退室管理システム(認証システム)
 11…扉
 12…電気鍵
 20…入退室管理装置(認証装置)
 21…管理コントローラ(無線タグ位置推定部,無線通信条件調整部,利用者位置検出部,撮像条件調整部,抽出部,照合部,認証部)
 22…無線タグリーダライタ(無線通信部)
 23…カメラ(撮像部)
 T…無線タグ

Claims (8)

  1.  利用者が携帯する無線タグに予め保存された情報に基づいて前記利用者の認証を行う認証装置を備える認証システムであって、
     前記無線タグには、前記利用者の顔を撮像した撮像画像から抽出される顔特徴点が前記情報の一部として第1顔特徴点として予め記憶され、
     前記認証装置は、
     前記無線タグとの間で前記情報を無線で読み書き可能な無線通信部と、
     少なくとも前記無線タグからの応答波に応じて検出される当該無線タグまでの距離に基づいて前記無線タグの位置を推定する無線タグ位置推定部と、
     前記利用者の顔を撮像するための撮像部と、
     前記撮像部の撮像条件を調整する撮像条件調整部と、
     前記撮像部により撮像された前記利用者の顔の画像から顔特徴点を第2顔特徴点として抽出する抽出部と、
     前記無線通信部により前記無線タグから読み取られた前記第1顔特徴点と前記抽出部により抽出された前記第2顔特徴点とを照合する照合部と、
     前記照合部の照合結果に基づいて前記利用者の認証を行う認証部と、
     を備え、
     前記撮像条件調整部は、前記無線タグ位置推定部により推定された前記無線タグの位置に応じて前記撮像条件を調整することを特徴とする認証システム。
  2.  利用者が携帯する無線タグに予め保存された情報に基づいて前記利用者の認証を行う認証装置を備える認証システムであって、
     前記無線タグには、前記利用者の顔を撮像した撮像画像から抽出される顔特徴点が前記情報の一部として第1顔特徴点として予め記憶され、
     前記認証装置は、
     前記無線タグとの間で情報を無線で読み書き可能な無線通信部と、
     前記無線通信部の無線通信条件を調整する無線通信条件調整部と、
     前記利用者の顔を撮像するための撮像部と、
     前記撮像部の撮像結果に応じて前記利用者の位置を検出する利用者位置検出部と、
     前記撮像部により撮像された前記利用者の顔の画像から顔特徴点を第2顔特徴点として抽出する抽出部と、
     前記無線通信部により前記無線タグから読み取られた前記第1顔特徴点と前記抽出部により抽出された前記第2顔特徴点とを照合する照合部と、
     前記照合部の照合結果に基づいて前記利用者の認証を行う認証部と、
     を備え、
     前記無線通信条件調整部は、前記利用者位置検出部により検出された前記利用者の位置に応じて前記無線通信条件を調整することを特徴とする認証システム。
  3.  利用者が携帯する無線タグに予め保存された情報に基づいて前記利用者の認証を行う認証装置を備える認証システムであって、
     前記無線タグには、前記利用者の顔を撮像した撮像画像から抽出される顔特徴点が前記情報の一部として第1顔特徴点として予め記憶され、
     前記認証装置は、
     前記無線タグとの間で前記情報を無線で読み書き可能な無線通信部と、
     前記無線通信部の無線通信条件を調整する無線通信条件調整部と、
     少なくとも前記無線タグからの応答波に応じて検出される当該無線タグまでの距離に基づいて前記無線タグの位置を推定する無線タグ位置推定部と、
     前記利用者の顔を撮像するための撮像部と、
     前記撮像部の撮像条件を調整する撮像条件調整部と、
     前記撮像部の撮像結果に応じて前記利用者の位置を検出する利用者位置検出部と、
     前記撮像部により撮像された前記利用者の顔の画像から顔特徴点を第2顔特徴点として抽出する抽出部と、
     前記無線通信部により前記無線タグから読み取られた前記第1顔特徴点と前記抽出部により抽出された前記第2顔特徴点とを照合する照合部と、
     前記照合部の照合結果に基づいて前記利用者の認証を行う認証部と、
     を備え、
     前記抽出部により前記第2顔特徴点が抽出される前に前記無線通信部により前記第1顔特徴点が読み取られると、前記撮像条件調整部は、前記無線タグ位置推定部により推定された前記無線タグの位置に応じて前記撮像条件を調整し、
     前記無線通信部により前記第1顔特徴点が読み取られる前に前記抽出部により前記第2顔特徴点が抽出されると、前記無線通信条件調整部は、前記利用者位置検出部により検出された前記利用者の位置に応じて前記無線通信条件を調整することを特徴とする認証システム。
  4.  前記無線通信部は、前記照合部の照合結果として前記第1顔特徴点と前記第2顔特徴点との一致率に相当する照合スコアが所定の閾値以上となる場合に、前記無線タグに記憶される前記第1顔特徴点を、前記抽出部により抽出された前記第2顔特徴点に一致するように書き換えることを特徴とする請求項1~3のいずれか一項に記載の認証システム。
  5.  前記無線タグには、前記第1顔特徴点を書き込んだ書込日時が記憶され、
     前記無線通信部は、前記照合スコアが前記所定の閾値以上となる場合に、前記書込日時からの経過日時が所定期間を経過している前記第1顔特徴点を、前記第2顔特徴点に一致するように書き換えることを特徴とする請求項4に記載の認証システム。
  6.  前記無線タグには、複数の前記第1顔特徴点がそれぞれの前記書込日時とともに書き込まれることを特徴とする請求項5に記載の認証システム。
  7.  前記無線通信部の無線通信条件を調整する無線通信条件調整部と、
     前記撮像部の撮像結果に応じて前記利用者の位置を検出する利用者位置検出部と、
     を備え、
     前記無線通信部による書き換えが失敗すると、前記無線通信条件調整部は、前記利用者位置検出部により検出された前記利用者の位置に応じて前記無線通信条件を調整することを特徴とする請求項4~6のいずれか一項に記載の認証システム。
  8.  利用者の顔の撮像画像から抽出された顔特徴点である第1顔特徴点を無線タグに記憶させ、
     少なくとも前記無線タグからの応答波に応じて検出される当該無線タグまでの距離に基づいて前記無線タグの位置を推定し、
     前記利用者の顔を撮像するための撮像部の撮像条件を、前記推定された前記無線タグの位置に応じて調整し、
     前記撮像部により撮像された前記利用者の顔の画像から顔特徴点を第2顔特徴点として抽出し、
     前記無線タグから読み取られた前記第1顔特徴点と前記抽出された前記第2顔特徴点とを照合し、
     照合部の照合結果に基づいて前記利用者の認証を行う、認証方法。
PCT/JP2020/026518 2019-07-08 2020-07-07 認証システム及び認証方法 WO2021006260A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP20836271.5A EP3998388A4 (en) 2019-07-08 2020-07-07 AUTHENTICATION SYSTEM AND PROCESS
US17/625,929 US20220245965A1 (en) 2019-07-08 2020-07-07 Authentication system and authentication method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-126642 2019-07-08
JP2019126642A JP7259601B2 (ja) 2019-07-08 2019-07-08 認証システム

Publications (1)

Publication Number Publication Date
WO2021006260A1 true WO2021006260A1 (ja) 2021-01-14

Family

ID=74114803

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/026518 WO2021006260A1 (ja) 2019-07-08 2020-07-07 認証システム及び認証方法

Country Status (4)

Country Link
US (1) US20220245965A1 (ja)
EP (1) EP3998388A4 (ja)
JP (1) JP7259601B2 (ja)
WO (1) WO2021006260A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008097536A (ja) * 2006-10-16 2008-04-24 Matsushita Electric Works Ltd ユーザー認証装置
JP2008288745A (ja) * 2007-05-16 2008-11-27 Hitachi Ltd 映像情報処理装置
JP2012079101A (ja) * 2010-10-01 2012-04-19 Nippon Signal Co Ltd:The 認証システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6698653B1 (en) * 1999-10-28 2004-03-02 Mel Diamond Identification method, especially for airport security and the like
JP2003331323A (ja) 2002-05-17 2003-11-21 Nippon Signal Co Ltd:The 自動ゲートシステム
US7362219B2 (en) * 2004-07-28 2008-04-22 Canon Kabushiki Kaisha Information acquisition apparatus
JP2006040059A (ja) 2004-07-28 2006-02-09 Canon Inc 対象物情報取得装置、対象物認証装置、及びそれらの制御方法
US7995770B1 (en) * 2007-02-02 2011-08-09 Jeffrey Franklin Simon Apparatus and method for aligning and controlling reception of sound transmissions at locations distant from the sound source
US20090322477A1 (en) * 2008-06-29 2009-12-31 Victor Manuel Celorio Self-Activated Secure Identification Document
US8618913B1 (en) * 2009-10-19 2013-12-31 Emc Corporation Radio frequency identification enabled mobile device
WO2015120084A1 (en) 2014-02-04 2015-08-13 Secure Gravity Inc. Methods and systems configured to detect and guarantee identity
WO2018013435A1 (en) * 2016-07-10 2018-01-18 Global Net Solutions, Inc. System and method for tracking individuals
DE102016224746A1 (de) * 2016-12-12 2018-06-14 Continental Automotive Gmbh Zugangs- und/oder Startvorrichtung für ein Fahrzeug
WO2019033025A1 (en) * 2017-08-10 2019-02-14 Patroness, LLC SYSTEMS AND METHODS FOR IMPROVED AUTONOMOUS OPERATIONS OF A MOTORIZED MOBILE SYSTEM
EP3963565A4 (en) * 2019-05-01 2022-10-12 Magic Leap, Inc. CONTENT DELIVERY SYSTEM AND PROCEDURES

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008097536A (ja) * 2006-10-16 2008-04-24 Matsushita Electric Works Ltd ユーザー認証装置
JP2008288745A (ja) * 2007-05-16 2008-11-27 Hitachi Ltd 映像情報処理装置
JP2012079101A (ja) * 2010-10-01 2012-04-19 Nippon Signal Co Ltd:The 認証システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3998388A4 *

Also Published As

Publication number Publication date
US20220245965A1 (en) 2022-08-04
JP2021012557A (ja) 2021-02-04
EP3998388A4 (en) 2022-08-24
JP7259601B2 (ja) 2023-04-18
EP3998388A1 (en) 2022-05-18

Similar Documents

Publication Publication Date Title
US10796514B2 (en) System and method for optimizing a facial recognition-based system for controlling access to a building
US7110580B2 (en) Distributed biometric access control method and apparatus
CN102483845B (zh) 生物体认证装置、生物体认证系统和生物体认证方法
US20230267765A1 (en) Methods and apparatus for facial recognition
JP5932317B2 (ja) 顔認証データベース管理方法、顔認証データベース管理装置及び顔認証データベース管理プログラム
JP6155857B2 (ja) 入退室管理装置および入退室管理システム
US20070260886A1 (en) Biometric authentication device having machine-readable-zone (MRZ) reading functionality and method for implementing same
JP2007303239A (ja) 認証装置、認証装置の制御方法、および認証装置の制御プログラム
WO2021006260A1 (ja) 認証システム及び認証方法
EP3913575A1 (en) Authentication system, authentication device, and authentication method
WO2007030907A1 (en) Digital encoding of images of skin-covered body parts
JP2009037463A (ja) 個人認証装置および個人認証方法
JP2002342862A (ja) アクセス管理システム
US20080290991A1 (en) Procedure for the determination of an authorization
JP2022032529A (ja) 顔認証サーバ、情報処理方法及び情報処理システム
JP2021130994A (ja) 施解錠装置
KR101642035B1 (ko) 홍채 정보를 이용한 인증 정보 생성장치 및 방법, 그를 구비한 인증 시스템
US20220198861A1 (en) Access control system screen capture facial detection and recognition
JP7257996B2 (ja) 来訪者管理サーバ、情報処理方法及び情報処理システム
KR102601100B1 (ko) 사용자 인증 장치 및 사용자 인증 방법
JP7316982B2 (ja) 顔認証サーバ及び情報処理方法
US20220101649A1 (en) Information processing system, information processing method, and storage medium for anonymized person detection
JP2005107588A (ja) 人物照合システムおよび入退室管理システム
JP2004139259A (ja) 人物認識装置、人物認識方法および通行制御装置
JP2023079948A (ja) 情報処理装置、及びその制御方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20836271

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020836271

Country of ref document: EP

Effective date: 20220208