WO2023033057A1 - ゲートシステム、セキュリティシステム、及びセンサユニット - Google Patents

ゲートシステム、セキュリティシステム、及びセンサユニット Download PDF

Info

Publication number
WO2023033057A1
WO2023033057A1 PCT/JP2022/032808 JP2022032808W WO2023033057A1 WO 2023033057 A1 WO2023033057 A1 WO 2023033057A1 JP 2022032808 W JP2022032808 W JP 2022032808W WO 2023033057 A1 WO2023033057 A1 WO 2023033057A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
information
unit
gate system
imaging
Prior art date
Application number
PCT/JP2022/032808
Other languages
English (en)
French (fr)
Inventor
規之 鈴木
力孔 鈴木
Original Assignee
株式会社アスタリスク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社アスタリスク filed Critical 株式会社アスタリスク
Priority to JP2023545647A priority Critical patent/JPWO2023033057A1/ja
Publication of WO2023033057A1 publication Critical patent/WO2023033057A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/38Individual registration on entry or exit not involving the use of a pass with central registration
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/19Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using infrared-radiation detection systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to gate systems, security systems, and sensor units that control access to and from buildings.
  • Patent Document 1 describes a power supply control system for electronic devices based on user authentication when entering and leaving a room.
  • the system of Patent Document 1 includes an electric lock that locks and unlocks an entrance/exit gate through which a user enters and exits a room, a door operator that controls the electric lock, and a door operator that can communicate with the door operator via a network. and a management server.
  • the door opening/closing device has an input device for a user entering the room to input his or her biometric information. For example, a fingerprint input device is used when fingerprint information is used as biometric information, and a microphone is used when voice information or voiceprint information is used.
  • the door opening/closing device transmits the biometric information input by the input device to the management server.
  • the management server identifies the user by comparing the biometric information received from the door operator with the biometric information of each user stored in advance in the memory, and sends information on whether or not the user can enter the room to the door operator. Send.
  • the door opening/closing device unlocks the electric lock when receiving permission information to the effect that entry is permitted.
  • the present invention is a gate system for controlling the entry and exit of a person at a doorway of a building, comprising: a voice information generating section that generates voice information of a person; a first imaging section that generates a facial image of the person; a second imaging unit configured to generate an eyeball image; and a processing unit capable of communicating with the audio information generating unit, the first imaging unit, and the second imaging unit, wherein The person is authenticated based on any one of the acquired voice information, the face image acquired from the first imaging section, or the eyeball image acquired from the second imaging section.
  • the gate system of the present invention is also characterized in that the audio information generating section, the first imaging section, and the second imaging section are provided in each of a plurality of areas defined in the building.
  • the authentication of the person based on the eye image is also in the iris included in the eye image, the capillaries in the white part of the eye included in the eye image, or the retina included in the eye image. It is characterized by being carried out on the basis of capillaries.
  • the gate system of the present invention is also characterized in that the person's authentication is performed by machine learning.
  • the gate system of the present invention is also characterized in that the second imaging section changes the imaging direction according to the position of the person's eyes.
  • the gate system of the present invention is also characterized in that the second imaging section changes the imaging direction according to the position of the eyes in the image generated by the first imaging section.
  • the gate system of the present invention is also characterized in that the first imaging unit is a TOF camera module.
  • the gate system of the present invention is also characterized in that the second imaging section includes an imaging device for imaging the person's right eye and an imaging device for imaging the person's left eye.
  • the gate system of the present invention also has a storage unit that associates and stores the persons who entered and exited the building and their entry and exit times.
  • the gate system of the present invention is also characterized in that the storage unit further associates and stores voice information, face images, or eyeball images of persons who have entered and exited the building.
  • the storage unit stores in advance the person who can enter and exit the building and the date and time when the person can enter and exit in association with the person
  • the processing unit stores the person who has been authenticated. It is characterized by extracting the corresponding date and time from the storage unit and determining whether or not the date and time when the authentication is performed is included in the extracted date and time.
  • the gate system of the present invention is also characterized by comprising a registration unit for registering information regarding persons who can enter and exit the building in the storage unit, and wherein the registration unit is a mobile information terminal.
  • the gate system of the present invention further comprises an information terminal capable of communicating with the processing unit via a network, wherein the information terminal transmits information to the processing unit to authenticate the person. characterized by
  • the security system of the present invention is characterized by comprising the above gate system.
  • the security system of the present invention is characterized by comprising a control panel for controlling the gate system, and the processing section of the gate system suspending the authentication based on the control of the control panel.
  • the security system of the present invention is characterized by comprising a detection unit that detects a person in the building under the control of the control panel, and a reporting unit that makes a report based on information detected by the detection unit.
  • the security system of the present invention is characterized by comprising an imaging unit provided within the building.
  • the security system of the present invention is characterized in that the control panel includes a biometrics authentication unit that performs biometrics authentication based on the user's biometric information, and the control is performed when the user is authenticated by the biometrics authentication. do.
  • the audio information generating section, the first image pickup section, and the second image pickup section included in the gate system are provided in a housing, and installed near the entrance of the building. Characterized by
  • the present invention can smoothly acquire the user's biometric information and quickly perform entry/exit authentication.
  • FIG. 1 is a schematic diagram of a gate system according to a first embodiment of the present invention
  • FIG. Hardware configuration diagram of the above gate system Flow diagram of the computer possessed by the above gate system Schematic diagram of a gate system according to a second embodiment of the present invention
  • (a) hardware configuration diagram of the entrance sensor unit of the gate system (b) hardware configuration diagram of the room sensor unit of the gate system
  • Hardware configuration diagram of the above gate system (a) Diagram showing user database, (b) Diagram showing contents of management database
  • a A hardware configuration diagram of a security system according to the third embodiment of the present invention, (b) A hardware configuration diagram of a control panel included in the security system
  • the gate system 100 of this embodiment is a system for opening and closing the lock provided at the entrance door d of a house. 110, a control panel 130 installed near the entrance door d, and an auto-lock type electric lock 150 installed at the entrance door d.
  • the sensor unit 110 is a unit containing a sensor for generating biometric information of a person entering and exiting the house, and is installed at the eye level of the person or at a position slightly lower than the eye level. As shown in FIG. 2, the sensor unit 110 accommodates a microphone module 111 that is an audio information generating section, a first camera module 112 that is a first imaging section, and a second camera module 113 that is a second imaging section. It is
  • the microphone module 111 is a module that acquires a voice uttered by a person and generates voice information. and an analog-to-digital conversion circuit (hereinafter referred to as ADC) that converts the electrical signal into a digital signal.
  • ADC analog-to-digital conversion circuit
  • the first camera module 112 is a module that takes an image of a person's face and generates a face image. and a microcomputer (first microcomputer) that generates a facial image based on an output signal from the imaging device. Further, as the imaging element, an element that receives infrared rays and outputs a signal corresponding to the intensity of the infrared rays may be used. A light source that emits infrared light may also be used.
  • the output of the first camera module 112 that is, the output of the first microcomputer is input to the computer 131 of the control panel 130 .
  • the second camera module 113 is a module that captures an image around the eyes of a person and generates an eyeball image. , a lens that forms an image of the eye on the light receiving surface of the imaging element, and a microcomputer (second microcomputer) that generates an eyeball image based on an output signal from the imaging element. Further, it is preferable to use an element that receives infrared rays and outputs a signal corresponding to the intensity of the infrared rays as the imaging element. A light source that emits infrared light may also be used. The output of this second camera module 113 , that is, the output of the second microcomputer is input to the computer 131 of the control panel 130 .
  • the computer 131 has a CPU and memory.
  • the memory stores in advance a program for executing a process to be described later.
  • the computer 131 receives the biometric information (voice information, face image, eyeball image).
  • the biometric information voice information, face image, eyeball image.
  • an acquisition unit that acquires biometric information from each module 111, 112, and 113, a learning unit that learns the acquired biometric information, an authentication unit that authenticates a person based on the acquired biometric information, and an electric lock 150. It functions as a control unit that controls unlocking and locking.
  • the processing of the computer 131 will be described below with reference to FIG.
  • the computer 131 operates in learning mode or authentication mode by the CPU executing the program stored in the memory.
  • the learning mode and the authentication mode are switched based on an input signal of a switch 132 (FIG. 2) connected to the computer 131.
  • FIG. 2 FIG.
  • the learning mode is a mode for learning biometric information of a person (user) who has the authority to enter and exit the house, and is executed when the changeover switch 132 is in the ON state (s001: ON).
  • the learning mode executes acquisition processing (s010) and learning processing (s011) in this order.
  • Acquisition processing (s010) is processing for acquiring biometric information from each of the modules 111, 112, and 113 of the sensor unit 110.
  • the learning process (s011) is so-called machine learning with teacher data, and generates a learned model using the acquired biometric information (voice information, face image, and eyeball image) as teacher data.
  • a learned model is generated based on the voiceprint included in the voice information.
  • a trained model is generated based on the physical features (planar position, size, and shape) of the eyes, nose, and mouth shown in facial images. Note that when a TOF camera module is adopted as the first camera module 112, a learned model is generated based on the stereoscopic positions of the eyes, nose, and mouth.
  • typical examples include a trained model based on the iris pattern around the pupil included in the eyeball image, and a pattern of capillaries present in the white part of the eye included in the eyeball image. and a trained model based on the pattern of capillaries in the retina included in the eyeball image.
  • the acquisition process (s010) and learning process (s011) are performed for each user.
  • identification information is assigned to each user, and biometric information is learned together with the identification information.
  • the identification information is information for mutually identifying each user, and is given to each user so as to be unique.
  • a user list is stored in the memory of the computer 131 . This user list is a list of identification information of all users.
  • the authentication mode is a mode for authenticating a person who enters the house, and is executed when the changeover switch is in the off state (s001: OFF).
  • the authentication mode executes acquisition processing (s020), determination processing (s021), and collation processing (s022) in this order.
  • the acquisition process (s020) is a process of acquiring biometric information from the sensor unit 110.
  • the determination process (s021) is a process of determining a person based on the acquired biometric information, and is determined by inputting the biometric information into the learned model. If the user is determined to be the user, the identification information of the user is output. On the other hand, when it is determined that the person is not the user, information indicating that the person is an unknown person is output.
  • the matching process (s022) is a process of matching the determination result (user identification information, etc.) with the user list.
  • the CPU functioning as the authentication unit in this manner functions as a determination unit that determines a person based on the acquired biometric information and a matching unit that matches the determined person.
  • the control process (s023) is executed based on the collation result.
  • the control process (s023) is a process for controlling the electric lock 150.
  • the computer 131 inputs an unlocking signal for unlocking the front door d to the electric lock 150 .
  • the computer 131 of the control panel 130 is wire-connected to the automatic lock type electric lock 150 .
  • the electric lock 150 unlocks the entrance door d based on the control signal (unlock signal) input from the computer 131 .
  • the above authentication processing is executed based on any biometric information input from the sensor unit 110 .
  • authentication processing is performed based on the voice information input from the microphone module 111 and/or the eyeball image input from the second camera module 113 .
  • authentication processing is executed based on voice information input from the microphone module 111 .
  • authentication processing is executed based on the face image input from the first camera module 112 and/or the eyeball image input from the second camera module 113 .
  • the gate system 100 of the present embodiment may include an indoor sensor unit 110 (not shown) having the same configuration as the sensor unit 110 (outdoor sensor unit 110) described above.
  • the indoor sensor unit 110 is installed near the entrance door d inside the house, and the outputs of the respective modules 111 , 112 , 113 are connected to the computer 131 of the control panel 130 .
  • the computer 131 acquires biometric information generated by the indoor sensor unit 110, determines a person who leaves the house, and stores the determination result (user identification information, etc.) in the user list. identity. If the determination result in the collation process matches the identification information in the user list, an unlocking signal is input to the electric lock 150 .
  • the gate system 100 of this embodiment may manage the entry and exit of people.
  • the memory of the computer 131 of the control panel 130 is provided with a management table for managing the entry and exit of persons.
  • determination results of persons (user identification information, etc.) and entry/exit times are registered.
  • the registration process is a process executed by the CPU of the computer 131 after executing the above control process (s023). to register.
  • the entrance/exit time is information indicating the time when the person entered the house and the time when the person left the house, and is obtained from the real-time clock provided in the computer 131 when executing the registration process.
  • the memory of the computer 131 functions as a storage unit that associates and stores the person who entered and exited the house and the time of entry and exit of the person.
  • Information in the management table may be displayed on a liquid crystal panel provided on the control panel 130 or may be displayed on a liquid crystal screen of a terminal capable of communicating with the control panel 130 .
  • the biometric information of the person who entered/exited may be further associated and stored. That is, the CPU of the computer 131 assigns a serial number to the person's voice information, face image, or eyeball image acquired in the acquisition process (s020), stores the serial number in the memory, and manages the serial number in association with the determination result. store in the table. Accordingly, it is possible to confirm the person who entered and exited the house and the person who tried to enter and leave the house after the fact.
  • the memory of the computer 131 which functions as a storage unit, stores voice information and images of people who have entered and exited the house or who have tried to enter and leave the house.
  • the image to be stored may be a video.
  • the gate system 200 of the second embodiment is provided in an office building 201, as shown in FIG. is.
  • the office building 201 has different offices on each floor, such as company A on the first floor, company B on the second floor, and company C on the third floor.
  • Each floor of the office building 201 has a plurality of (three in this embodiment) rooms, and each room is assigned a predetermined department.
  • An entrance sensor unit 210 is provided at the entrance of the office building 201 .
  • the entrance sensor unit 210 includes a microphone module 211 as an audio information generating section, a first camera module 212 as a first imaging section, and a second camera module as a second imaging section.
  • 213 is common to the sensor unit 110 of the first embodiment. This embodiment differs from the first embodiment in that a computer 214 connected to each of the modules 211, 212, and 213 is provided in the entrance sensor unit 210.
  • the computer 214 includes a CPU 215, a memory 216, and a network module 217. Like the computer 131 of the first embodiment, the CPU 215 of the computer 214 executes the learning mode and then the authentication mode to obtain biometric information (voice information, face image, eyeball image), and a determination unit that determines a person at the entrance based on the acquired biometric information.
  • the gate system 200 of this embodiment includes a server 240, and the server 240 can communicate with the entrance sensor unit 210 via a network.
  • the entrance sensor unit 210 transmits the determination result (user identification information, etc.) to the server 240 .
  • the server 240 is a device that manages the entrance and exit of people to the office building 201 and the entrance and exit of people to each room d.
  • user names, user identification information, and room numbers that users can enter are associated with each other and registered.
  • User identification information is information for mutually identifying users of the office building 201 (employees of each office), and is uniquely given to each user.
  • the identification information includes, for example, an office code (A, B, C) for identifying the user's office (company) and the user's employee number (serial number). For a user who is authorized to enter a plurality of rooms, records are provided according to the number of rooms, and a room number is registered in each record.
  • the server 240 executes reception processing for receiving the determination result (user identification information) from the entrance sensor unit 210 via the network, and executes verification processing.
  • the matching process is a process of matching the received judgment result with the identification information contained in the user database. If identification information that matches the determination result exists in the user database, server 240 transmits OK information to entrance sensor unit 210 . On the other hand, when the determination result and the identification information of the user database do not match, the server 240 transmits NG information to the entrance sensor unit 210 . In this way, the server 240 functions as a verification unit that verifies the determined person.
  • the computer 214 of the entrance sensor unit 210 controls the automatic door ad based on the information received from the server 240.
  • the automatic door ad is wired to the computer 214 of the entrance sensor unit 210 .
  • the computer 214 receives the OK information from the server 240, it inputs an opening signal to the automatic door ad.
  • NG information is received from the server 240
  • a closing signal is input to the automatic door ad.
  • the automatic door ad opens the door when an open signal is input.
  • the automatic door ad is equipped with a human sensor provided inside the building.
  • the human sensor is a sensor that detects the presence of a person in a predetermined area inside the automatic door ad. When the human sensor detects a person, the automatic door ad opens the door.
  • the room sensor unit 220 is installed near the door d of each room.
  • the room sensor unit 220 includes a microphone module 221 that is an audio information generating section, a first camera module 222 that is a first imaging section, and a second camera module 223 that is a second imaging section.
  • the memory 226 of the computer 224 stores the room number of the room in which the room sensor unit 220 is installed.
  • the computer 224 executes the authentication mode after executing the learning mode, so that an acquisition unit that acquires biometric information from each of the modules 221, 222, and 223, and a determination unit that determines a person based on the acquired biometric information.
  • the room sensor unit 220 includes a network module 227 and is communicably connected to the server 240 as shown in FIG.
  • the room sensor unit 220 transmits to the server 240 both the determination result (user identification number) and the room number from the determination process.
  • the CPU of the server 240 When the CPU of the server 240 receives the determination result and the room number from each room sensor unit 220, it searches for the room number registered in the user database using the received determination result as a search key. Then, the CPU of server 240 compares the retrieved room number with the received room number. As a result of collation, if the room numbers match each other, server 240 transmits OK information to room sensor unit 220, which is the source of the determination result. On the other hand, if the room numbers do not match as a result of the collation, the server 240 transmits NG information to the room sensor unit 220 that transmitted the determination result.
  • the room sensor unit 220 controls the electric lock 250 based on the information received from the server 240.
  • the electric lock 250 is self-locking and is wired to communicate with the computer 224 of the room sensor unit 220 .
  • the computer 224 of the room sensor unit 220 receives the OK information from the server 240, it inputs an unlocking signal to the electric lock.
  • the gate system 200 of the present embodiment as in the first embodiment, it is possible not only to execute authentication processing according to the situation of the user, but also to enter/exit a room, which is a partitioned area in the building. Since authentication processing can also be executed for the area, unauthorized persons can be prohibited from entering the area without permission.
  • the gate system 200 of this embodiment may include an indoor sensor unit 210 for the entrance that has the same configuration as the sensor unit 210 for the entrance (outdoor sensor unit 210 for the entrance).
  • the indoor sensor unit 210 for the entrance is installed indoors in the office building 201 near the entrance door.
  • the computer 214 of the indoor sensor unit 210 for the entrance acquires the biometric information generated by each of the modules 211, 212, and 213 by executing the authentication mode (acquisition unit), and the user exiting the office building 201 is determined (determination unit), and the determination result (user identification information) is transmitted to the server 240 .
  • the determination result is collated by the server 240, and when OK information is received, the indoor sensor unit 210 for the entrance inputs an opening signal to the automatic door ad.
  • the gate system 200 of this embodiment may include an indoor sensor unit 220 for a room having the same configuration as the above-described room sensor unit 220 (outdoor sensor unit 220 for room).
  • the indoor sensor unit 220 for the room is installed near the door d inside each room.
  • the computer 224 of the indoor sensor unit 220 for the room acquires the biometric information generated by each of the modules 221, 222, and 223 by executing the authentication mode (acquisition unit), and determines the user leaving the room. (determination unit), and transmits the determination result (user identification information) to the server 240 .
  • the determination result is collated by the server 240, and when the OK information is received, the indoor sensor unit 220 for the room inputs an unlocking signal to the electric lock 250 of the door.
  • the gate system 200 of this embodiment may manage the entry and exit of people.
  • the memory of the server 240 is provided with a management database for managing the entry and exit of persons, as shown in FIG. 7(b).
  • the management database registers the identification information of a person and the entry/exit times in association with each other.
  • the CPU of the server 240 executes the registration process after executing the collation process.
  • the registration process is a process of registering the person's entry/exit time and room number in the management database in association with the person's identification information.
  • the entry/exit time is information indicating the time when the person entered the office building 201 or the room and the time when the person left the office building 201 or the room, and is obtained from the real-time clock of the server 240 when executing the registration process. be done.
  • Information in the management database may be displayed on the display of a personal computer connected to the network. In this manner, the management database functions as a storage unit that associates and stores the persons who entered and exited the office building 201 and the times of entry and exit. In addition, the management database may further store the biometric information used for determining the person in association with it.
  • the security system 300 of the present embodiment is provided, for example, in the office building 201 described in the second embodiment.
  • a room sensor unit 220 provided in each room
  • a server 240 a human sensor 301
  • a surveillance camera 302 a surveillance camera
  • a control panel 330 a control panel 330 .
  • the entrance sensor unit 210, the room sensor unit 220, and the server 240 function as the gate system 200 of the second embodiment.
  • the human sensor 301 functions as a detection unit that detects the presence of a person, and is installed in a plurality of places such as the entrance in the office building 201, passages on each floor, and inside each room.
  • the human sensor 301 detects the presence of a person by detecting temperature changes when, for example, an object with a temperature difference from the surroundings moves within a detection range.
  • Each of such human sensors 301 can communicate with server 240 via a network, and transmits detection information to server 240 when a person is detected.
  • the surveillance camera 302 functions as an imaging unit that captures an image of a predetermined area, and is installed in multiple locations such as the entrance in the office building 201, passages on each floor, and inside each room.
  • the surveillance camera 302 includes an imaging device, a lens that forms an image of a predetermined area on the imaging device, a microcomputer that generates an area image of a predetermined area based on the output of the imaging device, a network module, It has The surveillance camera 302 can communicate with the server 240 via a network, and transmits the generated area video to the server 240 .
  • the control panel 330 switches the operation mode of the security system 300 and is provided at the entrance (outdoors) of the office building 201 .
  • Operation modes are a non-security mode and a security mode.
  • the non-security mode is a mode in which the above-described gate system 200 is operated to allow entry into and exit from the office building 201 in the authentication mode.
  • the security mode is a mode in which the above-described authentication mode of the gate system 200 is stopped so that the office building 201 cannot be entered or exited.
  • the control panel 330 includes a switch 334, a microphone module 331, a camera module 332, and a computer 335.
  • the changeover switch 334 is a switch for switching the above operation modes, and its output signal is input to the computer 335 .
  • the microphone module 331 is a module that generates voice information of the user who switches the operation mode, and has the same configuration as the microphone module 211 of the second embodiment.
  • the output (audio information) of the microphone module 331 is input to the computer 335 .
  • the camera module 332 is a module that generates a face image or an eyeball image of the user whose operation mode is to be switched, and has the same configuration as the first camera module 212 and the second camera module 213 of the second embodiment. ing.
  • the output (face image or eyeball image) of the camera module 332 is input to the computer 335 .
  • the computer 335 of the control panel 330 authenticates the user and instructs the gate system 200 to switch the operation mode. Specifically, the computer 335 executes authentication processing when a signal is input from the changeover switch 334 .
  • Authentication processing is biometric authentication processing based on the acquired biometric information obtained by acquiring biometric information (voice information, face image, eyeball image) from the microphone module 331 or the camera module 332 . For example, when voice information is acquired from the microphone module 331, voiceprint authentication is performed. Also, when a face image is acquired from the camera module 332, face authentication is performed. Also, when an eyeball image is acquired from the camera module 332, iris authentication, retina authentication, or eyeball blood vessel authentication is performed. In the authentication process, when the user is authenticated, the computer 335 transmits information corresponding to the signal of the switch 334 to the server 240 via the network module.
  • the server 240 transmits operation stop information to the entrance sensor unit 210 and the room sensor unit 220, Operation start information is transmitted to the sensor 301 and the surveillance camera 302 .
  • the computers 214 and 224 of the entrance sensor unit 210 and the room sensor unit 220 When the computers 214 and 224 of the entrance sensor unit 210 and the room sensor unit 220 receive the operation stop information from the server 240, they shift to sleep mode and execute the authentication mode (acquire biometric information from each module). Stop.
  • the human sensor 301 Upon receiving the operation start information from the server 240, the human sensor 301 starts detecting a person, and transmits detection information to the server 240 when a person is detected.
  • the server 240 executes notification processing.
  • the notification process is a process of notifying the terminal of the security company of the office building and the terminals of users and administrators of the office building that a person has been detected in the building under security. In this way, the server 240 functions as a reporting unit that reports.
  • the surveillance camera 302 Upon receiving the operation start information from the server 240 , the surveillance camera 302 starts imaging and transmits the generated area video to the server 240 .
  • the server 240 receives the area video from the surveillance camera 302, the received video is stored in the memory.
  • the memory of the server 240 functions as a storage unit that stores area images.
  • the server 240 transmits operation start information to the entrance sensor unit 210 and the room sensor unit 220, Operation stop information is transmitted to the sensor 301 and the surveillance camera 302 .
  • the computers 214 and 224 of the entrance sensor unit 210 and the room sensor unit 220 receive the operation start information from the server 240, they return from the sleep mode and start executing the authentication mode (acquisition of biometric information from each module). do.
  • the motion sensor 301 and the monitoring camera 302 When the motion sensor 301 and the monitoring camera 302 receive operation stop information from the server 240, they enter sleep mode and stop detecting and capturing images of people.
  • the sensor unit 110 is used to acquire the biometric information of a person.
  • the mobile information terminal is typically a well-known smartphone or tablet terminal, and includes a microphone module (voice information generation unit) that generates voice information of a person, and a face image and an eyeball image that captures a person's face and eyes. and a communication module for transmitting generated biological information (audio information, face image, eyeball image) to the computer 131 of the control panel 130 .
  • the microphone module, camera module, and communication module are connected to the CPU of the mobile information terminal.
  • a program is installed in the memory of the mobile information terminal to control each of the modules described above to generate biometric information of a person and transmit the generated biometric information to the computer 131 of the control panel 130 .
  • the computer 131 of the control panel 130 has a communication module for receiving biometric information of a person from the portable information terminal.
  • the communication modules included in the mobile information terminal and the computer 131 include, for example, wireless communication modules such as Bluetooth (registered trademark) modules and network modules, and wired communication modules such as USB and RS232C.
  • the portable information terminal acquires biometric information from each module (acquisition unit) by executing a program stored in the memory, and transmits the acquired biometric information to the computer 131 as teacher data. Send. At this time, the portable information terminal transmits user information together with biometric information.
  • the user information is information about a person (user) who can enter and exit the house, such as the user's name and identification information.
  • the computer 131 generates a trained model corresponding to the user information based on the biometric information and user information received from the portable information terminal. Also, the computer 131 generates a user list based on the received user information.
  • the mobile information terminal functions as a registration unit that registers user information in the computer 131 of the control panel 130 .
  • the face image and the eyeball image are obtained by first imaging processing (first imaging unit) for imaging the face with a camera module of the portable information terminal, and second imaging processing (second imaging unit) for imaging the surroundings of the eyes with the camera module. image capturing unit) individually.
  • the mobile information terminal in the determination process in the variation 1, the mobile information terminal generates one or more of the voice information, face image, and eyeball image of the person entering and exiting the house, and transmits the generated biometric information to the computer of the control panel 130. 131.
  • the computer 131 determines a person based on the biometric information received from the portable information terminal.
  • the mobile information terminal of Modification 1 may be a mobile information terminal used in a smart home system.
  • a smart home system is a system that uses a mobile information terminal to control and manage home equipment and home appliances.
  • An information terminal is communicably connected. By interlocking the mobile information terminal with not only the gate system 100 but also with the smart home system, it is possible to check the status of facilities such as the presence or absence of gas leaks.
  • the mobile information terminal receives the result of the verification process from the computer 131 of the control panel 130 and is permitted to enter the room, the mobile information terminal issues, for example, an instruction to operate the air conditioner or an instruction to turn on the lighting to the smart home system. You can send it.
  • the entrance sensor unit 210 and the room sensor unit 220 generate the biometric information of a person and determine the person based on the generated biometric information.
  • a portable information terminal may be used instead.
  • the mobile information terminal has the same hardware configuration as the mobile information terminal of Modification 1, and its CPU acquires biometric information from each module (acquisition unit).
  • the CPU of the portable information terminal executes the learning mode (learning section) in the same way as the computers 214 and 224 of the sensor units 210 and 220 of the second embodiment, and acquires A person is determined based on the obtained biometric information (determination unit), and the determination result (user identification information, etc.) is transmitted to the server 240 .
  • the portable information terminal transmits the determination result to the server 240 and also transmits the entry/exit target information determined by the user of the portable information terminal to the server 240 .
  • the entry/exit target information is information indicating an object with which the user of the portable information terminal attempts to enter/exit. This is information indicating the room, such as the room number.
  • the user database held by the server 240 may be generated based on the user information received from the mobile information terminal.
  • the user information is information about a person (user) who has the authority to enter and exit the office building 201, and includes the user's name, identification information, and room number available to the user.
  • the mobile information terminal functions as a registration unit that registers user information.
  • the gate systems 100 and 200 of each of the above embodiments are further provided with an information terminal, and the computer 131 (first embodiment) and server 240 (second embodiment) of the control panel 130 transmit the matching results to the information terminal. It may be configured to transmit.
  • the information terminal is the portable information terminal or personal computer described above, and is configured to be able to communicate with the computer 131 (first embodiment) of the control panel 130 and the server 240 (second embodiment) via an Internet communication line.
  • the information terminal displays notification information based on the collation result on the display device (touch panel display or monitor).
  • the notification information may be, for example, "entry (entrance) is permitted” or “entry (entrance) is not permitted", or may include the time when the notification information is received.
  • the computer 131 (first embodiment) and the server 240 (second embodiment) of the control panel 130 transmit the collated user's name including the collated name in the collation result, and the information terminal transmits the user's name. It may be displayed on a display device at the same time. According to this aspect, when there are a plurality of users using the building, the notification information is transmitted to each user's information terminal, so that the entry (entrance) status of other users can be grasped. be able to.
  • the information terminal when the received collation result is NG information, the information terminal sends the information of the person to the computer 131 (first embodiment) of the operation panel 130 or the server 240 (second embodiment).
  • Request a face image The computer 131 or the server 240 of the operation panel 130 that has received the request acquires facial images from the sensor units 110, 210, and 220, and transmits the acquired facial images to the information terminal.
  • the information terminal receives the face image
  • the information terminal displays the received face image on the display device, and displays a GUI for selecting whether to permit entry or exit.
  • the building manager selects a GUI indicating entry/exit permission
  • the information terminal transmits permission information to the computer 131 of the operation panel 130 and the server 240 .
  • the computer 131 of the operation panel 130 inputs an unlocking signal to the electric lock 150 upon receiving the permission information.
  • the server 240 when the server 240 receives the permission information, it transmits OK information to the sensor units 210 and 220 that are subject to entry/exit.
  • the sensor units 210 and 220 that have received the OK information control automatic doors and room doors in the same manner as in the second embodiment. According to this modification, a person who is not registered as a user can be permitted to enter from a remote location.
  • Modification 4 above is preferable for control when a visitor comes to a house or office building.
  • the GUI may be capable of designating the entry/exit target to which the visitor is permitted.
  • an input box for inputting a room number to be entered is displayed on the information terminal, and the room number input in the input box is transmitted to the server 240 .
  • the server 240 receives the room number from the information terminal, it registers the room number in the user database.
  • the server 240 also requests the entrance sensor unit 210 for a learned model regarding the visitor's biological information.
  • the computer 214 of the entrance sensor unit 210 Upon receiving the request from the server 240, the computer 214 of the entrance sensor unit 210 acquires the biometric information of the visitor from the modules 211, 212, and 213, and performs learning processing based on the acquired biometric information. At this time, the computer 214 temporarily issues identification information to the visitor.
  • the computer 214 stores the learned model generated based on the learning process in the memory 216 and transmits the learned model and the identification information of the visitor to the server 240 .
  • the server 240 associates the received identification information with the room number and registers it in the user database.
  • the server 240 also transmits the learned model received from the entrance sensor unit 210 to the room sensor unit 220 of the room to be entered by the visitor.
  • Room sensor unit 220 stores the learned model received from server 240 in memory.
  • the entrance sensor unit 210 executes the determination process based on the generated learned model, and transmits the determination result (visitor's identification information) to the server 240 . Then, the server 240 collates the received determination result with the user database, and transmits OK information to the entrance sensor unit 210 . Further, the room sensor unit 220 to be entered performs determination processing based on the received learned model, and transmits the determination result (visitor identification information) to the server 240 . Server 240 collates the received determination result with the user database, and transmits OK information to room sensor unit 220 . This allows the visitor to enter and leave both the entrance and the room.
  • a trained model is generated using all or part of the visitor's voice information, face image, and eyeball image. Therefore, a trained model may be generated using only the voice information of the visitor, and the determination process may be executed using only the voice information.
  • the entrance sensor unit 210 of the second embodiment may be provided with a speaker.
  • the speaker is connected to a computer 214 in the entrance sensor unit 210 .
  • the memory 216 of the computer 214 stores announcement information for the person.
  • the announcement information is information for announcing the authentication result to the person, and includes a sound effect or voice indicating authentication (for example, "authenticated") and a sound effect or voice indicating that authentication was not successful. It is a voice (e.g. "Authentication failed").
  • the CPU of the computer 214 of the entrance sensor unit 210 receives the OK information from the server 240, it outputs a sound effect or voice indicating the authentication.
  • NG information is received from the server 240
  • a sound effect or voice indicating that the authentication has failed is output. By generating such sound effect or voice from the speaker, it is possible to announce the success or failure of the authentication to the person.
  • the room sensor unit 220 of the second embodiment is provided with a speaker connected to the computer 224 in the same manner as in the fifth modification, and the announcement information may be generated from the speaker according to the information received from the server 240. I do not care.
  • Modification 7 In Modifications 5 and 6, the microphones provided in the sensor units 110, 210, and 220 may be used as speakers.
  • the first camera modules 112, 212, 222 included in the gate systems 100, 200 of the above embodiments may have wide-angle lenses.
  • the wide-angle lens is a lens whose angle of view includes the upper body of a person standing in front of it. Since the image generated by the first camera module 212 includes not only the person's face but also the upper body, an upper body image including the person's face is generated.
  • the computer 131 (first embodiment) and the server 240 (second embodiment) of the control panel 130 generate a trained model based on the upper body images acquired from the first camera modules 112, 212, and 222, and acquire A person can be determined by inputting the upper body image into the trained model.
  • the second camera modules 113, 213, and 223 included in the gate systems 100 and 200 of each of the above embodiments may be configured to change the imaging direction according to the position of the person's eyes in the generated image.
  • the second camera modules 113, 213, and 223 include an optical unit having a lens and an imaging device, a control unit having a microcomputer, and a tilt/swing mechanism for changing the posture of the optical unit vertically and horizontally with respect to the control unit. , is equipped with The tilt/swing mechanism performs tilt operation or swing operation based on a control signal from the microcomputer of the control unit.
  • the microcomputer detects contours of eyes in a captured image generated by imaging the area around the eyes of a person.
  • the contour of the eye is detected by, for example, binarizing the captured image based on the brightness of the white part of the eye. Then, when the position of the detected eye contour is at a biased position in the captured image, the microcomputer inputs a control signal for correcting the bias to the tilt/swing mechanism.
  • the microcomputer inputs a control signal for correcting the bias to the tilt/swing mechanism.
  • the microcomputer by adjusting the imaging direction of the second camera modules 113, 213, and 223, the position of the eyeball portion in the captured image is determined, and the extraction accuracy of the eyeball portion is improved.
  • the accuracy of the authentication process based on is also improved. Further, the microcomputer repeatedly executes the above processing, so that the positions of the eyes of the person can be tracked.
  • two reflecting mirrors are provided in front of the lenses of the second camera modules 113, 213, and 223, and one of the reflecting mirrors is rotated around the x-axis by a driving means such as a motor.
  • the imaging direction may be changed by rotating the other around the y-axis by another driving means.
  • the computer 131 (first embodiment) of the control panel 130 and the computers 214 and 224 (second embodiment) of the sensor units 210 and 220 are connected to the first camera modules 112 and 212. , 222, and the imaging direction may be changed toward the identified eye positions as in Modification 9 above. That is, the computers 131 , 214 , 224 calculate the positions of the eyes included in the facial images acquired from the first camera modules 112 , 212 , 222 . Then, when the calculated eye positions are at biased positions in the face image, the computers 131, 214, and 224 send correction information for correcting the positions to the second camera modules 113, 213, and 223. input. As a result, the imaging direction of the second camera module can be adjusted according to the height of the person, so the eyeball of the person can be accurately imaged.
  • Modification 11 In Modified Example 10, when TOF camera modules are used as the first camera modules 112, 212, and 222, the computers 131, 214, and 224, according to the depth of the eye position obtained from the TOF camera modules, The focus of the two camera modules 113, 213 and 223 may be adjusted.
  • the second camera modules 113, 213, and 223 may separately have a right-eye imaging element for imaging the right eye and a left-eye imaging element for imaging the left eye. .
  • the user list (first embodiment) and user database (second embodiment) may have effective date and time information associated with user identification information.
  • the valid date and time information is information indicating the date and time when the building can be used, and is composed of start date and time information and end date and time information.
  • the start date and time information is information indicating the date and time when the use of the building is started, and the end date and time information is information indicating the date and time when the use of the building is ended.
  • the computer 131 of the control panel 130 extracts valid date/time information corresponding to the user identification information from the user list, and determines whether the date and time at which the verification process was performed is included in the valid date/time. It confirms whether or not it is included, and inputs an unlocking signal to the electric lock 250 when it is included. It should be noted that the computer 131 may perform control not to input the unlocking signal when the date and time when the collation processing is performed falls on a holiday.
  • the CPU of the server 240 extracts valid date/time information corresponding to the identification information of the person from the user database, and determines whether the date/time at which the verification process was performed is included in the valid date/time. Confirm, and if it is included, send OK information to the sensor unit. It should be noted that the CPU of the server 240 may perform control not to transmit the OK information when the date and time when the matching process is performed falls on a holiday.
  • voice information acquired from the microphone modules 111, 211 and 221, face images acquired from the first camera modules 112, 212 and 222, and eyeball images acquired from the second camera modules 113, 213 and 223 are Although the person is authenticated by machine learning, it is not limited to this aspect. 222, and known iris authentication, retina authentication, or eye blood vessel authentication based on the eyeball image obtained from the second camera module may be used.
  • the indoor sensor unit, the entrance indoor sensor unit, and the room indoor sensor unit of each of the above embodiments may be provided with only the microphone modules 111 , 211 , 221 .
  • the indoor sensor unit has a microphone module 111 that generates voice information based on a person's voice. is configured to be input to the computer 131 of Then, when the user utters a predetermined phrase such as “I will go”, the microphone module 111 generates voice information of the phrase and inputs it to the computer 131 of the control panel 130 .
  • the computer 131 of the control panel 130 executes the above determination processing (s021), verification processing (s022), and control processing (s023) based on the voice information acquired from the microphone module 111 to control the electric lock 150.
  • the indoor sensor unit can be configured simply, and cost reduction can be achieved.
  • the indoor sensor unit, the entrance indoor sensor unit, and the room indoor sensor unit of each of the above-described embodiments include only the first camera modules 112, 212, 222 or the second camera modules 113, 213, 223. I don't mind.
  • the indoor sensor unit of the first embodiment has a first camera module 112 that generates a face image of a person. is configured to be input to the computer 131 of A face image is generated by taking an image of the user's face when going out, and is input to the computer 131 of the control panel 130 .
  • the computer 131 of the control panel 130 executes the determination process (s021), the matching process (s022), and the control process (s023) based on the face image acquired from the first camera module 112, and the electric lock 150 to control.
  • the indoor sensor unit can be configured simply, and the cost can be reduced.
  • the server 240 of the second embodiment may be capable of registering visitors in advance via an Internet communication line.
  • the server 240 when accessed from a visitor's information terminal, provides the information terminal with an input form for entering visitor information.
  • the input form includes a name input section for inputting the name of the visitor and a biometric information input section for inputting the biometric information of the visitor.
  • the name input section is typically a text box, and the name is input in text form by operating a keyboard provided in the information terminal or a software keyboard with a touch panel display.
  • the biometric information input unit is an upload button for uploading the biometric information of the visitor to the server 240. When the upload button is pressed, a list of images or sounds stored in the information terminal is displayed.
  • the information terminal transmits the input name to the server 240 together with the image or voice specified from the list.
  • the server 240 issues identification information to the visitor, learns the biometric information, and generates a trained model.
  • the server 240 registers the name of the user received from the information terminal, the issued identification information, and the room number to be entered in the user database in association with each other.
  • server 240 transmits the generated trained model to entrance sensor unit 210 and room sensor unit 220, and entrance sensor unit 210 and room sensor unit 220 use the received trained model to determine whether a visitor is a visitor. is carried out.
  • the user database is stored in the memory of the server 240, but the registration information of the user database is also stored in the computer memory of the entrance sensor unit 210 and the room sensor unit 220. It does not matter if it is stored.
  • the server 240 transmits registration information in the user database to the entrance sensor unit 210 at a fixed time such as at night.
  • the computer 214 of the entrance sensor unit 210 tabulates the registration information of the user database received from the server 240 (user table) and stores it in the memory. Then, the entrance sensor unit 210 operating in the authentication mode acquires the biometric information of the person, determines the acquired biometric information, and compares the determination result with the user table.
  • the server 240 may provide the registration information of the user database to the sensor units 210 and 220 based on requests from the entrance sensor unit 210 and the room sensor units 220 . For example, if the computer 214 of the entrance sensor unit 210 performs the matching process and the identification information corresponding to the determination result is not found in the user table stored in the memory, the computer 214 sends the server 240 a user database. , receives the registration information of the user database from the server 240, and executes the matching process using the user table based on the registration information.
  • the server 240 of the second embodiment may be able to communicate with the elevator system.
  • An elevator system is a system for controlling an elevator installed in an office building. It has a control panel for controlling circuits, an operation panel provided in the elevator car, and an operation panel provided on each floor.
  • the control panel of the elevator system can communicate with the server 240 of the gate system 200 via a network.
  • the server 240 of the gate system 200 designates the destination floor to the elevator system after executing the matching process based on the determination result received from the entrance sensor unit 210 .
  • the destination floor is specified according to the room number extracted in the matching process.
  • the elevator car is stopped at the destination floor specified by the server 240 .
  • the destination floor of the elevator is automatically set based on the room number stored in the server 240 .
  • the human sensor 301 in the security mode, is used to detect a person in the building.
  • the presence of a person in the office building may be detected in real time by analyzing the video received from the camera 302 .
  • the server 240 in the modified example 20 does not transmit the operation stop information to the monitoring camera 302, and the server 240 reports It is also possible to simply stop the processing.
  • the user operates the changeover switch 334 on the control panel 330 to switch from the non-security mode to the security mode.
  • the non-security mode may be automatically switched to the security mode without operating the changeover switch 334 of the panel 330 .
  • the server 240 can transition to the security mode when all users stored in the management database have exited (leaving the room).
  • the server 240 may transmit the operation stop information only to the sensor unit 220 for the room when shifting to the security mode.
  • the entrance sensor unit 210 is in an operating state, and when a new determination result is received from the entrance sensor unit 210, the server 240 can shift from the security mode to the non-security mode. .

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Collating Specific Patterns (AREA)

Abstract

【課題】人物の出入を制御するゲートシステムにおいて、円滑に生体情報を取得して、出入りの認証を迅速に実施する。 【解決手段】建物の出入口における人物の出入を制御するゲートシステム100であって、人物の音声情報を生成するマイクモジュール111と、前記人物の顔画像を生成する第1カメラモジュール112と、前記人物の眼球画像を生成する第2カメラモジュール113と、マイクモジュール111,第1カメラモジュール112、第2カメラモジュール113と通信可能なコンピュータ131と、を備え、前記コンピュータ131は、前記マイクモジュール111から取得した音声情報、前記第1カメラモジュール112から取得した顔画像、又は前記第2カメラモジュール113から取得した眼球画像のいずれかに基づいて、前記人物を認証する。

Description

ゲートシステム、セキュリティシステム、及びセンサユニット
 本発明は、建物に対する出入を制御するゲートシステム、セキュリティシステム、及びセンサユニットに関する。
 例えば、特許文献1には、入退室時の利用者認証による電子機器の電源制御システムが記載されている。当該特許文献1のシステムは、利用者が入退室を行う入退室ゲートを施錠、解錠する電気錠と、当該電気錠を制御するドア開閉装置と、ネットワークを介してドア開閉装置と通信可能な管理サーバと、を備えている。ドア開閉装置は、入室する利用者が自分の生体情報を入力するための入力装置を備えている。例えば、生体情報として指紋情報を用いる場合には指紋入力装置が用いられ、音声情報又は声紋情報を用いる場合にはマイクが用いられる。ドア開閉装置は、当該入力装置によって入力された生体情報を管理サーバへと送信する。
 管理サーバは、ドア開閉装置から受信した生体情報を、予めメモリに記憶させた各利用者の生体情報と照合することで利用者を特定し、当該利用者の入室の可否情報をドア開閉装置に送信する。ドア開閉装置は、入室を許可する旨の許可情報を受信した場合には、電気錠を解錠させる。
特開2006-72446号公報
 上記特許文献1に記載のシステムによれば、建物に出入りする利用者から常に特定の生体情報を取得する必要がある。しかし、出入りする利用者が荷物を持っていたり、手袋を嵌めている場合には、荷物を下ろしたり、手袋を取り外す必要がある。また、利用者が帽子をかぶっていたり、マスクを着用している場合には、帽子やマスクを外す必要がある。このように建物に出入りする際の利用者の状況によっては円滑に生体情報を取得できないケースが生じている。
 このようなことから、円滑に生体情報を取得して、出入りの認証を迅速に実施することができるシステムが望まれている。
 本発明は、建物の出入口における人物の出入を制御するゲートシステムであって、人物の音声情報を生成する音声情報生成部と、前記人物の顔画像を生成する第1撮像部と、前記人物の眼球画像を生成する第2撮像部と、前記音声情報生成部、前記1撮像部、及び前記第2撮像部と通信可能な処理部と、を備え、前記処理部は、前記音声情報生成部から取得した音声情報、前記第1撮像部から取得した顔画像、又は前記第2撮像部から取得した眼球画像のいずれかに基づいて、前記人物を認証することを特徴とする。
 本発明のゲートシステムは、また、前記音声情報生成部、前記第1撮像部、及び前記第2撮像部が、前記建物に定められた複数のエリアの各々に設けられることを特徴とする。
 本発明のゲートシステムは、また、前記眼球画像に基づく前記人物の認証が、当該眼球画像に含まれる虹彩、当該眼球画像に含まれる白目部分ある毛細血管、又は当該眼球画像に含まれる網膜にある毛細血管に基づいて行われることを特徴とする。
 本発明のゲートシステムは、また、前記人物の認証が、機械学習によって行われることを特徴とする。
 本発明のゲートシステムは、また、前記第2撮像部が、前記人物の目の位置に応じて撮像方向を変動させることを特徴とする。
 本発明のゲートシステムは、また、前記第2撮像部が、前記第1撮像部によって生成された画像における目の位置に応じて、撮像方向を変動させることを特徴とする。
 本発明のゲートシステムは、また、前記第1撮像部がTOFカメラモジュールであることを特徴とする。
 本発明のゲートシステムは、また、前記第2撮像部が、前記人物の右目を撮像する撮像素子と、前記人物の左目を撮像する撮像素子と、を備えることを特徴とする。
 本発明のゲートシステムは、また、前記建物に出入した人物、及びその出入時間を対応付けて記憶する記憶部を有する。
 本発明のゲートシステムは、また、前記記憶部が、前記建物に出入した人物の音声情報、顔画像、又は眼球画像を更に対応付けて記憶することを特徴とする。
 本発明のゲートシステムは、また、前記記憶部が、前記建物に出入可能な人物と、当該人物に対応付けて出入可能な日時と、を予め記憶し、前記処理部は、前記認証した人物に対応する日時を記憶部から抽出し、認証を行った日時が当該抽出した日時に含まれるか否かを判定することを特徴とする。
 本発明のゲートシステムは、また、前記記憶部に対して、前記建物に出入可能な人物に関する情報を登録する登録部を備え、前記登録部は携帯情報端末であることを特徴とする。
 本発明のゲートシステムは、また、ネットワークを介して、前記処理部と通信可能な情報端末を備え、前記情報端末は、処理部に対して、前記人物を認証すべき旨の情報を送信することを特徴とする。
 本発明のセキュリティシステムは、上記のゲートシステムを備えることを特徴とする。
 本発明のセキュリティシステムは、前記ゲートシステムを制御する制御盤を備え、前記ゲートシステムの処理部は、前記制御盤の制御に基づいて、前記認証を停止することを特徴とする。
 本発明のセキュリティシステムは、前記制御盤の制御に基づいて、前記建物内における人物を検出する検出部と、前記検出部から検出情報に基づいて、通報を行う通報部と、を備えることを特徴とする。
 本発明のセキュリティシステムは、前記建物内に設けられた撮像部を備えることを特徴とする。
 本発明のセキュリティシステムは、前記制御盤が、利用者の生体情報に基づいて生体認証を行う生体認証部を備え、生体認証によって利用者が認証された場合に、前記制御を行うことを特徴とする。
 本発明のセンサユニットは、上記のゲートシステムが備える前記音声情報生成部、前記第1撮像部、及び前記第2撮像部が筐体内に設けられ、前記建物の出入口の近傍に設置されることを特徴とする。
 本発明は、利用者の生体情報を円滑に取得して、出入りの認証を迅速に実施することができる。
本発明の第1実施形態に係るゲートシステムの概略図 上記ゲートシステムのハードウェア構成図 上記ゲートシステムが有するコンピュータのフロー図 本発明の第2実施形態に係るゲートシステムの概略図 (a)上記ゲートシステムの玄関用センサユニットのハードウェア構成図、(b)ゲートシステムの部屋用センサユニットのハードウェア構成図 上記ゲートシステムのハードウェア構成図 (a)利用者データベースを示す図、(b)管理データベースの内容を示す図 (a)本発明の第3実施形態に係るセキュリティシステムのハードウェア構成図、(b)当該セキュリティシステムが備える操作盤のハードウェア構成図
[第1実施形態]
 以下、本発明の第1実施形態に係るゲートシステムを図面に基づいて説明する。
 図1に示すように、本実施形態のゲートシステム100は、家の玄関ドアdに設けられている施錠を開閉するシステムであり、玄関ドアdの側方に位置する外壁に取り付けられたセンサユニット110と、玄関ドアdの近傍に設置された制御盤130と、玄関ドアdに設けられたオートロック式の電気錠150と、を備えている。
 センサユニット110は、家に出入りする人物の生体情報を生成するためのセンサが収容されたユニットであり、人物の目線の高さ、又は目線の高さよりも若干低い位置に取り付けられている。当該センサユニット110には、図2に示すように、音声情報生成部であるマイクモジュール111、第1撮像部である第1カメラモジュール112、及び第2撮像部である第2カメラモジュール113が収容されている。
 マイクモジュール111は、人物が発する音声を取得して音声情報を生成するモジュールであって、音声を電気信号へと変換するマイクと、マイクから出力された電気信号を増幅させる増幅回路と、増幅された電気信号をデジタル信号へと変換するアナログ-デジタル変換回路(以下、ADC)と、を備えている。マイクモジュール111の出力、すなわちADCの出力は制御盤130のコンピュータ131に入力される。
 第1カメラモジュール112は、人物の顔を撮像して、顔画像を生成するモジュールであり、センサユニット110の前に立つ人物の顔を撮像する撮像素子(第1撮像素子)と、当該撮像素子の受光面に対して顔の像を結像させるレンズと、撮像素子からの出力信号に基づいて顔画像を生成するマイコン(第1マイコン)と、を備えている。また、当該撮像素子としては赤外線を受光して、当該赤外線の強度に対応する信号を出力する素子を用いても構わない。また、赤外線を照射する光源を用いても構わない。この第1カメラモジュール112の出力、すなわち第1マイコンの出力は、制御盤130のコンピュータ131に入力される。
 第2カメラモジュール113は、人物の目の周りを撮像して、眼球画像を生成するモジュールであり、センサユニット110の前に立つ人物の目の周りを撮像する撮像素子(第2撮像素子)と、当該撮像素子の受光面に対して目の像を結像させるレンズと、撮像素子からの出力信号に基づいて眼球画像を生成するマイコン(第2マイコン)と、を備えている。また、当該撮像素子としては赤外線を受光して、当該赤外線の強度に対応する信号を出力する素子を用いるのが好ましい。また、赤外線を照射する光源を用いても構わない。この第2カメラモジュール113の出力、すなわち第2マイコンの出力は、制御盤130のコンピュータ131に入力される。
 コンピュータ131は、CPUおよびメモリを備えている。メモリには、後述する処理を実行するためのプログラムが予め記憶されており、CPUが当該プログラムを実行することで、コンピュータ131は、センサユニット110から入力された生体情報(音声情報、顔画像、眼球画像)に基づいて処理を行う処理部として機能する。具体的には、各モジュール111,112,113から生体情報を取得する取得部、取得した生体情報を学習する学習部、取得した生体情報に基づいて人物を認証する認証部、及び電気錠150を解錠、施錠する制御を行う制御部として機能する。以下、図3に基づいて、コンピュータ131の処理を説明する。
 CPUがメモリに記憶されているプログラムを実行することで、コンピュータ131は学習モード又は認証モードで動作する。当該学習モードおよび認証モードは、コンピュータ131に接続されている切替スイッチ132(図2)の入力信号に基づいて切り替えられる。
 学習モードは、家に出入りする権限を有する人物(利用者)の生体情報を学習するモードであり、切替スイッチ132がオン状態の場合(s001:ON)に実行される。当該学習モードは、取得処理(s010)と学習処理(s011)をこの順に実行する。取得処理(s010)は、センサユニット110の各モジュール111,112,113から、生体情報を取得する処理である。
 学習処理(s011)は、いわゆる教師データありの機械学習であり、取得した生体情報(音声情報、顔画像、及び眼球画像)を教師データとして、学習済みモデルを生成する。具体的には、音声情報を教師データとする機械学習では、音声情報に含まれる声紋に基づいて学習済みモデルを生成する。また、顔画像を教師データとする機械学習では、顔画像に写った目、鼻、口の物理的な特徴(平面的な位置や大きさ、形状)に基づいて学習済みモデルを生成する。なお、第1カメラモジュール112としてTOFカメラモジュールを採用した場合には、目、鼻、口の立体的な位置に基づいて学習済みモデルを生成する。また、眼球画像を教師データとする機械学習では、代表的には、眼球画像に含まれる瞳孔の周りの虹彩パターンに基づく学習済みモデルや、眼球画像に含まれる白目部分に存在する毛細血管のパターンに基づく学習済みモデルや、眼球画像に含まれる網膜にある毛細血管のパターンに基づく学習済みモデルを生成する。
 複数の利用者の生体情報を学習する必要がある場合には、取得処理(s010)および学習処理(s011)を、利用者ごとに実行する。なお、利用者ごとに取得処理(s010)および学習処理(s011)を実行する際には、各利用者に対して識別情報を付与し、当該識別情報と共に生体情報を学習させる。当該識別情報は、各利用者を互いに識別するための情報であり、各利用者に対して一意となるように付与される。そして、コンピュータ131のメモリには、利用者リストが記憶される。この利用者リストは、全ての利用者の識別情報がリスト化されたものである。
 認証モードは、家に入る人物を認証するモードであり、切替スイッチがオフ状態の場合(s001:OFF)に実行される。認証モードは、取得処理(s020)、判定処理(s021)、及び照合処理(s022)をこの順に実行する。取得処理(s020)は、センサユニット110から生体情報を取得する処理である。判定処理(s021)は、上記取得した生体情報に基づいて人物を判定する処理であって、当該生体情報が学習済みモデルに入力されることで判定される。利用者として判定された場合には、当該利用者の識別情報が出力される。一方、利用者でないと判定された場合には、未知の人物である旨の情報が出力される。照合処理(s022)は、判定結果(利用者の識別情報など)を、利用者リストと照合する処理である。このように認証部として機能するCPUは、具体的には、取得した生体情報に基づいて人物を判定する判定部、判定された人物を照合する照合部、として機能する。
 照合処理(s022)が実行されると、照合結果に基づいて制御処理(s023)が実行される。制御処理(s023)は、電気錠150を制御する処理であり、照合処理(s023)の結果、判定結果が利用者リスト中の識別情報と一致した場合、すなわち、センサユニット110から取得した生体情報が利用者であると認証された場合には、コンピュータ131は、電気錠150に対して玄関ドアdのロックを解錠する解錠信号を入力する。
 図2に示すように、制御盤130のコンピュータ131は、オートロック式の電気錠150に対して配線接続されている。電気錠150は、コンピュータ131から入力された制御信号(解錠信号)に基づいて、玄関ドアdのロックを解錠する。
 ここで、本実施形態では、センサユニット110から入力されたいずれかの生体情報に基づいて上記の認証処理を実行することとしている。例えば、利用者がマスクを着用している場合には、マイクモジュール111から入力された音声情報、及び/又は第2カメラモジュール113から入力された眼球画像に基づいて認証処理が実行される。また、利用者が眼帯を着用している場合には、マイクモジュール111から入力された音声情報に基づいて認証処理が実行される。また、利用者の声に異常がある場合には、第1カメラモジュール112から入力された顔画像、及び/又は第2カメラモジュール113から入力された眼球画像に基づいて認証処理が実行される。このように、本実施形態のゲートシステム100によれば、利用者の状況に応じた認証処理を実行することができる。
 また、本実施形態のゲートシステム100は、上記のセンサユニット110(屋外センサユニット110)と同じ構成を備える屋内センサユニット110(不図示)を備えても構わない。当該屋内センサユニット110は、家の屋内において玄関ドアdの近傍に設置されており、各モジュール111,112,113の出力が操作盤130のコンピュータ131に接続されている。コンピュータ131は、上記認証モードを実行することで、屋内センサユニット110によって生成された生体情報を取得し、家から出る人物を判定し、判定結果(利用者の識別情報など)を利用者リスト中の識別情報と照合する。照合処理において判定結果が利用者リスト中の識別情報と一致した場合には、電気錠150に対して解錠信号を入力する。
 また、本実施形態のゲートシステム100は、人物の出入を管理しても構わない。具体的には、制御盤130のコンピュータ131のメモリには、人物の出入を管理するための管理テーブルが設けられている。管理テーブルは、人物の判定結果(利用者の識別情報など)と入出時間が登録される。当該登録処理は、コンピュータ131のCPUが、上記制御処理(s023)を実行した後に実行する処理であり、判定結果(利用者の識別番号など)に対応付けて、その人物の出入時間を管理テーブルに登録する。当該出入時間は、人物が家に入った時間や人物が家から出た時間を示す情報であり、登録処理を実行する際に、コンピュータ131に設けられたリアルタイムクロックから取得される。このようにコンピュータ131のメモリは、家に出入した人物および当該人物の出入時間を対応付けて記憶する記憶部として機能している。当該管理テーブルの情報は、制御盤130に設けた液晶パネルに表示させても良いし、制御盤130と通信可能な端末の液晶画面に表示させても構わない。
 また、上記出入管理においては、出入した人物の生体情報を更に対応付けて保存しても構わない。すなわち、コンピュータ131のCPUは、取得処理(s020)において取得した人物の音声情報、顔画像、又は眼球画像にシリアル番号を付与してメモリに記憶させ、判定結果に対応させて当該シリアル番号を管理テーブルに記憶させる。これにより、家に出入した人物、及び出入使しようとした人物を事後的に確認することができる。このように、記憶部として機能するコンピュータ131のメモリは、家に出入した人物や出入りしようとした人物の音声情報や画像を記憶する。また、記憶される画像は、映像であっても構わない。
[第2実施形態]
 第2実施形態のゲートシステム200は、図4に示すように、オフィスビル201に設けられており、当該ビルの玄関口に設けられた自動ドアadや各部屋のドアdの施錠を開閉するシステムである。当該オフィスビル201は、1階がA社、2階がB社、3階がC社のようにフロアごとに異なるオフィスが入っている。また、当該オフィスビル201の各フロアには複数の(本実施形態では3つの)部屋があり、各部屋に所定の部署が割り当てられている。
 オフィスビル201の玄関口には、玄関用センサユニット210が設けられている。玄関用センサユニット210は、図5(a)に示すように、音声情報生成部であるマイクモジュール211、第1撮像部である第1カメラモジュール212、及び第2撮像部である第2カメラモジュール213を備えている点で第1実施形態のセンサユニット110と共通している。本実施形態では、玄関用センサユニット210内に、上記各モジュール211,212,213に接続されたコンピュータ214が設けられている点で第1実施形態とは異なっている。
 コンピュータ214は、CPU215、メモリ216、及びネットワークモジュール217を備えている。当該コンピュータ214のCPU215は、第1実施形態のコンピュータ131と同様に、学習モードを実行したうえで認証モードを実行することで、各モジュール211,212,213から生体情報(音声情報、顔画像、眼球画像)を取得する取得部、取得した生体情報に基づいて玄関口にいる人物を判定する判定部として機能する。ここで、図6に示すように、本実施形態のゲートシステム200はサーバ240を備えており、当該サーバ240は、ネットワークを介して玄関用センサユニット210と通信可能となっている。玄関用センサユニット210は、上記判定結果(利用者の識別情報など)をサーバ240に送信する。
 サーバ240は、オフィスビル201に対する人物の入退場や、各部屋dに対する人物の入退室を管理する装置であり、図7に示すように、利用者に関するデータベース(以下、利用者データベース)を備えている。利用者データベースは、利用者の氏名、利用者の識別情報、及び利用者が入室可能な部屋番号が互いに対応付けて登録されている。利用者の識別情報は、オフィスビル201の利用者(各オフィスの従業員)を互いに識別するための情報であり、各利用者に対して一意となるように付与されている。当該識別情報は、例えば、利用者のオフィス(会社)を識別するためのオフィスコード(A、B、C)と、利用者の社員番号(シリアル番号)と、により識別情報が構成される。なお、複数の部屋に入室権限のある利用者は、当該部屋の数に応じてレコードが設けられ、レコードの各々に部屋番号が登録される。
 サーバ240は、ネットワークを介して、判定結果(利用者の識別情報)を玄関用センサユニット210から受信する受信処理を実行し、照合処理を実行する。照合処理は、受信した判定結果と利用者データベースに含まれる識別情報を照合する処理である。判定結果と一致する識別情報が利用者データベースに存在している場合には、サーバ240はOK情報を玄関用センサユニット210に送信する。一方、判定結果と利用者データベースの識別情報が不一致の場合には、サーバ240はNG情報を玄関用センサユニット210に送信する。このようにサーバ240は、判定された人物を照合する照合部として機能している。
 玄関用センサユニット210のコンピュータ214は、サーバ240から受信した情報に基づいて自動ドアadを制御する。当該自動ドアadは玄関用センサユニット210のコンピュータ214に配線接続されている。当該コンピュータ214は、OK情報をサーバ240から受信すると、開放信号を自動ドアadに入力する。一方、NG情報をサーバ240から受信すると、閉鎖信号を自動ドアadに入力する。自動ドアadは、開放信号が入力された場合にドアを開放させる。なお、自動ドアadは、ビルの内側に設けられた人感センサを備えている。人感センサは自動ドアadの内側の所定エリアに人が存在することを検出するセンサであり、当該人感センサが人物を検出した場合には、自動ドアadはドアを開放する。
 また、本実施形態では、各部屋のドアdの近傍に部屋用センサユニット220が設置されている。部屋用センサユニット220は、図5(b)に示すように、音声情報生成部であるマイクモジュール221、第1撮像部である第1カメラモジュール222、第2撮像部である第2カメラモジュール223、及びコンピュータ224を備えている。コンピュータ224のメモリ226には、部屋用センサユニット220が設置されている部屋の部屋番号が記憶されている。当該コンピュータ224は、学習モードを実行したうえで認証モードを実行することで、各モジュール221,222,223から生体情報を取得する取得部、及び取得した生体情報に基づいて人物を判定する判定部として機能する。ここで、部屋用センサユニット220は、ネットワークモジュール227を備えており、図6に示すように、サーバ240と通信可能に接続されている。部屋用センサユニット220は、判定処理による判定結果(利用者の識別番号)と部屋番号を共にサーバ240に送信する。
 サーバ240のCPUは、各部屋用センサユニット220から判定結果及び部屋番号を受信すると、受信した判定結果を検索キーとして、利用者データベースに登録されている部屋番号を検索する。そして、サーバ240のCPUは、検索した部屋番号と受信した部屋番号を照合する。照合した結果、部屋番号が互いに一致した場合には、サーバ240は、判定結果の送信元である部屋用センサユニット220に対してOK情報を送信する。一方、照合した結果、部屋番号が不一致の場合には、サーバ240は、判定結果の送信元である部屋用センサユニット220に対してNG情報を送信する。
 部屋用センサユニット220は、サーバ240から受信した情報に基づいて電気錠250を制御する。電気錠250は、オートロック式であり、部屋用センサユニット220のコンピュータ224と通信可能に配線接続されている。部屋用センサユニット220のコンピュータ224は、サーバ240からOK情報を受信すると、解錠信号を電気錠に入力する。
 本実施形態のゲートシステム200によれば、第1実施形態と同様に、利用者の状況に応じた認証処理を実行することができるだけでなく、建物の中において区画されたエリアである部屋に対する出入についても認証処理を実行することができるので、利用権限のない人物が無断でエリアに立ち入ることを禁止することができる。
 本実施形態のゲートシステム200は、上記の玄関用センサユニット210(玄関用の屋外センサユニット210)と同じ構成を備える玄関用の屋内センサユニット210を備えても構わない。当該玄関用の屋内センサユニット210は、オフィスビル201の屋内において玄関ドアの近傍に設置されている。当該玄関用の屋内センサユニット210のコンピュータ214は、上記認証モードを実行することで、各モジュール211,212,213によって生成された生体情報を取得し(取得部)、オフィスビル201から出る利用者を判定し(判定部)、判定結果(利用者の識別情報)をサーバ240へと送信する。当該判定結果がサーバ240において照合され、OK情報を受信すると、玄関用の屋内センサユニット210は自動ドアadに対して開放信号を入力する。
 本実施形態のゲートシステム200は、上記の部屋用センサユニット220(部屋用の室外センサユニット220)と同じ構成を備える部屋用の室内センサユニット220を備えても構わない。当該部屋用の室内センサユニット220は、各部屋の内側においてドアdの近傍に設置されている。当該部屋用の室内センサユニット220のコンピュータ224は、上記認証モードを実行することで、各モジュール221,222,223によって生成された生体情報を取得し(取得部)、部屋から出る利用者を判定し(判定部)、判定結果(利用者の識別情報)をサーバ240へと送信する。当該判定結果がサーバ240において照合され、OK情報を受信すると、部屋用の室内センサユニット220はドアの電気錠250に対して解錠信号を入力する。
 また、本実施形態のゲートシステム200は、人物の出入を管理しても構わない。具体的には、サーバ240のメモリには、図7(b)に示すように、人物の出入を管理するための管理データベースが設けられている。管理データベースは、人物の識別情報と入出時間を対応付けて登録するものである。そして、サーバ240のCPUは、上記照合処理を実行した後に登録処理を実行する。登録処理は、人物の識別情報に対応付けて、人物の出入時間、及び部屋番号を管理データベースに登録する処理である。当該出入時間は、人物がオフィスビル201や部屋に入った時間、人物がオフィスビル201や部屋から出た時間を示す情報であり、登録処理を実行する際に、サーバ240が有するリアルタイムクロックから取得される。当該管理データベースの情報は、ネットワークに接続されたパーソナルコンピュータのディスプレイに表示させても構わない。このように管理データベースは、オフィスビル201に出入した人物、及びその出入時間を対応付けて記憶する記憶部として機能している。また、当該管理データベースには、人物の判定に用いられた生体情報を更に対応付けて記憶しても構わない。
[第3実施形態]
 本発明の第3実施形態に係るセキュリティシステムを説明する。図8に示すように、本実施形態のセキュリティシステム300は、例えば上記第2実施形態に記載のオフィスビル201に設けられており、当該オフィスビル201の玄関口に設けられた玄関用センサユニット210と、各部屋に設けられた部屋用センサユニット220と、サーバ240と、人感センサ301と、監視カメラ302と、制御盤330と、を備えている。上記構成において、玄関用センサユニット210、部屋用センサユニット220、及びサーバ240は上記第2実施形態のゲートシステム200として機能するものである。
 人感センサ301は、人物の存在を検出する検出部として機能するものであり、オフィスビル201の中のエントランス、各フロアの通路、及び各部屋の中など、複数箇所に設置されている。人感センサ301は、例えば、周囲の温度と温度差のあるものが検知範囲で動いた時に、その温度変化を検知することで人の存在を検出するものである。このような人感センサ301の各々は、ネットワークを介してサーバ240と通信可能であり、人物を検出した場合に検出情報をサーバ240に送信する。
 監視カメラ302は、所定のエリアを撮像する撮像部として機能するものであり、オフィスビル201の中のエントランス、各フロアの通路、及び各部屋の中など、複数箇所に設置されている。当該監視カメラ302は、撮像素子と、撮像素子に対して所定のエリアの像を結像させるレンズと、撮像素子の出力に基づいて所定のエリアのエリア映像を生成するマイコンと、ネットワークモジュールと、を備えている。当該監視カメラ302は、ネットワークを介して、サーバ240と通信可能であり、生成したエリア映像をサーバ240へと送信する。
 制御盤330は、セキュリティシステム300の動作モードを切り替えるものであり、オフィスビル201の玄関口(屋外)に設けられている。動作モードとは、非セキュリティモードと、セキュリティモードである。非セキュリティモードは、上記のゲートシステム200を稼働させて、認証モードによるオフィスビル201への出入が可能なモードである。一方、セキュリティモードは、上記のゲートシステム200の認証モードを停止させて、オフィスビル201への出入ができないモードである。図8に示すように、制御盤330は、切替スイッチ334と、マイクモジュール331と、カメラモジュール332と、コンピュータ335と、を備えている。
 切替スイッチ334は、上記の動作モードを切り替えるためのスイッチであり、その出力信号がコンピュータ335へと入力される。
 マイクモジュール331は、動作モードの切替を実施する利用者の音声情報を生成するモジュールであり、上記第2実施形態のマイクモジュール211と同様の構成を備えている。当該マイクモジュール331の出力(音声情報)はコンピュータ335へと入力される。
 カメラモジュール332は、動作モードの切替を実施する利用者の顔画像又は眼球画像を生成するモジュールであり、上記第2実施形態の第1カメラモジュール212や第2カメラモジュール213と同様の構成を備えている。当該カメラモジュール332の出力(顔画像又は眼球画像)はコンピュータ335へと入力される。
 制御盤330のコンピュータ335は、利用者を認証して、ゲートシステム200に対して動作モードの切替指示を行う。具体的には、コンピュータ335は、切替スイッチ334からの信号が入力されると、認証処理を実行する。認証処理は、マイクモジュール331またはカメラモジュール332から生体情報(音声情報、顔画像、眼球画像)を取得し、取得した生体情報に基づく生体認証処理である。例えば、マイクモジュール331から音声情報を取得した場合には声紋認証を行う。また、カメラモジュール332から顔画像を取得した場合には顔認証を行う。また、カメラモジュール332から眼球画像を取得した場合には虹彩認証、網膜認証、又は眼球血管認証を行う。コンピュータ335は、認証処理において、利用者が認証されると、ネットワークモジュールを介して、切替スイッチ334の信号に対応した情報をサーバ240へと送信する。
 サーバ240は、制御盤330から受信した情報が、非セキュリティモードからセキュリティモードへの移行を示す場合には、玄関用センサユニット210および部屋用センサユニット220に対して稼働停止情報を送信し、人感センサ301および監視カメラ302に対して稼働開始情報を送信する。
 玄関用センサユニット210および部屋用センサユニット220のコンピュータ214,224は、サーバ240から稼働停止情報を受信すると、スリープモードへと移行し、認証モードの実行(各モジュールからの生体情報の取得)を停止する。
 人感センサ301は、サーバ240から稼働開始情報を受信すると、人物の検出を開始し、人物を検出した場合には検出情報をサーバ240に送信する。サーバ240は、人感センサ301から検出情報を受信すると、通報処理を実行する。通報処理は、当該オフィスビルの警備会社の端末や、オフィスビルの利用者、管理者の端末に対して、セキュリティ中の建物内に人物が検出された旨を通報する処理である。このように、サーバ240は、通報を行う通報部として機能している。
 監視カメラ302は、サーバ240から稼働開始情報を受信すると、撮像を開始し、生成したエリア映像をサーバ240へと送信する。サーバ240は、監視カメラ302からエリア映像を受信すると、受信した映像をメモリに記憶させる。このようにサーバ240のメモリはエリア映像を記憶する記憶部として機能している。
 サーバ240は、制御盤330から受信した情報が、セキュリティモードから非セキュリテイモードへの移行を示す場合には、玄関用センサユニット210および部屋用センサユニット220に対して稼働開始情報を送信し、人感センサ301および監視カメラ302に対して稼働停止情報を送信する。
 玄関用センサユニット210および部屋用センサユニット220のコンピュータ214,224は、サーバ240から稼働開始情報を受信すると、スリープモードから復帰し、認証モードの実行(各モジュールからの生体情報の取得)を開始する。
 人感センサ301および監視カメラ302は、サーバ240から稼働停止情報を受信すると、スリープモードとなり、人物の検出および撮像を停止する。
[変形例1]
 上記第1実施形態では、センサユニット110を用いて、人物の生体情報を取得しているが、センサユニット110に代えて携帯情報端末を用いて人物の生体情報を取得しても構わない。携帯情報端末としては、代表的には公知のスマートフォンやタブレット端末であり、人物の音声情報を生成するマイクモジュール(音声情報生成部)、人物の顔と目を撮像し顔画像および眼球画像を生成するカメラモジュール(撮像部)、及び生成された生体情報(音声情報、顔画像、眼球画像)を制御盤130のコンピュータ131に送信する通信モジュールを備えている。当該マイクモジュール、カメラモジュール、及び通信モジュールは、携帯情報端末のCPUに接続されている。携帯情報端末のメモリには、上記各モジュールを制御して人物の生体情報を生成させ、生成された生体情報を制御盤130のコンピュータ131へと送信するプログラムがインストールされている。なお、制御盤130のコンピュータ131は、携帯情報端末から人物の生体情報を受信するための通信モジュールを備えている。携帯情報端末およびコンピュータ131が備える通信モジュールとしては、例えば、Bluetooth(登録商標)モジュールやネットワークモジュールなどの無線通信モジュールや、USBやRS232Cなどの有線通信モジュールである。
 当該変形例1における学習処理では、携帯情報端末が、メモリに記憶されたプログラムを実行することで、各モジュールから生体情報を取得し(取得部)、取得した生体情報を教師データとしてコンピュータ131に送信する。この際、携帯情報端末は利用者情報を生体情報と共に送信する。利用者情報は、家に出入可能な人物(利用者)に関する情報であり、例えば利用者の氏名や識別情報である。コンピュータ131は、携帯情報端末から受信した生体情報および利用者情報に基づいて、利用者情報に対応する学習済みモデルを生成する。また、コンピュータ131は受信した利用者情報に基づいて利用者リストを生成する。このように、携帯情報端末は、利用者情報を制御盤130のコンピュータ131に登録する登録部として機能する。なお、顔画像および眼球画像は、携帯情報端末が有するカメラモジュールで顔を撮像する第1撮像処理(第1撮像部)と、当該カメラモジュールで目の周りを撮像する第2撮像処理(第2撮像部)を個別に実行することで取得する。
 また、当該変化例1における判定処理では、携帯情報端末が、家に出入りする人物の音声情報、顔画像、及び眼球画像のいずれか又は複数を生成し、生成した生体情報を制御盤130のコンピュータ131に送信する。コンピュータ131は、携帯情報端末から受信した生体情報に基づいて人物を判定する。
 また、上記変形例1の携帯情報端末は、スマートホームシステムに用いられる携帯情報端末であっても構わない。スマートホームシステムは、携帯情報端末を用いて、家の設備や家電を制御・管理するシステムであって、家の設備や家電がネットワークを介してサーバに接続されており、当該サーバに対して携帯情報端末が通信可能に接続されている。当該携帯情報端末が、ゲートシステム100だけでなく、スマートホームシステムと連動することで、ガス漏れの有無などの設備の状況を確認することができる。また、携帯情報端末は、制御盤130のコンピュータ131から照合処理の結果を受信して、入室が許可された場合に、スマートホームシステムに対して、例えばエアコンの運転指示や、照明の点灯指示を送信しても構わない。
[変形例2]
 上記第2実施形態では、玄関用センサユニット210や部屋用センサユニット220が、人物の生体情報を生成し、生成した生体情報に基づいて人物を判定しているが、これらのセンサユニット210,220に代えて携帯情報端末を用いても構わない。当該携帯情報端末は、上記変形例1の携帯情報端末と同様のハードウェア構成を備えており、そのCPUは各モジュールから生体情報を取得する(取得部)。ここで、本変形例2では、携帯情報端末のCPUが、上記第2実施形態の各センサユニット210,220のコンピュータ214,224と同様に、学習モードを実行したうえで(学習部)、取得した生体情報に基づいて人物を判定し(判定部)、その判定結果(利用者の識別情報など)をサーバ240に送信することとしている。なお、本変形例2では、携帯情報端末は、判定結果をサーバ240に送信すると共に、携帯情報端末のユーザによって決定された出入対象情報をサーバ240に送信する。出入対象情報は、携帯情報端末のユーザが出入しようとする対象を示す情報であり、建物の玄関に対して出入しようとする場合には玄関を示す情報であり、建物内の部屋に出入しようとする場合には部屋番号など、部屋を示す情報である。
 また、サーバ240が有する利用者データベースは、携帯情報端末から受信した利用者情報に基づいて生成されても構わない。利用者情報は、オフィスビル201に出入する権限を有する人物(利用者)に関する情報であり、利用者の氏名や識別情報、及び当該利用者が利用可能な部屋番号である。このように本変形例2では、携帯情報端末は、利用者情報を登録する登録部として機能している。
[変形例3]
 上記の各実施形態のゲートシステム100,200は、更に、情報端末を備え、制御盤130のコンピュータ131(第1実施形態)やサーバ240(第2実施形態)は、照合結果を情報端末にも送信するよう構成しても構わない。情報端末は、上記の携帯情報端末やパーソナルコンピュータであり、制御盤130のコンピュータ131(第1実施形態)やサーバ240(第2実施形態)と、インターネット通信回線を介して通信可能に構成されている。当該情報端末は、照合結果を受信すると、表示装置(タッチパネルディスプレイやモニター)に照合結果に基づく通知情報を表示する。通知情報は、例えば、「入室(入場)が許可されました。」や「入室(入場)が許可されませんでした」等であっても良いし、通知情報を受信した時刻を含んでも良い。また、制御盤130のコンピュータ131(第1実施形態)やサーバ240(第2実施形態)は、照合された利用者の氏名を照合結果に含めて送信し、情報端末は、利用者の氏名を併せて表示装置に表示させても構わない。当該態様によれば、建物を利用する複数の利用者が存在する場合に、各利用者の情報端末に対して通知情報が送信されるので、他の利用者の入室(入場)状況を把握することができる。
[変形例4]
 上記の各実施形態のゲートシステム100,200では、制御盤130のコンピュータ131(第1実施形態)やサーバ240(第2実施形態)による人物の認証を要し、認証がなければ出入が不可であったが、コンピュータ131やサーバ240の認証がなくても、建物の管理者が情報端末を操作することによって、出入が可能となっても構わない。当該情報端末は、上記変形例3と同様のハードウェア構成を備えている。また、当該情報端末は、上記変形例3と同様に、操作盤130のコンピュータ131(第1実施形態)やサーバ240(第2実施形態)から、インターネット通信回線を介して照合結果を受信する。
 ここで、本変形例では、受信した照合結果がNG情報の場合、情報端末は、操作盤130のコンピュータ131(第1実施形態)やサーバ240(第2実施形態)に対して、その人物の顔画像をリクエストする。リクエストを受信した操作盤130のコンピュータ131やサーバ240は、センサユニット110,210,220から顔画像を取得し、取得した顔画像を情報端末に送信する。情報端末は、顔画像を受信すると、受信した顔画像を表示装置に表示させるとともに、出入の許否を選択させるGUIを表示させる。建物の管理者が、出入の許可を示すGUIを選択した場合には、情報端末は、許可情報を、操作盤130のコンピュータ131やサーバ240に送信する。第1実施形態において、操作盤130のコンピュータ131は、許可情報を受信すると、電気錠150に対して解錠信号を入力する。第2実施形態において、サーバ240は、許可情報を受信すると、出入対象となっているセンサユニット210,220に対してOK情報を送信する。OK情報を受信したセンサユニット210,220は、上記第2実施形態と同様に自動ドアや部屋のドアを制御する。本変形例によれば、利用者として登録されていない人物に対して、遠隔地から入場を許可することができる。
 上記変形例4は、家やオフィスビルに来客が来た場合の制御として好ましい。ここで、上記GUIは、来客に対して許可する出入対象を指定可能であっても構わない。例えば、第2実施形態においては、情報端末に入室させるべき部屋番号を入力する入力ボックスを表示させ、入力ボックスに入力された部屋番号をサーバ240へと送信させる。サーバ240は、情報端末から部屋番号を受信すると、当該部屋番号を利用者データベースに登録する。また、サーバ240は、玄関用センサユニット210に対して、当該来客の生体情報に関する学習済みモデルをリクエストする。玄関用センサユニット210のコンピュータ214は、サーバ240から当該リクエストを受信すると、モジュール211,212,213から来客の生体情報を取得し、取得した生体情報に基づいて学習処理を実施する。この際、コンピュータ214は、来客に対して一時的に識別情報を発行する。コンピュータ214は、当該学習処理に基づいて生成された学習済みモデルをメモリ216に記憶すると共に、学習済みモデルと来客の識別情報をサーバ240に送信する。サーバ240は、受信した識別情報を上記部屋番号に対応付けて利用者データベースに登録する。また、サーバ240は、玄関用センサユニット210から受信した学習済みモデルを、来客の入室対象となっている部屋の部屋用センサユニット220に対して送信する。部屋用センサユニット220は、サーバ240から受信した学習済みモデルをメモリに記憶する。このような態様によれば、玄関用センサユニット210は、生成した学習済みモデルに基づいて判定処理を実行し、判定結果(来客の識別情報)をサーバ240に送信する。そして、サーバ240は、受信した判定結果と利用者データベースを照合して、玄関用センサユニット210に対してOK情報を送信する。また、入室対象の部屋用センサユニット220は、受信した学習済みモデルに基づいて判定処理を実行し、判定結果(来客の識別情報)をサーバ240に送信する。サーバ240は、受信した判定結果と利用者データベースを照合して、部屋用センサユニット220に対してOK情報を送信する。これにより、来客は玄関口と部屋の両方に出入り可能となる。なお、本変形例では、来客の音声情報、顔画像、眼球画像の全部または一部を用いて学習済みモデルが生成される。よって、来客の音声情報のみを用いて学習済みモデルを生成し、音声情報のみで判定処理が実行されても構わない。
[変形例5]
 上記第2実施形態の玄関用センサユニット210はスピーカーを備えても構わない。スピーカーは、玄関用センサユニット210内のコンピュータ214に接続されている。コンピュータ214のメモリ216には人物に対するアナウンス情報が記憶されている。当該アナウンス情報は、人物に対して認証結果をアナウンスするための情報であり、認証されたことを示す効果音や音声(例えば「認証しました」)、及び認証できなかったことを示す効果音や音声(例えば「認証できませんでした」)である。玄関用センサユニット210のコンピュータ214のCPUは、サーバ240からOK情報を受信した場合には、認証されたことを示す効果音や音声を出力する。一方、サーバ240からNG情報を受信した場合には、認証できなかったことを示す効果音や音声を出力する。このような効果音や音声をスピーカーから発生させることで、人物に対して認証の成否をアナウンスすることが可能となる。
[変形例6]
 上記第2実施形態の部屋用センサユニット220は、上記の変形例5と同様に、コンピュータ224に接続されたスピーカーを備え、サーバ240から受信した情報に応じてアナウンス情報をスピーカーから発生させても構わない。
[変形例7]
 上記変形例5および変形例6において、各センサユニット110,210,220に設けられたマイクをスピーカーとして用いても構わない。
[変形例8]
 上記各実施形態のゲートシステム100,200が備える第1カメラモジュール112、212,222は広角レンズを有しても構わない。当該広角レンズは、その正面に立つ人物の上半身を画角に含むレンズである。当該第1カメラモジュール212によって生成された画像には人物の顔だけでなく上半身が含まれるため、人物の顔を含む上半身画像が生成される。制御盤130のコンピュータ131(第1実施形態)やサーバ240(第2実施形態)は、当該第1カメラモジュール112,212,222から取得した上半身画像に基づいて学習済みモデルを生成し、取得した上半身画像を学習済みモデルに入力することで人物を判定することができる。
[変形例9]
 上記各実施形態のゲートシステム100,200が備える第2カメラモジュール113,213,223は、生成した画像における人物の目の位置に応じて撮像方向を変更するよう構成されても構わない。例えば、第2カメラモジュール113,213,223は、レンズおよび撮像素子を有する光学ユニットと、マイコンを有する制御ユニットと、光学ユニットを制御ユニットに対して上下左右に姿勢を変更するチルト・スイング機構と、を備えている。チルト・スイング機構は制御ユニットのマイコンからの制御信号に基づいてチルト動作またはスイング動作を行う。当該マイコンは、人物の目の周りを撮像して生成された撮像画像における目の輪郭を検出する。当該目の輪郭の検出は、例えば白目部分の明るさを基準にして撮像画像を2値化処理することで輪郭が検出される。そして、検出された目の輪郭の位置が撮像画像において偏った位置にある場合には、マイコンは、チルト・スイング機構に対して偏りを補正するための制御信号を入力する。このような変形例9においては、第2カメラモジュール113,213,223の撮像方向を調整することで、撮像画像における眼球部分の位置が定まり、当該眼球部分の抽出精度が向上するので、眼球画像に基づく認証処理の精度も向上することとなる。また、マイコンが上記の処理を繰り返して実行することで、人物の目の位置を追従することが可能となる。
 また、例えば、第2のカメラモジュール113,213,223が有するレンズの正面に2枚の反射鏡を設け、当該反射鏡の一方をモータ等の駆動手段によってx軸回りに回転させ、反射鏡の他方を別の駆動手段によってy軸回りに回転させることで、撮像方向を変更しても構わない。
[変形例10]
 制御盤130のコンピュータ131(第1実施形態)やセンサユニット210,220のコンピュータ214,224(第2実施形態)(以下、本変形例ではコンピュータと称する。)は、第1カメラモジュール112,212,222から取得した画像に基づいて、人物の目の位置を特定し、特定した目の位置に向かって、上記変形例9のように撮像方向を変更するよう構成しても構わない。すなわち、コンピュータ131,214,224は、第1カメラモジュール112,212,222から取得した顔画像に含まれる目の位置を算出する。そして、算出した目の位置が顔画像において偏った位置にある場合には、コンピュータ131,214,224は、第2カメラモジュール113,213,223に対して当該位置を補正するための補正情報を入力する。これにより、人物の身長に応じて第2カメラモジュールの撮像方向を調整できるので、人物の眼球を正確に撮像することができる。
[変形例11]
 上記変形例10において、第1カメラモジュール112,212,222としてTOFカメラモジュールを用いた場合には、コンピュータ131,214,224は、TOFカメラモジュールから取得した目の位置の深度に応じて、第2カメラモジュール113,213,223のフォーカスを調整しても構わない。
[変形例12]
 各実施形態のゲートシステム100,200において、上記第2カメラモジュール113,213,223は、右目を撮像する右目用撮像素子と、左目を撮像する左目用撮像素子を別々に有しても構わない。
[変形例13]
 上記利用者リスト(第1実施形態)および利用者データベース(第2実施形態)は、利用者の識別情報に対応付けられた有効日時情報を有しても構わない。有効日時情報は、建物の利用可能な日時を示す情報であり、開始日時情報と終了日時情報により構成されている。開始日時情報は建物の利用を開始する日時を示す情報であり、終了日時情報は建物の利用を終了する日時を示す情報である。
 第1実施形態において、制御盤130のコンピュータ131は、照合処理において、利用者リストから利用者の識別情報に対応する有効日時情報を抽出し、照合処理を行った日時が有効日時に含まれるか否かを確認し、含まれる場合には解錠信号を電気錠250に入力する。なお、コンピュータ131は、照合処理を行った日時が休日に該当する場合には、解錠信号を入力しない制御を行っても構わない。
 第2実施形態において、サーバ240のCPUは、照合処理において、利用者データベースから人物の識別情報に対応する有効日時情報を抽出し、照合処理を行った日時が有効日時に含まれるか否かを確認し、含まれる場合にはOK情報をセンサユニットに送信する。なお、サーバ240のCPUは、照合処理を行った日時が休日に該当する場合には、OK情報を送信しない制御をおこなっても構わない。
[変形例14]
 上記各実施形態では、マイクモジュール111,211,221から取得した音声情報、第1カメラモジュール112,212,222から取得した顔画像、及び第2カメラモジュール113,213,223から取得した眼球画像を機械学習することにより、人物を認証しているが、当該態様に限定されず、例えば、マイクモジュール111,211,221から取得した音声情報に基づく公知の声紋認証、第1カメラモジュール112,212,222から取得した顔画像に基づく公知の顔認証、第2カメラモジュールから取得した眼球画像に基づく公知の虹彩認証、網膜認証、又は眼球血管認証を用いても構わない。
[変形例15]
 上記各実施形態の屋内センサユニット、玄関用の屋内センサユニット、及び部屋用の屋内センサユニットは、マイクモジュール111,211,221のみを備える態様であっても構わない。第1実施形態の屋内センサユニットを例に説明すると、屋内センサユニットは、人物の音声に基づいて音声情報を生成するマイクモジュール111を有しており、当該マイクモジュール111の出力は、制御盤130のコンピュータ131に入力されるよう構成されている。そして、利用者が「行ってきます」などの所定のフレーズを発した場合に、マイクモジュール111は当該フレーズの音声情報を生成し、制御盤130のコンピュータ131に入力する。制御盤130のコンピュータ131は、マイクモジュール111から取得した音声情報に基づいて、上記の判定処理(s021)、照合処理(s022)、及び制御処理(s023)を実行して電気錠150を制御する。当該変形例15によれば、屋内センサユニットをシンプルに構成することができ、低コスト化を図ることができる。
[変形例16]
 上記各実施形態の屋内センサユニット、玄関用の屋内センサユニット、及び部屋用の屋内センサユニットは、第1カメラモジュール112,212,222又は第2カメラモジュール113,213,223のみを備える態様であっても構わない。第1実施形態の屋内センサユニットを例に説明すると、屋内センサユニットは、人物の顔画像を生成する第1カメラモジュール112を有しており、当該第1カメラモジュール112の出力は、制御盤130のコンピュータ131に入力されるよう構成されている。そして、外出する際の利用者の顔を撮像することで顔画像を生成し、制御盤130のコンピュータ131に入力する。制御盤130のコンピューら131は、第1カメラモジュール112から取得した顔画像に基づいて、上記の判定処理(s021)、照合処理(s022)、及び制御処理(s023)を実行して電気錠150を制御する。当該変形例16によれば、屋内センサユニットをシンプルに構成することができ、低コスト化を図ることができる。
[変形例17]
 上記第2実施形態のサーバ240は、インターネット通信回線を介して、事前に来客の登録が可能であっても構わない。サーバ240は、来客者の情報端末からアクセスがあった場合に、来客情報を入力させる入力フォームを当該情報端末に提供する。当該入力フォームは、来客の氏名を入力する氏名入力部と、来客の生体情報を入力する生体情報入力部を備えている。氏名入力部は、代表的にはテキストボックスであり、情報端末が備えるキーボードやタッチパネルディスプレイによるソフトウェアキーボードを操作することで氏名がテキスト形式で入力される。また、生体情報入力部は、来客の生体情報をサーバ240にアップロードするためのアップロードボタンであり、当該アップロードボタンが押されると情報端末内に記憶された画像又は音声の一覧が表示される。情報端末は、当該一覧から指定された画像又は音声と共に、入力された氏名をサーバ240に送信する。サーバ240は、氏名および生体情報を取得すると、当該来客者に対して識別情報を発行して、生体情報を学習し、学習済みモデルを生成する。サーバ240は、情報端末から受信した利用者の氏名、発行した識別情報、及び入室させるべき部屋番号を、対応付けて利用者データベースに登録する。また、サーバ240は、生成した学習済みモデルを玄関用センサユニット210および部屋用センサユニット220に対して送信し、玄関用センサユニット210および部屋用センサユニット220は受信した学習済みモデルを用いて来客の判定処理を実施する。
[変形例18]
 上記第2実施形態のゲートシステム200では、利用者データベースはサーバ240のメモリに記憶されているが、玄関用センサユニット210や部屋用センサユニット220のコンピュータのメモリにも利用者データベースの登録情報が記憶されても構わない。玄関用センサユニット210を例にして説明すると、サーバ240は、夜間などの定刻に利用者データベースの登録情報を玄関用センサユニット210に対して送信する。玄関用センサユニット210のコンピュータ214は、サーバ240から受信した利用者データベースの登録情報をテーブル化(利用者テーブル)してメモリに記憶させる。そして、認証モードで動作する玄関用センサユニット210は、人物の生体情報を取得し、取得した生体情報の判定を行い、当該判定結果を利用者テーブルと照合する。このように、サーバ240にアクセスすることなく照合処理を実施できるので、照合スピードが向上する。また、玄関用センサユニット210や部屋用センサユニット220からのリクエストに基づいて、サーバ240は、利用者データベースの登録情報を各センサユニット210,220に対して提供しても構わない。例えば、玄関用センサユニット210のコンピュータ214は、照合処理を行った結果、判定結果に対応する識別情報がメモリに記憶されている利用者テーブルにない場合には、サーバ240に対して利用者データベースの登録情報の送信をリクエストし、サーバ240から利用者データベースの登録情報を受信し、当該登録情報に基づく利用者テーブルを用いて照合処理を実行する。
[変形例19]
 上記第2実施形態のサーバ240はエレベータシステムと通信可能であっても構わない。エレベータシステムは、オフィスビルに設けられたエレベータを制御するシステムであり、昇降カゴと、ロープを介して昇降カゴを昇降移動させる巻上機と、巻上機を駆動するための駆動回路と、駆動回路を制御する制御盤と、昇降カゴ内に設けられた操作パネルと、各フロアに設けられた操作パネルと、を備えている。当該エレベータシステムの制御盤は、ネットワークを介して、ゲートシステム200のサーバ240と通信可能となっている。ゲートシステム200のサーバ240は、玄関用センサユニット210から受信した判定結果に基づいて照合処理を実行すると、エレベータシステムに対して行先階を指定する。当該行先階は、照合処理において抽出した部屋番号に応じて特定される。エレベータシステムは、サーバ240から行先階の指定を受信すると、昇降カゴを、一旦、1階に停止させて、人物を昇降カゴに乗り込ませる。そして、サーバ240から指定された行先階に昇降カゴを停止させる。当該変形例19によれば、オフィスビルの玄関口において人物が認証されると、サーバ240に記憶されている部屋番号に基づいて、自動的に、エレベータの行先階が設定されることとなる。また、変形例4や変形例17のように、来客者に対しては、目的外のフロアへの移動を防止することができる。
[変形例20]
 上記第3実施形態では、セキュリティモードにおいて、人感センサ301を用いて建物内の人物を検出していたが、建物内における人物の存在を検出する検出部としては、例えば、サーバ240が、監視カメラ302から受信した映像を解析することで、リアルタイムにオフィスビル内の人物の存在を検出するものであっても構わない。
 また、当該変形例20におけるサーバ240は、制御盤330から受信した情報が、非セキュリティモードへの移行を示す場合に、監視カメラ302に対して稼働停止情報を送信することなく、サーバ240における通報処理を停止するだけであっても構わない。
[変形例21]
 上記第3実施形態では、利用者が制御盤330の切替スイッチ334を操作することで、非セキュリティモードからセキュリティモードへと移行しているが、全ての利用者が建物から出た場合に、制御盤330の切替スイッチ334を操作することなく、自動的に、非セキュリティモードからセキュリティモードへ移行しても構わない。例えば、サーバ240は、管理データベースに記憶されている全ての利用者が退場(退室)状態になった場合に、セキュリティモードへと移行することができる。
 また、上記変形例21において、セキュリティモードへと移行する際に、サーバ240は、部屋用のセンサユニット220に対してのみ稼働停止情報を送信しても構わない。この場合、玄関用センサユニット210は稼働している状態となり、当該玄関用センサユニット210から新たに判定結果を受信した場合に、サーバ240は、セキュリティモードから非セキュリティモードへと移行することができる。
100,200   ゲートシステム
110,210,220   センサユニット
111,211,221   マイクモジュール(音声情報生成部)
112,212,222   第1カメラモジュール(第1撮像部)
113,213,223   第2カメラモジュール(第2撮像部)
131,214,224   コンピュータ
300   セキュリティシステム
301   人感センサ
302   監視カメラ
330   制御盤

 

Claims (19)

  1.  建物の出入口における人物の出入を制御するゲートシステムであって、
     人物の音声情報を生成する音声情報生成部と、
     前記人物の顔画像を生成する第1撮像部と、
     前記人物の眼球画像を生成する第2撮像部と、
     前記音声情報生成部、前記1撮像部、及び前記第2撮像部と通信可能な処理部と、
    を備え、
     前記処理部は、前記音声情報生成部から取得した音声情報、前記第1撮像部から取得した顔画像、又は前記第2撮像部から取得した眼球画像のいずれかに基づいて、前記人物を認証することを特徴とする、ゲートシステム。
  2.  前記音声情報生成部、前記第1撮像部、及び前記第2撮像部は、前記建物において定られた複数のエリアの各々に設けられることを特徴とする、請求項1に記載のゲートシステム。
  3.  前記眼球画像に基づく前記人物の認証は、当該眼球画像に含まれる目の虹彩、当該眼球画像に含まれる白目部分ある毛細血管、又は当該眼球画像に含まれる網膜にある毛細血管に基づいて行われることを特徴とする、請求項1または請求項2に記載のゲートシステム。
  4.  前記人物の認証は、機械学習によって行われることを特徴とする、請求項1から請求項3のいずれか1項に記載のゲートシステム。
  5.  前記第2撮像部は、前記人物の目の位置に応じて撮像方向を変動させることを特徴とする、請求項1から請求項4のいずれか1項に記載のゲートシステム。
  6.  前記第2撮像部は、前記第1撮像部によって生成された顔画像における目の位置に応じて、撮像方向を変動させることを特徴とする、請求項1から請求項5のいずれか1項に記載のゲートシステム。
  7.  前記第1撮像部は、TOFカメラモジュールを有することを特徴とする、請求項1から請求項6のいずれか1項に記載のゲートシステム。
  8.  前記第2撮像部は、
      前記人物の右目を撮像する撮像素子と、
      前記人物の左目を撮像する撮像素子と、
    を備える、請求項1から請求項7のいずれか1項に記載のゲートシステム。
  9.  前記建物に出入した人物、及びその出入時間を対応付けて記憶する記憶部を有する、請求項1から請求項8のいずれか1項に記載のゲートシステム。
  10.  前記記憶部は、前記建物に出入した人物の音声情報、顔画像、又は眼球画像を更に対応付けて記憶する、請求項9に記載のゲートシステム。
  11.  前記記憶部は、前記建物に出入可能な人物と、当該人物の出入可能な日時と、を予め対応付けて記憶し、
     前記処理部は、前記認証した人物に対応する日時を記憶部から抽出し、認証を行った日時が当該抽出した日時に含まれるか否かを判定することを特徴とする、請求項9または請求項10に記載のゲートシステム。
  12.  前記記憶部に対して、前記建物に出入可能な人物に関する情報を登録する登録部を備え、
     前記登録部は携帯情報端末であることを特徴とする、請求項11に記載のゲートシステム。
  13.  ネットワークを介して、前記処理部と通信可能な情報端末を備え、
     前記情報端末は、処理部に対して、前記人物を認証すべき旨の情報を送信することを特徴とする、請求項1から請求項12のいずれか1項に記載のゲートシステム。
  14.  請求項1から請求項13のいずれか1項に記載のゲートシステムを備えるセキュリティシステム。
  15.  前記ゲートシステムを制御する制御盤を備え、 前記ゲートシステムの処理部は、前記制御盤の制御に基づいて、前記認証を停止することを特徴とする、請求項14に記載のセキュリティシステム。
  16.  前記制御盤の制御に基づいて、前記建物内における人物を検出する検出部と、
     前記検出部から検出情報に基づいて、通報を行う通報部と、
    を備える、請求項15に記載のセキュリティシステム。
  17.  前記建物内に設けられた撮像部を備える、請求項14から請求項16のいずれか1項に記載のセキュリティシステム。
  18.  前記制御盤は、利用者の生体情報に基づいて生体認証を行う生体認証部を備え、生体認証によって利用者が認証された場合に、前記制御を行うことを特徴とする、請求項14から請求項17に記載のセキュリティシステム。
  19.  前記請求項1から請求項13のいずれか1項に記載のゲートシステムが備える情報生成部、前記第1撮像部、及び前記第2撮像部が筐体内に設けられ、前記建物の出入口の近傍に設置されるセンサユニット。

     
PCT/JP2022/032808 2021-08-31 2022-08-31 ゲートシステム、セキュリティシステム、及びセンサユニット WO2023033057A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023545647A JPWO2023033057A1 (ja) 2021-08-31 2022-08-31

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021141530 2021-08-31
JP2021-141530 2021-08-31

Publications (1)

Publication Number Publication Date
WO2023033057A1 true WO2023033057A1 (ja) 2023-03-09

Family

ID=85411362

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/032808 WO2023033057A1 (ja) 2021-08-31 2022-08-31 ゲートシステム、セキュリティシステム、及びセンサユニット

Country Status (2)

Country Link
JP (1) JPWO2023033057A1 (ja)
WO (1) WO2023033057A1 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036442A (ja) * 2001-07-25 2003-02-07 Optex Co Ltd 個人認証装置
JP2004297518A (ja) * 2003-03-27 2004-10-21 Matsushita Electric Ind Co Ltd 認証対象画像撮像装置及びその方法
JP2005063077A (ja) * 2003-08-08 2005-03-10 R & D Associates:Kk 個人認証方法、個人認証装置及びコネクタ
JP2007319174A (ja) * 2006-05-30 2007-12-13 Matsushita Electric Ind Co Ltd 撮影装置およびそれを用いた認証装置
JP2013210927A (ja) * 2012-03-30 2013-10-10 Sogo Keibi Hosho Co Ltd 警備装置、及び警備方法
CN208106124U (zh) * 2018-03-31 2018-11-16 广州市永泓电子有限公司 一种具有多种解锁方式的智能门锁
JP2019152024A (ja) * 2018-03-02 2019-09-12 シャープ株式会社 解錠システム、解錠装置、解錠方法、端末装置及びプログラム
WO2021059735A1 (ja) * 2019-09-26 2021-04-01 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、電子機器、画像処理方法及びプログラム
JP6870802B1 (ja) * 2020-11-13 2021-05-12 株式会社ダックビル 開錠制御装置、開錠制御システム、開錠制御方法及び開錠制御プログラム
WO2021090364A1 (ja) * 2019-11-05 2021-05-14 日本電気株式会社 認証用撮像装置及び認証システム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036442A (ja) * 2001-07-25 2003-02-07 Optex Co Ltd 個人認証装置
JP2004297518A (ja) * 2003-03-27 2004-10-21 Matsushita Electric Ind Co Ltd 認証対象画像撮像装置及びその方法
JP2005063077A (ja) * 2003-08-08 2005-03-10 R & D Associates:Kk 個人認証方法、個人認証装置及びコネクタ
JP2007319174A (ja) * 2006-05-30 2007-12-13 Matsushita Electric Ind Co Ltd 撮影装置およびそれを用いた認証装置
JP2013210927A (ja) * 2012-03-30 2013-10-10 Sogo Keibi Hosho Co Ltd 警備装置、及び警備方法
JP2019152024A (ja) * 2018-03-02 2019-09-12 シャープ株式会社 解錠システム、解錠装置、解錠方法、端末装置及びプログラム
CN208106124U (zh) * 2018-03-31 2018-11-16 广州市永泓电子有限公司 一种具有多种解锁方式的智能门锁
WO2021059735A1 (ja) * 2019-09-26 2021-04-01 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、電子機器、画像処理方法及びプログラム
WO2021090364A1 (ja) * 2019-11-05 2021-05-14 日本電気株式会社 認証用撮像装置及び認証システム
JP6870802B1 (ja) * 2020-11-13 2021-05-12 株式会社ダックビル 開錠制御装置、開錠制御システム、開錠制御方法及び開錠制御プログラム

Also Published As

Publication number Publication date
JPWO2023033057A1 (ja) 2023-03-09

Similar Documents

Publication Publication Date Title
US10305895B2 (en) Multi-factor and multi-mode biometric physical access control device
JP6246403B1 (ja) 入場管理システム
KR100439118B1 (ko) 입장 관리 장치와 입장 관리 방법
KR101730255B1 (ko) 얼굴 인식 디지털 도어록
KR101682311B1 (ko) 얼굴 인식 디지털 도어록
JP2009064140A (ja) 個人認証装置及び個人認証管理システム
JP5314294B2 (ja) 顔認証装置
JP2021153251A (ja) 集合住宅用インターホンシステム
JP5054566B2 (ja) 住宅用セキュリティシステム
JP2012033048A (ja) 警備システム
JP7075702B2 (ja) 入退室認証システムおよび入退室認証方法
KR100728657B1 (ko) 다수의 적외선 카메라를 이용한 무인 출입통제 시스템 및그 방법
JP4606868B2 (ja) 個人認証装置
KR101265447B1 (ko) 다중 인증수단과 스마트폰을 이용한 엘리베이터의 보안 시스템
CN109809262B (zh) 一种电梯权限安全控制系统
JP2005084824A (ja) 顔画像照合装置、顔画像照合方法及び通行制御装置
WO2023033057A1 (ja) ゲートシステム、セキュリティシステム、及びセンサユニット
JP2007034872A (ja) 顔認証装置および顔認証システムならびに顔認証方法
WO2020090972A1 (ja) 顔認証装置及び顔認証装置の制御方法
KR20100092642A (ko) 지문인식 방범시스템
JP6963915B2 (ja) ドア
JP2007213369A (ja) 生体認証装置および生体認証方法
KR20230001087A (ko) 복합 센서 및 카메라 일체형 안전출입문을 이용한 비대면 공유사무실 관리 시스템
WO2021239431A1 (en) Building system with credential and body temperature verification features
JP2020088462A (ja) 入室管理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22864639

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023545647

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE