WO2021156996A1 - ゲートシステム、ゲート装置、その制御方法、およびプログラム - Google Patents

ゲートシステム、ゲート装置、その制御方法、およびプログラム Download PDF

Info

Publication number
WO2021156996A1
WO2021156996A1 PCT/JP2020/004497 JP2020004497W WO2021156996A1 WO 2021156996 A1 WO2021156996 A1 WO 2021156996A1 JP 2020004497 W JP2020004497 W JP 2020004497W WO 2021156996 A1 WO2021156996 A1 WO 2021156996A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
gate
gate device
imaging
detection result
Prior art date
Application number
PCT/JP2020/004497
Other languages
English (en)
French (fr)
Inventor
一仁 村田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to EP20917642.9A priority Critical patent/EP4102011A4/en
Priority to PCT/JP2020/004497 priority patent/WO2021156996A1/ja
Priority to AU2020426906A priority patent/AU2020426906A1/en
Priority to US17/618,675 priority patent/US20220245978A1/en
Priority to JP2021575176A priority patent/JP7396375B2/ja
Publication of WO2021156996A1 publication Critical patent/WO2021156996A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00563Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/10Movable barriers with registering means
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition

Definitions

  • the present invention relates to a gate system, a gate device, a control method thereof, and a program.
  • Patent Document 1 describes a person recognition device that recognizes a person's face image in security management.
  • this person recognition device in order to solve the problem that the recognition rate is lowered due to the change in the standing position or posture of the recognition target person, the moving image of the recognition target person's face captured on the display unit is displayed and the motion image of the recognition target person's face is displayed.
  • a guide line for allowing the recognition target person to stand naturally in the center of the field of view of the camera is displayed, and a guide indicating the actually detected face position and size is displayed inside the guide line.
  • the recognition target person stops at a position corresponding to the height of the floor surface having a height difference, and the camera captures and inputs the face image of the recognition target person.
  • the monitor displays the face image of the recognition target person input by the camera on the monitor so that the recognition target person can finely adjust the position while checking his / her face image on the monitor.
  • the face image can be acquired regardless of the height of the recognition target person, and the face image in the state where the recognition target person is stopped can be acquired.
  • An object of the present invention is to improve the authentication accuracy when an image suitable for personal authentication is captured by a camera installed in a place where identity verification is required.
  • the first aspect relates to a gate device.
  • the first gate device is An imaging means that captures a person passing through a passage leading to a gate, An acquisition means for acquiring a detection result from a detection means provided on the road surface of the passage for detecting the presence of the person.
  • a control means that controls the imaging timing of the imaging means using the detection result acquired by the acquisition means, and Have.
  • the second gate device is An imaging means that captures the person to be confirmed at a place where identity verification is required, An acquisition means for acquiring a detection result from a detection means provided at a position where a person steps on in a place where identity verification is required to detect the presence of the person. It has a control means for controlling the imaging timing of the imaging means by using the detection result acquired by the acquisition means.
  • the third gate device is A first acquisition means for acquiring an image of a person passing through a passage leading to a gate from an imaging means, and A second acquisition means for acquiring a detection result from a detection means provided on the road surface of the passage for detecting the presence of the person, and a second acquisition means. It has a control means for controlling the imaging timing of the imaging means by using the detection result acquired by the second acquisition means.
  • the second aspect relates to a method of controlling a gate device performed by at least one computer.
  • the control method of the first gate device according to the second aspect is The gate device
  • the presence of a person is detected using a sensor provided on the road surface of the passage leading to the gate. This includes controlling the imaging timing of a camera that images the person passing through the passage in order to acquire a face image used for face authentication based on the detection result.
  • the control method of the second gate device is The gate device
  • the detection result is acquired from a sensor that is provided at a position where a person steps on in a place where identity verification is required and detects the presence of the person in the place where identity verification is required.
  • it includes controlling the imaging timing of a camera that images a person to be confirmed at a place where identity verification is required.
  • the control method of the third gate device is The gate device
  • the detection result is acquired from the detection means provided on the road surface of the passage, which detects the presence of a person passing through the passage leading to the gate.
  • the imaging timing of the imaging means for imaging a person passing through the passage leading to the gate is controlled by using the acquired detection result. This includes acquiring an image of the person captured at the imaging timing from the imaging means.
  • the third aspect relates to the gate system.
  • the first gate system according to the third aspect is With the gate device With a footmark provided in the aisle,
  • the gate device is An imaging means for imaging a person passing through the passage leading to the gate,
  • a detection means for detecting the presence of the person using the footmark provided at a position where a person passing through the passage steps on.
  • a control means for controlling the image pickup timing of the image pickup means for photographing the person passing through the passage by using the detection result of the detection means.
  • the second gate system is With the gate device Equipped with a footmark provided at a place where identity verification is required to detect the presence of a person
  • the gate device is An imaging means for imaging a person to be confirmed at a place where identity verification is required, and An acquisition means for acquiring a detection result from a detection means provided at a position where a person steps on in a place where identity verification is required to detect the presence of the person.
  • a control means for controlling the imaging timing of the imaging means by using the detection result acquired by the acquisition means is included.
  • this invention may be a program that causes at least one computer to execute the method of the second aspect, or a recording medium that can be read by a computer that records such a program. You may.
  • This recording medium includes a non-temporary tangible medium.
  • This computer program contains computer program code that causes the computer to perform its control method on the gate device when executed by the computer.
  • the various components of the present invention do not necessarily have to be independent of each other, and a plurality of components are formed as one member, and one component is formed of a plurality of members. It may be that a certain component is a part of another component, a part of a certain component overlaps with a part of another component, and the like.
  • the order of description does not limit the order in which the plurality of procedures are executed. Therefore, when implementing the method and computer program of the present invention, the order of the plurality of procedures can be changed within a range that does not hinder the contents.
  • the method of the present invention and the plurality of procedures of the computer program are not limited to being executed at different timings. Therefore, another procedure may occur during the execution of a certain procedure, a part or all of the execution timing of the certain procedure and the execution timing of the other procedure may overlap, and the like.
  • the present invention it is possible to improve the authentication accuracy by capturing an image suitable for personal authentication with a camera installed in a place where identity verification is required.
  • FIG. 7 It is a figure which shows the conceptual configuration example of the gate system which concerns on embodiment. It is a top view of the gate system. It is a figure which shows an example of a guide pattern. It is a figure which shows the functional structure example of the gate apparatus which concerns on this embodiment. It is a block diagram which illustrates the hardware structure of the computer which realizes a gate device. It is a flowchart which shows the operation example of the gate apparatus of this embodiment. It is a figure which shows the example of the guidance pattern, the stepping position of a person, and the detection result. It is a flowchart which shows the specific operation example of the gate apparatus when the guide pattern of FIG. 7 is used. It is a figure which shows another example of a guide pattern.
  • acquisition means that the own device retrieves data or information stored in another device or storage medium (active acquisition), and is output to the own device from the other device. Includes at least one of entering data or information (passive acquisition).
  • active acquisition include making a request or inquiry to another device and receiving the reply, and accessing and reading another device or storage medium.
  • passive acquisition may be receiving information to be delivered (or transmitted, push notification, etc.).
  • acquisition may be to select and acquire the received data or information, or to select and receive the delivered data or information.
  • FIG. 1 is a diagram showing a conceptual configuration example of the gate system 1 according to the embodiment.
  • the gate system 1 includes a gate device 10, a guidance pattern 30, and a face recognition device 50.
  • the gate device 10 includes a housing 14 and a camera unit 20.
  • the camera unit 20 includes an imaging unit 102 and a display unit 22.
  • the face recognition device 50 is connected to the gate device 10 via the communication network 3.
  • the face recognition device 50 compares the feature amount such as the face image of the person registered in advance with the feature amount extracted from the face image or the like of the person acquired by the imaging unit 102 of the gate device 10. Performs person authentication processing.
  • the face authentication device 50 performs the authentication process using the face image of the person, but the authentication process may be performed by another authentication device that uses other biometric authentication information.
  • the other biometric information includes, for example, at least one feature amount such as an iris, a vein, auricle, a fingerprint, a gait, and a profile (height, shoulder width, height, skeleton, etc.). This authentication device extracts the feature amount of the biometric authentication information from the captured image of the person and performs the authentication process.
  • the gate device 10 of the gate system 1 of the present embodiment is installed, for example, at a boarding gate of an airport. Alternatively, it may be installed at the entrance / exit to the room that manages the person who enters / exits. Alternatively, it can be installed as a gate of a payment terminal in combination with a payment terminal for cashless payment in a store or the like. Alternatively, it may be installed as an entrance / exit gate of an unmanned store without a clerk. As described above, the gate device of the gate system 1 of the present embodiment is installed at a place (checkpoint) where identity verification is required.
  • FIG. 2 is a plan view of the gate system 1 as viewed from above.
  • the housing 14 has a predetermined height and extends over a predetermined distance along a passage 12 through which a person passes.
  • Two housings 14 are installed side by side along the passage 12 at intervals of a predetermined distance on both sides of the passage 12. Preferably, the two housings 14 are installed in parallel.
  • the entrance 12a side of the passage 12 is open.
  • An opening / closing flap door 16 is provided on the exit 12b side of the passage 12 so as to be openable / closable.
  • two open / close flap doors 16 are provided, each of which is rotatably installed in the housing 14 at one end.
  • one opening / closing flap door 16 may be rotatably installed on one end side of either housing 14.
  • the opening / closing flap door 16 is the housing 14 so that the one end surfaces 16a and 16b of the opening / closing flap door 16 do not protrude from the one end surfaces 14a and 14b on the outlet side of the housing 14. It is installed flush with the one end surfaces 14a and 14b on the outlet 12b side of the door, or inside the one end surfaces 14a and 14b.
  • the opening / closing control of the opening / closing flap door 16 is performed according to, for example, the authentication result of the face recognition device 50.
  • the opening / closing flap door 16 has a case in which the normal position is in the open position and a case in which the opening / closing flap door 16 is in the closed position.
  • the normal position is the open position
  • the opening / closing control of the opening / closing flap door 16 is not performed, and the opening / closing position remains open so that the person can pass through the passage 12.
  • the opening / closing control is performed so that the person cannot pass through the passage 12, and the opening / closing flap door 16 is changed from the open position to the closed position.
  • the opening / closing control is performed so that a person can pass through the passage 12, and the opening / closing flap door 16 is changed from the closed position to the open position. If the face recognition fails, the opening / closing flap door 16 is not controlled to open / close, and remains in the closed position so that a person cannot pass through the passage 12.
  • the guidance pattern 30 is provided at a position where a person passing through the passage 12 steps on, and the imaging unit 102 provided on the way to the opening / closing flap door 16 in the passage 12 acquires an image suitable for face recognition. , At least indicates the recommended standing position.
  • the guide pattern 30 may indicate a position where a person visits when taking an image of the person's face while walking in the passage 12.
  • a sensor for detecting the presence of a person is arranged at the same position as the guidance pattern 30.
  • the guide pattern 30 may have, for example, the shape of a footprint (FIG. 3) as will be described later.
  • the toes of the footprints indicate the direction in which a person goes.
  • the axis connecting the toes and the heel through the center of the footprint indicates the direction of the toes of the footprint.
  • the relationship between the optical axis of the imaging unit 102 and the footprints of the guide pattern 30 is such that, for example, in top view, the directions of the optical axis of the imaging unit 102 and the axis indicating the direction of the footprints are substantially parallel.
  • the optical axis passes between the left and right footprints.
  • the camera unit 20 is installed on the side of the passage 12.
  • the imaging unit 102 is installed so that the angle at which the optical axis of the imaging unit 102 intersects with the traveling direction of the passage 12 (the direction parallel to the inner side surface of the housing 14) is, for example, in the range of 0 ° to 90 °. Will be done.
  • the imaging unit 102 may be installed so that the optical axis of the imaging unit 102 intersects the traveling direction of the passage 12 at an angle.
  • the imaging unit 102 may be installed so that the angle at which the optical axis of the imaging unit 102 intersects with the traveling direction of the passage 12 is 30 ° or more and 60 ° or less.
  • Sensors 34 are arranged at a plurality of locations or at least a part of the guide pattern 30.
  • the control unit 106 causes the image pickup unit 102 to perform imaging when a sensor 34 having a predetermined ratio or more of the sensors 34 detects the presence of a person.
  • the senor 34 is a photoelectric sensor.
  • the sensor 34 may be a pressure sensor.
  • An example of the pressure sensor will be described later.
  • the photoelectric sensor uses, for example, a reflection type sensor to detect the presence or absence of a subject based on whether or not the emitted signal light is reflected and received. That is, it detects whether or not a person is on the guidance pattern 30.
  • the sensor 34 of the present embodiment outputs an ON signal when it detects the presence of a person.
  • the signal output from the sensor 34 is not limited to this.
  • FIG. 3 is a diagram showing an example of the guide pattern 30.
  • FIG. 3A is a top view of the guide pattern 30.
  • FIG. 3B is a cross-sectional view of the guide pattern 30 of FIG. 3A as viewed from line I.I.
  • the guide pattern 30 is included so that a plurality of sensors 34 are scattered in the footmark region 32 having the shape of a footprint.
  • a film coated or printed with a predetermined paint is formed in the footmark area 32.
  • a plurality of sensors 34 are embedded in the layer of this film (FIG. 3 (b)).
  • the membrane may be formed directly on the road surface of the passage 12, or the sheet on which the membrane is formed may be laid on the road surface of the passage 12.
  • FIG. 4 is a diagram showing a functional configuration example of the gate device 10 according to the present embodiment.
  • the gate device 10 includes an imaging unit 102, an acquisition unit 104, and a control unit 106.
  • the imaging unit 102 images a person passing through a passage leading to a gate through which the person subject to face recognition passes.
  • the acquisition unit 104 acquires the detection result from the detection unit (sensor 34) that detects the presence of a person.
  • the sensor 34 is provided on the road surface of the passage 12.
  • the road surface of the passage 12 may be not only on the surface of the floor material of the passage 12, but also in the floor material of the passage 12 or under the floor material of the passage 12.
  • the sensor 34 is provided at a position where a person who passes through the path leading to the gate through the passage 12 steps on.
  • the control unit 106 controls the imaging timing of the imaging unit 102 that images a person passing through the passage 12 by using the detection result of the sensor 34 acquired by the acquisition unit 104.
  • the image pickup unit 102 is a camera including an image pickup element such as a lens and a CCD (Charge Coupled Device) image sensor.
  • the camera is a mechanism for adjusting and controlling focusing, exposure compensation, aperture value, shutter speed, ISO sensitivity, etc. in order to improve the image quality of a face image of a person and obtain the optimum features for face image authentication. And may be controlled automatically.
  • the image generated by the imaging unit 102 is captured in real time and transmitted to the face recognition device 50.
  • the image transmitted to the face recognition device 50 does not have to be directly transmitted from the imaging unit 102, and may be an image delayed by a predetermined time.
  • the image captured by the imaging unit 102 may be temporarily stored in another storage device (not shown), and the face recognition device 50 may read the image from the storage device sequentially or at predetermined intervals.
  • the image transmitted to the face recognition device 50 is preferably a moving image, but may be a frame image at predetermined intervals or a still image.
  • FIG. 5 is a block diagram illustrating a hardware configuration of a computer 1000 that realizes the gate device 10.
  • the computer 1000 has a bus 1010, a processor 1020, a memory 1030, a storage device 1040, an input / output interface 1050, and a network interface 1060.
  • the bus 1010 is a data transmission path for the processor 1020, the memory 1030, the storage device 1040, the input / output interface 1050, and the network interface 1060 to transmit and receive data to and from each other.
  • the method of connecting the processors 1020 and the like to each other is not limited to the bus connection.
  • the processor 1020 is a processor realized by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or the like.
  • the memory 1030 is a main storage device realized by a RAM (Random Access Memory) or the like.
  • the storage device 1040 is an auxiliary storage device realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a memory card, a ROM (Read Only Memory), or the like.
  • the storage device 1040 stores a program module that realizes each function of the gate device 10, such as an image pickup unit 102, an acquisition unit 104, a control unit 106, and an estimation unit 108 described later.
  • the processor 1020 reads each of these program modules into the memory 1030 and executes them, each function corresponding to the program module is realized.
  • the storage device 1040 also functions as various storage units.
  • the program module may be recorded on a recording medium.
  • the recording medium for recording the program module includes a medium that can be used by the non-temporary tangible computer 1000, and the program code that can be read by the computer 1000 (processor 1020) may be embedded in the medium.
  • the input / output interface 1050 is an interface for connecting the gate device 10 and various input / output devices (for example, the display unit 22).
  • the network interface 1060 is an interface for connecting the gate device 10 to another device (for example, the face recognition device 50) on the communication network 3.
  • the network interface 1060 may not be used.
  • FIG. 6 is a flowchart showing an operation example of the gate device 10 of the present embodiment.
  • the acquisition unit 104 acquires the detection result of the sensor 34 that detects the presence of a person (step S101).
  • the control unit 106 controls the imaging timing of the imaging unit 102 using the detection result acquired in step S101 (step S103).
  • FIG. 7 is a diagram showing an example of the guidance pattern 30, a stepping position of a person (indicated by a broken line 40 in the figure), and a detection result.
  • FIG. 8 is a flowchart showing a specific operation example of the gate device 10 when the guide pattern 30 of FIG. 7 is used.
  • the flow of FIG. 8 starts when the entry sensor 18 of FIG. 2 detects the entry of a person into the passage 12.
  • Various conditions for ending the flow can be considered and are exemplified below, but are not limited thereto.
  • the flow may be stopped in at least one of the following cases. (1) When a human face image is acquired by the image pickup unit 102 (2) When face recognition is successful by the face recognition device 50 (3) When the opening / closing flap door 16 is opened (4) Authentication target in the captured image When the size of the person's face and the distance between the eyes meet the prescribed conditions
  • the acquisition unit 104 determines whether or not the ratio of the sensors 34b outputting the ON signal is equal to or greater than the threshold value (step S201).
  • the ratio of the sensors 34b outputting the ON signal is indicated by the ratio of the number of sensors 34b outputting the ON signal to the total number of sensors 34 embedded in the footmark region 32 of FIG. 7.
  • a threshold value for determining whether or not a person is on the guide pattern 30 that is oriented so that the person's face faces the imaging unit 102 is set without any deviation. If the stepping position deviates from the footmark area 32 of the guide pattern 30, the number of sensors 34a that do not output the ON signal increases, and the proportion of the sensors 34b that output the ON signal decreases.
  • step S201 the ratio of the sensor 34b that outputs the ON signal becomes equal to or higher than the threshold value.
  • the acquisition unit 104 passes this detection result to the control unit 106. Based on this detection result, the control unit 106 instructs the image pickup unit 102 to take an image (step S203) because the ratio of the sensor 34b outputting the ON signal is equal to or greater than the threshold value (YES in step S201).
  • step S201 the ratio of the sensor 34b that outputs the ON signal does not exceed the threshold value.
  • the acquisition unit 104 passes this detection result to the control unit 106. Based on this detection result, the control unit 106 bypasses step S203 because the ratio of the sensor 34b outputting the ON signal is not equal to or higher than the threshold value (NO in step S201).
  • the determination of the shooting timing may be based on the distribution of the sensors 34b that output the ON signal, in addition to the ratio of the sensors 34b that output the ON signal.
  • the footprint region is divided into n in parallel with the movement direction Y of the footprint (direction connecting the heel to the toe of the footprint).
  • the ratio of the number of sensors 34b outputting the ON signal to the number of sensors 34 included in each region W1 to Wn (n is a natural number) is obtained.
  • the footprint region is divided into n so that at least the number of sensors 34 that can detect that the deviation between the footprint and the stepping position falls within the threshold value is included in the region W.
  • the timing of imaging when there is little variation in the distribution of the ratio of the number of sensors 34b for each region W, it may be determined as the timing of imaging. For example, when the region W in which the ratio of the number of sensors 34b outputting the ON signal is equal to or more than the threshold value P is continuous for the reference or more with respect to the traveling direction, it is determined that there is no variation in the distribution.
  • FIG. 21 shows the distribution of the reactions of the sensors 34b of FIGS. 7 (a) and 7 (b).
  • the starting point of the traveling direction Y on the horizontal axis of FIG. 21 shows the reaction state of the sensor 34 in the region W1 of the position of the heel of the footprint of the guide pattern 30 of FIG.
  • the right end of the traveling direction Y on the horizontal axis of FIG. 21 shows the reaction state of the sensor 34 in the region Wn of the position of the toe of the footprint of the guide pattern 30 of FIG.
  • FIG. 21 (a) shows the left foot and FIG. 21 (b) shows the right foot.
  • the ratio of the number of sensors 34b that output the ON signal to the number of sensors 34 installed in each region W1 to Wn is shown by a dashed line and a broken line.
  • the alternate long and short dash line shows the distribution of the reaction of the sensor 34b of FIG. 7 (a)
  • the broken line shows the distribution of the reaction of the sensor 34b of FIG. 7 (b).
  • the threshold value P is indicated by a two-dot chain line
  • the reference range D is indicated by an arrow of the two-dot chain line.
  • the ratio of the sensor 34b outputting the ON signal indicated by the alternate long and short dash line corresponding to FIG. 7 (a) is as follows in each region W1 for both the left foot in FIG. 21 (a) and the right foot in FIG. 21 (b).
  • ⁇ Wn the threshold value P is exceeded. That is, since the continuous range D2 exceeds the reference range D0, it is determined that there is no variation in the distribution of the ratio.
  • FIG. 7A shown by the alternate long and short dash line in this figure it is determined that the imaging timing is reached.
  • the ratio of the sensor 34b that outputs the ON signal indicated by the broken line corresponding to FIG. 7 (b) is the ratio of the left foot in FIG. 21 (a) and the right foot in FIG. 21 (b) to the traveling direction at first glance. It fluctuates greatly.
  • the determination of the shooting timing may be performed based on the distribution change with respect to the traveling direction of the sensor 34b that outputs the ON signal.
  • FIG. 9 is a diagram showing another example of the guide pattern 30.
  • FIG. 9A is a top view of the guide pattern 30.
  • 9 (b) is a cross-sectional view of the guide pattern 30 of FIG. 9 (a) as viewed from line I.I.
  • the guide pattern 30 is composed of a footmark area 32 and a sheet-shaped pressure sensor 34, and the sensor 34 is arranged in substantially the same shape and at substantially the same position as the footmark area 32.
  • the sensor 34 extends below the footmark area 32 so as to overlap the footmark area 32.
  • the pressure sensor responds to the pressure applied by the person on it and outputs a value corresponding to the area of the reaction region.
  • a determination based on the distribution of the reaction region can be considered as described above. For example, when there is little variation in the distribution of the region where the sensor 34 is reacting in the traveling direction of the footprint of the guide pattern 30, it may be determined that the timing of imaging is.
  • FIG. 10 is a diagram showing an example of the guidance pattern 30, a stepping position of a person (indicated by a broken line 40 in the figure), and a detection result.
  • FIG. 11 is a flowchart showing a specific operation example of the gate device 10 when the guide pattern 30 of FIG. 10 is used. The conditions for starting and ending the flow of FIG. 11 are the same as those of FIG. 7.
  • the acquisition unit 104 determines whether or not the area ratio of the reaction region of the pressure sensor is equal to or greater than the threshold value (step S301).
  • the area ratio of the reaction region is the area of the reaction region (indicated by 34b in the figure) of the sensor 34 provided below the footmark region 32 in FIG. 10 and having the same shape as the footmark region 32. Is shown as a percentage of the total area of the footmark area 32.
  • the unresponsive region of the sensor 34 is shown as 34a. If the stepping position deviates from the footmark area 32 of the guide pattern 30, the area ratio becomes small, and if a person puts the guide pattern 30 in the correct position, the area ratio becomes large.
  • step S301 the area ratio of the reaction region 34b of the sensor 34 is equal to or greater than the threshold value.
  • the acquisition unit 104 passes this detection result to the control unit 106. Based on this detection result, the control unit 106 instructs the image pickup unit 102 to take an image because the area ratio of the reaction region 34b of the sensor 34 is equal to or greater than the threshold value (YES in step S301).
  • step S301 the area ratio of the reaction region 34b of the sensor 34 does not exceed the threshold value.
  • the acquisition unit 104 passes this detection result to the control unit 106. Based on this detection result, the control unit 106 bypasses step S303 because the area ratio of the reaction region 34b of the sensor 34 is not equal to or greater than the threshold value (NO in step S301).
  • FIG. 12 is a top view of the gate device 10 showing an example of another guide pattern 30.
  • the guide pattern 30 is provided in a shape that guides the person by indicating the direction or route to be taken to the person on the camera unit 20 provided on the side of the passage 12.
  • the guide pattern 30 may be projected onto the road surface of the passage 12 using a projector (not shown) or the like installed on the upper part of the housing 14.
  • the guide pattern 30 may be an animation that moves in the traveling direction.
  • the sensor 34 described above is provided in a region of the road surface region of the passage 12 where it can be determined whether or not a person is stepping on a position where an image suitable for the authentication process can be obtained by the imaging unit 102.
  • the sensor 34 is provided in the guide pattern 30 which is provided at the position where a person passes through the passage 12 leading to the gate and guides the image pickup unit 102 so that the face faces, and the acquisition unit 104. Uses the sensor 34 to detect the presence of a person in the passage 12, and the control unit 106 controls the imaging timing of the face image by the imaging unit 102 based on the detection result. As a result, the gate device 10 can capture the face image of the person to be authenticated at the imaging timing at which the face image suitable for face recognition can be acquired. This improves the face recognition accuracy.
  • the imaging unit 102 (camera unit 20) is installed beside the passage 12. Therefore, it is difficult to photograph a person passing through the passage 12 from the front.
  • the passage 12 may be shortened, which limits the time during which the face image can be taken. Therefore, it becomes difficult to acquire a face image suitable for face recognition processing. Even in these cases, according to the gate device 10 of the present embodiment, the face recognition process can be performed without deteriorating the accuracy.
  • FIG. 13 is a diagram showing a functional configuration example of the gate device 10 of the present embodiment.
  • the gate device 10 of the present embodiment is the same as that of the above embodiment except that it has a configuration for estimating the line of sight and the direction of the face of the person to be authenticated.
  • the gate device 10 further includes an estimation unit 108 in the configuration of the gate device 10 of FIG.
  • the estimation unit 108 estimates the direction of the person's line of sight or face based on the image of the person captured by the image pickup unit 102.
  • the control unit 106 controls the imaging timing using the estimation result by the estimation unit 108.
  • FIG. 14 is a flowchart showing an operation example of the gate device 10 of the present embodiment. This flow is executed after step S103 of the flow of the above embodiment of FIG. Alternatively, it may be executed after step S203 of FIG. 8 and step S303 of FIG.
  • the estimation unit 108 performs image recognition processing on the image of the person captured by the imaging unit 102, and estimates the direction of the person's line of sight or face with respect to the camera (step S401). Then, the control unit 106 determines whether or not the imaging condition is satisfied depending on whether or not the estimated direction of the person's line of sight or face is toward the camera (step S403). When the estimated direction of the person's line of sight or face is toward the camera, it is determined that the imaging condition is satisfied (YES in step S403). On the other hand, if the estimated direction of the person's line of sight or face does not face the camera, it is determined that the imaging condition is not satisfied (NO in step S403).
  • the imaging condition may be, for example, within a range of a predetermined angle from the state of the face facing the front with respect to the camera and the state of the line of sight. Then, when it is determined that the estimated direction of the person's line of sight or face is toward the camera, the control unit 106 causes the image pickup unit 102 to take an image (step S405).
  • the estimation unit 108 estimates the line of sight and the direction of the face of the person to be face-recognized, and when the person is facing the camera, the image pickup unit 102 takes an image.
  • FIG. 15 is a diagram showing a functional configuration example of the gate device 10 of the present embodiment.
  • the gate device 10 of the present embodiment is the same as at least one of the above-described embodiments except that it has a configuration in which a predetermined output is performed when it is not the timing to be imaged.
  • the output unit 110 outputs a predetermined output when the control unit 106 determines that it is not the timing to take an image.
  • the predetermined output includes displaying on the display unit 22 (FIG. 16) and outputting voice guidance from a speaker (not shown).
  • FIG. 16 is a front view of the camera unit 20.
  • the camera unit 20 has a display unit 22 in the center of the front surface of the housing.
  • the display unit 22 is preferably arranged at a height at which a person passing through the passage 12 can be seen.
  • the height to be installed may be determined from the average height of an adult.
  • Two cameras are provided above and below the display unit 22 as an imaging unit 102.
  • FIG. 17 is a flowchart showing an operation example of the gate device 10 of the present embodiment. This flow has the same steps S401 to S405 as the flow of the above embodiment of FIG. 14, and further has step S411.
  • step S403 If it is determined in step S403 that the imaging condition is not satisfied because the estimated person's line of sight or face direction does not face the camera (NO in step S403), the process proceeds to step S411. Then, the output unit 110 outputs a predetermined output (step S411).
  • the output unit 110 displays guidance on the display unit 22 or outputs voice. Examples of guidance include, but are not limited to, "Stand on the footmarks at your feet” and “Look at the camera.”
  • step S401 of FIG. 8 or step S301 of FIG. 11 of the above embodiment is less than the threshold value, the process may proceed to step S411 of FIG. 17 to output guidance. After step S411, the process returns to the determination process of step S201 of FIG. 8 or step S301 of FIG.
  • FIG. 18 is a flowchart showing an operation example of the gate system 1 of the present embodiment.
  • FIG. 18 starts after the image pickup unit 102 captures a human face image in each flow of the above embodiment.
  • step S501 The face image captured by the imaging unit 102 is transmitted to the face recognition device 50, and the face recognition device 50 performs the authentication process (step S501). Then, when the authentication result by the face recognition device 50 is successful (YES in step S503), a gate control mechanism (not shown) controls the opening / closing flap door 16 to open the opening / closing flap door 16 (step S505). If the face recognition by the face recognition device 50 fails (NO in step S503), step S505 is bypassed and the open / close flap door 16 remains closed.
  • the processing after the authentication processing fails in step S503 can be considered in various ways and is not limited to this. For example, a notification may be output to the nearest staff member, or only recording may be performed, and the opening / closing flap door 16 may be opened to pass through the gate. The recording is stored, for example, in association with the captured image and the date and time information.
  • the output unit 110 can display guidance for capturing a face image suitable for face authentication and output voice. This makes it possible to tell the person to be authenticated how to take a face image suitable for face recognition. Therefore, according to the present embodiment, it is possible to further reduce the authentication of face authentication and improve the authentication accuracy.
  • the gate device 10 includes a control unit 106 similar to that in FIG. 4, and includes a first acquisition unit 112 and a second acquisition unit 114 in place of the image pickup unit 102 and the acquisition unit 104. It may be configured.
  • the first acquisition unit 112 acquires an image of a person passing through the passage 12 leading to the gate from the imaging unit 102.
  • the second acquisition unit 114 acquires the detection result from the sensor 34 provided on the road surface of the passage 12.
  • the control unit 106 controls the imaging timing of the imaging unit 102 by using the detection result of the sensor 34 acquired by the second acquisition unit 114.
  • the second acquisition unit 114 acquires the detection result of the presence of a person from the sensor 34, and the control unit 106 controls the imaging timing of the imaging unit 102 using the detection result. Then, the imaging timing is controlled by the control unit 106, the imaging unit 102 images a person passing through the passage 12, and the first acquisition unit 112 acquires the captured image. Since the control unit 106 controls the timing so that an image suitable for the authentication process in the face recognition device 50 is captured, the first acquisition unit 112 can acquire an image suitable for the authentication process from the image pickup unit 102.
  • the image acquired by the first acquisition unit 112 is transmitted to the face authentication device 50 and used for the authentication process, and the opening / closing control of the gate can be performed based on the authentication result as in the above embodiment.
  • the present invention can be applied to a gate device that is not provided with a housing 14 or an opening / closing flap door 16 but is provided with at least an imaging unit 102 and a display unit 22.
  • the imaging unit 102 images a person to be confirmed at a place where identity verification is required.
  • the acquisition unit 104 acquires a detection result from a detection unit (sensor 34) that is provided at a position where a person steps on at a place where identity verification is required and detects the presence of the person.
  • the control unit 106 controls the imaging timing of the imaging unit 102 by using the detection result acquired by the acquisition unit 104.
  • the acquisition unit 104 acquires a detection result of detecting the presence of a person by using a sensor 34 provided at a place where identity verification is required and arranged at the same position as a guidance pattern indicating a route to a position where the person steps on. do.
  • the imaging unit 102 is installed beside a place where identity verification is required.
  • the control unit 106 causes the image pickup unit 102 to perform imaging when a sensor 34 having a predetermined ratio or more of the sensors 34 detects the presence of a person.
  • An imaging means that captures a person passing through a passage leading to a gate
  • An acquisition means for acquiring a detection result from a detection means provided on the road surface of the passage for detecting the presence of the person.
  • a control means that controls the imaging timing of the imaging means using the detection result acquired by the acquisition means, and
  • 2. 1. 1. In the gate device described in The acquisition means is a gate device that acquires a detection result of detecting the presence of the person by using a sensor provided on the road surface of the passage and arranged at the same position as a guide pattern indicating the route to the gate. .. 3. 3. 2.
  • In the gate device described in The imaging means is installed beside the passage and is installed.
  • the sensor is arranged at a plurality of locations or at least a part of the guide pattern.
  • the control means is a gate device that causes the imaging means to perform imaging when a predetermined ratio or more of the sensors detects the presence of the person. 4.
  • An imaging means that captures the person to be confirmed at a place where identity verification is required,
  • An acquisition means for acquiring a detection result from a detection means provided at a position where a person steps on in a place where identity verification is required to detect the presence of the person.
  • a control means that controls the imaging timing of the imaging means using the detection result acquired by the acquisition means, and A gate device equipped with. 5. 4.
  • the acquisition means detects the presence of the person by using a sensor provided at a place where the person needs to be confirmed and arranged at the same position as the guidance pattern indicating the route to the position where the person steps on. To get the gate device. 6. 5.
  • the imaging means is installed beside the place where identity verification is required.
  • the sensor is arranged at a plurality of locations or at least a part of the guide pattern.
  • the control means is a gate device that causes the imaging means to perform imaging when a predetermined ratio or more of the sensors detects the presence of the person. 7. 1. 1. From 6.
  • an estimation means for estimating the direction of the person's line of sight or face based on the image of the person captured by the image pickup means is provided.
  • the control means is a gate device that controls the imaging timing by using the estimation result by the estimation means.
  • an output means that outputs a predetermined output when it is determined by the control means that it is not the timing to be imaged.
  • the gate device is An imaging means for imaging a person passing through the passage leading to the gate, An acquisition means for acquiring the detection result of the person in the passage using the footmark, and A gate system including a control means for controlling the imaging timing of the imaging means using the detection result acquired by the acquisition means. 10.
  • the acquisition means of the gate device acquires a detection result of detecting the presence of the person by using a sensor provided on the road surface of the passage and arranged at the same position as a guide pattern indicating the route to the gate. Gate system. 11.
  • the imaging means of the gate device is installed beside the passage.
  • the sensor is arranged at a plurality of locations or at least a part of the guide pattern.
  • the control means of the gate device is a gate system in which the image pickup means performs imaging when the sensor of a predetermined ratio or more among the sensors detects the presence of the person. 12.
  • the gate device is An imaging means for imaging a person to be confirmed at a place where identity verification is required, and An acquisition means for acquiring a detection result from a detection means provided at a position where a person steps on in a place where identity verification is required to detect the presence of the person.
  • a gate system including a control means for controlling the imaging timing of the imaging means using the detection result acquired by the acquisition means. 13. 12. In the gate system described in The acquisition means of the gate device uses a sensor provided at a place where identity verification is required and is arranged at the same position as a guide pattern indicating a route to a position where the person steps on, to detect the presence of the person. A gate system that acquires the detected detection results. 14. 13. In the gate system described in The imaging means of the gate device is installed beside the place where identity verification is required. The sensor is arranged at a plurality of locations or at least a part of the guide pattern.
  • the control means of the gate device is a gate system in which the image pickup means performs imaging when the sensor of a predetermined ratio or more among the sensors detects the presence of the person. 15. 9. From 14. In the gate system described in any one of The gate device further includes an estimation means for estimating the direction of the person's line of sight or face based on the image of the person captured by the imaging means. The control means of the gate device is a gate system that controls the imaging timing by using the estimation result by the estimation means. 16. 9. To 15. In the gate system described in any one of A gate system further comprising an output means that outputs a predetermined output when it is determined by the control means of the gate device that it is not the timing to be imaged.
  • the gate device The detection result is acquired from a sensor provided on the road surface of the passage, which detects the presence of a person passing through the passage leading to the gate in the passage. In order to acquire a face image used for face authentication based on the detection result, the imaging timing of the camera that images the person passing through the passage is controlled. How to control the gate device. 18. 17. In the control method of the gate device described in 1. The gate device A control method for a gate device, which acquires a detection result of detecting the presence of the person by using a sensor provided on the road surface of the passage and arranged at the same position as a guide pattern indicating a route to the gate. 19. 18. In the control method of the gate device described in 1.
  • the camera is installed beside the aisle
  • the sensor is arranged at a plurality of locations or at least a part of the guide pattern.
  • the gate device A method for controlling a gate device, which causes the camera to perform imaging when a predetermined ratio or more of the sensors detects the presence of the person.
  • the gate device The detection result is acquired from a sensor that is provided at a position where a person steps on in a place where identity verification is required and detects the presence of the person in the place where identity verification is required. In order to acquire a face image used for face authentication based on the detection result, the imaging timing of the camera that images the person to be confirmed is controlled at the place where the identity verification is required. How to control the gate device. 21. 20. In the control method of the gate device described in 1.
  • the gate device A gate that acquires the detection result of detecting the presence of the person using a sensor arranged at the same position as the guidance pattern indicating the route to the position where the person steps on, which is provided at the place where the person needs to be confirmed. How to control the device. 22. 21. In the control method of the gate device described in 1. The camera is installed beside the place where identity verification is required. The sensor is arranged at a plurality of locations or at least a part of the guide pattern. The gate device A method for controlling a gate device, which causes the camera to perform imaging when a predetermined ratio or more of the sensors detects the presence of the person. 23. 17. From 22.
  • the gate device Further, based on the image of the person captured by the camera, the line of sight or the direction of the person's face is estimated. A control method for a gate device that controls the imaging timing using the estimated results. 24. 17. From 23. In the control method of the gate device according to any one of the above, The gate device further A method of controlling a gate device that outputs a predetermined output when it is determined that it is not the timing to take an image.
  • In the program described in To make a computer execute a procedure of acquiring a detection result of detecting the presence of the person by using a sensor provided on the road surface of the passage and arranged at the same position as a guide pattern indicating the route to the gate.
  • the camera is installed beside the aisle The sensor is arranged at a plurality of locations or at least a part of the guide pattern.
  • On the computer A procedure for acquiring a detection result from a sensor that is provided at a position where a person steps on in a place where identity verification is required and detects the presence of the person in the place where identity verification is required.
  • the camera is installed beside the place where identity verification is required.
  • the sensor is arranged at a plurality of locations or at least a part of the guide pattern.
  • a procedure for estimating the line-of-sight or face orientation of the person based on the image of the person captured by the camera A program for causing a computer to execute a procedure for controlling the imaging timing using the estimation result in the estimation procedure. 32. 25. From 31. In the program described in any one of A program that causes a computer to perform a procedure for outputting a predetermined output when it is determined that it is not the timing to take an image.
  • the gate device The detection result is acquired from the detection means provided on the road surface of the passage, which detects the presence of a person passing through the passage leading to the gate.
  • the imaging timing of the imaging means for imaging a person passing through the passage leading to the gate is controlled by using the acquired detection result.
  • a method for controlling a gate device which acquires an image of a person captured at the imaging timing from the imaging means. 35.
  • On the computer A procedure for acquiring a detection result from a detection means provided on the road surface of the passage, which detects the presence of a person passing through the passage leading to the gate.
  • the imaging timing of the imaging means for imaging a person passing through the passage leading to the gate is controlled by using the acquired detection result.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Devices For Checking Fares Or Tickets At Control Points (AREA)
  • Collating Specific Patterns (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)

Abstract

ゲート装置(10)は、ゲートに通じる通路を通る人を撮像する撮像部(102)と、通路の路面に設けられた検出部から、検出結果を取得する取得部(104)と、撮像部(102)の撮像タイミングを、取得部(104)が取得した検出結果を用いて制御する制御部(106)とを備える。

Description

ゲートシステム、ゲート装置、その制御方法、およびプログラム
 本発明は、ゲートシステム、ゲート装置、その制御方法、およびプログラムに関する。
 画像認識技術の進歩により、近年、セキュリティ管理が必要な施設などに出入りする際に、人物の顔画像を用いた認証装置の実用化が進み、その認識精度を向上させるための技術が様々提案されている。
 例えば、特許文献1には、セキュリティ管理において人物の顔画像を認識する人物認識装置が記載されている。この人物認識装置では、認識対象者の立ち位置や姿勢の変化により認識率の低下を引き起こす問題を解決するために、表示部に撮像されている認識対象者の顔の動画像を表示するとともに、認識対象者をカメラの視野中央に自然に立たせるためのガイド線を表示し、ガイド線の内側に実際に検出した顔位置やサイズを示すガイドを表示している。
 また、特許文献2に記載の顔画像認識装置では、認識対象者が高低差のある床面の身長に応じた位置に停止し、カメラがその認識対象者の顔画像を撮像して入力し、モニタはカメラにより入力された認識対象者の顔画像をモニタに映し出して認識対象者が自分の顔画像をモニタで確認しながら位置を微調整できるようにしている。これにより、認識対象者の背丈に関係なく顔画像を取得し、かつ、認識対象者が立ち止まった状態での顔画像を取得できる。
特開2004-151978号公報 特開2001-266153号公報
 上記した文献に記載の技術では、認識対象者の顔画像を取得する際に、認識対象者に立ち止まらせてその人の顔の映像をモニタに表示させている。しかしながら、空港などの税関通過時や搭乗口での入場時など多くの人が利用する場面では、各人を顔認証のために立ち止まらせることは、時間がかかり混雑を増長させてしまうため好ましくない。そこで、確認が必要となる箇所にゲートを設け、ゲートの手前で移動している人物の顔を撮像して取得した顔画像を用いた顔認証が行われている。
 このような顔認証などの本人認証を行うためのゲートを導入する場合、既存の施設では、ゲートの設置場所のスペースが限られているため、認証の対象者を歩かせる通路を長く取ることが難しい場合がある。このような場合、短い通路を歩いている間に取得した認証対象者の画像を用いても認証精度を低下させないような工夫が必要となる。
 本発明の目的は、本人確認が必要な場所に設置されるカメラで本人認証に適した画像を撮像する場合において、認証精度を向上させることにある。
 本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。
 第一の側面は、ゲート装置に関する。
 第一の側面に係る第1のゲート装置は、
 ゲートに通じる通路を通る人を撮像する撮像手段と、
 前記人の存在を検知する、前記通路の路面に設けられた検出手段から、検出結果を取得する取得手段と、
 前記撮像手段の撮像タイミングを、前記取得手段が取得した検出結果を用いて制御する制御手段と、
を有する。
 第一の側面に係る第2のゲート装置は、
 本人確認の必要な場所において確認対象である人を撮像する撮像手段と、
 前記本人確認の必要な場所において人が踏む位置に設けられて前記人の存在を検知する検出手段から、検出結果を取得する取得手段と、
 前記撮像手段の撮像タイミングを、前記取得手段が取得した前記検出結果を用いて制御する制御手段と、を有する。
 第一の側面に係る第3のゲート装置は、
 ゲートに通じる通路を通る人を撮像した画像を撮像手段から取得する第1の取得手段と、
 前記人の存在を検知する、前記通路の路面に設けられた検知手段から、検出結果を取得する第2の取得手段と、
 前記撮像手段の撮像タイミングを、前記第2の取得手段が取得した前記検出結果を用いて制御する制御手段と、を有する。
 第二の側面は、少なくとも1つのコンピュータにより実行されるゲート装置の制御方法に関する。
 第二の側面に係る第1のゲート装置の制御方法は、
 ゲート装置が、
  ゲートに通じる通路の路面に設けられたセンサを用いて人の存在を検知し、
  検知結果に基づいて、顔認証に用いる顔画像を取得するために、前記通路を通る前記人を撮像するカメラの撮像タイミングを制御する、ことを含む。
 第二の側面に係る第2のゲート装置の制御方法は、
 ゲート装置が、
  本人確認の必要な場所において人が踏む位置に設けられて、前記本人確認の必要な場所における前記人の存在を検知するセンサから、検出結果を取得し、
  検知結果に基づいて、顔認証に用いる顔画像を取得するために、前記本人確認の必要な場所において確認対象である人を撮像するカメラの撮像タイミングを制御する、ことを含む。
 第二の側面に係る第3のゲート装置の制御方法は、
 ゲート装置が、
 ゲートに通じる通路を通る人の存在を検知する、前記通路の路面に設けられた検知手段から、検出結果を取得し、
 ゲートに通じる通路を通る人を撮像する撮像手段の撮像タイミングを、取得した前記検出結果を用いて制御し、
 前記撮像タイミングで前記人を撮像された画像を前記撮像手段から取得する、ことを含む。
 第三の側面は、ゲートシステムに関する。
 第三の側面に係る第1のゲートシステムは、
 ゲート装置と、
 通路に設けられたフットマークと、を備え、
 前記ゲート装置は、
  ゲートに通じる前記通路を通る人を撮像する撮像手段と、
  前記通路を通る人が踏む位置に設けられた、前記フットマークを用いて前記人の存在を検知する検出手段と、
 前記通路を通る前記人を撮像する前記撮像手段の撮像タイミングを、前記検出手段の検出結果を用いて制御する制御手段と、を含む。
 第三の側面に係る第2のゲートシステムは、
 ゲート装置と、
 人の存在を検知する、本人確認の必要な場所に設けられたフットマークと、を備え、
 前記ゲート装置は、
 前記本人確認の必要な場所において確認対象である人を撮像する撮像手段と、
 前記本人確認の必要な場所において人が踏む位置に設けられて前記人の存在を検知する検出手段から、検出結果を取得する取得手段と、
 前記撮像手段の撮像タイミングを、前記取得手段が取得した前記検出結果を用いて制御する制御手段と、を含む。
 なお、本発明の他の側面としては、上記第二の側面の方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
 このコンピュータプログラムは、コンピュータにより実行されたとき、コンピュータに、ゲート装置上で、その制御方法を実施させるコンピュータプログラムコードを含む。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
 また、本発明の各種の構成要素は、必ずしも個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等でもよい。
 また、本発明の方法およびコンピュータプログラムには複数の手順を順番に記載してあるが、その記載の順番は複数の手順を実行する順番を限定するものではない。このため、本発明の方法およびコンピュータプログラムを実施するときには、その複数の手順の順番は内容的に支障のない範囲で変更することができる。
 さらに、本発明の方法およびコンピュータプログラムの複数の手順は個々に相違するタイミングで実行されることに限定されない。このため、ある手順の実行中に他の手順が発生すること、ある手順の実行タイミングと他の手順の実行タイミングとの一部ないし全部が重複していること、等でもよい。
 本発明によれば、本人確認が必要な場所に設置されるカメラで本人認証に適した画像を撮像して認証精度を向上させることができる。
 上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
実施形態に係るゲートシステムの概念的な構成例を示す図である。 ゲートシステムを上方から見た平面図である。 案内パターンの一例を示す図である。 本実施形態に係るゲート装置の機能構成例を示す図である。 ゲート装置を実現するコンピュータのハードウエア構成を例示するブロック図である。 本実施形態のゲート装置の動作例を示すフローチャートである。 案内パターンの例と、人の踏み位置と検知結果を示す図である。 図7の案内パターンを用いたときのゲート装置の具体的な動作例を示すフローチャートである。 案内パターンの他の例を示す図である。 案内パターンの例と、人の踏み位置と検知結果を示す図である。 図10の案内パターンを用いたときのゲート装置の具体的な動作例を示すフローチャートである。 他の案内パターンの例を示すゲート装置の上面図である。 本実施形態のゲート装置の機能構成例を示す図である。 本実施形態のゲート装置の動作例を示すフローチャートである。 本実施形態のゲート装置の機能構成例を示す図である。 カメラユニットの正面図である。 本実施形態のゲート装置の動作例を示すフローチャートである。 本実施形態のゲートシステムの動作例を示すフローチャートである。 本実施形態のゲート装置の機能構成例を示す図である。 案内パターンの内のセンサの分布を説明するための図である。 案内パターンの内のセンサの反応の分布領域を示す図である。
 以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
 実施形態において「取得」とは、自装置が他の装置や記憶媒体に格納されているデータまたは情報を取りに行くこと(能動的な取得)、および、自装置に他の装置から出力されるデータまたは情報を入力すること(受動的な取得)の少なくとも一方を含む。能動的な取得の例は、他の装置にリクエストまたは問い合わせしてその返信を受信すること、及び、他の装置や記憶媒体にアクセスして読み出すこと等がある。また、受動的な取得の例は、配信(または、送信、プッシュ通知等)される情報を受信すること等がある。さらに、「取得」とは、受信したデータまたは情報の中から選択して取得すること、または、配信されたデータまたは情報を選択して受信することであってもよい。
(第1実施形態)
<システム構成>
 図1は、実施形態に係るゲートシステム1の概念的な構成例を示す図である。
 ゲートシステム1は、ゲート装置10と、案内パターン30と、顔認証装置50と、を含む。ゲート装置10は、筐体14と、カメラユニット20と、を含む。カメラユニット20は、撮像部102と、表示部22とを含む。
 顔認証装置50は、通信ネットワーク3を介してゲート装置10と接続される。顔認証装置50は、予め登録されている人物の顔画像等の特徴量と、ゲート装置10の撮像部102により取得された人物の顔画像等から抽出された特徴量とを照合することで当該人物の認証処理を行う。
 本実施形態では、顔認証装置50により人物の顔画像を用いて認証処理を行っているが、他の生体認証情報を用いる他の認証装置により認証処理を行ってもよい。他の生体認証情報とは、例えば、虹彩、静脈、耳介、指紋、歩容、背格好(身長、肩幅、身丈、骨格等)等の少なくともいずれか一つの特徴量を含む。この認証装置は、人物の撮像画像から生体認証情報の特徴量を抽出し、認証処理を行う。
 本実施形態のゲートシステム1のゲート装置10は、例えば、空港の搭乗口などに設置される。あるいは、入退場する人を管理する部屋への入退場口に設置されてもよい。あるいは、店舗などにおいて、キャッシュレス決済する決済端末と組み合わせ決済端末のゲートとして設置することもできる。あるいは、店員配置のない無人営業の店舗の出入口のゲートとして設置されてもよい。このように、本実施形態のゲートシステム1のゲート装置は、本人確認の必要な場所(チェックポイント)に設置される。
 図2は、ゲートシステム1を上方から見た平面図である。筐体14は、所定の高さを有し、人が通る通路12に沿って所定の距離にわたって延在する。通路12の両側に2つの筐体14が所定の距離の間隔を空けて通路12に沿って並べて設置されている。好ましくは2つの筐体14は平行に設置される。
 通路12の入口12a側は開放されている。通路12の出口12b側には開閉フラップ扉16が開閉可能に設けられている。この図の例では、2つの開閉フラップ扉16が設けられ、それぞれが一端で筐体14に回転可能に設置される。他の例では、1つの開閉フラップ扉16がいずれか一方の筐体14の一端側に回転可能に設置されてもよい。この例では、開閉フラップ扉16が開いたときに、筐体14の出口側の一端面14aおよび14bより開閉フラップ扉16の一端面16aおよび16bが飛び出ないように開閉フラップ扉16は筐体14の出口12b側の一端面14aおよび14bと面一に、または一端面14aおよび14bより内側に設置されている。
 開閉フラップ扉16の開閉制御は、例えば、顔認証装置50の認証結果に応じて行われる。開閉フラップ扉16は、通常位置が、開位置のケースと、閉位置のケースがある。通常位置が開位置の場合、人の顔認証装置50による顔認証に成功した場合、開閉フラップ扉16の開閉制御は行われず、人が通路12を通れるように開位置のままとなる。顔認証に失敗した場合、人は通路12が通過できないように開閉制御が行われ、開閉フラップ扉16は開位置から閉位置に変更される。
 通常位置が閉位置の場合、顔認証に成功した場合、人が通路12を通れるように開閉制御が行われ、開閉フラップ扉16は閉位置から開位置に変更される。顔認証に失敗した場合、開閉フラップ扉16の開閉制御は行われず、人が通路12を通過できないように閉位置のままとなる。
 このように、2つの筐体14によって形成される通路12となる空間を、開閉フラップ扉16によって開閉フラップ扉16前後で区切りゲートを構成している。案内パターン30は、通路12を通過する人が踏む位置に設けられていて、通路12内を開閉フラップ扉16に向かう途中に設けられた撮像部102が顔認証に適した画像を取得するために、推奨される立ち位置を少なくとも示している。案内パターン30は、通路12内を人が歩きながら当該人の顔を撮像する時に足を運ぶ位置を示していてもよい。案内パターン30と同じ位置に、人の存在を検知するセンサが配置されている。
 案内パターン30は、例えば、後述するように足跡の形状(図3)であってもよい。足跡の足先は人が足を運ぶ方向を示している。例えば、案内パターン30において、足跡の中心を通り足先とかかとを結ぶ軸が、この足跡の足先の向きを示す。そして、撮像部102の光軸と案内パターン30の足跡との関係は、例えば、上面視において、撮像部102の光軸と足跡の向きを示す軸の方向が実質的に平行となるように、かつ、光軸は左右の足跡の間を通るようにするのが好ましい。
 図2に示すように、カメラユニット20は、通路12の脇に設置されている。撮像部102の光軸と、通路12の進行方向(筐体14の内側側面と平行な方向)との交わる角度は、例えば、0°から90°の範囲となるように、撮像部102は設置される。また、撮像部102の光軸は、通路12の進行方向と斜めに交わるように、撮像部102は設置されてもよい。例えば、撮像部102の光軸と通路12の進行方向との交わる角度は、30°以上60°以下となるように撮像部102は設置されてもよい。
 案内パターン30の複数箇所または少なくとも一部の領域にセンサ34が配置されている。制御部106は、センサ34のうち所定割合以上のセンサ34が人の存在を検知したときに撮像部102に撮像を実行させる。
 この例では、センサ34は、光電センサである。他の例では、センサ34は、圧力センサでもよい。圧力センサの例は後述する。光電センサは、例えば、反射型のセンサを用いて、発光した信号光が反射して受光されたか否かで被検体の存在の有無を検知する。つまり、案内パターン30の上に人が載っているかどうかを検知する。本実施形態のセンサ34は、人の存在を検知するとON信号を出力する。センサ34から出力される信号はこれに限定されない。
 図3は、案内パターン30の例を示す図である。図3(a)は、案内パターン30の上面図である。図3(b)は、図3(a)の案内パターン30を線I-Iから見た断面図である。案内パターン30は、足跡の形状を有するフットマーク領域32に、複数のセンサ34が点在するように含まれている。
 この例では、フットマーク領域32に、所定の塗料を塗布または印刷した膜が形成されている。この膜の層内に複数のセンサ34が埋め込まれている(図3(b))。膜は通路12の路面上に直接形成されてもよいし、膜を形成したシートを通路12の路面上に敷設してもよい。
<機能構成例>
 図4は、本実施形態に係るゲート装置10の機能構成例を示す図である。
 以下の各図において、本発明の本質に関わらない部分の構成については省略してあり、図示されていない。
 ゲート装置10は、撮像部102と、取得部104と、制御部106とを備える。撮像部102は、顔認証の対象となる人が通過するゲートに通じる通路を通る人を撮像する。取得部104は、人の存在を検知する検出部(センサ34)から検出結果を取得する。センサ34は、通路12の路面に設けられている。通路12の路面とは、通路12の床材の表面だけでなく、通路12の床材の中、または通路12の床材の下であってもよい。また、センサ34は、通路12内を通ってゲートに進む経路を通る人が踏む位置に設けられている。制御部106は、通路12を通る人を撮像する撮像部102の撮像タイミングを、取得部104が取得したセンサ34の検出結果を用いて制御する。
 撮像部102は、レンズとCCD(Charge Coupled Device)イメージセンサといった撮像素子を備えるカメラである。カメラは、人物を撮像した顔画像の画質を上げて顔画像認証に最適な特徴量を得るために、焦点合わせ、露出補正、絞り値、シャッタースピード、ISO感度などの調整や制御するための機構を有し、自動的に制御されてもよい。
 撮像部102により生成される画像は、リアルタイムに撮影されて顔認証装置50に送信されるのが好ましい。ただし、顔認証装置50に送信される画像は、撮像部102から直接送信されなくてもよく、所定の時間遅延した画像であってもよい。撮像部102で撮像された画像は、一旦他の記憶装置(不図示)に格納され、顔認証装置50が記憶装置から逐次または所定間隔毎に読み出してもよい。さらに、顔認証装置50に送信される画像は、動画像であるのが好ましいが、所定間隔毎のフレーム画像であってもよいし、静止画であってもよい。
 <ハードウェア構成例>
 図5は、ゲート装置10を実現するコンピュータ1000のハードウエア構成を例示するブロック図である。
 コンピュータ1000は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060を有する。
 バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
 プロセッサ1020は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
 メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
 ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040はゲート装置10の各機能(例えば、撮像部102、取得部104、制御部106、ならびに、後述する推定部108等)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能が実現される。また、ストレージデバイス1040は各種記憶部としても機能する。
 プログラムモジュールは、記録媒体に記録されてもよい。プログラムモジュールを記録する記録媒体は、非一時的な有形のコンピュータ1000が使用可能な媒体を含み、その媒体に、コンピュータ1000(プロセッサ1020)が読み取り可能なプログラムコードが埋め込まれていてもよい。
 入出力インタフェース1050は、ゲート装置10と各種入出力機器(例えば表示部22)とを接続するためのインタフェースである。
 ネットワークインタフェース1060は、ゲート装置10を通信ネットワーク3上の他の装置(例えば顔認証装置50)に接続するためのインタフェースである。ただしネットワークインタフェース1060は用いられないことも有る。
<動作例>
 図6は、本実施形態のゲート装置10の動作例を示すフローチャートである。まず、取得部104は、人の存在を検知するセンサ34の検出結果を取得する(ステップS101)。そして、制御部106は、ステップS101で取得された検出結果を用いて撮像部102の撮像タイミングを制御する(ステップS103)。
 図7は、案内パターン30の例と、人の踏み位置(図中、破線40で示される)と検知結果を示す図である。図8は、図7の案内パターン30を用いたときのゲート装置10の具体的な動作例を示すフローチャートである。
 図8のフローは、図2の進入センサ18により通路12内への人の進入が検知された場合に開始する。フローの終了の条件は様々考えられ、以下に例示されるがこれらに限定されない。以下の少なくともいずれか一つの場合にフローを停止してよい。
(1)撮像部102により人の顔画像が取得されたとき
(2)顔認証装置50により顔認証が成功したとき
(3)開閉フラップ扉16が開いたとき
(4)撮像画像において、認証対象者の顔の大きさや目間距離が所定の条件を満たしたとき
 取得部104は、ON信号を出力しているセンサ34bの割合が閾値以上か否かを判定する(ステップS201)。ON信号を出力しているセンサ34bの割合は、図7のフットマーク領域32に埋め込まれているセンサ34の総数に対する、ON信号を出力しているセンサ34bの個数の割合で示される。人の顔が撮像部102の方に向くように方向付けられている案内パターン30上に、どれだけズレずに人物が載っているか否かを判定するための閾値を設定する。案内パターン30のフットマーク領域32から踏む位置が逸脱していると、ON信号を出力しないセンサ34aの数が増え、ON信号を出力しているセンサ34bの割合が減る。
 例えば、図7(a)のように人が案内パターン30を踏んだ場合、案内パターン30と人の踏み位置40がほぼ重なっている。このため、ステップS201において、ON信号を出力しているセンサ34bの割合は閾値以上となる。取得部104は、この検出結果を制御部106に受け渡す。制御部106は、この検出結果に基づいて、ON信号を出力しているセンサ34bの割合は閾値以上のため(ステップS201のYES)、撮像部102に対して撮像を指示する(ステップS203)。
 また、図7(b)のように、人が案内パターン30を踏んだ場合、案内パターン30と人の踏み位置40はズレている。このため、ステップS201において、ON信号を出力しているセンサ34bの割合は閾値以上とならない。取得部104は、この検出結果を制御部106に受け渡す。制御部106は、この検出結果に基づいて、ON信号を出力しているセンサ34bの割合は閾値以上でないため(ステップS201のNO)、ステップS203をバイパスする。
 撮影のタイミングの判定は、ON信号を出力しているセンサ34bの割合以外にも、ON信号を出力しているセンサ34bの分布に基づいた判定も考えられる。例えば、図20に示すように、案内パターン30に配置されている複数のセンサ34について、足跡の進行方向Y(足跡のかかとからつま先を結ぶ方向)に対して足跡の領域を平行にn分割し、各領域W1~Wn(nは自然数)に含まれるセンサ34の個数に対する、ON信号を出力しているセンサ34bの個数の割合を求める。少なくとも足跡と踏み位置とのズレが、例えば閾値以内に収まることが検知できるような数のセンサ34が領域W内に含まれるように、足跡の領域をn分割する。
 そして、領域W毎のセンサ34bの個数の割合の分布にばらつきが少ない場合は、撮像のタイミングと判定してもよい。例えば、ON信号を出力しているセンサ34bの個数の割合が閾値P以上となる領域Wが、進行方向に対して基準以上連続する場合に、分布にばらつきがないと判別する。
 具体的には、進行方向に対するON信号を出力しているセンサ34bの割合(%)が閾値P以上となる領域Wが進行方向に対して基準範囲D0以上連続した場合、撮影タイミングと判定してもよい。図21は、図7(a)と図7(b)のセンサ34bの反応の分布を示している。ただし、図20の領域W0については、センサ34が存在していないので、図21では当該領域W0は除外してある。図21の横軸の進行方向Yの始点が図20の案内パターン30の足跡のかかとの位置の領域W1内のセンサ34の反応の状態を示している。図21の横軸の進行方向Yの右端が、図20の案内パターン30の足跡のつま先の位置の領域Wn内のセンサ34の反応の状態を示している。
 図21(a)が左足、図21(b)が右足を示している。各領域W1~Wnに設置されているセンサ34の数に対して、ON信号を出力しているセンサ34bの数の割合を一点鎖線と破線で示している。図21(a)、図21(b)ともに、一点鎖線が図7(a)のセンサ34bの反応の分布を示し、破線が図7(b)のセンサ34bの反応の分布を示している。閾値Pは二点鎖線で示し、基準となる範囲Dは二点鎖線の矢印で示している。
 図21を見ると、図7(a)に相当する一点鎖線が示すON信号を出力しているセンサ34bの割合は、図21(a)の左足も図21(b)の右足も各領域W1~Wnにおいて、閾値Pを超えている。つまり、領域が連続する範囲D2が基準となる範囲D0を超えているため、割合の分布にばらつきがないと判別される。本図の一点鎖線が示す図7(a)に相当する例では、撮影タイミングであると判定される。
 一方、図7(b)に相当する破線が示すON信号を出力しているセンサ34bの割合は、図21(a)の左足も図21(b)の右足も一見して進行方向に対して大きく変動している。
 特に、図21(a)の左足では、図7(b)に相当する破線が示すON信号を出力しているセンサ34bの割合が、閾値P(二点鎖線)を超える領域Wはない。図21(b)の右足では、図7(b)に相当する破線が示すON信号を出力しているセンサ34bの割合が、閾値Pを超える領域Wが連続する範囲D1は、破線矢印で示され、二点鎖線矢印で示される基準となる範囲D0未満である。よって、本図の破線が示す図7(b)に相当する例では、撮影タイミングではないと判定される。
 このように、撮影のタイミングの判定は、ON信号を出力しているセンサ34bの進行方向に対する分布変化に基づいて行ってもよい。
 図9は、案内パターン30の他の例を示す図である。図9(a)は、案内パターン30の上面図である。図9(b)は、図9(a)の案内パターン30を線I-Iから見た断面図である。案内パターン30は、フットマーク領域32と、シート状の圧力センサ34とから構成され、センサ34はフットマーク領域32と略同じ形状および略同じ位置に配置されている。センサ34は、フットマーク領域32の下側にフットマーク領域32と重なって延在している。圧力センサは、人が載ったことによりかかる圧力に反応し、反応領域の面積に対応する値を出力する。この例でも、上記したように反応領域の分布に基づいた判定も考えられる。例えば、案内パターン30の足跡の進行方向において、センサ34が反応している領域の分布にばらつきが少ない場合は、撮像のタイミングと判定してもよい。
 図10は、案内パターン30の例と、人の踏み位置(図中、破線40で示される)と検知結果を示す図である。図11は、図10の案内パターン30を用いたときのゲート装置10の具体的な動作例を示すフローチャートである。図11のフローの開始および終了の条件は図7と同様である。
 この例では、取得部104は、圧力センサの反応領域の面積割合が閾値以上か否かを判定する(ステップS301)。反応領域の面積割合は、図10のフットマーク領域32の下側に、かつ、フットマーク領域32と同じ形状でもうけられたセンサ34の反応領域(図中、34bで示されている)の面積が、フットマーク領域32全体の面積に対する割合で示される。センサ34のうち反応していない領域は34aと示されている。
 案内パターン30のフットマーク領域32から踏む位置が逸脱していると、面積割合は小さくなり、人が案内パターン30を正しい位置で載った場合は、面積割合は大きくなる。
 例えば、図10(a)のように人が案内パターン30を踏んだ場合、案内パターン30と人の踏み位置40がほぼ重なっている。このため、ステップS301において、センサ34の反応領域34bの面積割合は閾値以上となる。取得部104は、この検出結果を制御部106に受け渡す。制御部106は、この検出結果に基づいて、センサ34の反応領域34bの面積割合は閾値以上のため(ステップS301のYES)、撮像部102に対して撮像を指示する(ステップS303)。
 また、図10(b)のように、人が案内パターン30を踏んだ場合、案内パターン30と人の踏み位置40はズレている。このため、ステップS301において、センサ34の反応領域34bの面積割合は閾値以上とならない。取得部104は、この検出結果を制御部106に受け渡す。制御部106は、この検出結果に基づいて、センサ34の反応領域34bの面積割合は閾値以上でないため(ステップS301のNO)、ステップS303をバイパスする。
 図12は、他の案内パターン30の例を示すゲート装置10の上面図である。
 この例では、案内パターン30は、通路12の脇に設けられているカメラユニット20に人に進むべき方向または経路を示して当該人を誘導する形状で設けられている。この例では、案内パターン30は、筐体14の上部に設置されるプロジェクタ(不図示)等を用いて通路12の路面に投影されてもよい。この場合、案内パターン30は、進行方向に向かって移動するアニメーションであってもよい。また、この例では、上記したセンサ34は通路12の路面領域のうち、撮像部102により認証処理に適した画像が得られる位置を人物が踏んでいるかを判別できる領域に設けられる。
 以上、本実施形態によれば、ゲートに通じる通路12を通る人が踏む位置に設けられ、撮像部102に顔が向くように誘導する案内パターン30にセンサ34が設けられており、取得部104は、当該センサ34を用いて人の通路12への存在を検知し、制御部106は、その検出結果に基づいて、撮像部102による顔画像の撮像タイミングを制御する。これにより、ゲート装置10は、顔認証に適した顔画像を取得できる撮像タイミングで認証対象者の顔画像の撮像を行うことができる。これにより顔認証精度が向上する。
 この構成では、撮像部102(カメラユニット20)は、通路12の脇に設置されている。このため、通路12を通る人を正面から撮影することが困難である。
 さらに、ゲート装置10のゲートの設置場所のスペースに制限がある場合には通路12が短くなる場合もあり、これにより、顔画像を撮影できる時間も限られてしまう。したがって、顔認証処理に適した顔画像の取得が困難となる。これらの場合においても本実施形態のゲート装置10によれば、精度を低下させずに顔認証処理を行うことができる。
(第2実施形態)
 図13は、本実施形態のゲート装置10の機能構成例を示す図である。本実施形態のゲート装置10は、認証対象人物の視線や顔の向きを推定する構成を有する点以外は上記実施形態と同様である。
 ゲート装置10は、図4のゲート装置10の構成に、さらに、推定部108を備える。
 推定部108は、撮像部102により撮像された人の画像に基づいて、当該人の視線または顔の向きを推定する。制御部106は、推定部108による推定結果を用いて撮像タイミングを制御する。
 図14は、本実施形態のゲート装置10の動作例を示すフローチャートである。このフローは、図6の上記実施形態のフローのステップS103の後に実行される。あるいは、図8のステップS203、図11のステップS303の後に実行されてもよい。
 推定部108は、撮像部102により撮像された人の画像を画像認識処理し、カメラに対する人の視線または顔の向きを推定する(ステップS401)。そして、制御部106は、推定された人の視線または顔の向きが、カメラの方を向いているか否かで、撮像条件を満たしているか否かを判定する(ステップS403)。推定された人の視線または顔の向きが、カメラの方を向いている場合、撮像条件を満たしていると判定する(ステップS403のYES)。一方、推定された人の視線または顔の向きが、カメラの方を向いていない場合、撮像条件を満たしていないと判定する(ステップS403のNO)。
 撮像条件は、例えば、カメラに対して正面を向いている顔や視線の状態から所定の角度の範囲内に収まっていることとしてもよい。そして、推定された人の視線または顔の向きが、カメラの方を向いていると判定された場合、制御部106は、撮像部102に撮像をさせる(ステップS405)。
 本実施形態によれば、推定部108により顔認証の対象者の視線や顔の向きを推定し、カメラの方を向いている場合に撮像部102に撮像される。この構成により、上記実施形態と同様な効果を奏するとともに、より顔認証に適した顔画像を取得できる。よって顔認証の精度を向上させることができる。
 図15は、本実施形態のゲート装置10の機能構成例を示す図である。本実施形態のゲート装置10は、撮像すべきタイミングではない場合に所定の出力を行う構成を有する点以外は、上記実施形態の少なくともいずれか一つと同じである。
 出力部110は、制御部106により撮像すべきタイミングではないと判断したときに、所定の出力を行う。所定の出力とは、表示部22(図16)に表示したり、スピーカ(不図示)から音声ガイダンスを出力したりすることを含む。
 図16は、カメラユニット20の正面図である。カメラユニット20は、その筐体の前面の中央に表示部22を有している。表示部22は、通路12を通る人が見える高さに配置されるのが好ましい。例えば、成人の平均的な身長から設置する高さを決めてもよい。
 表示部22の上下には、2台のカメラが撮像部102として設けられている。
 図17は、本実施形態のゲート装置10の動作例を示すフローチャートである。このフローは、図14の上記実施形態のフローと同じステップS401~ステップS405を有するとともに、さらに、ステップS411を有している。
 ステップS403で、推定された人の視線または顔の向きが、カメラの方を向いていないために、撮像条件を満たしていないと判定された場合(ステップS403のNO)、ステップS411に進む。そして、出力部110は、所定の出力を行う(ステップS411)。
 例えば、出力部110は、表示部22にガイダンスを表示したり、音声出力したりする。ガイダンスの例としては、「足元のフットマークの上にお立ちください。」、「カメラの方を見てください。」などが考えられるがこれらに限定されない。
 なお、上記実施形態の図8のステップS201または図11のステップS301の判定で、閾値未満となった場合にも、図17のステップS411に進み、ガイダンスの出力を行ってもよい。ステップS411の後は、図8のステップS201または図11のステップS301の判定処理に戻る。
 図18は、本実施形態のゲートシステム1の動作例を示すフローチャートである。図18は、上記実施形態の各フローで撮像部102により人の顔画像が撮像された後、開始される。
 撮像部102により撮像された顔画像は顔認証装置50に送信され、顔認証装置50において認証処理が行われる(ステップS501)。そして、顔認証装置50による認証結果が成功の場合(ステップS503のYES)、図示されないゲート制御機構が開閉フラップ扉16を制御して開閉フラップ扉16を開く(ステップS505)。顔認証装置50による顔認証に失敗した場合(ステップS503のNO)、ステップS505はバイパスされ、開閉フラップ扉16は閉じたままとなる。なお、ステップS503で認証処理に失敗した後の処理は、様々考えられ、これに限定されない。例えば、最寄りの係員に通知を出力してもよいし、記録のみ行い、開閉フラップ扉16を開けてゲートを通過させてもよい。記録は、例えば、撮像画像と、日時情報とを関連付けて記憶する。
 この構成によれば、撮像条件を満たしてないと判定されたときに、出力部110により、顔認証に適した顔画像を撮像するためのガイダンスを表示したり、音声出力したりできる。これにより、顔認証に適した顔画像を撮るために認証対象者にどのようにすればよいかを伝えることができる。よって本実施形態によれば、さらに、顔認証の認証を低減し、認証精度を向上できる。
 以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。例えば、図19に示すように、ゲート装置10は、図4と同様な制御部106を備えるとともに、撮像部102、および取得部104に替えて第1取得部112および第2取得部114を含む構成としてもよい。
 第1取得部112は、ゲートに通じる通路12を通る人を撮像した画像を撮像部102から取得する。第2取得部114は、通路12の路面に設けられたセンサ34から検出結果を取得する。制御部106は、撮像部102の撮像タイミングを、第2取得部114が取得したセンサ34の検出結果を用いて制御する。
 この構成によれば、第2取得部114がセンサ34から人の存在の検出結果を取得し、その検出結果を用いて制御部106が撮像部102の撮像タイミングを制御する。そして、制御部106によって撮像タイミングが制御されて撮像部102が通路12を通る人を撮像し、その撮像画像を第1取得部112が取得する。制御部106によって、顔認証装置50における認証処理に適した画像が撮像されるようにタイミングが制御されるので、第1取得部112は、認証処理に適した画像を撮像部102から取得できる。
 第1取得部112が取得した画像は、顔認証装置50に送信されて認証処理に用いられ、上記実施形態と同様に、認証結果に基づいて、ゲートの開閉制御を行うことができる。
 また、例えば筐体14や開閉フラップ扉16を備えず、少なくとも撮像部102と表示部22を備えるゲート装置においても、本発明を適用することができる。
 この構成において、撮像部102は、本人確認の必要な場所において確認対象である人を撮像する。取得部104は、本人確認の必要な場所において人が踏む位置に設けられて人の存在を検知する検出部(センサ34)から、検出結果を取得する。制御部106は、撮像部102の撮像タイミングを、取得部104が取得した検出結果を用いて制御する。
 取得部104は、本人確認の必要な場所に設けられた、人が踏む位置までの経路を示す案内パターンと同じ位置に配置されているセンサ34を用いて人の存在を検知した検知結果を取得する。撮像部102は、本人確認の必要な場所のわきに設置される。制御部106は、センサ34のうち所定割合以上のセンサ34が人の存在を検知したときに撮像部102に撮像を実行させる。
 以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 なお、本発明において利用者に関する情報を取得、利用する場合は、これを適法に行うものとする。
 上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1. ゲートに通じる通路を通る人を撮像する撮像手段と、
 前記人の存在を検知する、前記通路の路面に設けられた検出手段から、検出結果を取得する取得手段と、
 前記撮像手段の撮像タイミングを、前記取得手段が取得した前記検出結果を用いて制御する制御手段と、
を備えるゲート装置。
2. 1.に記載のゲート装置において、
 前記取得手段は、前記通路の路面に設けられた、前記ゲートまでの経路を示す案内パターンと同じ位置に配置されているセンサを用いて前記人の存在を検知した検知結果を取得する、ゲート装置。
3. 2.に記載のゲート装置において、
 前記撮像手段は前記通路のわきに設置され、
 前記案内パターンの複数箇所または少なくとも一部の領域に、前記センサが配置されており、
 前記制御手段は、前記センサのうち所定割合以上の前記センサが前記人の存在を検知したときに前記撮像手段に撮像を実行させる、ゲート装置。
4. 本人確認の必要な場所において確認対象である人を撮像する撮像手段と、
 前記本人確認の必要な場所において人が踏む位置に設けられて前記人の存在を検知する検出手段から、検出結果を取得する取得手段と、
 前記撮像手段の撮像タイミングを、前記取得手段が取得した前記検出結果を用いて制御する制御手段と、
を備えるゲート装置。
5. 4.に記載のゲート装置において、
 前記取得手段は、前記本人確認の必要な場所に設けられた、前記人が踏む位置までの経路を示す案内パターンと同じ位置に配置されているセンサを用いて前記人の存在を検知した検知結果を取得する、ゲート装置。
6. 5.に記載のゲート装置において、
 前記撮像手段は前記本人確認の必要な場所のわきに設置され、
 前記案内パターンの複数箇所または少なくとも一部の領域に、前記センサが配置されており、
 前記制御手段は、前記センサのうち所定割合以上の前記センサが前記人の存在を検知したときに前記撮像手段に撮像を実行させる、ゲート装置。
7. 1.から6.のいずれか一つに記載のゲート装置において、
 さらに前記撮像手段により撮像された前記人の画像に基づいて、当該人の視線または顔の向きを推定する推定手段を備え、
 前記制御手段は、前記推定手段による推定結果を用いて前記撮像タイミングを制御する、ゲート装置。
8. 1.から7.のいずれか一つに記載のゲート装置において、
 前記制御手段により撮像すべきタイミングではないと判断したときに、所定の出力を行う出力手段をさらに備える、ゲート装置。
9. ゲート装置と、
 人の存在を検知する、通路の路面に設けられたフットマークと、を備え、
 前記ゲート装置は、
  ゲートに通じる前記通路を通る人を撮像する撮像手段と、
  前記フットマークを用いた前記通路内の前記人の検出結果を取得する取得手段と、
  前記撮像手段の撮像タイミングを、前記取得手段が取得した前記検出結果を用いて制御する制御手段と、を含む、ゲートシステム。
10. 9.に記載のゲートシステムにおいて、
 前記ゲート装置の前記取得手段は、前記通路の路面に設けられた、前記ゲートまでの経路を示す案内パターンと同じ位置に配置されているセンサを用いて前記人の存在を検知した検知結果を取得する、ゲートシステム。
11. 10.に記載のゲートシステムにおいて、
 前記ゲート装置の前記撮像手段は前記通路のわきに設置され、
 前記案内パターンの複数箇所または少なくとも一部の領域に、前記センサが配置されており、
 前記ゲート装置の前記制御手段は、前記センサのうち所定割合以上の前記センサが前記人の存在を検知したときに前記撮像手段に撮像を実行させる、ゲートシステム。
12. ゲート装置と、
 人の存在を検知する、本人確認の必要な場所に設けられたフットマークと、を備え、
 前記ゲート装置は、
 前記本人確認の必要な場所において確認対象である人を撮像する撮像手段と、
 前記本人確認の必要な場所において人が踏む位置に設けられて前記人の存在を検知する検出手段から、検出結果を取得する取得手段と、
 前記撮像手段の撮像タイミングを、前記取得手段が取得した前記検出結果を用いて制御する制御手段と、を含む、ゲートシステム。
13. 12.に記載のゲートシステムにおいて、
 前記ゲート装置の前記取得手段は、前記本人確認の必要な場所に設けられた、前記人が踏む位置までの経路を示す案内パターンと同じ位置に配置されているセンサを用いて前記人の存在を検知した検知結果を取得する、ゲートシステム。
14. 13.に記載のゲートシステムにおいて、
 前記ゲート装置の前記撮像手段は前記本人確認の必要な場所のわきに設置され、
 前記案内パターンの複数箇所または少なくとも一部の領域に、前記センサが配置されており、
 前記ゲート装置の前記制御手段は、前記センサのうち所定割合以上の前記センサが前記人の存在を検知したときに前記撮像手段に撮像を実行させる、ゲートシステム。
15. 9.から14.のいずれか一つに記載のゲートシステムにおいて、
 前記ゲート装置は、さらに前記撮像手段により撮像された前記人の画像に基づいて、当該人の視線または顔の向きを推定する推定手段を備え、
 前記ゲート装置の前記制御手段は、前記推定手段による推定結果を用いて前記撮像タイミングを制御する、ゲートシステム。
16. 9.から15.のいずれか一つに記載のゲートシステムにおいて、
 前記ゲート装置の前記制御手段により撮像すべきタイミングではないと判断したときに、所定の出力を行う出力手段をさらに備える、ゲートシステム。
17. ゲート装置が、
  ゲートに通じる通路を通る人の存在を前記通路内で検知する、前記通路の路面に設けられたセンサから検出結果を取得し、
  検知結果に基づいて、顔認証に用いる顔画像を取得するために、前記通路を通る前記人を撮像するカメラの撮像タイミングを制御する、
ゲート装置の制御方法。
18. 17.に記載のゲート装置の制御方法において、
 前記ゲート装置が、
 前記通路の路面に設けられた、前記ゲートまでの経路を示す案内パターンと同じ位置に配置されているセンサを用いて前記人の存在を検知した検知結果を取得する、ゲート装置の制御方法。
19. 18.に記載のゲート装置の制御方法において、
 前記カメラは前記通路のわきに設置され、
 前記案内パターンの複数箇所または少なくとも一部の領域に、前記センサが配置されており、
 前記ゲート装置が、
 前記センサのうち所定割合以上の前記センサが前記人の存在を検知したときに前記カメラに撮像を実行させる、ゲート装置の制御方法。
20. ゲート装置が、
  本人確認の必要な場所において人が踏む位置に設けられて、前記本人確認の必要な場所における前記人の存在を検知するセンサから、検出結果を取得し、
  検知結果に基づいて、顔認証に用いる顔画像を取得するために、前記本人確認の必要な場所において確認対象である人を撮像するカメラの撮像タイミングを制御する、
ゲート装置の制御方法。
21. 20.に記載のゲート装置の制御方法において、
 前記ゲート装置が、
 前記本人確認の必要な場所に設けられた、前記人が踏む位置までの経路を示す案内パターンと同じ位置に配置されているセンサを用いて前記人の存在を検知した検知結果を取得する、ゲート装置の制御方法。
22. 21.に記載のゲート装置の制御方法において、
 前記カメラは前記本人確認の必要な場所のわきに設置され、
 前記案内パターンの複数箇所または少なくとも一部の領域に、前記センサが配置されており、
 前記ゲート装置が、
 前記センサのうち所定割合以上の前記センサが前記人の存在を検知したときに前記カメラに撮像を実行させる、ゲート装置の制御方法。
23. 17.から22.のいずれか一つに記載のゲート装置の制御方法において、
 前記ゲート装置が、
 さらに前記カメラにより撮像された前記人の画像に基づいて、当該人の視線または顔の向きを推定し、
 推定された結果を用いて前記撮像タイミングを制御する、ゲート装置の制御方法。
24. 17.から23.のいずれか一つに記載のゲート装置の制御方法において、
 前記ゲート装置が、さらに、
 撮像すべきタイミングではないと判断したときに、所定の出力を行う、ゲート装置の制御方法。
25. コンピュータに、
  ゲートに通じる通路の路面に設けられたセンサを用いて検知された人の存在を検知する手順、
  検知結果に基づいて、顔認証に用いる顔画像を取得するために、前記通路を通る前記人を撮像するカメラの撮像タイミングを制御する手順、を実行させるためのプログラム。
26. 25.に記載のプログラムにおいて、
 前記通路の路面に設けられた、前記ゲートまでの経路を示す案内パターンと同じ位置に配置されているセンサを用いて前記人の存在を検知した検知結果を取得する手順、をコンピュータに実行させるためのプログラム。
27. 26.に記載のプログラムにおいて、
 前記カメラは前記通路のわきに設置され、
 前記案内パターンの複数箇所または少なくとも一部の領域に、前記センサが配置されており、
 前記センサのうち所定割合以上の前記センサが前記人の存在を検知したときに前記カメラに撮像を実行させる手順、をコンピュータに実行させるためのプログラム。
28. コンピュータに、
  本人確認の必要な場所において人が踏む位置に設けられて、前記本人確認の必要な場所における前記人の存在を検知するセンサから、検出結果を取得する手順、
  検知結果に基づいて、顔認証に用いる顔画像を取得するために、前記本人確認の必要な場所において確認対象である人を撮像するカメラの撮像タイミングを制御する手順、を実行させるためのプログラム。
29. 28.に記載のプログラムにおいて、
 前記本人確認の必要な場所に設けられた、前記人が踏む位置までの経路を示す案内パターンと同じ位置に配置されているセンサを用いて前記人の存在を検知した検知結果を取得する手順、をコンピュータに実行させるためのプログラム。
30. 29.に記載のプログラムにおいて、
 前記カメラは前記本人確認の必要な場所のわきに設置され、
 前記案内パターンの複数箇所または少なくとも一部の領域に、前記センサが配置されており、
 前記センサのうち所定割合以上の前記センサが前記人の存在を検知したときに前記カメラに撮像を実行させる手順、をコンピュータに実行させるためのプログラム。
31. 25.から30.のいずれか一つに記載のプログラムにおいて、
 さらに前記カメラにより撮像された前記人の画像に基づいて、当該人の視線または顔の向きを推定する手順、
 前記推定する手順における推定結果を用いて前記撮像タイミングを制御する手順、をコンピュータに実行させるためのプログラム。
32. 25.から31.のいずれか一つに記載のプログラムにおいて、
 撮像すべきタイミングではないと判断したときに、所定の出力を行う手順、をさらにコンピュータに実行させるためのプログラム。
33. ゲートに通じる通路を通る人を撮像した画像を撮像手段から取得する第1の取得手段と、
 前記人の存在を検知する、前記通路の路面に設けられた検知手段から、検出結果を取得する第2の取得手段と、
 前記撮像手段の撮像タイミングを、前記第2の取得手段が取得した前記検出結果を用いて制御する制御手段と、を備えるゲート装置。
34. ゲート装置が、
 ゲートに通じる通路を通る人の存在を検知する、前記通路の路面に設けられた検知手段から、検出結果を取得し、
 ゲートに通じる通路を通る人を撮像する撮像手段の撮像タイミングを、取得した前記検出結果を用いて制御し、
 前記撮像タイミングで前記人を撮像された画像を前記撮像手段から取得する、ゲート装置の制御方法。
35. コンピュータに、
 ゲートに通じる通路を通る人の存在を検知する、前記通路の路面に設けられた検知手段から、検出結果を取得する手順、
 ゲートに通じる通路を通る人を撮像する撮像手段の撮像タイミングを、取得した前記検出結果を用いて制御する、
 前記撮像タイミングで前記人を撮像された画像を前記撮像手段から取得する手順、を実行させるためのプログラム。
1 ゲートシステム
3 通信ネットワーク
10 ゲート装置
12 通路
12b 出口
14 筐体
14a、14b 一端面
16 開閉フラップ扉
16a、16b 一端面
18 進入センサ
20 カメラユニット
22 表示部
30 案内パターン
32 フットマーク領域
34 センサ
40 踏み位置
50 顔認証装置
102 撮像部
104 取得部
106 制御部
108 推定部
110 出力部
112 第1取得部
114 第2取得部
1000 コンピュータ
1010 バス
1020 プロセッサ
1030 メモリ
1040 ストレージデバイス
1050 入出力インタフェース
1060 ネットワークインタフェース

Claims (35)

  1.  ゲートに通じる通路を通る人を撮像する撮像手段と、
     前記人の存在を検知する、前記通路の路面に設けられた検出手段から、検出結果を取得する取得手段と、
     前記撮像手段の撮像タイミングを、前記取得手段が取得した前記検出結果を用いて制御する制御手段と、
    を備えるゲート装置。
  2.  請求項1に記載のゲート装置において、
     前記取得手段は、前記通路の路面に設けられた、前記ゲートまでの経路を示す案内パターンと同じ位置に配置されているセンサを用いて前記人の存在を検知した検知結果を取得する、ゲート装置。
  3.  請求項2に記載のゲート装置において、
     前記撮像手段は前記通路のわきに設置され、
     前記案内パターンの複数箇所または少なくとも一部の領域に、前記センサが配置されており、
     前記制御手段は、前記センサのうち所定割合以上の前記センサが前記人の存在を検知したときに前記撮像手段に撮像を実行させる、ゲート装置。
  4.  本人確認の必要な場所において確認対象である人を撮像する撮像手段と、
     前記本人確認の必要な場所において人が踏む位置に設けられて前記人の存在を検知する検出手段から、検出結果を取得する取得手段と、
     前記撮像手段の撮像タイミングを、前記取得手段が取得した前記検出結果を用いて制御する制御手段と、
    を備えるゲート装置。
  5.  請求項4に記載のゲート装置において、
     前記取得手段は、前記本人確認の必要な場所に設けられた、前記人が踏む位置までの経路を示す案内パターンと同じ位置に配置されているセンサを用いて前記人の存在を検知した検知結果を取得する、ゲート装置。
  6.  請求項5に記載のゲート装置において、
     前記撮像手段は前記本人確認の必要な場所のわきに設置され、
     前記案内パターンの複数箇所または少なくとも一部の領域に、前記センサが配置されており、
     前記制御手段は、前記センサのうち所定割合以上の前記センサが前記人の存在を検知したときに前記撮像手段に撮像を実行させる、ゲート装置。
  7.  請求項1から6のいずれか一項に記載のゲート装置において、
     さらに前記撮像手段により撮像された前記人の画像に基づいて、当該人の視線または顔の向きを推定する推定手段を備え、
     前記制御手段は、前記推定手段による推定結果を用いて前記撮像タイミングを制御する、ゲート装置。
  8.  請求項1から7のいずれか一項に記載のゲート装置において、
     前記制御手段により撮像すべきタイミングではないと判断したときに、所定の出力を行う出力手段をさらに備える、ゲート装置。
  9.  ゲート装置と、
     人の存在を検知する、通路の路面に設けられたフットマークと、を備え、
     前記ゲート装置は、
      ゲートに通じる前記通路を通る人を撮像する撮像手段と、
      前記フットマークを用いた前記通路内の前記人の検出結果を取得する取得手段と、
      前記撮像手段の撮像タイミングを、前記取得手段が取得した前記検出結果を用いて制御する制御手段と、を含む、ゲートシステム。
  10.  請求項9に記載のゲートシステムにおいて、
     前記ゲート装置の前記取得手段は、前記通路の路面に設けられた、前記ゲートまでの経路を示す案内パターンと同じ位置に配置されているセンサを用いて前記人の存在を検知した検知結果を取得する、ゲートシステム。
  11.  請求項10に記載のゲートシステムにおいて、
     前記ゲート装置の前記撮像手段は前記通路のわきに設置され、
     前記案内パターンの複数箇所または少なくとも一部の領域に、前記センサが配置されており、
     前記ゲート装置の前記制御手段は、前記センサのうち所定割合以上の前記センサが前記人の存在を検知したときに前記撮像手段に撮像を実行させる、ゲートシステム。
  12.  ゲート装置と、
     人の存在を検知する、本人確認の必要な場所に設けられたフットマークと、を備え、
     前記ゲート装置は、
     前記本人確認の必要な場所において確認対象である人を撮像する撮像手段と、
     前記本人確認の必要な場所において人が踏む位置に設けられて前記人の存在を検知する検出手段から、検出結果を取得する取得手段と、
     前記撮像手段の撮像タイミングを、前記取得手段が取得した前記検出結果を用いて制御する制御手段と、を含む、ゲートシステム。
  13.  請求項12に記載のゲートシステムにおいて、
     前記ゲート装置の前記取得手段は、前記本人確認の必要な場所に設けられた、前記人が踏む位置までの経路を示す案内パターンと同じ位置に配置されているセンサを用いて前記人の存在を検知した検知結果を取得する、ゲートシステム。
  14.  請求項13に記載のゲートシステムにおいて、
     前記ゲート装置の前記撮像手段は前記本人確認の必要な場所のわきに設置され、
     前記案内パターンの複数箇所または少なくとも一部の領域に、前記センサが配置されており、
     前記ゲート装置の前記制御手段は、前記センサのうち所定割合以上の前記センサが前記人の存在を検知したときに前記撮像手段に撮像を実行させる、ゲートシステム。
  15.  請求項9から14のいずれか一項に記載のゲートシステムにおいて、
     前記ゲート装置は、さらに前記撮像手段により撮像された前記人の画像に基づいて、当該人の視線または顔の向きを推定する推定手段を備え、
     前記ゲート装置の前記制御手段は、前記推定手段による推定結果を用いて前記撮像タイミングを制御する、ゲートシステム。
  16.  請求項9から15のいずれか一項に記載のゲートシステムにおいて、
     前記ゲート装置の前記制御手段により撮像すべきタイミングではないと判断したときに、所定の出力を行う出力手段をさらに備える、ゲートシステム。
  17.  ゲート装置が、
      ゲートに通じる通路を通る人の存在を前記通路内で検知する、前記通路の路面に設けられたセンサから検出結果を取得し、
      検知結果に基づいて、顔認証に用いる顔画像を取得するために、前記通路を通る前記人を撮像するカメラの撮像タイミングを制御する、
    ゲート装置の制御方法。
  18.  請求項17に記載のゲート装置の制御方法において、
     前記ゲート装置が、
     前記通路の路面に設けられた、前記ゲートまでの経路を示す案内パターンと同じ位置に配置されているセンサを用いて前記人の存在を検知した検知結果を取得する、ゲート装置の制御方法。
  19.  請求項18に記載のゲート装置の制御方法において、
     前記カメラは前記通路のわきに設置され、
     前記案内パターンの複数箇所または少なくとも一部の領域に、前記センサが配置されており、
     前記ゲート装置が、
     前記センサのうち所定割合以上の前記センサが前記人の存在を検知したときに前記カメラに撮像を実行させる、ゲート装置の制御方法。
  20.  ゲート装置が、
      本人確認の必要な場所において人が踏む位置に設けられて、前記本人確認の必要な場所における前記人の存在を検知するセンサから、検出結果を取得し、
      検知結果に基づいて、顔認証に用いる顔画像を取得するために、前記本人確認の必要な場所において確認対象である人を撮像するカメラの撮像タイミングを制御する、
    ゲート装置の制御方法。
  21.  請求項20に記載のゲート装置の制御方法において、
     前記ゲート装置が、
     前記本人確認の必要な場所に設けられた、前記人が踏む位置までの経路を示す案内パターンと同じ位置に配置されているセンサを用いて前記人の存在を検知した検知結果を取得する、ゲート装置の制御方法。
  22.  請求項21に記載のゲート装置の制御方法において、
     前記カメラは前記本人確認の必要な場所のわきに設置され、
     前記案内パターンの複数箇所または少なくとも一部の領域に、前記センサが配置されており、
     前記ゲート装置が、
     前記センサのうち所定割合以上の前記センサが前記人の存在を検知したときに前記カメラに撮像を実行させる、ゲート装置の制御方法。
  23.  請求項17から22のいずれか一項に記載のゲート装置の制御方法において、
     前記ゲート装置が、
     さらに前記カメラにより撮像された前記人の画像に基づいて、当該人の視線または顔の向きを推定し、
     推定された結果を用いて前記撮像タイミングを制御する、ゲート装置の制御方法。
  24.  請求項17から23のいずれか一項に記載のゲート装置の制御方法において、
     前記ゲート装置が、さらに、
     撮像すべきタイミングではないと判断したときに、所定の出力を行う、ゲート装置の制御方法。
  25.  コンピュータに、
      ゲートに通じる通路の路面に設けられたセンサを用いて検知された人の存在を検知する手順、
      検知結果に基づいて、顔認証に用いる顔画像を取得するために、前記通路を通る前記人を撮像するカメラの撮像タイミングを制御する手順、を実行させるためのプログラム。
  26.  請求項25に記載のプログラムにおいて、
     前記通路の路面に設けられた、前記ゲートまでの経路を示す案内パターンと同じ位置に配置されているセンサを用いて前記人の存在を検知した検知結果を取得する手順、をコンピュータに実行させるためのプログラム。
  27.  請求項26に記載のプログラムにおいて、
     前記カメラは前記通路のわきに設置され、
     前記案内パターンの複数箇所または少なくとも一部の領域に、前記センサが配置されており、
     前記センサのうち所定割合以上の前記センサが前記人の存在を検知したときに前記カメラに撮像を実行させる手順、をコンピュータに実行させるためのプログラム。
  28.  コンピュータに、
      本人確認の必要な場所において人が踏む位置に設けられて、前記本人確認の必要な場所における前記人の存在を検知するセンサから、検出結果を取得する手順、
      検知結果に基づいて、顔認証に用いる顔画像を取得するために、前記本人確認の必要な場所において確認対象である人を撮像するカメラの撮像タイミングを制御する手順、を実行させるためのプログラム。
  29.  請求項28に記載のプログラムにおいて、
     前記本人確認の必要な場所に設けられた、前記人が踏む位置までの経路を示す案内パターンと同じ位置に配置されているセンサを用いて前記人の存在を検知した検知結果を取得する手順、をコンピュータに実行させるためのプログラム。
  30.  請求項29に記載のプログラムにおいて、
     前記カメラは前記本人確認の必要な場所のわきに設置され、
     前記案内パターンの複数箇所または少なくとも一部の領域に、前記センサが配置されており、
     前記センサのうち所定割合以上の前記センサが前記人の存在を検知したときに前記カメラに撮像を実行させる手順、をコンピュータに実行させるためのプログラム。
  31.  請求項25から30のいずれか一項に記載のプログラムにおいて、
     さらに前記カメラにより撮像された前記人の画像に基づいて、当該人の視線または顔の向きを推定する手順、
     前記推定する手順における推定結果を用いて前記撮像タイミングを制御する手順、をコンピュータに実行させるためのプログラム。
  32.  請求項25から31のいずれか一項に記載のプログラムにおいて、
     撮像すべきタイミングではないと判断したときに、所定の出力を行う手順、をさらにコンピュータに実行させるためのプログラム。
  33.  ゲートに通じる通路を通る人を撮像した画像を撮像手段から取得する第1の取得手段と、
     前記人の存在を検知する、前記通路の路面に設けられた検知手段から、検出結果を取得する第2の取得手段と、
     前記撮像手段の撮像タイミングを、前記第2の取得手段が取得した前記検出結果を用いて制御する制御手段と、を備えるゲート装置。
  34.  ゲート装置が、
     ゲートに通じる通路を通る人の存在を検知する、前記通路の路面に設けられた検知手段から、検出結果を取得し、
     ゲートに通じる通路を通る人を撮像する撮像手段の撮像タイミングを、取得した前記検出結果を用いて制御し、
     前記撮像タイミングで前記人を撮像された画像を前記撮像手段から取得する、ゲート装置の制御方法。
  35.  コンピュータに、
     ゲートに通じる通路を通る人の存在を検知する、前記通路の路面に設けられた検知手段から、検出結果を取得する手順、
     ゲートに通じる通路を通る人を撮像する撮像手段の撮像タイミングを、取得した前記検出結果を用いて制御する、
     前記撮像タイミングで前記人を撮像された画像を前記撮像手段から取得する手順、を実行させるためのプログラム。
PCT/JP2020/004497 2020-02-06 2020-02-06 ゲートシステム、ゲート装置、その制御方法、およびプログラム WO2021156996A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP20917642.9A EP4102011A4 (en) 2020-02-06 2020-02-06 GATE SYSTEM, GATE DEVICE, METHOD OF CONTROL THEREOF AND PROGRAM
PCT/JP2020/004497 WO2021156996A1 (ja) 2020-02-06 2020-02-06 ゲートシステム、ゲート装置、その制御方法、およびプログラム
AU2020426906A AU2020426906A1 (en) 2020-02-06 2020-02-06 Gate system, gate apparatus, control method therefor, and program
US17/618,675 US20220245978A1 (en) 2020-02-06 2020-02-06 Gate system, gate apparatus, control method therefor, and program
JP2021575176A JP7396375B2 (ja) 2020-02-06 2020-02-06 ゲートシステム、ゲート装置、その制御方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/004497 WO2021156996A1 (ja) 2020-02-06 2020-02-06 ゲートシステム、ゲート装置、その制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2021156996A1 true WO2021156996A1 (ja) 2021-08-12

Family

ID=77200824

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/004497 WO2021156996A1 (ja) 2020-02-06 2020-02-06 ゲートシステム、ゲート装置、その制御方法、およびプログラム

Country Status (5)

Country Link
US (1) US20220245978A1 (ja)
EP (1) EP4102011A4 (ja)
JP (1) JP7396375B2 (ja)
AU (1) AU2020426906A1 (ja)
WO (1) WO2021156996A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115162854A (zh) * 2022-07-19 2022-10-11 余昊雨 一种手指锁和解锁方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210358242A1 (en) * 2020-05-13 2021-11-18 Weon Kook KIM Quarantine Gate Apparatus For Supporting Quarantine Measures For A Facility To Be Accessed By Multiple Persons In An Non-Contact Manner
TWI825843B (zh) * 2022-07-12 2023-12-11 致伸科技股份有限公司 一種安全認證方法及應用該方法之安全認證裝置

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266153A (ja) 2000-03-22 2001-09-28 Toshiba Corp 顔画像認識装置および通行制御装置
JP2002288670A (ja) * 2001-03-22 2002-10-04 Honda Motor Co Ltd 顔画像を使用した個人認証装置
JP2003271084A (ja) * 2002-03-15 2003-09-25 Omron Corp 情報提供装置および情報提供方法
JP2004151978A (ja) 2002-10-30 2004-05-27 Toshiba Corp 人物認識装置、人物認識方法および通行制御装置
JP2006163788A (ja) * 2004-12-07 2006-06-22 Hitachi Communication Technologies Ltd 入場者管理方法及び管理システム
JP2008071172A (ja) * 2006-09-14 2008-03-27 Toshiba Corp 顔認証装置、顔認証方法および入退場管理装置
JP2008123186A (ja) * 2006-10-17 2008-05-29 Chuo Electronics Co Ltd 不正通過者検出装置及びこれを利用した不正通過者録画システム
WO2009016846A1 (ja) * 2007-08-02 2009-02-05 Panasonic Corporation 虹彩認証装置および虹彩認証システム
JP2011064841A (ja) * 2009-09-16 2011-03-31 Hiroshi Ichikawa 画像表示システム
JP2015111321A (ja) * 2013-12-06 2015-06-18 東芝テック株式会社 顔認識ゲートシステム
US20150317853A1 (en) * 2014-04-30 2015-11-05 Cubic Corporation Adaptive gate walkway floor display

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PT105342B (pt) * 2010-10-18 2014-08-25 Vision Box Soluç Es De Vis O Por Computador S A Sistema de controlo de acesso de um portão modular móvel e o processo de funcionamento do mesmo
US10521991B1 (en) * 2018-08-23 2019-12-31 Bank Of America Corporation Collapsible and deployable interactive structure and system of use

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266153A (ja) 2000-03-22 2001-09-28 Toshiba Corp 顔画像認識装置および通行制御装置
JP2002288670A (ja) * 2001-03-22 2002-10-04 Honda Motor Co Ltd 顔画像を使用した個人認証装置
JP2003271084A (ja) * 2002-03-15 2003-09-25 Omron Corp 情報提供装置および情報提供方法
JP2004151978A (ja) 2002-10-30 2004-05-27 Toshiba Corp 人物認識装置、人物認識方法および通行制御装置
JP2006163788A (ja) * 2004-12-07 2006-06-22 Hitachi Communication Technologies Ltd 入場者管理方法及び管理システム
JP2008071172A (ja) * 2006-09-14 2008-03-27 Toshiba Corp 顔認証装置、顔認証方法および入退場管理装置
JP2008123186A (ja) * 2006-10-17 2008-05-29 Chuo Electronics Co Ltd 不正通過者検出装置及びこれを利用した不正通過者録画システム
WO2009016846A1 (ja) * 2007-08-02 2009-02-05 Panasonic Corporation 虹彩認証装置および虹彩認証システム
JP2011064841A (ja) * 2009-09-16 2011-03-31 Hiroshi Ichikawa 画像表示システム
JP2015111321A (ja) * 2013-12-06 2015-06-18 東芝テック株式会社 顔認識ゲートシステム
US20150317853A1 (en) * 2014-04-30 2015-11-05 Cubic Corporation Adaptive gate walkway floor display

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4102011A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115162854A (zh) * 2022-07-19 2022-10-11 余昊雨 一种手指锁和解锁方法

Also Published As

Publication number Publication date
EP4102011A4 (en) 2023-03-22
AU2020426906A1 (en) 2022-08-18
JP7396375B2 (ja) 2023-12-12
EP4102011A1 (en) 2022-12-14
US20220245978A1 (en) 2022-08-04
JPWO2021156996A1 (ja) 2021-08-12

Similar Documents

Publication Publication Date Title
WO2021156996A1 (ja) ゲートシステム、ゲート装置、その制御方法、およびプログラム
US9886640B1 (en) Method and apparatus to identify a live face image using a thermal radiation sensor and a visual radiation sensor
JP2022040245A (ja) 顔照合システム、顔照合装置、顔照合方法、及び記録媒体
JP6601513B2 (ja) 情報処理装置
WO2020230340A1 (ja) 顔認識システム、顔認識方法及び顔認識プログラム
US10970953B2 (en) Face authentication based smart access control system
US20180276452A1 (en) Face authentication device having database with small storage capacity
JP6951796B1 (ja) 画像認識装置、認証システム、画像認識方法及びプログラム
KR101596363B1 (ko) 얼굴 인식에 의한 출입관리장치 및 방법
JP5264137B2 (ja) 改札システム、人物検知ユニット及び自動改札機
JP2014146890A (ja) 撮像システム及び撮像方法
JP7006668B2 (ja) 情報処理装置
JP7448043B2 (ja) 撮影制御システム
JP2005070850A (ja) ゲート制御装置及びゲート制御システム
JP7400975B2 (ja) 顔認証方法
KR101372365B1 (ko) 현금 인출기용 부정 금융 거래 시도 판단 장치
WO2021130871A1 (ja) ゲート装置、その制御方法、およびプログラム
JP2005135271A (ja) 顔照合装置および通行制御装置
JP6915673B2 (ja) 情報処理システム
JP7279774B2 (ja) 情報処理装置
JP7424469B2 (ja) ゲートシステム、ゲート装置、その画像処理方法、およびプログラム、ならびに、ゲート装置の配置方法
WO2019151116A1 (ja) 情報処理装置
WO2023242948A1 (ja) 認証装置、認証システム、認証方法、及び非一時的なコンピュータ可読媒体
WO2021230057A1 (ja) 販売システム、販売支援装置、販売支援方法、およびプログラム
US20240096158A1 (en) Information processing system, information processing apparatus, information processing method and recording medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20917642

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021575176

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2020426906

Country of ref document: AU

Date of ref document: 20200206

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020917642

Country of ref document: EP

Effective date: 20220906