WO2021186576A1 - ゲートシステム、ゲート装置、その画像処理方法、およびプログラム、ならびに、ゲート装置の配置方法 - Google Patents

ゲートシステム、ゲート装置、その画像処理方法、およびプログラム、ならびに、ゲート装置の配置方法 Download PDF

Info

Publication number
WO2021186576A1
WO2021186576A1 PCT/JP2020/011790 JP2020011790W WO2021186576A1 WO 2021186576 A1 WO2021186576 A1 WO 2021186576A1 JP 2020011790 W JP2020011790 W JP 2020011790W WO 2021186576 A1 WO2021186576 A1 WO 2021186576A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
authentication
gate device
person
gate
Prior art date
Application number
PCT/JP2020/011790
Other languages
English (en)
French (fr)
Inventor
巧 大谷
井上 淳一
翔 高橋
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US17/800,642 priority Critical patent/US20230342442A1/en
Priority to JP2022508675A priority patent/JP7424469B2/ja
Priority to EP20926125.4A priority patent/EP4124029A4/en
Priority to PCT/JP2020/011790 priority patent/WO2021186576A1/ja
Priority to AU2020435735A priority patent/AU2020435735B2/en
Publication of WO2021186576A1 publication Critical patent/WO2021186576A1/ja
Priority to AU2024201525A priority patent/AU2024201525B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00563Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C2209/00Indexing scheme relating to groups G07C9/00 - G07C9/38
    • G07C2209/60Indexing scheme relating to groups G07C9/00174 - G07C9/00944
    • G07C2209/62Comprising means for indicating the status of the lock

Definitions

  • the present invention relates to a gate system, a gate device, an image processing method thereof, and a program, and a method of arranging the gate device.
  • the video monitoring device described in Patent Document 1 calculates in advance preprocessing information indicating the positional relationship between the position of the recognition processing area to be image recognition processing and the camera installation position. Then, the measured value and the coordinates of the recognition processing area in the camera image taken by the camera are calculated with reference to this preprocessing information, and the image recognition processing is performed on the monitoring target passing through the recognition processing area using the coordinates. Is running. Further, in this device, the area where the human face is located is determined based on the distribution of the measured values of the height of the person, and the area in the camera image corresponding to the area is determined as the recognition processing area. Is narrowed down.
  • the person authentication system described in Patent Document 2 acquires and acquires physical characteristics (for example, height) other than the face image of the target person before performing the face matching process on the moving person as the authentication target. Authentication accuracy is improved by narrowing down the face images to be collated based on physical characteristics.
  • Patent Document 3 describes a technique for improving the throughput through the gate.
  • the face recognition system described in this document first reads an ID from a user's wireless tag when a plurality of users enter a lane in the gate, and the registered face of the user acquired corresponding to the ID. Narrow down the collation target from the feature amount. Then, the face recognition system selects a person to be face-recognized from the captured image of the user using the largest face, the distance between the eyes, and the like, and acquires the facial feature amount of the face image. Then, the face recognition system collates the narrowed-down face feature amount to be collated with the selected face feature amount.
  • Patent Document 1 when narrowing down the image area, it is necessary to calculate the coordinates of the recognition processing area in the camera image in advance, and the arithmetic processing is complicated and the processing load is high. In the case where multiple gates are installed side by side, the load is further increased. Further, the technique described in Patent Document 2 needs to acquire information indicating the physical characteristics of the person to be authenticated in advance, and is not suitable for a gate system that manages the passage of an unspecified number of people. Is.
  • An object of the present invention is to improve the accuracy and efficiency of an authentication process performed using an image captured by a camera installed in a place where identity verification is required.
  • the first aspect relates to a gate device.
  • the gate device according to the first aspect is An acquisition means for acquiring an image captured by an imaging means provided on the side of a passage through which a person who needs to verify his / her identity passes, and an acquisition means. Among the acquired images, it has a processing means for causing an authentication means to execute an authentication process for a predetermined area.
  • the second aspect relates to a method of controlling a gate device performed by at least one computer.
  • the image processing method of the gate device according to the second aspect is The gate device An image captured by an imaging means provided on the side of a passage through which a person who needs to verify his / her identity passes is acquired. This includes causing an authentication means to execute an authentication process for a predetermined area of the acquired image.
  • the third aspect relates to the gate system.
  • the gate system related to the third aspect is A camera installed on the side of the aisle through which a person who needs to verify his / her identity passes Authentication device and With a gate device,
  • the gate device is An acquisition means for acquiring an image captured by the imaging means, and It has a processing means for causing the authentication device to execute an authentication process for a predetermined area of the acquired image.
  • Another aspect of the present invention may be a program that causes at least one computer to execute the method of the second aspect, or a recording medium that can be read by a computer that records such a program. You may.
  • This recording medium includes a non-temporary tangible medium.
  • This computer program includes computer program code that causes the computer to perform its image processing method on a gate device when executed by the computer.
  • a method of arranging a plurality of gate devices on the first side surface in parallel may be used.
  • the various components of the present invention do not necessarily have to be independent of each other, and a plurality of components are formed as one member, and one component is formed of a plurality of members. It may be that a certain component is a part of another component, a part of a certain component overlaps with a part of another component, and the like.
  • the order of description does not limit the order in which the plurality of procedures are executed. Therefore, when implementing the method and computer program of the present invention, the order of the plurality of procedures can be changed within a range that does not hinder the contents.
  • the method of the present invention and the plurality of procedures of the computer program are not limited to being executed at different timings. Therefore, another procedure may occur during the execution of a certain procedure, a part or all of the execution timing of the certain procedure and the execution timing of the other procedure may overlap.
  • FIG. 1 It is a figure which shows the conceptual configuration example of the gate system which concerns on embodiment. It is a top view of the gate system 1. It is a figure which shows the example of the image which is taken by the camera. It is a functional block diagram which shows the functional structure example of the gate apparatus which concerns on embodiment. It is a block diagram which illustrates the hardware composition of the computer which realizes a gate device. It is a flowchart which shows the operation example of the gate apparatus of embodiment. It is a flowchart which shows the detail of the authentication process of the flowchart of FIG. It is a functional block diagram which shows the functional structure example of the gate apparatus which concerns on embodiment. It is a flowchart which shows a part of the operation example of the gate device of embodiment.
  • acquisition means that the own device retrieves data or information stored in another device or storage medium (active acquisition), and is output to the own device from the other device. Includes at least one of entering data or information (passive acquisition).
  • active acquisition include making a request or inquiry to another device and receiving the reply, and accessing and reading another device or storage medium.
  • passive acquisition may be receiving information to be delivered (or transmitted, push notification, etc.).
  • acquisition may be to select and acquire the received data or information, or to select and receive the delivered data or information.
  • FIG. 1 is a diagram showing a conceptual configuration example of the gate system 1 according to the embodiment.
  • the gate system 1 includes a gate device 10 and an authentication device 50.
  • the gate device 10 includes a housing 14 and a camera unit 20.
  • the camera unit 20 includes a camera 5 (in the figure, the first camera 5a and the second camera 5b are included, but when it is not necessary to distinguish them, they are simply referred to as a camera 5) and a display unit. 22 and is included.
  • the authentication device 50 is connected to the gate device 10 via the communication network 3.
  • the authentication device 50 collates the feature amount of the person's face image or the like registered in advance with the feature amount extracted from the person's face image or the like acquired by the camera 5 of the gate device 10. By doing so, the person concerned is authenticated.
  • the authentication device 50 performs the authentication process using the face image of the person, but the authentication process may be performed by another authentication device that uses other biometric authentication information.
  • the other biometric information includes, for example, at least one feature amount such as an iris, a vein, auricle, a fingerprint, a gait, and a profile (height, shoulder width, height, skeleton, etc.).
  • the authentication device 50 performs an authentication process using the feature amount of the biometric authentication information extracted from the captured image of the person.
  • the authentication device 50 may perform the extraction processing of the feature amount of the biometric authentication information.
  • the gate device 10 may be configured to extract a region including biometric authentication information from the image, transmit it to the authentication device 50, and extract the biometric authentication information from the image region received by the authentication device 50.
  • the authentication device 50 may be provided inside the gate device 10 or may be provided outside. That is, the authentication device 50 may be hardware integrated with the gate device 10 or may be hardware separate from the gate device 10.
  • the gate device 10 of the gate system 1 of the present embodiment is installed, for example, at a boarding gate of an airport. Alternatively, it may be installed at the entrance / exit to the room that manages the person who enters / exits. Alternatively, it can be installed as a gate of a payment terminal in combination with a payment terminal for cashless payment in a store or the like. Alternatively, it may be installed as an entrance / exit gate of an unmanned store without a clerk. As described above, the gate device of the gate system 1 of the present embodiment is installed at a place (checkpoint) where identity verification is required.
  • FIG. 2 is a plan view of the gate system 1 as viewed from above.
  • the housing 14 has a predetermined height and extends over a predetermined distance along a passage 12 through which a person passes.
  • Two housings 14 are installed side by side along the passage 12 at intervals of a predetermined distance on both sides of the passage 12.
  • the two housings 14 are installed in parallel. In other words, the housing 14 forms the passage 12.
  • the entrance side of the passage 12 is open.
  • An opening / closing flap door (not shown) may be provided on the exit side of the passage 12 so as to be openable / closable.
  • the opening / closing control of the opening / closing flap door may be performed according to, for example, the authentication result of the authentication device 50. That is, the opening / closing flap door is controlled to be opened so that the person who succeeds in the authentication can pass through the passage 12, and the opening / closing flap door is controlled to be closed so that the person who fails the authentication cannot pass through the passage 12.
  • the camera unit 20 is installed on the side of the passage 12.
  • the angle ⁇ at which the optical axis of the camera 5 and the traveling direction of the passage 12 (the direction parallel to the inner side surface of the housing 14) intersect is, for example, in the range of 0 ° to 90 °, that is, the camera 5 or the camera unit. 20 is installed.
  • the camera 5 may be installed so that the optical axis of the camera 5 intersects the traveling direction of the passage 12 at an angle.
  • the camera 5 may be installed so that the angle ⁇ at which the optical axis of the camera 5 and the traveling direction of the passage 12 intersect is 30 ° or more and 60 ° or less.
  • the camera 5 includes an image sensor such as a lens and a CCD (Charge Coupled Device) image sensor.
  • the camera 5 may be a general-purpose digital video camera or a digital camera.
  • the camera 5 is used for adjusting and controlling focusing, exposure compensation, aperture value, shutter speed, ISO sensitivity, etc. in order to improve the image quality of a face image of a person and obtain the optimum feature amount for face image authentication. It has a mechanism and may be controlled automatically or by remote control from an administrator's operation terminal (not shown).
  • the image generated by the camera 5 is captured in real time and transmitted to the authentication device 50.
  • the image transmitted to the authentication device 50 does not have to be directly transmitted from the camera 5, and may be an image delayed by a predetermined time.
  • the image captured by the camera 5 may be temporarily stored in another storage device (not shown), and the authentication device 50 may read the image from the storage device sequentially or at predetermined intervals.
  • the image transmitted to the authentication device 50 is preferably a moving image, but may be a frame image at predetermined intervals or a still image.
  • FIG. 3 is a diagram showing an example of an image 30 captured by the camera 5.
  • the three persons P1, P2, and P3 of FIG. 2 are shown in the image 30 of FIG. 3 (a).
  • the person P1 is the person to be authenticated.
  • the two persons P2 and P3 other than the person P1 are persons other than the person to be authenticated. That is, a person other than the person to be authenticated is also reflected in the image 30.
  • the image 30 is a high-definition full high-definition image having a resolution of 1080 pixels ⁇ 1920 pixels, but is not limited thereto.
  • FIG. 4 is a functional block diagram showing a functional configuration example of the gate device 10 according to the present embodiment.
  • the gate device 10 includes an acquisition unit 102 and a processing unit 104.
  • the acquisition unit 102 acquires the image 30 (FIG. 3A) captured by the camera 5 (imaging means) provided on the side of the passage 12.
  • the processing unit 104 causes the authentication device 50 (authentication means) to execute the authentication process for the predetermined area 34 (FIG. 3 (b)) of the acquired image 30.
  • the image 30 includes two persons P2 and a person P3 in addition to the person P1 to be authenticated. If the image 30 is subjected to the authentication process by the authentication device 50 as it is, the face area is extracted and the authentication process is executed even for the person other than the authentication target, and the process that is not originally necessary is performed, which imposes a load. It will increase.
  • the processing unit 104 cuts out a predetermined area 34 from the image 30 so that the area 34 includes the person P1 to be authenticated, and causes the authentication device 50 to perform the authentication process on the area 34.
  • the region 34 is extracted by removing (masking or trimming) the upper region 32 of the image 30.
  • the region 32 may be trimmed from the image 30, or the region 32 may be temporarily masked to extract the region 34.
  • the area 34 (and / or the mask area 32) includes, for example, the width of the passage 12, the length of the passage 12 (distance to surrounding people), the installation position of the camera 5 (distance between the camera 5 and the person to be authenticated, and the height). It is set in advance according to the direction of the optical axis of the camera 5 (the angle formed by the optical axis with respect to the traveling direction of a person), the angle of view of the camera 5, and the like. In the present embodiment, for example, when the resolution of the image 30 is 1080 pixels ⁇ 1920 pixels, the area 34 extends from the upper end of the image 30 to a range of 500 pixels (about 25% in the height direction of the image 30 in the figure). It is defined as an area excluding the area 32 of. The range of the area 34 or the area 32 may be changed by accepting an input operation of the administrator.
  • Settings may be accepted from the setting screen using a terminal (not shown) used by the administrator who manages the gate device 10, or a computer that realizes the gate device 10 is connected to the display and the setting screen is displayed on the display. It may be displayed and the setting operation may be accepted.
  • the range including the upper end of the image 30 is defined as the mask area 32, but the range including the lower end of the image 30 may be excluded, or both of them may be used. Further, the range including at least one of the left and right edges of the image 30 may be excluded.
  • the processing unit 104 causes the authentication device 50 to execute the authentication process on the area 34 extracted in this way.
  • FIG. 5 is a block diagram illustrating a hardware configuration of a computer 1000 that realizes the gate device 10.
  • the computer 1000 has a bus 1010, a processor 1020, a memory 1030, a storage device 1040, an input / output interface 1050, and a network interface 1060.
  • the bus 1010 is a data transmission path for the processor 1020, the memory 1030, the storage device 1040, the input / output interface 1050, and the network interface 1060 to transmit and receive data to and from each other.
  • the method of connecting the processors 1020 and the like to each other is not limited to the bus connection.
  • the processor 1020 is a processor realized by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or the like.
  • the memory 1030 is a main storage device realized by a RAM (Random Access Memory) or the like.
  • the storage device 1040 is an auxiliary storage device realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a memory card, a ROM (Read Only Memory), or the like.
  • the storage device 1040 stores a program module that realizes each function of the gate device 10 (for example, the acquisition unit 102, the processing unit 104, and the selection unit 106 described later).
  • the processor 1020 reads each of these program modules into the memory 1030 and executes them, each function corresponding to the program module is realized.
  • the storage device 1040 also functions as various storage units.
  • the program module may be recorded on a recording medium.
  • the recording medium for recording the program module includes a medium that can be used by the non-temporary tangible computer 1000, and the program code that can be read by the computer 1000 (processor 1020) may be embedded in the medium.
  • the input / output interface 1050 is an interface for connecting the gate device 10 and various input / output devices (for example, the display unit 22).
  • the network interface 1060 is an interface for connecting the gate device 10 to another device (for example, the authentication device 50) on the communication network 3.
  • the network interface 1060 may not be used.
  • the gate device 10 is realized by installing and starting a program for realizing the gate device 10 on the computer 1000.
  • the computer 1000 that realizes the gate device 10 may be provided, for example, in the camera unit 20 and / or in the housing 14, or may be provided separately from the camera unit 20 and the housing 14. Further, in a configuration in which a plurality of passages 12 for which identity verification is required are provided in another embodiment described later, at least one is provided for a plurality of camera units 20 or a plurality of sets (one set on the left and right) of a housing 14.
  • a computer 1000 that realizes the gate device 10 may be provided. Alternatively, the gate device 10 may be realized by combining a plurality of computers 1000.
  • FIG. 6 is a flowchart showing an operation example of the gate device 10 of the present embodiment. This flow may be started by detecting the approach or approach of a person to the gate device 10 by a motion sensor (not shown) provided in the gate device 10, or may be repeatedly executed periodically. ..
  • the acquisition unit 102 acquires the image 30 captured by the camera 5 (step S101).
  • the image 30 may be a still image or a moving image.
  • the processing unit 104 extracts the region 34 from the image 30 by removing the predetermined region 32 (step S103).
  • the area 34 of FIG. 3B includes only the person P1.
  • the processing unit 104 causes the authentication device 50 to execute the authentication process for the area 34 (step S105).
  • step S105 the authentication process in step S105 will be described in detail with reference to FIG. 7.
  • the processing unit 104 detects the face in the region 34 extracted in step S103 (step S201). Here, the face of the person P1 is detected. Then, the processing unit 104 extracts the detected face region (step S203), and extracts the feature amount of the face region (step S205).
  • the processing unit 104 transmits the facial feature amount extracted in step S205 to the authentication device 50 to execute the authentication process.
  • the authentication device 50 collates the face feature amount transmitted from the gate device 10 with the face feature amount stored in the face feature amount database (not shown) (step S207), and collates the collation result with the gate device. It is transmitted to 10 (step S209).
  • the gate device 10 receives the collation result, the gate device 10 performs processing based on the result. In the present embodiment, the processing based on the collation result is not particularly specified.
  • the authentication device 50 may perform any of the processing of step S205, the processing of steps S203 to S205, or the processing of steps S201 to S205. That is, the gate device 10 tells the authentication device 50 that at least one of the feature amounts of the region 34 extracted from the image 30 in step S103, the face region extracted in step S201, and the face region extracted in step S203. It may be configured to transmit one or the other.
  • the authentication device 50 may detect a face in the area 34 extracted from the image 30 received from the gate device 10 (step S201). Here, the face of the person P1 is detected. Then, the authentication device 50 may extract the detected face region (step S203) and extract the feature amount of the face region (step S205).
  • the facial feature amount database may store the facial feature amount of the person who is going to pass through the gate in advance.
  • the facial feature database may further store facial features of a person included in a so-called blacklist (such as a wanted person such as a criminal) or a white list (such as a VIP).
  • the user's identification information is acquired at a predetermined location or at the entrance side of the gate housing 14), and the facial feature amount associated with the identification information is acquired from the facial feature amount database. You may.
  • the face of the user is imaged at a predetermined place before passing through the gate, for example, at the entrance of a building or floor, or in the middle of the route to the gate, and the facial features extracted from the captured image are captured. It may be configured to collate with. With this configuration, it is also possible to determine whether or not the user has entered the gate by a regular route.
  • the user identification information is not particularly limited as long as it is information that can uniquely identify the user, but may be, for example, identification information issued for each user when registering a user for using the service. However, the identification information acquired in advance by the user may be registered.
  • the authentication device 50 to acquire the user's identification information.
  • a two-dimensional code including the identification information displayed on the user's mobile terminal using an application or the like, or a two-dimensional code containing the identification information to the user in advance The two-dimensional code printed on the distributed sheet may be read by using a two-dimensional code reading device, or a predetermined value may be obtained from an IC tag or IC card possessed by the user or distributed in advance.
  • the identification information may be read using a reading device.
  • the image 30 captured by the camera 5 is acquired by the acquisition unit 102, and the processing unit 104 authenticates the authentication process to the predetermined area 34 of the image 30. It can be executed by the device 50.
  • the processing unit 104 authenticates the authentication process to the predetermined area 34 of the image 30. It can be executed by the device 50.
  • the space that can be installed may be limited.
  • the process of removing the predetermined area 32 from the image 30 is compared with the case where a plurality of persons in the image 30 are detected and the process of determining whether or not the person to be authenticated is performed for each is performed by the image recognition process or the like. Since the authentication target can be narrowed down just by performing the above, the processing load can be reduced, so that the processing speed can be increased and the efficiency is high. That is, since it is possible to narrow down the authentication target persons by a simple process without performing a complicated process, it is possible to improve the authentication efficiency while reducing the processing load.
  • FIG. 8 is a functional block diagram showing a functional configuration example of the gate device according to the present embodiment.
  • the gate device 10 of the present embodiment is the same as that of the above embodiment except that it has a configuration for selecting a person to be authenticated based on the eyes.
  • the gate device 10 further includes a selection unit 106 in the configuration of the gate device 10 of FIG.
  • the processing unit 104 selects, among the persons in the image 30, a person whose eyes meet the criteria as an authentication target.
  • the processing unit 104 recognizes the eyes of a person in the area 34 of the image 30 by image processing, and obtains the distance between the centers of the black eyes of both eyes of each person (hereinafter referred to as "eyes").
  • the selection unit 106 first selects a person whose eyes are equal to or greater than the reference value. Next, the selection unit 106 selects the person with the largest eye distance from the selected people. The person selected in this way is selected as the person to be authenticated that meets the criteria.
  • the reference value between the eyes is 60 pixels or more in the horizontal direction of the image 30.
  • the reference value is set in advance based on the size and resolution of the image 30, the focal length between the camera 5 and the person to be authenticated passing through the passage 12, the shooting conditions of the camera 5, and the like.
  • FIG. 9 is a flowchart showing a part of an operation example of the gate device 10 of the present embodiment. The flow of this embodiment is executed between steps S201 and S203 of the operation flow of FIG. 7 of the gate device 10 of the first embodiment.
  • the processing unit 104 performs image processing on each person.
  • the eyes in the face area of the above are recognized, and the distance between the eyes of each person is calculated (step S301).
  • the distance between the eyes of each person P1, P2, and P3 is calculated as L1, L2, and L3 (where L1> L2> 60 pixels> L3).
  • the selection unit 106 selects a person whose eye distance calculated in step S301 is equal to or larger than the reference value (in this example, 60 pixels in the horizontal direction of the image 30) (step S303).
  • the reference value in this example, 60 pixels in the horizontal direction of the image 30
  • the persons P1 and P2 marked with a circle in FIG. 10A are selected.
  • step S303 when a plurality of persons are selected, the selection unit 106 selects the person with the maximum eye distance (step S305).
  • the person P1 having the maximum eye distance (L1) is selected from the person P1 and the person P2.
  • the person P1 with a circle is selected. Then, the process returns to step S203 of FIG.
  • the processing unit 104 extracts the face area of the person P1 selected in step S305 (step S203) and extracts the feature amount of the face area (step S205).
  • the processing unit 104 transmits the extracted feature amount to the authentication device 50 to execute the authentication process (steps S207 and 209). Then, the processing unit 104 receives the verification result from the authentication device 50.
  • the selection unit 106 selects a person whose eyes are equal to or greater than the reference and is maximum, and the selected person is authenticated by the authentication device 50. Therefore, even if a plurality of persons exist in the area 34, the authentication target person can be narrowed down. Since the image 30 is already processed in the range narrowed to the area 34, the number of people seeking eye contact can be reduced, so that the processing load can be reduced and the efficiency is high. That is, since it is possible to narrow down the authentication target persons by a simple process without performing a complicated process, it is possible to improve the authentication efficiency while reducing the processing load.
  • the gate device 10 of the present embodiment is the same as the above-described first embodiment or the second embodiment except that the captured images of the two cameras 5a and 5b are used.
  • FIG. 11 is a front view of the camera unit 20.
  • the camera unit 20 has a display unit 22 and two cameras 5a and 5b in the center of the front surface 20a of the housing.
  • the two cameras 5a and 5b are installed at different heights.
  • the display unit 22 is preferably arranged at a height that can be seen by a person passing through the passage 12 when facing the front surface of the camera unit 20. For example, the height at which the display unit 22 is installed may be determined from the average height of an adult.
  • the two cameras 5a and 5b are provided above and below the display unit 22.
  • FIG. 12A shows a state in which a person is imaged using a camera 5a (first imaging means) installed at a position where the face of the person is imaged from above.
  • FIG. 13A shows a state in which a person is imaged by using a camera 5b (second imaging means) installed at a position where the face of the person is imaged from below.
  • the acquisition unit 102 acquires the first image 30 captured by the camera 5a that captures a person from above.
  • the processing unit 104 causes the authentication device 50 to execute the authentication process on at least the area of the first image 30 that includes the face of a person whose height is the target of identity verification.
  • the height to be verified is 110 cm to 190 cm, but the height is not limited to this.
  • the range 34a including the face of a person having a height of 110 cm is set as the target area for the authentication process.
  • the range (region 32) to the bottom of the face (under the chin) of a 110 cm tall person including the lower end of the first image 30 is excluded.
  • the range (area 32) of 130 pixels from the lower end of the first image 30 is excluded.
  • the area above the face of a person with a height of 190 cm may be used as a mask area.
  • the acquisition unit 102 acquires the second image 40 captured by the camera 5b that captures the person from below.
  • the processing unit 104 causes the authentication device 50 to execute the authentication process on the region of the second image 40 excluding the range of at least 10% from the upper end to the lower side.
  • the area 44a of the second image 40 excluding the range (area 42) of at least 10% from the upper end of the second image 40 downward is set as the target area for the authentication process.
  • the range of 192 pixels from the upper end of the second image 40 is excluded. This is because when the face is imaged from below, the face included in the upper side of the image 30 is distorted, so that the area to be authenticated is excluded.
  • the processing unit 104 may cause the authentication device 50 to execute the authentication process on the area of the first image 30 excluding at least a part including the upper end. Further, the processing unit 104 may cause the authentication device 50 to execute the authentication process on the region of the second image 40 excluding at least a part including the lower end.
  • processing unit 104 may cause the authentication device 50 to execute the authentication process on at least the overlapping area of the first image 30 and the second image 40.
  • the overlapping region of the first image 30 and the second image 40 is, for example, the region 34b in the first image 30 of FIG. 12 (c) and the region 44b in the second image 40 of FIG. 13 (c).
  • the processing unit 104 extracts the area 34b of FIG. 12C for the first image 30 and sets it as the target area for the authentication process, and extracts the area 44b of FIG. 13C for the second image 40. It may be the target area of the authentication process.
  • the authentication device 50 may perform authentication processing on each region extracted from the first image 30 and the second image 40, or may perform authentication processing on at least one region.
  • the overlapping region of the first image 30 and the second image 40 is further applied to the region 34b extracted from the first image 30 as shown in FIG. 14 (c).
  • the area 34c excluding the area 32 corresponding to the height limitation (110 cm) may be the area to be authenticated.
  • the overlapping region of the first image 30 and the second image 40 is further applied to the region 44b extracted from the second image 40, as shown in FIG. 14 (c).
  • the area 44c excluding the area 42 of 10% from the upper end to the lower side may be the area to be authenticated.
  • the configuration may include the selection unit 106 of the second embodiment. That is, in the areas 34c and 44c narrowed down by the processing unit 104, the eyes of the persons included in each area are further calculated, and the person to be authenticated is selected based on the calculated eyes. May be good.
  • the processing unit 104 removes the predetermined area, thereby setting the predetermined area as the target area for the authentication process. be able to.
  • the authentication target can be narrowed down by a simple process of narrowing the image 30 to a predetermined area without performing such complicated processing, it is possible to improve the authentication efficiency while reducing the processing load. Can be done.
  • the present invention can be applied to a gate device that is not provided with a housing 14 or an opening / closing flap door but is provided with at least a camera 5 and a display unit 22. That is, in the passage 12 through which a person who is not partitioned by the housing 14 or the like passes, the camera unit 20 may be provided on a predetermined installation table arranged on the side of each passage 12. If at least one passage 12 is not separated by the housing 14 and is used by many people, more people may be reflected in the image 30. Since the gate device 10 of the present invention can narrow down the persons to be authenticated, it is more effective in such a case.
  • a plurality of passages 12 may be arranged in parallel.
  • FIG. 15 shows how a plurality of passages 12 are arranged in parallel.
  • the captured image 30 of the person P1 to be authenticated may include a plurality of succeeding persons P2 and P3 and a plurality of persons P5 in other passages 12 who are not to be authenticated.
  • the area to be authenticated in the camera 5 by defining the area to be authenticated in the camera 5 in advance, the area to be authenticated can be narrowed even when a plurality of passages 12 are installed in parallel. .. As a result, it is possible to narrow down the authentication target persons by a simple process without performing a complicated process.
  • the area 34 may be set for each camera 5, may be the same setting for a plurality of cameras 5, or may be set by grouping.
  • Settings may be accepted from the setting screen using a terminal (not shown) used by the administrator who manages each gate device 10, or a computer 1000 that realizes the gate device 10 is connected to the display and set on the display. You may display the screen and accept the setting operation.
  • FIG. 16 shows a state in which a plurality of gate devices 10 are arranged in parallel and a plurality of persons P1 to P4 pass through the plurality of passages 12.
  • the area 34 excluding the upper area 32 from the image 30 by the processing unit 104 of the gate device 10 includes only the person P1 who is the person to be authenticated in the image 30 among the plurality of persons P1 to P4. You can see that.
  • the authentication target area is narrowed for each of the images transmitted from the plurality of camera units 20, and the authentication target person is narrowed down. Therefore, the authentication device 50 that performs the authentication processing of the plurality of images. Processing load is reduced.
  • the terminal or gate device 10 used by the administrator may further have an area setting means (not shown) realized by an application for area setting.
  • the area setting means includes a display processing unit (not shown) that acquires an image of the camera 5 and displays it on the display of the terminal or the gate device 10, and a state in which a person stands in the standing position of the person to be authenticated in front of the camera 5. Then, the area 34 in the image displayed on the screen from which the person's face and the biometric information to be authenticated can be acquired, or the area 32 which may be excluded, is designated on the screen by using the GUI (Graphical User Interface). It may have a reception unit (not shown) that accepts the above.
  • the setting information of the area specified by the area setting means of the terminal may be input to the gate device 10 and stored in the memory 1030 or the storage device 1040 of the computer 1000 that realizes the gate device 10 described later. ..
  • the area received by the reception unit of the area setting means may be stored in the memory 1030 or the storage device 1040 of the computer 1000 that realizes the gate device 10 described later.
  • the designation of the area may be indicated by the trimming position with respect to the image 30.
  • the trimming position is the distance from the upper end of the image 30 to the lower side (number of pixels or percentage), the distance from the lower end of the image 30 to the upper side (number of pixels or percentage), and the distance from the left end to the right side of the image 30 (pixels). At least one of (number or percentage) and the distance (number of pixels or percentage) from the right edge of the image 30 to the left may be specified.
  • the processing unit 104 of the gate device 10 can process the image 30 using the settings of the stored area 34 or area 32.
  • the processing means is a gate device that causes the authentication means to execute the authentication process on at least a region of the first image including a range including a face of a person having a height to be verified. 4. 1. 1. From 3. In the gate device according to any one of The acquisition means acquires a second image captured by a second imaging means that captures a person from below. The processing means is a gate device that causes the authentication means to execute the authentication process on a region of the second image excluding a range of at least 10% from the upper end to the lower side. 5. 1. 1. From 4. In the gate device according to any one of The acquisition means acquires a first image captured by the first imaging means that captures a person from above, and obtains the first image.
  • the processing means is a gate device that causes the authentication means to execute the authentication process on a region of the first image excluding a part including at least the upper end. 6. 1. 1. From 5. In the gate device according to any one of The acquisition means acquires a second image captured by a second imaging means that captures a person from below. The processing means is a gate device that causes the authentication means to execute the authentication process on a region of the second image excluding a part including at least a lower end. 7. 6. In the gate device described in The processing means is a gate device that causes the authentication means to execute the authentication process on at least an overlapping region of the first image and the second image.
  • the gate device is An acquisition means for acquiring an image captured by the camera, and A gate system having a processing means for causing the authentication device to execute an authentication process for a predetermined area of the acquired image. 10. 9. In the gate system described in The gate device is A gate system further comprising a selection means for selecting a person whose eyes meet the criteria among the persons in the image as an authentication target. 11. 9. Or 10. In the gate system described in In the gate device The acquisition means acquires a first image captured by the first imaging means that captures a person from above, and obtains the first image.
  • the processing means is a gate system that causes the authentication device to execute the authentication process on at least a region of the first image that includes a face of a person with a height to be verified. 12. 9. From 11. In the gate system described in any one of In the gate device The acquisition means acquires a second image captured by a second imaging means that captures a person from below. The processing means is a gate system that causes the authentication device to execute the authentication process on a region of the second image excluding a range of at least 10% from the upper end to the lower side. 13. 9. From 12. In the gate system described in any one of In the gate device The acquisition means acquires a first image captured by the first imaging means that captures a person from above, and obtains the first image.
  • the processing means is a gate system that causes the authentication device to execute the authentication process on a region of the first image excluding a part including at least the upper end. 14. 9. To 13. In the gate system described in any one of In the gate device The acquisition means acquires a second image captured by a second imaging means that captures a person from below. The processing means is a gate system that causes the authentication device to execute the authentication process on a region of the second image excluding a part including at least a lower end. 15. 14. In the gate system described in In the gate device The processing means is a gate system that causes the authentication device to execute the authentication process on at least an overlapping region of the first image and the second image. 16. 9. To 15. In the gate system described in any one of A gate system including a plurality of the gate devices arranged in parallel.
  • the gate device An image captured by an imaging means provided on the side of a passage through which a person who needs to verify his / her identity passes is acquired. An image processing method of a gate device that causes an authentication means to execute an authentication process for a predetermined area of the acquired images. 18. 17. In the image processing method of the gate device described in 1. The gate device further An image processing method of a gate device that selects a person whose eyes meet the criteria from among the persons in the image as an authentication target. 19. 17. Or 18. In the image processing method of the gate device described in 1. The gate device The first image captured by the first imaging means for capturing a person from above is acquired, and the image is acquired.
  • the gate device The second image captured by the second imaging means that captures the person from below is acquired, and the image is acquired.
  • the gate device The first image captured by the first imaging means for capturing a person from above is acquired, and the image is acquired.
  • the gate device The second image captured by the second imaging means that captures the person from below is acquired, and the image is acquired.
  • the gate device An image processing method of a gate device that causes the authentication means to execute the authentication process on at least an overlapping region of the first image and the second image.
  • the program described in A procedure for acquiring a first image captured by a first imaging means for capturing a person from above In order to further cause the computer to execute the procedure of causing the authentication means to execute the authentication process on at least the area including the face of a tall person to be verified in the first image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Signal Processing (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Abstract

ゲート装置(10)は、本人確認が必要な人物が通過する通路の側方に設けられているカメラ(5)が撮像した画像を取得する取得部(102)と、取得した画像のうち、予め定められた領域に対して認証処理を認証装置(50)に実行させる処理部(104)と、を備える。

Description

ゲートシステム、ゲート装置、その画像処理方法、およびプログラム、ならびに、ゲート装置の配置方法
 本発明は、ゲートシステム、ゲート装置、その画像処理方法、およびプログラム、ならびに、ゲート装置の配置方法に関する。
 画像認識技術の進歩により、近年、セキュリティ管理が必要な施設などに出入りする際に、人物の顔画像を用いた認証装置の実用化が進み、その認識精度を向上させるための技術が様々提案されている。
 例えば、特許文献1に記載の映像監視装置は、画像認識処理の対象となる認識処理領域の位置とカメラ設置位置との位置関係を示す前処理情報を予め算出しておく。そして、この前処理情報を参照して実測値とカメラによって撮影されたカメラ画像中の認識処理領域の座標を算出し、当該座標を用いて認識処理領域を通過する監視対象に対して画像認識処理を実行している。さらに、この装置では、人の顔が位置するエリアを人の身長の実測値の分布に基づいて決定し、そのエリアに対応するカメラ画像中の領域を認識処理領域として決定することで認識処理領域を絞り込んでいる。
 また、特許文献2に記載の人物認証システムは、移動する人物を認証対象として、顔照合処理を実施する前に対象人物の顔画像以外の身体的特徴(例えば、身長)を取得し、取得した身体的特徴に基づき照合する顔画像を絞り込むことで、認証精度を向上させている。
 特許文献3には、ゲート通過のスループットを向上する技術が記載されている。この文献記載の顔認証システムは、まず、複数の利用者がゲート内のレーンに入った時に、利用者の無線タグからIDを読み取り、IDに対応して取得された利用者の登録済みの顔特徴量の中から照合対象を絞り込む。そして、顔認証システムは、利用者の撮像画像から最も大きな顔や目間距離などを用いて顔認証の対象となる人物を選択して顔画像の顔特徴量を取得する。そして、顔認証システムは、絞り込まれた照合対象の顔特徴量と、選択された顔特徴量を照合している。
特開2013-51477号公報 特開2008-158679号公報 国際公開第2018/181968号
 上記した特許文献1に記載の技術では、画像領域の絞り込む際に、予めカメラ画像中の認識処理領域の座標を算出する必要があり、演算処理が複雑で処理負荷が高い。複数のゲートが併設されるケースでは、さらに負荷が増大する。また、特許文献2に記載の技術では、認証対象者の身体的特徴を示す情報を予め取得しておくことが必要であり、不特定多数の人の通行を管理するようなゲートシステムには不向きである。
 本発明の目的は、本人確認が必要な場所に設置されるカメラで撮像された画像を用いて実施される認証処理の精度および効率を向上させることにある。
 本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。
 第一の側面は、ゲート装置に関する。
 第一の側面に係るゲート装置は、
 本人確認が必要な人物が通過する通路の側方に設けられている撮像手段が撮像した画像を取得する取得手段と、
 取得した前記画像のうち、予め定められた領域に対して認証処理を認証手段に実行させる処理手段と、を有する。
 第二の側面は、少なくとも1つのコンピュータにより実行されるゲート装置の制御方法に関する。
 第二の側面に係るゲート装置の画像処理方法は、
 ゲート装置が、
 本人確認が必要な人物が通過する通路の側方に設けられている撮像手段が撮像した画像を取得し、
 取得した前記画像のうち、予め定められた領域に対して認証処理を認証手段に実行させる、ことを含む。
 第三の側面は、ゲートシステムに関する。
 第三の側面に係るゲートシステムは、
 本人確認が必要な人物が通過する通路の側方に設けられているカメラと、
 認証装置と、
 ゲート装置と、を有し、
 前記ゲート装置は、
 前記撮像手段が撮像した画像を取得する取得手段と、
 取得した前記画像のうち、予め定められた領域に対して認証処理を前記認証装置に実行させる処理手段と、を有する。
 なお、本発明の他の側面としては、上記第二の側面の方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
 このコンピュータプログラムは、コンピュータにより実行されたとき、コンピュータに、ゲート装置上で、その画像処理方法を実施させるコンピュータプログラムコードを含む。
 さらに、本発明のさらなる側面としては、上記第一の側面のゲート装置を、複数並列に配置するゲート装置の配置方法であってもよい。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
 また、本発明の各種の構成要素は、必ずしも個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等でもよい。
 また、本発明の方法およびコンピュータプログラムには複数の手順を順番に記載してあるが、その記載の順番は複数の手順を実行する順番を限定するものではない。このため、本発明の方法およびコンピュータプログラムを実施するときには、その複数の手順の順番は内容的に支障のない範囲で変更することができる。
 さらに、本発明の方法およびコンピュータプログラムの複数の手順は個々に相違するタイミングで実行されることに限定されない。このため、ある手順の実行中に他の手順が発生すること、ある手順の実行タイミングと他の手順の実行タイミングとの一部ないし全部が重複していること、等でもよい。
 本発明によれば、本人確認が必要な場所に設置されるカメラで撮像された画像を用いて実施される認証処理の精度および効率を向上させることができる。
 上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
実施形態に係るゲートシステムの概念的な構成例を示す図である。 ゲートシステム1を上方から見た平面図である。 カメラにより撮像される画像の例を示す図である。 実施形態に係るゲート装置の機能構成例を示す機能ブロック図である。 ゲート装置を実現するコンピュータのハードウエア構成を例示するブロック図である。 実施形態のゲート装置の動作例を示すフローチャートである。 図6のフローチャートの認証処理の詳細を示すフローチャートである。 実施形態に係るゲート装置の機能構成例を示す機能ブロック図である。 実施形態のゲート装置の動作例の一部を示すフローチャートである。 カメラにより撮像される画像の処理例を説明するための図である。 カメラユニットの正面図である。 カメラにより撮像される画像の処理例を説明するための図である。 カメラにより撮像される画像の処理例を説明するための図である。 カメラにより撮像される画像の処理例を説明するための図である。 複数の通路が並列して設置される構成例を示す図である。 複数の通路が並列して設置されたゲート装置で撮像される画像の例を示す図である。
 以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
 実施形態において「取得」とは、自装置が他の装置や記憶媒体に格納されているデータまたは情報を取りに行くこと(能動的な取得)、および、自装置に他の装置から出力されるデータまたは情報を入力すること(受動的な取得)の少なくとも一方を含む。能動的な取得の例は、他の装置にリクエストまたは問い合わせしてその返信を受信すること、及び、他の装置や記憶媒体にアクセスして読み出すこと等がある。また、受動的な取得の例は、配信(または、送信、プッシュ通知等)される情報を受信すること等がある。さらに、「取得」とは、受信したデータまたは情報の中から選択して取得すること、または、配信されたデータまたは情報を選択して受信することであってもよい。
(第1実施形態)
<システム構成>
 図1は、実施形態に係るゲートシステム1の概念的な構成例を示す図である。
 ゲートシステム1は、ゲート装置10と、認証装置50と、を含む。ゲート装置10は、筐体14と、カメラユニット20と、を含む。カメラユニット20は、カメラ5(図では、第1のカメラ5aと第2のカメラ5bの2つを含んでいるが、特に区別する必要がない場合は、単にカメラ5と呼ぶ)と、表示部22とを含む。
 認証装置50は、通信ネットワーク3を介してゲート装置10と接続される。本実施形態では、認証装置50は、予め登録されている人物の顔画像等の特徴量と、ゲート装置10のカメラ5により取得された人物の顔画像等から抽出された特徴量とを照合することで当該人物の認証処理を行う。
 本実施形態では、認証装置50により人物の顔画像を用いて認証処理を行っているが、他の生体認証情報を用いる他の認証装置により認証処理を行ってもよい。他の生体認証情報とは、例えば、虹彩、静脈、耳介、指紋、歩容、背格好(身長、肩幅、身丈、骨格等)等の少なくともいずれか一つの特徴量を含む。この認証装置50は、人物の撮像画像から抽出された生体認証情報の特徴量を用いて認証処理を行う。ただし、生体認証情報の特徴量の抽出処理は、認証装置50が行ってもよい。ゲート装置10は、画像から生体認証情報を含む領域を抽出して、認証装置50に送信し、認証装置50が受信した画像領域から生体認証情報を抽出する構成であってもよい。
 また、認証装置50は、ゲート装置10の内部に設けられてもよいし、外部に設けられてもよい。つまり認証装置50は、ゲート装置10と一体のハードウェアであってもよいし、ゲート装置10とは別体のハードウェアであってもよい。
 本実施形態のゲートシステム1のゲート装置10は、例えば、空港の搭乗口などに設置される。あるいは、入退場する人を管理する部屋への入退場口に設置されてもよい。あるいは、店舗などにおいて、キャッシュレス決済する決済端末と組み合わせ決済端末のゲートとして設置することもできる。あるいは、店員配置のない無人営業の店舗の出入口のゲートとして設置されてもよい。このように、本実施形態のゲートシステム1のゲート装置は、本人確認の必要な場所(チェックポイント)に設置される。
 図2は、ゲートシステム1を上方から見た平面図である。図1および図2に示すように、筐体14は、所定の高さを有し、人が通る通路12に沿って所定の距離にわたって延在する。通路12の両側に2つの筐体14が所定の距離の間隔を空けて通路12に沿って並べて設置されている。好ましくは2つの筐体14は平行に設置される。言い換えると、筐体14によって通路12が形成される。
 通路12の入口側は開放されている。通路12の出口側には開閉フラップ扉(不図示)が開閉可能に設けられてもよい。その場合、開閉フラップ扉の開閉制御は、例えば、認証装置50の認証結果に応じて行われてよい。つまり、認証に成功した人物は通路12を通過できるように開閉フラップ扉が開制御され、認証に失敗した人物は通路12を通過できないように開閉フラップ扉が閉制御される。
 図2に示すように、カメラユニット20は、通路12の脇に設置されている。カメラ5の光軸と、通路12の進行方向(筐体14の内側側面と平行な方向)との交わる角度θは、例えば、0°から90°の範囲となるように、カメラ5つまりカメラユニット20は設置される。また、カメラ5の光軸は、通路12の進行方向と斜めに交わるように、カメラ5は設置されてもよい。例えば、カメラ5の光軸と通路12の進行方向との交わる角度θは、30°以上60°以下となるようにカメラ5は設置されてもよい。
 カメラ5は、レンズとCCD(Charge Coupled Device)イメージセンサといった撮像素子を備える。カメラ5は汎用のデジタルビデオカメラやデジタルカメラでもよい。カメラ5は、人物を撮像した顔画像の画質を上げて顔画像認証に最適な特徴量を得るために、焦点合わせ、露出補正、絞り値、シャッタースピード、ISO感度などの調整や制御するための機構を有し、自動的にまたは管理者の操作端末(不図示)などからの遠隔操作などで制御されてもよい。
 カメラ5により生成される画像は、リアルタイムに撮影されて認証装置50に送信されるのが好ましい。ただし、認証装置50に送信される画像は、カメラ5から直接送信されなくてもよく、所定の時間遅延した画像であってもよい。カメラ5で撮像された画像は、一旦他の記憶装置(不図示)に格納され、認証装置50が記憶装置から逐次または所定間隔毎に読み出してもよい。さらに、認証装置50に送信される画像は、動画像であるのが好ましいが、所定間隔毎のフレーム画像であってもよいし、静止画であってもよい。
 図3は、カメラ5により撮像される画像30の例を示す図である。図2の3人の人物P1、P2、P3が、図3(a)の画像30内に写っている。ここで、人物P1が認証対象者である。人物P1以外の2人の人物P2、P3は、この場合、認証対象者以外の人物である。つまり、画像30内には、認証対象者以外の人物も写り込んでいる。本実施形態では、画像30は、高精細フルハイビジョンの画像であり、解像度1080ピクセル×1920ピクセルであるが、これに限定されない。
<機能構成例>
 図4は、本実施形態に係るゲート装置10の機能構成例を示す機能ブロック図である。
 以下の各図において、本発明の本質に関わらない部分の構成については省略してあり、図示されていない。
 ゲート装置10は、取得部102と、処理部104と、備える。
 取得部102は、通路12の側方に設けられているカメラ5(撮像手段)が撮像した画像30(図3(a))を取得する。処理部104は、取得した画像30のうち、予め定められた領域34(図3(b))に対して認証処理を認証装置50(認証手段)に実行させる。
 図3(a)に示すように、画像30には、認証対象である人物P1以外にも2人の人物P2と人物P3が含まれている。画像30をそのまま認証装置50に認証処理させると、認証対象以外の人物についても顔領域を抽出して認証処理を実行することになり、本来であれば必要のない処理を行うことになり負荷が増大してしまう。
 そこで、処理部104は、画像30から所定の領域34を切り出して、当該領域34に認証処理対象の人物P1が含まれるようにして、領域34を認証装置50に認証処理を行わせる。図3(b)に示すように、領域34は、画像30の上部の領域32を除く(マスクまたはトリミングする)ことで抽出される。なお、画像30から領域34を抽出する処理方法は、画像30から領域32をトリミングしてもよいし、一時的に領域32をマスクして領域34を抽出してもよい。
 領域34(および/またはマスク領域32)は、例えば、通路12の幅、通路12の長さ(周囲の人との距離)、カメラ5の設置位置(カメラ5と認証対象者との距離、高さ)、カメラ5の光軸の向き(人の進行方向に対する光軸がなす角度)、およびカメラ5の画角等に応じて、予め設定される。本実施形態では、例えば、画像30の解像度が1080ピクセル×1920ピクセルの場合に、領域34は、画像30の上端から500ピクセル(図中、画像30の高さ方向の25%程度)の範囲までの領域32を除いた領域とする。領域34または領域32の範囲は、管理者の入力操作を受け付けて変更できてよい。
 ゲート装置10を管理する管理者が使用する端末(不図示)を用いて設定画面から設定を受け付けてもよいし、ゲート装置10を実現するコンピュータがディスプレイに接続されており、ディスプレイに設定画面を表示させて設定操作を受け付けてもよい。
 図3の例では、画像30の上端を含む範囲をマスク領域32としているが、画像30の下端を含む範囲を除いてもよいし、その両方でもよい。さらに、画像30の左右の端の少なくとも一方を含む範囲を除いてもよい。
 処理部104は、このようにして抽出された領域34に対して認証処理を認証装置50に実行させる。
 <ハードウェア構成例>
 図5は、ゲート装置10を実現するコンピュータ1000のハードウエア構成を例示するブロック図である。
 コンピュータ1000は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060を有する。
 バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
 プロセッサ1020は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
 メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
 ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040はゲート装置10の各機能(例えば、取得部102、および処理部104、ならびに、後述する選択部106等)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能が実現される。また、ストレージデバイス1040は各種記憶部としても機能する。
 プログラムモジュールは、記録媒体に記録されてもよい。プログラムモジュールを記録する記録媒体は、非一時的な有形のコンピュータ1000が使用可能な媒体を含み、その媒体に、コンピュータ1000(プロセッサ1020)が読み取り可能なプログラムコードが埋め込まれていてもよい。
 入出力インタフェース1050は、ゲート装置10と各種入出力機器(例えば表示部22)とを接続するためのインタフェースである。
 ネットワークインタフェース1060は、ゲート装置10を通信ネットワーク3上の他の装置(例えば認証装置50)に接続するためのインタフェースである。ただしネットワークインタフェース1060は用いられないことも有る。
 ゲート装置10は、コンピュータ1000に、当該ゲート装置10を実現するためのプログラムをインストールして起動することで実現される。ゲート装置10を実現するコンピュータ1000は、例えば、カメラユニット20内および/または筐体14内に設けられてもよいし、カメラユニット20および筐体14とは別に設けられてもよい。さらに、後述する他の実施形態で本人確認が必要な複数の通路12が設けられている構成では、複数のカメラユニット20または複数組み(左右で1組み)の筐体14に対して少なくとも1つのゲート装置10を実現するコンピュータ1000を設ける構成としてもよい。あるいは、複数のコンピュータ1000を組み合わせてゲート装置10を実現してもよい。
<動作例>
 図6は、本実施形態のゲート装置10の動作例を示すフローチャートである。
 本フローは、ゲート装置10に設けられた人感センサ(不図示)によりゲート装置10への人の接近または進入を検知することで開始してもよいし、定期的に繰り返し実行されてもよい。
 まず、取得部102は、カメラ5が撮像した画像30を取得する(ステップS101)。画像30は、静止画でも動画でもよい。処理部104は、画像30から予め定められた領域32を除いて領域34を抽出する(ステップS103)。図3(a)の画像30に写っている3人の人物P1、P2、P3のうち、図3(b)の領域34には、人物P1のみが含まれている。そして、処理部104は、認証装置50に領域34に対して認証処理を実行させる(ステップS105)。
 次に、図7を用いて、ステップS105の認証処理について詳細に説明する。
 まず、処理部104は、ステップS103で抽出された領域34内の顔を検出する(ステップS201)。ここでは、人物P1の顔が検出される。そして、処理部104、検出された顔の領域を抽出し(ステップS203)、顔領域の特徴量を抽出する(ステップS205)。
 処理部104は、ステップS205で抽出された顔の特徴量を認証装置50に送信して認証処理を実行させる。
 認証装置50は、ゲート装置10から送信された顔の特徴量を、顔特徴量データベース(不図示)に記憶されている顔の特徴量と、を照合し(ステップS207)、照合結果をゲート装置10に送信する(ステップS209)。ゲート装置10は、照合結果を受信すると、その結果に基づいた処理を行う。本実施形態では、照合結果に基づく処理については特に規定しない。
 上記したように、ステップS205の処理、ステップS203~ステップS205の処理、またはステップS201~ステップS205の処理のいずれかは、認証装置50が行ってもよい。つまり、ゲート装置10は、認証装置50に、画像30からステップS103で抽出された領域34、ステップS201で抽出された顔の領域、および、ステップS203で抽出された顔領域の特徴量の少なくともいずれか一つを送信する構成としてもよい。
 認証装置50は、ゲート装置10から受信した画像30から抽出された領域34内の顔を検出してもよい(ステップS201)。ここでは、人物P1の顔が検出される。そして、認証装置50、検出された顔の領域を抽出し(ステップS203)、顔領域の特徴量を抽出してもよい(ステップS205)。
 顔特徴量データベースには、ゲートを通過する予定者の顔の特徴量が予め記憶されていてよい。顔特徴量データベースには、さらに、所謂ブラックリスト(犯罪者などの指名手配者など)またはホワイトリスト(要人など)等に含まれる人物の顔の特徴量が記憶されていてもよい。
 また、顔特徴量データベースに記憶される特徴量の中から、照合に用いる顔の特徴量を絞り込むために、ゲートを通過する直前(例えば、建物やフロアの入口、ゲートまでの経路の途中などの所定の場所、あるいは、ゲートの筐体14の入口側でもよい)に、利用者の識別情報を取得しておき、識別情報に対応付けられている顔の特徴量を顔特徴量データベースから取得してもよい。
 あるいは、ゲートを通過する手前、例えば、建物やフロアの入口、ゲートまでの経路の途中などの所定の場所で、利用者の顔を撮像しておき、当該撮像画像から抽出された顔の特徴量と照合する構成でもよい。この構成では、利用者が正規の経路でゲートに進入してきたか否かも判別できる。
 利用者の識別情報は、利用者を一意に特定できる情報であれば特に限定されないが、例えば、サービスの利用を行うためのユーザ登録を行う際に、利用者毎に発行された識別情報でもよいし、利用者が予め取得している識別情報を登録させたものでもよい。
 認証装置50が、利用者の識別情報を取得する方法は様々考えられるが、例えば、利用者の携帯端末にアプリケーションなどを用いて表示される識別情報を含む2次元コードや、事前に利用者に配布されているシートに印字された2次元コードを、2次元コード読取装置を用いて読み取ってもよいし、利用者が所持しているまたは事前に配布されたICタグやICカードなどから所定の読取装置を用いて識別情報を読み取ってもよい。
 以上説明したように、本実施形態によれば、取得部102によりカメラ5が撮像した画像30が取得され、処理部104により画像30のうち、予め定められた領域34に対して認証処理を認証装置50に実行させることができる。この構成により、カメラ5の撮像した画像30内に認証対象外の周囲の複数の人物が写り込んでしまっても、画像30から所定の領域32を除くことで、処理対象となる領域を狭めることができるので、認証対象となる人物を絞り込むことができる。
 既存の施設にゲート装置10を設置する場合、設置できるスペースが制限される場合がある。また、多くの人が利用する場所では、きちんと整列しないで通過しようとする場合や、停止線がなく、次々と人が通過していく場合も想定される。このようなケースでは、人の流れを停滞させないことも重要であり、処理速度も要求される。
 画像30内の人物を複数検出して、各々について認証対象者が否かの判別処理を画像認識処理などにより行う場合に比較して、本実施形態では、画像30から所定の領域32を除く処理を行うだけで認証対象者を絞り込むことができるので、処理負荷を低減できるので処理速度を速くすることができ、効率がよい。つまり、複雑な処理を行わずに単純な処理で認証対象者を絞り込むことができるので、処理負荷を低減しつつ、認証効率を向上させることができる。
(第2実施形態)
<機能構成例>
 図8は、本実施形態に係るゲート装置の機能構成例を示す機能ブロック図である。
 本実施形態のゲート装置10は、さらに、認証対象者を目間に基づいて選択する構成を有する点以外は、上記実施形態と同様である。
 ゲート装置10は、図4のゲート装置10の構成に、さらに、選択部106を備える。
 処理部104は、画像30内の人物のうち、目間が基準を満たす人物を認証対象として選択する。
 処理部104は、画像処理により、画像30の領域34内の人物の目を認識し、各人物の両目の黒目の中心と中心の間の距離(以後、「目間」と呼ぶ)を求める。選択部106は、はじめに、目間が基準値以上の人物を選択する。次に、選択部106は、選択された人物の中から目間が最大の人物を選択する。このようにして選択された人物が、基準を満たす、認証対象者として選択される。
 具体的には、画像30は、解像度1080ピクセル×1920ピクセルの場合、目間の基準値は、画像30の水平方向の60ピクセル以上とする。基準値は、画像30のサイズや解像度、カメラ5と通路12を通る認証対象者との焦点距離、およびカメラ5の撮影条件などに基づいて予め設定される。
<動作例>
 図9は、本実施形態のゲート装置10の動作例の一部を示すフローチャートである。本実施形態のフローは、第1実施形態のゲート装置10の図7の動作フローのステップS201とステップS203の間に実行される。
 上記実施形態のゲート装置10と同様に取得部102が取得した画像30から領域34から検出された顔の顔領域が抽出された(ステップS201)後、処理部104は、画像処理により、各人物の顔領域の目を認識し、各人物の目間を算出する(ステップS301)。図10(a)では、各人物P1、P2、P3の目間がL1、L2、L3(ただし、L1>L2>60ピクセル>L3)と算出されたとする。
 そして、選択部106は、ステップS301で算出された目間が基準値(この例では、画像30の水平方向の60ピクセル)以上の人物を選択する(ステップS303)。この例では、図10(a)で丸が記載されている人物P1とP2が選択される。
 さらに、ステップS303では、選択部106は複数の人物が選択された場合、目間が最大の人物を選択する(ステップS305)。図10(a)の例では、2人の人物が選択されたので、人物P1と人物P2の中から目間が最大(L1)の人物P1が選択される。図10(b)の例では丸が記載されている人物P1が選択される。そして、図7のステップS203に戻る。
 図7では、処理部104は、ステップS305で選択された人物P1の顔領域を抽出し(ステップS203)、顔領域の特徴量を抽出する(ステップS205)。処理部104は、抽出された特徴量を認証装置50に送信して認証処理を実行させる(ステップS207、209)。そして、処理部104は、認証装置50から照合結果を受信する。
 上記の本実施形態によれば、選択部106により領域34内の複数の人物の目間が基準以上で、かつ、最大である人物が選択されて、選択された人物について認証装置50に認証処理させるので、領域34内に複数の人物が存在しても、認証対象者を絞り込むことができる。既に領域34に画像30が狭められた範囲で処理されるので、目間を求める人数も低減できるので、処理負荷を低減でき、効率がよい。つまり、複雑な処理を行わずに単純な処理で認証対象者を絞り込むことができるので、処理負荷を低減しつつ、認証効率を向上させることができる。
(第3実施形態)
 本実施形態のゲート装置10は、上記実施形態とは、2台のカメラ5aおよび5bの撮像画像を用いる点以外は上記した第1実施形態または第2実施形態と同様である。
 図11は、カメラユニット20の正面図である。カメラユニット20は、その筐体の前面20aの中央に表示部22と、2台のカメラ5a、5bとを有している。2台のカメラ5a、5bは、異なる高さに設置されている。表示部22は、通路12を通る人がカメラユニット20の前面に向き合ったときにちょうど見える高さに配置されるのが好ましい。例えば、成人の平均的な身長から表示部22を設置する高さを決めてもよい。2台のカメラ5aおよびカメラ5bは、表示部22の上下に設けられている。
 図12(a)は、人物の顔を上方から撮像する位置に設置されたカメラ5a(第1の撮像手段)を用いて人物を撮像した様子を示している。図13(a)は、人物の顔を下方から撮像する位置に設置されたカメラ5b(第2の撮像手段)を用いて人物を撮像した様子を示している。
 取得部102は、人物を上方から撮像するカメラ5aが撮像した第1画像30を取得する。処理部104は、第1画像30のうち、本人確認の対象となる背丈の人物の顔が含まれる範囲を少なくとも含む領域に対して、認証処理を認証装置50に実行させる。
 例えば、本人確認の対象となる背丈は110cm~190cmであるが、これに限定されない。
 図12(b)の例では、第1画像30のうち、背丈が110cmの人物の顔が含まれる範囲34aを認証処理の対象領域としている。この例では、第1画像30の下端を含む、背丈の110cmの人物の顔の下(顎の下)までの範囲(領域32)が除かれている。例えば、高精細フルハイビジョン解像度1080ピクセル×1920ピクセルの画像において、第1画像30の下端から130ピクセルの範囲(領域32)を除く。
 他の例では、背丈が190cmの人物の顔より上の領域はマスク領域としてもよい。
 さらに、取得部102は、人物を下方から撮像するカメラ5bが撮像した第2画像40を取得する。処理部104は、第2画像40のうち、上端から下方に向かって少なくとも10%の範囲を除いた領域に対して、認証処理を認証装置50に実行させる。
 図13(b)の例では、第2画像40のうち、第2画像40の上端から下方に向かって少なくとも10%の範囲(領域42)を除いた領域44aを認証処理の対象領域としている。例えば、高精細フルハイビジョン解像度1080ピクセル×1920ピクセルの画像において、第2画像40の上端から192ピクセルの範囲を除く。これは、下方から顔を撮像すると画像30の上側に含まれる顔は歪むため、認証処理対象の領域が除外するためである。
 あるいは、処理部104は、第1画像30のうち、少なくとも上端を含む一部分を除いた領域に対して、認証処理を認証装置50に実行させてもよい。さらに、処理部104は、第2画像40のうち、少なくとも下端を含む一部分を除いた領域に対して、認証処理を認証装置50に実行させてもよい。
 また、処理部104は、第1画像30と第2画像40の少なくとも重複領域に対して認証処理を認証装置50に実行させてもよい。
 第1画像30と第2画像40の重複領域は、例えば、図12(c)の第1画像30では、領域34bであり、図13(c)の第2画像40では、領域44bである。
 つまり、処理部104は、第1画像30について、図12(c)の領域34bを抽出して認証処理の対象領域とし、第2画像40については、図13(c)の領域44bを抽出して認証処理の対象領域としてよい。
 認証装置50は、第1画像30および第2画像40から抽出された各々の領域について認証処理を行ってもよいし、少なくとも一方の領域について認証処理を行ってもよい。
 さらに、図14(b)に示すように、第1画像30と第2画像40の重複領域を、第1画像30から抽出した領域34bに対して、さらに、図14(c)に示すように、背丈制限(110cm)に対応する領域32を除いた領域34cを認証対象の領域としてもよい。さらに、図14(b)に示すように、第1画像30と第2画像40の重複領域を、第2画像40から抽出した領域44bに対して、さらに、図14(c)に示すように、上端から下方に向かって10%の領域42を除いた領域44cを認証対象の領域としてもよい。
 また、本実施形態において、第2実施形態の選択部106を有する構成としてもよい。つまり、処理部104によって絞り込まれた領域34cおよび領域44cにおいて、さらに、各領域に含まれる人物の目間を算出して、算出された目間に基づいて、認証対象となる人物を選択してもよい。
 本実施形態によれば、2つのカメラ5を用いて撮像された各画像について、処理部104により、それぞれ予め定められた領域を除くことで、予め定められた領域を認証処理の対象領域とすることができる。
 このように複雑な処理を行わずに、画像30を予め定められた領域に狭めるだけの単純な処理で認証対象者を絞り込むことができるので、処理負荷を低減しつつ、認証効率を向上させることができる。
 以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。例えば、筐体14や開閉フラップ扉を備えず、少なくともカメラ5と表示部22を備えるゲート装置においても、本発明を適用することができる。つまり、筐体14などで区画されてない人が通過する通路12において、カメラユニット20は、各通路12の側方に配置された所定の設置台の上に設けられてもよい。少なくとも一つの通路12が筐体14で区切られておらず、多くの人が利用する場合に、より多くの人が画像30に映り込む可能性がある。本発明のゲート装置10は、認証対象者を絞り込むことができるので、このような場合に、より有効である。
 また、通路12は複数並列に配置されていてもよい。図15は、複数の通路12が並列に配置されている様子を示している。この例では、例えば、認証対象となる人物P1の撮像画像30に、認証対象ではない、後続する人物P2、P3や、他の通路12の人物P5が複数人含まれる可能性がある。しかし、本実施形態によれば、カメラ5に認証対象とする領域を予め定めておくことで、複数の通路12が並列に設置されている場合であっても、認証対象領域を狭めることができる。これにより、複雑な処理を行わずに単純な処理で認証対象者を絞り込むことができる。
 なお、領域34の設定は、カメラ5毎に行ってもよいし、複数のカメラ5について同じ設定としてもよいし、グループ分けをして設定してもよい。各ゲート装置10を管理する管理者が使用する端末(不図示)を用いて設定画面から設定を受け付けてもよいし、ゲート装置10を実現するコンピュータ1000がディスプレイに接続されており、ディスプレイに設定画面を表示させて設定操作を受け付けてもよい。
 図16は、複数のゲート装置10が並列に配置され、複数の通路12を複数の人物P1~P4が通過している様子を示している。ゲート装置10の処理部104により、画像30から上部の領域32を除いた領域34には、複数の人物P1~P4のうち、当該画像30において認証対象者となる人物P1のみが含まれていることが分かる。
 この実施形態によれば、複数のカメラユニット20から送信される画像の各々について、認証対象の領域が狭められて認証対象者が絞り込まれているので、複数の画像の認証処理を行う認証装置50の処理負荷が低減される。
 さらに、管理者が使用する端末またはゲート装置10は、領域設定用のアプリケーションにより実現される領域設定手段(不図示)をさらに有してもよい。領域設定手段は、カメラ5の画像を取得し、端末またはゲート装置10のディスプレイに画面表示させる表示処理部(不図示)と、カメラ5の前の認証対象者の立ち位置に人を立たせた状態で、画面に表示される画像内の当該人の顔や認証対象となる生体情報が取得できる領域34、または、除外してよい領域32を、画面上でGUI(Graphical User Interface)を用いた指定を受け付ける受付部(不図示)とを有してよい。
 この構成によれば、カメラ5の設置位置(高さや向き)や通路12の幅や距離などによって変化する領域の指定を、実際の使用環境に応じて適切にかつ容易に行うことが可能になる。
 端末を用いた場合は端末の領域設定手段で指定された領域の設定情報をゲート装置10に入力して、後述するゲート装置10を実現するコンピュータ1000のメモリ1030またはストレージデバイス1040に記憶させてよい。あるいは、ゲート装置10を用いた場合は領域設定手段の受付部が受け付けた領域を、後述するゲート装置10を実現するコンピュータ1000のメモリ1030またはストレージデバイス1040に記憶させてもよい。
 領域の指定は、画像30に対するトリミング位置で示されてよい。トリミング位置は、画像30の上端から下方向への距離(ピクセル数またはパーセンテージ)、画像30の下端から上方向への距離(ピクセル数またはパーセンテージ)、画像30の左端から右方向への距離(ピクセル数またはパーセンテージ)、および画像30の右端から左方向への距離(ピクセル数またはパーセンテージ)の少なくともいずれか一つが指定されてよい。
 ゲート装置10の処理部104は、記憶された領域34または領域32の設定を用いて画像30を処理することができる。
 以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 なお、本発明において利用者に関する情報を取得、利用する場合は、これを適法に行うものとする。
 上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1. 本人確認が必要な人物が通過する通路の側方に設けられている撮像手段が撮像した画像を取得する取得手段と、
 取得した前記画像のうち、予め定められた領域に対して認証処理を認証手段に実行させる処理手段と、を備える、
ゲート装置。
2. 1.に記載のゲート装置において、
 前記画像内の人物のうち、目間が基準を満たす人物を認証対象として選択する選択手段をさらに備える、ゲート装置。
3. 1.または2.に記載のゲート装置において、
 前記取得手段は、人物を上方から撮像する第1の撮像手段が撮像した第1画像を取得し、
 前記処理手段は、前記第1画像のうち、本人確認の対象となる背丈の人物の顔が含まれる範囲を少なくとも含む領域に対して、前記認証処理を前記認証手段に実行させる、ゲート装置。
4. 1.から3.のいずれか一つに記載のゲート装置において、
 前記取得手段は、人物を下方から撮像する第2の撮像手段が撮像した第2画像を取得し、
 前記処理手段は、前記第2画像のうち、上端から下方に向かって少なくとも10%の範囲を除いた領域に対して、前記認証処理を前記認証手段に実行させる、ゲート装置。
5. 1.から4.のいずれか一つに記載のゲート装置において、
 前記取得手段は、人物を上方から撮像する第1の撮像手段が撮像した第1画像を取得し、
 前記処理手段は、前記第1画像のうち、少なくとも上端を含む一部分を除いた領域に対して、前記認証処理を前記認証手段に実行させる、ゲート装置。
6. 1.から5.のいずれか一つに記載のゲート装置において、
 前記取得手段は、人物を下方から撮像する第2の撮像手段が撮像した第2画像を取得し、
 前記処理手段は、前記第2画像のうち、少なくとも下端を含む一部分を除いた領域に対して、前記認証処理を前記認証手段に実行させる、ゲート装置。
7. 6.に記載のゲート装置において、
 前記処理手段は、前記第1画像と前記第2画像の少なくとも重複領域に対して前記認証処理を前記認証手段に実行させる、ゲート装置。
8. 1.から7.のいずれか一つに記載のゲート装置を複数並列に配置するゲート装置の配置方法。
9. 本人確認が必要な人物が通過する通路の側方に設けられているカメラと、
 認証装置と、
 ゲート装置と、を備え、
 前記ゲート装置は、
 前記カメラが撮像した画像を取得する取得手段と、
 取得した前記画像のうち、予め定められた領域に対して認証処理を前記認証装置に実行させる処理手段と、を有する、ゲートシステム。
10. 9.に記載のゲートシステムにおいて、
 前記ゲート装置は、
 前記画像内の人物のうち、目間が基準を満たす人物を認証対象として選択する選択手段をさらに備える、ゲートシステム。
11. 9.または10.に記載のゲートシステムにおいて、
 前記ゲート装置において、
 前記取得手段は、人物を上方から撮像する第1の撮像手段が撮像した第1画像を取得し、
 前記処理手段は、前記第1画像のうち、本人確認の対象となる背丈の人物の顔が含まれる範囲を少なくとも含む領域に対して、前記認証処理を前記認証装置に実行させる、ゲートシステム。
12. 9.から11.のいずれか一つに記載のゲートシステムにおいて、
 前記ゲート装置において、
 前記取得手段は、人物を下方から撮像する第2の撮像手段が撮像した第2画像を取得し、
 前記処理手段は、前記第2画像のうち、上端から下方に向かって少なくとも10%の範囲を除いた領域に対して、前記認証処理を前記認証装置に実行させる、ゲートシステム。
13. 9.から12.のいずれか一つに記載のゲートシステムにおいて、
 前記ゲート装置において、
 前記取得手段は、人物を上方から撮像する第1の撮像手段が撮像した第1画像を取得し、
 前記処理手段は、前記第1画像のうち、少なくとも上端を含む一部分を除いた領域に対して、前記認証処理を前記認証装置に実行させる、ゲートシステム。
14. 9.から13.のいずれか一つに記載のゲートシステムにおいて、
 前記ゲート装置において、
 前記取得手段は、人物を下方から撮像する第2の撮像手段が撮像した第2画像を取得し、
 前記処理手段は、前記第2画像のうち、少なくとも下端を含む一部分を除いた領域に対して、前記認証処理を前記認証装置に実行させる、ゲートシステム。
15. 14.に記載のゲートシステムにおいて、
 前記ゲート装置において、
 前記処理手段は、前記第1画像と前記第2画像の少なくとも重複領域に対して前記認証処理を前記認証装置に実行させる、ゲートシステム。
16. 9.から15.のいずれか一つに記載のゲートシステムにおいて、
 並列に配置される複数の前記ゲート装置を備える、ゲートシステム。
17. ゲート装置が、
 本人確認が必要な人物が通過する通路の側方に設けられている撮像手段が撮像した画像を取得し、
 取得した前記画像のうち、予め定められた領域に対して認証処理を認証手段に実行させる、ゲート装置の画像処理方法。
18. 17.に記載のゲート装置の画像処理方法において、
 前記ゲート装置が、さらに、
 前記画像内の人物のうち、目間が基準を満たす人物を認証対象として選択する、ゲート装置の画像処理方法。
19. 17.または18.に記載のゲート装置の画像処理方法において、
 前記ゲート装置が、
 人物を上方から撮像する第1の撮像手段が撮像した第1画像を取得し、
 前記第1画像のうち、本人確認の対象となる背丈の人物の顔が含まれる範囲を少なくとも含む領域に対して、前記認証処理を前記認証手段に実行させる、ゲート装置の画像処理方法。
20. 17.から19.のいずれか一つに記載のゲート装置の画像処理方法において、
 前記ゲート装置が、
 人物を下方から撮像する第2の撮像手段が撮像した第2画像を取得し、
 前記第2画像のうち、上端から下方に向かって少なくとも10%の範囲を除いた領域に対して、前記認証処理を前記認証手段に実行させる、ゲート装置の画像処理方法。
21. 17.から20.のいずれか一つに記載のゲート装置の画像処理方法において、
 前記ゲート装置が、
 人物を上方から撮像する第1の撮像手段が撮像した第1画像を取得し、
 前記第1画像のうち、少なくとも上端を含む一部分を除いた領域に対して、前記認証処理を前記認証手段に実行させる、ゲート装置の画像処理方法。
22. 17.から21.のいずれか一つに記載のゲート装置の画像処理方法において、
 前記ゲート装置が、
 人物を下方から撮像する第2の撮像手段が撮像した第2画像を取得し、
 前記第2画像のうち、少なくとも下端を含む一部分を除いた領域に対して、前記認証処理を前記認証手段に実行させる、ゲート装置の画像処理方法。
23. 22.に記載のゲート装置の画像処理方法において、
 前記ゲート装置が、
 前記第1画像と前記第2画像の少なくとも重複領域に対して前記認証処理を前記認証手段に実行させる、ゲート装置の画像処理方法。
24. コンピュータに、
 本人確認が必要な人物が通過する通路の側方に設けられている撮像手段が撮像した画像を取得する手順、
 取得した前記画像のうち、予め定められた領域に対して認証処理を認証手段に実行させる手順、を実行させるためのプログラム。
25. 24.に記載のプログラムにおいて、
 前記画像内の人物のうち、目間が基準を満たす人物を認証対象として選択する手順、をさらにコンピュータに実行させるためのプログラム。
26. 24.または25.に記載のプログラムにおいて、
 人物を上方から撮像する第1の撮像手段が撮像した第1画像を取得する手順、
 前記第1画像のうち、本人確認の対象となる背丈の人物の顔が含まれる範囲を少なくとも含む領域に対して、前記認証処理を前記認証手段に実行させる手順、をさらにコンピュータに実行させるためのプログラム。
27. 24.から26.のいずれか一つに記載のプログラムにおいて、
 人物を下方から撮像する第2の撮像手段が撮像した第2画像を取得する手順、
 前記第2画像のうち、上端から下方に向かって少なくとも10%の範囲を除いた領域に対して、前記認証処理を前記認証手段に実行させる手順、をさらにコンピュータに実行させるためのプログラム。
28. 24.から27.のいずれか一つに記載のプログラムにおいて、
 人物を上方から撮像する第1の撮像手段が撮像した第1画像を取得する手順、
 前記第1画像のうち、少なくとも上端を含む一部分を除いた領域に対して、前記認証処理を前記認証手段に実行させる手順、をさらにコンピュータに実行させるためのプログラム。
29. 24.から28.のいずれか一つに記載のプログラムにおいて、
 人物を下方から撮像する第2の撮像手段が撮像した第2画像を取得、
 前記第2画像のうち、少なくとも下端を含む一部分を除いた領域に対して、前記認証処理を前記認証手段に実行させる手順、をさらにコンピュータに実行させるためのプログラム。
30. 29.に記載のプログラムにおいて、
 前記第1画像と前記第2画像の少なくとも重複領域に対して前記認証処理を前記認証手段に実行させる手順、をさらにコンピュータに実行させるためのプログラム。
1 ゲートシステム
3 通信ネットワーク
5、5a、5b カメラ
10 ゲート装置
12 通路
14 筐体
20 カメラユニット
20a 前面
22 表示部
30 画像、第1画像
40 第2画像
50 認証装置
102 取得部
104 処理部
106 選択部
1000 コンピュータ
1010 バス
1020 プロセッサ
1030 メモリ
1040 ストレージデバイス
1050 入出力インタフェース
1060 ネットワークインタフェース

Claims (30)

  1.  本人確認が必要な人物が通過する通路の側方に設けられている撮像手段が撮像した画像を取得する取得手段と、
     取得した前記画像のうち、予め定められた領域に対して認証処理を認証手段に実行させる処理手段と、を備える、
    ゲート装置。
  2.  請求項1に記載のゲート装置において、
     前記画像内の人物のうち、目間が基準を満たす人物を認証対象として選択する選択手段をさらに備える、ゲート装置。
  3.  請求項1または2に記載のゲート装置において、
     前記取得手段は、人物を上方から撮像する第1の撮像手段が撮像した第1画像を取得し、
     前記処理手段は、前記第1画像のうち、本人確認の対象となる背丈の人物の顔が含まれる範囲を少なくとも含む領域に対して、前記認証処理を前記認証手段に実行させる、ゲート装置。
  4.  請求項1から3のいずれか一項に記載のゲート装置において、
     前記取得手段は、人物を下方から撮像する第2の撮像手段が撮像した第2画像を取得し、
     前記処理手段は、前記第2画像のうち、上端から下方に向かって少なくとも10%の範囲を除いた領域に対して、前記認証処理を前記認証手段に実行させる、ゲート装置。
  5.  請求項1から4のいずれか一項に記載のゲート装置において、
     前記取得手段は、人物を上方から撮像する第1の撮像手段が撮像した第1画像を取得し、
     前記処理手段は、前記第1画像のうち、少なくとも上端を含む一部分を除いた領域に対して、前記認証処理を前記認証手段に実行させる、ゲート装置。
  6.  請求項1から5のいずれか一項に記載のゲート装置において、
     前記取得手段は、人物を下方から撮像する第2の撮像手段が撮像した第2画像を取得し、
     前記処理手段は、前記第2画像のうち、少なくとも下端を含む一部分を除いた領域に対して、前記認証処理を前記認証手段に実行させる、ゲート装置。
  7.  請求項6に記載のゲート装置において、
     前記処理手段は、前記第1画像と前記第2画像の少なくとも重複領域に対して前記認証処理を前記認証手段に実行させる、ゲート装置。
  8.  請求項1から7のいずれか一項に記載のゲート装置を複数並列に配置するゲート装置の配置方法。
  9.  本人確認が必要な人物が通過する通路の側方に設けられているカメラと、
     認証装置と、
     ゲート装置と、を備え、
     前記ゲート装置は、
     前記カメラが撮像した画像を取得する取得手段と、
     取得した前記画像のうち、予め定められた領域に対して認証処理を前記認証装置に実行させる処理手段と、を有する、ゲートシステム。
  10.  請求項9に記載のゲートシステムにおいて、
     前記ゲート装置は、
     前記画像内の人物のうち、目間が基準を満たす人物を認証対象として選択する選択手段をさらに備える、ゲートシステム。
  11.  請求項9または10に記載のゲートシステムにおいて、
     前記ゲート装置において、
     前記取得手段は、人物を上方から撮像する第1の撮像手段が撮像した第1画像を取得し、
     前記処理手段は、前記第1画像のうち、本人確認の対象となる背丈の人物の顔が含まれる範囲を少なくとも含む領域に対して、前記認証処理を前記認証装置に実行させる、ゲートシステム。
  12.  請求項9から11のいずれか一項に記載のゲートシステムにおいて、
     前記ゲート装置において、
     前記取得手段は、人物を下方から撮像する第2の撮像手段が撮像した第2画像を取得し、
     前記処理手段は、前記第2画像のうち、上端から下方に向かって少なくとも10%の範囲を除いた領域に対して、前記認証処理を前記認証装置に実行させる、ゲートシステム。
  13.  請求項9から12のいずれか一項に記載のゲートシステムにおいて、
     前記ゲート装置において、
     前記取得手段は、人物を上方から撮像する第1の撮像手段が撮像した第1画像を取得し、
     前記処理手段は、前記第1画像のうち、少なくとも上端を含む一部分を除いた領域に対して、前記認証処理を前記認証装置に実行させる、ゲートシステム。
  14.  請求項9から13のいずれか一項に記載のゲートシステムにおいて、
     前記ゲート装置において、
     前記取得手段は、人物を下方から撮像する第2の撮像手段が撮像した第2画像を取得し、
     前記処理手段は、前記第2画像のうち、少なくとも下端を含む一部分を除いた領域に対して、前記認証処理を前記認証装置に実行させる、ゲートシステム。
  15.  請求項14に記載のゲートシステムにおいて、
     前記ゲート装置において、
     前記処理手段は、前記第1画像と前記第2画像の少なくとも重複領域に対して前記認証処理を前記認証装置に実行させる、ゲートシステム。
  16.  請求項9から15のいずれか一項に記載のゲートシステムにおいて、
     並列に配置される複数の前記ゲート装置を備える、ゲートシステム。
  17.  ゲート装置が、
     本人確認が必要な人物が通過する通路の側方に設けられている撮像手段が撮像した画像を取得し、
     取得した前記画像のうち、予め定められた領域に対して認証処理を認証手段に実行させる、ゲート装置の画像処理方法。
  18.  請求項17に記載のゲート装置の画像処理方法において、
     前記ゲート装置が、さらに、
     前記画像内の人物のうち、目間が基準を満たす人物を認証対象として選択する、ゲート装置の画像処理方法。
  19.  請求項17または18に記載のゲート装置の画像処理方法において、
     前記ゲート装置が、
     人物を上方から撮像する第1の撮像手段が撮像した第1画像を取得し、
     前記第1画像のうち、本人確認の対象となる背丈の人物の顔が含まれる範囲を少なくとも含む領域に対して、前記認証処理を前記認証手段に実行させる、ゲート装置の画像処理方法。
  20.  請求項17から19のいずれか一項に記載のゲート装置の画像処理方法において、
     前記ゲート装置が、
     人物を下方から撮像する第2の撮像手段が撮像した第2画像を取得し、
     前記第2画像のうち、上端から下方に向かって少なくとも10%の範囲を除いた領域に対して、前記認証処理を前記認証手段に実行させる、ゲート装置の画像処理方法。
  21.  請求項17から20のいずれか一項に記載のゲート装置の画像処理方法において、
     前記ゲート装置が、
     人物を上方から撮像する第1の撮像手段が撮像した第1画像を取得し、
     前記第1画像のうち、少なくとも上端を含む一部分を除いた領域に対して、前記認証処理を前記認証手段に実行させる、ゲート装置の画像処理方法。
  22.  請求項17から21のいずれか一項に記載のゲート装置の画像処理方法において、
     前記ゲート装置が、
     人物を下方から撮像する第2の撮像手段が撮像した第2画像を取得し、
     前記第2画像のうち、少なくとも下端を含む一部分を除いた領域に対して、前記認証処理を前記認証手段に実行させる、ゲート装置の画像処理方法。
  23.  請求項22に記載のゲート装置の画像処理方法において、
     前記ゲート装置が、
     前記第1画像と前記第2画像の少なくとも重複領域に対して前記認証処理を前記認証手段に実行させる、ゲート装置の画像処理方法。
  24.  コンピュータに、
     本人確認が必要な人物が通過する通路の側方に設けられている撮像手段が撮像した画像を取得する手順、
     取得した前記画像のうち、予め定められた領域に対して認証処理を認証手段に実行させる手順、を実行させるためのプログラム。
  25.  請求項24に記載のプログラムにおいて、
     前記画像内の人物のうち、目間が基準を満たす人物を認証対象として選択する手順、をさらにコンピュータに実行させるためのプログラム。
  26.  請求項24または25に記載のプログラムにおいて、
     人物を上方から撮像する第1の撮像手段が撮像した第1画像を取得する手順、
     前記第1画像のうち、本人確認の対象となる背丈の人物の顔が含まれる範囲を少なくとも含む領域に対して、前記認証処理を前記認証手段に実行させる手順、をさらにコンピュータに実行させるためのプログラム。
  27.  請求項24から26のいずれか一項に記載のプログラムにおいて、
     人物を下方から撮像する第2の撮像手段が撮像した第2画像を取得する手順、
     前記第2画像のうち、上端から下方に向かって少なくとも10%の範囲を除いた領域に対して、前記認証処理を前記認証手段に実行させる手順、をさらにコンピュータに実行させるためのプログラム。
  28.  請求項24から27のいずれか一項に記載のプログラムにおいて、
     人物を上方から撮像する第1の撮像手段が撮像した第1画像を取得する手順、
     前記第1画像のうち、少なくとも上端を含む一部分を除いた領域に対して、前記認証処理を前記認証手段に実行させる手順、をさらにコンピュータに実行させるためのプログラム。
  29.  請求項24から28のいずれか一項に記載のプログラムにおいて、
     人物を下方から撮像する第2の撮像手段が撮像した第2画像を取得、
     前記第2画像のうち、少なくとも下端を含む一部分を除いた領域に対して、前記認証処理を前記認証手段に実行させる手順、をさらにコンピュータに実行させるためのプログラム。
  30.  請求項29に記載のプログラムにおいて、
     前記第1画像と前記第2画像の少なくとも重複領域に対して前記認証処理を前記認証手段に実行させる手順、をさらにコンピュータに実行させるためのプログラム。
PCT/JP2020/011790 2020-03-17 2020-03-17 ゲートシステム、ゲート装置、その画像処理方法、およびプログラム、ならびに、ゲート装置の配置方法 WO2021186576A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US17/800,642 US20230342442A1 (en) 2020-03-17 2020-03-17 Gate system, gate apparatus, and image processing method therefor
JP2022508675A JP7424469B2 (ja) 2020-03-17 2020-03-17 ゲートシステム、ゲート装置、その画像処理方法、およびプログラム、ならびに、ゲート装置の配置方法
EP20926125.4A EP4124029A4 (en) 2020-03-17 2020-03-17 DOOR SYSTEM, DOOR DEVICE, RELATED IMAGE PROCESSING METHOD, PROGRAM, AND LAYOUT METHOD FOR DOOR DEVICE
PCT/JP2020/011790 WO2021186576A1 (ja) 2020-03-17 2020-03-17 ゲートシステム、ゲート装置、その画像処理方法、およびプログラム、ならびに、ゲート装置の配置方法
AU2020435735A AU2020435735B2 (en) 2020-03-17 2020-03-17 Gate system, gate apparatus, image processing method therefor, program, and arrangement method for gate apparatus
AU2024201525A AU2024201525B2 (en) 2020-03-17 2024-03-07 Gate system, gate apparatus, image processing method therefor, program, and arrangement method for gate apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/011790 WO2021186576A1 (ja) 2020-03-17 2020-03-17 ゲートシステム、ゲート装置、その画像処理方法、およびプログラム、ならびに、ゲート装置の配置方法

Publications (1)

Publication Number Publication Date
WO2021186576A1 true WO2021186576A1 (ja) 2021-09-23

Family

ID=77770957

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/011790 WO2021186576A1 (ja) 2020-03-17 2020-03-17 ゲートシステム、ゲート装置、その画像処理方法、およびプログラム、ならびに、ゲート装置の配置方法

Country Status (5)

Country Link
US (1) US20230342442A1 (ja)
EP (1) EP4124029A4 (ja)
JP (1) JP7424469B2 (ja)
AU (2) AU2020435735B2 (ja)
WO (1) WO2021186576A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158679A (ja) 2006-12-21 2008-07-10 Toshiba Corp 人物認証システムおよび人物認証方法
JP2012104964A (ja) * 2010-11-08 2012-05-31 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2013051477A (ja) 2011-08-30 2013-03-14 Hitachi Ltd 映像監視装置、映像監視方法およびプログラム
WO2018181968A1 (ja) 2017-03-31 2018-10-04 日本電気株式会社 顔認証システム、装置、方法、プログラム
JP2019053675A (ja) * 2017-09-19 2019-04-04 日本電気株式会社 照合システム
JP2019053674A (ja) * 2017-09-19 2019-04-04 日本電気株式会社 照合システム
JP2019197426A (ja) * 2018-05-10 2019-11-14 パナソニックIpマネジメント株式会社 顔認証装置、顔認証方法および顔認証システム
JP2019219721A (ja) * 2018-06-15 2019-12-26 パナソニック株式会社 入退室認証システムおよび入退室認証方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110390229B (zh) * 2018-04-20 2022-03-04 杭州海康威视数字技术股份有限公司 一种人脸图片筛选方法、装置、电子设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158679A (ja) 2006-12-21 2008-07-10 Toshiba Corp 人物認証システムおよび人物認証方法
JP2012104964A (ja) * 2010-11-08 2012-05-31 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2013051477A (ja) 2011-08-30 2013-03-14 Hitachi Ltd 映像監視装置、映像監視方法およびプログラム
WO2018181968A1 (ja) 2017-03-31 2018-10-04 日本電気株式会社 顔認証システム、装置、方法、プログラム
JP2019053675A (ja) * 2017-09-19 2019-04-04 日本電気株式会社 照合システム
JP2019053674A (ja) * 2017-09-19 2019-04-04 日本電気株式会社 照合システム
JP2019197426A (ja) * 2018-05-10 2019-11-14 パナソニックIpマネジメント株式会社 顔認証装置、顔認証方法および顔認証システム
JP2019219721A (ja) * 2018-06-15 2019-12-26 パナソニック株式会社 入退室認証システムおよび入退室認証方法

Also Published As

Publication number Publication date
US20230342442A1 (en) 2023-10-26
JP7424469B2 (ja) 2024-01-30
EP4124029A4 (en) 2023-04-05
AU2020435735B2 (en) 2024-03-21
AU2020435735A1 (en) 2022-08-25
EP4124029A1 (en) 2023-01-25
JPWO2021186576A1 (ja) 2021-09-23
AU2024201525A1 (en) 2024-03-28
AU2024201525B2 (en) 2024-04-04

Similar Documents

Publication Publication Date Title
JP6787391B2 (ja) 顔照合システム、顔照合方法、及びプログラム
US9886640B1 (en) Method and apparatus to identify a live face image using a thermal radiation sensor and a visual radiation sensor
JP6409929B1 (ja) 照合システム
US11256902B2 (en) People-credentials comparison authentication method, system and camera
Carlos-Roca et al. Facial recognition application for border control
JP2022040245A (ja) 顔照合システム、顔照合装置、顔照合方法、及び記録媒体
US20210006558A1 (en) Method, apparatus and system for performing authentication using face recognition
US10970953B2 (en) Face authentication based smart access control system
JP2019057815A (ja) 監視システム
WO2021156996A1 (ja) ゲートシステム、ゲート装置、その制御方法、およびプログラム
Labati et al. Advanced design of automated border control gates: biometric system techniques and research trends
CN114387548A (zh) 视频及活体检测方法、系统、设备、存储介质及程序产品
WO2021166289A1 (ja) データ登録装置、生体認証装置、および記録媒体
CN110892412B (zh) 脸部辨识系统、脸部辨识方法及脸部辨识程序
WO2021186576A1 (ja) ゲートシステム、ゲート装置、その画像処理方法、およびプログラム、ならびに、ゲート装置の配置方法
JP2023075227A (ja) 情報処理装置、及び、情報処理方法
WO2019229910A1 (ja) 顔認証を用いた入国審査システム、入国審査方法、プログラム、および認証装置
JP7468779B2 (ja) 情報処理装置、情報処理方法、及び記憶媒体
CN113744443B (zh) 一种闸机通道防欺骗控制方法、装置、设备及存储介质
JP2018169943A (ja) 顔認証処理装置、顔認証処理方法及び顔認証処理システム
JP7485042B2 (ja) 情報処理装置、顔認証促進システム、情報処理方法、プログラム
WO2022018792A1 (ja) 情報処理装置、顔認証促進システム、情報処理方法、プログラムが記憶された非一時的なコンピュータ可読媒体
WO2024004200A1 (ja) 改札システム、情報処理方法、および記録媒体
JP7379213B2 (ja) 画像照合装置
WO2023145059A1 (ja) 入場管理装置、入場管理方法およびプログラム記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20926125

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020435735

Country of ref document: AU

Date of ref document: 20200317

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2022508675

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020926125

Country of ref document: EP

Effective date: 20221017