WO2019058801A1 - 照合システム - Google Patents

照合システム Download PDF

Info

Publication number
WO2019058801A1
WO2019058801A1 PCT/JP2018/029807 JP2018029807W WO2019058801A1 WO 2019058801 A1 WO2019058801 A1 WO 2019058801A1 JP 2018029807 W JP2018029807 W JP 2018029807W WO 2019058801 A1 WO2019058801 A1 WO 2019058801A1
Authority
WO
WIPO (PCT)
Prior art keywords
gate
image corresponding
area
photographed image
person
Prior art date
Application number
PCT/JP2018/029807
Other languages
English (en)
French (fr)
Inventor
剛人 古地
謙志 斉藤
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to AU2018336236A priority Critical patent/AU2018336236B2/en
Priority to US16/645,821 priority patent/US11295116B2/en
Priority to BR112020003661-7A priority patent/BR112020003661A2/pt
Priority to EP18858639.0A priority patent/EP3686838A4/en
Priority to SG11202001408PA priority patent/SG11202001408PA/en
Publication of WO2019058801A1 publication Critical patent/WO2019058801A1/ja
Priority to US17/683,634 priority patent/US11978295B2/en
Priority to US18/209,882 priority patent/US20230326276A1/en
Priority to US18/214,253 priority patent/US20230334928A1/en
Priority to US18/214,266 priority patent/US20230343160A1/en

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/10Movable barriers with registering means

Definitions

  • the present invention relates to a verification system, and more particularly to a verification system for verifying an object to be passed through a gate.
  • a collation system As a means for limiting or managing persons entering and leaving a specific place such as an office or event hall, a collation system is used which collates whether or not the person who is going to pass is a person registered in advance.
  • a walk-through face authentication system has been used that performs face authentication from face images of a person photographed by a camera installed at a gate.
  • Patent Document 1 addresses the problem that authentication is completed when a person is far from the gate, and the gate is opened before the person reaches the gate. Then, in order to solve such a problem, in Patent Document 1, the face image of the photographed person is compared with the registered face image, and based on the size of the collated person on the input image, to the gate of the person. Detecting the approach of Furthermore, in Patent Document 1, the determination reference value of the size of the face area is set to be different for each area of the photographed image, thereby preventing erroneous recognition of the person heading for the adjacent gate.
  • the problem of erroneous recognition of a person heading for each of the above-mentioned gates may occur not only when the object passing through the gate is a person but also when any object is checked.
  • an object of the present invention is to provide a verification system capable of solving the problem described above, that is, the problem of misidentifying an object to be passed through a gate.
  • the collation system which is one form of the present invention is An imaging unit for acquiring a captured image of each passage front area for each gate installed in parallel; Collating means for collating, for each of the gates, a target registered in advance with a target included in the photographed image with respect to each of the photographed images in the passage front area; Equipped with The matching unit performs the matching process based on an object in the photographed image corresponding to a predetermined gate and an object in the photographed image corresponding to another gate. Take the composition.
  • an information processing apparatus further comprises a collating unit that collates an object registered in advance with an object included in the photographed image for each photographed image of each passage front area with respect to each gate installed in parallel.
  • the matching unit performs the matching process based on an object in the photographed image corresponding to a predetermined gate and an object in the photographed image corresponding to another gate. Take the composition.
  • a program which is an embodiment of the present invention is In the information processing apparatus, A program for realizing a collating means for collating an object registered in advance with an object included in the photographed image for each photographed image of each passage front area with respect to each gate installed in parallel And The matching unit performs the matching process based on an object in the photographed image corresponding to a predetermined gate and an object in the photographed image corresponding to another gate. Take the composition.
  • the verification method which is one form of the present invention is A method of collating an object registered in advance with an object included in the photographed image for each photographed image of each passage front area with respect to each gate installed in parallel, Performing the matching process based on an object in the photographed image corresponding to a predetermined gate and an object in the photographed image corresponding to another gate; Take the composition.
  • the present invention can suppress false recognition of an object which is going to pass through the gate by being configured as described above.
  • FIG. 1 It is a figure which shows the use condition of the face authentication system in Embodiment 1 of this invention. It is a block diagram which shows the structure of the face authentication system in Embodiment 1 of this invention. It is a figure which shows the imaging condition by the face recognition system disclosed in FIG. It is a figure which shows the picked-up image image
  • FIG. 1 is a view showing the use status of the face recognition system.
  • FIG. 2 is a diagram showing the configuration of the face recognition system.
  • 3 to 7 are diagrams for explaining the processing operation of the face recognition system.
  • the face recognition system 10 (collation system) in the present invention is a system used to limit or manage entry / exit of a person (object) at a specific place such as an office or an event hall.
  • the imaging device which comprises the face authentication system 10 is installed in the vicinity of the arrangement
  • each gate G1, G2 and G3 is a front side area (passing front side area) where a person passes the gate.
  • the lanes R1, R2 and R3 through which persons who are going to pass the gates G1, G2 and G3 pass are arranged in the passage front area of the gates G1, G2 and G3, respectively. They are located in parallel corresponding to G3 respectively.
  • Each of the lanes R1, R2, and R3 may or may not be partitioned by any member.
  • the imaging devices C1, C2 and C3 constituting the face authentication system 10 in the present embodiment are in the vicinity of the corresponding gates G1, G2 and G3 and the persons headed for the gates G1, G2 and G3. It is installed on the right side as seen from the side.
  • the installation position of the imaging device is not limited to the position shown in FIG. 1 and may be installed at any position such as the left side or the upper side of the gate.
  • the face authentication system 10 also includes a display device in the vicinity of each of the imaging devices C1, C2, and C3.
  • the face authentication system 10 captures an image of a person heading for the gate G1 with the provided imaging device C1. Then, based on the face image of the person appearing in the photographed image, it is verified whether or not the person is a person registered in advance, and if the verification is successful, the gate G1 is opened so that the person can pass.
  • the face authentication system and the imaging devices C2 and C3 constituting the system are installed corresponding to the other gates G2 and G3, respectively, and the persons headed to the gates G2 and G3 are collated.
  • the configuration of the face authentication system 10 will be described in detail. Although the face authentication system 10 installed corresponding to the gate G1 will be mainly described below, the face authentication system installed corresponding to the other gates G2 and G3 has the same configuration.
  • the face authentication system 10 in the present embodiment is an information processing apparatus including an arithmetic device and a storage device that are configured integrally with the imaging device C1 (camera) and the display device D1 (display).
  • the imaging device C1 includes the information processing device having the arithmetic device and the storage device that perform the face authentication process, and the display device D1.
  • the face authentication system 10 is not necessarily limited to being integrally configured with the imaging device C1 and the display device D1.
  • the imaging device C1, the display device D1, and the information processing device that processes a captured image may be configured as separate devices and installed in different places.
  • the face authentication system 10 includes an imaging device C1, a display device D1, and a communication unit 16, and an object extraction unit constructed by executing a program by the arithmetic device. 11, an object determination unit 12, a comparison unit 13, and a gate control unit 14.
  • the face authentication system 10 further includes a collation data storage unit 17 built in a storage device.
  • the imaging device C1 (imaging unit) includes a camera control unit and a camera for acquiring a captured image of the passing front area with respect to the gate G1, that is, a photographed image of the corresponding area R1 front of the gate G1 at a predetermined frame rate. is there. Then, in the imaging device C1, for example, as shown in FIG. 3, the range sandwiched by the line C1a is the imaging region. At this time, imaging is performed so that a person P10 passing through a lane R1 (own lane) corresponding to the gate G1 where the imaging device C1 is installed is located in a central region in the horizontal direction sandwiched by the line C1b in the imaging region. The imaging area of the device C1 is set. Note that the captured image is set so as to be approximately in focus at a range of a predetermined distance in the far and near direction with respect to the imaging device C1, for example, a distance between the L1 line and the L2 line shown in FIG.
  • the imaging area of the imaging device C1 is an end area in the horizontal direction with respect to the central area, which is an area between the lines C1a and C1b.
  • the central area which is an area between the lines C1a and C1b.
  • FIG. 3 there may be a case where a person P20 passing through the lane R2 corresponding to the adjacent gate G2 appears.
  • FIG. 5 a person P12 located in the own lane R1 corresponding to the own gate G1 in which the imaging device C1 is installed may be displayed. Even if such a situation occurs, the face authentication system 10 according to the present invention excludes the person P20 who is about to pass through the adjacent gate G2 from the collation processing target as described below, and the own gate G1. It is configured to appropriately recognize the person P12 who is about to pass through and to determine whether or not to pass through the gate.
  • the target extraction unit 11 acquires a captured image from the imaging device C1, and extracts a person to be processed from the captured image. Extraction of a person is performed by, for example, extracting a moving object, or determining it from the overall shape of the object, the position of a characteristic shaped portion with respect to the entire image, the position of a color, or the like.
  • the object extraction unit 11 also specifies an area in the captured image in which the extracted person is located. In particular, in the present embodiment, it is specified whether the extracted person is located in the center area or the left and right end areas in the horizontal direction of the photographed image described above. For example, in the situation shown in FIG. 3, in the image captured by the imaging device C1 corresponding to the gate G1, as shown in FIG. 4A, the person P10 located in the central area is extracted and the person P20 located in the right end area is extracted.
  • the object determination unit 12 determines whether or not the persons P10 and P20 extracted by the object extraction unit 11 are persons heading for the own gate G1. At this time, when the person P20 is located in the end area (first area), the object determining unit 12 takes a photographed image taken by the imaging device C2 of the face authentication system 20 corresponding to the other gate G2. It is determined based on the above whether or not the person P20 is heading to the own gate G1. In this example, since the person P20 appears in the right end region of the photographed image corresponding to the own gate G1 shown in FIG. 4A, the photographed image photographed by the imaging device C2 of the gate G2 adjacent to the right of the gate G1.
  • the object determination unit 12 communicates with the face authentication system 20 of the adjacent gate G2 via the communication unit 16 and at the same timing (for example, the same time) at which the photographed image is captured by the gate G1.
  • the photographed image photographed at the gate G2 is acquired.
  • the positional relationship between face authentication systems (imaging devices C1, C2, and C3) corresponding to the respective gates G1, G2, and G3 is assumed to be registered in each system in advance.
  • the object determination unit 12 checks whether or not the person P20 located in the end area of the photographed image of the own gate G1 appears in the central area (second area) of the photographed image of the adjacent gate G2. In the present embodiment, when any person appears in the central region of the photographed image of the adjacent gate G2, it is determined that the person is the person P20 located in the end region of the photographed image of the own gate G1. Do. In this case, the face authentication system 10 of the own gate G1 determines that the person P20 located in the end region of the photographed image is excluded from the collation object. Although the end area (first area) of the photographed image of the own gate G1 and the central area (second area) of the photographed image of the adjacent gate G2 are mutually different areas on the photographed image, in real space Are mutually overlapping spaces.
  • the person P20 located in the end region of the photographed image of the own gate G1 shown in FIG. 4A is located in the central region of the photographed image of the adjacent gate G2 shown in FIG. It excludes from the collation object by the face authentication system 10 of the own gate G1. That is, the face authentication system 10 of the own gate G1 makes only the person P10 located in the central region of the photographed image the collation target.
  • the person P12 located in the end region of the captured image of the own gate G1 shown in FIG. 6A is not located in the central region of the captured image of the adjacent gate G2 shown in FIG. Therefore, the person P12 is to be compared by the face authentication system 10 of the own gate G1. That is, the face authentication system 10 of the own gate G1 matches the person P10 located in the central region of the photographed image with the person P12 located in the end region.
  • the said object determination part 12 may determine whether a person is collation object in a self-gate by the method different from the above-mentioned.
  • the object determination unit 12 may use the person's own gate for the face authentication system 20 corresponding to the other gate G2. You may inquire whether it is a person of G1. Specifically, in the example of FIGS. 3 and 4, since the person P20 appears in the right end area of the photographed image corresponding to the own gate G1 shown in FIG. 4A, the face of the gate G2 adjacent to the right of the gate G1. The authentication system 20 is inquired whether such a person P20 appears in the central area of the adjacent gate G2. Similarly, in the example of FIG.
  • the object determination unit 12 communicates with the face authentication system 20 of the adjacent gate G2 via the communication unit 16, and the gate G2 is generated at the same timing (for example, the same time) at which the photographed image was captured by the gate G1.
  • the center area of the photographed image photographed in step (4) is inquired as to whether or not a person is shown.
  • the face authentication system 20 of the adjacent gate G2 that has received the above inquiry checks whether or not any person appears in the central area (second area) from the photographed image of its own, and the result is received the inquiry
  • the object determination unit 12 of the face authentication system 10 of the gate G1 is notified.
  • the face authentication system 20 of the adjacent gate G2 has the same function as the target extraction unit 11 described above, acquires a captured image from the imaging device C2, and extracts a person to be processed from the captured image. Also, the area in the photographed image in which the extracted person is located is specified. Then, the face authentication system 20 of the adjacent gate G2 notifies the face authentication system 10 of the gate G1 as a result of the response to the inquiry whether or not a person appears in the central region.
  • the object determination unit 12 of the face authentication system 10 of the gate G1 having received the notification of the response result to the inquiry from the face authentication system of the adjacent gate G20 determines as follows according to the response result.
  • the object determination unit 12 receives a notification that any person is shown in the central region of the photographed image of the adjacent gate G2 (examples in FIGS. 3 and 4), the person is the one who photographed the own gate G1. It is determined that the person P20 is located in the end area of the image. In this case, the face authentication system 10 of the own gate G1 determines that the person P20 located in the end region of the photographed image is excluded from the collation object.
  • the object determination unit 12 receives a notification that no person appears in the central region of the photographed image of the adjacent gate G2 (examples of FIGS. 5 and 6), the photographed image of the own gate G1 It is determined that the person P12 located in the end area of the image is to be compared.
  • each person authentication system 10, 20 performs person extraction processing by determining whether a person is to be collated by the above method, processing concentrates on one of the face authentication systems. Without, there is also no transfer of images. Therefore, the processing load of one face authentication system 10 can be suppressed, the amount of communication between the face authentication systems 10 and 20 can be suppressed, and quick determination can be performed.
  • the collation unit 13 (collation means) performs the collation processing on the person judged as the collation target in the photographed image of the own gate G1 by the object judgment unit 12. In other words, even if the matching unit 13 is a person appearing in the photographed image of the own gate G1, the matching unit 13 does not perform the matching process on the person excluded from the matching targets by the object determining unit 12.
  • the matching process is performed, for example, as follows. First, a face area of a person to be subjected to the matching process is specified, and a feature amount necessary for the matching is generated from the face area.
  • a matching score such as the similarity between the generated feature quantity and the feature quantity of a person registered in advance in the matching data storage unit 17 is calculated, and it is determined whether the matching score is higher than a threshold. If the matching score is higher than the threshold value, it is determined that the matching is successful, and it is determined that the person who is about to pass the gate G1 is a person registered in advance.
  • the feature amount of the person to be detected for matching may be a feature amount used in the existing face matching technology, or may be a feature amount calculated by any method. Also, the verification method may be any method.
  • the gate control unit 14 first determines whether or not a person can pass the gate G1 based on the check result by the check unit 13. Specifically, it is determined that the person who has succeeded in the collation by the collation unit 13 can pass.
  • the gate control unit 14 has a function of displaying the collation result, that is, the success or failure of the collation on the display device D1. Further, the gate control unit 14 also has a gate control function of opening and closing the gate G1, and controls the person who is determined to be able to pass the gate G1 to open.
  • the display device D1 is disposed with its display surface facing the passage front area of the gate G1 so that a person who is about to pass the gate G1 can visually recognize.
  • the display device D1 may not necessarily be provided.
  • the imaging device C1 corresponding to the gate G1 continues to capture an image of the passing front area of the gate G1. Then, the face authentication system 10 always performs the following processing on the photographed image.
  • the object extraction unit 11 extracts a person (object) to be processed from the captured image (step S1). Then, when the person P20 is located in the end area of the photographed image, the object determining unit 12 acquires the photographed image photographed by the imaging device C2 of the face authentication system 20 corresponding to the adjacent gate G2 ( Step S2). At this time, the photographed image of the adjacent gate G2 is acquired at the same timing as the photographing of the photographed image of the own gate G1.
  • the object determining unit 12 checks whether or not the person P20 located in the end area of the photographed image of the own gate G1 appears in the central area of the photographed image of the adjacent gate G2 (step S3). Then, when any person is displayed in the central area of the photographed image of the adjacent gate G2, the object judging unit 12 is the person P20 whose person is located in the end area of the photographed image of the own gate G1. Determine that there is. In this case, the face authentication system 10 of the own gate G1 determines that the person P20 located in the end area is excluded from the check target.
  • the person P20 located in the end region of the photographed image of the own gate G1 shown in FIG. 4A is located in the central region of the photographed image of the adjacent gate G2 shown in FIG. It excludes from the collation object by the face authentication system 10 of the own gate G1 (Yes in step S3).
  • the person P12 located in the end region of the captured image of the own gate G1 shown in FIG. 6A is not located in the central region of the captured image of the adjacent gate G2 shown in FIG. Therefore, the person P12 is not excluded from the verification target of the face authentication system 10 of the own gate G1, and is set as the verification target (No in step S3).
  • the matching unit 13 causes the object determining unit 12 to perform the matching process on the person determined as the matching object in the photographed image of the own gate G1 (step S4).
  • the collation process of only the person P10 is started, and in the example of FIG. 5 and FIG. 6, the collation process of the person P10 and the person P12 is started.
  • the collation process first, the feature amount necessary for collation is detected from the face area of the person to be collated, and the collation feature is collated with the person characteristic amount registered in the collation data storage unit 17 in advance to acquire the collation score. Do. Then, it is determined whether the matching score is equal to or more than a threshold.
  • the gate control part 14 permits passage of the person to the gate G1 and controls the gate G1 to open (step S6). ).
  • the matching process for the person P20 who is about to pass through the adjacent gate G2 can be suppressed, and the person P10 and P12 trying to pass through the own gate G1 is appropriately matched. can do.
  • the person P10 who is about to pass through the own gate G1 is collated, but the person P20 who is about to pass through the adjacent gate G2 is not collated.
  • the matching process is appropriately performed. As a result, it is possible to suppress false recognition of a person trying to pass through another gate.
  • the photographed image of the adjacent gate G2 is compared with the photographed image of the own gate G1
  • the photographed image of the other gate is not limited to the photographed image of the adjacent gate G2.
  • the end region of the photographed image of the own gate G1 is compared with the central region of the adjacent gate G2, but the regions to be compared are not limited to the above-described regions. Any regions of photographed images at different gates may be compared.
  • the face authentication system 10 corresponding to the own gate G1 acquires the photographed image of the adjacent gate G2 and determines whether or not the person is the collation target.
  • the face authentication system of the gate G2 may perform. That is, the face authentication system 10 of the own gate G1 provides the photographed image to the face authentication system 20 of the adjacent gate G2, and the face authentication system 20 of the adjacent gate G2 returns the determination result to the face authentication system 10 of the own gate G1. It is also good.
  • another information processing apparatus may perform such determination processing.
  • the face authentication system 10 inquires of the face authentication system 20 of the adjacent gate G2 whether or not a person appears in the central region of the photographed image in the adjacent gate G2, and the response result is In response, it may be determined whether a person is to be collated. In this case, when notification is received that any person appears in the center area of the captured image of the adjacent gate G2, the person located in the end area of the captured image of the own gate G1 is excluded from the comparison target It will be determined. On the other hand, when notified that no person appears in the central area of the photographed image of the adjacent gate G2, it is determined that the person located in the end area of the photographed image of the own gate G1 is to be compared.
  • the object which is going to pass gate G1 was a person above was illustrated, it may be not only a person but any object.
  • it may be an object such as a luggage.
  • FIG. 8 to FIG. 8 to 12 are diagrams for explaining the processing operation of the face recognition system.
  • FIG. 12 is a flowchart showing the operation of the face recognition system.
  • the face authentication system 10 in the present embodiment has the same configuration as that in the first embodiment described above, but differs in the process of determining whether a person appearing in the photographed image of the own gate G1 is to be compared.
  • the configuration different from the first embodiment will be mainly described in detail.
  • the object determination unit 12 in the present embodiment extracts the person P20 from the end region of the photographed image of the own gate G1 by the object extraction unit 11 (step S11), the same person as the person P20 takes an image of another gate G2. It is determined whether it is located in the central region of the image.
  • the object determination unit 12 since the object determination unit 12 displays the person P20 in the right end area of the captured image corresponding to the own gate G1, the imaging device C2 of the gate G2 adjacent to the right of the gate G1.
  • the photographed image photographed by the camera is acquired (step S12).
  • the object determination unit 12 communicates with the face authentication system 20 of the adjacent gate G2 via the communication unit 16 and at the same timing (for example, the same time) at which the photographed image is captured by the gate G1.
  • the photographed image photographed at the gate G2 is acquired.
  • the positional relationship between face authentication systems (imaging devices C1, C2, and C3) corresponding to the respective gates G1, G2, and G3 is assumed to be registered in each system in advance.
  • the object determination unit 12 determines that the person P20 is located in the end area of the photographed image of the own gate G1, and the person P20 is positioned in the central area (second area) of the photographed image of the adjacent gate G2.
  • Determine identity In the present embodiment, first, the face area of each person is specified, and the feature amount necessary for collation is detected from the face area (step S13). Then, it is determined from the feature amounts of both persons whether or not both persons are the same person (step S14).
  • the process of determining whether or not a person matches may be a process with low accuracy as compared to the collation process described later. For example, only the feature amount of a part of a person may be detected, or gender or age may be detected from the feature amount, and the identity may be determined from the information. However, the process of determining the identity of a person may be any process.
  • the object determination unit 12 determines that the same person as the person P20 located in the end region of the captured image of the own gate G1 is located in the central region of the captured image of the adjacent gate G2: It is determined that the person P20 is a person heading to the adjacent gate G2 (Yes in step S15). In this case, the face authentication system 10 of the own gate G1 determines that the person P20 located in the end area is excluded from the check target. On the other hand, when the object determination unit 12 determines that the same person as the person P12 located in the end region of the captured image of the own gate G1 is not located in the central region of the captured image of the adjacent gate G2. It is determined that the person P12 is a person heading for the own gate G1 (No in step S15).
  • the face authentication system 10 of the own gate G1 determines that the person P12 located in the end area is to be compared.
  • the end area (first area) of the photographed image of the own gate G1 and the central area (second area) of the photographed image of the adjacent gate G2 are areas different from each other when the photographed images are compared with each other. Are mutually overlapping areas.
  • the person P20 is excluded from the verification target of the face authentication system 10 of the own gate G1. That is, the face authentication system 10 of the own gate G1 makes only the person P10 located in the central region of the photographed image the collation target.
  • the same person as the person P12 located in the end area of the captured image of the own gate G1 shown in FIG. 11A is not located in the central area of the captured image of the adjacent gate G2 shown in FIG. . Therefore, the person P12 is to be compared by the face authentication system 10 of the own gate G1. That is, the face authentication system 10 of the own gate G1 matches the person P10 located in the central region of the captured image with the person P12 located in the end region.
  • the collation unit 13 (collation means) performs the collation processing on the person judged as the collation target in the photographed image of the own gate G1 by the object judgment unit 12 (step S16). In other words, even if the matching unit 13 is a person appearing in the photographed image of the own gate G1, the matching unit 13 does not perform the matching process on the person excluded from the matching targets by the object determining unit 12.
  • the matching process is performed, for example, as follows. First, a face area of a person to be subjected to the matching process is specified, and a feature amount necessary for the matching is generated from the face area.
  • a matching score such as the similarity between the generated feature quantity and the feature quantity of a person registered in advance in the matching data storage unit 17 is calculated, and it is determined whether the matching score is higher than a threshold. If the matching score is higher than the threshold, it is determined that the matching is successful, and it is determined that the person who is about to pass the gate G1 is a person registered in advance.
  • the matching method may be any method.
  • the gate control unit 14 determines whether or not a person can pass the gate G1 based on the comparison result by the comparison unit 13. Specifically, it is determined that the person who has succeeded in the collation by the collation unit 13 can pass (step S17), and control is performed to open the gate G1 (step S18).
  • the face recognition system by extracting and comparing the feature quantities of the person in the photographed image corresponding to each gate, the same target appears overlapped with the photographed image of each gate. Can be determined more reliably. Then, it is possible to exclude, from the matching processing, an object that appears redundantly in a predetermined gate and another gate, and it is possible to suppress false recognition of an object that is going to pass through the gate. Furthermore, the feature amount of the target extracted to determine the overlap of the targets can be used for the matching process, and the processing can be made more efficient.
  • the object which it is going to pass gate G1 was a person above was illustrated, it may be not only a person but any object.
  • it may be an object such as a luggage.
  • the face authentication system 10 in the present embodiment basically determines whether the person appearing in the end area of the photographed image is the person facing the own gate G1, as in the first embodiment described above. Do. That is, depending on whether or not the person shown in the end area of the photographed image of own gate G1 is shown in the central area of the photographed image taken by face authentication system 20 corresponding to the other gate G2. It is determined whether it is a person heading to the gate G1.
  • determination processing differs as follows.
  • the configuration different from the first embodiment will be mainly described in detail.
  • the target extraction unit 11 in the present embodiment acquires a captured image from the imaging device C1, and extracts a person to be processed from the captured image. At this time, the object extraction unit 11 also specifies an area in the captured image in which the extracted person is located. Then, the object extraction unit 11 in the present embodiment determines whether the feature that is the determination information of the person appearing in the end area exceeds the reference value, and the person according to the determination result, the person is his own gate It is determined whether the person is headed to G1.
  • the object extraction unit 11 first extracts the face area of the person located in the end area of the captured image. Extraction of the face area of a person is performed, for example, by judging from the position and the color with respect to the entire image of a moving person. Then, the object extraction unit 11 detects the feature of the person that is the determination information from the face area.
  • the feature of the person as the determination information is the distance between the eyes of the person (distance between eyes).
  • the object determining unit 12 in the present embodiment checks whether the inter-eye distance which is the determination information detected by the object extracting unit 11 exceeds the reference value.
  • the reference value is set to a value capable of determining whether the person shown in the end area of the photographed image of the own gate G1 is located in the lane R1 of the own gate G1. It is done. For example, in the situation of FIG. 10 described above, it is considered that the eye-to-eye distance of the person P12 heading to the own gate G1 is greater than the eye-to-eye distance of the person P20 of the adjacent gate G2.
  • the reference value appears in the edge region of the photographed image of the own gate G1 and is between the eye distance of the person P12 advancing to the own gate G1 and the eye distance of the person P20 of the adjacent gate G2. Set to a value.
  • the object determination unit 12 proceeds to the own gate G1. It is determined that the person is a person, and is the target of the matching process. That is, when the eye-to-eye distance of a person exceeds the reference value, the comparison with the photographed image of the adjacent gate G2 is not performed, and the collation processing is performed as the person heading for the own gate G1.
  • the object determination unit 12 proceeds to the adjacent gate G2. Since there is a possibility of being a person, comparison with the photographed image of the adjacent gate G2 is performed. That is, as described in the first embodiment, it is checked whether any person appears in the central region of the photographed image of the adjacent gate G2. When a person appears in the central region of the captured image of the adjacent gate G2, it is determined that the person captured in the end region of the captured image of the own gate G1 is a person headed to the adjacent gate G2 and excluded from the target of the matching process. Do. When a person is not displayed in the central region of the photographed image of the adjacent gate G2, it is determined that the person shown in the end region of the photographed image of the own gate G1 is a person heading for the own gate G1, Do.
  • the person P12 first appears in the end area of the photographed image of the own gate G1, but the person P12 is close to the imaging device C1 of the own gate G1. Therefore, the inter-eye distance, which is the determination information representing the size of the person P12, becomes larger than the reference value. Therefore, it is determined that the person P12 is a person heading to the own gate G1, and is set as a target of the matching process. That is, even when the person P20 heading to the adjacent gate G2 is present, the person P12 of the own gate G1 can be set as the target of the matching process.
  • the person P20 first appears in the end area of the photographed image of the own gate G1, but the person P20 is far from the imaging device C1 of the own gate G1.
  • the eye-to-eye distance which is determination information indicating the size of the person P20, is equal to or less than the reference value. For this reason, it is checked whether the person P20 is shown in the central region of the photographed image of the adjacent gate G2. In this case, since the person appears in the central region of the captured image of the adjacent gate G2, it is determined that the person captured in the end region of the captured image of the own gate G1 is the person heading for the adjacent gate G2, and exclude.
  • the determination information of the person appearing in the end area of the photographed image of the own gate G1 is the inter-eye distance
  • the feature of the person as the determination information is other than constituting the face of the person It may be the distance between the parts of and may be a value representing the size of another part of the person.
  • the feature of the person as the determination information is not necessarily limited to the value representing the size of the part of the person.
  • FIG. 13 is a block diagram showing the configuration of the face authentication system in the present embodiment
  • FIGS. 14 to 16 are diagrams for explaining the processing operation of the face authentication system.
  • the face authentication system 10 in this embodiment has the same configuration as that in the first embodiment described above, but as described in the first and second embodiments, the photographed images of adjacent gates overlap with each other. It has a function of setting an overlapping area which is an area for comparing whether or not the same person is located.
  • configurations different from the first and second embodiments will be mainly described in detail.
  • the face authentication system 10 in the present embodiment includes a region setting unit 15 (region setting unit) constructed by execution of a program by an arithmetic device.
  • the region setting unit 15 acquires a captured image from the imaging device C1 of the own gate G1, and also acquires a captured image from the imaging device C2 of the adjacent gate G2.
  • the area setting unit 15 communicates with the face authentication system 20 of the adjacent gate G2 through the communication unit 16 and the gate G2 at the same timing (for example, the same time) at which the photographed image was photographed at the gate G1. Acquire the captured image.
  • the region setting unit 15 extracts a person from the acquired captured image of the gate G1 and the captured image of the gate G2. Extraction of a person is performed by, for example, extracting a moving object, or determining it from the overall shape of the object, the position of a characteristic shaped portion with respect to the entire image, the position of a color, or the like. Then, the area setting unit 15 checks whether or not the same person appears in both photographed images. At this time, the area setting unit 15 specifies the face area of each person appearing in each photographed image, and detects the feature amount necessary for the collation from the face area. Then, whether or not each person is the same person is checked from the feature amount of each person. The process of determining the identity of a person may be any process.
  • the area setting unit 15 determines that the same person appears in each captured image
  • the area around the portion where the same person appears in each of the captured images is the area in the respective captured images.
  • the overlapping area to be set is an area obtained by expanding a portion where the same person is detected up to the upper and lower ends of the photographed image and further expanding the area further in the horizontal direction of the photographed image by a predetermined range.
  • a range is set as an overlapping area (first area), and an overlapping area (first area) of the same width is set near the opposite end.
  • the extracted part of the same person is located near the center in the horizontal direction of the photographed image.
  • the range expanded in the horizontal direction is set as an overlapping area (second area). That is, in the present embodiment, the central area is set wider than the end area described above.
  • the method of setting the width of the end area and the central area is not limited to the above-described method.
  • a photographed image of the photographing region sandwiched by the lines C1a can be obtained from the imaging device C1 of the own gate G1, and is sandwiched by the lines C2a from the imaging device C2 of the adjacent gate G2. It is possible to acquire a photographed image of the photographed area.
  • the same person P20 is detected in the end area of the photographed image of the own gate G1 and in the central area of the photographed image of the adjacent gate G2 by extracting the same person from both the photographed images of FIGS. 15A and 15B. Do. In this case, as shown in FIG.
  • the regions C1a and C1b extend the region (hatched region) obtained by expanding the location of the extracted person P20 up and down slightly further horizontally.
  • the sandwiched area is set as the overlapping area.
  • an overlapping area sandwiched by the symbols C1a and C1b is also set in the opposite end area in the horizontal direction.
  • the region (hatched region) obtained by expanding the location of the extracted person P20 in the vertical direction is sandwiched by the code C2b which is further expanded in the horizontal direction Set the area as an overlapping area.
  • the area setting unit 15 of the face authentication system 10 corresponding to the gate G1 includes the end area of the photographed image of the own gate G1 and the central area of the photographed image of the adjacent gate G2. Automatically set as overlapping area. Then, as described in the first and second embodiments, the face authentication system 10 extracts a person from the set end area of the photographed image of the own gate G1 and the central area of the photographed image of the adjacent gate G2. It is determined whether or not the same person exists in both areas.
  • each photographing corresponding to each gate is based on the person in the photographed image corresponding to the predetermined gate and the person in the photographed image corresponding to the other gate It is possible to automatically set overlapping regions between images. As a result, the overlapping area between the imaging devices C1 and C2 of the gates G1 and G2 adjacent to each other can be appropriately set, facilitating the use of the collation system and suppressing false recognition with higher accuracy. it can.
  • the overlapping range is set using any object on which the photographed image appears, not limited to the person. It is also good. For example, it is possible to determine the identity of an article or a landscape shown in each captured image, and set an overlapping range of each captured image based on the determination result.
  • FIG. 17 is a block diagram showing the configuration of the collation system in the fifth embodiment.
  • FIG. 18 is a block diagram showing the configuration of the information processing apparatus in the fifth embodiment. In the present embodiment, the outline of the configuration of the face authentication system described in the first to fourth embodiments is shown.
  • the collation system 100 in the present embodiment is: Imaging means 110 for respectively acquiring a photographed image of each passage front area for each gate installed in parallel; A collating means 120 for collating, for each gate, a target registered in advance with a target included in the photographed image for each of the photographed images in each passage front area; Equipped with Then, the collation unit 120 performs collation processing based on an object in a photographed image corresponding to a predetermined gate and an object in a photographed image corresponding to another gate. Take the composition.
  • the imaging means 110 may be removed from the collation system 100 shown in FIG. That is, the information processing apparatus 200 in the present embodiment is A collating unit 210 is provided which collates the objects registered in advance with the objects included in the photographed image for each of the photographed images of the respective passing front areas with respect to the gates installed in parallel. Then, the matching unit 210 performs the matching process on the basis of the target in the photographed image corresponding to the predetermined gate and the target in the photographed image corresponding to the other gate. Take the composition.
  • the above-mentioned collating means 120 and 210 may be constructed by the execution of a program by an arithmetic unit or may be constructed by an electronic circuit.
  • a verification method is provided for performing verification processing of an object registered in advance and an object included in a captured image for each of the captured images of the respective passage front areas with respect to the gates installed in parallel. Then, in such a collation method, collation processing is further performed based on an object in a photographed image corresponding to a predetermined gate and an object in a photographed image corresponding to another gate. Take the composition.
  • the collation processing of the target is performed based on the target in the photographed image corresponding to the predetermined gate and the target in the photographed image corresponding to the other gate. For this reason, even if an object to be passed through another gate appears in the captured image corresponding to a predetermined gate, it may be determined that such object is to be passed through another gate. Can be excluded from the matching process at a given gate. As a result, it is possible to suppress false recognition of an object that is going to pass through the gate.
  • An imaging unit for acquiring a captured image of each passage front area for each gate installed in parallel; Collating means for collating, for each of the gates, a target registered in advance with a target included in the photographed image with respect to each of the photographed images in the passage front area; Equipped with The matching unit performs the matching process based on an object in the photographed image corresponding to a predetermined gate and an object in the photographed image corresponding to another gate. Matching system.
  • the collation system performs the collation processing of the target based on the target in the photographed image corresponding to the predetermined gate and the target in the photographed image corresponding to the other gate. For this reason, even if an object to be passed through another gate appears in the captured image corresponding to a predetermined gate, it may be determined that such object is to be passed through another gate. Can be excluded from the matching process at a given gate. As a result, it is possible to suppress false recognition of an object that is going to pass through the gate.
  • the matching unit performs the matching process based on an object located in a predetermined area of the photographed image corresponding to the predetermined gate and an object in the photographed image corresponding to the other gate. Matching system.
  • the collating means is based on an object located in a first area of the captured image corresponding to the predetermined gate and an object located in a second area in the captured image corresponding to the other gate. Perform the matching process; Matching system.
  • the matching unit may A target located in the first area of the photographed image corresponding to the predetermined gate is excluded from the matching process. Matching system.
  • the collating means is configured such that an object located in the first area of the captured image corresponding to the predetermined gate is at a timing when the object is located in the first area, the image of the captured image corresponding to the other gate When located in the second area, an object located in the first area of the photographed image corresponding to the predetermined gate is excluded from the matching process. Matching system.
  • the collation system compares the object shown in the predetermined area in the photographed image corresponding to the predetermined gate with the object shown in the photographed image corresponding to the other gate.
  • Target objects are excluded from the matching processing, and matching processing is performed only for the targets that appear alone.
  • an object located in a horizontal end area (first area) in a captured image corresponding to a predetermined gate is reflected in a horizontal central area (second area) in a captured image corresponding to another gate. If it does, the matching process of that object is not performed.
  • the object located in the horizontal end area (first area) in the photographed image corresponding to the predetermined gate is the target in the horizontal central area (second area) in the photographed image corresponding to the other gate.
  • the target is collated.
  • an object appears to overlap with a photographed image corresponding to a predetermined gate and a photographed image corresponding to another gate, it can be excluded from the matching process, and an object to be passed through the gate Misrecognition can be suppressed.
  • the matching unit is configured to include a feature amount of an object located in the first area of the captured image corresponding to the predetermined gate, and a feature of an object located in the second area of the captured image corresponding to the other gate It is determined based on the amount that an object located in the first area of the captured image corresponding to the predetermined gate is located in the second area of the captured image corresponding to the other gate In this case, an object located in the first area of the photographed image corresponding to the predetermined gate is excluded from the matching process. Matching system.
  • the matching unit is configured to select a feature amount of a part constituting a face of a person as a target located in the first area of the captured image corresponding to the predetermined gate, and the captured image corresponding to the other gate.
  • the other gate is a target located in the first region of the photographed image corresponding to the predetermined gate, based on the feature amount of the part constituting the face of the person who is the target located in the second region. Excluding the object located in the first area of the photographed image corresponding to the predetermined gate from the matching process when it is determined that the second area of the photographed image corresponding to Matching system.
  • the matching system extracts the feature amounts of the objects in the photographed image corresponding to each gate and compares them, thereby more reliably determining whether the same object is overlapped in the photographed image of each gate Can be determined. Then, it is possible to exclude, from the matching processing, an object that appears redundantly in a predetermined gate and another gate, and it is possible to suppress false recognition of an object that is going to pass through the gate. Furthermore, the feature amount of the target extracted to determine the overlap of the targets can be used for the matching process, and the processing can be made more efficient.
  • the area setting means corresponds to an object in the photographed image corresponding to the predetermined gate and the other gate acquired at a timing when the object is positioned in the photographed image corresponding to the predetermined gate.
  • the position of the target in the captured image corresponding to the predetermined gate and the position of the target in the captured image corresponding to the other gate is set as the first region, and the periphery of the position of the object in the captured image corresponding to the other gate is the second Set as area, Matching system.
  • the collation system overlaps the photographed images corresponding to the respective gates based on the object in the photographed image corresponding to the predetermined gate and the object in the photographed images corresponding to the other gates. Area can be set automatically. As a result, it is possible to facilitate the use of the collation system and to suppress erroneous recognition with high accuracy.
  • the image processing apparatus further comprises a collating unit that collates an object registered in advance with an object included in the photographed image for each photographed image of each passage front area with respect to each gate installed in parallel.
  • the matching unit performs the matching process based on an object in the photographed image corresponding to a predetermined gate and an object in the photographed image corresponding to another gate.
  • Information processing device
  • the matching unit performs the matching process based on an object in the photographed image corresponding to a predetermined gate and an object in the photographed image corresponding to another gate. program.
  • the matching unit performs the matching process based on an object located in a predetermined area of the photographed image corresponding to the predetermined gate and an object in the photographed image corresponding to the other gate. program.
  • Appendix 18 It is a collation method given in appendix 17.
  • An object in the photographed image corresponding to the predetermined gate, and an object in the photographed image corresponding to the other gate acquired at a timing when the object is positioned in the photographed image corresponding to the predetermined gate And setting the first area of the photographed image corresponding to the predetermined gate and the second area of the photographed image corresponding to the other gate, based on An object located in the set first area of the captured image corresponding to the predetermined gate, and an object located in the set second area in the captured image corresponding to the other gate Perform the matching process based on Matching method.
  • the above-described program is stored in a storage device or recorded in a computer-readable recording medium.
  • the recording medium is a portable medium such as a flexible disk, an optical disk, a magneto-optical disk, and a semiconductor memory.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本発明の照合システムは、並列に設置された各ゲートに対する各通過前側領域の撮影画像をそれぞれ取得する撮像手段と、ゲート毎に、各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、撮影画像に含まれる対象と、の照合処理を行う照合手段と、を備える。そして、上記照合手段は、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、照合処理を行う、という構成をとる。

Description

照合システム
 本発明は、照合システムにかかり、特に、ゲートを通過しようとする対象を照合する照合システムに関する。
 オフィスやイベント会場などの特定場所に入退場する人物を制限したり管理する手段として、通過しようとする人物が予め登録された人物か否かを照合する照合システムが用いられる。特に、近年では、人物の顔認証技術の発達により、ゲートに設置したカメラで撮影した人物の顔画像から顔認証を行うウォークスルー顔認証システムが利用されている。
特開2015-1790号公報
 ここで、ウォークスルー顔認証システムにおいては、複数のゲートが隣接し、各ゲートにそれぞれ向かう人物が通行するレーンが隣接している場合がある。この場合、あるゲートのレーンを通行する人物を撮影した画像に、隣接するレーンで隣接するゲートに向かう人物も映ってしまう場合がある。すると、隣接するレーンを通行する人物を、自レーンを通行する人物と誤認識してしまい、自レーンの先にある自ゲートを通行する人物の照合の妨げとなる場合がある。このため、複数のゲートが設置された状況においては、各ゲートに向かう人物の誤認識を抑制することが求められる。
 また、ウォークスルー顔認証システムに関連する技術として、特許文献1に記載の技術がある。特許文献1では、人物がゲートから遠くにいる時点で認証が済んでしまい、かかる人物がゲートに到達する前にゲートが開放されてしまう、という問題を掲げている。そして、かかる問題を解決するために、特許文献1では、撮影した人物の顔画像と登録顔画像との照合を行い、照合した人物の入力画像上の大きさに基づいて、かかる人物のゲートへの接近を検出している。さらに、特許文献1では、撮影画像の領域毎に、それぞれ顔領域の大きさの判定基準値を異ならせて設定することで、隣接ゲートに向かう人物の誤認識を防止しようとしている。
 しかしながら、特許文献1に記載の技術では、人物が通過しようとしているゲートに対応して設置されたカメラによる撮影画像のみを用い、かつ、撮影画像の領域毎に設定された人物の大きさの判定基準値を用いて、自ゲートへの人物の接近を検出している。このため、撮影画像に映る人物の領域が適切でなかったり、判定基準値が適切でない場合には、依然として他のゲートに向かう人物を誤認識してしまう、という問題が生じる。
 また、上述した各ゲートにそれぞれ向かう人物の誤認識という問題は、ゲートを通過する対象が人物である場合に限らず、いかなる対象の照合を行う場合にも生じうる。
 このため、本発明の目的は、上述した課題である、ゲートを通過しようとする対象を誤認識してしまうという問題を解決することができる照合システムを提供することにある。
 本発明の一形態である照合システムは、
 並列に設置された各ゲートに対する各通過前側領域の撮影画像をそれぞれ取得する撮像手段と、
 前記ゲート毎に、前記各通過前側領域の前記撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段と、
を備え、
 前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
という構成をとる。
 また、本発明の一形態である情報処理装置は、
 並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を備え、
 前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
という構成をとる。
 また、本発明の一形態であるプログラムは、
 情報処理装置に、
 並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を実現させるためのプログラムであり、
 前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
という構成をとる。
 また、本発明の一形態である照合方法は、
 並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う方法であり、
 所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
という構成をとる。
 本発明は、以上のように構成されることにより、ゲートを通過しようとする対象の誤認識を抑制することができる。
本発明の実施形態1における顔認証システムの使用状況を示す図である。 本発明の実施形態1における顔認証システムの構成を示すブロック図である。 図1に開示した顔認証システムによる撮像状況を示す図である。 図1に開示した顔認証システムにて図3の撮像状況で撮影した撮影画像を示す図である。 図1に開示した顔認証システムにて図3の撮像状況で撮影した撮影画像を示す図である。 図1に開示した顔認証システムによる撮像状況を示す図である。 図1に開示した顔認証システムにて図5の撮像状況で撮影した撮影画像を示す図である。 図1に開示した顔認証システムにて図5の撮像状況で撮影した撮影画像を示す図である。 図1に開示した顔認証システムによる処理動作を示すフローチャートである。 本発明の実施形態2における顔認証システムによる撮像状況を示す図である。 本発明の実施形態2における顔認証システムにて図8の撮像状況で撮影した撮影画像を示す図である。 本発明の実施形態2における顔認証システムにて図8の撮像状況で撮影した撮影画像を示す図である。 本発明の実施形態2における顔認証システムによる撮像状況を示す図である。 本発明の実施形態2における顔認証システムにて図10の撮像状況で撮影した撮影画像を示す図である。 本発明の実施形態2における顔認証システムにて図10の撮像状況で撮影した撮影画像を示す図である。 本発明の実施形態2における顔認証システムによる処理動作を示すフローチャートである。 本発明の実施形態4における顔認証システムの構成を示すブロック図である。 本発明の実施形態4における顔認証システムによる撮像状況を示す図である。 本発明の実施形態4における顔認証システムにて図12の撮像状況で撮影した撮影画像を示す図である。 本発明の実施形態4における顔認証システムにて図12の撮像状況で撮影した撮影画像を示す図である。 本発明の実施形態4における顔認証システムによる画像処理の様子を示す図である。 本発明の実施形態4における顔認証システムによる画像処理の様子を示す図である。 本発明の実施形態5における照合システムの構成を示すブロック図である。 本発明の実施形態5における情報処理装置の構成を示すブロック図である。
 <実施形態1>
 本発明の第1の実施形態を、図1乃至図7を参照して説明する。図1は、顔認証システムの使用状況を示す図である。図2は、顔認証システムの構成を示す図である。図3乃至図7は、顔認証システムの処理動作を説明するための図である。
 [全体構成]
 本発明における顔認証システム10(照合システム)は、オフィスやイベント会場などの特定場所において、人物(対象)の入退場を制限したり管理するために用いられるシステムである。例えば、顔認証システム10を構成する撮像装置は、人物の入退場の際に開閉されるゲート毎に、当該ゲートの配置箇所付近にそれぞれ設置されるものである。
 図1に示す例では、3つのゲートG1,G2,G3が並列に隣接して配置されており、図1の右側から各ゲートG1,G2,G3に向かって、矢印に示す方向に人物が通行するよう構成されている。このため、各ゲートG1,G2,G3に対する図1の右側領域は、人物がゲートを通過する前側の領域(通過前側領域)となっている。そして、各ゲートG1,G2,G3の通過前側領域には、当該各ゲートG1,G2,G3を通過しようとする人物が並んで通行する各レーンR1,R2,R3が、各ゲートG1,G2,G3にそれぞれ対応して並列に位置している。なお、各レーンR1,R2,R3は、何らかの部材で仕切られていてもよく、仕切られていなくてもよい。
 図1に示す状況において、本実施形態における顔認証システム10を構成する撮像装置C1,C2,C3は、対応する各ゲートG1,G2,G3付近であり、各ゲートG1,G2,G3に向かう人物から見て右側に設置されている。但し、撮像装置の設置位置は、図1に示す位置に限定されず、ゲートに向かって左側やゲートの上方など、いかなる位置に設置されていてもよい。なお、顔認証システム10は、各撮像装置C1,C2,C3の近辺に、表示装置も備えている。
 顔認証システム10は、例えば、ゲートG1においては、装備している撮像装置C1にてゲートG1に向かう人物の画像を撮影する。そして、撮影画像に映る人物の顔画像から、かかる人物が予め登録された人物であるか否かを照合し、照合が成功すると、人物が通過可能なようゲートG1を開く、という処理を行う。なお、他のゲートG2,G3にもそれぞれ対応して顔認証システム及び当該システムを構成する撮像装置C2,C3が設置されており、各ゲートG2,G3に向かう人物の照合を行う。以下、顔認証システム10の構成について詳述する。なお、以下では、主にゲートG1に対応して設置された顔認証システム10について説明するが、他のゲートG2,G3に対応して設置された顔認証システムも同様の構成である。
 [顔認証システムの構成]
 本実施形態における顔認証システム10は、撮像装置C1(カメラ)及び表示装置D1(ディスプレイ)と一体的に構成された演算装置及び記憶装置を有する情報処理装置である。逆に言うと、撮像装置C1に、顔認証処理を行う演算装置及び記憶装置を有する情報処理装置と表示装置D1が搭載されている。但し、顔認証システム10は、必ずしも撮像装置C1や表示装置D1と一体的に構成されていることに限定されない。例えば、撮像装置C1と表示装置D1と撮影画像を処理する情報処理装置とが別々の装置にて構成されており、別々の場所に設置されていてもよい。
 具体的に、顔認証システム10は、図2に示すように、撮像装置C1及び表示装置D1と、通信部16と、を備えると共に、演算装置がプログラムを実行することで構築された対象抽出部11と、対象判定部12と、照合部13と、ゲート制御部14と、を備えている。また、顔認証システム10は、記憶装置に構築された照合データ記憶部17と、を備えている。
 上記撮像装置C1(撮像手段)は、ゲートG1に対する通過前側領域、つまり、対応するレーンR1のゲートG1前領域の撮影画像を、所定のフレームレートで取得するカメラ及びカメラ制御部を備えたものである。そして、撮像装置C1は、例えば図3に示すように、符号C1a線で挟まれた範囲が撮影領域となっている。このとき、撮影領域のうち符号C1b線で挟まれた水平方向における中央領域に、撮像装置C1が設置されたゲートG1に対応するレーンR1(自レーン)を通行する人物P10が位置するよう、撮像装置C1の撮影領域が設定されている。なお、撮影画像は、撮像装置C1に対する遠近方向の予め設定された距離の範囲、例えば、図3に示す符号L1線から符号L2線の間の距離で、概ね焦点が合うよう設定されている。
 上述したように撮像装置C1の撮影領域が設定されていることにより、撮影領域のうち、符号C1a線と符号C1b線とに挟まれた領域である上記中央領域に対して水平方向における端領域には、図3に示す状況では、隣接するゲートG2に対応するレーンR2を通行する人物P20が映る場合が生じる。また、端領域には、図5に示す状況では、撮像装置C1が設置された自ゲートG1に対応する自レーンR1に位置する人物P12が映る場合もある。本発明の顔認証システム10は、このような状況が生じた場合であっても、以下に説明するように、隣接ゲートG2を通過しようとしている人物P20を照合処理対象から除外し、自ゲートG1を通過しようとする人物P12を適切に認識してゲート通過の可否を判定可能とするよう構成されている。
 上記対象抽出部11は、撮像装置C1から撮影画像を取得し、撮影画像内から処理対象となる人物を抽出する。人物の抽出は、例えば、動く物体を抽出したり、物体の全体形状や全体像に対する特徴的な形状部位の位置や色の位置などから判定して行う。このとき、対象抽出部11は、抽出した人物が位置する撮影画像内における領域も特定する。特に本実施形態では、抽出した人物が、上述した撮影画像の水平方向における中央領域か左右の端領域に位置しているかを特定する。例えば、図3の状況では、ゲートG1に対応する撮像装置C1による撮影画像では、図4Aに示すように中央領域に位置する人物P10が抽出され、右端領域に位置する人物P20が抽出される。
 上記対象判定部12(照合手段)は、対象抽出部11で抽出した人物P10,P20が自ゲートG1に向かっている人物であるか否かを判定する。このとき、対象判定部12は、端領域(第一領域)に人物P20が位置している場合には、他のゲートG2に対応する顔認証システム20の撮像装置C2にて撮影された撮影画像に基づいて、かかる人物P20が自ゲートG1に向かっているか否かを判定する。この例では、図4Aに示す自ゲートG1に対応する撮影画像の右側の端領域に人物P20が映っているため、ゲートG1の右側に隣接するゲートG2の撮像装置C2にて撮影された撮影画像を取得する。具体的には、対象判定部12は、通信部16を介して、隣接ゲートG2の顔認証システム20と通信して、ゲートG1で撮影画像が撮影された同一のタイミング(例えば、同一時刻)でゲートG2で撮影された撮影画像を取得する。なお、各ゲートG1,G2,G3にそれぞれ対応する顔認証システム(撮像装置C1,C2,C3)の位置関係は、予め各システムに登録されていることとする。
 そして、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P20が、隣接ゲートG2の撮影画像の中央領域(第二領域)に映っているか否かを調べる。本実施形態では、隣接ゲートG2の撮影画像の中央領域にいずれかの人物が映っている場合には、かかる人物が自ゲートG1の撮影画像の端領域に位置している人物P20であると判定する。この場合、自ゲートG1の顔認証システム10では、撮影画像の端領域に位置する人物P20を照合対象から除外すると判定する。なお、自ゲートG1の撮影画像の端領域(第一領域)と隣接ゲートG2の撮影画像の中央領域(第二領域)とは、撮影画像上においては相互に異なる領域であるが、実空間においては相互に重複する空間である。
 例えば、図3の状況では、図4Aに示す自ゲートG1の撮影画像の端領域に位置する人物P20は、図4Bに示す隣接ゲートG2の撮影画像の中央領域に位置するため、かかる人物P20は自ゲートG1の顔認証システム10による照合対象から除外する。つまり、自ゲートG1の顔認証システム10は、撮影画像の中央領域に位置する人物P10のみを照合対象とする。また、図5の状況では、図6Aに示す自ゲートG1の撮影画像の端領域に位置する人物P12は、図6Bに示す隣接ゲートG2の撮影画像の中央領域には位置していない。このため、かかる人物P12は自ゲートG1の顔認証システム10による照合対象とする。つまり、自ゲートG1の顔認証システム10は、撮影画像の中央領域に位置する人物P10と、端領域に位置する人物P12を照合対象とする。
 なお、上記対象判定部12は、上述とは異なる方法で、人物が自ゲートにおける照合対象であるか否かを判定してもよい。一例として、対象判定部12は、撮影画像の端領域(第一領域)に人物が位置している場合には、他のゲートG2に対応する顔認証システム20に対して、かかる人物が自ゲートG1の人物か否かを問い合わせてもよい。具体的に、図3及び図4の例では、図4Aに示す自ゲートG1に対応する撮影画像の右側の端領域に人物P20が映っているため、ゲートG1の右側に隣接するゲートG2の顔認証システム20に対して、かかる人物P20が当該隣接するゲートG2の中央領域に映っているか否かを問い合わせる。同様に、図5及び図6の例では、図6Aに示す自ゲートG1に対応する撮影画像の右側の端領域に人物P12が映っているため、ゲートG1の右側に隣接するゲートG2の顔認証システム20に対して、かかる人物P12が当該隣接するゲートG2の中央領域に映っているか否かを問い合わせる。このとき、対象判定部12は、通信部16を介して、隣接ゲートG2の顔認証システム20と通信して、ゲートG1で撮影画像が撮影された同一のタイミング(例えば、同一時刻)でゲートG2で撮影された撮影画像の中央領域に、人物が映っているか否かを問い合わせる。
 そして、上記問合せを受けた隣接するゲートG2の顔認証システム20は、自身の撮影画像から中央領域(第二領域)にいずれかの人物が映っているか否かを調べ、その結果を問合せを受けたゲートG1の顔認証システム10の対象判定部12に通知する。具体的に、隣接するゲートG2の顔認証システム20は、上述した対象抽出部11と同等の機能を有し、撮像装置C2から撮影画像を取得し、撮影画像内から処理対象となる人物を抽出し、抽出した人物が位置する撮影画像内における領域も特定する。そして、隣接するゲートG2の顔認証システム20は、中央領域に人物が映っているか否かを、問い合わせに対する応答結果として、ゲートG1の顔認証システム10に通知する。
 隣接するゲートG20の顔認証システムから、問い合わせに対する応答結果の通知を受けたゲートG1の顔認証システム10の対象判定部12は、応答結果に応じて以下のように判定する。対象判定部12は、隣接するゲートG2の撮影画像の中央領域にいずれかの人物が映っている通知を受けた場合には(図3及び図4の例)、その人物が自ゲートG1の撮影画像の端領域に位置している人物P20であると判定する。この場合、自ゲートG1の顔認証システム10では、撮影画像の端領域に位置する人物P20を照合対象から除外すると判定する。一方、対象判定部12は、隣接するゲートG2の撮影画像の中央領域にいずれの人物も映っていないという通知を受けた場合には(図5及び図6の例)、自ゲートG1の撮影画像の端領域に位置する人物P12を照合対象とすると判定する。
 以上のような方法で、人物が照合対象であるか否かを判定することで、各顔認証システム10,20でそれぞれ人物の抽出処理が行われるため、一方の顔認証システムに処理が集中することがなく、また、画像の転送がない。従って、1つの顔認証システム10の処理負荷を抑制でき、かつ、顔認証システム10,20間の通信量を抑制することができ、迅速な判定を行うことができる。
 上記照合部13(照合手段)は、対象判定部12により、自ゲートG1の撮影画像内で照合対象として判定された人物に対する照合処理を行う。換言すると、照合部13は、自ゲートG1の撮影画像内に映っていた人物であっても、対象判定部12で照合対象から除外された人物については照合処理を行わない。ここで、照合処理は、例えば以下のようにして行う。まず、照合処理の対象となる人物の顔領域を特定し、当該顔領域から照合に必要な特徴量を生成する。そして、生成した特徴量と、予め照合データ記憶部17に登録された人物の特徴量と、の類似度といった照合スコアを算出し、照合スコアがしきい値よりも高いか否か判定する。照合スコアがしきい値より高い場合には、照合成功とし、ゲートG1を通過しようとしている人物が、予め登録されている人物であると判断する。このとき、照合するために検出する人物の特徴量は、既存の顔照合技術で用いられる特徴量であってもよく、いかなる方法によって算出される特徴量であってもよい。また、照合方法はいかなる方法であってもよい。
 上記ゲート制御部14は、まず、照合部13による照合結果に基づいて、ゲートG1に対する人物の通過可否を判定する。具体的には、照合部13による照合が成功した人物に対しては通過可能と判定する。また、ゲート制御部14は、照合結果つまり照合の成否を表示装置D1に表示する機能を有する。さらに、ゲート制御部14は、ゲートG1の開閉を行うゲート制御機能も有しており、通過可能と判断した人物に対しては、ゲートG1を開くよう制御する。
 なお、上記表示装置D1は、ゲートG1を通過しようとする人物が視認可能なよう、当該ゲートG1の通過前側領域に表示面を向けて配置されている。但し、表示装置D1は、必ずしも装備されていなくてもよい。
 [動作]
 次に、上述した顔認証システム10の動作を、図7のフローチャートを参照して説明する。ここでは、ゲートG1に対応する顔認証システム10の動作について説明し、撮像装置C1による撮影状況が図3乃至図6に示す状況である場合を一例に説明する。
 ゲートG1に対応する撮像装置C1は、ゲートG1の通過前側領域の画像を撮影し続ける。そして、顔認証システム10は、撮影した撮影画像に対して、常に以下の処理を行う。
 まず、対象抽出部11が、撮影画像内から処理対象となる人物(対象)を抽出する(ステップS1)。そして、対象判定部12が、撮影画像の端領域に人物P20が位置している場合には、隣接ゲートG2に対応する顔認証システム20の撮像装置C2にて撮影された撮影画像を取得する(ステップS2)。このとき、隣接ゲートG2の撮影画像は、自ゲートG1の撮影画像の撮影と同一のタイミングで撮影されたものを取得する。
 続いて、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P20が、隣接ゲートG2の撮影画像の中央領域に映っているか否かを調べる(ステップS3)。そして、対象判定部12は、隣接ゲートG2の撮影画像の中央領域にいずれかの人物が映っている場合には、かかる人物が自ゲートG1の撮影画像の端領域に位置している人物P20であると判定する。この場合、自ゲートG1の顔認証システム10では、端領域に位置する人物P20を照合対象から除外すると判定する。
 例えば、図3の状況では、図4Aに示す自ゲートG1の撮影画像の端領域に位置する人物P20は、図4Bに示す隣接ゲートG2の撮影画像の中央領域に位置するため、かかる人物P20は自ゲートG1の顔認証システム10による照合対象から除外する(ステップS3でYes)。また、図5の状況では、図6Aに示す自ゲートG1の撮影画像の端領域に位置する人物P12は、図6Bに示す隣接ゲートG2の撮影画像の中央領域には位置していない。このため、かかる人物P12は自ゲートG1の顔認証システム10による照合対象から除外せず、照合対象とする(ステップS3でNo)。
 続いて、照合部13が、対象判定部12により、自ゲートG1の撮影画像内で照合対象として判定された人物に対する照合処理を行う(ステップS4)。図3及び図4の例では、人物P10のみの照合処理を開始し、図5及び図6の例では、人物P10と人物P12の照合処理を開始する。照合処理は、まず、照合処理の対象となる人物の顔領域から照合に必要な特徴量を検出し、予め照合データ記憶部17に登録された人物の特徴量と照合を行い、照合スコアを取得する。そして、照合スコアがしきい値以上であるか否かを判定する。
 照合部による照合処理の結果、通行しようとしている人物の照合に成功すると(ステップS5でYes)、ゲート制御部14がゲートG1に対する人物の通過を許可し、ゲートG1を開くよう制御する(ステップS6)。
 以上のように、本実施形態の顔認証システム10によると、隣接ゲートG2を通過しようとしている人物P20に対する照合処理を抑制でき、自ゲートG1を通過しようとする人物P10,P12を適切に照合処理することができる。例えば、図3及び図4の例では、自ゲートG1を通過しようとしている人物P10を照合処理するが、隣接ゲートG2を通過しようとしている人物P20の照合処理は行われない。また、図5及び図6の例では、撮影画像の端領域に映っている人物P12であっても、自ゲートG1を通過しようとしているため、適切に照合処理が行われることとなる。その結果、他のゲートを通過しようとする人物の誤認識を抑制することができる。
 なお、上記では、自ゲートG1の撮影画像に対して隣接ゲートG2の撮影画像を比較しているが、隣接ゲートG2の撮影画像に限らず、他のゲート(例えばゲートG3)の撮影画像を比較してもよい。また、上記では、自ゲートG1の撮影画像の端領域と、隣接ゲートG2の中央領域と、を比較しているが、比較する領域は上述した領域同士であることに限定されない。異なるゲートにおける撮影画像同士のいかなる領域間を比較してもよい。
 また、上記では、自ゲートG1に対応する顔認証システム10が、隣接ゲートG2の撮影画像を取得して、人物が照合対象であるか否かを判定しているが、かかる判定処理は、隣接ゲートG2の顔認証システムが行ってもよい。つまり、自ゲートG1の顔認証システム10が撮影画像を隣接ゲートG2の顔認証システム20に提供し、当該隣接ゲートG2の顔認証システム20が判定結果を自ゲートG1の顔認証システム10に返してもよい。さらには、かかる判定処理を他の情報処理装置が行ってもよい。
 また、顔認証システム10は、上述したように、隣接ゲートG2の顔認証システム20に対して、当該隣接ゲートG2における撮影画像の中央領域に人物が映っているか否かを問い合わせ、その応答結果に応じて、人物が照合対象であるか否かを判定してもよい。この場合、隣接するゲートG2の撮影画像の中央領域にいずれかの人物が映っている通知を受けた場合には、自ゲートG1の撮影画像の端領域に位置している人物を照合対象から除外すると判定する。一方、隣接するゲートG2の撮影画像の中央領域にいずれの人物も映っていないという通知を受けた場合には、自ゲートG1の撮影画像の端領域に位置する人物を照合対象とすると判定する。
 また、上記では、ゲートG1を通過しようとしている対象が人物である場合を例示したが、人物に限らずいかなる物体であってもよい。例えば、荷物といった物体であってもよい。
 <実施形態2>
 次に、本発明の第2の実施形態を、図8乃至図12を参照して説明する。図8乃至図12は、顔認証システムの処理動作を説明するための図である。特に、図12は、顔認証システムの動作を示すフローチャートである。
 本実施形態における顔認証システム10は、上述した実施形態1におけるものと同様の構成であるが、自ゲートG1の撮影画像に映る人物を照合対象とするか否かの判定処理が異なる。以下、主に実施形態1とは異なる構成について詳述する。
 本実施形態における上記対象判定部12は、対象抽出部11で自ゲートG1の撮影画像の端領域から人物P20を抽出すると(ステップS11)、かかる人物P20と同一人物が、他のゲートG2の撮影画像の中央領域に位置するか否かを判定する。図8及び図10の例では、対象判定部12は、自ゲートG1に対応する撮影画像の右側の端領域に人物P20が映っているため、ゲートG1の右側に隣接するゲートG2の撮像装置C2にて撮影された撮影画像を取得する(ステップS12)。具体的には、対象判定部12は、通信部16を介して、隣接ゲートG2の顔認証システム20と通信して、ゲートG1で撮影画像が撮影された同一のタイミング(例えば、同一時刻)でゲートG2で撮影された撮影画像を取得する。なお、各ゲートG1,G2,G3にそれぞれ対応する顔認証システム(撮像装置C1,C2,C3)の位置関係は、予め各システムに登録されていることとする。
 そして、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P20と、隣接ゲートG2の撮影画像の中央領域(第二領域)に位置している人物P20と、の同一性を判別する。本実施形態では、まず、それぞれの人物の顔領域を特定し、当該顔領域から照合に必要な特徴量を検出する(ステップS13)。そして、両人物の特徴量から、両人物が同一人物であるか否かを判定する(ステップS14)。なお、人物が一致するか否かを判定する処理は、後述する照合処理と比較して精度の低い処理であってもよい。例えば、人物の一部の部位の特徴量のみを検出したり、かかる特徴量から性別や年代を検出し、これらの情報から同一性を判別してもよい。但し、人物の同一性を判別する処理は、いかなる処理であってもよい。
 そして、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P20と同一人物が、隣接ゲートG2の撮影画像の中央領域に位置していると判定した場合には、かかる人物P20は隣接ゲートG2に向かう人物であると判定する(ステップS15でYes)。この場合、自ゲートG1の顔認証システム10では、端領域に位置する人物P20を照合対象から除外すると判定する。一方で、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P12と同一人物が、隣接ゲートG2の撮影画像の中央領域に位置していないと判定した場合には、かかる人物P12は自ゲートG1に向かう人物であると判定する(ステップS15でNo)。この場合、自ゲートG1の顔認証システム10では、端領域に位置する人物P12を照合対象であると判定する。なお、自ゲートG1の撮影画像の端領域(第一領域)と隣接ゲートG2の撮影画像の中央領域(第二領域)とは、撮影画像同士を比較すると相互に異なる領域であるが、実空間においては相互に重複する領域である。
 例えば、図8の状況では、図9Aに示す自ゲートG1の撮影画像の端領域に位置する人物P20と同一人物が、図9Bに示す隣接ゲートG2の撮影画像の中央領域に位置するため、かかる人物P20は自ゲートG1の顔認証システム10による照合対象から除外される。つまり、自ゲートG1の顔認証システム10は、撮影画像の中央領域に位置する人物P10のみを照合対象とする。また、図10の状況では、図11Aに示す自ゲートG1の撮影画像の端領域に位置する人物P12と同一人物が、図11Bに示す隣接ゲートG2の撮影画像の中央領域には位置していない。このため、かかる人物P12は自ゲートG1の顔認証システム10による照合対象とされる。つまり、自ゲートG1の顔認証システム10は、撮影画像の中央領域に位置する人物P10と、端領域に位置する人物P12と、を照合対象とする。
 上記照合部13(照合手段)は、対象判定部12により、自ゲートG1の撮影画像内で照合対象として判定された人物に対する照合処理を行う(ステップS16)。換言すると、照合部13は、自ゲートG1の撮影画像内に映っていた人物であっても、対象判定部12で照合対象から除外された人物については照合処理を行わない。ここで、照合処理は、例えば以下のようにして行う。まず、照合処理の対象となる人物の顔領域を特定し、当該顔領域から照合に必要な特徴量を生成する。そして、生成した特徴量と、予め照合データ記憶部17に登録された人物の特徴量と、の類似度といった照合スコアを算出し、照合スコアがしきい値よりも高いか否か判定する。照合スコアがしきい値より高い場合には、照合成功とし、ゲートG1を通過しようとしている人物が、予め登録されている人物であると判定する。なお、照合方法はいかなる方法であってもよい。
 上記ゲート制御部14は、照合部13による照合結果に基づいて、ゲートG1に対する人物の通過可否を判定する。具体的には、照合部13による照合が成功した人物に対しては通過可能と判定し(ステップS17)、ゲートG1を開くよう制御する(ステップS18)。
 以上のように、本実施形態における顔認証システムでは、各ゲートに対応する撮影画像内の人物の特徴量を抽出して比較することで、各ゲートの撮影画像に同一の対象が重複して映っているか否かをより確実に判別することができる。そして、所定のゲートと他のゲートとで重複して映っている対象を照合処理から除外することができ、ゲートを通過しようとする対象の誤認識を抑制することができる。さらに、対象の重複を判断するために抽出した対象の特徴量を照合処理に利用することができ、処理の効率化を図ることができる。
 なお、上記では、ゲートG1を通過しようとしている対象が人物である場合を例示したが、人物に限らずいかなる物体であってもよい。例えば、荷物といった物体であってもよい。
 <実施形態3>
 次に、本発明の第3の実施形態を説明する。本実施形態における顔認証システム10は、基本的には、上述した実施形態1と同様に、撮影画像の端領域に映っている人物が自ゲートG1に向かっている人物であるか否かを判定する。つまり、自ゲートG1の撮影画像の端領域に映っている人物が、他のゲートG2に対応する顔認証システム20にて撮影された撮影画像の中央領域に映っているか否かに応じて、自ゲートG1に向かっている人物であるか判定する。但し、本実施形態では、かかる判定処理が以下のように異なる。以下、主に実施形態1とは異なる構成について詳述する。
 まず、本実施形態における対象抽出部11は、実施形態1と同様に、撮像装置C1から撮影画像を取得し、撮影画像内から処理対象となる人物を抽出する。このとき、対象抽出部11は、抽出した人物が位置する撮影画像内における領域も特定する。そして、本実施形態における対象抽出部11では、端領域に映っている人物の判定情報である特徴が基準値を超えているか否かを判定し、かかる判定結果に応じて、かかる人物が自ゲートG1に向かっている人物であるか否かの判定処理を行う。
 一例として、対象抽出部11は、まず、撮影画像の端領域に位置している人物の顔領域の抽出を行う。人物の顔領域の抽出は、例えば、動く人物の全体像に対する位置や色などから判定して行う。そして、対象抽出部11は、判定情報である人物の特徴を、顔領域から検出する。本実施形態では、判定情報としての人物の特徴は、人物の両目の間の距離(目間距離)であることとする。
 そして、本実施形態における対象判定部12は、対象抽出部11で検出した判定情報である目間距離が、基準値を超えているか否かを調べる。ここで、本実施形態では、上記基準値は、自ゲートG1の撮影画像の端領域に映っている人物が、自ゲートG1のレーンR1に位置するか否かを判別することができる値に設定されている。例えば、上述した図10の状況では、自ゲートG1の撮影画像の端領域に映り、自ゲートG1に向かう人物P12の目間距離は、隣接ゲートG2の人物P20の目間距離よりも大きくなると考えられる。このことを考慮し、基準値は、自ゲートG1の撮影画像の端領域に映り、自ゲートG1に進む人物P12の目間距離と、隣接ゲートG2の人物P20の目間距離と、の間の値に設定される。
 そして、対象判定部12は、対象抽出部11で検出したゲートG1の撮影画像の端領域に映る人物の目間距離が、基準値を超えている場合には、かかる人物は自ゲートG1に向かう人物であると判定し、照合処理の対象とする。つまり、人物の目間距離が基準値を超えている場合には、隣接ゲートG2の撮影画像との比較を行わず、そのまま自ゲートG1に向かう人物として照合処理を行う。
 一方、対象判定部12は、対象抽出部11で検出した自ゲートG1の撮影画像の端領域に映る人物の目間距離が、基準値以下である場合には、かかる人物は隣接ゲートG2に向かう人物である可能性があるため、隣接ゲートG2の撮影画像との比較を行う。つまり、実施形態1で説明したように、隣接ゲートG2の撮影画像の中央領域にいずれかの人物が映っているか否かを調べる。隣接ゲートG2の撮影画像の中央領域に人物が映っている場合には、自ゲートG1の撮影画像の端領域に映る人物は隣接ゲートG2に向かう人物であると判定し、照合処理の対象から除外する。隣接ゲートG2の撮影画像の中央領域に人物が映っていない場合には、自ゲートG1の撮影画像の端領域に映る人物は、自ゲートG1に向かう人物であると判定し、照合処理の対象とする。
 上記処理により、例えば、図10及び図11の例の場合には、まず自ゲートG1の撮影画像の端領域に人物P12が映るが、かかる人物P12が自ゲートG1の撮像装置C1に対する距離が近いため、人物P12の大きさを表す判定情報である目間距離が基準値よりも大きくなる。このため、かかる人物P12は自ゲートG1に向かう人物であると判定し、照合処理の対象とする。つまり、隣接ゲートG2に向かう人物P20が存在する場合であっても、自ゲートG1の人物P12を照合処理の対象とできる。
 一方で、例えば、図8及び図9の例の場合には、まず自ゲートG1の撮影画像の端領域に人物P20が映るが、かかる人物P20が自ゲートG1の撮像装置C1に対する距離が遠いため、人物P20の大きさを表す判定情報である目間距離が基準値以下となる。このため、かかる人物P20が隣接ゲートG2の撮影画像の中央領域に映っているか否かを調べる。この場合、隣接ゲートG2の撮影画像の中央領域に人物が映っているため、自ゲートG1の撮影画像の端領域に映る人物は隣接ゲートG2に向かう人物であると判定し、照合処理の対象から除外する。
 なお、上記では、自ゲートG1の撮影画像の端領域に映っている人物の判定情報が目間距離である場合を例示したが、判定情報としての人物の特徴は、人物の顔を構成する他の部位間の距離であってもよく、人物の他の部位の大きさを表す値であってもよい。但し、判定情報である人物の特徴は、必ずしも人物の部位の大きさを表す値に限定されない。
 <実施形態4>
 次に、本発明の第4の実施形態を、図13乃至図16を参照して説明する。図13は、本実施形態における顔認証システムの構成を示すブロック図であり、図14乃至図16は、顔認証システムの処理動作を説明するための図である。
 本実施形態における顔認証システム10は、上述した実施形態1におけるものと同様の構成であるが、さらに、上記実施形態1,2で説明したように、隣接する各ゲートの撮影画像同士が重複し、同一人物が位置しているか否かを比較する領域である重複領域を設定する機能を有する。以下、主に実施形態1,2とは異なる構成について詳述する。
 図13に示すように、本実施形態における顔認証システム10は、演算装置がプログラムを実行することで構築された領域設定部15(領域設定手段)を備えている。領域設定部15は、まず、自ゲートG1の撮像装置C1から撮影画像を取得すると共に、隣接するゲートG2の撮像装置C2からも撮影画像を取得する。このとき、領域設定部15は、通信部16を介して隣接ゲートG2の顔認証システム20と通信して、ゲートG1で撮影画像が撮影された同一のタイミング(例えば、同一時刻)でゲートG2で撮影された撮影画像を取得する。
 続いて、領域設定部15は、取得したゲートG1の撮影画像とゲートG2の撮影画像とから人物を抽出する。人物の抽出は、例えば、動く物体を抽出したり、物体の全体形状や全体像に対する特徴的な形状部位の位置や色の位置などから判定して行う。そして、領域設定部15は、両撮影画像に同一人物が映っているか否かを調べる。このとき、領域設定部15は、各撮影画像に映る各人物の顔領域を特定し、当該顔領域から照合に必要な特徴量を検出する。そして、各人物の特徴量から、各人物が同一人物であるか否かを調べる。なお、人物の同一性を判別する処理は、いかなる処理であってもよい。
 そして、領域設定部15は、各撮影画像に同一人物が映っていると判定した場合には、当該各撮影画像内で同一人物がそれぞれ映っている箇所の周囲の領域を、当該各撮影画像内で相互に重複する重複領域として設定する。このとき、設定する重複領域は、同一人物が検出された箇所を撮影画像の上下端まで広げると共に、かかる領域をさらに撮影画像の水平方向に所定範囲だけ広げた領域とする。特に、自ゲートG1の撮影画像については、同一人物の抽出箇所が撮影画像の水平方向における一方の端付近に位置することが考えられるが、人物の抽出箇所に対して少しだけ水平方向に広げた範囲を重複領域(第一領域)とし、さらに、反対側の端付近にも同じ広さの重複領域(第一領域)を設定する。一方、隣接ゲートG2の撮影画像については、同一人物の抽出箇所が撮影画像の水平方向における中央付近に位置することが考えられるが、人物の抽出箇所に対して上記端領域の重複領域よりも広く水平方向に広げた範囲を重複領域(第二領域)として設定する。つまり、本実施形態では、上述した端領域よりも中央領域を広く設定する。但し、端領域や中央領域の広さの設定方法は、上述した方法に限定されない。
 一例として、図14に示す状況においては、まず、自ゲートG1の撮像装置C1から符号C1a線で挟まれた撮影領域の撮影画像が取得でき、隣接ゲートG2の撮像装置C2から符号C2a線で挟まれた撮影領域の撮影画像が取得できる。これら図15A,図15Bの両撮影画像から同一人物の抽出を行うことで、自ゲートG1の撮影画像の端領域と、隣接ゲートG2の撮影画像の中央領域とに、同一人物P20を検出したとする。この場合、自ゲートG1の撮影画像については、図16Aに示すように、抽出した人物P20の箇所を上下方向に広げた領域(斜線領域)をさらに少しだけ水平方向に広げた符号C1a,C1bで挟まれた領域を重複領域として設定する。また、水平方向における反対側の端領域にも符号C1a,C1bで挟まれた重複領域を設定する。一方で、隣接ゲートG2の撮影画像については、図16Bに示すように、抽出した人物P20の箇所を上下方向に広げた領域(斜線領域)をさらに広く水平方向に広げた符号C2bで挟まれた領域を重複領域として設定する。
 以上のようにして、本実施形態では、ゲートG1に対応する顔認証システム10の領域設定部15が、自ゲートG1の撮影画像の端領域と、隣接ゲートG2の撮影画像の中央領域と、を重複領域として自動的に設定する。そして、顔認証システム10が、上述した実施形態1,2で説明したように、設定した自ゲートG1の撮影画像の端領域と隣接ゲートG2の撮影画像の中央領域とから人物を抽出したり、両領域に同一人物が存在するか否かを判定する、といった処理を行う。
 上述した実施形態4の顔認証システム10によると、所定のゲートに対応する撮影画像内の人物と、他のゲートに対応する撮影画像内の人物と、に基づいて、各ゲートに対応する各撮影画像同士で重複する領域を自動的に設定することができる。その結果、相互に隣接するゲートG1,G2の撮像装置C1,C2間における重複領域を適切に設定することができ、照合システムの利用の容易化と、より高精度に誤認識を抑制することができる。
 なお、上記では、ゲートG1,G2を通過しようとする人物の画像を用いて重複範囲を設定する場合を例示したが、人物に限らず撮影画像の映るいかなる物体を用いて重複範囲を設定してもよい。例えば、各撮影画像にそれぞれ映る物品や風景の同一性を判定して、判定結果に基づいて各撮影画像の重複範囲を設定してもよい。
 <実施形態5>
 次に、本発明の第5の実施形態を、図17及び図18を参照して説明する。図17は、実施形態5における照合システムの構成を示すブロック図である。図18は、実施形態5における情報処理装置の構成を示すブロック図である。なお、本実施形態では、実施形態1乃至4で説明した顔認証システムの構成の概略を示している。
 図17に示すように、本実施形態おける照合システム100は、
 並列に設置された各ゲートに対する各通過前側領域の撮影画像をそれぞれ取得する撮像手段110と、
 ゲート毎に、各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、撮影画像に含まれる対象と、の照合処理を行う照合手段120と、
を備える。
 そして、上記照合手段120は、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、照合処理を行う、
という構成をとる。
 また、本実施形態では、図17に示す照合システム100から撮像手段110を取り除いてもよい。
 つまり、本実施形態における情報処理装置200は、
 並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、撮影画像に含まれる対象と、の照合処理を行う照合手段210を備える。
 そして、上記照合手段210は、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、照合処理を行う、
という構成をとる。
 なお、上述した照合手段120,210は、演算装置がプログラムを実行することで構築されるものであってもよく、電子回路で構築されるものであってもよい。
 そして、上記構成の照合システム100あるいは情報処理装置200によると、
 並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、撮影画像に含まれる対象と、の照合処理を行う照合方法が提供される。
 そして、かかる照合方法において、さらに、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、照合処理を行う、
という構成をとる。
 上述した照合システム100あるいは情報処理装置200によると、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、対象の照合処理を行う。このため、所定のゲートに対応する撮影画像に他のゲートを通過しようとする対象が映っている場合であっても、かかる対象が他のゲートを通過しようとする対象であると判断することができ、所定のゲートにおける照合処理から除外することができる。その結果、ゲートを通過しようとする対象の誤認識を抑制することができる。
 <付記>
 上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における照合システム、情報処理装置、プログラム、照合方法の構成の概略を説明する。但し、本発明は、以下の構成に限定されない。
(付記1)
 並列に設置された各ゲートに対する各通過前側領域の撮影画像をそれぞれ取得する撮像手段と、
 前記ゲート毎に、前記各通過前側領域の前記撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段と、
を備え、
 前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
照合システム。
 上記構成によると、照合システムは、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、対象の照合処理を行う。このため、所定のゲートに対応する撮影画像に他のゲートを通過しようとする対象が映っている場合であっても、かかる対象が他のゲートを通過しようとする対象であると判断することができ、所定のゲートにおける照合処理から除外することができる。その結果、ゲートを通過しようとする対象の誤認識を抑制することができる。
(付記2)
 付記1に記載の照合システムであって、
 前記照合手段は、前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
照合システム。
(付記3)
 付記2に記載の照合システムであって、
 前記照合手段は、前記所定のゲートに対応する前記撮影画像の第一領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の第二領域に位置する対象と、に基づいて、前記照合処理を行う、
照合システム。
(付記4)
 付記3に記載の照合システムであって、
 前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域にも位置している場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
照合システム。
(付記5)
 付記4に記載の照合システムであって、
 前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域である水平方向における端領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域である水平方向における中央領域に位置している場合に、前記所定のゲートに対応する前記撮影画像の水平方向における端領域に位置する対象を、前記照合処理から除外する、
照合システム。
(付記6)
 付記4又は5に記載の照合システムであって、
 前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、当該対象が前記第一領域に位置するタイミングで前記他のゲートに対応する前記撮影画像の前記第二領域に位置している場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
照合システム。
 上記構成によると、照合システムは、所定のゲートに対応する撮影画像内の所定領域に映っている対象を、他のゲートに対応する撮影画像内に映っている対象と比較することで、重複して映る対象を照合処理から除外し、単独で映る対象のみの照合処理を行う。特に、所定のゲートに対応する撮影画像内の水平方向の端領域(第一領域)に位置する対象が、他のゲートに対応する撮影画像内の水平方向の中央領域(第二領域)に映っている場合には、その対象の照合処理は行わない。一方で、所定のゲートに対応する撮影画像内の水平方向の端領域(第一領域)に位置する対象が、他のゲートに対応する撮影画像内の水平方向の中央領域(第二領域)に映っていない場合には、その対象の照合処理を行う。その結果、所定のゲートに対応する撮影画像と他のゲートに対応する撮影画像とに対象が重複して映っている場合には、照合処理から除外することができ、ゲートを通過しようとする対象の誤認識を抑制することができる。
(付記7)
 付記4又は5に記載の照合システムであって、
 前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象の特徴量と、前記他のゲートに対応する前記撮影画像の前記第二領域に位置する対象の特徴量と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域に位置している判断した場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
照合システム。
(付記8)
 付記7に記載の照合システムであって、
 前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象である人物の顔を構成する部位の特徴量と、前記他のゲートに対応する前記撮影画像の前記第二領域に位置する対象である人物の顔を構成する部位の特徴量と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域に位置していると判断した場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
照合システム。
 上記構成によると、照合システムは、各ゲートに対応する撮影画像内の対象の特徴量を抽出して比較することで、各ゲートの撮影画像に同一の対象が重複して映っているかをより確実に判別することができる。そして、所定のゲートと他のゲートとで重複して映っている対象を照合処理から除外することができ、ゲートを通過しようとする対象の誤認識を抑制することができる。さらに、対象の重複を判断するために抽出した対象の特徴量を照合処理に利用することができ、処理の効率化を図ることができる。
(付記9)
 付記3乃至8のいずれかに記載の照合システムであって、
 前記所定のゲートに対応する前記撮影画像内の対象と、当該対象が前記所定のゲートに対応する前記撮影画像内に位置するタイミングで取得された前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域と前記他のゲートに対応する前記撮影画像の前記第二領域とを設定する領域設定手段を備えた、
照合システム。
(付記10)
 付記9に記載の照合システムであって、
 前記領域設定手段は、前記所定のゲートに対応する前記撮影画像内の対象と、当該対象が前記所定のゲートに対応する前記撮影画像内に位置するタイミングで取得された前記他のゲートに対応する前記撮影画像内の対象と、が同一である場合に、前記所定のゲートに対応する前記撮影画像内の対象の位置と、前記他のゲートに対応する前記撮影画像内の対象の位置と、に基づいて、前記所定のゲートに対応する前記撮影画像内の対象の位置の周囲を前記第一領域として設定し、前記他のゲートに対応する前記撮影画像内の対象の位置の周囲を前記第二領域として設定する、
照合システム。
 上記構成によると、照合システムは、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、各ゲートに対応する各撮影画像同士で重複する領域を自動的に設定することができる。その結果、照合システムの利用の容易化を図ることができると共に、高精度に誤認識を抑制することができる。
(付記11)
 並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を備え、
 前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
情報処理装置。
(付記12)
 付記11に記載の情報処理装置であって、
 前記照合手段は、前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
情報処理装置。
(付記13)
 情報処理装置に、
 並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を実現させるためのプログラムであり、
 前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
プログラム。
(付記14)
 付記13に記載のプログラムであって、
 前記照合手段は、前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
プログラム。
(付記15)
 並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う方法であり、
 所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
照合方法。
(付記16)
 付記15に記載の照合方法であって、
 前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
照合方法。
(付記17)
 付記16に記載の照合方法であって、
 前記所定のゲートに対応する前記撮影画像の第一領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の第二領域に位置する対象と、に基づいて、前記照合処理を行う、
照合方法。
(付記18)
 付記17に記載の照合方法であって、
 前記所定のゲートに対応する前記撮影画像内の対象と、当該対象が前記所定のゲートに対応する前記撮影画像内に位置するタイミングで取得された前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域と前記他のゲートに対応する前記撮影画像の前記第二領域とを設定し、
 前記所定のゲートに対応する前記撮影画像の設定された前記第一領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の設定された前記第二領域に位置する対象と、に基づいて、前記照合処理を行う、
照合方法。
 なお、上述したプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されている。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。
 以上、上記実施形態等を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることができる。
 なお、本発明は、日本国にて2017年9月19日に特許出願された特願2017-179064の特許出願に基づく優先権主張の利益を享受するものであり、当該特許出願に記載された内容は、全て本明細書に含まれるものとする。
10 顔認証システム
11 対象抽出部
12 対象判定部
13 照合部
14 ゲート制御部
15 領域設定部
16 通信部
17 照合データ記憶部
20 顔認証システム
100 照合システム
110 撮像手段
120 照合手段
200 情報処理装置
210 照合手段
C1,C2,C3 撮像装置
D1 表示装置
G1,G2,G3 ゲート
 

Claims (18)

  1.  並列に設置された各ゲートに対する各通過前側領域の撮影画像をそれぞれ取得する撮像手段と、
     前記ゲート毎に、前記各通過前側領域の前記撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段と、
    を備え、
     前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
    照合システム。
  2.  請求項1に記載の照合システムであって、
     前記照合手段は、前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
    照合システム。
  3.  請求項2に記載の照合システムであって、
     前記照合手段は、前記所定のゲートに対応する前記撮影画像の第一領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の第二領域に位置する対象と、に基づいて、前記照合処理を行う、
    照合システム。
  4.  請求項3に記載の照合システムであって、
     前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域にも位置している場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
    照合システム。
  5.  請求項4に記載の照合システムであって、
     前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域である水平方向における端領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域である水平方向における中央領域に位置している場合に、前記所定のゲートに対応する前記撮影画像の水平方向における端領域に位置する対象を、前記照合処理から除外する、
    照合システム。
  6.  請求項4又は5に記載の照合システムであって、
     前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、当該対象が前記第一領域に位置するタイミングで前記他のゲートに対応する前記撮影画像の前記第二領域に位置している場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
    照合システム。
  7.  請求項4又は5に記載の照合システムであって、
     前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象の特徴量と、前記他のゲートに対応する前記撮影画像の前記第二領域に位置する対象の特徴量と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域に位置していると判断した場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
    照合システム。
  8.  請求項7に記載の照合システムであって、
     前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象である人物の顔を構成する部位の特徴量と、前記他のゲートに対応する前記撮影画像の前記第二領域に位置する対象である人物の顔を構成する部位の特徴量と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域に位置していると判断した場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
    照合システム。
  9.  請求項3乃至8のいずれかに記載の照合システムであって、
     前記所定のゲートに対応する前記撮影画像内の対象と、当該対象が前記所定のゲートに対応する前記撮影画像内に位置するタイミングで取得された前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域と前記他のゲートに対応する前記撮影画像の前記第二領域とを設定する領域設定手段を備えた、
    照合システム。
  10.  請求項9に記載の照合システムであって、
     前記領域設定手段は、前記所定のゲートに対応する前記撮影画像内の対象と、当該対象が前記所定のゲートに対応する前記撮影画像内に位置するタイミングで取得された前記他のゲートに対応する前記撮影画像内の対象と、が同一である場合に、前記所定のゲートに対応する前記撮影画像内の対象の位置と、前記他のゲートに対応する前記撮影画像内の対象の位置と、に基づいて、前記所定のゲートに対応する前記撮影画像内の対象の位置の周囲を前記第一領域として設定し、前記他のゲートに対応する前記撮影画像内の対象の位置の周囲を前記第二領域として設定する、
    照合システム。
  11.  並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を備え、
     前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
    情報処理装置。
  12.  請求項11に記載の情報処理装置であって、
     前記照合手段は、前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
    情報処理装置。
  13.  情報処理装置に、
     並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を実現させるためのプログラムであり、
     前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
    プログラム。
  14.  請求項13に記載のプログラムであって、
     前記照合手段は、前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
    プログラム。
  15.  並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う方法であり、
     所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
    照合方法。
  16.  請求項15に記載の照合方法であって、
     前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
    照合方法。
  17.  請求項16に記載の照合方法であって、
     前記所定のゲートに対応する前記撮影画像の第一領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の第二領域に位置する対象と、に基づいて、前記照合処理を行う、
    照合方法。
  18.  請求項17に記載の照合方法であって、
     前記所定のゲートに対応する前記撮影画像内の対象と、当該対象が前記所定のゲートに対応する前記撮影画像内に位置するタイミングで取得された前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域と前記他のゲートに対応する前記撮影画像の前記第二領域とを設定し、
     前記所定のゲートに対応する前記撮影画像の設定された前記第一領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の設定された前記第二領域に位置する対象と、に基づいて、前記照合処理を行う、
    照合方法。
     
PCT/JP2018/029807 2017-09-19 2018-08-08 照合システム WO2019058801A1 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
AU2018336236A AU2018336236B2 (en) 2017-09-19 2018-08-08 Collation system
US16/645,821 US11295116B2 (en) 2017-09-19 2018-08-08 Collation system
BR112020003661-7A BR112020003661A2 (pt) 2017-09-19 2018-08-08 sistema de conferência
EP18858639.0A EP3686838A4 (en) 2017-09-19 2018-08-08 VERIFICATION SYSTEM
SG11202001408PA SG11202001408PA (en) 2017-09-19 2018-08-08 Collation system
US17/683,634 US11978295B2 (en) 2017-09-19 2022-03-01 Collation system
US18/209,882 US20230326276A1 (en) 2017-09-19 2023-06-14 Collation system
US18/214,253 US20230334928A1 (en) 2017-09-19 2023-06-26 Collation system
US18/214,266 US20230343160A1 (en) 2017-09-19 2023-06-26 Collation system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-179064 2017-09-19
JP2017179064A JP6409929B1 (ja) 2017-09-19 2017-09-19 照合システム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/645,821 A-371-Of-International US11295116B2 (en) 2017-09-19 2018-08-08 Collation system
US17/683,634 Continuation US11978295B2 (en) 2017-09-19 2022-03-01 Collation system

Publications (1)

Publication Number Publication Date
WO2019058801A1 true WO2019058801A1 (ja) 2019-03-28

Family

ID=63920569

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/029807 WO2019058801A1 (ja) 2017-09-19 2018-08-08 照合システム

Country Status (7)

Country Link
US (5) US11295116B2 (ja)
EP (1) EP3686838A4 (ja)
JP (1) JP6409929B1 (ja)
AU (1) AU2018336236B2 (ja)
BR (1) BR112020003661A2 (ja)
SG (1) SG11202001408PA (ja)
WO (1) WO2019058801A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
AU2019208182B2 (en) 2018-07-25 2021-04-08 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
WO2021066148A1 (en) * 2019-10-04 2021-04-08 Nec Corporation Information processing apparatus, information processing method, and storage medium
AU2020435735B2 (en) * 2020-03-17 2024-03-21 Nec Corporation Gate system, gate apparatus, image processing method therefor, program, and arrangement method for gate apparatus
EP4123110A4 (en) * 2020-03-18 2023-04-26 Nec Corporation DOOR DEVICE, AUTHENTICATION SYSTEM, DOOR DEVICE CONTROL METHOD AND STORAGE MEDIA
CN112613461B (zh) * 2020-12-14 2022-11-29 南京理工大学 结合人脸识别的智能闸机通行和考勤的方法及其系统
JPWO2022201359A1 (ja) * 2021-03-24 2022-09-29
JP7122543B1 (ja) * 2021-04-15 2022-08-22 パナソニックIpマネジメント株式会社 情報処理装置、情報処理システム、及び、推定方法
JP7345067B2 (ja) * 2021-06-21 2023-09-14 楽天グループ株式会社 認証システム、認証方法、及びプログラム
US20240126850A1 (en) * 2021-06-21 2024-04-18 Rakuten Group, Inc. Authentication system, authentication method and program
JP7335456B2 (ja) * 2021-06-21 2023-08-29 楽天グループ株式会社 認証システム、認証方法、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007148987A (ja) * 2005-11-30 2007-06-14 Toshiba Corp 顔認証システムおよび入退場管理システム
JP2007328572A (ja) * 2006-06-08 2007-12-20 Matsushita Electric Ind Co Ltd 顔認証装置および顔認証方法
JP2012104964A (ja) * 2010-11-08 2012-05-31 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2015001790A (ja) 2013-06-14 2015-01-05 セコム株式会社 顔認証システム
JP2017179064A (ja) 2016-03-29 2017-10-05 株式会社巴川製紙所 電子部品用接着剤

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6119096A (en) * 1997-07-31 2000-09-12 Eyeticket Corporation System and method for aircraft passenger check-in and boarding using iris recognition
US6513015B2 (en) * 1998-09-25 2003-01-28 Fujitsu Limited System and method for customer recognition using wireless identification and visual data transmission
TWI282941B (en) * 2001-03-15 2007-06-21 Toshiba Corp Entrance management apparatus and entrance management method by using face features identification
TWI299471B (en) * 2001-08-24 2008-08-01 Toshiba Kk Person recognition apparatus
CA2359269A1 (en) * 2001-10-17 2003-04-17 Biodentity Systems Corporation Face imaging system for recordal and automated identity confirmation
JP2005070850A (ja) 2003-08-26 2005-03-17 Omron Corp ゲート制御装置及びゲート制御システム
JP2005242775A (ja) * 2004-02-27 2005-09-08 Omron Corp ゲートシステム
JP2006236244A (ja) * 2005-02-28 2006-09-07 Toshiba Corp 顔認証装置および入退場管理装置
JP2007206898A (ja) 2006-01-31 2007-08-16 Toshiba Corp 顔認証装置および入退場管理装置
JP4865346B2 (ja) 2006-02-08 2012-02-01 綜合警備保障株式会社 監視システム及び監視方法
DE602007010523D1 (de) * 2006-02-15 2010-12-30 Toshiba Kk Vorrichtung und Verfahren zur Personenidentifizierung
JP2007249298A (ja) 2006-03-13 2007-09-27 Toshiba Corp 顔認証装置および顔認証方法
JP4836633B2 (ja) * 2006-03-31 2011-12-14 株式会社東芝 顔認証装置、顔認証方法および入退場管理装置
US20070252001A1 (en) * 2006-04-25 2007-11-01 Kail Kevin J Access control system with RFID and biometric facial recognition
JP2007334623A (ja) * 2006-06-15 2007-12-27 Toshiba Corp 顔認証装置、顔認証方法、および入退場管理装置
US20080080748A1 (en) * 2006-09-28 2008-04-03 Kabushiki Kaisha Toshiba Person recognition apparatus and person recognition method
WO2008108458A1 (ja) 2007-03-07 2008-09-12 Omron Corporation 顔画像取得システム、顔照合システム、顔画像取得方法、顔照合方法、顔画像取得プログラムおよび顔照合プログラム
JP4942189B2 (ja) * 2007-05-11 2012-05-30 キヤノン株式会社 画像処理装置、画像処理方法、プログラムおよび記憶媒体
JP4751442B2 (ja) 2008-12-24 2011-08-17 株式会社東芝 映像監視システム
US9805265B2 (en) * 2012-05-30 2017-10-31 Hitachi, Ltd. Surveillance camera control device and video surveillance system
US10489973B2 (en) * 2015-08-17 2019-11-26 Cubic Corporation 3D face reconstruction from gate camera
WO2017043314A1 (ja) * 2015-09-09 2017-03-16 日本電気株式会社 ガイダンス取得装置、ガイダンス取得方法及びプログラム
JPWO2017146161A1 (ja) * 2016-02-26 2018-12-27 日本電気株式会社 顔照合システム、顔照合装置、顔照合方法、及び記録媒体
JP2017174343A (ja) * 2016-03-25 2017-09-28 富士ゼロックス株式会社 入店者属性抽出装置及び入店者属性抽出プログラム
WO2018181968A1 (ja) * 2017-03-31 2018-10-04 日本電気株式会社 顔認証システム、装置、方法、プログラム
US11328513B1 (en) * 2017-11-07 2022-05-10 Amazon Technologies, Inc. Agent re-verification and resolution using imaging
JP6627894B2 (ja) * 2018-01-12 2020-01-08 日本電気株式会社 顔認証装置
KR102177453B1 (ko) * 2018-10-16 2020-11-11 서울시립대학교 산학협력단 얼굴 인식 방법 및 얼굴 인식 장치
JP2020198475A (ja) * 2019-05-30 2020-12-10 パナソニックi−PROセンシングソリューションズ株式会社 人物監視システムおよび人物監視方法
US11321554B2 (en) * 2020-01-30 2022-05-03 Universal City Studios Llc Efficient management of facial recognition systems and methods in multiple areas
JP7432867B2 (ja) * 2020-02-18 2024-02-19 パナソニックIpマネジメント株式会社 照合装置、照合システム、及び、照合方法
KR102513726B1 (ko) * 2020-11-12 2023-03-24 네이버랩스 주식회사 보안 검사 방법 및 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007148987A (ja) * 2005-11-30 2007-06-14 Toshiba Corp 顔認証システムおよび入退場管理システム
JP2007328572A (ja) * 2006-06-08 2007-12-20 Matsushita Electric Ind Co Ltd 顔認証装置および顔認証方法
JP2012104964A (ja) * 2010-11-08 2012-05-31 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2015001790A (ja) 2013-06-14 2015-01-05 セコム株式会社 顔認証システム
JP2017179064A (ja) 2016-03-29 2017-10-05 株式会社巴川製紙所 電子部品用接着剤

Also Published As

Publication number Publication date
AU2018336236A1 (en) 2020-03-12
US20230343160A1 (en) 2023-10-26
US20230326276A1 (en) 2023-10-12
US20220180657A1 (en) 2022-06-09
US11978295B2 (en) 2024-05-07
SG11202001408PA (en) 2020-03-30
US20200202110A1 (en) 2020-06-25
JP2019053675A (ja) 2019-04-04
US20230334928A1 (en) 2023-10-19
US11295116B2 (en) 2022-04-05
BR112020003661A2 (pt) 2020-09-01
EP3686838A1 (en) 2020-07-29
JP6409929B1 (ja) 2018-10-24
AU2018336236B2 (en) 2021-10-14
EP3686838A4 (en) 2020-10-07

Similar Documents

Publication Publication Date Title
WO2019058801A1 (ja) 照合システム
JP6544404B2 (ja) 照合システム
JP6601513B2 (ja) 情報処理装置
JP6947202B2 (ja) 照合システム
JP7040578B2 (ja) 照合システム
JP6774036B2 (ja) 照合システム
US20230274597A1 (en) Information processing apparatus, information processing method, and storage medium
JP6915673B2 (ja) 情報処理システム
JP7298658B2 (ja) 照合システム
US20220335766A1 (en) Information processing apparatus, information processing method, and storage medium
WO2019151116A1 (ja) 情報処理装置
JP2023120264A (ja) 照合システム
JP7279774B2 (ja) 情報処理装置
WO2023145059A1 (ja) 入場管理装置、入場管理方法およびプログラム記憶媒体
JP2021193268A (ja) 情報処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18858639

Country of ref document: EP

Kind code of ref document: A1

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112020003661

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 2018336236

Country of ref document: AU

Date of ref document: 20180808

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018858639

Country of ref document: EP

Effective date: 20200420

ENP Entry into the national phase

Ref document number: 112020003661

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20200220