JP2019057284A - Checking system - Google Patents

Checking system Download PDF

Info

Publication number
JP2019057284A
JP2019057284A JP2018177488A JP2018177488A JP2019057284A JP 2019057284 A JP2019057284 A JP 2019057284A JP 2018177488 A JP2018177488 A JP 2018177488A JP 2018177488 A JP2018177488 A JP 2018177488A JP 2019057284 A JP2019057284 A JP 2019057284A
Authority
JP
Japan
Prior art keywords
captured image
target
gate
collation
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018177488A
Other languages
Japanese (ja)
Other versions
JP6774036B2 (en
Inventor
剛人 古地
Takehito Furuchi
剛人 古地
謙志 斉藤
Kenji Saito
謙志 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2018177488A priority Critical patent/JP6774036B2/en
Publication of JP2019057284A publication Critical patent/JP2019057284A/en
Application granted granted Critical
Publication of JP6774036B2 publication Critical patent/JP6774036B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To prevent a wrong recognition of an object passing through a gate.SOLUTION: The checking system according to the present invention includes: first imaging means for acquiring a first image, which is an image taken of a before-passage region to a gate; second imaging means for acquiring a second image, which is an image taken of a region including at least a part of the before-passage region; and checking means for checking a target registered in advance and a target in the first image against each other, using the second image.SELECTED DRAWING: Figure 17

Description

本発明は、照合システムにかかり、特に、ゲートを通過しようとする対象を照合する照合システムに関する。   The present invention relates to a collation system, and more particularly to a collation system that collates an object about to pass through a gate.

オフィスやイベント会場などの特定場所に入退場する人物を制限したり管理する手段として、通過しようとする人物が予め登録された人物か否かを照合する照合システムが用いられる。特に、近年では、人物の顔認証技術の発達により、ゲートに設置したカメラで撮影した人物の顔画像から顔認証を行うウォークスルー顔認証システムが利用されている。   As a means for restricting and managing the persons who enter and leave a specific place such as an office or an event venue, a collation system that collates whether or not the person to be passed is a person registered in advance is used. In particular, in recent years, with the development of human face authentication technology, a walk-through face authentication system that performs face authentication from a human face image taken by a camera installed at a gate is used.

特開2015−1790号公報JP2015-1790A

ここで、ウォークスルー顔認証システムにおいては、複数のゲートが隣接し、各ゲートにそれぞれ向かう人物が通行するレーンが隣接している場合がある。この場合、あるゲートのレーンを通行する人物を撮影した画像に、隣接するレーンで隣接するゲートに向かう人物も映ってしまう場合がある。すると、隣接するレーンを通行する人物を、自レーンを通行する人物と誤認識してしまい、自レーンの先にある自ゲートを通行する人物の照合の妨げとなる場合がある。このため、複数のゲートが設置された状況においては、各ゲートに向かう人物の誤認識を抑制することが求められる。   Here, in the walk-through face authentication system, there are cases where a plurality of gates are adjacent to each other and lanes through which a person heading to each gate passes are adjacent. In this case, a person heading for an adjacent gate in an adjacent lane may be reflected in an image of a person passing through a lane of a certain gate. Then, a person passing through an adjacent lane may be misrecognized as a person passing through the own lane, which may hinder verification of a person passing through the own gate ahead of the own lane. For this reason, in the situation where a plurality of gates are installed, it is required to suppress erroneous recognition of a person heading to each gate.

また、ウォークスルー顔認証システムに関連する技術として、特許文献1に記載の技術がある。特許文献1では、人物がゲートから遠くにいる時点で認証が済んでしまい、かかる人物がゲートに到達する前にゲートが開放されてしまう、という問題を掲げている。そして、かかる問題を解決するために、特許文献1では、撮影した人物の顔画像と登録顔画像との照合を行い、照合した人物の入力画像上の大きさに基づいて、かかる人物のゲートへの接近を検出している。さらに、特許文献1では、撮影画像の領域毎に、それぞれ顔領域の大きさの判定基準値を異ならせて設定することで、隣接ゲートに向かう人物の誤認識を防止しようとしている。   Moreover, there exists a technique of patent document 1 as a technique relevant to a walk-through face authentication system. Japanese Patent Application Laid-Open No. 2004-151867 raises a problem that authentication is completed when a person is far from the gate, and the gate is opened before the person reaches the gate. And in order to solve such a problem, in Patent Document 1, the face image of the photographed person and the registered face image are collated, and based on the size of the collated person on the input image, to the person's gate. The approach of is detected. Further, in Patent Document 1, an attempt is made to prevent erroneous recognition of a person heading to an adjacent gate by setting different determination reference values for the size of the face area for each captured image area.

しかしながら、特許文献1に記載の技術では、人物が通過しようとしているゲートに対応して設置されたカメラによる撮影画像のみを用い、かつ、撮影画像の領域毎に設定された人物の大きさの判定基準値を用いて、自ゲートへの人物の接近を検出している。このため、撮影画像に映る人物の領域が適切でなかったり、判定基準値が適切でない場合には、依然として他のゲートに向かう人物を誤認識してしまう、という問題が生じる。   However, in the technique described in Patent Document 1, only the photographed image by the camera installed corresponding to the gate through which the person is going to pass is used, and the size of the person set for each region of the photographed image is determined. The reference value is used to detect the approach of a person to the gate. For this reason, when the area of the person shown in the photographed image is not appropriate, or when the determination reference value is not appropriate, there is a problem that a person who is heading for another gate is still erroneously recognized.

また、上述した各ゲートにそれぞれ向かう人物の誤認識という問題は、ゲートを通過する対象が人物である場合に限らず、いかなる対象の照合を行う場合にも生じうる。   Further, the above-described problem of erroneous recognition of a person heading to each gate is not limited to the case where the object passing through the gate is a person, but can occur when any object is collated.

このため、本発明の目的は、上述した課題である、ゲートを通過しようとする対象を誤認識してしまうという問題を解決することができる照合システムを提供することにある。   Therefore, an object of the present invention is to provide a collation system that can solve the above-described problem of erroneously recognizing an object that is going to pass through a gate.

本発明の一形態である照合システムは、
並列に設置された各ゲートに対する各通過前側領域の撮影画像をそれぞれ取得する撮像手段と、
前記ゲート毎に、前記各通過前側領域の前記撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段と、
を備え、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
という構成をとる。
The collation system which is one form of the present invention,
Imaging means for acquiring each captured image of each pre-passage region for each gate installed in parallel;
For each of the gates, a matching unit that performs a matching process between a target registered in advance and a target included in the captured image with respect to each of the captured images in each of the pre-passage areas,
With
The collation means performs the collation processing based on a target in the captured image corresponding to the predetermined gate and a target in the captured image corresponding to another gate.
The configuration is as follows.

また、本発明の一形態である情報処理装置は、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を備え、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
という構成をとる。
In addition, an information processing apparatus which is one embodiment of the present invention
For each of the captured images of each pre-passage region for each gate installed in parallel, a collation unit that performs collation processing between a pre-registered target and a target included in the captured image,
The collation means performs the collation processing based on a target in the captured image corresponding to the predetermined gate and a target in the captured image corresponding to another gate.
The configuration is as follows.

また、本発明の一形態であるプログラムは、
情報処理装置に、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を実現させるためのプログラムであり、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
という構成をとる。
In addition, a program which is one embodiment of the present invention is
In the information processing device,
A program for realizing collation means for performing collation processing between a pre-registered target and a target included in the captured image with respect to each captured image of each pre-passage region for each gate installed in parallel And
The collation means performs the collation processing based on a target in the captured image corresponding to the predetermined gate and a target in the captured image corresponding to another gate.
The configuration is as follows.

また、本発明の一形態である照合方法は、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う方法であり、
所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
という構成をとる。
Moreover, the collation method which is one form of this invention is the following.
A method of performing a collation process between a pre-registered target and a target included in the captured image for each captured image of each pre-passage region for each gate installed in parallel,
Performing the matching process based on a target in the captured image corresponding to a predetermined gate and a target in the captured image corresponding to another gate;
The configuration is as follows.

本発明は、以上のように構成されることにより、ゲートを通過しようとする対象の誤認識を抑制することができる。   According to the present invention configured as described above, it is possible to suppress erroneous recognition of an object about to pass through a gate.

本発明の実施形態1における顔認証システムの使用状況を示す図である。It is a figure which shows the use condition of the face authentication system in Embodiment 1 of this invention. 本発明の実施形態1における顔認証システムの構成を示すブロック図である。It is a block diagram which shows the structure of the face authentication system in Embodiment 1 of this invention. 図1に開示した顔認証システムによる撮像状況を示す図である。It is a figure which shows the imaging condition by the face authentication system disclosed in FIG. 図1に開示した顔認証システムにて図3の撮像状況で撮影した撮影画像を示す図である。It is a figure which shows the picked-up image image | photographed in the imaging condition of FIG. 3 with the face authentication system disclosed in FIG. 図1に開示した顔認証システムによる撮像状況を示す図である。It is a figure which shows the imaging condition by the face authentication system disclosed in FIG. 図1に開示した顔認証システムにて図5の撮像状況で撮影した撮影画像を示す図である。It is a figure which shows the picked-up image image | photographed in the imaging condition of FIG. 5 with the face authentication system disclosed in FIG. 図1に開示した顔認証システムによる処理動作を示すフローチャートである。It is a flowchart which shows the processing operation by the face authentication system disclosed in FIG. 本発明の実施形態2における顔認証システムによる撮像状況を示す図である。It is a figure which shows the imaging condition by the face authentication system in Embodiment 2 of this invention. 本発明の実施形態2における顔認証システムにて図8の撮像状況で撮影した撮影画像を示す図である。It is a figure which shows the picked-up image image | photographed in the imaging condition of FIG. 8 with the face authentication system in Embodiment 2 of this invention. 本発明の実施形態2における顔認証システムによる撮像状況を示す図である。It is a figure which shows the imaging condition by the face authentication system in Embodiment 2 of this invention. 本発明の実施形態2における顔認証システムにて図10の撮像状況で撮影した撮影画像を示す図である。It is a figure which shows the picked-up image image | photographed in the imaging condition of FIG. 10 with the face authentication system in Embodiment 2 of this invention. 本発明の実施形態2における顔認証システムによる処理動作を示すフローチャートである。It is a flowchart which shows the processing operation by the face authentication system in Embodiment 2 of this invention. 本発明の実施形態4における顔認証システムの構成を示すブロック図である。It is a block diagram which shows the structure of the face authentication system in Embodiment 4 of this invention. 本発明の実施形態4における顔認証システムによる撮像状況を示す図である。It is a figure which shows the imaging condition by the face authentication system in Embodiment 4 of this invention. 本発明の実施形態4における顔認証システムにて図12の撮像状況で撮影した撮影画像を示す図である。It is a figure which shows the picked-up image image | photographed in the imaging condition of FIG. 12 with the face authentication system in Embodiment 4 of this invention. 本発明の実施形態4における顔認証システムによる画像処理の様子を示す図である。It is a figure which shows the mode of the image processing by the face authentication system in Embodiment 4 of this invention. 本発明の実施形態5における照合システムの構成を示すブロック図である。It is a block diagram which shows the structure of the collation system in Embodiment 5 of this invention. 本発明の実施形態5における情報処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the information processing apparatus in Embodiment 5 of this invention.

<実施形態1>
本発明の第1の実施形態を、図1乃至図7を参照して説明する。図1は、顔認証システムの使用状況を示す図である。図2は、顔認証システムの構成を示す図である。図3乃至図7は、顔認証システムの処理動作を説明するための図である。
<Embodiment 1>
A first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a diagram illustrating a usage state of the face authentication system. FIG. 2 is a diagram illustrating the configuration of the face authentication system. 3 to 7 are diagrams for explaining the processing operation of the face authentication system.

[全体構成]
本発明における顔認証システム10(照合システム)は、オフィスやイベント会場などの特定場所において、人物(対象)の入退場を制限したり管理するために用いられるシステムである。例えば、顔認証システム10を構成する撮像装置は、人物の入退場の際に開閉されるゲート毎に、当該ゲートの配置箇所付近にそれぞれ設置されるものである。
[overall structure]
The face authentication system 10 (collation system) according to the present invention is a system used to limit or manage entry / exit of a person (target) in a specific place such as an office or an event venue. For example, the imaging device constituting the face authentication system 10 is installed in the vicinity of the gate location for each gate that is opened and closed when a person enters and exits.

図1に示す例では、3つのゲートG1,G2,G3が並列に隣接して配置されており、図1の右側から各ゲートG1,G2,G3に向かって、矢印に示す方向に人物が通行するよう構成されている。このため、各ゲートG1,G2,G3に対する図1の右側領域は、人物がゲートを通過する前側の領域(通過前側領域)となっている。そして、各ゲートG1,G2,G3の通過前側領域には、当該各ゲートG1,G2,G3を通過しようとする人物が並んで通行する各レーンR1,R2,R3が、各ゲートG1,G2,G3にそれぞれ対応して並列に位置している。なお、各レーンR1,R2,R3は、何らかの部材で仕切られていてもよく、仕切られていなくてもよい。   In the example shown in FIG. 1, three gates G1, G2, G3 are arranged adjacent to each other in parallel, and a person passes in the direction indicated by the arrow from the right side of FIG. 1 toward each gate G1, G2, G3. It is configured to For this reason, the right area of FIG. 1 with respect to each gate G1, G2, G3 is a front area (pre-passage area) where a person passes through the gate. In the pre-passage region of each gate G1, G2, G3, each lane R1, R2, R3 through which a person who wants to pass through each gate G1, G2, G3 passes side by side has each gate G1, G2, Corresponding to G3, they are located in parallel. Each lane R1, R2, R3 may be partitioned by some member or may not be partitioned.

図1に示す状況において、本実施形態における顔認証システム10を構成する撮像装置C1,C2,C3は、対応する各ゲートG1,G2,G3付近であり、各ゲートG1,G2,G3に向かう人物から見て右側に設置されている。但し、撮像装置の設置位置は、図1に示す位置に限定されず、ゲートに向かって左側やゲートの上方など、いかなる位置に設置されていてもよい。なお、顔認証システム10は、各撮像装置C1,C2,C3の近辺に、表示装置も備えている。   In the situation shown in FIG. 1, the imaging devices C1, C2, and C3 constituting the face authentication system 10 in the present embodiment are in the vicinity of the corresponding gates G1, G2, and G3, and the persons heading to the gates G1, G2, and G3. It is installed on the right side. However, the installation position of the imaging device is not limited to the position shown in FIG. 1, and may be installed at any position such as the left side of the gate or above the gate. Note that the face authentication system 10 also includes a display device in the vicinity of the imaging devices C1, C2, and C3.

顔認証システム10は、例えば、ゲートG1においては、装備している撮像装置C1にてゲートG1に向かう人物の画像を撮影する。そして、撮影画像に映る人物の顔画像から、かかる人物が予め登録された人物であるか否かを照合し、照合が成功すると、人物が通過可能なようゲートG1を開く、という処理を行う。なお、他のゲートG2,G3にもそれぞれ対応して顔認証システム及び当該システムを構成する撮像装置C2,C3が設置されており、各ゲートG2,G3に向かう人物の照合を行う。以下、顔認証システム10の構成について詳述する。なお、以下では、主にゲートG1に対応して設置された顔認証システム10について説明するが、他のゲートG2,G3に対応して設置された顔認証システムも同様の構成である。   For example, in the gate G1, the face authentication system 10 captures an image of a person heading for the gate G1 with the imaging device C1 equipped. Then, from the face image of the person shown in the photographed image, it is verified whether or not the person is a person registered in advance. If the verification is successful, the gate G1 is opened so that the person can pass. A face authentication system and imaging devices C2 and C3 constituting the system are also installed corresponding to the other gates G2 and G3, respectively, and a person who goes to each of the gates G2 and G3 is collated. Hereinafter, the configuration of the face authentication system 10 will be described in detail. In the following, the face authentication system 10 installed mainly corresponding to the gate G1 will be described, but the face authentication system installed corresponding to the other gates G2 and G3 has the same configuration.

[顔認証システムの構成]
本実施形態における顔認証システム10は、撮像装置C1(カメラ)及び表示装置D1(ディスプレイ)と一体的に構成された演算装置及び記憶装置を有する情報処理装置である。逆に言うと、撮像装置C1に、顔認証処理を行う演算装置及び記憶装置を有する情報処理装置と表示装置D1が搭載されている。但し、顔認証システム10は、必ずしも撮像装置C1や表示装置D1と一体的に構成されていることに限定されない。例えば、撮像装置C1と表示装置D1と撮影画像を処理する情報処理装置とが別々の装置にて構成されており、別々の場所に設置されていてもよい。
[Face recognition system configuration]
The face authentication system 10 according to the present embodiment is an information processing apparatus that includes an arithmetic device and a storage device that are integrated with an imaging device C1 (camera) and a display device D1 (display). In other words, the information processing apparatus including the arithmetic device and the storage device that perform face authentication processing and the display device D1 are mounted on the imaging device C1. However, the face authentication system 10 is not necessarily limited to being configured integrally with the imaging device C1 and the display device D1. For example, the imaging device C1, the display device D1, and the information processing device that processes the captured image may be configured as separate devices, and may be installed at different locations.

具体的に、顔認証システム10は、図2に示すように、撮像装置C1及び表示装置D1と、通信部16と、を備えると共に、演算装置がプログラムを実行することで構築された対象抽出部11と、対象判定部12と、照合部13と、ゲート制御部14と、を備えている。また、顔認証システム10は、記憶装置に構築された照合データ記憶部17と、を備えている。   Specifically, as shown in FIG. 2, the face authentication system 10 includes an imaging device C1, a display device D1, and a communication unit 16, and an object extraction unit constructed by an arithmetic device executing a program. 11, a target determination unit 12, a collation unit 13, and a gate control unit 14. In addition, the face authentication system 10 includes a collation data storage unit 17 constructed in a storage device.

上記撮像装置C1(撮像手段)は、ゲートG1に対する通過前側領域、つまり、対応するレーンR1のゲートG1前領域の撮影画像を、所定のフレームレートで取得するカメラ及びカメラ制御部を備えたものである。そして、撮像装置C1は、例えば図3に示すように、符号C1a線で挟まれた範囲が撮影領域となっている。このとき、撮影領域のうち符号C1b線で挟まれた水平方向における中央領域に、撮像装置C1が設置されたゲートG1に対応するレーンR1(自レーン)を通行する人物P10が位置するよう、撮像装置C1の撮影領域が設定されている。なお、撮影画像は、撮像装置C1に対する遠近方向の予め設定された距離の範囲、例えば、図3に示す符号L1線から符号L2線の間の距離で、概ね焦点が合うよう設定されている。   The imaging device C1 (imaging means) includes a camera and a camera control unit that acquire a photographed image of a pre-passage area with respect to the gate G1, that is, a captured image of the corresponding area in front of the gate G1 of the lane R1 at a predetermined frame rate. is there. For example, as illustrated in FIG. 3, the imaging device C <b> 1 has a shooting area in a range sandwiched by the C <b> 1 a line. At this time, the imaging is performed so that the person P10 who passes through the lane R1 (own lane) corresponding to the gate G1 where the imaging device C1 is located is located in the central area in the horizontal direction sandwiched by the line C1b in the imaging area. The imaging area of the device C1 is set. Note that the captured image is set so as to be substantially in focus within a predetermined distance range in the perspective direction with respect to the imaging device C1, for example, a distance between the line L1 and the line L2 shown in FIG.

上述したように撮像装置C1の撮影領域が設定されていることにより、撮影領域のうち、符号C1a線と符号C1b線とに挟まれた領域である上記中央領域に対して水平方向における端領域には、図3に示す状況では、隣接するゲートG2に対応するレーンR2を通行する人物P20が映る場合が生じる。また、端領域には、図5に示す状況では、撮像装置C1が設置された自ゲートG1に対応する自レーンR1に位置する人物P12が映る場合もある。本発明の顔認証システム10は、このような状況が生じた場合であっても、以下に説明するように、隣接ゲートG2を通過しようとしている人物P20を照合処理対象から除外し、自ゲートG1を通過しようとする人物P12を適切に認識してゲート通過の可否を判定可能とするよう構成されている。   As described above, the imaging region of the imaging device C1 is set, so that, in the imaging region, in the end region in the horizontal direction with respect to the central region that is sandwiched between the code C1a line and the code C1b line. In the situation shown in FIG. 3, a person P20 passing through the lane R2 corresponding to the adjacent gate G2 may appear. Further, in the situation shown in FIG. 5, in the situation shown in FIG. 5, the person P12 located in the own lane R1 corresponding to the own gate G1 in which the imaging device C1 is installed may be shown in the end region. Even if such a situation occurs, the face authentication system 10 of the present invention excludes the person P20 who is about to pass through the adjacent gate G2 from the verification processing target as will be described below, and the self-gate G1. The person P12 who is going to pass through is properly recognized so as to be able to determine whether or not the gate can pass.

上記対象抽出部11は、撮像装置C1から撮影画像を取得し、撮影画像内から処理対象となる人物を抽出する。人物の抽出は、例えば、動く物体を抽出したり、物体の全体形状や全体像に対する特徴的な形状部位の位置や色の位置などから判定して行う。このとき、対象抽出部11は、抽出した人物が位置する撮影画像内における領域も特定する。特に本実施形態では、抽出した人物が、上述した撮影画像の水平方向における中央領域か左右の端領域に位置しているかを特定する。例えば、図3の状況では、ゲートG1に対応する撮像装置C1による撮影画像では、図4(a)に示すように中央領域に位置する人物P10が抽出され、右端領域に位置する人物P20が抽出される。   The target extraction unit 11 acquires a captured image from the imaging device C1, and extracts a person to be processed from the captured image. The person is extracted by, for example, extracting a moving object, or determining from a position of a characteristic shape portion or a color position with respect to the entire shape of the object or the entire image. At this time, the target extraction unit 11 also identifies an area in the captured image where the extracted person is located. In particular, in the present embodiment, it is specified whether the extracted person is located in the center region or the left and right end regions in the horizontal direction of the captured image described above. For example, in the situation of FIG. 3, in the captured image by the imaging device C1 corresponding to the gate G1, as shown in FIG. 4A, the person P10 located in the central area is extracted and the person P20 located in the right end area is extracted. Is done.

上記対象判定部12(照合手段)は、対象抽出部11で抽出した人物P10,P20が自ゲートG1に向かっている人物であるか否かを判定する。このとき、対象判定部12は、端領域(第一領域)に人物P20が位置している場合には、他のゲートG2に対応する顔認証システム20の撮像装置C2にて撮影された撮影画像に基づいて、かかる人物P20が自ゲートG1に向かっているか否かを判定する。この例では、図4(a)に示す自ゲートG1に対応する撮影画像の右側の端領域に人物P20が映っているため、ゲートG1の右側に隣接するゲートG2の撮像装置C2にて撮影された撮影画像を取得する。具体的には、対象判定部12は、通信部16を介して、隣接ゲートG2の顔認証システム20と通信して、ゲートG1で撮影画像が撮影された同一のタイミング(例えば、同一時刻)でゲートG2で撮影された撮影画像を取得する。なお、各ゲートG1,G2,G3にそれぞれ対応する顔認証システム(撮像装置C1,C2,C3)の位置関係は、予め各システムに登録されていることとする。   The target determination unit 12 (collation means) determines whether or not the persons P10 and P20 extracted by the target extraction unit 11 are heading toward the own gate G1. At this time, when the person P20 is located in the end region (first region), the target determination unit 12 captures an image captured by the imaging device C2 of the face authentication system 20 corresponding to the other gate G2. Based on the above, it is determined whether or not the person P20 is heading toward the own gate G1. In this example, since the person P20 is shown in the right end region of the captured image corresponding to the own gate G1 shown in FIG. 4A, the person P20 is captured by the imaging device C2 of the gate G2 adjacent to the right side of the gate G1. Acquire a captured image. Specifically, the target determination unit 12 communicates with the face authentication system 20 of the adjacent gate G2 via the communication unit 16, and at the same timing (for example, the same time) when the captured image is captured by the gate G1. A photographed image photographed by the gate G2 is acquired. It is assumed that the positional relationships of the face authentication systems (imaging devices C1, C2, C3) respectively corresponding to the gates G1, G2, G3 are registered in advance in each system.

そして、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P20が、隣接ゲートG2の撮影画像の中央領域(第二領域)に映っているか否かを調べる。本実施形態では、隣接ゲートG2の撮影画像の中央領域にいずれかの人物が映っている場合には、かかる人物が自ゲートG1の撮影画像の端領域に位置している人物P20であると判定する。この場合、自ゲートG1の顔認証システム10では、撮影画像の端領域に位置する人物P20を照合対象から除外すると判定する。なお、自ゲートG1の撮影画像の端領域(第一領域)と隣接ゲートG2の撮影画像の中央領域(第二領域)とは、撮影画像上においては相互に異なる領域であるが、実空間においては相互に重複する空間である。   Then, the target determination unit 12 checks whether or not the person P20 located in the end region of the captured image of the own gate G1 is reflected in the central region (second region) of the captured image of the adjacent gate G2. In the present embodiment, if any person appears in the central area of the captured image of the adjacent gate G2, it is determined that the person is the person P20 located in the end area of the captured image of the own gate G1. To do. In this case, the face authentication system 10 of the own gate G1 determines that the person P20 located in the end region of the captured image is excluded from the comparison target. Note that the end region (first region) of the captured image of the own gate G1 and the central region (second region) of the captured image of the adjacent gate G2 are mutually different regions on the captured image, but in real space. Are overlapping spaces.

例えば、図3の状況では、図4(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P20は、図4(b)に示す隣接ゲートG2の撮影画像の中央領域に位置するため、かかる人物P20は自ゲートG1の顔認証システム10による照合対象から除外する。つまり、自ゲートG1の顔認証システム10は、撮影画像の中央領域に位置する人物P10のみを照合対象とする。また、図5の状況では、図6(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P12は、図6(b)に示す隣接ゲートG2の撮影画像の中央領域には位置していない。このため、かかる人物P12は自ゲートG1の顔認証システム10による照合対象とする。つまり、自ゲートG1の顔認証システム10は、撮影画像の中央領域に位置する人物P10と、端領域に位置する人物P12を照合対象とする。   For example, in the situation of FIG. 3, the person P20 located in the end region of the captured image of the own gate G1 shown in FIG. 4A is located in the central region of the captured image of the adjacent gate G2 shown in FIG. Therefore, the person P20 is excluded from the verification target by the face authentication system 10 of the own gate G1. That is, the face authentication system 10 of the self-gate G1 sets only the person P10 located in the center area of the captured image as a comparison target. Further, in the situation of FIG. 5, the person P12 located in the end region of the captured image of the own gate G1 shown in FIG. 6A is positioned in the central region of the captured image of the adjacent gate G2 shown in FIG. Not done. For this reason, the person P12 is set as a verification target by the face authentication system 10 of the own gate G1. That is, the face authentication system 10 of the self-gate G1 uses the person P10 located in the center area of the captured image and the person P12 located in the end area as collation targets.

なお、上記対象判定部12は、上述とは異なる方法で、人物が自ゲートにおける照合対象であるか否かを判定してもよい。一例として、対象判定部12は、撮影画像の端領域(第一領域)に人物が位置している場合には、他のゲートG2に対応する顔認証システム20に対して、かかる人物が自ゲートG1の人物か否かを問い合わせてもよい。具体的に、図3及び図4の例では、図4(a)に示す自ゲートG1に対応する撮影画像の右側の端領域に人物P20が映っているため、ゲートG1の右側に隣接するゲートG2の顔認証システム20に対して、かかる人物P20が当該隣接するゲートG2の中央領域に映っているか否かを問い合わせる。同様に、図5及び図6の例では、図6(a)に示す自ゲートG1に対応する撮影画像の右側の端領域に人物P12が映っているため、ゲートG1の右側に隣接するゲートG2の顔認証システム20に対して、かかる人物P12が当該隣接するゲートG2の中央領域に映っているか否かを問い合わせる。このとき、対象判定部12は、通信部16を介して、隣接ゲートG2の顔認証システム20と通信して、ゲートG1で撮影画像が撮影された同一のタイミング(例えば、同一時刻)でゲートG2で撮影された撮影画像の中央領域に、人物が映っているか否かを問い合わせる。   Note that the target determination unit 12 may determine whether or not a person is a verification target in the own gate by a method different from that described above. As an example, when the person is located in the end area (first area) of the photographed image, the target determination unit 12 determines that the person himself / herself with respect to the face authentication system 20 corresponding to the other gate G2. An inquiry may be made as to whether or not the person is a G1 person. Specifically, in the example of FIGS. 3 and 4, since the person P20 is shown in the right end region of the captured image corresponding to the own gate G1 shown in FIG. 4A, the gate adjacent to the right side of the gate G1. The G2 face authentication system 20 is inquired as to whether or not the person P20 is reflected in the central area of the adjacent gate G2. Similarly, in the example of FIGS. 5 and 6, since the person P12 is shown in the right end region of the captured image corresponding to the own gate G1 shown in FIG. 6A, the gate G2 adjacent to the right side of the gate G1. Is inquired whether the person P12 is reflected in the central area of the adjacent gate G2. At this time, the target determination unit 12 communicates with the face authentication system 20 of the adjacent gate G2 via the communication unit 16, and the gate G2 at the same timing (for example, the same time) when the captured image is captured by the gate G1. An inquiry is made as to whether or not a person is shown in the central area of the photographed image.

そして、上記問合せを受けた隣接するゲートG2の顔認証システム20は、自身の撮影画像から中央領域(第二領域)にいずれかの人物が映っているか否かを調べ、その結果を問合せを受けたゲートG1の顔認証システム10の対象判定部12に通知する。具体的に、隣接するゲートG2の顔認証システム20は、上述した対象抽出部11と同等の機能を有し、撮像装置C2から撮影画像を取得し、撮影画像内から処理対象となる人物を抽出し、抽出した人物が位置する撮影画像内における領域も特定する。そして、隣接するゲートG2の顔認証システム20は、中央領域に人物が映っているか否かを、問い合わせに対する応答結果として、ゲートG1の顔認証システム10に通知する。   Then, the face authentication system 20 of the adjacent gate G2 that has received the inquiry checks whether or not any person is reflected in the central area (second area) from its captured image, and receives the inquiry as a result. The target determination unit 12 of the face authentication system 10 of the gate G1 is notified. Specifically, the face authentication system 20 of the adjacent gate G2 has the same function as the target extraction unit 11 described above, acquires a captured image from the imaging device C2, and extracts a person to be processed from the captured image. Then, an area in the captured image where the extracted person is located is also specified. Then, the face authentication system 20 of the adjacent gate G2 notifies the face authentication system 10 of the gate G1 as a response result to the inquiry as to whether or not a person is reflected in the central area.

隣接するゲートG20の顔認証システムから、問い合わせに対する応答結果の通知を受けたゲートG1の顔認証システム10の対象判定部12は、応答結果に応じて以下のように判定する。対象判定部12は、隣接するゲートG2の撮影画像の中央領域にいずれかの人物が映っている通知を受けた場合には(図3及び図4の例)、その人物が自ゲートG1の撮影画像の端領域に位置している人物P20であると判定する。この場合、自ゲートG1の顔認証システム10では、撮影画像の端領域に位置する人物P20を照合対象から除外すると判定する。一方、対象判定部12は、隣接するゲートG2の撮影画像の中央領域にいずれの人物も映っていないという通知を受けた場合には(図5及び図6の例)、自ゲートG1の撮影画像の端領域に位置する人物P12を照合対象とすると判定する。   The target determination unit 12 of the face authentication system 10 of the gate G1 that has received the notification of the response result to the inquiry from the face authentication system of the adjacent gate G20 determines as follows according to the response result. When the target determination unit 12 receives a notification that any person is shown in the central region of the captured image of the adjacent gate G2 (example in FIGS. 3 and 4), the person is captured by the own gate G1. It is determined that the person P20 is located in the edge region of the image. In this case, the face authentication system 10 of the own gate G1 determines that the person P20 located in the end region of the captured image is excluded from the comparison target. On the other hand, when the target determination unit 12 receives a notification that no person is shown in the central area of the captured image of the adjacent gate G2 (example in FIGS. 5 and 6), the captured image of the own gate G1. It is determined that the person P12 located in the edge region is the target for collation.

以上のような方法で、人物が照合対象であるか否かを判定することで、各顔認証システム10,20でそれぞれ人物の抽出処理が行われるため、一方の顔認証システムに処理が集中することがなく、また、画像の転送がない。従って、1つの顔認証システム10の処理負荷を抑制でき、かつ、顔認証システム10,20間の通信量を抑制することができ、迅速な判定を行うことができる。   By determining whether or not a person is an object to be collated by the method as described above, each face authentication system 10 and 20 performs a person extraction process, so that the process concentrates on one face authentication system. And there is no image transfer. Therefore, the processing load of one face authentication system 10 can be suppressed, the communication amount between the face authentication systems 10 and 20 can be suppressed, and a quick determination can be performed.

上記照合部13(照合手段)は、対象判定部12により、自ゲートG1の撮影画像内で照合対象として判定された人物に対する照合処理を行う。換言すると、照合部13は、自ゲートG1の撮影画像内に映っていた人物であっても、対象判定部12で照合対象から除外された人物については照合処理を行わない。ここで、照合処理は、例えば以下のようにして行う。まず、照合処理の対象となる人物の顔領域を特定し、当該顔領域から照合に必要な特徴量を生成する。そして、生成した特徴量と、予め照合データ記憶部17に登録された人物の特徴量と、の類似度といった照合スコアを算出し、照合スコアがしきい値よりも高いか否か判定する。照合スコアがしきい値より高い場合には、照合成功とし、ゲートG1を通過しようとしている人物が、予め登録されている人物であると判断する。このとき、照合するために検出する人物の特徴量は、既存の顔照合技術で用いられる特徴量であってもよく、いかなる方法によって算出される特徴量であってもよい。また、照合方法はいかなる方法であってもよい。   The collation unit 13 (collation unit) performs collation processing on the person determined by the target determination unit 12 as a verification target in the captured image of the own gate G1. In other words, the collation unit 13 does not perform the collation process for the person excluded from the collation target by the target determination unit 12 even if the person is in the captured image of the own gate G1. Here, the collation process is performed as follows, for example. First, a face area of a person to be collated is specified, and a feature amount necessary for collation is generated from the face area. Then, a collation score such as a similarity between the generated feature amount and the feature amount of the person registered in the collation data storage unit 17 in advance is calculated, and it is determined whether or not the collation score is higher than a threshold value. If the matching score is higher than the threshold value, it is determined that the matching is successful, and the person who is going to pass through the gate G1 is determined to be a person registered in advance. At this time, the feature amount of the person detected for matching may be a feature amount used in the existing face matching technique, or may be a feature amount calculated by any method. The collation method may be any method.

上記ゲート制御部14は、まず、照合部13による照合結果に基づいて、ゲートG1に対する人物の通過可否を判定する。具体的には、照合部13による照合が成功した人物に対しては通過可能と判定する。また、ゲート制御部14は、照合結果つまり照合の成否を表示装置D1に表示する機能を有する。さらに、ゲート制御部14は、ゲートG1の開閉を行うゲート制御機能も有しており、通過可能と判断した人物に対しては、ゲートG1を開くよう制御する。   The gate control unit 14 first determines whether or not a person can pass through the gate G <b> 1 based on the collation result by the collation unit 13. Specifically, it is determined that a person who has been verified by the verification unit 13 can pass. Further, the gate control unit 14 has a function of displaying the collation result, that is, the success or failure of the collation, on the display device D1. Furthermore, the gate control unit 14 also has a gate control function for opening and closing the gate G1, and controls the gate G1 to be opened for a person who is determined to be able to pass through.

なお、上記表示装置D1は、ゲートG1を通過しようとする人物が視認可能なよう、当該ゲートG1の通過前側領域に表示面を向けて配置されている。但し、表示装置D1は、必ずしも装備されていなくてもよい。   In addition, the display device D1 is disposed with a display surface facing a pre-passage region of the gate G1 so that a person who wants to pass through the gate G1 is visible. However, the display device D1 is not necessarily equipped.

[動作]
次に、上述した顔認証システム10の動作を、図7のフローチャートを参照して説明する。ここでは、ゲートG1に対応する顔認証システム10の動作について説明し、撮像装置C1による撮影状況が図3乃至図6に示す状況である場合を一例に説明する。
[Operation]
Next, the operation of the face authentication system 10 described above will be described with reference to the flowchart of FIG. Here, the operation of the face authentication system 10 corresponding to the gate G1 will be described, and the case where the shooting situation by the imaging device C1 is the situation shown in FIGS. 3 to 6 will be described as an example.

ゲートG1に対応する撮像装置C1は、ゲートG1の通過前側領域の画像を撮影し続ける。そして、顔認証システム10は、撮影した撮影画像に対して、常に以下の処理を行う。   The imaging device C1 corresponding to the gate G1 continues to capture an image of the region before passing through the gate G1. Then, the face authentication system 10 always performs the following processing on the captured image.

まず、対象抽出部11が、撮影画像内から処理対象となる人物(対象)を抽出する(ステップS1)。そして、対象判定部12が、撮影画像の端領域に人物P20が位置している場合には、隣接ゲートG2に対応する顔認証システム20の撮像装置C2にて撮影された撮影画像を取得する(ステップS2)。このとき、隣接ゲートG2の撮影画像は、自ゲートG1の撮影画像の撮影と同一のタイミングで撮影されたものを取得する。   First, the target extraction unit 11 extracts a person (target) to be processed from the captured image (step S1). Then, when the person P20 is located in the end region of the captured image, the target determination unit 12 acquires a captured image captured by the imaging device C2 of the face authentication system 20 corresponding to the adjacent gate G2 ( Step S2). At this time, the captured image of the adjacent gate G2 is acquired at the same timing as the captured image of the own gate G1.

続いて、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P20が、隣接ゲートG2の撮影画像の中央領域に映っているか否かを調べる(ステップS3)。そして、対象判定部12は、隣接ゲートG2の撮影画像の中央領域にいずれかの人物が映っている場合には、かかる人物が自ゲートG1の撮影画像の端領域に位置している人物P20であると判定する。この場合、自ゲートG1の顔認証システム10では、端領域に位置する人物P20を照合対象から除外すると判定する。   Subsequently, the target determination unit 12 checks whether or not the person P20 located in the end region of the captured image of the own gate G1 is reflected in the central region of the captured image of the adjacent gate G2 (step S3). Then, when any person is shown in the central area of the captured image of the adjacent gate G2, the target determining unit 12 is the person P20 located in the end area of the captured image of the own gate G1. Judge that there is. In this case, the face authentication system 10 of the own gate G1 determines that the person P20 located in the end region is excluded from the verification target.

例えば、図3の状況では、図4(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P20は、図4(b)に示す隣接ゲートG2の撮影画像の中央領域に位置するため、かかる人物P20は自ゲートG1の顔認証システム10による照合対象から除外する(ステップS3でYes)。また、図5の状況では、図6(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P12は、図6(b)に示す隣接ゲートG2の撮影画像の中央領域には位置していない。このため、かかる人物P12は自ゲートG1の顔認証システム10による照合対象から除外せず、照合対象とする(ステップS3でNo)。   For example, in the situation of FIG. 3, the person P20 located in the end region of the captured image of the own gate G1 shown in FIG. 4A is located in the central region of the captured image of the adjacent gate G2 shown in FIG. Therefore, the person P20 is excluded from the verification target by the face authentication system 10 of the own gate G1 (Yes in step S3). Further, in the situation of FIG. 5, the person P12 located in the end region of the captured image of the own gate G1 shown in FIG. 6A is positioned in the central region of the captured image of the adjacent gate G2 shown in FIG. Not done. For this reason, this person P12 is not excluded from the verification target by the face authentication system 10 of the own gate G1, but is set as the verification target (No in step S3).

続いて、照合部13が、対象判定部12により、自ゲートG1の撮影画像内で照合対象として判定された人物に対する照合処理を行う(ステップS4)。図3及び図4の例では、人物P10のみの照合処理を開始し、図5及び図6の例では、人物P10と人物P12の照合処理を開始する。照合処理は、まず、照合処理の対象となる人物の顔領域から照合に必要な特徴量を検出し、予め照合データ記憶部17に登録された人物の特徴量と照合を行い、照合スコアを取得する。そして、照合スコアがしきい値以上であるか否かを判定する。   Subsequently, the collation unit 13 performs collation processing on the person determined as the collation target in the captured image of the own gate G1 by the target determination unit 12 (step S4). 3 and FIG. 4, the collation process for only the person P10 is started. In the examples of FIG. 5 and FIG. 6, the collation process for the person P10 and the person P12 is started. In the collation process, first, a feature amount necessary for collation is detected from the face area of the person to be collated, and collated with the feature amount of the person registered in the collation data storage unit 17 in advance to obtain a collation score. To do. And it is determined whether a collation score is more than a threshold value.

照合部による照合処理の結果、通行しようとしている人物の照合に成功すると(ステップS5でYes)、ゲート制御部14がゲートG1に対する人物の通過を許可し、ゲートG1を開くよう制御する(ステップS6)。   As a result of the collation processing by the collation unit, when the person who is going to pass is successfully collated (Yes in step S5), the gate control unit 14 permits the passage of the person to the gate G1 and controls to open the gate G1 (step S6). ).

以上のように、本実施形態の顔認証システム10によると、隣接ゲートG2を通過しようとしている人物P20に対する照合処理を抑制でき、自ゲートG1を通過しようとする人物P10,P12を適切に照合処理することができる。例えば、図3及び図4の例では、自ゲートG1を通過しようとしている人物P10を照合処理するが、隣接ゲートG2を通過しようとしている人物P20の照合処理は行われない。また、図5及び図6の例では、撮影画像の端領域に映っている人物P12であっても、自ゲートG1を通過しようとしているため、適切に照合処理が行われることとなる。その結果、他のゲートを通過しようとする人物の誤認識を抑制することができる。   As described above, according to the face authentication system 10 of the present embodiment, it is possible to suppress the matching process for the person P20 who is going to pass through the adjacent gate G2, and to appropriately match the persons P10 and P12 who are going to pass through the own gate G1. can do. For example, in the example of FIGS. 3 and 4, the person P10 who is going to pass through the own gate G1 is collated, but the person P20 who is going through the adjacent gate G2 is not collated. In the example of FIGS. 5 and 6, even the person P12 shown in the end region of the captured image is about to pass through the own gate G1, and therefore the matching process is appropriately performed. As a result, erroneous recognition of a person who tries to pass through another gate can be suppressed.

なお、上記では、自ゲートG1の撮影画像に対して隣接ゲートG2の撮影画像を比較しているが、隣接ゲートG2の撮影画像に限らず、他のゲート(例えばゲートG3)の撮影画像を比較してもよい。また、上記では、自ゲートG1の撮影画像の端領域と、隣接ゲートG2の中央領域と、を比較しているが、比較する領域は上述した領域同士であることに限定されない。異なるゲートにおける撮影画像同士のいかなる領域間を比較してもよい。   In the above, the captured image of the adjacent gate G2 is compared with the captured image of the own gate G1, but not only the captured image of the adjacent gate G2, but the captured image of another gate (for example, the gate G3) is compared. May be. In the above description, the end region of the captured image of the own gate G1 is compared with the central region of the adjacent gate G2, but the region to be compared is not limited to the above-described regions. You may compare between any area | regions of the picked-up image in a different gate.

また、上記では、自ゲートG1に対応する顔認証システム10が、隣接ゲートG2の撮影画像を取得して、人物が照合対象であるか否かを判定しているが、かかる判定処理は、隣接ゲートG2の顔認証システムが行ってもよい。つまり、自ゲートG1の顔認証システム10が撮影画像を隣接ゲートG2の顔認証システム20に提供し、当該隣接ゲートG2の顔認証システム20が判定結果を自ゲートG1の顔認証システム10に返してもよい。さらには、かかる判定処理を他の情報処理装置が行ってもよい。   In the above description, the face authentication system 10 corresponding to the self-gate G1 acquires a captured image of the adjacent gate G2 and determines whether or not a person is a collation target. It may be performed by the face authentication system of the gate G2. That is, the face authentication system 10 of the own gate G1 provides the captured image to the face authentication system 20 of the adjacent gate G2, and the face authentication system 20 of the adjacent gate G2 returns the determination result to the face authentication system 10 of the own gate G1. Also good. Further, such a determination process may be performed by another information processing apparatus.

また、顔認証システム10は、上述したように、隣接ゲートG2の顔認証システム20に対して、当該隣接ゲートG2における撮影画像の中央領域に人物が映っているか否かを問い合わせ、その応答結果に応じて、人物が照合対象であるか否かを判定してもよい。この場合、隣接するゲートG2の撮影画像の中央領域にいずれかの人物が映っている通知を受けた場合には、自ゲートG1の撮影画像の端領域に位置している人物を照合対象から除外すると判定する。一方、隣接するゲートG2の撮影画像の中央領域にいずれの人物も映っていないという通知を受けた場合には、自ゲートG1の撮影画像の端領域に位置する人物を照合対象とすると判定する。   Further, as described above, the face authentication system 10 inquires of the face authentication system 20 of the adjacent gate G2 whether or not a person is reflected in the central area of the photographed image at the adjacent gate G2, and the response result is as follows. Accordingly, it may be determined whether or not a person is a target for verification. In this case, when a notice that any person is reflected in the central area of the captured image of the adjacent gate G2 is received, the person located in the end area of the captured image of the own gate G1 is excluded from the verification target. Judge that. On the other hand, when a notification is received that no person is shown in the central region of the captured image of the adjacent gate G2, it is determined that the person located in the end region of the captured image of the own gate G1 is to be collated.

また、上記では、ゲートG1を通過しようとしている対象が人物である場合を例示したが、人物に限らずいかなる物体であってもよい。例えば、荷物といった物体であってもよい。   Moreover, although the case where the object which is going to pass the gate G1 was a person was illustrated above, it is not limited to a person and may be any object. For example, it may be an object such as luggage.

<実施形態2>
次に、本発明の第2の実施形態を、図8乃至図12を参照して説明する。図8乃至図12は、顔認証システムの処理動作を説明するための図である。特に、図12は、顔認証システムの動作を示すフローチャートである。
<Embodiment 2>
Next, a second embodiment of the present invention will be described with reference to FIGS. 8 to 12 are diagrams for explaining the processing operation of the face authentication system. In particular, FIG. 12 is a flowchart showing the operation of the face authentication system.

本実施形態における顔認証システム10は、上述した実施形態1におけるものと同様の構成であるが、自ゲートG1の撮影画像に映る人物を照合対象とするか否かの判定処理が異なる。以下、主に実施形態1とは異なる構成について詳述する。   The face authentication system 10 according to the present embodiment has the same configuration as that according to the first embodiment described above, but the determination process for determining whether or not a person appearing in a captured image of the own gate G1 is to be collated is different. Hereinafter, the configuration different from the first embodiment will be mainly described in detail.

本実施形態における上記対象判定部12は、対象抽出部11で自ゲートG1の撮影画像の端領域から人物P20を抽出すると(ステップS11)、かかる人物P20と同一人物が、他のゲートG2の撮影画像の中央領域に位置するか否かを判定する。図8及び図10の例では、対象判定部12は、自ゲートG1に対応する撮影画像の右側の端領域に人物P20が映っているため、ゲートG1の右側に隣接するゲートG2の撮像装置C2にて撮影された撮影画像を取得する(ステップS12)。具体的には、対象判定部12は、通信部16を介して、隣接ゲートG2の顔認証システム20と通信して、ゲートG1で撮影画像が撮影された同一のタイミング(例えば、同一時刻)でゲートG2で撮影された撮影画像を取得する。なお、各ゲートG1,G2,G3にそれぞれ対応する顔認証システム(撮像装置C1,C2,C3)の位置関係は、予め各システムに登録されていることとする。   In the present embodiment, when the target extraction unit 11 extracts the person P20 from the edge region of the captured image of the own gate G1 by the target extraction unit 11 (step S11), the same person as the person P20 is captured by the other gate G2. It is determined whether or not it is located in the central area of the image. In the example of FIGS. 8 and 10, since the person P20 is shown in the right end region of the captured image corresponding to the own gate G1, the target determination unit 12 has the imaging device C2 of the gate G2 adjacent to the right side of the gate G1. The photographed image photographed at is acquired (step S12). Specifically, the target determination unit 12 communicates with the face authentication system 20 of the adjacent gate G2 via the communication unit 16, and at the same timing (for example, the same time) when the captured image is captured by the gate G1. A photographed image photographed by the gate G2 is acquired. It is assumed that the positional relationships of the face authentication systems (imaging devices C1, C2, C3) respectively corresponding to the gates G1, G2, G3 are registered in advance in each system.

そして、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P20と、隣接ゲートG2の撮影画像の中央領域(第二領域)に位置している人物P20と、の同一性を判別する。本実施形態では、まず、それぞれの人物の顔領域を特定し、当該顔領域から照合に必要な特徴量を検出する(ステップS13)。そして、両人物の特徴量から、両人物が同一人物であるか否かを判定する(ステップS14)。なお、人物が一致するか否かを判定する処理は、後述する照合処理と比較して精度の低い処理であってもよい。例えば、人物の一部の部位の特徴量のみを検出したり、かかる特徴量から性別や年代を検出し、これらの情報から同一性を判別してもよい。但し、人物の同一性を判別する処理は、いかなる処理であってもよい。   Then, the target determination unit 12 includes a person P20 located in the end area of the captured image of the own gate G1 and a person P20 located in the center area (second area) of the captured image of the adjacent gate G2. Determine identity. In the present embodiment, first, a face area of each person is specified, and a feature amount necessary for collation is detected from the face area (step S13). Then, it is determined from the feature amounts of both persons whether or not both persons are the same person (step S14). It should be noted that the process for determining whether or not the person matches may be a process with lower accuracy than the collation process described later. For example, only the feature amount of a part of a person may be detected, or gender and age may be detected from the feature amount, and the identity may be determined from these pieces of information. However, the process for determining the identity of a person may be any process.

そして、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P20と同一人物が、隣接ゲートG2の撮影画像の中央領域に位置していると判定した場合には、かかる人物P20は隣接ゲートG2に向かう人物であると判定する(ステップS15でYes)。この場合、自ゲートG1の顔認証システム10では、端領域に位置する人物P20を照合対象から除外すると判定する。一方で、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P12と同一人物が、隣接ゲートG2の撮影画像の中央領域に位置していないと判定した場合には、かかる人物P12は自ゲートG1に向かう人物であると判定する(ステップS15でNo)。この場合、自ゲートG1の顔認証システム10では、端領域に位置する人物P12を照合対象であると判定する。なお、自ゲートG1の撮影画像の端領域(第一領域)と隣接ゲートG2の撮影画像の中央領域(第二領域)とは、撮影画像同士を比較すると相互に異なる領域であるが、実空間においては相互に重複する領域である。   When the target determination unit 12 determines that the same person as the person P20 located in the end region of the captured image of the own gate G1 is located in the central region of the captured image of the adjacent gate G2, It is determined that the person P20 is a person heading to the adjacent gate G2 (Yes in step S15). In this case, the face authentication system 10 of the own gate G1 determines that the person P20 located in the end region is excluded from the verification target. On the other hand, when the target determination unit 12 determines that the same person as the person P12 positioned in the end region of the captured image of the own gate G1 is not positioned in the central region of the captured image of the adjacent gate G2. The person P12 is determined to be the person heading to the own gate G1 (No in step S15). In this case, the face authentication system 10 of the own gate G1 determines that the person P12 located in the end region is the target of collation. Note that the end region (first region) of the captured image of the own gate G1 and the central region (second region) of the captured image of the adjacent gate G2 are regions different from each other when compared with the captured images. In FIG. 2, the regions overlap each other.

例えば、図8の状況では、図9(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P20と同一人物が、図9(b)に示す隣接ゲートG2の撮影画像の中央領域に位置するため、かかる人物P20は自ゲートG1の顔認証システム10による照合対象から除外される。つまり、自ゲートG1の顔認証システム10は、撮影画像の中央領域に位置する人物P10のみを照合対象とする。また、図10の状況では、図11(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P12と同一人物が、図11(b)に示す隣接ゲートG2の撮影画像の中央領域には位置していない。このため、かかる人物P12は自ゲートG1の顔認証システム10による照合対象とされる。つまり、自ゲートG1の顔認証システム10は、撮影画像の中央領域に位置する人物P10と、端領域に位置する人物P12と、を照合対象とする。   For example, in the situation of FIG. 8, the same person as the person P20 located in the end region of the captured image of the own gate G1 shown in FIG. 9A is the central region of the captured image of the adjacent gate G2 shown in FIG. Therefore, the person P20 is excluded from the verification target by the face authentication system 10 of the own gate G1. That is, the face authentication system 10 of the self-gate G1 sets only the person P10 located in the center area of the captured image as a comparison target. In the situation of FIG. 10, the same person as the person P12 located in the end region of the captured image of the own gate G1 shown in FIG. 11A is the central region of the captured image of the adjacent gate G2 shown in FIG. Is not located. For this reason, the person P12 is a collation target by the face authentication system 10 of the own gate G1. That is, the face authentication system 10 of the own gate G1 sets the person P10 located in the central area of the captured image and the person P12 located in the end area as the collation targets.

上記照合部13(照合手段)は、対象判定部12により、自ゲートG1の撮影画像内で照合対象として判定された人物に対する照合処理を行う(ステップS16)。換言すると、照合部13は、自ゲートG1の撮影画像内に映っていた人物であっても、対象判定部12で照合対象から除外された人物については照合処理を行わない。ここで、照合処理は、例えば以下のようにして行う。まず、照合処理の対象となる人物の顔領域を特定し、当該顔領域から照合に必要な特徴量を生成する。そして、生成した特徴量と、予め照合データ記憶部17に登録された人物の特徴量と、の類似度といった照合スコアを算出し、照合スコアがしきい値よりも高いか否か判定する。照合スコアがしきい値より高い場合には、照合成功とし、ゲートG1を通過しようとしている人物が、予め登録されている人物であると判定する。なお、照合方法はいかなる方法であってもよい。   The collation unit 13 (collation unit) performs collation processing on the person determined as the collation target in the captured image of the own gate G1 by the object determination unit 12 (step S16). In other words, the collation unit 13 does not perform the collation process for the person excluded from the collation target by the target determination unit 12 even if the person is in the captured image of the own gate G1. Here, the collation process is performed as follows, for example. First, a face area of a person to be collated is specified, and a feature amount necessary for collation is generated from the face area. Then, a collation score such as a similarity between the generated feature amount and the feature amount of the person registered in the collation data storage unit 17 in advance is calculated, and it is determined whether or not the collation score is higher than a threshold value. If the matching score is higher than the threshold value, it is determined that the matching is successful, and the person who is going to pass through the gate G1 is determined to be a person registered in advance. Note that any verification method may be used.

上記ゲート制御部14は、照合部13による照合結果に基づいて、ゲートG1に対する人物の通過可否を判定する。具体的には、照合部13による照合が成功した人物に対しては通過可能と判定し(ステップS17)、ゲートG1を開くよう制御する(ステップS18)。   The gate control unit 14 determines whether or not a person can pass through the gate G <b> 1 based on the collation result by the collation unit 13. Specifically, it is determined that a person who has been successfully verified by the verification unit 13 can pass (step S17), and control is performed to open the gate G1 (step S18).

以上のように、本実施形態における顔認証システムでは、各ゲートに対応する撮影画像内の人物の特徴量を抽出して比較することで、各ゲートの撮影画像に同一の対象が重複して映っているか否かをより確実に判別することができる。そして、所定のゲートと他のゲートとで重複して映っている対象を照合処理から除外することができ、ゲートを通過しようとする対象の誤認識を抑制することができる。さらに、対象の重複を判断するために抽出した対象の特徴量を照合処理に利用することができ、処理の効率化を図ることができる。   As described above, in the face authentication system according to the present embodiment, by extracting and comparing the feature amount of the person in the captured image corresponding to each gate, the same object is duplicated in the captured image of each gate. It is possible to more reliably determine whether or not Then, it is possible to exclude from the collation process an object that is duplicated in a predetermined gate and another gate, and to suppress erroneous recognition of the object that attempts to pass through the gate. Furthermore, it is possible to use the feature amount of the object extracted for determining the overlap of the objects for the collation process, and to improve the efficiency of the process.

なお、上記では、ゲートG1を通過しようとしている対象が人物である場合を例示したが、人物に限らずいかなる物体であってもよい。例えば、荷物といった物体であってもよい。   In addition, although the case where the object which is going to pass the gate G1 was a person was illustrated above, it is not limited to a person and may be any object. For example, it may be an object such as luggage.

<実施形態3>
次に、本発明の第3の実施形態を説明する。本実施形態における顔認証システム10は、基本的には、上述した実施形態1と同様に、撮影画像の端領域に映っている人物が自ゲートG1に向かっている人物であるか否かを判定する。つまり、自ゲートG1の撮影画像の端領域に映っている人物が、他のゲートG2に対応する顔認証システム20にて撮影された撮影画像の中央領域に映っているか否かに応じて、自ゲートG1に向かっている人物であるか判定する。但し、本実施形態では、かかる判定処理が以下のように異なる。以下、主に実施形態1とは異なる構成について詳述する。
<Embodiment 3>
Next, a third embodiment of the present invention will be described. The face authentication system 10 according to the present embodiment basically determines whether or not the person appearing in the edge area of the captured image is the person facing the own gate G1, as in the first embodiment described above. To do. That is, depending on whether or not the person shown in the edge area of the captured image of the own gate G1 is reflected in the central area of the captured image taken by the face authentication system 20 corresponding to the other gate G2, It is determined whether the person is heading to the gate G1. However, in this embodiment, the determination process is different as follows. Hereinafter, the configuration different from the first embodiment will be mainly described in detail.

まず、本実施形態における対象抽出部11は、実施形態1と同様に、撮像装置C1から撮影画像を取得し、撮影画像内から処理対象となる人物を抽出する。このとき、対象抽出部11は、抽出した人物が位置する撮影画像内における領域も特定する。そして、本実施形態における対象抽出部11では、端領域に映っている人物の判定情報である特徴が基準値を超えているか否かを判定し、かかる判定結果に応じて、かかる人物が自ゲートG1に向かっている人物であるか否かの判定処理を行う。   First, as in the first embodiment, the target extraction unit 11 in the present embodiment acquires a captured image from the imaging device C1, and extracts a person to be processed from within the captured image. At this time, the target extraction unit 11 also identifies an area in the captured image where the extracted person is located. Then, the target extraction unit 11 according to the present embodiment determines whether or not the feature, which is the determination information of the person shown in the end region, exceeds the reference value, and according to the determination result, the person extracts his / her own gate. A process of determining whether or not the person is heading for G1 is performed.

一例として、対象抽出部11は、まず、撮影画像の端領域に位置している人物の顔領域の抽出を行う。人物の顔領域の抽出は、例えば、動く人物の全体像に対する位置や色などから判定して行う。そして、対象抽出部11は、判定情報である人物の特徴を、顔領域から検出する。本実施形態では、判定情報としての人物の特徴は、人物の両目の間の距離(目間距離)であることとする。   As an example, the target extraction unit 11 first extracts a face area of a person located in the end area of the captured image. The extraction of the person's face area is performed, for example, by determining the position or color of the moving person relative to the whole image. Then, the target extraction unit 11 detects the characteristics of the person as the determination information from the face area. In the present embodiment, the feature of a person as determination information is a distance between eyes of the person (inter-eye distance).

そして、本実施形態における対象判定部12は、対象抽出部11で検出した判定情報である目間距離が、基準値を超えているか否かを調べる。ここで、本実施形態では、上記基準値は、自ゲートG1の撮影画像の端領域に映っている人物が、自ゲートG1のレーンR1に位置するか否かを判別することができる値に設定されている。例えば、上述した図10の状況では、自ゲートG1の撮影画像の端領域に映り、自ゲートG1に向かう人物P12の目間距離は、隣接ゲートG2の人物P20の目間距離よりも大きくなると考えられる。このことを考慮し、基準値は、自ゲートG1の撮影画像の端領域に映り、自ゲートG1に進む人物P12の目間距離と、隣接ゲートG2の人物P20の目間距離と、の間の値に設定される。   And the object determination part 12 in this embodiment investigates whether the distance between eyes which is the determination information detected by the object extraction part 11 exceeds the reference value. Here, in the present embodiment, the reference value is set to a value with which it is possible to determine whether or not the person shown in the end region of the captured image of the own gate G1 is located in the lane R1 of the own gate G1. Has been. For example, in the situation of FIG. 10 described above, the distance between the eyes of the person P12 that appears in the edge region of the captured image of the own gate G1 and goes toward the own gate G1 is considered to be larger than the distance between the eyes of the person P20 of the adjacent gate G2. It is done. In consideration of this, the reference value is reflected in the edge region of the captured image of the own gate G1, and is between the distance between the eyes of the person P12 proceeding to the own gate G1 and the distance between the eyes of the person P20 of the adjacent gate G2. Set to a value.

そして、対象判定部12は、対象抽出部11で検出したゲートG1の撮影画像の端領域に映る人物の目間距離が、基準値を超えている場合には、かかる人物は自ゲートG1に向かう人物であると判定し、照合処理の対象とする。つまり、人物の目間距離が基準値を超えている場合には、隣接ゲートG2の撮影画像との比較を行わず、そのまま自ゲートG1に向かう人物として照合処理を行う。   Then, when the distance between the eyes of the person shown in the edge region of the captured image of the gate G1 detected by the target extraction unit 11 exceeds the reference value, the target determination unit 12 goes to the own gate G1. It is determined that the person is a person and is subjected to collation processing. That is, when the distance between the eyes of the person exceeds the reference value, the comparison process is performed as a person who goes directly to the own gate G1 without comparing with the captured image of the adjacent gate G2.

一方、対象判定部12は、対象抽出部11で検出した自ゲートG1の撮影画像の端領域に映る人物の目間距離が、基準値以下である場合には、かかる人物は隣接ゲートG2に向かう人物である可能性があるため、隣接ゲートG2の撮影画像との比較を行う。つまり、実施形態1で説明したように、隣接ゲートG2の撮影画像の中央領域にいずれかの人物が映っているか否かを調べる。隣接ゲートG2の撮影画像の中央領域に人物が映っている場合には、自ゲートG1の撮影画像の端領域に映る人物は隣接ゲートG2に向かう人物であると判定し、照合処理の対象から除外する。隣接ゲートG2の撮影画像の中央領域に人物が映っていない場合には、自ゲートG1の撮影画像の端領域に映る人物は、自ゲートG1に向かう人物であると判定し、照合処理の対象とする。   On the other hand, when the distance between the eyes of the person shown in the edge region of the captured image of the own gate G1 detected by the target extraction unit 11 is equal to or less than the reference value, the target determination unit 12 goes to the adjacent gate G2. Since there is a possibility of being a person, a comparison is made with the captured image of the adjacent gate G2. That is, as described in the first embodiment, it is checked whether any person is shown in the central area of the captured image of the adjacent gate G2. If a person is shown in the center area of the captured image of the adjacent gate G2, it is determined that the person shown in the end area of the captured image of the own gate G1 is a person heading to the adjacent gate G2, and is excluded from the target of the matching process To do. When a person is not shown in the center area of the captured image of the adjacent gate G2, it is determined that the person shown in the end area of the captured image of the own gate G1 is a person heading to the own gate G1, and To do.

上記処理により、例えば、図10及び図11の例の場合には、まず自ゲートG1の撮影画像の端領域に人物P12が映るが、かかる人物P12が自ゲートG1の撮像装置C1に対する距離が近いため、人物P12の大きさを表す判定情報である目間距離が基準値よりも大きくなる。このため、かかる人物P12は自ゲートG1に向かう人物であると判定し、照合処理の対象とする。つまり、隣接ゲートG2に向かう人物P20が存在する場合であっても、自ゲートG1の人物P12を照合処理の対象とできる。   For example, in the case of the example of FIGS. 10 and 11, the person P12 is first shown in the end region of the captured image of the own gate G1, but the person P12 is close to the imaging device C1 of the own gate G1. Therefore, the distance between eyes, which is the determination information indicating the size of the person P12, becomes larger than the reference value. For this reason, it is determined that the person P12 is a person heading to the own gate G1, and is set as a target for the matching process. That is, even if there is a person P20 heading to the adjacent gate G2, the person P12 of the own gate G1 can be the target of the matching process.

一方で、例えば、図8及び図9の例の場合には、まず自ゲートG1の撮影画像の端領域に人物P20が映るが、かかる人物P20が自ゲートG1の撮像装置C1に対する距離が遠いため、人物P20の大きさを表す判定情報である目間距離が基準値以下となる。このため、かかる人物P20が隣接ゲートG2の撮影画像の中央領域に映っているか否かを調べる。この場合、隣接ゲートG2の撮影画像の中央領域に人物が映っているため、自ゲートG1の撮影画像の端領域に映る人物は隣接ゲートG2に向かう人物であると判定し、照合処理の対象から除外する。   On the other hand, for example, in the case of the examples of FIGS. 8 and 9, first, a person P20 appears in the end region of the captured image of the own gate G1, but the person P20 is far away from the imaging device C1 of the own gate G1. The distance between eyes, which is determination information indicating the size of the person P20, is equal to or less than the reference value. Therefore, it is checked whether or not the person P20 is reflected in the central area of the captured image of the adjacent gate G2. In this case, since a person is reflected in the central area of the captured image of the adjacent gate G2, it is determined that the person reflected in the end area of the captured image of the own gate G1 is a person heading to the adjacent gate G2, and the matching processing is performed. exclude.

なお、上記では、自ゲートG1の撮影画像の端領域に映っている人物の判定情報が目間距離である場合を例示したが、判定情報としての人物の特徴は、人物の顔を構成する他の部位間の距離であってもよく、人物の他の部位の大きさを表す値であってもよい。但し、判定情報である人物の特徴は、必ずしも人物の部位の大きさを表す値に限定されない。   In the above, the case where the determination information of the person shown in the edge region of the captured image of the own gate G1 is the distance between eyes is exemplified, but the feature of the person as the determination information is that other than that constituting the face of the person The distance between the parts may be a value representing the size of another part of the person. However, the characteristic of the person as the determination information is not necessarily limited to a value representing the size of the part of the person.

<実施形態4>
次に、本発明の第4の実施形態を、図13乃至図16を参照して説明する。図13は、本実施形態における顔認証システムの構成を示すブロック図であり、図14乃至図16は、顔認証システムの処理動作を説明するための図である。
<Embodiment 4>
Next, a fourth embodiment of the present invention will be described with reference to FIGS. FIG. 13 is a block diagram showing the configuration of the face authentication system in this embodiment, and FIGS. 14 to 16 are diagrams for explaining the processing operation of the face authentication system.

本実施形態における顔認証システム10は、上述した実施形態1におけるものと同様の構成であるが、さらに、上記実施形態1,2で説明したように、隣接する各ゲートの撮影画像同士が重複し、同一人物が位置しているか否かを比較する領域である重複領域を設定する機能を有する。以下、主に実施形態1,2とは異なる構成について詳述する。   The face authentication system 10 in the present embodiment has the same configuration as that in the first embodiment described above, but further, as described in the first and second embodiments, the captured images of adjacent gates overlap each other. , It has a function of setting an overlapping area, which is an area for comparing whether or not the same person is located. Hereinafter, the configuration different from the first and second embodiments will be mainly described in detail.

図13に示すように、本実施形態における顔認証システム10は、演算装置がプログラムを実行することで構築された領域設定部15(領域設定手段)を備えている。領域設定部15は、まず、自ゲートG1の撮像装置C1から撮影画像を取得すると共に、隣接するゲートG2の撮像装置C2からも撮影画像を取得する。このとき、領域設定部15は、通信部16を介して隣接ゲートG2の顔認証システム20と通信して、ゲートG1で撮影画像が撮影された同一のタイミング(例えば、同一時刻)でゲートG2で撮影された撮影画像を取得する。   As shown in FIG. 13, the face authentication system 10 according to the present embodiment includes an area setting unit 15 (area setting means) that is constructed by an arithmetic device executing a program. The area setting unit 15 first acquires a captured image from the imaging device C1 of its own gate G1, and also acquires a captured image from the imaging device C2 of the adjacent gate G2. At this time, the area setting unit 15 communicates with the face authentication system 20 of the adjacent gate G2 via the communication unit 16, and at the gate G2 at the same timing (for example, at the same time) when the captured image is captured by the gate G1. Acquire the captured image.

続いて、領域設定部15は、取得したゲートG1の撮影画像とゲートG2の撮影画像とから人物を抽出する。人物の抽出は、例えば、動く物体を抽出したり、物体の全体形状や全体像に対する特徴的な形状部位の位置や色の位置などから判定して行う。そして、領域設定部15は、両撮影画像に同一人物が映っているか否かを調べる。このとき、領域設定部15は、各撮影画像に映る各人物の顔領域を特定し、当該顔領域から照合に必要な特徴量を検出する。そして、各人物の特徴量から、各人物が同一人物であるか否かを調べる。なお、人物の同一性を判別する処理は、いかなる処理であってもよい。   Subsequently, the area setting unit 15 extracts a person from the acquired captured image of the gate G1 and the acquired captured image of the gate G2. The person is extracted by, for example, extracting a moving object, or determining from a position of a characteristic shape portion or a color position with respect to the entire shape of the object or the entire image. Then, the area setting unit 15 checks whether or not the same person appears in both captured images. At this time, the area setting unit 15 identifies the face area of each person shown in each captured image, and detects a feature amount necessary for collation from the face area. And it is investigated from the feature-value of each person whether each person is the same person. The process for determining the identity of a person may be any process.

そして、領域設定部15は、各撮影画像に同一人物が映っていると判定した場合には、当該各撮影画像内で同一人物がそれぞれ映っている箇所の周囲の領域を、当該各撮影画像内で相互に重複する重複領域として設定する。このとき、設定する重複領域は、同一人物が検出された箇所を撮影画像の上下端まで広げると共に、かかる領域をさらに撮影画像の水平方向に所定範囲だけ広げた領域とする。特に、自ゲートG1の撮影画像については、同一人物の抽出箇所が撮影画像の水平方向における一方の端付近に位置することが考えられるが、人物の抽出箇所に対して少しだけ水平方向に広げた範囲を重複領域(第一領域)とし、さらに、反対側の端付近にも同じ広さの重複領域(第一領域)を設定する。一方、隣接ゲートG2の撮影画像については、同一人物の抽出箇所が撮影画像の水平方向における中央付近に位置することが考えられるが、人物の抽出箇所に対して上記端領域の重複領域よりも広く水平方向に広げた範囲を重複領域(第二領域)として設定する。つまり、本実施形態では、上述した端領域よりも中央領域を広く設定する。但し、端領域や中央領域の広さの設定方法は、上述した方法に限定されない。   If the area setting unit 15 determines that the same person is reflected in each captured image, the area surrounding the portion where the same person is reflected in each captured image is included in each captured image. Set as overlapping areas that overlap each other. At this time, the overlapping region to be set is a region in which the portion where the same person is detected is expanded to the upper and lower ends of the captured image, and the region is further expanded by a predetermined range in the horizontal direction of the captured image. In particular, in the captured image of the own gate G1, it is conceivable that the extracted portion of the same person is located near one end in the horizontal direction of the captured image, but it is slightly expanded in the horizontal direction with respect to the extracted portion of the person. The range is set as an overlapping area (first area), and an overlapping area (first area) having the same width is also set near the opposite end. On the other hand, regarding the captured image of the adjacent gate G2, it is conceivable that the extracted portion of the same person is located near the center in the horizontal direction of the captured image, but is wider than the overlapping region of the end region with respect to the extracted portion of the person. A range expanded in the horizontal direction is set as an overlapping region (second region). That is, in the present embodiment, the central region is set wider than the end region described above. However, the method for setting the width of the end region and the center region is not limited to the method described above.

一例として、図14に示す状況においては、まず、自ゲートG1の撮像装置C1から符号C1a線で挟まれた撮影領域の撮影画像が取得でき、隣接ゲートG2の撮像装置C2から符号C2a線で挟まれた撮影領域の撮影画像が取得できる。これら図15(a),(b)の両撮影画像から同一人物の抽出を行うことで、自ゲートG1の撮影画像の端領域と、隣接ゲートG2の撮影画像の中央領域とに、同一人物P20を検出したとする。この場合、自ゲートG1の撮影画像については、図16(a)に示すように、抽出した人物P20の箇所を上下方向に広げた領域(斜線領域)をさらに少しだけ水平方向に広げた符号C1a,C1bで挟まれた領域を重複領域として設定する。また、水平方向における反対側の端領域にも符号C1a,C1bで挟まれた重複領域を設定する。一方で、隣接ゲートG2の撮影画像については、図16(b)に示すように、抽出した人物P20の箇所を上下方向に広げた領域(斜線領域)をさらに広く水平方向に広げた符号C2bで挟まれた領域を重複領域として設定する。   As an example, in the situation shown in FIG. 14, first, a captured image of a shooting region sandwiched by the reference C1a line can be acquired from the imaging device C1 of the own gate G1, and sandwiched by the reference C2a line from the imaging device C2 of the adjacent gate G2. A captured image of the captured image area can be acquired. By extracting the same person from both the captured images of FIGS. 15A and 15B, the same person P20 is placed in the end region of the captured image of the own gate G1 and the central region of the captured image of the adjacent gate G2. Is detected. In this case, as for the photographed image of the own gate G1, as shown in FIG. 16 (a), a code C1a in which the extracted area of the person P20 is expanded in the vertical direction (shaded area) is slightly expanded in the horizontal direction. , C1b is set as an overlapping area. In addition, an overlapping region sandwiched between C1a and C1b is also set in the opposite end region in the horizontal direction. On the other hand, as shown in FIG. 16B, the photographed image of the adjacent gate G2 is represented by a reference C2b in which a region (hatched region) obtained by extending the extracted person P20 in the vertical direction is further widened in the horizontal direction. The sandwiched area is set as an overlapping area.

以上のようにして、本実施形態では、ゲートG1に対応する顔認証システム10の領域設定部15が、自ゲートG1の撮影画像の端領域と、隣接ゲートG2の撮影画像の中央領域と、を重複領域として自動的に設定する。そして、顔認証システム10が、上述した実施形態1,2で説明したように、設定した自ゲートG1の撮影画像の端領域と隣接ゲートG2の撮影画像の中央領域とから人物を抽出したり、両領域に同一人物が存在するか否かを判定する、といった処理を行う。   As described above, in the present embodiment, the region setting unit 15 of the face authentication system 10 corresponding to the gate G1 determines the end region of the captured image of the own gate G1 and the central region of the captured image of the adjacent gate G2. Automatically set as overlapping area. Then, as described in the first and second embodiments, the face authentication system 10 extracts a person from the set end region of the captured image of the own gate G1 and the central region of the captured image of the adjacent gate G2, Processing such as determining whether or not the same person exists in both areas is performed.

上述した実施形態4の顔認証システム10によると、所定のゲートに対応する撮影画像内の人物と、他のゲートに対応する撮影画像内の人物と、に基づいて、各ゲートに対応する各撮影画像同士で重複する領域を自動的に設定することができる。その結果、相互に隣接するゲートG1,G2の撮像装置C1,C2間における重複領域を適切に設定することができ、照合システムの利用の容易化と、より高精度に誤認識を抑制することができる。   According to the face authentication system 10 of the fourth embodiment described above, each photographing corresponding to each gate is based on the person in the photographed image corresponding to the predetermined gate and the person in the photographed image corresponding to the other gate. It is possible to automatically set an overlapping area between images. As a result, the overlapping area between the imaging devices C1 and C2 of the gates G1 and G2 adjacent to each other can be set appropriately, facilitating the use of the collation system, and suppressing erroneous recognition with higher accuracy. it can.

なお、上記では、ゲートG1,G2を通過しようとする人物の画像を用いて重複範囲を設定する場合を例示したが、人物に限らず撮影画像の映るいかなる物体を用いて重複範囲を設定してもよい。例えば、各撮影画像にそれぞれ映る物品や風景の同一性を判定して、判定結果に基づいて各撮影画像の重複範囲を設定してもよい。   In the above, the case where the overlapping range is set using the image of the person who is going to pass through the gates G1 and G2 has been illustrated. However, the overlapping range is set using any object in which the captured image is displayed, not limited to the person. Also good. For example, it is possible to determine the identity of articles and landscapes that appear in each captured image, and set the overlapping range of each captured image based on the determination result.

<実施形態5>
次に、本発明の第5の実施形態を、図17及び図18を参照して説明する。図17は、実施形態5における照合システムの構成を示すブロック図である。図18は、実施形態5における情報処理装置の構成を示すブロック図である。なお、本実施形態では、実施形態1乃至4で説明した顔認証システムの構成の概略を示している。
<Embodiment 5>
Next, a fifth embodiment of the present invention will be described with reference to FIGS. FIG. 17 is a block diagram illustrating a configuration of a verification system according to the fifth embodiment. FIG. 18 is a block diagram illustrating a configuration of the information processing apparatus according to the fifth embodiment. In the present embodiment, an outline of the configuration of the face authentication system described in the first to fourth embodiments is shown.

図17に示すように、本実施形態おける照合システム100は、
並列に設置された各ゲートに対する各通過前側領域の撮影画像をそれぞれ取得する撮像手段110と、
ゲート毎に、各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、撮影画像に含まれる対象と、の照合処理を行う照合手段120と、
を備える。
そして、上記照合手段120は、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、照合処理を行う、
という構成をとる。
As shown in FIG. 17, the collation system 100 in this embodiment is
An imaging means 110 for acquiring a captured image of each pre-passage region for each gate installed in parallel;
For each gate, for each of the captured images of each pre-passage area, a matching unit 120 that performs a matching process between a target registered in advance and a target included in the captured image;
Is provided.
And the collation means 120 performs collation processing based on the object in the photographed image corresponding to the predetermined gate and the object in the photographed image corresponding to the other gate.
The configuration is as follows.

また、本実施形態では、図17に示す照合システム100から撮像手段110を取り除いてもよい。
つまり、本実施形態における情報処理装置200は、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、撮影画像に含まれる対象と、の照合処理を行う照合手段210を備える。
そして、上記照合手段210は、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、照合処理を行う、
という構成をとる。
Moreover, in this embodiment, you may remove the imaging means 110 from the collation system 100 shown in FIG.
That is, the information processing apparatus 200 in the present embodiment is
A collating unit 210 is provided for performing collation processing between a pre-registered target and a target included in the captured image with respect to each captured image of each pre-passage region for each gate installed in parallel.
The collation unit 210 performs collation processing based on a target in a captured image corresponding to a predetermined gate and a target in a captured image corresponding to another gate.
The configuration is as follows.

なお、上述した照合手段120,210は、演算装置がプログラムを実行することで構築されるものであってもよく、電子回路で構築されるものであってもよい。   In addition, the collation means 120 and 210 mentioned above may be constructed | assembled when an arithmetic unit runs a program, and may be constructed | assembled with an electronic circuit.

そして、上記構成の照合システム100あるいは情報処理装置200によると、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、撮影画像に含まれる対象と、の照合処理を行う照合方法が提供される。
そして、かかる照合方法において、さらに、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、照合処理を行う、
という構成をとる。
Then, according to the collation system 100 or the information processing apparatus 200 configured as described above,
There is provided a collation method for performing collation processing between a pre-registered target and a target included in the captured image for each of the captured images of the pre-passage region for each gate installed in parallel.
In the verification method, the verification process is further performed based on the target in the captured image corresponding to the predetermined gate and the target in the captured image corresponding to the other gate.
The configuration is as follows.

上述した照合システム100あるいは情報処理装置200によると、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、対象の照合処理を行う。このため、所定のゲートに対応する撮影画像に他のゲートを通過しようとする対象が映っている場合であっても、かかる対象が他のゲートを通過しようとする対象であると判断することができ、所定のゲートにおける照合処理から除外することができる。その結果、ゲートを通過しようとする対象の誤認識を抑制することができる。   According to the verification system 100 or the information processing apparatus 200 described above, the target verification process is performed based on the target in the captured image corresponding to the predetermined gate and the target in the captured image corresponding to the other gate. For this reason, even when a target image that passes through another gate is shown in a captured image corresponding to a predetermined gate, it is possible to determine that the target is a target that attempts to pass through another gate. Can be excluded from the verification process at a predetermined gate. As a result, it is possible to suppress misrecognition of an object that attempts to pass through the gate.

<付記>
上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における照合システム、情報処理装置、プログラム、照合方法の構成の概略を説明する。但し、本発明は、以下の構成に限定されない。
<Appendix>
Part or all of the above-described embodiment can be described as in the following supplementary notes. The outline of the configuration of the collation system, information processing apparatus, program, and collation method in the present invention will be described below. However, the present invention is not limited to the following configuration.

(付記1)
並列に設置された各ゲートに対する各通過前側領域の撮影画像をそれぞれ取得する撮像手段と、
前記ゲート毎に、前記各通過前側領域の前記撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段と、
を備え、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
照合システム。
(Appendix 1)
Imaging means for acquiring each captured image of each pre-passage region for each gate installed in parallel;
For each of the gates, a matching unit that performs a matching process between a target registered in advance and a target included in the captured image with respect to each of the captured images in each of the pre-passage areas,
With
The collation means performs the collation processing based on a target in the captured image corresponding to the predetermined gate and a target in the captured image corresponding to another gate.
Matching system.

上記構成によると、照合システムは、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、対象の照合処理を行う。このため、所定のゲートに対応する撮影画像に他のゲートを通過しようとする対象が映っている場合であっても、かかる対象が他のゲートを通過しようとする対象であると判断することができ、所定のゲートにおける照合処理から除外することができる。その結果、ゲートを通過しようとする対象の誤認識を抑制することができる。   According to the above configuration, the matching system performs target matching processing based on the target in the captured image corresponding to the predetermined gate and the target in the captured image corresponding to the other gate. For this reason, even when a target image that passes through another gate is shown in a captured image corresponding to a predetermined gate, it is possible to determine that the target is a target that attempts to pass through another gate. Can be excluded from the verification process at a predetermined gate. As a result, it is possible to suppress misrecognition of an object that attempts to pass through the gate.

(付記2)
付記1に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
照合システム。
(Appendix 2)
A verification system according to attachment 1, wherein
The collation means performs the collation processing based on a target located in a predetermined region of the captured image corresponding to the predetermined gate and a target in the captured image corresponding to the other gate.
Matching system.

(付記3)
付記2に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の第一領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の第二領域に位置する対象と、に基づいて、前記照合処理を行う、
照合システム。
(Appendix 3)
A verification system according to attachment 2, wherein
The collating means is based on an object located in the first region of the photographed image corresponding to the predetermined gate and an object located in the second region in the photographed image corresponding to the other gate, Performing the matching process;
Matching system.

(付記4)
付記3に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域にも位置している場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
照合システム。
(Appendix 4)
A verification system according to attachment 3, wherein
In the case where the object located in the first region of the photographed image corresponding to the predetermined gate is also located in the second region of the photographed image corresponding to the other gate, Excluding the object located in the first region of the captured image corresponding to the predetermined gate from the matching process;
Matching system.

(付記5)
付記4に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域である水平方向における端領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域である水平方向における中央領域に位置している場合に、前記所定のゲートに対応する前記撮影画像の水平方向における端領域に位置する対象を、前記照合処理から除外する、
照合システム。
(Appendix 5)
A verification system according to appendix 4, wherein
In the collating means, a target located in an end region in the horizontal direction that is the first region of the photographed image corresponding to the predetermined gate is the second region of the photographed image corresponding to the other gate. Exclude from the collation process the object located in the horizontal end region of the captured image corresponding to the predetermined gate when located in the central region in the horizontal direction;
Matching system.

(付記6)
付記4又は5に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、当該対象が前記第一領域に位置するタイミングで前記他のゲートに対応する前記撮影画像の前記第二領域に位置している場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
照合システム。
(Appendix 6)
The verification system according to appendix 4 or 5,
The collating means is configured to detect an object located in the first area of the photographed image corresponding to the predetermined gate at a timing when the object is located in the first area of the photographed image corresponding to the other gate. Excluding the object located in the first region of the captured image corresponding to the predetermined gate from the matching process when located in the second region;
Matching system.

上記構成によると、照合システムは、所定のゲートに対応する撮影画像内の所定領域に映っている対象を、他のゲートに対応する撮影画像内に映っている対象と比較することで、重複して映る対象を照合処理から除外し、単独で映る対象のみの照合処理を行う。特に、所定のゲートに対応する撮影画像内の水平方向の端領域(第一領域)に位置する対象が、他のゲートに対応する撮影画像内の水平方向の中央領域(第二領域)に映っている場合には、その対象の照合処理は行わない。一方で、所定のゲートに対応する撮影画像内の水平方向の端領域(第一領域)に位置する対象が、他のゲートに対応する撮影画像内の水平方向の中央領域(第二領域)に映っていない場合には、その対象の照合処理を行う。その結果、所定のゲートに対応する撮影画像と他のゲートに対応する撮影画像とに対象が重複して映っている場合には、照合処理から除外することができ、ゲートを通過しようとする対象の誤認識を抑制することができる。   According to the above configuration, the collation system compares the object shown in the predetermined area in the photographed image corresponding to the predetermined gate with the object shown in the photographed image corresponding to the other gate. The target to be displayed is excluded from the verification process, and only the target to be viewed alone is verified. In particular, an object located in the horizontal end region (first region) in the captured image corresponding to a predetermined gate appears in the horizontal central region (second region) in the captured image corresponding to another gate. If it is, the target collation process is not performed. On the other hand, the object located in the horizontal end region (first region) in the captured image corresponding to the predetermined gate is the horizontal central region (second region) in the captured image corresponding to the other gate. If it is not reflected, the target is collated. As a result, if the target image is duplicated in the captured image corresponding to the predetermined gate and the captured image corresponding to another gate, it can be excluded from the verification process, and the target to pass through the gate Misrecognition can be suppressed.

(付記7)
付記4又は5に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象の特徴量と、前記他のゲートに対応する前記撮影画像の前記第二領域に位置する対象の特徴量と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域に位置している判断した場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
照合システム。
(Appendix 7)
The verification system according to appendix 4 or 5,
The collating means includes a feature amount of an object located in the first region of the photographed image corresponding to the predetermined gate and a feature of the object located in the second region of the photographed image corresponding to the other gate. Based on the amount, it is determined that an object located in the first region of the photographed image corresponding to the predetermined gate is located in the second region of the photographed image corresponding to the other gate. A target located in the first region of the captured image corresponding to the predetermined gate is excluded from the matching process,
Matching system.

(付記8)
付記7に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象である人物の顔を構成する部位の特徴量と、前記他のゲートに対応する前記撮影画像の前記第二領域に位置する対象である人物の顔を構成する部位の特徴量と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域に位置していると判断した場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
照合システム。
(Appendix 8)
The verification system according to appendix 7,
The collating means includes a feature amount of a part constituting a face of a person who is a target located in the first region of the photographed image corresponding to the predetermined gate, and the photographed image corresponding to the other gate. A target located in the first region of the captured image corresponding to the predetermined gate is based on the feature amount of a part constituting the face of the person who is the target located in the second region, and the other gate If it is determined that the object is located in the second region of the photographed image corresponding to the object, the object located in the first region of the photographed image corresponding to the predetermined gate is excluded from the matching process.
Matching system.

上記構成によると、照合システムは、各ゲートに対応する撮影画像内の対象の特徴量を抽出して比較することで、各ゲートの撮影画像に同一の対象が重複して映っているかをより確実に判別することができる。そして、所定のゲートと他のゲートとで重複して映っている対象を照合処理から除外することができ、ゲートを通過しようとする対象の誤認識を抑制することができる。さらに、対象の重複を判断するために抽出した対象の特徴量を照合処理に利用することができ、処理の効率化を図ることができる。   According to the above configuration, the collation system extracts and compares the feature amount of the target in the captured image corresponding to each gate, thereby more reliably confirming that the same target is duplicated in the captured image of each gate. Can be determined. Then, it is possible to exclude from the collation process an object that is duplicated in a predetermined gate and another gate, and to suppress erroneous recognition of the object that attempts to pass through the gate. Furthermore, it is possible to use the feature amount of the object extracted for determining the overlap of the objects for the collation process, and to improve the efficiency of the process.

(付記9)
付記3乃至8のいずれかに記載の照合システムであって、
前記所定のゲートに対応する前記撮影画像内の対象と、当該対象が前記所定のゲートに対応する前記撮影画像内に位置するタイミングで取得された前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域と前記他のゲートに対応する前記撮影画像の前記第二領域とを設定する領域設定手段を備えた、
照合システム。
(Appendix 9)
A verification system according to any one of appendices 3 to 8,
A target in the captured image corresponding to the predetermined gate, and a target in the captured image corresponding to the other gate acquired at a timing when the target is positioned in the captured image corresponding to the predetermined gate. And an area setting means for setting the first area of the captured image corresponding to the predetermined gate and the second area of the captured image corresponding to the other gate, based on
Matching system.

(付記10)
付記9に記載の照合システムであって、
前記領域設定手段は、前記所定のゲートに対応する前記撮影画像内の対象と、当該対象が前記所定のゲートに対応する前記撮影画像内に位置するタイミングで取得された前記他のゲートに対応する前記撮影画像内の対象と、が同一である場合に、前記所定のゲートに対応する前記撮影画像内の対象の位置と、前記他のゲートに対応する前記撮影画像内の対象の位置と、に基づいて、前記所定のゲートに対応する前記撮影画像内の対象の位置の周囲を前記第一領域として設定し、前記他のゲートに対応する前記撮影画像内の対象の位置の周囲を前記第二領域として設定する、
照合システム。
(Appendix 10)
A verification system according to appendix 9, wherein
The area setting unit corresponds to a target in the captured image corresponding to the predetermined gate and the other gate acquired at a timing when the target is positioned in the captured image corresponding to the predetermined gate. When the target in the captured image is the same, the position of the target in the captured image corresponding to the predetermined gate and the position of the target in the captured image corresponding to the other gate Based on this, the periphery of the target position in the captured image corresponding to the predetermined gate is set as the first region, and the periphery of the target position in the captured image corresponding to the other gate is set to the second region. Set as area,
Matching system.

上記構成によると、照合システムは、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、各ゲートに対応する各撮影画像同士で重複する領域を自動的に設定することができる。その結果、照合システムの利用の容易化を図ることができると共に、高精度に誤認識を抑制することができる。   According to the above configuration, the collation system overlaps each captured image corresponding to each gate based on the target in the captured image corresponding to the predetermined gate and the target in the captured image corresponding to the other gate. The area to be set can be set automatically. As a result, the use of the verification system can be facilitated, and erroneous recognition can be suppressed with high accuracy.

(付記11)
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を備え、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
情報処理装置。
(Appendix 11)
For each of the captured images of each pre-passage region for each gate installed in parallel, a collation unit that performs collation processing between a pre-registered target and a target included in the captured image,
The collation means performs the collation processing based on a target in the captured image corresponding to the predetermined gate and a target in the captured image corresponding to another gate.
Information processing device.

(付記12)
付記11に記載の情報処理装置であって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
情報処理装置。
(Appendix 12)
An information processing apparatus according to appendix 11, wherein
The collation means performs the collation processing based on a target located in a predetermined region of the captured image corresponding to the predetermined gate and a target in the captured image corresponding to the other gate.
Information processing device.

(付記13)
情報処理装置に、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を実現させるためのプログラムであり、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
プログラム。
(Appendix 13)
In the information processing device,
A program for realizing collation means for performing collation processing between a pre-registered target and a target included in the captured image with respect to each captured image of each pre-passage region for each gate installed in parallel And
The collation means performs the collation processing based on a target in the captured image corresponding to the predetermined gate and a target in the captured image corresponding to another gate.
program.

(付記14)
付記13に記載のプログラムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
プログラム。
(Appendix 14)
The program according to attachment 13, wherein
The collation means performs the collation processing based on a target located in a predetermined region of the captured image corresponding to the predetermined gate and a target in the captured image corresponding to the other gate.
program.

(付記15)
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う方法であり、
所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
照合方法。
(Appendix 15)
A method of performing a collation process between a pre-registered target and a target included in the captured image for each captured image of each pre-passage region for each gate installed in parallel,
Performing the matching process based on a target in the captured image corresponding to a predetermined gate and a target in the captured image corresponding to another gate;
Matching method.

(付記16)
付記15に記載の照合方法であって、
前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
照合方法。
(Appendix 16)
The verification method according to attachment 15, wherein
Performing the matching process based on an object located in a predetermined area of the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate;
Matching method.

(付記17)
付記16に記載の照合方法であって、
前記所定のゲートに対応する前記撮影画像の第一領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の第二領域に位置する対象と、に基づいて、前記照合処理を行う、
照合方法。
(Appendix 17)
The verification method according to attachment 16, wherein
The matching process is performed based on an object located in the first region of the captured image corresponding to the predetermined gate and an object located in the second region in the captured image corresponding to the other gate. ,
Matching method.

(付記18)
付記17に記載の照合方法であって、
前記所定のゲートに対応する前記撮影画像内の対象と、当該対象が前記所定のゲートに対応する前記撮影画像内に位置するタイミングで取得された前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域と前記他のゲートに対応する前記撮影画像の前記第二領域とを設定し、
前記所定のゲートに対応する前記撮影画像の設定された前記第一領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の設定された前記第二領域に位置する対象と、に基づいて、前記照合処理を行う、
照合方法。
(Appendix 18)
The verification method according to attachment 17, wherein
A target in the captured image corresponding to the predetermined gate, and a target in the captured image corresponding to the other gate acquired at a timing when the target is positioned in the captured image corresponding to the predetermined gate. And setting the first region of the captured image corresponding to the predetermined gate and the second region of the captured image corresponding to the other gate,
An object located in the set first area of the photographed image corresponding to the predetermined gate and an object located in the set second area in the photographed image corresponding to the other gate; Based on the matching process,
Matching method.

なお、上述したプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されている。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。   Note that the above-described program is stored in a storage device or recorded on a computer-readable recording medium. For example, the recording medium is a portable medium such as a flexible disk, an optical disk, a magneto-optical disk, and a semiconductor memory.

以上、上記実施形態等を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることができる。   Although the present invention has been described with reference to the above-described embodiment and the like, the present invention is not limited to the above-described embodiment. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

10 顔認証システム
11 対象抽出部
12 対象判定部
13 照合部
14 ゲート制御部
15 領域設定部
16 通信部
17 照合データ記憶部
20 顔認証システム
100 照合システム
110 撮像手段
120 照合手段
200 情報処理装置
210 照合手段
C1,C2,C3 撮像装置
D1 表示装置
G1,G2,G3 ゲート
DESCRIPTION OF SYMBOLS 10 Face authentication system 11 Object extraction part 12 Object determination part 13 Collation part 14 Gate control part 15 Area | region setting part 16 Communication part 17 Collation data storage part 20 Face authentication system 100 Collation system 110 Imaging means 120 Collation means 200 Information processing apparatus 210 Collation Means C1, C2, C3 Imaging device D1 Display device G1, G2, G3 Gate

Claims (16)

ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の撮像手段と、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の撮像手段と、
予め登録された対象と、前記第1の撮影画像に含まれる対象と、の照合処理において前記第2の撮影画像を用いる照合手段と、
を備える照合システム。
A first imaging means for acquiring a first photographed image that is a photographed image of a pre-passage region with respect to the gate;
A second imaging means for acquiring a second photographed image that is a photographed image of an area including at least a part of the pre-passage area;
Collation means that uses the second captured image in a collation process between a pre-registered target and a target included in the first captured image;
A collation system comprising:
請求項1に記載の照合システムであって、
前記照合手段は、前記第1の撮影画像の所定領域に位置する対象と、前記第2の撮影画像内の対象と、に基づいて、前記照合処理を行う照合対象を決定する、
照合システム。
The verification system according to claim 1,
The collation means determines a collation target to be subjected to the collation process based on a target located in a predetermined region of the first captured image and a target in the second captured image.
Matching system.
請求項2に記載の照合システムであって、
前記照合手段は、前記第1の撮影画像の第一領域に位置する対象と、前記第2の撮影画像の第二領域に位置する対象と、に基づいて、前記照合対象を決定する、
照合システム。
The verification system according to claim 2,
The collation means determines the collation target based on an object located in the first area of the first captured image and an object located in the second area of the second captured image.
Matching system.
請求項3に記載の照合システムであって、
前記照合手段は、前記第1の撮影画像の前記第一領域に位置する対象が、当該対象が前記第一領域に位置するタイミングで前記第2の撮影画像の前記第二領域に位置している場合に、前記第1の撮影画像の前記第一領域に位置する対象を、前記照合対象から除外する、照合システム。
The verification system according to claim 3,
The collation means is configured such that an object located in the first area of the first photographed image is located in the second area of the second photographed image at a timing when the object is located in the first area. In this case, a collation system that excludes a target located in the first region of the first captured image from the collation target.
請求項4に記載の照合システムであって、
前記照合手段は、前記第1の撮影画像の前記第一領域に位置する対象の特徴量と、前記第2の撮影画像の前記第二領域に位置する対象の特徴量と、に基づいて、前記第1の撮影画像の前記第一領域に位置する対象が、前記第2の撮影画像の前記第二領域に位置していると判断した場合に、前記第1の撮影画像の前記第一領域に位置する対象を、前記照合対象から除外する、
照合システム。
The verification system according to claim 4,
The collating means is based on the feature amount of the object located in the first region of the first photographed image and the feature amount of the object located in the second region of the second photographed image. When it is determined that an object located in the first area of the first photographed image is located in the second area of the second photographed image, the object is located in the first area of the first photographed image. Excluding the located object from the matching object;
Matching system.
請求項5に記載の照合システムであって、
前記照合手段は、前記第1の撮影画像の前記第一領域に位置する対象である人物の目間距離と、前記第2の撮影画像の前記第二領域に位置する対象である人物の目間距離と、に基づいて、前記第1の撮影画像の前記第一領域に位置する対象が、前記第2の撮影画像の前記第二領域に位置していると判断した場合に、前記第1の撮影画像の前記第一領域に位置する対象を、前記照合対象から除外する、
照合システム。
The verification system according to claim 5,
The collating means includes a distance between eyes of a person who is a target located in the first area of the first photographed image and a distance between eyes of a person who is a subject located in the second area of the second photographed image. And when the target located in the first region of the first photographed image is located in the second region of the second photographed image based on the distance, Excluding the object located in the first region of the captured image from the verification target;
Matching system.
請求項3乃至6のいずれかに記載の照合システムであって、
前記第1の撮影画像内の対象と、当該対象が前記第1の撮影画像内に位置するタイミングで取得された前記第2の撮影画像内の対象と、に基づいて、前記第1の撮影画像の前記第一領域と前記第2の撮影画像の前記第二領域とを設定する領域設定手段を備えた、
照合システム。
The collation system according to any one of claims 3 to 6,
Based on the target in the first captured image and the target in the second captured image acquired at a timing when the target is located in the first captured image, the first captured image An area setting means for setting the first area and the second area of the second photographed image;
Matching system.
請求項7に記載の照合システムであって、
前記領域設定手段は、前記第1の撮影画像内の対象と、当該対象が前記第1の撮影画像内に位置するタイミングで取得された前記第2の撮影画像内の対象と、が同一である場合に、前記第1の撮影画像内の対象の位置と、前記第2の撮影画像内の対象の位置と、に基づいて、前記第1の撮影画像内の対象の位置の周囲を前記第一領域として設定し、前記第2の撮影画像内の対象の位置の周囲を前記第二領域として設定する、
照合システム。
The collation system according to claim 7,
In the area setting means, the target in the first captured image is the same as the target in the second captured image acquired at the timing when the target is positioned in the first captured image. In this case, based on the position of the target in the first captured image and the position of the target in the second captured image, the periphery of the position of the target in the first captured image is Set as a region, and set the periphery of the target position in the second captured image as the second region,
Matching system.
ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の取得手段と、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得手段と、
予め登録された対象と、前記第1の撮影画像に含まれる対象と、の照合処理において、前記第2の撮影画像を用いる照合手段と、
を備える情報処理装置。
First acquisition means for acquiring a first photographed image that is a photographed image of the pre-passage region with respect to the gate;
Second acquisition means for acquiring a second captured image that is a captured image of an area including at least a part of the pre-passage area;
A collation unit that uses the second photographed image in a collation process between a pre-registered object and a target included in the first photographed image;
An information processing apparatus comprising:
請求項9に記載の情報処理装置であって、
前記照合手段は、前記第1の撮影画像の所定領域に位置する対象と、前記第2の撮影画像内の対象と、に基づいて、前記照合処理を行う照合対象を決定する、
情報処理装置。
The information processing apparatus according to claim 9,
The collation means determines a collation target to be subjected to the collation process based on a target located in a predetermined region of the first captured image and a target in the second captured image.
Information processing device.
情報処理装置に、
ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の取得手段と、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得手段と、
予め登録された対象と、前記第1の撮影画像に含まれる対象と、の照合処理において、前記第2の撮影画像を用いる照合手段と、
を実現させるためのプログラム。
In the information processing device,
First acquisition means for acquiring a first photographed image that is a photographed image of the pre-passage region with respect to the gate;
Second acquisition means for acquiring a second captured image that is a captured image of an area including at least a part of the pre-passage area;
A collation unit that uses the second photographed image in a collation process between a pre-registered object and a target included in the first photographed image;
A program to realize
請求項11に記載のプログラムであって、
前記照合手段は、前記第1の撮影画像の所定領域に位置する対象と、前記第2の撮影画像内の対象と、に基づいて、前記照合処理を行う照合対象を決定する、
プログラム。
The program according to claim 11,
The collation means determines a collation target to be subjected to the collation process based on a target located in a predetermined region of the first captured image and a target in the second captured image.
program.
ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の取得ステップと、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得ステップと、
予め登録された対象と、前記第1の撮影画像に含まれる対象と、の照合処理において、前記第2の撮影画像を用いる照合ステップと、を含む、
照合方法。
A first acquisition step of acquiring a first photographed image that is a photographed image of the pre-passage region with respect to the gate;
A second acquisition step of acquiring a second captured image that is a captured image of an area including at least a part of the pre-passage area;
A collation step using the second captured image in a collation process between a pre-registered target and a target included in the first captured image,
Matching method.
請求項13に記載の照合方法であって、
前記第1の撮影画像の所定領域に位置する対象と、前記第2の撮影画像内の対象と、に基づいて、前記照合処理を行う照合対象を決定する、
照合方法。
The collation method according to claim 13,
Determining a collation target for performing the collation process based on a target located in a predetermined region of the first captured image and a target in the second captured image;
Matching method.
請求項14に記載の照合方法であって、
前記第1の撮影画像の第一領域に位置する対象と、前記第2の撮影画像内の第二領域に位置する対象と、に基づいて、前記照合対象を決定する、
照合方法。
The verification method according to claim 14, comprising:
The collation target is determined based on a target located in the first region of the first captured image and a target located in the second region in the second captured image.
Matching method.
請求項15に記載の照合方法であって、
前記第1の撮影画像の前記第一領域に位置する対象が、当該対象が前記第一領域に位置するタイミングで前記第2の撮影画像の前記第二領域にも位置している場合に、前記第1の撮影画像の前記第一領域に位置する対象を、前記照合対象から除外する、
照合方法。

The collation method according to claim 15,
When the object located in the first area of the first photographed image is also located in the second area of the second photographed image at the timing when the object is located in the first area, Excluding the object located in the first region of the first photographed image from the verification target;
Matching method.

JP2018177488A 2018-09-21 2018-09-21 Collation system Active JP6774036B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018177488A JP6774036B2 (en) 2018-09-21 2018-09-21 Collation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018177488A JP6774036B2 (en) 2018-09-21 2018-09-21 Collation system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017179064A Division JP6409929B1 (en) 2017-09-19 2017-09-19 Verification system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020160455A Division JP7040578B2 (en) 2020-09-25 2020-09-25 Collation system

Publications (2)

Publication Number Publication Date
JP2019057284A true JP2019057284A (en) 2019-04-11
JP6774036B2 JP6774036B2 (en) 2020-10-21

Family

ID=66107543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018177488A Active JP6774036B2 (en) 2018-09-21 2018-09-21 Collation system

Country Status (1)

Country Link
JP (1) JP6774036B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022064830A1 (en) * 2020-09-25 2022-03-31 グローリー株式会社 Image processing device, image processing system, image processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007148987A (en) * 2005-11-30 2007-06-14 Toshiba Corp Face authentication system, and entrance and exit management system
JP2007213224A (en) * 2006-02-08 2007-08-23 Sogo Keibi Hosho Co Ltd Monitoring system and monitoring method
JP2007328572A (en) * 2006-06-08 2007-12-20 Matsushita Electric Ind Co Ltd Face authentication device and face authentication method
WO2008108458A1 (en) * 2007-03-07 2008-09-12 Omron Corporation Face image acquiring system, face checking system, face image acquiring method, face checking method, face image acquiring program and face checking program
JP2008282278A (en) * 2007-05-11 2008-11-20 Canon Inc Image processor, image processing method, program and storage medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007148987A (en) * 2005-11-30 2007-06-14 Toshiba Corp Face authentication system, and entrance and exit management system
JP2007213224A (en) * 2006-02-08 2007-08-23 Sogo Keibi Hosho Co Ltd Monitoring system and monitoring method
JP2007328572A (en) * 2006-06-08 2007-12-20 Matsushita Electric Ind Co Ltd Face authentication device and face authentication method
WO2008108458A1 (en) * 2007-03-07 2008-09-12 Omron Corporation Face image acquiring system, face checking system, face image acquiring method, face checking method, face image acquiring program and face checking program
JP2008282278A (en) * 2007-05-11 2008-11-20 Canon Inc Image processor, image processing method, program and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022064830A1 (en) * 2020-09-25 2022-03-31 グローリー株式会社 Image processing device, image processing system, image processing method, and program

Also Published As

Publication number Publication date
JP6774036B2 (en) 2020-10-21

Similar Documents

Publication Publication Date Title
JP6409929B1 (en) Verification system
JP6483485B2 (en) Person authentication method
WO2019151117A1 (en) Information processing device
JP6544404B2 (en) Matching system
JP4899552B2 (en) Authentication device, authentication method, authentication program, and computer-readable recording medium recording the same
JP4992517B2 (en) Face matching device
JP6947202B2 (en) Matching system
JP7040578B2 (en) Collation system
JP6774036B2 (en) Collation system
JP7006668B2 (en) Information processing equipment
US20230274597A1 (en) Information processing apparatus, information processing method, and storage medium
JP6915673B2 (en) Information processing system
JP7298658B2 (en) Matching system
WO2019151116A1 (en) Information processing device
JP2023120264A (en) Collation system
JP7279774B2 (en) Information processing equipment
WO2021206014A1 (en) Information processing apparatus, information processing method, and storage medium
WO2023145059A1 (en) Entry management device, entry management method, and program recording medium
US20230206686A1 (en) Face authentication method, storage medium, and face authentication device
JP2021193268A (en) Information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200915

R150 Certificate of patent or registration of utility model

Ref document number: 6774036

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150