JP6774036B2 - Collation system - Google Patents
Collation system Download PDFInfo
- Publication number
- JP6774036B2 JP6774036B2 JP2018177488A JP2018177488A JP6774036B2 JP 6774036 B2 JP6774036 B2 JP 6774036B2 JP 2018177488 A JP2018177488 A JP 2018177488A JP 2018177488 A JP2018177488 A JP 2018177488A JP 6774036 B2 JP6774036 B2 JP 6774036B2
- Authority
- JP
- Japan
- Prior art keywords
- captured image
- region
- target
- collation
- gate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、照合システムにかかり、特に、ゲートを通過しようとする対象を照合する照合システムに関する。 The present invention relates to a collation system, and more particularly to a collation system that collates an object that is about to pass through a gate.
オフィスやイベント会場などの特定場所に入退場する人物を制限したり管理する手段として、通過しようとする人物が予め登録された人物か否かを照合する照合システムが用いられる。特に、近年では、人物の顔認証技術の発達により、ゲートに設置したカメラで撮影した人物の顔画像から顔認証を行うウォークスルー顔認証システムが利用されている。 As a means of restricting or managing people who enter or leave a specific place such as an office or an event venue, a collation system is used to check whether or not the person who is going to pass is a pre-registered person. In particular, in recent years, with the development of human face recognition technology, a walk-through face recognition system that performs face recognition from a person's face image taken by a camera installed at a gate has been used.
ここで、ウォークスルー顔認証システムにおいては、複数のゲートが隣接し、各ゲートにそれぞれ向かう人物が通行するレーンが隣接している場合がある。この場合、あるゲートのレーンを通行する人物を撮影した画像に、隣接するレーンで隣接するゲートに向かう人物も映ってしまう場合がある。すると、隣接するレーンを通行する人物を、自レーンを通行する人物と誤認識してしまい、自レーンの先にある自ゲートを通行する人物の照合の妨げとなる場合がある。このため、複数のゲートが設置された状況においては、各ゲートに向かう人物の誤認識を抑制することが求められる。 Here, in the walk-through face recognition system, a plurality of gates may be adjacent to each other, and lanes through which a person heading for each gate passes may be adjacent to each other. In this case, an image of a person passing through a lane of a certain gate may also show a person heading for an adjacent gate in the adjacent lane. Then, the person passing through the adjacent lane may be mistakenly recognized as the person passing through the own lane, which may hinder the collation of the person passing through the own gate at the end of the own lane. Therefore, in a situation where a plurality of gates are installed, it is required to suppress erroneous recognition of a person heading for each gate.
また、ウォークスルー顔認証システムに関連する技術として、特許文献1に記載の技術がある。特許文献1では、人物がゲートから遠くにいる時点で認証が済んでしまい、かかる人物がゲートに到達する前にゲートが開放されてしまう、という問題を掲げている。そして、かかる問題を解決するために、特許文献1では、撮影した人物の顔画像と登録顔画像との照合を行い、照合した人物の入力画像上の大きさに基づいて、かかる人物のゲートへの接近を検出している。さらに、特許文献1では、撮影画像の領域毎に、それぞれ顔領域の大きさの判定基準値を異ならせて設定することで、隣接ゲートに向かう人物の誤認識を防止しようとしている。 Further, as a technique related to the walk-through face recognition system, there is a technique described in Patent Document 1. Patent Document 1 raises the problem that authentication is completed when a person is far from the gate, and the gate is opened before the person reaches the gate. Then, in order to solve such a problem, in Patent Document 1, the photographed person's face image and the registered face image are collated, and based on the size on the input image of the collated person, the gate of the person is displayed. Is detecting the approach of. Further, in Patent Document 1, it is attempted to prevent erroneous recognition of a person heading for an adjacent gate by setting different determination reference values for the size of the face region for each region of the captured image.
しかしながら、特許文献1に記載の技術では、人物が通過しようとしているゲートに対応して設置されたカメラによる撮影画像のみを用い、かつ、撮影画像の領域毎に設定された人物の大きさの判定基準値を用いて、自ゲートへの人物の接近を検出している。このため、撮影画像に映る人物の領域が適切でなかったり、判定基準値が適切でない場合には、依然として他のゲートに向かう人物を誤認識してしまう、という問題が生じる。 However, in the technique described in Patent Document 1, only the image taken by the camera installed corresponding to the gate through which the person is passing is used, and the size of the person set for each area of the photographed image is determined. The reference value is used to detect the approach of a person to the own gate. For this reason, if the area of the person reflected in the captured image is not appropriate or the determination reference value is not appropriate, there still arises a problem that the person heading for another gate is erroneously recognized.
また、上述した各ゲートにそれぞれ向かう人物の誤認識という問題は、ゲートを通過する対象が人物である場合に限らず、いかなる対象の照合を行う場合にも生じうる。 Further, the problem of erroneous recognition of a person heading for each gate described above may occur not only when the target passing through the gate is a person but also when collating any target.
このため、本発明の目的は、上述した課題である、ゲートを通過しようとする対象を誤認識してしまうという問題を解決することができる照合システムを提供することにある。 Therefore, an object of the present invention is to provide a collation system capable of solving the above-mentioned problem of erroneously recognizing an object trying to pass through a gate.
本発明の一形態である照合システムは、
並列に設置された各ゲートに対する各通過前側領域の撮影画像をそれぞれ取得する撮像手段と、
前記ゲート毎に、前記各通過前側領域の前記撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段と、
を備え、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
という構成をとる。
The collation system, which is one embodiment of the present invention, is
An imaging means for acquiring captured images of each passage front region for each gate installed in parallel, and
For each of the gates, a collation means for collating a pre-registered target and an object included in the captured image for each of the captured images in each passage front region.
With
The collation means performs the collation process based on an object in the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
It takes the configuration.
また、本発明の一形態である情報処理装置は、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を備え、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
という構成をとる。
Further, the information processing device which is one form of the present invention is
A collation means for performing collation processing between a pre-registered target and an target included in the captured image is provided for each of the captured images of each passage front region for each gate installed in parallel.
The collation means performs the collation process based on an object in the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
It takes the configuration.
また、本発明の一形態であるプログラムは、
情報処理装置に、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を実現させるためのプログラムであり、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
という構成をとる。
Moreover, the program which is one form of the present invention
For information processing equipment
A program for realizing a collation means for collating a pre-registered target and a target included in the captured image for each of the captured images in each passage front region for each gate installed in parallel. And
The collation means performs the collation process based on an object in the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
It takes the configuration.
また、本発明の一形態である照合方法は、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う方法であり、
所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
という構成をとる。
Further, the collation method, which is one embodiment of the present invention, is
This is a method of collating a pre-registered target with a target included in the captured image for each of the captured images of each passage front region for each gate installed in parallel.
The collation process is performed based on the object in the captured image corresponding to the predetermined gate and the object in the captured image corresponding to the other gate.
It takes the configuration.
本発明は、以上のように構成されることにより、ゲートを通過しようとする対象の誤認識を抑制することができる。 The present invention can suppress erroneous recognition of an object trying to pass through the gate by being configured as described above.
<実施形態1>
本発明の第1の実施形態を、図1乃至図7を参照して説明する。図1は、顔認証システムの使用状況を示す図である。図2は、顔認証システムの構成を示す図である。図3乃至図7は、顔認証システムの処理動作を説明するための図である。
<Embodiment 1>
The first embodiment of the present invention will be described with reference to FIGS. 1 to 7. FIG. 1 is a diagram showing a usage status of the face recognition system. FIG. 2 is a diagram showing a configuration of a face recognition system. 3 to 7 are diagrams for explaining the processing operation of the face recognition system.
[全体構成]
本発明における顔認証システム10(照合システム)は、オフィスやイベント会場などの特定場所において、人物(対象)の入退場を制限したり管理するために用いられるシステムである。例えば、顔認証システム10を構成する撮像装置は、人物の入退場の際に開閉されるゲート毎に、当該ゲートの配置箇所付近にそれぞれ設置されるものである。
[overall structure]
The face recognition system 10 (collation system) in the present invention is a system used for restricting or managing the entry / exit of a person (target) in a specific place such as an office or an event venue. For example, the imaging device constituting the
図1に示す例では、3つのゲートG1,G2,G3が並列に隣接して配置されており、図1の右側から各ゲートG1,G2,G3に向かって、矢印に示す方向に人物が通行するよう構成されている。このため、各ゲートG1,G2,G3に対する図1の右側領域は、人物がゲートを通過する前側の領域(通過前側領域)となっている。そして、各ゲートG1,G2,G3の通過前側領域には、当該各ゲートG1,G2,G3を通過しようとする人物が並んで通行する各レーンR1,R2,R3が、各ゲートG1,G2,G3にそれぞれ対応して並列に位置している。なお、各レーンR1,R2,R3は、何らかの部材で仕切られていてもよく、仕切られていなくてもよい。 In the example shown in FIG. 1, three gates G1, G2, and G3 are arranged adjacent to each other in parallel, and a person passes in the direction indicated by the arrow from the right side of FIG. 1 toward each gate G1, G2, G3. It is configured to do. Therefore, the area on the right side of FIG. 1 with respect to the gates G1, G2, and G3 is an area on the front side where a person passes through the gate (area on the front side of passage). Then, in the area on the front side of each gate G1, G2, G3, each lane R1, R2, R3 in which a person who intends to pass through each of the gates G1, G2, G3 passes side by side is a gate G1, G2. They are located in parallel corresponding to each G3. In addition, each lane R1, R2, R3 may be partitioned by some member, and may not be partitioned.
図1に示す状況において、本実施形態における顔認証システム10を構成する撮像装置C1,C2,C3は、対応する各ゲートG1,G2,G3付近であり、各ゲートG1,G2,G3に向かう人物から見て右側に設置されている。但し、撮像装置の設置位置は、図1に示す位置に限定されず、ゲートに向かって左側やゲートの上方など、いかなる位置に設置されていてもよい。なお、顔認証システム10は、各撮像装置C1,C2,C3の近辺に、表示装置も備えている。
In the situation shown in FIG. 1, the imaging devices C1, C2, and C3 constituting the
顔認証システム10は、例えば、ゲートG1においては、装備している撮像装置C1にてゲートG1に向かう人物の画像を撮影する。そして、撮影画像に映る人物の顔画像から、かかる人物が予め登録された人物であるか否かを照合し、照合が成功すると、人物が通過可能なようゲートG1を開く、という処理を行う。なお、他のゲートG2,G3にもそれぞれ対応して顔認証システム及び当該システムを構成する撮像装置C2,C3が設置されており、各ゲートG2,G3に向かう人物の照合を行う。以下、顔認証システム10の構成について詳述する。なお、以下では、主にゲートG1に対応して設置された顔認証システム10について説明するが、他のゲートG2,G3に対応して設置された顔認証システムも同様の構成である。
For example, at the gate G1, the
[顔認証システムの構成]
本実施形態における顔認証システム10は、撮像装置C1(カメラ)及び表示装置D1(ディスプレイ)と一体的に構成された演算装置及び記憶装置を有する情報処理装置である。逆に言うと、撮像装置C1に、顔認証処理を行う演算装置及び記憶装置を有する情報処理装置と表示装置D1が搭載されている。但し、顔認証システム10は、必ずしも撮像装置C1や表示装置D1と一体的に構成されていることに限定されない。例えば、撮像装置C1と表示装置D1と撮影画像を処理する情報処理装置とが別々の装置にて構成されており、別々の場所に設置されていてもよい。
[Face recognition system configuration]
The
具体的に、顔認証システム10は、図2に示すように、撮像装置C1及び表示装置D1と、通信部16と、を備えると共に、演算装置がプログラムを実行することで構築された対象抽出部11と、対象判定部12と、照合部13と、ゲート制御部14と、を備えている。また、顔認証システム10は、記憶装置に構築された照合データ記憶部17と、を備えている。
Specifically, as shown in FIG. 2, the
上記撮像装置C1(撮像手段)は、ゲートG1に対する通過前側領域、つまり、対応するレーンR1のゲートG1前領域の撮影画像を、所定のフレームレートで取得するカメラ及びカメラ制御部を備えたものである。そして、撮像装置C1は、例えば図3に示すように、符号C1a線で挟まれた範囲が撮影領域となっている。このとき、撮影領域のうち符号C1b線で挟まれた水平方向における中央領域に、撮像装置C1が設置されたゲートG1に対応するレーンR1(自レーン)を通行する人物P10が位置するよう、撮像装置C1の撮影領域が設定されている。なお、撮影画像は、撮像装置C1に対する遠近方向の予め設定された距離の範囲、例えば、図3に示す符号L1線から符号L2線の間の距離で、概ね焦点が合うよう設定されている。 The image pickup apparatus C1 (imaging means) includes a camera and a camera control unit that acquire a captured image of a region before passing through the gate G1, that is, a region in front of the gate G1 of the corresponding lane R1 at a predetermined frame rate. is there. Then, in the image pickup apparatus C1, for example, as shown in FIG. 3, the range sandwiched by the code C1a is the photographing region. At this time, imaging is performed so that the person P10 passing through the lane R1 (own lane) corresponding to the gate G1 in which the imaging device C1 is installed is located in the central region in the horizontal direction sandwiched by the code C1b line in the imaging region. The photographing area of the device C1 is set. The captured image is set so as to be substantially in focus within a preset distance range in the perspective direction with respect to the image pickup apparatus C1, for example, a distance between the reference numeral L1 line and the reference numeral L2 line shown in FIG.
上述したように撮像装置C1の撮影領域が設定されていることにより、撮影領域のうち、符号C1a線と符号C1b線とに挟まれた領域である上記中央領域に対して水平方向における端領域には、図3に示す状況では、隣接するゲートG2に対応するレーンR2を通行する人物P20が映る場合が生じる。また、端領域には、図5に示す状況では、撮像装置C1が設置された自ゲートG1に対応する自レーンR1に位置する人物P12が映る場合もある。本発明の顔認証システム10は、このような状況が生じた場合であっても、以下に説明するように、隣接ゲートG2を通過しようとしている人物P20を照合処理対象から除外し、自ゲートG1を通過しようとする人物P12を適切に認識してゲート通過の可否を判定可能とするよう構成されている。
Since the imaging region of the imaging device C1 is set as described above, the edge region in the horizontal direction with respect to the central region, which is the region sandwiched between the reference numerals C1a line and the reference numeral C1b line, is set in the imaging region. In the situation shown in FIG. 3, a person P20 passing through the lane R2 corresponding to the adjacent gate G2 may be displayed. Further, in the situation shown in FIG. 5, a person P12 located in the own lane R1 corresponding to the own gate G1 in which the image pickup apparatus C1 is installed may be projected in the end region. Even if such a situation occurs, the
上記対象抽出部11は、撮像装置C1から撮影画像を取得し、撮影画像内から処理対象となる人物を抽出する。人物の抽出は、例えば、動く物体を抽出したり、物体の全体形状や全体像に対する特徴的な形状部位の位置や色の位置などから判定して行う。このとき、対象抽出部11は、抽出した人物が位置する撮影画像内における領域も特定する。特に本実施形態では、抽出した人物が、上述した撮影画像の水平方向における中央領域か左右の端領域に位置しているかを特定する。例えば、図3の状況では、ゲートG1に対応する撮像装置C1による撮影画像では、図4(a)に示すように中央領域に位置する人物P10が抽出され、右端領域に位置する人物P20が抽出される。
The
上記対象判定部12(照合手段)は、対象抽出部11で抽出した人物P10,P20が自ゲートG1に向かっている人物であるか否かを判定する。このとき、対象判定部12は、端領域(第一領域)に人物P20が位置している場合には、他のゲートG2に対応する顔認証システム20の撮像装置C2にて撮影された撮影画像に基づいて、かかる人物P20が自ゲートG1に向かっているか否かを判定する。この例では、図4(a)に示す自ゲートG1に対応する撮影画像の右側の端領域に人物P20が映っているため、ゲートG1の右側に隣接するゲートG2の撮像装置C2にて撮影された撮影画像を取得する。具体的には、対象判定部12は、通信部16を介して、隣接ゲートG2の顔認証システム20と通信して、ゲートG1で撮影画像が撮影された同一のタイミング(例えば、同一時刻)でゲートG2で撮影された撮影画像を取得する。なお、各ゲートG1,G2,G3にそれぞれ対応する顔認証システム(撮像装置C1,C2,C3)の位置関係は、予め各システムに登録されていることとする。
The target determination unit 12 (collation means) determines whether or not the persons P10 and P20 extracted by the
そして、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P20が、隣接ゲートG2の撮影画像の中央領域(第二領域)に映っているか否かを調べる。本実施形態では、隣接ゲートG2の撮影画像の中央領域にいずれかの人物が映っている場合には、かかる人物が自ゲートG1の撮影画像の端領域に位置している人物P20であると判定する。この場合、自ゲートG1の顔認証システム10では、撮影画像の端領域に位置する人物P20を照合対象から除外すると判定する。なお、自ゲートG1の撮影画像の端領域(第一領域)と隣接ゲートG2の撮影画像の中央領域(第二領域)とは、撮影画像上においては相互に異なる領域であるが、実空間においては相互に重複する空間である。
Then, the
例えば、図3の状況では、図4(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P20は、図4(b)に示す隣接ゲートG2の撮影画像の中央領域に位置するため、かかる人物P20は自ゲートG1の顔認証システム10による照合対象から除外する。つまり、自ゲートG1の顔認証システム10は、撮影画像の中央領域に位置する人物P10のみを照合対象とする。また、図5の状況では、図6(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P12は、図6(b)に示す隣接ゲートG2の撮影画像の中央領域には位置していない。このため、かかる人物P12は自ゲートG1の顔認証システム10による照合対象とする。つまり、自ゲートG1の顔認証システム10は、撮影画像の中央領域に位置する人物P10と、端領域に位置する人物P12を照合対象とする。
For example, in the situation of FIG. 3, the person P20 located in the edge region of the captured image of the own gate G1 shown in FIG. 4A is located in the central region of the captured image of the adjacent gate G2 shown in FIG. 4B. Therefore, the person P20 is excluded from the verification target by the
なお、上記対象判定部12は、上述とは異なる方法で、人物が自ゲートにおける照合対象であるか否かを判定してもよい。一例として、対象判定部12は、撮影画像の端領域(第一領域)に人物が位置している場合には、他のゲートG2に対応する顔認証システム20に対して、かかる人物が自ゲートG1の人物か否かを問い合わせてもよい。具体的に、図3及び図4の例では、図4(a)に示す自ゲートG1に対応する撮影画像の右側の端領域に人物P20が映っているため、ゲートG1の右側に隣接するゲートG2の顔認証システム20に対して、かかる人物P20が当該隣接するゲートG2の中央領域に映っているか否かを問い合わせる。同様に、図5及び図6の例では、図6(a)に示す自ゲートG1に対応する撮影画像の右側の端領域に人物P12が映っているため、ゲートG1の右側に隣接するゲートG2の顔認証システム20に対して、かかる人物P12が当該隣接するゲートG2の中央領域に映っているか否かを問い合わせる。このとき、対象判定部12は、通信部16を介して、隣接ゲートG2の顔認証システム20と通信して、ゲートG1で撮影画像が撮影された同一のタイミング(例えば、同一時刻)でゲートG2で撮影された撮影画像の中央領域に、人物が映っているか否かを問い合わせる。
The
そして、上記問合せを受けた隣接するゲートG2の顔認証システム20は、自身の撮影画像から中央領域(第二領域)にいずれかの人物が映っているか否かを調べ、その結果を問合せを受けたゲートG1の顔認証システム10の対象判定部12に通知する。具体的に、隣接するゲートG2の顔認証システム20は、上述した対象抽出部11と同等の機能を有し、撮像装置C2から撮影画像を取得し、撮影画像内から処理対象となる人物を抽出し、抽出した人物が位置する撮影画像内における領域も特定する。そして、隣接するゲートG2の顔認証システム20は、中央領域に人物が映っているか否かを、問い合わせに対する応答結果として、ゲートG1の顔認証システム10に通知する。
Then, the
隣接するゲートG20の顔認証システムから、問い合わせに対する応答結果の通知を受けたゲートG1の顔認証システム10の対象判定部12は、応答結果に応じて以下のように判定する。対象判定部12は、隣接するゲートG2の撮影画像の中央領域にいずれかの人物が映っている通知を受けた場合には(図3及び図4の例)、その人物が自ゲートG1の撮影画像の端領域に位置している人物P20であると判定する。この場合、自ゲートG1の顔認証システム10では、撮影画像の端領域に位置する人物P20を照合対象から除外すると判定する。一方、対象判定部12は、隣接するゲートG2の撮影画像の中央領域にいずれの人物も映っていないという通知を受けた場合には(図5及び図6の例)、自ゲートG1の撮影画像の端領域に位置する人物P12を照合対象とすると判定する。
Upon receiving the notification of the response result to the inquiry from the face recognition system of the adjacent gate G20, the
以上のような方法で、人物が照合対象であるか否かを判定することで、各顔認証システム10,20でそれぞれ人物の抽出処理が行われるため、一方の顔認証システムに処理が集中することがなく、また、画像の転送がない。従って、1つの顔認証システム10の処理負荷を抑制でき、かつ、顔認証システム10,20間の通信量を抑制することができ、迅速な判定を行うことができる。
By determining whether or not a person is a collation target by the above method, each
上記照合部13(照合手段)は、対象判定部12により、自ゲートG1の撮影画像内で照合対象として判定された人物に対する照合処理を行う。換言すると、照合部13は、自ゲートG1の撮影画像内に映っていた人物であっても、対象判定部12で照合対象から除外された人物については照合処理を行わない。ここで、照合処理は、例えば以下のようにして行う。まず、照合処理の対象となる人物の顔領域を特定し、当該顔領域から照合に必要な特徴量を生成する。そして、生成した特徴量と、予め照合データ記憶部17に登録された人物の特徴量と、の類似度といった照合スコアを算出し、照合スコアがしきい値よりも高いか否か判定する。照合スコアがしきい値より高い場合には、照合成功とし、ゲートG1を通過しようとしている人物が、予め登録されている人物であると判断する。このとき、照合するために検出する人物の特徴量は、既存の顔照合技術で用いられる特徴量であってもよく、いかなる方法によって算出される特徴量であってもよい。また、照合方法はいかなる方法であってもよい。
The collation unit 13 (collation means) performs collation processing on a person determined as a collation target in the captured image of the own gate G1 by the
上記ゲート制御部14は、まず、照合部13による照合結果に基づいて、ゲートG1に対する人物の通過可否を判定する。具体的には、照合部13による照合が成功した人物に対しては通過可能と判定する。また、ゲート制御部14は、照合結果つまり照合の成否を表示装置D1に表示する機能を有する。さらに、ゲート制御部14は、ゲートG1の開閉を行うゲート制御機能も有しており、通過可能と判断した人物に対しては、ゲートG1を開くよう制御する。
The
なお、上記表示装置D1は、ゲートG1を通過しようとする人物が視認可能なよう、当該ゲートG1の通過前側領域に表示面を向けて配置されている。但し、表示装置D1は、必ずしも装備されていなくてもよい。 The display device D1 is arranged so that a person who is going to pass through the gate G1 can see the display device D1 so that the display surface faces the region on the front side of the gate G1. However, the display device D1 does not necessarily have to be equipped.
[動作]
次に、上述した顔認証システム10の動作を、図7のフローチャートを参照して説明する。ここでは、ゲートG1に対応する顔認証システム10の動作について説明し、撮像装置C1による撮影状況が図3乃至図6に示す状況である場合を一例に説明する。
[motion]
Next, the operation of the
ゲートG1に対応する撮像装置C1は、ゲートG1の通過前側領域の画像を撮影し続ける。そして、顔認証システム10は、撮影した撮影画像に対して、常に以下の処理を行う。
The image pickup apparatus C1 corresponding to the gate G1 continues to capture an image of the region before passing through the gate G1. Then, the
まず、対象抽出部11が、撮影画像内から処理対象となる人物(対象)を抽出する(ステップS1)。そして、対象判定部12が、撮影画像の端領域に人物P20が位置している場合には、隣接ゲートG2に対応する顔認証システム20の撮像装置C2にて撮影された撮影画像を取得する(ステップS2)。このとき、隣接ゲートG2の撮影画像は、自ゲートG1の撮影画像の撮影と同一のタイミングで撮影されたものを取得する。
First, the
続いて、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P20が、隣接ゲートG2の撮影画像の中央領域に映っているか否かを調べる(ステップS3)。そして、対象判定部12は、隣接ゲートG2の撮影画像の中央領域にいずれかの人物が映っている場合には、かかる人物が自ゲートG1の撮影画像の端領域に位置している人物P20であると判定する。この場合、自ゲートG1の顔認証システム10では、端領域に位置する人物P20を照合対象から除外すると判定する。
Subsequently, the
例えば、図3の状況では、図4(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P20は、図4(b)に示す隣接ゲートG2の撮影画像の中央領域に位置するため、かかる人物P20は自ゲートG1の顔認証システム10による照合対象から除外する(ステップS3でYes)。また、図5の状況では、図6(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P12は、図6(b)に示す隣接ゲートG2の撮影画像の中央領域には位置していない。このため、かかる人物P12は自ゲートG1の顔認証システム10による照合対象から除外せず、照合対象とする(ステップS3でNo)。
For example, in the situation of FIG. 3, the person P20 located in the edge region of the captured image of the own gate G1 shown in FIG. 4A is located in the central region of the captured image of the adjacent gate G2 shown in FIG. 4B. Therefore, the person P20 is excluded from the verification target by the
続いて、照合部13が、対象判定部12により、自ゲートG1の撮影画像内で照合対象として判定された人物に対する照合処理を行う(ステップS4)。図3及び図4の例では、人物P10のみの照合処理を開始し、図5及び図6の例では、人物P10と人物P12の照合処理を開始する。照合処理は、まず、照合処理の対象となる人物の顔領域から照合に必要な特徴量を検出し、予め照合データ記憶部17に登録された人物の特徴量と照合を行い、照合スコアを取得する。そして、照合スコアがしきい値以上であるか否かを判定する。
Subsequently, the
照合部による照合処理の結果、通行しようとしている人物の照合に成功すると(ステップS5でYes)、ゲート制御部14がゲートG1に対する人物の通過を許可し、ゲートG1を開くよう制御する(ステップS6)。
As a result of the collation process by the collation unit, when the collation of the person who is going to pass is successful (Yes in step S5), the
以上のように、本実施形態の顔認証システム10によると、隣接ゲートG2を通過しようとしている人物P20に対する照合処理を抑制でき、自ゲートG1を通過しようとする人物P10,P12を適切に照合処理することができる。例えば、図3及び図4の例では、自ゲートG1を通過しようとしている人物P10を照合処理するが、隣接ゲートG2を通過しようとしている人物P20の照合処理は行われない。また、図5及び図6の例では、撮影画像の端領域に映っている人物P12であっても、自ゲートG1を通過しようとしているため、適切に照合処理が行われることとなる。その結果、他のゲートを通過しようとする人物の誤認識を抑制することができる。
As described above, according to the
なお、上記では、自ゲートG1の撮影画像に対して隣接ゲートG2の撮影画像を比較しているが、隣接ゲートG2の撮影画像に限らず、他のゲート(例えばゲートG3)の撮影画像を比較してもよい。また、上記では、自ゲートG1の撮影画像の端領域と、隣接ゲートG2の中央領域と、を比較しているが、比較する領域は上述した領域同士であることに限定されない。異なるゲートにおける撮影画像同士のいかなる領域間を比較してもよい。 In the above, the captured image of the adjacent gate G2 is compared with the captured image of the own gate G1, but the captured image of another gate (for example, the gate G3) is compared not only with the captured image of the adjacent gate G2. You may. Further, in the above, the edge region of the captured image of the own gate G1 and the central region of the adjacent gate G2 are compared, but the regions to be compared are not limited to the above-mentioned regions. Any region of captured images at different gates may be compared.
また、上記では、自ゲートG1に対応する顔認証システム10が、隣接ゲートG2の撮影画像を取得して、人物が照合対象であるか否かを判定しているが、かかる判定処理は、隣接ゲートG2の顔認証システムが行ってもよい。つまり、自ゲートG1の顔認証システム10が撮影画像を隣接ゲートG2の顔認証システム20に提供し、当該隣接ゲートG2の顔認証システム20が判定結果を自ゲートG1の顔認証システム10に返してもよい。さらには、かかる判定処理を他の情報処理装置が行ってもよい。
Further, in the above, the
また、顔認証システム10は、上述したように、隣接ゲートG2の顔認証システム20に対して、当該隣接ゲートG2における撮影画像の中央領域に人物が映っているか否かを問い合わせ、その応答結果に応じて、人物が照合対象であるか否かを判定してもよい。この場合、隣接するゲートG2の撮影画像の中央領域にいずれかの人物が映っている通知を受けた場合には、自ゲートG1の撮影画像の端領域に位置している人物を照合対象から除外すると判定する。一方、隣接するゲートG2の撮影画像の中央領域にいずれの人物も映っていないという通知を受けた場合には、自ゲートG1の撮影画像の端領域に位置する人物を照合対象とすると判定する。
Further, as described above, the
また、上記では、ゲートG1を通過しようとしている対象が人物である場合を例示したが、人物に限らずいかなる物体であってもよい。例えば、荷物といった物体であってもよい。 Further, in the above, the case where the object passing through the gate G1 is a person is illustrated, but the object is not limited to the person and may be any object. For example, it may be an object such as luggage.
<実施形態2>
次に、本発明の第2の実施形態を、図8乃至図12を参照して説明する。図8乃至図12は、顔認証システムの処理動作を説明するための図である。特に、図12は、顔認証システムの動作を示すフローチャートである。
<Embodiment 2>
Next, a second embodiment of the present invention will be described with reference to FIGS. 8 to 12. 8 to 12 are diagrams for explaining the processing operation of the face recognition system. In particular, FIG. 12 is a flowchart showing the operation of the face recognition system.
本実施形態における顔認証システム10は、上述した実施形態1におけるものと同様の構成であるが、自ゲートG1の撮影画像に映る人物を照合対象とするか否かの判定処理が異なる。以下、主に実施形態1とは異なる構成について詳述する。
The
本実施形態における上記対象判定部12は、対象抽出部11で自ゲートG1の撮影画像の端領域から人物P20を抽出すると(ステップS11)、かかる人物P20と同一人物が、他のゲートG2の撮影画像の中央領域に位置するか否かを判定する。図8及び図10の例では、対象判定部12は、自ゲートG1に対応する撮影画像の右側の端領域に人物P20が映っているため、ゲートG1の右側に隣接するゲートG2の撮像装置C2にて撮影された撮影画像を取得する(ステップS12)。具体的には、対象判定部12は、通信部16を介して、隣接ゲートG2の顔認証システム20と通信して、ゲートG1で撮影画像が撮影された同一のタイミング(例えば、同一時刻)でゲートG2で撮影された撮影画像を取得する。なお、各ゲートG1,G2,G3にそれぞれ対応する顔認証システム(撮像装置C1,C2,C3)の位置関係は、予め各システムに登録されていることとする。
When the
そして、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P20と、隣接ゲートG2の撮影画像の中央領域(第二領域)に位置している人物P20と、の同一性を判別する。本実施形態では、まず、それぞれの人物の顔領域を特定し、当該顔領域から照合に必要な特徴量を検出する(ステップS13)。そして、両人物の特徴量から、両人物が同一人物であるか否かを判定する(ステップS14)。なお、人物が一致するか否かを判定する処理は、後述する照合処理と比較して精度の低い処理であってもよい。例えば、人物の一部の部位の特徴量のみを検出したり、かかる特徴量から性別や年代を検出し、これらの情報から同一性を判別してもよい。但し、人物の同一性を判別する処理は、いかなる処理であってもよい。
Then, the
そして、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P20と同一人物が、隣接ゲートG2の撮影画像の中央領域に位置していると判定した場合には、かかる人物P20は隣接ゲートG2に向かう人物であると判定する(ステップS15でYes)。この場合、自ゲートG1の顔認証システム10では、端領域に位置する人物P20を照合対象から除外すると判定する。一方で、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P12と同一人物が、隣接ゲートG2の撮影画像の中央領域に位置していないと判定した場合には、かかる人物P12は自ゲートG1に向かう人物であると判定する(ステップS15でNo)。この場合、自ゲートG1の顔認証システム10では、端領域に位置する人物P12を照合対象であると判定する。なお、自ゲートG1の撮影画像の端領域(第一領域)と隣接ゲートG2の撮影画像の中央領域(第二領域)とは、撮影画像同士を比較すると相互に異なる領域であるが、実空間においては相互に重複する領域である。
Then, when the
例えば、図8の状況では、図9(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P20と同一人物が、図9(b)に示す隣接ゲートG2の撮影画像の中央領域に位置するため、かかる人物P20は自ゲートG1の顔認証システム10による照合対象から除外される。つまり、自ゲートG1の顔認証システム10は、撮影画像の中央領域に位置する人物P10のみを照合対象とする。また、図10の状況では、図11(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P12と同一人物が、図11(b)に示す隣接ゲートG2の撮影画像の中央領域には位置していない。このため、かかる人物P12は自ゲートG1の顔認証システム10による照合対象とされる。つまり、自ゲートG1の顔認証システム10は、撮影画像の中央領域に位置する人物P10と、端領域に位置する人物P12と、を照合対象とする。
For example, in the situation of FIG. 8, the same person as the person P20 located in the edge region of the captured image of the own gate G1 shown in FIG. 9A is the central region of the captured image of the adjacent gate G2 shown in FIG. 9B. The person P20 is excluded from the collation target by the
上記照合部13(照合手段)は、対象判定部12により、自ゲートG1の撮影画像内で照合対象として判定された人物に対する照合処理を行う(ステップS16)。換言すると、照合部13は、自ゲートG1の撮影画像内に映っていた人物であっても、対象判定部12で照合対象から除外された人物については照合処理を行わない。ここで、照合処理は、例えば以下のようにして行う。まず、照合処理の対象となる人物の顔領域を特定し、当該顔領域から照合に必要な特徴量を生成する。そして、生成した特徴量と、予め照合データ記憶部17に登録された人物の特徴量と、の類似度といった照合スコアを算出し、照合スコアがしきい値よりも高いか否か判定する。照合スコアがしきい値より高い場合には、照合成功とし、ゲートG1を通過しようとしている人物が、予め登録されている人物であると判定する。なお、照合方法はいかなる方法であってもよい。
The collation unit 13 (collation means) performs a collation process on a person determined as a collation target in the captured image of the own gate G1 by the target determination unit 12 (step S16). In other words, the
上記ゲート制御部14は、照合部13による照合結果に基づいて、ゲートG1に対する人物の通過可否を判定する。具体的には、照合部13による照合が成功した人物に対しては通過可能と判定し(ステップS17)、ゲートG1を開くよう制御する(ステップS18)。
The
以上のように、本実施形態における顔認証システムでは、各ゲートに対応する撮影画像内の人物の特徴量を抽出して比較することで、各ゲートの撮影画像に同一の対象が重複して映っているか否かをより確実に判別することができる。そして、所定のゲートと他のゲートとで重複して映っている対象を照合処理から除外することができ、ゲートを通過しようとする対象の誤認識を抑制することができる。さらに、対象の重複を判断するために抽出した対象の特徴量を照合処理に利用することができ、処理の効率化を図ることができる。 As described above, in the face recognition system of the present embodiment, the same object is duplicated in the photographed image of each gate by extracting and comparing the feature amount of the person in the photographed image corresponding to each gate. It is possible to more reliably determine whether or not the image is present. Then, it is possible to exclude from the collation process an object that is duplicated between a predetermined gate and another gate, and it is possible to suppress erroneous recognition of an object that is about to pass through the gate. Further, the feature amount of the extracted object for determining the duplication of the object can be used for the collation process, and the efficiency of the process can be improved.
なお、上記では、ゲートG1を通過しようとしている対象が人物である場合を例示したが、人物に限らずいかなる物体であってもよい。例えば、荷物といった物体であってもよい。 In the above, the case where the object passing through the gate G1 is a person is illustrated, but the object is not limited to the person and may be any object. For example, it may be an object such as luggage.
<実施形態3>
次に、本発明の第3の実施形態を説明する。本実施形態における顔認証システム10は、基本的には、上述した実施形態1と同様に、撮影画像の端領域に映っている人物が自ゲートG1に向かっている人物であるか否かを判定する。つまり、自ゲートG1の撮影画像の端領域に映っている人物が、他のゲートG2に対応する顔認証システム20にて撮影された撮影画像の中央領域に映っているか否かに応じて、自ゲートG1に向かっている人物であるか判定する。但し、本実施形態では、かかる判定処理が以下のように異なる。以下、主に実施形態1とは異なる構成について詳述する。
<Embodiment 3>
Next, a third embodiment of the present invention will be described. The
まず、本実施形態における対象抽出部11は、実施形態1と同様に、撮像装置C1から撮影画像を取得し、撮影画像内から処理対象となる人物を抽出する。このとき、対象抽出部11は、抽出した人物が位置する撮影画像内における領域も特定する。そして、本実施形態における対象抽出部11では、端領域に映っている人物の判定情報である特徴が基準値を超えているか否かを判定し、かかる判定結果に応じて、かかる人物が自ゲートG1に向かっている人物であるか否かの判定処理を行う。
First, the
一例として、対象抽出部11は、まず、撮影画像の端領域に位置している人物の顔領域の抽出を行う。人物の顔領域の抽出は、例えば、動く人物の全体像に対する位置や色などから判定して行う。そして、対象抽出部11は、判定情報である人物の特徴を、顔領域から検出する。本実施形態では、判定情報としての人物の特徴は、人物の両目の間の距離(目間距離)であることとする。
As an example, the
そして、本実施形態における対象判定部12は、対象抽出部11で検出した判定情報である目間距離が、基準値を超えているか否かを調べる。ここで、本実施形態では、上記基準値は、自ゲートG1の撮影画像の端領域に映っている人物が、自ゲートG1のレーンR1に位置するか否かを判別することができる値に設定されている。例えば、上述した図10の状況では、自ゲートG1の撮影画像の端領域に映り、自ゲートG1に向かう人物P12の目間距離は、隣接ゲートG2の人物P20の目間距離よりも大きくなると考えられる。このことを考慮し、基準値は、自ゲートG1の撮影画像の端領域に映り、自ゲートG1に進む人物P12の目間距離と、隣接ゲートG2の人物P20の目間距離と、の間の値に設定される。
Then, the
そして、対象判定部12は、対象抽出部11で検出したゲートG1の撮影画像の端領域に映る人物の目間距離が、基準値を超えている場合には、かかる人物は自ゲートG1に向かう人物であると判定し、照合処理の対象とする。つまり、人物の目間距離が基準値を超えている場合には、隣接ゲートG2の撮影画像との比較を行わず、そのまま自ゲートG1に向かう人物として照合処理を行う。
Then, when the distance between the eyes of the person reflected in the edge region of the captured image of the gate G1 detected by the
一方、対象判定部12は、対象抽出部11で検出した自ゲートG1の撮影画像の端領域に映る人物の目間距離が、基準値以下である場合には、かかる人物は隣接ゲートG2に向かう人物である可能性があるため、隣接ゲートG2の撮影画像との比較を行う。つまり、実施形態1で説明したように、隣接ゲートG2の撮影画像の中央領域にいずれかの人物が映っているか否かを調べる。隣接ゲートG2の撮影画像の中央領域に人物が映っている場合には、自ゲートG1の撮影画像の端領域に映る人物は隣接ゲートG2に向かう人物であると判定し、照合処理の対象から除外する。隣接ゲートG2の撮影画像の中央領域に人物が映っていない場合には、自ゲートG1の撮影画像の端領域に映る人物は、自ゲートG1に向かう人物であると判定し、照合処理の対象とする。
On the other hand, when the distance between the eyes of a person reflected in the edge region of the captured image of the own gate G1 detected by the
上記処理により、例えば、図10及び図11の例の場合には、まず自ゲートG1の撮影画像の端領域に人物P12が映るが、かかる人物P12が自ゲートG1の撮像装置C1に対する距離が近いため、人物P12の大きさを表す判定情報である目間距離が基準値よりも大きくなる。このため、かかる人物P12は自ゲートG1に向かう人物であると判定し、照合処理の対象とする。つまり、隣接ゲートG2に向かう人物P20が存在する場合であっても、自ゲートG1の人物P12を照合処理の対象とできる。 By the above processing, for example, in the case of the examples of FIGS. 10 and 11, the person P12 is first projected in the edge region of the captured image of the own gate G1, but the person P12 is close to the image pickup device C1 of the own gate G1. Therefore, the inter-eye distance, which is the determination information indicating the size of the person P12, becomes larger than the reference value. Therefore, it is determined that the person P12 is a person heading for the own gate G1 and is subject to the collation process. That is, even if there is a person P20 heading for the adjacent gate G2, the person P12 of the own gate G1 can be the target of the collation process.
一方で、例えば、図8及び図9の例の場合には、まず自ゲートG1の撮影画像の端領域に人物P20が映るが、かかる人物P20が自ゲートG1の撮像装置C1に対する距離が遠いため、人物P20の大きさを表す判定情報である目間距離が基準値以下となる。このため、かかる人物P20が隣接ゲートG2の撮影画像の中央領域に映っているか否かを調べる。この場合、隣接ゲートG2の撮影画像の中央領域に人物が映っているため、自ゲートG1の撮影画像の端領域に映る人物は隣接ゲートG2に向かう人物であると判定し、照合処理の対象から除外する。 On the other hand, for example, in the case of FIGS. 8 and 9, the person P20 first appears in the edge region of the captured image of the own gate G1, but the person P20 is far from the image pickup device C1 of the own gate G1. , The inter-eye distance, which is the determination information indicating the size of the person P20, is equal to or less than the reference value. Therefore, it is examined whether or not the person P20 is reflected in the central region of the captured image of the adjacent gate G2. In this case, since a person is reflected in the central region of the captured image of the adjacent gate G2, it is determined that the person reflected in the edge region of the captured image of the own gate G1 is a person heading for the adjacent gate G2, and the collation process is performed. exclude.
なお、上記では、自ゲートG1の撮影画像の端領域に映っている人物の判定情報が目間距離である場合を例示したが、判定情報としての人物の特徴は、人物の顔を構成する他の部位間の距離であってもよく、人物の他の部位の大きさを表す値であってもよい。但し、判定情報である人物の特徴は、必ずしも人物の部位の大きさを表す値に限定されない。 In the above, the case where the judgment information of the person reflected in the edge region of the captured image of the own gate G1 is the inter-eye distance is illustrated, but the characteristic of the person as the judgment information is that it constitutes the face of the person. It may be the distance between the parts of the person, or it may be a value representing the size of other parts of the person. However, the characteristic of the person, which is the judgment information, is not necessarily limited to the value indicating the size of the part of the person.
<実施形態4>
次に、本発明の第4の実施形態を、図13乃至図16を参照して説明する。図13は、本実施形態における顔認証システムの構成を示すブロック図であり、図14乃至図16は、顔認証システムの処理動作を説明するための図である。
<Embodiment 4>
Next, a fourth embodiment of the present invention will be described with reference to FIGS. 13 to 16. FIG. 13 is a block diagram showing the configuration of the face recognition system according to the present embodiment, and FIGS. 14 to 16 are diagrams for explaining the processing operation of the face recognition system.
本実施形態における顔認証システム10は、上述した実施形態1におけるものと同様の構成であるが、さらに、上記実施形態1,2で説明したように、隣接する各ゲートの撮影画像同士が重複し、同一人物が位置しているか否かを比較する領域である重複領域を設定する機能を有する。以下、主に実施形態1,2とは異なる構成について詳述する。
The
図13に示すように、本実施形態における顔認証システム10は、演算装置がプログラムを実行することで構築された領域設定部15(領域設定手段)を備えている。領域設定部15は、まず、自ゲートG1の撮像装置C1から撮影画像を取得すると共に、隣接するゲートG2の撮像装置C2からも撮影画像を取得する。このとき、領域設定部15は、通信部16を介して隣接ゲートG2の顔認証システム20と通信して、ゲートG1で撮影画像が撮影された同一のタイミング(例えば、同一時刻)でゲートG2で撮影された撮影画像を取得する。
As shown in FIG. 13, the
続いて、領域設定部15は、取得したゲートG1の撮影画像とゲートG2の撮影画像とから人物を抽出する。人物の抽出は、例えば、動く物体を抽出したり、物体の全体形状や全体像に対する特徴的な形状部位の位置や色の位置などから判定して行う。そして、領域設定部15は、両撮影画像に同一人物が映っているか否かを調べる。このとき、領域設定部15は、各撮影画像に映る各人物の顔領域を特定し、当該顔領域から照合に必要な特徴量を検出する。そして、各人物の特徴量から、各人物が同一人物であるか否かを調べる。なお、人物の同一性を判別する処理は、いかなる処理であってもよい。
Subsequently, the
そして、領域設定部15は、各撮影画像に同一人物が映っていると判定した場合には、当該各撮影画像内で同一人物がそれぞれ映っている箇所の周囲の領域を、当該各撮影画像内で相互に重複する重複領域として設定する。このとき、設定する重複領域は、同一人物が検出された箇所を撮影画像の上下端まで広げると共に、かかる領域をさらに撮影画像の水平方向に所定範囲だけ広げた領域とする。特に、自ゲートG1の撮影画像については、同一人物の抽出箇所が撮影画像の水平方向における一方の端付近に位置することが考えられるが、人物の抽出箇所に対して少しだけ水平方向に広げた範囲を重複領域(第一領域)とし、さらに、反対側の端付近にも同じ広さの重複領域(第一領域)を設定する。一方、隣接ゲートG2の撮影画像については、同一人物の抽出箇所が撮影画像の水平方向における中央付近に位置することが考えられるが、人物の抽出箇所に対して上記端領域の重複領域よりも広く水平方向に広げた範囲を重複領域(第二領域)として設定する。つまり、本実施形態では、上述した端領域よりも中央領域を広く設定する。但し、端領域や中央領域の広さの設定方法は、上述した方法に限定されない。
Then, when the
一例として、図14に示す状況においては、まず、自ゲートG1の撮像装置C1から符号C1a線で挟まれた撮影領域の撮影画像が取得でき、隣接ゲートG2の撮像装置C2から符号C2a線で挟まれた撮影領域の撮影画像が取得できる。これら図15(a),(b)の両撮影画像から同一人物の抽出を行うことで、自ゲートG1の撮影画像の端領域と、隣接ゲートG2の撮影画像の中央領域とに、同一人物P20を検出したとする。この場合、自ゲートG1の撮影画像については、図16(a)に示すように、抽出した人物P20の箇所を上下方向に広げた領域(斜線領域)をさらに少しだけ水平方向に広げた符号C1a,C1bで挟まれた領域を重複領域として設定する。また、水平方向における反対側の端領域にも符号C1a,C1bで挟まれた重複領域を設定する。一方で、隣接ゲートG2の撮影画像については、図16(b)に示すように、抽出した人物P20の箇所を上下方向に広げた領域(斜線領域)をさらに広く水平方向に広げた符号C2bで挟まれた領域を重複領域として設定する。 As an example, in the situation shown in FIG. 14, first, a photographed image of a photographing area sandwiched by the code C1a line can be acquired from the image pickup device C1 of the own gate G1 and sandwiched by the code C2a line from the image pickup device C2 of the adjacent gate G2. The captured image of the captured shooting area can be acquired. By extracting the same person from both the captured images of FIGS. 15 (a) and 15 (b), the same person P20 is placed in the edge region of the captured image of the own gate G1 and the central region of the captured image of the adjacent gate G2. Is detected. In this case, with respect to the captured image of the own gate G1, as shown in FIG. 16A, the reference numeral C1a in which the extracted person P20 portion is expanded in the vertical direction (diagonal line region) is further expanded in the horizontal direction. , The area sandwiched between C1b is set as an overlapping area. Further, an overlapping region sandwiched by the symbols C1a and C1b is also set in the end region on the opposite side in the horizontal direction. On the other hand, with respect to the captured image of the adjacent gate G2, as shown in FIG. 16B, the region (diagonal line region) in which the extracted person P20 is expanded in the vertical direction is further widened in the horizontal direction with the reference numeral C2b. The sandwiched area is set as an overlapping area.
以上のようにして、本実施形態では、ゲートG1に対応する顔認証システム10の領域設定部15が、自ゲートG1の撮影画像の端領域と、隣接ゲートG2の撮影画像の中央領域と、を重複領域として自動的に設定する。そして、顔認証システム10が、上述した実施形態1,2で説明したように、設定した自ゲートG1の撮影画像の端領域と隣接ゲートG2の撮影画像の中央領域とから人物を抽出したり、両領域に同一人物が存在するか否かを判定する、といった処理を行う。
As described above, in the present embodiment, the
上述した実施形態4の顔認証システム10によると、所定のゲートに対応する撮影画像内の人物と、他のゲートに対応する撮影画像内の人物と、に基づいて、各ゲートに対応する各撮影画像同士で重複する領域を自動的に設定することができる。その結果、相互に隣接するゲートG1,G2の撮像装置C1,C2間における重複領域を適切に設定することができ、照合システムの利用の容易化と、より高精度に誤認識を抑制することができる。
According to the
なお、上記では、ゲートG1,G2を通過しようとする人物の画像を用いて重複範囲を設定する場合を例示したが、人物に限らず撮影画像の映るいかなる物体を用いて重複範囲を設定してもよい。例えば、各撮影画像にそれぞれ映る物品や風景の同一性を判定して、判定結果に基づいて各撮影画像の重複範囲を設定してもよい。 In the above, the case where the overlap range is set by using the image of the person who is going to pass through the gates G1 and G2 is illustrated, but the overlap range is set by using any object in which the photographed image is reflected, not limited to the person. May be good. For example, the identity of the article or landscape reflected in each photographed image may be determined, and the overlapping range of each photographed image may be set based on the determination result.
<実施形態5>
次に、本発明の第5の実施形態を、図17及び図18を参照して説明する。図17は、実施形態5における照合システムの構成を示すブロック図である。図18は、実施形態5における情報処理装置の構成を示すブロック図である。なお、本実施形態では、実施形態1乃至4で説明した顔認証システムの構成の概略を示している。
<Embodiment 5>
Next, a fifth embodiment of the present invention will be described with reference to FIGS. 17 and 18. FIG. 17 is a block diagram showing the configuration of the collation system according to the fifth embodiment. FIG. 18 is a block diagram showing the configuration of the information processing apparatus according to the fifth embodiment. In this embodiment, the outline of the configuration of the face recognition system described in the first to fourth embodiments is shown.
図17に示すように、本実施形態おける照合システム100は、
並列に設置された各ゲートに対する各通過前側領域の撮影画像をそれぞれ取得する撮像手段110と、
ゲート毎に、各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、撮影画像に含まれる対象と、の照合処理を行う照合手段120と、
を備える。
そして、上記照合手段120は、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、照合処理を行う、
という構成をとる。
As shown in FIG. 17, the
An imaging means 110 for acquiring captured images of each passage front region for each gate installed in parallel, and
For each gate, a collation means 120 that performs collation processing between a pre-registered target and a target included in the captured image for each of the captured images in the front region of passage.
To be equipped.
Then, the collation means 120 performs collation processing based on the target in the captured image corresponding to the predetermined gate and the target in the captured image corresponding to the other gate.
It takes the configuration.
また、本実施形態では、図17に示す照合システム100から撮像手段110を取り除いてもよい。
つまり、本実施形態における情報処理装置200は、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、撮影画像に含まれる対象と、の照合処理を行う照合手段210を備える。
そして、上記照合手段210は、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、照合処理を行う、
という構成をとる。
Further, in the present embodiment, the imaging means 110 may be removed from the
That is, the
A collation means 210 for collating a pre-registered object and an object included in the photographed image is provided for each of the photographed images of each passage front region for each of the gates installed in parallel.
Then, the collation means 210 performs collation processing based on the target in the captured image corresponding to the predetermined gate and the target in the captured image corresponding to the other gate.
It takes the configuration.
なお、上述した照合手段120,210は、演算装置がプログラムを実行することで構築されるものであってもよく、電子回路で構築されるものであってもよい。 The collation means 120 and 210 described above may be constructed by the arithmetic unit executing a program, or may be constructed by an electronic circuit.
そして、上記構成の照合システム100あるいは情報処理装置200によると、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、撮影画像に含まれる対象と、の照合処理を行う照合方法が提供される。
そして、かかる照合方法において、さらに、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、照合処理を行う、
という構成をとる。
Then, according to the
Provided is a collation method for collating a pre-registered object and an object included in the photographed image for each of the photographed images of each passage front region for each of the gates installed in parallel.
Then, in such a collation method, the collation process is further performed based on the object in the captured image corresponding to the predetermined gate and the object in the captured image corresponding to the other gate.
It takes the configuration.
上述した照合システム100あるいは情報処理装置200によると、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、対象の照合処理を行う。このため、所定のゲートに対応する撮影画像に他のゲートを通過しようとする対象が映っている場合であっても、かかる対象が他のゲートを通過しようとする対象であると判断することができ、所定のゲートにおける照合処理から除外することができる。その結果、ゲートを通過しようとする対象の誤認識を抑制することができる。
According to the
<付記>
上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における照合システム、情報処理装置、プログラム、照合方法の構成の概略を説明する。但し、本発明は、以下の構成に限定されない。
<Additional notes>
Part or all of the above embodiments may also be described as in the appendix below. Hereinafter, the outline of the configuration of the collation system, the information processing device, the program, and the collation method in the present invention will be described. However, the present invention is not limited to the following configurations.
(付記1)
並列に設置された各ゲートに対する各通過前側領域の撮影画像をそれぞれ取得する撮像手段と、
前記ゲート毎に、前記各通過前側領域の前記撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段と、
を備え、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
照合システム。
(Appendix 1)
An imaging means for acquiring captured images of each passage front region for each gate installed in parallel, and
For each of the gates, a collation means for collating a pre-registered target and an object included in the captured image for each of the captured images in each passage front region.
With
The collation means performs the collation process based on an object in the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
Collation system.
上記構成によると、照合システムは、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、対象の照合処理を行う。このため、所定のゲートに対応する撮影画像に他のゲートを通過しようとする対象が映っている場合であっても、かかる対象が他のゲートを通過しようとする対象であると判断することができ、所定のゲートにおける照合処理から除外することができる。その結果、ゲートを通過しようとする対象の誤認識を抑制することができる。 According to the above configuration, the collation system performs collation processing of the objects based on the objects in the captured image corresponding to the predetermined gate and the objects in the captured images corresponding to the other gates. Therefore, even if the captured image corresponding to the predetermined gate shows an object that is going to pass through another gate, it can be determined that the object is an object that is going to pass through another gate. It can be excluded from the collation process at a given gate. As a result, it is possible to suppress erroneous recognition of an object trying to pass through the gate.
(付記2)
付記1に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
照合システム。
(Appendix 2)
The collation system described in Appendix 1
The collation means performs the collation process based on an object located in a predetermined region of the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
Collation system.
(付記3)
付記2に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の第一領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の第二領域に位置する対象と、に基づいて、前記照合処理を行う、
照合システム。
(Appendix 3)
The collation system described in Appendix 2,
The collation means is based on an object located in the first region of the captured image corresponding to the predetermined gate and an object located in the second region of the captured image corresponding to the other gate. Perform the collation process.
Collation system.
(付記4)
付記3に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域にも位置している場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
照合システム。
(Appendix 4)
The collation system described in Appendix 3
When the object located in the first region of the captured image corresponding to the predetermined gate is also located in the second region of the captured image corresponding to the other gate, the collation means is used. An object located in the first region of the captured image corresponding to the predetermined gate is excluded from the collation process.
Collation system.
(付記5)
付記4に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域である水平方向における端領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域である水平方向における中央領域に位置している場合に、前記所定のゲートに対応する前記撮影画像の水平方向における端領域に位置する対象を、前記照合処理から除外する、
照合システム。
(Appendix 5)
The collation system described in Appendix 4,
In the collation means, the target located at the end region in the horizontal direction, which is the first region of the captured image corresponding to the predetermined gate, is the second region of the captured image corresponding to the other gate. When the target is located in the central region in the horizontal direction, the target located in the edge region in the horizontal direction of the captured image corresponding to the predetermined gate is excluded from the collation process.
Collation system.
(付記6)
付記4又は5に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、当該対象が前記第一領域に位置するタイミングで前記他のゲートに対応する前記撮影画像の前記第二領域に位置している場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
照合システム。
(Appendix 6)
The collation system according to Appendix 4 or 5.
In the collation means, the target located in the first region of the captured image corresponding to the predetermined gate is the target of the captured image corresponding to the other gate at the timing when the target is located in the first region. When it is located in the second region, the target located in the first region of the captured image corresponding to the predetermined gate is excluded from the collation process.
Collation system.
上記構成によると、照合システムは、所定のゲートに対応する撮影画像内の所定領域に映っている対象を、他のゲートに対応する撮影画像内に映っている対象と比較することで、重複して映る対象を照合処理から除外し、単独で映る対象のみの照合処理を行う。特に、所定のゲートに対応する撮影画像内の水平方向の端領域(第一領域)に位置する対象が、他のゲートに対応する撮影画像内の水平方向の中央領域(第二領域)に映っている場合には、その対象の照合処理は行わない。一方で、所定のゲートに対応する撮影画像内の水平方向の端領域(第一領域)に位置する対象が、他のゲートに対応する撮影画像内の水平方向の中央領域(第二領域)に映っていない場合には、その対象の照合処理を行う。その結果、所定のゲートに対応する撮影画像と他のゲートに対応する撮影画像とに対象が重複して映っている場合には、照合処理から除外することができ、ゲートを通過しようとする対象の誤認識を抑制することができる。 According to the above configuration, the collation system duplicates by comparing the object reflected in the predetermined area in the captured image corresponding to the predetermined gate with the object reflected in the captured image corresponding to the other gate. Exclude the object to be reflected from the collation process, and perform the collation process only to the object to be reflected independently. In particular, an object located in the horizontal edge region (first region) in the captured image corresponding to a predetermined gate is reflected in the horizontal central region (second region) in the captured image corresponding to another gate. If so, the matching process of the target is not performed. On the other hand, the target located in the horizontal end region (first region) in the captured image corresponding to the predetermined gate is located in the horizontal central region (second region) in the captured image corresponding to the other gate. If it is not shown, the target is collated. As a result, when the target is duplicated in the shot image corresponding to the predetermined gate and the shot image corresponding to the other gate, it can be excluded from the collation process and the target to pass through the gate. It is possible to suppress the misrecognition of.
(付記7)
付記4又は5に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象の特徴量と、前記他のゲートに対応する前記撮影画像の前記第二領域に位置する対象の特徴量と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域に位置している判断した場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
照合システム。
(Appendix 7)
The collation system according to Appendix 4 or 5.
The collation means has a feature amount of an object located in the first region of the captured image corresponding to the predetermined gate and a feature of the object located in the second region of the captured image corresponding to the other gate. Based on the amount, it was determined that the object located in the first region of the captured image corresponding to the predetermined gate is located in the second region of the captured image corresponding to the other gate. In this case, the target located in the first region of the captured image corresponding to the predetermined gate is excluded from the collation process.
Collation system.
(付記8)
付記7に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象である人物の顔を構成する部位の特徴量と、前記他のゲートに対応する前記撮影画像の前記第二領域に位置する対象である人物の顔を構成する部位の特徴量と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域に位置していると判断した場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
照合システム。
(Appendix 8)
The collation system described in Appendix 7
The collation means includes a feature amount of a portion constituting the face of a person who is an object located in the first region of the captured image corresponding to the predetermined gate, and the photographed image corresponding to the other gate. Based on the feature amount of the portion constituting the face of the person who is the target located in the second region, the target located in the first region of the captured image corresponding to the predetermined gate is the other gate. When it is determined that the image is located in the second region of the captured image corresponding to the above, the target located in the first region of the captured image corresponding to the predetermined gate is excluded from the collation process.
Collation system.
上記構成によると、照合システムは、各ゲートに対応する撮影画像内の対象の特徴量を抽出して比較することで、各ゲートの撮影画像に同一の対象が重複して映っているかをより確実に判別することができる。そして、所定のゲートと他のゲートとで重複して映っている対象を照合処理から除外することができ、ゲートを通過しようとする対象の誤認識を抑制することができる。さらに、対象の重複を判断するために抽出した対象の特徴量を照合処理に利用することができ、処理の効率化を図ることができる。 According to the above configuration, the collation system extracts and compares the feature quantities of the objects in the captured image corresponding to each gate, so that it is more certain that the same object is duplicated in the captured image of each gate. Can be determined. Then, it is possible to exclude from the collation process an object that is duplicated between a predetermined gate and another gate, and it is possible to suppress erroneous recognition of an object that is about to pass through the gate. Further, the feature amount of the extracted object for determining the duplication of the object can be used for the collation process, and the efficiency of the process can be improved.
(付記9)
付記3乃至8のいずれかに記載の照合システムであって、
前記所定のゲートに対応する前記撮影画像内の対象と、当該対象が前記所定のゲートに対応する前記撮影画像内に位置するタイミングで取得された前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域と前記他のゲートに対応する前記撮影画像の前記第二領域とを設定する領域設定手段を備えた、
照合システム。
(Appendix 9)
The collation system according to any one of Appendix 3 to 8.
An object in the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate acquired at the timing when the target is located in the captured image corresponding to the predetermined gate. Based on the above, a region setting means for setting the first region of the captured image corresponding to the predetermined gate and the second region of the captured image corresponding to the other gate is provided.
Collation system.
(付記10)
付記9に記載の照合システムであって、
前記領域設定手段は、前記所定のゲートに対応する前記撮影画像内の対象と、当該対象が前記所定のゲートに対応する前記撮影画像内に位置するタイミングで取得された前記他のゲートに対応する前記撮影画像内の対象と、が同一である場合に、前記所定のゲートに対応する前記撮影画像内の対象の位置と、前記他のゲートに対応する前記撮影画像内の対象の位置と、に基づいて、前記所定のゲートに対応する前記撮影画像内の対象の位置の周囲を前記第一領域として設定し、前記他のゲートに対応する前記撮影画像内の対象の位置の周囲を前記第二領域として設定する、
照合システム。
(Appendix 10)
The collation system described in
The area setting means corresponds to the target in the captured image corresponding to the predetermined gate and the other gate acquired at the timing when the target is located in the captured image corresponding to the predetermined gate. When the object in the captured image is the same, the position of the object in the captured image corresponding to the predetermined gate and the position of the object in the captured image corresponding to the other gate are set to. Based on this, the periphery of the target position in the captured image corresponding to the predetermined gate is set as the first region, and the periphery of the target position in the captured image corresponding to the other gate is the second. Set as an area,
Collation system.
上記構成によると、照合システムは、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、各ゲートに対応する各撮影画像同士で重複する領域を自動的に設定することができる。その結果、照合システムの利用の容易化を図ることができると共に、高精度に誤認識を抑制することができる。 According to the above configuration, the collation system overlaps each captured image corresponding to each gate based on the target in the captured image corresponding to the predetermined gate and the object in the captured image corresponding to the other gate. The area to be used can be set automatically. As a result, it is possible to facilitate the use of the collation system and suppress erroneous recognition with high accuracy.
(付記11)
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を備え、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
情報処理装置。
(Appendix 11)
A collation means for performing collation processing between a pre-registered target and an target included in the captured image is provided for each of the captured images of each passage front region for each gate installed in parallel.
The collation means performs the collation process based on an object in the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
Information processing device.
(付記12)
付記11に記載の情報処理装置であって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
情報処理装置。
(Appendix 12)
The information processing device according to
The collation means performs the collation process based on an object located in a predetermined region of the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
Information processing device.
(付記13)
情報処理装置に、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を実現させるためのプログラムであり、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
プログラム。
(Appendix 13)
For information processing equipment
A program for realizing a collation means for collating a pre-registered target and a target included in the captured image for each of the captured images in each passage front region for each gate installed in parallel. And
The collation means performs the collation process based on an object in the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
program.
(付記14)
付記13に記載のプログラムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
プログラム。
(Appendix 14)
The program described in
The collation means performs the collation process based on an object located in a predetermined region of the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
program.
(付記15)
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う方法であり、
所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
照合方法。
(Appendix 15)
This is a method of collating a pre-registered target with a target included in the captured image for each of the captured images of each passage front region for each gate installed in parallel.
The collation process is performed based on the object in the captured image corresponding to the predetermined gate and the object in the captured image corresponding to the other gate.
Collation method.
(付記16)
付記15に記載の照合方法であって、
前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
照合方法。
(Appendix 16)
The collation method described in
The collation process is performed based on an object located in a predetermined region of the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
Collation method.
(付記17)
付記16に記載の照合方法であって、
前記所定のゲートに対応する前記撮影画像の第一領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の第二領域に位置する対象と、に基づいて、前記照合処理を行う、
照合方法。
(Appendix 17)
The collation method described in
The collation process is performed based on an object located in the first region of the captured image corresponding to the predetermined gate and an object located in the second region of the captured image corresponding to the other gate. ,
Collation method.
(付記18)
付記17に記載の照合方法であって、
前記所定のゲートに対応する前記撮影画像内の対象と、当該対象が前記所定のゲートに対応する前記撮影画像内に位置するタイミングで取得された前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域と前記他のゲートに対応する前記撮影画像の前記第二領域とを設定し、
前記所定のゲートに対応する前記撮影画像の設定された前記第一領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の設定された前記第二領域に位置する対象と、に基づいて、前記照合処理を行う、
照合方法。
(Appendix 18)
The collation method described in
An object in the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate acquired at the timing when the target is located in the captured image corresponding to the predetermined gate. Based on the above, the first region of the captured image corresponding to the predetermined gate and the second region of the captured image corresponding to the other gate are set.
An object located in the first region in which the captured image corresponding to the predetermined gate is set, and an object located in the second region set in the captured image corresponding to the other gate. Based on this, the collation process is performed.
Collation method.
なお、上述したプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されている。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。 The above-mentioned program is stored in a storage device or recorded on a computer-readable recording medium. For example, the recording medium is a portable medium such as a flexible disk, an optical disk, a magneto-optical disk, and a semiconductor memory.
以上、上記実施形態等を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることができる。 Although the invention of the present application has been described above with reference to the above-described embodiments and the like, the present invention is not limited to the above-described embodiments. Various changes that can be understood by those skilled in the art can be made to the structure and details of the present invention within the scope of the present invention.
10 顔認証システム
11 対象抽出部
12 対象判定部
13 照合部
14 ゲート制御部
15 領域設定部
16 通信部
17 照合データ記憶部
20 顔認証システム
100 照合システム
110 撮像手段
120 照合手段
200 情報処理装置
210 照合手段
C1,C2,C3 撮像装置
D1 表示装置
G1,G2,G3 ゲート
10
Claims (16)
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の撮像手段と、
前記第1の撮影画像の第1のゲートに対する通過前側領域である第1の領域又は第2のゲートに対する通過前側領域である第2の領域に位置する対象と、前記第2の撮影画像内に位置する対象の有無と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
を備える照合システム。 A first imaging means for acquiring a first captured image, which is a captured image of the region before passing through the gate, and
A second imaging means for acquiring a second captured image which is a captured image of a region including at least a part of the front-passing region.
A target located in the second region which is passed through the anterior region to the first region or the second gate is passed through the anterior region to the first gate of the first captured image, in the second captured image A collation means that determines a collation target based on the presence or absence of a positioned target and collates the determined collation target with a pre-registered target.
Collation system with.
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の撮像手段と、
前記第1の撮影画像の水平方向における端領域である第一領域に位置する対象と、前記第2の撮影画像の中央領域である第二領域に位置する対象と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
を備える照合システム。 A first imaging means for acquiring a first captured image, which is a captured image of the region before passing through the gate, and
A second imaging means for acquiring a second captured image which is a captured image of a region including at least a part of the front-passing region.
The collation target is determined based on the target located in the first region, which is the horizontal edge region of the first captured image , and the target located in the second region, which is the central region of the second captured image. Then, a collation means for collating the determined collation target with the pre-registered target,
Collation system with.
前記照合手段は、前記第1の撮影画像の前記第一領域に位置する対象が、当該対象が前記第一領域に位置するタイミングで前記第2の撮影画像の前記第二領域に位置している場合に、前記第1の撮影画像の前記第一領域に位置する対象を、前記照合対象から除外する、照合システム。 The collation system according to claim 2.
In the collation means, the target located in the first region of the first captured image is located in the second region of the second captured image at the timing when the target is located in the first region. In this case, a collation system that excludes an object located in the first region of the first captured image from the collation target.
前記照合手段は、前記第1の撮影画像の前記第一領域に位置する対象の特徴量と、前記第2の撮影画像の前記第二領域に位置する対象の特徴量と、に基づいて、前記第1の撮影画像の前記第一領域に位置する対象が、前記第2の撮影画像の前記第二領域に位置していると判断した場合に、前記第1の撮影画像の前記第一領域に位置する対象を、前記照合対象から除外する、
照合システム。 The collation system according to claim 3.
The collation means is based on the feature amount of the object located in the first region of the first captured image and the feature amount of the object located in the second region of the second captured image. When it is determined that the target located in the first region of the first captured image is located in the second region of the second captured image, the target is located in the first region of the first captured image. Exclude the located target from the collation target,
Collation system.
前記照合手段は、前記第1の撮影画像の前記第一領域に位置する対象である人物の目間距離と、前記第2の撮影画像の前記第二領域に位置する対象である人物の目間距離と、に基づいて、前記第1の撮影画像の前記第一領域に位置する対象が、前記第2の撮影画像の前記第二領域に位置していると判断した場合に、前記第1の撮影画像の前記第一領域に位置する対象を、前記照合対象から除外する、
照合システム。 The collation system according to claim 4.
The collation means is the distance between the eyes of the target person located in the first region of the first captured image and the distance between the eyes of the target person located in the second region of the second captured image. When it is determined that the object located in the first region of the first captured image is located in the second region of the second captured image based on the distance, the first Exclude the target located in the first region of the captured image from the collation target.
Collation system.
前記第1の撮影画像内の対象と、当該対象が前記第1の撮影画像内に位置するタイミングで取得された前記第2の撮影画像内の対象と、に基づいて、前記第1の撮影画像の前記第一領域と前記第2の撮影画像の前記第二領域とを設定する領域設定手段を備えた、
照合システム。 The collation system according to any one of claims 2 to 5.
The first captured image is based on the object in the first captured image and the object in the second captured image acquired at the timing when the target is located in the first captured image. A region setting means for setting the first region and the second region of the second captured image is provided.
Collation system.
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の撮像手段と、
前記第1の撮影画像の第一領域に位置する対象と、前記第2の撮影画像の第二領域に位置する対象と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
前記第1の撮影画像内の対象と、当該対象が前記第1の撮影画像内に位置するタイミングで取得された前記第2の撮影画像内の対象と、が同一である場合に、前記第1の撮影画像内の対象の位置と、前記第2の撮影画像内の対象の位置と、に基づいて、前記第1の撮影画像内の対象の位置の周囲を前記第一領域として設定し、前記第2の撮影画像内の対象の位置の周囲を前記第二領域として設定する領域設定手段と、
を備えた照合システム。 A first imaging means for acquiring a first captured image, which is a captured image of the region before passing through the gate, and
A second imaging means for acquiring a second captured image which is a captured image of a region including at least a part of the front-passing region.
A collation target is determined based on an object located in the first region of the first captured image and an object located in the second region of the second captured image, and the determined collation target is registered in advance. A collation method for collating with the target
When the object in the first captured image and the object in the second captured image acquired at the timing when the object is located in the first captured image are the same, the first Based on the position of the target in the captured image and the position of the target in the second captured image, the periphery of the target position in the first captured image is set as the first region. Area setting means for setting the periphery of the target position in the second captured image as the second area, and
Collation system with.
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得手段と、
前記第1の撮影画像の第1のゲートに対する通過前側領域である第1の領域又は第2のゲートに対する通過前側領域である第2の領域に位置する対象と、前記第2の撮影画像内に位置する対象の有無と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
を備える情報処理装置。 A first acquisition means for acquiring a first captured image which is a captured image of the region before passing through the gate, and
A second acquisition means for acquiring a second captured image, which is a captured image of a region including at least a part of the front-passing region,
A target located in the second region which is passed through the anterior region to the first region or the second gate is passed through the anterior region to the first gate of the first captured image, in the second captured image A collation means that determines a collation target based on the presence or absence of a positioned target and collates the determined collation target with a pre-registered target.
Information processing device equipped with.
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得手段と、
前記第1の撮影画像の水平方向における端領域である第一領域に位置する対象と、前記第2の撮影画像の中央領域である第二領域に位置する対象と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
を備える情報処理装置。 A first acquisition means for acquiring a first captured image which is a captured image of the region before passing through the gate, and
A second acquisition means for acquiring a second captured image, which is a captured image of a region including at least a part of the front-passing region,
The collation target is determined based on the target located in the first region, which is the horizontal edge region of the first captured image , and the target located in the second region, which is the central region of the second captured image. Then, a collation means for collating the determined collation target with the pre-registered target,
Information processing device equipped with.
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の撮像手段と、
前記第1の撮影画像の第一領域に位置する対象と、前記第2の撮影画像の第二領域に位置する対象と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
前記第1の撮影画像内の対象と、当該対象が前記第1の撮影画像内に位置するタイミングで取得された前記第2の撮影画像内の対象と、が同一である場合に、前記第1の撮影画像内の対象の位置と、前記第2の撮影画像内の対象の位置と、に基づいて、前記第1の撮影画像内の対象の位置の周囲を前記第一領域として設定し、前記第2の撮影画像内の対象の位置の周囲を前記第二領域として設定する領域設定手段と、
を備える情報処理装置。 A first imaging means for acquiring a first captured image, which is a captured image of the region before passing through the gate, and
A second imaging means for acquiring a second captured image which is a captured image of a region including at least a part of the front-passing region.
A collation target is determined based on an object located in the first region of the first captured image and an object located in the second region of the second captured image, and the determined collation target is registered in advance. A collation method for collating with the target
When the object in the first captured image and the object in the second captured image acquired at the timing when the object is located in the first captured image are the same, the first Based on the position of the target in the captured image and the position of the target in the second captured image, the periphery of the target position in the first captured image is set as the first region. Area setting means for setting the periphery of the target position in the second captured image as the second area, and
Information processing device equipped with.
ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の取得手段と、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得手段と、
前記第1の撮影画像の第1のゲートに対する通過前側領域である第1の領域又は第2のゲートに対する通過前側領域である第2の領域に位置する対象と、前記第2の撮影画像内に位置する対象の有無と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
を実現させるためのプログラム。 For information processing equipment
A first acquisition means for acquiring a first captured image which is a captured image of the region before passing through the gate, and
A second acquisition means for acquiring a second captured image, which is a captured image of a region including at least a part of the front-passing region,
A target located in the second region which is passed through the anterior region to the first region or the second gate is passed through the anterior region to the first gate of the first captured image, in the second captured image A collation means that determines a collation target based on the presence or absence of a positioned target and collates the determined collation target with a pre-registered target.
A program to realize.
ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の取得手段と、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得手段と、
前記第1の撮影画像の水平方向における端領域である第一領域に位置する対象と、前記第2の撮影画像の中央領域である第二領域に位置する対象と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
を実現させるためのプログラム。 For information processing equipment
A first acquisition means for acquiring a first captured image which is a captured image of the region before passing through the gate, and
A second acquisition means for acquiring a second captured image, which is a captured image of a region including at least a part of the front-passing region,
The collation target is determined based on the target located in the first region, which is the horizontal edge region of the first captured image , and the target located in the second region, which is the central region of the second captured image. Then, a collation means for collating the determined collation target with the pre-registered target,
A program to realize.
ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の取得手段と、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得手段と、
前記第1の撮影画像の第一領域に位置する対象と、前記第2の撮影画像の第二領域に位置する対象と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
前記第1の撮影画像内の対象と、当該対象が前記第1の撮影画像内に位置するタイミングで取得された前記第2の撮影画像内の対象と、が同一である場合に、前記第1の撮影画像内の対象の位置と、前記第2の撮影画像内の対象の位置と、に基づいて、前記第1の撮影画像内の対象の位置の周囲を前記第一領域として設定し、前記第2の撮影画像内の対象の位置の周囲を前記第二領域として設定する領域設定手段と、
を実現させるためのプログラム。 For information processing equipment
A first acquisition means for acquiring a first captured image which is a captured image of the region before passing through the gate, and
A second acquisition means for acquiring a second captured image, which is a captured image of a region including at least a part of the front-passing region,
A collation target is determined based on an object located in the first region of the first captured image and an object located in the second region of the second captured image, and the determined collation target is registered in advance. A collation method for collating with the target
When the object in the first captured image and the object in the second captured image acquired at the timing when the object is located in the first captured image are the same, the first Based on the position of the target in the captured image and the position of the target in the second captured image, the periphery of the target position in the first captured image is set as the first region. Area setting means for setting the periphery of the target position in the second captured image as the second area, and
A program to realize.
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得ステップと、
前記第1の撮影画像の第1のゲートに対する通過前側領域である第1の領域又は第2のゲートに対する通過前側領域である第2の領域に位置する対象と、前記第2の撮影画像内に位置する対象の有無と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合ステップと、を含む、
照合方法。 The first acquisition step of acquiring the first photographed image which is the photographed image of the area before passing through the gate, and
A second acquisition step of acquiring a second captured image, which is a captured image of a region including at least a part of the front-passing region,
A target located in the second region which is passed through the anterior region to the first region or the second gate is passed through the anterior region to the first gate of the first captured image, in the second captured image Includes a collation step that determines a collation target based on the presence or absence of a positioned object and collates the determined collation target with a pre-registered target.
Collation method.
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得ステップと、
前記第1の撮影画像の水平方向における端領域である第一領域に位置する対象と、前記第2の撮影画像の中央領域である第二領域に位置する対象と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合ステップと、を含む、
照合方法。 The first acquisition step of acquiring the first photographed image which is the photographed image of the area before passing through the gate, and
A second acquisition step of acquiring a second captured image, which is a captured image of a region including at least a part of the front-passing region,
The collation target is determined based on the target located in the first region, which is the horizontal edge region of the first captured image , and the target located in the second region, which is the central region of the second captured image. The collation step of collating the determined collation target with the pre-registered target is included.
Collation method.
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得ステップと、
前記第1の撮影画像の第一領域に位置する対象と、前記第2の撮影画像の第二領域に位置する対象と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合ステップと、
前記第1の撮影画像内の対象と、当該対象が前記第1の撮影画像内に位置するタイミングで取得された前記第2の撮影画像内の対象と、が同一である場合に、前記第1の撮影画像内の対象の位置と、前記第2の撮影画像内の対象の位置と、に基づいて、前記第1の撮影画像内の対象の位置の周囲を前記第一領域として設定し、前記第2の撮影画像内の対象の位置の周囲を前記第二領域として設定する領域設定ステップと、を含む、
照合方法。
The first acquisition step of acquiring the first photographed image which is the photographed image of the area before passing through the gate, and
A second acquisition step of acquiring a second captured image, which is a captured image of a region including at least a part of the front-passing region,
A collation target is determined based on an object located in the first region of the first captured image and an object located in the second region of the second captured image, and the determined collation target is registered in advance. A collation step that matches the target
When the object in the first captured image and the object in the second captured image acquired at the timing when the object is located in the first captured image are the same, the first Based on the position of the target in the captured image and the position of the target in the second captured image, the periphery of the target position in the first captured image is set as the first region. A region setting step of setting the periphery of the target position in the second captured image as the second region is included.
Collation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018177488A JP6774036B2 (en) | 2018-09-21 | 2018-09-21 | Collation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018177488A JP6774036B2 (en) | 2018-09-21 | 2018-09-21 | Collation system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017179064A Division JP6409929B1 (en) | 2017-09-19 | 2017-09-19 | Verification system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020160455A Division JP7040578B2 (en) | 2020-09-25 | 2020-09-25 | Collation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019057284A JP2019057284A (en) | 2019-04-11 |
JP6774036B2 true JP6774036B2 (en) | 2020-10-21 |
Family
ID=66107543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018177488A Active JP6774036B2 (en) | 2018-09-21 | 2018-09-21 | Collation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6774036B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022053683A (en) * | 2020-09-25 | 2022-04-06 | グローリー株式会社 | Image processing apparatus, image processing system, image processing method, and program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007148987A (en) * | 2005-11-30 | 2007-06-14 | Toshiba Corp | Face authentication system, and entrance and exit management system |
JP4865346B2 (en) * | 2006-02-08 | 2012-02-01 | 綜合警備保障株式会社 | Monitoring system and monitoring method |
JP2007328572A (en) * | 2006-06-08 | 2007-12-20 | Matsushita Electric Ind Co Ltd | Face authentication device and face authentication method |
WO2008108458A1 (en) * | 2007-03-07 | 2008-09-12 | Omron Corporation | Face image acquiring system, face checking system, face image acquiring method, face checking method, face image acquiring program and face checking program |
JP4942189B2 (en) * | 2007-05-11 | 2012-05-30 | キヤノン株式会社 | Image processing apparatus, image processing method, program, and storage medium |
-
2018
- 2018-09-21 JP JP2018177488A patent/JP6774036B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019057284A (en) | 2019-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6409929B1 (en) | Verification system | |
JP6148064B2 (en) | Face recognition system | |
JP6601513B2 (en) | Information processing device | |
JP2008108243A (en) | Person recognition device and person recognition method | |
JP2014219704A (en) | Face authentication system | |
JP4899552B2 (en) | Authentication device, authentication method, authentication program, and computer-readable recording medium recording the same | |
JP6544404B2 (en) | Matching system | |
JP6947202B2 (en) | Matching system | |
JP7040578B2 (en) | Collation system | |
JP6774036B2 (en) | Collation system | |
CN109196517B (en) | Comparison device and comparison method | |
JP7006668B2 (en) | Information processing equipment | |
JP6915673B2 (en) | Information processing system | |
US20230274597A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP5955057B2 (en) | Face image authentication device | |
WO2019151116A1 (en) | Information processing device | |
JP7298658B2 (en) | Matching system | |
JP7279774B2 (en) | Information processing equipment | |
JP2023120264A (en) | Collation system | |
US20230206686A1 (en) | Face authentication method, storage medium, and face authentication device | |
JP2021193268A (en) | Information processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180921 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190827 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200902 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200915 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6774036 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |