JP6774036B2 - Collation system - Google Patents

Collation system Download PDF

Info

Publication number
JP6774036B2
JP6774036B2 JP2018177488A JP2018177488A JP6774036B2 JP 6774036 B2 JP6774036 B2 JP 6774036B2 JP 2018177488 A JP2018177488 A JP 2018177488A JP 2018177488 A JP2018177488 A JP 2018177488A JP 6774036 B2 JP6774036 B2 JP 6774036B2
Authority
JP
Japan
Prior art keywords
captured image
region
target
collation
gate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018177488A
Other languages
Japanese (ja)
Other versions
JP2019057284A (en
Inventor
剛人 古地
剛人 古地
謙志 斉藤
謙志 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2018177488A priority Critical patent/JP6774036B2/en
Publication of JP2019057284A publication Critical patent/JP2019057284A/en
Application granted granted Critical
Publication of JP6774036B2 publication Critical patent/JP6774036B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、照合システムにかかり、特に、ゲートを通過しようとする対象を照合する照合システムに関する。 The present invention relates to a collation system, and more particularly to a collation system that collates an object that is about to pass through a gate.

オフィスやイベント会場などの特定場所に入退場する人物を制限したり管理する手段として、通過しようとする人物が予め登録された人物か否かを照合する照合システムが用いられる。特に、近年では、人物の顔認証技術の発達により、ゲートに設置したカメラで撮影した人物の顔画像から顔認証を行うウォークスルー顔認証システムが利用されている。 As a means of restricting or managing people who enter or leave a specific place such as an office or an event venue, a collation system is used to check whether or not the person who is going to pass is a pre-registered person. In particular, in recent years, with the development of human face recognition technology, a walk-through face recognition system that performs face recognition from a person's face image taken by a camera installed at a gate has been used.

特開2015−1790号公報Japanese Unexamined Patent Publication No. 2015-1790

ここで、ウォークスルー顔認証システムにおいては、複数のゲートが隣接し、各ゲートにそれぞれ向かう人物が通行するレーンが隣接している場合がある。この場合、あるゲートのレーンを通行する人物を撮影した画像に、隣接するレーンで隣接するゲートに向かう人物も映ってしまう場合がある。すると、隣接するレーンを通行する人物を、自レーンを通行する人物と誤認識してしまい、自レーンの先にある自ゲートを通行する人物の照合の妨げとなる場合がある。このため、複数のゲートが設置された状況においては、各ゲートに向かう人物の誤認識を抑制することが求められる。 Here, in the walk-through face recognition system, a plurality of gates may be adjacent to each other, and lanes through which a person heading for each gate passes may be adjacent to each other. In this case, an image of a person passing through a lane of a certain gate may also show a person heading for an adjacent gate in the adjacent lane. Then, the person passing through the adjacent lane may be mistakenly recognized as the person passing through the own lane, which may hinder the collation of the person passing through the own gate at the end of the own lane. Therefore, in a situation where a plurality of gates are installed, it is required to suppress erroneous recognition of a person heading for each gate.

また、ウォークスルー顔認証システムに関連する技術として、特許文献1に記載の技術がある。特許文献1では、人物がゲートから遠くにいる時点で認証が済んでしまい、かかる人物がゲートに到達する前にゲートが開放されてしまう、という問題を掲げている。そして、かかる問題を解決するために、特許文献1では、撮影した人物の顔画像と登録顔画像との照合を行い、照合した人物の入力画像上の大きさに基づいて、かかる人物のゲートへの接近を検出している。さらに、特許文献1では、撮影画像の領域毎に、それぞれ顔領域の大きさの判定基準値を異ならせて設定することで、隣接ゲートに向かう人物の誤認識を防止しようとしている。 Further, as a technique related to the walk-through face recognition system, there is a technique described in Patent Document 1. Patent Document 1 raises the problem that authentication is completed when a person is far from the gate, and the gate is opened before the person reaches the gate. Then, in order to solve such a problem, in Patent Document 1, the photographed person's face image and the registered face image are collated, and based on the size on the input image of the collated person, the gate of the person is displayed. Is detecting the approach of. Further, in Patent Document 1, it is attempted to prevent erroneous recognition of a person heading for an adjacent gate by setting different determination reference values for the size of the face region for each region of the captured image.

しかしながら、特許文献1に記載の技術では、人物が通過しようとしているゲートに対応して設置されたカメラによる撮影画像のみを用い、かつ、撮影画像の領域毎に設定された人物の大きさの判定基準値を用いて、自ゲートへの人物の接近を検出している。このため、撮影画像に映る人物の領域が適切でなかったり、判定基準値が適切でない場合には、依然として他のゲートに向かう人物を誤認識してしまう、という問題が生じる。 However, in the technique described in Patent Document 1, only the image taken by the camera installed corresponding to the gate through which the person is passing is used, and the size of the person set for each area of the photographed image is determined. The reference value is used to detect the approach of a person to the own gate. For this reason, if the area of the person reflected in the captured image is not appropriate or the determination reference value is not appropriate, there still arises a problem that the person heading for another gate is erroneously recognized.

また、上述した各ゲートにそれぞれ向かう人物の誤認識という問題は、ゲートを通過する対象が人物である場合に限らず、いかなる対象の照合を行う場合にも生じうる。 Further, the problem of erroneous recognition of a person heading for each gate described above may occur not only when the target passing through the gate is a person but also when collating any target.

このため、本発明の目的は、上述した課題である、ゲートを通過しようとする対象を誤認識してしまうという問題を解決することができる照合システムを提供することにある。 Therefore, an object of the present invention is to provide a collation system capable of solving the above-mentioned problem of erroneously recognizing an object trying to pass through a gate.

本発明の一形態である照合システムは、
並列に設置された各ゲートに対する各通過前側領域の撮影画像をそれぞれ取得する撮像手段と、
前記ゲート毎に、前記各通過前側領域の前記撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段と、
を備え、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
という構成をとる。
The collation system, which is one embodiment of the present invention, is
An imaging means for acquiring captured images of each passage front region for each gate installed in parallel, and
For each of the gates, a collation means for collating a pre-registered target and an object included in the captured image for each of the captured images in each passage front region.
With
The collation means performs the collation process based on an object in the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
It takes the configuration.

また、本発明の一形態である情報処理装置は、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を備え、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
という構成をとる。
Further, the information processing device which is one form of the present invention is
A collation means for performing collation processing between a pre-registered target and an target included in the captured image is provided for each of the captured images of each passage front region for each gate installed in parallel.
The collation means performs the collation process based on an object in the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
It takes the configuration.

また、本発明の一形態であるプログラムは、
情報処理装置に、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を実現させるためのプログラムであり、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
という構成をとる。
Moreover, the program which is one form of the present invention
For information processing equipment
A program for realizing a collation means for collating a pre-registered target and a target included in the captured image for each of the captured images in each passage front region for each gate installed in parallel. And
The collation means performs the collation process based on an object in the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
It takes the configuration.

また、本発明の一形態である照合方法は、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う方法であり、
所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
という構成をとる。
Further, the collation method, which is one embodiment of the present invention, is
This is a method of collating a pre-registered target with a target included in the captured image for each of the captured images of each passage front region for each gate installed in parallel.
The collation process is performed based on the object in the captured image corresponding to the predetermined gate and the object in the captured image corresponding to the other gate.
It takes the configuration.

本発明は、以上のように構成されることにより、ゲートを通過しようとする対象の誤認識を抑制することができる。 The present invention can suppress erroneous recognition of an object trying to pass through the gate by being configured as described above.

本発明の実施形態1における顔認証システムの使用状況を示す図である。It is a figure which shows the usage situation of the face recognition system in Embodiment 1 of this invention. 本発明の実施形態1における顔認証システムの構成を示すブロック図である。It is a block diagram which shows the structure of the face recognition system in Embodiment 1 of this invention. 図1に開示した顔認証システムによる撮像状況を示す図である。It is a figure which shows the imaging state by the face recognition system disclosed in FIG. 図1に開示した顔認証システムにて図3の撮像状況で撮影した撮影画像を示す図である。It is a figure which shows the photographed image which image | photographed with the face recognition system disclosed in FIG. 1 in the imaging state of FIG. 図1に開示した顔認証システムによる撮像状況を示す図である。It is a figure which shows the imaging state by the face recognition system disclosed in FIG. 図1に開示した顔認証システムにて図5の撮像状況で撮影した撮影画像を示す図である。It is a figure which shows the photographed image which image | photographed with the face recognition system disclosed in FIG. 1 in the imaging state of FIG. 図1に開示した顔認証システムによる処理動作を示すフローチャートである。It is a flowchart which shows the processing operation by the face recognition system disclosed in FIG. 本発明の実施形態2における顔認証システムによる撮像状況を示す図である。It is a figure which shows the imaging state by the face recognition system in Embodiment 2 of this invention. 本発明の実施形態2における顔認証システムにて図8の撮像状況で撮影した撮影画像を示す図である。It is a figure which shows the photographed image which image | photographed with the face recognition system in Embodiment 2 of this invention in the imaging state of FIG. 本発明の実施形態2における顔認証システムによる撮像状況を示す図である。It is a figure which shows the imaging state by the face recognition system in Embodiment 2 of this invention. 本発明の実施形態2における顔認証システムにて図10の撮像状況で撮影した撮影画像を示す図である。It is a figure which shows the photographed image which image | photographed with the face recognition system in Embodiment 2 of this invention in the imaging state of FIG. 本発明の実施形態2における顔認証システムによる処理動作を示すフローチャートである。It is a flowchart which shows the processing operation by the face recognition system in Embodiment 2 of this invention. 本発明の実施形態4における顔認証システムの構成を示すブロック図である。It is a block diagram which shows the structure of the face recognition system in Embodiment 4 of this invention. 本発明の実施形態4における顔認証システムによる撮像状況を示す図である。It is a figure which shows the imaging state by the face recognition system in Embodiment 4 of this invention. 本発明の実施形態4における顔認証システムにて図12の撮像状況で撮影した撮影画像を示す図である。It is a figure which shows the photographed image which image | photographed with the face recognition system in Embodiment 4 of this invention in the imaging state of FIG. 本発明の実施形態4における顔認証システムによる画像処理の様子を示す図である。It is a figure which shows the state of the image processing by the face recognition system in Embodiment 4 of this invention. 本発明の実施形態5における照合システムの構成を示すブロック図である。It is a block diagram which shows the structure of the collation system in Embodiment 5 of this invention. 本発明の実施形態5における情報処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the information processing apparatus in Embodiment 5 of this invention.

<実施形態1>
本発明の第1の実施形態を、図1乃至図7を参照して説明する。図1は、顔認証システムの使用状況を示す図である。図2は、顔認証システムの構成を示す図である。図3乃至図7は、顔認証システムの処理動作を説明するための図である。
<Embodiment 1>
The first embodiment of the present invention will be described with reference to FIGS. 1 to 7. FIG. 1 is a diagram showing a usage status of the face recognition system. FIG. 2 is a diagram showing a configuration of a face recognition system. 3 to 7 are diagrams for explaining the processing operation of the face recognition system.

[全体構成]
本発明における顔認証システム10(照合システム)は、オフィスやイベント会場などの特定場所において、人物(対象)の入退場を制限したり管理するために用いられるシステムである。例えば、顔認証システム10を構成する撮像装置は、人物の入退場の際に開閉されるゲート毎に、当該ゲートの配置箇所付近にそれぞれ設置されるものである。
[overall structure]
The face recognition system 10 (collation system) in the present invention is a system used for restricting or managing the entry / exit of a person (target) in a specific place such as an office or an event venue. For example, the imaging device constituting the face recognition system 10 is installed near each gate that is opened and closed when a person enters and exits, in the vicinity of the gate.

図1に示す例では、3つのゲートG1,G2,G3が並列に隣接して配置されており、図1の右側から各ゲートG1,G2,G3に向かって、矢印に示す方向に人物が通行するよう構成されている。このため、各ゲートG1,G2,G3に対する図1の右側領域は、人物がゲートを通過する前側の領域(通過前側領域)となっている。そして、各ゲートG1,G2,G3の通過前側領域には、当該各ゲートG1,G2,G3を通過しようとする人物が並んで通行する各レーンR1,R2,R3が、各ゲートG1,G2,G3にそれぞれ対応して並列に位置している。なお、各レーンR1,R2,R3は、何らかの部材で仕切られていてもよく、仕切られていなくてもよい。 In the example shown in FIG. 1, three gates G1, G2, and G3 are arranged adjacent to each other in parallel, and a person passes in the direction indicated by the arrow from the right side of FIG. 1 toward each gate G1, G2, G3. It is configured to do. Therefore, the area on the right side of FIG. 1 with respect to the gates G1, G2, and G3 is an area on the front side where a person passes through the gate (area on the front side of passage). Then, in the area on the front side of each gate G1, G2, G3, each lane R1, R2, R3 in which a person who intends to pass through each of the gates G1, G2, G3 passes side by side is a gate G1, G2. They are located in parallel corresponding to each G3. In addition, each lane R1, R2, R3 may be partitioned by some member, and may not be partitioned.

図1に示す状況において、本実施形態における顔認証システム10を構成する撮像装置C1,C2,C3は、対応する各ゲートG1,G2,G3付近であり、各ゲートG1,G2,G3に向かう人物から見て右側に設置されている。但し、撮像装置の設置位置は、図1に示す位置に限定されず、ゲートに向かって左側やゲートの上方など、いかなる位置に設置されていてもよい。なお、顔認証システム10は、各撮像装置C1,C2,C3の近辺に、表示装置も備えている。 In the situation shown in FIG. 1, the imaging devices C1, C2, and C3 constituting the face recognition system 10 in the present embodiment are in the vicinity of the corresponding gates G1, G2, and G3, and the persons heading for the gates G1, G2, and G3. It is installed on the right side when viewed from. However, the installation position of the image pickup device is not limited to the position shown in FIG. 1, and may be installed at any position such as the left side of the gate or above the gate. The face recognition system 10 also includes a display device in the vicinity of the imaging devices C1, C2, and C3.

顔認証システム10は、例えば、ゲートG1においては、装備している撮像装置C1にてゲートG1に向かう人物の画像を撮影する。そして、撮影画像に映る人物の顔画像から、かかる人物が予め登録された人物であるか否かを照合し、照合が成功すると、人物が通過可能なようゲートG1を開く、という処理を行う。なお、他のゲートG2,G3にもそれぞれ対応して顔認証システム及び当該システムを構成する撮像装置C2,C3が設置されており、各ゲートG2,G3に向かう人物の照合を行う。以下、顔認証システム10の構成について詳述する。なお、以下では、主にゲートG1に対応して設置された顔認証システム10について説明するが、他のゲートG2,G3に対応して設置された顔認証システムも同様の構成である。 For example, at the gate G1, the face recognition system 10 takes an image of a person heading for the gate G1 with the equipped image pickup device C1. Then, the face image of the person reflected in the captured image is collated to see if the person is a pre-registered person, and if the collation is successful, the gate G1 is opened so that the person can pass through. A face recognition system and imaging devices C2 and C3 constituting the system are installed corresponding to the other gates G2 and G3, respectively, and the person heading to each gate G2 and G3 is collated. Hereinafter, the configuration of the face recognition system 10 will be described in detail. In the following, the face recognition system 10 installed mainly corresponding to the gate G1 will be described, but the face recognition system installed corresponding to the other gates G2 and G3 also has the same configuration.

[顔認証システムの構成]
本実施形態における顔認証システム10は、撮像装置C1(カメラ)及び表示装置D1(ディスプレイ)と一体的に構成された演算装置及び記憶装置を有する情報処理装置である。逆に言うと、撮像装置C1に、顔認証処理を行う演算装置及び記憶装置を有する情報処理装置と表示装置D1が搭載されている。但し、顔認証システム10は、必ずしも撮像装置C1や表示装置D1と一体的に構成されていることに限定されない。例えば、撮像装置C1と表示装置D1と撮影画像を処理する情報処理装置とが別々の装置にて構成されており、別々の場所に設置されていてもよい。
[Face recognition system configuration]
The face recognition system 10 in the present embodiment is an information processing device having an arithmetic device and a storage device integrally configured with an image pickup device C1 (camera) and a display device D1 (display). Conversely, the image pickup device C1 is equipped with an information processing device and a display device D1 having an arithmetic device and a storage device that perform face recognition processing. However, the face recognition system 10 is not necessarily limited to being integrally configured with the image pickup device C1 and the display device D1. For example, the image pickup device C1, the display device D1, and the information processing device for processing the captured image are configured by separate devices, and may be installed at different locations.

具体的に、顔認証システム10は、図2に示すように、撮像装置C1及び表示装置D1と、通信部16と、を備えると共に、演算装置がプログラムを実行することで構築された対象抽出部11と、対象判定部12と、照合部13と、ゲート制御部14と、を備えている。また、顔認証システム10は、記憶装置に構築された照合データ記憶部17と、を備えている。 Specifically, as shown in FIG. 2, the face recognition system 10 includes an image pickup device C1, a display device D1, a communication unit 16, and an object extraction unit constructed by executing a program by an arithmetic unit. It includes 11, a target determination unit 12, a collation unit 13, and a gate control unit 14. Further, the face recognition system 10 includes a collation data storage unit 17 built in the storage device.

上記撮像装置C1(撮像手段)は、ゲートG1に対する通過前側領域、つまり、対応するレーンR1のゲートG1前領域の撮影画像を、所定のフレームレートで取得するカメラ及びカメラ制御部を備えたものである。そして、撮像装置C1は、例えば図3に示すように、符号C1a線で挟まれた範囲が撮影領域となっている。このとき、撮影領域のうち符号C1b線で挟まれた水平方向における中央領域に、撮像装置C1が設置されたゲートG1に対応するレーンR1(自レーン)を通行する人物P10が位置するよう、撮像装置C1の撮影領域が設定されている。なお、撮影画像は、撮像装置C1に対する遠近方向の予め設定された距離の範囲、例えば、図3に示す符号L1線から符号L2線の間の距離で、概ね焦点が合うよう設定されている。 The image pickup apparatus C1 (imaging means) includes a camera and a camera control unit that acquire a captured image of a region before passing through the gate G1, that is, a region in front of the gate G1 of the corresponding lane R1 at a predetermined frame rate. is there. Then, in the image pickup apparatus C1, for example, as shown in FIG. 3, the range sandwiched by the code C1a is the photographing region. At this time, imaging is performed so that the person P10 passing through the lane R1 (own lane) corresponding to the gate G1 in which the imaging device C1 is installed is located in the central region in the horizontal direction sandwiched by the code C1b line in the imaging region. The photographing area of the device C1 is set. The captured image is set so as to be substantially in focus within a preset distance range in the perspective direction with respect to the image pickup apparatus C1, for example, a distance between the reference numeral L1 line and the reference numeral L2 line shown in FIG.

上述したように撮像装置C1の撮影領域が設定されていることにより、撮影領域のうち、符号C1a線と符号C1b線とに挟まれた領域である上記中央領域に対して水平方向における端領域には、図3に示す状況では、隣接するゲートG2に対応するレーンR2を通行する人物P20が映る場合が生じる。また、端領域には、図5に示す状況では、撮像装置C1が設置された自ゲートG1に対応する自レーンR1に位置する人物P12が映る場合もある。本発明の顔認証システム10は、このような状況が生じた場合であっても、以下に説明するように、隣接ゲートG2を通過しようとしている人物P20を照合処理対象から除外し、自ゲートG1を通過しようとする人物P12を適切に認識してゲート通過の可否を判定可能とするよう構成されている。 Since the imaging region of the imaging device C1 is set as described above, the edge region in the horizontal direction with respect to the central region, which is the region sandwiched between the reference numerals C1a line and the reference numeral C1b line, is set in the imaging region. In the situation shown in FIG. 3, a person P20 passing through the lane R2 corresponding to the adjacent gate G2 may be displayed. Further, in the situation shown in FIG. 5, a person P12 located in the own lane R1 corresponding to the own gate G1 in which the image pickup apparatus C1 is installed may be projected in the end region. Even if such a situation occurs, the face recognition system 10 of the present invention excludes the person P20 who is about to pass through the adjacent gate G2 from the collation processing target, and excludes the person P20 who is about to pass through the adjacent gate G2 from the collation processing target, and the own gate G1. It is configured so that it is possible to appropriately recognize the person P12 who is going to pass through the gate and determine whether or not the person can pass through the gate.

上記対象抽出部11は、撮像装置C1から撮影画像を取得し、撮影画像内から処理対象となる人物を抽出する。人物の抽出は、例えば、動く物体を抽出したり、物体の全体形状や全体像に対する特徴的な形状部位の位置や色の位置などから判定して行う。このとき、対象抽出部11は、抽出した人物が位置する撮影画像内における領域も特定する。特に本実施形態では、抽出した人物が、上述した撮影画像の水平方向における中央領域か左右の端領域に位置しているかを特定する。例えば、図3の状況では、ゲートG1に対応する撮像装置C1による撮影画像では、図4(a)に示すように中央領域に位置する人物P10が抽出され、右端領域に位置する人物P20が抽出される。 The target extraction unit 11 acquires a captured image from the imaging device C1 and extracts a person to be processed from the captured image. The person is extracted, for example, by extracting a moving object, or determining from the overall shape of the object, the position of a characteristic shape portion with respect to the overall image, the position of a color, or the like. At this time, the target extraction unit 11 also specifies an area in the captured image in which the extracted person is located. In particular, in the present embodiment, it is specified whether the extracted person is located in the central region or the left and right edge regions in the horizontal direction of the above-mentioned captured image. For example, in the situation of FIG. 3, in the image captured by the imaging device C1 corresponding to the gate G1, the person P10 located in the central region is extracted and the person P20 located in the rightmost region is extracted as shown in FIG. 4A. Will be done.

上記対象判定部12(照合手段)は、対象抽出部11で抽出した人物P10,P20が自ゲートG1に向かっている人物であるか否かを判定する。このとき、対象判定部12は、端領域(第一領域)に人物P20が位置している場合には、他のゲートG2に対応する顔認証システム20の撮像装置C2にて撮影された撮影画像に基づいて、かかる人物P20が自ゲートG1に向かっているか否かを判定する。この例では、図4(a)に示す自ゲートG1に対応する撮影画像の右側の端領域に人物P20が映っているため、ゲートG1の右側に隣接するゲートG2の撮像装置C2にて撮影された撮影画像を取得する。具体的には、対象判定部12は、通信部16を介して、隣接ゲートG2の顔認証システム20と通信して、ゲートG1で撮影画像が撮影された同一のタイミング(例えば、同一時刻)でゲートG2で撮影された撮影画像を取得する。なお、各ゲートG1,G2,G3にそれぞれ対応する顔認証システム(撮像装置C1,C2,C3)の位置関係は、予め各システムに登録されていることとする。 The target determination unit 12 (collation means) determines whether or not the persons P10 and P20 extracted by the object extraction unit 11 are heading toward the own gate G1. At this time, when the person P20 is located in the end region (first region), the target determination unit 12 captures a captured image taken by the image pickup device C2 of the face recognition system 20 corresponding to the other gate G2. Based on, it is determined whether or not the person P20 is heading for the own gate G1. In this example, since the person P20 is reflected in the right end region of the captured image corresponding to the own gate G1 shown in FIG. 4A, the image is captured by the image pickup device C2 of the gate G2 adjacent to the right side of the gate G1. Acquire the captured image. Specifically, the target determination unit 12 communicates with the face recognition system 20 of the adjacent gate G2 via the communication unit 16 at the same timing (for example, at the same time) when the captured image is captured at the gate G1. The photographed image taken by the gate G2 is acquired. It is assumed that the positional relationship of the face recognition systems (imaging devices C1, C2, C3) corresponding to each gate G1, G2, G3 is registered in each system in advance.

そして、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P20が、隣接ゲートG2の撮影画像の中央領域(第二領域)に映っているか否かを調べる。本実施形態では、隣接ゲートG2の撮影画像の中央領域にいずれかの人物が映っている場合には、かかる人物が自ゲートG1の撮影画像の端領域に位置している人物P20であると判定する。この場合、自ゲートG1の顔認証システム10では、撮影画像の端領域に位置する人物P20を照合対象から除外すると判定する。なお、自ゲートG1の撮影画像の端領域(第一領域)と隣接ゲートG2の撮影画像の中央領域(第二領域)とは、撮影画像上においては相互に異なる領域であるが、実空間においては相互に重複する空間である。 Then, the target determination unit 12 examines whether or not the person P20 located at the end region of the captured image of the own gate G1 is reflected in the central region (second region) of the captured image of the adjacent gate G2. In the present embodiment, when any person is reflected in the central region of the captured image of the adjacent gate G2, it is determined that the person is the person P20 located in the edge region of the captured image of the own gate G1. To do. In this case, the face recognition system 10 of the own gate G1 determines that the person P20 located in the edge region of the captured image is excluded from the collation target. The edge region (first region) of the captured image of the own gate G1 and the central region (second region) of the captured image of the adjacent gate G2 are different regions on the captured image, but in the real space. Is a space that overlaps with each other.

例えば、図3の状況では、図4(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P20は、図4(b)に示す隣接ゲートG2の撮影画像の中央領域に位置するため、かかる人物P20は自ゲートG1の顔認証システム10による照合対象から除外する。つまり、自ゲートG1の顔認証システム10は、撮影画像の中央領域に位置する人物P10のみを照合対象とする。また、図5の状況では、図6(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P12は、図6(b)に示す隣接ゲートG2の撮影画像の中央領域には位置していない。このため、かかる人物P12は自ゲートG1の顔認証システム10による照合対象とする。つまり、自ゲートG1の顔認証システム10は、撮影画像の中央領域に位置する人物P10と、端領域に位置する人物P12を照合対象とする。 For example, in the situation of FIG. 3, the person P20 located in the edge region of the captured image of the own gate G1 shown in FIG. 4A is located in the central region of the captured image of the adjacent gate G2 shown in FIG. 4B. Therefore, the person P20 is excluded from the verification target by the face recognition system 10 of the own gate G1. That is, the face recognition system 10 of the own gate G1 targets only the person P10 located in the central region of the captured image as a collation target. Further, in the situation of FIG. 5, the person P12 located in the edge region of the captured image of the own gate G1 shown in FIG. 6A is located in the central region of the captured image of the adjacent gate G2 shown in FIG. 6B. Not done. Therefore, the person P12 is subject to collation by the face recognition system 10 of the own gate G1. That is, the face recognition system 10 of the own gate G1 targets the person P10 located in the central region of the captured image and the person P12 located in the edge region as the collation target.

なお、上記対象判定部12は、上述とは異なる方法で、人物が自ゲートにおける照合対象であるか否かを判定してもよい。一例として、対象判定部12は、撮影画像の端領域(第一領域)に人物が位置している場合には、他のゲートG2に対応する顔認証システム20に対して、かかる人物が自ゲートG1の人物か否かを問い合わせてもよい。具体的に、図3及び図4の例では、図4(a)に示す自ゲートG1に対応する撮影画像の右側の端領域に人物P20が映っているため、ゲートG1の右側に隣接するゲートG2の顔認証システム20に対して、かかる人物P20が当該隣接するゲートG2の中央領域に映っているか否かを問い合わせる。同様に、図5及び図6の例では、図6(a)に示す自ゲートG1に対応する撮影画像の右側の端領域に人物P12が映っているため、ゲートG1の右側に隣接するゲートG2の顔認証システム20に対して、かかる人物P12が当該隣接するゲートG2の中央領域に映っているか否かを問い合わせる。このとき、対象判定部12は、通信部16を介して、隣接ゲートG2の顔認証システム20と通信して、ゲートG1で撮影画像が撮影された同一のタイミング(例えば、同一時刻)でゲートG2で撮影された撮影画像の中央領域に、人物が映っているか否かを問い合わせる。 The target determination unit 12 may determine whether or not the person is a collation target at the own gate by a method different from the above. As an example, in the target determination unit 12, when a person is located in the edge region (first region) of the captured image, the person gates the face recognition system 20 corresponding to the other gate G2. You may inquire whether you are a G1 person. Specifically, in the examples of FIGS. 3 and 4, since the person P20 is reflected in the right end region of the captured image corresponding to the own gate G1 shown in FIG. 4A, the gate adjacent to the right side of the gate G1. The face recognition system 20 of G2 is inquired whether the person P20 is reflected in the central region of the adjacent gate G2. Similarly, in the examples of FIGS. 5 and 6, since the person P12 is reflected in the right end region of the captured image corresponding to the own gate G1 shown in FIG. 6A, the gate G2 adjacent to the right side of the gate G1 is displayed. Inquires of the face recognition system 20 whether or not the person P12 is reflected in the central region of the adjacent gate G2. At this time, the target determination unit 12 communicates with the face recognition system 20 of the adjacent gate G2 via the communication unit 16 and the gate G2 at the same timing (for example, the same time) when the captured image is taken at the gate G1. Inquire whether or not a person is reflected in the central area of the captured image taken in.

そして、上記問合せを受けた隣接するゲートG2の顔認証システム20は、自身の撮影画像から中央領域(第二領域)にいずれかの人物が映っているか否かを調べ、その結果を問合せを受けたゲートG1の顔認証システム10の対象判定部12に通知する。具体的に、隣接するゲートG2の顔認証システム20は、上述した対象抽出部11と同等の機能を有し、撮像装置C2から撮影画像を取得し、撮影画像内から処理対象となる人物を抽出し、抽出した人物が位置する撮影画像内における領域も特定する。そして、隣接するゲートG2の顔認証システム20は、中央領域に人物が映っているか否かを、問い合わせに対する応答結果として、ゲートG1の顔認証システム10に通知する。 Then, the face recognition system 20 of the adjacent gate G2 that has received the above inquiry examines whether or not any person is reflected in the central region (second region) from its own captured image, and receives an inquiry as a result. Notify the target determination unit 12 of the face recognition system 10 of the gate G1. Specifically, the face recognition system 20 of the adjacent gate G2 has the same function as the target extraction unit 11 described above, acquires a captured image from the image pickup device C2, and extracts a person to be processed from the captured image. Then, the area in the captured image in which the extracted person is located is also specified. Then, the face recognition system 20 of the adjacent gate G2 notifies the face recognition system 10 of the gate G1 as a response result to the inquiry whether or not a person is reflected in the central region.

隣接するゲートG20の顔認証システムから、問い合わせに対する応答結果の通知を受けたゲートG1の顔認証システム10の対象判定部12は、応答結果に応じて以下のように判定する。対象判定部12は、隣接するゲートG2の撮影画像の中央領域にいずれかの人物が映っている通知を受けた場合には(図3及び図4の例)、その人物が自ゲートG1の撮影画像の端領域に位置している人物P20であると判定する。この場合、自ゲートG1の顔認証システム10では、撮影画像の端領域に位置する人物P20を照合対象から除外すると判定する。一方、対象判定部12は、隣接するゲートG2の撮影画像の中央領域にいずれの人物も映っていないという通知を受けた場合には(図5及び図6の例)、自ゲートG1の撮影画像の端領域に位置する人物P12を照合対象とすると判定する。 Upon receiving the notification of the response result to the inquiry from the face recognition system of the adjacent gate G20, the target determination unit 12 of the face recognition system 10 of the gate G1 determines as follows according to the response result. When the target determination unit 12 receives a notification that any person is shown in the central region of the captured image of the adjacent gate G2 (examples of FIGS. 3 and 4), that person photographs the own gate G1. It is determined that the person P20 is located in the edge region of the image. In this case, the face recognition system 10 of the own gate G1 determines that the person P20 located in the edge region of the captured image is excluded from the collation target. On the other hand, when the target determination unit 12 receives a notification that no person is shown in the central region of the captured image of the adjacent gate G2 (examples of FIGS. 5 and 6), the target determination unit 12 captures the captured image of the own gate G1. It is determined that the person P12 located in the edge region of is to be collated.

以上のような方法で、人物が照合対象であるか否かを判定することで、各顔認証システム10,20でそれぞれ人物の抽出処理が行われるため、一方の顔認証システムに処理が集中することがなく、また、画像の転送がない。従って、1つの顔認証システム10の処理負荷を抑制でき、かつ、顔認証システム10,20間の通信量を抑制することができ、迅速な判定を行うことができる。 By determining whether or not a person is a collation target by the above method, each face recognition system 10 or 20 performs the person extraction process, so that the process is concentrated on one face recognition system. There is no image transfer. Therefore, the processing load of one face recognition system 10 can be suppressed, the amount of communication between the face recognition systems 10 and 20 can be suppressed, and a quick determination can be made.

上記照合部13(照合手段)は、対象判定部12により、自ゲートG1の撮影画像内で照合対象として判定された人物に対する照合処理を行う。換言すると、照合部13は、自ゲートG1の撮影画像内に映っていた人物であっても、対象判定部12で照合対象から除外された人物については照合処理を行わない。ここで、照合処理は、例えば以下のようにして行う。まず、照合処理の対象となる人物の顔領域を特定し、当該顔領域から照合に必要な特徴量を生成する。そして、生成した特徴量と、予め照合データ記憶部17に登録された人物の特徴量と、の類似度といった照合スコアを算出し、照合スコアがしきい値よりも高いか否か判定する。照合スコアがしきい値より高い場合には、照合成功とし、ゲートG1を通過しようとしている人物が、予め登録されている人物であると判断する。このとき、照合するために検出する人物の特徴量は、既存の顔照合技術で用いられる特徴量であってもよく、いかなる方法によって算出される特徴量であってもよい。また、照合方法はいかなる方法であってもよい。 The collation unit 13 (collation means) performs collation processing on a person determined as a collation target in the captured image of the own gate G1 by the target determination unit 12. In other words, the collation unit 13 does not perform the collation process on the person excluded from the collation target by the target determination unit 12, even if the person appears in the captured image of the own gate G1. Here, the collation process is performed as follows, for example. First, the face area of the person to be collated is specified, and the feature amount required for collation is generated from the face area. Then, a collation score such as the degree of similarity between the generated feature amount and the feature amount of the person registered in the collation data storage unit 17 in advance is calculated, and it is determined whether or not the collation score is higher than the threshold value. If the collation score is higher than the threshold value, the collation is considered successful, and it is determined that the person who is about to pass through the gate G1 is a pre-registered person. At this time, the feature amount of the person detected for collation may be the feature amount used in the existing face matching technique, or may be the feature amount calculated by any method. Moreover, the collation method may be any method.

上記ゲート制御部14は、まず、照合部13による照合結果に基づいて、ゲートG1に対する人物の通過可否を判定する。具体的には、照合部13による照合が成功した人物に対しては通過可能と判定する。また、ゲート制御部14は、照合結果つまり照合の成否を表示装置D1に表示する機能を有する。さらに、ゲート制御部14は、ゲートG1の開閉を行うゲート制御機能も有しており、通過可能と判断した人物に対しては、ゲートG1を開くよう制御する。 The gate control unit 14 first determines whether or not a person can pass through the gate G1 based on the collation result by the collation unit 13. Specifically, it is determined that a person who has succeeded in collation by the collation unit 13 can pass through. Further, the gate control unit 14 has a function of displaying the collation result, that is, the success or failure of the collation on the display device D1. Further, the gate control unit 14 also has a gate control function for opening and closing the gate G1 and controls the person who is determined to be able to pass to open the gate G1.

なお、上記表示装置D1は、ゲートG1を通過しようとする人物が視認可能なよう、当該ゲートG1の通過前側領域に表示面を向けて配置されている。但し、表示装置D1は、必ずしも装備されていなくてもよい。 The display device D1 is arranged so that a person who is going to pass through the gate G1 can see the display device D1 so that the display surface faces the region on the front side of the gate G1. However, the display device D1 does not necessarily have to be equipped.

[動作]
次に、上述した顔認証システム10の動作を、図7のフローチャートを参照して説明する。ここでは、ゲートG1に対応する顔認証システム10の動作について説明し、撮像装置C1による撮影状況が図3乃至図6に示す状況である場合を一例に説明する。
[motion]
Next, the operation of the face recognition system 10 described above will be described with reference to the flowchart of FIG. Here, the operation of the face recognition system 10 corresponding to the gate G1 will be described, and the case where the shooting situation by the image pickup apparatus C1 is the situation shown in FIGS. 3 to 6 will be described as an example.

ゲートG1に対応する撮像装置C1は、ゲートG1の通過前側領域の画像を撮影し続ける。そして、顔認証システム10は、撮影した撮影画像に対して、常に以下の処理を行う。 The image pickup apparatus C1 corresponding to the gate G1 continues to capture an image of the region before passing through the gate G1. Then, the face recognition system 10 always performs the following processing on the captured image.

まず、対象抽出部11が、撮影画像内から処理対象となる人物(対象)を抽出する(ステップS1)。そして、対象判定部12が、撮影画像の端領域に人物P20が位置している場合には、隣接ゲートG2に対応する顔認証システム20の撮像装置C2にて撮影された撮影画像を取得する(ステップS2)。このとき、隣接ゲートG2の撮影画像は、自ゲートG1の撮影画像の撮影と同一のタイミングで撮影されたものを取得する。 First, the target extraction unit 11 extracts a person (target) to be processed from the captured image (step S1). Then, when the person P20 is located in the edge region of the captured image, the target determination unit 12 acquires the captured image captured by the imaging device C2 of the face recognition system 20 corresponding to the adjacent gate G2 ( Step S2). At this time, the captured image of the adjacent gate G2 is acquired at the same timing as the captured image of the own gate G1.

続いて、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P20が、隣接ゲートG2の撮影画像の中央領域に映っているか否かを調べる(ステップS3)。そして、対象判定部12は、隣接ゲートG2の撮影画像の中央領域にいずれかの人物が映っている場合には、かかる人物が自ゲートG1の撮影画像の端領域に位置している人物P20であると判定する。この場合、自ゲートG1の顔認証システム10では、端領域に位置する人物P20を照合対象から除外すると判定する。 Subsequently, the target determination unit 12 examines whether or not the person P20 located in the edge region of the captured image of the own gate G1 is reflected in the central region of the captured image of the adjacent gate G2 (step S3). Then, when any person is reflected in the central region of the captured image of the adjacent gate G2, the target determination unit 12 is a person P20 in which such a person is located in the edge region of the captured image of the own gate G1. Judge that there is. In this case, the face recognition system 10 of the own gate G1 determines that the person P20 located in the edge region is excluded from the collation target.

例えば、図3の状況では、図4(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P20は、図4(b)に示す隣接ゲートG2の撮影画像の中央領域に位置するため、かかる人物P20は自ゲートG1の顔認証システム10による照合対象から除外する(ステップS3でYes)。また、図5の状況では、図6(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P12は、図6(b)に示す隣接ゲートG2の撮影画像の中央領域には位置していない。このため、かかる人物P12は自ゲートG1の顔認証システム10による照合対象から除外せず、照合対象とする(ステップS3でNo)。 For example, in the situation of FIG. 3, the person P20 located in the edge region of the captured image of the own gate G1 shown in FIG. 4A is located in the central region of the captured image of the adjacent gate G2 shown in FIG. 4B. Therefore, the person P20 is excluded from the verification target by the face recognition system 10 of the own gate G1 (Yes in step S3). Further, in the situation of FIG. 5, the person P12 located in the edge region of the captured image of the own gate G1 shown in FIG. 6A is located in the central region of the captured image of the adjacent gate G2 shown in FIG. 6B. Not done. Therefore, the person P12 is not excluded from the collation target by the face recognition system 10 of the own gate G1 but is a collation target (No in step S3).

続いて、照合部13が、対象判定部12により、自ゲートG1の撮影画像内で照合対象として判定された人物に対する照合処理を行う(ステップS4)。図3及び図4の例では、人物P10のみの照合処理を開始し、図5及び図6の例では、人物P10と人物P12の照合処理を開始する。照合処理は、まず、照合処理の対象となる人物の顔領域から照合に必要な特徴量を検出し、予め照合データ記憶部17に登録された人物の特徴量と照合を行い、照合スコアを取得する。そして、照合スコアがしきい値以上であるか否かを判定する。 Subsequently, the collation unit 13 performs a collation process on the person determined as the collation target in the captured image of the own gate G1 by the target determination unit 12 (step S4). In the examples of FIGS. 3 and 4, the collation process of only the person P10 is started, and in the examples of FIGS. 5 and 6, the collation process of the person P10 and the person P12 is started. In the collation process, first, the feature amount required for collation is detected from the face area of the person to be collated, and the feature amount of the person registered in the collation data storage unit 17 in advance is collated to obtain a collation score. To do. Then, it is determined whether or not the collation score is equal to or higher than the threshold value.

照合部による照合処理の結果、通行しようとしている人物の照合に成功すると(ステップS5でYes)、ゲート制御部14がゲートG1に対する人物の通過を許可し、ゲートG1を開くよう制御する(ステップS6)。 As a result of the collation process by the collation unit, when the collation of the person who is going to pass is successful (Yes in step S5), the gate control unit 14 permits the person to pass through the gate G1 and controls to open the gate G1 (step S6). ).

以上のように、本実施形態の顔認証システム10によると、隣接ゲートG2を通過しようとしている人物P20に対する照合処理を抑制でき、自ゲートG1を通過しようとする人物P10,P12を適切に照合処理することができる。例えば、図3及び図4の例では、自ゲートG1を通過しようとしている人物P10を照合処理するが、隣接ゲートG2を通過しようとしている人物P20の照合処理は行われない。また、図5及び図6の例では、撮影画像の端領域に映っている人物P12であっても、自ゲートG1を通過しようとしているため、適切に照合処理が行われることとなる。その結果、他のゲートを通過しようとする人物の誤認識を抑制することができる。 As described above, according to the face recognition system 10 of the present embodiment, the collation processing for the person P20 trying to pass through the adjacent gate G2 can be suppressed, and the matching processing for the persons P10 and P12 trying to pass through the own gate G1 can be appropriately performed. can do. For example, in the examples of FIGS. 3 and 4, the person P10 trying to pass through the own gate G1 is collated, but the person P20 trying to pass the adjacent gate G2 is not collated. Further, in the examples of FIGS. 5 and 6, even the person P12 reflected in the edge region of the captured image is about to pass through the own gate G1, so that the collation process is appropriately performed. As a result, it is possible to suppress erroneous recognition of a person who tries to pass through another gate.

なお、上記では、自ゲートG1の撮影画像に対して隣接ゲートG2の撮影画像を比較しているが、隣接ゲートG2の撮影画像に限らず、他のゲート(例えばゲートG3)の撮影画像を比較してもよい。また、上記では、自ゲートG1の撮影画像の端領域と、隣接ゲートG2の中央領域と、を比較しているが、比較する領域は上述した領域同士であることに限定されない。異なるゲートにおける撮影画像同士のいかなる領域間を比較してもよい。 In the above, the captured image of the adjacent gate G2 is compared with the captured image of the own gate G1, but the captured image of another gate (for example, the gate G3) is compared not only with the captured image of the adjacent gate G2. You may. Further, in the above, the edge region of the captured image of the own gate G1 and the central region of the adjacent gate G2 are compared, but the regions to be compared are not limited to the above-mentioned regions. Any region of captured images at different gates may be compared.

また、上記では、自ゲートG1に対応する顔認証システム10が、隣接ゲートG2の撮影画像を取得して、人物が照合対象であるか否かを判定しているが、かかる判定処理は、隣接ゲートG2の顔認証システムが行ってもよい。つまり、自ゲートG1の顔認証システム10が撮影画像を隣接ゲートG2の顔認証システム20に提供し、当該隣接ゲートG2の顔認証システム20が判定結果を自ゲートG1の顔認証システム10に返してもよい。さらには、かかる判定処理を他の情報処理装置が行ってもよい。 Further, in the above, the face recognition system 10 corresponding to the own gate G1 acquires the captured image of the adjacent gate G2 and determines whether or not the person is the collation target. The face recognition system of the gate G2 may perform it. That is, the face recognition system 10 of the own gate G1 provides the captured image to the face recognition system 20 of the adjacent gate G2, and the face recognition system 20 of the adjacent gate G2 returns the determination result to the face recognition system 10 of the own gate G1. May be good. Further, another information processing device may perform such a determination process.

また、顔認証システム10は、上述したように、隣接ゲートG2の顔認証システム20に対して、当該隣接ゲートG2における撮影画像の中央領域に人物が映っているか否かを問い合わせ、その応答結果に応じて、人物が照合対象であるか否かを判定してもよい。この場合、隣接するゲートG2の撮影画像の中央領域にいずれかの人物が映っている通知を受けた場合には、自ゲートG1の撮影画像の端領域に位置している人物を照合対象から除外すると判定する。一方、隣接するゲートG2の撮影画像の中央領域にいずれの人物も映っていないという通知を受けた場合には、自ゲートG1の撮影画像の端領域に位置する人物を照合対象とすると判定する。 Further, as described above, the face recognition system 10 inquires of the face recognition system 20 of the adjacent gate G2 whether or not a person is reflected in the central region of the photographed image at the adjacent gate G2, and the response result is obtained. Depending on the situation, it may be determined whether or not the person is the collation target. In this case, when a notification is received that any person is shown in the central area of the captured image of the adjacent gate G2, the person located in the edge region of the captured image of the own gate G1 is excluded from the collation target. Then it is determined. On the other hand, when receiving a notification that no person is shown in the central region of the captured image of the adjacent gate G2, it is determined that the person located in the edge region of the captured image of the own gate G1 is to be collated.

また、上記では、ゲートG1を通過しようとしている対象が人物である場合を例示したが、人物に限らずいかなる物体であってもよい。例えば、荷物といった物体であってもよい。 Further, in the above, the case where the object passing through the gate G1 is a person is illustrated, but the object is not limited to the person and may be any object. For example, it may be an object such as luggage.

<実施形態2>
次に、本発明の第2の実施形態を、図8乃至図12を参照して説明する。図8乃至図12は、顔認証システムの処理動作を説明するための図である。特に、図12は、顔認証システムの動作を示すフローチャートである。
<Embodiment 2>
Next, a second embodiment of the present invention will be described with reference to FIGS. 8 to 12. 8 to 12 are diagrams for explaining the processing operation of the face recognition system. In particular, FIG. 12 is a flowchart showing the operation of the face recognition system.

本実施形態における顔認証システム10は、上述した実施形態1におけるものと同様の構成であるが、自ゲートG1の撮影画像に映る人物を照合対象とするか否かの判定処理が異なる。以下、主に実施形態1とは異なる構成について詳述する。 The face recognition system 10 in the present embodiment has the same configuration as that in the above-described first embodiment, but the determination process for determining whether or not the person reflected in the captured image of the own gate G1 is to be collated is different. Hereinafter, the configuration different from that of the first embodiment will be described in detail.

本実施形態における上記対象判定部12は、対象抽出部11で自ゲートG1の撮影画像の端領域から人物P20を抽出すると(ステップS11)、かかる人物P20と同一人物が、他のゲートG2の撮影画像の中央領域に位置するか否かを判定する。図8及び図10の例では、対象判定部12は、自ゲートG1に対応する撮影画像の右側の端領域に人物P20が映っているため、ゲートG1の右側に隣接するゲートG2の撮像装置C2にて撮影された撮影画像を取得する(ステップS12)。具体的には、対象判定部12は、通信部16を介して、隣接ゲートG2の顔認証システム20と通信して、ゲートG1で撮影画像が撮影された同一のタイミング(例えば、同一時刻)でゲートG2で撮影された撮影画像を取得する。なお、各ゲートG1,G2,G3にそれぞれ対応する顔認証システム(撮像装置C1,C2,C3)の位置関係は、予め各システムに登録されていることとする。 When the target determination unit 12 in the present embodiment extracts the person P20 from the edge region of the captured image of the own gate G1 by the target extraction unit 11 (step S11), the same person as the person P20 photographs the other gate G2. Determine if it is located in the central region of the image. In the examples of FIGS. 8 and 10, since the target determination unit 12 shows the person P20 in the right end region of the captured image corresponding to the own gate G1, the image pickup device C2 of the gate G2 adjacent to the right side of the gate G1. Acquire the photographed image taken in (step S12). Specifically, the target determination unit 12 communicates with the face recognition system 20 of the adjacent gate G2 via the communication unit 16 at the same timing (for example, at the same time) when the captured image is captured at the gate G1. The photographed image taken by the gate G2 is acquired. It is assumed that the positional relationship of the face recognition systems (imaging devices C1, C2, C3) corresponding to each gate G1, G2, G3 is registered in each system in advance.

そして、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P20と、隣接ゲートG2の撮影画像の中央領域(第二領域)に位置している人物P20と、の同一性を判別する。本実施形態では、まず、それぞれの人物の顔領域を特定し、当該顔領域から照合に必要な特徴量を検出する(ステップS13)。そして、両人物の特徴量から、両人物が同一人物であるか否かを判定する(ステップS14)。なお、人物が一致するか否かを判定する処理は、後述する照合処理と比較して精度の低い処理であってもよい。例えば、人物の一部の部位の特徴量のみを検出したり、かかる特徴量から性別や年代を検出し、これらの情報から同一性を判別してもよい。但し、人物の同一性を判別する処理は、いかなる処理であってもよい。 Then, the target determination unit 12 includes a person P20 located in the edge region of the captured image of the own gate G1 and a person P20 located in the central region (second region) of the captured image of the adjacent gate G2. Determine the identity. In the present embodiment, first, the face area of each person is specified, and the feature amount required for collation is detected from the face area (step S13). Then, it is determined whether or not both persons are the same person from the feature amounts of both persons (step S14). The process of determining whether or not the persons match may be a process having lower accuracy than the collation process described later. For example, only the feature amount of a part of a person may be detected, or the gender or age may be detected from the feature amount, and the identity may be determined from this information. However, the process of determining the identity of a person may be any process.

そして、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P20と同一人物が、隣接ゲートG2の撮影画像の中央領域に位置していると判定した場合には、かかる人物P20は隣接ゲートG2に向かう人物であると判定する(ステップS15でYes)。この場合、自ゲートG1の顔認証システム10では、端領域に位置する人物P20を照合対象から除外すると判定する。一方で、対象判定部12は、自ゲートG1の撮影画像の端領域に位置している人物P12と同一人物が、隣接ゲートG2の撮影画像の中央領域に位置していないと判定した場合には、かかる人物P12は自ゲートG1に向かう人物であると判定する(ステップS15でNo)。この場合、自ゲートG1の顔認証システム10では、端領域に位置する人物P12を照合対象であると判定する。なお、自ゲートG1の撮影画像の端領域(第一領域)と隣接ゲートG2の撮影画像の中央領域(第二領域)とは、撮影画像同士を比較すると相互に異なる領域であるが、実空間においては相互に重複する領域である。 Then, when the target determination unit 12 determines that the same person as the person P20 located in the edge region of the captured image of the own gate G1 is located in the central region of the captured image of the adjacent gate G2, It is determined that the person P20 is a person heading for the adjacent gate G2 (Yes in step S15). In this case, the face recognition system 10 of the own gate G1 determines that the person P20 located in the edge region is excluded from the collation target. On the other hand, when the target determination unit 12 determines that the same person as the person P12 located in the edge region of the captured image of the own gate G1 is not located in the central region of the captured image of the adjacent gate G2. , It is determined that the person P12 is a person heading for the own gate G1 (No in step S15). In this case, the face recognition system 10 of the own gate G1 determines that the person P12 located in the end region is the collation target. The edge region (first region) of the captured image of the own gate G1 and the central region (second region) of the captured image of the adjacent gate G2 are regions that are different from each other when the captured images are compared, but in the real space. Is an area that overlaps with each other.

例えば、図8の状況では、図9(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P20と同一人物が、図9(b)に示す隣接ゲートG2の撮影画像の中央領域に位置するため、かかる人物P20は自ゲートG1の顔認証システム10による照合対象から除外される。つまり、自ゲートG1の顔認証システム10は、撮影画像の中央領域に位置する人物P10のみを照合対象とする。また、図10の状況では、図11(a)に示す自ゲートG1の撮影画像の端領域に位置する人物P12と同一人物が、図11(b)に示す隣接ゲートG2の撮影画像の中央領域には位置していない。このため、かかる人物P12は自ゲートG1の顔認証システム10による照合対象とされる。つまり、自ゲートG1の顔認証システム10は、撮影画像の中央領域に位置する人物P10と、端領域に位置する人物P12と、を照合対象とする。 For example, in the situation of FIG. 8, the same person as the person P20 located in the edge region of the captured image of the own gate G1 shown in FIG. 9A is the central region of the captured image of the adjacent gate G2 shown in FIG. 9B. The person P20 is excluded from the collation target by the face recognition system 10 of the own gate G1 because it is located at. That is, the face recognition system 10 of the own gate G1 targets only the person P10 located in the central region of the captured image as a collation target. Further, in the situation of FIG. 10, the same person as the person P12 located at the end region of the captured image of the own gate G1 shown in FIG. 11A is the central region of the captured image of the adjacent gate G2 shown in FIG. 11B. Not located in. Therefore, the person P12 is subject to collation by the face recognition system 10 of the own gate G1. That is, the face recognition system 10 of the own gate G1 collates the person P10 located in the central region of the captured image with the person P12 located in the edge region.

上記照合部13(照合手段)は、対象判定部12により、自ゲートG1の撮影画像内で照合対象として判定された人物に対する照合処理を行う(ステップS16)。換言すると、照合部13は、自ゲートG1の撮影画像内に映っていた人物であっても、対象判定部12で照合対象から除外された人物については照合処理を行わない。ここで、照合処理は、例えば以下のようにして行う。まず、照合処理の対象となる人物の顔領域を特定し、当該顔領域から照合に必要な特徴量を生成する。そして、生成した特徴量と、予め照合データ記憶部17に登録された人物の特徴量と、の類似度といった照合スコアを算出し、照合スコアがしきい値よりも高いか否か判定する。照合スコアがしきい値より高い場合には、照合成功とし、ゲートG1を通過しようとしている人物が、予め登録されている人物であると判定する。なお、照合方法はいかなる方法であってもよい。 The collation unit 13 (collation means) performs a collation process on a person determined as a collation target in the captured image of the own gate G1 by the target determination unit 12 (step S16). In other words, the collation unit 13 does not perform the collation process on the person excluded from the collation target by the target determination unit 12, even if the person appears in the captured image of the own gate G1. Here, the collation process is performed as follows, for example. First, the face area of the person to be collated is specified, and the feature amount required for collation is generated from the face area. Then, a collation score such as the degree of similarity between the generated feature amount and the feature amount of the person registered in the collation data storage unit 17 in advance is calculated, and it is determined whether or not the collation score is higher than the threshold value. If the collation score is higher than the threshold value, the collation is successful, and it is determined that the person who is about to pass through the gate G1 is a pre-registered person. The collation method may be any method.

上記ゲート制御部14は、照合部13による照合結果に基づいて、ゲートG1に対する人物の通過可否を判定する。具体的には、照合部13による照合が成功した人物に対しては通過可能と判定し(ステップS17)、ゲートG1を開くよう制御する(ステップS18)。 The gate control unit 14 determines whether or not a person can pass through the gate G1 based on the collation result by the collation unit 13. Specifically, it is determined that the person who has succeeded in collation by the collation unit 13 can pass through (step S17), and the gate G1 is controlled to be opened (step S18).

以上のように、本実施形態における顔認証システムでは、各ゲートに対応する撮影画像内の人物の特徴量を抽出して比較することで、各ゲートの撮影画像に同一の対象が重複して映っているか否かをより確実に判別することができる。そして、所定のゲートと他のゲートとで重複して映っている対象を照合処理から除外することができ、ゲートを通過しようとする対象の誤認識を抑制することができる。さらに、対象の重複を判断するために抽出した対象の特徴量を照合処理に利用することができ、処理の効率化を図ることができる。 As described above, in the face recognition system of the present embodiment, the same object is duplicated in the photographed image of each gate by extracting and comparing the feature amount of the person in the photographed image corresponding to each gate. It is possible to more reliably determine whether or not the image is present. Then, it is possible to exclude from the collation process an object that is duplicated between a predetermined gate and another gate, and it is possible to suppress erroneous recognition of an object that is about to pass through the gate. Further, the feature amount of the extracted object for determining the duplication of the object can be used for the collation process, and the efficiency of the process can be improved.

なお、上記では、ゲートG1を通過しようとしている対象が人物である場合を例示したが、人物に限らずいかなる物体であってもよい。例えば、荷物といった物体であってもよい。 In the above, the case where the object passing through the gate G1 is a person is illustrated, but the object is not limited to the person and may be any object. For example, it may be an object such as luggage.

<実施形態3>
次に、本発明の第3の実施形態を説明する。本実施形態における顔認証システム10は、基本的には、上述した実施形態1と同様に、撮影画像の端領域に映っている人物が自ゲートG1に向かっている人物であるか否かを判定する。つまり、自ゲートG1の撮影画像の端領域に映っている人物が、他のゲートG2に対応する顔認証システム20にて撮影された撮影画像の中央領域に映っているか否かに応じて、自ゲートG1に向かっている人物であるか判定する。但し、本実施形態では、かかる判定処理が以下のように異なる。以下、主に実施形態1とは異なる構成について詳述する。
<Embodiment 3>
Next, a third embodiment of the present invention will be described. The face recognition system 10 in the present embodiment basically determines whether or not the person reflected in the edge region of the captured image is the person heading toward the own gate G1 as in the above-described first embodiment. To do. That is, depending on whether or not the person reflected in the edge region of the captured image of the own gate G1 is reflected in the central region of the captured image captured by the face recognition system 20 corresponding to the other gate G2. It is determined whether the person is heading for the gate G1. However, in the present embodiment, the determination process is different as follows. Hereinafter, the configuration different from that of the first embodiment will be described in detail.

まず、本実施形態における対象抽出部11は、実施形態1と同様に、撮像装置C1から撮影画像を取得し、撮影画像内から処理対象となる人物を抽出する。このとき、対象抽出部11は、抽出した人物が位置する撮影画像内における領域も特定する。そして、本実施形態における対象抽出部11では、端領域に映っている人物の判定情報である特徴が基準値を超えているか否かを判定し、かかる判定結果に応じて、かかる人物が自ゲートG1に向かっている人物であるか否かの判定処理を行う。 First, the target extraction unit 11 in the present embodiment acquires a captured image from the image pickup apparatus C1 and extracts a person to be processed from the captured image, as in the first embodiment. At this time, the target extraction unit 11 also specifies an area in the captured image in which the extracted person is located. Then, the target extraction unit 11 in the present embodiment determines whether or not the feature, which is the determination information of the person reflected in the edge region, exceeds the reference value, and the person gates himself / herself according to the determination result. Performs determination processing as to whether or not the person is heading for G1.

一例として、対象抽出部11は、まず、撮影画像の端領域に位置している人物の顔領域の抽出を行う。人物の顔領域の抽出は、例えば、動く人物の全体像に対する位置や色などから判定して行う。そして、対象抽出部11は、判定情報である人物の特徴を、顔領域から検出する。本実施形態では、判定情報としての人物の特徴は、人物の両目の間の距離(目間距離)であることとする。 As an example, the target extraction unit 11 first extracts the face region of a person located in the edge region of the captured image. The extraction of the face area of a person is performed by, for example, determining from the position and color of the moving person with respect to the whole image. Then, the target extraction unit 11 detects the feature of the person, which is the determination information, from the face area. In the present embodiment, the characteristic of the person as the determination information is the distance between the eyes of the person (distance between the eyes).

そして、本実施形態における対象判定部12は、対象抽出部11で検出した判定情報である目間距離が、基準値を超えているか否かを調べる。ここで、本実施形態では、上記基準値は、自ゲートG1の撮影画像の端領域に映っている人物が、自ゲートG1のレーンR1に位置するか否かを判別することができる値に設定されている。例えば、上述した図10の状況では、自ゲートG1の撮影画像の端領域に映り、自ゲートG1に向かう人物P12の目間距離は、隣接ゲートG2の人物P20の目間距離よりも大きくなると考えられる。このことを考慮し、基準値は、自ゲートG1の撮影画像の端領域に映り、自ゲートG1に進む人物P12の目間距離と、隣接ゲートG2の人物P20の目間距離と、の間の値に設定される。 Then, the target determination unit 12 in the present embodiment examines whether or not the inter-eye distance, which is the determination information detected by the target extraction unit 11, exceeds the reference value. Here, in the present embodiment, the reference value is set to a value capable of determining whether or not the person reflected in the edge region of the captured image of the own gate G1 is located in the lane R1 of the own gate G1. Has been done. For example, in the situation of FIG. 10 described above, it is considered that the distance between the eyes of the person P12 who is reflected in the edge region of the captured image of the own gate G1 and heads toward the own gate G1 is larger than the distance between the eyes of the person P20 of the adjacent gate G2. Be done. In consideration of this, the reference value is reflected in the edge region of the captured image of the own gate G1 and is between the eye distance of the person P12 advancing to the own gate G1 and the eye distance of the person P20 of the adjacent gate G2. Set to a value.

そして、対象判定部12は、対象抽出部11で検出したゲートG1の撮影画像の端領域に映る人物の目間距離が、基準値を超えている場合には、かかる人物は自ゲートG1に向かう人物であると判定し、照合処理の対象とする。つまり、人物の目間距離が基準値を超えている場合には、隣接ゲートG2の撮影画像との比較を行わず、そのまま自ゲートG1に向かう人物として照合処理を行う。 Then, when the distance between the eyes of the person reflected in the edge region of the captured image of the gate G1 detected by the target extraction unit 11 exceeds the reference value, the target determination unit 12 heads for the own gate G1. It is determined that it is a person and is subject to collation processing. That is, when the distance between the eyes of a person exceeds the reference value, the collation process is performed as a person heading for the own gate G1 as it is without comparing with the captured image of the adjacent gate G2.

一方、対象判定部12は、対象抽出部11で検出した自ゲートG1の撮影画像の端領域に映る人物の目間距離が、基準値以下である場合には、かかる人物は隣接ゲートG2に向かう人物である可能性があるため、隣接ゲートG2の撮影画像との比較を行う。つまり、実施形態1で説明したように、隣接ゲートG2の撮影画像の中央領域にいずれかの人物が映っているか否かを調べる。隣接ゲートG2の撮影画像の中央領域に人物が映っている場合には、自ゲートG1の撮影画像の端領域に映る人物は隣接ゲートG2に向かう人物であると判定し、照合処理の対象から除外する。隣接ゲートG2の撮影画像の中央領域に人物が映っていない場合には、自ゲートG1の撮影画像の端領域に映る人物は、自ゲートG1に向かう人物であると判定し、照合処理の対象とする。 On the other hand, when the distance between the eyes of a person reflected in the edge region of the captured image of the own gate G1 detected by the target extraction unit 11 is equal to or less than the reference value, the target determination unit 12 heads for the adjacent gate G2. Since it may be a person, it is compared with the captured image of the adjacent gate G2. That is, as described in the first embodiment, it is examined whether or not any person is reflected in the central region of the captured image of the adjacent gate G2. When a person appears in the central area of the captured image of the adjacent gate G2, it is determined that the person reflected in the edge region of the captured image of the own gate G1 is a person heading for the adjacent gate G2, and the person is excluded from the collation process. To do. When a person is not reflected in the central area of the captured image of the adjacent gate G2, the person reflected in the edge region of the captured image of the own gate G1 is determined to be a person heading for the own gate G1 and is subject to collation processing. To do.

上記処理により、例えば、図10及び図11の例の場合には、まず自ゲートG1の撮影画像の端領域に人物P12が映るが、かかる人物P12が自ゲートG1の撮像装置C1に対する距離が近いため、人物P12の大きさを表す判定情報である目間距離が基準値よりも大きくなる。このため、かかる人物P12は自ゲートG1に向かう人物であると判定し、照合処理の対象とする。つまり、隣接ゲートG2に向かう人物P20が存在する場合であっても、自ゲートG1の人物P12を照合処理の対象とできる。 By the above processing, for example, in the case of the examples of FIGS. 10 and 11, the person P12 is first projected in the edge region of the captured image of the own gate G1, but the person P12 is close to the image pickup device C1 of the own gate G1. Therefore, the inter-eye distance, which is the determination information indicating the size of the person P12, becomes larger than the reference value. Therefore, it is determined that the person P12 is a person heading for the own gate G1 and is subject to the collation process. That is, even if there is a person P20 heading for the adjacent gate G2, the person P12 of the own gate G1 can be the target of the collation process.

一方で、例えば、図8及び図9の例の場合には、まず自ゲートG1の撮影画像の端領域に人物P20が映るが、かかる人物P20が自ゲートG1の撮像装置C1に対する距離が遠いため、人物P20の大きさを表す判定情報である目間距離が基準値以下となる。このため、かかる人物P20が隣接ゲートG2の撮影画像の中央領域に映っているか否かを調べる。この場合、隣接ゲートG2の撮影画像の中央領域に人物が映っているため、自ゲートG1の撮影画像の端領域に映る人物は隣接ゲートG2に向かう人物であると判定し、照合処理の対象から除外する。 On the other hand, for example, in the case of FIGS. 8 and 9, the person P20 first appears in the edge region of the captured image of the own gate G1, but the person P20 is far from the image pickup device C1 of the own gate G1. , The inter-eye distance, which is the determination information indicating the size of the person P20, is equal to or less than the reference value. Therefore, it is examined whether or not the person P20 is reflected in the central region of the captured image of the adjacent gate G2. In this case, since a person is reflected in the central region of the captured image of the adjacent gate G2, it is determined that the person reflected in the edge region of the captured image of the own gate G1 is a person heading for the adjacent gate G2, and the collation process is performed. exclude.

なお、上記では、自ゲートG1の撮影画像の端領域に映っている人物の判定情報が目間距離である場合を例示したが、判定情報としての人物の特徴は、人物の顔を構成する他の部位間の距離であってもよく、人物の他の部位の大きさを表す値であってもよい。但し、判定情報である人物の特徴は、必ずしも人物の部位の大きさを表す値に限定されない。 In the above, the case where the judgment information of the person reflected in the edge region of the captured image of the own gate G1 is the inter-eye distance is illustrated, but the characteristic of the person as the judgment information is that it constitutes the face of the person. It may be the distance between the parts of the person, or it may be a value representing the size of other parts of the person. However, the characteristic of the person, which is the judgment information, is not necessarily limited to the value indicating the size of the part of the person.

<実施形態4>
次に、本発明の第4の実施形態を、図13乃至図16を参照して説明する。図13は、本実施形態における顔認証システムの構成を示すブロック図であり、図14乃至図16は、顔認証システムの処理動作を説明するための図である。
<Embodiment 4>
Next, a fourth embodiment of the present invention will be described with reference to FIGS. 13 to 16. FIG. 13 is a block diagram showing the configuration of the face recognition system according to the present embodiment, and FIGS. 14 to 16 are diagrams for explaining the processing operation of the face recognition system.

本実施形態における顔認証システム10は、上述した実施形態1におけるものと同様の構成であるが、さらに、上記実施形態1,2で説明したように、隣接する各ゲートの撮影画像同士が重複し、同一人物が位置しているか否かを比較する領域である重複領域を設定する機能を有する。以下、主に実施形態1,2とは異なる構成について詳述する。 The face recognition system 10 in the present embodiment has the same configuration as that in the above-described first embodiment, but further, as described in the first and second embodiments, the captured images of the adjacent gates overlap each other. , Has a function of setting an overlapping area, which is an area for comparing whether or not the same person is located. Hereinafter, the configurations different from those of the first and second embodiments will be mainly described in detail.

図13に示すように、本実施形態における顔認証システム10は、演算装置がプログラムを実行することで構築された領域設定部15(領域設定手段)を備えている。領域設定部15は、まず、自ゲートG1の撮像装置C1から撮影画像を取得すると共に、隣接するゲートG2の撮像装置C2からも撮影画像を取得する。このとき、領域設定部15は、通信部16を介して隣接ゲートG2の顔認証システム20と通信して、ゲートG1で撮影画像が撮影された同一のタイミング(例えば、同一時刻)でゲートG2で撮影された撮影画像を取得する。 As shown in FIG. 13, the face recognition system 10 in the present embodiment includes an area setting unit 15 (area setting means) constructed by the arithmetic unit executing a program. First, the area setting unit 15 acquires a captured image from the image pickup device C1 of the own gate G1 and also acquires a captured image from the image pickup device C2 of the adjacent gate G2. At this time, the area setting unit 15 communicates with the face recognition system 20 of the adjacent gate G2 via the communication unit 16 and at the gate G2 at the same timing (for example, at the same time) when the captured image is taken at the gate G1. Acquire the captured image.

続いて、領域設定部15は、取得したゲートG1の撮影画像とゲートG2の撮影画像とから人物を抽出する。人物の抽出は、例えば、動く物体を抽出したり、物体の全体形状や全体像に対する特徴的な形状部位の位置や色の位置などから判定して行う。そして、領域設定部15は、両撮影画像に同一人物が映っているか否かを調べる。このとき、領域設定部15は、各撮影画像に映る各人物の顔領域を特定し、当該顔領域から照合に必要な特徴量を検出する。そして、各人物の特徴量から、各人物が同一人物であるか否かを調べる。なお、人物の同一性を判別する処理は、いかなる処理であってもよい。 Subsequently, the area setting unit 15 extracts a person from the acquired captured image of the gate G1 and the captured image of the gate G2. The person is extracted, for example, by extracting a moving object, or determining from the overall shape of the object, the position of a characteristic shape portion with respect to the overall image, the position of a color, or the like. Then, the area setting unit 15 checks whether or not the same person is shown in both captured images. At this time, the area setting unit 15 identifies the face area of each person reflected in each captured image, and detects the feature amount required for collation from the face area. Then, it is examined whether or not each person is the same person from the feature amount of each person. The process of determining the identity of a person may be any process.

そして、領域設定部15は、各撮影画像に同一人物が映っていると判定した場合には、当該各撮影画像内で同一人物がそれぞれ映っている箇所の周囲の領域を、当該各撮影画像内で相互に重複する重複領域として設定する。このとき、設定する重複領域は、同一人物が検出された箇所を撮影画像の上下端まで広げると共に、かかる領域をさらに撮影画像の水平方向に所定範囲だけ広げた領域とする。特に、自ゲートG1の撮影画像については、同一人物の抽出箇所が撮影画像の水平方向における一方の端付近に位置することが考えられるが、人物の抽出箇所に対して少しだけ水平方向に広げた範囲を重複領域(第一領域)とし、さらに、反対側の端付近にも同じ広さの重複領域(第一領域)を設定する。一方、隣接ゲートG2の撮影画像については、同一人物の抽出箇所が撮影画像の水平方向における中央付近に位置することが考えられるが、人物の抽出箇所に対して上記端領域の重複領域よりも広く水平方向に広げた範囲を重複領域(第二領域)として設定する。つまり、本実施形態では、上述した端領域よりも中央領域を広く設定する。但し、端領域や中央領域の広さの設定方法は、上述した方法に限定されない。 Then, when the area setting unit 15 determines that the same person is reflected in each photographed image, the area setting unit 15 sets the area around the portion in which the same person is reflected in each photographed image in each photographed image. Set as overlapping areas that overlap each other with. At this time, the overlapping area to be set is an area in which the portion where the same person is detected is expanded to the upper and lower ends of the captured image, and the area is further expanded in the horizontal direction of the captured image by a predetermined range. In particular, with respect to the photographed image of the own gate G1, it is conceivable that the extraction point of the same person is located near one end in the horizontal direction of the photographed image, but it is slightly widened in the horizontal direction with respect to the extraction point of the person. The range is set as an overlapping area (first area), and an overlapping area (first area) having the same width is set near the opposite end. On the other hand, with respect to the captured image of the adjacent gate G2, it is conceivable that the extraction location of the same person is located near the center in the horizontal direction of the captured image, but it is wider than the overlapping region of the end region with respect to the extraction location of the person. The range expanded in the horizontal direction is set as the overlapping area (second area). That is, in the present embodiment, the central region is set wider than the above-mentioned end region. However, the method of setting the size of the edge region and the center region is not limited to the above-mentioned method.

一例として、図14に示す状況においては、まず、自ゲートG1の撮像装置C1から符号C1a線で挟まれた撮影領域の撮影画像が取得でき、隣接ゲートG2の撮像装置C2から符号C2a線で挟まれた撮影領域の撮影画像が取得できる。これら図15(a),(b)の両撮影画像から同一人物の抽出を行うことで、自ゲートG1の撮影画像の端領域と、隣接ゲートG2の撮影画像の中央領域とに、同一人物P20を検出したとする。この場合、自ゲートG1の撮影画像については、図16(a)に示すように、抽出した人物P20の箇所を上下方向に広げた領域(斜線領域)をさらに少しだけ水平方向に広げた符号C1a,C1bで挟まれた領域を重複領域として設定する。また、水平方向における反対側の端領域にも符号C1a,C1bで挟まれた重複領域を設定する。一方で、隣接ゲートG2の撮影画像については、図16(b)に示すように、抽出した人物P20の箇所を上下方向に広げた領域(斜線領域)をさらに広く水平方向に広げた符号C2bで挟まれた領域を重複領域として設定する。 As an example, in the situation shown in FIG. 14, first, a photographed image of a photographing area sandwiched by the code C1a line can be acquired from the image pickup device C1 of the own gate G1 and sandwiched by the code C2a line from the image pickup device C2 of the adjacent gate G2. The captured image of the captured shooting area can be acquired. By extracting the same person from both the captured images of FIGS. 15 (a) and 15 (b), the same person P20 is placed in the edge region of the captured image of the own gate G1 and the central region of the captured image of the adjacent gate G2. Is detected. In this case, with respect to the captured image of the own gate G1, as shown in FIG. 16A, the reference numeral C1a in which the extracted person P20 portion is expanded in the vertical direction (diagonal line region) is further expanded in the horizontal direction. , The area sandwiched between C1b is set as an overlapping area. Further, an overlapping region sandwiched by the symbols C1a and C1b is also set in the end region on the opposite side in the horizontal direction. On the other hand, with respect to the captured image of the adjacent gate G2, as shown in FIG. 16B, the region (diagonal line region) in which the extracted person P20 is expanded in the vertical direction is further widened in the horizontal direction with the reference numeral C2b. The sandwiched area is set as an overlapping area.

以上のようにして、本実施形態では、ゲートG1に対応する顔認証システム10の領域設定部15が、自ゲートG1の撮影画像の端領域と、隣接ゲートG2の撮影画像の中央領域と、を重複領域として自動的に設定する。そして、顔認証システム10が、上述した実施形態1,2で説明したように、設定した自ゲートG1の撮影画像の端領域と隣接ゲートG2の撮影画像の中央領域とから人物を抽出したり、両領域に同一人物が存在するか否かを判定する、といった処理を行う。 As described above, in the present embodiment, the area setting unit 15 of the face recognition system 10 corresponding to the gate G1 sets the edge area of the captured image of the own gate G1 and the central region of the captured image of the adjacent gate G2. Automatically set as an overlapping area. Then, as described in the first and second embodiments described above, the face recognition system 10 extracts a person from the set edge region of the captured image of the own gate G1 and the central region of the captured image of the adjacent gate G2. A process such as determining whether or not the same person exists in both areas is performed.

上述した実施形態4の顔認証システム10によると、所定のゲートに対応する撮影画像内の人物と、他のゲートに対応する撮影画像内の人物と、に基づいて、各ゲートに対応する各撮影画像同士で重複する領域を自動的に設定することができる。その結果、相互に隣接するゲートG1,G2の撮像装置C1,C2間における重複領域を適切に設定することができ、照合システムの利用の容易化と、より高精度に誤認識を抑制することができる。 According to the face recognition system 10 of the fourth embodiment described above, each shooting corresponding to each gate is based on a person in a shot image corresponding to a predetermined gate and a person in a shot image corresponding to another gate. Areas that overlap between images can be set automatically. As a result, the overlapping region between the imaging devices C1 and C2 of the gates G1 and G2 adjacent to each other can be appropriately set, the collation system can be easily used, and erroneous recognition can be suppressed with higher accuracy. it can.

なお、上記では、ゲートG1,G2を通過しようとする人物の画像を用いて重複範囲を設定する場合を例示したが、人物に限らず撮影画像の映るいかなる物体を用いて重複範囲を設定してもよい。例えば、各撮影画像にそれぞれ映る物品や風景の同一性を判定して、判定結果に基づいて各撮影画像の重複範囲を設定してもよい。 In the above, the case where the overlap range is set by using the image of the person who is going to pass through the gates G1 and G2 is illustrated, but the overlap range is set by using any object in which the photographed image is reflected, not limited to the person. May be good. For example, the identity of the article or landscape reflected in each photographed image may be determined, and the overlapping range of each photographed image may be set based on the determination result.

<実施形態5>
次に、本発明の第5の実施形態を、図17及び図18を参照して説明する。図17は、実施形態5における照合システムの構成を示すブロック図である。図18は、実施形態5における情報処理装置の構成を示すブロック図である。なお、本実施形態では、実施形態1乃至4で説明した顔認証システムの構成の概略を示している。
<Embodiment 5>
Next, a fifth embodiment of the present invention will be described with reference to FIGS. 17 and 18. FIG. 17 is a block diagram showing the configuration of the collation system according to the fifth embodiment. FIG. 18 is a block diagram showing the configuration of the information processing apparatus according to the fifth embodiment. In this embodiment, the outline of the configuration of the face recognition system described in the first to fourth embodiments is shown.

図17に示すように、本実施形態おける照合システム100は、
並列に設置された各ゲートに対する各通過前側領域の撮影画像をそれぞれ取得する撮像手段110と、
ゲート毎に、各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、撮影画像に含まれる対象と、の照合処理を行う照合手段120と、
を備える。
そして、上記照合手段120は、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、照合処理を行う、
という構成をとる。
As shown in FIG. 17, the collation system 100 in this embodiment is
An imaging means 110 for acquiring captured images of each passage front region for each gate installed in parallel, and
For each gate, a collation means 120 that performs collation processing between a pre-registered target and a target included in the captured image for each of the captured images in the front region of passage.
To be equipped.
Then, the collation means 120 performs collation processing based on the target in the captured image corresponding to the predetermined gate and the target in the captured image corresponding to the other gate.
It takes the configuration.

また、本実施形態では、図17に示す照合システム100から撮像手段110を取り除いてもよい。
つまり、本実施形態における情報処理装置200は、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、撮影画像に含まれる対象と、の照合処理を行う照合手段210を備える。
そして、上記照合手段210は、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、照合処理を行う、
という構成をとる。
Further, in the present embodiment, the imaging means 110 may be removed from the collation system 100 shown in FIG.
That is, the information processing device 200 in this embodiment is
A collation means 210 for collating a pre-registered object and an object included in the photographed image is provided for each of the photographed images of each passage front region for each of the gates installed in parallel.
Then, the collation means 210 performs collation processing based on the target in the captured image corresponding to the predetermined gate and the target in the captured image corresponding to the other gate.
It takes the configuration.

なお、上述した照合手段120,210は、演算装置がプログラムを実行することで構築されるものであってもよく、電子回路で構築されるものであってもよい。 The collation means 120 and 210 described above may be constructed by the arithmetic unit executing a program, or may be constructed by an electronic circuit.

そして、上記構成の照合システム100あるいは情報処理装置200によると、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、撮影画像に含まれる対象と、の照合処理を行う照合方法が提供される。
そして、かかる照合方法において、さらに、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、照合処理を行う、
という構成をとる。
Then, according to the collation system 100 or the information processing device 200 having the above configuration,
Provided is a collation method for collating a pre-registered object and an object included in the photographed image for each of the photographed images of each passage front region for each of the gates installed in parallel.
Then, in such a collation method, the collation process is further performed based on the object in the captured image corresponding to the predetermined gate and the object in the captured image corresponding to the other gate.
It takes the configuration.

上述した照合システム100あるいは情報処理装置200によると、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、対象の照合処理を行う。このため、所定のゲートに対応する撮影画像に他のゲートを通過しようとする対象が映っている場合であっても、かかる対象が他のゲートを通過しようとする対象であると判断することができ、所定のゲートにおける照合処理から除外することができる。その結果、ゲートを通過しようとする対象の誤認識を抑制することができる。 According to the collation system 100 or the information processing apparatus 200 described above, the collation processing of the objects is performed based on the objects in the captured image corresponding to the predetermined gate and the objects in the captured images corresponding to the other gates. Therefore, even if the captured image corresponding to the predetermined gate shows an object that is going to pass through another gate, it can be determined that the object is an object that is going to pass through another gate. It can be excluded from the collation process at a given gate. As a result, it is possible to suppress erroneous recognition of an object trying to pass through the gate.

<付記>
上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における照合システム、情報処理装置、プログラム、照合方法の構成の概略を説明する。但し、本発明は、以下の構成に限定されない。
<Additional notes>
Part or all of the above embodiments may also be described as in the appendix below. Hereinafter, the outline of the configuration of the collation system, the information processing device, the program, and the collation method in the present invention will be described. However, the present invention is not limited to the following configurations.

(付記1)
並列に設置された各ゲートに対する各通過前側領域の撮影画像をそれぞれ取得する撮像手段と、
前記ゲート毎に、前記各通過前側領域の前記撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段と、
を備え、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
照合システム。
(Appendix 1)
An imaging means for acquiring captured images of each passage front region for each gate installed in parallel, and
For each of the gates, a collation means for collating a pre-registered target and an object included in the captured image for each of the captured images in each passage front region.
With
The collation means performs the collation process based on an object in the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
Collation system.

上記構成によると、照合システムは、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、対象の照合処理を行う。このため、所定のゲートに対応する撮影画像に他のゲートを通過しようとする対象が映っている場合であっても、かかる対象が他のゲートを通過しようとする対象であると判断することができ、所定のゲートにおける照合処理から除外することができる。その結果、ゲートを通過しようとする対象の誤認識を抑制することができる。 According to the above configuration, the collation system performs collation processing of the objects based on the objects in the captured image corresponding to the predetermined gate and the objects in the captured images corresponding to the other gates. Therefore, even if the captured image corresponding to the predetermined gate shows an object that is going to pass through another gate, it can be determined that the object is an object that is going to pass through another gate. It can be excluded from the collation process at a given gate. As a result, it is possible to suppress erroneous recognition of an object trying to pass through the gate.

(付記2)
付記1に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
照合システム。
(Appendix 2)
The collation system described in Appendix 1
The collation means performs the collation process based on an object located in a predetermined region of the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
Collation system.

(付記3)
付記2に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の第一領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の第二領域に位置する対象と、に基づいて、前記照合処理を行う、
照合システム。
(Appendix 3)
The collation system described in Appendix 2,
The collation means is based on an object located in the first region of the captured image corresponding to the predetermined gate and an object located in the second region of the captured image corresponding to the other gate. Perform the collation process.
Collation system.

(付記4)
付記3に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域にも位置している場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
照合システム。
(Appendix 4)
The collation system described in Appendix 3
When the object located in the first region of the captured image corresponding to the predetermined gate is also located in the second region of the captured image corresponding to the other gate, the collation means is used. An object located in the first region of the captured image corresponding to the predetermined gate is excluded from the collation process.
Collation system.

(付記5)
付記4に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域である水平方向における端領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域である水平方向における中央領域に位置している場合に、前記所定のゲートに対応する前記撮影画像の水平方向における端領域に位置する対象を、前記照合処理から除外する、
照合システム。
(Appendix 5)
The collation system described in Appendix 4,
In the collation means, the target located at the end region in the horizontal direction, which is the first region of the captured image corresponding to the predetermined gate, is the second region of the captured image corresponding to the other gate. When the target is located in the central region in the horizontal direction, the target located in the edge region in the horizontal direction of the captured image corresponding to the predetermined gate is excluded from the collation process.
Collation system.

(付記6)
付記4又は5に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、当該対象が前記第一領域に位置するタイミングで前記他のゲートに対応する前記撮影画像の前記第二領域に位置している場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
照合システム。
(Appendix 6)
The collation system according to Appendix 4 or 5.
In the collation means, the target located in the first region of the captured image corresponding to the predetermined gate is the target of the captured image corresponding to the other gate at the timing when the target is located in the first region. When it is located in the second region, the target located in the first region of the captured image corresponding to the predetermined gate is excluded from the collation process.
Collation system.

上記構成によると、照合システムは、所定のゲートに対応する撮影画像内の所定領域に映っている対象を、他のゲートに対応する撮影画像内に映っている対象と比較することで、重複して映る対象を照合処理から除外し、単独で映る対象のみの照合処理を行う。特に、所定のゲートに対応する撮影画像内の水平方向の端領域(第一領域)に位置する対象が、他のゲートに対応する撮影画像内の水平方向の中央領域(第二領域)に映っている場合には、その対象の照合処理は行わない。一方で、所定のゲートに対応する撮影画像内の水平方向の端領域(第一領域)に位置する対象が、他のゲートに対応する撮影画像内の水平方向の中央領域(第二領域)に映っていない場合には、その対象の照合処理を行う。その結果、所定のゲートに対応する撮影画像と他のゲートに対応する撮影画像とに対象が重複して映っている場合には、照合処理から除外することができ、ゲートを通過しようとする対象の誤認識を抑制することができる。 According to the above configuration, the collation system duplicates by comparing the object reflected in the predetermined area in the captured image corresponding to the predetermined gate with the object reflected in the captured image corresponding to the other gate. Exclude the object to be reflected from the collation process, and perform the collation process only to the object to be reflected independently. In particular, an object located in the horizontal edge region (first region) in the captured image corresponding to a predetermined gate is reflected in the horizontal central region (second region) in the captured image corresponding to another gate. If so, the matching process of the target is not performed. On the other hand, the target located in the horizontal end region (first region) in the captured image corresponding to the predetermined gate is located in the horizontal central region (second region) in the captured image corresponding to the other gate. If it is not shown, the target is collated. As a result, when the target is duplicated in the shot image corresponding to the predetermined gate and the shot image corresponding to the other gate, it can be excluded from the collation process and the target to pass through the gate. It is possible to suppress the misrecognition of.

(付記7)
付記4又は5に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象の特徴量と、前記他のゲートに対応する前記撮影画像の前記第二領域に位置する対象の特徴量と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域に位置している判断した場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
照合システム。
(Appendix 7)
The collation system according to Appendix 4 or 5.
The collation means has a feature amount of an object located in the first region of the captured image corresponding to the predetermined gate and a feature of the object located in the second region of the captured image corresponding to the other gate. Based on the amount, it was determined that the object located in the first region of the captured image corresponding to the predetermined gate is located in the second region of the captured image corresponding to the other gate. In this case, the target located in the first region of the captured image corresponding to the predetermined gate is excluded from the collation process.
Collation system.

(付記8)
付記7に記載の照合システムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象である人物の顔を構成する部位の特徴量と、前記他のゲートに対応する前記撮影画像の前記第二領域に位置する対象である人物の顔を構成する部位の特徴量と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象が、前記他のゲートに対応する前記撮影画像の前記第二領域に位置していると判断した場合に、前記所定のゲートに対応する前記撮影画像の前記第一領域に位置する対象を、前記照合処理から除外する、
照合システム。
(Appendix 8)
The collation system described in Appendix 7
The collation means includes a feature amount of a portion constituting the face of a person who is an object located in the first region of the captured image corresponding to the predetermined gate, and the photographed image corresponding to the other gate. Based on the feature amount of the portion constituting the face of the person who is the target located in the second region, the target located in the first region of the captured image corresponding to the predetermined gate is the other gate. When it is determined that the image is located in the second region of the captured image corresponding to the above, the target located in the first region of the captured image corresponding to the predetermined gate is excluded from the collation process.
Collation system.

上記構成によると、照合システムは、各ゲートに対応する撮影画像内の対象の特徴量を抽出して比較することで、各ゲートの撮影画像に同一の対象が重複して映っているかをより確実に判別することができる。そして、所定のゲートと他のゲートとで重複して映っている対象を照合処理から除外することができ、ゲートを通過しようとする対象の誤認識を抑制することができる。さらに、対象の重複を判断するために抽出した対象の特徴量を照合処理に利用することができ、処理の効率化を図ることができる。 According to the above configuration, the collation system extracts and compares the feature quantities of the objects in the captured image corresponding to each gate, so that it is more certain that the same object is duplicated in the captured image of each gate. Can be determined. Then, it is possible to exclude from the collation process an object that is duplicated between a predetermined gate and another gate, and it is possible to suppress erroneous recognition of an object that is about to pass through the gate. Further, the feature amount of the extracted object for determining the duplication of the object can be used for the collation process, and the efficiency of the process can be improved.

(付記9)
付記3乃至8のいずれかに記載の照合システムであって、
前記所定のゲートに対応する前記撮影画像内の対象と、当該対象が前記所定のゲートに対応する前記撮影画像内に位置するタイミングで取得された前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域と前記他のゲートに対応する前記撮影画像の前記第二領域とを設定する領域設定手段を備えた、
照合システム。
(Appendix 9)
The collation system according to any one of Appendix 3 to 8.
An object in the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate acquired at the timing when the target is located in the captured image corresponding to the predetermined gate. Based on the above, a region setting means for setting the first region of the captured image corresponding to the predetermined gate and the second region of the captured image corresponding to the other gate is provided.
Collation system.

(付記10)
付記9に記載の照合システムであって、
前記領域設定手段は、前記所定のゲートに対応する前記撮影画像内の対象と、当該対象が前記所定のゲートに対応する前記撮影画像内に位置するタイミングで取得された前記他のゲートに対応する前記撮影画像内の対象と、が同一である場合に、前記所定のゲートに対応する前記撮影画像内の対象の位置と、前記他のゲートに対応する前記撮影画像内の対象の位置と、に基づいて、前記所定のゲートに対応する前記撮影画像内の対象の位置の周囲を前記第一領域として設定し、前記他のゲートに対応する前記撮影画像内の対象の位置の周囲を前記第二領域として設定する、
照合システム。
(Appendix 10)
The collation system described in Appendix 9
The area setting means corresponds to the target in the captured image corresponding to the predetermined gate and the other gate acquired at the timing when the target is located in the captured image corresponding to the predetermined gate. When the object in the captured image is the same, the position of the object in the captured image corresponding to the predetermined gate and the position of the object in the captured image corresponding to the other gate are set to. Based on this, the periphery of the target position in the captured image corresponding to the predetermined gate is set as the first region, and the periphery of the target position in the captured image corresponding to the other gate is the second. Set as an area,
Collation system.

上記構成によると、照合システムは、所定のゲートに対応する撮影画像内の対象と、他のゲートに対応する撮影画像内の対象と、に基づいて、各ゲートに対応する各撮影画像同士で重複する領域を自動的に設定することができる。その結果、照合システムの利用の容易化を図ることができると共に、高精度に誤認識を抑制することができる。 According to the above configuration, the collation system overlaps each captured image corresponding to each gate based on the target in the captured image corresponding to the predetermined gate and the object in the captured image corresponding to the other gate. The area to be used can be set automatically. As a result, it is possible to facilitate the use of the collation system and suppress erroneous recognition with high accuracy.

(付記11)
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を備え、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
情報処理装置。
(Appendix 11)
A collation means for performing collation processing between a pre-registered target and an target included in the captured image is provided for each of the captured images of each passage front region for each gate installed in parallel.
The collation means performs the collation process based on an object in the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
Information processing device.

(付記12)
付記11に記載の情報処理装置であって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
情報処理装置。
(Appendix 12)
The information processing device according to Appendix 11,
The collation means performs the collation process based on an object located in a predetermined region of the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
Information processing device.

(付記13)
情報処理装置に、
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う照合手段を実現させるためのプログラムであり、
前記照合手段は、所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
プログラム。
(Appendix 13)
For information processing equipment
A program for realizing a collation means for collating a pre-registered target and a target included in the captured image for each of the captured images in each passage front region for each gate installed in parallel. And
The collation means performs the collation process based on an object in the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
program.

(付記14)
付記13に記載のプログラムであって、
前記照合手段は、前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
プログラム。
(Appendix 14)
The program described in Appendix 13
The collation means performs the collation process based on an object located in a predetermined region of the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
program.

(付記15)
並列に設置された各ゲートに対する各通過前側領域の撮影画像のそれぞれに対して、予め登録された対象と、前記撮影画像に含まれる対象と、の照合処理を行う方法であり、
所定の前記ゲートに対応する前記撮影画像内の対象と、他の前記ゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
照合方法。
(Appendix 15)
This is a method of collating a pre-registered target with a target included in the captured image for each of the captured images of each passage front region for each gate installed in parallel.
The collation process is performed based on the object in the captured image corresponding to the predetermined gate and the object in the captured image corresponding to the other gate.
Collation method.

(付記16)
付記15に記載の照合方法であって、
前記所定のゲートに対応する前記撮影画像の所定領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記照合処理を行う、
照合方法。
(Appendix 16)
The collation method described in Appendix 15
The collation process is performed based on an object located in a predetermined region of the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate.
Collation method.

(付記17)
付記16に記載の照合方法であって、
前記所定のゲートに対応する前記撮影画像の第一領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の第二領域に位置する対象と、に基づいて、前記照合処理を行う、
照合方法。
(Appendix 17)
The collation method described in Appendix 16
The collation process is performed based on an object located in the first region of the captured image corresponding to the predetermined gate and an object located in the second region of the captured image corresponding to the other gate. ,
Collation method.

(付記18)
付記17に記載の照合方法であって、
前記所定のゲートに対応する前記撮影画像内の対象と、当該対象が前記所定のゲートに対応する前記撮影画像内に位置するタイミングで取得された前記他のゲートに対応する前記撮影画像内の対象と、に基づいて、前記所定のゲートに対応する前記撮影画像の前記第一領域と前記他のゲートに対応する前記撮影画像の前記第二領域とを設定し、
前記所定のゲートに対応する前記撮影画像の設定された前記第一領域に位置する対象と、前記他のゲートに対応する前記撮影画像内の設定された前記第二領域に位置する対象と、に基づいて、前記照合処理を行う、
照合方法。
(Appendix 18)
The collation method described in Appendix 17,
An object in the captured image corresponding to the predetermined gate and an object in the captured image corresponding to the other gate acquired at the timing when the target is located in the captured image corresponding to the predetermined gate. Based on the above, the first region of the captured image corresponding to the predetermined gate and the second region of the captured image corresponding to the other gate are set.
An object located in the first region in which the captured image corresponding to the predetermined gate is set, and an object located in the second region set in the captured image corresponding to the other gate. Based on this, the collation process is performed.
Collation method.

なお、上述したプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されている。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。 The above-mentioned program is stored in a storage device or recorded on a computer-readable recording medium. For example, the recording medium is a portable medium such as a flexible disk, an optical disk, a magneto-optical disk, and a semiconductor memory.

以上、上記実施形態等を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることができる。 Although the invention of the present application has been described above with reference to the above-described embodiments and the like, the present invention is not limited to the above-described embodiments. Various changes that can be understood by those skilled in the art can be made to the structure and details of the present invention within the scope of the present invention.

10 顔認証システム
11 対象抽出部
12 対象判定部
13 照合部
14 ゲート制御部
15 領域設定部
16 通信部
17 照合データ記憶部
20 顔認証システム
100 照合システム
110 撮像手段
120 照合手段
200 情報処理装置
210 照合手段
C1,C2,C3 撮像装置
D1 表示装置
G1,G2,G3 ゲート
10 Face recognition system 11 Target extraction unit 12 Target determination unit 13 Collation unit 14 Gate control unit 15 Area setting unit 16 Communication unit 17 Collation data storage unit 20 Face recognition system 100 Collation system 110 Imaging means 120 Collation means 200 Information processing device 210 Collation Means C1, C2, C3 Imaging device D1 Display device G1, G2, G3 Gate

Claims (16)

ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の撮像手段と、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の撮像手段と、
前記第1の撮影画像の第1のゲートに対する通過前側領域である第1の領域又は第2のゲートに対する通過前側領域である第2の領域に位置する対象と、前記第2の撮影画像内に位置する対象の有無と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
を備える照合システム。
A first imaging means for acquiring a first captured image, which is a captured image of the region before passing through the gate, and
A second imaging means for acquiring a second captured image which is a captured image of a region including at least a part of the front-passing region.
A target located in the second region which is passed through the anterior region to the first region or the second gate is passed through the anterior region to the first gate of the first captured image, in the second captured image A collation means that determines a collation target based on the presence or absence of a positioned target and collates the determined collation target with a pre-registered target.
Collation system with.
ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の撮像手段と、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の撮像手段と、
前記第1の撮影画像の水平方向における端領域である第一領域に位置する対象と、前記第2の撮影画像の中央領域である第二領域に位置する対象と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
を備える照合システム。
A first imaging means for acquiring a first captured image, which is a captured image of the region before passing through the gate, and
A second imaging means for acquiring a second captured image which is a captured image of a region including at least a part of the front-passing region.
The collation target is determined based on the target located in the first region, which is the horizontal edge region of the first captured image , and the target located in the second region, which is the central region of the second captured image. Then, a collation means for collating the determined collation target with the pre-registered target,
Collation system with.
請求項2に記載の照合システムであって、
前記照合手段は、前記第1の撮影画像の前記第一領域に位置する対象が、当該対象が前記第一領域に位置するタイミングで前記第2の撮影画像の前記第二領域に位置している場合に、前記第1の撮影画像の前記第一領域に位置する対象を、前記照合対象から除外する、照合システム。
The collation system according to claim 2.
In the collation means, the target located in the first region of the first captured image is located in the second region of the second captured image at the timing when the target is located in the first region. In this case, a collation system that excludes an object located in the first region of the first captured image from the collation target.
請求項3に記載の照合システムであって、
前記照合手段は、前記第1の撮影画像の前記第一領域に位置する対象の特徴量と、前記第2の撮影画像の前記第二領域に位置する対象の特徴量と、に基づいて、前記第1の撮影画像の前記第一領域に位置する対象が、前記第2の撮影画像の前記第二領域に位置していると判断した場合に、前記第1の撮影画像の前記第一領域に位置する対象を、前記照合対象から除外する、
照合システム。
The collation system according to claim 3.
The collation means is based on the feature amount of the object located in the first region of the first captured image and the feature amount of the object located in the second region of the second captured image. When it is determined that the target located in the first region of the first captured image is located in the second region of the second captured image, the target is located in the first region of the first captured image. Exclude the located target from the collation target,
Collation system.
請求項4に記載の照合システムであって、
前記照合手段は、前記第1の撮影画像の前記第一領域に位置する対象である人物の目間距離と、前記第2の撮影画像の前記第二領域に位置する対象である人物の目間距離と、に基づいて、前記第1の撮影画像の前記第一領域に位置する対象が、前記第2の撮影画像の前記第二領域に位置していると判断した場合に、前記第1の撮影画像の前記第一領域に位置する対象を、前記照合対象から除外する、
照合システム。
The collation system according to claim 4.
The collation means is the distance between the eyes of the target person located in the first region of the first captured image and the distance between the eyes of the target person located in the second region of the second captured image. When it is determined that the object located in the first region of the first captured image is located in the second region of the second captured image based on the distance, the first Exclude the target located in the first region of the captured image from the collation target.
Collation system.
請求項2乃至5のいずれかに記載の照合システムであって、
前記第1の撮影画像内の対象と、当該対象が前記第1の撮影画像内に位置するタイミングで取得された前記第2の撮影画像内の対象と、に基づいて、前記第1の撮影画像の前記第一領域と前記第2の撮影画像の前記第二領域とを設定する領域設定手段を備えた、
照合システム。
The collation system according to any one of claims 2 to 5.
The first captured image is based on the object in the first captured image and the object in the second captured image acquired at the timing when the target is located in the first captured image. A region setting means for setting the first region and the second region of the second captured image is provided.
Collation system.
ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の撮像手段と、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の撮像手段と、
前記第1の撮影画像の第一領域に位置する対象と、前記第2の撮影画像の第二領域に位置する対象と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
前記第1の撮影画像内の対象と、当該対象が前記第1の撮影画像内に位置するタイミングで取得された前記第2の撮影画像内の対象と、が同一である場合に、前記第1の撮影画像内の対象の位置と、前記第2の撮影画像内の対象の位置と、に基づいて、前記第1の撮影画像内の対象の位置の周囲を前記第一領域として設定し、前記第2の撮影画像内の対象の位置の周囲を前記第二領域として設定する領域設定手段と、
を備えた照合システム。
A first imaging means for acquiring a first captured image, which is a captured image of the region before passing through the gate, and
A second imaging means for acquiring a second captured image which is a captured image of a region including at least a part of the front-passing region.
A collation target is determined based on an object located in the first region of the first captured image and an object located in the second region of the second captured image, and the determined collation target is registered in advance. A collation method for collating with the target
When the object in the first captured image and the object in the second captured image acquired at the timing when the object is located in the first captured image are the same, the first Based on the position of the target in the captured image and the position of the target in the second captured image, the periphery of the target position in the first captured image is set as the first region. Area setting means for setting the periphery of the target position in the second captured image as the second area, and
Collation system with.
ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の取得手段と、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得手段と、
前記第1の撮影画像の第1のゲートに対する通過前側領域である第1の領域又は第2のゲートに対する通過前側領域である第2の領域に位置する対象と、前記第2の撮影画像内に位置する対象の有無と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
を備える情報処理装置。
A first acquisition means for acquiring a first captured image which is a captured image of the region before passing through the gate, and
A second acquisition means for acquiring a second captured image, which is a captured image of a region including at least a part of the front-passing region,
A target located in the second region which is passed through the anterior region to the first region or the second gate is passed through the anterior region to the first gate of the first captured image, in the second captured image A collation means that determines a collation target based on the presence or absence of a positioned target and collates the determined collation target with a pre-registered target.
Information processing device equipped with.
ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の取得手段と、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得手段と、
前記第1の撮影画像の水平方向における端領域である第一領域に位置する対象と、前記第2の撮影画像の中央領域である第二領域に位置する対象と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
を備える情報処理装置。
A first acquisition means for acquiring a first captured image which is a captured image of the region before passing through the gate, and
A second acquisition means for acquiring a second captured image, which is a captured image of a region including at least a part of the front-passing region,
The collation target is determined based on the target located in the first region, which is the horizontal edge region of the first captured image , and the target located in the second region, which is the central region of the second captured image. Then, a collation means for collating the determined collation target with the pre-registered target,
Information processing device equipped with.
ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の撮像手段と、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の撮像手段と、
前記第1の撮影画像の第一領域に位置する対象と、前記第2の撮影画像の第二領域に位置する対象と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
前記第1の撮影画像内の対象と、当該対象が前記第1の撮影画像内に位置するタイミングで取得された前記第2の撮影画像内の対象と、が同一である場合に、前記第1の撮影画像内の対象の位置と、前記第2の撮影画像内の対象の位置と、に基づいて、前記第1の撮影画像内の対象の位置の周囲を前記第一領域として設定し、前記第2の撮影画像内の対象の位置の周囲を前記第二領域として設定する領域設定手段と、
を備える情報処理装置。
A first imaging means for acquiring a first captured image, which is a captured image of the region before passing through the gate, and
A second imaging means for acquiring a second captured image which is a captured image of a region including at least a part of the front-passing region.
A collation target is determined based on an object located in the first region of the first captured image and an object located in the second region of the second captured image, and the determined collation target is registered in advance. A collation method for collating with the target
When the object in the first captured image and the object in the second captured image acquired at the timing when the object is located in the first captured image are the same, the first Based on the position of the target in the captured image and the position of the target in the second captured image, the periphery of the target position in the first captured image is set as the first region. Area setting means for setting the periphery of the target position in the second captured image as the second area, and
Information processing device equipped with.
情報処理装置に、
ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の取得手段と、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得手段と、
前記第1の撮影画像の第1のゲートに対する通過前側領域である第1の領域又は第2のゲートに対する通過前側領域である第2の領域に位置する対象と、前記第2の撮影画像内に位置する対象の有無と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
を実現させるためのプログラム。
For information processing equipment
A first acquisition means for acquiring a first captured image which is a captured image of the region before passing through the gate, and
A second acquisition means for acquiring a second captured image, which is a captured image of a region including at least a part of the front-passing region,
A target located in the second region which is passed through the anterior region to the first region or the second gate is passed through the anterior region to the first gate of the first captured image, in the second captured image A collation means that determines a collation target based on the presence or absence of a positioned target and collates the determined collation target with a pre-registered target.
A program to realize.
情報処理装置に、
ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の取得手段と、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得手段と、
前記第1の撮影画像の水平方向における端領域である第一領域に位置する対象と、前記第2の撮影画像の中央領域である第二領域に位置する対象と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
を実現させるためのプログラム。
For information processing equipment
A first acquisition means for acquiring a first captured image which is a captured image of the region before passing through the gate, and
A second acquisition means for acquiring a second captured image, which is a captured image of a region including at least a part of the front-passing region,
The collation target is determined based on the target located in the first region, which is the horizontal edge region of the first captured image , and the target located in the second region, which is the central region of the second captured image. Then, a collation means for collating the determined collation target with the pre-registered target,
A program to realize.
情報処理装置に、
ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の取得手段と、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得手段と、
前記第1の撮影画像の第一領域に位置する対象と、前記第2の撮影画像の第二領域に位置する対象と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合手段と、
前記第1の撮影画像内の対象と、当該対象が前記第1の撮影画像内に位置するタイミングで取得された前記第2の撮影画像内の対象と、が同一である場合に、前記第1の撮影画像内の対象の位置と、前記第2の撮影画像内の対象の位置と、に基づいて、前記第1の撮影画像内の対象の位置の周囲を前記第一領域として設定し、前記第2の撮影画像内の対象の位置の周囲を前記第二領域として設定する領域設定手段と、
を実現させるためのプログラム。
For information processing equipment
A first acquisition means for acquiring a first captured image which is a captured image of the region before passing through the gate, and
A second acquisition means for acquiring a second captured image, which is a captured image of a region including at least a part of the front-passing region,
A collation target is determined based on an object located in the first region of the first captured image and an object located in the second region of the second captured image, and the determined collation target is registered in advance. A collation method for collating with the target
When the object in the first captured image and the object in the second captured image acquired at the timing when the object is located in the first captured image are the same, the first Based on the position of the target in the captured image and the position of the target in the second captured image, the periphery of the target position in the first captured image is set as the first region. Area setting means for setting the periphery of the target position in the second captured image as the second area, and
A program to realize.
ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の取得ステップと、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得ステップと、
前記第1の撮影画像の第1のゲートに対する通過前側領域である第1の領域又は第2のゲートに対する通過前側領域である第2の領域に位置する対象と、前記第2の撮影画像内に位置する対象の有無と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合ステップと、を含む、
照合方法。
The first acquisition step of acquiring the first photographed image which is the photographed image of the area before passing through the gate, and
A second acquisition step of acquiring a second captured image, which is a captured image of a region including at least a part of the front-passing region,
A target located in the second region which is passed through the anterior region to the first region or the second gate is passed through the anterior region to the first gate of the first captured image, in the second captured image Includes a collation step that determines a collation target based on the presence or absence of a positioned object and collates the determined collation target with a pre-registered target.
Collation method.
ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の取得ステップと、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得ステップと、
前記第1の撮影画像の水平方向における端領域である第一領域に位置する対象と、前記第2の撮影画像の中央領域である第二領域に位置する対象と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合ステップと、を含む、
照合方法。
The first acquisition step of acquiring the first photographed image which is the photographed image of the area before passing through the gate, and
A second acquisition step of acquiring a second captured image, which is a captured image of a region including at least a part of the front-passing region,
The collation target is determined based on the target located in the first region, which is the horizontal edge region of the first captured image , and the target located in the second region, which is the central region of the second captured image. The collation step of collating the determined collation target with the pre-registered target is included.
Collation method.
ゲートに対する通過前側領域の撮影画像である第1の撮影画像を取得する第1の取得ステップと、
前記通過前側領域の少なくとも一部を含む領域の撮影画像である第2の撮影画像を取得する第2の取得ステップと、
前記第1の撮影画像の第一領域に位置する対象と、前記第2の撮影画像の第二領域に位置する対象と、に基づいて照合対象を決定し、当該決定した照合対象と予め登録された対象とを照合する照合ステップと、
前記第1の撮影画像内の対象と、当該対象が前記第1の撮影画像内に位置するタイミングで取得された前記第2の撮影画像内の対象と、が同一である場合に、前記第1の撮影画像内の対象の位置と、前記第2の撮影画像内の対象の位置と、に基づいて、前記第1の撮影画像内の対象の位置の周囲を前記第一領域として設定し、前記第2の撮影画像内の対象の位置の周囲を前記第二領域として設定する領域設定ステップと、を含む、
照合方法。
The first acquisition step of acquiring the first photographed image which is the photographed image of the area before passing through the gate, and
A second acquisition step of acquiring a second captured image, which is a captured image of a region including at least a part of the front-passing region,
A collation target is determined based on an object located in the first region of the first captured image and an object located in the second region of the second captured image, and the determined collation target is registered in advance. A collation step that matches the target
When the object in the first captured image and the object in the second captured image acquired at the timing when the object is located in the first captured image are the same, the first Based on the position of the target in the captured image and the position of the target in the second captured image, the periphery of the target position in the first captured image is set as the first region. A region setting step of setting the periphery of the target position in the second captured image as the second region is included.
Collation method.
JP2018177488A 2018-09-21 2018-09-21 Collation system Active JP6774036B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018177488A JP6774036B2 (en) 2018-09-21 2018-09-21 Collation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018177488A JP6774036B2 (en) 2018-09-21 2018-09-21 Collation system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017179064A Division JP6409929B1 (en) 2017-09-19 2017-09-19 Verification system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020160455A Division JP7040578B2 (en) 2020-09-25 2020-09-25 Collation system

Publications (2)

Publication Number Publication Date
JP2019057284A JP2019057284A (en) 2019-04-11
JP6774036B2 true JP6774036B2 (en) 2020-10-21

Family

ID=66107543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018177488A Active JP6774036B2 (en) 2018-09-21 2018-09-21 Collation system

Country Status (1)

Country Link
JP (1) JP6774036B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022053683A (en) * 2020-09-25 2022-04-06 グローリー株式会社 Image processing apparatus, image processing system, image processing method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007148987A (en) * 2005-11-30 2007-06-14 Toshiba Corp Face authentication system, and entrance and exit management system
JP4865346B2 (en) * 2006-02-08 2012-02-01 綜合警備保障株式会社 Monitoring system and monitoring method
JP2007328572A (en) * 2006-06-08 2007-12-20 Matsushita Electric Ind Co Ltd Face authentication device and face authentication method
WO2008108458A1 (en) * 2007-03-07 2008-09-12 Omron Corporation Face image acquiring system, face checking system, face image acquiring method, face checking method, face image acquiring program and face checking program
JP4942189B2 (en) * 2007-05-11 2012-05-30 キヤノン株式会社 Image processing apparatus, image processing method, program, and storage medium

Also Published As

Publication number Publication date
JP2019057284A (en) 2019-04-11

Similar Documents

Publication Publication Date Title
JP6409929B1 (en) Verification system
JP6148064B2 (en) Face recognition system
JP6601513B2 (en) Information processing device
JP2008108243A (en) Person recognition device and person recognition method
JP2014219704A (en) Face authentication system
JP4899552B2 (en) Authentication device, authentication method, authentication program, and computer-readable recording medium recording the same
JP6544404B2 (en) Matching system
JP6947202B2 (en) Matching system
JP7040578B2 (en) Collation system
JP6774036B2 (en) Collation system
CN109196517B (en) Comparison device and comparison method
JP7006668B2 (en) Information processing equipment
JP6915673B2 (en) Information processing system
US20230274597A1 (en) Information processing apparatus, information processing method, and storage medium
JP5955057B2 (en) Face image authentication device
WO2019151116A1 (en) Information processing device
JP7298658B2 (en) Matching system
JP7279774B2 (en) Information processing equipment
JP2023120264A (en) Collation system
US20230206686A1 (en) Face authentication method, storage medium, and face authentication device
JP2021193268A (en) Information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200915

R150 Certificate of patent or registration of utility model

Ref document number: 6774036

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150