JP2023125420A - Image determination device, passage management device and image determination method - Google Patents

Image determination device, passage management device and image determination method Download PDF

Info

Publication number
JP2023125420A
JP2023125420A JP2022029491A JP2022029491A JP2023125420A JP 2023125420 A JP2023125420 A JP 2023125420A JP 2022029491 A JP2022029491 A JP 2022029491A JP 2022029491 A JP2022029491 A JP 2022029491A JP 2023125420 A JP2023125420 A JP 2023125420A
Authority
JP
Japan
Prior art keywords
image
camera
function unit
target
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022029491A
Other languages
Japanese (ja)
Other versions
JP7298952B1 (en
Inventor
寿典 藤田
Hisanori Fujita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Platforms Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Platforms Ltd filed Critical NEC Platforms Ltd
Priority to JP2022029491A priority Critical patent/JP7298952B1/en
Application granted granted Critical
Publication of JP7298952B1 publication Critical patent/JP7298952B1/en
Publication of JP2023125420A publication Critical patent/JP2023125420A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To determine the presence/absence of impersonation with a minimum number of cameras.SOLUTION: An image determination device comprises: a plurality of cameras 1A, 1B which image a prescribed point of a detection object region in mutually-different visual angles; an image acquisition function unit 2 which acquires object images included in image data imaged by the cameras 1A, 1B; a correlation detection function unit 3 which detects a correlation of positions of the detection object regions of the object images acquired by the image acquisition function unit 2 from the image data imaged by the one camera 1A and the other camera 1B; and an impersonation determination function unit 4 which determines whether or not the object images in the image data of the one camera 1A and the other camera 1B are impersonation images from the object images having the correlation detected by the correlation detection function unit 3.SELECTED DRAWING: Figure 1

Description

本発明は、画像判定装置、通行管理装置、および画像判定方法に関する。 The present invention relates to an image determination device, a traffic management device, and an image determination method.

顔認証におけるなりすまし検知に関連する技術として、特許文献1がある。この特許文献1にあっては、第1のカメラから得られた画像と、該第1のカメラから得ることが難しい方向~撮影する第2のカメラから得られた画像との二種類の画像の解析を行っている。
また本発明に関連する特許文献2、3にあっては、複数のカメラの画像から特徴点を三次元空間上の画像に変換することによって、より高い精度の画像解析を行うことにより、主として共連れによるなりすましの防止を図っている。
There is Patent Document 1 as a technology related to spoofing detection in face authentication. In Patent Document 1, there are two types of images: an image obtained from a first camera, and an image obtained from a second camera that shoots from a direction that is difficult to obtain from the first camera. Analysis is underway.
Furthermore, in Patent Documents 2 and 3 related to the present invention, the feature points are mainly shared by converting feature points from images of multiple cameras into images in three-dimensional space to perform image analysis with higher accuracy. Efforts are being made to prevent identity theft by companions.

特開2008-108243号公報Japanese Patent Application Publication No. 2008-108243 国際公開第2021/060256号International Publication No. 2021/060256 特開2004-192378号公報Japanese Patent Application Publication No. 2004-192378

しかしながら、上記特許文献1~3に記載された画像解析技術は、複数のカメラから得た画像から三次元画像を生成する処理を必要とするため、その画像の生成に時間を要し、例えば、建物のセキュリティ管理におけるドア開錠のような積極認証に好適に採用することができるが、ウォークスルー認証のような非積極認証であって、かつ人流を妨げない高速な処理が必要な事案では実用化が難しいという問題がある。
上記特許文献1~3以外の、表示装置等の画像をカメラに取り込ませることによるなりすましを防止する方式として、対象者から認識されやすい(対象者が偽画像をカメラに向けやすい)カメラと、認識されにくいカメラ(対象者が偽画像をカメラに向けることが難しい隠しカメラ)との対をなすカメラからの画像を用い、双方のカメラの画像による顔認証結果を用いて成りすまし判定を行う方式もあり得るが、それぞれ一方通行のウォークスルーゲートを2レーン設けた両方向通行設備の場合、それぞれのレーンに1対ずつ合計2対のカメラ必要となり、さらには、二対のカメラ画像に対して認証処理を行うことによる処理量の増加に伴う、処理時間の増加、およびより高い性能のハードウェアの準備が必要となるという課題があった。
However, the image analysis techniques described in Patent Documents 1 to 3 above require processing to generate a three-dimensional image from images obtained from multiple cameras, so it takes time to generate the image. It can be suitably used for active authentication such as door unlocking in building security management, but it is not practical for non-active authentication such as walk-through authentication that requires high-speed processing without interfering with the flow of people. The problem is that it is difficult to convert.
Other than Patent Documents 1 to 3 mentioned above, as a method for preventing spoofing by capturing an image of a display device or the like into a camera, a camera that is easily recognized by the target person (the target person is likely to point the fake image at the camera) and a recognition method are used. There is also a method that uses images from a camera that is paired with a camera that is difficult to detect (a hidden camera that makes it difficult for the target to point the fake image at the camera), and uses the facial recognition results from the images from both cameras to determine whether it is spoofing. However, in the case of a two-way traffic facility with two lanes of one-way walk-through gates, a total of two pairs of cameras, one pair for each lane, would be required, and furthermore, authentication processing would be required for the two pairs of camera images. As the amount of processing increases due to this, there are problems in that the processing time increases and it becomes necessary to prepare hardware with higher performance.

この発明は、限られた台数のカメラによって成り済ましを判定することを目的とする。 The purpose of this invention is to determine impersonation using a limited number of cameras.

上記課題を解決するために、この発明は以下の手段を提案している。
本発明の第1の態様にかかる画像判定装置は、下記の構成を特徴とする。
この画像判定装置は、検出対象領域の所定の地点を互いに異なる画角で撮影する複数のカメラと、これらのカメラが撮影した画像データに含まれる対象画像を検知する画像検知機能部と、一のカメラと他のカメラとが撮影した画像データから前記画像検知機能部がそれぞれ検知した対象画像の前記検出対象領域における位置の相関を検出する相関検出機能部と、該相関検出機能部で検出した相関を有する対象画像から、前記一のカメラと他のカメラとの画像データ中の対象画像が成り済まし画像であるか否かを判定する成り済まし判定機能部とを有する。
In order to solve the above problems, the present invention proposes the following means.
The image determination device according to the first aspect of the present invention is characterized by the following configuration.
This image determination device includes a plurality of cameras that photograph predetermined points in a detection target area at different angles of view, an image detection function unit that detects target images included in image data photographed by these cameras, and a single camera. a correlation detection function unit that detects a correlation between positions in the detection target area of target images respectively detected by the image detection function unit from image data taken by the camera and another camera; and a correlation detected by the correlation detection function unit. and a spoofing determination function unit that determines whether or not a target image in image data of the one camera and another camera is a spoofed image from a target image having a spoofed image.

本発明の第2の態様にかかる画像判定方法は、下記の構成を特徴とする。
この画像判定方法は、検出対象領域Lの所定の地点を互いに画角の異なる複数のカメラにより撮影する工程と、撮影した画像データに含まれる対象画像を検知する対象画像検出工程と、一のカメラと他のカメラとが撮影した画像データからそれぞれ検知した対象画像の前記検出対象領域における位置の相関を検出する工程と、検出した相関を有する対象画像から、前記一のカメラと他のカメラとの画像データ中の対象画像が成り済まし画像であるか否かを判定する工程とを有する。
The image determination method according to the second aspect of the present invention is characterized by the following configuration.
This image determination method includes a step of photographing a predetermined point in the detection target region L using a plurality of cameras having different angles of view, a target image detection step of detecting a target image included in the photographed image data, and a step of detecting a target image included in the photographed image data. Detecting the correlation between the positions of the detected target images in the detection target area from the image data taken by the camera and the other camera; and determining whether the target image in the image data is a spoofed image.

本発明によれば、少なくとも2台のカメラから得られた画像によって成り済ましを判定することができる。 According to the present invention, spoofing can be determined based on images obtained from at least two cameras.

本発明にかかる画像判定装置の最小構成例のブロック図である。FIG. 2 is a block diagram of an example of the minimum configuration of an image determination device according to the present invention. 本発明にかかる画像判定方法の最小構成例の流れ図である。1 is a flowchart of a minimum configuration example of an image determination method according to the present invention. 本発明の一実施形態の全体構成図である。FIG. 1 is an overall configuration diagram of an embodiment of the present invention. 一実施形態のブロック図である。FIG. 2 is a block diagram of one embodiment. 一実施形態の判定準備時のブロック図である。FIG. 2 is a block diagram at the time of preparation for determination according to an embodiment. 一実施形態の相関検出時のブロック図である。FIG. 2 is a block diagram at the time of correlation detection according to an embodiment. 一実施形態の待機時のブロック図である。FIG. 2 is a block diagram of an embodiment during standby. 一実施形態の通行者検出時のブロック図である。It is a block diagram at the time of passerby detection of one embodiment. 一実施形態のデータ対応付け時のブロック図である。FIG. 3 is a block diagram at the time of data association in one embodiment. 一実施形態の判定時のブロック図である。FIG. 2 is a block diagram at the time of determination according to an embodiment. 一実施形態の矩形関連付けの説明図である。FIG. 3 is an explanatory diagram of rectangle association according to an embodiment. 一実施形態の相関判定の説明図である。FIG. 3 is an explanatory diagram of correlation determination according to an embodiment.

本発明の最小構成に係る画像判定装置の構成について図1を参照して説明する。
この装置は、検出対象領域の所定の地点を互いに異なる画角で撮影する複数のカメラ1A、1Bと、これらのカメラ1A、1Bが撮影した画像データに含まれる対象画像を検知する画像検知機能部2と、一のカメラ1Aと他のカメラ1Bとが撮影した画像データから前記画像検知機能部2がそれぞれ検知した対象画像の前記検出対象領域における位置の相関を検出する相関検出機能部3と、該相関検出機能部3で検出した相関を有する対象画像から、前記一のカメラ1Aと他のカメラ1Bとの画像データ中の対象画像が成り済まし画像であるか否かを判定する成り済まし判定機能部4とを有する。
The configuration of an image determination device according to the minimum configuration of the present invention will be described with reference to FIG.
This device includes a plurality of cameras 1A and 1B that capture images of predetermined points in a detection target area at different angles of view, and an image detection function unit that detects target images included in image data captured by these cameras 1A and 1B. 2, and a correlation detection function unit 3 that detects a correlation between positions in the detection target area of target images respectively detected by the image detection function unit 2 from image data taken by one camera 1A and another camera 1B; A spoofing determination function unit 4 that determines whether or not the target image in the image data of the one camera 1A and the other camera 1B is a spoofed image from the target image having the correlation detected by the correlation detection function unit 3; and has.

そして、以上のように構成された本発明に係る判定装置によれば、一のカメラと他のカメラとで撮影した画像を共通の対象領域において、相関のある画像同士を比較し、その比較結果から成り済ましの有無を判定することができる。 According to the determination device according to the present invention configured as described above, images taken by one camera and another camera are compared between correlated images in a common target area, and the comparison result is It is possible to determine the presence or absence of spoofing.

本発明の最小構成例にかかる画像判定方法について図2を参照して説明する。
この画像判定方法は、検出対象領域の所定の地点を互いに画角の異なる複数のカメラにより撮影する工程SP1と、撮影した画像データに含まれる対象画像を検知する対象画像検出工程SP2と、一のカメラと他のカメラとが撮影した画像データからそれぞれ検知した対象画像の前記検出対象領域における位置の相関を検出する工程SP3と、検出した相関を有する対象画像から、前記一のカメラと他のカメラとの画像データ中の対象画像が成り済まし画像であるか否かを判定する工程SP4とを有する。
An image determination method according to a minimum configuration example of the present invention will be described with reference to FIG. 2.
This image determination method includes a step SP1 in which a predetermined point in a detection target area is photographed using a plurality of cameras having different angles of view, a target image detection step SP2 in which a target image included in the photographed image data is detected; A step SP3 of detecting a correlation between the positions of target images detected in the detection target area from image data taken by the camera and another camera, and detecting a correlation between the positions of the target images detected by the camera and the other camera from the target images having the detected correlation; and a step SP4 of determining whether or not the target image in the image data is a spoofed image.

そして、以上のように構成された本発明に係る判定方法によれば、一のカメラと他のカメラとで撮影した画像を共通の対象領域において、相関のある画像同士を比較し、その比較結果から成り済ましの有無を判定することができる。 According to the determination method according to the present invention configured as described above, images taken by one camera and another camera are compared with each other in a common target area, and the comparison results are calculated. It is possible to determine the presence or absence of spoofing.

図1、2を具体化した本発明の一実施形態に係る構成について図3~図12を参照して説明する。
図3は、一実施形態の通過判定装置全体構成を示すものである。
顔認証装置100は、互いに反対方向へ向けて撮影するカメラ200、カメラ201から画像データの入力を受ける。また顔認証装置100は、両側の側壁の間に形成された通行レーンを開閉する扉状のゲート300と接続されて、該ゲート300の開閉状態の情報が入力されるとともに、該ゲート300の開閉操作、およびまたは該ゲート300のロックおよびその解除(施錠と解錠)を操作する信号を出力する。
前記ウォークスルーゲートは、図中左右の両方向への通行を制御するもので、前記カメラ200、201の一方は、常に、前記ゲート300の地点を入場方向へ撮影し、他方は、退場方向へ撮影している。すなわち前記カメラ200、201は、入場、退場の両方向への人物の認証を行うべく、前記ゲート300と交差する方向へ向かう入場レーンと退場レーンとのそれぞれで利用者を撮影する。
前記認証装置100は、前記ゲート300を通過しようとする被写体の人体およびまたは顔を検出した段階で、双方のカメラ200、201での検出結果と、事前に算出・対応付けしておいたゲート300に相当する位置の座標情報とから、検出した人体および顔を有する対象の人物が、検出された場所に存在したか否かを判定する。なお判定の処理の詳細は後述する。
A configuration according to an embodiment of the present invention that embodies FIGS. 1 and 2 will be described with reference to FIGS. 3 to 12.
FIG. 3 shows the overall configuration of a passage determination device according to an embodiment.
The face authentication device 100 receives input of image data from a camera 200 and a camera 201 that shoot in opposite directions. The face recognition device 100 is also connected to a door-shaped gate 300 that opens and closes a traffic lane formed between the side walls on both sides, and information on the opening/closing state of the gate 300 is inputted. It outputs a signal for operating the gate 300 and/or locking and unlocking the gate 300 (locking and unlocking).
The walk-through gate controls traffic in both left and right directions in the figure, and one of the cameras 200 and 201 always photographs the point of the gate 300 in the entrance direction, and the other camera photographs in the exit direction. are doing. That is, the cameras 200 and 201 photograph users in the entrance lane and the exit lane, respectively, in the direction intersecting the gate 300, in order to authenticate the person in both directions of entry and exit.
When the authentication device 100 detects the human body and/or face of the subject attempting to pass through the gate 300, the authentication device 100 detects the detection results from both cameras 200 and 201 and the gate 300, which has been calculated and correlated in advance. Based on the coordinate information of the position corresponding to , it is determined whether the target person having the detected human body and face was present at the detected location. The details of the determination process will be described later.

図4は、前記顔認証装置100の構成を示すブロック図である。
この顔認証装置100に搭載された顔認証ソフトウェア110、120は、それぞれ、画像取得機能部111、121によって前記カメラ200、201から画像データの供給を受けて、顔・人体検知機能部112、122、位置相関検出機能部113、123、検出情報合成機能部115、125へ供給する。
また前記顔認証ソフトウェア110、120は、前記位置相関検出機能部113、123が比較画像データベース114、124の基準となる相関についてのデータを参照して検出した、画像の位置についての基準データとの比較による相関値を算出し、前記検出情報合成機能部115、125へ供給して画像データの判定とともに総合的に評価し、その評価結果に基づき、成り済まし判定機能部116、126において、成り済ましの有無(ゲート通行の可否)を判定し、これらの判定結果により、通行の可否を総合判定機能部117、127が判定する。そして、これら二つの総合判定機能部117、127の判定結果に基づき、例えば両方の総合判定機能部117、127がいずれも成り済ましなし(通行可)との判定結果を出したことを条件として、解錠判定機能部130が解錠可と判定し、ゲート300の施錠を解除し、さらには、アクチュエータ等を操作してゲートを開動作させる。
FIG. 4 is a block diagram showing the configuration of the face authentication device 100.
Face authentication software 110, 120 installed in this face authentication device 100 receives image data from the cameras 200, 201 by image acquisition function units 111, 121, respectively, and receives image data from face/human body detection function units 112, 122. , the position correlation detection function units 113 and 123, and the detected information synthesis function units 115 and 125.
Further, the face recognition software 110, 120 detects the reference data regarding the position of the image, which is detected by the positional correlation detection function units 113, 123 by referring to data regarding the reference correlation in the comparison image databases 114, 124. Correlation values are calculated by comparison and supplied to the detection information synthesis function units 115 and 125 for comprehensive evaluation along with image data judgment.Based on the evaluation results, the impersonation judgment function units 116 and 126 determine whether or not there is impersonation. Based on these determination results, the comprehensive determination function units 117 and 127 determine whether or not the vehicle can pass through the gate. Based on the determination results of these two comprehensive determination function units 117 and 127, for example, on the condition that both comprehensive determination function units 117 and 127 have issued a determination result that there is no impersonation (passage is allowed), the solution is determined. The lock determination function unit 130 determines that the lock can be unlocked, unlocks the gate 300, and operates an actuator or the like to open the gate.

上記構成の顔認証装置の動作を顔認証方法の工程とともに説明する。
図5に示すように、前記顔認証装置100は、初期手順として、2つの顔認証ソフトウェア110、120の検出結果に対する位置の相関を取るための、基礎データを設定する処理を行う。
前記顔認証ソフトウェア110は、前記カメラ200が撮影した画像データを前記画像取得機能部111によって取得する。また前記顔認証ソフトウェア110中の顔・人体検知機能部112は、参考となる被写体を検出した後、前記位置相関検出機能部113で入力した撮影画像を予め定められた所定のサイズの矩形(例えば、4ピクセル×4ピクセル)に分解し、検出した人物がどの矩形に属するかの情報を比較画像データベース114に保存する。同様に、前記顔認証ソフトウェア120は、前記カメラ201が撮影した、前記カメラ200と反対方向から撮影された画像データを前記画像取得機能部121によって取得する。該顔・人体検知機能部122は、参考となる被写体を検出した後、前記位置相関検出機能部123で入力した現画像を所定のサイズの矩形(例えば、4ピクセル×4ピクセル)に分解し、検出した人物がどの矩形に属するかの情報を比較画像データベース124に保存する。
The operation of the face authentication device having the above configuration will be explained together with the steps of the face authentication method.
As shown in FIG. 5, the face authentication device 100 performs, as an initial procedure, a process of setting basic data for correlating the positions of the detection results of the two face authentication software 110 and 120.
The face authentication software 110 uses the image acquisition function section 111 to acquire image data taken by the camera 200. Further, after detecting a reference subject, the face/human body detection function unit 112 in the face authentication software 110 converts the captured image inputted by the positional correlation detection function unit 113 into a rectangle of a predetermined size (for example, , 4 pixels x 4 pixels), and information on which rectangle the detected person belongs to is stored in the comparative image database 114. Similarly, the face authentication software 120 uses the image acquisition function unit 121 to acquire image data taken by the camera 201 from a direction opposite to the camera 200 . After detecting a reference subject, the face/human body detection function section 122 decomposes the current image inputted by the position correlation detection function section 123 into rectangles of a predetermined size (for example, 4 pixels x 4 pixels), Information about which rectangle the detected person belongs to is stored in the comparison image database 124.

このように、両方の顔認証ソフトウェア110、120において前記画像情報を矩形に分解していずれの矩形に存在するかを分析する処理を行なって、検出した人物がどの矩形に属するかの情報を保存した後、図6に示すように、位置相関検出機能部113から位置相関検出機能部123へ検出情報を送信する。該位置相関検出機能部123は、図11に示すように、前記カメラ200の画像aとカメラ201の画像bとの間で各矩形の関連付けを行った後、関連付けをした結果を前記位置相関検出機能部113に返却し、同時に、前記比較画像データベース124に保存する。前記位置相関検出機能部113は、受け取った関連付けの結果を前記比較画像データベース114に保存する。すなわち、各矩形の関連付けの結果を両方の比較画像データベース114、124が保存する。 In this way, both face recognition software 110 and 120 perform a process of decomposing the image information into rectangles and analyzing which rectangle the detected person is in, and then save information about which rectangle the detected person belongs to. After that, as shown in FIG. 6, the detection information is transmitted from the position correlation detection function section 113 to the position correlation detection function section 123. As shown in FIG. 11, the positional correlation detection function unit 123 associates each rectangle between the image a of the camera 200 and the image b of the camera 201, and then uses the result of the association to perform the positional correlation detection. It is returned to the functional unit 113 and simultaneously stored in the comparative image database 124. The positional correlation detection function unit 113 stores the received association results in the comparison image database 114. That is, both comparison image databases 114 and 124 store the results of association of each rectangle.

前記位置相関検出機能部123が行う関連付けは、例えば、前記カメラ200と201とが互いに反対方向(180度異なる方向)から撮影した画像データを取得したとすると、図11(a)と(b)とに示す様に左右対称の輪郭形状の(シルエットが左右対称をなす)画像となり、この左右対称の画像において対応する(同一の座標上に存在する)位置関係にある矩形相互の関連付けをいう。具体的には、図11に示すように、一方の画像(a)のゲートの外側の縁が他方の画像(b)の外側の縁に対応し、一方の画像(a)のゲートの内側側の縁が他方の画像(b)の内側の縁に対応するとのひも付けにより行われる。ゲートとゲートとの間の通行者の体の各部(少なくとも、顔認証を前提として成り済ましが行われ易い頭部)の画像が取り込まれる領域(ゲート周辺の所定の座標で特定される領域)についても、同様に左右のカメラ200、201で各々取り込まれた画像について、各矩形を対応付ける。 For example, assuming that the cameras 200 and 201 acquire image data photographed from opposite directions (directions different by 180 degrees), the correlation performed by the positional correlation detection function unit 123 is as shown in FIGS. 11(a) and 11(b). As shown in , it becomes an image with a bilaterally symmetrical contour shape (the silhouette is bilaterally symmetrical), and it refers to the association of rectangles in a corresponding positional relationship (existing on the same coordinates) in this bilaterally symmetrical image. Specifically, as shown in FIG. 11, the outer edge of the gate in one image (a) corresponds to the outer edge of the other image (b), and the inner edge of the gate in one image (a) corresponds to the outer edge of the gate in one image (a). This is done by linking that the edge of the image corresponds to the inner edge of the other image (b). Also regarding the area (area specified by predetermined coordinates around the gates) where images of various parts of the body of passersby between the gates are captured (at least the head, which is easy to impersonate based on facial recognition). Similarly, the images captured by the left and right cameras 200 and 201 are associated with each rectangle.

以上の工程による初期手順が完了した後、前記顔認証装置100は、図7に示すように、一旦、待機状態となって、通行者がゲートに接近してカメラ200あるいは201が通行者の画像データを出力するのを待つ(通行者が撮影されることによる画像の変化を待つ)。
この待機状態で通行者がウォークスルーゲートに通りがかった段階で、通行者に向き合った側の前記カメラ201が撮影し、前記画像取得機能部121で取得した画像データから前記顔・人体検知機能部122が顔および人物を検出すると、図8に示すように、その結果を総合判定機能部127と位置相関検出機能部123に送信する。
After the initial procedure of the above steps is completed, the face authentication device 100 temporarily enters a standby state as shown in FIG. Wait for the data to be output (wait for the image to change as the passerby is photographed).
When a passerby passes by the walk-through gate in this waiting state, the camera 201 on the side facing the passerby takes an image, and the face/human body detection function unit uses the image data acquired by the image acquisition function unit 121. 122 detects a face and a person, as shown in FIG. 8, the result is sent to the comprehensive determination function section 127 and the positional correlation detection function section 123.

前記位置相関検出機能部113では、比較画像データベース124に保存されたデータを元に、検出された人の位置を取得する。一方で、通行者がウォークスルーゲートに入り、通行者の背後側となるカメラ200に通行者が映り込んだ段階で、前記画像取得機能部111が取得した画像データから、前記顔・人体検知機能部112が人物を検出し、前記位置相関検出機能部113にその結果を送信する。 The position correlation detection function section 113 acquires the position of the detected person based on the data stored in the comparison image database 124. On the other hand, when a passerby enters the walk-through gate and the passerby is reflected in the camera 200 behind the passerby, the face/human body detection function detects the passerby from the image data acquired by the image acquisition function unit 111. The unit 112 detects a person and transmits the result to the position correlation detection function unit 113.

図8に示すように、この位置相関検出機能部113は、前記比較画像データベース114のデータを元に、検出された人の位置を取得し、前記位置相関検出機能部123に送信する。図9に示すように、一方の位置相関検出機能部113からデータを受け取った他方の位置相関検出機能部123は、前記検出情報合成機能部125に一方の位置相関機能部113、他方の位置検出機能部123で検出した結果を送信する。前記検出情報合成機能部125では、図12に示すように、例えば、画像(a)(b)における通行者の外側ゲート側の側頭部同士を対応付け、通行者の内側ゲート側の側頭部同士を対応付けるように、受け取った双方のデータの対応付けを行い、成り済まし判定機能部126に送信する。 As shown in FIG. 8, the position correlation detection function section 113 acquires the position of the detected person based on the data of the comparison image database 114, and transmits it to the position correlation detection function section 123. As shown in FIG. 9, the other position correlation detection function unit 123 that has received data from one position correlation detection function unit 113 sends the detected information synthesis function unit 125 to the one position correlation function unit 113 and the other position correlation function unit 113. The results detected by the functional unit 123 are transmitted. As shown in FIG. 12, the detection information synthesis function unit 125 associates, for example, the temporal regions of the passerby's outer gate side in images (a) and (b), and The received data are associated with each other so that the data are associated with each other, and the data is transmitted to the impersonation determination function unit 126.

図10に示すように、成り済まし判定機能部126は、受け取ったデータを元に、対応付けられた通行者の部位についての矩形の画像の一致度から、実体のある人物か(例えば、ディスプレイ等に二次元的に表現された、一方向と反対方向とで(a)と(b)との前記矩形毎に分析した判定結果が一致しない顔画像であるか)を判定し、前記解錠判定機能部130に成り済ましか否かの判定結果を通知する。同時に、前記総合判定機能部127からの照合結果を受け取り、それらの情報を元に、解錠判定機能部130において最終的な解錠可否を判断し、照合が成功しかつ実体の場合は、前記ゲート300を制御してゲートの開放、施錠の解除等の操作を行い、それ以外の場合は、ゲートを開けず、あるいは解錠を行うことなく、警告表示などを行わせる。
なお実際のゲートの運用においては、上記成り済ましの判定に加えて、一方の(正面から撮影する)カメラが撮影した画像から顔の特徴、例えば、輪郭、目、耳、鼻、口等の相対関係について特徴の共通性を基準データと比較して同一性を判断する顔認証の判定結果に基づいて、ゲートの開閉や施錠解錠の制御を行う。
As shown in FIG. 10, based on the received data, the impersonation determination function unit 126 determines whether there is a real person (for example, a The unlocking determination function determines whether the determination results analyzed for each of the rectangles (a) and (b) in one direction and the opposite direction, which are two-dimensionally expressed, do not match. 130 is notified of the determination result as to whether or not it is an impersonation. At the same time, the verification result from the comprehensive determination function section 127 is received, and based on the information, the unlock determination function section 130 makes a final determination as to whether or not the lock can be unlocked.If the verification is successful and the lock is real, the The gate 300 is controlled to perform operations such as opening and unlocking the gate, and in other cases, a warning display is displayed without opening or unlocking the gate.
In addition to the above-mentioned spoofing judgment, in actual gate operation, facial features such as contours, relative relationships between eyes, ears, nose, mouth, etc. are determined from images taken by one camera (shot from the front). The opening/closing and locking/unlocking of gates is controlled based on the results of facial recognition, which compares the commonality of features with reference data to determine identity.

このように、一実施形態にあっては、通行者を入場方向および退場方向へそれぞれ撮影し、その撮影画像に基づく認証を行う設備をそのまま利用し、一のカメラと他のカメラとの画像の対応する部分の画像の一致の判定によって、成り済まし判定用に格別な画像取得設備を増設することなく、成り済ましの有無を判定することができる。 In this way, in one embodiment, the equipment that photographs passersby in the entrance direction and the exit direction and performs authentication based on the photographed images is used as is, and the images of one camera and the other camera are By determining whether images of corresponding portions match, it is possible to determine whether or not impersonation has occurred, without adding special image acquisition equipment for impersonation determination.

以上、本発明の一実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。 Although one embodiment of the present invention has been described above in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and may include design changes without departing from the gist of the present invention.

本発明は、入退場管理等における画像判定装置、通行管理装置および画像判定方法に利用することができる。 INDUSTRIAL APPLICATION This invention can be utilized for the image determination apparatus, traffic management apparatus, and image determination method in entrance-exit management etc.

1A、1B カメラ
2 画像取得機能部
3 相関検出機能部と、
4 成り済まし判定機能部
100 顔認証装置
110、120 顔認証ソフトウェア
111、121 画像取得機能部
112、122 顔・人体検知機能部
113、123 位置相関検出機能部
114、124 比較画像データベース
115、125 検出情報合成機能部
116、126 (成り済まし)判定機能部
117、127 総合判機能定部
130 解錠判定機能部
200、201 カメラ
300 ゲート
1A, 1B camera 2 image acquisition function section 3 correlation detection function section,
4 Impersonation determination function unit 100 Face authentication device 110, 120 Face recognition software 111, 121 Image acquisition function unit 112, 122 Face/human body detection function unit 113, 123 Position correlation detection function unit 114, 124 Comparison image database 115, 125 Detection information Synthesis function section 116, 126 (Impersonation) judgment function section 117, 127 Comprehensive judgment function setting section 130 Unlock judgment function section 200, 201 Camera 300 Gate

Claims (6)

検出対象領域の予め定められた地点を互いに異なる画角で撮影する複数のカメラと、
これらのカメラが撮影した画像データに含まれる対象画像を画像取得機能部と、
一のカメラと他のカメラとが撮影した画像データから前記画像取得機能部がそれぞれ検知した対象画像の前記検出対象領域における位置の相関を検出する相関検出機能部と、
該相関検出機能部で検出した相関を有する対象画像から、前記一のカメラと他のカメラとの画像データ中の対象画像が成り済まし画像であるか否かを判定する成り済まし判定機能部と、
を有する画像判定装置。
a plurality of cameras that photograph predetermined points in the detection target area at different angles of view;
The target image included in the image data taken by these cameras is sent to the image acquisition function unit,
a correlation detection function unit that detects a correlation between positions in the detection target area of target images respectively detected by the image acquisition function unit from image data taken by one camera and another camera;
a spoofing determination function unit that determines whether the target image in the image data of the one camera and the other camera is a spoofed image from the target image having the correlation detected by the correlation detection function unit;
An image determination device having:
複数の前記カメラは、前記予め定められた地点を互いに反対方向から撮影する、
請求項1に記載の画像判定装置。
the plurality of cameras photograph the predetermined point from mutually opposite directions;
The image determination device according to claim 1.
前記相関検出機能部は、被写体についての複数の前記カメラが撮影した画像データをそれぞれ複数の部分の対象画像に分解し、
前記成り済まし判定機能部は、分解された各部分の前記地点における対象画像をそれぞれ比較することによって、前記被写体の実体があるか否かを判定する、
請求項1または2のいずれか1項に記載の画像判定装置。
The correlation detection function unit decomposes image data of a subject captured by the plurality of cameras into a plurality of target images, respectively;
The spoofing determination function unit determines whether or not the subject is real by comparing the target images at the points of each decomposed part.
The image determination device according to claim 1 or 2.
顔・人体検知機能部は、前記画像データを所定のサイズの矩形に分解して、前記対象画像がいずれの矩形に属するかを検出し、
前記相関検出機能部は、一のカメラの画像と他のカメラの画像との矩形を関連付けて記憶する、
請求項1~3のいずれか1項に記載の画像判定装置。
The face/human body detection function unit decomposes the image data into rectangles of a predetermined size and detects which rectangle the target image belongs to,
The correlation detection function unit associates and stores a rectangle between an image of one camera and an image of another camera.
The image determination device according to any one of claims 1 to 3.
請求項1~4のいずれか1項に記載の画像判定装置と、
前記カメラが撮影する領域における人の通行を規制するゲート装置と、
該ゲート装置による通行の規制を前記画像判定装置の判定結果によって解除する解錠判定部と、
を備える通行管理装置。
The image determination device according to any one of claims 1 to 4,
a gate device that restricts the passage of people in the area photographed by the camera;
an unlocking determination unit that releases the traffic restriction by the gate device based on the determination result of the image determination device;
A traffic management device equipped with
検出対象領域の予め定められた地点を互いに画角の異なる複数のカメラにより撮影する工程と、
撮影した画像データに含まれる対象画像を取得する対象画像検出工程と、
一のカメラと他のカメラとが撮影した画像データからそれぞれ検知した対象画像の前記検出対象領域における位置の相関を検出する工程と、
検出した相関を有する対象画像から、前記一のカメラと他のカメラとの画像データ中の対象画像が成り済まし画像であるか否かを判定する工程と、
を有する画像判定方法。
a step of photographing a predetermined point in the detection target area using a plurality of cameras with mutually different angles of view;
a target image detection step of acquiring a target image included in the photographed image data;
detecting the correlation between the positions of the target images detected by one camera and the other camera in the detection target area;
determining whether or not the target image in the image data of the one camera and the other camera is a spoofed image from the target image having the detected correlation;
An image determination method having the following.
JP2022029491A 2022-02-28 2022-02-28 Image determination device, traffic management device, and image determination method Active JP7298952B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022029491A JP7298952B1 (en) 2022-02-28 2022-02-28 Image determination device, traffic management device, and image determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022029491A JP7298952B1 (en) 2022-02-28 2022-02-28 Image determination device, traffic management device, and image determination method

Publications (2)

Publication Number Publication Date
JP7298952B1 JP7298952B1 (en) 2023-06-27
JP2023125420A true JP2023125420A (en) 2023-09-07

Family

ID=86900633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022029491A Active JP7298952B1 (en) 2022-02-28 2022-02-28 Image determination device, traffic management device, and image determination method

Country Status (1)

Country Link
JP (1) JP7298952B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008108243A (en) * 2006-09-28 2008-05-08 Toshiba Corp Person recognition device and person recognition method
JP2019160000A (en) * 2018-03-15 2019-09-19 ヤフー株式会社 Search device, search method, and search program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008108243A (en) * 2006-09-28 2008-05-08 Toshiba Corp Person recognition device and person recognition method
JP2019160000A (en) * 2018-03-15 2019-09-19 ヤフー株式会社 Search device, search method, and search program

Also Published As

Publication number Publication date
JP7298952B1 (en) 2023-06-27

Similar Documents

Publication Publication Date Title
JP4751442B2 (en) Video surveillance system
JP6148064B2 (en) Face recognition system
CN110379050A (en) A kind of gate control method, apparatus and system
US7065232B2 (en) Three-dimensional ear biometrics system and method
JP6148065B2 (en) Face recognition system
US20050249382A1 (en) System and Method for Restricting Access through a Mantrap Portal
CN105893510A (en) Video structurization system and target search method thereof
JP4357521B2 (en) Unauthorized passing person detection device and unauthorized passing person recording system using the same
US20040223631A1 (en) Face recognition based on obtaining two dimensional information from three-dimensional face shapes
CN110191234B (en) Intelligent terminal unlocking method based on fixation point analysis
CN107909040B (en) Car renting verification method and device
WO2019216091A1 (en) Face authentication device, face authentication method, and face authentication system
US8873804B2 (en) Traffic monitoring device
CN113744439A (en) Wisdom safety inspection floodgate machine system
CN211979734U (en) Wisdom safety inspection floodgate machine system
US12026902B2 (en) Method and system for monitoring a spatial area in a personnel interlock
JP4617286B2 (en) Unauthorized passing person detection device and unauthorized passing person recording system using the same
JP2007206898A (en) Face authentication device and access management device
CN110674775A (en) Gate control method, device and system and storage medium
US11354940B2 (en) Method and apparatus for foreground geometry and topology based face anti-spoofing
JP2023537059A (en) Information processing device, information processing method, and storage medium
JP7218837B2 (en) GATE DEVICE, AUTHENTICATION SYSTEM, GATE DEVICE CONTROL METHOD AND PROGRAM
JP7298952B1 (en) Image determination device, traffic management device, and image determination method
AU2020435735A1 (en) Gate system, gate apparatus, image processing method therefor, program, and arrangement method for gate apparatus
JP2006099687A (en) User authentication device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230608

R151 Written notification of patent or utility model registration

Ref document number: 7298952

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151