JP2024040203A - Person detection device, person tracking apparatus, person tracking system, person detection method, person tracking method, person detection program and person tracking program - Google Patents

Person detection device, person tracking apparatus, person tracking system, person detection method, person tracking method, person detection program and person tracking program Download PDF

Info

Publication number
JP2024040203A
JP2024040203A JP2024006174A JP2024006174A JP2024040203A JP 2024040203 A JP2024040203 A JP 2024040203A JP 2024006174 A JP2024006174 A JP 2024006174A JP 2024006174 A JP2024006174 A JP 2024006174A JP 2024040203 A JP2024040203 A JP 2024040203A
Authority
JP
Japan
Prior art keywords
image
person
tracking
similarity
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024006174A
Other languages
Japanese (ja)
Inventor
知也 児玉
Tomoya Kodama
鮎美 松本
Ayumi Matsumoto
貴司 塩崎
Takashi Shiozaki
拓磨 宮原
Takuma Miyahara
育弘 宇田
Ikuhiro Uda
真一 根本
Masakazu Nemoto
篤 佐藤
Atsushi Sato
友幸 角守
Tomoyuki Kakumori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2024006174A priority Critical patent/JP2024040203A/en
Publication of JP2024040203A publication Critical patent/JP2024040203A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To allow a monitor to easily recognize accuracy of an authentication result.SOLUTION: A detection/tracking result determination function unit 34 acquires from a monitoring/tracking execution function unit 23, similarity to an image of a similarity calculation object person being an object image and an image of a specific person being a specific image extracted respectively from monitor images periodically acquired respectively by a plurality of monitor cameras 10, detects an image similar to the image of the specific person from the images of the similarity calculation object person extracted from the monitor images of the plurality of monitor cameras 10 on the basis of a plurality of thresholds stored in a camera information table storage unit 321, and detects one of a plurality of attention stages which the detected image of the similarity calculation object person belongs to. A detection alert output function unit 3521 generates a detection alert screen 42 for presenting the detected image similar to the image of the specific person together with a stage display indicating the detected attention stage.SELECTED DRAWING: Figure 3

Description

この発明の一態様は、人物検出装置、人物追跡装置、人物追跡システム、人物検出方法、人物追跡方法、人物検出プログラム及び人物追跡プログラムに関する。 One aspect of the present invention relates to a person detection device, a person tracking device, a person tracking system, a person detection method, a person tracking method, a person detection program, and a person tracking program.

近年、画像から抽出した人物の顔や全身の特徴量の類似度に基づいて人物認証を行う技術の発展に伴い、その認証技術の利用法が各種提案されている。例えば、特許文献1は、監視カメラによって取得した監視画像から抽出した人物の顔認証結果を、通信インタフェース部を介して監視装置等の外部の端末へ送信し、その画面表示部に表示する技術を提案している。 2. Description of the Related Art In recent years, with the development of technology for person authentication based on the similarity of features of a person's face or whole body extracted from an image, various methods of using the authentication technology have been proposed. For example, Patent Document 1 discloses a technology that transmits a face authentication result of a person extracted from a surveillance image obtained by a surveillance camera to an external terminal such as a surveillance device via a communication interface section and displays it on the screen display section. is suggesting.

特許第6627894号公報Patent No. 6627894

監視画像を取得する監視カメラの種類や性能により、顔認証の出力結果及び全身照合の出力結果は何れも区々である。そのため、監視装置の画面表示部に表示された認証結果から、監視者はその認証結果の確からしさを認識することが困難である。 Depending on the type and performance of the surveillance camera that acquires surveillance images, the output results of face authentication and whole body verification will vary. Therefore, it is difficult for the supervisor to recognize the reliability of the authentication result from the authentication result displayed on the screen display section of the monitoring device.

この発明は上記事情に着目してなされたもので、その目的とするところは、認証結果の確からしさを監視者が容易に認識できるようにすることにある。 This invention was made in view of the above-mentioned circumstances, and its purpose is to enable a supervisor to easily recognize the reliability of authentication results.

上記目的を達成するためにこの発明に係る人物検出装置の一態様は、一つの類似度算出手法を用いて特定画像に対する対象画像の類似度を算出する類似度算出部が算出した前記類似度に基づいて、前記対象画像を複数の段階に分類するための複数の閾値を記憶した閾値記憶部と、複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれから抽出した前記対象画像である類似度算出対象者の画像の、前記特定画像である特定人物の画像に対する一つの類似度を前記類似度算出部から取得し、前記閾値記憶部に記憶されている前記複数の閾値に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の画像の中から、前記特定人物の画像に類似する画像を検出すると共に、その検出した前記類似度算出対象者の画像が複数の注意段階の何れであるのか検出する検出部と、前記検出部が検出した前記特定人物の画像に類似する前記画像を、前記検出部が検出した前記注意段階を示す段階表示と共に提示するための出力画面を生成する出力画面生成部と、を具備するようにしたものである。 In order to achieve the above object, one aspect of the person detection device according to the present invention is based on the similarity calculated by a similarity calculation unit that calculates the similarity of a target image to a specific image using one similarity calculation method. a threshold storage unit that stores a plurality of threshold values for classifying the target image into a plurality of stages based on the target image, and the target image extracted from each of the monitoring images periodically acquired by each of the plurality of monitoring cameras. Obtain one degree of similarity of the image of the person to be calculated from the similarity calculation unit to the image of the specific person, which is the specific image, and based on the plurality of thresholds stored in the threshold storage unit, Detecting an image similar to the image of the specific person from among the images of the similarity calculation target person extracted from the monitoring images of each of the plurality of surveillance cameras, and detecting the detected similarity calculation target person. a detection unit that detects which of a plurality of attention stages the image is in, and an image similar to the image of the specific person detected by the detection unit, together with a stage display indicating the attention stage detected by the detection unit. An output screen generation unit that generates an output screen for presentation.

この発明に係る人物追跡装置の一態様は、この発明に係る人物検出装置の一態様と、前記人物検出装置によって前記出力画面に前記段階表示と共に提示された前記特定人物の画像に類似する複数の前記類似度算出対象者の画像の中から、追跡を行うべき追跡対象者の顔画像の指定を、監視者が操作する監視端末から受け付け、その指定された画像を追跡用画像として登録し、前記登録された前記追跡を行うべき前記追跡対象者の画像である前記追跡用画像を前記特定画像として、前記類似度算出部に、前記類似度算出手法を用いて前記類似度算出対象者の画像の前記類似度を抽出させる登録部と、前記検出部が、前記類似度算出部から取得した前記類似度から検出した前記追跡対象者の画像に類似する類似度算出対象者の画像を、前記検出部が検出した前記注意段階を示す段階表示と共に提示する追跡出力画面を生成する追跡出力画面生成部と、を具備するようにしたものである。 One aspect of the person tracking device according to the present invention includes the person detecting device according to the present invention, and a plurality of images similar to the specific person image presented on the output screen by the person detecting device together with the stepwise display. A designation of a face image of the person to be tracked to be tracked from among the images of the person to be tracked for similarity calculation is received from a monitoring terminal operated by a monitor, the specified image is registered as a tracking image, and the The tracking image, which is the registered image of the tracking target person to be tracked, is used as the specific image, and the similarity calculation unit uses the similarity calculation method to calculate the similarity calculation image of the tracking target person. a registration unit that extracts the degree of similarity; and a registration unit that extracts the degree of similarity; and a tracking output screen generation unit that generates a tracking output screen to be presented together with a stage display indicating the caution level detected by the user.

或いは、この発明に係る人物追跡装置の一態様は、一つの類似度算出手法を用いて特定画像に対する対象画像の類似度を算出する類似度算出部が算出した前記類似度に基づいて、前記対象画像を複数の段階に分類するための複数の閾値を記憶した閾値記憶部と、監視者が操作する監視端末から指定された追跡を行うべき追跡対象者の画像を、前記特定画像として登録する登録部と、複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれから抽出した前記対象画像である類似度算出対象者の画像の、前記特定画像に対する類似度を前記類似度算出部から取得し、前記閾値記憶部に記憶されている前記複数の閾値に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の画像の中から、前記追跡対象者の画像に類似する画像を検出すると共に、その検出した前記類似度算出対象者の画像が複数の注意段階の何れであるのか検出する検出部と、前記検出部が、前記類似度算出部から取得した前記類似度から検出した前記追跡対象者の画像に類似する類似度算出対象者の画像を、前記注意段階を示す段階表示と共に提示するための追跡出力画面を生成する追跡出力画面生成部と、を具備するようにしたものである。 Alternatively, in one aspect of the person tracking device according to the present invention, the target image is detected based on the similarity calculated by a similarity calculation unit that calculates the similarity of the target image with respect to a specific image using one similarity calculation method. A threshold storage unit that stores a plurality of threshold values for classifying images into a plurality of stages; and a registration unit that registers, as the specific image, an image of a person to be tracked who is to be tracked as specified by a monitoring terminal operated by a monitoring person. and obtaining from the similarity calculation unit the similarity of the image of the person to be calculated, which is the target image extracted from each of the surveillance images periodically acquired by each of the plurality of surveillance cameras, with respect to the specific image. Based on the plurality of threshold values stored in the threshold storage unit, the tracking target person is selected from among the images of the similarity calculation target person extracted from the monitoring images of each of the plurality of surveillance cameras. a detection unit that detects an image similar to the image of the person and detects which of a plurality of attention stages the detected image of the similarity calculation target person is in, and the detection unit acquires information from the similarity calculation unit; a tracking output screen generation unit that generates a tracking output screen for presenting an image of the calculated target person who is similar to the image of the tracked target person detected from the similarity calculated based on the similarity level, together with a step display indicating the caution level; It is designed to have the following.

この発明に係る人物追跡システムの一態様は、この発明に係る人物追跡装置の一態様と、前記複数台の監視カメラと、前記監視者が操作する前記監視端末と、前記類似度算出部を備える解析部と、を具備するようにしたものである。 One aspect of the person tracking system according to the present invention includes one aspect of the person tracking device according to the present invention, the plurality of surveillance cameras, the surveillance terminal operated by the supervisor, and the similarity calculation section. An analysis section is provided.

この発明に係る人物検出方法の一態様は、複数台の監視カメラが取得した監視画像から特定人物を検出する人物検出方法であって、コンピュータが、一つの類似度算出手法を用いて特定画像に対する対象画像の類似度を算出する類似度算出部が算出した前記類似度に基づいて、前記対象画像を複数の段階に分類するための複数の閾値をメモリに記憶させておき、複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれから抽出した前記対象画像である類似度算出対象者の画像の、前記特定画像である特定人物の画像に対する類似度を前記類似度算出部から取得し、前記メモリに記憶されている前記複数の閾値に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の画像の中から、前記特定人物の画像に類似する画像を検出すると共に、その検出した前記類似度算出対象者の画像が複数の注意段階の何れであるのか検出し、前記検出した前記特定人物の画像に類似する前記画像を、前記検出した前記注意段階を示す段階表示と共に提示するための出力画面を生成するようにしたものである。 One aspect of the person detection method according to the present invention is a person detection method for detecting a specific person from surveillance images acquired by a plurality of surveillance cameras, in which a computer uses one similarity calculation method to A plurality of threshold values for classifying the target image into a plurality of stages are stored in a memory based on the similarity calculated by a similarity calculation unit that calculates the similarity of the target image, and a plurality of surveillance cameras are stored. Obtaining, from the similarity calculation unit, the similarity of the image of the person to be calculated, which is the target image, extracted from each of the regularly acquired monitoring images, with respect to the image of the specific person, which is the specific image; Based on the plurality of threshold values stored in the memory, from among the images of the similarity calculation target person extracted from the monitoring images of each of the plurality of monitoring cameras, images similar to the image of the specific person are selected. At the same time as detecting an image, it is also detected which of a plurality of caution levels the detected image of the person to be calculated for similarity is in, and the image similar to the detected image of the specific person is classified into the detected caution levels. An output screen is generated to be presented together with a stage display indicating the stage.

この発明に係る人物追跡方法の一態様は、複数台の監視カメラが取得した監視画像から追跡を行うべき追跡対象者を追跡する人物追跡方法であって、コンピュータが、この発明に係る人物検出方法の一態様によって生成した前記出力画面に前記段階表示と共に提示された前記特定人物の画像に類似する複数の類似度算出対象者の画像の中から、追跡を行うべき追跡対象者の画像の指定を、監視者が操作する監視端末から受け付け、その指定された画像を追跡用画像として前記メモリに登録し、前記メモリに登録された前記追跡を行うべき前記追跡対象者の画像である前記追跡用画像を前記特定画像として、前記類似度算出部に、前記類似度算出手法を用いて前記類似度算出対象者の画像の前記類似度を抽出させ、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の、前記特定画像である前記追跡対象者の画像に対する前記類似度を前記類似度算出部から取得し、前記メモリに記憶されている前記複数の閾値に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の画像の中から、前記追跡対象者の画像に類似する類似度算出対象者の画像を検出すると共に、その検出した前記類似度算出対象者の画像が前記複数の注意段階の何れであるのか検出し、前記類似度算出部から取得した前記類似度から検出した前記追跡対象者の画像に類似する前記類似度算出対象者の画像を、前記検出した前記注意段階を示す段階表示と共に提示する追跡出力画面を生成するようにしたものである。 One aspect of the person tracking method according to the present invention is a person tracking method for tracking a person to be tracked from surveillance images acquired by a plurality of surveillance cameras, wherein a computer Specifying an image of a tracking target person to be tracked from among a plurality of similarity calculation target images similar to the image of the specific person presented on the output screen generated according to the one aspect along with the step display. , the tracking image is received from a monitoring terminal operated by a supervisor, the specified image is registered in the memory as a tracking image, and the tracking image is an image of the tracking target person who is to be tracked and registered in the memory. as the specific image, causing the similarity calculation unit to extract the similarity of the image of the person to be calculated using the similarity calculation method, and extracting the similarity from the monitoring images of each of the plurality of monitoring cameras. The degree of similarity of the similarity calculation target person to the image of the tracking target person, which is the specific image, is obtained from the similarity calculation unit, and based on the plurality of threshold values stored in the memory, Detecting an image of the similarity calculation target person that is similar to the image of the tracking target person from among the images of the similarity calculation target person extracted from the monitoring images of each of the plurality of surveillance cameras; Detecting which of the plurality of attention stages the image of the person to be tracked is in, and calculating the similarity to be similar to the image of the person to be tracked detected based on the similarity obtained from the similarity calculation unit. A tracking output screen is generated that presents an image of the subject together with a stage display indicating the detected caution stage.

或いは、この発明に係る人物追跡方法の一態様は、複数台の監視カメラが取得した監視画像から追跡を行うべき追跡対象者を追跡する人物追跡方法であって、コンピュータが、一つの類似度算出手法を用いて特定画像に対する対象画像の類似度を算出する類似度算出部が算出した前記類似度のそれぞれに基づいて、前記対象画像を複数の段階に分類するための複数の閾値をメモリに記憶させておき、監視者が操作する監視端末から指定された追跡を行うべき追跡対象者の画像を、前記特定画像として前記メモリに登録し、複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれから抽出した前記対象画像である類似度算出対象者の画像の、前記特定画像に対する類似度を前記類似度算出部から取得し、前記メモリに記憶されている前記複数の閾値に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の画像の中から、前記追跡対象者の画像に類似する画像を検出すると共に、その検出した前記類似度算出対象者の画像が複数の注意段階の何れであるのか検出し、前記類似度算出部から取得した前記類似度から検出した前記追跡対象者の画像に類似する類似度算出対象者の画像を、前記検出した前記注意段階を示す段階表示と共に提示するための追跡出力画面を生成するようにしたものである。 Alternatively, one aspect of the person tracking method according to the present invention is a person tracking method for tracking a person to be tracked from surveillance images obtained by a plurality of surveillance cameras, in which a computer performs one similarity calculation. storing in a memory a plurality of threshold values for classifying the target image into a plurality of stages based on each of the degrees of similarity calculated by a similarity calculation unit that calculates the degree of similarity of the target image to a specific image using a method; Then, the image of the person to be tracked specified by the monitoring terminal operated by the monitor is registered in the memory as the specific image, and the monitoring image is periodically acquired by each of the plurality of monitoring cameras. The degree of similarity of the image of the person to be calculated, which is the target image extracted from each of the target images, to the specific image is obtained from the similarity degree calculation unit, and based on the plurality of threshold values stored in the memory, From among the images of the similarity calculation target person extracted from the monitoring images of each of the plurality of surveillance cameras, an image similar to the image of the tracking target person is detected, and the detected similarity calculation target detecting which of a plurality of attention stages the image of the person is in, and detecting an image of the target person whose similarity is similar to the image of the target person detected from the similarity obtained from the similarity calculating unit; A tracking output screen is generated to be presented together with a step display indicating the caution step that has been taken.

この発明に係る人物検出プログラムの一態様は、この発明に係る人物検出装置の一態様の各部としてコンピュータを動作させるようにしたプログラムである。 One aspect of the person detection program according to the present invention is a program that causes a computer to operate as each part of one aspect of the person detection apparatus according to the present invention.

この発明に係る人物追跡プログラムの一態様は、この発明に係る人物追跡装置の一態様の各部としてコンピュータを動作させるようにしたプログラムである。 One aspect of the person tracking program according to the present invention is a program that causes a computer to operate as each part of one aspect of the person tracking device according to the present invention.

この発明の各態様によれば、認証結果の確からしさを監視者が容易に認識できるようになる。 According to each aspect of the present invention, a supervisor can easily recognize the certainty of an authentication result.

図1は、この発明の一実施形態に係る人物追跡システムの全体構成の一例を示す図である。FIG. 1 is a diagram showing an example of the overall configuration of a person tracking system according to an embodiment of the present invention. 図2は、図1に示した映像解析機能部の構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of the video analysis function section shown in FIG. 1. 図3は、この発明の一実施形態に係る人物検出装置及び人物追跡装置としての図1に示したWebサーバのソフトウェア構成を示すブロック図である。FIG. 3 is a block diagram showing the software configuration of the Web server shown in FIG. 1 as a person detection device and a person tracking device according to an embodiment of the present invention. 図4は、図3に示した過去検索用データ記憶部の記憶内容の一例を示す図である。FIG. 4 is a diagram showing an example of the storage contents of the past search data storage section shown in FIG. 3. 図5は、図3に示した検知履歴データ記憶部の記憶内容の一例を示す図である。FIG. 5 is a diagram showing an example of the storage contents of the detection history data storage section shown in FIG. 3. 図6は、図3に示した管理データ記憶部の記憶内容の一例を示す図である。FIG. 6 is a diagram showing an example of the storage contents of the management data storage section shown in FIG. 3. 図7は、図3に示したカメラ情報テーブル記憶部の記載内容の一例を示す図である。FIG. 7 is a diagram showing an example of the contents written in the camera information table storage section shown in FIG. 3. 図8は、図3に示した過去検索用データテーブル記憶部の記載内容の一例を示す図である。FIG. 8 is a diagram showing an example of the contents written in the past search data table storage section shown in FIG. 3. 図9は、図3に示した検知履歴テーブル記憶部の記載内容の一例を示す図である。FIG. 9 is a diagram showing an example of the contents written in the detection history table storage section shown in FIG. 3. 図10は、図3に示した管理テーブル記憶部の記載内容の一例を示す図である。FIG. 10 is a diagram showing an example of the contents written in the management table storage section shown in FIG. 3. 図11は、図3に示した追跡テーブル記憶部の記載内容の一例を示す図である。FIG. 11 is a diagram showing an example of the contents written in the tracking table storage section shown in FIG. 3. 図12は、図3のWebサーバのハードウェア構成を示すブロック図である。FIG. 12 is a block diagram showing the hardware configuration of the Web server in FIG. 3. 図13は、図2に示した監視/追跡実行機能部による監視処理の処理手順を示すフローチャートである。FIG. 13 is a flowchart showing the processing procedure of monitoring processing by the monitoring/tracking execution function unit shown in FIG. 図14は、図3に示した検知/追跡結果判定機能部による検知結果判定処理の処理手順を示すフローチャートである。FIG. 14 is a flowchart showing the processing procedure of the detection result judgment process by the detection/tracking result judgment function section shown in FIG. 図15は、図3に示した検知アラート出力機能部による検知アラート出力処理の処理手順を示すフローチャートである。FIG. 15 is a flowchart showing the processing procedure of detection alert output processing by the detection alert output function section shown in FIG. 図16は、図1に示した監視端末のWebブラウザに表示される検知アラート画面の一例を示す図である。FIG. 16 is a diagram showing an example of a detection alert screen displayed on the web browser of the monitoring terminal shown in FIG. 図17は、図3に示した画像登録機能部による画像登録処理の処理手順を示すフローチャートである。FIG. 17 is a flowchart showing the processing procedure of image registration processing by the image registration function section shown in FIG. 図18は、図2に示した監視/追跡実行機能部による追跡処理の処理手順を示すフローチャートである。FIG. 18 is a flowchart showing the processing procedure of tracking processing by the monitoring/tracking execution function section shown in FIG. 図19は、図3に示した検知/追跡結果判定機能部による追跡結果判定処理の処理手順を示すフローチャートである。FIG. 19 is a flowchart showing the processing procedure of the tracking result judgment process by the detection/tracking result judgment function section shown in FIG. 図20Aは、図3に示した追跡アラート出力機能部による追跡アラート出力処理の処理手順の第1の部分を示すフローチャートである。FIG. 20A is a flowchart showing a first part of the processing procedure of tracking alert output processing by the tracking alert output function unit shown in FIG. 3. FIG. 図20Bは、図3に示した追跡アラート出力機能部による追跡アラート出力処理の処理手順の第2の部分を示すフローチャートである。FIG. 20B is a flowchart showing the second part of the processing procedure for tracking alert output processing by the tracking alert output function unit shown in FIG. 3. FIG. 図20Cは、図3に示した追跡アラート出力機能部による追跡アラート出力処理の処理手順の第3の部分を示すフローチャートである。FIG. 20C is a flowchart showing the third part of the processing procedure for tracking alert output processing by the tracking alert output function unit shown in FIG. 3. FIG. 図21は、図1に示した監視端末のWebブラウザに表示される追跡アラート画面の一例を示す図である。FIG. 21 is a diagram showing an example of a tracking alert screen displayed on the web browser of the monitoring terminal shown in FIG. 図22は、図1に示した監視端末のWebブラウザに表示される追跡アラート画面の別の例を示す図である。FIG. 22 is a diagram showing another example of the tracking alert screen displayed on the web browser of the monitoring terminal shown in FIG.

以下、図面を参照してこの発明に係わる実施形態を説明する。 Embodiments of the present invention will be described below with reference to the drawings.

[一実施形態]
(1)構成
(1-1)全体構成
図1は、この発明の一実施形態に係る人物追跡システム1の全体構成の一例を示す図である。
[One embodiment]
(1) Configuration (1-1) Overall Configuration FIG. 1 is a diagram showing an example of the overall configuration of a person tracking system 1 according to an embodiment of the present invention.

人物追跡システム1は、例えば、オフィスビルや百貨店等の複数フロアを有する建物、複数店舗を含む商業施設、等の広い監視範囲を有する大型施設において、特定の人物を追跡するシステムである。 The person tracking system 1 is a system that tracks a specific person in a large facility with a wide monitoring range, such as a building with multiple floors such as an office building or a department store, or a commercial facility with multiple stores.

この人物追跡システム1は、複数台の監視カメラ10と、各監視カメラ10に対応して設けられた映像解析機能部20及びこの発明の一実施形態に係る人物検出装置及び人物追跡装置として機能するWebサーバ30を備えるサーバ装置SVと、監視端末40と、を含む。各監視カメラ10と、サーバ装置SVと、監視端末40とは、ネットワークNETを介して接続されている。 This person tracking system 1 functions as a plurality of surveillance cameras 10, a video analysis function section 20 provided corresponding to each surveillance camera 10, and a person detection device and a person tracking device according to an embodiment of the present invention. It includes a server device SV including a Web server 30 and a monitoring terminal 40. Each surveillance camera 10, server device SV, and surveillance terminal 40 are connected via a network NET.

ネットワークNETは、構内ネットワークであり、例えば、無線LAN(Local Area Network)または有線LANである。ネットワークNETは、インターネットのような広域ネットワークであっても良い。 The network NET is a local area network, such as a wireless LAN (Local Area Network) or a wired LAN. The network NET may be a wide area network such as the Internet.

複数の監視カメラ10は、互いの撮影範囲が重ならないように或いは一部重なるように、大型施設内に分散配置されたネットワークカメラである。監視カメラ10は、撮影範囲内の動画像を撮影するビデオカメラであって良く、動画像を構成する各フレーム画像を撮影範囲の監視画像として取得することができる。また監視カメラ10は、一定のタイムインターバルで静止画像を撮影することで、定期的に監視画像を取得するスチルカメラであっても良い。 The plurality of surveillance cameras 10 are network cameras that are distributed within a large facility so that their photographic ranges do not overlap or partially overlap. The surveillance camera 10 may be a video camera that photographs a moving image within a photographing range, and can acquire each frame image forming the moving image as a monitoring image of the photographing range. Furthermore, the surveillance camera 10 may be a still camera that periodically acquires surveillance images by photographing still images at fixed time intervals.

サーバ装置SV内に配置された複数の映像解析機能部20のそれぞれは、対応する監視カメラ10から取得した監視画像に対する様々な解析機能を有している。この映像解析機能部20が提供する解析機能の詳細については、後述する。なお、映像解析機能部20は、このようにサーバ装置SVの内部に配置されるのではなく、専用の演算装置やクラウドなどに独立して配置し、ネットワークNETを介して対応する監視カメラ10とサーバ装置SVとの間でデータを授受することも可能である。また、映像解析機能部20は、監視カメラ10が演算機能を持つのであれば、そのカメラ内部に配置することも可能である。なお、本実施形態では、監視カメラ10と映像解析機能部20とを1対1に対応させて構成しているが、一つの映像解析機能部20が複数台の監視カメラ10に割り当てられていても良い。 Each of the plurality of video analysis functional units 20 arranged in the server device SV has various analysis functions for monitoring images acquired from the corresponding monitoring camera 10. Details of the analysis function provided by this video analysis function section 20 will be described later. Note that the video analysis function unit 20 is not placed inside the server device SV in this way, but is placed independently in a dedicated computing device, cloud, etc., and is connected to the corresponding surveillance camera 10 via the network NET. It is also possible to exchange data with the server device SV. Further, the video analysis function unit 20 can be placed inside the surveillance camera 10 if it has a calculation function. In this embodiment, the surveillance camera 10 and the video analysis function section 20 are configured in a one-to-one correspondence, but one video analysis function section 20 may be assigned to a plurality of surveillance cameras 10. Also good.

サーバ装置SVのWebサーバ30は、サーバコンピュータによって構成され、機能部として、ファイルサーバ31、データベース(以下、DBと略記する。)サーバ32、Webアプリケーション35、検索用人検知結果保存機能部33、及び、検知/追跡結果判定機能部34を含む。これら各機能部の詳細については、後述する。 The Web server 30 of the server device SV is constituted by a server computer, and includes a file server 31, a database (hereinafter abbreviated as DB) server 32, a Web application 35, a search person detection result storage function section 33, and a function section. , a detection/tracking result determination function section 34. Details of each of these functional units will be described later.

監視端末40は、パーソナルコンピュータ等のコンピュータによって構成され、Webブラウザ41のプログラムを実行することができる。Webブラウザ41により、監視端末40を操作する警備員等の監視者は、Webサーバ30のWebアプリケーション35が提供する人物追跡結果を閲覧することができる。なお、図1では、監視端末40は、一台のみを示しているが、人物追跡システム1は、監視端末40を複数含んでも良い。 The monitoring terminal 40 is configured by a computer such as a personal computer, and can execute a program of a web browser 41. Using the web browser 41, a supervisor such as a security guard who operates the monitoring terminal 40 can view the person tracking results provided by the web application 35 of the web server 30. Although FIG. 1 shows only one monitoring terminal 40, the person tracking system 1 may include a plurality of monitoring terminals 40.

また、サーバ装置SVが監視端末40の機能を備えていても良い。 Further, the server device SV may have the function of the monitoring terminal 40.

(1-2)映像解析機能部20
図2は、図1に示した映像解析機能部20の構成の一例を示すブロック図である。映像解析機能部20は、画像取得モジュール21、人検知情報抽出機能部22及び監視/追跡実行機能部23を備える。
(1-2) Video analysis function section 20
FIG. 2 is a block diagram showing an example of the configuration of the video analysis function section 20 shown in FIG. 1. As shown in FIG. The video analysis function section 20 includes an image acquisition module 21, a human detection information extraction function section 22, and a monitoring/tracking execution function section 23.

画像取得モジュール21は、ネットワークNETを介して監視カメラ10からRTSP(Real Time Streaming Protocol)等の所定の通信プロトコルに従って送信されてくるフレーム画像を取得する。画像取得モジュール21は、取得したフレーム画像をサーバ内通信やWebsocket等によりWebサーバ30に送信し、ファイルサーバ31に蓄積させる。なお、映像解析機能部20がサーバ装置SVから独立して配置されている場合には、画像取得モジュール21は、取得したフレーム画像をネットワークNETを介してWebサーバ30に送信する。また、画像取得モジュール21は、取得したフレーム画像を人検知情報抽出機能部22に送る。 The image acquisition module 21 acquires frame images transmitted from the surveillance camera 10 via the network NET according to a predetermined communication protocol such as RTSP (Real Time Streaming Protocol). The image acquisition module 21 transmits the acquired frame image to the Web server 30 via intra-server communication, Websocket, etc., and causes the file server 31 to accumulate it. Note that when the video analysis function section 20 is arranged independently from the server device SV, the image acquisition module 21 transmits the acquired frame image to the Web server 30 via the network NET. Further, the image acquisition module 21 sends the acquired frame image to the human detection information extraction function section 22.

人検知情報抽出機能部22は、入力された画像から人物の全身画像を抽出し、この全身画像からその特徴量である全身特徴量及び人物の顔画像を抽出し、さらにこの顔画像からその特徴量である顔特徴量を抽出する抽出部として機能する。具体的には、人検知情報抽出機能部22は、全身検出モジュール221、領域追跡モジュール222、全身特徴量抽出モジュール223、顔検出モジュール224及び顔特徴量抽出モジュール225を備える。 The human detection information extraction function unit 22 extracts a full-body image of a person from the input image, extracts a whole-body feature amount and a face image of the person from this full-body image, and further extracts the features of the person from this face image. It functions as an extraction unit that extracts facial feature quantities. Specifically, the human detection information extraction function section 22 includes a whole body detection module 221 , a region tracking module 222 , a whole body feature amount extraction module 223 , a face detection module 224 , and a face feature amount extraction module 225 .

全身検出モジュール221は、入力画像であるフレーム画像に写っている人物それぞれの全身を検出して、全身画像を抽出する全身画像抽出部である。全身検出モジュール221は、例えば、深層学習(Deep Leaning)等の機械学習により事前に学習させた人物の全身画像に基づいて、人物の全身を検出することができる。全身検出モジュール221は、抽出した全身画像を、サーバ内通信やWebsocket等によりWebサーバ30に送信し、ファイルサーバ31に蓄積させる。なお、映像解析機能部20がサーバ装置SVから独立して配置されている場合には、全身検出モジュール221は、抽出した全身画像をネットワークNETを介してWebサーバ30に送信する。また、全身検出モジュール221は、抽出した全身画像を、全身特徴量抽出モジュール223及び顔検出モジュール224にも送る。さらに、全身検出モジュール221は、フレーム画像と抽出した全身画像を領域追跡モジュール222に送る。 The whole body detection module 221 is a whole body image extraction unit that detects the whole body of each person appearing in a frame image that is an input image and extracts a whole body image. The whole body detection module 221 can detect the whole body of a person, for example, based on a whole body image of the person trained in advance by machine learning such as deep learning. The whole body detection module 221 transmits the extracted whole body image to the Web server 30 via intra-server communication, Websocket, etc., and stores it in the file server 31. Note that when the video analysis function section 20 is arranged independently from the server device SV, the whole body detection module 221 transmits the extracted whole body image to the Web server 30 via the network NET. The whole body detection module 221 also sends the extracted whole body image to the whole body feature extraction module 223 and the face detection module 224. Furthermore, the whole body detection module 221 sends the frame image and the extracted whole body image to the region tracking module 222 .

領域追跡モジュール222は、全身検出モジュール221から入力されたフレーム画像中の全身画像の領域位置を検出する。 The region tracking module 222 detects the region position of the whole body image in the frame image input from the whole body detection module 221.

全身特徴量抽出モジュール223は、入力された全身画像から全身特徴量を抽出する全身特徴量抽出部である。全身特徴量は、全身画像に含まれる人物の体の特徴を客観的に数値化したものである。例えば、全身特徴量は、画像から推定される体型、身長、性別、年代、等の人物自体の属性情報を数値化したものとすることができる。全身特徴量抽出モジュール223は、深層学習(例えばDeep-person-reid等)等の事前に学習したモデルを用いて、全身特徴量を抽出することができる。また、全身特徴量抽出モジュール223は、これら全身特徴量を、HOG(Histogram of Oriented Gradients)やSIFT(Scaled Invariance Feature Transform)等の局所画像特徴量として算出することも可能である。全身特徴量抽出モジュール223は、抽出した全身特徴量を、サーバ内通信やWebsocket等によりWebサーバ30に送信し、ファイルサーバ31に蓄積させる。なお、映像解析機能部20がサーバ装置SVから独立して配置されている場合には、全身特徴量抽出モジュール223は、抽出した全身特徴量をネットワークNETを介してWebサーバ30に送信する。さらに、全身特徴量抽出モジュール223は、抽出した全身特徴量を、監視/追跡実行機能部23に送る。 The whole body feature extraction module 223 is a whole body feature extraction unit that extracts whole body features from the input whole body image. The whole body feature quantity is an objective numerical representation of the body features of the person included in the whole body image. For example, the whole-body feature amount can be a numerical representation of attribute information about the person, such as body shape, height, gender, age, etc., estimated from the image. The whole body feature extraction module 223 can extract whole body features using a model learned in advance such as deep learning (for example, deep-person-reid). Further, the whole-body feature extraction module 223 can also calculate these whole-body features as local image features such as HOG (Histogram of Oriented Gradients) and SIFT (Scaled Invariance Feature Transform). The whole body feature amount extraction module 223 transmits the extracted whole body feature amount to the Web server 30 via intra-server communication, Websocket, etc., and stores it in the file server 31. Note that when the video analysis function unit 20 is arranged independently from the server device SV, the whole body feature amount extraction module 223 transmits the extracted whole body feature amount to the Web server 30 via the network NET. Furthermore, the whole body feature amount extraction module 223 sends the extracted whole body feature amount to the monitoring/tracking execution function unit 23.

顔検出モジュール224は、入力された全身画像から人物の顔を検出して、顔画像を抽出する顔画像抽出部である。顔検出モジュール224は、例えば、深層学習等の機械学習により事前に学習させた人物の顔画像に基づいて、人物の顔を検出することができる。顔検出モジュール224は、抽出した顔画像を、顔特徴量抽出モジュール225に送る。 The face detection module 224 is a face image extraction unit that detects a person's face from the input whole body image and extracts a face image. The face detection module 224 can detect a person's face, for example, based on a person's face image trained in advance by machine learning such as deep learning. The face detection module 224 sends the extracted face image to the face feature amount extraction module 225.

顔特徴量抽出モジュール225は、入力された顔画像から顔特徴量を抽出する顔特徴量抽出部である。顔特徴量は、顔画像に含まれる人物の顔の特徴を客観的に数値化したものである。顔特徴量抽出モジュール225は、例えば、全身特徴量を抽出する全身特徴量抽出モジュール223と同様に、深層学習等で事前に学習したモデルを用いて顔特徴量を抽出することができる。また、顔検出モジュール224は、これら顔特徴量を、HOGやSIFT等の局所画像特徴量として算出しても良い。顔検出モジュール224は、抽出した顔特徴量を、サーバ内通信やWebsocket等によりWebサーバ30に送信し、ファイルサーバ31に蓄積させる。なお、映像解析機能部20がサーバ装置SVから独立して配置されている場合には、顔特徴量抽出モジュール225は、抽出した顔特徴量をネットワークNETを介してWebサーバ30に送信する。さらに、顔検出モジュール224は、抽出した顔特徴量を、監視/追跡実行機能部23に送る。 The facial feature extraction module 225 is a facial feature extraction unit that extracts facial features from the input facial image. The facial feature amount is an objective numerical representation of the facial features of a person included in the facial image. For example, similar to the whole body feature extraction module 223 that extracts whole body features, the facial feature extraction module 225 can extract facial features using a model learned in advance by deep learning or the like. Further, the face detection module 224 may calculate these facial feature amounts as local image feature amounts such as HOG or SIFT. The face detection module 224 transmits the extracted facial feature amount to the Web server 30 via intra-server communication, Websocket, etc., and stores it in the file server 31. Note that when the video analysis function unit 20 is arranged independently from the server device SV, the facial feature amount extraction module 225 transmits the extracted facial feature amount to the Web server 30 via the network NET. Further, the face detection module 224 sends the extracted facial feature amount to the monitoring/tracking execution function unit 23.

また、監視/追跡実行機能部23は、二つの入力画像の全身特徴量の類似度である全身画像類似度、及び、二つの入力画像の顔特徴量の類似度である顔画像類似度を算出する類似度算出部として機能する。具体的には、監視/追跡実行機能部23は、全身照合モジュール231及び顔照合モジュール232を備える。 In addition, the monitoring/tracking execution function unit 23 calculates whole body image similarity, which is the similarity between the whole body features of the two input images, and facial image similarity, which is the similarity between the facial features of the two input images. functions as a similarity calculation unit. Specifically, the monitoring/tracking execution function unit 23 includes a whole body matching module 231 and a face matching module 232.

全身照合モジュール231は、全身特徴量抽出モジュール223から入力された全身特徴量と、監視端末40から指示された追跡対象の人物の全身特徴量との類似度を算出する。追跡対象の人物の全身特徴量は、例えば、全身特徴量抽出モジュール223によって予め抽出されて、Webサーバ30のファイルサーバ31に登録されている。全身照合モジュール231は、算出した類似度を、サーバ内通信やWebsocket等によりWebサーバ30に送信する。なお、映像解析機能部20がサーバ装置SVから独立して配置されている場合には、全身照合モジュール231は、算出した類似度をネットワークNETを介してWebサーバ30に送信する。 The whole body verification module 231 calculates the degree of similarity between the whole body feature input from the whole body feature extraction module 223 and the whole body feature of the person to be tracked instructed by the monitoring terminal 40 . For example, the whole body feature amount of the person to be tracked is extracted in advance by the whole body feature amount extraction module 223 and registered in the file server 31 of the Web server 30. The whole body verification module 231 transmits the calculated degree of similarity to the web server 30 via intra-server communication, websocket, or the like. Note that when the video analysis function unit 20 is arranged independently from the server device SV, the whole body verification module 231 transmits the calculated similarity to the Web server 30 via the network NET.

顔照合モジュール232は、顔特徴量抽出モジュール225から入力された顔特徴量と、監視端末40から指示された追跡対象の人物の顔特徴量との類似度を算出する。追跡対象の人物の顔特徴量は、例えば、顔特徴量抽出モジュール225によって予め抽出されて、Webサーバ30のファイルサーバ31に登録されている。顔照合モジュール232は、算出した類似度を、サーバ内通信やWebsocket等によりWebサーバ30に送信する。なお、映像解析機能部20がサーバ装置SVから独立して配置されている場合には、顔照合モジュール232は、算出した類似度をネットワークNETを介してWebサーバ30に送信する。 The face matching module 232 calculates the degree of similarity between the facial feature amount input from the facial feature amount extraction module 225 and the facial feature amount of the person to be tracked instructed by the monitoring terminal 40 . The facial feature amount of the person to be tracked is, for example, extracted in advance by the facial feature amount extraction module 225 and registered in the file server 31 of the Web server 30. The face matching module 232 transmits the calculated similarity to the web server 30 via intra-server communication, websocket, or the like. Note that when the video analysis function unit 20 is arranged independently from the server device SV, the face matching module 232 transmits the calculated similarity to the Web server 30 via the network NET.

(1-3)Webサーバ30
図3は、Webサーバ30のソフトウェア構成を示すブロック図である。前述したように、Webサーバ30は、機能部として、ファイルサーバ31、DBサーバ32、検索用人検知結果保存機能部33、検知/追跡結果判定機能部34、及び、Webアプリケーション35を有する。
(1-3) Web server 30
FIG. 3 is a block diagram showing the software configuration of the Web server 30. As described above, the Web server 30 includes a file server 31, a DB server 32, a search person detection result storage function section 33, a detection/tracking result determination function section 34, and a Web application 35 as functional sections.

ファイルサーバ31は、各種のデータファイルを蓄積する。ファイルサーバ31は、過去検索用データ記憶部311、検知履歴データ記憶部312及び管理データ記憶部313を含むことができる。 The file server 31 stores various data files. The file server 31 can include a past search data storage section 311, a detection history data storage section 312, and a management data storage section 313.

過去検索用データ記憶部311は、複数の映像解析機能部20それぞれで取得したデータである過去検索用データを記憶する。図4は、この過去検索用データ記憶部311に記憶される過去検索用データの一例を示す図である。過去検索用データは、各映像解析機能部20の全身検出モジュール221がフレーム画像から検出した全身画像毎に、過去検索用データ記憶部311に記憶されることができる。過去検索用データは、映像解析機能部20の画像取得モジュール21が取得したフレーム画像3111、全身検出モジュール221が抽出した全身画像3112、全身特徴量抽出モジュール223が抽出した全身特徴量3113、及び、顔特徴量抽出モジュール225が抽出した顔特徴量3114を含むことができる。これらフレーム画像3111、全身画像3112、全身特徴量3113及び顔特徴量3114は、例えば、同一のパスに記憶したり、ファイル名の一部に同一の文字列を付したりすることで、紐付けることができる。 The past search data storage unit 311 stores past search data that is data acquired by each of the plurality of video analysis function units 20. FIG. 4 is a diagram showing an example of past search data stored in this past search data storage section 311. The past search data can be stored in the past search data storage section 311 for each whole body image detected from the frame image by the whole body detection module 221 of each video analysis function section 20. The past search data includes a frame image 3111 acquired by the image acquisition module 21 of the video analysis function unit 20, a whole body image 3112 extracted by the whole body detection module 221, a whole body feature 3113 extracted by the whole body feature extraction module 223, and The facial feature amount 3114 extracted by the facial feature amount extraction module 225 can be included. These frame images 3111, whole body images 3112, whole body features 3113, and face features 3114 are linked by, for example, storing them in the same path or adding the same character string to part of the file name. be able to.

検知履歴データ記憶部312は、不審者、迷子、得意顧客といった特定の監視対象者として検知された人物それぞれに関するデータである検知履歴データを記憶する。図5は、この検知履歴データ記憶部312に記憶される検知された人物の検知履歴データの一例を示す図である。検知履歴データは、検知された人物の顔画像である検知顔画像3121と、その検知顔画像3121に対応する顔特徴量3122と、を含むことができる。これら検知顔画像3121と顔特徴量3122は、例えば、同一のパスに記憶したり、ファイル名の一部に同一の文字列を付したりすることで、紐付けることができる。 The detection history data storage unit 312 stores detection history data that is data regarding each person detected as a specific monitoring target, such as a suspicious person, a lost child, or a regular customer. FIG. 5 is a diagram showing an example of detection history data of a detected person stored in the detection history data storage section 312. The detection history data can include a detected face image 3121 that is a face image of a detected person, and a facial feature amount 3122 corresponding to the detected face image 3121. The detected face image 3121 and the facial feature amount 3122 can be linked by, for example, being stored in the same path or by adding the same character string to part of the file name.

なお、特に図示はしていないが、監視対象者に関するデータは、ファイルサーバ31に事前に記憶されている。この監視対象者に関するデータは、例えば、監視端末40からネットワークNETを介してWebサーバ30に、監視対象者の顔画像を入力することで、ファイルサーバ31に記憶させることができる。そして、Webサーバ30が、その顔画像をサーバ内通信やWebsocket等により一つの映像解析機能部20の顔特徴量抽出モジュール225に入力することで、当該顔特徴量抽出モジュール225から顔特徴量を取得して、ファイルサーバ31に記憶させることができる。また、ネットワークNETを介して、過去検索用データ記憶部311に記憶されている複数の人物の全身画像3112を監視端末40のWebブラウザ41にて閲覧し、監視端末40から任意の全身画像3112を指定することで、その人物を監視対象者として指定することも可能である。この場合、Webサーバ30は、その指定された全身画像3112をサーバ内通信やWebsocket等により一つの映像解析機能部20の顔検出モジュール224に入力することで、当該顔検出モジュール224から顔画像を取得して、ファイルサーバ31に監視対象者の顔画像として記憶させることができる。また、Webサーバ30は、過去検索用データ記憶部311に記憶されている、指定された全身画像3112を有する過去検索用データから顔特徴量3114を取得して、それをファイルサーバ31に記憶させることができる。 Note that, although not particularly shown, data regarding the person to be monitored is stored in the file server 31 in advance. The data regarding the person to be monitored can be stored in the file server 31 by, for example, inputting the face image of the person to be monitored from the monitoring terminal 40 to the Web server 30 via the network NET. Then, the Web server 30 inputs the facial image to the facial feature extraction module 225 of one video analysis function unit 20 through intra-server communication, Websocket, etc., and extracts the facial feature amount from the facial feature extraction module 225. It can be acquired and stored in the file server 31. In addition, the whole body images 3112 of a plurality of people stored in the past search data storage unit 311 are viewed on the web browser 41 of the monitoring terminal 40 via the network NET, and any full body image 3112 is displayed from the monitoring terminal 40. By specifying this, it is also possible to designate that person as a person to be monitored. In this case, the Web server 30 inputs the designated full-body image 3112 to the face detection module 224 of one video analysis function section 20 through intra-server communication, Websocket, etc., and extracts the face image from the face detection module 224. It can be acquired and stored in the file server 31 as a face image of the person to be monitored. Further, the web server 30 acquires the facial feature amount 3114 from the past search data having the specified full body image 3112 stored in the past search data storage unit 311, and stores it in the file server 31. be able to.

また、監視対象者に関するデータをファイルサーバ31に記憶する際、当該監視対象者についての情報を記載した監視対象者テーブルもDBサーバ32に記憶される。この監視対象者テーブルには、当該監視対象者を一意に識別する識別情報である不審者ID、監視対象者の名称である不審者名称、どのような理由の監視対象者であるかを示す危険度種別、当該監視対象者についての身体的特徴や行動様式、注意点等の説明文、等を記載しておくことができる。 Further, when data regarding a person to be monitored is stored in the file server 31, a table of persons to be monitored containing information about the person to be monitored is also stored in the DB server 32. This monitoring target person table includes the suspicious person ID, which is identification information that uniquely identifies the monitoring target, the suspicious person name, which is the name of the monitoring target, and the risk that indicates the reason for the monitoring target. It is possible to record information such as degree type, physical characteristics and behavior patterns of the person to be monitored, and explanatory notes such as precautions.

検知履歴データにおける検知顔画像3121は、Webサーバ30が、例えば、何れかの監視カメラ10の監視画像から、監視対象者に関するデータとの比較によって監視対象者を検知した時に、検知履歴データ記憶部312に記憶させることができる。すなわち、Webサーバ30は、当該監視画像から取得されて過去検索用データ記憶部311に記憶されている全身画像を、サーバ内通信やWebsocket等により一つの映像解析機能部20の顔検出モジュール224に入力することで、当該顔検出モジュール224から顔画像を取得し、それを検知顔画像3121として検知履歴データ記憶部312に記憶させることができる。この一つの映像解析機能部20は、監視対象者が検知された監視画像を取得した監視カメラ10に対応する映像解析機能部20であって良い。映像解析機能部20の顔検出モジュール224が、抽出した顔画像をバッファリングしている場合には、Webサーバ30は、当該顔検出モジュール224にバッファリングしている顔画像を要求することで検知顔画像3121を取得しても良い。 The detected face image 3121 in the detection history data is stored in the detection history data storage unit when the web server 30 detects a person to be monitored from a surveillance image of any of the surveillance cameras 10 by comparing it with data regarding the person to be monitored. 312. That is, the Web server 30 sends the whole body image acquired from the monitoring image and stored in the past search data storage section 311 to the face detection module 224 of one video analysis function section 20 through intra-server communication, Websocket, etc. By inputting the information, a face image can be acquired from the face detection module 224 and stored in the detection history data storage unit 312 as the detected face image 3121. This one video analysis function section 20 may be a video analysis function section 20 corresponding to the surveillance camera 10 that acquired the surveillance image in which the person to be monitored was detected. If the face detection module 224 of the video analysis function unit 20 is buffering the extracted face image, the web server 30 detects the face image by requesting the face detection module 224 for the buffered face image. A face image 3121 may also be acquired.

管理データ記憶部313は、追跡対象者それぞれに関するデータである管理データを記憶する。図6は、この管理データ記憶部313に記憶される追跡対象者毎の管理データの一例を示す図である。追跡対象者毎の管理データは、監視端末40からの指定に応じて管理データ記憶部313に記憶されることができる。管理データは、指定された追跡対象者の顔画像である登録顔画像3131と、その登録顔画像3131から抽出された特徴である顔特徴量3132と、追跡対象者の全身画像である登録全身画像3133と、その登録全身画像3133から抽出された特徴である全身特徴量3134と、を含むことができる。これら登録顔画像3131、顔特徴量3132、登録全身画像3133及び全身特徴量3134は、例えば、同一のパスに記憶したり、ファイル名の一部に同一の文字列を付したりすることで、紐付けることができる。 The management data storage unit 313 stores management data that is data regarding each tracked person. FIG. 6 is a diagram showing an example of management data for each person to be tracked stored in the management data storage unit 313. Management data for each person to be tracked can be stored in the management data storage unit 313 according to a designation from the monitoring terminal 40. The management data includes a registered face image 3131 which is a face image of a designated person to be tracked, a facial feature amount 3132 which is a feature extracted from the registered face image 3131, and a registered whole body image which is a whole body image of the person to be tracked. 3133 and a whole body feature amount 3134 that is a feature extracted from the registered whole body image 3133. These registered face image 3131, facial feature amount 3132, registered whole body image 3133, and whole body feature amount 3134 can be stored in the same path, or by adding the same character string to part of the file name, for example. Can be linked.

例えば、Webサーバ30は、監視対象者が検知された際に、検知履歴データ記憶部312に記憶したその監視対象に対する検知履歴データにおける検知顔画像3121を監視端末40のWebブラウザ41にて監視者に閲覧させる。そして、監視端末40から当該人物を追跡対象者とする指定が行われると、Webサーバ30は、検知履歴データにおける検知顔画像3121をこの管理データにおける登録顔画像3131として記憶させる。さらに、Webサーバ30は、検知履歴データにおける顔特徴量3122を、この管理データにおける顔特徴量3132として記憶させることができる。また、Webサーバ30は、指定された検知履歴データにおける検知顔画像3121の元となった全身画像を過去検索用データ記憶部311に記憶された過去検索用データから取得すると共に、その全身特徴量も当該過去検索用データから取得し、それらをこの管理データにおける登録全身画像3133及び全身特徴量3134として記憶させる。 For example, when a person to be monitored is detected, the web server 30 sends the detected face image 3121 in the detection history data for the monitored person stored in the detection history data storage unit 312 to the person being monitored using the web browser 41 of the monitoring terminal 40. to view it. Then, when the monitoring terminal 40 specifies that the person is to be tracked, the Web server 30 stores the detected face image 3121 in the detection history data as the registered face image 3131 in this management data. Furthermore, the Web server 30 can store the facial feature amount 3122 in the detection history data as the facial feature amount 3132 in this management data. Further, the web server 30 acquires the whole body image that is the source of the detected face image 3121 in the specified detection history data from the past search data stored in the past search data storage unit 311, and also acquires the whole body feature amount. are also acquired from the past search data and stored as the registered whole body image 3133 and whole body feature amount 3134 in this management data.

或いは、Webサーバ30は、過去検索用データ記憶部311に記憶されている複数の人物の全身画像3112を監視端末40のWebブラウザ41にて閲覧させ、監視端末40から任意の全身画像の指定を受けて、その人物を指定の追跡対象者とするようにしても良い。この場合、Webサーバ30は、その指定された全身画像3112をサーバ内通信やWebsocket等により一つの映像解析機能部20の顔検出モジュール224に入力することで、当該顔検出モジュール224から顔画像を取得して、管理データ記憶部313に登録顔画像3131として記憶させることができる。またこの場合、顔特徴量3132、登録全身画像3133及び全身特徴量3134については、過去検索用データ記憶部311に記憶されているものを取得して記憶させれば良い。或いは、追跡対象者の顔画像及び全身画像についても、監視対象者の顔画像と同様に、監視端末40からネットワークNETを介してWebサーバ30に入力することで、管理データ記憶部313に登録顔画像3131及び登録全身画像3133として記憶させるようにしても構わない。この場合には、Webサーバ30は、その入力された顔画像及び全身画像をサーバ内通信やWebsocket等により映像解析機能部20へ送って、顔特徴量3132及び全身特徴量3134を取得すれば良い。 Alternatively, the web server 30 allows the web browser 41 of the monitoring terminal 40 to view the full-body images 3112 of a plurality of people stored in the past search data storage unit 311, and allows the monitoring terminal 40 to specify an arbitrary full-body image. In response to this, the person may be designated as a designated person to be tracked. In this case, the Web server 30 inputs the designated full-body image 3112 to the face detection module 224 of one video analysis function section 20 through intra-server communication, Websocket, etc., and extracts the face image from the face detection module 224. It can be acquired and stored in the management data storage unit 313 as a registered face image 3131. Further, in this case, as for the face feature amount 3132, the registered whole body image 3133, and the whole body feature amount 3134, those stored in the past search data storage unit 311 may be acquired and stored. Alternatively, the face image and full body image of the person to be tracked can also be registered in the management data storage unit 313 by inputting them from the monitoring terminal 40 to the web server 30 via the network NET, in the same way as the face image of the person to be monitored. They may be stored as the image 3131 and the registered whole body image 3133. In this case, the web server 30 may send the input face image and full body image to the video analysis function unit 20 via intra-server communication, Websocket, etc., and obtain the facial feature amount 3132 and the whole body feature amount 3134. .

DBサーバ32は、各種のデータテーブルを蓄積する。DBサーバ32は、カメラ情報テーブル記憶部321、過去検索用データテーブル記憶部322、検知履歴テーブル記憶部323、管理テーブル記憶部324、追跡テーブル記憶部325、等を含むことができる。 The DB server 32 stores various data tables. The DB server 32 can include a camera information table storage section 321, a past search data table storage section 322, a detection history table storage section 323, a management table storage section 324, a tracking table storage section 325, and the like.

カメラ情報テーブル記憶部321は、複数の監視カメラ10のそれぞれに対応して設けられ、その対応する監視カメラ10に関する各種情報が記載されたカメラ情報テーブル3211を予め記憶している。図7は、このカメラ情報テーブル記憶部321に記憶される、監視カメラ10毎のカメラ情報テーブル3211の記載内容の一例を示す図である。カメラ情報テーブル3211には、例えば、カメラID、カメラ名称、アスペクト比、カメラ位置X、カメラ位置Y、カメラ角度、顔照合閾値1~3、全身照合閾値1~3、等々が記載されている。 The camera information table storage unit 321 is provided corresponding to each of the plurality of surveillance cameras 10, and stores in advance a camera information table 3211 in which various information regarding the corresponding surveillance camera 10 is described. FIG. 7 is a diagram showing an example of the contents of the camera information table 3211 for each surveillance camera 10, which is stored in the camera information table storage section 321. The camera information table 3211 includes, for example, camera ID, camera name, aspect ratio, camera position X, camera position Y, camera angle, face matching thresholds 1 to 3, whole body matching thresholds 1 to 3, and the like.

ここで、カメラIDは、対応する監視カメラ10を一意に識別する識別情報である。カメラ名称は、対応する監視カメラ10の名称である。これは、対応する監視カメラ10の大型施設における設置位置と関連付けた名称とすることができる。アスペクト比は対応する監視カメラ10で取得される画像のアスペクト比である。カメラ位置X及びカメラ位置Yは、対応する監視カメラ10の設置位置を示す大型施設内のXY座標である。カメラ角度は、対応する監視カメラ10の設置向きを示している。 Here, the camera ID is identification information that uniquely identifies the corresponding surveillance camera 10. The camera name is the name of the corresponding surveillance camera 10. This can be a name associated with the installation position of the corresponding surveillance camera 10 in a large facility. The aspect ratio is the aspect ratio of the image acquired by the corresponding surveillance camera 10. Camera position X and camera position Y are XY coordinates within a large facility that indicate the installation position of the corresponding surveillance camera 10. The camera angle indicates the installation direction of the corresponding surveillance camera 10.

また、顔照合閾値1~3及び全身照合閾値1~3は、映像解析機能部20の全身照合モジュール231及び顔照合モジュール232が算出した類似度と比較するための閾値である。顔照合閾値1は、対応する監視カメラ10の監視画像から抽出された人物の顔画像が監視対象者或いは追跡対象者の顔画像であるか否か分類するための顔画像類似度に対応する第1の閾値である。顔照合モジュール232が算出した顔画像類似度がこの第1の閾値である顔照合閾値1よりも大きい場合、Webサーバ30は、対応する監視カメラ10の監視画像から抽出された人物の顔画像が監視対象者或いは追跡対象者の顔画像であると判定することができる。顔照合閾値2及び3は、顔照合閾値1よりも大きい顔画像類似度に対応し、抽出された人物の顔画像が監視対象者或いは追跡対象者の顔画像である場合に、その顔画像を複数の段階に分類するための第2の閾値である。すなわち、これら閾値の大きさは、[顔照合閾値1<顔照合閾値2<顔照合閾値3」の関係を有する。同様に、全身照合閾値1は、対応する監視カメラ10の監視画像から抽出された人物の全身画像が監視対象者或いは追跡対象者の全身画像であるか否か分類するための全身画像類似度に対応する第1の閾値である。全身照合モジュール231が算出した全身画像類似度がこの全身照合閾値1よりも大きい場合、Webサーバ30は、対応する監視カメラ10の監視画像から抽出された人物の全身画像が監視対象者或いは追跡対象者の全身画像であると判定することができる。全身照合閾値2及び3は、全身照合閾値1よりも大きい全身画像類似度に対応し、抽出された人物の全身画像が監視対象者或いは追跡対象者の全身画像である場合に、その全身画像を複数の段階に分類するための第2の閾値である。すなわち、これら閾値の大きさは、[全身照合閾値1<全身照合閾値2<全身照合閾値3」の関係を有する。 Further, the face matching thresholds 1 to 3 and the whole body matching thresholds 1 to 3 are thresholds for comparison with the degrees of similarity calculated by the whole body matching module 231 and the face matching module 232 of the video analysis function section 20. The face matching threshold 1 is a threshold value corresponding to face image similarity for classifying whether a face image of a person extracted from a surveillance image of the corresponding surveillance camera 10 is a face image of a person to be monitored or a person to be tracked. 1 threshold. If the face image similarity calculated by the face matching module 232 is larger than the first threshold, ie, the face matching threshold 1, the web server 30 determines whether the face image of the person extracted from the monitoring image of the corresponding monitoring camera 10 is It can be determined that the face image is of a person to be monitored or a person to be tracked. Face matching thresholds 2 and 3 correspond to face image similarity greater than face matching threshold 1, and when the extracted face image of a person is a face image of a person to be monitored or a person to be tracked, the face image is This is the second threshold for classifying into multiple stages. That is, the magnitudes of these thresholds have a relationship of [face matching threshold 1<face matching threshold 2<face matching threshold 3]. Similarly, the whole body matching threshold 1 is the whole body image similarity for classifying whether the whole body image of the person extracted from the surveillance image of the corresponding surveillance camera 10 is the whole body image of the person to be monitored or the person to be tracked. is the corresponding first threshold. If the whole body image similarity calculated by the whole body matching module 231 is larger than the whole body matching threshold 1, the web server 30 determines whether the whole body image of the person extracted from the monitoring image of the corresponding monitoring camera 10 is a monitoring target or a tracking target. It can be determined that the image is a full-body image of a person. Whole body matching thresholds 2 and 3 correspond to a whole body image similarity greater than whole body matching threshold 1, and when the extracted whole body image of a person is a whole body image of a person to be monitored or a person to be tracked, the whole body image is This is the second threshold for classifying into multiple stages. That is, the magnitudes of these threshold values have a relationship of [whole body verification threshold 1<whole body verification threshold 2<whole body verification threshold 3].

各閾値の値は、概して、類似度を算出する映像解析機能部20の監視/追跡実行機能部23における顔照合モジュール232が用いる照合モデルと全身照合モジュール231が用いる照合モデルとによって決まる。各閾値は、監視カメラ10自体の種類、性能、設置条件等に依存するため、監視カメラ10を設置してから実際の運用が開始されるまでの間に、適切な値に調整されて、カメラ情報テーブル3211に記載される。なお、この顔照合閾値1~3及び全身照合閾値1~3は、監視対象者に対する閾値と追跡対象者に対する閾値とで異なる値として、それぞれ別個にカメラ情報テーブル3211に記載しても良い。また、それぞれの閾値は3段階に限定するものではないことは勿論である。すなわち、第2の閾値は、少なくとも一つあれば良い。 The value of each threshold is generally determined by the matching model used by the face matching module 232 and the matching model used by the whole body matching module 231 in the monitoring/tracking execution function section 23 of the video analysis function section 20 that calculates the degree of similarity. Each threshold value depends on the type, performance, installation conditions, etc. of the surveillance camera 10 itself, so the threshold value is adjusted to an appropriate value between the time the surveillance camera 10 is installed and the actual operation begins. It is written in the information table 3211. Note that the face matching thresholds 1 to 3 and the whole body matching thresholds 1 to 3 may be separately recorded in the camera information table 3211 as different values for the monitoring target person and the tracking target person. Moreover, it goes without saying that each threshold value is not limited to three levels. That is, at least one second threshold value is sufficient.

過去検索用データテーブル記憶部322は、過去検索用データ記憶部311に記憶される過去検索用データのそれぞれに対応して、その過去検索用データに関する各種データが記載された過去検索用データテーブル3221を記憶する。Webサーバ30は、過去検索用データ記憶部311に過去検索用データを記憶する際に、この過去検索用データテーブル3221を作成して、過去検索用データテーブル記憶部322に記憶させる。図8は、この過去検索用データテーブル記憶部322に記憶される過去検索用データテーブル3221の記載内容の一例を示す図である。過去検索用データテーブル3221には、例えば、検知ID、検知日時、検知カメラID、トラッキングID、フレームID、検知座標情報X、検知座標情報Y、検知座標情報Width、検知座標情報Height、等々が記載される。 The past search data table storage unit 322 includes a past search data table 3221 in which various data related to the past search data are described, corresponding to each of the past search data stored in the past search data storage unit 311. Remember. When storing the past search data in the past search data storage section 311, the Web server 30 creates this past search data table 3221 and stores it in the past search data table storage section 322. FIG. 8 is a diagram showing an example of the contents of the past search data table 3221 stored in the past search data table storage section 322. The past search data table 3221 includes, for example, detection ID, detection date and time, detection camera ID, tracking ID, frame ID, detection coordinate information X, detection coordinate information Y, detection coordinate information Width, detection coordinate information Height, etc. be done.

ここで、検知IDは、映像解析機能部20の全身検出モジュール221が検出したフレーム画像3111中の全身画像3112毎に振られる識別情報である。検知日時は、全身検出モジュール221が当該全身画像3112を検出した日時である。検知カメラIDは、フレーム画像3111を取得した監視カメラ10のカメラIDである。トラッキングIDは、複数フレーム画像間で、同一の人物の全身画像3112を紐付けるための識別情報である。フレームIDはフレーム画像3111を一意に識別するための識別情報である。検知座標情報X、検知座標情報Y、検知座標情報Width及び検知座標情報Heightは、領域追跡モジュール222によって検出されたフレーム画像3111中の全身画像3112の領域位置を示す情報であり、全身画像3112の例えば左上隅のフレーム画像中のXY座標と、そこからの画像幅及び画像高さを示す。 Here, the detection ID is identification information assigned to each whole body image 3112 in the frame image 3111 detected by the whole body detection module 221 of the video analysis function unit 20. The detection date and time is the date and time when the whole body detection module 221 detected the whole body image 3112. The detected camera ID is the camera ID of the surveillance camera 10 that acquired the frame image 3111. The tracking ID is identification information for linking the whole body images 3112 of the same person among multiple frame images. The frame ID is identification information for uniquely identifying the frame image 3111. Detection coordinate information For example, it shows the XY coordinates of the upper left corner in the frame image, and the image width and image height from there.

なお、Webサーバ30は、過去検索用データテーブル3221のトラッキングIDを、例えば、以下のようにして付与することができる。Webサーバ30は、映像解析機能部20の人検知情報抽出機能部22から与えられる全身画像の領域位置と、過去検索用データテーブル記憶部322に記憶されている当該監視カメラ10の前フレーム画像における過去検索用データテーブル3221それぞれの全身画像の領域位置とを比較して、重複領域等を考慮することで、全身画像の人物の同一性を判別する。同一人物が前フレーム画像に写っていなければ、Webサーバ30は、新たなトラッキングIDを付与する。また、同一人物が前フレーム画像に写っていれば、当該人物の全身画像3112に対応する過去検索用データテーブル3221よりトラッキングIDを引き継ぐ。なお、Webサーバ30は、全身画像の位置ではなくて、全身特徴量を比較することで、人物の同一性を判別し、新規トラッキングID付与の要否を決定するようにしても良い。 Note that the Web server 30 can assign the tracking ID of the past search data table 3221 in the following manner, for example. The web server 30 uses the region position of the whole body image provided from the human detection information extraction function unit 22 of the video analysis function unit 20 and the previous frame image of the surveillance camera 10 stored in the past search data table storage unit 322. The identity of the person in the whole-body image is determined by comparing the area positions of each of the whole-body images in the past search data table 3221 and taking into consideration overlapping areas and the like. If the same person is not shown in the previous frame image, the web server 30 assigns a new tracking ID. Furthermore, if the same person appears in the previous frame image, the tracking ID is taken over from the past search data table 3221 corresponding to the whole body image 3112 of the person. Note that the Web server 30 may determine the identity of the person by comparing the whole-body feature amount instead of the position of the whole-body image, and determine whether or not to provide a new tracking ID.

検知履歴テーブル記憶部323は、検知履歴データ記憶部312に記憶される検知履歴データのそれぞれに対応して、その検知履歴データに関する各種データが記載された検知履歴テーブル3231を記憶する。Webサーバ30は、検知履歴データ記憶部312に検知履歴データを記憶する際に、この検知履歴テーブル3231を作成して、検知履歴テーブル記憶部323に記憶させる。図9は、この検知履歴テーブル記憶部323に記憶される検知履歴テーブル3231の記載内容の一例を示す図である。検知履歴テーブル3231には、例えば、検知ID、検知日時、検知カメラID、不審者ID、顔認証スコア、顔左右角度、顔上下角度、トラッキングID、等々が記載される。 The detection history table storage unit 323 stores a detection history table 3231 in which various data related to the detection history data are described, corresponding to each piece of detection history data stored in the detection history data storage unit 312. When storing detection history data in the detection history data storage section 312, the Web server 30 creates this detection history table 3231 and stores it in the detection history table storage section 323. FIG. 9 is a diagram showing an example of the contents of the detection history table 3231 stored in the detection history table storage section 323. The detection history table 3231 includes, for example, a detection ID, detection date and time, detection camera ID, suspicious person ID, face authentication score, face left/right angle, face up/down angle, tracking ID, and the like.

ここで、検知ID、検知日時、検知カメラID及びトラッキングIDは、過去検索用データテーブル3221について説明した通りである。不審者IDは、図示しない監視対象者テーブルに記載されている、検知された監視対象者の不審者IDである。顔認証スコアは、映像解析機能部20の顔照合モジュール232が算出した、その監視対象者の顔画像との類似度である。この類似度は、顔照合モジュール232が算出した類似度の実数値が記憶されるが、後述するようにWebブラウザ41での検知アラート画面の表示のために、3段階の顔画像類似度ラベルIDに書き換えられることができる。顔左右角度及び顔上下角度は、対応する検知履歴データの検知顔画像3121における顔の向きを示す。 Here, the detection ID, detection date and time, detection camera ID, and tracking ID are as described for the past search data table 3221. The suspicious person ID is the suspicious person ID of the detected person to be monitored, which is listed in a table of persons to be monitored (not shown). The face recognition score is the degree of similarity with the face image of the person to be monitored, which is calculated by the face matching module 232 of the video analysis function unit 20. This degree of similarity is stored as a real value of the degree of similarity calculated by the face matching module 232, but as described later, in order to display a detection alert screen on the web browser 41, a three-level face image similarity label ID is stored. can be rewritten as . The face left/right angle and the face up/down angle indicate the direction of the face in the detected face image 3121 of the corresponding detection history data.

管理テーブル記憶部324は、管理データ記憶部313に記憶される管理データのそれぞれに対応して、その管理データに関する各種データが記載された管理テーブル3241を記憶する。Webサーバ30は、管理データ記憶部313に管理データを記憶する際に、この管理テーブル3241を作成して、管理テーブル記憶部324に記憶させる。図10は、この管理テーブル記憶部324に記憶される管理テーブル3241の記載内容の一例を示す図である。管理テーブル3241には、例えば、不審者ID、不審者名称、危険度種別、説明文、クエリ顔画像パス、顔特徴量ファイルパス、監視ステータス、ピン留めフラグ、長期間滞在フラグ、等々が記載される。 The management table storage unit 324 stores, corresponding to each piece of management data stored in the management data storage unit 313, a management table 3241 in which various data related to the management data are described. When storing management data in the management data storage section 313, the Web server 30 creates this management table 3241 and stores it in the management table storage section 324. FIG. 10 is a diagram showing an example of the contents of the management table 3241 stored in the management table storage section 324. The management table 3241 includes, for example, a suspicious person ID, suspicious person name, risk type, explanatory text, query face image path, facial feature file path, monitoring status, pinning flag, long stay flag, etc. Ru.

ここで、不審者ID、不審者名称、危険度種別及び説明文は、図示しない監視対象者テーブルに記載されている、追跡対象者として指定された監視対象者についての情報が転記される。クエリ顔画像パス及び顔特徴量ファイルパスは、管理データ記憶部313における、管理データの登録顔画像3131及び顔特徴量3132の保存パスを示す。監視ステータスは、危険度種別以外の、追跡対象者に対して監視端末40から任意に設定される属性情報である。ピン留めフラグは、追跡対象者として指定された際に、そのことを示すためにセットされるフラグである。長期間滞在フラグは、追跡対象者として指定されていないが、規定の時間以上、当該施設に滞在している場合にセットされるフラグである。すなわち、Webサーバ30は、監視対象以外ではないが長期間滞在している人物が存在するとき、その人物の顔画像及び顔特徴量も管理データ記憶部313に記憶させ、管理テーブル記憶部324に管理テーブルを記憶させることができる。これにより、新たな不審者や新規顧客の候補を発見できるようになる。 Here, as the suspicious person ID, suspicious person name, risk type, and explanatory text, information about the person to be monitored who is specified as the person to be tracked, which is written in the table of persons to be monitored (not shown), is transferred. The query face image path and face feature amount file path indicate the storage paths of the registered face image 3131 and face feature amount 3132 of management data in the management data storage unit 313. The monitoring status is attribute information other than the risk type that is arbitrarily set for the person to be tracked from the monitoring terminal 40. The pinning flag is a flag that is set to indicate when a person is designated as a tracking target. The long-term stay flag is a flag that is set when a person is not designated as a tracking target but stays at the facility for a specified period of time or longer. That is, when there is a person who is not a monitoring target but has been staying for a long time, the Web server 30 also stores the face image and facial feature amount of the person in the management data storage unit 313, and stores the face image and facial feature amount of the person in the management table storage unit 324. Management tables can be stored. This makes it possible to discover new suspicious persons and new customer candidates.

追跡テーブル記憶部325は、映像解析機能部20の全身照合モジュール231又は顔照合モジュール232が算出した全身画像類似度又は顔画像類似度からWebサーバ30によって追跡対象者の全身画像又は顔画像であると判定された、何れかの監視カメラ10の監視画像から抽出された人物の類似度が記載された追跡テーブルを記憶する。図11は、この追跡テーブル記憶部325に記憶される追跡テーブル3251の記載内容の一例を示す図である。追跡テーブル3251は、追跡対象者の不審者ID毎に、検知ID、全身画像類似度及び顔画像類似度でなるレコードを含み、各レコードはWebサーバ30が追跡対象者の全身画像又は顔画像であると判定する毎に追加されていく。全身画像類似度及び顔画像類似度は、映像解析機能部20の全身照合モジュール231及び顔照合モジュール232が算出した類似度の実数値が記憶されるが、後述するようにWebブラウザ41での追跡アラート画面の表示のために、3段階の全身画像類似度ラベルID及び顔画像類似度ラベルIDに書き換えられることができる。 The tracking table storage unit 325 stores the whole body image or face image of the person to be tracked by the web server 30 based on the whole body image similarity or face image similarity calculated by the whole body matching module 231 or the face matching module 232 of the video analysis function unit 20. A tracking table is stored in which the degree of similarity of the person extracted from the monitoring image of any of the monitoring cameras 10 determined to be described is described. FIG. 11 is a diagram showing an example of the contents of the tracking table 3251 stored in the tracking table storage section 325. The tracking table 3251 includes a record consisting of a detection ID, a whole body image similarity degree, and a face image similarity degree for each suspicious person ID of a person to be tracked, and each record is a record that the web server 30 uses as a whole body image or a face image of the person to be tracked. It is added each time it is determined that it exists. For the whole body image similarity degree and the face image similarity degree, the real values of the similarity calculated by the whole body matching module 231 and the face matching module 232 of the video analysis function unit 20 are stored, but as will be described later, tracking with the Web browser 41 is performed. In order to display the alert screen, it can be rewritten into a three-level whole body image similarity label ID and a three-level facial image similarity label ID.

検索用人検知結果保存機能部33及び検知/追跡結果判定機能部34は、Webサーバのバックエンド機能として提供される。検索用人検知結果保存機能部33は、映像解析機能部20の人検知情報抽出機能部22の各機能部の出力を受けて、過去検索用データテーブル記憶部322に記憶する検索用データテーブルを作成する。検知/追跡結果判定機能部34は、映像解析機能部20の監視/追跡実行機能部23の各機能部の出力を受けて、事前に記憶してある監視対象者の顔画像と同一の人物が何れかの監視カメラ10の監視画像内に現れたことを検知し、検知履歴テーブル記憶部323に記憶する検知履歴テーブルを作成すると共に、人検知情報抽出機能部22の各機能部で抽出した、その人物の検知顔画像3121及び顔特徴量3122を検知履歴データ記憶部312へ記憶させる。検知/追跡結果判定機能部34は、また、映像解析機能部20の監視/追跡実行機能部23の各機能部の出力を受けて、監視者から指定された追跡対象者の全身画像及び/又は顔画像と同一の人物が何れかの監視カメラ10の監視画像内に現れたことを検知し、その検知に応じて、追跡テーブル記憶部325に記憶している当該追跡対象者の追跡テーブルにレコードを追加していく。 The search person detection result storage function section 33 and the detection/tracking result determination function section 34 are provided as back-end functions of the Web server. The search person detection result storage function section 33 receives the output from each function section of the person detection information extraction function section 22 of the video analysis function section 20 and creates a search data table to be stored in the past search data table storage section 322. do. The detection/tracking result determination function unit 34 receives the output from each function unit of the monitoring/tracking execution function unit 23 of the video analysis function unit 20, and determines whether the same person as the face image of the person to be monitored is stored in advance. A detection history table is created to be detected in the surveillance image of any of the surveillance cameras 10 and stored in the detection history table storage section 323, and extracted by each functional section of the human detection information extraction function section 22. The detected face image 3121 and facial feature amount 3122 of the person are stored in the detection history data storage section 312. The detection/tracking result determination function unit 34 also receives the output of each functional unit of the monitoring/tracking execution function unit 23 of the video analysis function unit 20 and determines the whole body image and/or the tracking target person specified by the monitor. It is detected that the same person as the face image appears in the monitoring image of any of the monitoring cameras 10, and in response to the detection, a record is created in the tracking table of the tracking target person stored in the tracking table storage unit 325. will be added.

Webアプリケーション35は、監視端末40のWebブラウザ41からの要求に応じて各種処理を行い、その処理結果を示す閲覧用のデータを作成するアプリケーションプログラムである。Webアプリケーション35は、Webサーバ30に、ログイン機能部351、監視機能部352、追跡機能部353及び過去検索機能部354としての機能を提供する。 The web application 35 is an application program that performs various processes in response to requests from the web browser 41 of the monitoring terminal 40 and creates data for viewing indicating the processing results. The Web application 35 provides the Web server 30 with functions as a login function section 351, a monitoring function section 352, a tracking function section 353, and a past search function section 354.

ログイン機能部351は、Webブラウザ41からのログインを受け付けて、認証を行い、正規ユーザに対して当該Webアプリケーション35が提供する機能の利用を許可する。 The login function unit 351 receives a login from the Web browser 41, performs authentication, and permits the authorized user to use the functions provided by the Web application 35.

監視機能部352は、検知/追跡結果判定機能部34が監視対象者の顔画像と同一の人物を検知した際に、アラートを発生して、Webブラウザ41に提示する。そのために、監視機能部352は、Webブラウザ41に提示するための検知アラート画面を生成する検知アラート出力機能部3521を含む。検知アラート画面は、監視対象者に類似すると検知された人物の画像を、類似度に基づく注意段階を示す段階表示と共に提示するための出力画面である。 When the detection/tracking result determination function unit 34 detects a person identical to the facial image of the person being monitored, the monitoring function unit 352 generates an alert and presents it on the web browser 41. To this end, the monitoring function unit 352 includes a detection alert output function unit 3521 that generates a detection alert screen to be presented on the web browser 41. The detection alert screen is an output screen for presenting an image of a person detected to be similar to the person being monitored, together with a stage display showing a warning stage based on the degree of similarity.

追跡機能部353は、検知/追跡結果判定機能部34が検知した監視対象者の顔画像と同一の人物の顔画像及び全身画像で、複数の監視カメラ10を跨いでリアルタイムに該当人物を追跡した追跡結果を、Webブラウザ41に提示する。そのために、追跡機能部353は、画像登録機能部3531と追跡アラート出力機能部3532とを含む。画像登録機能部3531は、Webブラウザ41上での監視者から指定操作による、追跡を行うべき追跡対象者の顔画像の指定を受けて、管理データ記憶部313に登録顔画像3131及び顔特徴量3132を記憶させると共に、管理テーブル3241を作成して管理テーブル記憶部324に記憶させる。追跡アラート出力機能部3532は、検知/追跡結果判定機能部34が追跡対象者の全身画像及び/又は顔画像と同一の人物を検知した際に、追跡対象者に類似すると検知された人物の画像を、類似度に基づく注意段階を示す段階表示と共に提示するための出力画面である追跡アラート画面をWebブラウザ41に提示する。 The tracking function unit 353 tracked the person in real time across the plurality of surveillance cameras 10 using the same face image and whole body image of the person as the person to be monitored as the face image detected by the detection/tracking result determination function unit 34. The tracking results are presented to the web browser 41. To this end, the tracking function section 353 includes an image registration function section 3531 and a tracking alert output function section 3532. The image registration function unit 3531 receives a designation of a face image of a person to be tracked to be tracked through a designation operation from a supervisor on the web browser 41, and stores a registered face image 3131 and facial feature amounts in the management data storage unit 313. 3132 is stored, and at the same time, a management table 3241 is created and stored in the management table storage section 324. The tracking alert output function unit 3532 outputs an image of a person detected to be similar to the tracked person when the detection/tracking result determination function unit 34 detects a person who is the same as the whole body image and/or face image of the tracked person. A tracking alert screen is presented on the Web browser 41, which is an output screen for presenting the following along with a step display indicating the caution step based on the degree of similarity.

過去検索機能部354は、Webブラウザ41からの時間及び場所の指定を受けて、その指定された時間・場所に来訪した人物を一覧表示し、その中から検索する人物の指定を受け付ける。そして、過去検索機能部354は、検知/追跡結果判定機能部34がその指定された人物の顔画像及び全身画像から、過去検索用データ記憶部311に記憶された類似人物を検索した結果をWebブラウザ41に提示する。 The past search function section 354 receives a time and place specification from the Web browser 41, displays a list of people who visited the specified time and place, and accepts the specification of a person to be searched from among them. Then, the past search function unit 354 searches for a similar person stored in the past search data storage unit 311 from the face image and full body image of the specified person by the detection/tracking result determination function unit 34, and searches the result on the Web. It is presented on the browser 41.

図12は、Webサーバ30のハードウェア構成を示すブロック図である。Webサーバ30は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサ301A、プログラムメモリ301B、記憶装置302及び通信インタフェース装置303を備える。プログラムメモリ301B、記憶装置302及び通信インタフェース装置303は、バス304を介してハードウェアプロセッサ301Aに接続されている。 FIG. 12 is a block diagram showing the hardware configuration of the Web server 30. The web server 30 includes, for example, a hardware processor 301A such as a CPU (Central Processing Unit), a program memory 301B, a storage device 302, and a communication interface device 303. Program memory 301B, storage device 302 and communication interface device 303 are connected to hardware processor 301A via bus 304.

通信インタフェース装置303は、例えば一つ以上の有線または無線の通信インタフェースユニットを含んでおり、ネットワークNETで使用される通信プロトコルに従い、映像解析機能部20及び監視端末40との間で各種情報の送受信を可能にする。 The communication interface device 303 includes, for example, one or more wired or wireless communication interface units, and transmits and receives various information between the video analysis function unit 20 and the monitoring terminal 40 according to the communication protocol used in the network NET. enable.

プログラムメモリ301Bは、記憶媒体として、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの随時書込み及び読出しが可能な不揮発性メモリと、ROM(Read Only Memory)等の不揮発性メモリとを組み合わせて使用したもので、CPUなどのハードウェアプロセッサ301Aが実行することで、この発明の一実施形態に係る各種制御処理を実行するために必要なプログラムを記憶している。すなわち、ハードウェアプロセッサ301Aは、プログラムメモリ301Bに記憶されたプログラムを読み出して実行することで、図3に示すような検索用人検知結果保存機能部33及び検知/追跡結果判定機能部34として機能することができる。なお、これらの処理機能部は、それぞれ別個のハードウェアプロセッサで実現されても良い。すなわち、Webサーバ30は、複数のハードウェアプロセッサを備えていても良い。また、これらの処理機能部の少なくとも一部は、ASIC(Application Specific Integrated Circuit)、FPGA(field-programmable gate array)、GPU(Graphics Processing Unit)などの集積回路を含む、他の多様なハードウェア回路の形式で実現されても良い。また、プログラムメモリ301Bに記憶されるプログラムは、図3に示すようなWebアプリケーション35のブログラムを含むことができる。 The program memory 301B includes, as a storage medium, a non-volatile memory that can be written to and read from at any time such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive), and a non-volatile memory such as a ROM (Read Only Memory). It stores programs necessary for executing various control processes according to an embodiment of the present invention by being executed by a hardware processor 301A such as a CPU. That is, the hardware processor 301A reads and executes the program stored in the program memory 301B, thereby functioning as the search person detection result storage function unit 33 and the detection/tracking result determination function unit 34 as shown in FIG. be able to. Note that these processing functional units may be realized by separate hardware processors. That is, the Web server 30 may include multiple hardware processors. In addition, at least a portion of these processing functional units may include various other hardware circuits, including integrated circuits such as ASICs (Application Specific Integrated Circuits), FPGAs (Field-programmable Gate Arrays), and GPUs (Graphics Processing Units). It may be realized in the form of Furthermore, the programs stored in the program memory 301B can include a program of a web application 35 as shown in FIG.

記憶装置302は、記憶媒体として、例えば、HDDまたはSSDなどの随時書込み及び読出しが可能な不揮発性メモリと、RAM(Random Access Memory)などの揮発性メモリとを組み合わせて使用したもので、人物追跡処理を行う過程で取得及び作成された各種データを記憶するために用いられる。また、記憶装置302には、図3に示すようなファイルサーバ31及びDBサーバ32を構成することができる。 The storage device 302 is a storage medium that uses a combination of a non-volatile memory such as an HDD or an SSD that can be written to and read from at any time, and a volatile memory such as a RAM (Random Access Memory). It is used to store various data acquired and created during processing. Furthermore, the storage device 302 can be configured with a file server 31 and a DB server 32 as shown in FIG.

(2)動作
次に、以上のように構成された人物追跡システムの動作を説明する。
(2) Operation Next, the operation of the person tracking system configured as above will be explained.

(2-1)監視動作
監視端末40でWebブラウザ41が起動されてWebサーバ30に対するアクセス操作がなされると、Webサーバ30は、Webアプリケーション35が提供するログイン機能部351により、認証動作を実施する。そして、正規ユーザであることが確認されたならば、Webサーバ30は、Webアプリケーション35が提供する監視機能部352により、Webブラウザ41での閲覧用の監視画面を生成して、Webブラウザ41へ送信する。監視画面は、以下のようにして生成されることができる。
(2-1) Monitoring operation When the web browser 41 is started on the monitoring terminal 40 and an access operation is performed to the web server 30, the web server 30 performs an authentication operation using the login function section 351 provided by the web application 35. do. If it is confirmed that the user is an authorized user, the web server 30 uses the monitoring function unit 352 provided by the web application 35 to generate a monitoring screen for viewing on the web browser 41 and sends the screen to the web browser 41. Send. A monitoring screen can be generated as follows.

複数台の監視カメラ10はそれぞれ、監視画像を定期的に取得し、取得した監視画像を対応する映像解析機能部20に入力する。映像解析機能部20の画像取得モジュール21は、対応する監視カメラ10からの監視画像であるフレーム画像を取得し、人検知情報抽出機能部22は、そのフレーム画像に写っている人物の全身画像、その全身画像の領域位置、全身特徴量及び顔特徴量を抽出する。そして、映像解析機能部20は、それらフレーム画像、全身画像、全身画像の領域位置、全身特徴量及び顔特徴量をサーバ内通信やWebsocket等によりWebサーバ30に送信する。 Each of the plurality of surveillance cameras 10 periodically acquires surveillance images, and inputs the acquired surveillance images to the corresponding video analysis function section 20. The image acquisition module 21 of the video analysis function section 20 acquires a frame image which is a surveillance image from the corresponding surveillance camera 10, and the human detection information extraction function section 22 acquires a whole body image of the person shown in the frame image, The region position, whole body feature amount, and facial feature amount of the whole body image are extracted. Then, the video analysis function unit 20 transmits the frame image, the whole body image, the region position of the whole body image, the whole body feature amount, and the face feature amount to the Web server 30 via intra-server communication, Websocket, or the like.

Webサーバ30は、複数の映像解析機能部20のそれぞれから送信されてきたフレーム画像、全身画像、全身特徴量及び顔特徴量を、過去検索用データとして、ファイルサーバ31の過去検索用データ記憶部311に蓄積する。またこのとき、Webサーバ30の検索用人検知結果保存機能部33は、複数の映像解析機能部20のそれぞれから送信されてきた全身画像の領域位置を含む過去検索用データテーブルを作成して、DBサーバ32の過去検索用データテーブル記憶部322に記憶させる。こうして、各監視カメラ10での監視画像の取得毎に、過去検索用データ記憶部311に過去検索用データが蓄積されていくと共に、過去検索用データテーブル記憶部322にそれら過去検索用データに紐付いた過去検索用データテーブルが蓄積されていく。 The web server 30 stores the frame image, whole body image, whole body feature amount, and face feature amount transmitted from each of the plurality of video analysis function units 20 as past search data in the past search data storage unit of the file server 31. Accumulate in 311. At this time, the search person detection result storage function section 33 of the Web server 30 creates a past search data table including the region positions of the whole body images transmitted from each of the plurality of video analysis function sections 20, and stores the data table in the DB. It is stored in the past search data table storage section 322 of the server 32. In this way, each time a surveillance image is acquired by each surveillance camera 10, past search data is accumulated in the past search data storage section 311, and linked to the past search data in the past search data table storage section 322. Past search data tables are accumulated.

監視機能部352は、こうして過去検索用データ記憶部311に蓄積されていく各監視カメラ10からのフレーム画像を、一つの画面に並べることで、監視画面を生成することができる。監視端末40のWebブラウザ41に表示されたこの監視画面を閲覧することで、警備員等の監視者は、施設内の各部のリアルタイムな状況を把握することが可能となる。 The monitoring function unit 352 can generate a monitoring screen by arranging the frame images from each monitoring camera 10 accumulated in the past search data storage unit 311 on one screen. By viewing this monitoring screen displayed on the web browser 41 of the monitoring terminal 40, a supervisor such as a security guard can grasp the real-time situation of each part within the facility.

また、人物追跡システムでは、この各部のリアルタイムな状況監視と並行して、監視対象者の来訪検知動作が行われる。この監視対象者来訪検知動作は、各映像解析機能部20の監視/追跡実行機能部23による監視処理と、検知/追跡結果判定機能部34による検知結果判定処理と、監視機能部352の検知アラート出力機能部3521による検知アラート出力処理と、を含む。 In addition, in the person tracking system, in parallel with the real-time situation monitoring of each part, the operation of detecting the arrival of the person to be monitored is performed. This monitoring target person visit detection operation includes a monitoring process by the monitoring/tracking execution function unit 23 of each video analysis function unit 20, a detection result judgment process by the detection/tracking result judgment function unit 34, and a detection alert by the monitoring function unit 352. Detection alert output processing by the output function unit 3521.

図13は、監視/追跡実行機能部23による監視処理の処理手順を示すフローチャートである。監視/追跡実行機能部23は、例えば、サーバ内通信やWebsocket等によりWebサーバ30の監視機能部352から監視対象者の更新が報告される毎に、このフローチャートに示す処理を実施する。 FIG. 13 is a flowchart showing the processing procedure of the monitoring process by the monitoring/tracking execution function unit 23. As shown in FIG. The monitoring/tracking execution function unit 23 executes the process shown in this flowchart each time an update of a person to be monitored is reported from the monitoring function unit 352 of the Web server 30 through, for example, intra-server communication or Websocket.

監視/追跡実行機能部23は、まず、サーバ内通信やWebsocket等によりWebサーバ30のファイルサーバ31にアクセスして、ファイルサーバ31に事前に記憶されている複数の監視対象者それぞれの顔特徴量である監視用顔特徴量を取得する(ステップS101)。 The monitoring/tracking execution function unit 23 first accesses the file server 31 of the web server 30 through intra-server communication, Websocket, etc., and obtains the facial feature values of each of the multiple monitoring subjects stored in advance in the file server 31. Obtain the facial feature amount for monitoring (step S101).

その後、監視/追跡実行機能部23は、人検知情報抽出機能部22から、時刻tの顔画像とその特徴量とを、照合用顔画像と照合用顔特徴量として取得する(ステップS102)。対応する監視カメラ10の監視画像に複数の人物の全身画像が含まれる場合には、監視/追跡実行機能部23は、それぞれの人物について、照合用顔画像と照合用顔特徴量を取得する。 Thereafter, the monitoring/tracking execution function unit 23 acquires the face image at time t and its feature amount from the human detection information extraction function unit 22 as a matching face image and matching face feature amount (step S102). When the monitoring images of the corresponding monitoring cameras 10 include full-body images of multiple persons, the monitoring/tracking execution function unit 23 acquires a matching facial image and matching facial feature amounts for each person.

そして、監視/追跡実行機能部23は、顔照合モジュール232により、人検知情報抽出機能部22からの照合用顔特徴量のそれぞれについて、監視用顔特徴量との類似度である顔画像類似度を算出する(ステップS103)。 Then, the monitoring/tracking execution function unit 23 uses the face matching module 232 to determine the face image similarity, which is the degree of similarity with the monitoring facial feature amount, for each of the matching facial features from the human detection information extraction function unit 22. is calculated (step S103).

その後、監視/追跡実行機能部23は、算出した各監視対象者の顔画像類似度と照合用顔画像とのセットを、サーバ内通信やWebsocket等により、Webサーバ30の検知/追跡結果判定機能部34へ送信する(ステップS104)。 Thereafter, the monitoring/tracking execution function unit 23 transmits the set of the calculated face image similarity of each person to be monitored and the matching face image to the detection/tracking result determination function of the web server 30 via intra-server communication, Websocket, etc. 34 (step S104).

そして、監視/追跡実行機能部23は、時刻tに時間間隔t1加えてから、すなわち、次の処理時刻に更新した後(ステップS105)、上記ステップS102から上記の処理を繰り返す。ここで、時間間隔t1は、例えば、数秒というように、任意の時間間隔とすることができる。或いは、時間間隔t1は、監視カメラ10の監視画像の取得間隔の整数倍の時間間隔としても良い。 Then, after adding the time interval t1 to the time t, that is, updating to the next processing time (step S105), the monitoring/tracking execution function unit 23 repeats the above processing from step S102. Here, the time interval t1 can be any arbitrary time interval, for example, several seconds. Alternatively, the time interval t1 may be a time interval that is an integral multiple of the acquisition interval of surveillance images of the surveillance camera 10.

図14は、Webサーバ30の検知/追跡結果判定機能部34による検知結果判定処理の処理手順を示すフローチャートである。検知/追跡結果判定機能部34は、定期的に、例えば映像解析機能部20の監視/追跡実行機能部23における時間間隔t1おきに、このフローチャートに示す処理を実施することができる。 FIG. 14 is a flowchart showing the processing procedure of detection result determination processing by the detection/tracking result determination function unit 34 of the Web server 30. The detection/tracking result determination function unit 34 can periodically execute the process shown in this flowchart, for example, at every time interval t1 in the monitoring/tracking execution function unit 23 of the video analysis function unit 20.

検知/追跡結果判定機能部34は、まず、監視/追跡実行機能部23から類似度と照合用顔画像のセットを受信したか否か判断する(ステップS201)。類似度と照合用画像のセットを受信していないと判断した場合には、検知/追跡結果判定機能部34は、この検知/追跡結果判定処理を終了する。 The detection/tracking result determination function unit 34 first determines whether or not a set of similarity and matching face images has been received from the monitoring/tracking execution function unit 23 (step S201). If it is determined that the set of similarity and matching images has not been received, the detection/tracking result determination function unit 34 ends the detection/tracking result determination process.

これに対して、類似度と照合用顔画像のセットを受信したと判断した場合には、検知/追跡結果判定機能部34は、顔照合閾値1を取得する(ステップS202)。すなわち、検知/追跡結果判定機能部34は、カメラ情報テーブル記憶部321に記憶されている、それら類似度と照合用顔画像のセットの送信元である映像解析機能部20に対応する監視カメラ10についてのカメラ情報テーブル3211から、顔照合閾値1を取得する。 On the other hand, if it is determined that the set of similarity and matching face images has been received, the detection/tracking result determination function unit 34 acquires the face matching threshold 1 (step S202). That is, the detection/tracking result determination function unit 34 selects the surveillance camera 10 corresponding to the video analysis function unit 20 that is the source of the set of similarity and matching face images stored in the camera information table storage unit 321. Face matching threshold 1 is acquired from the camera information table 3211 for .

そして、検知/追跡結果判定機能部34は、受信した顔画像類似度のそれぞれについて、取得した顔照合閾値1と比較し、顔照合閾値1よりも大きい顔画像類似度が有るか否か判断する(ステップS203)。顔照合閾値1よりも大きい顔画像類似度が無いと判断した場合には、検知/追跡結果判定機能部34は、この検知/追跡結果判定処理を終了する。 Then, the detection/tracking result determination function unit 34 compares each of the received face image similarities with the acquired face matching threshold 1 and determines whether there is a face image similarity greater than the face matching threshold 1. (Step S203). If it is determined that there is no face image similarity greater than the face matching threshold 1, the detection/tracking result determination function unit 34 ends this detection/tracking result determination process.

これに対して、顔照合閾値1よりも大きい顔画像類似度が有ると判断した場合には、検知/追跡結果判定機能部34は、その顔特徴量を有する人物は監視対象者であると判別する。よってこの場合には、検知/追跡結果判定機能部34は、検知履歴データ記憶部312に検知履歴データとして検知顔画像3121と顔特徴量3122を記憶させると共に、検知履歴テーブル3231を生成して、それを検知履歴テーブル記憶部323に記憶させる(ステップS204)。この生成した検知履歴テーブル3231の顔認証スコアには、顔照合閾値1よりも大きい値の顔画像類似度が記載されることとなる。そしてその後、検知/追跡結果判定機能部34は、この検知/追跡結果判定処理を終了する。 On the other hand, if it is determined that there is a facial image similarity greater than the face matching threshold 1, the detection/tracking result determination function unit 34 determines that the person having the facial feature amount is the person to be monitored. do. Therefore, in this case, the detection/tracking result determination function section 34 causes the detection history data storage section 312 to store the detected face image 3121 and the facial feature amount 3122 as detection history data, and also generates the detection history table 3231. It is stored in the detection history table storage unit 323 (step S204). In the face authentication score of the generated detection history table 3231, a face image similarity having a value larger than the face matching threshold 1 will be written. After that, the detection/tracking result determination function section 34 ends this detection/tracking result determination process.

図15は、監視機能部352の検知アラート出力機能部3521による検知アラート出力処理の処理手順を示すフローチャートである。検知アラート出力機能部3521は、定期的に、例えば映像解析機能部20の監視/追跡実行機能部23における時間間隔t1おきに、このフローチャートに示す処理を実施する。 FIG. 15 is a flowchart showing the processing procedure of detection alert output processing by the detection alert output function unit 3521 of the monitoring function unit 352. The detection alert output function section 3521 periodically executes the process shown in this flowchart, for example, at every time interval t1 in the monitoring/tracking execution function section 23 of the video analysis function section 20.

検知アラート出力機能部3521は、まず、カメラ情報テーブル記憶部321に記憶されている、各監視カメラ10についてのカメラ情報テーブル3211から、顔照合閾値1~3を取得する(ステップS301)。 The detection alert output function unit 3521 first obtains face matching thresholds 1 to 3 from the camera information table 3211 for each surveillance camera 10 stored in the camera information table storage unit 321 (step S301).

また、検知アラート出力機能部3521は、検知履歴テーブル記憶部323から新規の検知履歴テーブル3231の情報を取得する(ステップS302)。すなわち、検知アラート出力機能部3521は、検知履歴テーブル3231における顔画像スコアとして、顔画像類似度ラベルIDではなくて顔類似度の実数が記録されているものを抽出して取得する。 The detection alert output function unit 3521 also acquires information on a new detection history table 3231 from the detection history table storage unit 323 (step S302). That is, the detection alert output function unit 3521 extracts and obtains the face image score in the detection history table 3231 in which the real number of face similarities is recorded instead of the face image similarity label ID.

そして、検知アラート出力機能部3521は、取得した新規の検知履歴テーブル3231に顔認証スコアとして記載されている顔画像類似度の値が顔照合閾値3よりも大きいか否か判断する(ステップS303)。顔画像類似度の値が顔照合閾値3よりも大きいと判断した場合、検知アラート出力機能部3521は、検知履歴テーブル記憶部323の当該検知履歴テーブル3231における顔画像類似度の値を、実数から顔画像類似度ラベルID、ここではID=3に書き換える(ステップS304)。 Then, the detection alert output function unit 3521 determines whether the face image similarity value described as the face authentication score in the acquired new detection history table 3231 is greater than the face matching threshold 3 (step S303). . If it is determined that the face image similarity value is larger than the face matching threshold 3, the detection alert output function unit 3521 converts the face image similarity value in the detection history table 3231 of the detection history table storage unit 323 from the real number. The face image similarity label ID, here, is rewritten to ID=3 (step S304).

これに対して、顔画像類似度の値が顔照合閾値3よりも大きくないと判断した場合、検知アラート出力機能部3521は、更に、顔画像類似度の値が顔照合閾値2よりも大きいか否か判断する(ステップS305)。顔画像類似度の値が顔照合閾値2よりも大きいと判断した場合、検知アラート出力機能部3521は、検知履歴テーブル記憶部323の当該検知履歴テーブル3231における顔画像類似度の値を、実数から顔画像類似度ラベルID、ここではID=2に書き換える(ステップS306)。 On the other hand, if it is determined that the face image similarity value is not larger than the face matching threshold 3, the detection alert output function unit 3521 further determines whether the face image similarity value is larger than the face matching threshold 2. It is determined whether or not (step S305). If it is determined that the face image similarity value is larger than the face matching threshold 2, the detection alert output function unit 3521 converts the face image similarity value in the detection history table 3231 of the detection history table storage unit 323 from the real number. The face image similarity label ID, here, is rewritten to ID=2 (step S306).

また、顔画像類似度の値が顔照合閾値2よりも大きくないと判断した場合には、検知アラート出力機能部3521は、検知履歴テーブル記憶部323の当該検知履歴テーブル3231における顔画像類似度の値を、実数から顔画像類似度ラベルID、ここではID=1に書き換える(ステップS307)。これは、そもそも検知履歴テーブル3231は、顔画像類似度の値が顔照合閾値1よりも大きくないと作成されないので、顔画像類似度の値が顔照合閾値2よりも大きくなければ、顔画像類似度の値は顔照合閾値1よりも大きいことは決まっているからである。 Further, when it is determined that the value of the face image similarity is not larger than the face matching threshold 2, the detection alert output function unit 3521 outputs the face image similarity value in the detection history table 3231 of the detection history table storage unit 323. The value is rewritten from a real number to face image similarity label ID, here ID=1 (step S307). This is because, in the first place, the detection history table 3231 is not created unless the face image similarity value is greater than the face matching threshold 1, so if the face image similarity value is not greater than the face matching threshold 2, the face image similarity This is because it is determined that the value of degree is larger than the face matching threshold value 1.

以上のようにして、検知履歴テーブル3231における顔画像類似度の値を顔画像類似度ラベルIDに書き換えたならば、検知アラート出力機能部3521は、画面画像である新規の検知人物カードを作成する(ステップS308)。この検知人物カードは、検知履歴データ記憶部312に検知履歴データとして記憶した検知顔画像3121と、それに対応する検知履歴テーブル3231における顔画像類似度ラベルIDに基づく注意段階を示す注意段階表示と、を含む画面画像である。この検知人物カードについては、詳細を後述する。 After rewriting the face image similarity value in the detection history table 3231 to the face image similarity label ID as described above, the detection alert output function unit 3521 creates a new detected person card that is a screen image. (Step S308). This detected person card includes a detected face image 3121 stored as detection history data in the detection history data storage unit 312, and a caution level display indicating a caution level based on the face image similarity label ID in the corresponding detection history table 3231; This is a screen image containing. Details of this detected person card will be described later.

検知アラート出力機能部3521は、この作成した新規の検知人物カードにより、Webブラウザ41にて表示するための検知アラート画面を更新する(ステップS309)。そして、検知アラート出力機能部3521は、この更新した検知アラート画面を、ネットワークNETを介してWebブラウザ41に送信して、そこに表示させる(ステップS310)。Webブラウザ41では、監視画面の一部に設けられたアラート画面表示領域に、或いは、監視画面とは別のウィンドウを開いて、この検知アラート画面を表示する。そして、検知アラート出力機能部3521は、この検知アラート出力処理を終了する。 The detection alert output function unit 3521 updates the detection alert screen to be displayed on the Web browser 41 using the created new detected person card (step S309). Then, the detection alert output function unit 3521 transmits this updated detection alert screen to the Web browser 41 via the network NET, and displays it there (step S310). The web browser 41 displays this detection alert screen in an alert screen display area provided in a part of the monitoring screen, or by opening a window separate from the monitoring screen. Then, the detection alert output function unit 3521 ends this detection alert output processing.

図16は、Webブラウザ41に表示される検知アラート画面42の一例を示す図である。検知アラート画面42は、検知された人物毎の検知人物カード421を含む。この検知人物カード421は、その表示内容として、監視対象者顔画像4211、検知顔画像4212、注意喚起メッセージ4213、不審者ID4214、注意段階表示4215、検知情報4216、及び、追跡開始ボタン4217を含むことができる。 FIG. 16 is a diagram showing an example of the detection alert screen 42 displayed on the Web browser 41. The detection alert screen 42 includes a detected person card 421 for each detected person. This detected person card 421 includes, as its display contents, a monitoring target person face image 4211, a detected face image 4212, a warning message 4213, a suspicious person ID 4214, a warning stage display 4215, detection information 4216, and a tracking start button 4217. be able to.

ここで、監視対象者顔画像4211は、ファイルサーバ31に事前に記憶されていた監視対象者の顔画像であり、検知顔画像4212は、その監視対象者であると検知された人物の、検知履歴データ記憶部312に記憶された検知顔画像3121である。注意喚起メッセージ4213は、監視者の注意を促すためのメッセージであり、点滅表示灯の識別表示を行うようにしても良い。不審者ID4214は、検知履歴テーブル3231から転記される識別情報である。 Here, the monitored person face image 4211 is a face image of the monitored person stored in advance in the file server 31, and the detected face image 4212 is the detected face image of the person detected to be the monitored person. This is a detected face image 3121 stored in the history data storage unit 312. The warning message 4213 is a message to call the monitor's attention, and may be displayed with a flashing indicator light for identification. The suspicious person ID 4214 is identification information transcribed from the detection history table 3231.

注意段階表示4215は、監視対象者の顔画像と検知された人物の顔画像との類似度を示す。すなわち、類似度は、数値ではなくて、検知履歴テーブル3231における顔画像類似度ラベルIDに基づく複数段階、ここでは3段階の注意段階表示4215として示されている。この注意段階表示4215では、図16においてハッチングにより表している識別表示された四角形の数が、顔画像類似度ラベルIDに対応する。例えば、不審者ID4214が「00098842」である人物の検知人物カード421では、検知履歴テーブル3231における顔画像類似度ラベルIDが「3」であったので、注意段階表示4215では、3個の四角形が識別表示され、不審者ID4214が「00059820」である人物の検知人物カード421では、検知履歴テーブル3231における顔画像類似度ラベルIDが「2」であったので、2個の四角形が識別表示されている。 The caution stage display 4215 indicates the degree of similarity between the face image of the person to be monitored and the face image of the detected person. That is, the degree of similarity is shown not as a numerical value but as a warning level display 4215 of multiple levels, here three levels, based on the face image similarity degree label ID in the detection history table 3231. In this caution stage display 4215, the number of identified squares represented by hatching in FIG. 16 corresponds to the face image similarity label ID. For example, in the detected person card 421 of a person whose suspicious person ID 4214 is "00098842", the face image similarity label ID in the detection history table 3231 is "3", so in the caution stage display 4215, three rectangles are displayed. In the detected person card 421 of the person who is identified and whose suspicious person ID 4214 is "00059820," the face image similarity label ID in the detection history table 3231 is "2," so two rectangles are identified and displayed. There is.

検知情報4216は、過去検索用データテーブル3221または検知履歴テーブル3231における検知カメラIDに基づく検出カメラ場所情報と、同じく検知日時に基づく検出日時情報と、を含む。追跡開始ボタン4217は、当該人物を追跡する場合に押下されるボタンである。 The detection information 4216 includes detection camera location information based on the detection camera ID in the past search data table 3221 or the detection history table 3231, and detection date and time information also based on the detection date and time. The tracking start button 4217 is a button that is pressed when tracking the person.

なお、この検知人物カード421は、監視対象人物として新たに人物が検知される毎に、検知アラート画面42の最上位に表示されるように、古い検知人物カード421が下方にシフトされていく。同一人物については新たな検知人物カード421は追加されない。一つの検知人物カード421を選択することで、検知履歴データ記憶部312及び検知履歴テーブル記憶部323に記憶されている当該人物の履歴が一覧表示される。 Note that each time a new person is detected as a person to be monitored, the old detected person card 421 is shifted downward so that it is displayed at the top of the detection alert screen 42. A new detected person card 421 is not added for the same person. By selecting one detected person card 421, a list of the history of the person stored in the detection history data storage section 312 and the detection history table storage section 323 is displayed.

(2-2)追跡動作
監視者が検知アラート画面42の追跡開始ボタン4217の押下操作を行うと、Webサーバ30は、Webアプリケーション35が提供する追跡機能部353により、映像解析機能部20及び検知/追跡結果判定機能部34を利用して、当該人物を追跡した追跡結果を、Webブラウザ41に提示させていく。この追跡動作は、追跡機能部353の画像登録機能部3531による画像登録処理と、映像解析機能部20の監視/追跡実行機能部23による追跡処理と、検知/追跡結果判定機能部34による追跡結果判定処理と、追跡機能部353の追跡アラート出力機能部3532による追跡アラート出力処理と、を含む。
(2-2) Tracking operation When the monitor presses the tracking start button 4217 on the detection alert screen 42, the web server 30 uses the tracking function unit 353 provided by the web application 35 to perform the video analysis function unit 20 and the detection /Using the tracking result determination function section 34, the Web browser 41 is caused to present the tracking results of tracking the person. This tracking operation includes image registration processing by the image registration function unit 3531 of the tracking function unit 353, tracking processing by the monitoring/tracking execution function unit 23 of the video analysis function unit 20, and tracking results by the detection/tracking result determination function unit 34. This includes determination processing and tracking alert output processing by the tracking alert output function section 3532 of the tracking function section 353.

図17は、追跡機能部353の画像登録機能部3531による画像登録処理の処理手順を示すフローチャートである。画像登録機能部3531は、定期的に、例えば監視カメラ10の監視画像の取得間隔に同期して、このフローチャートに示す処理を実施する。 FIG. 17 is a flowchart showing the processing procedure of image registration processing by the image registration function section 3531 of the tracking function section 353. The image registration function unit 3531 periodically performs the processing shown in this flowchart, for example, in synchronization with the acquisition interval of monitoring images of the monitoring camera 10.

画像登録機能部3531は、まず、監視端末40において、監視者によってWebブラウザ41に表示される検知アラート画面42における追跡開始ボタン4217の押下操作が行われたか否か判断する(ステップS401)。追跡開始ボタン4217の押下操作が行われていないと判断した場合には、画像登録機能部3531は、この画像登録処理を終了する。 The image registration function unit 3531 first determines whether or not the monitor presses the tracking start button 4217 on the detection alert screen 42 displayed on the Web browser 41 on the monitoring terminal 40 (step S401). If it is determined that the tracking start button 4217 has not been pressed, the image registration function unit 3531 ends this image registration process.

これに対して、追跡開始ボタン4217の押下操作が行われたと判断した場合には、画像登録機能部3531は、その人物の顔画像を追跡用顔画像として取得する(ステップS402)。すなわち、画像登録機能部3531は、検知アラート画面42の不審者IDを有する検知履歴テーブル記憶部323のトラッキングIDに基づいて、検知履歴データ記憶部312から検知顔画像3121を追跡用顔画像として取得する。例えば、画像登録機能部3531は、当該トラッキングIDを有する検知履歴テーブル3231の内、検知日時が特定時期のもの、例えば最新のものに記載された検知IDで特定される検知顔画像3121を取得することができる。特定時期としては、最新に限らず、最古、指定期間の間での最新又は最古、季節(春夏秋冬など)であって良い。或いは、画像登録機能部3531は、当該トラッキングIDを有する検知履歴テーブル3231のそれぞれに記載された検知IDで特定される検知顔画像3121を一覧形式で含む選択画面を生成し、それをWebブラウザ41に表示させて、監視者に追跡用顔画像とする検知顔画像3121を選択させるようにしても良い。そして、画像登録機能部3531は、取得した追跡用顔画像を、管理データ記憶部313に登録顔画像3131として記憶させる。また、画像登録機能部3531は、DBサーバ32に事前に記憶されている図示しない監視対象者テーブルに記載された該当の監視対象者に関する情報に基づいて管理テーブル3241を作成し、それを管理テーブル記憶部324に記憶させる。管理テーブル3241は、管理データ記憶部313における登録顔画像3131の記憶パスを示すクエリ顔特徴パスを含む。 On the other hand, if it is determined that the tracking start button 4217 has been pressed, the image registration function unit 3531 acquires the face image of the person as a tracking face image (step S402). That is, the image registration function unit 3531 acquires the detected face image 3121 as a tracking face image from the detection history data storage unit 312 based on the tracking ID of the detection history table storage unit 323 having the suspicious person ID of the detection alert screen 42. do. For example, the image registration function unit 3531 acquires the detected face image 3121 specified by the detection ID listed in the detection history table 3231 having the tracking ID, whose detection date and time are in a specific period, for example, the latest one. be able to. The specific period is not limited to the latest, but may be the oldest, the latest or oldest within a specified period, or the season (spring, summer, fall, winter, etc.). Alternatively, the image registration function unit 3531 generates a selection screen that includes the detected face images 3121 specified by the detection IDs listed in each of the detection history tables 3231 having the tracking ID in a list format, and displays the selection screen on the web browser 41. may be displayed so that the observer can select the detected face image 3121 to be used as the tracking face image. Then, the image registration function unit 3531 stores the acquired tracking face image in the management data storage unit 313 as a registered face image 3131. Further, the image registration function unit 3531 creates a management table 3241 based on information regarding the relevant monitoring target person described in a monitoring target person table (not shown) stored in advance in the DB server 32, and stores it in the management table 3241. The information is stored in the storage unit 324. The management table 3241 includes a query facial feature path indicating the storage path of the registered facial image 3131 in the management data storage unit 313.

そして、画像登録機能部3531は、追跡用顔画像として検知履歴データ記憶部312から取得された検知顔画像3121に対応する全身画像を追跡用全身画像として取得する(ステップS403)。すなわち、画像登録機能部3531は、その追跡用顔画像として取得された検知顔画像3121について検知履歴テーブル3231に記載された検知IDに基づいて、過去検索用データ記憶部311から全身画像3112を追跡用全身画像として取得する。画像登録機能部3531は、この取得した追跡用全身画像を、管理データ記憶部313に登録全身画像3133として記憶させる。また、画像登録機能部3531は、管理テーブル記憶部324に記憶されている管理テーブル3241に、管理データ記憶部313における登録全身画像3133の記憶パスを示すクエリ全身特徴パスを追記する。 Then, the image registration function unit 3531 obtains, as a tracking full-body image, a whole-body image corresponding to the detected face image 3121 obtained from the detection history data storage unit 312 as a tracking-use full-body image (step S403). That is, the image registration function unit 3531 tracks the whole body image 3112 from the past search data storage unit 311 based on the detection ID listed in the detection history table 3231 for the detected face image 3121 acquired as the tracking face image. Acquire as a full-body image. The image registration function unit 3531 stores this acquired tracking whole body image in the management data storage unit 313 as a registered whole body image 3133. Further, the image registration function unit 3531 adds a query whole body feature path indicating the storage path of the registered whole body image 3133 in the management data storage unit 313 to the management table 3241 stored in the management table storage unit 324.

さらに、画像登録機能部3531は、追跡用顔画像特徴量と追跡用全身画像特徴量を取得する(ステップS404)。すなわち、画像登録機能部3531は、上記検知IDに基づいて、検知履歴データ記憶部312から顔特徴量3122を追跡用顔特徴量として取得し、また、過去検索用データ記憶部311から全身特徴量3113を追跡用全身特徴量として取得する。画像登録機能部3531は、これら取得した追跡用顔特徴量及び追跡用全身特徴量を、管理データ記憶部313に顔特徴量3132及び全身特徴量3134として記憶させる。また、画像登録機能部3531は、管理テーブル記憶部324に記憶されている管理テーブル3241に、それら特徴量記憶パスを示す顔特徴量ファイルパス及び全身特徴量ファイルパスを追記する。 Furthermore, the image registration function unit 3531 acquires a facial image feature amount for tracking and a whole body image feature amount for tracking (step S404). That is, the image registration function section 3531 acquires the facial feature amount 3122 from the detection history data storage section 312 as the tracking facial feature amount based on the detection ID, and also acquires the whole body feature amount from the past search data storage section 311. 3113 is acquired as the whole body feature amount for tracking. The image registration function unit 3531 stores the acquired tracking facial feature amount and tracking whole body feature amount in the management data storage unit 313 as a facial feature amount 3132 and a whole body feature amount 3134. Further, the image registration function unit 3531 adds the face feature file path and the whole body feature file path indicating the feature storage paths to the management table 3241 stored in the management table storage unit 324.

そして、画像登録機能部3531は、管理データ記憶部313に記憶された登録顔画像3131及び登録全身画像3133を追跡用画像として、また、顔特徴量3132及び全身特徴量3134を追跡用特徴量として、サーバ内通信やWebsocket等により、複数の映像解析機能部20のそれぞれへ送信する(ステップS405)。その後、画像登録機能部3531は、この画像登録処理を終了する。 Then, the image registration function unit 3531 uses the registered face image 3131 and the registered whole body image 3133 stored in the management data storage unit 313 as tracking images, and also uses the facial feature amount 3132 and the whole body feature amount 3134 as tracking feature amounts. , is transmitted to each of the plurality of video analysis function units 20 via intra-server communication, Websocket, etc. (step S405). Thereafter, the image registration function unit 3531 ends this image registration process.

図18は、映像解析機能部20の監視/追跡実行機能部23による追跡処理の処理手順を示すフローチャートである。監視/追跡実行機能部23は、例えば、サーバ内通信やWebsocket等によりWebサーバ30の追跡機能部353画像登録機能部3531から追跡用画像と特徴量を受信する毎に、このフローチャートに示す処理を実施する。 FIG. 18 is a flowchart showing the processing procedure of the tracking process by the monitoring/tracking execution function unit 23 of the video analysis function unit 20. The monitoring/tracking execution function unit 23 performs the processing shown in this flowchart every time it receives a tracking image and a feature amount from the tracking function unit 353 and image registration function unit 3531 of the web server 30, for example, through intra-server communication, Websocket, etc. implement.

監視/追跡実行機能部23は、まず、Webサーバ30の画像登録機能部3531から受信した追跡用画像と特徴量を取得する(ステップS111)。 The monitoring/tracking execution function unit 23 first acquires the tracking image and feature quantity received from the image registration function unit 3531 of the Web server 30 (step S111).

その後、監視/追跡実行機能部23は、人検知情報抽出機能部22から、時刻Tの全身画像とその特徴量とを、照合用全身画像と照合用全身特徴量として取得する(ステップS112)。対応する監視カメラ10の監視画像に複数の人物の全身画像が含まれる場合には、監視/追跡実行機能部23は、それぞれの人物について、照合用全身画像と照合用全身特徴量を取得する。 After that, the monitoring/tracking execution function unit 23 acquires the whole body image at time T and its feature amount from the human detection information extraction function unit 22 as the comparison whole body image and the comparison whole body feature amount (step S112). When the monitoring images of the corresponding monitoring camera 10 include full-body images of multiple people, the monitoring/tracking execution function unit 23 acquires the full-body image for comparison and the full-body feature for comparison for each person.

そして、監視/追跡実行機能部23は、全身照合モジュール231により、人検知情報抽出機能部22からの照合用全身特徴量のそれぞれについて、画像登録機能部3531からの追跡用全身特徴量との類似度である全身画像類似度を算出する(ステップS113)。 Then, the monitoring/tracking execution function unit 23 uses the whole body matching module 231 to determine whether each of the whole body features for matching from the human detection information extraction function unit 22 is similar to the whole body features for tracking from the image registration function unit 3531. The whole body image similarity is calculated (step S113).

また、監視/追跡実行機能部23は、人検知情報抽出機能部22から、時刻Tの顔画像とその特徴量とを、照合用顔画像と照合用顔特徴量として取得する(ステップS114)。対応する監視カメラ10の監視画像に複数の人物の顔画像が含まれる場合には、監視/追跡実行機能部23は、それぞれの人物について、照合用顔画像と照合用顔特徴量を取得する。なお、人物の向きによって、全身画像は抽出できても顔画像が抽出できない場合も有る。よって、上記ステップS112で取得される照合用全身画像の数とこのステップS114で取得する照合用顔画像の数とは一致するとは限らない。また、一人も顔画像が抽出できず、照合用顔画像(及び照合用顔特徴量)が取得されない場合もあり得る。 Further, the monitoring/tracking execution function unit 23 acquires the face image at time T and its feature amount from the human detection information extraction function unit 22 as a matching face image and matching face feature amount (step S114). When the monitoring image of the corresponding monitoring camera 10 includes facial images of a plurality of people, the monitoring/tracking execution function unit 23 acquires a matching facial image and a matching facial feature amount for each person. Note that depending on the orientation of the person, a full body image may be extracted but a face image may not be extracted. Therefore, the number of full body images for comparison acquired in step S112 and the number of facial images for comparison acquired in step S114 do not necessarily match. Furthermore, there may be a case in which no face image can be extracted and no matching face image (and matching face feature amount) can be obtained.

そして、監視/追跡実行機能部23は、顔照合モジュール232により、人検知情報抽出機能部22からの照合用顔特徴量のそれぞれについて、画像登録機能部3531からの追跡用顔特徴量との類似度である顔画像類似度を算出する(ステップS115)。 Then, the monitoring/tracking execution function unit 23 uses the face matching module 232 to determine whether each of the matching face features from the human detection information extraction function unit 22 is similar to the tracking face feature from the image registration function unit 3531. The face image similarity is calculated (step S115).

その後、監視/追跡実行機能部23は、それら全身画像及び顔画像についての類似度と照合用画像とのセットを、サーバ内通信やWebsocket等により、Webサーバ30の検知/追跡結果判定機能部34へ送信する(ステップS116)。なお、類似度と照合用画像のセットは、全身画像類似度と照合用全身画像とのセットと顔画像類似度と照合用顔画像とのセットとの両方を含む場合も有れば、顔画像類似度と照合用顔画像とのセットの無い全身画像類似度と照合用全身画像とのセットのみを含む場合もあり得る。 Thereafter, the monitoring/tracking execution function unit 23 transmits the set of similarity and matching images for the whole body image and face image to the detection/tracking result determination function unit 34 of the web server 30 via intra-server communication, Websocket, etc. (Step S116). Note that the set of similarity and matching images may include both a set of full-body image similarity and matching full-body images and a set of face image similarity and matching facial images, There may be a case where only a set of whole body image similarity and a comparison whole body image is included without a set of similarity and a comparison face image.

そして、監視/追跡実行機能部23は、監視端末40において、監視者によってWebブラウザ41に表示される追跡アラート画面における追跡停止ボタンの押下操作が行われたか否か判断する(ステップS117)。追跡停止ボタンを有する追跡アラート画面の詳細については、後述する。追跡停止ボタンの押下操作が行われたと判断した場合には、監視/追跡実行機能部23は、この監視/追跡処理を終了する。 Then, the monitoring/tracking execution function unit 23 determines whether or not the monitor presses the tracking stop button on the tracking alert screen displayed on the web browser 41 on the monitoring terminal 40 (step S117). Details of the tracking alert screen having a tracking stop button will be described later. If it is determined that the tracking stop button has been pressed, the monitoring/tracking execution function unit 23 ends this monitoring/tracking process.

また、追跡停止ボタンの押下操作が行われていないと判断した場合には、監視/追跡実行機能部23は、時刻Tに時間間隔t1加えてから、すなわち、次の処理時刻に更新した後(ステップS118)、上記ステップS112から上記の処理を繰り返す。ここで、時間間隔t1は、上述した通りである。なお、この時間間隔t1とは異なる時間間隔を用いても良いことは勿論である。 Further, if it is determined that the tracking stop button has not been pressed, the monitoring/tracking execution function unit 23 adds the time interval t1 to the time T, that is, after updating to the next processing time ( Step S118), repeat the above processing from step S112. Here, the time interval t1 is as described above. Note that it goes without saying that a time interval different from this time interval t1 may be used.

図19は、Webサーバ30の検知/追跡結果判定機能部34による追跡結果判定処理の処理手順を示すフローチャートである。検知/追跡結果判定機能部34は、定期的に、例えば映像解析機能部20の監視/追跡実行機能部23の追跡処理の処理間隔に同期して、このフローチャートに示す処理を実施する。 FIG. 19 is a flowchart showing the processing procedure of the tracking result judgment process by the detection/tracking result judgment function unit 34 of the Web server 30. The detection/tracking result determination function unit 34 periodically executes the process shown in this flowchart, for example, in synchronization with the processing interval of the tracking process of the monitoring/tracking execution function unit 23 of the video analysis function unit 20.

検知/追跡結果判定機能部34は、まず、監視/追跡実行機能部23から類似度と照合用画像のセットを受信したか否か判断する(ステップS221)。類似度と照合用画像のセットを受信していないと判断した場合には、検知/追跡結果判定機能部34は、この追跡結果判定処理を終了する。 The detection/tracking result determination function unit 34 first determines whether or not a set of similarity and matching images has been received from the monitoring/tracking execution function unit 23 (step S221). If it is determined that the set of similarity and matching images has not been received, the detection/tracking result determination function unit 34 ends this tracking result determination process.

これに対して、類似度と照合用画像のセットを受信したと判断した場合には、検知/追跡結果判定機能部34は、顔照合閾値1と全身照合閾値1を取得する(ステップS222)。すなわち、検知/追跡結果判定機能部34は、カメラ情報テーブル記憶部321に記憶されている、それら類似度と照合用画像のセットの送信元である映像解析機能部20に対応する監視カメラ10についてのカメラ情報テーブル3211から、顔照合閾値1と全身照合閾値1を取得する。 On the other hand, if it is determined that the set of similarity and matching images has been received, the detection/tracking result determination function unit 34 obtains the face matching threshold 1 and the whole body matching threshold 1 (step S222). That is, the detection/tracking result determination function unit 34 determines the surveillance camera 10 corresponding to the video analysis function unit 20 that is the source of the set of similarity and matching images stored in the camera information table storage unit 321. The face matching threshold 1 and the whole body matching threshold 1 are obtained from the camera information table 3211 of .

そして、検知/追跡結果判定機能部34は、受信した全身画像類似度のそれぞれについて、取得した全身照合閾値1と比較し、全身照合閾値1よりも大きいか全身画像類似度が有るか否か判断する(ステップS223)。全身照合閾値1よりも大きい全身画像類似度が有ると判断した場合には、検知/追跡結果判定機能部34は、その全身特徴量を有する人物は追跡対象者であると判別する。よってこの場合には、検知/追跡結果判定機能部34は、その大きいと判断された全身画像類似度を、上記ステップS221で受信した対応する照合用全身画像と共に、記憶装置302の所定の記憶領域に保存しておくと共に、全身画像類似度を追跡テーブル3251に登録する(ステップS224)。この全身画像類似度の登録に際して、追跡テーブル記憶部325に、該当不審者IDの追跡テーブル3251が未だ記憶されていない場合には、追跡テーブル3251を生成し、その生成した追跡テーブル251を追跡テーブル記憶部325に記憶させる。また、追跡テーブル記憶部325に、該当不審者IDの追跡テーブル3251が既に記憶されている場合には、新たな追跡テーブル3251を生成するのではなく、レコードを追加する。追跡テーブル3251に登録される全身画像類似度は、全身照合閾値1よりも大きい値の全身画像類似度である。 Then, the detection/tracking result determination function unit 34 compares each of the received whole-body image similarities with the acquired whole-body matching threshold 1, and determines whether it is larger than the whole-body matching threshold 1 or whether there is a whole-body image similarity. (Step S223). If it is determined that the whole body image similarity is greater than the whole body matching threshold 1, the detection/tracking result determination function unit 34 determines that the person having the whole body feature amount is the person to be tracked. Therefore, in this case, the detection/tracking result determination function unit 34 stores the whole body image similarity determined to be large in a predetermined storage area of the storage device 302 together with the corresponding whole body image for comparison received in step S221. At the same time, the whole body image similarity is registered in the tracking table 3251 (step S224). When registering this whole body image similarity, if the tracking table 3251 of the relevant suspicious person ID is not yet stored in the tracking table storage unit 325, the tracking table 3251 is generated, and the generated tracking table 251 is stored in the tracking table storage unit 325. The information is stored in the storage unit 325. Further, if the tracking table 3251 of the relevant suspicious person ID is already stored in the tracking table storage unit 325, a record is added instead of generating a new tracking table 3251. The whole body image similarity registered in the tracking table 3251 is a whole body image similarity having a value larger than the whole body matching threshold 1.

その後、或いは上記ステップS223において全身照合閾値1よりも大きい全身画像類似度が無いと判断した場合、検知/追跡結果判定機能部34は、受信した顔画像類似度のそれぞれについて、取得した顔照合閾値1と比較し、顔照合閾値1よりも大きい顔画像類似度が有るか否か判断する(ステップS225)。顔照合閾値1よりも大きい顔画像類似度が有ると判断した場合には、検知/追跡結果判定機能部34は、その顔特徴量を有する人物は追跡対象者であると判別する。よってこの場合には、検知/追跡結果判定機能部34は、その大きいと判断された顔画像類似度を、上記ステップS221で受信した対応する照合用顔画像と共に、記憶装置302の所定の記憶領域に保存しておくと共に、顔画像類似度を追跡テーブル3251に登録する(ステップS226)。この顔画像類似度の登録に際して、追跡テーブル記憶部325に、該当不審者IDの追跡テーブル3251が未だ記憶されていない場合には、追跡テーブル3251を生成し、その生成した追跡テーブル251を追跡テーブル記憶部325に記憶させる。また、追跡テーブル記憶部325に、該当不審者IDの追跡テーブル3251が既に記憶されている場合には、新たな追跡テーブル3251を生成するのではなく、レコードを追加する。追跡テーブル3251に登録される顔画像類似度は、顔照合閾値1よりも大きい値の全身画像類似度である。 Thereafter, or if it is determined in step S223 that there is no whole body image similarity greater than the whole body matching threshold 1, the detection/tracking result determination function unit 34 compares each of the received face image similarities with the acquired face matching threshold 1 and determines whether there is a face image similarity greater than the face matching threshold 1 (step S225). If it is determined that there is a face image similarity greater than the face matching threshold 1, the detection/tracking result determination function unit 34 determines that the person having that face feature is a tracking target. Therefore, in this case, the detection/tracking result determination function unit 34 stores the face image similarity determined to be large together with the corresponding matching face image received in step S221 in a predetermined memory area of the storage device 302, and registers the face image similarity in the tracking table 3251 (step S226). When registering this facial image similarity, if a tracing table 3251 for the corresponding suspicious person ID has not yet been stored in the tracing table storage unit 325, a tracing table 3251 is generated, and the generated tracing table 251 is stored in the tracing table storage unit 325. Also, if a tracing table 3251 for the corresponding suspicious person ID has already been stored in the tracing table storage unit 325, a record is added rather than a new tracing table 3251 being generated. The facial image similarity registered in the tracing table 3251 is a whole-body image similarity with a value greater than the facial matching threshold 1.

その後、或いは上記ステップS225において顔照合閾値1よりも大きい顔画像類似度が無いと判断した場合には、検知/追跡結果判定機能部34は、この追跡結果判定処理を終了する。 Thereafter, or if it is determined in step S225 that there is no face image similarity greater than the face matching threshold 1, the detection/tracking result determination function unit 34 ends this tracking result determination process.

図20A乃至図20Cは、追跡機能部353の追跡アラート出力機能部3532による追跡アラート出力処理の処理手順を示すフローチャートである。追跡アラート出力機能部3532は、定期的に、例えば映像解析機能部20の監視/追跡実行機能部23における時間間隔t1おきに、このフローチャートに示す処理を実施する。 20A to 20C are flowcharts showing the processing procedure of the tracking alert output processing by the tracking alert output function section 3532 of the tracking function section 353. The tracking alert output function unit 3532 periodically executes the process shown in this flowchart, for example, at every time interval t1 in the monitoring/tracking execution function unit 23 of the video analysis function unit 20.

追跡アラート出力機能部3532は、まず、監視端末40において、監視者によってWebブラウザ41に表示される追跡アラート画面における絞り込み指定操作が行われたか否か判断する(ステップS501)。絞り込み指定操作が行われたと判断した場合、追跡アラート出力機能部3532は、後述するステップS519へと進む。 The tracking alert output function unit 3532 first determines whether a narrowing designation operation has been performed on the tracking alert screen displayed on the Web browser 41 by the monitor on the monitoring terminal 40 (step S501). If it is determined that the narrowing down designation operation has been performed, the tracking alert output function unit 3532 proceeds to step S519, which will be described later.

これに対して、絞り込み指定操作が行われていないと判断した場合、追跡アラート出力機能部3532は、カメラ情報テーブル記憶部321に記憶されている、各監視カメラ10についてのカメラ情報テーブル3211から、顔照合閾値1~3及び全身照合閾値1~3を取得する(ステップS502)。 On the other hand, if it is determined that the narrowing down specification operation has not been performed, the tracking alert output function section 3532 outputs the information from the camera information table 3211 for each surveillance camera 10 stored in the camera information table storage section 321. Face matching thresholds 1 to 3 and whole body matching thresholds 1 to 3 are acquired (step S502).

その後、追跡アラート出力機能部3532は、追跡テーブル記憶部325に記憶されている追跡テーブル3251から新規の追跡結果を取得する(ステップS503)。すなわち、追跡アラート出力機能部3532は、追跡テーブル3251における全身画像類似度及び顔画像類似度として、画像類似度IDではなくて類似度の実数が記録されているものを抽出して取得する。 After that, the tracking alert output function unit 3532 obtains new tracking results from the tracking table 3251 stored in the tracking table storage unit 325 (step S503). That is, the tracking alert output function unit 3532 extracts and obtains the whole body image similarity and face image similarity in the tracking table 3251 in which real numbers of similarities are recorded instead of image similarity IDs.

そして、追跡アラート出力機能部3532は、追跡テーブル3251における顔画像類似度の値が顔照合閾値3よりも大きいか否か判断する(ステップS504)。顔画像類似度の値が顔照合閾値3よりも大きいと判断した場合、追跡アラート出力機能部3532は、追跡テーブル記憶部325の当該追跡テーブル3251における顔画像類似度の値を、実数から顔画像類似度ラベルID、ここではID=3に書き換える(ステップS505)。 Then, the tracking alert output function unit 3532 determines whether the face image similarity value in the tracking table 3251 is larger than the face matching threshold 3 (step S504). When it is determined that the face image similarity value is larger than the face matching threshold 3, the tracking alert output function unit 3532 converts the face image similarity value in the tracking table 3251 of the tracking table storage unit 325 into a face image based on the real number. The similarity label ID, here, is rewritten to ID=3 (step S505).

これに対して、顔画像類似度の値が顔照合閾値3よりも大きくないと判断した場合、追跡アラート出力機能部3532は、更に、顔画像類似度の値が顔照合閾値2よりも大きいか否か判断する(ステップS506)。顔画像類似度の値が顔照合閾値2よりも大きいと判断した場合、追跡アラート出力機能部3532は、追跡テーブル記憶部325の当該追跡テーブル3251における顔画像類似度の値を、実数から顔画像類似度ラベルID、ここではID=2に書き換える(ステップS507)。 On the other hand, if it is determined that the face image similarity value is not greater than the face matching threshold 3, the tracking alert output function unit 3532 further determines whether the face image similarity value is greater than the face matching threshold 2. It is determined whether or not (step S506). If it is determined that the face image similarity value is larger than the face matching threshold 2, the tracking alert output function unit 3532 converts the face image similarity value in the tracking table 3251 of the tracking table storage unit 325 from the real number to the face image similarity value. The similarity label ID, here, is rewritten to ID=2 (step S507).

また、顔画像類似度の値が顔照合閾値2よりも大きくないと判断した場合、追跡アラート出力機能部3532は、更に、顔画像類似度の値が顔照合閾値1よりも大きいか否か判断する(ステップS508)。顔画像類似度の値が顔照合閾値1よりも大きいと判断した場合、追跡アラート出力機能部3532は、追跡テーブル記憶部325の当該追跡テーブル3251における顔画像類似度の値を、実数から顔画像類似度ラベルID、ここではID=1に書き換える(ステップS509)。 Further, when determining that the value of face image similarity is not greater than face matching threshold 2, the tracking alert output function unit 3532 further determines whether the value of face image similarity is greater than face matching threshold 1. (Step S508). If it is determined that the face image similarity value is larger than the face matching threshold 1, the tracking alert output function unit 3532 converts the face image similarity value in the tracking table 3251 of the tracking table storage unit 325 into the face image from the real number. The similarity label ID, here, is rewritten to ID=1 (step S509).

監視機能部352での検知動作に係わる処理では、顔画像類似度しか利用していないため、顔画像類似度の値が顔照合閾値2よりも大きくなければ、顔画像類似度の値は顔照合閾値1よりも大きいことは決まってしまう。これに対して、追跡機能部353の追跡動作に係わる処理では、顔画像類似度と全身類似度との両方を利用しており、追跡テーブル3251には顔画像類似度と全身類似度の何れか片方しか登録されない場合が存在する。すなわち、顔画像類似度の値が顔照合閾値2よりも大きくないときには、顔照合閾値1よりも大きい値の顔画像類似度の値が登録されている場合と、顔照合閾値1以下の顔画像類似度の値が登録されている(又は顔画像類似度の値が登録されていない)場合と、が存在する。そのため、顔画像類似度の値が顔照合閾値2よりも大きくないというだけで、顔画像類似度の値は顔照合閾値1よりも大きいと決めることができない。 In the process related to the detection operation in the monitoring function unit 352, only the face image similarity is used. Therefore, if the value of the face image similarity is not larger than the face matching threshold 2, the value of the face image similarity is used for face matching. It is determined that the value is larger than the threshold value 1. On the other hand, in the processing related to the tracking operation of the tracking function unit 353, both the face image similarity and the whole body similarity are used, and the tracking table 3251 contains either the face image similarity or the whole body similarity. There are cases where only one side is registered. In other words, when the value of face image similarity is not larger than face matching threshold 2, there is a case where a face image similarity value larger than face matching threshold 1 is registered, and a case where the face image similarity value is less than face matching threshold 1. There are cases in which a similarity value is registered (or a face image similarity value is not registered). Therefore, just because the face image similarity value is not greater than the face matching threshold 2, it cannot be determined that the face image similarity value is greater than the face matching threshold 1.

以上のようにして、追跡テーブル3251における顔画像類似度の値を顔画像類似度ラベルIDに書き換えたならば、或いは、上記ステップS508において顔画像類似度の値が顔照合閾値1よりも大きくないと判断した場合、追跡アラート出力機能部3532は、全身画像類似度の判定動作に移る。 If the face image similarity value in the tracking table 3251 is rewritten to the face image similarity label ID as described above, or the face image similarity value is not larger than the face matching threshold 1 in step S508 above. If it is determined that this is the case, the tracking alert output function unit 3532 moves to a whole body image similarity determination operation.

すなわち、追跡アラート出力機能部3532は、追跡テーブル3251における全身画像類似度の値が全身照合閾値3よりも大きいか否か判断する(ステップS510)。全身画像類似度の値が全身照合閾値3よりも大きいと判断した場合、追跡アラート出力機能部3532は、追跡テーブル記憶部325の当該追跡テーブル3251における全身画像類似度の値を、実数から全身画像類似度ラベルID、ここではID=3に書き換える(ステップS511)。 That is, the tracking alert output function unit 3532 determines whether the value of the whole body image similarity in the tracking table 3251 is larger than the whole body matching threshold 3 (step S510). If it is determined that the whole body image similarity value is larger than the whole body matching threshold 3, the tracking alert output function unit 3532 converts the whole body image similarity value in the tracking table 3251 of the tracking table storage unit 325 into the whole body image from the real number. The similarity label ID, here, is rewritten to ID=3 (step S511).

これに対して、全身画像類似度の値が全身照合閾値3よりも大きくないと判断した場合、追跡アラート出力機能部3532は、更に、全身画像類似度の値が全身照合閾値2よりも大きいか否か判断する(ステップS512)。全身画像類似度の値が全身照合閾値2よりも大きいと判断した場合、追跡アラート出力機能部3532は、追跡テーブル記憶部325の当該追跡テーブル3251における全身画像類似度の値を、実数から全身画像類似度ラベルID、ここではID=2に書き換える(ステップS513)。 On the other hand, if it is determined that the whole body image similarity value is not greater than the whole body matching threshold 3, the tracking alert output function unit 3532 further determines whether the whole body image similarity value is greater than the whole body matching threshold 2. It is determined whether or not (step S512). If it is determined that the whole body image similarity value is larger than the whole body matching threshold 2, the tracking alert output function unit 3532 converts the whole body image similarity value in the tracking table 3251 of the tracking table storage unit 325 into the whole body image from the real number. The similarity label ID, here, is rewritten to ID=2 (step S513).

また、全身画像類似度の値が全身照合閾値2よりも大きくないと判断した場合、追跡アラート出力機能部3532は、更に、全身画像類似度の値が全身照合閾値1よりも大きいか否か判断する(ステップS514)。全身画像類似度の値が全身照合閾値1よりも大きいと判断した場合、追跡アラート出力機能部3532は、追跡テーブル記憶部325の当該追跡テーブル3251における全身画像類似度の値を、実数から全身画像類似度ラベルID、ここではID=1に書き換える(ステップS515)。 Further, when determining that the value of the whole body image similarity is not greater than the whole body matching threshold 2, the tracking alert output function unit 3532 further determines whether the value of the whole body image similarity is greater than the whole body matching threshold 1. (Step S514). If it is determined that the whole body image similarity value is larger than the whole body matching threshold 1, the tracking alert output function unit 3532 converts the whole body image similarity value in the tracking table 3251 of the tracking table storage unit 325 into the whole body image from the real number. The similarity label ID, here, is rewritten to ID=1 (step S515).

以上のようにして、追跡テーブル3251における全身画像類似度の値を全身画像類似度ラベルIDに書き換えたならば、或いは、上記ステップS514において全身画像類似度の値が全身照合閾値1よりも大きくないと判断した場合、追跡アラート出力機能部3532は、画面画像である新規の追跡情報カードを作成する(ステップS308)。この追跡情報カードは、上記ステップS224及びステップS226で記憶装置302の所定の記憶領域に保存された照合用全身画像及び照合用顔画像と、それに対応する追跡テーブル3251における全身画像類似度ラベルID及び顔画像類似度ラベルIDに基づく注意段階を示す注意段階表示と、を含む画面画像である。この追跡情報カードについては、詳細を後述する。 If the whole body image similarity value in the tracking table 3251 is rewritten to the whole body image similarity label ID as described above, or the whole body image similarity value is not larger than the whole body matching threshold 1 in step S514 above. If it is determined that this is the case, the tracking alert output function unit 3532 creates a new tracking information card that is a screen image (step S308). This tracking information card includes the matching full-body image and matching face image stored in the predetermined storage area of the storage device 302 in steps S224 and S226, the corresponding full-body image similarity label ID in the tracking table 3251, and the tracking information card. It is a screen image including a caution level display indicating a caution level based on a face image similarity degree label ID. Details of this tracking information card will be described later.

追跡アラート出力機能部3532は、この作成した新規の追跡情報カードにより、Webブラウザ41にて表示するための追跡アラート画面を更新する(ステップS517)。そして、追跡アラート出力機能部3532は、この更新した追跡アラート画面を、ネットワークNETを介してWebブラウザ41に送信して、そこに表示させる(ステップS518)。Webブラウザ41では、監視画面の一部に設けられたアラート画面表示領域に、或いは、監視画面とは別のウィンドウを開いて、この追跡アラート画面を表示する。そして、追跡アラート出力機能部3532は、この追跡アラート出力処理を終了する。 The tracking alert output function unit 3532 updates the tracking alert screen to be displayed on the web browser 41 using the created new tracking information card (step S517). Then, the tracking alert output function unit 3532 transmits this updated tracking alert screen to the Web browser 41 via the network NET, and displays it there (step S518). The web browser 41 displays this tracking alert screen in an alert screen display area provided in a part of the monitoring screen, or by opening a window separate from the monitoring screen. The tracking alert output function unit 3532 then ends this tracking alert output processing.

一方、上記ステップS501において絞り込み指定操作が行われたと判断した場合、追跡アラート出力機能部3532は、その指定された絞り込みレベルを取得する(ステップS519)。この絞り込みレベルは、追跡アラート画面に表示する追跡情報カードを絞り込むための指標である。 On the other hand, if it is determined in step S501 that a narrowing down designation operation has been performed, the tracking alert output function unit 3532 acquires the specified narrowing down level (step S519). This narrowing down level is an index for narrowing down the tracking information cards to be displayed on the tracking alert screen.

追跡アラート出力機能部3532は、追跡テーブル記憶部325に記憶されている追跡テーブル3251より、指定された絞り込みレベルに応じた不審者IDを抽出する(ステップS520)。 The tracking alert output function unit 3532 extracts a suspicious person ID according to the specified narrowing down level from the tracking table 3251 stored in the tracking table storage unit 325 (step S520).

そして、追跡アラート出力機能部3532は、それら抽出した不審者IDの検知IDに基づいて、過去検索用データ記憶部311に過去検索用データとして記憶された全身画像3112と、映像解析機能部20の人検知情報抽出機能部22によってその全身画像3112から抽出した顔画像とを含む、追跡アラート画面に表示可能な個数分の追跡情報カードを作成する(ステップS521)。 Then, the tracking alert output function unit 3532 uses the whole body image 3112 stored as past search data in the past search data storage unit 311 and the video analysis function unit 20 based on the detection ID of the extracted suspicious person ID. The number of tracking information cards that can be displayed on the tracking alert screen, including the face image extracted from the whole body image 3112 by the human detection information extraction function unit 22, is created (step S521).

その後、追跡アラート出力機能部3532は、上記ステップS516と同様に、新規追跡情報カード作成し(ステップS522)、上記ステップS517と同様に、作成した追跡情報カードにより追跡アラート画面を更新する(ステップS523)。そして、追跡アラート出力機能部3532は、上記ステップS518の処理に進み、更新した追跡アラート画面をWebブラウザ41に送信して、そこに表示させることとなる。 Thereafter, the tracking alert output function unit 3532 creates a new tracking information card (step S522) in the same manner as in step S516 above, and updates the tracking alert screen with the created tracking information card in the same way as in step S517 (step S523). ). The tracking alert output function unit 3532 then proceeds to the process of step S518, and transmits the updated tracking alert screen to the Web browser 41 to display it there.

図21は、Webブラウザ41に表示される追跡アラート画面43の一例を示す図である。追跡アラート画面43は、追跡対象者情報領域431と、追跡情報カード432と、絞り込み指示領域433と、を含む。 FIG. 21 is a diagram showing an example of the tracking alert screen 43 displayed on the web browser 41. The tracking alert screen 43 includes a tracking target person information area 431, a tracking information card 432, and a narrowing down instruction area 433.

追跡対象者情報領域431は、追跡対象者に関する情報を表示する領域であり、追跡対象者を追加する毎に、追跡アラート画面43の最上位に追加表示されていく。古い追跡対象者情報領域431は順次下方にシフトされていく。ここで、最上位つまり最新の追跡対象者情報領域431とその他の追跡対象者情報領域431とでは、表示内容が異なっている。すなわち、最上位の追跡対象者情報領域431は、注意喚起メッセージ4311、不審者ID4312、登録画像4313、追跡情報4314、及び、追跡停止ボタン4315を含む。これに対して、最上位以外の追跡対象者情報領域431は、登録画像4313と追跡情報4314のみを含む。 The tracking target information area 431 is an area for displaying information regarding the tracking target, and is additionally displayed at the top of the tracking alert screen 43 each time a tracking target is added. The old tracked person information area 431 is sequentially shifted downward. Here, the display contents are different between the highest level, that is, the latest tracking target person information area 431 and the other tracking target person information areas 431. That is, the highest tracking target person information area 431 includes an alert message 4311, a suspicious person ID 4312, a registered image 4313, tracking information 4314, and a tracking stop button 4315. On the other hand, the tracking target person information area 431 other than the top level only includes a registered image 4313 and tracking information 4314.

ここで、注意喚起メッセージ4311は、監視者の注意を促すためのメッセージであり、例えば、追跡対象者として指定された監視対象者の危険度種別を表示することができる。この危険度種別は、管理テーブル3241から転記されることができる。不審者ID4312は、管理テーブル3241から転記される識別情報である。登録画像4313は、追跡対象者の管理データ記憶部313に記憶された登録顔画像3131及び登録全身画像3133である。追跡情報4314は、当該追跡対象者に関する情報であり、最上位の追跡対象者情報領域431の追跡情報4314とその他の追跡対象者情報領域431の追跡情報4314とでは、内容が異なっている。すなわち、最上位の追跡対象者情報領域431の追跡情報4314は、管理テーブル3241から転記される不審者ID、危険度種別及び説明文を含む。最上位以外の追跡対象者情報領域431の追跡情報4314は、説明文に代えて、追跡状況を含んでいる。追跡停止ボタン4315は、当該人物の追跡を終了する場合に押下されるボタンである。 Here, the alert message 4311 is a message for calling the monitor's attention, and can display, for example, the risk level of the person to be monitored who is designated as the person to be tracked. This risk type can be transferred from the management table 3241. Suspicious person ID 4312 is identification information transferred from management table 3241. The registered images 4313 are a registered face image 3131 and a registered whole body image 3133 stored in the management data storage unit 313 of the tracked person. The tracking information 4314 is information regarding the tracking target person, and the tracking information 4314 in the highest tracking target person information area 431 and the tracking information 4314 in the other tracking target person information areas 431 have different contents. That is, the tracking information 4314 in the top-level tracking target person information area 431 includes the suspicious person ID, risk type, and explanatory text transferred from the management table 3241. The tracking information 4314 in the tracking target person information area 431 other than the highest level includes a tracking status instead of an explanatory text. The tracking stop button 4315 is a button that is pressed to end tracking of the person.

また、追跡情報カード432は、追跡アラート出力機能部3532が新規カードを作成する毎に、追跡アラート画面43の最上位に追加表示されていく。古い追跡情報カード432は順次下方にシフトされていく。この追跡情報カード432は、その表示内容として、検出日時情報4321、検出カメラ場所情報4322、検出顔画像4323、顔注意段階表示4324、検出全身画像4325、全身注意段階表示4326、及び、検出背景画像4327を含む。 Further, the tracking information card 432 is additionally displayed at the top of the tracking alert screen 43 every time the tracking alert output function unit 3532 creates a new card. Old tracking information cards 432 are sequentially shifted downward. This tracking information card 432 includes, as its display contents, detection date and time information 4321, detected camera location information 4322, detected face image 4323, face caution stage display 4324, detected whole body image 4325, whole body caution stage display 4326, and detected background image. Contains 4327.

ここで、検出日時情報4321は、当該追跡対象者が何れかの監視カメラ10の監視画像から検知された日時情報である。検出カメラ場所情報4322は、その検知した監視カメラIDに基づくカメラ場所情報である。検出顔画像4323は、検知されて保存された追跡対象者の照合用顔画像である。顔注意段階表示4324は、追跡対象者の顔画像と検知された人物の顔画像との類似度の段階を示すものである。すなわち、類似度が、実数ではなくて、追跡テーブル3251における顔画像類似度ラベルIDに基づく複数段階、ここでは3段階の注意段階表示として示されている。この顔注意段階表示4324では、図21においてハッチングにより表している識別表示された四角形の数が、顔画像類似度ラベルIDに対応する。例えば、一番上の追跡情報カード432では、追跡テーブル3251における顔画像類似度ラベルIDが「2」であったので、顔注意段階表示4324では、2個の四角形が識別表示され、上から二番目の追跡情報カード432では、追跡テーブル3251における顔画像類似度ラベルIDが「3」であったので、顔注意段階表示4324では、3個の四角形が識別表示されている。 Here, the detection date and time information 4321 is date and time information when the tracking target person was detected from the monitoring image of any of the monitoring cameras 10. The detected camera location information 4322 is camera location information based on the detected surveillance camera ID. The detected face image 4323 is a comparison face image of the detected and saved tracking target person. The face attention level display 4324 indicates the level of similarity between the face image of the person to be tracked and the face image of the detected person. That is, the degree of similarity is shown not as a real number but as a warning level display of multiple levels, here three levels, based on the face image similarity label ID in the tracking table 3251. In this face attention level display 4324, the number of identified squares represented by hatching in FIG. 21 corresponds to the face image similarity label ID. For example, in the top tracking information card 432, the face image similarity label ID in the tracking table 3251 is "2", so in the face attention stage display 4324, two rectangles are identified and displayed, and two squares are displayed from the top. In the th tracking information card 432, the face image similarity label ID in the tracking table 3251 is "3", so three rectangles are identified and displayed in the face attention stage display 4324.

同様に、検出全身画像4325は、検知されて保存された追跡対象者の照合用全身画像である。全身注意段階表示4326は、追跡対象者の全身画像と検知された人物の全身画像との類似度の段階を示すものである。すなわち、類似度が、実数ではなくて、追跡テーブル3251における全身画像類似度ラベルIDに基づく複数段階、ここでは3段階の注意段階表示として示されている。この全身注意段階表示4326も顔注意段階表示4324と同様、図21においてハッチングにより表している識別表示された四角形の数が、全身画像類似度ラベルIDに対応する。例えば、一番上の追跡情報カード432では、追跡テーブル3251における全身画像類似度ラベルIDが「3」であったので、全身注意段階表示4326では、3個の四角形が識別表示され、上から二番目の追跡情報カード432では、追跡テーブル3251における全身画像類似度ラベルIDが「2」であったので、全身注意段階表示4326では、2個の四角形が識別表示されている。 Similarly, the detected full-body image 4325 is a detected and saved full-body image of the tracked person for comparison. The whole body caution level display 4326 indicates the level of similarity between the whole body image of the tracked person and the whole body image of the detected person. That is, the similarity is shown not as a real number but as a warning level display of multiple levels, here three levels, based on the whole body image similarity label ID in the tracking table 3251. Similar to the face caution stage display 4324, this whole body caution level display 4326 also has the number of identified rectangles represented by hatching in FIG. 21 corresponding to the whole body image similarity degree label ID. For example, in the top tracking information card 432, the whole body image similarity label ID in the tracking table 3251 is "3", so in the whole body caution stage display 4326, three rectangles are identified and displayed, and two squares from the top are displayed. In the th tracking information card 432, the whole body image similarity label ID in the tracking table 3251 is "2", so two squares are identified and displayed in the whole body caution stage display 4326.

検出背景画像4327は、照合用顔画像及び/または照合用全身画像を抽出した元の監視画像であるフレーム画像である。このフレーム画像は、過去検索用データ記憶部311に記憶されているフレーム画像3111が用いられる。 The detected background image 4327 is a frame image that is the original monitoring image from which the face image for comparison and/or the whole body image for comparison are extracted. As this frame image, a frame image 3111 stored in the past search data storage unit 311 is used.

なお、追跡情報カード432は、必ずしも、検出顔画像4323及び顔注意段階表示4324と、検出全身画像4325及び全身注意段階表示4326と、の両方を含むとは限らず、どちらか一方のみの場合も有り得る。 Note that the tracking information card 432 does not necessarily include both the detected face image 4323 and the face caution stage display 4324, and the detected whole body image 4325 and the whole body caution stage display 4326, and may include only one of them. Possible.

絞り込み指示領域433は、追跡アラート画面43に表示する追跡情報カード432を絞り込むための指示を受け付けるための領域である。この絞り込み指示領域433は、顔画像類似度選択ボタン4331、顔画像類似度選択リセットボタン4332、全身画像類似度選択ボタン4333、及び、全身画像類似度選択リセットボタン4334を含む。 The narrowing down instruction area 433 is an area for accepting instructions for narrowing down the tracking information cards 432 to be displayed on the tracking alert screen 43. This narrowing down instruction area 433 includes a face image similarity selection button 4331, a face image similarity selection reset button 4332, a whole body image similarity selection button 4333, and a whole body image similarity selection reset button 4334.

ここで、顔画像類似度選択ボタン4331は、顔注意段階表示4324の段数に対応する3個のボタンを含む。監視者によるこの顔画像類似度選択ボタン4331の押下操作に応じた指定段数以上の顔注意段階表示4324を含む追跡情報カード432のみが追跡アラート画面43に表示されるようになる。図21の例では、顔画像類似度選択ボタン4331での段数が指定されていないので、追跡アラート画面43には、1段以上の顔注意段階表示4324を含む追跡情報カード432が表示されている。顔画像類似度選択リセットボタン4332は、顔画像類似度選択ボタン4331での段数指定をリセットする際に押下操作されるボタンである。 Here, the face image similarity selection buttons 4331 include three buttons corresponding to the number of stages of the face attention level display 4324. Only the tracking information cards 432 that include the face caution level display 4324 of a specified number of levels or more in accordance with the pushing operation of the face image similarity selection button 4331 by the observer are displayed on the tracking alert screen 43. In the example of FIG. 21, the number of stages is not specified with the face image similarity selection button 4331, so the tracking alert screen 43 displays a tracking information card 432 that includes a face attention stage display 4324 of one or more stages. . The face image similarity selection reset button 4332 is a button that is pressed when resetting the number of stages specified by the face image similarity selection button 4331.

同様に、全身画像類似度選択ボタン4333は、全身注意段階表示4326の段数に対応する3個のボタンを含む。監視者によるこの全身画像類似度選択ボタン4333の押下操作に応じた指定段数以上の全身注意段階表示4326を含む追跡情報カード432のみが追跡アラート画面43に表示されるようになる。図21の例では、全身画像類似度選択ボタン4333での段数が指定されていないので、追跡アラート画面43には、1段以上の全身注意段階表示4326を含む追跡情報カード432が表示されている。全身画像類似度選択リセットボタン4334は、全身画像類似度選択ボタン4333での段数指定をリセットする際に押下操作されるボタンである。 Similarly, the whole body image similarity selection button 4333 includes three buttons corresponding to the number of stages of the whole body caution level display 4326. Only the tracking information cards 432 that include the whole body caution level display 4326 of a specified number or more in accordance with the press operation of the whole body image similarity selection button 4333 by the observer are displayed on the tracking alert screen 43. In the example of FIG. 21, since the number of stages is not specified with the whole body image similarity selection button 4333, the tracking information card 432 including one or more stages of whole body caution stage display 4326 is displayed on the tracking alert screen 43. . The whole body image similarity selection reset button 4334 is a button that is pressed when resetting the number of stages specified by the whole body image similarity selection button 4333.

図22は、Webブラウザ41に表示される追跡アラート画面43の別の例を示す図である。この例は、顔画像類似度選択ボタン4331で3段が指定され、全身画像類似度選択ボタン4333で1段が指定された場合を示している。ここで、押下操作されたボタンは、図21ではハッチングにより示すように、識別表示される。顔画像類似度選択ボタン4331による指定と全身画像類似度選択ボタン4333による指定はアンド条件となり、追跡アラート画面43には、両方で指定された段数に合致する追跡情報カード432のみが表示されるようになる。 FIG. 22 is a diagram showing another example of the tracking alert screen 43 displayed on the web browser 41. This example shows a case where three stages are designated by the face image similarity selection button 4331 and one stage is designated by the whole body image similarity selection button 4333. Here, the pressed button is identified and displayed as indicated by hatching in FIG. 21. The specification by the face image similarity selection button 4331 and the specification by the whole body image similarity selection button 4333 become an AND condition, so that only the tracking information cards 432 that match the number of stages specified in both are displayed on the tracking alert screen 43. become.

(2-3)過去検索動作
追跡機能部353による追跡動作は、リアルタイムで追跡対象者を追跡する機能である。一方で、過去に特定の人物が当該施設に来訪していないか調査したい場合が存在する。
(2-3) Past Search Operation The tracking operation by the tracking function unit 353 is a function of tracking a person to be tracked in real time. On the other hand, there are cases where it is desired to investigate whether a specific person has visited the facility in the past.

そこで、過去検索機能部354は、Webブラウザ41からの時間及び場所の指定を受けて、過去検索用データテーブル記憶部322に記憶されている過去検索用データテーブル3221に基づいて、過去検索用データ記憶部311からその指定された時間・場所に来訪した人物の全身画像3112を抽出する。そして、その抽出した全身画像3112を一覧表示した選択画面を作成し、Webブラウザ41に表示させる。 Therefore, the past search function unit 354 receives the time and place specification from the web browser 41 and searches the past search data based on the past search data table 3221 stored in the past search data table storage unit 322. A full-body image 3112 of the person who visited the specified time and place is extracted from the storage unit 311. Then, a selection screen displaying a list of the extracted whole body images 3112 is created and displayed on the Web browser 41.

Webブラウザ41から検索する人物の選択指定を受けて、過去検索機能部354は、その選択指定された全身画像3112を追跡用全身画像とし、また、リアルタイムの監視カメラ10からの監視画像に代えて指定された時間・場所についての過去検索用データ記憶部311に記憶されたフレーム画像3111を対象として、追跡機能部353と同様の動作を行う。 Upon receiving the selection and designation of the person to be searched from the web browser 41, the past search function unit 354 uses the selected and designated full-body image 3112 as the full-body image for tracking, and also replaces it with the monitoring image from the real-time monitoring camera 10. The same operation as the tracking function section 353 is performed for the frame image 3111 stored in the past search data storage section 311 for the specified time and place.

これにより、過去検索機能部354は、過去検索用データ記憶部311に記憶されている過去の来訪者の中から、選択指定された人物に類似する人物を検索し、その結果を追跡アラート画面43としてWebブラウザ41に表示させることができる。 Thereby, the past search function unit 354 searches for a person similar to the selected person from among the past visitors stored in the past search data storage unit 311, and displays the results on the tracking alert screen 43. It can be displayed on the web browser 41 as .

(3)効果
以上詳述したように一実施形態に係る人物検出装置としてのWebサーバ30では、互いに異なる判断基準を有する二つ以上の類似度算出手法のそれぞれを用いて特定画像に対する対象画像の類似度を二つ以上算出する類似度算出部である映像解析機能部20の監視/追跡実行機能部23が算出した類似度のそれぞれに基づいて、対象画像を複数の段階に分類するための複数の閾値を、類似度算出手法毎に、閾値記憶部としてのカメラ情報テーブル記憶部321に記憶しておき、検出部としての検知/追跡結果判定機能部34により、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した対象画像である類似度算出対象者の画像の、特定画像である特定人物の画像に対する少なくとも一つの類似度を監視/追跡実行機能部23から取得し、その監視/追跡実行機能部23での少なくとも一つの類似度の算出に用いた類似度算出手法に対応してカメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の中から、特定人物の画像に類似する画像を検出すると共に、その検出した類似度算出対象者の画像が複数の注意段階の何れであるのか検出する。このように、類似度算出手法の判断基準が異なることによって互いに比較することが難しい類似度を、類似度算出手法に依らない複数段階に分類することで、何れの類似度算出手法を用いたとしても、類似度の度合いを同じ評価基準に落とし込むことができる。
より具体的には、カメラ情報テーブル記憶部321に、例えば少なくとも一つの照合モデルのそれぞれについて、類似度が複数の注意段階の何れであるか判定するための複数の閾値を記憶しておき、検知/追跡結果判定機能部34により、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した類似度算出対象者の画像と特定人物の画像との類似度を例えば少なくとも一つの照合モデルを用いて算出する監視/追跡実行機能部23から、類似度を取得し、カメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、取得した類似度が注意段階の何れであるか検出する。
このような検出された注意段階により、認証結果の確からしさを監視者が容易に認識できるようになる。また、監視カメラ10毎の閾値をカメラ情報テーブル記憶部321に記憶しているので、監視カメラ10間における取得類似度のバラツキを減らすことができる。
(3) Effects As detailed above, the Web server 30 as a person detection device according to one embodiment uses two or more similarity calculation methods having mutually different judgment criteria to determine the target image for a specific image. A plurality of similarity calculation units for classifying a target image into a plurality of stages based on each similarity calculated by the monitoring/tracking execution function unit 23 of the video analysis function unit 20, which is a similarity calculation unit that calculates two or more degrees of similarity. The threshold values for each similarity calculation method are stored in the camera information table storage unit 321 as a threshold storage unit, and the detection/tracking result determination function unit 34 as a detection unit calculates the threshold values for each of the plurality of surveillance cameras 10. Obtain from the monitoring/tracking execution function unit 23 at least one degree of similarity of the image of the person to be calculated, which is the target image extracted from each of the periodically acquired monitoring images, to the image of the specific person, which is the specific image. , based on a plurality of threshold values stored in the camera information table storage unit 321 corresponding to the similarity calculation method used to calculate at least one similarity in the monitoring/tracking execution function unit 23. An image similar to an image of a specific person is detected from among the images of the person to be calculated for similarity extracted from the monitoring images of each of the surveillance cameras 10, and the detected image of the person to be calculated for similarity is placed in a plurality of caution levels. Detect which one is. In this way, by classifying similarities that are difficult to compare with each other due to different judgment criteria of similarity calculation methods into multiple levels that do not depend on the similarity calculation method, it is possible to It is also possible to apply the degree of similarity to the same evaluation criteria.
More specifically, the camera information table storage unit 321 stores, for example, a plurality of threshold values for determining which of a plurality of caution levels the degree of similarity is for each of at least one matching model, and the detection /The tracking result determination function unit 34 calculates the degree of similarity between the image of the specific person and the image of the specific person extracted from each of the surveillance images periodically acquired by each of the plurality of surveillance cameras 10, for example. The degree of similarity is acquired from the monitoring/tracking execution function unit 23 that is calculated using the matching model, and based on a plurality of threshold values stored in the camera information table storage unit 321, the degree of similarity is determined in which of the caution stages. Detect if there is.
Such a detected attention step allows the observer to easily recognize the certainty of the authentication result. Further, since the threshold value for each surveillance camera 10 is stored in the camera information table storage unit 321, it is possible to reduce variations in the acquired similarity between the surveillance cameras 10.

また、Webサーバ30は、検知/追跡結果判定機能部34が検出した特定人物の画像に類似する画像を、その検知/追跡結果判定機能部34が検出した注意段階を示す段階表示と共に提示するための出力画面である検知アラート画面42を生成する出力画面生成部としての検知アラート出力機能部3521をさらに備えることができる。
より具体的には、検知アラート出力機能部3521は、検知/追跡結果判定機能部34の判別結果に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の内、特定人物の画像に類似する類似度算出対象者の画像を、注意段階と共に提示するための検知アラート画面42を生成する。
このように、認証結果である類似度を注意段階表示4215として提示するので、熟練監視者でなくても、画像の類似度を直感的に且つある程度正確に認識しやすくなる。よって、認証結果の確からしさを監視者が容易に認識できるようになる。
Further, the web server 30 presents an image similar to the image of the specific person detected by the detection/tracking result determination function unit 34 together with a stage display indicating the caution level detected by the detection/tracking result determination function unit 34. It is possible to further include a detection alert output function section 3521 as an output screen generation section that generates a detection alert screen 42 which is an output screen of the above.
More specifically, the detection alert output function unit 3521 generates an image of the similarity calculation target person extracted from the monitoring images of each of the plurality of surveillance cameras 10 based on the determination result of the detection/tracking result determination function unit 34. Among these, a detection alert screen 42 is generated for presenting an image of a person to be calculated for similarity similar to an image of a specific person along with a caution level.
In this way, since the degree of similarity which is the authentication result is presented as the caution stage display 4215, it becomes easy for even non-skilled observers to intuitively and accurately recognize the degree of image similarity. Therefore, the observer can easily recognize the reliability of the authentication result.

なお、検知/追跡結果判定機能部34は、監視/追跡実行機能部23から、複数台の監視カメラ10の監視画像のそれぞれから抽出した類似度算出対象者の顔画像と特定人物の顔画像との類似度を取得し、検知アラート出力機能部3521は、特定人物の顔画像に類似する類似度算出対象者の顔画像を注意段階表示4215と共に提示する検知アラート画面42を生成するようにして良い。
これにより、顔画像の認証結果の確からしさを監視者が容易に認識できるようになる。なお、顔画像ではなく、特定人物の全身画像と類似度算出対象者の顔画像を用いるようにしても良い。
Note that the detection/tracking result determination function unit 34 receives from the monitoring/tracking execution function unit 23 a face image of the person to be calculated for similarity and a face image of the specific person extracted from each of the monitoring images of the plurality of monitoring cameras 10. The detection alert output function unit 3521 may generate a detection alert screen 42 that presents a face image of the person to be calculated for similarity that is similar to the face image of the specific person together with a caution level display 4215. .
This allows the supervisor to easily recognize the certainty of the facial image authentication result. Note that instead of a face image, a whole body image of a specific person and a face image of a person to be calculated for similarity may be used.

ここで、複数の閾値は、対象画像である類似度算出対象者の画像が特定人物の画像であるか否か分類するための第1の閾値と、類似度算出対象者の画像が特定人物の画像である場合に、類似度算出対象者の画像を複数の段階に分類するための少なくとも一つの第2の閾値と、を含むことができる。
より具体的には、カメラ情報テーブル記憶部321は、第1の閾値としての、類似度算出対象者の画像が特定人物の画像であると推定される類似度に対応する顔照合閾値1と、第2の閾値としての、それぞれ顔照合閾値1よりも大きい類似度に対応する顔照合閾値2及び顔照合閾値3と、を記憶する。検知/追跡結果判定機能部34は、顔照合閾値1よりも大きい類似度を持つ類似度算出対象者の画像を検出し、検知アラート出力機能部3521は、検知/追跡結果判定機能部34が顔照合閾値1に基づいて検出した類似度算出対象者の画像を、検知/追跡結果判定機能部34が顔照合閾値2及び顔照合閾値3に基づいて判別した注意段階を示す注意段階表示4215と共に提示する検知アラート画面42を生成することができる。
これにより、顔照合閾値1によって検知アラート画面42に提示するべき類似度算出対象者の画像を容易に検出でき、検出した画像各々について、顔照合閾値2及び顔照合閾値3に基づいてどのような注意段階表示4215とするべきか決定することができるようになる。
Here, the plurality of threshold values are a first threshold for classifying whether the target image of the person to be calculated for similarity is an image of a specific person, and a first threshold for classifying whether or not the image of the person to be calculated for similarity is an image of a specific person. If the image is an image, it can include at least one second threshold for classifying the image of the person to be calculated for similarity into a plurality of stages.
More specifically, the camera information table storage unit 321 sets a face matching threshold value 1 corresponding to the degree of similarity at which the image of the person to be calculated for similarity is estimated to be an image of a specific person, as a first threshold value; A face matching threshold 2 and a face matching threshold 3 each corresponding to a degree of similarity greater than the face matching threshold 1 are stored as second thresholds. The detection/tracking result determination function unit 34 detects an image of the similarity calculation target person whose similarity is greater than the face matching threshold 1, and the detection alert output function unit 3521 detects an image of the person to be calculated whose face is higher than the face matching threshold 1. The image of the similarity calculation target person detected based on the matching threshold 1 is presented together with an attention level display 4215 indicating the attention level determined by the detection/tracking result determination function unit 34 based on the face matching threshold 2 and the face matching threshold 3. A detection alert screen 42 can be generated.
As a result, it is possible to easily detect the image of the person to be calculated based on the similarity calculation target to be presented on the detection alert screen 42 using the face matching threshold 1, and for each detected image, what kind of image is to be displayed based on the face matching threshold 2 and face matching threshold 3? It becomes possible to decide whether to display the caution level display 4215.

また、一実施形態に係る人物追跡装置としてのWebサーバ30は、上記人物検出装置としてのWebサーバ30の構成に加えて、検知アラート画面42に段階表示と共に提示された特定人物の画像に類似する複数の類似度算出対象者の画像の中から、追跡を行うべき追跡対象者の画像の指定を、監視者が操作する監視端末40から受け付け、その指定された画像を追跡用画像として登録し、この登録された追跡を行うべき追跡対象者の画像である追跡用画像を特定画像として監視/追跡実行機能部23に、少なくとも二つ以上の類似度算出手法を用いて類似度算出対象者の画像の類似度を少なくとも二つ抽出させる登録部としての画像登録機能部3531と、検知/追跡結果判定機能部34が、監視/追跡実行機能部23から取得した少なくとも二つ以上の類似度から検出した追跡対象者の画像に類似する二つ以上の類似度算出対象者の画像それぞれを、検知/追跡結果判定機能部34が検出した注意段階を示す段階表示と共に提示するための追跡出力画面としての追跡アラート画面43を生成する追跡出力画面生成部としての追跡アラート出力機能部3532と、を備えることができる。
より具体的には、画像登録機能部3531は、検知アラート画面42に段階表示と共に提示された特定人物の画像に類似する複数の類似度算出対象者の画像の中から、追跡を行うべき追跡対象者の顔画像の指定を、監視者が操作する監視端末40から受け付け、その指定された顔画像と当該顔画像に対応する前記追跡対象者の全身画像とを追跡用顔画像及び追跡用全身画像として登録する。また、カメラ情報テーブル記憶部321には、第1の閾値として、類似度算出対象者の顔画像が画像登録機能部3531によって登録された追跡用顔画像であると推定される類似度に対応する顔照合閾値1と、類似度算出対象者の全身画像が画像登録機能部3531によって登録された追跡用全身画像であると推定される類似度に対応する全身照合閾値1と、を記憶すると共に、少なくとも一つの第2の閾値して、それぞれ顔照合閾値1よりも大きい顔画像の類似度に対応する顔照合閾値2及び顔照合閾値3と、それぞれ全身照合閾値1よりも大きい全身画像の類似度に対応する全身照合閾値2及び全身照合閾値3と、を記憶している。そして、検知/追跡結果判定機能部34は、監視/追跡実行機能部23から、例えば第1の照合モデルを用いて算出された、複数台の監視カメラ10の監視画像のそれぞれから抽出した類似度算出対象者の顔画像と画像登録機能部3531によって登録された追跡用顔画像との類似度と、例えば第2の照合モデルを用いて算出された、類似度算出対象者の全身画像と画像登録機能部3531によって登録された追跡用全身画像との類似度と、を取得し、取得した顔画像の類似度の中から、顔照合閾値1よりも大きい類似度を持つ類似度算出対象者の顔画像と、取得した全身画像の類似度の中から、全身照合閾値1よりも大きい類似度を持つ類似度算出対象者の全身画像と、の少なくとも一方を検出し、追跡アラート出力機能部3532は、検知/追跡結果判定機能部34が顔照合閾値1及び全身照合閾値1の少なくとも一方に基づいて検出した類似度算出対象者の顔画像及び全身画像の少なくとも一方を、対応する顔照合閾値2及び顔照合閾値3と全身照合閾値2及び全身照合閾値3との少なくとも一方に基づいて判別した注意段階を示す段階表示と共に提示する追跡アラート画面43を生成するようにしている。
これにより、互いに異なる判断基準を有する二つ以上の類似度算出手法、例えば顔画像のための第1の照合モデルと全身画像のための第2の照合モデルとが、互いに範囲又はスケールが異なる類似度値を出力する場合であっても、追跡アラート画面43では同様の段階表示により類似度が表示されることで、監視者は、類似度の同一性を容易に認識できるようになる。
In addition to the configuration of the web server 30 as a person detection device, the web server 30 as a person tracking device according to an embodiment has an image similar to the image of a specific person presented with a staged display on the detection alert screen 42. From among the images of the plurality of similarity calculation targets, the designation of the image of the tracking target to be tracked is received from the monitoring terminal 40 operated by the supervisor, and the designated image is registered as a tracking image; The tracking image, which is the registered image of the person to be tracked who should be tracked, is used as a specific image in the monitoring/tracking execution function unit 23 to calculate the similarity of the image of the person to be tracked using at least two similarity calculation methods. The image registration function unit 3531, which is a registration unit that extracts at least two degrees of similarity between Tracking as a tracking output screen for presenting two or more similarity calculation target person images similar to the tracking target person images together with a stage display indicating the caution level detected by the detection/tracking result determination function unit 34. A tracking alert output function section 3532 as a tracking output screen generation section that generates the alert screen 43 can be provided.
More specifically, the image registration function unit 3531 selects a tracking target to be tracked from among a plurality of similarity calculation target person images similar to the specific person image presented on the detection alert screen 42 along with a step-by-step display. The specified face image and the whole body image of the person to be tracked corresponding to the face image are used as a tracking face image and a tracking whole body image. Register as. In addition, the camera information table storage unit 321 has a first threshold value corresponding to the degree of similarity estimated to indicate that the face image of the person to be calculated is the tracking face image registered by the image registration function unit 3531. A face matching threshold 1 and a whole body matching threshold 1 corresponding to the degree of similarity estimated to indicate that the whole body image of the person to be calculated for similarity is a tracking whole body image registered by the image registration function unit 3531 are stored; At least one second threshold, a face matching threshold 2 and a face matching threshold 3 each corresponding to a degree of similarity of the face image that is greater than the face matching threshold 1, and a degree of similarity of the whole body image that is greater than the whole body matching threshold 1, respectively. A whole body matching threshold 2 and a whole body matching threshold 3 corresponding to are stored. Then, the detection/tracking result determination function unit 34 receives the degree of similarity extracted from each of the surveillance images of the plurality of surveillance cameras 10, which is calculated using, for example, the first matching model, from the monitoring/tracking execution function unit 23. The similarity between the face image of the person to be calculated and the tracking face image registered by the image registration function unit 3531, and the whole body image of the person to be calculated using the second matching model, for example, and the image registration. The degree of similarity with the full body image for tracking registered by the functional unit 3531 is acquired, and from among the degrees of similarity of the acquired face images, the face of the target person for similarity calculation having a degree of similarity greater than face matching threshold 1. The tracking alert output function unit 3532 detects at least one of the image and the whole body image of the person to be calculated for similarity having a degree of similarity greater than the whole body matching threshold 1 from among the degrees of similarity of the acquired whole body images, and the tracking alert output function unit 3532 The detection/tracking result determination function unit 34 converts at least one of the face image and the whole body image of the similarity calculation target person detected based on at least one of the face matching threshold 1 and the whole body matching threshold 1 to the corresponding face matching threshold 2 and the face. A tracking alert screen 43 is generated that is presented along with a stage display indicating the caution stage determined based on the verification threshold 3 and at least one of the whole body verification threshold 2 and the whole body verification threshold 3.
As a result, two or more similarity calculation methods having different judgment criteria, for example, a first matching model for face images and a second matching model for whole body images, can be used to create similarities with different ranges or scales. Even in the case of outputting the degree value, the degree of similarity is displayed in the same stepwise manner on the tracking alert screen 43, so that the observer can easily recognize the same degree of similarity.

また、人物追跡装置としてのWebサーバ30は、監視画像のそれぞれから人物の全身画像を抽出し、全身画像からその特徴量である全身特徴量及び人物の顔画像を抽出し、顔画像からその特徴量である顔特徴量を抽出する抽出部である映像解析機能部20の人検知情報抽出機能部22が抽出した、全身画像、全身特徴量及び顔特徴量を、監視画像と共に蓄積する画像蓄積部としてのファイルサーバ31を更に備えて良く、画像登録機能部3531は、監視端末40から指定された追跡対象者の顔画像に対応するファイルサーバ31に蓄積された全身画像、全身特徴量及び顔特徴量と、その顔特徴量を抽出した顔画像とを、追跡用全身画像、追跡用全身特徴量、追跡用顔特徴量及び追跡用顔画像として登録し、検知/追跡結果判定機能部34は、画像登録機能部3531による登録の時点からファイルサーバ31に蓄積されていく監視画像を照合用画像として、照合用画像それぞれについての、人検知情報抽出機能部22が抽出した全身特徴量と追跡用全身特徴量との類似度である全身画像類似度、及び、人検知情報抽出機能部22が抽出した顔特徴量と追跡用顔特徴量との類似度である顔画像類似度を算出する監視/追跡実行機能部23から、算出した全身画像類似度及び顔画像類似度と追跡用顔画像及び追跡用全身画像とのセットを受け、顔画像類似度及び全身画像類似度の少なくとも一方が、対応する顔照合閾値1及び全身照合閾値1の少なくとも一方よりも大きいか否か判定し、顔照合閾値1及び全身照合閾値1の少なくとも一方よりも大きい類似度を持つ類似度算出対象者の顔画像及び全身画像の少なくとも一方を検出し、検知アラート出力機能部3521は、検知/追跡結果判定機能部34が検出した類似度算出対象者の顔画像及び全身画像の少なくとも一方と、対応する顔照合閾値2及び顔照合閾値3と全身照合閾値2及び全身照合閾値3との少なくとも一方に基づいて判別した注意段階を示す段階表示と、照合用画像としての監視画像を取得した監視カメラ10の位置情報とを、画像登録機能部3531によって登録された追跡用全身画像及び追跡用顔画像と共に提示する追跡出力画面である追跡アラート画面43を生成するようにしている。
これにより、監視カメラ10により追跡対象者の顔画像が取得できない場合でも、全身画像を利用して追跡対象者を追跡できるようになる。
Further, the web server 30 serving as a person tracking device extracts a whole-body image of a person from each of the monitoring images, extracts a whole-body feature quantity and a face image of the person from the whole-body image, and extracts the features of the person from the face image. an image storage section that accumulates the whole body image, the whole body feature amount, and the face feature amount extracted by the human detection information extraction function section 22 of the video analysis function section 20, which is an extraction section that extracts the facial feature amount, which is the amount of the image; The image registration function unit 3531 may further include a file server 31 as a file server 31, and the image registration function unit 3531 stores the whole body image, whole body feature amount, and facial feature stored in the file server 31 corresponding to the face image of the tracking target person specified from the monitoring terminal 40. The detection/tracking result determination function unit 34 registers the quantity and the face image from which the facial feature quantity is extracted as a tracking whole body image, a tracking whole body feature quantity, a tracking facial feature quantity, and a tracking face image. Monitoring images accumulated in the file server 31 from the time of registration by the image registration function unit 3531 are used as matching images, and the whole body feature amount and the tracking whole body extracted by the human detection information extraction function unit 22 for each matching image are Monitoring/tracking that calculates the whole body image similarity, which is the similarity with the feature amount, and the face image similarity, which is the similarity between the facial feature amount extracted by the human detection information extraction function unit 22 and the tracking facial feature amount. A set of the calculated whole body image similarity and face image similarity, the tracking face image, and the tracking whole body image is received from the execution function unit 23, and at least one of the face image similarity and the whole body image similarity corresponds to the corresponding face. It is determined whether the degree of similarity is greater than at least one of the matching threshold 1 and the whole body matching threshold 1, and the face image and the whole body image of the target person for similarity calculation have a similarity that is larger than at least one of the face matching threshold 1 and the whole body matching threshold 1. The detection alert output function unit 3521 detects at least one of the face image and the whole body image of the similarity calculation target person detected by the detection/tracking result determination function unit 34, and the corresponding face matching threshold 2 and face. The stage display indicating the caution stage determined based on at least one of the verification threshold 3, the whole body verification threshold 2, and the whole body verification threshold 3, and the position information of the surveillance camera 10 that acquired the surveillance image as the verification image are displayed as an image. A tracking alert screen 43 is generated as a tracking output screen to be presented together with the tracking whole body image and tracking face image registered by the registration function unit 3531.
As a result, even if a face image of the person to be tracked cannot be acquired by the surveillance camera 10, the person to be tracked can be tracked using the whole body image.

なお、検知アラート出力機能部3521は、監視端末40からの段数指定を受けて、検知/追跡結果判定機能部34が検出した類似度算出対象者の顔画像及び全身画像の少なくとも一方の内、指定された段階に対応する顔照合閾値2及び顔照合閾値3と全身照合閾値2及び全身照合閾値3との少なくとも一方以上の類似度を有するものを、段階表示と共に提示する絞り込み出力画面としての追跡アラート画面43を生成することができる。追跡中に誤検知が増えた場合、表示件数が多くなり、確度の低い結果も表示してしまうこことなり、追跡対象者の特定が困難になる。
一実施形態に係る人物追跡装置としてのWebサーバ30は、注意段階を示す段階表示の表示段階の基準を設定可能にすることで、確度の高い追跡結果のみの閲覧を促すことができる。
In addition, upon receiving the stage number designation from the monitoring terminal 40, the detection alert output function unit 3521 outputs a designated number of at least one of a face image and a whole body image of the person to be calculated for similarity detected by the detection/tracking result determination function unit 34. A tracking alert as a narrowing output screen that presents, along with a stage display, those that have a degree of similarity of at least one of face matching threshold 2 and face matching threshold 3 and whole body matching threshold 2 and whole body matching threshold 3 corresponding to the selected stage. Screen 43 can be generated. If the number of false positives increases during tracking, the number of displayed results will increase, and results with low accuracy will also be displayed, making it difficult to identify the person to be tracked.
The web server 30 as a person tracking device according to an embodiment can encourage viewing of only highly accurate tracking results by making it possible to set the criteria for the display stage of the stage display indicating the caution stage.

或いは、一実施形態に係る人物追跡装置としてのWebサーバ30では、閾値記憶部としてのカメラ情報テーブル記憶部321に、互いに異なる判断基準を有する二つ以上の類似度算出手法のそれぞれを用いて特定画像に対する対象画像の類似度を二つ以上算出する類似度算出部である映像解析機能部20の監視/追跡実行機能部23が算出した類似度のそれぞれに基づいて、対象画像を複数の段階に分類するための複数の閾値を、類似度算出手法毎に記憶しておき、登録部としての画像登録機能部3531によって、監視者が操作する監視端末40から指定された追跡を行うべき追跡対象者の画像を、特定画像として登録する。そして、検知部としての検知/追跡結果判定機能部34は、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した対象画像である類似度算出対象者の画像の、特定画像に対する少なくとも一つの類似度を監視/追跡実行機能部23から取得し、その監視/追跡実行機能部23での少なくとも一つの類似度の算出に用いた類似度算出手法に対応してカメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の中から、追跡対象者の画像に類似する画像を検出すると共に、その検出した類似度算出対象者の画像が複数の注意段階の何れであるのか検出し、追跡出力画面生成部としての追跡アラート出力機能部3532は、検知/追跡結果判定機能部34が、監視/追跡実行機能部23から取得した少なくとも二つ以上の類似度から検出した追跡対象者の画像に類似する二つ以上の類似度算出対象者の画像それぞれを、監視/追跡実行機能部23が検出した注意段階を示す段階表示と共に提示するための追跡出力画面としての追跡アラート画面43を生成する。
より具体的には、カメラ情報テーブル記憶部321に、例えば二つ以上の照合モデルのそれぞれについて、類似度が複数の注意段階の何れであるか判定するための複数の閾値を記憶しておき、画像登録機能部3531によって、監視者が操作する監視端末40から指定された追跡を行うべき追跡対象者の画像を登録する。そして、検知/追跡結果判定機能部34は、画像登録機能部3531によって登録された追跡対象者の画像と複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した類似度算出対象者の画像との類似度を二つ以上の照合モデルそれぞれを用いて算出する監視/追跡実行機能部23から、二つ以上の類似度を取得し、カメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、取得した二つ以上の類似度それぞれが注意段階の何れであるか判別し、追跡アラート出力機能部3532は、検知/追跡結果判定機能部34の判別結果に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の内、追跡対象者の画像に類似する類似度算出対象者の画像を、注意段階それぞれを示す段階表示と共に提示するための追跡アラート画面43を生成する。
これにより、互いに異なる判断基準を有する二つ以上の類似度算出手法、例えば二つ以上の照合モデルが、互いに範囲又はスケールが異なる類似度値を出力する場合であっても、追跡アラート画面43では同様の段階表示により類似度が表示されることで、監視者は、類似度の同一性を容易に認識できるようになる。
Alternatively, in the web server 30 as a person tracking device according to an embodiment, the camera information table storage unit 321 as a threshold value storage unit uses two or more similarity calculation methods having mutually different judgment criteria to perform identification. The target image is divided into multiple stages based on each of the similarities calculated by the monitoring/tracking execution function unit 23 of the video analysis function unit 20, which is a similarity calculation unit that calculates two or more degrees of similarity between the target image and the image. A plurality of threshold values for classification are stored for each similarity calculation method, and an image registration function unit 3531 serving as a registration unit selects a person to be tracked who is specified from a monitoring terminal 40 operated by a supervisor. The image is registered as a specific image. Then, the detection/tracking result determination function unit 34 as a detection unit identifies the image of the person to be calculated for similarity, which is the target image extracted from each of the surveillance images periodically acquired by each of the plurality of surveillance cameras 10. At least one degree of similarity for the image is acquired from the monitoring/tracking execution function unit 23, and a camera information table is created corresponding to the similarity calculation method used to calculate the at least one degree of similarity in the monitoring/tracking execution function unit 23. Based on a plurality of threshold values stored in the storage unit 321, an image similar to the image of the tracking target person is selected from among the images of the target person for similarity calculation extracted from the monitoring images of the plurality of surveillance cameras 10. At the same time, the tracking alert output function unit 3532, which serves as a tracking output screen generation unit, detects which of a plurality of caution levels the image of the detected similarity calculation target person is in, and the detection/tracking result determination function unit 34 The monitoring/tracking execution function unit calculates two or more similarity calculation target person images that are similar to the images of the tracking target person detected based on the at least two similarities obtained from the monitoring/tracking execution function unit 23. A tracking alert screen 43 is generated as a tracking output screen to be presented together with a step display indicating the attention step detected by the controller 23.
More specifically, the camera information table storage unit 321 stores, for example, a plurality of threshold values for determining which of a plurality of caution levels the degree of similarity is for each of two or more matching models, The image registration function unit 3531 registers the image of the person to be tracked who is designated by the monitoring terminal 40 operated by the monitor. Then, the detection/tracking result determination function unit 34 calculates the degree of similarity extracted from the image of the tracked person registered by the image registration function unit 3531 and each of the surveillance images periodically acquired by each of the plurality of surveillance cameras 10. Two or more degrees of similarity are acquired from the monitoring/tracking execution function unit 23 that calculates the degree of similarity with the target person's image using two or more matching models, and are stored in the camera information table storage unit 321. The tracking alert output function section 3532 determines which of the caution stages each of the two or more acquired degrees of similarity is based on a plurality of threshold values, and the tracking alert output function section 3532 determines whether the obtained two or more degrees of similarity are in the caution stage based on the determination result of the detection/tracking result determination function section 34. Among the images of the similarity calculation target person extracted from the monitoring images of each of the plurality of surveillance cameras 10, images of the similarity calculation target person that are similar to the image of the tracking target person are displayed together with a stage display indicating each caution level. A tracking alert screen 43 is generated for presentation.
As a result, even if two or more similarity calculation methods having different judgment criteria, for example, two or more matching models output similarity values with different ranges or scales, the tracking alert screen 43 By displaying the degree of similarity using a similar stage display, the observer can easily recognize the same degree of similarity.

ここで、追跡アラート出力機能部3532は、監視端末40からの段数指定を受けて、検知/追跡結果判定機能部34が検出した類似度算出対象者の画像の内、指定された段階に対応する閾値以上の類似度を有するものを、段階表示と共に提示する絞り込み出力画面としての追跡アラート画面43を生成することができる。
このように、注意段階を示す段階表示の表示段階の基準を設定可能にすることで、確度の高い追跡結果のみの閲覧を促すことができる。
Here, upon receiving the stage number designation from the monitoring terminal 40, the tracking alert output function unit 3532 outputs a signal corresponding to the designated stage among the images of the similarity calculation target person detected by the detection/tracking result determination function unit 34. It is possible to generate a tracking alert screen 43 as a narrowing down output screen that presents those having a degree of similarity equal to or higher than a threshold value together with a step-by-step display.
In this way, by making it possible to set the criteria for the display stage of the stage display indicating the caution stage, viewing only highly accurate tracking results can be encouraged.

また、カメラ情報テーブル記憶部321は、類似度算出対象者の画像が追跡対象者の画像であると推定される類似度に対応する第1の閾値である顔照合閾値1又は全身照合閾値1と、それぞれ顔照合閾値1又は全身照合閾値1よりも大きい類似度に対応する少なくとも一つの第2の閾値である顔照合閾値2及び顔照合閾値3、又は、全身照合閾値2及び全身照合閾値3と、を記憶し、検知/追跡結果判定機能部34は、顔照合閾値1又は全身照合閾値1よりも大きい顔類似度又は全身類似度を持つ前記類似度算出対象者の画像を検出し、追跡アラート出力機能部3532は、検知/追跡結果判定機能部34が顔照合閾値1又は全身照合閾値1に基づいて検出した前記類似度算出対象者の画像を、検知/追跡結果判定機能部34が顔照合閾値2,3又は全身照合閾値2,3に基づいて判別した注意段階を示す段階表示と共に提示する追跡アラート画面43を生成することができる。
これにより、顔照合閾値1又は全身照合閾値1によって追跡アラート画面43に提示するべき類似度算出対象者の画像を容易に検出でき、検出した画像各々について、顔照合閾値2及び顔照合閾値3、又は、全身照合閾値2及び全身照合閾値3に基づいて、どのような注意段階表示4215とするべきか決定することができるようになる。
The camera information table storage unit 321 also stores a face matching threshold 1 or a whole body matching threshold 1, which is a first threshold corresponding to the degree of similarity in which the image of the person to be calculated for similarity is estimated to be the image of the person to be tracked. , face matching threshold 2 and face matching threshold 3, or whole body matching threshold 2 and whole body matching threshold 3, which are at least one second threshold corresponding to a degree of similarity greater than face matching threshold 1 or whole body matching threshold 1, respectively. , and the detection/tracking result determination function unit 34 detects an image of the similarity calculation target person having a face similarity or whole body similarity greater than the face matching threshold 1 or the whole body matching threshold 1, and issues a tracking alert. The output function unit 3532 performs face matching on the image of the similarity calculation target person detected by the detection/tracking result judgment function unit 34 based on the face matching threshold 1 or the whole body matching threshold 1. It is possible to generate a tracking alert screen 43 that is presented together with a stage display indicating the caution stage determined based on the threshold values 2 and 3 or the whole body comparison threshold values 2 and 3.
Thereby, it is possible to easily detect the image of the similarity calculation target person to be presented on the tracking alert screen 43 using the face matching threshold 1 or the whole body matching threshold 1, and for each detected image, the face matching threshold 2, the face matching threshold 3, Alternatively, it becomes possible to determine what kind of attention level display 4215 should be displayed based on the whole body matching threshold 2 and the whole body matching threshold 3.

また、一実施形態に係る人物追跡システムは、一実施形態に係る人物追跡装置と、複数台の監視カメラ10と、監視者が操作する監視端末40と、人検知情報抽出機能部22を備える解析部としての映像解析機能部20と、を備えることができる。 Further, a person tracking system according to an embodiment includes a person tracking device according to an embodiment, a plurality of surveillance cameras 10, a surveillance terminal 40 operated by a supervisor, and an analysis function section 22 for extracting human detection information. A video analysis function section 20 as a section can be provided.

また、一実施形態に係る人物検出方法は、複数台の監視カメラ10が取得した監視画像から特定人物を検出する人物検出方法であって、コンピュータであるWebサーバ30が、互いに異なる判断基準を有する二つ以上の類似度算出手法のそれぞれを用いて特定画像に対する対象画像の類似度を二つ以上算出する類似度算出部である映像解析機能部20の監視/追跡実行機能部23が算出した類似度のそれぞれに基づいて、対象画像を複数の段階に分類するための複数の閾値を、類似度算出手法毎に、メモリである記憶装置302に設けたDBサーバ32のカメラ情報テーブル記憶部321に記憶させておき、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した対象画像である類似度算出対象者の画像の、特定画像である特定人物の画像に対する少なくとも一つの類似度を監視/追跡実行機能部23から取得し、監視/追跡実行機能部23での少なくとも一つの類似度の算出に用いた類似度算出手法に対応してカメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の中から、特定人物の画像に類似する画像を検出すると共に、その検出した類似度算出対象者の画像が複数の注意段階の何れであるのか検出するようにしている。
より具体的には、例えば少なくとも一つの照合モデルのそれぞれについて、類似度が複数の注意段階の何れであるか判定するための複数の閾値をカメラ情報テーブル記憶部321に記憶させておき、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した類似度算出対象者の画像と特定人物の画像との類似度を少なくとも一つの照合モデルを用いて算出する監視/追跡実行機能部23から、類似度を取得し、カメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、取得した類似度が注意段階の何れであるか検出するようにしている。
このような検出された注意段階により、認証結果の確からしさを監視者が容易に認識できるようになる。また、監視カメラ10毎の閾値をカメラ情報テーブル記憶部321に記憶しているので、監視カメラ10間における取得類似度のバラツキを減らすことができる。
Further, the person detection method according to one embodiment is a person detection method for detecting a specific person from surveillance images acquired by a plurality of surveillance cameras 10, in which the web server 30, which is a computer, has mutually different judgment criteria. Similarity calculated by the monitoring/tracking execution function unit 23 of the video analysis function unit 20, which is a similarity calculation unit that calculates two or more degrees of similarity between a target image and a specific image using two or more similarity calculation methods. A plurality of threshold values for classifying a target image into a plurality of stages based on each similarity calculation method are stored in the camera information table storage unit 321 of the DB server 32 provided in the storage device 302 which is a memory. At least one of the images of the specific person, which is the specific image, of the images of the subject of similarity calculation, which are the target images extracted from each of the monitoring images periodically acquired by each of the plurality of monitoring cameras 10, is stored. The degree of similarity is acquired from the monitoring/tracking execution function unit 23 and stored in the camera information table storage unit 321 in accordance with the similarity calculation method used to calculate at least one degree of similarity in the monitoring/tracking execution function unit 23. Based on a plurality of threshold values, an image similar to an image of a specific person is detected from among the images of the subject person extracted from the surveillance images of the plurality of surveillance cameras 10, and the detected image is It is attempted to detect which of a plurality of attention stages the image of the person to be calculated for similarity is in.
More specifically, for example, for each of at least one matching model, the camera information table storage unit 321 stores a plurality of threshold values for determining which of the plurality of caution levels the degree of similarity is, and A monitoring/tracking execution function that calculates the similarity between an image of a specific person and an image of a specific person extracted from each of the surveillance images periodically acquired by each of the surveillance cameras 10 of The similarity degree is acquired from the camera information table storage unit 321, and based on a plurality of threshold values stored in the camera information table storage unit 321, it is detected whether the acquired similarity degree is in a caution level.
Such a detected attention step allows the observer to easily recognize the certainty of the authentication result. Further, since the threshold value for each surveillance camera 10 is stored in the camera information table storage unit 321, it is possible to reduce variations in the acquired similarity between the surveillance cameras 10.

また、一実施形態に係る人物追跡方法は、複数台の監視カメラ10が取得した監視画像から追跡を行うべき追跡対象者を追跡する人物追跡方法であって、コンピュータであるWebサーバ30が、上記一実施形態に係る人物検出方法によって検出した特定人物の画像に類似する画像を、検出した注意段階を示す段階表示と共に提示するための出力画面である検知アラート画面42を生成し、検知アラート画面42に段階表示と共に提示された特定人物の画像に類似する複数の類似度算出対象者の画像の中から、追跡を行うべき追跡対象者の画像の指定を、監視者が操作する監視端末40から受け付け、その指定された画像を追跡用画像としてメモリである記憶装置302に設けたファイルサーバ31の管理データ記憶部313に登録する。そして、この管理データ記憶部313に登録された追跡を行うべき追跡対象者の画像である追跡用画像を特定画像として、監視/追跡実行機能部23に、少なくとも二つ以上の類似度算出手法を用いて類似度算出対象者の画像の類似度を少なくとも二つ抽出させ、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の、特定画像である追跡対象者の画像に対する少なくとも二つの類似度を監視/追跡実行機能部23から取得して、この監視/追跡実行機能部23での類似度のそれぞれの算出に用いた類似度算出手法に対応して管理データ記憶部313に記憶されている複数の閾値に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の中から、追跡対象者の画像に類似する二つ以上の類似度算出対象者の画像を検出すると共に、その検出した類似度算出対象者の画像が複数の注意段階の何れであるのか検出し、監視/追跡実行機能部23から取得した少なくとも二つ以上の類似度から検出した追跡対象者の画像に類似する二つ以上の類似度算出対象者の画像それぞれを、検出した注意段階を示す段階表示と共に提示するための追跡出力画面としての追跡アラート画面43を生成するようにしている。
より具体的には、検知アラート画面42に注意段階と共に提示された複数台の監視カメラ10の監視画像のそれぞれから抽出された複数の類似度算出対象者の画像の中から、追跡を行うべき追跡対象者の顔画像の指定を、監視者が操作する監視端末40から受け付け、その指定された顔画像と当該顔画像に対応する追跡対象者の全身画像とを追跡用顔画像及び追跡用全身画像として管理データ記憶部313に登録する。そして、監視/追跡実行機能部23から、例えば第1の照合モデルを用いて算出された、複数台の監視カメラ10の監視画像のそれぞれから抽出した類似度算出対象者の顔画像と登録された追跡用顔画像との類似度と、例えば第2の照合モデルを用いて算出された、類似度算出対象者の全身画像と登録された追跡用全身画像との類似度と、を取得する。また、カメラ情報テーブル記憶部321に第1の閾値として、類似度算出対象者の顔画像が登録された追跡用顔画像であると推定される類似度に対応する顔照合閾値1及び類似度算出対象者の全身画像が登録された追跡用全身画像であると推定される類似度に対応する全身照合閾値1と、少なくとも一つの第2の閾値として、それぞれ顔照合閾値1よりも大きい顔画像の類似度に対応する顔照合閾値2及び顔照合閾値3とそれぞれ全身照合閾値1よりも大きい全身画像の類似度に対応する全身照合閾値2及び全身照合閾値3と、を記憶させておく。そして、取得した前記類似度の中から、顔照合閾値1よりも大きい類似度を持つ類似度算出対象者の顔画像と全身照合閾値1よりも大きい類似度を持つ類似度算出対象者の全身画像との少なくとも一方を検出し、顔照合閾値1及び全身照合閾値1の少なくとも一方に基づいて検出した類似度算出対象者の顔画像及び全身画像の少なくとも一方を、対応する顔照合閾値2及び顔照合閾値3と全身照合閾値2及び全身照合閾値3との少なくとも一方に基づいて判別した注意段階を示す段階表示と共に提示する追跡出力画面としての追跡アラート画面43を生成する。
これにより、互いに異なる判断基準を有する二つ以上の類似度算出手法、例えば顔画像のための第1の照合モデルと全身画像のための第2の照合モデルとが、互いに範囲又はスケールが異なる類似度値を出力する場合であっても、追跡アラート画面43では同様の段階表示により類似度が表示されることで、監視者は、類似度の同一性を容易に認識できるようになる。
Further, the person tracking method according to one embodiment is a person tracking method for tracking a person to be tracked from surveillance images acquired by a plurality of surveillance cameras 10, and the Web server 30, which is a computer, A detection alert screen 42 is generated, which is an output screen for presenting an image similar to an image of a specific person detected by the person detection method according to an embodiment, together with a step display indicating the detected caution step. A monitoring terminal 40 operated by a monitor accepts designation of an image of a tracking target to be tracked from among a plurality of images of similarity calculation targets who are similar to images of a specific person presented with a staged display. , the specified image is registered as a tracking image in the management data storage section 313 of the file server 31 provided in the storage device 302 which is a memory. Then, using the tracking image, which is the image of the person to be tracked who is to be tracked and is registered in the management data storage unit 313, as a specific image, the monitoring/tracking execution function unit 23 applies at least two similarity calculation methods. to extract at least two similarities between the images of the person to be tracked, which is a specific image of the images of the person to be tracked, extracted from the monitoring images of each of the plurality of surveillance cameras 10. At least two degrees of similarity for the image are acquired from the monitoring/tracking execution function unit 23, and management data is stored in accordance with the similarity calculation method used to calculate each similarity in the monitoring/tracking execution function unit 23. Based on the plurality of threshold values stored in the unit 313, two or more images of the person to be tracked that are similar to the image of the person to be tracked are selected from among the images of the person to be tracked, which are extracted from the monitoring images of the plurality of surveillance cameras 10. At least two or more of the images obtained from the monitoring/tracking execution function unit 23 are obtained by detecting an image of the person to be calculated for similarity, and detecting which of a plurality of attention stages the detected image of the person to be calculated for similarity is in. A tracking alert screen 43 as a tracking output screen for presenting each of two or more similarity calculated target person images that are similar to the image of the tracked target person detected from the similarity of , together with a step display indicating the detected caution level. I am trying to generate .
More specifically, from among a plurality of images of persons to be subjected to similarity calculation extracted from each of the monitoring images of the plurality of monitoring cameras 10 presented on the detection alert screen 42 together with the caution level, the tracking to be performed is selected. A designation of a target person's face image is received from the monitoring terminal 40 operated by a supervisor, and the designated face image and a whole body image of the tracking target person corresponding to the face image are used as a tracking face image and a tracking whole body image. It is registered in the management data storage unit 313 as . Then, the monitoring/tracking execution function unit 23 registers the facial image of the person to be calculated for similarity extracted from each of the monitoring images of the plurality of monitoring cameras 10, which is calculated using, for example, the first matching model. The degree of similarity with the face image for tracking and the degree of similarity between the whole body image of the person to be calculated using the second matching model and the registered whole body image for tracking are obtained. In addition, as a first threshold in the camera information table storage unit 321, a face matching threshold 1 corresponding to the similarity estimated to be a tracking face image in which the face image of the person to be calculated for similarity is registered and a similarity calculation A whole-body matching threshold 1 corresponding to the degree of similarity estimated to indicate that the subject's full-body image is a registered tracking full-body image, and at least one second threshold for a face image that is larger than the face matching threshold 1. A face matching threshold 2 and a face matching threshold 3 corresponding to the degree of similarity, and a whole body matching threshold 2 and a whole body matching threshold 3 corresponding to the degree of similarity of the whole body images each larger than the whole body matching threshold 1 are stored. Then, from among the obtained similarities, a face image of the similarity calculation target person with a similarity higher than the face matching threshold 1 and a whole body image of the similarity calculation target with a similarity higher than the whole body matching threshold 1 , and at least one of the face image and the whole body image of the similarity calculation target person detected based on at least one of the face matching threshold 1 and the whole body matching threshold 1 is subjected to the corresponding face matching threshold 2 and face matching. A tracking alert screen 43 is generated as a tracking output screen to be presented along with a stage display indicating the caution level determined based on the threshold 3 and at least one of the whole body matching threshold 2 and the whole body matching threshold 3.
As a result, two or more similarity calculation methods having different judgment criteria, for example, a first matching model for face images and a second matching model for whole body images, can be used to create similarities with different ranges or scales. Even in the case of outputting the degree value, the degree of similarity is displayed in the same stepwise manner on the tracking alert screen 43, so that the observer can easily recognize the same degree of similarity.

或いは、一実施形態に係る人物追跡方法は、複数台の監視カメラ10が取得した監視画像から追跡を行うべき追跡対象者を追跡する人物追跡方法であって、コンピュータであるWebサーバ30が、互いに異なる判断基準を有する二つ以上の類似度算出手法のそれぞれを用いて特定画像に対する対象画像の類似度を二つ以上算出する類似度算出部である映像解析機能部20の監視/追跡実行機能部23が算出した類似度のそれぞれに基づいて、対象画像を複数の段階に分類するための複数の閾値を、類似度算出手法毎にメモリである記憶装置302に設けたDBサーバ32のカメラ情報テーブル記憶部321に記憶させておき、監視者が操作する監視端末40から指定された追跡を行うべき追跡対象者の画像を、特定画像としてメモリである記憶装置302に設けたファイルサーバ31の管理データ記憶部313に登録し、複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した対象画像である類似度算出対象者の画像の、特定画像に対する少なくとも一つの類似度を監視/追跡実行機能部23から取得し、この監視/追跡実行機能部23での少なくとも一つの類似度の算出に用いた類似度算出手法に対応してカメラ情報テーブル記憶部321に記憶されている複数の閾値に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の中から、追跡対象者の画像に類似する画像を検出すると共に、その検出した類似度算出対象者の画像が複数の注意段階の何れであるのか検出し、監視/追跡実行機能部23から取得した少なくとも二つ以上の類似度から検出した追跡対象者の画像に類似する二つ以上の類似度算出対象者の画像それぞれを、検出した注意段階を示す段階表示と共に提示するための追跡出力画面としての追跡アラート画面43を生成するようにしている。
より具体的には、例えば二つ以上の照合モデルのそれぞれについて、類似度が複数の注意段階の何れであるか判定するための複数の閾値をカメラ情報テーブル記憶部321に記憶させておき、監視者が操作する監視端末40から指定された追跡を行うべき追跡対象の画像を管理データ記憶部313に登録し、登録された追跡対象者の画像と複数台の監視カメラ10それぞれで定期的に取得した監視画像のそれぞれから抽出した類似度算出対象者の画像との類似度を二つ以上の照合モデルそれぞれを用いて算出する監視/追跡実行機能部23から、二つ以上の類似度を取得し、記憶されている複数の閾値に基づいて、取得した類似度が注意段階の何れであるか判別し、判別の結果に基づいて、複数台の監視カメラ10それぞれの監視画像から抽出された類似度算出対象者の画像の内、追跡対象者の画像に類似する類似度算出対象者の画像を、注意段階それぞれを示す段階表示と共に提示するための追跡アラート画面43を生成するようにしている。
これにより、互いに異なる判断基準を有する二つ以上の類似度算出手法、例えば二つ以上の照合モデルが、互いに範囲又はスケールが異なる類似度値を出力する場合であっても、追跡アラート画面43では同様の段階表示により類似度が表示されることで、監視者は、類似度の同一性を容易に認識できるようになる。
Alternatively, the person tracking method according to one embodiment is a person tracking method for tracking a person to be tracked from surveillance images acquired by a plurality of surveillance cameras 10, and in which the web servers 30, which are computers, communicate with each other. A monitoring/tracking execution function unit of the video analysis function unit 20, which is a similarity calculation unit that calculates two or more degrees of similarity of a target image to a specific image using two or more similarity calculation methods having different judgment criteria. The camera information table of the DB server 32 is provided with a plurality of threshold values for classifying the target image into a plurality of stages based on each of the similarities calculated by 23 in the storage device 302, which is a memory, for each similarity calculation method. Management data of the file server 31 that is stored in the storage unit 321 and provided in the storage device 302, which is a memory, as a specific image of the image of the person to be tracked who is designated from the monitoring terminal 40 operated by the supervisor. Monitors at least one degree of similarity to a specific image of the image of the person to be calculated, which is a target image registered in the storage unit 313 and extracted from each of the monitoring images periodically acquired by each of the plurality of monitoring cameras 10. A plurality of information obtained from the /tracking execution function unit 23 and stored in the camera information table storage unit 321 corresponding to the similarity calculation method used to calculate at least one similarity in the monitoring/tracking execution function unit 23. Based on the threshold value, an image similar to the image of the tracking target person is detected from among the images of the similarity calculation target person extracted from the monitoring images of each of the plurality of surveillance cameras 10, and the detected similarity is calculated from among the images of the target person. Detect which of multiple attention stages the image of the target person is in, and calculate two or more images similar to the detected image of the target person based on the degree of similarity of at least two or more obtained from the monitoring/tracking execution function unit 23. A tracking alert screen 43 is generated as a tracking output screen for presenting each image of the person to be subjected to similarity calculation together with a stage display indicating the detected caution level.
More specifically, for example, for each of two or more matching models, the camera information table storage unit 321 stores a plurality of threshold values for determining which of the plurality of caution levels the degree of similarity is in, and the monitoring An image of the tracking target to be tracked designated by the monitoring terminal 40 operated by the person is registered in the management data storage unit 313, and images of the registered tracking target and each of the plurality of monitoring cameras 10 are periodically acquired. Two or more degrees of similarity are obtained from the monitoring/tracking execution function unit 23, which calculates the degree of similarity with the image of the person to be calculated using two or more matching models, respectively, extracted from each of the surveillance images obtained. Based on a plurality of stored threshold values, it is determined whether the obtained similarity is in the caution stage, and based on the result of the determination, the similarity extracted from the surveillance images of each of the plurality of surveillance cameras 10 is determined. A tracking alert screen 43 is generated to present an image of the similarity calculation target person who is similar to the image of the tracking target person among the images of the calculation target person, together with a stage display indicating each caution level.
As a result, even if two or more similarity calculation methods having different judgment criteria, for example, two or more matching models output similarity values with different ranges or scales, the tracking alert screen 43 By displaying the degree of similarity using a similar stage display, the observer can easily recognize the same degree of similarity.

[他の実施形態]
前記一実施形態では、監視カメラ10で取得した監視画像から人物の全身画像を抽出し、その抽出した全身画像から人物の顔画像を抽出するものとして説明したが、これに限定するものではない。監視画像に人物の顔が写っている場合には、全身画像を抽出することなく顔画像を抽出するようにしても良い。
[Other embodiments]
In the above embodiment, the whole body image of the person is extracted from the surveillance image acquired by the surveillance camera 10, and the face image of the person is extracted from the extracted whole body image, but the present invention is not limited to this. If a person's face is included in the monitoring image, the face image may be extracted without extracting the whole body image.

また、一実施形態では、全身画像特徴量及び顔画像特徴量として、人物自体の属性情報を数値化したものとしたが、これに限定するものではない。全身特徴量は、例えば、服装、持ち物(バッグの種類や色、ベビーカー、等)、装飾品(サングラス、マスク、等)、等の人に付随する付随情報を数値化したものを含んでも良い。さらに、全身特徴量は、発熱情報、脈拍、等の画像から得られる又は他のセンサから得られる人の内部情報を数値化したものを含んでも良い。また、顔特徴量は、装飾品(メガネ、帽子、等)等の顔に付随する付随情報を数値化したものを含んでも良い。 Further, in one embodiment, the attribute information of the person itself is digitized as the whole body image feature amount and the face image feature amount, but the present invention is not limited to this. The whole body feature amount may include, for example, a numerical representation of incidental information associated with a person, such as clothing, belongings (type and color of bag, stroller, etc.), accessories (sunglasses, mask, etc.). Further, the whole body feature amount may include numerical information such as fever information, pulse rate, etc., which is obtained from an image of the person or from other sensors. Further, the facial feature amount may include numerical values of incidental information attached to the face, such as accessories (glasses, hats, etc.).

また、全身画像特徴量及び顔画像特徴量は人物自体の属性情報を数値化したもののみとし、それら付随情報を数値化したものや人の内部情報を数値化したものを別の特徴量として、全身画像特徴量及び顔画像特徴量と同様の検知基準の一つとして、その別の特徴量を使用するようにしても良い。 In addition, the whole body image feature amount and face image feature amount are only those that quantify the attribute information of the person itself, and those that quantify the accompanying information and the person's internal information are treated as other feature quantities. Another feature amount may be used as one of the detection criteria similar to the whole body image feature amount and the face image feature amount.

また、前記一実施形態では、ファイルサーバ31の過去検索用データ記憶部311に、過去検索用データとしてフレーム画像3111、全身画像3112、全身特徴量3113及び顔特徴量3114を記憶していくものとしたが、顔特徴量3114を抽出する元となった顔画像も記憶するようにしても良い。 Further, in the above embodiment, the past search data storage unit 311 of the file server 31 stores a frame image 3111, a whole body image 3112, a whole body feature amount 3113, and a face feature amount 3114 as past search data. However, the facial image from which the facial feature amount 3114 is extracted may also be stored.

また、図13乃至図15、図17乃至図20Cのフローチャートに示した処理ステップの順序は一例であり、この順に限定するものではない。例えば、図18において、ステップS112及びS113の処理とステップS114及びS115の処理とは、順番が逆でも良いし、並行して行っても良い。また、図20AにおけるステップS504乃至S509の処理と図20BにおけるステップS510乃至S515の処理とについても、その順番は逆でも良いし、並行して行っても良い。このように、各処理ステップは、先行の又は後続する処理ステップと齟齬が生じない限り、処理順序等を変更して構わない。 Further, the order of the processing steps shown in the flowcharts of FIGS. 13 to 15 and FIGS. 17 to 20C is an example, and the order is not limited to this order. For example, in FIG. 18, the processing in steps S112 and S113 and the processing in steps S114 and S115 may be performed in reverse order or may be performed in parallel. Furthermore, the processing in steps S504 to S509 in FIG. 20A and the processing in steps S510 to S515 in FIG. 20B may be performed in reverse order or in parallel. In this way, the processing order and the like of each processing step may be changed as long as there is no discrepancy with the preceding or subsequent processing steps.

また、図16に示した検知アラート画面42及び図21(及び図22)に示した追跡アラート画面についても、このレイアウト並びに表示内容に限定するものではない。例えば、注意段階表示4215、顔注意段階表示4324及び全身注意段階表示4326を、複数の四角形を識別表示する個数で表しているが、例えばイエロー、オレンジ、レッドのように一つの四角形の色を変更する識別表示によって注意段階を表すようにしても良い。或いは、四角形の個数や色ではなく、A~Cや1~3のように、注意段階を文字で表しても構わない。 Furthermore, the detection alert screen 42 shown in FIG. 16 and the tracking alert screen shown in FIG. 21 (and FIG. 22) are not limited to this layout and display content. For example, the caution stage display 4215, the face caution stage display 4324, and the whole body caution stage display 4326 are expressed by the number of rectangles that are identified and displayed, but the color of one square is changed, for example, yellow, orange, or red. The caution level may be indicated by an identification display. Alternatively, instead of the number or color of rectangles, the caution levels may be expressed in letters, such as A to C or 1 to 3.

要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても良い。さらに、異なる実施形態に亘る構成要素を適宜組み合わせても良い。 In short, the present invention is not limited to the above-described embodiments as they are, but can be implemented by modifying the constituent elements within the scope of the invention at the implementation stage. Moreover, various inventions can be formed by appropriately combining the plurality of components disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiments. Furthermore, components from different embodiments may be combined as appropriate.

1…人物追跡システム
10…監視カメラ
20…映像解析機能部
21…画像取得モジュール
22…人検知情報抽出機能部
23…監視/追跡実行機能部
30…Webサーバ
31…ファイルサーバ
32…データベース(DB)サーバ
33…検索用人検知結果保存機能部
34…検知/追跡結果判定機能部
35…Webアプリケーション
40…監視端末
41…Webブラウザ
42…検知アラート画面
43…追跡アラート画面
221…全身検出モジュール
222…領域追跡モジュール
223…全身特徴量抽出モジュール
224…顔検出モジュール
225…顔特徴量抽出モジュール
231…全身照合モジュール
232…顔照合モジュール
251…追跡テーブル
301A…ハードウェアプロセッサ
301B…プログラムメモリ
302…記憶装置
303…通信インタフェース装置
304…バス
311…過去検索用データ記憶部
312…検知履歴データ記憶部
313…管理データ記憶部
321…カメラ情報テーブル記憶部
322…過去検索用データテーブル記憶部
323…検知履歴テーブル記憶部
324…管理テーブル記憶部
325…追跡テーブル記憶部
351…ログイン機能部
352…監視機能部
353…追跡機能部
354…過去検索機能部
421…検知人物カード
431…追跡対象者情報領域
432…追跡情報カード
433…絞り込み指示領域
3111…フレーム画像
3112…全身画像
3113,3134…全身特徴量
3114,3122,3132…顔特徴量
3121,4212…検知顔画像
3131…登録顔画像
3133…登録全身画像
3211…カメラ情報テーブル
3221…過去検索用データテーブル
3231…検知履歴テーブル
3241…管理テーブル
3251…追跡テーブル
3521…検知アラート出力機能部
3531…画像登録機能部
3532…追跡アラート出力機能部
4211…監視対象者顔画像
4213…注意喚起メッセージ
4214,4312…不審者ID
4215…注意段階表示
4216…検知情報
4217…追跡開始ボタン
4311…注意喚起メッセージ
4313…登録画像
4314…追跡情報
4315…追跡停止ボタン
4321…検出日時情報
4322…検出カメラ場所情報
4323…検出顔画像
4324…顔注意段階表示
4325…検出全身画像
4326…全身注意段階表示
4327…検出背景画像
4331…顔画像類似度選択ボタン
4332…顔画像類似度選択リセットボタン
4333…全身画像類似度選択ボタン
4334…全身画像類似度選択リセットボタン
NET…ネットワーク
SV…サーバ装置
1... Person tracking system 10... Surveillance camera 20... Video analysis function unit 21... Image acquisition module 22... Person detection information extraction function unit 23... Monitoring/tracking execution function unit 30... Web server 31... File server 32... Database (DB) Server 33...Search human detection result storage function unit 34...Detection/tracking result determination function unit 35...Web application 40...Monitoring terminal 41...Web browser 42...Detection alert screen 43...Tracking alert screen 221...Full body detection module 222...Area tracking Module 223...Whole body feature extraction module 224...Face detection module 225...Face feature extraction module 231...Whole body matching module 232...Face matching module 251...Tracking table 301A...Hardware processor 301B...Program memory 302...Storage device 303...Communication Interface device 304... Bus 311... Data storage section for past search 312... Detection history data storage section 313... Management data storage section 321... Camera information table storage section 322... Data table storage section for past search 323... Detection history table storage section 324 ... Management table storage section 325 ... Tracking table storage section 351 ... Login function section 352 ... Monitoring function section 353 ... Tracking function section 354 ... Past search function section 421 ... Detected person card 431 ... Tracking target person information area 432 ... Tracking information card 433 ...Narrowing down instruction area 3111...Frame image 3112...Whole body image 3113, 3134...Whole body feature amount 3114, 3122, 3132...Face feature amount 3121, 4212...Detected face image 3131...Registered face image 3133...Registered whole body image 3211...Camera information table 3221...Data table for past search 3231...Detection history table 3241...Management table 3251...Tracking table 3521...Detection alert output function section 3531...Image registration function section 3532...Tracking alert output function section 4211...Monitoring target person face image 4213...Caution Alert message 4214, 4312...Suspicious person ID
4215... Caution stage display 4216... Detection information 4217... Tracking start button 4311... Alert message 4313... Registered image 4314... Tracking information 4315... Tracking stop button 4321... Detection date and time information 4322... Detected camera location information 4323... Detected face image 4324... Face caution stage display 4325...Detected whole body image 4326...Whole body caution stage display 4327...Detected background image 4331...Face image similarity selection button 4332...Face image similarity selection reset button 4333...Whole body image similarity selection button 4334...Full body image similarity Degree selection reset button NET...Network SV...Server device

Claims (11)

一つの類似度算出手法を用いて特定画像に対する対象画像の類似度を算出する類似度算出部が算出した前記類似度に基づいて、前記対象画像を一つの照合モデルについて、複数の段階に分類するための複数の閾値を記憶した閾値記憶部と、
複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれから抽出した前記対象画像である類似度算出対象者の画像の、前記特定画像である特定人物の画像に対する一つの類似度を前記類似度算出部から取得し、前記閾値記憶部に記憶されている前記複数の閾値に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の画像の中から、前記特定人物の画像に類似する画像を検出すると共に、その検出した前記類似度算出対象者の画像が複数の注意段階の何れであるか検出する検出部と、
前記検出部が検出した前記特定人物の画像に類似する前記画像を、前記検出部が検出した前記注意段階を示す段階表示と共に提示するための出力画面を生成する出力画面生成部と、
を具備する、人物検出装置。
Based on the similarity calculated by a similarity calculation unit that calculates the similarity of the target image to a specific image using one similarity calculation method, the target image is classified into a plurality of stages with respect to one matching model. a threshold storage unit storing a plurality of threshold values for
One similarity of the image of the target person, which is the target image extracted from each of the surveillance images periodically acquired by each of a plurality of surveillance cameras, to the image of the specific person, which is the specific image, is calculated as the similarity. Based on the plurality of threshold values acquired from the degree calculation unit and stored in the threshold value storage unit, from among the images of the subject for similarity calculation extracted from the monitoring images of each of the plurality of monitoring cameras. , a detection unit that detects an image similar to the image of the specific person and detects which of a plurality of caution levels the detected image of the person to be calculated for similarity is in;
an output screen generation unit that generates an output screen for presenting the image similar to the image of the specific person detected by the detection unit together with a step display indicating the caution level detected by the detection unit;
A person detection device comprising:
前記複数の閾値は、前記対象画像である前記類似度算出対象者の画像が前記特定人物の画像であるか否か分類するための第1の閾値と、前記類似度算出対象者の画像が前記特定人物の画像である場合に、前記類似度算出対象者の画像を前記複数の段階に分類するための少なくとも一つの第2の閾値と、を含む、請求項1に記載の人物検出装置。 The plurality of threshold values include a first threshold value for classifying whether the image of the person to be calculated for similarity, which is the target image, is an image of the specific person; The person detection device according to claim 1, further comprising at least one second threshold for classifying the image of the person to be calculated for similarity into the plurality of stages when the image is of a specific person. 請求項1に記載の人物検出装置と、
前記人物検出装置によって前記出力画面に前記段階表示と共に提示された前記特定人物の画像に類似する複数の前記類似度算出対象者の画像の中から、追跡を行うべき追跡対象者の画像の指定を、監視者が操作する監視端末から受け付け、その指定された画像を追跡用画像として登録し、前記登録された前記追跡を行うべき前記追跡対象者の画像である前記追跡用画像を前記特定画像として、前記類似度算出部に、前記類似度算出手法を用いて前記類似度算出対象者の画像の前記類似度を抽出させる登録部と、
前記検出部が、前記類似度算出部から取得した前記類似度から検出した前記追跡対象者の画像に類似する類似度算出対象者の画像を、前記検出部が検出した前記注意段階を示す段階表示と共に提示するための追跡出力画面を生成する追跡出力画面生成部と、
を具備する、人物追跡装置。
A person detection device according to claim 1;
Specifying an image of a tracking target person to be tracked from among a plurality of images of the similarity calculation target person who are similar to the image of the specific person presented on the output screen by the person detection device together with the stepwise display. , the designated image is received from a monitoring terminal operated by a supervisor, the specified image is registered as a tracking image, and the tracking image, which is an image of the registered tracking target person to be tracked, is used as the specific image. , a registration unit that causes the similarity calculation unit to extract the similarity of the image of the person to be calculated using the similarity calculation method;
a stage display indicating the caution stage in which the detection unit detects an image of the person to be tracked who is similar to the image of the person to be tracked detected from the similarity obtained from the similarity calculation unit; a tracking output screen generation unit that generates a tracking output screen for presentation together with the tracking output screen;
A person tracking device equipped with
一つの類似度算出手法を用いて特定画像に対する対象画像の類似度を算出する類似度算出部が算出した前記類似度に基づいて、前記対象画像を複数の段階に分類するための複数の閾値を記憶した閾値記憶部と、
監視者が操作する監視端末から指定された追跡を行うべき追跡対象者の画像を、前記特定画像として登録する登録部と、
複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれから抽出した前記対象画像である類似度算出対象者の画像の、前記特定画像に対する一つの類似度を前記類似度算出部から取得し、前記閾値記憶部に記憶されている前記複数の閾値に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の画像の中から、前記追跡対象者の画像に類似する画像を検出すると共に、その検出した前記類似度算出対象者の画像が複数の注意段階の何れであるのか検出する検出部と、
前記検出部が、前記類似度算出部から取得した前記類似度から検出した前記追跡対象者の画像に類似する類似度算出対象者の画像を、前記注意段階を示す段階表示と共に提示するための追跡出力画面を生成する追跡出力画面生成部と、
を具備する、人物追跡装置。
A plurality of thresholds for classifying the target image into a plurality of stages are set based on the similarity calculated by a similarity calculation unit that calculates the similarity of the target image to a specific image using one similarity calculation method. a stored threshold storage unit;
a registration unit that registers, as the specific image, an image of a person to be tracked who is designated by a monitoring terminal operated by a monitor;
One degree of similarity with respect to the specific image of the image of the person to be calculated, which is the target image extracted from each of the surveillance images periodically acquired by each of the plurality of surveillance cameras, is acquired from the similarity degree calculation unit. , based on the plurality of threshold values stored in the threshold value storage unit, the tracking target person is selected from among the images of the similarity calculation target person extracted from the monitoring images of each of the plurality of surveillance cameras. a detection unit that detects an image similar to the image and detects which of a plurality of attention levels the detected image of the person to be calculated for similarity is in;
Tracking for the detection unit to present an image of the similarity calculation target person that is similar to the image of the tracking target person detected from the similarity obtained from the similarity calculation unit, together with a stage display indicating the caution stage. a tracking output screen generation unit that generates an output screen;
A person tracking device equipped with
前記追跡出力画面生成部は、前記監視端末からの段数指定を受けて、前記検出部が検出した前記類似度算出対象者の前記画像の内、前記指定された段階に対応する閾値以上の類似度を有する画像を、前記段階表示と共に提示する絞り込み出力画面を生成する、請求項3又は4に記載の人物追跡装置。 The tracking output screen generation unit receives the stage number designation from the monitoring terminal, and selects a similarity level equal to or higher than a threshold value corresponding to the designated stage among the images of the similarity calculation target person detected by the detection unit. The person tracking device according to claim 3 or 4, wherein the person tracking device generates a narrowing down output screen that presents an image having the step display together with the step display. 請求項3乃至5の何れかに記載の人物追跡装置と、
前記複数台の監視カメラと、
前記監視者が操作する前記監視端末と、
前記類似度算出部を備える解析部と、
を具備する人物追跡システム。
A person tracking device according to any one of claims 3 to 5,
the plurality of surveillance cameras;
the monitoring terminal operated by the monitoring person;
an analysis unit including the similarity calculation unit;
A person tracking system equipped with
複数台の監視カメラが取得した監視画像から特定人物を検出する人物検出方法であって、
コンピュータが、
一つの類似度算出手法を用いて特定画像に対する対象画像の類似度を算出する類似度算出部が算出した前記類似度に基づいて、前記対象画像を複数の段階に分類するための複数の閾値をメモリに記憶させておき、
複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれから抽出した前記対象画像である類似度算出対象者の画像の、前記特定画像である特定人物の画像に対する類似度を前記類似度算出部から取得し、
前記メモリに記憶されている前記複数の閾値に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の画像の中から、前記特定人物の画像に類似する画像を検出すると共に、その検出した前記類似度算出対象者の画像が複数の注意段階の何れであるのか検出し、
前記検出した前記特定人物の画像に類似する前記画像を、前記検出した前記注意段階を示す段階表示と共に提示するための出力画面を生成する、
人物検出方法。
A person detection method for detecting a specific person from surveillance images obtained by multiple surveillance cameras,
The computer is
A plurality of thresholds for classifying the target image into a plurality of stages are set based on the similarity calculated by a similarity calculation unit that calculates the similarity of the target image to a specific image using one similarity calculation method. Store it in memory,
The similarity calculation is performed by calculating the similarity of the image of the target person, which is the target image extracted from each of the surveillance images periodically acquired by each of a plurality of surveillance cameras, to the image of the specific person, which is the specific image. obtained from the department,
Based on the plurality of threshold values stored in the memory, from among the images of the similarity calculation target person extracted from the monitoring images of each of the plurality of monitoring cameras, images similar to the image of the specific person are selected. detecting an image, and detecting which of a plurality of attention stages the detected image of the similarity calculation target person is in;
generating an output screen for presenting the image similar to the detected image of the specific person together with a step display indicating the detected caution step;
Person detection method.
複数台の監視カメラが取得した監視画像から追跡を行うべき追跡対象者を追跡する人物追跡方法であって、
コンピュータが、
請求項7に記載の人物検出方法によって生成した前記出力画面に前記段階表示と共に提示された前記特定人物の画像に類似する複数の類似度算出対象者の画像の中から、追跡を行うべき追跡対象者の画像の指定を、監視者が操作する監視端末から受け付け、
その指定された画像を追跡用画像として前記メモリに登録し、
前記メモリに登録された前記追跡を行うべき前記追跡対象者の画像である前記追跡用画像を前記特定画像として、前記類似度算出部に、前記類似度算出手法を用いて前記類似度算出対象者の画像の前記類似度を抽出させ、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の、前記特定画像である前記追跡対象者の画像に対する前記類似度を前記類似度算出部から取得し、
前記メモリに記憶されている前記複数の閾値に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の画像の中から、前記追跡対象者の画像に類似する類似度算出対象者の画像を検出すると共に、その検出した前記類似度算出対象者の画像が前記複数の注意段階の何れであるのか検出し、前記類似度算出部から取得した前記類似度から検出した前記追跡対象者の画像に類似する前記類似度算出対象者の画像を、前記検出した前記注意段階を示す段階表示と共に提示する追跡出力画面を生成する、
人物追跡方法。
A person tracking method for tracking a person to be tracked from surveillance images obtained by multiple surveillance cameras, the method comprising:
The computer is
A tracking target to be tracked from among a plurality of images of similarity calculation targets who are similar to the image of the specific person presented on the output screen together with the step display generated by the person detection method according to claim 7. The system accepts the designation of the person's image from the monitoring terminal operated by the monitoring person,
registering the specified image in the memory as a tracking image;
Using the tracking image, which is an image of the tracking target person who is to be tracked and is registered in the memory, as the specific image, the similarity calculation unit uses the similarity calculation method to calculate the similarity calculation target person. The similarity of the similarity calculation target person extracted from the monitoring images of each of the plurality of surveillance cameras to the image of the tracking target person, which is the specific image, is extracted. Obtained from the similarity calculation unit,
Based on the plurality of threshold values stored in the memory, from among the images of the similarity calculation target person extracted from the monitoring images of each of the plurality of surveillance cameras, images similar to the image of the tracking target person are selected. detecting an image of the similarity calculation target person, detecting which of the plurality of attention stages the detected image of the similarity calculation target person is in, and based on the similarity obtained from the similarity calculation unit; generating a tracking output screen that presents an image of the similarity calculation target person who is similar to the detected image of the tracking target person together with a step display indicating the detected caution level;
How to track people.
複数台の監視カメラが取得した監視画像から追跡を行うべき追跡対象者を追跡する人物追跡方法であって、
コンピュータが、
一つの類似度算出手法を用いて特定画像に対する対象画像の類似度を算出する類似度算出部が算出した前記類似度に基づいて、前記対象画像を複数の段階に分類するための複数の閾値をメモリに記憶させておき、
監視者が操作する監視端末から指定された追跡を行うべき追跡対象者の画像を、前記特定画像として前記メモリに登録し、
複数台の監視カメラそれぞれで定期的に取得した監視画像のそれぞれから抽出した前記対象画像である類似度算出対象者の画像の、前記特定画像に対する類似度を前記類似度算出部から取得し、
前記メモリに記憶されている前記複数の閾値に基づいて、前記複数台の監視カメラそれぞれの前記監視画像から抽出された前記類似度算出対象者の画像の中から、前記追跡対象者の画像に類似する画像を検出すると共に、その検出した前記類似度算出対象者の画像が複数の注意段階の何れであるのか検出し、前記類似度算出部から取得した前記類似度から検出した前記追跡対象者の画像に類似する類似度算出対象者の画像を、前記検出した前記注意段階を示す段階表示と共に提示するための追跡出力画面を生成する、
人物追跡方法。
A person tracking method for tracking a person to be tracked from surveillance images obtained by multiple surveillance cameras, the method comprising:
The computer is
A plurality of thresholds for classifying the target image into a plurality of stages are set based on the similarity calculated by a similarity calculation unit that calculates the similarity of the target image to a specific image using one similarity calculation method. Store it in memory,
registering an image of a person to be tracked designated by a monitoring terminal operated by a supervisor in the memory as the specific image;
obtaining from the similarity calculation unit the similarity of the image of the person to be calculated, which is the target image extracted from each of the surveillance images periodically acquired by each of a plurality of surveillance cameras, with respect to the specific image;
Based on the plurality of threshold values stored in the memory, from among the images of the similarity calculation target person extracted from the monitoring images of each of the plurality of surveillance cameras, images similar to the image of the tracking target person are selected. At the same time, it detects which of a plurality of attention stages the detected image of the similarity calculation target person is in, and detects the image of the tracking target person detected based on the similarity obtained from the similarity calculation unit. generating a tracking output screen for presenting an image of the similarity calculation target person similar to the image together with a stage display indicating the detected caution stage;
How to track people.
請求項1又は2に記載の人物検出装置の各部としてコンピュータを動作させる人物検出プログラム。 A person detection program that causes a computer to operate as each part of the person detection device according to claim 1 or 2. 請求項3乃至5の何れかに記載の人物追跡装置の各部としてコンピュータを動作させる人物追跡プログラム。 A person tracking program that causes a computer to operate as each part of the person tracking device according to any one of claims 3 to 5.
JP2024006174A 2020-08-07 2024-01-18 Person detection device, person tracking apparatus, person tracking system, person detection method, person tracking method, person detection program and person tracking program Pending JP2024040203A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024006174A JP2024040203A (en) 2020-08-07 2024-01-18 Person detection device, person tracking apparatus, person tracking system, person detection method, person tracking method, person detection program and person tracking program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020135146A JP7424939B2 (en) 2020-08-07 2020-08-07 Person detection device, person tracking device, person tracking system, person detection method, person tracking method, person detection program, and person tracking program
JP2024006174A JP2024040203A (en) 2020-08-07 2024-01-18 Person detection device, person tracking apparatus, person tracking system, person detection method, person tracking method, person detection program and person tracking program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020135146A Division JP7424939B2 (en) 2020-08-07 2020-08-07 Person detection device, person tracking device, person tracking system, person detection method, person tracking method, person detection program, and person tracking program

Publications (1)

Publication Number Publication Date
JP2024040203A true JP2024040203A (en) 2024-03-25

Family

ID=80324334

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020135146A Active JP7424939B2 (en) 2020-08-07 2020-08-07 Person detection device, person tracking device, person tracking system, person detection method, person tracking method, person detection program, and person tracking program
JP2024006174A Pending JP2024040203A (en) 2020-08-07 2024-01-18 Person detection device, person tracking apparatus, person tracking system, person detection method, person tracking method, person detection program and person tracking program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020135146A Active JP7424939B2 (en) 2020-08-07 2020-08-07 Person detection device, person tracking device, person tracking system, person detection method, person tracking method, person detection program, and person tracking program

Country Status (1)

Country Link
JP (2) JP7424939B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117331138B (en) * 2023-10-25 2024-04-26 广州古贤科技有限公司 Intelligent detection system of intelligent analyzer

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9589181B2 (en) * 2013-02-28 2017-03-07 Hitachi Kokusai Electric Inc. Person search method and device for searching person staying on platform
JP7098365B2 (en) * 2018-03-15 2022-07-11 キヤノン株式会社 Image processing equipment, image processing methods and programs
JP7039409B2 (en) * 2018-07-18 2022-03-22 株式会社日立製作所 Video analysis device, person search system and person search method

Also Published As

Publication number Publication date
JP2022030852A (en) 2022-02-18
JP7424939B2 (en) 2024-01-30

Similar Documents

Publication Publication Date Title
US11295139B2 (en) Human presence detection in edge devices
US20220092881A1 (en) Method and apparatus for behavior analysis, electronic apparatus, storage medium, and computer program
US9530144B2 (en) Content output device, content output method, content output program, and recording medium having content output program recorded thereon
WO2014050518A1 (en) Information processing device, information processing method, and information processing program
JP5747116B1 (en) Security system
CN110717358B (en) Visitor number counting method and device, electronic equipment and storage medium
CN111312367A (en) Campus personnel abnormal psychological prediction method based on self-adaptive cloud management platform
JP2024040203A (en) Person detection device, person tracking apparatus, person tracking system, person detection method, person tracking method, person detection program and person tracking program
JPWO2014132841A1 (en) Person search method and home staying person search device
KR20130095727A (en) Semantic parsing of objects in video
WO2022030558A1 (en) Person detection or tracking device, system, method, and program
JP2021132267A (en) Video monitoring system and video monitoring method
Upala et al. IoT solution for smart library using facial recognition
CN109543607A (en) Object abnormal state detection method, system, monitor system and storage medium
Tan et al. Application of face recognition in tracing COVID-19 fever patients and close contacts
CN105989174A (en) Extraction device and extraction method of area of interest
JP2019101664A (en) Estimating program, estimating system, and estimating method
CN109697392A (en) Draw the method and device of target object thermodynamic chart
US20230410222A1 (en) Information processing apparatus, control method, and program
Pramerdorfer et al. Fall detection based on depth-data in practice
CN115272967A (en) Cross-camera pedestrian real-time tracking and identifying method, device and medium
JP6733766B1 (en) Analysis device, control method, and program
JP7424940B2 (en) Person tracking device, person tracking system, person tracking method and person tracking program
WO2022176342A1 (en) Information processing device, information processing system, information processing method, and non-transitory computer-readable medium
JP7500335B2 (en) Person tracking device, person tracking system, person tracking method, and person tracking program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240118