JP2023039504A - Parameter browsing system, parameter adjusting system, server, and server control program - Google Patents

Parameter browsing system, parameter adjusting system, server, and server control program Download PDF

Info

Publication number
JP2023039504A
JP2023039504A JP2021146640A JP2021146640A JP2023039504A JP 2023039504 A JP2023039504 A JP 2023039504A JP 2021146640 A JP2021146640 A JP 2021146640A JP 2021146640 A JP2021146640 A JP 2021146640A JP 2023039504 A JP2023039504 A JP 2023039504A
Authority
JP
Japan
Prior art keywords
statistical information
image
camera
visualization
past
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021146640A
Other languages
Japanese (ja)
Inventor
祐貴 千葉
Yuki Chiba
安紘 土田
Yasuhiro Tsuchida
寛典 半澤
Hironori Hanzawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AWL Inc
Original Assignee
AWL Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AWL Inc filed Critical AWL Inc
Priority to JP2021146640A priority Critical patent/JP2023039504A/en
Publication of JP2023039504A publication Critical patent/JP2023039504A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a parameter browsing system, a parameter adjustment system, a server, and a server control program that allow a user such as a system operation manager to easily input an appropriate condition setting parameter.SOLUTION: A parameter browsing system allows a user to detect past visualization statistical information similar to visualization statistical information based on an imaged image of a camera to be currently set (S15), and output to a PC display a screen including a condition setting parameter for imaged image analysis that is applied to a past imaged image that is a basis of the detected past visualization statistical information (S16). The system allows the user to refer to the condition setting parameter applied to the imaged image that is a basis of the past visualization statistical information, input the condition setting parameter for analyzing the current imaged image of the camera, and then easily input an appropriate condition setting parameter (e.g., human detection frame).SELECTED DRAWING: Figure 12

Description

本発明は、パラメータ閲覧システム、パラメータ調整システム、サーバ、及びサーバ制御プログラムに関する。 The present invention relates to a parameter browsing system, a parameter adjusting system, a server, and a server control program.

従来から、AIカメラ等のカメラで撮影したフレーム画像に対して、学習済ニューラルネットワークモデルを用いて物体検出等の分析処理を行うようにした装置やシステムが知られている(例えば、特許文献1参照)。 Conventionally, there are known devices and systems that perform analysis processing such as object detection on frame images captured by a camera such as an AI camera using a trained neural network model (for example, Patent Document 1 reference).

特許第6573297号公報Japanese Patent No. 6573297

上記のような従来のカメラで撮影したフレーム画像に対する物体検出等の分析処理を行う装置やシステムでは、設定対象のカメラについての物体検出枠等の条件設定が難しい。例えば、設定対象のカメラの画角内に入店者等の検知枠を設定する場合には、コンピュータに理解できるような形で入力しようとすると、設定対象のカメラの画角内に、検知枠の4つの頂点の数値座標情報を入力する必要があるが、各カメラにおける、画角、(画角内への)人の入り方、人や物の映り方は様々であるということもあり、システムの運営管理者等の人(ユーザ)が、上記の検知枠の数値座標情報のような条件設定パラメータを適切に入力することは難しい。 It is difficult to set conditions such as an object detection frame for a camera to be set in an apparatus or system that performs analysis processing such as object detection on a frame image captured by a conventional camera as described above. For example, when setting the detection frame for people entering the store within the angle of view of the camera to be set, if you try to input it in a form that the computer can understand, the detection frame will be inside the angle of view of the camera to be set. It is necessary to enter the numerical coordinate information of the four vertices of , but the angle of view, the way people enter (into the angle of view), and the way people and objects are captured vary for each camera. It is difficult for a person (user) such as an administrator of the system to appropriately input condition setting parameters such as the numerical coordinate information of the detection frame.

また、仮に、上記の検知枠の数値座標情報のような条件設定パラメータを適切に入力することができたとしても、上記のパラメータの入力による条件設定がどの程度正しい(適切なものである)のかを確認するためには、上記の条件設定パラメータを用いた撮影画像(フレーム画像)の分析結果と、実際の映像とを、システムの運営管理者等のユーザが見比べて検査する必要があるため、条件設定の正確さの確認作業に非常に工数がかかるという問題があった。 Also, even if it is possible to appropriately input the condition setting parameters such as the numerical coordinate information of the detection frame, how correct (appropriate) is the condition setting by inputting the above parameters? In order to confirm this, it is necessary for a user such as a system administrator to compare and inspect the analysis result of the captured image (frame image) using the above condition setting parameters and the actual image. There was a problem that it took a lot of man-hours to confirm the accuracy of the condition setting.

本発明は、上記課題を解決するものであり、システムの運営管理者等のユーザが、容易に、適切な条件設定パラメータを入力することが可能なパラメータ閲覧システム、パラメータ調整システム、サーバ、及びサーバ制御プログラムを提供することを目的とする。また、条件設定パラメータの入力による条件設定の正確さを、ユーザが容易に確認することが可能なパラメータ調整システムを提供することを目的とする。 The present invention is intended to solve the above problems, and a parameter viewing system, a parameter adjustment system, a server, and a server that enable a user such as a system administrator to easily input appropriate condition setting parameters. The purpose is to provide a control program. Another object of the present invention is to provide a parameter adjustment system that allows a user to easily check the accuracy of condition setting by inputting condition setting parameters.

上記課題を解決するために、本発明の第1の態様によるパラメータ閲覧システムは、表示手段と、エッジ側のカメラの撮影画像と、エッジ側の画像分析装置が前記撮影画像に含まれるフレーム画像に対する認識処理をした結果とを重畳した重畳映像を統計処理して、可視化統計情報を生成する可視化統計情報生成手段と、前記可視化統計情報生成手段により生成した可視化統計情報を蓄積する統計情報蓄積手段と、前記統計情報蓄積手段に蓄積された過去の可視化統計情報の中から、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に類似した、過去の可視化統計情報を検出する検出手段と、前記検出手段により検出した過去の可視化統計情報の元になった過去の撮影画像に適用された、撮影画像分析用の条件設定パラメータを含む画面を、前記表示手段に出力するパラメータ出力手段とを備える。 In order to solve the above-mentioned problems, the parameter browsing system according to the first aspect of the present invention includes display means, an image captured by an edge-side camera, and an edge-side image analysis device for a frame image included in the captured image. Visualization statistical information generation means for statistically processing a superimposed video superimposed with a result of recognition processing to generate visualization statistical information; and statistical information storage means for storing the visualization statistical information generated by the visualization statistical information generation means. , a detecting means for detecting past visualization statistical information similar to the visualization statistical information based on the image captured by the camera to be set this time, from the past visualization statistical information accumulated in the statistical information accumulation means; parameter output means for outputting, to the display means, a screen including condition setting parameters for analysis of the captured image applied to the past captured image based on the past visualization statistical information detected by the detection means; .

このパラメータ閲覧システムにおいて、前記検出手段は、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報から求めた、人の移動方向に対応するベクトルと、前記統計情報蓄積手段に蓄積された過去の可視化統計情報から求めた、人の移動方向に対応するベクトルとを比較して、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に類似した過去の可視化統計情報を検出するようにしてもよい。 In this parameter viewing system, the detection means includes a vector corresponding to the movement direction of the person obtained from the visualization statistical information based on the captured image of the camera to be set this time, and the past accumulated in the statistical information accumulation means. By comparing the vector corresponding to the moving direction of the person obtained from the visualization statistical information of , and detecting the past visualization statistical information similar to the visualization statistical information based on the image captured by the camera targeted for this setting. may

このパラメータ閲覧システムにおいて、前記検出手段は、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報と、前記統計情報蓄積手段に蓄積された過去の複数の可視化統計情報とを、前記表示手段上に表示するように制御する表示制御手段を含み、前記パラメータ閲覧システムは、前記表示手段上に表示された過去の複数の可視化統計情報の中から、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に最も類似した過去の可視化統計情報を選択するための選択入力手段をさらに備えるようにしてもよい。 In this parameter browsing system, the detection means displays the visualization statistical information based on the captured image of the camera to be set this time and the plurality of past visualization statistical information accumulated in the statistical information accumulation means to the display means. The parameter viewing system includes a display control means for controlling to display the above, and the parameter viewing system selects the image captured by the camera to be set this time from among the plurality of past visualization statistical information displayed on the display means. A selection input means for selecting the past visualization statistical information most similar to the based visualization statistical information may be further provided.

本発明の第2の態様によるパラメータ調整システムは、表示手段と、今回の設定対象となるカメラの撮影画像を受信する受信手段と、今回の設定対象となるカメラの現在の撮影画像分析用の条件設定パラメータを、前記今回の設定対象となるカメラの撮影画像を含む画像、又は前記今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に重畳させて、前記表示手段に表示するように制御するパラメータ表示制御手段と、前記表示手段に表示された前記条件設定パラメータの調整入力を行うための調整入力手段とを備える。 A parameter adjustment system according to a second aspect of the present invention comprises display means, reception means for receiving an image captured by a camera to be set this time, and conditions for analyzing the current captured image of the camera to be set this time. The setting parameters are superimposed on the image including the image captured by the camera to be set this time, or the visualization statistical information based on the image captured by the camera to be set this time, and displayed on the display means. and adjustment input means for adjusting and inputting the condition setting parameters displayed on the display means.

このパラメータ調整システムにおいて、前記調整入力手段による調整後の前記条件設定パラメータを用いて、前記受信手段により受信した、前記今回の設定対象となるカメラの撮影画像に対する分析をし直す再分析手段と、前記再分析手段による分析結果を前記表示手段に表示するように制御する再分析結果表示制御手段とをさらに備えることが望ましい。 In this parameter adjustment system, re-analyzing means for re-analyzing the photographed image of the camera to be set this time, received by the receiving means, using the condition setting parameters after adjustment by the adjustment input means; It is desirable to further include re-analysis result display control means for controlling to display the analysis result by the re-analysis means on the display means.

本発明の第3の態様によるサーバは、エッジ側のカメラの撮影画像と、エッジ側の画像分析装置が前記撮影画像に含まれるフレーム画像に対する認識処理をした結果とを重畳した重畳映像を統計処理して、可視化統計情報を生成する可視化統計情報生成手段と、前記可視化統計情報生成手段により生成した可視化統計情報を蓄積する統計情報蓄積手段と、前記統計情報蓄積手段に蓄積された過去の可視化統計情報の中から、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に類似した、過去の可視化統計情報を検出する検出手段と、前記検出手段により検出した過去の可視化統計情報の元になった過去の撮影画像に適用された、撮影画像分析用の条件設定パラメータを含む画面を、表示手段に出力するパラメータ出力手段とを備える。 A server according to a third aspect of the present invention statistically processes a superimposed video obtained by superimposing an image captured by an edge-side camera and a recognition process performed by an edge-side image analysis device on a frame image included in the captured image. Visualization statistical information generation means for generating visualization statistical information, statistical information accumulation means for accumulating visualization statistical information generated by the visualization statistical information generation means, and past visualization statistics accumulated in the statistical information accumulation means From information, a detection means for detecting past visualization statistical information similar to the visualization statistical information based on the image taken by the camera to be set this time, and based on the past visualization statistical information detected by the detection means and parameter output means for outputting to the display means a screen including condition setting parameters for photographed image analysis applied to the past photographed image.

このサーバにおいて、前記検出手段は、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報から求めた、人の移動方向に対応するベクトルと、前記統計情報蓄積手段に蓄積された過去の可視化統計情報から求めた、人の移動方向に対応するベクトルとを比較して、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に類似した過去の可視化統計情報を検出するようにしてもよい。 In this server, the detection means includes a vector corresponding to the moving direction of the person obtained from the visualization statistical information based on the image captured by the camera to be set this time, and the past visualization accumulated in the statistical information accumulation means. By comparing the vector corresponding to the moving direction of the person obtained from the statistical information, it is possible to detect past visualization statistical information similar to the visualization statistical information based on the image captured by the camera to be set this time. good.

本発明の第4の態様によるサーバ制御プログラムは、今回の設定対象となるカメラの撮影画像に適した撮影画像分析用の条件設定パラメータを見つけるための処理を行うように、サーバを制御するサーバ制御プログラムであって、前記サーバを、エッジ側のカメラの撮影画像と、エッジ側の画像分析装置が前記撮影画像に含まれるフレーム画像に対する認識処理をした結果とを重畳した重畳映像を統計処理して、可視化統計情報を生成する可視化統計情報生成手段と、前記可視化統計情報生成手段により生成した可視化統計情報を蓄積する統計情報蓄積手段と、前記統計情報蓄積手段に蓄積された過去の可視化統計情報の中から、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に類似した、過去の可視化統計情報を検出する検出手段と、前記検出手段により検出した過去の可視化統計情報の元になった過去の撮影画像に適用された、撮影画像分析用の条件設定パラメータを含む画面を、表示手段に出力するパラメータ出力手段として機能させる。 A server control program according to a fourth aspect of the present invention controls the server so as to perform processing for finding condition setting parameters for photographed image analysis suitable for the photographed image of the camera to be set this time. A program that causes the server to statistically process superimposed video obtained by superimposing an image captured by an edge-side camera and a result of recognition processing of a frame image included in the captured image by an image analysis device on the edge side. , visualization statistical information generation means for generating visualization statistical information, statistical information accumulation means for accumulating visualization statistical information generated by the visualization statistical information generation means, and past visualization statistical information accumulated in the statistical information accumulation means Among them, a detection means for detecting past visualization statistical information similar to the visualization statistical information based on the image captured by the camera to be set this time, and the past visualization statistical information detected by the detection means. It functions as parameter output means for outputting to the display means a screen including condition setting parameters for photographed image analysis applied to past photographed images.

このサーバ制御プログラムにおいて、前記検出手段は、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報から求めた、人の移動方向に対応するベクトルと、前記統計情報蓄積手段に蓄積された過去の可視化統計情報から求めた、人の移動方向に対応するベクトルとを比較して、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に類似した過去の可視化統計情報を検出するようにしてもよい。 In this server control program, the detection means obtains a vector corresponding to the moving direction of a person from the visualization statistical information based on the captured image of the camera to be set this time, and the past accumulated in the statistical information accumulation means. By comparing the vector corresponding to the moving direction of the person obtained from the visualization statistical information of , and detecting the past visualization statistical information similar to the visualization statistical information based on the image captured by the camera targeted for this setting. may

本発明の第1の態様によるパラメータ閲覧システム、第3の態様によるサーバ、及び第4の態様によるサーバ制御プログラムによれば、今回の設定対象となるカメラ(以下、「今回のカメラ」と略す)の撮影画像に基づく可視化統計情報に類似した、過去の可視化統計情報を検出し、検出した過去の可視化統計情報の元になった過去の撮影画像に適用された、撮影画像分析用の条件設定パラメータを含む画面を、表示手段に出力して、システムの運営管理者等のユーザが閲覧することができるようにした。ここで、今回のカメラの撮影画像に基づく可視化統計情報に類似した、過去の可視化統計情報は、今回のカメラの撮影画像と同様な人の移動範囲の撮影画像(におけるフレーム画像)に対して、今回のカメラの撮影画像に対して行った認識処理と同様な認識処理をした結果を用いた可視化統計情報である可能性が高い。このため、ユーザが、上記の閲覧した(今回のカメラの撮影画像に基づく可視化統計情報に類似した、)過去の可視化統計情報の元になった撮影画像に適用された条件設定パラメータを参照して、今回のカメラの撮影画像分析用の条件設定パラメータを入力することにより、システムの運営管理者等のユーザが、容易に、適切な条件設定パラメータ(例えば、人の検知枠)を入力することができる。 According to the parameter browsing system according to the first aspect, the server according to the third aspect, and the server control program according to the fourth aspect of the present invention, the camera to be set this time (hereinafter abbreviated as "current camera") Detected past visualization statistics similar to the image-based visualization statistics of and applied to the past image captures from which the detected past visualization statistics were based. is output to the display means so that a user such as a system administrator can view it. Here, the past visualization statistical information similar to the visualization statistical information based on the image captured by the current camera is obtained by: There is a high possibility that this is the visualization statistical information using the result of recognition processing similar to the recognition processing performed on the image captured by the camera this time. For this reason, the user refers to the condition setting parameters applied to the captured image that was the basis of the past visualization statistical information (similar to the visualization statistical information based on the captured image of the camera this time) viewed above. By inputting the condition setting parameters for analyzing the captured image of the camera, the user such as the system administrator can easily input the appropriate condition setting parameters (for example, the human detection frame). can.

また、本発明の第2の態様によるパラメータ調整システムによれば、今回のカメラの現在の撮影画像分析用の条件設定パラメータを、今回のカメラの撮影画像を含む画像、又は今回のカメラの撮影画像に基づく可視化統計情報に重畳させて、表示手段に表示し、システムの運営管理者等のユーザが、表示された条件設定パラメータの調整入力を行うことができるようにした。これにより、ユーザが、今回のカメラの撮影画像を含む画像、又は今回のカメラの撮影画像に基づく可視化統計情報に重畳された、現在の条件設定パラメータを見ながら、条件設定パラメータの調整入力を行うことができるので、今回のカメラについて、適切な条件設定パラメータを、容易に入力することができる。 Further, according to the parameter adjustment system according to the second aspect of the present invention, the condition setting parameters for analysis of the current captured image of the current camera are set to an image including the current captured image of the camera, or the current captured image of the camera. is superimposed on the visualization statistical information and displayed on the display means, and a user such as a system administrator can perform adjustment input of the displayed condition setting parameters. This allows the user to adjust and input the condition setting parameters while viewing the current condition setting parameters superimposed on the image including the image captured by the current camera or the visualization statistical information based on the image captured by the current camera. Therefore, it is possible to easily input appropriate condition setting parameters for the current camera.

本発明の一実施形態の画像分析システムの概略の構成を示すブロック構成図。1 is a block configuration diagram showing a schematic configuration of an image analysis system according to one embodiment of the present invention; FIG. 図1中のサイネージの概略のハードウェア構成を示すブロック図。FIG. 2 is a block diagram showing a schematic hardware configuration of the signage in FIG. 1; 図1中の分析ボックスの概略のハードウェア構成を示すブロック図。FIG. 2 is a block diagram showing a schematic hardware configuration of an analysis box in FIG. 1; 図1中の管理サーバの概略のハードウェア構成を示すブロック図。FIG. 2 is a block diagram showing a schematic hardware configuration of a management server in FIG. 1; 同管理サーバとパソコンの機能ブロック構成図。FIG. 2 is a functional block configuration diagram of the same management server and a personal computer; 上記画像分析システムにおける分析結果重畳映像の生成と表示の流れを示すブロック図。FIG. 4 is a block diagram showing the flow of generation and display of analysis result superimposed video in the image analysis system; 上記画像分析システムにおける画像分析結果の統計処理と、映像と重畳された検知条件の閲覧・編集の流れを示すブロック図。FIG. 4 is a block diagram showing the flow of statistical processing of image analysis results in the image analysis system and viewing/editing of detection conditions superimposed on video. 上記画像分析システムにおける現状カウント状況確認画面を示す図。The figure which shows the present count status confirmation screen in the said image analysis system. 上記画像分析システムにおける検知領域(検知枠)設定のシミュレーション処理のフローチャート。4 is a flowchart of simulation processing for setting a detection area (detection frame) in the image analysis system; 上記シミュレーション処理に用いられる来店者カウント領域設定シミュレーション画面を示す図。FIG. 10 is a diagram showing a visitor count area setting simulation screen used in the simulation process; 上記画像分析システムにおける来店者カウント精度ランキング表示画面を示す図。The figure which shows the visitor count accuracy ranking display screen in the said image analysis system. 過去の可視化統計情報の中から、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に類似した可視化統計情報を検索する処理のフローチャート。10 is a flowchart of processing for searching past visualization statistical information for visualization statistical information similar to the visualization statistical information based on the captured image of the camera to be set this time; 上記画像分析システムにおける類似可視化統計情報検索画面を示す図。The figure which shows the similar visualization statistical information search screen in the said image analysis system. 上記画像分析システムにおける類似可視化統計情報検索結果表示画面を示す図。The figure which shows the similar visualization statistical information search result display screen in the said image analysis system. 上記画像分析システムにおける類似パターン画像設定表示画面を示す図。The figure which shows the similar pattern image setting display screen in the said image analysis system. 上記画像分析システムにおける類似可視化統計情報選択画面を示す図。The figure which shows the similar visualization statistical information selection screen in the said image analysis system.

以下、本発明を具体化した実施形態によるパラメータ閲覧システム、パラメータ調整システム、サーバ、及びサーバ制御プログラムについて、図面を参照して説明する。図1は、本実施形態による画像分析システム10(請求項における「パラメータ閲覧システム」、及び「パラメータ調整システム」に相当)の概略の構成を示すブロック構成図である。本実施形態では、所定の撮影エリアを撮影する監視用のネットワークカメラである複数の固定カメラ(監視カメラ)2と、固定カメラ2からの映像の分析を行う分析ボックス3と、内蔵カメラ4(又はWebカメラ)を備えた、ディジタルサイネージ用のタブレット端末である複数のサイネージ5が、チェーン店等の店舗S内に配される場合の例について説明する。図1に示すように、画像分析システム10は、店舗S内に配された、上記の複数の固定カメラ2と、分析ボックス3と、複数のサイネージ5と、WiFi AP(WiFi Access Point)6と、ハブ7と、ルータ8とに加えて、クラウドC上に配された管理サーバ1(請求項における「サーバ」に相当)と、システムの運営管理者等のユーザが使用するパソコン(パーソナル・コンピューター)9とを備えている。なお、サイネージ5側のカメラは、サイネージ5の筐体内に配設された内蔵カメラ4である場合と、サイネージ5に取り付けられたWebカメラの場合があるが、以下の説明では、サイネージ5側のカメラが、内蔵カメラ4である場合の例を中心に説明する。 Hereinafter, a parameter viewing system, a parameter adjusting system, a server, and a server control program according to embodiments embodying the present invention will be described with reference to the drawings. FIG. 1 is a block configuration diagram showing a schematic configuration of an image analysis system 10 (corresponding to "parameter viewing system" and "parameter adjustment system" in the claims) according to this embodiment. In this embodiment, a plurality of fixed cameras (surveillance cameras) 2, which are network cameras for monitoring that photograph a predetermined photographing area, an analysis box 3 that analyzes images from the fixed cameras 2, a built-in camera 4 (or An example in which a plurality of signages 5, which are digital signage tablet terminals equipped with web cameras, are arranged in a store S such as a chain store will be described. As shown in FIG. 1, the image analysis system 10 includes the plurality of fixed cameras 2, the analysis box 3, the plurality of signages 5, the WiFi AP (WiFi Access Point) 6 and , a hub 7, a router 8, a management server 1 (corresponding to a "server" in the claims) arranged on the cloud C, and a personal computer used by a user such as a system administrator. ) 9. Note that the camera on the signage 5 side may be the built-in camera 4 disposed within the housing of the signage 5 or may be a web camera attached to the signage 5 . An example in which the camera is the built-in camera 4 will be mainly described.

上記の固定カメラ2は、IPアドレスを持ち、ネットワークに直接接続することが可能である。図1に示すように、分析ボックス3は、LAN(Local Area Network)とハブ7とを介して、複数の固定カメラ2と接続され、これらの固定カメラ2の各々から入力された画像を分析する。具体的には、分析ボックス3は、固定カメラ2の各々から入力された画像に対する物体検出処理(顧客や、顧客の顔の検出処理)や、この物体検出処理で検出された物体の画像に対する物体認識処理(顧客の属性(性別及び年齢(年代))推定等の認識処理)等を行う。 The above fixed camera 2 has an IP address and can be directly connected to the network. As shown in FIG. 1, the analysis box 3 is connected to a plurality of fixed cameras 2 via a LAN (Local Area Network) and a hub 7, and analyzes images input from each of these fixed cameras 2. . Specifically, the analysis box 3 performs object detection processing (customer and customer face detection processing) for images input from each of the fixed cameras 2, and object detection processing for the image of the object detected by this object detection processing. Recognition processing (recognition processing such as customer attribute (gender and age (age)) estimation) is performed.

サイネージ5は、主に店舗S内の商品棚に設置されて、そのタッチパネルディスプレイ14(図2参照)上に、店舗Sに来店した顧客に対する広告等のコンテンツを表示すると共に、その内蔵カメラ4からのフレーム画像に対する物体検出処理(顧客や、顧客の顔の検出処理)や、この物体検出処理で検出された物体の画像に対する物体認識処理等を行う。 The signage 5 is mainly installed on the product shelf in the store S, and displays contents such as advertisements for customers visiting the store S on the touch panel display 14 (see FIG. 2), and also displays the content from the built-in camera 4. object detection processing (customer or customer's face detection processing) for the frame image of the above, object recognition processing for the image of the object detected by this object detection processing, and the like.

上記の管理サーバ1は、店舗Sを含む店舗の管理部門(本社等)に設置されて、各店舗に配された多数の固定カメラ2、分析ボックス3、及びサイネージ5の管理を行う。具体的には、管理サーバ1は、各店舗の分析ボックス3やサイネージ5へのアプリパッケージのインストールや、分析ボックス3に接続された固定カメラ2の起動及び停止等の制御を行う。また、管理サーバ1は、エッジ側の画像分析装置(分析ボックス3又はサイネージ5)から、固定カメラ2又は内蔵カメラ4の撮影画像と、この撮影画像に対する認識処理の結果を含む分析結果とを受信して、受信した撮影画像と上記の分析結果とを用いて、今回の設定対象となるカメラ(固定カメラ2又は内蔵カメラ4)の撮影画像に適した撮影画像分析用の条件設定パラメータを見つけるための処理を行う。図1に示すように、管理サーバ1には、画像分析システム10の運営管理者等のユーザが使用するパソコン9が接続されており、ユーザは、パソコン9を用いて、管理サーバ1(のポータル)にアクセスして、今回の設定対象となるカメラ(固定カメラ2又は内蔵カメラ4)に適した撮影画像分析用の条件設定パラメータを見つけるための処理(過去の条件設定パラメータの閲覧等)を行うことができる。 The above-described management server 1 is installed in a management department (headquarters, etc.) of stores including the store S, and manages a large number of fixed cameras 2, analysis boxes 3, and signage 5 arranged in each store. Specifically, the management server 1 performs control such as installation of application packages to the analysis box 3 and signage 5 of each store, starting and stopping of the fixed camera 2 connected to the analysis box 3, and the like. Also, the management server 1 receives an image captured by the fixed camera 2 or the built-in camera 4 and analysis results including recognition processing results for the captured image from the image analysis device (analysis box 3 or signage 5) on the edge side. Then, using the received captured image and the above analysis result, to find condition setting parameters for captured image analysis suitable for the captured image of the camera (fixed camera 2 or built-in camera 4) to be set this time. process. As shown in FIG. 1, a personal computer 9 used by a user such as an administrator of the image analysis system 10 is connected to the management server 1. The user uses the personal computer 9 to access the management server 1 (portal ) to find the condition setting parameters for captured image analysis suitable for the camera (fixed camera 2 or built-in camera 4) to be set this time (browsing past condition setting parameters, etc.). be able to.

次に、図2を参照して、上記のタブレットタイプのサイネージ5のハードウェア構成について説明する。サイネージ5は、上記の内蔵カメラ4に加えて、SoC(System-on-a-Chip)11と、タッチパネルディスプレイ14と、スピーカ15と、アプリパッケージを含む各種のプログラムや、条件設定パラメータを含む各種のデータを記憶するメモリ16と、通信部17と、二次電池18と、充電端子19と、内蔵カメラ4の撮影画像や、後述する分析(結果)重畳映像(図6等参照)を格納するSDメモリカード等のストレージ20とを備えている。SoC11は、装置全体の制御及び各種演算を行うCPU12と、各種の学習済DNN(Deep Neural Networks)モデルの推論処理等に用いられるGPU13とを備えている。GPU13は、図6及び図7に示すDNN計算チップ69に相当する。 Next, referring to FIG. 2, the hardware configuration of the tablet-type signage 5 will be described. In addition to the built-in camera 4, the signage 5 includes a SoC (System-on-a-Chip) 11, a touch panel display 14, a speaker 15, various programs including application packages, and various programs including condition setting parameters. , a communication unit 17, a secondary battery 18, a charging terminal 19, an image captured by the built-in camera 4, and an analysis (result) superimposed image (see FIG. 6, etc.), which will be described later. and a storage 20 such as an SD memory card. The SoC 11 includes a CPU 12 that controls the entire device and performs various calculations, and a GPU 13 that is used for inference processing of various learned DNN (Deep Neural Networks) models. The GPU 13 corresponds to the DNN calculation chip 69 shown in FIGS. 6 and 7. FIG.

上記のメモリ16に格納されるプログラムには、図6及び図7に示す学習済のDNNモデル70(各種の学習済推論モデル)が含まれている。通信部17は、通信ICとアンテナを備えている。サイネージ5は、通信部17とネットワークとを介して、クラウドC上の管理サーバ1と接続されている。また、二次電池18は、リチウムイオン電池等の、充電により繰り返し使用することが可能な電池であり、AC/DCコンバータにより直流電力に変換した後の商用電源からの電力を、蓄電して、サイネージ5の各部に供給する。 The programs stored in the memory 16 include learned DNN models 70 (various learned inference models) shown in FIGS. The communication unit 17 has a communication IC and an antenna. The signage 5 is connected to the management server 1 on the cloud C via the communication unit 17 and the network. The secondary battery 18 is a battery such as a lithium-ion battery that can be used repeatedly by charging. Supplied to each part of the signage 5 .

次に、図3を参照して、分析ボックス3のハードウェア構成について説明する。分析ボックス3は、装置全体の制御及び各種演算を行うCPU21と、各種のデータやプログラムを格納するハードディスク22と、RAM(Random Access Memory)23と、DNN(Deep Neural Networks)推論用プロセッサである推論チップ(以下、「チップ」と略す)24a~24hと、通信制御IC25とを備えている。CPU21は、一般的な汎用CPU、又は多数の映像ストリームを同時処理するため並列処理性能を高めるように設計されたCPUである。また、ハードディスク22に格納されるデータには、固定カメラ2の各々から入力された映像ストリーム(のデータ)をデコードした後の映像データと、図6等で後述する分析結果重畳映像のデータ、及び分析データ58(図7の映像メタデータ74と同じ)とが含まれる。また、ハードディスク22に格納されるプログラムには、人検出処理、顔検出処理、属性認識処理等の推論処理用の学習済DNNモデル(各種推論処理用学習済DNNモデル:図6及び図7のDNNモデル57に相当)と、分析ボックスOSプログラムと、VMS(Video Management System)プログラムと、映像分析プログラムと、分析重畳映像生成プログラムが含まれている。 Next, the hardware configuration of the analysis box 3 will be described with reference to FIG. The analysis box 3 includes a CPU 21 that controls the entire apparatus and performs various calculations, a hard disk 22 that stores various data and programs, a RAM (Random Access Memory) 23, and a DNN (Deep Neural Networks) inference processor. It has chips (hereinafter abbreviated as “chips”) 24 a to 24 h and a communication control IC 25 . The CPU 21 is a general general-purpose CPU or a CPU designed to enhance parallel processing performance in order to simultaneously process multiple video streams. The data stored in the hard disk 22 includes video data obtained by decoding (data of) video streams input from each of the fixed cameras 2, analysis result superimposed video data to be described later with reference to FIG. and analysis data 58 (same as video metadata 74 in FIG. 7). In addition, the programs stored in the hard disk 22 include trained DNN models for inference processing such as human detection processing, face detection processing, and attribute recognition processing (learned DNN models for various inference processing: the DNN shown in FIGS. 6 and 7). model 57), an analysis box OS program, a VMS (Video Management System) program, a video analysis program, and an analysis superimposed video generation program.

次に、図4を参照して、管理サーバ1のハードウェア構成について説明する。管理サーバ1は、装置全体の制御及び各種演算を行うCPU31と、各種のデータやプログラムを格納するハードディスク32(請求項における「統計情報蓄積手段」に相当)と、RAM(Random Access Memory)33と、ディスプレイ34と、操作部35と、通信部36(請求項における「受信手段」に相当)とを備えている。 Next, referring to FIG. 4, the hardware configuration of the management server 1 will be described. The management server 1 includes a CPU 31 that controls the entire apparatus and performs various calculations, a hard disk 32 that stores various data and programs (corresponding to "statistical information storage means" in the claims), and a RAM (Random Access Memory) 33. , a display 34, an operation unit 35, and a communication unit 36 (corresponding to "receiving means" in the claims).

上記のハードディスク32に格納されるプログラムには、サーバ制御プログラム37と、ポータル(用のプログラム)38と、ダッシュボード39とが含まれ、ハードディスク32に格納されるデータには、統計データ40が含まれる。サーバ制御プログラム37は、管理サーバ1の制御用のプログラムである。このサーバ制御プログラム37は、今回の設定対象となるカメラ(以下、「今回のカメラ」と略す場合がある)の撮影画像に適した撮影画像分析用の条件設定パラメータを見つけるための処理(蓄積された過去の条件設定パラメータの閲覧等)や、今回のカメラの条件設定パラメータの調整(編集)を行うための処理を行う。ポータル38は、いわゆる企業ポータル(企業内に散らばっている様々な情報やアプリケーション等を効率的に探したり、利用するために、コンピュータの画面上にこれらの情報やアプリケーション等を集約表示するためのソフトウェア)の一種である。このポータル38を用いて行うことができる処理については、図6及び図7の説明で述べる。ダッシュボード39は、顧客の属性と滞在時間、顧客行動の追跡結果等の統計情報を集計して可視化するためのソフトウェアである。ダッシュボード39は、パソコン9を用いたユーザからの要求に基づき、来店者、通行者、立ち止まり者等のカウント数を、統計データ40から抽出して、パソコン9のディスプレイ50b(図5参照)に表示する処理に用いられる。 The programs stored in the hard disk 32 include a server control program 37, a portal (program for) 38, and a dashboard 39, and the data stored in the hard disk 32 include statistical data 40. be The server control program 37 is a program for controlling the management server 1 . This server control program 37 performs processing (accumulated parameters) for finding condition setting parameters for photographed image analysis suitable for the photographed image of the camera to be set this time (hereinafter sometimes abbreviated as "current camera"). viewing of the condition setting parameters in the past) and adjustment (editing) of the condition setting parameters of the current camera. The portal 38 is a so-called corporate portal (software for collectively displaying various information, applications, etc. scattered within a company on a computer screen in order to efficiently search for and use them). ) is a kind of The processing that can be performed using this portal 38 is described in the discussion of FIGS. 6 and 7. FIG. The dashboard 39 is software for aggregating and visualizing statistical information such as customer attributes, length of stay, tracking results of customer behavior, and the like. The dashboard 39 extracts the counts of visitors, passers-by, stopers, etc. from the statistical data 40 based on requests from the user using the personal computer 9, and displays them on the display 50b of the personal computer 9 (see FIG. 5). Used for display processing.

図5は、上記の管理サーバ1とパソコン9の機能ブロックを示す。管理サーバ1のCPU31は、機能ブロックとして、可視化統計情報生成部41と、検出部42と、パラメータ出力部43と、パラメータ表示制御部45と、再分析部46と、再分析結果表示制御部47とを備えている。また、上記の検出部42は、表示制御部44を含んでいる。上記の可視化統計情報生成部41と、検出部42と、パラメータ出力部43と、表示制御部44と、パラメータ表示制御部45と、再分析部46と、再分析結果表示制御部47とは、それぞれ、請求項における可視化統計情報生成手段と、検出手段と、パラメータ出力手段と、表示制御手段と、パラメータ表示制御手段と、再分析手段と、再分析結果表示制御手段とに相当する。また、パソコン9は、操作部50a(請求項における「調整入力手段」及び「選択入力手段」に相当)と、ディスプレイ50b(請求項における「表示手段」に相当)とを備えている。 FIG. 5 shows functional blocks of the management server 1 and the personal computer 9 described above. The CPU 31 of the management server 1 includes, as functional blocks, a visualization statistical information generation unit 41, a detection unit 42, a parameter output unit 43, a parameter display control unit 45, a reanalysis unit 46, and a reanalysis result display control unit 47. and Further, the detection unit 42 described above includes a display control unit 44 . The above visualization statistical information generation unit 41, the detection unit 42, the parameter output unit 43, the display control unit 44, the parameter display control unit 45, the reanalysis unit 46, and the reanalysis result display control unit 47, They respectively correspond to visualized statistical information generation means, detection means, parameter output means, display control means, parameter display control means, re-analysis means, and re-analysis result display control means in the claims. The personal computer 9 also includes an operation unit 50a (corresponding to "adjustment input means" and "selection input means" in the claims) and a display 50b (corresponding to "display means" in the claims).

上記の可視化統計情報生成部41は、エッジ側のカメラ(固定カメラ2又は内蔵カメラ4)の撮影画像と、エッジ側の画像分析装置(分析ボックス3又はサイネージ5)が上記の撮影画像に含まれるフレーム画像に対する認識処理をした結果とを重畳した重畳映像を統計処理して、可視化統計情報を生成する。この可視化統計情報とは、所定の時間分の撮影画像に含まれる各フレーム画像と、これらの各フレーム画像に対する認識処理の結果とを重畳した各重畳画像から構成される重畳映像に対して、何らかの統計処理をした結果の画像である。例えば、図13に示す顔検出集計画像89(可視化統計情報の一種)は、あるカメラの1時間分の撮影画像に含まれる各フレーム画像と、これらの各フレーム画像に対する顔検出結果とを重畳した各重畳画像に基づいて作成したヒートマップである。この例では、該当のカメラの1時間分の撮影画像における顔検出頻度の高い部分が、濃い色(実際の画像では、濃い赤等)で示されている。 The above-mentioned visualization statistical information generation unit 41 includes the captured image of the edge-side camera (fixed camera 2 or built-in camera 4) and the edge-side image analysis device (analysis box 3 or signage 5) in the captured image. Statistical processing is performed on the superimposed video obtained by superimposing the result of recognition processing on the frame image, and visualization statistical information is generated. This visualization statistical information refers to a superimposed video composed of each superimposed image obtained by superimposing each frame image included in the captured images for a predetermined time and the result of recognition processing for each of these frame images. It is the image of the result of statistical processing. For example, the face detection summary image 89 (a type of visualization statistical information) shown in FIG. 13 is obtained by superimposing each frame image included in the images captured by a certain camera for one hour and the face detection result for each frame image. It is a heat map created based on each superimposed image. In this example, a portion with a high face detection frequency in the images captured by the corresponding camera for one hour is shown in a dark color (dark red, etc. in the actual image).

上記の可視化統計情報生成部41により生成された可視化統計情報48を含む統計データ40は、ハードディスク32に蓄積される。上記の統計データ40には、エッジ側の各カメラ(固定カメラ2又は内蔵カメラ4)の条件設定パラメータ49(検知枠等)が含まれている。 The statistical data 40 including the visualized statistical information 48 generated by the visualized statistical information generator 41 is stored in the hard disk 32 . The above statistical data 40 includes condition setting parameters 49 (detection frames, etc.) for each edge-side camera (fixed camera 2 or built-in camera 4).

図5中の検出部42は、ハードディスク32に蓄積された過去の可視化統計情報の中から、今回の設定対象となるカメラ(固定カメラ2又は内蔵カメラ4)の撮影画像に基づく可視化統計情報に類似した、過去の可視化統計情報を検出する。また、パラメータ出力部43は、検出部42により検出した過去の可視化統計情報の元になった過去の撮影画像に適用された、撮影画像分析用の条件設定パラメータ(検知枠等)を含む画面を、パソコン9のディスプレイ50bに出力する。表示制御部44は、パソコン9のユーザの指示操作に基づいて、図16に示すように、今回の(設定対象となる)カメラの撮影画像に基づく可視化統計情報(図16の例の場合は、顔検出集計画像)と、ハードディスク32に蓄積された過去の複数の可視化統計情報とを、パソコン9のディスプレイ50bに表示するように制御する。 The detection unit 42 in FIG. 5 selects from the past visualization statistical information accumulated in the hard disk 32, similar to the visualization statistical information based on the captured image of the camera (fixed camera 2 or built-in camera 4) to be set this time. Detect past visualization statistics that have In addition, the parameter output unit 43 displays a screen including condition setting parameters (detection frame, etc.) for captured image analysis applied to the past captured image that is the basis of the past visualization statistical information detected by the detection unit 42. , to the display 50b of the personal computer 9. Based on the instruction operation of the user of the personal computer 9, the display control unit 44, as shown in FIG. face detection total image) and a plurality of past visualized statistical information accumulated in the hard disk 32 are controlled to be displayed on the display 50b of the personal computer 9. FIG.

上記のパラメータ表示制御部45は、今回の設定対象となるカメラの現在の撮影画像分析用の条件設定パラメータ49(検知枠等)を、ハードディスク32から読み込んで、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に重畳させて、パソコン9のディスプレイ50bに表示するように制御する。図10に示す例では、パラメータ表示制御部45は、今回の設定対象となるカメラの現在の撮影画像分析用の条件設定パラメータ(検知枠)を、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報(移動軌跡)に重畳させて、パソコン9のディスプレイ50bに表示している。 The parameter display control unit 45 reads from the hard disk 32 the condition setting parameters 49 (detection frame, etc.) for analyzing the current photographed image of the camera to be set this time, and performs the shooting of the camera to be set this time. It is superimposed on the visualization statistical information based on the image and controlled to be displayed on the display 50b of the personal computer 9. FIG. In the example shown in FIG. 10, the parameter display control unit 45 sets the condition setting parameter (detection frame) for analysis of the current photographed image of the camera to be set this time based on the photographed image of the camera to be set this time. It is displayed on the display 50b of the personal computer 9 superimposed on the visualized statistical information (movement trajectory).

上記の再分析部46は、ユーザがパソコン9の操作部50aを用いて、上記のディスプレイ50bに表示された条件設定パラメータの調整入力を行うと、調整(入力)後の条件設定パラメータを用いて、上記の(通信部36により受信した、)今回の設定対象となるカメラの撮影画像に対する分析をし直す。また、再分析結果表示制御部47は、再分析部46による分析結果を、ユーザが使用するパソコン9のディスプレイ50bに表示するように制御する。 When the user performs adjustment input of the condition setting parameters displayed on the display 50b using the operation unit 50a of the personal computer 9, the reanalysis unit 46 uses the condition setting parameters after adjustment (input). , the image captured by the camera to be set this time (received by the communication unit 36) is analyzed again. Further, the reanalysis result display control unit 47 controls to display the analysis result by the reanalysis unit 46 on the display 50b of the personal computer 9 used by the user.

次に、図6を参照して、この画像分析システム10において行われる分析結果重畳映像の生成と表示の流れについて、説明する。まず、分析ボックス3側の分析結果重畳映像生成処理について、説明する。分析ボックス3のCPU21は、図6のVMS51を用いて、固定カメラ2から入力される映像ストリームをデコードして、デコード後の映像(データ)を、(個人情報を含む)収集データ52としてハードディスク22に格納する。次に、分析ボックス3のCPU21は、映像分析プログラム53を用いて、(個人情報を含む)収集データ52を、(個人情報を含む)フレーム画像55に分割して、メインメモリ54(図3中のRAM23に相当)に出力する。そして、分析ボックス3のCPU21は、映像分析プログラム53を用いて、上記のフレーム画像55の各々を各種画像認識用の(学習済の)DNNモデル57に入力し、DNNモデル57により、各フレーム画像55に対する画像認識処理(人検出、属性分析等の処理)を行って、上記の認識処理の結果を含む分析データ58を出力する。上記のDNNモデル57による画像認識処理には、DNN計算チップ56(図3の(推論)チップ24a~24hに相当)が、用いられる。また、上記のフレーム画像55は、DNNモデル57に入力された後、直ぐに、メインメモリ54から消去される。なお、図6中に破線で示すように、映像分析プログラム53は、上記のDNNモデル57を含んでいる。 Next, with reference to FIG. 6, the flow of generation and display of analysis result superimposed video performed in this image analysis system 10 will be described. First, the analysis result superimposed video generation processing on the analysis box 3 side will be described. The CPU 21 of the analysis box 3 decodes the video stream input from the fixed camera 2 using the VMS 51 of FIG. store in Next, the CPU 21 of the analysis box 3 uses the video analysis program 53 to divide the collected data 52 (including personal information) into frame images 55 (including personal information) and store them in the main memory 54 (in FIG. 3). (equivalent to RAM 23). Then, the CPU 21 of the analysis box 3 uses the video analysis program 53 to input each of the frame images 55 to the (learned) DNN model 57 for various image recognition, and the DNN model 57 converts each frame image into 55 is subjected to image recognition processing (human detection, attribute analysis processing, etc.), and analysis data 58 including the result of the above recognition processing is output. A DNN calculation chip 56 (corresponding to the (inference) chips 24a to 24h in FIG. 3) is used for image recognition processing by the DNN model 57 described above. Further, the frame image 55 is erased from the main memory 54 immediately after being input to the DNN model 57 . Note that the video analysis program 53 includes the DNN model 57 described above, as indicated by the dashed line in FIG.

上記の分析データ58は、どのカメラの、どの時間のフレーム画像における、どの位置に、どのような属性の人がいるかを示した示したテキストデータであり、個人情報を含まないデータである。この分析データ58には、上記の映像分析プログラム53が、上記のDNNモデル57による人検出結果と条件設定パラメータ59とを用いて行った、来店者や通行者のカウント結果が含まれる。 The above analysis data 58 is text data indicating at what position and with what attributes a person is present in a frame image of which camera and at what time, and does not contain personal information. The analysis data 58 includes the result of counting visitors and passers-by, which is performed by the video analysis program 53 using the human detection result by the DNN model 57 and the condition setting parameters 59 .

分析ボックス3のCPU21は、上記の映像分析プログラム53を用いた分析データ58の出力処理が終了すると、分析重畳映像生成プログラム60を用いて、分析結果重畳映像を生成する。具体的には、分析ボックス3のCPU21は、分析重畳映像生成プログラム60に従って、VMS51を用いて、ハードディスク22から、上記の(個人情報を含む)収集データ52を読み込んで、この収集データ52に、DNNモデル57による認識結果(人検出結果や、属性分析結果)を重ね合わせた映像である分析結果重畳映像を生成する。そして、分析ボックス3のCPU21は、分析重畳映像生成プログラム60に従い、VMS51を用いて、上記の分析結果重畳映像を、(個人情報を含む)収集データ52の一部として、ハードディスク22に格納する。従って、上記の収集データ52には、固定カメラ2から入力された映像ストリームをデコードした後の映像(データ)と、上記の分析結果重畳映像とが含まれる。上記の分析結果重畳映像の例としては、図8に示す分析結果重畳映像63が挙げられる。この分析結果重畳映像63は、収集データ52(入り口カメラの映像データ)に、DNNモデル57による人検出結果を重ね合わせた映像である。 After outputting the analysis data 58 using the video analysis program 53, the CPU 21 of the analysis box 3 uses the analysis superimposed video generation program 60 to generate an analysis result superimposed video. Specifically, the CPU 21 of the analysis box 3 reads the collected data 52 (including personal information) from the hard disk 22 using the VMS 51 in accordance with the analysis superimposed video generation program 60, and stores the collected data 52 as follows: An analysis result superimposed image is generated by superimposing the recognition results (human detection result and attribute analysis result) by the DNN model 57 . Then, the CPU 21 of the analysis box 3 uses the VMS 51 according to the analysis superimposed video generation program 60 to store the above analysis result superimposed video in the hard disk 22 as part of the collected data 52 (including personal information). Therefore, the collected data 52 includes the video (data) obtained by decoding the video stream input from the fixed camera 2 and the analysis result superimposed video. An example of the analysis result superimposed video is an analysis result superimposed video 63 shown in FIG. This analysis result superimposed video 63 is a video obtained by superimposing the human detection result by the DNN model 57 on the collected data 52 (video data of the entrance camera).

サイネージ5側の分析結果重畳映像生成処理は、基本的に、上記の分析ボックス3側の分析結果重畳映像生成処理と同様である。サイネージ5側の収集データ65、映像分析プログラム66、メインメモリ67、フレーム画像68、DNN計算チップ69、DNNモデル70、分析データ71、条件設定パラメータ73、及び分析重畳映像生成プログラム72は、それぞれ、分析ボックス3側の収集データ52、映像分析プログラム53、メインメモリ54、フレーム画像55、DNN計算チップ56、DNNモデル57、分析データ58、条件設定パラメータ59、及び分析重畳映像生成プログラム60に相当する。また、サイネージ5側のストレージ20は、分析ボックス3側のハードディスク22と同様な役割を果たす。なお、図6及び図7には記載していないが、サイネージ5も、分析ボックス3側のVMS51と同様な機能を有するプログラムを有している。 The analysis result superimposed video generation process on the signage 5 side is basically the same as the analysis result superimposed video generation process on the analysis box 3 side. The collected data 65 on the signage 5 side, the video analysis program 66, the main memory 67, the frame image 68, the DNN calculation chip 69, the DNN model 70, the analysis data 71, the condition setting parameters 73, and the analysis superimposed video generation program 72 are, respectively, Corresponds to collected data 52 on analysis box 3 side, video analysis program 53, main memory 54, frame image 55, DNN calculation chip 56, DNN model 57, analysis data 58, condition setting parameters 59, and analysis superimposed video generation program 60. . Also, the storage 20 on the signage 5 side plays the same role as the hard disk 22 on the analysis box 3 side. Although not shown in FIGS. 6 and 7, the signage 5 also has a program having the same functions as the VMS 51 on the analysis box 3 side.

次に、図6における管理サーバ1側とパソコン9側の処理について、説明する。管理サーバ1は、分析結果重畳映像表示プログラム61と、パラメータ調整プログラム62とを有している。これらのプログラムは、図4におけるサーバ制御プログラム37に含まれる。パソコン9側の運営管理者等のユーザ(図4に示すポータル38の利用者)が、パソコン9の操作部50aを用いて、管理サーバ1に対して、上記の分析結果重畳映像の表示を指示すると、管理サーバ1のCPU31は、上記の分析結果重畳映像表示プログラム61を用いて、分析ボックス3とアクセスして、VMS51を用いて、分析ボックス3のハードディスク22から、収集データ52に含まれる分析結果重畳映像を読み込か、又はサイネージ5とアクセスして、サイネージ5のストレージ20から、収集データ65に含まれる分析結果重畳映像を読み込む。そして、この分析結果重畳映像を含む画面(例えば、図8に示す現状カウント状況確認画面81)を、パソコン9のディスプレイ50bに出力(表示)する。これにより、運営管理者等のユーザは、カメラ(固定カメラ2又は内蔵カメラ4)から入力された映像データ(収集データ)に分析結果を重畳した映像(分析結果重畳映像)を見て、現在の分析状況を確認することができる。また、詳細については後述するが、運営管理者等のユーザが、パソコン9の操作部50aを用いて、管理サーバ1に対して、パラメータの調整入力操作を行うことにより、管理サーバ1のCPU31は、上記のパラメータ調整プログラム62を用いて、分析ボックス3側の条件設定パラメータ59、又はサイネージ5側の条件設定パラメータ73を書き換える。これにより、運営管理者等のユーザ(システム開発委託事業者及びシステム運営委託事業者の作業員を含む)が、分析改善のために、今回の設定対象となるカメラの条件設定パラメータ(条件設定パラメータ59、又は条件設定パラメータ73)の調整を、容易に行うことができる。 Next, processing on the management server 1 side and the personal computer 9 side in FIG. 6 will be described. The management server 1 has an analysis result superimposed video display program 61 and a parameter adjustment program 62 . These programs are included in the server control program 37 in FIG. A user such as an operation manager on the personal computer 9 side (a user of the portal 38 shown in FIG. 4) uses the operation unit 50a of the personal computer 9 to instruct the management server 1 to display the analysis result superimposed video. Then, the CPU 31 of the management server 1 uses the analysis result superimposed image display program 61 to access the analysis box 3, and uses the VMS 51 to read the analysis data contained in the collected data 52 from the hard disk 22 of the analysis box 3. The result superimposed video is read, or the signage 5 is accessed to read the analysis result superimposed video included in the collected data 65 from the storage 20 of the signage 5 . Then, a screen including this analysis result superimposed image (for example, the current count situation confirmation screen 81 shown in FIG. 8) is output (displayed) on the display 50b of the personal computer 9. FIG. As a result, a user such as an operation manager can view a video (analysis result superimposed video) superimposed on video data (collected data) input from a camera (fixed camera 2 or built-in camera 4), and see the current Analysis status can be checked. In addition, although the details will be described later, when a user such as an operation manager uses the operation unit 50a of the personal computer 9 to perform a parameter adjustment input operation on the management server 1, the CPU 31 of the management server 1 , the parameter adjustment program 62 is used to rewrite the condition setting parameters 59 on the analysis box 3 side or the condition setting parameters 73 on the signage 5 side. As a result, users such as operation managers (including system development contractors and system operation contractor workers) can use the condition setting parameters of the camera to be set this time (condition setting parameters 59, or conditioning parameters 73) can be readily made.

次に、図7を参照して、この画像分析システム10において行われる画像分析結果(分析データ)の統計処理と、映像(可視化統計情報又は分析結果重畳映像)と重畳された検知条件(条件設定パラメータ)の閲覧・編集の流れについて、説明する。図7中の加工プログラム76、映像の検索・表示プログラム78、検知条件データ抽出プログラム79、及び映像と重畳された検知条件の閲覧・編集用のプログラム80(以下、「検知条件閲覧・編集プログラム」と略す)は、いずれも、図4に示すポータル38に含まれるプログラムである。 Next, referring to FIG. 7, statistical processing of image analysis results (analysis data) performed in this image analysis system 10 and detection conditions (condition settings) superimposed on video (visualization statistical information or analysis result superimposed video) parameters) will be explained. The processing program 76 in FIG. 7, the video search/display program 78, the detection condition data extraction program 79, and the viewing/editing program 80 for the detection conditions superimposed on the video (hereinafter referred to as "detection condition viewing/editing program" ) are programs included in the portal 38 shown in FIG.

まず、上記の画像分析結果の統計処理について、説明する。管理サーバ1のCPU31は、上記の加工プログラム76を用いて、上記図6の説明で述べた、DNNモデル57又はDNNモデル70による認識処理の結果を含む分析データ58又は分析データ71(図7では、「映像メタデータ74」又は「映像メタデータ75」)の加工処理(集計・統計処理)を行って、その処理結果を、ハードディスク32(図4参照)内のデータベース77に、統計データ40として格納する。なお、分析ボックス3側の映像メタデータ74、及びサイネージ5側の映像メタデータ75については、いずれも、フレーム画像単位の分析(認識)結果自体ではなく、人毎に加工・集計した(まとめた)後のデータが、管理サーバ1に送られて、加工プログラム76による処理の対象となる。上記の統計データ40は、例えば、ある店の9時台の来店人数と性年齢分布等のデータであり、収集データ52、65と組み合わせたとしても、個人の特定が不可能な非個人情報である。この統計データ40には、図5に示すように、可視化統計情報48と、エッジ側の各カメラ(固定カメラ2又は内蔵カメラ4)の条件設定パラメータ49(検知枠等)とが含まれている。 First, statistical processing of the above image analysis results will be described. Using the processing program 76, the CPU 31 of the management server 1 uses the analysis data 58 or the analysis data 71 (in FIG. 7, , "video metadata 74" or "video metadata 75") are processed (counted and statistically processed), and the processing results are stored in the database 77 in the hard disk 32 (see FIG. 4) as statistical data 40. Store. Note that the video metadata 74 on the analysis box 3 side and the video metadata 75 on the signage 5 side are not the analysis (recognition) results per frame image per se, but are processed and aggregated (summarized) for each person. ) is sent to the management server 1 and processed by the processing program 76 . The above-mentioned statistical data 40 is, for example, data such as the number of people visiting a store between 9:00 and gender-age distribution. be. As shown in FIG. 5, the statistical data 40 includes visualization statistical information 48 and condition setting parameters 49 (detection frames, etc.) for each edge-side camera (fixed camera 2 or built-in camera 4). .

この画像分析システム10では、上記のように、エッジ側(分析ボックス3及びサイネージ5)にだけ、個人情報(収集データ52及び収集データ65)を格納して、クラウド側(管理サーバ1)には、非個人情報である統計データ40(条件設定パラメータ49を含む)だけを格納するようにした。これにより、クラウド側(管理サーバ1)の運営を、店舗の運営会社以外の事業者(システム開発委託事業者、システム運営委託事業者等)に委託することができる。 In this image analysis system 10, as described above, personal information (collected data 52 and collected data 65) is stored only on the edge side (analysis box 3 and signage 5), and on the cloud side (management server 1) , only statistical data 40 (including condition setting parameters 49), which is non-personal information, is stored. As a result, the operation of the cloud side (management server 1) can be entrusted to a company other than the store operating company (system development contractor, system operation contractor, etc.).

次に、この画像分析システム10における、映像と重畳された検知条件(条件設定パラメータ)の閲覧・編集処理の流れについて、説明する。運営管理者等のユーザが、パソコン9の操作部50aを用いて、管理サーバ1に対して、検知条件(検知枠等の条件設定パラメータ)の閲覧・編集の指示操作をすると、管理サーバ1のCPU31は、まず、映像の検索・表示プログラム78を用いて、分析ボックス3やサイネージ5に格納された過去の収集データ52、65の映像(分析結果重畳映像を含む)や、データベース77に格納された統計データ40に含まれる可視化統計情報の検索を行って、その検索結果の映像(可視化統計情報を含む)を抽出する。次に、管理サーバ1のCPU31は、検知条件データ抽出プログラム79を用いて、上記の抽出した検索結果の映像に適用されている現在の検知条件(検知枠等の条件設定パラメータ49)を、統計データ40から抽出する。そして、管理サーバ1のCPU31は、検知条件閲覧・編集プログラム80を用いて、上記の検索結果の映像(可視化統計情報を含む)に、上記の抽出した現在の検知条件を重畳した映像又は画像を、パソコン9のディスプレイ50bに表示して、ユーザによるパソコン9の操作部50aを用いた検知条件(検知枠等)の編集操作を受け付ける。 Next, the flow of viewing/editing processing of detection conditions (condition setting parameters) superimposed on video in the image analysis system 10 will be described. When a user such as an operation manager uses the operation unit 50a of the personal computer 9 to instruct the management server 1 to view and edit detection conditions (condition setting parameters such as detection frames), the management server 1 First, the CPU 31 uses the image search/display program 78 to retrieve images of past collected data 52 and 65 stored in the analysis box 3 and the signage 5 (including analysis result superimposed images) and images stored in the database 77 . The visualization statistical information included in the statistical data 40 is searched, and the video (including the visualization statistical information) of the search result is extracted. Next, the CPU 31 of the management server 1 uses the detection condition data extraction program 79 to extract the current detection conditions (condition setting parameters 49 such as the detection frame) applied to the extracted video of the search result, Extract from data 40 . Then, the CPU 31 of the management server 1 uses the detection condition viewing/editing program 80 to create a video or image in which the extracted current detection conditions are superimposed on the search result video (including the visualization statistical information). , is displayed on the display 50b of the personal computer 9, and the user's editing operation of the detection conditions (detection frame, etc.) using the operation unit 50a of the personal computer 9 is accepted.

次に、この画像分析システム10に採用されているユーザ・インタフェースについて、図8乃至図16を参照して、説明する。図8は、現状カウント状況確認画面81を示す。この画面は、図6の説明で述べた分析結果重畳映像の一種である分析結果重畳映像63を含む画面である。この分析結果重畳映像63は、ある店舗の入り口カメラで撮影した9時~10時の映像データ(図6の収集データ52に相当)に、図6のDNNモデル57による人検出結果を重ね合わせた映像である。分析結果重畳映像63には、DNNモデル57により検出した人の各々に対応するバウンディングボックス82が表示される。また、この現状カウント状況確認画面81におけるカウント結果表示欄81aには、上記の入り口カメラの現在の来店者カウント条件に基づく来店者カウント結果が、表示される。上記のような現状カウント状況確認画面81を用いることにより、現在のカウント条件に基づく来店者等の検知状況とカウント結果を、分かり易く可視化することができる。 Next, the user interface employed in this image analysis system 10 will be described with reference to FIGS. 8 to 16. FIG. FIG. 8 shows a current count status confirmation screen 81 . This screen is a screen including an analysis result superimposed image 63 which is a kind of analysis result superimposed image described in the explanation of FIG. This analysis result superimposed image 63 is obtained by superimposing the human detection result by the DNN model 57 of FIG. It is a video. A bounding box 82 corresponding to each person detected by the DNN model 57 is displayed on the analysis result superimposed image 63 . In addition, in the count result display field 81a in the current count status confirmation screen 81, the visitor count result based on the current visitor count condition of the entrance camera is displayed. By using the current count status confirmation screen 81 as described above, it is possible to easily visualize the detection status of visitors and the count results based on the current count conditions.

また、この画像分析システム10に採用されているユーザ・インタフェースには、条件設定パラメータ(検知枠等)の設定のシミュレーション用画面がある。図9は、このシミュレーション用画面を用いた、条件設定パラメータ(検知枠等)設定のシミュレーション処理のフローチャートである。図10は、上記のシミュレーション用画面の一例である来店者カウント領域設定シミュレーション画面83を示す。この来店者カウント領域設定シミュレーション画面83では、来店者カウント領域の検知枠(設定検知枠85)が、図9における条件設定パラメータに相当する。この来店者カウント領域設定シミュレーション画面83には、今回の設定対象となるカメラの所定の時間帯の可視化統計情報(図10に示す移動軌跡集計画像84、顔検出集計画像89(図13参照)、又は性年齢認識集計画像)に、今回の設定対象となるカメラの現在の来店者カウント領域の設定検知枠85(条件設定パラメータの一種)が重畳表示される。ここで、上記の移動軌跡集計画像84は、図10の例では、入り口カメラの、9時から10時までの撮影画像に対する人検出結果に基づいて作成された移動軌跡を示す画像である。また、上記の顔検出集計画像89は、図13の例では、〇〇店の入り口カメラの、9時から10時までの撮影画像に対する顔検出結果(正確に言うと、撮影画像内の各エリアにおける顔検出頻度)に基づいて作成されたヒートマップであり、上記の性年齢認識集計画像は、今回の設定対象となるカメラの所定の時間帯の撮影画像に対する性年齢認識結果(正確に言うと、撮影画像内の各エリアにおける性年齢認識頻度)に基づいて作成されたヒートマップである。なお、上記の顔検出集計画像89(図13参照)及び性年齢認識集計画像では、ヒートマップの背面側に、元の撮影画像における背景画像(撮影画像から動体(人)を除いた画像)が表示される。 Further, the user interface employed in this image analysis system 10 includes a simulation screen for setting condition setting parameters (detection frame, etc.). FIG. 9 is a flow chart of a simulation process for setting condition setting parameters (detection frame, etc.) using this simulation screen. FIG. 10 shows a visitor count area setting simulation screen 83, which is an example of the above simulation screen. In the visitor count area setting simulation screen 83, the detection frame (setting detection frame 85) of the visitor count area corresponds to the condition setting parameter in FIG. On this visitor count area setting simulation screen 83, the visualization statistical information of the camera to be set this time for a predetermined time period (movement trajectory total image 84 shown in FIG. 10, face detection total image 89 (see FIG. 13), or gender-age recognition tally image), a setting detection frame 85 (a kind of condition setting parameter) of the current store visitor count area of the camera to be set this time is superimposed and displayed. Here, in the example of FIG. 10, the movement locus aggregated image 84 is an image showing the movement locus created based on the human detection results for the images captured by the entrance camera from 9:00 to 10:00. Also, in the example of FIG. 13, the above-mentioned face detection total image 89 is the face detection result for the images taken from 9:00 to 10:00 by the entrance camera of the 〇〇 store (more precisely, each area in the taken image). This is a heat map created based on the frequency of face detection in Japan), and the gender and age recognition aggregate image above is the gender and age recognition result (more precisely , sex age recognition frequency in each area in the captured image). In addition, in the face detection aggregated image 89 (see FIG. 13) and the sex/age recognition aggregated image, the background image of the original captured image (the image obtained by removing the moving body (person) from the captured image) is displayed on the back side of the heat map. Is displayed.

図10の来店者カウント領域設定シミュレーション画面83の場合を例にして、図9のフローチャートに沿って、上記のシミュレーション用画面を用いた、条件設定パラメータ(検知枠等)設定のシミュレーション処理について説明する。ユーザが、パソコン9の操作部50aを用いて、管理サーバ1に対して、来店者カウント領域設定シミュレーション画面83を表示するように指示すると、管理サーバ1のCPU31は、来店者カウント領域設定シミュレーション画面83を表示する。そして、ユーザが、パソコン9の操作部50a(マウス等)により、図10中のカメラ選択ボタン83aと時間帯選択ボタン83bと統計情報選択ボタン83cを操作して、今回の設定対象(解析対象)となるカメラと、推論結果(分析結果)の取得時間帯と、表示する可視化統計情報の種類を選択すると(S1)、管理サーバ1のCPU31は、選択したカメラと取得時間帯と可視化統計情報の種類に対応した可視化統計情報(図10の例では、移動軌跡集計画像84)に、選択したカメラの現在の条件設定パラメータ(設定検知枠85)を重畳して、パソコン9のディスプレイ50bに表示すると共に、現在の設定検知枠85による分析結果(来店者カウント結果)を、ディスプレイ50b(カウント結果表示欄83h)に表示する(S2)。なお、管理サーバ1のCPU31は、上記S2の処理において、選択したカメラと取得時間帯と可視化統計情報の種類に対応した可視化統計情報と、選択したカメラの現在の条件設定パラメータ(設定検知枠85)を、上記の統計データ40(図7等参照)から抽出する。 Using the visitor count area setting simulation screen 83 of FIG. 10 as an example, the simulation process of setting the condition setting parameters (detection frame, etc.) using the simulation screen will be described along the flowchart of FIG. . When the user uses the operation unit 50a of the personal computer 9 to instruct the management server 1 to display the visitor count area setting simulation screen 83, the CPU 31 of the management server 1 displays the visitor count area setting simulation screen. 83 is displayed. Then, the user operates the camera selection button 83a, the time period selection button 83b, and the statistical information selection button 83c in FIG. When the camera, the acquisition time period of the inference result (analysis result), and the type of visualization statistical information to be displayed are selected (S1), the CPU 31 of the management server 1 selects the selected camera, the acquisition time period, and the visualization statistical information The current condition setting parameters (setting detection frame 85) of the selected camera are superimposed on the visualization statistical information corresponding to the type (in the example of FIG. 10, the moving trajectory total image 84), and displayed on the display 50b of the personal computer 9. At the same time, the analysis result (visitor count result) by the current setting detection frame 85 is displayed on the display 50b (count result display column 83h) (S2). In the process of S2, the CPU 31 of the management server 1 obtains the selected camera, the acquisition time period, the visualization statistical information corresponding to the type of visualization statistical information, and the current condition setting parameters of the selected camera (setting detection frame 85 ) is extracted from the statistical data 40 (see FIG. 7, etc.).

上記S2の処理が完了すると、運営管理者等のユーザは、ディスプレイ50bに表示された、現在の条件設定パラメータ(設定検知枠85)と、この条件設定パラメータを用いた分析結果(現在の設定検知枠85を用いた来店者カウント結果)とを、確認する(S3)。この確認の結果、ユーザが、パソコン9の操作部50a(マウス等)により、条件設定パラメータ(設定検知枠85)の調整入力を行うと(S4でYES)、管理サーバ1のCPU31は、分析ボックス3やサイネージ5に格納された、今回の設定対象のカメラの過去の撮影画像(上記S1で選択したカメラと取得時間帯に対応した撮影画像)を取得して(S5)、上記S4の調整入力後の条件設定パラメータ(設定検知枠85)を用いて、上記S5で取得した今回の設定対象のカメラの撮影画像に対する分析をし直す(再分析を行う)(S6)。そして、再分析した結果の来店者カウント結果を、パソコン9のディスプレイ50b(カウント結果表示欄83h)に表示する(S7)。 When the process of S2 is completed, the user such as the operation manager displays the current condition setting parameters (setting detection frame 85) displayed on the display 50b and the analysis result (current setting detection) using the condition setting parameters. (S3). As a result of this confirmation, when the user adjusts and inputs the condition setting parameters (setting detection frame 85) using the operation unit 50a (mouse, etc.) of the personal computer 9 (YES in S4), the CPU 31 of the management server 1 opens the analysis box. 3 or signage 5, the past captured image of the camera to be set this time (the captured image corresponding to the camera selected in S1 above and the acquisition time period) is acquired (S5), and the adjustment input of S4 is performed. Using the subsequent condition setting parameters (setting detection frame 85), the captured image of the current setting target camera obtained in S5 is re-analyzed (re-analyzed) (S6). Then, the re-analyzed visitor count result is displayed on the display 50b (count result display column 83h) of the personal computer 9 (S7).

上記S4の条件設定パラメータ(設定検知枠85)の調整入力の方法について、より具体的に説明する。まず、ユーザが、パソコン9のマウス等を用いて、来店者カウント領域設定シミュレーション画面83における設定検知枠85の頂点85aをドラッグすることにより、設定検知枠85(設定検知領域(来店者カウント領域)の枠)を調整することができる。また、ユーザが、パソコン9のキーボード等を用いて、来店者カウント領域設定シミュレーション画面83における検知領域調整入力欄83fに、直接座標を入力する方法によっても、検知領域の調整、すなわち、設定検知枠85の調整を行うことができる。また、来店者カウント領域設定シミュレーション画面83の移動軌跡集計画像84上には。上記の今回の設定対象となるカメラの現在の設定検知枠85に加えて、推奨検知枠86が、表示される。ユーザが、パソコン9のマウス等を用いて、来店者カウント領域設定シミュレーション画面83における推奨検知領域設定ボタン83gをクリックすることにより、上記の検知領域調整入力欄83fの各頂点の入力欄に、推奨検知枠86の各頂点86aのx座標とy座標の値が入力される。上記のような種々の方法による設定検知枠85の調整入力後に、ユーザが、パソコン9のマウス等を用いて、計算ボタン83iをクリックすると、カウント結果表示欄81hに、今回の設定対象となるカメラについての、調整入力後の来店者カウント条件(設定検知枠85を含む)に基づく来店者カウント結果が、表示される。 The method of adjusting and inputting the condition setting parameters (setting detection frame 85) in S4 will be described more specifically. First, the user drags the vertex 85a of the setting detection frame 85 on the visitor count area setting simulation screen 83 using the mouse or the like of the personal computer 9, so that the setting detection frame 85 (setting detection area (visitor count area) frame) can be adjusted. The user can also use the keyboard of the personal computer 9 or the like to directly enter coordinates in the detection area adjustment input field 83f on the visitor count area setting simulation screen 83. 85 adjustments can be made. Also, on the moving locus tally image 84 of the visitor count area setting simulation screen 83, In addition to the current setting detection frame 85 of the camera to be set this time, a recommended detection frame 86 is displayed. When the user clicks the recommended detection area setting button 83g on the visitor count area setting simulation screen 83 using the mouse or the like of the personal computer 9, recommended The x-coordinate and y-coordinate values of each vertex 86a of the detection frame 86 are input. After adjusting and inputting the setting detection frame 85 by various methods as described above, when the user clicks the calculation button 83i using the mouse or the like of the personal computer 9, the camera to be set this time is displayed in the count result display field 81h. is displayed based on the visitor count conditions (including the setting detection frame 85) after adjustment input.

上記の来店者カウント領域設定シミュレーション画面83では、ユーザが、パソコン9のマウス等を用いて、カウント種別選択ボタン83dと移動方向選択ボタン83eを操作することにより、来店者カウント条件のうち、カウント種別と移動方向を調整入力することも可能である。ユーザが、パソコン9のマウス等を用いて、今回の設定対象となるカメラについての来店者カウント条件(設定検知枠85(設定検知領域)、カウント種別、及び移動方向)の調整入力を行った後、計算ボタン83iをクリックして、カウント結果表示欄81hに表示されたカウント結果(で表される精度)に満足した場合には、適用ボタン83jをクリックすることにより、上記の調整入力後の来店者カウント条件を適用することができる。上記の適用ボタン83jをクリックすることにより、図7中のデータベース77における統計データ40に含まれる、今回の設定対象となるカメラについての来店者カウント条件(設定検知枠(設定検知領域)、カウント種別、及び移動方向)が、書き換えられる。 On the visitor count area setting simulation screen 83, the user operates the count type selection button 83d and movement direction selection button 83e using the mouse or the like of the personal computer 9 to select the count type among the visitor count conditions. It is also possible to adjust and input the direction of movement. After the user uses the mouse or the like of the personal computer 9 to adjust and input the visitor count conditions (set detection frame 85 (set detection area), count type, and movement direction) for the camera to be set this time. , the calculation button 83i is clicked, and if the count result (accuracy represented by) displayed in the count result display column 81h is satisfied, the apply button 83j is clicked to Person count conditions may apply. By clicking the apply button 83j, the visitor count conditions (setting detection frame (setting detection area), count type , and direction of movement) are rewritten.

また、この画像分析システム10に採用されているユーザ・インタフェースには、各種のカウント(例えば、来店者、通行者、立ち止まり者のカウント)の精度のランキング表示用の画面がある。図11は、上記のカウント精度のランキング表示用画面の一例である来店者カウント精度ランキング表示画面87を示す。この来店者カウント精度ランキング表示画面87は、過去に設定した来店者カウント用の設定条件(特に、設定検知枠)のうち、その設定条件におけるカウント精度が高かったもののランキングを表示した画面である。この来店者カウント精度ランキング表示画面87には、各条件における精度、検知条件、(検知の)用途に加えて、設定検知枠87a、87bが表示される。本画像分析システム10では、来店者カウント精度ランキング表示画面87のような、カウント精度のランキング表示用画面を用いることにより、過去に設定した(人の)カウント用の設定条件のうち、同じ検知条件や用途で、カウント精度が高かった設定条件を参照(閲覧)することができる。 The user interface employed in this image analysis system 10 includes a screen for displaying rankings of the accuracy of various counts (for example, counts of visitors, passers-by, and people who stop by). FIG. 11 shows a visitor count accuracy ranking display screen 87, which is an example of the count accuracy ranking display screen. This store visitor count accuracy ranking display screen 87 is a screen displaying the ranking of setting conditions (especially, setting detection frame) for store visitor counting that have been set in the past, with high counting accuracy under the setting conditions. On this visitor count accuracy ranking display screen 87, setting detection frames 87a and 87b are displayed in addition to accuracy, detection conditions, and uses (of detection) for each condition. In the image analysis system 10, by using a count accuracy ranking display screen such as the store visitor count accuracy ranking display screen 87, the same detection conditions among the setting conditions for counting (persons) that have been set in the past. You can refer to (browse) the setting conditions for which the count accuracy was high.

次に、図12のフローチャートを参照して、過去の設定対象となったカメラの撮影画像に基づく可視化統計情報を利用して、今回の設定対象となるカメラの撮影画像に適用する設定検知枠等の条件設定パラメータを設定する方法について、説明する。管理サーバ1のCPU31は、通信部36を用いて、エッジ側(分析ボックス3又はサイネージ5)から、カメラの撮影画像と、この撮影画像に含まれるフレーム画像に対する認識処理の結果とを重畳した重畳映像を受信すると(S11)、可視化統計情報生成部41(図5参照)を用いて、所定の時間分の上記重畳映像を統計処理して、可視化統計情報を生成する(S12)。そして、管理サーバ1のCPU31は、図5に示すように、生成した可視化統計情報48を、ハードディスク32に、統計データ40の一部として蓄積する(S13)。 Next, referring to the flowchart of FIG. 12, using the visualization statistical information based on the captured image of the camera to be set in the past, the setting detection frame etc. to be applied to the captured image of the camera to be set this time. A method for setting the condition setting parameters of is explained. Using the communication unit 36, the CPU 31 of the management server 1 superimposes the captured image of the camera and the result of recognition processing on the frame image included in this captured image from the edge side (analysis box 3 or signage 5). When the video is received (S11), the visualization statistical information generation unit 41 (see FIG. 5) is used to statistically process the superimposed video for a predetermined time period to generate visualization statistical information (S12). Then, as shown in FIG. 5, the CPU 31 of the management server 1 accumulates the generated visualization statistical information 48 in the hard disk 32 as part of the statistical data 40 (S13).

ユーザが、管理サーバ1のハードディスク32に蓄積された過去の可視化統計情報の中から、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に類似した、過去の可視化統計情報を検索する場合には、例えば、図13に示す類似可視化統計情報検索画面88を用いる。ユーザが、パソコン9のディスプレイ50bに、上記の類似可視化統計情報検索画面88を表示した状態で、パソコン9の操作部50aを用いて、店舗選択ボタン88a、カメラ選択ボタン88b、時刻選択ボタン88c、及び可視化統計情報選択ボタン88dを選択して、今回の設定対象となるカメラの所望の時間帯の撮影画像に基づく、所望の可視化統計情報の種類を選択すると、管理サーバ1のCPU31は、パソコン9のディスプレイ50bに、選択した店舗とカメラと時間帯と可視化統計情報の種類に対応した可視化統計情報(図13の例では、顔検出集計画像89)を表示する。この顔検出集計画像89は、図13の例では、○○店の入り口カメラの、9時から10時までの撮影画像に含まれるフレーム画像に対する顔検出結果(正確に言うと、上記撮影画像内の各エリアにおける顔検出頻度)に基づいて作成されたヒートマップである。 When the user searches past visualization statistical information accumulated in the hard disk 32 of the management server 1 for past visualization statistical information similar to the visualization statistical information based on the image captured by the camera to be set this time. For example, a similar visualization statistical information search screen 88 shown in FIG. 13 is used. While the similar visualization statistical information search screen 88 is displayed on the display 50b of the personal computer 9, the user uses the operation unit 50a of the personal computer 9 to select the store selection button 88a, the camera selection button 88b, the time selection button 88c, and the visualization statistical information selection button 88d to select the type of desired visualization statistical information based on the captured image of the camera to be set this time in the desired time period. display 50b displays the selected shop, camera, time zone, and visualization statistical information (in the example of FIG. 13, face detection total image 89) corresponding to the type of visualization statistical information. In the example of FIG. 13, this face detection tally image 89 is the face detection result for the frame images included in the images taken from 9:00 to 10:00 by the camera at the entrance of the ○○ store (more precisely, in the above-mentioned photographed images). This is a heat map created based on the frequency of face detection in each area of .

上記の類似可視化統計情報検索画面88に、顔検出集計画像89等の可視化統計情報が表示された状態において、ユーザが、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に類似した、過去の可視化統計情報を検索する場合には、パソコン9の操作部50a(マウス等)を用いて、類似可視化統計情報検索画面88上の類似可視化統計情報検索ボタン88eをクリックする。このクリック操作により、ユーザが、類似した過去の可視化統計情報の検索を指示すると(S14でYES)、管理サーバ1のCPU31(の検出部42(図5参照))は、ハードディスク32に蓄積された過去の可視化統計情報の中から、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に類似した、過去の可視化統計情報を検出(検索)する(S15)。 In a state where the visualization statistical information such as the face detection aggregate image 89 is displayed on the similar visualization statistical information search screen 88, the user can select the To search for past visualization statistical information, click the similar visualization statistical information search button 88e on the similar visualization statistical information search screen 88 using the operation unit 50a (mouse, etc.) of the personal computer 9. FIG. By this click operation, when the user instructs to search for similar past visualization statistical information (YES in S14), the CPU 31 (the detection unit 42 (see FIG. 5)) of the management server 1 detects the data stored in the hard disk 32. Past visualization statistical information similar to the visualization statistical information based on the captured image of the camera to be set this time is detected (searched) from the past visualization statistical information (S15).

上記の類似した可視化統計情報を検索する方法には、大きく分けて、2通りの方法がある。一つ目の方法は、管理サーバ1のCPU31(の検出部42)が、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に最も類似した、過去の可視化統計情報を、自動的に選択して、ユーザに提示する方法である。二つ目の方法は、管理サーバ1のCPU31が、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報と、ハードディスク32に蓄積された過去の複数の可視化統計情報とを、パソコン9のディスプレイ50bに並べて表示して、ユーザが、パソコン9の操作部50a(マウス等)を用いて、ディスプレイ50bに表示された過去の複数の可視化統計情報の中から、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に最も類似した、過去の可視化統計情報を選択する方法である。 Methods for retrieving similar visualization statistical information are roughly divided into two methods. In the first method, the CPU 31 (the detection unit 42 thereof) of the management server 1 automatically detects the past visualization statistical information that is most similar to the visualization statistical information based on the captured image of the camera to be set this time. This is a method of selecting and presenting to the user. In the second method, the CPU 31 of the management server 1 stores the visualization statistical information based on the captured image of the camera to be set this time and a plurality of past visualization statistical information accumulated in the hard disk 32 in the personal computer 9. Displayed side by side on the display 50b, the user uses the operation unit 50a (mouse, etc.) of the personal computer 9 to select the camera to be set this time from among the plurality of past visualization statistical information displayed on the display 50b. This is a method of selecting past visualization statistical information that is most similar to the visualization statistical information based on the captured image.

上記の一つ目の方法(今回の設定対象となるカメラの可視化統計情報に類似した可視化統計情報を、管理サーバ1のCPU31が自動的に検出する方法)の例としては、図13の顔検出集計画像89の場合には、管理サーバ1のCPU31が、ハードディスク32に蓄積された過去の顔検出集計画像の中から、今、類似可視化統計情報検索画面88に表示されている顔検出集計画像89におけるヒートマップのパターンと類似したパターンのヒートマップの顔検出集計画像を自動的に検出して、ユーザに提示するという方法が挙げられる。具体的には、例えば、ユーザが、パソコン9の操作部50a(マウス等)を用いて、図13に示す類似可視化統計情報検索画面88上の類似可視化統計情報検索ボタン88eをクリックすると、管理サーバ1のCPU31(の検出部42)が、図14に示すように、今回の設定対象となるカメラの(撮影画像に基づく)顔検出集計画像89(図13の顔検出集計画像89と同じ)から求めた、人の移動方向(左上から右下)に対応するベクトル92と、ハードディスク32に蓄積された過去の顔検出集計画像から求めた、人の移動方向に対応するベクトルとを比較して、今回の設定対象のカメラの顔検出集計画像89から求めたベクトル92に類似したベクトル93を有する、過去の顔検出集計画像91を検出する。そして、管理サーバ1のCPU31は、類似可視化統計情報検索結果表示画面90に、上記の今回の設定対象となるカメラの顔検出集計画像89と並べて、上記の検出した(類似した)過去の顔検出集計画像91を表示する。 As an example of the first method described above (a method in which the CPU 31 of the management server 1 automatically detects visualization statistical information similar to the visualization statistical information of the camera to be set this time), face detection in FIG. In the case of the total image 89, the CPU 31 of the management server 1 selects the face detection total image 89 currently displayed on the similar visualization statistical information search screen 88 from among the past face detection total images accumulated in the hard disk 32. There is a method of automatically detecting a face detection tally image of a heat map with a pattern similar to the pattern of the heat map in , and presenting it to the user. Specifically, for example, when the user clicks the similar visualization statistical information search button 88e on the similar visualization statistical information search screen 88 shown in FIG. As shown in FIG. 14, the CPU 31 (the detection unit 42 of the CPU 31) of 1, from the face detection total image 89 (based on the captured image) of the camera to be set this time (same as the face detection total image 89 in FIG. 13) A vector 92 corresponding to the moving direction of the person (upper left to lower right) obtained is compared with a vector corresponding to the moving direction of the person obtained from past face detection total images accumulated in the hard disk 32, A past face detection total image 91 having a vector 93 similar to the vector 92 obtained from the face detection total image 89 of the current setting target camera is detected. Then, the CPU 31 of the management server 1 displays the detected (similar) past face detection results on the similar visualization statistical information search result display screen 90 side by side with the face detection summary image 89 of the camera to be set this time. A total image 91 is displayed.

上記の今回の設定対象となるカメラの顔検出集計画像89のベクトル92に類似したベクトル93を有する、過去の顔検出集計画像91を検出する方法としては、今回の設定対象となるカメラの顔検出集計画像89のベクトル92と、過去の顔検出集計画像91のベクトル93との内積を求めて、この内積の値(スカラー量)が大きい時のベクトル93に対応する過去の顔検出集計画像91を選択するという方法が考えられる。 As a method for detecting the past face detection total image 91 having a vector 93 similar to the vector 92 of the face detection total image 89 of the camera to be set this time, the face detection of the camera to be set this time The inner product of the vector 92 of the total image 89 and the vector 93 of the past face detection total image 91 is obtained, and the past face detection total image 91 corresponding to the vector 93 when the inner product value (scalar quantity) is large is obtained. A method of selection is conceivable.

上記の類似可視化統計情報検索結果表示画面90において、ユーザが、パソコン9の操作部50a(マウス等)を用いて、上記の(今回の設定対象となるカメラの顔検出集計画像89と類似したベクトル93を有する、)過去の顔検出集計画像91をクリック(選択)すると、管理サーバ1のCPU31は、上記の選択された過去の顔検出集計画像91の元になった過去の撮影画像に適用された、撮影画像分析用の条件設定パラメータ(主に、検知枠の各頂点の座標)を、ハードディスク32の統計データ40から読み取る。そして、管理サーバ1のCPU31(のパラメータ出力部43)は、図15に示すように、上記の過去の顔検出集計画像91(図14の顔検出集計画像91と同じ)と、この過去の顔検出集計画像91の元になった過去の撮影画像に適用された条件設定パラメータ(検知領域表示欄94fに表示された、検知枠の各頂点の座標)とを含む画面(類似パターン画像設定表示画面94)を、パソコン9のディスプレイ50bに出力する(表示させる)(図12のS16)。 In the above-mentioned similar visualization statistical information search result display screen 90, the user uses the operation unit 50a (mouse, etc.) of the personal computer 9 to operate the above (vector similar to the face detection total image 89 of the camera to be set this time 93), when a past face detection total image 91 is clicked (selected), the CPU 31 of the management server 1 applies to the past photographed image from which the selected past face detection total image 91 is based. Also, the condition setting parameters (mainly the coordinates of each vertex of the detection frame) for photographed image analysis are read from the statistical data 40 of the hard disk 32 . Then, as shown in FIG. 15, the CPU 31 (the parameter output unit 43 thereof) of the management server 1 outputs the past face detection total image 91 (same as the face detection total image 91 in FIG. 14) and the past face detection total image 91. A screen (similar pattern image setting display screen) including condition setting parameters (coordinates of each vertex of the detection frame displayed in the detection area display column 94f) applied to the past captured image that is the basis of the detection total image 91 94) is output (displayed) on the display 50b of the personal computer 9 (S16 in FIG. 12).

ユーザは、上記のようにして、パソコン9のディスプレイ50bに表示された、(今回の設定対象となるカメラの顔検出集計画像89と類似したベクトル93を有する、)過去の顔検出集計画像91の元になった撮影画像に適用された条件設定パラメータ(検知枠の各頂点の座標)を参照(閲覧)することにより、今回の設定対象となるカメラの撮影画像に適した条件設定パラメータの値を知り、入力をすることができる。 As described above, the user can view the past face detection total image 91 (having a vector 93 similar to the face detection total image 89 of the camera to be set this time) displayed on the display 50b of the personal computer 9. By referencing (browsing) the condition setting parameters (coordinates of each vertex of the detection frame) applied to the original captured image, the values of the condition setting parameters suitable for the image captured by the camera to be set this time can be determined. Know and be able to enter.

なお、図15に示す類似パターン画像設定表示画面94には、上記の検知領域表示欄94fに加えて、店舗表示欄94a、カメラ表示欄94b、時間帯表示欄94c、カウント種別表示欄94d、移動方向表示欄94e、及びカウント結果表示欄94gが設けられている。店舗表示欄94aとカメラ表示欄94bには、上記の過去の顔検出集計画像91の元になった撮影画像を撮影したカメラが、どの店の、どのカメラであるかという情報が表示され、時間帯表示欄94cには、上記の過去の顔検出集計画像91の元になった撮影画像を撮影した時間帯が表示される。また、カウント種別表示欄94dと、移動方向表示欄94eとには、上記の過去の顔検出集計画像91の元になった撮影画像に適用された、カウント種別(どのような状態の人をカウントするのかという種別)と、移動方向(どの移動方向の人をカウントするのかという情報)とが、表示される。さらに、カウント結果表示欄94gには、カウント種別表示欄94d、移動方向表示欄94e、及び検知領域表示欄94fに表示された来店者カウント条件を用いて、上記の過去の顔検出集計画像91の元になった撮影画像に対する、来店者カウント処理を行った結果の人数が、表示される。 In addition to the detection area display field 94f, the similar pattern image setting display screen 94 shown in FIG. A direction display field 94e and a count result display field 94g are provided. In the store display field 94a and the camera display field 94b, information is displayed as to which store and which camera was used to capture the captured image that is the basis of the past face detection tally image 91, and the time is displayed. In the band display field 94c, the time zone in which the photographed images that are the basis of the past face detection tally image 91 were photographed is displayed. Also, in the count type display column 94d and the movement direction display column 94e, the count type (what state of the person is counted) applied to the photographed image that is the basis of the past face detection tally image 91 is displayed. type of movement) and direction of movement (information indicating which direction of movement people are to be counted) are displayed. Furthermore, in the count result display field 94g, the count type display field 94d, the movement direction display field 94e, and the detection area display field 94f are used to display the store visitor count conditions, and the past face detection tally image 91 is displayed. The number of people after performing visitor count processing on the original photographed image is displayed.

次に、上記の二つ目の方法(今回の設定対象となるカメラの可視化統計情報と、過去の複数の可視化統計情報とを、パソコン9のディスプレイ50bに並べて表示して、ユーザが、今回の設定対象となるカメラの可視化統計情報に最も類似した、過去の可視化統計情報を選択する方法)の具体例について、説明する。この方法を採用する場合にも、ユーザが、パソコン9の操作部50a(マウス等)を用いて、図13に示す類似可視化統計情報検索画面88上の店舗選択ボタン88a、カメラ選択ボタン88b、時刻選択ボタン88c、及び可視化統計情報選択ボタン88dを選択して、今回の設定対象となるカメラの所定の時間帯の撮影画像に基づく、所望の可視化統計情報の種類を選択すると、管理サーバ1のCPU31は、パソコン9のディスプレイ50bに、選択した店舗とカメラと時間帯と可視化統計情報の種類に対応した可視化統計情報(図13の例では、顔検出集計画像89)を表示する。この状態において、ユーザが、パソコン9のマウス等を用いて、類似可視化統計情報検索画面88上の類似可視化統計情報検索ボタン88eをクリックすると、管理サーバ1のCPU31(の表示制御部44)が、図16の類似可視化統計情報選択画面97に示すように、今回の設定対象となるカメラの撮影画像に基づく顔検出集計画像89と、ハードディスク32に蓄積された過去の複数の顔検出集計画像96a~96iとを、パソコン9のディスプレイ50b(候補画像表示エリア95)に並べて表示する。なお、図16の候補画像表示エリア95に表示される顔検出集計画像96a~96iでは、これらの画像における背景画像の部分を省略して、ヒートマップの部分のみを示している。 Next, the second method described above (visualization statistical information of the camera to be set this time and a plurality of past visualization statistical information are displayed side by side on the display 50b of the personal computer 9, and the user can A specific example of the method of selecting past visualization statistical information that is most similar to the visualization statistical information of the camera to be set will be described. When adopting this method, the user also uses the operation unit 50a (mouse, etc.) of the personal computer 9 to operate the store selection button 88a, the camera selection button 88b, the time When the selection button 88c and the visualization statistical information selection button 88d are selected to select the type of desired visualization statistical information based on the captured image of the camera to be set this time in a predetermined time period, the CPU 31 of the management server 1 displays on the display 50b of the personal computer 9 the visualization statistical information (in the example of FIG. 13, the face detection total image 89) corresponding to the selected store, camera, time zone, and type of visualization statistical information. In this state, when the user clicks the similar visualization statistical information search button 88e on the similar visualization statistical information search screen 88 using the mouse or the like of the personal computer 9, the CPU 31 (the display control unit 44 thereof) of the management server 1 As shown in the similarity visualization statistical information selection screen 97 of FIG. 96i are displayed side by side on the display 50b (candidate image display area 95) of the personal computer 9. FIG. It should be noted that the face detection tally images 96a to 96i displayed in the candidate image display area 95 in FIG. 16 show only the heat map portion, omitting the background image portion of these images.

上記の候補画像表示エリア95に表示される過去の複数の顔検出集計画像96a~96iは、ハードディスク32に蓄積された過去の複数の顔検出集計画像のうち、今回の設定対象となるカメラと用途や検知条件が同じものであることが好ましい。また、上記の候補画像表示エリア95に表示される過去の複数の顔検出集計画像96a~96iは、ハードディスク32に蓄積された過去の複数の顔検出集計画像のうち、今回の設定対象となるカメラの撮影画像に基づく顔検出集計画像89と近いパターンのヒートマップの顔検出集計画像であることが望ましい。 The plurality of past face detection tally images 96a to 96i displayed in the candidate image display area 95 are the cameras and applications to be set this time among the past plural face detection tally images accumulated in the hard disk 32. and detection conditions are preferably the same. In addition, the plurality of past face detection aggregated images 96a to 96i displayed in the above candidate image display area 95 are selected from among the plurality of past face detection aggregated images accumulated in the hard disk 32 by the cameras to be set this time. It is desirable that the face detection total image of the heat map has a pattern similar to the face detection total image 89 based on the photographed image.

ユーザが、パソコン9の操作部50a(マウス等)を用いて、上記の候補画像表示エリア95に表示された、過去の複数の顔検出集計画像96a~96iの中から、今回の設定対象となるカメラの撮影画像に基づく顔検出集計画像89に最も類似した、過去の顔検出集計画像をクリック(選択)すると、管理サーバ1のCPU31は、上記図14の類似可視化統計情報検索結果表示画面90において、過去の顔検出集計画像91をクリックした場合と同様な処理を行う。すなわち、管理サーバ1のCPU31は、上記の選択された過去の顔検出集計画像(96a~96iのいずれか)の元になった過去の撮影画像に適用された、撮影画像分析用の条件設定パラメータ(検知枠の各頂点の座標)を、ハードディスク32の統計データ40から読み取って、図15に示すように、図16で選択された過去の顔検出集計画像91と、この過去の顔検出集計画像91の元になった過去の撮影画像に適用された条件設定パラメータ(検知領域表示欄94fに表示された、検知枠の各頂点の座標)とを含む画面(類似パターン画像設定表示画面94)を、パソコン9のディスプレイ50bに出力する(表示させる)。 The user uses the operation unit 50a (mouse, etc.) of the personal computer 9 to select from among the plurality of past face detection tally images 96a to 96i displayed in the above-described candidate image display area 95, which are to be set this time. When the past face detection tally image that is most similar to the face detection tally image 89 based on the image taken by the camera is clicked (selected), the CPU 31 of the management server 1 displays the similar visualization statistical information search result display screen 90 in FIG. , the same processing as when the past face detection summary image 91 is clicked. That is, the CPU 31 of the management server 1 sets the condition setting parameters for photographed image analysis applied to the past photographed image that is the basis of the selected past face detection total image (any of 96a to 96i). (the coordinates of each vertex of the detection frame) are read from the statistical data 40 of the hard disk 32, and as shown in FIG. A screen (similar pattern image setting display screen 94) including condition setting parameters (coordinates of each vertex of the detection frame displayed in the detection area display column 94f) applied to the past captured image that is the basis of 91. , is output (displayed) on the display 50 b of the personal computer 9 .

上記のように、本実施形態の画像分析システム10、管理サーバ1、及びサーバ制御プログラム37によれば、今回の設定対象となるカメラ(以下、「今回のカメラ」と略す)(固定カメラ2又は内蔵カメラ4)の撮影画像に基づく可視化統計情報(顔検出集計画像89等)に類似した、過去の可視化統計情報(顔検出集計画像91等)を検出し、検出した過去の可視化統計情報の元になった過去の撮影画像に適用された、撮影画像分析用の条件設定パラメータ(図15に示す検知枠(検知領域)の各頂点の座標等)を含む画面(図15の類似パターン画像設定表示画面94)を、パソコン9のディスプレイ50bに出力(表示)して、システムの運営管理者等のユーザが閲覧することができるようにした。ここで、今回のカメラの撮影画像に基づく可視化統計情報に類似した、過去の可視化統計情報は、今回のカメラの撮影画像と同様な人の移動範囲の撮影画像(におけるフレーム画像)に対して、今回のカメラの撮影画像に対して行った認識処理と同様な認識処理をした結果を用いた可視化統計情報である可能性が高い。このため、ユーザが、上記の閲覧した(今回のカメラの撮影画像に基づく可視化統計情報に類似した、)過去の可視化統計情報(例えば、過去の顔検出集計画像91)の元になった撮影画像に適用された条件設定パラメータ(例えば、図15に示す検知枠(検知領域)の各頂点の座標等)を参照して、今回のカメラの撮影画像分析用の条件設定パラメータを入力することにより、システムの運営管理者等のユーザが、容易に、適切な条件設定パラメータ(例えば、人の検知枠(検知領域)の各頂点の座標等)を入力することができる。 As described above, according to the image analysis system 10, the management server 1, and the server control program 37 of the present embodiment, the camera to be set this time (hereinafter abbreviated as "current camera") (fixed camera 2 or Detect past visualization statistical information (face detection aggregate image 91, etc.) similar to the visualization statistical information (face detection aggregate image 89, etc.) based on the image captured by the built-in camera 4), and the source of the detected past visualization statistical information A screen (similar pattern image setting display The screen 94) is output (displayed) on the display 50b of the personal computer 9 so that a user such as a system administrator can view it. Here, the past visualization statistical information similar to the visualization statistical information based on the image captured by the current camera is obtained by: There is a high possibility that this is the visualization statistical information using the result of recognition processing similar to the recognition processing performed on the image captured by the camera this time. For this reason, the captured image that is the basis of the past visualized statistical information (for example, the past face detection total image 91) viewed by the user (similar to the visualized statistical information based on the current captured image of the camera) By referring to the condition setting parameters applied to (for example, the coordinates of each vertex of the detection frame (detection area) shown in FIG. 15) and entering the condition setting parameters for analyzing the captured image of the camera this time, A user such as an administrator of the system can easily input appropriate condition setting parameters (for example, the coordinates of each vertex of a human detection frame (detection area), etc.).

また、本実施形態の画像分析システム10によれば、今回の(設定対象となる)カメラの現在の撮影画像分析用の条件設定パラメータ(例えば、図10の(人の)設定検知枠85)を、今回のカメラの撮影画像に基づく可視化統計情報(例えば、図10の移動軌跡集計画像84)に重畳させて、パソコン9のディスプレイ50bに表示し、システムの運営管理者等のユーザが、表示された条件設定パラメータの調整入力を行うことができるようにした。これにより、ユーザが、今回のカメラの撮影画像に基づく可視化統計情報(移動軌跡集計画像84等)に重畳された、現在の条件設定パラメータ(設定検知枠85等)を見ながら、条件設定パラメータの調整入力を行うことができるので、今回のカメラについて、適切な条件設定パラメータを、容易に入力することができる。 Further, according to the image analysis system 10 of the present embodiment, the condition setting parameters (for example, the (human) setting detection frame 85 in FIG. 10) for analysis of the current photographed image of the current camera (to be set) are set to , is displayed on the display 50b of the personal computer 9 by superimposing it on the visualization statistical information (for example, the moving trajectory total image 84 in FIG. 10) based on the image captured by the camera this time, and the user such as the system operation manager is displayed. It is now possible to input the adjustment of the condition setting parameters. As a result, the user can set the condition setting parameters while looking at the current condition setting parameters (setting detection frame 85, etc.) superimposed on the visualization statistical information (moving trajectory total image 84, etc.) based on the image captured by the current camera. Since adjustment input can be performed, it is possible to easily input appropriate condition setting parameters for the current camera.

また、本実施形態の画像分析システム10、管理サーバ1、及びサーバ制御プログラム37によれば、図14に示すように、管理サーバ1のCPU31(の検出部42)が、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報(例えば、顔検出集計画像89)から求めた、人の移動方向に対応するベクトル92と、ハードディスク32に蓄積された過去の可視化統計情報(例えば、過去の顔検出集計画像91)から求めた、人の移動方向に対応するベクトル93とを比較して、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に類似した過去の可視化統計情報を検出するようにした。これにより、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報(顔検出集計画像89等)に類似した、過去の可視化統計情報(顔検出集計画像91等)を容易に検出することができる。 Further, according to the image analysis system 10, the management server 1, and the server control program 37 of the present embodiment, as shown in FIG. A vector 92 corresponding to the movement direction of a person obtained from visualization statistical information (for example, face detection total image 89) based on images captured by the camera, and past visualization statistical information accumulated in the hard disk 32 (for example, past face Compare the vector 93 corresponding to the moving direction of the person obtained from the detected total image 91) and detect the past visualization statistical information similar to the visualization statistical information based on the image captured by the camera to be set this time. I made it As a result, it is possible to easily detect past visualization statistical information (face detection aggregated image 91, etc.) similar to the visualization statistical information (face detection aggregated image 89, etc.) based on the captured image of the camera to be set this time. can.

また、本実施形態の画像分析システム10によれば、管理サーバ1のCPU31(の表示制御部44)が、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報(例えば、図16の顔検出集計画像89)と、ハードディスク32に蓄積された過去の複数の可視化統計情報(例えば、図16の顔検出集計画像96a~96i)とを、パソコン9のディスプレイ50b上に表示して、ユーザが、パソコン9のマウス等を用いて、ディスプレイ50b上に表示された過去の複数の可視化統計情報(例えば、顔検出集計画像96a~96i)の中から、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報(例えば、顔検出集計画像89)に最も類似した過去の可視化統計情報を選択することができるようにした。これにより、簡易な構成で、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に最も類似した過去の可視化統計情報を検索することが可能になる。 Further, according to the image analysis system 10 of the present embodiment, the CPU 31 (the display control unit 44 thereof) of the management server 1 outputs the visualization statistical information (for example, the face in FIG. Detected total image 89) and a plurality of past visualization statistical information accumulated in the hard disk 32 (for example, face detection total images 96a to 96i in FIG. 16) are displayed on the display 50b of the personal computer 9, and the user can , using the mouse or the like of the personal computer 9, from among a plurality of past visualized statistical information (for example, aggregated face detection images 96a to 96i) displayed on the display 50b, the image captured by the camera to be set this time. It is made possible to select the past visualization statistical information that is most similar to the visualization statistical information (for example, the face detection total image 89) based on. As a result, with a simple configuration, it is possible to search for the past visualization statistical information that is most similar to the visualization statistical information based on the captured image of the camera to be set this time.

また、本実施形態の画像分析システム10によれば、ユーザが、パソコン9の操作部50aを用いて調整した後の条件設定パラメータ(例えば、図10の(人の)設定検知枠85)を用いて、今回の設定対象となるカメラの撮影画像に対する分析をし直して(再分析をして)、再分析後の分析結果(例えば、図10のカウント結果表示欄83hの来店者カウント結果)をパソコン9のディスプレイ50bに表示するようにした。これにより、今回の設定対象となるカメラについて、条件設定パラメータの調整内容に応じた、(このカメラの撮影画像に対する)分析結果の相違をシミュレーションすることができる。従って、条件設定パラメータの調整入力により設定した条件設定(例えば、図10の設定検知枠85)の正確さを、ユーザが容易に確認することができる。 Further, according to the image analysis system 10 of the present embodiment, the user uses the condition setting parameters (for example, the (human) setting detection frame 85 in FIG. 10) after adjustment using the operation unit 50a of the personal computer 9. Then, the image captured by the camera to be set this time is analyzed again (re-analyzed), and the analysis result after re-analysis (for example, the visitor count result in the count result display column 83h in FIG. 10) is displayed. The information is displayed on the display 50b of the personal computer 9. As a result, it is possible to simulate the difference in the analysis result (for the captured image of this camera) in accordance with the adjustment details of the condition setting parameters for the camera that is the current setting target. Therefore, the user can easily check the accuracy of the condition setting (for example, the setting detection frame 85 in FIG. 10) set by adjusting and inputting the condition setting parameters.

変形例:
なお、本発明は、上記の各実施形態の構成に限られず、発明の趣旨を変更しない範囲で種々の変形が可能である。次に、本発明の変形例について説明する。
Variant:
The present invention is not limited to the configuration of each of the above embodiments, and various modifications are possible without changing the gist of the invention. Next, modified examples of the present invention will be described.

変形例1:
上記の実施形態では、条件設定パラメータのシミュレーション画面(例えば、図10の来店者カウント領域設定シミュレーション画面83)において、今回の設定対象となるカメラの現在の条件設定パラメータ(例えば、図10の設定検知枠85)を、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報(例えば、図10の移動軌跡集計画像84)に重畳させて、パソコン9のディスプレイ50bに表示するようにした。けれども、条件設定パラメータのシミュレーション画面において、(1)今回の設定対象となるカメラの現在の条件設定パラメータ(設定検知枠等)を、今回の設定対象となるカメラの所定の時間分の撮影画像(映像)に重畳させて、パソコンのディスプレイに表示するようにしてもよいし、(2)今回の設定対象となるカメラの現在の条件設定パラメータ(設定検知枠等)を、今回の設定対象となるカメラの所定の時間分の分析結果重畳映像(例えば、図8の分析結果重畳映像63)に重畳させて、パソコンのディスプレイに表示するようにしてもよい。
Variant 1:
In the above embodiment, the current condition setting parameters of the camera to be set this time (for example, the setting detection The frame 85) is superimposed on the visualized statistical information (for example, the moving trajectory total image 84 in FIG. 10) based on the captured image of the camera to be set this time, and displayed on the display 50b of the personal computer 9. However, on the condition setting parameter simulation screen, (1) the current condition setting parameters (setting detection frame, etc.) of the camera to be set this time are displayed in the image taken for a predetermined time of the camera to be set this time ( (2) The current condition setting parameters (setting detection frame, etc.) of the camera to be set this time may be superimposed on the image) and displayed on the display of the personal computer. It may be superimposed on the analysis result superimposed video for a predetermined time of the camera (for example, the analysis result superimposed video 63 in FIG. 8) and displayed on the display of the personal computer.

また、上記の実施形態では、条件設定パラメータのシミュレーション画面(例えば、図10の来店者カウント領域設定シミュレーション画面83)において、今回の設定対象となるカメラの現在の条件設定パラメータ(例えば、図10の設定検知枠85)を、今回の設定対象となるカメラの撮影画像に基づく移動軌跡集計画像84に重畳させて、パソコン9のディスプレイ50bに表示するようにした。しかしながら、条件設定パラメータのシミュレーション画面において、今回の設定対象となるカメラの現在の条件設定パラメータが重畳される可視化統計情報は、上記の移動軌跡集計画像に限らず、図13に示すような顔検出集計画像89であっても良いし、上記の性年齢認識集計画像(今回の設定対象となるカメラの所定の時間帯の撮影画像に含まれる各フレーム画像と、これらの各フレーム画像に対する性年齢認識結果とを重畳した各重畳画像を統計処理することにより生成したヒートマップ)であっても良い。 In the above embodiment, the current condition setting parameters of the camera to be set this time (for example, the The setting detection frame 85) is displayed on the display 50b of the personal computer 9 by superimposing it on the moving trajectory total image 84 based on the captured image of the camera to be set this time. However, in the condition setting parameter simulation screen, the visualization statistical information on which the current condition setting parameters of the camera to be set this time are superimposed is not limited to the above-described moving trajectory total image, and face detection as shown in FIG. It may be the total image 89, or the above-mentioned gender and age recognition total image (each frame image included in the image captured by the camera to be set this time in a predetermined time period, and the gender and age recognition for each frame image) It may be a heat map generated by statistically processing each superimposed image obtained by superimposing the results.

変形例2:
上記の実施形態では、図13乃至図16に示すように、ハードディスク32に蓄積された過去の顔検出集計画像の中から、今回の設定対象となるカメラの撮影画像に基づく顔検出集計画像89に類似した、過去の可視化統計情報を検出(検索)する場合の例を示した。けれども、ハードディスク32に蓄積された過去の移動軌跡集計画像の中から、今回の設定対象となるカメラの撮影画像に基づく移動軌跡集計画像(における移動軌跡のパターン)に類似したパターンの、過去の移動軌跡集計画像を検出(検索)するようにしても良いし、ハードディスク32に蓄積された過去の性年齢認識集計画像(におけるヒートマップのパターン)に類似したパターンの、過去の性年齢認識集計画像を検出(検索)するようにしても良い。
Modification 2:
In the above embodiment, as shown in FIGS. 13 to 16, the face detection total image 89 based on the image captured by the camera to be set this time is selected from the past face detection total images accumulated in the hard disk 32. An example of detecting (retrieving) similar past visualization statistics is shown. However, among the past movement trajectory aggregated images accumulated in the hard disk 32, past movements of a pattern similar to (the movement trajectory pattern in) the movement trajectory aggregated image based on the image captured by the camera to be set this time The trajectory total image may be detected (searched), or the past sex and age recognition total image of a pattern similar to (the heat map pattern in) the past sex and age recognition total image accumulated in the hard disk 32 is searched. It may be detected (searched).

変形例3:
上記の実施形態では、請求項における「撮影画像分析用の条件設定パラメータ」が、(人の)検知枠(又は、検知枠の各頂点の座標)である場合の例を示したが、本発明における(撮影画像分析用の)条件設定パラメータは、これに限られず、例えば、撮影画像に対する物体検出又は物体認識(例えば、人検出や、人の顔検出)の信頼度であっても良い。例えば、条件設定パラメータを人検出の信頼度とすることにより、この信頼度を調整することで、クラウドC側の管理サーバ1に送る分析データ(図7中の映像メタデータ74に相当)の量(分析データの範囲)を調整することができる。
Variant 3:
In the above embodiment, an example is shown in which the "condition setting parameters for photographed image analysis" in the claims are the (human) detection frame (or the coordinates of each vertex of the detection frame). The condition setting parameter (for photographed image analysis) in is not limited to this, and may be, for example, the reliability of object detection or object recognition (for example, human detection or human face detection) for the photographed image. For example, by setting the condition setting parameter to the reliability of human detection, by adjusting this reliability, the amount of analysis data (corresponding to the video metadata 74 in FIG. 7) sent to the management server 1 on the cloud C side (range of analysis data) can be adjusted.

変形例4:
上記の実施形態では、画像分析システム10が、クラウドC上に、管理サーバ1のみを備える場合の例を示したが、画像分析システムの構成はこれに限られず、例えば、画像分析システムが、クラウド上に、管理サーバに加えて、AI分析サーバを備えるようにしても良い。AI分析サーバは、例えば、分析ボックスやサイネージからの物体認識結果に基づいて、各店舗内における人物の行動を分析し、分析結果の情報を、マーケティングや防犯等の種々の用途のアプリケーションが使い易いデータに変換して出力する役割を果たす。また、画像分析システムが、クラウド上に、固定カメラと分析ボックスの管理用の管理サーバと、サイネージの管理用のサイネージ管理サーバとを備えるようにしても良い。
Variant 4:
In the above embodiment, an example in which the image analysis system 10 includes only the management server 1 on the cloud C is shown, but the configuration of the image analysis system is not limited to this. Additionally, an AI analysis server may be provided in addition to the management server. The AI analysis server, for example, analyzes the behavior of people in each store based on the object recognition results from analysis boxes and signage, and the information of the analysis results can be easily used by applications for various purposes such as marketing and crime prevention. Plays the role of converting to data and outputting it. Also, the image analysis system may include a management server for managing fixed cameras and analysis boxes, and a signage management server for managing signage on the cloud.

変形例5:
上記の実施形態では、画像分析システム10が、店舗S内に、固定カメラ2及び分析ボックス3と、サイネージ5とを備える場合の例を示したが、画像分析システムは、店舗内に、固定カメラ及び分析ボックスのみを備え、サイネージを備えていなくても良いし、店舗内に、サイネージのみを備え、固定カメラ及び分析ボックスを備えていなくても良い。
Variant 5:
In the above embodiment, an example in which the image analysis system 10 includes the fixed camera 2, the analysis box 3, and the signage 5 in the store S is shown. And the analysis box may be provided without the signage, or the store may be provided with the signage only without the fixed camera and the analysis box.

変形例6:
上記の実施形態では、管理サーバ1のCPU31が、可視化統計情報生成部41を備える場合の例を示したが、分析ボックス及びサイネージが、可視化統計情報生成部を備えて、可視化統計情報を生成するようにしても良い。
Modification 6:
In the above embodiment, an example in which the CPU 31 of the management server 1 includes the visualization statistical information generation unit 41 is shown, but the analysis box and the signage include the visualization statistical information generation unit to generate visualization statistical information. You can do it.

また、上記の実施形態では、請求項における表示手段が、パソコン9のディスプレイ50bであり、請求項における選択入力手段及び調整入力手段が、主に、パソコン9の操作部50aである場合の例を示したが、請求項における表示手段が、管理サーバのディスプレイであり、請求項における選択入力手段及び調整入力手段が、管理サーバの操作部35であっても良い。 In the above embodiment, the display means in the claims is the display 50b of the personal computer 9, and the selection input means and the adjustment input means in the claims are mainly the operation unit 50a of the personal computer 9. However, the display means in the claims may be the display of the management server, and the selection input means and the adjustment input means in the claims may be the operation unit 35 of the management server.

1 管理サーバ(サーバ)
2 固定カメラ(エッジ側のカメラの一部)
3 分析ボックス(エッジ側の画像分析装置の一部)
4 内蔵カメラ(エッジ側のカメラの一部)
5 サイネージ(エッジ側の画像分析装置の一部)
10 画像分析システム(パラメータ閲覧システム、パラメータ調整システム)
32 ハードディスク(統計情報蓄積手段)
36 通信部(受信手段)
37 サーバ制御プログラム
41 可視化統計情報生成部(可視化統計情報生成手段)
42 検出部(検出手段)
43 パラメータ出力部(パラメータ出力手段)
44 表示制御部(表示制御手段)
45 パラメータ表示制御部(パラメータ表示制御手段)
46 再分析部(再分析手段)
47 再分析結果表示制御部(再分析結果表示制御手段)
48 可視化統計情報
49 条件設定パラメータ
50a 操作部(調整入力手段、選択入力手段)
50b ディスプレイ(表示手段)
92 ベクトル(今回の設定対象となるカメラの撮影画像に基づく可視化統計情報から求めた、人の移動方向に対応するベクトル)
93 ベクトル(過去の可視化統計情報から求めた、人の移動方向に対応するベクトル)
1 Management server (server)
2 fixed camera (part of the camera on the edge side)
3 analysis box (part of the image analysis device on the edge side)
4 Built-in camera (part of the camera on the edge side)
5 Signage (part of image analysis equipment on the edge side)
10 Image analysis system (parameter viewing system, parameter adjustment system)
32 hard disk (statistical information storage means)
36 communication unit (receiving means)
37 Server control program 41 Visualization statistical information generation unit (visualization statistical information generation means)
42 detection unit (detection means)
43 Parameter output unit (parameter output means)
44 display control unit (display control means)
45 Parameter display control unit (parameter display control means)
46 Re-analysis department (re-analysis means)
47 reanalysis result display control unit (reanalysis result display control means)
48 visualization statistical information 49 condition setting parameters 50a operation unit (adjustment input means, selection input means)
50b display (display means)
92 vector (vector corresponding to the direction of movement of a person, obtained from the visualization statistical information based on the image captured by the camera to be set this time)
93 vector (vector corresponding to the direction of movement of people, obtained from past visualization statistics)

Claims (9)

表示手段と、
エッジ側のカメラの撮影画像と、エッジ側の画像分析装置が前記撮影画像に含まれるフレーム画像に対する認識処理をした結果とを重畳した重畳映像を統計処理して、可視化統計情報を生成する可視化統計情報生成手段と、
前記可視化統計情報生成手段により生成した可視化統計情報を蓄積する統計情報蓄積手段と、
前記統計情報蓄積手段に蓄積された過去の可視化統計情報の中から、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に類似した、過去の可視化統計情報を検出する検出手段と、
前記検出手段により検出した過去の可視化統計情報の元になった過去の撮影画像に適用された、撮影画像分析用の条件設定パラメータを含む画面を、前記表示手段に出力するパラメータ出力手段と
を備えるパラメータ閲覧システム。
display means;
Visualization statistics for generating visualization statistical information by statistically processing a superimposed video obtained by superimposing an image captured by an edge-side camera and a result of recognition processing performed on a frame image included in the captured image by an image analysis device on the edge side. an information generating means;
statistical information accumulation means for accumulating visualization statistical information generated by the visualization statistical information generating means;
a detection means for detecting past visualization statistical information similar to the visualization statistical information based on the captured image of the camera to be set this time, from the past visualization statistical information accumulated in the statistical information accumulation means;
parameter output means for outputting, to the display means, a screen including condition setting parameters for analysis of the captured image applied to the past captured image based on the past visualization statistical information detected by the detection means; Parameter viewing system.
前記検出手段は、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報から求めた、人の移動方向に対応するベクトルと、前記統計情報蓄積手段に蓄積された過去の可視化統計情報から求めた、人の移動方向に対応するベクトルとを比較して、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に類似した過去の可視化統計情報を検出することを特徴とする請求項1に記載のパラメータ閲覧システム。 The detection means obtains from the vector corresponding to the moving direction of the person obtained from the visualization statistical information based on the image captured by the camera to be set this time, and the past visualization statistical information accumulated in the statistical information accumulation means. Further, past visualization statistical information similar to the visualization statistical information based on the captured image of the camera to be set this time is detected by comparing with the vector corresponding to the moving direction of the person. The parameter viewing system described in . 前記検出手段は、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報と、前記統計情報蓄積手段に蓄積された過去の複数の可視化統計情報とを、前記表示手段上に表示するように制御する表示制御手段を含み、
前記パラメータ閲覧システムは、前記表示手段上に表示された過去の複数の可視化統計情報の中から、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に最も類似した過去の可視化統計情報を選択するための選択入力手段をさらに備えることを特徴とする請求項1に記載のパラメータ閲覧システム。
The detection means displays, on the display means, the visualization statistical information based on the captured image of the camera to be set this time and a plurality of past visualization statistical information accumulated in the statistical information accumulation means. including display control means for controlling,
The parameter browsing system selects the past visualization statistical information most similar to the visualization statistical information based on the image captured by the camera to be set this time from among the plurality of past visualization statistical information displayed on the display means. 2. The parameter viewing system according to claim 1, further comprising selection input means for selection.
表示手段と、
今回の設定対象となるカメラの撮影画像を受信する受信手段と、
今回の設定対象となるカメラの現在の撮影画像分析用の条件設定パラメータを、前記今回の設定対象となるカメラの撮影画像を含む画像、又は前記今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に重畳させて、前記表示手段に表示するように制御するパラメータ表示制御手段と、
前記表示手段に表示された前記条件設定パラメータの調整入力を行うための調整入力手段と
を備えるパラメータ調整システム。
display means;
Receiving means for receiving an image captured by a camera to be set this time;
Visualization of the condition setting parameters for analysis of the current shot image of the camera to be set this time, based on the image including the image shot by the camera to be set this time, or the image shot by the camera to be set this time parameter display control means for superimposing statistical information and displaying it on the display means;
and an adjustment input means for performing adjustment input of the condition setting parameters displayed on the display means.
前記調整入力手段による調整後の前記条件設定パラメータを用いて、前記受信手段により受信した、前記今回の設定対象となるカメラの撮影画像に対する分析をし直す再分析手段と、
前記再分析手段による分析結果を前記表示手段に表示するように制御する再分析結果表示制御手段とをさらに備えることを特徴とする請求項4に記載のパラメータ調整システム。
re-analyzing means for re-analyzing the captured image of the current setting target camera received by the receiving means, using the condition setting parameters adjusted by the adjustment input means;
5. The parameter adjustment system according to claim 4, further comprising re-analysis result display control means for controlling display of the analysis result by said re-analysis means on said display means.
エッジ側のカメラの撮影画像と、エッジ側の画像分析装置が前記撮影画像に含まれるフレーム画像に対する認識処理をした結果とを重畳した重畳映像を統計処理して、可視化統計情報を生成する可視化統計情報生成手段と、
前記可視化統計情報生成手段により生成した可視化統計情報を蓄積する統計情報蓄積手段と、
前記統計情報蓄積手段に蓄積された過去の可視化統計情報の中から、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に類似した、過去の可視化統計情報を検出する検出手段と、
前記検出手段により検出した過去の可視化統計情報の元になった過去の撮影画像に適用された、撮影画像分析用の条件設定パラメータを含む画面を、表示手段に出力するパラメータ出力手段と
を備えるサーバ。
Visualization statistics for generating visualization statistical information by statistically processing a superimposed video obtained by superimposing an image captured by an edge-side camera and a result of recognition processing performed on a frame image included in the captured image by an image analysis device on the edge side. an information generating means;
statistical information accumulation means for accumulating visualization statistical information generated by the visualization statistical information generating means;
a detection means for detecting past visualization statistical information similar to the visualization statistical information based on the captured image of the camera to be set this time, from the past visualization statistical information accumulated in the statistical information accumulation means;
A server comprising parameter output means for outputting, to a display means, a screen including condition setting parameters for analysis of a captured image applied to a past captured image based on past visualization statistical information detected by the detection means. .
前記検出手段は、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報から求めた、人の移動方向に対応するベクトルと、前記統計情報蓄積手段に蓄積された過去の可視化統計情報から求めた、人の移動方向に対応するベクトルとを比較して、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に類似した過去の可視化統計情報を検出することを特徴とする請求項6に記載のサーバ。 The detection means obtains from the vector corresponding to the moving direction of the person obtained from the visualization statistical information based on the image captured by the camera to be set this time, and the past visualization statistical information accumulated in the statistical information accumulation means. Further, past visualization statistical information similar to the visualization statistical information based on the captured image of the camera to be set this time is detected by comparing with the vector corresponding to the moving direction of the person. server described in . 今回の設定対象となるカメラの撮影画像に適した撮影画像分析用の条件設定パラメータを見つけるための処理を行うように、サーバを制御するサーバ制御プログラムであって、
前記サーバを、
エッジ側のカメラの撮影画像と、エッジ側の画像分析装置が前記撮影画像に含まれるフレーム画像に対する認識処理をした結果とを重畳した重畳映像を統計処理して、可視化統計情報を生成する可視化統計情報生成手段と、
前記可視化統計情報生成手段により生成した可視化統計情報を蓄積する統計情報蓄積手段と、
前記統計情報蓄積手段に蓄積された過去の可視化統計情報の中から、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に類似した、過去の可視化統計情報を検出する検出手段と、
前記検出手段により検出した過去の可視化統計情報の元になった過去の撮影画像に適用された、撮影画像分析用の条件設定パラメータを含む画面を、表示手段に出力するパラメータ出力手段として機能させるためのサーバ制御プログラム。
A server control program for controlling a server so as to perform processing for finding condition setting parameters for photographed image analysis suitable for the photographed image of a camera to be set this time,
the server,
Visualization statistics for generating visualization statistical information by statistically processing a superimposed video obtained by superimposing an image captured by an edge-side camera and a result of recognition processing performed on a frame image included in the captured image by an image analysis device on the edge side. an information generating means;
statistical information accumulation means for accumulating visualization statistical information generated by the visualization statistical information generating means;
a detection means for detecting past visualization statistical information similar to the visualization statistical information based on the captured image of the camera to be set this time, from the past visualization statistical information accumulated in the statistical information accumulation means;
To function as a parameter output means for outputting to a display means a screen including condition setting parameters for analyzing a captured image applied to a past captured image based on past visualization statistical information detected by the detection means. server control program.
前記検出手段は、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報から求めた、人の移動方向に対応するベクトルと、前記統計情報蓄積手段に蓄積された過去の可視化統計情報から求めた、人の移動方向に対応するベクトルとを比較して、今回の設定対象となるカメラの撮影画像に基づく可視化統計情報に類似した過去の可視化統計情報を検出することを特徴とする請求項8に記載のサーバ制御プログラム。 The detection means obtains from the vector corresponding to the moving direction of the person obtained from the visualization statistical information based on the image captured by the camera to be set this time, and the past visualization statistical information accumulated in the statistical information accumulation means. Further, past visualization statistical information similar to the visualization statistical information based on the captured image of the camera to be set this time is detected by comparing with the vector corresponding to the moving direction of the person. server control program described in .
JP2021146640A 2021-09-09 2021-09-09 Parameter browsing system, parameter adjusting system, server, and server control program Pending JP2023039504A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021146640A JP2023039504A (en) 2021-09-09 2021-09-09 Parameter browsing system, parameter adjusting system, server, and server control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021146640A JP2023039504A (en) 2021-09-09 2021-09-09 Parameter browsing system, parameter adjusting system, server, and server control program

Publications (1)

Publication Number Publication Date
JP2023039504A true JP2023039504A (en) 2023-03-22

Family

ID=85613877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021146640A Pending JP2023039504A (en) 2021-09-09 2021-09-09 Parameter browsing system, parameter adjusting system, server, and server control program

Country Status (1)

Country Link
JP (1) JP2023039504A (en)

Similar Documents

Publication Publication Date Title
US10140553B1 (en) Machine learning artificial intelligence system for identifying vehicles
US10965913B2 (en) Monitoring apparatus, monitoring system and monitoring method
JP7038744B2 (en) Face image retrieval methods and systems, imaging devices, and computer storage media
US9202112B1 (en) Monitoring device, monitoring system, and monitoring method
US7944454B2 (en) System and method for user monitoring interface of 3-D video streams from multiple cameras
US9141184B2 (en) Person detection system
US7787011B2 (en) System and method for analyzing and monitoring 3-D video streams from multiple cameras
JP7036493B2 (en) Monitoring method and equipment
US10235574B2 (en) Image-capturing device, recording device, and video output control device
JP6624852B2 (en) Image information generation device, image information generation method, image processing system, and program
US20130050496A1 (en) Security monitoring method and apparatus using augmented reality
US9842268B1 (en) Determining regions of interest based on user interaction
US9213919B2 (en) Category histogram image representation
US20150049170A1 (en) Method and apparatus for virtual 3d model generation and navigation using opportunistically captured images
CN106663196A (en) Computerized prominent person recognition in videos
US20170255947A1 (en) Image processing system and image processing method
US11720627B2 (en) Systems and methods for efficiently sending video metadata
US11669580B2 (en) Methods and systems for providing an augmented reality interface for saving information for recognized objects
CN110263830B (en) Image processing method, device and system and storage medium
WO2018210039A1 (en) Data processing method, data processing device, and storage medium
CN108369647B (en) Image-based quality control
US20230205817A1 (en) Systems and methods for identifying events within video content using intelligent search query
US20150015717A1 (en) Insight-driven augmented auto-coordination of multiple video streams for centralized processors
JP2023039504A (en) Parameter browsing system, parameter adjusting system, server, and server control program
Bouma et al. WPSS: Watching people security services