JP2017017488A - Monitoring system, imaging control method, and program - Google Patents

Monitoring system, imaging control method, and program Download PDF

Info

Publication number
JP2017017488A
JP2017017488A JP2015131510A JP2015131510A JP2017017488A JP 2017017488 A JP2017017488 A JP 2017017488A JP 2015131510 A JP2015131510 A JP 2015131510A JP 2015131510 A JP2015131510 A JP 2015131510A JP 2017017488 A JP2017017488 A JP 2017017488A
Authority
JP
Japan
Prior art keywords
moving body
imaging
priority
target moving
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015131510A
Other languages
Japanese (ja)
Inventor
邦彦 三好
Kunihiko Miyoshi
邦彦 三好
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015131510A priority Critical patent/JP2017017488A/en
Publication of JP2017017488A publication Critical patent/JP2017017488A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To appropriately associate traffic line with a movable body without requiring a troublesome work, while preventing a monitoring system from being lowered.SOLUTION: The present invention comprises: first imaging means for imaging a plurality of movable bodies corresponding to each of the plurality of traffic lines to be monitored; characteristic amount extraction means for extracting the characteristic amount of an object movable body to be processed, on the basis of the captured image obtained by the first imaging means; estimation means for estimating the identification degree of individual identification of the object movable body, on the basis of the characteristic amount of the object movable body; priority calculation means for calculating the priority in imaging the object movable body by the second imaging means, on the basis of the identification level; and transmission means for transmitting an imaging instruction of the object movable body with which the priority is associated, to the second imaging means.SELECTED DRAWING: Figure 3

Description

本発明は、監視システム、撮影制御方法及びプログラムに関する。   The present invention relates to a monitoring system, a photographing control method, and a program.

従来、監視カメラに代表される監視システムは、監視領域における迷子検知、不審者検出等、防犯、治安維持のために用いられてきた。一方近年、監視記録を詳細に分析することによって、店舗内における人物の消費行動の分析に応用する等、多目的に活用する監視システムが普及してきている。このような高度な分析に必要な情報(人物行動や車両行動等)を収集・分析するために、複数の監視カメラやセンサを連携させたシステムが知られている。また、人物や車両等の移動軌跡を詳細に追跡して分析を行う動線追跡技術を利用したシステムも知られている。   Conventionally, surveillance systems represented by surveillance cameras have been used for crime prevention and security maintenance, such as detection of lost children and detection of suspicious persons in the surveillance area. On the other hand, in recent years, monitoring systems that are used for multiple purposes have become widespread, for example, by analyzing monitoring records in detail and applying it to the analysis of human consumption behavior in stores. In order to collect and analyze information (personal behavior, vehicle behavior, etc.) necessary for such advanced analysis, a system in which a plurality of surveillance cameras and sensors are linked is known. In addition, a system using a flow line tracking technique for performing detailed analysis of a movement trajectory of a person or a vehicle is also known.

複数カメラを連携させる技術として、特許文献1には、複数のカメラにより得られた複数の撮像画像を収集した上で、各カメラの視野の重複量から各カメラに対して移動を促すフィードバックを行う技術が開示されている。こうすることで、監視領域の死角を減少させることができる。また、人物や車両等の動線追跡技術として、特許文献2には、複数カメラを連携させた上で監視領域内を俯瞰した人物の動線情報を構築するとともに、望遠・拡大撮影した各個人の詳細な顔画像を動線と紐付けて記憶する技術が開示されている。   As a technique for linking a plurality of cameras, Patent Document 1 collects a plurality of captured images obtained by a plurality of cameras, and performs feedback for urging each camera to move based on the overlapping amount of the visual field of each camera. Technology is disclosed. In this way, the blind spot in the monitoring area can be reduced. In addition, as a flow tracking technique for a person, a vehicle, etc., Patent Document 2 describes the flow line information of a person who looks down on the surveillance area after linking a plurality of cameras, as well as each individual who has taken a telephoto / enlarged image. A technique for storing a detailed face image associated with a flow line is disclosed.

特開2011−114580号公報JP 2011-114580 A 特許第4585580号公報Japanese Patent No. 4585580

動線を追跡する技術において、人物等の移動体の向き、ぶれや隠れに起因し、移動体の個別識別(例えば顔画像による個人認証)が困難な場合には、動線と、移動体とを紐付けることができない。これに対し、個別識別できない移動体にカメラを向けることにより、適切な撮影画像を得て、紐付けを行うことは可能である。しかしながら、すべての移動体に対し、もれなくカメラを向けることにより、紐付けを行うのは難しく、また手間のかかる作業となってしまう。
本発明はこのような問題点に鑑みなされたもので、監視制度の低下を防ぎつつ、面倒な作業を要することなく、動線と移動体の紐付けを適切に行うことを目的とする。
In the technology for tracking the flow line, if it is difficult to identify the mobile object (for example, personal authentication using a face image) due to the orientation, blurring, or hiding of the mobile object such as a person, Cannot be linked. On the other hand, it is possible to obtain an appropriate photographed image and link it by directing the camera to a moving body that cannot be individually identified. However, it is difficult to perform the tying by directing the camera to all the moving bodies, and it becomes a troublesome work.
The present invention has been made in view of such problems, and an object of the present invention is to appropriately associate a flow line and a moving body without requiring troublesome work while preventing a deterioration of a monitoring system.

そこで、本発明は、監視システムであって、監視対象の複数の動線それぞれに対応する複数の移動体を撮影する第1の撮影手段と、前記第1の撮影手段により得られた撮影画像に基づいて、処理対象となる対象移動体の特徴量を抽出する特徴量抽出手段と、前記対象移動体の前記特徴量に基づく、前記対象移動体の個別識別の識別度を推定する推定手段と、前記識別度に基づいて、前記対象移動体の第2の撮影手段による撮影の優先度を算出する優先度算出手段と、前記優先度を対応付けた前記対象移動体の撮影指示を前記第2の撮影手段に送信する送信手段とを有することを特徴とする。   Therefore, the present invention is a monitoring system, and includes a first imaging unit that images a plurality of moving bodies corresponding to a plurality of flow lines to be monitored, and a captured image obtained by the first imaging unit. A feature amount extraction unit that extracts a feature amount of a target mobile object to be processed, an estimation unit that estimates the degree of individual identification of the target mobile body based on the feature amount of the target mobile body, and Priority calculation means for calculating the priority of shooting by the second shooting means of the target moving body based on the degree of identification, and a shooting instruction for the target moving body in association with the priority. Transmission means for transmitting to the photographing means.

本発明によれば、監視制度の低下を防ぎつつ、面倒な作業を要することなく、動線と移動体の紐付けを適切に行うことができる。   ADVANTAGE OF THE INVENTION According to this invention, a flow line and a mobile body can be appropriately linked | related, without requiring a troublesome operation | work, preventing the fall of a monitoring system.

監視システムの概要を示す図である。It is a figure which shows the outline | summary of a monitoring system. 監視サーバ装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the monitoring server apparatus. 監視サーバ装置のソフトウェア構成を示す図である。It is a figure which shows the software structure of the monitoring server apparatus. 外部記憶部のデータを示す図である。It is a figure which shows the data of an external storage part. 外部記憶部のデータを示す図である。It is a figure which shows the data of an external storage part. 外部記憶部のデータを示す図である。It is a figure which shows the data of an external storage part. 表示画面を示す図である。It is a figure which shows a display screen. 撮影制御処理を示すフローチャートである。It is a flowchart which shows imaging | photography control processing. 第2の実施形態に係る撮影制御処理を示すフローチャートである。10 is a flowchart illustrating a shooting control process according to the second embodiment.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は、本実施形態に係る監視システムの概要を示す図である。監視サーバ装置101は通信回線102を介して監視カメラ装置103と接続され、監視空間104を監視している。監視カメラ装置103としては、具体的には、固定式監視カメラのほか、画角や向きの変更が可能なカメラ、雲台が移動可能なカメラが考えられる。
(First embodiment)
FIG. 1 is a diagram showing an overview of a monitoring system according to the present embodiment. The monitoring server device 101 is connected to the monitoring camera device 103 via the communication line 102 and monitors the monitoring space 104. Specifically, as the monitoring camera device 103, in addition to a fixed monitoring camera, a camera capable of changing the angle of view and orientation, and a camera capable of moving a pan head can be considered.

監視空間104には人物105が一人、または複数人通行している。監視カメラ装置103は、移動体の一例としての人物105を画像記録する他、動線計測や、監視対象となる人物の特徴量計測を行う。具体的には、監視カメラ装置103は、人物105それぞれを個体検知し、その移動軌跡を動線データ106として記録する。また、監視カメラ装置103は、特徴量計測としては、人物105の顔画像の撮影を行い、顔画像107を生成した上で、顔の特徴量を計測し、数値化する。監視カメラ装置103は、動線データや特徴量等の計測データを、監視カメラ装置103の設置位置情報、撮影方向、撮影画角と共に通信回線102を介して監視サーバ装置101に送信する。なお、顔の特徴量の数値化は監視サーバ装置101で代行してもよい。   One or more persons 105 pass through the monitoring space 104. The surveillance camera device 103 records an image of a person 105 as an example of a moving object, and performs flow line measurement and feature quantity measurement of a person to be monitored. Specifically, the surveillance camera device 103 individually detects each person 105 and records the movement trajectory as the flow line data 106. Further, as the feature amount measurement, the monitoring camera device 103 shoots a face image of the person 105 and generates a face image 107, and then measures and digitizes the face feature amount. The monitoring camera device 103 transmits measurement data such as flow line data and feature quantities to the monitoring server device 101 via the communication line 102 together with the installation position information, shooting direction, and shooting angle of view of the monitoring camera device 103. The monitoring server device 101 may perform the digitization of the facial feature amount.

一方で監視サーバ装置101は、無線通信装置108を介して警備員や店舗関係者が装着するウェアラブルデバイス109と接続する。ウェアラブルデバイス109は、頭部への装着式デバイスの他、タブレット型デバイス、携帯電話型デバイス等様々な形態が考えられる。ウェアラブルデバイス109は、撮影機能を有し、移動式監視カメラ装置の役割を担う。ウェアラブルデバイス109は、人物105と同じ視点で監視空間104を監視する。ウェアラブルデバイス109は、必要に応じて人物105の動線データ106又は顔画像110を記録し、無線通信装置108を介して監視サーバ装置101に送信する。なお、ウェアラブルデバイス109は必要に応じて複数台存在してもよい。   On the other hand, the monitoring server device 101 is connected via a wireless communication device 108 to a wearable device 109 worn by a security guard or a store official. The wearable device 109 may be in various forms such as a tablet-type device and a mobile phone-type device in addition to a wearable device on the head. The wearable device 109 has a photographing function and plays the role of a mobile surveillance camera device. The wearable device 109 monitors the monitoring space 104 from the same viewpoint as the person 105. The wearable device 109 records the flow line data 106 or the face image 110 of the person 105 as necessary, and transmits it to the monitoring server apparatus 101 via the wireless communication apparatus 108. Note that a plurality of wearable devices 109 may exist as necessary.

図2は、本実施形態の監視サーバ装置101のハードウェア構成を示す図である。演算部201は、情報処理のための演算、論理判断等を行う。演算部201は、システムバス206を介して、システムバス206に接続された各構成要素を制御する。表示部202は、画像情報の表示を制御するコントローラ及び液晶パネル、プロジェクタ等の出力装置である。   FIG. 2 is a diagram illustrating a hardware configuration of the monitoring server apparatus 101 according to the present embodiment. The calculation unit 201 performs calculation for processing information, logical determination, and the like. The arithmetic unit 201 controls each component connected to the system bus 206 via the system bus 206. A display unit 202 is a controller that controls display of image information, and an output device such as a liquid crystal panel and a projector.

通信部205は、LAN,3G,4G,Bluetooth(登録商標)、RFID(Radio Frequency IDentification)技術等に代表されるネットワークコントローラ等である。通信部205は、他の装置との接続を制御する外部通信手段である。なお、同様の目的を達成できる通信方式であればよく、具体例に限らない。   The communication unit 205 is a network controller represented by LAN, 3G, 4G, Bluetooth (registered trademark), RFID (Radio Frequency IDentification) technology, or the like. The communication unit 205 is an external communication unit that controls connection with other devices. Note that the communication method is not limited to a specific example as long as it can achieve the same purpose.

RAM(Random Access Memory)207は、各構成要素からの各種データの一時記憶に用いられる。外部記憶部208は、フラッシュメモリ、HDD、光学ディスク等の物理媒体を用い、本実施形態で実行される処理プログラム等の制御プログラムコードの他、各種設定データ、画像データ等を記憶する。各構成要素からなる監視サーバ装置101は、UI部204からの各種の入力及び通信部205から供給されるネットワーク経由の各種入力に応じて作動する。すなわち、UI部204からの入力及び通信部205からの入力が供給されると、まず、インタラプト信号が演算部201に送られる。そして、その演算部201が外部記憶部208に記憶してある各種の制御信号を読出し、それらの制御信号に従って、各種の制御が行われる。   A RAM (Random Access Memory) 207 is used for temporary storage of various data from each component. The external storage unit 208 uses a physical medium such as a flash memory, HDD, or optical disk, and stores various setting data, image data, and the like in addition to control program codes such as processing programs executed in the present embodiment. The monitoring server device 101 including each component operates in response to various inputs from the UI unit 204 and various inputs via the network supplied from the communication unit 205. That is, when an input from the UI unit 204 and an input from the communication unit 205 are supplied, an interrupt signal is first sent to the arithmetic unit 201. Then, the arithmetic unit 201 reads various control signals stored in the external storage unit 208, and various controls are performed according to the control signals.

後述する監視サーバ装置101の機能や処理は、演算部201が外部記憶部208に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。なお、監視カメラ装置103のハードウェア構成は、監視サーバ装置101のハードウェア構成とほぼ同様である。   Functions and processes of the monitoring server device 101 described later are realized by the calculation unit 201 reading a program stored in the external storage unit 208 and executing the program. Note that the hardware configuration of the monitoring camera device 103 is substantially the same as the hardware configuration of the monitoring server device 101.

監視サーバ装置101の演算部201はまた、通信部205を介して監視カメラ装置103に指示を出すことにより、監視カメラ装置103による文書や人物の行動の撮影を制御する。文書や人物の行動を撮影する。文書の種類としては、単票や冊子等の物理媒体文書の他、タブレットデバイス等に表示される電子デバイス表示文書等が考えられる。UI部204は、ボタン、タッチパネル、キーボード、マウス等であり、ユーザからの指示が入力される。   The computing unit 201 of the monitoring server apparatus 101 also controls the photographing of a document or a person's action by the monitoring camera apparatus 103 by issuing an instruction to the monitoring camera apparatus 103 via the communication unit 205. Capture the behavior of a document or person. Examples of the document type include physical device documents such as single sheets and booklets, electronic device display documents displayed on tablet devices, and the like. The UI unit 204 is a button, a touch panel, a keyboard, a mouse, or the like, and receives an instruction from the user.

図3は、監視サーバ装置101のソフトウェア構成を示す図である。監視サーバ装置101は、撮影処理部301と、特徴量抽出部302と、識別度推定部303と、追加判定部304と、優先度算出部305と、テーブル管理部306と、通信処理部307とを有している。撮影処理部301は、監視カメラ装置103による撮影を制御する。特徴量抽出部302は、監視カメラ装置103により撮影された撮影画像に含まれる監視対象の人物の顔画像を特定し、顔画像の特徴量を抽出する。識別度推定部303は、特徴量に対する識別度を推定する。ここで識別度とは、特徴量に基づいて、人物の個別識別を行えるか否かを示す指標である。なお、特徴量及び識別度については後に詳述する。   FIG. 3 is a diagram illustrating a software configuration of the monitoring server apparatus 101. The monitoring server apparatus 101 includes an imaging processing unit 301, a feature amount extraction unit 302, an identification degree estimation unit 303, an addition determination unit 304, a priority calculation unit 305, a table management unit 306, and a communication processing unit 307. have. The imaging processing unit 301 controls imaging by the monitoring camera device 103. The feature amount extraction unit 302 identifies the face image of the person to be monitored included in the captured image captured by the monitoring camera device 103, and extracts the feature amount of the face image. The discrimination level estimation unit 303 estimates the discrimination level for the feature amount. Here, the degree of identification is an index indicating whether or not individual identification of a person can be performed based on a feature amount. The feature amount and the degree of identification will be described in detail later.

追加判定部304は、識別度に基づいて、再撮影が必要か否かを判定する。優先度算出部305は、識別度とウェアラブルデバイス109と監視対象の人物の間の距離とに基づいて、監視対象の人物に対する撮影の優先度を算出する。テーブル管理部306は、外部記憶部208に記憶されている各種テーブルを管理する。通信処理部307は、ウェアラブルデバイス109等の外部装置との通信を制御する。   The addition determination unit 304 determines whether or not re-shooting is necessary based on the degree of identification. The priority calculation unit 305 calculates the shooting priority for the monitoring target person based on the identification level and the distance between the wearable device 109 and the monitoring target person. The table management unit 306 manages various tables stored in the external storage unit 208. The communication processing unit 307 controls communication with an external device such as the wearable device 109.

図4(a)は、監視サーバ装置101の外部記憶部208に格納されている動線テーブル401を示す図である。また、図4(b)は、監視サーバ装置101の外部記憶部208に格納されている動線座標テーブル402を示す図である。監視サーバ装置101は、動線データ106として、動線テーブル401及び動線座標テーブル402を格納する。動線テーブル401には、一定長の軌跡に1対1対応する動線IDが登録される。また、動線座標テーブル402には、動線テーブル401で定義された動線IDについて、計測された計測装置、計測時刻、座標、速度、方向等が登録される。なお座標及び速度については、複数の撮影機器による計測結果を統一して管理するため、撮影位置、撮影画角等の事前情報を用い、座標変換されたものを用いる。   FIG. 4A is a diagram showing a flow line table 401 stored in the external storage unit 208 of the monitoring server apparatus 101. FIG. 4B is a diagram showing a flow line coordinate table 402 stored in the external storage unit 208 of the monitoring server apparatus 101. The monitoring server apparatus 101 stores a flow line table 401 and a flow line coordinate table 402 as the flow line data 106. In the flow line table 401, a flow line ID corresponding one-to-one with a fixed-length trajectory is registered. In the flow line coordinate table 402, the measurement device, measurement time, coordinates, speed, direction, and the like measured for the flow line ID defined in the flow line table 401 are registered. The coordinates and speed are coordinate-transformed using prior information such as the shooting position and the shooting angle of view in order to unify and manage the measurement results from a plurality of shooting devices.

図5(a)は、監視サーバ装置101の外部記憶部208に格納されている特徴量テーブル501を示す図である。図5(b)は、特徴量502を示す図である。特徴量502は、監視カメラ装置103により撮影された顔画像107又はウェアラブルデバイス109により撮影された顔画像110を分析することにより得られた顔の特徴量である。特徴量502は、個人識別のために用いられるもので、顔画像から、目・口・鼻の座標、推定年齢等を数値化した情報である。なお、特徴量の他の例としては、表情、肌の色、服装や持ち物等を用い、それぞれ輝度値や形状を数値化した情報であってもよい。   FIG. 5A is a diagram illustrating a feature amount table 501 stored in the external storage unit 208 of the monitoring server apparatus 101. FIG. 5B shows the feature quantity 502. The feature quantity 502 is a face feature quantity obtained by analyzing the face image 107 photographed by the monitoring camera apparatus 103 or the face image 110 photographed by the wearable device 109. The feature quantity 502 is used for personal identification, and is information obtained by digitizing eye / mouth / nose coordinates, estimated age, and the like from a face image. In addition, as another example of the feature amount, information using a facial expression, a skin color, clothes, belongings, and the like, and numerically representing a luminance value and a shape may be used.

特徴量テーブル501には、撮影IDと、人物IDと、特徴量と、ぶれ度と、顔向きと、特徴量の識別度とが対応付けて記録される。撮影IDは、特徴量の識別情報である。人物IDは、監視対象の移動体である人物の識別情報である。識別度は、対応する特徴量や顔画像に基づいた、人物の個別識別のし易さを表す尺度である。ぶれや隠れが大きい物、正面を向かない顔画像は、監視精度を低下させる可能性が高いため、識別度は低く設定される。また、計測済かつ動線と紐付け済の特徴量との相関が高過ぎる場合には、誤検出の可能性を高めるため、識別度は低く設定される。   In the feature quantity table 501, a shooting ID, a person ID, a feature quantity, a blurring degree, a face orientation, and a feature quantity identification degree are recorded in association with each other. The shooting ID is feature amount identification information. The person ID is identification information of a person who is a moving object to be monitored. The degree of identification is a scale representing the ease of individual identification of a person based on the corresponding feature amount or face image. Objects with large blurring and hiding, and face images that do not face the front are likely to reduce the monitoring accuracy, so the degree of discrimination is set low. Further, when the correlation between the measured and flow line and the associated feature quantity is too high, the discrimination degree is set low in order to increase the possibility of erroneous detection.

識別度の数値化例としては、顔画像の解像度、動きによりぶれたピクセル数、障害物等により隠れた面積の推定比率、顔の向きとして正面からの相対角度等、撮影成功度を表すものがある。他にも監視対象特徴量の各成分に関するユークリッド距離やマハラノビス距離等の距離関数や、各成分の共起率を用いる事も考えられる。ここに挙げた識別度の例は単独で用いても良いし、それぞれ重み付けをした上で複数個を組合せて決定することも良い。複数個を組合せて実施した場合には、特徴量の傾向が偏らずに計測されるため、データの識別精度の向上が実現できる。なお、このとき撮影成功度が高いにもかかわらず、計測済かつ紐付け済の特徴量との相関が閾値時間以上高くなる場合は同一人物と推定し、対応する複数レコードに同一の人物IDを割り振るものとする。   Examples of quantification of the identification level include the resolution of the face image, the number of pixels blurred due to movement, the estimated ratio of the area hidden by the obstacle, the relative angle from the front as the face direction, etc. is there. In addition, it is conceivable to use a distance function such as a Euclidean distance and a Mahalanobis distance for each component of the monitoring target feature quantity, and a co-occurrence rate of each component. The examples of the degree of discrimination given here may be used singly or may be determined by combining a plurality of weights. When implemented in combination with a plurality, since the tendency of the feature amount is measured without being biased, it is possible to improve the data identification accuracy. At this time, if the correlation with the measured and linked feature quantity is higher than the threshold time despite the high degree of success in photographing, it is estimated as the same person, and the same person ID is assigned to the corresponding plurality of records. Shall be allocated.

図6は、監視サーバ装置101の外部記憶部208に格納されている対応テーブル601を示す図である。対応テーブル601は、撮影IDと動線IDとの紐付け情報を格納している。図7は、本実施形態におけるウェアラブルデバイス109の表示部202に表示される表示画面701を示す図である。表示画面701には、視界内の様子の他、監視サーバ装置101から得られた周辺の各種情報が表示されている。なお、ウェアラブルデバイス109の表示部202は、接眼ディスプレイやタッチパネルディスプレイ等で実装される。表示画面701には、監視空間104の俯瞰情報を表示する俯瞰情報エリア702、人物105の動線追尾状況を表示する動線追尾枠703、監視サーバ装置101等からの行動指示を表示する行動指示表示領域704等がある。   FIG. 6 is a diagram showing the correspondence table 601 stored in the external storage unit 208 of the monitoring server device 101. The correspondence table 601 stores association information between shooting IDs and flow line IDs. FIG. 7 is a diagram showing a display screen 701 displayed on the display unit 202 of the wearable device 109 in the present embodiment. The display screen 701 displays various types of peripheral information obtained from the monitoring server device 101 in addition to the state in the field of view. The display unit 202 of the wearable device 109 is implemented by an eyepiece display, a touch panel display, or the like. The display screen 701 includes an overhead information area 702 for displaying overhead information of the monitoring space 104, a flow line tracking frame 703 for displaying the flow line tracking status of the person 105, and an action instruction for displaying an action instruction from the monitoring server device 101 and the like. There is a display area 704 and the like.

図8は、監視サーバ装置101による撮影制御処理を示すフローチャートである。なお、監視サーバ装置101は、監視カメラ装置103から受信した撮影画像の解析や監視対象となる人物付帯のRFIDタグ等からの情報に基づいて、人物の位置及びその軌跡が追尾できている事を前提としている。なお、図8に示す撮影制御処理は、監視対象の複数の人物それぞれに対応する複数の動線それぞれを対象として実行される処理である。なお、監視カメラ装置103は、各動線に対する撮影制御処理を非同期的に並列して実行するものとする。   FIG. 8 is a flowchart illustrating the imaging control process performed by the monitoring server apparatus 101. Note that the monitoring server apparatus 101 can track the position and locus of a person based on analysis of a captured image received from the monitoring camera apparatus 103 and information from an RFID tag attached to a person to be monitored. It is assumed. Note that the imaging control process shown in FIG. 8 is a process executed for each of a plurality of flow lines corresponding to a plurality of persons to be monitored. Note that the surveillance camera apparatus 103 executes the imaging control processing for each flow line asynchronously and in parallel.

まず、S801において、監視カメラ装置103の演算部201は、処理対象の動線が、新規に計測した動線又は再試行対象として指定された動線かを判断する。演算部201は、処理対象の動線が新規の動線又は再試行対象の動線のいずれかである場合には(S801でYes)、処理をS802へ進める。演算部201は、処理対象の動線が新規の動線又は再試行対象の動線のいずれにも該当しない場合には(S801でNo)、処理対象の動線に対する処理を終了する。   First, in step S <b> 801, the arithmetic unit 201 of the monitoring camera device 103 determines whether the flow line to be processed is a newly measured flow line or a flow line designated as a retry target. When the flow line to be processed is either a new flow line or a flow line to be retried (Yes in S801), the arithmetic unit 201 advances the process to S802. When the processing target flow line does not correspond to either a new flow line or a retry target flow line (No in S801), the arithmetic unit 201 ends the process for the processing target flow line.

S802において、特徴量抽出部302は、監視カメラ装置103により撮影された撮影画像から、処理対象の動線に対応する顔画像を特定し、特定した顔画像から特徴量を抽出する。ここで、S802の処理は、処理対象となる対象移動体としての人物の特徴量を抽出する特徴量抽出処理の一例である。そして、テーブル管理部306は、新たな撮影IDを割り当てた上で、抽出した特徴量を特徴量テーブル501に登録する。なお、監視サーバ装置101は、監視カメラ装置103から特徴量を受信している場合には、S802の処理は省略することができる。次に、S803において、識別度推定部303は、特徴量に基づいた人物の個別識別の識別度を推定する(推定処理)。識別度推定部303はさらに、推定した識別度をS802において登録した特徴量に対応付けて特徴量テーブル501に登録する。   In step S <b> 802, the feature amount extraction unit 302 specifies a face image corresponding to the flow line to be processed from the captured image captured by the monitoring camera device 103, and extracts the feature amount from the specified face image. Here, the process of S802 is an example of a feature amount extraction process for extracting a feature amount of a person as a target mobile object to be processed. Then, the table management unit 306 assigns a new shooting ID and registers the extracted feature amount in the feature amount table 501. Note that the monitoring server apparatus 101 can omit the process of S802 when it receives the feature amount from the monitoring camera apparatus 103. In step S <b> 803, the identification level estimation unit 303 estimates the identification level of the individual identification of the person based on the feature amount (estimation process). The discrimination level estimation unit 303 further registers the estimated discrimination level in the feature quantity table 501 in association with the feature quantity registered in S802.

次に、S804において、追加判定部304は、追加撮影の必要性の指標となる撮影必要度を算出する。追加判定部304は、例えば、(式1)により、識別度dに基づいて、撮影必要度N(d)を算出する。これにより、追加判定部304は、識別度が低い程より高い撮影必要度を算出することができる。

N(d)=−d …(式1)
In step S <b> 804, the additional determination unit 304 calculates a shooting necessity level that is an index of the necessity for additional shooting. For example, the addition determination unit 304 calculates the photographing necessity N (d) based on the identification degree d by (Equation 1). As a result, the additional determination unit 304 can calculate a higher degree of photographing necessity as the identification degree is lower.

N (d) = − d (Formula 1)

また、他の例としては、追加判定部304は、(式2)により撮影必要度N(d)を算出してもよい。ここで、mは、人物の推定年齢である。このように、人物の推定年齢を加算することにより、推定年齢が低い程、より高い撮影必要度を算出することができる。これにより、迷子等、監視強化の必要性が高いと予想される事象を詳細に情報収集できるので事前分析精度が高まる。

N(d)=−d−m …(式2)
As another example, the addition determination unit 304 may calculate the shooting necessity N (d) by (Expression 2). Here, m is the estimated age of the person. In this way, by adding the estimated age of the person, the lower the estimated age, the higher the degree of photographing required can be calculated. This makes it possible to collect detailed information on events such as lost children that are expected to require a high level of monitoring, so that the accuracy of prior analysis increases.

N (d) = − dm− (Formula 2)

次に、S805において、追加判定部304は、撮影必要度と閾値とを比較することにより、再撮影が必要か否かを判定する(判定処理)。追加判定部304は、撮影必要度が閾値以上の場合には再撮影が必要と判定し(S805でYes)、処理をS806へ進める。追加判定部304は、撮影必要度が閾値未満の場合には、再撮影は不要と判定し(S805でNo)、処理をS812へ進める。   In step S <b> 805, the additional determination unit 304 determines whether or not re-shooting is necessary by comparing the shooting necessity level with a threshold (determination process). The additional determination unit 304 determines that re-shooting is necessary when the shooting necessity level is equal to or greater than the threshold (Yes in S805), and advances the process to S806. If the shooting necessity level is less than the threshold, the addition determination unit 304 determines that re-shooting is unnecessary (No in S805), and advances the process to S812.

この場合、S812において、テーブル管理部306は、S802において抽出された特徴量の撮影IDを処理対象の動線の動線IDに対応付けて対応テーブル601に登録する。次に、S813において、演算部201は、処理対象の動線が撮影の再試行対象に設定されている場合にはこの設定を解除する。以上で、1つの動線に対する撮影制御処理が終了する。なおこの際、既に、ウェアラブルデバイス109に対し、監視サーバ装置101から撮影指示が送信されていた場合には、装着者の効率の改善のために監視サーバ装置101は、ウェアラブルデバイス109に対し、撮影中止指示を送信する(送信処理)。   In this case, in step S812, the table management unit 306 registers the shooting ID of the feature amount extracted in step S802 in the correspondence table 601 in association with the flow line ID of the flow line to be processed. Next, in step S813, the calculation unit 201 cancels this setting when the flow line to be processed is set as an imaging retry target. This completes the imaging control process for one flow line. At this time, if an imaging instruction has already been transmitted from the monitoring server apparatus 101 to the wearable device 109, the monitoring server apparatus 101 captures an image from the wearable device 109 in order to improve the efficiency of the wearer. A cancel instruction is transmitted (transmission process).

一方、S806において、優先度算出部305は、優先度を算出する。具体的には、優先度算出部305は、監視サーバ装置101の不図示の測距センサの検知結果等に基づいて、処理対象の動線に対応する人物と、ウェアラブルデバイス109の間の距離rを特定する。そして、優先度算出部305は、識別度dと距離rとに基づいて、(式3)により優先度を算出する。

優先度=1/(d×r2) …(式3)

これにより、識別度が小さい程、また距離が短い程より高い優先度を算出することができる。
On the other hand, in S806, the priority calculation unit 305 calculates the priority. Specifically, the priority calculation unit 305 determines the distance r between the person corresponding to the flow line to be processed and the wearable device 109 based on the detection result of a distance measuring sensor (not shown) of the monitoring server apparatus 101. Is identified. Then, the priority calculation unit 305 calculates the priority by (Equation 3) based on the identification degree d and the distance r.

Priority = 1 / (d × r 2 ) (Formula 3)

Thereby, a higher priority can be calculated as the identification degree is smaller and the distance is shorter.

次に、S807において、通信処理部307は、監視対象の人物と優先度と撮影条件とを含む撮影指示をウェアラブルデバイス109に送信する(送信処理)。ここで、監視対象の人物は、処理対象の動線に対応する人物である。また、撮影条件は、演算部201により決定される。すなわち、演算部201は、監視対象の人物の動線に基づいて、監視対象の人物を撮影する際の撮影条件を決定する(条件決定処理)。ここで、撮影条件は、撮影位置、撮影方向、撮影タイミング等を含むものとする。   In step S807, the communication processing unit 307 transmits a shooting instruction including the person to be monitored, the priority, and the shooting conditions to the wearable device 109 (transmission processing). Here, the person to be monitored is a person corresponding to the flow line to be processed. Further, the photographing condition is determined by the calculation unit 201. That is, the calculation unit 201 determines shooting conditions for shooting a person to be monitored based on the flow line of the person to be monitored (condition determination process). Here, the shooting conditions include a shooting position, a shooting direction, a shooting timing, and the like.

さらに他の例としては、演算部201は、ウェアラブルデバイス109の装着者が、移動して撮影すべきか否かを判断する。そして、移動した方が識別度が高い撮影が行えると判断した場合には、通信処理部307は、移動先を示す場所情報をさらに含む撮影指示をウェアラブルデバイス109に送信してもよい。また、ウェアラブルデバイス109が複数存在する場合には、通信処理部307は、冗長な撮影を防止するために最も近い場所にあるウェアラブルデバイス109を主担当デバイスとして指定する情報を撮影指示に含めてもよい。   As yet another example, the arithmetic unit 201 determines whether or not the wearer 109 should move and photograph. If the communication processing unit 307 determines that the moving image can be shot with a higher degree of identification, the communication processing unit 307 may transmit a shooting instruction that further includes location information indicating the moving destination to the wearable device 109. In addition, when there are a plurality of wearable devices 109, the communication processing unit 307 may include information for designating the wearable device 109 in the nearest location as a main charge device in order to prevent redundant shooting. Good.

これに対し、ウェアラブルデバイス109は、複数の動線それぞれに対する撮影制御処理において、複数の撮影指示を受信しており、各撮影指示に含まれる優先度に基づいて、各監視対象人物の撮影順を決定する。具体的には、ウェアラブルデバイス109は、優先度が大きい順を撮影順として決定する。ウェアラブルデバイス109は、優先度に応じて図5に示した行動指示表示領域704等に装着者に指示すべく、撮影指示を表示する。ウェアラブルデバイス109は、例えば、撮影指示として、撮影を行うべき地点と撮影対象の人物の到達予測時刻等を表示してもよい。そして、ウェアラブルデバイス109は、撮影を行うと、撮影画像中の顔画像から特徴量を抽出し、抽出結果を監視サーバ装置101に送信する。なお、ウェアラブルデバイス109は、抽出結果が妥当か否か装着者に判断させ、その後に抽出結果を送信してもよい。これにより、抽出結果の質を高めることができる。   In contrast, the wearable device 109 receives a plurality of shooting instructions in the shooting control process for each of the plurality of flow lines, and sets the shooting order of each monitoring target person based on the priority included in each shooting instruction. decide. Specifically, wearable device 109 determines the order of descending priority as the imaging order. The wearable device 109 displays a photographing instruction to instruct the wearer in the action instruction display area 704 shown in FIG. 5 according to the priority. The wearable device 109 may display, for example, a point to be photographed and a predicted arrival time of the person to be photographed as a photographing instruction. When the wearable device 109 performs shooting, the wearable device 109 extracts a feature amount from the face image in the captured image, and transmits the extraction result to the monitoring server apparatus 101. Wearable device 109 may cause the wearer to determine whether or not the extraction result is appropriate, and then transmit the extraction result. Thereby, the quality of an extraction result can be improved.

これに対応し、S808において、通信処理部307は、ウェアラブルデバイス109から抽出結果を受信する。なお、抽出結果には、特徴量の他、撮影地点の座標、向き、撮影画像データが含まれているものとする。テーブル管理部306は、新たな撮影IDを割り当てた上で、抽出結果に示される特徴量を特徴量テーブル501に登録する。   In response to this, in step S808, the communication processing unit 307 receives the extraction result from the wearable device 109. It is assumed that the extraction result includes the coordinates of the shooting point, the orientation, and the shot image data in addition to the feature amount. The table management unit 306 registers a feature amount indicated in the extraction result in the feature amount table 501 after assigning a new shooting ID.

また、他の例としては、ウェアラブルデバイス109により撮影された顔画像からの特徴量の抽出は、監視サーバ装置101が行ってもよい。この場合、ウェアラブルデバイス109は、監視サーバ装置101に撮影画像データを送信すればよい。一定時間(5秒等)内に撮影が行われなかった場合には、過去の撮影画像データを流用することでタイムアウト処理を行い、次のステップに推移する。S809において、識別度推定部303は、ウェアラブルデバイス109により撮影された顔画像の特徴量の識別度を推定する。なお、S809の処理は、S803の処理と同様である。次に、S810において、S304は、S809において推定した識別度に基づいて、撮影必要度を算出する。なお、S810の処理は、S804の処理と同様である。   As another example, the monitoring server device 101 may extract feature amounts from a face image captured by the wearable device 109. In this case, the wearable device 109 may transmit the captured image data to the monitoring server apparatus 101. If shooting is not performed within a certain time (such as 5 seconds), a time-out process is performed by using past captured image data, and the process proceeds to the next step. In step S <b> 809, the identification level estimation unit 303 estimates the identification level of the feature amount of the face image captured by the wearable device 109. Note that the process of S809 is the same as the process of S803. Next, in S810, S304 calculates the degree of photographing necessity based on the degree of identification estimated in S809. Note that the process of S810 is the same as the process of S804.

次に、S811において、追加判定部304は、撮影必要度が閾値以上の場合には(S811でYes)、処理をS814へ進める。追加判定部304は、撮影必要度が閾値未満の場合には(S811でNo)、処理をS812へ進める。この場合、S812において、テーブル管理部306は、S808において受信した抽出結果に含まれる特徴量の撮影IDを動線IDに対応付けて対応テーブル601に登録し、その後処理をS813へ進める。なお、S812等で行う動線と特徴量の紐付け処理においては、データベースエンジン等への登録を想定しているが、検索インデックスを都度又は定期的に構築しておくとよい。これにより、監視対象の特徴量に対応する動線の抽出処理の効率を高められる。   Next, in S811, the addition determination unit 304 advances the process to S814 if the shooting necessity level is greater than or equal to the threshold (Yes in S811). If the shooting necessity level is less than the threshold (No in S811), the addition determination unit 304 advances the process to S812. In this case, in S812, the table management unit 306 registers the shooting ID of the feature amount included in the extraction result received in S808 in the correspondence table 601 in association with the flow line ID, and then advances the process to S813. Note that in the process of associating the flow line and the feature amount performed in S812 and the like, registration in a database engine or the like is assumed, but a search index may be constructed each time or periodically. Thereby, the efficiency of the extraction process of the flow line corresponding to the feature quantity to be monitored can be increased.

S814においては、テーブル管理部306は、S809において推定された識別度と、既に特徴量テーブル501において、処理対象の動線に対応する人物の人物IDに対応付けられている登録済みの識別度とを比較する。テーブル管理部306は、S809において推定された識別度の方が大きい場合には(S814でYes)、処理をS815へ進める。テーブル管理部306は、S809において推定された識別度が登録済みの識別度以下の場合には(S814でNo)、処理をS816へ進める。   In S814, the table management unit 306 determines the identification degree estimated in S809 and the registered identification degree that is already associated with the person ID of the person corresponding to the flow line to be processed in the feature amount table 501. Compare If the identification degree estimated in S809 is larger (Yes in S814), the table management unit 306 advances the process to S815. If the identification degree estimated in S809 is equal to or lower than the registered identification degree (No in S814), the table management unit 306 advances the process to S816.

S815において、テーブル管理部306は、処理対象の動線の動線IDに、S808において受信した抽出結果に含まれる特徴量の撮影IDを対応付けて対応テーブル601に登録する。これにより、識別度は十分でないものの、動線に対応する特徴量を登録することができる。次に、S816において、演算部201は、処理対象の動線を撮影の再試行対象に設定する。以上で、1つの動線に対する撮影制御処理が終了する。   In step S815, the table management unit 306 registers the flow ID of the flow line to be processed in the correspondence table 601 in association with the imaging ID of the feature amount included in the extraction result received in step S808. Thereby, although the degree of discrimination is not sufficient, the feature amount corresponding to the flow line can be registered. In step S <b> 816, the calculation unit 201 sets a flow line to be processed as a subject to be retried for imaging. This completes the imaging control process for one flow line.

監視サーバ装置101は、定期的に、各動線に対する撮影制御処理を行うことにより、各動線に紐付ける特徴量等、監視対象の特徴量を、より識別度の高いものに、更新、維持することができる。さらに、監視サーバ装置101の制御の下、ウェアラブルデバイス109は、移動し続ける再撮影対象の人物のうち、より早く特徴量を特定する必要のある人物から順に特徴量を特定するための処理を開始することができる。したがって、顔の向きやぶれ、隠れによる情報量不足を補い、人物検索等の監視精度を向上させることができる。このことから、監視対象特徴量を用いた迷子、トラブル予測等、監視および分析の精度を高めることができる。   The monitoring server apparatus 101 periodically performs imaging control processing for each flow line, thereby updating and maintaining the feature quantity to be monitored such as the feature quantity linked to each flow line with a higher degree of discrimination. can do. Further, under the control of the monitoring server apparatus 101, the wearable device 109 starts processing for specifying feature amounts in order from the person who needs to specify feature amounts earlier among the recaptured persons who continue to move. can do. Therefore, it is possible to compensate for a shortage of information due to face orientation, blurring, and hiding, and improve monitoring accuracy such as person search. From this, it is possible to improve the accuracy of monitoring and analysis such as lost child and trouble prediction using the monitoring target feature amount.

なお、第1の実施形態の変更例としては、監視サーバ装置101は、各動線に対して算出した優先度に基づいて、複数の人物の撮影順序を決定した上で、撮影順序を含む撮影指示をウェアラブルデバイス109に送信してもよい。これにより、ウェアラブルデバイス109の処理を軽減することができる。   Note that, as a modification of the first embodiment, the monitoring server apparatus 101 determines the shooting order of a plurality of persons based on the priority calculated for each flow line, and then includes the shooting order. The instruction may be transmitted to the wearable device 109. Thereby, the process of the wearable device 109 can be reduced.

(第2の実施形態)
次に、第2の実施形態に係る監視システムについて説明する。第2の実施形態に係る監視システムにおいては、監視サーバ装置101は、近い将来において撮影が行われる可能性を示す期待度を算出し、期待度に基づいて、ウェアラブルデバイス109による撮影を制御する。以下、第2の実施形態に係る監視システムについて、第1の実施形態に係る監視システムと異なる点について説明する。
(Second Embodiment)
Next, a monitoring system according to the second embodiment will be described. In the monitoring system according to the second embodiment, the monitoring server apparatus 101 calculates an expectation level indicating the possibility of shooting in the near future, and controls shooting by the wearable device 109 based on the expectation level. Hereinafter, the difference between the monitoring system according to the second embodiment and the monitoring system according to the first embodiment will be described.

図9は、第2の実施形態に係る監視サーバ装置101による撮影制御処理を示すフローチャートである。なお、図9に示す各処理のうち図8を参照しつつ説明した撮影制御処理の各処理と同一の処理には同一の番号を付している。S805において、追加判定部304は、撮影必要度が閾値以上の場合となり再撮影が必要と判定した場合には(S805でYes)、処理をS901へ進める。S901において、追加判定部304は、撮影が行われる可能性を示す期待度を算出する(期待度算出処理)。具体的には、追加判定部304は、まず処理対象の動線に基づいて、動線に対応する人物の経路予測を行う。そして、追加判定部304は、予測結果を用いて、監視カメラ装置103又はウェアラブルデバイス109の撮影可能領域に予測された経路が含まれるか否かを確率計算等によって定量化することにより、期待値を算出する。   FIG. 9 is a flowchart illustrating a shooting control process performed by the monitoring server apparatus 101 according to the second embodiment. In addition, the same number is attached | subjected to the process same as each process of the imaging | photography control process demonstrated referring FIG. 8 among each process shown in FIG. In step S805, if the additional determination unit 304 determines that reshooting is necessary when the degree of shooting necessity is greater than or equal to the threshold (Yes in step S805), the process proceeds to step S901. In step S <b> 901, the addition determination unit 304 calculates an expectation level indicating the possibility of shooting (expectation level calculation process). Specifically, the addition determination unit 304 first predicts the route of the person corresponding to the flow line based on the flow line to be processed. Then, the additional determination unit 304 uses the prediction result to quantify whether the predicted route is included in the shootable area of the monitoring camera device 103 or the wearable device 109 by probability calculation or the like, thereby obtaining an expected value. Is calculated.

次に、S902において、追加判定部304は、S901において算出した期待値と閾値とを比較し、期待値が閾値以上の場合に(S902でYes)、処理をS814へ進める。また、追加判定部304は、期待値が閾値未満の場合には(S902でNo)、処理をS806へ進める。なお、ウェアラブルデバイス109が撮影指示下にある場合には、追加判定部304は、ウェアラブルデバイス109への撮影指示を中止した上で処理をS806へ進める。これにより、期待値が低い場合にのみ、ウェアラブルデバイス109による再撮影を行うことができる。なお、第2の実施形態に係る監視システムのこれ以外の構成及び処理は、第1の実施形態に係る監視システムの構成及び処理と同様である。   In step S902, the addition determination unit 304 compares the expected value calculated in step S901 with a threshold value. If the expected value is equal to or greater than the threshold value (Yes in step S902), the process proceeds to step S814. If the expected value is less than the threshold value (No in S902), the addition determination unit 304 advances the process to S806. If the wearable device 109 is under the shooting instruction, the addition determination unit 304 stops the shooting instruction to the wearable device 109 and advances the process to step S806. Thereby, re-photographing by the wearable device 109 can be performed only when the expected value is low. The remaining configuration and processing of the monitoring system according to the second embodiment are the same as the configuration and processing of the monitoring system according to the first embodiment.

以上のように、第2の実施形態に係る監視サーバ装置101は、時間の経過に伴い受動的に撮影可能な動線については、再撮影の対象としないこととする。これにより、ウェアラブルデバイス109への撮影指示を最小限に抑えるとともに、監視精度を維持できる。   As described above, the monitoring server apparatus 101 according to the second embodiment does not consider a flow line that can be photographed passively with the passage of time as a re-photographing target. Thereby, it is possible to minimize the shooting instruction to the wearable device 109 and maintain the monitoring accuracy.

第2の実施形態に係る監視システムの変更例としては、監視サーバ装置101は、識別度が閾値未満の状態が一定時間以上継続する場合には、重点的に撮影するように撮影の優先度をより高い値に変更してもよい(変更処理)。これにより、ある程度の時間が経過しても識別度が向上しない監視対象が存在する場合にも、監視対象全体の識別度を効率的に改善させることができる。   As an example of a change in the monitoring system according to the second embodiment, the monitoring server device 101 sets the priority of shooting so as to focus on shooting when a state where the degree of identification is less than a threshold value continues for a certain period of time. It may be changed to a higher value (change process). As a result, even when there is a monitoring target whose identification degree does not improve even after a certain amount of time has elapsed, it is possible to efficiently improve the identification degree of the entire monitoring target.

(その他の実施形態)
また、他の実施形態としては、例えば、遠方からの撮影によっては、監視対象の人物が障害物や別の人物の影に隠れること等により、動線が不連続になる場合がある。この際、監視サーバ装置101は、動線の終了・開始の時刻・位置がそれぞれ閾値以内であり、かつ監視対象の特徴量の距離が閾値以内である場合には、特徴量の再計測を行うのではなく、同一人物であると判断して動線同士を連結してもよい。こうすることで、不必要な再測定を抑制することができる上、動線の追跡精度を高めることができる。
(Other embodiments)
As another embodiment, for example, when shooting from a distance, the flow line may be discontinuous due to the person being monitored hidden behind an obstacle or the shadow of another person. At this time, the monitoring server apparatus 101 performs re-measurement of the feature amount when the end / start time and position of the flow line are within the threshold value and the distance of the feature amount to be monitored is within the threshold value. Instead, the flow lines may be connected by determining that they are the same person. In this way, unnecessary remeasurement can be suppressed, and the tracking accuracy of the flow line can be increased.

また、身長が低い等によって、識別度が継続的に低い状態が続く通行人について、分析精度が劣化する場合がある。この場合に対応するために、監視対象の同行者を特定し、同行監視対象関連付けをすることによって動線及び特徴量を代替することも効果的である。具体的には、監視サーバ装置101は、識別度が低い状態が一定時間以上継続する動線について、周辺の動線を分析し、座標位置と時刻の相関等を用いて、一定以上の相関を保つ場合に同行監視対象として関連付けを行う。そして、監視サーバ装置101は、同行監視対象の特徴量を抽出し、抽出した特徴量を識別度が低い方の動線と紐付けて登録する。識別度が低い状態が継続する通行人についても迷子等の事象を事前に検知することや、分析精度を高められる効果がある。   In addition, analysis accuracy may deteriorate for passers-by whose identification level is continuously low due to low height or the like. In order to deal with this case, it is also effective to specify the accompanying person to be monitored and associate the accompanying monitoring target with the flow line and the feature amount. Specifically, the monitoring server device 101 analyzes a surrounding flow line for a flow line in which the state of low discrimination continues for a certain time or more, and uses a correlation between the coordinate position and the time, etc. If you want to keep it, associate it as a companion monitoring target. And the monitoring server apparatus 101 extracts the feature-value of accompanying monitoring target, and links and registers the extracted feature-value in connection with the flow line with a lower identification degree. For passers-by who continue to have a low degree of discrimination, it is possible to detect an event such as a lost child in advance and to improve analysis accuracy.

また、上述の実施形態においては、逐次的に監視対象識別度が高い監視対象特徴量が動線に紐付けされるために、局所解に陥る場合がある。これを回避するため、監視サーバ装置101は、時刻や登録件数等を基準として定期的に、過去の監視対象の特徴量を俯瞰した上で、全動線が相互に識別度が高まるよう特徴量テーブル501や対応テーブル601を更新してもよい。   Further, in the above-described embodiment, the monitoring target feature quantity having a high monitoring target identification level is sequentially linked to the flow line, and thus may fall into a local solution. In order to avoid this, the monitoring server device 101 periodically monitors the feature quantities of the past monitoring targets based on the time, the number of registrations, etc., and the feature quantity so that all the flow lines have a mutually higher degree of discrimination. The table 501 and the correspondence table 601 may be updated.

また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   In addition, the present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors of a computer of the system or apparatus execute the program. It can also be realized by a process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、上述した各実施形態によれば、監視制度の低下を防ぎつつ、面倒な作業を要することなく、動線と移動体の紐付けを適切に行うことができる。   As mentioned above, according to each embodiment mentioned above, a flow line and a mobile body can be appropriately linked | related, without requiring a troublesome operation | work, preventing the fall of a monitoring system.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。   Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined.

101 監視サーバ装置
103 監視カメラ装置
109 ウェアラブルデバイス
101 monitoring server device 103 monitoring camera device 109 wearable device

Claims (11)

監視対象の複数の動線それぞれに対応する複数の移動体を撮影する第1の撮影手段と、
前記第1の撮影手段により得られた撮影画像に基づいて、処理対象となる対象移動体の特徴量を抽出する特徴量抽出手段と、
前記対象移動体の前記特徴量に基づく、前記対象移動体の個別識別の識別度を推定する推定手段と、
前記識別度に基づいて、前記対象移動体の第2の撮影手段による撮影の優先度を算出する優先度算出手段と、
前記優先度を対応付けた前記対象移動体の撮影指示を前記第2の撮影手段に送信する送信手段と
を有することを特徴とする監視システム。
First imaging means for imaging a plurality of moving bodies corresponding to a plurality of flow lines to be monitored;
Feature quantity extraction means for extracting a feature quantity of a target moving object to be processed based on a photographed image obtained by the first photographing means;
Estimating means for estimating the identification degree of the individual identification of the target moving body based on the feature amount of the target moving body;
Priority calculating means for calculating the priority of photographing by the second photographing means of the target moving body based on the identification degree;
A monitoring system comprising: a transmission unit configured to transmit a shooting instruction of the target moving body associated with the priority to the second shooting unit.
前記優先度算出手段は、さらに前記対象移動体と前記第2の撮影手段の間の距離に基づいて、前記対象移動体の前記優先度を算出することを特徴とする請求項1に記載の監視システム。   2. The monitoring according to claim 1, wherein the priority calculating unit further calculates the priority of the target moving body based on a distance between the target moving body and the second imaging unit. system. 前記対象移動体に対応する前記識別度に基づいて、前記第2の撮影手段による前記対象移動体の再撮影が必要か否かを判定する判定手段をさらに有し、
前記判定手段により、前記対象移動体の前記再撮影が必要と判定された場合に、前記優先度算出手段は、前記対象移動体に対応する前記優先度を算出し、前記送信手段は、前記対象移動体の前記撮影指示を送信することを特徴とする請求項1又は2に記載の監視システム。
A determination unit that determines whether or not the second moving unit needs to re-shoot the target moving body based on the degree of identification corresponding to the target moving body;
When the determination unit determines that the re-shooting of the target moving body is necessary, the priority calculation unit calculates the priority corresponding to the target moving body, and the transmission unit includes the target The monitoring system according to claim 1, wherein the imaging instruction of the moving body is transmitted.
前記対象移動体の動線に基づいて、撮影条件を決定する条件決定手段をさらに有し、
前記送信手段は、前記撮影条件を含む前記撮影指示を送信することを特徴とする請求項1乃至3何れか1項に記載の監視システム。
Further comprising a condition determining means for determining a shooting condition based on a flow line of the target moving body;
The monitoring system according to any one of claims 1 to 3, wherein the transmission unit transmits the imaging instruction including the imaging condition.
前記送信手段は、前記判定手段により再撮影が不要と判定された場合に、前記第2の撮影手段に対し撮影中止指示を送信することを特徴とする請求項3又は4に記載の監視システム。   The monitoring system according to claim 3 or 4, wherein the transmission unit transmits an imaging stop instruction to the second imaging unit when the determination unit determines that re-imaging is unnecessary. 前記対象移動体に対応する動線に基づいて、前記第2の撮影手段により前記対象移動体に対する撮影が行われる期待度を算出する期待度算出手段をさらに有し、
前記判定手段は、さらに前記期待度に基づいて、再撮影が必要か否かを判定することを特徴とする請求項3乃至5何れか1項に記載の監視システム。
Based on a flow line corresponding to the target moving body, further comprising an expectation degree calculating means for calculating an expectation degree at which shooting is performed on the target moving body by the second photographing means;
The monitoring system according to claim 3, wherein the determination unit further determines whether or not re-photographing is necessary based on the expectation degree.
前記対象移動体の前記識別度が閾値未満の状態が一定時間以上継続する場合に、前記対象移動体の前記優先度をより高い値に変更する変更手段をさらに有することを特徴とする請求項1乃至6何れか1項に記載の監視システム。   The apparatus according to claim 1, further comprising: a changing unit configured to change the priority of the target moving body to a higher value when the state where the identification degree of the target moving body is less than a threshold value continues for a predetermined time or longer. The monitoring system of any one of thru | or 6. 第1の撮影手段により撮影された、監視対象の複数の動線それぞれに対応する複数の移動体を含む撮影画像から抽出された、処理対象となる対象移動体の特徴量に基づく、前記対象移動体の個別識別の識別度を推定する推定手段と、
前記識別度に基づいて、前記対象移動体の第2の撮影手段による撮影の優先度を算出する優先度算出手段と、
前記優先度を対応付けた前記対象移動体の撮影指示を前記第2の撮影手段に送信する送信手段と
を有することを特徴とする監視装置。
The target movement based on a feature amount of a target moving body to be processed, which is extracted from a photographed image including a plurality of moving bodies corresponding to each of a plurality of flow lines to be monitored, which is shot by the first imaging means. An estimation means for estimating the degree of individual body identification;
Priority calculating means for calculating the priority of photographing by the second photographing means of the target moving body based on the identification degree;
A monitoring apparatus comprising: a transmission unit configured to transmit an imaging instruction of the target moving body associated with the priority to the second imaging unit.
監視システムが実行する撮影制御方法であって、
監視対象の複数の動線それぞれに対応する複数の移動体を撮影する第1の撮影ステップと、
前記第1の撮影ステップにおいて得られた撮影画像に基づいて、処理対象となる対象移動体の特徴量を抽出する特徴量抽出ステップと、
前記対象移動体の前記特徴量に基づく、前記対象移動体の個別識別の識別度を推定する推定ステップと、
前記識別度に基づいて、前記対象移動体の第2の撮影手段による撮影の優先度を算出する優先度算出ステップと、
前記優先度を対応付けた前記対象移動体の撮影指示を前記第2の撮影手段に送信する送信ステップと
を含むことを特徴とする撮影制御方法。
A shooting control method executed by a surveillance system,
A first imaging step of imaging a plurality of moving bodies corresponding to each of a plurality of flow lines to be monitored;
A feature amount extraction step of extracting a feature amount of a target moving body to be processed based on the captured image obtained in the first imaging step;
An estimation step for estimating a degree of identification of the individual identification of the target moving body based on the feature amount of the target moving body;
A priority calculating step of calculating a priority of photographing by the second photographing means of the target moving body based on the identification degree;
And a transmission step of transmitting an imaging instruction of the target moving body associated with the priority to the second imaging means.
監視装置が実行する撮影制御方法であって、
第1の撮影手段により撮影された、監視対象の複数の動線それぞれに対応する複数の移動体を含む撮影画像から抽出された、処理対象となる対象移動体の特徴量に基づく、前記対象移動体の個別識別の識別度を推定する推定ステップと、
前記識別度に基づいて、前記対象移動体の第2の撮影手段による撮影の優先度を算出する優先度算出ステップと、
前記優先度を対応付けた前記対象移動体の撮影指示を前記第2の撮影手段に送信する送信ステップと
を含むことを特徴とする撮影制御方法。
An imaging control method executed by a monitoring device,
The target movement based on a feature amount of a target moving body to be processed, which is extracted from a photographed image including a plurality of moving bodies corresponding to each of a plurality of flow lines to be monitored, which is shot by the first imaging means. An estimation step for estimating the degree of individual identification of the body;
A priority calculating step of calculating a priority of photographing by the second photographing means of the target moving body based on the identification degree;
And a transmission step of transmitting an imaging instruction of the target moving body associated with the priority to the second imaging means.
コンピュータを、
第1の撮影手段により撮影された、監視対象の複数の動線それぞれに対応する複数の移動体を含む撮影画像から抽出された、処理対象となる対象移動体の特徴量に基づく、前記対象移動体の個別識別の識別度を推定する推定手段と、
前記識別度に基づいて、前記対象移動体の第2の撮影手段による撮影の優先度を算出する優先度算出手段と、
前記優先度を対応付けた前記対象移動体の撮影指示を前記第2の撮影手段に送信する送信手段と
して機能させるためのプログラム。
Computer
The target movement based on a feature amount of a target moving body to be processed, which is extracted from a photographed image including a plurality of moving bodies corresponding to each of a plurality of flow lines to be monitored, which is shot by the first imaging means. An estimation means for estimating the degree of individual body identification;
Priority calculating means for calculating the priority of photographing by the second photographing means of the target moving body based on the identification degree;
The program for functioning as a transmission means which transmits the imaging | photography instruction | indication of the said target moving body matched with the said priority to a said 2nd imaging | photography means.
JP2015131510A 2015-06-30 2015-06-30 Monitoring system, imaging control method, and program Pending JP2017017488A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015131510A JP2017017488A (en) 2015-06-30 2015-06-30 Monitoring system, imaging control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015131510A JP2017017488A (en) 2015-06-30 2015-06-30 Monitoring system, imaging control method, and program

Publications (1)

Publication Number Publication Date
JP2017017488A true JP2017017488A (en) 2017-01-19

Family

ID=57831057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015131510A Pending JP2017017488A (en) 2015-06-30 2015-06-30 Monitoring system, imaging control method, and program

Country Status (1)

Country Link
JP (1) JP2017017488A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018165849A (en) * 2017-03-28 2018-10-25 達広 佐野 Attribute collection system by camera
JP2018170574A (en) * 2017-03-29 2018-11-01 セコム株式会社 Monitoring system
WO2022025127A1 (en) * 2020-07-28 2022-02-03 株式会社日立産業制御ソリューションズ Video analysis device and video analysis method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018165849A (en) * 2017-03-28 2018-10-25 達広 佐野 Attribute collection system by camera
JP2018170574A (en) * 2017-03-29 2018-11-01 セコム株式会社 Monitoring system
WO2022025127A1 (en) * 2020-07-28 2022-02-03 株式会社日立産業制御ソリューションズ Video analysis device and video analysis method
JP2022024915A (en) * 2020-07-28 2022-02-09 株式会社 日立産業制御ソリューションズ Moving image analysis device and moving image analysis method

Similar Documents

Publication Publication Date Title
JP6741130B2 (en) Information processing system, information processing method, and program
US11157778B2 (en) Image analysis system, image analysis method, and storage medium
JP6406241B2 (en) Information processing system, information processing method, and program
JP7040463B2 (en) Analysis server, monitoring system, monitoring method and program
KR102153591B1 (en) Method and apparatus for detecting garbage dumping action in real time on video surveillance system
JP5339476B2 (en) Image processing system, fever tracking method, image processing apparatus, control method thereof, and control program
JP5478928B2 (en) Person identification device, person identification method, and person identification program
JP2010244089A (en) Person detection device, person detection method, and person detection program
JP2011248836A (en) Residence detection system and program
JP2011233133A (en) Shoplifting preventing system
JPWO2009142098A1 (en) Image processing apparatus, camera, image processing method and program
JP6789421B2 (en) Information processing equipment, tracking method, and tracking program
JPWO2015040929A1 (en) Image processing system, image processing method, and program
JP2010140425A (en) Image processing system
CN110633648A (en) Face recognition method and system in natural walking state
WO2020065852A1 (en) Authentication system, authentication method, and storage medium
JP2017017488A (en) Monitoring system, imaging control method, and program
JP6516702B2 (en) People count system, number count method, and view method of number count result
JP5758165B2 (en) Article detection device and stationary person detection device
JP2012124658A (en) System and method for detecting specific person
US10783365B2 (en) Image processing device and image processing system
JP2019125911A (en) Image processing apparatus and image processing method
JP7257765B2 (en) Information processing device, authentication system, control method thereof, and program
JP6536643B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM
EP3901820A2 (en) Event analysis system and event analysis method