JP2012078950A - Monitoring system with autonomous mobile body, monitoring device, autonomous mobile body, monitoring method and monitoring program - Google Patents

Monitoring system with autonomous mobile body, monitoring device, autonomous mobile body, monitoring method and monitoring program Download PDF

Info

Publication number
JP2012078950A
JP2012078950A JP2010221773A JP2010221773A JP2012078950A JP 2012078950 A JP2012078950 A JP 2012078950A JP 2010221773 A JP2010221773 A JP 2010221773A JP 2010221773 A JP2010221773 A JP 2010221773A JP 2012078950 A JP2012078950 A JP 2012078950A
Authority
JP
Japan
Prior art keywords
monitoring
patrol
person
route
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010221773A
Other languages
Japanese (ja)
Other versions
JP5674406B2 (en
Inventor
Takuo Moriguchi
拓雄 森口
Satoshi Futami
聡 二見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2010221773A priority Critical patent/JP5674406B2/en
Publication of JP2012078950A publication Critical patent/JP2012078950A/en
Application granted granted Critical
Publication of JP5674406B2 publication Critical patent/JP5674406B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To patrol through an appropriate route by using a characteristic retrieval function.SOLUTION: In a monitoring system comprising at least one autonomous mobile body patrolling through a prescribed route in a monitoring zone and a monitoring device for monitoring the monitoring zone by using the autonomous mobile body, the monitoring device includes specific person extraction means for extracting a specific person by using an image imaged by at least one of imaging means installed in the monitoring zone, important monitoring point selection means for selecting an important monitoring point from location information on the imaging means which imaged the image acquired by the specific person extraction means, and patrol instruction means for generating patrol request information corresponding to the point acquired by the important monitoring point selection means and instructing the autonomous mobile body on the generated patrol request information. The autonomous mobile body has patrol route setting means for setting a patrol route by using the patrol request information acquired from the monitoring device and the preset patrol route.

Description

本発明は、自律移動体を用いた監視システム、監視装置、自律移動体、監視方法、及び監視プログラムに係り、特に特徴検索機能を用いて適切な移動経路による巡回を行うための自律移動体を用いた監視システム、監視装置、自律移動体、監視方法、及び監視プログラムに関する。   The present invention relates to a monitoring system, a monitoring device, an autonomous moving body, a monitoring method, and a monitoring program using an autonomous moving body, and more particularly, to an autonomous moving body for performing patrol by an appropriate moving route using a feature search function. The present invention relates to a monitoring system, a monitoring device, an autonomous mobile body, a monitoring method, and a monitoring program used.

従来、カメラ等の撮像手段により撮影された映像に対して画像処理等を行い、その映像を構成する画像中に含まれる人物を自動的に検出する手法が存在する。その中でも画像中から人物の顔を検出する技術が急速に発達しており、例えば顔の判別精度を向上させるために、入力画像から肌色領域を抽出し、その肌色領域に基づいて、頭頂部、目、口等の顔の特徴点の位置を検出して、その検出結果から肌色領域が顔か否かを判定する画像処理装置が存在している(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, there is a method of performing image processing or the like on a video taken by an imaging unit such as a camera and automatically detecting a person included in an image constituting the video. Among them, a technique for detecting a human face from an image has been rapidly developed.For example, in order to improve face discrimination accuracy, a skin color region is extracted from an input image, and based on the skin color region, the top of the head, There is an image processing apparatus that detects the positions of facial feature points such as eyes and mouth, and determines whether or not the skin color region is a face from the detection result (see, for example, Patent Document 1).

また、このような顔検出技術は、例えば銀行や百貨店、コンビニエンスストア等の監視区域内に設置された監視カメラにより得られる映像に対して処理がなされ、犯罪時の迅速な人物特定や、不審者か否かを検出して犯罪を未然に防止するため等に用いられる。   In addition, such face detection technology is applied to images obtained by surveillance cameras installed in surveillance areas such as banks, department stores, and convenience stores. It is used to prevent crimes by detecting whether or not.

更に、検出された顔情報を特徴情報と共に蓄積しておき、検索したい人物の顔の特徴を検索条件として指定することで、指定された特徴を有する顔画像を検索する手法が存在する(例えば、特許文献2参照)。   Furthermore, there is a method for searching for a face image having a specified feature by accumulating detected face information together with feature information and specifying a facial feature of a person to be searched as a search condition (for example, Patent Document 2).

なお、上述したような人物特定情報は、主に不審者を特定する等、警備の面での利用性が増してきている。   It should be noted that the above-described person identification information has been increasingly used for security purposes, mainly by identifying suspicious persons.

特開2004−5384号公報JP 2004-5384 A 特開2006−318375号公報JP 2006-318375 A

ところで、上述した従来の手法により検出された不審者等は、早急に警備員等に通知する必要がある。これは、人の場合はもちろんであるが、例えば警備を行う監視ロボットのような自律移動体に対しても同様である。   By the way, a suspicious person or the like detected by the above-described conventional method needs to immediately notify a guard or the like. This is the same for an autonomous moving body such as a surveillance robot for security, as well as for humans.

しかしながら、監視ロボットが所定の監視区域を巡回する場合には、予め設定された時間に予め設定された経路にしたがって巡回するため、巡回開始前に予め巡回経路を設定させなければならない。そのため、監視ロボットの巡回途中に監視センタ側で不審者や迷子等を発見した場合には、その人物の特定情報を監視ロボットに通知して巡回経路を変更させたり、巡回パターンを変更させる等、臨機応変な対応ができる自律移動体を用いた監視システムが存在していなかった。   However, when the surveillance robot patrols a predetermined surveillance area, it patrols according to a route set in advance at a preset time. Therefore, it is necessary to set a tour route in advance before the tour starts. Therefore, if a suspicious person or a lost child is discovered on the monitoring center side during the patrol of the monitoring robot, the monitoring robot is notified of specific information of the person, the patrol route is changed, the patrol pattern is changed, etc. There was no monitoring system using an autonomous mobile body that could respond flexibly.

本発明は、上記の問題点に鑑みてなされたものであって、特徴検索機能を用いて適切な移動経路による巡回を行うための自律移動体を用いた監視システム、監視装置、自律移動体、監視方法、及び監視プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and includes a monitoring system, a monitoring device, an autonomous moving body using an autonomous moving body for performing patrol by an appropriate moving route using a feature search function, It is an object to provide a monitoring method and a monitoring program.

上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。   In order to solve the above problems, the present invention employs means for solving the problems having the following characteristics.

本発明では、監視区域を所定の経路で巡回する少なくとも1つの自律移動体と、該自律移動体を用いて前記監視区域を監視する監視装置とからなる監視システムにおいて、前記監視装置は、前記監視区域に設置された少なくとも1つの撮像手段により撮影された画像を用いて、特定人物を抽出する特定人物抽出手段と、前記特定人物抽出手段により得られた画像を撮影した撮像手段の位置情報から重要監視地点を選出する重要監視地点選出手段と、前記重要監視地点選出手段により得られる地点に対応させた巡回要求情報を生成し、生成した巡回要求情報を前記自律移動体に指示する巡回指示手段とを有し、前記自律移動体は、前記監視装置から得られる巡回要求情報と、予め設定された巡回経路とを用いて、巡回経路を設定する巡回経路設定手段を有することを特徴とする。   In the present invention, in the monitoring system comprising at least one autonomous mobile body that patrols the monitoring area along a predetermined route and a monitoring device that monitors the monitoring area using the autonomous mobile body, the monitoring device includes the monitoring device. It is important from the position information of the specific person extracting means for extracting a specific person using an image taken by at least one imaging means installed in the area, and the imaging means for taking the image obtained by the specific person extracting means. An important monitoring point selecting means for selecting a monitoring point; and a traveling instruction means for generating traveling request information corresponding to the point obtained by the important monitoring point selecting means and instructing the generated traveling request information to the autonomous mobile body; And the autonomous mobile body sets a cyclic route using the cyclic request information obtained from the monitoring device and a preset cyclic route. Characterized in that it has a means.

また本発明では、前記重要監視地点選出手段は、前記監視区域に予め設定された複数の場所毎にスコアを算出することを特徴とする。   In the present invention, the important monitoring point selecting means calculates a score for each of a plurality of places preset in the monitoring area.

また本発明では、前記巡回要求情報は、前記重要監視地点と、前記重要監視地点毎の優先度とを含むことを特徴とする。   In the present invention, the patrol request information includes the important monitoring point and a priority for each important monitoring point.

また本発明では、前記巡回経路設定手段は、自律移動体が巡回中である場合、現時点の位置情報を取得し、取得した位置情報と、前記重要監視地点との距離に基づいて、前記巡回経路を設定することを特徴とする。   In the present invention, when the autonomous mobile body is traveling, the traveling route setting means obtains current location information, and based on the distance between the obtained location information and the important monitoring point, Is set.

また本発明では、監視区域を所定の経路で巡回する少なくとも1つの自律移動体を用いて前記監視区域を監視する監視装置において、前記監視区域に設置された少なくとも1つの撮像手段により撮影された画像を用いて、特定人物を抽出する特定人物抽出手段と、前記特定人物抽出手段により得られた画像を撮影した撮像手段の位置情報から重要監視地点を選出する重要監視地点選出手段と、前記重要監視地点選出手段により得られる地点に対応させた巡回要求情報を生成し、生成した巡回要求情報を前記自律移動体に指示する巡回指示手段とを有することを特徴とする。   According to the present invention, in the monitoring device that monitors the monitoring area using at least one autonomous mobile body that patrols the monitoring area along a predetermined route, an image taken by at least one imaging unit installed in the monitoring area A specific person extracting unit for extracting a specific person, an important monitoring point selecting unit for selecting an important monitoring point from position information of an imaging unit that has taken an image obtained by the specific person extracting unit, and the important monitoring It is characterized by comprising: patrol requesting means for generating patrol request information corresponding to the spot obtained by the spot selecting means and instructing the generated patrol request information to the autonomous mobile body.

また本発明では、前記重要監視地点選出手段は、前記監視区域に予め設定された複数の場所毎にスコアを算出することを特徴とする。   In the present invention, the important monitoring point selecting means calculates a score for each of a plurality of places preset in the monitoring area.

また本発明では、前記巡回要求情報は、前記重要監視地点と、前記重要監視地点毎の優先度とを含むことを特徴とする。   In the present invention, the patrol request information includes the important monitoring point and a priority for each important monitoring point.

また本発明では、監視区域を監視装置からの指示により所定の経路で巡回する自律移動体において、前記監視装置から得られる巡回要求情報と、予め設定された巡回経路とを用いて、巡回経路を設定する巡回経路設定手段と、前記巡回経路設定手段により得られる巡回経路に基づいて移動する移動手段と、前記巡回経路を移動中の周囲の映像を撮影する撮像手段とを有することを特徴とする。   Further, in the present invention, in an autonomous mobile body that patrols a monitoring area on a predetermined route according to an instruction from the monitoring device, the traveling route is determined using the tour request information obtained from the monitoring device and a preset traveling route. A traveling route setting means for setting; a moving means for moving based on the traveling route obtained by the traveling route setting means; and an imaging means for capturing an image of surroundings moving along the traveling route. .

また本発明では、前記巡回経路設定手段は、自律移動体が巡回中である場合、現時点の位置情報を取得し、取得した位置情報と、前記重要監視地点との距離に基づいて、前記巡回経路を設定することを特徴とする。   In the present invention, when the autonomous mobile body is traveling, the traveling route setting means obtains current location information, and based on the distance between the obtained location information and the important monitoring point, Is set.

また本発明では、監視区域を所定の経路で巡回する少なくとも1つの自律移動体と、該自律移動体を用いて前記監視区域を監視する監視装置とからなる監視システムにおける監視方法において、前記監視装置により、前記監視区域に設置された少なくとも1つの撮像手段により撮影された画像を用いて、特定人物を抽出する特定人物抽出ステップと、前記特定人物抽出ステップにより得られた画像を撮影した撮像手段の位置情報から重要監視地点を選出する重要監視地点選出ステップと、前記重要監視地点選出ステップにより得られる地点に対応させた巡回要求情報を生成し、生成した巡回要求情報を前記自律移動体に指示する巡回指示ステップと、前記自律移動体により、前記監視装置から得られる巡回要求情報と、予め設定された巡回経路とを用いて、巡回経路を設定する巡回経路設定ステップを有することを特徴とする。   According to the present invention, there is provided a monitoring method in a monitoring system comprising at least one autonomous mobile body that patrols a monitoring area on a predetermined route, and a monitoring device that monitors the monitoring area using the autonomous mobile body. The specific person extraction step of extracting a specific person using an image taken by at least one image pickup means installed in the monitoring area, and the image pickup means for picking up the image obtained by the specific person extraction step An important monitoring point selection step for selecting an important monitoring point from position information, and tour request information corresponding to the point obtained by the important monitoring point selection step are generated, and the generated tour request information is instructed to the autonomous mobile body A patrol instruction step, patrol request information obtained from the monitoring device by the autonomous mobile body, and a patrol route set in advance. With bets, characterized by having a cyclic path setting step of setting a patrol route.

また本発明では、前記重要監視地点選出ステップは、前記監視区域に予め設定された複数の場所毎にスコアを算出することを特徴とする。   In the present invention, the important monitoring point selection step calculates a score for each of a plurality of places preset in the monitoring area.

また本発明では、前記巡回要求情報は、前記重要監視地点と、前記重要監視地点毎の優先度とを含むことを特徴とする。   In the present invention, the patrol request information includes the important monitoring point and a priority for each important monitoring point.

また本発明では、前記巡回経路設定ステップは、自律移動体が巡回中である場合、現時点の位置情報を取得し、取得した位置情報と、前記重要監視地点との距離に基づいて、前記巡回経路を設定することを特徴とする。   Further, in the present invention, when the autonomous mobile body is traveling, the traveling route setting step acquires current location information, and based on the distance between the obtained location information and the important monitoring point, the traveling route Is set.

また本発明は、コンピュータを、請求項5乃至7のうち何れか1項に記載の監視装置として機能させることを特徴とする監視プログラムである。   The present invention also provides a monitoring program that causes a computer to function as the monitoring device according to any one of claims 5 to 7.

また本発明は、コンピュータを、請求項8又は9に記載の自律移動体として機能させることを特徴とする監視プログラムである。   Moreover, this invention is a monitoring program characterized by making a computer function as an autonomous mobile body of Claim 8 or 9.

本発明によれば、特徴検索機能を用いて適切な移動経路による巡回を行うことができる。   According to the present invention, it is possible to perform patrol with an appropriate travel route using the feature search function.

自律移動体の移動管理システムのシステム概要の一例を示す図である。It is a figure which shows an example of the system outline | summary of the movement management system of an autonomous mobile body. 本実施形態における監視装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the monitoring apparatus in this embodiment. 本実施形態における監視ロボットの機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the monitoring robot in this embodiment. 本実施形態における検索用人物特徴を取得するまでの概要を説明するための図である。It is a figure for demonstrating the outline | summary until it acquires the person characteristic for a search in this embodiment. 本実施形態における検索手法を説明するための一例の図である。It is a figure of an example for demonstrating the search method in this embodiment. 本実施形態におけるリアルタイム捜索時の動作処理手順の一例を示すシーケンスチャートである。It is a sequence chart which shows an example of the operation processing procedure at the time of the real-time search in this embodiment. 不審箇所巡回時の動作処理手順の一例を示すシーケンスチャートである。It is a sequence chart which shows an example of the operation processing procedure at the time of a suspicious part patrol. 指定特徴人物が抽出された後の処理時の動作処理手順の一例を示すシーケンスチャートである。It is a sequence chart which shows an example of the operation | movement process procedure at the time of the process after the designated characteristic person is extracted. 監視装置側での巡回経路設定する時の動作処理手順の一例を示すシーケンスチャートである。It is a sequence chart which shows an example of the operation | movement process sequence at the time of the cyclic route setting by the monitoring apparatus side. 監視ロボットに検索機能を設けた時の動作処理手順の一例を示すシーケンスチャートである。It is a sequence chart which shows an example of the operation | movement process sequence when providing the search function in the monitoring robot. 本実施形態における画面遷移例を示す図である。It is a figure which shows the example of a screen transition in this embodiment. 本実施形態におけるロボット経路設定の画面例を示す図である。It is a figure which shows the example of a screen of the robot path | route setting in this embodiment.

<本発明について>
本発明は、例えば映像や画像等から人物等の特徴検索を行う機能等を有する監視センタ(監視装置)と監視ロボット等の自律移動体とが連携して動作することで警備業務や施設監視業務における作業負荷軽減や有人環境における犯罪の未然防止等を図るものである。
<About the present invention>
The present invention provides a security service and a facility monitoring service by operating a monitoring center (monitoring device) having a function of searching for a feature of a person from a video or an image and an autonomous mobile body such as a monitoring robot in cooperation with each other. It is intended to reduce the work load in Japan and prevent crimes in manned environments.

具体的には、この発明において、例えば、監視センタ側では、監視区域に設置されたカメラの画像を取得し、画像解析、検索タグ作成等を行い、ロボット側では、巡回経路の生成及び生成した巡回経路にそって巡回動作等を行う。   Specifically, in the present invention, for example, the monitoring center side acquires an image of a camera installed in the monitoring area, performs image analysis, creation of a search tag, etc., and the robot side generates and generates a patrol route. Performs a patrol operation along the patrol route.

また、本発明では、監視センタ側においてGUI(Graphical User Interface)等を用いて指定した特徴を持つ人物の捜索要求がなされると、特徴検索側は、指定された特徴を検索キーとして蓄積画像から該当する人物の検索を行い、その結果から、検索された人物候補が多い地点や、指定された特徴に近い人物が検出された地点を、優先巡回地点として1又は複数の監視ロボットに通知する。また、監視ロボット側は、優先巡回地点を効率的に巡回するルートを作成し、巡回を行う。これにより、本発明は、指定した人物の捜索をより効率的に行うことが可能となる。   Further, in the present invention, when a search request for a person having a feature specified using a GUI (Graphical User Interface) or the like is made on the monitoring center side, the feature search side uses the specified feature as a search key from the stored image. The corresponding person is searched, and from the result, one or a plurality of monitoring robots are notified as points having a high number of searched people candidates or a point where a person close to the specified feature is detected as a priority patrol point. In addition, the monitoring robot side creates a route for efficiently patroling the priority patrol point and performs the patrol. As a result, the present invention can more efficiently search for a designated person.

また、本発明では、監視センタ側において、設定された時間毎に不審検索を行い、地点毎に不審と判定された人物の人数、検索スコアを元に不審度を算出する機能を有する。つまり、不審度が高い地点が現れると、監視ロボットに優先巡回地点として通知すると共に巡回要求を行う。更に、監視ロボットは、優先巡回地点を効率的に巡回するルートを作成して巡回を行う。これにより、不審者が多く確認されている箇所を重点的に巡回することとなり、犯罪の未然防止が図れる。   In the present invention, the monitoring center side has a function of performing a suspicious search every set time and calculating the suspicious degree based on the number of persons determined to be suspicious at each point and the search score. That is, when a point with a high suspicious degree appears, the monitoring robot is notified as a priority patrol point and a patrol request is made. Furthermore, the surveillance robot makes a route by creating a route for efficiently visiting the priority patrol points. As a result, places where many suspicious persons have been confirmed are circulated, and crime can be prevented.

以下に、本発明における自律移動体を用いた監視システム、監視装置、自律移動体、監視方法、及び監視プログラムを好適に実施した形態について、図面を用いて説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments in which a monitoring system, a monitoring device, an autonomous moving body, a monitoring method, and a monitoring program using an autonomous mobile body according to the present invention are suitably implemented will be described with reference to the drawings.

<自律移動体を用いた監視システムのシステム概要例>
ここで、自律移動体を用いた監視システムのシステム概要例について、図を用いて説明する。図1は、自律移動体の移動管理システムのシステム概要の一例を示す図である。図1に示す移動管理システム10は、予め設定された監視施設等に設定された撮像手段としての監視カメラ11−1,11−2,・・・,12−nと、上記監視施設に設けられた各センサ群12と、監視装置13と、予め設定された監視施設を巡回する自律移動体としての複数の監視ロボット14−1,14−2,・・・,14−n等を有するよう構成されている。
<System overview example of a monitoring system using autonomous mobile objects>
Here, a system outline example of a monitoring system using an autonomous mobile body will be described with reference to the drawings. FIG. 1 is a diagram illustrating an example of a system outline of a mobility management system for an autonomous mobile body. A mobility management system 10 shown in FIG. 1 is provided in a monitoring camera 11-1, 11-2,..., 12-n as imaging means set in a monitoring facility set in advance, and the monitoring facility. Each sensor group 12, a monitoring device 13, and a plurality of monitoring robots 14-1, 14-2,..., 14-n, etc. as autonomous moving bodies that patrol a preset monitoring facility. Has been.

なお、監視カメラ11と、各センサ群12と、監視装置13と、監視ロボット14とは、インターネット等に代表される通信ネットワーク15等によりデータの送受信が可能な状態で接続されている。なお、通信ネットワーク15は、有線通信でもよくまた無線通信でもよい。   The monitoring camera 11, each sensor group 12, the monitoring device 13, and the monitoring robot 14 are connected to each other in a state where data can be transmitted and received through a communication network 15 represented by the Internet or the like. The communication network 15 may be wired communication or wireless communication.

複数の監視カメラ11−1〜11−nは、それぞれに識別番号が設けられており、監視カメラ11からそれぞれ得られる映像には、識別番号や撮影日時等が付加されている。つまり、監視カメラ11からの映像を取得した監視装置13は、その映像に付加されている識別情報から、どこに設置された監視カメラであるかを容易に把握することができる。また、監視カメラ11は、その周囲の音声を録音する音声入力装置を備えていてもよく、その場合には、映像信号に合わせて対応する音声信号を送信してもよい。   Each of the plurality of monitoring cameras 11-1 to 11-n is provided with an identification number, and an identification number, a shooting date and time, and the like are added to each video obtained from the monitoring camera 11. That is, the monitoring device 13 that has acquired the video from the monitoring camera 11 can easily grasp where the monitoring camera is installed from the identification information added to the video. Moreover, the monitoring camera 11 may be provided with the audio | voice input apparatus which records the surrounding audio | voice, and may transmit the audio | voice signal corresponding to a video signal in that case.

また、各センサ群12とは、監視区域に設けられた警備用や防犯用のセンサであり、例えば、赤外線により侵入者を検知するための赤外線センサや、火や熱、煙等を検知する火災センサ、ガス漏れを検知するガスセンサ、窓やドア等の開閉を検知する開閉検知センサ、窓や柵の破壊を検知する破壊検知センサ等を有する。各センサ群12は、対応する条件を検知すると、検知したことを示す検知情報を、通信ネットワーク15を介して監視装置13に出力する。なお、各センサ群12は、何れも各センサを識別する識別情報が設定されており、上述した検知情報には、その識別情報と日時情報等を含む。これにより、監視装置13は、上述した検知情報を取得することで、各センサが監視対象施設や監視対象区域のどこに設定されているかを容易に把握することができる。   Each sensor group 12 is a security or security sensor provided in a monitoring area. For example, an infrared sensor for detecting an intruder by infrared rays or a fire for detecting fire, heat, smoke, or the like. It has a sensor, a gas sensor that detects gas leakage, an open / close detection sensor that detects opening and closing of windows and doors, a breakage detection sensor that detects breakage of windows and fences, and the like. When each sensor group 12 detects a corresponding condition, it outputs detection information indicating the detection to the monitoring device 13 via the communication network 15. Each sensor group 12 is set with identification information for identifying each sensor, and the detection information described above includes the identification information, date information, and the like. Thereby, the monitoring apparatus 13 can grasp | ascertain easily where each sensor is set to the monitoring object facility or the monitoring object area by acquiring the detection information mentioned above.

監視装置13は、複数の監視ロボット14−1,14−2,・・・,14−nの巡回経路や警備状況等を管理する管理装置である。監視装置13は、監視カメラ11や各センサ群12から得られる映像や検知信号に基づいて、各監視ロボット14−1〜14−nのうち、少なくとも1つの監視ロボットに対する警備巡回経路を設定又は変更する。   The monitoring device 13 is a management device that manages the traveling routes, the security status, and the like of the plurality of monitoring robots 14-1, 14-2, ..., 14-n. The monitoring device 13 sets or changes a security patrol route for at least one monitoring robot among the monitoring robots 14-1 to 14-n based on video and detection signals obtained from the monitoring camera 11 and each sensor group 12. To do.

ここで、巡回経路とは、例えば、各設定した地点や区域(例えば、A地点、B地点、C地点、D地点等)の順番だけでなく、その地点や区域に対する巡回回数や巡回時間、巡回内容(例えば、前方のみを監視したり、周囲全体を監視する等)も含む。   Here, the circulation route is, for example, not only the order of each set point or area (for example, A point, B point, C point, D point, etc.), but also the number of visits to the point or area, the traveling time, and the circulation. Contents (for example, monitoring only the front, monitoring the entire surroundings, etc.) are also included.

また、監視装置13は、2以上の監視ロボットを用いて、それぞれの巡回経路を調整し、例えば、検知されたセンサの設置位置や、警備カメラ11から得られる映像信号を用いて行った不審者や迷子等の特定人物検索において、特定人物であると判断された映像を撮影したカメラ等の設置位置に基づいて、その地点やその地点の周囲を重点的に監視するように巡回経路を設定する。   In addition, the monitoring device 13 uses two or more monitoring robots to adjust each patrol route, and for example, a suspicious person performed using a detected sensor installation position or a video signal obtained from the security camera 11. When searching for a specific person, such as a child or lost child, based on the installation position of the camera etc. that shot the video that was determined to be a specific person, set the patrol route so that the point and its surroundings are monitored intensively .

また、監視ロボット14−1〜14−nは、監視装置13からの巡回指示信号に基づいて、対応する地点への警備を行う。また、監視ロボットには、音声出力機能や録音機能、撮影機能や画面表示機能等を有しており、その場における音声や映像の入力又は出力を行うことができる。   Moreover, the monitoring robots 14-1 to 14-n guard the corresponding points based on the patrol instruction signal from the monitoring device 13. The surveillance robot has a voice output function, a recording function, a photographing function, a screen display function, and the like, and can input or output voice or video on the spot.

<監視装置13:機能構成例>
次に、上述した監視装置13の機能構成例について、図を用いて具体的に説明する。図2は、本実施形態における監視装置の機能構成の一例を示す図である。
<Monitoring device 13: functional configuration example>
Next, a functional configuration example of the monitoring device 13 described above will be specifically described with reference to the drawings. FIG. 2 is a diagram illustrating an example of a functional configuration of the monitoring apparatus according to the present embodiment.

図2に示す監視装置13は、入力手段21と、出力手段22と、蓄積手段23と、顔・人体領域検出手段24と、同定手段25と、追跡手段26と、不審者検出手段27と、人物情報統合手段28と、フレーム情報生成手段29と、検索手段30と、重要監視地点選出手段31と、巡回指示手段32と、画面生成手段33と、通知手段34と、送受信手段35と、制御手段36とを有するよう構成されている。   2 includes an input means 21, an output means 22, a storage means 23, a face / human body region detection means 24, an identification means 25, a tracking means 26, a suspicious person detection means 27, Person information integration means 28, frame information generation means 29, search means 30, important monitoring point selection means 31, tour instruction means 32, screen generation means 33, notification means 34, transmission / reception means 35, and control Means 36.

なお、上述した顔・人体領域検出手段24、同定手段25、追跡手段26、不審者検出手段27、人物情報統合手段28、フレーム情報生成手段29、及び、検索手段30は、本実施形態における特定人物抽出手段としての機能に含まれる。   The face / human body region detection means 24, identification means 25, tracking means 26, suspicious person detection means 27, person information integration means 28, frame information generation means 29, and search means 30 described above are specified in the present embodiment. It is included in the function as a person extraction means.

入力手段21は、ユーザ等からの顔・人体領域検出指示や、同定指示、追跡指示、不審者検出指示、人物情報統合指示、フレーム情報生成指示、検索指示、重要監視地点選出指示、巡回指示、画面生成指示、通知指示、送受信指示等の各種指示を受け付ける。なお、入力手段21は、例えばキーボードや、マウス等のポインティングデバイス、マイク等の音声入力デバイス等からなる。   The input means 21 is a face / human body region detection instruction from a user, identification instruction, tracking instruction, suspicious person detection instruction, person information integration instruction, frame information generation instruction, search instruction, important monitoring point selection instruction, patrol instruction, Various instructions such as a screen generation instruction, a notification instruction, and a transmission / reception instruction are accepted. Note that the input unit 21 includes, for example, a keyboard, a pointing device such as a mouse, a voice input device such as a microphone, and the like.

出力手段22は、入力手段21により入力された指示内容や、各指示内容に基づいて生成された制御データにより、各構成で実行された経過又は結果等の各種情報を表示したり、その音声を出力する。なお、出力手段22は、ディスプレイ等の画面表示機能やスピーカ等の音声出力機能等を有する。   The output means 22 displays various information such as the progress or result executed in each configuration by the instruction content input by the input means 21 and the control data generated based on each instruction content, and the sound. Output. The output means 22 has a screen display function such as a display, a sound output function such as a speaker, and the like.

更に、出力手段22は、検索手段30により得られた検索結果や画面生成手段33により生成された画面に表示された情報等を外部機器に出力する。つまり、出力手段22は、外部機器への出力として、例えば、プリンタに出力したり、ファイルを生成してデータベース等の記録装置や記録媒体に出力したり、監視ロボット14に対して検索結果に基づき生成された制御信号を出力したり、監視区域(警備対象施設)内のセンサのON/OFFやライトの点灯/消灯を切り替えたり、警備員が所持する携帯端末に対して検索結果に基づく関連情報(異常があった場所や内容等)を表示するための制御信号を出力するといった印刷・出力機能等を有する。また、出力手段22は、上述した1又は複数の外部機器に同時に出力することができる。   Further, the output unit 22 outputs the search result obtained by the search unit 30 and the information displayed on the screen generated by the screen generation unit 33 to the external device. That is, the output unit 22 outputs, for example, to a printer as an output to an external device, generates a file and outputs the file to a recording device or a recording medium such as a database, or the monitoring robot 14 based on a search result. Outputs the generated control signal, switches on / off the sensor in the monitoring area (facility to be guarded), turns on / off the light, and related information based on the search result for the mobile terminal possessed by the guard It has a print / output function and the like for outputting a control signal for displaying (location and contents where there is an abnormality). Moreover, the output means 22 can output simultaneously to the 1 or several external apparatus mentioned above.

蓄積手段23は、上述した本実施形態を実現するための様々な情報を蓄積することができ、必要に応じて読み出しや書き込みが行われる。具体的には、蓄積手段23は、顔の認証や、性別・年代等を推定するのに使用される各種特徴量データや、顔・人体領域検出手段24における顔領域検出結果や人体領域検出結果、同定手段25における人物同定結果、追跡手段26における追跡結果、不審者検出手段27における不審者検出結果、人物情報統合手段28における人物情報統合結果、フレーム情報生成手段29におけるフレーム情報生成結果、検索手段30における検索結果、重要監視地点選出手段31における重要監視地点選出結果、巡回指示手段32における巡回指示結果、画面生成手段における画面生成結果、通知手段34における通知結果、送受信手段35における送受信情報、制御手段36により制御された情報、エラー発生時のエラー情報、ログ情報、本発明を実現するためのプログラム等の各情報が蓄積される。   The storage unit 23 can store various information for realizing the above-described embodiment, and reading and writing are performed as necessary. Specifically, the accumulating unit 23 performs various feature amount data used for face authentication, gender and age estimation, face area detection results and human body region detection results in the face / human body region detection unit 24. The person identification result in the identification means 25, the tracking result in the tracking means 26, the suspicious person detection result in the suspicious person detection means 27, the person information integration result in the person information integration means 28, the frame information generation result in the frame information generation means 29, and the search A search result in the means 30, an important monitoring point selection result in the important monitoring point selection means 31, a tour instruction result in the tour instruction means 32, a screen generation result in the screen generation means, a notification result in the notification means 34, transmission / reception information in the transmission / reception means 35, Information controlled by the control means 36, error information at the time of error occurrence, log information, Each information programs for current are accumulated.

顔・人体領域検出手段24は、上述した各監視カメラ11−1〜11−n等の撮像手段26等により撮影されたリアルタイム映像や蓄積手段23に既に蓄積されている膨大な量の監視映像に対して、その映像中の画像に人物が含まれていると判断した場合、その人物の顔領域を検出する。つまり、顔・人体領域検出手段24は、監視カメラ11等により撮影された映像を、送受信手段35を介して取得し、その取得した映像に含まれる時系列の各画像のうち、所定の画像(各フレーム画像や数フレーム分の間隔を空けた画像等)について1又は複数の人物の顔を検出する。   The face / human body region detection unit 24 converts the above-described monitoring camera 11-1 to 11-n into a real-time image captured by the imaging unit 26 and the like, and a huge amount of monitoring video already stored in the storage unit 23. On the other hand, when it is determined that a person is included in the image in the video, the face area of the person is detected. That is, the face / human body region detection unit 24 acquires the video imaged by the monitoring camera 11 or the like via the transmission / reception unit 35, and among the time-series images included in the acquired video image, a predetermined image ( The face of one or a plurality of persons is detected for each frame image or an image with an interval of several frames.

具体的には、顔・人体領域検出手段24は、例えば撮影された画像に含まれる顔における目や鼻、口等の位置情報からその顔の特徴量を取得し、予め設定された顔として検出されるための特徴量の照合パターンを用いたマッチング処理等を行うことにより人物の顔を検出する。また、顔・人体領域検出手段24は、上述の顔検出処理に限定されず、例えばエッジ検出や形状パターン検出による顔検出、色相抽出又は肌色抽出による顔検出等を用いることができる。なお、顔・人体領域検出手段24は、顔検出後、画像中の顔の縦幅、横幅からなる矩形の顔領域等を検出する。   Specifically, the face / human body region detection unit 24 acquires the feature amount of the face from position information such as eyes, nose, and mouth in the face included in the photographed image, and detects it as a preset face. The face of a person is detected by performing a matching process using a matching pattern of feature amounts. Further, the face / human body region detection means 24 is not limited to the above-described face detection processing, and for example, face detection by edge detection or shape pattern detection, face detection by hue extraction or skin color extraction, or the like can be used. The face / human body region detection means 24 detects a rectangular face region having a vertical width and a horizontal width of the face in the image after the face detection.

また、顔・人体領域検出手段24は、顔領域の中心座標(位置情報)、及び領域の画像上の大きさ(サイズ)を検出し、その顔領域を所定形状により元の画像に合成して顔領域が明確に分かるように画面表示するための各種情報を取得し、蓄積手段23に蓄積させる。なお、顔領域の形状は、本発明においては、矩形や円形、楕円形、他の多角形、人物の顔の外形形状から所定倍率で拡大させたシルエット形状等であってもよい。   Further, the face / human body region detection means 24 detects the center coordinates (position information) of the face region and the size (size) of the region on the image, and synthesizes the face region into the original image with a predetermined shape. Various information for screen display is acquired so that the face area can be clearly understood, and is stored in the storage means 23. In the present invention, the shape of the face region may be a rectangle, a circle, an ellipse, another polygon, a silhouette shape enlarged from the outer shape of a human face at a predetermined magnification, or the like.

また、顔・人体領域検出手段24は、各監視カメラ11−1〜11−n等により撮影されたリアルタイム映像や蓄積手段23に既に蓄積されている膨大な量の監視映像に対して、その映像中の画像に人物が含まれていると判断した場合、その人物の人体領域を検出する。つまり、顔・人体領域検出手段24は、各監視カメラ11−1〜11−n等により撮影された映像を、送受信手段35を介して取得し、その取得した映像に含まれる時系列の各画像のうち、所定の画像(各フレーム画像や数フレーム分の間隔を空けた画像等)について1又は複数の人体領域を検出する。   In addition, the face / human body region detection unit 24 applies a video to a real time video captured by each of the monitoring cameras 11-1 to 11-n or the like and a huge amount of the monitoring video already stored in the storage unit 23. When it is determined that a person is included in the inside image, the human body region of the person is detected. In other words, the face / human body region detection unit 24 acquires videos captured by the monitoring cameras 11-1 to 11-n and the like via the transmission / reception unit 35, and each time-series image included in the acquired video. Among them, one or a plurality of human body regions are detected for a predetermined image (such as each frame image or an image having an interval of several frames).

具体的には、顔・人体領域検出手段24は、例えば連続する画像フレーム同士を比較して、色情報(輝度、色度等)が所定時間内に変化する場所が存在し、更にその場所で囲まれる領域が所定の領域以上のもの、又は経時的な移動範囲が所定の範囲内のものを人体領域として検出する。なお、人体検出手法については、本発明においてはこれに限定されるものではない。   Specifically, the face / human body region detection unit 24 compares, for example, successive image frames, and there is a place where the color information (luminance, chromaticity, etc.) changes within a predetermined time. An area surrounded by a predetermined area or more, or a movement range with time within a predetermined range is detected as a human body area. It should be noted that the human body detection method is not limited to this in the present invention.

また、顔・人体領域検出手段24は、人体領域の中心座標、及び人体領域の画像上の大きさを検出し、その人体領域を所定形状により元の画像に合成して人体領域が明確に分かるように画面表示するための各種情報を取得し、蓄積手段23に蓄積させる。なお、人体領域の形状は、上述した顔領域と同様に、矩形や円形、楕円形、他の多角形、人物の外形形状から所定倍率で拡大させたシルエット形状等であってもよい。   Further, the face / human body region detecting means 24 detects the center coordinates of the human body region and the size of the human body region on the image, and synthesizes the human body region with the original image with a predetermined shape to clearly understand the human body region. As described above, various information for screen display is acquired and stored in the storage unit 23. The shape of the human body region may be a rectangle, a circle, an ellipse, another polygon, a silhouette shape enlarged at a predetermined magnification from the outer shape of a person, and the like, similar to the face region described above.

更に、顔・人体領域検出手段24は、付加機能として、検出された顔領域を用いて人物追跡を行い、その際、画像フレーム中に含まれる複数の顔領域をそれぞれ識別して蓄積するために識別情報(トラッキングID)を割り当てたり、顔認証処理を行って、認証された人物の識別情報(ID)や人物名を出力したり、性別、年代を推定したり、顔領域がマスクやサングラス等により隠されているが否かを検出したり、画像中における人物と建物との関係等から人物の身長を推定する機能を有していてもよい。   Further, as an additional function, the face / human body region detection unit 24 performs person tracking using the detected face region, and at that time, in order to identify and accumulate each of the plurality of face regions included in the image frame. Assign identification information (tracking ID), perform face authentication processing, output identification information (ID) and person name of the authenticated person, estimate gender and age, face area is mask, sunglasses, etc. It may have a function of detecting whether the person is hidden or not, or estimating the height of the person from the relationship between the person and the building in the image.

また、顔・人物検出手段24は、頭髪、上衣、下衣等の色情報を抽出したり、人物の実空間上での位置座標を算出したりする機能を有していてもよい。   Further, the face / person detection unit 24 may have a function of extracting color information such as hair, upper garment, and lower garment, and calculating position coordinates of the person in the real space.

同定手段25は、同一のカメラで異なる時間に撮影された映像から抽出された2つの画像から検出される1又は複数の人物に対して、同一人物が含まれているか否かの同定処理を行う。具体的には、同定手段25は、例えば撮影中に含まれる人物が今まで撮影された人であるか、又は新規人物であるかを判断する方法として、例えばその前の映像に人物がいるか否かを判断し、人物がいた場合にその人物が予め設定された移動可能範囲に含まれているか否かを判断し、更には前後の顔の特徴量同士の比較による類似性の有無により同一人物が含まれているか否かを判断することができる。   The identification unit 25 performs identification processing for determining whether or not the same person is included in one or a plurality of persons detected from two images extracted from videos taken at different times with the same camera. . Specifically, for example, the identification unit 25 determines whether the person included in the shooting is a person who has been shot or a new person, for example, whether or not there is a person in the previous video If there is a person, it is determined whether or not the person is included in a preset movable range, and further, the same person is determined by the presence or absence of similarity based on comparison between the front and back face feature amounts. Can be determined.

また、同定手段25は、顔・人体領域検出手段24において検出された顔のパターンと、蓄積手段23に予め蓄積されている人物情報(氏名、性別、年齢、どの芸能人(人物)に似ている等)を含む顔のパターンとを比較して、その顔が誰の顔であるか、すなわち、人物が誰であるかを判定することができる。更に、同定手段25は、その顔が誰にどの程度類似しているかといった類似度を取得することもできる。これにより、画面生成手段33等において、ある人物に対する類似度の高い人が表示されている画像を類似度の高い順に所定の数だけ表示させていくことができる。   The identification unit 25 is similar to the face pattern detected by the face / human body region detection unit 24 and personal information (name, gender, age, and celebrity (person) stored in the storage unit 23 in advance. Etc.) can be compared to determine the face of the person, that is, who the person is. Furthermore, the identification means 25 can also acquire a similarity such as how much the face is similar to whom. As a result, the screen generating unit 33 and the like can display a predetermined number of images in which persons with high similarity to a certain person are displayed in descending order of similarity.

なお、同定手段25は、その画像の状況に応じた特徴量の取捨選択手法により適切なパラメータを用いて人物の同定を行ってもよい。例えば、同定手段25は、人物の状態(立ち止まっているか、歩いているか、日照変化があったかどうか等)を判定し、その結果に基づいて各種特徴量(歩容(歩幅、歩く速度、姿勢等を含む)、体型、性別、服の色、髪の色等)を人物同定に使用することができる。更に、同定手段25は、使用する特徴量のみについて分離度を算出し、その分離度に基づいて重み付けを行い、人物同定に対する特徴量毎の寄与率を変化させる。これにより、状況に応じた特徴量を用いて高精度な人物判定を行うことができる。   Note that the identification unit 25 may identify a person using an appropriate parameter by a method of selecting a feature amount according to the state of the image. For example, the identification unit 25 determines a person's state (stopped, walking, whether there was a change in sunshine, etc.), and based on the result, various feature amounts (gait (step length, walking speed, posture, etc.) are determined. Including), body type, gender, clothes color, hair color, etc.) can be used for person identification. Further, the identification unit 25 calculates the degree of separation only for the feature amount to be used, performs weighting based on the degree of separation, and changes the contribution rate for each feature amount with respect to person identification. Thereby, highly accurate person determination can be performed using the feature-value according to a condition.

追跡手段26は、同定手段25により同定された同一人物の挙動を撮影された映像を用いて経時的(時系列的)に追跡する。なお、追跡手段26は、映像に含まれる複数の人物に対して平行して経時的に追跡することができる。また、追跡手段26は、映像に含まれる人物を経時的に追跡する場合、画像中から取得されるその人物の向き、姿勢、今までの行動等から、次の移動可能範囲を推測することもできる。この場合、追跡手段26は、その移行可能範囲を画像に合成するための情報を生成し、画面生成手段33に出力することもできる。   The tracking unit 26 tracks the behavior of the same person identified by the identifying unit 25 over time (in time series) using the captured video. The tracking unit 26 can track a plurality of persons included in the video over time in parallel. In addition, when tracking the person included in the video over time, the tracking unit 26 may estimate the next movable range from the orientation, posture, action so far, and the like of the person acquired from the image. it can. In this case, the tracking unit 26 can generate information for combining the transferable range with the image and output the information to the screen generation unit 33.

ここで、追跡手段26は、画像中に含まれる人体領域の足、頭の位置とその特徴から人物を追跡し、同一として判断できる人物の大きさが変化した場合、人物の一部が、建物等で隠蔽されたか否かを判断する。なお、隠蔽される人物の一部とは、例えば下半身や上半身、頭、腕、胴体等である。つまり、本実施形態では、少なくとも1度画面上で足のつま先から頭部までの人体の身長に関する情報が取得できた場合、その後、頭及び足の両方が同時に隠蔽されていなければ、隠蔽部分を推定して人物を追跡することができる。   Here, the tracking means 26 tracks the person from the position of the foot and head of the human body region included in the image and its characteristics, and when the size of the person that can be determined to be the same changes, It is judged whether or not it is hidden by etc. The part of the person to be concealed is, for example, the lower body, the upper body, the head, arms, and the torso. In other words, in this embodiment, when information about the height of the human body from the toes of the feet to the head can be acquired at least once on the screen, if both the head and feet are not simultaneously hidden, The person can be estimated and tracked.

不審者検出手段27は、追跡手段26による追跡結果を、蓄積手段23に蓄積された予め設定される経時的な不審行動パターンや挙動データ等と照合することで、監視カメラ11により撮影された1又は複数の人物のうち、不審者に該当する人物を検出する。   The suspicious person detecting means 27 compares the result of tracking by the tracking means 26 with preset suspicious behavior patterns, behavior data, etc. stored in the accumulating means 23, and is taken by the surveillance camera 11. Or, a person corresponding to a suspicious person among a plurality of persons is detected.

つまり、不審者検出手段27は、追跡対象人物が遮蔽物に隠れたり、カメラを所定時間以上気にしてみていたり、きょろきょろしていたり、長時間滞在している等の不審行動が少なくとも1つある場合には、その人物を不審者として検出する。更に、不審者検出手段27は、追跡対象人物がマスクをしていたり、サングラスをかけていることで、顔を隠している場合にも不審者として検出する。   In other words, the suspicious person detecting means 27 has at least one suspicious action such as the person to be tracked hidden behind the shield, the camera being looked at for a predetermined time or longer, or being swayed or staying for a long time. In that case, the person is detected as a suspicious person. Further, the suspicious person detecting means 27 detects a suspicious person even when the person to be tracked is wearing a mask or wearing sunglasses to hide his / her face.

また、不審者検出手段27は、不審者を検出した場合に、どの不審行動に該当したのかの情報も含めてその全ての内容を蓄積手段23に蓄積しておく。これにより、検索時におけるキーワードとして「不審者に相当するもの」が指定された場合に検索者の簡単な操作で容易に抽出されるようにしておく。更に、不審者検出手段27は、不審者を検出した段階で画面生成手段33にその旨の内容を通知する画面を生成させてもよい。   Further, when the suspicious person detecting means 27 detects the suspicious person, the suspicious person detecting means 27 accumulates all the contents including information on which suspicious action is applicable in the accumulating means 23. As a result, when “what corresponds to a suspicious person” is designated as a keyword at the time of search, it is easily extracted by a simple operation of the searcher. Further, the suspicious person detecting means 27 may generate a screen for notifying the screen generating means 33 of the contents to that effect when the suspicious person is detected.

人物情報統合手段28は、顔領域と人体領域とを同一人物として対応付けて、その人物の特徴を統合する。具体的には、人物情報統合手段28は、画像中における顔領域の重心座標を取得し、取得した座標を包含する人体領域があった場合、その顔領域及び人体領域は、同一人物によるものであるとして対応付けを行う。   The person information integration unit 28 associates the face area and the human body area as the same person, and integrates the characteristics of the person. Specifically, the person information integration unit 28 acquires the center of gravity coordinates of the face area in the image, and when there is a human body area that includes the acquired coordinates, the face area and the human body area are from the same person. Associating as there is.

更に、人物情報統合手段28は、1つの人体領域が2つ以上の顔領域を包含する場合、全ての顔領域に同じ人体領域を対応付けておく。これにより、追跡処理等において映像の途中で複数の人物が画面上で一時的に重なった場合にも、途切れることなく継続して追跡することができる。なお、人物の管理はID等の識別情報を用いて行う。なお、上述した人体領域と顔領域とを同一人物のものとして対応付ける処理については、本発明においてはこれに限定されるものではなく、例えば人物の姿勢や向き等を抽出し、抽出した情報を用いて対応付けを行ってもよい。   Furthermore, when one human body region includes two or more face regions, the person information integration unit 28 associates the same human body region with all the face regions. Thereby, even when a plurality of persons temporarily overlap on the screen during the tracking process or the like, it can be continuously tracked without interruption. Persons are managed using identification information such as IDs. Note that the processing for associating the human body region and the face region as those of the same person is not limited to this in the present invention. For example, the posture and orientation of the person are extracted and the extracted information is used. May be associated with each other.

フレーム情報生成手段29は、上述した人物情報統合手段28により統合された人物毎の人物情報を、映像に含まれる画像の1フレーム毎に格納したフレーム情報を生成し、生成した検索用人物特徴データを蓄積手段23にデータベース等として蓄積する。これにより、フレーム単位で人物の特徴を管理することができる。また、フレーム毎にその撮影された時間情報が付与されているので、検索の際に、どの時間にどのような人物が何人いるか等、多種の検索キーワードを用いて様々な検索を高精度に実現することができる。   The frame information generation means 29 generates frame information in which the person information for each person integrated by the person information integration means 28 described above is stored for each frame of the image included in the video, and the generated search person feature data Is stored in the storage means 23 as a database or the like. Thereby, the characteristics of a person can be managed in units of frames. In addition, since the time information of the shot is given for each frame, various searches can be performed with high accuracy using various search keywords such as what kind of person at what time during the search. can do.

なお、本実施形態におけるフレーム情報としては、例えば共通の項目として「ファイル名」、「検出日時」があり、また顔領域から抽出される情報として「人物位置座標(X,Y,Z)」、「身長情報」、「各種色情報」、既に抽出された人物が予め設定されたデータベース等に登録されている場合には「登録者情報」、「似ている芸能人情報」、「年代情報」、「性別情報」、「顔の向き(PAN,TILT)」、「マスクの有無」、「サングラスの有無」、「取得顔画像情報」等があり、その他にも「人物位置座標(X,Y,Z)」、「身長情報」等があるが、本発明においてはこれに限定されるものではない。   The frame information in the present embodiment includes, for example, “file name” and “detection date / time” as common items, and “person position coordinates (X, Y, Z)” as information extracted from the face area, “Height information”, “various color information”, and “registrant information”, “similar celebrity information”, “age information” when already extracted people are registered in a preset database, etc. “Gender information”, “Face orientation (PAN, TILT)”, “Mask presence / absence”, “Sunglasses presence / absence”, “Acquired face image information”, etc. In addition, “person position coordinates (X, Y, Z) "," height information ", etc., but the present invention is not limited to this.

検索手段30は、各監視カメラ11−1〜11−n等により撮影されたリアルタイム映像や、蓄積手段23に既に蓄積されている監視映像等の各種情報に対して、本実施形態により検索者が指定する選択可能な所定のキーワードや抽出条件等を設定し、又は予め不審者や迷子を検出するための検出条件を設定して、対応する人物が含まれる画像等の検索結果を抽出する。   The search means 30 is used by the searcher according to the present embodiment for various kinds of information such as real-time videos taken by the respective monitoring cameras 11-1 to 11-n and the like and monitoring videos already stored in the storage means 23. A predetermined selectable keyword to be specified, an extraction condition or the like is set, or a detection condition for detecting a suspicious person or a lost child is set in advance, and a search result such as an image including a corresponding person is extracted.

また、検索手段30は、その検索結果に対して自動的に顔や服装(衣類だけでなく帽子、マスク、眼鏡等も含む)等の特徴、行動等の抽出条件等を設定し、当該検索結果に類似する人物の検索を行う類似検索を行い、その類似度を出力したり、類似度の高い順に所定の数だけ検索結果を出力するといった処理を行うこともできる。   The search means 30 automatically sets features such as a face and clothes (including not only clothes but also hats, masks, glasses, etc.), action extraction conditions, etc. for the search results, and the search results. It is also possible to perform a similar search for searching for a person similar to, and output the similarity, or output a predetermined number of search results in descending order of similarity.

また、検索手段30は、上述した監視ロボット14−1〜14−nを用いて迷子等の捜索をリアルタイムで行う場合等には、監視ロボットに備えられた撮像手段からの映像に対して、予め設定された条件(身長、洋服の色、場所情報等)を満たす人物が表示されている画像を検索し、その結果を画面生成手段33によりリアルタイムに表示させるといった機能も有する。   In addition, when the search unit 30 searches for a lost child or the like in real time using the above-described monitoring robots 14-1 to 14-n, the search unit 30 applies in advance to an image from the imaging unit provided in the monitoring robot. It also has a function of searching for an image on which a person satisfying the set conditions (height, clothes color, location information, etc.) is displayed and displaying the result in real time by the screen generation means 33.

また、検索手段30における検索画面やその結果表示される出力結果等は、画面生成手段33により対応する画面が生成され、出力手段22により出力される。これにより、本実施形態では、予め蓄積された映像やリアルタイム映像に基づいて所定の条件を満たす検索を行い、その検索結果を表示させることができる。   The search screen in the search unit 30 and the output result displayed as a result thereof are generated by the screen generation unit 33 and output by the output unit 22. Thereby, in this embodiment, the search which satisfy | fills a predetermined condition can be performed based on the image | video and the real-time image | video accumulated beforehand, and the search result can be displayed.

重要監視地点選出手段31は、検索手段30等により得られた不審者や迷子等の捜索対象人物等の特定人物に対して、その人物がいた地点又はその周辺の地点を重要監視地点として選出する。なお、特定人物を検索した場所の情報は、例えば撮影された映像に含まれる監視カメラ11毎の識別情報と、予め蓄積された監視カメラ11の識別情報に対応付けられた設置位置情報により取得することができる。また、本実施形態では、上記識別情報の中に設置位置情報が含まれていてもよく、その場合には、識別情報から設置位置情報を直接取得することができる。   The important monitoring point selection means 31 selects, as a critical monitoring point, a point where the person was or a point around it for a specific person such as a suspicious person or a search target person such as a lost child obtained by the search means 30 or the like. . In addition, the information of the place where the specific person is searched is acquired from, for example, the identification information for each monitoring camera 11 included in the captured video and the installation position information associated with the identification information of the monitoring camera 11 accumulated in advance. be able to. In the present embodiment, installation position information may be included in the identification information. In that case, the installation position information can be directly acquired from the identification information.

また、重要監視地点選出手段31は、上述した重要監視地点を基準として優先巡回地点を選定する。つまり、重要監視地点選出手段31は、監視区域に予め設定された地点(場所)毎に特定人物の抽出スコア(類似度)や、重要監視地点を選出した回数、選出した時間、及び、所定時間内における選出頻度等のうち、少なくとも1つを用いて場所別スコアを算出し、その結果から優先巡回を行う重要監視の候補地点を選出し、場所別スコアからなる優先度を出力する。   Moreover, the important monitoring point selection means 31 selects a priority patrol point on the basis of the important monitoring point described above. That is, the important monitoring point selection unit 31 extracts the extraction score (similarity) of the specific person for each point (location) set in advance in the monitoring area, the number of times the important monitoring point is selected, the selected time, and the predetermined time. The location-specific score is calculated using at least one of the selection frequencies and the like, the candidate points for important monitoring to be preferentially visited are selected from the result, and the priority composed of the location-specific scores is output.

巡回指示手段32は、重要監視地点選出手段31により選出された重要監視地点に対して優先巡回を行わせるため、複数の監視ロボット14−1〜14−nのうち、その地点の巡回を担当する1又は複数の監視ロボットに対して巡回要求を生成し、生成した巡回要求情報による巡回指示を対象の監視ロボットに対して送信する。   The patrol instruction unit 32 takes charge of patrol of the point among the plurality of monitoring robots 14-1 to 14-n in order to perform priority patrol for the important monitoring point selected by the important monitoring point selecting unit 31. A patrol request is generated for one or a plurality of monitoring robots, and a patrol instruction based on the generated patrol request information is transmitted to the target monitoring robot.

画面生成手段33は、監視カメラ11により撮影された映像や顔・人体領域検出手段24により検出された顔領域や、顔・人体領域検出手段24により検出された人体領域、本実施形態における人物検索を行うためのメニュー画面、検索手段30により検索で使用される入力画面、検索結果画面等、通知手段34における通知結果等を出力するための画面を生成する。このとき、画面生成手段33は、例えば撮影された人物の領域に対応する位置情報等の数値化されたデータ等を表示させることもできる。   The screen generation means 33 is a video image taken by the monitoring camera 11, a face area detected by the face / human body area detection means 24, a human body area detected by the face / human body area detection means 24, or a person search in this embodiment. A screen for outputting a notification result or the like in the notification means 34, such as a menu screen for performing the search, an input screen used in the search by the search means 30, or a search result screen, is generated. At this time, the screen generation unit 33 can display, for example, digitized data such as position information corresponding to the region of the photographed person.

また、画面生成手段33は、映像に含まれる人物を追跡する際に用いられる移動可能範囲や追跡手段26により得られる追跡ルート等の各種データを監視し易いように画面を生成して表示させることができる。更に、画面生成手段33は、予め設定される不審者の行動パターンに該当する場合には、その旨の内容を通知するための画面を生成する。   The screen generation means 33 generates and displays a screen so that various data such as a movable range used when tracking a person included in the video and a tracking route obtained by the tracking means 26 can be easily monitored. Can do. Furthermore, when the screen generation unit 33 corresponds to a preset suspicious person's behavior pattern, the screen generation unit 33 generates a screen for notifying the content to that effect.

更に、画面生成手段33は、検索手段30により得られる検索結果を表示する際、その検索結果をリアルタイムで表示するような場合には、その検索結果の更新表示等を一時的に停止することができる。これにより、例えば、検索結果をリアルタイムで随時更新表示させているような場合には、一時停止することで、情報を確認し忘れることなく、必要な情報を表示させておくことができる。また、画面生成手段33は、上述したように一時停止した表示内容を、その続きから継続して表示させることができる。   Further, when displaying the search result obtained by the search unit 30, the screen generation unit 33 may temporarily stop the update display of the search result when displaying the search result in real time. it can. Thereby, for example, when the search result is updated and displayed as needed in real time, the necessary information can be displayed without forgetting to confirm the information by pausing. Further, the screen generation means 33 can continuously display the display content suspended as described above.

また、画面生成手段33は、映像に含まれる人物の特徴或いは行動を表示するだけでなく、例えば撮像手段を設けた1又は複数の監視ロボットが監視区域内を巡回しているような場合には、その監視ロボット毎に監視映像と共に送信された巡回位置情報(3次元座標、緯度、経度等)や巡回経路等を表示することもできる。これにより、監視ロボット毎の現在位置を正確に把握することができる。   Further, the screen generation means 33 not only displays the characteristics or actions of the person included in the video, but, for example, when one or more monitoring robots provided with imaging means are traveling around the monitoring area. It is also possible to display the patrol position information (three-dimensional coordinates, latitude, longitude, etc.), the patrol route, etc. transmitted together with the monitoring video for each monitoring robot. Thereby, the current position for each monitoring robot can be accurately grasped.

なお、画面生成に必要な各種情報は、蓄積手段23に予め蓄積されている情報等から必要な情報を適宜読み出して使用することができる。また、画面生成手段33は、生成された画面等を出力手段22としてのディスプレイに表示したり、スピーカ等により音声等を出力することができる。   Various kinds of information necessary for screen generation can be used by appropriately reading out necessary information from information stored in the storage unit 23 in advance. Further, the screen generation unit 33 can display the generated screen or the like on a display as the output unit 22 or output sound or the like through a speaker or the like.

通知手段34は、不審者検出手段27により得られる不審者として検出された画像と、その画像に関する情報(検出日時、検出場所、その前の所定時間分の映像等)を画面生成手段33により生成させて、出力手段22により表示させる。また、通知手段34は、そのような不審行動検出における問題発生信号に対応させて、管理者や警備会社におけるそのビルの担当警備員、監視員、代表責任者、監視ロボット等に通知を行うアラート機能を有する。   The notification means 34 generates an image detected as a suspicious person obtained by the suspicious person detection means 27 and information related to the image (detection date and time, detection location, video for a predetermined time, etc.) by the screen generation means 33. And displayed by the output means 22. In addition, the notification means 34 is an alert that notifies the security officer, supervisor, representative representative, surveillance robot, etc. in charge of the building in the manager or security company in response to the problem occurrence signal in such suspicious behavior detection. It has a function.

なお、通知手段34は、例えば監視ロボット等に通知を行う場合には、その監視ロボットが対象者と対面しているか又は監視ロボットの撮像手段により対象者が撮影されるほど接近した位置にいるため、監視ロボットから対象者に対して音声メッセージを出力させたり、警報ランプや非常音等により周囲に対して注意を促すような処理を行わせるような監視ロボット14に対する制御信号を通知することもできる。   For example, when notifying the monitoring robot or the like, the notification means 34 faces the target person or is close enough to the target person to be photographed by the imaging means of the monitoring robot. In addition, a voice signal can be output from the monitoring robot to the target person, or a control signal can be notified to the monitoring robot 14 that causes a warning lamp, emergency sound, or the like to perform a process of calling attention to the surroundings. .

送受信手段35は、LAN(Local Area Network)やインターネット等の通信ネットワーク等を介して1又は複数の監視カメラ11−1〜11−nや監視ロボット14−1〜14−nが備える撮像手段からの監視映像を受信する。なお、送受信手段35は、監視カメラ11から直接監視映像を受信しなくてもよく、例えば予め監視カメラ11で取得した映像をどこかに一時的に保存しておき、その保存された情報を用いて本実施形態における人体検出を行ってもよい。   The transmission / reception means 35 is connected to an imaging means provided in one or a plurality of monitoring cameras 11-1 to 11-n and monitoring robots 14-1 to 14-n via a communication network such as a LAN (Local Area Network) or the Internet. Receive surveillance video. The transmission / reception means 35 does not have to receive the monitoring video directly from the monitoring camera 11. For example, the transmission / reception means 35 temporarily stores the video acquired in advance by the monitoring camera 11 somewhere and uses the stored information. In this embodiment, human body detection may be performed.

また、送受信手段35は、監視装置13を構成する他の端末に送信したり、他の端末から各種データを受信するための通信インタフェースとして用いることができる。   Further, the transmission / reception means 35 can be used as a communication interface for transmitting to other terminals constituting the monitoring device 13 and receiving various data from other terminals.

制御手段36は、監視装置13における各機能構成全体の制御を行う。具体的には、制御手段36は、入力手段21により入力されたユーザからの入力情報に基づいて、上述した各機能構成における処理を実行させる等の各種制御を行う。   The control unit 36 controls the entire functional configuration in the monitoring device 13. Specifically, the control unit 36 performs various controls such as executing processing in each functional configuration described above based on input information from the user input by the input unit 21.

また、制御手段36は、例えば監視ロボット14に監視区域内を巡回させている場合には、その監視ロボット14に対して巡回経路や対象者発見時の動作等について制御を行う。具体的には、制御手段36は、対象者発見時に通知手段34により対象者やその周囲について、音声メッセージや警報等の出力を行わせたり、対象者発見後に監視ロボット14の巡回を強制終了させ、帰還経路を設定する等の制御を行う。つまり、監視ロボット14が対象者を発見した時点で巡回を終了させ、管理室等の所定の場所まで対象者を案内させるという経路設定が可能になる。   Further, for example, when the monitoring robot 14 is traveling around the monitoring area, the control unit 36 controls the monitoring robot 14 regarding the traveling route, the operation when the target person is found, and the like. Specifically, the control unit 36 causes the notification unit 34 to output a voice message, a warning, or the like for the target person and its surroundings when the target person is discovered, or forcibly ends the patrol of the monitoring robot 14 after the target person is found. Control such as setting a return path is performed. In other words, when the monitoring robot 14 finds the target person, the patrol can be ended and the route can be set so that the target person is guided to a predetermined place such as a management room.

更に、制御手段36は、監視ロボット14から得られる警告信号(例えば、火災、漏水、人物検知等)に対応して、監視ロボット14に緊急時の動作等を行わせる制御信号を生成し、その制御信号を、出力手段22や送受信手段35等を介して監視ロボット14等に送信し、監視ロボット14を制御することができる。   Further, the control means 36 generates a control signal that causes the monitoring robot 14 to perform an emergency operation in response to a warning signal (for example, fire, water leakage, person detection, etc.) obtained from the monitoring robot 14. A control signal can be transmitted to the monitoring robot 14 or the like via the output means 22 or the transmission / reception means 35 or the like to control the monitoring robot 14.

<監視ロボット14:機能構成例>
次に、上述した監視ロボット14の機能構成例について、図を用いて具体的に説明する。図3は、本実施形態における監視ロボットの機能構成の一例を示す図である。
<Monitoring robot 14: functional configuration example>
Next, a functional configuration example of the monitoring robot 14 described above will be specifically described with reference to the drawings. FIG. 3 is a diagram illustrating an example of a functional configuration of the monitoring robot according to the present embodiment.

図3に示す監視ロボット14は、入力手段41と、出力手段42と、蓄積手段43と、移動手段44と、巡回経路設定手段45と、撮像手段46と、追跡・誘導手段47と、移動体間連携手段48と、通知手段49と、送受信手段50と、制御手段51とを有するよう構成されている。   3 includes an input unit 41, an output unit 42, a storage unit 43, a moving unit 44, a patrol route setting unit 45, an imaging unit 46, a tracking / guidance unit 47, and a moving body. An interlinkage unit 48, a notification unit 49, a transmission / reception unit 50, and a control unit 51 are included.

入力手段41は、監視装置13からの入力指示や、監視ロボット14に設けられた各種操作ボタンやタッチパネル等により人手により入力された指示情報を受け付ける。なお、入力手段41は、例えばマイク等の音声入力デバイス等であってもよい。   The input unit 41 receives input instructions from the monitoring device 13 and instruction information input manually by various operation buttons and a touch panel provided on the monitoring robot 14. The input unit 41 may be a voice input device such as a microphone.

出力手段42は、入力手段41により入力された指示内容や、各指示内容に基づいて生成された制御データにより、各構成で実行された経過又は結果等の各種情報を表示したり、その音声を出力する。なお、出力手段42は、ディスプレイやタッチパネル等の画面表示機能やスピーカ等の音声出力機能等を有する。   The output means 42 displays various information such as the progress or result executed in each configuration by the instruction content input by the input means 41 and the control data generated based on each instruction content, Output. The output means 42 has a screen display function such as a display and a touch panel, a voice output function such as a speaker, and the like.

蓄積手段43は、上述した本実施形態を実現するための様々な情報を蓄積することができ、必要に応じて読み出しや書き込みが行われる。具体的には、蓄積手段43は、巡回経路設定手段45における設定された巡回経路、撮像手段46における映像や音声、追跡・誘導手段47における追跡又は誘導における経過や結果、移動間連携手段48における移動間連携結果、通知手段49における通知結果、送受信手段50における送受信情報、制御手段51により制御された情報、エラー発生時のエラー情報、ログ情報、本発明を実現するためのプログラム等の各情報が蓄積される。   The storage unit 43 can store various information for realizing the above-described embodiment, and reading and writing are performed as necessary. Specifically, the accumulating unit 43 is configured so that the traveling route set in the traveling route setting unit 45, the video and audio in the imaging unit 46, the progress or result of tracking or guidance in the tracking / guidance unit 47, and the inter-movement cooperation unit 48 Information such as inter-movement cooperation results, notification results in the notification means 49, transmission / reception information in the transmission / reception means 50, information controlled by the control means 51, error information at the time of error occurrence, log information, programs for realizing the present invention, etc. Is accumulated.

更に、蓄積手段43は、監視装置13により得られる不審者情報や迷子情報等の特定人物情報を登録しておき、追跡・誘導手段47において、人物の照合をする際に用いられる。   Furthermore, the accumulating unit 43 registers specific person information such as suspicious person information and lost child information obtained by the monitoring device 13 and is used when the tracking / guidance unit 47 collates the person.

移動手段44は、監視ロボット14を移動するためのタイヤによる移動機能や歩行機能等を備え、所定の地点や巡回経路に基づいて移動を行うものである。   The moving means 44 has a moving function using a tire for moving the monitoring robot 14, a walking function, and the like, and moves based on a predetermined point or a patrol route.

巡回経路設定手段45は、監視装置13等により個々の監視ロボット14に予め割り当てられた巡回経路に基づいて、新たに監視装置13により得られる不審者情報や迷子情報等に基づく巡回要求情報に基づいて、巡回経路の変更を行う。   The patrol route setting means 45 is based on patrol request information based on suspicious person information, lost child information, or the like newly obtained by the monitoring device 13 based on the patrol route previously assigned to each monitoring robot 14 by the monitoring device 13 or the like. Change the patrol route.

また、巡回経路設定手段45は、監視ロボット14が巡回中である場合、巡回を一端中止して現時点の位置情報を取得し、取得した位置情報と、重要監視地点との距離や重要監視地点の優先度、予め設定された巡回経路のうちの現時点より先の経路情報等に基づいて、新たな巡回経路を再設定する。   In addition, when the monitoring robot 14 is patroling, the patrol route setting unit 45 temporarily stops patrol and acquires the current position information, and the distance between the acquired position information and the important monitoring point and the important monitoring point Based on the priority and the route information ahead of the present time among the preset cyclic routes, a new cyclic route is reset.

これにより、今まで巡回してきた続きから新たな巡回経路を用いて巡回を行うことができる。また、重要監視地点として、まだ巡回していない地点を巡回するのであれば、その地点を巡回する際には、巡回速度を既定の速度よりも遅らせたり、移動を停止したりすることで、その地点にいる時間を既定の時間よりも増加させる等の処理を行うことができ、既に巡回した地点であれば、既定の巡回経路が終わった後に、その地点を再度巡回するといった処理を行う等、巡回警備等を臨機応変に対応することができる。   Thereby, it is possible to perform the patrol using the new patrol route from the continuation that has been patroling until now. Also, if you are traveling around a point that has not yet been visited as an important monitoring point, when traveling around that point, you can slow down the traveling speed from the default speed or stop the movement. It is possible to perform processing such as increasing the time at the point from the predetermined time, and if the point has already been patroled, perform processing such as patroling the point again after the predetermined patrol route is over, The patrol guard can be dealt with on an as-needed basis.

撮像手段46は、監視ロボット14に設けられたカメラ等により、監視ロボット14の前方や周囲の映像を撮影する。なお、撮像手段46は、周囲の音声を入力する音声入力機能を有していてもよい。また、撮像手段46により撮影された映像や音声は、蓄積手段43に蓄積されるか、リアルタイムで送受信手段50により通信ネットワーク15を介して監視装置13に出力される。   The imaging unit 46 captures images of the front and surroundings of the monitoring robot 14 with a camera or the like provided on the monitoring robot 14. Note that the imaging unit 46 may have a voice input function for inputting surrounding voices. In addition, the video and audio captured by the imaging unit 46 are stored in the storage unit 43 or output to the monitoring device 13 via the communication network 15 by the transmission / reception unit 50 in real time.

追跡・誘導手段47は、撮像手段46により得られる映像に含まれる人物を上述した顔領域検出や人体領域検出等によって検出し、蓄積手段43に蓄積されているか、若しくは、監視装置13により得られる不審者情報や迷子情報等の特定人物情報と照合する。また、追跡・誘導手段47は、照合の結果、その撮影された映像に含まれる人物が不審者である場合には、その不審者の後を追跡する。また、その撮影された映像に含まれる人物が迷子である場合には、その迷子に音声等により後についてくるようにメッセージを出力して、移動手段44により移動しながら迷子を所定の位置まで誘導するといった処理を行う。追跡・誘導手段47は、撮影された映像に対して所定のタイミングで継続的に不審者や迷子等の特定人物との照合を行う。   The tracking / guidance means 47 detects a person included in the video obtained by the imaging means 46 by the above-described face area detection, human body area detection, etc., and is stored in the storage means 43 or obtained by the monitoring device 13. Check against specific person information such as suspicious person information and lost child information. Further, when the person included in the captured video is a suspicious person as a result of the collation, the tracking / guidance means 47 tracks the suspicious person. In addition, when the person included in the captured video is a lost child, a message is output so that the lost child is followed by voice or the like, and the lost child is guided to a predetermined position while being moved by the moving means 44. Process. The tracking / guidance means 47 collates the captured video with a specific person such as a suspicious person or a lost child continuously at a predetermined timing.

これにより、監視ロボット14が対象者を発見した時点で巡回を終了させ、管理室等の所定の場所まで対象者を案内させるという経路設定が可能になる。   This makes it possible to set a route in which the patrol is ended when the monitoring robot 14 finds the target person and the target person is guided to a predetermined place such as a management room.

また、移動体間連携手段48は、複数の監視ロボットを用いて、ある地点を重点的に巡回して監視する場合には、他の監視ロボット間においてそれぞれ巡回している場所や時間、内容等を制御する。そのため、移動体間連携手段48は、通信ネットワーク15により各監視ロボット間において、巡回している現在の位置と、経路情報を交換しながら、それぞれの巡回タイミング等を、監視ロボット14間で連携をとりながら監視を行うことができる。   In addition, when the inter-mobile unit 48 uses a plurality of monitoring robots to circulate and monitor a certain point with priority, the location, time, contents, etc. that circulate between other monitoring robots. To control. For this reason, the inter-moving body cooperation means 48 cooperates between the monitoring robots 14 with each of the monitoring robots 14 while exchanging the current position and the route information between the monitoring robots through the communication network 15. You can monitor while taking it.

これにより、重点地域については、常に1台以上の監視ロボットがいるようにしたり、1度にその重点地域を巡回するロボットを2台にするとか等、複数のロボットに対して制御を行うことができる。   As a result, it is possible to control a plurality of robots, such as always having one or more monitoring robots in the priority area, or using two robots that patrol the priority area at a time. it can.

通知手段49は、警告信号(例えば、火災、漏水、人物検知等)巡回中に不審者や迷子等の特定人物を発見した場合、若しくは火災、漏水された場合には、その旨の警告情報を、通信ネットワーク15を介して監視装置13に通知する。また、不審者に対しては、例えば「ここは、立ち入り禁止区域です」等の情報を通知する。また、迷子等に対しては、例えば「もう大丈夫です」、「私の後についてきてください」等の情報を通知する。   The notification means 49, when a specific person such as a suspicious person or a lost child is discovered during a warning signal (for example, fire, water leakage, person detection, etc.) or when a fire or water leak is detected, warning information to that effect. The monitoring device 13 is notified via the communication network 15. Further, for example, information such as “This is a prohibited area” is notified to the suspicious person. In addition, information such as “I'm okay” or “Please follow me” is notified to a lost child or the like.

また、通知手段49は、予め設定された巡回経路にしたがい、定期的或いは各地点間の移動等の所定のタイミングで監視装置13に現在位置の通知を行う。また、通知手段49は、巡回が終了した場合に、巡回が終了したことを示す巡回終了通知を監視装置13に通知する。   In addition, the notification means 49 notifies the monitoring device 13 of the current position periodically or at a predetermined timing such as movement between points according to a preset tour route. In addition, when the tour ends, the notification unit 49 notifies the monitoring device 13 of a tour end notification indicating that the tour has ended.

なお、通知手段49は、例えば監視ロボット14等に通知を行う場合には、その監視ロボット14が対象者と対面しているか又は監視ロボット14の撮像手段により対象者が撮影されるほど接近した位置にいるため、監視ロボット14から対象者に対して音声メッセージを出力させたり、警報ランプや非常音等により周囲に対して注意を促すような処理を行わせるような信号を出力することもできる。   For example, when notifying the monitoring robot 14 or the like, the notifying unit 49 is located so close that the monitoring robot 14 faces the subject or the subject is photographed by the imaging unit of the monitoring robot 14. Therefore, it is possible to output a voice message from the monitoring robot 14 to the subject, or to output a signal that causes a warning lamp, an emergency sound, or the like to call attention to the surroundings.

送受信手段50は、LAN(Local Area Network)やインターネット等の通信ネットワーク等を介して1又は複数の監視カメラ11−1〜11−nや監視ロボット14−1〜14−nが備える撮像手段からの監視映像を受信する。なお、送受信手段50は、監視カメラ11から直接監視映像を受信しなくてもよく、例えば予め監視カメラ11で取得した映像をどこかに一時的に保存しておき、その保存された情報を用いて本実施形態における人体検出を行ってもよい。   The transmission / reception means 50 is transmitted from the imaging means provided in one or a plurality of monitoring cameras 11-1 to 11-n and monitoring robots 14-1 to 14-n via a communication network such as a LAN (Local Area Network) or the Internet. Receive surveillance video. Note that the transmission / reception means 50 does not have to receive the monitoring video directly from the monitoring camera 11. For example, the video acquired by the monitoring camera 11 is temporarily stored somewhere and the stored information is used. In this embodiment, human body detection may be performed.

また、送受信手段50は、監視ロボット14の他の端末に送信したり、他の端末から各種データを受信するための通信インタフェースとして用いることができる。   The transmission / reception means 50 can be used as a communication interface for transmitting to other terminals of the monitoring robot 14 and receiving various data from other terminals.

制御手段51は、監視ロボット14における各機能構成全体の制御を行う。具体的には、制御手段51は、入力手段41により入力されたユーザからの入力情報に基づいて、上述した各機能構成における処理を実行させる等の各種制御を行う。   The control means 51 controls the entire functional configuration of the monitoring robot 14. Specifically, the control unit 51 performs various controls such as executing the processing in each functional configuration described above based on the input information from the user input by the input unit 41.

また、制御手段51は、例えば監視ロボット14に監視区域内を巡回させている場合には、その監視ロボット14に対して巡回経路や対象者発見時の動作等について制御を行う。具体的には、制御手段51は、対象者発見時に通知手段49により対象者やその周囲について、音声メッセージや警報等の出力を行わせたり、対象者発見後に監視ロボット14の巡回を強制終了させ、帰還経路を設定する等の制御を行う。つまり、監視ロボット14が対象者を発見した時点で巡回を終了させ、管理室等の所定の場所まで対象者を案内させるという経路設定が可能になる。   Further, for example, when the monitoring robot 14 is traveling around the monitoring area, the control unit 51 controls the monitoring robot 14 regarding the traveling route, the operation when the target person is found, and the like. Specifically, the control unit 51 causes the notification unit 49 to output a voice message, an alarm, or the like for the target person or its surroundings when the target person is found, or forcibly terminates the patrol of the monitoring robot 14 after the target person is found. Control such as setting a return path is performed. In other words, when the monitoring robot 14 finds the target person, the patrol can be ended and the route can be set so that the target person is guided to a predetermined place such as a management room.

更に、制御手段51は、監視ロボット14から得られる警告信号(例えば、火災、漏水、人物検知等)に対応して、監視ロボット14に、緊急時の動作や監視装置13への通知等の制御を行わせる。   Furthermore, the control means 51 controls the monitoring robot 14 in response to a warning signal (for example, fire, water leakage, person detection, etc.) obtained from the monitoring robot 14 such as an emergency operation or notification to the monitoring device 13. To do.

上述した各装置構成を用いることにより、特徴検索機能を用いて適切な移動経路による巡回を行うことができる。   By using each device configuration described above, it is possible to perform a patrol with an appropriate movement route using the feature search function.

具体的に説明すると、従来では、特徴検索装置や監視ロボットは独立したシステムとなっており、システム間の連携は威嚇音声の出力要求等を行うのみで、お互いのシステム動作に大きく干渉することはなかった。   Specifically, in the past, the feature search device and the monitoring robot have been independent systems, and the cooperation between the systems only requires a threatening voice output request, etc. There wasn't.

しかしながら、本実施形態を適用することにより、特徴検索機能における検索結果に基づいて監視ロボットに対し、巡回する地点を指定することができる。   However, by applying the present embodiment, it is possible to designate a traveling point for the monitoring robot based on the search result in the feature search function.

<検索手段30における検索処理>
ここで、本実施形態における検索処理として、検索用人物特徴を取得するまでの概要について説明する。図4は、本実施形態における検索用人物特徴を取得するまでの概要を説明するための図である。図4に示す図は、上述した顔領域検出や人体領域検出により得られる人物特徴から検索用人物特徴データを生成するための図である。なお、人物特徴データがフレーム情報生成手段29等により生成され、蓄積手段23にデータベース等により蓄積される。
<Search Process in Search Unit 30>
Here, as a search process in the present embodiment, an outline until the search person feature is acquired will be described. FIG. 4 is a diagram for explaining an outline until a search person feature is acquired in the present embodiment. The diagram shown in FIG. 4 is a diagram for generating search person feature data from the person features obtained by the above-described face region detection and human body region detection. The person characteristic data is generated by the frame information generating unit 29 and the like, and is stored in the storage unit 23 by a database or the like.

具体的に説明すると、図4(a)では、フレーム情報生成において、各フレーム(F)において検出された人物(例えば、人物A、人物B等)に対する特徴(例えば、身長、サングラスの有無等)が取得され、これらの人物特徴を図4(b)に示すように人物毎に纏めて人物特徴をカウントする。つまり、図4(b)では、全てのデータを離散化して出現回数をカウントしており、具体的には、図4(b)において、人物Aは、映像中の3フレームで抽出され、そのうち、身長が170cmと推定された場合が2回、175cmと推定された場合が1回あり、更にサングラスの着用ありと検出された場合が2回、着用なしと検出された場合が1回ある等とカウントされる。なお、上述の例では、身長を5cm毎に離散化しているが、本発明においてはこれに限定されない。   Specifically, in FIG. 4A, in frame information generation, characteristics (for example, height, presence / absence of sunglasses, etc.) for the person (for example, person A, person B, etc.) detected in each frame (F). Is acquired, and these person features are collected for each person as shown in FIG. 4B, and the person features are counted. That is, in FIG. 4B, all data are discretized and the number of appearances is counted. Specifically, in FIG. 4B, the person A is extracted in three frames in the video, of which When the height is estimated to be 170 cm, there are 2 times, when the height is estimated to be 175 cm, once when the wearing of sunglasses is detected, twice, when there is no detection of wearing, etc. Is counted. In the above example, the height is discretized every 5 cm, but the present invention is not limited to this.

次に、図4(c)に示すように、各フレーム数で正規化を行い、このデータを検索に使用する。具体的には、検索用人物特徴データの作成する際、様々な特徴や行動の組み合わせで人物を検索するために、例えば、身長、性別、服の色のHSV値等の様々な形態により出力される人物情報を下記の式に従い、統一的に記述する。   Next, as shown in FIG. 4C, normalization is performed with the number of frames, and this data is used for retrieval. Specifically, when the search person feature data is created, in order to search for a person with a combination of various features and actions, for example, it is output in various forms such as height, sex, and HSV value of clothes color. According to the following formula, describe the person information in a unified manner.

例えば、ある人物Aにおける特徴Xについてのデータを作成する場合、特徴Xがデジタル値(性別(男・女)、サングラス(有・無)、マスク(有・無)等)の際には、以下に示す(1)式により頻度値Xの人物Aについての総頻度FAXを算出する。 For example, when creating data about a feature X of a person A, when the feature X is a digital value (gender (male / female), sunglasses (presence / absence), mask (presence / absence), etc.), The total frequency F AX for the person A having the frequency value X is calculated by the equation (1) shown below.

Figure 2012078950
また、特徴Xがアナログ値(身長、認証スコア、服の色のHSV値等)の際には、以下に示す(2)式により連続値X内特定範囲dの人物Aについての総頻度を算出する。
Figure 2012078950
When the feature X is an analog value (height, authentication score, clothes color HSV value, etc.), the total frequency of the person A in the specific range d within the continuous value X is calculated by the following equation (2). To do.

Figure 2012078950
これにより、人物の全ての情報をヒストグラムへと変換することができる。なお、このままでは人物間の比較に用いることができないため、各人物の検出フレーム数で正規化することで、正規化ヒストグラムへと変換し、以下に示す(3)式により人物Aの特徴Xについての信頼度PAXを算出する。
Figure 2012078950
Thereby, all the information of the person can be converted into a histogram. Since it cannot be used for comparison between persons as it is, it is converted into a normalized histogram by normalizing with the number of detected frames of each person, and the characteristic X of the person A is expressed by the following equation (3). The reliability P AX is calculated.

Figure 2012078950
これにより、図4(c)に示すように検索用人物特徴データを取得することができる。
Figure 2012078950
Thereby, as shown in FIG.4 (c), the person characteristic data for a search can be acquired.

<本実施形態における検索手法>
次に、上述した検索手段30における本発明における検索手法について、図を用いて説明する。本実施形態における検索手法では、上述した人物特徴データを用いた検索スコアリング手法により、映像に映っている人物を、様々な人物の特徴や行動の組み合わせで、検索することができる。また、どの組み合わせにおいても、検索要求との一致度が高い順番に検索結果を出力することができる。
<Search method in this embodiment>
Next, the search method in the present invention in the search means 30 described above will be described with reference to the drawings. In the search method according to the present embodiment, it is possible to search for a person shown in a video with a combination of various person characteristics and actions by the above-described search scoring method using person feature data. In any combination, search results can be output in descending order of matching with the search request.

ここで、図5は、本実施形態における検索手法を説明するための一例の図である。本実施形態では、図5(a)に示すように検索者が入力した検索要求「サングラスをしている175cmの人」を、上述した特徴量へと変換し、正規化ヒストグラム上の最大値(=1)を検索要求特徴量とする(図5(b))。また、検索要求特徴量に該当する特徴を参照して抽出し(図5(c))と、その該当特徴との距離を算出し、その距離を検索スコアとし(図5(d))、スコアの高い人物順に検索結果を出力する。   Here, FIG. 5 is a diagram illustrating an example of a search method according to the present embodiment. In this embodiment, as shown in FIG. 5A, the search request “175 cm person wearing sunglasses” input by the searcher is converted into the above-described feature amount, and the maximum value ( = 1) is set as the search request feature amount (FIG. 5B). Further, a feature corresponding to the search request feature value is extracted with reference to the feature (FIG. 5C), a distance from the feature is calculated, and the distance is set as a search score (FIG. 5D). The search results are output in descending order of the number of persons.

なお、本実施形態における検索に適した色情報の取り扱いとしては、人物特徴の中でも、服や髪の毛の色は、特に重要な要素であるが、色の表現は主観により変化するため、主観による変動を吸収できるようにする。具体的には、人が感じる色に検索結果を適合させるため、例えば、HSV空間等の予め人の視覚特性に基づき設定された色空間で処理を行う。なお、上述した色空間は、本発明においてはHSVに限定されず、例えばHLS、LUV、LAB等を用いることができる。更に、色解像度を低下させることで、主観による変動を吸収する。   It should be noted that the color information suitable for search in the present embodiment is particularly important for the human characteristics, such as the color of clothes and hair, but the expression of the color changes depending on the subjectivity. To absorb. Specifically, in order to adapt the search result to a color that a person feels, for example, processing is performed in a color space that is set in advance based on human visual characteristics, such as an HSV space. The color space described above is not limited to HSV in the present invention, and for example, HLS, LUV, LAB, or the like can be used. Furthermore, the subjectivity variation is absorbed by reducing the color resolution.

また、フリーワードによる検索を行う際には、入力された語句を検索要求へと変換し、検索処理を行う。なお、従来では、検索キーワードとして例えば「赤い 上着 青い ズボン」のように入力した場合、どの形容詞と、どの名詞とが修飾関係にあるかが理解できないという問題があった。そのため、本実施形態では、入力された語句の修飾関係を考慮して、検索要求へと変換することで、検索精度をより向上させることができる。なお、本実施形態では、検索要求の入力の際には、人物を表現するフリーワード入力や、検索可能な人物特徴一覧から選択することができる。   Further, when performing a search using free words, the input word / phrase is converted into a search request and a search process is performed. Conventionally, when a search keyword such as “red jacket blue pants” is entered, there is a problem that it is impossible to understand which adjectives and which nouns are in a modification relationship. Therefore, in the present embodiment, the search accuracy can be further improved by converting into a search request in consideration of the modification relationship of the input words. In this embodiment, when inputting a search request, it is possible to select from a free word input representing a person or a searchable person feature list.

これにより、蓄積された膨大な量の映像から、検索者が意図する人物像に近い人物が撮影された時刻の映像を容易に検索し、その検索結果を取得することができる。また、本実施形態では、映像確認の際には、人物映像に加えて、その人物の見た目の特徴と行動が文字で表記される。また、所望の人物については、不審者情報として各種媒体へ出力することができる。これにより、撮影された画像に対して簡単な操作で効率的に高精度な人物検索を行うことができる。   Thereby, it is possible to easily search for a video at a time when a person close to a person image intended by the searcher is taken from a huge amount of videos stored, and to obtain the search result. In the present embodiment, when the video is confirmed, in addition to the person video, the appearance characteristics and behavior of the person are written in characters. The desired person can be output to various media as suspicious person information. Thereby, a highly accurate person search can be efficiently performed with a simple operation on the captured image.

次に、本実施形態を用いた動作フローについて具体的に説明する。なお、以下に示す例では、(1)リアルタイム捜索、(2)不審箇所巡回、(3)指定特徴人物が抽出された後の処理に関するフローを順に説明する。なお、以下の処理では、監視装置13と監視ロボット14とを用いたシーケンスフローについて説明する。   Next, the operation flow using this embodiment will be specifically described. In the example shown below, a flow relating to (1) real-time search, (2) suspicious part patrol, and (3) processing after extraction of a designated characteristic person will be described in order. In the following processing, a sequence flow using the monitoring device 13 and the monitoring robot 14 will be described.

<(1)リアルタイム捜索>
図6は、本実施形態におけるリアルタイム捜索時の動作処理手順の一例を示すシーケンスチャートである。図6に示す動作処理手順では、監視装置13において、ユーザ等からのリアルタイム捜査要求があると(S01)、予め蓄積されている画像から上述したように本実施形態における検索を行い(S02)、場所別スコアを算出する(S03)。また、その結果から候補地点を選出し(S04)、選出した結果に基づいて監視ロボット14に対して巡回要求を送信し(S05)、リアルタイム捜索を開始する(S06)。
<(1) Real-time search>
FIG. 6 is a sequence chart showing an example of an operation processing procedure during real-time search in the present embodiment. In the operation processing procedure shown in FIG. 6, when there is a real-time search request from the user or the like in the monitoring device 13 (S01), the search in the present embodiment is performed as described above from the image stored in advance (S02), A score for each place is calculated (S03). Moreover, a candidate point is selected from the result (S04), a patrol request is transmitted to the monitoring robot 14 based on the selected result (S05), and a real-time search is started (S06).

また、監視ロボット14では、監視装置13から巡回要求情報を取得すると(S07)、現在巡回途中であるか否かを判断する(S08)。ここで、巡回中である場合(S08において、YES)、巡回を停止し(S09)、現在の位置からの巡回経路の再設定を行う(S10)。また、S08の処理において、巡回中でない場合(S08において、NO)、予め設定された巡回情報とS07により受信した巡回要求情報に基づいて巡回経路を設定し(S11)、S10又はS11の処理が終了後、巡回を開始する(S12)。   Further, when the patrol request information is acquired from the monitoring device 13 (S07), the monitoring robot 14 determines whether the patrol is currently in progress (S08). Here, when the tour is in progress (YES in S08), the tour is stopped (S09), and the tour route from the current position is reset (S10). Further, in the process of S08, if the circuit is not in circulation (NO in S08), a circulation route is set based on the circulation information set in advance and the circulation request information received in S07 (S11), and the process of S10 or S11 is performed. After completion, patrol is started (S12).

つまり、上述したリアルタイム捜索では、指定された特徴を元に蓄積画像から特徴検索を行い、検索結果で得られた特定人物を、その画像を撮影した監視カメラ11の識別情報等から場所別に分類し、場所毎のスコアを算出する。また、算出されたスコアに基づいて、優先巡回地点を選定し、その地点やその付近の巡回を担当する監視ロボット14等に対して巡回要求を送信する。また、監視ロボット14は、巡回要求を受け取ると、巡回要求情報中の優先巡回地点を巡回可能なように巡回経路を計算し、巡回を行う。   That is, in the real-time search described above, a feature search is performed from the stored image based on the specified feature, and a specific person obtained as a result of the search is classified by location from the identification information of the monitoring camera 11 that captured the image. Calculate the score for each location. Further, based on the calculated score, a priority patrol point is selected, and a patrol request is transmitted to the monitoring robot 14 or the like responsible for patrols at or near that point. In addition, when the surveillance robot 14 receives the patrol request, the surveillance robot 14 calculates the patrol route so that the patrol point in the patrol request information can be patroled, and performs patrol.

<巡回要求情報>
ここで、巡回要求情報の具体例について説明する。本実施形態における巡回要求情報では、例えば、その要求情報の種別を示す情報種別や優先巡回地点情報等のデータを含む。
<Course request information>
Here, a specific example of the patrol request information will be described. The tour request information in the present embodiment includes, for example, data such as an information type indicating the type of the request information and priority tour point information.

情報種別では、例えば、リアルタイム捜索、追跡、不審警戒経路等の種別が設定される。なお、上述の例では、情報種別は「リアルタイム捜索」が設定される。また、優先巡回地点情報では、例えば、(PointA,100.0)、(PointB,90.0)、・・・等である。ここで、上述の優先巡回地点情報(X,Y)のX(PointA等)はその地点の座標を示し、Y(100.0等)は巡回の優先度を示す。   In the information type, for example, a type such as real-time search, tracking, and suspicious alert route is set. In the above example, “real-time search” is set as the information type. In the priority patrol point information, for example, (Point A, 100.0), (Point B, 90.0),. Here, X (Point A etc.) of the above-mentioned priority patrol point information (X, Y) indicates the coordinates of the point, and Y (100.0 etc.) indicates the priority of the tour.

このように、優先巡回地点情報を設定しておくことで、巡回経路を容易に設定することができる。また、巡回要求情報に含まれる情報識別に基づいて、監視ロボットの監視時間や監視内容等が設定される。なお、巡回要求情報に含まれる情報は、本発明においてはこれに限定されるものではなく、例えば、捜索対象の人物情報(顔や髪、服装の特徴等)を含むことができる。   In this way, by setting the priority patrol point information, it is possible to easily set the patrol route. Further, based on the information identification included in the patrol request information, the monitoring time and monitoring contents of the monitoring robot are set. Note that the information included in the patrol request information is not limited to this in the present invention, and may include, for example, search target person information (face, hair, clothing characteristics, etc.).

<(2)不審箇所巡回>
次に、本実施形態における不審箇所巡回について説明する。図7は、不審箇所巡回時の動作処理手順の一例を示すシーケンスチャートである。図7において、まず監視装置13は、監視ロボット14のロボット状態を管理し(S21)、現在巡回中であるか否かを判断する(S22)。ここで、巡回中である場合(S22において、YES)、S21に戻り後続の処理を行う。また、巡回中でない場合(S22において、NO)、予め蓄積手段23に蓄積された画像から不審検索を行い(S23)、不審検索結果に基づいて、場所別スコアを算出する(S24)。なお、S23の処理では、不審者が画像中に存在していると判断した場合に、その画像を撮影した監視カメラ11の識別情報と撮影時間、不審者との類似度等を用いて、複数の監視カメラ11−1〜11−nから得られる各画像の不審者検索結果に基づいて、S24の処理により場所別にスコアを算出する。
<(2) Suspicious part patrol>
Next, suspicious part patrol in this embodiment will be described. FIG. 7 is a sequence chart illustrating an example of an operation processing procedure when visiting a suspicious part. In FIG. 7, the monitoring device 13 first manages the robot state of the monitoring robot 14 (S21), and determines whether or not it is currently patroling (S22). If the circuit is in circulation (YES in S22), the process returns to S21 to perform subsequent processing. If the circuit is not in circulation (NO in S22), a suspicious search is performed from images stored in the storage unit 23 in advance (S23), and a location-specific score is calculated based on the suspicious search result (S24). In the process of S23, when it is determined that a suspicious person is present in the image, a plurality of information is obtained using the identification information of the monitoring camera 11 that captured the image, the shooting time, the similarity between the suspicious person, and the like. Based on the suspicious person search result of each image obtained from the monitoring cameras 11-1 to 11-n, the score is calculated for each location by the process of S24.

次に、S23の処理により得られた不審者の不審度と、予め設定された閾値とを比較する。具体的には、不審度が閾値よりも大きいか否かを判断し(S25)、不審度が閾値より大きくない場合(S25において、NO)、S23に戻り後続の処理を行う。また、S25の処理において、不審度が閾値より大きい場合(S25において、YES)、巡回要求を監視ロボット14に送信する(S26)。   Next, the suspicious degree of the suspicious person obtained by the process of S23 is compared with a preset threshold value. Specifically, it is determined whether or not the suspicious degree is larger than the threshold value (S25). If the suspicious degree is not larger than the threshold value (NO in S25), the process returns to S23 to perform subsequent processing. In the process of S25, when the suspicious degree is larger than the threshold value (YES in S25), a patrol request is transmitted to the monitoring robot 14 (S26).

監視ロボット14は、巡回要求を受信すると(S27)、巡回経路を設定し(S28)、警備巡回を開始する(S29)。また、所定の経路で巡回しながら(S30)、巡回が終了であるか否かを判断し(S31)、巡回を終了でない場合(S31において、NO)、S30の戻り、巡回が終了するまで、継続して処理を行う。   When the surveillance robot 14 receives a patrol request (S27), the surveillance robot 14 sets a patrol route (S28) and starts a guard patrol (S29). Further, while patroling the predetermined route (S30), it is determined whether the patrol is finished (S31). If the patrol is not finished (NO in S31), the process returns to S30 until the patrol is finished. Continue processing.

また、巡回が終了した場合(S31において、YES)、巡回を終了したことを示す巡回終了通知を監視装置13に通知する(S33)。監視装置13は、監視ロボット14からの巡回終了通知を受信すると、処理を終了する(S34)。   When the tour is completed (YES in S31), the monitoring device 13 is notified of a tour end notification indicating that the tour is completed (S33). When the monitoring device 13 receives the patrol end notification from the monitoring robot 14, the monitoring device 13 ends the processing (S34).

つまり、上述の処理では、特徴検索を行う監視装置13は、監視ロボット14の状態を管理し、ロボットが巡回中でないとき、一定時間毎に不審検索を行う。また、監視装置13は、検索結果を場所毎に分類し、スコアがある閾値を越えた場所が存在するとき、その場所を優先巡回地点に選定し、監視ロボットへ巡回要求を送信する。監視システム14では、巡回要求を受信すると、巡回要求情報中の優先巡回地点情報をもとに巡回経路を算出し、巡回を開始する。なお、上述したS26、S27の処理において、送受信される巡回要求情報は、上述した内容と同様であるが、情報識別は、不審警戒となる。   In other words, in the above-described processing, the monitoring device 13 that performs feature search manages the state of the monitoring robot 14 and performs suspicious searches at regular intervals when the robot is not patroling. In addition, the monitoring device 13 classifies the search results for each place, and when there is a place where the score exceeds a certain threshold, the place is selected as a priority patrol point, and a patrol request is transmitted to the monitoring robot. When receiving the tour request, the monitoring system 14 calculates a tour route based on the priority tour point information in the tour request information, and starts the tour. In the processing of S26 and S27 described above, the traveling request information transmitted and received is the same as the above-described content, but information identification is suspicious.

<(3)指定特徴人物が抽出された後の処理>
次に、本実施形態における指定特徴人物が抽出された後の処理について説明する。図8は、指定特徴人物が抽出された後の処理時の動作処理手順の一例を示すシーケンスチャートである。図8において、まず、監視装置13は、指定特徴の入力を受け付けると(S41)、蓄積画像から検索を行う(S42)。
<(3) Processing after a specified feature person is extracted>
Next, a process after the designated feature person is extracted in the present embodiment will be described. FIG. 8 is a sequence chart showing an example of an operation processing procedure at the time of processing after the designated feature person is extracted. In FIG. 8, first, when the monitoring device 13 receives an input of a designated feature (S41), the monitoring device 13 performs a search from the stored image (S42).

次に、検索結果から最高スコアの人物を抽出し(S43)、抽出した情報に基づいて目的地を設定する(S44)。なお、S44の処理では、最高スコアの人物が撮影された画像を取得した監視カメラ11等に基づいて、その監視カメラ11が設置された地点、或いは設置された地点と、その画像が撮影されてからの経過時間や、経時的に見たその人物の移動している方向に基づいて目的地が設定される。   Next, the person with the highest score is extracted from the search result (S43), and the destination is set based on the extracted information (S44). In the process of S44, the location where the surveillance camera 11 is installed or the location where the surveillance camera 11 is installed and its image are taken based on the surveillance camera 11 or the like that has acquired the image where the person with the highest score was taken. The destination is set on the basis of the elapsed time from and the direction of movement of the person viewed with time.

ここで、S44の処理にて設定された目的地が予め設定された目的地から変化しているか否かを判断し(S45)、目的地が変化している場合(S45において、YES)、その目的地を対する巡回要求情報を監視装置13から監視ロボット14に送信する(S46)。なお、S46の処理では、捜索対象の人物情報(顔や髪、服装の特徴等)も送信することができる。   Here, it is determined whether or not the destination set in the process of S44 has changed from the preset destination (S45). If the destination has changed (YES in S45), the destination The patrol request information for the destination is transmitted from the monitoring device 13 to the monitoring robot 14 (S46). In the process of S46, personal information to be searched (face, hair, clothing characteristics, etc.) can also be transmitted.

監視ロボット14は、監視装置13から巡回要求情報を受信すると(S47)、巡回経路を設定し(S48)、設定された巡回経路に基づいて、警備巡回を開始する(S49)。また、巡回を行い(S50)、対象人物(不審者等)が発見されたか否かを判断する(S51)。ここで、対象人物が発見されていない場合(S51において、NO)、S50に戻り、巡回を継続する。また、対象人物を発見した場合(S51において、YES)、発見通知を監視装置13に通知する(S52)。その後、追跡を行い(S53)、見失った(ロスト)か否かを判断する(S54)。ここで、見失っていない場合(S54において、NO)、S53に戻り追跡を継続する。また、見失った場合(S55において、YES)、ロスト通知を監視装置13に行う(S55)。   Upon receiving the patrol request information from the monitoring device 13 (S47), the monitoring robot 14 sets a patrol route (S48), and starts a guard patrol based on the set patrol route (S49). Further, patrol is performed (S50), and it is determined whether or not a target person (suspicious person or the like) has been found (S51). Here, when the target person has not been found (NO in S51), the process returns to S50 and the circulation is continued. If the target person is found (YES in S51), a notification of discovery is sent to the monitoring device 13 (S52). Thereafter, tracking is performed (S53), and it is determined whether or not it is lost (lost) (S54). Here, when it is not lost (in S54, NO), it returns to S53 and continues tracking. Further, if the user loses sight (YES in S55), a lost notification is sent to the monitoring device 13 (S55).

ここで、監視装置13は、監視ロボット14からの通知結果を受信し(S56)、対象人物を発見したか否かを判断する(S57)。ここで、発見した場合(S57において、YES)、S56に戻り、追跡結果の通知を継続して待つ。また、発見しなかった場合(S57において、NO)、S42に戻り、指定特徴人物検索から後続の処理を行う。   Here, the monitoring device 13 receives the notification result from the monitoring robot 14 (S56), and determines whether or not a target person has been found (S57). If it is found (YES in S57), the process returns to S56 and continues to wait for notification of the tracking result. If not found (NO in S57), the process returns to S42 to perform subsequent processing from the designated feature person search.

つまり、上述の例では、監視装置13は、指定特徴が入力されると、蓄積画像より最高スコアが算出された人物を抽出する。更に、その人物が確認された場所を目的地に設定し、監視ロボットへ巡回要求を送信する。   That is, in the above-described example, when the designated feature is input, the monitoring device 13 extracts the person whose highest score is calculated from the accumulated image. Further, the place where the person is confirmed is set as the destination, and a patrol request is transmitted to the monitoring robot.

監視ロボット14は、巡回要求を受信すると、巡回要求情報中の目的地に到達するように、巡回経路を算出し、巡回を開始する。また、指定された人物が監視ロボット14に設けた撮像手段で撮影した画像に含まれていた場合、発見通知を監視装置13に送信し、更に追跡を開始する。また、追跡中に対象人物を見失った場合、ロスト通知を監視装置13に送信する。監視装置13では、発見通知を受け取ると、監視ロボット14への巡回要求を一時停止し、ロスト通知を受け取ると、再度蓄積画像からの検索を開始する。なお、上述の動作は、ユーザからの終了通知がなされるまで継続される。   Upon receiving the tour request, the monitoring robot 14 calculates a tour route so as to reach the destination in the tour request information, and starts the tour. If the designated person is included in the image captured by the imaging means provided in the monitoring robot 14, a discovery notification is transmitted to the monitoring device 13, and tracking is further started. In addition, when the target person is lost during tracking, a lost notification is transmitted to the monitoring device 13. When the monitoring device 13 receives the discovery notification, the monitoring device 13 temporarily stops the patrol request to the monitoring robot 14, and when the lost notification is received, the search from the stored image is started again. The above-described operation is continued until an end notification is given from the user.

上述した実施形態により、自律移動体である監視ロボット14がランダムに巡回経路を設定するよりも、特徴検索のスコアと連携し、そのスコアを有効に活用することにより、監視ロボットの効率的な運用が可能になる。また、監視システムにかかる人の負担を軽減しながら、監視ロボットによって犯罪の未然防止を実現することができる。なお、上述の実施例では、1台の監視ロボット14に対してのみ制御を行っていたが、本発明においてはこれに限定されるものではなく、複数の監視ロボットに対して監視装置13から同一又は監視ロボット毎の巡回位置等により異なる制御を行うことができる。   According to the above-described embodiment, the surveillance robot 14 that is an autonomous mobile body sets up a tour route at random, cooperates with the score of the feature search, and effectively uses the score to efficiently operate the surveillance robot. Is possible. In addition, crime can be prevented by the monitoring robot while reducing the burden on the person on the monitoring system. In the above-described embodiment, only one monitoring robot 14 is controlled. However, the present invention is not limited to this, and the same monitoring device 13 can be used for a plurality of monitoring robots. Alternatively, different control can be performed depending on the patrol position or the like for each monitoring robot.

<他の実施形態>
なお、上述の実施形態では、監視ロボット側で巡回経路を設定していたが、本発明においてはこれに限定されるものではなく、監視装置13側で各監視ロボット14毎に巡回経路を設定することができる。この場合には、監視装置13に上述した巡回経路設定手段を設けた構成とする。ここで、上述の内容を他の実施形態として説明する。
<Other embodiments>
In the above-described embodiment, the tour route is set on the monitoring robot side. However, the present invention is not limited to this, and the tour route is set for each monitoring robot 14 on the monitoring device 13 side. be able to. In this case, the monitoring device 13 is provided with the above-described traveling route setting means. Here, the above-described content will be described as another embodiment.

<他の実施形態:監視装置側での巡回経路設定>
図9は、監視装置側での巡回経路設定する時の動作処理手順の一例を示すシーケンスチャートである。図9において、まず、監視装置13は、蓄積画像から検索を行い(S61)、検索結果から場所別スコアを算出する(S62)。
<Other embodiments: patrol route setting on the monitoring device side>
FIG. 9 is a sequence chart illustrating an example of an operation processing procedure when setting a patrol route on the monitoring device side. In FIG. 9, first, the monitoring device 13 performs a search from the stored image (S61), and calculates a location-specific score from the search result (S62).

次に、不審度が予め設定した閾値より大きいか否かを判断する(S63)。ここで、不審度が閾値よりも大きくない場合(S63において、NO)、S61に戻り後続の処理を行う。また、S63において、不審度が閾値よりも大きい場合(S63において、YES)、ロボット位置情報を監視ロボット14に要求する(S64)。   Next, it is determined whether or not the suspicious degree is larger than a preset threshold value (S63). If the suspicious degree is not greater than the threshold value (NO in S63), the process returns to S61 to perform subsequent processing. If the suspicious degree is larger than the threshold value in S63 (YES in S63), the robot position information is requested to the monitoring robot 14 (S64).

監視ロボット14は、監視装置13からの位置情報要求を受信し(S65)、現在の位置情報を監視装置13に送信する(S66)。このとき、現在位置と同時に監視ロボット14の識別情報や時刻情報等を含んでもよい。   The monitoring robot 14 receives the position information request from the monitoring device 13 (S65), and transmits the current position information to the monitoring device 13 (S66). At this time, identification information and time information of the monitoring robot 14 may be included simultaneously with the current position.

次に、監視システム13は、監視ロボット14からロボット位置情報を受信し(S67)、巡回経路を設定する(S68)。また、設定した巡回要求情報を監視ロボット14に送信する(S69)。監視ロボット14は、監視装置13から巡回要求情報を受信し(S70)、現在巡回中であるか否かを判断し(S71)、巡回中である場合(S71において、YES)、巡回中止する(S72)。また、巡回中でない場合(S71において、NO)、又はS72の処理が終了後、警備巡回を開始し(S73)、巡回を行う(S74)。   Next, the monitoring system 13 receives the robot position information from the monitoring robot 14 (S67), and sets a patrol route (S68). Further, the set tour request information is transmitted to the monitoring robot 14 (S69). The monitoring robot 14 receives the patrol request information from the monitoring device 13 (S70), determines whether or not the patrol is currently in progress (S71), and stops patrol if the patrol is in progress (YES in S71) (S71). S72). Moreover, when it is not in patrol (in S71, NO), or after the process of S72 is complete | finished, a guard patrol is started (S73) and a patrol is performed (S74).

つまり、上記実施例では、不審検索結果で巡回条件を満たすと、監視ロボット14に位置情報を要求する。監視ロボット14からロボットの現在位置を受信すると、不審場所情報を元に巡回経路を算出し、監視ロボット14に巡回要求を送信する。   In other words, in the above-described embodiment, when the patrol condition is satisfied in the suspicious search result, the monitoring robot 14 is requested for position information. When the current position of the robot is received from the monitoring robot 14, a tour route is calculated based on the suspicious place information, and a tour request is transmitted to the monitor robot 14.

なお、上述した本実施形態における巡回要求情報は、情報種別と、経路情報とを含むよう構成される。なお、上述の例では、情報種別は「不審警戒経路」が設定される。また、経路情報では、例えば、(PointA,work1,work2,・・・)、(PointO,work1,work2,・・・)、・・・等である。ここで、上述の優先巡回地点情報(X、Y1、Y2、・・・)のX(PointA等)はその地点の座標を示し、Y1(work1等)、Y2(work2等)はその座標におけるロボット動作(ワーク)内容(例えば、監視ロボット14が備えるカメラ制御等のオペレーション)を示す。   The tour request information in the present embodiment described above is configured to include an information type and route information. In the above example, “suspicious alert route” is set as the information type. In the route information, for example, (Point A, work 1, work 2,...), (Point O, work 1, work 2,...),. Here, X (Point A etc.) of the above-mentioned priority patrol point information (X, Y1, Y2,...) Indicates the coordinates of the point, and Y1 (work 1 etc.), Y2 (work 2 etc.) are the robots at the coordinates. Operation (work) contents (for example, operations such as camera control provided in the monitoring robot 14) are shown.

このように、優先巡回地点情報を設定しておくことで、巡回経路を容易に設定することができる。また、巡回要求情報に含まれる情報識別に基づいて、監視ロボットの監視時間や監視内容等が設定される。なお、巡回要求情報に含まれる情報は、本発明においてはこれに限定されるものではなく、例えば、捜索対象の人物情報(顔や髪、服装の特徴等)を含むことができる。また、上述した例では、監視ロボットを複数台運用することもできる。   In this way, by setting the priority patrol point information, it is possible to easily set the patrol route. Further, based on the information identification included in the patrol request information, the monitoring time and monitoring contents of the monitoring robot are set. Note that the information included in the patrol request information is not limited to this in the present invention, and may include, for example, search target person information (face, hair, clothing characteristics, etc.). In the example described above, a plurality of monitoring robots can be operated.

<監視ロボットが検索機能を設けた場合の動作フロー>
更に、本発明では、監視ロボット14からで上述した監視装置13における特徴人物の検索機能を設けておいてもよい。この場合には、監視ロボット14に上述した検索手段を設けた構成とする。ここで、上記の内容の具体例について以下に説明する。
<Operation flow when the monitoring robot has a search function>
Furthermore, in the present invention, a feature person search function in the monitoring device 13 described above from the monitoring robot 14 may be provided. In this case, the monitoring robot 14 is provided with the search means described above. Here, specific examples of the above contents will be described below.

図10は、監視ロボットに検索機能を設けた時の動作処理手順の一例を示すシーケンスチャートである。なお、図10の処理については、監視装置13を用いることなく、巡回設定ができるため、監視カメラ11と監視ロボット14とを用いた例について図を用いて説明するが、本発明においてはこれに限定されるものではなく、監視装置13を用いて全体の処理管理を行ってもよい。   FIG. 10 is a sequence chart illustrating an example of an operation processing procedure when the search function is provided in the monitoring robot. Note that the processing of FIG. 10 can be set without using the monitoring device 13, so an example using the monitoring camera 11 and the monitoring robot 14 will be described with reference to the drawings. The present invention is not limited, and the entire processing management may be performed using the monitoring device 13.

図10において、まず各監視カメラ11−1〜11−nから得られる画像を監視ロボット14に送信する(S81)。監視ロボット14は、各監視カメラ11−1〜11−nから撮影された画像を受信し(S82)、受信した画像を蓄積する(S83)。このとき、監視ロボット14に設けられたカメラ等の撮像手段から撮影された画像を蓄積してもよい。   In FIG. 10, first, images obtained from the respective monitoring cameras 11-1 to 11-n are transmitted to the monitoring robot 14 (S81). The surveillance robot 14 receives images taken from the surveillance cameras 11-1 to 11-n (S82) and accumulates the received images (S83). At this time, images taken from imaging means such as a camera provided in the monitoring robot 14 may be accumulated.

次に、監視ロボット14は、蓄積画像から検索を行い(S84)、検索結果から場所別スコアを算出する(S85)。   Next, the surveillance robot 14 performs a search from the stored image (S84), and calculates a location-specific score from the search result (S85).

次に、不審度が予め設定した閾値より大きいか否かを判断する(S86)。ここで、不審度が閾値よりも大きくない場合(S86において、NO)、S84に戻り後続の処理を行う。また、S86において、不審度が閾値よりも大きい場合(S86において、YES)、巡回経路を設定する(S87)。また、現在巡回中であるか否かを判断し(S88)、巡回中である場合(S88において、YES)、巡回中止する(S89)。また、巡回中でない場合(S88において、NO)、又はS89の処理が終了後、警備巡回を開始し(S90)、巡回を行う(S91)。   Next, it is determined whether or not the suspicious degree is larger than a preset threshold value (S86). If the suspicious degree is not greater than the threshold value (NO in S86), the process returns to S84 to perform subsequent processing. If the suspicious degree is larger than the threshold value in S86 (YES in S86), a patrol route is set (S87). Further, it is determined whether or not the tour is currently being performed (S88). If the tour is being performed (YES in S88), the tour is stopped (S89). Moreover, when it is not in patrol (in S88, NO), or after the process of S89 is completed, the patrol patrol is started (S90), and patrol is performed (S91).

なお、上述した本実施形態における処理では、各センサ群12からのセンサ検知情報に基づいて、場所別スコア算出を行ってもよい。この場合センサに画像は含まれていないため、検知位置情報と検知識別情報とが管理ロボット14に送信される。   In the above-described process according to the present embodiment, the location-specific score may be calculated based on the sensor detection information from each sensor group 12. In this case, since no image is included in the sensor, detection position information and detection identification information are transmitted to the management robot 14.

<画面生成手段33において生成される画面例>
次に、画面生成手段33において生成される画面例について図を用いて説明する。図11は、本実施形態における画面遷移例を示す図である。図11に示す画面例では、初期画面61と、日時指定画面62と、特徴・行動条件指定画面63と、検索結果表示画面64と、映像再生画面65と、共有画面66とを有するよう構成されている。本実施形態に係るシステム起動時には、最初に初期画面61が表示される。また、図11に示す各画面への遷移は、図11に示すように予め所定の画面に遷移する遷移ボタンを設定し、その遷移ボタンを選択することで、それぞれの画面がディスプレイ等の出力手段22に出力される。なお、本発明における画面生成される画面例はこれに限定されず、また以下に示す画面レイアウトや表示内容についてもこれに限定されるものではない。
<Example of Screen Generated by Screen Generation Unit 33>
Next, a screen example generated by the screen generation unit 33 will be described with reference to the drawings. FIG. 11 is a diagram illustrating an example of screen transition in the present embodiment. The screen example shown in FIG. 11 includes an initial screen 61, a date / time designation screen 62, a feature / action condition designation screen 63, a search result display screen 64, a video playback screen 65, and a shared screen 66. ing. When the system according to the present embodiment is activated, an initial screen 61 is first displayed. Further, the transition to each screen shown in FIG. 11 is performed by setting a transition button for transitioning to a predetermined screen as shown in FIG. 11 and selecting the transition button so that each screen is output means such as a display. 22 is output. In addition, the example of the screen produced | generated in this invention is not limited to this, Moreover, the screen layout and display content shown below are not limited to this.

初期画面61からの検索方法には、例えば、来店者検索、不審者検索、キーワード検索と、条件指定検索(人物特徴検索)と、リアルタイム捜索との5種類がある。   There are five search methods from the initial screen 61, for example, store visitor search, suspicious person search, keyword search, condition-designated search (person feature search), and real-time search.

例えば、上述した監視カメラ11が設置された対象設備内(例えば商店に来店した人物を確認する場合には、来店者検索の「来店者検索ボタン」を押下することで日時指定画面62へと遷移する。また、初期画面61において、不審者を検索する場合には、不審者検索ボタンを押下することで日時指定画面62へと遷移する。   For example, in the target facility in which the above-described surveillance camera 11 is installed (for example, when confirming a person who has visited a store, the display switches to the date and time designation screen 62 by pressing a “visitor search button” for searching for a store visitor. When searching for a suspicious person on the initial screen 61, the date and time designation screen 62 is displayed by pressing a suspicious person search button.

また、初期画面61において、キーワード検索を行う場合には、キーワード検索のエディットボックス内に検索対象のキーワードを入力し、「キーワード検索」ボタンを押下することで、予め設定された日時や場所情報等と、エディットボックス内に入力された検索用の文字をキーワード(検索要求の変換処理)として検索手段30により検索がなされると同時に、画面が検索結果表示画面64へと遷移して、その検索結果が表示される。   In addition, in the initial screen 61, when performing a keyword search, a keyword to be searched is input in the keyword search edit box, and a “keyword search” button is pressed, so that date and time information set in advance, etc. When the search means 30 performs a search using the search characters entered in the edit box as keywords (search request conversion processing), the screen transitions to the search result display screen 64 and the search results are displayed. Is displayed.

また、初期画面61において、人物の特徴から検索する場合には、「人物特徴から検索」ボタンを押下することで、特徴・行動条件指定画面63へと遷移する。   Further, in the initial screen 61, when searching from the feature of a person, the “Transition from person feature” button is pressed to transition to the feature / action condition designation screen 63.

更に、初期画面において、監視ロボットによる迷子等のリアルタイム捜索を行う場合には、「リアルタイム捜索ボタン」を押下することで、特徴・行動条件指定画面63へと遷移する。   Furthermore, in the initial screen, when performing a real-time search for a lost child or the like by the monitoring robot, the “real-time search button” is pressed to transit to the feature / action condition designation screen 63.

また、日時指定画面62では、日時条件や検索場所条件を指定する。これにより、例えば、監視ロボット等の移動型の撮像手段により得られる映像を対象とした場合にも、その映像と共に得られる監視ロボットの巡回位置情報等に基づいて、対象とする場所により得られる映像のみを対象として効率よく検索することができる。なお、この場所指定は、例えば、固定型の撮像手段からの映像を対象とする場合にも、検索対象の映像を限定することができるため有効である。   In the date and time designation screen 62, date and time conditions and search location conditions are designated. Thus, for example, even when an image obtained by a moving imaging means such as a monitoring robot is targeted, an image obtained by a target location based on the patrol position information of the monitoring robot obtained together with the image. Can be efficiently searched for only the target. This location designation is effective because, for example, the video to be searched can be limited even when the video from the fixed imaging means is targeted.

次に、指定された日時条件や場所条件を、検索処理に渡し、検索処理が終了したら検索結果を呼び出して検索結果表示画面64へ遷移する。なお、指定される場所としては、例えば地名や郵便番号、商店や商業施設等の名称、フロアの階数等でもよく、更に、その映像を撮影した監視ロボットから半径100m以内等の地域範囲として指定することもできる。   Next, the designated date and time conditions and place conditions are passed to the search process, and when the search process is completed, the search result is called and the screen shifts to the search result display screen 64. The designated place may be, for example, a place name, a postal code, a name of a store or a commercial facility, a floor number of a floor, and the like, and is further designated as an area range within a radius of 100 m from the monitoring robot that captured the video. You can also.

特徴・行動条件指定画面63は、「人物特徴から検索」又は「リアルタイム捜索」が選択された場合に検索条件を指定する。全ての条件について、格納関数を呼び出す。また、検索ボタンが押されると、検索処理関数を呼び出し、検索結果表示画面64へ遷移する。   The feature / behavioral condition designation screen 63 designates a search condition when “search from person feature” or “real-time search” is selected. Call the storage function for all conditions. Further, when the search button is pressed, a search processing function is called and a transition is made to the search result display screen 64.

また、特徴・行動条件指定画面63には、日付指定、場所指定、身長指定、色情報指定、性別指定、マスク指定、サングラス指定、年代指定、登場人物指定、似ている芸能人指定等の各指定領域と、検索実行ボタン群及びハイパーリンク表示領域を有している。   Also, on the feature / action condition designation screen 63, each designation such as date designation, place designation, height designation, color information designation, gender designation, mask designation, sunglasses designation, age designation, character designation, similar entertainer designation, etc. An area, a search execution button group, and a hyperlink display area.

なお、上述した場所指定では、対象の人物を検索する場所の設定を行う。具体的には、映像が撮影された監視カメラ11の位置情報に基づいて検索対象の場所情報を指定する。また、位置情報は、監視カメラ11のように固定型であれば、映像データに含まれるその撮像手段の識別情報により容易に取得することができ、更に監視ロボット等の移動型である場合には、映像データに含まれるその監視ロボットの巡回位置情報を利用することができる。   In the place designation described above, a place for searching for a target person is set. Specifically, the location information to be searched is specified based on the location information of the surveillance camera 11 where the video is taken. Further, if the position information is a fixed type such as the monitoring camera 11, it can be easily obtained from the identification information of the imaging means included in the video data, and if the position information is a moving type such as a monitoring robot. The patrol position information of the monitoring robot included in the video data can be used.

また、登場人物指定では、予め蓄積されている登録人物情報にしたがって、リスト中から登録人物名を設定する。また、似ている芸能人指定では、予め蓄積されている芸能人情報にしたがって、リスト中から芸能人名を設定する。   In the character designation, a registered person name is set from the list in accordance with registered person information accumulated in advance. Also, in the case of similar entertainer designation, entertainer names are set from the list according to entertainer information accumulated in advance.

検索実行ボタン群では、「この条件に合う人物を検索ボタン」と「クリアボタン」とを有し、「この条件に合う人物を検索ボタン」を押下した場合、初期画面61で指示された「人物特徴から検索」又は「リアルタイム捜索」に対応する全ての条件に関しての格納関数を順次呼び出す。また、最後に検索関数を呼び出して検索処理を実行し、処理が終了後、検索結果表示画面64へ遷移する。なお、条件に合わない入力があった場合には、例えば「もう一度入力してください」というメッセージが通知される。また、検索実行ボタン群の「クリアボタン」が押下された場合には、特徴・行動条件指定画面63上の各種条件の設定がクリア(初期化)される。また、ハイパーリンク表示領域68では、文字が表示された部分を選択することで、最初の画面(初期画面61)に遷移する。   The search execution button group includes a “search person for this condition” button and a “clear button”. When the “search person for this condition button” is pressed, the “person” specified on the initial screen 61 is displayed. The storage function for all conditions corresponding to “search from feature” or “real-time search” is sequentially called. Finally, the search function is called to execute the search process, and after the process is completed, the screen transitions to the search result display screen 64. If there is an input that does not meet the conditions, for example, a message “Please input again” is notified. When the “clear button” of the search execution button group is pressed, the settings of various conditions on the feature / action condition designation screen 63 are cleared (initialized). Further, in the hyperlink display area 68, by selecting a portion where characters are displayed, the screen is changed to the first screen (initial screen 61).

本実施形態では、上述した初期画面61、日時指定画面62、特徴・行動条件指定画面63において、各種検索条件を指定し、検索結果表示画面64にて検索結果を表示する。また、所定の検索結果出力関数を呼び出し、各種情報を表示する。   In the present embodiment, various search conditions are specified on the initial screen 61, the date / time specification screen 62, and the feature / action condition specification screen 63 described above, and the search results are displayed on the search result display screen 64. Also, a predetermined search result output function is called to display various information.

検索結果表示画面64は、各種検索領域、検索結果数表示領域、該当人物出現時の画像表示領域、該当人物の顔画像、検索結果表示領域等を有し、その他にも映像確認ボタンやページ選択アイコン、及びハイパーリンク表示領域を有している。   The search result display screen 64 has various search areas, a search result number display area, an image display area when a corresponding person appears, a face image of the corresponding person, a search result display area, and the like. It has an icon and a hyperlink display area.

各種検索領域では、初期画面61等で選択したイベントに従い、そのイベントに対応する各種ボタンを押下することで、検索処理と画面遷移を行う。なお、各種検索領域には、「一時停止ボタン」が設けられているが、このボタンは、例えば、リアルタイム捜索等におけるリアルタイムな検索結果の出力を更新せずに一時的に停止するためのものである。具体的には、例えば、リアルタイム捜索の場合には、検索結果表示領域に迷子等の捜索の対象となる人物との類似性が高いものから随時表示されたり、ある一定以上の類似性を有する結果が随時表示されるため、表示内容が更新され、これにより画面の表示されている内容を見逃す恐れがある。そのため、検索結果の更新表示を一時停止することにより、検索結果を正確に確認することができる。   In various search areas, according to the event selected on the initial screen 61 or the like, the search process and screen transition are performed by pressing various buttons corresponding to the event. Each search area is provided with a “pause button”. This button is used to temporarily stop the output of the real-time search result without updating the real-time search, for example. is there. Specifically, for example, in the case of real-time search, the search result display area is displayed as needed from the one with high similarity to the person to be searched such as a lost child, or the result having a certain similarity or more Is displayed at any time, the display content is updated, and there is a risk of overlooking the content displayed on the screen. Therefore, the search result can be confirmed accurately by pausing the update display of the search result.

また、検索結果数表示領域では、検索した結果数と、現在表示中の件数を表示する(例えば、「検索結果62件中1−5件目」等)。また、該当人物出現時の画像表示領域では、該当人物出現時のサムネイル用人体画像を表示する。また、該当人物の顔画像では、該当人物のサムネイル用顔画像を表示する。なお、該当人物出現時の画像表示領域及び該当人物の顔画像において、表示対象画像ない場合は表示しない(「NO IMAGE」表示等)。   In the search result number display area, the number of search results and the number of currently displayed results are displayed (for example, “1-5 of 62 search results”). Further, in the image display area when the corresponding person appears, the human body image for thumbnail when the corresponding person appears is displayed. In addition, in the face image of the corresponding person, a thumbnail face image of the corresponding person is displayed. In the image display area when the person appears and the face image of the person, the image is not displayed if there is no display target image (“NO IMAGE” display or the like).

また、検索結果表示領域は、検索の結果、該当する人物の情報(見た目の特徴・行動)、又は監視ロボットによる検知等に対応するアイコンを表示する。   In addition, the search result display area displays icons corresponding to the information of the corresponding person (appearance features / behavior) or detection by the monitoring robot as a result of the search.

また、上述のアイコンは、上述の各条件に対応して予め設定されており、更に「赤」、「黒」、「グレー」等の予め設定された色で分けて表示することができる。ここで、「赤」で表示されている場合は、検索条件に含まれていたものを示し、「黒」で検索条件には含まれていないが、上記条件に該当する映像であるものと示し、「グレー」は検索条件及び映像の解析結果で該当しなかったものを示している。なお、色の種類については本発明においては特に制限はなく、他の色でもよく、また点滅や斜線等により区別して強調表示させることもできる。また、アイコン表示領域には、アイコンではなく文字そのものを表示することもでき、この場合には、例えば文字のフォントの種類や大きさ、太さ、下線等の形式を変更したり、点滅させたり、色を変える等により区別させることができる。   The icons described above are set in advance corresponding to the above-described conditions, and can be displayed separately in preset colors such as “red”, “black”, and “gray”. Here, if it is displayed in “red”, it indicates that it was included in the search condition, and “black” indicates that it is not included in the search condition but is an image that meets the above condition. “Gray” indicates that the search condition and the analysis result of the video are not applicable. Note that the type of color is not particularly limited in the present invention, and other colors may be used. Alternatively, the colors may be distinguished and highlighted by blinking, diagonal lines, or the like. In the icon display area, it is also possible to display the character itself instead of the icon. In this case, for example, the font type, size, thickness, underline, etc. of the character can be changed or blinked. It can be distinguished by changing the color.

また、映像確認ボタンでは、ボタンをクリックすると映像再生処理を呼び出し、映像再生画面65へ遷移する。また、ページ選択アイコンでは、検索結果が複数ページに及ぶ場合に、それぞれのページにジャンプする。また、ハイパーリンク表示領域76では、文字が表示された部分を選択することで、最初の画面(初期画面61)に遷移する。上述した画面により、検索者に対して抽出された検索結果がどの条件に該当しているかを容易に把握させることができる。   Further, in the video confirmation button, when the button is clicked, a video playback process is called and a transition to the video playback screen 65 is made. Further, the page selection icon jumps to each page when the search result covers a plurality of pages. Further, in the hyperlink display area 76, the screen is changed to the first screen (initial screen 61) by selecting the portion where the character is displayed. The above-described screen allows the searcher to easily grasp which condition the extracted search result corresponds to.

つまり、検索結果表示画面64において、人物の特徴や行動といった情報や、撮像手段26と連携した機器等をアイコンによって表示することにより、容易に要求する人物の確認ができる。   That is, on the search result display screen 64, by displaying information such as a person's characteristics and behavior, devices linked to the imaging means 26, and the like with icons, the requested person can be easily confirmed.

映像再生画面65は、映像表示領域、テキスト表示領域、特徴表示領域、及びボタン領域を有している。映像表示領域では、入力されたファイルパス、再生開始時間、再生終了時間を映像再生処理の引数として、映像を再生・表示する。また、映像表示領域には、スライダ、再生ボタン、停止ボタン等があり、映像を見たい場所から見たり、映像の再生、停止を容易に行うことができる。また、映像表示領域で表示されるデータは、AVIファイルの他、MPEG2、MPEG4、H.264、WMV、MP4等のファイル形式のデータを表示することができ、またJPEG、GIF、TIFF、BMP等の画像データも表示させることができる。   The video playback screen 65 has a video display area, a text display area, a feature display area, and a button area. In the video display area, video is played back and displayed using the input file path, playback start time, and playback end time as arguments of video playback processing. In addition, the video display area includes a slider, a playback button, a stop button, and the like, so that the user can easily view the video from a place where he / she wants to view the video, and play / stop the video. In addition to the AVI file, the data displayed in the video display area includes MPEG2, MPEG4, H.264. H.264, WMV, MP4, and other file format data can be displayed, and image data such as JPEG, GIF, TIFF, and BMP can also be displayed.

また、テキスト表示領域には、映像再生の時間がテキスト内の時間になった際に、映像に対応する行動の文章を赤文字や太字等の強調文字により表示することができる。また、過去の情報はそのまま表示し、新たな情報が表示された場合、過去の情報は黒文字へ変化させる。これにより、現在の行動と今までの行動履歴を容易に把握することができる。   In the text display area, when the video playback time is the time in the text, the action text corresponding to the video can be displayed with highlighted characters such as red letters and bold letters. Further, past information is displayed as it is, and when new information is displayed, the past information is changed to black characters. Thereby, it is possible to easily grasp the current action and the action history so far.

また、特徴表示領域には、表示されている映像に含まれる人物の特徴情報が表示される。なお、複数人が撮影されている場合には、それぞれの特徴情報が表示される。   In the feature display area, the feature information of the person included in the displayed video is displayed. When a plurality of people are photographed, the respective feature information is displayed.

また、ボタン領域では、「共有ボタン」と「類似検索ボタン」とが設けられている。「共有ボタン」を押下すると共有画面66に遷移する。なお、この場合、映像表示領域における映像再生は、装置の負荷を軽減するために停止する。また、「類似検索ボタン」を押下すると、表示された人物の特徴等に基づいて他の映像からの類似検索を行い、他のカメラで撮影されていないかをチェックし、その結果を上述した検索結果表示画面64に遷移した後に出力する。   In the button area, a “share button” and a “similar search button” are provided. When the “share button” is pressed, the screen transitions to the share screen 66. In this case, the video reproduction in the video display area is stopped to reduce the load on the apparatus. Also, when the “similarity search button” is pressed, a similarity search from another video is performed based on the characteristics of the displayed person, etc., and it is checked whether the image is taken by another camera, and the result is the search described above. Output after transitioning to the result display screen 64.

つまり、映像再生画面65では、検索結果表示画面64より渡されたテキスト内に、映像中の人物の行動と、時間が記述されているため、映像表示領域にて映像が表示中に、映像の時間が、テキストに対応する時間になった時に、テキスト表示領域により該当テキストを赤く表示する(強調表示)。その後、新たな情報がある場合、過去の情報は黒文字で表示する。   That is, in the video playback screen 65, since the action and time of the person in the video are described in the text passed from the search result display screen 64, the video is displayed while the video is being displayed in the video display area. When the time corresponding to the text is reached, the text is displayed in red in the text display area (highlighted). Thereafter, when there is new information, the past information is displayed in black characters.

また、上述した映像再生画面65において、ボタン領域の「共有ボタン」を押下した際に、共有画面66にて人物情報を表示する。ここで、共有画面66は、画像表示領域、テキスト表示領域、及びコメント入力領域を有している。画像表示領域では、該当人物出現時の画像、及び該当人物の顔画像が表示される。また、テキスト表示領域では、赤文字等の強調文字で不審情報を表示し、その他に時刻情報(日付、入店時間、退店時間等)、特徴(身長、性別、年別等)が表示される。コメント入力領域では、入力手段21により、コメントが入力される。なお、コメント入力領域はデフォルト表示として「コメントを入力してください。」と表示し、入力手段21により検索者等により文字の入力を受け付けることができる。これにより、検索者が独自の観点で人物情報を設定し管理することができる。   In addition, when the “share button” in the button area is pressed on the video playback screen 65 described above, the person information is displayed on the share screen 66. Here, the shared screen 66 has an image display area, a text display area, and a comment input area. In the image display area, an image when the person appears and a face image of the person are displayed. In the text display area, suspicious information is displayed in highlighted characters such as red letters, and time information (date, time of entry, time of exit, etc.) and characteristics (height, gender, year, etc.) are also displayed. The In the comment input area, a comment is input by the input means 21. The comment input area displays “Please input a comment” as a default display, and the input means 21 can accept input of characters by a searcher or the like. Thereby, the searcher can set and manage personal information from a unique point of view.

更に、共有画面66に表示される各種の内容をプリンタに出力したり、ファイルを生成して所定の携帯電話にメール送信する印刷・出力機能を有する。これにより、映像表示画面において、人物についての情報を、文字と映像の両方から確認でき、更に印刷物の形態等により外部機器に出力可能とすることで、容易に要求する人物の確認と、情報伝達(共有)ができる。   Furthermore, it has a print / output function for outputting various contents displayed on the shared screen 66 to a printer, generating a file, and sending it by e-mail to a predetermined mobile phone. This makes it possible to check information about a person from both text and video on the video display screen, and to output it to an external device in the form of printed matter, etc. (Sharing).

<ロボット経路設定画面>
次に、上述した本実施形態におけるロボット経路設定の画面例について説明する。図12は、本実施形態におけるロボット経路設定の画面例を示す図である。図12に示すロボット経路設定画面71は、経路地図表示領域72と、ロボット別経路候補選択領域73と、巡回経路情報表示領域74と、経路編集領域75とを有するよう構成されている。
<Robot route setting screen>
Next, an example of the robot path setting screen in the above-described embodiment will be described. FIG. 12 is a diagram illustrating a screen example of robot path setting in the present embodiment. The robot route setting screen 71 shown in FIG. 12 is configured to have a route map display region 72, a route candidate selection region 73 for each robot, a tour route information display region 74, and a route edit region 75.

経路地図表示領域72では、選択された巡回経路を表示する。なお、経路地図表示領域72は、予め設定される各ポイントや監視カメラ11又は各センサ群12が設置されている場所等も表示させることができる。   In the route map display area 72, the selected tour route is displayed. The route map display area 72 can also display each point set in advance, a place where the monitoring camera 11 or each sensor group 12 is installed, or the like.

更に、経路地図表示領域72は、監視ロボットが撮影した監視映像や、監視映像都共に送信された巡回位置情報(3次元座標、緯度、経度等)を表示させることもできる。   Furthermore, the route map display area 72 can also display the monitoring video taken by the monitoring robot and the patrol position information (three-dimensional coordinates, latitude, longitude, etc.) transmitted together with the monitoring video capital.

また、ロボット別経路候補選択領域73は、ロボット毎に算出された経路候補のリストが表示される。これにより、ユーザは、容易に監視ロボット毎に経路候補を把握することができる。また、巡回経路情報表示領域74は、選択された経路の通過座標のリストを表示する。更に、経路編集領域75は、選択した経路の編集、地点毎のロボット動作の編集等を行う。   The robot-specific route candidate selection area 73 displays a list of route candidates calculated for each robot. Thereby, the user can grasp | ascertain a route candidate for every monitoring robot easily. The traveling route information display area 74 displays a list of passing coordinates of the selected route. Furthermore, the route editing area 75 performs editing of the selected route, editing of the robot operation for each point, and the like.

図12の例では、監視装置13側にて複数の監視ロボット14−1〜14−nの経路算出を行うことができる。図12の例では、ロボット別巡回経路算出時点の画面例を示している。   In the example of FIG. 12, the route calculation of the plurality of monitoring robots 14-1 to 14-n can be performed on the monitoring device 13 side. In the example of FIG. 12, an example of a screen at the time of calculating a robot-specific tour route is shown.

つまり、ロボット経路設定画面71上には、監視ロボット毎の経路候補、及び、地点毎の監視ロボット動作が表示され、ユーザによって、編集が可能となっている。ユーザによる選択、編集がなされない場合、最上位の経路候補が選択される。   That is, on the robot route setting screen 71, route candidates for each monitoring robot and monitoring robot operations for each point are displayed and can be edited by the user. If selection or editing by the user is not performed, the highest route candidate is selected.

<実行プログラム>
ここで、上述した自律移動体を用いた監視システム(監視装置13、監視ロボット14等)は、例えばCPU(Central Processing Unit)、RAM(Random Access Memory)等の揮発性の記憶媒体、ROM(Read Only Memory)等の不揮発性の記憶媒体、タッチパネルやマウスやキーボード、ポインティングデバイス等の入力装置、画像やデータを表示する表示装置、並びに外部と通信するためのインタフェース装置を備えたコンピュータを組み込むことによって構成することができる。
<Execution program>
Here, the above-described monitoring system using the autonomous mobile body (such as the monitoring device 13 and the monitoring robot 14) includes, for example, a CPU (Central Processing Unit), a volatile storage medium such as a RAM (Random Access Memory), and a ROM (Read). By incorporating a non-volatile storage medium such as (Only Memory), a touch panel, a mouse, a keyboard, an input device such as a pointing device, a display device for displaying images and data, and a computer equipped with an interface device for communicating with the outside Can be configured.

したがって、監視装置13や監視ロボット14が有する上述した各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現可能となる。また、これらのプログラムは、磁気ディスク(フロッピィーディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記録媒体に格納して頒布することもできる。   Accordingly, the above-described functions of the monitoring device 13 and the monitoring robot 14 can be realized by causing the CPU to execute a program describing these functions. These programs can also be stored and distributed in a recording medium such as a magnetic disk (floppy disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, or the like.

つまり、上述した各構成における処理をコンピュータに実行させるための実行プログラム(監視プログラム))を生成し、例えば汎用のパーソナルコンピュータやサーバ等にそのプログラムをインストールすることにより、監視処理を実現することができる。なお、本発明における実行プログラムによる処理については、例えば上述した各処理を実現することができる。   In other words, it is possible to realize the monitoring process by generating an execution program (monitoring program) for causing the computer to execute the processing in each configuration described above and installing the program in, for example, a general-purpose personal computer or server. it can. In addition, about the process by the execution program in this invention, each process mentioned above is realizable, for example.

上述したように、本発明によれば、特徴検索機能を用いて適切な移動経路による巡回を行うための自律移動体を用いた監視システム、監視装置、自律移動体、監視方法、及び監視プログラムを提供することができる。   As described above, according to the present invention, a monitoring system, a monitoring device, an autonomous moving body, a monitoring method, and a monitoring program using an autonomous moving body for performing a tour along an appropriate movement route using a feature search function are provided. Can be provided.

また、人物検索については、予め蓄積された映像に対して人物検索する場合や、リアルタイムで得られた映像に対して人物検索する場合があり、また、その映像を撮影する撮像手段としては、予め設定された壁や天井等に設置される固定型のものや、監視ロボット等に搭載された移動型のものがあるが、本発明によれば、その何れにも対応した適切な人物検索を実現することができる。   As for the person search, there are a case where a person is searched for a video stored in advance, or a case where a person is searched for a video obtained in real time. There is a fixed type installed on a set wall or ceiling, etc., and a mobile type mounted on a surveillance robot, etc. According to the present invention, an appropriate person search corresponding to any of them is realized. can do.

また、本発明によれば、例えば上述した検索スコアリング手法により、蓄積映像又はリアルタイム映像に映っている人物を、様々な人物の特徴や行動の組み合わせで検索することができる。また、どの組み合わせにおいても、検索要求との一致度が高い順番に検索結果が出力される。これにより、検索結果を効果的に出力し、映像確認の作業を大幅に軽減することができる。更に、本発明によれば、各映像間における人物の類似検索を行い、その結果を表示させることができる。   Further, according to the present invention, for example, by the search scoring method described above, it is possible to search for a person shown in an accumulated video or a real-time video by a combination of various person characteristics and actions. In any combination, search results are output in descending order of matching with the search request. As a result, the search result can be output effectively, and the work of checking the video can be greatly reduced. Furthermore, according to the present invention, it is possible to perform a similarity search of persons between videos and display the result.

つまり、監視ロボットがランダムに巡回経路を設定するよりも、特徴検索のスコアと連携し、そのスコアを有効に活用することにより、監視ロボットの効率的な運用が可能になる。監視システムにかかる人の負担を軽減しながら、監視ロボットによって犯罪の未然防止を実現することができる。   In other words, the surveillance robot can be efficiently operated by cooperating with the score of the feature search and effectively utilizing the score, rather than the surveillance robot randomly setting the patrol route. The crime can be prevented by the surveillance robot while reducing the burden on the surveillance system.

以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.

10 移動管理システム
11 監視カメラ
12 各センサ群
13 監視装置
13 監視ロボット
15 通信ネットワーク
21,41 入力手段
22,42 出力手段
23,43 蓄積手段
24 顔・人体領域検出手段
25 同定手段
26 追跡手段
27 不審者検出手段
28 人物情報統合手段
29 フレーム情報生成手段
30 検索手段
31 重要監視地点選出手段
32 巡回指示手段
33 画面生成手段
34,49 通知手段
35,50 送受信手段
36,51 制御手段
44 移動手段
45 巡回経路設定手段
46 撮像手段
47 追跡・誘導手段
48 移動体間連携手段
61 初期画面
62 日時指定画面
63 特徴・行動条件指定画面
64 検索結果表示画面
65 映像再生画面
66 共有画面
71 ロボット経路設定画面
72 経路地図表示領域
73 ロボット別経路候補選択領域
74 巡回経路情報表示領域
75 経路編集領域
DESCRIPTION OF SYMBOLS 10 Movement management system 11 Monitoring camera 12 Each sensor group 13 Monitoring apparatus 13 Monitoring robot 15 Communication network 21, 41 Input means 22, 42 Output means 23, 43 Accumulation means 24 Face / human body area detection means 25 Identification means 26 Tracking means 27 Suspicious means 27 Person detection means 28 Person information integration means 29 Frame information generation means 30 Search means 31 Important monitoring point selection means 32 Travel instruction means 33 Screen generation means 34, 49 Notification means 35, 50 Transmission / reception means 36, 51 Control means 44 Movement means 45 Travel Route setting means 46 Imaging means 47 Tracking / guidance means 48 Inter-mobile body cooperation means 61 Initial screen 62 Date and time designation screen 63 Feature / action condition designation screen 64 Search result display screen 65 Video playback screen 66 Shared screen 71 Robot path setting screen 72 Route Map display area 73 Tsu door by the route candidate selection area 74 patrol route information display area 75 route editing area

Claims (15)

監視区域を所定の経路で巡回する少なくとも1つの自律移動体と、該自律移動体を用いて前記監視区域を監視する監視装置とからなる監視システムにおいて、
前記監視装置は、
前記監視区域に設置された少なくとも1つの撮像手段により撮影された画像を用いて、特定人物を抽出する特定人物抽出手段と、
前記特定人物抽出手段により得られた画像を撮影した撮像手段の位置情報から重要監視地点を選出する重要監視地点選出手段と、
前記重要監視地点選出手段により得られる地点に対応させた巡回要求情報を生成し、生成した巡回要求情報を前記自律移動体に指示する巡回指示手段とを有し、
前記自律移動体は、
前記監視装置から得られる巡回要求情報と、予め設定された巡回経路とを用いて、巡回経路を設定する巡回経路設定手段を有することを特徴とする監視システム。
In a monitoring system comprising at least one autonomous moving body that circulates a monitoring area on a predetermined route, and a monitoring device that monitors the monitoring area using the autonomous moving object,
The monitoring device
Specific person extraction means for extracting a specific person using an image taken by at least one imaging means installed in the monitoring area;
An important monitoring point selecting means for selecting an important monitoring point from position information of an image pickup means that has taken an image obtained by the specific person extracting means;
Generating patrol request information corresponding to the point obtained by the important monitoring spot selecting means, and having the patrol instruction means for instructing the generated autonomous mobile body with the patrol request information generated,
The autonomous mobile body is
A monitoring system comprising: a tour route setting means for setting a tour route using the tour request information obtained from the monitoring device and a preset tour route.
前記重要監視地点選出手段は、
前記監視区域に予め設定された複数の場所毎にスコアを算出することを特徴とする請求項1に記載の監視システム。
The important monitoring point selecting means is:
The monitoring system according to claim 1, wherein a score is calculated for each of a plurality of places set in advance in the monitoring area.
前記巡回要求情報は、
前記重要監視地点と、前記重要監視地点毎の優先度とを含むことを特徴とする請求項1又は2に記載の監視システム。
The patrol request information is:
The monitoring system according to claim 1, comprising the important monitoring point and a priority for each important monitoring point.
前記巡回経路設定手段は、
自律移動体が巡回中である場合、現時点の位置情報を取得し、取得した位置情報と、前記重要監視地点との距離に基づいて、前記巡回経路を設定することを特徴とする請求項1乃至3の何れか1項に記載の監視システム。
The patrol route setting means includes:
When the autonomous mobile body is traveling, the current position information is acquired, and the traveling route is set based on the distance between the acquired position information and the important monitoring point. 4. The monitoring system according to any one of 3.
監視区域を所定の経路で巡回する少なくとも1つの自律移動体を用いて前記監視区域を監視する監視装置において、
前記監視区域に設置された少なくとも1つの撮像手段により撮影された画像を用いて、特定人物を抽出する特定人物抽出手段と、
前記特定人物抽出手段により得られた画像を撮影した撮像手段の位置情報から重要監視地点を選出する重要監視地点選出手段と、
前記重要監視地点選出手段により得られる地点に対応させた巡回要求情報を生成し、生成した巡回要求情報を前記自律移動体に指示する巡回指示手段とを有することを特徴とする監視装置。
In a monitoring device that monitors the monitoring area using at least one autonomous mobile body that patrols the monitoring area on a predetermined route,
Specific person extraction means for extracting a specific person using an image taken by at least one imaging means installed in the monitoring area;
An important monitoring point selecting means for selecting an important monitoring point from position information of an image pickup means that has taken an image obtained by the specific person extracting means;
A monitoring apparatus comprising: tour request information that generates tour request information corresponding to a point obtained by the important monitor spot selecting unit, and that instructs the generated travel request information to the autonomous mobile body.
前記重要監視地点選出手段は、
前記監視区域に予め設定された複数の場所毎にスコアを算出することを特徴とする請求項5に記載の監視装置。
The important monitoring point selecting means is:
The monitoring apparatus according to claim 5, wherein a score is calculated for each of a plurality of places set in advance in the monitoring area.
前記巡回要求情報は、
前記重要監視地点と、前記重要監視地点毎の優先度とを含むことを特徴とする請求項5又は6に記載の監視装置。
The patrol request information is:
The monitoring apparatus according to claim 5, comprising the important monitoring point and a priority for each important monitoring point.
監視区域を監視装置からの指示により所定の経路で巡回する自律移動体において、
前記監視装置から得られる巡回要求情報と、予め設定された巡回経路とを用いて、巡回経路を設定する巡回経路設定手段と、
前記巡回経路設定手段により得られる巡回経路に基づいて移動する移動手段と、
前記巡回経路を移動中の周囲の映像を撮影する撮像手段とを有することを特徴とする自律移動体。
In an autonomous moving body that patrols a monitoring area on a predetermined route according to an instruction from a monitoring device,
Using a patrol request information obtained from the monitoring device and a patrol route set in advance, a patrol route setting means for setting a patrol route;
Moving means for moving based on the cyclic route obtained by the cyclic route setting means;
An autonomous mobile body comprising imaging means for capturing an image of surroundings moving along the patrol route.
前記巡回経路設定手段は、
自律移動体が巡回中である場合、現時点の位置情報を取得し、取得した位置情報と、前記重要監視地点との距離に基づいて、前記巡回経路を設定することを特徴とする請求項8に記載の自律移動体。
The patrol route setting means includes:
9. When the autonomous mobile body is traveling, the current position information is acquired, and the traveling route is set based on the distance between the acquired position information and the important monitoring point. The autonomous mobile body described.
監視区域を所定の経路で巡回する少なくとも1つの自律移動体と、該自律移動体を用いて前記監視区域を監視する監視装置とからなる監視システムにおける監視方法において、
前記監視装置により、前記監視区域に設置された少なくとも1つの撮像手段により撮影された画像を用いて、特定人物を抽出する特定人物抽出ステップと、
前記特定人物抽出ステップにより得られた画像を撮影した撮像手段の位置情報から重要監視地点を選出する重要監視地点選出ステップと、
前記重要監視地点選出ステップにより得られる地点に対応させた巡回要求情報を生成し、生成した巡回要求情報を前記自律移動体に指示する巡回指示ステップと、
前記自律移動体により、前記監視装置から得られる巡回要求情報と、予め設定された巡回経路とを用いて、巡回経路を設定する巡回経路設定ステップを有することを特徴とする監視方法。
In a monitoring method in a monitoring system comprising at least one autonomous mobile body that circulates a monitoring area on a predetermined route, and a monitoring device that monitors the monitoring area using the autonomous mobile body,
A specific person extracting step of extracting a specific person by using the image taken by at least one imaging means installed in the monitoring area by the monitoring device;
An important monitoring point selection step of selecting an important monitoring point from the positional information of the imaging means that took the image obtained by the specific person extraction step;
Generating a tour request information corresponding to the point obtained by the important monitoring spot selection step, and a tour instruction step for instructing the generated travel request information to the autonomous mobile body;
A monitoring method comprising: a patrol route setting step for setting a patrol route by using the patrol request information obtained from the monitoring device and a preset patrol route by the autonomous mobile body.
前記重要監視地点選出ステップは、
前記監視区域に予め設定された複数の場所毎にスコアを算出することを特徴とする請求項10に記載の監視方法。
The important monitoring point selection step includes:
The monitoring method according to claim 10, wherein a score is calculated for each of a plurality of places set in advance in the monitoring area.
前記巡回要求情報は、
前記重要監視地点と、前記重要監視地点毎の優先度とを含むことを特徴とする請求項10又は11に記載の監視方法。
The patrol request information is:
The monitoring method according to claim 10 or 11, comprising the important monitoring point and a priority for each important monitoring point.
前記巡回経路設定ステップは、
自律移動体が巡回中である場合、現時点の位置情報を取得し、取得した位置情報と、前記重要監視地点との距離に基づいて、前記巡回経路を設定することを特徴とする請求項10乃至12の何れか1項に記載の監視方法。
The patrol route setting step includes:
When the autonomous mobile body is traveling, the current position information is acquired, and the traveling route is set based on the distance between the acquired position information and the important monitoring point. 13. The monitoring method according to any one of items 12.
コンピュータを、請求項5乃至7のうち何れか1項に記載の監視装置として機能させることを特徴とする監視プログラム。   A monitoring program for causing a computer to function as the monitoring device according to any one of claims 5 to 7. コンピュータを、請求項8又は9に記載の自律移動体として機能させることを特徴とする監視プログラム。   A monitoring program for causing a computer to function as the autonomous mobile body according to claim 8 or 9.
JP2010221773A 2010-09-30 2010-09-30 Surveillance system, monitoring device, autonomous mobile body, monitoring method, and monitoring program using autonomous mobile body Active JP5674406B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010221773A JP5674406B2 (en) 2010-09-30 2010-09-30 Surveillance system, monitoring device, autonomous mobile body, monitoring method, and monitoring program using autonomous mobile body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010221773A JP5674406B2 (en) 2010-09-30 2010-09-30 Surveillance system, monitoring device, autonomous mobile body, monitoring method, and monitoring program using autonomous mobile body

Publications (2)

Publication Number Publication Date
JP2012078950A true JP2012078950A (en) 2012-04-19
JP5674406B2 JP5674406B2 (en) 2015-02-25

Family

ID=46239159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010221773A Active JP5674406B2 (en) 2010-09-30 2010-09-30 Surveillance system, monitoring device, autonomous mobile body, monitoring method, and monitoring program using autonomous mobile body

Country Status (1)

Country Link
JP (1) JP5674406B2 (en)

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078150A (en) * 2012-10-11 2014-05-01 Sharp Corp Suspicious person monitoring system, suspicious person monitoring method and computer program
JP2014150483A (en) * 2013-02-04 2014-08-21 Secom Co Ltd Imaging system
WO2014155922A1 (en) * 2013-03-29 2014-10-02 日本電気株式会社 Target object identifying device, target object identifying method and target object identifying program
JP2014235602A (en) * 2013-06-03 2014-12-15 株式会社デンソー Situation monitoring device, security system, program and situation monitoring method
JP2015220601A (en) * 2014-05-16 2015-12-07 キヤノン株式会社 Imaging apparatus, communication apparatus, and method and system of them, and program
JP2016119627A (en) * 2014-12-22 2016-06-30 セコム株式会社 Tracking processing device
JP2016143362A (en) * 2015-02-05 2016-08-08 Line株式会社 Server, terminal identifying method, and terminal identifying program
WO2017038100A1 (en) * 2015-09-03 2017-03-09 日本電気株式会社 Monitoring server, method for determining distributed processing, and non-temporary computer-readable medium in which program is stored
JP2017163511A (en) * 2016-03-11 2017-09-14 株式会社プロドローン Living body search system
JP2017224925A (en) * 2016-06-14 2017-12-21 株式会社エンルートM’s Monitoring device and monitoring method
JP6343362B1 (en) * 2017-03-21 2018-06-13 三菱ロジスネクスト株式会社 Manned and unmanned vehicles and dispatch systems
WO2018116487A1 (en) * 2016-12-22 2018-06-28 日本電気株式会社 Tracking assist device, terminal, tracking assist system, tracking assist method and program
JP2018112917A (en) * 2017-01-12 2018-07-19 国立大学法人豊橋技術科学大学 Autonomous travel work device and data management method
JP2018121351A (en) * 2018-03-13 2018-08-02 株式会社プロドローン Organism search system
WO2018180454A1 (en) * 2017-03-28 2018-10-04 日本電産株式会社 Moving body
JP2018181159A (en) * 2017-04-19 2018-11-15 ユニティガードシステム株式会社 Security system, crime prevention method, and robot
US20190035106A1 (en) * 2016-03-30 2019-01-31 Nec Corporation Analysis apparatus, analysis method, and storage medium
JP2019022209A (en) * 2017-07-19 2019-02-07 和碩聯合科技股▲ふん▼有限公司Pegatron Corporation Video monitoring system and video monitoring method
JP2019510288A (en) * 2016-03-28 2019-04-11 浙江吉利控股集団有限公司Zhejiang Geely Holding Group Co.,Ltd. Anti-theft monitoring device, system and method
JP2019087114A (en) * 2017-11-09 2019-06-06 富士ゼロックス株式会社 Robot control system
JP2019087250A (en) * 2017-11-03 2019-06-06 トヨタ リサーチ インスティテュート,インコーポレイティド Systems and methods for object historical association
JPWO2018173948A1 (en) * 2017-03-24 2020-01-16 株式会社日立国際電気 Service providing system
JP2020021456A (en) * 2018-08-03 2020-02-06 深▲セン▼▲衆▼▲リー▼▲電▼力科技有限公司 Monitoring alarm system
US10754351B2 (en) 2017-02-28 2020-08-25 Toyota Jidosha Kabushiki Kaisha Observability grid-based autonomous environment search
JP2020135559A (en) * 2019-02-21 2020-08-31 新東工業株式会社 Autonomous mobile robot
CN111611904A (en) * 2020-05-15 2020-09-01 新石器慧通(北京)科技有限公司 Dynamic target identification method based on unmanned vehicle driving process
US10816974B2 (en) 2017-02-28 2020-10-27 Toyota Jidosha Kabushiki Kaisha Proactive acquisition of data for maintenance of appearance model by mobile robot
CN112669486A (en) * 2020-07-16 2021-04-16 广元量知汇科技有限公司 Management system is patrolled and examined in wisdom security protection
JP2021103410A (en) * 2019-12-25 2021-07-15 セコム株式会社 Mobile body and imaging system
JPWO2020071358A1 (en) * 2018-10-02 2021-09-02 シャープ株式会社 Display control device, control method of display control device, display control program and recording medium
CN114046887A (en) * 2021-12-10 2022-02-15 北京云迹科技有限公司 Monitoring robot control method and related equipment
WO2023281897A1 (en) * 2021-07-05 2023-01-12 株式会社日立製作所 Video surveillance system and video surveillance method
WO2023017588A1 (en) * 2021-08-11 2023-02-16 日本電気株式会社 Control device, control method, and computer-readable storage medium
JP7483365B2 (en) 2019-12-17 2024-05-15 東芝テック株式会社 Shopper management device, information processing program, information processing method, and shopper management system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072612A (en) * 2004-09-01 2006-03-16 Toshiba Corp Patrol robot and patrol method
JP2006338093A (en) * 2005-05-31 2006-12-14 Daikin Ind Ltd Patrol security support system and patrol route management device used therefor
JP2008117132A (en) * 2006-11-02 2008-05-22 Fujitsu Ltd Security robot system, monitoring method using security robot, and warning method
JP2009181271A (en) * 2008-01-30 2009-08-13 Secom Co Ltd Mobile robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072612A (en) * 2004-09-01 2006-03-16 Toshiba Corp Patrol robot and patrol method
JP2006338093A (en) * 2005-05-31 2006-12-14 Daikin Ind Ltd Patrol security support system and patrol route management device used therefor
JP2008117132A (en) * 2006-11-02 2008-05-22 Fujitsu Ltd Security robot system, monitoring method using security robot, and warning method
JP2009181271A (en) * 2008-01-30 2009-08-13 Secom Co Ltd Mobile robot

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078150A (en) * 2012-10-11 2014-05-01 Sharp Corp Suspicious person monitoring system, suspicious person monitoring method and computer program
JP2014150483A (en) * 2013-02-04 2014-08-21 Secom Co Ltd Imaging system
JPWO2014155922A1 (en) * 2013-03-29 2017-02-16 日本電気株式会社 Object identification device, object identification method, and object identification program
WO2014155922A1 (en) * 2013-03-29 2014-10-02 日本電気株式会社 Target object identifying device, target object identifying method and target object identifying program
US11210527B2 (en) 2013-03-29 2021-12-28 Nec Corporation Target object identifying device, target object identifying method and target object identifying program
US10430666B2 (en) 2013-03-29 2019-10-01 Nec Corporation Target object identifying device, target object identifying method and target object identifying program
JP2014235602A (en) * 2013-06-03 2014-12-15 株式会社デンソー Situation monitoring device, security system, program and situation monitoring method
JP2015220601A (en) * 2014-05-16 2015-12-07 キヤノン株式会社 Imaging apparatus, communication apparatus, and method and system of them, and program
JP2016119627A (en) * 2014-12-22 2016-06-30 セコム株式会社 Tracking processing device
JP2016143362A (en) * 2015-02-05 2016-08-08 Line株式会社 Server, terminal identifying method, and terminal identifying program
WO2017038100A1 (en) * 2015-09-03 2017-03-09 日本電気株式会社 Monitoring server, method for determining distributed processing, and non-temporary computer-readable medium in which program is stored
US10671058B2 (en) 2015-09-03 2020-06-02 Nec Corporation Monitoring server, distributed-processing determination method, and non-transitory computer-readable medium storing program
JPWO2017038100A1 (en) * 2015-09-03 2018-08-30 日本電気株式会社 Monitoring server, distributed processing determination method, and program
WO2017154595A1 (en) * 2016-03-11 2017-09-14 株式会社プロドローン Living body search system
JP2017163511A (en) * 2016-03-11 2017-09-14 株式会社プロドローン Living body search system
US10937288B2 (en) 2016-03-28 2021-03-02 Zhejiang Geely Holding Group Co., Ltd. Theft prevention monitoring device and system and method
JP2019510288A (en) * 2016-03-28 2019-04-11 浙江吉利控股集団有限公司Zhejiang Geely Holding Group Co.,Ltd. Anti-theft monitoring device, system and method
US11176698B2 (en) * 2016-03-30 2021-11-16 Nec Corporation Analysis apparatus, analysis method, and storage medium
US11094076B2 (en) 2016-03-30 2021-08-17 Nec Corporation Analysis apparatus, analysis method, and storage medium
US20190035106A1 (en) * 2016-03-30 2019-01-31 Nec Corporation Analysis apparatus, analysis method, and storage medium
JP2017224925A (en) * 2016-06-14 2017-12-21 株式会社エンルートM’s Monitoring device and monitoring method
JP2021158673A (en) * 2016-12-22 2021-10-07 日本電気株式会社 Tracking support device, terminal, tracking support system, tracking support method and program
US11727775B2 (en) 2016-12-22 2023-08-15 Nec Corporation Tracking support apparatus, terminal, tracking support system, tracking support method and program
JP7211453B2 (en) 2016-12-22 2023-01-24 日本電気株式会社 Tracking support device, terminal, tracking support system, tracking support method and program
JPWO2018116487A1 (en) * 2016-12-22 2019-10-31 日本電気株式会社 Tracking support device, terminal, tracking support system, tracking support method, and program
WO2018116487A1 (en) * 2016-12-22 2018-06-28 日本電気株式会社 Tracking assist device, terminal, tracking assist system, tracking assist method and program
US11049374B2 (en) 2016-12-22 2021-06-29 Nec Corporation Tracking support apparatus, terminal, tracking support system, tracking support method and program
JP2018112917A (en) * 2017-01-12 2018-07-19 国立大学法人豊橋技術科学大学 Autonomous travel work device and data management method
US10754351B2 (en) 2017-02-28 2020-08-25 Toyota Jidosha Kabushiki Kaisha Observability grid-based autonomous environment search
US10816974B2 (en) 2017-02-28 2020-10-27 Toyota Jidosha Kabushiki Kaisha Proactive acquisition of data for maintenance of appearance model by mobile robot
JP2018156569A (en) * 2017-03-21 2018-10-04 三菱ロジスネクスト株式会社 Manned-cum-unmanned vehicle and vehicle dispatching system
JP6343362B1 (en) * 2017-03-21 2018-06-13 三菱ロジスネクスト株式会社 Manned and unmanned vehicles and dispatch systems
JP7026105B2 (en) 2017-03-24 2022-02-25 株式会社日立国際電気 Service provision system
JPWO2018173948A1 (en) * 2017-03-24 2020-01-16 株式会社日立国際電気 Service providing system
WO2018180454A1 (en) * 2017-03-28 2018-10-04 日本電産株式会社 Moving body
US11256917B2 (en) 2017-03-28 2022-02-22 Nidec Corporation Moving body for tracking and locating a target
JP2018181159A (en) * 2017-04-19 2018-11-15 ユニティガードシステム株式会社 Security system, crime prevention method, and robot
JP2019022209A (en) * 2017-07-19 2019-02-07 和碩聯合科技股▲ふん▼有限公司Pegatron Corporation Video monitoring system and video monitoring method
JP2019087250A (en) * 2017-11-03 2019-06-06 トヨタ リサーチ インスティテュート,インコーポレイティド Systems and methods for object historical association
JP2019087114A (en) * 2017-11-09 2019-06-06 富士ゼロックス株式会社 Robot control system
JP2018121351A (en) * 2018-03-13 2018-08-02 株式会社プロドローン Organism search system
JP2020021456A (en) * 2018-08-03 2020-02-06 深▲セン▼▲衆▼▲リー▼▲電▼力科技有限公司 Monitoring alarm system
JPWO2020071358A1 (en) * 2018-10-02 2021-09-02 シャープ株式会社 Display control device, control method of display control device, display control program and recording medium
JP2020135559A (en) * 2019-02-21 2020-08-31 新東工業株式会社 Autonomous mobile robot
JP7483365B2 (en) 2019-12-17 2024-05-15 東芝テック株式会社 Shopper management device, information processing program, information processing method, and shopper management system
JP2021103410A (en) * 2019-12-25 2021-07-15 セコム株式会社 Mobile body and imaging system
JP7437930B2 (en) 2019-12-25 2024-02-26 セコム株式会社 Mobile objects and imaging systems
CN111611904A (en) * 2020-05-15 2020-09-01 新石器慧通(北京)科技有限公司 Dynamic target identification method based on unmanned vehicle driving process
CN111611904B (en) * 2020-05-15 2023-12-01 新石器慧通(北京)科技有限公司 Dynamic target identification method based on unmanned vehicle driving process
CN112669486A (en) * 2020-07-16 2021-04-16 广元量知汇科技有限公司 Management system is patrolled and examined in wisdom security protection
WO2023281897A1 (en) * 2021-07-05 2023-01-12 株式会社日立製作所 Video surveillance system and video surveillance method
WO2023017588A1 (en) * 2021-08-11 2023-02-16 日本電気株式会社 Control device, control method, and computer-readable storage medium
CN114046887A (en) * 2021-12-10 2022-02-15 北京云迹科技有限公司 Monitoring robot control method and related equipment

Also Published As

Publication number Publication date
JP5674406B2 (en) 2015-02-25

Similar Documents

Publication Publication Date Title
JP5674406B2 (en) Surveillance system, monitoring device, autonomous mobile body, monitoring method, and monitoring program using autonomous mobile body
JP5523900B2 (en) Person search device, person search method, and person search program
JP5590945B2 (en) Person search device, person search method, and person search program
WO2020152851A1 (en) Digital search security system, method, and program
JP7040463B2 (en) Analysis server, monitoring system, monitoring method and program
KR101644443B1 (en) Warning method and system using prompt situation information data
JP7405200B2 (en) person detection system
JP6402219B1 (en) Crime prevention system, crime prevention method, and robot
JP2008040781A (en) Subject verification apparatus and subject verification method
JP5091095B2 (en) Motion detection device and motion detection method
JP2011170711A (en) Moving object tracking system and moving object tracking method
JP3835771B2 (en) Communication apparatus and communication method
JP5718632B2 (en) Part recognition device, part recognition method, and part recognition program
JP2010257450A (en) Device, method, and program for retrieving person
JP6720010B2 (en) Information processing apparatus, information processing method, and program
WO2022059223A1 (en) Video analyzing system and video analyzing method
JP2009205617A (en) Security device, and security system update method
JP2018195992A (en) Person group tracking device and person group tracking method
JP2021071967A (en) Response support system, method, and program
JP7025497B1 (en) Surveillance cameras, parts linking methods and programs
JP6022625B2 (en) Part recognition device, part recognition method, and part recognition program
JP6936373B1 (en) Surveillance camera, tracking frame generation method and program
Andersson et al. Robust anomaly detection in urban environments using sensor and information fusion and a camera network
JP6112346B2 (en) Information collection system, program, and information collection method
Alam et al. Person identification with visual summary for a safe access to a smart home

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141222

R150 Certificate of patent or registration of utility model

Ref document number: 5674406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250