JP2016066314A - Security service system and security service method - Google Patents

Security service system and security service method Download PDF

Info

Publication number
JP2016066314A
JP2016066314A JP2014195911A JP2014195911A JP2016066314A JP 2016066314 A JP2016066314 A JP 2016066314A JP 2014195911 A JP2014195911 A JP 2014195911A JP 2014195911 A JP2014195911 A JP 2014195911A JP 2016066314 A JP2016066314 A JP 2016066314A
Authority
JP
Japan
Prior art keywords
guard
information
security
data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014195911A
Other languages
Japanese (ja)
Other versions
JP2016066314A5 (en
JP6689566B2 (en
Inventor
英治 桑原
Eiji Kuwabara
英治 桑原
朗 武田
Akira Takeda
朗 武田
俊一 関谷
Shunichi Sekiya
俊一 関谷
瞬 河目
Shun Kawame
瞬 河目
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2014195911A priority Critical patent/JP6689566B2/en
Publication of JP2016066314A publication Critical patent/JP2016066314A/en
Publication of JP2016066314A5 publication Critical patent/JP2016066314A5/ja
Application granted granted Critical
Publication of JP6689566B2 publication Critical patent/JP6689566B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Telephonic Communication Services (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To achieve an efficient security service in a circumstance in which the number of installed information acquisition devices such as an imaging device and a sensor, is insufficient.SOLUTION: The security service system is configured in such a manner that: upon detecting that a security guard pays special attention different from that in a normal time to a person or an object, on the basis of information acquired by various information acquisition devices worn by the security guard, such as a wearable camera 10, a motion sensor 21, a biological information sensor 22, and an environmental information sensor 23, determination of whether or not the person or the object, to which the security guard pays the special attention, is an object to be watched is performed; and the security guard is notified of the determination result and a handling process according to the determination result.SELECTED DRAWING: Figure 1

Description

この発明は、警備員と連携して警備を実現する警備システム及び警備方法に関する。   The present invention relates to a security system and a security method for realizing security in cooperation with a security guard.

従来、撮像装置で取得した所定の監視領域の画像情報に基づいて、不審者を検知する技術が知られている。例えば、特許文献1では、集合住宅などにおいて固定的に設置した撮像装置で入場者を撮像し、撮像した画像から抽出した入場者の顔画像と、撮像した画像から解析した該入場者の行動とに基づいて、該入場者が不審者であるか否かの判定を行うという技術が開示されている。具体的には、抽出した入場者の顔画像と集合住宅などの居住者の顔画像との照合を行い、居住者ではないと判定された入場者のうち行動が不審と判定された入場者を不審者と判定するという技術が開示されている。   2. Description of the Related Art Conventionally, a technique for detecting a suspicious person based on image information of a predetermined monitoring area acquired by an imaging device is known. For example, in Patent Document 1, an image of a visitor is captured by an imaging device that is fixedly installed in an apartment house or the like, and the face image of the visitor extracted from the captured image, and the behavior of the visitor analyzed from the captured image Based on the above, a technique for determining whether or not the visitor is a suspicious person is disclosed. Specifically, the extracted face image of the visitor is collated with the face image of a resident such as a housing complex, and among the visitors determined not to be resident, the visitors whose behavior is determined to be suspicious A technique for determining a suspicious person is disclosed.

特開2006−120084号公報JP 2006-120084 A

しかしながら、かかる特許文献1の技術では、撮像装置が固定的に設置されている必要があり、撮像装置が設置されていないような領域における不審者の検知を行うことはできない。また、撮像装置が設置されていたとしても、例えばテーマパークなどのように、不審者検知の判定対象となる人の数が多い場所を監視対象とする場合においては、膨大な数の顔画像の照合処理を行うこととなり、処理量に対応した大規模なシステムが必要となってしまう。これに対して、撮像装置の設置台数を絞り込むことによってシステムの規模を抑制することは可能であるが、撮像装置の設置台数を絞り込むことによって死角が多くなり、不審者を適切に検知できないということになってしまう。   However, in the technique of Patent Document 1, it is necessary that the imaging device is fixedly installed, and it is not possible to detect a suspicious person in an area where the imaging device is not installed. Even if an imaging device is installed, a large number of face images may be detected when a place where a large number of persons are subject to suspicious person detection, such as a theme park, is to be monitored. A collation process is performed, and a large-scale system corresponding to the processing amount is required. On the other hand, it is possible to reduce the size of the system by narrowing down the number of installed imaging devices, but narrowing down the number of installed imaging devices increases blind spots and cannot detect suspicious persons appropriately. Become.

このように、従来の技術では、撮像装置の設置数が不十分となる状況では、警備の効率が著しく低下するという問題点があった。かかる問題は、撮像装置を用いた警備に限らず、センサを設置して対象領域の警備を行なう場合に共通して発生する。   As described above, in the conventional technique, there is a problem that the security efficiency is remarkably reduced in a situation where the number of image pickup apparatuses installed is insufficient. Such a problem is not limited to security using an imaging device, but occurs in common when a sensor is installed to protect a target area.

これらのことから、撮像装置やセンサ等の情報取得装置の設置数が不十分な状況であっても効率的に警備を行なうことのできるシステムを如何にして実現するかが重要な課題となっている。   For these reasons, an important issue is how to realize a system that can efficiently perform security even when the number of information acquisition devices such as imaging devices and sensors is insufficient. Yes.

本発明は、上述した従来技術の課題を解決するためのものであって、撮像装置やセンサ等の情報取得装置の設置数が不十分な状況における効率的な警備を実現する警備システム及び警備方法を提供することを目的とする。   The present invention is intended to solve the above-described problems of the prior art, and a security system and a security method for realizing efficient security in a situation where the number of information acquisition devices such as imaging devices and sensors is insufficient. The purpose is to provide.

上述した課題を解決し、目的を達成するため、請求項1に記載の発明は、警備員に携帯又は装着され、前記警備員の周囲の情報を取得する情報取得手段と、前記警備員の状態を判定する警備員状態判定手段と、前記情報取得手段により取得された情報に基づいて前記警備員の周囲に存在する物体を評価対象として検知する検知手段と、前記警備員状態判定手段により判定された警備員の状態と、前記検知手段により評価対象として検知された物体にかかる前記情報取得手段で取得した情報とを用い、当該物体の警戒対象としての評価を行なう警備対象評価手段とを備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the invention according to claim 1 is an information acquisition unit that is carried or worn by a guard and acquires information around the guard, and the state of the guard A guard state determination means for detecting the object, a detection means for detecting an object existing around the guard as an evaluation target based on the information acquired by the information acquisition means, and the guard state determination means A security target evaluation unit that evaluates the object as a security target using the information acquired by the information acquisition unit related to the object detected as the evaluation target by the detection unit. It is characterized by that.

また、請求項2に記載の発明は、請求項1に記載の発明において、前記情報取得手段は、少なくとも前記警備員の顔が向いている方向の画像情報を取得し、前記警備員状態判定手段は、前記情報取得手段で取得された前記画像情報を用いて、前記警備員が前記画像情報の画像に含まれる物体に特別な注意を向けている状態を判定し、前記検知手段は、前記警備員状態判定手段により前記警備員が特別な注意を向けている物体を前記評価対象として検知し、前記警備対象評価手段は、前記警備員状態判定手段により前記警備員が前記画像情報の画像に含まれる物体に特別な注意を向けている状態であると判定された場合に、当該物体に係る前記情報取得手段で取得した画像情報を用いて、当該物体の警戒対象としての評価を行うことを特徴とする。   The invention according to claim 2 is the invention according to claim 1, wherein the information acquisition means acquires at least image information in a direction in which the face of the guard is facing, and the guard state determination means. Uses the image information acquired by the information acquisition means to determine a state in which the guard is paying special attention to an object included in the image of the image information, and the detection means includes the security An object to which the guard is paying special attention is detected as the evaluation target by a guard state determination unit, and the guard target evaluation unit is included in the image of the image information by the guard state determination unit. When it is determined that the object is in a state of special attention, the image information acquired by the information acquisition unit related to the object is used to evaluate the object as a warning target. Toss .

また、請求項3に記載の発明は、請求項1又は2に記載の発明において、前記警備対象評価手段により前記評価対象の物体に対する警戒が必要と評価された場合に、前記警備員に評価結果を報知する評価結果報知手段をさらに備えたことを特徴とする。   In addition, the invention according to claim 3 is the evaluation result for the guard in the invention according to claim 1 or 2, when the guard object evaluation means evaluates that the object to be evaluated is required to be warned. It is further characterized by further comprising an evaluation result notifying means for notifying.

また、請求項4に記載の発明は、請求項1、2又は3に記載の発明において、前記警備対象評価手段により前記評価対象の物体に対する対処が必要と評価された場合に、前記警備員に当該対処の手順に係る情報を通知する手順通知手段をさらに備えたことを特徴とする。   Further, in the invention according to claim 4, in the invention according to claim 1, 2, or 3, when it is evaluated by the guard target evaluation means that it is necessary to deal with the object to be evaluated, It is characterized by further comprising procedure notifying means for notifying information relating to the handling procedure.

また、請求項5に記載の発明は、請求項1〜4のいずれか一つに記載の発明において、前記情報取得手段で取得する情報は、画像情報以外に、音声情報、位置情報、前記警備員の動作に係る情報、前記警備員の生体に係る情報及び環境に係る情報のうちの1つまたは複数の情報を含むことを特徴とする。   The invention according to claim 5 is the invention according to any one of claims 1 to 4, wherein the information acquired by the information acquisition means includes audio information, position information, and security, in addition to image information. It includes one or a plurality of pieces of information relating to an operation of a worker, information relating to the living body of the security guard, and information relating to the environment.

また、請求項6に記載の発明は、請求項1〜5のいずれか一つに記載の発明において、前記警備対象評価手段は、前記警備員状態判定手段により前記警備員が前記画像情報の画像に含まれる人物に特別な注意を向けている状態であると判定された場合に、前記情報取得手段で取得した当該人物に係る画像情報と、警戒が必要な人物の画像情報との類似性を評価し、該類似性が高い場合に当該人物は警戒が必要な人物であると評価することを特徴とする。   Moreover, the invention according to claim 6 is the invention according to any one of claims 1 to 5, wherein the security object evaluation means is an image of the image information by the security guard state determination means. When it is determined that the person in the image is in a state of special attention, the similarity between the image information related to the person acquired by the information acquisition unit and the image information of the person who needs to be alerted is determined. When the similarity is high, the person is evaluated as a person who needs to be alert.

また、請求項7に記載の発明は、警備員に携帯又は装着された装置による、前記警備員の周囲の情報を取得する情報取得ステップと、前記警備員の状態を判定する警備員状態判定ステップと、前記情報取得ステップにより取得された情報に基づいて前記警備員の周囲に存在する物体を評価対象として検知する検知ステップと、前記警備員状態判定ステップにより判定された警備員の状態と、前記検知ステップにより評価対象と検知された物体にかかる前記情報取得ステップで取得した情報とを用い、当該物体の警戒対象としての評価を行なう警備対象評価ステップとを備えたことを特徴とする。   The invention according to claim 7 is an information acquisition step of acquiring information around the guard by means of a device carried or attached to the guard, and a guard state determination step of determining the state of the guard And a detection step of detecting an object existing around the guard based on the information acquired by the information acquisition step as an evaluation target, a state of the guard determined by the guard state determination step, and And a security target evaluation step for evaluating the object as a security target using the evaluation target and the information acquired in the information acquisition step relating to the object detected in the detection step.

本発明によれば、警備員に携帯又は装着された装置により警備員の周囲の情報を取得し、警備員の状態を判定し、取得した警備員の周囲の情報に基づいて警備員の周囲に存在する物体を評価対象として検知し、判定された警備員の状態と、評価対象として検知された物体にかかる警備員に携帯又は装着された装置により取得した警備員の周囲の情報とを用い、評価対象として検知された物体の警戒対象としての評価を行なうように構成したので、撮像装置やセンサ等の情報取得装置の設置数が不十分な状況において効率的な警備を実現することができる。   According to the present invention, information around the guard is acquired by a device carried or attached to the guard, the state of the guard is determined, and the guard's surroundings are determined based on the obtained information around the guard. Detecting an existing object as an evaluation target, using the state of the determined security guard, and information about the guard's surroundings acquired by a device carried or attached to the security guard on the object detected as the evaluation target, Since an object detected as an evaluation target is evaluated as a warning target, efficient security can be realized in a situation where the number of information acquisition devices such as imaging devices and sensors is insufficient.

図1は、本実施例に係る警備員と連携した警備システムの実現する警備における不審者の検知に係る処理概要を説明するための図である。FIG. 1 is a diagram for explaining an outline of processing related to detection of a suspicious person in security realized by a security system in cooperation with a security guard according to the present embodiment. 図2は、本実施例に係る警備システムのシステム構成図である。FIG. 2 is a system configuration diagram of the security system according to the present embodiment. 図3は、図2に示した携帯端末装置の本実施例に係る機能的な内部構成を示すブロック図である。FIG. 3 is a block diagram showing a functional internal configuration according to the present embodiment of the mobile terminal device shown in FIG. 図4は、図3に示した携帯端末装置の本実施例に係るデータ構成について説明するための説明図である。FIG. 4 is an explanatory diagram for explaining a data configuration according to the present embodiment of the mobile terminal device shown in FIG. 図5は、図2に示したコントロールセンタサーバの本実施例に係る機能的な内部構成を示すブロック図である。FIG. 5 is a block diagram showing a functional internal configuration according to the present embodiment of the control center server shown in FIG. 図6は、図5に示したコントロールセンタサーバの本実施例に係るデータ構成について説明するための説明図(その1)である。FIG. 6 is an explanatory diagram (part 1) for explaining the data configuration according to the present embodiment of the control center server shown in FIG. 図7は、図5に示したコントロールセンタサーバの本実施例に係るデータ構成について説明するための説明図(その2)である。FIG. 7 is an explanatory diagram (part 2) for explaining the data configuration according to the present embodiment of the control center server shown in FIG. 図8は、コントロールセンタサーバが携帯端末装置からの情報を受け付けたときの処理手順を示すフローチャートである。FIG. 8 is a flowchart showing a processing procedure when the control center server receives information from the mobile terminal device. 図9は、図8に示した受付データ解析処理におけるブラックリスト検索のインシデント検知処理の処理手順を示すフローチャートである。FIG. 9 is a flowchart showing the procedure of the blacklist search incident detection process in the received data analysis process shown in FIG. 図10は、図8に示した出力データ生成処理におけるブラックリスト検索処理の処理手順を示すフローチャートである。FIG. 10 is a flowchart showing a processing procedure of blacklist search processing in the output data generation processing shown in FIG. 図11は、図2示した携帯端末装置における手順情報を受け付けた場合の警備員に対する手順のガイド処理の処理手順を示すフローチャートである。FIG. 11 is a flowchart showing the procedure of the guide process for the procedure for the guard when the procedure information in the mobile terminal device shown in FIG. 2 is received.

以下に、添付図面を参照して、本発明に係る警備システム及び警備方法の好適な実施例を詳細に説明する。   Exemplary embodiments of a security system and a security method according to the present invention will be described below in detail with reference to the accompanying drawings.

まず、本実施例に係る警備員と連携した警備システムの実現する警備における不審者の検知に係る処理概要を図1を用いて説明する。図1は、不特定多数の人が往来する領域の警備において、警備員が不審者であることが疑われる人物を特定したことを警備システムが自動的に検知して、警備員が特定した人物がブラックリストなどにリストアップされた人物と一致するか否かの検索を行い、その検索結果と警備員の行うべき対処の手順を通知するという一連の処理概要を説明するための図である。   First, an outline of processing related to detection of a suspicious person in security realized by a security system in cooperation with a security guard according to the present embodiment will be described with reference to FIG. Figure 1 shows a person who was identified by the security system when the security system automatically detected that the security officer identified a person suspected of being a suspicious person in the security of an area where a large number of unspecified people come and go. It is a figure for demonstrating a series of process outline | summary which performs the search whether it corresponds with the person listed on the black list etc., and notifies the search result and the procedure of the action which a guard should perform.

図1に示すように、警備員はウェアラブルカメラ10、モーションセンサ21、生体情報センサ22及び環境情報センサ23を身に着けている。ウェアラブルカメラ10は、装着した状態において警備員が顔を向けている方向の画像と音声を取得することができるだけではなく、装着した状態で警備員の視野の一部に画像を出力するディスプレイ12及び音声を出力するイヤホン14を含む。モーションセンサ21は、装着している警備員の動きを検知する装置である。生体情報センサ22は、装着している警備員の体温、心拍数及び加速度などの生体情報を取得する装置である。環境情報センサ23は、気温、湿度、高度及び位置などの環境情報を取得する装置である。   As shown in FIG. 1, the security guard wears a wearable camera 10, a motion sensor 21, a biological information sensor 22, and an environmental information sensor 23. The wearable camera 10 not only can acquire an image and sound in a direction in which the guard is facing the face when worn, but also a display 12 that outputs an image to a part of the field of view of the guard when worn and It includes an earphone 14 that outputs sound. The motion sensor 21 is a device that detects the movement of the guards wearing the motion sensor 21. The biometric information sensor 22 is a device that acquires biometric information such as the body temperature, heart rate, and acceleration of the guards wearing the biometric information sensor 22. The environmental information sensor 23 is a device that acquires environmental information such as temperature, humidity, altitude, and position.

また、警備員は、様々な情報を取得するための装置とは別に携帯端末装置40を携帯している。ウェアラブルカメラ10、モーションセンサ21、生体情報センサ22及び環境情報センサ23などの装置は、Bluetooth(登録商標)などの近距離無線通信によって携帯端末装置40に取得した各種情報を送信する。携帯端末装置40は、ウェアラブルカメラ10、モーションセンサ21、生体情報センサ22及び環境情報センサ23などの装置から、これらの装置が取得した情報を受け付けたならば、受け付けた画像データ、音声データ及びその他の各種センサデータをコントロールセンタに設置されるコントロールセンタサーバ50に送信する。   Moreover, the security guard carries the portable terminal device 40 separately from the device for acquiring various information. Devices such as the wearable camera 10, the motion sensor 21, the biological information sensor 22, and the environment information sensor 23 transmit various information acquired to the mobile terminal device 40 by short-range wireless communication such as Bluetooth (registered trademark). If the portable terminal device 40 receives information acquired by devices such as the wearable camera 10, motion sensor 21, biological information sensor 22, and environmental information sensor 23, the received image data, audio data, and others Are transmitted to the control center server 50 installed in the control center.

コントロールセンタサーバ50は、携帯端末装置40を経由して警備員が装着する各種情報取得装置が取得した情報を受け付けると、受け付けた情報を解析した解析結果と所定の判定基準とに基づいて、警備員が特定の人物に注意を向けているか否かの判定を行う。該判定は、例えばウェアラブルカメラ10で取得した画像に現れる人物を衣服の色や背の高さなどに基づいて識別し、画像に現れた人物ごとに所定の時間内の画像に当該人物の画像が現れる出現率を算出し、出現率が所定の割合以上の人物がいたならば、その人物に対して警備員が特別な注意を向けていると判定する。また、警備員は、不審者であることが疑われる人物を察知した場合などは、そうでない場合と比較して心拍数や発汗などの生体反応が現れることが多いことから、生体情報センサ22で取得した情報を警備員が何らかの異常を察知したことの判定に用いるようにしてもよい。また、不審者であることが疑われる人物を警備員が追跡するなどの警備員の行動を想定して、警備員が通常の巡回ルートから外れたことを環境情報センサ23で取得した位置情報を用いて検知し、通常の巡回ルートから外れたことを警備員が何らかの異常を察知したことの判定に用いるようにしてもよい。   When the control center server 50 receives the information acquired by the various information acquisition devices worn by the security guard via the mobile terminal device 40, the control center server 50 performs security based on the analysis result obtained by analyzing the received information and a predetermined criterion. It is determined whether or not an employee is paying attention to a specific person. In this determination, for example, a person appearing in an image acquired by the wearable camera 10 is identified based on clothes color, height, etc., and the image of the person is displayed in an image within a predetermined time for each person appearing in the image. The appearance rate is calculated, and if there is a person whose appearance rate is equal to or higher than a predetermined ratio, it is determined that the guard is paying special attention to the person. In addition, when a security guard detects a person suspected of being a suspicious person, a biological reaction such as heart rate or sweating often appears compared to the case where the person is not suspected. The acquired information may be used for determining that the security guard has detected some abnormality. In addition, assuming the behavior of the security guard such as the security guard tracking a person suspected of being a suspicious person, the position information obtained by the environmental information sensor 23 that the security guard has deviated from the normal patrol route is obtained. It may be used for the determination that the security guard has detected some abnormality that it has been detected by using it and has deviated from the normal route.

このようにして、警備員が特定の人物に注意を向けていることを検知したならば、コントロールセンタサーバ50は、ウェアラブルカメラ10で取得した画像情報から注意を向けている人物の画像から当該人物の顔画像を抽出し、抽出した顔画像を用いて不審者の顔の特徴データなどの情報を含むブラックリストDB54mの検索処理を行う。ブラックリストDB54mの検索処理で該当する人物がいた場合には、コントロールセンタサーバ50は、ブラックリストDB54mが有している該当した人物に対する情報を不審者情報として携帯端末装置40に送信する。また、コントロールセンタサーバ50は、併せて警備員が取るべき対処に係る手順の情報を、手順DB54nより選択して携帯端末装置40に送信する。   In this way, if it is detected that the security guard is paying attention to a specific person, the control center server 50 determines that the person from the image of the person paying attention from the image information acquired by the wearable camera 10. The face image is extracted, and the black list DB 54m including information such as feature data of the suspicious person's face is searched using the extracted face image. When there is a corresponding person in the search process of the black list DB 54m, the control center server 50 transmits information on the corresponding person included in the black list DB 54m to the portable terminal device 40 as suspicious person information. In addition, the control center server 50 selects, from the procedure DB 54n, the procedure information relating to the countermeasure to be taken by the security guard and transmits it to the portable terminal device 40.

携帯端末装置40は、コントロールセンタサーバ50から不審者情報を受け付けると、受け付けた不審者情報をウェアラブルカメラ10のディスプレイ12やイヤホン14に出力することにより警備員にコントロールセンタサーバ50の処理結果を通知する。また、携帯端末装置40は、コントロールセンタサーバ50から受け付けた手順情報を順番にウェアラブルカメラ10のイヤホン14などから音声として出力することによって、警備員に対処の手順をガイドすることができる。   When the portable terminal device 40 receives the suspicious person information from the control center server 50, the portable terminal device 40 outputs the received suspicious person information to the display 12 or the earphone 14 of the wearable camera 10 to notify the security guard of the processing result of the control center server 50. To do. Moreover, the portable terminal device 40 can guide the procedure of the countermeasure to the guard by sequentially outputting the procedure information received from the control center server 50 as a sound from the earphone 14 of the wearable camera 10 or the like.

図1では不審者の検知に係る処理の概要を説明したが、本発明は検知の対象を不審人物に限ったものではなく、物や場所に対する異常検知であってもよい。例えば、物又は場所に対する異常検知の場合、ウェアラブルカメラ10で取得した画像に同一の物又は場所が現れる頻度から警備員が特定の物又は場所に対して注意を向けていることを検知し、平常時の同一の場所の画像と比較することによって平常時との差異を判定することによって、警備員が注意を向けている物又は場所に平常時とは異なる異常が起きているか否かの判定を行うことが可能である。   Although the outline of processing related to detection of a suspicious person has been described with reference to FIG. 1, the present invention is not limited to a suspicious person, and may be an abnormality detection for an object or a place. For example, in the case of detecting an abnormality with respect to an object or place, it is detected that the guard is paying attention to a specific object or place from the frequency at which the same object or place appears in the image acquired by the wearable camera 10. By judging the difference from the normal time by comparing with the image of the same place at the time, it is determined whether or not an abnormality different from the normal time has occurred in the thing or place where the guards are paying attention. Is possible.

このように、警備員の装着するウェアラブルカメラ10、モーションセンサ21、生体情報センサ22及び環境情報センサ23などの各種情報取得装置が取得した情報に基づいて、警備員が人又は物に対する通常時とは異なる特別な注意を向けていることを検知して、警備員が特別な注意を向けた対象の人又は物が警戒すべき対象か否かの判定を行い、該判定結果及び該判定結果に応じた対処手順を警備員に通知するようにしたので、撮像装置やセンサ等の情報取得装置の設置数が不十分な状況において効率的な警備を実現することができる。   Thus, based on information acquired by various information acquisition devices such as the wearable camera 10, the motion sensor 21, the biological information sensor 22, and the environmental information sensor 23 worn by the security guard, Detect that different special attention is directed, and determine whether or not the target person or object to which the security guard is paying special attention should be watched. Since the corresponding countermeasure procedure is notified to the security guard, efficient security can be realized in a situation where the number of information acquisition devices such as imaging devices and sensors is insufficient.

次に、本実施例に係る警備システムのシステム構成を説明する。図2は、本実施例に係る警備システムのシステム構成図である。図2に示すように、警備システムに係る装置は、警備員が装備する装置と、警備員のコントロールをするコントロールセンタに設置される装置と、警備対象領域内に固定的に設置される装置とを有し、通信網91を介して接続されている。   Next, the system configuration of the security system according to the present embodiment will be described. FIG. 2 is a system configuration diagram of the security system according to the present embodiment. As shown in FIG. 2, a device related to a security system includes a device equipped by a security guard, a device installed in a control center that controls the security guard, and a device fixedly installed in a security target area. And are connected via a communication network 91.

警備員が装備する装置は、身体に装着するウェアラブルカメラ10、モーションセンサ21及び生体情報センサ22と、携行する無線通信装置30、携帯端末装置40及び環境情報センサ23とを含む。ウェアラブルカメラ10は、図2に示すように頭部に装着して、顔の向いている方向の画像データを取得するカメラ11と、音声データを取得するマイク13と、装着した状態で警備員の視野の一部に画像を出力するディスプレイ12と、音声を出力する図示しないイヤホン14を含む。モーションセンサ21は、図2に示すように警備員の体の各部に対応する位置に動きを検知する複数のセンサを有し、体の各部の動きを検知することによって、警備員の動作の情報を取得する装置である。生体情報センサ22は、警備員の身体に接する状態で装着される装置で、警備員の体温、心拍数及び加速度などの生体情報を取得する装置である。環境情報センサ23は、警備員によって携行されることによって警備員のおかれている気温、湿度、高度及びGPS等の位置情報を定期的に取得する装置である。   The device equipped with the guard includes a wearable camera 10 to be worn on the body, a motion sensor 21 and a biological information sensor 22, and a wireless communication device 30, a portable terminal device 40 and an environment information sensor 23 to be carried. The wearable camera 10 is worn on the head as shown in FIG. 2, and a camera 11 that acquires image data in a direction in which the face is facing, a microphone 13 that acquires audio data, and a security guard in the mounted state. A display 12 that outputs an image to a part of the field of view and an earphone 14 (not shown) that outputs sound are included. As shown in FIG. 2, the motion sensor 21 has a plurality of sensors that detect movement at positions corresponding to the respective parts of the body of the guard, and information on the movement of the guard by detecting the movement of each part of the body. It is a device that acquires. The biological information sensor 22 is a device that is worn in contact with the body of the guard, and is a device that acquires biological information such as the body temperature, heart rate, and acceleration of the guard. The environmental information sensor 23 is a device that periodically acquires position information such as the temperature, humidity, altitude, and GPS of the guard by being carried by the guard.

携帯端末装置40は、ウェアラブルカメラ10、モーションセンサ21、生体情報センサ22及び環境情報センサ23とBluetoothなどの近距離無線通信によって接続し、ウェアラブルカメラ10、モーションセンサ21、生体情報センサ22及び環境情報センサ23が取得した情報を、コントロールセンタのコントロールセンタサーバ50に送信する。また、携帯端末装置40は、ウェアラブルカメラ10、モーションセンサ21、生体情報センサ22及び環境情報センサ23から取得した情報に基づいて警備の支援として行うべき処理(以下、「インシデント」と言う)の発生の検知を行い、インシデントの発生を検知したならば検知したインシデントに係る情報をコントロールセンタサーバ50に送信する。   The mobile terminal device 40 is connected to the wearable camera 10, the motion sensor 21, the biological information sensor 22, and the environmental information sensor 23 by short-range wireless communication such as Bluetooth, and the wearable camera 10, the motion sensor 21, the biological information sensor 22, and the environmental information. The information acquired by the sensor 23 is transmitted to the control center server 50 of the control center. In addition, the mobile terminal device 40 generates a process (hereinafter referred to as “incident”) to be performed as security support based on information acquired from the wearable camera 10, the motion sensor 21, the biological information sensor 22, and the environmental information sensor 23. If the occurrence of an incident is detected, information related to the detected incident is transmitted to the control center server 50.

また、携帯端末装置40は、コントロールセンタサーバ50から画像データ及び音声データ等の出力データを受け付けると、受け付けた出力データをウェアラブルカメラ10の有するディスプレイ12及びイヤホン14に出力する。また、携帯端末装置40は、受け付けた出力データが画像データでも音声データでもない場合に、例えば音声に変換してイヤホン14に出力したり、画像に変換してディスプレイ12に表示を行うこともできる。また、携帯端末装置40は、受け付けた出力データを携帯端末装置40の備える表示操作部41や音声入出力部46に出力することも可能である。   In addition, when the mobile terminal device 40 receives output data such as image data and audio data from the control center server 50, the mobile terminal device 40 outputs the received output data to the display 12 and the earphone 14 of the wearable camera 10. In addition, when the received output data is neither image data nor audio data, the mobile terminal device 40 can convert, for example, audio to the earphone 14 or convert it to an image and display it on the display 12. . The mobile terminal device 40 can also output the received output data to the display operation unit 41 and the voice input / output unit 46 included in the mobile terminal device 40.

無線通信装置30は、携帯端末装置40が使用する接続経路とは異なる接続経路で通信網91に接続可能な通信中継装置である。また、無線通信装置30は、Wi−Fiや無線LANなどの通信手順による接続が可能で、Wi−Fiや無線LANなどの通信手順によって接続した装置に対して通信網91に接続可能な他の装置との通信路を提供する。携帯端末装置40が使用する接続経路が災害等で使用できない状態となっていたり、携帯端末装置40が使用する通信網91と接続する接続経路が輻輳などにより使用できない状態となっている場合に、無線通信装置30を経由して通信網91に接続することによって、携帯端末装置40とコントロールセンタサーバ50との間の通信が可能となる。また、無線通信装置30の、Wi−Fiや無線LANに係るネットワーク名の公開又は非公開や暗号化キーなどの設定を変更することが可能で、警備システムでのみ使用可としたり、警備に関連する装置以外の一般の装置によって使用可とすることも可能である。   The wireless communication device 30 is a communication relay device that can be connected to the communication network 91 via a connection path different from the connection path used by the mobile terminal device 40. Further, the wireless communication device 30 can be connected by a communication procedure such as Wi-Fi or wireless LAN, and can be connected to the communication network 91 with respect to a device connected by a communication procedure such as Wi-Fi or wireless LAN. Provides a communication path with the device. When the connection route used by the mobile terminal device 40 cannot be used due to a disaster, or when the connection route connected to the communication network 91 used by the mobile terminal device 40 is not usable due to congestion, By connecting to the communication network 91 via the wireless communication device 30, communication between the mobile terminal device 40 and the control center server 50 becomes possible. In addition, it is possible to change the setting of the wireless communication device 30 such as Wi-Fi or wireless LAN network name disclosure or non-disclosure, encryption key, etc. It is also possible to make it usable by a general device other than the device to be used.

コントロールセンタサーバ50は、携帯端末装置40を介して受信した警備員の装備で取得した各種情報に基づいてインシデントの発生の検知を行い、インシデントの発生を検知したならば検知したインシデントに対応する処理を行い、警備員が携行する携帯端末装置40などに処理結果を出力する。   The control center server 50 detects the occurrence of an incident based on various information acquired by the guard's equipment received via the mobile terminal device 40, and processes corresponding to the detected incident if the occurrence of the incident is detected And output the processing result to the portable terminal device 40 carried by the security guard.

また、コントロールセンタサーバ50は、例えば、生体情報センサ22の異常値を検知した場合などに、具体的に行う処理内容が決定できないような場合には、コントロールセンタ内のコントロールセンタ端末62をアサインして、該コントロールセンタ端末62を操作するオペレータと警備員がコミュニケーションできる状態を作る。具体的には、コントロールセンタ端末62は、警備員の装備で取得した画像、音声、生体情報、環境情報などの情報を取得して出力し、コントロールセンタ端末62に接続される音声入力装置などの入力装置で入力した情報を、携帯端末装置40に送信する。携帯端末装置40は受け付けた情報を、ウェアラブルカメラ10のディスプレイ12、イヤホン14、携帯端末装置40の表示操作部41及び音声入出力部46に出力することによって、コントロールセンタ端末62を操作するオペレータと警備員との双方向の情報交換を可能とする。また、コントロールセンタ端末62を操作するオペレータは、警備員が装着する各種情報取得装置が取得する情報を確認できることから、該警備員が支援を必要とする状態なのか否か及び必要とする支援内容の判断を短時間で且つ適切に行うことが可能となる。コントロールセンタ端末62は、オペレータの判断内容を受け付けたならば、その内容をコントロールセンタサーバ50に通知し、コントロールセンタサーバ50は、オペレータの判断内容に基づいてインシデントの種別を特定し、特定したインシデントに応じた処理を行う。   Further, the control center server 50 assigns the control center terminal 62 in the control center when the processing contents to be specifically performed cannot be determined, for example, when an abnormal value of the biological information sensor 22 is detected. Thus, the operator who operates the control center terminal 62 and a guard can communicate with each other. Specifically, the control center terminal 62 acquires and outputs information such as images, sounds, biometric information, and environmental information acquired by the equipment of the security guard, and a voice input device connected to the control center terminal 62 or the like. Information input by the input device is transmitted to the mobile terminal device 40. The portable terminal device 40 outputs the received information to the display 12 of the wearable camera 10, the earphone 14, the display operation unit 41 and the voice input / output unit 46 of the portable terminal device 40, thereby operating the control center terminal 62. Allows two-way information exchange with security guards. In addition, since the operator who operates the control center terminal 62 can confirm the information acquired by the various information acquisition devices worn by the security guard, whether or not the security guard is in a state requiring the assistance and the necessary assistance contents. This determination can be made in a short time and appropriately. When the control center terminal 62 accepts the operator's judgment content, the control center terminal 62 notifies the control center server 50 of the content, and the control center server 50 identifies the incident type based on the operator's judgment content, and identifies the identified incident. Process according to the.

また、コントロールセンタサーバ50は、警備対象領域に設置されている監視カメラ92及び報知装置93と、通信網91を介して接続可能で、監視カメラ92で取得した画像データを取得したり、コントロールセンタサーバ50から、報知装置93に対して情報を出力することが可能である。つまり、例えば、警備員の要望に応じて、警備員が装着するウェアラブルカメラ10のディスプレイ12に監視カメラ92で取得した画像を表示したり、例えば、災害時などの避難誘導において警備員の判断に基づいた避難経路を報知装置93に即時に反映することも可能である。   In addition, the control center server 50 can be connected to the monitoring camera 92 and the notification device 93 installed in the security target area via the communication network 91, acquires image data acquired by the monitoring camera 92, Information can be output from the server 50 to the notification device 93. That is, for example, an image acquired by the surveillance camera 92 is displayed on the display 12 of the wearable camera 10 worn by the guard according to the request of the guard, or for example, for the judgment of the guard in evacuation guidance at the time of a disaster or the like. It is also possible to reflect the evacuation route based on the notification device 93 immediately.

次に、図2に示した携帯端末装置40の本実施例に係る機能的な内部構成を説明する。図3は、携帯端末装置40の本実施例に係る機能的な内部構成を示すブロック図である。図3に示したように、携帯端末装置40は、表示操作部41、近距離無線通信部42、無線通信部43、外部通信部44、カメラ45、音声入出力部46、記憶部47及び制御部48を有している。   Next, a functional internal configuration according to the present embodiment of the mobile terminal device 40 shown in FIG. 2 will be described. FIG. 3 is a block diagram illustrating a functional internal configuration of the mobile terminal device 40 according to the present embodiment. As shown in FIG. 3, the mobile terminal device 40 includes a display operation unit 41, a short-range wireless communication unit 42, a wireless communication unit 43, an external communication unit 44, a camera 45, a voice input / output unit 46, a storage unit 47, and a control. Part 48 is provided.

表示操作部41は、タッチ式の液晶パネルなどの表示及び操作の受付を行う入出力部である。近距離無線通信部42は、ウェアラブルカメラ10、モーションセンサ21、生体情報センサ22及び環境情報センサ23とのBluetoothなどによる近距離無線通信を行うためのインタフェース部である。無線通信部43は、無線通信装置30とのWi−Fiや無線LANなどの通信手順による無線通信を行うためのインタフェース部である。外部通信部44は、コントロールセンタのコントロールセンタサーバ50との通信を行うためのインタフェース部である。   The display operation unit 41 is an input / output unit that receives display and operation of a touch-type liquid crystal panel or the like. The near field communication unit 42 is an interface unit for performing near field communication with the wearable camera 10, the motion sensor 21, the biological information sensor 22, and the environment information sensor 23 using Bluetooth or the like. The wireless communication unit 43 is an interface unit for performing wireless communication with the wireless communication device 30 according to a communication procedure such as Wi-Fi or wireless LAN. The external communication unit 44 is an interface unit for performing communication with the control center server 50 of the control center.

カメラ45は、画像データを取得する入力部である。音声入出力部46は、マイクなどの音声入力部及びスピーカやヘッドフォンなどの音声出力部を含む。   The camera 45 is an input unit that acquires image data. The audio input / output unit 46 includes an audio input unit such as a microphone and an audio output unit such as a speaker and headphones.

記憶部47は、DDR−SDRAM(Double Data Rate Synchronous Dynamic Random Access Memory)などからなる記憶デバイスである。記憶部47は、特定顔特徴データ47a及び手順データ47bを有する。特定顔特徴データ47aは、後述する個別アプリケーション48hのオフライン顔認証部48iで使用するデータである。手順データ47bは、後述する個別アプリケーション48hの手順ガイド部48kで使用するデータである。   The storage unit 47 is a storage device including a DDR-SDRAM (Double Data Rate Synchronous Dynamic Random Access Memory) or the like. The storage unit 47 includes specific face feature data 47a and procedure data 47b. The specific face feature data 47a is data used by the offline face authentication unit 48i of the individual application 48h described later. The procedure data 47b is data used in a procedure guide unit 48k of the individual application 48h described later.

制御部48は、携帯端末装置40の全体を制御する制御部であり、収集データ送信部48a、収集データ解析部48b、出力処理部48g及び個別アプリケーション48hを有する。実際には、これらの機能部に対応するプログラムを図示しないROM(Read Only Memory)や不揮発性メモリに記憶しておき、これらのプログラムをCPU(Central Processing Unit)にロードして実行することにより、対応するプロセスを実行させることになる。   The control unit 48 is a control unit that controls the entire mobile terminal device 40, and includes a collection data transmission unit 48a, a collection data analysis unit 48b, an output processing unit 48g, and an individual application 48h. Actually, programs corresponding to these functional units are stored in a ROM (Read Only Memory) or a non-volatile memory (not shown), and these programs are loaded into a CPU (Central Processing Unit) and executed. The corresponding process will be executed.

収集データ送信部48aは、近距離無線通信部42を介してウェアラブルカメラ10、モーションセンサ21、生体情報センサ22及び環境情報センサ23から送信されてきた各種情報をコントロールセンタサーバ50に送信する。   The collected data transmission unit 48 a transmits various information transmitted from the wearable camera 10, the motion sensor 21, the biological information sensor 22, and the environment information sensor 23 to the control center server 50 via the short-range wireless communication unit 42.

収集データ解析部48bは、近距離無線通信部42を介してウェアラブルカメラ10、モーションセンサ21、生体情報センサ22及び環境情報センサ23から送信されてきた各種情報に基づいて各種インシデントの発生を検知する。収集データ解析部48bは、解析する情報や検知するインシデントの種別などに応じて、音声解析部48c、画像解析部48d、モーション解析部48e及び異常検知部48fなどを有する。   The collected data analysis unit 48 b detects the occurrence of various incidents based on various information transmitted from the wearable camera 10, the motion sensor 21, the biological information sensor 22, and the environmental information sensor 23 via the short-range wireless communication unit 42. . The collected data analysis unit 48b includes a voice analysis unit 48c, an image analysis unit 48d, a motion analysis unit 48e, an abnormality detection unit 48f, and the like according to the information to be analyzed and the type of incident to be detected.

音声解析部48cは、ウェアラブルカメラ10のマイク13で取得した音声データを解析して、インシデントの発生を検知する。例えば、警備員の声による指示を解析して、指示に応じたインシデントの検知を行うようにしてもよい。   The voice analysis unit 48c analyzes the voice data acquired by the microphone 13 of the wearable camera 10 and detects the occurrence of an incident. For example, an instruction according to a guardian's voice may be analyzed to detect an incident according to the instruction.

画像解析部48dは、ウェアラブルカメラ10のカメラ11で取得した画像データを解析してインシデントの発生を検知する。本実施例では、不審人物か否かの検索処理に対するインシデントの検知を、コントロールセンタサーバ50で行うこととしているが、携帯端末装置40で実施するものとして、等が画像解析部48dで行うものとしてもよい。   The image analysis unit 48d analyzes the image data acquired by the camera 11 of the wearable camera 10 and detects the occurrence of an incident. In the present embodiment, the incident detection for the search process for determining whether or not the person is a suspicious person is performed by the control center server 50. However, it is assumed that the portable terminal device 40 performs the detection by the image analysis unit 48d. Also good.

モーション解析部48eは、モーションセンサ21により取得した警備員の動作にかかる情報を解析してインシデントの発生を検知する。例えば、警備員の所定インシデントに対応する動作に応じて、対応するインシデントを検知するようにしていてもよい。   The motion analysis unit 48e detects the occurrence of an incident by analyzing information regarding the operation of the guard acquired by the motion sensor 21. For example, a corresponding incident may be detected according to an operation corresponding to a predetermined incident of a guard.

異常検知部48fは、モーションセンサ21及び生体情報センサ22などで取得したデータを解析して、インシデントの発生を検知する。例えば、モーションセンサ21及び生体情報センサ22などで取得したデータの異常値を検出したならば警備員が異常な状態になっている可能性が高いと判定し、コントロールセンタ端末62による警備員の状況確認というインシデントが発生したと検知するようにしてもよい。   The abnormality detection unit 48f analyzes data acquired by the motion sensor 21, the biological information sensor 22, and the like, and detects the occurrence of an incident. For example, if an abnormal value of data acquired by the motion sensor 21 or the biological information sensor 22 is detected, it is determined that there is a high possibility that the guard is in an abnormal state, and the state of the guard by the control center terminal 62 is determined. It may be detected that an incident of confirmation has occurred.

出力処理部48gは、コントロールセンタサーバ50から受け付けたインシデントに対応する処理結果である画像情報及び音声情報などの情報を受け付けて、画像情報はウェアラブルカメラ10のディスプレイ12又は携帯端末装置40の表示操作部41に、音声情報はウェアラブルカメラ10のイヤホン14又は携帯端末装置40の音声入出力部46に出力する。また、出力処理部48gは、受け付けた処理結果が画像情報でも音声情報でもない場合に、例えば音声に変換してイヤホン14に出力したり、画像に変換してディスプレイ12に表示を行うこともできる。   The output processing unit 48g receives information such as image information and audio information that are processing results corresponding to the incident received from the control center server 50, and the image information is displayed on the display 12 of the wearable camera 10 or the display operation of the mobile terminal device 40. The audio information is output to the unit 41 to the earphone 14 of the wearable camera 10 or the audio input / output unit 46 of the mobile terminal device 40. In addition, when the received processing result is neither image information nor sound information, the output processing unit 48g can convert the sound into, for example, sound and output it to the earphone 14, or convert it into an image and display it on the display 12. .

個別アプリケーション48hは、コントロールセンタサーバ50から受け付けたインシデントに対応する処理結果として、画像情報や音声情報等のような汎用的な処理結果ではない特殊な形式の処理結果に対する処理を行う処理部である。個別アプリケーション48hは、オフライン顔認証部48i、無線通信装置設定部48j及び手順ガイド部48kなどを有する。   The individual application 48h is a processing unit that performs processing on a processing result in a special format that is not a general-purpose processing result such as image information or audio information as a processing result corresponding to the incident received from the control center server 50. . The individual application 48h includes an offline face authentication unit 48i, a wireless communication device setting unit 48j, a procedure guide unit 48k, and the like.

オフライン顔認証部48iは、例えば、ブラックリスト検索のインシデントの処理結果として、ウェアラブルカメラ10で取得した顔画像の人物がブラックリストに含まれる人物であるか否かの判定結果と伴に、ブラックリストに含まれる人物の顔画像の特徴データを受け付けた場合には、受け付けた顔画像の特徴データを特定顔特徴データ47aに記憶する。また、オフライン顔認証部48iは、ウェアラブルカメラ10のカメラ11で取得した人物の顔画像と特定顔特徴データ47aに含まれる顔特徴データのマッチングを行うことにより、一旦検知した不審人物の検出を携帯端末装置40で行うことにより、コントロールセンタサーバ50と連携しないローカルで不審人物の追跡のサポートを行うことができる。   The offline face authentication unit 48i, for example, as a blacklist search incident processing result, along with the determination result of whether or not the person of the face image acquired by the wearable camera 10 is a person included in the blacklist. Is received, the feature data of the received face image is stored in the specific face feature data 47a. Further, the offline face authentication unit 48i carries out detection of a suspicious person once detected by matching the face image of the person acquired by the camera 11 of the wearable camera 10 with the face feature data included in the specific face feature data 47a. By using the terminal device 40, it is possible to support tracking of a suspicious person locally without cooperation with the control center server 50.

無線通信装置設定部48jは、例えば、コントロールセンタサーバ50から無線アクセスポイント設定というインシデントに対する処理結果として無線通信装置30のネットワーク名の公開又は非公開や暗号化キーなどに係る設定変更情報を受け付けた場合には、無線通信装置設定部48jは受け付けた設定変更情報を無線通信装置30に送信することによってネットワーク名の公開又は非公開や暗号化キーなどに係る設定を変更する。   For example, the wireless communication device setting unit 48j has received setting change information related to the disclosure or non-disclosure of the network name of the wireless communication device 30 and the encryption key as a processing result for the incident of wireless access point setting from the control center server 50. In this case, the wireless communication device setting unit 48j transmits the received setting change information to the wireless communication device 30 to change the settings relating to the disclosure or nondisclosure of the network name, the encryption key, and the like.

手順ガイド部48kは、例えば、特定業務に係るサポートのインシデントの処理結果として、特定業務に係る処理手順の情報を処理結果として受け付けたならば、受け付けた処理手順の情報を手順データ47bに記憶する。さらに、手順ガイド部48kは、記憶した手順データ47bに含まれる音声や画像を伴う手順の情報をウェアラブルカメラ10の有するディスプレイ12及びイヤホン14に、順番に出力することによって警備員の特定業務の遂行をガイドする。   For example, if the procedure guide unit 48k receives information on a processing procedure related to a specific job as a processing result as a processing result of a support incident related to the specific job, the procedure guide unit 48k stores the received information on the processing procedure in the procedure data 47b. . Further, the procedure guide unit 48k sequentially executes the specific information of the security guard by outputting the procedure information accompanied by the voice and image included in the stored procedure data 47b to the display 12 and the earphone 14 of the wearable camera 10. To guide.

次に、図3に示した携帯端末装置40の本実施例に係るデータ構成について図4を用いて説明する。   Next, a data structure according to the present embodiment of the mobile terminal device 40 shown in FIG. 3 will be described with reference to FIG.

特定顔特徴データ47aは、顔特徴データを識別する識別番号と、該識別番号に対応する人物の属性情報と、顔特徴情報とをレコード項目とするデータである。属性情報は、識別番号に対応する人物の名前、性別、年齢及びブラックリストにリストアップされている理由などの情報を含む。図4の特定顔特徴データ47aの例は、識別番号が「00101」の人物は、名前が「田中太郎」で、性別が「男」で、年齢が「30」歳であること示している。   The specific face feature data 47a is data having record items including an identification number for identifying the face feature data, attribute information of the person corresponding to the identification number, and face feature information. The attribute information includes information such as the name, gender, age of the person corresponding to the identification number, and the reason listed in the black list. The example of the specific face feature data 47a in FIG. 4 indicates that the person with the identification number “00101” has the name “Taro Tanaka”, the gender “male”, and the age “30”.

手順データ47bは、手順の実施順を示す手順番号と、手順指示データの種類を示すデータ区分と、手順指示データとをレコード項目とするデータである。データ区分は、コード化されたデータであって、「1」は順指示データが音声データであることを示し、「2」は順指示データが画像データであることを示し、「3」は順指示データが音声+画像データであることを示し、「4」は順指示データが文字データであることを示している。   The procedure data 47b is data in which a procedure number indicating the order in which the procedures are performed, a data classification indicating the type of procedure instruction data, and procedure instruction data are used as record items. The data classification is coded data, “1” indicates that the forward instruction data is audio data, “2” indicates that the forward instruction data is image data, and “3” indicates the forward data. The instruction data indicates voice + image data, and “4” indicates that the order instruction data is character data.

図4の手順データ47bの例は、手順願号が「1」に対応する手順指示データは、データ区分が「1」であり音声データで、手順願号が「2」に対応する手順指示データは、データ区分が「1」であり音声データで、手順願号が「3」に対応する手順指示データは、データ区分が「3」であり音声+画像データであることを示している。   In the example of the procedure data 47b in FIG. 4, the procedure instruction data corresponding to the procedure application number “1” is the data classification “1”, the voice data, and the procedure instruction data corresponding to the procedure application number “2”. Indicates that the data classification is “1” and audio data, and the procedure instruction data corresponding to the procedure application number “3” indicates that the data classification is “3” and audio + image data.

次に、図2に示したコントロールセンタサーバ50の本実施例に係る機能的な内部構成を説明する。図5は、コントロールセンタサーバ50の本実施例に係る機能的な内部構成を示すブロック図である。図5に示すように、コントロールセンタサーバ50は、入力部51及び表示部52と接続される。入力部51は、キーボードやマウス等であり、表示部52は、液晶パネル等のディスプレイ装置である。   Next, a functional internal configuration according to the present embodiment of the control center server 50 shown in FIG. 2 will be described. FIG. 5 is a block diagram showing a functional internal configuration of the control center server 50 according to the present embodiment. As shown in FIG. 5, the control center server 50 is connected to an input unit 51 and a display unit 52. The input unit 51 is a keyboard or a mouse, and the display unit 52 is a display device such as a liquid crystal panel.

また、コントロールセンタサーバ50は、通信部53と、記憶部54と、制御部55とを有する。通信部53は、通信網91を介して無線通信装置30、携帯端末装置40、監視カメラ92及び報知装置93とデータ通信するためのインタフェース部である。   In addition, the control center server 50 includes a communication unit 53, a storage unit 54, and a control unit 55. The communication unit 53 is an interface unit for performing data communication with the wireless communication device 30, the mobile terminal device 40, the monitoring camera 92, and the notification device 93 via the communication network 91.

記憶部54は、ハードディスク装置や不揮発性メモリ等からなる記憶デバイスである。記憶部54は、収集データ54a、警備員データ54b、端末管理データ54c、インシデントデータ54d、出力データ54e、ブラックリストDB54m及び手順DB54nを有している。   The storage unit 54 is a storage device composed of a hard disk device, a nonvolatile memory, or the like. The storage unit 54 includes collected data 54a, guard data 54b, terminal management data 54c, incident data 54d, output data 54e, a black list DB 54m, and a procedure DB 54n.

収集データ54aは、携帯端末装置40から受信した警備員の装着する各種情報取得装置で取得した情報を蓄積したデータである。警備員データ54bは、当該警備システムで支援の対象となる警備員に係る情報であって、警備員のリアルタイムの状況と、警備員の保有スキルなどの属性情報等を含むデータである。端末管理データ54cは、コントロールセンタ内に設置されている複数のコントロールセンタ端末62の稼働状況を示すデータである。インシデントデータ54dは、発生したインシデントを管理するデータであって、発生したインシデントごとに採番された識別情報、インシデントの種別、インシデントの状況などの情報を有するデータである。   The collected data 54a is data obtained by accumulating information acquired from various information acquisition devices worn by the guards received from the mobile terminal device 40. The security guard data 54b is information related to a security guard to be supported by the security system, and is data including attribute information such as a security guard's real-time situation and security skills held by the security guard. The terminal management data 54c is data indicating the operating status of a plurality of control center terminals 62 installed in the control center. The incident data 54d is data for managing an incident that has occurred, and includes information such as identification information numbered for each incident that has occurred, an incident type, and an incident status.

出力データ54eは、インシデントに関連付けられた処理結果であって、出力先データ54f、指示テキストデータ54g、音声出力データ54h、画像出力データ54i、特定顔特徴データ54j及び手順データ54kなどを含む。出力先データ54fは、指示テキストデータ54g、音声出力データ54h、画像出力データ54i、特定顔特徴データ54j及び手順データ54kなどの処理結果を送信する宛先に係る情報である。例えば、ブラックリスト検索のインシデントの場合に、ブラックリスト検索の処理結果を送信する宛先は、通常であれば顔画像を取得したウェアラブルカメラ10を装着する警備員であるが、例えば警備員からの応援要請などのインシデントの場合には、出動指示の対象となる警備員になる。   The output data 54e is a processing result associated with the incident, and includes output destination data 54f, instruction text data 54g, audio output data 54h, image output data 54i, specific face feature data 54j, procedure data 54k, and the like. The output destination data 54f is information related to a destination to which processing results such as instruction text data 54g, audio output data 54h, image output data 54i, specific face feature data 54j, and procedure data 54k are transmitted. For example, in the case of a blacklist search incident, the destination to which the blacklist search processing result is sent is usually a guard who wears the wearable camera 10 that has acquired the face image. In the case of an incident such as a request, it becomes a guard who is the subject of dispatch instructions.

指示テキストデータ54gは、警備員に対する出力データであり、受け付けた携帯端末装置40は、受け付けた指示テキストデータ54gをウェアラブルカメラ10のディスプレイ12に文字情報として表示したり、音声データに変換してイヤホン14に出力する。音声出力データ54hは、警備員に対する出力データであり、受け付けた携帯端末装置40は、受け付けた音声出力データ54hをイヤホン14に出力する。画像出力データ54iは、警備員に対する出力データであり、受け付けた携帯端末装置40は、受け付けた画像出力データ54iをウェアラブルカメラ10のディスプレイ12に出力する。   The instruction text data 54g is output data for the security guard, and the received mobile terminal device 40 displays the received instruction text data 54g as character information on the display 12 of the wearable camera 10 or converts it into voice data to be used as an earphone. 14 for output. The audio output data 54h is output data for the security guard, and the received mobile terminal device 40 outputs the received audio output data 54h to the earphone 14. The image output data 54 i is output data for the security guard, and the received portable terminal device 40 outputs the received image output data 54 i to the display 12 of the wearable camera 10.

特定顔特徴データ54jは、ブラックリスト検索などのインシデントの処理結果として出力されるデータであり、検索されたブラックリストの人物に対応する顔の特徴データなどの情報を含むデータである。該特定顔特徴データ54jが携帯端末装置40に送信されると、携帯端末装置40は受け付けた特定顔特徴データ54jを特定顔特徴データ47aに追加登録する。   The specific face feature data 54j is data that is output as an incident processing result such as a blacklist search, and includes information such as face feature data corresponding to the searched blacklist person. When the specific face feature data 54j is transmitted to the mobile terminal device 40, the mobile terminal device 40 additionally registers the received specific face feature data 54j in the specific face feature data 47a.

手順データ54kは、インシデントの処理結果として、警備員が行うべき対処の手順の情報であって、該手順データ54kが携帯端末装置40に送信されると、携帯端末装置40は受け付けた手順データ54kを手順データ47bに記憶して、手順のナビゲーションを行う。   The procedure data 54k is information on a procedure to be taken by the guard as an incident processing result. When the procedure data 54k is transmitted to the mobile terminal device 40, the mobile terminal device 40 receives the received procedure data 54k. Is stored in the procedure data 47b and the navigation of the procedure is performed.

ブラックリストDB54mは、要注意人物の顔画像の特徴データ及び該要注意人物に係る情報を含んだデータベースであり、ブラックリスト検索のインシデントに応じた処理で使用するDBである。また、手順DB54nは、警備員の行う処置の手順を格納したDBであり、インシデントの処理結果として手順データ54kを出力する場合には当該手順DB54nから対応する手順を選択して手順データ54kに出力する。   The black list DB 54m is a database including feature data of a face image of a person requiring attention and information related to the person requiring attention, and is a DB used in processing corresponding to an incident of a black list search. Further, the procedure DB 54n is a DB that stores the procedure of the procedure performed by the security guard. When the procedure data 54k is output as the incident processing result, the procedure corresponding to the procedure DB 54n is selected and output to the procedure data 54k. To do.

制御部55は、コントロールセンタサーバ50全体を制御する制御部であり、データ収集・蓄積処理部55a、収集データ監視部55b、警備員データ管理部55c、端末制御部55d、個別処理部55e及び出力処理部55hを有する。実際には、これらの機能部に対応するプログラムを図示しないROMや不揮発性メモリに記憶しておき、これらのプログラムをCPU(Central Processing Unit)にロードして実行することにより、対応するプロセスを実行させることになる。   The control unit 55 is a control unit that controls the entire control center server 50, and includes a data collection / accumulation processing unit 55a, a collected data monitoring unit 55b, a guard data management unit 55c, a terminal control unit 55d, an individual processing unit 55e, and an output. A processing unit 55h is included. Actually, programs corresponding to these functional units are stored in a ROM or non-volatile memory (not shown), and the corresponding processes are executed by loading these programs into a CPU (Central Processing Unit) and executing them. I will let you.

データ収集・蓄積処理部55aは、携帯端末装置40から警備員の装備である各種装置で取得した各種データを受信して収集データ54aに蓄積する。 The data collection / accumulation processing unit 55a receives various data acquired from various devices that are equipped with guards from the mobile terminal device 40, and accumulates them in the collected data 54a.

収集データ監視部55bは、携帯端末装置40から警備員の装着する各種情報取得装置で取得した各種情報を監視して各種インシデントの発生を検知する処理部である。収集データ監視部55bと、携帯端末装置40の収集データ解析部48bとは同じデータに基づいてインシデントの検知を行うことも可能であるが、重複した処理を行うものではなく、データの発生頻度及びデータの解析に必要な情報などによって、携帯端末装置40とコントロールセンタサーバ50に適切に機能配分される。   The collected data monitoring unit 55b is a processing unit that monitors various information acquired from the various information acquisition devices worn by the guards from the mobile terminal device 40 and detects the occurrence of various incidents. Although the collected data monitoring unit 55b and the collected data analyzing unit 48b of the mobile terminal device 40 can detect incidents based on the same data, they do not perform duplicate processing, Functions are appropriately distributed to the mobile terminal device 40 and the control center server 50 according to information necessary for data analysis.

警備員データ管理部55cは、警備員データ54bの警備員のリアルタイムの状況を管理する。例えば、警備員の携行する環境情報センサ23から位置情報を受け付けて、警備員データ54bの有する警備員の位置情報を更新したり、警備員に関連付けて発生しているインシデントの情報などを、リアルタイムで更新する。   The guard data management unit 55c manages the real-time situation of the guard of the guard data 54b. For example, the position information is received from the environmental information sensor 23 carried by the security guard, the position information of the security guard possessed by the security guard data 54b is updated, or the information on the incident occurring in association with the security guard is real-time. Update with.

端末制御部55dは、コントロールセンタに設置されるコントロールセンタ端末62のインシデントに対する割当及び解放を行う。また、端末制御部55dは、コントロールセンタ端末62をインシデントに割り当てたならば、割り当てたコントロールセンタ端末62と該インシデントに対応する携帯端末装置40との間のデータ通信を中継し、該コントロールセンタ端末62を操作するオペレータと警備員がコミュニケーションできる状態を作る。   The terminal control unit 55d performs allocation and release for incidents of the control center terminal 62 installed in the control center. If the control center terminal 62 is assigned to an incident, the terminal control unit 55d relays data communication between the assigned control center terminal 62 and the mobile terminal device 40 corresponding to the incident, and the control center terminal The state where the operator who operates 62 and the guard can communicate is made.

個別処理部55eは、インシデントの種別に応じた個別の処理を行って出力データ54eを処理結果として出力する。個別処理部55eは、インシデントの種別ごとの処理部であるブラックリスト検索部55f及び無線通信装置設定部55gなどを含む。   The individual processing unit 55e performs individual processing according to the type of incident and outputs output data 54e as a processing result. The individual processing unit 55e includes a black list search unit 55f that is a processing unit for each incident type, a wireless communication device setting unit 55g, and the like.

ブラックリスト検索部55fは、ウェアラブルカメラ10で取得した画像データに含まれる人物がブラックリストに含まれる人物でないかを確認するブラックリスト検索というインシデントに対する処理部で、ウェアラブルカメラ10で取得した画像データ含まれる人物の顔画像を用いて、ブラックリストDB54mの情報とをマッチングして、その処理結果として指示テキストデータ54g、音声出力データ54h、画像出力データ54i、特定顔特徴データ54j及び手順データ54kなどのデータを出力する。   The black list search unit 55f is a processing unit for an incident called black list search for confirming whether a person included in the image data acquired by the wearable camera 10 is not included in the black list, and includes the image data acquired by the wearable camera 10. Using the face image of the person to be matched with the information in the black list DB 54m, the processing results include instruction text data 54g, audio output data 54h, image output data 54i, specific face feature data 54j, procedure data 54k, etc. Output data.

無線通信装置設定部55gは、例えば、無線アクセスポイント設定というインシデントに対する処理部であって、処理結果として無線通信装置30のネットワーク名の公開又は非公開や暗号化キーなどに係る設定変更情報を出力する。   The wireless communication device setting unit 55g is, for example, a processing unit for an incident called wireless access point setting, and outputs setting change information related to the disclosure or non-disclosure of the network name of the wireless communication device 30 and the encryption key as a processing result. To do.

出力処理部55hは、発生したインシデントに対して個別処理部55eの出力した出力データ54eを、出力データ54eに含まれる出力先データ54fが示す出力先に送信する処理部である。   The output processing unit 55h is a processing unit that transmits the output data 54e output from the individual processing unit 55e to the output destination indicated by the output destination data 54f included in the output data 54e in response to the incident that has occurred.

次に、図5に示したコントロールセンタサーバ50の本実施例に係るデータ構成について図6及び図7を用いて説明する。   Next, the data structure according to the present embodiment of the control center server 50 shown in FIG. 5 will be described with reference to FIGS.

図6の収集データ54aは、データを収集した日時、データを取得した装置を装着又は携行する警備員の識別情報、収集したデータの種類を示すデータ区分及び取得したデータをレコードの保有項目とするデータである。データ区分は、コード化されたデータであって、「01」はウェアラブルカメラ10のカメラ11で取得したデータであることを示し、「02」はウェアラブルカメラ10のマイク13で取得したデータであることを示し、「03」はモーションセンサ21で取得したデータであることを示し、「04」は生体情報センサ22で取得したデータであることを示し、「05」は環境情報センサ23で取得したデータであることを示し、「81」は監視カメラ92で取得したデータであることを示し、「90」は携帯端末装置40によって警備員が装着する各種情報取得装置で取得した情報を解析した結果のデータであることを示す。また、取得データは、データ区分に応じたデータ形式を有する。   The collected data 54a in FIG. 6 includes the date and time when the data was collected, the identification information of the guard who wears or carries the device that acquired the data, the data classification indicating the type of the collected data, and the acquired data as the possessed items of the record. It is data. The data classification is encoded data, “01” indicates data acquired by the camera 11 of the wearable camera 10, and “02” is data acquired by the microphone 13 of the wearable camera 10. “03” indicates data acquired by the motion sensor 21, “04” indicates data acquired by the biological information sensor 22, and “05” indicates data acquired by the environmental information sensor 23. “81” indicates data acquired by the monitoring camera 92, and “90” indicates a result of analyzing information acquired by the various information acquisition devices worn by the security guard by the mobile terminal device 40. Indicates data. The acquired data has a data format corresponding to the data classification.

図6の収集データ54aの例は、日時が「2014/4/10 15:00」に、警備員識別情報が「05015」の警備員の装着するウェアラブルカメラ10のカメラ11で取得したデータが記録されていることを示している。   In the example of the collected data 54a in FIG. 6, data acquired by the camera 11 of the wearable camera 10 worn by the security guard whose date and time is “2014/4/10 15:00” and whose security guard identification information is “05015” is recorded. It has been shown.

図6の警備員データ54bは、警備員の識別情報と、警備員のリアルタイムの状況を示す警備員状況と、警備員の属性情報等をレコードの保有項目とするデータである。警備員状況は、警備員にアサインされている任務を識別する任務番号と、警備員に関連付けられて処理中のインシデント番号と、警備員の環境情報センサ23から受け付けた位置情報と、警備員の携行する携帯端末装置40の通信アドレスなどを含む。また警備員の属性情報は、性別及び保有スキルなどの情報を含む。   The security guard data 54b in FIG. 6 is data in which the identification information of the security guard, the security guard situation indicating the real-time situation of the security guard, attribute information of the security guard, and the like are stored items of the record. The security guard status includes the mission number for identifying the mission assigned to the security guard, the incident number associated with the security guard, the position information received from the environmental information sensor 23 of the security guard, and the security guard's status. The communication address of the portable terminal device 40 to be carried is included. The guard attribute information includes information such as gender and possession skills.

図6の警備員データ54bの例は、警備員識別情報が「12345」に対応する警備員は、任務番号「123」に対する任務がアサインされていて、当該警備員に対応する「12301234」のインシデントの処理中であり、性別が「M」で男性であることを示している。   In the example of the security guard data 54b in FIG. 6, the security guard corresponding to the security guard identification information “12345” is assigned the mission for the mission number “123”, and the incident “12301234” corresponding to the security guard. And the sex is “M”, indicating that the man is male.

図6の端末管理データ54cは、コントロールセンタ端末62を識別可能な端末識別番号に関連付けられた、端末識別番号に対するコントロールセンタ端末62のステータスと、関連するインシデント番号などをレコードの保有項目とするデータである。ステータスは、コード化されたデータであって、「0」はいずれのインシデントにもアサインされていないことを示し、「1」はいずれかのインシデントにアサインされていることを示す。図6の端末管理データ54cの例は、端末識別番号「011」のコントロールセンタ端末62は、ステータスが「1」でありインシデントにアサインされていて、アサインされているインシデント番号が「1010251」であることを示している。   The terminal management data 54c in FIG. 6 is data in which the status of the control center terminal 62 with respect to the terminal identification number, the associated incident number, and the like are associated with the terminal identification number that can identify the control center terminal 62. It is. The status is coded data, and “0” indicates that it is not assigned to any incident, and “1” indicates that it is assigned to any incident. In the example of the terminal management data 54c in FIG. 6, the control center terminal 62 having the terminal identification number “011” has a status of “1” and is assigned to an incident, and the assigned incident number is “1010251”. It is shown that.

図6のインシデントデータ54dは、インシデントの発生日時、発生したインシデントを識別するインシデント番号、発生したインシデントの種別、インシデントのステータス及び発生したインシデントに対応する警備員の識別情報などをレコードの保有項目とするデータである。インシデントステータスは、コード化されたデータであって、「00」はインシデント判定中であることを示し、「01」はで処理結果を送信する宛先を決定済であることを示し、「02」はで処理結果を送信済みであることを示し、「90」は当該インシデントの対応が完了していることを示す。   The incident data 54d in FIG. 6 includes the occurrence date and time of the incident, the incident number for identifying the incident that has occurred, the type of the incident that has occurred, the status of the incident, the identification information of the guard corresponding to the incident that has occurred, etc. It is data to be. The incident status is coded data, “00” indicates that the incident is being determined, “01” indicates that the destination to which the processing result is transmitted has been determined, and “02” indicates Indicates that the processing result has been transmitted, and “90” indicates that the incident has been handled.

図6のインシデントデータ54dの例は、発生日時が「2014/4/10 17:30」のインシデントは、インシデント番号が「12301234」で、インシデント種別が「201」で、インシデントステータスが「01」で処理結果を送信する宛先を決定済であり、インシデントに対応する警備員の識別情報が「12345」であることを示している。   In the example of the incident data 54d in FIG. 6, an incident with an occurrence date of “2014/4/10 17:30” has an incident number of “12301234”, an incident type of “201”, and an incident status of “01”. The destination to which the processing result is transmitted has been determined, and the identification information of the guard corresponding to the incident is “12345”.

図6に示した出力データ54eは、出力先データ54f、指示テキストデータ54g、音声出力データ54h、画像出力データ54i、特定顔特徴データ54j及び手順データ54kの共通のデータ形式であって、対応するインシデントのインシデント番号と、該インシデント番号に対して複数の出力データ54eが出力される場合にこれを識別するためのインシデント枝番号と、データ区分と、区分別のデータとをレコードの保有項目とするデータである。データ区分は、コード化されたデータであって、「01」は区分別データに含まれるデータが出力先データ54fであることを示し、「02」は区分別データに含まれるデータが指示テキストデータ54gであることを示し、「03」は区分別データに含まれるデータが音声出力データ54hであることを示し、「04」は区分別データに含まれるデータが画像出力データ54iであることを示している。   The output data 54e shown in FIG. 6 is a common data format of the output destination data 54f, the instruction text data 54g, the voice output data 54h, the image output data 54i, the specific face feature data 54j, and the procedure data 54k. The incident number of the incident, the incident branch number for identifying the output number 54e when a plurality of output data 54e is output for the incident number, the data classification, and the data for each classification are the possessed items of the record. It is data. The data classification is coded data, “01” indicates that the data included in the classification data is the output destination data 54f, and “02” indicates that the data included in the classification data is the instruction text data. 54g, “03” indicates that the data included in the classification data is the audio output data 54h, and “04” indicates that the data included in the classification data is the image output data 54i. ing.

図6の出力データ54eの例は、インシデント番号が「12301234」で、インシデント枝番号が「001」に対応するデータは、データ区分が「01」であり出力先データ54fを区分別データとして有していることを示している。   In the example of the output data 54e in FIG. 6, the data corresponding to the incident number “12301234” and the incident branch number “001” has the data classification “01” and the output destination data 54f as the data classified by classification. It shows that.

図7のブラックリストDB54mは、図4に示した携帯端末装置40の特定顔特徴データ47aの構造に同じである。また、図7の手順DB54nは、図4の携帯端末装置40の手順データ47bに対して、一連の手順が関連付けられる手順識別番号がレコード項目に追加になったデータである。図4に示した手順データ47bは、複数の手順が格納された手順DB54nからいずれか一つの手順を選択して取り出したデータである。   The black list DB 54m in FIG. 7 has the same structure as the specific face feature data 47a of the mobile terminal device 40 shown in FIG. Further, the procedure DB 54n in FIG. 7 is data in which a procedure identification number associated with a series of procedures is added to the record item with respect to the procedure data 47b of the mobile terminal device 40 in FIG. The procedure data 47b shown in FIG. 4 is data extracted by selecting any one procedure from the procedure DB 54n storing a plurality of procedures.

次に、コントロールセンタサーバ50が携帯端末装置40からの情報を受け付けたときの処理手順を説明する。図8は、コントロールセンタサーバ50が携帯端末装置40からの情報を受け付けたときの処理手順を示すフローチャートである。   Next, a processing procedure when the control center server 50 receives information from the mobile terminal device 40 will be described. FIG. 8 is a flowchart illustrating a processing procedure when the control center server 50 receives information from the mobile terminal device 40.

データ収集・蓄積処理部55aは、携帯端末装置40から警備員の装着する各種情報取得装置で取得した各種情報に基づいて検地したインシデントの通報を受け付けたならば、受け付けた情報を収集データ54aに登録する(ステップS101)。   If the data collection / accumulation processing unit 55a receives a report of an incident detected based on various information acquired by the various information acquisition devices worn by the guard from the mobile terminal device 40, the received information is stored in the collected data 54a. Register (step S101).

ステップS101で受け付けた情報がインシデントの通報ではない場合(ステップS102;No)には、収集データ監視部55bは、受け付けたデータを解析することによってインシデントの発生有無及びインシデントの種別の判定を行う(ステップS103)。また、ステップS101で受け付けた情報がインシデントの通報の場合(ステップS102;Yes)には、データ収集・蓄積処理部55aは、受け付けたインシデントの通報の内容を、インシデントデータ54dに登録して(ステップS104)、ステップS112に移行する。   If the information received in step S101 is not a report of an incident (step S102; No), the collected data monitoring unit 55b analyzes the received data to determine whether an incident has occurred and the type of incident ( Step S103). When the information received in step S101 is an incident report (step S102; Yes), the data collection / accumulation processing unit 55a registers the content of the received incident report in the incident data 54d (step S102). S104), the process proceeds to step S112.

ステップS103の判定処理でインシデントではないと判定された場合(ステップS105;Yes)には、処理を終了する。また、ステップS103の判定処理でインシデントであると判定された場合(ステップS105;No)には、収集データ監視部55bは、ステップS103の処理の判定結果をインシデントデータ54dに登録する(ステップS106)。また、ステップS103の判定処理でインシデント種別も判定されている場合(ステップS107;Yes)には、ステップS112に移行する。   If it is determined in step S103 that the incident is not an incident (step S105; Yes), the process ends. If it is determined in step S103 that the incident is an incident (step S105; No), the collected data monitoring unit 55b registers the determination result of the process in step S103 in the incident data 54d (step S106). . When the incident type is also determined in the determination process in step S103 (step S107; Yes), the process proceeds to step S112.

ステップS103の判定処理でインシデント種別が判定されていない場合(ステップS107;No)には、端末制御部55dは、コントロールセンタ端末62の割当を行い割り当てたコントロールセンタ端末62とインシデントに対応する携帯端末装置40と接続して、コントロールセンタ端末62を操作するオペレータと警備員がコミュニケーションできる状態を作る(ステップS108)。   If the incident type is not determined in the determination process of step S103 (step S107; No), the terminal control unit 55d allocates the control center terminal 62 and assigns the assigned control center terminal 62 and the portable terminal corresponding to the incident. It connects with the apparatus 40 and the state which the operator who operates the control center terminal 62 and a guard can communicate is made (step S108).

ステップS108の処理の結果として、コントロールセンタ端末62からインシデント種別を受け付けたならば(ステップS109;Yes)、端末制御部55dは、受け付けたインシデント種別をインシデントデータ54dに登録する(ステップS110)。また、ステップS108の処理の結果として、コントロールセンタ端末62からインシデントに対する対応が終了した旨を受け付けたならば(ステップS109;No)、端末制御部55dは、対応するインシデントデータ54dのインシデントステータスを、端末制御部55dは、対応するインシデントデータ54dのインシデントステータスを「90」の対応完了に更新して(ステップS111)、処理を終了する。   If the incident type is received from the control center terminal 62 as a result of the process of step S108 (step S109; Yes), the terminal control unit 55d registers the received incident type in the incident data 54d (step S110). Further, as a result of the processing in step S108, if it is received from the control center terminal 62 that the response to the incident has been completed (step S109; No), the terminal control unit 55d displays the incident status of the corresponding incident data 54d as follows. The terminal control unit 55d updates the incident status of the corresponding incident data 54d to “90” corresponding completion (step S111), and ends the process.

インシデント種別が決定したならば、個別処理部55eはインシデント種別に応じた処理を実行する。具体的には、個別処理部55eは、インシデント種別に応じた処理を実行し、該処理結果を出力データ54eに出力し(ステップS112)、該処理結果を送信する宛先を決定して出力データ54eの出力先データ54fに出力する(ステップS113)。   If the incident type is determined, the individual processing unit 55e executes processing according to the incident type. Specifically, the individual processing unit 55e executes processing according to the incident type, outputs the processing result to the output data 54e (step S112), determines a destination to which the processing result is transmitted, and outputs the output data 54e. To the output destination data 54f (step S113).

出力処理部55hは、出力データ54eに従って処理結果を警備員の携行する携帯端末装置40に送信し(ステップS114)、処理結果を送信することによって処理終了となるインシデントについては(ステップS115;Yes)、インシデントデータ54dの対応するレコードのインシデントステータスを「90」の対応完了に更新して(ステップS116)、処理を終了する。また、処理結果を送信することによってインシデントに対する処理が終了とはならないインシデントについては(ステップS115;No)、ステップS116のインシデントクローズ処理は行わずに処理を終了する。   The output processing unit 55h transmits the processing result to the mobile terminal device 40 carried by the guard according to the output data 54e (step S114), and for the incident that is terminated by transmitting the processing result (step S115; Yes). Then, the incident status of the corresponding record in the incident data 54d is updated to “90” corresponding completion (step S116), and the process is terminated. For incidents for which processing for the incident does not end by transmitting the processing result (step S115; No), the processing ends without performing the incident close processing in step S116.

次に、図8に示した受付データ解析処理(ステップS103)におけるブラックリスト検索のインシデント検知処理の処理手順について、図9に示したフローチャートを用いて説明する。   Next, the procedure of the blacklist search incident detection process in the received data analysis process (step S103) shown in FIG. 8 will be described with reference to the flowchart shown in FIG.

受け付けた情報が画像データの場合(ステップS201;Yes)には、収集データ監視部55bは、受け付けた画像データを解析して、画像に含まれる人物を検知する(ステップS202)。また、収集データ監視部55bは、ステップS202で検知した人物ごとに特徴を判別し、ステップS202で検出した人物ごとの特徴の情報を画像データの受信時刻とともに記憶する(ステップS203)。収集データ監視部55bは、画像データ受付の都度ステップS202及びステップS203で行われた処理により時系列に蓄積された検出された人物ごとの特徴の情報に基づいて、最後に画像データを受信した時刻から所定の時間の範囲の画像に同じ特徴を有する同一人物が出現する割合である出現率を人物ごとに算出する(ステップS204)。   When the received information is image data (step S201; Yes), the collected data monitoring unit 55b analyzes the received image data and detects a person included in the image (step S202). Further, the collected data monitoring unit 55b determines the feature for each person detected in step S202, and stores the feature information for each person detected in step S202 together with the reception time of the image data (step S203). The collected data monitoring unit 55b last receives image data based on the detected feature information for each person accumulated in time series by the processing performed in step S202 and step S203 each time image data is received. To an appearance rate, which is the rate at which the same person having the same feature appears in an image within a predetermined time range, is calculated for each person (step S204).

ステップS204において算出された人物ごとの出現率が所定値以上の人物がいて(ステップS205;Yes)、その時点の警備員が装着した生体情報センサ22により取得した心拍数に他の時点に比べて有意な変化が認められた場合(ステップS206;Yes)に、収集データ監視部55bは、警備員が出現率の高い人物に対して特別な注意を払っていると判定し、当該人物がブラックリストに含まれている人物か否かの検索を行うというブラックリスト検索のインシデントと判定して(ステップS207)、処理を終了する。   There is a person whose appearance rate for each person calculated in step S204 is equal to or higher than a predetermined value (step S205; Yes), and the heart rate acquired by the biometric information sensor 22 worn by the security guard at that time is compared with other time points. When a significant change is recognized (step S206; Yes), the collected data monitoring unit 55b determines that the guard is paying special attention to a person with a high appearance rate, and the person is blacklisted. Is determined as a blacklist search incident to search whether or not the person is included in the list (step S207), and the process is terminated.

ステップS204において算出された人物ごとの出現率が所定値以上の人物がいない場合(ステップS205;No)や、ステップS204において算出された人物ごとの出現率が所定値以上の人物がいる場合(ステップS205;Yes)であっても、その時点の警備員が装着した生体情報センサ22により取得した心拍数に他の時点に比べて有意な変化が認められない場合(ステップS206;No)には、ステップS207の処理は行わずに処理を終了する。また、受け付けた情報が画像データでない場合(ステップS201;No)にも、処理を終了する。   When there is no person whose appearance rate for each person calculated in step S204 is a predetermined value or more (step S205; No), or when there is a person whose appearance rate for each person calculated in step S204 is a predetermined value or more (step) Even if it is (S205; Yes), when a significant change is not recognized compared with other time points in the heart rate acquired by the biometric information sensor 22 worn by the guard at that time point (step S206; No), The process ends without performing the process of step S207. The process is also terminated when the received information is not image data (step S201; No).

図9で示した警備員が特定の人物に対して特別な注意を払っていることの判定基準は一例であり、例えば警備員の視線を検知するようなセンサを警備員に装着させて、該視線の動きを解析することによって判定するようにしてもよい。   The criteria for determining that the security guard shown in FIG. 9 is paying special attention to a specific person is an example. For example, by attaching a sensor that detects the gaze of the security guard to the security guard, The determination may be made by analyzing the movement of the line of sight.

次に、図8に示した出力データ生成処理(ステップS112)におけるブラックリスト検索処理の処理手順について、図10に示したフローチャートを用いて説明する。   Next, the processing procedure of the black list search process in the output data generation process (step S112) shown in FIG. 8 will be described using the flowchart shown in FIG.

ブラックリスト検索部55fは、受け付けた画像データから評価対象の人物の顔画像を抽出して(ステップS301)、抽出した顔画像に基づいて顔の特徴データを算出する(ステップS302)。ブラックリスト検索部55fは、ステップS302で算出した評価対象の人物の顔の特徴データと、ブラックリストDB54mに含まれる人物の顔の特徴データとの類似性の評価を行い、類似性が高いと判定される人物がブラックリストDBに存在するか否かの検索処理を行う(ステップS303)。   The black list search unit 55f extracts the face image of the person to be evaluated from the received image data (step S301), and calculates facial feature data based on the extracted face image (step S302). The black list search unit 55f evaluates the similarity between the facial feature data of the person to be evaluated calculated in step S302 and the facial feature data of the person included in the black list DB 54m, and determines that the similarity is high. A search process is performed to determine whether or not the person to be included exists in the blacklist DB (step S303).

ステップS303のブラックリストDB54mの検索処理において、類似性が高い人物がブラックリストDB54mに存在する場合(ステップS304;Yes)には、ブラックリスト検索部55fは、類似性が高いと判定されたブラックリストDB54mの人物に係る情報を特定顔特徴データ54jとして出力し(ステップS305)、ブラックリストDB54mに含まれる人物と類似性の高い人物が検知された場合の警備員の対処手順として、手順データ54kを出力して(ステップS306)、処理を終了する。   In the search processing of the black list DB 54m in step S303, if a person with high similarity exists in the black list DB 54m (step S304; Yes), the black list search unit 55f determines that the black list has high similarity. Information relating to the person in the DB 54m is output as the specific face feature data 54j (step S305), and the procedure data 54k is used as a security guard handling procedure when a person similar to the person included in the black list DB 54m is detected. Output (step S306), the process is terminated.

ステップS303のブラックリストDB54mの検索処理において、類似性が高い人物がブラックリストDB54mに存在しない場合(ステップS304;No)には、ステップS305及びステップS306の処理をスキップして、処理を終了する。   In the search process of the black list DB 54m in step S303, when a person with high similarity does not exist in the black list DB 54m (step S304; No), the process of step S305 and step S306 is skipped and the process ends.

次に、図2に示した携帯端末装置40における手順情報を受け付けた場合の警備員に対する手順のガイド処理の処理手順について、図11に示したフローチャートを用いて説明する。   Next, the procedure of the guide process of the procedure for the guard when the procedure information in the mobile terminal device 40 shown in FIG. 2 is received will be described using the flowchart shown in FIG.

手順ガイド部48kは、コントロールセンタサーバ50から手順データ54kを受け付けたならば、受け付けた手順データ54kを手順データ47bとして記憶するとともに、手順データ47bに従って手順のガイドを行うか否かの確認の処理を行う(ステップS401)。ステップS401のガイド確認処理において、ガイドの指示が必要との警備員の応答を受け付けたならば(ステップS402;Yes)、手順ガイド部48kは、手順データ47bの中で未出力の手順指示データの中で手順番号が最も小さい手順指示データを、データ区分に応じた出力先に出力する(ステップS403)。   When the procedure guide unit 48k receives the procedure data 54k from the control center server 50, the procedure guide unit 48k stores the received procedure data 54k as the procedure data 47b and confirms whether or not to guide the procedure according to the procedure data 47b. Is performed (step S401). In the guide confirmation process in step S401, if a guard's response that a guide instruction is required is received (step S402; Yes), the procedure guide unit 48k includes an unoutput procedure instruction data in the procedure data 47b. The procedure instruction data having the smallest procedure number is output to the output destination corresponding to the data classification (step S403).

ステップS403で出力した指示手順データに対する手順が終了したことを示す警備員の応答を受け付けて(ステップS404;Yes)、未出力の手順指示データがない場合(ステップS405;Yes)には、手順ガイド部48kは、手順データ47bに従った手順のガイドが終了である旨をウェアラブルカメラ10のイヤホン14などに出力して(ステップS406)、処理を終了する。   If a guard's response indicating that the procedure for the instruction procedure data output in step S403 has been completed is accepted (step S404; Yes), and there is no unoutput procedure instruction data (step S405; Yes), a procedure guide The unit 48k outputs to the earphone 14 of the wearable camera 10 that the procedure guide according to the procedure data 47b is ended (step S406), and ends the process.

ステップS403で出力した手順指示データに対する手順が終了したことを示す警備員の応答を受け付けていない場合(ステップS404;No)には、ステップS404に戻ることにより警備員の応答の待ち合わせを行う。また、未出力の手順指示データがある場合(ステップS405;No)には、ステップS403に移行することにより、次の手順番号に対する出力処理に移行する。また、ステップS401のガイド確認処理において、ガイドの指示が不要との警備員の応答を受け付けたならば(ステップS402;No)、手順データ47bに基づく手順のガイド処理は行わずに処理を終了する。   If the guard's response indicating that the procedure for the procedure instruction data output in step S403 has been completed is not accepted (step S404; No), the process returns to step S404 to wait for the guard's response. When there is unoutput procedure instruction data (step S405; No), the process shifts to step S403 to shift to the output process for the next procedure number. Also, in the guide confirmation process in step S401, if a guard's response indicating that a guide instruction is unnecessary is received (step S402; No), the process ends without performing the procedure guide process based on the procedure data 47b. .

上述してきたように、警備員の装着するウェアラブルカメラ10、モーションセンサ21、生体情報センサ22及び環境情報センサ23などの各種情報取得装置が取得した情報に基づいて、警備員が人又は物に対する通常時とは異なる特別な注意を向けていることを検知して、警備員が特別な注意を向けた対象の人又は物が警戒すべき対象か否かの判定を行い、該判定結果及び該判定結果に応じた対処手順を警備員に通知するよう構成したので、撮像装置やセンサ等の情報取得装置の設置数が不十分な状況において効率的な警備を実現することができる。   As described above, based on information acquired by various information acquisition devices such as the wearable camera 10, the motion sensor 21, the biological information sensor 22, and the environmental information sensor 23 worn by the security guard, Detecting that a special attention that is different from the time is directed, the security guard determines whether the target person or object to which special attention is directed is a target to be warned, and the determination result and the determination Since the security procedure is notified to the security guard according to the result, efficient security can be realized in a situation where the number of information acquisition devices such as imaging devices and sensors is insufficient.

なお、本実施例では、警備員の装着する各種情報取得装置で取得した情報を受け付けたコントロールセンタサーバ50において、受け付けた各種情報取得装置で取得した情報に基づいて、警備員が人又は物に対する特別な注意を向けていることを検知し、警備員が特別な注意を向けた人又は物が警戒すべき対象か否かの判定を行うことを説明してきたが、本発明はこれに限定されるものではない。例えば、携帯端末装置40で警備員の装着する各種情報取得装置で取得した情報に基づいて、警備員が人又は物に対する特別な注意を向けていることを検知するようにしてもよい。また、警備員が特別な注意を向けた人又は物が警戒すべき対象か否かの判定についてのみ、コントロールセンタサーバ50などの他の装置で実施するようにしてもよいし、場合によっては警備員が特別な注意を向けた人又は物が警戒すべき対象か否かの判定も携帯端末装置40で行うようにしてもうよい。   In the present embodiment, in the control center server 50 that has received the information acquired by the various information acquisition devices worn by the security guard, the security guard can take the person or the object based on the information acquired by the received various information acquisition devices. Although it has been explained that a person or object to which special attention is directed is detected and whether a person or object to which special attention is directed is to be warned, the present invention is not limited to this. It is not something. For example, you may make it detect that the guard is paying special attention with respect to a person or an object based on the information acquired with the various information acquisition apparatus with which the guard is mounted | worn with the portable terminal device 40. FIG. Further, only the determination of whether or not the person or thing to which the security guard has paid special attention is the target to be warned may be performed by another device such as the control center server 50, and in some cases the security guard The portable terminal device 40 may also determine whether or not a person or an object to which a special attention is directed is an object to be warned.

また、本実施例で図示した各構成は機能概略的なものであり、必ずしも物理的に図示の構成をされていることを要しない。すなわち、各装置の分散・統合の形態は図示のものに限られず、その全部又は一部を各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。   Each configuration illustrated in the present embodiment is functionally schematic and does not necessarily need to be physically configured as illustrated. That is, the form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in an arbitrary unit according to various loads or usage conditions. Can be configured.

以上のように、本発明に係る警備システム及び警備方法は、撮像装置やセンサ等の情報取得装置の設置数が不十分な状況において効率的な警備を実現することに適している。   As described above, the security system and the security method according to the present invention are suitable for realizing efficient security in a situation where the number of information acquisition devices such as imaging devices and sensors is insufficient.

10 ウェアラブルカメラ
11、45 カメラ
12 ディスプレイ
13 マイク
14 イヤホン
21 モーションセンサ
22 生体情報センサ
23 環境情報センサ
30 無線通信装置
40 携帯端末装置
41 表示操作部
42 近距離無線通信部
43 無線通信部
44 外部通信部
46 音声入出力部
47、54 記憶部
47a、54j 特定顔特徴データ
47b、54k 手順データ
48、55 制御部
48a 収集データ送信部
48b 収集データ解析部
48c 音声解析部
48d 画像解析部
48e モーション解析部
48f 異常検知部
48g、55h 出力処理部
48h 個別アプリケーション
48i、55g オフライン顔認証部
48j 無線通信装置設定部
48k 手順ガイド部
50 コントロールセンタサーバ
51 入力部
52 表示部
53 通信部
54a 収集データ
54b 警備員データ
54c 端末管理データ
54d インシデントデータ
54e 出力データ
54f 出力先データ
54g 指示テキストデータ
54h 音声出力データ
54i 画像出力データ
54m ブラックリストDB
54n 手順DB
55a データ収集・蓄積処理部
55b 収集データ監視部
55c 警備員データ管理部
55d 端末制御部
55e 個別処理部
55f ブラックリスト検索部
62 コントロールセンタ端末
91 通信網
92 監視カメラ
93 報知装置
DESCRIPTION OF SYMBOLS 10 Wearable camera 11, 45 Camera 12 Display 13 Microphone 14 Earphone 21 Motion sensor 22 Biometric information sensor 23 Environmental information sensor 30 Wireless communication apparatus 40 Portable terminal device 41 Display operation part 42 Short-range wireless communication part 43 Wireless communication part 44 External communication part 46 voice input / output unit 47, 54 storage unit 47a, 54j specific face feature data 47b, 54k procedure data 48, 55 control unit 48a collection data transmission unit 48b collection data analysis unit 48c voice analysis unit 48d image analysis unit 48e motion analysis unit 48f Anomaly detection unit 48g, 55h Output processing unit 48h Individual application 48i, 55g Offline face authentication unit 48j Wireless communication device setting unit 48k Procedure guide unit 50 Control center server 51 Input unit 52 Display unit 53 Communication Part 54a Collected data 54b Security guard data 54c Terminal management data 54d Incident data 54e Output data 54f Output destination data 54g Instruction text data 54h Audio output data 54i Image output data 54m Blacklist DB
54n Procedure DB
55a Data collection / accumulation processing unit 55b Collected data monitoring unit 55c Security guard data management unit 55d Terminal control unit 55e Individual processing unit 55f Blacklist search unit 62 Control center terminal 91 Communication network 92 Surveillance camera 93 Notification device

Claims (7)

警備員に携帯又は装着され、前記警備員の周囲の情報を取得する情報取得手段と、
前記警備員の状態を判定する警備員状態判定手段と、
前記情報取得手段により取得された情報に基づいて前記警備員の周囲に存在する物体を評価対象として検知する検知手段と、
前記警備員状態判定手段により判定された警備員の状態と、前記検知手段により評価対象として検知された物体にかかる前記情報取得手段で取得した情報とを用い、当該物体の警戒対象としての評価を行なう警備対象評価手段と
を備えたことを特徴とする警備システム。
Information acquisition means that is carried or worn by a security guard and acquires information around the security guard;
A guard state determination means for determining the state of the guard;
Detection means for detecting an object existing around the guard as an evaluation target based on the information acquired by the information acquisition means;
Using the security guard state determined by the security guard state determination means and the information acquired by the information acquisition means related to the object detected as the evaluation target by the detection means, the evaluation of the object as a warning target is performed. A security system comprising: a security target evaluation means for performing security.
前記情報取得手段は、少なくとも前記警備員の顔が向いている方向の画像情報を取得し、
前記警備員状態判定手段は、前記情報取得手段で取得された前記画像情報を用いて、前記警備員が前記画像情報の画像に含まれる物体に特別な注意を向けている状態を判定し、
前記検知手段は、前記警備員状態判定手段により前記警備員が特別な注意を向けている物体を前記評価対象として検知し、
前記警備対象評価手段は、前記警備員状態判定手段により前記警備員が前記画像情報の画像に含まれる物体に特別な注意を向けている状態であると判定された場合に、当該物体に係る前記情報取得手段で取得した画像情報を用いて、当該物体の警戒対象としての評価を行う
ことを特徴とする請求項1に記載の警備システム。
The information acquisition means acquires at least image information in a direction in which the face of the guard is facing,
The security guard state determination means determines the state in which the security guard is paying special attention to an object included in the image of the image information, using the image information acquired by the information acquisition means,
The detection means detects, as the evaluation target, an object to which the guard is paying special attention by the guard state determination means,
The security target evaluation means, when it is determined by the security guard state determination means that the security guard is in a state of paying special attention to the object included in the image of the image information, the The security system according to claim 1, wherein the image information acquired by the information acquisition unit is used to evaluate the object as a warning target.
前記警備対象評価手段により前記評価対象の物体に対する警戒が必要と評価された場合に、前記警備員に評価結果を報知する評価結果報知手段をさらに備えたことを特徴とする請求項1又は2に記載の警備システム。   3. The apparatus according to claim 1, further comprising an evaluation result notifying unit that notifies the guard of an evaluation result when the guard target evaluating unit evaluates that the object to be evaluated is required to be vigilance. The security system described. 前記警備対象評価手段により前記評価対象の物体に対する対処が必要と評価された場合に、前記警備員に当該対処の手順に係る情報を通知する手順通知手段をさらに備えたことを特徴とする請求項1、2又は3に記載の警備システム。   The apparatus further comprises procedure notifying means for notifying the guard of information related to the procedure of the countermeasure when the guard object evaluating means evaluates that the object to be evaluated is required to be handled. The security system according to 1, 2, or 3. 前記情報取得手段で取得する情報は、画像情報以外に、音声情報、位置情報、前記警備員の動作に係る情報、前記警備員の生体に係る情報及び環境に係る情報のうちの1つまたは複数の情報を含むことを特徴とする請求項1〜4のいずれか一つに記載の警備システム。   The information acquired by the information acquisition means is one or more of audio information, position information, information relating to the operation of the guard, information relating to the living body of the guard, and information relating to the environment, in addition to image information. The security system according to any one of claims 1 to 4, further comprising: 前記警備対象評価手段は、
前記警備員状態判定手段により前記警備員が前記画像情報の画像に含まれる人物に特別な注意を向けている状態であると判定された場合に、前記情報取得手段で取得した当該人物に係る画像情報と、警戒が必要な人物の画像情報との類似性を評価し、該類似性が高い場合に当該人物は警戒が必要な人物であると評価することを特徴とする請求項1〜5のいずれか一つに記載の警備システム。
The security target evaluation means is:
When it is determined by the guard state determination means that the guard is in a state of paying special attention to the person included in the image information image, the image related to the person acquired by the information acquisition means 6. The similarity between the information and the image information of a person who needs to be alerted is evaluated, and when the similarity is high, the person is evaluated as a person who needs to be alerted. The security system according to any one of the above.
警備員に携帯又は装着された装置による、前記警備員の周囲の情報を取得する情報取得ステップと、
前記警備員の状態を判定する警備員状態判定ステップと、
前記情報取得ステップにより取得された情報に基づいて前記警備員の周囲に存在する物体を評価対象として検知する検知ステップと、
前記警備員状態判定ステップにより判定された警備員の状態と、前記検知ステップにより評価対象として検知された物体にかかる前記情報取得ステップで取得した情報とを用い、当該物体の警戒対象としての評価を行なう警備対象評価ステップと
を備えたことを特徴とする警備方法。
An information acquisition step of acquiring information around the security guard by a device carried or attached to the security guard;
A guard state determination step for determining the state of the guard;
A detection step of detecting an object present around the guard as an evaluation target based on the information acquired by the information acquisition step;
Using the security guard state determined in the security guard state determination step and the information acquired in the information acquisition step related to the object detected as the evaluation target in the detection step, the object is evaluated as a warning target. A security method characterized by comprising: a security target evaluation step to be performed.
JP2014195911A 2014-09-25 2014-09-25 Security system and security method Active JP6689566B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014195911A JP6689566B2 (en) 2014-09-25 2014-09-25 Security system and security method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014195911A JP6689566B2 (en) 2014-09-25 2014-09-25 Security system and security method

Publications (3)

Publication Number Publication Date
JP2016066314A true JP2016066314A (en) 2016-04-28
JP2016066314A5 JP2016066314A5 (en) 2017-11-09
JP6689566B2 JP6689566B2 (en) 2020-04-28

Family

ID=55804204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014195911A Active JP6689566B2 (en) 2014-09-25 2014-09-25 Security system and security method

Country Status (1)

Country Link
JP (1) JP6689566B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018041166A (en) * 2016-09-05 2018-03-15 綜合警備保障株式会社 Notification system
JP2018106445A (en) * 2016-12-27 2018-07-05 隼人 渡辺 Face authentication device
JP2018136617A (en) * 2017-02-20 2018-08-30 綜合警備保障株式会社 Security system, management apparatus, and security method
JP2018136758A (en) * 2017-02-22 2018-08-30 セコム株式会社 Monitoring system
JP2018136641A (en) * 2017-02-20 2018-08-30 綜合警備保障株式会社 Security system, management apparatus, and security method
JP2019133385A (en) * 2018-01-31 2019-08-08 Dynabook株式会社 Electronic apparatus, control method and program
WO2019186977A1 (en) * 2018-03-29 2019-10-03 サン電子株式会社 Information management system
JP2019201413A (en) * 2015-03-17 2019-11-21 日本電気株式会社 Monitoring system, monitoring method, and recording medium for storing monitoring program
US10599918B2 (en) 2017-06-20 2020-03-24 Fujitsu Limited Information processing method and information processing apparatus
JP2021036466A (en) * 2020-11-18 2021-03-04 綜合警備保障株式会社 Security system, management apparatus, and security method
JP2022029459A (en) * 2020-11-18 2022-02-17 綜合警備保障株式会社 Security system, management device, and security method
JP7409635B2 (en) 2019-11-18 2024-01-09 i-PRO株式会社 Investigation support system and person image registration method
JP7409638B2 (en) 2019-12-23 2024-01-09 i-PRO株式会社 Investigation support system and investigation support method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01254143A (en) * 1988-04-02 1989-10-11 Japan Maintenance:Kk Method and device for detecting physiological emergency
JPH01255097A (en) * 1988-04-02 1989-10-11 Japan Maintenance:Kk Emergency detector
JP2003274360A (en) * 2002-03-14 2003-09-26 Sony Corp Apparatus and method for imaging, and device and system for imaging management
JP2004157594A (en) * 2002-11-01 2004-06-03 Toshiba Eng Co Ltd Security monitoring system
JP2007219713A (en) * 2006-02-15 2007-08-30 Sony Corp Inquiry system, imaging apparatus, inquiry device, information processing method, and program
JP2008257385A (en) * 2007-04-03 2008-10-23 Mitsubishi Electric Corp Monitoring support system and portable terminal for monitoring
JP2010061265A (en) * 2008-09-02 2010-03-18 Fujifilm Corp Person retrieval and registration system
JP2010238186A (en) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd Monitoring device and monitoring method
JP2012156752A (en) * 2011-01-26 2012-08-16 Canon Inc Method for control of monitoring area

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01254143A (en) * 1988-04-02 1989-10-11 Japan Maintenance:Kk Method and device for detecting physiological emergency
JPH01255097A (en) * 1988-04-02 1989-10-11 Japan Maintenance:Kk Emergency detector
JP2003274360A (en) * 2002-03-14 2003-09-26 Sony Corp Apparatus and method for imaging, and device and system for imaging management
JP2004157594A (en) * 2002-11-01 2004-06-03 Toshiba Eng Co Ltd Security monitoring system
JP2007219713A (en) * 2006-02-15 2007-08-30 Sony Corp Inquiry system, imaging apparatus, inquiry device, information processing method, and program
JP2008257385A (en) * 2007-04-03 2008-10-23 Mitsubishi Electric Corp Monitoring support system and portable terminal for monitoring
JP2010061265A (en) * 2008-09-02 2010-03-18 Fujifilm Corp Person retrieval and registration system
JP2010238186A (en) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd Monitoring device and monitoring method
JP2012156752A (en) * 2011-01-26 2012-08-16 Canon Inc Method for control of monitoring area

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10728460B2 (en) 2015-03-17 2020-07-28 Nec Corporation Monitoring system, monitoring method, and monitoring program
US11533436B2 (en) 2015-03-17 2022-12-20 Nec Corporation Monitoring system, monitoring method, and monitoring program
US10887526B2 (en) 2015-03-17 2021-01-05 Nec Corporation Monitoring system, monitoring method, and monitoring program
JP2019201413A (en) * 2015-03-17 2019-11-21 日本電気株式会社 Monitoring system, monitoring method, and recording medium for storing monitoring program
JP2018041166A (en) * 2016-09-05 2018-03-15 綜合警備保障株式会社 Notification system
JP2018106445A (en) * 2016-12-27 2018-07-05 隼人 渡辺 Face authentication device
JP2018136617A (en) * 2017-02-20 2018-08-30 綜合警備保障株式会社 Security system, management apparatus, and security method
JP2018136641A (en) * 2017-02-20 2018-08-30 綜合警備保障株式会社 Security system, management apparatus, and security method
JP2018136758A (en) * 2017-02-22 2018-08-30 セコム株式会社 Monitoring system
US10599918B2 (en) 2017-06-20 2020-03-24 Fujitsu Limited Information processing method and information processing apparatus
JP7073122B2 (en) 2018-01-31 2022-05-23 Dynabook株式会社 Electronic devices, control methods and programs
JP2019133385A (en) * 2018-01-31 2019-08-08 Dynabook株式会社 Electronic apparatus, control method and program
WO2019186977A1 (en) * 2018-03-29 2019-10-03 サン電子株式会社 Information management system
JPWO2019186977A1 (en) * 2018-03-29 2021-03-18 サン電子株式会社 Information management system
JP7409635B2 (en) 2019-11-18 2024-01-09 i-PRO株式会社 Investigation support system and person image registration method
JP7409638B2 (en) 2019-12-23 2024-01-09 i-PRO株式会社 Investigation support system and investigation support method
JP2021036466A (en) * 2020-11-18 2021-03-04 綜合警備保障株式会社 Security system, management apparatus, and security method
JP2022029459A (en) * 2020-11-18 2022-02-17 綜合警備保障株式会社 Security system, management device, and security method
JP7037618B2 (en) 2020-11-18 2022-03-16 綜合警備保障株式会社 Security system, management device and security method

Also Published As

Publication number Publication date
JP6689566B2 (en) 2020-04-28

Similar Documents

Publication Publication Date Title
JP6689566B2 (en) Security system and security method
JP5927691B2 (en) Area monitoring system
KR101386591B1 (en) CCTV integrated management system
US20130013776A1 (en) Information processing device, information processing system, information processing method, and information storage medium
KR20110130033A (en) Active image monitoring system using motion pattern database, and method thereof
CN108885820B (en) Gas detector apparatus and method of updating location information thereon
US10867518B2 (en) Method and system for identifying location of a parked vehicle
JP2015005851A (en) Video display system and program for video display
US20230410519A1 (en) Suspicious person alarm notification system and suspicious person alarm notification method
KR101608202B1 (en) Site monitoring method using camera and apparatus thereof
US11367333B2 (en) Personal safety verification system
KR102240772B1 (en) Watch type smart wearable device and monitoring system including the same
JP6483387B2 (en) Security service support system and security service support method
JP7291768B2 (en) Node/network aggregation gateway device
JP6177408B1 (en) Watch system, watch method, information acquisition device, information processing device, and method and program thereof
KR102064712B1 (en) An equipment safety management system with a wearble device and a body detection module
JP6863768B2 (en) Security system, management device and security method
KR20220004399A (en) A recorded program media for providing a security surveillance service based on user involvement
JP2015108999A (en) Dynamic state management system
JP7003206B2 (en) Report processing system
KR102110261B1 (en) System for notifing emergency and control method thereof
JP2016066313A5 (en)
US20240096502A1 (en) Terminal device, information processing system, and information processing method
WO2023162016A1 (en) Monitoring system, monitoring device, monitoring method, and recording medium
JP6346357B2 (en) Watch system, watch method, information acquisition device, information processing device, and method and program thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170922

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190405

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190423

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20190614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200408

R150 Certificate of patent or registration of utility model

Ref document number: 6689566

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250