JP5495235B2 - Apparatus and method for monitoring the behavior of a monitored person - Google Patents

Apparatus and method for monitoring the behavior of a monitored person Download PDF

Info

Publication number
JP5495235B2
JP5495235B2 JP2010269032A JP2010269032A JP5495235B2 JP 5495235 B2 JP5495235 B2 JP 5495235B2 JP 2010269032 A JP2010269032 A JP 2010269032A JP 2010269032 A JP2010269032 A JP 2010269032A JP 5495235 B2 JP5495235 B2 JP 5495235B2
Authority
JP
Japan
Prior art keywords
information
monitoring
state
candidate
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010269032A
Other languages
Japanese (ja)
Other versions
JP2012118838A (en
Inventor
彰規 淺原
暁子 佐藤
高行 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2010269032A priority Critical patent/JP5495235B2/en
Priority to CN201110397969.3A priority patent/CN102572390B/en
Publication of JP2012118838A publication Critical patent/JP2012118838A/en
Application granted granted Critical
Publication of JP5495235B2 publication Critical patent/JP5495235B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、位置情報を用いたモニタリングシステムに関し、特に、監視対象者の動線に基づいて監視対象者の行動を分析する技術に関する。   The present invention relates to a monitoring system using position information, and more particularly to a technique for analyzing the behavior of a monitoring subject based on the flow line of the monitoring subject.

従来、監視対象者の移動軌跡である動線と、監視カメラによって撮影された画像と、を参照することによって、監視対象者の行動を監視する技術が提案されている。   2. Description of the Related Art Conventionally, there has been proposed a technique for monitoring a behavior of a monitoring subject by referring to a flow line that is a movement trajectory of the monitoring subject and an image captured by a surveillance camera.

例えば、特許文献1には、監視対象者の動線を用いて、監視カメラが撮影した画像を検索する技術が開示されている。   For example, Patent Document 1 discloses a technique for searching for an image captured by a monitoring camera using a flow line of a monitoring target person.

特許文献2には、RFIDを用いて取得された監視対象者の位置情報と監視カメラの映像とを比較することによって両者を対応付け、これによって異常を検出する技術が開示されている。   Patent Document 2 discloses a technique for detecting an abnormality by comparing the positional information of a monitoring subject acquired using RFID with the video of a monitoring camera by comparing them.

特開2010−123069号公報JP 2010-123069 A 特開2006−311111号公報JP 2006-311111 A

監視対象者の動線を取得した場合、その動線を分析することによって、監視対象者の行動を分析することができる。しかし、その分析に必要な粒度は、監視対象者の行動を分析する目的によって異なる。言い換えると、分析によってある行動を区別する必要があるか否かは、分析の目的によって異なる。   When the flow line of the monitoring subject is acquired, the behavior of the monitoring subject can be analyzed by analyzing the flow line. However, the granularity required for the analysis differs depending on the purpose of analyzing the behavior of the monitoring subject. In other words, whether or not a certain action needs to be distinguished by analysis depends on the purpose of the analysis.

例えば、監視対象者が階段を通過するという行動を分析する場合において、単に監視対象者が移動をしたか否かを判定すれば十分である場合は、通過に要した時間にかかわらず、監視対象者が階段を通過したか否かを判定すればよい。監視対象者が階段以外の通路(例えば廊下)を通過した場合も同様である。   For example, when analyzing the behavior of a monitored person going through stairs, if it is sufficient to simply determine whether or not the monitored person has moved, the monitored object regardless of the time required to pass It may be determined whether the person has passed the stairs. The same applies when the monitoring subject passes through a passage (for example, a corridor) other than the stairs.

しかし、例えば階段の構造に関する調査を目的として監視対象者の行動を分析するのであれば、監視対象者が「比較的短時間で階段を通過した」という行動と、「比較的長時間をかけて階段を通過した」という行動を、異なる行動として判定する必要が生じる場合がある。この例においても、監視対象者が廊下を通過する行動については、それに要した時間を問題にする必要はない。このような場合にも、従来は一律の基準によって分析が行われるため、分析の範囲(例えば廊下又は階段等)ごとに分析の粒度を目的に応じて任意に設定することができなかった。   However, for example, if you want to analyze the behavior of the monitored person for the purpose of investigating the structure of the stairs, the monitored person will be able to It may be necessary to determine the action of “passing the stairs” as a different action. Also in this example, it is not necessary to consider the time required for the behavior of the monitoring subject passing through the hallway. Even in such a case, since the analysis is conventionally performed according to a uniform standard, the granularity of the analysis cannot be arbitrarily set according to the purpose for each analysis range (for example, a corridor or a staircase).

本発明は上記の点に鑑みてなされたものであり、監視対象者の動線を分析する際に、範囲ごとに任意の粒度を指定することによって、必要な情報の抽出を可能にすることを目的とする。   The present invention has been made in view of the above points, and it is possible to extract necessary information by specifying an arbitrary granularity for each range when analyzing a flow line of a monitoring target person. Objective.

本発明は、監視対象区域内の複数の監視対象者の行動を監視する監視装置であって、前記監視装置は、プロセッサと、前記プロセッサに接続される記憶装置と、を備え、前記記憶装置は、前記複数の監視対象者が携行する移動体端末の位置を示す測位データを保持し、前記プロセッサは、前記測位データの特徴量に基づいて前記監視対象者の行動を分類し、前記分類された行動に対応する複数の前記特徴量の相違の大きさ、又は、前記分類された行動に対応する前記特徴量の数に基づいて、複数の前記分類された行動から変更対象の候補を選択し、前記候補として選択された行動に対応する複数の測位データを抽出し、前記抽出された複数の測位データに関する情報を出力し、前記候補として選択された行動の分類を変更する指示が入力された場合、前記候補として選択された行動の分類を変更することを特徴とする。 The present invention is a monitoring device that monitors the actions of a plurality of monitoring subjects in a monitoring target area, the monitoring device comprising a processor and a storage device connected to the processor, wherein the storage device is Holding the positioning data indicating the position of the mobile terminal carried by the plurality of monitoring subjects, the processor classifies the behavior of the monitoring subject based on the feature quantity of the positioning data, the classified Selecting a candidate for change from a plurality of the classified actions based on the magnitude of the difference between the plurality of feature quantities corresponding to the action or the number of the feature quantities corresponding to the classified action, A plurality of positioning data corresponding to the behavior selected as the candidate is extracted, information on the plurality of extracted positioning data is output, and an instruction to change the classification of the behavior selected as the candidate is input If, and changes the classification of the selected action as the candidate.

本発明の一実施形態によれば、範囲ごとに分析の粒度を調整することによって、位置情報から監視対象者の行動を分析するために必要な情報を抽出することができる。   According to one embodiment of the present invention, by adjusting the analysis granularity for each range, it is possible to extract information necessary for analyzing the behavior of the monitoring target person from the position information.

本発明の第1の実施形態の施設モニタリングシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the facility monitoring system of the 1st Embodiment of this invention. 本発明の第1の実施形態のモニタリングサーバのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the monitoring server of the 1st Embodiment of this invention. 本発明の第1の実施形態の施設モニタリングシステムの動作の全体を示すフローチャートである。It is a flowchart which shows the whole operation | movement of the facility monitoring system of the 1st Embodiment of this invention. 本発明の第1の実施形態において実行される測位結果の送付処理を示すシーケンス図である。It is a sequence diagram which shows the sending process of the positioning result performed in the 1st Embodiment of this invention. 本発明の第1の実施形態において実行されるセンシング情報の送付処理を示すシーケンス図である。It is a sequence diagram which shows the sending process of the sensing information performed in the 1st Embodiment of this invention. 本発明の第1の実施形態の移動体端末又は環境側測位装置から送信される測位結果の説明図である。It is explanatory drawing of the positioning result transmitted from the mobile terminal or the environment side positioning apparatus of the 1st Embodiment of this invention. 本発明の第1の実施形態のセンサから送信されるセンサ情報の説明図である。It is explanatory drawing of the sensor information transmitted from the sensor of the 1st Embodiment of this invention. 本発明の第1の実施形態のセンサ情報DBに格納されるセンサ情報の説明図である。It is explanatory drawing of the sensor information stored in sensor information DB of the 1st Embodiment of this invention. 本発明の第1の実施形態の屋内地図DBに格納される地図情報の説明図である。It is explanatory drawing of the map information stored in indoor map DB of the 1st Embodiment of this invention. 本発明の第1の実施形態の屋内地図DBに格納されるセンサパラメータの説明図である。It is explanatory drawing of the sensor parameter stored in indoor map DB of the 1st Embodiment of this invention. 本発明の第1の実施形態のモニタリングサーバが実行する動線解析処理を示すフローチャートである。It is a flowchart which shows the flow line analysis process which the monitoring server of the 1st Embodiment of this invention performs. 本発明の第1の実施形態のモニタリングサーバが実行する特徴量の算出及び状態ラベルの生成処理を示すフローチャートである。It is a flowchart which shows the calculation of the feature-value and the production | generation process of a state label which the monitoring server of the 1st Embodiment of this invention performs. 本発明の第1の実施形態における測位データの分割の説明図である。It is explanatory drawing of the division | segmentation of the positioning data in the 1st Embodiment of this invention. 本発明の第1の実施形態における特徴量の算出の説明図である。It is explanatory drawing of calculation of the feature-value in the 1st Embodiment of this invention. 本発明の第1の実施形態におけるクラスタリングの説明図である。It is explanatory drawing of the clustering in the 1st Embodiment of this invention. 本発明の第1の実施形態のモニタリングサーバが実行するクラスタリング処理を示すフローチャートである。It is a flowchart which shows the clustering process which the monitoring server of the 1st Embodiment of this invention performs. 本発明の第1の実施形態のモニタリングサーバによって取得された状態ラベルの説明図である。It is explanatory drawing of the state label acquired by the monitoring server of the 1st Embodiment of this invention. 本発明の第1の実施形態のモニタリングサーバによって使用される統計モデルの説明図である。It is explanatory drawing of the statistical model used by the monitoring server of the 1st Embodiment of this invention. 本発明の第1の実施形態のモニタリングサーバによって実行される状態遷移抽出処理の説明図である。It is explanatory drawing of the state transition extraction process performed by the monitoring server of the 1st Embodiment of this invention. 本発明の第1の実施形態の分析情報DBに格納される状態遷移モデルの説明図である。It is explanatory drawing of the state transition model stored in analysis information DB of the 1st Embodiment of this invention. 本発明の第1の実施形態の分析情報DBに格納されるクラスタ情報の説明図である。It is explanatory drawing of the cluster information stored in analysis information DB of the 1st Embodiment of this invention. 本発明の第1の実施形態の画面表示装置によって表示される分析状況提示処理の出力画面の説明図である。It is explanatory drawing of the output screen of the analysis condition presentation process displayed by the screen display apparatus of the 1st Embodiment of this invention. 本発明の第1の実施形態のモニタリングサーバが実行する分析条件設定画面提示処理を示すフローチャートである。It is a flowchart which shows the analysis condition setting screen presentation process which the monitoring server of the 1st Embodiment of this invention performs. 本発明の第1の実施形態のモニタリングサーバが実行する分析条件受付画面提示処理の説明図である。It is explanatory drawing of the analysis condition reception screen presentation process which the monitoring server of the 1st Embodiment of this invention performs. 本発明の第1の実施形態のモニタリングサーバが実行する分析条件調整用画面提示処理を示すフローチャートである。It is a flowchart which shows the screen presentation process for analysis condition adjustment which the monitoring server of the 1st Embodiment of this invention performs. 本発明の第1の実施形態のモニタリングサーバが実行する対象歩行者選択処理の説明図である。It is explanatory drawing of the object pedestrian selection process which the monitoring server of the 1st Embodiment of this invention performs. 本発明の第1の実施形態のモニタリングサーバが実行するセンサ・測位対応処理を示すフローチャートである。It is a flowchart which shows the sensor and the positioning corresponding | compatible process which the monitoring server of the 1st Embodiment of this invention performs. 本発明の第1の実施形態の画面表示装置によって表示されるセンサ情報提示画面の説明図である。It is explanatory drawing of the sensor information presentation screen displayed by the screen display apparatus of the 1st Embodiment of this invention. 本発明の第1の実施形態のモニタリングサーバが実行する分析条件調整処理を示すフローチャートである。It is a flowchart which shows the analysis condition adjustment process which the monitoring server of the 1st Embodiment of this invention performs. 本発明の第2の実施形態のモニタリングサーバが実行する動線解析処理を示すフローチャートである。It is a flowchart which shows the flow line analysis process which the monitoring server of the 2nd Embodiment of this invention performs. 本発明の第2の実施形態の分析情報DBに格納される状態判定辞書の説明図である。It is explanatory drawing of the state determination dictionary stored in analysis information DB of the 2nd Embodiment of this invention. 本発明の第2の実施形態の分析情報DBに格納される状態判定設定情報の説明図である。It is explanatory drawing of the state determination setting information stored in analysis information DB of the 2nd Embodiment of this invention. 本発明の第2の実施形態のモニタリングサーバが実行する状態判定辞書に基づく状態ラベルの推定処理を示すフローチャートである。It is a flowchart which shows the estimation process of the state label based on the state determination dictionary which the monitoring server of the 2nd Embodiment of this invention performs. 本発明の第2の実施形態における状態判定辞書の項目の検索処理の説明図である。It is explanatory drawing of the search process of the item of the state determination dictionary in the 2nd Embodiment of this invention. 本発明の第2の実施形態における状態ラベルの割り当ての説明図である。It is explanatory drawing of allocation of the state label in the 2nd Embodiment of this invention. 本発明の第2の実施形態のモニタリングサーバが実行する分析パラメータ調整候補選択処理を示すフローチャートである。It is a flowchart which shows the analysis parameter adjustment candidate selection process which the monitoring server of the 2nd Embodiment of this invention performs. 本発明の第2の実施形態における同一状態ラベルが割り当てられた区間の検索処理の説明図である。It is explanatory drawing of the search process of the area where the same state label in the 2nd Embodiment of this invention was allocated. 本発明の第2の実施形態におけるより細かい粒度の状態の特定処理の説明図である。It is explanatory drawing of the specific process of the state of a finer granularity in the 2nd Embodiment of this invention. 本発明の第2の実施形態における一致度が高い状態の選択処理の説明図である。It is explanatory drawing of the selection process in the state with high coincidence in the 2nd Embodiment of this invention. 本発明の第2の実施形態の画面表示装置によって表示されるセンサ情報提示画面の説明図である。It is explanatory drawing of the sensor information presentation screen displayed by the screen display apparatus of the 2nd Embodiment of this invention. 本発明の第3の実施形態のモニタリングサーバが実行する分析パラメータ調整候補選択処理を示すフローチャートである。It is a flowchart which shows the analysis parameter adjustment candidate selection process which the monitoring server of the 3rd Embodiment of this invention performs. 本発明の第3の実施形態におけるより細かい粒度の状態の特定処理の説明図である。It is explanatory drawing of the specific process of the state of a finer granularity in the 3rd Embodiment of this invention. 本発明の第4の実施形態の分析情報DBに格納される状態判定設定情報の説明図である。It is explanatory drawing of the state determination setting information stored in analysis information DB of the 4th Embodiment of this invention.

以下、図面を用いて本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1の実施形態>
図1は、本発明の第1の実施形態の施設モニタリングシステムの構成を示すブロック図である。
<First Embodiment>
FIG. 1 is a block diagram illustrating a configuration of a facility monitoring system according to the first embodiment of this invention.

本実施形態の施設モニタリングシステムは、モニタリングサーバ100、画面表示装置120、一つ以上のセンサ130、一つ以上の移動体端末140、一つ以上の環境側測位装置150及びそれらを相互に接続するネットワーク160A及び160Bを備える。   The facility monitoring system according to the present embodiment connects the monitoring server 100, the screen display device 120, one or more sensors 130, one or more mobile terminals 140, one or more environment-side positioning devices 150, and each other. Networks 160A and 160B are provided.

モニタリングサーバ100は、監視区域内の移動体端末140の位置情報に基づいて、その移動体端末140を保持する監視対象者の行動を監視する。   The monitoring server 100 monitors the behavior of the monitoring subject holding the mobile terminal 140 based on the positional information of the mobile terminal 140 in the monitoring area.

ここで、監視区域とは、本実施形態の施設モニタリングシステムによる監視の対象の区域であり、例えば工場又は店舗等の施設である。監視区域が工場である場合、監視対象者は例えば工場の従業員であり、監視区域が店舗である場合、監視対象者は例えば店舗の従業員又は店舗の利用客である。なお、本実施形態では監視区域の典型例として工場内などの屋内を例示するが、屋外を監視する場合にも本発明を適用することができる。   Here, the monitoring area is an area to be monitored by the facility monitoring system of the present embodiment, for example, a facility such as a factory or a store. When the monitoring area is a factory, the monitoring target is, for example, an employee of the factory, and when the monitoring area is a store, the monitoring target is, for example, an employee of the store or a customer of the store. In the present embodiment, an indoor area such as a factory is illustrated as a typical example of the monitoring area, but the present invention can also be applied to an outdoor area.

監視区域の監視を行うために、モニタリングサーバ100は、センサ情報管理部101、測位記録管理部102、センサ・測位統合部103、動線解析部104、分析条件調整部105、分析条件設定画面生成部106、分析結果画面生成部107、センサ情報データベース(DB)111、測位DB112、屋内地図DB113、分析情報DB114及びユーザDB115を備える。これらの各部が実行する処理、各DBに格納されるデータ、及び、これらを実現するためのハードウェア構成については後述する。   In order to monitor the monitoring area, the monitoring server 100 includes a sensor information management unit 101, a positioning record management unit 102, a sensor / positioning integration unit 103, a flow line analysis unit 104, an analysis condition adjustment unit 105, and an analysis condition setting screen generation. Unit 106, analysis result screen generation unit 107, sensor information database (DB) 111, positioning DB 112, indoor map DB 113, analysis information DB 114, and user DB 115. The processing executed by each of these units, the data stored in each DB, and the hardware configuration for realizing these will be described later.

画面表示装置120は、例えばCRT(Cathode Ray Tube)又は液晶表示装置等である。画面表示装置120に表示される画面の例については後述する。   The screen display device 120 is, for example, a CRT (Cathode Ray Tube) or a liquid crystal display device. An example of a screen displayed on the screen display device 120 will be described later.

図1の例では、センサ130がネットワーク160Aを介してモニタリングサーバ100に接続され、移動体端末140及び環境側測位装置150がネットワーク160Bを介してモニタリングサーバ100に接続される。このように、独立したネットワークが設けられてもよく、それらの種類が互いに異なっていてもよいが、単一のネットワークが共用されてもよい。これらのネットワークは、LAN(Local Area Network)、WAN(Wide Area Network)、公衆無線網、又はインターネット等であってもよい。また、ネットワークの形態は有線又は無線のいずれであってもよい。   In the example of FIG. 1, the sensor 130 is connected to the monitoring server 100 via the network 160A, and the mobile terminal 140 and the environment side positioning device 150 are connected to the monitoring server 100 via the network 160B. In this way, independent networks may be provided and their types may be different from each other, but a single network may be shared. These networks may be a local area network (LAN), a wide area network (WAN), a public wireless network, the Internet, or the like. Further, the form of the network may be either wired or wireless.

移動体端末140は、各監視対象者が携行する装置である。本実施形態では、移動体端末140の位置情報が利用されるため、移動体端末140又は環境側測位装置150の少なくとも一方が移動体端末140の位置を計測する機能を備える必要がある。例えば、移動体端末140は、携帯電話機、PHS(Personal Handyphone System)、無線通信機能付きのコンピュータ、PDA(Personal Digital Assistants)又は少なくとも固有の識別情報を送信する無線タグ等である。   The mobile terminal 140 is a device carried by each monitoring target person. In this embodiment, since the position information of the mobile terminal 140 is used, at least one of the mobile terminal 140 or the environment side positioning device 150 needs to have a function of measuring the position of the mobile terminal 140. For example, the mobile terminal 140 is a mobile phone, a PHS (Personal Handyphone System), a computer with a wireless communication function, a PDA (Personal Digital Assistants), or a wireless tag that transmits at least unique identification information.

移動体端末140が例えばGPS(Global Positioning System)測位装置を備える携帯電話機又はPHSである場合、移動体端末140は、GPS測位装置によって取得された位置情報に、移動体端末140を識別する情報(ID情報、例えば電話番号)を付加し、ネットワーク160Bを介してそれらの情報をモニタリングサーバ100に送信する。移動体端末140は、GPS測位装置による測位の代わりに、例えば基地局から送信された信号を用いた測位を行ってもよい。この場合、測位のための信号を送信する基地局が環境側測位装置150であってもよい。   When the mobile terminal 140 is, for example, a mobile phone or a PHS provided with a GPS (Global Positioning System) positioning device, the mobile terminal 140 uses the position information acquired by the GPS positioning device to identify the mobile terminal 140 ( ID information (for example, telephone number) is added, and the information is transmitted to the monitoring server 100 via the network 160B. The mobile terminal 140 may perform positioning using, for example, a signal transmitted from a base station, instead of positioning by the GPS positioning device. In this case, the environment-side positioning device 150 may be a base station that transmits a positioning signal.

移動体端末140が例えばコンピュータ又はPDA等である場合、移動体端末140が監視区域内に設置された複数の無線LANアクセスポイント又は電波ビーコンから送信される電波、光ビーコンから放射される光信号の強度(又は受信タイミング)に基づいて移動体端末140の位置を計算し、計算された位置を示す情報に移動体端末140のID情報を付加し、それらの情報をモニタリングサーバ100に送信してもよい。この場合、無線LANアクセスポイント、電波ビーコン又は光ビーコンが環境側測位装置150であってもよい。   When the mobile terminal 140 is, for example, a computer or a PDA, the mobile terminal 140 transmits radio waves transmitted from a plurality of wireless LAN access points or radio beacons installed in the monitoring area, and optical signals emitted from the optical beacons. Even if the position of the mobile terminal 140 is calculated based on the strength (or reception timing), the ID information of the mobile terminal 140 is added to the information indicating the calculated position, and the information is transmitted to the monitoring server 100. Good. In this case, the environment side positioning device 150 may be a wireless LAN access point, a radio beacon, or an optical beacon.

環境側測位装置150が無線LANアクセスポイントである場合、移動体端末140がID情報とともに測位信号を送信し、複数の環境側測位装置150が測位信号を受信した時刻を計測してもよい。各環境側測位装置150の位置が予め知られていれば、その位置と、測位信号の受信時刻の差とに基づいて、例えば三角測量と同様の方法を用いることによって、移動体端末140の位置を計算することができる。このような測位技術の一例として、AirLocation(登録商標)が知られている。   When the environment-side positioning device 150 is a wireless LAN access point, the mobile terminal 140 may transmit a positioning signal together with the ID information, and the times when the plurality of environment-side positioning devices 150 receive the positioning signal may be measured. If the position of each environment-side positioning device 150 is known in advance, the position of the mobile terminal 140 is determined by using, for example, a method similar to triangulation based on the position and the difference in the reception time of the positioning signal. Can be calculated. As an example of such positioning technology, AirLocation (registered trademark) is known.

移動体端末140が無線タグである場合、環境側測位装置150は、移動体端末140にアクセスする送受信装置である。例えば、移動体端末140がいわゆるRFID(Radio Frequency Identification)タグである場合、複数の環境側測位装置150が監視区域の所定の位置に設置され、移動体端末140を身につけた監視対象者がいずれかの環境側測位装置150に接近すると、環境側測位装置150が無線信号を用いて移動体端末140のID情報を取得する。   When the mobile terminal 140 is a wireless tag, the environment side positioning device 150 is a transmission / reception device that accesses the mobile terminal 140. For example, when the mobile terminal 140 is a so-called RFID (Radio Frequency Identification) tag, a plurality of environment-side positioning devices 150 are installed at predetermined positions in the monitoring area, and a monitoring target person wearing the mobile terminal 140 is When approaching the environment-side positioning device 150, the environment-side positioning device 150 acquires the ID information of the mobile terminal 140 using a radio signal.

そして、環境側測位装置150は、取得したID情報に自身の位置を特定できる情報を付加してそれらをモニタリングサーバ100に送信する。環境側測位装置150自身の位置を特定できる情報とは、例えばその環境側測位装置150のID情報であってもよいし、その環境側測位装置150の座標を示す情報であってもよい。各環境側測位装置150のID情報と座標との対応関係が予め知られていれば、ID情報から環境側測位装置150の位置を特定することができる。環境側測位装置150の位置に基づいて、そこに接近した移動体端末140の近似的な位置を特定することができる。   And the environment side positioning apparatus 150 adds the information which can identify own position to the acquired ID information, and transmits them to the monitoring server 100. The information that can identify the position of the environment side positioning device 150 itself may be, for example, ID information of the environment side positioning device 150 or information indicating the coordinates of the environment side positioning device 150. If the correspondence relationship between the ID information and coordinates of each environment-side positioning device 150 is known in advance, the position of the environment-side positioning device 150 can be specified from the ID information. Based on the position of the environment side positioning device 150, the approximate position of the mobile terminal 140 approaching the position can be specified.

あるいは、移動体端末140は、所定の測位信号を送信する無線タグであってもよい。複数の環境側測位装置150が測位信号を受信した時刻を計測し、その時刻の差に基づいて移動体端末140の位置を特定することができる。測位信号に移動体端末140のID情報が含まれていれば、環境側測位装置150は、そのID情報と、計測された位置情報とをモニタリングサーバ100に送信することができる。   Alternatively, the mobile terminal 140 may be a wireless tag that transmits a predetermined positioning signal. The time when the plurality of environment-side positioning devices 150 receive the positioning signal can be measured, and the position of the mobile terminal 140 can be specified based on the difference between the times. If the positioning signal includes the ID information of the mobile terminal 140, the environment-side positioning device 150 can transmit the ID information and the measured position information to the monitoring server 100.

モニタリングサーバ100は、各移動体端末14のID情報と、それを携行する監視対象者の識別情報とを対応付ける情報を予め保持していれば、その情報に基づいて、受信した位置情報がどの監視対象者の位置を示しているかを特定することができる。   If the monitoring server 100 holds in advance information associating the ID information of each mobile terminal 14 with the identification information of the monitoring subject carrying the mobile terminal 14, which monitoring information is received based on that information. Whether or not the position of the subject is indicated can be specified.

具体的には、ユーザDB115には、各監視対象者を識別する情報(例えば監視対象者の氏名又は従業員コード等)と、各監視対象者が保持する移動体端末140を識別する情報と、を対応付ける情報が登録される。   Specifically, in the user DB 115, information for identifying each monitoring target person (for example, the name or employee code of the monitoring target person), information for identifying the mobile terminal 140 held by each monitoring target person, Is registered.

センサ130は、監視区域における監視対象者の行動を示す情報を取得して、取得した情報を、ネットワーク160Aを介してモニタリングサーバ100に送信する。以下、主に、センサ130が監視カメラである例について説明するが、センサ130は、その他のセンサ、例えばマイクロフォン、超音波センサ又は赤外線センサ等であってもよいし、販売履歴をモニタリングサーバ100に送信する機能を備える自動販売機等であってもよい。   The sensor 130 acquires information indicating the behavior of the monitoring target person in the monitoring area, and transmits the acquired information to the monitoring server 100 via the network 160A. Hereinafter, an example in which the sensor 130 is a monitoring camera will be mainly described. However, the sensor 130 may be another sensor, for example, a microphone, an ultrasonic sensor, an infrared sensor, or the like. It may be a vending machine or the like having a function of transmitting.

センサ130が監視カメラである場合、各センサ130が、監視区域内の各センサ130に割り当てられた所定の範囲を所定のタイミングで(例えば定期的に)撮影し、それによって得られた画像データをモニタリングサーバ100に送信する。送信された画像データは、センサ情報管理部101によってセンサ情報DB111に格納される。この画像データは、静止画像データ又は動画像データのいずれであってもよい。動画像データの場合、所定のフレームレートでの撮影が連続的に行われてもよいし、一定時間の撮影が所定の時間間隔で断続的に繰り返されてもよい。このように撮影された画像を参照することによって、ある時間帯のある範囲における監視対象者の行動を把握することができる。   When the sensors 130 are monitoring cameras, each sensor 130 captures a predetermined range assigned to each sensor 130 in the monitoring area at a predetermined timing (for example, periodically), and image data obtained thereby is captured. Transmit to the monitoring server 100. The transmitted image data is stored in the sensor information DB 111 by the sensor information management unit 101. This image data may be either still image data or moving image data. In the case of moving image data, shooting at a predetermined frame rate may be performed continuously, or shooting for a fixed time may be repeated intermittently at a predetermined time interval. By referring to the image thus captured, it is possible to grasp the behavior of the monitoring subject within a certain range of a certain time zone.

センサ130がマイクロフォンである場合、監視区域内の各マイクロフォンに割り当てられた所定の範囲の音が連続的に又は断続的に収録される。収録された音声データは、モニタリングサーバ100に送信され、センサ情報管理部101によってセンサ情報DB111に格納される。格納された音声データに基づいて、監視対象者の行動(例えば歩行、停止、物体を移動させる動作、ドアを開閉する動作、施錠・開錠動作、梱包・開梱動作等)を検出することができる。   When the sensor 130 is a microphone, a predetermined range of sound assigned to each microphone in the monitoring area is recorded continuously or intermittently. The recorded audio data is transmitted to the monitoring server 100 and stored in the sensor information DB 111 by the sensor information management unit 101. Based on the stored audio data, it is possible to detect the behavior of the monitoring subject (for example, walking, stopping, moving an object, opening / closing a door, locking / unlocking operation, packing / unpacking operation, etc.) it can.

図2は、本発明の第1の実施形態のモニタリングサーバ100のハードウェア構成を示すブロック図である。   FIG. 2 is a block diagram illustrating a hardware configuration of the monitoring server 100 according to the first embodiment of this invention.

本実施形態のモニタリングサーバ100は、相互に接続されたプロセッサ201、メインメモリ202、入力装置203、インターフェース(I/F)205及び記憶装置206を備える計算機である。   The monitoring server 100 of this embodiment is a computer including a processor 201, a main memory 202, an input device 203, an interface (I / F) 205, and a storage device 206 that are connected to each other.

プロセッサ201は、メインメモリ202に格納されたプログラムを実行する。   The processor 201 executes a program stored in the main memory 202.

メインメモリ202は、例えば半導体メモリであり、プロセッサ201によって実行されるプログラム及びプロセッサ201によって参照されるデータを格納する。具体的には、記憶装置206に格納されたプログラム及びデータの少なくとも一部が、必要に応じてメインメモリ202にコピーされる。   The main memory 202 is a semiconductor memory, for example, and stores a program executed by the processor 201 and data referred to by the processor 201. Specifically, at least a part of the program and data stored in the storage device 206 is copied to the main memory 202 as necessary.

入力装置203は、施設モニタリングシステムの管理者(すなわち、モニタリングサーバ100を使用して監視対象者を監視する者)からの入力を受ける。入力装置203は、例えばキーボード及びマウス等を含んでもよい。   The input device 203 receives input from an administrator of the facility monitoring system (that is, a person who monitors a monitoring target person using the monitoring server 100). The input device 203 may include, for example, a keyboard and a mouse.

I/F205は、ネットワーク160A及び160Bに接続され、センサ130、移動体端末140及び環境側測位装置150と通信するインターフェースである。ネットワーク160A及び160Bが互いに独立したものである場合、モニタリングサーバ100は複数のI/F205を備え、それらのうち一つがネットワーク160Aに、別の一つがネットワーク160Bに接続される。   The I / F 205 is an interface that is connected to the networks 160A and 160B and communicates with the sensor 130, the mobile terminal 140, and the environment side positioning device 150. When the networks 160A and 160B are independent from each other, the monitoring server 100 includes a plurality of I / Fs 205, one of which is connected to the network 160A and the other is connected to the network 160B.

記憶装置206は、例えばハードディスク装置(HDD)又はフラッシュメモリのような不揮発性の記憶装置である。本実施形態の記憶装置206には、少なくとも、センサ情報管理部101、測位記録管理部102、センサ・測位統合部103、動線解析部104、分析条件調整部105、分析条件設定画面生成部106、分析結果画面生成部107、センサ情報データベース(DB)111、測位DB112、屋内地図DB113、分析情報DB114及びユーザDB115が格納される。   The storage device 206 is a non-volatile storage device such as a hard disk device (HDD) or a flash memory. The storage device 206 of this embodiment includes at least a sensor information management unit 101, a positioning record management unit 102, a sensor / positioning integration unit 103, a flow line analysis unit 104, an analysis condition adjustment unit 105, and an analysis condition setting screen generation unit 106. The analysis result screen generation unit 107, the sensor information database (DB) 111, the positioning DB 112, the indoor map DB 113, the analysis information DB 114, and the user DB 115 are stored.

センサ情報管理部101、測位記録管理部102、センサ・測位統合部103、動線解析部104、分析条件調整部105、分析条件設定画面生成部106及び分析結果画面生成部107は、プロセッサ201によって実行されるプログラムである。以下の説明においてこれらの各部が実行する処理は、実際にはプロセッサ201によって実行される。   The sensor information management unit 101, the positioning record management unit 102, the sensor / positioning integration unit 103, the flow line analysis unit 104, the analysis condition adjustment unit 105, the analysis condition setting screen generation unit 106, and the analysis result screen generation unit 107 are performed by the processor 201. The program to be executed. In the following description, the processing executed by these units is actually executed by the processor 201.

なお、図1に示すモニタリングサーバ100は、図2に示すように一つの計算機によって構成されてもよいが、相互に通信可能な複数の計算機によって構成されてもよい。例えば、一方の計算機がセンサ情報管理部101、測位記録管理部102、センサ情報DB111及び測位DB112を備え、もう一方の計算機が残りの部分を備えてもよい。あるいは、一方の計算機がセンサ情報管理部101等の処理部を備え、もう一方の計算機がセンサ情報DB111等のデータベースを備えてもよい。   The monitoring server 100 illustrated in FIG. 1 may be configured by a single computer as illustrated in FIG. 2, but may be configured by a plurality of computers that can communicate with each other. For example, one computer may include the sensor information management unit 101, the positioning record management unit 102, the sensor information DB 111, and the positioning DB 112, and the other computer may include the remaining part. Alternatively, one computer may include a processing unit such as the sensor information management unit 101, and the other computer may include a database such as the sensor information DB 111.

図3は、本発明の第1の実施形態の施設モニタリングシステムの動作の全体を示すフローチャートである。   FIG. 3 is a flowchart showing the overall operation of the facility monitoring system according to the first embodiment of the present invention.

屋内地図DB113が整備された後に、図3に示す処理が開始される。屋内地図DB113の内容については後述する(図9及び図10参照)。   After the indoor map DB 113 is maintained, the process shown in FIG. 3 is started. The contents of the indoor map DB 113 will be described later (see FIGS. 9 and 10).

本実施形態の施設モニタリングシステムは、データ収集ステップ310及びデータ分析ステップ320を実行する。   The facility monitoring system of the present embodiment executes a data collection step 310 and a data analysis step 320.

データ収集ステップ310は、センシング結果及び測位結果を収集するために実行される。   A data collection step 310 is performed to collect sensing results and positioning results.

具体的には、センサ130がセンシングを行い(ステップ331)、その結果をセンサ情報管理部101に送信する。移動体端末140又は環境側測位装置150は、測位を行い(ステップ332)、その結果を測位記録管理部102に送信する。送信される測位結果は、少なくとも移動体端末140の位置を示す情報を含む。送信される情報の詳細な内容については後述する(図6及び図7参照)。   Specifically, the sensor 130 performs sensing (step 331), and transmits the result to the sensor information management unit 101. The mobile terminal 140 or the environment side positioning device 150 performs positioning (step 332) and transmits the result to the positioning record management unit 102. The transmitted positioning result includes at least information indicating the position of the mobile terminal 140. Details of the information to be transmitted will be described later (see FIGS. 6 and 7).

センサ情報管理部101及び測位記録管理部102は、それぞれ、受信した情報をセンサ情報DB111及び測位DB112に格納する(ステップ311)。   The sensor information management unit 101 and the positioning record management unit 102 store the received information in the sensor information DB 111 and the positioning DB 112, respectively (step 311).

データ分析ステップ320は、収集され、データベースに格納されたセンシング結果及び測位結果を分析するために実行される。例えば、モニタリングサーバ100は、所定の期間にわたってセンシング結果及び測位結果を収集し(データ収集ステップ310)、その後、収集されたセンシング結果及び測位結果を分析するためにデータ分析ステップ320を実行してもよい。   Data analysis step 320 is performed to analyze the sensing results and positioning results collected and stored in the database. For example, the monitoring server 100 may collect the sensing result and the positioning result over a predetermined period (data collection step 310), and then execute the data analysis step 320 to analyze the collected sensing result and positioning result. Good.

具体的には、最初に、動線解析部104が、測位DB112に格納された位置情報に基づいて動線解析処理を実行する(ステップ321)。この処理の詳細については後述する(図11等参照)。   Specifically, first, the flow line analysis unit 104 executes a flow line analysis process based on the position information stored in the positioning DB 112 (step 321). Details of this processing will be described later (see FIG. 11 and the like).

次に、分析条件設定画面生成部106が動線解析処理の結果に基づいて分析状況提示処理を実行する(ステップ322)。管理者は、この処理によって提示された分析状況を参照して、指示を入力する(ステップ333)。分析条件設定画面生成部106は、入力された指示に基づいて、分析結果が妥当か否かを判定する(ステップ323)。分析結果が妥当であると判定された場合、分析結果提示処理が実行され(ステップ326)、処理が終了する。   Next, the analysis condition setting screen generation unit 106 executes an analysis status presentation process based on the result of the flow line analysis process (step 322). The administrator refers to the analysis status presented by this process and inputs an instruction (step 333). The analysis condition setting screen generation unit 106 determines whether the analysis result is appropriate based on the input instruction (step 323). If it is determined that the analysis result is valid, an analysis result presentation process is executed (step 326), and the process ends.

分析結果が妥当でない(すなわち分析結果を補正する必要がある)と判定された場合、分析条件設定画面生成部106は、分析条件設定画面提示処理を実行する(ステップ324)。この処理の詳細については後述する。   If it is determined that the analysis result is not valid (that is, the analysis result needs to be corrected), the analysis condition setting screen generation unit 106 executes an analysis condition setting screen presentation process (step 324). Details of this processing will be described later.

次に、分析条件調整部105が分析条件調整処理を実行する(ステップ325)。そして、処理はステップ321に戻る。   Next, the analysis condition adjustment unit 105 executes an analysis condition adjustment process (step 325). Then, the process returns to step 321.

図4は、本発明の第1の実施形態において実行される測位結果の送付処理を示すシーケンス図である。   FIG. 4 is a sequence diagram showing a positioning result sending process executed in the first embodiment of the present invention.

具体的には、図4は、図3のデータ収集ステップ310のうち、測位結果の収集のために実行される処理を示す。   Specifically, FIG. 4 shows processing executed for collecting the positioning results in the data collection step 310 of FIG.

移動体端末140は、測位を行い、それによって得られた情報を含む測位結果を測位記録管理部102に送信する(ステップ401)。測位記録管理部102は、受信した情報を含む測位データを測位DB112に格納する(ステップ402)。これらの処理が繰り返し実行され(ステップ405、406)、測位DB112に測位データが蓄積される。   The mobile terminal 140 performs positioning, and transmits a positioning result including information obtained thereby to the positioning record management unit 102 (step 401). The positioning record management unit 102 stores the positioning data including the received information in the positioning DB 112 (step 402). These processes are repeatedly executed (steps 405 and 406), and positioning data is accumulated in the positioning DB 112.

一方、環境側測位装置150も測位を行い、それによって得られた情報を測位記録管理部102に送信する(ステップ403)。測位記録管理部102は、受信した情報を測位DB112に格納する(ステップ404)。図4では省略されているが、これらの処理も繰り返し実行され、測位DB112に測位データが蓄積される。   On the other hand, the environment side positioning device 150 also performs positioning, and transmits information obtained thereby to the positioning record management unit 102 (step 403). The positioning record management unit 102 stores the received information in the positioning DB 112 (step 404). Although omitted in FIG. 4, these processes are also repeatedly executed, and positioning data is accumulated in the positioning DB 112.

なお、図4は、施設モニタリングシステムにおいて複数の測位方法が併用される例を示している。通常、監視区域を含む施設は複数の監視対象者によって使用されるため、監視区域内に複数の移動体端末140が存在しうる。それらの複数の移動体端末140が全て同種の装置であるとは限らない。例えば、ある移動体端末140がGPS測位装置を備える携帯電話機であり、別の移動体端末140が無線タグである場合もある。この場合、携帯電話機の位置情報を含む測位結果はステップ401に示すように携帯電話機自身から送信され、無線タグの位置情報を含む測位結果はステップ403に示すように環境側測位装置150から送信される。   FIG. 4 shows an example in which a plurality of positioning methods are used in combination in the facility monitoring system. Usually, since a facility including a monitoring area is used by a plurality of monitoring subjects, a plurality of mobile terminals 140 may exist in the monitoring area. The plurality of mobile terminals 140 are not all the same type of devices. For example, one mobile terminal 140 may be a mobile phone equipped with a GPS positioning device, and another mobile terminal 140 may be a wireless tag. In this case, the positioning result including the position information of the mobile phone is transmitted from the mobile phone itself as shown in step 401, and the positioning result including the position information of the wireless tag is transmitted from the environment side positioning device 150 as shown in step 403. The

なお、一つの測位方法のみが使用される場合には、測位結果は移動体端末140又は環境側測位装置150の一方のみから送信される。   When only one positioning method is used, the positioning result is transmitted from only one of the mobile terminal 140 or the environment side positioning device 150.

図5は、本発明の第1の実施形態において実行されるセンサ情報の送付処理を示すシーケンス図である。   FIG. 5 is a sequence diagram showing sensor information sending processing executed in the first embodiment of the present invention.

具体的には、図5は、図3のデータ収集ステップ310のうち、センシング情報の収集のために実行される処理を示す。   Specifically, FIG. 5 shows processing executed for collecting sensing information in the data collection step 310 of FIG.

センサ130は、センシングを行い、それによって得られた情報をセンサ情報管理部101に送信する(ステップ501)。センサ情報管理部101は、受信したセンシング結果を含むセンサ情報をセンサ情報DB111に格納する(ステップ502)。センサ情報DB111に格納されるセンサ情報については後述する(図8参照)。これらの処理が繰り返し実行され(ステップ503〜506)、センサ情報DB111にセンシング結果が蓄積される。   The sensor 130 performs sensing and transmits information obtained thereby to the sensor information management unit 101 (step 501). The sensor information management unit 101 stores sensor information including the received sensing result in the sensor information DB 111 (step 502). The sensor information stored in the sensor information DB 111 will be described later (see FIG. 8). These processes are repeatedly executed (steps 503 to 506), and the sensing results are accumulated in the sensor information DB 111.

次に、図6〜図10を参照して、本実施形態の施設モニタリングシステムにおいて使用されるデータの例を説明する。   Next, an example of data used in the facility monitoring system of the present embodiment will be described with reference to FIGS.

図6は、本発明の第1の実施形態の移動体端末140又は環境側測位装置150から送信される測位結果の説明図である。   FIG. 6 is an explanatory diagram of a positioning result transmitted from the mobile terminal 140 or the environment side positioning device 150 according to the first embodiment of this invention.

既に説明したように、移動体端末140又は環境側測位装置150は、移動体端末140の位置を計測し、その結果として得られた位置情報を、モニタリングサーバ100に送信する。このようにして送信される測位結果の例を図6に示す。   As already described, the mobile terminal 140 or the environment side positioning device 150 measures the position of the mobile terminal 140 and transmits the position information obtained as a result to the monitoring server 100. An example of the positioning result transmitted in this way is shown in FIG.

測位結果600は、歩行者ID601、測位系ID602、X座標603、Y座標604及び時刻605を含む。   The positioning result 600 includes a pedestrian ID 601, a positioning system ID 602, an X coordinate 603, a Y coordinate 604, and a time 605.

歩行者ID601は、監視対象者を一意に識別する情報であり、例えば、電話番号、MAC(Media Access Control)アドレス又はRFIDタグの識別情報のような、監視対象者が携行する移動体端末140の識別情報であってもよい。   The pedestrian ID 601 is information for uniquely identifying the monitoring target person. For example, the mobile terminal 140 carried by the monitoring target person such as a telephone number, a MAC (Media Access Control) address, or identification information of an RFID tag. It may be identification information.

測位系ID602は、測位手段を示すコードである。例えば、GPS測位によって取得された座標値を含む測位結果600の測位系ID602として「0」が、環境側測位装置150によって取得された座標値を含む測位結果600の測位系ID602として「1」が付与されてもよい。   The positioning system ID 602 is a code indicating the positioning means. For example, “0” is set as the positioning system ID 602 of the positioning result 600 including the coordinate value acquired by GPS positioning, and “1” is set as the positioning system ID 602 of the positioning result 600 including the coordinate value acquired by the environment-side positioning device 150. It may be granted.

X座標603及びY座標604は、監視区域内における移動体端末140の(すなわちそれを携行する監視対象者の)位置を、二次元直交座標系中の座標値として特定する情報である。X座標603及びY座標604にさらにZ座標を加えて三次元の位置情報を扱ってもよい。これらの座標値は一例であり、必ずしも直交座標系を用いなくてもよい。例えば、移動体端末140がGPS測位装置を備える場合、X座標603及びY座標604として経度及び緯度を示す情報が含まれてもよい。さらに、必要があれば高度を示す情報が含まれてもよい。   The X coordinate 603 and the Y coordinate 604 are information for specifying the position of the mobile terminal 140 in the monitoring area (that is, the person to be monitored carrying it) as a coordinate value in the two-dimensional orthogonal coordinate system. Three-dimensional position information may be handled by adding a Z coordinate to the X coordinate 603 and the Y coordinate 604. These coordinate values are examples, and the orthogonal coordinate system is not necessarily used. For example, when the mobile terminal 140 includes a GPS positioning device, information indicating longitude and latitude may be included as the X coordinate 603 and the Y coordinate 604. Further, if necessary, information indicating the altitude may be included.

時刻605は、測位が行われた時刻(言い換えると、測位結果600が取得された時刻)を示す。時刻605は、必要に応じて、測位が行われた年月日を示す情報を含んでもよい。   The time 605 indicates the time at which positioning is performed (in other words, the time at which the positioning result 600 is acquired). The time 605 may include information indicating the date on which positioning is performed, as necessary.

測位記録管理部102は、測位結果600を受信すると、測位データを生成して測位DB112に格納する。測位データは、少なくとも、測位結果600に含まれる位置情報を含む。ただし、測位系ごとに異なる座標系が使用される場合には、測位記録管理部102が測位結果600に含まれる座標値(すなわちX座標603及びY座標604)を変換することによって、測位データに含まれる座標値をいずれかの座標系に統一してもよい。このような変換は公知の方法によって実行できるため、詳細な説明は省略する。また、測位系ごとに異なる種類の歩行者ID(例えば電話番号、MACアドレス又はRFID等)が使用される場合には、測位記録管理部102がそれらのIDをモニタリングサーバ100内で使用される統一的な歩行者IDに変換してもよい。   When receiving the positioning result 600, the positioning record management unit 102 generates positioning data and stores it in the positioning DB 112. The positioning data includes at least position information included in the positioning result 600. However, when a different coordinate system is used for each positioning system, the positioning record management unit 102 converts the coordinate values (that is, the X coordinate 603 and the Y coordinate 604) included in the positioning result 600 into the positioning data. The included coordinate values may be unified in any coordinate system. Since such conversion can be executed by a known method, detailed description thereof is omitted. When different types of pedestrian IDs (for example, telephone numbers, MAC addresses, RFIDs, etc.) are used for each positioning system, the positioning record management unit 102 uses these IDs in the monitoring server 100 to be unified. May be converted into a typical pedestrian ID.

このようにして生成された測位データのフォーマットは、基本的には測位結果600のフォーマットと同等であってよいが、上記のように測位系に応じた変換が終了しているため、測位データは測位系ID602を含まなくてよい。図6に示す一組の測位結果600は、一人の監視対象者の一つの時刻における位置情報を含み、これが一組の測位データに対応する。測位DB112には、複数の組の測位データ、すなわち、複数の監視対象者に関する複数の時刻における位置情報が格納される。   The format of the positioning data generated in this way may be basically the same as the format of the positioning result 600, but since the conversion according to the positioning system has been completed as described above, the positioning data is The positioning system ID 602 may not be included. A set of positioning results 600 illustrated in FIG. 6 includes position information of one monitoring target person at one time, and this corresponds to a set of positioning data. The positioning DB 112 stores a plurality of sets of positioning data, that is, position information at a plurality of times regarding a plurality of monitoring subjects.

図7は、本発明の第1の実施形態のセンサ130から送信されるセンサ情報の説明図である。   FIG. 7 is an explanatory diagram of sensor information transmitted from the sensor 130 according to the first embodiment of this invention.

既に説明したように、センサ130は、センシングを実行し、その結果(センシング結果)をモニタリングサーバ100に送信する。このようにして送信されるセンサ情報の例を図7に示す。   As already described, the sensor 130 performs sensing and transmits the result (sensing result) to the monitoring server 100. An example of sensor information transmitted in this way is shown in FIG.

センサ情報700は、センサID701及びデータ702を含む。   The sensor information 700 includes a sensor ID 701 and data 702.

センサID701は、センサ情報700を送信したセンサ130を一意に識別する情報である。   The sensor ID 701 is information that uniquely identifies the sensor 130 that has transmitted the sensor information 700.

データ702は、センサ情報700を送信したセンサ130がセンシングの結果として取得したデータであり、例えば画像データ又は音声データである。このデータ702は、DSP(デジタル信号プロセッサ)によって処理されたデータであっても、処理されていない生のデータであってもよく、また、圧縮データであっても、非圧縮データであってもよい。   The data 702 is data acquired as a result of sensing by the sensor 130 that transmitted the sensor information 700, for example, image data or audio data. The data 702 may be data processed by a DSP (digital signal processor) or raw data that has not been processed, and may be compressed data or uncompressed data. Good.

センサ130は、単にセンシングの結果である画像データ等を送信してもよいが、そのセンシング結果が前回のセンシング結果から変化したか否かを判定して、その判定の結果をデータ702に含めて送信してもよく、また、その判定の結果のみをデータ702として送信してもよい。   The sensor 130 may simply transmit image data or the like as a result of sensing, but determines whether the sensing result has changed from the previous sensing result, and includes the result of the determination in the data 702. It may be transmitted, or only the determination result may be transmitted as data 702.

図8は、本発明の第1の実施形態のセンサ情報DB111に格納されるセンサ情報の説明図である。   FIG. 8 is an explanatory diagram of sensor information stored in the sensor information DB 111 according to the first embodiment of this invention.

センサ情報管理部101は、センサ情報700を受信すると、そのセンサ情報700に所定の処理を加えてセンサ情報DB111に格納する。少なくとも、センサ情報管理部101は、センサ情報700を時刻と関連付けて格納する必要がある。   When the sensor information management unit 101 receives the sensor information 700, the sensor information management unit 101 performs a predetermined process on the sensor information 700 and stores it in the sensor information DB 111. At least, the sensor information management unit 101 needs to store the sensor information 700 in association with the time.

センサ情報800は、センサID801、センサ種別802、時刻803及びデータ804を含む。これらのうち、センサID801及びデータ804は、図7のセンサID701及びデータ702に相当する。すなわち、センサ情報管理部101は、センサ情報700を受信すると、それに含まれるセンサID701及びデータ702をそれぞれセンサID801及びデータ804としてセンサ情報DB111に格納する。   The sensor information 800 includes a sensor ID 801, a sensor type 802, a time 803, and data 804. Among these, the sensor ID 801 and the data 804 correspond to the sensor ID 701 and the data 702 in FIG. That is, when receiving the sensor information 700, the sensor information management unit 101 stores the sensor ID 701 and the data 702 included therein in the sensor information DB 111 as the sensor ID 801 and the data 804, respectively.

センサ種別802は、センサ情報700を送信したセンサ130の種類、例えば、それが監視カメラであるか、マイクロフォンであるか、又はその他のセンサであるか、を示す。   The sensor type 802 indicates the type of the sensor 130 that transmitted the sensor information 700, for example, whether it is a monitoring camera, a microphone, or another sensor.

時刻803は、センシングが行われた時刻を特定する情報である。例えばデータ804が静止画像データである場合、時刻803は、それが撮影された時刻であってもよい。データ804が動画像データ又は音声データのような、ある時間にわたって取得されたものである場合、時刻803は、例えばセンシングの開始時刻とセンシングの時間との組、センシングの開始時刻と終了時刻との組、そのセンシング時間を代表する時刻、又はそれらの組み合わせであってもよい。   Time 803 is information specifying the time when sensing was performed. For example, when the data 804 is still image data, the time 803 may be a time when the data 804 is captured. When the data 804 is acquired over a certain time such as moving image data or audio data, the time 803 is, for example, a set of a sensing start time and a sensing time, and a sensing start time and an end time. It may be a set, a time representative of the sensing time, or a combination thereof.

なお、一つのセンサ130が取得した、一つの時刻に対応するセンシング結果が、一組のセンサ情報800として格納される。センサ情報DB111には、複数の組のセンサ情報800、すなわち、複数のセンサ130が複数の時刻にセンシングした結果を示す情報が格納される。   A sensing result corresponding to one time acquired by one sensor 130 is stored as a set of sensor information 800. The sensor information DB 111 stores a plurality of sets of sensor information 800, that is, information indicating the results of sensing by a plurality of sensors 130 at a plurality of times.

次に、屋内地図DB113に格納されるデータの例について説明する。屋内地図DB113には、地図情報900及びセンサパラメータ1000が格納される。   Next, an example of data stored in the indoor map DB 113 will be described. The indoor map DB 113 stores map information 900 and sensor parameters 1000.

図9は、本発明の第1の実施形態の屋内地図DB113に格納される地図情報900の説明図である。   FIG. 9 is an explanatory diagram of the map information 900 stored in the indoor map DB 113 according to the first embodiment of this invention.

地図情報900は、地物ID901、種別コード902及び形状903を含む。   The map information 900 includes a feature ID 901, a type code 902, and a shape 903.

地物ID901は、監視区域又はその周辺に存在する地物を一意に識別する情報である。ここで地物とは、床、壁、柱、物体収納棚、パーティション、及び天井から吊り下げられた物体(例えば空調ダクト、スピーカーボックス又は照明器具)等を含む。   The feature ID 901 is information for uniquely identifying a feature existing in or around the monitoring area. Here, the feature includes a floor, a wall, a pillar, an object storage shelf, a partition, an object suspended from the ceiling (for example, an air conditioning duct, a speaker box, or a lighting fixture).

種別コード902は、地物の種類を示す情報である。種別コード902は、例えば地物が壁、柱、梁、棚、扉等のいずれであるかを識別する情報であってもよい。各地物の種別コード902に基づいて、その地物によってセンシングが阻害されるか否かを判定することができる。   The type code 902 is information indicating the type of the feature. The type code 902 may be information for identifying whether the feature is a wall, a pillar, a beam, a shelf, a door, or the like. Based on the feature type code 902 of each feature, it can be determined whether or not sensing is hindered by the feature.

形状903は、地物の形状及び寸法を特定する情報であり、例えば、その地物の形状を現す座標点列を含む。   The shape 903 is information for specifying the shape and size of the feature, and includes, for example, a coordinate point sequence representing the shape of the feature.

一つの地物に関する情報が一組の地図情報900として格納される。屋内地図DB113には、複数の組の地図情報900、すなわち、複数の地物に関する地図情報900が格納される。   Information about one feature is stored as a set of map information 900. The indoor map DB 113 stores a plurality of sets of map information 900, that is, map information 900 regarding a plurality of features.

図10は、本発明の第1の実施形態の屋内地図DB113に格納されるセンサパラメータ1000の説明図である。   FIG. 10 is an explanatory diagram of the sensor parameters 1000 stored in the indoor map DB 113 according to the first embodiment of this invention.

センサパラメータ1000は、センサID1001、種別コード1002、設置箇所1003及びセンサパラメータ1004を含む。   The sensor parameter 1000 includes a sensor ID 1001, a type code 1002, an installation location 1003, and a sensor parameter 1004.

センサID1001は、監視区域内に設置された各センサ130を一意に識別する情報である。種別コード1002は、センサの種類を示す情報である。これらは、それぞれ、センサ情報800のセンサID801及びセンサ種別802と同様の情報であってよい。   The sensor ID 1001 is information for uniquely identifying each sensor 130 installed in the monitoring area. The type code 1002 is information indicating the type of sensor. These may be the same information as the sensor ID 801 and sensor type 802 of the sensor information 800, respectively.

設置箇所1003は、監視区域内におけるセンサ130の設置箇所を特定する情報であり、例えば二次元又は三次元の座標値である。   The installation location 1003 is information for specifying the installation location of the sensor 130 in the monitoring area, and is, for example, a two-dimensional or three-dimensional coordinate value.

センサパラメータ1004は、センサ130によってセンシング可能な領域を特定する情報である。例えば、センサ130が監視カメラである場合、センサパラメータ1004は、監視カメラの向き、視野角及び解像度等を特定する情報を含んでもよい。センサ130がマイクロフォンである場合、センサパラメータ1004は、マイクロフォンの向き、指向性及び感度等を特定する情報を含んでもよい。   The sensor parameter 1004 is information for specifying a region that can be sensed by the sensor 130. For example, when the sensor 130 is a monitoring camera, the sensor parameter 1004 may include information for specifying the orientation, viewing angle, resolution, and the like of the monitoring camera. In the case where the sensor 130 is a microphone, the sensor parameter 1004 may include information for specifying the orientation, directivity, sensitivity, and the like of the microphone.

一つのセンサ130に関する情報が一組のセンサパラメータ1000として格納される。屋内地図DB113には、複数の組のセンサパラメータ1000、すなわち、複数のセンサ130に関するセンサパラメータ1000が格納される。   Information about one sensor 130 is stored as a set of sensor parameters 1000. The indoor map DB 113 stores a plurality of sets of sensor parameters 1000, that is, sensor parameters 1000 related to the plurality of sensors 130.

次に、図3に示したステップの詳細について説明する。   Next, details of the steps shown in FIG. 3 will be described.

図11は、本発明の第1の実施形態のモニタリングサーバ100が実行する動線解析処理を示すフローチャートである。   FIG. 11 is a flowchart illustrating a flow line analysis process executed by the monitoring server 100 according to the first embodiment of this invention.

図11に示す処理は、図3のステップ321において実行される。   The process shown in FIG. 11 is executed in step 321 of FIG.

最初に、動線解析部104は、測位データの特徴量を算出し、状態ラベルを生成する(ステップ1101)。具体的には、動線解析部104は、算出された特徴量についてクラスタリングを実行することによって、動線が示す監視対象者の行動を複数の状態に分類し、それらの状態にラベルを付与する。この詳細な手順については後述する(図12A〜図12D等参照)。   First, the flow line analysis unit 104 calculates a feature amount of positioning data and generates a state label (step 1101). Specifically, the flow line analysis unit 104 classifies the behavior of the monitoring target person indicated by the flow line into a plurality of states by performing clustering on the calculated feature amount, and assigns labels to these states. . This detailed procedure will be described later (see FIGS. 12A to 12D, etc.).

次に、動線解析部104は、状態ラベルの遷移列を統計モデルに当てはめる(ステップ1102)。この詳細な手順については後述する。   Next, the flow line analysis unit 104 applies the state label transition sequence to the statistical model (step 1102). This detailed procedure will be described later.

次に、動線解析部104は、統計モデルから情報を抽出する(ステップ1103)。この詳細な手順については後述する。   Next, the flow line analysis unit 104 extracts information from the statistical model (step 1103). This detailed procedure will be described later.

以上で動線解析処理が終了する。   This completes the flow line analysis process.

ステップ1101において実行される特徴量の算出及び状態ラベルの生成について、図12A〜図12Dを参照して説明する。   The feature amount calculation and state label generation executed in step 1101 will be described with reference to FIGS. 12A to 12D.

図12Aは、本発明の第1の実施形態のモニタリングサーバ100が実行する特徴量の算出及び状態ラベルの生成処理を示すフローチャートである。   FIG. 12A is a flowchart illustrating feature amount calculation and state label generation processing executed by the monitoring server 100 according to the first embodiment of this invention.

図12Bは、本発明の第1の実施形態における測位データの分割の説明図である。   FIG. 12B is an explanatory diagram of positioning data division according to the first embodiment of this invention.

図12Cは、本発明の第1の実施形態における特徴量の算出の説明図である。   FIG. 12C is an explanatory diagram illustrating calculation of feature amounts according to the first embodiment of this invention.

図12Dは、本発明の第1の実施形態におけるクラスタリングの説明図である。   FIG. 12D is an explanatory diagram of clustering according to the first embodiment of this invention.

最初に、動線解析部104は、測位データを時間的に分離する(ステップ1201)。具体的には、例えばある時刻における測位データの特徴量を算出する場合、算出の対象であるその時刻の測位データと、その時刻を含む所定の時間範囲内の測位データと、を測位DB112から取得する。このようにして取得された測位データの例を図12Bに示す。図12Bの黒丸の位置が、算出の対象である測位データが示す位置に相当し、白丸の位置が、所定の時間範囲内の測位データが示す位置に相当する。   First, the flow line analysis unit 104 temporally separates positioning data (step 1201). Specifically, for example, when calculating the feature value of the positioning data at a certain time, the positioning data at that time, which is a calculation target, and the positioning data within a predetermined time range including the time are acquired from the positioning DB 112. To do. An example of the positioning data acquired in this way is shown in FIG. 12B. The position of the black circle in FIG. 12B corresponds to the position indicated by the positioning data to be calculated, and the position of the white circle corresponds to the position indicated by the positioning data within a predetermined time range.

次に、動線解析部104は、ステップ1201において取得された測位データから特徴量を算出する(ステップ1202)。特徴量は、例えば、測位データに含まれる位置情報、その位置情報から算出された監視対象者の速度及び加速度、等である。   Next, the flow line analysis unit 104 calculates a feature amount from the positioning data acquired in Step 1201 (Step 1202). The feature amount is, for example, position information included in the positioning data, the speed and acceleration of the monitoring target calculated from the position information, and the like.

具体的には、ステップ1201において取得された測位データが複数の時刻における位置情報を含むため、それらに基づいて監視対象者の移動速度を計算することができ、さらに、その移動速度の変化から加速度を計算することができる。図12Cに例示する特徴量は、
(1)10秒前の速度
(2)10秒前の加速度
(3)現在の速度
(4)現在の加速度
(5)10秒後の速度
(6)10秒後の加速度
(7)平均速度
(8)10秒前の点と現在の点との間の距離
である。ここで、「現在」とは特徴量の取得対象である測位データが取得された時刻(すなわちその測位データに対応する時刻605)であり、「10秒前」及び「10秒後」の基準点は上記の「現在」である。
Specifically, since the positioning data acquired in step 1201 includes position information at a plurality of times, the moving speed of the monitoring subject can be calculated based on them, and the acceleration can be calculated from the change in the moving speed. Can be calculated. The feature quantity illustrated in FIG.
(1) Speed before 10 seconds (2) Acceleration before 10 seconds (3) Current speed (4) Current acceleration (5) Speed after 10 seconds (6) Acceleration after 10 seconds (7) Average speed ( 8) Distance between the point 10 seconds ago and the current point. Here, “current” is the time at which the positioning data that is the feature quantity acquisition target is acquired (that is, the time 605 corresponding to the positioning data), and the reference points of “10 seconds before” and “10 seconds after” Is the "current" above.

動線解析部104は、一つの測位データの特徴を示す値として、上記のように算出された特徴量のいずれか一つを使用してもよいが、通常は、複数の特徴量の組(例えば上記の8種類の特徴量の組)を使用する。このような複数の特徴量の組は、一般に、それらの特徴量を要素として含むベクトル(すなわち特徴量ベクトル)として扱われる。n次元(上記の例では8次元)の特徴量ベクトルは、n次元空間における点として表現することができる。以下、このような特徴量ベクトル(すなわち特徴量の組)を用いる例を説明する。   The flow line analysis unit 104 may use any one of the feature amounts calculated as described above as a value indicating the feature of one piece of positioning data, but normally, a combination of a plurality of feature amounts ( For example, the above eight types of feature amount sets) are used. Such a set of a plurality of feature amounts is generally handled as a vector (that is, a feature amount vector) including those feature amounts as elements. An n-dimensional (8-dimensional in the above example) feature vector can be expressed as a point in an n-dimensional space. Hereinafter, an example using such a feature quantity vector (that is, a set of feature quantities) will be described.

なお、上記のような特徴量は一例であり、他の特徴量が計算されてもよい。また、上記の8次元も一例であり、任意の次元の特徴量ベクトルを使用することができる。例えば、特徴量ベクトルの要素として、現在の位置を示す特徴量がさらに含まれてもよい。   Note that the above feature quantities are examples, and other feature quantities may be calculated. The above eight dimensions are also an example, and feature quantity vectors of arbitrary dimensions can be used. For example, a feature quantity indicating the current position may be further included as an element of the feature quantity vector.

次に、動線解析部104は、ステップ1202において算出された特徴量ベクトルを含む複数の特徴量ベクトルをクラスタリングし、状態ラベルを生成する(ステップ1203)。このクラスタリングは、後述するように(図13参照)、k−means法などの公知のアルゴリズムによって実行される。   Next, the flow line analysis unit 104 clusters a plurality of feature quantity vectors including the feature quantity vectors calculated in step 1202 to generate a state label (step 1203). As will be described later (see FIG. 13), this clustering is executed by a known algorithm such as the k-means method.

例えば、動線解析部104は、上記のステップ1201及び1202を複数の監視対象者及び複数の時刻の各々について繰り返し実行することによって、各監視対象者に関する時刻ごとの特徴量ベクトルを算出することができる。このようにして算出された複数の特徴量ベクトルを対象として、クラスタリングが実行される。   For example, the flow line analysis unit 104 can calculate a feature vector for each monitoring target person by repeatedly executing the above steps 1201 and 1202 for each of the monitoring target person and each of a plurality of times. it can. Clustering is executed for a plurality of feature quantity vectors calculated in this way.

例えば、n次元(図12Dの例では2次元)空間における複数の特徴量ベクトル(図12Dにプロットされた複数の黒点)が、複数のクラスタ(図12Dの例ではクラスタA、B及びC)に分類される。図12Dに示す「A」〜「C」は、生成された状態ラベルである。   For example, a plurality of feature vectors (a plurality of black dots plotted in FIG. 12D) in an n-dimensional (two-dimensional in the example of FIG. 12D) space into a plurality of clusters (clusters A, B, and C in the example of FIG. 12D). being classified. “A” to “C” shown in FIG. 12D are generated state labels.

二つの特徴量ベクトル間の距離が近いことは、それらの特徴量ベクトルが類似していることを意味する。二つの特徴量ベクトルが類似していることは、それらの特徴量ベクトルに対応する監視対象者の行動が同一である可能性が高いことを意味する。   The fact that the distance between the two feature quantity vectors is short means that the feature quantity vectors are similar. The similarity between the two feature quantity vectors means that there is a high possibility that the behavior of the monitoring subject corresponding to these feature quantity vectors is the same.

このため、上記のクラスタリングによって一つのクラスタに属すると判定された複数の特徴量ベクトルは、例えばそれらが複数の監視対象者に関するものである場合、それらの監視対象者の同一の行動に対応する可能性が高い。言い換えると、本実施形態のクラスタリングは、監視対象者の行動を測位データに基づいて分類することに相当し、状態ラベルは、分類された行動を識別する標識である。   Therefore, a plurality of feature amount vectors determined to belong to one cluster by the above clustering can correspond to the same behavior of those monitoring subjects, for example, when they relate to a plurality of monitoring subjects. High nature. In other words, the clustering of the present embodiment corresponds to classifying the behavior of the monitoring subject based on the positioning data, and the state label is a marker for identifying the classified behavior.

ここで、ある特徴量ベクトルに対応する監視対象者の行動とは、その特徴量ベクトルの算出の基礎となったある監視対象者に関する測位データが取得されたときに、その監視対象者が行っていた、と管理者によって判断される行動である。また、本実施形態において、同一の行動とは、同一の行動として分類される行動であり、必ずしも完全に同一な行動を意味しない。そして、既に説明したように、二つの行動が同一であるか否かを判定する基準は、監視対象者の行動を監視する目的によって左右される。言い換えると、一つのクラスタに属する複数の特徴量ベクトルは、互いに類似しているため、同一の行動に対応する可能性が高いが、実際には、異なる行動として分類されるべき行動に対応している可能性もある。   Here, the behavior of the monitoring target person corresponding to a certain feature vector means that the monitoring target person performs when the positioning data related to the certain monitoring target person who is the basis for calculating the feature vector is acquired. This action is determined by the administrator. In this embodiment, the same action is an action classified as the same action, and does not necessarily mean the completely same action. As already described, the criterion for determining whether or not two actions are the same depends on the purpose of monitoring the action of the person being monitored. In other words, since multiple feature vectors belonging to one cluster are similar to each other, they are likely to correspond to the same action, but actually correspond to actions that should be classified as different actions. There is also a possibility.

本実施形態では、k−means法などによるクラスタリングの結果をさらに調整することによって、クラスタと、管理者が分類したい行動とを適切に対応させることができる。この調整については後述する。   In the present embodiment, by further adjusting the result of clustering by the k-means method or the like, the cluster and the action that the administrator wants to classify can be made to correspond appropriately. This adjustment will be described later.

ところで、上記の(1)〜(8)に示すように、特徴量ベクトルが現在の位置を示す情報を含まない場合において、二つの特徴量ベクトルが互いに類似する場合、それらの特徴量ベクトルに対応する行動が監視区域内のどこで行われたかにかかわらず、それらの特徴量ベクトルが一つのクラスタに分類される可能性がある。これは、例えば、「階段を通過する」という行動が監視区域内のどの階段で行われてもそれらを同一の行動と分類することを意味する。このため、行動がどこで行われたかを行動の分類の判断基準に含めたい場合(例えばある位置にある階段を通過する行動と、そことは別の位置にある階段を通過する行動とを別の行動として分類したい場合)、行動が行われた位置そのものを考慮したクラスタリングを行う必要がある。   By the way, as shown in the above (1) to (8), when two feature quantity vectors are similar to each other when the feature quantity vector does not include information indicating the current position, the feature quantity vectors correspond to those feature quantity vectors. Regardless of where the action to be performed is performed in the monitoring area, the feature vectors may be classified into one cluster. This means, for example, that the action of “passing the stairs” is classified as the same action regardless of the stairs in the monitoring area. For this reason, if you want to include where the action was taken in the criteria for determining the action classification (for example, the action that passes a stair at a certain position and the action that passes a stair at a different position If you want to classify as an action), you need to perform clustering that takes into account the location of the action.

例えば、特徴量ベクトルに現在の位置を示す情報を含めてもよい。あるいは、動線解析部104は、まず測位データをそれが示す位置に基づいてクラスタリングし、これによって得られた空間的なクラスタごとに、それに含まれる測位データの特徴量ベクトルを算出し、それらのクラスタリングを行ってもよい。本実施形態は、上記のような位置を考慮したクラスタリングが実行されることを前提とする。   For example, information indicating the current position may be included in the feature quantity vector. Alternatively, the flow line analysis unit 104 first clusters the positioning data based on the position indicated by the positioning data, calculates the feature quantity vector of the positioning data included in each spatial cluster obtained thereby, Clustering may be performed. This embodiment is based on the premise that clustering in consideration of the position as described above is executed.

図13は、本発明の第1の実施形態のモニタリングサーバ100が実行するクラスタリング処理を示すフローチャートである。   FIG. 13 is a flowchart illustrating clustering processing executed by the monitoring server 100 according to the first embodiment of this invention.

図13に示す処理は、図12Aのステップ1203において実行される。   The process shown in FIG. 13 is executed in step 1203 of FIG. 12A.

最初に、動線解析部104は、分析情報DB114を参照して、クラスタリングの対象である特徴量ベクトルに関するクラスタ情報があるか否か(すなわちそれらの特徴量ベクトルが既にクラスタリングされているか否か)を判定する(ステップ1301)。取得された特徴量ベクトルについて最初にクラスタリングを実行する場合、ステップ1301ではクラスタ情報がないと判定される。一方、後述するようにクラスタリング結果に対してパラメータ調整が行われた後、再度動線解析処理が行われる場合(図26参照)には、ステップ1301においてクラスタ情報があると判定される。   First, the flow line analysis unit 104 refers to the analysis information DB 114 to determine whether or not there is cluster information related to a feature vector that is a clustering target (that is, whether or not those feature vectors are already clustered). Is determined (step 1301). When clustering is first executed for the acquired feature vector, it is determined in step 1301 that there is no cluster information. On the other hand, when the flow line analysis process is performed again after the parameter adjustment is performed on the clustering result as described later (see FIG. 26), it is determined in step 1301 that there is cluster information.

ステップ1301においてクラスタ情報がないと判定された場合、動線解析部104は、ランダムにクラスタ中心の初期値を決定する(ステップ1302)。例えば、動線解析部104は、管理者によって指定された数のクラスタ中心の初期値を決定してもよい。あるいは、動線解析部104は、AIC(赤池情報量基準)などの、クラスタ数の妥当性を評価する公知の基準を用い、当該基準が最適になるようにクラスタ数を決定してもよい。   If it is determined in step 1301 that there is no cluster information, the flow line analysis unit 104 randomly determines an initial value of the cluster center (step 1302). For example, the flow line analysis unit 104 may determine the initial value of the number of cluster centers specified by the administrator. Alternatively, the flow line analysis unit 104 may use a known standard for evaluating the validity of the number of clusters, such as AIC (Akaike Information Criterion), and determine the number of clusters so that the standard is optimized.

次に、動線解析部104は、各特徴量ベクトルに対応する点とクラスタ中心との距離を算出し、各特徴量ベクトルがそれに最も近いクラスタ中心を含むクラスタ(すなわち最近傍クラスタ)に属するとの仮定に基づいて特徴量ベクトルをクラスタリングし、さらに、各クラスタに属する特徴量ベクトルの平均値を新たなクラスタ中心として決定する(ステップ1303)。   Next, the flow line analysis unit 104 calculates the distance between the point corresponding to each feature vector and the cluster center, and if each feature vector belongs to the cluster including the cluster center closest to it (that is, the nearest cluster). Based on this assumption, the feature vectors are clustered, and the average value of the feature vectors belonging to each cluster is determined as a new cluster center (step 1303).

次に、動線解析部104は、ステップ1303においてクラスタ中心が変更されたか否か、すなわち、ステップ1303において決定された新たなクラスタ中心と、その直前のクラスタ中心とが異なるか否かを判定する(ステップ1304)。クラスタ中心が変更された場合、処理はステップ1303に戻り、新たなクラスタ中心を用いたクラスタリング及びその結果に基づくクラスタ中心の計算が実行される。   Next, the flow line analysis unit 104 determines whether or not the cluster center has been changed in step 1303, that is, whether or not the new cluster center determined in step 1303 is different from the immediately preceding cluster center. (Step 1304). When the cluster center is changed, the process returns to step 1303, and clustering using the new cluster center and calculation of the cluster center based on the result are executed.

一方、クラスタ中心が変更されなかった場合、動線解析部104は、測位データから特徴量ベクトルを算出し、各特徴量ベクトルに、最近傍クラスタのIDを割り当てる。なお、以前に算出された特徴量ベクトルが残っていれば、それを使用してもよい。このようにして割り当てられたクラスタのIDが状態ラベルとして使用される。   On the other hand, when the cluster center is not changed, the flow line analysis unit 104 calculates a feature vector from the positioning data, and assigns the ID of the nearest cluster to each feature vector. If a previously calculated feature vector remains, it may be used. The cluster ID assigned in this way is used as a status label.

ステップ1301においてクラスタ情報があると判定された場合、動線解析部104は、ステップ1302〜1304を実行せずにステップ1305を実行する。   When it is determined in step 1301 that there is cluster information, the flow line analysis unit 104 executes step 1305 without executing steps 1302 to 1304.

以上でクラスタリング処理が終了する。   This completes the clustering process.

なお、ステップ1302〜1304は、従来からk−means法として知られたアルゴリズムである。本実施形態のクラスタリング処理は、公知の方法によって実行することができる。k−means法はその一例であるが、その他のアルゴリズム、例えばEM(Expectation-Maximization)法による混合正規分布の推定等が適用されてもよい。   Steps 1302 to 1304 are an algorithm conventionally known as the k-means method. The clustering process of the present embodiment can be executed by a known method. The k-means method is an example, but other algorithms such as estimation of a mixed normal distribution by an EM (Expectation-Maximization) method may be applied.

図14は、本発明の第1の実施形態のモニタリングサーバ100によって取得された状態ラベルの説明図である。   FIG. 14 is an explanatory diagram of a state label acquired by the monitoring server 100 according to the first embodiment of this invention.

図14は、監視区域のレイアウト図1401と、そのレイアウト図1401上に表示された複数の動線1402とを含む。   FIG. 14 includes a layout diagram 1401 of the monitoring area and a plurality of flow lines 1402 displayed on the layout diagram 1401.

図14には、レイアウト図1401の例として、監視区域内の地物の平面図を示すが、地物の配置を把握できる図である限り、斜視図又は鳥瞰図等が使用されてもよい。図14に例示するレイアウト図1401には、地物として、部屋1411、廊下1412、部屋1411と廊下1412とを隔てる壁1413、壁1413に設けられた出入り口1414、及び、監視区域内に配置された物品1415(例えば店舗で販売される商品又は工場で使用される資材等)が表示される。さらに上記以外の地物(例えば監視区域が屋外であれば信号機又は横断歩道等)が表示されてもよい。   FIG. 14 shows a plan view of a feature in the monitoring area as an example of the layout diagram 1401. However, a perspective view or a bird's-eye view may be used as long as the layout of the feature can be grasped. In the layout diagram 1401 illustrated in FIG. 14, the room 1411, the hallway 1412, the wall 1413 that separates the room 1411 and the hallway 1412, the doorway 1414 provided in the wall 1413, and the monitoring area are arranged as features. An article 1415 (for example, a product sold in a store or a material used in a factory) is displayed. Furthermore, features other than those described above (for example, a traffic light or a pedestrian crossing if the monitoring area is outdoors) may be displayed.

各動線1402は、一つの移動体端末140に関する測位データに含まれる座標値をレイアウト図1401上にプロットすることによって表示される。すなわち、一つの動線1402は、一人の監視対象者の移動軌跡に相当する。ただし、一人の監視対象者が監視区域を繰り返し通過した場合には、その監視対象者の移動軌跡を複数の動線1402として表示してもよい。図14には、複数の監視対象者の移動軌跡に相当する複数の動線1402が表示される。   Each flow line 1402 is displayed by plotting coordinate values included in the positioning data related to one mobile terminal 140 on the layout diagram 1401. That is, one flow line 1402 corresponds to the movement trajectory of one person to be monitored. However, when one monitoring subject repeatedly passes through the monitoring area, the movement trajectory of the monitoring subject may be displayed as a plurality of flow lines 1402. In FIG. 14, a plurality of flow lines 1402 corresponding to the movement trajectories of a plurality of monitoring subjects are displayed.

楕円によって表示される状態1403A〜1403Lは、クラスタリングによって得られたクラスタに相当する。言い換えると、状態1403A〜1403Lの各々は、クラスタリングによって分類された監視対象者の行動に対応する。   States 1403A to 1403L displayed by ellipses correspond to clusters obtained by clustering. In other words, each of the states 1403A to 1403L corresponds to the behavior of the monitoring target person classified by clustering.

図12B〜図12Dを参照して説明したように、各クラスタに含まれる特徴量ベクトルは、算出対象の測位データを含む複数の測位データから算出される。このため、各クラスタに含まれる特徴量ベクトルの算出対象の測位データが示す座標値をレイアウト図1401上にプロットすることができる。図14に表示される楕円は、各クラスタに含まれる特徴量ベクトルの算出対象の測位データが示す座標値がプロットされる範囲の概略を示す。   As described with reference to FIGS. 12B to 12D, the feature amount vector included in each cluster is calculated from a plurality of positioning data including the positioning data to be calculated. Therefore, the coordinate values indicated by the positioning data to be calculated for the feature vector included in each cluster can be plotted on the layout diagram 1401. The ellipse displayed in FIG. 14 shows the outline of the range in which the coordinate values indicated by the positioning data to be calculated for the feature vector included in each cluster are plotted.

状態1403a〜1403lには、それぞれ、識別子「a」〜「l」が付与される。これらの識別子が状態ラベルであり、前述の図13のステップ1305において割り当てられたものである。   Identifiers “a” to “l” are assigned to the states 1403a to 1403l, respectively. These identifiers are status labels, which are assigned in step 1305 of FIG.

図15は、本発明の第1の実施形態のモニタリングサーバ100によって使用される統計モデルの説明図である。   FIG. 15 is an explanatory diagram of a statistical model used by the monitoring server 100 according to the first embodiment of this invention.

具体的には、図15は、図11のステップ1102における状態ラベル遷移列に当てはめる統計モデルの例を示す。本実施形態では、統計モデルとして混合マルコフモデルが適用される例を示すが、他のモデル(例えば隠れマルコフモデル又はベイジアンネットワーク等)が適用されてもよい。   Specifically, FIG. 15 shows an example of a statistical model applied to the state label transition sequence in step 1102 of FIG. In the present embodiment, an example in which a mixed Markov model is applied as a statistical model is shown, but other models (for example, a hidden Markov model or a Bayesian network) may be applied.

動線解析部104は、クラスタリングの結果に基づいて、各動線1402上の測位データがどの状態からどの状態に遷移するか、言い換えると、各動線1402に対応する監視対象者の行動がどの状態からどの状態に遷移するか、を特定することができる。さらに、動線解析部104は、このような状態遷移の特定を複数の動線について実行することによって、状態間の遷移確率を算出することができる。   Based on the result of clustering, the flow line analysis unit 104 determines from which state the positioning data on each flow line 1402 transitions, in other words, which action of the monitoring target person corresponding to each flow line 1402 It is possible to specify which state is to be changed from the state. Furthermore, the flow line analysis unit 104 can calculate transition probabilities between states by executing identification of such state transitions for a plurality of flow lines.

ところで、監視対象者の行動の傾向は、一般に、その監視対象者の特徴によって左右される。そしてそのような行動の傾向を状態遷移の傾向として観測できる場合がある。ここで監視対象者の特徴とは、例えば、監視対象者が工場又は店舗の従業員である場合、監視対象者の作業目的等であり、監視対象者が店舗の利用客である場合、商品に対する監視対象者の好み等である。また、監視対象者が何らかの意図(例えば職務放棄又は窃盗の意図等)を持っている場合には、それも監視対象者の特徴になり得る。すなわち、監視対象者を状態遷移の傾向に従って分類することによって、類似した特徴を持った監視対象者のグループを特定できる場合がある。   By the way, the behavior tendency of the monitoring subject generally depends on the characteristics of the monitoring subject. In some cases, such a behavior tendency can be observed as a state transition tendency. Here, the characteristics of the monitoring target person are, for example, when the monitoring target person is an employee of a factory or a store, the work purpose of the monitoring target person, and when the monitoring target person is a customer of the store, This is the preference of the person being monitored. Moreover, when the monitoring subject has some intention (for example, intention of abandonment or theft), it can also be a feature of the monitoring subject. That is, there are cases where a group of monitoring subjects having similar characteristics can be identified by classifying the monitoring subjects according to the tendency of state transition.

また、このような監視対象者の特徴は、監視対象者の属性と関連する場合がある。ここで監視対象者の属性とは、例えば、監視対象者が工場又は店舗の従業員である場合、監視対象者の所属部署、担当業務又は役職等であり、監視対象者が店舗の利用客である場合、監視対象者の年齢層又は性別等である。より具体的に言えば、例えば女性客は店舗内の特定の売り場に頻繁に立ち寄るが、男性客はその売り場にほとんど立ち寄らない、といった行動の傾向の相違がありうる。このような場合には、上記のような状態遷移の傾向に基づく分類によって、監視対象者の属性とその行動の傾向との関連を分析することもできる。   In addition, such characteristics of the monitoring target person may be related to the attributes of the monitoring target person. Here, the attribute of the monitoring target is, for example, when the monitoring target is an employee of a factory or a store, the department to which the monitoring target belongs, the business in charge or the job title, and the monitoring target is a customer of the store In some cases, it is the age group or sex of the monitoring subject. More specifically, there may be a difference in behavioral tendency, for example, female customers frequently stop at a specific store in the store, but male customers rarely stop at the store. In such a case, the relationship between the attribute of the monitoring target person and the tendency of the action can be analyzed by the classification based on the tendency of the state transition as described above.

本実施形態の動線解析部104は、複数の監視対象者に関する状態遷移を複数のパターンに分類することができる。   The flow line analysis unit 104 of the present embodiment can classify state transitions related to a plurality of monitoring subjects into a plurality of patterns.

図15には、パターンごとの状態遷移図を示す。一つのパターンの状態遷移図は、図14に示す状態間の遷移を時刻ごとに表示する。例えば、状態1403a−1はある時刻における状態1403a(図14参照)に相当し、状態1403a−2は、その次の時刻における状態1403aに相当する。同様に、状態1403b−1はある時刻における状態1403bに相当し、状態1403b−2は、その次の時刻における状態1403bに相当する。状態1403k−1はある時刻における状態1403kに相当し、状態1403k−2は、その次の時刻における状態1403kに相当する。状態1403l−1はある時刻における状態1403lに相当し、状態1403l−2は、その次の時刻における状態1403lに相当する。このように、図14に示す状態1403a〜1403lが時刻ごとに表示され、それらの間の状態遷移が矢印によって表示される。そして、それぞれの状態遷移確率が計算される。   FIG. 15 shows a state transition diagram for each pattern. The state transition diagram of one pattern displays the transition between the states shown in FIG. 14 for each time. For example, the state 1403a-1 corresponds to the state 1403a (see FIG. 14) at a certain time, and the state 1403a-2 corresponds to the state 1403a at the next time. Similarly, the state 1403b-1 corresponds to the state 1403b at a certain time, and the state 1403b-2 corresponds to the state 1403b at the next time. The state 1403k-1 corresponds to the state 1403k at a certain time, and the state 1403k-2 corresponds to the state 1403k at the next time. The state 1403l-1 corresponds to the state 1403l at a certain time, and the state 1403l-2 corresponds to the state 1403l at the next time. In this way, the states 1403a to 1403l shown in FIG. 14 are displayed for each time, and the state transitions between them are displayed by arrows. And each state transition probability is calculated.

なお、状態1502Sは各監視対象者が監視区域内に入った瞬間の状態を、状態1502Gは各監視対象者が監視区域内から出た瞬間の状態を示す。以下、状態1502S及び状態1502Gを、単に状態S及び状態Gとも記載する。同様に、状態1403a〜1403lを、それぞれ、単に状態a〜状態lとも記載する
図15にはパターン1501aの状態遷移図のみを示すが、他のパターン(例えばパターン1501b及び1501c)も同様の状態遷移図によって表現することができる。ただし、状態遷移確率の値はパターンごとに異なる。なお、パターンの数としては、3個(パターン1501a〜1501c)に限らず、任意の数(例えばk個)を設定することができる。パターンの数は、例えば管理者によって指定されてもよい。
The state 1502S indicates the state at the moment when each monitoring subject enters the monitoring area, and the state 1502G indicates the state at the moment when each monitoring subject leaves the monitoring area. Hereinafter, the state 1502S and the state 1502G are also simply referred to as a state S and a state G. Similarly, states 1403a to 1403l are also simply referred to as states a to l, respectively. FIG. 15 shows only the state transition diagram of the pattern 1501a, but other patterns (for example, patterns 1501b and 1501c) also have the same state transition. It can be represented by a diagram. However, the value of the state transition probability differs for each pattern. The number of patterns is not limited to three (patterns 1501a to 1501c), and an arbitrary number (for example, k) can be set. The number of patterns may be specified by an administrator, for example.

各パターンの遷移確率はマルコフモデルに従う。状態μから状態νへの遷移確率をP(μ,ν)=ωμνとすると、例えば、状態S−状態a−状態b−状態c−状態e−状態i−状態Gと遷移する動線が得られる確率は、P(S,a)P(a,b)P(b,c)P(c,e)P(e,i)P(i,G)の掛け算によって算出される。これによって算出された値Lは、動線が確率モデルのパターンに当てはまる度合いを示す。一般には、確率の対数を用いて、ΣlogPが計算される。   The transition probability of each pattern follows a Markov model. If the transition probability from the state μ to the state ν is P (μ, ν) = ωμν, for example, a flow line that transitions from the state S-state a-state b-state c-state e-state i-state G is obtained. The probability of being calculated is calculated by multiplying P (S, a) P (a, b) P (b, c) P (c, e) P (e, i) P (i, G). The value L thus calculated indicates the degree to which the flow line is applied to the pattern of the probability model. In general, ΣlogP is calculated using the logarithm of probability.

本実施形態のモデルは、k個のマルコフモデルの足し算によって表現される。πは、それらの各々に付けられる重みである。つまり、logΣ(πΠP)によって対数尤度が求められる。   The model of the present embodiment is expressed by adding k Markov models. π is a weight attached to each of them. That is, the log likelihood is obtained by logΣ (πΠP).

状態遷移確率を示すパラメータは、例えばEM法によって算出される。例えば、動線解析部104は、各パターンにおける状態遷移確率の初期値としてランダムな値を設定する。そして、その値に基づいて、各動線の状態遷移がどのパターンに当てはまるかを推定する(Eステップ)。次に、動線解析部104は、Eステップの結果を用いてパラメータを再計算する(Mステップ)。さらに、動線解析部104は、再計算したパラメータを用いて再度Eステップを実行する。このように、パラメータが収束するまでEステップ及びMステップを繰り返す。   The parameter indicating the state transition probability is calculated by, for example, the EM method. For example, the flow line analysis unit 104 sets a random value as the initial value of the state transition probability in each pattern. Based on the value, it is estimated to which pattern the state transition of each flow line applies (E step). Next, the flow line analysis unit 104 recalculates the parameters using the result of the E step (M step). Further, the flow line analysis unit 104 executes the E step again using the recalculated parameters. In this way, the E step and the M step are repeated until the parameters converge.

図16は、本発明の第1の実施形態のモニタリングサーバ100によって実行される状態遷移抽出処理の説明図である。   FIG. 16 is an explanatory diagram of the state transition extraction process executed by the monitoring server 100 according to the first embodiment of this invention.

具体的には、図16は、図11のステップ1103において抽出される状態遷移の例を示す。   Specifically, FIG. 16 shows an example of the state transition extracted in step 1103 of FIG.

図16の例では、状態1403aから状態1403cへ向かう矢印1601が表示されている。これは、状態1403aから状態1403cへの遷移が発生していることを示す。すなわち、これらの状態間の遷移確率は0%より大きい。他の矢印(例えば状態1403cから状態1403d、1403e及び1403fのそれぞれへ向かう矢印)についても同様のことが言える。一方、状態1403aから状態1403dへ向かう矢印は表示されていない。これは、少なくとも図14に表示された動線において、状態1403aから状態1403dへの遷移が発生していないことを示す。すなわち、これらの状態間の遷移確率は0%である。   In the example of FIG. 16, an arrow 1601 from the state 1403a to the state 1403c is displayed. This indicates that a transition from the state 1403a to the state 1403c has occurred. That is, the transition probability between these states is greater than 0%. The same applies to the other arrows (for example, arrows from the state 1403c to the states 1403d, 1403e, and 1403f). On the other hand, the arrow from the state 1403a to the state 1403d is not displayed. This indicates that the transition from the state 1403a to the state 1403d does not occur at least in the flow line displayed in FIG. That is, the transition probability between these states is 0%.

このようにして抽出された状態遷移を示す情報が分析情報DB114に格納される。その詳細を、図17及び図18を参照して説明する。   Information indicating the state transition extracted in this way is stored in the analysis information DB 114. Details thereof will be described with reference to FIGS. 17 and 18.

図17は、本発明の第1の実施形態の分析情報DB114に格納される状態遷移モデルの説明図である。   FIG. 17 is an explanatory diagram of a state transition model stored in the analysis information DB 114 according to the first embodiment of this invention.

図15に示した方法によって計算された各パターンの状態遷移確率は図17に示すように格納される。具体的には、状態遷移モデル1700は、パターンID1701、始状態ラベル1702、終状態ラベル1703及び確率1704を含む。   The state transition probability of each pattern calculated by the method shown in FIG. 15 is stored as shown in FIG. Specifically, the state transition model 1700 includes a pattern ID 1701, a start state label 1702, a final state label 1703, and a probability 1704.

パターンID1701は、統計モデルのパターンを識別する。例えば、パターンID1701の値は図15に示す「k」に対応する。   A pattern ID 1701 identifies the pattern of the statistical model. For example, the value of the pattern ID 1701 corresponds to “k” shown in FIG.

始状態ラベル1702及び終状態ラベル1703は、それぞれ、状態遷移の始点及び終点のラベル(すなわちID)である。これらは、例えば、図14〜図16に示す「S」、「G」及び「a」〜「l」に対応する。   The start state label 1702 and the end state label 1703 are labels (that is, IDs) of the start point and end point of the state transition, respectively. These correspond to, for example, “S”, “G”, and “a” to “l” shown in FIGS.

確率1704は、パターンID1701、始状態ラベル1702及び終状態ラベル1703によって特定される状態遷移が発生する確率である。   The probability 1704 is a probability that the state transition specified by the pattern ID 1701, the start state label 1702, and the end state label 1703 will occur.

図17に示す情報の一組は、一つの状態遷移、例えば、図15に示す1本の矢印に対応する。分析情報DB114には、各パターンの各状態遷移に対応する情報の組が格納される。   A set of information shown in FIG. 17 corresponds to one state transition, for example, one arrow shown in FIG. The analysis information DB 114 stores a set of information corresponding to each state transition of each pattern.

図18は、本発明の第1の実施形態の分析情報DB114に格納されるクラスタ情報の説明図である。   FIG. 18 is an explanatory diagram of cluster information stored in the analysis information DB 114 according to the first embodiment of this invention.

図18に示すクラスタ情報1800は、クラスタリングによって取得されたクラスタに関する情報である。具体的には、クラスタ情報1800は、クラスタ形状1801及びクラスタID1802を含む。   Cluster information 1800 illustrated in FIG. 18 is information regarding the cluster acquired by clustering. Specifically, the cluster information 1800 includes a cluster shape 1801 and a cluster ID 1802.

クラスタ形状1801は、各クラスタの中心位置を示す。   A cluster shape 1801 indicates the center position of each cluster.

クラスタID1802は、各クラスタを識別する情報である。なお、既に説明したように原則的には一つのクラスタが一つの状態に対応するため、クラスタID1802の値は状態ラベル(例えば図14〜図16に示す「a」〜「l」)に対応する。   The cluster ID 1802 is information for identifying each cluster. As described above, since one cluster basically corresponds to one state, the value of the cluster ID 1802 corresponds to a state label (for example, “a” to “l” shown in FIGS. 14 to 16). .

図18に示すクラスタ情報1800の一組は、一つの状態、例えば、図14に示す一つの楕円に対応する。分析情報DB114には、各状態に対応する情報の組が格納される。なお、図15に示すように統計モデルが複数のパターンに分類される場合であっても、各状態に対応するクラスタの中心位置は、パターンごとに相違しない。このため、クラスタ情報1800はパターンIDを含まない。   A set of cluster information 1800 illustrated in FIG. 18 corresponds to one state, for example, one ellipse illustrated in FIG. The analysis information DB 114 stores a set of information corresponding to each state. Even if the statistical model is classified into a plurality of patterns as shown in FIG. 15, the center position of the cluster corresponding to each state is not different for each pattern. For this reason, the cluster information 1800 does not include a pattern ID.

本実施形態及びその他の実施形態において説明するように、本発明では分析の粒度の調整が行われ、その結果、一つのクラスタが複数に分割されたり、複数のクラスタが統合されて一つの状態に対応付けられたりする場合がある。そのような調整の結果も全て図17及び図18に示す分析情報DB114に反映される。分析情報DB114に格納された情報は、必要に応じて読み出され、動線解析部104によって動線解析処理に使用される。さらに、必要に応じて画面表示装置120によって表示されてもよい。   As will be described in this embodiment and other embodiments, in the present invention, the granularity of analysis is adjusted. As a result, one cluster is divided into a plurality of clusters, or a plurality of clusters are integrated into one state. May be associated. The results of such adjustment are all reflected in the analysis information DB 114 shown in FIGS. Information stored in the analysis information DB 114 is read out as necessary, and is used by the flow line analysis unit 104 for flow line analysis processing. Furthermore, it may be displayed by the screen display device 120 as necessary.

図19は、本発明の第1の実施形態の画面表示装置120によって表示される分析状況提示処理の出力画面の説明図である。   FIG. 19 is an explanatory diagram of an output screen of analysis status presentation processing displayed by the screen display device 120 according to the first embodiment of this invention.

分析条件設定画面生成部106は、図3のステップ322において、図19に示す画面1900を画面表示装置120に表示させる。画面1900は、レイアウト図1901、調整ボタン1903、終了ボタン1904及びパターン選択ボックス1905を含む。   The analysis condition setting screen generation unit 106 displays the screen 1900 shown in FIG. 19 on the screen display device 120 in step 322 of FIG. A screen 1900 includes a layout diagram 1901, an adjustment button 1903, an end button 1904, and a pattern selection box 1905.

レイアウト図1901は、図14に示したレイアウト図1401と同様である。レイアウト図1901上には、図14と同様の状態1403a〜1403l及び状態遷移を示す矢印1601が表示される。   The layout diagram 1901 is the same as the layout diagram 1401 shown in FIG. On the layout diagram 1901, states 1403a to 1403l similar to those in FIG. 14 and an arrow 1601 indicating the state transition are displayed.

管理者は、パターン選択ボックス1905を操作して、表示されるパターンを選択することができる。図19の例では「パターンA」が表示される。このパターンは、例えば、図15に示した複数のパターン1501a〜1501cのいずれかである。図16の例では状態1403eから状態1403iへの遷移が表示されているが、例えばパターンAにおいてその遷移が発生する確率が0%である場合、状態1403i及びそこに向かう矢印が表示されなくてもよい。他の状態及びそこに向かう矢印についても同様である。   The administrator can select a pattern to be displayed by operating the pattern selection box 1905. In the example of FIG. 19, “pattern A” is displayed. This pattern is, for example, one of the plurality of patterns 1501a to 1501c shown in FIG. In the example of FIG. 16, the transition from the state 1403e to the state 1403i is displayed. However, for example, when the probability that the transition occurs in the pattern A is 0%, the state 1403i and the arrow toward the state 1403i may not be displayed. Good. The same applies to the other states and the arrows directed there.

管理者は、画面1900に表示された状態遷移を参照して、分析条件が妥当であると判定した場合(ステップ323)、終了ボタン1904を操作する。この場合、処理はステップ326に進む。一方、管理者は、分析条件が妥当でないと判定した場合、調整ボタン1903を操作する。この場合、処理はステップ324に進む。   When the administrator refers to the state transition displayed on the screen 1900 and determines that the analysis condition is appropriate (step 323), the administrator operates the end button 1904. In this case, the process proceeds to step 326. On the other hand, if the administrator determines that the analysis condition is not valid, the administrator operates the adjustment button 1903. In this case, the process proceeds to step 324.

例えば、画面1900に表示された状態1403a〜1403lのいずれかが大きすぎる(すなわちそれに対応するクラスタが大きすぎる)と管理者が考えた場合に、分析条件が妥当でないと判定してもよい。より詳細には、例えば、管理者が詳細に分析したいと考えている行動が行われる場所に、状態が一つしか表示されておらず、その状態を複数に分割したいと管理者が考えた場合に、分析条件が妥当でないと判定してもよい。   For example, when the administrator thinks that any of the states 1403a to 1403l displayed on the screen 1900 is too large (that is, the corresponding cluster is too large), the analysis condition may be determined to be invalid. More specifically, for example, when the administrator wants to divide the state into multiple parts where only one state is displayed at the place where the action that the administrator wants to analyze in detail is performed. In addition, it may be determined that the analysis conditions are not appropriate.

なお、調整ボタン1903、終了ボタン1904及びパターン選択ボックス1905の操作は、管理者による入力装置203の操作(例えばマウスクリック)である。   Note that operations of the adjustment button 1903, the end button 1904, and the pattern selection box 1905 are operations of the input device 203 (for example, mouse click) by the administrator.

図20は、本発明の第1の実施形態のモニタリングサーバ100が実行する分析条件設定画面提示処理を示すフローチャートである。   FIG. 20 is a flowchart illustrating analysis condition setting screen presentation processing executed by the monitoring server 100 according to the first embodiment of this invention.

図20に示す処理は、図3のステップ324において、分析条件設定画面生成部106によって実行される。   The process shown in FIG. 20 is executed by the analysis condition setting screen generation unit 106 in step 324 of FIG.

最初に、分析条件設定画面生成部106は、分析条件受付画面提示処理を実行する(ステップ2001)。この処理については、図21を参照して後述する。   First, the analysis condition setting screen generation unit 106 executes an analysis condition reception screen presentation process (step 2001). This process will be described later with reference to FIG.

次に、分析条件設定画面生成部106は、分析条件調整用画面提示処理を実行する(ステップ2002)。この処理については、図22等を参照して後述する。   Next, the analysis condition setting screen generation unit 106 executes an analysis condition adjustment screen presentation process (step 2002). This process will be described later with reference to FIG.

以上で分析条件設定画面提示処理が終了する。   Thus, the analysis condition setting screen presentation process ends.

図21は、本発明の第1の実施形態のモニタリングサーバ100が実行する分析条件受付画面提示処理の説明図である。   FIG. 21 is an explanatory diagram of an analysis condition reception screen presentation process executed by the monitoring server 100 according to the first embodiment of this invention.

分析条件設定画面生成部106は、図20のステップ2001において、図21に示す画面2100を画面表示装置120に表示させる。   The analysis condition setting screen generation unit 106 displays the screen 2100 shown in FIG. 21 on the screen display device 120 in step 2001 of FIG.

画面2100は、レイアウト図2101、分析粒度設定部2102及び終了ボタン2104を含む。   The screen 2100 includes a layout diagram 2101, an analysis granularity setting unit 2102, and an end button 2104.

レイアウト図2101は、図14に示したレイアウト図1401と同様である。レイアウト図2101上には、図14と同様に、状態1403a〜1403l及び複数の動線1402が表示される。さらに、レイアウト図2101上には、調整範囲2111及び範囲指定カーソル2112が表示される。   The layout diagram 2101 is the same as the layout diagram 1401 shown in FIG. On the layout diagram 2101, states 1403a to 1403l and a plurality of flow lines 1402 are displayed as in FIG. Further, an adjustment range 2111 and a range designation cursor 2112 are displayed on the layout diagram 2101.

管理者は、入力装置203を用いて範囲指定カーソル2112を操作することによって、これから分析粒度を調整しようとするクラスタ(すなわち状態1403a〜1403lの少なくとも一つ)を含む調整範囲2111を指定することができる。すなわち、調整範囲2111に含まれる状態1403に対応するクラスタが、分析粒度を調整する対象として指定される。   The administrator can designate the adjustment range 2111 including the cluster (that is, at least one of the states 1403a to 1403l) from which the analysis granularity is to be adjusted by operating the range designation cursor 2112 using the input device 203. it can. That is, the cluster corresponding to the state 1403 included in the adjustment range 2111 is designated as the target for adjusting the analysis granularity.

例えば、管理者は、監視区域のうち、特に監視対象者の行動を詳細に分析したい領域(例えば店舗内の特定の商品の売り場等)を調整範囲2111として指定してもよい。   For example, the administrator may specify, as the adjustment range 2111, an area (for example, a sales floor for a specific product in a store) in which the behavior of the monitoring target person is particularly analyzed in detail.

分析粒度設定部2102は、粒度設定ノブ2103を含む。管理者は、入力装置203を用いて粒度設定ノブ2103を操作することによって、分析粒度を指定することができる。例えば、分析粒度をより細かくしたい場合、管理者は、粒度設定ノブ2103を左に移動させてもよい。なお、このようなノブを用いた粒度の指定は一例であり、他の方法、例えば、粒度をより細かくする又はより粗くする指示に対応するアイコンを操作することによって粒度が指定されてもよい。   The analysis particle size setting unit 2102 includes a particle size setting knob 2103. The administrator can designate the analysis granularity by operating the granularity setting knob 2103 using the input device 203. For example, in order to make the analysis granularity finer, the administrator may move the granularity setting knob 2103 to the left. The designation of the granularity using such a knob is an example, and the granularity may be designated by another method, for example, by operating an icon corresponding to an instruction to make the granularity finer or coarser.

管理者は、調整範囲2111及び分析粒度の指定が終了すると、終了ボタン2104を操作する。これによって、図20のステップ2001、すなわち、調整対象のクラスタの指定及びそのクラスタの分析粒度の指定が終了する。   When the administrator specifies the adjustment range 2111 and the analysis granularity, the administrator operates the end button 2104. This completes step 2001 in FIG. 20, that is, the designation of the cluster to be adjusted and the designation of the analysis granularity of the cluster.

このようにして指定された調整範囲2111に含まれる全てのクラスタについて、指定された分析粒度の調整(すなわち粒度を細かくする又は粗くする)が実行されてもよいが、それらのうち少なくとも一つのクラスタについて、粒度を調整するか否かを管理者がセンサ情報に基づいて判定してもよい。このような判定及び粒度の調整の手順について以下に説明する。   The adjustment of the specified analysis granularity (that is, the finer or coarser granularity) may be performed for all the clusters included in the adjustment range 2111 specified in this way, but at least one of these clusters may be executed. The administrator may determine whether to adjust the granularity based on the sensor information. The procedure for such determination and adjustment of the granularity will be described below.

図22は、本発明の第1の実施形態のモニタリングサーバ100が実行する分析条件調整用画面提示処理を示すフローチャートである。   FIG. 22 is a flowchart illustrating the analysis condition adjustment screen presentation process executed by the monitoring server 100 according to the first embodiment of this invention.

図22に示す処理は、図20のステップ2002において実行される。   The process shown in FIG. 22 is executed in step 2002 of FIG.

最初に、分析条件設定画面生成部106が対象歩行者選択処理を実行する(ステップ2201)。この処理については、図23を参照して後述する。なお、ここで歩行者とは、監視対象者を意味する。   First, the analysis condition setting screen generation unit 106 executes target pedestrian selection processing (step 2201). This process will be described later with reference to FIG. Here, the pedestrian means a person to be monitored.

次に、センサ・測位統合部103がセンサ・測位対応処理を実行する(ステップ2202)。この処理については、図24を参照して後述する。   Next, the sensor / positioning integration unit 103 executes sensor / positioning correspondence processing (step 2202). This process will be described later with reference to FIG.

次に、分析条件設定画面生成部106がセンサ情報提示画面生成処理を実行する(ステップ2203)。この処理については、図25を参照して後述する。   Next, the analysis condition setting screen generation unit 106 executes sensor information presentation screen generation processing (step 2203). This process will be described later with reference to FIG.

以上で分析条件調整用画面提示処理が終了する。   Thus, the analysis condition adjustment screen presentation process is completed.

図23は、本発明の第1の実施形態のモニタリングサーバ100が実行する対象歩行者選択処理(ステップ2201)の説明図である。   FIG. 23 is an explanatory diagram of a target pedestrian selection process (step 2201) executed by the monitoring server 100 according to the first embodiment of this invention.

最初に、分析条件設定画面生成部106は、調整範囲2111に含まれるクラスタのうち、複数の行動を含む可能性が最も高いクラスタ(言い換えると、含まれている行動を複数に分類できる可能性が最も高いクラスタ)を、変更対象の候補として選択する。   First, the analysis condition setting screen generation unit 106 is most likely to include a plurality of actions among the clusters included in the adjustment range 2111 (in other words, there is a possibility that the included actions may be classified into a plurality of actions). The highest cluster) is selected as a candidate for change.

具体的には、例えば、調整範囲2111に含まれるクラスタのうち、大きさが所定の閾値を超える一つ以上のクラスタが選択されてもよいし、あるいは、最も大きいクラスタのみが選択されてもよい。クラスタの大きさは、例えば、クラスタの半径又はクラスタに含まれる特徴量ベクトルの数によって定められる。ここで、クラスタの半径とは、例えばクラスタの中心と、そのクラスタ内の中心から最も離れた特徴量ベクトルと、の間の距離であるが、特徴量ベクトルが示す座標値の偏差に基づく値(例えば標準偏差の値)がクラスタの半径として計算されてもよい。半径が大きいクラスタほど、相違の大きい特徴量ベクトルを含んでいる。二つの特徴量ベクトルの相違が大きいほど、それらに対応する行動が異なる可能性が高いとの推測に基づいて、半径が最も大きいクラスタが変更対象の候補として選択されてもよい。あるいは、含んでいる特徴量ベクトルの数が多いクラスタほど複数の行動を含む可能性が高いとの推測に基づいて、含んでいる特徴量ベクトルの数が最も多いクラスタが選択されてもよい。   Specifically, for example, among the clusters included in the adjustment range 2111, one or more clusters having a size exceeding a predetermined threshold may be selected, or only the largest cluster may be selected. . The size of the cluster is determined by, for example, the radius of the cluster or the number of feature vectors included in the cluster. Here, the radius of the cluster is, for example, the distance between the center of the cluster and the feature vector farthest from the center in the cluster, and is a value based on the deviation of the coordinate value indicated by the feature vector ( For example, a standard deviation value) may be calculated as the radius of the cluster. A cluster having a larger radius includes a feature vector having a larger difference. The cluster having the largest radius may be selected as a candidate for change based on the assumption that the greater the difference between the two feature quantity vectors, the higher the possibility that the behavior corresponding to them is different. Alternatively, a cluster having the largest number of included feature amount vectors may be selected based on the assumption that a cluster having a larger number of included feature amount vectors is more likely to include a plurality of actions.

次に、分析条件設定画面生成部106は、選択されたクラスタに含まれる複数の特徴量ベクトルから二つを選択する。例えば、選択されたクラスタに含まれる特徴量ベクトルのうち最も離れた二つが選択されてもよい。あるいは、選択されたクラスタに含まれる複数の特徴量ベクトルを対象として分析条件設定画面生成部106がさらにクラスタリングを実行して二つのクラスタを生成し、それぞれの中心に最も近い二つの特徴量ベクトルを選択してもよい。   Next, the analysis condition setting screen generation unit 106 selects two from a plurality of feature amount vectors included in the selected cluster. For example, the two most distant feature vectors included in the selected cluster may be selected. Alternatively, the analysis condition setting screen generation unit 106 further performs clustering on a plurality of feature quantity vectors included in the selected cluster to generate two clusters, and the two feature quantity vectors closest to the respective centers are obtained. You may choose.

なお、ここでは二つの特徴量ベクトルを選択する例を示したが、三つ以上の特徴量ベクトルが選択されてもよい。例えば、選択されたクラスタを対象として分析条件設定画面生成部106がクラスタリングを実行することによって三つ以上のクラスタを生成してもよい。   Although an example in which two feature quantity vectors are selected is shown here, three or more feature quantity vectors may be selected. For example, three or more clusters may be generated by the analysis condition setting screen generation unit 106 executing clustering for the selected clusters.

このようにして選択された特徴量ベクトルは、図14に示す方法によって算出されたものであるから、それらの特徴量ベクトルに対応する測位データを特定することができる。特定された測位データからは、その測位データが、どの時刻に、どの位置に、どの監視対象者がいたことを示すものであるかを特定することができる(図6参照)。   Since the feature quantity vectors selected in this way are calculated by the method shown in FIG. 14, the positioning data corresponding to these feature quantity vectors can be specified. From the specified positioning data, it can be specified which positioning data indicates which monitoring target person is at which position at which time (see FIG. 6).

図24は、本発明の第1の実施形態のモニタリングサーバ100が実行するセンサ・測位対応処理を示すフローチャートである。   FIG. 24 is a flowchart illustrating sensor / positioning corresponding processing executed by the monitoring server 100 according to the first embodiment of this invention.

図24に示す処理は、図22のステップ2202において実行される。   The process shown in FIG. 24 is executed in step 2202 of FIG.

最初に、センサ・測位統合部103は、監視区域に設置された各センサ130のセンシング領域を取得する(ステップ2401)。センシング領域とは、各センサ130によってセンシング可能な領域であり、具体的には、センサパラメータ1000に含まれる設置箇所1003及びセンサパラメータ1004に基づいて特定される。より具体的には、例えばセンサ130が監視カメラである場合、その監視カメラによって撮影される範囲が特定され、特定された範囲を示す情報がセンシング領域として取得される。   First, the sensor / positioning integration unit 103 acquires the sensing area of each sensor 130 installed in the monitoring area (step 2401). The sensing area is an area that can be sensed by each sensor 130, and is specifically specified based on the installation location 1003 and the sensor parameter 1004 included in the sensor parameter 1000. More specifically, for example, when the sensor 130 is a monitoring camera, a range captured by the monitoring camera is specified, and information indicating the specified range is acquired as a sensing region.

次に、センサ・測位統合部103は、図22のステップ2201において特定された測位データに対応するセンサ130を検索する(ステップ2402)。具体的には、センサ・測位統合部103は、ステップ2401において取得されたセンシング領域と、ステップ2201において特定された測位データが示す時刻及び位置と、に基づいて、当該測位データが示す時刻に、当該測位データが示す位置をセンシング可能であったセンサ130のセンサIDを特定する。   Next, the sensor / positioning integration unit 103 searches for the sensor 130 corresponding to the positioning data specified in Step 2201 of FIG. 22 (Step 2402). Specifically, the sensor / positioning integration unit 103 determines, based on the sensing area acquired in Step 2401 and the time and position indicated by the positioning data specified in Step 2201, at the time indicated by the positioning data. The sensor ID of the sensor 130 capable of sensing the position indicated by the positioning data is specified.

次に、センサ・測位統合部103は、特定されたセンサIDによって識別されるセンサ130が、当該測位データが示す時刻に取得したセンサ情報をセンサ情報DB111から取得する(ステップ2403)。例えば、特定されたセンサ130が監視カメラである場合、ステップ2403で取得されるセンサ情報は、当該測位データが示す時刻に当該監視カメラが撮影した画像データである。   Next, the sensor / positioning integration unit 103 acquires, from the sensor information DB 111, the sensor information acquired by the sensor 130 identified by the specified sensor ID at the time indicated by the positioning data (step 2403). For example, when the identified sensor 130 is a monitoring camera, the sensor information acquired in step 2403 is image data captured by the monitoring camera at the time indicated by the positioning data.

以上でセンサ・測位対応処理が終了する。   This completes the sensor / positioning processing.

図25は、本発明の第1の実施形態の画面表示装置120によって表示されるセンサ情報提示画面の説明図である。   FIG. 25 is an explanatory diagram of a sensor information presentation screen displayed by the screen display device 120 according to the first embodiment of this invention.

分析条件設定画面生成部106は、図22のステップ2203において、センサ情報提示画面2500を画面表示装置120に表示させる。センサ情報提示画面2500は、第1センサ情報表示部2501、第1歩行者情報表示部2502、第2センサ情報表示部2503、第2歩行者情報表示部2504、「区別あり」ボタン2505、「不明」ボタン2506及び「区別なし」ボタン2507を含む。   The analysis condition setting screen generation unit 106 displays the sensor information presentation screen 2500 on the screen display device 120 in step 2203 of FIG. The sensor information presentation screen 2500 includes a first sensor information display unit 2501, a first pedestrian information display unit 2502, a second sensor information display unit 2503, a second pedestrian information display unit 2504, a “with distinction” button 2505, and an “unknown” "Button 2506 and" no distinction "button 2507.

既に説明したように、図22のステップ2201では二つの測位データが特定され、ステップ2202ではそれぞれの測位データに対応するセンサ情報が取得される。第1センサ情報表示部2501及び第2センサ情報表示部2503には、このようにして取得されたそれぞれの測位データに対応するセンサ情報(図25の例では監視カメラが撮影した画像)が表示される。   As already described, two positioning data are specified in step 2201 of FIG. 22, and sensor information corresponding to each positioning data is acquired in step 2202. The first sensor information display unit 2501 and the second sensor information display unit 2503 display sensor information (images taken by the monitoring camera in the example of FIG. 25) corresponding to the positioning data acquired in this way. The

第1歩行者情報表示部2502及び第2歩行者情報表示部2504には、それぞれ、第1センサ情報表示部2501及び第2センサ情報表示部2503に表示されたセンサ情報に対応する監視対象者に関する情報が表示される。上記のように、それぞれのセンサ情報には測位データが対応付けられ、それぞれの測位データがどの監視対象者に関するものであるかを特定することができるため、第1歩行者情報表示部2502及び第2歩行者情報表示部2504には、それぞれの監視対象者に関する情報、例えば、各監視対象者の性別、各監視対象者が監視区域に入った時刻及び監視区域に滞在した時間等が表示される。   The first pedestrian information display unit 2502 and the second pedestrian information display unit 2504 relate to the monitoring target person corresponding to the sensor information displayed on the first sensor information display unit 2501 and the second sensor information display unit 2503, respectively. Information is displayed. As described above, since the positioning data is associated with each sensor information and it is possible to specify which monitoring target person each positioning data relates to, the first pedestrian information display unit 2502 and the second 2 In the pedestrian information display section 2504, information on each monitored person, for example, the gender of each monitored person, the time when each monitored person entered the monitored area, the time spent in the monitored area, and the like are displayed. .

なお、監視対象者の性別を表示するためには、モニタリングサーバ100が各監視対象者の識別子(図6に示す歩行者ID)と、その監視対象者の性別とを対応付ける情報を保持する必要がある。同様に、各監視対象者とその年齢、性別、担当業務又は役職等の属性を対応付ける情報が保持されている場合、それらの属性が第1歩行者情報表示部2502及び第2歩行者情報表示部2504に表示されてもよい。   In order to display the gender of the monitoring subject, it is necessary for the monitoring server 100 to retain information that associates the identifier of each monitoring subject (pedestrian ID shown in FIG. 6) with the gender of the monitoring subject. is there. Similarly, when information associating each monitoring target person with attributes such as age, gender, assigned duties or job title is held, these attributes are the first pedestrian information display unit 2502 and the second pedestrian information display unit. It may be displayed at 2504.

また、各監視対象者が監視区域に入った時刻及び監視区域に滞在した時間は、各監視対象者に対応する動線に含まれる測位データの取得時刻に基づいて特定することができる。   Moreover, the time when each monitoring subject entered the monitoring area and the time spent in the monitoring zone can be specified based on the acquisition time of the positioning data included in the flow line corresponding to each monitoring subject.

上記のように、第1センサ情報表示部2501及び第2センサ情報表示部2503には、図22のステップ2201で特定された二つの測位データに対応するセンサ情報、すなわち、それぞれの測位データが取得された時刻にそれぞれの測位データが示す位置を含む領域を監視カメラが撮影した画像が表示される。すなわち、それぞれの測位データに対応する監視対象者がそれらの画像に写っている可能性が高い。すなわち、管理者がそれらの画像を参照して、それぞれの監視対象者がどのような行動を行っているかを特定できる可能性が高い。   As described above, the first sensor information display unit 2501 and the second sensor information display unit 2503 acquire sensor information corresponding to the two positioning data specified in step 2201 of FIG. 22, that is, the respective positioning data. At this time, an image obtained by photographing the area including the position indicated by each positioning data by the monitoring camera is displayed. That is, there is a high possibility that the monitoring subject corresponding to each positioning data is reflected in those images. That is, there is a high possibility that the administrator can identify what action each monitoring target person is performing by referring to those images.

このため、管理者は、第1センサ情報表示部2501及び第2センサ情報表示部2503に表示された画像を参照して、ステップ2201において特定された二つの特徴量ベクトルに対応する二つの行動を異なる行動として区別すべきか、区別すべきでないか(すなわち同一の行動に分類すべきか)を判定する。管理者は、これらを区別すべきであると判定した場合、「区別あり」ボタン2505を操作し、区別すべきでないと判定した場合、「区別なし」ボタン2507を操作する。   For this reason, the administrator refers to the images displayed on the first sensor information display unit 2501 and the second sensor information display unit 2503 and performs two actions corresponding to the two feature vectors specified in step 2201. It is determined whether they should be distinguished as different actions or not (ie, should be classified into the same action). When it is determined that they should be distinguished, the administrator operates a “distinguishment” button 2505, and when it is determined that they should not be distinguished, the administrator operates a “no distinction” button 2507.

一方、表示された画像に基づいて区別すべきか否かを判定することが困難であった場合、管理者は、「不明」ボタン2506を操作する。この場合、分析条件設定画面生成部106は、再びステップ2201を実行して、前回とは異なる二つの特徴量ベクトルを選択する。例えば、分析条件設定画面生成部106は、選択されたクラスタに含まれる特徴量ベクトルのうち、前回選択された特徴量ベクトルの次に距離が離れている特徴量ベクトルの組を選択してもよい。そして、再びステップ2202及び2203が実行され、新たに選択された特徴量ベクトルに対応するセンサ情報が表示される。   On the other hand, when it is difficult to determine whether or not to distinguish based on the displayed image, the administrator operates the “unknown” button 2506. In this case, the analysis condition setting screen generation unit 106 executes step 2201 again to select two feature quantity vectors different from the previous one. For example, the analysis condition setting screen generation unit 106 may select a set of feature quantity vectors having a distance next to the previously selected feature quantity vector from the feature quantity vectors included in the selected cluster. . Then, steps 2202 and 2203 are executed again, and sensor information corresponding to the newly selected feature vector is displayed.

一般に、測位データのみから算出された特徴量ベクトルに基づいて監視対象者の行動を分析する場合、管理者が望んだとおりに行動を分類できるとは限らない。しかし、上記のように、測位データに対応付けられたセンサデータを管理者が参照して二つの行動を分類するか否かを判定することによって、管理者の目的に応じた適切な行動の分析を行うことが可能になる。   In general, when analyzing a behavior of a monitoring target person based on a feature vector calculated only from positioning data, it is not always possible to classify the behavior as desired by the administrator. However, as described above, the administrator refers to the sensor data associated with the positioning data, and determines whether to classify the two actions, thereby analyzing the appropriate action according to the purpose of the administrator. It becomes possible to do.

なお、図25にはセンサ情報として監視カメラが撮影した画像が表示される例を示したが、それ以外のセンサ情報が提示されてもよい。例えばセンサ130がマイクロフォンである場合、ステップ2203において音声が再生されてもよい(第2実施形態参照)。その場合、管理者は、再生された音声に基づいて各監視対象者が行った行動を特定し、それに基づいて二つの行動を区別するか否かを判定することができる。   In addition, although the example which displays the image which the monitoring camera image | photographed as sensor information was shown in FIG. 25, sensor information other than that may be shown. For example, when the sensor 130 is a microphone, sound may be reproduced in step 2203 (see the second embodiment). In that case, the administrator can specify the action performed by each monitoring target person based on the reproduced voice and determine whether to distinguish the two actions based on the action.

あるいはセンサ130が販売履歴を記録する自動販売機である場合、センサ情報提示画面2500にはその販売履歴が表示されてもよい。その場合、管理者は、例えば、表示された販売履歴に基づいて監視対象者が商品を購入したか否かを判定し、それに基づいて二つの行動を区別するか否かを判定することができる。   Alternatively, when the sensor 130 is a vending machine that records a sales history, the sales history may be displayed on the sensor information presentation screen 2500. In that case, for example, the administrator can determine whether or not the monitoring target person has purchased the product based on the displayed sales history, and can determine whether or not to distinguish between the two actions based on it. .

また、管理者は、上記のようなセンサ情報を用いずに、二つの行動を区別すべきか否かを判定することもできる。例えば、モニタリングサーバ100は、ステップ2201において特定された二つの測位データの各々が、いつ、どこに、どの監視対象者がいたことを示す情報であるかを示す情報を管理者に提示してもよい。管理者は、このようにして特定された各監視対象者から、特定された時刻及び位置においてどのような行動を行っていたかを聞き出し、それに基づいて二つの行動を区別するか否かを判定してもよい。   Further, the administrator can determine whether or not the two actions should be distinguished without using the sensor information as described above. For example, the monitoring server 100 may present to the administrator information indicating when, where, and which monitoring target person each of the two positioning data identified in Step 2201 is. . The administrator asks each monitoring subject identified in this manner what kind of behavior was being performed at the identified time and position, and determines whether or not to distinguish between the two behaviors based on that. May be.

図26は、本発明の第1の実施形態のモニタリングサーバ100が実行する分析条件調整処理を示すフローチャートである。   FIG. 26 is a flowchart illustrating analysis condition adjustment processing executed by the monitoring server 100 according to the first embodiment of this invention.

センサ情報提示画面2500において「区別あり」ボタン2505が操作されると、分析条件調整処理が実行される。   When the “with distinction” button 2505 is operated on the sensor information presentation screen 2500, analysis condition adjustment processing is executed.

最初に、分析条件調整部105は、動線解析パラメータを算出する(ステップ2601)。具体的には、分析条件調整部105は、図22のステップ2201において選択されたクラスタを分割し、分割されたそれぞれのクラスタの中心位置を特定し、それらのクラスタに新たな識別子(すなわち状態ラベル)を付与する。   First, the analysis condition adjustment unit 105 calculates a flow line analysis parameter (step 2601). Specifically, the analysis condition adjustment unit 105 divides the clusters selected in step 2201 of FIG. 22, specifies the center positions of the divided clusters, and adds new identifiers (that is, state labels) to these clusters. ).

クラスタの分割は、種々の方法によって行うことができる。例えば、ステップ2201において、当該クラスタ内で最も離れた二つの特徴量ベクトルが選択された場合、分析条件調整部105は、当該クラスタを、選択された二つの特徴量ベクトルに対応する新たな二つのクラスタに分割し、当該クラスタ内の残りの特徴量ベクトルを、選択された二つの特徴量ベクトルのうち距離が近い方に対応するクラスタに分類してもよい。その場合、分析条件調整部105は、新たな二つのクラスタの中心位置を算出し、状態ラベルを付与する。   The cluster can be divided by various methods. For example, when the two most distant feature vectors in the cluster are selected in step 2201, the analysis condition adjustment unit 105 selects the two new feature vectors corresponding to the selected two feature vectors. It may be divided into clusters, and the remaining feature vectors in the cluster may be classified into clusters corresponding to the closer one of the two selected feature vectors. In that case, the analysis condition adjustment unit 105 calculates the center positions of the two new clusters and assigns a state label.

あるいは、動線解析部104が当該クラスタのみを対象として、当該クラスタをさらに二つのクラスタに分割するためのクラスタリングを実行し、分析条件調整部105が分割されたクラスタの中心位置を算出し、状態ラベルを付与してもよい。このとき、動線解析部104は、ステップ2201において選択された二つの特徴量ベクトルを初期クラスタ中心としてクラスタリングを実行してもよい。   Alternatively, the flow line analysis unit 104 performs clustering for dividing the cluster into two clusters only for the cluster, and the analysis condition adjustment unit 105 calculates the center position of the divided cluster. A label may be given. At this time, the flow line analysis unit 104 may execute clustering using the two feature vectors selected in Step 2201 as the initial cluster centers.

次に、分析条件調整部105は、算出された動線解析パラメータを分析情報DB114に反映させる(ステップ2602)。具体的には、分析条件調整部105は、ステップ2601において算出した新たなクラスタの中心位置と、それらに付与された識別子とを、分析情報DB114にクラスタ情報1800として格納する。このとき、分割の対象となったクラスタ(すなわち分割される前のクラスタ)に関する情報は、分析情報DB114から削除される。   Next, the analysis condition adjustment unit 105 reflects the calculated flow line analysis parameter in the analysis information DB 114 (step 2602). Specifically, the analysis condition adjustment unit 105 stores the new cluster center positions calculated in step 2601 and the identifiers assigned to them as cluster information 1800 in the analysis information DB 114. At this time, information regarding the cluster to be divided (that is, the cluster before being divided) is deleted from the analysis information DB 114.

次に、分析条件調整部105は、動線解析部104に動線解析処理の再実行を要求する(ステップ2603)。この要求を受けた動線解析部104は、ステップ2602において更新された分析情報DB114に基づいて、動線解析処理(図11等)を実行する。ただし、この場合、上記のように更新されたクラスタ情報1800が既に分析情報DB114に格納されているため、クラスタリング処理(図13)のステップ1301において、「クラスタ情報がある」と判定される。このため、クラスタリングの実行(ステップ1302〜1304)は省略され、ステップ2602において更新された分析情報DB114がステップ1102以降の処理において参照される。   Next, the analysis condition adjustment unit 105 requests the flow line analysis unit 104 to re-execute the flow line analysis process (step 2603). Upon receiving this request, the flow line analysis unit 104 executes a flow line analysis process (FIG. 11 and the like) based on the analysis information DB 114 updated in step 2602. However, in this case, since the cluster information 1800 updated as described above is already stored in the analysis information DB 114, it is determined that “there is cluster information” in step 1301 of the clustering process (FIG. 13). Therefore, the execution of clustering (steps 1302 to 1304) is omitted, and the analysis information DB 114 updated in step 2602 is referred to in the processing after step 1102.

以上で分析条件調整処理が終了する。   The analysis condition adjustment process is thus completed.

管理者は、動線解析処理の再実行の結果を参照して(図19)、その結果が十分であるか、具体的には、管理者が区別したい行動がそれぞれ異なる状態(すなわちクラスタ)に対応しているか否かを判定することができる。この判定のために、既に説明した手順に従って、図25に示す画面を参照することもできる。再実行の結果が十分なものである(すなわちこれ以上行動を細かく分類する必要がない)と判定された場合、終了ボタン1904又は「区別なし」ボタン2507が操作され、図3に示した全ての処理が終了する。   The administrator refers to the result of the re-execution of the flow line analysis process (FIG. 19), and whether the result is sufficient, specifically, the actions that the administrator wants to distinguish are in different states (that is, clusters). It can be determined whether or not it is compatible. For this determination, the screen shown in FIG. 25 can be referred to in accordance with the procedure already described. When it is determined that the result of the re-execution is sufficient (ie, it is not necessary to classify the action further), the end button 1904 or the “no distinction” button 2507 is operated, and all the operations shown in FIG. The process ends.

以上の本発明の第1の実施形態によれば、監視対象者の行動を動線に基づいて分析するときに、クラスタリングによって自動的に行動を分類するだけでなく、管理者の指定に従って、分析の粒度(すなわち行動の分類の細かさ)を調整することができる。これによって、監視対象者の位置情報から、管理者の分析目的に応じて、必要な情報を抽出することができる。   According to the first embodiment of the present invention described above, when analyzing the behavior of the monitoring target person based on the flow line, not only the behavior is automatically classified by clustering but also analyzed according to the designation of the administrator. The granularity (ie, the fineness of behavior classification) can be adjusted. Accordingly, necessary information can be extracted from the position information of the monitoring target person according to the analysis purpose of the administrator.

<第2の実施形態>
続いて、本発明の第2の実施形態について説明する。第2の実施形態において第1の実施形態と共通する部分に関する説明は省略し、相違点についてのみ以下に説明する。
<Second Embodiment>
Subsequently, a second embodiment of the present invention will be described. In the second embodiment, the description of the parts common to the first embodiment is omitted, and only the differences will be described below.

最初に、第2の実施形態の概要を説明する。   First, the outline of the second embodiment will be described.

第1の実施形態では、既に説明したように、測位データから特徴量ベクトルが算出され、複数の特徴量ベクトルをクラスタリングすることによってクラスタ(すなわち、分類された行動に対応する「状態」)が特定され、状態間の遷移確率が計算される。さらに、管理者の指定に従って、クラスタをさらに分割することができる。   In the first embodiment, as already described, a feature vector is calculated from the positioning data, and a cluster (that is, a “state” corresponding to the classified action) is specified by clustering the plurality of feature vectors. And the transition probabilities between the states are calculated. Furthermore, the cluster can be further divided according to the designation of the administrator.

しかし、実際には、特定の状態遷移を一つの状態として扱うことが望ましい場合がある。一例として、屋外の監視区域において、監視対象者が信号機のある横断歩道を渡るという行動について述べる。この行動に対応する測位データから、上記のクラスタリングによって、信号機のある横断歩道の一方の端まで移動するという行動に対応する状態aと、その地点で(信号機が進行を表示するまで)停止したまま待つという行動に対応する状態bと、横断歩道をもう一方の端まで移動するという行動に対応する状態cと、が抽出され得る。しかし、このような一連の行動の各々に対応する状態を抽出する必要はなく、「横断歩道を渡る」という行動全体に対応する一つの状態Aを抽出したい場合もあり得る。   However, in practice, it may be desirable to treat a specific state transition as one state. As an example, a behavior in which a monitoring target person crosses a pedestrian crossing with a traffic light in an outdoor monitoring area will be described. From the positioning data corresponding to this action, the state a corresponding to the action of moving to one end of a crosswalk with a traffic light by the above clustering, and staying stopped at that point (until the traffic light displays progress) A state b corresponding to the action of waiting and a state c corresponding to the action of moving to the other end of the pedestrian crossing can be extracted. However, it is not necessary to extract a state corresponding to each of such a series of actions, and there may be a case where it is desired to extract one state A corresponding to the entire action of “crossing a pedestrian crossing”.

第2の実施形態では、上記のような一連の行動に対応する複数の状態ラベルの列(例えば「abc」)と、それに対応する一つの状態ラベル(例えば「A」)とを対応付ける情報(すなわち状態判定辞書)に基づいて、クラスタリングによって抽出された複数の状態から、一つの状態が推定される。   In the second embodiment, a plurality of state label columns (for example, “abc”) corresponding to a series of actions as described above, and information for associating one state label (for example, “A”) corresponding thereto (ie, “A”). Based on the state determination dictionary, one state is estimated from a plurality of states extracted by clustering.

なお、以下の説明では、特徴量ベクトルのクラスタリングの結果として取得された上記の「a」「b」「c」のような状態及びその状態ラベルと、それらの列に割り当てられた「A」のような状態及びその状態ラベルとを区別するために、便宜上、前者を「移動状態」及び「移動状態ラベル」と記載し、後者を「状態」及び「状態ラベル」と記載する。「移動状態」及び「移動状態ラベル」は、第1の実施形態の「状態」及び「状態ラベル」に相当する。「状態ラベル」が割り当てられなかった「移動状態ラベル」は、後述する状態ラベルの遷移列の統計モデルへの当てはめ(図27のステップ1102)及び統計モデルからの情報抽出(図27のステップ1103)において、「状態ラベル」として扱われる。   In the following description, states such as “a”, “b”, and “c” acquired as a result of clustering of feature vectors and their state labels, and “A” assigned to those columns are described. In order to distinguish such a state and its state label, for the sake of convenience, the former will be described as “movement state” and “movement state label”, and the latter will be described as “state” and “state label”. The “movement state” and “movement state label” correspond to the “state” and “state label” of the first embodiment. The “movement state label” to which the “state label” has not been assigned is applied to a statistical model of a transition column of a state label described later (step 1102 in FIG. 27) and information extraction from the statistical model (step 1103 in FIG. 27). Are treated as “state labels”.

続いて、第2の実施形態の詳細について図面を参照して説明する。   Next, details of the second embodiment will be described with reference to the drawings.

図27は、本発明の第2の実施形態のモニタリングサーバ100が実行する動線解析処理を示すフローチャートである。   FIG. 27 is a flowchart illustrating flow line analysis processing executed by the monitoring server 100 according to the second embodiment of this invention.

図27に示す処理は、第1の実施形態の動線解析処理(図11)と同様、図3のステップ321において実行される。   The process shown in FIG. 27 is executed in step 321 of FIG. 3 as in the flow line analysis process (FIG. 11) of the first embodiment.

最初に、動線解析部104は、測位データの特徴量を算出し、移動状態ラベルを生成する(ステップ1101)。この手順は第1の実施形態と同じである(図12A等参照)。   First, the flow line analysis unit 104 calculates a feature amount of the positioning data and generates a movement state label (step 1101). This procedure is the same as that in the first embodiment (see FIG. 12A and the like).

次に、動線解析部104は、ステップ1101において生成された移動状態ラベルと、状態判定辞書とを比較し、その結果に基づいて状態ラベルを推定する(ステップ2701)。   Next, the flow line analysis unit 104 compares the movement state label generated in step 1101 with the state determination dictionary, and estimates the state label based on the result (step 2701).

本実施形態の分析情報DB114には、図17及び図18に示した情報に加えて、状態判定辞書2800及び状態判定設定情報2900が格納される。これらの情報の詳細については図28及び図29を参照して、これらの情報に基づく状態ラベルの推定処理については図30A〜図32を参照して後述する。   In the analysis information DB 114 of this embodiment, in addition to the information shown in FIGS. 17 and 18, a state determination dictionary 2800 and state determination setting information 2900 are stored. Details of these pieces of information will be described later with reference to FIGS. 28 and 29, and state label estimation processing based on these pieces of information will be described later with reference to FIGS. 30A to 32.

次に、動線解析部104は、ステップ2701において推定された状態ラベルに基づいて、状態ラベル遷移列を統計モデルに当てはめる(ステップ1102)。次に、動線解析部104は、統計モデルから情報を抽出する(ステップ1103)。これらの手順は第1の実施形態と同じである(図15等参照)。   Next, the flow line analysis unit 104 applies the state label transition sequence to the statistical model based on the state label estimated in step 2701 (step 1102). Next, the flow line analysis unit 104 extracts information from the statistical model (step 1103). These procedures are the same as those in the first embodiment (see FIG. 15 and the like).

以上で第2の実施形態の動線解析処理が終了する。   Thus, the flow line analysis process of the second embodiment is completed.

図28は、本発明の第2の実施形態の分析情報DB114に格納される状態判定辞書の説明図である。   FIG. 28 is an explanatory diagram of a state determination dictionary stored in the analysis information DB 114 according to the second embodiment of this invention.

状態判定辞書2800は、状態ラベル2801、移動状態記号列2802、空間条件2803及び条件粒度2804を含む。   The state determination dictionary 2800 includes a state label 2801, a movement state symbol string 2802, a space condition 2803, and a condition granularity 2804.

状態ラベル2801は、状態を一意に識別する情報である。これは、移動状態ラベルの列に割り当てられるべき状態ラベルであり、ステップ2701において推定された状態ラベルに相当する。上記の横断歩道の例で言えば、「A」が状態ラベル2801に相当する。   The state label 2801 is information for uniquely identifying the state. This is a state label to be assigned to the column of movement state labels, and corresponds to the state label estimated in step 2701. In the above example of the pedestrian crossing, “A” corresponds to the state label 2801.

移動状態記号列2802は、状態ラベル2801によって識別される状態(すなわち当該状態)に対応する移動状態の記号列情報である。上記の横断歩道の例で言えば、「abc」が移動状態記号列2802に相当する。より詳細な例については後述する。   The movement state symbol string 2802 is symbol string information of a movement state corresponding to the state identified by the state label 2801 (that is, the state). In the above example of the pedestrian crossing, “abc” corresponds to the movement state symbol string 2802. A more detailed example will be described later.

空間条件2803は、周囲の地物の条件を指定する文字列である。周囲の地物の条件として、例えば、状態判定辞書2800と比較される移動状態ラベルの列に対応する動線の周囲の地物の種類、その地物から当該動線までの距離及びその地物から当該動線上の点までの方向等を示す情報が含まれる。この文字列は、どのような文法によって記述されてもよい。その一例はXML(Extensible Markup Language)である。上記の横断歩道の例で言えば、地物の属性が信号機であること、その信号機からの距離、及びその信号機からの方向等を示す文字列が空間条件2803に相当する。   The space condition 2803 is a character string that specifies conditions for surrounding features. As conditions of surrounding features, for example, the type of feature around the flow line corresponding to the column of the moving state label compared with the state determination dictionary 2800, the distance from the feature to the flow line, and the feature Information indicating the direction from the point to the point on the flow line is included. This character string may be described by any grammar. One example is XML (Extensible Markup Language). In the above example of the pedestrian crossing, a character string indicating that the attribute of the feature is a traffic light, a distance from the traffic light, a direction from the traffic light, and the like corresponds to the space condition 2803.

条件粒度2804は、条件の粒度(すなわち細かさ)を表現するレベルである。例えば、上記のように「横断歩道を渡る」という行動に対応する状態Aを抽出することが望まれる場合もあるが、さらに大きい(すなわち粗い)粒度で状態を抽出したい場合、より具体的には、例えば、ある地点から別のある地点に移動する(そしてその途中で上記の横断歩道を通過する)という行動に相当する状態Bを抽出することが望まれる場合もあり得る。このような場合には、当該「ある地点から別のある地点に移動する」という行動に対応する移動状態ラベルの列(すなわち上記の「abc」を含む、それより長い列)が移動状態記号列2802として登録され、それに対応する条件粒度2804として、上記の「横断歩道を渡る」に対応する条件粒度2804より大きい粒度を示す値が登録される。   The condition granularity 2804 is a level expressing the condition granularity (ie, fineness). For example, there may be a case where it is desired to extract the state A corresponding to the action of “crossing the pedestrian crossing” as described above, but more specifically, when it is desired to extract the state with a larger (ie, coarser) granularity, For example, it may be desired to extract the state B corresponding to the action of moving from one point to another point (and passing the pedestrian crossing on the way). In such a case, a column of movement state labels corresponding to the action of “moving from one point to another point” (that is, a longer column including the above “abc”) is a movement state symbol string. As a condition granularity 2804 corresponding to that, a value indicating a particle size larger than the conditional granularity 2804 corresponding to the above-mentioned “cross the pedestrian crossing” is registered.

ただし、粒度の大きさは、それに対応する移動状態ラベルの列の長さに必ずしも依存しない。例えば、「横断歩道を渡る」行動は、さらに、監視対象者が横断歩道の一方の端で停止した後、もう一方の端に移動するという行動と、停止せずに移動するという行動とに分類することができる場合がある。この場合、「横断歩道を渡る」行動に対応する粒度は、「一旦停止した後で横断歩道を渡る」行動の粒度及び「停止せずに横断歩道を渡る」行動の粒度より大きくなる。   However, the size of the granularity does not necessarily depend on the length of the corresponding moving state label column. For example, “crossing a pedestrian crossing” action is further classified into an action that the monitored person stops at one end of the pedestrian crossing and then moves to the other end, and an action that moves without stopping. You may be able to. In this case, the granularity corresponding to the action “crossing the pedestrian crossing” is larger than the granularity of the action “crossing the pedestrian crossing without stopping” and the granularity of the action “crossing the pedestrian crossing without stopping”.

条件粒度2804の値は、管理者が手動で設定してもよいが、モニタリングサーバ100が自動で設定してもよい。自動で設定する場合、例えば、空間条件2803によって指定された地物の大きさが小さいほど、細かい粒度を示す値を設定してもよいし、移動状態記号列2802の長さが短いほど、細かい粒度を示す値を設定してもよい。   The value of the condition granularity 2804 may be set manually by the administrator or may be set automatically by the monitoring server 100. In the case of automatic setting, for example, a value indicating a finer granularity may be set as the size of the feature specified by the space condition 2803 is smaller, or as the moving state symbol string 2802 is shorter, You may set the value which shows a particle size.

上記のように、例えば空間条件2803として地物「信号機」からの距離及び方向の範囲が定められ、それに対応する状態ラベル2801及び移動状態記号列2802としてそれぞれ「A」及び「abc」が登録されている場合において、信号機からの距離及び方向が当該定められた範囲内にある動線から移動状態ラベルの列「abc」が抽出された場合、その動線が監視対象者の「横断歩道を渡る」という行動に対応すると判定される。   As described above, for example, the range of the distance and direction from the feature “traffic light” is determined as the space condition 2803, and “A” and “abc” are registered as the corresponding state label 2801 and movement state symbol string 2802, respectively. In the case where the moving state label column “abc” is extracted from the flow line whose distance and direction from the traffic light are within the determined range, the flow line crosses the crosswalk of the monitoring subject. "Is determined to correspond to the action". "

状態判定辞書2800として、上記のような状態ラベル2801〜条件粒度2804の複数の組が登録され得る。例えば、別の空間条件2803として地物「本棚」が登録され、それに対応する所定の移動状態記号列2802の値と、それに対応する行動「本棚から本を取る」に対応する状態ラベル2801の値と、それらに対応する条件粒度2804の値と、の組が登録されてもよい。以下の説明においてこれらの組の各々を辞書項目と記載する。   As the state determination dictionary 2800, a plurality of sets of the state label 2801 to the condition granularity 2804 as described above can be registered. For example, the feature “bookcase” is registered as another space condition 2803, the value of a predetermined movement state symbol string 2802 corresponding to the feature, and the value of the state label 2801 corresponding to the action “take a book from the bookshelf” And a value of the condition granularity 2804 corresponding to them may be registered. In the following description, each of these sets is referred to as a dictionary item.

図29は、本発明の第2の実施形態の分析情報DB114に格納される状態判定設定情報の説明図である。   FIG. 29 is an explanatory diagram of the state determination setting information stored in the analysis information DB 114 according to the second embodiment of this invention.

状態判定設定情報2900は、空間条件2901及び条件粒度2902を含む。これらは、それぞれ、状態判定辞書2800の空間条件2803及び条件粒度2804と同様のものである。ただし、初期状態において状態判定設定情報2900は空であり、条件粒度が設定されたときに、その結果が状態判定設定情報2900に格納される。   The state determination setting information 2900 includes a space condition 2901 and a condition granularity 2902. These are the same as the space condition 2803 and the condition granularity 2804 of the state determination dictionary 2800, respectively. However, the state determination setting information 2900 is empty in the initial state, and when the condition granularity is set, the result is stored in the state determination setting information 2900.

続いて、図27のステップ2701において実行される処理について説明する。ステップ2701では、まず、図30A〜図30Cに示すように、状態判定辞書に基づく状態ラベルの推定処理が実行される。   Subsequently, the process executed in step 2701 in FIG. 27 will be described. In step 2701, first, as shown in FIGS. 30A to 30C, a state label estimation process based on the state determination dictionary is executed.

図30Aは、本発明の第2の実施形態のモニタリングサーバ100が実行する状態判定辞書に基づく状態ラベルの推定処理を示すフローチャートである。   FIG. 30A is a flowchart illustrating state label estimation processing based on a state determination dictionary executed by the monitoring server 100 according to the second embodiment of this invention.

図30Bは、本発明の第2の実施形態における状態判定辞書の項目の検索処理の説明図である。   FIG. 30B is an explanatory diagram of search processing for items in the state determination dictionary according to the second embodiment of this invention.

図30Cは、本発明の第2の実施形態における状態ラベルの割り当ての説明図である。   FIG. 30C is an explanatory diagram of state label assignment in the second exemplary embodiment of the present invention.

最初に、動線解析部104は、ステップ1101において生成された移動状態ラベルの列に対応する動線の周囲の地物の配置が空間条件2803を満たす辞書項目を状態判定辞書2800から検索する(ステップ3001)。例えば、当該動線が本棚の近くを通り、部屋の中を通り、さらに別のいくつかの地物の近くを通る場合に、それらの地物と当該動線との位置関係が、状態判定辞書2800に登録された各辞書項目の空間条件2803を満たすか否かが判定され、満たすと判定された辞書項目が検索の結果として取得される(図30B参照)。   First, the flow line analysis unit 104 searches the state determination dictionary 2800 for a dictionary item in which the arrangement of features around the flow line corresponding to the row of movement state labels generated in step 1101 satisfies the space condition 2803 ( Step 3001). For example, when the flow line passes near a bookshelf, passes through a room, and passes through some other feature, the positional relationship between the feature and the flow line is determined by the state determination dictionary. It is determined whether or not the space condition 2803 of each dictionary item registered in 2800 is satisfied, and the dictionary item determined to be satisfied is acquired as a search result (see FIG. 30B).

次に、動線解析部104は、ステップ3001において検索された辞書項目の移動状態記号列2802と、ステップ1101において生成された移動状態ラベルの列とを比較し、それらが類似する場合、その辞書項目の状態ラベル2801を当該移動状態ラベルの列に対応する状態ラベルとして割り当てる(ステップ3002)。   Next, the flow line analysis unit 104 compares the movement state symbol string 2802 of the dictionary item searched in step 3001 with the movement state label string generated in step 1101. The item status label 2801 is assigned as the status label corresponding to the column of the movement status label (step 3002).

この比較、及び、類似するか否かの判定は、公知の方法によって行うことができる。例えば、当該移動状態ラベルの列から切り出された区間と、移動状態記号列2802との一致度が計算され、その一致度が所定の閾値より高ければ、その区間に、移動状態記号列2802に対応する状態ラベル2801が割り当てられてもよい(図30C参照)。このような比較を、移動状態ラベルの列から切り出された全区間について行い、最も一致度が高い区間が選択されてもよい。二つの区間の一致度は、例えば、それらの区間において一致する移動状態ラベルの個数等に基づいて算出される。   This comparison and determination of whether or not they are similar can be performed by a known method. For example, the degree of coincidence between the section extracted from the column of the movement state label and the movement state symbol string 2802 is calculated. If the degree of coincidence is higher than a predetermined threshold, the section corresponds to the movement state symbol string 2802. A state label 2801 to be assigned may be assigned (see FIG. 30C). Such a comparison may be performed for all the sections cut out from the column of the movement state label, and the section with the highest degree of matching may be selected. The degree of coincidence between two sections is calculated based on, for example, the number of movement state labels that coincide in those sections.

なお、状態判定設定情報2900の条件粒度2902として粒度が指定されている場合には、その指定された粒度に対応する辞書項目がステップ3001において検索される。しかし、初期状態においては、条件粒度2902として粒度が指定されていない。この場合には、最も粗い粒度の辞書項目が検索される。このため、図30A〜図30Cに示した状態ラベルの推定処理によって推定された状態ラベルの粒度が、管理者にとって望ましい粒度より大きい可能性がある。このため、動線解析部104は、より細かい粒度の状態ラベルを推定するか否かを管理者に判定させる処理を実行する。これについて図31A〜図32を参照して説明する。   If the granularity is designated as the condition granularity 2902 of the state determination setting information 2900, a dictionary item corresponding to the designated granularity is searched in step 3001. However, in the initial state, no granularity is designated as the conditional granularity 2902. In this case, the dictionary item with the coarsest granularity is searched. For this reason, there is a possibility that the granularity of the state label estimated by the state label estimation processing shown in FIGS. 30A to 30C is larger than the granularity desirable for the administrator. For this reason, the flow line analysis unit 104 executes processing for causing the administrator to determine whether or not to estimate a state label with finer granularity. This will be described with reference to FIGS. 31A to 32.

図31Aは、本発明の第2の実施形態のモニタリングサーバ100が実行する分析パラメータ調整候補選択処理を示すフローチャートである。   FIG. 31A is a flowchart illustrating analysis parameter adjustment candidate selection processing executed by the monitoring server 100 according to the second embodiment of this invention.

図31Bは、本発明の第2の実施形態における同一状態ラベルが割り当てられた区間の検索処理の説明図である。   FIG. 31B is an explanatory diagram of a search process for a section to which the same state label is assigned according to the second embodiment of this invention.

図31Cは、本発明の第2の実施形態におけるより細かい粒度の状態の特定処理の説明図である。   FIG. 31C is an explanatory diagram of a specifying process of a finer granularity state according to the second embodiment of this invention.

図31Dは、本発明の第2の実施形態における一致度が高い状態の選択処理の説明図である。   FIG. 31D is an explanatory diagram of selection processing in a state where the degree of coincidence is high according to the second embodiment of this invention.

複数の動線について図30A〜図30Cに示した状態ラベルの推定処理が実行された後に分析パラメータ調整候補選択処理が実行される。   The analysis parameter adjustment candidate selection processing is executed after the state label estimation processing shown in FIGS. 30A to 30C is executed for a plurality of flow lines.

最初に、動線解析部104は、分析パラメータ調整候補選択処理によって同一の状態ラベルが割り当てられた移動状態ラベルの列の複数の区間を選択する(ステップ3101)。例えば、ある移動状態ラベルの列(すなわち移動状態遷移列)の区間「abbbabbbaa」に状態ラベル「A」が割り当てられ、別の区間「abbabbbbaa」にも状態ラベル「A」が割り当てられている場合、これらの区間が選択されてもよい(図31B参照)。   First, the flow line analysis unit 104 selects a plurality of sections in a column of movement state labels to which the same state label is assigned by the analysis parameter adjustment candidate selection process (step 3101). For example, when the state label “A” is assigned to the section “abbbbabbbbaa” of a certain movement state label column (that is, the movement state transition string), and the state label “A” is also assigned to another section “abbbbbbbbaa”, These sections may be selected (see FIG. 31B).

次に、動線解析部104は、ステップ3101において選択された各区間について、前回の状態ラベルの推定処理において適用されたものより細かい条件粒度2804に対応する移動状態記号列2802と一致するか否か(より正確には、一致度が所定の閾値より高いか否か)を判定する(ステップ3102)。図31Cの例では、上記の区間「abbbabbbaa」に、状態ラベル「A」より細かい条件粒度2804に対応する状態ラベル「C」に対応する移動状態記号列2802が一致すると判定され、区間「abbabbbbaa」には、状態ラベル「D」に対応する移動状態記号列2802が一致すると判定される。   Next, the flow line analysis unit 104 determines whether or not each section selected in step 3101 matches the movement state symbol string 2802 corresponding to the condition granularity 2804 finer than that applied in the previous state label estimation process. (More precisely, whether or not the degree of coincidence is higher than a predetermined threshold value) is determined (step 3102). In the example of FIG. 31C, it is determined that the movement state symbol string 2802 corresponding to the state label “C” corresponding to the condition granularity 2804 finer than the state label “A” matches the above-described interval “abbbbabbbaa”, and the interval “abbbbbbbaa” , It is determined that the movement state symbol string 2802 corresponding to the state label “D” matches.

動線解析部104は、同様の処理を、例えば状態ラベルの推定処理によって状態ラベル「A」が割り当てられた複数の区間について行う。その結果、例えば、それらの複数の区間のうちいくつかは状態ラベル「C」に対応する移動状態記号列2802と一致し、別のいくつかは状態ラベル「D」に対応する移動状態記号列2802と一致し、さらに別のいくつかは状態ラベル「E」に対応する移動状態記号列2802と一致すると判定されたと仮定する。この場合、動線解析部104は、一致すると判定された区間の数が多い順に二つの状態ラベル(例えば「C」及び「D」)を選択し、さらに、それぞれに対応する移動状態記号列2802との一致度が高い区間を選択する(ステップ3103及び図31D)。   The flow line analysis unit 104 performs the same process for a plurality of sections to which the state label “A” is assigned by the state label estimation process, for example. As a result, for example, some of the plurality of sections coincide with the movement state symbol string 2802 corresponding to the state label “C”, and another some move state symbol strings 2802 corresponding to the state label “D”. , And some others are determined to match the moving state symbol string 2802 corresponding to the state label “E”. In this case, the flow line analysis unit 104 selects two state labels (for example, “C” and “D”) in descending order of the number of sections determined to match, and further, a movement state symbol string 2802 corresponding to each. A section having a high degree of coincidence with is selected (step 3103 and FIG. 31D).

そして、モニタリングサーバ100は、選択された区間に対応するセンサ情報を管理者に提示する。この提示処理は第1の実施形態と同様に実行される(図24参照)。これによって提示されるセンサ情報の例について、図32を参照して説明する。   Then, the monitoring server 100 presents sensor information corresponding to the selected section to the administrator. This presentation process is executed in the same manner as in the first embodiment (see FIG. 24). An example of the sensor information presented thereby will be described with reference to FIG.

図32は、本発明の第2の実施形態の画面表示装置120によって表示されるセンサ情報提示画面の説明図である。   FIG. 32 is an explanatory diagram of a sensor information presentation screen displayed by the screen display device 120 according to the second embodiment of this invention.

図32に示すセンサ情報提示画面3200は、第1センサ情報表示部3201、第1歩行者情報表示部2502、第2センサ情報表示部3203、第2歩行者情報表示部2504、「区別あり」ボタン2505、「不明」ボタン2506及び「区別なし」ボタン2507を含む。これらのうち第1歩行者情報表示部2502、第2歩行者情報表示部2504、「区別あり」ボタン2505、「不明」ボタン2506及び「区別なし」ボタン2507は、第1の実施形態において説明したものと同じであるため、説明を省略する。   32 includes a first sensor information display unit 3201, a first pedestrian information display unit 2502, a second sensor information display unit 3203, a second pedestrian information display unit 2504, and a “with distinction” button. 2505, an “unknown” button 2506, and a “no distinction” button 2507. Of these, the first pedestrian information display unit 2502, the second pedestrian information display unit 2504, the “with distinction” button 2505, the “unknown” button 2506, and the “no distinction” button 2507 have been described in the first embodiment. Since it is the same as that, the description is omitted.

第1センサ情報表示部3201及び第2センサ情報表示部3203は、それぞれ、第1音声再生ボタン3202及び第2音声再生ボタン3204を含むことを除いて、第1の実施形態の第1センサ情報表示部2501及び第2センサ情報表示部2503と同じである。第1音声再生ボタン3202及び第2音声再生ボタン3204は、センサ130としてマイクロフォンが設置されている場合に使用される。管理者が第1音声再生ボタン3202及び第2音声再生ボタン3204を操作すると、それぞれに対応する音声(例えば、上記の選択された状態ラベル「C」及び「D」に対応する時刻及び位置において録音された音声)が再生される。   The first sensor information display unit 3201 and the second sensor information display unit 3203 include a first audio reproduction button 3202 and a second audio reproduction button 3204, respectively, except for the first sensor information display unit 3201 and the second sensor information display unit 3203. This is the same as the unit 2501 and the second sensor information display unit 2503. The first sound reproduction button 3202 and the second sound reproduction button 3204 are used when a microphone is installed as the sensor 130. When the administrator operates the first audio playback button 3202 and the second audio playback button 3204, the corresponding audio (for example, recording at the time and position corresponding to the selected state labels “C” and “D” above) is performed. Played back).

管理者は、提示された画像又は音声を参照して、例えば状態Aを状態C、D等に区別する必要があるか否かを判定する。区別する必要があると判定された場合、「区別あり」ボタン2505が操作され、動線解析部104は、ステップ3102の結果に従って、より粒度が細かい状態ラベルを割り当てる。例えば、状態ラベル「A」に代えて、状態ラベル「C」、「D」及び「E」等が割り当てられる。さらに、この場合、状態ラベル「C」等に対応する条件粒度2804の値が状態判定設定情報2900の条件粒度2902として登録される。   For example, the administrator determines whether it is necessary to distinguish the state A into the states C and D with reference to the presented image or sound. When it is determined that it is necessary to distinguish, the “with distinction” button 2505 is operated, and the flow line analysis unit 104 assigns a state label with finer granularity according to the result of step 3102. For example, status labels “C”, “D”, “E”, and the like are assigned in place of the status label “A”. Further, in this case, the value of the condition granularity 2804 corresponding to the state label “C” or the like is registered as the condition granularity 2902 of the state determination setting information 2900.

なお、第1の実施形態においても同様の方法によって音声が再生されてもよい。   In the first embodiment, sound may be reproduced by the same method.

上記の処理の結果、例えば、移動状態ラベルの列「abbbabbbaa」に状態ラベル「C」が割り当てられると判定された場合、移動状態a及び移動状態bが新たな状態Cに統合される。すなわち、移動状態aに対応するクラスタに含まれる全ての特徴量ベクトル、及び、移動状態bに対応するクラスタに含まれる全ての特徴量ベクトルを含む新たなクラスタが生成され、そのクラスタに対応する状態ラベルとして「C」が割り当てられる。そのクラスタの中心位置及び周囲のクラスタとの間の遷移確率等が計算され、分析情報DB114に格納される(図17及び図18参照)。   As a result of the above processing, for example, when it is determined that the state label “C” is assigned to the column “abbbbabbbbaa” of the movement state label, the movement state a and the movement state b are integrated into the new state C. That is, a new cluster is generated that includes all feature vectors included in the cluster corresponding to the movement state a and all feature vectors included in the cluster corresponding to the movement state b, and the state corresponding to the cluster “C” is assigned as a label. The transition position between the center position of the cluster and surrounding clusters is calculated and stored in the analysis information DB 114 (see FIGS. 17 and 18).

以上の本発明の第2の実施形態によれば、特定の移動状態の列に対応する、より粒度の大きい状態を自動的に抽出することができ、さらに、その粒度が大きすぎない適切な値となるように管理者が調整することができる。   According to the second embodiment of the present invention as described above, it is possible to automatically extract a state having a larger granularity corresponding to a column of a specific movement state, and further, an appropriate value whose granularity is not too large. It can be adjusted by the administrator.

<第3の実施形態>
続いて、本発明の第3の実施形態について説明する。第3の実施形態において第1又は第2の実施形態と共通する部分に関する説明は省略し、相違点についてのみ以下に説明する。
<Third Embodiment>
Subsequently, a third embodiment of the present invention will be described. In the third embodiment, the description of the parts common to the first or second embodiment is omitted, and only the differences will be described below.

第1及び第2の実施形態では、複数の監視対象者の動線を分析するための粒度が調整された。これに対して、第3の実施形態では、一人の監視対象者の動線を分析するための粒度が調整される。   In the first and second embodiments, the granularity for analyzing the flow lines of a plurality of monitoring subjects is adjusted. On the other hand, in the third embodiment, the granularity for analyzing the flow line of one monitoring subject is adjusted.

図33Aは、本発明の第3の実施形態のモニタリングサーバ100が実行する分析パラメータ調整候補選択処理を示すフローチャートである。   FIG. 33A is a flowchart illustrating analysis parameter adjustment candidate selection processing executed by the monitoring server 100 according to the third embodiment of this invention.

図33Bは、本発明の第3の実施形態におけるより細かい粒度の状態の特定処理の説明図である。   FIG. 33B is an explanatory diagram of a process of specifying a finer granularity state according to the third embodiment of the present invention.

第2の実施形態と同様の方法によって、移動状態ラベルの列の区間(例えば「abbbabbbaa」)に対応する状態ラベル(例えば「A」)が特定されると、第3の実施形態の動線解析部104は、当該区間に一致するより粒度の細かい状態を特定する(ステップ3301)。例えば、状態判定辞書2800に、状態ラベル「F」、「G」及び「H」のそれぞれに対応する移動状態記号列「ab」、「bba」及び「bbbaa」が登録されている場合、上記の移動状態ラベルの列「abbbabbbaa」の先頭の二つが状態ラベル「F」に、次の三つが状態ラベル「G」に、残りの五つが状態ラベル「H」に対応する(図33B参照)。   When the state label (for example, “A”) corresponding to the section of the movement state label column (for example, “abbbbabbbaa”) is specified by the same method as in the second embodiment, the flow line analysis of the third embodiment is performed. The unit 104 specifies a finer state that matches the section (step 3301). For example, if movement state symbol strings “ab”, “bba”, and “bbbaa” corresponding to the state labels “F”, “G”, and “H” are registered in the state determination dictionary 2800, The first two in the column “abbbbabbbba” of the movement state label correspond to the state label “F”, the next three correspond to the state label “G”, and the remaining five correspond to the state label “H” (see FIG. 33B).

例えば、状態Aが「横断歩道を渡る」という行動に対応する場合、状態Fが「横断歩道の一方の端まで移動する」という行動に対応し、状態Gが「信号機が進行を表示するまで停止したまま待つ」という行動に対応し、状態Hが「横断歩道をもう一方の端まで移動する」という行動に対応してもよい。   For example, if state A corresponds to the action of “crossing the pedestrian crossing”, state F corresponds to the action of “moving to one end of the pedestrian crossing”, and state G is “stop until the traffic light displays progress” The state H may correspond to the action “move the pedestrian crossing to the other end”.

この場合、動線解析部104は、特定された状態ラベルのうち二つを選択する(ステップ3302)。図33Bに示した例では、いずれの状態の一致率も100%(すなわち完全一致であるが、一致率に差がある場合には一致率が高い方から二つが選択されてもよい。このようにして選択された二つの状態について、第2の実施形態と同様の手順によってセンサ情報が管理者に提示される。管理者は、提示されたセンサ情報を参照して、粒度を細かくするか否かを判定することができる。   In this case, the flow line analysis unit 104 selects two of the specified state labels (step 3302). In the example shown in FIG. 33B, the coincidence rate in any state is 100% (that is, perfect coincidence, but if there is a difference in the coincidence rate, two may be selected from the one with the higher coincidence rate. The sensor information is presented to the administrator for the two states selected in the same manner as in the second embodiment by referring to the presented sensor information. Can be determined.

以上の本発明の第3の実施形態によれば、一人の監視対象者の動線から状態を抽出する粒度を管理者が調整することができる。これによって、一人の人物が続けて行う行動をどのように切り分けて分析するかを決定することができる。   According to the third embodiment of the present invention described above, the administrator can adjust the granularity for extracting the state from the flow line of one person to be monitored. In this way, it is possible to determine how to analyze and analyze actions that one person continues.

<第4の実施形態>
続いて、本発明の第4の実施形態について説明する。第4の実施形態において第1から第3の実施形態と共通する部分に関する説明は省略し、相違点についてのみ以下に説明する。
<Fourth Embodiment>
Subsequently, a fourth embodiment of the present invention will be described. In the fourth embodiment, the description of the parts common to the first to third embodiments is omitted, and only the differences will be described below.

第1の実施形態では、クラスタリングによって取得されたクラスタ(すなわち状態)から、分割対象の候補が選択され、管理者が分割を指示した場合にはそのクラスタが二つに分割された。一方、第4の実施形態では、パターンの分類に寄与する可能性が低い二つのクラスタが統合される。   In the first embodiment, candidates for division are selected from clusters (that is, states) acquired by clustering, and when the administrator instructs division, the cluster is divided into two. On the other hand, in the fourth embodiment, two clusters that are unlikely to contribute to pattern classification are integrated.

例えば、ある場所においてある行動を行った全ての監視対象者が、それに続いて別のある行動を必ず行うのであれば、それらの行動を区別したとしても、パターンの分類に寄与しない。第4の実施形態ではそのような行動を抽出して統合する。   For example, if all monitoring subjects who have performed a certain action at a certain location must always perform another certain action, even if these actions are distinguished, they do not contribute to pattern classification. In the fourth embodiment, such actions are extracted and integrated.

図34は、本発明の第4の実施形態の分析情報DB114に格納される状態判定設定情報の説明図である。   FIG. 34 is an explanatory diagram of the state determination setting information stored in the analysis information DB 114 according to the fourth embodiment of this invention.

図34に示す状態判定設定情報は、統合対象状態ラベル3401を含む。これは、統合対象として選択された状態ラベルの配列である。   The state determination setting information illustrated in FIG. 34 includes an integration target state label 3401. This is an array of state labels selected as integration targets.

次に、本実施形態の対象歩行者選択処理について説明する。本実施形態の対象歩行者選択処理は、第1の実施形態の対象歩行者選択処理の代わりに(またはそれと併せて)図22のステップ2201において実行されてもよい。   Next, the target pedestrian selection process of this embodiment will be described. The target pedestrian selection process of the present embodiment may be executed in step 2201 of FIG. 22 instead of (or in combination with) the target pedestrian selection process of the first embodiment.

分析条件設定画面生成部106は、生成された状態ラベル遷移列を統計モデルに当てはめた結果を参照する。例えば、図15に示す統計モデルにおいて、各パターンにおける特定の状態遷移の確率を示すωの値の間の差が小さく、それらのωの値がほぼ1であり、かつ、その特定の状態遷移の前後の状態の平均位置が近い場合、それらの状態を区別することがパターンの分類に寄与しない可能性が高い。   The analysis condition setting screen generation unit 106 refers to the result of applying the generated state label transition sequence to the statistical model. For example, in the statistical model shown in FIG. 15, the difference between the values of ω indicating the probability of a specific state transition in each pattern is small, the value of ω is approximately 1, and the specific state transition When the average positions of the preceding and following states are close, it is highly likely that distinguishing these states does not contribute to pattern classification.

より具体的には、分析条件設定画面生成部106は、特定のμ及びνに関するωμν(k)の値を、全てのkについて取得し、それらのωμν(k)の値の差(ばらつき)が所定の閾値以下であり、それらのωμν(k)の値が所定の閾値以上であり、かつ、それらのωμν(k)に対応する状態遷移の前後の状態に対応する測位データが示す位置の平均値の間の距離が所定の閾値以下である場合、それらの状態に対応するクラスタの中心に最も近い監視対象者を対象歩行者として選択する。 More specifically, the analysis condition setting screen generation unit 106 acquires the values of ωμν (k) for specific μ and ν for all k, and the difference (variation) in the values of ωμν (k ) is obtained. The average of the positions indicated by the positioning data corresponding to the states before and after the state transition corresponding to those ωμν (k) that are not more than a predetermined threshold, the value of ωμν (k) is not less than the predetermined threshold, and When the distance between the values is equal to or smaller than a predetermined threshold, the monitoring target person closest to the center of the cluster corresponding to those states is selected as the target pedestrian.

以後、選択された対象歩行者について、第1の実施形態と同様にセンサ情報が提示され(図25参照)、管理者が「区別なし」ボタン2507を選択した場合、それらの状態が一つの状態に統合される。   Thereafter, for the selected target pedestrian, sensor information is presented in the same manner as in the first embodiment (see FIG. 25), and when the administrator selects the “no distinction” button 2507, those states are one state. Integrated into.

以上の本発明の第4の実施形態によれば、区別してもパターンの分類に寄与する可能性が低い二つのクラスタを統合することによって、状態遷移を整理することができる。   According to the fourth embodiment of the present invention described above, state transitions can be organized by integrating two clusters that are unlikely to contribute to pattern classification even if distinguished.

100 モニタリングサーバ
101 センサ情報管理部
102 測位記録管理部
103 センサ・測位統合部
104 動線解析部
105 分析条件調整部
106 分析条件設定画面生成部
107 分析結果画面生成部
111 センサ情報データベース(DB)
112 測位DB
113 屋内地図DB
114 分析情報DB
115 ユーザDB
120 画面表示部
130 センサ
140 移動体端末
150 環境側測位装置
160A、160B ネットワーク
DESCRIPTION OF SYMBOLS 100 Monitoring server 101 Sensor information management part 102 Positioning record management part 103 Sensor and positioning integration part 104 Flow line analysis part 105 Analysis condition adjustment part 106 Analysis condition setting screen generation part 107 Analysis result screen generation part 111 Sensor information database (DB)
112 Positioning DB
113 Indoor map DB
114 Analysis information DB
115 User DB
120 Screen Display Unit 130 Sensor 140 Mobile Terminal 150 Environment Positioning Device 160A, 160B Network

Claims (16)

監視対象区域内の複数の監視対象者の行動を監視する監視装置であって、
前記監視装置は、
プロセッサと、前記プロセッサに接続される記憶装置と、を備え、
前記記憶装置は、前記複数の監視対象者が携行する移動体端末の位置を示す測位データを保持し、
前記プロセッサは、
前記測位データの特徴量に基づいて前記監視対象者の行動を分類し、
前記分類された行動に対応する複数の前記特徴量の相違の大きさ、又は、前記分類された行動に対応する前記特徴量の数に基づいて、複数の前記分類された行動から変更対象の候補を選択し、
前記候補として選択された行動に対応する複数の測位データを抽出し、
前記抽出された複数の測位データに関する情報を出力し、
前記候補として選択された行動の分類を変更する指示が入力された場合、前記候補として選択された行動の分類を変更することを特徴とする監視装置。
A monitoring device for monitoring the behavior of a plurality of monitoring subjects in a monitoring target area,
The monitoring device
A processor and a storage device connected to the processor;
The storage device holds positioning data indicating the position of a mobile terminal carried by the plurality of monitoring subjects,
The processor is
Classifying the behavior of the monitoring subject based on the feature quantity of the positioning data;
Based on the magnitude of the difference between the plurality of feature amounts corresponding to the classified behavior or the number of the feature amounts corresponding to the classified behavior, a candidate for change from the plurality of classified behaviors Select
Extracting a plurality of positioning data corresponding to the action selected as the candidate,
Outputting information about the extracted plurality of positioning data;
A monitoring apparatus, wherein when an instruction to change a classification of an action selected as the candidate is input, the classification of the action selected as the candidate is changed.
前記記憶装置は、
前記監視対象区域内に設置された複数のセンサによって取得された情報及び前記情報が取得された時刻を示す情報を含む第1情報を保持し、
前記各センサが前記第1情報を取得できる領域を特定する第2情報を保持し、
前記プロセッサは、前記第1情報及び前記第2情報に基づいて、前記抽出された複数の測位データの各々が取得された時刻に、各々が示す位置を含む領域において前記センサによって取得された情報を出力することを特徴とする請求項1に記載の監視装置。
The storage device
Holding first information including information acquired by a plurality of sensors installed in the monitored area and information indicating the time when the information was acquired;
Holding the second information specifying the area where each of the sensors can acquire the first information;
The processor, based on the first information and the second information, obtains information acquired by the sensor in a region including a position indicated by each of the plurality of extracted positioning data. The monitoring device according to claim 1, wherein the monitoring device outputs.
前記プロセッサは、
前記特徴量をクラスタリングすることによって、各々が前記分類された行動に対応する複数のクラスタを生成し、
前記クラスタの大きさに基づいて、前記変更対象の候補を選択することを特徴とする請求項2に記載の監視装置。
The processor is
By clustering the feature quantities , each generating a plurality of clusters corresponding to the classified behavior,
The monitoring apparatus according to claim 2, wherein the candidate for change is selected based on the size of the cluster.
前記プロセッサは、前記変更対象の候補として選択された行動に対応するクラスタに含まれる複数の特徴量を、各々が前記抽出された測位データに対応する特徴量を含む複数のクラスタに分割することによって、前記候補として選択された行動の分類を変更することを特徴とする請求項3に記載の監視装置。   The processor divides a plurality of feature amounts included in a cluster corresponding to an action selected as the candidate for change into a plurality of clusters each including a feature amount corresponding to the extracted positioning data. The monitoring apparatus according to claim 3, wherein a classification of an action selected as the candidate is changed. 前記プロセッサは、
前記候補として選択された行動に対応するクラスタに含まれる前記複数の特徴量のみを対象としてクラスタリングを実行することによって、複数の分割されたクラスタを生成し、
前記複数の分割されたクラスタの中心に最も近い特徴量に対応する測位データを前記複数の測位データとして抽出し、
前記候補として選択された行動の分類を変更する指示が入力された場合、前記候補として選択された行動に対応するクラスタを、当該クラスタのみと対象として実行されたクラスタリングによって生成された前記複数のクラスタに分割することによって、前記候補として選択された行動の分類を変更することを特徴とする請求項4に記載の監視装置。
The processor is
Generating a plurality of divided clusters by performing clustering only on the plurality of feature quantities included in the cluster corresponding to the action selected as the candidate,
Positioning data corresponding to the feature quantity closest to the center of the plurality of divided clusters is extracted as the plurality of positioning data;
When an instruction to change the classification of the action selected as the candidate is input, the clusters corresponding to the action selected as the candidate are only the cluster and the plurality of clusters generated by clustering executed as a target. The monitoring apparatus according to claim 4, wherein the classification of the action selected as the candidate is changed by dividing into two.
前記プロセッサは、
前記候補として選択された行動に対応するクラスタに含まれる前記複数の特徴量のうち、最も距離の離れた二つを抽出し、前記抽出された二つの特徴量に対応する測位データを、前記複数の測位データとして抽出し、
前記候補として選択された行動の分類を変更する指示が入力された場合、前記候補として選択された行動に対応するクラスタに含まれる特徴量を、各々が前記抽出された二つの特徴量のうち距離が近い方に対応する新たなクラスタに含まれるように分割することを特徴とする請求項4に記載の監視装置。
The processor is
Among the plurality of feature quantities included in the cluster corresponding to the action selected as the candidate, two of the most distant features are extracted, and positioning data corresponding to the two extracted feature quantities are As positioning data for
When an instruction to change the classification of the action selected as the candidate is input, the feature quantity included in the cluster corresponding to the action selected as the candidate is determined as the distance between the two extracted feature quantities. The monitoring apparatus according to claim 4, wherein the monitoring device is divided so as to be included in a new cluster corresponding to the closer side.
前記プロセッサは、前記各クラスタに含まれる前記特徴量の数が多いほど当該クラスタが大きいと判定し、
前記生成された複数のクラスタのうち最も大きいものを前記変更対象の候補として選択することを特徴とする請求項3に記載の監視装置。
The processor determines that the cluster is larger as the number of the feature amounts included in each cluster is larger,
The monitoring apparatus according to claim 3, wherein the largest one of the plurality of generated clusters is selected as the candidate for the change target.
前記プロセッサは、前記各クラスタの半径が大きいほど当該クラスタが大きいと判定し、
前記生成された複数のクラスタのうち最も大きいものを前記変更対象の候補として選択することを特徴とする請求項3に記載の監視装置。
The processor determines that the larger the radius of each cluster, the larger the cluster,
The monitoring apparatus according to claim 3, wherein the largest one of the plurality of generated clusters is selected as the candidate for the change target.
前記複数のセンサは、前記領域の画像を撮影する監視カメラ又は前記領域の音声を収録するマイクロフォンであり、
前記第1情報は、前記画像又は音声を含むことを特徴とする請求項2に記載の監視装置。
The plurality of sensors are a monitoring camera that captures an image of the region or a microphone that records sound of the region,
The monitoring apparatus according to claim 2, wherein the first information includes the image or sound.
前記記憶装置は、複数の前記行動と、前記複数の行動を包含する一つの行動と、を対応付ける行動辞書を保持し、
前記プロセッサは、前記測位データに基づいて分類された複数の行動と、前記行動辞書に保持された複数の行動との一致度が所定の閾値より高い場合、前記分類された複数の行動を、前記行動辞書に保持された複数の行動に対応する一つの行動に置き換えることによって、前記行動の分類を変更することを特徴とする請求項1に記載の監視装置。
The storage device stores an action dictionary that associates a plurality of the actions with one action including the plurality of actions,
The processor, when the degree of coincidence between the plurality of actions classified based on the positioning data and the plurality of actions held in the action dictionary is higher than a predetermined threshold, the plurality of classified actions are The monitoring apparatus according to claim 1, wherein the action classification is changed by replacing with one action corresponding to a plurality of actions held in the action dictionary.
前記行動辞書は、前記複数の行動を包含する各行動の粒度を示す情報をさらに保持し、
前記プロセッサは、前記測位データに基づいて分類された複数の行動と、前記行動辞書に保持された、第1の粒度に対応する複数の行動との一致度が所定の閾値より高い場合、当該分類された複数の行動の一部と、前記第1の粒度より細かい第2の粒度に対応する複数の行動との一致度を計算し、前記計算された一致度が所定の閾値より高い場合、前記分類された複数の行動の一部を前記第2の粒度に対応する複数の行動に対応する一つの行動に置き換えることによって、前記行動の分類を変更することを特徴とする請求項10に記載の監視装置。
The behavior dictionary further holds information indicating the granularity of each behavior including the plurality of behaviors,
When the degree of coincidence between the plurality of actions classified based on the positioning data and the plurality of actions corresponding to the first granularity held in the action dictionary is higher than a predetermined threshold, the processor Calculating a degree of coincidence between a part of the plurality of actions and a plurality of actions corresponding to a second granularity finer than the first granularity, and when the calculated degree of coincidence is higher than a predetermined threshold, The classification of the action is changed by replacing a part of the plurality of classified actions with one action corresponding to the plurality of actions corresponding to the second granularity. Monitoring device.
前記プロセッサは、
前記分類された複数の行動の間の遷移確率を前記測位データに基づいて計算し、
所定の統計モデルに基づいて、前記遷移確率を複数のパターンに分類し、
前記各パターンにおける特定の二つの行動の間の遷移確率が所定の閾値より大きく、かつ、前記各パターンにおける当該二つの行動の間の遷移確率のばらつきが所定の閾値より小さい場合、当該二つの行動を一つの行動に変更することによって前記行動の分類を変更することを特徴とする請求項3に記載の監視装置。
The processor is
Calculating transition probabilities between the plurality of classified actions based on the positioning data;
Classifying the transition probability into a plurality of patterns based on a predetermined statistical model;
If the transition probability between two specific actions in each pattern is greater than a predetermined threshold and the variation in transition probability between the two actions in each pattern is less than a predetermined threshold, the two actions The monitoring apparatus according to claim 3, wherein the action classification is changed by changing the action to one action.
監視装置が監視対象区域内の複数の監視対象者の行動を監視する方法であって、
前記監視装置は、
プロセッサと、前記プロセッサに接続される記憶装置と、を備え、
前記複数の監視対象者が携行する移動体端末の位置を示す測位データを保持し、
前記方法は、
前記監視装置が、前記測位データの特徴量に基づいて前記監視対象者の行動を分類する第1手順と、
前記監視装置が、前記分類された行動に対応する複数の前記特徴量の相違の大きさ、又は、前記分類された行動に対応する前記特徴量の数に基づいて、複数の前記分類された行動から変更対象の候補を選択し、前記候補として選択された行動に対応する複数の測位データを抽出し、前記抽出された複数の測位データに関する情報を出力する第2手順と、
前記候補として選択された行動の分類を変更する指示が入力された場合、前記監視装置が、前記候補として選択された行動の分類を変更する第3手順と、を含むことを特徴とする方法。
A method in which a monitoring device monitors the behavior of a plurality of monitoring subjects in a monitoring target area,
The monitoring device
A processor and a storage device connected to the processor;
Holding positioning data indicating the position of the mobile terminal carried by the plurality of monitoring subjects,
The method
A first procedure in which the monitoring device classifies the behavior of the monitoring target person based on a feature amount of the positioning data;
The monitoring device has a plurality of the classified actions based on the difference between the plurality of feature quantities corresponding to the classified actions or the number of the feature quantities corresponding to the classified actions. A second procedure of selecting a candidate for change from the above, extracting a plurality of positioning data corresponding to the action selected as the candidate, and outputting information on the extracted positioning data;
And a third step of changing the classification of the action selected as the candidate when the instruction to change the classification of the action selected as the candidate is input.
前記監視装置は、前記監視対象区域内に設置された複数のセンサによって取得された情報及び前記情報が取得された時刻を示す情報を含む第1情報を保持し、前記各センサが前記第1情報を取得できる領域を特定する第2情報を保持し、
前記第2手順において、前記監視装置は、前記第1情報及び前記第2情報に基づいて、前記抽出された複数の測位データの各々が取得された時刻に、各々が示す位置を含む領域において前記センサによって取得された情報を出力することを特徴とする請求項13に記載の方法。
The monitoring device holds first information including information acquired by a plurality of sensors installed in the monitoring target area and information indicating a time when the information is acquired, and each sensor includes the first information. 2nd information that identifies the area where can be acquired,
In the second procedure, the monitoring device, in a region including a position indicated by each of the plurality of extracted positioning data based on the first information and the second information, The method according to claim 13, wherein the information acquired by the sensor is output.
前記第1手順において、前記監視装置は、前記特徴量をクラスタリングすることによって、各々が前記分類された行動に対応する複数のクラスタを生成し、
前記第2手順において、前記監視装置は、前記クラスタの大きさに基づいて、前記変更対象の候補を選択することを特徴とする請求項14に記載の方法。
In the first procedure, the monitoring device generates a plurality of clusters each corresponding to the classified behavior by clustering the feature amount ,
The method according to claim 14, wherein, in the second procedure, the monitoring device selects the candidate to be changed based on a size of the cluster.
前記第3手順において、前記監視装置は、前記変更対象の候補として選択された行動に対応するクラスタに含まれる複数の特徴量を、各々が前記抽出された測位データに対応する特徴量を含む複数のクラスタに分割することによって、前記候補として選択された行動の分類を変更することを特徴とする請求項15に記載の方法。   In the third procedure, the monitoring device includes a plurality of feature amounts included in a cluster corresponding to the action selected as the candidate for change, and a plurality of feature amounts each including a feature amount corresponding to the extracted positioning data. The method according to claim 15, wherein the classification of the action selected as the candidate is changed by dividing the cluster into a plurality of clusters.
JP2010269032A 2010-12-02 2010-12-02 Apparatus and method for monitoring the behavior of a monitored person Expired - Fee Related JP5495235B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010269032A JP5495235B2 (en) 2010-12-02 2010-12-02 Apparatus and method for monitoring the behavior of a monitored person
CN201110397969.3A CN102572390B (en) 2010-12-02 2011-12-02 Apparatus and method for monitoring motion of monitored objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010269032A JP5495235B2 (en) 2010-12-02 2010-12-02 Apparatus and method for monitoring the behavior of a monitored person

Publications (2)

Publication Number Publication Date
JP2012118838A JP2012118838A (en) 2012-06-21
JP5495235B2 true JP5495235B2 (en) 2014-05-21

Family

ID=46416707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010269032A Expired - Fee Related JP5495235B2 (en) 2010-12-02 2010-12-02 Apparatus and method for monitoring the behavior of a monitored person

Country Status (2)

Country Link
JP (1) JP5495235B2 (en)
CN (1) CN102572390B (en)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6103896B2 (en) * 2012-11-22 2017-03-29 株式会社アイリッジ Information providing apparatus, information output apparatus, and control program for information output apparatus
JP6150516B2 (en) * 2012-12-21 2017-06-21 アズビル株式会社 Facility management system, portable terminal, facility management apparatus, and facility management method
US9679252B2 (en) * 2013-03-15 2017-06-13 Qualcomm Incorporated Application-controlled granularity for power-efficient classification
JP2014182621A (en) * 2013-03-19 2014-09-29 Fuji Xerox Co Ltd Portable terminal equipment, portable terminal program, service management server, service management program and service providing system
GB2516865A (en) 2013-08-02 2015-02-11 Nokia Corp Method, apparatus and computer program product for activity recognition
JP5877825B2 (en) * 2013-11-25 2016-03-08 ヤフー株式会社 Data processing apparatus and data processing method
JP5842255B2 (en) 2013-12-12 2016-01-13 国立大学法人東京工業大学 Apparatus and method for generating logic circuit from logic circuit description in programming language
JP6321388B2 (en) * 2014-01-31 2018-05-09 株式会社野村総合研究所 Information analysis system
JP5679086B1 (en) * 2014-10-07 2015-03-04 富士ゼロックス株式会社 Information processing apparatus and information processing program
JP2017068335A (en) * 2015-09-28 2017-04-06 ルネサスエレクトロニクス株式会社 Data processing device and on-vehicle communication device
CN107438171A (en) * 2016-05-28 2017-12-05 深圳富泰宏精密工业有限公司 Monitoring system and method
JP6250852B1 (en) * 2017-03-16 2017-12-20 ヤフー株式会社 Determination program, determination apparatus, and determination method
WO2018173126A1 (en) * 2017-03-21 2018-09-27 三菱電機株式会社 Monitoring screen data generation device, monitoring screen data generation method, and monitoring screen data generation program
WO2018193808A1 (en) * 2017-04-21 2018-10-25 ソニー株式会社 Information processing device, information processing method, and program
JP6560321B2 (en) * 2017-11-15 2019-08-14 ヤフー株式会社 Determination program, determination apparatus, and determination method
WO2020003951A1 (en) 2018-06-26 2020-01-02 コニカミノルタ株式会社 Program executed by computer, information processing device, and method executed by computer
JP7052604B2 (en) * 2018-07-05 2022-04-12 富士通株式会社 Business estimation method, information processing device, and business estimation program
JP7329825B2 (en) * 2018-07-25 2023-08-21 公立大学法人岩手県立大学 Information provision system, information provision method, program
WO2020152878A1 (en) * 2019-01-23 2020-07-30 オムロン株式会社 Operation analysis device, operation analysis method, operation analysis program, and operation analysis system
JP6696016B2 (en) * 2019-02-20 2020-05-20 能美防災株式会社 Support system
CN111723617B (en) * 2019-03-20 2023-10-27 顺丰科技有限公司 Method, device, equipment and storage medium for identifying actions
JP7373187B2 (en) * 2019-09-19 2023-11-02 株式会社Local24 Flow line analysis system and flow line analysis method
JP2021148705A (en) * 2020-03-23 2021-09-27 公立大学法人岩手県立大学 Behavior estimation system, model learning system, behavior estimation method, model learning method, and program
JP7473899B2 (en) * 2021-11-16 2024-04-24 ジョージ・アンド・ショーン株式会社 Information processing device, program, and information processing system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3349033B2 (en) * 1996-03-15 2002-11-20 株式会社東芝 Purchasing behavior prediction device
JP4034812B2 (en) * 2004-10-14 2008-01-16 松下電器産業株式会社 Destination prediction apparatus and destination prediction method
WO2008146456A1 (en) * 2007-05-28 2008-12-04 Panasonic Corporation Information search support method and information search support device
JP2010049295A (en) * 2008-08-19 2010-03-04 Oki Electric Ind Co Ltd Information providing device and information providing method
JP5267659B2 (en) * 2009-04-10 2013-08-21 オムロン株式会社 Monitoring system and monitoring terminal

Also Published As

Publication number Publication date
CN102572390B (en) 2014-10-29
CN102572390A (en) 2012-07-11
JP2012118838A (en) 2012-06-21

Similar Documents

Publication Publication Date Title
JP5495235B2 (en) Apparatus and method for monitoring the behavior of a monitored person
US11735018B2 (en) Security system with face recognition
US9928423B2 (en) Efficient retrieval of anomalous events with priority learning
US11295139B2 (en) Human presence detection in edge devices
JP7032408B2 (en) Site detection
US8149278B2 (en) System and method for modeling movement of objects using probabilistic graphs obtained from surveillance data
US8660368B2 (en) Anomalous pattern discovery
JP5422859B2 (en) Monitoring device and suspicious behavior detection method
JP5355446B2 (en) Moving object tracking system and moving object tracking method
US11875569B2 (en) Smart video surveillance system using a neural network engine
WO2009137118A1 (en) System architecture and process for assessing multi-perspective multi-context abnormal behavior
US9854208B2 (en) System and method for detecting an object of interest
CN105100700A (en) Target tracking device using handover between cameras and method thereof
US20120109715A1 (en) Visualizing visitation patterns at sites of a commercial facility
US20200074175A1 (en) Object cognitive identification solution
US11429985B2 (en) Information processing device calculating statistical information
JP2018022284A (en) Customer service monitoring device, customer service monitoring system, and customer service monitoring method
CN108509502A (en) The speech interface of monitoring system for view-based access control model
US20190182790A1 (en) Enhancing indoor positioning using rf multilateration and optical sensing
KR101979375B1 (en) Method of predicting object behavior of surveillance video
KR102110375B1 (en) Video watch method based on transfer of learning
US9851784B2 (en) Movement line conversion and analysis system, method and program
CN114547386A (en) Positioning method and device based on Wi-Fi signal and electronic equipment
Wang et al. Adaptive room-level localization system with crowd-sourced WiFi data
US11227007B2 (en) System, method, and computer-readable medium for managing image

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140225

R150 Certificate of patent or registration of utility model

Ref document number: 5495235

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees