JP2015014864A - Guidance system - Google Patents

Guidance system Download PDF

Info

Publication number
JP2015014864A
JP2015014864A JP2013140418A JP2013140418A JP2015014864A JP 2015014864 A JP2015014864 A JP 2015014864A JP 2013140418 A JP2013140418 A JP 2013140418A JP 2013140418 A JP2013140418 A JP 2013140418A JP 2015014864 A JP2015014864 A JP 2015014864A
Authority
JP
Japan
Prior art keywords
person
suspicious person
user
guidance
route
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013140418A
Other languages
Japanese (ja)
Other versions
JP2015014864A5 (en
JP6200225B2 (en
Inventor
祐紀 斉藤
Yuki Saito
祐紀 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2013140418A priority Critical patent/JP6200225B2/en
Publication of JP2015014864A publication Critical patent/JP2015014864A/en
Publication of JP2015014864A5 publication Critical patent/JP2015014864A5/ja
Application granted granted Critical
Publication of JP6200225B2 publication Critical patent/JP6200225B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To allow a user to safely move by providing a guidance route on which it is difficult for a suspicious person to find the user.SOLUTION: In a guidance system configured of: a detection part S for detecting a person; a portable terminal 2 owned by a user; and a guidance device 1, the guidance device 1: detects the position of the person by using a preliminarily stored space map and the output of the detection part S; determines whether the person is a suspicious person or the user; searches a coverage until light radially projected from the position of the suspicious person in a direction of a predetermined range is blocked by a building structure as a visual field model; evaluates a route from the position of the user to a doorway D by using the visual field model; and transmits a route on which it is difficult for the suspicious person to find the user to the portable terminal 2 as a guidance route.

Description

本発明は、不審者が学校やオフィス内に侵入してきたときに、生徒やオフィスで働く人を安全に誘導する誘導システムに関する。   The present invention relates to a guidance system that safely guides students and people working in the office when a suspicious person enters the school or office.

従来、対人センサによる検知出力を用いて不審者の移動経路を特定し、GPS等により利用者(児童等)の位置を検出し、不審者の移動経路と利用者の位置とを用いて利用者の誘導経路(避難経路)を算出し、利用者が所持する携帯端末に当該誘導経路を可視情報として表示させることにより、屋内に侵入してきた不審者から利用者が安全に避難できるようにするシステムが提案されている(特許文献1)。   Conventionally, the movement path of a suspicious person is identified using detection output from a personal sensor, the position of a user (children, etc.) is detected by GPS or the like, and the user is detected using the movement path of the suspicious person and the position of the user. A system that allows a user to evacuate safely from a suspicious person who has entered the house by calculating the guidance route (evacuation route) and displaying the guidance route as visible information on a portable terminal possessed by the user Has been proposed (Patent Document 1).

特開2003−288657号公報JP 2003-288657 A

しかし、上記の従来技術においては、不審者と利用者との相対位置や不審者の移動経路を考慮して誘導経路を算出しているものの、不審者からの見つかり易さといった観点について考慮されていない。そのため、どんなに不審者との距離が離れていたとしても、一旦不審者に発見されてしまった場合、不審者からの威嚇・恫喝により児童や女性が脅えてしまい、適切に避難することが困難となり得る。   However, in the above prior art, although the guide route is calculated in consideration of the relative position between the suspicious person and the user and the movement route of the suspicious person, the viewpoint of easiness to find from the suspicious person is taken into consideration. Absent. Therefore, no matter how far away from the suspicious person, once they are discovered by the suspicious person, threats and threats from the suspicious person will threaten children and women, making it difficult to evacuate properly. obtain.

そこで、本発明は、建物構造と不審者の位置とから不審者の視野範囲(見えうる範囲)を考慮し、利用者の不審者からの見つかり易さを評価して、見つかり難い誘導経路を利用者に提示できるようにすることにより、より安全な非難が行えるよう誘導することを目的とする。   Therefore, the present invention considers the suspicious person's visual field range (visible range) from the building structure and the suspicious person's position, evaluates the user's easiness of finding from the suspicious person, and uses a difficult-to-find guidance route. The purpose is to guide the person to make safer blame by making it possible to present to the person.

かかる課題を解決するために、監視空間に設置され人物を検知する検知部と、利用者に所持される携帯端末と、利用者の現在位置から目的位置に至るまでの不審者から見つかり難い誘導経路を算出し前記携帯端末に該誘導経路を送信する誘導装置とから構成される誘導システムであって、
前記誘導装置は、前記監視空間の構造と前記検知部の設置位置とを示した空間マップ、及び前記空間マップ上における目的位置を予め記憶した記憶部と、前記検知部の出力と前記空間マップとを用いて前記監視空間に存在する人物の位置を検出する人物検出手段と、前記人物の位置に存在する人物が不審者か利用者かを判定する人物判定手段と、前記空間マップにおける不審者位置から所定範囲の方向に放射状に投光した光が前記構造によって遮られるまでの到達範囲を視野モデルとして求め、該視野モデルを用いて利用者位置から前記目的位置までに至る一又は複数の誘導経路候補をそれぞれ評価し、該不審者から最も見つかり難い該誘導経路候補を前記誘導経路として生成する誘導経路生成手段と、を有することを特徴とする誘導システムを提供する。
かかる構成により、本発明の誘導システムは、不審者の視野範囲を視野モデルとして算出し、当該視野モデルを用いて不審者から最も見つかり難い誘導経路を算出し、当該誘導経路を利用者の所持する携帯端末に送信できるため、利用者はより安全に目的位置まで移動することができる。
In order to solve such a problem, a detection unit installed in a monitoring space for detecting a person, a portable terminal held by the user, and a guide route that is difficult to find from a suspicious person from the current position of the user to the target position A guidance system comprising a guidance device that calculates and transmits the guidance route to the portable terminal,
The guidance device includes a space map indicating a structure of the monitoring space and an installation position of the detection unit, a storage unit that stores in advance a target position on the space map, an output of the detection unit, and the space map. A person detecting means for detecting the position of the person existing in the monitoring space using a person, a person determining means for determining whether the person existing in the position of the person is a suspicious person or a user, and a suspicious person position in the space map One or a plurality of guiding paths from the user position to the target position using the visual field model by determining the reach range until the light projected radially in the direction of the predetermined range is blocked by the structure And a guide route generating means for evaluating each candidate and generating the guide route candidate that is most difficult to find from the suspicious person as the guide route. To provide.
With this configuration, the guidance system of the present invention calculates the visual field range of the suspicious person as the visual field model, calculates the guidance route that is most difficult to find from the suspicious person using the visual field model, and possesses the guidance route by the user. Since it can transmit to a portable terminal, the user can move to a target position more safely.

また、本発明の好ましい態様は、前記誘導経路生成手段は、前記検知部の出力を用いて前記不審者の正面方向を推定し、該正面方向に位置する前記誘導経路候補であるほど見つかり易いとして評価するものとする。
かかる構成により、不審者の正面方向の位置を移動しなければならないような誘導経路候補であるほど、不審者に見つかり易いとして評価されるため、利用者はできるだけ正面方向に位置しない誘導経路で移動でき、より安全に目的位置まで移動することができる。
Further, according to a preferred aspect of the present invention, the guidance route generation means estimates the front direction of the suspicious person using the output of the detection unit, and the guidance route candidate located in the front direction is more likely to be found. Shall be evaluated.
With this configuration, the guide route candidate that must move the position of the suspicious person in the front direction is evaluated as being easily found by the suspicious person. Therefore, the user moves along the guide route that is not located in the front direction as much as possible. Can be moved to the target position more safely.

また、本発明の好ましい態様は、前記誘導経路生成手段は、前記検知部の出力の時間推移を用いて現在時刻から後の評価期間における前記不審者位置を推定し、該不審者位置と空間マップとを用いて評価期間における前記視野モデルを推定し、該評価期間における前記利用者位置を前記誘導経路候補毎に推定し、該視野モデルと該利用者位置とを用いて誘導経路候補毎に評価期間における不審者からの見つかり易さを評価して、不審者から最も見つかり難い該誘導経路候補を前記誘導経路として生成するものとする。
かかる構成により、未来時刻における不審者位置を推定し、当該不審者位置における視野モデルと、未来時刻における利用者位置とを用いて不審者からの見つかり易さを評価することによって、不審者の移動を考慮して見つかり難い誘導経路を求めることができ、利用者に対してより安全性の高い誘導経路の情報を提供することができる。
In a preferred aspect of the present invention, the guidance route generation means estimates the suspicious person position in an evaluation period after the current time using a time transition of the output of the detection unit, and the suspicious person position and the spatial map Is used to estimate the visual field model in the evaluation period, the user position in the evaluation period is estimated for each guidance route candidate, and evaluation is performed for each guidance route candidate using the visual field model and the user position. The ease of finding from a suspicious person in a period is evaluated, and the guidance route candidate that is most difficult to find from a suspicious person is generated as the guidance route.
With this configuration, the position of the suspicious person is estimated by estimating the position of the suspicious person at the future time and evaluating the easiness to find from the suspicious person using the visual field model at the position of the suspicious person and the user position at the future time. It is possible to obtain a guidance route that is difficult to find in consideration of the above, and to provide information on the guidance route with higher safety to the user.

また、本発明の好ましい態様は、前記空間マップにおける前記構造は、3次元形状として記憶され、前記視野モデルは、前記空間マップにおける不審者の水平位置であって目の位置に相当する高さ位置を中心として該位置から所定方向に放射状に投光した光が前記構造によって遮られるまでの到達範囲からなる3次元形状であるものとする。
かかる構成により、構造による不審者の視線の隠蔽をより正確に算出でき、不審者の視野範囲をより忠実に再現できるため、より高い精度で不審者から見つかり難い誘導経路を算出することができる。
In a preferred aspect of the present invention, the structure in the spatial map is stored as a three-dimensional shape, and the visual field model is a horizontal position of a suspicious person in the spatial map and a height position corresponding to an eye position. It is assumed that it has a three-dimensional shape consisting of an arrival range until light projected radially from the position in a predetermined direction is blocked by the structure.
With this configuration, the hiding of the suspicious person's line of sight due to the structure can be calculated more accurately, and the visual field range of the suspicious person can be more faithfully reproduced.

また、本発明の好ましい態様は、前記誘導経路生成手段は、前記不審者位置と前記利用者位置との離間距離を算出し、該利用者位置から前記目的位置に至る経路の総距離を算出し、該離間距離が小さいほど不審者から見つかり易いと評価すると共に、該総距離が大きいほど不審者から見つかり易いと評価するものとする。
かかる構成により、離間距離が大きい誘導経路候補であるほど誘導経路として設定され易く、総距離が大きい誘導経路候補であるほど誘導経路として設定され難い。そのため、目的位置にできるだけ早く到達でき、不審者からできるだけ距離をとれる誘導経路を利用者に提示できるため、総合的に見つかり難い安全な誘導経路を利用者に提供することができる。
In a preferred aspect of the present invention, the guidance route generation means calculates a separation distance between the suspicious person position and the user position, and calculates a total distance of a route from the user position to the target position. Assume that the smaller the separation distance is, the easier it is to be found from a suspicious person, and the larger the total distance is, the easier it is to be found from a suspicious person.
With this configuration, a guide route candidate with a larger separation distance is more likely to be set as a guide route, and a guide route candidate with a larger total distance is less likely to be set as a guide route. Therefore, the user can be presented with a guide route that can reach the target position as soon as possible and can be as far away as possible from the suspicious person, so that a safe guide route that is difficult to find comprehensively can be provided to the user.

上記のように、本発明の誘導システムは、不審者から見えうる範囲を考慮することにより、不審者から見つかり難い誘導経路を利用者に対して提示することができる。   As described above, the guidance system of the present invention can present to the user a guidance route that is difficult to find from the suspicious person by considering the range that can be seen by the suspicious person.

誘導システムの概観図Overview of guidance system 検知部の監視範囲を説明する図The figure explaining the monitoring range of a detection part 誘導装置のブロック図Block diagram of guidance device 視野モデルを説明する図Diagram explaining the visual field model 検知信号テーブルの例を表す図The figure showing the example of a detection signal table 追跡テーブルの例を表す図Diagram showing an example of a tracking table 制御部の処理のフローチャートFlowchart of control unit processing 誘導経路生成処理のフローチャートFlow chart of guidance route generation processing 誘導経路候補の例を表す図Diagram showing examples of guide route candidates 発覚度の算出を説明する図Diagram explaining the calculation of awareness 第二の実施形態における誘導経路生成処理のフローチャートFlowchart of guidance route generation processing in the second embodiment 未来時刻における不審者位置を説明する図Diagram explaining suspicious person position at future time 未来時刻における利用者位置を説明する図Diagram explaining user position at future time 第二の実施形態における発覚度の算出を説明する図The figure explaining calculation of the degree of detection in 2nd embodiment 総距離と離間距離とを説明する図Diagram explaining total distance and separation distance 重み付けをした視野モデルの例について説明する図A diagram for explaining an example of a weighted visual field model 3次元の空間マップと視野モデルの例Example of 3D spatial map and visual field model

(第一の実施形態)
以下、本発明の一実施形態として、建物内を監視空間とし、当該監視空間に不審者が侵入したときに、当該侵入者に見つかり難い避難経路(誘導経路)にて誘導先である目的位置(出入口)に誘導する誘導システムについて、図面を参照して説明する。
(First embodiment)
Hereinafter, as one embodiment of the present invention, when a building is set as a monitoring space, and a suspicious person enters the monitoring space, a destination position that is a guidance destination in an evacuation route (guidance route) that is difficult to be found by the intruder ( A guidance system for guiding to the doorway will be described with reference to the drawings.

図1に本実施形態で利用する誘導システムの概観図を表す。図1に表すように、本実施形態における監視空間を形成する建物Bは、ハッチングで塗られた通路Pと、出入口Dと、符号W1〜W9に示す窓とから構成される。また、窓Wは透光性のガラス素材が用いられているため、通路Pに存在する人物は窓W4〜W7を介して建物Bの中庭などを見たり、窓W1〜W3、W8、W9を介して建物Bの外部を見たりすることが可能である。また、誘導システムは、検知部S、誘導装置1、携帯端末2、ネットワーク3、無線通信装置4によって構成される。   FIG. 1 shows an overview of the guidance system used in this embodiment. As shown in FIG. 1, the building B forming the monitoring space in the present embodiment includes a passage P painted by hatching, an entrance D, and windows indicated by reference numerals W1 to W9. Moreover, since the transparent glass material is used for the window W, the person who exists in the passage P can see the courtyard of the building B through the windows W4 to W7, and the windows W1 to W3, W8, and W9. It is possible to see the outside of the building B through The guidance system includes a detection unit S, a guidance device 1, a portable terminal 2, a network 3, and a wireless communication device 4.

建物Bの通路Pにおける天井部には、符号S1〜S29に示す検知部Sが設置されている。検知部Sは、検知範囲内に所在する人物の人体から放射される赤外線を受光し、その受光量の変化に基づいて人体等の存否を検出する赤外線センサである。本実施形態では、図2に表すように、検知部S1〜S29の検知範囲は、それぞれ符号A1〜A29の点線内のハッチングで示す範囲として設定されている。検知部S1〜S29は、通信回線を介してLAN回線等からなるネットワーク3に接続されており、検知範囲A内において人物を検知したとき、検知した検知部Sの識別番号と検知時刻とを記した検知信号が当該ネットワーク3を介して誘導装置1に送信する。   On the ceiling portion in the passage P of the building B, a detection unit S indicated by reference numerals S1 to S29 is installed. The detection unit S is an infrared sensor that receives infrared rays emitted from the human body of a person located within the detection range and detects the presence or absence of a human body or the like based on a change in the amount of received light. In the present embodiment, as shown in FIG. 2, the detection ranges of the detection units S1 to S29 are set as ranges indicated by hatching within the dotted lines of reference signs A1 to A29, respectively. The detection units S1 to S29 are connected to the network 3 including a LAN line or the like via a communication line. When a person is detected within the detection range A, the detection unit S1 to S29 records the identification number and detection time of the detected detection unit S. The detected signal is transmitted to the guidance device 1 via the network 3.

誘導装置1は、建物B内の図示しない事務室や警備室、サーバルーム等に設置されたコンピュータであり、ネットワーク3を介して送信された検知部Sの検知信号に基づいて利用者の安全な誘導経路を算出し、利用者によって所持される携帯端末2に対して算出した誘導経路の情報を送信する処理を行う。この際、誘導装置1は、ネットワーク3に接続された無線通信装置4を介して、無線通信によって算出した誘導経路の情報を携帯端末2に送信する。なお、無線通信装置4は、無線LANルータや無線アクセスポイント等の通信機器である。   The guidance device 1 is a computer installed in an office room, a security room, a server room (not shown) in the building B, and the user's safety based on the detection signal of the detection unit S transmitted via the network 3. A process of calculating the guide route and transmitting the calculated guide route information to the mobile terminal 2 possessed by the user is performed. At this time, the guidance device 1 transmits information on the guidance route calculated by wireless communication to the mobile terminal 2 via the wireless communication device 4 connected to the network 3. The wireless communication device 4 is a communication device such as a wireless LAN router or a wireless access point.

携帯端末2は、スマートフォン、PDA、タブレット端末等の表示画面21を備えた電子デバイスであって、児童等の建物Bにおける正規利用者である利用者Yによって携帯されるものである。携帯端末2は、誘導装置1から無線通信装置4を介して送信された誘導経路の情報を受信し、当該誘導経路の情報に基づいて、建物Bの地図上に誘導経路を示した画像情報を生成し、表示画面21に表示させる処理を行う。利用者Yは、表示画面21に表示された誘導経路を参照することにより、不審者に見つかり難い安全な誘導経路を把握することができる。   The portable terminal 2 is an electronic device having a display screen 21 such as a smartphone, a PDA, or a tablet terminal, and is carried by a user Y who is a regular user in a building B such as a child. The mobile terminal 2 receives the information on the guidance route transmitted from the guidance device 1 via the wireless communication device 4, and based on the information on the guidance route, displays image information indicating the guidance route on the map of the building B. A process of generating and displaying on the display screen 21 is performed. The user Y can grasp a safe guide route that is difficult for a suspicious person to find by referring to the guide route displayed on the display screen 21.

図3は、誘導装置1の構成を示している。上述した機能を実現するべく、本実施形態の誘導装置1は、記憶部11、制御部12、入力部13、通信部14を含んで概略構成される。
入力部13は、キーボードやマウス、タッチパネル、可搬記憶媒体の読み取り装置等の情報入力デバイスである。システムの管理者等は、入力部13を用いて、誘導装置1に対して建物Bの地図である後述する空間マップ111や、当該地図における検知部Sの設置位置情報等の様々な設定情報等を入力することができる。
FIG. 3 shows the configuration of the guidance device 1. In order to realize the functions described above, the guidance device 1 of the present embodiment is schematically configured to include a storage unit 11, a control unit 12, an input unit 13, and a communication unit 14.
The input unit 13 is an information input device such as a keyboard, a mouse, a touch panel, or a portable storage medium reading device. A system administrator or the like uses the input unit 13 to set various types of setting information such as a space map 111 (to be described later) that is a map of the building B with respect to the guidance device 1, installation position information of the detection unit S on the map, Can be entered.

記憶部11は、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の情報記憶装置である。記憶部11は、各種プログラムや各種データを記憶し、制御部12との間でこれらの情報を入出力する。各種データには、空間マップ111、目的位置112、視野モデル113、検知信号テーブル114、追跡テーブル115の他、制御部12の各処理に用いられる設定値等の各種パラメータ116や、制御部12の処理によって求めた最終的に算出する誘導経路等の演算結果等が含まれる。   The storage unit 11 is an information storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), and an HDD (Hard Disk Drive). The storage unit 11 stores various programs and various data, and inputs / outputs such information to / from the control unit 12. The various data includes a spatial map 111, a target position 112, a visual field model 113, a detection signal table 114, a tracking table 115, various parameters 116 such as setting values used for each process of the control unit 12, and the control unit 12 Calculation results and the like of the guidance route and the like finally calculated obtained by the processing are included.

空間マップ111は、監視空間である建物Bの構造と検知部Sの設置位置とを示したいわゆる地図情報であり、座標情報として記憶部11に記憶されている。また、建物Bの構造をなす各構成要素には属性が付与されている。例えば、窓Wや出入口D等といった構成要素の種別を表す属性や、窓Wは透光性を有する材質であるといったような構成要素の材質を表す属性が付与されている。空間マップ111は、管理者等により入力部13から設定登録されることにより記憶部11に記憶される。   The space map 111 is so-called map information indicating the structure of the building B that is the monitoring space and the installation position of the detection unit S, and is stored in the storage unit 11 as coordinate information. In addition, an attribute is given to each component constituting the structure of the building B. For example, an attribute indicating the type of a component such as a window W or an entrance / exit D, or an attribute indicating a material of the component such as the window W being a light-transmitting material is given. The space map 111 is stored in the storage unit 11 by being registered from the input unit 13 by an administrator or the like.

目的位置112は、利用者Yを誘導すべき場所を示した空間マップ111における位置情報であり、座標情報として記憶部11に記憶されている。本実施形態では、利用者Yが安全を確保できる出入口Dを目的位置112として建物の出入口Dの重心位置の座標情報が、管理者等により予め設定されている。しかし、これに限らず、目的位置112を逃げ遅れ児童の位置として設定する実施形態であってもよい。これにより、当該逃げ遅れ児童を救出する際に、不審者に見つかり難い救出経路(誘導経路)を利用者(例えば、先生等の救出側の人物)に提示することができる。さらに、目的位置112を予め複数個設定しておき、状況に応じて採用する目的位置112を自動選択する実施形態であってもよい。例えば、予め登録された複数の目的位置112の中から現在の利用者位置に最も近い目的位置112を自動で選択してもよい。   The target position 112 is position information in the spatial map 111 indicating a place where the user Y should be guided, and is stored in the storage unit 11 as coordinate information. In the present embodiment, the coordinate information of the gravity center position of the entrance D of the building is set in advance by an administrator or the like with the entrance D where the user Y can ensure safety as the target position 112. However, the present invention is not limited to this, and the embodiment may be such that the target position 112 is set as the position of a child who is late to escape. As a result, when a child who is late to escape is rescued, a rescue route (guide route) that is difficult to be found by a suspicious person can be presented to a user (for example, a rescuer such as a teacher). Furthermore, an embodiment in which a plurality of target positions 112 are set in advance and the target positions 112 to be employed are automatically selected according to the situation may be used. For example, the destination position 112 closest to the current user position may be automatically selected from a plurality of destination positions 112 registered in advance.

視野モデル113は、不審者Xの視野範囲(およそ見渡せるであろう範囲)を空間マップ111に対応付けてモデリングした情報であり、空間マップ111における座標情報として記憶部11に記憶される。視野モデル113は、不審者Xの位置情報(以下、「不審者位置」という)と空間マップ111とを用いて、後述する制御部12の誘導経路生成手段123によって適宜生成され、記憶部11に記憶される。図4は、視野モデル113を説明する図であって、同図(a)は時刻t0のときにおける不審者Xの視野モデル113であり、同図(b)は時刻t1のときにおける不審者Xの視野モデル113を表している。図4に表すように、視野モデル113は、不審者位置を中心として所定範囲の方向(例えば、360°周囲の範囲方向)に放射状に投光した光が建物Bの構造(壁面等)によって遮られるまでの到達範囲を視野モデル113として求められる。なお、本実施形態では、投光する「所定範囲の方向」として、360°の範囲の全周囲方向を採用しているがこれに限らず、不審者Xの進行方向を0°として±70°の範囲の方向を所定範囲の方向として採用しても良い。また、図4では、予め設定した半径L[m](例えば、20[m])までを光の到達範囲Mとして設定しているが、これに限らず、光の到達範囲Mを設定しない(∞と設定する)ことによって視野モデル113を算出してもよい。   The visual field model 113 is information obtained by modeling the visual field range of the suspicious person X (a range that can be almost seen) in association with the spatial map 111, and is stored in the storage unit 11 as coordinate information in the spatial map 111. The visual field model 113 is appropriately generated by the guidance route generation means 123 of the control unit 12 to be described later using the position information of the suspicious person X (hereinafter referred to as “suspicious person position”) and the space map 111, and is stored in the storage unit 11. Remembered. FIG. 4 is a diagram for explaining the visual field model 113. FIG. 4A shows the visual field model 113 of the suspicious person X at the time t0, and FIG. 4B shows the suspicious person X at the time t1. The visual field model 113 is shown. As shown in FIG. 4, the visual field model 113 is configured such that light projected radially in a predetermined range direction (for example, a range direction around 360 °) centered on the position of the suspicious person is blocked by the structure (wall surface, etc.) of the building B. The reachable range until it is obtained is obtained as the visual field model 113. In the present embodiment, the 360 ° range is used as the “predetermined range direction” for projecting light. However, the present invention is not limited to this, and the traveling direction of the suspicious person X is 0 ° and ± 70 °. The direction of the range may be adopted as the direction of the predetermined range. In FIG. 4, the light reaching range M is set up to a preset radius L [m] (for example, 20 [m]). However, the present invention is not limited to this, and the light reaching range M is not set ( The visual field model 113 may be calculated by setting (∞).

検知信号テーブル114は、検知部Sから受信した検知信号に基づいて作成及び更新されるテーブルであって、図5に示されるように、受信した検知信号を送信した検知部Sの識別番号と、検知した時刻と、検知信号に基づいて後述する人物検出手段121にて算出された人物位置とを対応付けるテーブルである。なお、本実施形態では、受信した検知部Sの識別番号に対応する検知部Sの設置位置の座標を、人物位置として用いる。しかし、これに限らず、検知部Sの検知範囲Aの重心位置の座標を、人物位置として設定してもよい。   The detection signal table 114 is a table created and updated based on the detection signal received from the detection unit S. As shown in FIG. 5, the identification number of the detection unit S that has transmitted the received detection signal, and It is a table which matches the detected time and the person position calculated by the person detection means 121 mentioned later based on the detection signal. In the present embodiment, the coordinates of the installation position of the detection unit S corresponding to the received identification number of the detection unit S are used as the person position. However, the present invention is not limited to this, and the coordinates of the gravity center position of the detection range A of the detection unit S may be set as the person position.

追跡テーブル115は、検知信号テーブル114等の情報に基づいて作成及び更新されるテーブルであって、図6に示されるように、時刻と、後述する人物検出手段121にて追跡した人物の識別番号(人物ID)と、当該時刻における当該人物の人物位置と、後述する人物判定手段122にて判定した人物の属性(不審者/利用者)とを対応付けるテーブルである。   The tracking table 115 is a table that is created and updated based on information such as the detection signal table 114, and as shown in FIG. 6, the time and the identification number of the person tracked by the person detecting means 121 described later. (Person ID), a person position of the person at the time, and a person attribute (suspicious person / user) determined by the person determination unit 122 described later.

通信部14は、LANやUSB等の通信インタフェースであり、ネットワーク3を介して検知部Sや携帯端末2や無線通信装置4と通信を行う。   The communication unit 14 is a communication interface such as a LAN or USB, and communicates with the detection unit S, the mobile terminal 2, and the wireless communication device 4 via the network 3.

制御部12は、例えばCPUやDSP等の演算装置であって、記憶部11に記憶されるプログラムに従って各種の情報処理を実行する。本実施形態では、制御部12は、検知部Sからの検知信号の入力を受け、後述する図7、図8に示す一連の処理を実行すべく、人物検出手段121、人物判定手段122、誘導経路生成手段123を含んでいる。また、制御部12は、入力部13からの設定情報や操作情報等の入力情報を記憶部11に保存する処理を行う。   The control unit 12 is an arithmetic device such as a CPU or a DSP, for example, and executes various types of information processing according to programs stored in the storage unit 11. In the present embodiment, the control unit 12 receives a detection signal from the detection unit S and performs a series of processes shown in FIGS. 7 and 8 to be described later. The route generation means 123 is included. In addition, the control unit 12 performs processing for storing input information such as setting information and operation information from the input unit 13 in the storage unit 11.

人物検出手段121は、ネットワーク3を介して受信した検知部Sからの検知信号に基づいて監視空間に存在する人物の位置を検出する位置検出処理と、検出された人物を時間的に追跡する追跡処理とを行う。位置検出処理では、受信した検知信号に基づいて検知信号テーブル114を更新する処理を行う。例えば、図5の例のように、現在時刻がt0であるとき、検知部S2及びS22から検知信号を受信したとする。この場合、これらの検知部S2、S22に対応する検知範囲A2、A22の範囲内の位置に人物が存在すると判定し、検知信号テーブル114に当該位置を検知時刻と検知信号と共に追記するよう更新するよう処理する。次に、追跡処理では、検知信号テーブル114の過去時刻から現在時刻までの人物位置の位置関係に基づいて、各時刻間における同一人物を対応付け、人物を時間的に追跡する処理を行う。例えば、図6の例において、時刻t0において検知範囲A2の位置に人物を検出したとき、その次の時刻t1において当該位置A2に人物を検出せずに当該位置A2に隣接する位置である検知範囲A3に人物を検出したとき、人物がA2の位置からA3の位置に移動したとして、前後の時刻におけるこれらの人物を同一人物として関連付ける。すなわち、前の時刻t0にA2に存在していた人物ID(=X)と同一の人物ID(=X)が付与されるよう現在時刻t1における追跡テーブル115が更新される。   The person detection unit 121 detects a position of a person existing in the monitoring space based on a detection signal from the detection unit S received via the network 3 and tracking for tracking the detected person in time. Process. In the position detection process, the detection signal table 114 is updated based on the received detection signal. For example, assume that detection signals are received from the detection units S2 and S22 when the current time is t0 as in the example of FIG. In this case, it is determined that there is a person in a position within the detection ranges A2 and A22 corresponding to these detection units S2 and S22, and the detection signal table 114 is updated to add the position together with the detection time and the detection signal. Process as follows. Next, in the tracking process, based on the positional relationship of the person positions from the past time to the current time in the detection signal table 114, the process of tracking the person in time by associating the same person at each time is performed. For example, in the example of FIG. 6, when a person is detected at the position of the detection range A2 at time t0, a detection range that is a position adjacent to the position A2 without detecting a person at the position A2 at the next time t1. When a person is detected at A3, assuming that the person has moved from the position A2 to the position A3, these persons at the previous and subsequent times are associated as the same person. That is, the tracking table 115 at the current time t1 is updated so that the same person ID (= X) as the person ID (= X) existing at A2 at the previous time t0 is given.

人物判定手段122は、人物検出手段121によって初めて検出された人物が不審者であるか利用者であるかを判定する人物判定処理を行う。本実施形態では、出入口Dが適切に出入管理されているといった前提の下で、出入口Dから入った人物は適正な人物(利用者)であると判定し、出入口D以外の位置から建物B内に侵入した人物を不適正な人物(不審者)であると判定する。すなわち、ある人物が出入口Dの位置する検知範囲A10以外の検知範囲において初めて検出されたとき、当該人物は不審者であると判定される。例えば、ある人物の初めて検出された位置がA1であったとき、当該人物は窓W1から侵入した不審者であるとして、追跡テーブル115における当該人物の人物IDに対応する属性を「不審者」として更新する。一方、ある人物の初めて検出された位置がA10であったとき、当該人物は適正な出入管理(例えば、入館時における認証)を経て入ってきた適正な利用者であるとして、当該人物の人物IDに対応する属性を「利用者」として更新する。なお、一度属性が判定された人物については、以降の処理において人物判定処理の処理対象とはならず、追跡している同一人物は同じ属性を有するよう更新される。   The person determination unit 122 performs a person determination process for determining whether the person first detected by the person detection unit 121 is a suspicious person or a user. In this embodiment, on the assumption that the entrance / exit D is appropriately controlled, the person entering the entrance / exit D is determined to be an appropriate person (user), and the inside of the building B from a position other than the entrance / exit D It is determined that the person who has intruded is an inappropriate person (suspicious person). That is, when a person is detected for the first time in a detection range other than the detection range A10 where the entrance D is located, the person is determined to be a suspicious person. For example, when the position at which a certain person is detected for the first time is A1, it is assumed that the person is a suspicious person who has entered through the window W1, and the attribute corresponding to the person ID of the person in the tracking table 115 is “suspicious person”. Update. On the other hand, when the position at which a certain person is detected for the first time is A10, it is assumed that the person is an appropriate user who has entered through appropriate entrance / exit management (for example, authentication at the time of admission). The attribute corresponding to is updated as “user”. Note that a person whose attribute has been determined is not subject to the person determination process in the subsequent processes, and the same person being tracked is updated to have the same attribute.

誘導経路生成手段123は、不審者から最も見つかり難い安全な利用者の誘導経路を生成する誘導経路生成処理を行う。なお、誘導経路生成処理の詳細については追って説明する。   The guide route generation unit 123 performs a guide route generation process for generating a safe user guide route that is most difficult to find from a suspicious person. Details of the guidance route generation process will be described later.

(誘導装置1の制御部12の処理動作について)
次に、上記構成による誘導装置1を用いて誘導経路を生成し利用者が所持する携帯端末2に当該誘導経路を送信するまでの制御部12の処理動作について図7を参照しながら説明する。
(Regarding the processing operation of the control unit 12 of the guidance device 1)
Next, a processing operation of the control unit 12 until a guidance route is generated using the guidance device 1 having the above-described configuration and the guidance route is transmitted to the mobile terminal 2 possessed by the user will be described with reference to FIG.

誘導装置1が起動されると、制御部12は、検知信号の取得処理を実行する(ST1)。検知信号の取得処理では、検知部Sが人物を検知した際に送信する検知信号を受信し、当該検知信号に記された検知時刻と検知部Sの識別番号と対応付けて検知信号テーブル114を更新する処理を行う。   When the guidance device 1 is activated, the control unit 12 executes detection signal acquisition processing (ST1). In the detection signal acquisition process, a detection signal transmitted when the detection unit S detects a person is received, and the detection signal table 114 is associated with the detection time described in the detection signal and the identification number of the detection unit S. Perform the update process.

次に、制御部12の人物検出手段121は、ST1にて受信した検知信号の識別番号と記憶部11の(検知部Sの設置位置が記された)空間マップ111とに基づいて、当該識別番号に対応する人物位置を検出する位置検出処理を実行する(ST2)。すなわち、受信した識別番号に対応する検知部Sの設置位置を空間マップ111から求め、当該検知部Sの設置位置の座標を人物位置として検出し、当該人物位置を検知信号テーブル114に記憶する処理を行う。   Next, the person detection means 121 of the control unit 12 performs the identification based on the identification number of the detection signal received in ST1 and the spatial map 111 (in which the installation position of the detection unit S is written) of the storage unit 11. A position detection process for detecting a person position corresponding to the number is executed (ST2). That is, a process of obtaining the installation position of the detection unit S corresponding to the received identification number from the space map 111, detecting the coordinates of the installation position of the detection unit S as a person position, and storing the person position in the detection signal table 114 I do.

次に、制御部12の人物検出手段121は、ST1及びST2にて更新された検知信号テーブル114の過去時刻から現在時刻までの人物位置の位置関係に基づいて、各時刻間における人物を対応付け、人物を時間的に追跡する追跡処理を行う(ST3)。なお、追跡処理の詳細については前述したため、ここでは説明を省略する。   Next, the person detection unit 121 of the control unit 12 associates persons between the times based on the positional relationship of the person positions from the past time to the current time in the detection signal table 114 updated in ST1 and ST2. A tracking process for tracking a person in time is performed (ST3). Since the details of the tracking process have been described above, the description thereof is omitted here.

次に、制御部12は、追跡テーブル115に基づいて、現在時刻において監視空間内に人物が存在しているか否かを判定する(ST4)。具体的には、現在時刻において、追跡テーブル115に人物IDが付与された人物が1人以上記憶されているとき監視空間内に人物が存在していると判定し(ST4−Yes)、ST5に処理を進める。一方、現在時刻において、追跡テーブル115に人物IDが付与された人物が1人以上記憶されていないとき監視空間内に人物が存在していないと判定し(ST4−No)、ST1に処理を進める。   Next, based on the tracking table 115, the control unit 12 determines whether a person exists in the monitoring space at the current time (ST4). Specifically, when at least one person with a person ID is stored in the tracking table 115 at the current time, it is determined that there is a person in the monitoring space (ST4-Yes), and ST5 Proceed with the process. On the other hand, if at least one person with a person ID is not stored in the tracking table 115 at the current time, it is determined that no person exists in the monitoring space (ST4-No), and the process proceeds to ST1. .

次に、制御部12の人物判定手段122は、ST1〜ST3までの処理において、初めて検出された人物が不審者であるか利用者であるかを判定し、追跡テーブル115の属性を更新する人物判定処理を行う(ST5)。本実施形態では、追跡テーブル115の属性情報が記憶されていない人物が初めて検出された人物とし、当該人物が人物判定処理の対象人物となる。そして、対象人物の現在位置が、A10の位置であるとき当該対象人物は利用者であると判定し、A10以外の位置であるとき当該対象人物は不審者であると判定する。   Next, the person determination unit 122 of the control unit 12 determines whether the person detected for the first time is a suspicious person or a user in the processes from ST1 to ST3, and updates the attribute of the tracking table 115. A determination process is performed (ST5). In the present embodiment, a person for whom attribute information in the tracking table 115 is not stored is a person who is detected for the first time, and the person is a target person for person determination processing. Then, when the current position of the target person is the position of A10, it is determined that the target person is a user, and when it is a position other than A10, the target person is determined to be a suspicious person.

次に、制御部12は、記憶部11の追跡テーブル115を参照し、現在時刻において監視空間内に「不審者が存在している、かつ利用者が存在している」を満たしているか否かを判定する(ST6)。現在時刻において、「不審者が存在し、利用者も存在する」とき(ST6−Yes)、制御部12はST7に処理を進める。一方、現在時刻において、「不審者が存在しない」あるいは「利用者が存在しない」とき(ST6−No)、制御部12はST1に処理を進める。   Next, the control unit 12 refers to the tracking table 115 of the storage unit 11, and whether or not “the suspicious person exists and the user exists” in the monitoring space at the current time is satisfied. Is determined (ST6). At the current time, when “a suspicious person exists and a user also exists” (ST6-Yes), the control unit 12 advances the process to ST7. On the other hand, when “the suspicious person does not exist” or “the user does not exist” at the current time (ST6-No), the control unit 12 advances the process to ST1.

次に、制御部12の誘導経路生成手段123は、監視空間に存在する不審者から最も見つかり難い安全な利用者の誘導経路を生成する誘導経路生成処理を行う(ST7)。誘導経路生成処理の詳細については追って説明する。   Next, the guide route generation means 123 of the control unit 12 performs guide route generation processing for generating a safe user guide route that is most difficult to find from a suspicious person existing in the monitoring space (ST7). Details of the guide route generation process will be described later.

次に、制御部12は、ST7にて生成した誘導経路を利用者の所持している携帯端末2に送信する処理を行う(ST8)。なお、本実施形態では、ST7にて生成した誘導経路と空間マップ111とを合成した画像情報を携帯端末2に送信する。そして、当該画像情報を受信した携帯端末2は、表示画面21上に当該画像情報を表示させる。しかし、これに限らず、ST7にて生成した誘導経路の座標情報を携帯端末2に送信し、携帯端末2側に予め記憶した空間マップ111と受信した誘導経路の座標情報とを用いて携帯端末2側で誘導経路と空間マップ111とを合成した画像情報を生成してもよい。   Next, the control part 12 performs the process which transmits the guidance route produced | generated in ST7 to the portable terminal 2 which a user possesses (ST8). In the present embodiment, image information obtained by combining the guidance route generated in ST7 and the space map 111 is transmitted to the mobile terminal 2. Then, the mobile terminal 2 that has received the image information displays the image information on the display screen 21. However, the present invention is not limited to this, and the coordinate information of the guidance route generated in ST7 is transmitted to the portable terminal 2, and the portable terminal is stored using the spatial map 111 stored in advance on the portable terminal 2 side and the received coordinate information of the guidance route. Image information obtained by combining the guidance route and the space map 111 may be generated on the second side.

(誘導経路生成処理の詳細について)
次に、図7のフローチャートのST7における、制御部12の誘導経路生成手段123が実行する誘導経路生成処理の詳細について図8を参照しながら説明する。
(Details of guidance route generation processing)
Next, details of the guidance route generation processing executed by the guidance route generation means 123 of the control unit 12 in ST7 of the flowchart of FIG. 7 will be described with reference to FIG.

制御部12の誘導経路生成手段123は、まず、記憶部11の追跡テーブル115から不審者Xの現在位置(不審者位置)を読出し、当該不審者位置と記憶部11の空間マップ111とを用いて視野モデル113を算出する視野モデル算出処理を行う(ST11)。前述のように、誘導経路生成手段123は、視野モデル113を、不審者位置を中心として所定範囲の方向(本実施形態では、360°周囲の範囲方向)に投光した光が建物Bの構造によって遮られるまでの到達範囲として算出する。   First, the guidance route generation unit 123 of the control unit 12 reads the current position (suspicious person position) of the suspicious person X from the tracking table 115 of the storage unit 11, and uses the suspicious person position and the spatial map 111 of the storage unit 11. Then, a visual field model calculation process for calculating the visual field model 113 is performed (ST11). As described above, the guide route generation unit 123 has the structure of the building B in which the light projected on the visual field model 113 in a predetermined range direction (in this embodiment, a range direction around 360 °) centered on the position of the suspicious person. It is calculated as the reach until it is blocked by.

次に、誘導経路生成手段123は、誘導経路候補算出処理を行う(ST12)。誘導経路候補算出処理では、記憶部11の追跡テーブル115から利用者Yの現在位置(利用者位置)を読出し、当該利用者位置と記憶部11の空間マップ111とを用いて、利用者の誘導経路の候補である「誘導経路候補」を算出する。本実施形態では、利用者位置から目的位置112に至る全通りの経路を誘導経路候補として求める。図9は誘導経路候補の例を表した図であり、(a)は時刻t0における誘導経路候補R、(b)は時刻t1における誘導経路候補Rを表す。同図に表すように、時刻t0における利用者Yの利用者位置では、破線で表したR10〜R30の3通りの経路が誘導経路候補Rとして求められ、時刻t1における利用者Yの利用者位置では、R11〜R31の3通りの経路が誘導経路候補Rとして求められる。   Next, the guidance route generation means 123 performs guidance route candidate calculation processing (ST12). In the guidance route candidate calculation process, the current position (user position) of the user Y is read from the tracking table 115 of the storage unit 11, and the user guidance is performed using the user position and the space map 111 of the storage unit 11. A “guide route candidate” that is a route candidate is calculated. In this embodiment, all the routes from the user position to the target position 112 are obtained as guide route candidates. 9A and 9B are diagrams showing examples of guidance route candidates. FIG. 9A shows a guidance route candidate R at time t0, and FIG. 9B shows a guidance route candidate R at time t1. As shown in the figure, at the user position of the user Y at time t0, three routes R10 to R30 represented by broken lines are obtained as the guide route candidates R, and the user position of the user Y at time t1. Then, three routes R11 to R31 are obtained as the guide route candidate R.

次に、誘導経路生成手段123は、利用者が誘導経路候補を移動した際に不審者からの見つかり易さの指標を示す発覚度Dを、ST12にて算出した誘導経路候補Rごとに算出する発覚度算出処理を行う(ST13)。発覚度算出処理では、ST11にて算出した視野モデル113と、ST12にて算出した誘導経路候補Rとを用いて、視野モデル113に重畳している誘導経路候補Rの距離値から、発覚度Dを算出する。すなわち、不審者の視野の範囲内に含まれる恐れの大きい誘導経路候補Rであるほど、発覚度Dは大きく算出される。図10は発覚度Dの算出を説明する図であり、(a)は時刻t0における発覚度D、(b)は時刻t1における発覚度Dの算出を例示している。同図において、破線で示す誘導経路候補R上に示された太い実線で表した箇所は、視野モデル113と誘導経路候補Rとが重畳している箇所であり、当該重畳箇所の距離値が大きくなる程、発覚度Dは大きく算出される。例えば、同図(a)においては、誘導経路候補R10の発覚度=0[m]、誘導経路候補R20の発覚度=5[m]、誘導経路候補R30の発覚度=30[m]と算出される。また、同図(b)においては、誘導経路候補R11の発覚度=0[m]、誘導経路候補R21の発覚度=10[m]、誘導経路候補R31の発覚度=40[m]と算出される。   Next, the guidance route generation unit 123 calculates the degree of awareness D indicating an index of ease of finding from a suspicious person when the user moves the guidance route candidate for each guidance route candidate R calculated in ST12. An awareness level calculation process is performed (ST13). In the degree of awareness calculation process, using the visual field model 113 calculated in ST11 and the guidance route candidate R calculated in ST12, the degree of awareness D is calculated from the distance value of the guidance route candidate R superimposed on the visual field model 113. Is calculated. That is, the degree of awareness D is calculated larger as the guide route candidate R is more likely to be included in the range of the visual field of the suspicious person. FIG. 10 is a diagram for explaining the calculation of the degree of awareness D, where (a) illustrates the degree of awareness D at time t0, and (b) illustrates the calculation of the degree of awareness D at time t1. In the same figure, the part shown with the thick continuous line shown on the guidance route candidate R shown with a broken line is the place which the visual field model 113 and the guidance route candidate R have overlapped, and the distance value of the said superimposed part is large. As it is, the degree of awareness D is greatly calculated. For example, in FIG. 9A, the degree of awareness of the guidance route candidate R10 = 0 [m], the degree of awareness of the guidance route candidate R20 = 5 [m], and the degree of awareness of the guidance route candidate R30 = 30 [m]. Is done. In FIG. 5B, the degree of awareness of the guidance route candidate R11 = 0 [m], the degree of awareness of the guidance route candidate R21 = 10 [m], and the degree of awareness of the guidance route candidate R31 = 40 [m]. Is done.

次に、誘導経路生成手段123は、ST13で算出した誘導経路候補Rの中から、発覚度Dが最小となる誘導経路候補を、利用者に送信する誘導経路として設定する処理を行う(ST14)。図10の例では、現在時刻がt0のときは誘導経路候補R10が誘導経路として設定され、現在時刻がt1のときは誘導経路候補R11が誘導経路として設定されることになる。   Next, the guide route generation means 123 performs a process of setting a guide route candidate having the smallest degree of awareness D as a guide route to be transmitted to the user from the guide route candidates R calculated in ST13 (ST14). . In the example of FIG. 10, the guide route candidate R10 is set as the guide route when the current time is t0, and the guide route candidate R11 is set as the guide route when the current time is t1.

以上のように、本実施形態における誘導システムは、不審者から見つかり難い誘導経路を利用者に対して提示できるため、利用者は不審者に見つからないよう安全に移動することができる。   As described above, since the guidance system according to the present embodiment can present a guidance route that is difficult to be found by a suspicious person to the user, the user can safely move so that the suspicious person cannot find it.

(第二の実施形態)
上述の第一の実施形態では、不審者Xの未来時刻における移動を考慮せずに、現在時刻における不審者位置に基づいて発覚度Dを算出し、当該発覚度Dのみから誘導経路を設定している。しかし、実際は不審者Xが移動している場合も想定されるため、現在時刻において発覚度Dが最小の誘導経路であったとしても、未来時刻においても当該誘導経路の発覚度Dが最小とは限らない。また、たとえ発覚度Dが小さい誘導経路であったとしても、目的位置112に到達するまでの距離が大きすぎたり、不審者Xの近くを通過するような誘導経路が見つかり難い誘導経路であるとは限らない。そのため、未来時刻における不審者位置を考慮すると共に、誘導経路候補Rの距離値(以下、「総距離」という)及び不審者Xとの離間距離を考慮して、総合的に最も安全と想定される誘導経路を利用者に提示できることを目的とした実施形態について説明する。
(Second embodiment)
In the first embodiment described above, the degree of awareness D is calculated based on the position of the suspicious person at the current time without considering the movement of the suspicious person X at the future time, and the guidance route is set only from the degree of suspicion D. ing. However, since it is assumed that the suspicious person X is actually moving, even if the degree of awareness D is the smallest at the current time, the degree of awareness D of the guidance path is the smallest at the future time. Not exclusively. Even if the degree of awareness D is small, the distance to reach the target position 112 is too large, or it is difficult to find a guidance path that passes near the suspicious person X. Is not limited. Therefore, in consideration of the position of the suspicious person at the future time, the distance value of the guide route candidate R (hereinafter referred to as “total distance”) and the distance from the suspicious person X are considered to be the safest overall. An embodiment for the purpose of presenting a guidance route to a user will be described.

本実施形態の全体構成及び誘導装置1の機能構成(ブロック図)は、上述した第一の実施形態と同様であり、図1及び図3と同様に表されるため、ここでは図面を省略するとともに、図面に含まれる各構成の説明を省略する。また、本実施形態の制御部12の処理を表すフローチャートも、第一の実施形態と同様、図7で表されるため、ここではその処理の説明を省略する。以下では、本実施形態の誘導装置1の内、上記第一の実施形態と同様の部分については同一の符号を付して説明している。本実施形態と第一の実施形態との違いは誘導経路生成処理であるため、以下、本実施形態の誘導経路生成処理を表す図11のフローチャートを用いて、本実施形態について説明する。なお、図11のフローチャートにおいて、ループ1はST24〜ST28の各処理をST23にて算出する誘導経路候補Rの数だけ実行することを意味しており、ループ2はST25〜ST27の各処理を評価時刻の数だけ実行することを意味している。ここで、評価時刻とは、現在から所定の未来時刻までの評価期間を所定単位の時間間隔で区切ったときの時刻であって、後述する瞬時評価値を算出する時刻である。本実施形態では、評価時刻として、現在時刻から10秒おきに30秒後までを評価時刻として設定している。すなわち、現在時刻をt=0[秒]としたとき、評価時刻は、0[秒]、10[秒後]、20[秒後]、30[秒後]の4つが評価時刻として設定されている。したがって、ループ2では、当該4つの評価時刻についてST25〜ST27の各処理が繰り返されることになる。なお、評価時刻は任意の値として設定することができる。   The overall configuration of the present embodiment and the functional configuration (block diagram) of the guidance device 1 are the same as those of the first embodiment described above, and are represented in the same manner as in FIGS. In addition, description of each component included in the drawings is omitted. Moreover, since the flowchart showing the process of the control part 12 of this embodiment is also represented by FIG. 7 like 1st embodiment, description of the process is abbreviate | omitted here. Below, the same code | symbol is attached | subjected and demonstrated about the part similar to said 1st embodiment among the guidance apparatuses 1 of this embodiment. Since the difference between the present embodiment and the first embodiment is the guidance route generation process, the present embodiment will be described below using the flowchart of FIG. 11 representing the guidance route generation process of the present embodiment. In the flowchart of FIG. 11, loop 1 means that each process of ST24 to ST28 is executed by the number of guidance route candidates R calculated in ST23, and loop 2 evaluates each process of ST25 to ST27. This means that only the number of times is executed. Here, the evaluation time is a time when an evaluation period from the present to a predetermined future time is divided by a predetermined unit time interval, and is a time for calculating an instantaneous evaluation value to be described later. In the present embodiment, as the evaluation time, the evaluation time is set to 30 seconds after every 10 seconds from the current time. That is, when the current time is t = 0 [seconds], four evaluation times are set as evaluation times: 0 [seconds], 10 [seconds later], 20 [seconds later], and 30 [seconds later]. Yes. Therefore, in loop 2, the processes of ST25 to ST27 are repeated for the four evaluation times. The evaluation time can be set as an arbitrary value.

本実施形態の誘導経路生成処理では、まず、各評価時刻における不審者位置を推定する不審者位置推定処理を行う(ST21)。不審者位置推定処理では、まず、追跡テーブル115における不審者の過去の移動履歴と空間マップ111とに基づいて、不審者の移動速度と移動方向を推定する。そして、現在時刻における不審者位置と推定した移動方向とを用いて、不審者の未来時刻における不審者の移動経路(以下、「不審者予想経路」という)を推定する。この際、本実施形態では、不審者の行動パターンを予め記憶部11に記憶させておき、不審者位置と推定した移動方向とから最も移動する可能性が高い誘導経路を不審者予想経路として選択することとしている。そして、推定した不審者予想経路と推定した不審者の移動速度とを用いて、各評価時刻における不審者位置を推定する。図12は不審者位置推定処理において推定した未来時刻における不審者位置を説明する図である。同図において、符号rで示した経路は不審者予想経路であり、符号X0〜X3で示した位置は各評価時刻における不審者位置である。   In the guide route generation process of the present embodiment, first, a suspicious person position estimation process for estimating a suspicious person position at each evaluation time is performed (ST21). In the suspicious person position estimation process, first, based on the past movement history of the suspicious person in the tracking table 115 and the space map 111, the moving speed and moving direction of the suspicious person are estimated. Then, using the suspicious person position at the current time and the estimated moving direction, the suspicious person's movement path at the future time of the suspicious person (hereinafter referred to as “suspicious person expected path”) is estimated. At this time, in this embodiment, the behavior pattern of the suspicious person is stored in the storage unit 11 in advance, and the guidance route that is most likely to move from the suspicious person position and the estimated moving direction is selected as the suspicious person expected route. To do. Then, the suspicious person position at each evaluation time is estimated using the estimated suspicious person expected route and the estimated moving speed of the suspicious person. FIG. 12 is a diagram for explaining the suspicious person position at the future time estimated in the suspicious person position estimating process. In the figure, the route indicated by the symbol r is a suspicious person expected route, and the positions indicated by the symbols X0 to X3 are suspicious person positions at the respective evaluation times.

次に、ST21にて推定した不審者位置と空間マップ111とを用いて、各評価時刻における視野モデル113を算出する視野モデル算出処理を行う(ST22)。続いて利用者位置と空間マップ111とを用いて誘導経路候補を生成する誘導経路候補生成処理を行う(ST23)。ここでいう視野モデル算出処理及び誘導経路候補生成処理は、第一の実施形態の視野モデル算出処理(ST11)及び誘導経路候補生成処理(ST12)と同様の処理であるため、ここでは詳細な説明を省略する。   Next, a visual field model calculation process for calculating the visual field model 113 at each evaluation time is performed using the suspicious person position estimated in ST21 and the space map 111 (ST22). Subsequently, a guidance route candidate generation process for generating a guidance route candidate using the user position and the space map 111 is performed (ST23). Since the visual field model calculation process and the guidance route candidate generation process here are the same processes as the visual field model calculation process (ST11) and the guidance route candidate generation process (ST12) of the first embodiment, detailed description will be given here. Is omitted.

次に、各評価時刻における利用者位置を推定する利用者位置推定処理を行う(ST24)。利用者位置推定処理では、ループ1にて現在処理対象となっている誘導経路候補Rと予め設定された標準移動速度とを用いて、未来時刻である各評価時刻における利用者位置を推定する。図13は、利用者位置推定処理にて推定した未来時刻における利用者位置を説明する図である。同図において、符号Y0、Y11〜Y13で示した位置は、誘導経路候補R10における各評価時刻における利用者位置である。また、符号Y0、Y21〜Y23で示した位置は、誘導経路候補R20における各評価時刻における利用者位置である。また、符号X0、Y31〜Y33で示した位置は、誘導経路候補R30における各評価時刻における利用者位置である。   Next, user position estimation processing for estimating the user position at each evaluation time is performed (ST24). In the user position estimation process, the user position at each evaluation time, which is a future time, is estimated using the guide route candidate R currently processed in loop 1 and a preset standard moving speed. FIG. 13 is a diagram for explaining the user position at the future time estimated by the user position estimation process. In the figure, the positions indicated by symbols Y0 and Y11 to Y13 are user positions at the respective evaluation times in the guide route candidate R10. The positions indicated by the symbols Y0 and Y21 to Y23 are the user positions at each evaluation time in the guidance route candidate R20. The positions indicated by reference signs X0 and Y31 to Y33 are user positions at the respective evaluation times in the guide route candidate R30.

次に、ループ2にて処理対象となっている評価時刻の利用者位置において、不審者からの見つかり易さの指標を示す発覚度Dを算出する発覚度算出処理を行う(ST25)。本実施形態では、ST22にて求めた視野モデル113の範囲内にST24にて求めた利用者位置が含まれるか否かを判定し、含まれているときは“1”を含まれていないときは“0”として発覚度Dを求める。図14は、処理対象となっている誘導経路候補RがR10の場合において、(a)評価時刻t=0(利用者位置Y0)における発覚度、(b)評価時刻t=10(利用者位置Y11)における発覚度Dの算出を説明する図である。同図(a)の例では、評価時刻t=0における視野モデル113(不審者位置X0における視野モデル113)の範囲内に利用者位置Y0が含まれないため、算出される発覚度D=0となる。また、同図(b)の例では、評価時刻t=10における視野モデル113(不審者位置X1における視野モデル113)の範囲内に利用者位置Y11が含まれるため、算出される発覚度D=1となる。   Next, at the user position at the evaluation time that is the processing target in loop 2, the degree-of-detection calculation process is performed to calculate the degree-of-detection D that indicates an index of ease of finding from a suspicious person (ST25). In the present embodiment, it is determined whether or not the user position obtained in ST24 is included in the range of the visual field model 113 obtained in ST22. When included, “1” is not included. Finds the degree of awareness D as “0”. FIG. 14 shows (a) degree of awareness at evaluation time t = 0 (user position Y0) and (b) evaluation time t = 10 (user position) when the guide route candidate R to be processed is R10. It is a figure explaining calculation of the awareness degree D in Y11). In the example of FIG. 9A, the user position Y0 is not included in the range of the visual field model 113 at the evaluation time t = 0 (the visual field model 113 at the suspicious person position X0), and thus the calculated awareness D = 0 It becomes. Further, in the example of FIG. 5B, since the user position Y11 is included in the range of the visual field model 113 (the visual field model 113 at the suspicious person position X1) at the evaluation time t = 10, the calculated awareness D = 1

次に、ループ1で処理対象となっている誘導経路候補Rと、ループ2で評価対象となっている評価時刻における利用者位置とを用いて、評価時刻における利用者位置から目的位置112までに至るまでの総距離L1を求める。続いて、評価時刻における利用者位置と不審者位置とから、利用者と不審者との間の離間距離L2を求める。本実施形態では、利用者位置から不審者位置まで至る一又は複数の経路を求め、当該経路の中で最短経路の距離を離間距離L2として求める。図15は、処理対象となっている誘導経路候補がR1であって評価時刻t=0における、総距離L1と離間距離L2の例を表す図である。実線で示す総距離L1の長さと、破線で示す離間距離L2の長さからそれぞれの値を算出する。   Next, from the user position at the evaluation time to the target position 112 using the guide route candidate R that is the processing target in the loop 1 and the user position at the evaluation time that is the evaluation target in the loop 2. The total distance L1 is calculated. Subsequently, a separation distance L2 between the user and the suspicious person is obtained from the user position and the suspicious person position at the evaluation time. In the present embodiment, one or a plurality of routes from the user position to the suspicious person location are obtained, and the distance of the shortest route among the routes is obtained as the separation distance L2. FIG. 15 is a diagram illustrating an example of the total distance L1 and the separation distance L2 when the guide route candidate to be processed is R1 and the evaluation time t = 0. Respective values are calculated from the length of the total distance L1 indicated by the solid line and the length of the separation distance L2 indicated by the broken line.

次に、ST25で求めた発覚度DとST26で求めた総距離L1、離間距離L2とを用いて評価時刻における不審者Xからの見つかり易さを表す指標である瞬時評価値eを算出する(ST27)。本実施形態では、瞬時評価値e=α×発覚度D+β×総距離L1−γ×離間距離L2によって算出する。ここで、α、β、γは、正の係数として予め記憶部11に設定されるものであり、発覚度D、総距離L1、離間距離L2の中のどの値を、安全性を評価するうえで特に重視するのかを考慮して管理者によって調整することができる値である。このように、瞬時評価値eは、発覚度D及び総距離L1が大きいほど大きく算出され、離間距離L2が大きいほど小さく算出される。   Next, using the degree of awareness D obtained in ST25 and the total distance L1 and the separation distance L2 obtained in ST26, an instantaneous evaluation value e that is an index representing the easiness to find from the suspicious person X at the evaluation time is calculated ( ST27). In the present embodiment, the instantaneous evaluation value e = α × arousal degree D + β × total distance L1−γ × separation distance L2. Here, α, β, and γ are preset in the storage unit 11 as positive coefficients. Which value among the degree of awareness D, the total distance L1, and the separation distance L2 is used to evaluate safety. It is a value that can be adjusted by the administrator in consideration of whether or not it is particularly important. As described above, the instantaneous evaluation value e is calculated to be larger as the awareness degree D and the total distance L1 are larger, and is calculated to be smaller as the separation distance L2 is larger.

次に、ループ1で処理対象となっている誘導経路候補の最終的な危険性を表す経路評価値を算出する処理を行う(ST28)。本実施形態では、ループ2の各処理によって算出した各評価時刻における瞬時評価値の総和から経路評価値を算出する。   Next, a process for calculating a route evaluation value representing the final risk of the guidance route candidate to be processed in loop 1 is performed (ST28). In the present embodiment, the route evaluation value is calculated from the sum of the instantaneous evaluation values at each evaluation time calculated by each process of the loop 2.

次に、ループ1で算出した各誘導経路候補Rの経路評価値をもちいて、当該経路評価値が最小となる誘導経路候補Rを、利用者に送信する誘導経路として設定する処理を行う(ST29)。   Next, using the route evaluation value of each guide route candidate R calculated in loop 1, a process of setting the guide route candidate R having the minimum route evaluation value as a guide route to be transmitted to the user is performed (ST29). ).

このように、本実施形態では、未来時刻における不審者位置を推定し、当該不審者位置における視野モデル113と、未来時刻における利用者位置とを用いて発覚度Dを算出することによって、不審者の未来時刻における移動を考慮して見つかり難い誘導経路を算出しているため、利用者により安全性の高い誘導経路の情報を提供することができる。さらに、本実施形態では、誘導経路を算出するにあたって、利用者位置から目的位置112に至るまでの距離である総距離L1と、利用者と不審者Xとの間の離間距離L2とを考慮している。具体的には、総距離L1の大きい誘導経路候補Rであるほど誘導経路として設定され難く、離間距離L2が大きい誘導経路候補Rであるほど誘導経路として設定され易い。したがって、単なる見つかり難い誘導経路だけでなく、目的位置112にできるだけ早く到達でき、不審者Xからできるだけ距離をとれる誘導経路を利用者に提示できるため、利用者により見つかり難い安全性の高い誘導経路の情報を提供することができる。
ところで、本発明は、上記実施形態に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施形態で実施されてもよいものである。また、実施形態に記載した効果は、これに限定されるものではない。
Thus, in this embodiment, a suspicious person position is estimated by estimating the suspicious person position in the future time, and calculating the awareness D using the visual field model 113 in the suspicious person position and the user position in the future time. Since the guide route that is difficult to find is calculated in consideration of the movement at the future time, information on the guide route with higher safety can be provided to the user. Further, in the present embodiment, when calculating the guide route, the total distance L1 that is the distance from the user position to the target position 112 and the separation distance L2 between the user and the suspicious person X are considered. ing. Specifically, the guide route candidate R having a larger total distance L1 is less likely to be set as a guide route, and the guide route candidate R having a larger separation distance L2 is more likely to be set as a guide route. Therefore, not only a difficult-to-find guide route but also a guide route that can reach the target position 112 as soon as possible and can be as far as possible from the suspicious person X can be presented to the user. Information can be provided.
By the way, the present invention is not limited to the above-described embodiment, and may be implemented in various different embodiments within the scope of the technical idea described in the claims. Further, the effects described in the embodiments are not limited to this.

上記各実施形態では、検知部Sとして赤外線センサを利用し、当該赤外線センサの検知出力と赤外線センサの設置位置とにより、人物の位置を検出し(ST2)、時間的に追跡している(ST3)。しかし、これに限らず、可視画像カメラや赤外線カメラ等の撮像装置を検知部Sとして利用し、人物の位置を検出し、時間的に追跡してもよい。例えば、天井等に広角カメラを設置し、当該広角カメラからの撮像画像に基づいてST2にて人物の位置を推定し、ST3にて当該人物を追跡する。この際、例えば、特開2011−227647号公報に記載された方法のような既知の移動物体追跡技術を利用する。すなわち、予め記憶した背景画像と撮像画像との差分画像から移動物体を検出して、当該移動物体の画像位置から監視空間における移動物体の位置を推定し、前後フレームの監視画像における移動物体を位置関係や大きさに基づいて対応付けることにより当該移動物体を時間的に追跡する。この際、予め撮像画像と監視空間の位置とを対応付けるキャリブレーションを取っておく必要がある。   In each of the above embodiments, an infrared sensor is used as the detection unit S, and the position of the person is detected by the detection output of the infrared sensor and the installation position of the infrared sensor (ST2) and is tracked in time (ST3). ). However, the present invention is not limited to this, and an imaging device such as a visible image camera or an infrared camera may be used as the detection unit S to detect the position of a person and track it in time. For example, a wide-angle camera is installed on the ceiling or the like, the position of the person is estimated in ST2 based on the captured image from the wide-angle camera, and the person is tracked in ST3. At this time, for example, a known moving object tracking technique such as a method described in JP 2011-227647 A is used. That is, a moving object is detected from a difference image between a background image and a captured image stored in advance, the position of the moving object in the monitoring space is estimated from the image position of the moving object, and the moving object is positioned in the monitoring image of the preceding and following frames. The moving object is temporally tracked by associating based on the relationship and size. At this time, it is necessary to take a calibration for associating the captured image with the position of the monitoring space in advance.

上記各実施形態では、誘導経路生成手段123は、不審者位置と空間マップ111とを用いて、不審者Xの視野範囲を表す視野モデル113を算出している(ST11又はST22)。この際、算出した視野モデル113は、全ての視野範囲において一様の重み付けがなされているとみなされている。すなわち、上記各実施形態では、視野モデル113に誘導経路候補R(又は誘導経路候補Rを移動したときの評価時刻における利用者位置)がどの程度含まれているかによって発覚度Dを算出しているが(ST13又はST25)、視野モデル113内のどの範囲に誘導経路候補R(又は誘導経路候補Rを移動したときの評価時刻における利用者位置)が含まれていたとしても同じ値の発覚度として算出される。しかし、これに限らず、視野モデル113を算出する際に視野モデル113の範囲を区分して重み付けし、当該重み値を考慮して発覚度Dを算出してもよい。例えば、誘導経路生成手段123は、検知部Sの検知出力を用いて不審者Xの正面方向を推定し、推定された正面方向に位置する視野モデル113の範囲区分であるほど、より大きい重み値を割り当てる構成としてもよい。図16は、視野モデル113に重み付けをした例について説明する図である。同図の符号Xdで示す矢印は、不審者Xの正面方向を表している。当該正面方向Xdは、不審者位置の時間推移から移動方向を求め、当該移動方向を正面方向として設定される。この他にも、検知部Sとして撮像装置を用いた場合においては、当該撮像装置の撮像画像から既知の顔向判定技術を利用することにより、顔正面が向いている方向を正面方向として設定してもよい。
そして、設定された正面方向Xdの±15°にある視野モデル113の所定範囲について、誘導経路生成手段123は、他の範囲よりも大きい重み値として割り当てる。図16の例では、符号113aで示す視野モデルの範囲には大きい重み値(例えば、“2”)が割り当てられ、符号113bで示す視野モデルの範囲には小さい重み値(例えば、“1”)が割り当てられる。このようにして算出した重み付の視野モデル113を用いて、誘導経路生成手段123は、発覚度Dを算出する。すなわち、正面方向Xdに位置する視野モデル113aの範囲内に誘導経路候補R(又は誘導経路候補Rを移動したときの評価時刻における利用者位置)が含まれている程、より見つかり易いとして、発覚度Dが大きい値として算出されるようにする。これにより、不審者Xの正面方向の視野範囲に存在しうる誘導経路候補Rであるほど見つかり易い危険な経路として評価されるため、利用者に対してより安全性の高い誘導経路を提供することができる。なお、上記の他にも、不審者Xから離れた位置にある視野モデル113の範囲であるほど、小さい重み付けをすることにより、不審者から遠くの位置であるほど見つかり難いとして発覚度Dを算出してもよい。
In each of the above embodiments, the guidance route generation unit 123 calculates the visual field model 113 representing the visual field range of the suspicious person X using the suspicious person position and the space map 111 (ST11 or ST22). At this time, the calculated visual field model 113 is considered to be uniformly weighted in the entire visual field range. That is, in each of the embodiments described above, the degree of awareness D is calculated based on how much the guidance route candidate R (or the user position at the evaluation time when the guidance route candidate R is moved) is included in the visual field model 113. (ST13 or ST25), even if the guidance route candidate R (or the user position at the evaluation time when moving the guidance route candidate R) is included in any range in the visual field model 113, the degree of awareness of the same value Calculated. However, the present invention is not limited thereto, and when calculating the visual field model 113, the range of the visual field model 113 may be divided and weighted, and the degree of awareness D may be calculated in consideration of the weight value. For example, the guidance route generation unit 123 estimates the front direction of the suspicious person X using the detection output of the detection unit S, and the weight range is larger as the range of the visual field model 113 is located in the estimated front direction. It is good also as a structure which allocates. FIG. 16 is a diagram for explaining an example in which the visual field model 113 is weighted. An arrow indicated by a symbol Xd in the figure represents the front direction of the suspicious person X. The front direction Xd is set as the front direction by obtaining the moving direction from the time transition of the suspicious person position. In addition, when an imaging device is used as the detection unit S, the direction in which the front of the face is facing is set as the front direction by using a known face orientation determination technique from the captured image of the imaging device. May be.
And the guidance path | route production | generation means 123 allocates as a weight value larger than another range about the predetermined range of the visual field model 113 which exists in the set ± 15 degree of the front direction Xd. In the example of FIG. 16, a large weight value (for example, “2”) is assigned to the range of the visual field model indicated by reference numeral 113a, and a small weight value (for example, “1”) is assigned to the range of the visual field model indicated by reference numeral 113b. Is assigned. Using the weighted visual field model 113 calculated in this way, the guide route generation unit 123 calculates the degree of awareness D. That is, as the guidance route candidate R (or the user position at the evaluation time when the guidance route candidate R is moved) is included in the range of the visual field model 113a located in the front direction Xd, The degree D is calculated as a large value. Accordingly, since the guide route candidate R that can exist in the visual field range in the front direction of the suspicious person X is evaluated as a dangerous route that is easier to find, providing a safer guide route to the user Can do. In addition to the above, the degree of awareness D is calculated such that the farther the position is from the suspicious person, the harder it is to be found by applying a smaller weight to the range of the visual field model 113 that is farther from the suspicious person X. May be.

上記各実施形態では、空間マップ111を2次元で表した座標情報として記憶部11に記憶しているが、これに限らず、監視空間に存在する壁・床・柱・什器等の構成要素(特に可視光を遮蔽する障害物となる構成要素)を立体的にモデル化した3次元形状情報として記憶してもよい。例えば、監視空間の形状情報に基づいて3次元CADで作成された3次元形状情報でもよいし、3次元レーザースキャナー等により監視空間の3次元形状を取り込んだ3次元形状情報を利用してもよい。この際、ST11又はST22で生成される視野モデル113は、3次元形状として生成されるものとする。すなわち、誘導経路生成手段123は、視野モデル113を生成する際に、3次元形状情報である空間マップ111における不審者位置(足元位置をなす水平位置)であって、所定の高さの位置(例えば不審者の目の高さに相当する高さ位置として1.6m)の位置を視野モデル113を生成する際の光源として設定する。そして、誘導経路生成手段123は、当該光源から所定方向(例えば、不審者Xの正面方向の所定範囲)に放射状に放った光が3次元形状として表現される建物Bの構造によって遮られるまでの到達範囲を幾何計算することによって3次元の視野モデル113を生成する。図17は、3次元の空間マップ111の一部分と3次元の視野モデル113とを例示している。同図に表すように、不審者Xの目の3次元位置に略一致する位置から発した光が、3次元の空間マップ111で表現される建物Bの構造に遮られるまでの到達範囲を視野モデル113として算出する。このようにして算出した3次元の視野モデル113を用いて発覚度Dを算出することにより、建物Bの構造による視線の隠蔽をより正確に算出でき、不審者Xの視野範囲をより忠実に再現できるため、より高い精度で不審者Xから見つかり難い誘導経路を算出することができる。   In each of the above embodiments, the space map 111 is stored in the storage unit 11 as two-dimensional coordinate information. However, the present invention is not limited to this, and components (such as walls, floors, pillars, and fixtures) that exist in the monitoring space ( In particular, a component that becomes an obstacle that blocks visible light) may be stored as three-dimensional shape information that is three-dimensionally modeled. For example, 3D shape information created by 3D CAD based on the monitoring space shape information may be used, or 3D shape information obtained by capturing the 3D shape of the monitoring space with a 3D laser scanner or the like may be used. . At this time, the visual field model 113 generated in ST11 or ST22 is generated as a three-dimensional shape. That is, when generating the visual field model 113, the guide route generating unit 123 is a suspicious person position (horizontal position forming a foot position) in the space map 111 that is three-dimensional shape information, and a position having a predetermined height ( For example, the position of 1.6 m) is set as the light source when generating the visual field model 113 as the height position corresponding to the eye height of the suspicious person. And the guidance path | route production | generation means 123 until the light radiated | emitted radially in the predetermined direction (for example, the predetermined range of the front direction of the suspicious person X) from the said light source is interrupted by the structure of the building B expressed as a three-dimensional shape. A three-dimensional visual field model 113 is generated by geometrically calculating the reach. FIG. 17 illustrates a part of the three-dimensional space map 111 and a three-dimensional visual field model 113. As shown in the figure, the range of view until the light emitted from the position approximately coincident with the three-dimensional position of the eye of the suspicious person X is blocked by the structure of the building B represented by the three-dimensional space map 111 is viewed. Calculate as model 113. By calculating the degree of awareness D using the three-dimensional visual field model 113 thus calculated, it is possible to more accurately calculate the hiding of the line of sight due to the structure of the building B, and to reproduce the visual field range of the suspicious person X more faithfully. Therefore, it is possible to calculate a guidance route that is difficult to find from the suspicious person X with higher accuracy.

上記各実施形態では、人物判定手段122にて人物が不審者であるか利用者であるかを判定するにあたって、人物検出手段121にて検出・追跡している人物の初めて出現した位置をもって判定していた(ST5)。しかしこれに限らず、予め空間マップ111内に重要監視エリアを設定しておき、当該重要監視エリアに所定の入室可能期間外に存在している人物を不審者とし、それ以外の人物を利用者と判定してもよい。また、検知部Sとして撮像装置を用い、当該撮像装置からの撮像画像を用いて予め登録された顔画像との照合によって利用者を顔認証し、顔認証できない不明な人物を不審者として判定してもよい。   In each of the above-described embodiments, when the person determination unit 122 determines whether a person is a suspicious person or a user, the person detection unit 121 determines based on the first appearance position of the person detected and tracked. (ST5). However, the present invention is not limited to this. An important monitoring area is set in advance in the space map 111, a person who exists in the important monitoring area outside the predetermined entry period is regarded as a suspicious person, and other persons are used as users. May be determined. In addition, an imaging device is used as the detection unit S, and the user is face-authenticated by collation with a face image registered in advance using a captured image from the imaging device, and an unknown person who cannot be face-authenticated is determined as a suspicious person. May be.

上記各実施形態では、監視空間を建物Bの屋内とし、目的位置112を出入口Dと設定して、誘導経路の生成する誘導システムについて説明している。しかし、これに限らず、監視空間を「屋外」の所定エリアとし、目的位置112を利用者の安全が確保できる位置(例えば警察署の位置)として、当該目的位置112までの誘導経路を生成することにより、利用者を安全に誘導する誘導システムとしてもよい。このような他の実施形態においても、屋外に設置された検知部Sである撮像装置の撮像画像を用いて不審者位置及び利用者位置を検知してもよいし、GPSを備えた携帯端末2によって検知された端末位置を利用者位置として設定してもよい。   In each of the above embodiments, a guidance system is described in which the monitoring space is set indoors in the building B, the target position 112 is set as the entrance D, and a guidance route is generated. However, the present invention is not limited to this, and a guidance route to the target position 112 is generated by setting the monitoring space as a predetermined area “outdoor” and setting the target position 112 as a position where the safety of the user can be ensured (for example, the position of a police station). Thus, a guidance system that safely guides the user may be used. Also in such other embodiments, the suspicious person position and the user position may be detected using the captured image of the imaging device which is the detection unit S installed outdoors, or the mobile terminal 2 equipped with GPS. The terminal position detected by the above may be set as the user position.

上記各実施形態では、利用者Y及び不審者Xが共に一人である例を用いて動作を簡易的に説明している。しかし、本発明における誘導システムでは、不審者と利用者が複数人存在する場合であっても適用可能である。すなわち、不審者及び利用者が複数人存在する場合においても、上記各実施形態のように、不審者毎に視野モデル113を算出する。そして、利用者毎に一又は複数の誘導経路候補Rを求め、不審者毎に算出した複数の視野モデル113を用いて発覚度Dを算出し、当該発覚度Dを用いて利用者毎に誘導経路を求める。そして、求めた複数の誘導経路を全ての利用者の携帯端末2に送信する。これにより、利用者は携帯端末の表示画面21の地図上に表示された複数の誘導経路の中から、自分の現在位置に相当する誘導経路を見つけて、当該誘導経路に基づいて安全に移動することができる。なお、この際、携帯端末の端末位置と端末識別番号とを誘導装置1が検知し(例えば、携帯端末から送信された端末位置と端末識別番号により検知する等)、当該端末位置と端末識別番号とを用いて、利用者毎にカスタマイズされた誘導経路の情報を送信してもよい。例えば、他の利用者の現在位置や誘導経路を表示せずに、自らの現在位置や誘導経路のみを送信してもよい。また、誘導経路を地図上の画像情報として提供するのではなく、音声情報(例えば、「次のT字路を左に曲がります」等)として提供してもよい。   In each of the above embodiments, the operation is simply described using an example in which both the user Y and the suspicious person X are one person. However, the guidance system according to the present invention is applicable even when there are a plurality of suspicious persons and users. That is, even when there are a plurality of suspicious persons and users, the visual field model 113 is calculated for each suspicious person as in the above embodiments. Then, one or a plurality of guide route candidates R are obtained for each user, the degree of awareness D is calculated using the plurality of visual field models 113 calculated for each suspicious person, and guidance is performed for each user using the degree of awareness D. Find a route. Then, the obtained plurality of guidance routes are transmitted to the mobile terminals 2 of all users. Thereby, the user finds a guide route corresponding to his current position from the plurality of guide routes displayed on the map of the display screen 21 of the mobile terminal, and moves safely based on the guide route. be able to. At this time, the guidance device 1 detects the terminal position and the terminal identification number of the portable terminal (for example, the terminal position and the terminal identification number transmitted from the portable terminal) and detects the terminal position and the terminal identification number. , Information on the guide route customized for each user may be transmitted. For example, it is also possible to transmit only the current position and guide route of the user without displaying the current position and guide route of other users. Further, instead of providing the guidance route as image information on the map, the guidance route may be provided as audio information (for example, “Turn left at the next T-junction”).

上記第一の実施形態では、発覚度Dのみを用いて誘導経路候補Rを評価して誘導経路を設定しているが、これに限らず、第二の実施形態と同じように総距離L1及び離間距離L2を算出し、発覚度Dと共にこれらの値を用いて誘導経路候補Rを評価して誘導経路を設定してもよい。   In the first embodiment, the guide route candidate R is evaluated using only the degree of awareness D and the guide route is set. However, the present invention is not limited to this, and as in the second embodiment, the total distance L1 and The separation distance L2 may be calculated, and the guidance route candidate R may be evaluated using these values together with the degree of awareness D to set the guidance route.

1・・・誘導装置
11・・・記憶部
12・・・制御部
13・・・入力部
14・・・通信部
111・・・空間マップ
112・・・目的位置
113・・・視野モデル
114・・・検知信号テーブル
115・・・追跡テーブル
116・・・各種パラメータ
121・・・人物検出手段
122・・・人物判定手段
123・・・誘導経路生成手段
2・・・携帯端末
21・・・表示画面
3・・・ネットワーク
4・・・無線通信装置
S・・・検知部
A・・・検知範囲
B・・・建物
P・・・通路
D・・・出入口
W・・・窓
X・・・不審者
Y・・・利用者
R・・・誘導経路候補

DESCRIPTION OF SYMBOLS 1 ... Guidance device 11 ... Memory | storage part 12 ... Control part 13 ... Input part 14 ... Communication part 111 ... Spatial map 112 ... Target position 113 ... Visual field model 114. ..Detection signal table 115 ... tracking table 116 ... various parameters 121 ... person detection means 122 ... person determination means 123 ... guide route generation means 2 ... portable terminal 21 ... display Screen 3 ... Network 4 ... Wireless communication device S ... Detector A ... Detection range B ... Building P ... Passage D ... Exit / exit W ... Window X ... Suspicious Y ... User R ... Guidance route candidate

Claims (5)

監視空間に設置され人物を検知する検知部と、利用者に所持される携帯端末と、利用者の現在位置から目的位置に至るまでの不審者から見つかり難い誘導経路を算出し前記携帯端末に該誘導経路を送信する誘導装置とから構成される誘導システムであって、
前記誘導装置は、
前記監視空間の構造と前記検知部の設置位置とを示した空間マップ、及び前記空間マップ上における目的位置を予め記憶した記憶部と、
前記検知部の出力と前記空間マップとを用いて前記監視空間に存在する人物の位置を検出する人物検出手段と、
前記人物の位置に存在する人物が不審者か利用者かを判定する人物判定手段と、
前記空間マップにおける不審者位置から所定範囲の方向に放射状に投光した光が前記構造によって遮られるまでの到達範囲を視野モデルとして求め、該視野モデルを用いて利用者位置から前記目的位置までに至る一又は複数の誘導経路候補をそれぞれ評価し、該不審者から最も見つかり難い該誘導経路候補を前記誘導経路として生成する誘導経路生成手段と、を有することを特徴とする誘導システム。
A detection unit installed in the monitoring space for detecting a person, a portable terminal possessed by the user, and a guide route that is difficult to find from a suspicious person from the current position of the user to the target position is calculated and the portable terminal A guidance system comprising a guidance device for transmitting a guidance route,
The guidance device includes:
A space map showing a structure of the monitoring space and an installation position of the detection unit, and a storage unit that pre-stores a target position on the space map;
Person detecting means for detecting the position of a person existing in the monitoring space using the output of the detection unit and the space map;
Person determining means for determining whether the person existing at the position of the person is a suspicious person or a user;
A range of reach until light projected radially from a suspicious person position in the spatial map in the direction of a predetermined range is obstructed by the structure as a visual field model, and from the user position to the target position using the visual field model And a guide route generating unit that evaluates each one or a plurality of guide route candidates and generates the guide route candidate that is most difficult to find from the suspicious person as the guide route.
前記誘導経路生成手段は、前記検知部の出力を用いて前記不審者の正面方向を推定し、該正面方向に位置する前記誘導経路候補であるほど見つかり易いとして評価する請求項1に記載の誘導システム。   The guidance according to claim 1, wherein the guidance route generation unit estimates the front direction of the suspicious person using the output of the detection unit, and evaluates that the guidance route candidate located in the front direction is easier to find. system. 前記誘導経路生成手段は、前記検知部の出力の時間推移を用いて現在時刻から後の評価期間における前記不審者位置を推定し、該不審者位置と空間マップとを用いて評価期間における前記視野モデルを推定し、該評価期間における前記利用者位置を前記誘導経路候補毎に推定し、該視野モデルと該利用者位置とを用いて誘導経路候補毎に評価期間における不審者からの見つかり易さを評価して、不審者から最も見つかり難い該誘導経路候補を前記誘導経路として生成する請求項1又は請求項2に記載の誘導システム。   The guidance route generation means estimates the suspicious person position in an evaluation period after the current time using a time transition of the output of the detection unit, and uses the suspicious person position and a spatial map to view the visual field in the evaluation period. A model is estimated, the user position in the evaluation period is estimated for each guidance route candidate, and the ease of finding from a suspicious person in the evaluation period for each guidance route candidate using the visual field model and the user position. The guidance system according to claim 1 or 2, wherein the guidance route candidate that is most difficult to find from a suspicious person is generated as the guidance route. 前記空間マップにおける前記構造は、3次元形状として記憶され、
前記視野モデルは、前記空間マップにおける不審者の水平位置であって目の位置に相当する高さ位置を中心として該位置から所定方向に放射状に投光した光が前記構造によって遮られるまでの到達範囲からなる3次元形状である請求項1から請求項3のいずれか一項に記載の誘導システム。
The structure in the spatial map is stored as a three-dimensional shape;
The field-of-view model reaches the suspicious person's horizontal position in the spatial map until the light projected radially from the position in a predetermined direction around the height position corresponding to the eye position is blocked by the structure. The guidance system according to any one of claims 1 to 3, wherein the guidance system has a three-dimensional shape having a range.
前記誘導経路生成手段は、前記不審者位置と前記利用者位置との離間距離を算出し、該利用者位置から前記目的位置に至る経路の総距離を算出し、該離間距離が小さいほど不審者から見つかり易いと評価すると共に、該総距離が大きいほど不審者から見つかり易いと評価する請求項1から請求項4のいずれか一項に記載の誘導システム。

The guidance route generation means calculates a separation distance between the suspicious person position and the user position, calculates a total distance of a route from the user position to the target position, and the smaller the separation distance, the suspicious person The guidance system according to any one of claims 1 to 4, wherein the guidance system evaluates that it is easy to find from a suspicious person as the total distance increases.

JP2013140418A 2013-07-04 2013-07-04 Guidance system Active JP6200225B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013140418A JP6200225B2 (en) 2013-07-04 2013-07-04 Guidance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013140418A JP6200225B2 (en) 2013-07-04 2013-07-04 Guidance system

Publications (3)

Publication Number Publication Date
JP2015014864A true JP2015014864A (en) 2015-01-22
JP2015014864A5 JP2015014864A5 (en) 2016-07-21
JP6200225B2 JP6200225B2 (en) 2017-09-20

Family

ID=52436569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013140418A Active JP6200225B2 (en) 2013-07-04 2013-07-04 Guidance system

Country Status (1)

Country Link
JP (1) JP6200225B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018160219A (en) * 2017-03-24 2018-10-11 株式会社 日立産業制御ソリューションズ Moving route prediction device and method for predicting moving route

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003288657A (en) * 2002-03-28 2003-10-10 Sanyo Electric Co Ltd Monitoring sensor system
JP2006202062A (en) * 2005-01-20 2006-08-03 Toshiba Corp Facility monitoring system
JP2007213224A (en) * 2006-02-08 2007-08-23 Sogo Keibi Hosho Co Ltd Monitoring system and monitoring method
JP2008269336A (en) * 2007-04-20 2008-11-06 Hitachi Ltd Watching system and watching method
JP2011018094A (en) * 2009-07-07 2011-01-27 Nec Corp Patrol support system, method and program
JP2011141254A (en) * 2010-01-11 2011-07-21 Toyota Home Kk Route searching system
JP2011210006A (en) * 2010-03-30 2011-10-20 Secom Co Ltd Device for supporting crime-preventive measure
WO2013056395A1 (en) * 2011-10-19 2013-04-25 Honeywell International Inc. Model-based generation of information and evacuation messages
US20130116922A1 (en) * 2011-11-08 2013-05-09 Hon Hai Precision Industry Co., Ltd. Emergency guiding system, server and portable device using augmented reality
JP2015005851A (en) * 2013-06-20 2015-01-08 テックファーム株式会社 Video display system and program for video display

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003288657A (en) * 2002-03-28 2003-10-10 Sanyo Electric Co Ltd Monitoring sensor system
JP2006202062A (en) * 2005-01-20 2006-08-03 Toshiba Corp Facility monitoring system
JP2007213224A (en) * 2006-02-08 2007-08-23 Sogo Keibi Hosho Co Ltd Monitoring system and monitoring method
JP2008269336A (en) * 2007-04-20 2008-11-06 Hitachi Ltd Watching system and watching method
JP2011018094A (en) * 2009-07-07 2011-01-27 Nec Corp Patrol support system, method and program
JP2011141254A (en) * 2010-01-11 2011-07-21 Toyota Home Kk Route searching system
JP2011210006A (en) * 2010-03-30 2011-10-20 Secom Co Ltd Device for supporting crime-preventive measure
WO2013056395A1 (en) * 2011-10-19 2013-04-25 Honeywell International Inc. Model-based generation of information and evacuation messages
US20130116922A1 (en) * 2011-11-08 2013-05-09 Hon Hai Precision Industry Co., Ltd. Emergency guiding system, server and portable device using augmented reality
JP2015005851A (en) * 2013-06-20 2015-01-08 テックファーム株式会社 Video display system and program for video display

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018160219A (en) * 2017-03-24 2018-10-11 株式会社 日立産業制御ソリューションズ Moving route prediction device and method for predicting moving route

Also Published As

Publication number Publication date
JP6200225B2 (en) 2017-09-20

Similar Documents

Publication Publication Date Title
US11080439B2 (en) Method and apparatus for interacting with a tag in a cold storage area
US8990049B2 (en) Building structure discovery and display from various data artifacts at scene
KR101840560B1 (en) System and method for providing 3-dimension path upon fire occurrence
CN102620737B (en) Portable enclosure for generating building map
Fusco et al. Indoor localization for visually impaired travelers using computer vision on a smartphone
US8751151B2 (en) System and method for localizing a trackee at a location and mapping the location using inertial sensor information
CN107765846A (en) System and method for using the sensor network across building to carry out the far distance controlled based on gesture
CN204465738U (en) A kind of disaster relief rescue visible system
KR101796385B1 (en) System and method for providing optimal path upon fire occurrence
US9462423B1 (en) Qualitative and quantitative sensor fusion for indoor navigation
CN107765845A (en) System and method for using the sensor network across building to carry out the far distance controlled based on gesture
KR20180058348A (en) Method and apparatus for detecting presence using wireless communication device and providing a service by using thereof
US10997832B1 (en) Augmented reality based dynamic guidance
US10579138B2 (en) Head-mounted sensor system
US20220414281A1 (en) Method and apparatus for presentation of digital content
Yoon et al. Victim localization and assessment system for emergency responders
US10089784B2 (en) Head-mounted mapping methods
KR101766747B1 (en) Method For Displaying Screen of Terminal and Exit course
Elsayed et al. BIM based framework for building evacuation using Bluetooth Low Energy and crowd simulation
JP6200225B2 (en) Guidance system
CN108346260A (en) It is a kind of for the monitoring method of unmanned plane, device, unmanned plane and monitoring system
JP2015060338A (en) Guidance system, server device and program
US20230384114A1 (en) Personal protective equipment for navigation and map generation within a visually obscured environment
CN115950437B (en) Indoor positioning method, positioning device, equipment and medium
Logesh et al. SOCIAL DISTANCING MONITORING ROBOT.

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160601

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170825

R150 Certificate of patent or registration of utility model

Ref document number: 6200225

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250