JP2015014864A - Guidance system - Google Patents
Guidance system Download PDFInfo
- Publication number
- JP2015014864A JP2015014864A JP2013140418A JP2013140418A JP2015014864A JP 2015014864 A JP2015014864 A JP 2015014864A JP 2013140418 A JP2013140418 A JP 2013140418A JP 2013140418 A JP2013140418 A JP 2013140418A JP 2015014864 A JP2015014864 A JP 2015014864A
- Authority
- JP
- Japan
- Prior art keywords
- person
- suspicious person
- user
- guidance
- route
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、不審者が学校やオフィス内に侵入してきたときに、生徒やオフィスで働く人を安全に誘導する誘導システムに関する。 The present invention relates to a guidance system that safely guides students and people working in the office when a suspicious person enters the school or office.
従来、対人センサによる検知出力を用いて不審者の移動経路を特定し、GPS等により利用者(児童等)の位置を検出し、不審者の移動経路と利用者の位置とを用いて利用者の誘導経路(避難経路)を算出し、利用者が所持する携帯端末に当該誘導経路を可視情報として表示させることにより、屋内に侵入してきた不審者から利用者が安全に避難できるようにするシステムが提案されている(特許文献1)。 Conventionally, the movement path of a suspicious person is identified using detection output from a personal sensor, the position of a user (children, etc.) is detected by GPS or the like, and the user is detected using the movement path of the suspicious person and the position of the user. A system that allows a user to evacuate safely from a suspicious person who has entered the house by calculating the guidance route (evacuation route) and displaying the guidance route as visible information on a portable terminal possessed by the user Has been proposed (Patent Document 1).
しかし、上記の従来技術においては、不審者と利用者との相対位置や不審者の移動経路を考慮して誘導経路を算出しているものの、不審者からの見つかり易さといった観点について考慮されていない。そのため、どんなに不審者との距離が離れていたとしても、一旦不審者に発見されてしまった場合、不審者からの威嚇・恫喝により児童や女性が脅えてしまい、適切に避難することが困難となり得る。 However, in the above prior art, although the guide route is calculated in consideration of the relative position between the suspicious person and the user and the movement route of the suspicious person, the viewpoint of easiness to find from the suspicious person is taken into consideration. Absent. Therefore, no matter how far away from the suspicious person, once they are discovered by the suspicious person, threats and threats from the suspicious person will threaten children and women, making it difficult to evacuate properly. obtain.
そこで、本発明は、建物構造と不審者の位置とから不審者の視野範囲(見えうる範囲)を考慮し、利用者の不審者からの見つかり易さを評価して、見つかり難い誘導経路を利用者に提示できるようにすることにより、より安全な非難が行えるよう誘導することを目的とする。 Therefore, the present invention considers the suspicious person's visual field range (visible range) from the building structure and the suspicious person's position, evaluates the user's easiness of finding from the suspicious person, and uses a difficult-to-find guidance route. The purpose is to guide the person to make safer blame by making it possible to present to the person.
かかる課題を解決するために、監視空間に設置され人物を検知する検知部と、利用者に所持される携帯端末と、利用者の現在位置から目的位置に至るまでの不審者から見つかり難い誘導経路を算出し前記携帯端末に該誘導経路を送信する誘導装置とから構成される誘導システムであって、
前記誘導装置は、前記監視空間の構造と前記検知部の設置位置とを示した空間マップ、及び前記空間マップ上における目的位置を予め記憶した記憶部と、前記検知部の出力と前記空間マップとを用いて前記監視空間に存在する人物の位置を検出する人物検出手段と、前記人物の位置に存在する人物が不審者か利用者かを判定する人物判定手段と、前記空間マップにおける不審者位置から所定範囲の方向に放射状に投光した光が前記構造によって遮られるまでの到達範囲を視野モデルとして求め、該視野モデルを用いて利用者位置から前記目的位置までに至る一又は複数の誘導経路候補をそれぞれ評価し、該不審者から最も見つかり難い該誘導経路候補を前記誘導経路として生成する誘導経路生成手段と、を有することを特徴とする誘導システムを提供する。
かかる構成により、本発明の誘導システムは、不審者の視野範囲を視野モデルとして算出し、当該視野モデルを用いて不審者から最も見つかり難い誘導経路を算出し、当該誘導経路を利用者の所持する携帯端末に送信できるため、利用者はより安全に目的位置まで移動することができる。
In order to solve such a problem, a detection unit installed in a monitoring space for detecting a person, a portable terminal held by the user, and a guide route that is difficult to find from a suspicious person from the current position of the user to the target position A guidance system comprising a guidance device that calculates and transmits the guidance route to the portable terminal,
The guidance device includes a space map indicating a structure of the monitoring space and an installation position of the detection unit, a storage unit that stores in advance a target position on the space map, an output of the detection unit, and the space map. A person detecting means for detecting the position of the person existing in the monitoring space using a person, a person determining means for determining whether the person existing in the position of the person is a suspicious person or a user, and a suspicious person position in the space map One or a plurality of guiding paths from the user position to the target position using the visual field model by determining the reach range until the light projected radially in the direction of the predetermined range is blocked by the structure And a guide route generating means for evaluating each candidate and generating the guide route candidate that is most difficult to find from the suspicious person as the guide route. To provide.
With this configuration, the guidance system of the present invention calculates the visual field range of the suspicious person as the visual field model, calculates the guidance route that is most difficult to find from the suspicious person using the visual field model, and possesses the guidance route by the user. Since it can transmit to a portable terminal, the user can move to a target position more safely.
また、本発明の好ましい態様は、前記誘導経路生成手段は、前記検知部の出力を用いて前記不審者の正面方向を推定し、該正面方向に位置する前記誘導経路候補であるほど見つかり易いとして評価するものとする。
かかる構成により、不審者の正面方向の位置を移動しなければならないような誘導経路候補であるほど、不審者に見つかり易いとして評価されるため、利用者はできるだけ正面方向に位置しない誘導経路で移動でき、より安全に目的位置まで移動することができる。
Further, according to a preferred aspect of the present invention, the guidance route generation means estimates the front direction of the suspicious person using the output of the detection unit, and the guidance route candidate located in the front direction is more likely to be found. Shall be evaluated.
With this configuration, the guide route candidate that must move the position of the suspicious person in the front direction is evaluated as being easily found by the suspicious person. Therefore, the user moves along the guide route that is not located in the front direction as much as possible. Can be moved to the target position more safely.
また、本発明の好ましい態様は、前記誘導経路生成手段は、前記検知部の出力の時間推移を用いて現在時刻から後の評価期間における前記不審者位置を推定し、該不審者位置と空間マップとを用いて評価期間における前記視野モデルを推定し、該評価期間における前記利用者位置を前記誘導経路候補毎に推定し、該視野モデルと該利用者位置とを用いて誘導経路候補毎に評価期間における不審者からの見つかり易さを評価して、不審者から最も見つかり難い該誘導経路候補を前記誘導経路として生成するものとする。
かかる構成により、未来時刻における不審者位置を推定し、当該不審者位置における視野モデルと、未来時刻における利用者位置とを用いて不審者からの見つかり易さを評価することによって、不審者の移動を考慮して見つかり難い誘導経路を求めることができ、利用者に対してより安全性の高い誘導経路の情報を提供することができる。
In a preferred aspect of the present invention, the guidance route generation means estimates the suspicious person position in an evaluation period after the current time using a time transition of the output of the detection unit, and the suspicious person position and the spatial map Is used to estimate the visual field model in the evaluation period, the user position in the evaluation period is estimated for each guidance route candidate, and evaluation is performed for each guidance route candidate using the visual field model and the user position. The ease of finding from a suspicious person in a period is evaluated, and the guidance route candidate that is most difficult to find from a suspicious person is generated as the guidance route.
With this configuration, the position of the suspicious person is estimated by estimating the position of the suspicious person at the future time and evaluating the easiness to find from the suspicious person using the visual field model at the position of the suspicious person and the user position at the future time. It is possible to obtain a guidance route that is difficult to find in consideration of the above, and to provide information on the guidance route with higher safety to the user.
また、本発明の好ましい態様は、前記空間マップにおける前記構造は、3次元形状として記憶され、前記視野モデルは、前記空間マップにおける不審者の水平位置であって目の位置に相当する高さ位置を中心として該位置から所定方向に放射状に投光した光が前記構造によって遮られるまでの到達範囲からなる3次元形状であるものとする。
かかる構成により、構造による不審者の視線の隠蔽をより正確に算出でき、不審者の視野範囲をより忠実に再現できるため、より高い精度で不審者から見つかり難い誘導経路を算出することができる。
In a preferred aspect of the present invention, the structure in the spatial map is stored as a three-dimensional shape, and the visual field model is a horizontal position of a suspicious person in the spatial map and a height position corresponding to an eye position. It is assumed that it has a three-dimensional shape consisting of an arrival range until light projected radially from the position in a predetermined direction is blocked by the structure.
With this configuration, the hiding of the suspicious person's line of sight due to the structure can be calculated more accurately, and the visual field range of the suspicious person can be more faithfully reproduced.
また、本発明の好ましい態様は、前記誘導経路生成手段は、前記不審者位置と前記利用者位置との離間距離を算出し、該利用者位置から前記目的位置に至る経路の総距離を算出し、該離間距離が小さいほど不審者から見つかり易いと評価すると共に、該総距離が大きいほど不審者から見つかり易いと評価するものとする。
かかる構成により、離間距離が大きい誘導経路候補であるほど誘導経路として設定され易く、総距離が大きい誘導経路候補であるほど誘導経路として設定され難い。そのため、目的位置にできるだけ早く到達でき、不審者からできるだけ距離をとれる誘導経路を利用者に提示できるため、総合的に見つかり難い安全な誘導経路を利用者に提供することができる。
In a preferred aspect of the present invention, the guidance route generation means calculates a separation distance between the suspicious person position and the user position, and calculates a total distance of a route from the user position to the target position. Assume that the smaller the separation distance is, the easier it is to be found from a suspicious person, and the larger the total distance is, the easier it is to be found from a suspicious person.
With this configuration, a guide route candidate with a larger separation distance is more likely to be set as a guide route, and a guide route candidate with a larger total distance is less likely to be set as a guide route. Therefore, the user can be presented with a guide route that can reach the target position as soon as possible and can be as far away as possible from the suspicious person, so that a safe guide route that is difficult to find comprehensively can be provided to the user.
上記のように、本発明の誘導システムは、不審者から見えうる範囲を考慮することにより、不審者から見つかり難い誘導経路を利用者に対して提示することができる。 As described above, the guidance system of the present invention can present to the user a guidance route that is difficult to find from the suspicious person by considering the range that can be seen by the suspicious person.
(第一の実施形態)
以下、本発明の一実施形態として、建物内を監視空間とし、当該監視空間に不審者が侵入したときに、当該侵入者に見つかり難い避難経路(誘導経路)にて誘導先である目的位置(出入口)に誘導する誘導システムについて、図面を参照して説明する。
(First embodiment)
Hereinafter, as one embodiment of the present invention, when a building is set as a monitoring space, and a suspicious person enters the monitoring space, a destination position that is a guidance destination in an evacuation route (guidance route) that is difficult to be found by the intruder ( A guidance system for guiding to the doorway will be described with reference to the drawings.
図1に本実施形態で利用する誘導システムの概観図を表す。図1に表すように、本実施形態における監視空間を形成する建物Bは、ハッチングで塗られた通路Pと、出入口Dと、符号W1〜W9に示す窓とから構成される。また、窓Wは透光性のガラス素材が用いられているため、通路Pに存在する人物は窓W4〜W7を介して建物Bの中庭などを見たり、窓W1〜W3、W8、W9を介して建物Bの外部を見たりすることが可能である。また、誘導システムは、検知部S、誘導装置1、携帯端末2、ネットワーク3、無線通信装置4によって構成される。
FIG. 1 shows an overview of the guidance system used in this embodiment. As shown in FIG. 1, the building B forming the monitoring space in the present embodiment includes a passage P painted by hatching, an entrance D, and windows indicated by reference numerals W1 to W9. Moreover, since the transparent glass material is used for the window W, the person who exists in the passage P can see the courtyard of the building B through the windows W4 to W7, and the windows W1 to W3, W8, and W9. It is possible to see the outside of the building B through The guidance system includes a detection unit S, a
建物Bの通路Pにおける天井部には、符号S1〜S29に示す検知部Sが設置されている。検知部Sは、検知範囲内に所在する人物の人体から放射される赤外線を受光し、その受光量の変化に基づいて人体等の存否を検出する赤外線センサである。本実施形態では、図2に表すように、検知部S1〜S29の検知範囲は、それぞれ符号A1〜A29の点線内のハッチングで示す範囲として設定されている。検知部S1〜S29は、通信回線を介してLAN回線等からなるネットワーク3に接続されており、検知範囲A内において人物を検知したとき、検知した検知部Sの識別番号と検知時刻とを記した検知信号が当該ネットワーク3を介して誘導装置1に送信する。
On the ceiling portion in the passage P of the building B, a detection unit S indicated by reference numerals S1 to S29 is installed. The detection unit S is an infrared sensor that receives infrared rays emitted from the human body of a person located within the detection range and detects the presence or absence of a human body or the like based on a change in the amount of received light. In the present embodiment, as shown in FIG. 2, the detection ranges of the detection units S1 to S29 are set as ranges indicated by hatching within the dotted lines of reference signs A1 to A29, respectively. The detection units S1 to S29 are connected to the
誘導装置1は、建物B内の図示しない事務室や警備室、サーバルーム等に設置されたコンピュータであり、ネットワーク3を介して送信された検知部Sの検知信号に基づいて利用者の安全な誘導経路を算出し、利用者によって所持される携帯端末2に対して算出した誘導経路の情報を送信する処理を行う。この際、誘導装置1は、ネットワーク3に接続された無線通信装置4を介して、無線通信によって算出した誘導経路の情報を携帯端末2に送信する。なお、無線通信装置4は、無線LANルータや無線アクセスポイント等の通信機器である。
The
携帯端末2は、スマートフォン、PDA、タブレット端末等の表示画面21を備えた電子デバイスであって、児童等の建物Bにおける正規利用者である利用者Yによって携帯されるものである。携帯端末2は、誘導装置1から無線通信装置4を介して送信された誘導経路の情報を受信し、当該誘導経路の情報に基づいて、建物Bの地図上に誘導経路を示した画像情報を生成し、表示画面21に表示させる処理を行う。利用者Yは、表示画面21に表示された誘導経路を参照することにより、不審者に見つかり難い安全な誘導経路を把握することができる。
The
図3は、誘導装置1の構成を示している。上述した機能を実現するべく、本実施形態の誘導装置1は、記憶部11、制御部12、入力部13、通信部14を含んで概略構成される。
入力部13は、キーボードやマウス、タッチパネル、可搬記憶媒体の読み取り装置等の情報入力デバイスである。システムの管理者等は、入力部13を用いて、誘導装置1に対して建物Bの地図である後述する空間マップ111や、当該地図における検知部Sの設置位置情報等の様々な設定情報等を入力することができる。
FIG. 3 shows the configuration of the
The
記憶部11は、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の情報記憶装置である。記憶部11は、各種プログラムや各種データを記憶し、制御部12との間でこれらの情報を入出力する。各種データには、空間マップ111、目的位置112、視野モデル113、検知信号テーブル114、追跡テーブル115の他、制御部12の各処理に用いられる設定値等の各種パラメータ116や、制御部12の処理によって求めた最終的に算出する誘導経路等の演算結果等が含まれる。
The
空間マップ111は、監視空間である建物Bの構造と検知部Sの設置位置とを示したいわゆる地図情報であり、座標情報として記憶部11に記憶されている。また、建物Bの構造をなす各構成要素には属性が付与されている。例えば、窓Wや出入口D等といった構成要素の種別を表す属性や、窓Wは透光性を有する材質であるといったような構成要素の材質を表す属性が付与されている。空間マップ111は、管理者等により入力部13から設定登録されることにより記憶部11に記憶される。
The space map 111 is so-called map information indicating the structure of the building B that is the monitoring space and the installation position of the detection unit S, and is stored in the
目的位置112は、利用者Yを誘導すべき場所を示した空間マップ111における位置情報であり、座標情報として記憶部11に記憶されている。本実施形態では、利用者Yが安全を確保できる出入口Dを目的位置112として建物の出入口Dの重心位置の座標情報が、管理者等により予め設定されている。しかし、これに限らず、目的位置112を逃げ遅れ児童の位置として設定する実施形態であってもよい。これにより、当該逃げ遅れ児童を救出する際に、不審者に見つかり難い救出経路(誘導経路)を利用者(例えば、先生等の救出側の人物)に提示することができる。さらに、目的位置112を予め複数個設定しておき、状況に応じて採用する目的位置112を自動選択する実施形態であってもよい。例えば、予め登録された複数の目的位置112の中から現在の利用者位置に最も近い目的位置112を自動で選択してもよい。
The
視野モデル113は、不審者Xの視野範囲(およそ見渡せるであろう範囲)を空間マップ111に対応付けてモデリングした情報であり、空間マップ111における座標情報として記憶部11に記憶される。視野モデル113は、不審者Xの位置情報(以下、「不審者位置」という)と空間マップ111とを用いて、後述する制御部12の誘導経路生成手段123によって適宜生成され、記憶部11に記憶される。図4は、視野モデル113を説明する図であって、同図(a)は時刻t0のときにおける不審者Xの視野モデル113であり、同図(b)は時刻t1のときにおける不審者Xの視野モデル113を表している。図4に表すように、視野モデル113は、不審者位置を中心として所定範囲の方向(例えば、360°周囲の範囲方向)に放射状に投光した光が建物Bの構造(壁面等)によって遮られるまでの到達範囲を視野モデル113として求められる。なお、本実施形態では、投光する「所定範囲の方向」として、360°の範囲の全周囲方向を採用しているがこれに限らず、不審者Xの進行方向を0°として±70°の範囲の方向を所定範囲の方向として採用しても良い。また、図4では、予め設定した半径L[m](例えば、20[m])までを光の到達範囲Mとして設定しているが、これに限らず、光の到達範囲Mを設定しない(∞と設定する)ことによって視野モデル113を算出してもよい。
The
検知信号テーブル114は、検知部Sから受信した検知信号に基づいて作成及び更新されるテーブルであって、図5に示されるように、受信した検知信号を送信した検知部Sの識別番号と、検知した時刻と、検知信号に基づいて後述する人物検出手段121にて算出された人物位置とを対応付けるテーブルである。なお、本実施形態では、受信した検知部Sの識別番号に対応する検知部Sの設置位置の座標を、人物位置として用いる。しかし、これに限らず、検知部Sの検知範囲Aの重心位置の座標を、人物位置として設定してもよい。 The detection signal table 114 is a table created and updated based on the detection signal received from the detection unit S. As shown in FIG. 5, the identification number of the detection unit S that has transmitted the received detection signal, and It is a table which matches the detected time and the person position calculated by the person detection means 121 mentioned later based on the detection signal. In the present embodiment, the coordinates of the installation position of the detection unit S corresponding to the received identification number of the detection unit S are used as the person position. However, the present invention is not limited to this, and the coordinates of the gravity center position of the detection range A of the detection unit S may be set as the person position.
追跡テーブル115は、検知信号テーブル114等の情報に基づいて作成及び更新されるテーブルであって、図6に示されるように、時刻と、後述する人物検出手段121にて追跡した人物の識別番号(人物ID)と、当該時刻における当該人物の人物位置と、後述する人物判定手段122にて判定した人物の属性(不審者/利用者)とを対応付けるテーブルである。
The tracking table 115 is a table that is created and updated based on information such as the detection signal table 114, and as shown in FIG. 6, the time and the identification number of the person tracked by the person detecting means 121 described later. (Person ID), a person position of the person at the time, and a person attribute (suspicious person / user) determined by the
通信部14は、LANやUSB等の通信インタフェースであり、ネットワーク3を介して検知部Sや携帯端末2や無線通信装置4と通信を行う。
The
制御部12は、例えばCPUやDSP等の演算装置であって、記憶部11に記憶されるプログラムに従って各種の情報処理を実行する。本実施形態では、制御部12は、検知部Sからの検知信号の入力を受け、後述する図7、図8に示す一連の処理を実行すべく、人物検出手段121、人物判定手段122、誘導経路生成手段123を含んでいる。また、制御部12は、入力部13からの設定情報や操作情報等の入力情報を記憶部11に保存する処理を行う。
The
人物検出手段121は、ネットワーク3を介して受信した検知部Sからの検知信号に基づいて監視空間に存在する人物の位置を検出する位置検出処理と、検出された人物を時間的に追跡する追跡処理とを行う。位置検出処理では、受信した検知信号に基づいて検知信号テーブル114を更新する処理を行う。例えば、図5の例のように、現在時刻がt0であるとき、検知部S2及びS22から検知信号を受信したとする。この場合、これらの検知部S2、S22に対応する検知範囲A2、A22の範囲内の位置に人物が存在すると判定し、検知信号テーブル114に当該位置を検知時刻と検知信号と共に追記するよう更新するよう処理する。次に、追跡処理では、検知信号テーブル114の過去時刻から現在時刻までの人物位置の位置関係に基づいて、各時刻間における同一人物を対応付け、人物を時間的に追跡する処理を行う。例えば、図6の例において、時刻t0において検知範囲A2の位置に人物を検出したとき、その次の時刻t1において当該位置A2に人物を検出せずに当該位置A2に隣接する位置である検知範囲A3に人物を検出したとき、人物がA2の位置からA3の位置に移動したとして、前後の時刻におけるこれらの人物を同一人物として関連付ける。すなわち、前の時刻t0にA2に存在していた人物ID(=X)と同一の人物ID(=X)が付与されるよう現在時刻t1における追跡テーブル115が更新される。
The
人物判定手段122は、人物検出手段121によって初めて検出された人物が不審者であるか利用者であるかを判定する人物判定処理を行う。本実施形態では、出入口Dが適切に出入管理されているといった前提の下で、出入口Dから入った人物は適正な人物(利用者)であると判定し、出入口D以外の位置から建物B内に侵入した人物を不適正な人物(不審者)であると判定する。すなわち、ある人物が出入口Dの位置する検知範囲A10以外の検知範囲において初めて検出されたとき、当該人物は不審者であると判定される。例えば、ある人物の初めて検出された位置がA1であったとき、当該人物は窓W1から侵入した不審者であるとして、追跡テーブル115における当該人物の人物IDに対応する属性を「不審者」として更新する。一方、ある人物の初めて検出された位置がA10であったとき、当該人物は適正な出入管理(例えば、入館時における認証)を経て入ってきた適正な利用者であるとして、当該人物の人物IDに対応する属性を「利用者」として更新する。なお、一度属性が判定された人物については、以降の処理において人物判定処理の処理対象とはならず、追跡している同一人物は同じ属性を有するよう更新される。
The
誘導経路生成手段123は、不審者から最も見つかり難い安全な利用者の誘導経路を生成する誘導経路生成処理を行う。なお、誘導経路生成処理の詳細については追って説明する。 The guide route generation unit 123 performs a guide route generation process for generating a safe user guide route that is most difficult to find from a suspicious person. Details of the guidance route generation process will be described later.
(誘導装置1の制御部12の処理動作について)
次に、上記構成による誘導装置1を用いて誘導経路を生成し利用者が所持する携帯端末2に当該誘導経路を送信するまでの制御部12の処理動作について図7を参照しながら説明する。
(Regarding the processing operation of the
Next, a processing operation of the
誘導装置1が起動されると、制御部12は、検知信号の取得処理を実行する(ST1)。検知信号の取得処理では、検知部Sが人物を検知した際に送信する検知信号を受信し、当該検知信号に記された検知時刻と検知部Sの識別番号と対応付けて検知信号テーブル114を更新する処理を行う。
When the
次に、制御部12の人物検出手段121は、ST1にて受信した検知信号の識別番号と記憶部11の(検知部Sの設置位置が記された)空間マップ111とに基づいて、当該識別番号に対応する人物位置を検出する位置検出処理を実行する(ST2)。すなわち、受信した識別番号に対応する検知部Sの設置位置を空間マップ111から求め、当該検知部Sの設置位置の座標を人物位置として検出し、当該人物位置を検知信号テーブル114に記憶する処理を行う。
Next, the person detection means 121 of the
次に、制御部12の人物検出手段121は、ST1及びST2にて更新された検知信号テーブル114の過去時刻から現在時刻までの人物位置の位置関係に基づいて、各時刻間における人物を対応付け、人物を時間的に追跡する追跡処理を行う(ST3)。なお、追跡処理の詳細については前述したため、ここでは説明を省略する。
Next, the
次に、制御部12は、追跡テーブル115に基づいて、現在時刻において監視空間内に人物が存在しているか否かを判定する(ST4)。具体的には、現在時刻において、追跡テーブル115に人物IDが付与された人物が1人以上記憶されているとき監視空間内に人物が存在していると判定し(ST4−Yes)、ST5に処理を進める。一方、現在時刻において、追跡テーブル115に人物IDが付与された人物が1人以上記憶されていないとき監視空間内に人物が存在していないと判定し(ST4−No)、ST1に処理を進める。
Next, based on the tracking table 115, the
次に、制御部12の人物判定手段122は、ST1〜ST3までの処理において、初めて検出された人物が不審者であるか利用者であるかを判定し、追跡テーブル115の属性を更新する人物判定処理を行う(ST5)。本実施形態では、追跡テーブル115の属性情報が記憶されていない人物が初めて検出された人物とし、当該人物が人物判定処理の対象人物となる。そして、対象人物の現在位置が、A10の位置であるとき当該対象人物は利用者であると判定し、A10以外の位置であるとき当該対象人物は不審者であると判定する。
Next, the
次に、制御部12は、記憶部11の追跡テーブル115を参照し、現在時刻において監視空間内に「不審者が存在している、かつ利用者が存在している」を満たしているか否かを判定する(ST6)。現在時刻において、「不審者が存在し、利用者も存在する」とき(ST6−Yes)、制御部12はST7に処理を進める。一方、現在時刻において、「不審者が存在しない」あるいは「利用者が存在しない」とき(ST6−No)、制御部12はST1に処理を進める。
Next, the
次に、制御部12の誘導経路生成手段123は、監視空間に存在する不審者から最も見つかり難い安全な利用者の誘導経路を生成する誘導経路生成処理を行う(ST7)。誘導経路生成処理の詳細については追って説明する。
Next, the guide route generation means 123 of the
次に、制御部12は、ST7にて生成した誘導経路を利用者の所持している携帯端末2に送信する処理を行う(ST8)。なお、本実施形態では、ST7にて生成した誘導経路と空間マップ111とを合成した画像情報を携帯端末2に送信する。そして、当該画像情報を受信した携帯端末2は、表示画面21上に当該画像情報を表示させる。しかし、これに限らず、ST7にて生成した誘導経路の座標情報を携帯端末2に送信し、携帯端末2側に予め記憶した空間マップ111と受信した誘導経路の座標情報とを用いて携帯端末2側で誘導経路と空間マップ111とを合成した画像情報を生成してもよい。
Next, the
(誘導経路生成処理の詳細について)
次に、図7のフローチャートのST7における、制御部12の誘導経路生成手段123が実行する誘導経路生成処理の詳細について図8を参照しながら説明する。
(Details of guidance route generation processing)
Next, details of the guidance route generation processing executed by the guidance route generation means 123 of the
制御部12の誘導経路生成手段123は、まず、記憶部11の追跡テーブル115から不審者Xの現在位置(不審者位置)を読出し、当該不審者位置と記憶部11の空間マップ111とを用いて視野モデル113を算出する視野モデル算出処理を行う(ST11)。前述のように、誘導経路生成手段123は、視野モデル113を、不審者位置を中心として所定範囲の方向(本実施形態では、360°周囲の範囲方向)に投光した光が建物Bの構造によって遮られるまでの到達範囲として算出する。
First, the guidance route generation unit 123 of the
次に、誘導経路生成手段123は、誘導経路候補算出処理を行う(ST12)。誘導経路候補算出処理では、記憶部11の追跡テーブル115から利用者Yの現在位置(利用者位置)を読出し、当該利用者位置と記憶部11の空間マップ111とを用いて、利用者の誘導経路の候補である「誘導経路候補」を算出する。本実施形態では、利用者位置から目的位置112に至る全通りの経路を誘導経路候補として求める。図9は誘導経路候補の例を表した図であり、(a)は時刻t0における誘導経路候補R、(b)は時刻t1における誘導経路候補Rを表す。同図に表すように、時刻t0における利用者Yの利用者位置では、破線で表したR10〜R30の3通りの経路が誘導経路候補Rとして求められ、時刻t1における利用者Yの利用者位置では、R11〜R31の3通りの経路が誘導経路候補Rとして求められる。
Next, the guidance route generation means 123 performs guidance route candidate calculation processing (ST12). In the guidance route candidate calculation process, the current position (user position) of the user Y is read from the tracking table 115 of the
次に、誘導経路生成手段123は、利用者が誘導経路候補を移動した際に不審者からの見つかり易さの指標を示す発覚度Dを、ST12にて算出した誘導経路候補Rごとに算出する発覚度算出処理を行う(ST13)。発覚度算出処理では、ST11にて算出した視野モデル113と、ST12にて算出した誘導経路候補Rとを用いて、視野モデル113に重畳している誘導経路候補Rの距離値から、発覚度Dを算出する。すなわち、不審者の視野の範囲内に含まれる恐れの大きい誘導経路候補Rであるほど、発覚度Dは大きく算出される。図10は発覚度Dの算出を説明する図であり、(a)は時刻t0における発覚度D、(b)は時刻t1における発覚度Dの算出を例示している。同図において、破線で示す誘導経路候補R上に示された太い実線で表した箇所は、視野モデル113と誘導経路候補Rとが重畳している箇所であり、当該重畳箇所の距離値が大きくなる程、発覚度Dは大きく算出される。例えば、同図(a)においては、誘導経路候補R10の発覚度=0[m]、誘導経路候補R20の発覚度=5[m]、誘導経路候補R30の発覚度=30[m]と算出される。また、同図(b)においては、誘導経路候補R11の発覚度=0[m]、誘導経路候補R21の発覚度=10[m]、誘導経路候補R31の発覚度=40[m]と算出される。
Next, the guidance route generation unit 123 calculates the degree of awareness D indicating an index of ease of finding from a suspicious person when the user moves the guidance route candidate for each guidance route candidate R calculated in ST12. An awareness level calculation process is performed (ST13). In the degree of awareness calculation process, using the
次に、誘導経路生成手段123は、ST13で算出した誘導経路候補Rの中から、発覚度Dが最小となる誘導経路候補を、利用者に送信する誘導経路として設定する処理を行う(ST14)。図10の例では、現在時刻がt0のときは誘導経路候補R10が誘導経路として設定され、現在時刻がt1のときは誘導経路候補R11が誘導経路として設定されることになる。 Next, the guide route generation means 123 performs a process of setting a guide route candidate having the smallest degree of awareness D as a guide route to be transmitted to the user from the guide route candidates R calculated in ST13 (ST14). . In the example of FIG. 10, the guide route candidate R10 is set as the guide route when the current time is t0, and the guide route candidate R11 is set as the guide route when the current time is t1.
以上のように、本実施形態における誘導システムは、不審者から見つかり難い誘導経路を利用者に対して提示できるため、利用者は不審者に見つからないよう安全に移動することができる。 As described above, since the guidance system according to the present embodiment can present a guidance route that is difficult to be found by a suspicious person to the user, the user can safely move so that the suspicious person cannot find it.
(第二の実施形態)
上述の第一の実施形態では、不審者Xの未来時刻における移動を考慮せずに、現在時刻における不審者位置に基づいて発覚度Dを算出し、当該発覚度Dのみから誘導経路を設定している。しかし、実際は不審者Xが移動している場合も想定されるため、現在時刻において発覚度Dが最小の誘導経路であったとしても、未来時刻においても当該誘導経路の発覚度Dが最小とは限らない。また、たとえ発覚度Dが小さい誘導経路であったとしても、目的位置112に到達するまでの距離が大きすぎたり、不審者Xの近くを通過するような誘導経路が見つかり難い誘導経路であるとは限らない。そのため、未来時刻における不審者位置を考慮すると共に、誘導経路候補Rの距離値(以下、「総距離」という)及び不審者Xとの離間距離を考慮して、総合的に最も安全と想定される誘導経路を利用者に提示できることを目的とした実施形態について説明する。
(Second embodiment)
In the first embodiment described above, the degree of awareness D is calculated based on the position of the suspicious person at the current time without considering the movement of the suspicious person X at the future time, and the guidance route is set only from the degree of suspicion D. ing. However, since it is assumed that the suspicious person X is actually moving, even if the degree of awareness D is the smallest at the current time, the degree of awareness D of the guidance path is the smallest at the future time. Not exclusively. Even if the degree of awareness D is small, the distance to reach the
本実施形態の全体構成及び誘導装置1の機能構成(ブロック図)は、上述した第一の実施形態と同様であり、図1及び図3と同様に表されるため、ここでは図面を省略するとともに、図面に含まれる各構成の説明を省略する。また、本実施形態の制御部12の処理を表すフローチャートも、第一の実施形態と同様、図7で表されるため、ここではその処理の説明を省略する。以下では、本実施形態の誘導装置1の内、上記第一の実施形態と同様の部分については同一の符号を付して説明している。本実施形態と第一の実施形態との違いは誘導経路生成処理であるため、以下、本実施形態の誘導経路生成処理を表す図11のフローチャートを用いて、本実施形態について説明する。なお、図11のフローチャートにおいて、ループ1はST24〜ST28の各処理をST23にて算出する誘導経路候補Rの数だけ実行することを意味しており、ループ2はST25〜ST27の各処理を評価時刻の数だけ実行することを意味している。ここで、評価時刻とは、現在から所定の未来時刻までの評価期間を所定単位の時間間隔で区切ったときの時刻であって、後述する瞬時評価値を算出する時刻である。本実施形態では、評価時刻として、現在時刻から10秒おきに30秒後までを評価時刻として設定している。すなわち、現在時刻をt=0[秒]としたとき、評価時刻は、0[秒]、10[秒後]、20[秒後]、30[秒後]の4つが評価時刻として設定されている。したがって、ループ2では、当該4つの評価時刻についてST25〜ST27の各処理が繰り返されることになる。なお、評価時刻は任意の値として設定することができる。
The overall configuration of the present embodiment and the functional configuration (block diagram) of the
本実施形態の誘導経路生成処理では、まず、各評価時刻における不審者位置を推定する不審者位置推定処理を行う(ST21)。不審者位置推定処理では、まず、追跡テーブル115における不審者の過去の移動履歴と空間マップ111とに基づいて、不審者の移動速度と移動方向を推定する。そして、現在時刻における不審者位置と推定した移動方向とを用いて、不審者の未来時刻における不審者の移動経路(以下、「不審者予想経路」という)を推定する。この際、本実施形態では、不審者の行動パターンを予め記憶部11に記憶させておき、不審者位置と推定した移動方向とから最も移動する可能性が高い誘導経路を不審者予想経路として選択することとしている。そして、推定した不審者予想経路と推定した不審者の移動速度とを用いて、各評価時刻における不審者位置を推定する。図12は不審者位置推定処理において推定した未来時刻における不審者位置を説明する図である。同図において、符号rで示した経路は不審者予想経路であり、符号X0〜X3で示した位置は各評価時刻における不審者位置である。
In the guide route generation process of the present embodiment, first, a suspicious person position estimation process for estimating a suspicious person position at each evaluation time is performed (ST21). In the suspicious person position estimation process, first, based on the past movement history of the suspicious person in the tracking table 115 and the space map 111, the moving speed and moving direction of the suspicious person are estimated. Then, using the suspicious person position at the current time and the estimated moving direction, the suspicious person's movement path at the future time of the suspicious person (hereinafter referred to as “suspicious person expected path”) is estimated. At this time, in this embodiment, the behavior pattern of the suspicious person is stored in the
次に、ST21にて推定した不審者位置と空間マップ111とを用いて、各評価時刻における視野モデル113を算出する視野モデル算出処理を行う(ST22)。続いて利用者位置と空間マップ111とを用いて誘導経路候補を生成する誘導経路候補生成処理を行う(ST23)。ここでいう視野モデル算出処理及び誘導経路候補生成処理は、第一の実施形態の視野モデル算出処理(ST11)及び誘導経路候補生成処理(ST12)と同様の処理であるため、ここでは詳細な説明を省略する。
Next, a visual field model calculation process for calculating the
次に、各評価時刻における利用者位置を推定する利用者位置推定処理を行う(ST24)。利用者位置推定処理では、ループ1にて現在処理対象となっている誘導経路候補Rと予め設定された標準移動速度とを用いて、未来時刻である各評価時刻における利用者位置を推定する。図13は、利用者位置推定処理にて推定した未来時刻における利用者位置を説明する図である。同図において、符号Y0、Y11〜Y13で示した位置は、誘導経路候補R10における各評価時刻における利用者位置である。また、符号Y0、Y21〜Y23で示した位置は、誘導経路候補R20における各評価時刻における利用者位置である。また、符号X0、Y31〜Y33で示した位置は、誘導経路候補R30における各評価時刻における利用者位置である。
Next, user position estimation processing for estimating the user position at each evaluation time is performed (ST24). In the user position estimation process, the user position at each evaluation time, which is a future time, is estimated using the guide route candidate R currently processed in
次に、ループ2にて処理対象となっている評価時刻の利用者位置において、不審者からの見つかり易さの指標を示す発覚度Dを算出する発覚度算出処理を行う(ST25)。本実施形態では、ST22にて求めた視野モデル113の範囲内にST24にて求めた利用者位置が含まれるか否かを判定し、含まれているときは“1”を含まれていないときは“0”として発覚度Dを求める。図14は、処理対象となっている誘導経路候補RがR10の場合において、(a)評価時刻t=0(利用者位置Y0)における発覚度、(b)評価時刻t=10(利用者位置Y11)における発覚度Dの算出を説明する図である。同図(a)の例では、評価時刻t=0における視野モデル113(不審者位置X0における視野モデル113)の範囲内に利用者位置Y0が含まれないため、算出される発覚度D=0となる。また、同図(b)の例では、評価時刻t=10における視野モデル113(不審者位置X1における視野モデル113)の範囲内に利用者位置Y11が含まれるため、算出される発覚度D=1となる。
Next, at the user position at the evaluation time that is the processing target in
次に、ループ1で処理対象となっている誘導経路候補Rと、ループ2で評価対象となっている評価時刻における利用者位置とを用いて、評価時刻における利用者位置から目的位置112までに至るまでの総距離L1を求める。続いて、評価時刻における利用者位置と不審者位置とから、利用者と不審者との間の離間距離L2を求める。本実施形態では、利用者位置から不審者位置まで至る一又は複数の経路を求め、当該経路の中で最短経路の距離を離間距離L2として求める。図15は、処理対象となっている誘導経路候補がR1であって評価時刻t=0における、総距離L1と離間距離L2の例を表す図である。実線で示す総距離L1の長さと、破線で示す離間距離L2の長さからそれぞれの値を算出する。
Next, from the user position at the evaluation time to the
次に、ST25で求めた発覚度DとST26で求めた総距離L1、離間距離L2とを用いて評価時刻における不審者Xからの見つかり易さを表す指標である瞬時評価値eを算出する(ST27)。本実施形態では、瞬時評価値e=α×発覚度D+β×総距離L1−γ×離間距離L2によって算出する。ここで、α、β、γは、正の係数として予め記憶部11に設定されるものであり、発覚度D、総距離L1、離間距離L2の中のどの値を、安全性を評価するうえで特に重視するのかを考慮して管理者によって調整することができる値である。このように、瞬時評価値eは、発覚度D及び総距離L1が大きいほど大きく算出され、離間距離L2が大きいほど小さく算出される。
Next, using the degree of awareness D obtained in ST25 and the total distance L1 and the separation distance L2 obtained in ST26, an instantaneous evaluation value e that is an index representing the easiness to find from the suspicious person X at the evaluation time is calculated ( ST27). In the present embodiment, the instantaneous evaluation value e = α × arousal degree D + β × total distance L1−γ × separation distance L2. Here, α, β, and γ are preset in the
次に、ループ1で処理対象となっている誘導経路候補の最終的な危険性を表す経路評価値を算出する処理を行う(ST28)。本実施形態では、ループ2の各処理によって算出した各評価時刻における瞬時評価値の総和から経路評価値を算出する。
Next, a process for calculating a route evaluation value representing the final risk of the guidance route candidate to be processed in
次に、ループ1で算出した各誘導経路候補Rの経路評価値をもちいて、当該経路評価値が最小となる誘導経路候補Rを、利用者に送信する誘導経路として設定する処理を行う(ST29)。
Next, using the route evaluation value of each guide route candidate R calculated in
このように、本実施形態では、未来時刻における不審者位置を推定し、当該不審者位置における視野モデル113と、未来時刻における利用者位置とを用いて発覚度Dを算出することによって、不審者の未来時刻における移動を考慮して見つかり難い誘導経路を算出しているため、利用者により安全性の高い誘導経路の情報を提供することができる。さらに、本実施形態では、誘導経路を算出するにあたって、利用者位置から目的位置112に至るまでの距離である総距離L1と、利用者と不審者Xとの間の離間距離L2とを考慮している。具体的には、総距離L1の大きい誘導経路候補Rであるほど誘導経路として設定され難く、離間距離L2が大きい誘導経路候補Rであるほど誘導経路として設定され易い。したがって、単なる見つかり難い誘導経路だけでなく、目的位置112にできるだけ早く到達でき、不審者Xからできるだけ距離をとれる誘導経路を利用者に提示できるため、利用者により見つかり難い安全性の高い誘導経路の情報を提供することができる。
ところで、本発明は、上記実施形態に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施形態で実施されてもよいものである。また、実施形態に記載した効果は、これに限定されるものではない。
Thus, in this embodiment, a suspicious person position is estimated by estimating the suspicious person position in the future time, and calculating the awareness D using the
By the way, the present invention is not limited to the above-described embodiment, and may be implemented in various different embodiments within the scope of the technical idea described in the claims. Further, the effects described in the embodiments are not limited to this.
上記各実施形態では、検知部Sとして赤外線センサを利用し、当該赤外線センサの検知出力と赤外線センサの設置位置とにより、人物の位置を検出し(ST2)、時間的に追跡している(ST3)。しかし、これに限らず、可視画像カメラや赤外線カメラ等の撮像装置を検知部Sとして利用し、人物の位置を検出し、時間的に追跡してもよい。例えば、天井等に広角カメラを設置し、当該広角カメラからの撮像画像に基づいてST2にて人物の位置を推定し、ST3にて当該人物を追跡する。この際、例えば、特開2011−227647号公報に記載された方法のような既知の移動物体追跡技術を利用する。すなわち、予め記憶した背景画像と撮像画像との差分画像から移動物体を検出して、当該移動物体の画像位置から監視空間における移動物体の位置を推定し、前後フレームの監視画像における移動物体を位置関係や大きさに基づいて対応付けることにより当該移動物体を時間的に追跡する。この際、予め撮像画像と監視空間の位置とを対応付けるキャリブレーションを取っておく必要がある。 In each of the above embodiments, an infrared sensor is used as the detection unit S, and the position of the person is detected by the detection output of the infrared sensor and the installation position of the infrared sensor (ST2) and is tracked in time (ST3). ). However, the present invention is not limited to this, and an imaging device such as a visible image camera or an infrared camera may be used as the detection unit S to detect the position of a person and track it in time. For example, a wide-angle camera is installed on the ceiling or the like, the position of the person is estimated in ST2 based on the captured image from the wide-angle camera, and the person is tracked in ST3. At this time, for example, a known moving object tracking technique such as a method described in JP 2011-227647 A is used. That is, a moving object is detected from a difference image between a background image and a captured image stored in advance, the position of the moving object in the monitoring space is estimated from the image position of the moving object, and the moving object is positioned in the monitoring image of the preceding and following frames. The moving object is temporally tracked by associating based on the relationship and size. At this time, it is necessary to take a calibration for associating the captured image with the position of the monitoring space in advance.
上記各実施形態では、誘導経路生成手段123は、不審者位置と空間マップ111とを用いて、不審者Xの視野範囲を表す視野モデル113を算出している(ST11又はST22)。この際、算出した視野モデル113は、全ての視野範囲において一様の重み付けがなされているとみなされている。すなわち、上記各実施形態では、視野モデル113に誘導経路候補R(又は誘導経路候補Rを移動したときの評価時刻における利用者位置)がどの程度含まれているかによって発覚度Dを算出しているが(ST13又はST25)、視野モデル113内のどの範囲に誘導経路候補R(又は誘導経路候補Rを移動したときの評価時刻における利用者位置)が含まれていたとしても同じ値の発覚度として算出される。しかし、これに限らず、視野モデル113を算出する際に視野モデル113の範囲を区分して重み付けし、当該重み値を考慮して発覚度Dを算出してもよい。例えば、誘導経路生成手段123は、検知部Sの検知出力を用いて不審者Xの正面方向を推定し、推定された正面方向に位置する視野モデル113の範囲区分であるほど、より大きい重み値を割り当てる構成としてもよい。図16は、視野モデル113に重み付けをした例について説明する図である。同図の符号Xdで示す矢印は、不審者Xの正面方向を表している。当該正面方向Xdは、不審者位置の時間推移から移動方向を求め、当該移動方向を正面方向として設定される。この他にも、検知部Sとして撮像装置を用いた場合においては、当該撮像装置の撮像画像から既知の顔向判定技術を利用することにより、顔正面が向いている方向を正面方向として設定してもよい。
そして、設定された正面方向Xdの±15°にある視野モデル113の所定範囲について、誘導経路生成手段123は、他の範囲よりも大きい重み値として割り当てる。図16の例では、符号113aで示す視野モデルの範囲には大きい重み値(例えば、“2”)が割り当てられ、符号113bで示す視野モデルの範囲には小さい重み値(例えば、“1”)が割り当てられる。このようにして算出した重み付の視野モデル113を用いて、誘導経路生成手段123は、発覚度Dを算出する。すなわち、正面方向Xdに位置する視野モデル113aの範囲内に誘導経路候補R(又は誘導経路候補Rを移動したときの評価時刻における利用者位置)が含まれている程、より見つかり易いとして、発覚度Dが大きい値として算出されるようにする。これにより、不審者Xの正面方向の視野範囲に存在しうる誘導経路候補Rであるほど見つかり易い危険な経路として評価されるため、利用者に対してより安全性の高い誘導経路を提供することができる。なお、上記の他にも、不審者Xから離れた位置にある視野モデル113の範囲であるほど、小さい重み付けをすることにより、不審者から遠くの位置であるほど見つかり難いとして発覚度Dを算出してもよい。
In each of the above embodiments, the guidance route generation unit 123 calculates the
And the guidance path | route production | generation means 123 allocates as a weight value larger than another range about the predetermined range of the
上記各実施形態では、空間マップ111を2次元で表した座標情報として記憶部11に記憶しているが、これに限らず、監視空間に存在する壁・床・柱・什器等の構成要素(特に可視光を遮蔽する障害物となる構成要素)を立体的にモデル化した3次元形状情報として記憶してもよい。例えば、監視空間の形状情報に基づいて3次元CADで作成された3次元形状情報でもよいし、3次元レーザースキャナー等により監視空間の3次元形状を取り込んだ3次元形状情報を利用してもよい。この際、ST11又はST22で生成される視野モデル113は、3次元形状として生成されるものとする。すなわち、誘導経路生成手段123は、視野モデル113を生成する際に、3次元形状情報である空間マップ111における不審者位置(足元位置をなす水平位置)であって、所定の高さの位置(例えば不審者の目の高さに相当する高さ位置として1.6m)の位置を視野モデル113を生成する際の光源として設定する。そして、誘導経路生成手段123は、当該光源から所定方向(例えば、不審者Xの正面方向の所定範囲)に放射状に放った光が3次元形状として表現される建物Bの構造によって遮られるまでの到達範囲を幾何計算することによって3次元の視野モデル113を生成する。図17は、3次元の空間マップ111の一部分と3次元の視野モデル113とを例示している。同図に表すように、不審者Xの目の3次元位置に略一致する位置から発した光が、3次元の空間マップ111で表現される建物Bの構造に遮られるまでの到達範囲を視野モデル113として算出する。このようにして算出した3次元の視野モデル113を用いて発覚度Dを算出することにより、建物Bの構造による視線の隠蔽をより正確に算出でき、不審者Xの視野範囲をより忠実に再現できるため、より高い精度で不審者Xから見つかり難い誘導経路を算出することができる。
In each of the above embodiments, the space map 111 is stored in the
上記各実施形態では、人物判定手段122にて人物が不審者であるか利用者であるかを判定するにあたって、人物検出手段121にて検出・追跡している人物の初めて出現した位置をもって判定していた(ST5)。しかしこれに限らず、予め空間マップ111内に重要監視エリアを設定しておき、当該重要監視エリアに所定の入室可能期間外に存在している人物を不審者とし、それ以外の人物を利用者と判定してもよい。また、検知部Sとして撮像装置を用い、当該撮像装置からの撮像画像を用いて予め登録された顔画像との照合によって利用者を顔認証し、顔認証できない不明な人物を不審者として判定してもよい。
In each of the above-described embodiments, when the
上記各実施形態では、監視空間を建物Bの屋内とし、目的位置112を出入口Dと設定して、誘導経路の生成する誘導システムについて説明している。しかし、これに限らず、監視空間を「屋外」の所定エリアとし、目的位置112を利用者の安全が確保できる位置(例えば警察署の位置)として、当該目的位置112までの誘導経路を生成することにより、利用者を安全に誘導する誘導システムとしてもよい。このような他の実施形態においても、屋外に設置された検知部Sである撮像装置の撮像画像を用いて不審者位置及び利用者位置を検知してもよいし、GPSを備えた携帯端末2によって検知された端末位置を利用者位置として設定してもよい。
In each of the above embodiments, a guidance system is described in which the monitoring space is set indoors in the building B, the
上記各実施形態では、利用者Y及び不審者Xが共に一人である例を用いて動作を簡易的に説明している。しかし、本発明における誘導システムでは、不審者と利用者が複数人存在する場合であっても適用可能である。すなわち、不審者及び利用者が複数人存在する場合においても、上記各実施形態のように、不審者毎に視野モデル113を算出する。そして、利用者毎に一又は複数の誘導経路候補Rを求め、不審者毎に算出した複数の視野モデル113を用いて発覚度Dを算出し、当該発覚度Dを用いて利用者毎に誘導経路を求める。そして、求めた複数の誘導経路を全ての利用者の携帯端末2に送信する。これにより、利用者は携帯端末の表示画面21の地図上に表示された複数の誘導経路の中から、自分の現在位置に相当する誘導経路を見つけて、当該誘導経路に基づいて安全に移動することができる。なお、この際、携帯端末の端末位置と端末識別番号とを誘導装置1が検知し(例えば、携帯端末から送信された端末位置と端末識別番号により検知する等)、当該端末位置と端末識別番号とを用いて、利用者毎にカスタマイズされた誘導経路の情報を送信してもよい。例えば、他の利用者の現在位置や誘導経路を表示せずに、自らの現在位置や誘導経路のみを送信してもよい。また、誘導経路を地図上の画像情報として提供するのではなく、音声情報(例えば、「次のT字路を左に曲がります」等)として提供してもよい。
In each of the above embodiments, the operation is simply described using an example in which both the user Y and the suspicious person X are one person. However, the guidance system according to the present invention is applicable even when there are a plurality of suspicious persons and users. That is, even when there are a plurality of suspicious persons and users, the
上記第一の実施形態では、発覚度Dのみを用いて誘導経路候補Rを評価して誘導経路を設定しているが、これに限らず、第二の実施形態と同じように総距離L1及び離間距離L2を算出し、発覚度Dと共にこれらの値を用いて誘導経路候補Rを評価して誘導経路を設定してもよい。 In the first embodiment, the guide route candidate R is evaluated using only the degree of awareness D and the guide route is set. However, the present invention is not limited to this, and as in the second embodiment, the total distance L1 and The separation distance L2 may be calculated, and the guidance route candidate R may be evaluated using these values together with the degree of awareness D to set the guidance route.
1・・・誘導装置
11・・・記憶部
12・・・制御部
13・・・入力部
14・・・通信部
111・・・空間マップ
112・・・目的位置
113・・・視野モデル
114・・・検知信号テーブル
115・・・追跡テーブル
116・・・各種パラメータ
121・・・人物検出手段
122・・・人物判定手段
123・・・誘導経路生成手段
2・・・携帯端末
21・・・表示画面
3・・・ネットワーク
4・・・無線通信装置
S・・・検知部
A・・・検知範囲
B・・・建物
P・・・通路
D・・・出入口
W・・・窓
X・・・不審者
Y・・・利用者
R・・・誘導経路候補
DESCRIPTION OF
Claims (5)
前記誘導装置は、
前記監視空間の構造と前記検知部の設置位置とを示した空間マップ、及び前記空間マップ上における目的位置を予め記憶した記憶部と、
前記検知部の出力と前記空間マップとを用いて前記監視空間に存在する人物の位置を検出する人物検出手段と、
前記人物の位置に存在する人物が不審者か利用者かを判定する人物判定手段と、
前記空間マップにおける不審者位置から所定範囲の方向に放射状に投光した光が前記構造によって遮られるまでの到達範囲を視野モデルとして求め、該視野モデルを用いて利用者位置から前記目的位置までに至る一又は複数の誘導経路候補をそれぞれ評価し、該不審者から最も見つかり難い該誘導経路候補を前記誘導経路として生成する誘導経路生成手段と、を有することを特徴とする誘導システム。 A detection unit installed in the monitoring space for detecting a person, a portable terminal possessed by the user, and a guide route that is difficult to find from a suspicious person from the current position of the user to the target position is calculated and the portable terminal A guidance system comprising a guidance device for transmitting a guidance route,
The guidance device includes:
A space map showing a structure of the monitoring space and an installation position of the detection unit, and a storage unit that pre-stores a target position on the space map;
Person detecting means for detecting the position of a person existing in the monitoring space using the output of the detection unit and the space map;
Person determining means for determining whether the person existing at the position of the person is a suspicious person or a user;
A range of reach until light projected radially from a suspicious person position in the spatial map in the direction of a predetermined range is obstructed by the structure as a visual field model, and from the user position to the target position using the visual field model And a guide route generating unit that evaluates each one or a plurality of guide route candidates and generates the guide route candidate that is most difficult to find from the suspicious person as the guide route.
前記視野モデルは、前記空間マップにおける不審者の水平位置であって目の位置に相当する高さ位置を中心として該位置から所定方向に放射状に投光した光が前記構造によって遮られるまでの到達範囲からなる3次元形状である請求項1から請求項3のいずれか一項に記載の誘導システム。 The structure in the spatial map is stored as a three-dimensional shape;
The field-of-view model reaches the suspicious person's horizontal position in the spatial map until the light projected radially from the position in a predetermined direction around the height position corresponding to the eye position is blocked by the structure. The guidance system according to any one of claims 1 to 3, wherein the guidance system has a three-dimensional shape having a range.
The guidance route generation means calculates a separation distance between the suspicious person position and the user position, calculates a total distance of a route from the user position to the target position, and the smaller the separation distance, the suspicious person The guidance system according to any one of claims 1 to 4, wherein the guidance system evaluates that it is easy to find from a suspicious person as the total distance increases.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013140418A JP6200225B2 (en) | 2013-07-04 | 2013-07-04 | Guidance system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013140418A JP6200225B2 (en) | 2013-07-04 | 2013-07-04 | Guidance system |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015014864A true JP2015014864A (en) | 2015-01-22 |
JP2015014864A5 JP2015014864A5 (en) | 2016-07-21 |
JP6200225B2 JP6200225B2 (en) | 2017-09-20 |
Family
ID=52436569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013140418A Active JP6200225B2 (en) | 2013-07-04 | 2013-07-04 | Guidance system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6200225B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018160219A (en) * | 2017-03-24 | 2018-10-11 | 株式会社 日立産業制御ソリューションズ | Moving route prediction device and method for predicting moving route |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003288657A (en) * | 2002-03-28 | 2003-10-10 | Sanyo Electric Co Ltd | Monitoring sensor system |
JP2006202062A (en) * | 2005-01-20 | 2006-08-03 | Toshiba Corp | Facility monitoring system |
JP2007213224A (en) * | 2006-02-08 | 2007-08-23 | Sogo Keibi Hosho Co Ltd | Monitoring system and monitoring method |
JP2008269336A (en) * | 2007-04-20 | 2008-11-06 | Hitachi Ltd | Watching system and watching method |
JP2011018094A (en) * | 2009-07-07 | 2011-01-27 | Nec Corp | Patrol support system, method and program |
JP2011141254A (en) * | 2010-01-11 | 2011-07-21 | Toyota Home Kk | Route searching system |
JP2011210006A (en) * | 2010-03-30 | 2011-10-20 | Secom Co Ltd | Device for supporting crime-preventive measure |
WO2013056395A1 (en) * | 2011-10-19 | 2013-04-25 | Honeywell International Inc. | Model-based generation of information and evacuation messages |
US20130116922A1 (en) * | 2011-11-08 | 2013-05-09 | Hon Hai Precision Industry Co., Ltd. | Emergency guiding system, server and portable device using augmented reality |
JP2015005851A (en) * | 2013-06-20 | 2015-01-08 | テックファーム株式会社 | Video display system and program for video display |
-
2013
- 2013-07-04 JP JP2013140418A patent/JP6200225B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003288657A (en) * | 2002-03-28 | 2003-10-10 | Sanyo Electric Co Ltd | Monitoring sensor system |
JP2006202062A (en) * | 2005-01-20 | 2006-08-03 | Toshiba Corp | Facility monitoring system |
JP2007213224A (en) * | 2006-02-08 | 2007-08-23 | Sogo Keibi Hosho Co Ltd | Monitoring system and monitoring method |
JP2008269336A (en) * | 2007-04-20 | 2008-11-06 | Hitachi Ltd | Watching system and watching method |
JP2011018094A (en) * | 2009-07-07 | 2011-01-27 | Nec Corp | Patrol support system, method and program |
JP2011141254A (en) * | 2010-01-11 | 2011-07-21 | Toyota Home Kk | Route searching system |
JP2011210006A (en) * | 2010-03-30 | 2011-10-20 | Secom Co Ltd | Device for supporting crime-preventive measure |
WO2013056395A1 (en) * | 2011-10-19 | 2013-04-25 | Honeywell International Inc. | Model-based generation of information and evacuation messages |
US20130116922A1 (en) * | 2011-11-08 | 2013-05-09 | Hon Hai Precision Industry Co., Ltd. | Emergency guiding system, server and portable device using augmented reality |
JP2015005851A (en) * | 2013-06-20 | 2015-01-08 | テックファーム株式会社 | Video display system and program for video display |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018160219A (en) * | 2017-03-24 | 2018-10-11 | 株式会社 日立産業制御ソリューションズ | Moving route prediction device and method for predicting moving route |
Also Published As
Publication number | Publication date |
---|---|
JP6200225B2 (en) | 2017-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11080439B2 (en) | Method and apparatus for interacting with a tag in a cold storage area | |
US8990049B2 (en) | Building structure discovery and display from various data artifacts at scene | |
KR101840560B1 (en) | System and method for providing 3-dimension path upon fire occurrence | |
CN102620737B (en) | Portable enclosure for generating building map | |
Fusco et al. | Indoor localization for visually impaired travelers using computer vision on a smartphone | |
US8751151B2 (en) | System and method for localizing a trackee at a location and mapping the location using inertial sensor information | |
CN107765846A (en) | System and method for using the sensor network across building to carry out the far distance controlled based on gesture | |
CN204465738U (en) | A kind of disaster relief rescue visible system | |
KR101796385B1 (en) | System and method for providing optimal path upon fire occurrence | |
US9462423B1 (en) | Qualitative and quantitative sensor fusion for indoor navigation | |
CN107765845A (en) | System and method for using the sensor network across building to carry out the far distance controlled based on gesture | |
KR20180058348A (en) | Method and apparatus for detecting presence using wireless communication device and providing a service by using thereof | |
US10997832B1 (en) | Augmented reality based dynamic guidance | |
US10579138B2 (en) | Head-mounted sensor system | |
US20220414281A1 (en) | Method and apparatus for presentation of digital content | |
Yoon et al. | Victim localization and assessment system for emergency responders | |
US10089784B2 (en) | Head-mounted mapping methods | |
KR101766747B1 (en) | Method For Displaying Screen of Terminal and Exit course | |
Elsayed et al. | BIM based framework for building evacuation using Bluetooth Low Energy and crowd simulation | |
JP6200225B2 (en) | Guidance system | |
CN108346260A (en) | It is a kind of for the monitoring method of unmanned plane, device, unmanned plane and monitoring system | |
JP2015060338A (en) | Guidance system, server device and program | |
US20230384114A1 (en) | Personal protective equipment for navigation and map generation within a visually obscured environment | |
CN115950437B (en) | Indoor positioning method, positioning device, equipment and medium | |
Logesh et al. | SOCIAL DISTANCING MONITORING ROBOT. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160601 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160601 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170721 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170825 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6200225 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |