JP6200225B2 - 誘導システム - Google Patents

誘導システム Download PDF

Info

Publication number
JP6200225B2
JP6200225B2 JP2013140418A JP2013140418A JP6200225B2 JP 6200225 B2 JP6200225 B2 JP 6200225B2 JP 2013140418 A JP2013140418 A JP 2013140418A JP 2013140418 A JP2013140418 A JP 2013140418A JP 6200225 B2 JP6200225 B2 JP 6200225B2
Authority
JP
Japan
Prior art keywords
person
suspicious person
guidance
user
route
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013140418A
Other languages
English (en)
Other versions
JP2015014864A (ja
JP2015014864A5 (ja
Inventor
祐紀 斉藤
祐紀 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2013140418A priority Critical patent/JP6200225B2/ja
Publication of JP2015014864A publication Critical patent/JP2015014864A/ja
Publication of JP2015014864A5 publication Critical patent/JP2015014864A5/ja
Application granted granted Critical
Publication of JP6200225B2 publication Critical patent/JP6200225B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、不審者が学校やオフィス内に侵入してきたときに、生徒やオフィスで働く人を安全に誘導する誘導システムに関する。
従来、対人センサによる検知出力を用いて不審者の移動経路を特定し、GPS等により利用者(児童等)の位置を検出し、不審者の移動経路と利用者の位置とを用いて利用者の誘導経路(避難経路)を算出し、利用者が所持する携帯端末に当該誘導経路を可視情報として表示させることにより、屋内に侵入してきた不審者から利用者が安全に避難できるようにするシステムが提案されている(特許文献1)。
特開2003−288657号公報
しかし、上記の従来技術においては、不審者と利用者との相対位置や不審者の移動経路を考慮して誘導経路を算出しているものの、不審者からの見つかり易さといった観点について考慮されていない。そのため、どんなに不審者との距離が離れていたとしても、一旦不審者に発見されてしまった場合、不審者からの威嚇・恫喝により児童や女性が脅えてしまい、適切に避難することが困難となり得る。
そこで、本発明は、建物構造と不審者の位置とから不審者の視野範囲(見えうる範囲)を考慮し、利用者の不審者からの見つかり易さを評価して、見つかり難い誘導経路を利用者に提示できるようにすることにより、より安全な非難が行えるよう誘導することを目的とする。
かかる課題を解決するために、監視空間に設置され人物を検知する検知部と、利用者に所持される携帯端末と、利用者の現在位置から目的位置に至るまでの不審者から見つかり難い誘導経路を算出し前記携帯端末に該誘導経路を送信する誘導装置とから構成される誘導システムであって、
前記誘導装置は、前記監視空間の構造と前記検知部の設置位置とを示した空間マップ、及び前記空間マップ上における目的位置を予め記憶した記憶部と、前記検知部の出力と前記空間マップとを用いて前記監視空間に存在する人物の位置を検出する人物検出手段と、前記人物の位置に存在する人物が不審者か利用者かを判定する人物判定手段と、前記空間マップにおける不審者位置から所定範囲の方向に放射状に投光した光が前記構造によって遮られるまでの到達範囲を視野モデルとして求め、該視野モデルを用いて利用者位置から前記目的位置までに至る一又は複数の誘導経路候補をそれぞれ評価し、該不審者から最も見つかり難い該誘導経路候補を前記誘導経路として生成する誘導経路生成手段と、を有することを特徴とする誘導システムを提供する。
かかる構成により、本発明の誘導システムは、不審者の視野範囲を視野モデルとして算出し、当該視野モデルを用いて不審者から最も見つかり難い誘導経路を算出し、当該誘導経路を利用者の所持する携帯端末に送信できるため、利用者はより安全に目的位置まで移動することができる。
また、本発明の好ましい態様は、前記誘導経路生成手段は、前記検知部の出力を用いて前記不審者の正面方向を推定し、該正面方向に位置する前記誘導経路候補であるほど見つかり易いとして評価するものとする。
かかる構成により、不審者の正面方向の位置を移動しなければならないような誘導経路候補であるほど、不審者に見つかり易いとして評価されるため、利用者はできるだけ正面方向に位置しない誘導経路で移動でき、より安全に目的位置まで移動することができる。
また、本発明の好ましい態様は、前記誘導経路生成手段は、前記検知部の出力の時間推移を用いて現在時刻から後の評価期間における前記不審者位置を推定し、該不審者位置と空間マップとを用いて評価期間における前記視野モデルを推定し、該評価期間における前記利用者位置を前記誘導経路候補毎に推定し、該視野モデルと該利用者位置とを用いて誘導経路候補毎に評価期間における不審者からの見つかり易さを評価して、不審者から最も見つかり難い該誘導経路候補を前記誘導経路として生成するものとする。
かかる構成により、未来時刻における不審者位置を推定し、当該不審者位置における視野モデルと、未来時刻における利用者位置とを用いて不審者からの見つかり易さを評価することによって、不審者の移動を考慮して見つかり難い誘導経路を求めることができ、利用者に対してより安全性の高い誘導経路の情報を提供することができる。
また、本発明の好ましい態様は、前記空間マップにおける前記構造は、3次元形状として記憶され、前記視野モデルは、前記空間マップにおける不審者の水平位置であって目の位置に相当する高さ位置を中心として該位置から所定方向に放射状に投光した光が前記構造によって遮られるまでの到達範囲からなる3次元形状であるものとする。
かかる構成により、構造による不審者の視線の隠蔽をより正確に算出でき、不審者の視野範囲をより忠実に再現できるため、より高い精度で不審者から見つかり難い誘導経路を算出することができる。
また、本発明の好ましい態様は、前記誘導経路生成手段は、前記不審者位置と前記利用者位置との離間距離を算出し、該利用者位置から前記目的位置に至る経路の総距離を算出し、該離間距離が小さいほど不審者から見つかり易いと評価すると共に、該総距離が大きいほど不審者から見つかり易いと評価するものとする。
かかる構成により、離間距離が大きい誘導経路候補であるほど誘導経路として設定され易く、総距離が大きい誘導経路候補であるほど誘導経路として設定され難い。そのため、目的位置にできるだけ早く到達でき、不審者からできるだけ距離をとれる誘導経路を利用者に提示できるため、総合的に見つかり難い安全な誘導経路を利用者に提供することができる。
上記のように、本発明の誘導システムは、不審者から見えうる範囲を考慮することにより、不審者から見つかり難い誘導経路を利用者に対して提示することができる。
誘導システムの概観図 検知部の監視範囲を説明する図 誘導装置のブロック図 視野モデルを説明する図 検知信号テーブルの例を表す図 追跡テーブルの例を表す図 制御部の処理のフローチャート 誘導経路生成処理のフローチャート 誘導経路候補の例を表す図 発覚度の算出を説明する図 第二の実施形態における誘導経路生成処理のフローチャート 未来時刻における不審者位置を説明する図 未来時刻における利用者位置を説明する図 第二の実施形態における発覚度の算出を説明する図 総距離と離間距離とを説明する図 重み付けをした視野モデルの例について説明する図 3次元の空間マップと視野モデルの例
(第一の実施形態)
以下、本発明の一実施形態として、建物内を監視空間とし、当該監視空間に不審者が侵入したときに、当該侵入者に見つかり難い避難経路(誘導経路)にて誘導先である目的位置(出入口)に誘導する誘導システムについて、図面を参照して説明する。
図1に本実施形態で利用する誘導システムの概観図を表す。図1に表すように、本実施形態における監視空間を形成する建物Bは、ハッチングで塗られた通路Pと、出入口Dと、符号W1〜W9に示す窓とから構成される。また、窓Wは透光性のガラス素材が用いられているため、通路Pに存在する人物は窓W4〜W7を介して建物Bの中庭などを見たり、窓W1〜W3、W8、W9を介して建物Bの外部を見たりすることが可能である。また、誘導システムは、検知部S、誘導装置1、携帯端末2、ネットワーク3、無線通信装置4によって構成される。
建物Bの通路Pにおける天井部には、符号S1〜S29に示す検知部Sが設置されている。検知部Sは、検知範囲内に所在する人物の人体から放射される赤外線を受光し、その受光量の変化に基づいて人体等の存否を検出する赤外線センサである。本実施形態では、図2に表すように、検知部S1〜S29の検知範囲は、それぞれ符号A1〜A29の点線内のハッチングで示す範囲として設定されている。検知部S1〜S29は、通信回線を介してLAN回線等からなるネットワーク3に接続されており、検知範囲A内において人物を検知したとき、検知した検知部Sの識別番号と検知時刻とを記した検知信号が当該ネットワーク3を介して誘導装置1に送信する。
誘導装置1は、建物B内の図示しない事務室や警備室、サーバルーム等に設置されたコンピュータであり、ネットワーク3を介して送信された検知部Sの検知信号に基づいて利用者の安全な誘導経路を算出し、利用者によって所持される携帯端末2に対して算出した誘導経路の情報を送信する処理を行う。この際、誘導装置1は、ネットワーク3に接続された無線通信装置4を介して、無線通信によって算出した誘導経路の情報を携帯端末2に送信する。なお、無線通信装置4は、無線LANルータや無線アクセスポイント等の通信機器である。
携帯端末2は、スマートフォン、PDA、タブレット端末等の表示画面21を備えた電子デバイスであって、児童等の建物Bにおける正規利用者である利用者Yによって携帯されるものである。携帯端末2は、誘導装置1から無線通信装置4を介して送信された誘導経路の情報を受信し、当該誘導経路の情報に基づいて、建物Bの地図上に誘導経路を示した画像情報を生成し、表示画面21に表示させる処理を行う。利用者Yは、表示画面21に表示された誘導経路を参照することにより、不審者に見つかり難い安全な誘導経路を把握することができる。
図3は、誘導装置1の構成を示している。上述した機能を実現するべく、本実施形態の誘導装置1は、記憶部11、制御部12、入力部13、通信部14を含んで概略構成される。
入力部13は、キーボードやマウス、タッチパネル、可搬記憶媒体の読み取り装置等の情報入力デバイスである。システムの管理者等は、入力部13を用いて、誘導装置1に対して建物Bの地図である後述する空間マップ111や、当該地図における検知部Sの設置位置情報等の様々な設定情報等を入力することができる。
記憶部11は、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の情報記憶装置である。記憶部11は、各種プログラムや各種データを記憶し、制御部12との間でこれらの情報を入出力する。各種データには、空間マップ111、目的位置112、視野モデル113、検知信号テーブル114、追跡テーブル115の他、制御部12の各処理に用いられる設定値等の各種パラメータ116や、制御部12の処理によって求めた最終的に算出する誘導経路等の演算結果等が含まれる。
空間マップ111は、監視空間である建物Bの構造と検知部Sの設置位置とを示したいわゆる地図情報であり、座標情報として記憶部11に記憶されている。また、建物Bの構造をなす各構成要素には属性が付与されている。例えば、窓Wや出入口D等といった構成要素の種別を表す属性や、窓Wは透光性を有する材質であるといったような構成要素の材質を表す属性が付与されている。空間マップ111は、管理者等により入力部13から設定登録されることにより記憶部11に記憶される。
目的位置112は、利用者Yを誘導すべき場所を示した空間マップ111における位置情報であり、座標情報として記憶部11に記憶されている。本実施形態では、利用者Yが安全を確保できる出入口Dを目的位置112として建物の出入口Dの重心位置の座標情報が、管理者等により予め設定されている。しかし、これに限らず、目的位置112を逃げ遅れ児童の位置として設定する実施形態であってもよい。これにより、当該逃げ遅れ児童を救出する際に、不審者に見つかり難い救出経路(誘導経路)を利用者(例えば、先生等の救出側の人物)に提示することができる。さらに、目的位置112を予め複数個設定しておき、状況に応じて採用する目的位置112を自動選択する実施形態であってもよい。例えば、予め登録された複数の目的位置112の中から現在の利用者位置に最も近い目的位置112を自動で選択してもよい。
視野モデル113は、不審者Xの視野範囲(およそ見渡せるであろう範囲)を空間マップ111に対応付けてモデリングした情報であり、空間マップ111における座標情報として記憶部11に記憶される。視野モデル113は、不審者Xの位置情報(以下、「不審者位置」という)と空間マップ111とを用いて、後述する制御部12の誘導経路生成手段123によって適宜生成され、記憶部11に記憶される。図4は、視野モデル113を説明する図であって、同図(a)は時刻t0のときにおける不審者Xの視野モデル113であり、同図(b)は時刻t1のときにおける不審者Xの視野モデル113を表している。図4に表すように、視野モデル113は、不審者位置を中心として所定範囲の方向(例えば、360°周囲の範囲方向)に放射状に投光した光が建物Bの構造(壁面等)によって遮られるまでの到達範囲を視野モデル113として求められる。なお、本実施形態では、投光する「所定範囲の方向」として、360°の範囲の全周囲方向を採用しているがこれに限らず、不審者Xの進行方向を0°として±70°の範囲の方向を所定範囲の方向として採用しても良い。また、図4では、予め設定した半径L[m](例えば、20[m])までを光の到達範囲Mとして設定しているが、これに限らず、光の到達範囲Mを設定しない(∞と設定する)ことによって視野モデル113を算出してもよい。
検知信号テーブル114は、検知部Sから受信した検知信号に基づいて作成及び更新されるテーブルであって、図5に示されるように、受信した検知信号を送信した検知部Sの識別番号と、検知した時刻と、検知信号に基づいて後述する人物検出手段121にて算出された人物位置とを対応付けるテーブルである。なお、本実施形態では、受信した検知部Sの識別番号に対応する検知部Sの設置位置の座標を、人物位置として用いる。しかし、これに限らず、検知部Sの検知範囲Aの重心位置の座標を、人物位置として設定してもよい。
追跡テーブル115は、検知信号テーブル114等の情報に基づいて作成及び更新されるテーブルであって、図6に示されるように、時刻と、後述する人物検出手段121にて追跡した人物の識別番号(人物ID)と、当該時刻における当該人物の人物位置と、後述する人物判定手段122にて判定した人物の属性(不審者/利用者)とを対応付けるテーブルである。
通信部14は、LANやUSB等の通信インタフェースであり、ネットワーク3を介して検知部Sや携帯端末2や無線通信装置4と通信を行う。
制御部12は、例えばCPUやDSP等の演算装置であって、記憶部11に記憶されるプログラムに従って各種の情報処理を実行する。本実施形態では、制御部12は、検知部Sからの検知信号の入力を受け、後述する図7、図8に示す一連の処理を実行すべく、人物検出手段121、人物判定手段122、誘導経路生成手段123を含んでいる。また、制御部12は、入力部13からの設定情報や操作情報等の入力情報を記憶部11に保存する処理を行う。
人物検出手段121は、ネットワーク3を介して受信した検知部Sからの検知信号に基づいて監視空間に存在する人物の位置を検出する位置検出処理と、検出された人物を時間的に追跡する追跡処理とを行う。位置検出処理では、受信した検知信号に基づいて検知信号テーブル114を更新する処理を行う。例えば、図5の例のように、現在時刻がt0であるとき、検知部S2及びS22から検知信号を受信したとする。この場合、これらの検知部S2、S22に対応する検知範囲A2、A22の範囲内の位置に人物が存在すると判定し、検知信号テーブル114に当該位置を検知時刻と検知信号と共に追記するよう更新するよう処理する。次に、追跡処理では、検知信号テーブル114の過去時刻から現在時刻までの人物位置の位置関係に基づいて、各時刻間における同一人物を対応付け、人物を時間的に追跡する処理を行う。例えば、図6の例において、時刻t0において検知範囲A2の位置に人物を検出したとき、その次の時刻t1において当該位置A2に人物を検出せずに当該位置A2に隣接する位置である検知範囲A3に人物を検出したとき、人物がA2の位置からA3の位置に移動したとして、前後の時刻におけるこれらの人物を同一人物として関連付ける。すなわち、前の時刻t0にA2に存在していた人物ID(=X)と同一の人物ID(=X)が付与されるよう現在時刻t1における追跡テーブル115が更新される。
人物判定手段122は、人物検出手段121によって初めて検出された人物が不審者であるか利用者であるかを判定する人物判定処理を行う。本実施形態では、出入口Dが適切に出入管理されているといった前提の下で、出入口Dから入った人物は適正な人物(利用者)であると判定し、出入口D以外の位置から建物B内に侵入した人物を不適正な人物(不審者)であると判定する。すなわち、ある人物が出入口Dの位置する検知範囲A10以外の検知範囲において初めて検出されたとき、当該人物は不審者であると判定される。例えば、ある人物の初めて検出された位置がA1であったとき、当該人物は窓W1から侵入した不審者であるとして、追跡テーブル115における当該人物の人物IDに対応する属性を「不審者」として更新する。一方、ある人物の初めて検出された位置がA10であったとき、当該人物は適正な出入管理(例えば、入館時における認証)を経て入ってきた適正な利用者であるとして、当該人物の人物IDに対応する属性を「利用者」として更新する。なお、一度属性が判定された人物については、以降の処理において人物判定処理の処理対象とはならず、追跡している同一人物は同じ属性を有するよう更新される。
誘導経路生成手段123は、不審者から最も見つかり難い安全な利用者の誘導経路を生成する誘導経路生成処理を行う。なお、誘導経路生成処理の詳細については追って説明する。
(誘導装置1の制御部12の処理動作について)
次に、上記構成による誘導装置1を用いて誘導経路を生成し利用者が所持する携帯端末2に当該誘導経路を送信するまでの制御部12の処理動作について図7を参照しながら説明する。
誘導装置1が起動されると、制御部12は、検知信号の取得処理を実行する(ST1)。検知信号の取得処理では、検知部Sが人物を検知した際に送信する検知信号を受信し、当該検知信号に記された検知時刻と検知部Sの識別番号と対応付けて検知信号テーブル114を更新する処理を行う。
次に、制御部12の人物検出手段121は、ST1にて受信した検知信号の識別番号と記憶部11の(検知部Sの設置位置が記された)空間マップ111とに基づいて、当該識別番号に対応する人物位置を検出する位置検出処理を実行する(ST2)。すなわち、受信した識別番号に対応する検知部Sの設置位置を空間マップ111から求め、当該検知部Sの設置位置の座標を人物位置として検出し、当該人物位置を検知信号テーブル114に記憶する処理を行う。
次に、制御部12の人物検出手段121は、ST1及びST2にて更新された検知信号テーブル114の過去時刻から現在時刻までの人物位置の位置関係に基づいて、各時刻間における人物を対応付け、人物を時間的に追跡する追跡処理を行う(ST3)。なお、追跡処理の詳細については前述したため、ここでは説明を省略する。
次に、制御部12は、追跡テーブル115に基づいて、現在時刻において監視空間内に人物が存在しているか否かを判定する(ST4)。具体的には、現在時刻において、追跡テーブル115に人物IDが付与された人物が1人以上記憶されているとき監視空間内に人物が存在していると判定し(ST4−Yes)、ST5に処理を進める。一方、現在時刻において、追跡テーブル115に人物IDが付与された人物が1人以上記憶されていないとき監視空間内に人物が存在していないと判定し(ST4−No)、ST1に処理を進める。
次に、制御部12の人物判定手段122は、ST1〜ST3までの処理において、初めて検出された人物が不審者であるか利用者であるかを判定し、追跡テーブル115の属性を更新する人物判定処理を行う(ST5)。本実施形態では、追跡テーブル115の属性情報が記憶されていない人物が初めて検出された人物とし、当該人物が人物判定処理の対象人物となる。そして、対象人物の現在位置が、A10の位置であるとき当該対象人物は利用者であると判定し、A10以外の位置であるとき当該対象人物は不審者であると判定する。
次に、制御部12は、記憶部11の追跡テーブル115を参照し、現在時刻において監視空間内に「不審者が存在している、かつ利用者が存在している」を満たしているか否かを判定する(ST6)。現在時刻において、「不審者が存在し、利用者も存在する」とき(ST6−Yes)、制御部12はST7に処理を進める。一方、現在時刻において、「不審者が存在しない」あるいは「利用者が存在しない」とき(ST6−No)、制御部12はST1に処理を進める。
次に、制御部12の誘導経路生成手段123は、監視空間に存在する不審者から最も見つかり難い安全な利用者の誘導経路を生成する誘導経路生成処理を行う(ST7)。誘導経路生成処理の詳細については追って説明する。
次に、制御部12は、ST7にて生成した誘導経路を利用者の所持している携帯端末2に送信する処理を行う(ST8)。なお、本実施形態では、ST7にて生成した誘導経路と空間マップ111とを合成した画像情報を携帯端末2に送信する。そして、当該画像情報を受信した携帯端末2は、表示画面21上に当該画像情報を表示させる。しかし、これに限らず、ST7にて生成した誘導経路の座標情報を携帯端末2に送信し、携帯端末2側に予め記憶した空間マップ111と受信した誘導経路の座標情報とを用いて携帯端末2側で誘導経路と空間マップ111とを合成した画像情報を生成してもよい。
(誘導経路生成処理の詳細について)
次に、図7のフローチャートのST7における、制御部12の誘導経路生成手段123が実行する誘導経路生成処理の詳細について図8を参照しながら説明する。
制御部12の誘導経路生成手段123は、まず、記憶部11の追跡テーブル115から不審者Xの現在位置(不審者位置)を読出し、当該不審者位置と記憶部11の空間マップ111とを用いて視野モデル113を算出する視野モデル算出処理を行う(ST11)。前述のように、誘導経路生成手段123は、視野モデル113を、不審者位置を中心として所定範囲の方向(本実施形態では、360°周囲の範囲方向)に投光した光が建物Bの構造によって遮られるまでの到達範囲として算出する。
次に、誘導経路生成手段123は、誘導経路候補算出処理を行う(ST12)。誘導経路候補算出処理では、記憶部11の追跡テーブル115から利用者Yの現在位置(利用者位置)を読出し、当該利用者位置と記憶部11の空間マップ111とを用いて、利用者の誘導経路の候補である「誘導経路候補」を算出する。本実施形態では、利用者位置から目的位置112に至る全通りの経路を誘導経路候補として求める。図9は誘導経路候補の例を表した図であり、(a)は時刻t0における誘導経路候補R、(b)は時刻t1における誘導経路候補Rを表す。同図に表すように、時刻t0における利用者Yの利用者位置では、破線で表したR10〜R30の3通りの経路が誘導経路候補Rとして求められ、時刻t1における利用者Yの利用者位置では、R11〜R31の3通りの経路が誘導経路候補Rとして求められる。
次に、誘導経路生成手段123は、利用者が誘導経路候補を移動した際に不審者からの見つかり易さの指標を示す発覚度Dを、ST12にて算出した誘導経路候補Rごとに算出する発覚度算出処理を行う(ST13)。発覚度算出処理では、ST11にて算出した視野モデル113と、ST12にて算出した誘導経路候補Rとを用いて、視野モデル113に重畳している誘導経路候補Rの距離値から、発覚度Dを算出する。すなわち、不審者の視野の範囲内に含まれる恐れの大きい誘導経路候補Rであるほど、発覚度Dは大きく算出される。図10は発覚度Dの算出を説明する図であり、(a)は時刻t0における発覚度D、(b)は時刻t1における発覚度Dの算出を例示している。同図において、破線で示す誘導経路候補R上に示された太い実線で表した箇所は、視野モデル113と誘導経路候補Rとが重畳している箇所であり、当該重畳箇所の距離値が大きくなる程、発覚度Dは大きく算出される。例えば、同図(a)においては、誘導経路候補R10の発覚度=0[m]、誘導経路候補R20の発覚度=5[m]、誘導経路候補R30の発覚度=30[m]と算出される。また、同図(b)においては、誘導経路候補R11の発覚度=0[m]、誘導経路候補R21の発覚度=10[m]、誘導経路候補R31の発覚度=40[m]と算出される。
次に、誘導経路生成手段123は、ST13で算出した誘導経路候補Rの中から、発覚度Dが最小となる誘導経路候補を、利用者に送信する誘導経路として設定する処理を行う(ST14)。図10の例では、現在時刻がt0のときは誘導経路候補R10が誘導経路として設定され、現在時刻がt1のときは誘導経路候補R11が誘導経路として設定されることになる。
以上のように、本実施形態における誘導システムは、不審者から見つかり難い誘導経路を利用者に対して提示できるため、利用者は不審者に見つからないよう安全に移動することができる。
(第二の実施形態)
上述の第一の実施形態では、不審者Xの未来時刻における移動を考慮せずに、現在時刻における不審者位置に基づいて発覚度Dを算出し、当該発覚度Dのみから誘導経路を設定している。しかし、実際は不審者Xが移動している場合も想定されるため、現在時刻において発覚度Dが最小の誘導経路であったとしても、未来時刻においても当該誘導経路の発覚度Dが最小とは限らない。また、たとえ発覚度Dが小さい誘導経路であったとしても、目的位置112に到達するまでの距離が大きすぎたり、不審者Xの近くを通過するような誘導経路が見つかり難い誘導経路であるとは限らない。そのため、未来時刻における不審者位置を考慮すると共に、誘導経路候補Rの距離値(以下、「総距離」という)及び不審者Xとの離間距離を考慮して、総合的に最も安全と想定される誘導経路を利用者に提示できることを目的とした実施形態について説明する。
本実施形態の全体構成及び誘導装置1の機能構成(ブロック図)は、上述した第一の実施形態と同様であり、図1及び図3と同様に表されるため、ここでは図面を省略するとともに、図面に含まれる各構成の説明を省略する。また、本実施形態の制御部12の処理を表すフローチャートも、第一の実施形態と同様、図7で表されるため、ここではその処理の説明を省略する。以下では、本実施形態の誘導装置1の内、上記第一の実施形態と同様の部分については同一の符号を付して説明している。本実施形態と第一の実施形態との違いは誘導経路生成処理であるため、以下、本実施形態の誘導経路生成処理を表す図11のフローチャートを用いて、本実施形態について説明する。なお、図11のフローチャートにおいて、ループ1はST24〜ST28の各処理をST23にて算出する誘導経路候補Rの数だけ実行することを意味しており、ループ2はST25〜ST27の各処理を評価時刻の数だけ実行することを意味している。ここで、評価時刻とは、現在から所定の未来時刻までの評価期間を所定単位の時間間隔で区切ったときの時刻であって、後述する瞬時評価値を算出する時刻である。本実施形態では、評価時刻として、現在時刻から10秒おきに30秒後までを評価時刻として設定している。すなわち、現在時刻をt=0[秒]としたとき、評価時刻は、0[秒]、10[秒後]、20[秒後]、30[秒後]の4つが評価時刻として設定されている。したがって、ループ2では、当該4つの評価時刻についてST25〜ST27の各処理が繰り返されることになる。なお、評価時刻は任意の値として設定することができる。
本実施形態の誘導経路生成処理では、まず、各評価時刻における不審者位置を推定する不審者位置推定処理を行う(ST21)。不審者位置推定処理では、まず、追跡テーブル115における不審者の過去の移動履歴と空間マップ111とに基づいて、不審者の移動速度と移動方向を推定する。そして、現在時刻における不審者位置と推定した移動方向とを用いて、不審者の未来時刻における不審者の移動経路(以下、「不審者予想経路」という)を推定する。この際、本実施形態では、不審者の行動パターンを予め記憶部11に記憶させておき、不審者位置と推定した移動方向とから最も移動する可能性が高い誘導経路を不審者予想経路として選択することとしている。そして、推定した不審者予想経路と推定した不審者の移動速度とを用いて、各評価時刻における不審者位置を推定する。図12は不審者位置推定処理において推定した未来時刻における不審者位置を説明する図である。同図において、符号rで示した経路は不審者予想経路であり、符号X0〜X3で示した位置は各評価時刻における不審者位置である。
次に、ST21にて推定した不審者位置と空間マップ111とを用いて、各評価時刻における視野モデル113を算出する視野モデル算出処理を行う(ST22)。続いて利用者位置と空間マップ111とを用いて誘導経路候補を生成する誘導経路候補生成処理を行う(ST23)。ここでいう視野モデル算出処理及び誘導経路候補生成処理は、第一の実施形態の視野モデル算出処理(ST11)及び誘導経路候補生成処理(ST12)と同様の処理であるため、ここでは詳細な説明を省略する。
次に、各評価時刻における利用者位置を推定する利用者位置推定処理を行う(ST24)。利用者位置推定処理では、ループ1にて現在処理対象となっている誘導経路候補Rと予め設定された標準移動速度とを用いて、未来時刻である各評価時刻における利用者位置を推定する。図13は、利用者位置推定処理にて推定した未来時刻における利用者位置を説明する図である。同図において、符号Y0、Y11〜Y13で示した位置は、誘導経路候補R10における各評価時刻における利用者位置である。また、符号Y0、Y21〜Y23で示した位置は、誘導経路候補R20における各評価時刻における利用者位置である。また、符号X0、Y31〜Y33で示した位置は、誘導経路候補R30における各評価時刻における利用者位置である。
次に、ループ2にて処理対象となっている評価時刻の利用者位置において、不審者からの見つかり易さの指標を示す発覚度Dを算出する発覚度算出処理を行う(ST25)。本実施形態では、ST22にて求めた視野モデル113の範囲内にST24にて求めた利用者位置が含まれるか否かを判定し、含まれているときは“1”を含まれていないときは“0”として発覚度Dを求める。図14は、処理対象となっている誘導経路候補RがR10の場合において、(a)評価時刻t=0(利用者位置Y0)における発覚度、(b)評価時刻t=10(利用者位置Y11)における発覚度Dの算出を説明する図である。同図(a)の例では、評価時刻t=0における視野モデル113(不審者位置X0における視野モデル113)の範囲内に利用者位置Y0が含まれないため、算出される発覚度D=0となる。また、同図(b)の例では、評価時刻t=10における視野モデル113(不審者位置X1における視野モデル113)の範囲内に利用者位置Y11が含まれるため、算出される発覚度D=1となる。
次に、ループ1で処理対象となっている誘導経路候補Rと、ループ2で評価対象となっている評価時刻における利用者位置とを用いて、評価時刻における利用者位置から目的位置112までに至るまでの総距離L1を求める。続いて、評価時刻における利用者位置と不審者位置とから、利用者と不審者との間の離間距離L2を求める。本実施形態では、利用者位置から不審者位置まで至る一又は複数の経路を求め、当該経路の中で最短経路の距離を離間距離L2として求める。図15は、処理対象となっている誘導経路候補がR1であって評価時刻t=0における、総距離L1と離間距離L2の例を表す図である。実線で示す総距離L1の長さと、破線で示す離間距離L2の長さからそれぞれの値を算出する。
次に、ST25で求めた発覚度DとST26で求めた総距離L1、離間距離L2とを用いて評価時刻における不審者Xからの見つかり易さを表す指標である瞬時評価値eを算出する(ST27)。本実施形態では、瞬時評価値e=α×発覚度D+β×総距離L1−γ×離間距離L2によって算出する。ここで、α、β、γは、正の係数として予め記憶部11に設定されるものであり、発覚度D、総距離L1、離間距離L2の中のどの値を、安全性を評価するうえで特に重視するのかを考慮して管理者によって調整することができる値である。このように、瞬時評価値eは、発覚度D及び総距離L1が大きいほど大きく算出され、離間距離L2が大きいほど小さく算出される。
次に、ループ1で処理対象となっている誘導経路候補の最終的な危険性を表す経路評価値を算出する処理を行う(ST28)。本実施形態では、ループ2の各処理によって算出した各評価時刻における瞬時評価値の総和から経路評価値を算出する。
次に、ループ1で算出した各誘導経路候補Rの経路評価値をもちいて、当該経路評価値が最小となる誘導経路候補Rを、利用者に送信する誘導経路として設定する処理を行う(ST29)。
このように、本実施形態では、未来時刻における不審者位置を推定し、当該不審者位置における視野モデル113と、未来時刻における利用者位置とを用いて発覚度Dを算出することによって、不審者の未来時刻における移動を考慮して見つかり難い誘導経路を算出しているため、利用者により安全性の高い誘導経路の情報を提供することができる。さらに、本実施形態では、誘導経路を算出するにあたって、利用者位置から目的位置112に至るまでの距離である総距離L1と、利用者と不審者Xとの間の離間距離L2とを考慮している。具体的には、総距離L1の大きい誘導経路候補Rであるほど誘導経路として設定され難く、離間距離L2が大きい誘導経路候補Rであるほど誘導経路として設定され易い。したがって、単なる見つかり難い誘導経路だけでなく、目的位置112にできるだけ早く到達でき、不審者Xからできるだけ距離をとれる誘導経路を利用者に提示できるため、利用者により見つかり難い安全性の高い誘導経路の情報を提供することができる。
ところで、本発明は、上記実施形態に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施形態で実施されてもよいものである。また、実施形態に記載した効果は、これに限定されるものではない。
上記各実施形態では、検知部Sとして赤外線センサを利用し、当該赤外線センサの検知出力と赤外線センサの設置位置とにより、人物の位置を検出し(ST2)、時間的に追跡している(ST3)。しかし、これに限らず、可視画像カメラや赤外線カメラ等の撮像装置を検知部Sとして利用し、人物の位置を検出し、時間的に追跡してもよい。例えば、天井等に広角カメラを設置し、当該広角カメラからの撮像画像に基づいてST2にて人物の位置を推定し、ST3にて当該人物を追跡する。この際、例えば、特開2011−227647号公報に記載された方法のような既知の移動物体追跡技術を利用する。すなわち、予め記憶した背景画像と撮像画像との差分画像から移動物体を検出して、当該移動物体の画像位置から監視空間における移動物体の位置を推定し、前後フレームの監視画像における移動物体を位置関係や大きさに基づいて対応付けることにより当該移動物体を時間的に追跡する。この際、予め撮像画像と監視空間の位置とを対応付けるキャリブレーションを取っておく必要がある。
上記各実施形態では、誘導経路生成手段123は、不審者位置と空間マップ111とを用いて、不審者Xの視野範囲を表す視野モデル113を算出している(ST11又はST22)。この際、算出した視野モデル113は、全ての視野範囲において一様の重み付けがなされているとみなされている。すなわち、上記各実施形態では、視野モデル113に誘導経路候補R(又は誘導経路候補Rを移動したときの評価時刻における利用者位置)がどの程度含まれているかによって発覚度Dを算出しているが(ST13又はST25)、視野モデル113内のどの範囲に誘導経路候補R(又は誘導経路候補Rを移動したときの評価時刻における利用者位置)が含まれていたとしても同じ値の発覚度として算出される。しかし、これに限らず、視野モデル113を算出する際に視野モデル113の範囲を区分して重み付けし、当該重み値を考慮して発覚度Dを算出してもよい。例えば、誘導経路生成手段123は、検知部Sの検知出力を用いて不審者Xの正面方向を推定し、推定された正面方向に位置する視野モデル113の範囲区分であるほど、より大きい重み値を割り当てる構成としてもよい。図16は、視野モデル113に重み付けをした例について説明する図である。同図の符号Xdで示す矢印は、不審者Xの正面方向を表している。当該正面方向Xdは、不審者位置の時間推移から移動方向を求め、当該移動方向を正面方向として設定される。この他にも、検知部Sとして撮像装置を用いた場合においては、当該撮像装置の撮像画像から既知の顔向判定技術を利用することにより、顔正面が向いている方向を正面方向として設定してもよい。
そして、設定された正面方向Xdの±15°にある視野モデル113の所定範囲について、誘導経路生成手段123は、他の範囲よりも大きい重み値として割り当てる。図16の例では、符号113aで示す視野モデルの範囲には大きい重み値(例えば、“2”)が割り当てられ、符号113bで示す視野モデルの範囲には小さい重み値(例えば、“1”)が割り当てられる。このようにして算出した重み付の視野モデル113を用いて、誘導経路生成手段123は、発覚度Dを算出する。すなわち、正面方向Xdに位置する視野モデル113aの範囲内に誘導経路候補R(又は誘導経路候補Rを移動したときの評価時刻における利用者位置)が含まれている程、より見つかり易いとして、発覚度Dが大きい値として算出されるようにする。これにより、不審者Xの正面方向の視野範囲に存在しうる誘導経路候補Rであるほど見つかり易い危険な経路として評価されるため、利用者に対してより安全性の高い誘導経路を提供することができる。なお、上記の他にも、不審者Xから離れた位置にある視野モデル113の範囲であるほど、小さい重み付けをすることにより、不審者から遠くの位置であるほど見つかり難いとして発覚度Dを算出してもよい。
上記各実施形態では、空間マップ111を2次元で表した座標情報として記憶部11に記憶しているが、これに限らず、監視空間に存在する壁・床・柱・什器等の構成要素(特に可視光を遮蔽する障害物となる構成要素)を立体的にモデル化した3次元形状情報として記憶してもよい。例えば、監視空間の形状情報に基づいて3次元CADで作成された3次元形状情報でもよいし、3次元レーザースキャナー等により監視空間の3次元形状を取り込んだ3次元形状情報を利用してもよい。この際、ST11又はST22で生成される視野モデル113は、3次元形状として生成されるものとする。すなわち、誘導経路生成手段123は、視野モデル113を生成する際に、3次元形状情報である空間マップ111における不審者位置(足元位置をなす水平位置)であって、所定の高さの位置(例えば不審者の目の高さに相当する高さ位置として1.6m)の位置を視野モデル113を生成する際の光源として設定する。そして、誘導経路生成手段123は、当該光源から所定方向(例えば、不審者Xの正面方向の所定範囲)に放射状に放った光が3次元形状として表現される建物Bの構造によって遮られるまでの到達範囲を幾何計算することによって3次元の視野モデル113を生成する。図17は、3次元の空間マップ111の一部分と3次元の視野モデル113とを例示している。同図に表すように、不審者Xの目の3次元位置に略一致する位置から発した光が、3次元の空間マップ111で表現される建物Bの構造に遮られるまでの到達範囲を視野モデル113として算出する。このようにして算出した3次元の視野モデル113を用いて発覚度Dを算出することにより、建物Bの構造による視線の隠蔽をより正確に算出でき、不審者Xの視野範囲をより忠実に再現できるため、より高い精度で不審者Xから見つかり難い誘導経路を算出することができる。
上記各実施形態では、人物判定手段122にて人物が不審者であるか利用者であるかを判定するにあたって、人物検出手段121にて検出・追跡している人物の初めて出現した位置をもって判定していた(ST5)。しかしこれに限らず、予め空間マップ111内に重要監視エリアを設定しておき、当該重要監視エリアに所定の入室可能期間外に存在している人物を不審者とし、それ以外の人物を利用者と判定してもよい。また、検知部Sとして撮像装置を用い、当該撮像装置からの撮像画像を用いて予め登録された顔画像との照合によって利用者を顔認証し、顔認証できない不明な人物を不審者として判定してもよい。
上記各実施形態では、監視空間を建物Bの屋内とし、目的位置112を出入口Dと設定して、誘導経路の生成する誘導システムについて説明している。しかし、これに限らず、監視空間を「屋外」の所定エリアとし、目的位置112を利用者の安全が確保できる位置(例えば警察署の位置)として、当該目的位置112までの誘導経路を生成することにより、利用者を安全に誘導する誘導システムとしてもよい。このような他の実施形態においても、屋外に設置された検知部Sである撮像装置の撮像画像を用いて不審者位置及び利用者位置を検知してもよいし、GPSを備えた携帯端末2によって検知された端末位置を利用者位置として設定してもよい。
上記各実施形態では、利用者Y及び不審者Xが共に一人である例を用いて動作を簡易的に説明している。しかし、本発明における誘導システムでは、不審者と利用者が複数人存在する場合であっても適用可能である。すなわち、不審者及び利用者が複数人存在する場合においても、上記各実施形態のように、不審者毎に視野モデル113を算出する。そして、利用者毎に一又は複数の誘導経路候補Rを求め、不審者毎に算出した複数の視野モデル113を用いて発覚度Dを算出し、当該発覚度Dを用いて利用者毎に誘導経路を求める。そして、求めた複数の誘導経路を全ての利用者の携帯端末2に送信する。これにより、利用者は携帯端末の表示画面21の地図上に表示された複数の誘導経路の中から、自分の現在位置に相当する誘導経路を見つけて、当該誘導経路に基づいて安全に移動することができる。なお、この際、携帯端末の端末位置と端末識別番号とを誘導装置1が検知し(例えば、携帯端末から送信された端末位置と端末識別番号により検知する等)、当該端末位置と端末識別番号とを用いて、利用者毎にカスタマイズされた誘導経路の情報を送信してもよい。例えば、他の利用者の現在位置や誘導経路を表示せずに、自らの現在位置や誘導経路のみを送信してもよい。また、誘導経路を地図上の画像情報として提供するのではなく、音声情報(例えば、「次のT字路を左に曲がります」等)として提供してもよい。
上記第一の実施形態では、発覚度Dのみを用いて誘導経路候補Rを評価して誘導経路を設定しているが、これに限らず、第二の実施形態と同じように総距離L1及び離間距離L2を算出し、発覚度Dと共にこれらの値を用いて誘導経路候補Rを評価して誘導経路を設定してもよい。
1・・・誘導装置
11・・・記憶部
12・・・制御部
13・・・入力部
14・・・通信部
111・・・空間マップ
112・・・目的位置
113・・・視野モデル
114・・・検知信号テーブル
115・・・追跡テーブル
116・・・各種パラメータ
121・・・人物検出手段
122・・・人物判定手段
123・・・誘導経路生成手段
2・・・携帯端末
21・・・表示画面
3・・・ネットワーク
4・・・無線通信装置
S・・・検知部
A・・・検知範囲
B・・・建物
P・・・通路
D・・・出入口
W・・・窓
X・・・不審者
Y・・・利用者
R・・・誘導経路候補

Claims (5)

  1. 監視空間に設置され人物を検知する検知部と、利用者に所持される携帯端末と、利用者の現在位置から目的位置に至るまでの不審者から見つかり難い誘導経路を算出し前記携帯端末に該誘導経路を送信する誘導装置とから構成される誘導システムであって、
    前記誘導装置は、
    前記監視空間の構造と前記検知部の設置位置とを示した空間マップ、及び前記空間マップ上における目的位置を予め記憶した記憶部と、
    前記検知部の出力と前記空間マップとを用いて前記監視空間に存在する人物の位置を検出する人物検出手段と、
    前記人物の位置に存在する人物が不審者か利用者かを判定する人物判定手段と、
    前記空間マップにおける不審者位置から所定範囲の方向に放射状に投光した光が前記構造によって遮られるまでの到達範囲を視野モデルとして求め、該視野モデルを用いて利用者位置から前記目的位置までに至る一又は複数の誘導経路候補をそれぞれ評価し、該不審者から最も見つかり難い該誘導経路候補を前記誘導経路として生成する誘導経路生成手段と、を有することを特徴とする誘導システム。
  2. 前記誘導経路生成手段は、前記検知部の出力を用いて前記不審者の正面方向を推定し、該正面方向に位置する前記誘導経路候補であるほど見つかり易いとして評価する請求項1に記載の誘導システム。
  3. 前記誘導経路生成手段は、前記検知部の出力の時間推移を用いて現在時刻から後の評価期間における前記不審者位置を推定し、該不審者位置と空間マップとを用いて前記評価期間における前記視野モデルを推定し、前記評価期間における前記利用者位置を前記誘導経路候補毎に推定し、該視野モデルと該利用者位置とを用いて誘導経路候補毎に前記評価期間における不審者からの見つかり易さを評価して、不審者から最も見つかり難い該誘導経路候補を前記誘導経路として生成する請求項1又は請求項2に記載の誘導システム。
  4. 前記空間マップにおける前記構造は、3次元形状として記憶され、
    前記視野モデルは、前記空間マップにおける不審者の水平位置であって目の位置に相当する高さ位置を中心として該位置から所定方向に放射状に投光した光が前記構造によって遮られるまでの到達範囲からなる3次元形状である請求項1から請求項3のいずれか一項に記載の誘導システム。
  5. 前記誘導経路生成手段は、前記不審者位置と前記利用者位置との離間距離を算出し、該利用者位置から前記目的位置に至る経路の総距離を算出し、該離間距離が小さいほど不審者から見つかり易いと評価すると共に、該総距離が大きいほど不審者から見つかり易いと評価する請求項1から請求項4のいずれか一項に記載の誘導システム。

JP2013140418A 2013-07-04 2013-07-04 誘導システム Active JP6200225B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013140418A JP6200225B2 (ja) 2013-07-04 2013-07-04 誘導システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013140418A JP6200225B2 (ja) 2013-07-04 2013-07-04 誘導システム

Publications (3)

Publication Number Publication Date
JP2015014864A JP2015014864A (ja) 2015-01-22
JP2015014864A5 JP2015014864A5 (ja) 2016-07-21
JP6200225B2 true JP6200225B2 (ja) 2017-09-20

Family

ID=52436569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013140418A Active JP6200225B2 (ja) 2013-07-04 2013-07-04 誘導システム

Country Status (1)

Country Link
JP (1) JP6200225B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6814673B2 (ja) * 2017-03-24 2021-01-20 株式会社 日立産業制御ソリューションズ 移動経路予測装置、及び移動経路予測方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003288657A (ja) * 2002-03-28 2003-10-10 Sanyo Electric Co Ltd 監視センサシステム
JP2006202062A (ja) * 2005-01-20 2006-08-03 Toshiba Corp 施設監視システム
JP4865346B2 (ja) * 2006-02-08 2012-02-01 綜合警備保障株式会社 監視システム及び監視方法
JP2008269336A (ja) * 2007-04-20 2008-11-06 Hitachi Ltd 見守りシステム及び見守り方法
JP5003731B2 (ja) * 2009-07-07 2012-08-15 日本電気株式会社 巡回警備支援システム、方法及びプログラム
JP2011141254A (ja) * 2010-01-11 2011-07-21 Toyota Home Kk 経路検索システム
JP5406773B2 (ja) * 2010-03-30 2014-02-05 セコム株式会社 防犯施策支援装置
CN103874527A (zh) * 2011-10-19 2014-06-18 霍尼韦尔国际公司 信息和撤离消息的基于模型的生成
US20130116922A1 (en) * 2011-11-08 2013-05-09 Hon Hai Precision Industry Co., Ltd. Emergency guiding system, server and portable device using augmented reality
JP6244120B2 (ja) * 2013-06-20 2017-12-06 テックファーム株式会社 映像表示システム及び映像表示用プログラム

Also Published As

Publication number Publication date
JP2015014864A (ja) 2015-01-22

Similar Documents

Publication Publication Date Title
US8990049B2 (en) Building structure discovery and display from various data artifacts at scene
US11080439B2 (en) Method and apparatus for interacting with a tag in a cold storage area
JP6898165B2 (ja) 人流分析方法、人流分析装置及び人流分析システム
EP3321888B1 (en) Projected image generation method and device, and method for mapping image pixels and depth values
CN102620737B (zh) 用于生成建筑物地图的便携式外壳
KR101840560B1 (ko) 화재 발생에 따른 3차원 경로 제공 시스템 및 그 방법
Fusco et al. Indoor localization for visually impaired travelers using computer vision on a smartphone
US20150324646A1 (en) Navigation methods and apparatus for the visually impaired
CN107765846A (zh) 用于使用跨建筑的传感器网络进行基于手势的远距离控制的系统和方法
CN109076190B (zh) 检测异常情况的设备和方法
KR101796385B1 (ko) 화재 발생 시 최적경로 제공 시스템 및 그 방법
CN204465738U (zh) 一种救灾救援可视系统
US9462423B1 (en) Qualitative and quantitative sensor fusion for indoor navigation
CN107765845A (zh) 用于使用跨建筑的传感器网络进行基于手势的远距离控制的系统和方法
CN105814609A (zh) 用于用户识别、跟踪与设备关联的融合设备与图像运动
US10579138B2 (en) Head-mounted sensor system
US10997832B1 (en) Augmented reality based dynamic guidance
US20220414281A1 (en) Method and apparatus for presentation of digital content
Yoon et al. Victim localization and assessment system for emergency responders
US10089784B2 (en) Head-mounted mapping methods
CN104913779B (zh) 一种紧急撤离的导航方法和装置
KR20140110484A (ko) 영상정보를 이용한 위험 행동 검지방법
US20150193936A1 (en) Monitoring system with a position-dependent protected area, method for monitoring a monitoring area and computer program
Hub et al. Interactive tracking of movable objects for the blind on the basis of environment models and perception-oriented object recognition methods
KR101766747B1 (ko) 실내 대피경로 화면표시 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160601

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170825

R150 Certificate of patent or registration of utility model

Ref document number: 6200225

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250