以下に、本願の開示する防犯装置、防犯方法および防犯プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例に係る防犯システムの一例を示す図である。図1に示すように、この防犯システムは、指向性スピーカー10と、カメラ20と、防犯装置100とを有する。防犯装置100は、指向性スピーカー10およびカメラ20と、有線通信または無線通信によって相互に接続される。
指向性スピーカー10は、音の伝達される範囲を一定の方向に制限するスピーカー(パラメトリック・スピーカー)である。指向性スピーカー10は、防犯装置100から警告情報を受け付け、警告情報に基づく音を出力する。
たとえば、指向性スピーカー10の音が伝達される範囲を、伝達範囲15とする。伝達範囲15に滞在している人物は指向性スピーカーからの音が聞こえる。一方、伝達範囲15に滞在していない人物は、指向性スピーカー10からの音を聞くことができない。人物は、「被写体」の一例である。
カメラ20は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などを用いた撮像装置である。カメラ20は、撮像範囲の映像情報を、順次、防犯装置100に出力する。映像情報は、複数の画像情報が時系列に並んだ情報である。カメラ20の撮像位置は、撮像範囲が、伝達範囲15を少なくとも含む範囲となるように、予め設定される。
防犯装置100は、所定の特徴を有する特定人物5に対して、特定人物5が伝達範囲15に滞在している間に、指向性スピーカー10を制御して、声掛けに相当する警告を行う装置である。
たとえば、防犯装置100は、カメラ20から取得した映像情報を基にして、特定人物5を検出し、特定人物5の移動速度を検出する。防犯装置100は、特定人物の移動速度と、伝達範囲15とを基にして、特定人物が、伝達範囲15に滞在する時間(滞在時間)を算出する。防犯装置100は、複数の声掛け内容のうち、声掛けに要する時間が滞在時間に近い声掛け内容を選択し、選択した声掛け内容の声掛けに要する時間が、滞在時間に収まるような再生速度を算出する。防犯装置100は、選択した声掛け内容を、算出した再生速度によって再生するための警告情報を、指向性スピーカー10に出力する。このような処理を防犯装置100が実行することで、特定人物に対してのみ警告を行うことができる。また、特定人物が伝達範囲を出る前に、声掛けの内容を伝えきることができる。この再生速度は、「声掛けの速度」に対応する。
次に、本実施例に係る防犯装置100の構成の一例について説明する。図2は、本実施例に係る防犯装置の構成を示す機能ブロック図である。図2に示すように、この防犯装置100は、インタフェース110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。
インタフェース110は、有線通信または無線通信によって、指向性スピーカー10、カメラ20とデータ通信を実行する処理部である。たとえば、インタフェース110は、制御部150からの警告情報を、指向性スピーカー10に出力する。インタフェース110は、カメラ20から入力される映像情報を、制御部150に出力する。
入力部120は、防犯装置100に各種の情報を入力するための入力装置である。入力部120は、キーボードやタッチパネル等に対応する。
表示部130は、制御部150から出力される情報を表示する表示装置である。表示部130は、液晶ディスプレイや、タッチパネル等に対応する。
記憶部140は、映像バッファ141、人物DB142、声掛け内容テーブル143、パラメータ情報144を有する。記憶部140は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
映像バッファ141は、カメラ20から入力される映像情報を格納するバッファである。映像情報には、時系列に並んだ複数の画像情報(静止画像の情報)が含まれる。たとえば、映像情報に含まれる各画像情報には、時刻またはフレーム番号が割り当てられる。
人物DB(Data Base)142は、人物の特徴に関する情報を保持するデータベースである。図3は、本実施例に係る人物DBのデータ構造の一例を示す図である。図3に示すように、この人物DB142は、人物IDと、特定フラグと、声掛けIDと、再生速度と、特徴量とを対応付ける。
人物ID(Identification)は、人物を一意に識別する情報である。特定フラグは、人物IDによって識別される人物が、特定人物であるか否かを示すフラグである。人物IDによって識別される人物が、特定人物である場合には、特定フラグが「1」となる。人物IDによって識別される人物が、特定人物でない場合には、特定フラグが「0」となる。
声掛けIDは、声掛け内容を一意に識別する情報である。声掛け内容は、声掛け内容テーブル143によって定義される。再生速度は、声掛け内容の音声を再生する場合の再生速度を示すものである。特徴量は、人物IDによって識別される人物の特徴量を示す情報である。
図4は、特徴量の一例を示す図である。図4に示すように、特徴量には、時刻、位置、顔の向き、移動方向、年齢、性別、マスク着用フラグ、ヘルメット着用フラグが含まれる。時刻は、特徴量を検出した画像情報の時刻を示す。位置は、人物IDに対応する人物の位置(たとえば、グローバル座標系の位置(x、y))を示す。顔の向きは、人物IDに対応する人物の顔の向きを示す。移動方向は、人物IDに対応する人物の移動方向を示す。
年齢は、人物IDに対応する人物の推定年齢を示す。性別は、人物IDに対応する人物の性別を示す。マスク着用フラグは、人物IDに対応する人物がマスクを着用しているか否かを示すフラグである。人物IDに対応する人物がマスクを着用している場合には、マスク着用フラグが「1」となる。人物IDに対応する人物がマスクを着用していない場合には、マスク着用フラグが「0」となる。
ヘルメット着用フラグは、人物IDに対応する人物がヘルメットを着用しているか否かを示すフラグである。人物IDに対応する人物がヘルメットを着用している場合には、ヘルメット着用フラグが「1」となる。人物IDに対応する人物がヘルメットを着用していない場合には、マスク着用フラグが「0」となる。
声掛け内容テーブル143は、声掛けの内容の情報を保持するテーブルである。図5は、本実施例に係る声掛け内容テーブルのデータ構造の一例を示す図である。図5に示すように、この声掛け内容テーブル143は、声掛けIDと、声掛け内容と、声掛け時間と、条件とを有する。
声掛けIDは、声掛け内容を一意に識別する情報である。声掛け内容は、指向性スピーカー10から、出力させる警告の内容である。声掛け時間は、声掛けに要する時間を示す。たとえば、声掛けID「A001」の声掛け内容「当店では、お買い物中のヘルメットの着用はご遠慮頂いております」を最初から最後まで伝える時間が「5000ms」であることを示す。
条件は、声掛け内容に適した特徴量の条件を示すものである。かかる条件には、年齢、性別、マスク着用フラグ、ヘルメット着用フラグが含まれる。たとえば、図5の1行目~3行目の声掛け内容は、年齢が「20~30」、性別「男性」、マスク着用フラグ「1(マスクを着用)」、ヘルメット着用フラグ「1(ヘルメットを着用)」となる特定人物に対して、有用な声掛け内容であることを示す。また、4行目の声掛け内容に関する条件は「-」となっており、不審者の特徴量によらず、不審者全般に利用可能な声掛け内容である。
図2の説明に戻る。パラメータ情報144は、伝達範囲15を示す情報、カメラ20のカメラパラメータの情報などを有する。たとえば、伝達範囲15を示す情報として、伝達範囲15の重心のグローバル座標と、伝達範囲15に対応する円の半径とを有する。カメラパラメータは、カメラ20の内部パラメータ、外部パラメータに対応する情報である。
制御部150は、取得部151と、検出部152と、スピーカー制御部153とを有する。制御部150は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、制御部150は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
取得部151は、カメラ20から順次出力される映像情報を取得する処理部である。取得部151は、映像情報を、映像バッファ141に順次格納する。
検出部152は、映像バッファ141に格納された映像情報を基にして、人物の検出および追跡を行い、人物の特徴量を検出する。また、検出部152は、人物の特徴量を基にして、人物が特定人物であるか否かを判定する。
まず、検出部152が、人物の検出および追跡を行う処理の一例について説明する。検出部152は、映像バッファ141から、時刻t1の画像情報を取得し、画像情報からエッジを抽出したエッジ画像を生成する。検出部152は、エッジ画像に含まれる輪郭のうち、予め定義した人物の輪郭に類似する輪郭を、人物の輪郭として検出する。検出部152は、検出した人物の輪郭に、固有の人物IDを割り当てる。
検出部152は、時刻t2の画像情報を取得し、画像情報からエッジを抽出したエッジ画像を生成する。検出部152は、エッジ画像に含まれる輪郭のうち、予め定義した人物の輪郭に類似する輪郭を、人物の輪郭として検出する。
検出部152は、時刻t1で抽出した人物の輪郭の重心と、時刻t2で抽出した人物の輪郭の重心との距離が、閾値未満である場合には、時刻t2で抽出した人物の輪郭に、時刻t1の人物の輪郭に割り当てた人物IDを割り当てる。
一方、検出部152は、時刻t1で抽出した人物の輪郭の重心と、時刻t2で抽出した人物の輪郭の重心との距離が、閾値以上である場合には、時刻t2で抽出した人物の輪郭に、固有の人物IDを割り当てる。
検出部152は、時刻t3~tnの画像情報についても、上記処理を繰り返し実行することで、人物の輪郭の検出、および、人物IDの割当てを行う。同一人物の各輪郭には、同一の人物IDが割り当てられる。検出部152は、その他の技術を用いて、人物の輪郭の抽出、人物の追跡を行ってもよい。
続いて、検出部152が、人物の特徴量を検出する処理の一例について説明する。たとえば、検出部152は、人物の特徴量として、人物の位置、顔の向き、移動方向、年齢、性別、マスク着用の有無、ヘルメット着用の有無を検出する。検出部152が、人物の位置、顔の向き、移動方向、年齢、性別、マスクの着用有無、ヘルメットの着用有無を検出する処理について、順に説明する。
検出部152が、人物の位置を検出する処理について説明する。検出部152は、画像情報上の人物の輪郭の重心位置(Xg、Yg)を、予め設定した変換テーブルに基づいて、グローバル座標系の位置(x、y)に変換する。なお、検出部152は、パラメータ情報144に含まれるカメラパラメータを用いる変換式等を用いて、重心位置(Xg、Yg)を、位置(x、y)に変換してもよい。
検出部152が、顔の向きを検出する処理について説明する。検出部152は、画像情報上の人物の輪郭から、顔の部位に対応する領域を検出する。検出部152は、顔領域に対して、顔の各部位の特徴を定義したテンプレートマッチングを行い、顔の向きを検出する。たとえば、検出部152は、顔の所定の部位を通る直線と、予め設定した基準線とのなす角度を、顔の向きとして検出する。
検出部152が、移動方向を検出する処理について説明する。検出部152は、移動方向を検出する時刻の位置(移動後位置)と、移動方向を検出時刻の一つ前の時刻の位置(移動前位置)とを特定する。検出部152は、移動前位置から移動後位置までの移動ベクトルと、予め設定した基準ベクトルとのなす角度を、移動方向として検出する。
検出部152が、年齢、性別、マスク着用の有無、ヘルメット着用の有無を検出する処理について説明する。たとえば、検出部152は、人物の画像を入力とし、年齢、性別、マスク着用の有無、ヘルメット着用の有無を出力とするNN(Neural Network)を用いて判定を行う。NNのパラメータは、教師データを用いて、予め学習されているものとする。なお、検出部152は、上記の顔の向き、移動方向も、NNを用いて、検出してもよい。検出部152は、NN以外の技術を用いて、年齢、性別、マスク着用の有無、ヘルメット着用の有無を検出してもよい。
検出部152は、各時刻の画像情報から検出した各人物IDの人物について、上記の特徴量(人物の位置、顔の向き、移動方向、年齢、性別、マスク着用の有無、ヘルメット着用の有無)を検出する処理を繰り返し実行する。検出部152は、各人物IDに対応する各時刻の特徴量を、人物DB142に登録する。検出部152は、映像バッファ141に新たな映像情報が蓄積される度に、上記処理を繰り返し実行し、人物DB142を更新する。
続いて、検出部152が、人物の特徴量を基にして、人物が特定人物であるか否かを判定する処理の一例について説明する。検出部152は、判定対象となる人物IDについて、現在の時刻から所定時間前までの顔の向きの情報を取得する。検出部152は、各顔の向きを基にして、顔の向きの分散を算出する。検出部152は、顔の向きの分散が、閾値よりも大きい場合に、人物IDに識別される人物が、特定人物であると判定する。検出部152は、特定人物であると判定した場合には、人物DB142の人物IDに対応する特定フラグを「1」に設定する。
検出部152は、顔の向き以外の特徴量を更に用いて、人物が特定人物であるか否かを判定してもよい。たとえば、検出部152は、判定対象となる人物IDについて、マスク着用フラグ、または、ヘルメット着用フラグが「1」となっている場合に、人物IDに識別される人物が、特定人物であると判定する。検出部152は、移動方向と、顔の向きとを基にして、顔の向きが移動方向以外となる累計時間を算出し、累計時間が所定時間以上となる場合に、人物IDに識別される人物が、特定人物であると判定してもよい。なお、検出部152は、予め設定されるその他の判定ポリシーに従って、特定人物であるか否かを判定してもよい。
スピーカー制御部153は、指向性スピーカー10の音(警告)が伝達される伝達範囲15と、特定人物の移動速度とを基にして、指向性スピーカー10を用いた特定人物に対応する声掛け内容、声掛けの速度を制御する処理部である。たとえば、スピーカー制御部153は、特定人物の移動速度を算出する処理、特定人物が伝達範囲に滞在する滞在時間を算出する処理、声掛け内容を選択する処理、声掛けの速度を調整する処理、声掛けを実行する処理を行う。
スピーカー制御部153が、特定人物の移動速度を算出する処理について説明する。スピーカー制御部153は、人物DB142から、特定フラグが「1」となる人物IDを選択し、選択した人物IDの時刻と位置との関係から、特定人物の移動速度を算出する。以下の説明では、特に区別する場合、特定フラグが「1」となる人物IDを、適宜、「特定人物ID」と表記する。特定フラグが「0」となる人物IDを、適宜、「非特定人物ID」と表記する。
スピーカー制御部153は、選択した特定人物IDの各時刻のうち、開始時刻から終了時刻までの移動距離を、開示時刻から終了時刻までの時間で除算することで、移動速度を算出する。たとえば、終了時刻を、特定人物IDに対応付けられた特徴量の各時刻のうち、最新の時刻とする。開始時刻を、終了時刻を基準とした所定時間前の時刻とする。
スピーカー制御部153は、特定人物IDの時刻と位置との関係が更新される度に、上記処理を繰り返し実行し、最新の移動速度を、特定人物IDの移動速度として算出してもよいし、移動速度の平均を、特定人物IDの移動速度として算出してもよい。スピーカー制御部153は、他の特定人物IDについても、上記処理を繰り返し実行し、特定人物IDに識別される特定人物の移動速度を算出する。また、スピーカー制御部153は、非特定人物IDについても、移動速度を算出する。
スピーカー制御部153が、特定人物の滞在時間を算出する処理について説明する。スピーカー制御部153は、パラメータ情報144に登録された伝達範囲15の直径を特定する。スピーカー制御部153は、特定人物IDの移動速度を上記処理により算出する。スピーカー制御部153は、伝達範囲15の直径を、特定人物の移動速度で除算することで、特定人物の滞在時間を算出する。スピーカー制御部153は、他の特定人物IDについても、上記処理を繰り返し実行し、特定人物の滞在時間を算出する。
ところで、スピーカー制御部153が、伝達範囲15の直径を基にして特定人物の滞在時間を算出していたが、これに限定されるものではない。図6は、スピーカー制御部の処理を説明するための図(1)である。スピーカー制御部153は、伝達範囲15の情報と、特定人物の各位置とを基にして、特定人物が伝達範囲15の外周に到達した際の位置(xa、ya)を特定する。スピーカー制御部153は、特定人物の位置(xa、ya)における移動方向Daを延長した線分と、伝達範囲15の外周との交点位置(xb、yb)を特定する。スピーカー制御部153は、位置(xa,ya)から、位置(xb,yb)までの距離を、位置(xa、ya)における移動速度で除算することで、特定人物の滞在時間を算出してもよい。
図7は、スピーカー制御部の処理を説明するための図(2)である。スピーカー制御部153は、伝達範囲15の情報と、特定人物の各位置とを基にして、特定人物が伝達範囲15の外周に到達した際の位置(xa、ya)を特定する。また、スピーカー制御部153は、特定人物が位置(xa、ya)に到達する時刻を基準とした前後所定時間において、伝達範囲15を基準とする所定範囲16に含まれる非特定人物(非特定人物IDの人物)の位置(xc、yc)を特定する。
スピーカー制御部153は、特定人物の位置(xc、yc)における移動方向Dcを延長した線分と、伝達範囲15の外周との交点(xd、yd)を特定する。スピーカー制御部153は、位置(xc,yc)から、位置(xd,yd)までの距離を、位置(xc、yc)における非特定人物の移動速度で除算することで、非特定人物が、伝達範囲15に到達するまでの時間を算出する。非特定人物が、伝達範囲15に到達するまでの時間を、到達時間と表記する。スピーカー制御部153は、図6で説明した滞在時間から、到達時間を減算することで、滞在時間を補正してもよい。これによって、特定人物に対する警告が、非特定人物に聞こえてしまうことを抑止することができる。
スピーカー制御部153が、声掛け内容を選択する処理について説明する。スピーカー制御部153は、特定人物IDの特徴量と、声掛け内容テーブル143の条件とを比較し、選択候補となる声掛けIDを特定する。たとえば、スピーカー制御部153は、特定人物IDの特徴量と、条件とのヒットの数をカウントし、ヒットの数が所定数以上である場合に、選択候補の声掛けIDとする。たとえば、ある特定人物IDに対応する特徴量を(年齢「25」、性別「男性」、マスク着用フラグ「0」、ヘルメット着用フラグ「1」)とする。スピーカー制御部153は、かかる特徴量と、図5に示した声掛けID「A001」の条件とを比較すると、3つの項目で一致し、ヒットの数を「3」とする。
スピーカー制御部153は、選択候補となる声掛けIDが一つの場合には、かかる声掛けIDを、特定人物IDに対応する声掛けIDとして、人物DB142に登録する。スピーカー制御部153は、選択候補となる声掛けIDが複数存在する場合には、声掛け内容テーブル143に定義された声掛けIDに対応する声掛け時間のうち、最も滞在時間に近い声掛け時間に対応する声掛けIDを選択し、選択した声掛けIDを、人物DB142に登録する。
スピーカー制御部153は、選択候補となる声掛けIDが一つも存在しない場合には、予め指定される複数の声掛けIDを選択する。たとえば、スピーカー制御部153は、図5において、特徴量の条件が全て「-」となる声掛けID「A004」、「A005」を、選択する。スピーカー制御部153は、指定される複数の声掛けIDのうち、最も滞在時間に近い声掛け時間に対応する声掛けIDを選択し、人物DB142に登録する。
スピーカー制御部153は、人物IDに対応付けて、選択した声掛けIDを、人物DB142に登録する。スピーカー制御部153は、他の特定人物IDについても、上記処理を繰り返し実行し、声掛けIDを選択し、人物DB142に登録する。
スピーカー制御部153が、声掛け速度を調整する処理について説明する。スピーカー制御部153は、人物DB142の特定人物IDの滞在時間が、特定人物IDの声掛けIDに対応する声掛け時間よりも短いか否かを判定する。
スピーカー制御部153は、特定人物IDの滞在時間が、特定人物IDの声掛けIDに対応する声掛け時間よりも長い場合(あるいは、同一である場合)には、人物DB142について、特定人物IDに対応する再生速度を「1.0」に設定する。
スピーカー制御部153は、特定人物IDの滞在時間が、特定人物IDの声掛けIDに対応する声掛け時間よりも短い場合には、声掛け時間が、滞在時間以下となるような、再生速度を算出する。たとえば、スピーカー制御部153は、式(1)の関係から再生速度を算出する。スピーカー制御部153は、人物DB142について、特定人物IDに対応する再生速度(算出した再生速度)を設定する。
声掛け時間/再生速度=滞在時間・・・(1)
スピーカー制御部153が、声掛けを実行する処理について説明する。スピーカー制御部153は、人物DB142に登録される特定人物IDの位置と、パラメータ情報144の伝達範囲15の情報とを基にして、特定人物の座標が、伝達範囲15の外周に到達したか否かを判定する。スピーカー制御部153は、特定人物の座標が、伝達範囲15の外周に到達したと判定すると、人物DB142を基にして、係る特定人物の特定人物IDに対応する声掛けIDおよび再生速度を特定する。
スピーカー制御部153は、声掛けIDに対応する声掛け内容を、声掛け内容テーブル143から取得し、係る声掛け内容の音声を、特定した再生速度で再生する警告情報を生成し、指向性スピーカー10に出力する。
ここで、スピーカー制御部153は、特定人物の座標が、伝達範囲15に侵入した時刻において、特定フラグが「0」となる人物IDの位置が、伝達範囲15に含まれるか否かを判定してもよい。スピーカー制御部153は、特定フラグが「0」となる人物IDの位置が、伝達範囲15に含まれる場合には、警告情報を、指向性スピーカー10に出力する処理を抑止する。
次に、本実施例に係る防犯装置100の処理手順の一例について説明する。図8は、防犯装置が人物の特徴量を検出する処理を示すフローチャートである。図8に示すように、防犯装置100の取得部151は、映像情報(画像情報)を取得したか否かを判定する(ステップS101)。取得部151は、映像情報を取得していない場合には(ステップS101,No)、映像情報を取得するまで、ステップS101に再度移行する。
取得部151は、映像情報を取得した場合には(ステップS101,Yes)、映像情報を、映像バッファ141に登録する(ステップS102)。防犯装置100の検出部152は、映像情報に含まれる画像情報から人物を検出する(ステップS103)。
検出部152は、人物を追跡する(ステップS104)。検出部152は、人物の特徴量を検出する(ステップS105)。検出部152は、検出した人物の特徴量によって、人物DB142を更新し(ステップS106)、ステップS101に移行する。
図9は、防犯装置が特定人物を特定する処理を示すフローチャートである。図9に示すように、防犯装置100の検出部152は、人物DB142から人物IDを選択する(ステップS201)。検出部152は、前回特定人物を特定した時刻から所定時間経過していない場合には(ステップS202,No)、ステップS201に移行する。
一方、検出部152は、前回特定人物を特定した時刻から所定時間経過した場合には(ステップS202,Yes)、選択した人物IDの特徴量が、特定人物の特徴量に対応するか否かを判定する(ステップS203)。
検出部152は、特定人物の特徴量に対応する場合には(ステップS204,Yes)、人物IDに対応する特定フラグを「1」に設定し(ステップS205)、ステップS201に移行する。一方、検出部152は、特定人物の特徴量に対応しない場合には(ステップS205,No)、ステップS201に移行する。
図10は、防犯装置が声掛けを行う処理を示すフローチャートである。たとえば、図10に示す処理は、定期的に実行される。図10に示すように、防犯装置100のスピーカー制御部153は、Nを初期値に設定する(ステップS301)。スピーカー制御部153は、人物DBからN番目のレコードを抽出する(ステップS302)。
スピーカー制御部153は、抽出したレコードの特定フラグが「1」であるか否かを判定する(ステップS303)。スピーカー制御部153は、抽出したレコードの特定フラグが「1」でない場合には(ステップS303,No)、ステップS304に移行する。一方、スピーカー制御部153は、抽出したレコードの特定フラグが「1」である場合には(ステップS303,Yes)、ステップS306に移行する。
スピーカー制御部153は、Nに1を加算し(ステップS304)、人物DB142の全てのレコードの確認を完了したか否かを判定する(ステップS305)。スピーカー制御部153は、人物DB102の全てのレコードの確認を完了した場合には(ステップS305,Yes)、処理を終了する。なお、スピーカー制御部153は、図8、9の処理によって、人物DB142が更新された後、再度、ステップS301から、処理を開始する。
ステップS306の処理の説明に移行する。スピーカー制御部153は、特定人物IDに対応する声掛けIDが設定されているか否かを判定する(ステップS306)。スピーカー制御部153は、特定人物IDに対応する声掛けIDが設定されている場合には(ステップS306,Yes)、ステップS310に移行する。
一方、スピーカー制御部153は、特定人物IDに対応する声掛けIDが設定されていない場合には(ステップS306,No)、特定人物IDに対応する滞在時間を算出する(ステップS307)。スピーカー制御部153は、特定人物IDに対応する声掛け内容、再生速度を特定する(ステップS308)。スピーカー制御部153は、人物DB142を更新する(ステップS309)。
スピーカー制御部153は、特定人物が伝達範囲に侵入したか否かを判定する(ステップS310)。スピーカー制御部153は、特定人物が伝達範囲に侵入した場合には(ステップS310,Yes)、警告情報う指向性スピーカー10に出力して声掛けを実行し(ステップS311)、ステップS304に移行する。
一方、スピーカー制御部153は、特定人物が伝達範囲に侵入していない場合には(ステップS310,No)、ステップS304に移行する。
次に、本実施例に係る防犯装置100の効果について説明する。防犯装置100は、特定人物の移動速度と、指向性スピーカー20の伝達範囲15とに基づき、特定人物が伝達範囲15に滞在している間に完了するような声掛けの内容の選択、声掛けの速度の調整を行うため、特定人物に対してのみ、警告することができる。
防犯装置100は、伝達範囲と特定人物の移動速度とを基にして、特定人物が、伝達範囲に滞在する滞在時間を算出し、声掛け時間が、滞在時間に近い声掛け内容を選択する。これによって、特定人物が伝達範囲15に滞在している間に伝えきれる声掛け内容を選択することができる。
防犯装置100は、選択した声掛け内容の声掛け時間が、滞在時間よりも長い場合に、声掛けの速度を速める制御を行う。これによって、選択した声掛け内容が、滞在時間を超える場合でも、特定人物が伝達範囲15に滞在している間に伝えきれる。また、かかる制御によって、声掛け内容テーブル143の声掛け内容のバリエーションの数を少なくでき、記憶部140のデータ量を削減することもできる。
防犯装置100は、映像情報から人物の頭部を検出し、所定時間における頭部の方向の変更回数が閾値以上となる場合に、人物を、特定人物として検出する。これによって、画像処理から、特定人物を容易に検出することができる。
ところで、上述した防犯装置100の処理は一例であり、防犯装置100はその他の処理を行ってもよい。たとえば、防犯装置100のスピーカー制御部153は、同一の特定人物に対して、定期的に滞在時間を更新し、声掛け内容の再選択、声掛け速度の再調整を行ってもよい。
防犯装置100は、不審者を想定した特定人物を検出していたが特定人物は、不審者に限定されるものでは無い。たとえば、店舗内である商品を探している人物を特定人物として特定してもよいし、特定の場所に向かっている人物を特定人物として特定してもよい。また、特定人物の種別によって、声掛け内容テーブル143の声掛け内容を適宜、変更してもよい。
防犯装置100のスピーカー制御部153は、特定人物IDに対応する声掛けIDを前もって特定し、声掛けIDを人物DB142に登録していたがこれに限定されるものではない。防犯装置100のスピーカー制御部153は、特定人物が、伝達範囲15に到達した際に、特定人物IDに対応する声掛けIDを特定してもよい。これによって、特定人物が伝達範囲に到達した際の最新の情報に基づき、声掛けIDを選択することができる。
また、本実施例では一例として、カメラ20の映像情報を基にして、人物の位置の検出、追跡を行ったが、距離センサ等を更に用いて、人物の位置や追跡を行ってもよい。
次に、本実施例に示した防犯装置100と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図11は、本実施例に係る防犯装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図11に示すように、コンピュータ500は、各種演算処理を実行するCPU501と、ユーザからのデータの入力を受け付ける入力装置502と、ディスプレイ503とを有する。また、コンピュータ500は、記憶媒体からプログラム等を読み取る読み取り装置504と、有線または無線ネットワークを介して、指向性スピーカー10、カメラ20等との間でデータの授受を行うインタフェース装置505とを有する。コンピュータ500は、各種情報を一時記憶するRAM506と、ハードディスク装置507とを有する。そして、各装置501~507は、バス508に接続される。
ハードディスク装置507は、取得プログラム507a、検出プログラム507b、スピーカー制御プログラム507cを有する。CPU501は、取得プログラム507a、検出プログラム507b、スピーカー制御プログラム507cを読み出してRAM506に展開する。
取得プログラム507aは、取得プロセス506aとして機能する。検出プログラム507bは、検出プロセス506bとして機能する。スピーカー制御プログラム507cは、スピーカー制御プロセス506cとして機能する。
取得プロセス506aの処理は、取得部151の処理に対応する。検出プロセス506bの処理は、検出部152の処理に対応する。スピーカー制御プロセス506cの処理は、スピーカー制御部153の処理に対応する。
なお、各プログラム507a~507cついては、必ずしも最初からハードディスク装置507に記憶させておかなくてもよい。例えば、コンピュータ500に挿入されるフレキシブルディスク(FD)、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ500が各プログラム507a~507cを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)撮像装置から映像情報を取得する取得部と、
前記映像情報を基にして、所定の特徴を有する被写体の移動速度を検出する検出部と、
指向性スピーカーの音が伝達される伝達範囲と、前記移動速度とを基にして、前記指向性スピーカーを用いた前記被写体に対応する声掛けを制御するスピーカー制御部と
を有することを特徴とする防犯装置。
(付記2)前記スピーカー制御部は、前記伝達範囲と前記移動速度とを基にして、前記被写体が前記伝達範囲に滞在する滞在時間を算出し、開始から終了までの声掛け時間の異なる複数の声掛け内容のうち、声掛け時間が、前記滞在時間に近い声掛け内容を選択することを特徴とする付記1に記載の防犯装置。
(付記3)前記スピーカー制御部は、選択した声掛け内容の声掛け時間が、前記滞在時間よりも長い場合に、前記声掛けの速度を速める制御を行うことを特徴とする付記2に記載の防犯装置。
(付記4)前記スピーカー制御部は、所定の特徴を有する被写体が、前記伝達範囲に到達した際に、前記伝達範囲と前記移動速度とを基にして、前記被写体が前記伝達範囲に滞在する滞在時間を算出し、開始から終了までの声掛け時間の異なる複数の声掛け内容のうち、声掛け時間が、前記滞在時間に近い声掛け内容を選択することを特徴とする付記3に記載の防犯装置。
(付記5)前記検出部は、前記所定の特徴を有する第1被写体の第1移動速度と、前記所定の特徴を有しない第2被写体の第2移動速度とを検出し、前記スピーカー制御部は、前記第1移動速度と、前記第2移動速度とを基にして、前記第1被写体が前記伝達範囲に位置し、前記第2被写体が前記伝達範囲に位置しない時間を算出することを特徴とする付記1に記載の防犯装置。
(付記6)前記検出部は、前記映像情報から被写体の頭部を検出し、所定時間における前記頭部の方向の変更回数が閾値以上となる場合に、前記被写体を、第1被写体として検出することを特徴とする付記5に記載の防犯装置。
(付記7)コンピュータが実行する防犯方法であって、
撮像装置から映像情報を取得し、
前記映像情報を基にして、所定の特徴を有する被写体の移動速度を検出し、
指向性スピーカーの音が伝達される伝達範囲と、前記移動速度とを基にして、前記指向性スピーカーを用いた前記被写体に対応する声掛けを制御する
処理を実行することを特徴とする防犯方法。
(付記8)前記制御する処理は、前記伝達範囲と前記移動速度とを基にして、前記被写体が前記伝達範囲に滞在する滞在時間を算出し、開始から終了までの声掛け時間の異なる複数の声掛け内容のうち、声掛け時間が、前記滞在時間に近い声掛け内容を選択することを特徴とする付記7に記載の防犯方法。
(付記9)前記制御する処理は、選択した声掛け内容の声掛け時間が、前記滞在時間よりも長い場合に、前記声掛けの速度を速める制御を行うことを特徴とする付記8に記載の防犯方法。
(付記10)前記制御する処理は、所定の特徴を有する被写体が、前記伝達範囲に到達した際に、前記伝達範囲と前記移動速度とを基にして、前記被写体が前記伝達範囲に滞在する滞在時間を算出し、開始から終了までの声掛け時間の異なる複数の声掛け内容のうち、声掛け時間が、前記滞在時間に近い声掛け内容を選択することを特徴とする付記9に記載の防犯方法。
(付記11)前記検出する処理は、前記所定の特徴を有する第1被写体の第1移動速度と、前記所定の特徴を有しない第2被写体の第2移動速度とを検出し、前記制御する処理は、前記第1移動速度と、前記第2移動速度とを基にして、前記第1被写体が前記伝達範囲に位置し、前記第2被写体が前記伝達範囲に位置しない時間を算出することを特徴とする付記7に記載の防犯方法。
(付記12)前記検出する処理は、前記映像情報から被写体の頭部を検出し、所定時間における前記頭部の方向の変更回数が閾値以上となる場合に、前記被写体を、第1被写体として検出することを特徴とする付記11に記載の防犯方法。
(付記13)コンピュータに、
撮像装置から映像情報を取得し、
前記映像情報を基にして、所定の特徴を有する被写体の移動速度を検出し、
指向性スピーカーの音が伝達される伝達範囲と、前記移動速度とを基にして、前記指向性スピーカーを用いた前記被写体に対応する声掛けを制御する
処理を実行させることを特徴とする防犯プログラム。
(付記14)前記制御する処理は、前記伝達範囲と前記移動速度とを基にして、前記被写体が前記伝達範囲に滞在する滞在時間を算出し、開始から終了までの声掛け時間の異なる複数の声掛け内容のうち、声掛け時間が、前記滞在時間に近い声掛け内容を選択することを特徴とする付記13に記載の防犯プログラム。
(付記15)前記制御する処理は、選択した声掛け内容の声掛け時間が、前記滞在時間よりも長い場合に、前記声掛けの速度を速める制御を行うことを特徴とする付記14に記載の防犯プログラム。
(付記16)前記制御する処理は、所定の特徴を有する被写体が、前記伝達範囲に到達した際に、前記伝達範囲と前記移動速度とを基にして、前記被写体が前記伝達範囲に滞在する滞在時間を算出し、開始から終了までの声掛け時間の異なる複数の声掛け内容のうち、声掛け時間が、前記滞在時間に近い声掛け内容を選択することを特徴とする付記15に記載の防犯プログラム。
(付記17)前記検出する処理は、前記所定の特徴を有する第1被写体の第1移動速度と、前記所定の特徴を有しない第2被写体の第2移動速度とを検出し、前記制御する処理は、前記第1移動速度と、前記第2移動速度とを基にして、前記第1被写体が前記伝達範囲に位置し、前記第2被写体が前記伝達範囲に位置しない時間を算出することを特徴とする付記13に記載の防犯プログラム。
(付記18)前記検出する処理は、前記映像情報から被写体の頭部を検出し、所定時間における前記頭部の方向の変更回数が閾値以上となる場合に、前記被写体を、第1被写体として検出することを特徴とする付記17に記載の防犯プログラム。