JP2009252215A - 警備装置および情報表示方法 - Google Patents

警備装置および情報表示方法 Download PDF

Info

Publication number
JP2009252215A
JP2009252215A JP2008103474A JP2008103474A JP2009252215A JP 2009252215 A JP2009252215 A JP 2009252215A JP 2008103474 A JP2008103474 A JP 2008103474A JP 2008103474 A JP2008103474 A JP 2008103474A JP 2009252215 A JP2009252215 A JP 2009252215A
Authority
JP
Japan
Prior art keywords
information
state
person
suspicious person
security device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008103474A
Other languages
English (en)
Inventor
Takuo Moriguchi
拓雄 森口
Takehiro Mabuchi
健宏 馬渕
Satoshi Futami
聡 二見
Masaki Murakawa
正貴 村川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2008103474A priority Critical patent/JP2009252215A/ja
Publication of JP2009252215A publication Critical patent/JP2009252215A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】映像の確認のための処理負荷を軽減する警備装置を提供する。
【解決手段】物体の動作の種類を表す動詞と動作に関連する名詞である格要素とを含み、動詞と格要素との間の意味関係を示す格フレームによって表された状態情報を記憶可能な言語情報DB172と、監視カメラ120によって撮像された物体の画像情報を解析し、物体の動作状態と識別情報および動作の時刻とを検出し、検出した動作状態を表す状態情報であって、識別情報および時刻を格要素として含む状態情報を生成して言語情報DB172に保存する第1検出部137と、言語情報DB172に記憶された状態情報を、識別情報ごとに時刻が連続するか否かによってグループに分類し、分類したグループごとに連続する時刻の範囲内での物体の動作状態を表す物体情報を生成する人物情報生成部142と、生成された物体情報を表示する操作パネル160とを備えた。
【選択図】 図2

Description

この発明は、監視カメラなどの撮像装置によって撮影された画像から不審者を判定する警備装置および情報表示方法に関する。
従来から、監視カメラにより監視対象を常に撮影し、常時又は必要に応じて撮影画像を記録したり、撮影画像を監視センタへ送信したりする警備システムが知られている。また、戸建て住宅などでセンサや監視カメラを用いて監視領域内の人物の監視や特定を行う警備システムが知られている。例えば、特許文献1では、インターホンに赤外線センサーを付加し、呼び鈴ボタンが押されなくても赤外線センサーによって不審者を検出することにより不審者の画像、音声、不審者の訪れた時刻を記録するホームセキュリティシステムが提案されている。
特開2002−185624号公報
しかしながら、このような警備システムでは、通常、記録した映像に索引等が付与されていないため、ユーザや監視センタの監視員は記録されたすべての映像を確認する必要があり、多大な労力がかかるという問題があった。また、索引が付与されている場合であっても、付与された索引は映像の意味内容を示すものではないため、任意の映像を検索して閲覧することは困難であった。
本発明は、上記に鑑みてなされたものであって、監視カメラなどで撮影された映像の確認のための処理負荷を軽減することができる警備装置および情報表示方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、請求項1にかかる発明は、物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と、前記物体の識別情報および前記動作の時刻を含む、前記動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を記憶可能な状態情報記憶手段と、撮像手段によって撮像された物体の画像情報を解析し、物体の動作状態と、物体の識別情報および物体の動作の時刻とを検出し、検出した動作状態を表す前記状態情報であって、検出した識別情報および時刻を前記格要素として含む前記状態情報を生成して前記状態情報記憶手段に保存する保存手段と、前記状態情報記憶手段に記憶された前記状態情報を、前記識別情報ごとに前記時刻が連続するか否かによってグループに分類し、分類したグループごとに、連続する前記時刻の範囲内での前記物体の動作状態を表す物体情報を生成する生成手段と、生成された前記物体情報を表示する表示手段と、を備えたことを特徴とする。
また、請求項2にかかる発明は、請求項1に記載の警備装置において、前記生成手段は、さらに、連続する前記時刻の範囲内での前記物体の動作状態の詳細を表す詳細情報を対応づけた前記物体情報を生成し、表示された前記物体情報のうちいずれかの前記物体情報の選択を受け付ける受付手段をさらに備え、前記表示手段は、さらに、前記物体情報が選択された場合に、選択された前記物体情報に対応する前記詳細情報を表示すること、を特徴とする。
また、請求項3にかかる発明は、請求項1に記載の警備装置において、前記生成手段は、連続する前記時刻に対応する前記画像情報を特定する画像特定情報を対応づけた前記物体情報を生成し、前記撮像手段によって撮像された前記画像情報と前記画像特定情報とを対応づけて記憶する映像記憶手段と、表示された前記物体情報のうちいずれかの前記物体情報の選択を受け付ける受付手段と、選択された前記物体情報に含まれる前記画像特定情報で特定される前記画像情報を前記映像記憶手段から取得する取得手段と、をさらに備え、前記表示手段は、さらに、取得された前記画像情報を表示すること、を特徴とする。
また、請求項4にかかる発明は、請求項1に記載の警備装置において、不審者の動作状態として予め定められた情報であって、前記不審者の動作に関連する名詞である格要素に関する条件を含む不審者情報を記憶する不審者情報記憶手段と、前記状態情報に含まれる格要素が前記不審者情報に含まれる前記条件を満たす前記状態情報を前記状態情報記憶手段から取得し、取得した前記状態情報によって動作状態が表される前記物体を不審者であると判定する判定手段と、をさらに備え、前記保存手段は、判定手段による判定結果を前記格要素として含む前記状態情報を生成して前記状態情報記憶手段に保存すること、を特徴とする。
また、請求項5にかかる発明は、請求項4に記載の警備装置において、前記生成手段は、物体が不審者であることを表す判定結果を前記格要素として含む前記状態情報が含まれるグループに対して、不審者であることを表す判定結果を含む前記物体情報を生成すること、を特徴とする。
また、請求項6にかかる発明は、請求項4に記載の警備装置において、不審者の動作状態を記憶する不審動作記憶手段と、表示された前記物体情報に対応する物体の動作状態のうち、不審者の動作状態として登録する動作状態の選択を受け付け、選択された動作状態を前記不審動作記憶手段に保存する受付手段と、をさらに備えたこと、を特徴とする。
また、請求項7にかかる発明は、請求項1に記載の警備装置において、前記生成手段は、連続する前記時刻の範囲内での前記物体の特徴を表す特徴情報を含む前記物体情報を生成し、不審者の特徴を表す特徴情報を記憶する特徴記憶手段と、表示された前記物体情報のうち、不審者として登録する物体に対応する前記物体情報の選択を受け付け、選択された物体情報に含まれる特徴情報を前記特徴記憶手段に保存する受付手段と、をさらに備えたこと、を特徴とする。
また、請求項8にかかる発明は、請求項7に記載の警備装置において、前記特徴記憶手段は、前記特徴情報と不審者に対する威嚇方法とを対応づけて記憶し、前記受付手段は、さらに、不審者として登録する物体に対する威嚇方法を受け付け、選択された前記物体情報に含まれる特徴情報に対して、受け付けられた威嚇方法を対応づけて前記特徴記憶手段に保存すること、を特徴とする。
また、請求項9にかかる発明は、請求項7に記載の警備装置において、前記特徴記憶手段は、前記特徴情報と不審者が検出されたことを通報する通報先とを対応づけて記憶し、前記受付手段は、さらに、不審者として登録する物体が検出されたことを通報する通報先を受け付け、選択された前記物体情報に含まれる特徴情報に対して、受け付けられた通報先を対応づけて前記特徴記憶手段に保存すること、を特徴とする。
また、請求項10にかかる発明は、請求項1に記載の警備装置において、前記保存手段は、前記物体の位置情報を前記格要素として含む前記状態情報を生成して前記状態情報記憶手段に保存し、前記生成手段は、さらに、前記時刻と前記位置情報とに基づいて、前記位置情報の時間変化を表す前記物体の移動経路情報を生成し、前記表示手段は、さらに、生成された前記移動経路情報を表示すること、を特徴とする。
また、請求項11にかかる発明は、請求項1に記載の警備装置において、他の警備装置で生成された前記物体情報である外部物体情報を前記他の警備装置から受信する受信手段をさらに備え、前記表示手段は、さらに受信した前記外部物体情報を表示すること、を特徴とする。
また、請求項12にかかる発明は、警備装置で実行される情報表示方法であって、前記警備装置は、物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と、前記物体の識別情報および前記動作の時刻を含む、前記動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を記憶可能な状態情報記憶手段を備え、保存手段が、撮像手段によって撮像された物体の画像情報を解析し、物体の動作状態と、物体の識別情報および物体の動作の時刻とを検出し、検出した動作状態を表す前記状態情報であって、検出した識別情報および時刻を前記格要素として含む前記状態情報を生成して前記状態情報記憶手段に保存する保存ステップと、生成手段が、前記状態情報記憶手段に記憶された前記状態情報を、前記識別情報ごとに前記時刻が連続するか否かによってグループに分類し、分類したグループごとに、連続する前記時刻の範囲内での前記物体の動作状態を表す物体情報を生成する生成ステップと、表示制御手段が、生成された前記物体情報を表示手段に表示する表示制御ステップと、を備えたことを特徴とする。
本発明によれば、画像情報から人物等の物体の動作状態をテキスト情報で表した状態情報を検出し、状態情報から所定期間の物体の動作状態をテキスト情報で表した物体情報を生成して表示することができる。これにより、物体の動作状態を映像ではなくテキスト情報によって確認できるため、監視カメラなどで撮影された映像の確認のための処理負荷を軽減することができるという効果を奏する。
以下に添付図面を参照して、この発明にかかる警備装置および情報表示方法の最良な実施の形態を詳細に説明する。
(第1の実施の形態)
第1の実施の形態にかかる警備装置は、監視カメラで撮像した画像情報から、監視対象物である人物の行動(動作状態)を解析し、解析結果を深層格フレーム構造で表して記憶部に保存する。そして、記憶部に保存した深層格フレームから、来訪日時、来訪回数、および不審判定結果などを含む物体情報を監視対象物ごとに生成し、生成した物体情報を表示する。以下では、主に人物を監視対象物として説明するため、物体情報を人物情報という。
第1の実施の形態について、添付図面を参照して説明する。まず、第1の実施の形態が適用される警備システムの構成例について説明する。図1は、第1の実施の形態にかかる警備システム10の構成を示すブロック図である。図1に示すように、警備システム10は、警備装置100a、100bと監視センタ200とを備えている。警備装置100a、100bと監視センタ200は、電話回線、無線ネットワーク、インターネットなどのネットワーク300を介して接続されている。
警備装置100a、100bは、例えばそれぞれ独立した世帯である親世帯、子世帯に設置される。なお、警備装置100a、100bは同様の構成を備えるため、以下では単に警備装置100という場合がある。警備装置100の構成の詳細については後述する。
監視センタ200は、監視領域の異常を検知した警備装置100からの通報を受け、待機中の警備員に対して異常が検知された監視領域(不図示)へ向かう旨の指示を出すとともに、必要に応じて警察や消防等の関係機関への通報を行う。
次に、警備装置100の構成の詳細について説明する。図2は、第1の実施の形態にかかる警備装置100のブロック図である。図2に示すように、警備装置100は、センサ110と、監視カメラ120と、警備操作部130とを備えている。
センサ110は、警備対象である監視領域に設置されており、主に侵入者等の異常を検知する目的で設置された人感センサである。センサ110は、人の存在や扉の開閉を検知した場合に検知信号を出力する。センサ110は、例えば赤外線の受光量の変化をもとに人の存在を検出する赤外線センサ、赤外線等の受信が遮断されることで人の存在を検出する遮断センサ、電磁波の乱れで人の存在を検知する電波センサ、およびマグネットにより扉の開閉を検出するマグネットセンサなどの監視領域の異常を検出する各種センサによって構成できる。
監視カメラ120は、警備対象である監視領域を撮像する。監視カメラ120は、主に監視領域である住居の出入口付近や敷地内への出入口付近に設置されている。
次に、警備操作部130について説明する。警備操作部130は、検知情報受信部131と、画像情報受信部132と、警備状態切替部133と、操作パネル制御部134と、操作パネル160と、送受信部135と、警備状態記憶部136と、第1検出部137と、第2検出部138と、言語構造構築部139と、言語情報取得部140と、画像情報取得部141と、人物情報生成部142と、不審者判定部143と、タイマー150と、HDD(Hard Disk Drive)170と、を備えている。
検知情報受信部131は、センサ110によって異常が検知された場合に送出される検知情報を受信する。検知情報は、センサ110から送出される検知信号である。センサ110が複数設置されている場合、検知情報は検知信号およびセンサ110を識別するセンサIDを含む。画像情報受信部132は、監視カメラ120によって撮像された画像情報を取得する。
警備状態切替部133は、操作パネル制御部134によって受付けた警備状態を警備状態記憶部136に格納する。
警備状態記憶部136は、現在の警備装置100の警備状態である警備モードまたは警備解除モードのいずれかを記憶する。なお、警備状態記憶部136は、ハードディスク、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶媒体により構成することができる。
ここで、警備モードとは、センサ110が異常を検知して検知情報を取得した場合に、警備領域での異常を知らせる警報情報をネットワーク300で接続されている監視センタ200に送信する状態をいう。また、警備解除モードとは、上記検知情報を取得した場合でも異常を知らせる警報情報を監視センタ200に送信しない状態をいう。
操作パネル制御部134は、操作パネル160への表示情報の出力や、操作パネル160から入力された検索キー等の入力情報の取得等の制御を行う。
操作パネル160は、LCD(Liquid Crystal Display)等の液晶パネルから構成され、液晶パネル上に表示された操作ボタンの押下等によって上述した警備モードまたは警備解除モードのいずれかの警備状態を入力する。操作パネル160は、入力受付部161と、言語情報表示部162と、映像表示部163とを備えている。
入力受付部161は、ユーザが、映像DB(データベース)171に記憶されている画像や映像を検索して取得するためのキーワードや文章等の入力を受け付ける。入力受付部161には、上述した深層格フレームとして構成する格要素(深層格)や、人名、または、深層格の1つである行動名を、プルダウンメニューで表示されたウィンドウ等から選択して検索することや、これらのプルダウンメニューに表示されていないキーワードや文章等を指定することも可能である。
言語情報表示部162は、入力受付部161が入力を受け付けたキーワードや文章等を含む深層格フレームを構成する格要素(深層格)の内容を表示する。ユーザは、入力受付部161に表示されたボタン等を押下することによって、映像表示部163に画像や映像を表示させたり、または言語情報表示部162に格要素(深層格)の内容を要約して表示させることも可能である。
映像表示部163は、画像情報取得部141が取得した画像や映像を表示する。
送受信部135は、ネットワーク300を介して監視センタ200との間で各種情報を送受信する。例えば、送受信部135は、監視カメラ120が撮像した画像情報を監視センタ200に送信する。また、送受信部135は、センサ110から検知情報を受信した場合で、かつ警備状態記憶部136に記憶された現在の警備状態に警備モードが記憶されている場合に、警報情報を監視センタ200に送信する。
HDD170は、物体の動作検出に関する各種データを記憶する。具体的には、HDD170は、映像DB171と、言語情報DB172と、規則DB173と、不審者情報DB174と、人物情報ファイル175と、不審動作・特徴DB176と、を格納している。なお、各DBまたはファイルを、光ディスク、メモリカードなどのHDD170以外の記憶媒体に格納するように構成してもよい。
映像DB171は、監視カメラ120が撮像した画像や映像を、その撮像された時間(例えば、撮像開始時刻、撮像終了時刻)および深層格フレームの深層格フレームID(後述)と共に記憶する。
言語情報DB172は、物体の動作状態を深層格フレーム構造で表した状態情報を、映像DB171に記憶されている画像や映像に対応付けて記憶する。なお、深層格フレーム(以下、単に格フレームとも言う)とは、動詞を基準として、動詞に対する名詞の意味関係を深層格として表した言語構造のことである。具体的には、映像DB171に記憶される画像や映像と言語情報DB172とは、深層格フレームID(後述)によって対応付けられている。
図3は、言語情報DB172に記憶される状態情報のデータ構造の一例を示す図である。図3に示すように、状態情報は、格フレームを識別する格フレームID(深層格フレームID)と、動作(行動)の種類を表す行動名と、動作に関連する名詞である格要素(深層格)とを含んでいる。深層格には、主格、属性格、場所格、時間格、源泉格、目標格、対象格、および道具格が含まれる。
主格は、動作を引き起こす主体を表す。すなわち、主格には、動作の主体を識別する識別情報である人物名等が設定される。属性格は、主格に関する情報をいう。例えば、属性格は、身長高、体型、上半身色、下半身色、頭色、顔情報、および歩容情報等を含む。
顔情報および歩容情報は、さらに詳細な要素に分けられる。例えば、顔情報は、顔の特徴を表す顔特徴、視線方向、マスクの有無、サングラスの有無、性別、および年代などの要素を含む。また、歩容情報は、歩幅、姿勢、脚長、および歩速などの要素を含む。
場所格は、動作や状態が起こる場所を表す。例えば、場所格は、頭部位置、体位置、手位置、顔位置、および脚部位置等を含む。
時間格は、動作や状態が起こる時間を表す。例えば、時間格は、現在時刻を表す時刻、動作が開始された時刻を表す動作開始時刻、動作が終了した時刻を表す動作終了時刻、および動作が発生した年月日等を表す。
源泉格は、移動や状態変化などの起点を表す。例えば、源泉格は、主格が移動や動作等を行う起点の位置を表す場所情報、および起点での主格の属性を表す属性情報を含む。
目標格は、移動や状態変化などの終点を表す。例えば、目標格は、主格が移動や動作等を行う終点の位置を表す場所情報、および終点での主格の属性を表す属性情報を含む。
対象格は、動作や状態の対象となる事物を表す。対象格は、固有の識別情報である対象ID、および固有の情報である属性情報を含む。
道具格は、動作の補助的手段を表す。道具格は、固有の識別情報である道具ID、および固有の情報である属性情報を含む。
なお、利用できる深層格はこれらに限られず、例えば精神的事象の経験者を表す経験者格などの、その他のあらゆる深層格を用いることができる。
図4は、言語情報DB172に記憶される状態情報の具体例を示す図である。図4は、人物A(主格)が、「しゃがむ」という行動を検出したときに生成される状態情報の一例を示している。この場合、属性格には、人物Aの身長高、体型などの具体的な値が設定される。また、場所格および時間格には、それぞれ人物Aがしゃがんだときの位置や時刻に関する具体的な値が設定される。
図2に戻り、規則DB173は、後述する第2検出部138が、言語情報DB172に保存された格フレームを比較して動作を検出するときに参照する行動検出規則を記憶する。図5は、規則DB173に記憶される行動検出規則のデータ構造の一例を示す図である。
図5に示すように、行動検出規則は、比較元となる情報であって、時間的に前の状態情報である前格フレームと、比較先となる情報であって、時間的に後の状態情報である後格フレームと、その他の条件と、検出される状態情報とを対応づけた形式となっている。
前格フレームおよび後格フレームは、それぞれ行動名と格情報とを含んでいる。格情報には、比較すべき少なくとも1つの深層格を設定する。
前格フレームおよび後格フレームは、2つの格フレームが差異を有するパターンを表す情報(差分情報)に相当する。すなわち、ある2つの格フレームが、それぞれ前格フレームと後格フレームとで設定された行動名および格情報と適合するとき、この2つの格フレーム間には差異が存在すると判断される。例えば、図5では、ある格フレーム(格フレーム1)の行動名が「存在する」、場所格に含まれる体位置が「A」であり、他の格フレーム(格フレーム2)の行動名が「存在する」、場所格に含まれる体位置が「B」であるとき、格フレーム1と格フレーム2との間には差分が存在すると判断される。そして、差分が存在すると判断された場合、差分に対応する行動として、「検出される状態情報」欄に記載された行動名の行動が検出される。
その他の条件には、必要に応じて、比較する状態情報が満たすべき条件が設定される。例えば、同図の行動名「しゃがむ」の行動を検出する行動検出規則では、前格フレームに含まれる頭部位置Bと、後格フレームに含まれる頭部位置Cとが、B>Cの関係を満たすことが条件として設定されている。
検出される状態情報は、検出される行動の行動名と、保存すべき少なくとも1つの深層格を表す格情報とを含んでいる。同図では、例えば、行動名「移動する」の行動が検出された場合は、前格フレームに含まれる体位置Aおよび後格フレームに含まれる体位置Bを、それぞれ検出した行動に対応する格フレームの源泉格の体位置Aおよび目標格の体位置Bとして保存する例が示されている。
なお、行動検出規則は同図に示す形式に限られるものではなく、複数の状態情報間の差分に応じて予め定められた行動を決定可能なものであればあらゆる形式の規則を適用できる。
不審者情報DB174は、不審者の動作状態を表す行動パターンとして予め定められた不審者情報を記憶する。図6は、第1の実施の形態の不審者情報DB174に記憶された不審者情報のデータ構造の一例を示す図である。図6に示すように、不審者情報は、不審者の動作の種類を表す行動名と、不審者の動作に関連する深層格(格情報)と、当該深層格が満たすべき条件とを含んでいる。
同図の網掛け部は、行動名が「きょろきょろする」である場合であって、かつ場所格の体位置が「玄関前」、すなわち、玄関前できょろきょろしている場合を不審者または不審行動として記憶している例を示している。
なお、行動名は必須ではなく、格情報と条件のみを不審者の判定基準として用いるように構成することができる。例えば、属性格−顔情報が「マスク有」の場合は行動名に関わらず不審者であると判定するように構成してもよい。
また、不審者情報DB174に記憶される行動名や、深層格の種類等は、予めユーザや監視センタによって記憶される。
図2に戻り、人物情報ファイル175は、言語情報DB172に記憶された格フレームから、人物ごとに生成された来訪日時、来訪回数、および不審判定結果などを含む人物情報を記憶したファイルである。
図7は、人物情報ファイル175に記憶される人物情報のデータ構造の一例を示す図である。図7に示すように人物情報は、人物を識別する人物名と、不審者であると判定された場合の不審要因と、来訪回数と、来訪回数分の来訪データとを含んでいる。来訪データには、生成元である格フレームにアクセスするためのファイルパス、行動開始日、行動終了日などの来訪者の来訪状況を表す情報が記憶される。
人物情報は、監視カメラ120による監視領域の監視状況を、操作パネル160に表示することによりユーザに提示するための情報である。なお、後述するように、人物情報ファイル175を、親世帯の警備装置100aおよび子世帯の警備装置100bで共有可能とするため、ある世帯の監視状況を他の世帯で表示し確認することができる。
図2に戻り、不審行動・特徴DB176は、不審者の動作状態としてユーザが指定した不審行動、または、不審者の特徴を表す情報としてユーザが指定した特徴情報を含む不審行動・特徴情報を記憶する。図8は、不審行動・特徴DB176に記憶される不審行動・特徴情報のデータ構造の一例を示す図である。図8に示すように、不審行動・特徴情報は、行動名と、格情報と、条件と、威嚇設定と、通報先とを含んでいる。
行動名は、例えば不審者の動作状態として登録すべき行動の行動名が決定されている場合に、その行動名が設定される。格情報は、不審行動または不審者の特徴を表す深層格が設定される。例えば、ある人物を不審者として登録する場合は、当該人物の属性格に含まれる身長高、体型、上半身色、下半身色、頭色、顔情報、および歩容情報等の特徴情報が、格情報に設定される。
条件は、後述する威嚇設定および通報先を切り分けるための条件を設定する。同図では、警備状態を条件として威嚇設定および通報先を切り分ける例が示されている。威嚇設定は、登録した不審行動をとる人物または登録した特徴情報に対応する人物が検出された場合に、当該人物に対して適用する威嚇方法を設定する。威嚇方法としては、パトライト、威嚇音、音声メッセージの出力等の従来から用いられているあらゆる方法を適用できる。
通報先は、登録した不審行動をとる人物または登録した特徴情報に対応する人物が検出されたことを通報する宛先が設定される。同図では、警備状態が警備モードのときは監視センタを通報先とし、警備状態が警備解除モードのときはユーザの携帯電話を通報先として設定する例が示されている。
図2に戻り、第1検出部137は、画像情報受信部132によって取得された画像情報を解析することにより、画像情報から物体の動作状態を検出する。また、第1検出部137は、検出した動作状態を表す状態情報を生成して言語情報DB172に保存する。
第1検出部137は、例えば画像情報から人物領域を抽出することにより、人物が「存在する」という動作状態を検出する。また、第1検出部137は、検出した人物の視線方向を検出することにより、当該人物の「見る」という動作状態を検出する。また、第1検出部137は、人物以外の他の物体を画像情報から抽出し、抽出した物体が新たに現れた場合には「取り出す」という動作状態を、抽出した物体が以前から存在し、人物の手の位置と重なった場合には「触る」という動作状態を検出する。
なお、第1検出部137が人物または物体を抽出する方法としては、連続する画像情報の背景を比較することにより抽出した変動領域を人物領域とする方法や、人物パターンまたは物体パターンと照合することにより人物または物体を抽出する方法などの、従来から用いられているあらゆる方法を適用できる。また、第1検出部137が人物の視線方向を検出する方法としては、顔領域パターンと照合することにより顔領域を抽出するとともに視線方向を検出する方法などの従来から用いられているあらゆる方法を適用できる。
第2検出部138は、言語情報DB172に保存された2つの状態情報が規則DB173に保存された行動検出規則に適合するか否かを判定することによって、新たな行動を検出する。
具体的には、第2検出部138は、まず、第1検出部137によって検出され、言語情報DB172に保存された状態情報のうち、時刻が連続する2つの状態情報を取得する。次に、第2検出部138は、取得した2つの状態情報の行動名および格情報が一致する行動検出規則を規則DB173から取得する。そして、第2検出部138は、行動検出規則が取得できた場合に、行動検出規則で定められた行動を新たな行動として検出する。
言語構造構築部139は、映像DB171に記憶された画像や映像から抽出した物体の動作状態の画像や映像やキーワードや文章等から、深層格フレームによって表された状態情報を構築する。
言語情報取得部140は、入力受付部161が入力を受け付けた検索キーが、キーワードや文章等であるか否かを判定し、検索キーが、キーワードや文章等であると判定した場合には、言語情報DB172に記憶する状態情報に含まれる動作(行動)の種類を表す行動名や、動作に関連する名詞である格要素(深層格)に記憶されているものであるか否かを判定し、検索キーとして入力が受け付けられたキーワードや文章等を含む深層格フレームを操作パネル160に表示する。
また、言語情報取得部140は、入力受付部161が入力を受け付けたキーワードや文章等に人名が含まれているか否かを判定し、人名が含まれていると判定した場合には、言語情報DB172に記憶される深層格フレームの1つである主格として記憶されているか否かを判定する。
さらに、言語情報取得部140は、言語情報DB172に記憶される深層格フレームの1つである主格として人名が記憶されていると判定した場合に、さらにその人名に対応する顔情報が属性格に記憶されているか否かを判定する。
また、言語情報取得部140は、言語情報DB172に記憶される深層格フレームの1つである主格として人名が記憶されていると判定した場合であって、さらにその人名に対応する顔情報が属性格に記憶されていないと判定した場合には、入力受付部161が、顔画像の入力を受け付けた顔画像から深層格フレームの1つである顔情報を抽出する。
さらに、言語情報取得部140は、映像DB171が記憶する画像や映像に含まれる、撮像開始時刻や、撮像終了時刻を、言語情報DB172に記憶される深層格フレームの1つである時間格にセットする。
なお、上述した言語情報取得部140が、入力受付部161が入力を受け付けたキーワードや文章、または顔画像等に従って、深層格フレームとして記憶された主格や属性格等の情報を検索する方法は、入力されたキーワード等が、主格や属性格といった深層格フレームとして記憶されている内容と完全に一致する場合の他、部分的に一致する場合、これらの内容に類似性がある場合等も検索できるものとする。ここで、類似性がある場合の検索手法については、その内容の主成分分析を行って検索する手法等、従来から行われている技術によって検索することができる。
言語情報取得部140は、さらに、アクセス権限に応じて他の警備装置が記憶している人物情報ファイルや状態情報を当該他の警備装置から取得する機能、および、他の警備装置からの要求に対して人物情報ファイル175や言語情報DB172内の状態情報を取得する機能を備える。なお、言語情報取得部140は、送受信部135を介して他の警備装置との間で各種情報を送受信する。
アクセス権限としては、例えば、人物情報ファイルのみにアクセス可能な「最低限アクセス」、人物情報ファイルおよび状態情報などのテキスト情報全般にアクセス可能な「映像秘匿アクセス」、およびテキスト情報と映像情報を共にアクセス可能な「フルアクセス」などを設定する。「映像秘匿アクセス」では、言語情報DB172に保存された状態情報を参照できるため、他の警備装置で検出された人物の移動経路や、行動の遷移を表示することが可能となる。
なお、アクセス権限は、例えばHDD170等の記憶部に事前に設定しておき、言語情報取得部140が他の警備装置にアクセスするときに参照可能とする。また、アクセス権限は、プライバシーポリシーおよび通信環境などの要因に応じて選択できるものとする。また、アクセス権限は、原則として被参照側で設定する。ただし、犯罪発生時など特定の条件化では、参照側で一時的に設定を変更できるようにしてもよい。
図9〜図11は、アクセス権限と共有する情報の一例を示す模式図である。図9は、アクセス権限が「最低限アクセス」の場合に共有可能な情報の例を表している。同図に示すように、この場合は、子世帯側の警備装置100bからは、親世帯側の警備装置100aの人物情報ファイル175のみにアクセスできる。
図10は、アクセス権限が「映像秘匿アクセス」の場合に共有可能な情報の例を表している。同図に示すように、この場合は、警備装置100bからは警備装置100aの人物情報ファイル175と言語情報DB172とにアクセスできる。
図11は、アクセス権限が「フルアクセス」の場合に共有可能な情報の例を表している。同図に示すように、この場合は、警備装置100bからは警備装置100aの人物情報ファイル175と言語情報DB172と映像DB171とにアクセスできる。
図2に戻り、画像情報取得部141は、映像DB171に記憶されている監視カメラ120が撮像した画像や映像と、上述した言語情報取得部140が判定した深層格フレームの深層格フレームIDが含まれる映像DB171に記憶された画像や映像を取得して、映像表示部163に表示させる。
また、画像情報取得部141は、言語情報取得部140から、深層格フレームの時間格に、撮像開始時刻、撮像終了時刻をセットすると、受けその撮像開始時刻から撮像終了時刻までの画像や映像を、映像DB171に記憶されている画像や映像の中から抽出して、映像表示部163に表示させる。
さらに、画像情報取得部141は、タイマー150(後述)が計時する映像DB171に画像や映像が記憶されてからの時間が、予めメモリ等の記憶媒体(不図示)に記憶された所定の経過時間を経過している画像や映像を削除する。
画像情報取得部141は、さらに、アクセス権限に応じて他の警備装置が記憶している画像や映像を当該他の警備装置から取得する機能、および、他の警備装置からの要求に対して画像や映像を取得する機能を備える。なお、画像情報取得部141は、送受信部135を介して他の警備装置との間で各種情報を送受信する。
人物情報生成部142は、人物情報ファイル175に保存する人物情報を生成する。人物情報の生成方法の詳細については後述する。
不審者判定部143は、不審者情報DB174に記憶されている不審者情報に適合する状態情報を言語情報DB172から検索することにより、不審者の有無を判定する。具体的には、不審者判定部143は、言語情報DB172に記憶されている状態情報のうち、状態情報の行動名が不審者情報の行動名と一致し、かつ状態情報の格要素のうち不審者情報の格情報に記載された格要素が不審者情報の条件を満たす状態情報を検索する。そして、不審者判定部143は、条件を満たす状態情報の主格である人物が不審者であると判定する。
また、不審者判定部143は、不審動作・特徴DB176に不審行動または不審者の特徴情報が保存されている場合、不審行動または特徴情報に適合する状態情報を言語情報DB172から検索することにより、不審者の有無を判定する。
タイマー150は、監視カメラ120によって画像が撮像された時刻からの時間を計時する。
次に、このように構成された第1の実施の形態にかかる警備装置100による画像からの動作検出処理について図12を用いて説明する。画像からの動作検出処理とは、監視カメラ120で撮影された画像情報から人物等の動作(行動)を検出する処理をいう。図12は、第1の実施の形態における画像からの動作検出処理の全体の流れを示すフローチャートである。
まず、画像情報受信部132は、監視カメラ120が撮影した画像情報を入力する(ステップS1101)。次に、第1検出部137が、画像情報から人物領域を検出する(ステップS1102)。次に、第1検出部137は、人物領域が検出されたか否かを判断する(ステップS1103)。人物領域が検出されなかった場合は(ステップS1103:NO)、次の画像情報を入力して処理を繰り返す(ステップS1101)。
人物領域が検出された場合(ステップS1103:YES)、第1検出部137は、行動名=「存在する」の格フレームを作成する(ステップS1104)。なお、作成した格フレームの格フレームIDには、他の格フレームと重複しない値を割り当てる。
次に、第1検出部137は、検出した人物領域の各部位の検出位置を場所格へ格納する(ステップS1105)。例えば、第1検出部137は、検出した人物領域に含まれる頭部、体、手、顔、および脚部の座標を算出し、それぞれ頭部位置、体位置、手位置、顔位置、および脚部位置として場所格に格納する。なお、人物領域の各部位は、部位ごとの照合パターンと照合して検出する方法などの従来から用いられているあらゆる方法により検出できる。
第1検出部137は、ステップS1104〜ステップS1105と並行して、人物同定処理(ステップS1106〜ステップS1107)、顔検出処理(ステップS1108〜ステップS1110)、体型判定処理(ステップS1111〜ステップS1112)、および歩容検出処理(ステップS1113〜ステップS1114)の各処理を実行する。なお、これらの各処理は必ずしも並行して処理する必要はなく、任意の順序で実行するように構成することができる。
人物同定処理では、第1検出部137は、抽出済みの人物領域と照合する方法などにより、抽出された人物を同定する(ステップS1106)。そして、第1検出部137は、同定した人物に既に割り当てられているエージェントID(図2のAgtID)を、作成した格フレームの主格に格納する(ステップS1107)。
顔検出処理では、第1検出部137は、顔領域パターンと照合する方法などによって顔領域を検出する(ステップS1108)。また、第1検出部137は、照合結果に応じて、視線方向、マスクの有無、およびサングラスの有無などの顔情報を属性格に格納する(ステップS1109)。視線方向が検出された場合は、第1検出部137は、行動名=「見る」の格フレームを作成する(ステップS1110)。
体型判定処理では、第1検出部137は、照合した人物パターンに予め付与された体型を求める方法などにより、検出した人物の体型を判定する(ステップS1111)。そして、第1検出部137は、判定した体型を、作成した格フレームの属性格に格納する(ステップS1112)。
歩容検出処理では、第1検出部137は、主に検出した人物領域の脚部を解析することにより、歩速、歩幅、脚長、姿勢などの歩容情報を検出する(ステップS1113)。歩速は、例えば連続する画像情報の脚部の位置を比較することにより算出することができる。そして、第1検出部137は、検出した歩容情報を、作成した格フレームの属性格に格納する(ステップS1114)。
次に、第1検出部137は、画像情報から物体を検出する(ステップS1115)。なお、物体検出処理は、人物領域検出処理(ステップS1102)とともに実行してもよい。
次に、第1検出部137は、物体が検出されたか否かを判断する(ステップS1116)。物体が検出された場合(ステップS1116:YES)、第1検出部137は、物体が前の画像情報で検出されていたか否か、および物体と人物領域の位置関係に応じて、行動名=「触る」または「取り出す」の格フレームを作成する(ステップS1117)。
具体的には、第1検出部137は、前の画像情報で検出された物体と照合することなどにより、物体が既に検出されていると判断でき、かつ、人物の手の位置と物体の位置とが重なると判断できる場合は、行動名=「触る」の格フレームを新たに作成する。また、第1検出部137は、未検出の物体が新たに検出されたと判断でき、かつ、人物の手の位置と物体の位置とが重なると判断できる場合は、行動名=「取り出す」の格フレームを新たに作成する。
ステップS1116で物体が検出されなかったと判断された場合(ステップS1116:NO)、またはステップS1117で新たな格フレームを作成後、第1検出部137は、これまでに作成した格フレームを状態情報DBに保存し(ステップS1118)、画像からの動作検出処理を終了する。
次に、第1の実施の形態にかかる警備装置100による状態情報からの動作検出処理について図13を用いて説明する。状態情報からの動作検出処理とは、言語情報DB172に保存されている状態情報から人物等の動作(行動)を検出する処理をいう。図13は、第1の実施の形態における状態情報からの動作検出処理の全体の流れを示すフローチャートである。
まず、第2検出部138は、言語情報DB172に保存されている状態情報である格フレームのうち、未処理の格フレーム(以下、第1格フレームという)を取得する(ステップS1201)。次に、第2検出部138は、取得した第1格フレームと時間的に連続する格フレーム(以下、第2格フレームという)を言語情報DB172から取得する(ステップS1202)。
次に、第2検出部138は、取得した2つの格フレームが満たす行動検出規則を規則DB173から検索する(ステップS1203)。具体的には、第2検出部138は、第1格フレームおよび第2格フレームの行動名が、それぞれ行動検出規則の前格フレームおよび後格フレームの行動名と一致し、格情報が行動検出規則の格情報が表す条件を満たす行動検出規則を検索する。
例えば、第1格フレームおよび第2格フレームの行動名が共に「存在する」であり、第1格フレームの体位置(体位置Aとする)と、第2格フレームの体位置(体位置Bとする)とが異なる場合、図5に示すような規則DB173の最初の行動検出規則が検索される。
次に、第2検出部138は、行動検出規則が検索されたか否かを判断し(ステップS1204)、検索された場合は(ステップS1204:YES)、検索した行動検出規則の「検出される状態情報」に設定された行動名の格フレームを作成する(ステップS1205)。
行動検出規則が検索されなかった場合(ステップS1204:NO)、または、格フレームを作成後、第2検出部138は、未処理の格フレームが存在するか否かを判断する(ステップS1206)。
未処理の格フレームが存在する場合(ステップS1206:YES)、第2検出部138は、次の格フレームを取得して処理を繰り返す(ステップS1201)。未処理の格フレームが存在しない場合は(ステップS1206:NO)、状態情報からの動作検出処理を終了する。
このような処理により、画像情報からだけでなく、テキスト情報として保存した状態情報から、人物等の対象物の行動を検出することができる。このため、画像の分析のみによって監視対象物の動作を認識する従来の方法と比較して、動作検出処理の処理負荷を低減することが可能となる。
次に、このように構成された第1の実施の形態にかかる警備装置100による検索処理について図14を用いて説明する。図14は、第1の実施の形態における検索処理の全体の流れを示すフローチャートである。
同図は、第1の実施の形態において、ユーザが、警備装置100に記憶された画像や映像を、キーワードや文章等を入力して検索し、その結果を取得するまでの処理手順を示すフローチャートである。以下の説明では、映像DB171には予め監視カメラ120によって撮像された画像や映像が記憶され、言語情報DB172には、その画像や映像に対応付けられて記憶された深層格フレームが記憶されているものとする。
まず、入力受付部161が、ユーザから画像や映像を検索するためのキーワードや文章等の入力を受け付けると(ステップS1301)、言語情報取得部140は、入力が受け付けられた検索キーが、キーワードや文章等の言語であるか否かを判定する(ステップS1302)。
そして、言語情報取得部140が、検索キーが、キーワードや文章等が言語であると判定した場合(ステップS1302:YES)、言語構造構築部139は、そのキーワードや文章等の言語を、深層格フレームによって表された状態情報を構築する(ステップS1303)。続いて、言語情報取得部140は、言語情報DB172に記憶されている格フレームを読み込んで(ステップS1304)、読み込んだ格フレームの中から、ステップS1301で入力が受け付けられたキーワード等や文章等の言語を含む格フレームがあるか否かを判定する(ステップS1305)。
その後、さらに言語情報取得部140は、入力受付部161が、さらにキーワードや文章等の言語の入力を受け付けているか否かを判定し(ステップS1306)、そのキーワードや文章等の言語の入力を受け付けていると判定した場合(ステップS1306:YES)、ステップS1301に戻り、ステップS1301〜S1305までの処理を繰り返す。
一方、言語情報取得部140は、キーワードや文章等の言語の入力を受け付けていないと判定した場合(ステップS1306:NO)、そのキーワードや文章等を含む検索した深層格フレームを操作パネル160に表示し(ステップS1312)、さらに映像DB171に記憶されている撮像開始時刻、撮像終了時刻を検索した深層格フレームの時間格に記憶させる(ステップS1313、S1314)。
その後、画像情報取得部141は、ステップS1313、S1314で時間格に設定された撮像開始時刻から撮像終了時刻までの間の時刻を含む画像や映像を、映像DB171の中から取得して、映像表示部163に表示させる(ステップS1315)。
そして、画像情報取得部141は、タイマー150が計時する映像DB171に画像や映像が記憶されてから所定の時間を経過している画像や映像を削除する(ステップS1316)。
一方、ステップS1302において、言語情報取得部140が、キーワードや文章等が言語でないと判定した場合(ステップS1302:NO)、さらにそのキーワードや文章等が人名であるか否かを判定し(ステップS1307)、キーワードや文章等が人名でないと判定した場合(ステップS1307:NO)、ステップS1301に戻る。
一方、言語情報取得部140が、そのキーワードや文章等が人名であると判定した場合(ステップS1307:YES)、さらに深層格にその人名に対応する主格を検索し(ステップS1308)、その主格に対応する顔情報が、属性格に記憶されているか否かを判定する(ステップS1309)。
そして、言語情報取得部140が、主格に対応する顔情報が属性格に記憶されていると判定した場合(ステップS1309:YES)、その顔情報を言語構造構築部139に送り、ステップS1303に戻って、ステップS1304以降に示す検索処理を行う。
一方、言語情報取得部140が、主格に対応する顔情報が、属性格に記憶されていないと判定した場合(ステップS1309:NO)、さらに入力受付部161が、顔画像の入力を受け付けたか否かを判定する(ステップS1310)。そして、入力受付部161が、顔画像の入力を受け付けていないと判定した場合(ステップS1310:NO)、ステップS1301に戻る。
一方、入力受付部161が、顔画像の入力を受け付けたと判定した場合(ステップS1310:YES)、顔画像から顔情報を抽出し、その顔情報を言語構造構築部139に送り(ステップS1311)、ステップS1303に戻って、ステップS1304以降の検索処理を行う。このように、ステップS1301〜S1316までの処理が終了すると、検索処理が終了する。
次に、このように構成された第1の実施の形態にかかる警備装置100による不審者判定処理について図15を用いて説明する。図15は、第1の実施の形態における不審者判定処理の全体の流れを示すフローチャートである。
同図に示す各処理では、図6に示すような不審者情報DB174が、ユーザや監視センタ200によって予め記憶され、さらに入力受付部161等からユーザによって不審者判定を行うための指示がなされたものとする。
まず、不審者判定部143は、不審者情報DB174を参照して、記憶されている不審者情報を読み込む(ステップS1401)。そして、読み込んだ不審者情報をキーにして、その不審者情報を含む深層格フレームを言語情報DB172の中から検索する(ステップS1402)。
そして、言語情報DB172の中に、不審者情報を含む深層格フレームがあるか否かを判定し(ステップS1403)、不審者情報を含む深層格フレームがないと判定した場合(ステップS1403:NO)、何もせずに次のステップに進む。
一方、不審者情報を含む深層格フレームがあると判定した場合(ステップS1403:YES)、その不審者情報を含む深層格フレームを言語情報表示部162に表示する(ステップS1404)。その後、不審者情報DB174に記憶されているすべての不審者情報の規則を参照したか否かを判定し(ステップS1405)、すべての不審者情報の規則を参照していないと判定した場合(ステップS1405:NO)、ステップS1401に戻り、以降の処理を繰り返す。一方、すべての不審者情報の規則を参照したと判定した場合(ステップS1405:YES)、不審者判定処理が終了する。
なお、不審者判定処理を、例えば、検索処理のステップS1303〜S1306のいずれかの箇所に組み込み、言語情報取得部140が取得した深層格フレームと、不審者判定部143が検索した深層格フレームとを比較することによって、不審者の特定を効率的に行うことも可能である。
次に、このように構成された第1の実施の形態にかかる警備装置100による人物情報ファイル生成処理について図16を用いて説明する。図16は、第1の実施の形態における人物情報ファイル生成処理の全体の流れを示すフローチャートである。
まず、人物情報生成部142は、言語情報DB172から状態情報を取得する(ステップS1501)。次に、人物情報生成部142は、人物ごとに取得した状態情報を分類する(ステップS1502)。具体的には、人物情報生成部142は、主格ごとに状態情報を分類する。
次に、人物情報生成部142は、分類した状態情報のうち、未処理の人物の状態情報について、時間的に連続する行動の状態情報をグループ化する(ステップS1503)。そして、人物情報生成部142は、生成されたグループの個数を、当該人物の来訪回数として算出する(ステップS1504)。
次に、来訪データを作成するために、算出した来訪回数分、以下の処理(ステップS1505〜ステップS1510)を実行する。
まず、人物情報生成部142は、未処理のグループについて、グループ内の時間的に最初の状態情報の年月日、動作開始時刻を、人物情報ファイル175の行動開始時、行動開始時刻に設定する(ステップS1505)。次に、人物情報生成部142は、グループ内の時間的に最後の状態情報の年月日、動作終了時刻を、人物情報ファイル175の行動終了時、行動終了時刻に設定する(ステップS1506)。
さらに、人物情報生成部142は、グループ内の状態情報から、不審者情報DB174に記憶されている不審者情報に適合する状態情報を検索する(ステップS1507)。そして、人物情報生成部142は、適合する状態情報が検索されたか否かを判断し(ステップS1508)、検索された場合は(ステップS1508:YES)、人物情報ファイル175の不審要因に判定結果を設定する(ステップS1509)。
不審者情報に適合する状態情報が検索されなかった場合(ステップS1508:NO)、または不審要因を設定後、人物情報生成部142は、グループ内の各状態情報の属性情報それぞれの平均を求めて人物情報ファイル175の対応するフィールドにそれぞれ設定する(ステップS1510)。
例えば、人物情報生成部142は、グループ内の各状態情報の属性格に含まれる性別のうち、設定されている個数が多い性別を、人物情報ファイル175の推定性別フィールドに設定する。また、人物情報生成部142は、グループ内の各状態情報の属性格に含まれる身長高の平均値を算出し、算出した平均値を人物情報ファイル175の推定身長フィールドに設定する。同様にして、人物情報生成部142は、各状態情報の属性情報の平均値や代表値などを求めて、対応する人物情報ファイル175のフィールドに設定する。
このように、人物情報生成部142は、複数の格フレーム情報(状態情報)から人物情報生成に必要な情報を算出するため、各種情報を高精度に算出することができる。
次に、人物情報生成部142は、すべてのグループを処理したか否かを判断し(ステップS1511)、処理していない場合は(ステップS1511:NO)、次の未処理のグループに対して処理を繰り返す(ステップS1505)。
すべてのグループを処理した場合は(ステップS1511:YES)、人物情報生成部142は、すべての人物を処理したか否かを判断する(ステップS1512)。すべての人物を処理していない場合は(ステップS1512:YES)、次の未処理の人物の状態情報に対して処理を繰り返す(ステップS1503)。すべての人物を処理した場合は(ステップS1512:YES)、人物情報ファイル生成処理を終了する。
このようにして、第1の実施の形態にかかる警備装置100は、格フレーム構造で表された人物等の物体の状態情報を集計し、不審者に関する情報等を容易に把握可能な形式の人物情報を生成することができる。生成した人物情報の表示例については後述する。
また、第1の実施の形態にかかる警備装置100は、このようにして生成した人物情報を、他の警備装置と共有することができる。さらに、上述のように、アクセス権限に応じて、人物情報だけでなく言語情報DB172に記憶された状態情報や映像DB171に記憶された画像情報も共有することができる。
以下に、他の警備装置の情報を共有できるように設定されている場合の情報共有処理の一例について図17を用いて説明する。図17は、第1の実施の形態における情報共有処理の全体の流れを示すフローチャートである。
情報共有処理は、例えば、ユーザによって他の警備装置の監視状況の確認が指示されたことを契機に開始する。まず、言語情報取得部140は、送受信部135を介して他の警備装置から人物情報ファイルを取得する(ステップS1601)。次に、操作パネル制御部134は、取得された人物情報ファイル内の人物情報を操作パネル160に表示する(ステップS1602)。
ここで、操作パネル160の入力受付部161が、表示した人物情報に関連する映像の確認の指示を受け付けたとすると(ステップS1603)、言語情報取得部140は、事前にHDD170等に記憶されたアクセス権限を取得し、アクセス権限がフルアクセスであるか否かを判断する(ステップS1604)。
アクセス権限がフルアクセスの場合(ステップS1604:YES)、画像情報取得部141は、送受信部135を介して他の警備装置から対応する映像を取得する(ステップS1605)。そして、操作パネル制御部134は、取得された映像を操作パネル160に表示する(ステップS1606)。アクセス権限がフルアクセスでない場合(ステップS1604:NO)、操作パネル制御部134は、映像を取得できないことを表すメッセージ等を操作パネル160に表示する(ステップS1607)。
なお、映像確認の指示を受付後にアクセス権限を判定する代わりに、アクセス権限に応じて映像確認の指示を受け付け可能とするか否かを事前に判定するように構成してもよい。例えば、アクセス権限がフルアクセスのときは、人物情報に対応する映像を確認するための映像確認ボタンを表示し、それ以外のときは映像確認ボタンを非表示にするように構成することができる。
情報共有処理の他の例として、自装置の言語情報DB172に記憶している状態情報だけでなく、他の警備装置から取得した状態情報を用いて人物情報ファイルを生成するように構成してもよい。このような構成により、他の場所でのみ不審な行動をとった人物であっても、不審者として検出することが可能となる。
ここで、情報を共有する利用形態の例について説明する。
(1)親世帯−子世帯間での安否確認
それぞれ独立した親世帯および子世帯にそれぞれ警備装置100aおよび100bを設置し、子世帯から親世帯の監視領域の監視状況を参照する利用形態が想定できる。例えば、親世帯では警備装置100aの操作が困難である、または、不審者の判定がつかないなどの要因が生じ、子世帯で来訪者を確認する必要がある場合などが該当する。
この場合、「フルアクセス」または「映像秘匿」のアクセス権限で子世帯から親世帯の情報にアクセスするように構成すれば、親世帯での来訪者に対し、子世帯で不審者か否かを判断することが可能となる。
一方、親世帯の来訪者に知人が多く、プライバシー上の観点から映像を遠隔参照することが嫌悪される場合は、「映像秘匿」または「最低限」のアクセス権限を付与することで、プライバシーに配慮した遠隔確認を行うことが可能となる。
(2)マンション等のコミュニティ内での不審者情報の共有
ある世帯で不審と判断された人物の状態情報をコミュニティ内で共有することで、コミュニティ全体で不審者に対しての警戒が可能となる。この場合、プライバシー上の観点から、アクセス権限は「最低限アクセス」を設定する。
次に、第1の実施の形態で表示される各種画面の一例について図18〜図21を用いて説明する。図18は、帰宅時などに初期表示されるシステムトップ画面の一例を示す図である。
図18に示すように、システムトップ画面は、例えば当日の来訪者数や、来訪者のうち不審者であると判定された人物の人数を表示する。なお、この例では、この時点までに検出された状態情報から、人物情報ファイル175が生成され、来訪者数や不審者の人数が算出されていることを前提としている。確認ボタン1701を押下すると、人物情報ファイル175の内容を表示する人物情報表示画面が表示される。
図19は、人物情報表示画面の一例を示す図である。図19に示すように、人物情報表示画面は、生成された人物情報ファイル175内の人物情報を一覧形式で表示する。同図は、人物情報のうち、人物名(名前)と、行動開始日を表す日付と、行動開始時刻を表す時刻と、来訪回数と、不審判定結果とを表示した例を示している。なお、その他の来訪データを表示するように構成してもよい。
従来の警備システムでは、通常、撮影日時と映像とを対応づけて記録するのみであるため、来訪日時(撮影日時)を表示することは可能であったとしても、来訪回数を表示することはできない。一方、第1の実施の形態では、人物の識別情報や動作開始時刻等を含む状態情報を格フレーム構造で記録しているため、識別情報ごとに、設定した期間(例えば最近7日間)内の来訪回数を容易に算出し、ユーザに対して表示することができる。
一覧形式で表示された人物情報の詳細を確認する場合は、所望の人物に対応するセルをクリックする。図20は、この場合に表示される詳細表示画面の一例を示す図である。図20に示すように、詳細表示画面は、行動開始日や行動開始時刻の他に、行動時間や不審者と判定された要因などを表示する。また、詳細表示画面は、表示された行動に対応する映像を確認するための映像確認ボタン1901を含んでいる。
図21は、映像確認ボタン1901が押下された場合に表示される映像表示画面の一例を示す図である。図21に示すように、映像表示画面には、映像DB171内に記憶された映像のうち、選択された行動に対応する映像、移動軌跡、および画像処理経過が表示され、一連の映像の再生が終了すると、最終判定結果が表示される。
最終判定結果とは、再生された映像に対応する格フレームに対して不審者判定処理を実行した結果を意味する。なお、映像表示画面で、または最終判定結果とともに、移動軌跡を表す二次元マップ(俯瞰図)を表示してもよい。図22は、二次元マップ上に表示された人物の位置および移動経路の一例を示す図である。同図に示すような移動経路は、人物情報生成部142またはその他の構成部によって算出するように構成することができる。例えば、人物情報生成部142は、格フレームに含まれる位置情報や顔の位置、視線方向を用いて位置情報の時間変化を解析することにより移動軌跡(移動経路)を表す移動経路情報を生成することができる。このように、第1の実施の形態では、監視対象物の位置情報や動作時刻を、テキスト情報である格フレーム構造で記憶しているため、移動経路情報を容易に生成することができる。
なお、ユーザは、映像の確認等により知人であると判断した来訪者を、ユーザ自身により知人として登録することができる。例えば、入力受付部161が、人物情報表示画面に表示された人物情報のうち、知人として登録する人物の人物情報の選択を受け付け、選択された人物情報に対応する人物を、家人および知人などの登録者を管理する登録者DB(図示せず)に登録するように構成することができる。なお、登録者DBには、例えば、人物の識別情報、家人であるか知人であるかなどを表す登録状態、顔認証用の顔画像などを保存する。
また、ユーザは、映像の確認等により不審者であると判断した来訪者を、ユーザ自身により不審者として不審行動・特徴DB176に登録することができる。例えば、入力受付部161が、人物情報表示画面に表示された人物情報のうち、不審者として登録する人物の人物情報の選択を受け付け、選択された人物情報に含まれる身長、体型等を、不審者の特徴を表す特徴情報として不審行動・特徴DB176に登録するように構成することができる。また、映像表示後に、映像内で表示された人物を不審者として登録するか否かを要求する画面(図示せず)を表示し、不審者として登録することが選択された場合に、入力受付部161が当該選択を受け付け、表示された人物の人物情報に含まれる特徴情報を不審行動・特徴DB176に登録するように構成してもよい。
また、ユーザは、人物個人を不審者として登録する代わりに、人物の行動を不審行動として不審行動・特徴DB176に登録することができる。例えば、映像表示後に表示された人物の行動を不審行動として登録するか否かを要求する画面(図示せず)を表示し、不審行動として登録することが選択された場合に、入力受付部161が当該選択を受け付け、表示された人物の行動を不審行動として不審行動・特徴DB176に登録するように構成することができる。なお、この場合、登録対象となりうる行動をリスト形式で表示し、リストから選択された行動を不審行動として登録するように構成してもよいし、表示された映像の全部または一部の選択を受け付け、受け付けた映像に対応する行動を不審行動として登録するように構成してもよい。
不審行動・特徴DB176に不審行動または不審者の特徴情報を登録する場合、さらに、登録する不審行動または特徴情報を検出した場合に設定する威嚇方法および通報先の指定を受け付け、不審行動または特徴情報と対応づけて登録可能とする。例えば、不審行動または不審者の特徴情報の登録の指定を受け付けた場合に、威嚇方法および通報先を選択するための画面(図示せず)を表示し、入力受付部161が、この画面で選択された威嚇方法および通報先を受け付けて不審行動・特徴DB176に登録するように構成することができる。
このように、第1の実施の形態にかかる警備装置では、状態情報を集計して生成した人物情報ファイルを元に、テキスト情報として各人物の人物情報を表示することができる。さらに、表示された人物情報を選択すると、選択された人物情報に対応する詳細情報をさらに表示することができる。このように、映像の内容を表すテキスト情報を、ユーザの選択に応じて階層的に表示するインタフェースとなっているため、ユーザは内部の言語構造(格フレーム構造)や、記述内容を意識することなく、映像や来訪者情報を容易に検索し閲覧することが可能となる。また、イベント発生時の映像と、さらにその中でも不審と思われる映像の抽出が可能となる。これにより、監視カメラなどで撮影された映像の確認のための処理負荷を大幅に軽減することができる。また、不審判定基準、威嚇方法、および通報先の設定をユーザ自身によって実行できるため、ユーザの要求に応じた柔軟性の高い警備システムを構築することができる。
また、第1の実施の形態にかかる警備装置では、人物の動作状態を深層格フレームで表して記憶した状態情報と、事前に定められた不審者の行動パターンを表す不審者情報と比較することにより、撮像した画像情報内の人物が不審者であるか否かを判定することができる。これにより、例えばIDカードや指紋認証等では不審者と判定されない場合であっても、行動パターンの解析により不審者と判定することが可能となる。すなわち、監視カメラなどで撮影された画像から高精度に不審者を判定し、監視センタへの誤報を防止することができる。また、テキスト情報である格フレームと、同様にテキスト情報である不審者情報とを比較することで不審者を判定できるため、不審者判定処理の処理負荷を軽減することができる。
(第2の実施の形態)
第2の実施の形態にかかる警備装置は、撮影された人物が認証されているか否か(登録されているか否か)に応じて、不審者の判定基準を変更する。
図23は、第2の実施の形態にかかる警備装置2100の構成を示すブロック図である。図23に示すように、警備装置2100は、センサ110と、監視カメラ120と、警備操作部2130とを備えている。
第2の実施の形態では、警備操作部2130のHDD2170内の不審者情報DB2174の構成、および不審者判定部2143の機能が第1の実施の形態と異なっている。その他の構成および機能は、第1の実施の形態にかかる警備装置100の構成を表すブロック図である図2と同様であるので、同一符号を付し、ここでの説明は省略する。
不審者情報DB2174は、不審者であると判定する基準を、人物の登録状態に応じて変更した不審者情報を記憶する。図24は、第2の実施の形態の不審者情報DB2174に記憶された不審者情報のデータ構造の一例を示す図である。図24に示すように、第2の実施の形態の不審者情報は、行動名と格情報と条件とに加えて、登録状態を含んでいる。
登録状態とは、人物を同定するために、事前に照合用の顔情報等が登録されているか否かを表す情報である。登録状態としては、例えば、家人として登録されていることを表す「登録者(家人)」、知人として登録されていることを表す「登録者(知人)」、および未登録であることを表す「未登録者」などが想定される。なお、登録状態はこれに限られるものではない。
同図の最初の不審者情報は、人物が玄関から庭に移動した場合、その人物が未登録者であれば不審行動であると判定することを意味する。また、同図の2つ目の不審者情報は、人物が玄関から駐車場に移動した場合、その人物が未登録者または知人であれば不審行動であると判定することを意味する。
ここで、登録状態に応じて基準を変更する具体例について図25〜図27を用いて説明する。図25〜図27は、人物の移動経路と登録状態とに応じて、不審者と判定する基準を切り替える例を表している。なお、各図では、網掛け部のエリアが侵入禁止エリアを意味している。
図25は、未登録者に対するエリアごとの移動可否の例を示す図である。同図に示すように、未登録者の場合は、通路および玄関に相当するエリア2301のみが通行許可エリアであり、庭と窓に相当するエリア2302、および駐車場に相当するエリア2303は侵入禁止エリアとして設定されている。
図26は、知人に対するエリアごとの移動可否の例を示す図である。同図に示すように、知人の場合は、エリア2401および2402が通行許可エリアであり、エリア2403は侵入禁止エリアとして設定されている。すなわち、知人の場合は、庭(エリア2402)への侵入は許可されているため、玄関から庭へ移動しても不審行動とは判定されない。一方、駐車場(エリア2403)への侵入は禁止されているため、玄関から駐車場へ移動した場合は不審行動と判定される。
図27は、家人に対するエリアごとの移動可否の例を示す図である。同図に示すように、家人の場合は、すべてのエリア2501〜2503が通行許可エリアであるため、誤って不審者として判定されることがない。
なお、基準を切り替える情報は登録状態に限られず、例えば季節や時間帯によって不審者と判定する基準を変更するように構成してもよい。この場合も、不審者情報に、季節や時間帯の条件を新たに追加するように構成すればよい。
図23に戻り、不審者判定部2143は、このような不審者情報を参照して、人物の登録状態に応じて判定基準を変更して不審者を判定する点が、第1の実施の形態の不審者判定部143と異なっている。
次に、このように構成された第2の実施の形態にかかる警備装置2100による不審者判定処理について図28を用いて説明する。図28は、第2の実施の形態における不審者判定処理の全体の流れを示すフローチャートである。
ステップS2601からステップS2603までの、不審者情報照合処理は、第1の実施の形態にかかる警備装置100におけるステップS1401からステップS1403までと同様の処理なので、その説明を省略する。
不審者情報を含む深層格フレームが存在すると判定した場合(ステップS2603:YES)、不審者判定部2143は、当該深層格フレームの主格の登録状態を判定する(ステップS2604)。不審者判定部2143は、例えば、図12の人物同定処理(図12のステップS1106、1107)で設定されたエージェントIDが家人または知人に対して事前に割り当てられたIDであるかを判定する方法などにより、人物の登録状態を判定する。
次に、不審者判定部2143は、判定した登録状態と、不審者情報内の登録状態とが一致するか否かを判断する(ステップS2605)。一致する場合は(ステップS2605:YES)、不審者判定部2143は、不審者情報を含む深層格フレームを言語情報表示部162に表示する(ステップS2606)。
一致しない場合(ステップS2605:NO)、または不審者情報の深層格フレームを表示後、不審者判定部2143は、不審者情報DB2174に記憶されているすべての不審者情報の規則を参照したか否かを判定する(ステップS2607)。すべての不審者情報の規則を参照していないと判定した場合(ステップS2607:NO)、不審者判定部2143は、ステップS2601に戻り、以降の処理を繰り返す。一方、すべての不審者情報の規則を参照したと判定した場合(ステップS2607:YES)、不審者判定処理が終了する。
このように、第2の実施の形態にかかる警備装置では、人物の登録状態に応じて不審者の判定基準を変更することができるため、より高精度に不審者・不審行動を判定することが可能となる。
なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。
第1の実施の形態にかかる警備システムの構成を示すブロック図である。 第1の実施の形態にかかる警備装置のブロック図である。 言語情報DBに記憶される状態情報のデータ構造の一例を示す図である。 言語情報DBに記憶される状態情報の具体例を示す図である。 規則DBに記憶される行動検出規則のデータ構造の一例を示す図である。 第1の実施の形態の不審者情報DBに記憶された不審者情報のデータ構造の一例を示す図である。 人物情報ファイルに記憶される人物情報のデータ構造の一例を示す図である。 不審行動・特徴DBに記憶される不審行動・特徴情報のデータ構造の一例を示す図である。 最低限アクセスの場合に共有可能な情報の例を表している図である。 映像秘匿アクセスの場合に共有可能な情報の例を表している図である。 フルアクセスの場合に共有可能な情報の例を表している図である。 第1の実施の形態における画像からの動作検出処理の全体の流れを示すフローチャートである。 第1の実施の形態における状態情報からの動作検出処理の全体の流れを示すフローチャートである。 第1の実施の形態における検索処理の全体の流れを示すフローチャートである。 第1の実施の形態における不審者判定処理の全体の流れを示すフローチャートである。 第1の実施の形態における人物情報ファイル生成処理の全体の流れを示すフローチャートである。 第1の実施の形態における情報共有処理の全体の流れを示すフローチャートである。 システムトップ画面の一例を示す図である。 人物情報表示画面の一例を示す図である。 詳細表示画面の一例を示す図である。 映像表示画面の一例を示す図である。 移動経路の一例を示す図である。 第2の実施の形態にかかる警備装置の構成を示すブロック図である。 第2の実施の形態の不審者情報DBに記憶された不審者情報のデータ構造の一例を示す図である。 未登録者に対するエリアごとの移動可否の例を示す図である。 知人に対するエリアごとの移動可否の例を示す図である。 家人に対するエリアごとの移動可否の例を示す図である。 第2の実施の形態における不審者判定処理の全体の流れを示すフローチャートである。
符号の説明
10 警備システム
100a、100b 警備装置
110 センサ
120 監視カメラ
130 警備操作部
131 検知情報受信部
132 画像情報受信部
133 警備状態切替部
134 操作パネル制御部
135 送受信部
136 警備状態記憶部
137 第1検出部
138 第2検出部
139 言語構造構築部
140 言語情報取得部
141 画像情報取得部
142 人物情報生成部
143 不審者判定部
150 タイマー
160 操作パネル
161 入力受付部
162 言語情報表示部
163 映像表示部
170 HDD
171 映像DB
172 言語情報DB
173 規則DB
174 不審者情報DB
175 人物情報ファイル
176 不審行動・特徴DB
200 監視センタ
300 ネットワーク
1701 確認ボタン
1901 映像確認ボタン
2100 警備装置
2130 警備操作部
2143 不審者判定部
2170 HDD
2174 不審者情報DB
2301〜2303、2401〜2403、2501〜2503 エリア

Claims (12)

  1. 物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と、前記物体の識別情報および前記動作の時刻を含む、前記動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を記憶可能な状態情報記憶手段と、
    撮像手段によって撮像された物体の画像情報を解析し、物体の動作状態と、物体の識別情報および物体の動作の時刻とを検出し、検出した動作状態を表す前記状態情報であって、検出した識別情報および時刻を前記格要素として含む前記状態情報を生成して前記状態情報記憶手段に保存する保存手段と、
    前記状態情報記憶手段に記憶された前記状態情報を、前記識別情報ごとに前記時刻が連続するか否かによってグループに分類し、分類したグループごとに、連続する前記時刻の範囲内での前記物体の動作状態を表す物体情報を生成する生成手段と、
    生成された前記物体情報を表示する表示手段と、
    を備えたことを特徴とする警備装置。
  2. 前記生成手段は、さらに、連続する前記時刻の範囲内での前記物体の動作状態の詳細を表す詳細情報を対応づけた前記物体情報を生成し、
    表示された前記物体情報のうちいずれかの前記物体情報の選択を受け付ける受付手段をさらに備え、
    前記表示手段は、さらに、前記物体情報が選択された場合に、選択された前記物体情報に対応する前記詳細情報を表示すること、
    を特徴とする請求項1に記載の警備装置。
  3. 前記生成手段は、連続する前記時刻に対応する前記画像情報を特定する画像特定情報を対応づけた前記物体情報を生成し、
    前記撮像手段によって撮像された前記画像情報と前記画像特定情報とを対応づけて記憶する映像記憶手段と、
    表示された前記物体情報のうちいずれかの前記物体情報の選択を受け付ける受付手段と、
    選択された前記物体情報に含まれる前記画像特定情報で特定される前記画像情報を前記映像記憶手段から取得する取得手段と、をさらに備え、
    前記表示手段は、さらに、取得された前記画像情報を表示すること、
    を特徴とする請求項1に記載の警備装置。
  4. 不審者の動作状態として予め定められた情報であって、前記不審者の動作に関連する名詞である格要素に関する条件を含む不審者情報を記憶する不審者情報記憶手段と、
    前記状態情報に含まれる格要素が前記不審者情報に含まれる前記条件を満たす前記状態情報を前記状態情報記憶手段から取得し、取得した前記状態情報によって動作状態が表される前記物体を不審者であると判定する判定手段と、をさらに備え、
    前記保存手段は、判定手段による判定結果を前記格要素として含む前記状態情報を生成して前記状態情報記憶手段に保存すること、
    を特徴とする請求項1に記載の警備装置。
  5. 前記生成手段は、物体が不審者であることを表す判定結果を前記格要素として含む前記状態情報が含まれるグループに対して、不審者であることを表す判定結果を含む前記物体情報を生成すること、
    を特徴とする請求項4に記載の警備装置。
  6. 不審者の動作状態を記憶する不審動作記憶手段と、
    表示された前記物体情報に対応する物体の動作状態のうち、不審者の動作状態として登録する動作状態の選択を受け付け、選択された動作状態を前記不審動作記憶手段に保存する受付手段と、をさらに備えたこと、
    を特徴とする請求項4に記載の警備装置。
  7. 前記生成手段は、連続する前記時刻の範囲内での前記物体の特徴を表す特徴情報を含む前記物体情報を生成し、
    不審者の特徴を表す特徴情報を記憶する特徴記憶手段と、
    表示された前記物体情報のうち、不審者として登録する物体に対応する前記物体情報の選択を受け付け、選択された物体情報に含まれる特徴情報を前記特徴記憶手段に保存する受付手段と、をさらに備えたこと、
    を特徴とする請求項1に記載の警備装置。
  8. 前記特徴記憶手段は、前記特徴情報と不審者に対する威嚇方法とを対応づけて記憶し、
    前記受付手段は、さらに、不審者として登録する物体に対する威嚇方法を受け付け、選択された前記物体情報に含まれる特徴情報に対して、受け付けられた威嚇方法を対応づけて前記特徴記憶手段に保存すること、
    を特徴とする請求項7に記載の警備装置。
  9. 前記特徴記憶手段は、前記特徴情報と不審者が検出されたことを通報する通報先とを対応づけて記憶し、
    前記受付手段は、さらに、不審者として登録する物体が検出されたことを通報する通報先を受け付け、選択された前記物体情報に含まれる特徴情報に対して、受け付けられた通報先を対応づけて前記特徴記憶手段に保存すること、
    を特徴とする請求項7に記載の警備装置。
  10. 前記保存手段は、前記物体の位置情報を前記格要素として含む前記状態情報を生成して前記状態情報記憶手段に保存し、
    前記生成手段は、さらに、前記時刻と前記位置情報とに基づいて、前記位置情報の時間変化を表す前記物体の移動経路情報を生成し、
    前記表示手段は、さらに、生成された前記移動経路情報を表示すること、
    を特徴とする請求項1に記載の警備装置。
  11. 他の警備装置で生成された前記物体情報である外部物体情報を前記他の警備装置から受信する受信手段をさらに備え、
    前記表示手段は、さらに受信した前記外部物体情報を表示すること、
    を特徴とする請求項1に記載の警備装置。
  12. 警備装置で実行される情報表示方法であって、
    前記警備装置は、物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と、前記物体の識別情報および前記動作の時刻を含む、前記動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を記憶可能な状態情報記憶手段を備え、
    保存手段が、撮像手段によって撮像された物体の画像情報を解析し、物体の動作状態と、物体の識別情報および物体の動作の時刻とを検出し、検出した動作状態を表す前記状態情報であって、検出した識別情報および時刻を前記格要素として含む前記状態情報を生成して前記状態情報記憶手段に保存する保存ステップと、
    生成手段が、前記状態情報記憶手段に記憶された前記状態情報を、前記識別情報ごとに前記時刻が連続するか否かによってグループに分類し、分類したグループごとに、連続する前記時刻の範囲内での前記物体の動作状態を表す物体情報を生成する生成ステップと、
    表示制御手段が、生成された前記物体情報を表示手段に表示する表示制御ステップと、
    を備えたことを特徴とする情報表示方法。
JP2008103474A 2008-04-11 2008-04-11 警備装置および情報表示方法 Pending JP2009252215A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008103474A JP2009252215A (ja) 2008-04-11 2008-04-11 警備装置および情報表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008103474A JP2009252215A (ja) 2008-04-11 2008-04-11 警備装置および情報表示方法

Publications (1)

Publication Number Publication Date
JP2009252215A true JP2009252215A (ja) 2009-10-29

Family

ID=41312810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008103474A Pending JP2009252215A (ja) 2008-04-11 2008-04-11 警備装置および情報表示方法

Country Status (1)

Country Link
JP (1) JP2009252215A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011216949A (ja) * 2010-03-31 2011-10-27 Mitsubishi Electric Corp 監視映像装置
JP2014026506A (ja) * 2012-07-27 2014-02-06 Retail-Support Co Ltd 防犯装置、システム、方法、及びコンピュータプログラム
JP2014099739A (ja) * 2012-11-14 2014-05-29 Panasonic Corp 映像監視システム
JP2014215756A (ja) * 2013-04-24 2014-11-17 トヨタホーム株式会社 ホームセキュリティシステム
JP2016045654A (ja) * 2014-08-21 2016-04-04 日本システム開発株式会社 利用者識別装置、利用者識別方法及びコンピュータプログラム
JP2016165157A (ja) * 2016-06-14 2016-09-08 パナソニックIpマネジメント株式会社 映像監視システム
JP2018101317A (ja) * 2016-12-21 2018-06-28 ホーチキ株式会社 異常監視システム
JP2018107597A (ja) * 2016-12-26 2018-07-05 日本電気株式会社 インターホンシステム
JP2019506777A (ja) * 2015-12-21 2019-03-07 アマゾン・テクノロジーズ・インコーポレーテッド オーディオビデオ記録および通信装置からのビデオ映像の共有
JP2019087932A (ja) * 2017-11-09 2019-06-06 日本電気株式会社 情報処理システム
JP2019216424A (ja) * 2015-03-19 2019-12-19 日本電気株式会社 監視システム及び監視方法
WO2020148889A1 (ja) * 2019-01-18 2020-07-23 日本電気株式会社 情報処理装置
JP2020522828A (ja) * 2017-04-28 2020-07-30 チェリー ラボ,インコーポレイテッド コンピュータービジョンベースの監視システムおよび方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11150677A (ja) * 1997-11-19 1999-06-02 Ntt Data Corp 撮影装置、及び撮影装置を備える移動体の検出システム
JP2002344946A (ja) * 2001-05-16 2002-11-29 Oki Electric Ind Co Ltd 監視装置
JP2003087771A (ja) * 2001-09-07 2003-03-20 Oki Electric Ind Co Ltd 監視システム及び方法
JP2005005782A (ja) * 2003-06-09 2005-01-06 Hitachi Kokusai Electric Inc 監視システム
JP2005149478A (ja) * 2003-10-20 2005-06-09 Hitachi Ltd 監視システム
JP2007074338A (ja) * 2005-09-07 2007-03-22 Matsushita Electric Ind Co Ltd ネットワークカメラ防犯システム及びそのネットワークカメラ選択方法
JP2008052683A (ja) * 2006-08-28 2008-03-06 Tokyo Metropolitan Univ 不審者判別システム及びプロファイル配布システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11150677A (ja) * 1997-11-19 1999-06-02 Ntt Data Corp 撮影装置、及び撮影装置を備える移動体の検出システム
JP2002344946A (ja) * 2001-05-16 2002-11-29 Oki Electric Ind Co Ltd 監視装置
JP2003087771A (ja) * 2001-09-07 2003-03-20 Oki Electric Ind Co Ltd 監視システム及び方法
JP2005005782A (ja) * 2003-06-09 2005-01-06 Hitachi Kokusai Electric Inc 監視システム
JP2005149478A (ja) * 2003-10-20 2005-06-09 Hitachi Ltd 監視システム
JP2007074338A (ja) * 2005-09-07 2007-03-22 Matsushita Electric Ind Co Ltd ネットワークカメラ防犯システム及びそのネットワークカメラ選択方法
JP2008052683A (ja) * 2006-08-28 2008-03-06 Tokyo Metropolitan Univ 不審者判別システム及びプロファイル配布システム

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011216949A (ja) * 2010-03-31 2011-10-27 Mitsubishi Electric Corp 監視映像装置
JP2014026506A (ja) * 2012-07-27 2014-02-06 Retail-Support Co Ltd 防犯装置、システム、方法、及びコンピュータプログラム
JP2014099739A (ja) * 2012-11-14 2014-05-29 Panasonic Corp 映像監視システム
US9779308B2 (en) 2012-11-14 2017-10-03 Panasonic Intellectual Property Management Co., Ltd. Video monitoring system
JP2014215756A (ja) * 2013-04-24 2014-11-17 トヨタホーム株式会社 ホームセキュリティシステム
JP2016045654A (ja) * 2014-08-21 2016-04-04 日本システム開発株式会社 利用者識別装置、利用者識別方法及びコンピュータプログラム
JP2019216424A (ja) * 2015-03-19 2019-12-19 日本電気株式会社 監視システム及び監視方法
JP7111422B2 (ja) 2015-03-19 2022-08-02 日本電気株式会社 監視システム及び監視方法
JP2019506777A (ja) * 2015-12-21 2019-03-07 アマゾン・テクノロジーズ・インコーポレーテッド オーディオビデオ記録および通信装置からのビデオ映像の共有
JP2016165157A (ja) * 2016-06-14 2016-09-08 パナソニックIpマネジメント株式会社 映像監視システム
JP2018101317A (ja) * 2016-12-21 2018-06-28 ホーチキ株式会社 異常監視システム
JP2018107597A (ja) * 2016-12-26 2018-07-05 日本電気株式会社 インターホンシステム
JP2020522828A (ja) * 2017-04-28 2020-07-30 チェリー ラボ,インコーポレイテッド コンピュータービジョンベースの監視システムおよび方法
JP7075034B2 (ja) 2017-11-09 2022-05-25 日本電気株式会社 情報処理システム
JP2022111124A (ja) * 2017-11-09 2022-07-29 日本電気株式会社 情報処理システム
JP2019087932A (ja) * 2017-11-09 2019-06-06 日本電気株式会社 情報処理システム
WO2020148889A1 (ja) * 2019-01-18 2020-07-23 日本電気株式会社 情報処理装置
JPWO2020148889A1 (ja) * 2019-01-18 2021-10-14 日本電気株式会社 情報処理装置
JP7151789B2 (ja) 2019-01-18 2022-10-12 日本電気株式会社 情報処理装置

Similar Documents

Publication Publication Date Title
JP2009252215A (ja) 警備装置および情報表示方法
CN105794191B (zh) 识别数据传输装置及方法和识别数据记录装置及方法
JP5674406B2 (ja) 自律移動体を用いた監視システム、監視装置、自律移動体、監視方法、及び監視プログラム
JP5523900B2 (ja) 人物検索装置、人物検索方法、及び人物検索プログラム
US10019877B2 (en) Apparatus and methods for the semi-automatic tracking and examining of an object or an event in a monitored site
JP5730518B2 (ja) 特定人物検知システムおよび特定人物検知方法
KR102237086B1 (ko) 안면인식 기능에 기초하여 5g 이동통신망의 이용이 가능한 통신 단말기를 통해 영상감시가 가능한 로비폰 제어 장치 및 방법
JP5590945B2 (ja) 人物検索装置、人物検索方法、及び人物検索プログラム
CN104205127A (zh) 基于识别的安全性
KR101981900B1 (ko) 얼굴 인식 기술을 이용한 안전 관리 시스템 및 그 방법
JP2013101431A (ja) 類似画像検索システム
JP2010128594A (ja) 動作検出装置および動作検出方法
KR102011226B1 (ko) 얼굴 인식을 이용한 보안 관리 시스템 및 그 방법
WO2023280273A1 (zh) 一种控制方法和系统
JPWO2020136795A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2008141386A (ja) 監視システム
CN108351965B (zh) 视频摘要的用户界面
CN111757049A (zh) 一种安防联动方法、装置及系统
JP2009205594A (ja) 警備装置および不審者判定方法
KR20120113014A (ko) 영상인식장치 및 그 영상 감시방법
JP2006093955A (ja) 映像処理装置
CN113920660B (zh) 适用于安全存储设备的安全监控方法及系统
JP2024045460A (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP6485978B2 (ja) 画像処理装置および画像処理システム
JP5826513B2 (ja) 類似画像検索システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130115