JP5091095B2 - 動作検出装置および動作検出方法 - Google Patents

動作検出装置および動作検出方法 Download PDF

Info

Publication number
JP5091095B2
JP5091095B2 JP2008299955A JP2008299955A JP5091095B2 JP 5091095 B2 JP5091095 B2 JP 5091095B2 JP 2008299955 A JP2008299955 A JP 2008299955A JP 2008299955 A JP2008299955 A JP 2008299955A JP 5091095 B2 JP5091095 B2 JP 5091095B2
Authority
JP
Japan
Prior art keywords
action
state information
case
information
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008299955A
Other languages
English (en)
Other versions
JP2010128594A (ja
Inventor
拓雄 森口
健宏 馬渕
聡 二見
正貴 村川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SOHGO SECURITY SERVICES CO.,LTD.
Original Assignee
SOHGO SECURITY SERVICES CO.,LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SOHGO SECURITY SERVICES CO.,LTD. filed Critical SOHGO SECURITY SERVICES CO.,LTD.
Priority to JP2008299955A priority Critical patent/JP5091095B2/ja
Publication of JP2010128594A publication Critical patent/JP2010128594A/ja
Application granted granted Critical
Publication of JP5091095B2 publication Critical patent/JP5091095B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

この発明は、カメラなどの撮像手段により撮像された画像情報から人物などの物体の動作を検出する動作検出装置および動作検出方法に関する。
従来から、監視カメラ等で撮影した画像を分析して、人物などの監視対象物の行動を認識する認識装置が知られている。例えば、特許文献1では、ステレオカメラで撮影した映像から、SVM(サポートベクタマシーン)などのパターン認識技術を用いて正常パターンか異常パターンかを判定することにより、複数の監視対象の中から不審な行動をしている監視対象を検出する技術が提案されている。
特開2008−217602号公報
しかしながら、特許文献1の方法は、学習した歩行軌跡データを用いることにより、例えば複数人の歩行軌跡情報からパターン認識により異常な行動(歩行軌跡)を検出するものである。すなわち、複数人の歩行軌跡のそれぞれが正常か異常かを判定するのみである。このため、例えば、複数人が共謀して不正行為を行っている場合などでは、個々の人物の歩行軌跡のパターン認識のみでは高精度に行動を検出することができず、結果として異常な行動であると判定できない場合があった。
本発明は、上記に鑑みてなされたものであって、複数の物体の情報を用いることにより、高精度に物体の動作を検出することができる動作検出装置および動作検出方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、請求項1にかかる発明は、物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を記憶する状態記憶手段と、前記状態記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態取得手段と、取得された複数の前記状態情報それぞれに含まれる前記動詞の組み合わせに応じた物体の動作を予め定めた規則に基づいて、前記組み合わせに対応する物体の動作を検出する検出手段と、を備え、前記状態情報は、前記動作の主体となる物体を表す主格と、前記主格による前記動作の対象となる他の物体を表す対象格と、を前記格要素として含み、前記規則は、前記主格による前記動作の種類を表す前記動詞と前記対象格を主体とする前記動作の種類を表す前記動詞との組み合わせ、および、前記組み合わせに応じて定められた前記動作を含み、前記検出手段は、取得された複数の前記状態情報のうち、一方の前記状態情報である第1状態情報の前記対象格と他方の前記状態情報である第2状態情報の前記主格とが一致し、前記第1状態情報の前記動詞と前記第2状態情報の前記動詞との組み合わせが前記規則に含まれる前記組み合わせに一致する場合に、一致した前記組み合わせに対応する前記動作を検出すること、を特徴とする。
また、請求項2にかかる発明は、請求項1に記載の動作検出装置において、前記状態情報は、前記格要素として前記物体の動作が発生した時刻を含み、前記状態取得手段は、前記状態記憶手段から、前記時刻が略同一である複数の前記状態情報を取得すること、を特徴とする。
また、請求項3にかかる発明は、請求項1に記載の動作検出装置において、前記状態情報は、さらに、前記動作が生じた位置を表す場所格と、を前記格要素として含み、前記規則は、さらに、第1物体の前記動作の種類を表す前記動詞と第2物体の前記動作の種類を表す前記動詞との組み合わせ、および、前記組み合わせに応じて定められた前記動作を含み、前記検出手段は、さらに、取得された複数の前記状態情報のうち、一方の前記状態情報である第1状態情報の前記場所格と他方の前記状態情報である第2状態情報の前記場所格とが一致し、前記第1状態情報の前記動詞と前記第2状態情報の前記動詞との組み合わせが前記規則に含まれる前記組み合わせに一致する場合に、一致した前記組み合わせに対応する前記動作を検出すること、を特徴とする。
また、請求項4にかかる発明は、請求項1に記載の動作検出装置において、記検出手段は、さらに、取得された複数の前記状態情報のうち、前記状態情報に含まれる前記動詞が予め定められた特定動詞と一致し、かつ、前記状態情報に含まれる前記対象格が相互に一致する前記状態情報の個数を算出し、前記個数が予め定められた閾値より大きい場合に、異常が発生したことを検出すること、を特徴とする。
また、請求項5にかかる発明は、請求項1に記載の動作検出装置において、不審者の動作状態として予め定められた情報であって、前記不審者の動作の種類を表す動詞と、前記不審者の動作に関連する名詞である格要素に関する条件とを含む不審者情報を記憶する不審者情報記憶手段と、検出された前記動作を表す動詞が前記不審者情報に含まれる動詞と一致し、かつ、検出された前記動作に関連する格要素が前記不審者情報に含まれる前記条件を満たす前記動作の主体である前記物体を不審者であると判定する判定手段と、をさらに備えたこと、を特徴とする。
また、請求項6にかかる発明は、状態取得手段が、物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を記憶する状態記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態取得ステップと、検出手段が、取得された複数の前記状態情報それぞれに含まれる前記動詞の組み合わせに応じた物体の動作を予め定めた規則に基づいて、前記組み合わせに対応する物体の動作を検出する検出ステップと、を含み、前記状態情報は、前記動作の主体となる物体を表す主格と、前記主格による前記動作の対象となる他の物体を表す対象格と、を前記格要素として含み、前記規則は、前記主格による前記動作の種類を表す前記動詞と前記対象格を主体とする前記動作の種類を表す前記動詞との組み合わせ、および、前記組み合わせに応じて定められた前記動作を含み、前記検出ステップは、取得された複数の前記状態情報のうち、一方の前記状態情報である第1状態情報の前記対象格と他方の前記状態情報である第2状態情報の前記主格とが一致し、前記第1状態情報の前記動詞と前記第2状態情報の前記動詞との組み合わせが前記規則に含まれる前記組み合わせに一致する場合に、一致した前記組み合わせに対応する前記動作を検出すること、特徴とする。
本発明によれば、予め定められた規則に基づき、複数の物体それぞれの動作状態を表す複数の状態情報に含まれる各物体の動作の種類を表す動詞の組み合わせに応じた物体の動作を検出することができるため、高精度に物体の動作を検出することができるという効果を奏する。
以下に添付図面を参照して、この発明にかかる動作検出装置および動作検出方法の最良な実施の形態を詳細に説明する。
本実施の形態にかかる動作検出装置は、監視カメラで撮像した画像情報から、監視対象物である人物の行動(動作状態)を解析し、解析結果を深層格フレーム構造で表して記憶部に保存する。そして、記憶部に保存した深層格フレームを相互に比較することによって、さらに人物の行動を検出する。具体的には、同時刻に発生した複数人物の行動の組み合わせが、事前に定めた組み合わせに一致する場合に、当該組み合わせに応じた所定の行動が発生したことを検出する。
なお、以下では、監視カメラや各種センサからの情報を用いて所定領域を警備する警備装置として動作検出装置を実現した例について説明する。適用可能な装置は警備装置に限られず、画像情報を解析して物体の動作を検出する機能を備える装置であればあらゆる装置に適用できる。
本実施の形態について、添付図面を参照して説明する。まず、本実施の形態が適用される監視システムの構成例について説明する。図1は、本実施の形態にかかる監視システム10の構成を示すブロック図である。図1に示すように、監視システム10は、警備装置100と監視センタ200とを備えている。警備装置100と監視センタ200は、電話回線、無線ネットワーク、インターネットなどのネットワーク300を介して接続されている。
監視センタ200は、監視領域の異常を検知した警備装置100からの通報を受け、待機中の警備員に対して異常が検知された監視領域(不図示)へ向かう旨の指示を出すとともに、必要に応じて警察や消防等の関係機関への通報を行う。
警備装置100は、センサ110と、監視カメラ120と、警備操作部130とを備えている。
センサ110は、警備対象である監視領域に設置されており、主に侵入者等の異常を検知する目的で設置された人感センサである。センサ110は、人の存在や扉の開閉を検知した場合に検知信号を出力する。センサ110は、例えば赤外線の受光量の変化をもとに人の存在を検出する赤外線センサ、赤外線等の受信が遮断されることで人の存在を検出する遮断センサ、電磁波の乱れで人の存在を検知する電波センサ、およびマグネットにより扉の開閉を検出するマグネットセンサなどの監視領域の異常を検出する各種センサによって構成できる。
監視カメラ120は、警備対象である監視領域を撮像する。監視カメラ120は、主に監視領域である住居の出入口付近や敷地内への出入口付近に設置されている。
次に、警備操作部130について説明する。警備操作部130は、検知情報受信部131と、画像情報取得部132と、警備状態切替部133と、操作パネル制御部134と、操作パネル135と、送受信部136と、警備状態記憶部137と、第1検出部138と、状態取得部139と、第2検出部140と、不審者判定部141と、HDD(Hard Disk Drive)150と、を備えている。
検知情報受信部131は、センサ110によって異常が検知された場合に送出される検知情報を受信する。検知情報は、センサ110から送出される検知信号である。センサ110が複数設置されている場合、検知情報は検知信号およびセンサ110を識別するセンサIDを含む。画像情報取得部132は、監視カメラ120によって撮像された画像情報を取得する。
警備状態切替部133は、操作パネル制御部134によって受付けた警備状態を警備状態記憶部137に格納する。
警備状態記憶部137は、現在の警備装置100の警備状態である警備モードまたは警備解除モードのいずれかを記憶する。なお、警備状態記憶部137は、ハードディスク、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶媒体により構成することができる。
ここで、警備モードとは、センサ110が異常を検知して検知情報を取得した場合に、警備領域での異常を知らせる警報情報をネットワーク300で接続されている監視センタ200に送信する状態をいう。また、警備解除モードとは、上記検知情報を取得した場合でも異常を知らせる警報情報を監視センタ200に送信しない状態をいう。
操作パネル135は、警備装置100に関する情報が表示され、警備装置100に対して情報が入力される。操作パネル135は、ボタンの押下等によって警備モードまたは警備解除モードのいずれかの警備状態を入力する。操作パネル制御部134は、操作パネル135への表示情報の出力や、操作パネル135から入力された入力情報の取得等の操作パネル135に対する制御を行う。
送受信部136は、ネットワーク300を介して監視センタ200との間で各種情報を送受信する。例えば、送受信部136は、監視カメラ120が撮像した画像情報を監視センタ200に送信する。また、送受信部136は、センサ110から検知情報を受信した場合で、かつ警備状態記憶部137に記憶された現在の警備状態に警備モードが記憶されている場合に、警報情報を監視センタ200に送信する。
HDD150は、物体の動作検出に関する各種データを記憶する。具体的には、HDD150は、状態情報DB(データベース)151と、規則DB152と、不審者情報DB153と、を格納している。なお、各DBを、光ディスク、メモリカードなどのHDD150以外の記憶媒体に格納するように構成してもよい。
なお、第1検出部138、第2検出部140、HDD150等を監視センタ200に設け、センサ110や監視カメラ120で得られた情報を監視センタ200に送り、動作検出を監視センタで行うように構成してもよい。
状態情報DB151は、物体の動作状態を深層格フレーム構造で表した状態情報を記憶する。深層格フレーム(以下、単に格フレームとも言う)とは、動詞を基準として、動詞に対する名詞の意味関係を深層格として表した言語構造をいう。
図2は、状態情報DB151に記憶される状態情報のデータ構造の一例を示す図である。図2に示すように、状態情報は、格フレームを識別する格フレームIDと、動作(行動)の種類を表す行動名と、動作に関連する名詞である格要素(深層格)とを含んでいる。深層格には、主格、属性格、場所格、時間格、源泉格、目標格、対象格、および道具格が含まれる。
主格は、動作を引き起こす主体を表す。属性格は、主格に関する情報をいう。例えば、属性格は、身長高、体型、上半身色、下半身色、頭色、顔情報、および歩容情報等を含む。
顔情報および歩容情報は、さらに詳細な要素に分けられる。例えば、顔情報は、顔の特徴を表す顔特徴、視線方向、マスクの有無、サングラスの有無、性別、および年代などの要素を含む。また、歩容情報は、歩幅、姿勢、脚長、および歩速などの要素を含む。
場所格は、動作や状態が起こる場所を表す。例えば、場所格は、頭部位置、体位置、手位置、顔位置、および脚部位置等を含む。
時間格は、動作や状態が起こる時間を表す。例えば、時間格は、現在時刻を表す時刻、動作が開始された時刻を表す動作開始時刻、動作が終了した時刻を表す動作終了時刻、および動作が発生した年月日等を表す。
源泉格は、移動や状態変化などの起点を表す。例えば、源泉格は、主格が移動や動作等を行う起点の位置を表す場所情報、および起点での主格の属性を表す属性情報を含む。
目標格は、移動や状態変化などの終点を表す。例えば、目標格は、主格が移動や動作等を行う終点の位置を表す場所情報、および終点での主格の属性を表す属性情報を含む。
対象格は、動作や状態の対象となる事物を表す。対象格は、固有の識別情報である対象ID、および固有の情報である属性情報を含む。
道具格は、動作の補助的手段を表す。道具格は、固有の識別情報である道具ID、および固有の情報である属性情報を含む。
なお、利用できる深層格はこれらに限られず、例えば精神的事象の経験者を表す経験者格などの、その他のあらゆる深層格を用いることができる。
図3は、状態情報DB151に記憶される状態情報の具体例を示す図である。図3は、人物A(主格)が、「しゃがむ」という行動を検出したときに生成される状態情報の一例を示している。この場合、属性格には、人物Aの身長高、体型などの具体的な値が設定される。また、場所格および時間格には、それぞれ人物Aがしゃがんだときの位置や時刻に関する具体的な値が設定される。
図1に戻り、規則DB152は、後述する第2検出部140が、状態情報DB151に保存された格フレームを比較して動作を検出するときに参照する行動検出規則を記憶する。図4は、規則DB152に記憶される行動検出規則のデータ構造の一例を示す図である。
図4に示すように、行動検出規則は、比較元となる情報であって、時間的に前の状態情報である前格フレームと、比較先となる情報であって、時間的に後の状態情報である後格フレームと、その他の条件と、検出される状態情報とを対応づけた形式となっている。
前格フレームおよび後格フレームは、それぞれ行動名と格情報とを含んでいる。格情報には、比較すべき少なくとも1つの深層格を設定する。
前格フレームおよび後格フレームは、2つの格フレームが差異を有するパターンを表す情報(差分情報)に相当する。すなわち、ある2つの格フレームが、それぞれ前格フレームと後格フレームとで設定された行動名および格情報と適合するとき、この2つの格フレーム間には差異が存在すると判断される。例えば、図4では、ある格フレーム(格フレーム1)の行動名が「存在する」、場所格に含まれる体位置が「A」であり、他の格フレーム(格フレーム2)の行動名が「存在する」、場所格に含まれる体位置が「B」であるとき、格フレーム1と格フレーム2との間には差分が存在すると判断される。そして、差分が存在すると判断された場合、差分に対応する行動として、「検出される状態情報」欄に記載された行動名の行動が検出される。
その他の条件には、必要に応じて、比較する状態情報が満たすべき条件が設定される。例えば、同図の行動名「しゃがむ」の行動を検出する行動検出規則では、前格フレームに含まれる頭部位置Bと、後格フレームに含まれる頭部位置Cとが、B>Cの関係を満たすことが条件として設定されている。
検出される状態情報は、検出される行動の行動名と、保存すべき少なくとも1つの深層格を表す格情報とを含んでいる。同図では、例えば、行動名「移動する」の行動が検出された場合は、前格フレームに含まれる体位置Aおよび後格フレームに含まれる体位置Bを、それぞれ検出した行動に対応する格フレームの源泉格の体位置Aおよび目標格の体位置Bとして保存する例が示されている。
なお、行動検出規則は同図に示す形式に限られるものではなく、複数の状態情報間の差分に応じて予め定められた行動を決定可能なものであればあらゆる形式の規則を適用できる。
図5は、検出される行動間の遷移関係を表す図である。具体的には、図5は、画像情報から検出される行動と、状態情報DB151に保存された状態情報を比較し、行動検出規則によって検出される行動との関係を表している。同図の楕円は、検出される行動名の一例を表している。また、楕円間の矢印に付された文字列は、ある行動から他の行動を検出するための状態情報間の差分の基準を表している。
なお、この基準は、図4の規則DB152に記憶された行動検出規則に対応する。例えば、「位置座標の変異」という基準は、図4では行動名「移動する」を検出する最初の行動検出規則に対応する。すなわち、例えば同図の行動名501(存在する)に対応する複数の状態情報を比較することにより、「位置座標の変異」という差分が検出された場合は、「移動する」という行動名の行動が新たに検出される。
なお、図5の行動名501〜504は、後述する第1検出部138によって画像情報から検出される行動名を表している。それ以外の行動名は、後述する第2検出部140によって、行動検出規則を用いて検出される行動名を表している。また、同図の行動名511〜513は、他の行動へ派生しない行動名を表している。すなわち、この状態に達した場合は、同図の遷移から離脱することを意味する。
本実施の形態では、さらに、規則DB152が、複数の物体(人物)の状態情報の組み合わせに応じた動作を検出するときに参照する行動検出規則を記憶する。以下では、このように複数の物体の状態から動作を検出するための行動検出規則を、状況把握規則という。図6は、状況把握規則のデータ構造の一例を示す図である。
図6に示すように、状況把握規則は、ある人物Aに関する情報と、他の人物Bに関する情報と、その他の条件と、検出される状態情報とを対応づけた形式となっている。
人物Aに関する情報および人物Bに関する情報は、それぞれ行動名と格情報とを含んでいる。格情報には、各人物が満たすべき深層格の条件を設定する。
ある2人の人物それぞれに対応する2つの格フレームが、それぞれ人物Aに関する情報と人物Bに関する情報とで設定された行動名および格情報に適合するとき、「検出される状態情報」欄に記載された行動名の行動が検出される。
その他の条件には、必要に応じて、比較する状態情報が満たすべき条件が設定される。例えば、同図の行動名「脅す」の行動を検出する状況把握規則では、行動名「見る」の格フレームが存在し、その格フレームの主格および対象格がそれぞれ人物Aおよび人物Bであるという条件が設定されている。
検出される状態情報は、検出される行動の行動名と、保存すべき少なくとも1つの深層格を表す格情報とを含んでいる。同図では、例えば、行動名「脅す」の行動が検出された場合は、人物Bを検出した行動に対応する格フレームの対象格として保存する例が示されている。
なお、状況把握規則は同図に示す形式に限られるものではなく、複数人の行動を表す状態情報の組み合わせに応じて予め定められた行動を決定可能なものであればあらゆる形式の規則を適用できる。また、同図では2人の状態情報の組み合わせから行動を検出する規則が例示されているが、3人以上の状態情報の組み合わせから行動を検出する規則を用いてもよい。
複数人の行動の組み合わせとしては、例えば、犯罪行為等の被害者および加害者、または、異常な状況が発生するときの周囲の人物等の行動の組み合わせなどを想定する。そして、このような複数人の行動の組み合わせが発生したときに予測される行動を検出される状態情報に設定した状況把握規則を定める。
例えば、同図の1行目および2行目は、人物Aを加害者、人物Bを被害者としたときの状況に対応する状況把握規則を表している。また、同図の3行目は、複数人の行動の組み合わせから不審行動を検出する状況把握規則を表している。このような規則を用いることにより、例えば個々の人物の行動が不審行動と思われるが不審と断定できない場合であっても、他の人物の行動と同時に発生していることを条件として不審行動であると判断することが可能となる。
図1に戻り、不審者情報DB153は、不審者の動作状態を表す行動パターンとして予め定められた不審者情報を記憶する。図7は、本実施の形態の不審者情報DB153に記憶された不審者情報のデータ構造の一例を示す図である。図7に示すように、不審者情報は、不審者の動作の種類を表す行動名と、不審者の動作に関連する深層格(格情報)と、当該深層格が満たすべき条件とを含んでいる。
同図の網掛け部は、行動名が「きょろきょろする」である場合であって、かつ場所格の体位置が「玄関前」、すなわち、玄関前できょろきょろしている場合を不審者または不審行動として記憶している例を示している。
なお、不審者情報DB153に記憶される行動名や、深層格の種類等は、予めユーザによって記憶される。
図1に戻り、第1検出部138は、画像情報取得部132によって取得された画像情報を解析することにより、画像情報から物体の動作状態を検出する。また、第1検出部138は、検出した動作状態を表す状態情報を生成して状態情報DB151に保存する。
第1検出部138は、例えば画像情報から人物領域を抽出することにより、人物が「存在する」という動作状態を検出する。また、第1検出部138は、検出した人物の視線方向を検出することにより、当該人物の「見る」という動作状態を検出する。また、第1検出部138は、人物以外の他の物体を画像情報から抽出し、抽出した物体が新たに現れた場合には「取り出す」という動作状態を、抽出した物体が以前から存在し、人物の手の位置と重なった場合には「触る」という動作状態を検出する。
なお、第1検出部138が人物または物体を抽出する方法としては、連続する画像情報の背景を比較することにより抽出した変動領域を人物領域とする方法や、人物パターンまたは物体パターンと照合することにより人物または物体を抽出する方法などの、従来から用いられているあらゆる方法を適用できる。また、第1検出部138が人物の視線方向を検出する方法としては、顔領域パターンと照合することにより顔領域を抽出するとともに視線方向を検出する方法などの従来から用いられているあらゆる方法を適用できる。
状態取得部139は、状態情報DB151から複数の状態情報を取得する。例えば、状態取得部139は、第1検出部138によって検出され、状態情報DB151に保存された状態情報のうち、時刻が連続する2つの状態情報を取得する。また、状態取得部139は、状態情報DB151に保存された状態情報のうち、同一時刻で主格が異なる2つの状態情報を取得する。前者は、図4の行動検出規則によって行動を検出するときに利用される。また、後者は、図6の状況把握規則によって行動を検出するときに利用される。なお、時刻は厳密に同一である必要はなく、誤差が所定の時間範囲内であれば略同一の時刻と判断するように構成してもよい。
第2検出部140は、時刻が連続する2つの状態情報が規則DB152に保存された行動検出規則に適合するか否かを判定することによって、新たな行動を検出する。
具体的には、第2検出部140は、状態取得部139によって取得された時刻が連続する2つの状態情報の行動名および格情報が一致する行動検出規則を規則DB152から取得する。そして、第2検出部140は、行動検出規則が取得できた場合に、行動検出規則で定められた行動を新たな行動として検出する。
また、第2検出部140は、同一時刻で主格が異なる2つの状態情報が規則DB152に保存された状況把握規則に適合するか否かを判定することによって、新たな行動を検出する。
具体的には、第2検出部140は、状態取得部139によって取得された同一時刻で主格が異なる2つの状態情報の行動名および格情報が一致する状況把握規則を規則DB152から取得する。そして、第2検出部140は、状況把握規則が取得できた場合に、状況把握規則で定められた行動を新たな行動として検出する。
不審者判定部141は、不審者情報DB153に記憶されている不審者情報に適合する状態情報を状態情報DB151から検索することにより、不審者の有無を判定する。具体的には、不審者判定部141は、状態情報DB151に記憶されている状態情報のうち、状態情報の行動名が不審者情報の行動名と一致し、かつ状態情報の格要素のうち不審者情報の格情報に記載された格要素が不審者情報の条件を満たす状態情報を検索する。そして、不審者判定部141は、条件を満たす状態情報の主格である人物が不審者であると判定する。
次に、このように構成された本実施の形態にかかる警備装置100による画像からの動作検出処理について図8を用いて説明する。画像からの動作検出処理とは、監視カメラ120で撮影された画像情報から人物等の動作(行動)を検出する処理をいう。図8は、本実施の形態における画像からの動作検出処理の全体の流れを示すフローチャートである。
まず、画像情報取得部132は、監視カメラ120が撮影した画像情報を入力する(ステップS601)。次に、第1検出部138が、画像情報から人物領域を検出する(ステップS602)。次に、第1検出部138は、人物領域が検出されたか否かを判断する(ステップS603)。人物領域が検出されなかった場合は(ステップS603:NO)、次の画像情報を入力して処理を繰り返す(ステップS601)。
人物領域が検出された場合(ステップS603:YES)、第1検出部138は、行動名=「存在する」の格フレームを作成する(ステップS604)。なお、作成した格フレームの格フレームIDには、他の格フレームと重複しない値を割り当てる。
次に、第1検出部138は、検出した人物領域の各部位の検出位置を場所格へ格納する(ステップS605)。例えば、第1検出部138は、検出した人物領域に含まれる頭部、体、手、顔、および脚部の座標を算出し、それぞれ頭部位置、体位置、手位置、顔位置、および脚部位置として場所格に格納する。なお、人物領域の各部位は、部位ごとの照合パターンと照合して検出する方法などの従来から用いられているあらゆる方法により検出できる。
第1検出部138は、ステップS604〜ステップS605と並行して、人物同定処理(ステップS606〜ステップS607)、顔検出処理(ステップS608〜ステップS610)、体型判定処理(ステップS611〜ステップS612)、および歩容検出処理(ステップS613〜ステップS614)の各処理を実行する。なお、これらの各処理は必ずしも並行して処理する必要はなく、任意の順序で実行するように構成することができる。
人物同定処理では、第1検出部138は、抽出済みの人物領域と照合する方法などにより、抽出された人物を同定する(ステップS606)。そして、第1検出部138は、同定した人物に既に割り当てられているエージェントID(図2のAgtID)を、作成した格フレームの主格に格納する(ステップS607)。
顔検出処理では、第1検出部138は、顔領域パターンと照合する方法などによって顔領域を検出する(ステップS608)。また、第1検出部138は、照合結果に応じて、視線方向、マスクの有無、およびサングラスの有無などの顔情報を属性格に格納する(ステップS609)。視線方向が検出された場合は、第1検出部138は、行動名=「見る」の格フレームを作成する(ステップS610)。
体型判定処理では、第1検出部138は、照合した人物パターンに予め付与された体型を求める方法などにより、検出した人物の体型を判定する(ステップS611)。そして、第1検出部138は、判定した体型を、作成した格フレームの属性格に格納する(ステップS612)。
歩容検出処理では、第1検出部138は、主に検出した人物領域の脚部を解析することにより、歩速、歩幅、脚長、姿勢などの歩容情報を検出する(ステップS613)。歩速は、例えば連続する画像情報の脚部の位置を比較することにより算出することができる。そして、第1検出部138は、検出した歩容情報を、作成した格フレームの属性格に格納する(ステップS614)。
次に、第1検出部138は、画像情報から物体を検出する(ステップS615)。なお、物体検出処理は、人物領域検出処理(ステップS602)とともに実行してもよい。
次に、第1検出部138は、物体が検出されたか否かを判断する(ステップS616)。物体が検出された場合(ステップS616:YES)、第1検出部138は、物体が前の画像情報で検出されていたか否か、および物体と人物領域の位置関係に応じて、行動名=「触る」または「取り出す」の格フレームを作成する(ステップS617)。
具体的には、第1検出部138は、前の画像情報で検出された物体と照合することなどにより、物体が既に検出されていると判断でき、かつ、人物の手の位置と物体の位置とが重なると判断できる場合は、行動名=「触る」の格フレームを新たに作成する。また、第1検出部138は、未検出の物体が新たに検出されたと判断でき、かつ、人物の手の位置と物体の位置とが重なると判断できる場合は、行動名=「取り出す」の格フレームを新たに作成する。
ステップS616で物体が検出されなかったと判断された場合(ステップS616:NO)、またはステップS617で新たな格フレームを作成後、第1検出部138は、これまでに作成した格フレームを状態情報DBに保存し(ステップS618)、画像からの動作検出処理を終了する。
次に、本実施の形態にかかる警備装置100による状態情報からの動作検出処理について図9を用いて説明する。状態情報からの動作検出処理とは、状態情報DB151に保存されている状態情報から人物等の動作(行動)を検出する処理をいう。図9は、本実施の形態における状態情報からの動作検出処理の全体の流れを示すフローチャートである。
まず、状態取得部139は、状態情報DB151に保存されている状態情報である格フレームのうち、未処理の格フレーム(以下、第1格フレームという)を取得する(ステップS701)。次に、状態取得部139は、取得した第1格フレームと時間的に連続する格フレーム(以下、第2格フレームという)を状態情報DB151から取得する(ステップS702)。
次に、第2検出部140は、取得した2つの格フレームが満たす行動検出規則を規則DB152から検索する(ステップS703)。具体的には、第2検出部140は、第1格フレームおよび第2格フレームの行動名が、それぞれ行動検出規則の前格フレームおよび後格フレームの行動名と一致し、格情報が行動検出規則の格情報が表す条件を満たす行動検出規則を検索する。
例えば、第1格フレームおよび第2格フレームの行動名が共に「存在する」であり、第1格フレームの体位置(体位置Aとする)と、第2格フレームの体位置(体位置Bとする)とが異なる場合、図4に示すような規則DB152の最初の行動検出規則が検索される。
次に、第2検出部140は、行動検出規則が検索されたか否かを判断し(ステップS704)、検索された場合は(ステップS704:YES)、検索した行動検出規則の「検出される状態情報」に設定された行動名の格フレームを作成する(ステップS705)。
行動検出規則が検索されなかった場合(ステップS704:NO)、または、格フレームを作成後、第2検出部140は、未処理の格フレームが存在するか否かを判断する(ステップS706)。
未処理の格フレームが存在する場合(ステップS706:YES)、状態取得部139は、次の格フレームを取得して処理を繰り返す(ステップS701)。未処理の格フレームが存在しない場合は(ステップS706:NO)、状態情報からの動作検出処理を終了する。
このような処理により、画像情報からだけでなく、テキスト情報として保存した状態情報から、人物等の対象物の行動を検出することができる。このため、画像の分析のみによって監視対象物の動作を認識する従来の方法と比較して、動作検出処理の処理負荷を低減することが可能となる。
次に、本実施の形態にかかる警備装置100による状況把握処理について図10を用いて説明する。状況把握処理とは、状態情報DB151に保存されている複数人(物体)の状態情報から動作の状況を把握し、新たな人物等の動作(行動)を検出する処理をいう。図10は、本実施の形態における状況把握処理の全体の流れを示すフローチャートである。
まず、状態取得部139は、状態情報DB151に保存されている状態情報である格フレームのうち、未処理の格フレーム(以下、第1格フレームという)を取得する(ステップS1001)。次に、状態取得部139は、取得した第1格フレームと同時刻の他の格フレーム(以下、第2格フレームという)を状態情報DB151から取得する(ステップS1002)。
次に、第2検出部140は、複数人物の格フレームが取得されたか否か、すなわち、第1格フレームの主格と、第2格フレームの主格とが異なるか否かを判断する(ステップS1003)。複数人物の格フレームが取得された場合(ステップS1003:YES)、第2検出部140は、各人物の格フレームの行動名を取得する(ステップS1004)。
次に、第2検出部140は、行動名=「見る」の格フレームが存在するか否かを判断する(ステップS1005)。存在する場合(ステップS1005:YES)、第2検出部140は、行動名=「見る」の対象となる物体(人物)が一致する他の人物の人数を算出し、人数が所定の閾値より大きいか否かを判断する(ステップS1006)。例えば、第2検出部140は、第1格フレームまたは第2格フレームの対象格に設定された物体(人物)と同一物体(人物)が、行動名=「見る」の対象格に設定され、主格が異なる他の格フレームの個数を算出し、閾値と比較する。
人物数が閾値より大きい場合(ステップS1006:YES)、第2検出部140は、複数の人物が特定の人物に注目していることから、異常な状況が生じていると判断し、異常が発生したことを表す情報を出力する(ステップS1007)。
このように、本実施の形態によれば、複数人の状態情報から特定の人物の異常な行動を検出するだけでなく、複数人の状態情報から何らかの異常な状況が生じているということを検出することもできる。なお、上記例では、特定の対象を複数人が「見る」という行動が生じたときに異常と判断していたが、行動は「見る」に限られるものではなく、予め定められた特定の行動を対象として判断するように構成してもよい。この場合、特定の行動を表す特定の動詞が含まれる状態情報の個数を算出し、個数が所定の閾値より大きいか否かを判定すればよい。
人物数が閾値より大きくない場合(ステップS1006:NO)、第2検出部140は、第1格フレームおよび第2格フレームのうち、行動名=「見る」の格フレームの主格を人物A、対象格を人物Bとして取得する(ステップS1008)。そして、第2検出部140は、人物Aの格フレームおよび人物Bの格フレームが満たす状況把握規則を規則DB152から検索する(ステップS1009)。具体的には、第2検出部140は、人物Aの格フレームおよび人物Bの格フレームの行動名が、それぞれ状況把握規則の人物Aに関する情報および人物Bに関する情報の行動名と一致し、格情報が状況把握規則の格情報が表す条件を満たす状況把握規則を検索する。
例えば、人物Aの格フレームの行動名が「手を突き出す」であり、人物Bの格フレームの行動名が「手を上げる」であり、人物Aの格フレームの対象格が人物Bである場合、図6に示すような状況把握規則の最初の規則が検索される。
また、ステップS1005で、行動名=「見る」の格フレームが存在しないと判断された場合(ステップS1005:NO)、第2検出部140は、第1格フレームおよび第2格フレームが満たす状況把握規則を規則DB152から検索する(ステップS1010)。具体的には、第2検出部140は、第1格フレームおよび第2格フレームの行動名が、それぞれ状況把握規則の人物Aに関する情報および人物Bに関する情報の行動名と一致し、格情報が状況把握規則の格情報が表す条件を満たす状況把握規則を検索する。
例えば、第1格フレームの行動名が「移動する」であり、第2格フレームの行動名が「見回す」であり、第1格フレームおよび第2格フレームの場所格が表す地点が一致する(例えば地点A)場合、図6に示すような状況把握規則の3行目の規則が検索される。
次に、第2検出部140は、状況把握規則が検索されたか否かを判断し(ステップS1011)、検索された場合は(ステップS1011:YES)、検索した状況把握規則の「検出される状態情報」に設定された行動名の格フレームを作成する(ステップS1012)。
ステップS1003で複数人物の格フレームが取得されなかった場合(ステップS1003:NO)、ステップS1011で状況把握規則が検索されなかった場合(ステップS1011:NO)、または、格フレームを作成後、第2検出部140は、未処理の格フレームが存在するか否かを判断する(ステップS1013)。
未処理の格フレームが存在する場合(ステップS1013:YES)、状態取得部139は、次の格フレームを取得して処理を繰り返す(ステップS1001)。未処理の格フレームが存在しない場合は(ステップS1013:NO)、状況把握処理を終了する。
このような処理により、個々の物体(人物)の状態情報の差分(変異)から、個々の物体(人物)の状態情報を検出するだけでなく、複数の物体(人物)の状態情報から物体(人物)の行動の状況を把握し、行動(動作)をより高精度に検出することが可能となる。
次に、このように構成された本実施の形態にかかる警備装置100による不審者判定処理について図11を用いて説明する。図11は、本実施の形態における不審者判定処理の全体の流れを示すフローチャートである。
同図に示す各処理では、図7に示すような不審者情報DB153が、ユーザや監視センタ200によって予め記憶され、さらに操作パネル135等からユーザによって不審者判定を行うための指示がなされたものとする。
まず、不審者判定部141は、不審者情報DB153を参照して、記憶されている不審者情報を読み込む(ステップS1101)。そして、読み込んだ不審者情報をキーにして、その不審者情報を含む深層格フレームを状態情報DB151の中から検索する(ステップS1102)。
そして、状態情報DB151の中に、不審者情報を含む深層格フレームが存在するか否かを判定し(ステップS1103)、不審者情報を含む深層格フレームがないと判定した場合(ステップS1103:NO)、何もせずに次のステップに進む。
一方、不審者情報を含む深層格フレームが存在すると判定した場合(ステップS1103:YES)、その不審者情報を含む深層格フレームを操作パネル135に表示する(ステップS1104)。その後、不審者情報DB153に記憶されているすべての不審者情報の規則を参照したか否かを判定し(ステップS1105)、すべての不審者情報の規則を参照していないと判定した場合(ステップS1105:NO)、ステップS1101に戻り、以降の処理を繰り返す。一方、すべての不審者情報の規則を参照したと判定した場合(ステップS1105:YES)、不審者判定処理が終了する。
次に、複数人の状態情報の解析による不審者判定処理の具体例について図12〜図15を用いて説明する。図12は、この例で撮影された画像の一例を示す図である。同図では、右側の人物(人物Aとする)が、左側の人物(人物Bとする)に対して手を突き出し、人物Bが両手を挙げている状況の例が示されている。
図13および図14は、それぞれ図12の画像から検出された人物Aおよび人物Bの動作状態を表す格フレームの一例を示す図である。
図12の例では、人物Aが人物Bに対して、手を突き出している動作状態であることが記述されている。図14の例では、人物Bが手を上げている動作状態であることが記述されている。このような状態情報が検出された場合、第2検出部140は、図6に示すような状況把握規則の1行目の規則を適用することにより、人物Aが人物Bを脅しているという行動を検出することができる。
図15は、検出された行動名で図12の格フレームを更新した場合の例を示す図である。図15に示すように、図13で「手を突き出す」であった行動名が、「脅す」に変化している。なお、行動名を更新するのではなく、検出された新たな行動名の格フレームを作成して状態情報DB151に保存するように構成してもよい。
また、このような状態情報が検出された場合、不審者判定部141は、図7に示すような不審者情報DB153の6行目の不審者情報を適用することにより、行動名「脅す」の主格である人物Aを不審者として検出することができる。
このように、本実施の形態にかかる動作検出装置では、一人の行動の状態情報では判断できない異常行動および不審行動等を、複数人の状態情報を用いることにより、より的確に検出することができる。
なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。
本実施の形態にかかる監視システムの構成を示すブロック図である。 状態情報DBに記憶される状態情報のデータ構造の一例を示す図である。 状態情報DBに記憶される状態情報の具体例を示す図である。 規則DBに記憶される行動検出規則のデータ構造の一例を示す図である。 検出される行動間の遷移関係を表す図である。 状況把握規則のデータ構造の一例を示す図である。 不審者情報DBに記憶された不審者情報のデータ構造の一例を示す図である。 本実施の形態における画像からの動作検出処理の全体の流れを示すフローチャートである。 本実施の形態における状態情報からの動作検出処理の全体の流れを示すフローチャートである。 本実施の形態における状況把握処理の全体の流れを示すフローチャートである。 本実施の形態における不審者判定処理の全体の流れを示すフローチャートである。 撮影された画像の一例を示す図である。 図12の画像から検出された人物Aの動作状態を表す格フレームの一例を示す図である。 図12の画像から検出された人物Bの動作状態を表す格フレームの一例を示す図である。 検出された行動名で図12の格フレームを更新した場合の例を示す図である。
符号の説明
10 監視システム
100 警備装置
110 センサ
120 監視カメラ
130 警備操作部
131 検知情報受信部
132 画像情報取得部
133 警備状態切替部
134 操作パネル制御部
135 操作パネル
136 送受信部
137 警備状態記憶部
138 第1検出部
139 状態取得部
140 第2検出部
141 不審者判定部
150 HDD
151 状態情報DB
152 規則DB
153 不審者情報DB
200 監視センタ
300 ネットワーク
501〜504、511〜513 行動名

Claims (6)

  1. 物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を記憶する状態記憶手段と、
    前記状態記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態取得手段と、
    取得された複数の前記状態情報それぞれに含まれる前記動詞の組み合わせに応じた物体の動作を予め定めた規則に基づいて、前記組み合わせに対応する物体の動作を検出する検出手段と、を備え、
    前記状態情報は、前記動作の主体となる物体を表す主格と、前記主格による前記動作の対象となる他の物体を表す対象格と、を前記格要素として含み、
    前記規則は、前記主格による前記動作の種類を表す前記動詞と前記対象格を主体とする前記動作の種類を表す前記動詞との組み合わせ、および、前記組み合わせに応じて定められた前記動作を含み、
    前記検出手段は、取得された複数の前記状態情報のうち、一方の前記状態情報である第1状態情報の前記対象格と他方の前記状態情報である第2状態情報の前記主格とが一致し、前記第1状態情報の前記動詞と前記第2状態情報の前記動詞との組み合わせが前記規則に含まれる前記組み合わせに一致する場合に、一致した前記組み合わせに対応する前記動作を検出すること、
    特徴とする動作検出装置。
  2. 前記状態情報は、前記格要素として前記物体の動作が発生した時刻を含み、
    前記状態取得手段は、前記状態記憶手段から、前記時刻が略同一である複数の前記状態情報を取得すること、
    を特徴とする請求項1に記載の動作検出装置。
  3. 前記状態情報は、さらに、前記動作が生じた位置を表す場所格と、を前記格要素として含み、
    前記規則は、さらに、第1物体の前記動作の種類を表す前記動詞と第2物体の前記動作の種類を表す前記動詞との組み合わせ、および、前記組み合わせに応じて定められた前記動作を含み、
    前記検出手段は、さらに、取得された複数の前記状態情報のうち、一方の前記状態情報である第1状態情報の前記場所格と他方の前記状態情報である第2状態情報の前記場所格とが一致し、前記第1状態情報の前記動詞と前記第2状態情報の前記動詞との組み合わせが前記規則に含まれる前記組み合わせに一致する場合に、一致した前記組み合わせに対応する前記動作を検出すること、
    を特徴とする請求項1に記載の動作検出装置。
  4. 記検出手段は、さらに、取得された複数の前記状態情報のうち、前記状態情報に含まれる前記動詞が予め定められた特定動詞と一致し、かつ、前記状態情報に含まれる前記対象格が相互に一致する前記状態情報の個数を算出し、前記個数が予め定められた閾値より大きい場合に、異常が発生したことを検出すること、
    を特徴とする請求項1に記載の動作検出装置。
  5. 不審者の動作状態として予め定められた情報であって、前記不審者の動作の種類を表す動詞と、前記不審者の動作に関連する名詞である格要素に関する条件とを含む不審者情報を記憶する不審者情報記憶手段と、
    検出された前記動作を表す動詞が前記不審者情報に含まれる動詞と一致し、かつ、検出された前記動作に関連する格要素が前記不審者情報に含まれる前記条件を満たす前記動作の主体である前記物体を不審者であると判定する判定手段と、をさらに備えたこと、
    を特徴とする請求項1に記載の動作検出装置。
  6. 状態取得手段が、物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す格フレームによって表された状態情報を記憶する状態記憶手段から、複数の前記物体それぞれの動作状態を表す複数の前記状態情報を取得する状態取得ステップと、
    検出手段が、取得された複数の前記状態情報それぞれに含まれる前記動詞の組み合わせに応じた物体の動作を予め定めた規則に基づいて、前記組み合わせに対応する物体の動作を検出する検出ステップと、を含み、
    前記状態情報は、前記動作の主体となる物体を表す主格と、前記主格による前記動作の対象となる他の物体を表す対象格と、を前記格要素として含み、
    前記規則は、前記主格による前記動作の種類を表す前記動詞と前記対象格を主体とする前記動作の種類を表す前記動詞との組み合わせ、および、前記組み合わせに応じて定められた前記動作を含み、
    前記検出ステップは、取得された複数の前記状態情報のうち、一方の前記状態情報である第1状態情報の前記対象格と他方の前記状態情報である第2状態情報の前記主格とが一致し、前記第1状態情報の前記動詞と前記第2状態情報の前記動詞との組み合わせが前記規則に含まれる前記組み合わせに一致する場合に、一致した前記組み合わせに対応する前記動作を検出すること、
    を特徴とする動作検出方法。
JP2008299955A 2008-11-25 2008-11-25 動作検出装置および動作検出方法 Active JP5091095B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008299955A JP5091095B2 (ja) 2008-11-25 2008-11-25 動作検出装置および動作検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008299955A JP5091095B2 (ja) 2008-11-25 2008-11-25 動作検出装置および動作検出方法

Publications (2)

Publication Number Publication Date
JP2010128594A JP2010128594A (ja) 2010-06-10
JP5091095B2 true JP5091095B2 (ja) 2012-12-05

Family

ID=42328967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008299955A Active JP5091095B2 (ja) 2008-11-25 2008-11-25 動作検出装置および動作検出方法

Country Status (1)

Country Link
JP (1) JP5091095B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003596A (ja) * 2010-06-18 2012-01-05 Secom Co Ltd 通報装置
JP5657377B2 (ja) * 2010-12-28 2015-01-21 セコム株式会社 異常検知装置
JP5730099B2 (ja) * 2011-03-30 2015-06-03 セコム株式会社 異常検知装置
JP5743646B2 (ja) * 2011-03-30 2015-07-01 セコム株式会社 異常検知装置
JP6079447B2 (ja) * 2013-06-03 2017-02-15 富士通株式会社 検索装置、検索方法、および検索プログラム
WO2015198767A1 (ja) * 2014-06-27 2015-12-30 日本電気株式会社 異常検知装置及び異常検知方法
JP6876379B2 (ja) * 2016-05-17 2021-05-26 株式会社東芝 行動分析装置およびプログラム
CN109035658B (zh) * 2018-08-21 2020-09-25 北京深瞐科技有限公司 一种文物安全防护方法及装置
JP7115277B2 (ja) * 2018-12-10 2022-08-09 トヨタ自動車株式会社 行動監視装置、行動監視システム、及び行動監視プログラム
JP2022014033A (ja) * 2020-07-06 2022-01-19 株式会社日立製作所 情報解析装置および情報解析方法
WO2022102038A1 (ja) * 2020-11-12 2022-05-19 富士通株式会社 情報処理装置、生成方法、および生成プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280376A (ja) * 2003-03-14 2004-10-07 Japan Science & Technology Agency 被写体の行動認識方法及び装置
JP4506381B2 (ja) * 2004-09-27 2010-07-21 沖電気工業株式会社 単独行動者及びグループ行動者検知装置
JP2006287884A (ja) * 2005-03-31 2006-10-19 Ara Software:Kk 知的映像監視システム
JP2007226634A (ja) * 2006-02-24 2007-09-06 Mitsubishi Heavy Ind Ltd 人物状況認識装置、方法、プログラム、ロボットおよび生活支援システム
JP5227046B2 (ja) * 2008-02-25 2013-07-03 綜合警備保障株式会社 動作検出装置および動作検出方法

Also Published As

Publication number Publication date
JP2010128594A (ja) 2010-06-10

Similar Documents

Publication Publication Date Title
JP5091095B2 (ja) 動作検出装置および動作検出方法
JP5523900B2 (ja) 人物検索装置、人物検索方法、及び人物検索プログラム
JP5888770B2 (ja) 迷子発見システム及び方法
JP6930126B2 (ja) 人物検出システム
KR20060122764A (ko) 인물 검색 장치, 인물 검색 방법 및 입퇴장 관리 시스템
JP2007272488A (ja) 画像処理装置、監視カメラ及び画像監視システム
JP6440327B2 (ja) 防犯システム、防犯方法、及びロボット
JP2010257449A (ja) 人物検索装置、人物検索方法、及び人物検索プログラム
JP2009252215A (ja) 警備装置および情報表示方法
JP2011170711A (ja) 移動物体追跡システムおよび移動物体追跡方法
JP2012048400A (ja) オブジェクト認識装置およびその認識方法
JP2010238186A (ja) 監視装置及び監視方法
JP2004280376A (ja) 被写体の行動認識方法及び装置
JP2010238204A (ja) 監視装置および監視方法
WO2018111105A1 (en) System and method of video content filtering
JP5202419B2 (ja) 警備システムおよび警備方法
JP2010170212A (ja) 行動推定装置および方法
JP5188840B2 (ja) 警備装置および更新方法
JP5227046B2 (ja) 動作検出装置および動作検出方法
CN110458052B (zh) 基于增强现实的目标对象识别方法、装置、设备、介质
JP2010257450A (ja) 人物検索装置、人物検索方法、及び人物検索プログラム
JP6806626B2 (ja) 人物グループ追跡装置および人物グループ追跡方法
JP4944818B2 (ja) 検索装置および検索方法
JP7566548B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2010157097A (ja) 情報生成装置および情報生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120913

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5091095

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250