JP6336709B2 - 警備装置、警備方法およびプログラム - Google Patents

警備装置、警備方法およびプログラム Download PDF

Info

Publication number
JP6336709B2
JP6336709B2 JP2013072933A JP2013072933A JP6336709B2 JP 6336709 B2 JP6336709 B2 JP 6336709B2 JP 2013072933 A JP2013072933 A JP 2013072933A JP 2013072933 A JP2013072933 A JP 2013072933A JP 6336709 B2 JP6336709 B2 JP 6336709B2
Authority
JP
Japan
Prior art keywords
face image
attribute information
person
unit
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013072933A
Other languages
English (en)
Other versions
JP2014197330A (ja
Inventor
二見 聡
聡 二見
康貴 田中
康貴 田中
拓明 夏見
拓明 夏見
大剛 末富
大剛 末富
川口 将広
将広 川口
健太郎 福岡
健太郎 福岡
洋介 三和
洋介 三和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SOHGO SECURITY SERVICES CO.,LTD.
Original Assignee
SOHGO SECURITY SERVICES CO.,LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SOHGO SECURITY SERVICES CO.,LTD. filed Critical SOHGO SECURITY SERVICES CO.,LTD.
Priority to JP2013072933A priority Critical patent/JP6336709B2/ja
Publication of JP2014197330A publication Critical patent/JP2014197330A/ja
Application granted granted Critical
Publication of JP6336709B2 publication Critical patent/JP6336709B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、警備装置、警備方法およびプログラムに関する。
従来、警備領域に存在する人物の顔画像を検出し、検出した顔画像を用いて、警備領域に存在する人物が、警備領域への侵入を許可される人物(または、警備領域への侵入を許可されない人物)であるかどうかを判断する警備装置が知られている。
例えば特許文献1では、集合住宅の玄関部(警備領域)を撮像する監視カメラの撮像信号から入館者の顔画像を切り出して検知し、検知した顔画像ごとに、予めデータベース等に登録された入館許可者の顔画像と一致するかどうかを照合することで、その検知した顔画像に対応する人物が入館許可者であるかどうかを判断する(認証を行う)。そして、撮像信号から検知された入館者の人数と、入館許可者の人数とが一致する場合は、不審訪問者は存在しないと判断する一方、入館者の人数と入館許可者の人数とが一致しない場合は、不審訪問者が存在すると判断する。
また、特許文献2では、CCDカメラで、複数人の入室希望者の顔画像を同時に抽出し、抽出した顔画像ごとに、予めデータベース等に登録された入室許可者の顔画像と一致するかどうかを照合することで、その抽出した顔画像に対応する人物が入室許可者であるかどうかを判断する(認証を行う)。そして、入室希望者全員が入室許可者の顔画像と一致した場合は、認証成功と判断し、入室希望者のうち、入室許可者の顔画像と一致しない人物が存在する場合は、少なくとも、入室許可者の顔画像と一致しない人物の顔画像を記録し、認証成功と判断する。
特開2006−133899号公報 特開2009−199223号公報
しかしながら、特許文献1および特許文献2の何れにおいても、入館(入室)を許可するかどうかの判定が、人物の顔認証に大きく依存するため、顔認証に適さないシーン(例えば照明条件が経時的に変化する等)に対応することは難しい。したがって、警備領域の警備を十分に強化できないという問題がある。
本発明は、上記に鑑みてなされたものであって、警備領域の警備を十分に強化可能な警備装置、警備方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明にかかる警備装置は、撮像部と、顔画像検出部と、取得部と、判断部と、第1記憶部と、第2記憶部と、を備える撮像部は、警備領域内を撮像して撮像画像を得る。顔画像検出部は、撮像画像に含まれる人物の顔画像を検出する。取得部は、撮像画像に含まれる人物の顔以外の特性を示す属性情報を取得する。判断部は、顔画像検出部で取得された顔画像、および、取得部で取得された属性情報のうちの少なくとも一方を用いて、撮像画像に含まれる人物が、警備領域内への侵入を許可される、または、許可されない人物を示す対象者であるかどうかを判断する判断処理を実行する。前記第1記憶部は、それぞれが前記対象者を識別する複数の識別情報ごとに、顔画像を対応付けて記憶する。前記第2記憶部は、複数の前記識別情報ごとに、属性情報を対応付けて記憶する。前記判断部は、前記第1記憶部に記憶された複数の顔画像のうちの何れかと、前記顔画像検出部で検出された顔画像との類似性が高いほど大きな値を示す類似度が第1閾値を超える場合、前記顔画像検出部で検出された顔画像に対応する人物は前記対象者であると判断するとともに、前記第2記憶部に記憶された複数の前記識別情報のうち、前記顔画像検出部で検出された顔画像との類似度が前記第1閾値を超える顔画像に対応付けられた前記第1記憶部内の前記識別情報と一致する前記識別情報に対して、前記取得部で取得された属性情報と、その属性情報が取得されたときの時刻を示す時間情報とを対応付けて記録する。また、前記判断部は、前記第1記憶部に記憶された複数の顔画像のうちの何れかと、前記顔画像検出部で検出された顔画像との類似度が前記第1閾値以下の場合、および、前記顔画像検出部による顔画像の検出が失敗した場合のうちの何れかであり、かつ、所定時間以内に、前記判断部によって、前記撮像画像に含まれる人物に前記対象者が存在すると判断されていた場合、前記第2記憶部に記憶された複数の属性情報のうち、対応付けられた前記時間情報が示す時刻が前記所定時間以内である属性情報と、前記取得部により取得された前記顔画像検出部による顔画像の検出対象の人物の属性情報との類似性が高いほど大きな値を示す類似度が第3閾値を超える場合は、前記取得部により取得された属性情報に対応する人物は前記対象者であると判断する。
本発明によれば、警備領域の警備を十分に強化できるという有利な効果を奏する。
図1は、第1実施形態の警備システムの構成例を示す図である。 図2は、第1実施形態における警備領域と、当該警備領域に対応して設置された撮像部を模式的に示す図である。 図3は、第1実施形態の第1記憶部に記憶されたデータの一例を示す図である。 図4は、第1実施形態の第2記憶部に記憶されたデータの一例を示す図である。 図5は、変形例の第2記憶部に記憶されたデータの一例を示す図である。 図6は、第1実施形態における属性情報の類似度の算出例を示す図である。 図7は、第1実施形態の警備処理の一例を示すフローチャートである。 図8は、第1実施形態の変形例の警備処理の一例を示すフローチャートである。 図9は、第2実施形態の警備領域を模式的に示す図である。 図10は、第2実施形態の警備処理の一例を示すフローチャートである。 図11は、第3実施形態の警備処理の一例を示すフローチャートである。
以下、添付図面を参照して、本発明にかかる警備装置、警備方法およびプログラムの実施形態を詳細に説明する。
(第1実施形態)
図1は、本実施形態に係る警備システムの構成例を示す図である。図1に示すように、警備システムは、警備装置10と、監視センタ14とを備える。
警備装置10は、監視対象の警備領域を警備する装置である。ここでは、一例として、警備装置10は、高齢者福祉施設の施設出入口エリアを、監視対象の警備領域として警備する。警備装置10は、ネットワーク12を介して監視センタ14に接続されている。
ネットワーク12は、電話回線、無線ネットワーク、インターネット等の通信網であり、警備装置10と監視センタ14とを接続するものである。
監視センタ14は、警備領域の異常を検知した警備装置10から、異常を示す通報や、正常を示す通報等を受け付ける。監視センタ14は、異常を示す通報を受け付けた場合には、待機中の警備員に対して異常が検知された警備領域へ向かう旨の指示を出すとともに、必要に応じて警察や消防など関係機関への通報を行うセンタである。また、監視センタ14は、異常を示す通報を受け付けた場合に、警備領域から外出している利用者の所持する携帯電話等の携帯端末にその旨の連絡を送信する構成としてもよい。
異常を示す通報は、警備領域へ警備員を向かわせる、関係機関へ通報を行う、等の監視センタ14で通報に基づいた何等かの警備処理を必要とする事を示す信号である。異常を示す通報には、警備領域に不審者が侵入した事を示す侵入者検知信号や、警備領域のドア等が不正に開錠された事を示す信号等が挙げられるが、これらの信号に限られない。また、正常を示す通報は、警備領域へ警備員を向かわせる、関係機関へ通報を行う、等の監視センタ14で通報に基づいた何等かの警備処理を必要としない事を示す信号である。
次に、警備装置10の詳細について説明する。図1に示すように、警備装置10は、警備装置本体16と、撮像部18と、センサ20と、操作部22と、報知部24と、を備える。
撮像部18は、警備装置10の警備領域内を撮像して撮像画像を得る。撮像部18には、動画や静止画等の画像を撮像する公知のカメラを用いる。このような撮像部18は、監視カメラと称される場合もある。
センサ20は、警備領域内の人物を検知する。センサ20には、公知の人感センサを用いる。センサ20としては、例えば、赤外線の受光量の変化をもとに人物の存在を検出する赤外線センサ、赤外線などの受信が遮断されることで人物の存在を検出する遮断センサ、電磁波の乱れで人物の存在を検知する気配センサ等が挙げられる。
なお、センサ20には、人物を検知すると共に、扉の開閉を検知する開閉センサや、火災を検知する火災報知器等、警備領域の他の異常を検知する機能を更に備えたセンサを用いてもよい。
操作部22は、ユーザが各種の入力を行うための操作デバイスである。操作部22は、例えばタッチ入力式の液晶画面等である。この例では、操作部22は、警備装置本体16に取り付けられている。例えばユーザは、操作部22を操作して、警備装置10が警備領域の警備を行う状態を示す警備モードから、警備装置10が警備領域の警備を行わない警備解除モードへの切換え指示や、警備解除モードから警備モードへの切替え指示などを入力することもできる。
報知部24は、各種情報や信号を警備領域内に報知する。報知部24には、公知の音声出力装置(例えばスピーカ等)や、公知の画像出力装置や、公知の発光装置等や、これらを組み合わせた装置等が挙げられる。
上記撮像部18、センサ20、および、報知部24の各々は、警備領域に対応して設けられる。警備領域に対応して設けられる撮像部18、センサ20、および、報知部24の各々の数は1つであってもよいし複数であってもよい。例えば、撮像部18は、互いに異なる箇所に複数設置されていることが好ましい。センサ20についても同様に、互いに異なる箇所に複数設置されていることが好ましい。報知部24についても同様に、互いに異なる箇所に複数設置されていることが好ましい。
図2は、第1実施形態における警備領域と、当該警備領域に対応して設置された撮像部18を模式的に示す図である。なお、図2では、センサ20および報知部24の設置位置の図示は省略している。この例では、警備領域は、高齢者福祉施設の施設出入口エリアである。図2では、1つの撮像部18が、施設出入口エリアに侵入した人物を撮像可能な位置に設置されている場合を示したが、これに限らず、例えば複数の撮像部18が互いに異なる位置に設置されていてもよい。
図1に戻って説明を続ける。警備装置本体16は、入出力制御部26と、制御部28と、通信制御部30と、第1記憶部32と、第2記憶部34とを備える。
入出力制御部26は、撮像部18、センサ20、操作部22、及び報知部24の各々との間のデータ入出力を制御する。通信制御部30は、警備装置10と監視センタ14との間におけるネットワーク12を介した通信を制御する。通信制御部30は、具体的には、ネットワークボード等である。
第1記憶部32および第2記憶部34は、ハードディスクドライブ装置(HDD)等の記憶媒体であり、各種情報を記憶する。本実施形態では、第1記憶部32は、施設出入口エリア(警備領域)への侵入を許可されない人物(ここでは高齢者福祉施設に入居している高齢者)を示す対象者を識別する識別情報と、顔画像とを対応付けて記憶する。図3は、第1記憶部32に記憶されたデータの一例を示す図である。図3に示すように、第1記憶部32は、対象者を識別する対象者IDごとに、顔画像を対応付けて記憶する。なお、本実施形態では、第1記憶部32は、顔の画像を顔画像として記憶する場合を説明するが、顔の特徴を示す特徴情報を顔画像として記憶してもよい。なお、対象者を一意に識別する識別情報は、上記対象者IDに限られず、任意の識別情報を用いることができる。
図1に戻って説明を続ける。第2記憶部34は、対象者を識別する識別情報と、人物の顔以外の特性を示す属性情報とを対応付けて記憶する。図4は、第2記憶部34に記憶されたデータの一例を示す図である。図4に示すように、第2記憶部34は、対象者を識別する対象者IDごとに、属性情報を対応付けて記憶する。なお、本実施形態における属性情報は、人物の年齢を示す情報であり、統計的な値を示す代表値(例えば平均と標準偏差を持つ正規分布における平均値でもよい)が第2記憶部34に記録される。なお、属性情報は、人物の年齢を示す情報に限られるものではなく、人物の顔以外の特性を示す情報であればよい。例えば属性情報は、人物の身長を示す情報であってもよい。また、例えば属性情報は、それぞれが人物の顔以外の特性を示す2以上の情報の組み合わせであってもよい。例えば図5に示すように、第2記憶部34は、対象者IDごとに、人物の年齢を示す情報と、人物の身長を示す情報との組み合わせから構成される属性情報を対応付けて記憶する形態であってもよい。
なお、例えば第1記憶部32および第2記憶部34が共通の記憶媒体で構成されてもよい。この記憶媒体は、対象者を識別する識別情報ごとに、顔画像と、属性情報とを対応付けて記憶することができる。
再び図1に戻って説明を続ける。制御部28は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)などを含んで構成されるコンピュータであり、警備装置10全体を制御する。
図1に示すように、制御部28は、受付部41と、人検出部42と、顔画像検出部43と、取得部44と、判断部45と、出力部46とを備える。
受付部41は、操作部22の操作による各種の入力を受け付ける。人検出部42は、撮像部18が警備領域(この例では施設出入口エリア)を撮像して得た撮像画像に含まれる人物を検出(抽出)する。この例では、撮像部18による警備領域の撮像が行われるたびに、その撮像により得られた撮像画像が人検出部42へ渡され、人検出部42は、撮像部18から受け取った撮像画像に含まれる人物を検出(抽出)する処理を行う。なお、撮像画像に含まれる人物を検出する手法としては、公知の様々な技術を利用可能である。
顔画像検出部43は、撮像画像に含まれる人物の顔画像を検出する。この例では、顔画像検出部43は、人検出部42によって人物が検出されるたびに、その検出された人物の顔画像を検出(抽出)する。なお、人物の顔画像を検出する手法としては、公知の様々な技術を利用可能である(例えばパターンマッチング法等)。
取得部44は、撮像画像に含まれる人物の属性情報を取得する。この例では、取得部44は、人検出部42により検出された人物の画像に基づいて当該人物の年齢を推定する処理を行い、当該推定結果を示す情報を、属性情報として取得する。なお、人物の画像に基づいて当該人物の年齢を推定する手法としては、公知の様々な技術を利用可能である。
判断部45は、顔画像検出部43で検出された顔画像、および、取得部44で取得された属性情報のうちの少なくとも一方を用いて、撮像画像に含まれる人物が対象者であるかどうかを判断する判断処理を実行する。本実施形態では、判断部45は、第1記憶部32に記憶された複数の顔画像のうちの何れかと、顔画像検出部43で取得された顔画像との類似度が第1閾値を超える場合は、顔画像検出部43で取得された顔画像に対応する人物は対象者であると判断する。なお、ここでは、「類似度」は、比較対象同士の類似性が高いほど大きな値を示すものとする。
一方、判断部45は、顔画像検出部43による顔画像の検出が失敗した場合は、取得部44で取得された属性情報を用いて、当該属性情報に対応する人物が対象者であるかどうかを判断する。本実施形態では、顔画像検出部43による顔画像の検出が失敗した場合、取得部44は、撮像画像に含まれる人物のうち、顔画像検出部43による顔画像の検出対象の人物(顔画像検出部43が顔画像を検出しようとした人物)の画像に基づいて、当該人物の年齢を推定する処理を行い、その推定結果を示す情報を属性情報として取得する。
そして、判断部45は、第2記憶部34に記憶された複数の属性情報のうちの何れかと、取得部44で取得された属性情報との類似度が第3閾値を超えるかどうかを判断する。第2記憶部34に記憶された複数の属性情報のうちの何れかと、取得部44で取得された属性情報との類似度が第3閾値を超える場合は、判断部45は、取得部44で取得された属性情報に対応する人物は対象者であると判断する。より具体的には、判断部45は、第2記憶部34に記憶された複数の属性情報ごとに、取得部44で取得された属性情報との類似度を算出し、算出した最大の類似度が第3閾値を超えるかどうかを判断する。なお、これに限らず、例えば判断部45は、第2記憶部34に記憶された複数の属性情報のうちの何れかと、取得部44で取得された属性情報との類似度を算出するたびに、その算出した類似度が第3閾値を超えているかどうかを判断してもよい。この形態によれば、取得部44で取得された属性情報に対応する人物が対象者であるかどうかを判断する処理の速度を向上させることができるという利点がある。
また、判断部45は、第1記憶部32に記憶された複数の顔画像の各々と、顔画像検出部43で取得された顔画像との類似度が何れも第1閾値未満であり、かつ、第1記憶部32に記憶された複数の顔画像のうちの何れかと、顔画像検出部43で検出された顔画像との類似度が、第1閾値よりも小さい第2閾値を超える場合は、取得部44で取得された属性情報を用いて、撮像画像に含まれる人物のうち取得部44で取得された属性情報に対応する人物が対象者であるかどうかを判断する。本実施形態では、第1記憶部32に記憶された複数の顔画像の各々と、顔画像検出部43で検出された顔画像との類似度が何れも第1閾値未満であり、かつ、第1記憶部32に記憶された複数の顔画像のうちの何れかと、顔画像検出部43で検出された顔画像との類似度が第2閾値を超える場合、取得部44は、顔画像検出部43で検出された顔画像に対応する人物の属性情報を取得する。
そして、判断部45は、第2記憶部34に記憶された複数の属性情報のうちの何れかと、取得部44で取得された属性情報との類似度が第3閾値を超えるかどうかを判断する。第2記憶部34に記憶された複数の属性情報のうちの何れかと、取得部44で取得された属性情報との類似度が第3閾値を超える場合は、判断部45は、取得部44で取得された属性情報に対応する人物は対象者であると判断する。より具体的には、判断部45は、第2記憶部34に記憶された複数の属性情報のうち、顔画像検出部43で検出された顔画像との類似度が第2閾値を超える顔画像に対応付けられた第1記憶部32内の対象者IDと一致する対象者IDに対応付けられた属性情報と、取得部44で取得された属性情報との類似度が第3閾値を超える場合は、取得部44で取得された属性情報に対応する人物は対象者であると判断する。
いま、例えば第1記憶部32に記憶された複数の対象者IDのうち、顔画像検出部43で検出された顔画像との類似度が第2閾値を超える(ただし、第1閾値は超えない)顔画像に対応付けられた対象者IDが「0002」であり、取得部44で取得された属性情報(顔画像検出部43で検出された顔画像に対応する人物の属性情報)の値が「Pa」である場合を想定する。この場合、図6に示すように、判断部45は、第2記憶部34に記憶された複数の属性情報のうち、対象者ID「0002」に対応付けられた属性情報の値「Pa2」と、取得部44で取得された属性情報の値「Pa」との類似度を算出し、算出した類似度が第3閾値を超えるかどうかを判断する。属性情報の類似度は、例えば以下の式1で表すことができる。「Pa」と「Pa2」との類似性が高いほど、以下の式1で表される類似度の値は大きくなる。
属性情報の類似度=1/|Pa−Pa2| (式1)
そして、判断部45は、算出した類似度が第3閾値を超える場合、取得部44で取得された属性情報に対応する人物は対象者であると判断する。
ここで、例えば警備領域に存在する人物の顔認証のみで、当該人物が対象者であるかどうかを判断する構成(対比例)では、例えば当該人物がマスクをしている場合、下を向いて歩いている場合などにおいて容易に誤検知が発生してしまう。そこで、本実施形態では、顔画像検出部43が顔画像を検出できなかった場合や、顔認証の結果が曖昧な場合においては、撮像画像に含まれる人物のうち、顔画像検出部43による顔画像の検出対象の人物の属性情報を用いて、当該人物が対象者であるかどうかを判断する。すなわち、顔認証を失敗し易いケースにおいては、属性情報を用いて顔認証の結果を補完することで、警備領域内における対象者の有無を精度良く判定できるという有利な効果を達成できる。
図1に戻って説明を続ける。出力部46は、撮像画像に含まれる複数の人物に、判断部45により対象者であると判断された人物が含まれるかどうかに応じて、監視センタ14への通報の可否を決定する。この例では、出力部46は、判断部45による判断処理の結果に基づいて、撮像画像に含まれる複数の人物に、判断部45により対象者であると判断された人物が含まれる場合に、異常を示す信号(この例では、高齢者福祉施設の入居者の無断外出を検知したことを示す信号)を監視センタ14へ送信する制御を行う。
次に、警備装置10が実行する警備処理を説明する。図7は、本実施形態に係る警備装置10が実行する警備処理の一例を示すフローチャートである。ここでは、警備装置10は、撮像部18が警備領域を撮像して撮像画像を得るたびに、図7に示す警備処理を実行する。図7に示すように、まず人検出部42は、撮像画像に含まれる人物を検出する(ステップS1)。人検出部42によりN(N≧1)人の人物が検出された場合(ステップS2:YES)、判断部45は、撮像画像に含まれるN人の人物全員に対する判断処理が終了したかどうかを判定する(ステップS3)。一方、人検出部42により人物が検出されなかった場合(ステップS2:NO)、このフレームでの警備処理は終了する。
上述のステップS3において、撮像画像に含まれるN人の人物全員に対して判断処理を行っていないと判定された場合(ステップS3:NO)、顔画像検出部43は、撮像画像に含まれるN人の人物のうち第i番目(i≦N)の人物の顔画像を検出する(ステップS4)。顔画像検出部43による顔画像の検出が成功した場合(ステップS5:YES)、判断部45は、第1記憶部32に記憶された複数の顔画像ごとに、ステップS5で検出が成功した顔画像との類似度を算出する(ステップS6)。ここでは、ステップS6で算出された複数の類似度のうち最大の類似度をSiと表記する。次に、判断部45は、最大の類似度Siが第1閾値Th1を超えているかどうかを判断する(ステップS7)。最大の類似度Siが第1閾値Th1を越えていると判断した場合(ステップS7:YES)、判断部45は、今回の判断処理の対象である第i番目の人物は対象者であると判断する(対象者を検知する)。そして、出力部46は、異常を示す信号を監視センタ14へ送信する制御を行い(ステップS8)、このフレームでの警備処理は終了する。
一方、上述のステップS7において、最大の類似度Siが第1閾値Th1以下であると判断した場合(ステップS7:NO)、判断部45は、最大の類似度Siが第2閾値Th2(<第1閾値Th1)を超えているかどうかを判断する(ステップS9)。最大の類似度Siが第2閾値Th2以下であると判断した場合(ステップS9:NO)、判断部45は、第i番目の人物は対象者ではないと判断する。そして、処理は、前述のステップS3に移行し、第i+1番目の人物に対する判断処理が行われる。
上述のステップS9において、最大の類似度Siが第2閾値を超えていると判断された場合(ステップS9:YES)、または、顔画像検出部43による顔画像の検出が失敗した場合(ステップS5:NO)、処理は、ステップS10に移行する。ステップS10では、取得部44は、撮像画像に含まれる人物のうち、顔画像検出部43による顔画像の検出対象の人物の属性情報を取得する(ステップS10)。より具体的には、取得部44は、第i番目の人物の画像に基づいて、当該人物の年齢を推定する処理を行い、当該人物の年齢を示す情報を属性情報として取得する。
次に、判断部45は、第2記憶部34に記憶された複数の属性情報ごとに、上述のステップS10で取得した属性情報との類似度を算出する(ステップS11)。ここでは、ステップS11で算出された複数の類似度のうち最大の類似度をPiと表記する。次に、判断部45は、最大の類似度Piが第3閾値Th3を超えているかどうかを判断する(ステップS12)。最大の類似度Piが第3閾値Th3を越えていると判断した場合(ステップS12:YES)、判断部45は、第i番目の人物は対象者であると判断する。そして、出力部46は、異常を示す信号を監視センタ14へ送信する制御を行い(ステップS13)、このフレームでの警備処理は終了する。一方、最大の類似度Piが第3閾値以下であると判断した場合(ステップS12:NO)、判断部45は、第i番目の人物は対象者ではないと判断する。そして、処理は、前述のステップS3に移行し、第i+1番目の人物に対する判断処理が行われる。
前述のステップS3において、撮像画像に含まれるN人の人物全員に対する判断処理が終了したと判定した場合(ステップS3:YES)、つまり、撮像画像に含まれるN人の人物全員に対する判断処理の途中で、N人の人物のうちの何れかが対象者であると判断されなかった場合、判断部45は、異常なしと判断(警備領域に対象者は存在しないと判断)して(ステップS14)、このフレームでの警備処理は終了する。
以上に説明したように、本実施形態では、顔画像検出部43が顔画像を検出できなかった場合や、顔認証の結果が曖昧な場合(この例では、第1記憶部32に記憶された複数の顔画像の各々と、顔画像検出部43で検出された顔画像との類似度が何れも第1閾値未満であり、かつ、第1記憶部32に記憶された複数の顔画像のうちの何れかと、顔画像検出部43で検出された顔画像との類似度が第2閾値を超える場合)においては、撮像画像に含まれる人物のうち、顔画像検出部43による顔画像の検出対象の人物の属性情報を用いて、当該人物が対象者であるかどうかを判断する。すなわち、顔認証を失敗し易いケースにおいては、属性情報を用いて顔認証の結果を補完することで、警備領域内における対象者の有無を精度良く判定できるという有利な効果を達成できる。
(第1実施形態の変形例1)
例えば警備装置10は、高齢者福祉施設の出入口エリアを監視可能な監視エリア(例えば窓口となる事務所)に人が不在である場合にのみ、警備処理を実行することもできる。図8は、変形例に係る警備装置10の動作例を示すフローチャートである。この例では、監視エリア内に、1以上の撮像部18やセンサ20が設置されているものとする。図8に示すように、監視エリア内に設置された1以上の撮像部18やセンサ20によって、監視エリア内に誰もいないことが検知された場合(ステップS20:YES)、人検出部42は、そのときに撮像部18が警備領域を撮像して得た撮像画像を取得し、取得した撮像画像に含まれる人物を検出する(ステップS21)。ステップS22からステップ34までの処理は、図7のステップS2からステップ14までの処理と同様であるので、詳細な説明は省略する。この例では、警備装置10は、警備領域を監視する人間が不在の場合にのみ警備処理を実行するので、第1実施形態に比べて、警備装置10の処理負荷を軽減できるという利点がある。
また、例えば事務所に人が不在であることが想定される時間帯(例えば事務所で勤務する人間の就業時間外の時間帯など)を示す特定期間を予め設定しておき、警備装置10は、特定期間においてのみ、図7に示す警備処理を実行することもできる。
(第1実施形態の変形例2)
上述の第1実施形態では、属性情報として、人物の年齢を示す情報を用いているが、これに限らず、属性情報は人物の顔以外の特性を示す情報であればよい。例えば、該当人物が通行する時間帯、人物の身長、移動方向、移動経路、服の色や模様(例えば上着、ズボン、スカートなど)、所持品(例えばカバンなど)、姿勢、年齢、性別、装着物(例えばサングラス、マスクなど)、挙動(例えば周期的に体を動かす、しゃがみ込むなどの動作)、音声(例えば物音、足音、声など)、歩行速度(移動速度)、歩調などのうちの少なくとも1つを、属性情報として用いることができる。以上のような属性情報は、撮像部18により得られた撮像画像に基づいて取得してもよいし、センサ20によるセンシング結果を用いて取得してもよい。
(第2実施形態)
次に、第2実施形態について説明する。第2実施形態に係る警備システムの基本的な構成は第1実施形態と同様であるので、警備システムに含まれる各構成要素の表記は、第1実施形態と同一とする。また、第1実施形態と共通する部分については、適宜に説明を省略する。
図9に示すように、第2実施形態に係る警備装置10は、照明環境等が異なる2つのエリア(警備領域に相当、以下、「エリアA」および「エリアB」と呼ぶ)を警備し、エリアAおよびエリアBの各々に対応して、撮像部18、センサ20および報知部24が設置される。図9の例では、センサ20および報知部24の図示は省略している。また、第1記憶部32は、エリアAおよびエリアBへの侵入を許可されない人物を示す対象者を識別する対象者IDと、顔画像とを対応付けて記憶する。また、第2記憶部34は、対象者IDと、前述の属性情報(この例でも年齢を示す情報)と、後述の時間情報とを対応付けて記憶する。
本実施形態では、第1実施形態と同様に、顔画像検出部43は、人検出部42によって人物が検出されるたびに、その検出された人物の顔画像を検出する。顔画像検出部43による顔画像の検出が成功すると、判断部45は、第1記憶部32に記憶された複数の顔画像のうちの何れかと、顔画像検出部43で検出された顔画像との類似度が第1閾値を超えるかどうかを判断する。
第1記憶部32に記憶された複数の顔画像のうちの何れかと、顔画像検出部43で検出された顔画像との類似度が第1閾値を超える場合、第1実施形態と同様に、判断部45は、顔画像検出部43で取得された顔画像に対応する人物は対象者であると判断する。これによって、対象者が検知される。また、この場合、取得部44は、顔画像検出部43で検出された顔画像に対応する人物の属性情報を取得し、取得した属性情報を判断部45へ渡す。
そして、判断部45は、第2記憶部34に記憶された複数の対象者IDのうち、顔画像検出部43で検出された顔画像との類似度が第1閾値を超える顔画像に対応付けられた第1記憶部32内の対象者IDと一致する対象者IDに対して、取得部44で取得された属性情報と、その属性情報が取得されたときの時刻を示す時間情報とを対応付けて記録する。この例では、判断部45は、第2記憶部34に記憶された複数の属性情報のうち、顔画像検出部43で検出された顔画像との類似度が第1閾値を超える顔画像に対応付けられた第1記憶部32内の対象者IDと一致する対象者IDに対応付けられた属性情報を、取得部44により取得された属性情報に更新する。これにより、検知された対象者の属性情報は、最新のものに更新されていくが、記録の態様は「更新」に限らず、例えば「追記」等であってもよい。この例では、撮像画像に含まれる人物に対象者が含まれると判断されるたびに(つまり、対象者が検知されるたびに)、第2記憶部34内の対応する属性情報も更新されていく。
一方、第1記憶部32に記憶された複数の顔画像のうちの何れかと、顔画像検出部43で検出された顔画像との類似度が第1閾値以下の場合、および、顔画像検出部43による顔画像の検出が失敗した場合のうちの何れかであり、かつ、所定時間以内に、判断部45によって、撮像画像に含まれる人物に対象者が存在すると判断されていた場合(対象者が検知されていた場合)、取得部44は、撮像画像に含まれる人物のうち、顔画像検出部43による顔画像の検出対象の人物に対応する属性情報を取得する。そして、判断部45は、第2記憶部34に記憶された複数の属性情報のうち、対応付けられた時間情報が示す時刻が所定時間以内である属性情報と、取得部44で取得された属性情報との類似度が第3閾値を超える場合は、取得部44で取得された属性情報に対応する人物は対象者であると判断する。
また、判断部45は、第2記憶部34に記憶された複数の属性情報のうち、対応付けられた時間情報が示す時刻が所定時間以内である属性情報と、取得部44で取得された属性情報との類似度が第3閾値を超える場合は、取得部44で取得された属性情報を第2記憶部34に記録する。本実施形態では、判断部45は、第2記憶部34に記憶された複数の属性情報のうち、取得部44で取得された属性情報との類似度が第3閾値を超える属性情報を、取得部44で取得された属性情報に更新する。これにより、検知された対象者の属性情報は、最新のものに更新されていくが、記録の態様は「更新」に限らず、例えば「追記」等であってもよい。この例では、撮像画像に含まれる人物に対象者が含まれると判断されるたびに、第2記憶部34内の対応する属性情報も更新されていく。
次に、警備装置10が実行する警備処理を説明する。図10は、本実施形態に係る警備装置10が実行する警備処理の一例を示すフローチャートである。本実施形態に係る警備装置10は、エリアAに対応して設置された撮像部18がエリアAを撮像して撮像画像を得るたびに、エリアAに対する警備処理を実行し、エリアBに対応して設置された撮像部18がエリアBを撮像して撮像画像を得るたびに、エリアBに対する警備処理を実行する(並列に実行することも可能)。エリアAに対する警備処理とエリアBに対する警備処理は、利用する撮像画像が異なるのみであり、基本的には同じ処理である。以下では、両者を区別せずに説明する。なお、図10に示すステップS41からステップS47までの処理は、図7に示すステップS1からステップS7までの処理と同様であるので、詳細な説明は省略する。また図10に示すステップS57の処理は、図7に示すステップS14の処理と同様であるので、詳細な説明は省略する。
図10に示すステップS47において、最大の類似度Siが第1閾値Th1を超えていると判断した場合(ステップS47:YES)、判断部45は、ステップS45で検出に成功した顔画像に対応する人物は対象者であると判断するとともに、取得部44に対して、ステップS45で検出に成功した顔画像に対応する人物の属性情報の取得を指示する。この指示を受けた取得部44は、ステップS45で検出に成功した顔画像に対応する人物の属性情報を取得し(ステップS48)、取得した属性情報と、属性情報を取得したときの時刻を示す時間情報とを判断部45へ渡す。次に、判断部45は、ステップS48で取得された属性情報と、その属性情報が取得されたときの時刻を示す時間情報とを第2記憶部34に記録する(ステップS49)。より具体的には、判断部45は、第2記憶部34に記憶された複数の属性情報のうち、ステップS45で検出に成功した顔画像との類似度が第1閾値Th1を超える顔画像に対応付けられた第1記憶部32内の対象者IDと一致する対象者IDに対応付けられた属性情報を、ステップS48で取得された属性情報に更新するとともに、当該属性情報が取得されたときの時刻を示す時間情報を対応付けて記録する。次に、出力部46は、異常を示す信号を監視センタ14へ送信する制御を行い(ステップS50)、このフレームでの警備処理は終了する。
一方、上述のステップS47において、最大の類似度Siが第1閾値以下であると判断された場合(ステップS47:NO)、または、顔画像検出部43による顔画像の検出が失敗した場合(ステップS45:NO)、処理は、ステップS51に移行する。
ステップS51では、判断部45は、所定時間内(現時点から所定時間だけ前の時点までの期間内)に、撮像画像(エリアAに対する警備処理の場合はエリアAを撮像して得られる撮像画像、エリアBに対する警備処理の場合はエリアBを撮像して得られる撮像画像)に含まれる人物に対象者が存在すると判断したかどうかを確認する(ステップS51)。所定時間内に、対象者が存在すると判断されていない場合(ステップS51:NO)、つまり、所定時間内に、対象者が検知されていない場合、処理は、ステップS43に移行し、第i+1番目の人物に対する判断処理が行われる。
一方、所定時間内に、対象者が存在すると判断していた場合(ステップS51:YES)、つまり、所定時間内に、対象者が検知されていた場合、判断部45は、取得部44に対して、今回の判断処理の対象である第i番目の人物の属性情報の取得を指示する。この指示を受けた取得部44は、第i番目の人物の属性情報を取得し(ステップS52)、取得した属性情報と、その属性情報を取得したときの時刻を示す時間情報とを判断部45へ渡す。
次に、判断部45は、第2記憶部34に記憶された複数の属性情報のうち、対応付けられた時間情報が示す時刻が所定時間以内である属性情報と、上述のステップS52で取得された属性情報との類似度Piを算出する(ステップS53)。次に、判断部45は、ステップS53で算出した類似度Piが第3閾値Th3を超えているかどうかを判断する(ステップS54)。ステップS53で算出した類似度Piが第3閾値Th3を越えていると判断した場合(ステップS54:YES)、判断部45は、第i番目の人物は対象者であると判断するとともに、ステップS52で取得された属性情報と、その属性情報が取得されたときの時刻を示す時間情報とを対応付けて第2記憶部34に記録する(ステップS55)。より具体的には、判断部45は、第2記憶部34に記憶された複数の属性情報のうち、ステップS52で取得された属性情報との類似度が第3閾値を超える属性情報を、ステップS52で取得された属性情報に更新するとともに、当該属性情報が取得されたときの時刻を示す時間情報を対応付けて記録する。次に、出力部46は、異常を示す信号を監視センタ14へ送信する制御を行い(ステップS56)、このフレームでの警備処理は終了する。
以上に説明したように、本実施形態では、照明環境等の影響を受け、顔認証に適さないシーンであっても、判断部45は、所定時間以内に、警備領域内に存在することが検知された対象者の属性情報と、取得部44により取得された属性情報とを用いて、取得部44により取得された属性情報に対応する人物が対象者であるかどうかを判断する。例えばエリアAにおいて、顔画像の認証により対象者が検知された後、エリアBにおいて、撮像画像に含まれる人物の顔画像の認証に失敗した場合であっても、エリアAで対象者を検知した際に取得された属性情報と、撮像画像に含まれる人物の属性情報との類似度が第3閾値を超えるかどうかを判断することで、当該人物が対象者であるかどうかを判断することができる。つまり、別エリアにおいて対象者を検知した際に抽出した属性情報で、顔画像の認証結果を補完することができる。
なお、本実施形態では、エリアAおよびエリアBへの侵入を許可されない人物が、対象者として予め第1記憶部32および第2記憶部34に登録されているが、これに限らず、例えばエリアAおよびエリアBへの侵入を許可される人物を、対象者として予め第1記憶部32および第2記憶部34に登録しておく形態であってもよい。この場合は、撮像画像に含まれる人物が対象者でないと判断された場合に、異常を示す信号が監視センタへ送信されることになる。
(第3実施形態)
次に、第3実施形態について説明する。第3実施形態に係る警備システムの基本的な構成は第1実施形態と同様であるので、警備システムに含まれる各構成要素の表記は、第1実施形態と同じ表記とする。また、第1実施形態と共通する部分については、適宜に説明を省略する。
第3実施形態に係る警備装置10は、建造物のエントランスホールを警備領域として警備し、当該エントランスホールに対応して撮像部18、センサ20および報知部24が設置される。また、第1記憶部32は、エントランスホールの通行を許可される人物を示す対象者を識別する対象者IDと、顔画像とを対応付けて記憶する。また、第2記憶部34は、対象者IDと、属性情報と、後述の時間情報とを対応付けて記憶する。この例では、属性情報として、人物の年齢を示す情報の代わりに、人物の身長を示す情報を採用する。
上述の第1実施形態と同様に、顔画像検出部43は、人検出部42によって人物が検出されるたびに、その検出された人物の顔画像を検出する。顔画像検出部43による顔画像の検出が成功すると、判断部45は、第1記憶部32に記憶された複数の顔画像のうちの何れかと、顔画像検出部43で検出された顔画像との類似度が第1閾値を超えるかどうかを判断する。第1記憶部32に記憶された複数の顔画像のうちの何れかと、顔画像検出部43で検出された顔画像との類似度が第1閾値を超えると判断した場合、判断部45は、取得部44に対して、顔画像検出部43で検出された顔画像に対応する人物の属性情報の取得を指示する。この指示を受けた取得部44は、顔画像検出部43で検出された顔画像に対応する人物の属性情報を取得し、取得した属性情報を判断部45へ渡す。取得部44による属性情報の取得方法は任意であり、例えば取得部44は、撮像部18がエントランスホールを撮像して得た撮像画像を用いて、顔画像検出部43で検出された顔画像に対応する人物の身長を検出(取得)する処理を行うこともできるし、センサ20によるセンシング結果を用いて、顔画像検出部43で検出された顔画像に対応する人物の身長を検出(取得)する処理を行うこともできる。
そして、判断部45は、第1記憶部32に記憶された複数の顔画像のうち顔画像検出部43で検出された顔画像との類似度が第1閾値を超える顔画像と、顔画像検出部43で検出された顔画像との類似度(以下、「第1類似度」と呼ぶ場合がある)を算出する。また、判断部45は、第2記憶部34に記憶された複数の属性情報のうち、顔画像検出部43で検出された顔画像との類似度が第1閾値を超える顔画像に対応付けられた第1記憶部32内の対象者IDと一致する対象者IDに対応付けられた属性情報と、取得部44により取得された属性情報との類似度(以下、「第2類似度」と呼ぶ場合がある)を算出する。そして、判断部45は、第1類似度と第2類似度とを用いて、撮像画像に含まれる人物が対象者であるかどうかを判断する。
より具体的には、判断部45は、第1類似度と第2類似度との重み付け加算の結果を示す値が第4閾値を超える場合は、顔画像検出部43により検出された顔画像、および、取得部44により取得された属性情報に対応する人物は対象者であると判断する。これにより、対象者が検知される。そして、判断部45は、第2記憶部34に記憶された複数の対象者IDのうち、顔画像検出部43で検出された顔画像との類似度が第1閾値を超える顔画像に対応付けられた第1記憶部32内の対象者IDと一致する対象者IDに対して、取得部44で取得された属性情報と、その属性情報が取得されたときの時刻を示す時間情報とを対応付けて記録する。この例では、判断部45は、第2記憶部34に記憶された複数の属性情報のうち、顔画像検出部43で検出された顔画像との類似度が第1閾値を超える顔画像に対応付けられた第1記憶部32内の対象者IDと一致する対象者IDに対応付けられた属性情報を、取得部44により取得された属性情報に更新する。これにより、検知された対象者の属性情報は、最新のものに更新されていくが、記録の態様は更新に限らず、追記等であってもよい。この例では、撮像画像に含まれる人物に対象者が含まれると判断されるたびに(対象者が検知されるたびに)、第2記憶部34内の対応する属性情報も更新されていく。
次に、警備装置10が実行する警備処理を説明する。図11は、本実施形態に係る警備装置10が実行する警備処理の一例を示すフローチャートである。本実施形態に係る警備装置10は、エントランスホールに対応して設置された撮像部18がエントランスホールを撮像して撮像画像を得るたびに、図11に示す警備処理を実行する。なお、図11に示すステップS61からステップS67までの処理は、図7に示すステップS1からステップS7までの処理と同様であるので、詳細な説明は省略する。
図10に示すステップS67において、ステップS66で算出した最大の類似度Siが第1閾値Th1を越えていると判断した場合(ステップS67:YES)、判断部45は、取得部44に対して、ステップS65で検出に成功した顔画像に対応する人物(第i番目の人物)の属性情報の取得を指示する。この指示を受けた取得部44は、第i番目の人物の属性情報(この例では、人物の身長を示す情報)を取得し(ステップS68)、取得した属性情報と、その属性情報を取得したときの時刻を示す時間情報とを判断部45へ渡す。なお、以下の説明では、第1閾値Th1を超えていると判断された最大の類似度Siを、「第1類似度Si」と呼ぶ。
次に、判断部45は、第2記憶部34に記憶された複数の属性情報のうち、ステップS65で検出に成功した顔画像との類似度が第1閾値を超える顔画像に対応付けられた第1記憶部32内の対象者IDと一致する対象者IDに対応付けられた属性情報と、取得部44により取得された属性情報との類似度(以下、「第2類似度Pi」と呼ぶ)を算出する(ステップS69)。
次に、判断部45は、第1類似度に対する第2類似度の比重を示す重み係数を決定する(ステップS70)。この例では、時間が経過しても変化が乏しい「身長」を、属性情報として用いているが、例えば服の色や模様などの、時間の経過と共に変化し得る情報を、属性情報として用いる場合は、判断部45は、第2記憶部34に対する属性情報の記録が行われた最新の時刻(第2記憶部34に記憶された時間情報が示す最新の時刻)と、現在時刻(ステップS70における時刻)との差に応じて、重み係数を可変に設定することもできる。例えば、判断部45は、第2記憶部34に対する属性情報の記録が行われた最新の時刻と、現在時刻との差が大きいほど、時間の経過と共に変化する属性情報の優先度が低くなるよう、当該属性情報に対応する重み係数の値を減少させることもできる。一方、例えば「身長」などの時間が経過しても変化が乏しい情報を、属性情報として用いる場合は、予め個別に定められた重み係数を、使用する重み係数として決定することもできる。なお、例えばそれぞれが人物の顔以外の特性を示す2つ以上の情報(例えば身長と年齢等)を、属性情報として使用する場合は、判断部45は、特性を示す情報ごとに、重み係数を決定することもできる。以下の説明では、ステップS70で決定(算出)した重み係数を、「重み係数α」と表記する。
次に、判断部45は、第1類似度Siと第2類似度Piとの重み付け加算を行う。本実施形態では、判断部45は、第2類似度Piに対して重み係数αを乗算した結果と、第1類似度Siとの和を計算する。そして、判断部45は、第1類似度Siと第2類似度Piとの重み付け加算の結果を示す値(Si+α×Pi)が第4閾値Th4以下であるかどうかを判断する(ステップS71)。第1類似度Siと第2類似度Piとの重み付け加算の結果を示す値(Si+α×Pi)が第4閾値Th4以下の場合(ステップS71:YES)、判断部45は、今回の判断処理の対象となる第i番目の人物は対象者ではない、つまり、エントランスホールの通行を許可された人物ではないと判断する。そして、出力部46は、異常を示す信号を監視センタ14へ送信する制御を行い(ステップS72)、このフレームでの警備処理は終了する。
一方、第1類似度Siと第2類似度Piとの重み付け加算の結果を示す値(Si+α×Pi)が第4閾値Th4を越える場合(ステップS71:NO)、判断部45は、第i番目の人物は対象者である、つまり、エントランスホールの通行を許可された人物であると判断し、ステップS68で取得された属性情報と、その属性情報が取得されたときの時刻を示す時間情報とを対応付けて第2記憶部34に記録する(ステップS73)。より具体的には、判断部45は、第2記憶部34に記憶された複数の属性情報のうち、ステップS65で検出に成功した顔画像との類似度が第1閾値を超える顔画像に対応付けられた第1記憶部32内の対象者IDと一致する対象者IDに対応付けられた属性情報を、ステップS68で取得された属性情報に更新するとともに、当該属性情報が取得されたときの時刻を示す時間情報を対応付けて記録する。そして、処理は、ステップS63に移行し、第i+1番目の人物に対する判断処理が行われる。
また、この例では、上述のステップS67において、最大の類似度Siが第1閾値以下であると判断された場合(ステップS67:NO)、または、顔画像検出部43による顔画像の検出が失敗した場合(ステップS65:NO)、判断部45は、第i番目の人物は対象者ではない、つまり、エントランスホールの通行を許可された人物ではないと判断する。そして、出力部46は、異常を示す信号を監視センタ14へ送信する制御を行い(ステップS74)、このフレームでの警備処理は終了する。
以上に説明したように、本実施形態では、第1類似度Siと第2類似度Piとの重み付け加算の結果を用いて、撮像画像に含まれる人物が対象者であるかどうかを判断する。つまり、撮像画像に含まれる人物の顔認証の結果だけでなく、当該人物の属性情報を用いて当該人物が対象者であるかどうかを判断するので、写真などを用いた「なりすまし」の不法侵入を効果的に防止できる。例えば属性情報として、人物の身長を示す情報を用いることで、不法侵入者は、顔写真の大きさや位置(高さ)などを考慮しなければならなくなるので、「なりすまし」の不法侵入を困難にさせることができる。
なお、本実施形態では、エントランスホールの通行を許可された人物が、対象者として予め第1記憶部32および第2記憶部34に登録されているが、これに限らず、例えばエントランスホールの通行を許可されない人物を、対象者として予め第1記憶部32および第2記憶部34に登録しておく形態であってもよい。この場合は、撮像画像に含まれる人物が対象者であると判断された場合に、異常を示す信号が監視センタへ送信されることになる。
以上、本発明の実施形態を説明したが、上述の各実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。本発明は、上述の各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、各実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。また、各実施形態および変形例の内容は任意に組み合わせることが可能である。
なお、上述の各実施形態では、「類似度」は、比較対象同士の類似性が高いほど大きな値を示すものとしたが、例えば「類似度」は、比較対象同士の類似度が高いほど小さな値を示すものであってもよい。この場合、上述した各種の類似度(Si、Pi等)と、各種の閾値(Th1、Th2、Th3、Th4等)との大小関係の条件は、上述の各実施形態で説明した条件とは反対になる。例えば図7に示すステップS7の結果が肯定となる条件は、類似度Siが第1閾値Th1よりも大きいことが条件であるが、「類似度」は、比較対象同士の類似度が高いほど小さな値を示すものであると定義した場合、図7に示すステップS7の結果が肯定となる条件は、類似度Siが第1閾値Th1よりも小さいことが条件となる。
ただし、「類似度」をどのように定義したとしても、図7に示すステップS7の結果が肯定となるのは、「類似度」は、比較対象同士の類似性が高いほど大きな値を示すものであると定義した場合において、類似度Siが第1閾値Th1よりも大きいことを示す条件(上述の実施形態の条件)と等価の条件を満たす場合であると考えることができる。つまり、上述の実施形態のように、「類似度」は、比較対象同士の類似性が高いほど大きな値を示すものであると定義した場合において、類似度Siが第1閾値Th1よりも大きいことを示す条件と、上述の実施形態とは反対に、「類似度」は、比較対象同士の類似度が高いほど小さな値を示すものであると定義した場合において、類似度Siが第1閾値Th1よりも小さいことを示す条件とは等価であるとみなすことができる。他についても同様に考えることができる。
なお、上述した各実施形態の警備装置10は、CPUなどの制御装置と、ROMやRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。上述した各実施形態の警備装置10の各部の機能(例えば入出力制御部26、制御部28、通信制御部30等)は、CPUなどの制御装置が、記憶装置や外部記憶装置等に格納されたプログラムを実行することにより実現されるが、これに限らず、例えば上述した各実施形態の警備装置10の各部の機能のうちの少なくとも一部が専用のハードウェア回路(例えば半導体集積回路等)により実現されてもよい。
また、上述した各実施形態の警備装置10における警備処理を実行するためのプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。また、上述した各実施形態の警備装置10における警備処理を実行するためのプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述した各実施形態の警備装置10における警備処理を実行するためのプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、上述した各実施形態の警備装置10における警備処理を実行するためのプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
10 警備装置
12 ネットワーク
14 監視センタ
16 警備装置本体
18 撮像部
20 センサ
22 操作部
24 報知部
26 入出力制御部
28 制御部
30 通信制御部
32 第1記憶部
34 第2記憶部
41 受付部
42 人検出部
43 顔画像検出部
44 取得部
45 判断部
46 出力部

Claims (6)

  1. 警備領域内を撮像して撮像画像を得る撮像部と、
    前記撮像画像に含まれる人物の顔画像を検出する顔画像検出部と、
    前記撮像画像に含まれる人物の顔以外の特性を示す属性情報を取得する取得部と、
    前記顔画像検出部で検出された顔画像、および、前記取得部で取得された属性情報のうちの少なくとも一方を用いて、前記撮像画像に含まれる人物が、前記警備領域内への侵入を許可される、または、許可されない人物を示す対象者であるかどうかを判断する判断処理を実行する判断部と、
    それぞれが前記対象者を識別する複数の識別情報ごとに、顔画像を対応付けて記憶する第1記憶部と、
    複数の前記識別情報ごとに、属性情報を対応付けて記憶する第2記憶部と、
    を備え、
    前記判断部は、
    前記第1記憶部に記憶された複数の顔画像のうちの何れかと、前記顔画像検出部で検出された顔画像との類似性が高いほど大きな値を示す類似度が第1閾値を超える場合、
    前記顔画像検出部で検出された顔画像に対応する人物は前記対象者であると判断するとともに、
    前記第2記憶部に記憶された複数の前記識別情報のうち、前記顔画像検出部で検出された顔画像との類似度が前記第1閾値を超える顔画像に対応付けられた前記第1記憶部内の前記識別情報と一致する前記識別情報に対して、前記取得部で取得された属性情報と、その属性情報が取得されたときの時刻を示す時間情報とを対応付けて記録し、
    前記第1記憶部に記憶された複数の顔画像のうちの何れかと、前記顔画像検出部で検出された顔画像との類似度が前記第1閾値以下の場合、および、前記顔画像検出部による顔画像の検出が失敗した場合のうちの何れかであり、かつ、所定時間以内に、前記判断部によって、前記撮像画像に含まれる人物に前記対象者が存在すると判断されていた場合、
    前記第2記憶部に記憶された複数の属性情報のうち、対応付けられた前記時間情報が示す時刻が前記所定時間以内である属性情報と、前記取得部により取得された前記顔画像検出部による顔画像の検出対象の人物の属性情報との類似性が高いほど大きな値を示す類似度が第3閾値を超える場合は、前記取得部により取得された属性情報に対応する人物は前記対象者であると判断する、
    警備装置。
  2. 前記判断部は、
    前記第2記憶部に記憶された複数の属性情報のうち、対応付けられた前記時間情報が示す時刻が前記所定時間以内である属性情報と、前記取得部により取得された属性情報との類似度が前記第3閾値を超える場合は、前記取得部により取得された属性情報と、その属性情報が取得されたときの時刻を示す時間情報とを対応付けて前記第2記憶部に記録する、
    請求項1に記載の警備装置。
  3. 前記判断部は、
    前記第2記憶部に記憶された複数の属性情報のうち、前記取得部により取得された属性情報との類似度が前記第3閾値を超える属性情報を、前記取得部により取得された属性情報に更新するとともに、その属性情報が取得されたときの時刻を示す時間情報を対応付けて記録する、
    請求項2に記載の警備装置。
  4. 前記撮像画像に含まれる複数の人物に、前記判断部により前記対象者であると判断された人物が含まれるかどうかに応じて、監視センタへの通報の可否を決定する出力部をさらに備える、
    請求項1乃至3のうちの何れか1項に記載の警備装置。
  5. 警備領域内を撮像して撮像画像を得る撮像部によって得られた撮像画像に含まれる人物の顔画像を検出する顔画像検出ステップと、
    前記撮像画像に含まれる人物の顔以外の特性を示す属性情報を取得する取得ステップと、
    前記顔画像検出ステップで検出された顔画像、および、前記取得ステップで取得された属性情報のうちの少なくとも一方を用いて、前記撮像画像に含まれる人物が、前記警備領域内への侵入を許可される、または、許可されない人物を示す対象者であるかどうかを判断する判断処理を実行する判断ステップと、を含み、
    前記判断ステップは、
    それぞれが前記対象者を識別する複数の識別情報ごとに顔画像を対応付けて記憶する第1記憶部に記憶された複数の顔画像のうちの何れかと、前記顔画像検出ステップで検出された顔画像との類似性が高いほど大きな値を示す類似度が第1閾値を超える場合、
    前記顔画像検出ステップで検出された顔画像に対応する人物は前記対象者であると判断するとともに、
    複数の前記識別情報ごとに属性情報を対応付けて記憶する第2記憶部に記憶された複数の前記識別情報のうち、前記顔画像検出ステップで検出された顔画像との類似度が前記第1閾値を超える顔画像に対応付けられた前記第1記憶部内の前記識別情報と一致する前記識別情報に対して、前記取得ステップで取得された属性情報と、その属性情報が取得されたときの時刻を示す時間情報とを対応付けて記録し、
    前記第1記憶部に記憶された複数の顔画像のうちの何れかと、前記顔画像検出ステップで検出された顔画像との類似度が前記第1閾値以下の場合、および、前記顔画像検出ステップによる顔画像の検出が失敗した場合のうちの何れかであり、かつ、所定時間以内に、前記判断ステップによって、前記撮像画像に含まれる人物に前記対象者が存在すると判断されていた場合、
    前記第2記憶部に記憶された複数の属性情報のうち、対応付けられた前記時間情報が示す時刻が前記所定時間以内である属性情報と、前記取得ステップにより取得された前記顔画像検出ステップによる顔画像の検出対象の人物の属性情報との類似性が高いほど大きな値を示す類似度が第3閾値を超える場合は、前記取得ステップにより取得された属性情報に対応する人物は前記対象者であると判断する、
    警備方法。
  6. コンピュータに、
    警備領域内を撮像して撮像画像を得る撮像部によって得られた撮像画像に含まれる人物の顔画像を検出する顔画像検出ステップと、
    前記撮像画像に含まれる人物の顔以外の特性を示す属性情報を取得する取得ステップと、
    前記顔画像検出ステップで検出された顔画像、および、前記取得ステップで取得された属性情報のうちの少なくとも一方を用いて、前記撮像画像に含まれる人物が、前記警備領域内への侵入を許可される、または、許可されない人物を示す対象者であるかどうかを判断する判断処理を実行する判断ステップと、を実行させ、
    前記判断ステップは、
    それぞれが前記対象者を識別する複数の識別情報ごとに顔画像を対応付けて記憶する第1記憶部に記憶された複数の顔画像のうちの何れかと、前記顔画像検出ステップで検出された顔画像との類似性が高いほど大きな値を示す類似度が第1閾値を超える場合、
    前記顔画像検出ステップで検出された顔画像に対応する人物は前記対象者であると判断するとともに、
    複数の前記識別情報ごとに属性情報を対応付けて記憶する第2記憶部に記憶された複数の前記識別情報のうち、前記顔画像検出ステップで検出された顔画像との類似度が前記第1閾値を超える顔画像に対応付けられた前記第1記憶部内の前記識別情報と一致する前記識別情報に対して、前記取得ステップで取得された属性情報と、その属性情報が取得されたときの時刻を示す時間情報とを対応付けて記録し、
    前記第1記憶部に記憶された複数の顔画像のうちの何れかと、前記顔画像検出ステップで検出された顔画像との類似度が前記第1閾値以下の場合、および、前記顔画像検出ステップによる顔画像の検出が失敗した場合のうちの何れかであり、かつ、所定時間以内に、前記判断ステップによって、前記撮像画像に含まれる人物に前記対象者が存在すると判断されていた場合、
    前記第2記憶部に記憶された複数の属性情報のうち、対応付けられた前記時間情報が示す時刻が前記所定時間以内である属性情報と、前記取得ステップにより取得された前記顔画像検出ステップによる顔画像の検出対象の人物の属性情報との類似性が高いほど大きな値を示す類似度が第3閾値を超える場合は、前記取得ステップにより取得された属性情報に対応する人物は前記対象者であると判断する、
    ためのプログラム。
JP2013072933A 2013-03-29 2013-03-29 警備装置、警備方法およびプログラム Active JP6336709B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013072933A JP6336709B2 (ja) 2013-03-29 2013-03-29 警備装置、警備方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013072933A JP6336709B2 (ja) 2013-03-29 2013-03-29 警備装置、警備方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2014197330A JP2014197330A (ja) 2014-10-16
JP6336709B2 true JP6336709B2 (ja) 2018-06-06

Family

ID=52358057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013072933A Active JP6336709B2 (ja) 2013-03-29 2013-03-29 警備装置、警備方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6336709B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9875393B2 (en) * 2014-02-12 2018-01-23 Nec Corporation Information processing apparatus, information processing method, and program
KR101706114B1 (ko) * 2014-12-31 2017-02-14 삼성에스디에스 주식회사 영상 촬영 장치, 영상 분석 장치 및 방법과 이를 이용한 영상 분석 시스템
JP2016131288A (ja) * 2015-01-13 2016-07-21 東芝テック株式会社 情報処理装置及びプログラム
JPWO2019186977A1 (ja) * 2018-03-29 2021-03-18 サン電子株式会社 情報管理システム
JP7304531B2 (ja) * 2019-04-09 2023-07-07 パナソニックIpマネジメント株式会社 身体機能管理システム、及び、身体機能管理方法
KR102376038B1 (ko) * 2019-09-10 2022-03-17 주식회사 에스원 Uwb 센서를 이용한 얼굴인식 개선 시스템 및 얼굴인식 개선방법
US20230139260A1 (en) * 2020-03-10 2023-05-04 Nec Corporation Photographing control apparatus, system, method, and non-transitory computer-readable medium storing program
WO2022168626A1 (ja) * 2021-02-03 2022-08-11 パナソニックi-PROセンシングソリューションズ株式会社 人物検知サーバ、アラーム通知方法およびアラーム通知プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063858A (ja) * 1996-08-21 1998-03-06 Oki Electric Ind Co Ltd 個人識別方法及び個人識別装置
JP4696605B2 (ja) * 2005-03-11 2011-06-08 富士通株式会社 生体認証プログラム、装置及び方法
JP5013172B2 (ja) * 2006-11-09 2012-08-29 オムロン株式会社 情報処理装置および方法、並びにプログラム
JP2009009231A (ja) * 2007-06-26 2009-01-15 Toshiba Corp セキュリティ管理システムおよびセキュリティ管理方法
JP2010072693A (ja) * 2008-09-16 2010-04-02 Waseda Univ 認証装置及び撮影装置
JP4544363B1 (ja) * 2009-03-13 2010-09-15 オムロン株式会社 顔認証装置、人物画像検索システム、顔認証装置制御プログラム、コンピュータ読み取り可能な記録媒体、および顔認証装置の制御方法
JP5674307B2 (ja) * 2009-12-17 2015-02-25 グローリー株式会社 対象者検出システムおよび対象者検出方法

Also Published As

Publication number Publication date
JP2014197330A (ja) 2014-10-16

Similar Documents

Publication Publication Date Title
JP6336709B2 (ja) 警備装置、警備方法およびプログラム
JP7168052B2 (ja) 監視システム及び監視方法
US9802789B2 (en) Elevator security system
KR101387628B1 (ko) 출입 통제 통합 영상 저장 장치
JP5473801B2 (ja) 監視装置
JP2018173914A (ja) 画像処理システム、撮像装置、学習モデル作成方法、情報処理装置
JP6930126B2 (ja) 人物検出システム
US10964187B2 (en) Smart surveillance system for swimming pools
JP2011523106A (ja) 対象及び事象を分類する映像センサ及び警報システム並びに方法
JP5054349B2 (ja) 入場規制装置、入場規制方法および入場規制プログラム
KR101858396B1 (ko) 지능형 침입 탐지 시스템
JP6163466B2 (ja) 認証装置
JP4797517B2 (ja) 監視装置および方法、並びにプログラム
JP2004246471A (ja) 防犯警備装置
KR102233679B1 (ko) Ess 침입자 및 화재 감지 장치 및 방법
CN112211496B (zh) 一种基于智能门锁的监控方法、系统及智能门锁
JP5752977B2 (ja) 画像監視装置
JP5758165B2 (ja) 物品検出装置および静止人物検出装置
JP5064846B2 (ja) 監視システム
JP2024009906A (ja) 監視装置、監視方法、およびプログラム
JP2015079472A (ja) 建築物用セキュリティシステム
KR101524922B1 (ko) 비상 알림을 위한 장치, 방법 및, 기록 매체
JP5649862B2 (ja) 画像監視装置
JP5520675B2 (ja) 通報装置
KR101778863B1 (ko) 홈 네트워크를 이용한 세대 방범시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180507

R150 Certificate of patent or registration of utility model

Ref document number: 6336709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250