以下、実施形態の画像センサ及び学習方法を、図面を参照して説明する。
(第1の実施形態)
図1は、第1の実施形態の画像センサを用いた機器制御システムの構成の具体例を示すシステム構成図である。機器制御システム100は、一つ以上の照明機器1、一つ以上の画像センサ2、ネットワークハブ3、ゲートウェイ4、センサネットワーク5、制御ネットワーク6及び制御装置群7を備える。
照明機器1は、機器制御システム100において制御対象となる機器の一例である。図1には、一つ以上の照明機器1の例として照明機器1−1〜1−3が示されている。
画像センサ2は、一つ以上の照明機器1が設置された空間(以下、「制御対象空間」という。)において、各照明機器1に対応して設置される。画像センサ2は、自装置に対応する照明機器1に応じた空間(以下、「対象空間」という。)を撮像し、対象空間の画像を取得する。例えば画像センサ2は、オフィスフロア(制御対象空間)の天井に設置され、オフィスフロアを俯瞰して撮像可能なように設置される。そして画像センサ2は、同じくオフィスフロアの天井に設置された照明機器1のうち、自装置に対応する照明機器1によって光が供給される空間(対象空間)を撮像する。画像センサ2は、撮像によって取得した対象空間の画像から対象空間の状態に関する情報(以下、「空間情報」という。)を取得する。画像センサ2は、取得した空間情報をネットワークハブ3を介してゲートウェイ4に送信する。図1には、一つ以上の画像センサ2の例として画像センサ2−1〜2−3が示されている。
ネットワークハブ3は、画像センサ2をセンサネットワーク5に接続する。
ゲートウェイ4は、画像センサ2が接続されたセンサネットワーク5と、制御装置群7が接続された制御ネットワーク6とを接続する。ゲートウェイ4は、通信プロトコルの変換等を行うことにより、画像センサ2と制御装置群7との間の通信を中継する。
センサネットワーク5は、画像センサ2を収容するネットワークである。例えばセンサネットワーク5は、イーサネット(登録商標)によって構成されたIPネットワークである。センサネットワーク5は、画像センサ2との通信を可能にするネットワークであれば他のどのような種類のネットワークであってもよい。
制御ネットワーク6は、制御装置群7を収容するネットワークである。例えば制御ネットワーク6は、BACnet(Building Automation and Control Network)によって構成されたIPネットワークである。制御ネットワーク6は、制御装置群7との通信を可能にするネットワークであれば他のどのような種類のネットワークであってもよい。
なお、画像センサ2と制御装置群7との間の通信が可能であれば、センサネットワーク5及び制御ネットワーク6は、いずれかのネットワークに統合されてもよい。この場合、機器制御システム100はゲートウェイ4を備えなくてもよい。
制御装置群7は、機器制御システム100において制御対象の機器を制御する制御装置の集合を表す。例えば制御装置群7は、BEMS71(Building Energy Management System)や、空調制御装置72及び照明制御装置73を備える。BEMS71は、ビルの機器や設備等の運転管理によってエネルギー消費量の削減を図るためのシステムである。空調制御装置72は、空調装置(図示せず)を制御する装置である。照明制御装置73は、照明機器1を制御する装置である。
制御装置群7に含まれる各制御装置は、画像センサ2から送信される空間情報に基づいて制御対象の機器の制御値を算出し、算出した制御値で制御対象の機器を動作させるための制御情報を生成する。各制御装置は、生成した制御情報を制御対象の機器に送信する。この制御情報の送信により、制御対象の機器が空間情報に基づいて算出された制御値で動作するように制御される。
なお、本実施形態では、画像センサ2は、対象空間における人物に関する情報(以下、「人物情報」という。)を空間情報として取得する。例えば人物情報は、対象空間における人物の有無、人数、活動量、姿勢などを示す情報である。照明制御装置73は、画像センサ2から送信される人物情報に基づいて、制御対象の照明機器1を制御する。
図2は、第1の実施形態の画像センサ2の機能構成を示す機能ブロック図である。画像センサ2は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、画像センサプログラムを実行する。画像センサ2は、画像センサプログラムの実行によって通信部201、撮像部202、画像記憶部203、背景辞書記憶部204、人物辞書記憶部205、動体検出部206、背景識別部207、人物識別部208、人物判定部209及び学習部210を備える装置として機能する。なお、画像センサ2の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。画像センサプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。画像センサプログラムは、電気通信回線を介して送信されてもよい。
通信部201は、画像センサ2がセンサネットワーク5に接続するための通信インターフェースである。
撮像部202(画像取得部の一例)は、対象空間を撮像し、対象空間の画像を取得する。撮像部202は、取得した対象空間の画像データを画像記憶部203に記憶させる。
画像記憶部203、背景辞書記憶部204及び人物辞書記憶部205は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。画像記憶部203は、撮像部202によって取得された画像データを記憶する。背景辞書記憶部204は、背景辞書を記憶する。背景辞書は、対象空間の背景の特徴を示す情報である。背景辞書は、対象空間の背景に関する画像(以下、「背景画像」という。)から抽出された特徴量が、種々の特徴ごとに整理された情報である。人物辞書記憶部205は、人物辞書を記憶する。人物辞書は、人物の特徴を示す情報である。人物辞書は、人物に関する画像(以下、「人物画像」という。)から抽出された特徴量が、種々の特徴ごとに整理された情報である。背景辞書記憶部204は、予め生成された初期の背景辞書を記憶している。同様に、人物辞書記憶部205は、予め生成された初期の人物辞書を記憶している。
動体検出部206は、画像記憶部203に蓄積された画像に基づいて、動体を検出する対象の画像(以下、「検出対象画像」という。)から動体を検出する。動体検出部206は、自律して動作する人物などの被写体の他、自律して動作しないが位置の変化があった静止体などを動体として検出する。画像から動体を検出する手法には、フレーム間差分やオプティカルフロー、テンプレートマッチングなどの手法を用いることができる。
背景識別部207は、動体検出部206によって動体と判定された領域(以下、「動体領域」という。)の画像が背景であるか否かを、背景辞書に基づいて識別する。
人物識別部208は、背景識別部207によって背景でないと識別された動体領域が人物であるか否かを、人物辞書に基づいて識別する。
背景識別部207及び人物識別部208は、動体領域の画像から識別対象(背景や人物)に応じた特徴量を取得し、取得した特徴量と、背景辞書や人物辞書などの辞書情報とに基づいて、動体領域の被写体を識別する。なお、画像から被写体を識別する手法には、ニューラルネットワークやSVM(Support Vector Machine)、k近傍識別器、ベイズ分類などの手法を用いることができる。また、被写体の識別に用いる特徴量には、累積差分特徴量のような輝度変化に関する特徴量や、CoHOG特徴量のような輝度分布に関数特徴量を用いることができる。
人物判定部209は、人物識別部208の識別結果に基づいて、検出対象画像において人物が撮像された領域(以下、「人物領域」という。)を抽出する。人物判定部209は、人物領域の抽出結果に応じて対象空間における人物の有無を判定する。人物判定部209は、通信部201を介して判定結果を照明制御装置73に送信する。
学習部210は、画像記憶部203に蓄積された画像に基づいて、辞書情報を更新する。この辞書情報の更新を以下では学習と称する。辞書情報の学習は初期学習とオンライン学習とに分類される。初期学習は、背景辞書記憶部204及び人物辞書記憶部205に予め登録される初期状態の辞書情報を生成する処理である。初期状態の辞書情報は、予め用意された学習用の画像に基づいて生成される。これに対してオンライン学習は、照明制御の運用中に蓄積された検出対象画像に基づいて、辞書情報を更新する処理である。
なお、上述した画像センサ2は、撮像部202を備えない空間情報取得装置として構成されてもよい。この場合、空間情報取得装置は、撮像部202として機能するカメラとの通信インターフェースを備え、カメラとの通信によって対象空間の画像を取得してもよい。また、空間情報取得装置は、クラウドサーバとして構成されてもよい。
図3は、第1の実施形態の画像センサ2が、照明制御の運用中において対象空間における人物の有無を判定する処理の流れを示すフローチャートである。まず、撮像部202が対象空間を撮像し、検出対象画像を取得する(ステップS101)。動体検出部206は、撮像部202によって取得された検出対象画像と、画像記憶部203に蓄積された画像とのフレーム間差分を取得する(ステップS102)。動体検出部206は、取得したフレーム間差分に基づいて、検出対象画像から動体領域を抽出する(ステップS103)。
続いて背景識別部207が、動体検出部206によって抽出された動体領域の画像から特徴量を抽出する。背景識別部207は、抽出した特徴量と、背景辞書とに基づいて、動体領域の被写体が背景であるか否かを判定する。具体的には、動体検出部206は、動体領域の画像と背景画像との類似度を算出する(ステップS104)。背景識別部207は、算出した類似度に基づいて、動体領域の被写体が背景であるか否かを判定する。例えば、背景識別部207は、類似度が所定の閾値以上である場合に動体領域の被写体が背景であると判定し、類似度が閾値未満である場合に動体領域の被写体が背景でないと判定する。背景識別部207は、検出対象画像から抽出された動体領域のうち、背景でないと判定された領域を人物が存在する可能性のある領域(以下、「人物候補領域」という。)として抽出する(ステップS105)。
人物識別部208は、背景識別部207によって抽出された人物候補領域の画像から特徴量を抽出する。人物識別部208は、抽出した特徴量と、人物辞書とに基づいて、人物候補領域の被写体が人物であるか否かを判定する。具体的には、人物識別部208は、人物候補領域の画像と人物画像との類似度を算出する(ステップS106)。人物識別部208は、算出した類似度に基づいて、人物候補領域の被写体が人物であるか否かを判定する。例えば、人物識別部208は、類似度が所定の閾値以上である場合に人物候補領域の被写体が人物であると判定し、類似度が閾値未満である場合に人物候補領域の被写体が人物でないと判定する。
人物判定部209は、被写体が人物であると判定された人物候補領域を人物領域として決定し、検出対象画像から抽出する(ステップS107)。例えば、人物判定部209は、隣接する人物候補領域をグループ化し、面積が所定の閾値を越えているグループを人物領域と判定する。また、例えば、人物判定部209は、グループの形状に基づいて各グループが人物領域であるか否かを判定してもよい。人物判定部209は、人物領域の抽出結果に応じて対象空間における人物の有無を判定する(ステップS108)。具体的には、人物判定部209は、検出対象画像から人物領域が抽出された場合には、対象空間に人物が存在すると判定し、検出対象画像から人物領域が抽出されなかった場合には、対象空間に人物が存在しないと判定する。
なお、動体検出部206が行う動体検出処理、背景識別部207が行う背景識別処理及び人物識別部208が行う人物識別処理は、図3のように直列で処理されてもよいし、並列で処理されてもよい。また、動体検出部206が行う動体検出処理、背景識別部207が行う背景識別処理及び人物識別部208が行う人物識別処理は、画素単位で行われてもよいし、複数画素からなるブロック単位で行われてもよい。また、これらの処理は、画像から検出されたオブジェクトの単位で行われてもよいし、そのオブジェクトを外接矩形などで近似した領域を単位として行われてもよい。
図4は、人物領域の抽出の具体例を示す図である。図4(A)は、人物識別部208による人物候補領域の識別結果を示す図である。図4(A)の場合、検出対象画像310は36の部分領域311に分割され、各部分領域311ごとに識別処理が行われる。図4(A)は、検出対象画像310における9つの部分領域311−1〜311−9が、人物であると判定された人物候補領域を表している。
この場合、人物判定部209は、隣接する部分領域311−1〜311−4からなる第1グループ321と、部分領域311−5及び311−6からなる第2グループ322と、部分領域311−7及び311−8からなる第3グループ323と、部分領域311−9のみの第4グループ324と、に各部分領域311をグループ化する。そして、人物判定部209は、例えば、2つ以上の部分領域311からなるグループを人物領域として抽出する。この場合、図4(B)に示されるように、2つ以上の部分領域311からなる第1グループ321、第2グループ322及び第3グループ323の領域が人物領域として抽出される。人物判定部209は、図4(B)のように、検出対象画像310から人物領域が抽出されたことをもって対象空間における人物の有無を判定する。さらに人物判定部209は、このような存在判定の結果から、対象空間に存在する人物の人数を推定することができる。例えば図4(B)の場合、人物判定部209は、対象空間に3人の人物が存在することを推定できる。さらに、人物判定部209は、上述した人物の有無や人数の他、対象空間に存在する人物の活動量を人物情報として取得することができる。
図5は、検出対象画像から人物の活動量を取得する方法の具体例を示す図である。図5(A)は、人物判定部209によって抽出された人物領域の具体例を示している。図5(A)は、検出対象画像330から2つの人物領域331及び332が抽出されたことを示している。この場合、人物判定部209は、検出対象画像330について取得されたフレーム間差分の領域(以下、「動き領域」という。)と、人物領域331及び332とのを重ね合わせることによって、人物領域331及び332の移動量を取得する。例えば、図5(B)のように、フレーム間差分画像340から動き領域341、342及び343が取得された場合、人物判定部209は、動き領域341の面積を人物領域331の活動量として取得し、動き領域342の面積を人物領域332の活動量として取得する。
図6は、背景辞書の初期学習の流れを示すフローチャートである。なお、ここでは、画像センサ2には、初期の人物辞書が予め設定されていると仮定する。これは、背景の特徴が対象空間ごとに異なるのに対して、人物か否かという程度の識別に必要な人物の特徴は対象空間の違いによらずある程度共通しているためである。そのため、画像センサ2に初期設定される人物辞書には、他の画像センサ2と共通の人物辞書(以下、「共通人物辞書」という。)が用いられてもよい。共通人物辞書は、初期設定用に生成された人物辞書であってもよいし、運用中の画像センサ2のオンライン学習によって更新された人物辞書であってもよい。このような理由から、まず、画像センサ2には、初期状態の人物辞書として共通人物辞書が設定される(ステップS201)。なお、共通人物辞書は、人物の汎用的な特徴を表現する人物辞書であってもよいし、スーツを着用した人物やクールビズに準拠した服装の人物、作業服を着用した人物など、服装ごとにカテゴライズされた人物の特徴を表す人物辞書であってもよい。
続いて、撮像部202が、対象空間を撮像し、背景辞書を学習するための画像(以下、「学習用画像」という。)を取得する。動体検出部206は、撮像部202によって取得された学習用画像から動体を検出する動体検出処理を実行する(ステップS202)。学習部210は、動体検出処理によって動体が検出されたか否かを判定する(ステップS203)。動体が検出されなかった場合(ステップS203−NO)、学習部210は、背景辞書の学習を行わずに処理を終了する。
一方、動体が検出された場合(ステップS203−YES)、学習部210は処理を次のステップに進め、人物識別部208が動体検出部206によって検出された動体が人物であるか否かを識別する人物識別処理を実行する(ステップS204)。学習部210は、人物識別処理において動体が人物と識別されたか否かを判定する(ステップS205)。動体が人物と識別された場合(ステップS205−YES)、学習部210は、背景辞書の学習を行わずに処理を終了する。
一方、動体が人物と識別されなかった場合(ステップS205−NO)、学習部210は、人物と識別されなかった動体領域の画像を学習用画像として背景辞書を生成する(ステップS206)。画像センサ2は、初期学習の期間に取得される複数の学習用画像に対して、図6の一連の処理を繰り返し実行することにより、背景辞書の初期学習を行う。
図7は、人物辞書の初期学習の流れを示すフローチャートである。人物辞書の初期学習は、初期学習によって生成された背景辞書を用いて、共通人物辞書を更新する処理である。なお、ここでは、図6と同じ符号を付すことにより、図6と同様の処理についての説明を省略する。
動体検出処理において動体が検出された場合(ステップS203−YES)、学習部210は処理を次のステップに進め、背景識別部207が動体検出部206によって検出された動体が背景であるか否かを識別する背景識別処理を実行する(ステップS301)。学習部210は、背景識別処理において動体が背景と識別されたか否かを判定する(ステップS302)。動体が背景と識別された場合(ステップS302−YES)、学習部210は、人物辞書の学習を行わずに処理を終了する。
一方、動体が背景と識別されなかった場合(ステップS302−NO)、学習部210は、背景と識別されなかった動体領域の画像を学習用画像として人物辞書を更新する(ステップS303)。画像センサ2は、初期学習の期間に取得される複数の学習用画像に対して、図7の一連の処理を繰り返し実行することにより、人物辞書の初期学習を行う。
なお人物辞書と同様に、背景辞書についても、対象空間のレイアウトの類似度が高い場合には、画像センサ2には、初期状態の背景辞書として共通の辞書情報が設定されてもよい。例えば、廊下や会議室など、同様のレイアウトを持つ異なる対象空間には、共通の背景辞書を用いることができる。また、同じオフィス内でも、個々の対象空間のレイアウトが似通っている場合には、各対象空間で共通の背景辞書が用いられてもよい。
なお、人物辞書の学習を行う場合、人物以外の動きが発生しない環境であることが望ましい。そのため、画像センサ2は、窓やブラインドを制御する制御装置と連携することで、人物辞書の学習を行う前に窓やブラインドを閉じるような制御を行ってもよい。
図8は、背景辞書及び人物辞書のオンライン学習の流れを示すフローチャートである。まず、画像センサ2は、図3で説明したステップS101〜S109の処理を実行することによって、対象空間における人物の有無を判定する(ステップS401)。学習部210は、対象空間において人物の存在が検知されたか否かを判定する(ステップS402)。対象空間において人物の存在が検知された場合(ステップS402−YES)、学習部210は、検出された人物領域の画像を学習用画像として、人物辞書を更新する(ステップS403)。一方、対象空間において人物の存在が検出されなかった場合(ステップS402−NO)、学習部210は、人物が検出されなかった検出用画像を学習用画像として、背景辞書を更新する(ステップS404)。
なお、ステップS402において対象空間における人物の存在が検知された場合、画像センサ2は、人物領域の学習(ステップS403)に加えて、背景領域の学習を行ってもよい。具体的には、学習部210は、人物識別部208によって識別された人物領域の画像に基づいて人物辞書を更新し、人物領域以外の領域の画像(すなわち背景画像)に基づいて背景辞書を更新してもよい。
このように構成された第1の実施形態の画像センサ2は、検出用画像又は学習用画像における、動体の検出結果又は人物の検出結果に応じた領域を対象として、辞書情報の学習を行う。このような構成を備えることにより、画像センサ2は、検出対象画像から人物をより精度よく検出することが可能となる。
なお、画像センサ2は、背景辞書又は人物辞書のいずれの学習を行うかをユーザが設定可能なように構成されてもよい。例えば、ユーザは、背景辞書の学習、人物辞書の学習、学習なし、のいずれかの動作モードを画像センサ2に設定する。画像センサ2は、ユーザの設定に応じて、背景辞書の学習、人物辞書の学習、学習なし、のいずれかの動作モードで辞書情報の学習を行う。
また、画像センサ2は、上記の動作モードが時間帯や日付、曜日などのタイミングに応じて切り換えるように構成されてもよい。例えば、ユーザは、上記動作モードと実行タイミングとの対応を表すスケジュール情報を画像センサ2に設定する。画像センサ2は、ユーザが設定したスケジュール情報に基づいて、背景辞書の学習、人物辞書の学習、学習なし、動作モードを切り換えながら辞書情報の学習を行う。このような辞書情報の学習により、例えば画像センサ2は、勤務時間帯には人物辞書の学習を行い、勤務時間帯以外には背景辞書の学習を行い、休日には辞書情報の学習を行わないといったスケジュールで辞書情報の学習を行うことができる。
また、画像センサ2は、PCなどのOA機器との連携によって、学習する辞書情報を選択するように構成されてもよい。例えば、画像センサ2は、PCのログオン操作や、キーボード操作が検出された場合、当該PCが設置された座席の画像を用いて人物辞書の学習を行ってもよい。この場合、当該PCの位置情報は、座席表によって固定された位置情報が用いられてもよいし、当該PCとの無線通信に基づいて推定された位置情報が用いられてもよい。
また、画像センサ2は、制御装置群7に含まれる種々の制御装置との連携によって、学習する辞書情報を選択するように構成されてもよい。例えば、画像センサ2は、これらの制御装置から制御対象機器の制御結果を示すログ情報を取得する。画像センサ2は、自装置の検出結果と、ログ情報が示す制御結果とに基づいて、自装置における人物の未検知や誤検知等を推定する。ここでいう未検知とは、実際に存在した人物を検出しなかったことを意味し、誤検知とは、人物以外の被写体を人物として検出したことを意味する。この場合、画像センサ2は、例えば未検知の発生が推定された場合には、人物辞書の学習を行い、誤検知の発生が推定された場合には、背景辞書の学習を行うように構成されてもよい。
ここで、ログ情報に基づいて人物の未検知又は誤検知の発生を推定する方法の一例について説明する。例えば、ログ情報に、短時間の照明OFF状態が多数記録されている場合、人物の未検知が発生していると考えられる。例えば、ある静止した人物が未検知となり、照明が消灯される。当該人物は、照明の消灯に対して行動を起こし、その行動の検知によって照明が点灯される。その後、当該人物が静止すると、当該人物が再度未検知となり、照明が消灯される。この結果、ログ情報には、短時間の照明OFF状態が多数記録されることとなる。
また、例えば、ログ情報に短時間の照明ON状態が多数記録されている場合、人物の誤検知が発生していると考えられる。例えば、周囲の照明の点灯消灯などを人物の存在として誤検知した場合、照明が点灯されてもすぐに消灯される。この結果、ログ情報には、短時間の照明ON状態が多数記録されることとなる。
また、例えば、ログ情報に、照明のON状態とOFF状態とが頻繁に切り替わっていることが記録されている場合、人物の未検知及び誤検知が発生していると考えられる。このような場合、ログ情報には、周囲の照明機器や過去の照明制御と異なる頻度で実行された照明制御が記録されることとなる。
画像センサ2は、このようなログ情報が示す照明制御の傾向に基づいて、人物の未検知又は誤検知の発生を検出することができる。
(第2の実施形態)
図9は、第2の実施形態の画像センサ2aの機能構成を示す機能ブロック図である。画像センサ2aは、ネガティブ辞書記憶部211をさらに備える点で第1の実施形態の画像センサ2と異なる。なお、画像センサ2aにおいて、画像センサ2と同様の機能部については、図2と同様の符号を付すことにより、同様の機能部についての説明を省略する。
ネガティブ辞書記憶部211は、ネガティブ辞書を記憶する。ネガティブ辞書は、対象空間の背景との類似度が低い画像、及び人物との類似度が低い画像から抽出された特徴量が、特徴量の種別や性質ごとに整理された情報である。以下、対象空間の背景との類似度が低い画像、及び人物との類似度が低い画像をネガティブ画像という。
背景識別部207aは、動体検出部206によって検出された動体領域の画像が背景であるか否かを、背景辞書及びネガティブ辞書情報に基づいて識別する。
人物識別部208aは、背景識別部207aによって背景でないと識別された動体領域が人物であるか否かを、人物辞書及びネガティブ辞書情報に基づいて識別する。
図10は、第2の実施形態の画像センサ2aが、照明制御の運用中において対象空間における人物の有無を判定する処理の流れを示すフローチャートである。なお、ここでは、図3と同じ符号を付すことにより、図3と同様の処理についての説明を省略する。
背景識別部207aは、動体検出部206によって検出された動体領域の画像の特徴量を抽出する。背景識別部207は、抽出した特徴量と、背景辞書とに基づいて、動体領域の画像の背景画像との類似度を算出する(ステップS104)とともに、抽出した特徴量とネガティブ辞書とに基づいて、動体領域の画像のネガティブ画像との類似度を算出する(ステップS501)。
背景識別部207aは、算出した類似度に基づいて、動体領域が背景であるか否かを判定する。例えば、背景識別部207aは、背景画像との類似度が所定の閾値以上かつネガティブ画像との類似度が所定の閾値以下である場合に動体領域が背景であると判定し、それ以外の場合には、動体領域が背景でないと判定する。背景識別部207aは、動体領域のうち、背景でないと判定された領域を、人物候補領域として抽出する(ステップS502)。
人物識別部208aは、背景識別部207aによって抽出された人物候補領域の画像の特徴量を抽出する。人物識別部208aは、抽出した特徴量と、人物辞書とに基づいて、人物候補領域の画像の人物画像との類似度を算出する(ステップS106)とともに、抽出した特徴量とネガティブ辞書とに基づいて、人物候補領域の画像のネガティブ画像との類似度を算出する(ステップS502)。
人物識別部208aは、算出した類似度に基づいて、人物候補領域が人物であるか否かを判定する。例えば、人物識別部208aは、人物画像との類似度が所定の閾値以上かつネガティブ画像との類似度が所定の閾値以下である場合に人物候補領域が人物であると判定し、それ以外の場合には、人物候補領域が人物でないと判定する。
このように構成された第2の実施形態の画像センサ2aは、背景画像及び人物画像との類似度が低い画像に基づいて生成されたネガティブ辞書を用いて、背景及び人物の識別を行う。このような構成を備えることによって、画像センサ2aは、検出対象画像から人物をさらに精度よく検出することが可能となる。
以下、実施形態の画像センサ2及び2aの変形例について説明する。
なお、ネガティブ辞書は、背景でなく、かつ人物でない画像の特徴を示す辞書情報であってもよいし、背景でない画像の特徴を示す辞書情報と、人物でない画像の特徴を示す辞書情報との組み合わせであってもよい。
上記の画像センサ2及び2aは、種々の識別結果や検出結果、中間データ、種々のパラメータ、辞書情報、画像データ、ソフトウェアなどを通信することにより、デバッグや調整、プログラムのアップデート等のメンテナンスを外部の調整用機器から実施可能なように構成されてもよい。
上記の画像センサ2及び2aが備える撮像部202は、対象空間の被写体を識別可能な画像を取得することができれば、どのような撮像装置を用いて構成されてもよい。例えば、撮像部202は、被写体との距離に応じてレンズを交換可能なように構成されてもよいし、赤外線カメラやレーザーセンサ等の撮像装置に交換可能なように構成されてもよい。
以上説明した少なくともひとつの実施形態によれば、画像から動体を検出する動体検出部と、背景辞書に基づいて動体が背景か否かを識別する背景識別部と、人物辞書に基づいて動体が人物か否かを識別する人物識別部と、動体検出部による動体の検出結果と、背景識別部による背景の識別結果と、人物識別部による人物の識別結果とに基づいて、制御対象の空間における人物の有無を判定する人物判定部と、上記画像に基づいて背景辞書及び人物辞書を更新する学習部と、を持つことにより、画像センサによる人物の誤検出を抑制することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。