JP2016170502A - 動体検出装置、動体検出方法及びコンピュータプログラム - Google Patents

動体検出装置、動体検出方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2016170502A
JP2016170502A JP2015048344A JP2015048344A JP2016170502A JP 2016170502 A JP2016170502 A JP 2016170502A JP 2015048344 A JP2015048344 A JP 2015048344A JP 2015048344 A JP2015048344 A JP 2015048344A JP 2016170502 A JP2016170502 A JP 2016170502A
Authority
JP
Japan
Prior art keywords
moving object
image
dictionary information
detection
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015048344A
Other languages
English (en)
Other versions
JP6495691B2 (ja
Inventor
榎原 孝明
Takaaki Enohara
孝明 榎原
和美 長田
Kazumi Osada
和美 長田
禎敏 齋藤
Sadatoshi Saitou
禎敏 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015048344A priority Critical patent/JP6495691B2/ja
Publication of JP2016170502A publication Critical patent/JP2016170502A/ja
Application granted granted Critical
Publication of JP6495691B2 publication Critical patent/JP6495691B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】動画像に基づく動体検出をより精度よく行うことができる動体検出装置、動体検出方法及びコンピュータプログラムを提供することである。
【解決手段】実施形態の動体検出装置は、記憶部と、動体候補検出部と、動体判定部と、を持つ。記憶部は、動体を検出する対象の空間の背景が撮像された背景画像の特徴を示す辞書情報を記憶する。動体候補検出部は、前記空間が撮像された複数の画像に基づいて、動体と推定される動体候補を検出する。動体判定部は、前記辞書情報に基づいて、前記動体候補が動体であるか否かを判定する。
【選択図】図1

Description

本発明の実施形態は、動体検出装置、動体検出方法及びコンピュータプログラムに関する。
動画像に基づいて人物を検出する一般的な手法の一つとして、フレーム間差分法がある。フレーム間差分法は、動体検出手法の一つであり、輝度の変化を物体の動きと想定して、各フレーム間の輝度の変化に基づいて動体を検出する手法である。しかしながら、動画像が撮影される環境において明るさが変化する場合、動体がない場合でも輝度が変化する。このような場合、フレーム間差分法では、動体によらない輝度変化を、動体として誤検出する可能性がある。
そこで、変化の基準となる背景画像を予め記憶しておき、背景画像との比較により輝度変化が明るさの変化によるものか否かを判定する技術が提案されている。このような技術によれば、背景画像との輝度比の分布に基づいて、輝度変化が明るさの変化によるものか否かが判定される。
しかしながら、検出対象の空間によっては、撮像される画像の輝度分布も随時変化する。このような場合、随時変化する画像に対応した背景画像が必要になるが、このような背景画像を保持することは困難である。特に、オフィス等での照明のON、OFFや、ビル等での人感センサによる照明制御は、撮像される画像の輝度分布を大きく変化させる。そのため、従来の検出手法では、このような変化に対応できず、動体を誤検知してしまう可能性があった。
特許第4619082号公報
本発明が解決しようとする課題は、動画像に基づく動体検出をより精度よく行うことができる動体検出装置、動体検出方法及びコンピュータプログラムを提供することである。
実施形態の動体検出装置は、記憶部と、動体候補検出部と、動体判定部と、を持つ。記憶部は、動体を検出する対象の空間の背景が撮像された背景画像の特徴を示す辞書情報を記憶する。動体候補検出部は、前記空間が撮像された複数の画像に基づいて、動体と推定される動体候補を検出する。動体判定部は、前記辞書情報に基づいて、前記動体候補が動体であるか否かを判定する。
画像センサ1の機能構成を示す機能ブロック図。 第1の実施形態の画像センサ1が画像から人を検出する処理の流れを示すフローチャート。 フレーム間差分の具体例を示す図。 動体領域の面積に基づく人判定の具体例を示す図。 背景画像の分割の具体例を示す図。 動体検出の結果から人数を推定する方法の具体例を示す図。 複数の辞書情報に基づいて、画像から人を検出する処理の流れを示すフローチャート。 共通の辞書情報を用いた場合の背景画像の具体例を示す図。 人の検出結果と動体領域とに基づいて推定される人の活動量の具体例を示す図。 第2の実施形態の画像センサ1aの機能構成を示す機能ブロック図。 第2の実施形態の画像センサ1aが画像から人を検出する処理の流れを示すフローチャート。
以下、実施形態の動体検出装置、動体検出方法及びコンピュータプログラムを、図面を参照して説明する。なお、以下の実施形態では、画像センサとして構成された動体検出装置を例に説明する。
(第1の実施形態)
図1は、画像センサ1の機能構成を示す機能ブロック図である。
画像センサ1は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、動体検出プログラムを実行する。画像センサ1は、動体検出プログラムの実行によって撮像部11、記憶部12、動体候補検出部13、動体判定部14及び人判定部15を備える装置として機能する。なお、画像センサ1の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。動体検出プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。動体検出プログラムは、電気通信回線を介して送信されてもよい。
撮像部11は、カメラなどの撮像機能を有する装置を用いて構成される。撮像部11は、動体を検出する対象の空間を撮像し、検出対象の空間の画像データを取得する。例えば、撮像部11は、オフィスの天井にフロアを見下ろすように設置され、オフィス空間を撮像する。撮像部11はどのような撮像装置を用いて構成されてもよいが、本実施形態では、撮像部11は、より広いエリアを撮像することができる魚眼レンズを備えた撮像装置であると仮定して説明する。撮像部11は、生成した画像データを記憶部12に保存する。
記憶部12は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部12は、撮像部11によって生成された画像データと、辞書情報とを記憶する。辞書情報は、検出対象の空間の背景が撮像された背景画像の特徴を示す情報である。より具体的には、辞書情報は、背景画像から取得される各種の特徴量が、背景画像が取得された条件で整理された情報である。特徴量には、累積差分による輝度変化やCoHOG(Co-occurrence Histograms of Oriented Gradients)による輝度分布に関する特徴量などを用いることができる。辞書情報は、背景画像に基づいて生成され、予め記憶部12に記憶されている。
動体候補検出部13は、検出対象の空間が撮像された複数の画像に基づいて、動体と推定される動体候補を検出する。動体候補を検出する手法には、フレーム間差分、オプティカルフロー、テンプレートマッチングなどを用いることができる。
動体判定部14は、辞書情報に基づいて、動体候補検出部13によって検出された動体候補が動体であるか否かを判定する。具体的には、動体判定部14は、辞書情報が示す背景画像の特徴に基づいて、動体候補が背景であるか否かを判定する。動体判定部14は、動体候補が背景でないと判定された場合に、動体候補は動体であると判定する。動体候補が背景であるか否かを判定する手法には、ニューラルネットワーク、SVM(Support Vector Machine)、k近傍識別器、ベイズ分類などを用いることができる。
人判定部15は、動体判定部によって判定された動体が人であるか否かを判定する。
図2は、第1の実施形態の画像センサ1が画像から人を検出する処理の流れを示すフローチャートである。
まず、撮像部11が検出対象の空間を撮像して画像データを取得する(ステップS101)。撮像部11は、取得した画像データを動体候補検出部13に出力する。
動体候補検出部13は、撮像部11によって取得された画像データに基づいて、動体候補を検出する(ステップS102)。例えば、動体候補検出部13は、取得した画像のフレーム間差分に基づいて動体候補を検出する。そして、動体候補検出部13は、動体候補が検出された領域(以下、「動体候補領域」という。)を示す情報を動体判定部14に出力する(ステップS103)。
図3は、フレーム間差分の具体例を示す図である。
画像100−1及び100−2は、撮像部11によって取得された画像である。画像100−2は、画像100−1が撮像された後に撮像された画像である。画像100−1の撮像と画像100−2の撮像との間の時間を仮にtとする。画像100−1及び画像100−2には、人101と窓102が撮像されており、人101は矢印の方向に移動している。そのため、画像100−2には、画像100−1より時間tの分だけ進んだ位置に人101が撮像されている。また、画像100−1及び画像100−2は、それぞれの撮像時における外光の強度に変動があったことを示している。
このような画像100−1及び画像100−2に対してフレーム間差分をとった場合、人101及び窓102の領域が差分として検出される。その結果、画像200のようなフレーム間差分201及び202が取得される。動体判定部14は、取得したフレーム間差分201及び202に基づいて、例えば、画像300のような動体候補領域301及び302を出力する。
図2の説明に戻る。
動体判定部14は、動体候補検出部13から出力された動体候補領域の画像の特徴量を算出する。動体判定部14は、算出した特徴量と辞書情報とに基づいて、動体候補領域の画像と背景画像との類似度を算出する(ステップS104)。動体判定部14は、算出した類似度に基づいて、動体候補が動体であるか否かを判定する。動体候補が動体であると判定された場合、動体判定部14は、動体候補領域を、動体が検出された領域(以下、「動体領域」という。)とし、動体領域を示す情報を人判定部15に出力する(ステップS105)。
人判定部15は、動体判定部14から出力された動体領域の画像に基づいて、動体が人であるか否かを判定する(ステップS106)。例えば、人判定部15は、次の図4のように、動体領域の面積が所定の閾値を越えた場合に、動体は人であると判定する。
図4は、動体領域の面積に基づく人判定の具体例を示す図である。
図4の画像300は、動体領域の具体例を示す図であり、図3の画像300と同じ画像を示す。この場合、例えば、人判定部15は、面積の大きい動体候補領域301(動体領域)を人と判定し、面積の小さい動体候補領域302(動体領域)を人でないと判定する。その結果、画像400のような人物領域401が抽出される。
このように構成された第1の実施形態の画像センサ1は、動体と推定された動体候補について、背景画像の特徴を示す辞書情報との類似度を算出することによって動体を検出する。このような処理を行うことによって、画像センサ1は、動画像に基づく動体検出をより精度よく行うことが可能となる。
以下、画像センサ1の変形例について説明する。
<第1の変形例>
画像センサ1は、検出対象の画像を複数の領域に分割して動体検出を行ってもよい。この場合、記憶部12は、同様に分割された背景画像の領域ごとの特徴を示す情報として、予め記憶される。
図5は、背景画像の分割の具体例を示す図である。
背景画像500は、背景画像の具体例である。背景画像500は、机が並べられた部屋を天井から撮像したものである。このような背景画像500を属性に基づいて分割した例が背景画像501である。背景画像501は、背景画像500が“机領域”及び“通路領域”の2つの属性に対応する領域に分割された場合を示している。このような背景画像501に基づく辞書情報を用いれば、“机領域”と“通路領域”とのそれぞれで、動体を検出することができる。この場合、背景画像500は、個々の“机”を属性としてさらに細かく分割されてもよい。ここでは、背景画像に対する属性の付与は人手で行うことを想定しているが、画像処理等による被写体認識技術を用いて自動的に行ってもよい。
また、背景画像502は、背景画像500が均一なブロックに分割された場合を示している。このような背景画像502に基づく辞書情報を用いれば、各ブロックごとに動体を検出することができる。さらに、均一なブロックへの分割と属性に基づく分割とを組み合わせてもよい。例えば、背景画像501に基づく辞書情報と、背景画像502に基づく辞書情報とを組み合わせて用いれば、各属性に対応する領域における人の在又は不在を動体領域のブロック数で判定することができる。例えば、画像600は、通路領域(机領域601以外の領域)における4つのブロックと、机領域601における1つのブロックとが動体領域として判定された場合の画像の例である。この場合、通路領域の“在”ブロックは4つと多いため人が存在していると判定し、机領域の“在”ブロックは1つと少ないため人が存在しないと判定できる。また、このように、動体検出をブロックごとに行うことによって、人が検出された動体領域から人の人数を推定することもできる。
図6は、動体検出の結果から人数を推定する方法の具体例を示す図である。
画像610は、人の存在が判定された検出対象の画像を示す。画像610において、人の存在が判定された領域をクラスタリングすれば、検出された人の数の領域が得られるため、検出された人の人数を推定することができる。例えば、画像620の場合、クラスタリングによって3つの領域621〜623が得られ、3人の人が存在することが推定される。
また、動体検出をブロックごとに行う場合、机の大きさなど、ブロックを一人の人間の大きさ程度に分割すれば、人が検出された属性に対応する領域のブロックの数から、検出された人の人数を推定することもできる。例えば、検出対象の画像に基づいて画像610のような人の検出結果が得られた場合、8人の人が存在することが推定される。
このようなブロックごとの動体検出を行うことによって、動体(人)の検出に加え、動体の数(人数)を推定することが可能となる。
<第2の変形例>
画像センサ1は、動体候補が動体であるかを複数の辞書情報に基づいて判定してもよい。例えば、複数の辞書情報の例として次のような辞書情報が用いられてもよい。
[第1の辞書情報]
第1の辞書情報は、背景画像の特徴を平均輝度の分類で表した辞書情報である。例えば、平均輝度が“0〜80”の場合は照明がOFFであることを示し、平均輝度が“80〜160”の場合は照明がONであることを示し、平均輝度が“160以上”の場合は外光が入射していることを示す。
[第2の辞書情報]
第2の辞書情報は、背景画像の特徴を輝度変化の分類で表した辞書情報である。例えば、輝度変化が“0〜40”外光による変化であることを示し、輝度変化が“40〜80”の場合は動体による変化であることを示し、輝度変化が“80以上”照明のON、OFFによる変化であることを示す。さらに、時間間隔が異なる複数の輝度変化で分類してもよい。例えば、短い時間間隔での輝度変化と、長い時間間隔での輝度変化との組み合わせで6(=3×2)通りの分類を設けてもよい。
[第3の辞書情報]
第3の辞書情報は、背景画像の特徴を時間帯による分類で表した辞書情報である。例えば、背景画像の特徴を“6:00〜10:00”、“10:00〜14:00”、“14:00〜18:00”、“18:00〜6:00”に分類する。各分類の時間帯は、季節や天候に応じて変更してもよい。
動体判定部14は、検出対象の画像が取得された状況に応じて、上述したような複数の辞書情報から適切な辞書情報を選択する。動体判定部14は、複数の辞書情報から1つの辞書情報を選択して用いてもよいし、複数の辞書情報を組み合わせて用いてもよい。複数の辞書情報を用いて動体判定を行う場合、動体判定部14は、それぞれの辞書情報に基づく判定結果の多数決で最終的な判定を行ってもよいし、それぞれの判定結果に基づいて算出される平均や分散などの統計値で最終的な判定を行ってもよい。
図7は、複数の辞書情報に基づいて、画像から人を検出する処理の流れを示すフローチャートである。
図7における、ステップS101〜103は図2と同様であるため説明を省略する。
動体判定部14は、動体候補検出部13から出力された動体候補領域の画像の特徴量を算出する。動体判定部14は、算出した特徴量と複数の辞書情報とに基づいて、動体候補領域の画像と背景画像との類似度を算出する。
例えば、図7の例の場合、動体判定部14は、平均輝度に基づく辞書情報を用いて類似度を算出する(ステップS201)。また、動体判定部14は、ステップS201に並行して輝度変化に基づく辞書情報を用いて類似度を算出する(ステップS202)。また、動体判定部14は、ステップS201及びステップS202に並行して時間帯に基づく辞書情報を用いて類似度を算出する(ステップS203)。
動体判定部14は、算出した類似度に基づいて、動体候補が動体であるか否かを判定する。動体候補が動体であると判定された場合、動体判定部14は、判定対象の動体候補領域を動体領域とし、動体領域を示す情報を人判定部15に出力する。動体判定部14は、動体領域を示す情報の出力を、類似度の算出に用いた辞書情報の種別ごとに並行して行う(ステップS204〜ステップS206)。
人判定部15は、複数の辞書情報に基づいて出力された、複数の動体領域を示す情報に基づいて動体が人であるか否かを判定する。例えば、人判定部15は、動体領域の多数決をとる(ステップS207)。人判定部15は、複数の辞書情報に基づく動体領域の出力が多数得られた場合に動体は人であると判定し、動体領域の出力が少数しか得られない場合には動体は人でないと判定する(ステップS208)。
<第3の変形例>
画像センサ1は、検出対象の空間が他の画像センサと大きく異ならない場合や、属性で分割した領域ごとに動体検出を行う場合、個々の画像センサごとに別々の辞書情報を用いずに、他の画像センサと共通の辞書情報を用いてもよい。この場合、属性で分割された領域ごとに個別の背景辞書と、共通の背景辞書とを組わせて用いてもよい。
図8は、共通の辞書情報を用いた場合の背景画像の具体例を示す図である。
背景画像510は、“通路領域”及び1つの“机領域”(図の符号511)の属性で分割された背景画像である。画像520は、“通路領域”及び2つの“机領域”(図の符号521及び522)の属性で分割された背景画像である。この場合、通路領域の特徴が背景画像510と背景画像520とで大きく異ならない場合、通路領域の判定には共通の辞書情報を用いてもよい。また、机領域511、521及び522の特徴が、大きく異ならない場合、これらの机領域の判定には共通の辞書情報を用いてもよい。また、机領域の特徴が机領域511、521及び522で大きく異なる場合、これらの机領域の判定には個別の辞書情報を用いてもよい。
さらに、動体検出をブロックに分割して行う場合は、ブロック内の輝度が近い分布を持つブロックに共通の辞書情報を用いてもよい。
このような辞書情報の共通化は、廊下や会議室など、検出対象の空間のレイアウトがほぼ同じ環境である場合に有効である。また、オフィス内においても、1スパンごとのレイアウトがほぼ同じ場合にも有効である。
<第4の変形例>
人判定部15(人情報推定部)は、人の検出結果と動体領域とに基づいて、人の活動量を推定してもよい。
図9は、人の検出結果と動体領域とに基づいて推定される人の活動量の具体例を示す図である。
画像630は、歩行中の人とオフィスワーク中の人が検出された画像である。例えば、画像630及び画像630の前後で取得された画像の動体領域から、画像630で検出された人の動体領域と一部又は全部が重なる動体領域を抽出し、抽出された動体領域の和を表すと画像640のような活動量を示す活動領域641及び642が得られる。活動領域641は、歩行中の人に対応し、活動領域642はオフィスワーク中の人に対応する。歩行中の人はより広い領域に撮像されるため、より大きな活動領域となる。これに対して、オフィスワーク中の人はほぼ同じ領域に撮像されるため小さな活動領域となる。すなわち、活動領域の大きさに基づいて、検出された人の活動量を推定することができる。
(第2の実施形態)
図10は、第2の実施形態の画像センサ1aの機能構成を示す機能ブロック図である。
画像センサ1aは、記憶部12に代えて記憶部12aを備える点、動体判定部14に代えて動体判定部14aを備える点で、第1の実施形態の画像センサ1と異なる。他の機能部は、画像センサ1と同様のため、図1と同じ符号を付すことにより、同様の機能部の説明を省略する。
記憶部12aは、ネガティブ辞書情報をさらに記憶する点で、記憶部12と異なる。ネガティブ辞書情報は、検出対象の空間の背景でない被写体が撮像された画像(以下、「ネガティブ背景画像」という。)の特徴を示す情報である。ネガティブ辞書情報は、ネガティブ背景画像に基づいて生成され、辞書情報とともに予め記憶部12aに記憶されている。
動体判定部14aは、辞書情報とネガティブ辞書情報とに基づいて、動体候補検出部13によって検出された動体候補が動体であるか否かを判定する。
図11は、第2の実施形態の画像センサ1aが画像から人を検出する処理の流れを示すフローチャートである。
図11における、ステップS101〜107は図2と同様であるため説明を省略する。
動体判定部14aは、動体候補検出部13から出力された動体候補領域の画像の特徴量を算出する。動体判定部14aは、算出した特徴量とネガティブ辞書情報とに基づいて、動体候補領域の画像とネガティブ背景画像との類似度を算出する(ステップS301)。動体判定部14aは、ステップS104において算出された類似度と、ステップS301において算出された類似度とに基づいて、動体候補が動体であるか否かを判定する。
例えば、動体判定部14aは、動体候補領域の画像と背景画像との類似度が大きく、かつ動体候補領域の画像とネガティブ背景画像との類似度が小さい場合に、動体候補は動体であると判定する。一方、動体候補領域の画像と背景画像との類似度が小さい場合、又は、動体候補領域の画像と背景画像との類似度が大きくても動体候補領域の画像とネガティブ背景画像との類似度も大きい場合には、動体候補領域は背景であり動体でないと判定する。
なお、動体判定部14aは、ステップS104とステップS301とを直列に実行し、動体候補領域の画像と背景画像との類似度が大きい場合にのみ、ネガティブ背景画像との類似度を算出するようにしてもよい。同様に、動体判定部14aは、ステップS301とステップS104を直列に実行し、動体候補領域の画像とネガティブ背景画像との類似度が小さい場合にも、背景画像との類似度を算出するようにしてもよい。
このように構成された第2の実施形態の画像センサ1aは、動体候補が動体であるか否かを、辞書情報とネガティブ辞書情報とに基づいて判定する。このような判定を行うことにより、画像センサ1aは、より精度よく画像から動体を検出することができる。
以下、上記実施形態に共通の変形例について説明する。
上記実施形態の画像センサは、通信部を備え、動体判定部又は人判定部の判定結果を他の装置やシステムに送信するように構成されてもよい。このような情報が、例えばBEMS(Building Energy Management System)に提供されれば、BEMSは、人の在、不在や活動量に応じて照明等のビル設備を制御することができる。また、通信部を備えることにより、画像センサは、判定結果の他、判定処理の中間データやカメラパラメータ、辞書情報、画像データ、動体検出プログラムなどの各種情報を外部機器との間で送受信してもよい。このような通信を行うことによって、遠隔地から画像センサのデバッグや調整、プログラムアップデートを実施することができる。
動体候補検出部及び背景識別部の処理は、図2のように直列処理されてもよいし、並列処理されてもよい。
画像センサが備える各機能部は、上記実施形態のように一台の装置に実装されてもよいし、複数台の装置に分割して実装されてもよい。例えば、画像センサは、撮像部を持つカメラと、それ以外の機能部を持つ動体検出装置として構成されてもよい。この場合、動体検出装置は、一台のサーバとして構成されてもよいし、クラウドシステムとして構成されてもよい。
動体候補検出部及び人検出部は、画素単位で検出処理を行ってもよい。また、画像を分割した各領域ごとに検出処理を行う場合、分割領域の単位や形状は、上記の実施形態と異なってもよい。例えば、撮像部が魚眼レンズを備える場合、画像の歪みに応じた形状に分割されてもよい。また、分割した領域ごとに動体検出処理を行う場合、画像センサは、各領域について複数種類の辞書情報を持ってもよい。この場合、動体候補検出部は、各領域における動体検出を複数の辞書情報を用いて行うことで、検出精度を向上させることができる。
複数の辞書情報を用いて動体検出処理を行う場合、複数の辞書情報に対して優先順位や重み付けを行ってもよい。このような優先順位や重み付けが行われることによって、動体候補検出部は、より精度良く動体を検出することができる。
画像センサは、撮像部を交換可能なように構成されてもよい。このように構成されることによって、例えば、望遠レンズを持つカメラを撮像部とすれば、画像センサは天井が高い空間での利用にも対応することができる。また、例えば、赤外線カメラやレーザセンサを撮像部とすれば、画像センサは暗い空間での利用にも対応することができる。
以上説明した少なくともひとつの実施形態によれば、動体を検出する対象の空間の背景が撮像された背景画像の特徴を示す辞書情報を記憶する記憶部と、空間が撮像された複数の画像に基づいて、動体と推定される動体候補を検出する動体候補検出部と、辞書情報に基づいて、動体候補が動体であるか否かを判定する動体判定部と、を持つことにより、動画像に基づく動体検出をより精度よく行うことができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1、1a…画像センサ,11…撮像部,12、12a…記憶部,13…動体候補検出部,14、14a…動体判定部,15…人判定部,100−1、100−2…画像,101…人,102…窓,200、300、400、520、600、610、620、630、640…画像,201…フレーム間差分,301、302…動体候補領域,401…人物領域,500、501、502、510、520…背景画像,511、521…机領域,601…机領域の画像,621、622、623…人の在が判定された領域,641、642…活動領域

Claims (9)

  1. 動体を検出する対象の空間の背景が撮像された背景画像の特徴を示す辞書情報を記憶する記憶部と、
    前記空間が撮像された複数の画像に基づいて、動体と推定される動体候補を検出する動体候補検出部と、
    前記辞書情報に基づいて、前記動体候補が動体であるか否かを判定する動体判定部と、
    を備える動体検出装置。
  2. 前記記憶部は、前記空間の特徴の種別に応じた複数の辞書情報を記憶し、
    前記動体判定部は、前記空間の特徴の種別に応じた前記複数の辞書情報に基づいて、前記動体候補が動体であるか否かを判定する、
    請求項1に記載の動体検出装置。
  3. 前記記憶部は、前記背景画像を複数の領域に分割し、分割された前記領域ごとの背景画像の特徴を示す辞書情報を記憶し、
    前記動体判定部は、前記画像を前記背景画像の分割と同様の複数の領域に分割し、分割された前記領域ごとの辞書情報に基づいて、分割された前記複数の領域ごとに動体の有無を判定する、
    請求項1又は2に記載の動体検出装置。
  4. 前記記憶部は、前記検出対象の空間の背景でない被写体が撮像された画像の特徴を示すネガティブ辞書情報をさらに記憶し、
    前記動体判定部は、前記辞書情報と前記ネガティブ辞書情報とに基づいて、前記動体候補が動体であるか否かを判定する、
    請求項1から3のいずれか一項に記載の動体検出装置。
  5. 前記動体判定部によって判定された動体が人であるか否かを判定する人判定部をさらに備える、
    請求項1から4のいずれか一項に記載の動体検出装置。
  6. 前記人判定部によって人と判定された領域の分布に基づいて、人の数又は人の活動量を推定する人情報推定部をさらに備える、
    請求項5に記載の動体検出装置。
  7. 魚眼レンズによって前記検出対象の空間の上部から前記空間の画像を撮像し、取得した前記画像を前記動体候補検出部に出力する撮像部をさらに備える、
    請求項1から6のいずれか一項に記載の動体検出装置。
  8. 動体を検出する対象の空間の背景が撮像された背景画像の特徴を示す辞書情報を記憶する記憶部を備える動体検出装置が行う動体検出方法であって、
    前記空間が撮像された複数の画像に基づいて、動体と推定される動体候補を検出する動体候補検出ステップと、
    前記辞書情報に基づいて、前記動体候補が動体であるか否かを判定する動体判定ステップと、
    を有する動体検出方法。
  9. 動体を検出する対象の空間の背景が撮像された背景画像の特徴を示す辞書情報を記憶する記憶部を備える動体検出装置が行う動体検出方法における、
    前記空間が撮像された複数の画像に基づいて、動体と推定される動体候補を検出する動体候補検出ステップと、
    前記辞書情報に基づいて、前記動体候補が動体であるか否かを判定する動体判定ステップと、
    をコンピュータに実行させるためのコンピュータプログラム。
JP2015048344A 2015-03-11 2015-03-11 動体検出装置、動体検出方法及びコンピュータプログラム Active JP6495691B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015048344A JP6495691B2 (ja) 2015-03-11 2015-03-11 動体検出装置、動体検出方法及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015048344A JP6495691B2 (ja) 2015-03-11 2015-03-11 動体検出装置、動体検出方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2016170502A true JP2016170502A (ja) 2016-09-23
JP6495691B2 JP6495691B2 (ja) 2019-04-03

Family

ID=56982713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015048344A Active JP6495691B2 (ja) 2015-03-11 2015-03-11 動体検出装置、動体検出方法及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP6495691B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019082652A1 (ja) * 2017-10-25 2019-05-02 株式会社 東芝 画像センサ、人物検知方法、プログラムおよび制御システム
WO2019087742A1 (ja) * 2017-11-01 2019-05-09 株式会社 東芝 画像センサ、センシング方法、制御システム及びプログラム
CN113646803A (zh) * 2019-04-01 2021-11-12 欧姆龙株式会社 人检测装置以及人检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262355A (ja) * 1994-03-18 1995-10-13 Fuji Electric Co Ltd 画像監視装置
JPH1153547A (ja) * 1997-07-31 1999-02-26 Tokyo Electric Power Co Inc:The 認識対象物体の物体領域抽出装置および物体領域抽出方法
JP2000341679A (ja) * 1999-06-01 2000-12-08 Secom Co Ltd 画像認識装置及び監視装置
JP2006099544A (ja) * 2004-09-30 2006-04-13 Secom Co Ltd 画像判定装置
JP2011174648A (ja) * 2010-02-24 2011-09-08 Toshiba Corp 画像処理装置、画像処理方法および空調制御装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262355A (ja) * 1994-03-18 1995-10-13 Fuji Electric Co Ltd 画像監視装置
JPH1153547A (ja) * 1997-07-31 1999-02-26 Tokyo Electric Power Co Inc:The 認識対象物体の物体領域抽出装置および物体領域抽出方法
JP2000341679A (ja) * 1999-06-01 2000-12-08 Secom Co Ltd 画像認識装置及び監視装置
JP2006099544A (ja) * 2004-09-30 2006-04-13 Secom Co Ltd 画像判定装置
JP2011174648A (ja) * 2010-02-24 2011-09-08 Toshiba Corp 画像処理装置、画像処理方法および空調制御装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
関真規人, 外2名: ""エレベーター内の異常検知 暴れ・人物有無検知アルゴリズムの開発"", 画像ラボ, vol. 第17巻, 第3号, JPN6018045648, 1 March 2006 (2006-03-01), JP, pages 48 - 52, ISSN: 0003923492 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019082652A1 (ja) * 2017-10-25 2019-05-02 株式会社 東芝 画像センサ、人物検知方法、プログラムおよび制御システム
WO2019087742A1 (ja) * 2017-11-01 2019-05-09 株式会社 東芝 画像センサ、センシング方法、制御システム及びプログラム
JP2019087787A (ja) * 2017-11-01 2019-06-06 株式会社東芝 画像センサ、センシング方法、制御システム及びプログラム
CN113646803A (zh) * 2019-04-01 2021-11-12 欧姆龙株式会社 人检测装置以及人检测方法
US11948363B2 (en) 2019-04-01 2024-04-02 Omron Corporation Person detection device and person detection method

Also Published As

Publication number Publication date
JP6495691B2 (ja) 2019-04-03

Similar Documents

Publication Publication Date Title
JP6018674B2 (ja) 被写体再識別のためのシステム及び方法
US8818028B2 (en) Systems and methods for accurate user foreground video extraction
JP6494253B2 (ja) 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
JP4241763B2 (ja) 人物認識装置及びその方法
JP2016171526A (ja) 画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラム
JP2016015116A (ja) 画像認識方法、カメラシステム
JP5106356B2 (ja) 画像監視装置
JP2011165008A (ja) 画像認識装置および方法
US20120114177A1 (en) Image processing system, image capture apparatus, image processing apparatus, control method therefor, and program
EP2309454B1 (en) Apparatus and method for detecting motion
JP2009143722A (ja) 人物追跡装置、人物追跡方法及び人物追跡プログラム
TW201835805A (zh) 遠距離的身份辨識方法及其系統與電腦可讀取記錄媒體
JP6157165B2 (ja) 視線検出装置及び撮像装置
US20180158191A1 (en) Image processing apparatus, image processing method, and recording medium
JP6495691B2 (ja) 動体検出装置、動体検出方法及びコンピュータプログラム
WO2020137193A1 (ja) 人検出装置および人検出方法
US8780197B2 (en) Apparatus and method for detecting face
US20230206688A1 (en) Information processing device, information processing method, and program
JP2016143335A (ja) グループ対応付け装置、グループ対応付け方法及びグループ対応付け用コンピュータプログラム
JP7074174B2 (ja) 識別器学習装置、識別器学習方法およびコンピュータプログラム
WO2015102711A2 (en) A method and system of enforcing privacy policies for mobile sensory devices
Bo et al. PhD forum: Illumination-robust foreground detection for multi-camera occupancy mapping
JP2017138922A (ja) 画像センサ及び学習方法
Zhu et al. Background subtraction based on non-parametric model
JP2014191479A (ja) 顔認識装置、撮像装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170911

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170911

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190307

R150 Certificate of patent or registration of utility model

Ref document number: 6495691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150