JP4544988B2 - 画像センシング装置 - Google Patents

画像センシング装置 Download PDF

Info

Publication number
JP4544988B2
JP4544988B2 JP2004379999A JP2004379999A JP4544988B2 JP 4544988 B2 JP4544988 B2 JP 4544988B2 JP 2004379999 A JP2004379999 A JP 2004379999A JP 2004379999 A JP2004379999 A JP 2004379999A JP 4544988 B2 JP4544988 B2 JP 4544988B2
Authority
JP
Japan
Prior art keywords
image
attribute value
illumination
processing target
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004379999A
Other languages
English (en)
Other versions
JP2006185310A (ja
Inventor
昌人 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2004379999A priority Critical patent/JP4544988B2/ja
Publication of JP2006185310A publication Critical patent/JP2006185310A/ja
Application granted granted Critical
Publication of JP4544988B2 publication Critical patent/JP4544988B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、監視空間を撮像した画像中の変動領域から移動物体を検出するための画像センシング装置に関する。
近年、監視空間に侵入した侵入者等を検出するセキュリティシステムが広く使用されている。画像センサを用いたシステムでは、監視対象となる監視空間を撮像するカメラ部と、カメラ部で撮像された画像を受け取る画像取得部と、処理に利用される画像データを格納及び保持する記憶部と、画像データを処理して監視空間内に存在する移動物体を検出する処理部と、を備える。処理部では、入力画像とそれより過去に撮像された背景画像との差分からなる差分画像に基づいて画像内の変動領域を抽出し、その変動領域に対応する入力画像の領域(処理対象領域)の属性値が検出対象物に特有の特徴を有する場合に、検出対象物が監視空間内に存在するものとして処理を行う。例えば、検出対象が「侵入者」である場合には、処理対象領域の大きさ、縦横比、輝度情報等の「人らしさ」を表す属性値が所定の条件を満たす場合に侵入者が存在するものとして警報を発する等の処理を行う。
特開平05−284501号公報
上記従来の画像センシング技術では、入力画像と背景画像との差分画像から抽出された変動領域の「検出対象物らしさ」を表す属性値が所定の条件を満たすか否かが検出のポイントとなる。すなわち、変動領域が検出対象物に起因しない場合においても「検出対象物らしさ」の条件が満たされるときには検出誤り(誤報)を発することとなる。このような誤報は、侵入者を検出するセキュリティシステムでは特に問題となる。
ここで、上記の誤報の原因として、カメラ部近傍に位置するクモの糸がある。通常、カメラ部によって撮像される撮像画像は2次元画像である。このとき、カメラ部近傍に位置するクモの糸は撮像画像中において比較的大きな画像領域を占め、遠方に存在する人と同じような大きさ及び形状の特徴を備えることがある。そのため、このようなクモの糸が揺れると、変動領域の面積や形状が「人らしさ」の条件を満たしてしまい、これにより侵入者が存在するものとして誤報を発することがあった。
本発明は、上記従来技術の問題を鑑み、検出対象物の検出確度を高めた画像センシング装置を提供することを目的とする。
本発明は、監視空間を撮像した画像を取得する撮像部と、前記監視空間に照明を当てる照明部と、前記監視空間に照明を当てて撮像された画像を予め照明背景画像として記憶する記憶部と、前記撮像部が撮像した画像に基づいて進入物を検出する画像処理部と、を含む画像センシング装置であって、前記画像処理部は、前記撮像部から照明を当てて撮像し取得した照明入力画像と、前記照明背景画像との差分画像に基づき処理対象領域を抽出する処理と、前記処理対象領域における前記照明入力画像の輝度の空間周波数を算出する処理と、前記処理対象領域における前記照明入力画像の輝度が前記照明背景画像の輝度より増加している領域の割合である輝度増加比率を算出する処理と、前記空間周波数及び輝度増加比率を用いて、前記処理対象領域におけるクモの糸らしさを示す属性値を算出する処理と、を行うことを特徴とする。
また、上記構成の画像センシング装置において、前記画像処理部は、前記処理対象領域を楕円近似して得られた楕円の短軸長を求める処理をさらに行い、前記属性値を算出する処理では、前記短軸長をさらに用いて属性値を算出する構成とするのが好適である。
さらに、上記構成の画像センシング装置において、前記記憶部は、さらに前記監視空間に照明を当てずに撮像された画像を無照明背景画像として記憶し、前記画像処理部は、前記処理対象領域における前記監視空間に照明を当てずに撮像された無照明入力画像と前記無照明背景画像との輝度差の平均である平均輝度を算出する処理をさらに行い、前記属性値を算出する処理では、当該平均輝度をさらに用いて属性値を算出する構成とするのが好適である。
さらにまた、上記構成の画像センシング装置において、前記処理対象領域を抽出する処理は、前記照明入力画像と前記照明背景画像との輝度の差分値が正となる真領域と、負となる偽領域とに分割して処理対象領域を抽出する構成とするのが好適である。
また、上記構成の画像センシング装置において、前記画像処理部は、前記処理対象領域における検出対象である進入物らしさを示す属性値を算出する処理をさらに行い、前記クモの糸らしさを示す属性値と前記進入物らしさを示す属性値とに基づいて、進入物の検出の有無の判定を行う構成とするのが好適である。
本発明によれば、検出対象物の検出処理の精度が向上し、移動物体の検出確度を高めることができる。特に、撮像部の近傍にあるクモの糸による誤検出を抑制でき、検出対象である侵入者を検出する確度を高めることができる。
本発明の実施の形態における画像センシング装置100は、図1に示すように、撮像部10、照明部20、照明制御部30、画像処理部40、記憶部50、及び出力部60を含み、以下に説明する処理を実行するためのプログラムを実行可能なコンピュータで構成することができる。
撮像部10は、監視空間を2次元画像データとして取得可能なCCD素子又はC−MOS素子等の光電変換素子を備えたカメラ、撮像された画像に対してアナログ/デジタル変換等の処理を行う処理部、及び、画像データを出力するインターフェース(図示せず)を含んで構成される。撮像部10は、所定の時間周期Ti(例えば、0.1秒)で監視空間の画像を撮像して画像データとして出力する。
照明部20は、例えば複数の発光ダイオード(LED)素子がマトリックス状に配列された構成となっている。具体的には、例えば9×9のマトリックス状にLED素子が配列された照明手段を2個並べた構成となっている。この照明部20により、監視空間を照射した状態で撮像部10により撮像した画像(照明入力画像)を取得することができる。
照明制御部30は、撮像部10による監視空間の画像の撮像タイミングと、照明部20による照明の照射、非照射のタイミングの同期を取る制御を行う。この制御により、監視空間に照明を当てて撮像した照明入力画像と、監視空間に照明を当てずに撮像した無照明入力画像とを取得することが可能となる。尚、本実施形態では、照明入力画像及び無照明入力画像が取得されるように、撮像部10による撮像タイミングと照明部20による照明の照射タイミングとの同期制御を行う。
画像処理部40は、撮像部10から出力された画像データを取得する入力インターフェース(図示せず)を含んで構成される。この入力インターフェースは撮像部10の出力用インターフェースと接続され、撮像部10から所定の時間周期Tiで入力画像データを取得する。
画像処理部40は、図1に示すように、背景画像更新部41、背景差分演算部42、人属性値算出部43、クモの糸属性値算出部44、領域分割部45及び判定部46を含んで構成される。これらの構成部における処理については後述する。画像処理部40は、画像信号処理プログラムを実行するコンピュータのCPU等に相当する。
記憶部50は、半導体メモリ、ハードディスク装置、光ディスク装置等から構成することができる。記憶部50は、背景差分画像を算出するために必要な背景画像を格納及び保持する。背景画像データとして、照明を当てて撮像された画像データに基づいて生成された照明背景画像データと、照明を当てずに撮像された画像データに基づいて生成された無照明背景画像データと、がそれぞれ保存される。
出力部60は、画像処理部40において監視空間に検出対象物が存在すると判定された場合に装置外部へ警報信号等を出力するために用いられる。例えば、警報ランプや警報ブザーを含む警報装置としても良いし、遠方の監視室に警報信号を送信するためのネットワーク・インターフェースとすることも好適である。
次に、画像処理部40で行われる画像データに対する処理について、図2を参照して説明する。尚、以下の画像信号処理は記憶部50等に予め格納されている画像信号処理プログラムを実行することによって実現することができる。
ステップS10では、照明部20の発光制御が行われる。具体的には、撮像部10による撮像タイミングと照明部20による照明の照射タイミングとの同期制御が行われる。
ステップS12では、最新の入力画像データが取得され、撮像部10において撮像された監視空間の最新の画像データが画像処理部40へ入力される。尚、ステップS10における照明制御部30の同期制御により、照明入力画像データの取得に続いて無照明入力画像データが取得される。すなわち、最新の照明入力画像データと無照明入力画像データが取得されて、画像処理部40へ入力される。
ステップS14では、最新の入力画像データと背景画像データとに基づいて背景差分データが生成される。背景差分演算部42は、記憶部50から照明背景画像データを読み出し、取得された最新の照明入力画像データと照明背景画像データとの差分を算出することによって照明背景差分データを生成する。具体的には、最新の照明入力画像データに含まれる各画素を順に着目画素として、その画素の輝度値からその画素に対応する照明背景画像データの画素の輝度値を引くことによって、着目画素に対する差分データを算出する。この差分データが所定の閾値以上の値であれば着目画素に対応する照明背景差分データの画素の画素値を“1”とし、差分データが所定の閾値より小さければ着目画素に対応する照明背景差分データの画素の画素値を“0”として2値化された照明背景差分データを生成する。すなわち、照明入力画像データと照明背景画像データとにおいて変動があった画像領域の画素値は“1”となり、変動がなかった画像領域の画素値は“0”となる。また、生成された照明背景差分データに対して、既存の画像処理方法を用いてラベリング処理が行われる。ラベリング処理では、照明背景差分データに含まれる画素値“1”を有する画素のうち連続する画素群で構成される領域を纏めて一つの変動領域としてラベリングする。ラベリングされた変動領域に対応する照明入力画像データの領域が照明入力画像における処理対象領域として人属性値算出部43、クモの糸属性値算出部44及び領域分割部45に渡される。
さらに、無照明背景画像データと最新の無照明入力画像データから差分演算を行い、無照明背景差分データが生成される。
ステップS16では、変動領域から抽出された特徴量に基づいて「人らしさ」を表す人属性値が算出される。「人らしさ」は照明入力画像又は無照明入力画像における処理対象領域が人特有の特徴量を備えるか否かに基づいて算出される。人属性値算出部43は、例えば、処理対象領域の大きさ、照明入力画像データ及び照明背景画像データ中の処理対象領域に対応する領域の輝度の正規化相関、照明入力画像データ及び照明背景画像データの処理対象領域におけるエッジの抽出位置の少なくとも1つを特徴量として用いて、人属性値を算出する。処理対象領域の大きさが、監視空間と撮像部10との相対的な位置関係等から想定される一定の範囲内の大きさであれば、人属性値を高くする。また、照明入力画像データ及び照明背景画像データ中の処理対象領域に対応する領域の輝度の正規化相関が低いほど人属性値を高くする。また、照明入力画像データ及び照明背景画像データ中の処理対象領域に対応する領域のエッジの抽出位置が背景画像データ中の変動領域に対応する領域のエッジの抽出位置と一致しないほど人属性値を高くする。
具体的には、処理対象領域の大きさ、画像データ中の処理対象領域に対応する領域の正規化相関、エッジの抽出位置といった複数の特徴量を求め、それらの複数の特徴量に基づいて、人属性値を算出する。例えば、これらの特徴量の単純平均値、重み付けされた加重平均値を人属性値とする。また、複数の特徴量を所定の関数によって正規化し、正規化された属性値の加算値を人属性値としても良い。尚、この処理は抽出された総ての処理対象領域に対して実行され、処理対象領域毎に人属性値が算出される。
ステップS18では、処理対象領域から抽出された特徴量に基づいて「クモの糸らしさ」を表すクモの糸属性値が算出される。「クモの糸らしさ」は照明入力画像又は無照明入力画像における処理対象領域がクモの糸特有の特徴量を備えるか否かに基づいて算出される。クモの糸属性値算出部44は、図3に示す処理を行う。具体的には、照明入力画像データの処理対象領域における輝度の空間周波数、照明入力画像データの処理対象領域において照明背景画像データよりも輝度が増加している領域の割合(輝度増加比率)、照明入力画像データの処理対象領域を楕円近似した場合の短軸の長さ、及び、無照明背景差分データにおける処理対象領域の平均輝度、の少なくとも1つを特徴量として用いて、クモの糸属性値を算出する。尚、この処理は抽出された総ての処理対象領域に対して実行され、処理対象領域毎にクモの糸属性値が算出される。
ステップS18−1では、照明入力画像データにおける処理対象領域の輝度の空間周波数を算出する。具体的には、照明入力画像データにおける処理対象領域に含まれるエッジを所定の条件により抽出し、処理対象領域の大きさに対するエッジ数の比が高いほどクモの糸属性値を高くする。
撮像部10の近傍に存在するクモの糸に照明が当たった状態で撮像すると、クモの糸は一様な輝度で画像データに写らず、クモの糸の画像は図4のように輝度が周期的に変化する画像となる。すなわち、クモの糸以外の物体を撮像した画像に比してクモの糸を撮像した画像の輝度の空間周波数は高くなる。これは、撮像部10の近傍に存在するクモの糸に照明部20からの照明光を当てた場合、照明部20の近傍でもあるため、照明部20の各LED素子からの光が十分に拡がらない状態でクモの糸に当たることや、クモの糸には粘着球と呼ばれる液体の玉が任意の間隔で付着しているため、それにより照明光の乱反射が生じる、等の理由によると考えられる。ステップS18−1は、この性質を利用するものである。
また、ステップS18−2では、照明入力画像データの処理対象領域において照明背景画像データよりも輝度が増加している領域の割合(輝度増加比率)を算出する。そして、算出された輝度増加比率が高いほどクモの糸属性値を高くする。これは、撮像部10の近くに存在するクモの糸に照明部20からの照明光を当てると、特に高輝度で画像データに取り込まれるからである。
また、ステップS18−3では、照明入力画像データにおける処理対象領域を楕円近似してその短軸の長さを算出する。そして、算出された短軸の長さが短いほどクモの糸属性値を高くする。これは、クモの糸が細長いためである。
また、ステップS18−4では、無照明背景差分データにおける処理対象領域の平均輝度値を算出する。そして、算出された処理対象領域の平均輝度が低いほどクモの糸属性値を高くする。これは、照明を当てない場合にはクモの糸は極めて低輝度でしか映らないためである。
そして、ステップS18−5では、ステップS18−1〜S18−4において算出された各特徴量を用いてクモの糸属性値を算出する。具体的には、照明入力画像データの処理対象領域における輝度の空間周波数、照明入力画像データの処理対象領域において照明背景画像データよりも輝度が増加している領域の割合(輝度増加比率)、照明入力画像データの処理対象領域を楕円近似した場合の短軸の長さ、及び、無照明背景差分データにおける処理対象領域の平均輝度、などの複数の特徴量に基づいて、クモの糸属性値を算出する。例えば、これらの特徴量の単純平均値、重み付けされた加重平均値をクモの糸属性値とする。また、複数の特徴量を所定の関数によって正規化し、正規化された属性値の加算値をクモの糸属性値としても良い。尚、この処理は抽出された総ての処理対象領域に対して実行され、処理対象領域毎にクモの糸属性値が算出される。
例えば、クモの糸属性値を算出する際に、照明入力画像データの処理対象領域における輝度の空間周波数から求められた特徴量T1、輝度増加比率から求められた特徴量T2、楕円近似した場合の短軸の長さから求められた特徴量T3、及び無照明背景差分データにおける処理対象領域の平均輝度値から求められた特徴量T4、を変数として図5のような関数を定義し、その特徴量を正規化した出力値S1〜S4を用いて属性値を算出する。すなわち、変動領域のクモの糸属性値Rを、R=S1×S2×S3×S4とする。また、適切な係数A1〜A4を用いて、クモの糸属性値Rを、R=S1×A1+S2×A2+S3×A3+S4×A4としても良い。
また、クモの糸属性値Rを、R=T1×T2×(1/T3)×(1/T4)として算出することもできる。ただし、T1,T2は「クモの糸らしさ」が増すにつれ大きくなり、T3,T4は「クモの糸らしさ」が増すにつれて小さくなるものとする。また、適切な係数a1〜a4を用いて、クモの糸属性値Rを、R=T1×a1+T2×a2+(1/T3)×a3+(1/T4)×a4としても良い。あるいは、T1,T2,(1/T3),(1/T4)の中から最小値を取り出し、これをクモの糸属性値Rとしても良い。
また、本実施の形態では、照明入力画像データの処理対象領域における輝度の空間周波数、照明入力画像データの処理対象領域において照明背景画像データよりも輝度が増加している領域の割合(輝度増加比率)、照明入力画像データの処理対象領域を楕円近似した場合の短軸の長さ、及び、無照明背景差分データにおける処理対象領域の平均輝度、の総ての特徴量に基づいてクモの糸属性値を算出するものとしたが、これに限定されるものではない。クモの糸を検出対象物とした場合、少なくとも、照明入力画像データの処理対象領域における輝度の空間周波数と、照明入力画像データの処理対象領域において照明背景画像データよりも輝度が増加している領域の割合(輝度増加比率)と、の両方の特徴量に基づいてクモの糸属性値を算出することにより、処理対象領域がクモの糸によるものか否かの判定を行うことができる。その他の特徴量については、必要に応じてクモの糸属性値の算出に利用することにより、処理対象領域がクモの糸によるものか否かの判定の確度を高めることができる。
以上のようにして、ステップS18−5では、1つの処理対象領域を1つの領域として扱って処理対象領域全体としての特徴量を求め、その特徴量に基づいてクモの糸属性値を算出している。しかし、クモの糸属性値の算出に当たっては、1つの処理対象領域を1つの領域として扱うことが不適当な状態が起こり得る。このような状態及び該状態におけるクモの糸属性値の算出について、以下に説明する。
通常、処理対象領域を抽出する基準となる背景画像データは、外部光の変化等による監視空間の環境の変化があった場合においても検出の確度を高めるために、所定時間毎に更新される。この更新処理を行う際に、監視空間にクモの糸が長時間静止していると、そのクモの糸の画像が背景画像データに取り込まれる。その後、クモの糸が揺れる等して動くと、入力画像と背景画像との差分画像には、「クモの糸が現在の入力画像に取り込まれた領域」に該当する変動領域(以下、「真領域」という)と「クモの糸が過去の背景画像に取り込まれた領域」に該当する変動領域(以下、「偽領域」という)とが部分的に重畳された変動領域が現れる。このように真領域と偽領域とを含む変動領域全体を1つの処理対象領域として扱って、処理対象領域全体としてのクモの糸属性値を抽出すると、「クモの糸らしさ」が相対的に低下してしまい、得られるクモの糸属性値も低下するため、クモの糸を精度良く検出できなくなる。
そこで、ステップS18−6では、ラベリングされた処理対象領域が、「移動物体が現在の入力画像に取り込まれた領域」に該当する処理対象領域(真領域)と「移動物体が過去の背景画像に取り込まれた領域」に該当する処理対象領域(偽領域)とが重畳されたものである場合には、それを考慮して処理対象領域のクモの糸属性値を算出するものとする。以下、この算出手順について、図6を用いて説明する。
ステップS18−6−1では、処理対象領域の分割処理が行われる。ラベリングされた処理対象領域に「移動物体が現在の入力画像に取り込まれた領域」に該当する処理対象領域(真領域)と「移動物体が過去の背景画像に取り込まれた領域」に該当する処理対象領域(偽領域)とが重畳されている場合には真領域と偽領域とに分割する。
例えば、領域分割部45において、入力画像データと背景画像データとの差分画像データにおいて差分値が正であるか負であるかに基づいて、ラベリングされた処理対象領域を真領域と偽領域とに分割する。撮像部10の近傍に存在するクモの糸は照明入力画像データ中に特に高輝度で映ることが予想される。そこで、照明入力画像データから照明背景画像データを引いた照明差分画像データでは、処理対象領域内において真領域は正の値となり、偽領域は負の値をもつことになる。これを利用して、図7のように、処理対象領域を真領域と偽領域とに分割する。
ステップS18−6−2では、真領域に対応する入力画像データの領域から特徴量を抽出し、抽出された特徴量に基づいてクモの糸属性値を算出する。クモの糸特有の特徴量とクモの糸属性値との関係及び真領域のクモの糸属性値の算出手順は、ステップS18−1〜S18−5と同様に行えば良い。尚、真領域が存在しない場合には、クモの糸属性値は0とする。
ステップS18−6−3では、偽領域に対応する背景画像データの領域から特徴量を抽出し、抽出された特徴量に基づいてクモの糸属性値を算出する。クモの糸特有の特徴量とクモの糸属性値との関係及び偽領域のクモの糸属性値の算出手順は、ステップS18−1〜S18−5と同様に行えば良い。尚、偽領域が存在しない場合には、クモの糸属性値は0とする。
ステップS18−6−4では、真領域に対するクモの糸属性値と、偽領域に対するクモの糸属性値と、の両方を用いて、分割前の処理対象領域がクモの糸によるものであるか否かの判定を行う。
例えば、真領域に対するクモの糸属性値>閾値TH1、かつ、偽領域に対するクモの糸属性値>閾値TH2、である場合にその変動領域が「クモの糸」による画像であると判定する。ここで、閾値TH1として「真領域のクモの糸らしさが高いと判定できる適切な値」が、閾値TH2として「偽領域のクモの糸らしさが高いと判定できる適切な値」が、それぞれ設定されている。そして、いずれの条件も満たす場合には、その変動領域が「クモの糸」による画像であると判定する。
真領域及び偽領域が共に「クモの糸」による画像であると判定された場合には、ステップS18−6−5に処理が移行し、真領域及び偽領域がいずれも又はいずれか一方が「クモの糸」による画像でないと判定された場合には、サブルーチンでの処理が終了する。
ステップS18−6−5では、真領域に対するクモの糸属性値と偽領域に対するクモの糸属性値とを用いて、その真領域と偽領域とに分割する前の処理対象領域のクモの糸属性値を算出する。例えば、処理対象領域のクモの糸属性値は、真領域に対するクモの糸属性値と偽領域に対するクモの糸属性値とのいずれか大きい値とする。あるいは、真領域に対するクモの糸属性値と偽領域に対するクモの糸属性値との平均値や加重平均値等を処理対象領域のクモの糸属性値としても良い。以上のようにして、「背景に取り込まれた場合のクモの糸属性値」を算出する。
抽出された総ての処理対象領域についてクモの糸属性値を算出するまでステップS18−1〜ステップS18−6を繰り返す。総ての処理対象領域についてクモの糸属性値が算出されたら、図3におけるステップS18−7の処理へ移行する。
ステップS18−7では、ステップS18−5で算出された「処理対象領域全体としてのクモの糸属性値」と、ステップS18−6で算出された「背景に取り込まれた場合のクモの糸属性値」とを用いて、各処理対象領域のクモの糸属性値を算出する。例えば、処理対象領域のクモの糸属性値は、「処理対象領域全体としてのクモの糸属性値」と「背景に取り込まれた場合のクモの糸属性値」とのいずれか大きい値とする。以上のようにして、図2におけるステップS18の処理が終了し、ステップS16で算出された人属性値と比較されるクモの糸属性値が算出される。
こうして、ステップS16及びS18で、総ての処理対象領域に対する人属性値とクモの糸属性値が算出される。ステップS20では、算出された人属性値及びクモの糸属性値に基づいて、検出対象物である「人」による画像か否かを処理対象領域毎に判定する。判定部46は、例えば、処理対象領域に対する人属性値≧クモの糸属性値である場合には、その処理対象領域が「人」による画像であると判定する。一方、処理対象領域に対するクモの糸属性値>人属性値である場合には、その処理対象領域が「クモの糸」による画像であると判定する。
そして、変動領域の少なくとも1つが「人」による画像であると判定された場合にはステップS22に処理を移行させ、総ての変動領域が「人」による画像でないと判定された場合にはステップS24に処理を移行させる。
ステップS22では、出力部60から警報信号を出力させる。出力部60が警報ランプや警報ブザーを含む警報装置である場合にはランプを点灯させたり、ブザー音を発したりさせる。また、出力部60がネットワーク・インターフェースである場合には、インターネットや専用回線を介して遠方の監視室に警報信号を送信させることもできる。
ステップS24では、背景画像データの更新処理が行われる。背景画像更新部41は、所定の背景更新周期Tr(例えば、10秒)で記憶部50に保持されている背景画像データを最新の入力画像データで更新する。更新周期Trは、監視空間に対する日照の変動等を考慮して決定することが好適である。
また、ステップS20において、「人」が存在しないと判定された場合に、背景画像データを入力画像データで更新しても良い。さらに、過去に取得された複数の入力画像データの移動平均画像データにより背景画像データを更新しても良い。
尚、本実施の形態では、第一の検出対象物を「人」とし、第一の検出対象との比較対象(第二の検出対象)を「クモの糸」とした例を好例として示しているが、本発明の適用範囲はこれに限定されるものでない。
本発明の実施の形態におけるセンシング装置の構成を示す図である。 本発明の実施の形態におけるセンシング処理のフローチャートである。 本発明の実施の形態におけるクモの糸属性値算出処理のフローチャートである。 撮像部近傍のクモの糸に照明を当てて撮像した場合に発生する、クモの糸画像領域内の輝度変化を説明する概念図である。 本発明の実施の形態における特徴量を変数とする関数の例を示す図である。 本発明の実施の形態における、背景に取り込まれた場合のクモの糸属性値を算出する処理のフローチャートである。 本発明の実施の形態における真領域と偽領域の求め方を説明する図である。
符号の説明
10 撮像部、20 照明部、30 照明制御部、40 画像処理部、41 背景画像更新部、42 背景差分演算部、43 人属性値算出部、44 クモの糸属性値算出部、45 領域分割部、46 判定部、50 記憶部、60 出力部、100 画像センシング装置。

Claims (5)

  1. 監視空間を撮像した画像を取得する撮像部と、前記監視空間に照明を当てる照明部と、前記監視空間に照明を当てて撮像された画像を予め照明背景画像として記憶する記憶部と、前記撮像部が撮像した画像に基づいて進入物を検出する画像処理部と、を含む画像センシング装置であって、
    前記画像処理部は、
    前記撮像部から照明を当てて撮像し取得した照明入力画像と、前記照明背景画像との差分画像に基づき処理対象領域を抽出する処理と、
    前記処理対象領域における前記照明入力画像の輝度の空間周波数を算出する処理と、
    前記処理対象領域における前記照明入力画像の輝度が前記照明背景画像の輝度より増加している領域の割合である輝度増加比率を算出する処理と、
    前記空間周波数及び輝度増加比率を用いて、前記処理対象領域におけるクモの糸らしさを示す属性値を算出する処理と、
    を行うことを特徴とする画像センシング装置。
  2. 請求項1に記載の画像センシング装置において、
    前記画像処理部は、
    前記処理対象領域を楕円近似して得られた楕円の短軸長を求める処理をさらに行い、
    前記属性値を算出する処理では、前記短軸長をさらに用いて属性値を算出することを特徴とする画像センシング装置。
  3. 請求項1又は2に記載の画像センシング装置において、
    前記記憶部は、さらに前記監視空間に照明を当てずに撮像された画像を無照明背景画像として記憶し、
    前記画像処理部は、前記処理対象領域における前記監視空間に照明を当てずに撮像された無照明入力画像と前記無照明背景画像との輝度差の平均である平均輝度を算出する処理をさらに行い、
    前記属性値を算出する処理では、当該平均輝度をさらに用いて属性値を算出することを特徴とする画像センシング装置。
  4. 請求項1〜3のいずれか1つに記載の画像センシング装置において、
    前記処理対象領域を抽出する処理は、前記照明入力画像と前記照明背景画像との輝度の差分値が正となる真領域と、負となる偽領域とに分割して処理対象領域を抽出することを特徴とする画像センシング装置。
  5. 請求項1〜4のいずれか1つに記載の画像センシング装置において、
    前記画像処理部は、
    前記処理対象領域における検出対象である進入物らしさを示す属性値を算出する処理をさらに行い、
    前記クモの糸らしさを示す属性値と前記進入物らしさを示す属性値とに基づいて、進入物の検出の有無の判定を行うことを特徴とする画像センシング装置。


JP2004379999A 2004-12-28 2004-12-28 画像センシング装置 Active JP4544988B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004379999A JP4544988B2 (ja) 2004-12-28 2004-12-28 画像センシング装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004379999A JP4544988B2 (ja) 2004-12-28 2004-12-28 画像センシング装置

Publications (2)

Publication Number Publication Date
JP2006185310A JP2006185310A (ja) 2006-07-13
JP4544988B2 true JP4544988B2 (ja) 2010-09-15

Family

ID=36738366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004379999A Active JP4544988B2 (ja) 2004-12-28 2004-12-28 画像センシング装置

Country Status (1)

Country Link
JP (1) JP4544988B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5151594B2 (ja) * 2008-03-24 2013-02-27 サクサ株式会社 物体検知装置
JP5761954B2 (ja) * 2010-10-13 2015-08-12 セコム株式会社 画像センサ
JP6123137B2 (ja) * 2013-09-13 2017-05-10 パナソニックIpマネジメント株式会社 カメラ装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05284501A (ja) * 1992-04-06 1993-10-29 Mitsubishi Electric Corp 侵入監視画像装置
JP2002175530A (ja) * 2000-12-06 2002-06-21 Secom Co Ltd 画像認識装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05284501A (ja) * 1992-04-06 1993-10-29 Mitsubishi Electric Corp 侵入監視画像装置
JP2002175530A (ja) * 2000-12-06 2002-06-21 Secom Co Ltd 画像認識装置

Also Published As

Publication number Publication date
JP2006185310A (ja) 2006-07-13

Similar Documents

Publication Publication Date Title
RU2393544C2 (ru) Способ и устройство для обнаружения пламени
JP5218168B2 (ja) 撮像装置、動体検知方法、動体検知回路、プログラム、及び監視システム
CN107404628B (zh) 图像处理装置及方法以及监视系统
JP2007180933A (ja) 画像センサ
CN105554439A (zh) 视频处理所使用的至少一个参数的修改
JP2010122746A (ja) 画像監視装置
CN112084813B (zh) 异常目标的检测方法、装置及存储介质
KR101712136B1 (ko) 열화상 카메라를 이용한 객체의 실신 상황 감지 방법 및 장치
JP2005242488A (ja) 物体検出装置、物体検出方法、プログラム
JP7074174B2 (ja) 識別器学習装置、識別器学習方法およびコンピュータプログラム
JP4544988B2 (ja) 画像センシング装置
JP4740755B2 (ja) 画像を用いた監視装置
JP2016129008A (ja) 不正を検出するためのビデオ監視システムおよび方法
JP2013207392A (ja) 画像監視装置
JP3965003B2 (ja) 画像認識装置及び監視装置
JP2016103246A (ja) 画像監視装置
JP6155106B2 (ja) 画像センサ
JP6124739B2 (ja) 画像センサ
JP6133700B2 (ja) 画像センサ
JP2006186458A (ja) 画像信号処理装置及びセンシング装置
JP2007249743A (ja) 移動物体の識別方法、移動物体の識別装置、及び移動物体の識別処理を実行させるプログラム
JP2009010594A (ja) 画像センサ
JP2008134150A (ja) 画像目標識別装置
JP2008040724A (ja) 画像処理装置、及び画像処理方法
KR100744158B1 (ko) 확률적인 접근방법을 적용한 영상 감시 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100629

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4544988

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250