JP2012147083A - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2012147083A
JP2012147083A JP2011001954A JP2011001954A JP2012147083A JP 2012147083 A JP2012147083 A JP 2012147083A JP 2011001954 A JP2011001954 A JP 2011001954A JP 2011001954 A JP2011001954 A JP 2011001954A JP 2012147083 A JP2012147083 A JP 2012147083A
Authority
JP
Japan
Prior art keywords
background image
image
area
latest
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011001954A
Other languages
English (en)
Inventor
Yuji Ono
優嗣 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011001954A priority Critical patent/JP2012147083A/ja
Publication of JP2012147083A publication Critical patent/JP2012147083A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19604Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Burglar Alarm Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】領域情報の変更に対するユーザの作業負担を軽減することができるようにする。
【解決手段】背景画像更新部17は、画像取得部11で取得された画像を用いて、背景画像を逐次更新し、更新された最新の背景画像と、その所定時間前の背景画像とを背景画像保存部18に保存させる。領域情報変化判定部19は、最新の背景画像と、その所定時間前の背景画像とを比較し、比較結果に応じて背景画像のなかの所定の領域を示す領域情報を更新する。本発明は、例えば、監視カメラで撮像された画像を用いた監視装置に適用できる。
【選択図】図1

Description

本発明は、画像処理装置、画像処理方法、およびプログラムに関し、特に、領域情報の変更に対するユーザの作業負担を軽減することができるようにする画像処理装置、画像処理方法、およびプログラムに関する。
所定の空間への人、動物などの侵入者を発見するために、監視カメラにより対象とされる空間を撮影し、撮影画像から侵入者を検知する監視システムが知られている。このような監視システムでは、監視カメラの撮影により得られた画像に対して、検知対象の除外領域を設定するなどの各種の目的に応じて、所定の領域を領域情報として設定することがある。
異なる配置を有する複数の監視カメラを用いた監視システムにおいて、所定の1つの監視カメラで撮影された画像で設定した領域情報に基づいて、異なる視点の他の監視カメラの画像の領域情報を設定できるようにしたものがある(例えば、特許文献1参照)。これにより、複数の監視カメラで撮影される複数の画像それぞれに対して領域情報を設定する作業の負担を軽減することができる。
特開2009−017179号公報
しかしながら、特許文献1で開示されている方法を利用しても、一度設定した領域情報に変更があった場合には、再度領域情報を設定し直す作業が必要となる。
本発明は、このような状況に鑑みてなされたものであり、領域情報の変更に対するユーザの作業負担を軽減することができるようにするものである。
本発明の一側面の画像処理装置は、対象空間を撮像して得られた画像を取得する取得手段と、取得された前記画像を用いて、背景画像を逐次更新する背景画像更新手段と、前記背景画像更新手段により更新された最新の前記背景画像と、その所定時間前の前記背景画像とを保存する背景画像保存手段と、最新の前記背景画像と、その所定時間前の前記背景画像とを比較し、比較結果に応じて前記背景画像のなかの所定の領域を示す領域情報を更新する領域情報変化判定手段とを備える。
本発明の一側面の画像処理方法は、取得手段と、背景画像更新手段と、背景画像保存手段と、領域情報変化判定手段とを備える画像処理装置の、前記取得手段が、対象空間を撮像して得られた画像を取得し、前記背景画像更新手段が、取得された前記画像を用いて、背景画像を逐次更新し、更新された最新の前記背景画像と、その所定時間前の前記背景画像とを前記背景画像保存手段に保存し、前記領域情報変化判定手段が、最新の前記背景画像と、その所定時間前の前記背景画像とを比較し、比較結果に応じて前記背景画像のなかの所定の領域を示す領域情報を更新するステップを含む。
本発明の一側面のプログラムは、コンピュータを、対象空間を撮像して得られた画像を取得する取得手段と、取得された前記画像を用いて、背景画像を逐次更新し、更新された最新の前記背景画像と、その所定時間前の前記背景画像とを背景画像保存手段に保存させる背景画像更新手段と、最新の前記背景画像と、その所定時間前の前記背景画像とを比較し、比較結果に応じて前記背景画像のなかの所定の領域を示す領域情報を更新する領域情報変化判定手段として機能させるためのものである。
本発明の一側面においては、対象空間を撮像して得られた画像が取得され、取得された画像を用いて、背景画像が逐次更新される。そして、更新された最新の背景画像と、その所定時間前の背景画像とが比較され、比較結果に応じて背景画像のなかの所定の領域を示す領域情報が更新される。
なお、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
本発明の一側面によれば、領域情報の変更に対するユーザの作業負担を軽減することができる。
本発明を適用した画像処理装置としての監視システムの一実施の形態の構成例を示すブロック図である。 背景画像の生成について説明する図である。 領域情報変更処理について説明する図である。 領域情報保存処理を説明するフローチャートである。 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
[監視システムの構成例]
図1は、本発明を適用した画像処理装置としての監視装置の一実施の形態の構成例を示している。
監視装置1は、対象とされる空間を撮影した画像に基づいて、対象空間への人、動物などの侵入者を検知する。侵入者が検知された場合、監視装置1は、警報等のアラームを出力する。
監視装置1は、画像取得部11、領域情報初期設定部12、領域情報保存部13、差分処理部14、ラベリング処理部15、トラッキング処理部16、背景画像更新部17、背景画像保存部18、領域情報変化判定部19、侵入判定部20、および操作入力部21により構成されている。
画像取得部11は、CMOS(Complementary Metal Oxide Semiconductor)センサ、監視カメラなどの撮像部を内蔵し、監視する対象空間などの被写体を撮影することで得られた画像データを取得し、出力する。画像取得部11はまた、外部のビデオカメラ等からネットワークや信号ケーブルを介して供給される画像データを取得するものでもよい。
領域情報初期設定部12は、操作入力部21を介して行われるユーザの操作に基づいて、領域情報の初期設定を行う。領域情報初期設定部12により設定された領域情報は、領域情報保存部13に保存される。
ここで、領域情報とは、画像取得部11で撮像される画像に対して、所定の目的で設定する領域の情報であり、例えば、検知して欲しくない範囲を設定する検知対象除外領域の領域情報などがある。また、領域情報には、障害物の領域や、オクルージョンが発生する領域を設定するなど、誤検知の防止や監視精度を向上させるために設定するものもある。さらに、領域情報は、地図上に精度良く人物の位置をマッピングするための有益な情報として用いる場合もある。本発明は、どのような目的で領域情報を設定するかは問わないが、以下では、領域情報として、障害物の領域を設定する例について説明する。
差分処理部14は、画像取得部11から供給される、撮像部(監視カメラ)が撮像したカメラ画像と、背景画像保存部18に保存されている背景画像の、対応する画素ごとの画素値(輝度値)の差分を計算して得られる差分画像を生成する。
ラベリング処理部15は、差分処理部14から供給される差分画像に対してラベリング処理を施す。即ち、ラベリング処理部15は、背景画像には現れず、カメラ画像のみに現れている1以上のオブジェクト(画素のかたまり)を抽出し、抽出された各オブジェクトに異なるラベルを付与して識別する。なお、差分処理部14から供給される差分画像には、二値化処理等を必要に応じて行うことができる。
トラッキング処理部16は、ラベリング処理部15により識別された1以上のオブジェクトに対してトラッキング処理を行う。これにより、差分画像から抽出された各オブジェクトに位置の移動があった場合にも、同一のオブジェクトとして認識することができる。
背景画像更新部17は、画像取得部11で得られた最新のカメラ画像に基づいて背景画像を生成(更新)し、生成した背景画像を、背景画像保存部18に保存されている既存の背景画像に上書きして保存(更新)する。背景画像は、例えば、最新のカメラ画像を含むW枚(Wは2以上の整数で、例えば、300枚)のカメラ画像の対応する画素どうしの画素値の平均など、連続するW枚のカメラ画像を合成することにより生成される。W枚の撮影時間はWT時間であるとする。なお、最新のカメラ画像は、画像取得部11から直接取得してもよいし、差分処理部14乃至トラッキング処理部16を介して取得してもよい。
差分処理部14、ラベリング処理部15、トラッキング処理部16、及び背景画像更新部17は、背景画像を参照画像としてカメラ画像と比較し、動物体を検知する動体検知部を構成する。
背景画像保存部18は、背景画像更新部17により生成された最新の背景画像を保存(記憶)する。また、背景画像保存部18は、最新の背景画像よりも所定時間(T時間)まえに生成された背景画像も保存する。即ち、背景画像保存部18は、最新の背景画像と、それよりT時間前に最新の背景画像として生成されたものを少なくとも記憶している。最新の背景画像よりもどれくらい前の背景画像を保存しておくかを表すパラメータ(T時間)は、ユーザが任意に決定することができる。背景画像保存部18は、最新の背景画像を差分処理部14に供給し、また、最新の背景画像とT時間前の背景画像を、領域情報変化判定部19に供給する。
領域情報変化判定部19は、背景画像保存部18から供給される、最新の背景画像とT時間前の背景画像に基づいて、領域情報保存部13に保存されている領域情報が示す領域の画像に変化があったか否かを判定する。そして、領域情報が示す領域の画像に変化があったと判定された場合、領域情報変化判定部19は、領域情報保存部13に保存されている領域情報を変更(更新)する。
侵入判定部20は、動体検知部で動体検知された各オブジェクトと、領域情報保存部13に保存されている領域情報とに基づいて、侵入者があるか否かを判定する。侵入判定部20は、侵入者があると判定された場合、警報等のアラームを出力する。また、侵入判定部20は、LCD等の表示部を備え、画像取得部11で得られたカメラ画像上に警告表示を行うなどの映像によるアラーム出力を行ってもよい。
操作入力部21は、ユーザの操作を受け付け、入力された各種のパラメータを、そのパラメータに応じて決められた供給先へ出力する。例えば、操作入力部21は、画像取得部11で得られたカメラ画像上に領域情報を設定する操作を受け付け、入力された領域情報を領域情報初期設定部12に供給する。また、操作入力部21は、背景画像を生成するためのパラメータである合成枚数Wなどの入力も受け付ける。
[背景画像の説明]
次に、図2を参照して、監視装置1で実行される、背景画像の生成(更新)について説明する。
図2Aは、監視装置1と、領域情報が設定される障害物Qとの配置関係を示す俯瞰図である。図2Aにおいて、監視装置1から放射する三角形の領域Pは、監視装置1の撮像範囲(視野角)を示している。
図2Bは、図2Aの配置関係にある状況で、監視装置1が撮像して得たカメラ画像を示している。
図2Bのカメラ画像には障害物Qが含まれており、ユーザは操作入力部21を操作して、例えば、カメラ画像上の障害物Qを囲む矩形によって、障害物Qの領域情報Rを設定する。領域情報初期設定部12は、ユーザによって設定された障害物Qの領域情報Rを領域情報保存部13に保存する。
その後、ユーザが、障害物Qを、図2Cに示すように移動したとする。移動直後の背景画像には、移動後の位置に障害物Qは現れない。背景画像を生成するためのW枚のカメラ画像のうち、移動後の位置に障害物Qがあるカメラ画像の枚数の比率が小さいためである。そして、背景画像における移動後の位置に障害物Qがあるカメラ画像の割合が大きくなるにつれて、図2Dに示すように、移動前の位置の障害物Qの画像が、徐々に地面などの背景の画像に変更されるとともに、移動後の位置の領域では、徐々に障害物Qの画像に変更される。
そして、背景画像を構成するW枚のカメラ画像が、全て移動後の障害物Qを撮像した画像となったとき、換言すれば、障害物Qが移動されてからWT時間が経過したとき、背景画像は、図2Eに示すように、完全に移動後の位置に障害物Qが存在する画像となる。従って、障害物Qに対して設定した領域情報Rも、破線で示される移動後の位置に対応する領域に変更する必要がある。
[領域情報変更処理の説明]
そこで次に、図3を参照して、障害物Qの領域情報Rを自動で(ユーザの変更操作なしに)変更する領域情報変更処理について説明する。
図3は、時刻t乃至時刻tにおけるカメラ画像C、背景画像B、及び俯瞰図Mを示している。なお、横方向に並ぶカメラ画像C、背景画像B、及び俯瞰図Mは同一時刻のものであり、カメラ画像C、背景画像B、及び俯瞰図Mそれぞれの右下に付された添え字は時刻t乃至tに対応している。
時刻tでは、障害物Qは撮像範囲P内の右寄りに設置されており、カメラ画像Cと背景画像Bのいずれにおいても、画像内の右側に障害物Qが撮影されている。時刻tにおいて、障害物Qの領域を設定した領域情報Rは、障害物Qを囲む矩形の領域となっている。
時刻tの直後、俯瞰図Mに示されるように、障害物Qが撮像範囲P内の左寄りに移動されると、リアルタイムのカメラ画像では、時刻tのカメラ画像Cのように、障害物Qが即座に移動先に変更される。このとき、トラッキング処理部16は、設定されている領域情報R周辺から出現したオブジェクトObjをトラッキングし、障害物Qの移動を検知する。
これに対して、時刻tの背景画像Bは、障害物Qの移動からWT時間がまだ経過していないので、移動前に障害物Qがあった領域に、まだ障害物Qの画像の一部が残っている。移動前に障害物Qがあった領域は、背景画像B、背景画像Bのように、時間の経過とともに障害物Qの背景にあった地面または壁の画像に変化していく。逆に、障害物Qの移動先の領域は、時間の経過とともに、地面または壁の画像から、徐々に、障害物Qの画像に変化していく。背景画像Bおよび背景画像Bの、移動前に障害物Qがあった領域と移動先の領域の画素値は、障害物Qの画像の画素値と、地面または壁の画像の画素値を所定の混合比で合成した値となっている。
障害物Qの移動からWT時間が経過すると、背景画像Bのように、移動前に障害物Qがあった領域は完全に地面または壁の画像に変化し、障害物Qの移動先の領域は完全に障害物Qの画像に変化している。なお、図3の背景画像Bでは、移動前の領域に障害物Qに相当する破線を描いているが、説明のためであり、実際には表示されない。
背景画像更新部17により生成された最新の背景画像が時刻tの背景画像Bであり、背景画像保存部18に保存されているT時間前の背景画像が時刻tの背景画像Bであるとする。このとき、領域情報変化判定部19は、移動前と移動後の障害物Qの領域の画像を、最新の背景画像BとT時間前の背景画像Bとで比較する。
より詳しくは、移動前の障害物Qの領域、即ち、現在設定されている障害物Qの領域情報Rが示す領域について、最新の背景画像BとT時間前の背景画像Bとが比較される。そして次に、障害物Qの移動先の領域、即ち、障害物Qの移動をトラッキングしたオブジェクトObjの領域について、最新の背景画像BとT時間前の背景画像Bとが比較される。そして、障害物Qの移動前の領域と移動先の領域のいずれについても、最新の背景画像BとT時間前の背景画像Bとで変化があると判定された場合、現在設定されている障害物Qの領域情報Rが、障害物Qの移動をトラッキングしたオブジェクトObjの領域を示す情報に変更される。
最新の背景画像と比較される過去の背景画像を決定するパラメータである時間T、および、最新の背景画像BとT時間前の背景画像Bで、領域の画像に変化があるか否かを判断するためのパラメータである、画像の変化量を表す閾値は、デフォルトとして所定の値が設定されている。また、それらの値は、ユーザが所望の値に変更することもできる。
なお、図3では、説明のため領域情報Rを画像上に表示したが、領域情報Rの表示は省略してもよい。
[領域情報保存処理のフローチャート]
図4は、初期設定としての障害物領域の領域情報の保存と、障害物の移動に伴う領域情報の変更とを行う領域情報保存処理のフローチャートを示している。図4を参照して、領域情報保存処理について説明する。
初めに、ステップS1において、画像取得部11は、撮像部で撮像したカメラ画像を取得し、領域情報初期設定部12および差分処理部14に出力する。
ステップS2において、監視装置1は、領域情報の初期設定を行う初期設定モードであるかを判定する。ステップS2で、初期設定モードであると判定された場合、処理はステップS3に進み、領域情報初期設定部12は、画像取得部11から供給されたカメラ画像を所定の表示部に表示させ、ユーザに障害物領域を入力(設定)させる。そして、領域情報初期設定部12は、ユーザの入力に応じて設定した障害物領域の領域情報を領域情報保存部13に保存する。ステップS3の後、処理はステップS1に戻る。
一方、ステップS2で、初期設定モードではないと判定された場合、処理はステップS4に進み、差分処理部14は、差分処理を行う。即ち、差分処理部14は、画像取得部11から供給されたカメラ画像と、背景画像保存部18に保存されている最新の背景画像の、対応する画素ごとの画素値の差分を計算し、その結果得られる差分画像を生成する。
ステップS5において、ラベリング処理部15は、差分処理部14から供給される差分画像に対してラベリング処理を施す。即ち、ラベリング処理部15は、背景画像には現れず、カメラ画像のみに現れている1以上のオブジェクト(画素のかたまり)を抽出し、抽出された各オブジェクトに異なるラベルを付与して識別する。
ステップS6において、トラッキング処理部16は、ラベリング処理部15により識別された1以上のオブジェクトに対して、トラッキング処理を行う。
ステップS7において、背景画像更新部17は、背景画像更新処理を行う。即ち、背景画像更新部17は、最新のカメラ画像に基づいて背景画像を生成し、生成した背景画像を、背景画像保存部18に保存されている既存の背景画像に上書きして保存(更新)する。また、背景画像更新部17は、最新の背景画像の更新に合わせて、T時間前の背景画像も更新する。
ステップS8において、領域情報変化判定部19は、背景画像保存部18から、最新の背景画像と、そのT時間前の背景画像の2枚の背景画像を取得する。
ステップS9において、領域情報変化判定部19は、現在設定されている障害物Qの領域情報Rが示す領域の画像が、最新の背景画像とT時間前の背景画像とで大きく変化しているかを判定する。
ステップS9で、現在設定されている障害物Qの領域情報Rが示す領域の画像が最新の背景画像とT時間前の背景画像とで大きく変化していないと判定された場合、処理はステップS1に戻る。
一方、ステップS9で、現在設定されている障害物Qの領域情報Rが示す領域の画像が最新の背景画像とT時間前の背景画像とで大きく変化していると判定された場合、即ち、障害物Qが移動された場合、処理はステップS10に進む。そして、ステップS10において、領域情報変化判定部19は、障害物Qの移動先の領域、即ち、障害物Qの移動をトラッキングしたオブジェクトObjの領域の画像が、最新の背景画像とT時間前の背景画像とで大きく変化しているかを判定する。
ステップS10で、障害物Qの移動先の領域の画像が、最新の背景画像とT時間前の背景画像とで大きく変化していないと判定された場合、処理はステップS1に戻る。
一方、ステップS10で、障害物Qの移動先の領域の画像が、最新の背景画像とT時間前の背景画像とで大きく変化していると判定された場合、処理はステップS11に進み、領域情報変化判定部19は、障害物Qの領域情報Rを更新する。即ち、領域情報保存部13に保存されている障害物Qの領域情報Rが、障害物Qが移動されたオブジェクトObjの領域を示す情報に変更される。
ステップS11の後、処理はステップS1に戻る。ステップS1乃至S11の処理は、画像取得部11がカメラ画像を取得する毎に実行される。
以上のように、監視装置1によれば、撮影環境に変化が生じ、最初に設定した障害物等の領域を示す領域情報を変更する必要がある場合でも、撮影環境の変化を検出して自動的に(ユーザの変更操作なしに)領域情報を変更することができる。即ち、領域情報の変更に対するユーザの作業負担を軽減することができる。
なお、上述の説明では、領域情報をどのような座標系を用いて設定および保存するかについては言及しなかったが、領域情報を設定保存する際の座標系は問わない。1台の監視カメラのみを用いた監視装置であれば、カメラ画像の座標系で領域情報を保存しても良いし、複数の監視カメラを用いた監視システムであれば、特許文献1のように、ワールド座標系に変換して保存してもよい。
また、上述した実施の形態では、背景画像を、W枚のカメラ画像の対応する画素どうしの輝度値の平均により生成するようにしたが、背景画像は、これ以外の方法により生成するものでもよい。
例えば、その他の背景画像の生成方法としては、輝度値の確率分布を用いて背景画像を生成する方法がある。具体的に例を挙げると、時刻t=1,2,・・・,9の間にカメラ画像のある画素PIXの輝度値が1,1,1,1,5,5,5,5,5と変化したとする。このとき、W=5として、上述したW枚の輝度値の平均によって背景画像を生成した場合には、背景画像の画素PIXの画素値は、
時刻t=6のとき、(1+1+1+5+5)/5 = 2.6
時刻t=7のとき、(1+1+5+5+5)/5 = 3.4
時刻t=8のとき、(1+5+5+5+5)/5 = 4.2
時刻t=9のとき、(5+5+5+5+5)/5 = 5.0
となる。これに対して、W枚のカメラ画像の画素PIXの輝度値の確率分布を用いて、最も出現頻度が高い輝度値を背景画像の輝度値として、背景画像の画素PIXの輝度値を、
時刻t=6のとき、1 (1,1,1,5,5で1が3回、5が2回なので)
時刻t=7のとき、5 (1,1,5,5,5で1が2回、5が3回なので)
時刻t=8のとき、5 (1,5,5,5,5)
時刻t=9のとき、5 (5,5,5,5,5)
とすることができる。このように、背景画像は、W枚のカメラ画像の輝度値の平均などのように徐々に変化するようなものの他、確率分布を用いた場合のように、輝度値がW枚のカメラ画像の輝度値の変化に対応して一気に変化するように更新されるものでもよい。
[コンピュータの構成例]
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図5は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、及びドライブ110が接続されている。
入力部106は、キーボード、マウス、マイクロホンなどよりなる。出力部107は、ディスプレイ、スピーカなどよりなる。記憶部108は、ハードディスクや不揮発性のメモリなどよりなる。通信部109は、ネットワークインタフェースなどよりなる。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体111を駆動する。
撮像部112は、CCD(Charge Coupled Device)やCMOSセンサ等の撮像素子により構成される。撮像部112は、被写体を撮像し、撮像した被写体の画像データを、入出力インタフェース105を介してCPU101等に供給する。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU101)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体111に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
なお、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。
本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
1 監視装置, 11 画像取得部, 13 領域情報保存部, 17 背景画像更新部, 18 背景画像保存部, 19 領域情報変化判定部, 21 操作入力部

Claims (8)

  1. 対象空間を撮像して得られた画像を取得する取得手段と、
    取得された前記画像を用いて、背景画像を逐次更新する背景画像更新手段と、
    前記背景画像更新手段により更新された最新の前記背景画像と、その所定時間前の前記背景画像とを保存する背景画像保存手段と、
    最新の前記背景画像と、その所定時間前の前記背景画像とを比較し、比較結果に応じて前記背景画像のなかの所定の領域を示す領域情報を更新する領域情報変化判定手段と
    を備える画像処理装置。
  2. 前記領域情報は、移動可能な物体の領域を示す情報であり、
    前記物体の領域を前記物体の移動に応じてトラッキングするトラッキング手段をさらに備え、
    前記領域情報変化判定手段は、現在設定されている前記領域情報が示す領域と、前記トラッキング手段によりトラッキングされた前記物体の移動先の領域について、最新の前記背景画像と、その所定時間前の前記背景画像とを比較する
    請求項1に記載の画像処理装置。
  3. 前記領域情報変化判定手段は、現在設定されている前記領域情報が示す領域の画像が、最新の前記背景画像と、その所定時間前の前記背景画像とで大きく変化しているか否かを判定し、大きく変化していると判定された場合、前記物体の移動先の領域の画像が、最新の前記背景画像と、その所定時間前の前記背景画像とで大きく変化しているか否かを判定し、大きく変化していると判定された場合、前記領域情報を更新する
    請求項2に記載の画像処理装置。
  4. 前記背景画像保存手段に保存する前記所定時間前の前記背景画像を特定する前記所定時間のパラメータを設定する設定手段をさらに備える
    請求項1に記載の画像処理装置。
  5. 前記最新の前記背景画像と、その所定時間前の前記背景画像との間の画像の変化量を表す閾値のパラメータを設定する設定手段をさらに備える
    請求項1に記載の画像処理装置。
  6. 前記背景画像更新手段は、連続する所定枚数の前記画像を合成することで、更新する前記背景画像を生成する
    請求項1に記載の画像処理装置。
  7. 取得手段と、背景画像更新手段と、背景画像保存手段と、領域情報変化判定手段とを備える画像処理装置の、
    前記取得手段が、対象空間を撮像して得られた画像を取得し、
    前記背景画像更新手段が、取得された前記画像を用いて、背景画像を逐次更新し、更新された最新の前記背景画像と、その所定時間前の前記背景画像とを前記背景画像保存手段に保存し、
    前記領域情報変化判定手段が、最新の前記背景画像と、その所定時間前の前記背景画像とを比較し、比較結果に応じて前記背景画像のなかの所定の領域を示す領域情報を更新する
    ステップを含む画像処理方法。
  8. コンピュータを、
    対象空間を撮像して得られた画像を取得する取得手段と、
    取得された前記画像を用いて、背景画像を逐次更新し、更新された最新の前記背景画像と、その所定時間前の前記背景画像とを背景画像保存手段に保存させる背景画像更新手段と、
    最新の前記背景画像と、その所定時間前の前記背景画像とを比較し、比較結果に応じて前記背景画像のなかの所定の領域を示す領域情報を更新する領域情報変化判定手段
    として機能させるためのプログラム。
JP2011001954A 2011-01-07 2011-01-07 画像処理装置、画像処理方法、およびプログラム Withdrawn JP2012147083A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011001954A JP2012147083A (ja) 2011-01-07 2011-01-07 画像処理装置、画像処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011001954A JP2012147083A (ja) 2011-01-07 2011-01-07 画像処理装置、画像処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2012147083A true JP2012147083A (ja) 2012-08-02

Family

ID=46790246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011001954A Withdrawn JP2012147083A (ja) 2011-01-07 2011-01-07 画像処理装置、画像処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2012147083A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021503636A (ja) * 2017-08-07 2021-02-12 スタンダード コグニション コーポレーション 前景/背景処理を使用した在庫イベントの予測
JP2021176230A (ja) * 2014-07-18 2021-11-04 株式会社半導体エネルギー研究所 撮像装置、表示装置、監視装置及び電子機器
US11551079B2 (en) 2017-03-01 2023-01-10 Standard Cognition, Corp. Generating labeled training images for use in training a computational neural network for object or action recognition
US11790682B2 (en) 2017-03-10 2023-10-17 Standard Cognition, Corp. Image analysis using neural networks for pose and action identification

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01171807A (ja) * 1987-12-28 1989-07-06 Tokyu Constr Co Ltd 塑性物表面への画像形成方法
JPH08120754A (ja) * 1994-10-24 1996-05-14 Asahi Concrete Works Co Ltd 分割型ボックスカルバート及びその組立方法
JP3166082U (ja) * 2010-12-07 2011-02-17 株式会社北関東工業 埋設ボックス

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01171807A (ja) * 1987-12-28 1989-07-06 Tokyu Constr Co Ltd 塑性物表面への画像形成方法
JPH08120754A (ja) * 1994-10-24 1996-05-14 Asahi Concrete Works Co Ltd 分割型ボックスカルバート及びその組立方法
JP3166082U (ja) * 2010-12-07 2011-02-17 株式会社北関東工業 埋設ボックス

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021176230A (ja) * 2014-07-18 2021-11-04 株式会社半導体エネルギー研究所 撮像装置、表示装置、監視装置及び電子機器
US11551079B2 (en) 2017-03-01 2023-01-10 Standard Cognition, Corp. Generating labeled training images for use in training a computational neural network for object or action recognition
US11790682B2 (en) 2017-03-10 2023-10-17 Standard Cognition, Corp. Image analysis using neural networks for pose and action identification
JP2021503636A (ja) * 2017-08-07 2021-02-12 スタンダード コグニション コーポレーション 前景/背景処理を使用した在庫イベントの予測
JP7181922B2 (ja) 2017-08-07 2022-12-01 スタンダード コグニション コーポレーション 前景/背景処理を使用した在庫イベントの予測

Similar Documents

Publication Publication Date Title
KR101945194B1 (ko) 화상처리장치, 화상처리방법, 및 프로그램
US7583815B2 (en) Wide-area site-based video surveillance system
JP5603663B2 (ja) 移動体軌跡表示装置および移動体軌跡表示プログラム
KR102239530B1 (ko) 복수의 카메라로부터 뷰를 결합하는 방법 및 카메라 시스템
JP2010009134A (ja) 画像処理システム及び画像処理方法、並びに、プログラム
KR101623826B1 (ko) 히트맵 영상 기능을 가진 감시카메라
JP2010267055A (ja) 動体検出装置と動体検出方法およびコンピュータ・プログラム
US20050052533A1 (en) Object tracking method and object tracking apparatus
KR20110023472A (ko) 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법
KR101990368B1 (ko) 감시 카메라 및 감시 시스템
CN103929592A (zh) 全方位智能监控设备及方法
JP2013033317A (ja) 画像処理装置、画像処理方法、及び、プログラム
KR20160078724A (ko) 카메라 감시 영역 표시 방법 및 장치
JP5183152B2 (ja) 画像処理装置
KR101454548B1 (ko) 3차원 카메라를 이용한 감시 장치 및 이의 구동 방법
JP5155110B2 (ja) 監視装置
JP6638723B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP2012147083A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2006311099A (ja) 自動追尾装置及び自動追尾方法
KR20050040722A (ko) 물체 검출 방법 및 물체 검출 장치
JP2004312402A (ja) 道路監視システム,道路監視装置
KR101410985B1 (ko) 감시카메라를 이용한 감시시스템 및 감시장치와 그 감시방법
JP4572190B2 (ja) 物体検出装置
JP2009225239A (ja) 監視システム、監視制御装置、監視制御方法及びプログラム
KR101920369B1 (ko) 열화상 카메라의 영상처리장치 및 영상처리방법

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140401