JP3824934B2 - Image processing device for monitoring - Google Patents
Image processing device for monitoring Download PDFInfo
- Publication number
- JP3824934B2 JP3824934B2 JP2001397835A JP2001397835A JP3824934B2 JP 3824934 B2 JP3824934 B2 JP 3824934B2 JP 2001397835 A JP2001397835 A JP 2001397835A JP 2001397835 A JP2001397835 A JP 2001397835A JP 3824934 B2 JP3824934 B2 JP 3824934B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- size
- circumscribed
- circumscribed rectangle
- integration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
この発明は、領域統合手法を改良した監視用画像処理装置に関するものである。
【0002】
【従来の技術】
図1は従来の監視用画像処理装置を示す構成図であり、図において、1はビデオ信号を入力する画像入力部、2はビデオ信号による現画像を蓄積する現画像蓄積部、3はビデオ信号による背景画像を蓄積する背景画像蓄積部、4はビデオ信号を逐次処理して背景画像を得ると共に、更新後の背景画像を背景画像蓄積部3に蓄積させる背景更新部、5は現画像と背景画像との比較により、その差分から現画像の変化領域を抽出する背景差分部である。
6は現画像の変化領域を2値化するための閾値を演算する閾値演算部、7は現画像の変化領域をその閾値で2値化する2値化部、8はその2値データを固まり毎にラベルを付番するラベリング部、9は付番されたラベル毎に特徴量を演算する特徴量演算部である。
10は付番されたラベル毎に、同一の変化対象に属すると思われる変化領域を統合して1つの変化領域にまとめる領域統合部である。11は予め設定され記憶された発報対象特徴量、12は領域統合部10で統合された変化領域の特徴量を再演算し、その再演算した特徴量、および、特徴量演算部9で演算され領域統合部10で統合されなかった変化領域の特徴量と、発報対象特徴量11とを比較し、一致するか判定する認識処理部、13は認識処理部12で一致が判定された場合に発報する発報処理部である。
図6は従来の領域統合部の処理を示すフローチャート、図7は従来の領域統合部の処理を示す説明図である。
【0003】
次に動作について説明する。
図1において、画像入力部1には、監視カメラからのビデオ信号が入力され、A/D変換した後、例えば、R,G,Bについて各8ビットの画像データとして現画像蓄積部2および背景画像蓄積部3に供給する。現画像蓄積部2では、その画像データを蓄積する。背景画像蓄積部3では、その画像データを背景更新部4に供給し、背景更新部4では、例えば、過去30枚分の画像データの平均から背景画像を演算し、背景画像蓄積部3に蓄積される背景画像を逐次更新する。ここで、背景画像を逐次更新するのは、監視カメラが写している領域の風景が、昼と夜で異なったり、物の移動等で異なったりすることに対処するためである。背景差分部5では、現画像蓄積部2の現画像と背景画像蓄積部3の背景画像とを比較して、その差分から現画像における移動物または変化物等の変化領域を抽出する。
閾値演算部6では、背景差分部5からの背景差分データ(8ビット)を2値化(1ビット)するための閾値を演算する。これは背景差分データに基づいて最適閾値を求めるのが一般的である。2値化部7では、閾値演算部6で求められた閾値で背景差分データを2値化する。ラベリング部8では、2値化部7から出力される2値データを固まり毎に付番する。ここで、2値データの固まりとは、例えば、隣接するデータ“1”の画素を1固まりと捉えるものである。図7に示す領域統合前には、2値データの固まりが3つあるが、ここでは、それぞれについて付番する。特徴量演算部9では、ラベリング部8で付番されたラベル毎に、その特徴量を算出する。ここで、特徴量とは、2値データの固まり毎、すなわち、各変化領域の面積、縦横寸法等である。
【0004】
領域統合部10では、ラベリング部8で付番されたラベル毎に、同一の変化対象に属すると思われる変化領域を統合して1つの変化領域にまとめる。
図6および図7はその領域統合部10の処理を詳しく説明したものであり、以下、図6および図7を参照しながら説明する。
まず、フェレ径数判断部ST1では、ラベリング部8から得られるフェレ径数を判断する。ここで、フェレ径とは、図7に示すように、変化領域の外接四角形である。ラベリング部8では、各変化領域毎にラベルを付番するので、ラベリング部8からフェレ径の総数が得られることになる。図7に示す領域統合前では、フェレ径数が3であり、この場合、ステップST2〜ST6の処理が3回行われることになる。ステップST2〜ST6の処理はフェレ径の全組み合せ回数分行われ、フェレ径数がnの場合は、nC2回行われることになる。
その後、各フェレ径間において以下の統合可否判断を行う。
(従来条件1)包含判定部ST2では、一方のフェレ径が他方のフェレ径に完全に包含されているかどうかを判断する。包含されている場合には両フェレ径同士の統合を行う。
(従来条件2)接触判定部ST3では、一方のフェレ径が他方のフェレ径に接触しているかどうかを判断する。接触している場合には両フェレ径同士の統合を行う。
(従来条件3)中点座標演算部ST4では、フェレ径の中点座標を演算し、仮想フェレ径演算部ST5では、中点同一で、縦2倍、横2倍(設定により倍数変更可)の仮想フェレ径を演算する。仮想フェレ径判定部ST6では、仮想フェレ径内に他方のフェレ径の中点が含まれる場合には両フェレ径同士の統合を行う。
図7では領域統合部10の処理によって領域統合前から領域統合後へフェレ径が変化した様子を示した。
【0005】
認識処理部12では、領域統合部10で統合されたフェレ径の変化領域の特徴量を再演算し、その再演算した特徴量、および、特徴量演算部9で演算され領域統合部10で統合されなかったフェレ径の変化領域の特徴量と、予め設定され記憶してある例えば、人物、車両等の発報対象特徴量11とを比較し、一致するか判定する。発報処理部13では、認識処理部12で一致が判定された場合にBEEP音等で発報する。
【0006】
【発明が解決しようとする課題】
従来の監視用画像処理装置は以上のように構成されているので、一般的に監視カメラは撮影する範囲を広くするために、高い位置から見下ろす形態をとるため遠近感のある画像となる。すなわち、画面下部では距離的に近い対象を、画面上部では遠い対象を撮像する。このため、従来の監視用画像処理装置における領域統合部10では、以下のような課題があった。
画面内を同一条件で領域統合するため、画面に大きく撮影される対象については、過統合が発生しやすく、反対に小さく撮影される対象については、不完全統合が発生しやすい。
過統合や不完全統合は、個々の移動体を正確に抽出できないため、予め記憶してある発報対象特徴量11との比較する際に、誤差を生じる。これにより、発報対象であっても発報対象と判定しない不検知や、発報対象でないのに発報対象と判定してしまう不要検知が発生してしまう。
【0007】
この発明は上記のような課題を解決するためになされたもので、過統合および不完全統合による不検知および不要検知を防止し、個々の対象を正確に判定する監視用画像処理装置を得ることを目的とする。
【0008】
【課題を解決するための手段】
この発明に係る監視用画像処理装置は、入力されるビデオ信号に応じて背景画像を得ると共に、そのビデオ信号による現画像とその背景画像との比較によりその現画像の変化領域を抽出する変化領域抽出手段と、その変化領域抽出手段により抽出された変化領域を2値化すると共に、それら2値化後の変化領域の固まり毎に特徴量を演算する特徴量演算手段と、その特徴量演算手段により演算された特徴量に応じた変化領域の外接四角形同士が一つの変化対象として統合可能か判定し、かつ、その外接四角形の大きさが所定の値より大きい場合ほど統合し難くなる統合条件にすると共に、外接四角形の大きさが所定の値より小さい場合ほど統合し易くなる統合条件にして、統合可能な場合には、統合した外接四角形を生成する変化領域統合手段と、その変化領域統合手段により統合された外接四角形の特徴量を上記特徴量演算手段により演算された特徴量に応じて再演算し、その再演算した外接四角形の特徴量と予め設定された対象の特徴量とを比較し、一致するか判定する対象判定手段とを備え、変化領域統合手段は、予め画像領域を区分した各範囲毎に外接四角形最大値がそれぞれ設定され、外接四角形がいずれの範囲に相当するか判定する範囲判定手段と、一方の外接四角形の大きさを演算し、その外接四角形の大きさが所定の値より大きい場合ほど、仮想外接四角形の大きさを決定する倍率を、標準倍数に対して小さく設定すると共に、その外接四角形の大きさが所定の値より小さい場合ほど、仮想外接四角形の大きさを決定する倍率を、標準倍数に対して大きく設定し、その設定した倍率でその一方の外接四角形を変更した仮想外接四角形が他方の外接四角形を含んでいるか判定し、含んでいる場合にはそれら一方および他方の外接四角形同士を統合した場合の外接四角形の大きさを演算し、その統合した外接四角形の大きさが上記範囲判定手段により判定された一方の外接四角形の範囲に応じた外接四角形最大値を超えていない場合には、統合する仮想外接四角形判定手段とを備えたものである。
【0009】
【発明の実施の形態】
以下、この発明の実施の一形態を説明する。
実施の形態1.
図1はこの発明の実施の形態1による監視用画像処理装置を示す構成図であり、図において、1はビデオ信号を入力する画像入力部、2はビデオ信号による現画像を蓄積する現画像蓄積部、3はビデオ信号による背景画像を蓄積する背景画像蓄積部、4はビデオ信号を逐次処理して背景画像を得ると共に、更新後の背景画像を背景画像蓄積部3に蓄積させる背景更新部、5は現画像と背景画像との比較により、その差分から現画像の変化領域を抽出する背景差分部である。以上により、変化領域抽出手段を構成する。
6は現画像の変化領域を2値化するための閾値を演算する閾値演算部、7は現画像の変化領域をその閾値で2値化する2値化部、8はその2値データを固まり毎にラベルを付番するラベリング部、9は付番されたラベル毎に特徴量を演算する特徴量演算部である。以上により、特徴量演算手段を構成する。
10は付番されたラベル毎に、同一の変化対象に属すると思われる変化領域を統合して1つの変化領域にまとめる領域統合部である。以上により、変化領域統合手段を構成する。
11は予め設定され記憶された発報対象特徴量、12は領域統合部10で統合された変化領域の特徴量を再演算し、その再演算した特徴量、および、特徴量演算部9で演算され領域統合部10で統合されなかった変化領域の特徴量と、発報対象特徴量11とを比較し、一致するか判定する認識処理部、13は認識処理部12で一致が判定された場合に発報する発報処理部である。以上により、対象判定手段を構成する。
図2はこの発明の実施の形態1による領域統合部の処理を示すフローチャート、図3はこの発明の実施の形態1による領域統合部の処理を示す説明図である。
【0010】
次に動作について説明する。
図1において、画像入力部1には、監視カメラからのビデオ信号が入力され、A/D変換した後、例えば、R,G,Bについて各8ビットの画像データとして現画像蓄積部2および背景画像蓄積部3に供給する。現画像蓄積部2では、その画像データを蓄積する。背景画像蓄積部3では、その画像データを背景更新部4に供給し、背景更新部4では、例えば、過去30枚分の画像データの平均から背景画像を演算し、背景画像蓄積部3に蓄積される背景画像を逐次更新する。ここで、背景画像を逐次更新するのは、監視カメラが写している領域の風景が、昼と夜で異なったり、物の移動等で異なったりすることに対処するためである。背景差分部5では、現画像蓄積部2の現画像と背景画像蓄積部3の背景画像とを比較して、その差分から現画像における移動物または変化物等の変化領域を抽出する。
閾値演算部6では、背景差分部5からの背景差分データ(8ビット)を2値化(1ビット)するための閾値を演算する。これは背景差分データに基づいて最適閾値を求めるのが一般的である。2値化部7では、閾値演算部6で求められた閾値で背景差分データを2値化する。ラベリング部8では、2値化部7から出力される2値データを固まり毎に付番する。ここで、2値データの固まりとは、例えば、隣接するデータ“1”の画素を1固まりと捉えるものである。図3に示す領域統合前には、2値データの固まりが8つあるが、ここでは、それぞれについて付番する。特徴量演算部9では、ラベリング部8で付番されたラベル毎に、その特徴量を算出する。ここで、特徴量とは、2値データの固まり毎、すなわち、各変化領域の面積、縦横寸法等である。
【0011】
領域統合部10では、ラベリング部8で付番されたラベル毎に、同一の変化対象に属すると思われる変化領域を統合して1つの変化領域にまとめる。
図2および図3はその領域統合部10の処理を詳しく説明したものであり、以下、図2および図3を参照しながら説明する。
まず、フェレ径数判断部ST1では、ラベリング部8から得られるフェレ径数を判断する。ここで、フェレ径とは、図3に示すように、変化領域の外接四角形である。ラベリング部8では、各変化領域毎にラベルを付番するので、ラベリング部8からフェレ径の総数が得られることになる。図3に示す領域統合前では、フェレ径数が8であり、この場合、ステップST2〜ST6の処理が28回行われることになる。ステップST2〜ST6の処理はフェレ径の全組み合せ回数分行われ、フェレ径数がnの場合は、nC2 回行われることになる。
その後、各フェレ径間において以下の統合可否判断を行う。
(発明1条件1)包含判定部ST2では、一方のフェレ径が他方のフェレ径に完全に包含されているかどうかを判断する。包含されている場合には両フェレ径同士の統合を行う。
(発明1条件2)接触判定部ST3では、一方のフェレ径が他方のフェレ径に接触しているかどうかを判断する。接触している場合には両フェレ径同士の統合を行う。
(発明1条件3)中点座標演算部ST4では、フェレ径の中点座標を演算し、サイズ判断部ST11では、各フェレ径の縦サイズ、横サイズを判断し、予め判定したい画像条件に合わせて設定されたサイズにて、縦横それぞれ3つ(組み合せとしては計9つ)に分類する。サイズ別仮想フェレ径演算部ST12では、ステップST11でのサイズ情報に基づいて仮想フェレ径を演算する。
演算方法は、縦横それぞれ分類したサイズ毎に、
サイズ大:標準倍数*m倍(0<m<1)
サイズ中:標準倍数
サイズ小:標準倍数*n倍(1≦n)
とし、標準倍数は縦2倍、横2倍(設定により倍数変更可)である。
仮想フェレ径判定部ST6では、仮想フェレ径内に他方のフェレ径の中点が含まれる場合には両フェレ径同士の統合を行う。
なお、中点座標演算部ST4、サイズ判断部ST11、サイズ別仮想フェレ径演算部ST12、および仮想フェレ径判定部ST6により、仮想外接四角形判定手段を構成する。
【0012】
認識処理部12では、領域統合部10で統合されたフェレ径の変化領域の特徴量を再演算し、その再演算した特徴量、および、特徴量演算部9で演算され領域統合部10で統合されなかったフェレ径の変化領域の特徴量と、予め設定され記憶してある例えば、人物、車両等の発報対象特徴量11とを比較し、一致するか判定する。発報処理部13では、認識処理部12で一致が判定された場合にBEEP音等で発報する。
【0013】
図3では従来の領域統合部10の処理によって領域統合前から領域統合後へフェレ径が変化した様子と、この実施の形態1の領域統合部10の処理によって領域統合前から領域統合後へフェレ径が変化した様子とを示した。
図3に示したような遠近感のある画像においては、大きいフェレ径の場合には(従来条件1)、(従来条件2)で十分な統合が行われ、(従来条件3)では過統合を引き起こしてしまう。
反対に、小さいフェレ径の場合には、(従来条件1)、(従来条件2)で統合できるケースは少なく、(従来条件3)でも完全に統合することはできない。これは、遠方の小さな変化は画像のコントラストが小さい場合が多く、差分によって得られる変化領域が小さくなるためである。
この実施の形態1では、大きいフェレ径、すなわち、近くに映る対象に対して統合し難くし、小さいフェレ径、すなわち遠くに映る対象に対して統合し易くすることで、対象を正確に抽出することができる。
【0014】
実施の形態2.
この実施の形態2による監視用画像処理装置を示す構成図は、図1と同一である。
図4はこの発明の実施の形態2による領域統合部の処理を示すフローチャート、図5はこの発明の実施の形態2による領域統合部の処理を示す説明図である。
【0015】
次に動作について説明する。
図4および図5は領域統合部10の処理を詳しく説明したものであり、以下、図4および図5を参照しながら説明する。
まず、フェレ径数判断部ST1では、ラベリング部8から得られるフェレ径数を判断し、中点座標演算部ST4では、各フェレ径の中点座標を演算する。
次に、範囲属性付加部ST21では、図5に示す範囲設定例のように、予め判定したい画像条件に合わせて画像領域を区分した各範囲毎にフェレ径最大値がそれぞれ設定されており、各フェレ径の中点座標がいずれの範囲に含まれるか判定し、その判定した範囲の属性を各フェレ径に付加する。なお、範囲は画面中の任意のエリアに任意形状で設定可能である。また、範囲属性付加部ST21により、範囲判定手段を構成する。
その後、各フェレ径間において以下の統合可否判断を行う。
(発明2条件1)包含判定部ST2では、一方のフェレ径が他方のフェレ径に完全に包含されているかどうかを判断する。包含されている場合には両フェレ径同士の統合を行う。
(発明2条件2)接触判定部ST3では、一方のフェレ径が他方のフェレ径に接触しているかどうかを判断する。接触している場合には、統合後フェレ径長判定部ST22にて、統合した場合のフェレ径長を演算し、範囲属性付加部ST21により付加された範囲におけるフェレ径最大値との比較を行う。フェレ径最大値を超えていない場合には、統合を行う。なお、範囲をまたがるフェレ径間の場合には、片方の条件を満足すれば良い。
(発明2条件3)サイズ判断部ST11では、各フェレ径の縦サイズ、横サイズを判断し、予め判定したい画像条件に合わせて設定されたサイズにて縦横それぞれ3つ(組み合せとしては計9つ)に分類する。サイズ別仮想フェレ径演算部ST12では、ステップST11でのサイズ情報に基づいて仮想フェレ径を演算する。
演算方法は、縦横それぞれ分類したサイズ毎に、
サイズ大:標準倍数*m倍(0<m<1)
サイズ中:標準倍数
サイズ小:標準倍数*n倍(1≦n)
とし、標準倍数は縦2倍、横2倍(設定により倍数変更可)である。
仮想フェレ径判定部ST6では、仮想フェレ径内に他方のフェレ径の中点が含まれる場合には、統合後フェレ径長判定部ST23にて、統合した場合のフェレ径長を演算し、範囲属性付加部ST21により付加された範囲におけるフェレ径最大値との比較を行う。フェレ径最大値を超えていない場合には統合を行う。範囲をまたがるフェレ径間の場合には、片方の条件を満足すれば良い。
なお、中点座標演算部ST4、範囲属性付加部ST21、サイズ判断部ST11、サイズ別仮想フェレ径演算部ST12、仮想フェレ径判定部ST6、および、統合後フェレ径長判定部ST23により、仮想外接四角形判定手段を構成する。
【0016】
図5では実施の形態1の領域統合部10の処理によって領域統合前から領域統合後へフェレ径が変化した様子と、この実施の形態2の領域統合部10の処理によって領域統合前から領域統合後へフェレ径が変化した様子とを示した。
図5の実施の形態1による統合後に示したように、大きいフェレ径が近傍に複数存在する場合には、実施の形態1の統合条件でも過統合を引き起こしてしまう。
一方、図5の実施の形態2による統合後に示したように、範囲1に属するフェレ径が統合する際のフェレ径最大値を、縦y画素、横x画素に設定することで、図5のような条件においても、過統合の発生を抑止し、対象を正確に抽出することができる。
【0017】
【発明の効果】
以上のように、この発明によれば、変化領域統合手段における外接四角形同士の統合条件を、その外接四角形の大きさが所定の値より大きい場合ほど統合し難くなる統合条件にすると共に、外接四角形の大きさが所定の値より小さい場合ほど統合し易くなる統合条件にするように構成したので、外接四角形が大きい場合に異なった変化対象の外接四角形同士が統合される過統合を引き起こすことなく、また、外接四角形が小さい場合に一つの変化対象の外接四角形が複数になってしまう不完全統合を引き起こすことなく、これら過統合および不完全統合による不検知および不要検知を防止し、個々の対象を正確に判定することができる効果がある。
また、仮想外接四角形判定手段において、一方の外接四角形の大きさが所定の値より大 きい場合ほど、仮想外接四角形の大きさを決定する倍率を、標準倍数に対して小さく設定すると共に、その外接四角形の大きさが所定の値より小さい場合ほど、仮想外接四角形の大きさを決定する倍率を、標準倍数に対して大きく設定した倍率で一方の外接四角形を変更した仮想外接四角形が、他方の外接四角形を含んでいる場合には、外接四角形同士を統合した場合の外接四角形の大きさが範囲判定手段により判定された一方の外接四角形の範囲に応じた外接四角形最大値を超えていないか判定して、超えていない場合には、統合するように構成したので、範囲判定手段による画像領域中の範囲毎の外接四角形最大値の設定を、例えば、遠方の画像領域については、統合し易く、近い画像領域については、統合し難くすることで、過統合および不完全統合による不検知および不要検知をさらに防止し、個々の対象を正確に判定することができる効果がある。
【図面の簡単な説明】
【図1】 従来および実施の形態1による監視用画像処理装置を示す構成図である。
【図2】 この発明の実施の形態1による領域統合部の処理を示すフローチャートである。
【図3】 この発明の実施の形態1による領域統合部の処理を示す説明図である。
【図4】 この発明の実施の形態2による領域統合部の処理を示すフローチャートである。
【図5】 この発明の実施の形態2による領域統合部の処理を示す説明図である。
【図6】 従来の領域統合部の処理を示すフローチャートである。
【図7】 従来の領域統合部の処理を示す説明図である。
【符号の説明】
1 画像入力部、2 現画像蓄積部、3 背景画像蓄積部、4 背景更新部、5 背景差分部、6 閾値演算部、7 2値化部、8 ラベリング部、9 特徴量演算部、10 領域統合部、11 発報対象特徴量、12 認識処理部、13 発報処理部、ST1 フェレ径数判断部、ST2 包含判定部、ST3 接触判定部、ST4 中点座標演算部、ST6 仮想フェレ径判定部、ST11 サイズ判断部、ST12 サイズ別仮想フェレ径演算部、ST21 範囲属性付加部、ST22,ST23 統合後フェレ径長判定部。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a monitoring image processing apparatus having an improved region integration method.
[0002]
[Prior art]
FIG. 1 is a block diagram showing a conventional monitoring image processing apparatus. In FIG. 1, 1 is an image input unit for inputting a video signal, 2 is a current image storage unit for storing a current image based on the video signal, and 3 is a video signal. A background image accumulating unit for accumulating a background image according to 4 obtains a background image by sequentially processing video signals, and a background updating unit for accumulating the updated background image in the background
6 is a threshold value calculation unit for calculating a threshold value for binarizing the change region of the current image, 7 is a binarization unit for binarizing the change region of the current image with the threshold value, and 8 is a block for the binary data. A labeling unit that assigns a label to each label and 9 is a feature quantity computing unit that computes a feature quantity for each numbered label.
FIG. 6 is a flowchart showing the process of the conventional region integration unit, and FIG. 7 is an explanatory diagram showing the process of the conventional region integration unit.
[0003]
Next, the operation will be described.
In FIG. 1, the video signal from the surveillance camera is input to the
The threshold
[0004]
The
6 and 7 describe the processing of the
First, the ferret diameter determination unit ST1 determines the ferret diameter obtained from the labeling unit 8. Here, the ferret diameter is a circumscribed rectangle of the change region, as shown in FIG. Since the labeling unit 8 assigns labels to each change region, the total number of ferret diameters can be obtained from the labeling unit 8. Before the region integration shown in FIG. 7, the ferret diameter is 3, and in this case, the processing of steps ST2 to ST6 is performed three times. The processes of steps ST2 to ST6 are performed for the total number of ferret diameter combinations. When the ferret diameter number is n, the processes are performed n C 2 times.
Thereafter, the following integration determination is performed between the ferret diameters.
(Conventional condition 1) The inclusion determination unit ST2 determines whether one ferret diameter is completely included in the other ferret diameter. If it is included, both ferret diameters are integrated.
(Conventional condition 2) The contact determination unit ST3 determines whether one ferret diameter is in contact with the other ferret diameter. When they are in contact, both ferret diameters are integrated.
(Conventional condition 3) In the midpoint coordinate calculation unit ST4, the midpoint coordinates of the ferret diameter are calculated, and in the virtual ferret diameter calculation unit ST5, the midpoint is the same, double in the vertical direction and double in the horizontal direction (multiple can be changed by setting). The virtual ferret diameter is calculated. In the virtual ferret diameter determination unit ST6, when the midpoint of the other ferret diameter is included in the virtual ferret diameter, the two ferret diameters are integrated.
FIG. 7 shows a state in which the ferret diameter is changed from before the region integration to after the region integration by the processing of the
[0005]
The
[0006]
[Problems to be solved by the invention]
Since the conventional monitoring image processing apparatus is configured as described above, in general, the monitoring camera takes a form of looking down from a high position in order to widen the shooting range, so that an image with a sense of perspective is obtained. That is, an object that is close in distance is imaged at the lower part of the screen and a far object is imaged at the upper part of the screen. Therefore, the
Since the areas in the screen are integrated under the same conditions, over-integration is likely to occur for objects that are photographed large on the screen, and incomplete integration is likely to occur for objects that are photographed small.
In overintegration or incomplete integration, individual moving objects cannot be extracted accurately, and therefore an error occurs when compared with the previously-reported report
[0007]
The present invention has been made to solve the above-described problems, and can provide a monitoring image processing apparatus that prevents undetection and unnecessary detection due to over-integration and incomplete integration and accurately determines individual objects. With the goal.
[0008]
[Means for Solving the Problems]
A monitoring image processing apparatus according to the present invention obtains a background image in accordance with an input video signal and extracts a change region of the current image by comparing the current image with the background image by the video signal. Extraction means, feature amount calculation means for binarizing the change area extracted by the change area extraction means, and calculating a feature quantity for each set of change areas after binarization, and feature quantity calculation means It is determined whether or not the circumscribed rectangles in the change area corresponding to the feature amount calculated by (1) can be integrated as one change target, and the integration condition that becomes difficult to integrate as the size of the circumscribed rectangle is larger than a predetermined value. while, in the integrated conditions the size of the circumscribed rectangle tends to integrate more smaller than a predetermined value, if possible integration, change area integrated hand for generating a bounding rectangle that integrates And re-calculating the feature quantity of the circumscribed rectangle integrated by the change area integrating means according to the feature quantity calculated by the feature quantity calculating means, and the feature quantity of the circumscribed rectangle and the preset target And a target area determination unit that determines whether or not they match , and the change area integration unit sets a circumscribed rectangle maximum value for each range in which the image area is divided in advance, A range determination means for determining whether or not it corresponds to a range, the size of one circumscribed square is calculated, and the magnification for determining the size of the virtual circumscribed square is larger when the size of the circumscribed square is larger than a predetermined value, While setting smaller than the standard multiple, the larger the size of the circumscribed rectangle is smaller than the predetermined value, the larger the magnification that determines the size of the virtual circumscribed rectangle is set relative to the standard multiple, It is determined whether the virtual circumscribed quadrangle whose one circumscribed square has been changed with the magnification set in (1) includes the other circumscribed quadrangle. If the size of the bounding rectangle is calculated and the size of the bounding rectangle does not exceed the maximum value of the bounding rectangle according to the range of one circumscribed rectangle determined by the range determination means, the virtual circumscribed rectangle determination to be integrated Means .
[ 0009 ]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described below.
FIG. 1 is a block diagram showing a monitoring image processing apparatus according to
6 is a threshold value calculation unit for calculating a threshold value for binarizing the change region of the current image, 7 is a binarization unit for binarizing the change region of the current image with the threshold value, and 8 is a block for the binary data. A labeling unit that assigns a label to each label and 9 is a feature quantity computing unit that computes a feature quantity for each numbered label. The feature amount calculation means is configured as described above.
11 is a preset feature value to be reported and 12 is stored, 12 is a recalculation of the feature value of the change area integrated by the
FIG. 2 is a flowchart showing the processing of the region integration unit according to the first embodiment of the present invention, and FIG. 3 is an explanatory diagram showing the processing of the region integration unit according to the first embodiment of the present invention.
[ 0010 ]
Next, the operation will be described.
In FIG. 1, the video signal from the surveillance camera is input to the
The threshold
[ 0011 ]
The
FIGS. 2 and 3 describe the processing of the
First, the ferret diameter determination unit ST1 determines the ferret diameter obtained from the labeling unit 8. Here, as shown in FIG. 3, the ferret diameter is a circumscribed rectangle of the change region. Since the labeling unit 8 assigns labels to each change region, the total number of ferret diameters can be obtained from the labeling unit 8. Before the region integration shown in FIG. 3, the ferret diameter is 8, and in this case, the processing of steps ST2 to ST6 is performed 28 times. The processes of steps ST2 to ST6 are performed for the total number of ferret diameter combinations. When the ferret diameter number is n, the processes are performed n C 2 times.
Thereafter, the following integration determination is performed between the ferret diameters.
(
(
(
The calculation method is for each size classified vertically and horizontally,
Large size: Standard multiple * m times (0 <m <1)
Medium size: standard multiple
Small size: standard multiple * n times (1 ≤ n)
The standard multiple is double vertical and double horizontal (multiplier can be changed by setting).
In the virtual ferret diameter determination unit ST6, when the midpoint of the other ferret diameter is included in the virtual ferret diameter, the two ferret diameters are integrated.
The midpoint coordinate calculation unit ST4, the size determination unit ST11, the size-specific virtual ferret diameter calculation unit ST12, and the virtual ferret diameter determination unit ST6 constitute a virtual circumscribed rectangle determination unit.
[ 0012 ]
The
[ 0013 ]
In FIG. 3, the ferret diameter changes from before the region integration to after the region integration by the processing of the conventional
In an image with perspective as shown in FIG. 3, sufficient integration is performed in (Conventional Condition 1) and (Conventional Condition 2) in the case of a large ferret diameter, and overconsolidation is performed in (Conventional Condition 3). It will cause.
On the other hand, in the case of a small ferret diameter, there are few cases where (Conventional condition 1) and (Conventional condition 2) can be integrated, and even (Conventional condition 3) cannot be integrated completely. This is because a small change in the distance often has a small image contrast, and a change region obtained by the difference becomes small.
In the first embodiment, it is difficult to integrate a large ferret diameter, that is, an object that appears in the vicinity, and it is easy to integrate with a small ferret diameter, that is, an object that appears in the distance, thereby accurately extracting the object. be able to.
[ 0014 ]
The configuration diagram of the monitoring image processing apparatus according to the second embodiment is the same as FIG.
FIG. 4 is a flowchart showing the processing of the region integration unit according to the second embodiment of the present invention, and FIG. 5 is an explanatory diagram showing the processing of the region integration unit according to the second embodiment of the present invention.
[ 0015 ]
Next, the operation will be described.
4 and 5 describe the processing of the
First, the ferret diameter determination unit ST1 determines the ferret diameter obtained from the labeling unit 8, and the midpoint coordinate calculation unit ST4 calculates the midpoint coordinates of each ferret diameter.
Next, in the range attribute adding unit ST21, as in the range setting example shown in FIG. 5, the ferret diameter maximum value is set for each range in which the image area is divided according to the image condition to be determined in advance. It is determined in which range the midpoint coordinates of the ferret diameter are included, and the attribute of the determined range is added to each ferret diameter. The range can be set in an arbitrary shape in an arbitrary area on the screen. Further, the range attribute adding unit ST21 constitutes a range determination unit.
Thereafter, the following integration determination is performed between the ferret diameters.
(
(
(
The calculation method is for each size classified vertically and horizontally,
Large size: Standard multiple * m times (0 <m <1)
Medium size: standard multiple
Small size: standard multiple * n times (1 ≤ n)
The standard multiple is double vertical and double horizontal (multiplier can be changed by setting).
In the virtual ferret diameter determination unit ST6, when the midpoint of the other ferret diameter is included in the virtual ferret diameter, the post-integration ferret diameter length determination unit ST23 calculates the ferret diameter length when integrated, Comparison with the maximum value of the ferret diameter in the range added by the attribute adding unit ST21 is performed. If the maximum ferret diameter is not exceeded, integration is performed. When the ferret diameter spans the range, it is sufficient to satisfy one of the conditions.
The virtual circumscribing is performed by the midpoint coordinate calculation unit ST4, the range attribute addition unit ST21, the size determination unit ST11, the size-specific virtual ferret diameter calculation unit ST12, the virtual ferret diameter determination unit ST6, and the post-integration ferret diameter length determination unit ST23. A quadrangle determination means is configured.
[ 0016 ]
In FIG. 5, the ferret diameter changes from before the region integration to after the region integration by the processing of the
As shown after integration according to the first embodiment in FIG. 5, when there are a plurality of large ferret diameters in the vicinity, over-integration is caused even in the integration conditions according to the first embodiment.
On the other hand, as shown after integration according to
[ 0017 ]
【The invention's effect】
As described above, according to the present invention, the integration condition between circumscribed rectangles in the change area integrating means is set to an integration condition that becomes difficult to integrate as the size of the circumscribed rectangle is larger than a predetermined value. Since the integration condition is such that the smaller the size of the smaller than the predetermined value, the easier it is to integrate, without causing over-integration in which different circumscribed rectangles are integrated when the circumscribed rectangle is large, In addition, when there is a small circumscribed rectangle, there is no incomplete integration that results in multiple circumscribed rectangles for a single change target, preventing undetected and unnecessary detection due to overintegration and incomplete integration, and There exists an effect which can be determined correctly.
Further, in the virtual bounding rectangle determination means, as when a large listening magnitude than a predetermined value at one of the circumscribed rectangle, a ratio which determines the size of the virtual circumscribing rectangle is set low relative standard multiples, the circumscribed As the size of the rectangle is smaller than the predetermined value, the virtual circumscribed rectangle in which one circumscribed rectangle is changed with a magnification that determines the size of the virtual circumscribed rectangle larger than the standard multiple is the other circumscribed rectangle. If a rectangle is included, it is determined whether the size of the circumscribed rectangle when the circumscribed rectangles are integrated does not exceed the maximum value of the circumscribed rectangle according to the range of one circumscribed rectangle determined by the range determining means. If it does not exceed, it is configured to integrate, so the setting of the circumscribed rectangle maximum value for each range in the image area by the range determination means, for example, the far image area As a result, it is easy to integrate, making it difficult to integrate near image areas, thereby further preventing non-detection and unnecessary detection due to over-integration and incomplete integration, and having the effect of accurately determining individual objects. .
[Brief description of the drawings]
FIG. 1 is a configuration diagram illustrating a monitoring image processing apparatus according to the related art and
FIG. 2 is a flowchart showing processing of a region integration unit according to
FIG. 3 is an explanatory diagram showing processing of a region integration unit according to
FIG. 4 is a flowchart showing processing of a region integration unit according to
FIG. 5 is an explanatory diagram showing processing of a region integration unit according to
FIG. 6 is a flowchart showing processing of a conventional region integration unit.
FIG. 7 is an explanatory diagram showing processing of a conventional region integration unit.
[Explanation of symbols]
DESCRIPTION OF
Claims (1)
上記変化領域抽出手段により抽出された変化領域を2値化すると共に、それら2値化後の変化領域の固まり毎に特徴量を演算する特徴量演算手段と、
上記特徴量演算手段により演算された特徴量に応じた変化領域の外接四角形同士が一つの変化対象として統合可能か判定し、かつ、その外接四角形の大きさが所定の値より大きい場合ほど統合し難くなる統合条件にすると共に、外接四角形の大きさが所定の値より小さい場合ほど統合し易くなる統合条件にして、統合可能な場合には、統合した外接四角形を生成する変化領域統合手段と、
上記変化領域統合手段により統合された外接四角形の特徴量を上記特徴量演算手段により演算された特徴量に応じて再演算し、その再演算した外接四角形の特徴量と予め設定された対象の特徴量とを比較し、一致するか判定する対象判定手段とを備え、
上記変化領域統合手段は、
予め画像領域を区分した各範囲毎に外接四角形最大値がそれぞれ設定され、外接四角形がいずれの範囲に相当するか判定する範囲判定手段と、
一方の外接四角形の大きさを演算し、その外接四角形の大きさが所定の値より大きい場合ほど、仮想外接四角形の大きさを決定する倍率を、標準倍数に対して小さく設定すると共に、その外接四角形の大きさが所定の値より小さい場合ほど、仮想外接四角形の大きさを決定する倍率を、標準倍数に対して大きく設定し、その設定した倍率でその一方の外接四角形を変更した仮想外接四角形が他方の外接四角形を含んでいるか判定し、含んでいる場合にはそれら一方および他方の外接四角形同士を統合した場合の外接四角形の大きさを演算し、その統合した外接四角形の大きさが上記範囲判定手段により判定された一方の外接四角形の範囲に応じた外接四角形最大値を超えていない場合には、統合する仮想外接四角形判定手段とを備えたことを特徴とする監視用画像処理装置。A change area extracting means for obtaining a background image according to an input video signal and extracting a change area of the current image by comparing the current image by the video signal and the background image;
A feature amount calculation means for binarizing the change region extracted by the change region extraction means and calculating a feature amount for each set of change regions after the binarization;
It is determined whether or not the circumscribed rectangles in the change area corresponding to the feature amount calculated by the feature amount calculating means can be integrated as one change target, and integration is performed when the size of the circumscribed rectangle is larger than a predetermined value. while the harder becomes integrated condition, the size of the circumscribed rectangle in the easily become integrated condition by integrating more smaller than a predetermined value, if possible integration, a change region integrating means for generating an enclosing rectangle that integrates ,
The feature amount of the circumscribed rectangle integrated by the change area integration unit is recalculated according to the feature amount calculated by the feature amount calculation unit, and the re-calculated feature amount of the circumscribed rectangle and the preset target feature An object determination means for comparing the amounts and determining whether they match ,
The change area integration means is:
Range determination means for setting a circumscribed rectangle maximum value for each range in which the image area is divided in advance and determining which range the circumscribed rectangle corresponds to;
When the size of one circumscribed rectangle is calculated and the size of the circumscribed rectangle is larger than a predetermined value, the magnification for determining the size of the virtual circumscribed rectangle is set smaller than the standard multiple and As the size of the rectangle is smaller than the predetermined value, the virtual circumscribed rectangle in which the magnification that determines the size of the virtual circumscribed rectangle is set larger than the standard multiple, and one of the circumscribed rectangles is changed by the set magnification. Is included, and if so, the size of the circumscribed rectangle when the one and the other circumscribed rectangles are integrated is calculated, and the size of the integrated circumscribed rectangle is A virtual circumscribed quadrangle determining unit that integrates when the maximum value of the circumscribed quadrangle corresponding to the range of one circumscribed quadrangle determined by the range determining unit is not exceeded. Monitoring the image processing apparatus according to symptoms.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001397835A JP3824934B2 (en) | 2001-12-27 | 2001-12-27 | Image processing device for monitoring |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001397835A JP3824934B2 (en) | 2001-12-27 | 2001-12-27 | Image processing device for monitoring |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003199098A JP2003199098A (en) | 2003-07-11 |
JP3824934B2 true JP3824934B2 (en) | 2006-09-20 |
Family
ID=27603496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001397835A Expired - Fee Related JP3824934B2 (en) | 2001-12-27 | 2001-12-27 | Image processing device for monitoring |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3824934B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4661529B2 (en) * | 2005-10-31 | 2011-03-30 | 株式会社デンソー | Image processing device |
JP5128524B2 (en) * | 2009-03-06 | 2013-01-23 | シャープ株式会社 | Image processing apparatus, control method therefor, image processing program, and computer-readable recording medium |
JP2011138409A (en) * | 2009-12-28 | 2011-07-14 | Sogo Keibi Hosho Co Ltd | Image sensor, monitoring system, and image processing method of the image sensor |
JP5581105B2 (en) * | 2010-04-19 | 2014-08-27 | 株式会社日立製作所 | Moving body detection device |
CN102798583B (en) * | 2012-07-13 | 2014-07-30 | 长安大学 | Ore rock block degree measurement method based on improved FERRET |
-
2001
- 2001-12-27 JP JP2001397835A patent/JP3824934B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003199098A (en) | 2003-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8374437B2 (en) | Information processing apparatus, information processing method, image identifying apparatus, image identifying method, and program | |
CN110717489B (en) | Method, device and storage medium for identifying text region of OSD (on Screen display) | |
US8290265B2 (en) | Method and apparatus for segmenting an object region of interest from an image | |
US20080181499A1 (en) | System and method for feature level foreground segmentation | |
US20040184674A1 (en) | Device and method for correcting skew of an object in an image | |
CN111027541A (en) | Flame detection method and system based on visible light and thermal imaging and storage medium | |
CN101114337A (en) | Ground buildings recognition positioning method | |
CN113763427B (en) | Multi-target tracking method based on coarse-to-fine shielding processing | |
JP6110174B2 (en) | Image detection apparatus, control program, and image detection method | |
CN111652230A (en) | License plate recognition method, electronic device and storage medium | |
JP2015064752A (en) | Vehicle monitoring device and vehicle monitoring method | |
JP2014164528A (en) | Character recognition device, character recognition method, and program | |
JP3824934B2 (en) | Image processing device for monitoring | |
JP4224328B2 (en) | Car number recognition device | |
CN113228105A (en) | Image processing method and device and electronic equipment | |
CN113840135B (en) | Color cast detection method, device, equipment and storage medium | |
JP2005070985A (en) | Image processor, method and program | |
JP3763279B2 (en) | Object extraction system, object extraction method, and object extraction program | |
Garg et al. | Low complexity techniques for robust real-time traffic incident detection | |
JP3417635B2 (en) | Intruding object recognition method | |
CN111027560A (en) | Text detection method and related device | |
CN116993743B (en) | Method, device, equipment and storage medium for detecting galloping amplitude of power transmission line | |
CN115018885B (en) | Multi-scale target tracking algorithm suitable for edge equipment | |
CN116416200B (en) | Forest fire smoke detection method based on region matching | |
JP3106080B2 (en) | Image processing apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060307 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060628 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100707 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100707 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110707 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110707 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120707 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120707 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130707 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |