JP3824934B2 - Image processing device for monitoring - Google Patents

Image processing device for monitoring Download PDF

Info

Publication number
JP3824934B2
JP3824934B2 JP2001397835A JP2001397835A JP3824934B2 JP 3824934 B2 JP3824934 B2 JP 3824934B2 JP 2001397835 A JP2001397835 A JP 2001397835A JP 2001397835 A JP2001397835 A JP 2001397835A JP 3824934 B2 JP3824934 B2 JP 3824934B2
Authority
JP
Japan
Prior art keywords
unit
size
circumscribed
circumscribed rectangle
integration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001397835A
Other languages
Japanese (ja)
Other versions
JP2003199098A (en
Inventor
修一 磯部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2001397835A priority Critical patent/JP3824934B2/en
Publication of JP2003199098A publication Critical patent/JP2003199098A/en
Application granted granted Critical
Publication of JP3824934B2 publication Critical patent/JP3824934B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、領域統合手法を改良した監視用画像処理装置に関するものである。
【0002】
【従来の技術】
図1は従来の監視用画像処理装置を示す構成図であり、図において、1はビデオ信号を入力する画像入力部、2はビデオ信号による現画像を蓄積する現画像蓄積部、3はビデオ信号による背景画像を蓄積する背景画像蓄積部、4はビデオ信号を逐次処理して背景画像を得ると共に、更新後の背景画像を背景画像蓄積部3に蓄積させる背景更新部、5は現画像と背景画像との比較により、その差分から現画像の変化領域を抽出する背景差分部である。
6は現画像の変化領域を2値化するための閾値を演算する閾値演算部、7は現画像の変化領域をその閾値で2値化する2値化部、8はその2値データを固まり毎にラベルを付番するラベリング部、9は付番されたラベル毎に特徴量を演算する特徴量演算部である。
10は付番されたラベル毎に、同一の変化対象に属すると思われる変化領域を統合して1つの変化領域にまとめる領域統合部である。11は予め設定され記憶された発報対象特徴量、12は領域統合部10で統合された変化領域の特徴量を再演算し、その再演算した特徴量、および、特徴量演算部9で演算され領域統合部10で統合されなかった変化領域の特徴量と、発報対象特徴量11とを比較し、一致するか判定する認識処理部、13は認識処理部12で一致が判定された場合に発報する発報処理部である。
図6は従来の領域統合部の処理を示すフローチャート、図7は従来の領域統合部の処理を示す説明図である。
【0003】
次に動作について説明する。
図1において、画像入力部1には、監視カメラからのビデオ信号が入力され、A/D変換した後、例えば、R,G,Bについて各8ビットの画像データとして現画像蓄積部2および背景画像蓄積部3に供給する。現画像蓄積部2では、その画像データを蓄積する。背景画像蓄積部3では、その画像データを背景更新部4に供給し、背景更新部4では、例えば、過去30枚分の画像データの平均から背景画像を演算し、背景画像蓄積部3に蓄積される背景画像を逐次更新する。ここで、背景画像を逐次更新するのは、監視カメラが写している領域の風景が、昼と夜で異なったり、物の移動等で異なったりすることに対処するためである。背景差分部5では、現画像蓄積部2の現画像と背景画像蓄積部3の背景画像とを比較して、その差分から現画像における移動物または変化物等の変化領域を抽出する。
閾値演算部6では、背景差分部5からの背景差分データ(8ビット)を2値化(1ビット)するための閾値を演算する。これは背景差分データに基づいて最適閾値を求めるのが一般的である。2値化部7では、閾値演算部6で求められた閾値で背景差分データを2値化する。ラベリング部8では、2値化部7から出力される2値データを固まり毎に付番する。ここで、2値データの固まりとは、例えば、隣接するデータ“1”の画素を1固まりと捉えるものである。図7に示す領域統合前には、2値データの固まりが3つあるが、ここでは、それぞれについて付番する。特徴量演算部9では、ラベリング部8で付番されたラベル毎に、その特徴量を算出する。ここで、特徴量とは、2値データの固まり毎、すなわち、各変化領域の面積、縦横寸法等である。
【0004】
領域統合部10では、ラベリング部8で付番されたラベル毎に、同一の変化対象に属すると思われる変化領域を統合して1つの変化領域にまとめる。
図6および図7はその領域統合部10の処理を詳しく説明したものであり、以下、図6および図7を参照しながら説明する。
まず、フェレ径数判断部ST1では、ラベリング部8から得られるフェレ径数を判断する。ここで、フェレ径とは、図7に示すように、変化領域の外接四角形である。ラベリング部8では、各変化領域毎にラベルを付番するので、ラベリング部8からフェレ径の総数が得られることになる。図7に示す領域統合前では、フェレ径数が3であり、この場合、ステップST2〜ST6の処理が3回行われることになる。ステップST2〜ST6の処理はフェレ径の全組み合せ回数分行われ、フェレ径数がnの場合は、n2回行われることになる。
その後、各フェレ径間において以下の統合可否判断を行う。
(従来条件1)包含判定部ST2では、一方のフェレ径が他方のフェレ径に完全に包含されているかどうかを判断する。包含されている場合には両フェレ径同士の統合を行う。
(従来条件2)接触判定部ST3では、一方のフェレ径が他方のフェレ径に接触しているかどうかを判断する。接触している場合には両フェレ径同士の統合を行う。
(従来条件3)中点座標演算部ST4では、フェレ径の中点座標を演算し、仮想フェレ径演算部ST5では、中点同一で、縦2倍、横2倍(設定により倍数変更可)の仮想フェレ径を演算する。仮想フェレ径判定部ST6では、仮想フェレ径内に他方のフェレ径の中点が含まれる場合には両フェレ径同士の統合を行う。
図7では領域統合部10の処理によって領域統合前から領域統合後へフェレ径が変化した様子を示した。
【0005】
認識処理部12では、領域統合部10で統合されたフェレ径の変化領域の特徴量を再演算し、その再演算した特徴量、および、特徴量演算部9で演算され領域統合部10で統合されなかったフェレ径の変化領域の特徴量と、予め設定され記憶してある例えば、人物、車両等の発報対象特徴量11とを比較し、一致するか判定する。発報処理部13では、認識処理部12で一致が判定された場合にBEEP音等で発報する。
【0006】
【発明が解決しようとする課題】
従来の監視用画像処理装置は以上のように構成されているので、一般的に監視カメラは撮影する範囲を広くするために、高い位置から見下ろす形態をとるため遠近感のある画像となる。すなわち、画面下部では距離的に近い対象を、画面上部では遠い対象を撮像する。このため、従来の監視用画像処理装置における領域統合部10では、以下のような課題があった。
画面内を同一条件で領域統合するため、画面に大きく撮影される対象については、過統合が発生しやすく、反対に小さく撮影される対象については、不完全統合が発生しやすい。
過統合や不完全統合は、個々の移動体を正確に抽出できないため、予め記憶してある発報対象特徴量11との比較する際に、誤差を生じる。これにより、発報対象であっても発報対象と判定しない不検知や、発報対象でないのに発報対象と判定してしまう不要検知が発生してしまう。
【0007】
この発明は上記のような課題を解決するためになされたもので、過統合および不完全統合による不検知および不要検知を防止し、個々の対象を正確に判定する監視用画像処理装置を得ることを目的とする。
【0008】
【課題を解決するための手段】
この発明に係る監視用画像処理装置は、入力されるビデオ信号に応じて背景画像を得ると共に、そのビデオ信号による現画像とその背景画像との比較によりその現画像の変化領域を抽出する変化領域抽出手段と、その変化領域抽出手段により抽出された変化領域を2値化すると共に、それら2値化後の変化領域の固まり毎に特徴量を演算する特徴量演算手段と、その特徴量演算手段により演算された特徴量に応じた変化領域の外接四角形同士が一つの変化対象として統合可能か判定し、かつ、その外接四角形の大きさが所定の値より大きい場合ほど統合し難くなる統合条件にすると共に、外接四角形の大きさが所定の値より小さい場合ほど統合し易くなる統合条件にして、統合可能な場合には、統合した外接四角形を生成する変化領域統合手段と、その変化領域統合手段により統合された外接四角形の特徴量を上記特徴量演算手段により演算された特徴量に応じて再演算し、その再演算した外接四角形の特徴量と予め設定された対象の特徴量とを比較し、一致するか判定する対象判定手段とを備え、変化領域統合手段は、予め画像領域を区分した各範囲毎に外接四角形最大値がそれぞれ設定され、外接四角形がいずれの範囲に相当するか判定する範囲判定手段と、一方の外接四角形の大きさを演算し、その外接四角形の大きさが所定の値より大きい場合ほど、仮想外接四角形の大きさを決定する倍率を、標準倍数に対して小さく設定すると共に、その外接四角形の大きさが所定の値より小さい場合ほど、仮想外接四角形の大きさを決定する倍率を、標準倍数に対して大きく設定し、その設定した倍率でその一方の外接四角形を変更した仮想外接四角形が他方の外接四角形を含んでいるか判定し、含んでいる場合にはそれら一方および他方の外接四角形同士を統合した場合の外接四角形の大きさを演算し、その統合した外接四角形の大きさが上記範囲判定手段により判定された一方の外接四角形の範囲に応じた外接四角形最大値を超えていない場合には、統合する仮想外接四角形判定手段とを備えたものである。
0009
【発明の実施の形態】
以下、この発明の実施の一形態を説明する。
実施の形態1.
図1はこの発明の実施の形態1による監視用画像処理装置を示す構成図であり、図において、1はビデオ信号を入力する画像入力部、2はビデオ信号による現画像を蓄積する現画像蓄積部、3はビデオ信号による背景画像を蓄積する背景画像蓄積部、4はビデオ信号を逐次処理して背景画像を得ると共に、更新後の背景画像を背景画像蓄積部3に蓄積させる背景更新部、5は現画像と背景画像との比較により、その差分から現画像の変化領域を抽出する背景差分部である。以上により、変化領域抽出手段を構成する。
6は現画像の変化領域を2値化するための閾値を演算する閾値演算部、7は現画像の変化領域をその閾値で2値化する2値化部、8はその2値データを固まり毎にラベルを付番するラベリング部、9は付番されたラベル毎に特徴量を演算する特徴量演算部である。以上により、特徴量演算手段を構成する。
10は付番されたラベル毎に、同一の変化対象に属すると思われる変化領域を統合して1つの変化領域にまとめる領域統合部である。以上により、変化領域統合手段を構成する。
11は予め設定され記憶された発報対象特徴量、12は領域統合部10で統合された変化領域の特徴量を再演算し、その再演算した特徴量、および、特徴量演算部9で演算され領域統合部10で統合されなかった変化領域の特徴量と、発報対象特徴量11とを比較し、一致するか判定する認識処理部、13は認識処理部12で一致が判定された場合に発報する発報処理部である。以上により、対象判定手段を構成する。
図2はこの発明の実施の形態1による領域統合部の処理を示すフローチャート、図3はこの発明の実施の形態1による領域統合部の処理を示す説明図である。
0010
次に動作について説明する。
図1において、画像入力部1には、監視カメラからのビデオ信号が入力され、A/D変換した後、例えば、R,G,Bについて各8ビットの画像データとして現画像蓄積部2および背景画像蓄積部3に供給する。現画像蓄積部2では、その画像データを蓄積する。背景画像蓄積部3では、その画像データを背景更新部4に供給し、背景更新部4では、例えば、過去30枚分の画像データの平均から背景画像を演算し、背景画像蓄積部3に蓄積される背景画像を逐次更新する。ここで、背景画像を逐次更新するのは、監視カメラが写している領域の風景が、昼と夜で異なったり、物の移動等で異なったりすることに対処するためである。背景差分部5では、現画像蓄積部2の現画像と背景画像蓄積部3の背景画像とを比較して、その差分から現画像における移動物または変化物等の変化領域を抽出する。
閾値演算部6では、背景差分部5からの背景差分データ(8ビット)を2値化(1ビット)するための閾値を演算する。これは背景差分データに基づいて最適閾値を求めるのが一般的である。2値化部7では、閾値演算部6で求められた閾値で背景差分データを2値化する。ラベリング部8では、2値化部7から出力される2値データを固まり毎に付番する。ここで、2値データの固まりとは、例えば、隣接するデータ“1”の画素を1固まりと捉えるものである。図3に示す領域統合前には、2値データの固まりが8つあるが、ここでは、それぞれについて付番する。特徴量演算部9では、ラベリング部8で付番されたラベル毎に、その特徴量を算出する。ここで、特徴量とは、2値データの固まり毎、すなわち、各変化領域の面積、縦横寸法等である。
0011
領域統合部10では、ラベリング部8で付番されたラベル毎に、同一の変化対象に属すると思われる変化領域を統合して1つの変化領域にまとめる。
図2および図3はその領域統合部10の処理を詳しく説明したものであり、以下、図2および図3を参照しながら説明する。
まず、フェレ径数判断部ST1では、ラベリング部8から得られるフェレ径数を判断する。ここで、フェレ径とは、図3に示すように、変化領域の外接四角形である。ラベリング部8では、各変化領域毎にラベルを付番するので、ラベリング部8からフェレ径の総数が得られることになる。図3に示す領域統合前では、フェレ径数が8であり、この場合、ステップST2〜ST6の処理が28回行われることになる。ステップST2〜ST6の処理はフェレ径の全組み合せ回数分行われ、フェレ径数がnの場合は、n2 回行われることになる。
その後、各フェレ径間において以下の統合可否判断を行う。
(発明1条件1)包含判定部ST2では、一方のフェレ径が他方のフェレ径に完全に包含されているかどうかを判断する。包含されている場合には両フェレ径同士の統合を行う。
(発明1条件2)接触判定部ST3では、一方のフェレ径が他方のフェレ径に接触しているかどうかを判断する。接触している場合には両フェレ径同士の統合を行う。
(発明1条件3)中点座標演算部ST4では、フェレ径の中点座標を演算し、サイズ判断部ST11では、各フェレ径の縦サイズ、横サイズを判断し、予め判定したい画像条件に合わせて設定されたサイズにて、縦横それぞれ3つ(組み合せとしては計9つ)に分類する。サイズ別仮想フェレ径演算部ST12では、ステップST11でのサイズ情報に基づいて仮想フェレ径を演算する。
演算方法は、縦横それぞれ分類したサイズ毎に、
サイズ大:標準倍数*m倍(0<m<1)
サイズ中:標準倍数
サイズ小:標準倍数*n倍(1≦n)
とし、標準倍数は縦2倍、横2倍(設定により倍数変更可)である。
仮想フェレ径判定部ST6では、仮想フェレ径内に他方のフェレ径の中点が含まれる場合には両フェレ径同士の統合を行う。
なお、中点座標演算部ST4、サイズ判断部ST11、サイズ別仮想フェレ径演算部ST12、および仮想フェレ径判定部ST6により、仮想外接四角形判定手段を構成する。
0012
認識処理部12では、領域統合部10で統合されたフェレ径の変化領域の特徴量を再演算し、その再演算した特徴量、および、特徴量演算部9で演算され領域統合部10で統合されなかったフェレ径の変化領域の特徴量と、予め設定され記憶してある例えば、人物、車両等の発報対象特徴量11とを比較し、一致するか判定する。発報処理部13では、認識処理部12で一致が判定された場合にBEEP音等で発報する。
0013
図3では従来の領域統合部10の処理によって領域統合前から領域統合後へフェレ径が変化した様子と、この実施の形態1の領域統合部10の処理によって領域統合前から領域統合後へフェレ径が変化した様子とを示した。
図3に示したような遠近感のある画像においては、大きいフェレ径の場合には(従来条件1)、(従来条件2)で十分な統合が行われ、(従来条件3)では過統合を引き起こしてしまう。
反対に、小さいフェレ径の場合には、(従来条件1)、(従来条件2)で統合できるケースは少なく、(従来条件3)でも完全に統合することはできない。これは、遠方の小さな変化は画像のコントラストが小さい場合が多く、差分によって得られる変化領域が小さくなるためである。
この実施の形態1では、大きいフェレ径、すなわち、近くに映る対象に対して統合し難くし、小さいフェレ径、すなわち遠くに映る対象に対して統合し易くすることで、対象を正確に抽出することができる。
0014
実施の形態2.
この実施の形態2による監視用画像処理装置を示す構成図は、図1と同一である。
図4はこの発明の実施の形態2による領域統合部の処理を示すフローチャート、図5はこの発明の実施の形態2による領域統合部の処理を示す説明図である。
0015
次に動作について説明する。
図4および図5は領域統合部10の処理を詳しく説明したものであり、以下、図4および図5を参照しながら説明する。
まず、フェレ径数判断部ST1では、ラベリング部8から得られるフェレ径数を判断し、中点座標演算部ST4では、各フェレ径の中点座標を演算する。
次に、範囲属性付加部ST21では、図5に示す範囲設定例のように、予め判定したい画像条件に合わせて画像領域を区分した各範囲毎にフェレ径最大値がそれぞれ設定されており、各フェレ径の中点座標がいずれの範囲に含まれるか判定し、その判定した範囲の属性を各フェレ径に付加する。なお、範囲は画面中の任意のエリアに任意形状で設定可能である。また、範囲属性付加部ST21により、範囲判定手段を構成する。
その後、各フェレ径間において以下の統合可否判断を行う。
(発明2条件1)包含判定部ST2では、一方のフェレ径が他方のフェレ径に完全に包含されているかどうかを判断する。包含されている場合には両フェレ径同士の統合を行う。
(発明2条件2)接触判定部ST3では、一方のフェレ径が他方のフェレ径に接触しているかどうかを判断する。接触している場合には、統合後フェレ径長判定部ST22にて、統合した場合のフェレ径長を演算し、範囲属性付加部ST21により付加された範囲におけるフェレ径最大値との比較を行う。フェレ径最大値を超えていない場合には、統合を行う。なお、範囲をまたがるフェレ径間の場合には、片方の条件を満足すれば良い。
(発明2条件3)サイズ判断部ST11では、各フェレ径の縦サイズ、横サイズを判断し、予め判定したい画像条件に合わせて設定されたサイズにて縦横それぞれ3つ(組み合せとしては計9つ)に分類する。サイズ別仮想フェレ径演算部ST12では、ステップST11でのサイズ情報に基づいて仮想フェレ径を演算する。
演算方法は、縦横それぞれ分類したサイズ毎に、
サイズ大:標準倍数*m倍(0<m<1)
サイズ中:標準倍数
サイズ小:標準倍数*n倍(1≦n)
とし、標準倍数は縦2倍、横2倍(設定により倍数変更可)である。
仮想フェレ径判定部ST6では、仮想フェレ径内に他方のフェレ径の中点が含まれる場合には、統合後フェレ径長判定部ST23にて、統合した場合のフェレ径長を演算し、範囲属性付加部ST21により付加された範囲におけるフェレ径最大値との比較を行う。フェレ径最大値を超えていない場合には統合を行う。範囲をまたがるフェレ径間の場合には、片方の条件を満足すれば良い。
なお、中点座標演算部ST4、範囲属性付加部ST21、サイズ判断部ST11、サイズ別仮想フェレ径演算部ST12、仮想フェレ径判定部ST6、および、統合後フェレ径長判定部ST23により、仮想外接四角形判定手段を構成する。
0016
図5では実施の形態1の領域統合部10の処理によって領域統合前から領域統合後へフェレ径が変化した様子と、この実施の形態2の領域統合部10の処理によって領域統合前から領域統合後へフェレ径が変化した様子とを示した。
図5の実施の形態1による統合後に示したように、大きいフェレ径が近傍に複数存在する場合には、実施の形態1の統合条件でも過統合を引き起こしてしまう。
一方、図5の実施の形態2による統合後に示したように、範囲1に属するフェレ径が統合する際のフェレ径最大値を、縦y画素、横x画素に設定することで、図5のような条件においても、過統合の発生を抑止し、対象を正確に抽出することができる。
0017
【発明の効果】
以上のように、この発明によれば、変化領域統合手段における外接四角形同士の統合条件を、その外接四角形の大きさが所定の値より大きい場合ほど統合し難くなる統合条件にすると共に、外接四角形の大きさが所定の値より小さい場合ほど統合し易くなる統合条件にするように構成したので、外接四角形が大きい場合に異なった変化対象の外接四角形同士が統合される過統合を引き起こすことなく、また、外接四角形が小さい場合に一つの変化対象の外接四角形が複数になってしまう不完全統合を引き起こすことなく、これら過統合および不完全統合による不検知および不要検知を防止し、個々の対象を正確に判定することができる効果がある。
また、仮想外接四角形判定手段において、一方の外接四角形の大きさが所定の値より大 きい場合ほど、仮想外接四角形の大きさを決定する倍率を、標準倍数に対して小さく設定すると共に、その外接四角形の大きさが所定の値より小さい場合ほど、仮想外接四角形の大きさを決定する倍率を、標準倍数に対して大きく設定した倍率で一方の外接四角形を変更した仮想外接四角形が、他方の外接四角形を含んでいる場合には、外接四角形同士を統合した場合の外接四角形の大きさが範囲判定手段により判定された一方の外接四角形の範囲に応じた外接四角形最大値を超えていないか判定して、超えていない場合には、統合するように構成したので、範囲判定手段による画像領域中の範囲毎の外接四角形最大値の設定を、例えば、遠方の画像領域については、統合し易く、近い画像領域については、統合し難くすることで、過統合および不完全統合による不検知および不要検知をさらに防止し、個々の対象を正確に判定することができる効果がある。
【図面の簡単な説明】
【図1】 従来および実施の形態1による監視用画像処理装置を示す構成図である。
【図2】 この発明の実施の形態1による領域統合部の処理を示すフローチャートである。
【図3】 この発明の実施の形態1による領域統合部の処理を示す説明図である。
【図4】 この発明の実施の形態2による領域統合部の処理を示すフローチャートである。
【図5】 この発明の実施の形態2による領域統合部の処理を示す説明図である。
【図6】 従来の領域統合部の処理を示すフローチャートである。
【図7】 従来の領域統合部の処理を示す説明図である。
【符号の説明】
1 画像入力部、2 現画像蓄積部、3 背景画像蓄積部、4 背景更新部、5 背景差分部、6 閾値演算部、7 2値化部、8 ラベリング部、9 特徴量演算部、10 領域統合部、11 発報対象特徴量、12 認識処理部、13 発報処理部、ST1 フェレ径数判断部、ST2 包含判定部、ST3 接触判定部、ST4 中点座標演算部、ST6 仮想フェレ径判定部、ST11 サイズ判断部、ST12 サイズ別仮想フェレ径演算部、ST21 範囲属性付加部、ST22,ST23 統合後フェレ径長判定部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a monitoring image processing apparatus having an improved region integration method.
[0002]
[Prior art]
FIG. 1 is a block diagram showing a conventional monitoring image processing apparatus. In FIG. 1, 1 is an image input unit for inputting a video signal, 2 is a current image storage unit for storing a current image based on the video signal, and 3 is a video signal. A background image accumulating unit for accumulating a background image according to 4 obtains a background image by sequentially processing video signals, and a background updating unit for accumulating the updated background image in the background image accumulating unit 3. It is a background difference unit that extracts a change area of the current image from the difference by comparison with an image.
6 is a threshold value calculation unit for calculating a threshold value for binarizing the change region of the current image, 7 is a binarization unit for binarizing the change region of the current image with the threshold value, and 8 is a block for the binary data. A labeling unit that assigns a label to each label and 9 is a feature quantity computing unit that computes a feature quantity for each numbered label.
Reference numeral 10 denotes an area integration unit that integrates change areas that are considered to belong to the same change target for each numbered label and combines them into one change area. 11 is a preset feature value to be reported and 12 is stored, 12 is a recalculation of the feature value of the change area integrated by the area integration unit 10, and the recalculated feature value is calculated by the feature value calculation unit 9. A recognition processing unit that compares the feature quantity of the changed area that has not been integrated by the area integration unit 10 and the notification target feature quantity 11 to determine whether they match, and 13 indicates that the recognition processing unit 12 determines a match. This is a notification processing unit that issues a notification.
FIG. 6 is a flowchart showing the process of the conventional region integration unit, and FIG. 7 is an explanatory diagram showing the process of the conventional region integration unit.
[0003]
Next, the operation will be described.
In FIG. 1, the video signal from the surveillance camera is input to the image input unit 1 and after A / D conversion, for example, the current image storage unit 2 and the background as 8-bit image data for each of R, G, and B This is supplied to the image storage unit 3. The current image storage unit 2 stores the image data. The background image storage unit 3 supplies the image data to the background update unit 4, and the background update unit 4 calculates, for example, a background image from the average of the past 30 image data and stores it in the background image storage unit 3. The background image to be updated is sequentially updated. Here, the reason why the background image is sequentially updated is to cope with the fact that the scenery of the area captured by the surveillance camera differs between day and night or due to movement of an object. The background difference unit 5 compares the current image of the current image storage unit 2 with the background image of the background image storage unit 3 and extracts a change area such as a moving object or a change object in the current image from the difference.
The threshold value calculation unit 6 calculates a threshold value for binarizing (1 bit) the background difference data (8 bits) from the background difference unit 5. In general, an optimum threshold value is obtained based on background difference data. The binarization unit 7 binarizes the background difference data with the threshold value obtained by the threshold value calculation unit 6. The labeling unit 8 numbers the binary data output from the binarizing unit 7 for each block. Here, the block of binary data means that adjacent data “1” pixels are regarded as one block. Before the region integration shown in FIG. 7, there are three groups of binary data, but here, each is numbered. The feature amount calculation unit 9 calculates the feature amount for each label numbered by the labeling unit 8. Here, the feature amount refers to each set of binary data, that is, the area of each change region, vertical and horizontal dimensions, and the like.
[0004]
The area integration unit 10 integrates the change areas that are considered to belong to the same change target for each label numbered by the labeling unit 8 and combines them into one change area.
6 and 7 describe the processing of the region integration unit 10 in detail, and will be described below with reference to FIGS. 6 and 7.
First, the ferret diameter determination unit ST1 determines the ferret diameter obtained from the labeling unit 8. Here, the ferret diameter is a circumscribed rectangle of the change region, as shown in FIG. Since the labeling unit 8 assigns labels to each change region, the total number of ferret diameters can be obtained from the labeling unit 8. Before the region integration shown in FIG. 7, the ferret diameter is 3, and in this case, the processing of steps ST2 to ST6 is performed three times. The processes of steps ST2 to ST6 are performed for the total number of ferret diameter combinations. When the ferret diameter number is n, the processes are performed n C 2 times.
Thereafter, the following integration determination is performed between the ferret diameters.
(Conventional condition 1) The inclusion determination unit ST2 determines whether one ferret diameter is completely included in the other ferret diameter. If it is included, both ferret diameters are integrated.
(Conventional condition 2) The contact determination unit ST3 determines whether one ferret diameter is in contact with the other ferret diameter. When they are in contact, both ferret diameters are integrated.
(Conventional condition 3) In the midpoint coordinate calculation unit ST4, the midpoint coordinates of the ferret diameter are calculated, and in the virtual ferret diameter calculation unit ST5, the midpoint is the same, double in the vertical direction and double in the horizontal direction (multiple can be changed by setting). The virtual ferret diameter is calculated. In the virtual ferret diameter determination unit ST6, when the midpoint of the other ferret diameter is included in the virtual ferret diameter, the two ferret diameters are integrated.
FIG. 7 shows a state in which the ferret diameter is changed from before the region integration to after the region integration by the processing of the region integration unit 10.
[0005]
The recognition processing unit 12 recalculates the feature amount of the change area of the ferret diameter integrated by the region integration unit 10, calculates the recalculated feature amount, and the feature amount calculation unit 9, and integrates it by the region integration unit 10. The feature amount of the change area of the ferret diameter that has not been performed is compared with the feature amount 11 to be notified of, for example, a person or a vehicle, which is set in advance, and it is determined whether they match. The notification processing unit 13 issues a BEEP sound or the like when the recognition processing unit 12 determines a match.
[0006]
[Problems to be solved by the invention]
Since the conventional monitoring image processing apparatus is configured as described above, in general, the monitoring camera takes a form of looking down from a high position in order to widen the shooting range, so that an image with a sense of perspective is obtained. That is, an object that is close in distance is imaged at the lower part of the screen and a far object is imaged at the upper part of the screen. Therefore, the area integration unit 10 in the conventional monitoring image processing apparatus has the following problems.
Since the areas in the screen are integrated under the same conditions, over-integration is likely to occur for objects that are photographed large on the screen, and incomplete integration is likely to occur for objects that are photographed small.
In overintegration or incomplete integration, individual moving objects cannot be extracted accurately, and therefore an error occurs when compared with the previously-reported report target feature quantity 11. Thereby, even if it is a report object, the non-detection which does not determine with a report object, and the unnecessary detection which determines with the report object although it is not a report object generate | occur | produces.
[0007]
The present invention has been made to solve the above-described problems, and can provide a monitoring image processing apparatus that prevents undetection and unnecessary detection due to over-integration and incomplete integration and accurately determines individual objects. With the goal.
[0008]
[Means for Solving the Problems]
A monitoring image processing apparatus according to the present invention obtains a background image in accordance with an input video signal and extracts a change region of the current image by comparing the current image with the background image by the video signal. Extraction means, feature amount calculation means for binarizing the change area extracted by the change area extraction means, and calculating a feature quantity for each set of change areas after binarization, and feature quantity calculation means It is determined whether or not the circumscribed rectangles in the change area corresponding to the feature amount calculated by (1) can be integrated as one change target, and the integration condition that becomes difficult to integrate as the size of the circumscribed rectangle is larger than a predetermined value. while, in the integrated conditions the size of the circumscribed rectangle tends to integrate more smaller than a predetermined value, if possible integration, change area integrated hand for generating a bounding rectangle that integrates And re-calculating the feature quantity of the circumscribed rectangle integrated by the change area integrating means according to the feature quantity calculated by the feature quantity calculating means, and the feature quantity of the circumscribed rectangle and the preset target And a target area determination unit that determines whether or not they match , and the change area integration unit sets a circumscribed rectangle maximum value for each range in which the image area is divided in advance, A range determination means for determining whether or not it corresponds to a range, the size of one circumscribed square is calculated, and the magnification for determining the size of the virtual circumscribed square is larger when the size of the circumscribed square is larger than a predetermined value, While setting smaller than the standard multiple, the larger the size of the circumscribed rectangle is smaller than the predetermined value, the larger the magnification that determines the size of the virtual circumscribed rectangle is set relative to the standard multiple, It is determined whether the virtual circumscribed quadrangle whose one circumscribed square has been changed with the magnification set in (1) includes the other circumscribed quadrangle. If the size of the bounding rectangle is calculated and the size of the bounding rectangle does not exceed the maximum value of the bounding rectangle according to the range of one circumscribed rectangle determined by the range determination means, the virtual circumscribed rectangle determination to be integrated Means .
[ 0009 ]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described below.
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a monitoring image processing apparatus according to Embodiment 1 of the present invention. In the figure, 1 is an image input unit for inputting a video signal, and 2 is a current image storage for storing a current image by the video signal. Unit 3 is a background image storage unit that stores a background image by a video signal, 4 is a background update unit that sequentially processes the video signal to obtain a background image, and stores the updated background image in the background image storage unit 3; A background difference unit 5 extracts a change area of the current image from a difference between the current image and the background image. The change area extraction unit is configured as described above.
6 is a threshold value calculation unit for calculating a threshold value for binarizing the change region of the current image, 7 is a binarization unit for binarizing the change region of the current image with the threshold value, and 8 is a block for the binary data. A labeling unit that assigns a label to each label and 9 is a feature quantity computing unit that computes a feature quantity for each numbered label. The feature amount calculation means is configured as described above.
Reference numeral 10 denotes an area integration unit that integrates change areas that are considered to belong to the same change target for each numbered label and combines them into one change area. The change area integration unit is configured as described above.
11 is a preset feature value to be reported and 12 is stored, 12 is a recalculation of the feature value of the change area integrated by the area integration unit 10, and the recalculated feature value is calculated by the feature value calculation unit 9. A recognition processing unit that compares the feature quantity of the changed area that has not been integrated by the area integration unit 10 and the notification target feature quantity 11 to determine whether they match, and 13 indicates that the recognition processing unit 12 determines a match. This is a notification processing unit that issues a notification. The object determination unit is configured as described above.
FIG. 2 is a flowchart showing the processing of the region integration unit according to the first embodiment of the present invention, and FIG. 3 is an explanatory diagram showing the processing of the region integration unit according to the first embodiment of the present invention.
[ 0010 ]
Next, the operation will be described.
In FIG. 1, the video signal from the surveillance camera is input to the image input unit 1 and after A / D conversion, for example, the current image storage unit 2 and the background as 8-bit image data for each of R, G, and B This is supplied to the image storage unit 3. The current image storage unit 2 stores the image data. The background image storage unit 3 supplies the image data to the background update unit 4, and the background update unit 4 calculates, for example, a background image from the average of the past 30 image data and stores it in the background image storage unit 3. The background image to be updated is sequentially updated. Here, the reason why the background image is sequentially updated is to cope with the fact that the scenery of the area captured by the surveillance camera differs between day and night or due to movement of an object. The background difference unit 5 compares the current image of the current image storage unit 2 with the background image of the background image storage unit 3 and extracts a change area such as a moving object or a change object in the current image from the difference.
The threshold value calculation unit 6 calculates a threshold value for binarizing (1 bit) the background difference data (8 bits) from the background difference unit 5. In general, an optimum threshold value is obtained based on background difference data. The binarization unit 7 binarizes the background difference data with the threshold value obtained by the threshold value calculation unit 6. The labeling unit 8 numbers the binary data output from the binarizing unit 7 for each block. Here, the block of binary data means that adjacent data “1” pixels are regarded as one block. Before the area integration shown in FIG. 3, there are eight chunks of binary data, but here each is numbered. The feature amount calculation unit 9 calculates the feature amount for each label numbered by the labeling unit 8. Here, the feature amount refers to each set of binary data, that is, the area of each change region, vertical and horizontal dimensions, and the like.
[ 0011 ]
The area integration unit 10 integrates the change areas that are considered to belong to the same change target for each label numbered by the labeling unit 8 and combines them into one change area.
FIGS. 2 and 3 describe the processing of the area integration unit 10 in detail, and will be described below with reference to FIGS. 2 and 3.
First, the ferret diameter determination unit ST1 determines the ferret diameter obtained from the labeling unit 8. Here, as shown in FIG. 3, the ferret diameter is a circumscribed rectangle of the change region. Since the labeling unit 8 assigns labels to each change region, the total number of ferret diameters can be obtained from the labeling unit 8. Before the region integration shown in FIG. 3, the ferret diameter is 8, and in this case, the processing of steps ST2 to ST6 is performed 28 times. The processes of steps ST2 to ST6 are performed for the total number of ferret diameter combinations. When the ferret diameter number is n, the processes are performed n C 2 times.
Thereafter, the following integration determination is performed between the ferret diameters.
(Invention 1 Condition 1) The inclusion determining unit ST2 determines whether one ferret diameter is completely included in the other ferret diameter. If it is included, both ferret diameters are integrated.
(Invention 1 Condition 2) The contact determination unit ST3 determines whether one ferret diameter is in contact with the other ferret diameter. When they are in contact, both ferret diameters are integrated.
(Invention 1 Condition 3) The midpoint coordinate calculation unit ST4 calculates the midpoint coordinates of the ferret diameter, and the size determination unit ST11 determines the vertical size and horizontal size of each ferret diameter, and matches the image conditions to be determined in advance. Are classified into three in each of the vertical and horizontal directions (a total of nine combinations). The size-specific virtual ferret diameter calculator ST12 calculates a virtual ferret diameter based on the size information in step ST11.
The calculation method is for each size classified vertically and horizontally,
Large size: Standard multiple * m times (0 <m <1)
Medium size: standard multiple
Small size: standard multiple * n times (1 ≤ n)
The standard multiple is double vertical and double horizontal (multiplier can be changed by setting).
In the virtual ferret diameter determination unit ST6, when the midpoint of the other ferret diameter is included in the virtual ferret diameter, the two ferret diameters are integrated.
The midpoint coordinate calculation unit ST4, the size determination unit ST11, the size-specific virtual ferret diameter calculation unit ST12, and the virtual ferret diameter determination unit ST6 constitute a virtual circumscribed rectangle determination unit.
[ 0012 ]
The recognition processing unit 12 recalculates the feature amount of the change area of the ferret diameter integrated by the region integration unit 10, calculates the recalculated feature amount, and the feature amount calculation unit 9, and integrates it by the region integration unit 10. The feature amount of the change area of the ferret diameter that has not been performed is compared with the feature amount 11 to be notified of, for example, a person or a vehicle, which is set in advance, and it is determined whether they match. The notification processing unit 13 issues a BEEP sound or the like when the recognition processing unit 12 determines a match.
[ 0013 ]
In FIG. 3, the ferret diameter changes from before the region integration to after the region integration by the processing of the conventional region integration unit 10, and the ferret from before the region integration to after the region integration by the processing of the region integration unit 10 according to the first embodiment. It shows how the diameter changed.
In an image with perspective as shown in FIG. 3, sufficient integration is performed in (Conventional Condition 1) and (Conventional Condition 2) in the case of a large ferret diameter, and overconsolidation is performed in (Conventional Condition 3). It will cause.
On the other hand, in the case of a small ferret diameter, there are few cases where (Conventional condition 1) and (Conventional condition 2) can be integrated, and even (Conventional condition 3) cannot be integrated completely. This is because a small change in the distance often has a small image contrast, and a change region obtained by the difference becomes small.
In the first embodiment, it is difficult to integrate a large ferret diameter, that is, an object that appears in the vicinity, and it is easy to integrate with a small ferret diameter, that is, an object that appears in the distance, thereby accurately extracting the object. be able to.
[ 0014 ]
Embodiment 2. FIG.
The configuration diagram of the monitoring image processing apparatus according to the second embodiment is the same as FIG.
FIG. 4 is a flowchart showing the processing of the region integration unit according to the second embodiment of the present invention, and FIG. 5 is an explanatory diagram showing the processing of the region integration unit according to the second embodiment of the present invention.
[ 0015 ]
Next, the operation will be described.
4 and 5 describe the processing of the region integration unit 10 in detail, and will be described below with reference to FIGS. 4 and 5.
First, the ferret diameter determination unit ST1 determines the ferret diameter obtained from the labeling unit 8, and the midpoint coordinate calculation unit ST4 calculates the midpoint coordinates of each ferret diameter.
Next, in the range attribute adding unit ST21, as in the range setting example shown in FIG. 5, the ferret diameter maximum value is set for each range in which the image area is divided according to the image condition to be determined in advance. It is determined in which range the midpoint coordinates of the ferret diameter are included, and the attribute of the determined range is added to each ferret diameter. The range can be set in an arbitrary shape in an arbitrary area on the screen. Further, the range attribute adding unit ST21 constitutes a range determination unit.
Thereafter, the following integration determination is performed between the ferret diameters.
(Invention 2 Condition 1) The inclusion determination unit ST2 determines whether one ferret diameter is completely included in the other ferret diameter. If it is included, both ferret diameters are integrated.
(Invention 2 Condition 2) The contact determination unit ST3 determines whether one ferret diameter is in contact with the other ferret diameter. If they are in contact, the post-integration ferret diameter length determination unit ST22 calculates the ferret diameter length in the case of integration, and compares it with the maximum ferret diameter value in the range added by the range attribute addition unit ST21. . If the maximum ferret diameter is not exceeded, integration is performed. In addition, when the ferret diameter spans the range, it is sufficient to satisfy one of the conditions.
(Invention 2 Condition 3) In the size determination unit ST11, the vertical size and horizontal size of each ferret diameter are determined, and each of the vertical and horizontal sizes is set in accordance with image conditions to be determined in advance (total of 9 combinations). ). The size-specific virtual ferret diameter calculator ST12 calculates a virtual ferret diameter based on the size information in step ST11.
The calculation method is for each size classified vertically and horizontally,
Large size: Standard multiple * m times (0 <m <1)
Medium size: standard multiple
Small size: standard multiple * n times (1 ≤ n)
The standard multiple is double vertical and double horizontal (multiplier can be changed by setting).
In the virtual ferret diameter determination unit ST6, when the midpoint of the other ferret diameter is included in the virtual ferret diameter, the post-integration ferret diameter length determination unit ST23 calculates the ferret diameter length when integrated, Comparison with the maximum value of the ferret diameter in the range added by the attribute adding unit ST21 is performed. If the maximum ferret diameter is not exceeded, integration is performed. When the ferret diameter spans the range, it is sufficient to satisfy one of the conditions.
The virtual circumscribing is performed by the midpoint coordinate calculation unit ST4, the range attribute addition unit ST21, the size determination unit ST11, the size-specific virtual ferret diameter calculation unit ST12, the virtual ferret diameter determination unit ST6, and the post-integration ferret diameter length determination unit ST23. A quadrangle determination means is configured.
[ 0016 ]
In FIG. 5, the ferret diameter changes from before the region integration to after the region integration by the processing of the region integration unit 10 according to the first embodiment, and the region integration from before the region integration by the processing of the region integration unit 10 according to the second embodiment. It was shown that the ferret diameter changed later.
As shown after integration according to the first embodiment in FIG. 5, when there are a plurality of large ferret diameters in the vicinity, over-integration is caused even in the integration conditions according to the first embodiment.
On the other hand, as shown after integration according to Embodiment 2 in FIG. 5, by setting the maximum value of the ferret diameter when the ferret diameters belonging to the range 1 are integrated to the vertical y pixel and the horizontal x pixel, FIG. Even under such conditions, the occurrence of overintegration can be suppressed and the target can be extracted accurately.
[ 0017 ]
【The invention's effect】
As described above, according to the present invention, the integration condition between circumscribed rectangles in the change area integrating means is set to an integration condition that becomes difficult to integrate as the size of the circumscribed rectangle is larger than a predetermined value. Since the integration condition is such that the smaller the size of the smaller than the predetermined value, the easier it is to integrate, without causing over-integration in which different circumscribed rectangles are integrated when the circumscribed rectangle is large, In addition, when there is a small circumscribed rectangle, there is no incomplete integration that results in multiple circumscribed rectangles for a single change target, preventing undetected and unnecessary detection due to overintegration and incomplete integration, and There exists an effect which can be determined correctly.
Further, in the virtual bounding rectangle determination means, as when a large listening magnitude than a predetermined value at one of the circumscribed rectangle, a ratio which determines the size of the virtual circumscribing rectangle is set low relative standard multiples, the circumscribed As the size of the rectangle is smaller than the predetermined value, the virtual circumscribed rectangle in which one circumscribed rectangle is changed with a magnification that determines the size of the virtual circumscribed rectangle larger than the standard multiple is the other circumscribed rectangle. If a rectangle is included, it is determined whether the size of the circumscribed rectangle when the circumscribed rectangles are integrated does not exceed the maximum value of the circumscribed rectangle according to the range of one circumscribed rectangle determined by the range determining means. If it does not exceed, it is configured to integrate, so the setting of the circumscribed rectangle maximum value for each range in the image area by the range determination means, for example, the far image area As a result, it is easy to integrate, making it difficult to integrate near image areas, thereby further preventing non-detection and unnecessary detection due to over-integration and incomplete integration, and having the effect of accurately determining individual objects. .
[Brief description of the drawings]
FIG. 1 is a configuration diagram illustrating a monitoring image processing apparatus according to the related art and Embodiment 1. FIG.
FIG. 2 is a flowchart showing processing of a region integration unit according to Embodiment 1 of the present invention.
FIG. 3 is an explanatory diagram showing processing of a region integration unit according to Embodiment 1 of the present invention.
FIG. 4 is a flowchart showing processing of a region integration unit according to Embodiment 2 of the present invention.
FIG. 5 is an explanatory diagram showing processing of a region integration unit according to Embodiment 2 of the present invention.
FIG. 6 is a flowchart showing processing of a conventional region integration unit.
FIG. 7 is an explanatory diagram showing processing of a conventional region integration unit.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Image input part, 2 Current image storage part, 3 Background image storage part, 4 Background update part, 5 Background difference part, 6 Threshold calculation part, 7 Binary conversion part, 8 Labeling part, 9 Feature-value calculation part, 10 area | region Integration unit, 11 Notification target feature, 12 Recognition processing unit, 13 Notification processing unit, ST1 Ferre diameter number determination unit, ST2 Inclusion determination unit, ST3 Contact determination unit, ST4 Midpoint coordinate calculation unit, ST6 Virtual ferret diameter determination Part, ST11 size judgment part, ST12 virtual ferret diameter calculation part by size, ST21 range attribute addition part, ST22, ST23 after ferret diameter length judgment part.

Claims (1)

入力されるビデオ信号に応じて背景画像を得ると共に、そのビデオ信号による現画像とその背景画像との比較によりその現画像の変化領域を抽出する変化領域抽出手段と、
上記変化領域抽出手段により抽出された変化領域を2値化すると共に、それら2値化後の変化領域の固まり毎に特徴量を演算する特徴量演算手段と、
上記特徴量演算手段により演算された特徴量に応じた変化領域の外接四角形同士が一つの変化対象として統合可能か判定し、かつ、その外接四角形の大きさが所定の値より大きい場合ほど統合し難くなる統合条件にすると共に、外接四角形の大きさが所定の値より小さい場合ほど統合し易くなる統合条件にして、統合可能な場合には、統合した外接四角形を生成する変化領域統合手段と、
上記変化領域統合手段により統合された外接四角形の特徴量を上記特徴量演算手段により演算された特徴量に応じて再演算し、その再演算した外接四角形の特徴量と予め設定された対象の特徴量とを比較し、一致するか判定する対象判定手段とを備え
上記変化領域統合手段は、
予め画像領域を区分した各範囲毎に外接四角形最大値がそれぞれ設定され、外接四角形がいずれの範囲に相当するか判定する範囲判定手段と、
一方の外接四角形の大きさを演算し、その外接四角形の大きさが所定の値より大きい場合ほど、仮想外接四角形の大きさを決定する倍率を、標準倍数に対して小さく設定すると共に、その外接四角形の大きさが所定の値より小さい場合ほど、仮想外接四角形の大きさを決定する倍率を、標準倍数に対して大きく設定し、その設定した倍率でその一方の外接四角形を変更した仮想外接四角形が他方の外接四角形を含んでいるか判定し、含んでいる場合にはそれら一方および他方の外接四角形同士を統合した場合の外接四角形の大きさを演算し、その統合した外接四角形の大きさが上記範囲判定手段により判定された一方の外接四角形の範囲に応じた外接四角形最大値を超えていない場合には、統合する仮想外接四角形判定手段とを備えたことを特徴とする監視用画像処理装置。
A change area extracting means for obtaining a background image according to an input video signal and extracting a change area of the current image by comparing the current image by the video signal and the background image;
A feature amount calculation means for binarizing the change region extracted by the change region extraction means and calculating a feature amount for each set of change regions after the binarization;
It is determined whether or not the circumscribed rectangles in the change area corresponding to the feature amount calculated by the feature amount calculating means can be integrated as one change target, and integration is performed when the size of the circumscribed rectangle is larger than a predetermined value. while the harder becomes integrated condition, the size of the circumscribed rectangle in the easily become integrated condition by integrating more smaller than a predetermined value, if possible integration, a change region integrating means for generating an enclosing rectangle that integrates ,
The feature amount of the circumscribed rectangle integrated by the change area integration unit is recalculated according to the feature amount calculated by the feature amount calculation unit, and the re-calculated feature amount of the circumscribed rectangle and the preset target feature An object determination means for comparing the amounts and determining whether they match ,
The change area integration means is:
Range determination means for setting a circumscribed rectangle maximum value for each range in which the image area is divided in advance and determining which range the circumscribed rectangle corresponds to;
When the size of one circumscribed rectangle is calculated and the size of the circumscribed rectangle is larger than a predetermined value, the magnification for determining the size of the virtual circumscribed rectangle is set smaller than the standard multiple and As the size of the rectangle is smaller than the predetermined value, the virtual circumscribed rectangle in which the magnification that determines the size of the virtual circumscribed rectangle is set larger than the standard multiple, and one of the circumscribed rectangles is changed by the set magnification. Is included, and if so, the size of the circumscribed rectangle when the one and the other circumscribed rectangles are integrated is calculated, and the size of the integrated circumscribed rectangle is A virtual circumscribed quadrangle determining unit that integrates when the maximum value of the circumscribed quadrangle corresponding to the range of one circumscribed quadrangle determined by the range determining unit is not exceeded. Monitoring the image processing apparatus according to symptoms.
JP2001397835A 2001-12-27 2001-12-27 Image processing device for monitoring Expired - Fee Related JP3824934B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001397835A JP3824934B2 (en) 2001-12-27 2001-12-27 Image processing device for monitoring

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001397835A JP3824934B2 (en) 2001-12-27 2001-12-27 Image processing device for monitoring

Publications (2)

Publication Number Publication Date
JP2003199098A JP2003199098A (en) 2003-07-11
JP3824934B2 true JP3824934B2 (en) 2006-09-20

Family

ID=27603496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001397835A Expired - Fee Related JP3824934B2 (en) 2001-12-27 2001-12-27 Image processing device for monitoring

Country Status (1)

Country Link
JP (1) JP3824934B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4661529B2 (en) * 2005-10-31 2011-03-30 株式会社デンソー Image processing device
JP5128524B2 (en) * 2009-03-06 2013-01-23 シャープ株式会社 Image processing apparatus, control method therefor, image processing program, and computer-readable recording medium
JP2011138409A (en) * 2009-12-28 2011-07-14 Sogo Keibi Hosho Co Ltd Image sensor, monitoring system, and image processing method of the image sensor
JP5581105B2 (en) * 2010-04-19 2014-08-27 株式会社日立製作所 Moving body detection device
CN102798583B (en) * 2012-07-13 2014-07-30 长安大学 Ore rock block degree measurement method based on improved FERRET

Also Published As

Publication number Publication date
JP2003199098A (en) 2003-07-11

Similar Documents

Publication Publication Date Title
US8374437B2 (en) Information processing apparatus, information processing method, image identifying apparatus, image identifying method, and program
CN110717489B (en) Method, device and storage medium for identifying text region of OSD (on Screen display)
US8290265B2 (en) Method and apparatus for segmenting an object region of interest from an image
US20080181499A1 (en) System and method for feature level foreground segmentation
US20040184674A1 (en) Device and method for correcting skew of an object in an image
CN111027541A (en) Flame detection method and system based on visible light and thermal imaging and storage medium
CN101114337A (en) Ground buildings recognition positioning method
CN113763427B (en) Multi-target tracking method based on coarse-to-fine shielding processing
JP6110174B2 (en) Image detection apparatus, control program, and image detection method
CN111652230A (en) License plate recognition method, electronic device and storage medium
JP2015064752A (en) Vehicle monitoring device and vehicle monitoring method
JP2014164528A (en) Character recognition device, character recognition method, and program
JP3824934B2 (en) Image processing device for monitoring
JP4224328B2 (en) Car number recognition device
CN113228105A (en) Image processing method and device and electronic equipment
CN113840135B (en) Color cast detection method, device, equipment and storage medium
JP2005070985A (en) Image processor, method and program
JP3763279B2 (en) Object extraction system, object extraction method, and object extraction program
Garg et al. Low complexity techniques for robust real-time traffic incident detection
JP3417635B2 (en) Intruding object recognition method
CN111027560A (en) Text detection method and related device
CN116993743B (en) Method, device, equipment and storage medium for detecting galloping amplitude of power transmission line
CN115018885B (en) Multi-scale target tracking algorithm suitable for edge equipment
CN116416200B (en) Forest fire smoke detection method based on region matching
JP3106080B2 (en) Image processing apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060307

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060628

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100707

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100707

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110707

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110707

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120707

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120707

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130707

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees