JP2004021375A - Object counting method and object counting device - Google Patents
Object counting method and object counting device Download PDFInfo
- Publication number
- JP2004021375A JP2004021375A JP2002172344A JP2002172344A JP2004021375A JP 2004021375 A JP2004021375 A JP 2004021375A JP 2002172344 A JP2002172344 A JP 2002172344A JP 2002172344 A JP2002172344 A JP 2002172344A JP 2004021375 A JP2004021375 A JP 2004021375A
- Authority
- JP
- Japan
- Prior art keywords
- area
- monitoring
- monitoring area
- counting
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、物体計数方法及び物体計数装置に係り、より詳しくは、広場における人や路上における車両等の物体を監視対象として、当該物体の数を計数する物体計数方法及び物体計数装置に関する。
【0002】
【従来の技術】
従来から、広場における人や路上における車両等の現在数を把握するために、様々な提案がなされている。その一つは、これらの物体は本質的には移動物体であることを利用し、時間を隔てて所定の監視領域をビデオカメラ等により撮像し、それらの撮像結果間の差異であるフレーム間差画像から物体を抽出し、物体の数を把握しようとするものである(以下、「従来例1」という)。
【0003】
また、ビデオカメラによる所定の監視領域の撮像結果から、個々の物体をパターン認識し、所定の監視領域内における物体の数を把握しようとする技術も提案されている(以下、「従来例2」という)。
【0004】
【発明が解決しようとする課題】
上述した従来例1の技術では、監視対象の物体が移動物体であることを利用しているので、広場において人が立ち止まっている場合や、渋滞により路上の車両が移動していない場合には、監視対象の物体を計数ことができない。また、監視対象の物体が移動している場合であっても、ゆっくり移動している場合には、隣接するフレーム間の差画像を用いては、精度良く物体の計数をすることが困難であるため、迅速かつ精度良く物体の計数をすることができない。
【0005】
また、従来例2の技術では、個々の物体をパターン認識によって撮像結果から抽出するので、非常に大規模な計算資源が必要となる。こうした、大規模な計算資源を有するシステムは、必然的に大規模かつ複雑な構成を有するものとなってしまう。
【0006】
本発明は、かかる事情のもとでなされたものであり、簡易な構成で、監視対象の物体数を迅速にかつ精度良く計数することができる物体計数方法及び物体計数装置物体を提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明は、監視対象である物体の数を計数する物体計数方法であって、前記物体を監視する監視領域を撮像する撮像工程と;前記監視領域の撮像結果画像に基づいて、前記監視領域内に前記物体が存在しないときにおける前記監視領域内の撮像画像である背景画像を特定する背景画像特定工程と;前記撮像結果画像と前記背景画像との差画像に基づいて、前記物体が占める物体領域を抽出する物体領域抽出工程と;前記監視領域において前記物体の最大の大きさと推定される大きさに応じた大きさの窓を移動させながら、前記窓の各位置における前記窓内の領域における前記物体領域の面積占有率を算出する面積占有率算出工程と;前記監視領域における前記面積占有率の分布に基づいて前記監視領域における前記物体の数を計数する計数工程と;を含む物体計数方法である。
【0008】
この物体計数方法では、まず、撮像工程において、物体を監視する監視領域が撮像される。引き続き、背景画像特定工程において、監視領域の撮像結果画像に基づいて、監視領域内に前記物体が存在しないときにおける監視領域内の撮像画像である背景画像が特定される。
【0009】
次に、物体領域抽出工程において、特定された背景画像と実際に撮像された監視領域内の撮像画像との差画像が算出される。そして、算出された差画像における所定の閾値以上の絶対値を有する画素の分布から監視領域内における物体領域が抽出される。
【0010】
引き続き、面積占有率算出工程において、監視領域において物体の最大の大きさと推定される大きさに応じた大きさの窓を移動させながら、窓の各位置における窓内領域における物体領域の面積占有率が算出される。ここで、監視対象とする物体が、例えば乗用車及びバスのように、互いに大きく大きさの異なる複数の種類におよぶ場合には、それら種類ごとに応じた大きさに合わせた複数種類の窓それぞれを設定すればよい。
【0011】
次いで、計数工程において、監視領域における面積占有率の分布に基づいて監視領域における物体の数を計数する。
【0012】
したがって、本発明の物体計数方法によれば、監視領域に関する1フレーム分の撮像結果から物体領域を抽出して物体の数を計数するので、迅速に監視領域内における監視対象物体の数を計数することができる。また、本発明の物体計数方法によれば、個々の物体をパターン認識によって特定する場合のように大規模な演算を必要とせず、物体領域の抽出、監視領域内における物体領域の面積占有率分布の算出という比較的簡易な演算により、監視領域内における物体の数の計数を行うので、簡易な構成で、精度良く監視領域内の物体の数を計数することができる。すなわち、本発明の物体計数方法によれば、簡易な構成で、監視対象の物体数を迅速にかつ精度良く計数することができる。
【0013】
本発明の物体計数方法では、前記計数工程において、前記面積占有率の分布のピーク形状を解析して、前記物体の数を計数することとすることができる。例えば監視領域を上方斜め方向から透視図法的に撮像した場合に、一部が重なり合う複数の物体が存在するときであっても、分解能良く物体の数を計数することができる。
【0014】
また、本発明の物体計数方法では、前記監視領域として、その内部に前記物体が存在しないとき、撮像結果おける画素濃度値の分散及び変化幅が許容値以下となる領域を選択することができる。かかる場合には、簡易な撮像画像処理により精度良く背景画像を特定することができる。
【0015】
本発明の物体計数装置は、監視対象である物体の数を計数する物体計数装置であって、前記物体を監視する監視領域を撮像する撮像手段と;前記監視領域の撮像結果画像に基づいて、前記監視領域内に前記物体が存在しないときにおける前記監視領域内の撮像画像である背景画像を特定する背景画像特定手段と;前記撮像結果画像と前記背景画像との差画像に基づいて、前記物体が占める物体領域を抽出する物体領域抽出手段と;前記監視領域において前記物体の最大の大きさと推定される大きさの窓を移動させながら、前記窓の各位置における前記窓内の領域における前記物体領域の面積占有率を算出する面積占有率算出手段と;前記監視領域における前記面積占有率の分布に基づいて前記監視領域における前記物体の数を計数する計数手段と;を備える物体計数装置である。
【0016】
この物体計数装置では、撮像手段が撮像した所定領域の撮像結果に基づいて、背景画像特定手段が、監視領域内に前記物体が存在しないときにおける監視領域内の撮像画像である背景画像を特定する。引き続き、物体領域抽出手段が、特定された背景画像と実際に撮像された監視領域内の撮像画像との差画像を算出した後、算出された差画像における所定の閾値以上の絶対値を有する画素の分布から監視領域内における物体領域が抽出する。
【0017】
次に、面積占有率算出手段が、監視領域において物体の最大の大きさと推定される大きさに応じた大きさの窓を移動させながら、窓の各位置における窓内領域における物体領域の面積占有率を算出する。そして、計数手段が、監視領域における面積占有率の分布に基づいて監視領域における物体の数を計数する。
【0018】
すなわち、本発明の物体計数装置は、本発明の物体計数方法を使用して、監視領域における物体の数を計数する。したがって、本発明の物体計数装置によれば、簡易な構成で、監視対象の物体数を迅速にかつ精度良く計数することができる。
【0019】
【発明の実施の形態】
以下、本発明の一実施形態を、図1〜図6を参照して説明する。
【0020】
図1には、一実施形態に係る物体計数装置100の構成が、ブロック図にて示されている。この物体計数装置100は、広場における所定の監視領域における人の数を計数する装置である。
【0021】
図1に示されるように、この物体計数装置100は、広場における所定の監視領域WTA(図2(A)及び図2(B)参照)を撮像するビデオカメラ10と、ビデオカメラ10による撮像結果を処理して、監視対象物体である人の数の計数処理を行う処理装置20と、計数結果を表示する画面表示装置43及び音声表示装置45とを備えている。また、物体計数装置100は、オペレータによる処理装置20への指示入力用に、キーボード装置41及びマウス44を更に備えている。なお、画面表示装置43は、キーボード装置41やマウス44からの入力情報を確認のために表示や、物体計数装置100の動作状況を表示するためにも使用される。
【0022】
前記ビデオカメラ10は、図2(A)に概念的に示されるように、広場の上方に設置され、斜め上方から監視領域WTAを観察するようになっている。この結果、ビデオカメラ10の視野内には、図2(B)に示されるような斜視像で、監視領域WTA内の人OBJ1,OBJ2,OBJ3及びそれらの周辺の様子が捉えられるようになっている。
【0023】
なお、以下の説明においては、鉛直上方向をZ方向と、監視領域WTAの横方向をX方向と、監視領域WTAの奥行方向をY方向と記すものとする。また、撮像画像上(すなわち、図2(B))におけるモニタ座標系(XM,YM)においては、厳密には画像における位置ごとにY方向とYM方向との交差角度が異なるが、このY方向とYM方向との相違に特に着目することが必要ない場合には、モニタ座標系のYM方向が、監視領域WTAの奥行方向すなわちY方向に一致するとものとして、以下の説明を行う。
【0024】
図1に戻り、前記処理装置20は、(a)物体計数装置100全体を統括制御する制御装置29と、(b)ビデオカメラ10による撮像結果データを収集する撮像データ収集装置21と、(c)監視領域WTA内における背景画像を特定する背景画像特定装置22とを備えている。また、処理装置20は、(d)監視領域WTA内における物体領域(人領域)を抽出する物体領域抽出装置23と、(e)監視領域WTA内における各位置における物体領域の面積占有率を算出する面積占有率算出装置24、(f)監視領域WTA内における物体領域の面積占有率の分布に基づいて、監視領域WTA内における人の数を計数する計数装置25とを備えている。
【0025】
更に、処理装置20は、(g)記憶装置30を備えている。この記憶装置30は、撮像データ格納領域31、背景画像格納領域32、物体領域情報格納領域33、及び面積占有率格納領域34を有している。
【0026】
なお、図1においては、データの流れが実線矢印で示され、制御の流れが点線矢印で示されている。以上のように構成された処理装置20の各装置の作用は後述する。
【0027】
本実施形態では、処理装置20を上記のように、各種の装置を組み合わせて構成したが、処理装置20を計算機システムとして構成し、記憶装置30を除く各装置の機能を処理装置20に内蔵されたプログラムによって実現することも可能である。
【0028】
以下、本実施形態の物体計数装置100による物体(人)の計数動作を、図3に示されるフローチャートに沿って、適宜他の図面を参照しながら説明する。
【0029】
まず、図3のステップ111において、物体(人)の計数用の撮像が行われる。この撮像では、撮像データ収集装置21が、ビデオカメラ10から送られてきた撮像データを一画面分だけ収集する。そして、撮像データ収集装置21は、収集した撮像データを撮像データ格納領域31に格納する。
【0030】
次に、ステップ112において、監視領域WTA内の背景画像が特定される。かかる背景画像の特定にあたっては、まず、背景像特定装置22が、撮像データ格納領域31から今回の撮像データを読み出す。そして、監視領域WTA内において、本来動かない樹木等の参照物体REFを基準として、撮像結果画像における監視領域WTAの位置を特定する。こうした監視領域WTAの位置の特定により、ビデオカメラの揺れ等による撮像結果画像における監視領域WTAの位置の不安定さが解消される。
【0031】
引き続き、背景画像特定装置22は、その位置が特定された監視領域WTA内における背景画像を特定する。かかる背景画像の特定に際し、本実施形態では、背景画像特定装置22が、監視領域WTAを複数の小領域に分割する。引き続き、複数の小領域ごとに、今回の内部画素濃度分布が監視領域の背景画像における画素濃度分布として期待される基準画素濃度分布から許容誤差範囲にあるか否かを、分散値が許容分散値以下であり、かつ、変化幅が許容変化幅以下であるか否かにより判定する。
【0032】
そして、背景画像特定装置22は、肯定的な判定がされた小領域については、前回までの推定背景画像及び今回の内部画素濃度分布に基づいて新たな背景画像を特定する。また、背景画像特定装置22は、肯定的な判定がされた小領域については、前回までの推定背景画像に基づいて新たな背景画像を特定するか、近傍の小領域の新たな背景画像に基づいて新たな背景画像を特定する。
【0033】
背景画像特定装置22は、こうして特定された監視領域WTAの位置情報及び背景画像を、背景画像格納領域32に格納する。
【0034】
次に、ステップ113において、物体領域抽出装置23が、物体領域(人領域)を抽出する。かかる物体領域の抽出に際し、物体領域抽出装置23は、まず、撮像データ格納領域31から撮像結果画像を読み出すとともに、背景画像格納領域33から監視領域WTAの位置情報及び背景画像を読み出す。引き続き、物体領域抽出装置23は、撮像画像と背景画像との差を算出した後、近傍数画素の濃度値を平均することにより差画像を算出する。
【0035】
次いで、物体領域抽出装置23は、差分の絶対値が所定の閾値以上となった画素からなる領域を物体領域として抽出する。そして、物体領域抽出装置23は、監視領域WTA内において、物体領域と判定された領域の各画素値を「1(又は0)」とし、また、背景画像領域と判定された領域の各画素値を「0(又は1)」とした2値化画像を、物体領域情報格納領域33に格納する。
【0036】
次に、ステップ114において、面積占有率算出装置24が、監視領域WTAの各位置における物体領域の面積占有率を算出する。かかる面積占有率の算出にあたり、面積占有率算出装置24は、まず、物体領域情報格納領域33から2値化画像を読み出す。引き続き、面積占有率算出装置24は、図4に示されるように、監視領域WTAにおいて計数対象物体である人が占める領域の最大の大きさと推定される大きさに応じた矩形上の窓WINを監視領域WTA内で移動させながら、各位置における窓WIN内領域において物体領域が占める面積の占有率を算出する。面積占有率算出装置24は、こうして算出された監視領域WTAの各位置における面積占有率を、面積占有率格納領域34に格納する。
【0037】
なお、本実施形態では、撮像画像が斜視像なので、奥行方向(YM方向)の位置に応じて、窓WINの大きさを調節しながら、窓WIN内領域において物体領域が占める面積の占有率を算出している。
【0038】
次いで、ステップ115において、計数装置25が、算出された面積占有率分布に基づいて、監視領域WTA内における物体(人)の数を計数する。かかる計数において、計数装置25は、まず、面積占有率格納領域34から、監視領域WTAの各位置における面積占有率を読み出し、監視領域WTA内における面積占有率分布を求める。こうして求められた面積占有率分布の例が図5に示されている。
【0039】
引き続き、計数装置25は、求められた面積占有率分布のピークを抽出する。そして、計数装置25は、抽出されたピークそれぞれの形状を解析して、各ピークが、人がそのピーク位置にいることにより発生したものであるか否かを判定する。そして、人がいることにより発生したと判定されたピークそれぞれについて、そのピーク位置に何人の人がいるかを求める。例えば、通常の人の体格から見て、図6(A)に示されるような典型的なピーク幅及びピーク高を有し、単調な形状を有するピークの場合には、そのピーク位置に人が1人いると判定する。
【0040】
また、図6(B)において実線で示されるように、ピーク幅が広くかつピーク高が高いが単調な形状を有するピークの場合には、そのピーク位置に体の大きな人が1人いると判定する。また、図6(B)において破線で示されるように、ピーク幅が狭くかつピーク高が低いが単調な形状を有するピークの場合には、そのピーク位置に体の小さなが1人いると判定する。すなわち、ピーク幅が所定のピーク幅範囲内であり、ピーク高が所定のピーク高範囲内であり、かつ単調な形状を有するピークの場合には、そのピーク位置に人が1人いると判定する。
【0041】
また、図6(C)に示されるように、2山のピーク形状を有するような場合には、そのピーク位置に人が2人いると判定する。なお、2山以上のピーク形状を有するような場合には、山の数だけ人がいると判定する。
【0042】
こうして、監視領域WTA内における人の総数及び各人の位置が検出される。
【0043】
なお、図6(A)〜図6(C)に示される面積占有率分布のピーク形状は、本実施形態で行われているスムーズ化処理が施されたものである。また、ピークそれぞれの形状を解析にあたっては、簡易なテンプレートマッチング処理を行うことも可能である。
【0044】
以上の検出結果は、制御装置29に通知される。制御装置29は、受信した検出結果を、画面表示装置43や音声表示装置45に表示指示する。これにより、監視領域WTA内における人の総数や存在密度分布が、視覚や聴覚を通じてオペレータに提供される。
【0045】
次に、ステップ116において、制御装置29が、キーボード装置41又はマウス44から計数動作の終了が指示されたか否かを判定する。ここで、否定的な判定がなされた場合には、処理はステップ111へ移行し、上記と同様にして、対象物体(人)の計数が続行される。一方、ステップ116において、肯定的な判定がなされると、対象物体の計数動作が終了する。こうして、キーボード装置41又はマウス44から計数動作の終了が指示されるまで、対象物体の計数動作が繰り返してなされる。
【0046】
以上説明したように、本実施形態の物体計数装置100によれば、各回のビデオカメラ10による撮像結果に基づいて、監視領域WTA内における物体領域の面積占有率分布を求め、その面積占有率分布から監視領域WTA内における計数対象である物体の数を計数する。したがって、簡易な構成で、物体の数を迅速にかつ精度良く計数することができる。
【0047】
また、面積占有率分布におけるピーク形状を解析して、監視領域WTA内における物体の数を計数するので、分解能良く物体(人)を計数することができる。
【0048】
なお、上記の実施形態では、ビデオカメラ10によって斜め上方から監視領域を撮像したが、広角な撮像装置を使用すれば、監視領域の鉛直上方から、監視領域を撮像することもできる。かかる場合には、斜視像であることに由来する、座標変換の面倒さを解消することができる。
【0049】
また、上記の実施形態では、ビデオカメラ10による撮像で得られた各フレーム画像において、監視領域WTA内における人の総数及び各人の位置を検出することとしたが、更に、各フレーム画像における各人又は特定人の位置に基づいて、各人又は特定人の位置の時間変化を求めることにより、いわゆるトラッキング機能を実現することもできる。
【0050】
また、本実施形態では、監視対象を広場における人としたが、道路上における車両や駐車場における車両等であっても、本発明を適用することができる。また、戸外であるか否かを問わず、本発明を適用することができる。
【0051】
【発明の効果】
以上詳細に説明にしたように、本発明の物体計数方法及び物体計数装置によれば、簡単な構成で、監視対象の物体数を迅速にかつ精度良く計数することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る物体計数装置の概略的な構成を示すブロック図である。
【図2】図2(A)は、図1のビデオカメラの配置を説明するための図であり、図2(B)は、図1のビデオカメラによる撮像結果を説明するための図である。
【図3】図1の物体計数装置による計数処理を説明するためのフローチャートである。
【図4】監視領域内における窓の移動を説明するための図である。
【図5】監視領域内における物体領域の面積占有率分布の例を説明するための図である。
【図6】図6(A)〜図6(C)は、面積占有率分布におけるピーク形状の例を説明するための図である。
【符号の説明】
10…ビデオカメラ(撮像手段)、22…背景画像特定装置(背景画像特定手段)、23…物体領域抽出装置(物体領域抽出手段)、24…面積占有率算出装置(面積占有率算出手段)、25…計数装置(計数手段)。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an object counting method and an object counting apparatus, and more particularly, to an object counting method and an object counting apparatus for counting an object such as a person in a square or a vehicle on a road as a monitoring target.
[0002]
[Prior art]
Conventionally, various proposals have been made in order to grasp the current number of people on a square or vehicles on a road. One of them is to take advantage of the fact that these objects are essentially moving objects, take images of a predetermined monitoring area with a video camera or the like at a time interval, and use the difference between frames as the difference between the imaging results. An object is extracted from an image and an attempt is made to grasp the number of objects (hereinafter, referred to as “conventional example 1”).
[0003]
In addition, a technique has been proposed in which individual objects are pattern-recognized from the result of imaging of a predetermined monitoring area by a video camera, and the number of objects in the predetermined monitoring area is grasped (hereinafter, “conventional example 2”). ).
[0004]
[Problems to be solved by the invention]
In the technology of the first conventional example described above, since the object to be monitored is a moving object, when a person stops in a square or when a vehicle on the road is not moving due to traffic congestion, The object to be monitored cannot be counted. Also, even if the monitored object is moving, if the object is moving slowly, it is difficult to accurately count the objects using the difference image between adjacent frames. Therefore, the object cannot be counted quickly and accurately.
[0005]
Further, in the technique of the second conventional example, since an individual object is extracted from an imaging result by pattern recognition, a very large-scale calculation resource is required. Such a system having a large-scale computational resource necessarily has a large-scale and complicated configuration.
[0006]
The present invention has been made under such circumstances, and provides an object counting method and an object counting device that can quickly and accurately count the number of objects to be monitored with a simple configuration. Aim.
[0007]
[Means for Solving the Problems]
The present invention relates to an object counting method for counting the number of objects to be monitored, an imaging step of imaging a monitoring area for monitoring the object, and an image capturing method of the monitoring area based on an imaging result image of the monitoring area. A background image specifying step of specifying a background image that is a captured image in the monitoring area when the object does not exist; and an object area occupied by the object based on a difference image between the captured result image and the background image. Extracting an object region; and moving a window having a size corresponding to the maximum size and the estimated size of the object in the monitoring region, while moving the window in an area within the window at each position of the window. An area occupancy calculating step of calculating an area occupancy of the object area; and a counter for counting the number of the objects in the monitoring area based on the distribution of the area occupancy in the monitoring area. When; it is an object counting method comprising.
[0008]
In this object counting method, first, in the imaging step, a monitoring area for monitoring an object is imaged. Subsequently, in the background image specifying step, a background image that is a captured image in the monitoring area when the object does not exist in the monitoring area is specified based on the captured result image of the monitoring area.
[0009]
Next, in the object area extraction step, a difference image between the specified background image and the actually captured image in the monitoring area is calculated. Then, an object region in the monitoring region is extracted from a distribution of pixels having an absolute value equal to or greater than a predetermined threshold in the calculated difference image.
[0010]
Subsequently, in the area occupancy calculating step, the area occupancy of the object area in the window area at each position of the window is moved while moving a window having a size corresponding to the estimated size of the object in the monitoring area. Is calculated. Here, when the object to be monitored covers a plurality of types having greatly different sizes from each other, for example, a car and a bus, each of the plurality of types of windows corresponding to the size corresponding to each type is provided. Just set it.
[0011]
Next, in a counting step, the number of objects in the monitoring area is counted based on the distribution of the area occupancy in the monitoring area.
[0012]
Therefore, according to the object counting method of the present invention, since the number of objects is counted by extracting the object region from the imaging result for one frame related to the monitoring region, the number of monitoring target objects in the monitoring region is quickly counted. be able to. Further, according to the object counting method of the present invention, the large-scale calculation is not required as in the case of identifying each individual object by pattern recognition, the object area is extracted, and the area occupancy distribution of the object area in the monitoring area is obtained. Since the number of objects in the monitoring area is counted by a relatively simple calculation of calculating the number of objects, the number of objects in the monitoring area can be accurately counted with a simple configuration. That is, according to the object counting method of the present invention, the number of objects to be monitored can be counted quickly and accurately with a simple configuration.
[0013]
In the object counting method according to the present invention, in the counting step, a peak shape of the distribution of the area occupancy may be analyzed to count the number of the objects. For example, when the monitoring area is imaged in a perspective view from an obliquely upward direction, the number of objects can be counted with high resolution even when there are a plurality of objects partially overlapping.
[0014]
Further, in the object counting method according to the present invention, it is possible to select, as the monitoring area, an area in which the variance and change width of the pixel density value in the imaging result are equal to or less than an allowable value when the object does not exist inside the monitoring area. In such a case, the background image can be specified with high accuracy by simple captured image processing.
[0015]
The object counting device of the present invention is an object counting device that counts the number of objects to be monitored, and an imaging unit that captures an image of a monitoring region that monitors the object; based on an imaging result image of the monitoring region, Background image specifying means for specifying a background image that is a captured image in the monitoring area when the object does not exist in the monitoring area; and determining the object based on a difference image between the captured result image and the background image. Object area extracting means for extracting an object area occupied by the object; and moving the window having a size estimated to be the maximum size of the object in the monitoring area while moving the object in an area within the window at each position of the window. Area occupancy calculating means for calculating the area occupancy of the area; and a counter for counting the number of objects in the monitoring area based on the distribution of the area occupancy in the monitoring area. When; it is an object counting device comprising a.
[0016]
In the object counting device, the background image specifying unit specifies a background image that is a captured image in the monitoring area when the object does not exist in the monitoring area, based on an imaging result of the predetermined area captured by the imaging unit. . Subsequently, after the object region extracting means calculates a difference image between the specified background image and the captured image in the actually captured monitoring region, pixels having an absolute value equal to or larger than a predetermined threshold value in the calculated difference image are calculated. , An object region within the monitoring region is extracted.
[0017]
Next, the area occupancy calculating means moves the window having a size corresponding to the size estimated to be the maximum size of the object in the monitoring area while occupying the area of the object area in the window area at each position of the window. Calculate the rate. Then, the counting means counts the number of objects in the monitoring area based on the distribution of the area occupancy in the monitoring area.
[0018]
That is, the object counting device of the present invention counts the number of objects in the monitoring area using the object counting method of the present invention. Therefore, according to the object counting device of the present invention, the number of objects to be monitored can be counted quickly and accurately with a simple configuration.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to FIGS.
[0020]
FIG. 1 is a block diagram illustrating a configuration of an
[0021]
As shown in FIG. 1, the
[0022]
As shown conceptually in FIG. 2A, the
[0023]
In the following description, a vertically upward direction is referred to as a Z direction, a lateral direction of the monitoring area WTA is referred to as an X direction, and a depth direction of the monitoring area WTA is referred to as a Y direction. Also, the captured image (i.e., see FIG. 2 (B)) monitor coordinate system in (X M, Y M) in the strict sense is the intersection angle between the Y-direction and the Y M direction for each position in the image is different, especially when there is no need to focus on the difference between the Y-direction and the Y M direction, Y M direction of the monitor coordinate system, as ones to match the depth direction i.e. Y-direction of the monitoring region WTA, the following description Do.
[0024]
Returning to FIG. 1, the
[0025]
Further, the
[0026]
In FIG. 1, the flow of data is indicated by solid arrows, and the flow of control is indicated by dotted arrows. The operation of each device of the
[0027]
In the present embodiment, the
[0028]
Hereinafter, the counting operation of the object (person) by the
[0029]
First, in step 111 of FIG. 3, imaging for counting an object (person) is performed. In this imaging, the imaging
[0030]
Next, in step 112, the background image in the monitoring area WTA is specified. In specifying such a background image, first, the background
[0031]
Subsequently, the background
[0032]
Then, the background
[0033]
The background
[0034]
Next, in
[0035]
Next, the object
[0036]
Next, in
[0037]
In the present embodiment, since the captured image perspective image, depending on the position in the depth direction (Y M direction), while adjusting the size of the window WIN, occupancy of the area occupied by the object area in the window WIN region Is calculated.
[0038]
Next, in
[0039]
Subsequently, the
[0040]
In addition, as shown by the solid line in FIG. 6B, in the case of a peak having a wide peak width and a high peak height but a monotonous shape, it is determined that one person with a large body is located at the peak position. I do. Further, as shown by a broken line in FIG. 6B, in the case of a peak having a narrow peak width and a low peak height but having a monotonous shape, it is determined that there is one small body at the peak position. . That is, when the peak width is within the predetermined peak width range, the peak height is within the predetermined peak height range, and the peak has a monotonous shape, it is determined that one person exists at the peak position. .
[0041]
Also, as shown in FIG. 6 (C), when there is a peak shape of two peaks, it is determined that there are two persons at the peak position. In the case where the peak shape has two or more peaks, it is determined that there are people by the number of peaks.
[0042]
Thus, the total number of persons and the position of each person in monitoring area WTA are detected.
[0043]
The peak shapes of the area occupancy distributions shown in FIGS. 6A to 6C are obtained by performing the smoothing process performed in the present embodiment. In analyzing the shape of each peak, a simple template matching process can be performed.
[0044]
The above detection result is notified to the
[0045]
Next, in
[0046]
As described above, according to the
[0047]
Further, since the number of objects in the monitoring area WTA is counted by analyzing the peak shape in the area occupancy distribution, the number of objects (persons) can be counted with high resolution.
[0048]
In the above embodiment, the monitoring area is imaged from obliquely above by the
[0049]
Further, in the above embodiment, the total number of persons and the position of each person in the monitoring area WTA are detected in each frame image obtained by imaging with the
[0050]
Further, in the present embodiment, the monitoring target is a person in the open space, but the present invention can be applied to a vehicle on a road, a vehicle in a parking lot, and the like. Further, the present invention can be applied regardless of whether it is outdoors.
[0051]
【The invention's effect】
As described above in detail, according to the object counting method and the object counting apparatus of the present invention, the number of objects to be monitored can be counted quickly and accurately with a simple configuration.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a schematic configuration of an object counting device according to an embodiment of the present invention.
2A is a diagram for explaining an arrangement of the video camera in FIG. 1, and FIG. 2B is a diagram for explaining an image pickup result by the video camera in FIG. 1; .
FIG. 3 is a flowchart illustrating a counting process performed by the object counting device of FIG. 1;
FIG. 4 is a diagram for explaining movement of a window in a monitoring area.
FIG. 5 is a diagram illustrating an example of an area occupancy distribution of an object area in a monitoring area.
FIGS. 6A to 6C are diagrams for explaining examples of peak shapes in an area occupancy distribution; FIG.
[Explanation of symbols]
10 video camera (imaging means), 22 background image specifying device (background image specifying device), 23 object region extracting device (object region extracting device), 24 area occupancy calculating device (area occupying calculating device) 25 ... Counter (counter).
Claims (4)
前記物体を監視する監視領域を撮像する撮像工程と;
前記監視領域の撮像結果画像に基づいて、前記監視領域内に前記物体が存在しないときにおける前記監視領域内の撮像画像である背景画像を特定する背景画像特定工程と;
前記撮像結果画像と前記背景画像との差画像に基づいて、前記物体が占める物体領域を抽出する物体領域抽出工程と;
前記監視領域において前記物体の最大の大きさと推定される大きさに応じた大きさの窓を移動させながら、前記窓の各位置における前記窓内の領域における前記物体領域の面積占有率を算出する面積占有率算出工程と;
前記監視領域における前記面積占有率の分布に基づいて前記監視領域における前記物体の数を計数する計数工程と;を含む物体計数方法。An object counting method for counting the number of objects to be monitored,
An imaging step of imaging a monitoring area for monitoring the object;
A background image specifying step of specifying a background image that is a captured image in the monitoring area when the object does not exist in the monitoring area, based on the captured result image of the monitoring area;
An object region extracting step of extracting an object region occupied by the object based on a difference image between the image of the captured image and the background image;
While moving a window having a size corresponding to the maximum size and the estimated size of the object in the monitoring region, calculate the area occupancy of the object region in a region within the window at each position of the window. Calculating an area occupancy ratio;
A counting step of counting the number of the objects in the monitoring area based on the distribution of the area occupancy in the monitoring area.
前記物体を監視する監視領域を撮像する撮像手段と;
前記監視領域の撮像結果画像に基づいて、前記監視領域内に前記物体が存在しないときにおける前記監視領域内の撮像画像である背景画像を特定する背景画像特定手段と;
前記撮像結果画像と前記背景画像との差画像に基づいて、前記物体が占める物体領域を抽出する物体領域抽出手段と;
前記監視領域において前記物体の最大の大きさと推定される大きさの窓を移動させながら、前記窓の各位置における前記窓内の領域における前記物体領域の面積占有率を算出する面積占有率算出手段と;
前記監視領域における前記面積占有率の分布に基づいて前記監視領域における前記物体の数を計数する計数手段と;を備える物体計数装置。An object counting device for counting the number of objects to be monitored,
Imaging means for imaging a monitoring area for monitoring the object;
Background image specifying means for specifying a background image that is a captured image in the monitoring area when the object does not exist in the monitoring area, based on the captured result image of the monitoring area;
Object region extracting means for extracting an object region occupied by the object based on a difference image between the captured result image and the background image;
Area occupancy calculating means for calculating an area occupancy of the object area in a region within the window at each position of the window while moving a window having a size estimated to be the maximum size of the object in the monitoring area. When;
Counting means for counting the number of objects in the monitoring area based on the distribution of the area occupancy in the monitoring area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002172344A JP2004021375A (en) | 2002-06-13 | 2002-06-13 | Object counting method and object counting device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002172344A JP2004021375A (en) | 2002-06-13 | 2002-06-13 | Object counting method and object counting device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004021375A true JP2004021375A (en) | 2004-01-22 |
Family
ID=31171938
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002172344A Pending JP2004021375A (en) | 2002-06-13 | 2002-06-13 | Object counting method and object counting device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004021375A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009223693A (en) * | 2008-03-17 | 2009-10-01 | Glory Ltd | Person counting device and person counting method |
CN105335782A (en) * | 2014-05-26 | 2016-02-17 | 富士通株式会社 | Image-based target object counting method and apparatus |
JP2020016921A (en) * | 2018-07-23 | 2020-01-30 | Necソリューションイノベータ株式会社 | Counting device, counting method, and program |
JP2020016918A (en) * | 2018-07-23 | 2020-01-30 | Necソリューションイノベータ株式会社 | Counting device, counting method, and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11120481A (en) * | 1997-10-17 | 1999-04-30 | Mitsubishi Heavy Ind Ltd | Traffic flow measuring device |
JP2001236593A (en) * | 2000-02-24 | 2001-08-31 | Hitachi Ltd | Traffic signal controller |
-
2002
- 2002-06-13 JP JP2002172344A patent/JP2004021375A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11120481A (en) * | 1997-10-17 | 1999-04-30 | Mitsubishi Heavy Ind Ltd | Traffic flow measuring device |
JP2001236593A (en) * | 2000-02-24 | 2001-08-31 | Hitachi Ltd | Traffic signal controller |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009223693A (en) * | 2008-03-17 | 2009-10-01 | Glory Ltd | Person counting device and person counting method |
CN105335782A (en) * | 2014-05-26 | 2016-02-17 | 富士通株式会社 | Image-based target object counting method and apparatus |
JP2020016921A (en) * | 2018-07-23 | 2020-01-30 | Necソリューションイノベータ株式会社 | Counting device, counting method, and program |
JP2020016918A (en) * | 2018-07-23 | 2020-01-30 | Necソリューションイノベータ株式会社 | Counting device, counting method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5121508B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
EP2662827B1 (en) | Video analysis | |
JP5925068B2 (en) | Video processing apparatus, video processing method, and program | |
WO2016172870A1 (en) | Video monitoring method, video monitoring system and computer program product | |
JP2009211311A (en) | Image processing apparatus and method | |
CN105631418A (en) | People counting method and device | |
JP4848312B2 (en) | Height estimating apparatus and height estimating method | |
JP6914007B2 (en) | Information processing device and information processing method | |
DE112008002646T5 (en) | In-vehicle image processing device, image processing method and program | |
JP2010198566A (en) | Device, method and program for measuring number of people | |
JPH11282999A (en) | Instrument for measuring mobile object | |
CN108460319B (en) | Abnormal face detection method and device | |
JP2005503731A (en) | Intelligent 4-screen simultaneous display through collaborative distributed vision | |
CN114140745A (en) | Method, system, device and medium for detecting personnel attributes of construction site | |
CN104392201B (en) | A kind of human body tumble recognition methods based on omnidirectional vision | |
JP2004021375A (en) | Object counting method and object counting device | |
KR101640527B1 (en) | Method and Apparatus for Monitoring Video for Estimating Size of Single Object | |
JP4005409B2 (en) | Background image estimation method and background image estimation apparatus | |
JP5465594B2 (en) | Object detection size calculation system and object detection size calculation program | |
JP4697761B2 (en) | Queue detection method and queue detection apparatus | |
JP4434689B2 (en) | Object counting method and object counting apparatus | |
CN114205578A (en) | Video fuzzy anomaly detection method and system based on frequency domain skewness and frequency domain peak value | |
JP2012100082A (en) | Image processing device, image processing method, and program | |
JP4184133B2 (en) | Image processing device | |
JP4888290B2 (en) | Intruder detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050610 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080812 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20081204 |