JP2004021375A - Object counting method and object counting device - Google Patents

Object counting method and object counting device Download PDF

Info

Publication number
JP2004021375A
JP2004021375A JP2002172344A JP2002172344A JP2004021375A JP 2004021375 A JP2004021375 A JP 2004021375A JP 2002172344 A JP2002172344 A JP 2002172344A JP 2002172344 A JP2002172344 A JP 2002172344A JP 2004021375 A JP2004021375 A JP 2004021375A
Authority
JP
Japan
Prior art keywords
area
monitoring
monitoring area
counting
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002172344A
Other languages
Japanese (ja)
Inventor
Tsutomu Tsukahara
塚原 勉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AV PLANNING CENTER KK
AV PLANNING CT KK
Original Assignee
AV PLANNING CENTER KK
AV PLANNING CT KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AV PLANNING CENTER KK, AV PLANNING CT KK filed Critical AV PLANNING CENTER KK
Priority to JP2002172344A priority Critical patent/JP2004021375A/en
Publication of JP2004021375A publication Critical patent/JP2004021375A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To rapidly and precisely count the number of objects to be monitored with a simple constitution. <P>SOLUTION: The background image of a monitoring area is specified (Step 112) from an image pickup result of the monitoring area obtained by the image pickup (Step 111) of the monitoring area, and the area of the object to be monitored in the monitoring area is extracted on the basis of a difference image between the image pickup result of the monitoring area and the background image (Step 113). Then, the area occupying ratio of the object area in a window area in each position of the window is computed while moving the window having a size corresponding to an estimated maximum size of the object in the monitoring area (Step 114). The number of the objects in the monitoring area is computed on the basis of the distribution of the area occupying ratio in the monitoring area (Step 115). <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、物体計数方法及び物体計数装置に係り、より詳しくは、広場における人や路上における車両等の物体を監視対象として、当該物体の数を計数する物体計数方法及び物体計数装置に関する。
【0002】
【従来の技術】
従来から、広場における人や路上における車両等の現在数を把握するために、様々な提案がなされている。その一つは、これらの物体は本質的には移動物体であることを利用し、時間を隔てて所定の監視領域をビデオカメラ等により撮像し、それらの撮像結果間の差異であるフレーム間差画像から物体を抽出し、物体の数を把握しようとするものである(以下、「従来例1」という)。
【0003】
また、ビデオカメラによる所定の監視領域の撮像結果から、個々の物体をパターン認識し、所定の監視領域内における物体の数を把握しようとする技術も提案されている(以下、「従来例2」という)。
【0004】
【発明が解決しようとする課題】
上述した従来例1の技術では、監視対象の物体が移動物体であることを利用しているので、広場において人が立ち止まっている場合や、渋滞により路上の車両が移動していない場合には、監視対象の物体を計数ことができない。また、監視対象の物体が移動している場合であっても、ゆっくり移動している場合には、隣接するフレーム間の差画像を用いては、精度良く物体の計数をすることが困難であるため、迅速かつ精度良く物体の計数をすることができない。
【0005】
また、従来例2の技術では、個々の物体をパターン認識によって撮像結果から抽出するので、非常に大規模な計算資源が必要となる。こうした、大規模な計算資源を有するシステムは、必然的に大規模かつ複雑な構成を有するものとなってしまう。
【0006】
本発明は、かかる事情のもとでなされたものであり、簡易な構成で、監視対象の物体数を迅速にかつ精度良く計数することができる物体計数方法及び物体計数装置物体を提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明は、監視対象である物体の数を計数する物体計数方法であって、前記物体を監視する監視領域を撮像する撮像工程と;前記監視領域の撮像結果画像に基づいて、前記監視領域内に前記物体が存在しないときにおける前記監視領域内の撮像画像である背景画像を特定する背景画像特定工程と;前記撮像結果画像と前記背景画像との差画像に基づいて、前記物体が占める物体領域を抽出する物体領域抽出工程と;前記監視領域において前記物体の最大の大きさと推定される大きさに応じた大きさの窓を移動させながら、前記窓の各位置における前記窓内の領域における前記物体領域の面積占有率を算出する面積占有率算出工程と;前記監視領域における前記面積占有率の分布に基づいて前記監視領域における前記物体の数を計数する計数工程と;を含む物体計数方法である。
【0008】
この物体計数方法では、まず、撮像工程において、物体を監視する監視領域が撮像される。引き続き、背景画像特定工程において、監視領域の撮像結果画像に基づいて、監視領域内に前記物体が存在しないときにおける監視領域内の撮像画像である背景画像が特定される。
【0009】
次に、物体領域抽出工程において、特定された背景画像と実際に撮像された監視領域内の撮像画像との差画像が算出される。そして、算出された差画像における所定の閾値以上の絶対値を有する画素の分布から監視領域内における物体領域が抽出される。
【0010】
引き続き、面積占有率算出工程において、監視領域において物体の最大の大きさと推定される大きさに応じた大きさの窓を移動させながら、窓の各位置における窓内領域における物体領域の面積占有率が算出される。ここで、監視対象とする物体が、例えば乗用車及びバスのように、互いに大きく大きさの異なる複数の種類におよぶ場合には、それら種類ごとに応じた大きさに合わせた複数種類の窓それぞれを設定すればよい。
【0011】
次いで、計数工程において、監視領域における面積占有率の分布に基づいて監視領域における物体の数を計数する。
【0012】
したがって、本発明の物体計数方法によれば、監視領域に関する1フレーム分の撮像結果から物体領域を抽出して物体の数を計数するので、迅速に監視領域内における監視対象物体の数を計数することができる。また、本発明の物体計数方法によれば、個々の物体をパターン認識によって特定する場合のように大規模な演算を必要とせず、物体領域の抽出、監視領域内における物体領域の面積占有率分布の算出という比較的簡易な演算により、監視領域内における物体の数の計数を行うので、簡易な構成で、精度良く監視領域内の物体の数を計数することができる。すなわち、本発明の物体計数方法によれば、簡易な構成で、監視対象の物体数を迅速にかつ精度良く計数することができる。
【0013】
本発明の物体計数方法では、前記計数工程において、前記面積占有率の分布のピーク形状を解析して、前記物体の数を計数することとすることができる。例えば監視領域を上方斜め方向から透視図法的に撮像した場合に、一部が重なり合う複数の物体が存在するときであっても、分解能良く物体の数を計数することができる。
【0014】
また、本発明の物体計数方法では、前記監視領域として、その内部に前記物体が存在しないとき、撮像結果おける画素濃度値の分散及び変化幅が許容値以下となる領域を選択することができる。かかる場合には、簡易な撮像画像処理により精度良く背景画像を特定することができる。
【0015】
本発明の物体計数装置は、監視対象である物体の数を計数する物体計数装置であって、前記物体を監視する監視領域を撮像する撮像手段と;前記監視領域の撮像結果画像に基づいて、前記監視領域内に前記物体が存在しないときにおける前記監視領域内の撮像画像である背景画像を特定する背景画像特定手段と;前記撮像結果画像と前記背景画像との差画像に基づいて、前記物体が占める物体領域を抽出する物体領域抽出手段と;前記監視領域において前記物体の最大の大きさと推定される大きさの窓を移動させながら、前記窓の各位置における前記窓内の領域における前記物体領域の面積占有率を算出する面積占有率算出手段と;前記監視領域における前記面積占有率の分布に基づいて前記監視領域における前記物体の数を計数する計数手段と;を備える物体計数装置である。
【0016】
この物体計数装置では、撮像手段が撮像した所定領域の撮像結果に基づいて、背景画像特定手段が、監視領域内に前記物体が存在しないときにおける監視領域内の撮像画像である背景画像を特定する。引き続き、物体領域抽出手段が、特定された背景画像と実際に撮像された監視領域内の撮像画像との差画像を算出した後、算出された差画像における所定の閾値以上の絶対値を有する画素の分布から監視領域内における物体領域が抽出する。
【0017】
次に、面積占有率算出手段が、監視領域において物体の最大の大きさと推定される大きさに応じた大きさの窓を移動させながら、窓の各位置における窓内領域における物体領域の面積占有率を算出する。そして、計数手段が、監視領域における面積占有率の分布に基づいて監視領域における物体の数を計数する。
【0018】
すなわち、本発明の物体計数装置は、本発明の物体計数方法を使用して、監視領域における物体の数を計数する。したがって、本発明の物体計数装置によれば、簡易な構成で、監視対象の物体数を迅速にかつ精度良く計数することができる。
【0019】
【発明の実施の形態】
以下、本発明の一実施形態を、図1〜図6を参照して説明する。
【0020】
図1には、一実施形態に係る物体計数装置100の構成が、ブロック図にて示されている。この物体計数装置100は、広場における所定の監視領域における人の数を計数する装置である。
【0021】
図1に示されるように、この物体計数装置100は、広場における所定の監視領域WTA(図2(A)及び図2(B)参照)を撮像するビデオカメラ10と、ビデオカメラ10による撮像結果を処理して、監視対象物体である人の数の計数処理を行う処理装置20と、計数結果を表示する画面表示装置43及び音声表示装置45とを備えている。また、物体計数装置100は、オペレータによる処理装置20への指示入力用に、キーボード装置41及びマウス44を更に備えている。なお、画面表示装置43は、キーボード装置41やマウス44からの入力情報を確認のために表示や、物体計数装置100の動作状況を表示するためにも使用される。
【0022】
前記ビデオカメラ10は、図2(A)に概念的に示されるように、広場の上方に設置され、斜め上方から監視領域WTAを観察するようになっている。この結果、ビデオカメラ10の視野内には、図2(B)に示されるような斜視像で、監視領域WTA内の人OBJ1,OBJ2,OBJ3及びそれらの周辺の様子が捉えられるようになっている。
【0023】
なお、以下の説明においては、鉛直上方向をZ方向と、監視領域WTAの横方向をX方向と、監視領域WTAの奥行方向をY方向と記すものとする。また、撮像画像上(すなわち、図2(B))におけるモニタ座標系(X,Y)においては、厳密には画像における位置ごとにY方向とY方向との交差角度が異なるが、このY方向とY方向との相違に特に着目することが必要ない場合には、モニタ座標系のY方向が、監視領域WTAの奥行方向すなわちY方向に一致するとものとして、以下の説明を行う。
【0024】
図1に戻り、前記処理装置20は、(a)物体計数装置100全体を統括制御する制御装置29と、(b)ビデオカメラ10による撮像結果データを収集する撮像データ収集装置21と、(c)監視領域WTA内における背景画像を特定する背景画像特定装置22とを備えている。また、処理装置20は、(d)監視領域WTA内における物体領域(人領域)を抽出する物体領域抽出装置23と、(e)監視領域WTA内における各位置における物体領域の面積占有率を算出する面積占有率算出装置24、(f)監視領域WTA内における物体領域の面積占有率の分布に基づいて、監視領域WTA内における人の数を計数する計数装置25とを備えている。
【0025】
更に、処理装置20は、(g)記憶装置30を備えている。この記憶装置30は、撮像データ格納領域31、背景画像格納領域32、物体領域情報格納領域33、及び面積占有率格納領域34を有している。
【0026】
なお、図1においては、データの流れが実線矢印で示され、制御の流れが点線矢印で示されている。以上のように構成された処理装置20の各装置の作用は後述する。
【0027】
本実施形態では、処理装置20を上記のように、各種の装置を組み合わせて構成したが、処理装置20を計算機システムとして構成し、記憶装置30を除く各装置の機能を処理装置20に内蔵されたプログラムによって実現することも可能である。
【0028】
以下、本実施形態の物体計数装置100による物体(人)の計数動作を、図3に示されるフローチャートに沿って、適宜他の図面を参照しながら説明する。
【0029】
まず、図3のステップ111において、物体(人)の計数用の撮像が行われる。この撮像では、撮像データ収集装置21が、ビデオカメラ10から送られてきた撮像データを一画面分だけ収集する。そして、撮像データ収集装置21は、収集した撮像データを撮像データ格納領域31に格納する。
【0030】
次に、ステップ112において、監視領域WTA内の背景画像が特定される。かかる背景画像の特定にあたっては、まず、背景像特定装置22が、撮像データ格納領域31から今回の撮像データを読み出す。そして、監視領域WTA内において、本来動かない樹木等の参照物体REFを基準として、撮像結果画像における監視領域WTAの位置を特定する。こうした監視領域WTAの位置の特定により、ビデオカメラの揺れ等による撮像結果画像における監視領域WTAの位置の不安定さが解消される。
【0031】
引き続き、背景画像特定装置22は、その位置が特定された監視領域WTA内における背景画像を特定する。かかる背景画像の特定に際し、本実施形態では、背景画像特定装置22が、監視領域WTAを複数の小領域に分割する。引き続き、複数の小領域ごとに、今回の内部画素濃度分布が監視領域の背景画像における画素濃度分布として期待される基準画素濃度分布から許容誤差範囲にあるか否かを、分散値が許容分散値以下であり、かつ、変化幅が許容変化幅以下であるか否かにより判定する。
【0032】
そして、背景画像特定装置22は、肯定的な判定がされた小領域については、前回までの推定背景画像及び今回の内部画素濃度分布に基づいて新たな背景画像を特定する。また、背景画像特定装置22は、肯定的な判定がされた小領域については、前回までの推定背景画像に基づいて新たな背景画像を特定するか、近傍の小領域の新たな背景画像に基づいて新たな背景画像を特定する。
【0033】
背景画像特定装置22は、こうして特定された監視領域WTAの位置情報及び背景画像を、背景画像格納領域32に格納する。
【0034】
次に、ステップ113において、物体領域抽出装置23が、物体領域(人領域)を抽出する。かかる物体領域の抽出に際し、物体領域抽出装置23は、まず、撮像データ格納領域31から撮像結果画像を読み出すとともに、背景画像格納領域33から監視領域WTAの位置情報及び背景画像を読み出す。引き続き、物体領域抽出装置23は、撮像画像と背景画像との差を算出した後、近傍数画素の濃度値を平均することにより差画像を算出する。
【0035】
次いで、物体領域抽出装置23は、差分の絶対値が所定の閾値以上となった画素からなる領域を物体領域として抽出する。そして、物体領域抽出装置23は、監視領域WTA内において、物体領域と判定された領域の各画素値を「1(又は0)」とし、また、背景画像領域と判定された領域の各画素値を「0(又は1)」とした2値化画像を、物体領域情報格納領域33に格納する。
【0036】
次に、ステップ114において、面積占有率算出装置24が、監視領域WTAの各位置における物体領域の面積占有率を算出する。かかる面積占有率の算出にあたり、面積占有率算出装置24は、まず、物体領域情報格納領域33から2値化画像を読み出す。引き続き、面積占有率算出装置24は、図4に示されるように、監視領域WTAにおいて計数対象物体である人が占める領域の最大の大きさと推定される大きさに応じた矩形上の窓WINを監視領域WTA内で移動させながら、各位置における窓WIN内領域において物体領域が占める面積の占有率を算出する。面積占有率算出装置24は、こうして算出された監視領域WTAの各位置における面積占有率を、面積占有率格納領域34に格納する。
【0037】
なお、本実施形態では、撮像画像が斜視像なので、奥行方向(Y方向)の位置に応じて、窓WINの大きさを調節しながら、窓WIN内領域において物体領域が占める面積の占有率を算出している。
【0038】
次いで、ステップ115において、計数装置25が、算出された面積占有率分布に基づいて、監視領域WTA内における物体(人)の数を計数する。かかる計数において、計数装置25は、まず、面積占有率格納領域34から、監視領域WTAの各位置における面積占有率を読み出し、監視領域WTA内における面積占有率分布を求める。こうして求められた面積占有率分布の例が図5に示されている。
【0039】
引き続き、計数装置25は、求められた面積占有率分布のピークを抽出する。そして、計数装置25は、抽出されたピークそれぞれの形状を解析して、各ピークが、人がそのピーク位置にいることにより発生したものであるか否かを判定する。そして、人がいることにより発生したと判定されたピークそれぞれについて、そのピーク位置に何人の人がいるかを求める。例えば、通常の人の体格から見て、図6(A)に示されるような典型的なピーク幅及びピーク高を有し、単調な形状を有するピークの場合には、そのピーク位置に人が1人いると判定する。
【0040】
また、図6(B)において実線で示されるように、ピーク幅が広くかつピーク高が高いが単調な形状を有するピークの場合には、そのピーク位置に体の大きな人が1人いると判定する。また、図6(B)において破線で示されるように、ピーク幅が狭くかつピーク高が低いが単調な形状を有するピークの場合には、そのピーク位置に体の小さなが1人いると判定する。すなわち、ピーク幅が所定のピーク幅範囲内であり、ピーク高が所定のピーク高範囲内であり、かつ単調な形状を有するピークの場合には、そのピーク位置に人が1人いると判定する。
【0041】
また、図6(C)に示されるように、2山のピーク形状を有するような場合には、そのピーク位置に人が2人いると判定する。なお、2山以上のピーク形状を有するような場合には、山の数だけ人がいると判定する。
【0042】
こうして、監視領域WTA内における人の総数及び各人の位置が検出される。
【0043】
なお、図6(A)〜図6(C)に示される面積占有率分布のピーク形状は、本実施形態で行われているスムーズ化処理が施されたものである。また、ピークそれぞれの形状を解析にあたっては、簡易なテンプレートマッチング処理を行うことも可能である。
【0044】
以上の検出結果は、制御装置29に通知される。制御装置29は、受信した検出結果を、画面表示装置43や音声表示装置45に表示指示する。これにより、監視領域WTA内における人の総数や存在密度分布が、視覚や聴覚を通じてオペレータに提供される。
【0045】
次に、ステップ116において、制御装置29が、キーボード装置41又はマウス44から計数動作の終了が指示されたか否かを判定する。ここで、否定的な判定がなされた場合には、処理はステップ111へ移行し、上記と同様にして、対象物体(人)の計数が続行される。一方、ステップ116において、肯定的な判定がなされると、対象物体の計数動作が終了する。こうして、キーボード装置41又はマウス44から計数動作の終了が指示されるまで、対象物体の計数動作が繰り返してなされる。
【0046】
以上説明したように、本実施形態の物体計数装置100によれば、各回のビデオカメラ10による撮像結果に基づいて、監視領域WTA内における物体領域の面積占有率分布を求め、その面積占有率分布から監視領域WTA内における計数対象である物体の数を計数する。したがって、簡易な構成で、物体の数を迅速にかつ精度良く計数することができる。
【0047】
また、面積占有率分布におけるピーク形状を解析して、監視領域WTA内における物体の数を計数するので、分解能良く物体(人)を計数することができる。
【0048】
なお、上記の実施形態では、ビデオカメラ10によって斜め上方から監視領域を撮像したが、広角な撮像装置を使用すれば、監視領域の鉛直上方から、監視領域を撮像することもできる。かかる場合には、斜視像であることに由来する、座標変換の面倒さを解消することができる。
【0049】
また、上記の実施形態では、ビデオカメラ10による撮像で得られた各フレーム画像において、監視領域WTA内における人の総数及び各人の位置を検出することとしたが、更に、各フレーム画像における各人又は特定人の位置に基づいて、各人又は特定人の位置の時間変化を求めることにより、いわゆるトラッキング機能を実現することもできる。
【0050】
また、本実施形態では、監視対象を広場における人としたが、道路上における車両や駐車場における車両等であっても、本発明を適用することができる。また、戸外であるか否かを問わず、本発明を適用することができる。
【0051】
【発明の効果】
以上詳細に説明にしたように、本発明の物体計数方法及び物体計数装置によれば、簡単な構成で、監視対象の物体数を迅速にかつ精度良く計数することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る物体計数装置の概略的な構成を示すブロック図である。
【図2】図2(A)は、図1のビデオカメラの配置を説明するための図であり、図2(B)は、図1のビデオカメラによる撮像結果を説明するための図である。
【図3】図1の物体計数装置による計数処理を説明するためのフローチャートである。
【図4】監視領域内における窓の移動を説明するための図である。
【図5】監視領域内における物体領域の面積占有率分布の例を説明するための図である。
【図6】図6(A)〜図6(C)は、面積占有率分布におけるピーク形状の例を説明するための図である。
【符号の説明】
10…ビデオカメラ(撮像手段)、22…背景画像特定装置(背景画像特定手段)、23…物体領域抽出装置(物体領域抽出手段)、24…面積占有率算出装置(面積占有率算出手段)、25…計数装置(計数手段)。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an object counting method and an object counting apparatus, and more particularly, to an object counting method and an object counting apparatus for counting an object such as a person in a square or a vehicle on a road as a monitoring target.
[0002]
[Prior art]
Conventionally, various proposals have been made in order to grasp the current number of people on a square or vehicles on a road. One of them is to take advantage of the fact that these objects are essentially moving objects, take images of a predetermined monitoring area with a video camera or the like at a time interval, and use the difference between frames as the difference between the imaging results. An object is extracted from an image and an attempt is made to grasp the number of objects (hereinafter, referred to as “conventional example 1”).
[0003]
In addition, a technique has been proposed in which individual objects are pattern-recognized from the result of imaging of a predetermined monitoring area by a video camera, and the number of objects in the predetermined monitoring area is grasped (hereinafter, “conventional example 2”). ).
[0004]
[Problems to be solved by the invention]
In the technology of the first conventional example described above, since the object to be monitored is a moving object, when a person stops in a square or when a vehicle on the road is not moving due to traffic congestion, The object to be monitored cannot be counted. Also, even if the monitored object is moving, if the object is moving slowly, it is difficult to accurately count the objects using the difference image between adjacent frames. Therefore, the object cannot be counted quickly and accurately.
[0005]
Further, in the technique of the second conventional example, since an individual object is extracted from an imaging result by pattern recognition, a very large-scale calculation resource is required. Such a system having a large-scale computational resource necessarily has a large-scale and complicated configuration.
[0006]
The present invention has been made under such circumstances, and provides an object counting method and an object counting device that can quickly and accurately count the number of objects to be monitored with a simple configuration. Aim.
[0007]
[Means for Solving the Problems]
The present invention relates to an object counting method for counting the number of objects to be monitored, an imaging step of imaging a monitoring area for monitoring the object, and an image capturing method of the monitoring area based on an imaging result image of the monitoring area. A background image specifying step of specifying a background image that is a captured image in the monitoring area when the object does not exist; and an object area occupied by the object based on a difference image between the captured result image and the background image. Extracting an object region; and moving a window having a size corresponding to the maximum size and the estimated size of the object in the monitoring region, while moving the window in an area within the window at each position of the window. An area occupancy calculating step of calculating an area occupancy of the object area; and a counter for counting the number of the objects in the monitoring area based on the distribution of the area occupancy in the monitoring area. When; it is an object counting method comprising.
[0008]
In this object counting method, first, in the imaging step, a monitoring area for monitoring an object is imaged. Subsequently, in the background image specifying step, a background image that is a captured image in the monitoring area when the object does not exist in the monitoring area is specified based on the captured result image of the monitoring area.
[0009]
Next, in the object area extraction step, a difference image between the specified background image and the actually captured image in the monitoring area is calculated. Then, an object region in the monitoring region is extracted from a distribution of pixels having an absolute value equal to or greater than a predetermined threshold in the calculated difference image.
[0010]
Subsequently, in the area occupancy calculating step, the area occupancy of the object area in the window area at each position of the window is moved while moving a window having a size corresponding to the estimated size of the object in the monitoring area. Is calculated. Here, when the object to be monitored covers a plurality of types having greatly different sizes from each other, for example, a car and a bus, each of the plurality of types of windows corresponding to the size corresponding to each type is provided. Just set it.
[0011]
Next, in a counting step, the number of objects in the monitoring area is counted based on the distribution of the area occupancy in the monitoring area.
[0012]
Therefore, according to the object counting method of the present invention, since the number of objects is counted by extracting the object region from the imaging result for one frame related to the monitoring region, the number of monitoring target objects in the monitoring region is quickly counted. be able to. Further, according to the object counting method of the present invention, the large-scale calculation is not required as in the case of identifying each individual object by pattern recognition, the object area is extracted, and the area occupancy distribution of the object area in the monitoring area is obtained. Since the number of objects in the monitoring area is counted by a relatively simple calculation of calculating the number of objects, the number of objects in the monitoring area can be accurately counted with a simple configuration. That is, according to the object counting method of the present invention, the number of objects to be monitored can be counted quickly and accurately with a simple configuration.
[0013]
In the object counting method according to the present invention, in the counting step, a peak shape of the distribution of the area occupancy may be analyzed to count the number of the objects. For example, when the monitoring area is imaged in a perspective view from an obliquely upward direction, the number of objects can be counted with high resolution even when there are a plurality of objects partially overlapping.
[0014]
Further, in the object counting method according to the present invention, it is possible to select, as the monitoring area, an area in which the variance and change width of the pixel density value in the imaging result are equal to or less than an allowable value when the object does not exist inside the monitoring area. In such a case, the background image can be specified with high accuracy by simple captured image processing.
[0015]
The object counting device of the present invention is an object counting device that counts the number of objects to be monitored, and an imaging unit that captures an image of a monitoring region that monitors the object; based on an imaging result image of the monitoring region, Background image specifying means for specifying a background image that is a captured image in the monitoring area when the object does not exist in the monitoring area; and determining the object based on a difference image between the captured result image and the background image. Object area extracting means for extracting an object area occupied by the object; and moving the window having a size estimated to be the maximum size of the object in the monitoring area while moving the object in an area within the window at each position of the window. Area occupancy calculating means for calculating the area occupancy of the area; and a counter for counting the number of objects in the monitoring area based on the distribution of the area occupancy in the monitoring area. When; it is an object counting device comprising a.
[0016]
In the object counting device, the background image specifying unit specifies a background image that is a captured image in the monitoring area when the object does not exist in the monitoring area, based on an imaging result of the predetermined area captured by the imaging unit. . Subsequently, after the object region extracting means calculates a difference image between the specified background image and the captured image in the actually captured monitoring region, pixels having an absolute value equal to or larger than a predetermined threshold value in the calculated difference image are calculated. , An object region within the monitoring region is extracted.
[0017]
Next, the area occupancy calculating means moves the window having a size corresponding to the size estimated to be the maximum size of the object in the monitoring area while occupying the area of the object area in the window area at each position of the window. Calculate the rate. Then, the counting means counts the number of objects in the monitoring area based on the distribution of the area occupancy in the monitoring area.
[0018]
That is, the object counting device of the present invention counts the number of objects in the monitoring area using the object counting method of the present invention. Therefore, according to the object counting device of the present invention, the number of objects to be monitored can be counted quickly and accurately with a simple configuration.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to FIGS.
[0020]
FIG. 1 is a block diagram illustrating a configuration of an object counting device 100 according to an embodiment. The object counting device 100 is a device that counts the number of people in a predetermined monitoring area in a square.
[0021]
As shown in FIG. 1, the object counting apparatus 100 includes a video camera 10 that captures an image of a predetermined monitoring area WTA (see FIGS. 2A and 2B) in a square, and an imaging result obtained by the video camera 10. And a processing device 20 for performing a process of counting the number of persons who are the monitoring target objects, and a screen display device 43 and a voice display device 45 for displaying the counting result. Further, the object counting device 100 further includes a keyboard device 41 and a mouse 44 for an operator to input an instruction to the processing device 20. The screen display device 43 is also used for displaying input information from the keyboard device 41 and the mouse 44 for confirmation, and for displaying the operation status of the object counting device 100.
[0022]
As shown conceptually in FIG. 2A, the video camera 10 is installed above a square, and observes the monitoring area WTA from diagonally above. As a result, in the visual field of the video camera 10, the persons OBJ1, OBJ2, OBJ3 in the monitoring area WTA and their surroundings can be captured in a perspective image as shown in FIG. I have.
[0023]
In the following description, a vertically upward direction is referred to as a Z direction, a lateral direction of the monitoring area WTA is referred to as an X direction, and a depth direction of the monitoring area WTA is referred to as a Y direction. Also, the captured image (i.e., see FIG. 2 (B)) monitor coordinate system in (X M, Y M) in the strict sense is the intersection angle between the Y-direction and the Y M direction for each position in the image is different, especially when there is no need to focus on the difference between the Y-direction and the Y M direction, Y M direction of the monitor coordinate system, as ones to match the depth direction i.e. Y-direction of the monitoring region WTA, the following description Do.
[0024]
Returning to FIG. 1, the processing device 20 includes (a) a control device 29 that integrally controls the entire object counting device 100, (b) an imaging data collection device 21 that collects imaging result data of the video camera 10, and (c) A) a background image specifying device 22 for specifying a background image in the monitoring area WTA. Further, the processing device 20 calculates (d) an object region extraction device 23 that extracts an object region (human region) in the monitoring region WTA, and (e) calculates an area occupancy of the object region at each position in the monitoring region WTA. (F) a counting device 25 for counting the number of people in the monitoring area WTA based on the distribution of the area occupancy of the object area in the monitoring area WTA.
[0025]
Further, the processing device 20 includes (g) a storage device 30. The storage device 30 has an imaging data storage area 31, a background image storage area 32, an object area information storage area 33, and an area occupancy storage area 34.
[0026]
In FIG. 1, the flow of data is indicated by solid arrows, and the flow of control is indicated by dotted arrows. The operation of each device of the processing device 20 configured as described above will be described later.
[0027]
In the present embodiment, the processing device 20 is configured by combining various devices as described above. However, the processing device 20 is configured as a computer system, and the functions of each device except the storage device 30 are built in the processing device 20. It is also possible to realize this using a program.
[0028]
Hereinafter, the counting operation of the object (person) by the object counting device 100 of the present embodiment will be described along the flowchart shown in FIG. 3 and appropriately referring to other drawings.
[0029]
First, in step 111 of FIG. 3, imaging for counting an object (person) is performed. In this imaging, the imaging data collection device 21 collects the imaging data sent from the video camera 10 for one screen. Then, the imaging data collection device 21 stores the collected imaging data in the imaging data storage area 31.
[0030]
Next, in step 112, the background image in the monitoring area WTA is specified. In specifying such a background image, first, the background image specifying device 22 reads out the current image data from the image data storage area 31. Then, in the monitoring area WTA, the position of the monitoring area WTA in the captured result image is specified with reference to the reference object REF such as a tree that originally does not move. By specifying the position of the monitoring area WTA, the instability of the position of the monitoring area WTA in the captured image due to the shaking of the video camera or the like is eliminated.
[0031]
Subsequently, the background image specifying device 22 specifies a background image in the monitoring area WTA whose position has been specified. When specifying such a background image, in the present embodiment, the background image specifying device 22 divides the monitoring area WTA into a plurality of small areas. Subsequently, for each of the plurality of small areas, whether the variance value is within the allowable error range from the reference pixel density distribution expected as the pixel density distribution in the background image of the monitoring area is determined by the allowable variance value. Is determined based on whether or not the change width is equal to or less than the allowable change width.
[0032]
Then, the background image specifying device 22 specifies a new background image based on the estimated background image up to the previous time and the current internal pixel density distribution for the small area for which a positive determination has been made. In addition, the background image specifying device 22 specifies a new background image based on the estimated background image up to the previous time or a new background image of a nearby small region for a small area for which a positive determination has been made. To specify a new background image.
[0033]
The background image specifying device 22 stores the position information and the background image of the monitoring area WTA specified in the background image storage area 32.
[0034]
Next, in step 113, the object region extraction device 23 extracts an object region (human region). When extracting such an object region, the object region extraction device 23 first reads out the imaging result image from the imaging data storage region 31 and also reads out the position information and the background image of the monitoring region WTA from the background image storage region 33. Subsequently, after calculating the difference between the captured image and the background image, the object region extracting device 23 calculates the difference image by averaging the density values of several pixels in the vicinity.
[0035]
Next, the object region extracting device 23 extracts, as an object region, a region including pixels whose absolute value of the difference is equal to or larger than a predetermined threshold. Then, the object area extraction device 23 sets each pixel value of the area determined as the object area in the monitoring area WTA to “1 (or 0)”, and sets each pixel value of the area determined as the background image area. Is stored in the object area information storage area 33.
[0036]
Next, in step 114, the area occupancy calculating device 24 calculates the area occupancy of the object area at each position of the monitoring area WTA. In calculating the area occupancy, the area occupancy calculation device 24 first reads a binarized image from the object area information storage area 33. Subsequently, as shown in FIG. 4, the area occupancy calculation device 24 sets a rectangular window WIN corresponding to the maximum size of the area occupied by the person who is the counting target object in the monitoring area WTA and the estimated size. While moving in the monitoring area WTA, the occupancy of the area occupied by the object area in the area within the window WIN at each position is calculated. The area occupancy calculating device 24 stores the area occupancy at each position of the monitoring area WTA thus calculated in the area occupancy storage area 34.
[0037]
In the present embodiment, since the captured image perspective image, depending on the position in the depth direction (Y M direction), while adjusting the size of the window WIN, occupancy of the area occupied by the object area in the window WIN region Is calculated.
[0038]
Next, in step 115, the counting device 25 counts the number of objects (persons) in the monitoring area WTA based on the calculated area occupancy distribution. In such counting, the counting device 25 first reads the area occupancy at each position of the monitoring area WTA from the area occupancy storage area 34, and obtains the area occupancy distribution in the monitoring area WTA. FIG. 5 shows an example of the area occupancy distribution thus obtained.
[0039]
Subsequently, the counting device 25 extracts the peak of the obtained area occupancy distribution. Then, the counting device 25 analyzes the shape of each of the extracted peaks, and determines whether or not each peak is caused by a person being at the peak position. Then, for each peak determined to have occurred due to the presence of a person, the number of persons at that peak position is determined. For example, in the case of a peak having a typical peak width and a peak height as shown in FIG. 6A and having a monotonous shape when viewed from a normal human physique, a person is positioned at the peak position. It is determined that there is one person.
[0040]
In addition, as shown by the solid line in FIG. 6B, in the case of a peak having a wide peak width and a high peak height but a monotonous shape, it is determined that one person with a large body is located at the peak position. I do. Further, as shown by a broken line in FIG. 6B, in the case of a peak having a narrow peak width and a low peak height but having a monotonous shape, it is determined that there is one small body at the peak position. . That is, when the peak width is within the predetermined peak width range, the peak height is within the predetermined peak height range, and the peak has a monotonous shape, it is determined that one person exists at the peak position. .
[0041]
Also, as shown in FIG. 6 (C), when there is a peak shape of two peaks, it is determined that there are two persons at the peak position. In the case where the peak shape has two or more peaks, it is determined that there are people by the number of peaks.
[0042]
Thus, the total number of persons and the position of each person in monitoring area WTA are detected.
[0043]
The peak shapes of the area occupancy distributions shown in FIGS. 6A to 6C are obtained by performing the smoothing process performed in the present embodiment. In analyzing the shape of each peak, a simple template matching process can be performed.
[0044]
The above detection result is notified to the control device 29. The control device 29 instructs the screen display device 43 and the audio display device 45 to display the received detection result. Thereby, the total number of persons and the distribution of the presence density in the monitoring area WTA are provided to the operator through vision or hearing.
[0045]
Next, in step 116, the control device 29 determines whether or not the end of the counting operation is instructed from the keyboard device 41 or the mouse 44. Here, if a negative determination is made, the process proceeds to step 111, and the counting of the target object (person) is continued in the same manner as described above. On the other hand, if a positive determination is made in step 116, the counting operation of the target object ends. Thus, the counting operation of the target object is repeatedly performed until the end of the counting operation is instructed from the keyboard device 41 or the mouse 44.
[0046]
As described above, according to the object counting device 100 of the present embodiment, the area occupancy distribution of the object area in the monitoring area WTA is obtained based on the imaging results of the video camera 10 each time, and the area occupancy distribution is obtained. , The number of objects to be counted in the monitoring area WTA is counted. Therefore, the number of objects can be counted quickly and accurately with a simple configuration.
[0047]
Further, since the number of objects in the monitoring area WTA is counted by analyzing the peak shape in the area occupancy distribution, the number of objects (persons) can be counted with high resolution.
[0048]
In the above embodiment, the monitoring area is imaged from obliquely above by the video camera 10. However, if a wide-angle imaging device is used, the monitoring area can be imaged from vertically above the monitoring area. In such a case, it is possible to eliminate the trouble of coordinate conversion due to the perspective image.
[0049]
Further, in the above embodiment, the total number of persons and the position of each person in the monitoring area WTA are detected in each frame image obtained by imaging with the video camera 10, but each frame image in each frame image is further detected. A so-called tracking function can also be realized by determining the time change of the position of each person or specific person based on the position of the person or specific person.
[0050]
Further, in the present embodiment, the monitoring target is a person in the open space, but the present invention can be applied to a vehicle on a road, a vehicle in a parking lot, and the like. Further, the present invention can be applied regardless of whether it is outdoors.
[0051]
【The invention's effect】
As described above in detail, according to the object counting method and the object counting apparatus of the present invention, the number of objects to be monitored can be counted quickly and accurately with a simple configuration.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a schematic configuration of an object counting device according to an embodiment of the present invention.
2A is a diagram for explaining an arrangement of the video camera in FIG. 1, and FIG. 2B is a diagram for explaining an image pickup result by the video camera in FIG. 1; .
FIG. 3 is a flowchart illustrating a counting process performed by the object counting device of FIG. 1;
FIG. 4 is a diagram for explaining movement of a window in a monitoring area.
FIG. 5 is a diagram illustrating an example of an area occupancy distribution of an object area in a monitoring area.
FIGS. 6A to 6C are diagrams for explaining examples of peak shapes in an area occupancy distribution; FIG.
[Explanation of symbols]
10 video camera (imaging means), 22 background image specifying device (background image specifying device), 23 object region extracting device (object region extracting device), 24 area occupancy calculating device (area occupying calculating device) 25 ... Counter (counter).

Claims (4)

監視対象である物体の数を計数する物体計数方法であって、
前記物体を監視する監視領域を撮像する撮像工程と;
前記監視領域の撮像結果画像に基づいて、前記監視領域内に前記物体が存在しないときにおける前記監視領域内の撮像画像である背景画像を特定する背景画像特定工程と;
前記撮像結果画像と前記背景画像との差画像に基づいて、前記物体が占める物体領域を抽出する物体領域抽出工程と;
前記監視領域において前記物体の最大の大きさと推定される大きさに応じた大きさの窓を移動させながら、前記窓の各位置における前記窓内の領域における前記物体領域の面積占有率を算出する面積占有率算出工程と;
前記監視領域における前記面積占有率の分布に基づいて前記監視領域における前記物体の数を計数する計数工程と;を含む物体計数方法。
An object counting method for counting the number of objects to be monitored,
An imaging step of imaging a monitoring area for monitoring the object;
A background image specifying step of specifying a background image that is a captured image in the monitoring area when the object does not exist in the monitoring area, based on the captured result image of the monitoring area;
An object region extracting step of extracting an object region occupied by the object based on a difference image between the image of the captured image and the background image;
While moving a window having a size corresponding to the maximum size and the estimated size of the object in the monitoring region, calculate the area occupancy of the object region in a region within the window at each position of the window. Calculating an area occupancy ratio;
A counting step of counting the number of the objects in the monitoring area based on the distribution of the area occupancy in the monitoring area.
前記計数工程では、前記面積占有率の分布のピーク形状を解析して、前記物体の数を計数する、ことを特徴とする請求項1に記載の物体計数方法。2. The object counting method according to claim 1, wherein in the counting step, the number of the objects is counted by analyzing a peak shape of the distribution of the area occupancy. 前記監視領域は、その内部に前記物体が存在しないとき、撮像結果おける画素濃度値の分散及び変化幅が許容値以下となる領域である、ことを特徴とする請求項1又は2に記載の物体計数方法。3. The object according to claim 1, wherein the monitoring region is a region where a variance and a variation width of a pixel density value in an imaging result are equal to or less than an allowable value when the object does not exist inside the monitoring region. 4. Counting method. 監視対象である物体の数を計数する物体計数装置であって、
前記物体を監視する監視領域を撮像する撮像手段と;
前記監視領域の撮像結果画像に基づいて、前記監視領域内に前記物体が存在しないときにおける前記監視領域内の撮像画像である背景画像を特定する背景画像特定手段と;
前記撮像結果画像と前記背景画像との差画像に基づいて、前記物体が占める物体領域を抽出する物体領域抽出手段と;
前記監視領域において前記物体の最大の大きさと推定される大きさの窓を移動させながら、前記窓の各位置における前記窓内の領域における前記物体領域の面積占有率を算出する面積占有率算出手段と;
前記監視領域における前記面積占有率の分布に基づいて前記監視領域における前記物体の数を計数する計数手段と;を備える物体計数装置。
An object counting device for counting the number of objects to be monitored,
Imaging means for imaging a monitoring area for monitoring the object;
Background image specifying means for specifying a background image that is a captured image in the monitoring area when the object does not exist in the monitoring area, based on the captured result image of the monitoring area;
Object region extracting means for extracting an object region occupied by the object based on a difference image between the captured result image and the background image;
Area occupancy calculating means for calculating an area occupancy of the object area in a region within the window at each position of the window while moving a window having a size estimated to be the maximum size of the object in the monitoring area. When;
Counting means for counting the number of objects in the monitoring area based on the distribution of the area occupancy in the monitoring area.
JP2002172344A 2002-06-13 2002-06-13 Object counting method and object counting device Pending JP2004021375A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002172344A JP2004021375A (en) 2002-06-13 2002-06-13 Object counting method and object counting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002172344A JP2004021375A (en) 2002-06-13 2002-06-13 Object counting method and object counting device

Publications (1)

Publication Number Publication Date
JP2004021375A true JP2004021375A (en) 2004-01-22

Family

ID=31171938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002172344A Pending JP2004021375A (en) 2002-06-13 2002-06-13 Object counting method and object counting device

Country Status (1)

Country Link
JP (1) JP2004021375A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009223693A (en) * 2008-03-17 2009-10-01 Glory Ltd Person counting device and person counting method
CN105335782A (en) * 2014-05-26 2016-02-17 富士通株式会社 Image-based target object counting method and apparatus
JP2020016921A (en) * 2018-07-23 2020-01-30 Necソリューションイノベータ株式会社 Counting device, counting method, and program
JP2020016918A (en) * 2018-07-23 2020-01-30 Necソリューションイノベータ株式会社 Counting device, counting method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120481A (en) * 1997-10-17 1999-04-30 Mitsubishi Heavy Ind Ltd Traffic flow measuring device
JP2001236593A (en) * 2000-02-24 2001-08-31 Hitachi Ltd Traffic signal controller

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120481A (en) * 1997-10-17 1999-04-30 Mitsubishi Heavy Ind Ltd Traffic flow measuring device
JP2001236593A (en) * 2000-02-24 2001-08-31 Hitachi Ltd Traffic signal controller

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009223693A (en) * 2008-03-17 2009-10-01 Glory Ltd Person counting device and person counting method
CN105335782A (en) * 2014-05-26 2016-02-17 富士通株式会社 Image-based target object counting method and apparatus
JP2020016921A (en) * 2018-07-23 2020-01-30 Necソリューションイノベータ株式会社 Counting device, counting method, and program
JP2020016918A (en) * 2018-07-23 2020-01-30 Necソリューションイノベータ株式会社 Counting device, counting method, and program

Similar Documents

Publication Publication Date Title
JP5121508B2 (en) Image processing apparatus, image processing method, program, and storage medium
EP2662827B1 (en) Video analysis
JP5925068B2 (en) Video processing apparatus, video processing method, and program
WO2016172870A1 (en) Video monitoring method, video monitoring system and computer program product
JP2009211311A (en) Image processing apparatus and method
CN105631418A (en) People counting method and device
JP4848312B2 (en) Height estimating apparatus and height estimating method
JP6914007B2 (en) Information processing device and information processing method
DE112008002646T5 (en) In-vehicle image processing device, image processing method and program
JP2010198566A (en) Device, method and program for measuring number of people
JPH11282999A (en) Instrument for measuring mobile object
CN108460319B (en) Abnormal face detection method and device
JP2005503731A (en) Intelligent 4-screen simultaneous display through collaborative distributed vision
CN114140745A (en) Method, system, device and medium for detecting personnel attributes of construction site
CN104392201B (en) A kind of human body tumble recognition methods based on omnidirectional vision
JP2004021375A (en) Object counting method and object counting device
KR101640527B1 (en) Method and Apparatus for Monitoring Video for Estimating Size of Single Object
JP4005409B2 (en) Background image estimation method and background image estimation apparatus
JP5465594B2 (en) Object detection size calculation system and object detection size calculation program
JP4697761B2 (en) Queue detection method and queue detection apparatus
JP4434689B2 (en) Object counting method and object counting apparatus
CN114205578A (en) Video fuzzy anomaly detection method and system based on frequency domain skewness and frequency domain peak value
JP2012100082A (en) Image processing device, image processing method, and program
JP4184133B2 (en) Image processing device
JP4888290B2 (en) Intruder detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080812

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081204