JP4633942B2 - Passing object counting method and counting apparatus - Google Patents

Passing object counting method and counting apparatus Download PDF

Info

Publication number
JP4633942B2
JP4633942B2 JP2001000648A JP2001000648A JP4633942B2 JP 4633942 B2 JP4633942 B2 JP 4633942B2 JP 2001000648 A JP2001000648 A JP 2001000648A JP 2001000648 A JP2001000648 A JP 2001000648A JP 4633942 B2 JP4633942 B2 JP 4633942B2
Authority
JP
Japan
Prior art keywords
area
small
region
height
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001000648A
Other languages
Japanese (ja)
Other versions
JP2002207989A (en
Inventor
充 出岡
真人 中島
安弘 竹村
一弘 味村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Osaka Cement Co Ltd
Original Assignee
Sumitomo Osaka Cement Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Osaka Cement Co Ltd filed Critical Sumitomo Osaka Cement Co Ltd
Priority to JP2001000648A priority Critical patent/JP4633942B2/en
Publication of JP2002207989A publication Critical patent/JP2002207989A/en
Application granted granted Critical
Publication of JP4633942B2 publication Critical patent/JP4633942B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、通過物体計数方法及び計数装置に関し、特に通過物体の高さの情報を含む時空間画像から通過物体を計数する通過物体計数方法及び計数装置に関するものである。
【0002】
【従来の技術】
通過物体を計数する方法としては、従来から平面的な時空間画像を利用するものが知られている。すなわち、まず2台の撮像装置により得られた通過物体のステレオ画像から、計数線上での高さ情報と速度情報を算出し、3次元情報を得る。次に得られた3次元情報を一定の高さで輪切りにして、その高さについて通過物体を時間方向に一定時間並べた時の平面的な時空間画像を作成する。そして作成した平面的な時空間画像を用いて、前記一定の高さにおいて一定以上の幅×時間の面積を持つ物体であるかどうかで、通過物体を計数していた。また、前記一定の高さを変化させて、一定以上の幅×時間の面積を持つ物体であるかどうかで計数を行い、これを一定の高さ範囲内で繰り返す方法で、通過物体を計数していた。
【0003】
【発明が解決しようとする課題】
以上のような従来の通過物体計数装置によれば、次のような問題があった。一定時間の平面的な時空間画像で、一定の高さにおいて一定以上の幅×時間の面積を持つ物体であるかどうかで計数を行う方法では、計数が不正確になってしまう。また、高さを変化させて、一定以上の幅×時間の面積を持つ物体であるかどうかで計数を行い、これを一定の高さ範囲内で繰り返す方法では、計数は正確になるが処理すべきデータ量が膨大となり、計算に時間がかかっていた。
【0004】
そこで本発明は、高い計数精度を維持しながら、計算量を減らし高速処理が可能な通過物体計数装置及び計数方法を提供することを目的としている。
【0005】
【課題を解決するための手段】
上記目的を達成するために、請求項1に係る発明による通過物体計数方法は、例えば図4に示すように、平面2に沿って平面2上の基準線1を通過する通過物体5を計数する通過物体計数方法において;通過物体5の基準線1における時空間画像であって、該時空間画像上の規則的に配列された複数の小領域に、平面2からの通過物体5の前記小領域に対応する部分の高さ情報が振り当てられた時空間画像を形成する画像形成工程S0と;前記複数の小領域から、高さ極大の小領域を抽出する極大抽出工程S1と;前記抽出された小領域を囲む小領域であって、前記極大高さから一定の高さ範囲にある小領域を集合した集合領域を求める集合領域決定工程S2と;集合領域決定工程S2で求められた集合領域の面積を予め定められた閾値と比較する比較工程S4と;前記集合領域の面積が前記閾値よりも大なるときに1カウントの計数を行なう加算工程S5とを備える。なお、集合領域は1に限らず複数であってもよい。
【0006】
このように構成すると、画像形成工程S0と、極大抽出工程S1と、集合領域決定工程S2とを備えるので、高さ情報が振り当てられた時空間画像を取得でき、取得された時空間画像から高さ極大の小領域を抽出し、極大高さから一定の高さ範囲にある小領域を集合した集合領域を求めることができる。また、比較工程S4と、加算工程S5とを備えるので、求められた集合領域の面積を予め定められた閾値と比較し、閾値よりも大なるときに1カウントの計数を行なうことができる。
【0007】
また請求項2に記載のように、請求項1に記載の通過物体計数方法では、前記高さ情報に対応させて前記基準線に交差し前記平面に平行な進行方向の速度情報を取得する工程S24と;前記集合領域の面積に前記速度情報で重み付けする工程S7とを備えるとよい。なお速度の向きは、同じ速度方向について、正の向きと負の向きとがある。
【0008】
このように構成すると、速度情報を取得する工程と、集合領域の面積に速度情報で重み付けする工程とを備えるので、通過物体の速度を取得することができ、取得した速度で重み付けをした集合領域の面積を得られる。
【0009】
また請求項3に記載のように、請求項1または請求項2に記載の通過物体計数方法では、前記複数の小領域の1つの小領域に注目し、高さ情報に基づき、前記注目小領域を取り囲む小領域の高さと該注目小領域の高さとを比較して、前記取り囲む小領域のいずれの高さよりも前記注目小領域の高さが高いか又は等しいときに、該注目小領域を前記極大の小領域とするとよい。
【0010】
また請求項4に記載のように、請求項3に記載の通過物体計数方法では、前記複数の小領域は碁盤目状に配列され、前記注目小領域の4近傍の小領域を、前記取り囲む小領域とするとよい。4近傍の小領域とは、例えば図5(a)に示すように、注目小領域P22の上下左右の4小領域P12、P32、P21、P23をいう。このように構成すると、時空間画像上から、極大高さの小領域を容易に得ることができる。
【0011】
また請求項5に記載のように、請求項4に記載の通過物体計数方法では、前記注目小領域P22の8近傍の小領域P11、P12、P13、P21、P23、P31、P32、P33のうち(例えば図5(a)参照)、前記極大高さから一定の高さ範囲にある小領域を前記極大の小領域に所属する部分領域とし、該部分領域の輪郭の小領域の各々について8近傍の小領域のうち、前記極大高さから一定の高さ範囲にある小領域を前記部分領域に加える操作を、予め定められた回数だけ繰り返した後の部分領域を前記集合領域として確定する工程S2を備えるとよい(例えば図5(b)参照)。
【0012】
前記目的を達成するために、請求項6に係る発明による通過物体計数装置10は、例えば図1及び図3(b)に示すように、平面2に沿って平面2上の基準線1を通過する通過物体5を計数する通過物体計数装置10において;通過物体5の基準線1における時空間画像と、前記時空間画像上の規則的に配列された複数の小領域に対応する部分の高さ情報とを取得する撮像装置11,12を備え;前記複数の小領域から、高さ極大の小領域を抽出する極大抽出手段30と;前記抽出された小領域を囲む小領域であって、前記極大高さから一定の高さ範囲にある小領域を集合した集合領域を求める集合領域決定手段31と;集合領域決定手段31で求められた集合領域の面積を予め定められた閾値と比較する比較手段32と;前記集合領域の面積が前記閾値よりも大なるときに1カウントの計数を行なう加算手段32とを備える。典型的には、時空間画像は撮像装置11、12から処理装置20を介して取得される。即ち処理装置により、撮像装置11、12からの撮像信号から時空間画像が作成される。
【0013】
通過物体5が移動する面は、例えば図12に示すように、水平な平面に限らず斜面や階段のように傾斜した面2’であってもよい。但し、必要に応じて例えば図12(a)のような場合には、傾斜角度により高さ情報と速度情報を補正する。
【0014】
また通過物体5の進行方向に交差する基準線1は、通過物体5の進行方向に垂直な線とするのがよい。奥行方向は、典型的には平面に垂直な方向、又は鉛直方向である。なお同じ進行方向について、進行の向きは正の向きと負の向きとがある。
【0015】
このように構成すると、撮像装置11,12と、極大抽出手段30とを備えるので、撮像装置11,12を使って時空間画像を取得し、時空間画像上の通過物体5の極大高さである高さ極大の小領域を抽出することができる。また、集合領域決定手段31と、加算手段32とを備えるので、極大高さから一定の高さ範囲にある小領域を集合した集合領域を求め、集合領域の面積が閾値よりも大なるときに1カウントの計数を行うことができる。
【0016】
また請求項7に記載のように、請求項6に記載の通過物体計数装置10では、前記撮像装置は、前記時空間画像を形成する、前記小領域に対応する複数の画素の配列された撮像素子を有するようにするとよい。
【0017】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照して説明する。なお、各図において互いに同一あるいは相当する部材には同一符号または類似符号を付し、重複した説明は省略する。
【0018】
図1は、本発明による実施の形態である通過物体計数装置10(以下適宜「計数装置10」という)の模式的斜視図である。図中通過物体5が平面である水平な通路2上を進行方向に移動している。XY軸を通路2内に置くように、直交座標系XYZがとられており、通路2はY軸と平行に延設されている。また通路2の延設方向と垂直即ちX軸と平行に基準線である計数線1がとられている。通過物体5の進行方向は、典型的には通路2の延設方向即ちY軸と平行である。通過物体5は、本実施の形態では人物である。また本実施の形態では、計数線1は通路2の延設方向と垂直としているが、特に垂直としなくてもよい。垂直でない場合は、X軸との角度で視差と速度を補正すればよい。計数線1は、この線を通過した通過物体5を計数するための基準線であり、仮想的な線であってもよく、実際に物理的に通路2に描く必要はない。
【0019】
一方、図中通路2の計数線1の鉛直方向上方には、通過物体である人物5が通過するのに十分な高さに、通路2の計数線1を通過する通過物体5を撮像するための第1の撮像装置11と第2の撮像装置12が設置されている。第1の撮像装置11と第2の撮像装置12は、適切な間隔をあけて並列に、計数線1と平行で且つ光軸がZ軸と平行になるように設置してある。ここでいう人物5が通過するのに十分な高さとは、例えば3000mm程度である。また、適切な間隔とは、例えば50mm程度である。
【0020】
図2を参照して、通過物体計数装置10の構成の一例を説明する。計数装置10は、第1の撮像装置としての第1のCCDカメラ11、第2の撮像装置としての第2のCCDカメラ12、演算装置としてのパソコン13を含んで構成される。
【0021】
そして第1のCCDカメラ11、第2のCCDカメラ12は、パソコン13に接続されており、パソコン13は第1のCCDカメラ11、第2のCCDカメラ12によってそれぞれ撮像された画像を取得できるように構成されている。
【0022】
パソコン13は、制御部14を備えており、計数装置10全体を制御している。制御部14には、撮像装置用インターフェイス15が接続されており、第1のCCDカメラ11、第2のCCDカメラ12は、撮像装置用インターフェイス15を介して制御部14に接続され、制御されている。
【0023】
また制御部14内には、第1のCCDカメラ11、第2のCCDカメラ12により取得したステレオ画像から、通過物体5の高さ情報である通過物体5の高さを時系列的に取得し、時空間画像を作成する比較演算部20、作成された通過物体5の時空間画像から通過物体5を計数する計数演算部21が備えられている。比較演算部20は、通過物体5の速度情報である通過物体5の速度を、高さ情報を取得する際に、高さ情報に対応させて時系列的に取得してもよい。
【0024】
制御部14には、記憶部18が接続されており、第1のCCDカメラ11、第2のCCDカメラ12で撮像された画像や算出された情報等のデータが記憶できる。
【0025】
また制御部14には、計数装置10を操作するための情報を入力する入力装置16、計数装置10で処理された結果を出力する出力装置17が接続されている。入力装置16は例えばキーボードやマウスであり、出力装置17は例えばディスプレイやプリンタである。本図では、入力装置16、出力装置17はパソコン13に外付けするものとして図示されているが、内蔵されていてもよい。
【0026】
さらに図3に示すように、比較演算部20内には、CCDカメラにより撮像された画像を処理する画像処理部25、第1のCCDカメラにより撮像された画像と、第2のCCDカメラにより撮像された画像から対応点を求める対応点探索部26、通過物体5の高さ情報である高さを算出する高さ情報算出部27、通過物体5の速度情報である速度を算出する速度情報算出部28、算出された高さ情報を時間方向に並べて時空間画像を作成する時空間画像作成部29が備えられている(図3(a))。画像を処理するとは、例えば第1のCCDカメラ11、第2のCCDカメラ12からの撮像信号から第1の画像、第2の画像を取得することを含む。また本実施の形態では、CCDカメラにより撮像された画像から得られる時空間画像は、碁盤目状に配列された、複数の小領域である複数の画素により表現されている。ここで時空間画像上の画素は、CCDカメラの撮像面の画素と1対1で対応している必要はなく、例えば前者の1画素が後者の4画素に対応していてもよい。
【0027】
また、計数演算部21内には、作成された時空間画像から高さ極大の小領域である極大高さの画素を抽出する極大抽出部30、極大高さ領域を囲む画素で極大高さから一定の高さ範囲にある画素の集合である集合領域を求める領域算入部31、集合領域の面積を閾値と比較して、その面積が閾値より大きい場合に通過物体5の計数を行う計数部32を備えている。
【0028】
図4のフローを参照して、実施の形態である計数装置10の作用として本発明の通過物体計数方法の実施の形態を説明する。まず、パソコン13の制御部14内の比較演算部20は、画像形成工程としての時空間画像形成を行う(ステップ0(図中「S0」と表示。以下同じ))。これにより、撮像装置11,12からの撮像信号から通過物体5の高さの情報を持った複数の画素で表現された時空間画像が作成される。本実施の形態では、この高さの情報を輝度で表現するものとする。この輝度は、高さ約0〜185cmに対応させた0〜255の輝度値で表されている。また時空間画像はどのようにして取得してもよいが、後述の図4を参照して説明する時空間画像を取得する方法を用いるとよい。
【0029】
次に計数演算部21は、比較演算部20より時空間画像を取得し、極大抽出部30で、時空間画像上の極大高さ即ち極大輝度値を持った画素である極大画素を抽出する極大抽出工程としての高さ極大画素抽出を行なう(ステップ1)。抽出方法は、例えば図5(a)に示すように、まず時空間画像上の1つの画素P22に注目する。注目画素P22の4近傍の画素すべてが、注目画素の輝度値以下(等しい場合も含む)である場合、この注目画素を極大画素とする。注目画素の4近傍とは、例えば注目画素の上P12(図中上)下P32(図中下)右P23(図中右)左P21(図中左)の4つの画素をいう。なお1つの時空間画像上に、極大画素は複数存在してもよく、複数の極大画素は隣接もしくは接近していてもよく、互いに離れて点在していてもよい。
【0030】
そして、抽出された極大画素は領域算入部31により、集合領域決定工程としての膨張処理を行い(ステップ2)、集合領域を得る。なお、1つの時空間画像上に極大画素が複数存在する場合は、極大画素と同数の集合領域を得ることになる。特に複数の極大画素が隣接もしくは接近している場合は、これらの極大画素から得られる複数の集合領域を1つの集合領域としてもよい。
【0031】
ここで図5(b)を参照して膨張処理について説明する。まず抽出された1つの極大画素P22の8近傍の画素P11、P12、P13、P21、P23、P31、P32、P33に注目し、8近傍の個々の注目画素が極大画素の輝度値の一定範囲以内にあればこの画素を部分領域に算入する(P11〜P33の符号は(b)には不図示)。ここでいう一定範囲は、計数対象である通過物体の特性に沿って定めればよいが、対象が人物である場合は、極大画素の輝度値の10%以内(極大画素の輝度値を100%とすると90%以上の範囲)とすることが望ましい。また、8近傍の注目画素の輝度値の平均値が極大画素の輝度値の一定範囲以内にあれば、8近傍の注目画素のすべてを部分領域に算入するようにしてもよい。
【0032】
次に、この部分領域の輪郭の画素の個々について8近傍に注目し(例えば図5(a)の画素P33について画素P22、P23、P24、P32、P34、P42、P43、P44)、8近傍の個々の注目画素がこの部分領域の極大画素の輝度値の一定範囲以内にあればこの画素を部分領域に算入する。そしてこの処理を予め定められた回数だけ繰り返す。予め定められた回数とは、典型的には50回程度であるが、条件により適宜決めてよい。回数を多くすれば、一定の領域に収束する。収束した後は、それ以上回数を重ねても領域の広さは変わらない。
【0033】
この膨張処理により、極大画素の輝度値の一定範囲以内の画素を算入した部分領域を集合領域として得ることができる。また、この処理でいう極大画素とは、1つの集合領域中の極大輝度値の画素(場合によっては複数存在)である。
【0034】
以上の膨張処理は、図6に示すように、時空間画像上に存在する複数の通過物体5の極大高さから、一定の高さまで領域(集合領域)を求める処理である。得られた時空間画像は、通過物体の高さを輝度により表現された濃淡画像であるので、一定値以内の輝度の領域は、一定の高さまでの通過物体の最大断面積とすることができる。即ち膨張処理は、得られた時空間画像より通過物体である人物のおよそ頭部分の断面を抽出する処理である。人物の頭部分の断面を抽出することで、例えば2人の人物5が非常に近接してすれ違った場合でも、頭部の断面を得ることにより、2人の人物を区別することができる。
【0035】
図4のフロー図に戻って説明する。次に前述の膨張処理で得られた集合領域をラベリングする(ステップ3)。ラベリングとは、それぞれの領域を識別するための例えば番号や符号を付けることをいう。そして、比較工程としてラベリングされた集合領域の面積値と予め設定された閾値とを比較して(ステップ4)、面積値が閾値より大きい場合は(ステップ4がY)、人物5が1人通過したものとして加算工程としての計数を行う(ステップ5)。またその集合領域が既に計数された集合領域であれば計数しない。このとき、予めその領域の進行の向き又は速度を求めておいて、その進行の向きにより、通過した人物5の進行の向きを区別して、それを計数に反映させてもよい。また面積値が閾値より小さい場合は(ステップ4がN)、人物5ではないと判断して計数しない(ステップ6)。
【0036】
以上の実施の形態では、速度情報を取得しない場合で説明したが、この方法は、例えば遊園地の入場口のように、一方通行で移動速度がほぼ一定の場合に利用できる。この場合、速度情報を取得する方法に比べて計算量が少なくて済むので、高速処理が可能である。
【0037】
また、膨張処理で得られた集合領域の面積値に、通過物体の速度を算出しておき、前述のラベリングした集合領域に対応する速度でその集合領域の面積値に重み付けをして面積値を算出してもよい(ステップ7(図中破線で表示))。ここで面積値に速度で重み付けするのは、例えば通過速度の速い人は、通過速度と通過フレーム数は反比例するので、単に時空間画像で計算すると面積値が小さくなるためである。時空間画像と言うときは、一般に少なくとも一つの次元に時間軸を含む画像を意味するが、ここでは時空間画像に速度で重み付けした結果、時間軸が消えた画像も便宜上時空間画像と呼ぶ。
【0038】
さらに、進行の向きは正の向きと負の向きとがあるので、計数する際には、集合領域の面積値に重み付けをする速度情報に、通過物体の進行の向きの正負を符号として与えることで、面積値の正負によって通過物体の進行の向きを区別して計数することができる。速度情報の算出方法は、例えば図9を参照して後で説明する速度情報を取得する方法を用いるとよい。
【0039】
このように、通過物体の速度情報を取得し、集合領域に対応する速度で集合領域の面積値に重み付けをしてその面積値を算出する方法を用いれば、例えば駅構内の通路のように、対面通行であり、それぞれの人物の移動速度が異なる場合でも、高い精度で計数を行うことが可能である。実際の計数には、こちらの方法を用いることが望ましい。
【0040】
また予め設定された閾値とは、典型的には計数しようとする人物5のうち最小人物の頭部の最大断面積値である。頭部の断面積値は大人と子供とを比較しても大きな差がないので、例えば閾値として子供の頭部の断面積値を設定しておけば、通過物体である人物を、手荷物等を誤計数することなく大人も子供も正確に計数できる。
【0041】
以上の計数方法では、集合領域の面積値が閾値より大ならば計数するとしたが、さらに集合領域の面積値が一定値以上ならば計数しないようにしてもよい。すなわち、第2の閾値として、大人のうち考え得る最大の人間の頭部の断面積を設定し、前記面積値が第2の閾値より小さいことを計数の条件として加えてもよい。このようにすると、断面積の大きい通過物体(例えば荷物等)を計数しないようにできるので、計数精度をより向上させることができる。
【0042】
図7のフローを参照して、時空間画像を取得する方法の一例を説明する。ここで、第1のCCDカメラ11で撮像された画像を左画像、第2のCCDカメラで撮像された画像を右画像として説明する。まずパソコン13の制御部14は、第1のCCDカメラ11、第2のCCDカメラ12で撮像された左画像、右画像を、撮像装置インターフェイス15を介してステレオ画像として取得する(ステップ10)。
【0043】
制御部14は、取得したステレオ画像から、制御部14内の画像処理部25によって、ある時間tに撮像された画像としての第1の画像であるtフレームの左画像を取得する(ステップ12)。また時点tよりΔt経過した時点t+Δtに撮像された画像としての第2の画像であるt+Δtフレームの右画像を取得する(ステップ13)。
【0044】
実際には、第1のCCDカメラと第2のCCDカメラとは同時並列的に各時点で撮像を行い、第1の画像として時点tの画像を、第2の画像として1フレーム以上ずらした時点t+Δtの画像を採用するようにしてもよい。このときΔtは、計数装置10の設定条件により適宜決めてよいが、あるフレームNが撮像されてから、次のフレームN+1が撮像されるまでの時間とすることが望ましい。
【0045】
次に、tフレームの左画像のエッジ抽出を行い(ステップ14)、細線化する(ステップ15)。そして、tフレームの左画像の計数線1上のエッジ点を用いてt+Δtフレームの右画像の対応点探索を行なう(ステップ16)。エッジ抽出、細線化、対応点探索については、図8を参照してあとで説明する。
【0046】
次に対応点探索により得られた対応点から、高さ情報を算出する(ステップ17)。ここで、背景除去によってあらかじめ非背景部分を規定しておき、その部分に対して、エッジ点における値を反映させるための線形補間を行なう(ステップ18)。高さ情報を算出する方法は、図9、図10を参照してあとで説明する。
【0047】
これにより得られた高さ情報を時間方向に並べて、人物5の高さ情報を含む時空間画像を作成する(ステップ19)。
【0048】
次に最初のフレームを取得してからの経過時間であるTが、予め設定しておいた所定時間Tを経過したかを判断する(ステップ20)。Tが所定時間Tを経過している場合は(ステップ20がY)、所定時間Tの時空間画像を取得できる(ステップ21)。Tが所定時間Tを経過していない場合は(ステップ20がN)、次のフレームを取得し、さらに時空間画像を時間方向に並べる。また、ステップ20の判断は、経過時間ではなく取得したフレーム数が所定のフレーム数に達した場合としてもよい。所定時間Tは、記憶装置の容量の制約で例えば20秒程度とすることが適当であるが、容量の制約を受けなければ例えば1時間以上としてもよい。
【0049】
また、前述の計数方法で、通過物体の速度が必要な場合は(集合領域の面積に速度で重み付けする場合など)、図中破線で表示しているように、前述の対応点探索により得られた対応点から、速度情報も算出する(ステップ22)。そして、高さ情報と同様に線形補間を行なう(ステップ23)。このようにして速度情報を取得する(ステップ24)。速度情報を算出する方法は、図9を参照してあとで説明する。
【0050】
図8を参照して、対応点探索についてさらに詳細に説明する。ここで、図示の各フレームでの通過物体として人物を、ハッチングにより表現しているが、これは断面を示しているものではなく、単に上方から撮像された人物を表現するものである。
【0051】
ここでは高さ情報を求めるために、2枚の画像の対応点を求める。まず、tフレームの左画像と、t+Δtフレームの右画像での対応を求める。この際、近傍領域に特徴のない画素に関しては対応関係が明確に定まらない。そこで、以下のような流れで探索を行う。
【0052】
まず、tフレームの左画像のエッジ抽出を行い細線化した画像を求め、そのエッジ点においてのみ対応点探索を行う。エッジ抽出とは、濃淡で取得された画像から対象とする通過物体のエッジ点の集合である輪郭を抽出し、例えば座標で特定することをいう。また細線化とは、例えばエッジ抽出を行なった画像を、エッジ抽出で得られた通過物体の輪郭のみを細線で示した画像とするものである。
【0053】
対応点探索を行うには、まずtフレームの左画像の前記特定された輪郭上の点をエッジ点として選定し、濃淡画像上でそのエッジ点を含む近傍領域にウインドウを設定する。典型的には計数線上にあるエッジ点を選定する。エッジ点は典型的には前記細線と計数線との交点であり、通常は複数、典型的には10〜20点存在する。これら複数のエッジ点のうち、例えば最も左にある点をまず選定する。選定したエッジ点が中心になるようにウインドウを設定するとよい。そして前記設定されたウインドウを参照して、t+Δtフレームの右画像にウインドウを設定する。
【0054】
これらのウインドウについて、図11に示す式1を用いてtフレームの左画像とt+Δtフレームの右画像との濃淡値の相関をとる。ここで、I(i,j)とI(i,j)はそれぞれ左右画像上のウインドウ内の濃淡値であり、μ , μ , σ , σはそれぞれ左右ウインドウの濃淡値の平均及び分散である。Cは−1から+1までの範囲内の値をとる。選定された左画像のエッジ点に対して、右画像のウインドウを少しずつ、例えば計数線に平行に移動し、また計数線に直交する方向に移動しながら、各ウインドウでC値を計算する。このようにて求めたCのうち最大値を与える右画像のウインドウを、選定された左画像のウインドウに対応する局所領域とみなす。
【0055】
即ち、上記のように左右画像のウインドウの相関をとり、左画像で選定したエッジ点を含むウインドウと対応する(Cが最大となる)右画像のウインドウを探索する。この探索により得られた右画像のウインドウの中心が、先に選定した左画像のエッジ点に対応する右画像のエッジ点となる。
【0056】
ウインドウの探索は、例えば計数線と平行方向(X軸方向)と垂直方向(Y軸方向)に行う。例えば通過物体が人物である場合は、計数線と平行方向は後述のように左右画像間の視差と見るので、既に設定した左画像のウインドウを参照して、例えば高さが1m〜2mと算出される視差の幅を探索すればよい。垂直方向は、後述のように人物の移動量と見るので、既に設定した左画像のウインドウを参照して、時間Δt間に人物が移動すると予想される移動量の幅を探索すればよい。またCの値が、探索している方向に上昇傾向ならば、さらにCの値が最大となり、下降傾向に移るまで同じ探索方向に探索を継続し、下降傾向ならば、探索方向を変えるか、既に探索した範囲でCの値が最大となるウインドウを選択するようにしてもよい。
【0057】
このようにウインドウの探索を行えば、明らかに探索不要な部分の左右画像のウインドウの相関をとらなくてよいので、さらに計算量を減らすことができる。以上のようにして左画像に存在する全てのエッジ点について対応点の探索を行い、左右画像の対応するエッジ点を得る。
【0058】
図9を参照して、奥行情報と速度情報の算出についてさらに詳細に説明する。まず前述で得られた左右画像の対応するエッジ点同士を結ぶベクトルを考え、これを水平成分(X軸方向成分)と垂直成分(Y軸方向成分)に分離する。水平成分は、左右画像間の視差を表す量と見ることができ、この視差を用いて対象とする通過物体までの距離を算出することができる。対して、垂直成分は、注目点の通路に沿う方向の移動量と見ることができ、これを基に対象とする通過物体の速度情報を得ることができる。こうして、エッジ点における奥行情報である3次元高さ、速度情報である速度を対の形で一括して得ることができる。
【0059】
なお、1つの通過物体について得られた速度は、通常は等しいはずであるので、各エッジ点全てについて速度を求める必要はなく、例えば最も中心に近い点の速度を採用すればよい。または、各エッジ点の速度を求めて、突出した値を有するエッジ点は、探索に誤りがあったものとして再探索を行うか又はその点は不採用とするとよい。あるいは各エッジ点の速度を全て求めて、それらの平均値を計算し、その物体の速度として採用してもよい。
【0060】
また、前述の速度による重み付けには、各点毎の速度を用いてもよいし、平均値で求めた通過物体の速度を各点共通に用いてもよい。
【0061】
ここで左右画像は、Δtだけ時間的にずれた画像ではあるが、Δtが充分に小さい値であれば、左右画像には視差を求めるのに差支えるほどの差は生じない。逆にそのようにΔtを定めることにしてもよい。即ち視差を求めるのに差支えず、且つ速度情報を得るのに充分な長さとする。例えば、対象とする通過物体が歩行者の場合は1/60〜1/10秒程度、特に1/40〜1/20秒、さらに好ましくは約1/30秒とする。
【0062】
ここで、図10を参照して、対象とする通過物体の高さ情報としての平面からの高さzの算出方法について説明する。対象とする通過物体5までの距離aは、図11に示す式2を用いて算出することができる。ここで、wはCCDカメラ間距離(基線長)、fはCCDカメラの結像レンズを単一レンズとしたときそのレンズの焦点距離、dはCCDカメラの結像面上の視差である。ここでの焦点距離は、一般に用いられている組み合わせレンズを使用する場合は、その組み合わせレンズの焦点距離とする。また、CCDカメラの結像レンズから計数線1までの距離をhとすると、対象とする通過物体5の高さzは図11に示す式3で算出する。
【0063】
以上の実施の形態では、時点tの左画像と時点t+Δtの右画像から高さ情報と速度情報を得るものとして説明したが、時点tの左画像及び右画像から高さ情報を取得し、時点t+Δtの左又は右画像から速度情報を取得するものとしてもよい。
【0064】
図12を参照して、通過物体5が斜面を移動する場合を説明する。例えば階段や坂道などの傾斜した面2’を通過物体5が移動している場合、平面2は基準線1と第1、第2の撮像装置11、12を結ぶ線に垂直な仮想平面2とするのがよい。
【0065】
対象とする通過物体5が人物の場合は、斜面であっても鉛直方向に立つので、CCDカメラの光軸は鉛直方向に向ける(図12(a))。この場合は、仮想平面2は水平面となる。この例では、例えば傾斜した面2’と仮想平面2とのなす角をθとすると、仮想平面2からの通過物体5の高さを得るには、斜面2’を移動する通過物体5の時間Δtの移動量にtanθを乗じた値を、斜面2’を移動する通過物体5の算出された高さから引けばよい。
【0066】
また対象とする通過物体5が、例えば車の場合は、斜面をそのまま本発明の平面2としてよい。この場合、CCDカメラの光軸は斜面に垂直な方向に向ける(図12(b))。
【0067】
以上説明したように本発明の実施の形態によれば、従来の時空間画像を輪切りにする計数方法と比較して、例えば20sec分(所定時間T=20sec)の時空間画像を処理する時間が160secから21secに短縮できるので、大幅な処理の高速化が可能になる。
【0068】
【発明の効果】
以上のように本発明によれば、画像形成工程と、極大抽出工程と、集合領域決定工程とを備えるので、高さ情報が振り当てられた時空間画像を取得でき、取得された時空間画像から高さ極大の小領域を抽出し、極大高さから一定の高さ範囲にある小領域を集合した集合領域を求めることができ、また比較工程と、加算工程とを備えるので、求められた集合領域の面積を予め定められた閾値と比較し、閾値よりも大なるときに1カウントの計数を行なうことができるため、高い計数精度を維持しながら、計算量を減らし高速処理が可能な通過物体計数装置及び計数方法を提供することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態である通過物体計数装置の概要を示す模式的斜視ブロック図である。
【図2】本発明の実施の形態である通過物体計数装置の構成例を示すブロック図である。
【図3】本発明の実施の形態で用いる比較演算部の構成例(a)と計数演算部の構成例(b)を示すブロック図である。
【図4】本発明の実施の形態である通過物体計数装置の作用の一例あるいは本発明の実施の形態である通過物体計数方法を示すフローチャートである。
【図5】本発明の実施の形態で、膨張処理を行う場合の処理例を説明する画像図である。
【図6】本発明の実施の形態で、膨張処理を説明する図である。
【図7】本発明の実施の形態で、時空間画像を取得する方法の一例あるいは本発明の実施の形態である通過物体計数装置の作用の一例を示すフローチャートである。
【図8】本発明の実施の形態で、第1の画像と第2の画像の対応点探索を行う場合の処理例を説明する画像図である。
【図9】図8の場合における、第1の画像と第2の画像の対応点を結ぶベクトルを説明する画像図である。
【図10】本発明の実施の形態で、第1の撮像装置と第2の撮像装置の視差から、通過物体の高さを算出する方法を説明する様式的正面図である。
【図11】本発明の実施の形態の説明で用いられる計算式を示す図である。
【図12】傾斜した面を移動する通過物体を計数する方法の例として、仮想平面で計数する場合(a)と斜面をそのまま本発明の平面とする場合(b)を説明する図である。
【符号の説明】
1 計数線
2 通路
5 通過物体
10 通過物体計数装置
11 第1のCCDカメラ
12 第2のCCDカメラ
13 演算装置
14 制御部
15 撮像装置用インターフェイス
16 入力装置
17 出力装置
18 記憶部
20 比較演算部
21 計数演算部
25 画像処理部
26 対応点探索部
27 高さ情報算出部
28 速度情報算出部
29 時空間画像作成部
30 極大抽出部
31 領域算入部
32 計数部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a passing object counting method and a counting apparatus, and more particularly to a passing object counting method and a counting apparatus for counting passing objects from a spatiotemporal image including information on the height of a passing object.
[0002]
[Prior art]
As a method of counting passing objects, a method using a planar spatio-temporal image has been conventionally known. That is, first, height information and velocity information on the counting line are calculated from stereo images of passing objects obtained by the two imaging devices to obtain three-dimensional information. Next, the obtained three-dimensional information is cut into circles at a certain height, and a planar spatio-temporal image is created when passing objects are arranged in the time direction for a certain time. Then, using the created planar spatio-temporal image, passing objects are counted depending on whether or not the object has an area of a certain width or more and a time at a certain height. In addition, by changing the above-mentioned fixed height, it counts whether it is an object having a certain width x time area or more, and repeats this within a fixed height range to count passing objects. It was.
[0003]
[Problems to be solved by the invention]
The conventional passing object counting apparatus as described above has the following problems. In the method of counting by a plane time-space image for a fixed time and determining whether it is an object having a certain width or more width and time area at a fixed height, the counting becomes inaccurate. In addition, by changing the height and counting whether or not the object has an area of a certain width or more and a time area, and repeating this within a certain height range, the counting is accurate but processed. The amount of data that should have been enormous, and the calculation took time.
[0004]
Accordingly, an object of the present invention is to provide a passing object counting device and a counting method capable of reducing the amount of calculation and performing high-speed processing while maintaining high counting accuracy.
[0005]
[Means for Solving the Problems]
To achieve the above object, the passing object counting method according to the first aspect of the present invention counts passing objects 5 passing through the reference line 1 on the plane 2 along the plane 2 as shown in FIG. In the passing object counting method: a spatio-temporal image of the passing object 5 on the reference line 1, and the small areas of the passing object 5 from the plane 2 are arranged in a plurality of regularly arranged small areas on the spatio-temporal image. An image forming step S0 for forming a spatio-temporal image to which the height information of a portion corresponding to is assigned; and a maximum extraction step S1 for extracting a small region having a maximum height from the plurality of small regions; A collecting region determining step S2 for obtaining a collecting region that is a small region surrounding the small region and that is a collection of small regions within a certain height range from the maximum height; and the collecting region obtained in the collecting region determining step S2 The ratio of the area to a predetermined threshold A comparison step S4 for; the area of the set region and a summing step S5, performing counting in one count when the larger becomes than the threshold value. The aggregate area is not limited to 1 and may be plural.
[0006]
If comprised in this way, since it has image formation process S0, local maximum extraction process S1, and gathering area | region determination process S2, the spatio-temporal image to which height information was allocated can be acquired, and from the acquired spatio-temporal image A small region having a maximum height is extracted, and a set region obtained by collecting small regions within a certain height range from the maximum height can be obtained. Further, since the comparison step S4 and the addition step S5 are provided, the area of the obtained collective region is compared with a predetermined threshold value, and 1 count can be performed when the area exceeds the threshold value.
[0007]
Further, as described in claim 2, in the passing object counting method according to claim 1, a step of acquiring velocity information in a traveling direction that intersects the reference line and is parallel to the plane in correspondence with the height information. S24; and a step S7 of weighting the area of the collective region with the speed information may be provided. The direction of speed includes a positive direction and a negative direction for the same speed direction.
[0008]
If comprised in this way, since it has the process of acquiring speed information and the process of weighting the area of a collection area with speed information, the speed of a passing object can be acquired, and the collection area weighted with the acquired speed Can be obtained.
[0009]
Further, as described in claim 3, in the passing object counting method according to claim 1 or 2, attention is paid to one small area of the plurality of small areas, and the small area of interest is based on height information. Is compared with the height of the attention subregion, and when the height of the attention subregion is higher than or equal to any height of the surrounding subregion, the attention subregion is It is good to make it a maximal small region.
[0010]
Further, according to a fourth aspect of the present invention, in the passing object counting method according to the third aspect, the plurality of small regions are arranged in a grid pattern, and the small region that surrounds the four small regions in the vicinity of the small region of interest is the surrounding small region. It is good to be an area. For example, as shown in FIG. 5A, the small region in the vicinity of 4 is a small region of interest P.224 small areas P on the top, bottom, left and right12, P32, P21, P23Say. If comprised in this way, the small area | region of maximum height can be easily obtained from a spatiotemporal image.
[0011]
Further, as described in claim 5, in the passing object counting method according to claim 4, the attention small region P22Small region P in the vicinity of 811, P12, P13, P21, P23, P31, P32, P33(For example, see FIG. 5A), a small region within a certain height range from the maximum height is set as a partial region belonging to the maximum small region, and each of the small regions of the contour of the partial region Of the eight subregions in the vicinity, the partial region after repeating a predetermined number of operations for adding a small region within a certain height range from the maximum height to the partial region is determined as the collective region. Step S2 may be provided (see, for example, FIG. 5B).
[0012]
In order to achieve the above object, the passing object counting apparatus 10 according to the sixth aspect of the present invention passes the reference line 1 on the plane 2 along the plane 2 as shown in FIGS. 1 and 3B, for example. In the passing object counting device 10 that counts the passing object 5 that passes through; the spatio-temporal image of the passing object 5 on the reference line 1 and the heights of portions corresponding to a plurality of regularly arranged small regions on the spatio-temporal image Imaging devices 11 and 12 for acquiring information; a maximum extraction means 30 for extracting a small region having a maximum height from the plurality of small regions; a small region surrounding the extracted small region, A set area determining means 31 for obtaining a set area obtained by collecting small areas within a certain range from the maximum height; and a comparison for comparing the area of the set area obtained by the set area determining means 31 with a predetermined threshold value Means 32; surface of the gathering area There an adding means 32 for counting the one count when the larger becomes than the threshold value. Typically, the spatiotemporal image is acquired from the imaging devices 11 and 12 via the processing device 20. That is, the processing device creates a spatiotemporal image from the imaging signals from the imaging devices 11 and 12.
[0013]
For example, as shown in FIG. 12, the surface on which the passing object 5 moves is not limited to a horizontal plane, but may be a surface 2 'inclined like a slope or a staircase. However, for example, as shown in FIG. 12A, height information and speed information are corrected according to the inclination angle as necessary.
[0014]
The reference line 1 that intersects the traveling direction of the passing object 5 is preferably a line perpendicular to the traveling direction of the passing object 5. The depth direction is typically a direction perpendicular to a plane or a vertical direction. For the same traveling direction, the traveling direction has a positive direction and a negative direction.
[0015]
If comprised in this way, since the imaging devices 11 and 12 and the maximum extraction means 30 are provided, a spatiotemporal image will be acquired using the imaging devices 11 and 12, and the maximum height of the passing object 5 on the spatiotemporal image will be obtained. A small region having a certain height maximum can be extracted. In addition, since the collection area determination means 31 and the addition means 32 are provided, a collection area obtained by collecting small areas in a certain height range from the maximum height is obtained, and the area of the collection area is larger than the threshold value One count can be performed.
[0016]
According to a seventh aspect of the present invention, in the passing object counting device according to the sixth aspect of the present invention, the imaging device is an imaging in which a plurality of pixels corresponding to the small region forming the spatiotemporal image are arranged. It is preferable to have an element.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. In addition, in each figure, the same code | symbol or a similar code | symbol is attached | subjected to the mutually same or equivalent member, and the overlapping description is abbreviate | omitted.
[0018]
FIG. 1 is a schematic perspective view of a passing object counting device 10 (hereinafter referred to as “counting device 10” as appropriate) according to an embodiment of the present invention. In the figure, the passing object 5 moves in the traveling direction on a horizontal passage 2 which is a plane. An orthogonal coordinate system XYZ is taken so that the XY axis is placed in the passage 2, and the passage 2 extends in parallel with the Y axis. Further, a counting line 1 which is a reference line is taken perpendicular to the extending direction of the passage 2, that is, parallel to the X axis. The traveling direction of the passing object 5 is typically parallel to the extending direction of the passage 2, that is, the Y axis. The passing object 5 is a person in the present embodiment. In the present embodiment, the counting line 1 is perpendicular to the extending direction of the passage 2, but it does not have to be particularly perpendicular. If it is not vertical, the parallax and the speed may be corrected by the angle with the X axis. The counting line 1 is a reference line for counting the passing objects 5 that have passed through this line, and may be a virtual line, and does not need to be physically drawn in the path 2.
[0019]
On the other hand, in order to image the passing object 5 passing through the counting line 1 of the passage 2 above the counting line 1 of the passage 2 in the figure in a vertical direction above the counting line 1 of the passage 2 at a height sufficient to pass the person 5 as a passing object. The first imaging device 11 and the second imaging device 12 are installed. The first imaging device 11 and the second imaging device 12 are installed in parallel at an appropriate interval so that they are parallel to the counting line 1 and the optical axis is parallel to the Z axis. The height sufficient for the person 5 to pass here is, for example, about 3000 mm. Further, the appropriate interval is, for example, about 50 mm.
[0020]
An example of the configuration of the passing object counting device 10 will be described with reference to FIG. The counting device 10 includes a first CCD camera 11 as a first imaging device, a second CCD camera 12 as a second imaging device, and a personal computer 13 as an arithmetic device.
[0021]
The first CCD camera 11 and the second CCD camera 12 are connected to a personal computer 13 so that the personal computer 13 can acquire images captured by the first CCD camera 11 and the second CCD camera 12, respectively. It is configured.
[0022]
The personal computer 13 includes a control unit 14 and controls the counting device 10 as a whole. An imaging device interface 15 is connected to the control unit 14, and the first CCD camera 11 and the second CCD camera 12 are connected to the control unit 14 via the imaging device interface 15 and controlled. Yes.
[0023]
In the control unit 14, the height of the passing object 5, which is the height information of the passing object 5, is acquired in time series from the stereo images acquired by the first CCD camera 11 and the second CCD camera 12. A comparison calculation unit 20 that creates a spatiotemporal image and a counting calculation unit 21 that counts the passing object 5 from the created spatiotemporal image of the passing object 5 are provided. The comparison calculation unit 20 may acquire the speed of the passing object 5 that is the speed information of the passing object 5 in time series in association with the height information when acquiring the height information.
[0024]
A storage unit 18 is connected to the control unit 14 and can store data such as images captured by the first CCD camera 11 and the second CCD camera 12 and calculated information.
[0025]
Further, an input device 16 for inputting information for operating the counting device 10 and an output device 17 for outputting a result processed by the counting device 10 are connected to the control unit 14. The input device 16 is, for example, a keyboard or a mouse, and the output device 17 is, for example, a display or a printer. Although the input device 16 and the output device 17 are illustrated as externally attached to the personal computer 13 in this figure, they may be built in.
[0026]
Further, as shown in FIG. 3, an image processing unit 25 that processes an image captured by the CCD camera, an image captured by the first CCD camera, and an image captured by the second CCD camera are included in the comparison operation unit 20. Corresponding point search unit 26 for obtaining corresponding points from the obtained image, height information calculating unit 27 for calculating the height that is the height information of the passing object 5, and speed information calculation for calculating the speed that is the speed information of the passing object 5. The unit 28 includes a spatiotemporal image creation unit 29 that creates a spatiotemporal image by arranging the calculated height information in the time direction (FIG. 3A). Processing the image includes, for example, acquiring the first image and the second image from the imaging signals from the first CCD camera 11 and the second CCD camera 12. In this embodiment, a spatiotemporal image obtained from an image picked up by a CCD camera is represented by a plurality of pixels, which are a plurality of small regions, arranged in a grid pattern. Here, the pixels on the spatio-temporal image do not need to correspond one-to-one with the pixels on the imaging surface of the CCD camera. For example, the former one pixel may correspond to the latter four pixels.
[0027]
Further, in the count calculation unit 21, a maximum extraction unit 30 that extracts a pixel having a maximum height, which is a small region having a maximum height, from the created spatiotemporal image, and a pixel surrounding the maximum height region is used to determine the maximum height. A region calculation unit 31 for obtaining a collection region that is a set of pixels in a certain height range, and a counting unit 32 that compares the area of the collection region with a threshold and counts the passing object 5 when the area is larger than the threshold. It has.
[0028]
With reference to the flow of FIG. 4, an embodiment of the passing object counting method of the present invention will be described as an operation of the counting device 10 according to the embodiment. First, the comparison operation unit 20 in the control unit 14 of the personal computer 13 performs spatiotemporal image formation as an image formation process (step 0 (displayed as “S0” in the figure, the same applies hereinafter)). As a result, a spatio-temporal image represented by a plurality of pixels having the height information of the passing object 5 is created from the imaging signals from the imaging devices 11 and 12. In the present embodiment, this height information is expressed by luminance. This luminance is represented by a luminance value of 0 to 255 corresponding to a height of about 0 to 185 cm. The spatiotemporal image may be acquired in any way, but a method of acquiring the spatiotemporal image described with reference to FIG. 4 described later may be used.
[0029]
Next, the count calculation unit 21 acquires a spatiotemporal image from the comparison calculation unit 20, and the maximum extraction unit 30 extracts a maximum pixel that is a pixel having a maximum height, that is, a maximum luminance value on the spatiotemporal image. The maximum pixel extraction is performed as an extraction process (step 1). For example, as shown in FIG. 5 (a), the extraction method starts with one pixel P on the space-time image.22Pay attention to. Pixel of interest P22When all of the four neighboring pixels are less than or equal to the luminance value of the target pixel (including the case where they are equal), the target pixel is determined to be the maximum pixel. The 4 neighborhoods of the target pixel are, for example, the upper P of the target pixel.12(Upper in the figure) Lower P32(Bottom) Right P23(Right in the figure) Left P21This refers to the four pixels (left in the figure). Note that a plurality of maximum pixels may exist on one spatiotemporal image, and the plurality of maximum pixels may be adjacent or close to each other, or may be scattered apart from each other.
[0030]
Then, the extracted local maximum pixel is subjected to expansion processing as a collective region determination step by the region calculating unit 31 (step 2) to obtain a collective region. When there are a plurality of maximum pixels on one spatiotemporal image, the same number of collection regions as the maximum pixels are obtained. In particular, when a plurality of maximum pixels are adjacent or close to each other, a plurality of collection regions obtained from these maximum pixels may be set as one collection region.
[0031]
Here, the expansion process will be described with reference to FIG. First, one extracted maximum pixel P22Pixel P in the vicinity of11, P12, P13, P21, P23, P31, P32, P33If each pixel of interest near 8 is within a certain range of the luminance value of the maximum pixel, this pixel is included in the partial region (P11~ P33(Not shown in (b)). The certain range here may be determined according to the characteristics of the passing object to be counted. However, when the target is a person, it is within 10% of the luminance value of the maximum pixel (the luminance value of the maximum pixel is 100%). In this case, it is desirable that the range be 90% or more. Further, if the average value of the luminance values of the eight neighboring pixels is within a certain range of the luminance values of the maximum pixels, all the eight neighboring pixels may be included in the partial area.
[0032]
Next, attention is paid to 8 neighborhoods of each pixel of the contour of this partial area (for example, the pixel P in FIG. 5A).33Pixel P22, P23, P24, P32, P34, P42, P43, P44) If each pixel of interest in the vicinity of 8 is within a certain range of the luminance value of the maximum pixel in this partial area, this pixel is included in the partial area. This process is repeated a predetermined number of times. The predetermined number of times is typically about 50, but may be appropriately determined according to conditions. Increasing the number of times converges to a certain area. After convergence, the area does not change even if it is repeated more times.
[0033]
By this expansion processing, a partial region including pixels within a certain range of the luminance value of the maximum pixel can be obtained as a collective region. In addition, the maximum pixel in this process is a pixel having a maximum luminance value in one collective region (in some cases, a plurality of pixels are present).
[0034]
As shown in FIG. 6, the above expansion processing is processing for obtaining a region (aggregation region) from the maximum height of the plurality of passing objects 5 present on the spatiotemporal image to a certain height. Since the obtained spatio-temporal image is a grayscale image in which the height of the passing object is expressed by luminance, the region of luminance within a certain value can be the maximum cross-sectional area of the passing object up to a certain height. . That is, the expansion process is a process for extracting a cross section of the head portion of a person who is a passing object from the obtained spatiotemporal image. By extracting the cross section of the head portion of the person, for example, even when two persons 5 pass very close to each other, the two persons can be distinguished by obtaining the cross section of the head.
[0035]
Returning to the flowchart of FIG. Next, the collection area obtained by the above-described expansion process is labeled (step 3). Labeling refers to attaching, for example, a number or a code for identifying each region. Then, the area value of the collective region labeled as the comparison step is compared with a preset threshold value (step 4). If the area value is larger than the threshold value (step 4 is Y), one person 5 passes. As a result, counting as an adding step is performed (step 5). Also, if the aggregate area is an aggregate area that has already been counted, it is not counted. At this time, the traveling direction or speed of the area may be obtained in advance, and the traveling direction of the person 5 that has passed may be distinguished according to the traveling direction and reflected in the count. If the area value is smaller than the threshold (step 4 is N), it is determined that the person is not a person 5 and is not counted (step 6).
[0036]
In the above embodiment, the case where the speed information is not acquired has been described. However, this method can be used when the moving speed is almost constant in one way such as an amusement park entrance. In this case, the amount of calculation is small compared with the method of acquiring the speed information, so that high-speed processing is possible.
[0037]
Also, the velocity of the passing object is calculated from the area value of the collective area obtained by the expansion process, and the area value is weighted to the area value of the collective area at a speed corresponding to the labeled collective area described above. It may be calculated (step 7 (indicated by a broken line in the figure)). The reason why the area value is weighted by speed is that, for example, for a person with a high passing speed, the passing speed and the number of passing frames are inversely proportional to each other. A spatio-temporal image generally means an image including a time axis in at least one dimension. Here, an image in which the time axis disappears as a result of weighting the spatio-temporal image with speed is also referred to as a spatio-temporal image for convenience.
[0038]
Furthermore, since there are positive and negative directions of travel, when counting, give the sign of the sign of the direction of travel of the passing object to the speed information that weights the area value of the gathering area. Thus, the direction of travel of the passing object can be distinguished and counted according to the sign of the area value. As a speed information calculation method, for example, a method of acquiring speed information described later with reference to FIG. 9 may be used.
[0039]
In this way, by using the method of obtaining the speed information of the passing object, and calculating the area value by weighting the area value of the collective region at a speed corresponding to the collective region, for example, like a passage in a station premises, Even in the case of face-to-face traffic and the movement speed of each person being different, counting can be performed with high accuracy. It is desirable to use this method for actual counting.
[0040]
The preset threshold is typically the maximum cross-sectional area value of the head of the smallest person among the persons 5 to be counted. There is no significant difference in the cross-sectional area value of the head even when comparing an adult and a child.For example, if the cross-sectional area value of the child's head is set as a threshold, Both adults and children can accurately count without miscounting.
[0041]
In the above counting method, counting is performed if the area value of the collective region is larger than the threshold value. However, if the area value of the collective region is equal to or greater than a certain value, the count value may not be counted. That is, the maximum possible human cross-sectional area of an adult may be set as the second threshold, and the area value may be smaller than the second threshold. In this way, it is possible to prevent counting of passing objects (for example, luggage) having a large cross-sectional area, so that the counting accuracy can be further improved.
[0042]
An example of a method for acquiring a spatiotemporal image will be described with reference to the flow of FIG. Here, an image captured by the first CCD camera 11 is described as a left image, and an image captured by the second CCD camera is described as a right image. First, the control unit 14 of the personal computer 13 acquires the left image and the right image captured by the first CCD camera 11 and the second CCD camera 12 as a stereo image via the imaging device interface 15 (step 10).
[0043]
The control unit 14 acquires, from the acquired stereo image, the left image of the t frame that is the first image as an image captured at a certain time t by the image processing unit 25 in the control unit 14 (step 12). . Further, a right image of a t + Δt frame, which is a second image taken at time t + Δt after Δt has elapsed from time t, is acquired (step 13).
[0044]
Actually, the first CCD camera and the second CCD camera pick up images at each time point simultaneously and in parallel, and the time point t as the first image is shifted by one frame or more as the second image. You may make it employ | adopt the image of t + (DELTA) t. At this time, Δt may be appropriately determined according to the setting conditions of the counting device 10, but it is desirable that Δt be the time from when a certain frame N is imaged until the next frame N + 1 is imaged.
[0045]
Next, edge extraction of the left image of t frame is performed (step 14), and it thins (step 15). Then, the corresponding point search of the right image of the t + Δt frame is performed using the edge points on the counting line 1 of the left image of the t frame (step 16). Edge extraction, thinning, and corresponding point search will be described later with reference to FIG.
[0046]
Next, height information is calculated from the corresponding points obtained by the corresponding point search (step 17). Here, a non-background portion is defined in advance by background removal, and linear interpolation for reflecting the value at the edge point is performed on the portion (step 18). A method for calculating the height information will be described later with reference to FIGS.
[0047]
The obtained height information is arranged in the time direction to create a spatiotemporal image including the height information of the person 5 (step 19).
[0048]
Next, T is the elapsed time since the first frame was acquired.1Is a preset time T0Is judged (step 20). T1Is the predetermined time T0(Step 20 is Y), the predetermined time T0Can be acquired (step 21). T1Is the predetermined time T0Is not passed (N in step 20), the next frame is acquired and the spatiotemporal images are arranged in the time direction. The determination in step 20 may be made when the number of acquired frames reaches a predetermined number of frames instead of the elapsed time. Predetermined time T0For example, it is appropriate to set the time to about 20 seconds due to the limitation of the capacity of the storage device.
[0049]
In addition, when the speed of the passing object is required by the above-described counting method (for example, when the area of the gathering area is weighted by speed), it is obtained by the above-described corresponding point search as indicated by a broken line in the figure. The speed information is also calculated from the corresponding points (step 22). Then, linear interpolation is performed in the same manner as the height information (step 23). In this way, speed information is acquired (step 24). A method for calculating the speed information will be described later with reference to FIG.
[0050]
The corresponding point search will be described in more detail with reference to FIG. Here, although a person is expressed by hatching as a passing object in each illustrated frame, this does not indicate a cross section but merely represents a person imaged from above.
[0051]
Here, in order to obtain height information, corresponding points of two images are obtained. First, the correspondence between the left image of t frame and the right image of t + Δt frame is obtained. At this time, the correspondence relationship is not clearly determined for pixels having no feature in the neighboring region. Therefore, the search is performed according to the following flow.
[0052]
First, edge extraction of the left image of t frame is performed to obtain a thinned image, and corresponding point search is performed only at the edge point. Edge extraction refers to extracting a contour, which is a set of edge points of a target passing object, from an image acquired with shading and specifying the coordinates, for example, with coordinates. Thinning refers to, for example, converting an image obtained by edge extraction into an image in which only the outline of a passing object obtained by edge extraction is indicated by a thin line.
[0053]
In order to perform the corresponding point search, first, a point on the specified outline of the left image of the t frame is selected as an edge point, and a window is set in a neighborhood region including the edge point on the grayscale image. Typically, an edge point on the counting line is selected. An edge point is typically an intersection of the fine line and the count line, and usually there are a plurality of edge points, typically 10 to 20 points. For example, the leftmost point among the plurality of edge points is first selected. The window may be set so that the selected edge point is the center. Then, the window is set to the right image of the t + Δt frame with reference to the set window.
[0054]
With respect to these windows, the correlation between the gray values of the left image of t frame and the right image of t + Δt frame is obtained using Equation 1 shown in FIG. Where IL(I, j) and IR(I, j) are the gray values in the windows on the left and right images, and μL , μR , σL , σRAre the mean and variance of the gray values in the left and right windows, respectively. C takes a value within a range from −1 to +1. The C value is calculated in each window while moving the window of the right image little by little with respect to the selected edge point of the left image, for example, parallel to the count line and moving in the direction orthogonal to the count line. The window of the right image that gives the maximum value among C obtained in this way is regarded as a local region corresponding to the selected window of the left image.
[0055]
That is, the left and right image windows are correlated as described above, and the right image window corresponding to the window including the edge point selected in the left image (C is maximized) is searched. The center of the window of the right image obtained by this search becomes the edge point of the right image corresponding to the edge point of the left image selected previously.
[0056]
The search for the window is performed, for example, in a direction parallel to the count line (X-axis direction) and a vertical direction (Y-axis direction). For example, when the passing object is a person, the direction parallel to the counting line is regarded as a parallax between the left and right images as will be described later. What is necessary is just to search the width | variety of parallax to be performed. Since the vertical direction is regarded as the movement amount of the person as will be described later, the width of the movement amount that the person is expected to move during the time Δt may be searched with reference to the window of the left image that has already been set. If the value of C is increasing in the direction of search, the value of C is further maximized, and the search is continued in the same search direction until the downward trend is reached. You may make it select the window where the value of C becomes the maximum in the already searched range.
[0057]
If the window search is performed in this way, it is not necessary to correlate the windows of the left and right images of the part that clearly does not need to be searched, so that the amount of calculation can be further reduced. As described above, the corresponding points are searched for all the edge points existing in the left image, and the corresponding edge points of the left and right images are obtained.
[0058]
The calculation of depth information and speed information will be described in more detail with reference to FIG. First, a vector connecting corresponding edge points of the left and right images obtained above is considered, and this is separated into a horizontal component (X-axis direction component) and a vertical component (Y-axis direction component). The horizontal component can be viewed as an amount representing the parallax between the left and right images, and the distance to the target passing object can be calculated using this parallax. On the other hand, the vertical component can be regarded as the amount of movement of the attention point in the direction along the path, and based on this, the speed information of the passing object can be obtained. In this way, the three-dimensional height that is the depth information at the edge point and the speed that is the speed information can be collectively obtained in pairs.
[0059]
Since the speeds obtained for one passing object should normally be equal, it is not necessary to obtain the speeds for all the edge points. For example, the speed of the point closest to the center may be adopted. Alternatively, the speed of each edge point is obtained, and an edge point having a protruding value may be re-searched as a search error, or the point may be rejected. Or you may obtain | require all the speed | velocity | rate of each edge point, calculate those average values, and may employ | adopt as the speed | velocity | rate of the object.
[0060]
In addition, for the above-described weighting by speed, the speed for each point may be used, or the speed of the passing object obtained by the average value may be used in common for each point.
[0061]
Here, the left and right images are images that are shifted in time by Δt. However, if Δt is a sufficiently small value, the left and right images do not have a difference enough to support parallax. Conversely, Δt may be determined as such. That is, the length is sufficient to obtain the speed information without any problem for obtaining the parallax. For example, when the target passing object is a pedestrian, it is set to about 1/60 to 1/10 seconds, particularly 1/40 to 1/20 seconds, and more preferably about 1/30 seconds.
[0062]
Here, with reference to FIG. 10, the calculation method of the height z from the plane as the height information of the target passing object will be described. The distance a to the target passing object 5 can be calculated using Expression 2 shown in FIG. Here, w is the distance between the CCD cameras (baseline length), f is the focal length of the CCD camera when the imaging lens is a single lens, and d is the parallax on the imaging surface of the CCD camera. The focal length here is the focal length of the combination lens when a commonly used combination lens is used. Further, if the distance from the imaging lens of the CCD camera to the counting line 1 is h, the height z of the target passing object 5 is calculated by Equation 3 shown in FIG.
[0063]
In the above embodiment, the height information and the speed information are obtained from the left image at the time point t and the right image at the time point t + Δt. However, the height information is acquired from the left image and the right image at the time point t, The speed information may be acquired from the left or right image of t + Δt.
[0064]
A case where the passing object 5 moves on the slope will be described with reference to FIG. For example, when the passing object 5 is moving on an inclined surface 2 ′ such as a staircase or a slope, the plane 2 is a virtual plane 2 perpendicular to the line connecting the reference line 1 and the first and second imaging devices 11 and 12. It is good to do.
[0065]
If the target passing object 5 is a person, it stands in the vertical direction even if it is a slope, so the optical axis of the CCD camera is directed in the vertical direction (FIG. 12A). In this case, the virtual plane 2 is a horizontal plane. In this example, for example, when the angle formed between the inclined surface 2 ′ and the virtual plane 2 is θ, the time of the passing object 5 moving on the inclined surface 2 ′ is obtained in order to obtain the height of the passing object 5 from the virtual plane 2. A value obtained by multiplying the amount of movement of Δt by tan θ may be subtracted from the calculated height of the passing object 5 moving on the slope 2 ′.
[0066]
If the target passing object 5 is, for example, a car, the slope may be used as it is as the plane 2 of the present invention. In this case, the optical axis of the CCD camera is directed in a direction perpendicular to the inclined surface (FIG. 12B).
[0067]
As described above, according to the embodiment of the present invention, compared with the conventional counting method of cutting a spatio-temporal image, for example, 20 sec (predetermined time T0= 20 sec), the time for processing the spatio-temporal image can be shortened from 160 sec to 21 sec, so that the processing speed can be greatly increased.
[0068]
【The invention's effect】
As described above, according to the present invention, since the image forming step, the maximum extraction step, and the gathering region determination step are provided, the spatiotemporal image to which the height information is allocated can be acquired. It is possible to extract a small region with a maximum height from, and obtain a set region where a small region within a certain height range from the maximum height is gathered, and since it includes a comparison step and an addition step, Compare the area of the gathering area with a predetermined threshold value, and can count one count when it exceeds the threshold value. An object counting device and a counting method can be provided.
[Brief description of the drawings]
FIG. 1 is a schematic perspective block diagram showing an outline of a passing object counting apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration example of a passing object counting apparatus according to an embodiment of the present invention.
FIG. 3 is a block diagram showing a configuration example (a) of a comparison calculation unit and a configuration example (b) of a count calculation unit used in the embodiment of the present invention.
FIG. 4 is a flowchart showing an example of the operation of the passing object counting device according to the embodiment of the present invention or a passing object counting method according to the embodiment of the present invention.
FIG. 5 is an image diagram for explaining a processing example in the case of performing expansion processing in the embodiment of the present invention.
FIG. 6 is a diagram illustrating expansion processing according to the embodiment of the present invention.
FIG. 7 is a flowchart showing an example of a method for acquiring a spatiotemporal image or an example of an operation of a passing object counting device according to an embodiment of the present invention in an embodiment of the present invention.
FIG. 8 is an image diagram for explaining a processing example when searching for corresponding points between the first image and the second image in the embodiment of the present invention.
FIG. 9 is an image diagram for explaining a vector connecting corresponding points of the first image and the second image in the case of FIG. 8;
FIG. 10 is a stylized front view for explaining a method of calculating the height of a passing object from parallax between the first imaging device and the second imaging device in the embodiment of the present invention.
FIG. 11 is a diagram showing a calculation formula used in the description of the embodiment of the present invention.
FIGS. 12A and 12B are diagrams illustrating a case of counting by a virtual plane (a) and a case of using a slope as a plane of the present invention (b) as an example of a method of counting passing objects moving on an inclined surface.
[Explanation of symbols]
1 Count line
2 passage
5 passing objects
10 Passing object counting device
11 First CCD camera
12 Second CCD camera
13 Arithmetic unit
14 Control unit
15 Imaging device interface
16 input devices
17 Output device
18 Storage unit
20 Comparison operation part
21 Counting calculator
25 Image processing section
26 Corresponding point search unit
27 Height information calculator
28 Speed information calculator
29 Space-time image generator
30 maximum extraction part
31 Area calculation part
32 counter

Claims (6)

平面に沿って該平面上の基準線を通過する通過物体を計数する通過物体計数方法において;
前記通過物体の前記基準線における時空間画像であって、該時空間画像上の規則的に配列された複数の小領域に、記通過物体の前記小領域に対応する部分の前記平面からの高さ情報が振り当てられた時空間画像を形成する画像形成工程と;
前記複数の小領域から、高さ極大の小領域を抽出する極大抽出工程と;
前記抽出された小領域を囲む小領域であって、前記極大高さから一定の高さ範囲にある小領域を集合した集合領域を求める集合領域決定工程と;
前記集合領域決定工程で求められた集合領域の面積を予め定められた第1の閾値と比較する比較工程と;
前記集合領域の面積が前記第1の閾値よりも大なるときに1カウントの計数を行なう加算工程とを備える;
通過物体計数方法。
In a passing object counting method of counting passing objects passing a reference line on a plane along a plane;
A space-time image in the reference line of the passage body, a plurality of small regions which are regularly arranged on said time-space image, from the plane of the portion corresponding to the small region before Symbol passing object An image forming process for forming a spatio-temporal image to which height information is assigned;
A maximum extraction step of extracting a small region having a maximum height from the plurality of small regions;
A collective region determining step for obtaining a collective region that is a small region surrounding the extracted small regions and that is a collection of small regions within a certain height range from the maximum height;
A comparison step of comparing the area of the collection region determined in the collection region determination step with a predetermined first threshold;
An addition step of counting 1 count when the area of the aggregate region is greater than the first threshold;
Passing object counting method.
前記高さ情報に対応させて前記基準線に交差し前記平面に平行な進行方向の速度情報を取得する工程と;
前記集合領域の面積に前記速度情報で重み付けする工程備え
前記比較工程は、前記集合領域の面積に代えて、前記重み付けする工程で重み付けされた面積を予め定められた第2の閾値と比較し、
前記加算工程は、前記集合領域の面積に代えて、前記重み付けされた面積が前記第2の閾値よりも大なるときに1カウントの計数を行なう、
請求項1に記載の通過物体計数方法。
Obtaining velocity information in a traveling direction that intersects the reference line and is parallel to the plane in correspondence with the height information;
Comprising the step of weighting by the speed information on the area of the set region;
The comparison step compares the area weighted in the weighting step with a predetermined second threshold value instead of the area of the collective region,
In the adding step, instead of the area of the collective region, a count of 1 count is performed when the weighted area is larger than the second threshold value.
The passing object counting method according to claim 1.
前記複数の小領域の1つの小領域に注目し、高さ情報に基づき、前記注目小領域を取り囲む小領域の高さと該注目小領域の高さとを比較して、前記取り囲む小領域のいずれの高さよりも前記注目小領域の高さが高いか又は等しいときに、該注目小領域を前記極大の小領域とする、
請求項1または請求項2に記載の通過物体計数方法。
Pay attention to one small area of the plurality of small areas, and based on the height information, compare the height of the small area surrounding the small area of interest with the height of the small area of interest, and When the height of the small region of interest is equal to or higher than the height, the small region of interest is the small region of the maximum,
The passing object counting method according to claim 1 or 2.
前記複数の小領域は碁盤目状に配列され、前記注目小領域の4近傍の小領域を、前記取り囲む小領域とする、
請求項3に記載の通過物体計数方法。
The plurality of small areas are arranged in a grid pattern, and a small area in the vicinity of 4 of the target small area is defined as the surrounding small area.
The passing object counting method according to claim 3.
前記注目小領域の8近傍の小領域のうち、前記極大高さから一定の高さ範囲にある小領域を前記極大の小領域に所属する部分領域とし、該部分領域の輪郭の小領域の各々について8近傍の小領域のうち、前記極大高さから一定の高さ範囲にある小領域を前記部分領域に加える操作を、予め定められた回数だけ繰り返した後の部分領域を前記集合領域として確定する工程を備える、
請求項4に記載の通過物体計数方法。
Of the small regions in the vicinity of 8 of the target small region, a small region within a certain height range from the maximum height is set as a partial region belonging to the maximum small region, and each of the small regions of the outline of the partial region The partial area after repeating the operation of adding a small area within a certain height range from the maximum height to the partial area among the small areas in the vicinity of 8 is determined as the set area. Comprising the steps of:
The passing object counting method according to claim 4.
平面に沿って該平面上の基準線を通過する通過物体を計数する通過物体計数装置において;
前記通過物体の前記基準線における時空間画像と、前記時空間画像上の規則的に配列された複数の小領域に対応する部分の高さ情報とを取得する撮像装置を備え;
前記複数の小領域から、高さ極大の小領域を抽出する極大抽出手段と;
前記抽出された小領域を囲む小領域であって、前記極大高さから一定の高さ範囲にある小領域を集合した集合領域を求める集合領域決定手段と;
前記集合領域決定手段で求められた集合領域の面積を予め定められた閾値と比較する比較手段と;
前記集合領域の面積が前記閾値よりも大なるときに1カウントの計数を行なう加算手段とを備える;
通過物体計数装置。
In a passing object counting device for counting passing objects passing through a reference line on a plane along a plane;
An imaging device that acquires a spatiotemporal image of the passing object at the reference line and height information of portions corresponding to a plurality of regularly arranged small regions on the spatiotemporal image;
A maximum extraction means for extracting a small region having a maximum height from the plurality of small regions;
A collection area determination means for obtaining a collection area that is a collection of small areas that surround the extracted small area and that is within a certain height range from the maximum height;
Comparing means for comparing the area of the set area determined by the set area determining means with a predetermined threshold;
Adding means for counting one count when the area of the aggregate region is larger than the threshold;
Passing object counting device.
JP2001000648A 2001-01-05 2001-01-05 Passing object counting method and counting apparatus Expired - Fee Related JP4633942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001000648A JP4633942B2 (en) 2001-01-05 2001-01-05 Passing object counting method and counting apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001000648A JP4633942B2 (en) 2001-01-05 2001-01-05 Passing object counting method and counting apparatus

Publications (2)

Publication Number Publication Date
JP2002207989A JP2002207989A (en) 2002-07-26
JP4633942B2 true JP4633942B2 (en) 2011-02-16

Family

ID=18869398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001000648A Expired - Fee Related JP4633942B2 (en) 2001-01-05 2001-01-05 Passing object counting method and counting apparatus

Country Status (1)

Country Link
JP (1) JP4633942B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103942598A (en) * 2013-01-21 2014-07-23 新谊整合科技股份有限公司 Counting system and method of objects

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055425A (en) * 1996-08-08 1998-02-24 Tokyo Electric Power Co Inc:The Device for monitoring waterway flowing in/out object
JP2002170096A (en) * 2000-11-30 2002-06-14 Sumitomo Osaka Cement Co Ltd Passing object count device and count method
JP2002175513A (en) * 2000-12-07 2002-06-21 Sumitomo Osaka Cement Co Ltd Device and method for counting passing body

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055425A (en) * 1996-08-08 1998-02-24 Tokyo Electric Power Co Inc:The Device for monitoring waterway flowing in/out object
JP2002170096A (en) * 2000-11-30 2002-06-14 Sumitomo Osaka Cement Co Ltd Passing object count device and count method
JP2002175513A (en) * 2000-12-07 2002-06-21 Sumitomo Osaka Cement Co Ltd Device and method for counting passing body

Also Published As

Publication number Publication date
JP2002207989A (en) 2002-07-26

Similar Documents

Publication Publication Date Title
US20210191524A1 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP6519262B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP4650079B2 (en) Object detection apparatus and method
US7437243B2 (en) Detecting device and method to detect an object based on a road boundary
KR100519782B1 (en) Method and apparatus for detecting people using a stereo camera
KR101870902B1 (en) Image processing apparatus and image processing method
US7899211B2 (en) Object detecting system and object detecting method
JPH1166319A (en) Method and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person
JP7091686B2 (en) 3D object recognition device, image pickup device and vehicle
JPH11282999A (en) Instrument for measuring mobile object
CN109791607A (en) It is detected from a series of images of video camera by homography matrix and identifying object
JP6753134B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and image processing program
JP4067340B2 (en) Object recognition device and object recognition method
JP4633942B2 (en) Passing object counting method and counting apparatus
JP3629935B2 (en) Speed measurement method for moving body and speed measurement device using the method
JP4825349B2 (en) Passing object counting device and counting method
KR20090083184A (en) Method for dectecting front and rear vehicle by using image
JP4825350B2 (en) Passing object counting device and counting method
JPH10269365A (en) Characteristic extracting method, and object recognition device using the method
JP5903901B2 (en) Vehicle position calculation device
JP2013148354A (en) Vehicle position calculation device
JP4697761B2 (en) Queue detection method and queue detection apparatus
JP2005140754A (en) Method of detecting person, monitoring system, and computer program
JP4055785B2 (en) Moving object height detection method and apparatus, and object shape determination method and apparatus
JPH10283478A (en) Method for extracting feature and and device for recognizing object using the same method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101118

R150 Certificate of patent or registration of utility model

Ref document number: 4633942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees