JP3923870B2 - Passing vehicle measuring device, passing vehicle measuring program, and passing vehicle measuring method - Google Patents

Passing vehicle measuring device, passing vehicle measuring program, and passing vehicle measuring method Download PDF

Info

Publication number
JP3923870B2
JP3923870B2 JP2002236374A JP2002236374A JP3923870B2 JP 3923870 B2 JP3923870 B2 JP 3923870B2 JP 2002236374 A JP2002236374 A JP 2002236374A JP 2002236374 A JP2002236374 A JP 2002236374A JP 3923870 B2 JP3923870 B2 JP 3923870B2
Authority
JP
Japan
Prior art keywords
vehicle
road
image
gravity
hidden
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002236374A
Other languages
Japanese (ja)
Other versions
JP2004078459A (en
Inventor
高洋 上床
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2002236374A priority Critical patent/JP3923870B2/en
Publication of JP2004078459A publication Critical patent/JP2004078459A/en
Application granted granted Critical
Publication of JP3923870B2 publication Critical patent/JP3923870B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、道路を通過する車両台数等を計測する通過車両計測装置、通過車両計測プログラム、および通過車両計測方法に関するものである。
【0002】
【従来の技術】
従来、道路上に設置したカメラに車両の画像を撮影して当該画像上で交通流監視や車両走行挙動解析などを行っている。
【0003】
【発明が解決しようとする課題】
しかし、道路ではカメラの設置位置に制限があるため、走行車両の車両距離が短くなって当該カメラで撮像した画像上で重なって見えなくなり、特に大型車両の後ろに重なって見えなくなり、追跡が途絶するという問題があった。これに対して、車間距離特性や加速度などの車両の動きをモデル化し、次撮影時の車両の座標値を予測することによって、車両ごとの追跡を行うことが行われているが、これでは、車両の速度や位置の急激な変化に追従できないという問題がある。
【0004】
本発明は、これらの問題を解決するため、カメラで後方から道路上の車両を撮影した画像をもとに、道路上に投影したときの車両面積の重なりから隠れた車両を判定し、通過車両計測時などに後続車が大型者などで先行する車が隠れてしまって検出できない事態を解消し、隠れ車両を高精度に検出して追跡などすることを目的としている。
【0005】
【課題を解決するための手段】
図1を参照して課題を解決するための手段を説明する。
【0006】
図1において、カメラ10は、道路上の車両の画像を撮影して取り込むためのものである。
【0007】
画像処理装置1は、道路上の車両の画像をもとに、隠れ車両があるときに当該隠れ車両を検出したりなどするものであって、ここでは、車両検出手段5、隠れ車両有無判定手段6、隠れ車両検出手段7などから構成されるものである。
【0008】
車両検出手段5は、画像上で車両を検出するものである。
隠れ車両有無判定手段6は、画像上で隠れ車両の有無を判定するものである。
【0009】
隠れ車両検出手段7は、画像上で隠れ車両を検出するものである。
次に、動作を説明する。
【0010】
カメラ10によって道路上を走行する車両を後方から撮影して画像を取り込み、車両検出手段5が取り込んだ画像上で車両を検出し、検出した車両の道路上への投影面積と重心位置を算出し、隠れ車両有無判定手段6が車両の重心位置と前回算出した車両の重心位置との差が所定値以内の車両を見つけることを繰り返し、今回、見つからない車両を隠れ車両と推定し、隠れ車両検出手段7が推定した隠れた車両の前回の道路上への投影面積および今回の推定位置と、今回検出された全ての車両の道路上への投影面積および投影重心位置とから面積差が一定値以上かつ予測位置と投影重心位置との差が一定値以下のときに隠れ車両と判定するようにしている。
【0011】
従って、カメラで後方から道路上の車両を撮影した画像をもとに、道路上に投影したときの車両面積の重なりから隠れた車両を判定することにより、通過車両計測時などに後続車が大型車などで先行する車が隠れてしまって検出できない事態を解消し、隠れ車両を高精度に検出して追跡などすることが可能となる。
【0012】
【発明の実施の形態】
次に、図1から図13を用いて本発明の実施の形態および動作を順次詳細に説明する。
【0013】
図1は、本発明のシステム構成図を示す。
図1において、カメラ10は、道路上の車両の画像をリアルタイムに撮影するものである。
【0014】
画像入力装置11は、カメラ10で撮像した車両の画像を画像処理装置1に入力するものである。
【0015】
画像処理装置1は、プログラムに従い画像処理を行うものであって、ここでは、2ないし9などから構成されるものである。
【0016】
画像2は、カメラ10で撮影した道路上に後方から車両を撮影してリアルタイムに取り込んだ多数の画像である。
【0017】
背景画像作成手段3は、多数の画像2から背景画像4を生成するものであって、例えば多数の画像2を平均化して駐車車両などのように動かない背景を抽出するものである。
【0018】
背景画像4は、車両のない状態で、カメラ10で道路上を撮影してもよい。走行車両があるときは、画像から当該背景画像4を引算することで、車両のみが抽出されることとなる。
【0019】
車両検出部5は、リアルタイムに取り込んだ道路上の車両の写った画像から背景画像4を引算して車両のイメージのみを取り出した画像を生成し、公知のラベリング処理して連続する黒画素について矩形で表してラベルを付与し、当該付与したラベル毎に車両ID、画像上の矩形の4隅の座標、道路上に投影した投影面積、4隅の座標、および重心位置を検出車両候補テーブル8(図9参照)に登録するものである。
【0020】
隠れ車両有無判定手段6は、画像上で隠れ車両の有無を判定するものである(図2から図13を用いて後述する)。
【0021】
隠れ車両検出手段7は、画像上で隠れ車両を検出するものである(図2から図13を用いて後述する)。
【0022】
検出車両候補テーブル8は、画像上で検出した車両ID,4隅の座標、道路上に投影した投影面積とその4隅の座標などを登録するものである(図9の(a)参照)。
【0023】
検出車両テーブル9は、画像上で隠れ車両として検出した車両ID、道路上に投影した投影面積、重心位置、速度、隠れ車両のフラグ、区間外フラグなどを設定するものである(図9の(b)参照)。
【0024】
次に、図2のフローチャートの順番に図1の構成の全体の動作を説明する。
図2は、本発明の動作説明フローチャートを示す。
【0025】
図2において、S1で、画像を入力する。これは、図1でカメラ10でリアルタイムに撮像した道路上の画像を画像処理装置1に入力する。
【0026】
S2で、車両検出処理を実行する。これは、S1で取り込んだ画像から背景画像を引算して車両の画像のみとし、当該画像上でラベリングして矩形で表してラベルを付与、および当該画像上の車両を表す矩形の4隅の座標、当該画像を道路上に投影した投影面積とその4隅の座標、重心位置を後述する図9の(a)に示すように登録するという、車両検出処理を行う。
【0027】
S3で、隠れ車両有無判定処理を実行する。これは、S2で検出した車両について、道路上への車両の重心位置と前回算出した道路上への車両の重心位置との差が所定値以内の車両を見つけることを繰り返し、今回、見つからない車両を隠れ車両があると判定する処理を行う。
【0028】
S4で、検出終了か判別する。NOの場合には全ての車両についてS3を繰り返す。YESの場合には、S5に進む。
【0029】
S5で、隠れ車両ありか判別する。YESの場合には、S3の隠れ車両の有無判定で隠れ車両がありと判明したので、S6に進む。NOの場合には、次の画像について、S2以降を繰り返す。
【0030】
S6で、隠れ車両検出処理を実行する。これは、S5のYESで隠れ車両がありと判明したので、判明した隠れた車両の前回の道路上への投影面積および今回の予測位置と、今回検出された全ての車両の道路上への投影面積および投影重心位置とから面積差が一定値以上かつ予測位置と投影重心位置の差が一定値以下のときに隠れ車両と判定する処理を行う。
【0031】
S7で、隠れ車両終了か判別する。これは、S3で判定された隠れ車両について全てS6の処理を実行したか判別する。YESの場合には、S2に戻り、次の画像について繰り返す。NOの場合には、S6を繰り返す。
【0032】
以上によって、リアルタイムに道路上を走行する後方から撮影した像を取り込み、背景画像を引算して車両の画像のみとし、当該画像上で車両を検出し、検出した車両について前回の道路上に投影した重心位置との差が所定値以下のときは同一車両として認識し、隠れて検出できなくなった車両についてその隠れた車両を検出することにより、画像上で後続の車両により隠れて見えなくなっても当該隠れた車両を精度良好に検出することが可能となる。以下順次詳細に説明する。
【0033】
次に、図3から図5を用いて上述した図2の動作を詳細に説明する。
図3から図5は、本発明の詳細フローチャートを示す。
【0034】
図3において、S11で、ラベリング付け終了時点からスタートする。これは、既述したように、カメラ10で道路上の車両を撮影した画像について、背景画像を引算して車両のみの画像にし、隣接する黒画素を連結することを繰り返してラベルを付与し当該連結させた黒画素の領域を外接矩形で表現(後述する図8の(c)参照)する。
【0035】
S12で、画像上で矩形の4頂点を算出する。これは、後述する図8の(c)で矩形の4頂点の座標(4隅の座標)を算出する。
【0036】
S13で、4頂点を仮想的な道路平面へ投影する。これは、後述する図8の(d)に示すように、画像上の車両の4頂点を道路平面上へ投影する。
【0037】
S14で、4頂点の道路平面での重心位置を算出する。これは、例えば4頂点の座標の平均値を求めて重心位置を算出する。
【0038】
S15で、4頂点で囲まれる面積を算出する。
S16で、検出車両候補テーブル8に新規車両IDで追加する。
【0039】
S17で、ラベル終わりか判別する。これは、S11で画像上でラベリングして内接矩形で表した車両について全てS12からS16の処理を終了したか判別する。YESの場合には、S18に進む。NOの場合には、S12に戻り、次の車両の矩形について繰り返す。
【0040】
S18で、重心位置が検出区間入口から一定値以内か判別する。YESの場合には、S26で時刻tの検出車両テーブル9に新規の車両IDで付け足し、S25に進む。一方、NOの場合には、新規車両でないと判明したので、S19に進む。
【0041】
S19で、検出車両候補テーブル8の時刻tの時(今回)の重心位置を車両1台分取り出す。
【0042】
S20で、検出車両テーブル9の時刻t−1の時(前回)の重心位置を車両1台分取り出す。
【0043】
S21で、時刻tと、時刻t−1の時の重心位置の差ΔDを算出する。これは、S19で取り出した時刻tのとき(今回)の車両の重心位置と時刻t−1のとき(前回)の車両の重心位置との差ΔDを算出する。
【0044】
S22で、ΔDが一定値以下か判別する(図11)。これは、S19で算出した重心位置の差ΔD(後述する図11に示す)が一定値以下かで同一車両か判別する。YESの場合には、今回の車両と前回の車両とが同一と判明したので、S23で時刻t(今回)の検出車両テーブル9に時刻t−1と同じ車両IDを付け足し、S24に進む。一方、S22のNOの場合には、前回と今回の車両が同一ではないと判明したので、何もすることなくS24に進む。
【0045】
S24で、時刻t−1の検出車両テーブル9の車両終了か判別する。YESの場合には、時刻t−1(前回)の検出車両テーブル9の全ての車両について処理を終了したので、S25に進む。NOの場合には次の車両についてS20以下を繰り返す。
【0046】
S25で、時刻tの検出車両候補テーブル8の車両終了か判別する。YESの場合には、図4の(A)のS26に進む。NOの場合には、次の車両について、S31以下を繰り返す。
【0047】
図4のS26で、時刻t−1の検出車両テーブル9にあるIDで時刻tで検出されなかったIDがあるか判別する。YESの場合には、隠れ車両がありと判明したので、S27に進む。NOの場合には、隠れ車両が無いと判明したので、S42で隠れ車両無しと判定し、終了する。
【0048】
S27で、時刻t−1の時の位置、速度から現在の位置を予測する。
S28で、予測位置が画像の検出区間外か判別する。YESの場合には、検出区間外に出たと判明したので、S29で検出区間を出たと判断し、時刻tの検出車両テーブル9には追加しないで、S31に進む。一方、S28のNOの場合には、検出区間内と判明したので、S30で隠れ車両フラグを立てて、時刻tの検出車両テーブル9に時刻t−1の時と同じ車両IDを追加し、S31に進む。
【0049】
S31で、隠れフラグが立っている車両の時刻t−1の時の道路平面へ投影した4頂点を囲む面積S(t−1)と予測位置(時刻tのときの予測位置)を取り出す。
【0050】
S32で、時刻tの時の検出車両テーブル9から1台分の道路平面への4頂点を取りだし、囲まれた面積S(t)と投影重心位置を取り出す。
【0051】
S33で、S(t)−S(t−1)が一定値よりも大か、かつ投影重心位置−予測位置が一定値よりも小さく近いか判別する。YESの場合には、S34でS(t)の領域内に隠れ車両がいると判定し時刻tの検出車両テーブル9に重心位置を書き込む、区間外フラグが立っているときは倒し、S36に進む。一方、NOの場合には、S35で区間外に出た可能性があるので、区間外フラグを立て、S36に進む。
【0052】
S36で、時刻tの検出車両テーブル9の車両が全て終わりか判別する。YESの場合には、S37に進む。NOの場合には、次のS32に戻り繰り返す。
【0053】
S37で、時刻t−1の検出車両テーブル9の車両が全て終了か判別する。YESの場合には、図5の(B)のS38に進む。NOの場合には、S31に戻り繰り返す。
【0054】
図5のS38で、時刻t−1の検出車両テーブル9にあるIDで時刻tで検出されなかった車両が全て終了したか判別する。YESの場合には、S39に進む。NOの場合には、図4のS27に戻り繰り返す。
【0055】
S39で、区間外フラグが立っているか判別する。YESの場合には、S40で区間外に出たと判定し、時刻tの検出車両テーブル9から削除し、S41に進む。一方、S39のNOの場合には、S41に進む。
【0056】
S41は、時刻tの検出車両テーブル9の車両が終了か判別する。YESの場合には、終了する。NOの場合には、S39に戻り繰り返す。
【0057】
以上によって、道路上を走行する後方から撮影した画像を順次取り込んで背景画像を引算して車両の画像のみとし、ラベリングして当該画像上で車両を検出し、検出した車両について前回の道路上に投影した重心位置との差が所定値以下のときは同一車両として認識し、隠れて検出できなくなった車両についてその隠れた車両を判定することが可能となる。
【0058】
図6は、本発明のカメラ、車両、道路の関係説明図を示す。
図6において、カメラの画像面は、道路上に設置されたカメラ10で道路を撮影したときの当該カメラ10の画像面上に決像される画像をイメージ的に示したものである。
【0059】
道路は、車両が走行する道路であって、ここでは、左から右方向に走行し、後方からカメラ10で撮影するものである。
【0060】
後続車が図示のように大きいとそれに隠れて先行車が見えなくなってしまうが、既述した図1から図5で説明したように、隠れ車両の有無を検出してその道路面上への投影面積の差をもとに隠れ車両の有無を判定することを可能にしたものである。
【0061】
図7は、本発明の説明図(その1)を示す。
図7の(a)は、座標系の例を示す。ここでは、ワールド座標系上の点(X,Y,Z)と、画像座標系上の点(u,v)の対応関係は、平行移動、回転、透視投影変換(図7の(b))を用いた図12の式1で表される。尚、カメラモデルはピンホールモデルを用いる。
【0062】
図7の(b)は、透視投影変換の説明図を示す。
図8は、本発明の説明図(その2)を示す。
【0063】
図8の(c)は、矩形のあてはめ方法の例を示す。ここで、図示のように、画像面上で黒の画素がラベルリングして1つの連結領域にまとめられたとすると、当該連結黒画素の内接矩形を当該車両の画像とここでは決める。従って、当該矩形のu,v方向の最小値、最大値の組み合わせた下記のように4頂点の位置を表現できる。
【0064】
・(MIN(ui),MIN(vi))
・(MIN(ui),MAX(vi))
・(MAX(ui),MIN(vi))
・(MAX(ui),MAX(vi))
図8の(d)は、投影後の面積算出方法の例を示す。ここでは、上段のように、画像面の車両を道路平面上に投影し、下段のように当該道路平面上に投影した車両の矩形を求め、当該矩形の道路平面上の4頂点を求める。また、重心は4頂点の座標平均値で算出する。
【0065】
図9は、本発明のテーブル例を示す。
図9の(a)は、検出車両候補テーブル(時刻t)8の例を示す。ここでは、時刻tの検出車両候補テーブル8には、図示の下記の情報を対応づけて登録する。
【0066】
・車両ID:
・画像上の4頂点
・投影後の4頂点
・投影重心位置
・投影後の面積
ここで、車両IDは画像上でラベリングして内接矩形で表した車両のイメージに付与した一意のIDである。画像上の4頂点は画像上の車両に対応する矩形の4頂点の座標である。投影後の4頂点は画像上の矩形を道路平面上に投影した後の矩形の4頂点の座標である。投影重心位置は道路平面上に投影した後の矩形の4頂点を平均した重心位置の座標である。投影後の面積は道路平面上に投影した後の車両に対応する矩形の面積である。
【0067】
図9の(b)は、検出車両テーブル(時刻t)9の例を示す。ここでは、時刻tの検出車両テーブル9には、図示の下記の情報を対応づけて登録する。
【0068】
・車両ID:
・投影重心位置
・投影後の面積
・速度
・隠れ車両フラグ
・区間外フラグ
ここで、車両IDは図9の(a)で付与して車両IDである。投影重心位置は道路平面上に投影した車両を表す矩形の4頂点の座標を平均した重心位置の座標である。投影後の面積は道路平面上に投影した車両を表す矩形の面積である。速度は当該矩形(車両)の速度である。隠れ車両フラグは、画像上で後続車両により先行車両が隠れたと判明したとき立てるフラグである。区間外フラグは車両を表す矩形が計測範囲外に出たと判断されたときに立てるフラグである。
【0069】
図10は、本発明の説明図(投影面の重なり)を示す。道路面上を車両が左から右方向に走行し、後方の上からカメラ10で撮影した画像上で、後続車により先行車が隠れてしまい、先頭部分がわずかしか出ていない様子を示す。この場合には、斜線で示したように、後続車の道路面上への投影面積と、先行車の道路面上への投影面積との差が一定値以上、かつ後続車の投影重心位置と先行者の今回の予測した予測位置との差が一定値以下のときに先行車が隠れたと判定し、隠れ車両を精度良好に判定することが可能となる。
【0070】
図11は、本発明の投影重心位置の移動距離の算出説明図を示す。これは、時刻t0のときの道路平面上の車両を表す矩形が、時刻t1のときに図示のように上方向に移動していた場合、両者の重心の距離差ΔDを図示の下記の式で算出する。
【0071】
ΔD=((Xw1−Xw0)+(Yw1−Yw0)1/2
図12は、本発明の説明図(式1)を示す。これは、既述した図7の画像面上の座標系と、ワールド座標系(道路面上の座標系)と変換する式1を説明するものである。
【0072】
図13は、本発明の説明図(式1)を示す。
図13の(a)は、カメラパラメータを求める場合を示す。ここでは、式1において標本点をn個とり、残差の2乗和が最小になるようにして求める。
【0073】
図13の(b)は、画像面から道路平面への変換を行う場合を示す。ここでは、既述した図12の式1でz=0と置き、下式に示すように式2として生成する。そして、カメラパラメータ、画像上の点(u,v)を代入し、(X,Y)の方程式を作り、ガウスの消去法等を用いて解を算出する。
【0074】
【発明の効果】
以上説明したように、本発明によれば、カメラで後方から道路上の車両を撮影した画像をもとに、道路上に投影したときの車両面積の重なりから隠れた車両を判定する構成を採用しているため、通過車両計測時などに後続車が大型者などで先行する車が隠れてしまって検出できない事態を解消し、隠れ車両を高精度に検出して追跡などすることが可能となる。
【図面の簡単な説明】
【図1】本発明のシステム構成図である。
【図2】本発明の動作説明フローチャートである。
【図3】本発明の詳細フローチャート(その1)である。
【図4】本発明の詳細フローチャート(その2)である。
【図5】本発明の詳細フローチャート(その3)である。
【図6】本発明のカメラ、車両、道路の関係説明図である。
【図7】本発明の説明図(その1)である。
【図8】本発明の説明図(その2)である。
【図9】本発明のテーブル例である。
【図10】本発明の説明図(投影面の重なり)である。
【図11】本発明の投影重心位置の移動距離の算出説明図である。
【図12】本発明の説明図(式1)である。
【図13】本発明の説明図(式)である。
【符号の説明】
1:画像処理装置
2:画像
3:背景画像作成手段
4:背景画像
5:車両検出手段
6:隠れ車両有無判定手段
7:隠れ車両検出手段
8:検出車両候補テーブル
9:検出車両テーブル
10:カメラ
11:画像入力装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a passing vehicle measuring device, a passing vehicle measuring program, and a passing vehicle measuring method for measuring the number of vehicles passing through a road.
[0002]
[Prior art]
Conventionally, an image of a vehicle is captured by a camera installed on a road, and traffic flow monitoring or vehicle running behavior analysis is performed on the image.
[0003]
[Problems to be solved by the invention]
However, because there are restrictions on the camera installation position on the road, the distance of the traveling vehicle becomes short and it can not be seen overlapping on the image captured by the camera, especially it can not be seen behind the large vehicle, and the tracking is interrupted. There was a problem to do. On the other hand, tracking of each vehicle is performed by modeling the movement of the vehicle such as the inter-vehicle distance characteristic and acceleration, and predicting the coordinate value of the vehicle at the next shooting, There is a problem that it cannot follow a rapid change in the speed and position of the vehicle.
[0004]
In order to solve these problems, the present invention determines a hidden vehicle from an overlap of vehicle areas when projected on a road based on an image obtained by photographing a vehicle on the road from behind with a camera, and passes a vehicle. The purpose is to eliminate the situation in which the following vehicle is hidden by a large person or the like and cannot be detected at the time of measurement or the like, and to detect and track the hidden vehicle with high accuracy.
[0005]
[Means for Solving the Problems]
Means for solving the problem will be described with reference to FIG.
[0006]
In FIG. 1, a camera 10 is for capturing and capturing an image of a vehicle on a road.
[0007]
The image processing apparatus 1 detects a hidden vehicle when there is a hidden vehicle based on the image of the vehicle on the road. Here, the vehicle detection means 5 and the hidden vehicle presence / absence determination means 6, the hidden vehicle detection means 7 etc. are comprised.
[0008]
The vehicle detection means 5 detects a vehicle on the image.
The hidden vehicle presence / absence determining means 6 is for determining the presence or absence of a hidden vehicle on the image.
[0009]
The hidden vehicle detection means 7 detects a hidden vehicle on the image.
Next, the operation will be described.
[0010]
The camera 10 captures an image of the vehicle traveling on the road from behind, captures the image, detects the vehicle on the image captured by the vehicle detection means 5, and calculates the projected area of the detected vehicle on the road and the position of the center of gravity. The hidden vehicle presence / absence determination means 6 repeatedly finds a vehicle whose difference between the center of gravity position of the vehicle and the previously calculated center of gravity of the vehicle is within a predetermined value. The area difference between the projected area of the hidden vehicle on the previous road estimated by the means 7 and the current estimated position, and the projected area and projected barycenter position of all the vehicles detected this time on the road is a certain value or more. In addition, the vehicle is determined to be a hidden vehicle when the difference between the predicted position and the projected center of gravity position is equal to or less than a certain value.
[0011]
Therefore, by determining the hidden vehicle from the overlap of the vehicle area when projected on the road based on the image of the vehicle on the road from the rear by the camera, the succeeding vehicle is large when measuring passing vehicles. It is possible to eliminate the situation in which the preceding vehicle is hidden and cannot be detected, and the hidden vehicle can be detected and tracked with high accuracy.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Next, embodiments and operations of the present invention will be described in detail sequentially with reference to FIGS.
[0013]
FIG. 1 shows a system configuration diagram of the present invention.
In FIG. 1, a camera 10 captures an image of a vehicle on a road in real time.
[0014]
The image input device 11 inputs a vehicle image captured by the camera 10 to the image processing device 1.
[0015]
The image processing apparatus 1 performs image processing according to a program, and is composed of 2 to 9 in this example.
[0016]
Image 2 is a large number of images captured in real time by photographing a vehicle from behind on a road photographed by the camera 10.
[0017]
The background image creating means 3 generates a background image 4 from a large number of images 2 and, for example, averages the large number of images 2 and extracts a non-moving background such as a parked vehicle.
[0018]
The background image 4 may be taken on the road with the camera 10 without a vehicle. When there is a traveling vehicle, only the vehicle is extracted by subtracting the background image 4 from the image.
[0019]
The vehicle detection unit 5 generates an image obtained by subtracting the background image 4 from the image of the vehicle on the road captured in real time to extract only the vehicle image, and performs a known labeling process for continuous black pixels. A label represented by a rectangle is assigned, and a vehicle ID, coordinates of the four corners of the rectangle on the image, projected areas projected on the road, coordinates of the four corners, and the position of the center of gravity are detected for each given label. (See FIG. 9).
[0020]
The hidden vehicle presence / absence determining means 6 determines whether or not there is a hidden vehicle on the image (described later with reference to FIGS. 2 to 13).
[0021]
The hidden vehicle detection means 7 detects a hidden vehicle on the image (described later with reference to FIGS. 2 to 13).
[0022]
The detected vehicle candidate table 8 registers the vehicle ID detected on the image, the coordinates of the four corners, the projected area projected on the road, the coordinates of the four corners, and the like (see FIG. 9A).
[0023]
The detected vehicle table 9 is for setting a vehicle ID detected as a hidden vehicle on the image, a projected area projected on the road, a center of gravity position, a speed, a hidden vehicle flag, an out-of-section flag, and the like (FIG. 9 ( b)).
[0024]
Next, the overall operation of the configuration of FIG. 1 will be described in the order of the flowchart of FIG.
FIG. 2 shows a flowchart for explaining the operation of the present invention.
[0025]
In FIG. 2, an image is input in S1. This inputs an image on the road imaged in real time by the camera 10 in FIG.
[0026]
In S2, vehicle detection processing is executed. This is because the background image is subtracted from the image captured in S1 to obtain only the vehicle image, labeling is performed on the image, and the label is represented by a rectangle, and the four corners of the rectangle representing the vehicle on the image are displayed. A vehicle detection process is performed in which the coordinates, the projected area of the image projected onto the road, the coordinates of the four corners, and the position of the center of gravity are registered as shown in FIG.
[0027]
In S3, a hidden vehicle presence / absence determination process is executed. This means that for the vehicle detected in S2, it repeatedly finds a vehicle whose difference between the center of gravity of the vehicle on the road and the center of gravity of the vehicle on the road calculated previously is within a predetermined value, and this time To determine that there is a hidden vehicle.
[0028]
In S4, it is determined whether the detection is finished. If NO, repeat S3 for all vehicles. If YES, the process proceeds to S5.
[0029]
In S5, it is determined whether there is a hidden vehicle. In the case of YES, since it is determined that there is a hidden vehicle in the presence / absence determination of the hidden vehicle in S3, the process proceeds to S6. In the case of NO, S2 and subsequent steps are repeated for the next image.
[0030]
In S6, a hidden vehicle detection process is executed. This is because it was determined that there was a hidden vehicle in S5 YES, so the projected area of the hidden vehicle found on the previous road and the current predicted position, and the projection of all the vehicles detected this time onto the road When the area difference from the area and the projected centroid position is equal to or greater than a certain value and the difference between the predicted position and the projected centroid position is equal to or less than a certain value, a process of determining a hidden vehicle is performed.
[0031]
In S7, it is determined whether the hidden vehicle is finished. This determines whether the process of S6 was performed about all the hidden vehicles determined by S3. If yes, return to S2 and repeat for the next image. If NO, repeat S6.
[0032]
As described above, an image taken from behind traveling on the road in real time is captured, the background image is subtracted to obtain only the vehicle image, the vehicle is detected on the image, and the detected vehicle is projected onto the previous road. When the difference from the center of gravity position is less than or equal to a predetermined value, it is recognized as the same vehicle, and by detecting the hidden vehicle for the vehicle that is hidden and cannot be detected, The hidden vehicle can be detected with good accuracy. Details will be sequentially described below.
[0033]
Next, the operation of FIG. 2 described above will be described in detail with reference to FIGS.
3 to 5 show detailed flowcharts of the present invention.
[0034]
In FIG. 3, at S11, the process starts from the end of labeling. As described above, for the image obtained by photographing the vehicle on the road with the camera 10, the background image is subtracted to make the image of only the vehicle, and the labeling is performed by repeatedly connecting adjacent black pixels. The connected black pixel region is expressed by a circumscribed rectangle (see FIG. 8C described later).
[0035]
In S12, four vertices of a rectangle on the image are calculated. This calculates the coordinates of the four vertices of the rectangle (coordinates of the four corners) in FIG.
[0036]
In S13, the four vertices are projected onto a virtual road plane. This projects four vertices of the vehicle on the image onto the road plane as shown in FIG.
[0037]
In S14, the position of the center of gravity on the road plane at the four vertices is calculated. For example, an average value of coordinates of four vertices is obtained to calculate the position of the center of gravity.
[0038]
In S15, the area surrounded by the four vertices is calculated.
In S16, the new vehicle ID is added to the detected vehicle candidate table 8.
[0039]
In S17, it is determined whether the label is over. For this, it is determined whether or not the processing from S12 to S16 has been completed for all the vehicles that have been labeled on the image in S11 and represented by the inscribed rectangle. If YES, the process proceeds to S18. If NO, return to S12 and repeat for the next vehicle rectangle.
[0040]
In S18, it is determined whether the center of gravity is within a certain value from the detection section entrance. If YES, the new vehicle ID is added to the detected vehicle table 9 at time t in S26, and the process proceeds to S25. On the other hand, in the case of NO, since it is determined that the vehicle is not a new vehicle, the process proceeds to S19.
[0041]
In S19, the position of the center of gravity at the time t (this time) in the detected vehicle candidate table 8 is extracted for one vehicle.
[0042]
In S20, the position of the center of gravity of the detected vehicle table 9 at time t-1 (previous) is taken out for one vehicle.
[0043]
In S21, a difference ΔD between the center of gravity position at time t and time t−1 is calculated. This calculates a difference ΔD between the center of gravity position of the vehicle at time t (current) taken out in S19 and the center of gravity position of the vehicle at time t-1 (previous).
[0044]
In S22, it is determined whether ΔD is equal to or smaller than a certain value (FIG. 11). This is determined as the same vehicle based on whether or not the difference ΔD (shown in FIG. 11 described later) of the center of gravity calculated in S19 is equal to or less than a certain value. In the case of YES, since it has been found that the current vehicle and the previous vehicle are the same, in S23, the same vehicle ID as time t-1 is added to the detected vehicle table 9 at time t (current time), and the process proceeds to S24. On the other hand, in the case of NO in S22, since it has been found that the previous and current vehicles are not the same, the process proceeds to S24 without doing anything.
[0045]
In S24, it is determined whether the vehicle ends in the detected vehicle table 9 at time t-1. In the case of YES, since the process is completed for all the vehicles in the detected vehicle table 9 at time t-1 (previous), the process proceeds to S25. In the case of NO, S20 and subsequent steps are repeated for the next vehicle.
[0046]
In S25, it is determined whether the vehicle ends in the detected vehicle candidate table 8 at time t. In the case of YES, the process proceeds to S26 of FIG. In the case of NO, S31 and subsequent steps are repeated for the next vehicle.
[0047]
In S26 of FIG. 4, it is determined whether there is an ID that is not detected at time t among the IDs in the detected vehicle table 9 at time t-1. If YES, it is determined that there is a hidden vehicle, so the process proceeds to S27. In the case of NO, since it has been found that there is no hidden vehicle, it is determined in S42 that there is no hidden vehicle, and the process ends.
[0048]
In S27, the current position is predicted from the position and speed at time t-1.
In S28, it is determined whether the predicted position is outside the image detection section. In the case of YES, since it is determined that the vehicle has gone out of the detection zone, it is determined that the detection zone has been exited in S29, and the process proceeds to S31 without being added to the detected vehicle table 9 at time t. On the other hand, in the case of NO in S28, since it is found that it is within the detection zone, a hidden vehicle flag is set in S30, and the same vehicle ID as at time t-1 is added to the detected vehicle table 9 at time t, and S31 Proceed to
[0049]
In S31, an area S (t-1) and a predicted position (predicted position at time t) surrounding the four vertices projected on the road plane at time t-1 of the vehicle with the hidden flag standing are extracted.
[0050]
In S32, four vertices on the road plane for one vehicle are extracted from the detected vehicle table 9 at time t, and the enclosed area S (t) and the projected barycenter position are extracted.
[0051]
In S33, it is determined whether S (t) -S (t-1) is larger than a certain value and whether the projected gravity center position-predicted position is smaller than the certain value. In the case of YES, it is determined in S34 that there is a hidden vehicle in the area of S (t), and the position of the center of gravity is written in the detected vehicle table 9 at time t. . On the other hand, in the case of NO, there is a possibility that the vehicle has gone out of the section in S35.
[0052]
In S36, it is determined whether or not all the vehicles in the detected vehicle table 9 at time t are finished. If YES, the process proceeds to S37. If NO, the process returns to S32 and repeats.
[0053]
In S37, it is determined whether or not all the vehicles in the detected vehicle table 9 at time t-1 are finished. In the case of YES, the process proceeds to S38 in FIG. If NO, return to S31 and repeat.
[0054]
In S38 of FIG. 5, it is determined whether all the vehicles that have not been detected at time t with the ID in the detected vehicle table 9 at time t-1 have been completed. If YES, the process proceeds to S39. If NO, the process returns to S27 in FIG. 4 and is repeated.
[0055]
In S39, it is determined whether an out-of-section flag is set. In the case of YES, it determines with having come out of the area by S40, deletes from the detection vehicle table 9 of the time t, and progresses to S41. On the other hand, if NO in S39, the process proceeds to S41.
[0056]
S41 discriminate | determines whether the vehicle of the detection vehicle table 9 of the time t is complete | finished. If YES, the process ends. If NO, the process returns to S39 and repeats.
[0057]
As described above, images taken from behind traveling on the road are sequentially captured, the background image is subtracted to obtain only the vehicle image, and the vehicle is labeled and detected on the image, and the detected vehicle is detected on the previous road. When the difference from the center of gravity projected onto the vehicle is equal to or smaller than a predetermined value, the vehicle is recognized as the same vehicle, and the hidden vehicle can be determined for the vehicle that is hidden and cannot be detected.
[0058]
FIG. 6 is a diagram illustrating the relationship between the camera, the vehicle, and the road according to the present invention.
In FIG. 6, the image plane of the camera is an image showing an image determined on the image plane of the camera 10 when the road 10 is photographed with the camera 10 installed on the road.
[0059]
The road is a road on which the vehicle travels. Here, the road travels from the left to the right and is photographed by the camera 10 from the rear.
[0060]
If the following vehicle is large as shown in the figure, it will be hidden behind it and the preceding vehicle will not be visible. However, as described with reference to FIGS. 1 to 5, the presence or absence of the hidden vehicle is detected and projected onto the road surface. It is possible to determine the presence or absence of a hidden vehicle based on the difference in area.
[0061]
FIG. 7 shows an explanatory diagram (part 1) of the present invention.
FIG. 7A shows an example of a coordinate system. Here, the correspondence between the point (X, Y, Z) on the world coordinate system and the point (u, v) on the image coordinate system is parallel translation, rotation, perspective projection transformation ((b) in FIG. 7). This is expressed by Equation 1 in FIG. The camera model is a pinhole model.
[0062]
FIG. 7B is an explanatory diagram of perspective projection conversion.
FIG. 8 shows an explanatory diagram (part 2) of the present invention.
[0063]
FIG. 8C shows an example of a rectangular fitting method. Here, as shown in the figure, assuming that black pixels are labeled on the image plane and grouped into one connected area, an inscribed rectangle of the connected black pixels is determined here as an image of the vehicle. Accordingly, the positions of the four vertices can be expressed as follows by combining the minimum and maximum values in the u and v directions of the rectangle.
[0064]
・ (MIN (ui), MIN (vi))
・ (MIN (ui), MAX (vi))
・ (MAX (ui), MIN (vi))
・ (MAX (ui), MAX (vi))
FIG. 8D shows an example of an area calculation method after projection. Here, the vehicle on the image plane is projected onto the road plane as in the upper stage, the rectangle of the vehicle projected onto the road plane as in the lower stage is obtained, and the four vertices on the road plane of the rectangle are obtained. The center of gravity is calculated by the coordinate average value of four vertices.
[0065]
FIG. 9 shows an example table of the present invention.
FIG. 9A shows an example of the detected vehicle candidate table (time t) 8. Here, the following information shown in the figure is registered in association with the detected vehicle candidate table 8 at time t.
[0066]
・ Vehicle ID:
・ 4 vertices on the image ・ 4 vertices after projection ・ projected barycenter position ・ area after projection Here, the vehicle ID is a unique ID assigned to the image of the vehicle that is labeled on the image and represented by an inscribed rectangle. . The four vertices on the image are the coordinates of the four vertices of the rectangle corresponding to the vehicle on the image. The four vertices after projection are the coordinates of the four vertices of the rectangle after the rectangle on the image is projected onto the road plane. The projected centroid position is the coordinates of the centroid position obtained by averaging the four vertices of the rectangle after being projected on the road plane. The area after the projection is a rectangular area corresponding to the vehicle after being projected onto the road plane.
[0067]
FIG. 9B shows an example of the detected vehicle table (time t) 9. Here, the following information shown in the figure is registered in association with the detected vehicle table 9 at time t.
[0068]
・ Vehicle ID:
Projected center of gravity position Area after projection, speed, hidden vehicle flag, out-of-section flag Here, the vehicle ID is the vehicle ID given in FIG. The projected barycentric position is the coordinates of the barycentric position obtained by averaging the coordinates of the four vertices of a rectangle representing the vehicle projected on the road plane. The projected area is a rectangular area representing the vehicle projected on the road plane. The speed is the speed of the rectangle (vehicle). The hidden vehicle flag is a flag that is set when it is determined that the preceding vehicle is hidden by the following vehicle on the image. The out-of-section flag is a flag that is set when it is determined that the rectangle representing the vehicle is out of the measurement range.
[0069]
FIG. 10 is an explanatory diagram of the present invention (overlapping projection planes). The vehicle travels from the left to the right on the road surface, and the preceding vehicle is hidden by the succeeding vehicle on the image taken by the camera 10 from above the rear, and only the leading portion appears. In this case, as indicated by the oblique lines, the difference between the projected area of the following vehicle on the road surface and the projected area of the preceding vehicle on the road surface is a certain value or more, and the projected center of gravity position of the following vehicle is It is possible to determine that the preceding vehicle is hidden when the difference between the predicted position of the preceding person and the current predicted position is equal to or less than a certain value, and to determine the hidden vehicle with good accuracy.
[0070]
FIG. 11 is a diagram for explaining the calculation of the movement distance of the projected centroid position according to the present invention. This is because, when the rectangle representing the vehicle on the road plane at time t0 is moving upward as shown in the figure at time t1, the distance difference ΔD between the centers of gravity of both is expressed by the following equation shown in the figure. calculate.
[0071]
ΔD = ((Xw1−Xw0) 2 + (Yw1−Yw0) 2 ) 1/2
FIG. 12 shows an explanatory diagram (Equation 1) of the present invention. This explains Equation 1 for conversion between the above-described coordinate system on the image plane in FIG. 7 and the world coordinate system (coordinate system on the road plane).
[0072]
FIG. 13 shows an explanatory diagram (Equation 1) of the present invention.
FIG. 13A shows a case where camera parameters are obtained. Here, n sample points are taken in Equation 1 and the residual sum of squares is determined to be minimum.
[0073]
FIG. 13B shows a case where conversion from an image plane to a road plane is performed. Here, z = 0 is set in the above-described formula 1 in FIG. 12, and the formula 2 is generated as shown in the following formula. Then, the camera parameters and the point (u, v) on the image are substituted, an equation of (X, Y) is created, and a solution is calculated using a Gaussian elimination method or the like.
[0074]
【The invention's effect】
As described above, according to the present invention, a configuration is adopted in which a hidden vehicle is determined from an overlap of vehicle areas when projected onto a road based on an image obtained by photographing the vehicle on the road from behind with a camera. Therefore, it is possible to eliminate the situation that the following vehicle is hidden by a large person etc. and can not be detected when passing vehicles are measured, etc., and it is possible to detect and track the hidden vehicle with high accuracy .
[Brief description of the drawings]
FIG. 1 is a system configuration diagram of the present invention.
FIG. 2 is a flowchart explaining the operation of the present invention.
FIG. 3 is a detailed flowchart (part 1) of the present invention.
FIG. 4 is a detailed flowchart (part 2) of the present invention.
FIG. 5 is a detailed flowchart (part 3) of the present invention;
FIG. 6 is a diagram illustrating the relationship between the camera, vehicle, and road according to the present invention.
FIG. 7 is an explanatory diagram (part 1) of the present invention.
FIG. 8 is an explanatory diagram (part 2) of the present invention.
FIG. 9 is an example table of the present invention.
FIG. 10 is an explanatory diagram of the present invention (overlapping projection planes).
FIG. 11 is an explanatory diagram for calculating a moving distance of the projected barycentric position according to the present invention.
FIG. 12 is an explanatory diagram (Equation 1) of the present invention.
FIG. 13 is an explanatory diagram (formula) of the present invention.
[Explanation of symbols]
1: Image processing device 2: Image 3: Background image creation means 4: Background image 5: Vehicle detection means 6: Hidden vehicle presence / absence determination means 7: Hidden vehicle detection means 8: Detected vehicle candidate table 9: Detected vehicle table 10: Camera 11: Image input device

Claims (3)

道路を通過する車両を計測する通過車両計測装置において、
道路上に設置し、車両を後方から撮影して画像を生成するカメラと、
前記画像上で車両を検出する手段と、
前記検出した車両の道路上への投影面積とその重心位置を算出する手段と、
前記算出した車両の重心位置と前回算出した車両の重心位置との差が所定値以内の車両を見つけることを繰り返し、今回、見つからない隠れた車両を推定する手段と、
前記推定した隠れた車両の前回の道路上への投影面積および今回の予測位置と、今回検出された全ての車両の道路上への投影面積および投影重心位置とから面積差が一定値以上、かつ前記予測位置と前記投影重心位置との差が一定値以下のときに隠れ車両と判定する手段と
を備えたことを特徴とする通過車両計測装置。
In a passing vehicle measuring device that measures a vehicle passing through a road,
A camera installed on the road and taking a picture of the vehicle from behind to generate an image;
Means for detecting a vehicle on the image;
Means for calculating the projected area of the detected vehicle on the road and the position of its center of gravity;
Means for repeatedly finding a vehicle whose difference between the calculated center of gravity of the vehicle and the previously calculated center of gravity of the vehicle is within a predetermined value, and estimating a hidden vehicle not found this time;
The area difference from the projected area of the estimated hidden vehicle on the previous road and the current predicted position, and the projected area and projected center of gravity position of all the vehicles detected this time on the road, A passing vehicle measuring apparatus comprising: means for determining that the vehicle is a hidden vehicle when a difference between the predicted position and the projected center of gravity position is a predetermined value or less.
道路上を通過する車両を計測する通過車両計測プログラムにおいて、
コンピュータを、
道路上に設置し、車両を後方からカメラで撮影した画像を生成する手段と、
前記画像上で車両を検出する手段と、
前記検出した車両の道路上への投影面積とその重心位置を算出する手段と、
前記算出した車両の重心位置と前回算出した車両の重心位置との差が所定値以内の車両を見つけることを繰り返し、今回、見つからない隠れた車両を推定する手段と、
前記推定した隠れた車両の前回の道路上への投影面積および今回の予測位置と、今回検出された全ての車両の道路上への投影面積および投影重心位置とから面積差が一定値以上、かつ前記予測位置と前記投影重心位置との差が一定値以下のときに隠れ車両と判定する手段と
として機能させるための通過車両計測プログラム。
In a passing vehicle measurement program for measuring a vehicle passing on a road,
Computer
Means for generating an image installed on the road and taking a picture of the vehicle from behind with a camera;
Means for detecting a vehicle on the image;
Means for calculating the projected area of the detected vehicle on the road and the position of its center of gravity;
Means for repeatedly finding a vehicle whose difference between the calculated center of gravity of the vehicle and the previously calculated center of gravity of the vehicle is within a predetermined value, and estimating a hidden vehicle not found this time;
The area difference from the projected area of the estimated hidden vehicle on the previous road and the current predicted position, and the projected area and projected center of gravity position of all the vehicles detected this time on the road, A passing vehicle measurement program for causing a vehicle to function as a hidden vehicle when a difference between the predicted position and the projected center of gravity position is a predetermined value or less.
道路上を通過する車両を計測する通過車両計測方法において、
道路上に設置し、車両を後方からカメラで撮影した画像を生成するステップと、
前記画像上で車両を検出するステップと、
前記検出した車両の道路上への投影面積とその重心位置を算出するステップと、
前記算出した車両の重心位置と前回算出した車両の重心位置との差が所定値以内の車両を見つけることを繰り返し、今回、見つからない隠れた車両を推定するステップと、
前記推定した隠れた車両の前回の道路上への投影面積および今回の予測位置と、今回検出された全ての車両の道路上への投影面積および投影重心位置とから面積差が一定値以上、かつ前記予測位置と前記投影重心位置との差が一定値以下のときに隠れ車両と判定するステップと
を有する通過車両計測方法。
In a passing vehicle measurement method for measuring a vehicle passing on a road,
Installing on the road and generating an image of the vehicle taken from behind with a camera;
Detecting a vehicle on the image;
Calculating the projected area of the detected vehicle on the road and the position of its center of gravity;
Repeatedly finding a vehicle whose difference between the calculated center of gravity of the vehicle and the previously calculated center of gravity of the vehicle is within a predetermined value, and estimating a hidden vehicle not found this time;
The area difference from the projected area of the estimated hidden vehicle on the previous road and the current predicted position, and the projected area and projected center of gravity position of all the vehicles detected this time on the road, A passing vehicle measurement method comprising: determining a hidden vehicle when a difference between the predicted position and the projected center of gravity position is a predetermined value or less.
JP2002236374A 2002-08-14 2002-08-14 Passing vehicle measuring device, passing vehicle measuring program, and passing vehicle measuring method Expired - Fee Related JP3923870B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002236374A JP3923870B2 (en) 2002-08-14 2002-08-14 Passing vehicle measuring device, passing vehicle measuring program, and passing vehicle measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002236374A JP3923870B2 (en) 2002-08-14 2002-08-14 Passing vehicle measuring device, passing vehicle measuring program, and passing vehicle measuring method

Publications (2)

Publication Number Publication Date
JP2004078459A JP2004078459A (en) 2004-03-11
JP3923870B2 true JP3923870B2 (en) 2007-06-06

Family

ID=32020560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002236374A Expired - Fee Related JP3923870B2 (en) 2002-08-14 2002-08-14 Passing vehicle measuring device, passing vehicle measuring program, and passing vehicle measuring method

Country Status (1)

Country Link
JP (1) JP3923870B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109849973A (en) * 2017-11-30 2019-06-07 交控科技股份有限公司 A kind of hiding train exclusion processing method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008114769A1 (en) * 2007-03-22 2008-09-25 Nec Corporation Mobile detector and mobile detection program and mobile detection method
JP5275059B2 (en) * 2009-01-28 2013-08-28 三菱電機株式会社 Vehicle detection device, vehicle detection system, vehicle detection method for vehicle detection device, and vehicle detection program
JP5900416B2 (en) * 2013-05-30 2016-04-06 沖電気工業株式会社 Traffic estimation device, traffic estimation method and program
JP7363831B2 (en) 2021-02-10 2023-10-18 株式会社デンソー Information collection control device, information collection control method, information collection control program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109849973A (en) * 2017-11-30 2019-06-07 交控科技股份有限公司 A kind of hiding train exclusion processing method
CN109849973B (en) * 2017-11-30 2021-03-12 交控科技股份有限公司 Hidden train removal processing method

Also Published As

Publication number Publication date
JP2004078459A (en) 2004-03-11

Similar Documents

Publication Publication Date Title
JP5075672B2 (en) Object detection apparatus and method
Tsutsui et al. Optical flow-based person tracking by multiple cameras
TWI448977B (en) Method and apparatus for video analytics based object counting
JP2003216949A (en) Infrared image processor
JPH11252587A (en) Object tracking device
JP2006071471A (en) Moving body height discrimination device
JP2019124683A (en) Method and device for estimating rate of object and image processor
JP3655618B2 (en) Pedestrian age determination device, walking state / pedestrian age determination method and program
JPH10334207A (en) Human stream measuring instrument
CN112261390B (en) Vehicle-mounted camera equipment and image optimization device and method thereof
JP2015055875A (en) Determining source lane of moving item merging into destination lane
JP2018205870A (en) Object tracking method and device
JP3923870B2 (en) Passing vehicle measuring device, passing vehicle measuring program, and passing vehicle measuring method
JP2020013206A (en) Device for detecting two-wheeled vehicle from moving image/camera, program, and system
JPH06180749A (en) Device for monitoring object on road
JP5981284B2 (en) Object detection device and object detection method
JP2002259984A (en) Motion analyzing device and motion analyzing method
JP3364771B2 (en) Moving object detection device
JP3100471B2 (en) Dangerous traffic event detection method
JP3898157B2 (en) Infrared image recognition device
JP4124861B2 (en) Moving amount detection apparatus and method
JPH0991439A (en) Object monitor
JP3325002B2 (en) Moving object measurement method using image correlation
JP2001283374A (en) Traffic flow measuring system
Jaynes Multi-view calibration from planar motion trajectories

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070222

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100302

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110302

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees