JP4697761B2 - Queue detection method and queue detection apparatus - Google Patents

Queue detection method and queue detection apparatus Download PDF

Info

Publication number
JP4697761B2
JP4697761B2 JP2001149352A JP2001149352A JP4697761B2 JP 4697761 B2 JP4697761 B2 JP 4697761B2 JP 2001149352 A JP2001149352 A JP 2001149352A JP 2001149352 A JP2001149352 A JP 2001149352A JP 4697761 B2 JP4697761 B2 JP 4697761B2
Authority
JP
Japan
Prior art keywords
queue
image
area
imaging
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001149352A
Other languages
Japanese (ja)
Other versions
JP2002342748A (en
Inventor
勉 塚原
Original Assignee
株式会社エイブイプランニングセンター
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エイブイプランニングセンター filed Critical 株式会社エイブイプランニングセンター
Priority to JP2001149352A priority Critical patent/JP4697761B2/en
Publication of JP2002342748A publication Critical patent/JP2002342748A/en
Application granted granted Critical
Publication of JP4697761B2 publication Critical patent/JP4697761B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、行列検出方法及び行列検出装置に係り、より詳しくは、路上における車両等を監視対象とし、渋滞等によって生じるその監視対象の待ち行列の発生状況を検出する行列検出方法及び行列検出装置に関する。
【0002】
【従来の技術】
従来から、路上における車両の渋滞状況を把握するために、様々な提案がなされている。その一つは、車両感知器を路上に配置し、観測点における車両の有無の時間的な推移を検出し、路上における車両の渋滞状況を把握しようとするものである(以下、「従来例1」という)。この従来例1における車両感知器としては、超音波センサ等により下方の物体までの距離を測定することにより、観測点における車両の有無を検出するものが提案されている。
【0003】
また、ビデオカメラによる路上の撮像結果から、個々の車両をパターン認識し、個々の車両の移動及び停止状況を検出することにより、路上における車両の渋滞状況を把握しようとする技術も提案されている(以下、「従来例2」という)。
【0004】
さらに、ビデオカメラによる路上の撮像結果と、予め求めて置いた背景像との差分から、車両の移動及び停止状況を検出することにより、路上における車両の渋滞状況を把握しようとする技術も提案されている(以下、「従来例3」という)。
【0005】
【発明が解決しようとする課題】
上述した従来例1の技術では、観測点数が限られ、その観測点における車両の時間的占有率しか測定できない。したがって、例えば、観測点が1点で、その観測点位置に、たまたま車両が停車していたときであっても、渋滞すなわち車両の待ち行列が発生していると誤検出してしまう。こうした誤検出を防止するためには、広い領域にわたって多数の車両感知器を配置し、かつ、多数の車両感知器からの信号を同時処理することが必要となるため、大規模かつ複雑な構成を有するシステムの構築が必要となってしまう。
【0006】
また、従来例2の技術では、個々の車両をパターン認識によって撮像結果から抽出するので、非常に大規模な計算資源が必要となる。こうした、大規模な計算資源を有するシステムは、必然的に大規模かつ複雑な構成を有するものとなってしまう。
【0007】
また、従来例3の技術は、背景が静的に決まる環境であれば、簡単な構成で車両の待ち行列の発生・解消を検出できる可能性はある。しかし、背景の状態の変化が大きい戸外では、有効な背景像を決められないので、実用的ではない。
【0008】
本発明は、かかる事情のもとでなされたものであり、その目的は、簡易な構成で精度良く、車両等の監視対象の待ち行列の発生や解消の状況を検出することができる待ち行列検出方法及び待ち行列検出装置を提供することにある。
【0009】
【課題を解決するための手段】
本発明の待ち行列検出方法は、監視対象の待ち行列の発生状況を検出する待ち行列検出方法であって、前記待ち行列ができる特定方向に沿った前記監視対象の典型的な長さである第1特定長よりも十分に長い長さを前記特定方向に沿って有する監視領域を含む領域の撮像を定期的に行いつつ、前記撮像を行うたびに、前記撮像によって得られた撮像結果における前記監視領域を抽出した後、前記抽出された監視領域において、待ち行列発生時に該待ち行列内において隣り合う前記監視対象間の典型的な距離を前記第1特定長に加えた長さである第2特定長の2倍以上に相当する長さを前記特定方向に相当する第1画像方向に沿って有する判定領域を抽出する判定領域抽出工程と;前記判定領域を前記第1画像方向に沿って、前記第2特定長に相当する画像特定長で分割した分割領域それぞれの内部において、背景濃度を推定した後、前記監視対象が存在すると推定される物体領域を特定する物体領域特定工程と;前記撮像によって得られた撮像結果と前回の撮像によって得られた撮像結果とを比較し、移動物体領域を特定する移動物体領域特定工程と;前記分割領域内ごとにおける前記物体領域及び前記移動物体領域に基づいて、前記監視対象の待ち行列の発生状況を検出する待ち行列検出工程と;を実行し、前記物体領域特定工程は、前記判定領域内において、前記第1画像方向の位置を変化させながら、前記特定方向に直交する方向に相当する第2画像方向に沿って並ぶ画素の濃度値の分散及び変化幅を求めたとき、前記分散が最小となり、かつ、前記変化幅が許容値以下となった前記第2画像方向に並ぶ画素の濃度値の代表値を前記背景濃度とする背景濃度算出工程と;前記分割領域それぞれにおいて、前記第2画像方向に沿って並ぶ画素の濃度値の代表値と前記背景濃度との差が第1所定値以上である前記第1画像方向の点を画像物体点として、前記第1画像方向に前記画像物体点が所定長以上並ぶ領域を前記物体領域として特定する物体領域算出工程と;を含み、前記移動物体領域特定工程は、前記撮像によって得られた撮像結果と、前記前回の撮像によって得られた撮像結果とについて、画素ごとの濃度値差を算出する差分画像算出工程と;前記濃度値差の絶対値が第2所定値以上である画素が所定数以上存在する前記第2画像方向に沿って並ぶ画素群が所定密度以上で前記第1画像方向に沿って存在する領域を、前記移動物体領域として求める移動物体領域算出工程と;を含み、前記待ち行列検出工程は、前記分割領域ごとにおける前記物体領域及び前記移動物体領域それぞれが占める比率に基づいて、待ち行列領域を判定する待ち行列判定工程を含む、ことを特徴とする待ち行列検出方法である。
【0010】
これによれば、各回の撮像結果に基づいて、判定領域抽出工程において、撮像結果における監視領域(例えば、車道上における特定の車線の領域)を抽出した後、前記抽出された監視領域において、待ち行列発生時に該待ち行列内において隣り合う前記監視対象間の典型的な距離を前記第1特定長(例えば、乗用車の長さ)に加えた長さである第2特定長の2倍以上に相当する長さを前記特定方向(例えば、特定の車線における車両の進行方向)に相当する第1画像方向に沿って有する判定領域を抽出する。引き続き、物体領域特定工程において、判定領域を第1画像方向に沿って、前記第2特定長(例えば、乗用車の長さに、渋滞時における典型的な車間距離を加えた長さ)に相当する画像特定長で分割した分割領域それぞれの内部における背景濃度を推定する。そして、推定された背景濃度を基準濃度として使用して、監視対象が存在すると推定される物体領域を、撮像結果に基づいて特定する。なお、撮像結果が斜視像であるときには、前記第2特定長は、撮像対象の撮像における奥行き方向の位置によって変化する。
ここで、物体領域特定工程では、まず、背景濃度算出工程で、前記判定領域内において、前記第1画像方向の位置を変化させながら、前記特定方向に直交する方向に相当する第2画像方向に沿って並ぶ画素の濃度値の分散及び変化幅を求めたとき、前記分散が最小となり、かつ、前記変化幅が許容値以下となった前記第2画像方向に並ぶ画素の濃度値の代表値を前記背景濃度とする。そして、物体領域算出工程で、前記分割領域それぞれにおいて、前記第2画像方向に沿って並ぶ画素の濃度値の代表値と前記背景濃度との差が第1所定値以上である前記第1画像方向の点を画像物体点として、前記第1画像方向に前記画像物体点が所定長以上並ぶ領域を前記物体領域として特定する。
【0011】
次に、今回の撮像によって得られた撮像結果と前回の撮像によって得られた撮像結果とを比較し、撮像結果の前回から今回までの変化の態様を解析して、移動物体領域を特定する。なお、各回の撮像の時間間隔は、監視対象が第2特定長だけ移動する可能性のある最短時間よりも短く設定されることが好ましいが、これに限定されるものではない。
かかる移動物体領域の特定に際しては、まず、差分画像算出工程において、前記撮像によって得られた撮像結果と、前記前回の撮像によって得られた撮像結果とについて、画素ごとの濃度値差を算出する。そして、移動物体領域算出工程において、前記濃度値差の絶対値が第2所定値以上である画素が所定数以上存在する前記第2画像方向に沿って並ぶ画素群が所定密度以上で前記第1画像方向に沿って存在する領域を、前記移動物体領域として求める。
【0012】
そして、分割領域内ごとにおける前記物体領域及び前記移動物体領域に基づいて、各分割領域における前記物体領域及び前記移動物体領域それぞれが占める比率を求め、それらの比率が各分割領域においてどうなっているかを解析することにより、監視対象の待ち行列の発生状況を検出する。
【0013】
したがって、個々の監視車両のパターン認識をする必要ないので膨大な計算資源を必須とせず、また、固定的な背景パターンを使用しないので背景の状態の変化が大きい戸外においても、精度良く監視対象の待ち行列の発生状況を検出することができる。
【0014】
本発明の待ち行列検出方法では、前記撮像を、前記監視領域の上方かつ前記特定方向と斜交する方向から見込む視野で行うことができる。
【0015】
また、本発明の待ち行列検出方法では、前記第2特定長を、待ち行列発生時に該待ち行列内において隣り合う前記監視対象間の典型的な距離を前記第1特定長に加えた長さとすることができる。
【0019】
また、本発明の待ち行列検出方法では、前記待ち行列検出工程で検出された待ち行列の発生状況を表示する表示工程を更に含むことができる。
【0020】
ここで、前記表示工程において、前記待ち行列の発生状況について、図形表示及び音声表示の少なくとも一方を行うことができる。
【0021】
また、本発明の待ち行列検出方法では、前記監視対象を、路上の車両とすることができる。
また、本発明の待ち行列検出方法では、今回の撮像結果において、前記背景濃度算出工程において求められた背景濃度との差が所定の許容値以下となる濃度値の画素のみから成る領域の集まりを今回背景画像として作成する今回背景画像作成工程と;前記今回背景画像を、前回までの撮像結果から作成された累積背景像上に重ね合わせることにより、新たな累積背景像を作成する累積背景像更新工程と;を更に備え、前記新たな累積背景像の画素数が前記判定領域の画素数に対して所定割合以上となった後には、前記撮影を行うたびに、前記物体領域特定工程に代って、前回までの撮像結果から作成された累積背景像と、今回の撮像結果の画像との比較結果に基づいて、前記物体領域を特定する第2物体領域特定工程が実行される、とすることができる。
【0022】
本発明の待ち行列検出装置は、監視対象の待ち行列の発生状況を検出する待ち行列検出装置であって、前記待ち行列ができる特定方向に沿った前記監視対象の典型的な長さである第1特定長よりも十分に長い長さを前記特定方向に沿って有する監視領域を含む領域の撮像を定期的に行う撮像手段と;前記撮像手段による撮像によって得られた撮像結果における前記監視領域を抽出した後、前記抽出された監視領域において、待ち行列発生時に該待ち行列内において隣り合う前記監視対象間の典型的な距離を前記第1特定長に加えた長さである第2特定長の2倍以上に相当する長さを前記特定方向に相当する第1画像方向に沿って有する判定領域を抽出する判定領域抽出手段と;前記判定領域を前記第1画像方向に沿って、前記第2特定長に相当する画像特定長で分割した分割領域それぞれの内部において、背景濃度を推定した後、前記監視対象が存在すると推定される物体領域を特定する物体領域特定手段と;前記撮像によって得られた撮像結果と前回の撮像によって得られた撮像結果とを比較し、移動物体領域を特定する移動物体領域特定手段と;前記分割領域内ごとにおける前記物体領域及び前記移動物体領域に基づいて、前記監視対象の待ち行列の発生状況を検出する待ち行列検出手段と;を備え、前記物体領域特定手段は、前記判定領域内において、前記第1画像方向の位置を変化させながら、前記特定方向に直交する方向に相当する第2画像方向に沿って並ぶ画素の濃度値の分散及び変化幅を求めたとき、前記分散が最小となり、かつ、前記変化幅が許容値以下となった前記第2画像方向に並ぶ画素の濃度値の代表値を前記背景濃度とした後、前記分割領域それぞれにおいて、前記第2画像方向に沿って並ぶ画素の濃度値の代表値と前記背景濃度との差が第1所定値以上である前記第1画像方向の点を画像物体点として、前記第1画像方向に前記画像物体点が所定長以上並ぶ領域を前記物体領域として特定し、前記移動物体領域特定手段は、前記撮像によって得られた撮像結果と、前記前回の撮像によって得られた撮像結果とについて、画素ごとの濃度値差を算出した後、前記濃度値差の絶対値が第2所定値以上である画素が所定数以上存在する前記第2画像方向に沿って並ぶ画素群が所定密度以上で前記第1画像方向に沿って存在する領域を、前記移動物体領域として求め、前記待ち行列検出手段は、前記分割領域ごとにおける前記物体領域及び前記移動物体領域それぞれが占める比率に基づいて、待ち行列領域を判定する、ことを特徴とする待ち行列検出装置である。
【0023】
これによれば、撮像手段による撮像ごとに、判定領域抽出手段が、撮像結果における監視領域を抽出した後、抽出された監視領域において、待ち行列発生時に該待ち行列内において隣り合う前記監視対象間の典型的な距離を前記第1特定長に加えた長さである第2特定長の2倍以上に相当する長さを特定方向に相当する第1画像方向に沿って有する判定領域を抽出する。引き続き、物体領域特定手段が、判定領域を第1画像方向に沿って、第1特定長と所定の関係を有する第2特定長に相当する画像特定長で分割した分割領域それぞれの内部において監視対象が存在すると推定される物体領域を特定する。
ここで、前記物体領域特定手段は、前記判定領域内において、前記第1画像方向の位置を変化させながら、前記特定方向に直交する方向に相当する第2画像方向に沿って並ぶ画素の濃度値の分散及び変化幅を求めたとき、前記分散が最小となり、かつ、前記変化幅が許容値以下となった前記第2画像方向に並ぶ画素の濃度値の代表値を前記背景濃度とした後、前記分割領域それぞれにおいて、前記第2画像方向に沿って並ぶ画素の濃度値の代表値と前記背景濃度との差が第1所定値以上である前記第1画像方向の点を画像物体点として、前記第1画像方向に前記画像物体点が所定長以上並ぶ領域を前記物体領域として特定する。
【0024】
次に、移動物体領域特定手段が、今回の撮像結果と前回の撮像によって得られた撮像結果とを比較し、移動物体領域を特定する。かかる移動物体領域の特定に際して、前記移動物体領域特定手段は、前記撮像によって得られた撮像結果と、前記前回の撮像によって得られた撮像結果とについて、画素ごとの濃度値差を算出した後、前記濃度値差の絶対値が第2所定値以上である画素が所定数以上存在する前記第2画像方向に沿って並ぶ画素群が所定密度以上で前記第1画像方向に沿って存在する領域を、前記移動物体領域として求める。
そして、待ち行列検出手段が、分割領域内ごとにおける物体領域及び移動物体領域に基づいて、監視対象の待ち行列の発生状況を検出する。かかる監視対象の待ち行列の発生状況の検出に際して、前記待ち行列検出手段は、前記分割領域ごとにおける前記物体領域及び前記移動物体領域それぞれが占める比率に基づいて、待ち行列領域を判定する。
【0025】
すなわち、本発明の待ち行列検出装置は、本発明の待ち行列検出方法を使用して、監視対象の待ち行列の発生状況を検出する。したがって、簡易な構成で、背景環境の変化が大きな戸外であっても、精度良く待ち行列の発生状況を検出することができる。
【0026】
本発明の待ち行列検出装置では、前記待ち行列検出手段によって検出された待ち行列の発生状況を表示する表示装置を更に含むことができる。
【0027】
【発明の実施の形態】
以下、本発明の一実施形態を、図1〜図3を参照して説明する。図1には、一実施形態に係る待ち行列検出装置100の構成が、ブロック図にて示されている。この待ち行列検出装置100は、車道の特定の車線における車両の待ち行列の発生状況、すなわち、車両の渋滞の発生状況を検出する装置である。
【0028】
図1に示されるように、この待ち行列検出装置100は、路上を撮像する撮像手段としてのビデオカメラ10と、ビデオカメラ10による撮像結果を処理して、車両の待ち行列の発生状況を検出する処理装置20と、待ち行列の発生状況を表示する表示装置としての画面表示装置43及び音声表示装置45とを備えている。また、待ち行列検出装置100は、オペレータによる処理装置20への指示入力用に、キーボードやマウス等の入力装置41を更に備えている。なお、画面表示装置43は、入力装置41からの入力情報を確認のために表示や、待ち行列検出装置100の動作状況を表示するためにも使用される。
【0029】
前記ビデオカメラ10は、図2(A)に概念的に示されるように、車道Rの上方に設置され、斜め上方から車道Rの監視対象の車線RL(図2(B)参照)における車両OBJ1,OBJ2,OBJ3の進行方向を見込む視野で、車道R上を観察するようになっている。この結果、ビデオカメラ10の視野内には、図2(B)に示されるような斜視像で、車道R上の車両OBJ1,OBJ2,OBJ3及びそれらの周辺の様子が捉えられるようになっている。また、渋滞時においても少なくとも手前側では、車間における車道面が観察できるような角度で車道Rを見込むように、ビデオカメラ10の視野が設定されるようになっているものとする。
【0030】
なお、以下の説明においては、車道Rの車線RLにおける車両OBJ1,OBJ2,OBJ3の進行方向をY方向とし、また、車道Rの幅方向をX方向と記すものとする。ここで、画像上(すなわち、図2(B)におけるモニタ座標系(XM,YM)においては、車線RLにおける車両OBJ1,OBJ2,OBJ3の進行方向がX方向位置によって異なることになるが、車線RLにおける車両OBJ1,OBJ2,OBJ3の進行方向を総括的にY方向と記すものとする。
【0031】
また、車道Rは、片側一車線であり、車線の分離が白線WL1〜WL5によって表示されているものとする。また、車道Rと歩道とは段差があり、その段差の壁面により車道Rと歩道との識別が可能であるものとする。
【0032】
図1に戻り、前記処理装置20は、(a)待ち行列検出装置100全体を統括制御する制御装置29と、(b)ビデオカメラ10による撮像結果データを収集する撮像データ収集装置21と、(c)収集された撮像データに基づいて、画像解析を行う画像解析装置28と、(d)記憶装置30とを備えている。
【0033】
前記画像解析装置28は、(i)撮像された画像から判定領域JGA(図2(B)参照)を抽出する判定領域抽出手段としての判定領域抽出装置22と、(ii)判定領域JGAにおける各分割領域中の物体領域を特定する物体領域特定手段としての物体領域算出装置23とを備えている。また、画像解析装置28は、(iii)判定領域JGAにおける各分割領域中の移動物体領域を特定する移動物体領域特定手段としての移動物体領域算出装置24と、(iv)各分割領域における物体領域情報と移動物体領域情報とに基づいて、待ち行列の発生状況を検出する待ち行列検出手段としての待ち行列算出装置25とを備えている。更に、画像解析装置28は、検出された待ち行列の発生状況を、画面表示装置43又は音声表示装置45を介して表示する表示指示装置26とを備えている。
【0034】
前記記憶装置30は、撮像データ格納領域31、判定領域データ格納領域32、物体領域情報格納領域33、移動物体領域情報格納領域34、及び待ち行列情報格納領域35を有している。
【0035】
なお、図1においては、データの流れが実線矢印で示され、制御の流れが点線矢印で示されている。以上のように構成された処理装置20の各装置の作用は後述する。
【0036】
本実施形態では、処理装置20を上記のように、各種の装置を組み合わせて構成したが、処理装置20を計算機システムとして構成し、記憶装置30を除く各装置の機能を処理装置20に内蔵されたプログラムによって実現することも可能である。
【0037】
以下、本実施形態の待ち行列検出装置100による待ち行列検出動作を、図3に示されるフローチャートに沿って、適宜他の図面を参照しながら説明する。
【0038】
なお、前提として、ビデオカメラ10による撮像及びその撮像結果に関する処理が少なくとも1回は行われており、判定領域データ格納領域32には、前回の撮像結果から特定された判定領域の画像データが残されているものとする。
【0039】
まず、図3のステップ111において、撮像データ収集装置21が、ビデオカメラ10から送られてきた撮像データを一画面分だけ収集する。そして、撮像データ収集装置21は、収集した撮像データを撮像データ格納領域31に格納する。
【0040】
次に、ステップ112において、判定領域抽出装置22が、撮像データ格納領域31から撮像データを読み出して、判定領域JGA(図2(B)参照)を抽出する。かかる判定領域JGAの抽出にあたって、判定領域抽出装置22は、まず、読み出した撮像データから、上述した白線WL1〜WL5及び車道Rと歩道との境界壁面を認識し、監視領域である車線RLの領域を特定する。そして、特定された車線RLの領域中から、車線RLの中央部付近の判定領域JGAを抽出する。なお、判定領域としては、Y位置(車両の進行方向位置)としては車両が存在する場合であっても、そのY位置におけるX方向(車線RLの幅方向)には、車両が存在せず、路面が現れている部分がある程度(例えば、判定領域のX方向幅の1/3以下)は存在するような領域を選択する。
【0041】
こうして、本来は動かない白線や境界壁面を基準として判定領域JGAを抽出することにより、ビデオカメラの揺れ等による撮像画像中における判定領域JGAの抽出の不安定さが解消される。判定領域抽出装置22は、抽出された判定領域JGA内の画像データを今回の判定領域データとして判定領域データ格納領域32に格納する。
【0042】
次いで、ステップ113において、物体領域算出装置23が、判定領域データ格納領域32から今回の判定領域データを読み出して、車両が存在する物体領域を特定する。かかる物体領域の特定にあたって、物体領域算出装置23は、まず、今回の判定領域像を、Y方向に沿って、車両の典型的な長さに渋滞時おける平均的な車間距離を加えた長さに応じた画像における長さで分割し、複数の分割領域を定義する。なお、本実施形態のように、画像が斜視像として得られる場合には、Y位置に応じて、分割領域のY方向の長さが異なることになる。
【0043】
引き続き、物体領域算出装置23は、分割領域ごとに、各Y位置におけるX方向に並ぶ複数の画素について、それらの濃度値のメジアン値、濃度変化幅、及び分散値を算出する。そして、車線RLの撮像結果の濃度変化幅として許容値以下となり、かつ、その中で分散が最小となるY位置を特定する。そして、物体領域算出装置23は、かかるY位置が各分割領域においてX方向に沿って路面のみが存在するY位置である推定し、路面濃度値すなわち背景濃度値として当該メジアン値を採用する。
【0044】
次に、物体領域算出装置23は、求められた背景濃度値と、各分割領域ごとに上記で算出された各Y位置におけるメジアン値とを比較する。そして、物体領域算出装置23は、メジアン値と背景濃度値との差が予め定めた第1所定値以上となるY位置を物体点と認識し、物体点がY方向に予め定めた第1所定画素数以上連続する領域を物体領域として特定する。物体領域算出装置23は、こうして求めた各分割領域における物体領域情報を、物体領域情報格納領域33に格納する。
【0045】
次いで、ステップ114において、移動物体領域算出装置24が、判定領域データ格納領域32から今回の判定領域データ及び前回の判定領域データを読み出して、車両が前回の撮像時から今回の撮像時までに移動した移動物体領域を特定する。かかる移動物体領域を特定にあたり、移動物体領域算出装置24は、前回撮像された判定領域像と今回撮像された判定領域像との差分画像を算出する。
【0046】
引き続き、移動物体領域算出装置24は、差分画像において、各Y位置におけるX方向に並ぶ複数の画素のうち、予め定めた第2所定値以上となる画素数が一定の比率以上となるY位置を移動物体点として認識する。そして、移動物体領域算出装置24は、移動物体点がY方向に予め定めた第2所定画素数以上連続する領域を移動物体領域として特定する。移動物体領域算出装置24は、こうして求めた移動物体領域情報を、移動物体領域情報格納領域34に格納する。
【0047】
次に、ステップ115において、待ち行列算出装置25が、物体領域情報格納領域33から物体領域情報を読み出すとともに、移動物体領域情報格納領域34から移動物体領域情報を読み出して、待ち行列の発生状況を検出する。かかる待ち行列の発生状況の検出にあたり、待ち行列算出装置25は、物体領域情報及び移動物体情報に基づいて、上述した各分割領域において、物体領域が占めるY方向比率及び移動物体領域が占めるY方向比率を算出する。また、待ち行列算出装置25は、物体領域情報及び移動物体情報に基づいて、各分割領域において物体領域ではあるが、移動物体領域ではない、静止物体領域を求め、その静止物体領域が分割領域に対して占める比率を求める。待ち行列算出装置25は、こうして算出された比率情報を総合的に解析して、現在における車両の待ち行列の発生状況、すなわち、どのY位置付近でどの程度の区間にわたって待ち行列が発生しているかを求める。なお、本実施形態では、判定領域像における待ち行列区間長を、座標変換の手法を用いて現実の空間における長さに変換し、変換された長さを、車両の典型的な長さに渋滞時おける平均的な車間距離を加えた長さで除算することにより、待ち行列の長さを車両の数に換算している。待ち行列算出装置25は、こうして求めた待ち行列情報を待ち行列情報格納領域35に格納する。
【0048】
次いで、ステップ116において、表示指示装置26が、待ち行列情報格納領域35から待ち行列情報を読み出して、前に待ち行列の発生状況を表示した時から待ち行列の発生状況に変化があったか否かを判定する。肯定的な判定がなされた場合には、処理はステップ117へ移行する。一方、否定的な判定がなされた場合には、処理はステップ118へ移行する。以下、ステップ116において肯定的な判定がなされたものとして、説明を行う。
【0049】
ステップ117においては、表示指示装置26が、待ち行列情報に基づいて、待ち行列の発生状況を視覚した表示を画面表示装置43に表示指示するとともに、待ち行列の発生状況の変換を音声表示装置45に表示指示する。これにより、待ち行列の発生状況及びその変化状況が、視覚及び聴覚を通じてオペレータに提供される。こうして、表示動作が終了すると、処理はステップ118へ移行する。
【0050】
ステップ118においては、制御装置29が、入力装置41から待ち行列検出動作の終了が指示されたか否かを判定する。ここで、否定的な判定がなされた場合には、処理はステップ111へ移行し、上記と同様にして、待ち行列の検出が続行される。一方、ステップ118において、肯定的な判定がなされると、待ち行列の検出動作が終了する。こうして、入力装置41から待ち行列検出動作の終了が指示されるまで、待ち行列の検出がなされる。
【0051】
以上説明したように、本実施形態の待ち行列検出装置100によれば、各回のビデオカメラ10による撮像結果に基づいて、判定領域抽出装置32が、撮像結果における監視領域である車線領域RLを抽出した後、抽出された車線領域RLにおいて、判定領域JGAを抽出する。引き続き、物体領域算出装置33が、判定領域JGAを複数の分割領域に分割し、各分割領域における物体領域を特定するとともに、移動物体領域算出装置34が、今回の撮像によって得られた撮像結果と前回の撮像によって得られた撮像結果とを比較し、撮像結果の前回から今回までの変化の態様を解析して、移動物体領域を特定する。そして、分割領域内ごとにおける前記物体領域及び前記移動物体領域に基づいて、監視対象である車両の待ち行列の発生状況を検出する。したがって、個々の監視車両のパターン認識をする必要ないので膨大な計算資源を必須とせず、また、固定的な背景パターンを使用しないので背景の状態の変化が大きい戸外においても、精度良く監視対象の待ち行列の発生状況を検出することができる。
【0052】
また、本実施形態の待ち行列検出装置100によれば、ビデオカメラ10によって斜め上方から監視領域を撮像するので、1台のビデオカメラ10によって、待ち行列の発生状況の検出に十分な領域を観察ずることができる。
【0053】
また、物体領域算出装置33が、撮像の都度、背景画像の濃度値、すなわち、路面の撮像結果の濃度値を求めるので、環境条件の変化が大きな戸外における待ち行列の検出を精度良く行うことができる。
【0054】
また、各分割領域における物体領域及び移動物体領域を特定し、総合的に判断して待ち行列の発生状況を検出するので、精度良く待ち行列の発生状況を検出することができる。
【0055】
なお、本実施形態では、道路を片側一車線としたが、複数車線であってもよい。
【0056】
また、本実施形態では、背景濃度値の推定や物体領域の特定に各分割領域においてX方向に沿って並ぶ複数画素の濃度値のメジアン値を使用したが、当該複数画素の濃度値の平均値を使用してもよい。
【0057】
また、本実施形態では、ビデオカメラ10によって斜め上方から監視領域を撮像したが、十分に広角な撮像装置を使用すれば、監視領域の鉛直上方から、監視領域を撮像することもできる。かかる場合には、斜視像であることに由来する、座標変換の面倒さを解消することができる。
【0058】
また、上記の実施形態では、撮像ごとかつ分割領域ごとに背景濃度値を求め、分割領域内の各Y位置における画素濃度値の代表値(メジアン値)と背景濃度値との差から各Y位置が物体点であるか否かを判定して物体領域を特定したが、次のようにして、物体領域を特定することも可能である。すなわち、撮像の度に、上記の実施形態と同様に求めた背景濃度値を求めた後、今回の撮像結果において背景濃度値との差が所定の許容値以下となる画素のみから成り、かつ背景領域であると推定される領域の集まりを今回背景画像として作成し、今回背景画像を、前回の撮像までに求められた累積背景像に重ね合わせることにより、新たな累積背景像を作成する。なお、新たな累積背景像の作成にあたっては、今回背景画像を構成する画素については今回の撮像結果の濃度値がそのまま採用され、また、今回背景画像には存在せず、かつ、前回の撮像までに求められた累積背景像を構成する画素については前回の撮像までに求められた累積背景像の濃度値を採用するように、画像の重ね合わせが行われる。
【0059】
そして、累積背景像の画素数が判定領域の画素数に対して所定割合以上となるまでは、上記の実施形態と同様にして物体領域を特定する。一方、累積背景像の画素数が判定領域の画素数に対して所定割合以上となった後は、累積背景像を判定用背景像として採用し、その後の撮像ごとの物体領域特定は、撮像された画像と累積背景像との比較画像に基づいて行う。なお、判定用背景像についても、新たな撮像のたびごとに、上記の累積背景像の場合と同様にして、更新をすることとするのは勿論である。
【0060】
また、上記の実施形態では、背景濃度値と撮像結果の濃度値と差の大きさを基準にして物体領域の特定を行っているが輪郭強調のために、各画素位置の濃度差の像についてフィルタ処理を行い、濃度差が大きな画素と、濃度差が大きいとはいえない画素とを判別して2値化処理を行い、この2値化処理を行った画像について、いわゆる膨張処理及び縮小処理を行って、本来の物体領域内における空洞の消滅と、物体領域外のノイズの消去とを行った後に、物体領域を検出することもできる。
【0061】
また、本実施形態では、監視対象を路上の車両としたが、待ち行列の発生があり得るものであれば、他の物や人であっても、本発明を適用することができる。また、戸外であるか否かを問わず、本発明を適用することができる。
【0062】
【発明の効果】
以上詳細に説明にしたように、本発明の待ち行列検出方法及び待ち行列検出装置によれば、簡単な構成で精度良く待ち行列の発生状況を検出することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る待ち行列検出装置の概略的な構成を示すブロック図である。
【図2】図2(A)は、図1のビデオカメラの配置を説明するための図であり、図2(B)は、図1のビデオカメラによる撮像結果を説明するための図である。
【図3】図1の待ち行列検出装置による待ち行列の検出処理を説明するためのフローチャートである。
【符号の説明】
10…ビデオカメラ(撮像手段)、22…判定領域抽出装置(判定領域抽出手段)、23…物体領域算出装置(物体領域特定手段)、24…移動物体領域算出装置(移動物体領域特定手段)、25…待ち行列算出装置(待ち行列検出手段)、43…画面表示装置(表示装置の一部)、45…音声表示装置(表示装置の一部)。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a matrix detection method and a matrix detection device, and more particularly, to a vehicle detection method and a matrix detection device for detecting a generation status of a monitoring target queue caused by traffic congestion or the like on a road. About.
[0002]
[Prior art]
Conventionally, various proposals have been made in order to grasp the traffic congestion state of vehicles on the road. One of them is to arrange a vehicle detector on the road, detect the temporal transition of the presence or absence of the vehicle at the observation point, and try to grasp the traffic congestion state of the vehicle on the road (hereinafter referred to as “conventional example 1”). "). As the vehicle detector in the conventional example 1, one that detects the presence or absence of a vehicle at an observation point by measuring the distance to an object below by an ultrasonic sensor or the like has been proposed.
[0003]
In addition, a technique for recognizing a traffic jam situation of a vehicle on the road by recognizing a pattern of each vehicle from a result of imaging on the road by a video camera and detecting a movement and a stop situation of each vehicle is also proposed. (Hereinafter referred to as “conventional example 2”).
[0004]
In addition, a technique has been proposed that tries to grasp the traffic jam situation of the vehicle on the road by detecting the movement and stop status of the vehicle from the difference between the imaging result on the road by the video camera and the background image obtained in advance. (Hereinafter referred to as “conventional example 3”).
[0005]
[Problems to be solved by the invention]
In the technique of Conventional Example 1 described above, the number of observation points is limited, and only the time occupation ratio of the vehicle at the observation points can be measured. Therefore, for example, even when there is only one observation point and the vehicle happens to stop at that observation point position, it is erroneously detected that there is a traffic jam, that is, a vehicle queue. In order to prevent such false detection, it is necessary to arrange a large number of vehicle detectors over a wide area and simultaneously process signals from a large number of vehicle detectors. It is necessary to construct a system that has such a system.
[0006]
In the technique of Conventional Example 2, since individual vehicles are extracted from the imaging result by pattern recognition, a very large computational resource is required. Such a system having a large-scale computing resource inevitably has a large-scale and complicated configuration.
[0007]
Further, the technology of Conventional Example 3 may be able to detect the occurrence and cancellation of a vehicle queue with a simple configuration in an environment where the background is statically determined. However, in the outdoors where the background state changes greatly, an effective background image cannot be determined, which is not practical.
[0008]
The present invention has been made under such circumstances, and an object of the present invention is to detect a queue that can accurately detect the occurrence or cancellation of a queue to be monitored such as a vehicle with a simple configuration. It is to provide a method and a queue detection device.
[0009]
[Means for Solving the Problems]
  The queue detection method of the present invention is a queue detection method for detecting an occurrence status of a queue to be monitored,The queueAlong a specific directionThe monitored objectA length that is sufficiently longer than the first specific length, which is a typical length, along the specific directionMonitoring areaIn each of the extracted monitoring areas, after extracting the monitoring area in the imaging result obtained by the imaging each time the imaging is performed, periodically imaging the area including theMore than twice the second specific length, which is a length obtained by adding a typical distance between the monitoring targets adjacent in the queue to the first specific length when the queue is generatedA determination region extraction step of extracting a determination region having a length corresponding to the first image direction corresponding to the specific direction; and the determination region along the first image direction,SaidDivide by image specific length corresponding to the second specific lengthdidAn object region specifying step for specifying an object region in which the monitoring target is estimated after estimating the background density in each of the divided regions; an imaging result obtained by the imaging and a previous imaging A moving object region specifying step of comparing the imaging result and specifying a moving object region; detecting the occurrence of the monitoring target queue based on the object region and the moving object region in each of the divided regions; A queue detection step;The object region specifying step is executed, and the density value of the pixels arranged along the second image direction corresponding to a direction orthogonal to the specific direction while changing the position of the first image direction in the determination region. When the variance and change width of the image are obtained, a background density having the background density as a representative value of the density values of pixels arranged in the second image direction in which the variance is minimum and the change width is equal to or less than an allowable value. Calculating a point in the first image direction in which a difference between a representative value of density values of pixels arranged in the second image direction and the background density is not less than a first predetermined value in each of the divided regions; An object area calculating step for specifying, as the object area, an area in which the image object points are arranged in the first image direction for a predetermined length or more, and the moving object area specifying step is obtained by the imaging. Imaging results A difference image calculation step of calculating a density value difference for each pixel with respect to an imaging result obtained by the previous imaging; and a predetermined number or more of pixels having an absolute value of the density value difference equal to or greater than a second predetermined value. A moving object area calculating step of obtaining, as the moving object area, an area in which a group of pixels arranged along the second image direction is present at a predetermined density or more along the first image direction. The process includes a queue determination step of determining a queue area based on a ratio occupied by each of the object area and the moving object area for each of the divided areas.This is a queue detection method.
[0010]
  According to this, after extracting the monitoring area (for example, the area of a specific lane on the roadway) in the imaging result in the determination area extraction step based on the imaging result of each time, in the extracted monitoring area,More than twice the second specific length, which is a length obtained by adding a typical distance between the monitoring targets adjacent in the queue to the first specific length (for example, the length of a passenger car) when the queue is generatedIs extracted along the first image direction corresponding to the specific direction (for example, the traveling direction of the vehicle in the specific lane). Subsequently, in the object region specifying step, the determination region is along the first image direction,The second specific length(For example, the length of a passenger car plus the typical inter-vehicle distance in a traffic jam) divided by the specified image lengthdidEstimate the background density inside each divided area. Then, using the estimated background density as a reference density, an object region that is estimated to have a monitoring target is specified based on the imaging result. When the imaging result is a perspective image, the second specific length varies depending on the position in the depth direction in imaging of the imaging target.
  Here, in the object region specifying step, first, in the background density calculating step, the position in the first image direction is changed in the determination region, and the second image direction corresponding to the direction orthogonal to the specific direction is changed. When the dispersion and change width of the density values of the pixels arranged along the line are obtained, a representative value of the density values of the pixels arranged in the second image direction in which the dispersion is minimum and the change width is equal to or less than an allowable value is obtained. The background density is used. Then, in the object region calculation step, in each of the divided regions, the first image direction in which a difference between a representative value of density values of pixels arranged along the second image direction and the background density is equal to or greater than a first predetermined value As an image object point, an area in which the image object points are arranged for a predetermined length or more in the first image direction is specified as the object area.
[0011]
  Next, the imaging result obtained by the current imaging is compared with the imaging result obtained by the previous imaging, and the mode of change from the previous to the current imaging result is analyzed to identify the moving object region. In addition, although it is preferable that the time interval of each imaging is set shorter than the shortest time during which the monitoring target may move by the second specific length, it is not limited to this.
  When specifying such a moving object region, first, in the difference image calculation step, a density value difference for each pixel is calculated for the imaging result obtained by the imaging and the imaging result obtained by the previous imaging. In the moving object region calculating step, a pixel group arranged along the second image direction in which a predetermined number or more of pixels having an absolute value of the density value difference equal to or greater than a second predetermined value exists is equal to or higher than a predetermined density. A region present along the image direction is obtained as the moving object region.
[0012]
  And based on the object area and the moving object area in each divided area,Each divided areaThe ratio of the object area and the moving object area in each is calculated, and the generation status of the monitoring target queue is detected by analyzing how the ratios are in each divided area.
[0013]
Therefore, since it is not necessary to recognize the pattern of each monitored vehicle, a huge amount of computing resources are not required, and since a fixed background pattern is not used, it is possible to accurately monitor the object to be monitored even outdoors where the background state changes greatly. The occurrence status of the queue can be detected.
[0014]
In the queue detection method of the present invention, the imaging can be performed with a visual field viewed from above the monitoring area and obliquely intersecting the specific direction.
[0015]
In the queue detection method of the present invention, the second specific length is a length obtained by adding a typical distance between the monitoring targets adjacent in the queue to the first specific length when the queue is generated. be able to.
[0019]
In addition, the queue detection method of the present invention may further include a display step of displaying the occurrence status of the queue detected in the queue detection step.
[0020]
Here, in the display step, at least one of graphic display and voice display can be performed with respect to the occurrence status of the queue.
[0021]
  In the queue detection method of the present invention, the monitoring target can be a vehicle on the road.
  Further, in the queue detection method of the present invention, in the current imaging result, a collection of regions composed only of pixels having density values for which the difference from the background density obtained in the background density calculation step is equal to or less than a predetermined allowable value. Current background image creation step for creating a current background image; cumulative background image update for creating a new cumulative background image by superimposing the current background image on the cumulative background image created from the previous imaging results And a step of replacing the object region specifying step each time the image is taken after the number of pixels of the new accumulated background image has reached a predetermined ratio or more with respect to the number of pixels of the determination region. The second object region specifying step for specifying the object region is executed based on the comparison result between the cumulative background image created from the previous imaging results and the current imaging result image. Can.
[0022]
  The queue detection device of the present invention is a queue detection device that detects the occurrence status of a queue to be monitored,The queueAlong a specific directionThe monitored objectA length that is sufficiently longer than the first specific length, which is a typical length, along the specific directionMonitoring areaImaging means for periodically imaging an area including: after extracting the monitoring area in the imaging result obtained by imaging by the imaging means, in the extracted monitoring area,More than twice the second specific length, which is a length obtained by adding a typical distance between the monitoring targets adjacent in the queue to the first specific length when the queue is generatedA determination area extracting means for extracting a determination area having a length corresponding to the first image direction corresponding to the specific direction; and the determination area along the first image direction;SaidDivide by image specific length corresponding to the second specific lengthdidAn object area specifying means for specifying an object area where the monitoring target is estimated to exist after estimating a background density in each of the divided areas; an imaging result obtained by the imaging and a previous imaging A moving object area specifying means for comparing the imaging result and specifying a moving object area; detecting the occurrence status of the monitoring target queue based on the object area and the moving object area in each of the divided areas; Queue detection means;And the object region specifying unit is configured to change density values of pixels arranged along a second image direction corresponding to a direction orthogonal to the specific direction while changing a position in the first image direction within the determination region. When determining the variance and the change width, after setting the representative value of the density values of the pixels arranged in the second image direction in which the variance is minimum and the change width is equal to or less than the allowable value as the background density, In each of the divided areas, a point in the first image direction in which a difference between a representative value of density values of pixels arranged along the second image direction and the background density is a first predetermined value or more is used as an image object point. An area in which the image object points are arranged in a first image direction for a predetermined length or more is specified as the object area, and the moving object area specifying unit is configured to acquire an imaging result obtained by the imaging and an imaging obtained by the previous imaging. As a result After calculating the density value difference for each pixel, a pixel group arranged along the second image direction in which a predetermined number or more of pixels whose absolute value of the density value difference is the second predetermined value or more exists is a predetermined density or more. The area existing along the first image direction is obtained as the moving object area, and the queue detecting means waits based on the ratio of the object area and the moving object area in each divided area. Determining the matrix regionA queue detection device.
[0023]
  According to this, after every determination by the imaging unit, the determination region extraction unit extracts the monitoring region in the imaging result, and then in the extracted monitoring region,More than twice the second specific length, which is a length obtained by adding a typical distance between the monitoring targets adjacent in the queue to the first specific length when the queue is generatedIs extracted along the first image direction corresponding to the specific direction. Subsequently, the object area specifying unit divides the determination area along the first image direction by an image specific length corresponding to a second specific length having a predetermined relationship with the first specific length.didAn object region in which a monitoring target is estimated to exist within each divided region is specified.
  Here, the object region specifying means changes the position of the first image direction in the determination region, and the density value of the pixels lined up along the second image direction corresponding to the direction orthogonal to the specific direction. After determining the representative value of the density values of the pixels arranged in the second image direction in which the variance is minimum and the change width is equal to or less than an allowable value, as the background density, In each of the divided areas, a point in the first image direction in which a difference between a representative value of density values of pixels arranged in the second image direction and the background density is equal to or more than a first predetermined value is defined as an image object point. A region where the image object points are arranged in a predetermined length or more in the first image direction is specified as the object region.
[0024]
  Next, the moving object area specifying unit compares the current imaging result with the imaging result obtained by the previous imaging, and specifies the moving object area.In specifying the moving object region, the moving object region specifying means calculates a density value difference for each pixel between the imaging result obtained by the imaging and the imaging result obtained by the previous imaging, A region in which a group of pixels arranged along the second image direction in which the absolute value of the density value difference is greater than or equal to a second predetermined value exists in a predetermined number or more exists along the first image direction with a predetermined density or more. And obtained as the moving object region.
  Then, the queue detection means detects the occurrence status of the queue to be monitored based on the object area and the moving object area in each divided area.When detecting the occurrence status of the queue to be monitored, the queue detection means determines the queue area based on the ratio of the object area and the moving object area for each of the divided areas.
[0025]
That is, the queue detection device of the present invention detects the occurrence status of the queue to be monitored using the queue detection method of the present invention. Therefore, it is possible to accurately detect the occurrence of the queue even with the simple configuration even when the background environment is greatly changed.
[0026]
The queue detection device according to the present invention may further include a display device for displaying the occurrence status of the queue detected by the queue detection means.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram illustrating a configuration of a queue detection device 100 according to an embodiment. The queue detection device 100 is a device that detects the occurrence status of a vehicle queue in a specific lane of a roadway, that is, the occurrence status of a traffic jam of a vehicle.
[0028]
As shown in FIG. 1, the queue detection device 100 detects a situation in which a vehicle queue is generated by processing a video camera 10 serving as an imaging unit that captures an image on a road and an imaging result of the video camera 10. The processing device 20 includes a screen display device 43 and a voice display device 45 as display devices that display the occurrence status of the queue. The queue detection device 100 further includes an input device 41 such as a keyboard and a mouse for inputting instructions to the processing device 20 by the operator. The screen display device 43 is also used to display input information from the input device 41 for confirmation and to display the operation status of the queue detection device 100.
[0029]
As conceptually shown in FIG. 2 (A), the video camera 10 is installed above the roadway R, and the vehicle OBJ1 in the lane RL (see FIG. 2 (B)) to be monitored on the roadway R obliquely from above. , OBJ2 and OBJ3 are observed on the roadway R with a visual field in which the traveling direction is expected. As a result, in the field of view of the video camera 10, the state of the vehicles OBJ1, OBJ2, OBJ3 and their surroundings on the roadway R can be captured with a perspective view as shown in FIG. . Further, it is assumed that the field of view of the video camera 10 is set so that the roadway R is viewed at an angle at which the roadway surface between vehicles can be observed at least on the near side even in a traffic jam.
[0030]
In the following description, the traveling direction of the vehicles OBJ1, OBJ2, and OBJ3 in the lane RL of the roadway R is referred to as the Y direction, and the width direction of the roadway R is referred to as the X direction. Here, on the image (ie, the monitor coordinate system (XM, YM), The traveling direction of the vehicles OBJ1, OBJ2, and OBJ3 in the lane RL varies depending on the position in the X direction. However, the traveling direction of the vehicles OBJ1, OBJ2, and OBJ3 in the lane RL is collectively referred to as the Y direction. .
[0031]
Further, the roadway R is one lane on one side, and the separation of the lanes is indicated by white lines WL1 to WL5. Further, it is assumed that there is a step between the roadway R and the sidewalk, and the roadway R and the sidewalk can be identified by the wall surface of the step.
[0032]
Returning to FIG. 1, the processing device 20 includes (a) a control device 29 that performs overall control of the queue detection device 100, (b) an imaging data collection device 21 that collects imaging result data from the video camera 10, ( c) An image analysis device 28 that performs image analysis based on the collected imaging data, and (d) a storage device 30 are provided.
[0033]
The image analysis device 28 includes (i) a determination region extraction device 22 as a determination region extraction unit that extracts a determination region JGA (see FIG. 2B) from a captured image, and (ii) each of the determination regions JGA. And an object area calculating device 23 as object area specifying means for specifying an object area in the divided area. Further, the image analysis device 28 includes (iii) a moving object region calculation device 24 as a moving object region specifying unit that specifies a moving object region in each divided region in the determination region JGA, and (iv) an object region in each divided region. A queue calculation device 25 is provided as queue detection means for detecting the occurrence status of the queue based on the information and the moving object area information. Furthermore, the image analysis device 28 includes a display instruction device 26 that displays the detected queue generation status via the screen display device 43 or the voice display device 45.
[0034]
The storage device 30 includes an imaging data storage area 31, a determination area data storage area 32, an object area information storage area 33, a moving object area information storage area 34, and a queue information storage area 35.
[0035]
In FIG. 1, the data flow is indicated by a solid arrow, and the control flow is indicated by a dotted arrow. The operation of each device of the processing device 20 configured as described above will be described later.
[0036]
In the present embodiment, the processing device 20 is configured by combining various devices as described above. However, the processing device 20 is configured as a computer system, and functions of each device except the storage device 30 are built in the processing device 20. It can also be realized by a program.
[0037]
Hereinafter, the queue detection operation by the queue detection apparatus 100 of the present embodiment will be described with reference to other drawings as appropriate along the flowchart shown in FIG.
[0038]
Note that, as a premise, the processing related to the imaging by the video camera 10 and the imaging result is performed at least once, and the determination area data storage area 32 contains the image data of the determination area specified from the previous imaging result. It is assumed that
[0039]
First, in step 111 in FIG. 3, the imaging data collection device 21 collects imaging data sent from the video camera 10 for one screen. Then, the imaging data collection device 21 stores the collected imaging data in the imaging data storage area 31.
[0040]
Next, in step 112, the determination area extraction device 22 reads out the imaging data from the imaging data storage area 31, and extracts the determination area JGA (see FIG. 2B). In extracting the determination area JGA, the determination area extraction device 22 first recognizes the above-described white lines WL1 to WL5 and the boundary wall surface between the roadway R and the sidewalk from the read imaging data, and the area of the lane RL that is the monitoring area. Is identified. Then, a determination area JGA near the center of the lane RL is extracted from the identified area of the lane RL. As the determination area, even if the vehicle exists as the Y position (vehicle traveling direction position), the vehicle does not exist in the X direction (width direction of the lane RL) at the Y position. An area is selected such that the road surface appears to some extent (for example, 1/3 or less of the width in the X direction of the determination area).
[0041]
Thus, by extracting the determination area JGA based on the white line or boundary wall surface that does not move originally, the instability of extraction of the determination area JGA in the captured image due to the shake of the video camera or the like is eliminated. The determination area extraction device 22 stores the extracted image data in the determination area JGA in the determination area data storage area 32 as the current determination area data.
[0042]
Next, in step 113, the object area calculation device 23 reads the current determination area data from the determination area data storage area 32, and specifies the object area where the vehicle exists. In specifying the object area, the object area calculation device 23 first adds a length of the current determination area image to the typical length of the vehicle along with the average inter-vehicle distance in a traffic jam along the Y direction. A plurality of divided areas are defined by dividing the image according to the length of the image. Note that, when the image is obtained as a perspective image as in the present embodiment, the length of the divided region in the Y direction varies depending on the Y position.
[0043]
Subsequently, the object area calculation device 23 calculates the median value, density change width, and variance value of the density values of a plurality of pixels arranged in the X direction at each Y position for each divided area. Then, the Y position where the density change width of the imaging result of the lane RL is equal to or smaller than the allowable value and the variance is minimum is specified. Then, the object area calculation device 23 estimates that the Y position is a Y position where only the road surface exists along the X direction in each divided area, and adopts the median value as the road surface density value, that is, the background density value.
[0044]
Next, the object region calculation device 23 compares the obtained background density value with the median value at each Y position calculated above for each divided region. Then, the object area calculation device 23 recognizes the Y position where the difference between the median value and the background density value is equal to or greater than a predetermined first predetermined value as an object point, and the object point is determined as a first predetermined value in the Y direction. An area that continues for more than the number of pixels is specified as an object area. The object area calculation device 23 stores the object area information in each divided area thus obtained in the object area information storage area 33.
[0045]
Next, in step 114, the moving object area calculation device 24 reads the current determination area data and the previous determination area data from the determination area data storage area 32, and the vehicle moves from the previous imaging to the current imaging. The moving object area thus identified is identified. In specifying such a moving object region, the moving object region calculation device 24 calculates a difference image between the determination region image captured last time and the determination region image captured this time.
[0046]
Subsequently, the moving object region calculation device 24 calculates a Y position where the number of pixels equal to or greater than a predetermined second predetermined value among a plurality of pixels arranged in the X direction at each Y position in the difference image is equal to or greater than a certain ratio. Recognize as a moving object point. Then, the moving object area calculation device 24 identifies an area in which the moving object points continue for a second predetermined number of pixels or more in the Y direction as the moving object area. The moving object area calculation device 24 stores the moving object area information thus obtained in the moving object area information storage area 34.
[0047]
Next, in step 115, the queue calculation device 25 reads out the object area information from the object area information storage area 33 and also reads out the moving object area information from the moving object area information storage area 34 to check the occurrence status of the queue. To detect. In detecting the occurrence status of the queue, the queue calculation device 25 determines the Y direction ratio occupied by the object region and the Y direction occupied by the moving object region in each of the divided regions based on the object region information and the moving object information. Calculate the ratio. In addition, the queue calculation device 25 obtains a stationary object area that is an object area in each divided area but not a moving object area based on the object area information and the moving object information, and the stationary object area becomes the divided area. Find the percentage of the total. The queue calculation device 25 comprehensively analyzes the ratio information calculated in this way, and the current queue state of the vehicle, that is, in which Y position and in which section the queue is generated. Ask for. In this embodiment, the queue length in the determination area image is converted into a length in the real space using a coordinate conversion method, and the converted length is congested to a typical length of the vehicle. The length of the queue is converted to the number of vehicles by dividing by the length of the average distance between vehicles. The queue calculation device 25 stores the queue information thus obtained in the queue information storage area 35.
[0048]
Next, in step 116, the display instructing device 26 reads the queue information from the queue information storage area 35 and determines whether or not the queue generation status has changed since the previous queue generation status was displayed. judge. If a positive determination is made, the process proceeds to step 117. On the other hand, if a negative determination is made, the process proceeds to step 118. Hereinafter, description will be made assuming that a positive determination is made in step 116.
[0049]
In step 117, the display instruction device 26 instructs the screen display device 43 to display a display visualizing the occurrence status of the queue based on the queue information, and converts the occurrence status of the queue into the voice display device 45. Display instructions. As a result, the occurrence state of the queue and the change state thereof are provided to the operator through vision and hearing. When the display operation is thus completed, the process proceeds to step 118.
[0050]
In step 118, the control device 29 determines whether or not the input device 41 has instructed the end of the queue detection operation. If a negative determination is made here, the process proceeds to step 111, and the queue detection is continued in the same manner as described above. On the other hand, if an affirmative determination is made in step 118, the queue detection operation ends. Thus, the queue is detected until the input device 41 instructs the end of the queue detection operation.
[0051]
As described above, according to the queue detection device 100 of the present embodiment, the determination region extraction device 32 extracts the lane region RL that is the monitoring region in the imaging result based on the imaging result of the video camera 10 each time. After that, the determination area JGA is extracted in the extracted lane area RL. Subsequently, the object region calculation device 33 divides the determination region JGA into a plurality of divided regions, specifies the object region in each divided region, and the moving object region calculation device 34 uses the imaging result obtained by the current imaging. The moving object region is specified by comparing the imaging result obtained by the previous imaging and analyzing the mode of change of the imaging result from the previous time to the current time. Then, based on the object area and the moving object area in each divided area, the occurrence status of a queue of vehicles to be monitored is detected. Therefore, since it is not necessary to recognize the pattern of each monitored vehicle, a huge amount of computing resources are not required, and since a fixed background pattern is not used, it is possible to accurately monitor the object to be monitored even outdoors where the background state changes greatly. The occurrence status of the queue can be detected.
[0052]
Further, according to the queue detection device 100 of the present embodiment, the monitoring area is imaged from the diagonally upper side by the video camera 10, so that an area sufficient for detecting the occurrence of the queue is observed by one video camera 10. Can be shifted.
[0053]
Moreover, since the object area calculation device 33 obtains the density value of the background image, that is, the density value of the imaging result of the road surface every time the image is taken, it is possible to accurately detect the queue in the outdoors where the environmental conditions greatly change. it can.
[0054]
Further, since the object area and the moving object area in each divided area are specified and comprehensively determined to detect the queue generation status, the queue generation status can be detected with high accuracy.
[0055]
In this embodiment, the road is one lane on one side, but it may be a plurality of lanes.
[0056]
In this embodiment, the median value of the density values of a plurality of pixels arranged in the X direction in each divided region is used for estimating the background density value and specifying the object region. May be used.
[0057]
Further, in this embodiment, the monitoring area is imaged from the diagonally upper side by the video camera 10, but if a sufficiently wide-angle imaging device is used, the monitoring area can also be imaged from above the monitoring area. In such a case, it is possible to eliminate the troublesomeness of coordinate conversion that is derived from the perspective image.
[0058]
In the above embodiment, the background density value is obtained for each imaging and for each divided area, and each Y position is determined from the difference between the representative value (median value) of the pixel density value and the background density value at each Y position in the divided area. The object region is specified by determining whether or not is an object point. However, it is also possible to specify the object region as follows. That is, after obtaining the background density value obtained in the same manner as in the above embodiment for each image pickup, the image pickup result is composed of only pixels whose difference from the background density value is equal to or less than a predetermined allowable value, and the background. A group of areas estimated to be areas is created as a current background image, and a new cumulative background image is created by superimposing the current background image on the cumulative background image obtained up to the previous imaging. In creating a new cumulative background image, the density value of the current imaging result is used as it is for the pixels constituting the current background image, and does not exist in the current background image, and until the previous imaging. For the pixels constituting the accumulated background image obtained in step (b), the images are superimposed so that the density value of the accumulated background image obtained until the previous imaging is adopted.
[0059]
Then, the object region is specified in the same manner as in the above-described embodiment until the number of pixels of the accumulated background image becomes equal to or greater than a predetermined ratio with respect to the number of pixels of the determination region. On the other hand, after the number of pixels of the cumulative background image exceeds a predetermined ratio with respect to the number of pixels in the determination region, the cumulative background image is adopted as the determination background image, and the object region specification for each subsequent imaging is captured. This is performed based on a comparison image between the obtained image and the accumulated background image. Of course, the determination background image is updated every time a new image is taken in the same manner as in the case of the cumulative background image.
[0060]
In the above embodiment, the object region is specified based on the background density value, the density value of the imaging result, and the magnitude of the difference. However, in order to enhance the contour, an image of the density difference at each pixel position is used. Filter processing is performed to discriminate between pixels having a large density difference and pixels that cannot be said to have a large density difference, binarization processing is performed, and so-called expansion processing and reduction processing are performed on the binarized image. It is also possible to detect the object region after erasing the cavity in the original object region and eliminating the noise outside the object region.
[0061]
In the present embodiment, the monitoring target is a vehicle on the road, but the present invention can be applied to other objects or people as long as a queue can be generated. Further, the present invention can be applied regardless of whether it is outdoors.
[0062]
【The invention's effect】
As described above in detail, according to the queue detection method and the queue detection device of the present invention, it is possible to accurately detect the occurrence status of a queue with a simple configuration.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a queue detection device according to an embodiment of the present invention.
2A is a diagram for explaining the arrangement of the video camera in FIG. 1, and FIG. 2B is a diagram for explaining a result of imaging by the video camera in FIG. 1; .
FIG. 3 is a flowchart for explaining queue detection processing by the queue detection apparatus of FIG. 1;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Video camera (imaging means), 22 ... Determination area extraction apparatus (determination area extraction means), 23 ... Object area calculation apparatus (object area identification means), 24 ... Moving object area calculation apparatus (moving object area identification means), 25 ... Queue calculation device (queue detection means), 43 ... Screen display device (part of display device), 45 ... Voice display device (part of display device).

Claims (8)

監視対象の待ち行列の発生状況を検出する待ち行列検出方法であって、
前記待ち行列ができる特定方向に沿った前記監視対象の典型的な長さである第1特定長よりも十分に長い長さを前記特定方向に沿って有する監視領域を含む領域の撮像を定期的に行いつつ、前記撮像を行うたびに、
前記撮像によって得られた撮像結果における前記監視領域を抽出した後、前記抽出された監視領域において、待ち行列発生時に該待ち行列内において隣り合う前記監視対象間の典型的な距離を前記第1特定長に加えた長さである第2特定長の2倍以上に相当する長さを前記特定方向に相当する第1画像方向に沿って有する判定領域を抽出する判定領域抽出工程と;
前記判定領域を前記第1画像方向に沿って、前記第2特定長に相当する画像特定長で分割した分割領域それぞれの内部において、背景濃度を推定した後、前記監視対象が存在すると推定される物体領域を特定する物体領域特定工程と;
前記撮像によって得られた撮像結果と前回の撮像によって得られた撮像結果とを比較し、移動物体領域を特定する移動物体領域特定工程と;
前記分割領域内ごとにおける前記物体領域及び前記移動物体領域に基づいて、前記監視対象の待ち行列の発生状況を検出する待ち行列検出工程と;を実行し、
前記物体領域特定工程は、
前記判定領域内において、前記第1画像方向の位置を変化させながら、前記特定方向に直交する方向に相当する第2画像方向に沿って並ぶ画素の濃度値の分散及び変化幅を求めたとき、前記分散が最小となり、かつ、前記変化幅が許容値以下となった前記第2画像方向に並ぶ画素の濃度値の代表値を前記背景濃度とする背景濃度算出工程と;
前記分割領域それぞれにおいて、前記第2画像方向に沿って並ぶ画素の濃度値の代表値と前記背景濃度との差が第1所定値以上である前記第1画像方向の点を画像物体点として、前記第1画像方向に前記画像物体点が所定長以上並ぶ領域を前記物体領域として特定する物体領域算出工程と;を含み、
前記移動物体領域特定工程は、
前記撮像によって得られた撮像結果と、前記前回の撮像によって得られた撮像結果とについて、画素ごとの濃度値差を算出する差分画像算出工程と;
前記濃度値差の絶対値が第2所定値以上である画素が所定数以上存在する前記第2画像方向に沿って並ぶ画素群が所定密度以上で前記第1画像方向に沿って存在する領域を、前記移動物体領域として求める移動物体領域算出工程と;を含み、
前記待ち行列検出工程は、前記分割領域ごとにおける前記物体領域及び前記移動物体領域それぞれが占める比率に基づいて、待ち行列領域を判定する待ち行列判定工程を含む、
ことを特徴とする待ち行列検出方法。
A queue detection method for detecting an occurrence status of a queue to be monitored,
Periodic imaging of a region including a monitoring region having a length along the specific direction that is sufficiently longer than a first specific length, which is a typical length of the monitoring target along the specific direction that the queue can form Each time the imaging is performed,
After extracting the monitoring area in the imaging result obtained by the imaging, in the extracted monitoring area, a typical distance between the monitoring targets adjacent in the queue is generated in the queue when the queue is generated. A determination region extraction step of extracting a determination region having a length corresponding to at least twice the second specific length, which is a length added to the length , along the first image direction corresponding to the specific direction;
Along the determination region in the first image orientation, inside divided areas each divided in the corresponding image specified length to the second specific length is estimated that after estimating the background concentration, the monitoring target is present An object region specifying step for specifying the object region;
A moving object area specifying step of comparing the imaging result obtained by the imaging and the imaging result obtained by the previous imaging and specifying the moving object area;
Running; the division on the basis of the object area and the moving object region in each region, said a queuing detection step of detecting the occurrence of a monitored queue
The object region specifying step includes:
In the determination area, while changing the position of the first image direction, when obtaining the dispersion and change width of the density value of the pixels arranged along the second image direction corresponding to the direction orthogonal to the specific direction, A background density calculation step in which the background density is a representative value of density values of pixels arranged in the second image direction in which the variance is minimum and the change width is equal to or less than an allowable value;
In each of the divided areas, a point in the first image direction in which a difference between a representative value of density values of pixels arranged in the second image direction and the background density is equal to or more than a first predetermined value is defined as an image object point. An object area calculating step of specifying, as the object area, an area in which the image object points are arranged in a predetermined length or more in the first image direction;
The moving object region specifying step includes:
A difference image calculation step of calculating a density value difference for each pixel with respect to an imaging result obtained by the imaging and an imaging result obtained by the previous imaging;
A region in which a group of pixels arranged along the second image direction in which the absolute value of the density value difference is greater than or equal to a second predetermined value exists in a predetermined number or more exists along the first image direction with a predetermined density or more. A moving object area calculating step for obtaining the moving object area;
The queue detection step includes a queue determination step of determining a queue region based on a ratio occupied by each of the object region and the moving object region in each divided region.
A queue detection method characterized by the above .
前記撮像は、前記監視領域の上方かつ前記特定方向と斜交する方向から見込む視野で行われることを特徴とする請求項1に記載の待ち行列検出方法。  2. The queue detection method according to claim 1, wherein the imaging is performed in a visual field viewed from above the monitoring area and in a direction oblique to the specific direction. 前記待ち行列検出工程で検出された待ち行列の発生状況を表示する表示工程を更に含む、ことを特徴とする請求項1又は2に記載の待ち行列検出方法。The queue detection method according to claim 1 , further comprising a display step of displaying an occurrence status of the queue detected in the queue detection step. 前記表示工程では、前記待ち行列の発生状況について、図形表示及び音声表示の少なくとも一方を行うことを特徴とする請求項3に記載の待ち行列検出方法。4. The queue detection method according to claim 3 , wherein in the display step, at least one of graphic display and voice display is performed with respect to an occurrence state of the queue. 前記監視対象は、路上の車両であることを特徴とする請求項1〜4のいずれか一項に記載の待ち行列検出方法。The queue detection method according to claim 1 , wherein the monitoring target is a vehicle on a road. 今回の撮像結果において、前記背景濃度算出工程において求められた背景濃度との差が所定の許容値以下となる濃度値の画素のみから成る領域の集まりを今回背景画像として作成する今回背景画像作成工程と;In this imaging result, a current background image creation step of creating a collection of regions consisting only of pixels having density values that are equal to or less than a predetermined allowable value in the difference from the background density obtained in the background density calculation step as the current background image When;
前記今回背景画像を、前回までの撮像結果から作成された累積背景像上に重ね合わせることにより、新たな累積背景像を作成する累積背景像更新工程と;を更に備え、A cumulative background image update step of creating a new cumulative background image by superimposing the current background image on the cumulative background image created from the previous imaging results;
前記新たな累積背景像の画素数が前記判定領域の画素数に対して所定割合以上となった後には、前記撮影を行うたびに、前記物体領域特定工程に代って、After the number of pixels of the new accumulated background image is equal to or greater than a predetermined ratio with respect to the number of pixels of the determination area, each time the image is taken, instead of the object area specifying step,
前回までの撮像結果から作成された累積背景像と、今回の撮像結果の画像との比較結果に基づいて、前記物体領域を特定する第2物体領域特定工程が実行される、A second object region specifying step for specifying the object region is performed based on a comparison result between the cumulative background image created from the previous imaging results and the current imaging result image;
ことを特徴とする請求項1〜5のいずれか一項に記載の待ち行列検出方法。The queue detection method according to any one of claims 1 to 5, wherein
監視対象の待ち行列の発生状況を検出する待ち行列検出装置であって、
前記待ち行列ができる特定方向に沿った前記監視対象の典型的な長さである第1特定長よりも十分に長い長さを前記特定方向に沿って有する監視領域を含む領域の撮像を定期的に行う撮像手段と;
前記撮像手段による撮像によって得られた撮像結果における前記監視領域を抽出した後、前記抽出された監視領域において、待ち行列発生時に該待ち行列内において隣り合う前記監視対象間の典型的な距離を前記第1特定長に加えた長さである第2特定長の2倍以上に相当する長さを前記特定方向に相当する第1画像方向に沿って有する判定領域を抽出する判定領域抽出手段と;
前記判定領域を前記第1画像方向に沿って、前記第2特定長に相当する画像特定長で分割した分割領域それぞれの内部において、背景濃度を推定した後、前記監視対象が存在すると推定される物体領域を特定する物体領域特定手段と;
前記撮像によって得られた撮像結果と前回の撮像によって得られた撮像結果とを比較し、移動物体領域を特定する移動物体領域特定手段と;
前記分割領域内ごとにおける前記物体領域及び前記移動物体領域に基づいて、前記監視対象の待ち行列の発生状況を検出する待ち行列検出手段と;を備え、
前記物体領域特定手段は、
前記判定領域内において、前記第1画像方向の位置を変化させながら、前記特定方向に直交する方向に相当する第2画像方向に沿って並ぶ画素の濃度値の分散及び変化幅を求めたとき、前記分散が最小となり、かつ、前記変化幅が許容値以下となった前記第2画像方向に並ぶ画素の濃度値の代表値を前記背景濃度とした後、
前記分割領域それぞれにおいて、前記第2画像方向に沿って並ぶ画素の濃度値の代表値と前記背景濃度との差が第1所定値以上である前記第1画像方向の点を画像物体点として、前記第1画像方向に前記画像物体点が所定長以上並ぶ領域を前記物体領域として特定し、
前記移動物体領域特定手段は、
前記撮像によって得られた撮像結果と、前記前回の撮像によって得られた撮像結果とについて、画素ごとの濃度値差を算出した後、
前記濃度値差の絶対値が第2所定値以上である画素が所定数以上存在する前記第2画像方向に沿って並ぶ画素群が所定密度以上で前記第1画像方向に沿って存在する領域を、前記移動物体領域として求め、
前記待ち行列検出手段は、前記分割領域ごとにおける前記物体領域及び前記移動物体領域それぞれが占める比率に基づいて、待ち行列領域を判定する、
ことを特徴とする待ち行列検出装置。
A queue detection device for detecting occurrence status of a queue to be monitored,
Periodic imaging of a region including a monitoring region having a length along the specific direction that is sufficiently longer than a first specific length, which is a typical length of the monitoring target along the specific direction that the queue can form Imaging means for performing;
After extracting the monitoring area in the imaging result obtained by imaging by the imaging means, in the extracted monitoring area, a typical distance between the monitoring targets adjacent in the queue is generated when the queue is generated. A determination area extracting means for extracting a determination area having a length corresponding to at least twice the second specific length, which is a length added to the first specific length, along a first image direction corresponding to the specific direction;
Along the determination region in the first image orientation, inside divided areas each divided in the corresponding image specified length to the second specific length is estimated that after estimating the background concentration, the monitoring target is present An object area specifying means for specifying the object area;
A moving object area specifying means for comparing the imaging result obtained by the imaging and the imaging result obtained by the previous imaging and specifying the moving object area;
Comprising a; wherein in each divided region based on the object region and the moving object region, and queuing detection means for detecting the occurrence of said monitored queue
The object region specifying means includes
In the determination area, while changing the position of the first image direction, when obtaining the dispersion and change width of the density value of the pixels arranged along the second image direction corresponding to the direction orthogonal to the specific direction, The representative value of the density values of the pixels arranged in the second image direction in which the variance is minimum and the change width is equal to or less than the allowable value is set as the background density,
In each of the divided areas, a point in the first image direction in which a difference between a representative value of density values of pixels arranged in the second image direction and the background density is equal to or more than a first predetermined value is defined as an image object point. An area in which the image object points are arranged in a predetermined length or more in the first image direction is specified as the object area;
The moving object region specifying means includes:
After calculating the density value difference for each pixel for the imaging result obtained by the imaging and the imaging result obtained by the previous imaging,
A region in which a group of pixels arranged along the second image direction in which the absolute value of the density value difference is greater than or equal to a second predetermined value exists in a predetermined number or more exists along the first image direction with a predetermined density or more. , As the moving object region,
The queue detection means determines a queue area based on a ratio of the object area and the moving object area in each divided area.
A queue detection device characterized by the above .
前記待ち行列検出手段によって検出された待ち行列の発生状況を表示する表示装置を更に含む、ことを特徴とする請求項7に記載の待ち行列検出装置 Queuing detection apparatus according to claim 7, further comprising a display device for displaying the occurrence of the detected queue by the queue detection means, it is characterized.
JP2001149352A 2001-05-18 2001-05-18 Queue detection method and queue detection apparatus Expired - Fee Related JP4697761B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001149352A JP4697761B2 (en) 2001-05-18 2001-05-18 Queue detection method and queue detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001149352A JP4697761B2 (en) 2001-05-18 2001-05-18 Queue detection method and queue detection apparatus

Publications (2)

Publication Number Publication Date
JP2002342748A JP2002342748A (en) 2002-11-29
JP4697761B2 true JP4697761B2 (en) 2011-06-08

Family

ID=18994535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001149352A Expired - Fee Related JP4697761B2 (en) 2001-05-18 2001-05-18 Queue detection method and queue detection apparatus

Country Status (1)

Country Link
JP (1) JP4697761B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103985252A (en) * 2014-05-23 2014-08-13 江苏友上科技实业有限公司 Multi-vehicle projection locating method based on time domain information of tracked object
JP6621435B2 (en) * 2017-03-17 2019-12-18 日本電信電話株式会社 Matrix length estimation apparatus, method, and program
JP7009250B2 (en) * 2017-05-12 2022-02-10 キヤノン株式会社 Information processing equipment, information processing system, information processing method and program
CN110225236B (en) * 2018-03-02 2022-06-28 富士通株式会社 Method and device for configuring parameters for video monitoring system and video monitoring system
CN116958605A (en) * 2018-12-24 2023-10-27 同方威视技术股份有限公司 Security check image processing method and system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10289393A (en) * 1997-04-15 1998-10-27 Fujitsu Ltd Event detecting device for monitoring road

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10289393A (en) * 1997-04-15 1998-10-27 Fujitsu Ltd Event detecting device for monitoring road

Also Published As

Publication number Publication date
JP2002342748A (en) 2002-11-29

Similar Documents

Publication Publication Date Title
EP0567059B1 (en) Object recognition system using image processing
JP4650079B2 (en) Object detection apparatus and method
JP3569992B2 (en) Mobile object detection / extraction device, mobile object detection / extraction method, and mobile object monitoring system
US9047518B2 (en) Method for the detection and tracking of lane markings
JP4984575B2 (en) Intruder detection device by image processing
JP5885398B2 (en) Image processing apparatus and image processing method
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
JP4858761B2 (en) Collision risk determination system and warning system
JP2001357402A (en) Method and device for detecting vehicle
JPH11175880A (en) Vehicle height measuring device and vehicle monitoring system using same
JP4697761B2 (en) Queue detection method and queue detection apparatus
JP3721594B2 (en) Road shape estimation device
KR102177614B1 (en) Lane generation system for collecting traffic information and method thereof
JPH05157558A (en) Vehicular gap detector
JPH11345392A (en) Device and method for detecting obstacle
KR100532058B1 (en) Traffic information acquisition method and apparatus using camera calibration
JPH11272989A (en) Traffic flow monitor device
JP4254045B2 (en) Road stationary obstacle detection method
KR102492290B1 (en) Drone image analysis system based on deep learning for traffic measurement
JP4005409B2 (en) Background image estimation method and background image estimation apparatus
TWI621073B (en) Road lane detection system and method thereof
JP4744789B2 (en) Object identification method and object identification apparatus
JP4055785B2 (en) Moving object height detection method and apparatus, and object shape determination method and apparatus
JP3508320B2 (en) Monitoring system
JPH09212791A (en) Method and device for monitoring road surface

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101215

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110203

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110224

LAPS Cancellation because of no payment of annual fees