JP2004005726A - 移動物体の交通流監視システム - Google Patents

移動物体の交通流監視システム Download PDF

Info

Publication number
JP2004005726A
JP2004005726A JP2003278767A JP2003278767A JP2004005726A JP 2004005726 A JP2004005726 A JP 2004005726A JP 2003278767 A JP2003278767 A JP 2003278767A JP 2003278767 A JP2003278767 A JP 2003278767A JP 2004005726 A JP2004005726 A JP 2004005726A
Authority
JP
Japan
Prior art keywords
vehicle
speed
image
sample
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003278767A
Other languages
English (en)
Other versions
JP3742410B2 (ja
Inventor
Hiroshi Haruyama
春山 浩
Eigo Segawa
瀬川 英吾
▲鮫▼島 久美
Hisami Samejima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2003278767A priority Critical patent/JP3742410B2/ja
Publication of JP2004005726A publication Critical patent/JP2004005726A/ja
Application granted granted Critical
Publication of JP3742410B2 publication Critical patent/JP3742410B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】 画像情報の特徴を利用して、より精密に移動物体の速度を算出可能とする。
【解決手段】 移動物体が移動する様子を撮影した連続するフレームの画像から検出手段101が検出した移動物体の像を計数手段102によって計数するとともに、連続するフレームについて同定手段103が同定した移動物体の像に関する情報を速度算出手段104による移動物体の速度算出処理に供する移動物体の交通流監視システムにおいて、速度算出手段104は、同定された各移動物体の移動量から各移動物体のサンプル速度を算出するサンプル速度算出手段125と、画像における各画素の位置と撮影対象における位置との対応関係に基づいて、移動物体の画面上の位置に応じた重みを算出する重み算出手段131と、重み算出手段131で得られた重みに基づいて、各移動物体のサンプル速度を加重平均し、監視区域における平均速度として出力する加重平均手段132とを備える。
【選択図】   図1

Description

 本発明は、車両などの移動物体が道路のような制限された経路を移動する様子を監視する移動物体の交通流監視システムに関するものである。
 例えば、道路上の車両の移動を監視する交通流監視システムでは、道路を移動する移動物体の種類や数量および平均速度など様々な情報を検出し、道路状況の表示や渋滞の予測、またトンネル内での換気装置の制御など、様々な用途に役立てている。
 従来は、上述した移動物体の種類や数量,平均速度などの情報は、所定の箇所に設置された専用のセンサによって得られていたが、これらのセンサは、それぞれ役割が固定されており、新たに別の情報が必要となった場合には、別のセンサを設置しなければならない。
 このような点を考慮して、これらの専用のセンサに代えて、インターチェンジの付近やトンネルの出入口付近およびトンネルの内部などのサンプル位置にそれぞれ監視用のカメラを設置し、これらのカメラによって捉えた映像から上述した様々な情報を抽出するシステムが提案されており、その拡張性の高さに大きな期待がかけられている。
 図7に、従来の移動物体の交通流監視システムの構成例を示す。
 図7において、サンプル位置に設置されたビデオカメラ301によって捉えられた映像は、アナログ−デジタル変換処理部(A/D)302を介して差分処理部303に入力され、静止画メモリ304に保持された背景画像との差分が求められる。
 この差分処理部303で得られた各画素についての差分の入力に応じて、二値化処理部305は、所定の閾値に基づいて、背景画像との差異がある画素とない画素とを判別し、この判別結果を示す二値化画像を作成して、検出処理部306に送出する構成となっている。
 この検出処理部306は、入力された各フレームの二値化画像から所定の特徴を持った画像を車両を表す画像として検出し、その位置を同定処理部307の処理に供する構成となっている。
 このとき、検出処理部306は、特に、車両の映像が二値化画像に進入している側に近い一部分を新たな車両を検出する検出領域とし、この検出領域に車両を表す画像が現れたときに新しい車両として検出して、計数処理部308に送出する構成となっている。
 図7において、計数処理部308は、上述した検出処理部306による検出結果に基づいて、所定の時間に上述したカメラ301の視野を通過した車両の数を計数し、この計数結果をセンタ310に通知する構成となっている。
 また、同定処理部307は、各フレームについて検出処理部306で得られた検出結果に基づいて、現フレームにおいて検出された車両とその前のフレームで検出された車両との対応付けを行い、対応付けられた車両の現フレームおよび前フレームにおける位置の組み合わせを同定処理結果として、速度算出部309の処理に供する構成となっている。
 この同定処理部307は、例えば、前フレームにおける車両の位置よりも車両の進行方向側の所定の範囲の中で、最も近接している車両を現フレームについての検出結果から判別し、この車両の位置と前記フレームにおける車両の位置との組み合わせを該当する車両の同定処理結果として送出すればよい。
 この同定処理結果の入力に応じて、速度算出部309は、まず、各車両について、該当する車両の画面上の位置の差とフレーム間の時間とから、各フレームに対応する時刻における該当する車両の道路上での速度を算出する。次に、速度算出部309は、各車両について得られたこれらのフレームに対応する道路上での速度の平均値を求め、この平均値をカメラ301の視野に対応する区間における該当する車両の速度として、センタ310に通知する構成となっている。
 ここで、通常の交通流監視システムにおいては、広い範囲を1台のカメラ301で監視可能とするために、カメラ301の光軸が道路に対して斜めとなるように設置されている。
 このため、速度算出部309において、二値化画像における長さをカメラ301の視野に対応する道路上の区間の長さに変換する必要があるが、この際に、二値画像における1画素に対応する道路上の区間の長さが分かっていれば便利である。
 本出願人は、このような変換処理を簡易化するための技法として、特願平6−47452号「位置対応付け方法,位置対応付け装置,車両速度算出方法および車両速度算出装置」を既に出願している。
 この技法は、道路上の白線などのように既知の大きさおよび間隔を持つマーカを表す画像の大きさおよび間隔に基づいて、画面上の各画素に対応する道路上の区間など実際の長さを求めておき、移動物体の位置の特定や速度の算出に供するものである。
 この技法を利用すれば、図8(a) に示した道路上の白線を示す画像に基づいて、図8(b) に示すように、二値化画像上の各画素の位置(図8において符号y1〜y6で示す)と道路上の位置との対応関係を得ることができ、この対応関係を示す関数を利用して、車両の速度を簡単に求めることができる。
 また、センタ310は、道路の各所に設けられた交通流監視システムによって得られた車両の数量および速度に関する情報を収集し、これらの情報に基づいて交通流の解析処理を行うことにより、渋滞などの道路状況の把握や渋滞発生,解消の予測、更には事故の発見などが可能となる。これにより、利用者に正確な情報を提供し、利用者へのサービスの向上が図られている。
 また、個々の車両について得られた速度の計測値に基づいて、スピード違反の車両に対して、注意を喚起するメッセージを表示するといった応用サービスも提供されている。
特願平6−47452号公報
 ところで、カメラ301で捉えられた全てのフレームに対して、上述した処理を行うためには、膨大な計算量が必要となる。このため、従来の交通流監視システムにおいては、所定の時間間隔でサンプルフレームを抽出し、抽出したサンプルフレームを用いて移動物体の計数や速度の算出を行うことにより、計算量の削減を図っていた。
 この際には、サンプルフレームの抽出間隔や車両の速度を考慮して、新たな車両を検出するための検出領域や車両の同定に用いる進行方向側の範囲の大きさを決定する必要がある。
 しかしながら、従来の交通流監視システムにおいては、この検出領域や車両の同定に用いる範囲の大きさは、利用者の主観的な判断に任されており、検出領域や同定に用いる範囲を大きく設定しすぎたり、逆に狭く設定しすぎたりしてしまう場合が少なくなかった。
 例えば、検出領域を大きく設定しすぎてしまった場合は、新たにカメラ301の視野に入ってきた車両を漏れなく捉えることができる反面、既に検出された車両を再び新規の車両として認識してしまう可能性もあるため、検出処理に要する計算量が膨大となってしまう。
 一方、検出領域の設定が狭すぎる場合には、計算量を少なく抑えることができるが、新たに視野に入ってきた車両の検出に失敗してしまう可能性がある。
 また、従来の交通流監視システムにおいては、上述したように、車両の同定処理の際に、車両の速さや進行方向が大きく変化しないことを前提として、単純に進行方向前方の所定の領域に捉えられている車両の中から、前フレームにおける車両の位置に最も近い位置にあるものを選択して同定している。
 しかし、実際に車両が道路を走行する場合には、車線変更や追越しなどに伴って、急激な加速や減速また方向転換が頻繁に起こっており、上述した方法では必ずしも正確な同定結果を得ることができるとは言えない。
 例えば、車両aの後ろに連続して車両bが走行している際に、隣の車線を走行していた車両cが、車両aと車両bとの間に割り込んできた場合などには、前のサンプルフレームと現在のサンプルフレームとの間に発生した車両bと車両cとの急激な速度変化のために、現フレームにおいては、車両cが車両bと誤って同定される場合が考えられる。そして、このような誤認が発生すると、以降の速度算出処理を正確に行うことができなくなってしまう。
 また、従来の交通流算出システムにおいては、上述したように、車両の平均速度の算出処理では、各サンプルフレームとその前のサンプルフレームとの車両の位置の差から求めた各サンプルフレームにおける速度を単純に平均している。
 一方、図8(b) に実線で示した曲線から分かるように、カメラ301から遠い部分に対応する二値化画像の上側部分においては、下側の部分に比べて曲線の傾きが大きくなっており、1画素に対応する道路上の距離が大きくなっている。すなわち、二値化画像の各位置における解像度は、図8(b) に示すように、画面上での位置が下側から上側に近づくにつれて、下に凸の曲線を描いて単調に減少することが分かる。
 したがって、上述したように道路に対して斜めに配置されたカメラ301を用いて交通流を監視する場合には、車両がカメラ301から遠ざかり、その画像が画面の上側へ近づくほど位置検出精度が低くなることが分かる。
 しかしながら、従来の方法においては、このように精度の異なる位置検出結果を同等に扱っており、このために、全体としての車両速度の測定精度が低下してしまっていた。
 上述したように、画像情報を利用した従来の交通流監視システムには様々な課題があるが、膨大な情報量を含んだ各フレームの画像が連続的に得られ、様々な情報を抽出することができるので拡張性に優れている。
 例えば、連続する複数のサンプルフレームに渡って静止している物体を抽出すれば、落下物など車両の走行を妨げる物体の有無に関する情報を得ることができ、また、車両の速度にかかわらず、それぞれの車両について車間距離など様々な情報を得ることができる。
 このため、画像情報を利用して交通流監視システムの特徴を活用し、よりきめ細かく正確な情報を利用者に提供するために、画像情報から自動的に正確な情報を得る方法が必要とされている。
 本発明は、画像情報の特徴を利用して、より精密に移動物体の数量や速度を算出することを可能とする交通流監視システムを提供することを目的とする。
 図1は、本発明にかかわる移動物体の交通流監視システムの原理ブロック図である。
 本発明にかかわる移動物体の交通流監視システムは、移動物体が移動する様子を所定のサンプル間隔ごとに撮影して得られる連続する複数フレームの画像の入力に応じて、検出手段101が移動物体に対応する像を検出し、各フレームの検出結果を計数手段102による移動物体の数量の計数処理に供するとともに、各フレームとその前のフレームの検出結果に含まれる移動物体の像を同定手段103によって同定し、この同定結果を速度算出手段104による移動物体の速度算出処理に供する移動物体の交通流監視システムにおいて、速度算出手段104に、サンプル速度算出手段125と、重み算出手段131と、加重平均手段132とを備えて構成される。
 本発明にかかわる移動物体の交通流監視システムの原理は、以下の通りである。
 速度算出手段104に備えられるサンプル速度算出手段125は、同定された移動物体それぞれの連続する2つのフレーム間での画面における移動量に基づいて、各フレームに対応する時刻における該当する移動物体のサンプル速度を算出する。速度算出手段104に備えられる重み算出手段131は、各フレームの画像における各画素の位置と撮影対象における位置との対応関係に基づいて、各フレームにおける移動物体の画面上の位置に応じた重みを算出する。速度算出手段104に備えられる加重平均手段132は、重み算出手段131で得られた重みに基づいて、移動物体のそれぞれに対応するサンプル速度の加重平均を求め、監視区域における平均速度として出力する。
 このように構成された移動物体の交通流監視システムの動作は、下記の通りである。
 請求項1の発明では、移動物体が移動する様子を所定のサンプル間隔ごとに撮影して得られる連続する複数フレームの画像の入力に応じて、検出手段101が移動物体に対応する像を検出し、各フレームの検出結果に基づいて、計数手段102により、移動物体の数量が計数される。また、各フレームとその前のフレームの検出結果に含まれる移動物体の像を同定手段103によって同定し、この同定結果に基づいて、速度算出手段104により、撮影範囲に対応する区間における平均速度を求める。このとき、重み算出部131は、画面上において移動物体が占める位置に応じて、その移動物体についてサンプル速度算出手段125によって求められたサンプル速度に期待できる精度に対応する重みを算出する。そして、この重みを用いて、加重平均手段132は、各移動物体に対応するサンプル速度を加重平均することにより、画面における位置による解像度の違いを考慮して、監視区域における移動物体の平均速度を精密に算出することができる。
 本発明によれば、画面上の各位置における解像度に対応した重みを付けてサンプル速度を加重平均することにより、画面上の各位置における解像度を監視区域における平均速度に反映し、平均速度の精度を向上することができるから、利用者により正確な情報を提供することができる。
 以下、図面に基づいて、本発明の実施形態について詳細に説明する。
(第1の実施形態)
 図2に、本発明にかかわる交通流監視システムの実施例構成図を示す。
 図2において、交通流監視システムは、図7に示した交通流監視システムと同様に、カメラ301で捉えられた映像の入力に応じて、アナログ−デジタル変換処理部(A/D)302,差分処理部303および二値化処理部305が動作し、得られた二値化画像を検出処理部210および同定処理部220による処理に供する構成となっている。また、この検出処理部210および同定処理部220による処理結果は、計数処理部308および速度算出部230の処理に供されている。
 また、図2に示した解像度算出部240において、テーブル作成部241は、特開平6−47452の技法を利用して、静止画メモリ304に保持された背景画像に基づいて、二値化画像上の各画素の位置と道路上の位置との対応関係を示す対応テーブル242を作成し、更に、この対応テーブル242に基づいて、算出処理部243が、二値化画像の各位置における解像度を示す解像度テーブル244を作成して、それぞれ速度算出部230の処理に供する構成となっている。
 図2において、検出処理部210は、検出領域設定部211と投影処理部212と車両検出部213とを備えて構成されている。
 この検出処理部210において、検出領域設定部211は、利用者からの指示に応じて適切な検出領域を設定し、また、投影処理部212は後述する投影処理を行って、それぞれ車両検出部213の処理に供する構成となっている。
 図2に示した検出領域設定部211において、移動距離算出部214は、利用者からサンプルフレームの間隔tと予想される車両の最高速度vとを受け取り、これらの情報に基づいて、車両が連続する2つのサンプルフレーム間で予想される最大の移動距離dを算出し、対応付け部215に送出する構成となっている。 これに応じて対応付け部215は、上述した対応テーブル242を参照して、上述した移動距離dに対応する長さを持ち、画面の下側から始まる二値化画像の範囲を求め、この範囲を新しい車両を検出するための検出領域とすればよい。
 このように、利用者からの指示に応じて、移動距離算出部214と対応付け部215とが動作することにより、二値化画像のサンプリング間隔と予想される最高速度とから、適切な検出領域を自動的に設定することが可能となる。
 ここで、検出領域設定部211で用いるサンプリング間隔tと最高速度vとは、利用者の主観によらない客観的なパラメータであるから、利用者の知識や経験に頼る必要はないから、利用者の負担を軽減するとともに、交通流監視システムに割り当てられた処理能力を有効に活用して、車両などの移動物体を精密に検出することが可能となり、交通流監視システムによる監視精度の向上を図ることができる。
 また、図2において、投影処理部212は、図3(a) に示すように、白線で区切られた1車線に対応する領域(図3(a) において網かけを付して示す)毎に、各ラインに含まれている差分が検出された画素(図3(b) において該当する画素に画素値1を付して示した)を計数し、各ラインの計数結果を車両検出部213に送出する構成となっている。
 ここで、このようにして得られた各ラインの計数結果は、上述した各車線に対応する領域の二値化画像を副走査線方向に投影結果を示しており、この投影結果から、元の二値化画像で表された車両の形状を推定することが可能である。
 例えば、図3(c) に示すように、所定の閾値Th1 以上の計数結果が分布している範囲の長さは、二値化画像において車両を表す画像の長さに相当しており、個々の車両を識別するために有効な特徴を示している。
 したがって、車両検出部213は、各車線に対応する領域についての投影結果の入力に応じて、例えば、所定の長さ以上に渡って閾値Th1 以上の計数結果が分布している範囲をそれぞれ車両の投影結果として検出すればよい。
 このように、投影処理部212と車両検出部213とにより、現サンプルフレーム内の車両の位置とその特徴とを検出することができる。
 また、このとき、車両検出部213は、上述した検出領域で示される範囲から車両の投影結果を検出した場合に、その数を新しくカメラ301の視野に進入してきた車両の数として計数処理部308に送出し、これに応じて、計数処理部308は、従来と同様にして、一定時間にカメラ301の視野を通過した車両の数を計数すればよい。
 また、この車両検出部213は、各車線に対応する領域から検出した車両に対応する投影結果のそれぞれの位置および長さを該当する車両の特徴として、同定処理部220に送出すればよい。
 図2に示した同定処理部220において、車両テーブル221は例えば、上述した各車線に対応する領域毎に、前のサンプルフレームの画像から検出された車両のそれぞれに対応する車両情報として、各車両の特徴を表す情報を保持する構成となっている。
 また、同定処理部220の照合処理部222は、新しいサンプルフレームについて検出処理部210で得られた検出結果のそれぞれと、上述した車両テーブル221に保持された車両情報とを後述する条件に基づいて照合し、この条件を満たす組み合わせを同一の車両であると同定する構成となっている。
 このとき、照合処理部222は、検出処理部210の検出結果として得られる車両の位置に最も近く、かつ、車両の長さが等しいことを条件として、照合処理を行い、照合結果を速度算出部230に送出すればよい。
 図4に、同定処理を説明する図を示す。
 例えば、まず、検出結果で示される車両の位置よりも後ろ側にあり、かつ、距離が所定の閾値Th2 以下であるものを車両テーブル221から候補車両(図4(a) において符号イ,ロで示す)として抽出し、候補車両が複数ある場合に、検出結果と候補車両の車両の長さを照合することにより、ただ一つの候補車両(図4(a) においては符号イで示す)を選択すればよい。
 また、上述した照合処理部222は、車両の検出結果の入力に応じて、この検出結果で示された車両と同一の車線に対応して車両テーブル221に保持された車両の特徴の中に適切なものを発見できなかった場合には、隣接する車線に対応する車両情報との間で同様の照合処理を行えばよい。
 例えば、図4(a) に符号ハで示した車両が、次のサンプルフレームまでのあいだに、図4(b) に示すように、隣接する車線を走行していた2台の車両(図4において符号イ,ロで示した)の間に割り込んだ場合には、この符号ハで示した車両は、図4に示した左側の車線に対応する車両情報としては車両テーブル221に保持されていない。この場合に、隣接する車線に対応する車両テーブル221を検索することにより、符号ハに対応する車両情報を得ることができ、この車両情報で示された車両と図4(b) の符号ハの車両とを同定することができる。
 このように、同定処理部220の照合処理部222が、検出結果の入力に応じて動作することにより、車両の位置だけを考慮した従来の方法では同定できない場合にも、個々の車両の特徴を考慮して、車両の同定を行うことができる。
 これにより、隣接する車線からの割込などに伴う、走行順序や急激な速度変化にも柔軟に対応し、車両の同定を正確に行うことが可能となり、速度算出の精度の向上に寄与することができる。
 また、上述したようにして、それぞれの検出結果についての同定処理を終了するごとに、書換え処理部223は、車両テーブル221の該当する車両情報に含まれている車両の位置を現サンプルフレームにおける車両の位置に書き換える構成となっている。
 このとき、書換え処理部223は、上述した検出領域から検出された新しい車両については、カメラ301の視野に新たに進入してきた車両に関する車両情報として、車両検出部213から得られた検出結果をそのまま新規の車両情報として車両テーブル221に追加すればよい。
 また、書換え処理部223は、上述した照合処理部222により、現サンプルフレームについての検出結果と同定されなかった場合は、車両情報を車両テーブル221から検出し、カメラ301の視野から外れた車両に関する車両情報として、該当する車両情報を削除すればよい。
 このようにして、照合処理部222による照合結果に応じて、書換え処理部223が車両テーブル221の書換えを行うことにより、現サンプルフレームにおいてカメラ301の視野に捉えられた車両のみに関する情報を車両テーブル221に保持し、次のサンプルフレームの処理に供することができる。
 このようにして得られた同定結果は、速度算出部230に送出され、この速度算出部230により、上述した解像度算出部240で得られた対応テーブル242に基づいて、それぞれの車両の速度が求められる。
 図2に示した速度算出部230において、サンプル速度算出部231は、従来と同様に、各車両についての同定結果に基づいて、現サンプルフレームにおける位置でのサンプル速度を算出し、速度保持部232を介して区間速度算出部234に送出する構成となっている。
 ここで、上述した対応テーブル242は、各画素の位置に対応して道路上の位置を保持しており、サンプル速度算出部231は、この対応テーブル242を参照しながらサンプル速度を算出し、速度保持部232に送出する構成となっている。
 これに応じて、速度保持部232は、各サンプルフレームについて算出されたサンプル速度を車両ごとに分類して、各サンプルフレームにおける車両の位置とともに保持すればよい。
 また、図2において、重み算出部233は、上述した解像度テーブル244の内容に基づいて、画面上の各画素における解像度に比例する重みを算出し、区間速度算出部233の処理に供する構成となっている。
 図2において、区間速度算出部234は、速度保持部232に保持された各車両に対応するサンプル速度のそれぞれに、重み算出部233で得られた重みを付けて加重平均を求める構成となっている。
 このように、区間速度算出部234と速度保持部232とが、重み算出部234からの重みの入力に応じて、動作することにより、図1に示した加重平均手段132の機能を実現し、その結果を該当する車両の区間速度としてセンタ310に通知する構成となっている。
 このとき、重み算出部233は、上述した速度保持部232から該当する車両の各サンプルフレームにおける位置を読み出して、これらの位置に基づいて、解像度テーブル244を参照し、各位置における解像度の値に基づいて適切な重みを算出して、区間速度算出部234に送出すればよい。
 例えば、単純に、各サンプルフレームにおける位置に対応する解像度とその前のサンプルフレームにおける位置に対応する解像度との平均値を求め、これに所定の定数αを乗じて、区間速度算出部234に重みとして送出すればよい。また、図8(b) に示した解像度の変化を示す曲線を各サンプルフレームにおける車両位置で区切られた区間ごとに積分し、この積分結果に基づいて、該当する区間における重みとしてもよい。
 このように、重み算出部233が解像度算出部240で得られた解像度テーブル244を利用して重みを算出することにより、図1に示した重み算出手段131の機能を実現し、カメラ301で捉えられた画像における位置に対応する解像度に応じた重みを平均速度の算出処理に供することができる。
 この場合は、解像度の高い画面の下側の画像を用いて算出されたサンプル速度には大きな重みが付けられ、逆に、解像度の低い領域の画像を用いて得られたサンプル速度に付加される重みは小さくなっている。
 したがって、サンプル速度を算出する際の解像度を平均速度に反映させることが可能となり、画像情報の特徴を活用して、平均速度の算出精度を向上することができる。
 これにより、各車両について、より精密な平均速度をセンタ310に通知することができ、これらの情報をセンタ310において解析することにより、利用者に的確な情報を提供し、サービス性の向上を図ることができる。
 また、上述したようにして求めたサンプル速度を利用して、同定処理を行うこともできる。
(第2の実施形態)
 図5に、本発明にかかわる交通流監視システムの第2の実施例構成図を示す。
 図5において、同定処理部220は、図2に示した同定処理部220に、位置予想部224を付加した構成となっており、この位置予想部224が、現サンプルフレームについての車両の同定処理に先立って、上述した速度算出部230から受け取った各車両のサンプル速度に基づいて各車両の二値化画像における位置を予想し、この予想結果を車両テーブル221を介して、照合処理部222の処理に供する構成となっている。
 上述した位置予想部224は、速度保持部232から前のサンプルフレームについての各車両のサンプル速度を受け取り、このサンプル速度とサンプル間隔tとの乗算結果に基づいて、現サンプルフレームにおける車両の道路上における予想位置を算出し、更に、上述した対応テーブル242から該当する画面上の位置を求めればよい。
 このように、位置予想部224が速度保持部232および対応テーブル242に基づいて動作することにより、前のサンプルフレームにおける車両の位置に基づいて、現サンプルフレームにおける車両の画面上の位置を求め、照合処理に供することができる。
 このとき、位置予想部224は、得られた予想位置を車両テーブル221に送出し、車両テーブル221は、これに応じて、該当する車両に対応する車両情報の一部として入力された予想位置を格納し、照合処理部222は、前のサンプルフレームにおける位置の代わりに、この予想位置を用いて同定処理を行えばよい。
 このように、位置予想部224によって得られた予想位置の入力に応じて、車両テーブル221および照合処理部222が動作することにより、前のサンプルフレームにおける位置での車両の速度に関する情報を現サンプルフレームにおける同定処理に利用することができる。
 ここで、道路を走行している車両が急激に速度を変更することは稀であるから、通常は、上述したようにして得られた予想位置の近傍で現サンプルフレームにおける車両の画像を検出することが可能である。
 したがって、この場合は、照合処理部222は、候補車両を検出する際に、予想位置から上述した閾値Th2 よりも大幅に小さい所定の閾値Th3 を用いて、候補車両を絞り込むことができる。
 これにより、次に車両の特徴(長さ)を照合することにより、確実にただ一つの車両を選択することが可能となり、画像情報の特徴を利用して、より確実に車両を同定することができるから、個々の車両の速度算出精度の向上に寄与することができる。
 更に、各車両について複数の特徴を抽出すれば、個々の車両の同定精度を一層向上することが可能である。
(第3の実施形態)
 図6に、本発明にかかわる交通流監視システムの第3の実施例構成図を示す。
 図6において、検出処理部210は、図2に示した検出処理部210にエッジ検出部216を付加して構成し、このエッジ検出部216が、二値化処理部305から二値化画像を受け取って、車両の後ろ側の端に相当するエッジ状の画像を検出し、検出したエッジの長さを車両の特徴の一つとして、車両検出部213による検出結果とともに同定処理部220に送出する構成となっている。
 ここで、車両の後ろ側にはテールランプが配置されており、このテールランプに対応する画像は、昼夜にかかわらず容易に検出することが可能であるから、エッジ検出部216は、このテールランプの画像に注目して、エッジ状の画像の検出処理を行えばよい。また、このとき、エッジ検出部216は、例えば、テールランプに対応する画像が水平方向に所定の長さ以上の間隔で並んでいる部分をエッジ状の画像として検出し、このエッジ状の画像の長さを車両の幅を示す情報として同定処理部220に送出すればよい。
 これに応じて、同定処理部220の車両テーブル221は、上述したエッジ検出部216で得られた車両の幅と車両検出部213による検出結果とを対応付けて保持すればよい。
 また、この場合は、同定処理部220の照合処理部222は、前のサンプルフレームにおける位置に基づいて、車両テーブル221から候補車両の検索を行ったのちに、車両の長さと幅とを照合し、両方の特徴が一致する車両の組み合わせを同一の車両とすればよい。
 これにより、車両の位置と長さだけでは特定できない場合にも、車両の幅を照合することにより、ただ一つの候補車両を選択することができ、画像情報の特徴を十分に活用して、より確実にここの車両を同定することができる。
本発明にかかわる移動物体の交通流監視システムの原理ブロック図である。 本発明にかかわる移動物体の交通流監視システムの第1の実施例構成図である。 投影処理を説明する図である。 同定処理を説明する図である。 本発明にかかわる移動物体の交通流監視システムの第2の実施例構成図である。 本発明にかかわる移動物体の交通流監視システムの第3の実施例構成図である。 従来の交通流監視システムの構成例を示す図である。 画像上の各画素の位置と道路上の位置との対応関係を示す図である。
符号の説明
101 検出手段
102 計数手段
103 同定手段
104 速度算出手段
125 サンプル速度算出手段
131 重み算出手段
132 加重平均手段
210,306 検出処理部
211 領域設定部
212 投影処理部
213 車両検出部
214 距離算出部
215 対応付け部
220,307 同定処理部
221 車両テーブル
222 照合処理部
223 書換え処理部
224 位置予想部
230,309 速度算出部
231 サンプル速度算出部
232 速度保持部
233 重み算出部
234 区間速度算出部
240 解像度算出部
241 テーブル作成部
242 対応テーブル
243 算出処理部
244 解像度テーブル
301 カメラ
302 アナログ−デジタル変換処理部(A/D)
303 差分処理部
304 静止画メモリ
305 二値化処理部
308 計数処理部
310 センタ

Claims (1)

  1.  移動物体が移動する様子を所定のサンプル間隔ごとに撮影して得られる連続する複数フレームの画像の入力に応じて、検出手段が前記移動物体に対応する像を検出し、各フレームの検出結果を計数手段による前記移動物体の数量の計数処理に供するとともに、各フレームとその前のフレームの検出結果に含まれる移動物体の像を同定手段によって同定し、この同定結果を速度算出手段による移動物体の速度算出処理に供する移動物体の交通流監視システムにおいて、
     速度算出手段は、
     同定された移動物体それぞれの連続する2つのフレーム間での画面における移動量に基づいて、各フレームに対応する時刻における該当する移動物体のサンプル速度を算出するサンプル速度算出手段と、
     前記各フレームの画像における各画素の位置と撮影対象における位置との対応関係に基づいて、前記各フレームにおける前記移動物体の画面上の位置に応じた重みを算出する重み算出手段と、
     前記重み算出手段で得られた重みに基づいて、前記移動物体のそれぞれに対応するサンプル速度の加重平均を求め、監視区域における平均速度として出力する加重平均手段とを備えた構成である
     ことを特徴とする移動物体の交通流監視システム。
JP2003278767A 2003-07-24 2003-07-24 移動物体の交通流監視システム Expired - Fee Related JP3742410B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003278767A JP3742410B2 (ja) 2003-07-24 2003-07-24 移動物体の交通流監視システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003278767A JP3742410B2 (ja) 2003-07-24 2003-07-24 移動物体の交通流監視システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP02545095A Division JP3545079B2 (ja) 1995-02-14 1995-02-14 移動物体の交通流監視システム

Publications (2)

Publication Number Publication Date
JP2004005726A true JP2004005726A (ja) 2004-01-08
JP3742410B2 JP3742410B2 (ja) 2006-02-01

Family

ID=30438675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003278767A Expired - Fee Related JP3742410B2 (ja) 2003-07-24 2003-07-24 移動物体の交通流監視システム

Country Status (1)

Country Link
JP (1) JP3742410B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100435160C (zh) * 2005-08-05 2008-11-19 同济大学 一种用于交通信息实时采集的视频图像处理方法及系统
JP2009278291A (ja) * 2008-05-13 2009-11-26 Canon Inc 画像処理装置及び画像処理方法
CN103985250A (zh) * 2014-04-04 2014-08-13 浙江工业大学 轻量级的全息道路交通状态视觉检测装置
JP2014188237A (ja) * 2013-03-27 2014-10-06 Fujitsu Ltd 脈波検出装置、脈波検出方法及び脈波検出プログラム
CN107545757A (zh) * 2016-06-24 2018-01-05 中国第汽车股份有限公司 基于车牌识别的城市道路流速测量装置和方法
CN108281013A (zh) * 2018-03-22 2018-07-13 安徽八六物联科技有限公司 一种道路车流量监控系统
KR20190064147A (ko) * 2017-11-30 2019-06-10 부경대학교 산학협력단 공중촬영 영상을 이용한 차량 행태 분석 시스템 및 이를 이용한 분석 방법
WO2021095269A1 (ja) * 2019-11-15 2021-05-20 住友電気工業株式会社 情報生成装置、情報生成方法、及びコンピュータプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104197962B (zh) * 2014-08-12 2016-06-29 上海卓悠网络科技有限公司 一种智能测速方法及系统

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100435160C (zh) * 2005-08-05 2008-11-19 同济大学 一种用于交通信息实时采集的视频图像处理方法及系统
JP2009278291A (ja) * 2008-05-13 2009-11-26 Canon Inc 画像処理装置及び画像処理方法
US8373906B2 (en) 2008-05-13 2013-02-12 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2014188237A (ja) * 2013-03-27 2014-10-06 Fujitsu Ltd 脈波検出装置、脈波検出方法及び脈波検出プログラム
CN103985250A (zh) * 2014-04-04 2014-08-13 浙江工业大学 轻量级的全息道路交通状态视觉检测装置
CN107545757A (zh) * 2016-06-24 2018-01-05 中国第汽车股份有限公司 基于车牌识别的城市道路流速测量装置和方法
KR20190064147A (ko) * 2017-11-30 2019-06-10 부경대학교 산학협력단 공중촬영 영상을 이용한 차량 행태 분석 시스템 및 이를 이용한 분석 방법
KR102039723B1 (ko) * 2017-11-30 2019-11-26 부경대학교 산학협력단 공중촬영 영상을 이용한 차량 행태 분석 시스템 및 이를 이용한 분석 방법
CN108281013A (zh) * 2018-03-22 2018-07-13 安徽八六物联科技有限公司 一种道路车流量监控系统
WO2021095269A1 (ja) * 2019-11-15 2021-05-20 住友電気工業株式会社 情報生成装置、情報生成方法、及びコンピュータプログラム
CN114631038A (zh) * 2019-11-15 2022-06-14 住友电气工业株式会社 信息生成装置、信息生成方法、以及计算机程序
JP7380705B2 (ja) 2019-11-15 2023-11-15 住友電気工業株式会社 情報生成装置、情報生成方法、及びコンピュータプログラム

Also Published As

Publication number Publication date
JP3742410B2 (ja) 2006-02-01

Similar Documents

Publication Publication Date Title
US11361556B2 (en) Deterioration diagnosis device, deterioration diagnosis system, deterioration diagnosis method, and storage medium for storing program
US20080144961A1 (en) Method and Image Evaluation Unit for Scene Analysis
JP4600929B2 (ja) 停止低速車両検出装置
JP5702544B2 (ja) 車両交通監視装置およびプログラム
JP4858761B2 (ja) 衝突危険性判定システム及び警告システム
JP2007523427A (ja) 通過車両をダイナミックなバックグランドから頑強な情報フュージョンを使用して検出するための装置および方法
JP2007026300A (ja) 交通流異常検出装置及び交通流異常検出方法
Gulati et al. Image processing in intelligent traffic management
JPH1139589A (ja) 交通監視装置および交通監視方法
JPH11282999A (ja) 移動物体計測装置
KR100690279B1 (ko) 다목적 영상감지 시스템
KR100814028B1 (ko) 주행 차량 자동 계중 시스템
JP3742410B2 (ja) 移動物体の交通流監視システム
KR20190087276A (ko) 영상 기반 교통량 측정 시스템 및 그 방법
WO2019059090A1 (ja) 車両台数計測システム
JP7125843B2 (ja) 障害検知システム
Zheng et al. Detecting cycle failures at signalized intersections using video image processing
JP2002367077A (ja) 交通渋滞判定装置及び交通渋滞判定方法
JP3545079B2 (ja) 移動物体の交通流監視システム
JP2002288786A (ja) 広域渋滞判定方法、広域渋滞判定システム及び判定装置
KR102492290B1 (ko) 교통량 측정을 위한 딥러닝 기반의 드론 영상 분석 시스템
KR102301932B1 (ko) 듀얼 카메라의 관심영역에 열화상 블렌딩 기법을 이용한 교통신호 제어시스템
JP2004030484A (ja) 交通情報提供システム
CN114882709A (zh) 车辆拥堵检测方法、装置及计算机存储介质
JP2007094919A (ja) 交通流計測装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051110

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081118

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091118

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111118

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111118

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121118

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121118

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131118

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees