JP3920535B2 - 車両検出方法及び車両検出装置 - Google Patents
車両検出方法及び車両検出装置 Download PDFInfo
- Publication number
- JP3920535B2 JP3920535B2 JP2000176025A JP2000176025A JP3920535B2 JP 3920535 B2 JP3920535 B2 JP 3920535B2 JP 2000176025 A JP2000176025 A JP 2000176025A JP 2000176025 A JP2000176025 A JP 2000176025A JP 3920535 B2 JP3920535 B2 JP 3920535B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- state
- movement vector
- screen
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
【発明の属する技術分野】
本発明は、画像処理装置を用いた車両検出方法と装置に係り、特に、特定の位置を通過する車両台数の計測と車両の追跡に好適な車両検出方法及び装置に関する。
【0002】
【従来の技術】
近年、道路交通網の拡大に伴い、特に長大トンネルを含む道路が多くなってきた結果、交通状況の監視が、安全対策上、更に重要な要素であるとの認識が高まっている。
そこで、道路での交通状況の監視のため、道路上や道路の近傍に設置したカメラ(テレビジョンカメラ)で撮像した画像データを画像処理することより車両軌跡を把握し、交通量と異常交通状態の発生を計測する方法が広く用いられるようになってきた。
【0003】
ここで、従来の車両監視の分野で用いられている車両検出方法としては、或る時点での画像と、その直前のフレームでの画像との差分を取ることにより、移動領域を抽出するフレーム間差分法や、予め記憶してある背景画像と入力画像の差分により移動領域を抽出する背景差分法などの方法が用いられていた。
【0004】
例えば、特開平8−167022号公報では、画面を小領域に区切り、各小領域と類似する小領域を過去に入力された画像から検出することにより移動領域を抽出し、この移動領域内で平行に移動する領域を1個の移動物体とし、複数のフレーム間で移動物体同志の対応をとることにより、移動物体の追跡が得られるようにした方法について開示している。
【0005】
一方、上記した方法とは別に、複数のカメラを用い、複数の画像の立体視により3次元の位置を特定し、これにより車両の重なりを排除し、個々の車両が分離して認識できるようにした方法も、従来から知られている。
【0006】
【発明が解決しようとする課題】
上記従来技術は、明るさの変動による影響について配慮がされておらず、移動した領域だけの抽出が困難であるという問題があった。
また、従来技術では、移動領域と背景の区別しかできないため、渋滞などで車両同志が重なって動いている場合には、個々の車両の分離が困難であるという問題もあった。
【0007】
例えば、上記した特開平8−167022号公報による移動物体の検出方法では、当初、分離していた領域が重なった場合には対応できるが、初めから重なっている場合には分離して抽出できない。
また、予め区切った小領域間での類似度を用いて移動ベクトルを算出しているため、移動ベクトルの精度が小領域の大きさに依存して決まってしまう。
【0008】
さらに、この移動物体の検出方法は、道路画像のような同一方向に向かう移動体の識別を対象にしていないので、事実上、ここで用いている手法を道路画像に適用しても、車両の分離は難しかった。
また、立体視による方法では、1箇所の監視に複数台のカメラが必要であり、コストがかかるという問題点があった。
【0009】
発明の目的は、個々の車両を確実に分離して検出できるようにした車両検出方法および装置を提供することである。
【0010】
【課題を解決するための手段】
上記目的は、道路の車両走行方向の斜め後方から撮像され、画面単位で時系列に取り込まれてくる画像データを処理して、車両を検出する方式の車両検出方法において、前記画像データによる画面の任意の領域を小領域に分割し、或る時点の画面における前記小領域と、前記或る時点から所定時間前の時点の画面における前記小領域を比較して、各小領域毎に移動ベクトルを算出し、この算出した移動ベクトルを分布形状として記憶し、この記憶した分布形状を解析して車両間の区切りを検出することにより達成される。
【0011】
このときの前記車両間の区切りの検出は、前記移動ベクトルが所定個数発生している状態を車両状態、発生しないときを空間状態とし、前記車両状態が所定回数経過し、かつ、前記空間状態になったとき、前記車両の区切り位置とするようにしても良く、前記移動ベクトルが所定個数発生している状態を車両状態、発生しないときを空間状態とし、前記車両状態が所定回数経過し、かつ、前記移動ベクトルの分布形状があらかじめ定めた形状に類似したときを前記車両の区切り位置とするようにしても良い。
【0012】
同じく、このときの前記車両間の区切りの検出は、前記移動ベクトルが所定個数発生している状態を車両状態、発生しないときを空間状態とし、複数台の車両について、車両状態の移動ベクトルの平均ベクトル値と、車両状態から空間状態になるまでの平均経過時間を算出し、該平均ベクトル値と前記平均経過時間の関係を定義し、前記車両状態の移動ベクトル値から予測経過時間を算出し、前記車両状態になってから前記予測経過時間を経過した後に前記車両の区切り位置を算出するものであっても良い。
【0013】
また、上記目的は、道路の車両走行方向の斜め後方から撮像され、画面単位で時系列に取り込まれてくる画像データを処理して、車両を検出する場合、前記画像データによる画面の任意の領域を小領域に分割し、或る時点の画面における前記小領域と、前記或る時点から所定時間前の時点の画面における前記小領域を比較して、各小領域毎に移動ベクトルを算出する移動ベクトル算出部と、この算出した移動ベクトルを分布形状として記憶する移動ベクトル記憶部と、該移動ベクトル記憶部に記憶されている分布形状を解析して車両間の区切り位置を検出する車両区切検出部とを備えることにより達成される。
【0014】
このとき、前記車両区切検出部は、前記移動ベクトルが所定個数発生している状態を車両状態、発生しないときを空間状態とした上で、前記車両状態が所定回数経過し、かつ、前記空間状態になったとき、前記車両の区切り位置とするものであっても良い。
【0015】
同じく、このとき、前記車両区切検出部は、移動ベクトルが所定個数発生している状態を車両状態、発生しないときを空間状態とした上で、前記車両状態が所定回数経過し、かつ、前記移動ベクトルの分布形状があらかじめ定めた形状に類似したときを前記車両の区切り位置とするものであっても良い。
【0016】
更に、このとき、前記車両の区切検出部は、移動ベクトルが所定個数発生している状態を車両状態、発生しないときを空間状態とした上で、複数台の車両について、車両状態の移動ベクトルの平均ベクトル値と、車両状態から空間状態になるまでの平均経過時間を算出し、該平均ベクトル値と前記平均経過時間の関係を定義し、前記車両状態の移動ベクトル値から予測経過時間を算出し、前記車両状態になってから前記予測経過時間を経過した後に前記車両の区切り位置を算出するものであっても良い。
【0017】
本発明によれば、移動ベクトルの発生する領域を画面上で車両の存在する領域の形状として抽出しているので、画面上で車両に重なりや隠れが生じ、画像処理だけでは車両間の分離がし難い場合でも、車両間の区切りの形状を抽出することができる。
【0018】
【発明の実施の形態】
以下、本発明による車両検出方法と車両検出装置について、図示の実施の形態により詳細に説明する。
図1は、本発明による車両検出装置の一実施形態で、この実施形態は、図示のように、画像入力部1と画像格納部2、移動ベクトル算出部3、移動ベクトル領域設定部4、移動ベクトル分布記憶部5、それに車間区切り検出部6で構成されている。
【0019】
画像入力部1は、道路上や道路の近傍に設置されている1台又は複数台のテレビカメラから画像(画像データ)を入力し、A/D変換して画像格納部2に取り込む働きをする。ここで、道路には、トンネル内にある部分も含まれる。
【0020】
画像格納部2は、画像入力部1から入力されてくる画像を1枚づつ、画像処理周期dt 間隔でn枚まで格納してゆく働きをする。ここで、1枚の画像とは、1フレーム分の画像データからなる画像のことで、このときの画像処理周期dt については、例えば100ミリ秒程度が選ばれている。
【0021】
従って、この画像格納部2には、入力時刻を現在時刻tとして、この時刻tから画像処理周期dt づつ遡った時刻t−dt、t−2dt、……、t−ndt における画像のデータが格納されていることになり、この結果、或る時刻tでの画像だけではなく、これから過去に遡ってn枚の画面を画像処理の対象とすることができる。
【0022】
移動ベクトル算出部3は、任意の時刻tでの画像と時刻t-ndt での画像の間で、移動体の移動の方向と大きさを算出する働きをする。
ここでの移動ベクトルの算出方法には種々の方法があり、いずれの方法を用いても良いが、ここでは、一例として、濃淡パターンマッチング法を用いた方法について説明する。
【0023】
この濃淡パターンマッチング法は、時刻tの画像における任意の領域のパターンをテンプレートとして、時刻t−ndt の画像上でパターンを検索し、一致度の高いパターンが見つかった位置と方向ベクトルを求める方法で、以下、この処理について、図2を用いて更に詳細に説明する。なお、以下、表示された画像については画面と記すことにする。
【0024】
まず、図2(a)は、時刻tにおける画面の一例を示したもので、同図(b)は、時刻tから時間dt 前の画面の一例を示したものである。
この図2は、左側通行になっている道路を通行方向の後方から撮像した場合の画面で、このときカメラの視野に、たまたま走行中の車両21があったときの画像であり、ここで、各画面の中に斜めになって表示されている3本の太線は、道路に描かれている通行区分線の像である。
【0025】
いま、図2(a)の画面で、小さな四角形による領域22と領域23が移動ベクトルを算出する領域であるとし、それぞれの領域の中心の座標を24(x22,y22)、25(x23,y23)とする。
ここで、領域22は移動している車両21上の領域であり、領域23は車両を含まない路面上の領域である。
【0026】
まず、車両21を含む領域22における移動ベクトルの算出について、説明する。
基準となる領域22が与えられると、領域22のパターンをテンプレートとして、図2(b)の画面に示すように、時刻t−dt での画面の中から類似したパターンを検索し、最もパターンが一致する領域22'を検出する。
【0027】
ここで、検出した領域22'の中心座標を24'(x22',y22')とする。
【0028】
そうすると、図2(c)の画面に示すように、領域22'の中心座標24'から、領域22の中心座標24に向かう矢印26(x22−x22',y22−y22')が、時刻t−dt と時刻tの間における領域22の移動ベクトルとして求まることになる。
【0029】
次に、車両21を含まない領域23における移動ベクトルの算出について、説明する。
基準となる領域23が与えられると、領域23のパターンをテンプレートとして、図2(b)の画面に示すように、時刻t−dt での画面中から類似したパターンを検索し、最もパターンが一致する領域23'を検出する。
【0030】
そうすると、この例の場合、路面のパターンは移動しないので、領域23'の中心座標25'(x23',y23')は、今度は領域23の中心座標25(x23,y23)と一致している。
つまり、この例のように、移動体を含まない領域23の場合は、矢印で表わさなければならない移動ベクトルは発生せず、図2(c)の画面に、点27で示すようになる。
【0031】
そこで、移動ベクトル算出部3は、以上のような手順により、任意の時刻tにおける画面と、時刻t−dt における画面の間での移動ベクトルを算出し、入力した画像中の任意の領域に移動体が含まれているか否かを検出するのである。
【0032】
移動ベクトル算出領域設定部4は、移動ベクトル算出用の領域を画面上に設定する働きをする。
上記したように、移動ベクトル算出部3によれば、入力した画像中の任意の領域に移動体があるか否かは容易に検出できるが、このままでは、車両同志が画面上で重なっていて、見かけ上ひとかたまりの移動物体となっているような場合には、車両同士の区切りを検出することができない。
【0033】
ここで、車両が重なっている場合、人間は、車両間の重なりの形状、異なった車両間の速度の違いの認識、等から車両間の区切りの認識を行っていると考えられ、このことから次の2種の条件を満たす方法を取る必要がある。
(1) 移動体の輪郭がはっきり認識できること。
(2) 移動ベクトルの大きさが正確に算出できること。
【0034】
そして、この条件を満たすための本発明の特徴部分が移動ベクトル算出領域設定部4であり、これにより、前述のように、移動ベクトル算出用の領域を画面上に設定するもので、以下、この設定動作について詳細に説明する。
図3は、道路の画面手前の車線に走行中の車両があり、これを斜め後方から撮影した場合の画像の一例で、以下、この画像から車両を検出するものとして説明する。
【0035】
まず、車両などの移動体が存在する領域を検出するため、画面内で車両が入ってくる位置の道路や車体を包括する領域に、図3(a)の画面に示すように、移動ベクトル算出領域群を設定する。ここで、この図(a)の中にある四角形の点が、それぞれの移動ベクトル算出領域の中心座標を表わしており、これらは、図示のように、x軸とy軸方向に等間隔に配置してある。
【0036】
次に、これらの点を中心にして、例えば図3(b)の画面に示すように、同じ大きさの移動ベクトル算出領域を一律に格子状に設定した上で、各領域毎に移動ベクトル算出部3により移動ベクトルを算出する。
そうすると、このときの図3の画像の場合は、例えば同図(c)の画面に示すような移動ベクトルの算出が想定される。
【0037】
そこで、図3(d)の画面に示すように、移動ベクトルが発生した領域だけを囲むことにより、このとき算出された移動ベクトルの分布状態が判り、この分布状態から、画像情報がなくても移動物体の存在する領域が、図示のように特定できることになる。
【0038】
ところで、このとき設定すべき移動ベクトル算出領域の大きさであるが、本発明の目的からすれば、車両の輪郭が充分に出せるような大きさに設定する必要があり、この見地に立てば、この領域は小さくするにこしたことはない。
【0039】
しかし、領域を小さくするとマッチングの精度が落ち、かつ、領域数が多くなるので計算時間が多く要するようになり、移動ベクトルをリアルタイムで算出するのが困難になる。
そこで、例えば、画面に入ってきた1台の車両が、縦8個、横8個程度の領域数で包括するくらいの大きさを目安とするとよい。
【0040】
また、このとき、この移動ベクトル算出領域は、車両の輪郭をよりよく出すため、車両の輪郭に沿って配置する方が望ましい。
図3の例では、画面中での水平方向と垂直方向は、画面の輪郭と平行になっており、従って、移動ベクトル算出領域も画面の水平方向と垂直方向に平行に設定してある。
【0041】
ここで、この図3(b)の画面に示すように、移動ベクトル算出領域を一律の大きさに設定した場合には、各移動ベクトル算出領域は、入力される画像には依存しないでカメラの設置位置により固定されるため、予め座標が設定できることになり、オフライン処理にすることができるが、他の実施形態としては、各移動ベクトル算出領域の大きさを固定せず、画面入力毎に動的に設定するようにしてもよい。
【0042】
ところで、図2で説明したように、時刻tにおいて、任意の移動ベクトル算出領域をテンプレートとして、任意周期前の時刻t−ndt の画面を検索する際、テンプレートに登録する領域に、例えば輝度が一様であるなど特徴とする点が無いときには、どこを一致度の高いパターンとして登録するか判定できなくなってしまう。
【0043】
従って、画像エッジ部など輝度にそれなりの変化が存在する領域を選んでテンプレートとするのが好ましく、このために、領域内の輝度の分散が所定値以上の値となる領域をテンプレートとする必要があるが、このとき、上記した固定の移動ベクトル算出領域を初期値とし、画像入力毎に特徴の出るような領域を設定する方法を用いることができる。
【0044】
このときの具体的な処理方法について、図4により説明する。
まず、図4(b)の画面に示されている領域41は、同図(a)の画面に示してある移動ベクトル算出領域の中の1個であるが、この場合の領域41は、図示のように、車両42の窓(リアウィンドウ)に含まれている。
【0045】
ここで、車両の窓は概ね輝度が一様で特徴の無い領域であるのが通例であり、従って、この場合、領域41による画像は、図4(b)の右側に示されているように、何も特徴の無いものとなってしまい、従って、これをテンプレートとしたのでは、一致度の高い領域が検出できなかったり、誤った領域を検出してしまう虞れがある。
【0046】
そこで、このような場合は、図4(c)の画面に示すように、領域41の中心座標44を中心として領域を拡大してやると、領域43で示すように、窓の枠を含む領域になるので、これをテンプレートとしてやれば、一致するパターンの判別が容易にできることになり、また、窓の枠や車体の領域も含むことで、領域内の輝度の分散も高くできることになる。
【0047】
以上の処理について、図5のフローチャートにより説明する。
まず、この図5の処理は、画像処理周期毎に、つまり時間間隔tで起動されるが、このとき、各移動ベクトル算出領域はiとし、その座標の初期値には、図4の画面(a)に示すように、予め各領域毎に座標xsi,ysi,xei,yei が設定されているものとし、ここで、xsi は領域iの始点のx座標、ysi は領域iの始点のy座標、xei は領域iの終点のx座標、yei は領域iの終点のy座標である。
【0048】
処理が開始されると、まず、処理s51で画像を入力し、これにより処理s52で領域のインデックスiを0に初期化する。次に処理s53で、領域iの座標を初期値(xsi,ysi,xei,yei)にした後、処理s54で領域iの輝度の分散を算出する。
【0049】
そして、処理s55では、領域iの分散と座標(xei−xsi)の値を調べ、領域iの分散が所定値以上であるか、又は座標(xei−xsi)の値が領域幅上限値以上であれば処理s57に進み、所定値以下で、且つ座標(xei−xsi)の値が領域幅の上限値以下であれば処理s56に進む。
【0050】
ここで所定値とは、例えば20など、領域のパターンに特徴が出てマッチングがしやすくなるような値を設定する。
そして、まず、処理s56では、領域iの領域を、それぞれ四方向に、設定値pitch だけ広げる。
このときの設定値pitch は任意の値であるが、一般的には3〜5画素くらいの値が適当であると思われる。
【0051】
この処理s56の後、処理s53に戻り、この処理以降の処理に進む。
一方、処理Ss57では、領域iの座標を(xsi,ysi,xei,yei)とし、処理s58で処理対象の領域インデックスiを次の領域に進める。
【0052】
そして、ここで進めたインデックスの番号が領域数以上だったら、処理s59では移動ベクトル算出領域設定の本処理を終了させ、領域数以下のときは処理s53に戻り、処理を繰り返す。
従って、この実施形態によれば、画像入力毎に、分散が一定値以上になるまで領域が広げられるので、テンプレートによる各移動ベクトルのマッチング精度を充分に高めることができる。
【0053】
なお、図5の処理の流れの例では、処理s55で領域の分散が低いと判断されたとき、次の処理s56では、上下左右共に等しく、同じ設定値pitch だけ広げるようにしているが、これは必ずしもそうしなくてはならない訳ではなく、上下と左右を異なった値にしても、或いは全部異なった値でもかまわない。
【0054】
ここで、s53からs56までの処理により領域を広げる場合、分散が所定値を越えるまで無制限に広げるのではなく、領域幅に上限値を設けているが、これは、例えば車両が存在せず分散値が低い路面パターンになっていたときなどに無制限に領域が広がってしまうのを防ぐためである。
【0055】
移動ベクトル分布記憶部5は、以上のようにして、移動ベクトル算出部3で算出した移動ベクトルを、車間区切り検出部6で車間区切りの検出に必要な形式で記憶する働きをする。
このとき、ここでの記憶の形式は車間区切り検出部6の処理に依存するので、この記憶形式については、車間区切り検出部6の説明と一緒に後述する。
【0056】
上述のように、画面を移動ベクトル算出領域設定部4によって区切り、各移動ベクトル算出領域毎に移動ベクトルを算出することで、図3に示したように、移動している領域を正確に抽出することができる。
そして、このように抽出した移動領域から、車両間の区切りを検出するのが、ここで説明する車間区切り検出部6の役目である。
【0057】
すなわち、車間区切り検出部6は、移動ベクトル算出部3で算出し、移動ベクトル分布記憶部5に記憶された移動ベクトルの分布情報から、車間の区切りを検出する手段であり、ここでは、その実現方法について、3種の実施形態により順に説明する。
【0058】
まず、第1の実施形態について説明すると、これは、ある時刻の画面における移動ベクトルの分布形態から、車両間の区切りを認識する方式である。
まず、図6(a)は、道路の左側の車線を走行方向の後方から俯瞰した状態で撮影した画面の一例で、この場合、カメラの位置の関係から、前後に連なって走行している車両61〜63は、図示のように、横方向に順次右側にずれた重なり方をして写る。
【0059】
この場合、後続車が接近しても、最小限の車間距離は保たれる以上、最後まで隠れない部分が先行車両の左下隅に残る筈なので、図6(b)の画面に示す三角形の空間64、65が車両間の隙間になる。
そこで、この第1の実施形態では、このように、カメラの画角から決定される車両間の隙間の形状を検出することにより、車両間の区切りを検出するようにしたものである。
【0060】
そして、この第1の実施形態では、まず、図7(a)の画面に示したような各領域毎の移動ベクトルの大きさを、例えば同図(b)に示すような形式で、xとyのマトリックスとして整理し、移動ベクトル分布記憶部5に記憶し、次に、図6の画面(a)に示すように、記憶した移動ベクトルの分布の中で、各行の移動ベクトルが存在する一番左の位置から、図6(b)の画面の三角形64、65で示すような段差が生じる位置を検出するのである。
【0061】
このときの車両間の区切りの検出には種々の方法が考えられるが、その一種にパターンマッチングにより車間の区切りパターンを検出する方法がある。
この方法は、予め考えられる段差のくびれの形状を何通りか作成しておき、入力された画面のパターンとマッチングをとる方法である。
【0062】
この方法は、例えば、図8(a)に示すように、記憶した移動ベクトルの分布をベクトルの有無(0or1)の情報に変換し、同図(b)に示すように二値化する方法であり、この結果、同図(c)に示すように、移動する領域は黒、移動しない領域は白の二値の配列に変換できる。
【0063】
そこで、これを利用し、想定されるくびれの形状を、予め図9に示すような同様の配列で定義しておき、これと、入力された画像の二値の配列パターンとでマッチングを取って検出するようにしたのが、第1の方法である。
【0064】
次に、この区切りを検出する第2の方法としては、画像入力毎に得られる配列に対して、車両間のくびれを定義する条件判定を行い、それを満たした場合に車両間のくびれとする方法もある。
具体的には、移動ベクトル分布記憶部5に記憶した画面上の移動ベクトルの配列が、一例として図10に示すようになっていたとすると、以下のような条件を満たしたとき、車両間のくびれとするのである。
【0065】
条件A
任意のn列目の一番左の移動ベクトルのX座標をXn、n+1列目の一番左の移動ベクトルのX座標をXn+1 とし、以下の(数1)式を満たしたとき。
Xn+1≧Xn+2 …… ……(数1)
条件B
n+1、n+2、n+3、n+4列目の一番左の移動ベクトルのX座標をそれぞれXn+1、Xn+2、Xn+3、Xn+4とし、以下の(数2)式を満たしたとき。
Xn+2=Xn+1−1
Xn+3=Xn+4−1
Xn+4=Xn+3−1 …… ……(数2)
【0066】
すなわち、図11に示すように、この場合、n列目に先行車両の最後尾があるため、その下のn+1列目との間に段差が生じた場合が条件Aであり、n+1列目から下に後続車両の車体の形状に沿ってなだらかな段差が生じた場合が条件Bとなる。
以上に挙げた条件は一例であるが、この方法により車間の区切りの形状を検出することができる。
【0067】
ところで、ここに説明した車間区切り検出方法は、上記したように、ある時刻に算出された移動ベクトルの分布からの判定だけなので、実際の車両間の区切り以外にも、例えば輝度の急激な変化の影響などで段差が生じた場合、これを車両間の区切りであると誤判定をしてしまう可能性がある。
【0068】
そこで、本発明の一実施形態として、図12に示すような誤検出除去部7と、車間時間予測部8を付加した構成があり、これによれば、より正確に車両を検出することができる。
ここで、まず誤検出除去部7は、画面上の移動ベクトルの発生状況の履歴をとり、この履歴情報から移動体が通過したか否かの判定を行う手段であり、この手段による車両通過の判定方法の例について、以下、図13と図14を用いて説明する。
【0069】
図13において、まず同図(a)〜(f)は、車両132が画面手前から奥に向かって走行したときの経過を、時間間隔tで順次入力されてくる画面により時系列的に示したもので、図には、画面に設定されている移動ベクトル算出領域群の中の任意の一行が領域131で示してあり、更に、この領域131の中には12個の移動ベクトル算出領域が含まれていることが示されている。
【0070】
そして、図13(g)は、上記した移動ベクトル算出領域131におけるベクトルの有無を時刻毎に縦方向に並べて表示したもので、ここでは、ベクトルを有する領域は網目部分133で示してあり、領域131一行の移動ベクトルの大きさの総和は134で示してある。
【0071】
従って、この総和134から、車両132が領域131を通過する部分での移動ベクトルの発生状況が時系列的に知ることができ、しかも、この図13の例のように、車両が通過する場合には、移動ベクトルがある程度連続して発生することが判る。
【0072】
一方、図14は、例えばノイズなどにより画面に移動ベクトルが発生した場合の一例を示したもので、移動物体が何も存在しない場合でも、急激な輝度の変化などで、例えば、図14(b)の画面に示すように、段差141を伴う移動ベクトルが発生する場合があり、このような場合、この画面だけでは、車両などの移動物体の通過によるものか、ノイズによるものであるのかは判断できない。
【0073】
しかし、このとき、任意の行の領域141における移動ベクトルの有無を、図14(d)に示すように、図13(g)と同様に表示してみると、このときは、移動ベクトルが時刻t+dt においてしか発生していないことが判る。
【0074】
そこで、この点に着目し、誤検出除去部8では、画面上の移動ベクトル発生状況の履歴から、車両などの移動体の通過かノイズの発生によるものかを判定するようにしたのがこの実施形態の特徴であり、これにより移動物体の通過と誤判定してしまう虞れが生じないようになっている。
【0075】
ここで、判定に使用する移動ベクトルの発生状況としては、図13(g)に示すように、ある特定の行のベクトルの大きさの総和134を使用しても良いし、このとき、検出値の変動を平滑化するため、更に2、3行分のベクトルの大きさの総和を用いても良い。
【0076】
一方、上記したように、ベクトルの大きさを用いるのではなく、移動ベクトルの発生数を発生状況として用いることもできる。
そこで、以下では、移動ベクトルの発生数を用いて判定するようにした場合の一実施形態について、図15により説明する。
【0077】
この図15は、画像処理毎に算出した移動ベクトル発生状況の値の変動を波形151、152、153、154で表わしたもので、ここには、車間区切り検出部6において車間の区切りを判定するタイミングも三角マーク155〜158で示してある。
【0078】
そして、各波形151〜154の下側には、それぞれの波形の継続時間の長さが矢印で示してあり、これらの矢印には、それぞれの波形の継続時間を、画像処理周期を単位とする回数で示した数値“22”、“21”、“18”、“3”が付してある。
【0079】
そこで、この場合は、各判定タイミング155〜158の中で、判定タイミング155、156、157については、移動ベクトルが連続している回数が各々22回、21回、18回であるので、これらは何れも車両の通過によるものであると判定する。
【0080】
そして、判定タイミング158では、移動ベクトルが連続して3回しか判定されていないので、これはノイズによるものとして判定するのであり、従って、これによりノイズによる誤判定が確実に防止できることになる。
【0081】
以上をまとめて、図12に示した誤検出除去部7を備えた実施形態による車間区切り検出部6の具体的な動作について、以下、図16により説明する。
ここで、この図16による処理は、移動ベクトル算出部3の処理を受けて、画像処理周期毎に起動されるものである。
【0082】
処理が開始されると、まず、処理s161で、最新の画像Vtにおいて、例えば図13に符号131で示してあるような任意の一行、若しくは複数行に移動ベクトルがあるか否かを判定し、移動ベクトルがあれば処理s162に進み、移動ベクトルが無いときは処理s163に進む。
【0083】
そして、処理s162では移動ベクトルカウンタをインクリメントし、処理s163では移動ベクトルカウンタを0にクリアする。
従って、この移動ベクトルカウンタは、ある画面での移動ベクトルの発生状況が1以上の場合にインクリメントされ、この結果、この移動ベクトルカウンタにより、移動物体が何周期連続したかがカウントされることになる。
【0084】
ここでカウントされる移動ベクトルの発生状況については、上記したように、例えば特定行のベクトルの大きさの総和などで決まるものである。
次いで、処理s164で移動ベクトルカウンタの値が一定値以上か否かを判定し、一定値以上のときは処理s165に進み、一定値以下のときは処理s168に進みむ。
【0085】
処理s165では、時刻tの移動ベクトル分布に段差の有無を判定し、段差ありのときは処理s166に進み、段差がないときは処理s168に進む。
そして、処理s166では車間区切り検出処理を行い、次いで処理s167で移動ベクトルカウンタを0にクリアしてから処理s168に進んだ後、処理s168で次の周期での処理に移行するのである。
【0086】
従って、この実施形態によれば、移動ベクトルカウンタにより、移動ベクトルの発生状況を監視しながら連続して移動ベクトルが観測でき、車両が通過したと判定できる場合に車間の区切りを検出することができる。
【0087】
次に、車間時間予測部8について説明する。
上記した車間区切り検出部6の各実施形態では、移動ベクトルが発生する位置を、移動物体が存在する領域であると仮定し、移動ベクトルが0の位置を、移動物体が存在しない領域であると仮定している。
【0088】
しかし、移動ベクトル算出領域に特徴部分がなく、分散が0、若しくは0に近いときは、たとえその領域が移動していたとしても、移動ベクトルが求まらない場合がある。
ここで、例えば図17(a)は、一例として、小型車両171に大型車両172が重なっている場合の画面と画像の移動ベクトルを示したもので、同じく図17(b)は、同図(a)の画面から移動ベクトル情報だけを抽出したものである。
【0089】
そうすると、ここで、例えば図(a)の画面中における領域173、174のように、移動している領域ではあるが、領域中の輝度が一様で特徴部分が含まれないような場合には、移動ベクトルが求まらないことがある。
この場合、図17(b)に示すような段差175が現れてしまい、この結果、図示のように、1台の車両に2個所の区切り176、177が検出され、誤検出になってしまう。
【0090】
この場合、1台の車両の通過にかかる時間Tを移動ベクトルの大きさから予測し、車両を1回検出したときは、それから時間Tが経過するまでは再検出しないという手法を、車間時間予測部8に適用してやればよく、これにより上記した誤検出を防止することができる。
【0091】
このときの時間Tは、カメラの画角と、画面を通過する車両の平均の移動ベクトルの大きさと関係から予測できる。
ここで、この予測に必要な式の設定には、オフラインとオンラインの2種の方法が考えられるが、まず、オフラインによる方法について説明する。
【0092】
いま、例えば図18において、(a)の画面に示すように、予め定めた移動ベクトル算出領域の任意の1行の領域182に車両181の上部が最初にかかる時刻tから、この領域182の中を車両181が通過していって、同図(b)の画面に示すように、最後に車両181の下部が領域182にかかる時刻をt+ndtとすると、画面(a)と画面(b)の時間差ndtが通過にかかった時間Tになる。
【0093】
そこで、この時間Tを算出する処理と、図18の画面(a)から画面(b)に車両が通過する間の平均の移動ベクトルの大きさ、つまり移動ベクトルの平均値Vを算出する処理を、予め数10台の車両について実行し、結果を得ておく。
【0094】
図19は、得られた結果を散布図としてプロットした特性図の一例であり、図中の直線191は、これらの関係を、次の(数3)式で表わされる直線式で近似したものである。
T=aV+b …… ……(数3)
但し、a、bはパラメータ(定数)である。
【0095】
そこで、車間時間予測部8は、そのときの平均移動ベクトルVの値から、上記(数3)式により、常時、1台当たり通過所要時間Tを算出する。
このため、まず、予め移動ベクトルの大きさを観測する行を決定しておき、画像が入力される毎に、該当する行で発生する移動ベクトルの大きさの平均値をとる。
【0096】
例えば、図20の場合において、移動ベクトルを観測する行を202と決めておくと、この画面の場合、行202で観測される移動ベクトルは枠201で囲まれた3個の移動ベクトル(3、2、3)となる。
そうすると、この場合は、移動ベクトルの平均値V=2.67となり、この値を(数3)式に代入することにより、時間Tを算出することができる。
【0097】
次に、オンラインによる方法について説明すると、この場合、要するに、前記オフラインで用いているデータは、画像処理中でも収集できるので、これを利用するだけである。
すなわち、オンラインで収集したデータに基づいて、(数3)式のパラメータを一定周期毎に更新してやればよい。
【0098】
次に、図21は、車間時間予測部8を付加したときの移動ベクトル算出部3と車間区切り検出部6による処理の流れを示したもので、ここで、intervalは、一旦車両検出を行った時刻からの時間の計時に使用する変数値である。
【0099】
図21による処理について説明すると、まず、処理s211で画像を入力し、次いで処理s212では、移動ベクトル算出部3により各移動ベクトル算出領域の移動ベクトルを算出して、車間時間予測部8により、1台当りの通過所要時間の予測値が計算されるようにする。
【0100】
そして、処理s213では、車間時間予測部8で算出した1台当たり通過所要時間の予測値が、予め設定してある変数値Intervalより小さいときは処理s214に進み、大きいときは処理s215に進む。
ここで、処理s214に進んだときは、変数値Intervalをインクリメントしてから処理s211に戻り、次回の画像入力処理に備える。
【0101】
一方、処理s215に進んだときは、ここで車間区切り検出部6の車間区切り検出処理を実行し、次いで処理216では、車間区切りが検出されたか否かを判定する。
【0102】
そして、この処理s216で車間区切りが検出されたと判定された場合には、処理s217で変数値intervalを0にクリアし、次回の時刻での画像入力処理に進むが、車間区切りが検出されないと判定された場合には、処理s218で変数値intervalをインクリメントしてから次回の時刻の画像処理に進むのである。
【0103】
従って、この実施形態によれば、画像処理周期dt で画像が入力される毎に、前回車両検出してからの時間が予測車間距離以上か否かが判定され、予測車間時間以上経過していない場合は車間区切り検出処理が行われないようにする処理が実行されることになり、この結果、1台の車両を2回以上検出してしまうことによる誤検出の発生頻度を減少させるここができる。
【0104】
また、このとき、誤検出除去部7と車間時間予測部8を用いることで、画面毎の移動ベクトルの分布形状だけではなく、車両の通過や車間の時間も考慮されることにより正確な車間の区切りの検出を得ることができる。
【0105】
次に、車間区切り検出部6の第2の実施形態について説明する。
上記した第1の実施形態では、ある時刻に算出された移動ベクトルの分布だけを用いて車間区切りの判定を行っていた。
【0106】
しかし、この第2の実施形態は、既に前述の第1の実施形態における図13で説明したような、任意の1行の移動ベクトル発生状況を時間軸方向に投影した分布を記憶し、その分布形状から車間の区切りを検出する方法であり、以下、この車間区切り検出部6の第2の実施形態について、図22を用いて更に詳しく説明する。
【0107】
図22の(a)〜(i)は、走行中の車両を表示している画面の一例で、これまでの例と同様、左側後方から撮影した画面を時系列的に順次示したものであり、ここで、車両222と車両223は前後して走行していて、最初の画面(a)を除き、画面上では重なっている。
【0108】
ここで、移動ベクトル算出領域の行221は、画面(a)、(b)では先行する車両222の車体だけを含んでいるが、画面(c)、(d)、(e)では車両222と車両223の双方が重なっている部分を含み、画面(f)、(g)、(h)、(i)では追従する車両223の車体だけを含んでいる。そして、画面(e)が、先行する車両222の最後尾が行221を通過する瞬間の画像で、画面(f)は、車両222が行221を通過した直後の画像である。
【0109】
一方、図22(j)は、行221で示されている移動ベクトル算出領域における移動ベクトルの有無を、tから始まって画像処理周期dt 毎に増加している時刻毎に投影した図であるが、ここには、時刻t+4dt と時刻t+5dt の間に段差が現れている。
【0110】
そして、この図22(j)の投影図を、各時刻毎の画面(a)〜(i)と対照させてみると、上記した段差は、先行する車両222の最後尾により現れているものであり、従って、このことから、行単位で移動ベクトルを投影した場合も、車両間の区切りには段差ができ、このような段差を検出することにより車両の最後尾が検出できることが判る。
【0111】
そこで、この第2の実施形態では、移動ベクトル分布記憶部5には任意の行の移動ベクトル情報が時刻毎に記憶されるように構成する。
このときの移動ベクトル分布記憶部5の記憶形式の一例が図23で、図示のように、画像処理周期dt 毎に特定の一行の移動ベクトルの値をx方向に順に記憶するのである。
【0112】
そして、このようにして移動ベクトル分布記憶部5に記憶した移動ベクトルの分布から車間の区切りを検出するのであるが、この検出方法については、既に説明した第1の実施形態と同じく、パターンマッチングによる技法や条件判定による技法を用いて行えばよい。
【0113】
このとき、同じく第1の実施形態と同様、誤検出除去部7と車間時間予測部8を付加した処理を行うことにより、さらに正確な区切り検知を得ることができるのはいうまでもない。
【0114】
以上が車間区切り検出部6の第2の実施形態であるが、次に、車間区切り検出部6の第3の実施形態について説明する。
この第3の実施形態では、移動ベクトルの分布パターンから車両の通過状態を判定するのにニューラルネットワークを用い、通過状態の連続パターンから車両間の区切りを判定するようにしたものである。
【0115】
既に述べたように、移動ベクトル算出手段により算出した移動ベクトルの発生状況によれば、画面上での移動領域の形状が抽出できる。
そして、車両通過中の画面上の移動ベクトル分布パターンは、その形状が有する特徴に応じて、例えば、車両本体によるものと、車間くびれによるもの、及び空間(車両が存在しない)によるものの3種類の状態に分けることができる。
【0116】
そこで、このことを利用し、上記3種類の車両検出領域の移動ベクトルの分布パターンをニューラルネットワークに学習させることにより通過中の状態を画面毎に判定し、その状態の遷移で車両の通過状態を把握するようにしたのが、この第3の実施形態である。
【0117】
まず、図24は、このときの移動ベクトル分布パターンの代表例を示したもので、図において、181が車両本体によるパターンの一例で、182は車間区切りによるパターンの一例であり、183が空間によるパターンの一例である。
【0118】
次に、図25は、この実施形態で、ニューラルネットワークを利用した場合でのネットワーク構造を示したものであるが、ここで、ニューラルネットワークで扱うデータ範囲は0から1の実数に限られる。
そこで、まず、図25(a)に示すような移動ベクトル分布については、同図(b)に示すように、0(移動ベクトルあり)か1(移動ベクトルなし)の二値の配列情報に変換する。
【0119】
そして、この図25(b)に示した二値の配列情報を、同図(c)に示したニューラルネットワークの入力層に順に入力するのである。
この例では、ニューラルネットワークが5×9のマトリックス構成になっているので、a[0][0]〜a[4][8]の45パタンの配列情報がニューラルネットワークの入力層に供給され、その出力層には、図24に示した3種類の形状パターン毎の出力が用意される。
【0120】
そして、図25(b)に示す情報をニューラルネットワークの入力層に入力し、学習時は教師データとしてパターン番号を与えることにより学習する。
ここで、認識に際しては、画像入力毎に算出した移動ベクトルの分布を同様に二値化した情報として入力し、認識結果を得る。
【0121】
このときの認識結果としては、前述の3通りのいずれかのパターン番号が得られるので、画像入力毎に、その画面にもっとも類似度の高いパターン番号の出力が得られる。
そして、画像入力毎に出力される認識結果をもとに、現在の画像が3通りのうちの何れの状態であるかを判定する必要がある。
【0122】
このときの状態の遷移は、上述の3種類のパターンの例では、
「車体」 → 「車間区切り」 ……
或いは、
「空間」 → 「車体」 ……
の遷移が繰り返されるので、具体的には図26に示すような処理の流れで状態遷移を決定することになる。
【0123】
そこで、以下、この図26による処理について説明すると、まず、ここで「認識結果」とは、ニューラルネットワークの認識による出力のことで、「現在の状態」が、この処理の結果として判定した現在の状態のことである。
【0124】
そして、s264からs266までの処理により、現在の状態が「空間」に遷移する場合の処理が実行され、s267からs270までの処理では、現在の状態が「車間区切り」に遷移する場合の処理が実行され、更に、s271からs273までの処理で、現在の状態が「車体」に遷移する場合の処理が実行されることになる。
【0125】
また、この図26は、車間区切り検出部6としての処理であるため、現在の状態が「車間区切り」、又は「空間」に遷移した場合に車両検出判定を実行することになるが、これは、画面上で車両が重なっていないとき車両間に空間ができるためである。
【0126】
この図26の処理は、移動ベクトル算出部3の処理を受けて、毎画像処理周期毎に起動される。
そして、起動されると、まず処理s261で、移動ベクトル分布記憶部5から移動ベクトルの分布を読み出し、次いで、この移動ベクトルを二値化し、“1”と“0”の配列データに変換する。
【0127】
次に、処理s262で、この二値化された配列データをニューラルネットワークに入力し、認識結果を得た後、処理s263に進み、ここから、処理s262での認識結果が「空間」で、且つ現在の状態が「車体」であった場合には処理s264に進み、それ以外の場合は処理s267に進む。
【0128】
まず、処理s264に進んだときは、認識結果が3回以上連続して「空間」と判定されていたか否かを調べ、結果がYesのときは処理s265に進み、Noのときは次周期の処理へ進む。
処理s265では、現在の状態は「空間」であるとし、この後、処理s266で車両検出判定とする。
【0129】
次に、処理s267に進んだときは、認識結果が「車間区切り」で、且つ現在の状態が「車体」である場合、処理s268に進み、それ以外の場合は処理s271に進む。
処理s268では、認識結果が3回以上連続して「車間区切り」と判定されていれば処理s269に進み、それ以外は次周期の処理へ進む。
処理s269では、現在の状態は「車間区切り」であるとし、この後、処理s270で、車両検出判定されたとするのである。
【0130】
処理s271に進んだときは、認識結果が「車体」で、現在の状態が「車間区切り」又は「空間」である場合、処理s272に進み、それ以外の場合は次周期処理に進む。
処理s272では、 認識結果が3回以上連続して「車体」と判定されていれば処理s273に進み、それ以外は次周期の処理へ進む。
そして、処理s273で現在の状態は「車体」であるとするのである。
【0131】
図27は、上記の処理による時刻毎の認識結果と、現在の状態の遷移の関係を示したもので、この図には、最上段の時刻に対応して、2段目に認識結果が、そして3段目には状態の遷移が各々示されており、従って、以上の処理により、画面入力毎に判定した状態から車両が検出できることが判る。
【0132】
なお、この図26に示した実施形態では、簡単化のため、認識結果と現在の状態の組合せパターンが3種類にしてあるが、より細かいパターン分けを行っても良い。また、同じ認識結果が3回連続したとき、状態が遷移するように構成されているが、これは誤認識により誤った状態遷移が起こるのを避けるためであり、従って、複数回であれば、必ずしも3回でなくても良い。
【0133】
以上、車間区切り検出部6について、複数の実施形態により説明したが、これらを図1と図12の本発明の実施形態に適用することにより、画面中で車両同志の重なりが生じた場合でも、確実に車両間の区切りを検出することができる。
【0134】
次に、本発明による車両検出装置の他の実施形態について説明する。
まず、この実施形態は、現在時刻から数周期前の画像に遡り、該遡った時刻の画像における移動領域が現在時刻に至るまでにどの程度隠れたかを検出し、最も隠れの大きい部分を車両間の区切りとする方法である。
【0135】
ここで、図28の各画面(a)〜(d)は、画像格納部2に記憶されている時刻t−3dt から時刻tまでの画像であるが、この実施形態では、まず、この中で一番古い時刻t−3dt の画面(a)を選ぶ。
次に、この画面(a)の中から、移動ベクトル分布記憶部5に記憶されている移動ベクトル分布を用い、移動ベクトルが存在する小領域(移動物体のある領域)を抽出する。
【0136】
そして、時刻t−2dt、t−dt、tの各画面(b)、(c)、(d)において、上記抽出した各小領域毎に、パターンマッチングによる検出処理を行うのである。
ここで、図28の各画面(b)、(c)、(d)の中には、このとき検出した各小領域に対応する領域がそれぞれ矩形で示されているが、これらの小領域の中で斜線が付してある領域が、後続車両282に隠されていてパターンが検出できなかった領域である。
【0137】
従って、例えば、この図28の例では、時刻t−3dt の時点では、画面(a)から明らかなように、車両281に含まれる領域内には20個の移動している小領域があったが、時刻t−2dt での画面(b)と、時刻t−dt の画面(c)、それに時刻tの画面(d)では、後続車両282によって隠されたため、図中それぞれ2個、5個、12個の領域が検出できなくなっている。
【0138】
そして、このとき、後続車両282は、画面下から画面中に入って先行車両281と徐々に重なるため、先行車両281の最後尾283の行から順に隠されていくことが分かる。
そこで、これを利用し、任意周期前の時刻t−ndt における各移動ベクトルの存在領域をテンプレートパターンとし、画像格納2に格納されている時刻t迄のn枚の画像上に各パターンが存在するか否かを順に検出してゆく。
【0139】
そして、検出できなかったテンプレートパターンの個数を各行毎に、この例では行283、284、285毎に累計する。
この場合、前述したように、車両同志が重なる場合、先行車両281の最後尾がもっとも隠される頻度が高い領域であるので、累計した頻度は図28(e)に示すように山形を呈する。
【0140】
そこで、以上の処理を画像処理周期dt 毎に行い、頻度分布特性(e)を得た上で、この山形の特性の中で頂点になる行を車両の最後尾、つまり車間の区切りとして登録するのである。ちなみに、このときは、図示のように、行283が車間の区切りとなる。
従って、この実施形態によれば、画面中で車両同志の重なりが生じた場合でも確実に車両間の区切りを検出することができる。
【0141】
次に、図29は、本発明のさらに別の一実施形態で、この実施形態は、入力画面から抽出した移動領域から、車両が1台1台存在する領域を抽出するようにしたもので、このため、図1の実施形態における車間区切り検出部6に代えて、図示の用に移動ベクトルの分布から車両領域を抽出する車両領域抽出部9を設けたものである。
【0142】
この車両領域抽出部9は、画面上で走行している移動物体が、テレビカメラから近いほど見掛け上の移動ベクトル量が大きいことを利用して、個々の車両を分離し、検出するように構成されている。
例えば、図30は、車両301と車両302が画面上で重なっている例であるが、この場合、移動ベクトルの集合としては、見掛け上ひとかたまりの物体に見える。
【0143】
しかし、実際には、テレビカメラからの距離が車両毎に異なっているため、個々のベクトルの大きさでみると車両毎に異なっている。
そこで、上記したように、これを利用し、移動ベクトルの大きさが同じ領域をグルーピングすることにより、車両毎の領域を分離することができる。
【0144】
なお、理想的には、1台の車両の領域から算出される移動ベクトルは等しくなる筈であるが、実際には、テレビカメラから車両の各部分までは距離が微妙に異なっていることや、その他、ノイズの影響などもあるため、全く等しくなることはない。
【0145】
しかし、画面上に発生する移動ベクトルの大きさ毎に発生頻度分布をとると、図31のように、移動体毎に頻度分布に山ができると考えられるので、このような頻度分布の山毎に1台の車両であると看做すことでき、従って、移動ベクトルの大きさが同じ領域をグルーピングすることにより、車両毎の領域を容易に分離することができる。
【0146】
以上、本発明の実施形態によれば、移動ベクトルの大きさを用いることで、フレーム間差分による実施形態では得られなかった、画面上で重なった車両毎の領域を分離することができる。
【0147】
【発明の効果】
本発明によれば、移動ベクトルを算出することにより、画面上での移動領域の輪郭が明瞭に抽出できるので、車両間の区切りの形状認識を確実に得ることができ、この結果、画面上で車両に重なりや隠れが生じて、フレーム間差分法や背景差分法などによる画像処理手法では車両の分離が難しい場合でも、個々の車両を常に確実に分離して検出することができる。
【図面の簡単な説明】
【図1】本発明による車両検出装置の一実施形態を示すブロック図である。
【図2】本発明の一実施形態における移動ベクトル算出方法の説明図である。
【図3】本発明の一実施形態における移動ベクトル算出領域設定法の説明図である。
【図4】本発明の一実施形態において移動ベクトル算出領域を動的に設定するための処理方法の説明図である。
【図5】本発明の一実施形態による移動ベクトル算出領域を動的に設定する処理の流れ図である。
【図6】本発明の一実施形態における画面の移動ベクトルの分布から車間の区切りを求める方法の説明図である。
【図7】本発明の一実施形態における移動ベクトル分布の格納形式の説明図である。
【図8】本発明の一実施形態におけるパターンマッチングのためのデータ変換方法の説明図である。
【図9】本発明の一実施形態において想定される車間のくびれの例の説明図である。
【図10】本発明の一実施形態における画面上の移動ベクトル配列の一例を示す説明図である。
【図11】本発明の一実施形態における移動ベクトルの発生状況の一例を示す説明図である。
【図12】本発明の他の一実施形態を示すブロック図である。
【図13】本発明の他の一実施形態における移動ベクトルの発生状況の履歴による車両通過の判定方法の説明図である。
【図14】本発明の他の一実施形態において画面上にノイズにより移動ベクトルが発生した場合の説明図である。
【図15】本発明の他の一実施形態によるノイズを除去しながら車間の区切りを求める方法の説明図である。
【図16】本発明の一実施形態において誤検出除去部を備えた場合の車間区切り検出部の処理を示す流れ図である。
【図17】本発明の実施形態において誤検出が発生する場合の説明図である。
【図18】本発明の一実施形態における車両の通過にかかる所要時間と移動ベクトルの大きさの計測方法の説明図である。
【図19】本発明の一実施形態において車両の通過にかかる所要時間と移動ベクトルの関係を示す説明図である。
【図20】本発明の一実施形態における移動ベクトルの平均値を算出する方法の説明図である。
【図21】本発明の一実施形態において車間時間予測部を付加したときの移動ベクトル算出部および車間区切り検出部の処理を示す流れ図である。
【図22】本発明の他の一実施形態における車間区切り検出動作の説明図である。
【図23】本発明の他の一実施形態における車間区切り検出部での移動ベクトル分布記憶部の記憶形式の説明図である。
【図24】本発明の他の一実施形態における代表的な移動ベクトルの分布パターンの例を示す説明図である。
【図25】本発明の一実施形態においてニューラルネットワークを利用した場合のネットワークの構造を示す説明図である。
【図26】本発明の他の一実施形態における状態遷移を決定する処理の流れ図である。
【図27】本発明の他の一実施形態における時刻毎の認識結果の出力と現在の状態の遷移の関係を示す説明図である。
【図28】本発明の更に別の一実施形態における車両の検出方法の説明図である。
【図29】本発明の更に別の一実施形態に車両領域抽出部を付加した場合を示すブロック図である。
【図30】本発明の更に別の一実施形態における車両領域抽出部の動作を示す説明図である。
【図31】本発明の更に別の一実施形態において移動ベクトルの大きさ毎に発生頻度分布を取った例を示す説明図である。
【符号の説明】
1 画像入力部
2 画像格納部
3 移動ベクトル算出部
4 移動ベクトル算出領域設定部
5 移動ベクトル分布記憶部
6 車間区切り検出部
7 誤検出除去部
8 車間時間予測部
21 車両
22 移動している車両を含む領域
23 路面の領域
24、25 領域の中心の座標
Claims (8)
- 道路の車両走行方向の斜め後方から撮像され、画面単位で時系列に取り込まれてくる画像データを処理して、車両を検出する方式の車両検出方法において、
前記画像データによる画面の任意の領域を小領域に分割し、
或る時点の画面における前記小領域と、前記或る時点から所定時間前の時点の画面における前記小領域を比較して、各小領域毎に移動ベクトルを算出し、
この算出した移動ベクトルを分布形状として記憶し、
この記憶した分布形状を解析して車両間の区切りを検出することを特徴とする車両検出方法。 - 請求項1に記載の発明において、
前記車両間の区切りの検出は、
前記移動ベクトルが所定個数発生している状態を車両状態、発生しないときを空間状態とし、
前記車両状態が所定回数経過し、かつ、前記空間状態になったとき、前記車両の区切り位置とすることを特徴とする車両検出方法。 - 請求項1に記載の発明において、
前記車両間の区切りの検出は、
前記移動ベクトルが所定個数発生している状態を車両状態、発生しないときを空間状態とし、
前記車両状態が所定回数経過し、かつ、前記移動ベクトルの分布形状があらかじめ定めた形状に類似したときを前記車両の区切り位置とすることを特徴とする車両検出方法。 - 請求項1に記載の発明において、
前記車両間の区切りの検出は、
前記移動ベクトルが所定個数発生している状態を車両状態、発生しないときを空間状態とし、
複数台の車両について、車両状態の移動ベクトルの平均ベクトル値と、車両状態から空間状態になるまでの平均経過時間を算出し、
該平均ベクトル値と前記平均経過時間の関係を定義し、前記車両状態の移動ベクトル値から予測経過時間を算出し、前記車両状態になってから前記予測経過時間を経過した後に前記車両の区切り位置を算出することを特徴とする車両検出方法。 - 道路の車両走行方向の斜め後方から撮像され、画面単位で時系列に取り込まれてくる画像データを処理して、車両を検出する方式の車両検出装置において、
前記画像データによる画面の任意の領域を小領域に分割し、或る時点の画面における前記小領域と、前記或る時点から所定時間前の時点の画面における前記小領域を比較して、各小領域毎に移動ベクトルを算出する移動ベクトル算出部と、
この算出した移動ベクトルを分布形状として記憶する移動ベクトル記憶部と、
該移動ベクトル記憶部に記憶されている分布形状を解析して車両間の区切り位置を検出する車両区切検出部からなることを特徴とする車両検出装置。 - 請求項5に記載の発明において、
前記車両区切検出部は、
前記移動ベクトルが所定個数発生している状態を車両状態、発生しないときを空間状態とした上で、前記車両状態が所定回数経過し、かつ、前記空間状態になったとき、前記車両の区切り位置とすることを特徴とする車両検出装置。 - 請求項5に記載の発明において、
前記車両区切検出部は、
前記移動ベクトルが所定個数発生している状態を車両状態、発生しないときを空間状態とした上で、前記車両状態が所定回数経過し、かつ、前記移動ベクトルの分布形状があらかじめ定めた形状に類似したときを前記車両の区切り位置とすることを特徴とする車両検出装置。 - 請求項5に記載の発明において、
前記車両の区切検出部は、
前記移動ベクトルが所定個数発生している状態を車両状態、発生しないときを空間状態とした上で、複数台の車両について、車両状態の移動ベクトルの平均ベクトル値と、車両状態から空間状態になるまでの平均経過時間を算出し、該平均ベクトル値と前記平均経過時間の関係を定義し、前記車両状態の移動ベクトル値から予測経過時間を算出し、前記車両状態になってから前記予測経過時間を経過した後に前記車両の区切り位置を算出することを特徴とする車両検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000176025A JP3920535B2 (ja) | 2000-06-12 | 2000-06-12 | 車両検出方法及び車両検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000176025A JP3920535B2 (ja) | 2000-06-12 | 2000-06-12 | 車両検出方法及び車両検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001357402A JP2001357402A (ja) | 2001-12-26 |
JP3920535B2 true JP3920535B2 (ja) | 2007-05-30 |
Family
ID=18677802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000176025A Expired - Lifetime JP3920535B2 (ja) | 2000-06-12 | 2000-06-12 | 車両検出方法及び車両検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3920535B2 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4223233B2 (ja) * | 2002-05-29 | 2009-02-12 | パナソニック株式会社 | 移動物体検出装置および移動物体検出方法 |
JP3830875B2 (ja) * | 2002-08-23 | 2006-10-11 | 三菱電機株式会社 | 系統連系システムの保護継電装置 |
JP4082144B2 (ja) * | 2002-09-05 | 2008-04-30 | 株式会社明電舎 | 混雑度調査装置 |
JP4217876B2 (ja) * | 2002-12-20 | 2009-02-04 | 財団法人生産技術研究奨励会 | 画像における移動物体の追跡方法及び装置 |
JP4447309B2 (ja) * | 2003-12-25 | 2010-04-07 | 財団法人生産技術研究奨励会 | 交差点交通量計測装置および交差点交通量計測方法 |
JP4361381B2 (ja) * | 2004-01-26 | 2009-11-11 | 三菱電機株式会社 | 車両検出装置 |
JP4391839B2 (ja) * | 2004-01-30 | 2009-12-24 | 富士通株式会社 | 撮影条件設定プログラム、撮影条件設定方法および撮影条件設定装置 |
JP3897305B2 (ja) * | 2004-02-06 | 2007-03-22 | シャープ株式会社 | 車両周辺監視装置、車両周辺監視方法、制御プログラムおよび可読記録媒体 |
JP4155252B2 (ja) * | 2004-09-08 | 2008-09-24 | 日産自動車株式会社 | 車両検出装置 |
JP4622883B2 (ja) * | 2006-02-22 | 2011-02-02 | 富士通株式会社 | 映像属性自動付与装置、映像属性自動付与プログラム及び映像属性自動付与方法 |
JP2008243111A (ja) * | 2007-03-29 | 2008-10-09 | Hitachi Ltd | 画像処理装置および画像処理方法 |
JP4543106B2 (ja) * | 2008-08-18 | 2010-09-15 | 財団法人生産技術研究奨励会 | 画像における移動物体の追跡方法及び装置 |
JP4545211B2 (ja) * | 2008-10-06 | 2010-09-15 | パナソニック株式会社 | 移動物体検出装置 |
JP5829980B2 (ja) * | 2012-06-19 | 2015-12-09 | トヨタ自動車株式会社 | 路側物検出装置 |
JP6443145B2 (ja) * | 2015-03-13 | 2018-12-26 | 富士通株式会社 | 動画像データ蓄積装置、動画像データ蓄積プログラム、動画像データ蓄積方法、及び動画像データ蓄積システム |
CN106408080B (zh) * | 2015-07-31 | 2019-01-01 | 富士通株式会社 | 运动物体的计数装置及方法 |
JP7269134B2 (ja) * | 2019-08-28 | 2023-05-08 | Kddi株式会社 | 映像ストリームに影響した外的要因情報を推定するプログラム、サーバ、システム、端末及び方法 |
-
2000
- 2000-06-12 JP JP2000176025A patent/JP3920535B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2001357402A (ja) | 2001-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3920535B2 (ja) | 車両検出方法及び車両検出装置 | |
EP0567059B1 (en) | Object recognition system using image processing | |
KR101735365B1 (ko) | 학습 기반의 영상 내 관심 물체 검지 및 환경 변화에 강인한 물체 추적 방법 | |
Cheng et al. | Intelligent highway traffic surveillance with self-diagnosis abilities | |
CN103971521B (zh) | 道路交通异常事件实时检测方法及装置 | |
EP1640937B1 (en) | Collision time estimation apparatus and method for vehicles | |
KR100459476B1 (ko) | 차량의 대기 길이 측정 장치 및 방법 | |
CN106652465A (zh) | 一种道路异常驾驶行为的识别方法及系统 | |
JP2003067752A (ja) | 車両周辺監視装置 | |
Bedruz et al. | Real-time vehicle detection and tracking using a mean-shift based blob analysis and tracking approach | |
JP6226368B2 (ja) | 車両監視装置、および車両監視方法 | |
Ghahremannezhad et al. | Real-time accident detection in traffic surveillance using deep learning | |
CN110889328A (zh) | 检测道路交通状况的方法、装置、电子设备和存储介质 | |
CN113034378B (zh) | 一种区分电动汽车与燃油汽车的方法 | |
CN114463390A (zh) | 耦合车队跟驰强化的多孪生对抗网络跨相机车辆追踪方法 | |
CN115512107A (zh) | 基于机器视觉的道路抛洒物检测追踪方法和系统 | |
KR101690050B1 (ko) | 지능형 영상보안 시스템 및 객체 추적 방법 | |
JP7125843B2 (ja) | 障害検知システム | |
CN117115752A (zh) | 一种高速公路视频监控方法及系统 | |
JP4697761B2 (ja) | 待ち行列検出方法及び待ち行列検出装置 | |
Lee et al. | Measurement of traffic parameters in image sequence using spatio-temporal information | |
CN117237676B (zh) | 一种核电厂基于事件相机对小目标掉落轨迹的处理方法 | |
CN112686209B (zh) | 基于车轮识别的车后盲区监测方法 | |
KR101155273B1 (ko) | 적응적 배경 기반의 터널 감시장치 및 방법 | |
CN116612642B (zh) | 一种车辆连续变道检测方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060801 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070215 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 3920535 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100223 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110223 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110223 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120223 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120223 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130223 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130223 Year of fee payment: 6 |
|
EXPY | Cancellation because of completion of term |