JP3727400B2 - Crossing detection device - Google Patents

Crossing detection device Download PDF

Info

Publication number
JP3727400B2
JP3727400B2 JP03503996A JP3503996A JP3727400B2 JP 3727400 B2 JP3727400 B2 JP 3727400B2 JP 03503996 A JP03503996 A JP 03503996A JP 3503996 A JP3503996 A JP 3503996A JP 3727400 B2 JP3727400 B2 JP 3727400B2
Authority
JP
Japan
Prior art keywords
detection
window
crossing
data
crossing person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03503996A
Other languages
Japanese (ja)
Other versions
JPH09226490A (en
Inventor
勝之 今西
正典 加藤
希 北川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Nippon Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Nippon Soken Inc filed Critical Denso Corp
Priority to JP03503996A priority Critical patent/JP3727400B2/en
Publication of JPH09226490A publication Critical patent/JPH09226490A/en
Application granted granted Critical
Publication of JP3727400B2 publication Critical patent/JP3727400B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、横断者の検出装置に係り、詳しくはCCDカメラ等により撮像された画像データ、或いはスキャニングレーダ装置により得られた距離分布データ等を用いて自車両の走行路上に存在する横断者を検出するための横断者の検出装置に関するものである。
【0002】
【従来の技術】
従来の方法として、画像処理の立体視を用いたり、レーザレーダをスキャニングしたりすることで前方空間に存在する物体の距離分布を算出し、この距離分布の密度から横断者を含む障害物を検出していた。
【0003】
【発明が解決しようとする課題】
ところが、上記の如く距離分布の密度から障害物を検出する方法では、道路脇に横断者が存在する場合において、当該横断者が道路の自動車走行路上(例えば白線レーンマーク内)に出てくる以前にそれを検出することが困難であるという問題があった。即ち、横断者が道路脇にいる時には、横断者とその背後の建物との距離分布が一体化してしまうことがある。かかる場合、この段階で横断者を検出することができず、横断者が自動車走行路上に来た後にしか単独の物体として検出できない。その結果、横断者の検出が遅れてしまうおそれがあった。
【0004】
また、道路上の移動物体を検出する方法として、オプティカルフローを用いた手法が従来より提案されている。これは、画像内の移動物体を一塊の動いている領域として捕らえ、当該領域から例えば交差路における自動車の飛び出しを検出するものである。ところが、既存の技術では自動車等の比較的大きな移動物体の検出が可能となるものの、人や自転車等の比較的小さな物体の検出に際しては、画像全体における存在データ数が少ないためにその検出が不可能であるといった問題を生ずる。
【0005】
この発明は、上記問題に着目してなされたものであって、その目的とするところは、比較的小さな横断者をも精度良く且つ効率的に検出することができる横断者の検出装置を提供することにある。
【0006】
【課題を解決するための手段】
上記目的を達成するために、請求項1に記載の発明では、距離分布計測手段は、前方空間の物体の距離分布データを取得する。より具体的には、CCDカメラによるステレオ画像を利用して距離分布データを取得したり、或いはスキャニングレーダ装置による光反射を利用して距離分布データを取得する。移動量算出手段は、撮像装置によって前方空間の時間の異なる複数の画像データを取得して、物体の移動量を算出する。
垂直エッジ数算出手段は、前記検出ウィンドウ毎に検出ウィンドウ内の垂直エッジ数を算出する。横断者候補ウィンドウ検出手段は、前記垂直エッジ数算出手段による垂直エッジ数が所定のしきい値以上のとき、その検出ウィンドウを横断者の候補ウィンドウとして検出する。さらに、横断者検出手段は、前記検出された候補ウィンドウ内に上記前方空間の物体の距離分布データが存在する場合であって、その候補ウィンドウ内の前記物体における前記移動量算出手段によって得られた移動量の方向が自車両の走行路中心に向かっているとき、その候補ウィンドウに横断者が存在するとして当該横断者を検出する。
つまり、横断者の画像では垂直エッジ数の密度が高いことに着目し、当該垂直エッジ数に基づいて横断者の存在するウィンドウを検出することにより、その検出処理を効率的に実施することができる。このとき、検出されたウィンドウを「候補ウィンドウ」とし、その後、距離分布データと移動量データとを用いて「候補ウィンドウ」の中から実際の横断者の判別を行うことで、より一層確実な横断者検出が可能となる。
【0007】
つまり、図15に示すように、例えば自車両前方の30〜60mの撮像画像の領域が横断者の存在領域(解析領域)として設定され、当該解析領域において物体(横断者)の移動量が算出される。
また、図16に示すように、例えば横断者に見合う大きさで検出ウィンドウが設定されるこの検出ウィンドウは、請求項3に記載の発明のように、図18に(A),(B),(C)で示すように、隣合うウィンドウに所定量(例えば、横幅半分)だけ重ねて配置されるのが好ましいそして、距離分布データが存在する検出ウィンドウについてその中の物体の移動方向(移動量の方向)が自車両の走行路中心に向かっていれば横断者の存在が検出されることとなる。この場合、請求項2に記載の発明のように、例えば図17に示すように、自車両の走行路を示すレーンマーク等の画像情報から走行路中心が検出される
【0008】
上記構成によれば、道路脇に存在する横断者の検出が可能となり、その横断者が自車両の走行路を横断しようとしていること、或いは走行路上に飛び出してくること等が予測可能となる。また、検出ウィンドウという単位にて横断者を検出することにより、比較的小さな横断者に対してもその検出洩れが回避でき、検出精度を向上させることができる。その結果、自車両前方について高精度な認識処理を実施することができる。
【0011】
また、請求項に記載の発明では、横断者検出手段は、1サイクルでの横断者の検出結果を仮検出結果として、その仮検出された横断者の時間的な対応付け処理を行い、所定サイクル以上の対応付けがなされたとき、横断者の存在を決定する。この場合、横断者検出の信頼性をより一層高めることができる。
【0012】
請求項に記載の発明では、横断者検出手段は、前記移動量算出手段による移動量データから自車両のヨーイング成分を排除し、該自車両のヨーイング成分が排除された結果から横断者を特定する。この場合、横断者の正確な動きが分かり、精度高い検出結果が得られる。
【0013】
【発明の実施の形態】
以下、この発明を具体化した一実施形態を図面に従って説明する。
図1は本実施の形態における横断者検出システムの概要を示すブロック構成図である。図1において、撮像装置1は、左右一対のカメラにより立体視画像のデータを取り込む装置であって、左右のカメラはその光軸が互いに平行で、その基線長が路面に平行になるように構成されている。このとき、当該撮像装置1では図2に示すようなステレオ画像が得られる。
【0014】
撮像装置1の光学系の基本的構成を図3に示す。即ち、撮像装置1には、2つの視点を形成するために物体(横断者)に対向して2つのレンズ11,12が設けられ、この2つのレンズ11,12の後ろにそれらの光軸がそれぞれ一致する撮像素子としてのCCD(Charge Coupled Device )13,14が設けられている。
【0015】
ここで、図中の「d」はレンズ11,12と物体との距離〔m〕、「f」はレンズ11,12の焦点距離〔mm〕、「a」,「b」はそれぞれ物体からレンズ11,12を経てCCD13,14へ焦点を結ぶ点と光軸との距離〔mm〕、「m」はカメラ基線長〔cm〕である。かかる場合、距離d〔m〕は、
d=f・m/(a+b)
で求めることができる。即ち、基線長m,焦点距離fが既知であるため、(a+b)が求まれば物体までの距離dが算出できることになる。なお、(a+b)は、左右の画像中の物体の輝度値を少しずつずらしながら比較した際に、最も一致するずらし量として求められる。
【0016】
また、上式における(a+b)を、ドット数で表される視差s及びCCD13,14のセルの大きさc〔mm/ドット〕に置き換えると、次の(1)式が得られる。
【0017】
【数1】

Figure 0003727400
一方、図1において、前記撮像装置1により得られた画像情報は、右カメラ画像保存メモリM1及び左カメラ画像保存メモリM2に保存される。両メモリM1,M2の保存データは、距離算出回路2に入力される。距離算出回路2では、縦8ドット、横8ドットを単位領域として画像がメッシュ状に分割され、右画像データを基準データ、左画像データを参照データとした相関計算により視差s〔ドット〕が算出される。そして、該算出された視差sを前記(1)式に代入すれば画像内の距離分布が求められる。この距離分布データは距離データ保存メモリM3に保存される。
【0018】
また、解析データ算出回路3は、前記右カメラ画像保存メモリM1に保存されている右カメラの画像データを取り込み、単位領域の縦方向の8ドット分のデータの総和(これを解析データという)を算出する。そして、解析データ算出回路3にて算出された最新の解析データは、「本サイクル解析データ」として本サイクル解析データ保存メモリM4に保存される。このとき、解析データは、8ドット分のデータの総和で保存されるため、データ容量は1/8に削減される。解析データ算出回路3は、上記解析データの算出処理を66msサイクルで実施する。また、本サイクル解析データ保存メモリM4に保存された解析データは、66ms毎に「前サイクル解析データ」として前サイクル解析データ保存メモリM5に転送される。従って、メモリM4,M5には、66ms間隔の前後サイクルの解析データが保存されることとなる。
【0019】
ここで、前記解析データ算出回路3による解析領域は、画面上において例えば図4のように設定されている。即ち、本実施の形態では、自車両の前方30m〜60mの範囲に存在する横断者を検出することを目的としており、より具体的には、50m前方で地上に立っている横断者を基準として当該解析領域が設定されている。図4の画面上では、水平方向に延びる60ドット幅の垂直領域が解析領域として設定されている。
【0020】
また、移動量算出回路4は、前記本サイクル解析データ保存メモリM4及び前サイクル解析データ保存メモリM5に保存されている解析データを取り込み、両解析データ間の単位領域毎の画像のずれから横断者の移動量を算出する。ここでは、計算量削減のため、横方向(水平走差線方向)のみの探索を行う。つまり、横断者が移動する最大範囲を机上検討して相関計算の探索範囲を設定し、この探索範囲内で、前サイクル解析データを1ドットずつずらしながら差の絶対値の総和(相関値S(z))を算出する。具体的には、次の(2)式を用いて単位領域についての相関値S(z)を算出する。
【0021】
【数2】
Figure 0003727400
但し、「D0 」は本サイクル解析データ、「D1 」は前サイクル解析データ、「x0 」は画像の左上座標(相関計算の探索開始点)、「w」は画像内における検索範囲の横幅〔ドット〕、「z」はずらし量〔ドット〕である。なお、図5は、前サイクル時と本サイクル時との間に、横断者が水平右方向に所定量だけ移動した状態を示している。
【0022】
上記の如く求めた相関値S(z)の最小値について、その時のずらし量が横断者の移動量に相当する。このとき、画像上で、横断者の移動量が「0」のとき、つまり、ずらし量が「0」のとき、横断者と衝突するケースに相当する。これは、自車両の進行方向と横断者の角度が変化しないとき、横断者との距離が0mになったとき衝突するためである。図6は、横断者が水平右方向に移動した場合の相関値S(z)とずらし量との関係を示しており、かかる場合にはずらし量=kが移動量に相当する。この際、精度向上のために、相関値の最小値とそれに隣合う2つの相関値を用いて補間計算を行い、10分の1ドット精度で移動量を算出するようにしてもよい。
【0023】
このようにして移動量算出回路4では、66ms毎で取り込まれた時間的に連続な2枚の画像の相関計算から横断者の移動量が算出される。そして、この移動量は移動量データ保存メモリM6に保存される。
【0024】
垂直エッジ数算出回路5は、前記右カメラ画像保存メモリM1に保存されている右カメラの画像データを取り込み、所定の大きさで区画された検出ウィンドウ毎に同ウィンドウ内の垂直エッジ数をカウントする。ここで、検出ウインドウは、前記図4の解析領域内における横断者の大きさに見合うように設定される。本実施の形態では、50m前方の横断者の大きさを基準として、図7に示すように縦60ドット×横16ドットの領域にて検出ウィンドウを設定している。
【0025】
また、検出ウィンドウは、図18に示すように、検出ウィンドウの横幅の半分の8ドットが隣の検出ウィンドウと重なるように配列される。この場合、画像の水平方向の画素数が512ドットであることから、127個の検出ウィンドウが設定される。
【0026】
垂直エッジ数の算出方法を以下に記載する。即ち、解析領域の左上から本サイクルの画像データを読み込み、走査線方向に輝度変化量の大きさが所定のしきい値以上である点xについて、そのx位置に対応する垂直エッジ数データ保存メモリM7の位置に「1」を加算していく。これを解析領域すべてについて行う。次に検出ウィンドウの横幅について、垂直エッジ数データ保存メモリM7から対応するx位置のデータの総和を求めると、検出ウィンドウの垂直エッジ数が得られる。
【0027】
さらに、走行路検出回路6は、前記右カメラ画像保存メモリM1に保存されている右カメラの画像データを取り込み、自車両の走行路を検出する。より具体的には、画像内の輝度情報から道路上の左右の白線レーンマークを検出し、このレーンマーク内を走行路として検出する。
【0028】
マイクロコンピュータ7は、周知のCPU,メモリ,入出力回路等にて構成されており、前記距離データ保存メモリM3、移動量データ保存メモリM6、垂直エッジ数データ保存メモリM7、及び走行路データ保存データM8内の保存データを読み込んで後述する横断者検出処理を実行する。そして、マイクロコンピュータ7は、道路上における横断者の検出結果に応じて警報ブザー8を作動させる。また、マイクロコンピュータ7にはヨーレイトセンサ9が接続されており、マイクロコンピュータ7は同センサ9の出力結果から自車両のヨーイング成分を検出する。
【0029】
なお、本実施の形態では、マイクロコンピュータ7により横断者候補ウィンドウ検出手段及び横断者検出手段が構成され、ヨーレイトセンサ9によりヨーイング検出手段が構成されている。
【0030】
次いで、本実施の形態における一連の横断者検出手順をマイクロコンピュータ7による演算処理を中心に説明する。なお、図8は横断者検出ルーチンを示すフローチャートであり、同ルーチンはマイクロコンピュータ7により66ms毎に実行される。
【0031】
さて、同ルーチンがスタートすると、ステップ101では、検出ウィンドウ毎に前記垂直エッジ数データ保存メモリM7から垂直エッジ数を読み出し、その数が設定しきい値以上のウィンドウを横断者の候補ウィンドウとして検出する(図9)。
【0032】
続いてステップ102では、距離データ保存メモリM3から距離データを読み込み、横断者候補ウィンドウに対応する距離データが存在する場合、その領域に対応する移動量データを移動量データ保存メモリM6から呼び込んで平均化する。また、その平均化データにより前記候補ウィンドウの物体(横断者)の移動量を算出する。このとき、同時に物体までの距離も保持しておく。
【0033】
さらに、ステップ103では、前記算出された移動値から事前に計測しておいた自車両のヨーイング量を差し引き、この値を画像上での絶対的な物体移動量とする。即ち、ヨーレイトセンサ9の検出値は角度変化(deg/sec)であるため、これを画像上でのふらつき量に変換する。画角20度で画像の水平方向の分解能が512ドットのとき、分解能を画角で割った値25.6(ドット/deg)にヨーレイト値を掛けたものが画像上でのヨーイング量となる。これを、先に算出した物体の移動量から引くことで自車両のヨーイング成分が物体移動量から排除される。
【0034】
一方、上記の如く算出された物体の水平方向の移動量は、画像上におけるドット数単位の移動量であるため、続くステップ104,105では、前記移動量を実空間での物体の水平方向の移動速度v〔km/h〕に変換する。つまり、ステップ104では、次の(3)式を用い、その時の画像上における水平方向の移動量g〔ドット〕から実空間での移動距離L〔m〕を算出する。
【0035】
【数3】
Figure 0003727400
但し、上記(3)式において、「c」はCCDのセルの大きさ(mm/ドット)、「f」はレンズの焦点距離〔mm〕、「d1」は物体の移動前の物体と自車両との距離〔m〕、「d2」は物体の移動後の物体と自車両との距離〔m〕である。
【0036】
さらに、ステップ105では、次の(4)式を用い、66msサイクル内における実空間での移動距離L〔m〕を移動速度v〔km/h〕に変換する。この移動速度v〔km/h〕は、物体の移動量としてマイクロコンピュータ7内のメモリに保持される。
【0037】
【数4】
Figure 0003727400
次に、ステップ106では、物体の移動量(移動速度)と走行路中心との関係より横断者を仮検出する。即ち、前記走行路データ保存メモリM8の保存データを呼び込み、物体の距離に対応する走行路の中心位置を算出する。そして、走行路の中心位置と物体の移動方向に基づき、走行路中心に向かう物体を横断者として仮検出する。このとき、図10に示すように、横断者は画像内において走行路中心に向かう物体として特定され、電柱や立木は画像内において走行路中心から外側に向かう物体として特定される。この仮検出結果はマイクロコンピュータ内のメモリに保存される。
【0038】
その後、ステップ107では、前記仮検出結果に対して時間的な対応付け処理(以後、追跡処理という)を行うことにより、横断者が実際に存在するかどうかを判定する。以下に、追跡処理の具体的内容を説明する。
【0039】
つまり、4サイクル分の仮検出結果を得た段階でそれを平均化し、追跡処理のための追跡データを作成する。この場合、存在するデータの処理サイクルの重み(事前に設定)の合計が所定のしきい値以上であれば、それらのデータの重みを加えて平均値を算出し、その算出値を追跡データとする。その詳細を図11に示す。各サイクルの重み付けに際し、本サイクルでは「4」、1サイクル前では「3」、2サイクル前では「2」、3サイクル前では「1」として、重みの合計が「6」以上であれば追跡データを算出する。その結果、追跡データが存在すれば、該当する検出ウィンドウに横断者が存在する旨が検出されることとなる。かかる追跡処理では、検出ミスでデータが飛び飛びでしか存在しない場合にも当該検出ミスによるデータの不在を考慮する必要はなく、その連続性に基づいて横断者が検出される。
【0040】
次に、追跡データマップ上の具体的な追跡処理について、それを追跡処理A〜Dの事例に分けて説明する。なお、追跡処理A〜Dの内容を図12(a)〜(d)に図示し、上記追跡処理A〜Dを反映した一連の追跡例を図13に示す。マップ上の数字は追跡データ(移動量)であり、実空間での横断者の移動速度〔km/h〕を表している。マイナスの移動速度は、走行路中心から外側に移動する速度値を表す。
【0041】
追跡処理A:前サイクルの追跡データ及び本サイクルの追跡データが同じ検出ウィンドウ又は隣の検出ウィンドウにある場合、それらの移動速度を比較してその差が許容範囲内(ここでは、2km/h)であれば、データの追跡が可能であるとみなす。即ち、図12(a)では、追跡データのウィンドウが隣のウィンドウに移動しているが、これは移動可能なウィンドウとして処理される。
【0042】
追跡処理B:移動可能なウィンドウ1個に対して、2個又は3個の追跡データが対応することがある。この場合、図12(b)に示すように、追跡回数の多いウィンドウを選択して処理する。但し、追跡回数が同じである場合、走行路中心より左側画像の領域では右側のデータを、右側画像の領域では左側のデータを優先する(図13のB’参照)。
【0043】
追跡処理C:図12(c)に示すように、1つの追跡データに対して2個又は3個の移動可能ウィンドウが対応する場合には、その対応する数だけ同じ追跡データを誕生させる。但し、各々の追跡データには識別ラベルを付けておく。
【0044】
追跡処理D:図12(d)に示すように、移動可能ウィンドウがないとき、そこで追跡処理を中断する。
上記追跡データはマイクロコンピュータ7内のメモリに保存されるが、それと同時に、対応する距離データ〔m〕、画像中心からの水平位置zx〔m〕も保存される。保存量は10サイクル分までとする。
【0045】
前記水平位置zx〔m〕は、画像中心からの物体の水平位置DX〔ドット〕と、距離データとから以下のようにして算出する。つまり、前記(2)式より、距離から物体の視差s〔ドット〕が算出され、これはこの距離データにおいて、この視差sの大きさ〔ドット〕がカメラ基長線m〔cm〕に相当することを意味する。従って、次の(5)式から水平位置zx〔m〕が算出される。
【0046】
【数5】
Figure 0003727400
追跡データの追跡回数が10サイクルを越えたら、過去9サイクル分と本サイクルとの合計10サイクル分の保存データから、横断者の平均移動速度AMV〔km/h〕及び平均水平位置AX〔m〕を算出する。なお、平均水平位置AX〔m〕は、画像中心から横断者までの水平距離(前記水平位置zx)と、画像中心から走行路の白線レーンマークまでの水平距離との和から求められる。この関係を示したのが図14である。自車両が横断者と同じ距離の走行路までの道のりDL〔m〕及び走行路幅W〔m〕は、距離データや走行路検出データに基づいて算出される。
【0047】
以上のデータを用い、図8のステップ108では、上記の如く検出された横断者に対して、今現在の自車両の走行状態が危険であるか否かを判定する。本実施の形態では、その一例として、横断者が走行路に達するまでの時間tm1〔s〕と、走行路を通過し終える時間tm2〔s〕と、自車両が横断者と同距離の点に達する時間tc〔s〕とに基づいて危険判定を実施する。つまり、tm1≦tc≦tm2であれば、自車両と横断者との衝突の危険性があるとして、マイクロコンピュータ7はステップ109で警報ブザー8を作動させ、横断者の検出の旨をドライバに警告する。また、tc<tm1又はtc>tm2であれば、自車両と横断者との衝突の危険性がない、即ち安全であるとしてマイクロコンピュータ7はそのまま本ルーチンを終了する。
【0048】
ここで、横断者が走行路に達するまでの時間tm1〔s〕は、上記平均水平位置AX〔m〕、平均移動速度AMV〔km/h〕に基づいて次の(6)から算出されるようになっている。
【0049】
tm1=AX・3.6/AMV ・・・(6)
走行路を通過し終える時間tm2〔s〕は、時間tm1〔s〕に走行路幅W〔m〕を通過する時間を加算した(7)式から算出される。
【0050】
tm2=W・3.6/AMV+tm1 ・・・(7)
また、自車両が横断者と同距離の点に達する時間tc〔s〕は、道のりDL〔m〕及び自車両の速度ACV〔km/h〕に基づいて次の(8)式から算出される。
【0051】
tc=DL・3.6/ACV ・・・(8)
以上詳述した本実施の形態によれば、以下に示す効果が得られる。
(a)要するに、本実施の形態では、撮像画像の垂直方向の領域(解析領域)について横断者に見合う大きさの検出ウィンドウを水平方向に隙間なく配置し、前方空間の距離データが存在する検出ウィンドウについてその中の物体の移動方向(移動量データの方向)が走行路中心に向かっていれば走行路上にいる横断者の存在を検出するようにした。上記構成によれば、道路脇に存在する横断者の検出が可能となり、その横断者が自車両の走行路を横断しようとしていること、或いは走行路上に飛び出してくること等が予測可能となる。また、検出ウィンドウという単位にて横断者を検出することにより、横断者のような比較的小さな物体に対してもその検出洩れが回避でき、検出精度を向上させることができる。その結果、自車両に対して安全性の高い撮像処理が実現できる。
【0052】
(b)白線レーンマークの検出情報から自車両の走行路データ(走行路中心の検出結果を含む)を抽出し、その走行路データから横断者の有無(危険度の判定)を行うようにした。かかる構成によれば、より安全性の高い撮像処理が実現できる。
【0053】
(c)検出ウィンドウを、隣合うウィンドウに所定量(例えば、横幅半分)だけ重ねて配置した。それにより、検出ウィンドウを並べて配置する場合に比べて、横断者に対応する検出ウィンドウが適切に得られ、横断者の動きが精度良く算出できる。
【0054】
(d)検出ウィンドウ毎に垂直エッジ数を算出し、垂直エッジ数が所定のしきい値以上のとき、その検出ウィンドウを候補ウィンドウとして検出するようにした。そして、それら候補ウィンドウについて、移動量データから道路上の横断者を検出するようにした。つまり、横断者の画像では垂直エッジ数の密度が高いことに着目し、当該垂直エッジ数に基づいて横断者の存在するウィンドウを検出することにより、その検出処理を効率的に実施できる。このとき、検出されたウィンドウを「候補ウィンドウ」とし、その後、距離分布データと移動量データとを用いて「候補ウィンドウ」の中から実際の横断者の判別を行うようにしたため、より一層確実な横断者検出が可能となる。
【0055】
(e)1サイクルでの横断者の検出結果を仮検出結果として、その仮検出された横断者の時間的な対応付け処理(追跡処理)を行い、所定サイクル以上の対応付けがなされたとき、横断者の存在を決定するようにした。従って、横断者検出の信頼性をより一層高めることができる。特に、本実施の形態では、4サイクル分の加重平均値を追跡データとして算出し、その追跡データを用いて横断者の検出処理を実施した。そのため、様々な外乱、歩行速度の不均一性等に起因した検出ミスが抑制できる。また、横断者の最初の発見から追跡処理を行い、その連続性を観測することにより、突発的な検出ミスが発生しても横断者の存在を的確に推定して、突発的な検出ミスによる悪影響を減らすことができる。
【0056】
(e)移動量データから自車両のヨーイング成分を排除し、該自車両のヨーイング成分が排除された結果から画像内の横断者を特定するようにした。この場合、横断者の正確な動きが分かり、精度高い検出結果が得られる。
【0057】
なお、本発明は上記実施の形態の他に次の形態にて具体化できる。
(1)上記実施の形態では、走行路上の横断者を検出するために、横断者の大きさに適応した検出ウインドウを設定した(縦60ドット×横16ドット)。しかし、これを任意に変更してもよい。例えば走行路上を横断する自転車の大きさに適用した検出ウィンドウを設定してもよい。
【0058】
(2)上記実施の形態では、隣合う検出ウィンドウを横幅半分だけ重ねて配置したが、これを変更してもよい。例えば、隣合う検出ウィンドウの横幅の1/3を重ねて配置したり、横幅の2/3を重ねて配置したりしてもよい。重なり合う部分が少なければ演算負荷が低減でき、重なり合う部分が多ければ検出精度が向上する。
【0059】
(3)検出ウィンドウの仮検出結果から実際に横断者が存在するウィンドウを特定する処理を変更してもよい。例えば、9サイクル分の仮検出結果が得られた時点で6回以上検出されたウィンドウがある場合、当該ウィンドウに横断者が存在する旨を特定する。
【0060】
(4)上記実施の形態では、距離算出回路2、解析データ算出回路3、移動量算出回路4、垂直エッジ数算出回路5及び走行路検出回路6をハードで構成したが、これらの全てを又はその一部をマイクロコンピュータ7によるソフト処理にて構成してもよい。
【0061】
(5)上記実施の形態では、前方の距離分布データを取得するためにステレオ画像の解析(立体視)を用いた。しかし、距離分布データの取得方法はこれのみに限定されるものではなく、例えばスキャニングレーダ装置を用いてもよい。これは、光が物体に反射して戻ってくるまでの往復時間より距離を算出する手段として知られており、この光を前方の所定角度内でスキャニング(走査)することで、距離分布データを取得することができる。
【0062】
より具体的には、光の走査角の範囲を撮像装置の画角とし、光を放射する走査角を次に述べるように設定し用いることで、本発明の実施に利用できる。ここでは、撮像装置の画角を20度、水平方向画素数512ドットのとき、画像処理の立体視で画像を水平方向8ドット、垂直方向8ドットのメッシュ状に分割して距離分布を算出する場合について述べる。この場合、水平方向8ドットの領域は、0.313度に相当するため、画角の範囲内において、この角度(0.313度)単位で走査角を逐次変化させていく。そして、得られた距離データをメモリに転送し、必要時にCPUから呼び出す。このようにして、検出ウィンドウに対応した距離分布データが取得できる。
【図面の簡単な説明】
【図1】発明の実施の形態における横断者検出システムの概要を示すブロック構成図。
【図2】左右カメラによるステレオ画像を示す図。
【図3】撮像装置の基本的な構成を示す概略図。
【図4】画像内に解析領域を設定した図。
【図5】横断者が水平右方向に所定量だけ移動した状態を示す図。
【図6】相関値と移動量との関係を示すグラフ。
【図7】検出ウィンドウの大きさを示す図。
【図8】横断者検出ルーチンを示すフローチャート。
【図9】画像内における横断者の候補ウィンドウを示す図。
【図10】横断者の仮検出結果を示す図。
【図11】追跡処理を説明するための図。
【図12】追跡処理の事例を個々に説明するための図。
【図13】一連の追跡処理を説明するための図。
【図14】自車両と横断者の位置関係を示す図。
【図15】画像内における解析領域を説明するための図。
【図16】検出ウィンドウを説明するための図。
【図17】検出ウィンドウにて横断者が検出された状態を示す図。
【図18】検出ウィンドウの配列状態を示す図。
【符号の説明】
1…撮像装置、2…距離分布計測手段としての距離算出回路、4…移動量算出手段としての移動量算出回路、5…垂直エッジ数算出手段としての垂直エッジ数算出回路、6…走行路データ検出手段としての走行路検出回路、7…横断者候補ウィンドウ検出手段及び横断者検出手段としてのマイクロコンピュータ、9…ヨーイング検出手段としてのヨーレイトセンサ。[0001]
BACKGROUND OF THE INVENTION
  This inventionTraverserSpecifically, the image data captured by a CCD camera or the distance obtained by a scanning radar devicedistributionExists on the road of the vehicle using data etc.TraverserFor detectingTraverserThe present invention relates to a detection device.
[0002]
[Prior art]
As a conventional method, the distance distribution of an object existing in the front space is calculated by using stereoscopic vision of image processing or scanning with a laser radar, and obstacles including crossers are detected from the density of this distance distribution. Was.
[0003]
[Problems to be solved by the invention]
However, in the method of detecting an obstacle from the density of the distance distribution as described above, when there is a crossing person on the side of the road, before the crossing person appears on the road on the road (for example, in the white line lane mark). There was a problem that it was difficult to detect it. That is, when the crossing person is on the side of the road, the distance distribution between the crossing person and the building behind the crossing person may be integrated. In such a case, a crossing person cannot be detected at this stage, and can only be detected as a single object after the crossing person has come on the road. As a result, there is a risk that detection of a crossing person will be delayed.
[0004]
Further, as a method for detecting a moving object on a road, a method using an optical flow has been conventionally proposed. In this method, a moving object in an image is captured as a lump moving area, and, for example, a car jumping out on an intersection is detected from the area. However, although the existing technology can detect relatively large moving objects such as automobiles, detection of relatively small objects such as people and bicycles is not possible because the number of existing data in the entire image is small. The problem arises that it is possible.
[0005]
  The present invention has been made paying attention to the above-mentioned problems, and its object is relatively smallTraverserCan be detected accurately and efficiently.TraverserIt is in providing the detection apparatus.
[0006]
[Means for Solving the Problems]
  In order to achieve the above object, according to the first aspect of the present invention, the distance distribution measuring means acquires distance distribution data of an object in front space. More specifically, distance distribution data is acquired using a stereo image obtained by a CCD camera, or distance distribution data is acquired using light reflection by a scanning radar device. The movement amount calculating means acquires a plurality of pieces of image data having different times in the front space by the imaging device, and calculates the movement amount of the object.
The vertical edge number calculating means calculates the number of vertical edges in the detection window for each detection window. The crossing candidate window detecting means detects the detection window as a crossing candidate window when the number of vertical edges by the vertical edge number calculating means is not less than a predetermined threshold. Further, the crossing person detection means is obtained when the distance distribution data of the object in the front space exists in the detected candidate window, and is obtained by the movement amount calculation means in the object in the candidate window. When the direction of the moving amount is toward the center of the traveling path of the host vehicle, the crossing person is detected as a crossing person exists in the candidate window.
In other words, paying attention to the fact that the number of vertical edges is high in the image of a crossing person and detecting the window where the crossing person exists based on the number of vertical edges, the detection process can be carried out efficiently. . At this time, the detected window is set as a “candidate window”, and then the actual crossing person is identified from the “candidate window” using the distance distribution data and the movement amount data, thereby further ensuring the crossing. Person detection is possible.
[0007]
  That is, as shown in FIG. 15, for example, an area of a captured image of 30 to 60 m ahead of the host vehicle isTraverserAnd the amount of movement of the object (crossing person) is calculated in the analysis region.
Further, as shown in FIG. 16, for example, the detection window is set in a size suitable for a crossing person..This detection window isAs in the third aspect of the invention,As shown by (A), (B), and (C) in FIG. 18, it is preferable that a predetermined amount (for example, half the width) is overlapped on adjacent windows..And distancedistributionIf the movement direction of the object in the detection window where the data exists (the direction of the movement amount) is toward the center of the traveling path of the host vehicleTraverserWill be detected. in this case,As in the invention according to claim 2,For example, as shown in FIG. 17, the center of the road is detected from image information such as a lane mark indicating the road of the host vehicle..
[0008]
  According to the above configuration, it is possible to detect a crossing person existing on the side of the road, and it is possible to predict that the crossing person is about to cross the traveling road of the own vehicle or to jump out on the traveling road. In addition, by detecting crossers in the unit of detection window, it is relatively smallTraverserThe detection omission can be avoided and the detection accuracy can be improved. As a result, a highly accurate recognition process can be performed in front of the host vehicle.
[0011]
  Claims4In the invention described inTraverserThe detection means is one cycleTraverserAs a temporary detection result, the temporary detection resultTraverserWhen the association process over time is performed and association over a predetermined cycle is made,TraverserDetermine the existence of. In this case, the reliability of crossing person detection can be further enhanced.
[0012]
  Claim5In the invention described inTraverserThe detection means excludes the yawing component of the own vehicle from the movement amount data by the movement amount calculation means, and the result of eliminating the yawing component of the own vehicleTraverserIs identified. In this case, the accurate movement of the crossing person can be known, and a highly accurate detection result can be obtained.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment embodying the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing an outline of the crossing person detection system in the present embodiment. In FIG. 1, an imaging device 1 is a device that captures stereoscopic image data with a pair of left and right cameras, and the left and right cameras are configured such that their optical axes are parallel to each other and their base line length is parallel to the road surface. Has been. At this time, the imaging apparatus 1 obtains a stereo image as shown in FIG.
[0014]
A basic configuration of the optical system of the imaging apparatus 1 is shown in FIG. That is, the imaging apparatus 1 is provided with two lenses 11 and 12 facing an object (crossing person) to form two viewpoints, and the optical axes of the two lenses 11 and 12 are behind the two lenses 11 and 12, respectively. CCDs (Charge Coupled Devices) 13 and 14 are provided as image sensors that match each other.
[0015]
Here, “d” in the figure is the distance [m] between the lenses 11 and 12 and the object, “f” is the focal length [mm] of the lenses 11 and 12, and “a” and “b” are the object to lens. 11 and 12, the distance [mm] between the point focused on the CCDs 13 and 14 and the optical axis, “m” is the camera base length [cm]. In such a case, the distance d [m] is
d = f · m / (a + b)
Can be obtained. That is, since the baseline length m and the focal length f are known, the distance d to the object can be calculated if (a + b) is obtained. Note that (a + b) is obtained as the most consistent shift amount when the luminance values of the objects in the left and right images are compared while being shifted little by little.
[0016]
When (a + b) in the above equation is replaced with the parallax s expressed by the number of dots and the cell size c [mm / dot] of the CCDs 13 and 14, the following equation (1) is obtained.
[0017]
[Expression 1]
Figure 0003727400
On the other hand, in FIG. 1, the image information obtained by the imaging device 1 is stored in the right camera image storage memory M1 and the left camera image storage memory M2. Data stored in both memories M1 and M2 is input to the distance calculation circuit 2. In the distance calculation circuit 2, the image is divided into meshes with 8 dots in the vertical direction and 8 dots in the horizontal direction as the unit area, and the parallax s (dot) is calculated by correlation calculation using the right image data as the standard data and the left image data as the reference data. Is done. Then, by substituting the calculated parallax s into the equation (1), the distance distribution in the image can be obtained. This distance distribution data is stored in the distance data storage memory M3.
[0018]
The analysis data calculation circuit 3 takes in the image data of the right camera stored in the right camera image storage memory M1, and sums the data of 8 dots in the vertical direction of the unit area (this is called analysis data). calculate. The latest analysis data calculated by the analysis data calculation circuit 3 is stored in the cycle analysis data storage memory M4 as “main cycle analysis data”. At this time, since the analysis data is stored as the sum of data for 8 dots, the data capacity is reduced to 1/8. The analysis data calculation circuit 3 performs the analysis data calculation process in a cycle of 66 ms. The analysis data stored in the cycle analysis data storage memory M4 is transferred to the previous cycle analysis data storage memory M5 as “previous cycle analysis data” every 66 ms. Accordingly, the analysis data of the previous and subsequent cycles at intervals of 66 ms are stored in the memories M4 and M5.
[0019]
Here, the analysis area by the analysis data calculation circuit 3 is set on the screen as shown in FIG. 4, for example. In other words, the present embodiment aims to detect crossers existing in the range of 30m to 60m ahead of the host vehicle, and more specifically, based on a crosser standing on the ground 50m ahead. The analysis area is set. On the screen of FIG. 4, a vertical region having a width of 60 dots extending in the horizontal direction is set as an analysis region.
[0020]
Further, the movement amount calculation circuit 4 takes in the analysis data stored in the cycle analysis data storage memory M4 and the previous cycle analysis data storage memory M5, and detects the crossing from the image shift for each unit area between the analysis data. Is calculated. Here, in order to reduce the amount of calculation, a search is performed only in the lateral direction (horizontal running difference direction). In other words, a search range for correlation calculation is set by desk studying the maximum range in which the traverser moves, and within this search range, the absolute value of the difference (correlation value S ( z)) is calculated. Specifically, the correlation value S (z) for the unit region is calculated using the following equation (2).
[0021]
[Expression 2]
Figure 0003727400
However, “D0” is the present cycle analysis data, “D1” is the previous cycle analysis data, “x0” is the upper left coordinates of the image (correlation calculation search start point), and “w” is the width of the search range in the image [dots ], "Z" is the shift amount [dot]. FIG. 5 shows a state where the crossing person has moved by a predetermined amount in the horizontal right direction between the previous cycle and the main cycle.
[0022]
Regarding the minimum value of the correlation value S (z) obtained as described above, the shift amount at that time corresponds to the movement amount of the crossing person. At this time, when the amount of movement of the crossing person is “0” on the image, that is, when the shift amount is “0”, this corresponds to a case of colliding with the crossing person. This is because a collision occurs when the traveling direction of the host vehicle and the angle of the crossing person do not change and the distance to the crossing person becomes 0 m. FIG. 6 shows the relationship between the correlation value S (z) and the shift amount when the crosser moves in the horizontal right direction. In such a case, the shift amount = k corresponds to the shift amount. At this time, in order to improve accuracy, interpolation may be calculated using the minimum correlation value and two adjacent correlation values, and the movement amount may be calculated with 1/10 dot accuracy.
[0023]
In this way, the movement amount calculation circuit 4 calculates the movement amount of the crossing person from the correlation calculation of the two temporally continuous images captured every 66 ms. The movement amount is stored in the movement amount data storage memory M6.
[0024]
The vertical edge number calculation circuit 5 takes in the image data of the right camera stored in the right camera image storage memory M1 and counts the number of vertical edges in the same window for each detection window partitioned by a predetermined size. . Here, the detection window is set to match the size of the crossing person in the analysis region of FIG. In the present embodiment, the detection window is set in an area of 60 dots long × 16 dots wide as shown in FIG. 7 on the basis of the size of a crossing person 50 meters ahead.
[0025]
Further, as shown in FIG. 18, the detection windows are arranged so that 8 dots, which are half the width of the detection window, overlap with the adjacent detection window. In this case, since the number of pixels in the horizontal direction of the image is 512 dots, 127 detection windows are set.
[0026]
A method for calculating the number of vertical edges will be described below. That is, the image data of this cycle is read from the upper left of the analysis area, and the vertical edge number data storage memory corresponding to the x position of the point x whose magnitude of the luminance change amount is not less than a predetermined threshold in the scanning line direction. “1” is added to the position of M7. This is done for all analysis areas. Next, regarding the horizontal width of the detection window, when the total sum of the data at the corresponding x position is obtained from the vertical edge number data storage memory M7, the number of vertical edges of the detection window is obtained.
[0027]
Furthermore, the travel path detection circuit 6 takes in the image data of the right camera stored in the right camera image storage memory M1 and detects the travel path of the host vehicle. More specifically, the left and right white line lane marks on the road are detected from the luminance information in the image, and the inside of the lane mark is detected as a traveling road.
[0028]
The microcomputer 7 includes a well-known CPU, memory, input / output circuit, and the like. The distance data storage memory M3, the movement amount data storage memory M6, the vertical edge number data storage memory M7, and the travel path data storage data. The stored data in M8 is read and the crossing person detection process described later is executed. Then, the microcomputer 7 activates the alarm buzzer 8 according to the detection result of the crossing person on the road. Further, a yaw rate sensor 9 is connected to the microcomputer 7, and the microcomputer 7 detects the yawing component of the host vehicle from the output result of the sensor 9.
[0029]
  In the present embodiment, the microcomputer 7TraverserCandidate window detection means andTraverserThe detecting means is configured, and the yaw rate sensor 9 constitutes the yawing detecting means.
[0030]
Next, a series of crossing person detection procedures in the present embodiment will be described focusing on arithmetic processing by the microcomputer 7. FIG. 8 is a flowchart showing a crossing person detection routine, which is executed by the microcomputer 7 every 66 ms.
[0031]
When the routine starts, in step 101, the number of vertical edges is read from the vertical edge number data storage memory M7 for each detection window, and a window whose number is equal to or greater than a set threshold is detected as a candidate window for a traverser. (FIG. 9).
[0032]
Subsequently, in step 102, the distance data is read from the distance data storage memory M3, and if there is distance data corresponding to the crossing candidate window, the movement amount data corresponding to the area is loaded from the movement amount data storage memory M6 and averaged. Turn into. Further, the moving amount of the object (crossing person) in the candidate window is calculated from the averaged data. At this time, the distance to the object is also maintained.
[0033]
Further, in step 103, the yaw amount of the host vehicle measured in advance is subtracted from the calculated movement value, and this value is set as an absolute object movement amount on the image. That is, since the detection value of the yaw rate sensor 9 is an angle change (deg / sec), it is converted into a fluctuation amount on the image. When the angle of view is 20 degrees and the horizontal resolution of the image is 512 dots, the value 25.6 (dot / deg) obtained by dividing the resolution by the angle of view multiplied by the yaw rate value is the yawing amount on the image. By subtracting this from the previously calculated amount of movement of the object, the yaw component of the host vehicle is excluded from the amount of movement of the object.
[0034]
On the other hand, since the amount of movement of the object in the horizontal direction calculated as described above is the amount of movement in the number of dots on the image, in the subsequent steps 104 and 105, the amount of movement of the object in the horizontal direction in the real space is calculated. The travel speed is converted into v [km / h]. That is, in step 104, the movement distance L [m] in the real space is calculated from the movement amount g [dot] in the horizontal direction on the image at the time using the following equation (3).
[0035]
[Equation 3]
Figure 0003727400
However, in the above equation (3), “c” is the CCD cell size (mm / dot), “f” is the focal length of the lens [mm], and “d1” is the object before moving the object and the vehicle. The distance [m], “d2” is the distance [m] between the object after moving the object and the host vehicle.
[0036]
Further, in step 105, the moving distance L [m] in the real space within the 66 ms cycle is converted into the moving speed v [km / h] using the following equation (4). This moving speed v [km / h] is held in the memory in the microcomputer 7 as the amount of movement of the object.
[0037]
[Expression 4]
Figure 0003727400
Next, in step 106, a crossing person is temporarily detected from the relationship between the amount of movement (movement speed) of the object and the center of the traveling path. That is, the stored data in the travel route data storage memory M8 is loaded, and the center position of the travel route corresponding to the distance of the object is calculated. Then, based on the center position of the travel path and the moving direction of the object, an object heading to the center of the travel path is temporarily detected as a crossing person. At this time, as shown in FIG. 10, the crossing person is specified as an object heading toward the center of the traveling path in the image, and the utility pole and the standing tree are specified as objects heading outward from the center of the traveling path in the image. This temporary detection result is stored in a memory in the microcomputer.
[0038]
Thereafter, in step 107, it is determined whether or not a crossing person actually exists by performing a temporal association process (hereinafter referred to as a tracking process) on the temporary detection result. The specific contents of the tracking process will be described below.
[0039]
That is, when the provisional detection results for four cycles are obtained, the averages are averaged to create tracking data for tracking processing. In this case, if the total of the processing cycle weights (preset) of existing data is equal to or greater than a predetermined threshold value, the average value is calculated by adding the weights of the data, and the calculated value is used as tracking data. To do. The details are shown in FIG. When weighting each cycle, it is “4” in this cycle, “3” in the previous cycle, “2” in the previous cycle, “1” in the third cycle, and “1” in the previous cycle. Calculate the data. As a result, if tracking data exists, it is detected that a crossing person exists in the corresponding detection window. In such tracking processing, even when there is only a jump in data due to a detection error, it is not necessary to consider the absence of data due to the detection error, and a crossing person is detected based on the continuity.
[0040]
Next, specific tracking processing on the tracking data map will be described by dividing it into cases of tracking processing A to D. The contents of the tracking processes A to D are shown in FIGS. 12A to 12D, and a series of tracking examples reflecting the tracking processes A to D are shown in FIG. The numbers on the map are tracking data (movement amount) and represent the moving speed [km / h] of the crossing person in the real space. The negative moving speed represents a speed value that moves outward from the center of the traveling path.
[0041]
Tracking process A: If the tracking data of the previous cycle and the tracking data of this cycle are in the same detection window or the adjacent detection window, the moving speeds are compared and the difference is within an allowable range (here 2 km / h) If so, it is assumed that the data can be traced. That is, in FIG. 12A, the window of the tracking data is moved to the adjacent window, but this is processed as a movable window.
[0042]
Tracking process B: Two or three pieces of tracking data may correspond to one movable window. In this case, as shown in FIG. 12B, a window with a large number of tracking times is selected and processed. However, when the number of times of tracking is the same, priority is given to the right data in the left image area and the left data in the right image area from the center of the road (see B 'in FIG. 13).
[0043]
Tracking process C: As shown in FIG. 12C, when two or three movable windows correspond to one tracking data, the same number of tracking data is born. However, an identification label is attached to each tracking data.
[0044]
Tracking process D: As shown in FIG. 12D, when there is no movable window, the tracking process is interrupted there.
The tracking data is stored in the memory in the microcomputer 7, but at the same time, the corresponding distance data [m] and the horizontal position zx [m] from the image center are also stored. The storage amount is up to 10 cycles.
[0045]
The horizontal position zx [m] is calculated as follows from the horizontal position DX [dot] of the object from the center of the image and the distance data. In other words, the parallax s [dot] of the object is calculated from the distance from the equation (2), and in this distance data, the size [dot] of the parallax s corresponds to the camera base length m [cm]. Means. Accordingly, the horizontal position zx [m] is calculated from the following equation (5).
[0046]
[Equation 5]
Figure 0003727400
If the number of times tracking data exceeds 10 cycles, the average moving speed AMV [km / h] and average horizontal position AX [m] of the traverser are obtained from the stored data of the total of 10 cycles of the past 9 cycles and this cycle. Is calculated. The average horizontal position AX [m] is obtained from the sum of the horizontal distance from the image center to the crossing person (the horizontal position zx) and the horizontal distance from the image center to the white line lane mark on the road. FIG. 14 shows this relationship. The distance DL [m] and the travel path width W [m] until the host vehicle travels the same distance as the crossing person are calculated based on the distance data and the travel path detection data.
[0047]
Using the above data, in step 108 in FIG. 8, it is determined whether or not the current traveling state of the host vehicle is dangerous for the crossing person detected as described above. In this embodiment, as an example, the time tm1 [s] until the crosser reaches the travel path, the time tm2 [s] when the traverser finishes passing the travel path, and the own vehicle are at the same distance from the crosser. The risk determination is performed based on the reaching time tc [s]. In other words, if tm1 ≦ tc ≦ tm2, the microcomputer 7 activates the alarm buzzer 8 in step 109 to warn the driver that the crossing is detected, because there is a risk of collision between the host vehicle and the crossing person. To do. If tc <tm1 or tc> tm2, the microcomputer 7 terminates the routine as it is because there is no danger of collision between the host vehicle and the crossing person, that is, it is safe.
[0048]
Here, the time tm1 [s] until the crossing person reaches the travel path is calculated from the following (6) based on the average horizontal position AX [m] and the average moving speed AMV [km / h]. It has become.
[0049]
tm1 = AX.3.6 / AMV (6)
The time tm2 [s] that has passed through the travel path is calculated from the equation (7) obtained by adding the time to pass the travel path width W [m] to the time tm1 [s].
[0050]
tm2 = W · 3.6 / AMV + tm1 (7)
The time tc [s] for the host vehicle to reach a point at the same distance as the crossing person is calculated from the following equation (8) based on the road DL [m] and the host vehicle speed ACV [km / h]. .
[0051]
tc = DL · 3.6 / ACV (8)
According to the embodiment described in detail above, the following effects can be obtained.
(A) In short, in the present embodiment, detection windows having a size suitable for a crossing person are arranged in the horizontal direction without gaps in a vertical region (analysis region) of a captured image, and detection of distance data in the front space is present. If the moving direction of the object in the window (the direction of the moving amount data) is toward the center of the travel path, the presence of a crosser on the travel path is detected. According to the above configuration, it is possible to detect a crossing person existing on the side of the road, and it is possible to predict that the crossing person is about to cross the traveling road of the own vehicle or to jump out on the traveling road. Further, by detecting a crossing person in a unit of a detection window, it is possible to avoid a detection omission of a relatively small object such as a crossing person and to improve detection accuracy. As a result, it is possible to realize imaging processing with high safety for the host vehicle.
[0052]
(B) The vehicle's travel route data (including the detection result of the travel route center) is extracted from the detection information of the white line lane mark, and the presence / absence of a crossing person (judgment level determination) is performed from the travel route data. . According to this configuration, it is possible to realize imaging processing with higher safety.
[0053]
(C) The detection window is arranged so as to overlap a predetermined amount (for example, half the width) on the adjacent window. Thereby, as compared with the case where the detection windows are arranged side by side, a detection window corresponding to the crossing person is appropriately obtained, and the movement of the crossing person can be calculated with high accuracy.
[0054]
(D) The number of vertical edges is calculated for each detection window, and when the number of vertical edges is equal to or greater than a predetermined threshold, the detection window is detected as a candidate window. And about the candidate window, the crossing person on the road was detected from movement amount data. That is, focusing on the fact that the density of the number of vertical edges is high in the crossing person's image and detecting the window in which the crossing person exists based on the number of vertical edges, the detection process can be efficiently performed. At this time, the detected window is set as a “candidate window”, and then the actual traverser is determined from the “candidate window” using the distance distribution data and the movement amount data. Crossing person detection becomes possible.
[0055]
  (E) in one cycleTraverserAs a temporary detection result, the temporary detection resultTraverserWhen the time-related association processing (tracking processing) ofTraverserThe existence of was decided. Therefore, the reliability of crossing detection can be further enhanced. In particular, in the present embodiment, a weighted average value for four cycles is calculated as tracking data, and a crossing person detection process is performed using the tracking data. Therefore, detection errors caused by various disturbances, nonuniformity of walking speed, and the like can be suppressed. In addition, by performing tracking processing from the first discovery of a crossing person and observing its continuity, even if a sudden detection error occurs, the existence of the crossing person is accurately estimated, and due to a sudden detection error Adverse effects can be reduced.
[0056]
  (E) The yawing component of the own vehicle is excluded from the movement amount data, and the result of the elimination of the yawing component of the own vehicleTraverserTo be specified. In this case, the accurate movement of the crossing person can be known, and a highly accurate detection result can be obtained.
[0057]
The present invention can be embodied in the following form in addition to the above embodiment.
(1) In the above embodiment, in order to detect a crossing person on the road, a detection window adapted to the size of the crossing person is set (vertical 60 dots × horizontal 16 dots). However, this may be changed arbitrarily. For example, you may set the detection window applied to the magnitude | size of the bicycle which crosses on a running path.
[0058]
(2) In the above-described embodiment, the adjacent detection windows are arranged so as to overlap each other by half the width, but this may be changed. For example, 1/3 of the horizontal width of the adjacent detection windows may be overlapped, or 2/3 of the horizontal width may be overlapped. If there are few overlapping parts, the calculation load can be reduced, and if there are many overlapping parts, the detection accuracy improves.
[0059]
(3) You may change the process which specifies the window where a crossing person actually exists from the temporary detection result of a detection window. For example, when there is a window detected six times or more when the provisional detection result for nine cycles is obtained, it is specified that a crossing person exists in the window.
[0060]
(4) In the above embodiment, the distance calculation circuit 2, the analysis data calculation circuit 3, the movement amount calculation circuit 4, the vertical edge number calculation circuit 5, and the travel path detection circuit 6 are configured by hardware. A part thereof may be configured by software processing by the microcomputer 7.
[0061]
(5) In the above-described embodiment, stereo image analysis (stereoscopic view) is used to acquire forward distance distribution data. However, the distance distribution data acquisition method is not limited to this, and for example, a scanning radar device may be used. This is known as a means for calculating the distance from the round trip time until the light is reflected back to the object, and the distance distribution data is obtained by scanning (scanning) the light within a predetermined angle in front. Can be acquired.
[0062]
More specifically, the range of the scanning angle of light is used as the angle of view of the imaging device, and the scanning angle for radiating light is set and used as described below, so that the present invention can be utilized. Here, when the angle of view of the imaging device is 20 degrees and the number of pixels in the horizontal direction is 512 dots, the distance distribution is calculated by dividing the image into a mesh shape of 8 dots in the horizontal direction and 8 dots in the vertical direction by stereoscopic processing of image processing. Describe the case. In this case, since the region of 8 dots in the horizontal direction corresponds to 0.313 degrees, the scanning angle is sequentially changed in units of this angle (0.313 degrees) within the field angle range. Then, the obtained distance data is transferred to the memory and called from the CPU when necessary. In this way, distance distribution data corresponding to the detection window can be acquired.
[Brief description of the drawings]
FIG. 1 is a block configuration diagram showing an outline of a crossing person detection system in an embodiment of the invention.
FIG. 2 is a diagram showing a stereo image obtained by left and right cameras.
FIG. 3 is a schematic diagram illustrating a basic configuration of an imaging apparatus.
FIG. 4 is a diagram in which an analysis area is set in an image.
FIG. 5 is a diagram showing a state in which a crossing person has moved a predetermined amount in the horizontal right direction.
FIG. 6 is a graph showing a relationship between a correlation value and a movement amount.
FIG. 7 is a diagram showing the size of a detection window.
FIG. 8 is a flowchart showing a crossing person detection routine.
FIG. 9 is a diagram showing a crossing candidate window in an image.
FIG. 10 is a diagram illustrating a temporary detection result of a crossing person.
FIG. 11 is a diagram for explaining tracking processing;
FIG. 12 is a diagram for individually explaining examples of tracking processing;
FIG. 13 is a diagram for explaining a series of tracking processes.
FIG. 14 is a diagram showing a positional relationship between the own vehicle and a crossing person.
FIG. 15 is a diagram for explaining an analysis region in an image.
FIG. 16 is a diagram for explaining a detection window;
FIG. 17 is a diagram illustrating a state in which a crossing person is detected in a detection window.
FIG. 18 is a diagram showing an arrangement state of detection windows.
[Explanation of symbols]
  DESCRIPTION OF SYMBOLS 1 ... Imaging device, 2 ... Distance calculation circuit as distance distribution measurement means, 4 ... Movement amount calculation circuit as movement amount calculation means, 5 ... Vertical edge number calculation circuit as vertical edge number calculation means, 6 ... Traveling path data Travel path detection circuit as detection means, 7...TraverserCandidate window detection means andTraverserMicrocomputer as detection means, 9... Yaw rate sensor as yawing detection means.

Claims (5)

前方空間の物体の距離分布データを取得する距離分布計測手段と、
撮像装置によって前方空間の時間の異なる複数の画像データを取得して、前記物体の移動量を算出する移動量算出手段と
上記画像データに対して、画像の垂直方向について前記物体が存在する解析領域を設定すると共に当該物体の大きさに見合う検出ウィンドウを設け、その検出ウィンドウを水平方向に隙間なく配置する横断者検出手段と、
前記検出ウィンドウ毎に検出ウィンドウ内の垂直エッジ数を算出する垂直エッジ数算出手段と、
前記検出ウィンドウ内における、前記垂直エッジ数算出手段により算出された垂直エッジ数が所定のしきい値以上のとき、その検出ウィンドウを横断者が存在する候補となる候補ウィンドウとして検出する横断者候補ウィンドウ検出手段と
を備え、前記横断者検出手段は、前記候補ウィンドウ内前記前方空間の物体の距離分布データが存在する場合であって、その候補ウィンドウ内の前記物体における前記移動量算出手段によって得られた移動量の方向が自車両の走行路中心に向かっているとき、その候補ウィンドウに横断者が存在するとして当該横断者を検出することを特徴とする横断者の検出装置。
Distance distribution measuring means for acquiring distance distribution data of an object in front space;
To obtain a plurality of image data having different times of the front space by the imaging device, and a movement amount calculating means for calculating an amount of movement of the object,
Crossing detection means for setting an analysis region where the object exists in the vertical direction of the image with respect to the image data and providing a detection window corresponding to the size of the object , and arranging the detection window in the horizontal direction without any gap When,
Vertical edge number calculating means for calculating the number of vertical edges in the detection window for each detection window;
When the number of vertical edges calculated by the means for calculating the number of vertical edges in the detection window is equal to or greater than a predetermined threshold, the crossing candidate window that detects the detection window as a candidate window that is a candidate for crossing With detection means
Wherein the cross-person detection means movement, said even if the distance distribution data of an object space in front is present in the candidate window, obtained by the movement amount calculating means in the object in the candidate window when the direction of the amount is toward the roadway center of the vehicle, transverse's detecting device comprising a benzalkonium detect the crossing person as there is cross party to the candidate window.
請求項1に記載の横断者の検出装置において、
上記画像データから自車両の走行路を示すレーンマーク等を検出する走行路データ検出手段を備え、
前記横断者検出手段は、前記走行路データ検出手段の検出結果に基づいて走行路中心を検出する横断者の検出装置。
The crossing person detecting device according to claim 1,
A road data detecting means for detecting a lane mark or the like indicating the road of the vehicle from the image data;
The crossing person detection means is a crossing person detection device that detects the center of the road based on the detection result of the road data detection means .
請求項1又は2に記載の横断者の検出装置において、
前記検出ウィンドウは、隣合うウィンドウに所定量だけ重ねて配置される横断者の検出装置。
The crossing person detection device according to claim 1 or 2,
The detection window is a crossing person detection device which is arranged by overlapping a predetermined amount on an adjacent window .
前記横断者検出手段は、1サイクルでの横断者の検出結果を仮検出結果として、その仮検出された横断者の時間的な対応付け処理を行い、所定サイクル以上の対応付けがなされたとき、横断者の存在を決定する請求項1〜3のいずれかに記載の横断者の検出装置。 The crossing person detection means performs a temporal association process of the temporarily detected crossing person as a provisional detection result of the crossing person detection result in one cycle. The crossing person detection device according to any one of claims 1 to 3, which determines the presence of a crossing person . 自車両の走行のヨーイング成分を計測するためのヨーイング検出手段を更に備え、
前記横断者検出手段は、前記移動量算出手段による移動量データから自車両のヨーイング成分を排除し、該自車両のヨーイング成分が排除された結果から横断者を特定する請求項1〜4のいずれかに記載の横断者の検出装置
Yawing detection means for measuring the yawing component of the traveling of the host vehicle further comprises
The crossing person detection means excludes the yawing component of the own vehicle from the movement amount data by the movement amount calculation means, and specifies the crossing person from the result of eliminating the yawing component of the own vehicle. The crossing device detection device according to claim .
JP03503996A 1996-02-22 1996-02-22 Crossing detection device Expired - Fee Related JP3727400B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03503996A JP3727400B2 (en) 1996-02-22 1996-02-22 Crossing detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03503996A JP3727400B2 (en) 1996-02-22 1996-02-22 Crossing detection device

Publications (2)

Publication Number Publication Date
JPH09226490A JPH09226490A (en) 1997-09-02
JP3727400B2 true JP3727400B2 (en) 2005-12-14

Family

ID=12430913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03503996A Expired - Fee Related JP3727400B2 (en) 1996-02-22 1996-02-22 Crossing detection device

Country Status (1)

Country Link
JP (1) JP3727400B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10769420B2 (en) 2015-08-31 2020-09-08 Kabushiki Kaisha Toshiba Detection device, detection method, computer program product, and information processing system

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187799A (en) * 1998-12-22 2000-07-04 Matsushita Electric Works Ltd Obstacle detector for vehicle
JP4196469B2 (en) * 1999-03-02 2008-12-17 マツダ株式会社 Vehicle obstacle detection device
JP3515926B2 (en) * 1999-06-23 2004-04-05 本田技研工業株式会社 Vehicle periphery monitoring device
JP4354085B2 (en) 2000-05-09 2009-10-28 本田技研工業株式会社 Head-up display device for vehicle
JP4615139B2 (en) 2001-03-30 2011-01-19 本田技研工業株式会社 Vehicle periphery monitoring device
JP2003016429A (en) 2001-06-28 2003-01-17 Honda Motor Co Ltd Vehicle periphery monitor device
JP3739693B2 (en) 2001-11-09 2006-01-25 本田技研工業株式会社 Image recognition device
JP4235018B2 (en) * 2003-03-31 2009-03-04 本田技研工業株式会社 Moving object detection apparatus, moving object detection method, and moving object detection program
JP3949628B2 (en) * 2003-09-02 2007-07-25 本田技研工業株式会社 Vehicle periphery monitoring device
JP2005214914A (en) * 2004-02-02 2005-08-11 Fuji Heavy Ind Ltd Traveling speed detecting device and traveling speed detection method
JP4069919B2 (en) * 2004-09-28 2008-04-02 日産自動車株式会社 Collision determination device and method
JP2006268097A (en) * 2005-03-22 2006-10-05 Nissan Motor Co Ltd On-vehicle object detecting device, and object detecting method
JP4823753B2 (en) * 2006-04-24 2011-11-24 本田技研工業株式会社 Vehicle periphery monitoring device
JP4946175B2 (en) * 2006-05-23 2012-06-06 日産自動車株式会社 Road boundary detection device and road boundary detection method
JP4231883B2 (en) 2006-08-25 2009-03-04 株式会社東芝 Image processing apparatus and method
JP4704998B2 (en) * 2006-10-26 2011-06-22 本田技研工業株式会社 Image processing device
JP4322913B2 (en) * 2006-12-19 2009-09-02 富士通テン株式会社 Image recognition apparatus, image recognition method, and electronic control apparatus
DE102007001552A1 (en) * 2007-01-10 2008-07-17 Robert Bosch Gmbh Method and device for determining potentially hazardous objects for a vehicle
JP4979456B2 (en) * 2007-05-15 2012-07-18 株式会社豊田中央研究所 Object search device
JP5029436B2 (en) * 2008-03-12 2012-09-19 オムロン株式会社 Crossing object detection apparatus, crossing object detection method, and program
CN102713989A (en) * 2010-03-17 2012-10-03 本田技研工业株式会社 Vehicle surroundings monitoring device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3100471B2 (en) * 1992-07-28 2000-10-16 日本信号株式会社 Dangerous traffic event detection method
JP3430641B2 (en) * 1994-06-10 2003-07-28 日産自動車株式会社 Inter-vehicle distance detection device
JP3508213B2 (en) * 1994-06-27 2004-03-22 マツダ株式会社 Vehicle running state determination device
JPH0845000A (en) * 1994-07-28 1996-02-16 Fuji Heavy Ind Ltd Vehicle-to-vehicle distance controller

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10769420B2 (en) 2015-08-31 2020-09-08 Kabushiki Kaisha Toshiba Detection device, detection method, computer program product, and information processing system

Also Published As

Publication number Publication date
JPH09226490A (en) 1997-09-02

Similar Documents

Publication Publication Date Title
JP3727400B2 (en) Crossing detection device
US10501059B2 (en) Stereo camera device
CN108692719B (en) Object detection device
US5410346A (en) System for monitoring condition outside vehicle using imaged picture by a plurality of television cameras
US6744380B2 (en) Apparatus for monitoring area adjacent to vehicle
JP5157067B2 (en) Automatic travel map creation device and automatic travel device.
US20040057599A1 (en) Image processing apparatus and method
US20060111841A1 (en) Method and apparatus for obstacle avoidance with camera vision
CN106289159B (en) Vehicle distance measurement method and device based on distance measurement compensation
JPH06266828A (en) Outside monitoring device for vehicle
JP2004086779A (en) Obstacle detection device and its method
JP2004056763A (en) Monitoring apparatus, monitoring method, and program for monitor
GB2560110A (en) Detection and documentation of tailgating and speeding violations
US20180285661A1 (en) Image processing device, object recognizing device, device control system, image processing method, and computer-readable medium
Pantilie et al. Real-time obstacle detection using dense stereo vision and dense optical flow
JPH11252587A (en) Object tracking device
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
US20210042945A1 (en) Stereo camera device
JP2006072495A (en) Three-dimensional object monitoring device
JP3710548B2 (en) Vehicle detection device
KR20100066952A (en) Apparatus for tracking obstacle using stereo vision and method thereof
JP2004013400A (en) Object recognition device and object recognition method
JP2536986B2 (en) Inter-vehicle distance detector
Leu et al. High speed stereo vision based automotive collision warning system
Nedevschi et al. Online extrinsic parameters calibration for stereovision systems used in far-range detection vehicle applications

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050928

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081007

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091007

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101007

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111007

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees