JP3697435B2 - Outside monitoring device - Google Patents

Outside monitoring device Download PDF

Info

Publication number
JP3697435B2
JP3697435B2 JP2002275530A JP2002275530A JP3697435B2 JP 3697435 B2 JP3697435 B2 JP 3697435B2 JP 2002275530 A JP2002275530 A JP 2002275530A JP 2002275530 A JP2002275530 A JP 2002275530A JP 3697435 B2 JP3697435 B2 JP 3697435B2
Authority
JP
Japan
Prior art keywords
wall surface
vehicle
pattern
node point
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002275530A
Other languages
Japanese (ja)
Other versions
JP2003204546A (en
Inventor
圭二 塙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2002275530A priority Critical patent/JP3697435B2/en
Publication of JP2003204546A publication Critical patent/JP2003204546A/en
Application granted granted Critical
Publication of JP3697435B2 publication Critical patent/JP3697435B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、車外の対象を撮像した画像を処理して車外の状況を認識する車外監視装置に関し、特に、ガードレール等の道路の境界となる連続した立体物としての側壁を検出する車外監視装置に関する。
【0002】
【従来の技術】
最近では、自動車にTVカメラやレーザ・レーダ等を搭載して前方の車両や障害物を検知し、それらに衝突する危険度を判定して運転者に警報を発したり、自動的にブレーキを作動させて停止させる、あるいは、先行車との車間距離を安全に保つよう自動的に走行速度を増減する等のASV(Advanced Safety Vehicle;先進安全自動車)に係わる技術の開発が積極的に進められている。
【0003】
TVカメラの画像から前方の物体を検知する技術としては、本出願人によって先に提出された特開平5−265547号公報の技術があり、この技術では、車両の左右に取り付けた2台のステレオカメラの画像を距離画像に変換し、この距離画像を所定の間隔で格子状の領域に区分し、各区分毎に立体物を検出している。また、本出願人は、同様に、区分毎に立体物のデータを抽出し、これらのデータをハフ変換によって処理し、ガードレール等の道路に沿った立体物(側壁)を検出する技術を、特開平6−266828号公報において提案している。
【0004】
【特許文献1】
特開平5−265547号公報
【0005】
【特許文献2】
特開平6−266828号公報
【0006】
【発明が解決しようとする課題】
しかしながら、従来の技術では、立体物のデータをハフ変換等によって処理するため、カーブした道路に沿ったガードレール等は、比較的近距離の範囲にある部分を直線として捉えるに過ぎず、遠方まで認識することは困難であった。
【0007】
本発明は上記事情に鑑みてなされたもので、道路がカーブしている場合にも、道路の境界を構成する一連の立体物を壁面として検出することのできる車外監視装置を提供することを目的としている。
【0008】
【課題を解決するための手段】
上記目的を達成するため、本発明による第1の車外監視装置は、車外の立体物の位置を検出して車外の状況を認識する車外監視装置において、道路境界を構成する壁面に分類される壁面位置データ群を抽出する手段と、壁面形状を表す複数のノード点を先に設定したノード点に基づき順次設定する手段と、上記設定されたノード点を含む所定領域内の上記壁面位置データ群に対して壁面パターンとのマッチング処理を施すことにより求めた壁面位置に基づき上記ノード点を特定する手段と、上記ノード点の設定及び壁面位置に基づくノード点の特定を順次施すことにより、複数のノード点により壁面形状を表す壁面モデルを形成する手段とを備えたことを特徴とする。
【0009】
本発明による第2の車外監視装置は、車外の立体物の位置を検出して道路境界を示す立体物の位置を壁面位置として設定する車外監視装置において、道路境界を構成する壁面に分類される壁面位置データ群を抽出する手段と、上記壁面位置データ群に分類される複数の立体物に対して、立体物との位置関係が予め設定している壁面パターンに最も類似する位置を壁面位置として設定する手段とを備えたことを特徴とする。
【0010】
すなわち、本発明の第1の車外監視装置は、道路境界を構成する壁面に分類される壁面位置データ群を抽出すると、壁面形状を表す複数のノード点を先に設定したノード点に基づき順次設定し、設定されたノード点を含む所定領域内の壁面位置データ群に対して壁面パターンとのマッチング処理を施すことにより求めた壁面位置に基づきノード点を特定する。そして、このノード点の設定及び壁面位置に基づくノード点の特定を順次施すことにより、複数のノード点により壁面形状を表す壁面モデルを形成する。
【0011】
その際、各壁面位置データのX座標と壁面パターンのパターン中心のX座標との偏差に対応する重みの総和により一致度を評価し、壁面パターンを壁面位置データ群に対してX座標方向に移動させて一致度が最大になったときのパターン中心の位置をノード点として特定することが望ましく、また、特定された所定ノード点の座標を、その前後のノード点を結ぶ直線に漸近する方向に修正することが望ましい。
【0012】
また、本発明の第2の車外監視装置は、道路境界を構成する壁面に分類される壁面位置データ群を抽出し、壁面位置データ群に分類される複数の立体物に対して、立体物との位置関係が予め設定している壁面パターンに最も類似する位置を壁面位置として設定する。
【0013】
その際、所定領域内における壁面位置データ群を構成する立体物に対して壁面パターンによるマッチング処理を適用し、順次領域を設定すると共に領域毎にマッチング処理を施すことにより、複数の壁面位置を設定することが望ましい。壁面パターンとしては、壁面パターンの横軸方向においてパターン中心点に対して一方の側を相対的に高く設定すると共に他方の側を相対的に低く設定した重み係数を縦軸に有するパターンを採用することが望ましい。
【0014】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を説明する。図1〜図20は本発明の実施の一形態に係わり、図1は車外監視装置の全体構成図、図2は車外監視装置の回路ブロック図、図3〜図5は立体物・側壁グループ検出処理のフローチャート、図6は壁面検出処理のフローチャート、図7及び図8は壁面位置修正処理のフローチャート、図9は車載のカメラで撮像した画像の例を示す説明図、図10は距離画像の例を示す説明図、図11は区分毎に検出した立体物の位置を示す説明図、図12は側壁の検出結果を示す説明図、図13は側壁の検出結果をX−Z平面で示した説明図、図14は壁面モデルの説明図、図15は壁面パターンの探索法を示す説明図、図16は重み係数パターンを示す説明図、図17は一致度の計算結果を示す説明図、図18はノード点の連結を示す説明図、図19は壁面の検出結果を示す説明図、図20は壁面の検出結果をX−Z平面で示した説明図である。
【0015】
図1において、符号1は自動車等の車両であり、この車両1に、車外の対象を撮像し、撮像画像から車外の状況を認識して監視する車外監視装置2が搭載されている。この車外監視装置2は、車外の対象物を異なる位置から撮像するためのステレオ光学系10、このステレオ光学系10で撮像した画像を処理して三次元の距離分布情報を算出するイメージプロセッサ20、及び、イメージプロセッサ20からの距離情報を入力し、その距離情報から道路形状や複数の立体物の三次元位置を高速で検出し、その検出結果に基づいて先行車や障害物を特定して衝突警報の判断処理等を行う認識処理用コンピュータ30等から構成されている。
【0016】
また、上記認識処理用コンピュータ30には、車速センサ4、舵角センサ5等の現在の車両の走行状態を検出するためのセンサが接続され、認識された物体が自車両1の障害物となる場合、運転者の前方に設置されたディスプレイ9へ表示して運転者に対する警告を行う他、図示しないアクチュエータ類を制御する外部装置を接続することで車体の自動衝突回避制御等が可能となっている。
【0017】
上記ステレオ光学系10は、例えば電荷結合素子(CCD)等の固体撮像素子を用いた左右1組のCCDカメラ10a,10bからなり、イメージプロセッサ20では、CCDカメラ10a,10bで撮像した1対の画像の相関を求め、同一物体に対する視差から三角測量の原理により距離を求める、いわゆるステレオ法により画像全体に渡る三次元の距離分布を算出する。
【0018】
認識処理用コンピュータ30では、イメージプロセッサ20からの距離分布情報を読み込んで道路形状や複数の立体物(車両や障害物等)の三次元位置を高速で検出し、この検出物体との衝突や接触可能性を車速センサ4や舵角センサ5等によって検出した自車両の走行状態に基づいて判断し、その結果をディスプレイ9に表示して運転者に知らせる。
【0019】
イメージプロセッサ20及び認識処理用コンピュータ30は、詳細には、図2に示すハードウエア構成となっている。イメージプロセッサ20は、CCDカメラ10a,10bで撮像した1組みのステレオ画像対に対して所定の小領域毎に同一の物体が写っている部分を探索し、対応する位置のずれ量を求めて物体までの距離を算出し、三次元の距離分布情報として出力する距離検出回路20aと、この距離検出回路20aから出力される距離分布情報を記憶する距離画像メモリ20bとから構成されている。
【0020】
上記距離検出回路20aから出力される距離分布情報は、画像のような形態をした疑似画像(距離画像)であり、左右2台のCCDカメラ11a,11bで撮影した画像、例えば、図9に示すような画像(図9は片方のカメラで撮像した画像を模式的に示す)を上記距離検出回路20aで処理すると、図10のような距離画像となる。
【0021】
図10に示す距離画像の例では、画像サイズは横600画素×縦200画素であり、距離データを持っているのは図中白点の部分で、これは図9の画像の各画素のうち、左右方向に隣合う画素間で明暗変化が大きい部分である。距離検出回路20aでは、この距離画像を、1ブロックを4×4画素の小領域として横150×縦50のブロックからなる画像として扱い、各ブロック毎に距離(画素ズレ数)の算出を行う。
【0022】
一方、認識処理用コンピュータ30は、道路形状等の検出処理を主とするマイクロプロセッサ30aと、検出した道路形状に基づいて個々の立体物を検出する処理を主とするマイクロプロセッサ30bと、検出した立体物の位置情報に基づいて先行車や障害物を特定し、衝突や接触危険性を判断する処理を主とするマイクロプロセッサ30cとがシステムバス31を介して並列に接続されたマルチマイクロプロセッサのシステム構成となっている。
【0023】
そして、上記システムバス31には、距離画像メモリ20bに接続されるインターフェース回路32と、制御プログラムを格納するROM33と、計算処理途中の各種パラメータを記憶するRAM34と、処理結果のパラメータを記憶する出力用メモリ35と、上記ディスプレイ(DISP)9を制御するためのディスプレイコントローラ(DISP.CONT.)36と、車速センサ4、舵角センサ5等からの信号を入力するI/Oインターフェース回路37とが接続されている。
【0024】
認識処理用コンピュータ30では、画素を単位とする距離画像上の座標系を、図9に示すように、左下隅を原点として横方向をi座標軸,縦方向をj座標軸として扱い、画素ズレ数をdpとする距離画像上の点(i,j,dp)を実空間の座標系に変換し、道路形状の認識や立体物の位置検出等の処理を行う。
【0025】
すなわち、実空間の三次元の座標系を、自車(車両1)固定の座標系とし、X軸を車両1の進行方向右側側方、Y軸を車両1の上方、Z軸を車両1の前方、原点を2台のCCDカメラ10a,10bの中央の真下の道路面とすると、X−Z平面(Y=0)は、道路が平坦な場合、道路面と一致することになり、以下の(1)〜(3)式により、距離画像上の点(i,j,dp)を、実空間上の点(x,y,z)に座標変換することができる。
x=CD/2+z・PW・(i−IV) …(1)
y=CH+Z・PW・(j−JV) …(2)
z=KS/dp …(3)
但し、CD :CCDカメラ10a,10bの間隔
PW :1画素当たりの視野角
CH :CCDカメラ10a,10bの取付け高さ
IV,JV:車両1の真正面の無限遠点の画像上の座標(画素)
KS :距離係数(KS=CD/PW)
尚、実空間上の点(x,y,z)から画像上の点(i,j,dp)を算出する式は、上記(1)〜(3)式を変形し、次のようになる。
【0026】
i =(x−CD/2)/(z・PW)+IV …(4)
j =(y−CH)/(z・PW)+JV …(5)
dp=KS/z …(6)
【0027】
次に、認識処理用コンピュータ30における個々の処理について説明する。まず、マイクロプロセッサ30aによる道路検出処理では、距離画像メモリ20bに記憶された距離画像からの三次元的な位置情報を利用し、内蔵した道路モデルのパラメータを実際の道路形状と合致するよう修正・変更して道路形状を認識する。
【0028】
上記道路モデルは、認識対象範囲までの道路の自車線を、設定した距離によって複数個の区間に分け、各区間毎に左右の白線やガードレール等を三次元の直線式で近似して折れ線状に連結したものであり、実空間の座標系における水平方向の直線式のパラメータa,b、及び、垂直方向の直線式のパラメータc,dを求め、以下の(7)式に示す水平方向の直線式、及び、以下の(8)式に示す垂直方向の直線式を得る。
x=a・z+b …(7)
y=c・z+d …(8)
【0029】
また、マイクロプロセッサ30bによる立体物検出処理では、距離画像を格子状に所定の間隔で区分し、各区分毎に立体物のデータを抽出してヒストグラムを作成し、このヒストグラムから各区分を代表する立体物の存在位置と、その距離を求める。次に、区分毎の距離を画像の左から右へ順次比較してゆき、前後方向(Z軸方向)及び横方向(X軸方向)の距離が接近しているものをグループとしてまとめ、さらに、各グループについてデータの並び方向をチェックして方向が大きく変化する部分でグループを分割する。
【0030】
そして、グループ全体としての距離データの並び方向(Z軸との傾き)から個々のグループを立体物あるいは側壁に分類し、立体物と分類されたグループについて、グループ内の距離データから平均距離や左端、右端のX座標等のパラメータを算出し、側壁と分類されたグループについては、並び方向(Z軸との傾き)や前後端の位置(Z,X座標)等のパラメータを算出することにより、立体物の後部や側部、ガードレール等の道路に沿った構造物すなわち側壁を検出する等の処理を行う。
【0031】
尚、距離画像の生成、この距離画像から道路形状を検出する処理、及び、衝突・接触判断処理については、本出願人によって先に提出された特開平5−265547号公報や特開平6−266828号公報等に詳述されている。
【0032】
この場合、ガードレール等の側壁は、道路がカーブしている場合においても、道路に沿ってカーブした壁面を遠方まで認識することができる。以下、マイクロプロセッサ30bによる壁面検出に係わる処理について、図3〜図8に示すフローチャートを用いて説明する。
【0033】
図3〜図5は、距離画像から得られる距離データを処理して立体物のグループと側壁のグループとに分類するプログラムであり、まず、ステップS101〜ステップ115の処理で、距離画像を所定間隔で格子状に区分した各区分毎に、立体物の存在と、その距離の算出を行う。すなわち、ステップS101で、距離画像を所定間隔(例えば、8〜20画素間隔)で格子状に区分し、ステップS102で、各区分毎に立体物のデータを抽出し、その検出距離を算出するため、最初の区分のデータを読み込む。
【0034】
次に、ステップS103へ進んで区分内の最初のデータをセットすると、ステップS104で被写体の三次元位置(x,y,z)を前述の(1)〜(3)式によって求め、ステップS105で、前述の道路形状の直線式(7),(8)を使って距離zに於ける道路表面の高さyrを算出する。尚、白線が無い道路等、当初、道路形状を認識できないときには、道路表面は車両1に水平であると仮定して道路表面の高さyrを設定する。
【0035】
次に、ステップS106へ進み、以下の(9)式によって算出した被写体の道路表面からの高さHに基づいて、道路面より上にあるデータを立体物データとして抽出する。この場合、高さHが0.1m程度以下の被写体は、道路上の白線や汚れ、影等と考えられるため、この被写体のデータは棄却する。また、自車両1の高さより上にある被写体も、歩道橋や標識などと考えられるので棄却し、道路上の立体物と推定されるデータのみを選別する。
H=y−yr …(9)
【0036】
その後、ステップS107へ進んで最終データか否かを調べ、最終データでないときには、ステップS108で区分内の次のデータをセットして前述のステップS104へ戻り、同様の処理を繰り返して道路面より上にあるデータを抽出する。そして、1つの区分内で最終データの処理が完了すると、ステップS107からステップS109へ進み、抽出された立体物データに対し、予め設定された距離zの区間に含まれるデータの個数を数えて距離zを横軸とするヒストグラムを作成する。
【0037】
続くステップS110では、ヒストグラムの度数が判定値以上で、かつ最大値となる区間を検出し、該当する区間があれば、ステップS111において、その区間に立体物が存在すると判断し、その立体物までの距離を検出する。上記ヒストグラムでは、入力される距離画像中の距離データには誤って検出された値も存在し、実際には物体の存在しない位置にも多少のデータが現れる。しかしながら、ある程度の大きさの物体があると、その位置の度数は大きな値を示し、一方、物体が何も存在しない場合には誤った距離データのみによって発生する度数は小さな値となる。
【0038】
従って、作成されたヒストグラムの度数が、予め設定した判定値以上かつ最大値をとる区間があれば、その区間に物体が存在すると判断し、度数の最大値が判定値以下の場合は物体が存在しないと判断しても差し支えなく、画像のデータに多少のノイズが含まれている場合においても、ノイズの影響を最小限にして物体を検出できる。
【0039】
その後、上記ステップS111からステップS112へ進んで最終区分に達したか否かを調べる。そして、最終区分に達していないときには、上記ステップS112からステップS113へ進んで次の区分のデータを読み込むと、前述のステップS103へ戻り、道路面より上にあるデータの抽出、ヒストグラムの作成、及び、各区分内での立体物の検出と距離の算出を行う。以上の処理を繰り返し、やがて、最終区分に達すると、上記ステップS112からステップS114以降へ進む。
【0040】
図11は、図9の元画像から区分毎に検出した立体物の位置を示し、これらの立体物の距離データは、ステップS114〜ステップS120の処理により、距離が接近しているグループに分けられる。この処理では、各区分の立体物の検出距離を調べ、隣接する区分において立体物までの検出距離の差異が判定値以下の場合は同一の立体物と見なし、一方、判定値を超えている場合は別々の立体物と見なしてグループ分けを行う。
【0041】
このため、ステップS114では、まず、最初の区分(例えば左端)を調べ、立体物が検出されている場合には、距離データを読み込んで、この区分R1を、グループG1、距離Z1に分類する。次に、ステップS115へ進んで右隣の区分R2を調べ、立体物が検出されていない場合には、グループG1は区分R1の内部とその近辺に存在し、その距離はZ1と判定し、一方、区分R2で立体物が検出されており、その検出距離がZ2である場合には、区分R1の距離Z1と右隣の区分R2の距離Z2の差を計算する。
【0042】
その後、ステップS116へ進んで右隣の区分との距離の差が判定値以下か否かを調べ、距離の差が判定値以下で互いに接近しているときには、ステップS117で、区分R2で検出された立体物は、先に検出されたグループG1に属すると判定して同一グループにラベル付けを行い、その距離をZ1とZ2との平均値としてステップS119へ進む。
【0043】
一方、右隣の区分との距離の差が判定値を超えているときには、上記ステップS116からステップS118へ進み、区分R2で検出された立体物は、先に検出されたグループG1とは異なると判定して新しいグループ(グループG2、距離Z2)にラベル付けを行い、ステップS119へ進む。
【0044】
ステップS119では、最終区分に達したか否かを調べ、最終区分に達していないときには、ステップS120で次の区分の距離を読み込んで上記ステップS115へ戻っり、さらに右隣の領域を調べてゆく。また、最終区分に達したときには、ステップS119からステップS121以降へ進む。
【0045】
以上の処理では、例えば、ガードレールの脇に車両が駐車している状況等において、ガードレールの距離データと、このガードレールに脇に駐車している車両上の距離データとが同一のグループとして処理されてしまう場合がある。従って、次のステップS121〜ステップS131における処理で距離データのX−Z平面上での並び方向を調べ、並び方向がZ軸と平行な部分とX軸と平行な部分とでグループを分割する。
【0046】
このグループを分割する処理では、ステップS121で、最初のグループのデータを読み込み、ステップS122で、このグループ内の各区分の並び方向を算出すると、ステップS123で各区分に“物体”、“側壁”のラベルを付ける。具体的には、グループ内での左端の区分K1の位置をZ1,X1とし、N個だけ右側の区分の位置をZp,Xpとすると、点X1,Z1と点Xp,Zpとの2点を結ぶ直線のZ軸に対する傾きA1を算出し、この直線の傾きA1を設定値(例えば、45°程度)と比較する。そして、直線の傾きA1が設定値以下でデータの並びが略Z軸方向の場合には、区分K1は“側壁”とラベル付けし、上記直線の傾きA1が設定値を超え、データの並びが略X軸方向の場合には、“物体”とラベル付けする。
【0047】
ラベル付けの際の区分の間隔Nは、N=2〜4区分程度とする。これは、N=1すなわち右隣の区分では、検出距離のバラツキのために並び方向が大きくばらついてしまい、分割の判断が難しくなるためであり、少し離れた区分との並び方向を使うことにより、方向の安定化を図る。そして、この“側壁”あるいは“物体”のラベル付けを、グループ内の左端の区分から順に、右端からN個左側の区分まで行い、各区分にラベル付けをする。
【0048】
以上により、各区分のラベル付けが完了すると、上記ステップS123からステップS124へ進んで左端の区分のラベルを読み込み、さらに、ステップS125で、その右隣の区分のラベルを読み込む。次いで、ステップS126へ進み、左端のラベルと、その右隣のラベルが異なるか否かを調べる。その結果、ラベルが同じときにはステップS126からステップS128へジャンプし、ラベルが異なるとき、ステップS126からステップS127へ進んで“側壁”とラベル付けされた区分と“物体”とラベル付けされた区分とを分割して別のグループとし、ステップS128へ進む。分割する区分の位置は、ラベルが“側壁”←→“物体”で変化する位置のN/2区分だけ右側となる。
【0049】
尚、この場合、距離データのバラツキ等により部分的にラベルが変化する状況に対処するため、同じラベルが判定値以上(例えば、3区分以上)連続して並んでいる場合にのみ分割を行い、判定値未満の場合には、分割は行わない。
【0050】
ステップS128では、最終区分か否かを調べ、最終区分でないとき、ステップS129で次の区分のラベルを読み込んで上記ステップS125へ戻り、同様の処理を繰り返す。そして、最終区分に達すると、上記ステップS128からステップS130ヘ進み、最終グループに達したか否かを調べる。その結果、最終グループに達していないときには、ステップS131で次のグループのデータを読み込み、次のグループに対して同様にグループを分割する処理を行う。この処理を繰り返し、やがて、最終グループに達すると、グループ分割の処理を完了してステップS130からステップS132以降へ進む。
【0051】
次のステップS132〜ステップS137は、分割された各グループに対し、側壁か物体かの分類を行って各グループのパラメータを算出する処理であり、ステップS132で最初のグループのデータを読み込むと、ステップS133で、グループ内の各区分の位置(Xi,Zi)からハフ変換あるいは最小二乗法によって近似直線を求め、グループ全体の傾きを算出する。
【0052】
次に、ステップS134へ進んで、グループ全体の傾きから、X軸方向の傾きを有するグループを物体、Z軸方向の傾きを有するグループを側壁に分類し、ステップS135で、各グループのパラメータを算出する。このパラメータは、物体と分類されたグループでは、グループ内の距離データから算出される平均距離や、左端、右端のX座標等のパラメータであり、側壁と分類されたグループでは、並びの方向(Z軸との傾き)や前後端の位置(Z,X座標)等のパラメータである。尚、グループの分類は、前述のグループ分割処理で付けられた各区分の“側壁”あるいは“物体”のラベルによって行っても良い。
【0053】
そして、上記ステップS135からステップS136へ進んで最終グループに達したか否かを調べ、最終グループでないときには、ステップS137で次のグループのデータを読み込んで上記ステップS133へ戻り、最終グループに達したとき、プログラムを抜ける。
【0054】
以上の処理では、図12に示すような側壁の検出結果となり、区分毎の距離をX−Z平面上に示すと、図13に示すような直線状の側壁グループとして捉えられ、カーブした道路に沿った部分は認識されない。従って、図6の壁面検出処理のプログラムでは、以上によって得られた側壁グループのデータを用い、カーブした道路にそった壁面を認識する。
【0055】
このプログラムでは、まず、ステップS201で、自車両との位置関係を調べて側壁のグループの中からガードレール等の壁面を検出していると推定されるグループを選出し(左右各1個以下)、ステップS202以降で、この選出した側壁グループのデータ(位置と方向)を手掛かりにし、壁面モデルを用いて壁面を探索・拡張する。
【0056】
この壁面モデルは、図14に示すように、自車両の前方の所定範囲を設定間隔毎に設けたノード点で結んで壁面の輪郭を表現したものであり、例えば前方10mから90mまでを2m間隔の41個のノード点で輪郭を構成し、各ノード点は自車両側から順に番号を付して管理される。各ノード点のZ座標は固定とし、そのX座標を後述する手順により決定する。
【0057】
このため、まず、ステップS202では、ステップS201で選択された側壁グループの手前側の端点のZ座標から対応するノード点Nsとして求め、このノード点NsのX座標を、側壁の位置に合わせて設定すると、次に、ステップS203へ進み、次のノード点Ns+iの位置(X座標)を設定する。このノード点Ns+iの設定は、i=1でノード点Nsと隣のノード点Ns+1を設定するときには、側壁グループの傾きの方向に沿った位置とし、i≧2でノード点Ns+2以降のノード点を設定するときには、その前の2つのノード点で決定される方向に沿った位置とする。
【0058】
次いで、ステップS204へ進み、図15に示すように、ステップS203で設定されたノード点Ns+iの座標(Xns+i,Zns+i)を中心として、所定の範囲でパターンマッチングにより壁面の位置を探索する。この探索範囲は、例えばX方向にXns+i±3〜5m程度、Z方向にZns+i±1m程度であり、探索範囲内にある区分毎の立体物Piを抽出する。
【0059】
そして、この探索範囲内の立体物Piに対して壁面パターンのマッチングを行う。図16はこのパターンマッチングにて使用される壁面パターン(重み係数パターン)の一例を示している(図16は左側の壁面に対応するパターンであり、右側の壁面検出には左側と対称のパターンを用いる)。この壁面パターンの横軸はX座標方向の距離、縦軸は重み係数を示しており、この壁面パターンの中心点を探索範囲内でX座標方向へずらしながらマッチング度の最も高い位置を探索する。具体的には、各立体物Piの壁面パターン中心点からのX座標方向の偏差に対応する重みWiを図16に示す壁面パターンに基づいて求め、各立体物Piに対応する重みWiの総和をマッチング度Fとして算出する。そして、このマッチング度Fが最大となるときの壁面パターンの中心点位置が壁面の位置と認識される。但し、マッチング度Fの最大値が判定値以下の場合には壁面なしと判断する。
【0060】
以上のステップS204の処理が終了すると、ステップS205へ進み、マッチング度Fが最大となるときの壁面パターンの中心点のX座標(Xpw)をノード点Ns+iに対応する壁面位置のX座標として確定する。
【0061】
そして、ステップS206へ進んで上記選出された側壁グループ内の最後のノード点か否かを調べ、最後のノード点でないとき、ステップS203へ戻って次のノード点を設定し同様の処理を繰り返す。また、最後のノード点に達すると、ステップS207へ進んでステップS202〜S205で確定されたノード点の中で最も番号の小さいもの(最も自車両に近いもの)と最も番号の大きいもの(最も自車両から遠いもの)とを探し、それらを検出範囲の始点Ns、終点Neとしてプログラムを抜ける。このプログラムは、左側の側壁グループについて実行された後、右側の側壁グループについて実行される。図14の例では、自車両右側で第9ノードから第26ノードまで壁面が検出され、第9ノードを始点Nsとして第26ノードを終点Neとする各ノード点が有効なノード点として管理される。
【0062】
以上の処理で検出された壁面の位置は、さらに、前述の図3〜図5のプログラムで得られる側壁グループの新たなデータを用い、図7及び図8に示すプログラムによって修正される。
【0063】
この壁面位置修正のプログラムでは、ステップS301で、前回の処理で得られた有効なノード点の始点Nsが壁面モデルの1番目のノード点N1よりも大きいか否かを調べ、Ns=N1で1番目のノード点N1まで既に壁面が検出されているときにはステップS306へジャンプし、Ns>N1のとき、ステップS302へ進んで手前側の方向に戻ってノード点Ns-iを設定し、ステップS303で壁面パターンを探索すると、その探索結果に従ってステップS304で壁面のX座標を確定する。
【0064】
次いで、ステップS304からステップS305へ進んで1番目のノード点に達したか否かを調べ、1番目のノード点N1に達していないときには、ステップS302〜S304を繰り返してノード点N1までの壁面位置の探索を続け、1番目のノード点N1までの処理を終えると、ステップS306へ進んで有効なノード点の終点Neが壁面モデルの最後のノード点Nse(例えば、壁面モデルを41個のノード点で構成する場合には、ノード点N41)より小さいか否かを調べる。
【0065】
その結果、Ne=Nseで最後のノード点まで既に壁面が検出されているときには、ステップS306からステップS311へジャンプし、Ne<Nseのとき、ステップS306からステップS307へ進んで終点Ne以降のノード点Ne+iを順次設定し、ステップS308で壁面のパターンマッチングを行うと、そのマッチング結果に従ってステップS309で壁面のX座標を確定する。そして、ステップS310で、最後のノード点Nseに達したか否かを調べて最後のノード点Nseまでの壁面位置のマッチングを続け、最後のノード点Nseまでの処理を終えると、ステップS311へ進む。
【0066】
以上のステップS302〜S304、及び、ステップS307〜S309におけるノード点の設定、壁面パターンのマッチング、探索結果に応じた壁面のX座標の確定は、前述の壁面検出処理のプログラムにおけるステップS203,S204,S205の処理と同様である。
【0067】
ステップS311以降の処理は、1番目のノード点N1から最後のノード点Nseまでの各ノード点の位置(X座標)を修正する処理であり、まず、ステップS311で最初のノード点N1のデータをセットし、ステップS312へ進む。ステップS312〜ステップS321までの処理は、ステップS322で順次ノード点のデータがセットされることにより、最初のノード点N1から最後のノード点Nseまで繰り返し実行される。
【0068】
まず、ステップS312でノード点Niにおける壁面を検索し、ステップS313で、パターンマッチングにより壁面が検出されているか否かを調べる。そして、パターンマッチングにより壁面が検出されているとき、ステップS313からステップS314へ進んで読み出した壁面位置Xpwとノード点の位置Xniとの差が設定値以内(例えば、±1m以内)であるか否かを調べ、差が設定値以内であるとき、ステップS315でノード点を壁面位置に移動し(Xni←Xpw)、差が設定値を超えているときには、ステップS316でノード点を壁面の方向に所定量(例えば、±0.3m程度)だけ移動する(Xni←Xni±0.3m)。
【0069】
一方、パターンマッチングにより壁面が検出されていないときには、上記ステップS313からステップS317へ分岐し、ノード点の位置Xniに対し、左側に存在する立体物のデータXpi(Xni<Xpi)の個数C0と、右側に存在する立体物のデータXpi(Xni>Xpi)の個数C1とをカウントし、ステップS318で、立体物のデータの個数が多く、立体物が片寄って存在する側にノード点を所定量(例えば、0.8m)移動する(Xni←Xni±0.8)。
【0070】
すなわち、ノード点の近くに壁面パターンが検出されない場合には、ノード点の左右方向で立体物が検出されている方向にノード点を所定量移動させることにより、ノード点の位置が壁面から大きく離れてしまった場合にもノード点の位置を壁面が存在する可能性のある方向に近づけることができる。
【0071】
以上のステップS315,S316,S318のいずれかにより、ノード点の位置を移動すると、次にステップS319へ進み、現在のノード点Niに対して1つ遠方側のノード点Ni+1と、現在のノード点Niに対して1つ近傍側のノード点Ni-1とを結ぶ直線の中点の位置(X座標)Xcを求め、ステップS320で、図18に示すように、現在のノード点Niと遠方側のノード点Ni+1とを結ぶ直線、及び、現在のノード点Niと近傍側のノード点Ni+1とを結ぶ直線の2本の直線があたかもバネで連結されており、真直になろうとするかのように、ノード点を中点の方向に移動する。この場合の移動量は、中点の位置Xcとノード点の位置Xniとの差の1/2〜1/5程度に留める。
【0072】
すなわち、パターンマッチング等で検出される壁面の位置には、データのバラツキ等の影響で凹凸が存在するが、多くの場合、実際に道路の境界を形成するガードレール等の壁面は滑らかにカーブしている。このため、上述のようなバネの作用を加えることで細かい凹凸を平滑化し、滑らかなカーブ形状を得ることができる。この場合、ノード点の全体の形状を平滑化する一般的な手法として最小二乗法等があるが、上述のバネ作用による手法は計算処理が簡素であり、処理速度を向上することができる。
【0073】
その後、ステップS321へ進んで最後のノード点Nseに達したか否かを調べ、最後のノード点Nseに達していないときには、ステップS322で次のノード点のデータをセットしてステップS312へ戻り、以上の処理を繰り返す。そして、最後のノード点Nseまでの処理が終了すると、ステップS321からステップS323へ進んですべてのノード点において移動量が判定値(例えば、±0.1m)以内になったか否かを調べる。
【0074】
そして、移動量が判定値を超えているノード点が1つでも存在するときには、ステップS311へ戻って1番目のノード点から最後のノード点まで以上の位置の修正処理を繰り返し、すべてのノード点の移動量が判定値以内となったとき、ステップS324で、ノード点の検出範囲の始点Ns及び終点Neを求めてプログラムを抜ける。これにより、部分的な誤検出等は、繰り返しの中で修正され、全体として最もふさわしい壁面の形状が得られる。尚、このプログラムも、左側の側壁グループについて実行された後、右側の側壁グループについて実行される。
【0075】
図19は、図9の元画像に対し、カーブした道路に沿った壁面を遠方まで捉えた検出結果を示し、X−Z平面上では、壁面モデルの修正結果は図20に示すようになる。この壁面モデルによるカーブした壁面の検出結果では、図13に示すような直線として側壁を捉える場合に比較し、例えば約2倍といった遠方まで壁面を検出することができる。
【0076】
また、以上の壁面モデルでは、様々な形状に対応することができ、ガードレールのみではなく、道路周辺の植え込み、住宅の塀等、様々な物体を連ねて道路の境界を構成する一連の立体物を壁面として検出することができる。従って、以上の壁面検出結果を用いることにより、白線が無い道路や雪道等の白線を認識できない道路においても、道路形状を認識することができる。
【0077】
【発明の効果】
以上説明したように本発明によれば、道路がカーブしている場合にも、道路の境界を構成する一連の立体物を壁面として検出することができ、この壁面検出結果を用いることで白線が無い道路や雪道等の白線を認識できない道路においても道路形状を認識することができ、車外状況を常に的確に把握することができる等優れた効果が得られる。
【図面の簡単な説明】
【図1】車外監視装置の全体構成図
【図2】車外監視装置の回路ブロック図
【図3】立体物・側壁グループ検出処理のフローチャート(その1)
【図4】立体物・側壁グループ検出処理のフローチャート(その2)
【図5】立体物・側壁グループ検出処理のフローチャート(その3)
【図6】壁面検出処理のフローチャート
【図7】壁面位置修正処理のフローチャート(その1)
【図8】壁面位置修正処理のフローチャート(その2)
【図9】車載のカメラで撮像した画像の例を示す説明図
【図10】距離画像の例を示す説明図
【図11】区分毎に検出した立体物の位置を示す説明図
【図12】側壁の検出結果を示す説明図
【図13】側壁の検出結果をX−Z平面で示した説明図
【図14】壁面モデルの説明図
【図15】壁面パターンの探索法を示す説明図
【図16】重み係数パターンを示す説明図
【図17】一致度の計算結果を示す説明図
【図18】ノード点の連結を示す説明図
【図19】壁面の検出結果を示す説明図
【図20】壁面の検出結果をX−Z平面で示した説明図
【符号の説明】
1 …車外監視装置
10a,10b…CCDカメラ
20…イメージプロセッサ
30…認識処理用コンピュータ
Ni …ノード点
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an out-of-vehicle monitoring device that recognizes an out-of-vehicle situation by processing an image obtained by imaging an object outside the vehicle, and more particularly to an out-of-vehicle monitoring device that detects a side wall as a continuous three-dimensional object that becomes a road boundary such as a guardrail. .
[0002]
[Prior art]
These days, TV cameras and laser radars are installed in automobiles to detect vehicles and obstacles ahead, determine the risk of collision with them, issue warnings to the driver, and automatically activate the brakes. Development of technologies related to ASV (Advanced Safety Vehicle) such as stopping and stopping, or automatically increasing or decreasing the traveling speed to keep the distance between the vehicle and the preceding vehicle safe Yes.
[0003]
As a technique for detecting a front object from a TV camera image, there is a technique disclosed in Japanese Patent Laid-Open No. 5-265547 previously filed by the present applicant. In this technique, two stereos mounted on the left and right sides of the vehicle are used. A camera image is converted into a distance image, the distance image is divided into grid-like regions at predetermined intervals, and a three-dimensional object is detected for each division. In addition, the present applicant similarly extracts a solid object data for each category, processes the data by Hough transform, and detects a solid object (side wall) along a road such as a guardrail. This is proposed in Kaihei 6-266828.
[0004]
[Patent Document 1]
JP-A-5-265547
[0005]
[Patent Document 2]
JP-A-6-266828
[0006]
[Problems to be solved by the invention]
However, in the conventional technology, since the data of the three-dimensional object is processed by Hough transform etc., the guardrail along the curved road only recognizes the part in a relatively close range as a straight line, and recognizes it far away It was difficult to do.
[0007]
The present invention has been made in view of the above circumstances, and an object thereof is to provide an out-of-vehicle monitoring device capable of detecting a series of three-dimensional objects constituting a road boundary as a wall surface even when the road is curved. It is said.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, a first vehicle exterior monitoring device according to the present invention is a wall surface classified as a wall surface constituting a road boundary in a vehicle exterior monitoring device that detects the position of a three-dimensional object outside the vehicle and recognizes the situation outside the vehicle. Means for extracting a position data group, means for sequentially setting a plurality of node points representing the wall surface shape based on the previously set node points, and the wall surface position data group in the predetermined area including the set node points. A means for specifying the node point based on the wall surface position obtained by performing matching processing with the wall surface pattern on the plurality of nodes by sequentially setting the node point and specifying the node point based on the wall surface position. And a means for forming a wall surface model representing the wall surface shape by points.
[0009]
The second vehicle exterior monitoring device according to the present invention is classified into the wall surfaces constituting the road boundary in the vehicle exterior monitoring device that detects the position of the solid object outside the vehicle and sets the position of the solid object indicating the road boundary as the wall surface position. For the plurality of three-dimensional objects classified into the wall surface position data group and the plurality of three-dimensional objects classified as the wall surface position data group, the position that is most similar to the wall pattern that is preset with the three-dimensional object is set as the wall surface position. And means for setting.
[0010]
That is, when the first exterior monitoring device of the present invention extracts a wall surface position data group classified as a wall surface constituting a road boundary, a plurality of node points representing the wall surface shape are sequentially set based on the previously set node points. Then, the node point is specified based on the wall surface position obtained by performing the matching process with the wall surface pattern on the wall surface position data group in the predetermined area including the set node point. Then, by sequentially setting the node points and specifying the node points based on the wall surface position, a wall surface model representing the wall surface shape is formed by the plurality of node points.
[0011]
At that time, the degree of coincidence is evaluated by the sum of the weights corresponding to the deviation between the X coordinate of each wall surface position data and the pattern center X coordinate of the wall surface pattern, and the wall surface pattern is moved in the X coordinate direction with respect to the wall surface position data group. It is desirable to specify the position of the pattern center when the degree of coincidence becomes maximum as a node point, and the coordinates of the specified node point specified in a direction asymptotic to a straight line connecting the preceding and following node points It is desirable to correct.
[0012]
Further, the second vehicle exterior monitoring device of the present invention extracts a wall surface position data group classified as a wall surface constituting a road boundary, and a plurality of solid objects classified into the wall surface position data group The position most similar to the wall surface pattern set in advance is set as the wall surface position.
[0013]
At that time, a wall pattern matching process is applied to the three-dimensional objects that make up the wall surface position data group within the predetermined area, and multiple wall surface positions are set by sequentially setting the areas and performing the matching process for each area. It is desirable to do. As the wall surface pattern, a pattern having a vertical axis with a weighting factor set on one side relatively high with respect to the pattern center point and set on the other side relatively low in the horizontal axis direction of the wall surface pattern is adopted. It is desirable.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. 1 to 20 relate to an embodiment of the present invention, FIG. 1 is an overall configuration diagram of the outside monitoring apparatus, FIG. 2 is a circuit block diagram of the outside monitoring apparatus, and FIGS. 3 to 5 are three-dimensional object / side wall group detections. 6 is a flowchart of the wall surface detection process, FIGS. 7 and 8 are flowcharts of the wall surface position correction process, FIG. 9 is an explanatory diagram illustrating an example of an image captured by an in-vehicle camera, and FIG. 10 is an example of a distance image. FIG. 11 is an explanatory diagram showing the position of the three-dimensional object detected for each section, FIG. 12 is an explanatory diagram showing the detection result of the side wall, and FIG. 13 is an explanation showing the detection result of the side wall in the XZ plane. FIG. 14 is an explanatory diagram of a wall surface model, FIG. 15 is an explanatory diagram showing a method for searching for a wall surface pattern, FIG. 16 is an explanatory diagram showing a weighting coefficient pattern, FIG. 17 is an explanatory diagram showing a calculation result of coincidence, FIG. Is an explanatory diagram showing the connection of node points, FIG. 19 is a wall Explanatory view showing a detection result of FIG. 20 is an explanatory view showing the detection result of the wall in the X-Z plane.
[0015]
In FIG. 1, reference numeral 1 denotes a vehicle such as an automobile, and the vehicle 1 is mounted with an out-of-vehicle monitoring device 2 that images an object outside the vehicle and recognizes and monitors the situation outside the vehicle from the captured image. The vehicle exterior monitoring device 2 includes a stereo optical system 10 for imaging an object outside the vehicle from different positions, an image processor 20 that processes an image captured by the stereo optical system 10 and calculates three-dimensional distance distribution information, The distance information from the image processor 20 is input, the road shape and the three-dimensional position of a plurality of three-dimensional objects are detected at high speed from the distance information, and the preceding vehicle and the obstacle are identified based on the detection result, and the collision occurs. The computer includes a recognition processing computer 30 that performs alarm judgment processing and the like.
[0016]
The recognition processing computer 30 is connected to sensors for detecting the current traveling state of the vehicle such as the vehicle speed sensor 4 and the steering angle sensor 5, and the recognized object becomes an obstacle of the host vehicle 1. In this case, a warning is given to the driver by displaying it on the display 9 installed in front of the driver, and automatic collision avoidance control of the vehicle body can be performed by connecting an external device that controls actuators (not shown). Yes.
[0017]
The stereo optical system 10 is composed of a pair of left and right CCD cameras 10a and 10b using a solid-state imaging device such as a charge coupled device (CCD), for example. In the image processor 20, a pair of images captured by the CCD cameras 10a and 10b. A correlation between images is obtained, and a distance is obtained from the parallax with respect to the same object by a triangulation principle. A three-dimensional distance distribution over the entire image is calculated by a so-called stereo method.
[0018]
The recognition processing computer 30 reads the distance distribution information from the image processor 20 to detect the road shape and the three-dimensional position of a plurality of three-dimensional objects (vehicles, obstacles, etc.) at high speed, and collides with or touches the detected object. The possibility is judged based on the traveling state of the host vehicle detected by the vehicle speed sensor 4, the steering angle sensor 5, etc., and the result is displayed on the display 9 to notify the driver.
[0019]
In detail, the image processor 20 and the recognition processing computer 30 have a hardware configuration shown in FIG. The image processor 20 searches a portion of the pair of stereo images captured by the CCD cameras 10a and 10b for the same object in every predetermined small area, and obtains the amount of displacement of the corresponding position. And a distance image memory 20b for storing the distance distribution information output from the distance detection circuit 20a.
[0020]
The distance distribution information output from the distance detection circuit 20a is a pseudo image (distance image) shaped like an image, and is an image taken with the two left and right CCD cameras 11a and 11b, for example, as shown in FIG. When such an image (FIG. 9 schematically shows an image captured by one camera) is processed by the distance detection circuit 20a, a distance image as shown in FIG. 10 is obtained.
[0021]
In the example of the distance image shown in FIG. 10, the image size is 600 pixels wide × 200 pixels long, and the distance data has a white dot portion in the drawing, which is among the pixels of the image of FIG. This is a portion where a change in brightness between pixels adjacent in the left-right direction is large. The distance detection circuit 20a treats this distance image as an image composed of blocks of horizontal 150 × vertical 50 with a small area of 4 × 4 pixels, and calculates a distance (number of pixel shifts) for each block.
[0022]
On the other hand, the recognition processing computer 30 detects a microprocessor 30a mainly for detecting road shapes and the like, and a microprocessor 30b mainly for detecting individual solid objects based on the detected road shapes. A multi-microprocessor in which a preceding vehicle and an obstacle are identified based on the position information of a three-dimensional object, and a microprocessor 30c, which mainly processes collision and contact risk determination, is connected in parallel via a system bus 31. System configuration.
[0023]
The system bus 31 includes an interface circuit 32 connected to the distance image memory 20b, a ROM 33 for storing a control program, a RAM 34 for storing various parameters during calculation processing, and an output for storing parameters of processing results. Memory 35, a display controller (DISP. CONT.) 36 for controlling the display (DISP) 9, and an I / O interface circuit 37 for inputting signals from the vehicle speed sensor 4, the steering angle sensor 5, and the like. It is connected.
[0024]
The recognition processing computer 30 treats the coordinate system on the distance image in units of pixels as shown in FIG. 9 with the lower left corner as the origin, the horizontal direction as the i coordinate axis, and the vertical direction as the j coordinate axis, and the number of pixel shifts. A point (i, j, dp) on the distance image as dp is converted into a coordinate system in the real space, and processing such as road shape recognition and solid object position detection is performed.
[0025]
That is, the three-dimensional coordinate system of the real space is a coordinate system fixed to the own vehicle (vehicle 1), the X axis is the right side of the traveling direction of the vehicle 1, the Y axis is above the vehicle 1, and the Z axis is the vehicle 1 Assuming that the front and the origin are the road surface directly below the center of the two CCD cameras 10a and 10b, the XZ plane (Y = 0) coincides with the road surface when the road is flat. By the equations (1) to (3), the point (i, j, dp) on the distance image can be coordinate-converted to the point (x, y, z) on the real space.
x = CD / 2 + z · PW · (i-IV) (1)
y = CH + Z · PW · (j−JV) (2)
z = KS / dp (3)
However, CD: interval between CCD cameras 10a and 10b
PW: Viewing angle per pixel
CH: Mounting height of the CCD cameras 10a and 10b
IV, JV: Coordinates (pixels) on the image of the infinity point directly in front of the vehicle 1
KS: Distance coefficient (KS = CD / PW)
The equation for calculating the point (i, j, dp) on the image from the point (x, y, z) in the real space is obtained by modifying the above equations (1) to (3) as follows. .
[0026]
i = (x−CD / 2) / (z · PW) + IV (4)
j = (y−CH) / (z · PW) + JV (5)
dp = KS / z (6)
[0027]
Next, each process in the recognition processing computer 30 will be described. First, in the road detection process by the microprocessor 30a, the three-dimensional position information from the distance image stored in the distance image memory 20b is used, and the built-in road model parameters are corrected to match the actual road shape. Change to recognize the road shape.
[0028]
The above road model divides the lane of the road up to the recognition target range into a plurality of sections according to the set distance and approximates the left and right white lines and guard rails etc. with a three-dimensional linear expression for each section into a broken line shape These are connected, and the horizontal linear parameters a and b and the vertical linear parameters c and d in the real space coordinate system are obtained, and the horizontal straight line shown in the following formula (7) is obtained. The vertical straight line equation shown in the following equation (8) is obtained.
x = a · z + b (7)
y = c · z + d (8)
[0029]
Further, in the three-dimensional object detection processing by the microprocessor 30b, the distance image is divided into a grid pattern at predetermined intervals, the three-dimensional object data is extracted for each of the sections, a histogram is created, and each section is represented from this histogram. Find the location of a solid object and its distance. Next, the distance for each section is sequentially compared from the left to the right of the image, and the distances in the front-rear direction (Z-axis direction) and the horizontal direction (X-axis direction) are gathered together as a group, For each group, the data arrangement direction is checked, and the group is divided at a portion where the direction greatly changes.
[0030]
Then, each group is classified into a three-dimensional object or a side wall from the arrangement direction (inclination with respect to the Z-axis) of the distance data as a whole group. By calculating parameters such as the X coordinate of the right end, and by calculating parameters such as the alignment direction (tilt with the Z axis) and the position of the front and rear ends (Z, X coordinates) for the group classified as the side wall, Processing such as detection of a structure along the road, such as a rear part or a side part of a three-dimensional object, a guardrail, that is, a side wall is performed.
[0031]
The generation of the distance image, the process of detecting the road shape from the distance image, and the collision / contact determination process are disclosed in Japanese Patent Laid-Open Nos. 5-265547 and 6-266828 previously filed by the present applicant. Is described in detail.
[0032]
In this case, a side wall such as a guardrail can recognize a curved wall surface along the road to a distant place even when the road is curved. Hereinafter, processing related to wall surface detection by the microprocessor 30b will be described with reference to the flowcharts shown in FIGS.
[0033]
FIGS. 3 to 5 are programs for processing the distance data obtained from the distance image to classify the object into a three-dimensional object group and a side wall group. The existence of a three-dimensional object and its distance are calculated for each section divided in a grid pattern. That is, in step S101, the distance image is divided into a grid pattern at a predetermined interval (for example, an interval of 8 to 20 pixels), and in step S102, three-dimensional object data is extracted for each division, and the detection distance is calculated. Read the data of the first section.
[0034]
Next, when the process proceeds to step S103 and the first data in the section is set, the three-dimensional position (x, y, z) of the subject is obtained by the above-described equations (1) to (3) in step S104, and in step S105. Then, the height yr of the road surface at the distance z is calculated using the linear equations (7) and (8) of the road shape described above. When the road shape cannot be recognized at first such as a road without a white line, the road surface height yr is set on the assumption that the road surface is horizontal to the vehicle 1.
[0035]
Next, the process proceeds to step S106, and data above the road surface is extracted as three-dimensional object data based on the height H of the subject from the road surface calculated by the following equation (9). In this case, a subject whose height H is about 0.1 m or less is considered to be a white line, dirt, shadow, or the like on the road, so the data of this subject is rejected. An object above the height of the host vehicle 1 is also considered to be a pedestrian bridge, a sign, etc., so it is rejected and only the data estimated as a three-dimensional object on the road is selected.
H = y-yr (9)
[0036]
Thereafter, the process proceeds to step S107 to check whether or not the data is the final data. If the final data is not the final data, the next data in the section is set in step S108, and the process returns to the above-described step S104. Extract the data in When the processing of the final data is completed within one section, the process proceeds from step S107 to step S109, and the number of data included in the section of the preset distance z is counted with respect to the extracted three-dimensional object data. Create a histogram with z as the horizontal axis.
[0037]
In the subsequent step S110, a section where the frequency of the histogram is equal to or greater than the determination value and the maximum value is detected, and if there is a corresponding section, in step S111, it is determined that a three-dimensional object exists in the section, and the three-dimensional object is reached. Detect the distance. In the above histogram, there are some erroneously detected values in the distance data in the input distance image, and some data actually appears at positions where no object is present. However, when there is an object of a certain size, the frequency at that position shows a large value, whereas when there is no object, the frequency generated only by erroneous distance data becomes a small value.
[0038]
Therefore, if there is a section in which the frequency of the created histogram is greater than or equal to the preset judgment value and takes the maximum value, it is determined that an object exists in that section. If the maximum value of the frequency is less than the judgment value, the object exists. If the image data contains some noise, the object can be detected while minimizing the influence of the noise.
[0039]
Thereafter, the process proceeds from step S111 to step S112 to check whether the final section has been reached. Then, when the final section has not been reached, the process proceeds from step S112 to step S113 and the next section of data is read, and the process returns to the above-described step S103 to extract data above the road surface, create a histogram, and The solid object is detected and the distance is calculated in each section. The above process is repeated, and when the final section is reached, the process proceeds from step S112 to step S114.
[0040]
FIG. 11 shows the positions of the three-dimensional objects detected for each section from the original image of FIG. 9, and the distance data of these three-dimensional objects is divided into groups that are close in distance by the processing of step S114 to step S120. . In this process, the detection distance of the three-dimensional object in each section is examined, and if the difference in the detection distance to the three-dimensional object in the adjacent section is equal to or less than the judgment value, it is regarded as the same three-dimensional object, while the judgment value is exceeded Are grouped as if they were separate solid objects.
[0041]
Therefore, in step S114, first, the first section (for example, the left end) is examined. If a three-dimensional object is detected, the distance data is read, and this section R1 is classified into group G1 and distance Z1. Next, proceeding to step S115, the right-side section R2 is examined, and if a three-dimensional object is not detected, the group G1 exists in and near the section R1, and the distance is determined to be Z1, If a three-dimensional object is detected in the section R2 and the detected distance is Z2, the difference between the distance Z1 in the section R1 and the distance Z2 in the right adjacent section R2 is calculated.
[0042]
Thereafter, the process proceeds to step S116 to check whether or not the difference in distance from the right adjacent section is equal to or smaller than the determination value. When the distance difference is equal to or smaller than the determination value and is approaching each other, in step S117, it is detected in the section R2. The determined three-dimensional object is determined to belong to the previously detected group G1, and the same group is labeled. The distance is set as the average value of Z1 and Z2, and the process proceeds to step S119.
[0043]
On the other hand, when the difference in distance from the right adjacent section exceeds the determination value, the process proceeds from step S116 to step S118, and the three-dimensional object detected in the section R2 is different from the group G1 detected previously. Determination is made to label the new group (group G2, distance Z2), and the process proceeds to step S119.
[0044]
In step S119, it is checked whether or not the final section has been reached. If the final section has not been reached, the distance of the next section is read in step S120, the process returns to step S115, and the area on the right is further checked. . When the final section is reached, the process proceeds from step S119 to step S121 and thereafter.
[0045]
In the above processing, for example, in the situation where the vehicle is parked beside the guard rail, the distance data of the guard rail and the distance data on the vehicle parked beside the guard rail are processed as the same group. May end up. Therefore, the arrangement direction of the distance data on the XZ plane is checked in the processing in the next steps S121 to S131, and the group is divided into a portion where the arrangement direction is parallel to the Z axis and a portion parallel to the X axis.
[0046]
In the process of dividing the group, in step S121, the data of the first group is read, and in step S122, the arrangement direction of each section in the group is calculated. In step S123, “object” and “side wall” are added to each section. Label. Specifically, assuming that the position of the leftmost section K1 in the group is Z1 and X1 and the positions of the rightmost sections K are Zp and Xp, two points of points X1 and Z1 and points Xp and Zp are obtained. An inclination A1 of the connecting straight line with respect to the Z axis is calculated, and the inclination A1 of the straight line is compared with a set value (for example, about 45 °). If the slope A1 of the straight line is equal to or less than the set value and the data sequence is substantially in the Z-axis direction, the section K1 is labeled “side wall”, the slope A1 of the straight line exceeds the set value, and the data sequence is In the case of a substantially X-axis direction, it is labeled “object”.
[0047]
The interval N between the divisions for labeling is about N = 2 to 4 divisions. This is because in N = 1, that is, in the right adjacent section, the arrangement direction greatly varies due to variations in the detection distance, and it is difficult to determine the division. By using the arrangement direction with a slightly separated section, , To stabilize the direction. Then, the labeling of the “side wall” or “object” is performed in order from the left end segment in the group to the N left segments from the right end, and each segment is labeled.
[0048]
As described above, when the labeling of each section is completed, the process proceeds from step S123 to step S124 to read the label of the leftmost section, and further, in step S125, the label of the next adjacent section is read. Next, the process proceeds to step S126, and it is checked whether the leftmost label is different from the label on the right. As a result, when the labels are the same, the process jumps from step S126 to step S128, and when the labels are different, the process proceeds from step S126 to step S127, and the section labeled "side wall" and the section labeled "object" Divide into another group and go to step S128. The position of the segment to be divided is on the right side by N / 2 segments where the label changes from “side wall” ← → “object”.
[0049]
In this case, in order to deal with the situation where the label partially changes due to variations in distance data, etc., the division is performed only when the same label is continuously arranged more than the judgment value (for example, three or more categories), If it is less than the judgment value, no division is performed.
[0050]
In step S128, it is checked whether or not it is the final division. If it is not the final division, the label of the next division is read in step S129, the flow returns to step S125, and the same processing is repeated. When the final section is reached, the process proceeds from step S128 to step S130 to check whether the final group has been reached. As a result, when the final group has not been reached, the data of the next group is read in step S131, and the process of dividing the group in the same manner is performed on the next group. This process is repeated, and when the final group is reached, the group division process is completed and the process proceeds from step S130 to step S132 and subsequent steps.
[0051]
The next steps S132 to S137 are processes for calculating the parameters of each group by classifying each divided group as a side wall or an object. When the first group data is read in step S132, In S133, an approximate straight line is obtained from the position (Xi, Zi) of each section in the group by the Hough transform or the least square method, and the inclination of the entire group is calculated.
[0052]
Next, proceeding to step S134, classifying the group having the inclination in the X-axis direction as an object and the group having the inclination in the Z-axis direction as side walls from the inclination of the entire group, and calculating parameters of each group in step S135. To do. This parameter is a parameter such as an average distance calculated from the distance data in the group and the X coordinate of the left end and the right end in a group classified as an object. In a group classified as a side wall, the alignment direction (Z Parameters such as the inclination with respect to the axis and the positions of the front and rear ends (Z, X coordinates). The group classification may be performed based on the label of “side wall” or “object” of each section attached in the group division process described above.
[0053]
Then, the process proceeds from step S135 to step S136 to check whether or not the final group has been reached. If the final group is not reached, the next group data is read in step S137 and the process returns to step S133. , Exit the program.
[0054]
In the above processing, the detection result of the side wall as shown in FIG. 12 is obtained, and when the distance for each section is shown on the XZ plane, it is regarded as a straight side wall group as shown in FIG. The part along is not recognized. Therefore, in the wall surface detection processing program of FIG. 6, the wall surface along the curved road is recognized using the data of the side wall group obtained as described above.
[0055]
In this program, first, in step S201, a group that is estimated to detect a wall surface such as a guard rail is selected from the group of side walls by examining the positional relationship with the host vehicle (one or less each for left and right), After step S202, the wall surface is searched and expanded using the wall surface model by using the data (position and direction) of the selected side wall group as a clue.
[0056]
As shown in FIG. 14, this wall surface model expresses the contour of a wall surface by connecting a predetermined range in front of the host vehicle with node points provided for each set interval. These 41 node points form a contour, and each node point is managed by being sequentially numbered from the own vehicle side. The Z coordinate of each node point is fixed, and the X coordinate is determined by a procedure described later.
[0057]
Therefore, first, in step S202, the corresponding node point Ns is obtained from the Z coordinate of the end point on the near side of the side wall group selected in step S201, and the X coordinate of this node point Ns is set in accordance with the position of the side wall. Then, the process proceeds to step S203, and the position (X coordinate) of the next node point Ns + i is set. When the node point Ns + i is set to i = 1 and the node point Ns and the adjacent node point Ns + 1 are set, the node point Ns + i is set to a position along the inclination direction of the side wall group. When setting the second and subsequent node points, the positions are along the direction determined by the two previous node points.
[0058]
Next, the process proceeds to step S204, and as shown in FIG. 15, the position of the wall surface is determined by pattern matching within a predetermined range around the coordinates (Xns + i, Zns + i) of the node point Ns + i set in step S203. Explore. The search range is, for example, about Xns + i ± 3 to 5 m in the X direction and about Zns + i ± 1 m in the Z direction, and the three-dimensional object Pi for each section within the search range is extracted.
[0059]
Then, wall surface pattern matching is performed on the three-dimensional object Pi within the search range. FIG. 16 shows an example of a wall surface pattern (weight coefficient pattern) used in this pattern matching (FIG. 16 shows a pattern corresponding to the left wall surface, and a pattern symmetrical to the left side is used for detecting the right wall surface. Use). The horizontal axis of the wall pattern indicates the distance in the X coordinate direction, and the vertical axis indicates the weighting coefficient. A position with the highest matching degree is searched while shifting the center point of the wall pattern in the X coordinate direction within the search range. Specifically, the weight Wi corresponding to the deviation in the X coordinate direction from the center of the wall pattern of each solid object Pi is obtained based on the wall pattern shown in FIG. 16, and the sum of the weights Wi corresponding to each solid object Pi is obtained. Calculated as the matching degree F. The center point position of the wall pattern when the matching degree F is maximized is recognized as the wall surface position. However, when the maximum value of the matching degree F is equal to or less than the determination value, it is determined that there is no wall surface.
[0060]
When the processing in step S204 is completed, the process proceeds to step S205, and the X coordinate (Xpw) of the center point of the wall surface pattern when the matching degree F is maximized is set as the X coordinate of the wall surface position corresponding to the node point Ns + i. Determine.
[0061]
Then, the process proceeds to step S206 to check whether or not it is the last node point in the selected side wall group, and when it is not the last node point, the process returns to step S203 to set the next node point and repeat the same processing. When the last node point is reached, the process proceeds to step S207, and among the node points determined in steps S202 to S205, the node number having the smallest number (the one closest to the host vehicle) and the node number having the largest number (the most own Searching for objects far from the vehicle), and exiting the program with these as the start point Ns and end point Ne of the detection range. This program is executed for the left side wall group and then for the right side wall group. In the example of FIG. 14, the wall surface is detected from the ninth node to the twenty-sixth node on the right side of the host vehicle, and each node point having the ninth node as the start point Ns and the twenty-sixth node as the end point Ne is managed as an effective node point. .
[0062]
The position of the wall surface detected by the above processing is further corrected by the program shown in FIGS. 7 and 8 using the new data of the side wall group obtained by the program of FIGS.
[0063]
In this wall surface position correction program, in step S301, it is checked whether or not the effective node point starting point Ns obtained in the previous processing is larger than the first node point N1 of the wall surface model. When the wall surface has already been detected up to the first node point N1, the process jumps to step S306, and when Ns> N1, the process proceeds to step S302 to return to the near side to set the node point Ns-i, and in step S303 When the wall surface pattern is searched, the X coordinate of the wall surface is determined in step S304 according to the search result.
[0064]
Next, the process proceeds from step S304 to step S305 to check whether or not the first node point has been reached. If the first node point N1 has not been reached, steps S302 to S304 are repeated to determine the wall surface position up to the node point N1. When the search to the first node point N1 is completed, the process proceeds to step S306, where the effective node point end point Ne is the last node point Nse of the wall surface model (for example, the wall surface model is converted into 41 node points). In the case of comprising, it is checked whether it is smaller than the node point N41).
[0065]
As a result, when the wall surface has already been detected up to the last node point with Ne = Nse, the process jumps from step S306 to step S311. When Ne <Nse, the process proceeds from step S306 to step S307, and the node points after the end point Ne. When Ne + i is sequentially set and wall surface pattern matching is performed in step S308, the X coordinate of the wall surface is determined in step S309 according to the matching result. Then, in step S310, it is checked whether or not the last node point Nse has been reached, the matching of the wall surface position to the last node point Nse is continued, and when the processing up to the last node point Nse is completed, the process proceeds to step S311. .
[0066]
The above-described steps S302 to S304, and node point setting, wall surface pattern matching, and determination of the wall surface X coordinate in accordance with the search result in steps S307 to S309 are performed in steps S203, S204, This is the same as the processing of S205.
[0067]
The processing after step S311 is processing for correcting the position (X coordinate) of each node point from the first node point N1 to the last node point Nse. First, in step S311, the data of the first node point N1 is obtained. Set, and proceed to step S312. The processing from step S312 to step S321 is repeatedly executed from the first node point N1 to the last node point Nse by sequentially setting node point data in step S322.
[0068]
First, in step S312, a wall surface at the node point Ni is searched, and in step S313, it is checked whether or not a wall surface is detected by pattern matching. When the wall surface is detected by pattern matching, the process proceeds from step S313 to step S314, and the difference between the wall surface position Xpw read out and the node point position Xni is within a set value (for example, within ± 1 m). If the difference is within the set value, the node point is moved to the wall surface position in step S315 (Xni ← Xpw). If the difference exceeds the set value, the node point is moved in the direction of the wall surface in step S316. It moves by a predetermined amount (for example, about ± 0.3 m) (Xni ← Xni ± 0.3 m).
[0069]
On the other hand, when the wall surface is not detected by pattern matching, the process branches from step S313 to step S317, and the number C0 of the solid object data Xpi (Xni <Xpi) existing on the left side relative to the node point position Xni, The number C1 of the three-dimensional object data Xpi (Xni> Xpi) existing on the right side is counted, and in step S318, the number of three-dimensional object data is large and the node point is set to a predetermined amount (on the side where the three-dimensional object is offset. For example, it moves 0.8 m) (Xni ← Xni ± 0.8).
[0070]
That is, when a wall pattern is not detected near the node point, the position of the node point is greatly separated from the wall surface by moving the node point by a predetermined amount in the direction in which the three-dimensional object is detected in the left-right direction of the node point. Even in the case of failure, the position of the node point can be brought closer to the direction in which the wall surface may exist.
[0071]
When the position of the node point is moved by any one of the above steps S315, S316, S318, the process proceeds to step S319, and the node point Ni + 1, which is one distant from the current node point Ni, The position (X coordinate) Xc of the midpoint of the straight line connecting the one neighboring node point Ni-1 with respect to the node point Ni is obtained, and in step S320, as shown in FIG. 18, the current node point Ni and Two straight lines connecting the far-side node point Ni + 1 and the straight line connecting the current node point Ni and the nearby node point Ni + 1 are connected by springs, and are straight. The node point is moved in the direction of the midpoint as if trying to do so. The amount of movement in this case is limited to about 1/2 to 1/5 of the difference between the midpoint position Xc and the node point position Xni.
[0072]
In other words, there are irregularities in the position of the wall surface detected by pattern matching etc. due to the influence of data variation, etc., but in many cases the wall surface of the guard rail or the like that actually forms the road boundary curves smoothly. Yes. For this reason, the fine unevenness | corrugation can be smoothed by adding the effect | action of the above springs, and a smooth curve shape can be obtained. In this case, as a general method for smoothing the entire shape of the node point, there is a least square method or the like. However, the above-described method using a spring action has a simple calculation process and can improve the processing speed.
[0073]
Thereafter, the process proceeds to step S321 to check whether or not the final node point Nse has been reached. If the final node point Nse has not been reached, the data of the next node point is set in step S322 and the process returns to step S312. The above processing is repeated. When the processing up to the last node point Nse is completed, the process proceeds from step S321 to step S323, and it is checked whether or not the movement amount is within a determination value (for example, ± 0.1 m) at all the node points.
[0074]
If there is even one node point whose movement amount exceeds the judgment value, the process returns to step S311 and repeats the correction processing of the above positions from the first node point to the last node point. In step S324, the start point Ns and end point Ne of the node point detection range are obtained and the program exits. Thereby, partial misdetection etc. are corrected in repetition, and the shape of the most suitable wall surface as a whole is obtained. This program is also executed for the right side wall group after being executed for the left side wall group.
[0075]
FIG. 19 shows a detection result obtained by capturing a wall surface along a curved road far away from the original image of FIG. 9, and on the XZ plane, the correction result of the wall model is as shown in FIG. In the detection result of the curved wall surface by this wall surface model, it is possible to detect the wall surface as far as, for example, about twice as far as when the side wall is captured as a straight line as shown in FIG.
[0076]
In addition, the above wall model can support various shapes, and not only a guardrail, but also a series of three-dimensional objects that constitute the boundary of the road by connecting various objects such as planting around the road and housing fences. It can be detected as a wall surface. Therefore, by using the above wall surface detection results, the road shape can be recognized even on roads that do not have white lines or roads that cannot recognize white lines such as snowy roads.
[0077]
【The invention's effect】
As described above, according to the present invention, even when the road is curved, a series of three-dimensional objects constituting the boundary of the road can be detected as a wall surface, and a white line is generated by using this wall surface detection result. The road shape can be recognized even on a road that cannot recognize a white line such as a road without snow or a snowy road, and an excellent effect such as being able to accurately grasp the situation outside the vehicle can be obtained.
[Brief description of the drawings]
FIG. 1 is an overall configuration diagram of a vehicle exterior monitoring device
FIG. 2 is a circuit block diagram of the outside monitoring device.
FIG. 3 is a flowchart of solid object / side wall group detection processing (part 1).
FIG. 4 is a flowchart of solid object / side wall group detection processing (part 2).
FIG. 5 is a flowchart of a three-dimensional object / side wall group detection process (part 3);
FIG. 6 is a flowchart of wall surface detection processing.
FIG. 7 is a flowchart of wall surface position correction processing (part 1).
FIG. 8 is a flowchart of wall surface position correction processing (part 2).
FIG. 9 is an explanatory diagram illustrating an example of an image captured by an in-vehicle camera.
FIG. 10 is an explanatory diagram illustrating an example of a distance image.
FIG. 11 is an explanatory diagram showing the position of a three-dimensional object detected for each section
FIG. 12 is an explanatory view showing the detection result of the side wall.
FIG. 13 is an explanatory diagram showing the detection result of the side wall in the XZ plane.
FIG. 14 is an explanatory diagram of a wall surface model
FIG. 15 is an explanatory diagram showing a wall pattern search method
FIG. 16 is an explanatory diagram showing a weighting coefficient pattern.
FIG. 17 is an explanatory diagram showing the calculation result of the degree of coincidence
FIG. 18 is an explanatory diagram showing connection of node points;
FIG. 19 is an explanatory diagram showing wall surface detection results
FIG. 20 is an explanatory diagram showing wall surface detection results in the XZ plane.
[Explanation of symbols]
1 ... Outside monitoring device
10a, 10b ... CCD camera
20 Image processor
30 ... Recognition processing computer
Ni ... Node point

Claims (6)

車外の立体物の位置を検出して車外の状況を認識する車外監視装置において、
道路境界を構成する壁面に分類される壁面位置データ群を抽出する手段と、
壁面形状を表す複数のノード点を先に設定したノード点に基づき順次設定する手段と、
上記設定されたノード点を含む所定領域内の上記壁面位置データ群に対して壁面パターンとのマッチング処理を施すことにより求めた壁面位置に基づき上記ノード点を特定する手段と、
上記ノード点の設定及び壁面位置に基づくノード点の特定を順次施すことにより、複数のノード点により壁面形状を表す壁面モデルを形成する手段とを備えたことを特徴とする車外監視装置。
In a vehicle outside monitoring device that detects the position of a three-dimensional object outside the vehicle and recognizes the situation outside the vehicle,
Means for extracting a wall surface position data group classified into wall surfaces constituting a road boundary;
Means for sequentially setting a plurality of node points representing the wall shape based on the previously set node points;
Means for identifying the node point based on a wall surface position obtained by performing a matching process with a wall surface pattern on the wall surface position data group in a predetermined region including the set node point;
A vehicle exterior monitoring apparatus comprising: means for forming a wall surface model representing a wall surface shape by a plurality of node points by sequentially setting the node points and specifying the node points based on the wall surface position.
上記ノード点を特定する手段は、各壁面位置データのX座標と上記壁面パターンのパターン中心のX座標との偏差に対応する重みの総和により一致度を評価し、上記壁面パターンを上記壁面位置データ群に対してX座標方向に移動させて上記一致度が最大になったときのパターン中心の位置を上記ノード点として特定することを特徴とする請求項1記載の車外監視装置。The means for specifying the node point evaluates the degree of coincidence based on a sum of weights corresponding to a deviation between the X coordinate of each wall surface position data and the X coordinate of the pattern center of the wall surface pattern, and the wall surface pattern is determined as the wall surface position data. 2. The out-of-vehicle monitoring apparatus according to claim 1, wherein the position of the pattern center when the coincidence is maximized by moving the group in the X coordinate direction is specified as the node point. 上記壁面モデルを形成する手段は、特定された所定ノード点の座標を、その前後のノード点を結ぶ直線に漸近する方向に修正することを特徴とする請求項1又は2記載の車外監視装置。The vehicle exterior monitoring device according to claim 1 or 2, wherein the means for forming the wall surface model corrects the coordinates of the specified predetermined node point in a direction asymptotic to a straight line connecting the preceding and following node points. 車外の立体物の位置を検出して道路境界を示す立体物の位置を壁面位置として設定する車外監視装置において、
道路境界を構成する壁面に分類される壁面位置データ群を抽出する手段と、
上記壁面位置データ群に分類される複数の立体物に対して、立体物との位置関係が予め設定している壁面パターンに最も類似する位置を壁面位置として設定する手段とを備えたことを特徴とする車外監視装置。
In the vehicle outside monitoring device that detects the position of a three-dimensional object outside the vehicle and sets the position of the three-dimensional object indicating the road boundary as the wall surface position,
Means for extracting a wall surface position data group classified into wall surfaces constituting a road boundary;
Means for setting, as a wall surface position, a position most similar to a wall surface pattern whose positional relationship with the three-dimensional object is preset for a plurality of three-dimensional objects classified into the wall surface position data group. A vehicle exterior monitoring device.
所定領域内における上記壁面位置データ群を構成する立体物に対して上記壁面パターンによるマッチング処理を適用し、順次領域を設定すると共に領域毎にマッチング処理を施すことにより、複数の壁面位置を設定することを特徴とする請求項4記載の車外監視装置。A plurality of wall surface positions are set by applying matching processing by the wall surface pattern to the three-dimensional objects constituting the wall surface position data group in a predetermined region, sequentially setting regions and performing matching processing for each region. The vehicle exterior monitoring device according to claim 4. 上記壁面パターンは、上記壁面パターンの横軸方向においてパターン中心点に対して一方の側を相対的に高く設定すると共に他方の側を相対的に低く設定した重み係数を縦軸に有するパターンであることを特徴とする請求項4記載の車外監視装置。The wall surface pattern is a pattern having, on the vertical axis, a weighting factor that is set such that one side is set relatively high with respect to the pattern center point in the horizontal axis direction of the wall surface pattern and the other side is set relatively low. The vehicle exterior monitoring device according to claim 4.
JP2002275530A 2002-09-20 2002-09-20 Outside monitoring device Expired - Lifetime JP3697435B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002275530A JP3697435B2 (en) 2002-09-20 2002-09-20 Outside monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002275530A JP3697435B2 (en) 2002-09-20 2002-09-20 Outside monitoring device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP01843898A Division JP3516856B2 (en) 1998-01-30 1998-01-30 Outside monitoring device

Publications (2)

Publication Number Publication Date
JP2003204546A JP2003204546A (en) 2003-07-18
JP3697435B2 true JP3697435B2 (en) 2005-09-21

Family

ID=27655692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002275530A Expired - Lifetime JP3697435B2 (en) 2002-09-20 2002-09-20 Outside monitoring device

Country Status (1)

Country Link
JP (1) JP3697435B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4956453B2 (en) * 2008-01-25 2012-06-20 富士重工業株式会社 Object detection device
JP5089545B2 (en) 2008-09-17 2012-12-05 日立オートモティブシステムズ株式会社 Road boundary detection and judgment device
CN101999084A (en) * 2009-05-25 2011-03-30 株式会社东芝 Radar system
JP5468305B2 (en) * 2009-05-25 2014-04-09 株式会社東芝 Radar equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3324821B2 (en) * 1993-03-12 2002-09-17 富士重工業株式会社 Vehicle exterior monitoring device
JP3522317B2 (en) * 1993-12-27 2004-04-26 富士重工業株式会社 Travel guide device for vehicles

Also Published As

Publication number Publication date
JP2003204546A (en) 2003-07-18

Similar Documents

Publication Publication Date Title
JP3516856B2 (en) Outside monitoring device
JP3349060B2 (en) Outside monitoring device
JP3337197B2 (en) Outside monitoring device
CN109844762B (en) In-vehicle image processing apparatus
CN106463064B (en) Object recognition device and vehicle travel control device using same
JP6344638B2 (en) Object detection apparatus, mobile device control system, and object detection program
EP3179445B1 (en) Outside environment recognition device for vehicles and vehicle behavior control device using same
JP5145585B2 (en) Target detection device
JP4082471B2 (en) Outside monitoring device
JPH1139596A (en) Outside monitoring device
JP4956374B2 (en) Object detection device and contact avoidance system
JP4638369B2 (en) Lane position detector
US20150149076A1 (en) Method for Determining a Course of a Traffic Lane for a Vehicle
JPH06266828A (en) Outside monitoring device for vehicle
JP6837262B2 (en) Travelable area detection device and travel support system
US8160300B2 (en) Pedestrian detecting apparatus
JP6722084B2 (en) Object detection device
CN109827516B (en) Method for measuring distance through wheel
JP2008117073A (en) Interruption vehicle detection device
JP2007280132A (en) Travel guide obstacle detector, and controller for vehicle
JP4721278B2 (en) Lane departure determination device, lane departure prevention device, and lane tracking support device
JP6548312B2 (en) Image processing device
JP2008059323A (en) Wall detection device
JP3697435B2 (en) Outside monitoring device
JP5746996B2 (en) Road environment recognition device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050704

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080708

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090708

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090708

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100708

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110708

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110708

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120708

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120708

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130708

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term