JP4509429B2 - Obstacle recognition method and recognition processing apparatus using a stereo camera - Google Patents

Obstacle recognition method and recognition processing apparatus using a stereo camera Download PDF

Info

Publication number
JP4509429B2
JP4509429B2 JP2001190823A JP2001190823A JP4509429B2 JP 4509429 B2 JP4509429 B2 JP 4509429B2 JP 2001190823 A JP2001190823 A JP 2001190823A JP 2001190823 A JP2001190823 A JP 2001190823A JP 4509429 B2 JP4509429 B2 JP 4509429B2
Authority
JP
Japan
Prior art keywords
image
search
camera
processing
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001190823A
Other languages
Japanese (ja)
Other versions
JP2003006620A (en
Inventor
和由 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidec Elesys Corp
Original Assignee
Nidec Elesys Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidec Elesys Corp filed Critical Nidec Elesys Corp
Priority to JP2001190823A priority Critical patent/JP4509429B2/en
Publication of JP2003006620A publication Critical patent/JP2003006620A/en
Application granted granted Critical
Publication of JP4509429B2 publication Critical patent/JP4509429B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Steering Control In Accordance With Driving Conditions (AREA)
  • Regulating Braking Force (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明はステレオカメラによる障害物の認識方法およびその認識処理装置に関し、特に左右のカメラの画角の違いを利用して歩行者画像等の探索を行うステレオカメラによる障害物の認識方法およびその認識処理装置に関する。
【0002】
【従来の技術】
一般に、車載カメラによる障害物の認識装置は、道路上の白線ばかりでなく、先行車両や歩行者などの障害物の認識が必要とされている。
【0003】
しかし、歩行者などの画像は白線画像と異なり、濃度変換処理、ノイズ除去フィルタ処理、微分処理、グルーピング処理、ラベリング処理などの前処理を経ても、得られる画像は複数のパーツに分かれてしまうケースが多い。しかも、この複数に分かれてしまった画像の相関関係は取りにくく、障害物の認識そのものが困難となっている。
【0004】
図6は従来の一例を説明するための単眼式車載カメラを用いた際の歩行者と自動車の位置関係を表わす模式図である。図6に示すように、従来の単眼式(シングル)車載カメラは、実空間の位置に実際に存在する歩行者20(例えば、10メートル:mの位置)などを撮影したとき、歩行者画像が頭部,胴体部,足部などの複数の部分に分かれるため、角度の関係からその歩行者20があたかも実空間の誤った位置21に存在していた(例えば、40mの位置)ものと認識してしまい易い。
【0005】
図7は図6に用いた単眼式車載カメラで得られる遠近画像図である。図7に示すように、この単眼式車載カメラは、前述した歩行者20などを撮影すると、遠近関係により、足部20Bが実際の位置、例えば、10mの位置にあるにも拘わらず、胴体部20Aが白線(太い実線)の位置、すなわち40mの位置にあるように錯覚させてしまう。要するに、この場合、前処理を経て抽出された画像は、頭部、胴部20A、脚部、足部20Bなどに分かれてしまうことが多い。
【0006】
さらに、図8は従来の他の例を説明するためのステレオ車載カメラを用いた際の歩行者と自動車の位置関係を表わす模式図である。図8に示すように、従来のステレオ車載カメラは、左カメラ視線から実空間で足部23の画像に対応する位置および左カメラ視線から実空間で胴部24の画像に対応する位置に存在する歩行者(例えば、10mの位置)などを撮影したとき、左カメラ視線から実空間で胴部24の画像が接地していると仮定したときの誤った位置25に存在している(例えば、40mの位置)ものと認識してしまい易い。
【0007】
図9は図8に用いたステレオ車載カメラの左カメラで得られる遠近画像図である。図9に示すように、左カメラで撮影すると、カメラ角度および遠近関係より、歩行者の足部(靴など)26の画像は、例えば10mの地点に存在し、また足部以外(胴など)27の画像は、例えば40mの白線の地点に存在していたものと認識してしまう。
【0008】
また、図10は図8に用いたステレオ車載カメラの右カメラで得られる遠近画像図である。図10に示すように、右カメラで撮影すると、カメラ角度および遠近関係より、右カメラで対応する足部28の画像は、例えば10mの地点に存在し、また歩行者の足部以外(胴など)29の画像は、例えば30mの地点に存在していたものと認識してしまう。しかも、前述した図8の誤った位置25に対応する個所には胴部30の画像は存在しない。
【0009】
このように、ステレオ車載カメラで得られる画像も、図9および図10に示すように、頭部、胴部(27,29)、脚部、足部(26,28)などに分かれてしまうことが多い。
【0010】
上述した障害物の認識装置は、これらのばらばらになった画像群をある一定の法則の基に連結し、歩行者などを障害物として認識しなければならない。かかる従来の技術では、その認識手法として、近傍にある画像をひとつの集合とみなし、それが目的の歩行者などの障害物画像であるか否かのパターンマッチングにより特定している。
【0011】
【発明が解決しようとする課題】
しかし、上述した従来の認識方法あるいは認識装置は、連結した画像の過不足があったときには、パターンマッチングによっても歩行者などを障害物として特定することが難しく、確実な判定を行えない場合がある。
【0012】
また、部分的に判定できたとしても、シングルカメラ(図7)では、足部20Bなどの画像が前処理の段階で喪失してしまった場合には、胴部20Aと足部20Bの連結ができないため、胴部20Aを単独で且つ路面に接地していると仮定して処理することになる。その結果、胴部20Aの路面座標系で実空間の位置(図6の歩行者20の位置)にあるべきものが、誤った位置21にあると勘違いしてしまう可能性がある。
【0013】
さらに、ステレオカメラでも、図9で足部26などの画像が前処理の結果喪失してしまった場合には、左カメラ画像で胴部27と足部26の連結ができないため、図10で説明した右カメラ画像の胴部29を厳密な一致性を持って探索しなければならなくなる。それが失敗した場合には、胴部29が単独で且つ路面に接地していると仮定して処理することになる。その結果、胴部29の路面座標系で図8の誤った位置25に対する右カメラによる胴体画像30が存在しないにもかかわらず、実空間の位置(図8の歩行者24)にあるべきものが、誤った位置25にあると勘違いしてしまう可能性がある。
【0014】
したがって、シングルカメラ方式では、路面から浮上している画像単体での路面座標算出が不可能であるため、路面に接地した足部などの画像を確実に抽出しなければならない。
【0015】
また、距離の異なる画像が隣接して存在するステレオカメラ場合、両方のカメラによる画像を結合してから判断せざるを得ないため、処理が複雑になり、確実な判断ができないという欠点がある。
【0016】
かかる判定確度の向上には、無限にある障害物の形状を判断するためのマッチングパターンライブラリを必要とし、それを高速で処理する処理装置も必要となるので、実際には実現困難である。
【0017】
本発明の目的は、ステレオカメラの特徴を生かし、汎用的なマッチングパターンライブラリを不要にするとともに、処理速度も高速なものを必要としないステレオカメラによる障害物の認識方法およびその認識処理装置を提供することにある。
【0018】
【課題を解決するための手段】
本発明のステレオカメラによる障害物の認識方法は、ステレオカメラに接続された画像前処理部により、前記ステレオカメラから得られる左右各々の画像に対し、フィルタ処理,二値化処理,微分処理を行うカメラ画像前処理ステップと、前記画像前処理部の出力に対し、ラベリング処理部を用いて左右カメラの微分画像に対するラベリング処理を行うラベリング処理ステップと、前記ラベリング処理部で非部品化された左右の連結画像に対し、探索処理部を用いて探索処理を行う探索処理ステップと、座標変換部により座標化された障害物座標出力を用いて求められたグループ画像に対し、実空間画像とその大きさを分析する分析ステップと、画像処理・制御装置において前記分析ステップの分析結果より求めた画像の大きさを用い、歩行者,二輪車またはその他の障害物か否かを判断する障害物判定ステップとを含み、前記障害物判定ステップの出力により、ブレーキ・アクセル制御装置を制御して車両の加速・減速をコントロールすると同時に、パワーステアリング装置を制御してハンドルの操舵量をコントロールするように構成される。
【0019】
また、本発明における前記探索処理は、カメラ画角から算出される直進状態における前方路面領域を仮の探索領域として障害物を探索する探索領域設定ステップと、左カメラ画像で前記探索領域を手前から探索し、最初の候補連結画像を求める左カメラ候補画像探索ステップと、前記候補画像があるときには、前記候補画像が接地していると仮定して右カメラ画像の対応位置にペアとなる画像が存在するか否かを探索する右カメラペア画像探索ステップと、前記左カメラ候補画像探索ステップおよび前記右カメラペア画像探索ステップによって得られた左右の候補連結画像対が一致した連結画像か否かを判断する一致画像判定ステップと、前記一致画像判定ステップで一致画像があるときには、前記ペアとなる画像を記録し、グループ画像の探索処理を行うグループ画像探索処理ステップと、しかる後、グループ画像の探索処理が終了すると、左カメラ画像の探索領域で、次の接地連結画像としての候補連結画像を探索する次候補探索ステップとを有し、繰返し処理で前記候補画像がないと判定されたときには、前記探索処理を終了させるように形成される。
【0020】
また、本発明における前記グループ画像探索処理は、左カメラの画像より求められた一致連結画像の周囲に且つ所定の距離内に存在する接触画像がないか否かを探索する左カメラ接触画像探索ステップと、前記左カメラ接触画像探索ステップで接触画像があるときには、右カメラ画像の一致連結画像に左カメラ画像と同じ位置関係の接触画像があるか否かを探索する右カメラ接触ペア画像探索ステップと、このペア画像の探索の結果、対象となる画像を画像グループとして登録する登録ステップと、しかる後、前記左カメラ画像で前記候補画像と接している次の画像を探索する次画像探索ステップとを有し、繰返し処理で前記接触画像がないと判定されたときには、前記グループ画像探索処理を終了させるように形成される。
【0021】
また、本発明のステレオカメラによる障害物の認識方法は、ステレオカメラのカメラ画角から割り出される3次元空間座標上の路面座標を求め、前記路面座標より路面に接地している連結画像を探索する探索ステップと、左右連結画像の一致判定を行うペアリング処理ステップと、前記ペアリング処理ステップにおける一致連結画像を基準として、周囲に分散した障害物画像の全体像を探索する全体像探索ステップとを含み、前記全体像探索ステップにより、他の探索処理対象連結画像の候補数を削減するように構成される。
【0022】
さらに、本発明の障害物の認識処理装置は、車両の進行方向を任意の角度で撮影するステレオカメラと、前記ステレオカメラの画像出力を処理する画像処理部とを有し、前記画像処理部は、前記ステレオカメラの画像出力をそれぞれ入力し、画像に対するフィルタ処理機能,二値化処理機能および微分回路を備えた一対の画像前処理部と、前記一対の画像前処理部の出力をそれぞれ入力し、微分画像に基づいて連結画像を作成するためのラベリング処理を施す一対のラベリング処理部と、前記一対のラベリング処理部の出力を入力し、前記連結画像に対し特定の画像を探索する探索処理部と、前記探索処理部によって探索された画像を路面座標系に変換する座標変換処理部とを備えて構成される。
【0023】
また、本発明の障害物の認識処理装置における前記画像処理部は、前記座標変換部より出力される障害物座標出力を前記車両内の画像処理・制御装置に供給し、ブレーキ・アクセル制御装置およびパワーステアリング装置を制御するように形成される。
【0024】
【発明の実施の形態】
本発明の実施の形態は、ステレオカメラの特徴を生かし、左右のカメラ画角から割り出される3次元空間上の路面座標を利用するとともに、狭い範囲での接地連結画像を探索の基準にして、それに接触している画像を接続していくという簡単な処理を再帰的に使用することにより、汎用的なマッチング用ライブラリを不要にし且つ処理速度もそれほど高速なものを必要としない障害物認識処理を実現することにある。
【0025】
以下、本発明の実施の形態について図面を参照して説明する。図1は本発明の一実施の形態を説明するためのステレオカメラおよび画像処理部のブロック構成図である。図1に示すように、本実施形態における障害物を認識するための認識処理装置は、車両の進行方向を任意の角度で撮影する右カメラRおよび左カメラLからなる二眼式(ステレオ)カメラ1と、このステレオカメラ1の画像出力を処理する画像処理部7とを含んでいる。この画像処理部7は、ステレオカメラ1における右カメラRおよび左カメラLの画像出力をそれぞれ入力し、画像に対するフィルタ処理機能,二値化処理機能および微分回路を備えた一対の画像前処理部2と、この一対の画像前処理部2の出力をそれぞれ入力し、微分画像に基づいて連結画像を作成するためのラベリング処理を施す一対のラベリング処理部3と、この一対のラベリング処理部3の出力を入力し、得られた連結画像に対し特定の画像を探索する探索処理部4と、この探索処理部4によって探索された画像を路面座標系に変換する座標変換処理部5とを有し、座標変換処理部5の障害物座標出力6を後述する画像処理・制御装置に供給するようにしている。
【0026】
図2は図1に示す画像処理部を含む画像処理・制御装置を取り付けた自動車の前半分の断面図である。図2に示すように、かかる自動車においては、図1で説明した画像処理部7を実装し、ステレオカメラ1の出力を処理するとともに、内部の各装置へ指示するための画像処理・制御装置8と、この画像処理・制御装置8からそれぞれ制御信号を受け、車両の加速・減速を制御するブレーキ・アクセル制御装置9および操舵量を制御する電動パワーステアリング装置10とを備えている。また、かかる画像処理部7は、ここではステレオカメラ1と一体化して示しているが、ステレオカメラ1とは切離し、画像処理・制御装置8側に一体化してもよい。
【0027】
次に、上述した認識処理装置の動作を図3〜図5の処理フローを用い、図1,図2と前述した図8〜図10の位置関係を参照しながら説明する。
【0028】
図3は図2における画像処理・制御装置の処理フロー図である。図3に示すように、まず左右カメラ画像前処理ステップS1においては、画像前処理部2により、あらかじめステレオカメラ1から得られる左右各々の画像に対して、フィルタ処理、二値化処理、微分処理などの前処理を行う。ついで、ラベリング処理ステップS2において、ラベリング処理部3を用い、左右カメラの微分画像に対するラベリング処理を行っておく。その後、これらの処理で非部品化された左右の連結画像に対し、探索処理ステップS3において、探索処理部4により探索処理を行う。
【0029】
次に、分析ステップS4において、座標変換部5により座標化された障害物座標出力6を用いて求められたグループ画像に対し、実空間画像やその大きさなどを分析する。さらに、画像処理・制御装置8は、障害物判定ステップS5において、分析結果より求められた画像の大きさによって、歩行者、二輪車またはその他の障害物か否かを判断する。
【0030】
このような処理および判断に基づき、画像処理・制御装置8は、ブレーキ・アクセル制御装置9を制御して車両の加速・減速をコントロールすると同時に、電動パワーステアリング装置10を制御してハンドルの操舵量をコントロールする。
【0031】
上述した探索処理S3の詳細な動作は、つぎのとおりである。
【0032】
図4は図3における探索処理のフロー図である。図4に示すように、探索処理(ステップS3)においては、まず探索領域設定ステップS6において、障害物を探索しなければならない領域として、固定されたカメラ画角から算出される3次元空間座標上の直進状態における前方路面領域を仮の探索領域とする。この場合、直進状態における前方路面領域の代りに、別の白線認識処理などにより前方路面領域を求め、これを探索領域とすることも可能である。いずれにしても、この仮の探索領域が設定されると、左カメラ候補画像探索ステップS7において、左カメラ画像で探索領域を手前(画面の下辺)から探索し、最初の候補連結画像としての足部26(図9参照)を求める。
【0033】
ついで、前述したステップS7で候補画像がある旨探索されたときは、繰返しステップS8において、繰返し処理(While:候補画像あり)を行う(候補画像がないときは、リターン)。すなわち、この繰返しステップS8で候補画像があるときは、まず右カメラ対応画像探索ステップS9において、その候補画像が路面に接地していると仮定して路面座標を算出し、右カメラ画像の対応する路面座標位置の連結画像としての足部28(図10参照)を探索する。
【0034】
さらに、一致画像判定ステップS10において、上述したステップS7およびS9によって得られた左右の候補連結画像対としての足部26,28が一致した連結画像か否かを判断する。例えば、具体的な判定手段としては、それぞれの連結画像のX方向、Y方向の大きさ、総画素数などの値を比較し、左連結画像の値に対して±10%以内に右連結画像の値が入っていれば、一致しているとみなす方法がある。要するに、片方を基準とし、他方が一定範囲内の値に収まっていることを確認する方法が最も簡便であり且つ効率が良い。その他の判定手段としては、左右の連結画像に対し、相関関数を用いて相関値を求め、相関値が一定値以上か否かを比較する方法、あるいは連結画像の特徴をスケルトン処理などを行って求め、相関値を比較する方法などが考えられる。
【0035】
このように、一致画像判定ステップS10で一致していると判定された一致連結画像対としての足部26および28に対しては、記録ステップS11において、探索結果データベース(図示省略)にペア接地画像であることを記録すると同時に、それらの路面座標を登録する。さらに、一致画像があるときは、グループ画像探索処理ステップS12において、近傍に部品化してバラバラになっているであろうグループ画像の探索処理を行う。一方、一致画像判定ステップS10において、一致する画像がなくなったとき、もしくはないときは、次のステップS13へ進む。
【0036】
最後に、グループ画像探索処理ステップS12におけるグループ画像の探索処理が終了すると、次候補探索ステップS13において、左カメラ画像の探索領域で、次の接地連結画像としての候補連結画像(但し、前述した探索結果データベースに登録した連結画像は候補から除く)を探索する。このステップS13において、次候補がないときは、リターンに戻って探索処理ステップS3を終了する。
【0037】
図5は図4におけるグループ画像探索処理のフロー図である。図5に示すように、グループ画像探索処理ステップ(S12:図4参照)では、左カメラ接触画像探索ステップS14において、左カメラの画像より求められた一致連結画像としての足部26の周囲に且つ一定の距離(空白画素数)以内に存在する連結画像(以下、接触画像とする)がないか否かを探索する。ここで、繰返しステップS15は、接触画像がある間、以下の処理を繰返す。
【0038】
次に、繰返しステップS15で接触画像26があるときには、その接触画像26などに対し、ペア画像探索ステップS16において、右カメラ画像の一致連結画像に左カメラ画像と同じ位置関係の接触画像があるか否かを探索する。ついで、このペア画像の探索の結果、得られた左右接触画像対26,29などに対し、対象画像判定ステップS17において、前述した図4のステップS14と同様の一致判定処理を行う。
【0039】
しかる後、対象画像判定ステップS17で対象画像があり、且つ一致していると判断された場合は、登録ステップS18において先に登録した接地連結画像対26,28の子連結画像として探索結果データベースに画像グループを登録する。また、対象画像判定ステップS17においては、対象画像がなくなるまで、続けられる。
【0040】
さらに、ステップS17において対象画像がなくなると、次候補探索ステップS19において、グループ画像を基準として、頭部などの他の接触画像がないか否かを探索する。すなわち、左カメラ画像において、候補画像と接している次の画像を探索する。要するに、すべての接触画像に対して、ステップS15からステップS19までの繰返し処理を行う。
【0041】
かかるすべての候補連結画像に対してこれらの処理を行い、すべての接地連結画像対、グループ画像対を探索すると、前述した図4のステップS8における候補画像の処理が完結する。
【0042】
上述した本実施の形態によれば、左右のカメラ画角から割り出される3次元空間上の路面座標を利用し、足部などの接地連結画像を探索の基準としているため、次のような利点が挙げられる。
(A)あらかじめ探索範囲を狭く設定でき、無駄な探索処理を必要としない。
(B)左右連結画像の一致性を簡便な方法で判定するだけで済み、パターンマッチング処理などで必要となる膨大なライブラリや超高速な処理を必要とせず、左右カメラ画像における些細な特徴相違に対する判定ミスを発生しない。
【0043】
また、本実施の形態において、一致連結画像に対する接触画像 (グループ画像)の探索にあたり、次のような利点が挙げられる。
(A)探索範囲を限定できるため、無駄な探索処理を必要としない。
(B)同様に、左右連結画像の一致性を簡便な方法で判定するだけで済むため、パターンマッチング処理などで必要となる膨大なライブラリや、超高速な処理を必要とせず、左右カメラ画像における些細な特徴相違に対する判定ミスを発生しない。
(C)グループ画像判定処理により、次の接地連結画像および接触連結画像の探索候補から対象をはずすことが可能であり、全体の処理を高速化できる。
(D)障害物の全体像に拘らず、障害物の有無を探索可能であり、その障害物が歩行者なのか、自転車なのか、その他の静止物なのかという判定の拡張に対しても余裕を与えることが可能である。
【0044】
以上、本発明の一実施の形態を説明したが、この他にも以下のような変形例を形成することができる。
【0045】
上述したステレオカメラにおける基準となる画像は、左右どちらのカメラ画像を基準としてもよい。また、左右の候補連結画像対に対し、一致した連結画像か否かを判断する判定手段として、それぞれの連結画像のX方向、Y方向の大きさ、総画素数などの値を比較し、左連結画像の値に対して±10%以内に右連結画像の値が入っていれば、一致しているとみなしてもよい。
【0046】
さらに、左右の連結画像に対し、相関関数を用いて相関値を求め、その相関値が一定値以上かどうかを比較する方法や、連結画像の特徴をスケルトン処理などを行って求めて比較する方法を採用してもよい。
【0047】
また、上述した一実施の形態における接触画像の探索方法として、一定の距離(空白画素数)以下という判断基準を設けたり、あるいは連結画像の重心の距離または接触辺〔一定の距離(空白画素数)以下の空隙〕の長さを判断基準としても可能である。
【0048】
なお、上述した実施の形態では、ハンドルの操舵量を制御するために、電動パワーステアリング装置を例にとって説明したが、パワーステアリング装置としては、電気的に制御する他に油圧手段などを用いて制御することもできる。
【0049】
【発明の効果】
以上説明したように、本発明のステレオカメラによる障害物の認識方法およびその認識処理装置は、左右のカメラ画角から割り出される3次元空間上の路面座標を利用し、連結画像が路面に接地しているとする仮定のもとに、他方のカメラ画像で同じ路面座標の探索および実際に路面に接地している画像の抽出を行い、さらにその連結画像と接触している連結画像を抽出して歩行者などの障害物の全体像を抽出し、同時に路面座標を求めることができるので、汎用的なマッチングパターンライブラリを不要にするとともに、処理速度も高速なものを必要としないで、正確な障害物判定を実現できるという効果がある。また、本発明によれば、抽出された障害物全体像の特徴を求めることにより、その障害物が歩行者なのか、自転車なのか、その他静止物なのかという判定にも拡張が可能である。
【図面の簡単な説明】
【図1】本発明の一実施の形態を説明するためのステレオカメラおよび画像処理部のブロック構成図である。
【図2】図1に示す画像処理部を含む画像処理・制御装置を取り付けた自動車の前半分の断面図である。
【図3】図2における画像処理・制御装置の処理フロー図である。
【図4】図3における探索処理のフロー図である。
【図5】図4におけるグループ画像探索処理のフロー図である。
【図6】従来の一例を説明するための単眼式車載カメラを用いた際の歩行者と自動車の位置関係を表わす模式図である。
【図7】図6に用いた単眼式車載カメラで得られる遠近画像図である。
【図8】従来の他の例を説明するためのステレオ車載カメラを用いた際の歩行者と自動車の位置関係を表わす模式図である。
【図9】図8に用いたステレオ車載カメラの左カメラで得られる遠近画像図である。
【図10】図8に用いたステレオ車載カメラの右カメラで得られる遠近画像図である。
【符号の説明】
1 ステレオカメラ
2 画像前処理部
3 ラベリング処理部
4 探索処理部
5 座標変換部
6 障害物座標出力
7 画像処理部
8 画像処理・制御装置
9 ブレーキ・アクセル制御装置
10 電動パワーステアリング装置
S3 探索処理ステップ
S12 グループ画像探索処理ステップ
[0001]
BACKGROUND OF THE INVENTION
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an obstacle recognition method using a stereo camera and a recognition processing apparatus thereof, and more particularly to an obstacle recognition method using a stereo camera that searches for a pedestrian image or the like using a difference in the angle of view of left and right cameras and the recognition thereof. The present invention relates to a processing apparatus.
[0002]
[Prior art]
In general, an obstacle recognition apparatus using an in-vehicle camera is required to recognize not only a white line on a road but also an obstacle such as a preceding vehicle or a pedestrian.
[0003]
However, unlike pedestrian images, images such as pedestrians are divided into multiple parts even after preprocessing such as density conversion processing, noise removal filter processing, differentiation processing, grouping processing, and labeling processing. There are many. Moreover, it is difficult to correlate the images that have been divided into a plurality of images, and it is difficult to recognize obstacles themselves.
[0004]
FIG. 6 is a schematic diagram showing the positional relationship between a pedestrian and an automobile when a monocular in-vehicle camera for explaining an example of the prior art is used. As shown in FIG. 6, when a conventional monocular (single) in-vehicle camera captures a pedestrian 20 (for example, a position of 10 meters: m) that actually exists in a real space position, the pedestrian image is displayed. Since it is divided into a plurality of parts such as a head, a torso, and a foot, the pedestrian 20 recognizes that the pedestrian 20 was present at an incorrect position 21 in the real space (for example, a position of 40 m) from the angle relationship. It is easy to end up.
[0005]
FIG. 7 is a perspective image obtained by the monocular on-vehicle camera used in FIG. As shown in FIG. 7, when this monocular on-vehicle camera captures the above-described pedestrian 20 or the like, the torso portion is in spite of the fact that the foot portion 20B is at an actual position, for example, 10 m, due to perspective. The illusion is that 20A is at the position of the white line (thick solid line), that is, at the position of 40 m. In short, in this case, an image extracted through preprocessing is often divided into a head, a torso 20A, a leg, a foot 20B, and the like.
[0006]
Further, FIG. 8 is a schematic diagram showing the positional relationship between a pedestrian and a car when using a stereo in-vehicle camera for explaining another conventional example. As shown in FIG. 8, the conventional stereo vehicle-mounted camera exists at a position corresponding to the image of the foot 23 in the real space from the left camera line of sight and a position corresponding to the image of the torso 24 in the real space from the left camera line of sight. When a pedestrian (for example, a position of 10 m) is photographed, the image of the torso 24 is assumed to be grounded in real space from the left camera line of sight (for example, 40 m) It is easy to recognize it as a position.
[0007]
FIG. 9 is a perspective image obtained by the left camera of the stereo in-vehicle camera used in FIG. As shown in FIG. 9, when an image is taken with the left camera, an image of a pedestrian's foot (such as shoes) 26 exists, for example, at a point of 10 m from the camera angle and perspective relationship, and other than the foot (such as a torso). For example, the image 27 is recognized as existing at a point of a white line of 40 m.
[0008]
FIG. 10 is a perspective image obtained by the right camera of the stereo in-vehicle camera used in FIG. As shown in FIG. 10, when photographing with the right camera, the image of the foot 28 corresponding to the right camera is present at a point of, for example, 10 m from the camera angle and perspective relationship, and other than the foot of the pedestrian (such as the torso) ) The 29 image is recognized as being present at a point of 30 m, for example. In addition, the image of the trunk portion 30 does not exist at the location corresponding to the erroneous position 25 in FIG.
[0009]
Thus, the images obtained by the stereo in-vehicle camera are also divided into the head, the torso (27, 29), the legs, the feet (26, 28), etc., as shown in FIGS. There are many.
[0010]
The obstacle recognition apparatus described above must connect these disjoint image groups based on a certain rule and recognize a pedestrian or the like as an obstacle. In such a conventional technique, as a recognition method, images in the vicinity are regarded as one set and specified by pattern matching as to whether or not the image is an obstacle image of a target pedestrian or the like.
[0011]
[Problems to be solved by the invention]
However, the conventional recognition method or recognition device described above may not be able to make a reliable determination because it is difficult to identify a pedestrian or the like as an obstacle even by pattern matching when there are excesses or deficiencies in the connected images. .
[0012]
Even if it can be partially determined, in the single camera (FIG. 7), when the image of the foot 20B or the like is lost at the preprocessing stage, the body 20A and the foot 20B are connected. Since this is not possible, the processing is performed assuming that the trunk portion 20A is grounded alone and on the road surface. As a result, there is a possibility that a thing in the real space position (the position of the pedestrian 20 in FIG. 6) in the road surface coordinate system of the trunk portion 20 </ b> A is misunderstood as being in the wrong position 21.
[0013]
Further, even in the stereo camera, when the image of the foot 26 or the like is lost as a result of the preprocessing in FIG. 9, the left camera image cannot be connected to the body 27 and the foot 26. It is necessary to search the body 29 of the right camera image with strict matching. If that fails, the processing is performed assuming that the trunk portion 29 is alone and is in contact with the road surface. As a result, in the road surface coordinate system of the torso 29, what should be at the position in the real space (the pedestrian 24 in FIG. 8) despite the absence of the torso image 30 by the right camera for the wrong position 25 in FIG. There is a possibility of misunderstanding that it is in the wrong position 25.
[0014]
Therefore, in the single camera system, since it is impossible to calculate the road surface coordinates for a single image floating on the road surface, it is necessary to reliably extract an image such as a foot part touching the road surface.
[0015]
Further, in the case of a stereo camera in which images with different distances exist adjacent to each other, since it is necessary to make a determination after combining images from both cameras, there is a drawback that the processing becomes complicated and a reliable determination cannot be made.
[0016]
In order to improve the determination accuracy, a matching pattern library for determining the shape of an infinite obstacle is required, and a processing apparatus for processing the matching pattern library at high speed is also required.
[0017]
An object of the present invention is to provide a method of recognizing an obstacle by a stereo camera and a recognition processing device thereof that make use of the features of a stereo camera, eliminate the need for a general-purpose matching pattern library, and do not require a high processing speed. There is to do.
[0018]
[Means for Solving the Problems]
In the obstacle recognition method using the stereo camera according to the present invention, the image preprocessing unit connected to the stereo camera performs filtering, binarization, and differentiation on the left and right images obtained from the stereo camera. A camera image preprocessing step, a labeling processing step for performing a labeling process on the differential image of the left and right cameras using a labeling processing unit with respect to an output of the image preprocessing unit, and a left and a right non-componentized by the labeling processing unit A search processing step for performing a search process on a connected image using a search processing unit, and a real space image and its size for a group image obtained using an obstacle coordinate output coordinated by a coordinate conversion unit. Using the analysis step for analyzing the image and the size of the image obtained from the analysis result of the analysis step in the image processing / control device. An obstacle determination step for determining whether the vehicle is a two-wheeled vehicle or other obstacle, and controls the acceleration / deceleration of the vehicle by controlling the brake / acceleration control device according to the output of the obstacle determination step, and at the same time, The steering device is configured to control the steering amount of the steering wheel.
[0019]
Further, the search process in the present invention includes a search area setting step of searching for an obstacle using the forward road surface area in the straight traveling state calculated from the camera angle of view as a temporary search area, and the search area from the front in the left camera image. The left camera candidate image search step for searching and obtaining the first candidate connected image, and when there is the candidate image, there is a paired image at the corresponding position of the right camera image assuming that the candidate image is grounded A right camera pair image search step for searching whether or not to determine whether the left and right candidate connected image pairs obtained by the left camera candidate image search step and the right camera pair image search step match When there is a matching image in the matching image determination step and the matching image determination step, the paired images are recorded, and the group image A group image search processing step for performing a search process, and then a next candidate search step for searching for a candidate connected image as the next ground connected image in the search region of the left camera image when the group image search process ends. And when it is determined that there is no candidate image in the iterative process, the search process is terminated.
[0020]
Further, the group image search processing according to the present invention includes a left camera contact image search step for searching for a contact image existing around a coincidence connected image obtained from an image of the left camera and within a predetermined distance. And when there is a contact image in the left camera contact image search step, a right camera contact pair image search step for searching whether there is a contact image having the same positional relationship as the left camera image in the matching connection image of the right camera image; As a result of searching for the paired images, a registration step of registering the target image as an image group, and then a next image searching step of searching for the next image in contact with the candidate image in the left camera image. And when it is determined that the contact image does not exist in the repetitive processing, the group image search processing is ended.
[0021]
Also, the obstacle recognition method using the stereo camera according to the present invention obtains the road surface coordinates on the three-dimensional space coordinates calculated from the camera angle of view of the stereo camera, and searches for a connected image grounded to the road surface from the road surface coordinates. A search step for performing matching, a pairing processing step for determining matching between the left and right connected images, and a whole image searching step for searching for a whole image of obstacle images dispersed around the matching connected images in the pairing processing step. And the number of candidates for other search processing target linked images is reduced by the overall image search step.
[0022]
Furthermore, the obstacle recognition processing device of the present invention includes a stereo camera that captures the traveling direction of the vehicle at an arbitrary angle, and an image processing unit that processes an image output of the stereo camera, and the image processing unit includes: The stereo camera image output is input, and the output of the pair of image preprocessing units including the filter processing function, the binarization processing function, and the differentiation circuit for the image is input. A pair of labeling processing units for performing a labeling process for creating a connected image based on the differential image, and a search processing unit for inputting a output of the pair of labeling processing unit and searching for a specific image with respect to the connected image And a coordinate conversion processing unit that converts the image searched by the search processing unit into a road surface coordinate system.
[0023]
Further, the image processing unit in the obstacle recognition processing device of the present invention supplies the obstacle coordinate output output from the coordinate conversion unit to the image processing / control device in the vehicle, and the brake / acceleration control device, It is configured to control the power steering device.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
The embodiment of the present invention makes use of the features of a stereo camera, uses road surface coordinates on a three-dimensional space determined from left and right camera angles, and uses ground connection images in a narrow range as a reference for search. By recursively using a simple process of connecting images that are in contact with it, an obstacle recognition process that eliminates the need for a general-purpose matching library and does not require a very high processing speed. It is to be realized.
[0025]
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram of a stereo camera and an image processing unit for explaining an embodiment of the present invention. As shown in FIG. 1, the recognition processing apparatus for recognizing an obstacle in the present embodiment is a twin-lens (stereo) camera including a right camera R and a left camera L that captures the traveling direction of the vehicle at an arbitrary angle. 1 and an image processing unit 7 for processing the image output of the stereo camera 1. The image processing unit 7 inputs the image output of the right camera R and the left camera L in the stereo camera 1 respectively, and a pair of image preprocessing units 2 having a filter processing function, a binarization processing function, and a differentiation circuit for the image. And a pair of labeling processing units 3 for inputting the outputs of the pair of image preprocessing units 2 and applying a labeling process for creating a connected image based on the differential image, and outputs of the pair of labeling processing units 3 And a search processing unit 4 for searching for a specific image with respect to the obtained connected image, and a coordinate conversion processing unit 5 for converting the image searched by the search processing unit 4 into a road surface coordinate system, The obstacle coordinate output 6 of the coordinate conversion processing unit 5 is supplied to an image processing / control device to be described later.
[0026]
FIG. 2 is a cross-sectional view of the front half of an automobile equipped with an image processing / control device including the image processing unit shown in FIG. As shown in FIG. 2, in such an automobile, the image processing unit 7 described with reference to FIG. 1 is mounted, the output of the stereo camera 1 is processed, and an image processing / control device 8 for instructing each internal device is provided. And a brake / accelerator control device 9 for controlling acceleration / deceleration of the vehicle, and an electric power steering device 10 for controlling the steering amount, respectively, receiving control signals from the image processing / control device 8. In addition, the image processing unit 7 is illustrated as being integrated with the stereo camera 1 here, but may be separated from the stereo camera 1 and integrated with the image processing / control device 8 side.
[0027]
Next, the operation of the above-described recognition processing apparatus will be described with reference to the positional relationship between FIGS. 1 and 2 and FIGS.
[0028]
FIG. 3 is a processing flowchart of the image processing / control apparatus in FIG. As shown in FIG. 3, first, in the left and right camera image preprocessing step S1, the image preprocessing unit 2 performs filtering, binarization, and differentiation on the left and right images obtained in advance from the stereo camera 1. Perform pre-processing. Next, in the labeling processing step S2, the labeling processing unit 3 is used to perform the labeling processing on the differential images of the left and right cameras. Thereafter, the search processing unit 4 performs search processing on the left and right connected images that have been made non-partici- ated by these processes in search processing step S3.
[0029]
Next, in analysis step S4, a real space image, its size, etc. are analyzed with respect to the group image calculated | required using the obstacle coordinate output 6 coordinated by the coordinate transformation part 5. FIG. Further, in the obstacle determination step S5, the image processing / control device 8 determines whether the object is a pedestrian, a two-wheeled vehicle, or other obstacles according to the size of the image obtained from the analysis result.
[0030]
Based on such processing and determination, the image processing / control device 8 controls the brake / accelerator control device 9 to control the acceleration / deceleration of the vehicle, and simultaneously controls the electric power steering device 10 to control the steering amount of the steering wheel. Control.
[0031]
The detailed operation of the search process S3 described above is as follows.
[0032]
FIG. 4 is a flowchart of the search process in FIG. As shown in FIG. 4, in the search process (step S3), first, in the search area setting step S6, the area on which the obstacle must be searched is calculated on the three-dimensional space coordinates calculated from the fixed camera angle of view. The forward road surface area in the straight traveling state is set as a temporary search area. In this case, instead of the front road surface area in the straight traveling state, the front road surface area can be obtained by another white line recognition process or the like, and this can be used as the search area. In any case, when this temporary search area is set, in the left camera candidate image search step S7, the search area is searched from the front (the lower side of the screen) with the left camera image, and the foot as the first candidate connected image is displayed. The unit 26 (see FIG. 9) is obtained.
[0033]
Next, when it is searched that there is a candidate image in step S7 described above, a repetition process (while: there is a candidate image) is performed in repetition step S8 (if there is no candidate image, return). That is, when there is a candidate image in this repeat step S8, first, in the right camera corresponding image search step S9, it is assumed that the candidate image is in contact with the road surface, the road surface coordinates are calculated, and the right camera image corresponds. The foot portion 28 (see FIG. 10) as a connected image of the road surface coordinate position is searched.
[0034]
Further, in the coincidence image determination step S10, it is determined whether or not the foot portions 26 and 28 as the left and right candidate connection image pairs obtained in the above-described steps S7 and S9 are coincident connection images. For example, as specific determination means, the values of the connected images in the X and Y directions, the total number of pixels, and the like are compared, and the right connected image is within ± 10% of the value of the left connected image. If the value of is entered, there is a method to consider that they match. In short, the method of confirming that one is used as a reference and the other is within a certain range is the simplest and most efficient. As other determination means, a correlation value is obtained for the left and right connected images using a correlation function, and whether or not the correlation value is equal to or larger than a certain value is compared, or a feature of the connected image is subjected to skeleton processing. A method for obtaining and comparing the correlation values can be considered.
[0035]
As described above, for the feet 26 and 28 as the matched connected image pair determined to be matched in the matched image determining step S10, the pair grounded image is stored in the search result database (not shown) in the recording step S11. At the same time, the road surface coordinates are registered. Further, when there is a coincidence image, in group image search processing step S12, a group image search process that will be separated into parts in the vicinity is performed. On the other hand, in the coincidence image determination step S10, when there is no or no coincidence image, the process proceeds to the next step S13.
[0036]
Finally, when the group image search processing in the group image search processing step S12 is completed, in the next candidate search step S13, a candidate connected image as a next ground connected image (however, the search described above is performed) in the search area of the left camera image. The connected images registered in the result database are excluded from candidates). If there is no next candidate in step S13, the process returns to return and the search processing step S3 is terminated.
[0037]
FIG. 5 is a flowchart of the group image search process in FIG. As shown in FIG. 5, in the group image search processing step (S12: see FIG. 4), in the left camera contact image search step S14, around the foot part 26 as a matched connected image obtained from the image of the left camera and It is searched whether there is a connected image (hereinafter referred to as a contact image) existing within a certain distance (number of blank pixels). Here, the repeating step S15 repeats the following processing while there is a contact image.
[0038]
Next, when there is a contact image 26 in the repeat step S15, whether there is a contact image having the same positional relationship as the left camera image in the matching connection image of the right camera image in the pair image search step S16 with respect to the contact image 26 or the like. Search for no. Next, as a result of the search for the paired images, the matching determination process similar to step S14 in FIG. 4 described above is performed in the target image determination step S17 on the left and right contact image pairs 26, 29 and the like.
[0039]
Thereafter, if it is determined in the target image determination step S17 that the target images are present and coincide with each other, they are stored in the search result database as child connected images of the ground connected image pairs 26 and 28 previously registered in the registration step S18. Register an image group. The target image determination step S17 is continued until there are no more target images.
[0040]
Further, when the target image disappears in step S17, in next candidate search step S19, a search is made as to whether or not there is another contact image such as a head on the basis of the group image. That is, the next image in contact with the candidate image is searched for in the left camera image. In short, iterative processing from step S15 to step S19 is performed on all contact images.
[0041]
When these processes are performed on all such candidate connected images and all the ground connected image pairs and group image pairs are searched, the processing of the candidate images in step S8 of FIG. 4 described above is completed.
[0042]
According to the present embodiment described above, the road surface coordinates in the three-dimensional space calculated from the left and right camera angles are used, and the ground connection image such as the foot is used as a reference for the search. Is mentioned.
(A) The search range can be set narrow in advance, and unnecessary search processing is not required.
(B) It is only necessary to determine the coincidence of the left and right connected images by a simple method, and it does not require a huge library or ultra-high speed processing required for pattern matching processing, etc. No judgment error occurs.
[0043]
Further, in the present embodiment, the following advantages can be cited when searching for a contact image (group image) with respect to the coincidence connected image.
(A) Since the search range can be limited, useless search processing is not required.
(B) Similarly, since it is only necessary to determine the coincidence of the left and right connected images by a simple method, there is no need for an enormous library required for pattern matching processing or the like, or in the left and right camera images. No misjudgment for minor feature differences.
(C) By the group image determination process, it is possible to remove the target from the search candidates for the next ground connection image and contact connection image, and the overall processing can be speeded up.
(D) Regardless of the overall image of the obstacle, it is possible to search for the presence or absence of the obstacle, and there is room for expansion of the determination of whether the obstacle is a pedestrian, bicycle, or other stationary object It is possible to give
[0044]
Although one embodiment of the present invention has been described above, other modifications may be made as follows.
[0045]
The reference image in the stereo camera described above may be based on either the left or right camera image. Further, as determination means for determining whether or not the pair of left and right candidate connected images is a matched connected image, the values of the connected images in the X direction, the Y direction, the total number of pixels, and the like are compared, and the left If the value of the right connected image is within ± 10% of the value of the connected image, it may be considered that they match.
[0046]
Furthermore, a correlation value is obtained for the left and right connected images using a correlation function, a method for comparing whether or not the correlation value is equal to or greater than a certain value, and a method for obtaining and comparing features of the connected images by performing skeleton processing or the like May be adopted.
[0047]
In addition, as a method for searching for a contact image in the above-described embodiment, a determination criterion of a certain distance (the number of blank pixels) or less is provided, or the center of gravity of a connected image or a contact side [a certain distance (the number of blank pixels) ) The length of the following gap] is also possible as a criterion.
[0048]
In the above-described embodiment, the electric power steering device has been described as an example in order to control the steering amount of the steering wheel. However, the power steering device is controlled using hydraulic means in addition to being electrically controlled. You can also
[0049]
【The invention's effect】
As described above, the obstacle recognition method using the stereo camera and the recognition processing apparatus according to the present invention use the road surface coordinates in the three-dimensional space determined from the left and right camera angles, and the connected image is grounded to the road surface. Under the assumption that the other camera image is used, the other camera image is searched for the same road surface coordinates, the image actually touching the road surface is extracted, and the connected image in contact with the connected image is extracted. It is possible to extract the whole image of obstacles such as pedestrians and obtain the road surface coordinates at the same time, eliminating the need for a general-purpose matching pattern library and accurate processing without requiring a high processing speed. There is an effect that obstacle determination can be realized. In addition, according to the present invention, it is possible to extend the determination of whether the obstacle is a pedestrian, a bicycle, or other stationary objects by obtaining the characteristics of the extracted whole image of the obstacle.
[Brief description of the drawings]
FIG. 1 is a block configuration diagram of a stereo camera and an image processing unit for explaining an embodiment of the present invention.
FIG. 2 is a cross-sectional view of the front half of an automobile equipped with an image processing / control device including the image processing section shown in FIG.
3 is a process flow diagram of the image processing / control apparatus in FIG. 2. FIG.
4 is a flowchart of the search process in FIG. 3. FIG.
FIG. 5 is a flowchart of group image search processing in FIG. 4;
FIG. 6 is a schematic diagram showing the positional relationship between a pedestrian and a car when using a monocular on-vehicle camera for explaining an example of the prior art.
7 is a perspective image obtained with the monocular on-vehicle camera used in FIG. 6. FIG.
FIG. 8 is a schematic diagram showing the positional relationship between a pedestrian and a car when a stereo in-vehicle camera for explaining another conventional example is used.
9 is a perspective image obtained by the left camera of the stereo in-vehicle camera used in FIG.
10 is a perspective image obtained by the right camera of the stereo vehicle-mounted camera used in FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Stereo camera 2 Image pre-processing part 3 Labeling process part 4 Search process part 5 Coordinate conversion part 6 Obstacle coordinate output 7 Image process part 8 Image processing and control apparatus 9 Brake and accelerator control apparatus 10 Electric power steering apparatus S3 Search process step S12 Group image search processing step

Claims (6)

ステレオカメラに接続された画像前処理部により、前記ステレオカメラに含まれる左右のカメラから得られる左右各々の画像に対し、フィルタ処理,二値化処理,微分処理を行い微分画像を生成するカメラ画像前処理ステップと、
ラベリング処理部を用いて、前記微分画像に基づいて連結画像を生成するためのラベリング処理を行うラベリング処理ステップと、
前記ラベリング処理された出力を入力し、前記連結画像に対し、探索処理部を用いて探索処理を行い、特定の前記連結画像からグループ画像を求める探索処理ステップと、
座標変換処理部により路面座標系に変換された障害物座標出力を用いて、前記求められたグループ画像に対し、実空間画像とその大きさを分析する分析ステップと、
画像処理・制御装置において前記分析ステップの分析結果より求めた画像の大きさを用い、歩行者、二輪車またはその他の障害物か否かを判断する障害物判定ステップとを含み、
前記障害物判定ステップの出力により、ブレーキ・アクセル制御装置を制御して車両の加速・減速をコントロールすると同時に、パワーステアリング装置を制御してハンドルの操舵量をコントロールすること
を特徴とするステレオカメラによる障害物の認識方法。
A camera image that generates a differential image by performing filter processing, binarization processing, and differentiation processing on the left and right images obtained from the left and right cameras included in the stereo camera by an image preprocessing unit connected to the stereo camera A pre-processing step;
Using a labeling processing unit, a labeling process step for performing a labeling process for generating a connected image based on the differential image;
A search processing step of inputting the output subjected to the labeling process, performing a search process on the connected images using a search processing unit, and obtaining a group image from the specific connected images;
Using the obstacle coordinate output converted to the road surface coordinate system by the coordinate conversion processing unit, the analysis step of analyzing the real space image and its size for the obtained group image,
An obstacle determination step for determining whether the image processing / control device uses the size of the image obtained from the analysis result of the analysis step and determines whether the object is a pedestrian, a two-wheeled vehicle, or other obstacles,
According to the stereo camera, the brake / accelerator control device is controlled by the output of the obstacle determination step to control acceleration / deceleration of the vehicle, and at the same time, the steering amount of the steering wheel is controlled by controlling the power steering device. Obstacle recognition method.
前記探索処理は、
前記カメラの画角から算出される直進状態における前方路面領域を仮の探索領域として障害物を探索する探索領域設定ステップと、
前記左のカメラが出力する左カメラ画像で前記探索領域を手前から探索し、最初の候補連結画像を求める左カメラ候補画像探索ステップと、
前記候補画像があるときには、前記候補画像が接地していると仮定して前記右のカメラが出力する右カメラ画像の対応位置にペアとなる画像が存在するか否かを探索する右カメラペア画像探索ステップと、
前記左カメラ候補画像探索ステップおよび前記右カメラペア画像探索ステップによって得られた左右の候補連結画像対が一致した連結画像か否かを判断する一致画像判定ステップと、
前記一致画像判定ステップで一致画像があるときには、前記ペアとなる画像を記録し、前記グループ画像の探索処理を行うグループ画像探索処理ステップと、
しかる後、前記グループ画像の探索処理が終了すると、前記左カメラ画像の探索領域で、次の接地連結画像としての候補連結画像を探索する次候補探索ステップとを有し、
繰返し処理で前記候補画像がないと判定されたときには、前記探索処理を終了させる
請求項1記載のステレオカメラによる障害物の認識方法。
The search process includes
A search area setting step for searching for an obstacle using a forward road surface area in a straight traveling state calculated from the angle of view of the camera as a temporary search area;
A left camera candidate image search step for searching the search area from the front with a left camera image output by the left camera and obtaining a first candidate connected image;
When there is the candidate image, assuming that the candidate image is grounded, a right camera pair image that searches for a paired image at the corresponding position of the right camera image output by the right camera A search step;
A matching image determining step for determining whether the left and right candidate connected image pairs obtained by the left camera candidate image searching step and the right camera pair image searching step are the same connected images;
When there is a matching image in the matching image determination step, a group image search processing step of recording the paired images and performing a search process of the group image;
Thereafter, when the search process of the group image is completed, a next candidate search step of searching a candidate connected image as a next ground connected image in the search area of the left camera image,
The obstacle recognition method using a stereo camera according to claim 1, wherein when the iterative process determines that there is no candidate image, the search process is terminated.
前記グループ画像探索処理は、
前記左カメラ画像より求められた一致連結画像の周囲に且つ所定の距離内に存在する接触画像がないか否かを探索する左カメラ接触画像探索ステップと、
前記左カメラ接触画像探索ステップで接触画像があるときには、前記右カメラ画像の一致連結画像に前記左カメラ画像と同じ位置関係の接触画像があるか否かを探索する右カメラ接触ペア画像探索ステップと、
このペア画像の探索の結果、対象となる画像を前記画像グループとして登録する登録ステップと、
しかる後、前記左カメラ画像で前記候補画像と接している次の画像を探索する次画像探索ステップとを有し、
繰返し処理で前記接触画像がないと判定されたときには、前記グループ画像探索処理を終了させる
請求項2記載のステレオカメラによる障害物の認識方法。
The group image search process includes:
A left camera contact image search step for searching for a contact image that exists around the coincidence connected image obtained from the left camera image and within a predetermined distance; and
When there is a contact image in the left camera contact image search step, a right camera contact pair image search step for searching whether there is a contact image having the same positional relationship as the left camera image in the matched connection image of the right camera image; ,
As a result of this pair image search, a registration step of registering the target image as the image group;
Thereafter, a next image search step of searching for a next image in contact with the candidate image in the left camera image,
The obstacle recognition method using a stereo camera according to claim 2, wherein when it is determined that there is no contact image in the iterative process, the group image search process is terminated.
ステレオカメラのカメラ画角から割り出される3次元空間座標上の路面座標を求め、前記路面座標より路面に接地している連結画像を探索する探索ステップと、
左右連結画像の一致判定を行うペアリング処理ステップと、
前記ペアリング処理ステップにおける一致連結画像を基準として、周囲に分散した障害物画像の全体像を探索する全体像探索ステップとを含み、
前記全体像探索ステップにより、他の探索処理対象連結画像の候補数を削減する
ことを特徴とするステレオカメラによる障害物の認識方法。
A search step for obtaining road surface coordinates on a three-dimensional space coordinate determined from a camera angle of view of a stereo camera, and searching for a connected image grounded to the road surface from the road surface coordinates;
A pairing process step for determining matching of the left and right connected images;
An overall image search step for searching for an overall image of obstacle images dispersed around the matching connected image in the pairing processing step,
An obstacle recognition method using a stereo camera, wherein the overall image search step reduces the number of candidates for other search processing target linked images.
車両の進行方向を任意の角度で撮影するステレオカメラと、
前記ステレオカメラの画像出力を処理する画像処理部とを有し、
前記画像処理部は、
前記ステレオカメラの画像出力をそれぞれ入力し、画像に対するフィルタ処理機能,二値化処理機能および微分回路を備えた一対の画像前処理部と、
前記一対の画像前処理部の出力をそれぞれ入力し、微分画像に基づいて連結画像を作成するためのラベリング処理を施す一対のラベリング処理部と、
前記一対のラベリング処理部の出力を入力し、前記連結画像に対し特定の画像を探索する探索処理部と、
前記探索処理部によって探索された画像を路面座標系に変換する座標変換処理部とを備えたことを特徴とする障害物の認識処理装置。
A stereo camera that captures the traveling direction of the vehicle at an arbitrary angle;
An image processing unit for processing image output of the stereo camera;
The image processing unit
A pair of image pre-processing units that respectively input image outputs of the stereo cameras, and include a filter processing function, a binarization processing function, and a differentiation circuit for the images;
A pair of labeling processing units that respectively input outputs of the pair of image preprocessing units and perform a labeling process for creating a connected image based on the differential image;
A search processing unit that inputs outputs of the pair of labeling processing units and searches for a specific image with respect to the connected images;
An obstacle recognition processing apparatus comprising: a coordinate conversion processing unit that converts an image searched by the search processing unit into a road surface coordinate system.
前記画像処理部は、
前記座標変換処理部より出力される障害物座標出力を前記車両内の画像処理・制御装置に供給し、ブレーキ・アクセル制御装置およびパワーステアリング装置を制御する請求項5記載の障害物の認識処理装置。
The image processing unit
6. The obstacle recognition processing device according to claim 5, wherein an obstacle coordinate output outputted from the coordinate conversion processing unit is supplied to an image processing / control device in the vehicle to control a brake / acceleration control device and a power steering device. .
JP2001190823A 2001-06-25 2001-06-25 Obstacle recognition method and recognition processing apparatus using a stereo camera Expired - Fee Related JP4509429B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001190823A JP4509429B2 (en) 2001-06-25 2001-06-25 Obstacle recognition method and recognition processing apparatus using a stereo camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001190823A JP4509429B2 (en) 2001-06-25 2001-06-25 Obstacle recognition method and recognition processing apparatus using a stereo camera

Publications (2)

Publication Number Publication Date
JP2003006620A JP2003006620A (en) 2003-01-10
JP4509429B2 true JP4509429B2 (en) 2010-07-21

Family

ID=19029537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001190823A Expired - Fee Related JP4509429B2 (en) 2001-06-25 2001-06-25 Obstacle recognition method and recognition processing apparatus using a stereo camera

Country Status (1)

Country Link
JP (1) JP4509429B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2859860B1 (en) * 2003-09-11 2006-02-17 Valeo Vision OBSTACLE DETECTION DEVICE HAVING A STEREOSCOPIC IMAGING SYSTEM INCLUDING TWO OPTICAL SENSORS
KR100727033B1 (en) 2005-12-07 2007-06-12 한국전자통신연구원 Apparatus and method for vision processing on network based intelligent service robot system and the system using the same
KR101628503B1 (en) * 2014-10-27 2016-06-08 현대자동차주식회사 Driver assistance apparatus and method for operating thereof
JP2019196122A (en) * 2018-05-10 2019-11-14 鹿島道路株式会社 Automatic braking apparatus of heavy machine

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08271222A (en) * 1995-03-29 1996-10-18 Sanyo Electric Co Ltd Device for detecting human head position

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08271222A (en) * 1995-03-29 1996-10-18 Sanyo Electric Co Ltd Device for detecting human head position

Also Published As

Publication number Publication date
JP2003006620A (en) 2003-01-10

Similar Documents

Publication Publication Date Title
JP6398347B2 (en) Image processing apparatus, recognition object detection method, recognition object detection program, and moving object control system
CN103679120B (en) The detection method of rough road and system
US10867403B2 (en) Vehicle external recognition apparatus
Parra et al. Robust visual odometry for vehicle localization in urban environments
JP4561346B2 (en) Vehicle motion estimation device and moving object detection device
JPH07336669A (en) Stereo image corresponding method and stereo image parallax measuring method
JP5561064B2 (en) Vehicle object recognition device
WO2012086821A1 (en) Positioning apparatus and positioning method
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
CN104918033A (en) Image processing device and image processing method
CN110088807B (en) Separation line identification device
JPWO2017072955A1 (en) Parking assistance device and parking assistance method
CN110088801B (en) Driving region detection device and driving assistance system
JP2014164601A (en) Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program
CN111731304B (en) Vehicle control device, vehicle control method, and storage medium
CN113537047A (en) Obstacle detection method, obstacle detection device, vehicle and storage medium
JP4509429B2 (en) Obstacle recognition method and recognition processing apparatus using a stereo camera
CN110675442A (en) Local stereo matching method and system combined with target identification technology
KR20160088986A (en) Lane detection method using disparity based on vanishing point
JP2005156199A (en) Vehicle detection method and vehicle detector
JP3629935B2 (en) Speed measurement method for moving body and speed measurement device using the method
JP4696925B2 (en) Image processing device
JP2001082954A (en) Image processing device and image processing distance- measuring method
LaLonde et al. Fully convolutional deep neural networks for persistent multi-frame multi-object detection in wide area aerial videos
Wong et al. Single camera vehicle localization using feature scale tracklets

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071005

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20071009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090721

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100428

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees