JP2019091327A - 立体物検出装置 - Google Patents

立体物検出装置 Download PDF

Info

Publication number
JP2019091327A
JP2019091327A JP2017220569A JP2017220569A JP2019091327A JP 2019091327 A JP2019091327 A JP 2019091327A JP 2017220569 A JP2017220569 A JP 2017220569A JP 2017220569 A JP2017220569 A JP 2017220569A JP 2019091327 A JP2019091327 A JP 2019091327A
Authority
JP
Japan
Prior art keywords
vehicle
dimensional object
shadow area
object detection
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017220569A
Other languages
English (en)
Inventor
修造 金子
Shuzo Kaneko
修造 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2017220569A priority Critical patent/JP2019091327A/ja
Publication of JP2019091327A publication Critical patent/JP2019091327A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】車両を移動させることなく、又、複数のカメラを備えることなく、単一のカメラ画像を用いて、車両の周辺に存在する立体物を検出することのできる立体物検出装置を提供する。【解決手段】車両1に取り付けられたカメラ20により車両1の周辺が撮像されることで得られた画像に基づいて、光源からの光を受けて車両1が形成した実際の影領域である実影領域を取得する実影領域取得部14と、光源からの光を受けた車両1が平坦な路面上に形成すると予測される仮想的な影領域である仮想影領域を算出する仮想影領域算出部13と、実影領域の形状と、仮想影領域の形状とを比較した結果に基づいて、車両1の周辺に存在する立体物を検出する立体物検出部15と、を有する。【選択図】図1

Description

本発明は、立体物検出装置に関する。
従来、車両に取り付けられたカメラによって車両の周辺を撮像することにより得られた2つの画像に基づいて、車両の周辺に存在する障害物を検知する技術が知られている。車両に取り付けられた単一のカメラで撮像された画像の中から、自車影領域を特定する自車影認識装置が開示されている(例えば特許文献1参照)。
この装置では、予め推定された自車影推定パターンに基づき、カメラで撮像された画像の中から自車影の探索領域が設定される。その設定された探索領域に対して、輝度と形状の特徴を用いて、自車影候補領域がカメラで撮像された画像の中から抽出される。そして、自車影候補領域と自車影推定パターンとのパターン照合が行われ、その照合結果を基に、自車影候補領域が自車影領域として特定される。
特開2011−65442号公報
しかしながら、特許文献1に開示された技術により得られた自車影領域を作って、具体的に障害物を特定するものではない。
本発明は、上記課題に鑑みてなされたもので、車両を移動させることなく、又、複数のカメラを備えることなく、単一のカメラ画像を用いて、車両の周辺に存在する立体物を検出することのできる立体物検出装置を提供することを目的とする。
本発明に係る立体物検出装置は、車両に取り付けられたカメラにより前記車両の周辺が撮像されることで得られた画像に基づいて、光源からの光を受けて前記車両が形成した実際の影領域である実影領域を取得する実影領域取得部と、前記光源からの光を受けた前記車両が平坦な路面上に形成すると予測される仮想的な影領域である仮想影領域を算出する仮想影領域算出部と、前記実影領域の形状と、前記仮想影領域の形状とを比較した結果に基づいて、前記車両の周辺に存在する立体物を検出する立体物検出部と、を有することを特徴とする。
このように構成された本発明に係る立体物検出装置によれば、車両を移動させることなく、又、複数のカメラを備えることなく、単一のカメラ画像を用いて、車両の周辺に存在する立体物を検出することができる。
立体物検出装置を適用した立体物検出システムを構成するハードウェア要素を示すハードウェアブロック図である。 仮想影領域算出部で算出された仮想影領域を模式的に示す図である。 仮想影領域算出部で行われる仮想影領域算出処理の詳細を説明する説明図である(その1)。 仮想影領域算出部で行われる仮想影領域算出処理の詳細を説明する説明図である(その2)。 立体物検出装置で行われる立体物検出処理の概要を説明する説明図である。 立体物検出装置で行われる立体物検出処理を示すフローチャートである。 車両の周辺が撮像されることで得られた画像内に写りこんだ太陽の様子を示す説明図である。 立体物検出装置を適用した立体物検出システムを構成するハードウェア要素を示すハードウェアブロック図である。 車両の周辺が撮像されることで得られた画像内に写り込んだ水滴の様子を示す説明図である。 変形例の立体物検出装置で行われる立体物検出処理の概要を説明する説明図である。
以下、本発明に係る立体物検出装置の具体的な実施形態について、図面を参照して説明する。
(立体物検出装置を適用したシステム構成の説明)
図1は、立体物検出装置10を適用した立体物検出システム100を構成するハードウェア要素を示すハードウェアブロック図である。
立体物検出システム100は、車両1に設置されている。立体物検出システム100は、立体物検出装置10と、前方カメラ20a,後方カメラ20b,左側方カメラ20c,右側方カメラ20dと、表示装置30と、ユーザインタフェース40と、車載ネットワーク50と、カーナビゲーション装置70と、ROM(Read Only Memory)80と、RAM(Random Access Memory)90を有する。なお以下では、前方カメラ20a,後方カメラ20b,左側方カメラ20c,右側方カメラ20dを特に区別しないときは、単にカメラ20ともいう。
立体物検出装置10は、車両1の周辺に存在する立体物の位置又は形状を検出する。立体物検出装置10の詳細は後述する。
各カメラ20は、水平方向から斜め下方に光軸が向くように車両1に取り付けられる。前方カメラ20a及び後方カメラ20bは、例えばナンバープレート付近の車体に取り付けられる。左側方カメラ20c及び右側方カメラ20dは、例えばサイドミラーの下部等に取り付けられる。
表示装置30は、例えばLCD(Liquid Crystal Display)等で構成され、車両1の運転手が視認できる位置に配置されて、運転手に対して各種情報を表示する。表示装置30は、例えば、各カメラ20から得られた画像を表示する。
ユーザインタフェース40は、車両1の運転者が立体物検出システム100を操作するためのスイッチ類とインジケータ類とにより構成される。ユーザインタフェース40は、車両1の運転手によるスイッチ類の操作に応答して、立体物検出装置10に立体物検出の開始又は終了を指示する。ユーザインタフェース40は、例えば、予期しない障害が立体物検出システム100に発生した際に、インジケータ類を通じて車両1の運転者にその旨を報知する。
車載ネットワーク50は、車両1に搭載された複数のコントロールユニット間の情報を共有する。車載ネットワーク50の代表的な規格としては、CAN(Controller Area Network)等が挙げられる。車載ネットワーク50で共有される情報には、例えば、車両1の車輪速、車両1のステアリングの操舵角、各種ランプ類のON/OFF状態、ワイパの動作状態等、車両1の挙動に関する情報が含まれる。
カーナビゲーション装置70は、GPS(Global Positioning System)信号に基づいて、車両1の現在位置の緯度及び経度や、車両1の進行方向等の情報を算出する。
ROM80には、プログラムで必要となる情報のうちで書き換えをせずに利用される情報が事前に格納される。ROM80には、例えば、カメラ20の設置位置や角度の設計値等、カメラ20の取り付け状態に関するカメラパラメータが格納される。
RAM90には、立体物検出装置10における検出処理過程で必要となる数値データ、検出処理途中の処理結果に対するプログラムの変数の他、各カメラ20によって撮像された画像データ等が書き込まれる。その書き込まれたデータは、立体物検出装置10の検出処理過程で適宜必要に応じて読み出されて検出処理に使用される。
(立体物検出装置の構成の説明)
次に、図1を用いて、立体物検出装置10の構成について説明する。
立体物検出装置10は、自車立体形状データベース11と、光源位置算出部12と、仮想影領域算出部13と、実影領域取得部14と、立体物検出部15を有する。
自車立体形状データベース11は、車両1の三次元データである自車立体形状データを記憶する。自車立体形状データは、車両1の外形を三次元座標(X,Y,Z)として離散化されたデータである。
光源位置算出部12は、カメラ20に対して光学的な無限遠に位置する光源である太陽Sの位置を算出する。光源位置算出部12は、車両1の現在位置の緯度及び経度と、現在の時刻と、標準子午線の情報等に基づいて、太陽Sの位置(向き)を算出する。太陽Sの位置には、太陽Sの高度、方位角、仰角等が含まれる。なお、車両1の現在位置の緯度及び経度等の情報は、カーナビゲーション装置70から必要に応じて読み出されて使用される。
仮想影領域算出部13は、太陽Sからの光を受けた車両1が平坦な路面上に形成すると予測される仮想的な影領域である仮想影領域を算出する。仮想影領域は、太陽Sに対する車両1の相対的な位置と、車両1の形状及び寸法と、車両1の姿勢とによって一義的に定まる影領域である。
図2は、仮想影領域算出部13で算出された仮想影領域5を模式的に示す図である。仮想影領域5は、平坦な路面上に投影されたと想定される自車影の領域である。例えば8個の計測点VP[n](n=1,2,・・・,8)は、自車立体形状データを構成する計測点である。図2に示す各計測点SP[n](n=1〜8)は、各計測点VP[n]に対応する路面2上の計測点である。
実影領域取得部14は、カメラ20により車両1の周辺が撮像されることで得られた画像に基づいて、太陽Sからの光を受けて車両1が形成した実際の影領域である実影領域を取得する。
立体物検出部15は、実影領域の形状と、仮想影領域の形状とを比較した結果に基づいて、車両1の周辺に存在する立体物の位置又は形状を検出する。立体物検出部15は、障害物判断部16と、路面判断部17とを有する。
仮想影領域算出部13,実影領域取得部14及び立体物検出部15の詳細は後述する。
(仮想影領域算出部で行われる仮想影領域算出処理の概要の説明)
次に、図3及び図4を用いて、仮想影領域算出部13で行われる仮想影領域算出処理の概要を説明する。
図3は、右側方カメラ20dによって車両1の周辺が撮像されることで得られた画像Id内に、仮想影領域5が設定される場面の一例である。この場面では、車両1の右側方に壁3が存在している。
次に、図4を用いて、仮想影領域算出部13で行われる仮想影領域算出処理の詳細を説明する。図4では、自車立体形状データを構成する各計測点VP[n]を代表する代表点VP(車室の屋根部分に相当する計測点VP)を示し、その代表点VPの高さをHとする。また、代表点VPを通る太陽光線の路面2に対する入射角度を仰角θとする。仰角θは、車両1の現在位置の緯度及び経度と、現在の時刻と、標準子午線の情報等に基づいて、光源位置算出部12により算出される。その算出された仰角θは、仮想影領域算出部13で行われる仮想影領域の算出処理に使用される。
仮想影領域算出部13は、高さHと仰角θとから、以下の式(1)を用いて、仮想影領域5の長さLの推定値を算出する。
この算出は、自車立体形状データを構成する計測点VP[n](図2に示す例では8点)の一つ一つについて行われる。そして、仮想影領域算出部13は、各計測点VP[n]で算出した推定値を統合して仮想影領域5を算出する。
(実影領域取得部で行われる実影領域取得処理の概要の説明)
次に、図3を用いて、実影領域取得部14で行われる実影領域取得処理の概要を説明する。図3の場面では、車両1の右側方に壁3が存在し、この壁3に実影領域4が射影している。
実影領域取得部14は、輝度と形状の特徴を用いて実影領域4を画像Idから抽出する。具体的に、実影領域取得部14は、輝度の特徴として、実影領域4は周囲と比べて相対的に輝度が低くなっていることを利用して、実影領域4を抽出する。また、実影領域取得部14は、形状の特徴として、実影領域4は必ず車両1と路面2との接地面から伸びていることを利用して、実影領域4を抽出する。
(立体物検出装置で行われる立体物検出処理の概要の説明)
次に、図5を用いて、立体物検出装置10で行われる立体物検出処理の概要を説明する。図5は、車両1の右側方に壁3が存在し、この壁3に実影領域4が射影している場面の一例を示した図である。
図5の場面では、実影領域4は、路面2の領域にある実影領域4aと、壁3の領域にある実影領域4bとに分類される。この場面では、車室の屋根部分に相当する計測点VPの高さをHとし、計測点VPに対応する路面2上の計測点をSPとする。また、壁3が存在しない場合に形成されると予測される仮想影領域5の長さをLとする。また、路面2と壁3との接点をCPとし、実影領域4bにおける路面2と反対側の端点をCPEとする。
図5に示すように、壁3が存在する場合、太陽Sから壁3に入射した太陽光線は、点CPEで反射して折れ曲がり、結像レンズ(不図示)の焦点Fを通過する。その後、太陽光線は、右側方カメラ20dの撮像面IS上の点Paに結像する。
図5に示すように、壁3が存在しない場合、計測点SPと焦点Fとを結んだ線分の延長線は、右側方カメラ20dの撮像面ISと点Pbで交わる。すなわち、壁3が存在しない場合、計測点SPからの太陽光線は、右側方カメラ20dの撮像面IS上の点Pbに結像する。
すなわち、壁3が存在する場合に太陽光線が撮像面IS上に結像する結像点Paと、壁3が存在しない場合に太陽光線が撮像面IS上に結像する結像点Pbとの間には、距離Dに相当する分だけ差異が生じる。この距離Dは、実影領域4と仮想影領域5との相関値(類似度)を表す特徴量の一態様となる。
立体物検出装置10は、結像点Pa,Pb間の距離Dを特徴量に利用して、車両1以外の立体物が実影領域4に重畳しているか否かを判別する。立体物検出装置10は、その判別結果に基づいて、車両1の周辺に存在する立体物として壁3の位置及び形状のうち少なくとも一方を検出する。
図6は、立体物検出装置で行われる立体物検出処理を示すフローチャートである。ここでは、図3及び図7の場面を想定して立体物検出処理を説明する。図7は、左側方カメラ20cによって車両1の周辺が撮像されることで得られた画像Ic内に写りこんだ太陽Sの様子を示す説明図である。
立体物検出処理は、例えばユーザインタフェース40(図1)のスイッチ類が車両1の運転手に操作されたことに基づいて開始される。
まず、ステップS10では、光源位置算出部12において、画像Ic(図7)中で相対的に輝度が高くなっている高輝度領域6(図7中の破線で囲んだ領域)が取得される。
ステップS11では、光源位置算出部12において、高輝度領域6の中心位置を太陽Sの位置として、太陽Sの仰角θが算出される。
ステップS12では、仮想影領域算出部13は、太陽Sの仰角θに基づいて、仮想影領域5の長さLの推定値を算出可能か否か判断する。すなわち、太陽Sの仰角θが90°未満の場合、長さLの推定値が算出可能であると判断され(ステップS12におけるYES)、処理はステップS13に移行する。
一方、太陽Sの仰角θが90°の場合、上記式(1)に示すtanθの値が無限大となるので、長さLの推定値の算出が不可能であると判断され(ステップS12におけるNO)、立体物検出の処理は終了する。
ステップS13では、仮想影領域算出部13において、仮想影領域5(図3)が算出され、画像Id(図3)内に設定される。
ステップS14では、実影領域取得部14において、画像Id(図3)中で相対的に輝度が低くなっている低輝度領域(図中の破線で囲んだ領域)が、実影領域4として取得される。
ステップS15では、立体物検出部15において、実影領域4の形状と、仮想影領域5の形状とが車両1の付近において比較される。なぜなら、本発明者の検討によれば、実影領域4の形状と、仮想影領域5の形状とが車両1の付近で一致するほど、実影領域4が車両1によって形成された影である可能性が高いからである。
すなわち、立体物検出部15は、両形状の相関値を算出し、算出した相関値が予め決められた閾値を超える場合に、両形状が一致すると判断する。両形状が一致すると判断された場合(ステップS15におけるYES)、処理はステップS16に移行する。一方、算出した相関値が予め決められた閾値以下の場合、両形状が一致しないと判断され(ステップS15におけるNO)、立体物検出の処理は終了する。
ステップS16では、障害物判断部16において、パターン認識又はテンプレートマッチング等により、実影領域4に対して仮想影領域5を照合して、両領域の相関値を算出する。障害物判断部16は、算出した相関値が予め決められた閾値以下となる領域を、両領域の差分領域として抽出する。
ステップS17では、障害物判断部16において、実影領域4の面積が仮想影領域5の面積よりも大きいか否かの判断が行われる。実影領域4の面積が仮想影領域5の面積よりも大きい場合(ステップS17におけるYES)、車両1の周辺に障害物が存在すると判断され、処理はステップS18に移行する。一方、実影領域4の面積が仮想影領域5の面積以下の場合(ステップS17におけるNO)、車両1の周辺に障害物が存在しないと判断され、立体物検出の処理は終了する。
ステップS18では、立体物検出部15において、パターン認識又はテンプレートマッチング等により、実影領域4に対して仮想影領域5を照合する。立体物検出部15は、その照合結果を基にして、実影領域4が仮想影領域5の形状よりも大きくなる方向に変化し始めるポイントをトレースして、実影領域4の輪郭を抽出する。
ステップS19では、立体物検出部15において、実影領域4の輪郭を基にして、車両1の周辺に存在する壁3(立体物)の位置及び形状のうち少なくとも一方を検出する。
このため、車両1を移動させることなく、又、複数のカメラを備えることなく、単一のカメラ画像を用いて、車両1の周辺に存在する壁3を検出することができる。
すなわち、2視点で撮像された2枚の画像の差異による立体物の検知を行う必要が無い。このため、同一の方向を向いた2台のカメラは不要である。その結果、ハードウェア構成が複雑かつ高価になるという問題は生じない。
さらに、壁3の位置及び形状のうち少なくとも一方を検出するにあたって、車両1が走行中にカメラ20で車両1の周辺を撮像する必要は無い。このため、車両1を移動させることなく停止させたままで、車両1の周辺に存在する壁3の位置及び形状のうち少なくとも一方を検出することができる。
なお、上記実施形態では、立体物検出部15において、実影領域4及び仮想影領域5の両形状を比較し、両形状に差が有るとき、車両1の周辺に立体物が存在すると判断し、両形状に差が無いとき、車両1の周辺に立体物が存在しないと判断した。
ここで、図8に示すように、立体物検出部15をレンズ付着判断部115に代えれば、立体物検出装置110を、カメラ20のレンズに泥や水滴等の汚れが付着しているか否かを判断する装置としても使える。なお、上記実施形態(図1)で説明した要素と同一の要素については、同じ符号を付し、詳細な説明を省略する。
すなわち、レンズ付着判断部115は、実影領域4及び仮想影領域5の両形状を比較し、両形状に差が有るとき、レンズに汚れが付着していると判断し、両形状に差が無いとき、レンズに汚れが付着していないと判断する。
図9は、右側方カメラ20dによって車両1の周辺が撮像されることで得られた画像Id内に写り込んだ水滴DWの様子を示す説明図である。本発明者の検討によれば、レンズに水滴等の汚れが付着した場合、実影領域4の輪郭は、図9に示すように、内側に凹むことが明らかになっている。
この性質を利用し、レンズ付着判断部115は、実影領域4の形状が仮想影領域5の形状よりも小さくなる場合に、レンズに汚れが付着していると判断する。
以上、本発明の実施形態を図面により詳述したが、実施形態は本発明の例示にしか過ぎないものであるため、本発明は実施形態の構成にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。
上記実施形態では、太陽Sのように車両1から無限遠点にある光源から照射される光によって形成される影を用いて立体物が検出される例を示した。しかし、これに限られない。例えば、車両1からの距離が有限である街灯ランプ等の光源から車両1に照射される光によって形成される影を用いて立体物を検出してもよい。
その場合、光源からの光は太陽光線のように平行な光ではなく、放射状に広がるので、車両1から光源までの距離に応じて実影領域4は様々な形状に変化する。したがって、仮想影領域5のデータを、車両1から光源までの距離に対応付けてROM80(図1)に予め記憶しておく必要がある。立体物検出部15は、その記憶した実影領域4と仮想影領域5との比較によって、立体物の位置及び形状のうち少なくとも一方を検出することが可能となる。
上記実施形態では、立体物検出部15において、車両1の周辺に存在する壁3の位置及び形状のうち少なくとも一方を検出する例を示した。しかし、これに限られない。例えば、立体物検出部15において、図11に示すように、車両1の周辺に存在する輪留め7(立体物)の位置及び形状のうち少なくとも一方を検出しても良い。
1・・・車両
2・・・路面
2a・・・平坦部分
2b・・・起伏部分(立体物)
3・・・壁(障害物)
4、4a、4b・・・実影領域
5・・・仮想影領域
7・・・輪留め(立体物)
10、110・・・立体物検出装置
13・・・仮想影領域算出部
14・・・実影領域取得部
15・・・立体物検出部
16・・・障害物判断部
17・・・路面判断部
20・・・カメラ
20a・・・前方カメラ
20b・・・後方カメラ
20c・・・左側方カメラ
20d・・・右側方カメラ
100・・・立体物検出システム
115・・・レンズ付着判断部
S・・・太陽(光源)

Claims (3)

  1. 車両に取り付けられたカメラにより前記車両の周辺が撮像されることで得られた画像に基づいて、光源からの光を受けて前記車両が形成した実際の影領域である実影領域を取得する実影領域取得部と、
    前記光源からの光を受けた前記車両が平坦な路面上に形成すると予測される仮想的な影領域である仮想影領域を算出する仮想影領域算出部と、
    前記実影領域の形状と、前記仮想影領域の形状とを比較した結果に基づいて、前記車両の周辺に存在する立体物を検出する立体物検出部と、
    を有することを特徴とする立体物検出装置。
  2. 請求項1に記載の立体物検出装置において、
    前記立体物検出部は、前記立体物の位置及び形状のうち少なくとも一方を検出することを特徴とする立体物検出装置。
  3. 請求項1又は請求項2に記載の立体物検出装置において、
    前記光源は、前記カメラに対して光学的な無限遠に位置することを特徴とする立体物検出装置。
JP2017220569A 2017-11-16 2017-11-16 立体物検出装置 Pending JP2019091327A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017220569A JP2019091327A (ja) 2017-11-16 2017-11-16 立体物検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017220569A JP2019091327A (ja) 2017-11-16 2017-11-16 立体物検出装置

Publications (1)

Publication Number Publication Date
JP2019091327A true JP2019091327A (ja) 2019-06-13

Family

ID=66836457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017220569A Pending JP2019091327A (ja) 2017-11-16 2017-11-16 立体物検出装置

Country Status (1)

Country Link
JP (1) JP2019091327A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019213930A1 (de) * 2019-09-12 2021-03-18 Zf Friedrichshafen Ag Verfahren zur Optimierung der Umgebungserkennung bei einem Fahrzeug

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019213930A1 (de) * 2019-09-12 2021-03-18 Zf Friedrichshafen Ag Verfahren zur Optimierung der Umgebungserkennung bei einem Fahrzeug
DE102019213930B4 (de) * 2019-09-12 2021-05-12 Zf Friedrichshafen Ag Verfahren zur Optimierung der Umgebungserkennung bei einem Fahrzeug

Similar Documents

Publication Publication Date Title
KR102022388B1 (ko) 실세계 물체 정보를 이용한 카메라 공차 보정 시스템 및 방법
JP4420011B2 (ja) 物体検知装置
KR101143176B1 (ko) 조감도를 이용한 주차구획 인식 방법, 장치 및 그를 이용한주차 보조 시스템
JP5022609B2 (ja) 撮像環境認識装置
JP6866440B2 (ja) 物体識別方法、装置、機器、車両及び媒体
JP5421072B2 (ja) 接近物体検知システム
EP2933790B1 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
CN104185588B (zh) 用于确定道路宽度的车载成像系统及方法
JP4624594B2 (ja) 物体認識方法および物体認識装置
JP5399027B2 (ja) 自動車の運転を支援するための、立体画像を捕捉することができるシステムを有するデバイス
US11100806B2 (en) Multi-spectral system for providing precollision alerts
CN103874931B (zh) 用于求取车辆的环境中的对象的位置的方法和设备
US10635896B2 (en) Method for identifying an object in a surrounding region of a motor vehicle, driver assistance system and motor vehicle
JP2004056763A (ja) 監視装置、監視方法および監視用プログラム
WO2005036371A2 (en) Moving object detection using low illumination depth capable computer vision
JP2009009209A (ja) 画像認識装置および画像認識処理方法
JP2015153295A (ja) 外界認識システム、車両、及びカメラの汚れ検出方法
CN111052174A (zh) 图像处理设备、图像处理方法和程序
JP6129268B2 (ja) 車両用運転支援システムおよび運転支援方法
JP7173062B2 (ja) 変化点検出装置及び地図情報配信システム
CN110969059A (zh) 车道线识别方法及系统
CN109703465B (zh) 车载图像传感器的控制方法和装置
JP3857698B2 (ja) 走行環境認識装置
KR20200071105A (ko) 자동차 상에 존재하는 적어도 하나의 오브젝트를 검출하기 위한 방법, 제어 장치 및 자동차
JP2019091327A (ja) 立体物検出装置