JP5096836B2 - 車両の周囲を画像化する方法およびそのためのシステム - Google Patents

車両の周囲を画像化する方法およびそのためのシステム Download PDF

Info

Publication number
JP5096836B2
JP5096836B2 JP2007217663A JP2007217663A JP5096836B2 JP 5096836 B2 JP5096836 B2 JP 5096836B2 JP 2007217663 A JP2007217663 A JP 2007217663A JP 2007217663 A JP2007217663 A JP 2007217663A JP 5096836 B2 JP5096836 B2 JP 5096836B2
Authority
JP
Japan
Prior art keywords
image
dimensional
vehicle
images
series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007217663A
Other languages
English (en)
Other versions
JP2008052741A (ja
Inventor
スティーグラー アンドレアス
Original Assignee
ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー filed Critical ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー
Publication of JP2008052741A publication Critical patent/JP2008052741A/ja
Application granted granted Critical
Publication of JP5096836B2 publication Critical patent/JP5096836B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Non-Silver Salt Photosensitive Materials And Non-Silver Salt Photography (AREA)

Description

本発明は、車両の周囲を画像化する方法に関する。本発明は、コントロールユニットが車両のドライビングパラメータを制御する自動速度制御システム(cruise control system)にも関する。
画像センサ、例えばカメラの使用が、車両において広がっている。例として、画像センサが障害物を感知するために、および車両の背後の周囲をドライバに見せるために、車両の背後を画像化する駐車制御システムにおいて、カメラが使用される。追加的に、オブジェクト、例えば他の車両を探すために車両の前方が調査される自動速度制御システムが開発された。これらの自動速度制御システムにおいては、車両の前方を動いているオブジェクトと車両との間の相対距離が決定されなければならない。オブジェクトが車両にあまりにも接近しすぎていると決定されるとき、ドライバは知らされるか、または自動速度制御システムが減速などによってモータを能動的に制御さえし得る。従来の画像センサ、例えばCCDまたはCMOS画像センサは、その場の輝度を測定するが、その場の立体情報に欠ける。従来は、3次元情報が、2つの2次元画像センサ、例えばCCDカメラを使用することによって、および数学を使用することによって得られた。
追加的に、3次元画像センサが開発され、これらのセンサは、商業的に入手可能な2次元センサによって直面される欠点を克服した。そのような3次元の光学的測定は、オブジェクトの表面反射、センサからのオブジェクトの距離および照明状態から大きく独立しているオブジェクトの絶対的な3次元的形状を伝える。3次元カメラの一例は、PMD(フォトニックミキサデバイス)センサであり、PMDセンサは、光信号を発することによって、および反射された光信号の飛翔時間を計算することによって、距離を測定する。これらの3次元画像センサは、半導体要素である。3次元画像は、異なる画素の測定、従って完全な画像の測定を可能にするマトリックスに、いくつかの3次元センサ要素を配置することによって得られる。
画像センサの信号が、車両に近づくオブジェクトを感知することによって、または画像センサの前方の車両を追跡することによってドライバを補佐するシステムに使用されるとき、画像データは、早い速度で更新されなければならない。画像信号が、ハイウエイにおいて速い速度で使用されるとき、フレームレート(時間当たりの画像)、例えば100frames/sが必要である。完全な2次元画像が、1秒間に100回計算されるとき、高い計算能力が、画像を処理するために、および画像における関係情報を感知するために必要とされる。
従って、計算能力が減ぜられ得、なおかつオブジェクトの感知が保証される車両の周囲を画像化する方法、およびそのためのシステムを提供する必要性が存在する。
本発明の一局面によると、車両の周囲を画像化する方法が提供され、該方法は、周囲の一連の2次元画像を取るステップを包含する。追加的に、周囲の一連の3次元画像が取られ、該3次元画像は立体情報を含む。さらに、関心領域におけるオブジェクトは、一連の画像のうちの1つにおいて決定され、該関心領域における該オブジェクトは、追跡される。追加的に、他の一連の画像も、該他の一連の画像からオブジェクト情報を取り出すために処理される。該一連の画像において追跡されるオブジェクトは、他の一連の画像を処理することから受信されるオブジェクト情報に従って、調節される。一連のうちの1つにおける関心領域のみを処理することによって、計算能力は減ぜられ得る。完全な画像が処理されるのではないという事実のために、処理は、画像のいくつかの関心領域に集中され得る。画像の残りは処理されないので、画像の非処理部分におけるオブジェクトは、感知され得ない。車両に近づく新しいオブジェクトを画像の中で確実に感知するために、他の一連の画像が処理される。他の一連の画像において、オブジェクトが感知された場合、情報が画像化ユニットに送信され、画像化ユニットでは、オブジェクトが関心領域で追跡される一連の画像が取られる。他の一連の画像を処理することによって感知されるオブジェクトは、一連の画像において追跡される。標準的な2次元カメラが距離測定センサと融合することにより、画像化システムの複雑さが減ぜられ得る。追加的に、オブジェクト感知の質および結果の待ち時間は最適化され得る。
本発明の別の局面は、一連の2次元画像を生成する2次元画像センサ、および車両の周囲の3次元画像を生成する3次元画像センサを備える車両の周囲を画像化するシステムを提供する。画像処理ユニットが提供され得て、追跡される画像におけるオブジェクトを感知するために、2次元および3次元画像のうちの一方を処理する。追加的に、画像処理ユニットはまた、他の画像におけるオブジェクト情報を取り出すために、2次元および3次元のうちの他方も処理する。処理ユニットは、他の画像を処理することから受信されたオブジェクト情報に従って、該2次元および3次元画像のうちの一方において、追跡されるオブジェクトを調節し得る。
本発明の別の局面に従って、車両のための自動速度制御システムが提供される。自動速度制御システムは、車両のエンジンを制御するための自動速度制御ユニットを備える。一実施形態によると、車両のエンジンは、一連の2次元および3次元画像のうちの一方または両方を処理することから受信されるオブジェクト情報に基づいて制御される。
さらに、車両における機能を制御する方法が提供される。該方法は、一連の2次元および3次元画像の感知、一連の画像のうちの1つにおいてオブジェクトを見つけかつ追跡すること、および一連の画像の両方を処理してオブジェクト情報を取り出すことを包含する。一連の画像において追跡されるオブジェクトは、他の一連の画像を処理することから取り出されたオブジェクト情報に従って調節され得る。例えば、追跡されるオブジェクトが、追加または除去され得る。取り出されたオブジェクト情報に基づいて、車両の機能は、制御される。一実施形態によると、機能の制御は、乗客および/または歩行者保護装置の配備を含み、さらに別の実施形態によると、機能の制御は、車両の加速または減速の制御を含む。
本発明の他の目的、特徴、および利点が、添付の図面を参照する次の記述の途上で明らかとなる。詳細な説明および図面は、制限するものではなくむしろ本発明の単なる例示であり、本発明の範囲は添付の特許請求の範囲およびその均等物によって定義される。
本発明は、さらに以下の手段を提供する。
(項目1)
車両の周囲を画像化する方法であって、該方法は、
周囲の一連の2次元画像を取るステップと、
周囲の一連の3次元画像を取るステップであって、該画像は立体情報を備えている、ステップと、
一連の画像のうちの1つにおける関心領域において少なくとも1つのオブジェクトを決定し、該関心領域において該オブジェクトを追跡するステップと、
他の一連の画像からオブジェクト情報を取り出すために、該一連の画像のうちの他のものを処理するステップと、
他の一連の画像を処理することから受信されるオブジェクト情報に従って、該一連の画像において追跡されるオブジェクトを調節するステップと
を包含する、方法。
(項目2)
上記2次元画像および上記3次元画像は、処理されて、該画像の所定の観察領域においてオブジェクトをローカライズし、該オブジェクトの距離は車両に対して変化する、項目1に記載の方法。
(項目3)
上記車両に対する位置および速度は、ローカライズされたオブジェクトに対して決定される、項目1に記載の方法。
(項目4)
上記関心領域は、上記オブジェクトの動きが追跡される上記一連の2次元画像において決定される、項目1に記載の方法。
(項目5)
上記車両に対する上記オブジェクトの距離は、上記3次元画像で決定される、項目1に記載の方法。
(項目6)
上記3次元画像は、上記車両に対する距離の変化が所定の値よりも大きいオブジェクトを感知するために処理される、項目1に記載の方法。
(項目7)
3次元画像から取り出された感知されたオブジェクトの位置情報およびサイズ情報は、2次元画像ユニットへ送信され、該2次元画像において追跡される該オブジェクトは、該3次元画像から受信された情報に適合される、項目6に記載の方法。
(項目8)
上記オブジェクトが、上記3次元画像において感知される追加的な関心領域が、上記2次元画像において加えられる、項目6に記載の方法。
(項目9)
オブジェクトは、上記車両に対する該オブジェクトの位置および速度と共に、上記3次元画像において識別かつ追跡される、項目1に記載の方法。
(項目10)
オブジェクトは、2次元画像において、それらの位置で識別され、該位置に対し、上記車両に対する距離の変化は、所定の距離変化よりも大きいと考えられる、項目9に記載の方法。
(項目11)
上記オブジェクトの位置を、3次元画像ユニットへ送信するステップと、
上記オブジェクトの上記車両との相対的な距離の決定を要求するステップであって、該オブジェクトの位置は送信された、ステップと、
該オブジェクトの相対距離を決定するステップであって、該オブジェクトの位置は、上記2次元画像で決定された、ステップと、
上記3次元画像においても、該オブジェクトを追跡するステップと
をさらに包含する、項目10に記載の方法。
(項目12)
上記2次元画像は、50frames/sと100frames/sとの間のフレームレートで取られ、上記3次元画像は、10frames/sと100frames/sとの間のフレームレートで取られる、項目1に記載の方法。
(項目13)
上記画像におけるオブジェクトは、画像データに適用される異なるフィルタアルゴリズムを使用することによって感知される、項目1に記載の方法。
(項目14)
上記2次元画像に対して、第1のフレームレートが、追跡されるオブジェクトを有する関心領域の画像獲得のために使用され、第2のフレームレートは、2次元画像全体の画像獲得のために使用される、項目1に記載の方法。
(項目15)
上記第2のフレームレートは、上記第1のフレームレートよりも10〜50倍小さい、項目14に記載の方法。
(項目16)
オブジェクトが追跡されるとき、記録された画像における位置ベクトルおよび一連の画像を考慮する速度ベクトルは、追跡されるオブジェクトに対して決定される、項目1に記載の方法。
(項目17)
一連の画像のうちの1つにおいて、オブジェクトが所定の相対速度で車両に近づくと決定されるとき、警告信号が生成される、項目1に記載の方法。
(項目18)
上記警告信号は、上記車両の自動速度制御ユニットに送信される、項目17に記載の方法。
(項目19)
オブジェクトが、所定の距離よりも上記車両に近いとき、ドライバはその事実を知らされる、項目17に記載の方法。
(項目20)
上記一連の画像は、上記車両の運転方向を考慮に入れて処理される、項目1に記載の方法。
(項目21)
車両の周囲を画像化するシステムであって、該システムは、
車両の周囲の一連の2次元画像を生成する2次元画像センサと、
車両の周囲の、立体情報を有する3次元画像を生成する3次元画像センサと、
該画像において追跡されるオブジェクトを感知するために、2次元画像と3次元画像とのうちの一方を処理する画像処理ユニットであって、該画像処理ユニットはまた、該2次元画像と3次元画像とのうちの他方におけるオブジェクト情報を取り出すために該2次元画像と3次元画像とのうちの他方を処理し、該処理ユニットは、他方の画像を処理することから受信されたオブジェクト情報に従って、該2次元画像と3次元画像とのうちの一方において追跡されるオブジェクトを調節する、画像処理ユニットと
を備える、システム。
(項目22)
上記2次元画像センサは、CMOSまたはCCD画像センサであり、上記3次元画像センサは、PMD(Photonic Mixer Device)画像センサである、項目21に記載のシステム。
(項目23)
2次元画像化ユニットをさらに備え、該2次元画像化ユニットは、2次元画像センサを備え、2次元センサ制御ユニットを備える、項目21に記載のシステム。
(項目24)
3次元画像化ユニットをさらに備え、該3次元画像化ユニットは、3次元画像センサを備え、3次元センサ制御ユニットを備える、項目21に記載のシステム。
(項目25)
車両のための自動速度制御システムであって、該システムは、車両のエンジンを制御する自動速度制御ユニットを備え、
車両の周囲の一連の2次元画像を生成する2次元画像センサと、
車両の周囲の、立体情報を有する3次元画像を生成する3次元画像センサと、
該画像において追跡されるオブジェクトを感知するために、2次元画像と3次元画像とのうちの一方を処理する画像処理ユニットであって、該画像処理ユニットはまた、該2次元画像と3次元画像とのうちの他方におけるオブジェクト情報を取り出すために該2次元画像と3次元画像とのうちの他方を処理し、該処理ユニットは、他方の画像を処理することから受信されたオブジェクト情報に従って、該2次元画像と3次元画像とのうちの一方において追跡されるオブジェクトを調節する、画像処理ユニットと
をさらに備える、システム。
(項目26)
上記2次元画像センサは、CMOSまたはCCD画像センサであり、上記3次元画像センサは、3次元カメラまたはPMD(Photonic Mixer Device)画像センサである、項目25に記載のシステム。
(項目27)
車両の周囲を画像化するシステムであって、該システムは、
車両の周囲の一連の2次元画像を感知する手段と、
車両の周囲の、立体情報を含む一連の3次元画像を感知する手段と、
一連の2次元画像および3次元画像のうちの一方において追跡されるオブジェクトを見つけるための手段と、
該一連の2次元画像および3次元画像のうちの一方において該オブジェクトを追跡する手段と、
追跡されるオブジェクトについての情報を取り出すために、一連の2次元画像および3次元画像のうちの他方を処理する手段と、
一連の2次元画像および3次元画像のうちの他方を処理することから得られた情報に従って、該一連の2次元画像および3次元画像のうちの一方において追跡されるオブジェクトを調節する手段と
を備えている、システム。
(項目28)
一連の3次元画像を感知する手段は、一連の3次元画像を感知する手段によって感知される発された光信号の飛翔時間を決定する手段を備える、項目27に記載のシステム。
(項目29)
一連の2次元画像および3次元画像のうちの他方を処理する手段によって引き出されたオブジェクト情報は、オブジェクトタイプについての情報および/またはオブジェクト位置情報および/または追跡されるオブジェクトと車両との間の距離についての情報を備えている、項目27に記載のシステム。
(項目30)
上記引き出されたオブジェクト情報に基づいて、上記車両の機能を制御する手段をさらに備えている、項目29に記載のシステム。
(項目31)
車両における機能を制御する方法であって、該方法は、
車両の周囲の一連の2次元画像を感知するステップと、
車両の周囲の、立体情報を含む一連の3次元画像を感知するステップと、
追跡されるオブジェクトを見つけるために一連の画像のうちの一方を処理するステップと、
該一連の画像のうちの一方においてオブジェクトを追跡するステップと、
両方の一連の画像を処理してオブジェクト情報を取り出すステップと、
他方の一連の画像を処理することから取り出された該オブジェクト情報に従って該一連の画像のうちの一方において追跡されるオブジェクトを調節するステップと、
該取り出されたオブジェクト情報に基づいて車両の機能を制御するステップと
を包含する、方法。
(項目32)
上記両方の一連の画像の処理は、
上記一連の2次元画像において追跡される少なくとも1つのオブジェクトを含む少なくとも1つの関心領域を処理して、オブジェクト位置および/またはオブジェクトタイプを含む情報を取り出すことと、
一連の3次元画像を処理して、少なくとも1つの追跡されるオブジェクトについての距離情報を含む情報を取り出すことと
を含む、項目31に記載の方法。
(項目33)
上記機能の制御は、上記車両の加速または減速の制御を含む、項目31に記載の方法。
(項目34)
上記機能の制御は、乗客および/または歩行者保護装置の配備を含む、項目31に記載の方法。
(摘要)
本発明は、車両の周囲を画像化する方法に関し、該方法は、
周囲の一連の2次元画像を取るステップと、
周囲の一連の3次元画像を取るステップであって、該画像は立体情報を備えている、ステップと、
一連の画像のうちの1つにおける関心領域において少なくとも1つのオブジェクトを決定し、該関心領域において該オブジェクトを追跡するステップと、
他の一連の画像からオブジェクト情報を取り出すために、該一連の画像のうちの他のものを処理するステップと、
他の一連の画像を処理することから受信されるオブジェクト情報に従って、該一連の画像において追跡されるオブジェクトを調節するステップと
を包含する。
2次元および3次元の一連の画像が、画像の所定の観察領域において、オブジェクトをローカライズするために、処理され得、該画像の所定の観察領域の距離は、車両に対して変化する。車両の周囲を画像化する画像化システムの重要な局面の一つは、別の車両、または道を横断している人、またはその他任意のオブジェクトであり得る車両に近づくオブジェクトの感知である。本発明の一実施形態において、オブジェクトが一連の画像で感知された場合に、画像内のオブジェクトの位置と車両に対するオブジェクトの速度とが決定される。次に、これらのデータは、反応することが必要であるかどうかを決定するために使用され得る。衝突前制御の場合に、感知されたオブジェクトの速度と位置とは、オブジェクトが車両にぶつかるようであるかどうかを決定されなければならない。自動速度制御システムの場合に、感知されたオブジェクトとの接触を避けるために、または前の車両との距離を維持するために、ブレーキを作動させること、あるいは加速または速度を抑えることが必要であるかどうかが決定されなければならない。
二つの異なる画像センサが提供されるときに、以下の基本的なシナリオが考えられる。第1のシナリオにおいて、関心領域は、オブジェクトの移動が追跡される一連の2次元画像で決定される。この場合、2次元画像は、画像の一部分のみを考慮に入れて、処理することによって処理され、該一部分において、感知されたオブジェクトは存在する。計算上の理由で、画像の他の部分に関するデータを読取らないことさえ考えられる。2次元画像が異なるオブジェクトを追跡するために使用されるときに、車両に対するオブジェクトの距離は、3次元画像を使用して決定され得る。3次元画像センサは、通常、画像センサの全画素に対する距離を決定する。従って、3次元画像化ユニットは、車両に近づくオブジェクトに対する全視野を制御し得る。この場合、3次元画像は、車両に対する距離の変化が所定の値よりも大きいオブジェクトを感知するために処理され得る。2次元画像および3次元画像が、同じ視野をカバーするときに、2次元画像の処理は、特定の関心領域に集中され得、該領域において、オブジェクトはすでにローカライズされている。画像の他の部分を処理する必要性はない。一連の3次元画像を取得する3次元画像化ユニットが、追跡されなければならないオブジェクトを感知するときに、3次元画像から引き出された感知されたオブジェクトの位置およびサイズの情報は、2次元画像化ユニットに転送され得、2次元画像で追跡されたオブジェクトは、3次元画像から受信された情報に適応される。一連の画像のうちの一つの不完全な画像が、処理される場合であっても、二つの画像化システムは共に、車両の周囲の監視を可能にする。2次元画像センサにおける画素の数が、約600x800であり得ることを考慮に入れ、かつ、約100images/sで処理されることが必要であることを考慮に入れると、異なる関心領域への集中が、計算能力を考慮すると、常に完全な画像を処理するために必要であるということが明らかになる。3次元画像化センサは、通常、画素の解像度がさらに低い。例として、画像化センサは、48x64画素の解像度を使用し得る。この解像度は、車両に近づいている新たなオブジェクトの感知をするには充分である。次に、3次元画像化センサによって感知されたオブジェクトを含む情報は、さらなる関心領域が追跡される2次元画像化ユニットに転送される。
2次元の画像は、50〜100frames/sのフレームレートで取得され得、3次元画像もまた、10〜100frames/sのフレームレートで取得され得る。理解されるべきは、2次元および3次元の画像に対するその他任意のフレームレートが、考えられるということである。上記のように、所定の関心領域は、不完全な画像が、処理のために使用され得るように、2次元画像から処理され得る。本発明の別の実施形態に従って、2次元画像、すなわち、2次元画像の関心領域は、第1のフレームレートで記録され、第2のフレームレートが、完全な2次元画像の獲得のために使用され得る。完全な2次元画像の視野が、3次元画像センサによってもまた観察されるときに、第1のフレームレートの10〜50分の1である第2のフレームレートを使用することがあり得る。このことは、追跡される関心領域の100画像が、1秒ごとに取得されるときに、完全な2次元画像が、0.5秒ごとまたは1秒ごとに取得されるということを意味する。上記の数字は、計算能力が非常に低減され得ることを示している。該第1のシナリオにおいて、関心領域が画像化されるたびに、完全な2次元画像を取得する必要はない。2次元画像が関心領域を追跡し、3次元(3D)センサから距離情報を受信するのみである上記のこの第1のシナリオは、例えば、子供が遊んでいる路上で生じ得る。この環境において、オブジェクトが、画像化センサの視野内に突然に現われ得、3次元センサは、新たに感知されたオブジェクトの距離を決定する。
2次元および3次元の画像を使用する別の基本的なシナリオに従って、オブジェクトは、車両に対するオブジェクトの位置および速度と共に、3次元画像で識別されて、追跡される。3次元画像センサは、所定のオブジェクトを追跡し、相対的距離を決定する。理解されるべきは、3次元画像化センサは、画像の全画素に対する距離を決定し得るが、しかしながら、異なるオブジェクトに集中し、さらに処理するために、これらのオブジェクトの距離を処理ユニットに転送することもあり得るということである。3次元画像センサに関して、オブジェクトの追跡は、距離が、全画素に対して決定されるが、一部のオブジェクトに関して、それらの位置および相対的速度が、さらなる処理のために決定され、使用されるということを意味する。
さらに、所定の関心領域は、2次元画像で観察され得る。2次元画像が処理されるときに、距離の変化は、観察された領域の2次元(2D)画像におけるオブジェクトのサイズが変化するという事実から理解され得る。例えば、2次元画像で追跡されたオブジェクトが、非常に速く大きくなるときに、車両に対する距離が小さくなっていくということが理解され得る。
2次元画像の処理により、オブジェクトの位置がさらに詳細に決定されなければならないときに、2次元画像で感知されたオブジェクトの位置は、3次元画像ユニットに転送され、車両に対する該オブジェクトの相対的距離が要求され、その距離は、3次元画像を使用して決定される。さらに、この新たに感知されたオブジェクトはまた、次に、一連の3次元画像を使用して追跡され得る。要約すると、この第2のシナリオにおいて、2次元画像の処理は、さらなるオブジェクトを追跡するためのヒントを他の画像化ユニットに与え、上記の第1のシナリオにおいて、3次元画像の処理は、2次元画像でさらなる関心領域を観察するためのヒントを与える。
画像化が、衝突前ユニットまたは自動速度制御ユニットと共に使用される場合、オブジェクトが、車両に対して、所定の相対的速度および相対的距離で車両に接近するということが、一連の画像の一つにおいて決定されたときに、警告音が生成され得る。それから、車両のドライバは、オブジェクトが車両に対する考えられる脅威とみなされるという事実を伝えられ得る。
車両に対して考えられる危険となり得るオブジェクトを決定するために、車両の運転方向が、考慮され得る。これは、車両に対する有力な危険要素とみなされる道路の傍の交通標識に接近するという状況を回避することを助ける。
画像のうちの一つの処理が、他の一連の画像の処理に対してさらなる情報を提供する上記の二つのシナリオは、二つの異なるシナリオとして記述された。しかしながら、両方のシナリオが共に使用されることもあり得る。これは、別の実施形態において、画像処理は、上記のシナリオのうちの一つに処理が限定されるような方法で、制限されないということを意味する。両方のシナリオまたは両方の画像化技術が混在して、同時に使用されることもあり得、このことは、3次元画像化センサが、新たな関心領域が観察されるように、2次元画像処理に対して距離情報を提供し、かつ、2次元画像または2次元画像の処理が、別の領域のオブジェクトが3次元画像で追跡される3次元画像処理にヒントを与えるということを意味する。交通状況に依存し、かつ、どの道路を車両が走っているかに依存して、上記の両方の処理方法は、組合せて使用され得る。
一実施形態において、2次元画像センサは、標準的なCMOSまたはCCD画像センサであり、3次元画像センサは、PMD画像センサである。しかしながら、画素ベースの立体情報を提供するその他任意の2次元画像センサまたは3次元画像センサが、使用され得る。さらに、3次元画像化ユニットは、3次元画像センサを備え、かつ、3次元センサ制御ユニットを備えて提供され得、該センサ制御ユニットは、画像内のどの領域が、処理されるか、または追跡されるかを決定する。さらに、2次元画像化ユニットは、2次元画像センサおよび2次元センサ制御ユニットを備えて提供され得、該センサ制御ユニットは、2次元画像のどの部分が処理されるかを制御する。
図1において、車両の環境を画像化するシステムを有する車両が、概略的に示されている。車両10は、2次元画像センサ11と3次元画像センサ12とを備えている。2次元画像センサは、2次元センサ制御ユニット13に接続され、3次元画像センサは、3次元センサ制御ユニット14に接続される。制御ユニット13および14の両方は、2次元および3次元の画像を処理する中央処理ユニット15に接続される。理解されるべきは、異なる制御ユニット13および14と処理ユニット15とは、単一のユニットに組込まれ得るということである。さらに、異なる処理ユニットが、各画像センサに提供されることがあり得る。示された例において、二つの画像化センサが、フロントガラス16の後ろに置かれている。しかしながら、二つのセンサをラジエタグリルの後ろに設置することもあり得る。さらに、画像化センサは、車両のフロント部分だけでなく、図1に示されている位置に提供され得る。2次元の画像センサは、CCDまたはCMOSカメラであり得、画像データは、最大100frames/sのフレームレートで生成される。車両が高速で走っているときに、この高いフレームレートは、新たなオブジェクトを確実に感知するために必要である。2次元画像センサとして、約50〜100frames/sのフレームレートで2次元画像でータを提供する任意の画像センサが、使用され得る。3次元画像センサは、PMD画像センサであり得る。PMD画像センサにおいて、光が発せられ、オブジェクトから反射した光が、センサによって感知される。本発明の一実施形態に従って、二つの異なる画像センサが、同じ視野が、両方の画像センサによってカバーされることを確実にするために、互いに近接して設置される。しかしながら、車両内の一つの位置に一つの画像センサを置き、車両の別の位置に他の画像センサを置くこともあり得る。例えば、一つの画像センサが、フロントガラスの後ろに提供され得、他のセンサが、車両のフロント部分のラジエタグリルに提供され得る。しかしながら、本発明は、画像センサの上記の二つの位置に制限されない。車両の前の視野が維持され得る車両内のどこにでも、画像センサを配置することがあり得る。
図2において、画像化方法の考えられる一例が、さらに詳細に示されている。図2a〜図2cにおいて、2次元センサと3次元センサとによって取得された画像の例示的な実施形態が示されている。図2において、画像21は、PMDセンサのような3次元画像化センサによって取得された画像を示す。図2Aにおいて示されている斜線の領域22は、3次元センサが全視野を観察し、完全な画像が、考えられるオブジェクトを感知するために処理されるということを示す。画像25は、CCDまたはCMOSカメラのような2次元画像センサによって取得された画像を示す。図2aにおいて示されている実施形態において、二つの異なる関心領域26および27が観察される。これは、画像25において、関心領域26および27のデータのみが、処理されるということを意味する。画像28の他の部分は、読取られず、さらに処理されない。関心領域の観察は、画像の処理を非常に低減させる。一例において、2次元画像が、100分の1秒ごとに取得されている。ほとんどの場合に、関心領域の信号のみが、該画像領域に含まれるオブジェクト(示されていない)を追跡するために処理される。
画像内のオブジェクトは、画像データに適用される異なるフィルタアルゴリズムを使用することによって感知され得る。例えば、エッジディテクタフィルタが、画像内のオブジェクトを感知するために使用され得るか、またはカラー画像の場合に、カラーフィルタが使用され得る。当該分野において、様々な異なるフィルタアルゴリズムが、オブジェクト感知に関して公知である。通常、これらのフィルタの一部は、画像に適用され、異なるフィルタが、画像内に示された異なるオブジェクトを感知することを助ける。関心領域が、100frames/sのようなフレームレートで更新されるときに、完全な画像25は、第1のフレームレートの約20〜50分の1であるフレームレートで取得され得る。これは、全画像を処理して新たなオブジェクトを捜すために、時には、完全な画像が取得されて、処理されるということを意味する。関心領域が第1のフレームレートで感知され、全画像が第2のフレームレートで取得され、画像処理ユニットが他に存在しない場合に、システムは、車両アプリケーションに対して充分速い新たなオブジェクトを感知することができない。しかしながら、本発明において、図2において示されている他の画像センサの場合に、2次元画像センサと同じ視野を感知している3次元画像センサが、提供される。従って、2次元画像における関心領域の処理よりもかなり低いフレームレートで、完全な2次元画像を処理することがあり得る。
図2bにおいて示されるように、3次元画像センサが、図2bにおいて示される矢印によって示される新たなオブジェクト23を認識するということが起こり得る。このオブジェクト23は、車両に対する相対的距離が変化するという事実によって感知され得る。次に、3次元センサ制御ユニットは、2次元センサ制御ユニットに、別のオブジェクトが、画像の特定の位置における特定の距離で感知されたということを伝える。次に、2次元センサ制御ユニットは、2次元画像25において、図2cにおいて見ることができるような3次元センサによって感知されたオブジェクト23を追跡するために、新たな関心領域28が生成されるような方法で、反応し得る。次に、2次元画像の処理は、関心領域26および27に加え、新たな関心領域が、観察され、該エリアにおけるオブジェクトが追跡されるような方法で適応される。図2a〜図2cから見られるように、処理および計算能力上の理由で、画像のうちの一つにおいて、不完全な画像が観察され、処理されるときでさえも、そのような画像化システムは、視野内の新たなオブジェクトを確実に感知し得る。通常、2次元画像センサの解像度はもっと高く、もっと多くの数の画素を意味している。図2a〜図2cにおいて示される実施形態は、制限された関心領域の画像処理を可能にし、計算能力を非常に低減させる。完全な2次元画像25は、もっと低いフレームレートでサンプリングされ得る。
図3において、本発明の別の実施形態が、さらに詳細に示されている。図3において示されている実施形態において、左側の図は、3次元画像センサの図、31をやはり示している。図3aにおいて示されているように、二つの異なるオブジェクト、すなわち、第1のオブジェクト32および第2のオブジェクト33は、3次元画像で観察される。この観察は、距離の値と位置および速度のベクトルとは、図に示されているオブジェクトの該領域に関して感知されるだけでなく、これらの値はまた、どのように受信された情報に反応するかを決定する制御システム(示されていない)に転送されるということを意味する。右側の図は、2次元画像をやはり示している。図3aにおいて示されている実施形態において、関心領域36が、2次元画像でさらに詳細に観察されている。この関心領域において、オブジェクト37が感知された。図3bにおいて示されているように、領域36におけるこのオブジェクト37は、急速に大きくなる。この大きいサイズのオブジェクト37は、オブジェクト37が、急速に車両に接近しているということを想定させ得る。しかしながら、2次元画像でオブジェクト37の正確な距離を決定することは困難である。従って、オブジェクト37の位置は、3次元画像センサに転送され、該3次元画像センサは、車両に対するオブジェクトの距離を出力する。ここで、3次元画像センサは、別のオブジェクト34を使用して、該オブジェクトを追跡し、相対的距離および速度を決定する。次に、3次元センサは、車両と該オブジェクト34の衝突が、近いうちに発生するかどうかを確実に決定し得る。
図3において示される実施形態において、3次元センサは、新たなオブジェクト34を他のオブジェクト32および33に加える。
図3において示される実施形態において、2次元画像の処理は、3次元センサにさらなる情報を提供し、該3次元センサは、この新たなオブジェクトを観察リストに組込む。
図2および図3の二つにおいて、二つの異なるシナリオが、異なる例として示されている。しかしながら、図2および図3において示されている二つのシナリオは、オブジェクトが車両にとって危険であるとみなされた場合に、各画像センサが、他の画像センサに情報を提供するように、組合されるということもあり得る。
処理ユニット15は画像を処理し、衝突が予測される場合に、警告信号が、制御ユニットに転送され得、このことは、図1において示されている矢印によって示されている。二つの異なる画像センサを組合わせて使用することは、以下の利点がある。処理能力が節約される必要があるときに、2次元画像が、より低いフレームレートで処理され得る。時には、やはり全画像が、関心領域を定義することの利点を低減させて、計算される必要がある。次に、3次元 PMDセンサのような他の画像センサは、現在の観察エリアにおける新たなオブジェクトに関する情報を送信し得る。従って、2次元画像センサにおいて全画像を計算する頻度は、非常に低減され得る。
2次元画像センサによって感知された疑わしいオブジェクトの場合には逆に、システムは、このオブジェクトの距離を常に報告することを3次元画像センサに求め得る。
計算能力が余り必要でないと、計算能力は、異なるフィルタを画像に適用することによって、画像内のオブジェクトを確実に感知するために使用され得る。いったん、オブジェクトが感知されると、該オブジェクトの追跡は、容易であり、かつ、単純である。しかしながら、新たなオブジェクトの感知は、困難なタスクであり、多くの計算能力を必要とする。
本発明を用いて、計算能力が節約され得るという事実のために、もっと多くの計算能力が、オブジェクトの感知のために使用され得る。従って、感知の速度が高められ得る。
本明細書において開示された本発明の実施形態は、ここでは、好適であるとみなされているが、様々な変更および改変が、本発明の意図および範囲を逸脱することなく行われ得る。本発明の範囲は、添付の特許請求の範囲において示され、均等物の意味および範囲内である全ての変更は、そこに包含されることを意図されている。従属請求項の内容は、本発明の範囲内にある新たな均等物を形成するために組合され得る。
図1は、2つの異なる画像センサを使用して、車両に備えられている画像ユニットの該略図を示す。 図2a〜図2cは、3次元画像の処理が、2次元画像のどの部分が処理されるべきかについて、2次元画像処理へ情報を提供するシナリオに対する画像処理における異なるステップを示す。 図3a〜図3cは、2次元画像の処理が、3次元画像処理へオブジェクト情報を提供するシナリオにおいて処理された画像の例を示す。
符号の説明
10 車両
11 2次元画像センサ
12 3次元画像センサ
13 2次元センサ制御ユニット
14 3次元センサ制御ユニット
15 処理ユニット
16 フロントガラス
21 画像
22 領域
23 オブジェクト
25 画像
26、27、28 関心領域

Claims (32)

  1. 車両の周囲を画像化する方法であって、該方法は、
    周囲の一連の2次元画像を取るステップと、
    周囲の一連の3次元画像を取るステップであって、該画像は立体情報を備えている、ステップと、
    一連の画像のうちの1つにおける関心領域において少なくとも1つのオブジェクトを決定し、該関心領域において該オブジェクトを追跡するステップであって、
    オブジェクトは、該車両に対する該オブジェクトの位置および速度と共に、該3次元画像において識別かつ追跡され、
    該車両に対する距離の変化が所定の距離の変化よりも大きいと考えられるオブジェクトは、該2次元画像において、それらの位置を用いて識別される、ステップと、
    他の一連の画像からオブジェクト情報を取り出すために、該一連の画像のうちの他のものを処理するステップと、
    他の一連の画像を処理することから受信されるオブジェクト情報に従って、該一連の画像において追跡されるオブジェクトを調節するステップと
    を包含する、方法。
  2. 前記2次元画像および前記3次元画像は、処理されて、該画像の所定の観察領域においてオブジェクトをローカライズし、該オブジェクトの距離は車両に対して変化する、請求項1に記載の方法。
  3. 前記車両に対する位置および速度は、ローカライズされたオブジェクトに対して決定される、請求項1に記載の方法。
  4. 前記関心領域は、前記オブジェクトの動きが追跡される前記一連の2次元画像において決定される、請求項1に記載の方法。
  5. 前記車両に対する前記オブジェクトの距離は、前記3次元画像で決定される、請求項1に記載の方法。
  6. 前記3次元画像は、前記車両に対する距離の変化が所定の値よりも大きいオブジェクトを感知するために処理される、請求項1に記載の方法。
  7. 3次元画像から取り出された感知されたオブジェクトの位置情報およびサイズ情報は、2次元画像ユニットへ送信され、該2次元画像において追跡される該オブジェクトは、該3次元画像から受信された情報に適合される、請求項6に記載の方法。
  8. 前記オブジェクトが、前記3次元画像において感知される追加的な関心領域が、前記2次元画像において加えられる、請求項6に記載の方法。
  9. 前記オブジェクトの位置3次元画像ユニットへ送信するステップと、
    前記オブジェクトの前記車両との相対的な距離の決定を要求するステップであって、該オブジェクトの位置は送信された、ステップと、
    該オブジェクトの相対距離を決定するステップであって、該オブジェクトの位置は、前記2次元画像で決定された、ステップと、
    前記3次元画像においても、該オブジェクトを追跡するステップと
    をさらに包含する、請求項に記載の方法。
  10. 前記2次元画像は、50frames/sと100frames/sとの間のフレームレートで取られ、前記3次元画像は、10frames/sと100frames/sとの間のフレームレートで取られる、請求項1に記載の方法。
  11. 前記画像におけるオブジェクトは、画像データに適用される異なるフィルタアルゴリズムを使用することによって感知される、請求項1に記載の方法。
  12. 前記2次元画像に対して、第1のフレームレートが、追跡されるオブジェクトを有する関心領域の画像獲得のために使用され、第2のフレームレートは、2次元画像全体の画像獲得のために使用される、請求項1に記載の方法。
  13. 前記第2のフレームレートは、前記第1のフレームレートよりも10〜50倍小さい、請求項12に記載の方法。
  14. オブジェクトが追跡されるとき、記録された画像における位置ベクトルおよび一連の画像を考慮する速度ベクトルは、追跡されるオブジェクトに対して決定される、請求項1に記載の方法。
  15. 一連の画像のうちの1つにおいて、オブジェクトが所定の相対速度で車両に近づくと決定されるとき、警告信号が生成される、請求項1に記載の方法。
  16. 前記警告信号は、前記車両の自動速度制御ユニットに送信される、請求項15に記載の方法。
  17. オブジェクトが、所定の距離よりも前記車両に近いとき、ドライバはその事実を知らされる、請求項15に記載の方法。
  18. 前記一連の画像は、前記車両の運転方向を考慮に入れて処理される、請求項1に記載の方法。
  19. 車両の周囲を画像化するシステムであって、該システムは、
    車両の周囲の一連の2次元画像を生成する2次元画像センサと、
    車両の周囲の、立体情報を有する3次元画像を生成する3次元画像センサと、
    該画像において追跡されるオブジェクトを感知するために、2次元画像と3次元画像とのうちの一方を処理する画像処理ユニットであって、
    該画像処理ユニットはまた、該2次元画像と3次元画像とのうちの他方におけるオブジェクト情報を取り出すために該2次元画像と3次元画像とのうちの他方を処理し、
    オブジェクトは、該車両に対する該オブジェクトの位置および速度と共に、該3次元画像において識別かつ追跡され、
    該車両に対する距離の変化が所定の距離の変化よりも大きいと考えられるオブジェクトは、該2次元画像において、それらの位置で識別され、
    該処理ユニットは、他方の画像を処理することから受信されたオブジェクト情報に従って、該2次元画像と3次元画像とのうちの一方において追跡されるオブジェクトを調節する、画像処理ユニットと
    を備える、システム。
  20. 前記2次元画像センサは、CMOSまたはCCD画像センサであり、前記3次元画像センサは、PMD(Photonic Mixer Device)画像センサである、請求項19に記載のシステム。
  21. 2次元画像化ユニットをさらに備え、該2次元画像化ユニットは、2次元画像センサを備え、2次元センサ制御ユニットを備える、請求項19に記載のシステム。
  22. 3次元画像化ユニットをさらに備え、該3次元画像化ユニットは、3次元画像センサを備え、3次元センサ制御ユニットを備える、請求項19に記載のシステム。
  23. 車両のための自動速度制御システムであって、該システムは、車両のエンジンを制御する自動速度制御ユニットを備え、
    車両の周囲の一連の2次元画像を生成する2次元画像センサと、
    車両の周囲の、立体情報を有する3次元画像を生成する3次元画像センサと、
    該画像において追跡されるオブジェクトを感知するために、2次元画像と3次元画像とのうちの一方を処理する画像処理ユニットであって、該画像処理ユニットはまたオブジェクト情報を取り出すために該2次元画像と3次元画像とのうちの他方を処理し、
    オブジェクトは、該車両に対する該オブジェクトの位置および速度と共に、該3次元画像において識別かつ追跡され、
    該車両に対する距離の変化が所定の距離の変化よりも大きいと考えられるオブジェクトは、該2次元画像において、それらの位置を用いて識別され、
    該処理ユニットは、他方の画像を処理することから受信されたオブジェクト情報に従って、該2次元画像と3次元画像とのうちの一方において追跡されるオブジェクトを調節する、画像処理ユニットと
    をさらに備える、システム。
  24. 前記2次元画像センサは、CMOSまたはCCD画像センサであり、前記3次元画像センサは、3次元カメラまたはPMD(Photonic Mixer Device)画像センサである、請求項23に記載のシステム。
  25. 車両の周囲を画像化するシステムであって、該システムは、
    車両の周囲の一連の2次元画像を感知する手段と、
    車両の周囲の、立体情報を含む一連の3次元画像を感知する手段と、
    一連の2次元画像および3次元画像のうちの一方において追跡されるオブジェクトを見つけ手段と、
    該一連の2次元画像および3次元画像のうちの一方において該オブジェクトを追跡する手段と、
    追跡されるオブジェクトについての情報を取り出すために、一連の2次元画像および3次元画像のうちの他方を処理する手段であって、
    該見つける手段および該追跡する手段は、それぞれ、該車両に対する該オブジェクトのそれぞれの位置および速度と共に、該3次元画像においてオブジェクトを識別かつ追跡するように構成されており、
    該見つける手段および該追跡する手段は、該車両に対する距離の変化が所定の距離の変化よりも大きいと考えられるオブジェクトを該2次元画像においてそれらの位置を用いて識別するようにさらに構成されている、手段と、
    一連の2次元画像および3次元画像のうちの他方を処理することから得られた情報に従って、該一連の2次元画像および3次元画像のうちの一方において追跡されるオブジェクトを調節する手段と
    を備えている、システム。
  26. 一連の3次元画像を感知する手段は、一連の3次元画像を感知する手段によって感知される発された光信号の飛翔時間を決定する手段を備える、請求項25に記載のシステム。
  27. 一連の2次元画像および3次元画像のうちの他方を処理する手段によって引き出されたオブジェクト情報は、オブジェクトタイプについての情報および/またはオブジェクト位置情報および/または追跡されるオブジェクトと車両との間の距離についての情報を備えている、請求項25に記載のシステム。
  28. 前記引き出されたオブジェクト情報に基づいて、前記車両の機能を制御する手段をさらに備えている、請求項27に記載のシステム。
  29. 車両における機能を制御する方法であって、該方法は、
    車両の周囲の一連の2次元画像を感知するステップと、
    車両の周囲の、立体情報を含む一連の3次元画像を感知するステップと、
    追跡されるオブジェクトを見つけるために一連の画像のうちの一方を処理するステップと、
    該一連の画像のうちの一方においてオブジェクトを追跡するステップと、
    両方の一連の画像を処理してオブジェクト情報を取り出すステップであって、
    オブジェクトは、該車両に対する該オブジェクトの位置および速度と共に、該3次元画像において識別かつ追跡され、
    該車両に対する距離の変化が所定の距離の変化よりも大きいと考えられるオブジェクトは、該2次元画像において、それらの位置を用いて識別される、ステップと、
    他方の一連の画像を処理することから取り出された該オブジェクト情報に従って該一連の画像のうちの一方において追跡されるオブジェクトを調節するステップと、
    該取り出されたオブジェクト情報に基づいて車両の機能を制御するステップと
    を包含する、方法。
  30. 前記両方の一連の画像の処理は、
    前記一連の2次元画像において追跡される少なくとも1つのオブジェクトを含む少なくとも1つの関心領域を処理して、オブジェクト位置および/またはオブジェクトタイプを含む情報を取り出すことと、
    一連の3次元画像を処理して、少なくとも1つの追跡されるオブジェクトについての距離情報を含む情報を取り出すことと
    を含む、請求項29に記載の方法。
  31. 前記機能の制御は、前記車両の加速または減速の制御を含む、請求項29に記載の方法。
  32. 前記機能の制御は、乗客および/または歩行者保護装置の配備を含む、請求項29に記載の方法。
JP2007217663A 2006-08-24 2007-08-23 車両の周囲を画像化する方法およびそのためのシステム Active JP5096836B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP06017669.0 2006-08-24
EP06017669A EP1892149B1 (en) 2006-08-24 2006-08-24 Method for imaging the surrounding of a vehicle and system therefor

Publications (2)

Publication Number Publication Date
JP2008052741A JP2008052741A (ja) 2008-03-06
JP5096836B2 true JP5096836B2 (ja) 2012-12-12

Family

ID=37517118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007217663A Active JP5096836B2 (ja) 2006-08-24 2007-08-23 車両の周囲を画像化する方法およびそのためのシステム

Country Status (5)

Country Link
US (2) US8081794B2 (ja)
EP (1) EP1892149B1 (ja)
JP (1) JP5096836B2 (ja)
AT (1) ATE422185T1 (ja)
DE (1) DE602006005079D1 (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7733465B2 (en) * 2004-05-26 2010-06-08 Bae Systems Information And Electronic Systems Integration Inc. System and method for transitioning from a missile warning system to a fine tracking system in a directional infrared countermeasures system
DE602006005079D1 (de) * 2006-08-24 2009-03-19 Harman Becker Automotive Sys Verfahren zum Abbilden der Umgebung eines Fahrzeugs und System dafür
US7898400B2 (en) * 2008-04-15 2011-03-01 Autoliv Asp, Inc. Enhanced vision road detection system
US8060280B2 (en) * 2008-04-15 2011-11-15 Autoliv Asp, Inc. Vision system for deploying safety systems
EP2202533A1 (de) * 2008-12-23 2010-06-30 IBEO Automobile Sensor GmbH Erfassungsvorrichtung
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
JP5439949B2 (ja) * 2009-05-22 2014-03-12 コニカミノルタ株式会社 ステレオ測定システムおよび動画再生システム
TW201122848A (en) * 2009-12-29 2011-07-01 Ind Tech Res Inst Method and system for calculating image recognition rate and embedded image processing system
CN102117475A (zh) * 2009-12-31 2011-07-06 财团法人工业技术研究院 图像识别率计算方法与系统及其嵌入式图像处理系统
EP2393295A1 (en) * 2010-06-07 2011-12-07 Harman Becker Automotive Systems GmbH Method and device for identifying driving situations
WO2012089901A1 (en) * 2010-12-30 2012-07-05 Nokia Corporation Methods and apparatuses for performing object detection
DE102011011931A1 (de) * 2011-02-18 2012-08-23 Hella Kgaa Hueck & Co. Verfahren zum Auswerten einer Mehrzahl zeitlich versetzter Bilder, Vorrichtung zur Auswertung von Bildern, Überwachungssystem
MY162916A (en) * 2011-05-13 2017-07-31 Mimos Berhad Method and system for multiple objects tracking and display
DE102011113077A1 (de) * 2011-09-07 2013-03-07 Conti Temic Microelectronic Gmbh Verfahren zur Bestimmung einer Durchfahrbarkeit eines Objekts für ein Fahrzeug mittels einer 3D-Kamera
US9760092B2 (en) 2012-03-16 2017-09-12 Waymo Llc Actively modifying a field of view of an autonomous vehicle in view of constraints
US9098086B2 (en) * 2012-08-07 2015-08-04 Caterpillar Inc. Method and system for planning a turn path for a machine
US20150003669A1 (en) * 2013-06-28 2015-01-01 Toyota Motor Engineering & Manufacturing North America, Inc. 3d object shape and pose estimation and tracking method and apparatus
DE102013217915A1 (de) 2013-09-09 2015-03-12 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Objekterkennung aus tiefenaufgelösten Bilddaten
US9183459B1 (en) * 2014-05-06 2015-11-10 The Boeing Company Sensor fusion using detector confidence boosting
DE102014111127A1 (de) * 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen einer Umgebungskarte sowie Fahrerassistenzsystem
US9874693B2 (en) 2015-06-10 2018-01-23 The Research Foundation For The State University Of New York Method and structure for integrating photonics with CMOs
DE102015010514B4 (de) * 2015-08-13 2019-06-13 Audi Ag Verfahren zur Ermittlung von Karteninformationen für einen Kartendatensatz einer Navigationsumgebung und Recheneinrichtung
JP6607764B2 (ja) * 2015-11-04 2019-11-20 日立オートモティブシステムズ株式会社 撮像装置
JP6318183B2 (ja) * 2016-01-20 2018-04-25 株式会社Subaru 画像処理装置
DE102017108254B4 (de) 2016-04-19 2019-10-02 GM Global Technology Operations LLC Rundumsichtkamerasystem zur Objekterkennung und -verfolgung und Verfahren zum Ausstatten eines Fahrzeugs mit einem Rundumsichtkamerasystem
JP2018092610A (ja) * 2016-11-28 2018-06-14 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
US10554881B2 (en) 2016-12-06 2020-02-04 Microsoft Technology Licensing, Llc Passive and active stereo vision 3D sensors with variable focal length lenses
US10469758B2 (en) 2016-12-06 2019-11-05 Microsoft Technology Licensing, Llc Structured light 3D sensors with variable focal length lenses and illuminators
US10453150B2 (en) * 2017-06-16 2019-10-22 Nauto, Inc. System and method for adverse vehicle event determination
US11392131B2 (en) 2018-02-27 2022-07-19 Nauto, Inc. Method for determining driving policy
US10854011B2 (en) * 2018-04-09 2020-12-01 Direct Current Capital LLC Method for rendering 2D and 3D data within a 3D virtual environment
US11823461B1 (en) 2018-09-28 2023-11-21 Direct Current Capital LLC Systems and methods for perceiving a scene around a mobile device
US10909714B2 (en) * 2018-10-30 2021-02-02 Here Global B.V. Method, apparatus, and system for providing a distance marker in an image
JP7151449B2 (ja) * 2018-12-14 2022-10-12 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法
US11567497B1 (en) 2019-02-04 2023-01-31 Direct Current Capital LLC Systems and methods for perceiving a field around a device
US11460855B1 (en) 2019-03-29 2022-10-04 Direct Current Capital LLC Systems and methods for sensor calibration
KR20210131129A (ko) * 2020-04-23 2021-11-02 현대자동차주식회사 이동 수단용 ui 생성 장치 및 ui 생성 방법
US11531114B2 (en) 2020-06-16 2022-12-20 Toyota Research Institute, Inc. Sensor placement to reduce blind spots
US11308316B1 (en) * 2021-09-02 2022-04-19 Invision Ai, Inc. Road side vehicle occupancy detection system

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2795784B2 (ja) * 1992-09-24 1998-09-10 沖電気工業株式会社 複数視点3次元画像入力装置
JP2919284B2 (ja) * 1994-02-23 1999-07-12 松下電工株式会社 物体認識方法
US5473364A (en) * 1994-06-03 1995-12-05 David Sarnoff Research Center, Inc. Video technique for indicating moving objects from a movable platform
US6714665B1 (en) * 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US6707487B1 (en) * 1998-11-20 2004-03-16 In The Play, Inc. Method for representing real-time motion
JP3349121B2 (ja) * 1999-09-22 2002-11-20 富士重工業株式会社 ステレオカメラの取付構造
WO2001094970A1 (en) * 2000-06-08 2001-12-13 Automotive Systems Laboratory, Inc. Track map generator
JP2003061075A (ja) * 2001-08-09 2003-02-28 Matsushita Electric Ind Co Ltd 物体追跡装置、物体追跡方法および侵入者監視システム
US6862537B2 (en) * 2002-03-21 2005-03-01 Ford Global Technologies Llc Sensor fusion system architecture
EP1397024B1 (en) * 2002-08-05 2009-07-29 Sony Ericsson Mobile Communications AB Control circuit for small electrodynamic transducers in audio systems depending on the input signal characteristics
JP3861781B2 (ja) * 2002-09-17 2006-12-20 日産自動車株式会社 前方車両追跡システムおよび前方車両追跡方法
JP4235018B2 (ja) * 2003-03-31 2009-03-04 本田技研工業株式会社 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム
US7263209B2 (en) * 2003-06-13 2007-08-28 Sarnoff Corporation Vehicular vision system
JP3915746B2 (ja) * 2003-07-01 2007-05-16 日産自動車株式会社 車両用外界認識装置
US20050012817A1 (en) * 2003-07-15 2005-01-20 International Business Machines Corporation Selective surveillance system with active sensor management policies
US7653216B2 (en) * 2003-12-23 2010-01-26 Carnegie Mellon University Polyhedron recognition system
JP4259418B2 (ja) * 2004-07-30 2009-04-30 パナソニック電工株式会社 画像処理装置
DE102005025387A1 (de) * 2004-09-30 2006-05-04 Daimlerchrysler Ag Verfahren und Vorrichtung zur Fahrerwahrnung bzw. zum aktiven Eingreifen in die Fahrdynamik, falls ein Verlassen der Fahrspur droht
BRPI0606477A2 (pt) * 2005-01-07 2009-06-30 Gesturetek Inc sensor de inclinação baseado em fluxo ótico
US7283901B2 (en) * 2005-01-13 2007-10-16 Trw Automotive U.S. Llc Controller system for a vehicle occupant protection device
US8050863B2 (en) * 2006-03-16 2011-11-01 Gray & Company, Inc. Navigation and control system for autonomous vehicles
US8108119B2 (en) * 2006-04-21 2012-01-31 Sri International Apparatus and method for object detection and tracking and roadway awareness using stereo cameras
DE602006005079D1 (de) * 2006-08-24 2009-03-19 Harman Becker Automotive Sys Verfahren zum Abbilden der Umgebung eines Fahrzeugs und System dafür
US8384531B2 (en) * 2009-04-02 2013-02-26 GM Global Technology Operations LLC Recommended following distance on full-windshield head-up display
US8704653B2 (en) * 2009-04-02 2014-04-22 GM Global Technology Operations LLC Enhanced road vision on full windshield head-up display

Also Published As

Publication number Publication date
ATE422185T1 (de) 2009-02-15
US20120158250A1 (en) 2012-06-21
US20080049975A1 (en) 2008-02-28
US8682035B2 (en) 2014-03-25
EP1892149B1 (en) 2009-02-04
EP1892149A1 (en) 2008-02-27
JP2008052741A (ja) 2008-03-06
DE602006005079D1 (de) 2009-03-19
US8081794B2 (en) 2011-12-20

Similar Documents

Publication Publication Date Title
JP5096836B2 (ja) 車両の周囲を画像化する方法およびそのためのシステム
JP4899424B2 (ja) 物体検出装置
JP4475308B2 (ja) 表示装置
CN107306338A (zh) 用于对象检测和跟踪的全景摄像机系统
US10810877B2 (en) Vehicle control device
US20220180483A1 (en) Image processing device, image processing method, and program
JP2010198552A (ja) 運転状況監視装置
KR20090031997A (ko) 차량용 주변 감시 장치 및 영상 표시 방법
JP2006279752A (ja) 車両直下画像表示制御装置および車両直下画像表示制御プログラム
JP2006338594A (ja) 歩行者認識装置
CN109278640A (zh) 一种盲区检测系统和方法
CN109415018B (zh) 用于数字后视镜的方法和控制单元
JP2009231938A (ja) 車両用周囲監視装置
JP2019046276A (ja) 画像処理装置、および画像処理方法、並びにプログラム
US20150158430A1 (en) Operating a Head-Up Display of a Vehicle and Image Determining System for the Head-Up Display
US8213683B2 (en) Driving support system with plural dimension processing units
JPH10117341A (ja) 車両周辺監視装置、この装置に用いられる障害物検出方法、及びこの装置に用いられる障害物検出プログラムを記憶した媒体
KR20120076999A (ko) 차량의 거리 측정 장치 및 방법
JP2015154125A (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP2007133644A (ja) 歩行者認識装置
KR20130065268A (ko) 사각 지대 표시 장치 및 방법
WO2008037473A1 (en) Park assist system visually marking up dangerous objects
JP2005175603A (ja) レーダを用いた障害物の表示方法及び表示システム
JP2007286873A (ja) 車載周辺他車検出装置
KR20160136757A (ko) 단안 카메라를 이용한 장애물 검출장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120921

R150 Certificate of patent or registration of utility model

Ref document number: 5096836

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250