JP2007527569A - 立体視に基づく差し迫った衝突の検知 - Google Patents

立体視に基づく差し迫った衝突の検知 Download PDF

Info

Publication number
JP2007527569A
JP2007527569A JP2006518835A JP2006518835A JP2007527569A JP 2007527569 A JP2007527569 A JP 2007527569A JP 2006518835 A JP2006518835 A JP 2006518835A JP 2006518835 A JP2006518835 A JP 2006518835A JP 2007527569 A JP2007527569 A JP 2007527569A
Authority
JP
Japan
Prior art keywords
collision
potential threat
depth map
patch
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006518835A
Other languages
English (en)
Inventor
ペン チャン,
テオドール, アーマンド カミュー,
Original Assignee
サーノフ コーポレーション
オートリヴ エーエスピー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サーノフ コーポレーション, オートリヴ エーエスピー filed Critical サーノフ コーポレーション
Publication of JP2007527569A publication Critical patent/JP2007527569A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

場面の奥行きマップを生成するため処理される画像を生成する立体カメラを有する立体視に基づく衝突回避システム。潜在的な脅威を、奥行きマップにおいて検知する。そして、検知した潜在的な脅威の大きさ、位置、および速度を推定し、推定した位置および推定した速度を用いて、検知した潜在的な脅威の軌道解析を決定する。軌道解析に基づく衝突予測を決定し、衝突が差し迫ったものであるかどうかを、衝突予測および推定された潜在的な脅威の大きさに基づいて決定する。
【選択図】 図1

Description

関連出願の相互参照
[0001]本願は、2003年7月2日提出のチャン他(Chang et al)による「自動車の差し迫った衝突回避のための、立体視に基づくアルゴリズム(Stereo Vision Based Algorithms for Automotive Imminent Collision Avoidance)」と題した米国特許出願番号第60/484463号仮出願の利益を主張するものであり、これにより、その内容を本願明細書中に援用する。
[0002]本願は、2003年6月13日提出のカミュ他(Camus et al)による「車両視覚システム(VEHICULAR VISION SYSTEM)」と題した出願係属中の米国特許出願明細書第10/461699号(代理人明細書番号SAR14885)の一部継続出願であり、これにより、その特許出願の内容を本願明細書中に援用する。
発明の分野
[0003]本発明は、例えば車両などに搭載される視覚システムに関する。本発明は、特に、立体視を用いて、差し迫った衝突を検知することに関する。
関連技術の説明
[0004]自動車業界は、差し迫った衝突を間に合うように検知し、衝突を回避したり、または衝突の衝撃を緩和したりするシステムに対して高い関心を示している。衝突回避システムは、一般的には潜在的な脅威の存在を検知し、その速度および軌道を決定し、衝突の脅威を評価しなければならない。従来技術の衝突回避システムでは、レーダを用いて潜在的な脅威の範囲および近づく速度を決定してきた。しかしながら、手頃な価格のレーダ・システムは、通常、潜在的な脅威の大きさ、および位置を確実かつ正確に決定するために必要とされる空間分解能に欠けている。
[0005]立体視は、潜在的な脅威を識別するために必要とされる高い空間分解能を提供することができ、衝突検知システムや衝突回避システム用に使用されることが提案されてきた。例えば、その特許出願の内容を本願明細書中に援用するものとする特許文献1には、視差画像、奥行きマップ、およびテンプレート照合法を用いて対象物(潜在的な脅威)を検知し、かつ分類する方法が開示されている。下記特許文献1が教示するものは非常に有効であるが、その潜在的な脅威の検知方法は全てのアプリケーションにおいて最適な方法であるという訳ではない。
[0006]そのため、当技術分野では、衝突を検知し回避するために、立体視を使用する新規の技術が必要とされている。
発明の概要
[0007]本発明の一実施形態によれば、立体視に基づく衝突検知方法が提供される。
[0008]本発明の別の実施形態によれば、本発明による立体視に基づく衝突回避システムには、視野内の車両を検知するために処理する画像を生成する立体カメラを含む。そのような処理には、潜在的な脅威の大きさ、速度、方向を決定すること、および検知した潜在的な脅威によって示された衝突の脅威を評価することを含む。
[0009]上述した本発明の特徴を達成し、詳細に理解できるように、添付の図面に図示した本発明の実施形態を参照すれば、上記に概要を要約した本発明のより詳細な説明が得られる。
[0010]なお、添付の図面は、本発明の典型的な実施形態を図示するものであり、それにより、本発明の範囲を制限するものではなく、本発明は、他の同等に有効な実施形態でもよい。
詳細な説明
[0019]衝突回避システムに必要な基本要件は、例えば、ホスト車両などのプラットホームに対する実際の衝突の脅威を検知することである。ホスト車両(プラットホーム)は、差し迫った衝突を一旦検知すると、その衝突を回避し、及び、又は衝突による損害を緩和するための動作をする。実施される特定の測定法が、与えられた条件下で適切なものであるかどうかを決定するために、潜在的な脅威の大きさ、位置、および動きに関する情報が有益である。
[0020]本発明の原則による衝突検知システムは、潜在的な脅威の大きさや動きを推定し、これら脅威の大きさ、高さ、幅などの様々な特性を決定し、潜在的な脅威を分類し、前回推定した位置、動き、および特性に基づいて差し迫った衝突を識別する。衝突の検知は、高速で走行する車両に関わることが多く、本発明の原則による衝突検知システムは、広範囲にわたる潜在的な脅威、照明条件、および他の状況に対応するために十分に頑強で効率的に完成されたアルゴリズムを組み込んでいる。
[0021]図1は、本発明の原則による衝突検知システム102を有するホスト車両100の概略図を示す。本システムは、車両100が隣接する場面104内における潜在的な脅威を検知する。この場面には、車両110のような図1に示す潜在的な脅威とともに、歩行者103などの脅威ではない対象物を含んでもよい。図1は、ホスト車両100の正面の場面104を示しているが、他の衝突検知システムでは、ホスト車両100の後方や、側面の場面を撮像することもできる。衝突検知システム102は、画像プロセッサ108に連結した立体視撮像装置106を使用する。立体視撮像装置106は、歩行者103および車両110を含む視野を有する。
[0022]図2は、衝突検知システム102を実行するために用いるハードウェアのブロック図を示す。立体視撮像装置106は、可視波長において作動する一対のカメラ200および202を備える。これらのカメラは、情報源である場面104の立体画像を生成できるように、相互に既知の関係を有する。画像プロセッサ108は、画像プリプロセッサ206、中央処理装置(CPU)210、補助回路208、およびメモリ217を備える。画像プリプロセッサ206は、一般に、センサ・アレイ106からの立体像を取得し、デジタル化し、そして処理するための回路構成を備える。画像プリプロセッサ206は、ピラミッド・ビジョン・テクノロジー(プリンストン、ニュージャージー州)が製造するアカディア ITM(Acadia ITM)という型のプロセッサなどのシングル・チップ・ビデオ・プロセッサでもよい。
[0023]画像プリプロセッサ206からの処理済み画像は、CPU210に連結される。CPU210には、現在利用可能な多くの高速マイクロコントローラあるいはマイクロプロセッサの何れかを備えていてもよい。CPU210は、一般に当業者には既知である支持回路208によって支えられている。これらの回路は、キャッシュ、電源、クロック回路、入出力回路などを含む。メモリ217もCPU210に連結される。メモリ217は、CPU210および画像プリプロセッサ206に実行され、本発明の操作を容易にする、特定のソフトウェアのルーチンを保存する。また、メモリは、本発明で利用する情報の特定のデータベース214、およびセンサ・アレイ106からの画像の処理に用いる画像処理ソフトウェア216を保存する。本発明は、一連の方法の手順という文脈で説明されるが、その方法は、ハードウェア、ソフトウェア、あるいはハードウェアおよびソフトウェアの組み合わせで実行してもよい。
[0024]図3は、衝突が差し迫ったものであるかどうかを決定する機能モジュールのブロック図である。カメラ200および202は、立体画像プリプロセッサ300に立体画像を提供する。立体画像プリプロセッサ300は、カメラ200および202を補正し、立体像を撮像、デジタル化し、その画像をワープし整列させ、ピラミッド・ウェーブレット分解を行い、多重解像度の視差画像を生成する。カメラの補正によって、全ての距離および角度を決定する基準点および基準方向が提供されるため、カメラの補正は重要である。特に、各カメラを分けることが重要で、なぜならば、視差画像には、左の画像から右の画像へ点別の動きを含むためである。算出された潜在的な脅威の格差が大きければ大きいほど、カメラ200および202に対して脅威がより近い。前処理を行った後、奥行きマップ生成部302は、奥行きマップを作成する。奥行きマップは、各画像点を表すデータを含み、それぞれの点は、カメラ200および202から場面104内の点までの特定の距離を表す。奥行きマップは、以下に説明する手順を用いて衝突が差し迫ったものであるかどうかを検知する衝突検知部304に使用される。
[0025]図4は、衝突検知システム102の動作の流れ図を示す。ステップ302および204において、カメラ200および202は、ステップ306において処理する左右の画像ストリーム入力を提供し、図3を参照して説明した方法を用いて立体奥行きマップを形成する。立体奥行きデータが利用可能な場合、ステップ308において、脅威検知および分割のアルゴリズムは、立体奥行きデータ中、そして場面104中の潜在的な脅威を検知する。(図1参照)。脅威検知および分割を行うステップ308は、立体奥行きデータにおける潜在的な脅威の「境界ボックス」に戻る。ステップ308で用いられる脅威検知および分割のアルゴリズムのより詳細な説明を以下に述べる。
[0026]一旦「境界ボックス」が取得されると、潜在的な脅威の特性が、立体奥行きデータから得られる。ステップ310において、潜在的な脅威の大きさおよび高さが決定され、ステップ312において、潜在的な脅威の相対的位置が決定される。そして、ステップ314および316において、潜在的な脅威に対する速度推定値を提供する速度推定アルゴリズムを実施する。これら特性を決定する詳細を以下に述べる。
[0027]ステップ310、312、および314乃至316において決定した全ての特性は、立体奥行きデータから得られた推定値であり、これらには、画像ノイズが含まれる。このノイズの影響を低減するために、これらの特性推定値は、タイム・フィルタにかけられる。より詳細には、ステップ318において、位置および速度の測定値は、カルマン・フィルタにかけられ、一方、ステップ320においては、ローパス・フィルタによって他の推定値からノイズを取り除く。フィルタリングのより詳細な説明は、以下に述べる。ローパス・フィルタにかけた後、ステップ322において、そのローパス・フィルタにかけた推定値は検出された閾値である。閾値検出では、潜在的な脅威の一覧から小さい対象物および大きい対象物を削除する。
[0028]フィルタにかかった大きさ、位置、および速度推定値が一旦分かると、ステップ324において、衝突回避システム102が、潜在的な脅威の軌道解析および衝突予測を実施する。この解析は、ステップ322からの閾値の決定と組み合わせて、ステップ326において、潜在的な脅威と共に差し迫った衝突が起こりそうであるかどうかの最終判断を行うために用いられる。
[0029]図5は、ホスト車両100が潜在的な脅威110を差し迫った衝突の脅威として認識した場合の衝突シナリオの上面図を示す。接近する経路402は、直線C−Dで表されており、CおよびDは、潜在的な脅威110およびホスト車両100の衝突接触点をそれぞれ表す。点AおよびBは、ステップ310および320において決定した潜在的な脅威110の縁を表す。点A、B、Dの位置および横、縦の速度が一旦分かれば、Cの位置を算出することができる。
[0030]脅威検知および分割のステップ308に戻ると、このステップは、ステップ306で算出した立体奥行きマップを処理する手順を用いて(図6で図示)実施される。脅威検知および分割は、立体奥行きマップにおける各画素が、対象物を抽出することができる関連した3次元の位置を有するという原則に基づいている。しかしながら、立体奥行きマップは、ノイズが多く、低密度であることが多い。図6に示したフローチャートは、ステップ306で取得した立体奥行きマップデータから始まる。このデータは、ステップ602において、パッチ格子に碁盤目状にされる。ステップ604において、パッチ毎に、(以下の説明するような方法によって)特定のパッチ内のデータ点を通して平面を貼り合わせる。そして、各パッチを事前に規定したタイプに分類する。事前に規定したこれらのタイプは、各パッチの3次元の位置、および貼り合わせた平面の法線ベクトルに基づいている。事前に規定したタイプには、広くは、潜在的な脅威を表しているもの、潜在的な脅威を表す可能性がありそうなもの、潜在的な脅威を表していそうにないものの3つの一般的な種類がある。ステップ604につき、以下詳細に説明する。
[0031]また図6を参照すると、ステップ606において、グループ分けの手順は、分類に基づいてパッチをグループ化する。混同パッチ(以下に説明する分類タイプのひとつ)の影響を低減するために、グループ化の手順には、2つのグループ化がある。第1のグループ化では、車両側および車両上部(以下参照)として分類されたパッチがグループ化される。これらのパッチは、潜在的な脅威をカバーする。第1のグループ化の後、第2のグループ化で、混同パッチ(通常、脅威となる車両の境界にある追加パッチ)があれば、潜在的な脅威に追加する。グループ化の後は、ステップ608において、分類されたパッチが集合し、境界ボックスを形成する。なお、ステップ606の第2のグループ化は、潜在的な脅威の境界において、境界ボックスの集合化を向上させる。
[0032]図7は、面フィッティングおよびパッチ分類のステップ604をより詳細に説明する図である。面フィッティングは、パッチの分類に重要な平面法線を生成するために用いられる。ステップ702において、パッチを選択する。そして、立体データ中のデータ不足による問題を緩和するために、ステップ704において、パッチが局所的に動き、パッチの元の場所に近い最も立体密度の高い領域を探す。これにより、面フィッティングの際にエラー増加などの問題を引き起こす、立体データ中の孔の影響が低減する。有効な3次元の位置推定値を持たない画素を表す孔は、立体画像データにおける鏡面性、テクスチャ不足、または他の要因によって引き起こされる。また、画素の3次元位置には、時には深刻なノイズや異常値を含み、そのために問題を引き起こす可能性もある。容易に認識可能なノイズや異常値は、立体データから削除することもできる。そして、ステップ706において、パッチが十分に稠密であり、利用可能であるかどうかの決定が成される。もし、十分でなければ、ステップ708において、十分に稠密でないパッチを破棄する。このように、衝突回避システム102においては、全てのパッチを使用することはない。
[0033]また、図7を参照すると、ステップ710において、保持するパッチ毎に、そのパッチ用立体画像データ点の部分集合を、パッチの面フィッティングやパッチ法線の決定に用いる。例えば、全範囲の80%台半ばの奥行き値を有する画素のみを使用することができる。これにより、結果を歪めてしまうのを防ぐ為、立体データにおける、起こりうる異常値を取り除くことができる。面フィッティングは、立体データからパッチの距離毎のオフセットを取り除くことから始まる。これにより、結果としてのパッチ平面は、パッチの中心に原点がある所望の平面方程式である方程式ax+by+cz=0を、平面上の任意の点である3次元の位置(x、y、z)が満たすような平面となる。そして、選択された各パッチの部分集合の3次元点を通して貼り合わせ、所望のパッチ平面を形成する。結果としてパッチ平面は、全ての点において、以下のとおりである。
[0034]Ax=0
[0035]ここで、x=(a、b、c)は、平面法線であり、Aは、全ての行における点毎のパッチの中心軌跡に対する3次元座標を有する3行列によるNである。Ax=0の最小平方解により、パッチの(表面の)法線ベクトルが求められる。表面の法線ベクトルを算出するために、計算的に有効な方法は、特異値分解(SVD)を行列ATAに適用することによって行列ATAの第3固有ベクトルを算出する方法である。高速SVDアルゴリズムは、対象の行列である正半定値行列のためのものである。
[0036]一旦、平面法線が求められると、ステップ712において、衝突検知にパッチを使うかどうかの決定が成される。この決定は、以下のタイプのひとつとして分類されるパッチの分類に基づく。
[0037]パッチが負の高さを有する場合は、負のパッチ、
[0038]パッチの高さが閾値を下回り、かつ、垂直法線を有する場合は、基底パッチ、
[0039]パッチの距離が対象範囲外の場合、遠方パッチ、
[0040]パッチの高さが対象範囲外の場合、高いパッチ、
[0041]高さは基底に近いが垂直法線でない場合、または、高さは閾値より高いが垂直法線を有する場合は、境界パッチ、
[0042]高さが閾値より高く垂直法線を有さない場合は、車両側パッチ、あるいは、
[0043]高さが閾値より高く略垂直法線を有する場合は、車両上部パッチ
[0044]パッチの分類は、(平面法線によって決定される)パッチの方向、高さ制限、およびその位置に基づく。複数の基準を用いて分類することで、立体画像データ中のノイズの影響を緩和することができる。分類時に使用する正確な閾値は、カメラ200および202の補正パラメータおよび場面104の潜在的な脅威によって決まる。多くの場合においては、車両側パッチあるいは車両上部パッチと分類されたパッチは、実際、潜在的な脅威からのものである。このように、車両側および車両上部という分類は、潜在的な脅威からのものであるという一般的な種類を意味する。混同パッチは、基底および潜在的な脅威の混在する部分を含む境界パッチである場合が多い。このように、混同パッチは、潜在的な脅威を表すかもしれない一般的な種類を表す。パッチが、車両側、車両上部、または混同パッチでない場合、そのパッチは、潜在的な脅威からのものではなさそうであり、そのため、ステップ714において破棄される。しかしながら、パッチが、車両側、車両上部、または混同パッチである場合は、ステップ716において、潜在的な脅威の一部であるとして印が付けられる。最終的には、ステップ716、714、または708の後、ステップ718において、さらに分類するパッチがあるかどうかの決定が成される。分類するパッチがある場合は、ステップ604は、ステップ702に戻り、他のパッチを選択する。そうでなければ、方法300は、ステップ606に進む。
[0045]潜在的な脅威の高さ、大きさ、および位置は、境界ボックスから直接測定することができる。特に、潜在的な脅威の左右の境界は、よりよい推定値が得られるように経時的に決定される。
[0046]図8は、ステップ314および316における速度推定の方法をより詳細に示す図である。ステップ308において境界ボックスが求められると、潜在的な脅威の速度も推定することができる。まず、ステップ802において、異なった時間フレームにおける場面104の画像が得られる。このことは、図4に示した直線313によっても示されている。そして、ステップ802において、選択した潜在的な脅威の2次元の対応点を、異なった時間フレームの「特徴照合法」を用いて決定し、時間全体における2次元の対応点を確立する。D.ニスター(D.Nister)著、「動作アルゴリズムからの5点構造(Five point structure from motion algorithm)」サーノフ社(Sarnoff Corporation)、公開発明番号14831を参照されたい。2次元の対応点のみによって、潜在的な脅威の角速度を決定することができる。
[0047]2次元の対応点が利用可能になると、ステップ806において、同じ特徴の組みに対する3次元の対応点を、異なった時間フレームにおける特徴の同じ組みの奥行き変化を用いて比較的容易に求めることができる。これにより、2組のデータ点であるPiおよびQiを生成することができる。ここで、i=1...N、および
[0048]Qi=RPi+T+Viが成り立つ。
[0049]ここで、Nは、データ点の数、Rは、回転行列、Tは、3次元変換行列、およびViは、ノイズである。
[0050]2組の対応するデータ点が得られると、ステップ808において、3次元の速度推定値が得られる。標準的な方法では、Nが2よりも大きい場合の最適な回転および平行移動の動きを解く。例えば、K.アルン、T.フアン、およびS.ボルスタイン(K.Arun、T.Huang、and S.Bolstein)著、「2組の3次元点の最小二乗フィッティング(Least−square Fitting of Two 3D Point Sets)」、IEEE Trans. Pattern Anal. Machine Intel.、1987年、第9巻、第5号、p.698を参照されたい。自動車の衝突回避のために、平行移動だけを評価することが有効な場合が多い。その場合、平行移動だけを推定する必要がある。しかしながら、K.アルン、T.フアン、およびS.ボルスタインが教示する方法をそのまま実施すると、3次元の対応点データには、深刻なノイズおよび異常値を含むため、幾分粗悪な結果が導かれる。そのため、ステップ808では、より頑強な方法である、ランダム・サンプル・コンセンサス(RANSAC)に基づいた速度推定法を用いる。その一般的なアルゴリズムは、
[0051]1.3次元の対応データセットからk点を選択する。
[0052]2.T(任意にR)を解く。
[0053]3.どのくらいの(N中の)点が許容内に収まるかを調べ、それをMと呼ぶ。
[0054]4.M/Nが十分大きい場合、結果を受け付け、終了する。そうでなければ、
[0055]5.1から4までをL回繰り返すか、M/Nが十分大きくなるまで繰り返す。
[0056]6.失敗
[0057]ICP(逐次最近点)などのアルゴリズムを用いて、直接、奥行き画像から3次元の対応点を導き出すことができる。しかし、直接、3次元の対応点を導くことは、計算上非効率であり、立体画像データ中のノイズの影響を受ける。3次元の対応点は、ホスト車両100に対する潜在的な脅威の近づく速度を提供する。
[0058]上述したように、立体データにおけるノイズを低減するために、全ての測定値にフィルタリングを適用する。潜在的な脅威の大きさや高さなどの一定量の測定値は、標準的なローパス・フィルタを用いてフィルタにかける。位置や速度測定値などの変化するパラメータは、カルマン・フィルタを用いてフィルタにかける。カルマン・フィルタには、システム・モデルが必要となり、一定速度モデルを、ガウス・ホワイト・ノイズとしてモデル化した加速度に用いる。システムの動きは、以下の式のように書き表すことができる。
Figure 2007527569
[0059]全ての変数は(下記に説明するものを除いては)直接測定可能であり、そのため、観測方程式はそれ自身が変数であり、ガウス・ホワイト・ノイズとしてモデル化された不確実な測定値にすぎない。観測行列は、単に単位行列にすぎない。
[0060]問題は、潜在的な脅威の左境界または右境界、あるいはその両方がカメラ視野の外にある場合である。このような場合、潜在的な脅威の境界は、立体奥行きマップから直接測定することができない。そのような状況においては、非常に大きな分散値を観測ノイズに割り当て、測定における不確実さを反映させる。実験は、カルマン・フィルタリングが不確実さを非常にうまく伝えることを示している。カルマン・フィルタリングは、潜在的な脅威が非常に近く、視野全体を占める場合に特に有効である。境界位置および速度の観測が非常に不確実になった場合、衝突検知システム102は、前に推定したシステム・モデルに依存する。
[0061]上記は本発明の実施形態のために成されたが、本発明の他の実施形態およびさらなる実施形態が、本発明の基本範囲を逸脱することなく実施可能であり、本発明の範囲は、次に続く特許請求の範囲によって決定される。
本発明の原則による立体視システムを有する車両の概略図を示す。 図1の立体視システムの電気的サブシステムを示す。 奥行きマップの生成を示す。 図2の立体視システムで用いる潜在的な脅威の検知および分割処理のフローチャートを示す。 差し迫った衝突の上部図を示す。 図4の潜在的な脅威の検知および分割処理に用いる面フィッティングおよび標識付け処理のフローチャートを示す。 図3の視覚システムに用いる速度推定処理のフローチャートを示す。 速度の推定を行うフローチャートを示す。

Claims (10)

  1. 差し迫った衝突を検知する方法であって、
    プラットホームに近接する場面の奥行きマップを画像から生成するステップと、
    前記奥行きマップにおける潜在的な脅威を検知するステップと、
    前記検知した潜在的な脅威の大きさを推定するステップと、
    前記検知した潜在的な脅威の位置を推定するステップと、
    前記検知した潜在的な脅威の速度を推定するステップと、
    前記推定した位置および前記推定した速度を用いて前記検知した潜在的な脅威の軌道解析を行うステップと、
    前記軌道解析に基づいて衝突予測を行うステップと、
    を含む方法。
  2. 前記衝突予測および前記潜在的な脅威の前記推定した大きさに基づいて、衝突が差し迫ったものであるかどうかを決定するステップをさらに含む請求項1に記載の方法。
  3. 軌道解析を行う前に、前記推定した位置をフィルタにかけ、前記推定した速度をフィルタにかけるステップをさらに含む請求項1に記載の方法。
  4. 前記検知した潜在的な脅威の前記速度を推定するステップは、異なった時間フレームにおいて生成した画像から2次元の特徴対応点を識別するステップを含む請求項1に記載の方法。
  5. 前記検知した潜在的な脅威の前記速度を推定するステップは、前記2次元の特徴対応点および前記奥行きマップから3次元対応点を求めるステップをさらに含む請求項4に記載の方法。
  6. 前記奥行きマップにおける潜在的な脅威を検知するステップは、
    前記奥行きマップを多くのパッチへと碁盤目状にするステップと、
    以下に続く処理用の複数のパッチを選択するステップと、
    前記複数のパッチの各パッチに平面を貼り合わせるステップと、
    各平面ごとに法線ベクトルを取得するステップと、
    前記複数のパッチの各パッチを、各パッチの取得された前記法線ベクトルに基づいて、潜在的な脅威を表しそうなパッチを表す種類、潜在的な脅威を表す可能性のあるパッチを表す別の種類、および潜在的な脅威を表しそうにないパッチを表す別の種類に分類するステップと
    を含む請求項1に記載の方法。
  7. 潜在的な脅威を表しそうなパッチをグループ化するステップをさらに含む請求項6に記載の方法。
  8. 場面の画像を生成する1対の立体カメラと、
    前記画像を前処理する立体画像プリプロセッサと、
    前処理した前記画像から奥行きマップを生成する奥行きマップ生成部と、
    前記奥行きマップおよび前記画像から衝突が差し迫ったものであるかどうかを決定する衝突検知部とを備え、
    前記衝突検知部は、前記奥行きマップにおける潜在的な脅威を検知し、
    前記衝突検知部は、前記潜在的な脅威の大きさ、位置、および速度を推定し、
    前記衝突検知部は、推定した前記位置および推定した前記速度を用いて検知した前記潜在的な脅威の軌道解析を行い、
    前記衝突検知部は、前記軌道解析に基づいて衝突を予測し、
    前記衝突検知部は、前記衝突予測および推定した前記大きさに基づいて衝突が差し迫ったものであるかどうかを決定する衝突検知システム。
  9. 前記衝突検知部は、軌道解析を行う前に、前記推定した位置および前記推定した速度から画像ノイズおよび異常値を取り除くフィルタを含む請求項8に記載の衝突検知システム。
  10. ホスト車両をさらに含み、前記1対のカメラが、前記ホスト車両に対し、定位置に搭載されている請求項8に記載の衝突検知システム。
JP2006518835A 2003-07-02 2004-07-02 立体視に基づく差し迫った衝突の検知 Pending JP2007527569A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US48446303P 2003-07-02 2003-07-02
US10/766,976 US7660436B2 (en) 2003-06-13 2004-01-29 Stereo-vision based imminent collision detection
PCT/US2004/021548 WO2005004461A2 (en) 2003-07-02 2004-07-02 Stereo-vision based imminent collision detection

Publications (1)

Publication Number Publication Date
JP2007527569A true JP2007527569A (ja) 2007-09-27

Family

ID=33567723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006518835A Pending JP2007527569A (ja) 2003-07-02 2004-07-02 立体視に基づく差し迫った衝突の検知

Country Status (4)

Country Link
US (1) US7660436B2 (ja)
EP (1) EP1639521A4 (ja)
JP (1) JP2007527569A (ja)
WO (1) WO2005004461A2 (ja)

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7715591B2 (en) * 2002-04-24 2010-05-11 Hrl Laboratories, Llc High-performance sensor fusion architecture
US7263209B2 (en) * 2003-06-13 2007-08-28 Sarnoff Corporation Vehicular vision system
ATE396470T1 (de) * 2004-04-08 2008-06-15 Mobileye Technologies Ltd Kollisionswarnsystem
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
EP1779295A4 (en) 2004-07-26 2012-07-04 Automotive Systems Lab SYSTEM FOR PROTECTING USERS OF THE ROAD IN A DANGER SITUATION
DE102005000652A1 (de) * 2005-01-04 2006-07-13 Robert Bosch Gmbh Verfahren für die Objekterfassung
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7561732B1 (en) * 2005-02-04 2009-07-14 Hrl Laboratories, Llc Method and apparatus for three-dimensional shape estimation using constrained disparity propagation
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7587081B2 (en) * 2005-09-28 2009-09-08 Deere & Company Method for processing stereo vision data using image density
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
DE102006051091B4 (de) * 2006-06-26 2021-10-28 Volkswagen Ag Verfahren zur Objekterkennung von Fahrzeugen mittels Nahbereichsdetektion
US7865285B2 (en) * 2006-12-27 2011-01-04 Caterpillar Inc Machine control system and method
DE102007001552A1 (de) * 2007-01-10 2008-07-17 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln potentiell gefährdender Objekte für ein Fahrzeug
US8326048B2 (en) * 2007-10-04 2012-12-04 Microsoft Corporation Geo-relevance for images
US20090292468A1 (en) * 2008-03-25 2009-11-26 Shunguang Wu Collision avoidance method and system using stereo vision and radar sensor fusion
KR101483659B1 (ko) * 2008-07-11 2015-01-16 삼성디스플레이 주식회사 입체영상 표시방법, 이를 수행하기 위한 표시장치
EP2159779B1 (en) * 2008-08-27 2013-01-16 Saab Ab Using image sensor and tracking filter time-to-go to avoid mid-air collisions
US8385599B2 (en) 2008-10-10 2013-02-26 Sri International System and method of detecting objects
US20100289874A1 (en) * 2009-05-15 2010-11-18 Fuhua Cheng Square tube mirror-based imaging system
JP5385009B2 (ja) * 2009-05-29 2014-01-08 日立オートモティブシステムズ株式会社 車両制御装置および車両制御方法
JP4934701B2 (ja) * 2009-06-30 2012-05-16 株式会社日立製作所 ステレオ画像処理装置およびステレオ画像処理方法
US8964004B2 (en) 2010-06-18 2015-02-24 Amchael Visual Technology Corporation Three channel reflector imaging system
US10776635B2 (en) 2010-09-21 2020-09-15 Mobileye Vision Technologies Ltd. Monocular cued detection of three-dimensional structures from depth images
JP5258859B2 (ja) * 2010-09-24 2013-08-07 株式会社豊田中央研究所 走路推定装置及びプログラム
US9047781B2 (en) 2011-05-31 2015-06-02 Georgia Tech Research Corporation Safety zone detection, enforcement and alarm system and related methods
US10520581B2 (en) 2011-07-06 2019-12-31 Peloton Technology, Inc. Sensor fusion for autonomous or partially autonomous vehicle control
US10254764B2 (en) 2016-05-31 2019-04-09 Peloton Technology, Inc. Platoon controller state machine
US20170242443A1 (en) 2015-11-02 2017-08-24 Peloton Technology, Inc. Gap measurement for vehicle convoying
US9582006B2 (en) 2011-07-06 2017-02-28 Peloton Technology, Inc. Systems and methods for semi-autonomous convoying of vehicles
US8648808B2 (en) 2011-09-19 2014-02-11 Amchael Visual Technology Corp. Three-dimensional human-computer interaction system that supports mouse operations through the motion of a finger and an operation method thereof
US9019352B2 (en) 2011-11-21 2015-04-28 Amchael Visual Technology Corp. Two-parallel-channel reflector with focal length and disparity control
US9019603B2 (en) 2012-03-22 2015-04-28 Amchael Visual Technology Corp. Two-parallel-channel reflector with focal length and disparity control
US9557634B2 (en) 2012-07-05 2017-01-31 Amchael Visual Technology Corporation Two-channel reflector based single-lens 2D/3D camera with disparity and convergence angle control
WO2014024284A1 (ja) * 2012-08-08 2014-02-13 トヨタ自動車株式会社 衝突予測装置
US9355502B2 (en) * 2012-12-12 2016-05-31 Analogic Corporation Synthetic image generation by combining image of object under examination with image of target
US20140176714A1 (en) * 2012-12-26 2014-06-26 Automotive Research & Test Center Collision prevention warning method and device capable of tracking moving object
US11294396B2 (en) 2013-03-15 2022-04-05 Peloton Technology, Inc. System and method for implementing pre-cognition braking and/or avoiding or mitigation risks among platooning vehicles
US20180210463A1 (en) 2013-03-15 2018-07-26 Peloton Technology, Inc. System and method for implementing pre-cognition braking and/or avoiding or mitigation risks among platooning vehicles
CN104284172A (zh) * 2013-07-04 2015-01-14 联咏科技股份有限公司 影像匹配方法及立体匹配系统
US20160166856A1 (en) * 2013-07-31 2016-06-16 The Uab Research Foundation Predictive collision avoidance for radiotherapy
US9224060B1 (en) * 2013-09-17 2015-12-29 Amazon Technologies, Inc. Object tracking using depth information
US9875661B2 (en) * 2014-05-10 2018-01-23 Aurora Flight Sciences Corporation Dynamic collision-avoidance system and method
KR102323393B1 (ko) * 2015-01-12 2021-11-09 삼성전자주식회사 디바이스 및 상기 디바이스의 제어 방법
US9764736B2 (en) * 2015-08-14 2017-09-19 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation relative to unexpected dynamic objects
US10282623B1 (en) * 2015-09-25 2019-05-07 Apple Inc. Depth perception sensor data processing
CN105740802A (zh) * 2016-01-28 2016-07-06 北京中科慧眼科技有限公司 基于视差图的障碍物检测方法和装置及汽车驾驶辅助系统
US9701307B1 (en) * 2016-04-11 2017-07-11 David E. Newman Systems and methods for hazard mitigation
US10543852B2 (en) * 2016-08-20 2020-01-28 Toyota Motor Engineering & Manufacturing North America, Inc. Environmental driver comfort feedback for autonomous vehicle
US10369998B2 (en) 2016-08-22 2019-08-06 Peloton Technology, Inc. Dynamic gap control for automated driving
EP3500940A4 (en) * 2016-08-22 2020-03-18 Peloton Technology, Inc. AUTOMATED CONNECTED VEHICLE CONTROL SYSTEM ARCHITECTURE
CN107436427B (zh) * 2017-01-12 2020-07-17 西南电子技术研究所(中国电子科技集团公司第十研究所) 空间目标运动轨迹与辐射信号关联方法
US10114375B1 (en) 2017-04-06 2018-10-30 Delphi Technologies, Inc. Motion-characteristic based object classification for automated vehicle
US11062461B2 (en) * 2017-11-16 2021-07-13 Zoox, Inc. Pose determination from contact points
CN108151750B (zh) * 2017-12-13 2020-04-14 西华大学 定位方法及装置
US10916026B2 (en) 2018-05-16 2021-02-09 Toyota Research Institute, Inc. Systems and methods of determining stereo depth of an object using object class information
US10930001B2 (en) 2018-05-29 2021-02-23 Zebra Technologies Corporation Data capture system and method for object dimensioning
US10611372B2 (en) 2018-09-06 2020-04-07 Zebra Technologies Corporation Dual-mode data capture system for collision detection and object dimensioning
US10820349B2 (en) 2018-12-20 2020-10-27 Autonomous Roadway Intelligence, Llc Wireless message collision avoidance with high throughput
US10816635B1 (en) 2018-12-20 2020-10-27 Autonomous Roadway Intelligence, Llc Autonomous vehicle localization system
US10713950B1 (en) 2019-06-13 2020-07-14 Autonomous Roadway Intelligence, Llc Rapid wireless communication for vehicle collision mitigation
US10820182B1 (en) 2019-06-13 2020-10-27 David E. Newman Wireless protocols for emergency message transmission
US10939471B2 (en) 2019-06-13 2021-03-02 David E. Newman Managed transmission of wireless DAT messages
KR20210152741A (ko) * 2020-06-09 2021-12-16 삼성전자주식회사 첨단 운전자 지원 장치 및 이의 객체를 검출하는 방법
US11206092B1 (en) 2020-11-13 2021-12-21 Ultralogic 5G, Llc Artificial intelligence for predicting 5G network performance
US11202198B1 (en) 2020-12-04 2021-12-14 Ultralogic 5G, Llc Managed database of recipient addresses for fast 5G message delivery

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000244897A (ja) * 1999-02-16 2000-09-08 Mitsubishi Electric Inf Technol Center America Inc 状態認識システムおよび状態認識表示生成方法
JP2002029346A (ja) * 2000-07-14 2002-01-29 Hiroyuki Yokozawa 自動車の運転支援システム及び運転支援プログラムを記録した記録媒体
JP2002104117A (ja) * 2000-10-03 2002-04-10 Denso Corp 車両用運転支援システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE59809476D1 (de) * 1997-11-03 2003-10-09 Volkswagen Ag Autonomes Fahrzeug und Verfahren zur Steuerung eines autonomen Fahrzeuges
US6049756A (en) * 1997-11-12 2000-04-11 Lockheed Martin Corporation System and method for avoiding collision between vector and solid objects
FR2798761B1 (fr) * 1999-09-17 2002-03-29 Thomson Multimedia Sa Procede de construction d'un modele de scene 3d par analyse de sequence d'images
EP1315980B1 (en) * 2000-09-08 2006-10-04 Raytheon Company Path prediction system and method
FR2837597A1 (fr) * 2002-03-25 2003-09-26 Thomson Licensing Sa Procede de modelisation d'une scene 3d
US7263209B2 (en) * 2003-06-13 2007-08-28 Sarnoff Corporation Vehicular vision system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000244897A (ja) * 1999-02-16 2000-09-08 Mitsubishi Electric Inf Technol Center America Inc 状態認識システムおよび状態認識表示生成方法
JP2002029346A (ja) * 2000-07-14 2002-01-29 Hiroyuki Yokozawa 自動車の運転支援システム及び運転支援プログラムを記録した記録媒体
JP2002104117A (ja) * 2000-10-03 2002-04-10 Denso Corp 車両用運転支援システム

Also Published As

Publication number Publication date
EP1639521A2 (en) 2006-03-29
WO2005004461A2 (en) 2005-01-13
WO2005004461A3 (en) 2005-06-23
US7660436B2 (en) 2010-02-09
US20040252863A1 (en) 2004-12-16
EP1639521A4 (en) 2009-07-22

Similar Documents

Publication Publication Date Title
JP2007527569A (ja) 立体視に基づく差し迫った衝突の検知
Shin et al. Vision-based navigation of an unmanned surface vehicle with object detection and tracking abilities
US8867790B2 (en) Object detection device, object detection method, and program
US7103213B2 (en) Method and apparatus for classifying an object
CN111582054B (zh) 点云数据处理方法及装置、障碍物检测方法及装置
JP6328327B2 (ja) 画像処理装置及び画像処理方法
GB2532948A (en) Objection recognition in a 3D scene
JP6021689B2 (ja) 車両諸元計測処理装置、車両諸元計測方法及びプログラム
EP1639516A4 (en) METHOD AND APPARATUS FOR DETECTING AND REMOVING SOIL PLAN IN ARTIFICIAL VISION SYSTEMS
CN115049700A (zh) 一种目标检测方法及装置
WO2020154990A1 (zh) 目标物体运动状态检测方法、设备及存储介质
Yiruo et al. Complex ground plane detection based on v-disparity map in off-road environment
Harakeh et al. Ground segmentation and occupancy grid generation using probability fields
Nedevschi et al. Driving environment perception using stereovision
Petrovai et al. Obstacle detection using stereovision for Android-based mobile devices
CN114766039A (zh) 对象检测方法、对象检测设备、终端设备、以及介质
JP2013069045A (ja) 画像認識装置、画像認識方法および画像認識プログラム
Giosan et al. Superpixel-based obstacle segmentation from dense stereo urban traffic scenarios using intensity, depth and optical flow information
WO2024142571A1 (ja) 画像処理装置
Yang et al. Pedestrian detection on moving vehicle using stereovision and 2d cue
JP2013142668A (ja) 位置推定装置及び位置推定方法
Nedevschi et al. Improving accuracy for Ego vehicle motion estimation using epipolar geometry
bin Rasdi et al. Around View Monitoring System with Motion Estimation in ADAS Application
WO2024004325A1 (ja) 外界認識装置及び外界認識方法
JP4956795B2 (ja) 車両用画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100526

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100602

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101116