JP6896044B2 - 道路の垂直輪郭検出 - Google Patents

道路の垂直輪郭検出 Download PDF

Info

Publication number
JP6896044B2
JP6896044B2 JP2019197801A JP2019197801A JP6896044B2 JP 6896044 B2 JP6896044 B2 JP 6896044B2 JP 2019197801 A JP2019197801 A JP 2019197801A JP 2019197801 A JP2019197801 A JP 2019197801A JP 6896044 B2 JP6896044 B2 JP 6896044B2
Authority
JP
Japan
Prior art keywords
image
points
plane
road
flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019197801A
Other languages
English (en)
Other versions
JP2020042831A (ja
Inventor
ギデオン,ステイン
アムノン,シャシュア
Original Assignee
モービルアイ ヴィジョン テクノロジーズ リミテッド
モービルアイ ヴィジョン テクノロジーズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by モービルアイ ヴィジョン テクノロジーズ リミテッド, モービルアイ ヴィジョン テクノロジーズ リミテッド filed Critical モービルアイ ヴィジョン テクノロジーズ リミテッド
Publication of JP2020042831A publication Critical patent/JP2020042831A/ja
Application granted granted Critical
Publication of JP6896044B2 publication Critical patent/JP6896044B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/076Slope angle of the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/15Road slope

Description

本発明は、形状を正確に検出するシステムに関し、詳細にはカメラを使用して道路の垂直輪郭を正確に検出するシステムに関する。
従来技術の説明
過去数年間に、車線逸脱警告(LDW)、自動ハイビーム制御(AHC)、交通標識認識(TSR)、前方衝突警告(FCW)および歩行者の検出を含む、運転者支援システム(DAS)に基づいたカメラが、市場に参入してきた。
ホスト車両内に搭載可能な様々な運転者支援システムおよびコンピュータ化された方法が、本明細書に提供される。運転者支援システムは、プロセッサに作動可能に連結可能なカメラを含む。運転者支援システムは、道路の垂直輪郭における偏差を検出するために、ホスト車両が動いている間に作動可能である。第1の画像フレームおよび第2の画像フレームは、カメラの視野内に捕捉される。画像の動きは、第1のフレームと第2のフレームから抽出された道路の画像および第2のフレームから抽出された道路のそれぞれの画像間で処理される。道路の垂直輪郭は、道路の路面モデルを使用して見積られ、垂直輪郭における偏差は、路面モデルから計算される。オプティカルフローは、第1の画像フレームから抽出された道路の複数の第1の画像表示と、第2の画像フレームから抽出された道路の対応する第2の画像表示との間で見積られてもよい。垂直輪郭における偏差は、オプティカルフローを、路面モデルによって予測されるようなオプティカルフローと比較することによって決定される。残余のオプティカルフローは、道路の垂直輪郭における偏差を示す。
第3の画像フレームは、カメラの視野内に捕捉されてもよく、道路のそれぞれの画像間の画像の動きは、第3の画像フレームならびに1つまたは複数の第1および第2の画像フレームから抽出されてもよい。マルチフレームの路面モデルは、該第1の画像フレームおよび該第2の該第2の画像フレームに基づく、該路面モデルから抽出された道路の道路プロファイルを、該第2の処理することと組み合わせることによって計算されてもよい。
マルチフレームの路面モデルは、第1および/または第2の画像フレームから、第3の画像フレームに、該少なくとも1つの前の画像フレームと第3の画像フレームとの間のホモグラフィを使用することによって、マッピングされてもよい。
道路の輪郭に対する平面モデルを仮定して、道路の画像の、画像の動きは、歪められた第2の画像フレームによって生成されるために、第2の画像フレームを第1の画像フレームに向かって最初に歪めることによって処理されてもよい。最初の歪みは、道路、ヨー、ピッチおよび/またはロールに対する、車両の動きに起因する画像シフトを調節することにより、第2の画像フレームを第1の画像フレームに、位置合わせすることを含んでもよい。最初の歪みは、第2の画像フレームと第1の画像フレームとの間の相対スケール変化に対する調節を含んでもよい。相対スケール変化は、カメラまでの距離の差に起因する。
複数の像点は、第1の画像フレーム内で選択されてもよい。像点は、路面の画像上に配置されてもよく、固定格子の点に配置されてもよい。像点に対して、複数の画像表示は、像点を中心にそれぞれが配置される。像点は、複数のトラッキングされた点を生成するために、第1の画像フレーム内の画像表示を、歪められた第2の画像フレーム内の対応する画像表示と相関させることによって、トラッキングされてもよい。トラッキングされた点は、ホモグラフィに適合される。第1の画像フレームに向かって歪められた第2の画像フレームの精密な歪みは、ホモグラフィを使用することにより最初の歪みを修正するために、また精密に歪められた第2の画像フレームを生成するために実行されてもよい。オプティカルフローは、精密に歪められた第2の画像フレームと第1の画像フレームとの間で計算されてもよい。オプティカルフローは、路面モデルの基づく路面と比較される。道路の垂直輪郭における偏差は、路面モデルによって見出されたように、路面のオプティカルフローと異なる残余のオプティカルフローを生成する。
前述および/または他の態様は、添付図面と関連して考慮すると、以下の詳細な説明から明らかになろう。
本発明を、単に例示を目的として、添付図面を参照しながら本明細書に説明する。
本発明の態様による、車両内に搭載されたカメラまたは画像センサを含むシステムを示す図である。 本発明の態様による、車両内に搭載されたカメラまたは画像センサを含むシステムを示す図である。 本発明の特徴による、車両が道路に沿って移動中に道路の垂直輪郭のリアルタイム測定のための簡略化した方法の流れ図である。 本発明の特徴による、車両内に搭載された前向きカメラから捕捉された2つの連続画像フレームである。 本発明の特徴による、図3に示された処理ステップの詳細を示す流れ図である。 本発明の特徴による、図5に示された最初に歪めるステップのさらに詳細を示す流れ図である。 本発明の特徴による、歪められた画像として示された結果、すなわち図5の最初の歪みステップの結果を示す図である。 本発明の特徴による、図7aの歪められた画像と一画像との差の結果として異なる画像を示す図である。 本発明の特徴による、台形領域の歪められた画像である。 本発明の特徴による、図8aの歪められた画像内の台形領域の詳細を示す図である。 本発明の特徴による、画像に向かって歪められた画像の精密な歪みの結果を示す図である。 本発明の特徴による、一画像に向かって歪められた画像の精密な歪みとその画像との差を示す図である。 本発明の特徴による、点の高密度格子のトラッキングの結果を示す図である。 本発明の特徴による、図10aに示された領域の詳細を示す図である。 本発明の特徴による、図10aに示された領域の詳細を示す図である。 本発明の特徴による、図10aに示された領域の詳細を示す図である。 本発明の特徴による、Matlab(商標)で実行されたオプティカルフロールーチンに送り込まれる、2つのフィルタを掛けられ、切断された画像である。 本発明の特徴による、グレースケール画像として残余のオプティカルフローのy成分を示す図である。 本発明の特徴による、元の画像上にかぶせた図12に示されたものと同じデータを示す図である。 本発明の特徴による、y方向の平面の動き流れに対する、画像のy座標のグラフである。 本発明の特徴による、カメラからのメートル単位の距離に対する、道路プロファイルのメートル単位のグラフである。
ここで、本発明の例が添付図面に図示された、本発明の特徴を詳細に参照する。添付図面において同様の参照番号は、すべてを通して同様の要素を指す。特徴は、図を参照することにより、本発明を説明するために以下に説明される。
本発明の特徴を詳細に説明する前に、本発明は、その適用が以下の記載に説明された、または図面に示された構成部品の詳細な設計および配置に限定されないことを理解されたい。本発明は、他の特徴が可能である、または様々な方法で実施もしくは実行することが可能である。また、本明細書に利用された表現および用語は、説明のためであり、限定としてみなされるべきではないことを理解されたい。
ここで、本発明の一態様による、車両18に搭載されたカメラまたは画像センサ12を含む、システム16を示す図1および2を参照する。順方向の視野を撮像する画像センサ12は、画像フレーム15をリアルタイムで提供し、画像フレーム15は、画像プロセッサ30によって捕捉される。プロセッサ30を使用して、多数の運転者支援システム/アプリケーションの働きを同時におよび/または並行してするために、画像フレーム15を処理してもよい。プロセッサ30を使用して、カメラ12の前方視野における画像または画像の一部を検出し認識するために、画像フレーム15を処理してもよい。運転者支援システムは、取り付けられたソフトウェアおよび/または記憶装置13内のソフトウェア制御アルゴリズムと共に、特定のハードウェア回路(図示せず)を使用して実施されてもよい。画像センサ12は、単色もしくは白黒、すなわち、色分解がなくてもよく、または画像センサ12は、色を感知できてもよい。図2の例として、画像フレーム15を使用して、歩行者検知20、交通標識認識(TSR)21、前方衝突警告(FCW)22および本発明の特徴による、道路の垂直輪郭または道路平面からの偏差のリアルタイム検出23として働く。
場合によっては、画像フレーム15は、異なる運転者支援アプリケーションとの間で分割され、場合によっては、画像フレーム15は、異なる運転者支援アプリケーションとの間で共有されてもよい。
紹介として、本発明の様々な実施形態は、道路の形状、すなわち垂直輪郭をホスト車両18内に搭載されたカメラ12を使用して、道路から正確に検出するために有益である。本明細書に提供されたシステムおよび方法を使用すると、減速バンプ、縁石およびマンホールの蓋などの隆起および/または穴は、わずか2センチメートルの垂直輪郭で道路平面から検知されてもよい。本明細書に開示されたシステムおよび方法は、前方視、側方視および背面視カメラ12に同様に適用されてもよい。
本明細書に記載された様々な方法は、路面の平面(または四次方程式)モデルを見積り、次いで隆起および穴を検出するために、小さい偏差を平面(または四次方程式)モデルから計算する。
次に、本発明の一態様による、車両18が道路に沿って移動中に、道路の垂直輪郭のリアルタイム測定のために、簡略化した方法23の流れ図を示す、図3を参照する。ステップ303では、第1の画像フレーム15および第2の画像フレーム15は、車両18内に搭載されたカメラ12の視野内の道路を捕捉する。第1の画像フレーム15から第2の画像フレーム15への画像の移動は、道路の垂直輪郭を検出するために処理される(ステップ305)。さらに、ステップ305の詳細が、以下の説明に示される。
次に、本発明の特徴による、車両18内に搭載された前向きカメラ12から捕捉された(ステップ303)、2つの連続した画像フレーム15aおよび15bを示す図4も参照する。画像フレーム15bは、画像フレーム15aが捕捉された後で捕捉される。同じように、画像フレーム15bは、画像フレーム15aを捕捉する前に捕捉されてもよい。以下に説明されるカメラ12は、Mobileye(商標)のadvance warning system(事前警報システム)(AWS)(商標)に使用されるような、WVGAカメラ(Aptina M9V024およびSunny 4028A 5.7mmレンズ)であってもよい。
次に、本発明の特徴による、処理ステップ305の詳細を示す流れ図を含む図5も参照する。用語「歪める」は、本明細書に使用される場合、画像の空間から画像の空間への変形を表す。
画像フレーム15bは、画像フレーム15aに最初に歪められる(ステップ501)。(同様の工程で、画像フレーム15aは、画像フレーム15bに最初に歪められてもよい)。道路はほとんど平面としてモデル化することができると考えられる。したがって、道路の像点は、ホモグラフィに従って画像空間を移動する。用語「ホモグラフィ」は、本明細書に使用される場合、射影空間からそれ自体に直線から直線にマッピングする可逆変換を表す。コンピュータ視覚の分野では、空間における同じ平面の2つの画像は、ピンホールカメラのモデルとみなされるホモグラフィによって関連付けられる。
特に、例として、所与のカメラ12の高さ(1.25m)、焦点距離(950画素)およびフレーム間(1.58m)の車両の動きに対して、2つの画像フレーム15aと15bとのそれぞれの間の道路平面上の点の動きを予測することが可能であってもよい。道路の点の動きに対してほとんど平面のモデルを使用すると、第2の画像15bを第1の画像15aに向かって歪めることが可能である。以下のMatlab(商標)コードは、最初の歪みステップ501を実行するはずである。
Figure 0006896044
式中、dZは車両18の前進運動、Hはカメラ12の高さ、およびfはカメラ12の焦点距離である。p=(x;y)は、道路構造の消滅点である。別法として、車両18におけるシステム1の取付け中に最初の校正値を使用することが可能であってもよい。式中、xは車両18の前方向であり、yは車両18が水平面上にある際は、水平線である。変数Sは、カメラ12から異なる車両距離Zで捕捉された2つの画像フレーム15aと15bとの間の画像座標に関する、全体のスケール係数である。用語「相対スケール変化」は、本明細書に使用される場合、カメラ12までの距離Zに依存する画像座標における全体のスケール変化を表す。
次に、本発明の特徴による、最初に歪めるステップ501のさらに詳細を示す、流れ図を含む図6を参照する。道路モデルによると、画像15bは、利用可能なヨー、ピッチおよびロールの見積りに従って、画像15aに向かった回転(ステップ601)によって変形される。見積りは、車両18内またはカメラ12内の前方のヨーレートセンサなどの慣性センサからもたらされてもよい。また、見積りは、前の画像フレーム15から計算された値からもたらされることもある。最初の歪みは、ステップ603に示された平面道路の平面モデルに基づいた。
実際には、回転(ステップ601)および道路モデルの歪み(ステップ603)は、単一の歪みに組み合わせることができるので、共一次内挿法の1つのステップのみが必要とされる。ピッチおよびヨーのみが関与する場合は、これらを画像シフトによって概算することができる。たとえば、ヨーは、方程式1および2から水平画像シフトδθPixelsを概算することができる。
Figure 0006896044
Figure 0006896044
次に、本発明の特徴による、歪められた画像15wとして示された結果、すなわち画像15aに向かう画像15bの最初の歪みステップ501の結果を示す、図7aを参照する。歪みは、車両18の動き(速度計、慣性センサなどから)に基づいてもよい。
次に、本発明の特徴による、画像15dとして示された、歪められた画像15wと画像15aとの差を示す、図7bを参照する。図7bでは、道路上の一部の特徴は依然として完全には位置合わせされないことがわかる。
点のトラッキング
最初の歪み(ステップ501)後、道路上の特徴の残余の動きは、画像15aから画像15wへの画像表示の均一な移動として、局部的に概算できる。これは、元の画像15aと歪められていない画像15bとの間の真の動きではなく、表示の動きも非均一のスケール変化である。
次に、本発明の特徴による、台形領域80の、歪められた画像フレーム15wを示す図8aも参照する。車線マークおよび陰影などの強力な特徴に付勢を常に与えるはずである特徴点を見出そうとするのではなく、点の固定格子84を使用してトラッキングする(ステップ507)。点の格子84は、15メートル前方に1車線幅で概ねマッピングする、台形領域80から選択される(ステップ503)。点84は、水平方向に20画素毎に、垂直方向に10画素毎に離間される。別法として、特定の分布に従って、点を無作為に選択する。
画像15aの各点を中心に、表示が配置される(ステップ505)。この場合、表示は、17x17の画素四方をもたらす点を中心にした各方向に8画素ある。次いで、標準化された相関関係を、歪められた画像15wに対して計算する(たとえば、Matlab(商標)関数normxcoor2)。ただし、表示の中心は、検索領域内でシフトされる。実際の使用では、ヨーセンサはあるがピッチセンサはなくてもよいので、より厳密な検索領域がy方向よりむしろx方向に使用される。x方向に(2x4+1)画素の検索領域が使用されてもよく、y方向に(2x10+1)画素の検索領域が使用されてもよい。
最高相関スコアを与えるシフトが発見され、サブ画素解像度0.1画素の最良のスコア位置を中心に絞込み検索が続いた。この絞込みステップは、最高スコアを中心とする整数スコアを放物面または薄板に適合させようとし、サブ画素の一致を計算するために最高スコアを中心とするこれらの整数スコアを使用する、優れた結果を与えた。また、サブ画素解像度0.1画素の絞込み検索は、差の二乗和を最小にするルーカスカナデ法より良好な結果も与えた。
無効なトラッキングは、トラッキングステップ507の結果としてトラッキングされた点509を残す閾値(たとえば、T=0.7)を超えるスコアの点を選択することにより、検索段階で除去されてもよく、歪められた画像15wから画像15aへの逆トラッキングは、反対方向に同様の値を与える。逆トラッキングは、左右の検証とステレオ方式に同様である。
次に、本発明の特徴による、歪められた画像フレーム15wにおける台形領域80の詳細82を示す、図8bも参照する。三角形および円形の点84は、開始場所にある。菱形の点は、対応するトラッキング場所にある。内座層は円形で示され、外座層は三角形で示される。
堅固な適合
トラッキングステップ507の結果としてのトラッキングされた点509は、無作為標本抽出(RANSAC)を使用してホモグラフィに適合される(ステップ511)。点の数(たとえば、4)は、無作為に選択され、ホモグラフィを計算するために使用される。次いで、点509は、ホモグラフィを使用して変形され、閾値により接近した点の数が数えられる。無作為に4点を選択すること、および閾値により接近した点の数を数えることは、多くの回数繰り返され、最高数を与えた4点が保持される。
工程の最後に、最良の4点を使用して点を再度変形し(ステップ513)、(恐らく異なる)閾値より接近したすべての点(内座層)は、最小二乗を使用してホモグラフィを計算するために使用される。(恐らく異なる)閾値より接近していない残りの点は、外座層とみなされる。
工程のこの点において、内座層の数および歪められた画像15wにおけるそれらの拡散は、道路平面モデルの発見に成功したことを示す。通例、100を超える内座層および良好な適合を得る。図8bは、円形としての内座層および三角形としての外座層を示す。次いで、ホモグラフィを使用して、最初の位置合わせ歪み(ステップ501)を修正できる。最初の位置合わせ歪みの修正は、修正を最初の歪みに統合することによってなされる(ステップ501)、または2つの歪みを連続してなすことができる。前者は、1つの挿入ステップのみを必要とするので有利であり、2つのホモグラフィ行列の行列乗算により、恣意的に実行できる。
次に、本発明の特徴による、画像15aに向かって歪められた画像15wの精密な歪みの結果を示す、図9aを参照する。図9aにおいて、道路上の特徴は、ほとんど完全に位置合わせされる。しかし、依然として構成されない一部の明度差が存在する。
次に、本発明の特徴による、画像15aに向かって歪められた画像15wと画像15aとの差を示す、図9bを参照する。
高密度のトラックおよび残差流
歪められた画像15wを与えるために、画像15aに向かって画像15bを歪めた後、精密な歪みを使用して(ステップ513)、点のトラッキング(ステップ507)は、より精密な格子(たとえば、5番目の行毎に5番目の画素)を使用し、道路のより広い領域を跨いで繰り返されてもよい。道路平面は非常に良好に位置合わせされるので、より小さい領域は、各方向に2画素などを超えて、再度サブ画素検索で検索されてもよい。
次に、本発明の特徴による、点の高密度格子のトラッキング結果を示す、図10aを参照する。図10aは、車両を伴う領域124および車両上の陰影104を含む。また、領域120および122は、それぞれマンホールの蓋100および歩道102を含む。図10b、10cおよび10dは、それぞれ領域124、120および122のより詳細を示す。
結果は、Matlab(商標)の振動描画として図10a〜10dに示されている。Matlab(商標)の振動描画は、点(x,y)における成分(u,v)の矢印として、速度ベクトルを表す。たとえば、第1のベクトルは、成分u(1),v(1)によって定義され、点x(1),y(1)で表される。振動(x,y,u,v)は、xおよびyのそれぞれの対応する対の要素に指定された、座標における矢印としてベクトルを描画する。道路上の点は、ゼロに近い流れを示すべきである。道路平面の上の特徴の点は、ゼロより大きい流れを有することになり、道路平面より下の点は、ゼロより下の残差流を有することになる。正の流れは、拡大焦点(FOE)から離れる(概して言えば下に外方に)流れとして定義される。図10dに示されたような高くなった歩道102、および図10cに示されたような沈んだマンホールの蓋100は、はっきりと表れることに留意されたい。また、道路に固定されていない物体も、車両または車両上の陰影104として著しい残差流を示す。0.5画素を超える流れの点は、高くなった歩道102内に示され、−0.5画素より下の流れの点は、沈んだマンホールの蓋100の上、車両上および車両上の陰影104に示される。
したがって、歩道は、細長い線により低い残差流の領域から分離される比較的同質の正の残差流の領域を検出することによって検出されることが可能である。これらの線は、FOEの方向、または道路の方向(すなわち、車線マークの消失点の方向)に概ね進む。
ノイズに対する著しい堅牢性は、近隣点からの情報を組み合わせることによって(すなわち、ある種の平滑な制約に適応して)、変化する手法でグローバルコスト関数を使用することによって、または動的プログラミングを使用することによって、達成されることが可能である。
変化する手法
まず初めに、ホーン・アンド・シュンクのオプティカルフロー計算法は、画像15aと歪められた画像15bとの間に適用されてもよい。(Horn, B.K.PおよびB.G. Shunck、「Determining Optical Flow」、Artificial Intelligence、Vol.17、No.1〜3、1981年8月、pp.185〜203)画像は良好に位置合わせされるので、アルゴリズムは非常に良好に収束することができる。HornおよびShunckは、データおよび誤差項の両方に対して二次誤差関数を使用する。より良好な結果は、L1誤差項を使用して得ることができる。Ce Liuのオプティカルフロー・コード(C. Liu。Beyond pixels: exploring new representations and applicatons for motion analysis。Doctoral Thesis。Massachusetts Institute of Technology。2009年5月。Appendix A143〜148ページ)は、非常に良好に作用する。コードは、Broxらの研究に基づいてCe Liuによるものである。(T. Brox、A. Bruhn、N. Papenberg、およびJ. Weickert。High accuracy optical flow estimation based on a theory for warping。In European Conference on Computer Vision(ECCV)、25〜36ページ、2004年。)
しかし、Ce Liuのコードに一部の変更がなされた。変化する手法を使用する際、計算が、以下の2つの理由のために、ピラミッドの1レベル(ネストまたは元のレベル)のみが制限される。
1.道路上の組織は非常に細かいことが多く、組織は最も高い解像度の画像のみで見られ、ピラミッドの上のレベルにはない。通常、道路上に粗い組織は存在しないので、粗い組織から細かい組織に作用しない。
2.解は、著しく粗い尺度の明度特性に向かって引かれるべきではない。そうでない場合は、解は、良好に位置合わせされた開始点から引き離され、決して回復しない。
さらなる項が、平面モデルから遠く外れるために不利になる(すなわち、1画素を超える、または他のいくらかの閾値の流れに対して)、コスト関数に加えられてもよい。以下の関数
Figure 0006896044
は、良好に働く。式中、uおよびvは、xおよびyにおけるそれぞれの値であり、aはコスト項の形状を決定する。a=4は良好に働く。λはデータ項および平滑項と比較して、このコスト項に重きをおく。
画像間の明度変化の効果を低減するために、帯域または高域のフィルタリングを実施してもよい。たとえば、以下の通りである。
f=ones(5);
f=f/sum(f(:));
f=conv2(f,f);
f=conv2(f,f);
f=conv2(f,f);
im1f=conv2(im1,f’,same’);
im2f=conv2(im2,f’,same’);
im1=im1−im1f;
im2=im2−im2f;
オプティカルフローの計算は、通常道路によって占められる画像の部分のみに適用されてよい。たとえば、水平線から下のみに開始することにより、100列が左右に除去され、画像15aの底部も歪められた画像15w内に現れない(また、歪められた画像内にゼロである。図9aを参照されたい)。
Matlab(商標)においてコードは以下の通りである。
im1=im1(200:400,100:540)
im2=im2(200:400,100:540)
次に、本発明の特徴による、Matlab(商標)のコードを超えるオプティカルフロールーチンに流れ込む、2つのフィルタリングされ、切断された画像を示す、図11を参照する。オプティカルフロールーチンへの入力として使用される、フィルタリングされ、切り取られた2つの画像は、高域のフィルタリングによって高められた道路の組織を有する。
次に、本発明の特徴による、グレースケール画像として、残差のオプティカルフローのy成分を示す、図12を参照する。暗部表示は、水平軸および垂直軸のそれぞれの上の(300,400)に集中したことに留意されたい。暗部表示は、道路内に沈む、マンホールの蓋100上の負の残差流に起因する。実線は、ホスト車両車輪の正面に0.5m幅のトラックを示す。点線は、実線の各対の間のデータの行平均である。データは、データの形状を可視にするために30により計測される。マンホールの蓋100に起因する右の点線の赤い線において著しい窪みに留意されたい。
次に、本発明の特徴による、元の画像15aの上にある図12に示されたものと同じデータを示す、図13を参照する。実線は、ホスト車両の車輪の正面に0.5m幅のトラックを示す。点線は、実線の各対の間のデータの行平均である。
次に、本発明の特徴による、y方向の平面の動き流れに対する、画像のy座標のグラフを示す、図14を参照する。図12および13に示された同じ情報は、メートル値に変換できる。まず、回転歪み、最初の歪みおよび精密な歪みは、単一の歪みに組み合わせられたとみなされる。次に、単一の歪みで、道路上の点を画像15aから画像15bに正確にマッピングする有効な機能が存在する。図14は、平面モデルによるy方向に予期される流れを示す。流れは、y軸が歪められた画像15wのy軸に位置合わせするように、x軸上に描画された。
最小流れのy座標は、画像15aの画像空間のy、換言すると画像15a内の道路の水平または消失点に対応する。図14の場合、画像の座標y=200である。最小のx座標は、画像15aと歪められた画像15wとの間のyに対する値の変化である。画像15aと歪められた画像15wとの間のyに対する値の変化は、有効な実際のピッチの画素単位の値である。図14に示された場合では、実際のピッチの値は10画素である。
を所与として、行座標を道路平面上の距離に変換するのは容易である。
Figure 0006896044
前進運動のみに起因する道路平面の流れ(すなわち、ピッチに対する補償後)は、組み合わせられた歪み値からピッチを引くことによって得られる。vを道路平面に対する流れとし、δvを残差流とする。次いで、道路δHからの点の高さは、以下によって得られる。
Figure 0006896044
次に、本発明の特徴による、カメラ12からのメートル単位の距離に対する、道路プロファイルのメートル単位のグラフを示す、図15を参照する。図15は、メートル単位の距離および高さの図12の右側トラックの道路プロファイルを示す。
動的プログラミング
動的プログラミングの使用において、(図13に示されたような)0.5m幅で、車両18の車輪の1つの正面に20m延びるトラックなどの、狭いトラックに対して、路面は道路Z上の距離の一次関数としてモデル化することができると考えられる。
ストリップにおける各点に対して、標準化された相互関係は、サブ画素の精度に点の周囲の小さい検索領域内で計算されてもよい。小さい検索領域内で計算された標準化された相互関係は、上に記載された精密な解像度の格子と同様である。しかし、前のように各点に対して最高の相互関係を選ぶのではなく、行に沿って平均の相互スコアをそれぞれの可能性のある残差流に対して計算し、外座層を除去するために平均した堅固性が使用されてもよい。
次に、yの関数として関数δvまたはZの関数としてδHを見出され、これは合計相関スコアおよび一部の平滑スコアを最大にする。また、平面モデルから偏差のために不利益となる項を追加することも可能である。
この種の一次元最適化問題により、それ自体が動的プログラミングをもたらす。第1の行に対して、各残差流に対するスコアは、所与の範囲内(たとえば、2画素)で計算される。次いで、各行n+1に対して、行n+1に沿って平均相関スコアに関連するスコアが計算される。また、行Nにおける累積スコア、およびこの残差流と行nにおける残差流との間の平滑スコアを考慮する最良のスコアである、各残差流に対するスコアが計算される。
より明確にするために、NxM表を提示する。ただし、Nはトラックにおける画像の行数(たとえば、250から400の間の150行)であり、Mは残差流の検索空間である。たとえば、第21値は[−1:0.1:1]である。N行の1番目は、単に、範囲[−1:0.1:1]内の各残差流に対する、各残差流SNC(1,i)で得られる平均相関スコアである。
Figure 0006896044
一般的な行n(ただし、n=2〜Nである)に対して、表項目T(n,j)の値は、残余動きj(SNC(n,j)に対する行nの平均相関スコアと、T(n−1,i)と平滑スコアSsm(i,j)の組合せを最大にするスコアとの組合せである。
Figure 0006896044
式中、ΨおよびΦはスコアを組み合わせる関数である。単関数は加算が可能である。表が満たされた後、最短経路を得るために逆トラッキングを実行し、最短経路は表面を説明する。
単一フレームシステムへの更新
計算方向
以前の型では、最近のフレームが以前のフレームに向かって歪められ、道路プロファイルが、以前のフレームの座標系において計算された。最近の型はこれを逆転し、以前の画像を最新の画像に向かって歪め、道路プロファイルは、この最新の座標フレームにおいて計算される。計算は同じであるが、以下の利点を有する。
1.以前の画像を最新の画像に向かって歪めることは、適用に対して最適な座標フレームをもたらす。
2.前方に運転する際(通常の状況)、最新画像に現れるすべての道路は、以前の画像内で見られてきた。たとえば、図7bの例に表すように、「黒い」領域は存在しない。
3.これによりマルチフレームの概念の実行がより容易になる。
フレームの選択
現在のフレームは、フレーム2として選択され、次いで、車両の動きが一定値(たとえば、1m)を超える場合に、以前のフレームの中で最新のものを見出すために、フレームを通して逆検索がなされる。一定値を超える車両の動きは、車両速度およびフレームの時刻印に基づく。このフレームはフレーム1と表される。
最初の動き歪み
最初の動き歪みに対するパラメータは、慣性センサから、もしくは画像自体から、またはその2つの混合から決定することができる。たとえば、通常の現代の車両では、速度もヨーレートを利用可能である。ピッチレートは利用可能ではない場合があり、画像から見積られる。
ホモグラフィ行列を使用して歪みを実施することは、より便利である。そのように歪みを単一の歪みに一緒に組み合わせることができる。
最初の動き歪みの段階で、近似値は、シフトし、回転を無視してヨーおよびピッチの歪みを実行するなどで使用することができる。後の位置合わせ段階は、あらゆるアフィンおよび射影運動を修正する。
画像間のヨー回転は、画素に変換されたヨー角シータに基づく。次いで、ホモグラフィ行列が、画像をシフトするために構築される。
dTheta=dtyawRate;
dThetaPix=fdThetapi/180;
dx=round(dThetaPix);
Hdx=eye(3);
Hdx(1,3)=dx;
画像間のピッチは、水平線上に集中した大きい表示をトラッキングすることにより、画像から決定される(高解像度1280x960画素の画像に対して、表示は幅400画素および高さ200画素である)。表示は、水平方向に±80画素を超えてトラッキングされ、最良の整合は、ピッチ値として使用される。領域をサブ表示にぴたりと付けることができる別法として、各経路をトラッキングし、中央値を使用する。次いで、ホモグラフィ行列は、画像をシフトするために以下のように構築される。
%はピッチを見出し、ピッチに基づいてX軸(シフトとしての概算)を中心に回転する
dy=findMotionY(12,11,y0)
Hdy=eye(3);
Hdy(2,3)=dy;
車両速度、焦点距離およびカメラの高さを使用して、予測される道路の動きを計算する。予測される道路の動きもホモグラフィである。
Hs1=eye(3);
Hs1(1,3)=−x0;
Hx1(2,3)=−y0;
S=dZ/(fH);
Hs2=eye(3);
Hs2(3,2)=S;
Hs3=eye(3);
Hs3(1,3)=x0;
Hs3(2,3)=y0;
Hw=Hs3Hs2Hs1;
次いで、3つのホモグラフィが、完全な変形を形成するために一緒に乗算される。
Hall=HwHdyHdx;
I1hw=homoWarp1(I1orig,Hall);
I1w=I1hw;
点のトラッキングおよび堅固な適合
RANSACの結果は、最初の歪みHallに訂正ホモグラフィH2fixedである。訂正ホモグラフィH2fixedおよび最初の歪みHallは、以前の画像1から現在の画像2に道路平面の正確なホモグラフィを与えるために一緒に乗算することができる。
H2final=HallH2fixed
正確なホモグラフィ行列を表したA’は、カメラ12の動きからなる。
Figure 0006896044
および水平な平面
Figure 0006896044
カメラと平面の距離d’πおよびカメラの行列KおよびK’
Figure 0006896044
「’」は、第2の画像の座標系における項を表すために使用される。カメラの行列KおよびK’は同じであり公知であるので、ホモグラフィ行列A’はその成分に分解されることが可能である。
Figure 0006896044
高密度のトラッキングおよび残差流
高密度の流れを全画像を通して計算する代わりに、車両の表示がヨーレートおよびステアリング角に基づいて予測され、カメラに対する左右の車輪の位置が与えられる。各車輪に対して、たとえば幅0.5mの表示は、平面のパラメータを使用して画像に投影される。この表示に沿って5番目の画像毎に、表示幅が0.05m毎を表す11の格子点に分けられる。
0.05m毎を表す11の格子点に分けられた表示幅は、(各車輪の)表示に沿って良好に画定された格子点の組を与える。トラッキングは、各格子点を中心に集中した17x17または9x9画素の表示サイズに対して、画像2と歪められた画像1との間で実行される。xおよびyの両方において±8画素の検索領域が使用され、y方向のサブ画素解像度の検索を含む。x方向のサブ画素解像度の検索も実行できるが、試験は改善された性能を示さず、x方向のサブ画素解像度の検索は計算時間を増加させた。最適化として、各画素に対する検索領域は画像内の各画素位置および拡大焦点(FOE)の位置に基づいて最適化されるのは、流れがFOEを通過する線上のみに予期されるからである。
代替の最適化は、FOEが無限にマッピングされるように、画像を修正することになり、視座は頭上の視点にマッピングされ、流れは垂直になる。代替の最適化は、2つのカメラのステレオ方式での修正に非常に類似している。しかし、画像上の変形が道路に沿った異なった距離に対して全く異なると考えると、画像内の水平のストリップに対して個別に修正を実行することは有利であろう。各ストリップに対して、幅が著しく変化しない場合は、1行が存在する。その1行より上の行は延び、下の行は縮む。たとえば、5m〜20mの道路領域に対して、7mを中心に5m〜10mの1つのストリップを歪めることができる。第2のストリップは、11mを中心に8m〜16mであることが可能であり、第3のストリップは、17mを中心に14m〜22mあることが可能である。
ストリップは、画像の全幅を延ばさないが、表示サイズを可能にする余白を伴って車輪のトラックを網羅するのに十分な幅のみを延ばす。
各点に対して、有効ビットは、前向き後向きの検証、最小相関値ならびにxおよびyの流れ値を可能にする閾値に基づいて設定される。各行に対して、行に沿った11点のうちの有効点の中間値は、該行に対する値として取られる。行に沿った有効点の数は、信頼値である。有効点がない行に対して、残差流値は、上下の近隣の有効点から挿入される。
さらに平滑にするステップが使用できる。たとえば、幅3の中間フィルタに続いて、幅3のフィルタを平均することを使用することができる。これにより残差流が得られる。
Figure 0006896044
残差流は以下のようにわかる。
Figure 0006896044
式中、Hは基準フレームからの最高点である。経路に沿った各点に対する残差流を考えると、方程式によりHを求めることができる。
画素およびサブ画素の解像度において精密なトラッキングを実行することは便利であるが、平面の上下の高さの観点から検索領域を画定することも可能である。たとえば、−2画素から2画素までをサブ画素の解像度0.1画素の精度で検索する代わりに、−0.2m〜0.2mの高さをー0.01mの増加で検索することが可能である。−0.2m〜0.2mの高さのー0.01mの増加での検索は、高さを画素シフトに変換し、標準化した相互相関を実行することが必要である。検索は、より高額であるが、最初のコスト関数において、メートルの平滑制限を課すことが可能になる。
また、検索により3つ以上の動きからの情報を組み合わせる方法も可能になる。一連の3つのフレーム1、2および3を検討する。
1.フレーム1および3をフレーム2に向かって歪める。
2.点をトラッキングし、1から2へ、また3から2へ良好にトラッキングされた有効点を保持する。
3.RANSACを実行し、画像2から4点を選択し、画像1および3からホモグラフィを計算する。しかし、内座層の計算は、1から2および3から2へのマッピングからの最小内座層である。
4.1から2および3から2への最終ホモグラフィを計算し、画像を歪める。
5.車輪トラックに沿った点に対して、基準平面から最良最高値の検索を実行する。各最高値に対して、2から1および2から3への残差画素を個別に計算し、標準化した相関スコアを個別に計算し、平均(または最小化もしくは最大化)する。別法として、組み合せられた標準化した相関スコアを計算することも可能である。
6.最良スコアを選択する。
マルチフレーム分析
システムは、形状の特徴および10mより数センチメートル超える高さである隆起を検出できる。当然、システムにはいくらかのノイズも存在し、疑似隆起が検出される。しかし、実際の形状の特徴は、車両の動きと一致して動く一方で、ノイズに起因する疑似形状の特徴は、無作為に現れるか、または疑似形状の特徴が人為的な撮像に起因する場合は、画像内で移動しない場合がある。物体の移動に起因する形状の特徴も、車両と一致して動かない。
したがって、情報を経時的に蓄積することが有益である。一方法は、平面情報および道路プロファイル情報を使用して3D(X,Y,Z)座標内に道路プロファイルを生成し、次いで車両のエゴモーションを使用して、フレームからフレームにモデルを変形する。カルマンフィルタを使用することが可能である。
別の方法は、ホモグラフィ自体を使用して、情報を経時的にフレームからフレームに運ぶ。情報を経時的にフレームからフレームに運ぶために、ホモグラフィ自体を使用することは、道路プロファイルが路面上に画定されたことを巧みに生かしており、形状の特徴に起因する実際の偏差は1または2画素であり、表面領域または表示の大きさよりはるかに小さいと考えられる。基本マルチフレームのアルゴリズムは、以下の通りである。
1.フレームn−mを計算したマルチフレームの道路プロファイルを仮定する。式中、mは1と等しいことが多いが、各フレームに対するプロファイルの計算が必要ない場合は、それより大きいことがある。
2.フレームnおよびフレームn−kを使用して、フレームnに対する単一フレームの道路プロファイルを計算する。式中、kはmと等しくないことがある。通常、kは車両の動きが1mなどの一定値を超えるように選択される。
3.マルチフレームのプロファイルおよび単一平面のプロファイルは、異なる基準平面を使用する。異なる基準平面は、重複する著しい領域と同じ道路によって決定されるので、非常に類似していることが多いが、減速バンプを通過する際に非常に類似した基準フレームの仮定が崩れる。したがって、減速バンプの通過を以下によって補うことが重要である。
(a)πをマルチフレーム・モデルの基準平面とし、πを単一のフレームモデルの基準平面とする。
(b)車両経路(x,y)に沿った各点に対して、平面π上の対応する(X,Y,Z)点を計算する。次に、点(X,Y,Z)から平面πまでの距離を計算する。
(c)点(X,Y,Z)から平面πまでの距離を、経路に沿った該点に対する道路プロファイルに加算する。
4.フレームnとフレームn−mとの間の道路のホモグラフィ行列(Hnm)を計算する(m=kの場合は、結果を再利用できる)。
5.Hnmの逆数を使用して、経路座標(x1,y1)をフレームn−mからフレームnに変形する。これによりフレームnの座標(x1,y1)内のフレームn−mから経路が得られる。
Figure 0006896044
6.マルチフレームの道路プロファイルの値(ProfL)および信頼値(VS)をフレームnの経路の座標(x2,y2)に挿入する。
Figure 0006896044
上のコードでは、経路内での小さい水平方向の変化のみが考えられる。大きい水平方向の変化が予期される場合は、マルチフレームの信頼値から点(i)で差(x1h(i)−x2(i))の関数を減ずることが可能である。
7.新しいマルチフレームのプロファイルは、歪められたマルチフレームのプロファイルと現在の単一フレームのプロファイルとの間の加重平均である。
Figure 0006896044
加重することは、信頼スコアおよび時間係数(a)に基づく。ただし、このMatlabコードに留意されたい。ProfL_1、VS、ProfL、VS_1InterpおよびProfL_1Interpは、すべてベクトルであり、加重平均はベクトルProfL_1に沿った各要素に対して実行される。
8.マルチフレームの信頼値も計算される。
Figure 0006896044
ただし、定義されたように、単一フレームの信頼値(VS)は、ゼロ〜11(0.05m毎に抽出された幅0.5mの経路と仮定する)の数のベクトルであることに留意されたい。最大関数は、マルチフレームの信頼値がベクトルにおける各点に対してゼロでないことを確保する。
本発明の実施形態は、運転者支援アプリケーションの概念において提供されているが、本発明の実施形態は、例として、通信、機械視覚、音声および/もしくは発話処理などの、他のリアルタイムの信号処理アプリケーションならびに/またはデジタル処理アプリケーションで等しく適用可能であってもよい。
不定冠詞「a」、「an」は、「an image」(1つの画像)が「one or more」(1つまたは複数)の意味を有する、すなわち「one or more images」(1つまたは複数の画像)であるように、本明細書で使用される。
本発明の選択された特徴が示され、説明されたが、本発明は、説明された特徴に限定されないことを理解されるべきである。その代わりに、本発明の原理および精神、特許請求の範囲およびその等価物によって定義されたその範囲から逸脱することなく、これらの特徴がなされ得ることを理解されるべきである。

Claims (22)

  1. 歩道を検出するためのシステムであって、前記システムは少なくとも一つのプロセッサを含み、前記プロセッサは、
    第1の画像および第2の画像に基づいて、前記第1の画像内の道路平面上の複数の点のそれぞれの高さを見積ることであって、ここで前記第1の画像と前記第2の画像はカメラによって捕捉され、前記第1の画像と前記第2の画像は道路および歩道を有する環境を含む、前記第1の画像内の道路平面上の複数の点のそれぞれの高さを見積ることと、
    前記複数の点のそれぞれの高さに基づいて、道路平面に対して高くなった平面を特定することと、
    前記高くなった平面に基づいて歩道を検出することと
    を実行するようにプログラムされており、
    前記プロセッサは、前記第1の画像および前記第2の画像に基づいてオプティカルフローを見積り、正の残差流の領域を検出するようにさらにプログラムされており、前記正の残差流の領域は、1つ以上の細長い線によって低い残差流の領域から分離されている、
    歩道を検出するためのシステム。
  2. 歩道を検出するためのシステムであって、前記システムは少なくとも一つのプロセッサを含み、前記プロセッサは、
    第1の画像および第2の画像に基づいて、前記第1の画像内の道路平面上の複数の点のそれぞれの高さを見積ることであって、ここで前記第1の画像と前記第2の画像はカメラによって捕捉され、前記第1の画像と前記第2の画像は道路および歩道を有する環境を含む、前記第1の画像内の道路平面上の複数の点のそれぞれの高さを見積ることと、
    前記複数の点のそれぞれの高さに基づいて、道路平面に対して高くなった平面を特定することと、
    前記高くなった平面に基づいて歩道を検出することと
    を実行するようにプログラムされており、
    前記プロセッサは、前記第1の画像および前記第2の画像に基づいてオプティカルフローを見積るようにさらにプログラムされ、道路平面より上の特徴の像点は、ゼロより大きい流れを有し、道路平面より下の像点は、ゼロより下の残差流を有する、
    歩道を検出するためのシステム。
  3. 前記高くなった平面は、細長い線により前記道路平面から分離されている、請求項1又は2に記載のシステム。
  4. 前記高くなった平面は、前記道路平面に沿って延びる細長い構造である、請求項1又は2に記載のシステム。
  5. 前記高くなった平面は、前記道路上の複数の車線マークの方向に沿って延びる細長い構造である、請求項1又は2に記載のシステム。
  6. 前記プロセッサは、前記複数の点のうちの隣接する点からの情報を結合することにより、前記高くなった平面を特定するようにさらにプログラムされている、請求項1又は2に記載のシステム。
  7. 前記プロセッサは、前記複数の点のうちの少なくともいくつかに平滑な制約を適用するようにさらにプログラムされている、請求項に記載のシステム。
  8. 前記歩道上の像点は0.5画素を超える流れを有する、請求項1又は2に記載のシステム。
  9. 前記1つ以上の細長い線は、ほぼオプティカルフローの拡大焦点または道路の方向にある、請求項に記載のシステム。
  10. 前記道路上の像点は、ゼロに近い流れを有する、請求項1又は2に記載のシステム。
  11. 前記第1の画像および前記第2の画像は、前記カメラによって連続的に捕捉される、請求項1又は2に記載のシステム。
  12. 歩道を検出するための方法であって、前記方法は、
    カメラによって捕捉された第1の画像にアクセスすることであって、前記第1の画像は道路および歩道を有する環境を含む、カメラによって捕捉された第1の画像にアクセスすることと、
    カメラによって捕捉された第2の画像にアクセスすることであって、前記第2の画像は道路および歩道を有する環境を含む、カメラによって捕捉された第2の画像にアクセスすることと、
    前記第1の画像の複数の点において、前記第1の画像および前記第2の画像に基づいて、道路平面上の前記複数の点のそれぞれの高さを見積ることと、
    前記複数の点のそれぞれの高さに基づいて、道路平面に対して高くなった平面を特定することと、
    前記高くなった平面に基づいて歩道を検出することと
    を含み、
    前記第1の画像および前記第2の画像に基づいてオプティカルフローを見積り、正の残差流の領域を検出することをさらに含み、前記正の残差流の領域は、1つ以上の細長い線によって低い残差流の領域から分離されている、
    方法。
  13. 歩道を検出するための方法であって、前記方法は、
    カメラによって捕捉された第1の画像にアクセスすることであって、前記第1の画像は道路および歩道を有する環境を含む、カメラによって捕捉された第1の画像にアクセスすることと、
    カメラによって捕捉された第2の画像にアクセスすることであって、前記第2の画像は道路および歩道を有する環境を含む、カメラによって捕捉された第2の画像にアクセスすることと、
    前記第1の画像の複数の点において、前記第1の画像および前記第2の画像に基づいて、道路平面上の前記複数の点のそれぞれの高さを見積ることと、
    前記複数の点のそれぞれの高さに基づいて、道路平面に対して高くなった平面を特定することと、
    前記高くなった平面に基づいて歩道を検出することと
    を含み、
    前記第1の画像および前記第2の画像に基づいてオプティカルフローを見積ることをさらに含み、道路平面より上の特徴の像点は、ゼロより大きい流れを有し、道路平面より下の像点は、ゼロより下の残差流を有する、
    方法。
  14. 前記高くなった平面は、細長い線により前記道路平面から分離されている、請求項12又は13に記載の方法。
  15. 前記高くなった平面は、前記道路平面に沿って延びる細長い構造である、請求項12又は13に記載の方法。
  16. 前記高くなった平面は、前記道路上の複数の車線マークの方向に沿って延びる細長い構造である、請求項12又は13に記載の方法。
  17. 前記複数の点のうちの隣接する点からの情報を結合することにより、前記高くなった平面を特定することをさらに含む、請求項12又は13に記載の方法。
  18. 前記複数の点のうちの少なくともいくつかに平滑な制約を適用することをさらに含む、請求項17に記載の方法。
  19. 前記歩道上の像点は0.5画素を超える流れを有する、請求項12又は13に記載の方法。
  20. 前記1つ以上の細長い線は、ほぼオプティカルフローの拡大焦点または道路の方向にある、請求項12に記載の方法。
  21. 前記道路上の像点は、ゼロに近い流れを有する、請求項12又は13に記載の方法。
  22. 前記第1の画像および前記第2の画像は、前記カメラによって連続的に捕捉される、請求項12又は13に記載の方法。
JP2019197801A 2011-12-06 2019-10-30 道路の垂直輪郭検出 Active JP6896044B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201161567132P 2011-12-06 2011-12-06
US61/567,132 2011-12-06
US201261727722P 2012-11-18 2012-11-18
US61/727,722 2012-11-18
US201261727755P 2012-11-19 2012-11-19
US61/727,755 2012-11-19
JP2017175381A JP6612297B2 (ja) 2011-12-06 2017-09-13 道路の垂直輪郭検出

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017175381A Division JP6612297B2 (ja) 2011-12-06 2017-09-13 道路の垂直輪郭検出

Publications (2)

Publication Number Publication Date
JP2020042831A JP2020042831A (ja) 2020-03-19
JP6896044B2 true JP6896044B2 (ja) 2021-06-30

Family

ID=47563001

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2012266408A Active JP6211263B2 (ja) 2011-12-06 2012-12-05 道路の垂直輪郭検出
JP2017175381A Active JP6612297B2 (ja) 2011-12-06 2017-09-13 道路の垂直輪郭検出
JP2019197801A Active JP6896044B2 (ja) 2011-12-06 2019-10-30 道路の垂直輪郭検出

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2012266408A Active JP6211263B2 (ja) 2011-12-06 2012-12-05 道路の垂直輪郭検出
JP2017175381A Active JP6612297B2 (ja) 2011-12-06 2017-09-13 道路の垂直輪郭検出

Country Status (3)

Country Link
US (6) US9118816B2 (ja)
EP (2) EP2602741A3 (ja)
JP (3) JP6211263B2 (ja)

Families Citing this family (156)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
US7697027B2 (en) 2001-07-31 2010-04-13 Donnelly Corporation Vehicular video system
EP1504276B1 (en) 2002-05-03 2012-08-08 Donnelly Corporation Object detection system for vehicle
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
US7881496B2 (en) 2004-09-30 2011-02-01 Donnelly Corporation Vision system for vehicle
US7720580B2 (en) 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
US7972045B2 (en) 2006-08-11 2011-07-05 Donnelly Corporation Automatic headlamp control system
US8017898B2 (en) 2007-08-17 2011-09-13 Magna Electronics Inc. Vehicular imaging system in an automatic headlamp control system
US9959595B2 (en) 2010-09-21 2018-05-01 Mobileye Vision Technologies Ltd. Dense structure from motion
US9118816B2 (en) 2011-12-06 2015-08-25 Mobileye Vision Technologies Ltd. Road vertical contour detection
US9280711B2 (en) 2010-09-21 2016-03-08 Mobileye Vision Technologies Ltd. Barrier and guardrail detection using a single camera
WO2012075250A1 (en) 2010-12-01 2012-06-07 Magna Electronics Inc. System and method of establishing a multi-camera image using pixel remapping
WO2012145822A1 (en) 2011-04-25 2012-11-01 Magna International Inc. Method and system for dynamically calibrating vehicular cameras
WO2012145818A1 (en) 2011-04-25 2012-11-01 Magna International Inc. Method and system for dynamically calibrating vehicular cameras
WO2013016409A1 (en) 2011-07-26 2013-01-31 Magna Electronics Inc. Vision system for vehicle
WO2013019707A1 (en) 2011-08-01 2013-02-07 Magna Electronics Inc. Vehicle camera alignment system
US20140218535A1 (en) 2011-09-21 2014-08-07 Magna Electronics Inc. Vehicle vision system using image data transmission and power supply via a coaxial cable
WO2013074604A2 (en) 2011-11-15 2013-05-23 Magna Electronics, Inc. Calibration system and method for vehicular surround vision system
WO2013081985A1 (en) 2011-11-28 2013-06-06 Magna Electronics, Inc. Vision system for vehicle
WO2013086249A2 (en) 2011-12-09 2013-06-13 Magna Electronics, Inc. Vehicle vision system with customized display
CN103164851B (zh) * 2011-12-09 2016-04-20 株式会社理光 道路分割物检测方法和装置
US10493916B2 (en) 2012-02-22 2019-12-03 Magna Electronics Inc. Vehicle camera system with image manipulation
US10457209B2 (en) 2012-02-22 2019-10-29 Magna Electronics Inc. Vehicle vision system with multi-paned view
US9723272B2 (en) 2012-10-05 2017-08-01 Magna Electronics Inc. Multi-camera image stitching calibration system
JP6045889B2 (ja) * 2012-11-27 2016-12-14 クラリオン株式会社 車載用制御装置
WO2014111814A2 (en) * 2013-01-15 2014-07-24 Mobileye Technologies Limited Stereo assist with rolling shutters
US10179543B2 (en) 2013-02-27 2019-01-15 Magna Electronics Inc. Multi-camera dynamic top view vision system
US9688200B2 (en) 2013-03-04 2017-06-27 Magna Electronics Inc. Calibration system and method for multi-camera vision system
US9508014B2 (en) 2013-05-06 2016-11-29 Magna Electronics Inc. Vehicular multi-camera vision system
US9563951B2 (en) 2013-05-21 2017-02-07 Magna Electronics Inc. Vehicle vision system with targetless camera calibration
US9205776B2 (en) 2013-05-21 2015-12-08 Magna Electronics Inc. Vehicle vision system using kinematic model of vehicle motion
JP6484228B2 (ja) 2013-06-13 2019-03-13 モービルアイ ビジョン テクノロジーズ リミテッド 視覚強化ナビゲーション
US9554048B2 (en) * 2013-09-26 2017-01-24 Apple Inc. In-stream rolling shutter compensation
DE102013018926B4 (de) * 2013-11-13 2021-06-02 Audi Ag Verfahren und System zum Ermitteln eines Werts für eine Höhe
US9747507B2 (en) * 2013-12-19 2017-08-29 Texas Instruments Incorporated Ground plane detection
EP3100206B1 (en) 2014-01-30 2020-09-09 Mobileye Vision Technologies Ltd. Systems and methods for lane end recognition
US9487235B2 (en) 2014-04-10 2016-11-08 Magna Electronics Inc. Vehicle control system with adaptive wheel angle correction
EP3143607A1 (en) * 2014-05-14 2017-03-22 Mobileye Vision Technologies Ltd. Systems and methods for curb detection and pedestrian hazard assessment
US9916660B2 (en) 2015-01-16 2018-03-13 Magna Electronics Inc. Vehicle vision system with calibration algorithm
KR102622571B1 (ko) * 2015-02-10 2024-01-09 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 약도
US10115024B2 (en) * 2015-02-26 2018-10-30 Mobileye Vision Technologies Ltd. Road vertical contour detection using a stabilized coordinate frame
US10275863B2 (en) 2015-04-03 2019-04-30 Cognex Corporation Homography rectification
US9542732B2 (en) * 2015-04-03 2017-01-10 Cognex Corporation Efficient image transformation
US10946799B2 (en) 2015-04-21 2021-03-16 Magna Electronics Inc. Vehicle vision system with overlay calibration
US9902401B2 (en) * 2015-05-10 2018-02-27 Mobileye Vision Technologies Ltd. Road profile along a predicted path
US11228700B2 (en) 2015-10-07 2022-01-18 Magna Electronics Inc. Vehicle vision system camera with adaptive field of view
US10187590B2 (en) 2015-10-27 2019-01-22 Magna Electronics Inc. Multi-camera vehicle vision system with image gap fill
US10108864B2 (en) * 2015-12-29 2018-10-23 Texas Instruments Incorporated Stationary-vehicle structure from motion
CN105654060A (zh) * 2016-01-04 2016-06-08 中海网络科技股份有限公司 一种从道路监控视频获取车辆车速的方法
EP3403216B1 (en) * 2016-01-11 2023-11-01 Mobileye Vision Technologies Ltd. Systems and methods for augmenting upright object detection
US11277558B2 (en) 2016-02-01 2022-03-15 Magna Electronics Inc. Vehicle vision system with master-slave camera configuration
US11433809B2 (en) 2016-02-02 2022-09-06 Magna Electronics Inc. Vehicle vision system with smart camera video output
CN109154981B (zh) 2016-03-15 2022-04-05 无比视视觉技术有限公司 处理道路表面视觉数据的方法、系统及存储介质
JP2017220843A (ja) 2016-06-09 2017-12-14 ソニー株式会社 撮像制御装置および方法、並びに車両
US10300859B2 (en) 2016-06-10 2019-05-28 Magna Electronics Inc. Multi-sensor interior mirror device with image adjustment
KR20230017365A (ko) 2016-06-27 2023-02-03 모빌아이 비젼 테크놀로지스 엘티디. 검출된 주차 차량의 특징에 기반을 둔 호스트 차량의 제어
US10558222B2 (en) 2016-07-21 2020-02-11 Mobileye Vision Technologies Ltd. Navigating a vehicle using a crowdsourced sparse map
DE102016218852A1 (de) * 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion von Objekten aus Bildern einer Kamera
US10750119B2 (en) 2016-10-17 2020-08-18 Magna Electronics Inc. Vehicle camera LVDS repeater
US10452076B2 (en) 2017-01-04 2019-10-22 Magna Electronics Inc. Vehicle vision system with adjustable computation and data compression
US10380886B2 (en) 2017-05-17 2019-08-13 Cavh Llc Connected automated vehicle highway systems and methods
WO2018132378A2 (en) 2017-01-10 2018-07-19 Cavh Llc Connected automated vehicle highway systems and methods
JP6678605B2 (ja) * 2017-01-11 2020-04-08 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
WO2018132605A1 (en) * 2017-01-12 2018-07-19 Mobileye Vision Technologies Ltd. Determining a road surface characteristic
US10671873B2 (en) 2017-03-10 2020-06-02 Tusimple, Inc. System and method for vehicle wheel detection
US11587304B2 (en) 2017-03-10 2023-02-21 Tusimple, Inc. System and method for occluding contour detection
US10147193B2 (en) 2017-03-10 2018-12-04 TuSimple System and method for semantic segmentation using hybrid dilated convolution (HDC)
US9953236B1 (en) 2017-03-10 2018-04-24 TuSimple System and method for semantic segmentation using dense upsampling convolution (DUC)
US10311312B2 (en) 2017-08-31 2019-06-04 TuSimple System and method for vehicle occlusion detection
US10067509B1 (en) 2017-03-10 2018-09-04 TuSimple System and method for occluding contour detection
US10710592B2 (en) 2017-04-07 2020-07-14 Tusimple, Inc. System and method for path planning of autonomous vehicles based on gradient
US10471963B2 (en) 2017-04-07 2019-11-12 TuSimple System and method for transitioning between an autonomous and manual driving mode based on detection of a drivers capacity to control a vehicle
US9952594B1 (en) 2017-04-07 2018-04-24 TuSimple System and method for traffic data collection using unmanned aerial vehicles (UAVs)
US10552691B2 (en) 2017-04-25 2020-02-04 TuSimple System and method for vehicle position and velocity estimation based on camera and lidar data
US10692365B2 (en) 2017-06-20 2020-06-23 Cavh Llc Intelligent road infrastructure system (IRIS): systems and methods
US20220375336A1 (en) 2017-05-17 2022-11-24 Cavh Llc Autonomous Vehicle (AV) Control System with Roadside Unit (RSU) Network
US10558864B2 (en) 2017-05-18 2020-02-11 TuSimple System and method for image localization based on semantic segmentation
US10481044B2 (en) 2017-05-18 2019-11-19 TuSimple Perception simulation for improved autonomous vehicle control
US10474790B2 (en) 2017-06-02 2019-11-12 TuSimple Large scale distributed simulation for realistic multiple-agent interactive environments
US10762635B2 (en) 2017-06-14 2020-09-01 Tusimple, Inc. System and method for actively selecting and labeling images for semantic segmentation
US10493988B2 (en) 2017-07-01 2019-12-03 TuSimple System and method for adaptive cruise control for defensive driving
US10303522B2 (en) 2017-07-01 2019-05-28 TuSimple System and method for distributed graphics processing unit (GPU) computation
US10737695B2 (en) 2017-07-01 2020-08-11 Tusimple, Inc. System and method for adaptive cruise control for low speed following
US10752246B2 (en) 2017-07-01 2020-08-25 Tusimple, Inc. System and method for adaptive cruise control with proximate vehicle detection
US10308242B2 (en) 2017-07-01 2019-06-04 TuSimple System and method for using human driving patterns to detect and correct abnormal driving behaviors of autonomous vehicles
US11029693B2 (en) 2017-08-08 2021-06-08 Tusimple, Inc. Neural network based vehicle dynamics model
US10360257B2 (en) 2017-08-08 2019-07-23 TuSimple System and method for image annotation
US10816354B2 (en) 2017-08-22 2020-10-27 Tusimple, Inc. Verification module system and method for motion-based lane detection with multiple sensors
US10762673B2 (en) 2017-08-23 2020-09-01 Tusimple, Inc. 3D submap reconstruction system and method for centimeter precision localization using camera-based submap and LiDAR-based global map
US10565457B2 (en) 2017-08-23 2020-02-18 Tusimple, Inc. Feature matching and correspondence refinement and 3D submap position refinement system and method for centimeter precision localization using camera-based submap and LiDAR-based global map
US10303956B2 (en) 2017-08-23 2019-05-28 TuSimple System and method for using triplet loss for proposal free instance-wise semantic segmentation for lane detection
CN107632308B (zh) * 2017-08-24 2021-02-05 吉林大学 一种基于递归叠加算法的车辆前方障碍物轮廓检测方法
US10678234B2 (en) 2017-08-24 2020-06-09 Tusimple, Inc. System and method for autonomous vehicle control to minimize energy cost
US10783381B2 (en) 2017-08-31 2020-09-22 Tusimple, Inc. System and method for vehicle occlusion detection
US10656644B2 (en) 2017-09-07 2020-05-19 Tusimple, Inc. System and method for using human driving patterns to manage speed control for autonomous vehicles
US10953881B2 (en) 2017-09-07 2021-03-23 Tusimple, Inc. System and method for automated lane change control for autonomous vehicles
US10782693B2 (en) 2017-09-07 2020-09-22 Tusimple, Inc. Prediction-based system and method for trajectory planning of autonomous vehicles
US10649458B2 (en) 2017-09-07 2020-05-12 Tusimple, Inc. Data-driven prediction-based system and method for trajectory planning of autonomous vehicles
US10953880B2 (en) 2017-09-07 2021-03-23 Tusimple, Inc. System and method for automated lane change control for autonomous vehicles
US10782694B2 (en) 2017-09-07 2020-09-22 Tusimple, Inc. Prediction-based system and method for trajectory planning of autonomous vehicles
US10671083B2 (en) 2017-09-13 2020-06-02 Tusimple, Inc. Neural network architecture system for deep odometry assisted by static scene optical flow
US10552979B2 (en) 2017-09-13 2020-02-04 TuSimple Output of a neural network method for deep odometry assisted by static scene optical flow
US10733465B2 (en) 2017-09-20 2020-08-04 Tusimple, Inc. System and method for vehicle taillight state recognition
US10387736B2 (en) 2017-09-20 2019-08-20 TuSimple System and method for detecting taillight signals of a vehicle
US10768626B2 (en) 2017-09-30 2020-09-08 Tusimple, Inc. System and method for providing multiple agents for decision making, trajectory planning, and control for autonomous vehicles
US10970564B2 (en) 2017-09-30 2021-04-06 Tusimple, Inc. System and method for instance-level lane detection for autonomous vehicle control
US10962979B2 (en) 2017-09-30 2021-03-30 Tusimple, Inc. System and method for multitask processing for autonomous vehicle computation and control
US10410055B2 (en) 2017-10-05 2019-09-10 TuSimple System and method for aerial video traffic analysis
US10812589B2 (en) 2017-10-28 2020-10-20 Tusimple, Inc. Storage architecture for heterogeneous multimedia data
US10739775B2 (en) 2017-10-28 2020-08-11 Tusimple, Inc. System and method for real world autonomous vehicle trajectory simulation
US10666730B2 (en) 2017-10-28 2020-05-26 Tusimple, Inc. Storage architecture for heterogeneous multimedia data
US10528823B2 (en) 2017-11-27 2020-01-07 TuSimple System and method for large-scale lane marking detection using multimodal sensor data
US10657390B2 (en) 2017-11-27 2020-05-19 Tusimple, Inc. System and method for large-scale lane marking detection using multimodal sensor data
US10528851B2 (en) 2017-11-27 2020-01-07 TuSimple System and method for drivable road surface representation generation using multimodal sensor data
US10860018B2 (en) 2017-11-30 2020-12-08 Tusimple, Inc. System and method for generating simulated vehicles with configured behaviors for analyzing autonomous vehicle motion planners
US10877476B2 (en) 2017-11-30 2020-12-29 Tusimple, Inc. Autonomous vehicle simulation system for analyzing motion planners
DE102017222017A1 (de) * 2017-12-06 2019-06-06 Robert Bosch Gmbh Verfahren und System zum Ermitteln und Bereitstellen eines Bodenprofils
US10866307B2 (en) * 2017-12-29 2020-12-15 Automotive Research & Testing Center Method for analyzing error and existence probability of multi-sensor fusion of obstacle detection
EP3737595B1 (en) 2018-01-09 2023-12-27 TuSimple, Inc. Real-time remote control of vehicles with high redundancy
CN115834617A (zh) 2018-01-11 2023-03-21 图森有限公司 用于自主车辆操作的监视系统
JP7058022B2 (ja) 2018-02-06 2022-04-21 シーエーブイエイチ エルエルシー インテリジェント道路インフラストラクチャシステム(iris):システム及び方法
US11009356B2 (en) 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization and fusion
US11009365B2 (en) 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization
US10685244B2 (en) 2018-02-27 2020-06-16 Tusimple, Inc. System and method for online real-time multi-object tracking
DE112019001078T5 (de) * 2018-03-01 2021-03-18 Jaguar Land Rover Limited Verfahren und vorrichtung zur fahrzeugsteuerung
US10685239B2 (en) 2018-03-18 2020-06-16 Tusimple, Inc. System and method for lateral vehicle detection
CN110378185A (zh) 2018-04-12 2019-10-25 北京图森未来科技有限公司 一种应用于自动驾驶车辆的图像处理方法、装置
US10872433B2 (en) * 2018-04-18 2020-12-22 Mobileye Vision Technologies Ltd. Vehicle environment modeling with a camera
CN110458854B (zh) 2018-05-02 2022-11-15 北京图森未来科技有限公司 一种道路边缘检测方法和装置
KR20210008836A (ko) 2018-05-09 2021-01-25 씨에이브이에이치 엘엘씨 차량 및 고속도로 사이의 주행 지능 할당을 위한 시스템 및 방법
US11104334B2 (en) 2018-05-31 2021-08-31 Tusimple, Inc. System and method for proximate vehicle intention prediction for autonomous vehicles
US11842642B2 (en) 2018-06-20 2023-12-12 Cavh Llc Connected automated vehicle highway systems and methods related to heavy vehicles
US11373122B2 (en) 2018-07-10 2022-06-28 Cavh Llc Fixed-route service system for CAVH systems
WO2020014227A1 (en) 2018-07-10 2020-01-16 Cavh Llc Route-specific services for connected automated vehicle highway systems
US10839234B2 (en) 2018-09-12 2020-11-17 Tusimple, Inc. System and method for three-dimensional (3D) object detection
US11292480B2 (en) 2018-09-13 2022-04-05 Tusimple, Inc. Remote safe driving methods and systems
JP6744374B2 (ja) * 2018-09-27 2020-08-19 本田技研工業株式会社 表示装置、表示制御方法、およびプログラム
US10796402B2 (en) 2018-10-19 2020-10-06 Tusimple, Inc. System and method for fisheye image processing
US10942271B2 (en) 2018-10-30 2021-03-09 Tusimple, Inc. Determining an angle between a tow vehicle and a trailer
CN109492609B (zh) * 2018-11-27 2020-05-15 上海芯仑光电科技有限公司 一种检测车道线的方法和车辆、及计算设备
KR20200098774A (ko) * 2019-02-12 2020-08-21 주식회사 만도 차량 및 그 제어 방법
CN110143199B (zh) * 2019-05-17 2020-09-25 南京理工大学 商用车车重自适应坡道起步控制方法
US11823460B2 (en) 2019-06-14 2023-11-21 Tusimple, Inc. Image fusion for autonomous vehicle operation
CN112130550B (zh) * 2019-06-24 2024-03-12 北京市商汤科技开发有限公司 一种道路图像处理方法、装置、电子设备及存储介质
CN112304293B (zh) * 2019-08-02 2022-09-13 北京地平线机器人技术研发有限公司 道路高度检测方法、装置、可读存储介质和电子设备
CN111246485B (zh) * 2020-02-27 2022-09-20 华南理工大学 一种高密度车载通信环境下的车联网资源分配方法
EP3893150A1 (en) 2020-04-09 2021-10-13 Tusimple, Inc. Camera pose estimation techniques
KR20210148756A (ko) * 2020-06-01 2021-12-08 삼성전자주식회사 경사 추정 장치 및 이의 동작 방법
AU2021203567A1 (en) 2020-06-18 2022-01-20 Tusimple, Inc. Angle and orientation measurements for vehicles with multiple drivable sections
US11845347B2 (en) 2021-05-12 2023-12-19 David Alan Copeland Precision charging control of an untethered vehicle with a modular vehicle charging roadway
DE102021205852A1 (de) 2021-06-10 2022-12-15 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Bereitstellen von Konturdaten hinsichtlich einer Oberflächenkontur einer durch ein Fahrzeug befahrenen Fahrbahnoberfläche und Verfahren und Vorrichtung zum Steuern eines Betriebs eines Fahrzeugs
US20230154013A1 (en) * 2021-11-18 2023-05-18 Volkswagen Aktiengesellschaft Computer vision system for object tracking and time-to-collision
CN115546705B (zh) * 2022-11-29 2023-05-02 天津所托瑞安汽车科技有限公司 目标识别方法、终端设备及存储介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997002167A1 (fr) * 1995-07-04 1997-01-23 Hiroyuki Minakami Systeme de trafic/transport
JP2001116527A (ja) * 1999-10-20 2001-04-27 Matsushita Electric Ind Co Ltd 立体物検出方法及び装置
JP3786618B2 (ja) * 2002-03-25 2006-06-14 株式会社東芝 画像処理装置及びその方法
US7000710B1 (en) * 2002-04-01 2006-02-21 The Charles Machine Works, Inc. Automatic path generation and correction system
JP2005323021A (ja) * 2004-05-07 2005-11-17 Fuji Photo Film Co Ltd 車載撮像システム、および撮像方法
DE102004057296A1 (de) 2004-11-26 2006-06-08 Daimlerchrysler Ag Lane-Departure-Warning mit Unterscheidung zwischen Fahrbahnrandmarkierung und baulicher Begrenzung des Fahrbahnrandes
US7646887B2 (en) * 2005-01-04 2010-01-12 Evolution Robotics Retail, Inc. Optical flow for object recognition
JP4899424B2 (ja) * 2005-11-04 2012-03-21 トヨタ自動車株式会社 物体検出装置
CN101211471A (zh) * 2006-12-26 2008-07-02 上海乐金广电电子有限公司 车辆事故信息记录方法及路线追踪方法
JP4895857B2 (ja) * 2007-02-22 2012-03-14 日立オートモティブシステムズ株式会社 車両挙動再現方法
JP2008219063A (ja) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
US7872764B2 (en) * 2007-10-16 2011-01-18 Magna Electronics Inc. Machine vision for predictive suspension
US20100057358A1 (en) * 2008-08-28 2010-03-04 TeleType Co., Inc. Portable gps map device for commercial vehicle industry
JP5089545B2 (ja) * 2008-09-17 2012-12-05 日立オートモティブシステムズ株式会社 道路境界検出判断装置
JP5074365B2 (ja) * 2008-11-28 2012-11-14 日立オートモティブシステムズ株式会社 カメラ装置
CN101419667B (zh) 2008-12-15 2010-12-08 东软集团股份有限公司 识别图像中障碍物的方法和装置
JP2010205040A (ja) * 2009-03-04 2010-09-16 Daihatsu Motor Co Ltd 路面形状認識装置
JP5299513B2 (ja) 2009-08-12 2013-09-25 日本電気株式会社 障害物検知装置及び方法並びに障害物検知システム
US9959595B2 (en) * 2010-09-21 2018-05-01 Mobileye Vision Technologies Ltd. Dense structure from motion
US9118816B2 (en) * 2011-12-06 2015-08-25 Mobileye Vision Technologies Ltd. Road vertical contour detection
US8731303B2 (en) * 2010-12-07 2014-05-20 Sony Corporation Vanishing point estimation system and methods
US9681062B2 (en) * 2011-09-26 2017-06-13 Magna Electronics Inc. Vehicle camera image quality improvement in poor visibility conditions by contrast amplification
ES2573629T3 (es) * 2013-01-21 2016-06-09 Kapsch Trafficcom Ag Procedimiento para medir un perfil de altura de un vehículo que pasa por una carretera

Also Published As

Publication number Publication date
US10863140B2 (en) 2020-12-08
US10084992B2 (en) 2018-09-25
JP2013239143A (ja) 2013-11-28
JP6612297B2 (ja) 2019-11-27
US10506200B2 (en) 2019-12-10
US11240471B2 (en) 2022-02-01
US20210176432A1 (en) 2021-06-10
JP2018026143A (ja) 2018-02-15
US9118816B2 (en) 2015-08-25
US9826199B2 (en) 2017-11-21
EP2602741A3 (en) 2014-12-24
US20200112703A1 (en) 2020-04-09
US20180048867A1 (en) 2018-02-15
EP2602741A2 (en) 2013-06-12
US20180376109A1 (en) 2018-12-27
JP2020042831A (ja) 2020-03-19
JP6211263B2 (ja) 2017-10-11
US20150317525A1 (en) 2015-11-05
US20130141580A1 (en) 2013-06-06
EP3726422A1 (en) 2020-10-21

Similar Documents

Publication Publication Date Title
JP6896044B2 (ja) 道路の垂直輪郭検出
US11170466B2 (en) Dense structure from motion
US11763571B2 (en) Monocular cued detection of three-dimensional structures from depth images
US20150086080A1 (en) Road vertical contour detection
US9443313B2 (en) Stereo camera apparatus
JP5375958B2 (ja) 画像処理装置および画像処理方法
US20160182793A1 (en) Image distortion correction of a camera with a rolling shutter
EP2958054A2 (en) Hazard detection in a scene with moving shadows
CN105551020B (zh) 一种检测目标物尺寸的方法及装置
JP2020095627A (ja) 画像処理装置および画像処理方法
Yang Estimation of vehicle's lateral position via the Lucas-Kanade optical flow method
JP2010224926A (ja) 停止線検出装置
CN115797405A (zh) 一种基于车辆轴距的多镜头自适应跟踪方法
KR101949349B1 (ko) 어라운드 뷰 모니터링 장치
JP2022152922A (ja) 電子機器、移動体、撮像装置、および電子機器の制御方法、プログラム、記憶媒体
Yang An Image-Based Optical Flow Approach to Determine Vehicle's Lateral Position
JP2012078938A (ja) 後方認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210608

R150 Certificate of patent or registration of utility model

Ref document number: 6896044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150