JP2016081525A - 車両用画像認識システム、及び対応法 - Google Patents

車両用画像認識システム、及び対応法 Download PDF

Info

Publication number
JP2016081525A
JP2016081525A JP2015198538A JP2015198538A JP2016081525A JP 2016081525 A JP2016081525 A JP 2016081525A JP 2015198538 A JP2015198538 A JP 2015198538A JP 2015198538 A JP2015198538 A JP 2015198538A JP 2016081525 A JP2016081525 A JP 2016081525A
Authority
JP
Japan
Prior art keywords
optical flow
curb
subset
image
flow vectors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015198538A
Other languages
English (en)
Other versions
JP6670071B2 (ja
Inventor
アレクサンダー・シビリャコフ
Sibiryakov Alexander
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Application Solutions Electronic and Vision Ltd
Original Assignee
Application Solutions Electronic and Vision Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Application Solutions Electronic and Vision Ltd filed Critical Application Solutions Electronic and Vision Ltd
Publication of JP2016081525A publication Critical patent/JP2016081525A/ja
Application granted granted Critical
Publication of JP6670071B2 publication Critical patent/JP6670071B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

【課題】車両用画像認識システム及び車両において画像を認識する方法を提供する。
【解決手段】それぞれが車両近傍の道路の画像を記録し、道路のそれぞれの画像を表す画像データを供給するように構成されている少なくとも二つのカメラユニット3−1、3−2、供給された画像データを結合して第一の上方視点画像であって、道路画像平面に整合させた第一の上方視点画像6とするように構成されている第一の画像処理装置5、第一の上方視点画像から線を抽出するように構成されている第一の特徴抽出器7、第一の上方視点画像及び第一の上方視点画像より前に第一の画像処理装置によって生成された第二の上方視点画像11からオプティカルフローを抽出するように構成されている第二の特徴抽出器9、抽出された線及び抽出されたオプティカルフローに基づき道路における縁石を検出し、検出された縁石を表すデータを供給するように構成されている縁石検出器12を備える。
【選択図】図1

Description

本発明は、車両用の画像認識システム、及び車両において画像を認識するための対応法に関する。
本発明は、車両、ロボット、視覚障害者や車椅子用の運動支援システムのような縁石のある表面上を動くいかなるシステムにも適用可能であるが、主として車両と組合せて記載する。
現代の車両においては、ドライバーに対し複数のドライバー支援システムが様々な支援機能を提供している。こうしたドライバー支援機能は、自動ワイパー作動機能から車両用半自動又は自動運転機能まで、多岐にわたる。
複雑なドライバー支援機能の場合、特に車両の半自動又は自動運転が関係している場合には、それぞれのドライバー支援システムは、例えば、自動的に車両を駐車させる際に衝突を回避するため、車両の周囲に関する情報を収集する必要がある。
こうしたドライバー支援システムでは、広範囲のセンサを採用して車両周囲のモデルを構築することができる。例えば、超音波距離センサを使用して車両と障害物との距離を計測することができる、あるいは、カメラを使用して障害物の位置と種類を検出することができる。
更に、半自動又は自動運転では、道路境界、又は道路上の縁石の検出が必要である。この場合、縁石は、あらゆる道路の物理的境界を表す。こうした境界を認知し、かかる境界を道路にペイントされた単純な線と区別することは、自動車制御システムのナビゲーション機能、例えば、車線保持、自立駐車、車輪や車体の損傷防止などにおいては不可欠である。
車両において縁石検出に使用されているセンサの主なタイプは、機械的センサ、赤外線センサ、超音波センサ、レーザースキャナー、及び3Dカメラである。
各タイプのセンサには、例えば、分解能、精度、応答時間、消費電力、及びコストに関し、それぞれ適用限界がある。
3Dカメラに基づくソリューションは通常、かなり正確に縁石を検出するが、必要とされるコンピューターアルゴリズムは集約的画像加工を使用し、そのため、計算コストが高い。
3Dカメラに基づく縁石検出システムは、例えば、特許文献1に開示されている。
典型的な3Dカメラに基づく縁石検出システムは通常、以下を備える。
1)縁石仮説生成。このステップは単一の画像において実施され、標準的なエッジ検出器によって識別された近くにある平行な線分(エッジ)が集められて初期縁石仮説が形成される。
2)3Dにおける妥当性確認。このステップは、3Dカメラ又はステレオカメラを使用することで達成される。特徴マッチングアルゴリズムがステレオ装置の左右のカメラの画像を分析し、3D点の集合を生成する。縁石仮説線の両側の3D点集合を考慮すると、これらの点集合の間に実際の3D段差があるかどうかを判定することができる。3D段差が存在する場合、候補線が縁石として分類される。そうでない場合、候補線はその場の何らかの平面物体に属し、例えば、道路表面にペイントされた路面表示の一部である可能性がある。
3)適時の妥当性確認。このステップは、a)検出された各縁石線の信頼度を増し、b)短い縁石切片を接続して長い縁石モデルとし、c)システムにおける追跡能力を確立し、次のフレームの縁石候補が前のフレームから予測される限局的領域において検索されるようにするために適用される。
このパイプライン処理の主要素は、ロバストモデル適合アルゴリズムによって縁石の主要特徴である3D段差を抽出することができる3D点クラウドを生成するステレオマッチングアルゴリズムである。こうしたアルゴリズムは、車両においては必ずしも利用可能ではない較正されたステレオ装置と共に使用する場合のみ使用可能であり、高度な計算能力を必要とする。
ドイツ特許公開第102011056671号明細書
従って、単純なカメラと共に使用可能であり、さほど計算能力を必要としない縁石検出システムを提供するための方法及び装置に対する必要性が存在する。
本発明は、請求項1に記載の画像認識システム、及び請求項10に記載の対応法を提供する。
従って、本発明は、車両用画像認識システムであって、少なくとも二つのカメラユニットであって、それぞれが車両近傍の道路の画像を記録し、道路のそれぞれの画像を表す画像データを供給するように構成されているカメラユニット、少なくとも二つのカメラユニットによって供給された画像データ)を結合して第一の上方視点画像であって、道路画像平面に整合させた第一の上方視点画像とするように構成されている第一の画像処理装置、第一の上方視点画像から線を抽出するように構成されている第一の特徴抽出器、第一の上方視点画像及び第一の上方視点画像より前に第一の画像処理装置によって生成された第二の上方視点画像からオプティカルフローを抽出するように構成されている第二の特徴抽出器、及び抽出された線及び抽出されたオプティカルフローに基づき道路における縁石を検出し、検出された縁石を表す縁石データを供給するように構成されている縁石検出器を備える、車両用画像認識システムを提供する。
更に、本発明は、車両において画像を認識する方法であって、少なくとも第一のカメラユニットと第二のカメラユニットを用いて車両近傍の道路の少なくとも二つの異なる画像を記録すること、及び道路のそれぞれの画像を表す画像データを供給すること、供給された画像データを結合して第一の上方視点画像であって、道路画像平面に整合させた第一の上方視点画像とすること、第一の上方視点画像及び第一の上方視点画像より前に生成された第二の上方視点画像からオプティカルフローを抽出すること、抽出された線及び抽出されたオプティカルフローに基づき道路における縁石を検出すること、及び、検出された縁石を表す縁石データを供給することを含む方法を提供する。
本発明は、現代の車両は既に複数の単眼カメラを備え、現在、通常は単純にドライバー支援タスクに使用されているという結論に基づいている。
従って、本発明は、これを利用し、こうした単眼カメラの複数の画像を使用して複雑なドライバー支援タスクを実施するために必要な情報及びデータを供給する画像認識システムを提供する。
結果として、本発明は、二以上のカメラユニットを有する画像認識システムを提供する。カメラユニットのそれぞれは、車両近くの道路の画像を記録し、それぞれの画像を表す画像データを第一の画像処理装置に供給する。
第一の画像処理装置は、カメラユニットによって供給された画像データを結合して第一の上方視点画像とする。こうした上方視点画像は、高い位置から見た車両周囲の道路の記録された部分を表す。
次いで、上方視点画像は、第一の上方視点画像における可視の線を抽出する第一の特徴抽出器によって処理される。上方視点画像中の線は、実際の縁石、又は、例えば、道路表面にペイントされた線に起因する可能性がある。従って、第一の上方視点画像中の線は、有力な縁石候補として扱われる。
第二の特徴抽出器は、第一の上方視点画像及び第一の上方視点画像より前に生成された第二の上方視点画像からオプティカルフローを抽出する。
最後に、縁石検出器は、抽出された線及び抽出されたオプティカルフローに基づいて道路における縁石を検出する。縁石検出器は、検出された縁石を表す縁石データを、例えば、車両をナビゲートしたり操舵したりするために縁石データを使用できる車両内の他の電気システムに供給する。縁石データは、それぞれの車両システムが道路上の縁石の位置を判定することを可能にするいかなる情報も含むことができる。
本発明の更なる実施形態は、更なる下位請求項及び図面を参照した以下の説明の主題である。
実現可能な実施形態においては、第一の特徴抽出器が、線抽出アルゴリズム、特に、ハフ変換アルゴリズムを実行するように構成されている、これにより、ほとんど計算の労力を要せずに単純で高速の線抽出が可能となる。
実現可能な実施形態においては、第二の特徴抽出器が、特に、特徴マッチング又はブロックマッチングの技術を用い、第一の上方視点画像及び第二の上方視点画像からの疎なオプティカルフローの検出に基づいてオプティカルフローをオプティカルフローベクトルの第一の集合として抽出するように構成されている、これにより、非常に単純で計算コスト効率が高いアルゴリズムを用いて画像における変化を検出することが可能となる。
実現可能な実施形態においては、縁石検出器が、オプティカルフローベクトルの第一の集合を、検出された線全てについて、オプティカルフローベクトルの第一の部分集合とオプティカルフローベクトルの第二の部分集合とに分離するように構成され、各検出された線について、オプティカルフローベクトルの第一の部分集合が、それぞれの検出された線に対し車両と同じ側に位置するフローベクトルを表し、各検出された線について、オプティカルフローベクトルの第二の部分集合が、それぞれの検出された線に対し車両と反対の側に位置するフローベクトルを表す。これにより、それぞれが可能性のある縁石の一方の側を表すフローベクトルの二つの部分集合が供給され、可能性のある縁石の両側を別々に分析することが可能になる。
実現可能な実施形態においては、縁石検出器が、検出された全て線について、フローベクトルのそれぞれの第一の部分集合及びオプティカルフローベクトルのそれぞれの第二の部分集合が同一の表面に属するかどうかテストし、オプティカルフローベクトルのそれぞれの第一の部分集合及びオプティカルフローベクトルのそれぞれの第二の部分集合が同一の表面に属する場合に縁石を検出するように構成されている。二つの部分集合が同一の表面に属するかどうかを分析することで、フローベクトルの部分集合が高さ又は向きの異なる表面に属するかどうかを容易に検出することが可能になる。
実現可能な実施形態においては、縁石検出器が、オプティカルフローベクトルの第一の部分集合及び/又はオプティカルフローベクトルの第二の部分集合のテストに先立ち、オプティカルフローベクトルの第一の部分集合及びオプティカルフローベクトルの第二の部分集合のアウトライアを検出し、削除するように構成されている。特徴マッチングにおいて可能性のある大きなエラー及び独立して動く物体が存在する可能性のため、フローベクトルの中には不正確なものもある。これらの誤りのあるフローベクトルは、「アウトライア」と呼ばれる。一方、正しく検出されたフローベクトルは、「インライア」と呼ばれる。「アウトライア」を除外すると、縁石検出の向上が可能となり、より堅固な結果がもたらされる。
実現可能な実施形態においては、縁石検出器が、オプティカルフローベクトルの第一の集合に基づき、特に、フローベクトルの第一の集合のインラインベクトルに基づき、特に、回転及び並進を含む適合大域的運動モデル(fitted global motion model)を少なくとも計算するように構成されている運動モデル計算器を備え、縁石検出器が、少なくとも一つの適合大域的運動モデルに基づき、検出された線全てについてそれぞれの第一の部分集合についての第一のノイズ分布とそれぞれの第二の部分集合についての第二のノイズ分布を計算し、第一のノイズ分布と第二のノイズ分布の差が所定の閾値を超える場合にそれぞれの線の位置に縁石を検出するように構成されている。これにより、ほとんど計算の労力を要せずに縁石の検出が可能となる。
実現可能な実施形態においては、縁石検出器が、異なる時点において検出された縁石の位置とそれぞれの適合大域的運動モデルとを保存するように構成されているメモリを備え、縁石検出器が、保存された検出された縁石の位置とそれぞれの適合大域的運動モデルとを結合してそれぞれの縁石のより強固な証拠を伴う縁石検出を実現するように構成されている。
実現可能な実施形態においては、画像認識システムが単一のカメラユニットのみを備え、第一の画像処理装置が、車両が運動中に単一のカメラユニットにより連続して記録された二つの画像に基づく二つの連続した画像データの集合に基づき第一の上方視点画像を生成するように構成されている。これにより、単一のカメラのみで縁石を検出することが可能となる。
本発明のこの態様及び他の態様は、以下に記載の実施形態を参照することで明らかになり、解明されるであろう。
本発明とその利点のより完全な理解のため、添付図面を併用しながら以下の説明に言及する。以下、図面の概略図に明示される例示的実施形態を用いて本発明をより詳細に説明する。
本発明による画像認識システムの実施形態のブロック図 本発明による方法の実施形態の図 本発明による画像認識システムの別の実施形態のブロック図 本発明の実施形態において使用される上方視点画像の図 本発明の実施形態において使用される上方視点画像の図 本発明の実施形態において使用される上方視点画像の図 本発明の実施形態において使用される上方視点画像の図
図面においては、特に断らない限り同様の参照符号は同様の要素を示している。
図1は、は、本発明による画像認識システム1の実施形態のブロック図を示す。
図1の画像認識システム1は、車両2に搭載されるもので、車両2の前部に搭載されて道路(又は車両が載る、又は走る他の任意の表面の画像)を記録し、それぞれの画像データ4−1、4−2を第一の画像処理装置5に供給する2つのカメラユニット3−1、3−2を備える。第一の画像処理装置5は、画像データ4−1、4−2を結合して第一の上方視点画像6とする。画像データ4−1、4−2の基礎を形成する画像間に重複部は必要ない。
第一の画像処理装置5は、画像データ4−1、4−2を道路平面におけるグローバルグリッドと整合させることができる。代替法としては、それぞれのカメラユニット3−1、3−2が画像データをグローバルグリッドと整合させることができる。こうした整合により、抽出された特徴、例えば、オプティカルフローベクトル及び縁石線候補の全てを共通の座標系において分析することが可能となる。
道路平面におけるグローバルグリッドへのマッピングは、以下の計算に基づいて実施できる。その際、i番目の画像データPの画素(n,m)が道路平面上の3D点に対応する:
Figure 2016081525
式中、(n,m)は、それぞれの画像データ4−1、4−2の原点の整数座標であり、N,Mは、それぞれの画像データ4−1、4−2の大きさであり、dは、それぞれの上方視点画像の画素の地上分解能である。一実施形態においては、例えば、分解能d=1cmを使用できる。
3D点は、それらの画素座標p=(x,y)を得るため、カメラユニット3−1、3−2の既知の外部及び内部較正データを用い、方程式(2)によって原画像に投影される。
次いで、投影された点I(x,y)の補間画素値が上方視点画像内の画素Pに割り当てられる。
投影方程式は、
Figure 2016081525
であり、式中、Rはカメラセンサ平面の道路平面に対する回転の3×3行列であり、tはカメラ中心の車両座標システムの原点に対する並進である。
は、カメラ中心からの光線をセンサ内の画素へとマッピングする内部較正関数である。例えば、ピンホールカメラの場合は上三角行列を用いた乗算である。魚眼カメラの場合は、非線形多項式関数である。
次いで、第一の上方視点画像6が第一の特徴抽出器7及び第二の特徴抽出器9に供給される。
第一の特徴抽出器7は、第一の上方視点画像6から線8を抽出する。それぞれの抽出された線8の位置では道路のそれぞれの区間に縁石が存在する可能性があるため、抽出された線8は、縁石候補として扱うことができる。
一例においては、縁石候補線8は、画像における直線のパラメーター(a,b,c)を出力するハフ変換法によって抽出することができる:
Figure 2016081525
ハフ変換法は、画像強度とその勾配のみを使用して線の証拠を検出し、そのため、実際の縁石と道路にペイントされた線とを区別できない。
本発明において使用されるハフ変換は、距離空間における線パラメーターと点座標とを供給し、そのため、値d=aX+bY+cは、座標原点、例えば、車両中心Cから線における点(X,Y)までの距離メトリックを示し、ベクトル(a,b)は例えば、車両制御システムが使用できる線の向きを与える。
第二の特徴抽出器9は、第一の上方視点画像6と、第二の上方視点画像11より前に記録された第二の上方視点画像11から、オプティカルフロー10を抽出する。一実施形態においては、第二の特徴抽出器9は、第一の画像処理装置5から受信した第一の上方視点画像6を順次保存するためのメモリ(図示せず)を備え、後にそれを第二の上方視点画像11として使用してオプティカルフロー10を計算する。
一実施形態においては、第二の特徴抽出器9は、オプティカルフロー10を疎なオプティカルフロー10として抽出するように構成されている。例えば、特徴点抽出に基づく特徴マッチングと2つの点集合間の対応の確立を使用して疎なオプティカルフロー10を抽出することができる。通常、特徴点を中心とする画像ウィンドウ間の最大相関係数が、特徴の対応付けと局所的オプティカルフローベクトルとを決定する。
それに加え、又はそれに代わるものとして、ビデオフレームの均等な小ブロックへの分割に基づくブロックマッチングを使用して疎なオプティカルフロー10を抽出することもできる。この方法は、例えば、検索ウィンドウ内で、第一の上方視点画像6から第二の上方視点画像11の全ブロックの中の最もマッチするブロックを検索することを含む。
図4から7には、抽出された線8−1〜8−4と、対応するオプティカルフロー10が詳細に示されている。
図1において、抽出された線8とオプティカルフロー10は縁石検出器12に供給され、縁石検出器12は、抽出された線8とオプティカルフロー10に基づき、例えば、車両2の中心に原点を持つメトリック座標系において検出された縁石を表す縁石データ13を供給する。例えば、縁石データ13は、aX+bY+c=0というタイプの線方程式のための線パラメーターa、b及びcを含む。
車両2においては、複数の車両システム25(図1には図示せず)が縁石データ13を利用することができ、例えば、それぞれの制御アルゴリズムに縁石データ13を含むことができる。
一実施形態においては、画像認識システム1は、前記車両システム25の一つに、例えば、それぞれの車両システムのプロセッサによって実行されるコンピュータープログラムモジュールやライブラリとして含まれ得る。
別の実施形態においては、画像認識システムは、例えば、CANバス、FlexRayバスなどの車両バスを介して他の車両システム25と通信可能な専用の制御ユニットにおいて具体化される。更に別の実施形態においては、画像認識システム1の要素を様々な制御ユニット間に分散させることができる。
図2は、本発明による車両2における画像を認識する方法の実施形態の図を示す。
方法は、少なくとも第一のカメラユニット3−1〜3−6と第二のカメラユニット3−1〜3−6で車両2近傍の道路の少なくとも二つの異なる画像を記録することS1、及び道路のそれぞれの画像を表す画像データ4−1〜4−6を供給することを含む。更に、方法は、供給された画像データ4−1〜4−6結合して第一の上方視点画像6、6−1〜6−4であって、道路画像平面に整合させた第一の上方視点画像6、6−1〜6−4とすることS2を含む。方法は、第一の上方視点画像6、6−1〜6−4から線8、8−1〜8−4を抽出することS3、及び第一の上方視点画像6、6−1〜6−4及び第一の上方視点画像よりも前に生成された第二の上方視点画像11からオプティカルフロー10を抽出することS4を更に含む。最後に、方法は、抽出された線8、8−1〜8−4及び抽出されたオプティカルフロー10に基づき道路における縁石を検出することS5、及び検出された縁石を表す縁石データ13を、例えば、他の車両システム25に供給することを含む。
本発明の一実施形態によると、線抽出アルゴリズム、特に、ハフ変換アルゴリズムを用いて線を抽出することができる。オプティカルフロー10は、例えば、第一の上方視点画像6、6−1〜6−4及び第二の上方視点画像11からの疎なオプティカルフロー10の検出に基づき、オプティカルフローベクトルの第一の集合14として抽出することができる。これは、特に特徴マッチング又はブロックマッチングアルゴリズムを使用して行うことができる。
オプティカルフローベクトルの第一の集合14が抽出された後、オプティカルフローベクトルの第一の集合14を、検出された線全てについてオプティカルフローベクトルの第一の部分集合15とオプティカルフローベクトルの第二の部分集合16とに分割することができる。これにより、複数の第一の部分集合15と第二の部分集合16が生じ、第一の部分集合15と第二の部分集合16の対の数は、検出された線の数に均しくなる。以下のステップは、検出された線8、8−1〜8−4の全てについて実行される。
部分集合は、オプティカルフローベクトルを、それぞれの検出された線に対し車両2と同じ側にある、第一の部分集合15に含まれるフローベクトルの第一のグループと、それぞれの検出された線に対し車両2と反対側にある、第二の部分集合16に含まれるフローベクトルの第二のグループとに分割する。これにより、線の両側を別々に分析することが可能になる。
第一の部分集合15と第二の部分集合16が供給される場合、縁石の検出は、検出された線全てについて、それぞれのフローベクトルの第一の部分集合15とそれぞれのフローベクトルの第二の部分集合16が同一表面に属するかどうかテストすることを含むことができる。縁石は、それぞれのフローベクトルの第一の部分集合15とそれぞれのフローベクトルの第二の部分集合16が同一表面に属さない場合に検出することができる。
縁石の検出を向上させるため、オプティカルフローベクトルの第一の部分集合15とオプティカルフローベクトルの第二の部分集合16におけるアウトライアを検出し、オプティカルフローベクトルの第一の部分集合15とオプティカルフローベクトルの第二の部分集合16のテストを行う前に削除することができる。
すると、縁石を検出することは、オプティカルフローベクトルの第一の集合14に基づき、特に、フローベクトルの第一の集合14のインラインベクトルに基づき、特に、回転と並進とを含む適合大域的運動モデル18を少なくとも計算することを含むことができる。すると、検出された線8、8−1〜8−4全てについて、それぞれの第一の部分集合15についての第一のノイズ分布19と、それぞれの第二の部分集合16についての第二のノイズ分布19を計算することができ、第一のノイズ分布19と第二のノイズ分布19との差が所定の閾値Xを超える場合には、それぞれの線8、8−1〜8−4の位置に縁石を検出することができる。ノイズ分布19は、適合大域的運動モデル18に基づいて計算できる。
一実施形態においては、異なる時点に検出された縁石の位置を、それぞれの適合大域的運動モデル18と共に保存することができる。更に、縁石を検出する際に、検出された縁石の保存された位置と、それぞれの適合大域的運動モデル18を結合してそれぞれの縁石のより強固な証拠を伴う縁石検出を実現することができる。
図3は、は、本発明による画像認識システム1の別の実施形態のブロック図を示す。
図3の画像認識システム1は、図1の画像認識システム1に基づくものであるが、4つのカメラユニット3−3〜3−6を備え、1つのカメラユニット3−3〜3−6は、それぞれ車両2のそれぞれの側に向けられている。更に、図3の第二の特徴抽出器9は、フローベクトルの第一の集合14を図3の縁石検出器12に供給し、縁石検出器12は、フローベクトルの第一の集合14をフローベクトルの第一の部分集合15と第二の部分集合16とに分けるように構成されている。
第一の部分集合15と第二の部分集合16が同一の表面に属するかどうかテストするため、縁石抽出器12は、運動モデル計算器17を備え、これは、オプティカルフローベクトルの第一の集合14に基づき適合大域的運動モデル18を計算する。適合大域的運動モデル18を計算する前に、縁石抽出器は、オプティカルフローベクトルの第一の集合14から「アウトライア」を削除することができる。
大域的運動モデル18に基づき、縁石検出器12は、検出された線8、8−1〜8−4全てについて、それぞれの第一の部分集合15についての第一のノイズ分布19と、それぞれの第二の部分集合16についての第二のノイズ分布19を計算する。第一のノイズ分布19と第二のノイズ分布19の差が所定の閾値Xを超える場合に、縁石は、縁石検出器12によってそれぞれの線8、8−1〜8−4の位置に検出される。
次いで、検出された縁石についての縁石データ13が、例えば、制御システム25とすることができる車両制御システム25に供給され、車両2の自立的又は半自立的運転が実現される。
一実施形態においては、オプティカルフローベクトルの第一の集合14を分けることは、以下に記載するように実施することができる。
線8、8−1〜8−4は、オプティカルフローベクトルを2つの部分集合15、16に分割する:
Figure 2016081525
式中、{v}roadは、線8、8−1〜8−4に対し車両2と同じ側のオプティカルフローベクトルを表す。その結果、{v}non−roadは、線8、8−1〜8−4に対し車両2と反対側のオプティカルフローベクトルを表す。ここで、車両に言及すると、言及は車両の中心C=(Cx,Cy)に及ぶ。フローベクトルの第一の集合14の分離は、条件
Figure 2016081525
によって与えられる。
2つの部分集合15及び16、又は{v}road及び{v}non−roadが異なる表面に属する場合、それぞれの検出された線8、8−1〜8−4は、縁石境界線である。
このテストの信頼性を高めるため、上記のようにして誤りのあるベクトル「アウトライア」をオプティカルフローベクトルの第一の集合14及びオプティカルフローベクトルの第二の集合15から全て除去することができる。アウトライアを検出するため、RANSAC推定器により大域的運動モデル18が当てはめられる。
第一の上方視点画像6と第二の上方視点画像11との間の大域的運動は、回転角度と、二方向X及びYにおける2D並進の3つの独立したパラメーターからなる。対応する大域的運動行列H=[R|T]は、2×2回転行列Rと、2×1並進ベクトルTからなり、その結果、
Figure 2016081525
に従い、第一の上方視点画像6における点(x,y)が第二の上方視点画像11における別の点(x’,y’)へと移される。
第一の上方視点画像6及び第二の上方視点画像11において点(sx,sy)と(sx+vx,sy+vy)とを結ぶオプティカルフローベクトルは、測定ノイズεの追加項を持つ式(7)の多数の実例を提供する:
Figure 2016081525
適合大域的運動モデル18は、以下のステップを有するRANSACアルゴリズムにより、過剰決定体系(8)から推定することができる:
(1)集合{v}から2つのベクトルv1及びv2をランダムに選択する;
(2)候補運動Hをv1及びv2から直接見つける:
(3){v}の中のHを満たすベクトルNinliersの数を数える;
(4)高い確率で最大のNinliersが見つかるまで(1)〜(3)を繰り返す;
(5)最小自乗極小化を用いて全てのインライアから最終適合大域的運動モデル18を再度推定する。
運動ベクトルの第一の部分集合15と運動ベクトルの第二の部分集合16にRANSACを別々に適用することができ、結果的に運動行列Hroad及びHnon−roadと、4つの互いに素なオプティカルフローベクトルの集合が生じる:
Figure 2016081525
road=[Rroad|Troad]が{v}road,inliersから計算された道路運動の正しいモデルであると仮定すると、{v}road,inliers及び{v}non−road,inliersからの位置情報のみを用いて新しいノイズフリーのオプティカルフローベクトルの第一の部分集合15と第二の部分集合16が計算できる:
Figure 2016081525
オプティカルフローベクトルのベクトル長lは、
Figure 2016081525
と定義される。実際のベクトルとそのノイズフリーバージョンとの長さの差は、
Figure 2016081525
である。
縁石候補の妥当性確認の基準は、例えば、{v}road,inliersと{v}non−road,inliersの集合に関して計算されるΔlの経験分布に基づくものとすることができる。
これを以下の図において更に説明する。
図4〜6は、本発明の実施形態において使用される上方視点画像を示し、それぞれにはΔlのそれぞれの分布と共に、検出された線8−1〜8−4が示されている。
図4において、第一の上方視点画像6−1中に縁石が存在し、検出された線8−1が実際の縁石境界線である。推定された運動モデルHroad及びHnon−roadは、道路と歩道という異なる平面の運動を記述する。
{v}road,inliers及び{v}road,inliers,noise−freeのベクトルは測定ノイズが異なり、その結果、{v}road,inliersのベクトルに関するΔlの分布は、ゼロ付近に集中する。
歩道は道路よりも高くなっているため、{v}non−road,inliersにおける全ベクトルは、{v}non−road,inliers,noise−freeよりも長く、そのため、カメラに近い。この非道路ベクトルのベクトル長の系統的増加により、Δlヒストグラムは右側へ大幅に移動する。
図5において、第一の上方視点画像6−2の中に縁石が存在する。しかし、図4とは異なり、検出された候補線8−2は、道路と縁石の両方と交差している。
運動モデルHroad及びHnon−roadは、道路と歩道両方のオプティカルフローベクトルに基づいて推定される。従って、これらはどちらも存在しない平面の運動に相当し、道路と非道路ベクトルとの差を最小化するのに適している。
結果として、{v}non−road,inliers及び{v}non−road,inliers,noise−freeのベクトルは、測定ノイズと適合誤差を別にすれば等しくなる。
同じことが{v}road,inliers及び{v}road,inliers,noise−freeのベクトルにも当てはまる。図5におけるΔlのヒストグラムはどちらも、ゼロ付近に集中し、それらの間に検出され得る系統的差異はない。
図6においては、第一の上方視点画像6−3中に縁石が存在するが、検出された候補線8−3は、道路に属している。この場合、Hroad及びHnon−roadは異なる運動を記述する。Hnon−roadは道路表面の正しい運動であるが、Hroadは、道路と歩道の平均化運動によって得られた存在しない平面の運動に相当する。従って、{v}non−road,inliers及び{v}non−road,inliers,noise−freeのベクトルは等しいが、縁石ベクトルは道路上側の平面の運動に相当するため、{v}road,inliersの多くのベクトルは、{v}road,inliers,noise−freeよりも長い。道路ベクトルについてのΔlのヒストグラムは、わずかに右側に移動する。
最後に、図7では、第一の上方視点画像6−4には検出すべき縁石は存在しない。従って、検出された候補線8−4は、道路に属する。その結果、Hroad及びHnon−roadは、道路表面の同一の正しい運動を記述する。この場合、{v}road,inliers及び{v}road,inliers,noise−freeのベクトルは測定ノイズを別にすれば等しいため、Δlの両ヒストグラムは類似したものになり、同じことが非道路部分についても当てはまる。
一実施形態においては、線候補が縁石であると実証するため、「Δlnon−roadの分布がΔlroadの分布と比較して右に移動する」という条件を評価することができる。
この移動は小さく1〜2画素程度に過ぎないかもしれず、また、異なる分布の形のため、統計値、例えば平均値や分散から計算することはできない。
従って、こうした場合のためにデザインされた、コルモゴルフ・スミルノフ検定K−Sを使用することができる。
検出された線L、8、8−1〜8−4に対するK−S統計値は、
Figure 2016081525
と定義される。式中、nroad、nnon−roadはそれぞれ{v}road,inliers及び{v}non−road,inliersのベクトルの数であり、Fは、それぞれのΔlのヒストグラムを積算することにより得られた累積分布である。
K−S(L)が0よりも大きい閾値xよりも大きい場合、それぞれの線L、8、8−1〜8−4は縁石であると考えられ、それぞれの線L、8、8−1〜8−4に対応する行列Hroadは、現在のフレームにおける道路の正しい運動を表すと考えられる。
閾値は、コルモゴロフ分布の臨界値の表から取る、又は経験的に選択することができる。
互いの近くに多くの平行な候補線8、8−1〜8−4が検出された場合、最良の候補線L、8、8−1〜8−4がK−S(L)統計値から以下のように選択される:
Figure 2016081525
記載したステップにより、検出された線又は縁石境界線の集合が生成される。
検出結果をより安定させ、より強固な縁石の証拠を得るため、既に上記に示したように、オブジェクトクラスタリングを適時に実施することができる。大域的運動行列Hroadが画素を現在の上方視点画像mから一つ前の上方視点画像m−1へと移行させる。こうした移行をHm−1,mによって表すと、現在の第一の上方視点画像6と先行する第二の上方視点画像11いずれかとの間の移行は、一連の行列積として記述できる:
Figure 2016081525
点[x,y]又は線ax+by+c=0を第一の上方視点画像mから第二の上方視点画像kへと投影するため、以下の方程式が使用できる:
Figure 2016081525
方程式(14)を用い、共通座標系における線パラメーターを得るために、検出された縁石が基準座標系kへと移行される。
一実施形態においては、線方程式の3つのパラメーターを等価の角度距離表現
Figure 2016081525
へと変換することができ、その結果、線が(θ,d)空間における一点に対応する。
実際の縁石は、後続のフレームにおいて基準(θ,d)空間における同様の線を生じる多数の検出をもたらす。
同様の線がその空間においてクラスターを形成するが、誤検出は通常ランダムに散在する。任意のクラスター化アルゴリズムを使用して(θ,d)空間における重要な点クラスターを検出し、クラスター中心を縁石検出アルゴリズムの最終結果として出力することができる。
次いで、検出されたクラスター中心を方程式(14)を使用して元の現在のフレームへと移行し、車両2の他の電子制御システム25へと送ることができる。任意の光学的フィルタリングスキームを実施することもできる。例えば、検出された線は、将来のフレームにおける検索領域の予測に使用することができる。
本明細書において特定の実施形態を図示し説明したが、様々な代替的及び/又は等価的実施態様が存在することは、当業者には当然のことである。当然ながら、例示的実施形態又は複数の例示的実施形態は例に過ぎず、範囲、適用可能性、又は構成の制限を意図したものでは全くない。それどころか、上記の要約及び詳細な説明は、少なくとも一例示的実施形態を実施するための便利な指針を当業者に提供するものであり、添付の請求項及びその法律上の均等物に記載された範囲から逸脱することなく例示的実施形態に記載した要素の機能及び配置に様々な変更を加えてもよいことは、理解される。一般に、この出願は、本明細書に述べる特定の実施形態のいかなる適用又は変形をも包含することを意図している。
明細書全体を通じ、「含む(including)」及び「それにおいて(in which)」という用語は、それぞれの用語「含む(comprising)」及び「それにおいて(wherein)」の平易な英語の同義語としてそれぞれ使用されている。
更に、「第一の」、「第二の」、及び「第三の」などの用語は、単にラベルとして使用されており、その目的の重要度に何らかの数的要件を課したり、重要度の順位を確立したりすることを意図したものではない。
1 画像認識システム
2 車両
3−1〜3−6 カメラユニット
4−1〜4−6 画像データ
5 第一の画像処理装置
6、6−1〜6−4 第一の上方視点画像
7 第一の特徴抽出器
8、8−1〜8−4 線
9 第二の特徴抽出器
10 オプティカルフロー
11 第二の上方視点画像
12 縁石検出器
13 縁石データ
14 第一の集合
15 第一の部分集合
16 第二の部分集合
17 運動モデル計算器
18 適合大域的運動モデル
19 ノイズ分布
20 メモリ
25 車両システム
X 閾値

Claims (15)

  1. 車両(2)用画像認識システム(1)であって、
    − 少なくとも二つのカメラユニット(3−1〜3−6)であって、それぞれが車両(2)近傍の道路の画像を記録し、道路のそれぞれの画像を表す画像データ(4−1〜4−6)を供給するように構成されているカメラユニット(3−1〜3−6);
    − 少なくとも二つのカメラユニット(3−1〜3−6)によって供給された画像データ(4−1〜4−6)を結合して第一の上方視点画像(6、6−1〜6−4)であって、道路画像平面に整合させた第一の上方視点画像(6、6−1〜6−4)とするように構成されている第一の画像処理装置(5);
    − 第一の上方視点画像(6、6−1〜6−4)から線(8,8−1〜8−4)を抽出するように構成されている第一の特徴抽出器(7);
    − 第一の上方視点画像(6、6−1〜6−4)及び第一の上方視点画像(6、6−1〜6−4)より前に第一の画像処理装置(5)によって生成された第二の上方視点画像(11)からオプティカルフロー(10)を抽出するように構成されている第二の特徴抽出器(9);及び
    − 抽出された線(8、8−1〜8−4)及び抽出されたオプティカルフロー(10)に基づき道路における縁石を検出し、検出された縁石を表す縁石データ(13)を供給するように構成されている縁石検出器(12)を備える、画像認識システム(1)。
  2. 第一の特徴抽出器(7)が、線抽出アルゴリズム、特に、ハフ変換アルゴリズムを実行するように構成されている、請求項1に記載の画像認識システム。
  3. 第二の特徴抽出器(9)が、特に、特徴マッチング又はブロックマッチングを用い、第一の上方視点画像(6、6−1〜6−4)及び第二の上方視点画像(11)からの疎なオプティカルフロー(10)の検出に基づいてオプティカルフロー(10)をオプティカルフローベクトルの第一の集合(14)として抽出するように構成されている、先行する請求項のいずれか一項に記載の画像認識システム。
  4. 縁石検出器(12)が、オプティカルフローベクトルの第一の集合(14)を、検出された線(8、8−1〜8−4)全てについて、オプティカルフローベクトルの第一の部分集合(15)とオプティカルフローベクトルの第二の部分集合(16)とに分離するように構成され;
    各検出された線(8、8−1〜8−4)について、オプティカルフローベクトルの第一の部分集合(15)が、それぞれの検出された線(8、8−1〜8−4)に対し車両(2)と同じ側に位置するオプティカルフローベクトルを表し;
    各検出された線(8、8−1〜8−4)について、オプティカルフローベクトルの第二の部分集合(16)が、それぞれの検出された線(8、8−1〜8−4)に対し車両(2)と反対の側に位置するオプティカルフローベクトルを表す、先行する請求項のいずれか一項に記載の画像認識システム。
  5. 縁石検出器(12)が、検出された線(8,8−1〜8−4)全てについて、オプティカルフローベクトルのそれぞれの第一の部分集合(15)及びオプティカルフローベクトルのそれぞれの第二の部分集合(16)が同一の表面に属するかどうかテストし、オプティカルフローベクトルのそれぞれの第一の部分集合(15)及びオプティカルフローベクトルのそれぞれの第二の部分集合(16)が同一の表面に属する場合に縁石を検出するように構成されている、請求項4に記載の画像認識システム。
  6. 縁石検出器(12)が、オプティカルフローベクトルの第一の部分集合(15)及びオプティカルフローベクトルの第二の部分集合(16)のテストに先立ち、オプティカルフローベクトルの第一の部分集合(15)及びオプティカルフローベクトルの第二の部分集合(16)のアウトライアを検出し、削除するように構成されている、請求項5に記載の画像認識システム。
  7. 縁石検出器(12)が、オプティカルフローベクトルの第一の集合(14)に基づき、特に、オプティカルフローベクトルの第一の集合(14)のインラインベクトルに基づき、特に、回転及び並進を含む適合大域的運動モデル(18)を少なくとも計算するように構成されている運動モデル計算器(17)を備え;
    縁石検出器(12)が、少なくとも一つの適合大域的運動モデル(18)に基づき、検出された線(8、8−1〜8−4)全てについてそれぞれの第一の部分集合(15)についての第一のノイズ分布(19)とそれぞれの第二の部分集合(16)についての第二のノイズ分布(19)を計算し、第一のノイズ分布(19)と第二のノイズ分布(19)の差が所定の閾値(X)を超える場合にそれぞれの線(8、8−1〜8−4)の位置に縁石を検出するように構成されている、請求項5及び6のいずれか一項に記載の画像認識システム。
  8. 縁石検出器(12)が、異なる時点において検出された縁石の位置とそれぞれの適合大域的運動モデル(18)とを保存するように構成されているメモリ(20)を備え;
    縁石検出器(12)が、保存された検出された縁石の位置とそれぞれの適合大域的運動モデル(18)とを結合してそれぞれの縁石のより強固な証拠を伴う縁石検出を実現するように構成されている、請求項7に記載の画像認識システム。
  9. 単一のカメラユニット(3−1〜3−6)のみを備え、
    第一の画像処理装置(5)が、車両(2)が運動中に単一のカメラユニット(3−1〜3−6)により連続して記録された二つの画像に基づく二つの連続した画像データ(4−1〜4−6)の集合に基づき第一の上方視点画像(6、6−1〜6−4)を生成するように構成されている、請求項1乃至8のいずれか一項に記載の画像認識システム。
  10. 車両(2)において画像を認識する方法であって、
    − 少なくとも第一のカメラユニット(3−1〜3−6)と第二のカメラユニット(3−1〜3−6)を用いて車両(2)近傍の道路の少なくとも二つの異なる画像を記録すること(S1)、及び道路のそれぞれの画像を表す画像データ(4−1〜4−6)を供給すること;
    − 供給された画像データ(4−1〜4−6)を結合(S2)して第一の上方視点画像(6、6−1〜6−4)であって、道路画像平面に整合させた第一の上方視点画像(6、6−1〜6−4)とすること;
    − 第一の上方視点画像(6、6−1〜6−4)から線(8、8−1〜8−4)を抽出すること(S3);
    − 第一の上方視点画像(6、6−1〜6−4)及び第一の上方視点画像(6、6−1〜6−4)より前に生成された第二の上方視点画像(11)からオプティカルフロー(10)を抽出すること(S4);
    − 抽出された線(8、8−1〜8−4)及び抽出されたオプティカルフロー(10)に基づいて道路における縁石を検出すること(S5);及び
    − 検出された縁石を表す縁石データ(13)を供給することを含む方法。
  11. 線(8、8−1〜8−4)を抽出することが線抽出アルゴリズム、特に、ハフ変換アルゴリズムを実行することを含み;及び/又は、
    オプティカルフロー(10)を抽出することが、特に、特徴マッチング又はブロックマッチングを用い、第一の上方視点画像(6,6−1〜6−4)及び第二の上方視点画像(11)からの疎なオプティカルフロー検出に基づいてオプティカルフロー(10)をオプティカルフローベクトルの第一の集合(14)として抽出することを含む、請求項10に記載の方法。
  12. 縁石を検出することが、オプティカルフローベクトルの第一の集合(14)を、検出された線(8,8−1〜8−4)全てについて、オプティカルフローベクトルの第一の部分集合(15)とオプティカルフローベクトルの第二の部分集合(16)とに分離することを含み;
    各検出された線(8、8−1〜8−4)について、オプティカルフローベクトルの第一の部分集合(15)が、それぞれの検出された線(8、8−1〜8−4)に対し車両(2)と同じ側にあるオプティカルフローベクトルを表し;
    各検出された線(8、8−1〜8−4)について、オプティカルフローベクトルの第二の部分集合(16)が、それぞれの検出された線(8、8−1〜8−4)に対し車両(2)と反対の側にあるオプティカルフローベクトルを表す、先行する請求項9乃至11のいずれか一項に記載の方法。
  13. 縁石を検出することが、検出された線(8,8−1〜8−4)全てについて、オプティカルフローベクトルのそれぞれの第一の部分集合(15)及びオプティカルフローベクトルのそれぞれの第二の部分集合(16)が同一の表面に属するかどうかテストすることと、オプティカルフローベクトルのそれぞれの第一の部分集合(15)及びオプティカルフローベクトルのそれぞれの第二の部分集合(16)が同一の表面に属する場合に縁石を検出することとを含み;
    縁石を検出することが、オプティカルフローベクトルの第一の部分集合(15)及びオプティカルフローベクトルの第二の部分集合(16)のテストに先立ち、オプティカルフローベクトルの第一の部分集合(15)及びオプティカルフローベクトルの第二の部分集合(16)のアウトライアを検出し、削除することを特に含む、請求項12に記載の方法。
  14. 縁石を検出することが、オプティカルフローベクトルの第一の集合(14)に基づき、特に、オプティカルフローベクトルの第一の集合(14)のインラインベクトルに基づき、特に、回転及び並進を含む適合大域的運動モデル(18)を少なくとも計算することを含み;
    縁石を検出することが、検出された線(8、8−1〜8−4)全てについてそれぞれの第一の部分集合(15)についての第一のノイズ分布(19)とそれぞれの第二の部分集合(16)についての第二のノイズ分布(19)を計算し、第一のノイズ分布(19)と第二のノイズ分布(19)の差が所定の閾値(X)を超える場合にそれぞれの線(8、8−1〜8−4)の位置に縁石を検出することを含む、請求項12又は13のいずれか一項に記載の方法。
  15. 縁石を検出することが、異なる時点において検出された縁石の位置とそれぞれの適合大域的運動モデル(18)とを保存することを含み;
    縁石を検出することが、保存された検出された縁石の位置とそれぞれの適合大域的運動モデル(18)とを結合してそれぞれの縁石のより強固な証拠を伴う縁石検出を実現することを含む、請求項14に記載の方法。
JP2015198538A 2014-10-10 2015-10-06 車両用画像認識システム、及び対応法 Active JP6670071B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP14188398.3 2014-10-10
EP14188398.3A EP3007099B1 (en) 2014-10-10 2014-10-10 Image recognition system for a vehicle and corresponding method

Publications (2)

Publication Number Publication Date
JP2016081525A true JP2016081525A (ja) 2016-05-16
JP6670071B2 JP6670071B2 (ja) 2020-03-18

Family

ID=51690891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015198538A Active JP6670071B2 (ja) 2014-10-10 2015-10-06 車両用画像認識システム、及び対応法

Country Status (3)

Country Link
US (1) US9846812B2 (ja)
EP (1) EP3007099B1 (ja)
JP (1) JP6670071B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020132153A (ja) * 2019-02-21 2020-08-31 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 情報処理方法、装置、記憶媒体、及びプログラム
US20230051270A1 (en) * 2020-02-25 2023-02-16 Hitachi Astemo, Ltd. Processing device

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016201304A1 (de) * 2016-01-28 2017-08-03 Robert Bosch Gmbh Vorrichtung und Verfahren zum Erfassen eines Randsteins in einer Umgebung eines Fahrzeugs sowie System zur Randsteinkontrolle für ein Fahrzeug
WO2017132278A1 (en) * 2016-01-29 2017-08-03 Faraday&Future Inc. System and method for camera-based detection of object heights proximate to a vehicle
US11270130B2 (en) * 2016-08-05 2022-03-08 Transportation Ip Holdings, Llc Route inspection system
KR101876353B1 (ko) * 2016-11-09 2018-07-09 현대오트론 주식회사 움직임 추정 장치 및 방법
US10430968B2 (en) * 2017-03-14 2019-10-01 Ford Global Technologies, Llc Vehicle localization using cameras
CN107180413B (zh) * 2017-05-05 2019-03-15 平安科技(深圳)有限公司 车损图片角度纠正方法、电子装置及可读存储介质
CN108961353B (zh) * 2017-05-19 2023-12-08 上海蔚来汽车有限公司 道路模型的构建
CN107316486A (zh) * 2017-07-11 2017-11-03 湖南星云智能科技有限公司 基于双摄像头的无人驾驶汽车视觉识别系统
CN107590462B (zh) * 2017-09-13 2020-11-20 淮阴工学院 基于模式识别与st-mrf相结合的交通流参数提取方法
US10522038B2 (en) 2018-04-19 2019-12-31 Micron Technology, Inc. Systems and methods for automatically warning nearby vehicles of potential hazards
DE102018109680A1 (de) 2018-04-23 2019-10-24 Connaught Electronics Ltd. Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen durch parallele zweidimensionale und dreidimensionale Auswertung; Steuereinrichtung; Fahrassistenzsystem; sowie Computerprogrammprodukt
DE102018127981A1 (de) 2018-11-08 2020-05-14 Connaught Electronics Ltd. Verfahren zum Bestimmen einer Höhe eines erhabenen Objekts, insbesondere eines Bordsteins; Steuereinrichtung; Fahrerassistenzsystem; sowie Computerprogrammprodukt
CN109598246B (zh) * 2018-12-07 2023-01-31 广东亿迅科技有限公司 车辆出入检测方法、装置、计算机设备和存储介质
CN109685035B (zh) * 2019-01-04 2022-02-15 深圳英飞拓科技股份有限公司 一种用于摄像机雨刷的自动触发方法
US11373466B2 (en) 2019-01-31 2022-06-28 Micron Technology, Inc. Data recorders of autonomous vehicles
CN111401114B (zh) * 2019-02-12 2023-09-19 深圳市艾为智能有限公司 一种基于受限光流场横穿物体检测装置的横穿物体检测方法
US10997737B2 (en) * 2019-05-02 2021-05-04 GM Global Technology Operations LLC Method and system for aligning image data from a vehicle camera
US11636334B2 (en) 2019-08-20 2023-04-25 Micron Technology, Inc. Machine learning with feature obfuscation
US11755884B2 (en) 2019-08-20 2023-09-12 Micron Technology, Inc. Distributed machine learning with privacy protection
US11613275B2 (en) * 2020-04-27 2023-03-28 Baidu Usa Llc Grayscale-based camera perception
CN114913447B (zh) * 2022-02-17 2023-06-30 国政通科技有限公司 基于场景识别的警务智慧指挥室系统及方法
CN115661366B (zh) * 2022-12-05 2023-06-02 蔚来汽车科技(安徽)有限公司 用于构建三维场景模型的方法和图像处理装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10208056A (ja) * 1997-01-16 1998-08-07 Honda Motor Co Ltd 直線検出方法
JP3580475B2 (ja) * 1998-09-14 2004-10-20 矢崎総業株式会社 周辺監視装置
US6396535B1 (en) * 1999-02-16 2002-05-28 Mitsubishi Electric Research Laboratories, Inc. Situation awareness system
US6535114B1 (en) * 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
EP1504276B1 (en) * 2002-05-03 2012-08-08 Donnelly Corporation Object detection system for vehicle
JP2005215985A (ja) * 2004-01-29 2005-08-11 Fujitsu Ltd 走行車線判定プログラムおよびその記録媒体、走行車線判定装置ならびに走行車線判定方法
WO2005125208A1 (ja) * 2004-06-15 2005-12-29 Matsushita Electric Industrial Co., Ltd. 監視装置および車両周辺監視装置
JP4650079B2 (ja) * 2004-11-30 2011-03-16 日産自動車株式会社 物体検出装置、および方法
JP2006268097A (ja) * 2005-03-22 2006-10-05 Nissan Motor Co Ltd 車載物体検出装置、および物体検出方法
JP4811201B2 (ja) * 2005-12-06 2011-11-09 日産自動車株式会社 走路境界線検出装置、および走路境界線検出方法
JP4676373B2 (ja) * 2006-04-27 2011-04-27 株式会社デンソー 周辺認識装置、周辺認識方法、プログラム
JP4797794B2 (ja) * 2006-05-24 2011-10-19 日産自動車株式会社 歩行者検出装置および歩行者検出方法
US8611585B2 (en) * 2008-04-24 2013-12-17 GM Global Technology Operations LLC Clear path detection using patch approach
US8751154B2 (en) * 2008-04-24 2014-06-10 GM Global Technology Operations LLC Enhanced clear path detection in the presence of traffic infrastructure indicator
JP5031801B2 (ja) * 2009-07-28 2012-09-26 日立オートモティブシステムズ株式会社 車載用画像表示装置
JP5441549B2 (ja) * 2009-07-29 2014-03-12 日立オートモティブシステムズ株式会社 道路形状認識装置
JP4970516B2 (ja) * 2009-09-30 2012-07-11 日立オートモティブシステムズ株式会社 周囲確認支援装置
JP5518007B2 (ja) * 2011-07-11 2014-06-11 クラリオン株式会社 車両用外界認識装置及びそれを用いた車両制御システム
EP2759999B1 (en) * 2011-09-21 2016-07-27 Honda Motor Co., Ltd. Apparatus for monitoring surroundings of vehicle
US10099614B2 (en) * 2011-11-28 2018-10-16 Magna Electronics Inc. Vision system for vehicle
DE102011056671A1 (de) 2011-12-20 2013-06-20 Conti Temic Microelectronic Gmbh Bestimmung eines Höhenprofils einer Fahrzeugumgebung mittels einer 3D-Kamera

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020132153A (ja) * 2019-02-21 2020-08-31 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 情報処理方法、装置、記憶媒体、及びプログラム
JP7220169B2 (ja) 2019-02-21 2023-02-09 アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド 情報処理方法、装置、記憶媒体、及びプログラム
US20230051270A1 (en) * 2020-02-25 2023-02-16 Hitachi Astemo, Ltd. Processing device
US11881034B2 (en) * 2020-02-25 2024-01-23 Hitachi Astemo, Ltd. Processing device

Also Published As

Publication number Publication date
US9846812B2 (en) 2017-12-19
US20160104047A1 (en) 2016-04-14
JP6670071B2 (ja) 2020-03-18
EP3007099A1 (en) 2016-04-13
EP3007099B1 (en) 2022-12-07

Similar Documents

Publication Publication Date Title
JP6670071B2 (ja) 車両用画像認識システム、及び対応法
Wu et al. Lane-mark extraction for automobiles under complex conditions
CN108027877B (zh) 用于非障碍区检测的系统和方法
KR102462278B1 (ko) 어떤 대상의 자기 동작 추정을 위한 방법
Zhou et al. Moving object detection and segmentation in urban environments from a moving platform
US9862318B2 (en) Method to determine distance of an object from an automated vehicle with a monocular device
Parra et al. Robust visual odometry for vehicle localization in urban environments
WO2020048285A1 (en) Estimating two-dimensional object bounding box information based on bird's-eye view point cloud
EP2757527B1 (en) System and method for distorted camera image correction
JP2017526082A (ja) 動作推定方法、移動体、およびプロセッサに動作推定方法を実行させるコンピュータプログラムコードでコード化された非一時的コンピュータ可読媒体
Llorca et al. Stereo regions-of-interest selection for pedestrian protection: A survey
TWI504858B (zh) A vehicle specification measuring and processing device, a vehicle specification measuring method, and a recording medium
WO2018049704A1 (en) Vehicle detection, tracking and localization based on enhanced anti-perspective transformation
KR20150112656A (ko) 카메라 캘리브레이션 방법 및 그 장치
TWI595450B (zh) 物件偵測系統
WO2014002692A1 (ja) ステレオカメラ
KR20210090384A (ko) 카메라 및 라이다 센서를 이용한 3d 객체 검출방법 및 장치
US20200226392A1 (en) Computer vision-based thin object detection
Jung et al. Object detection and tracking-based camera calibration for normalized human height estimation
US20220171975A1 (en) Method for Determining a Semantic Free Space
Romdhane et al. A generic obstacle detection method for collision avoidance
Diego et al. Vision-based road detection via on-line video registration
CN112837404B (zh) 一种平面对象的三维信息的构建方法及装置
García-García et al. 3D visual odometry for road vehicles
WO2022264533A1 (ja) 検知枠位置精度向上システム、及び検知枠位置補正方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200228

R150 Certificate of patent or registration of utility model

Ref document number: 6670071

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250