JP2011192226A - 車載用環境認識装置及び車載用環境認識システム - Google Patents

車載用環境認識装置及び車載用環境認識システム Download PDF

Info

Publication number
JP2011192226A
JP2011192226A JP2010060104A JP2010060104A JP2011192226A JP 2011192226 A JP2011192226 A JP 2011192226A JP 2010060104 A JP2010060104 A JP 2010060104A JP 2010060104 A JP2010060104 A JP 2010060104A JP 2011192226 A JP2011192226 A JP 2011192226A
Authority
JP
Japan
Prior art keywords
vehicle
region
environment recognition
image
recognition device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010060104A
Other languages
English (en)
Other versions
JP5320331B2 (ja
Inventor
Masayuki Takemura
雅幸 竹村
Shoji Muramatsu
彰二 村松
Isao Furusawa
勲 古沢
Shinya Otsuji
信也 大辻
Takeshi Shima
健 志磨
Yasushi Otsuka
裕史 大塚
Tatsuhiko Moji
竜彦 門司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2010060104A priority Critical patent/JP5320331B2/ja
Priority to US13/575,173 priority patent/US9064418B2/en
Priority to PCT/JP2010/063752 priority patent/WO2011114547A1/ja
Priority to EP10847956.9A priority patent/EP2549457B1/en
Publication of JP2011192226A publication Critical patent/JP2011192226A/ja
Application granted granted Critical
Publication of JP5320331B2 publication Critical patent/JP5320331B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】車両旋回時や、対象物が自車から近距離で画像上移動量が大きい場合であっても、高精度且つ安定的なトラッキングが実現できる車載用環境認識装置を提供する。
【解決手段】車載用撮像装置から取得した画像から予め記憶されたパターン形状を用いて対象物候補を抽出し、対象物候補の位置を出力する簡易パターンマッチング部120と、取得された画像が複数に分割された領域毎に異ならせて設定された対象物の変化量予測計算方法と、検出された自車両挙動情報と、入力された対象物候補の位置と、に基づいて、抽出された対象物候補の変化量予測を計算し、対象物の予測位置を出力する領域別変化量予測部160と、入力された対象物の予測位置に基づいて対象物をトラッキングするトラッキング部170と、を有する。
【選択図】 図1

Description

本発明は、車載カメラによる自車両の環境認識装置及びそれを用いたシステムに関する。
近年、乗用車などの車両の周囲環境を認識するカメラの開発が進められている。これらの技術では2次元のセンシングが可能なカメラの特徴を活用し、物体の形状情報を利用した認識や、物体と背景の動き差分を利用した認識手法が開発されている。
特許文献1では、車載カメラで撮影された画像から対象物、例えば他車両を認識し、この他車両上にある特定点の動きを自車挙動に基づいて予測することで高精度なトラッキングを実現する。この手法は対象物体を認識することで、対象物体中に存在する特定点の高さを定義することで、画面上を動く特定点の予測を実施している。
特開平11−317939号公報
配光制御を実施するための夜間車両検知を考慮すると、ヘッドライト、もしくはテールライトといった点光源の情報のみから車両検知を行う必要がある。また、ライト制御を安定的に実施するためには、安定的な車両の検知が重要となる。安定的に車両を検知するためには、誤検知要因の判定と、車両検知の判定も安定的に行う必要があるため、ノイズを含めた光源のトラッキングが重要な課題となる。
特許文献1では、昼間を想定しているため車両の形状情報などさまざまな情報が利用できるため、対象物体を認識後に特定点の高さを定義することで適切なトラッキングが実施できる。しかし、夜間に点光源のみから車両かどうかを判定することは困難である。2輪車や、道路の反射板,自販機などの光源,街灯などさまざまな誤検知要因が存在するため、これを点光源の形状情報のみから判定することは困難である。
よって、この従来構成では、トラッキング対象が何であるか判定しなければ、特定点の高さを定義できないため、自車挙動を利用した適切なトラッキングを実施することは困難であった。また、一般的な画像上でのトラッキング手法では、自車の近距離にある光源や旋回時などは、画像上の移動量が大きくなりトラッキングが困難である。
本発明の目的は、車両旋回時や、対象物が自車から近距離で画像上移動量が大きい場合であっても、高精度且つ安定的なトラッキングが実現できる車載用環境認識装置及び車載用環境認識システムを提供することである。
本発明の車載用環境認識装置及び車載用環境認識システムは、上記課題を解決するために、車載用撮像装置から取得した画像から予め記憶されたパターン形状を用いて対象物候補を抽出し、対象物候補の位置を出力するパターンマッチング部と、取得された画像が複数に分割された領域毎に異ならせて設定された対象物の変化量予測計算方法と、検出された自車両挙動情報と、入力された対象物候補の位置と、に基づいて、抽出された対象物候補の変化量予測を計算し、対象物の予測位置を出力する領域別変化量予測部と、入力された対象物の予測位置に基づいて対象物をトラッキングするトラッキング部と、を有する構成とする。
車両旋回時や、対象物が自車から近距離で画像上移動量が大きい場合にも、高精度かつ安定的なトラッキングを実現する車載用環境認識装置及び車載用環境認識システムを提供できる。
本発明に係る車載用環境認識装置の一構成例を示す図である。 本発明の車載用環境認識装置が搭載された車両構成を示す図である。 本発明の車両挙動情報部の一構成例を示す図である。 本発明の領域設定部及び領域別変化量予測部の一構成例を示す図である。 本発明の領域別変化量予測部の一構成例を示す図である。 本発明の低層,高層の領域別変化量予測部を説明する図である。 本発明の中層の領域別変化量予測部を説明する図である。 本発明のレーン認識結果に基づく動的領域変更を説明する図である。 本発明の道路構造に基づく動的領域変更を説明する図である。 本発明の車速を利用した直進移動量予測を説明する図である。 本発明の舵角に基づくヨーレート予測を説明する図である。 本発明の路面上静止物判定を説明する図である。 本発明に係る車載用環境認識装置の他の構成例を示す図である。
発明を実施するための形態について以下図面を用いて説明する。
<実施例>
本説明では、車両のヘッドライト制御に利用する車載カメラによる夜間車両検知を実施する車載環境認識装置の一例について説明する。特に本実施例では、先行車両のテールライトを検知する場合に絞って、そのノイズ要因削除の効果について説明するが、テールライトに限らず対向車両のヘッドライトでも同様の効果を示す。また、ライトに限らず、街灯や標識,信号機といった物体の認識にも同様に応用可能である。
図1に、本実施例の車載環境認識装置の構成を示す。車載用撮像装置である車載カメラ100と、車両挙動情報部250の2つから構成される。車載カメラ100は、画像取得部110と、簡易パターンマッチング部120と、領域設定部130と、領域別変化量予測部160と、トラッキング部170と、物体判定部190から構成される。
まず、画像取得部110において撮影した画像を取り込む。
次に、簡易パターンマッチング部120で、取得した画像上の点光源を見つけるために、着目画素と周囲の輝度値を比較し、着目画素が周囲の画素と比較し輝度値が閾値以上に高い場合に着目画素は点光源候補であると判定する。つまり、簡易パターンマッチング部120は、車載用撮像装置である車載カメラ100から取得した画像から予め記憶されたパターン形状を用いて対象物候補を抽出し、その対象物候補の位置を出力するパターンマッチング部である。
他手法としては、車載カメラ100として設置されたカメラの焦点距離などの内部パラメータや、カメラ俯角,位置などが既知であれば、ある程度の認識対象の絞込みが可能である。例えば、自車両近距離領域である画像の端の部分に小さく存在する赤色高輝度領域は、ノイズである可能性が高い。このように高輝度領域の大きさと輝度,赤色の色相とに閾値を定めて車両テールライトを不検知としないような簡易パターンマッチングを実施してもよい。
次に、領域設定部130では、領域別変化量予測部160での計算手法別に領域を設定する。
本実施例では、路面付近の物体を対象とした低層と、消失点付近を左右で分割し車両,自動販売機などが対象となる中層左,中層右と、街灯や信号機,標識などを対象とした高層とに分割する。基本的に消失点を含む領域(第1の領域)と、それ以外の第1の領域とは異なる領域(第2の領域)と、に分割して複数の領域を設定できれば、どのように画像領域を分割しても良い。言い方を変えれば、領域設定部130で設定される複数の領域は、第1の領域を消失点を中心に2つに分割された中層左領域及び中層右領域と、第2の領域において第1の領域に対して垂直方向の一方側に設定された低層領域と、第2の領域において第1の領域に対して垂直方向の他方側に設定された高層領域と、である。簡易パターンマッチング部120の結果として得られた点光源候補に対して、各点光源候補が属する領域の領域フラグを各点光源候補に付加して出力する。
領域別変化量予測部160では、各点光源候補が属する領域フラグ別に変化量(光点の移動量)の予測計算を実施する。具体的には、領域別変化量予測部160は、車載カメラ100で取得された画像が複数に分割された領域毎に異ならせて設定された対象物の変化量予測計算方法と、検出された自車両挙動情報と、入力された対象物候補の位置と、に基づいて、抽出された対象物候補の変化量予測を計算し、対象物の予測位置を出力する。簡易パターンマッチング部120で抽出された画像位置から、カメラの高さや俯角を利用して3次元位置の推定計算を実施し、各点光源候補に予測位置を付加して出力する。この際に、カメラから3次元位置を推定するためには、3次元的な制約条件を付加する必要がある。
本実施例では、領域設定部130で設定された領域別にこの条件を変える。これにより低層では第一の計算手法、中層左では第二の計算手法、中層右では第三の計算手法、高層では第四の計算手法を実施し、画面全体で認識対象物体が何であるかの判別前から高精度なトラッキングを実施する。
トラッキング部170では、簡易パターンマッチング部120で得られた現周期の点光源候補と、領域別変化量予測部160で前周期の点光源候補から現周期を予測さした変化量を利用することでトラッキング、いわゆる追跡を実施する。つまり、トラッキング部170は、入力された前記対象物の予測位置に基づいて対象物をトラッキングする。また、連続して自車挙動と同様の動きをする物体については、この物体の高さを解析することが可能である。
物体判定部190では、上記低層と分類された物体において路面上の高さを仮定した場合における変化量予測計算の結果と毎フレームごとに類似した場所でトラッキングが成立する場合、その点光源候補は路上静止物体である可能性が高い。これは路上に置かれた赤く反射する三角板、もしくは、歩道のキャッツアイなど、誤検知要因である可能性が高いということに等しい。このため、物体判定部にて、非移動物体として、フラグを持たせる。
物体判定部190では、路上静止物体と判定されなかった物体に対して、ここでは車両のライトかどうかの判定を実施する。まず、上記路上静止物体の類似度が、予め定めた閾値thr1以下を候補として、ペアとなる候補が存在するかを検索する。車両のライトが水平にならんでいることから、トラッキングに成功し類似度を持った候補の、画像上の高さ方向の差分が小さいところで並んでいるかについてチェックする。また、左右ライトのラベリング結果の面積差分が小さいか、色相についてもチェックし、同一車両の左右ライトの組み合わせかどうかを判定する。同一車両と判定された場合には、4輪車両として判定する。反対に、ペアが存在しなかった候補に対しては、予め定めた閾値thr2より類似度が高ければ、路上静止物体と判定し、低い物体に対しては2輪車両のテールライトであると判定する。つまり、物体判定部190は、トラッキング部170にて対象物をトラッキングした結果に基づいて、対象物が路上静止物体か否か判定し、対象物が路上静止物体ではないと判定された場合、トラッキングした結果に基づいて、対象物が車両のテールライトか否かを判定する。
図2に、車両搭載の車載環境認識装置の配置図を示す。車載カメラ100本体に画像処理機能を内蔵している場合の構成を示す。
また図3に示すように、車両挙動情報部250は、自車両の速度(車速)を計測する車速センサ261と、ハンドルの操舵角度を計測する操舵角センサ262と、車両の操舵に基づく回転速度を計測するヨーレートセンサ263と、これらの各センサから入力された車両挙動情報を基に車両挙動を制御する車両制御部である車両ECU(車両エンジンコントロールユニット)260と、を有する。但し、車両挙動情報部250で取得した車両挙動情報は、自車両の速度,操舵角,ヨーレートの少なくとも1つであればよい。車両ECU260は、入力された車両挙動情報を車載カメラ100へ出力し、車載カメラ100で環境認識を実施する。配光制御の実施例では、車両挙動情報を利用することで、高精度かつ安定的にトラッキングを実施し、夜間の車両のライトを検知する。車載カメラ100で検知された結果を車両ECU260へ出力し、車両ECU260は、その結果に基づいて自車両のライトのハイビーム,ロービームを自動制御する信号を生成する。
図4に領域設定部130、及び領域別変化量予測部160の詳細を示す。
本実施例では、領域設定部130への入力は図1に示すように簡易パターンマッチング部120の結果の点光源候補のみであった。しかし、図4に示すように、車載カメラ100で撮像した画像に基づいてレーン認識をする画像処理部内のレーン認識部210や、地図情報を取得するカーナビ部220や、上述した車両挙動情報部250からの情報を入力として、動的に処理領域を変更するような領域設定部130でも良い。これは、消失点を、取得した画像からレーン認識部210でレーン認識処理した結果に基づいて算出したり、カーナビ部220で取得した地図情報から算出したりもできる。
図4は図1の一部の構成を詳細に示している。領域設定部130では、簡易パターンマッチング部120より得られた点光源候補に対して、設定した複数の領域(本実施例では、低層160a,中層左160b,中層右160c,高層160d)に対して、どの領域に属するか領域フラグを持たせて出力する。この領域フラグを持った点光源候補が、領域別変化量予測部160の入力となり、この領域フラグに応じて異なる計算手法により、領域別の光点の変化量予測を実施する。なお、動的処理領域の設定変更の詳細は、図8,図9にて後述する。
図4の領域設定は、図6(a)に示す画像例のように、画像上の消失点を基準として、垂直方向に3つに区分する。この場合、消失点を含み上下にマージ幅をもたせた領域を中層とし、その中層を真ん中に挟んで、垂直方向に低層160aと高層160dに分割した。また、消失点を基準として左右に中層を分割して中層左160bと中層右160cとし、領域を4分割にした。本実施例では、固定4分割を想定しているが、カメラの設置角度によっては、そもそも消失点より上部がほぼ画面外であるなど、領域の分割方法が異なっても良い。また、分割領域が動的に変化しても良い。このように領域を分割し、その領域内で検知された点光源候補は、その領域の領域フラグを持って領域設定部130の出力とする。
領域別変化量予測部160は、上記領域設定部130から得られた点光源候補とその領域フラグの結果に応じて、領域別変化量予測計算を実施する。
図6(a)(b)に示すように、低層160aでは、路面から高さ50cm以内に対象物体が存在すると仮定して、変化量予測を実施する。中層左160b,中層右160cでは、道路に沿って垂直に壁があると仮定して変化量の予測計算を実施する。高層160dでは、高さ3m〜5mに天井があると仮定して変化量の予測計算を実施する。これはそれぞれの領域別(低層160a,中層左160b,中層右160c,高層160d)に、それぞれの構成要素(低層160aは、領域別3次元位置推定部161a,領域別3次元位置予測部162a,領域別画像位置推定部163a)を持つ。
図5は、図4に示す領域別変化量予測部160の中の低層160aに着目して、構成の詳細を記す。図5では、中層左160b,中層右160c,高層160dを省略しているが、詳細構成は図5の低層160aの場合と同様である。
図5の領域別変化量予測部160の低層160aでは、領域別3次元位置推定部161aにおいて2次元画像座標における点光源候補画像位置から自車両重心を原点とした3次元の車両座標系における点光源候補の3次元位置を推定する。詳細には、領域別変化量予測部160は、低層160aにおいて、簡易パターンマッチング部120から入力された2次元画像座標における対象物候補の画像位置から自車両重心を原点とした3次元の車両座標系における対象物候補の3次元位置を推定する領域別3次元位置推定部161aと、自車両挙動情報と、領域別3次元位置推定部161aにより得られた車両座標系における対象物候補の3次元位置の推定結果と、に基づいて、所定周期後の対象物の車両座標系における3次元位置を予測する領域別3次元位置予測部162aと、その領域別3次元位置予測部162aで予測された3次元位置の予測結果から画像座標に変換し、対象物の画像位置を算出する領域別画像位置予測部163aと、を有する構成とする。
次に、車両挙動情報部250から車速,操舵角,ヨーレートの情報を入力として、車両挙動を予測する。
直進量予測部165では、車両の直進による移動成分を予測し、ヨーレート予測部166では、操舵によるヨーレートを算出する。直進量予測部165とヨーレート予測部166を別々に構成することにより、操舵角センサ262やヨーレートセンサ263など車両の旋回情報が得られないような車両の場合にも、直進時であれば直進量予測部165の結果のみを用いて対応可能な構成とする。
直進量予測部165とヨーレート予測部166により得られた車両挙動予測と、領域別3次元位置推定部161aにより得られた車両座標系における点光源候補の3次元位置推定結果を利用して、N周期後の対象物体の車両座標系における位置を領域別3次元位置予測部162aにて予測する。得られた3次元位置予測結果を、領域別画像位置予測部163aにて再度画像座標に戻し、トラッキングの指標とする。
直進量予測部165とヨーレート予測部166は、処理領域に限らずすべて共通の構成とする。領域別の3次元位置推定部と3次元位置予測部,画像位置予測部については、後ほど詳細を示す。
変化量予測計算において、画像座標に戻さずにお互いに3次元座標に変換してトラッキングする方法もありうるが、車載カメラ100が単眼カメラの場合には、遠方に行くほど距離の分解能が低下する。このため追跡対象かどうか判定する際に、1m以内の誤差であれば追跡対象であると固定値で判定すると、遠方では予測と1pixでも差があれば追跡対象にならず、近傍では反対に50pixずれていても追跡対象として判定する可能性があり、単純に固定距離閾値によって判定することは困難である。
実際に遠方では距離分解能が低下するため、遠方に行くほど距離推定誤差が大きくなる。このため予測3次元位置にも同様に、遠方に行くほど大きくなる誤差が存在する。追跡対象かどうかの判定に3次元位置を利用する場合には、誤差の大きさ変化も考慮した閾値とする必要がある。もしくは、本実施例の図6(a)(b)に示すように、画像位置予測部163aにて3次元予測位置を画像座標に再計算した結果を利用して画像座標上で判定する方が、遠方であるほど低下する距離の分解能を考慮した閾値を自然と設定できるために、遠方近傍で安定した類似度の評価を実施できる。
次に、図10に示す車速を利用した直進移動量予測について説明する。
図10に記載の式(1)に示すように、時刻tにおける、ある点光源候補の画像座標を(ut,vt,l)で示し、3次元の車両座標系における位置を(Xt,Yt,Zt,l)と示す。
車載カメラ100のレンズ中心に原点を置いた3次元のカメラ座標系と画像座標系の関係をカメラ内部パラメータ行列によって表現する。カメラ内部パラメータ行列は、焦点距離,撮像素子の単位長,撮像素子のなす角度,画像中心から構成され、3次元のカメラ座標と画像座標の対応関係を記述することができる。
次に、カメラ座標系と車両座標系の変換をカメラ外部パラメータ行列に示す。カメラ外部パラメータ行列を算出するために、まず、路面からのカメラ高さ、更にカメラ俯角を画像上の消失点から算出し、カメラ外部パラメータを設定した。これらのカメラ内部パラメータとカメラ外部パラメータを利用することで、3次元の車両座標と、2次元画像座標の関係を式(1)に示す。
カメラ内部パラメータは設計値をベースに設定したが、予めキャリブレーションした結果を利用しても良い。また、カメラ外部パラメータについては設計値のカメラ高さと画像上の消失点の結果より算出した。レーン認識の結果を利用することで逐次的に消失点を更新することで、外部パラメータも更新させ、より高精度に3次元座標との変換を行っても良い。
上記より、図10の式(1)に示すように車両座標系から画像座標系の変換が可能となる。ただし、式(1)のままでは、2次元の画像座標から3次元の車両座標系への変換を一意に算出することができない。そこで、3次元的な制約条件をつけることによって、この変換を一意に行う。この3次元的な制約条件のつけ方が、上記の領域設定部130で設定された領域ごとに異なる。
例えば、式(1)において画像上の物体は路面上に存在するとの制約条件を仮定すると、画像座標(ut,vt,l)と、車両座標の高さ成分Ytが既知の条件となり、式(1)において未知の変数はXt,Ztのみとなり、横位置Xt,奥行きZtを算出することが可能となる。算出した点光源候補の車両座標系における3次元位置(Xt,Yt,Zt,l)に、自車の車速CarSpeedで次周期に予想される移動量Vmを加えて車両座標系における予測位置(Xt,Yt,Zt−Vm,l)を設定する。これにカメラ外部,内部パラメータ行列を掛けることで現周期における画像座標(ut+1,vt+1,l)を予測する(式(2)参照)。
次に、ヨーレート予測について、図11に示す2輪モデルにおいて入力を舵角とした場合のヨーレート算出のための式(3)を以下に示す。本実施例では、操舵角δ,車速Vを入力としヨーレートを算出した。
Figure 2011192226
なお、lfは重心から前輪までの距離、lrは重心から後輪までの距離、mは車両質量、Vは車速、Kfは前輪のタイヤコーナリングパワー、Krは後輪のタイヤコーナリングパワー、δは前輪舵角、βは車体スリップ角、γはヨーレートである。
操舵角δを入力とし、右辺の変数はδ以外全て既知となるためヨーレートを算出することが可能となる。この算出されたヨーレートを基に、車両が曲がることによる画像上での点光源候補の移動量を算出する。これにはカメラの画角や画素数などカメラの仕様が既知であれば算出可能である。
ヨーレートセンサ263が搭載されている車両ではヨーレートを直接利用しても良いが、より精度が高く安定しているデータを利用する方がよい。車両のヨーレートが算出されれば、操舵時にカメラが横方向に動く回転角速度がわかるため、ここから予測する1周期後までに変化するヨー角分の画像移動量を予測することができる。
本実施例では、物体認識前のトラッキングに利用することも想定しているため、路面上に物体が存在するか不明な状態での移動予測にも利用したい。このため本実施例では、3次元的な制約条件に幅を持たせて画像上の予測位置を計算することで、幅を持った画像上の位置を予測し、その範囲内をトラッキングすることで安定的なトラッキングを実現する。
<領域別トラッキング>
次に、トラッキング部170における領域別のトラッキング手法について述べる。前述の通りの領域設定に対応させて説明する。
配光制御では、自車両ヘッドライトの制御のためにも、安定的な車両の検知が重要な要素となる。このため、ノイズ要因も含めて点光源候補を安定的にトラッキングすることで、点光源に対する認識結果が時系列にできる限り変化しないようにする。夜間車両検知では、形状特徴が非常に少ない点光源から車両を認識する必要があるが、簡易パターンマッチングのみで、車両かどうか判定することは困難である。
特に2輪車の検知をも対象とすると、点光源が左右に2つあるという条件の光源のみを対象とすることも困難となる。また、ノイズ要因含めてトラッキングすることを考慮すると、点光源候補が車両かどうか判定前にトラッキングすることが望ましい。点光源候補をトラッキングすることが可能となれば、一部の点光源は画像上での動きから点光源候補が移動体か静止物かの判定が可能となる。また、トラッキングできていれば、時系列の結果を利用した安定的な認識判定も可能となる。このため点光源の認識判定前にトラッキングできることが重要である。
まずは、図6(a)の低層160aの場合について説明する。
車載カメラ100で撮影された画像の消失点よりマージ幅をもった中層より下の領域を低層160aの領域に設定している。この領域には、対向車や先行車のライト以外にも、三角板や反射板など背の低い光源が入ってくる。
低層160aの場合の領域別変化量予測部160の変化量予測計算について詳細を説明する。
図6(b)に示すように、車載カメラ100の高さが路面より高さ120cmにあり、点光源が50cm〜0cmの間に存在すると仮定し、変化量予測計算を実施する。まず、低層160aに属する点光源候補の画像座標から、点光源候補が存在するであろう車両座標系における3次元位置を推定する。前述の、図10の式のままでは2次元画像座標から3次元車両座標系を一意に定めることができないため、3次元的な制約条件を付加する。低層160aでは、図6(b)に示すように、画像上の低層160aの領域に属する点光源は、50cm〜0cmの間に存在するという仮定を利用する。静止物体の場合、3次元の車両座標系において自車速分移動距離だけ自車量搭載の車載カメラ100に物体が接近することになる。この移動距離を図6(b)の高さ50cm,0cmに示す太矢印で示す。3次元的に同じ移動距離であっても車載カメラ100から点光源候補が近距離の高さ50cmにある場合が、画面上での移動量が大きくなり、離れた高さ0cmにある場合が画面上での移動量が小さくなる。そこで、高さ50cmと仮定した場合の3次元位置と高さ0cmと仮定した場合の車両座標系における3次元位置を領域別3次元位置推定部161aにて推定する。
図6(a)の低層領域において下三角▽は、前回値画像座標を示す。この前回値の点光源候補画像座標をベースに、領域別3次元位置推定部161aにて推定された3次元位置を示す。自車挙動による1フレーム後の移動先を予測するため、予測移動量は、直進成分は直進量予測部165から回転成分はヨーレート予測部166から得る。図6(a)に高さ50cmの場合の3次元予測位置を四角□で示し、高さ0cmの場合の3次元予測位置を丸○で示す。カメラから近距離の平面を仮定した方が、画像上の動きが大きいと予測され、車載カメラ100から遠距離の平面を仮定した方が、画像上の動きが小さいと予測される。このため、路面上0cmから50cmに存在するであろう追跡対象物は、図6上に示す路面仮定の画像上予測座標○と0.5m仮定の画像上予測座標□の間に、存在すると考えることができる。
ただし、低層160aでは静止物体のみではなく、移動体についてもトラッキング,追跡したいので、実際には、自車速移動距離に加えて、他車両の移動分を加算する必要がある。簡易パターンマッチング部120において、対象物の色を解析することで、赤色のテールライトか、ヘッドライトか解析することは可能である。つまり、簡易パターンマッチング部120は、車載カメラ100で取得した画像から対象物の色を解析し、解析結果から、対象物が先行車か対向車かを判定することが可能である。このため、対象光源が赤色であれば先行車両と仮定し、対象光源が白色であれば対向車両であると仮定して、他車両の挙動の範囲を定義する。これにより赤色の光源であれば、自車車速40kmで走行中であれば、先行車両は0〜60kmのいずれかの速度で走行中であると仮定して、トラッキング検索範囲の予測計算を実施する。先行車両の速度がレーダーもしくは、毎回の画像処理結果などから得られている場合には、先行車両推定車速に範囲を持たせても良い。例えば先行車両車速が35kmと推定されていた場合には、25km〜45kmの間であるとの仮定で予測計算を実施してもよい。
実際に画像上で、過去の点から動きうる範囲を予測計算において算出することで、トラッキング対象を探す領域を限定する。これにより計算負荷を軽減するだけでなく、誤トラッキングを抑制することに成功した。
高層160dは、信号機や街灯,看板などの背の高い光源を追跡したい。計算方法は、低層160aとほぼ同様であり、車載カメラ100よりも背の高い位置、3mから5mに同様に路面と水平な平面を仮定し、ここと交差する位置で予測計算を実施する。
次に中層左160b,中層右160cについて説明する。
中層左160bと中層右160cは、処理が対称なので、ここでは図7(a)に示された右側だけを説明する。車載カメラ100の高さと同じ高さにあるような光源や遠方にある光源は、中層左160bもしくは中層右160cの領域に撮像されている。この中で、特に画像中の端に近い部分には、自車両から近距離にいる光源が撮影されやすく、画面上の移動距離が大きくトラッキング困難である。
カメラ高さと同じような高さの物体は、低層160aや高層160dの場合のように路面と水平な平面を仮定しても、中層では3次元位置推定計算の精度が悪くなる。そこで、第2の領域である中層左160b、もしくは中層右160cでは、図7(b)(c)に示すように左右に道路に沿って垂直な壁があると仮定し、その平面との交点を計算することで3次元位置の予測推定計算を実施する(中層の変化量予測計算方法)。中層右160cの領域別3次元位置予測部162cでは、自車両右側の近距離1mと遠距離4mに垂直な壁があると仮定して、予測計算を行う。
図6(a)の予測結果に示すように、近距離1mに点光源が有る場合の方が画像上の移動量が大きく近距離1m予測座標を○で示す。遠方にいるほど動きが小さくなり、遠距離4mの予測座標を四角□で示す。予測のための基となった点光源候補の前回値画像座標を下三角▽で示す。このように、前回値の点光源候補を基として、画像上の移動予測,遠距離□と近距離○の画像座標を算出し、これを探索範囲として、トラッキング探索時の絞込みに利用する。
つまり、領域別変化量予測部160は、対象物の変化量を予測する場合、対象物と車載撮像装置である車載カメラ100の高さ、又は対象物の移動する範囲を制限して予測する。
更に、簡易パターンマッチング部120により判定されたトラッキング対象が先行車両か対向車かの結果に基づいて、自車挙動と他車挙動の速度範囲で画像上移動量の予測計算を実施する。このように、対象物体が未知の状態でも、認識対象をより精度良く、また効率的にトラッキングするための指標として、上記のような領域別に画像上における次フレームの画像位置を推定する。
<動的な領域変更>
次に、領域設定部130において分割された領域は、図4や図8に示すように、消失点の動きを動的に求める手法の一つとしてレーン認識部210のレーン認識結果を利用してもよい。レーン認識により求められた消失点位置が画面上下方向に動いた場合の領域の動的な変更を図8に示す。
消失点が画像上で上に移動すると、これに合わせて領域の分割も画面上に移動していることが確認できる。このように消失点位置の変化に基づいて、低層160a,中層左160b,中層右160c,高層160d、の画像上高さ方向に領域を変更しても良い。
また、図9(a)に示すような道路の曲がり具合を車載カメラ100によるレーン認識部210のレーン認識により検知可能な場合に、図9(b)に示すように道路の曲がりぐらいに沿った道路に垂直な壁を定義することで中層左160b、もしくは中層右160cの予測計算を実施しても良い。また、道路の曲がり具合に応じて、左右に定義した壁と交わる領域が変化するため、図9に示すように中層左160b,中層右160cを図8の状態から動的に変化させても良い。
<静止物判定>
本実施例では、前述の計算手法を利用して路面上もしくは高さが既知である静止物体であれば、自車挙動のみによる相対位置姿勢の変化が起こることを利用して、点光源候補が領域別予測変化量とどの程度一致するかを判定し、一致する場合にはカメラとの高さが既知である平面上に存在する静止物体と判定する。
本実施例では、従来は難しかったパターンマッチングのみでは十分にノイズ除去ができないような単純形状、もしくは点光源のような物体を認識する場合に、画像上におけるパターンのみではなく、これを時系列に観測しトラッキングした場合に、その位置や面積の変化が静止物体だと予測した結果との類似性を観測することで、認識対象である静止物体かどうかの判定を行う。
前周期の点光源候補から、次周期FrmTにおける画像上の位置を予測する。
図12左側が点光源候補の前周期FrmT−1の画像座標を示し、右側が点光源候補から予測した現周期FrmTにおける予測座標を示している。路面仮定の場合の予測座標を○で示し、0.5m仮定の予測座標を□で示す。点光源候補が路面上に存在する静止物体であれば、路面仮定の予測座標○の近くでトラッキングが毎回成立することとなる。この性質を利用して、時間方向に観測することで静止物であるかどうかの判定を物体判定部190で実施する。
夜間テールライトの検知の場合に、路上静止物体と判定されると、それは路上にある反射板もしくは三角板である可能性が高いので、これは車両のテールライトでないと判定する。
このように4輪車両の左右ライトの組み合わせがなくとも、ノイズ要因となる路面静止物体の除去が可能となる。このため従来手法では、2輪車両に対応しようとすると、どうしても誤検知が増えるような状況であったが、本実施例を実施することでノイズ削減に大幅に成功し、2輪車両の検知も可能とした。
遠方にある検知候補などは、画像上の動きが小さくそもそも判定が困難な場合があるが、より長い時間の予測を利用することで小さな動きを大きな動きとして判定することが可能となり、静止物か否か判定が可能となる。ここでは、1周期過去のデータより現周期の予測を行っているが、これがn周期過去データや、1,2,4周期過去データのように複数データから予測を行って路上静止物体の動きと一致するかを確認してもよい。このようにトラッキングを高精度,高効率的に行うだけでなく、静止物体かどうかの判定に利用しても良い。
遠方では面積変化が認識できない程度であるのに対し、近傍のトラッキングの予測結果では、面積予測結果が画像上で増加していることが確認できる。面積変化の予測には、画像上の縦、もしくは横、もしくは両方の4隅、もしくは対角線など、候補領域を囲む2点以上を利用することで、その拡大率を算出してもよい。ここでは、面積と予測位置の両方を利用しているが、予測位置のみの判定でも良い。
<移動体トラッキング最適化>
また、点光源候補が移動体であってもトラッキングしたい。まずは、点光源候補が白色か赤色かの判別結果に応じて、移動体が対向車か先行車か判別する。この判別結果に応じて、対向車であれば、自車両に近づいてくる方向に車速が一般道であれば最大60kmから0kmと仮定し、先行車であれば自車速と同方向に60kmから0kmと仮定する。
図12に白色光源であった場合の、トラッキングの例を示す。トラッキングの探索範囲は、画像上でもっとも動きが小さい場合と、大きい場合の間となる。点光源候補の動きが最も小さい場合は静止物体の場合であり車速0kmである。反対に最も動きが大きい場合とは、対向車車速が60kmの場合である。ここで更に、路面上からの高さの仮定も考慮すると、最も動きが小さい場合とは路面仮定静止物体予測座標であり、最も動きが大きい場合とは高さ50cm仮定、対向車速60kmの予測座標である。
これが図12に示す2点の予測座標であり、ここで予測された2点の間で、輝度や形状が似ている光源が存在しないかを探索する。このときに路面上静止物体であると仮定した予測位置周辺に毎フレームごとに認識対象が見つかる場合、路面上静止物であるとの判定を実施し、配光制御には利用しない、ノイズ要因であると判定する。
<別ハード構成>
図13に、本発明の車載用環境認識装置の他の構成例を示す。
図1と比較し、画像取得部110を含む車載カメラ100から画像処理部が外部のカーナビ部220へ出たハード構成である。基本的に、図1の構成の画像取得部110以外の画像処理がカーナビ部220へ移った構成、つまり上述しました簡易パターンマッチング部120,領域設定部130,領域別変化量予測部160,トラッキング部,物体判定部190を有する車載用環境認識装置を車載撮像装置である車載カメラ100からカーナビ部220のCPUに設けた構成であり、カーナビ部220に移った各画像処理は、図1のものと変わらない。以下簡単に説明する。
画像処理のための画像が常に車載カメラ100の画像取得部110からカーナビ部220へ入力される。入力された画像を基に簡易パターンマッチング部120にて簡易パターンマッチングを実施し、点光源候補を抽出、次にこの点光源候補が属する領域を領域設定部130で領域フラグとして持たせる。この点光源候補及び領域フラグを入力とし、領域別変化量予測部160で領域別変化量予測を実施することでトラッキング探索範囲を決定する。車両挙動情報部250はカーナビ部220内の領域別変化量予測部160へ入力している。この結果、各点光源候補と予測位置を基にしてトラッキング部170にてトラッキングを実施する。このトラッキングの結果と、予測位置を基にして物体判定部190において物体判定を実施する。
<配光制御実施例>
これまで説明した車載用環境認識装置の出力を用いて配光制御を行う実施例について説明する。
これまで夜間の移動体検知を説明してきたが、上記説明より移動体の点光源と静止物体の点光源を分類し、移動体の点光源に応じて、自車両のライトを自動制御する。
つまり、物体判定部190から出力された物体判定結果に基づいて、自車両のライトの配光を制御させる。これにより、トラッキングを高精度かつ安定的に実現できるため、ライトの自動制御も安定的に行うことができる。
<LDW実施例>
これまで説明した車載用環境認識装置の出力を用いてLDW(Lane Departure Warning:車線逸脱警報)制御を行う実施例について説明する。
これまで説明した配光制御用の夜間車両検知との差分について記す。LDWでは、北米ロサンゼルス近郊の道路に多く存在するボッツドッツと呼ばれる道路鋲によるレーンマークを精度良く検知するために応用した。
図1に示すようにシステム構成は同様であり、画像取得部110において取得した画像を利用し、簡易パターンマッチング部120にて中心の輝度が高い半径5cm程度の道路鋲を検知するためのパターンマッチングを実施する。次に、上記パターンマッチングの結果を、変化量予測部にて推測された結果に基づいてトラッキングする。変化量予測部では、路面上に存在するボッツドッツであれば、自車挙動に合わせて画面上でどの程度の位置と大きさが変化するかを予測し、逐次的に予測と一致するか解析することで、路面上静止物体であるかの判定を実施する。
自車挙動に基づいてトラッキングが成功している場合にのみ、路面上静止物体でありレーンマークの特徴量として認められる構造なので、太陽光による路面の反射のちらつき、周囲の移動体からの反射、例えば他車両のホイール部分の反射,トラックの金属部などのレーンマークと間違えやすい形状に画像上で見える物体などの誤検知要因を除去することが可能である。上記、誤検知例では、ちらつきはそもそもトラッキングできず、他は移動物体であれば、予測方向に移動しないため、トラッキングできずノイズとして削除される。レーン認識の場合には、物体判定部190において画面上に直線に並ぶレーンマークを抽出する処理が入るため、多少のノイズであれば残っていても大きな問題にならない。
<街灯検知>
配光制御のために街灯の有無を検知し、自車両が市街地を走行しているかを判定する。
市街地走行であれば、ハイビームをやめるなど自車両のライト制御に利用する。街灯は、撮像画面の高層領域に入ってくる可能性が高いが、その高さ自体は不明である。このため上層では、高さ3mから5mのように高さの範囲を定義し、この定義に基づいてトラッキングを実施する。遠方の街灯が中層に入ることはあるが、遠方にある街灯の場合のみであり、画像上の移動量が大きくないため中層左、もしくは中層右における3次元推定計算でも、トラッキングを実施するための指標になる。
信号検知の場合のトラッキングも同様に、自車挙動を利用した予測計算により、高精度,高安定、のトラッキングを可能とし、更に効率的に画像処理を実施することが可能である。
<標識検知>
標識検知の場合にも、簡易パターンマッチングとして、円のハフ変換を実施,検知された標識候補に対して、標識の高さの範囲を持たせて仮定しトラッキングを実施する。標識の高さは不確定である場合がほとんどであるので、配光制御や街灯検知の場合と同様に、高さの範囲を仮定することで、探索範囲を限定することが可能となるため誤トラッキングを抑制し、高精度,高安定的にトラッキングを実施する。また、探索範囲が限定的であるために、画像処理の計算負荷も減らすことが可能となる。
100 車載カメラ
110 画像取得部
120 簡易パターンマッチング部
130 領域設定部
160 領域別変化量予測部
165 直進量予測部
166 ヨーレート予測部
170 トラッキング部
190 物体判定部
210 レーン認識部
220 カーナビ部
250 車両挙動情報部
260 車両ECU

Claims (17)

  1. 車載用撮像装置から取得した画像から予め記憶されたパターン形状を用いて対象物候補を抽出し、前記対象物候補の位置を出力するパターンマッチング部と、
    取得された前記画像が複数に分割された領域毎に異ならせて設定された対象物の変化量予測計算方法と、検出された自車両挙動情報と、入力された前記対象物候補の位置と、に基づいて、抽出された前記対象物候補の変化量予測を計算し、対象物の予測位置を出力する領域別変化量予測部と、
    入力された前記対象物の予測位置に基づいて対象物をトラッキングするトラッキング部と、を有する車載用環境認識装置。
  2. 請求項1記載の車載用環境認識装置において、
    前記自車両挙動情報は、自車両の速度,操舵角,ヨーレートの少なくとも1つである車載用環境認識装置。
  3. 請求項1記載の車載用環境認識装置において、
    取得された前記画像に対して、消失点を含む第1の領域と、前記第1の領域とは異なる領域と、に領域を分割して、複数の領域を設定する領域設定部を有する車載用環境認識装置。
  4. 請求項3記載の車載用環境認識装置において、
    前記領域設定部で設定される前記複数の領域は、前記第1の領域を消失点を中心に2つに分割された中層左領域及び中層右領域と、前記第2の領域において前記第1の領域に対して垂直方向の一方側に設定された低層領域と、前記第2の領域において前記第1の領域に対して垂直方向の他方側に設定された高層領域と、である車載用環境認識装置。
  5. 請求項3記載の車載用環境認識装置において、
    前記消失点は、取得した前記画像からレーン認識処理した結果に基づいて算出される車載用環境認識装置。
  6. 請求項5記載の車載用環境認識装置において、
    前記領域設定部で設定される前記第1の領域は、前記レーン認識した結果に基づいて算出された消失点に基づいて動的に設定変更される車載用環境認識装置。
  7. 請求項3記載の車載用環境認識装置において、
    前記領域設定部で設定される前記第1の領域は、取得した地図情報に基づいて動的に設定変更される車載用環境認識装置。
  8. 請求項1記載の車載用環境認識装置において、
    前記領域別変化量予測部は、
    前記パターンマッチング部から入力された2次元画像座標における対象物候補の画像位置から自車両重心を原点とした3次元の車両座標系における対象物候補の3次元位置を推定する領域別3次元位置推定部と、
    前記自車両挙動情報と、前記領域別3次元位置推定部により得られた車両座標系における対象物候補の3次元位置の推定結果と、に基づいて、所定周期後の対象物の車両座標系における3次元位置を予測する領域別3次元位置予測部と、
    前記領域別3次元位置予測部で予測された3次元位置の予測結果から画像座標に変換し、対象物の画像位置を算出する領域別画像位置予測部と、を有する車載用環境認識装置。
  9. 請求項3記載の車載用環境認識装置において、
    予め定められた前記第1の領域における対象物の変化量予測計算方法は、車両が走行する道路に垂直な壁を仮定して予測計算する方法である車載用環境認識装置。
  10. 請求項1記載の車載用環境認識装置において、
    前記領域別変化量予測部は、対象物の変化量を予測する場合、前記対象物と車載撮像装置の高さ、又は対象物の移動する範囲を制限して予測する車載用環境認識装置。
  11. 請求項1記載の車載用環境認識装置において、
    前記トラッキング部にて対象物をトラッキングした結果に基づいて、対象物が路上静止物体か否か判定する物体判定部を有する車載用環境認識装置。
  12. 請求項11記載の車載用環境認識装置において、
    前記物体判定部は、前記対象物が路上静止物体ではないと判定された場合、トラッキングした結果に基づいて、前記対象物が車両のテールライトか否かを判定する車載用環境認識装置。
  13. 請求項1記載の車載用環境認識装置において、
    前記パターンマッチング部は、取得した前記画像から対象物の色を解析し、解析結果から、前記対象物が先行車か対向車かを判定する車載用環境認識装置。
  14. 請求項1記載の車載用環境認識装置において、
    車載用撮像装置から画像を取得する画像取得部を有する車載用環境認識装置。
  15. 請求項1乃至14記載の車載用環境認識装置において、
    前記対象物は、光点である車載用環境認識装置。
  16. 画像を取得する画像取得部を有する車載用撮像装置と、
    前記車載用撮像素子から取得した画像から予め記憶されたパターン形状を用いて対象物候補を抽出し、前記対象物候補の位置を出力するパターンマッチング部と、取得された前記画像が複数に分割された領域毎に異ならせて設定された対象物の変化量予測計算方法と、検出された自車両挙動情報と、入力された前記対象物候補の位置と、に基づいて、抽出された前記対象物候補の変化量予測を計算し、対象物の予測位置を出力する領域別変化量予測部と、入力された前記対象物の予測位置に基づいて対象物をトラッキングするトラッキング部と、を有する車載用環境認識装置と、
    を有する車載用環境認識システム。
  17. 請求項16記載の車載用環境認識システムにおいて、
    前記対象物は、光点である車載用環境認識システム。
JP2010060104A 2010-03-17 2010-03-17 車載用環境認識装置及び車載用環境認識システム Active JP5320331B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010060104A JP5320331B2 (ja) 2010-03-17 2010-03-17 車載用環境認識装置及び車載用環境認識システム
US13/575,173 US9064418B2 (en) 2010-03-17 2010-08-13 Vehicle-mounted environment recognition apparatus and vehicle-mounted environment recognition system
PCT/JP2010/063752 WO2011114547A1 (ja) 2010-03-17 2010-08-13 車載用環境認識装置及び車載用環境認識システム
EP10847956.9A EP2549457B1 (en) 2010-03-17 2010-08-13 Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010060104A JP5320331B2 (ja) 2010-03-17 2010-03-17 車載用環境認識装置及び車載用環境認識システム

Publications (2)

Publication Number Publication Date
JP2011192226A true JP2011192226A (ja) 2011-09-29
JP5320331B2 JP5320331B2 (ja) 2013-10-23

Family

ID=44648670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010060104A Active JP5320331B2 (ja) 2010-03-17 2010-03-17 車載用環境認識装置及び車載用環境認識システム

Country Status (4)

Country Link
US (1) US9064418B2 (ja)
EP (1) EP2549457B1 (ja)
JP (1) JP5320331B2 (ja)
WO (1) WO2011114547A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013080460A (ja) * 2011-09-30 2013-05-02 Ricoh Co Ltd 前方車両検知方法及び前方車両検知装置
JP2013196387A (ja) * 2012-03-19 2013-09-30 Pioneer Electronic Corp 画像処理装置、及び画像処理方法
JP2014024410A (ja) * 2012-07-25 2014-02-06 Denso Corp 車両光源検出装置、ライト制御装置、および車両光源検出プログラム
JP2015081083A (ja) * 2013-10-22 2015-04-27 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 予測的運転者支援システムのための、妥当性規則に基づく信頼度推定
JP2015225450A (ja) * 2014-05-27 2015-12-14 村田機械株式会社 自律走行車、及び自律走行車における物体認識方法
KR20170031282A (ko) * 2015-09-10 2017-03-21 주식회사 만도 차량용 카메라 보정 장치
JP2018019250A (ja) * 2016-07-28 2018-02-01 カルソニックカンセイ株式会社 車両用周辺監視装置および車両用周辺監視方法
KR20180035851A (ko) * 2015-07-28 2018-04-06 발레오 샬터 운트 센소렌 게엠베아 자동차의 주변 영역 내의 물체를 식별하기 위한 방법, 운전자 보조 시스템, 및 자동차
WO2019159344A1 (ja) * 2018-02-19 2019-08-22 三菱電機株式会社 運転支援装置および映像表示方法
WO2019208544A1 (ja) * 2018-04-25 2019-10-31 株式会社小糸製作所 画像処理装置、車両用灯具および画像処理方法
KR20200042100A (ko) * 2018-10-15 2020-04-23 삼성전자주식회사 이미지 변환 장치 및 방법
JP2021121710A (ja) * 2020-01-31 2021-08-26 株式会社小松製作所 作業機械の監視装置および作業機械の監視方法

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5480925B2 (ja) * 2012-03-05 2014-04-23 本田技研工業株式会社 車両周辺監視装置
US9760092B2 (en) 2012-03-16 2017-09-12 Waymo Llc Actively modifying a field of view of an autonomous vehicle in view of constraints
JP5926080B2 (ja) * 2012-03-19 2016-05-25 株式会社日本自動車部品総合研究所 走行区画線認識装置およびプログラム
JP2013258596A (ja) * 2012-06-13 2013-12-26 Denso Corp 撮像装置
JP6214290B2 (ja) * 2013-09-09 2017-10-18 株式会社Subaru 前照灯制御装置
EP3051518B1 (en) * 2013-09-27 2020-12-09 Hitachi Automotive Systems, Ltd. Object detector
JP6421032B2 (ja) * 2014-12-26 2018-11-07 オリンパス株式会社 焦点検出装置、焦点検出方法及び焦点検出プログラム
WO2018051399A1 (ja) * 2016-09-13 2018-03-22 株式会社日立情報通信エンジニアリング 状態予測装置及び状態予測方法
JP2018106020A (ja) * 2016-12-27 2018-07-05 ルネサスエレクトロニクス株式会社 フォーカスレンズの位置を決定するための方法、当該方法をコンピュータに実行させるための制御プログラム、および撮像装置
JP7173056B2 (ja) * 2018-02-09 2022-11-16 ソニーグループ株式会社 認識装置と認識方法およびプログラム
US11669724B2 (en) 2018-05-17 2023-06-06 Raytheon Company Machine learning using informed pseudolabels
JP6744374B2 (ja) * 2018-09-27 2020-08-19 本田技研工業株式会社 表示装置、表示制御方法、およびプログラム
CN109993078A (zh) * 2019-03-18 2019-07-09 百度在线网络技术(北京)有限公司 车载环境的图像识别方法、装置及设备
JP7289723B2 (ja) * 2019-05-23 2023-06-12 日立Astemo株式会社 物体認識装置
US11068747B2 (en) * 2019-09-27 2021-07-20 Raytheon Company Computer architecture for object detection using point-wise labels
US11676391B2 (en) 2020-04-16 2023-06-13 Raytheon Company Robust correlation of vehicle extents and locations when given noisy detections and limited field-of-view image frames
KR20210148756A (ko) * 2020-06-01 2021-12-08 삼성전자주식회사 경사 추정 장치 및 이의 동작 방법
JP2022053086A (ja) * 2020-09-24 2022-04-05 トヨタ自動車株式会社 自己位置推定システム及び自己位置推定方法
US11562184B2 (en) 2021-02-22 2023-01-24 Raytheon Company Image-based vehicle classification

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002098509A (ja) * 2000-09-22 2002-04-05 Mazda Motor Corp 車両検出装置
JP2002197445A (ja) * 2000-12-26 2002-07-12 Railway Technical Res Inst オプティカルフローを利用した列車前方異常検出装置
JP2005170290A (ja) * 2003-12-12 2005-06-30 Nissan Motor Co Ltd 障害物検出装置
JP2008113296A (ja) * 2006-10-31 2008-05-15 Honda Motor Co Ltd 車両周辺監視装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
JP3304905B2 (ja) 1999-01-08 2002-07-22 住友電気工業株式会社 対象物の追従認識装置
KR100630088B1 (ko) * 2004-12-28 2006-09-27 삼성전자주식회사 옵티컬 플로우를 이용한 차량 감시 장치 및 방법
JP4203512B2 (ja) * 2006-06-16 2009-01-07 本田技研工業株式会社 車両周辺監視装置
JP4470067B2 (ja) * 2007-08-07 2010-06-02 本田技研工業株式会社 対象物種別判定装置、車両
JP2009230229A (ja) * 2008-03-19 2009-10-08 Toyota Motor Corp 物体検出装置
JP5554261B2 (ja) * 2011-02-24 2014-07-23 アルパイン株式会社 立体物検出装置および立体物検出方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002098509A (ja) * 2000-09-22 2002-04-05 Mazda Motor Corp 車両検出装置
JP2002197445A (ja) * 2000-12-26 2002-07-12 Railway Technical Res Inst オプティカルフローを利用した列車前方異常検出装置
JP2005170290A (ja) * 2003-12-12 2005-06-30 Nissan Motor Co Ltd 障害物検出装置
JP2008113296A (ja) * 2006-10-31 2008-05-15 Honda Motor Co Ltd 車両周辺監視装置

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013080460A (ja) * 2011-09-30 2013-05-02 Ricoh Co Ltd 前方車両検知方法及び前方車両検知装置
JP2013196387A (ja) * 2012-03-19 2013-09-30 Pioneer Electronic Corp 画像処理装置、及び画像処理方法
JP2014024410A (ja) * 2012-07-25 2014-02-06 Denso Corp 車両光源検出装置、ライト制御装置、および車両光源検出プログラム
JP2015081083A (ja) * 2013-10-22 2015-04-27 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 予測的運転者支援システムのための、妥当性規則に基づく信頼度推定
JP2015225450A (ja) * 2014-05-27 2015-12-14 村田機械株式会社 自律走行車、及び自律走行車における物体認識方法
JP2018524741A (ja) * 2015-07-28 2018-08-30 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー 自動車両の周辺区域内の物体を識別するための方法、運転者支援システム、および自動車両
KR20180035851A (ko) * 2015-07-28 2018-04-06 발레오 샬터 운트 센소렌 게엠베아 자동차의 주변 영역 내의 물체를 식별하기 위한 방법, 운전자 보조 시스템, 및 자동차
KR102052840B1 (ko) * 2015-07-28 2019-12-05 발레오 샬터 운트 센소렌 게엠베아 자동차의 주변 영역 내의 물체를 식별하기 위한 방법, 운전자 보조 시스템, 및 자동차
US10685447B2 (en) 2015-07-28 2020-06-16 Valeo Schalter Und Sensoren Gmbh Method for identifying an object in a region surrounding a motor vehicle, driver assistance system and motor vehicle
KR20170031282A (ko) * 2015-09-10 2017-03-21 주식회사 만도 차량용 카메라 보정 장치
KR102327342B1 (ko) 2015-09-10 2021-11-18 주식회사 만도모빌리티솔루션즈 차량용 카메라 보정 장치
JP2018019250A (ja) * 2016-07-28 2018-02-01 カルソニックカンセイ株式会社 車両用周辺監視装置および車両用周辺監視方法
WO2019159344A1 (ja) * 2018-02-19 2019-08-22 三菱電機株式会社 運転支援装置および映像表示方法
WO2019208544A1 (ja) * 2018-04-25 2019-10-31 株式会社小糸製作所 画像処理装置、車両用灯具および画像処理方法
KR20200042100A (ko) * 2018-10-15 2020-04-23 삼성전자주식회사 이미지 변환 장치 및 방법
KR102519666B1 (ko) * 2018-10-15 2023-04-07 삼성전자주식회사 이미지 변환 장치 및 방법
JP2021121710A (ja) * 2020-01-31 2021-08-26 株式会社小松製作所 作業機械の監視装置および作業機械の監視方法
JP7465664B2 (ja) 2020-01-31 2024-04-11 株式会社小松製作所 作業機械の監視装置および作業機械の監視方法

Also Published As

Publication number Publication date
EP2549457A1 (en) 2013-01-23
US9064418B2 (en) 2015-06-23
US20120327188A1 (en) 2012-12-27
WO2011114547A1 (ja) 2011-09-22
EP2549457B1 (en) 2018-04-04
JP5320331B2 (ja) 2013-10-23
EP2549457A4 (en) 2014-06-18

Similar Documents

Publication Publication Date Title
JP5320331B2 (ja) 車載用環境認識装置及び車載用環境認識システム
JP6783949B2 (ja) 交通標識情報を用いた道路検出
US11734848B2 (en) Pseudo lidar
US9652980B2 (en) Enhanced clear path detection in the presence of traffic infrastructure indicator
US9297641B2 (en) Detection of obstacles at night by analysis of shadows
KR102613839B1 (ko) 긴급 차량들의 검출
US20220035378A1 (en) Image segmentation
WO2018059586A1 (zh) 车辆识别方法、装置及车辆
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
JP4940177B2 (ja) 交通流計測装置
JP2015069289A (ja) 車線認識装置
JP3857698B2 (ja) 走行環境認識装置
JP5361901B2 (ja) 前照灯制御装置
US9376052B2 (en) Method for estimating a roadway course and method for controlling a light emission of at least one headlight of a vehicle
JP7255707B2 (ja) 信号機認識方法及び信号機認識装置
JP2012122923A (ja) 対象物検出装置及び方法
Liu Performance evaluation of stereo and motion analysis on rectified image sequences
RU2779798C1 (ru) Способ распознавания светофора и устройство распознавания светофора
WO2020129247A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
KR20240080747A (ko) Lidar 정합 영상을 이용한 지능형 교통 정보 제공 방법 및 이를 위한 장치
KR20240077844A (ko) Lidar 정합 영상을 이용한 지능형 교통 정보 제공 방법 및 이를 위한 장치
Zani et al. 40 Perception Tasks: Lane Detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130712

R150 Certificate of patent or registration of utility model

Ref document number: 5320331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250