JP2020020684A - 軸ずれ検出装置 - Google Patents

軸ずれ検出装置 Download PDF

Info

Publication number
JP2020020684A
JP2020020684A JP2018145049A JP2018145049A JP2020020684A JP 2020020684 A JP2020020684 A JP 2020020684A JP 2018145049 A JP2018145049 A JP 2018145049A JP 2018145049 A JP2018145049 A JP 2018145049A JP 2020020684 A JP2020020684 A JP 2020020684A
Authority
JP
Japan
Prior art keywords
camera
coordinate system
rider
axis deviation
characteristic portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018145049A
Other languages
English (en)
Inventor
照元 小森
Terumoto Komori
照元 小森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018145049A priority Critical patent/JP2020020684A/ja
Publication of JP2020020684A publication Critical patent/JP2020020684A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】車両に搭載されるセンサの軸ずれを素早く検出すること。【解決手段】センサは、カメラとライダーを含む。ライダーは、カメラとは別に設置され、カメラと視野が重なる。カメラとライダーの両方によって検出された統合物体の特徴部分が抽出される。第1特徴部分は、カメラ撮像情報に基づいて抽出される特徴部分である。一方、第2特徴部分は、ライダー計測情報に基づいて抽出される同じ特徴部分である。第1方向は、第1座標系における第1特徴部分の方向であり、第2方向は、同じ第1座標系における第2特徴部分の方向である。第1方向と第2方向との差が閾値を超えた場合、カメラとライダーの少なくとも一方の軸ずれが発生したと判定される。【選択図】図10

Description

本発明は、車両に搭載されるセンサの軸ずれを検出する技術に関する。
特許文献1は、車両に搭載されるレーダ装置の軸ずれを判定する軸ずれ判定装置を開示している。軸ずれ判定装置は、加速度センサを用い、レーダ装置に加わる第1加速度と車体に加わる第2加速度をそれぞれ計測する。更に、軸ずれ判定装置は、第1加速度と第2加速度との差分を一定期間収集し、収集した差分の分布の平均値と標準偏差を算出する。平均値と基準値との差が閾値以上の場合、軸ずれ判定装置は、レーダ装置の軸ずれが発生したと判定する。
特許文献2は、車両に搭載されるレーダセンサの垂直面内での軸ずれを検出する軸ずれ検出装置を開示している。軸ずれ検出装置は、レーダセンサと画像センサを用いて先行車両を認識する。更に、軸ずれ検出装置は、「少なくとも画像センサで先行車両を認識した回数」に対する「レーダセンサと画像センサの双方で先行車両を認識した回数」の割合を算出する。軸ずれ検出装置は、算出した割合に基づいて、レーダセンサに生じた垂直面内での軸ずれを検出する。
特開2015−105918号公報 特開2016−53563号公報
車両に搭載されるセンサは、車両の周囲の物体を認識するために用いられる。センサの「軸ずれ」とは、センサの姿勢が基準状態(初期状態)から変化することを意味する。センサの軸ずれが発生した場合、物体の認識精度が低下する。従って、センサの軸ずれを検出することが望まれる。
上記の特許文献1に開示された技術の場合、加速度を一定期間収集する必要がある。上記の特許文献2に開示された技術の場合、複数回にわたって先行車両を認識する必要がある。いずれの場合であっても、一定期間にわたるデータの収集及び蓄積が必要であるため、センサの軸ずれを検出するために長い時間がかかる。センサの軸ずれの検出が遅れると、物体認識精度が低下した状態のまま車両走行制御が継続してしまう。
本発明の1つの目的は、車両に搭載されるセンサの軸ずれを素早く検出することができる技術を提供することにある。
本発明の1つの観点において、車両に搭載されるセンサの軸ずれを検出する軸ずれ検出装置が提供される。
前記センサは、
カメラと、
前記カメラとは別に設置され、前記カメラと視野が重なるライダーと
を含む。
第1座標系は、前記カメラに固定された座標系である。
第2座標系は、前記ライダーに固定された座標系である。
基準関係は、前記軸ずれが発生していない基準状態における前記第1座標系と前記第2座標系との関係である。
前記軸ずれ検出装置は、
前記カメラによる撮像結果を示すカメラ撮像情報に基づいて第1物体を検出する第1物体検出部と、
前記ライダーによる計測結果を示すライダー計測情報に基づいて第2物体を検出する第2物体検出部と、
前記第1物体と前記第2物体が同じ物体である場合、前記第1物体と前記第2物体を統合物体として統合するフュージョン部と、
前記カメラ撮像情報に基づいて、前記統合物体の特徴部分を第1特徴部分として抽出し、前記第1座標系における前記第1特徴部分の方向を第1方向として算出する第1方向算出部と、
前記ライダー計測情報に基づいて、前記統合物体の前記特徴部分を第2特徴部分として抽出し、更に前記基準関係を参照して、前記第1座標系における前記第2特徴部分の方向を第2方向として算出する第2方向算出部と、
前記第1方向と前記第2方向との差が閾値を超えている場合、前記カメラと前記ライダーの少なくとも一方の前記軸ずれが発生したと判定する軸ずれ判定部と
を備える。
本発明によれば、カメラとライダーの両方によって検出された統合物体の特徴部分が抽出される。第1特徴部分は、カメラ撮像情報に基づいて抽出される特徴部分である。一方、第2特徴部分は、ライダー計測情報に基づいて抽出される同じ特徴部分である。第1方向は、第1座標系における第1特徴部分の方向であり、第2方向は、同じ第1座標系における第2特徴部分の方向である。第1方向と第2方向との差が閾値を超えた場合、カメラとライダーの少なくとも一方の軸ずれが発生したと判定される。
本発明によれば、センサの軸ずれを検出するために、一定期間にわたってデータを収集、蓄積する必要はない。従って、センサの軸ずれを素早く検出することが可能である。軸ずれの発生を早期に検出することによって、物体認識精度が低い状態のまま車両走行制御が継続してしまうことを抑制することが可能となる。
本発明の実施の形態に係る車両に搭載されるセンサを説明するための概念図である。 本発明の実施の形態におけるライダーの軸ずれを説明するための概念図である。 本発明の実施の形態におけるフュージョン処理を説明するための概念図である。 本発明の実施の形態に係るカメラ撮像情報に基づく特徴部分の方向の算出方法を説明するための概念図である。 本発明の実施の形態に係るカメラ撮像情報に基づく特徴部分の方向の算出方法を説明するための概念図である。 本発明の実施の形態に係るライダー計測情報に基づく特徴部分の方向の算出方法を説明するための概念図である。 本発明の実施の形態に係るライダー計測情報に基づく特徴部分の方向の算出方法を説明するための概念図である。 本発明の実施の形態における基準状態の場合の第1方向と第2方向の関係を説明するための概念図である。 本発明の実施の形態における軸ずれが発生した場合の第1方向と第2方向の関係を説明するための概念図である。 本発明の実施の形態に係る軸ずれ検出装置の構成例を示すブロック図である。 本発明の実施の形態に係る軸ずれ判定処理に関連する機能構成例を示すブロック図である。 本発明の実施の形態に係る軸ずれ判定処理を示すフローチャートである。 本発明の実施の形態に係る運転支援システムの構成例を示すブロック図である。
添付図面を参照して、本発明の実施の形態を説明する。
1.概要
図1は、本実施の形態に係る車両1に搭載されるセンサを説明するための概念図である。センサは、カメラ10とライダー(LIDAR: Laser Imaging Detection and Ranging)20を含んでいる。これらセンサは、車両1の周囲の物体を認識するために用いられる。
カメラ10は、車両1の周囲を撮像する。「カメラ撮像情報」は、カメラ10による撮像結果を示す画像情報である。
「第1座標系」は、カメラ10に固定されたセンサ座標系である。第1座標系は、互いに直交するX1軸、Y1軸、及びZ1軸で表される。例えば、X1軸は、カメラ10の光軸であり、基準状態(初期状態)では水平方向と平行である。Z1軸は、垂直方向である。Y1軸は、X1軸及びZ1軸と直交する。カメラ撮像情報は、第1座標系における撮像結果を示す。
ライダー20は、レーザパルスを用いて物体の位置(距離及び方向)を計測するリモートセンシング装置である。より詳細には、ライダー20は、複数の方向に向けてレーザパルスを順次出力(走査)する。レーザパルスが物体上の反射点で反射すると、レーザパルスの反射光がライダー20に戻ってくる。ライダー20は、反射光の受光状態から、反射点の距離及び方向を算出することができる。点群(point cloud)は、ライダー20によって計測される反射点の集合である。「ライダー計測情報」は、ライダー20による計測結果、つまり、点群の位置(距離及び方向)を示す情報である。
「第2座標系」は、ライダー20に固定されたセンサ座標系である。第2座標系は、互いに直交するX2軸、Y2軸、及びZ2軸で表される。例えば、X2軸は、ライダー20による走査の中心軸であり、基準状態では水平方向と平行である。Y2軸は、水平走査面と平行である。Z2軸は、垂直走査面と平行である。ライダー計測情報は、第2座標系における点群の位置を示す。
カメラ撮像情報とライダー計測情報の少なくとも一方に基づいて、車両1の周囲の物体を認識することができる。例えば、図1に示されるように、車両1の前方の先行車両2を認識することができる。物体の認識結果は、車両1の走行制御に利用される。
尚、本実施の形態では、カメラ10とライダー20は、一体ではなく、別々に設置されている。また、カメラ10の視野とライダー20の視野は、少なくとも部分的に重なっている。従って、カメラ10とライダー20の両方によって同一の物体が認識される場合もある。
次に、センサの「軸ずれ」について説明する。「基準状態(初期状態)」は、軸ずれが発生していない状態である。センサの軸ずれとは、センサの姿勢が基準状態から変化することを意味する。このような軸ずれは、経年変化、センサと物体との接触、等によって発生し得る。上述の通り、センサ座標系(第1座標系、第2座標系)は、各センサに固定されている座標系である。従って、センサの姿勢が基準状態から変化すると、センサ座標系も変化する。つまり、センサ座標系は、センサの軸ずれに応じて変動する変動座標系である。
図2は、一例として、ライダー20の軸ずれが発生した場合を示している。ライダー20の軸ずれが発生した場合、第2座標系が基準状態におけるものから変動する。その結果、第2座標系における“見た目の位置”が実際の位置から乖離する。このことは、物体の認識精度の低下を招く。
例えば、図2において、上方構造物3が車両1の高さよりも上方に存在している。そのような上方構造物3としては、標識、看板、高架物、オーバーブリッジ等が例示される。ピッチ方向の軸ずれにより、X2軸とZ2軸が基準状態から変動している。この場合、第2座標系では、上方構造物3がX2軸方向に存在しているように見える。つまり、実際には車両1の高さよりも上方に存在している上方構造物3が、車両1と同じ高さに存在しているように誤認識される。このような誤認識は、認識結果に基づく車両走行制御の精度の低下を招き、好ましくない。
そこで、本実施の形態は、車両1に搭載されるセンサ(カメラ10とライダー20の少なくとも一方)の軸ずれを検出することができる技術を提供する。
まず、図3を参照して、「フュージョン(fusion)処理」について説明する。上述の通り、カメラ10の視野とライダー20の視野は、少なくとも部分的に重なっている。カメラ10とライダー20のそれぞれを用いて検出される2つの物体が所定の条件を満たす場合、それら2つの物体は同一の物体であると判定される。その場合、2つの物体は、「統合物体TF」として統合される。
次に、カメラ10とライダー20の両方によって検出された統合物体TFの「特徴部分CP」に着目する。特徴部分CPは、統合物体TFのうち光学的に識別が容易な部分である。例えば、統合物体TFが他車両である場合、特徴部分CPとして、タイヤやリフレクタといった特定部品が例示される。本実施の形態によれば、カメラ撮像情報とライダー計測情報のそれぞれを用いることにより、同じ特徴部分CPの“方向”が算出される。
図4は、カメラ撮像情報に基づく特徴部分CPの方向の算出方法を説明するための概念図である。まず、カメラ撮像情報に基づいて、統合物体TFの特徴部分CPが抽出される。カメラ撮像情報に基づいて抽出される特徴部分CPを、便宜上、「第1特徴部分CP1」と呼ぶ。第1座標系における第1特徴部分CP1の方向、すなわち、カメラ10から見た第1特徴部分CP1の方向を、以下、「第1方向」と呼ぶ。
図4に示される例において、第1方向は、「第1角度θ1」で表されている。第1座標系の原点と第1特徴部分CP1の代表位置(例:中心位置)とを結ぶ線を考えたとき、その線とX1軸とのなす角度が第1角度θ1である。
図5を参照して、第1角度θ1の算出方法を説明する。図5には、カメラ10により得られるカメラ撮像情報が概念的に示されている。図5に示される例では、統合物体TFは他車両であり、特徴部分CPはタイヤである。明暗に着目することによって、タイヤが第1特徴部分CP1として抽出される。中心線CLは、X1−Y1平面に相当する。第1特徴部分CP1の高さVhとカメラ10の焦点距離fを用いて、第1角度θ1は、次の式(1)で表される。
Figure 2020020684
図6は、ライダー計測情報に基づく特徴部分CPの方向の算出方法を説明するための概念図である。まず、ライダー計測情報に基づいて、統合物体TFの特徴部分CPが抽出される。ライダー計測情報に基づいて抽出される特徴部分CPを、便宜上、「第2特徴部分CP2」と呼ぶ。第2特徴部分CP2の実体は、第1特徴部分CP1と同じである。
ライダー計測情報から、第2座標系における第2特徴部分CP2の位置(距離及び方向)が分かる。本実施の形態によれば、第2座標系における第2特徴部分CP2の位置が、第1座標系における位置に座標変換される。座標変換のためには、第1座標系と第2座標系との関係が必要である。特に、本実施の形態では、軸ずれが発生していない基準状態における第1座標系と第2座標系との関係があらかじめ取得される。そのような基準状態における第1座標系と第2座標系との関係を、以下「基準関係」と呼ぶ。基準関係は既知情報である。
図7は、第2座標系から第1座標系への第2特徴部分CP2の座標変換を説明するための概念図である。ここでは、簡単のため、基準状態において第1座標系(X1,Y1,Z1)と第2座標系(X2,Y2,Z2)が平行である場合を考える(但し、基準関係はそれに限定されない)。第1座標系における第2座標系の原点の位置、つまり、第1座標系から見た第2座標系のずれ量は、ΔL(X1方向)及びΔh(Z1方向)である。また、第2座標系における第2特徴部分CP2の位置[XCP2、ZCP2]は、ライダー計測情報から分かる。このとき、第1座標系における第2特徴部分CP2の位置[XCP2、ZCP2]は、次の式(2)で表される。
Figure 2020020684
第1座標系における第2特徴部分CP2の方向、すなわち、カメラ10から見た第2特徴部分CP2の方向を、以下、「第2方向」と呼ぶ。図7に示される例において、第2方向は、「第2角度θ2」で表されている。第1座標系の原点と第2特徴部分CP2の代表位置(例:中心位置)とを結ぶ線を考えたとき、その線とX1軸とのなす角度が第2角度θ2である。この第2角度θ2は、次の式(3)で与えられる。
Figure 2020020684
第1角度θ1と第2角度θ2との間の角度差Δθは、次の式(4)で与えられる。この角度差Δθは、第1方向と第2方向との差に相当する。
Figure 2020020684
図8は、軸ずれが発生していない基準状態の場合の第1方向と第2方向の関係を示している。第1特徴部分CP1と第2特徴部分CP2は、同じ特徴部分CPである。従って、同じ第1座標系で見た場合、第1特徴部分CP1の方向(第1方向)と第2特徴部分CP2の方向(第2方向)は一致する。すなわち、第1角度θ1と第2角度θ2は等しくなる(Δθ=0)。
一方、図9は、ライダー20の軸ずれが発生した場合の第1方向と第2方向の関係を示している。ライダー20の軸ずれが発生すると、第2座標系は、基準状態におけるものからずれる。従って、軸ずれ発生後の第2座標系における第2特徴部分CP2の“見た目の位置”は、図8で示された基準状態の場合とは異なる位置となる。その結果、ライダー計測情報に基づいて算出される第2角度θ2も、図8で示された基準状態の場合とは異なる値となる。すなわち、第2角度θ2は、第1角度θ1と異なる値となる。つまり、第1方向と第2方向が一致しなくなる。
逆に言えば、第1方向と第2方向とを対比することによって、ライダー20の軸ずれが発生しているか否かを判定することが可能である。この原理は、ライダー20の軸ずれだけでなく、カメラ10の軸ずれの判定にも同様に適用可能である。本実施の形態によれば、第1方向と第2方向との差が閾値を超えている場合、カメラ10とライダー20の少なくとも一方の軸ずれが発生したと判定される。例えば、上記の式(4)で与えられる角度差Δθが所定の角度閾値と対比される。角度差Δθが角度閾値を超えている場合、カメラ10とライダー20の少なくとも一方の軸ずれが発生したと判定される。角度差Δθは、軸ずれ量に相当する。
尚、カメラ10とライダー20の設置状況によっては、いずれか一方にだけ軸ずれが発生することも考えられる。例えば、カメラ10は車両1の室内に設置され、ライダー20は車両1の外側(例:バンパー)に取り付けられる場合を考える。この場合、車両1と物体との接触によって軸ずれが発生する可能性が高いのはライダー20である。従って、軸ずれが発生するのはライダー20であると仮定してもよい。
以上に説明されたように、本実施の形態によれば、カメラ10とライダー20の両方によって検出された統合物体TFの特徴部分CPが抽出される。第1特徴部分CP1は、カメラ撮像情報に基づいて抽出される特徴部分CPである。一方、第2特徴部分CP2は、ライダー計測情報に基づいて抽出される同じ特徴部分CPである。第1方向は、第1座標系における第1特徴部分CP1の方向であり、第2方向は、同じ第1座標系における第2特徴部分CP2の方向である。第1方向と第2方向との差が閾値を超えた場合、カメラ10とライダー20の少なくとも一方の軸ずれが発生したと判定される。
本実施の形態によれば、センサの軸ずれを検出するために、一定期間にわたってデータを収集、蓄積する必要はない。従って、センサの軸ずれを素早く検出することが可能である。軸ずれの発生を早期に検出することによって、物体認識精度が低い状態のまま車両走行制御が継続してしまうことを抑制することが可能となる。更に、センサの軸ずれを検出するために、特殊な機器や施設は不要である。車両1の実使用中に、センサの軸ずれを容易且つ素早く検出することが可能である。
以下、本実施の形態に係る軸ずれ検出技術について更に詳しく説明する。
2.軸ずれ検出装置
図10は、本実施の形態に係る軸ずれ検出装置100の構成例を示すブロック図である。軸ずれ検出装置100は、カメラ10による撮像結果とライダー20による計測結果に基づいて、カメラ10とライダー20の少なくとも一方の軸ずれを検出する。典型的には、軸ずれ検出装置100は、車両1に搭載される。但し、軸ずれ検出装置100は、必ずしも車両1に搭載されていなくてもよい。カメラ10による撮像結果とライダー20による計測結果を受け取ることができる限り、軸ずれ検出装置100による処理は実現可能である。
図10に示されるように、軸ずれ検出装置100は、プロセッサ101と記憶装置102を備えている。プロセッサ101は、コンピュータプログラムを実行することにより各種処理を行う。記憶装置102には、各種情報が格納される。
例えば、プロセッサ101は、カメラ10からカメラ撮像情報D10を取得し、カメラ撮像情報D10を記憶装置102に格納する。カメラ撮像情報D10は、カメラ10による撮像結果を示す画像データであり、カメラ10によって撮像された車両1の周囲の状況を示す。
また、プロセッサ101は、ライダー20からライダー計測情報D20を取得し、ライダー計測情報D20を記憶装置102に格納する。ライダー計測情報D20は、ライダー20による計測結果を示す情報であり、ライダー20によって計測される点群の第2センサ座標系における位置を示す。
センサ設置情報D30は、基準状態におけるカメラ10とライダー20の各々に関する姿勢(ロール、ピッチ、ヨー)及び地面からの高さを示す。センサ設置情報D30に基づいて、基準状態における第1座標系、第2座標系、及び第1座標系と第2座標系との関係(基準関係)を把握することができる。センサ設置情報D30は、基準状態における第1座標系と第2座標系との関係(基準関係)そのものを示していてもよい。センサ設置情報D30は、あらかじめ生成され、記憶装置102に格納される。
プロセッサ101は、カメラ撮像情報D10、ライダー計測情報D20、及びセンサ設置情報D30に基づいて、軸ずれが発生しているか否かを判定する「軸ずれ判定処理」を行う。以下、本実施の形態に係る軸ずれ判定処理について詳しく説明する。
3.軸ずれ判定処理
図11は、本実施の形態に係る軸ずれ判定処理に関連する機能構成例を示すブロック図である。軸ずれ検出装置100(プロセッサ101)は、機能ブロックとして、第1物体検出部110、第2物体検出部120、フュージョン部130、第1方向算出部140、第2方向算出部150、軸ずれ判定部160、及び異常対応部170を備えている。これら機能ブロックは、プロセッサ101が記憶装置102に格納されたコンピュータプログラムを実行することにより実現される。
図12は、本実施の形態に係る軸ずれ判定処理を示すフローチャートである。図12に示される処理フローは、一定サイクル毎に繰り返し実行される。
3−1.ステップS110
第1物体検出部110は、カメラ撮像情報D10に基づいて、車両1の周囲の物体を検出する。カメラ撮像情報D10に基づく物体検出は、周知技術である。カメラ撮像情報D10に基づいて検出される物体を、便宜上、「第1物体」と呼ぶ。
3−2.ステップS120
第2物体検出部120は、ライダー計測情報D20に基づいて、車両1の周囲の物体を検出する。ライダー計測情報D20に基づく物体検出は、周知技術である。ライダー計測情報D20に基づいて検出される物体を、便宜上、「第2物体」と呼ぶ。
3−3.ステップS130
フュージョン部130は、フュージョン処理を行う(図3参照)。このフュージョン処理も周知技術である。例えば、フュージョン部130は、第1物体と第2物体の位置、速度等を対比することによって、第1物体と第2物体が同じ物体であるか否かを判定する。第1物体と第2物体が同じ物体であると判定した場合、フュージョン部130は、第1物体と第2物体を統合物体TFとして統合する。
3−4.ステップS140
第1方向算出部140は、第1方向を算出する。まず、第1方向算出部140は、カメラ撮像情報D10に基づいて、統合物体TFの特徴部分CPを第1特徴部分CP1として抽出する(図4参照)。
例えば、統合物体TFが他車両である場合を考える。この場合、特徴部分CPとして、タイヤやリフレクタといった特定部品が例示される。第1方向算出部140は、カメラ撮像情報D10で示される画像の中から、タイヤやリフレクタを抽出する(図5参照)。タイヤは、中心線CLよりも下で、且つ、周囲の領域よりも相対的に暗い部分である。リフレクタは、中心線CLよりも下で、且つ、修理の領域よりも相対的に明るい部分である。リフレクタは赤色であるため、Red値が相対的に高く、Blue/Green値が相対的に低い部分を抽出してもよい。
第1特徴部分CP1を抽出した後、第1方向算出部140は、第1座標系における第1特徴部分CP1の方向を「第1方向」として算出する。例えば、第1方向は、第1角度θ1で表される(図4参照)。第1方向算出部140は、カメラ撮像情報D10と上記式(1)に基づいて、第1角度θ1を算出することができる。
3−5.ステップS150
第2方向算出部150は、第2方向を算出する。まず、第2方向算出部150は、ライダー計測情報D20に基づいて、統合物体TFの特徴部分CPを第2特徴部分CP2として抽出する(図6参照)。第2特徴部分CP2の実体は、第1特徴部分CP1と同じである。
例えば、タイヤは、点群の高さの平均値より下に位置し、且つ、反射強度が相対的に低い部分である。また、タイヤは統合物体TF(他車両)の後端よりも奥に存在するので、その後端からの奥行が大きい点に絞ってもよい。リフレクタは、点群の高さの平均値より下に位置し、且つ、反射強度が相対的に高い部分である。また、リフレクタは統合物体TFの後端付近に存在するので、その後端からの奥行が小さい点に絞ってもよい。
第2特徴部分CP2を抽出した後、第2方向算出部150は、第1座標系における第2特徴部分CP2の方向を「第2方向」として算出する。具体的には、第2方向算出部150は、基準関係を参照して、第2座標系における第2特徴部分CP2の位置を第1座標系における位置に座標変換する。基準関係は、軸ずれが発生していない基準状態における第1座標系と第2座標系との関係であり、センサ設置情報D30から得られる。座標変換後、第2方向算出部150は、第1座標系における第2特徴部分CP2の位置から第2方向を算出する。
例えば、図7で示されたように、第2方向は、第2角度θ2で表される。第2方向算出部150は、カメラ撮像情報D10、センサ設置情報D30、上記式(2)及び(3)に基づいて、第2角度θ2を算出することができる。
3−6.ステップS160
軸ずれ判定部160は、第1方向と第2方向との差を所定の閾値と比較する。例えば、軸ずれ判定部160は、上記式(4)で与えられる角度差Δθを所定の角度閾値と比較する。
尚、複数種類の特徴部分CP(例:タイヤとリフレクタ)が用いられる場合、それぞれの特徴部分CPに関して角度差Δθが算出される。そして、算出された複数の角度差Δθは、重み付け平均により統合される。重みは、例えば、それぞれの特徴部分CPの検出精度に基づいて決定される。検出精度は、各センサの方位分解能、距離分解能、検出アルゴリズムの検出誤差、等に基づいて算出される。
第1方向と第2方向との差が閾値を超えていない場合(ステップS160;No)、軸ずれ判定部160は、センサの軸ずれは発生していないと判定する。この場合、今回のサイクルにおける処理は終了する。
一方、第1方向と第2方向との差が閾値を超えている場合(ステップS160;Yes)、軸ずれ判定部160は、カメラ10とライダー20の少なくとも一方の軸ずれが発生したと判定する(ステップS161)。
3−7.ステップS170
軸ずれが発生したと判定された場合、異常対応部170は、異常対応処理を行ってもよい。例えば、異常対応部170は、カメラ10とライダー20の少なくとも一方の軸ずれが発生したことを車両1のドライバに通知する。また、異常対応部170は、カメラ10とライダー20に基づく認識処理を停止してもよい。
このように、本実施の形態によれば、1サイクルの物体検出処理によって、センサの軸ずれを検出することができる。センサの軸ずれを検出するために、一定期間にわたってデータを収集、蓄積する必要はない。従って、センサの軸ずれを素早く検出することが可能である。
4.運転支援制御
本実施の形態に係る軸ずれ検出装置100は、車両1の運転を支援する「運転支援制御」に適用されてもよい。そのような運転支援制御として、追従走行制御や衝突回避制御が例示される。
追従走行制御は、設定された車間距離を保ちながら先行車両に追従するための制御である。先行車両との車間距離が設定値を下回った場合、車両1を減速させるために、制動装置が自動的に作動する。
衝突回避制御は、進路上の障害物(他車両、自転車、歩行者等)との衝突を回避するための制御である。障害物との衝突の可能性が高いと判断した場合、衝突を回避するために、制動装置及び/又は操舵装置が自動的に作動する。
追従走行制御と衝突回避制御のいずれの場合であっても、車両1の前方の障害物や先行車両を物標として認識する必要がある。但し、図2で説明されたように、ライダー20の軸ずれが発生すると、上方構造物3が車両1の前方の物標として誤認識される可能性がある。上方構造物3が障害物や先行車両として誤認識されると、不必要な減速が発生する可能性がある。不要な減速(誤減速)は、ドライバに違和感や不安感を感じさせ、また、運転支援制御に対する信頼を低下させる。従って、運転支援制御を行う際には軸ずれが発生しているか否かを判定することが好適である。
図13は、本実施の形態に係る運転支援システム200の構成例を示すブロック図である。運転支援システム200は、車両1に搭載され、車両1の運転を支援する運転支援制御を行う。この運転支援システム200は、センサ群210、走行装置220、及び制御装置230を備えている。
センサ群210は、車両1の周囲の状況を検出する。例えば、センサ群210は、カメラ10、ライダー20、及びレーダ30を含んでいる。センサ群210による検出結果を示す情報は、制御装置230に送られる。
走行装置220は、駆動装置、制動装置、及び操舵装置を含んでいる。駆動装置は、駆動力を発生させる動力源である。駆動装置としては、エンジン、電動機、インホイールモータが例示される。制動装置は、制動力を発生させる。操舵装置は、車両1の車輪を転舵する。例えば、操舵装置は、パワーステアリング(EPS: Electric Power Steering)装置を含んでいる。
制御装置230は、プロセッサ240及び記憶装置250を備えるマイクロコンピュータである。制御装置230は、ECU(Electronic Control Unit)とも呼ばれる。記憶装置250には、制御プログラムが格納される。プロセッサ240が記憶装置250に格納された制御プログラムを実行することにより、制御装置230による各種処理が実現される。
例えば、制御装置230は、走行装置220の動作を制御することによって、車両走行制御を行う。車両走行制御は、駆動制御、制動制御、及び操舵制御を含んでいる。駆動制御は、駆動装置を通して行われる。制動制御は、制動装置を通して行われる。操舵制御は、操舵装置を通して行われる。
また、制御装置230は、運転支援制御を行う。より詳細には、制御装置230は、センサ群210から受け取る検出結果情報に基づいて、車両1の周囲の状況を認識する認識処理を行う。そして、制御装置230は、状況認識結果に基づいて上記の車両走行制御を適宜行うことにより、運転支援制御(追従走行制御、衝突回避制御)を行う。
更に、制御装置230は、本実施の形態に係る軸ずれ検出装置100としても機能する。つまり、制御装置230は、図10で示されたプロセッサ101及び記憶装置102を含んでいる。プロセッサ101とプロセッサ240は、共通であってもよいし、別々であってもよい。記憶装置102と記憶装置250は、共通であってもよいし、別々であってもよい。制御装置230は、図12で示された軸ずれ判定処理を行う。
一例として、ライダー20の軸ずれが発生した場合を考える。ライダー20の軸ずれが発生していると判定した場合、制御装置230は、異常対応処理を行う(ステップS170)。例えば、制御装置230は、ライダー20の軸ずれが発生したことをドライバに通知する。また、制御装置230は、軸ずれが発生したライダー20を用いることなく、他のセンサを用いて運転支援制御を継続してもよい。つまり、制御装置230は、縮退状態で運転支援制御を継続してもよい。
このように、本実施の形態に係る運転支援システム200は、軸ずれ検出装置100の機能も有しており、ライダー20の軸ずれを検出することができる。ライダー20の軸ずれが検出された場合、運転支援制御においてライダー20は使用されない。これにより、例えば、図2で説明されたような誤認識が抑制される。その結果、不要な減速の発生が抑制され、ドライバの違和感や不安感が軽減される。このことは、運転支援制御に対する信頼の向上に寄与する。
1 車両
10 カメラ
20 ライダー
100 軸ずれ検出装置
101 プロセッサ
102 記憶装置
110 第1物体検出部
120 第2物体検出部
130 フュージョン部
140 第1方向算出部
150 第2方向算出部
160 軸ずれ判定部
170 異常対応部
200 運転支援システム
210 センサ群
220 走行装置
230 制御装置
240 プロセッサ
250 記憶装置
D10 カメラ撮像情報
D20 ライダー計測情報
D30 センサ設置情報

Claims (1)

  1. 車両に搭載されるセンサの軸ずれを検出する軸ずれ検出装置であって、
    前記センサは、
    カメラと、
    前記カメラとは別に設置され、前記カメラと視野が重なるライダーと
    を含み、
    第1座標系は、前記カメラに固定された座標系であり、
    第2座標系は、前記ライダーに固定された座標系であり、
    基準関係は、前記軸ずれが発生していない基準状態における前記第1座標系と前記第2座標系との関係であり、
    前記軸ずれ検出装置は、
    前記カメラによる撮像結果を示すカメラ撮像情報に基づいて第1物体を検出する第1物体検出部と、
    前記ライダーによる計測結果を示すライダー計測情報に基づいて第2物体を検出する第2物体検出部と、
    前記第1物体と前記第2物体が同じ物体である場合、前記第1物体と前記第2物体を統合物体として統合するフュージョン部と、
    前記カメラ撮像情報に基づいて、前記統合物体の特徴部分を第1特徴部分として抽出し、前記第1座標系における前記第1特徴部分の方向を第1方向として算出する第1方向算出部と、
    前記ライダー計測情報に基づいて、前記統合物体の前記特徴部分を第2特徴部分として抽出し、更に前記基準関係を参照して、前記第1座標系における前記第2特徴部分の方向を第2方向として算出する第2方向算出部と、
    前記第1方向と前記第2方向との差が閾値を超えている場合、前記カメラと前記ライダーの少なくとも一方の前記軸ずれが発生したと判定する軸ずれ判定部と
    を備える
    軸ずれ検出装置。
JP2018145049A 2018-08-01 2018-08-01 軸ずれ検出装置 Pending JP2020020684A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018145049A JP2020020684A (ja) 2018-08-01 2018-08-01 軸ずれ検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018145049A JP2020020684A (ja) 2018-08-01 2018-08-01 軸ずれ検出装置

Publications (1)

Publication Number Publication Date
JP2020020684A true JP2020020684A (ja) 2020-02-06

Family

ID=69587491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018145049A Pending JP2020020684A (ja) 2018-08-01 2018-08-01 軸ずれ検出装置

Country Status (1)

Country Link
JP (1) JP2020020684A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113188569A (zh) * 2021-04-07 2021-07-30 东软睿驰汽车技术(沈阳)有限公司 车辆与激光雷达的坐标系标定方法、设备及存储介质
JP2022538701A (ja) * 2020-05-15 2022-09-06 バイドゥドットコム タイムズ テクノロジー (ベイジン) カンパニー リミテッド ポイントクラウド融合のための検出器

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022538701A (ja) * 2020-05-15 2022-09-06 バイドゥドットコム タイムズ テクノロジー (ベイジン) カンパニー リミテッド ポイントクラウド融合のための検出器
JP7192090B2 (ja) 2020-05-15 2022-12-19 バイドゥドットコム タイムズ テクノロジー (ベイジン) カンパニー リミテッド ポイントクラウド融合のための検出器
CN113188569A (zh) * 2021-04-07 2021-07-30 东软睿驰汽车技术(沈阳)有限公司 车辆与激光雷达的坐标系标定方法、设备及存储介质

Similar Documents

Publication Publication Date Title
US9934690B2 (en) Object recognition apparatus and vehicle travel controller using same
US8610620B2 (en) Object detecting apparatus and object detecting method
US9665781B2 (en) Moving body detection device and moving body detection method
JP5747482B2 (ja) 車両用環境認識装置
US10583737B2 (en) Target determination apparatus and driving assistance system
US11069241B2 (en) Driving support device and driving support method
EP3188156B1 (en) Object recognition device and vehicle control system
JP7119724B2 (ja) 軸ずれ検出装置及び車両
WO2015125590A1 (ja) 外界認識システム、車両、及びカメラの汚れ検出方法
JP2008123462A (ja) 物体検知装置
GB2541354A (en) Collision avoidance method, computer program product for said collision avoidance method and collision avoidance system
KR20150059489A (ko) 협로 검출 방법과 협로 검출 장치 및 협로 검출 시스템
EP3549056B1 (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product
JP6429360B2 (ja) 物体検出装置
US20220317288A1 (en) Vehicle-mounted object detection device
JP5056861B2 (ja) 測距装置
JP2020020684A (ja) 軸ずれ検出装置
US10810448B2 (en) Image-capturing device
JP3925285B2 (ja) 走行路環境検出装置
JP5103722B2 (ja) 停止車両判別装置
JP2016045767A (ja) 運動量推定装置及びプログラム
EP3413082B1 (en) A vehicle system for detection of oncoming vehicles
US20220176954A1 (en) Vehicle collision determination apparatus
JP6818902B6 (ja) 車両検知システム
EP3683718A1 (en) Driver assistance system and method for a motor vehicle