JP2015102449A - 車両自己位置推定装置、及び車両自己位置推定方法 - Google Patents

車両自己位置推定装置、及び車両自己位置推定方法 Download PDF

Info

Publication number
JP2015102449A
JP2015102449A JP2013243844A JP2013243844A JP2015102449A JP 2015102449 A JP2015102449 A JP 2015102449A JP 2013243844 A JP2013243844 A JP 2013243844A JP 2013243844 A JP2013243844 A JP 2013243844A JP 2015102449 A JP2015102449 A JP 2015102449A
Authority
JP
Japan
Prior art keywords
edge
information
shadow
vehicle
edge information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013243844A
Other languages
English (en)
Inventor
正康 島影
Masayasu Shimakage
正康 島影
友太 吉畑
Yuta Yoshihata
友太 吉畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2013243844A priority Critical patent/JP2015102449A/ja
Publication of JP2015102449A publication Critical patent/JP2015102449A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)

Abstract

【課題】日光による影の発生を考慮して車両の走行位置を推定する。【解決手段】地図データを参照して道路パターンのエッジの情報である道路パターンエッジ情報を生成する。車両の進行方向の画像を撮像して、画像中のエッジ情報である外界エッジ情報を生成する。外界エッジ情報を参照して、エッジが二股に分岐している箇所を検出する。時刻情報から日光の方向を算出する。日光の強さを示す照度が閾値以上であるか判定する。照度が閾値以上である場合、エッジが二股に分岐している箇所と日光の方向とに基づいて、予想される影のエッジの情報である予想影パターンエッジ情報を生成する。予想影パターンエッジ情報を用いて外界エッジ情報或いは道路パターンエッジ情報を補正することで影のエッジによる位置推定への影響を低減する。補正された外界エッジ情報或いは道路パターンエッジ情報を用いて車両の走行位置を推定する。【選択図】図1

Description

本発明は、撮像データと地図データのエッジ情報同士を比較して車両の走行位置を推定する車両自己位置推定装置、及び車両自己位置推定方法に関する。
従来、外界を画像として認識し、外界の認識結果に基づいて車両の速度や横位置を制御する走行支援装置において、自車位置測定装置が知られている。例えば、特許文献1に記載の自車位置測定装置は、地図データベースに情報が格納される道路上の白線や道路標示等の地物のうち、自車両が今後走行するエリアにおける出現可能性の高い地物の配置パターンを参照して、出現頻度の高い地物を自車位置補正のために必要な認識すべき地物として設定する。そして、その設定された地物を認識し、その認識結果に基づいて自車位置をGPS及び走行軌跡に基づくものから補正する。
特許第4680131号公報
しかし、特許文献1による技術では、日光による影の影響は考慮されていないので、影のエッジのようなノイズ成分を含む画像に基づき自車位置を推定するときに、影によるパターンを地物の配置パターンと判断してしまい、自車位置を誤って推定してしまう可能性がある。
本発明の目的は、日光による影の発生を考慮して車両の走行位置を推定する車両自己位置推定装置を提供することである。
上記の課題を解決するために、本発明の一態様に係る車両自己位置推定装置は、地図データを参照して道路パターンのエッジの情報である道路パターンエッジ情報を生成する。車両の進行方向の画像を撮像する。撮像された画像中のエッジの情報である外界エッジ情報を生成する。外界エッジ情報を参照して、エッジが二股に分岐している箇所を検出する。時刻情報を取得して、時刻情報から日光の方向を算出する。日光の強さを照度として示す照度情報を取得して、照度が閾値以上であるか判定する。照度が閾値以上である場合、エッジが二股に分岐している箇所と日光の方向とに基づいて、予想される影のエッジの情報である予想影パターンエッジ情報を生成する。予想影パターンエッジ情報を用いて外界エッジ情報或いは道路パターンエッジ情報を補正することで影のエッジによる位置推定への影響を低減する。補正された外界エッジ情報或いは道路パターンエッジ情報を用いて車両の走行位置を推定する。
本発明の一態様によれば、撮像した周囲画像に含まれる影のエッジによる位置推定への影響を解消できるため、影によるパターンを道路パターンと判断せず、日光による影の発生自体を考慮しない従来の車両自己位置推定装置よりも高い精度で車両の走行位置を推定することが可能となる。
本発明の全実施形態に係る車両(車両自己位置推定装置)の構成例を示す図である。 本発明の全実施形態に係る車両(車両自己位置推定装置)の外観を示す図である。 本発明の第1実施形態に係る画像認識装置の構成例を示す図である。 本発明の第1実施形態に係る画像認識装置の処理手順を表すフローチャートである。 本発明の第1実施形態に係るコントローラの処理手順を表すフローチャートである。 地物等により生じる影が走路の上にかかっている状況を示す図である。 走路の上に投影される影の様々なパターンについて説明するための図である。 横方向(左右方向)へ強くて長い影のエッジが生じる場合について説明するための図である。 道路パターンのエッジ付近に影のエッジが現れ誤認を誘発しやすい場合や、縦方向(前後方向)の影のエッジが強く現れると予想される場合について説明するための図である。 道路パターンのエッジと影のエッジとが曲路等で同じ方向に曲がる場合や分岐線のように交差する場合について説明するための図である。 本発明の第2実施形態に係る画像認識装置の構成例を示す図である。 本発明の第2実施形態に係る画像認識装置の処理手順を表すフローチャートである。 本発明の第3実施形態に係る画像認識装置の構成例を示す図である。 本発明の第3実施形態に係る画像認識装置の処理手順を表すフローチャートである。
<第1実施形態>
以下に、本発明の第1実施形態について添付図面を参照して説明する。
(車両の構成)
図1及び図2に示すように、車両Aは、車両センサ1と、照度検出装置2と、3次元地図データベース3と、外界認識カメラ4と、画像認識装置5と、コントローラ6と、速度制御装置7と、操舵制御装置8と、表示制御装置9とを備える。以降の説明において、車両Aは、自車両と読み替えても良い。
車両センサ1は、車速センサ、操舵角センサ、及びヨーレートセンサ等であり、車両Aの車速・操舵角・ヨーレート等の車両状態量を取得する。例えば、車速センサは、車軸の回転数を検出することで、車速を検出する。また、操舵角センサは、操舵用アクチュエータの回転軸を検出することで、操舵角(車両前後方向に対する車輪の傾き)を検出する。ヨーレートセンサは、ヨーレート(旋回方向への回転角の変化速度)を検出する。更に、車両センサ1は、測距センサを含み、車両Aと周囲物体との距離を計測し、距離データを生成する。これらのセンサについては、一般に広く知られている。
照度検出装置2は、照度センサ(光度計、照度計、輝度計)等であり、日光の強さ(明るさ)を検出し、日光の強さを照度として示す照度情報を生成する。照度検出装置2は、車両Aのダッシュボードやリヤビューミラーの裏に取り付けられている。
3次元地図データベース3は、地図データ(地図情報)と、路面表示を含む周囲環境のエッジ(境界)等の3次元位置情報(エッジ情報)を記憶している。地図データには、道路形状データ及び地物データが記録されている。地図データは、エッジの集合体で定義される。エッジが長い直線の場合には、例えば1m毎に区切られるため、極端に長いエッジは存在しない。直線の場合には、各エッジは、直線の両端点を示す3次元位置情報を持っている。曲線の場合には、各エッジは、曲線の両端点と中央点を示す3次元位置情報を持っている。特に、3次元地図データベース3には、道路上の白線・停止線・横断歩道・路面マーク等の道路標示や、道路端を示す縁石や中央分離帯等の段差の他に、道路の周辺の建物・構造物・地形の稜線等のエッジ情報も含まれる。3次元地図データベース3は、地図データのうち互いに略平行となる構造物を表すエッジ情報(平行画素群)の組合せを記憶しておく。なお、この略平行となる構造物の組合せは、カメラの画角や画素数から撮影できる範囲を求め、道路の走行車線上からこの範囲内にあるエッジ情報の組合せのみを記憶しておくとなお良い。第1実施形態において、略平行の構造物とは、当該構造物のエッジ同士の姿勢角の差が3軸(ロール、ピッチ、ヨー)共に1[deg]以下のものを指す。また、特にその長さが長い、区画線や道路端を表す縁石等については、その長さを10[m]で区切って平行であるか否かを判別し、組合せを記憶しておく。また、互いに平行する構造物は、道路標示であっても良い。この道路標示は、道路上に描かれた区画線、停止線、ゼブラゾーン、横断歩道が挙げられる。3次元地図データベース3は、互いに平行となる道路標示の組み合わせを記憶しておく。更に、3次元地図データベース3は、道路端を示す略平行に設置された縁石や中央分離帯の段差のエッジ情報(平行画素群)の組合せを記憶しておくことが望ましい。3次元地図データベース3は、車両Aの内部に設置されていても良いし、車両Aの外部に設置されていても良い。車両Aの外部に設置されている場合には、車両Aは、車載通信機を介して(路車間通信/車車間通信/衛星通信等により)3次元地図データベース3にアクセスする。
外界認識カメラ4は、車両Aの周囲(外界)を撮像し、撮像した画像を画像認識装置5に出力する。ここでは、外界認識カメラ4として、前方カメラ4fと、側方カメラ4sと、後方カメラ4rとを示す。前方カメラ4fは、車両Aの前方に搭載され、車両Aの前方を撮像するカメラである。側方カメラ4sは、車両Aの側方(左右両側)に搭載され、車両Aの側方を撮像するカメラである。後方カメラ4rは、車両Aの後方に搭載され、車両Aの後方を撮像するカメラである。外界認識カメラ4は、少なくとも車両Aの進行方向の画像を撮像する。例えば、車両Aが前方に進行(走行)している場合、前方カメラ4fは、広角レンズを備えることで、車両Aの進行方向に位置する道路について、道路上の白線・停止線・横断歩道・路面マーク等の道路標示や、道路端を示す縁石や中央分離帯等の段差の他に、日光により道路上に投影された建物・構造物・地形の稜線等の影の画像を撮像する。
図3を参照して、画像認識装置5の構成例について説明する。
画像認識装置5は、車両状態量取得部51と、道路パターン生成部52と、外界画像認識部53と、二股エッジ検出部54と、光方向算出部55と、照度判定部56と、予想影パターン生成部57と、影エッジ影響低減部58と、走行位置推定部59とを備える。
車両状態量取得部51は、車両センサ1から、車両Aの車速・操舵角・ヨーレート等の車両状態量を取得する。実際には、コントローラ6を介して取得しても良い。
道路パターン生成部52は、地図データを参照して道路パターンのエッジの情報である道路パターンエッジ情報を生成する。道路パターンは、道路の形状のパターンである。例えば、道路パターンとして、直線道路・曲路(カーブ)・L字路・T字路・交差点・分岐点(分岐路)等が考えられる。このような道路パターンは、道路上の白線・停止線・横断歩道・路面マーク等の道路標示や、道路端を示す縁石や中央分離帯等の段差等の配置で示される。道路パターンのエッジとは、配置されている道路標示や段差等のエッジのことである。ここでは、道路パターン生成部52は、3次元地図データベース3から地図データを読み込む。また、道路パターン生成部52は、GPS(Global Positioning System)による低精度な緯度・経度情報、又は後述する車両状態量の推定値の前回値からオドメトリ(odmetry:自己位置推定法)で求められる自己位置推定情報を参照し、マッチング処理(比較判定)を行う地図データ上の探索範囲を設定する。更に、道路パターン生成部52は、地図データに記録されている道路形状データ及び地物データを用いて、道路パターンのエッジの情報である道路パターンエッジ情報を生成する。また、得られた自己位置近傍の走行路面に関する走行路面情報を地図データから抽出し、その位置までの距離を計算する。走行路面情報は、停止線や走路境界や分岐・合流区間といった走行路面に規定された静的なデータを意味する。
外界画像認識部53は、外界認識カメラ4(前方カメラ4f、側方カメラ4s、後方カメラ4r)で撮像された車両Aの周囲画像(撮像データ)を取得し、周囲画像中のエッジの情報である外界エッジ情報を生成する。周囲画像中のエッジとは、外界認識カメラ4の撮像範囲内に存在する道路パターンのエッジや、道路上に投影された建物・構造物・地形の稜線等の影のエッジのことである。
二股エッジ検出部54は、外界エッジ情報を参照して、エッジが二股に分岐している箇所を検出する。例えば、道路パターンのエッジと影のエッジが交差している場合、エッジが二股に分岐しているように見える。少なくとも、道路パターンのエッジと誤認される影のエッジは走路上に発生するため、影のエッジは道路パターンのエッジといずれかの箇所で交差し、二股の分岐線のようになる。例えば、建物の屋上の影のエッジが道路パターンのエッジと誤認される場合、建物の壁面の影のエッジが道路パターンのエッジと交差する。したがって、エッジが二股に分岐している箇所がある場合、いずれかのエッジが影のエッジである可能性がある。無論、エッジが二股に分岐している箇所があるからといって、必ずしも影のエッジであるとは限らないが、エッジが二股に分岐している箇所がない場合には、道路パターンのエッジと誤認される影のエッジは明らかに存在しないため、従来の車両自己位置推定と同様の手法で車両の自己位置を推定すれば十分である。なお、実際には、三股以上に分岐している箇所についても確認可能である。
光方向算出部55は、画像認識装置5又はコントローラ6の内部のウォッチドッグタイマ(watchdog timer)等の時間計測器から時刻情報を取得し、時刻情報から太陽の位置を求め、その時刻/時間帯における日光の方向を算出する。但し、時刻情報を取得する方法については、電波時計用の電波を受信して、逐次正確な時刻情報を取得しても良いし、ナビゲーション用のGPS衛星から送られてくる時刻情報を取得しても良い。複数のGPS信号から算出される緯度・経度情報は、捕捉される衛星数、捕捉された衛星の配置にもよるが、数〜数十メートルの精度でしか得ることができない。しかし、時刻情報についての誤差は小さく、影の発生形状を推定できるだけの十分な精度が保証される。また、万一受信できなくなった場合であっても、時間計測器は数十秒以内の誤差しか生じないため、時刻情報については十分な精度で取得可能である。時刻情報には、年月日が含まれていても良い。太陽の位置は、同じ時間帯でも季節によって変化すると考えられるためである。なお、実際には、通信等により外部から現在の太陽の位置に関する情報を受信し、現在の太陽の位置を認識した上で、日光の方向を算出しても良い。
照度判定部56は、照度検出装置2から、日光の強さを照度として示す照度情報を取得し、照度が閾値以上であるか判定する。照度が閾値以上である場合、影が発生していると予想されるため、影のエッジによる影響を低減・抑制するための処理が必要となる。反対に、照度が閾値以上でない場合、影が発生していないと予想されるため、従来の車両自己位置推定と同様の手法で車両の自己位置を推定すれば十分である。なお、実際には、通信等により外部から現在の天気・天候に関する情報を受信し、現在の天気・天候を認識した上で、照度が閾値以上か確認しても良い。
予想影パターン生成部57は、エッジが二股に分岐している箇所と日光の方向とに基づいて、予想される影のエッジの情報である予想影パターンエッジ情報を生成する。ここでは、予想影パターン生成部57は、地図データに記録されている建物・構造物・地形の稜線と、その時刻/時間帯における日光の方向とから予想される影パターン画像を生成し、エッジ処理を行って予想影パターンエッジ情報を生成する。
影エッジ影響低減部58は、予想影パターンエッジ情報を用いて、外界エッジ情報或いは道路パターンエッジ情報を補正することで、影のエッジによる位置推定への影響を低減・抑制する。
第1実施形態では、影エッジ影響低減部58は、影エッジ除去部581を備える。
影エッジ除去部581は、外界エッジ情報から予想影パターンエッジ情報を除去することで外界エッジ情報を補正する。例えば、影エッジ除去部581は、外界エッジ情報から、予想影パターンエッジ情報に相当する箇所を消去・除去する処理を行う。すなわち、外界エッジ情報が影のエッジ成分を含まない状態にする。これにより、マッチング処理において、影のエッジと疑われる特定位置でのエッジ比較が行われないようにする。
走行位置推定部59は、補正された外界エッジ情報或いは道路パターンエッジ情報を用いて車両Aの走行位置を推定する。例えば、車両Aの走行位置として、地図上での建物等に対する車両Aの位置、走路上での白線等に対する車両Aの位置、及び建物や白線等に対する車両Aの向きを推定する。ここでは、外界エッジ情報と道路パターンエッジ情報とのマッチング処理を行い、車両Aの走行位置を推定する。なお、車両Aの走行位置を推定するための基本的な技術については、特開2013−186551号公報に開示されている。また、影エッジ影響低減部58は、車両Aの走行位置、姿勢の更新処理や、フィルタリング等の時間更新処理を行い、外界認識信号として、車両Aの車速・操舵角・ヨーレート等の車両状態量の推定値と、目標横位置補正量を示す目標横位置補正信号とをコントローラ6に出力する。
図4を参照して、画像認識装置5の処理手順について説明する。
ステップS101では、車両状態量取得部51は、車両の走行中、車両センサ1から、車両Aの車速・操舵角・ヨーレート等の車両状態量を取得する。
ステップS102では、道路パターン生成部52は、3次元地図データベース3から地図データを読み込んだ上で、緯度・経度情報、又は自己位置推定情報を参照し、地図データ上の探索範囲を設定する。
ステップS103では、道路パターン生成部52は、地図データに記録されている道路形状データ及び地物データを用いて、道路パターンエッジ情報を生成する。また、得られた自己位置近傍の走行路面に関する走行路面情報を地図データから抽出し、その位置までの距離を計算する。
ステップS104では、外界画像認識部53は、外界認識カメラ4(前方カメラ4f、側方カメラ4s、後方カメラ4r)から、車両Aの周囲画像を取得する。
ステップS105では、外界画像認識部53は、取得した周囲画像から、外界エッジ情報を生成する。
ステップS106では、二股エッジ検出部54は、外界エッジ情報を参照し、エッジが二股に分岐している箇所を検出する。ここでは、エッジが二股に分岐している箇所がある場合(ステップS106でYes)、ステップS107に移行する。エッジが二股に分岐している箇所がない場合(ステップS106でNo)、ステップS111に移行する。
ステップS107では、光方向算出部55は、時刻情報を取得し、時刻情報から日光の方向を算出する。
ステップS108では、照度判定部56は、照度検出装置2から、日光の強さを照度として示す照度情報を取得し、照度が閾値以上であるか判定する。照度が閾値以上である場合(ステップS108でYes)、道路上に地物等の影の発生が予想(予測)されると判断し、ステップS109に移行する。反対に、照度が閾値以下である場合(ステップS108でNo)、道路上に地物等の影が発生しないと予想されるため、ステップS111に移行する。
ステップS109では、予想影パターン生成部57は、エッジが二股に分岐している箇所と日光の方向とに基づいて、予想される影のエッジの情報である予想影パターンエッジ情報を生成する。
ステップS110では、影エッジ影響低減部58の影エッジ除去部581は、外界エッジ情報から予想影パターンエッジ情報を除去することで外界エッジ情報を補正する。
ステップS111では、走行位置推定部59は、補正された外界エッジ情報と道路パターンエッジ情報とのマッチング処理を行い、車両の走行位置を推定する。
ステップS112では、走行位置推定部59は、車両Aの走行位置及び周囲物体の認識結果(周囲物体の位置及び属性等)を示す外界認識信号をコントローラ6に出力する。
コントローラ6は、画像認識装置5から外界認識信号を受信し、車両Aの周囲物体の認識結果を参照して、安全な車間距離やTTC(Time To Collision:衝突余裕時間)を維持するように速度指令値又は加減速指令値を計算する。また、コントローラ6は、得られた車両Aの走行位置と、地図データに保持してある走路境界情報(白線や段差等の道路の境界となるエッジの情報)とを用いて、車両Aが走行中の車線内での走行位置(走行中の走路、及びその走路上での位置)を算出し、車線中央付近を維持するように操舵角度指令値を計算する。更に、コントローラ6は、得られた車両Aの走行位置と、地図データに保持してある走路境界情報とを用いて、映像情報を生成する。ここでは、コントローラ6の例として、車両に搭載される電子制御装置(ECU:Electronic Control Unit)を想定している。但し、実際には、電子制御装置(ECU)に限定されない。
図5を参照して、コントローラ6の処理手順について説明する。
ステップS201では、コントローラ6は、画像認識装置5から外界認識信号として受信した車両Aの車速・操舵角・ヨーレート等の車両状態量の推定値、及び測距センサで計測した距離データから、「周囲物体形状データ」及び「自車両からの距離データ」を抽出して取得する。更に、コントローラ6は、外界認識信号を示す映像情報を表示制御装置9に出力する。
ステップS202では、コントローラ6は、画像認識装置5から外界認識信号として受信した目標横位置補正信号を読み込み、目標横位置補正量を取得する。実際には、コントローラ6が、車両状態量の推定値から、目標横位置補正量を算出するようにしても良い。
ステップS203では、コントローラ6は、3次元地図データベース3から地図データを読み込み、道路の形状や車線情報、停止線情報、制限速度情報、リンク情報、分岐情報、合流情報等を取得する。
ステップS204では、コントローラ6は、上記の処理で取得した各種情報に基づいて、道路境界と車両Aとの距離を一定に保つような目標横位置を算出する。
ステップS205では、コントローラ6は、算出された目標横位置を車両がトラッキングする(正確になぞる)ための操舵角を算出する。すなわち、コントローラ6は、算出された目標横位置に従って、最適な操舵角を算出する。更に、コントローラ6は、この操舵角にするための操舵角度指令値を操舵制御装置8に出力する。
ステップS206では、コントローラ6は、ステップS203で取得した制限車両側情報や、道路形状に基づいて旋回加速度が大きくなり過ぎないような推奨速度等に基づいて計算される基本目標車速を算出する。また、コントローラ6は、ステップS201で取得した周囲物体データに基づいて、TTCを閾値以上(例えば3秒以上)に保持できる車速を算出する。コントローラ6は、基本目標車速と、TTCを閾値以上に保持できる車速とのうち、速度が小さい方を選択して目標車速とする。更に、コントローラ6は、この目標車速にするための速度指令値又は加減速指令値を速度制御装置7に出力する。
ここで、ステップS204及びステップS206では、分岐や合流位置の情報とナビゲーションシステムによる走行ルート指令に応じて、車線変更やランプ通過のための目標横位置と目標車速を算出する。このとき、コントローラ6は、速度指令値又は加減速指令値を速度制御装置7に出力し、操舵角度指令値を操舵制御装置8に出力する。なお、コントローラ6は、ステップS201からステップS206までの処理の結果や中間データも、映像情報として表示制御装置9に出力しても良い。
速度制御装置7は、コントローラ6からの速度指令値又は加減速指令値を受信し、目標速度を達成するため、制駆動トルク指令及び摩擦ブレーキ圧力指令を計算し、駆動源やブレーキ装置を駆動し、車両の速度を調整する。なお、駆動源は、一般的なエンジンに限らず、電動モータでも良いし、エンジンとモータを組み合わせたハイブリッド構成でも良い。
操舵制御装置8は、コントローラ6から操舵角度指令値を受信し、目標操舵角を達成するため、操舵トルク指令を算出し、操舵用アクチュエータを駆動し、車輪の向きを変える。
表示制御装置9は、コントローラ6から映像情報を受信し、映像情報を表示装置の画面上へ表示する。表示装置の例として、カーナビ等のナビゲーション用のモニタやヘッドアップディスプレイ(HUD:Head−Up Display)、若しくは車両内に設置された携帯電話機、スマートフォン、タブレット端末、又は運転者(ドライバー)が装着可能な眼鏡型やヘルメット型のヘッドマウントディスプレイ(HMD:Head Mounted Display)等が考えられる。その他、運転者(ドライバー)が装着可能で表示画面付きのウェアラブルコンピュータ(wearable computer)でも良い。但し、実際には、これらの例に限定されない。
図6に、車両の自己位置推定を行う対象シーンの一つを示す。
車両Aが走路Bの車線中央を一定速で走行中、太陽Cに照らされた走路Bの壁(擁壁、防音壁)や建物Dにより生じる影Eが走路Bの上に投影されている状況を想定している。この場合、車両Aに搭載されたカメラで周囲を撮像すると、影Eの濃さによっては、走路Bの道路標示や段差等の配置で示される道路パターンと共に、影Eが撮像される。従来であれば、車両Aは、道路パターンのエッジと、影Eのエッジとを見分けることができないため、影Eのエッジを道路パターンのエッジの一部として誤認してしまう可能性があった。そこで、車両Aが、道路パターンのエッジと、影Eのエッジとを識別可能にすることで、走行中に従来よりも高い精度で自己位置を推定できるようにした。
以下に、走路の上に投影される影の様々なパターンについて説明する。
図7の(a)、(b)、(c)に示すように、建物や橋梁(オーバーパス等)の影のエッジのような進行方向に対して横方向(左右方向)へ強くて長い影のエッジが生じると予想される場合には、推定する車両状態量のうち、進行方向に関する車両の状態量の位置補正を強く行う。縦方向(前後方向)の位置補正を強くかけるようにすることで、進行方向の車両状態量がより速く補正されるようになるため、停止線がない区間であっても縦方向の位置精度を向上することができるようになる。
また、図7の(d)に示すように、横方向の道路特徴量が少ない区間では、横方向に関する車両状態量の位置補正を弱く行い、縦方向の影のエッジが強く現れると予想される場合には、横方向に関する車両状態量の位置補正を強く行う。これにより、横方向の道路特徴量が少ない区間では、積極的に影のエッジを道路パターンの代わりに利用することができるようになり、横方向の車両状態量がより速く補正されるようになるため、横方向に特徴量が少ない道路の区間を通過中であっても、横方向の位置精度を向上することができるようになる。
しかし、現実には時間経過と共に影の形状は変化し、影のエッジは移動するため、時刻によって道路上の白線と影の見え方は変化する。白線モデルとエッジが抽出又はフィッティングデータに混入してしまうと、横位置、ヨー角の誤差、上下方向、ピッチング角の車両姿勢誤差が生じてしまう。このようなノイズデータが時刻で変化すると、位置、姿勢推定性能も時刻に応じて変化してしまう。
図8の(a)、(b)、(c)に示すように、横方向へ強くて長い影のエッジが生じると予想される場合であっても、時間経過と共に影の形状は変化し、影のエッジは移動する。そこで、時刻情報を基に日光の方向を算出することで、変化パターンを認識し、正確に影のエッジと判定することができるようになる。例えば、建物・構造物・地形の稜線と、その時刻/時間帯における日光の方向とから、影のエッジの発生する位置・方向と影の形状を予想することができる。また、影のエッジの発生する位置・方向と、影の形状と、その影の原因となる建物・構造物・地形等の地図データ上での位置を特定することで、自車両の位置を認識することができる。
図9の(a)、(b)、(c)、(d)に示すように、道路パターンのエッジ付近に似たようなエッジラインが現れる場合、若しくは縦方向の影のエッジが強く現れると予想される場合には、影のエッジを道路パターンのエッジと見なしてしまう誤認を誘発しやすい。
図10の(a)、(b)に示すように、曲がり角において、道路パターンのエッジの曲がる方向に道路パターンのエッジと似たような角度で影のエッジが伸びる場合、時間経過と共に影の形状は変化し、影のエッジは移動するため、車両の走行位置、姿勢推定に与える影の影響も時刻に応じて大きく変化してしまう。例えば、白線の延びていく方向と、影の伸びる方向が似ていると、誤マッチングによる位置、姿勢推定誤差が大きくなる。特にコーナーやカーブ等、車両姿勢が大きく変化するシーンにおいては、直線道路と比べて車両姿勢推定値の変化量が大きいため、エッジ線の傾きの変化が大きくなり、誤ったエッジ線が選択されやすくなる。
また、図10の(c)に示すように、道路パターンのエッジと影のエッジが交差し、分岐線と似たような形状で影が左方向へ延びる場合、分岐線に似た形状で白線と異なる方向へ延びる影の影響を受けて、車両が誤った方向へ誘導される可能性がある。
図9や図10に示すようなシーンでは、影のエッジによる影響を低減することが重要となる。第1実施形態では、事前に影の位置と形状を予想して、撮像データから影のエッジの成分を除去してしまうことにより、影のエッジによる影響を低減することが可能となる。
(第1実施形態の効果)
第1実施形態は、以下のような効果を奏する。
(1)第1実施形態に係る車両自己位置推定装置は、地図データを参照して道路パターンのエッジの情報である道路パターンエッジ情報を生成する。車両の進行方向の画像を撮像する。撮像された画像中のエッジの情報である外界エッジ情報を生成する。外界エッジ情報を参照して、エッジが二股に分岐している箇所を検出する。時刻情報を取得して、時刻情報から日光の方向を算出する。日光の強さを照度として示す照度情報を取得して、照度が閾値以上であるか判定する。照度が閾値以上である場合、エッジが二股に分岐している箇所と日光の方向とに基づいて、予想される影のエッジの情報である予想影パターンエッジ情報を生成する。予想影パターンエッジ情報を用いて外界エッジ情報或いは道路パターンエッジ情報を補正することで影のエッジによる位置推定への影響を低減する。補正された外界エッジ情報或いは道路パターンエッジ情報を用いて車両の走行位置を推定する。
これにより、建物や構造物の影が走路上に現れる条件においても、時刻と照度に応じて影の形状を予想し、撮像した画像に構造物の影が現れることを前提とした画像マッチングが行われるため、日照条件、特に晴天時の強い影が発生する状況においても、エッジ情報に表れた影の影響を排除した状態で自己位置の推定ができるようになる。
また、地図データと時刻から事前に影の現れる位置と方向が精度良く予想することが可能であるため、特に白線と影が平行になる場合、又は交差するような場合に、誤マッチングを低減することができ、自己位置推定の精度劣化を防止することができるようになる。
(2)また、第1実施形態に係る車両自己位置推定装置は、外界エッジ情報から予想影パターンエッジ情報を除去することで外界エッジ情報を補正する。
このように、カメラによる撮像データ(外界エッジ情報)に含まれる影の成分を除去することで、撮像データに影の成分が含まれない状態で、地図データとマッチングを行うことができるため、純粋な道路パターンのマッチングを行うことができる。これにより、影の成分により誤認することなく、正確に車両の自己位置を認識することができる。
<第2実施形態>
以下に、本発明の第2実施形態について説明する。
第2実施形態では、地図データから誤マッチングしやすい特定構造物を抽出し、日光の方向から誤マッチングしやすい道路の特定位置を判定し、その特定位置でのエッジ比較を禁止する。
車両の構成については、基本的に第1実施形態と同様である。第2実施形態においても、図1及び図2に示すように、車両Aは、車両センサ1と、照度検出装置2と、3次元地図データベース3と、外界認識カメラ4と、画像認識装置5と、コントローラ6と、速度制御装置7と、操舵制御装置8と、表示制御装置9とを備える。第1実施形態と同様の構成については、第1実施形態と同様に動作する。
図11を参照して、画像認識装置5の構成例について説明する。
画像認識装置5は、車両状態量取得部51と、道路パターン生成部52と、外界画像認識部53と、二股エッジ検出部54と、光方向算出部55と、照度判定部56と、予想影パターン生成部57と、影エッジ影響低減部58と、走行位置推定部59とを備える。第1実施形態と同様の構成については、第1実施形態と同様に動作する。
第2実施形態では、影エッジ影響低減部58は、重み係数設定部582を備える。
また、第2実施形態では、外界エッジ情報は、道路パターンエッジ情報とのマッチング処理(比較判定)における重み係数を有する。
重み係数設定部582は、予想影パターンエッジ情報の重み係数を他の外界エッジ情報の重み係数よりも低く設定することで外界エッジ情報を補正する。すなわち、外界エッジ情報の重み係数のうち、予想影パターンエッジ情報に相当する箇所のエッジ情報の重み係数を、他の箇所のエッジ情報の重み係数よりも低く設定する。実際には、他の外界エッジ情報の重み係数を予想影パターンエッジ情報の重み係数よりも高く設定するようにしても良い。結果として、予想影パターンエッジ情報の重み係数が、他の外界エッジ情報の重み係数よりも相対的に低く設定されていれば良い。また、マッチング処理の対象となる閾値を設けて、予想影パターンエッジ情報の重み係数を閾値よりも低く設定し、他の外界エッジ情報の重み係数を閾値よりも高く設定するようにしても良い。これにより、マッチング処理において、影のエッジを重視しない/無視するようにする。
なお、第2実施形態では、外界画像認識部53は、外界エッジ情報を生成する際、外界エッジ情報に、道路パターンエッジ情報とのマッチング処理(比較判定)における重み係数の初期値を設定しても良い。例えば、外界エッジ情報の全てのエッジ点に、重み係数の初期値として同じ値を設定する。この場合、重み係数設定部582は、この重み係数の初期値を変更して、予想影パターンエッジ情報の重み係数を他の外界エッジ情報の重み係数よりも低く設定する。
図12を参照して、第2実施形態において、画像認識装置5の処理手順について説明する。基本的には第1実施形態と同様であるが、第2実施形態では、図4に示すステップS110の処理を、重み係数を設定する処理(ステップS120)に変更している。
ステップS101では、車両状態量取得部51は、車両の走行中、車両センサ1から、車両Aの車速・操舵角・ヨーレート等の車両状態量を取得する。
ステップS102では、道路パターン生成部52は、3次元地図データベース3から地図データを読み込んだ上で、緯度・経度情報、又は自己位置推定情報を参照し、地図データ上の探索範囲を設定する。
ステップS103では、道路パターン生成部52は、地図データに記録されている道路形状データ及び地物データを用いて、道路パターンエッジ情報を生成する。また、得られた自己位置近傍の走行路面に関する走行路面情報を地図データから抽出し、その位置までの距離を計算する。
ステップS104では、外界画像認識部53は、外界認識カメラ4(前方カメラ4f、側方カメラ4s、後方カメラ4r)から、車両Aの周囲画像を取得する。
ステップS105では、外界画像認識部53は、取得した周囲画像から、外界エッジ情報を生成する。
ステップS106では、二股エッジ検出部54は、外界エッジ情報を参照し、エッジが二股に分岐している箇所を検出する。ここでは、エッジが二股に分岐している箇所がある場合(ステップS106でYes)、ステップS107に移行する。エッジが二股に分岐している箇所がない場合(ステップS106でNo)、ステップS111に移行する。
ステップS107では、光方向算出部55は、時刻情報を取得し、時刻情報から日光の方向を算出する。
ステップS108では、照度判定部56は、照度検出装置2から、日光の強さを照度として示す照度情報を取得し、照度が閾値以上であるか判定する。照度が閾値以上である場合(ステップS108でYes)、道路上に地物等の影の発生が予想(予測)されると判断し、ステップS109に移行する。反対に、照度が閾値以下である場合(ステップS108でNo)、道路上に地物等の影が発生しないと予想されるため、ステップS111に移行する。
ステップS109では、予想影パターン生成部57は、エッジが二股に分岐している箇所と日光の方向とに基づいて、予想される影のエッジの情報である予想影パターンエッジ情報を生成する。
ステップS120では、影エッジ影響低減部58の重み係数設定部582は、外界エッジ情報の重み係数のうち、予想影パターンエッジ情報に相当する箇所のエッジ情報の重み係数を、他の箇所のエッジ情報の重み係数よりも低く設定することで外界エッジ情報を補正する。
ステップS111では、走行位置推定部59は、補正された外界エッジ情報と道路パターンエッジ情報とのマッチング処理を行い、車両の走行位置を推定する。
ステップS112では、走行位置推定部59は、車両Aの走行位置及び周囲物体の認識結果(周囲物体の位置及び属性等)を示す外界認識信号をコントローラ6に出力する。
第2実施形態では、図10の(c)に示すように、道路パターンのエッジと影のエッジが交差し、分岐線と似たような形状で影が左方向へ延びる場合、白線と影の各々のエッジ線が延びる方向を特定し、白線と異なる方向に延びるエッジ点については、マッチング処理に用いる重み係数を小さい値に設定することで、マッチング結果に影響しなくなり、車両が分岐線に似た形状で延びる影の影響を受けて誤った方向へ誘導される可能性がなくなる。
(第2実施形態の効果)
第2実施形態は、以下のような効果を奏する。
(1)第2実施形態では、外界エッジ情報は、道路パターンエッジ情報とのマッチング処理(比較判定)における重み係数を有する。第2実施形態に係る車両自己位置推定装置は、予想影パターンエッジ情報の重み係数を他の外界エッジ情報の重み係数よりも低く設定することで外界エッジ情報を補正する。
重み係数が低く設定されたエッジ情報については、マッチング処理においてマッチしてもそれを重視しない/無視することで、影の成分を意識せずに、車両の自己位置を認識することができる。
<第3実施形態>
以下に、本発明の第3実施形態について説明する。
第3実施形態では、マッチングに用いる地図データに影の成分を付加することでカメラに映る画像に極力近いものに修正し、車両の自己位置推定のために影のエッジを積極的に利用する。例えば、日光の方向による影のエッジの発生位置・方向と、影の形状と、その影の原因となる建物・構造物・地形等の地図データ上での位置を特定することで、自車両の位置・姿勢を推定する。
車両の構成については、基本的に第1実施形態と同様である。第3実施形態においても、図1及び図2に示すように、車両Aは、車両センサ1と、照度検出装置2と、3次元地図データベース3と、外界認識カメラ4と、画像認識装置5と、コントローラ6と、速度制御装置7と、操舵制御装置8と、表示制御装置9とを備える。第1実施形態と同様の構成については、第1実施形態と同様に動作する。
図13を参照して、画像認識装置5の構成例について説明する。
画像認識装置5は、車両状態量取得部51と、道路パターン生成部52と、外界画像認識部53と、二股エッジ検出部54と、光方向算出部55と、照度判定部56と、予想影パターン生成部57と、影エッジ影響低減部58と、走行位置推定部59とを備える。第1実施形態と同様の構成については、第1実施形態と同様に動作する。
第3実施形態では、影エッジ影響低減部58は、予想影パターン付加部583を備える。
予想影パターン付加部583は、道路パターンエッジ情報に予想影パターンエッジ情報を付加することで道路パターンエッジ情報を補正する。すなわち、予想影パターンエッジ情報における影のエッジを道路パターンエッジ情報に反映(付加)し、実際の外界エッジ情報に対応する状態にしている。これにより、マッチング処理において、影のエッジが反映された地図データに対して、影のエッジを含む周囲画像をそのまま照合できるようになる。
図14を参照して、第3実施形態において、画像認識装置5の処理手順について説明する。基本的には第1実施形態と同様であるが、第3実施形態では、図4に示すステップS110の処理を、予想影パターンエッジ情報を道路パターンエッジ情報に付加する処理(ステップS130)に変更している。
ステップS101では、車両状態量取得部51は、車両の走行中、車両センサ1から、車両Aの車速・操舵角・ヨーレート等の車両状態量を取得する。
ステップS102では、道路パターン生成部52は、3次元地図データベース3から地図データを読み込んだ上で、緯度・経度情報、又は自己位置推定情報を参照し、地図データ上の探索範囲を設定する。
ステップS103では、道路パターン生成部52は、地図データに記録されている道路形状データ及び地物データを用いて、道路パターンエッジ情報を生成する。また、得られた自己位置近傍の走行路面に関する走行路面情報を地図データから抽出し、その位置までの距離を計算する。
ステップS104では、外界画像認識部53は、外界認識カメラ4(前方カメラ4f、側方カメラ4s、後方カメラ4r)から、車両Aの周囲画像を取得する。
ステップS105では、外界画像認識部53は、取得した周囲画像から、外界エッジ情報を生成する。
ステップS106では、二股エッジ検出部54は、外界エッジ情報を参照し、エッジが二股に分岐している箇所を検出する。ここでは、エッジが二股に分岐している箇所がある場合(ステップS106でYes)、ステップS107に移行する。エッジが二股に分岐している箇所がない場合(ステップS106でNo)、ステップS111に移行する。
ステップS107では、光方向算出部55は、時刻情報を取得し、時刻情報から日光の方向を算出する。
ステップS108では、照度判定部56は、照度検出装置2から、日光の強さを照度として示す照度情報を取得し、照度が閾値以上であるか判定する。照度が閾値以上である場合(ステップS108でYes)、道路上に地物等の影の発生が予想(予測)されると判断し、ステップS109に移行する。反対に、照度が閾値以下である場合(ステップS108でNo)、道路上に地物等の影が発生しないと予想されるため、ステップS111に移行する。
ステップS109では、予想影パターン生成部57は、エッジが二股に分岐している箇所と日光の方向とに基づいて、予想される影のエッジの情報である予想影パターンエッジ情報を生成する。
ステップS130では、影エッジ影響低減部58の予想影パターン付加部583は、道路パターンエッジ情報に予想影パターンエッジ情報を付加することで道路パターンエッジ情報を補正する。
ステップS111では、走行位置推定部59は、外界エッジ情報と補正された道路パターンエッジ情報とのマッチング処理を行い、車両の走行位置を推定する。
ステップS112では、走行位置推定部59は、車両Aの走行位置及び周囲物体の認識結果(周囲物体の位置及び属性等)を示す外界認識信号をコントローラ6に出力する。
第3実施形態では、図7の(a)、(b)、(c)や、図8の(a)、(b)、(c)に示すように、直線道路において、建物や橋梁(オーバーパス等)の影のエッジのような進行方向に対して横方向へ強くて長い影のエッジが生じると予想される場合には、推定する車両状態量のうち、進行方向に関する車両の状態量の位置補正を強く行う。例えば、積極的に影のエッジを停止線の代わりに利用することで、縦方向の位置補正を強くかけるようにすることができるようになり、進行方向の車両状態量がより速く補正されるようになるため、停止線がない区間であっても縦方向の位置精度を向上することができるようになる。
また、図7の(d)や、図9の(a)、(b)、(c)、(d)に示すように、横方向の道路特徴量が少ない区間では、横方向に関する車両状態量の位置補正を弱く行い、縦方向の影のエッジが強く現れると予想される場合には、横方向に関する車両状態量の位置補正を強く行う。例えば、横方向の道路特徴量が少ない区間では、積極的に影のエッジを道路パターンのエッジの代わりに利用することで、横方向の車両状態量をより速く補正することができるようになり、横方向に特徴量が少ない道路の区間を通過中であっても、横方向の位置精度を向上することができるようになる。
(第3実施形態の効果)
第3実施形態は、以下のような効果を奏する。
(1)第3実施形態に係る車両自己位置推定装置は、道路パターンエッジ情報に予想影パターンエッジ情報を付加することで道路パターンエッジ情報を補正した上で、補正された外界エッジ情報或いは道路パターンエッジ情報を用いて車両の走行位置を推定する。
このように、地図データを現実の状態(影が存在する状態)に近づけてマッチング確率を上げるために、地上の物体と太陽の位置に応じて時間と共に変化する影の成分も考慮する構成としているため、位置推定の誤認や、ロストの発生を低減・抑制することができる。
<第1〜第3実施形態の関係>
なお、第1〜第3実施形態は、組み合わせて実施することも可能である。例えば、車両の動作モードや機能の切り替え等により、実施形態を変更できるようにしても良い。また、結果表示を行う場合、第1〜第3実施形態を同時に実施し、第1〜第3実施形態の結果を一画面に表示、又は選択的に表示(切り替え表示等)できるようにしても良い。すなわち、影エッジ影響低減部58は、影エッジ除去部581と、重み係数設定部582と、予想影パターン付加部583を全て備えていても良い。
(変形例)
図4、図12、図14に示す画像認識装置5の処理手順において、時刻情報を取得(ステップS107)した際に、日中(日出から日没まで)の時間帯であるか判定し、日中の時間帯ではない場合には、マッチング処理(ステップS111)までスキップしても良い。日中の時間帯でなければ、太陽が出ておらず、日光による地物等の影が発生しないためである。また、夜間等において、太陽以外の光源により影が発生したとしても、自車両や他車両の前照灯(ヘッドライト)、及び道路照明灯等により、走路の上にかかる影は消失すると考えられる。但し、月明かりによる影を考慮する場合には、第1〜第3実施形態において、太陽を月と読み替え、日光を月光と読み替えても良い。
また、画像認識装置5は、車両Aの外部に設けられていても良い。車両Aの外部に設置されている場合には、車両Aは、車載通信機を介して(路車間通信/車車間通信/衛星通信等により)画像認識装置5に車両状態量や照度情報等を送信し、画像認識装置5から外界認識信号を受信する。このとき、3次元地図データベース3も、車両Aの外部に設けられているものとする。
また、計算機上で車線変更のシミュレーションを行う場合や、車両Aと通信可能なサーバ等が走行制御を行う場合には、車両自己位置推定装置は、パソコン(PC:Personal Computer)、アプライアンス(appliance)、ワークステーション、メインフレーム、スーパーコンピュータ等の計算機でも良い。この場合、物理マシン上に構築された仮想マシン(VM:Virtual Machine)でも良い。また、画面表示や音声出力により運転者(ドライバー)に車線変更タイミングや車線変更の実施(又は実施予定)を通知可能なカーナビ(カーナビゲーションシステム)、携帯電話機、スマートフォン、タブレット端末、携帯型ゲーム機、又はヘッドマウントディスプレイ(Head Mounted Display)等でも良い。また、車両自己位置推定装置は、車両に限らず、車両と同様の挙動で移動する移動ユニットに搭載されていても良い。但し、実際には、上記の例に限定されない。
図示しないが、上記の計算機は、プログラムに基づいて駆動し所定の処理を実行するプロセッサと、当該プログラムや各種データを記憶するメモリにより実現される。
上記のプロセッサの例として、CPU(Central Processing Unit)、マイクロプロセッサ(microprocessor)、マイクロコントローラ(microcontroller)、或いは、専用の機能を有する半導体集積回路(LSI:Large Scale Integration)等が考えられる。
上記のメモリの例として、RAM(Random Access Memory)、ROM(Read Only Memory)、EEPROM(Electrically Erasable and Programmable Read Only Memory)やフラッシュメモリ等の半導体記憶装置が考えられる。必要であれば、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の補助記憶装置、DVD(Digital Versatile Disk)等のリムーバブルディスク、又は、SDメモリカード(Secure Digital memory card)等の記憶媒体(メディア)等を用いても良い。また、バッファ(buffer)やレジスタ(register)等でも良い。
なお、上記のプロセッサ及び上記のメモリは、一体化していても良い。例えば、近年では、マイコン等の1チップ化が進んでいる。したがって、計算機に相当する電子機器等に搭載される1チップマイコンが、上記のプロセッサ及び上記のメモリを備えている事例も考えられる。但し、実際には、上記の例に限定されない。
以上、本発明の実施形態を詳述してきたが、実際には、上記の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の変更があっても本発明に含まれる。
1… 車両センサ
2… 照度検出装置
3… 3次元地図データベース
4… 外界認識カメラ
5… 画像認識装置
51… 車両状態量取得部
52… 道路パターン生成部
53… 外界画像認識部
54… 二股エッジ検出部
55… 光方向算出部
56… 照度判定部
57… 予想影パターン生成部
58… 影エッジ影響低減部
581… 影エッジ除去部
582… 重み係数設定部
583… 予想影パターン付加部
59… 走行位置推定部
6… コントローラ
7… 速度制御装置
8… 操舵制御装置
9… 表示制御装置
A… 車両
B… 走路
C… 太陽
D… 建物
E… 影

Claims (5)

  1. 地図データを参照して道路パターンのエッジの情報である道路パターンエッジ情報を生成する道路パターン生成部と、
    車両の進行方向の画像を撮像する撮像部と、
    前記撮像された画像中のエッジの情報である外界エッジ情報を生成する外界画像認識部と、
    前記外界エッジ情報を参照して、エッジが二股に分岐している箇所を検出する二股エッジ検出部と、
    時刻情報を取得して、前記時刻情報から日光の方向を算出する光方向算出部と、
    日光の強さを照度として示す照度情報を取得して、前記照度が閾値以上であるか判定する照度判定部と、
    前記照度が閾値以上である場合、前記エッジが二股に分岐している箇所と前記日光の方向とに基づいて、予想される影のエッジの情報である予想影パターンエッジ情報を生成する予想影パターン生成部と、
    前記予想影パターンエッジ情報を用いて前記外界エッジ情報或いは前記道路パターンエッジ情報を補正することで影のエッジによる位置推定への影響を低減する影エッジ影響低減部と、
    補正された前記外界エッジ情報或いは前記道路パターンエッジ情報を用いて車両の走行位置を推定する走行位置推定部と、
    を備えることを特徴とする車両自己位置推定装置。
  2. 前記影エッジ影響低減部は、前記外界エッジ情報から前記予想影パターンエッジ情報を除去することで前記外界エッジ情報を補正することを特徴とする請求項1に記載の車両自己位置推定装置。
  3. 前記外界エッジ情報は、前記道路パターンエッジ情報との比較判定における重み係数を有し、
    前記影エッジ影響低減部は、前記予想影パターンエッジ情報の重み係数を他の外界エッジ情報の重み係数よりも低く設定することで外界エッジ情報を補正することを特徴とする請求項1に記載の車両自己位置推定装置。
  4. 前記影エッジ影響低減部は、前記道路パターンエッジ情報に前記予想影パターンエッジ情報を付加することで道路パターンエッジ情報を補正することを特徴とする請求項1に記載の車両自己位置推定装置。
  5. 地図データを参照して道路パターンのエッジの情報である道路パターンエッジ情報を生成し、
    車両の進行方向の画像を撮像し、
    前記撮像された画像中のエッジの情報である外界エッジ情報を生成し、
    前記外界エッジ情報を参照して、エッジが二股に分岐している箇所を検出し、
    時刻情報を取得して、前記時刻情報から日光の方向を算出し、
    日光の強さを照度として示す照度情報を取得して、前記照度が閾値以上であるか判定し、
    前記照度が閾値以上である場合、前記エッジが二股に分岐している箇所と前記日光の方向とに基づいて、予想される影のエッジの情報である予想影パターンエッジ情報を生成し、
    前記予想影パターンエッジ情報を用いて前記外界エッジ情報或いは前記道路パターンエッジ情報を補正することで影のエッジによる位置推定への影響を低減し、
    補正された前記外界エッジ情報或いは前記道路パターンエッジ情報を用いて車両の走行位置を推定することを特徴とする車両自己位置推定方法。
JP2013243844A 2013-11-26 2013-11-26 車両自己位置推定装置、及び車両自己位置推定方法 Pending JP2015102449A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013243844A JP2015102449A (ja) 2013-11-26 2013-11-26 車両自己位置推定装置、及び車両自己位置推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013243844A JP2015102449A (ja) 2013-11-26 2013-11-26 車両自己位置推定装置、及び車両自己位置推定方法

Publications (1)

Publication Number Publication Date
JP2015102449A true JP2015102449A (ja) 2015-06-04

Family

ID=53378252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013243844A Pending JP2015102449A (ja) 2013-11-26 2013-11-26 車両自己位置推定装置、及び車両自己位置推定方法

Country Status (1)

Country Link
JP (1) JP2015102449A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017032447A (ja) * 2015-08-04 2017-02-09 日産自動車株式会社 道路境界検出装置、自己位置推定装置及び道路境界検出方法
JP2017116363A (ja) * 2015-12-24 2017-06-29 アイシン・エィ・ダブリュ株式会社 車両位置推定システム、方法およびプログラム
JP2018136917A (ja) * 2017-02-22 2018-08-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置、情報処理方法及びプログラム
JP2020060499A (ja) * 2018-10-12 2020-04-16 パイオニア株式会社 情報処理装置
JP2020061049A (ja) * 2018-10-12 2020-04-16 パイオニア株式会社 点群データ構造
JP2020060501A (ja) * 2018-10-12 2020-04-16 パイオニア株式会社 情報処理装置
JP2020060497A (ja) * 2018-10-12 2020-04-16 パイオニア株式会社 情報処理装置
CN111854936A (zh) * 2019-04-25 2020-10-30 奥迪股份公司 关于日照强度的提醒方法、装置、计算机设备和存储介质
JP6808111B1 (ja) * 2020-05-07 2021-01-06 三菱電機株式会社 自己位置推定装置、航行制御装置、画像生成装置、人工衛星システム及び自己位置推定方法
US11810369B2 (en) 2018-05-30 2023-11-07 Soken, Inc. Self-position estimation device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017032447A (ja) * 2015-08-04 2017-02-09 日産自動車株式会社 道路境界検出装置、自己位置推定装置及び道路境界検出方法
JP2017116363A (ja) * 2015-12-24 2017-06-29 アイシン・エィ・ダブリュ株式会社 車両位置推定システム、方法およびプログラム
JP2018136917A (ja) * 2017-02-22 2018-08-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置、情報処理方法及びプログラム
JP7015665B2 (ja) 2017-02-22 2022-02-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置、情報処理方法及びプログラム
US11810369B2 (en) 2018-05-30 2023-11-07 Soken, Inc. Self-position estimation device
JP2020060497A (ja) * 2018-10-12 2020-04-16 パイオニア株式会社 情報処理装置
JP2020060501A (ja) * 2018-10-12 2020-04-16 パイオニア株式会社 情報処理装置
JP2020061049A (ja) * 2018-10-12 2020-04-16 パイオニア株式会社 点群データ構造
JP7257770B2 (ja) 2018-10-12 2023-04-14 パイオニア株式会社 情報処理装置
JP7361462B2 (ja) 2018-10-12 2023-10-16 パイオニア株式会社 情報処理装置
JP2020060499A (ja) * 2018-10-12 2020-04-16 パイオニア株式会社 情報処理装置
CN111854936A (zh) * 2019-04-25 2020-10-30 奥迪股份公司 关于日照强度的提醒方法、装置、计算机设备和存储介质
JP6808111B1 (ja) * 2020-05-07 2021-01-06 三菱電機株式会社 自己位置推定装置、航行制御装置、画像生成装置、人工衛星システム及び自己位置推定方法
WO2021224955A1 (ja) * 2020-05-07 2021-11-11 三菱電機株式会社 自己位置推定装置、航行制御装置、画像生成装置、人工衛星システム及び自己位置推定方法

Similar Documents

Publication Publication Date Title
CN113063418B (zh) 用于显示3d增强现实导航信息的方法和装置
JP2015102449A (ja) 車両自己位置推定装置、及び車両自己位置推定方法
US10685246B2 (en) Systems and methods for curb detection and pedestrian hazard assessment
CN110386142B (zh) 用于自动驾驶车辆的俯仰角校准方法
US11402842B2 (en) Method to define safe drivable area for automated driving system
EP3514032B1 (en) Adjusting velocity of a vehicle for a curve
JP7052786B2 (ja) 表示制御装置および表示制御プログラム
US11167751B2 (en) Fail-operational architecture with functional safety monitors for automated driving system
US20180374360A1 (en) Traffic prediction based on map images for autonomous driving
EP3018448A1 (en) Methods and systems for enabling improved positioning of a vehicle
US10127460B2 (en) Lane boundary line information acquiring device
CN111311902B (zh) 一种数据处理方法、装置、设备和机器可读介质
US10325163B2 (en) Vehicle vision
JP6984624B2 (ja) 表示制御装置および表示制御プログラム
WO2022009848A1 (ja) 自車位置推定装置、走行制御装置
US20200233418A1 (en) Method to dynamically determine vehicle effective sensor coverage for autonomous driving application
US11325470B2 (en) Method, device and computer-readable storage medium with instructions for controlling a display of an augmented-reality head-up display device for a transportation vehicle
JP2021117048A (ja) 変化点検出装置及び地図情報配信システム
US20230122011A1 (en) Vehicle position estimation device and traveling position estimation method
JP6941178B2 (ja) 自動運転制御装置及び方法
JP7416114B2 (ja) 表示制御装置および表示制御プログラム
JP7215460B2 (ja) 地図システム、地図生成プログラム、記憶媒体、車両用装置およびサーバ
JP6790951B2 (ja) 地図情報学習方法及び地図情報学習装置
WO2020090320A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2020190942A (ja) 表示制御装置