JP2015215299A - 対象物位置推定装置 - Google Patents
対象物位置推定装置 Download PDFInfo
- Publication number
- JP2015215299A JP2015215299A JP2014099650A JP2014099650A JP2015215299A JP 2015215299 A JP2015215299 A JP 2015215299A JP 2014099650 A JP2014099650 A JP 2014099650A JP 2014099650 A JP2014099650 A JP 2014099650A JP 2015215299 A JP2015215299 A JP 2015215299A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- undulation
- flat surface
- correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】対象物の3次元空間における位置を算出できる対象物位置推定装置を提供する。
【解決手段】一方向の画像を取得する画像取得手段101と、対象物を認識する対象物認識手段と、車両の姿勢の変化量を検出する姿勢変化量検出手段103と、画像における対象物の縦軸上の位置を変化量に基づき補正する第1の補正手段と、起伏情報取得手段と、画像における対象物の縦軸上の位置を、起伏の程度に基づき補正する第2の補正手段と、マップを用いて、第2の補正手段による補正後の、画像における対象物の縦軸上の位置から、仮想的な平坦面上での対象物の位置を算出する平坦面上位置算出手段と、仮想的な平坦面上での対象物の位置と、起伏の程度とから、対象物の3次元空間における位置を算出する3次元空間位置算出手段とを備えることを特徴とする対象物位置推定装置1。
【選択図】図1
【解決手段】一方向の画像を取得する画像取得手段101と、対象物を認識する対象物認識手段と、車両の姿勢の変化量を検出する姿勢変化量検出手段103と、画像における対象物の縦軸上の位置を変化量に基づき補正する第1の補正手段と、起伏情報取得手段と、画像における対象物の縦軸上の位置を、起伏の程度に基づき補正する第2の補正手段と、マップを用いて、第2の補正手段による補正後の、画像における対象物の縦軸上の位置から、仮想的な平坦面上での対象物の位置を算出する平坦面上位置算出手段と、仮想的な平坦面上での対象物の位置と、起伏の程度とから、対象物の3次元空間における位置を算出する3次元空間位置算出手段とを備えることを特徴とする対象物位置推定装置1。
【選択図】図1
Description
本発明は対象物位置推定装置に関する。
従来、カメラで撮影した画像に基づき、自車両から対象物までの距離を計測する方法が知られている。その一つとして、カメラによる撮影画面内に直線平坦路モデル画像を形成し、その直線平坦路モデル画像において、道路幅が同一の幅となる画像の高さ位置を検出し、この高さ位置に基づき対象物までの距離を計測する方法がある。
特許文献1記載の技術では、撮影画面から均一な道路幅を正確に算出することが必要である。そのため、駐車車両で道端が隠れたり、道路の幅員が途中で変化したりする場合は、対象物までの距離を正確に計測することができない。
本発明は以上の点に鑑みなされたものであり、上述した課題を解決できる対象物位置推定装置を提供することを目的とする。
本発明の対象物位置推定装置は、画像取得手段により、車両における一方向の画像を取得し、対象物認識手段により、画像において対象物を認識する。
また、本発明の対象物位置推定装置は、姿勢変化量検出手段により、車両の姿勢における、基準姿勢に対する変化量を検出し、第1の補正手段により、画像における対象物の縦軸上の位置を、変化量に基づき、車両の姿勢が基準姿勢である場合の位置に補正する。
また、本発明の対象物位置推定装置は、姿勢変化量検出手段により、車両の姿勢における、基準姿勢に対する変化量を検出し、第1の補正手段により、画像における対象物の縦軸上の位置を、変化量に基づき、車両の姿勢が基準姿勢である場合の位置に補正する。
また、本発明の対象物位置推定装置は、起伏情報取得手段により、車両が存在する路面を含む仮想的な平坦面に対する、対象物が存在する路面の起伏の程度を取得し、第2の補正手段により、第1の補正手段による補正後の、画像における対象物の縦軸上の位置を、起伏の程度に基づき、対象物が仮想的な平坦面上に存在する場合の位置に補正する。
また、本発明の対象物位置推定装置は、車両の姿勢が基準姿勢である場合の画像における縦軸上の位置と、仮想的な平坦面上での位置との関係を規定するマップを備え、平坦面上位置算出手段により、マップを用いて、第2の補正手段による補正後の、画像における対象物の縦軸上の位置から、仮想的な平坦面上での対象物の位置を算出する。
また、本発明の対象物位置推定装置は、3次元空間位置算出手段により、仮想的な平坦面上での対象物の位置と、起伏の程度とから、対象物の3次元空間における位置を算出する。
本発明の対象物位置推定装置は、例えば、駐車車両で道端が隠れていたり、道路の幅員が途中で変化していたりする場合でも、対象物の3次元空間における位置を推定することができる。
本発明の実施形態を図面に基づき説明する。
<第1の実施形態>
1.対象物位置推定装置1の構成
対象物位置推定装置1の構成を図1、図2に基づき説明する。対象物位置推定装置1は、車両に搭載される車載装置であり、図1に示すように、処理部3、記憶部5、単眼カメラ101、姿勢センサ103、及びGPS105を備える。
<第1の実施形態>
1.対象物位置推定装置1の構成
対象物位置推定装置1の構成を図1、図2に基づき説明する。対象物位置推定装置1は、車両に搭載される車載装置であり、図1に示すように、処理部3、記憶部5、単眼カメラ101、姿勢センサ103、及びGPS105を備える。
処理部3は、CPU、RAM、ROM等を備える周知のコンピュータである。処理部3は、単眼カメラ101、姿勢センサ103、及びGPS105から情報を取得し、それらの情報を用いて後述する処理を実行し、対象物の3次元空間における位置を推定する。処理部3は、推定した対象物の3次元空間における位置を、車両制御部109に出力する。
記憶部5は、3次元地図7と、後述する処理で用いるマップ9とを記憶している。3次元地図7には、2次元平面(水平な平面)上の各点における高さが記憶されている。
図2に示すように、単眼カメラ101は、車両111に取り付けられており、車両111の前方(一方向の一例)を撮像し、前方の画像を取得する。なお、単眼カメラ101が撮像する方向は、車両111に対し固定されており、車両111のピッチング角(図2における矢印P方向の角度)が変化すれば、それに応じて、単眼カメラ101が撮像する方向も変化する。
図2に示すように、単眼カメラ101は、車両111に取り付けられており、車両111の前方(一方向の一例)を撮像し、前方の画像を取得する。なお、単眼カメラ101が撮像する方向は、車両111に対し固定されており、車両111のピッチング角(図2における矢印P方向の角度)が変化すれば、それに応じて、単眼カメラ101が撮像する方向も変化する。
姿勢センサ103は、車両の姿勢(傾斜角)を検出する。GPS105は、車両の位置情報を取得する。
なお、車両制御部109は、対象物位置推定装置1から取得した、対象物の3次元空間における位置を用いて、各種処理(例えば、対象物の手前で車両を自動的に停止する処理、対象物を避けるように自動的に操舵する処理、警報発生処理等)を実行する。
なお、車両制御部109は、対象物位置推定装置1から取得した、対象物の3次元空間における位置を用いて、各種処理(例えば、対象物の手前で車両を自動的に停止する処理、対象物を避けるように自動的に操舵する処理、警報発生処理等)を実行する。
単眼カメラ101は、画像取得手段の一例である。処理部3は、対象物認識手段、第1の補正手段、第2の補正手段、平坦面上位置算出手段、及び3次元空間位置算出手段の一例である。姿勢センサ103は、姿勢変化量検出手段の一例である。処理部3、GPS105、及び3次元地図7は、起伏情報取得手段の一例である。GPS105は、位置特定手段の一例である。
2.対象物位置推定装置1が実行する処理
対象物位置推定装置1(特に処理部3)が所定時間ごとに繰り返し実行する処理を図2〜図7に基づき説明する。図3のステップ1では、単眼カメラ101を用いて、車両の前方の画像を取得する。
対象物位置推定装置1(特に処理部3)が所定時間ごとに繰り返し実行する処理を図2〜図7に基づき説明する。図3のステップ1では、単眼カメラ101を用いて、車両の前方の画像を取得する。
ステップ2では、前記ステップ1で取得した画像において、周知の画像認識方法を用い、対象物を認識する。例えば、図6Aに示すように、画像113中に存在する対象物115を認識する。対象物としては、例えば、歩行者、他の車両、二輪車、自転車、各種構造物(標識、ガードレール等)が挙げられる。
ステップ3では、図6Aに示すように、前記ステップ1で取得した画像113において、前記ステップ2で認識した対象物115の縦軸Y上の位置(座標)yを取得する。
ステップ4では、車両の姿勢における、基準姿勢に対する変化量を取得する。ここで車両の姿勢とは、車両111のピッチング角を意味し、基準姿勢とは、車両111の前後軸117が路面119に平行である姿勢を意味する(図2参照)。よって、車両の姿勢における、基準姿勢に対する変化量とは、基準姿勢におけるピッチング角に対する、その時点でのピッチング角の変化量(以下、ΔPとする)を意味する。
ステップ4では、車両の姿勢における、基準姿勢に対する変化量を取得する。ここで車両の姿勢とは、車両111のピッチング角を意味し、基準姿勢とは、車両111の前後軸117が路面119に平行である姿勢を意味する(図2参照)。よって、車両の姿勢における、基準姿勢に対する変化量とは、基準姿勢におけるピッチング角に対する、その時点でのピッチング角の変化量(以下、ΔPとする)を意味する。
ピッチング角の変化量ΔPは、姿勢センサ103を用いて算出できる。姿勢センサ103としては、例えば、ジャイロセンサが挙げられる。すなわち、ジャイロセンサで検出されたピッチング角速度を積分する方法で、ピッチング角の変化量ΔPを算出できる。
また、姿勢センサ103としては、例えば、2アンテナGPSが挙げられる。すなわち、2アンテナGPSを利用して車両の向きの仰角を推定し、そこから勾配角を差し引き求める方法でピッチング角の変化量ΔPを算出できる。ここで、前記勾配角は、例えば、車輪速の微分値と(前後)加速度センサの値との差分を求め、その差分加速度ベクトルと重力加速度ベクトルとが成す角から推定することができる。また、ピッチング角の変化量ΔPは、車両を物理モデル化して、制駆動トルクや、車輪速から推定してもよい。
ステップ5では、図6Bに示すように、前記ステップ3で取得した位置yを、前記ステップ4で取得したピッチング角の変化量ΔPに基づき、位置y'に補正する。この位置y’は、車両111の姿勢が基準姿勢である場合における、同じ対象物115の縦軸Y上での位置である。
ここで、上記の補正について説明する。画像113における対象物115の縦軸Y上の位置は、対象物115の実際の位置が一定であっても、車両111の姿勢(ピッチング角)に応じて変化する。ピッチング角の変化量ΔPと、ピッチング角の変化に起因する、縦軸Y上の位置における変化量(以下Δy1とする)との間には一定の対応関係がある。
記憶部5のマップ9には、予め、上記の対応関係が記憶されている。前記ステップ4で算出したピッチング角の変化量ΔPをマップ9に当てはめると、それに対応する縦軸Y上の位置における変化量Δy1が算出される。図6Bに示すように、その変化量Δy1を前記ステップ3で取得した位置yに加算することで、位置y'を算出できる。
ステップ6では、対象物115が存在する路面の起伏の程度に基づく補正処理として、処理Aと処理Bとのうちのどちらを選択するかを判断する。ここで、起伏の程度とは、図2に示すように、車両111が存在する路面119を含む仮想的な平坦面121に対する、対象物115が存在する路面123の起伏の程度を意味する。
処理Aと処理Bとのうちのどちらを選択するかは、例えば、ユーザの指定に応じて決定することができる。また、所定のプログラムにより、いずれか一方を自動的に選択してもよい。処理Aを選択した場合はステップ7に進み、処理Bを選択した場合はステップ8に進む。なお、ステップ7、8の処理については後述する。
ステップ7、8により、図6Cに示すように、画像113における対象物115の縦軸Y上の位置y'は、位置y''に補正される。この位置y''は、対象物115の2次元平面上での位置はそのままとしながら、対象物115が仮想的な平坦面121上の位置124(図2参照)にあると仮定し、その仮定の下での、画像113における対象物115の縦軸Y上の位置である。
ステップ9では、画像113における対象物115の縦軸Y上の位置y''から、仮想的な平坦面121上での対象物の位置(図2における位置124)を算出する。
ところで、車両111の姿勢が基準姿勢である場合の画像113における縦軸Y上の位置y''と、仮想的な平坦面121上での位置との関係は一義的に決まる。
ところで、車両111の姿勢が基準姿勢である場合の画像113における縦軸Y上の位置y''と、仮想的な平坦面121上での位置との関係は一義的に決まる。
例えば、図8に示すように、車両111の姿勢が基準姿勢であり、仮想的な平坦面121上の別々の位置に対象物115A、115Bが存在する場合を想定する。画像113における対象物115Aの縦軸Y上の位置をy''Aとし、画像113における対象物115Bの縦軸Y上の位置をy''Bとする。また、対象物115Aの仮想的な平坦面121上での位置をXAとし、対象物115Bの仮想的な平坦面121上での位置をXBとする。ここで、XA、XBは、車両111の前後方向における、車両111からの距離である。
位置y''Aと位置XAとの間には、一義的な関係があるので、位置y''Aが分かれば、そこから位置XAを求めることができる。また、位置y''Bと位置XBとの間にも、一義的な関係があるので、位置y''Bが分かれば、そこから位置XBを求めることができる。
マップ9には、上記の一義的な関係が予め記憶されている。前記ステップ7、8で算出した、画像113における対象物115の縦軸Y上の位置y''をマップ9に当てはめると、仮想的な平坦面121上での対象物115の位置が算出される。
なお、仮想的な平坦面121上での対象物115の位置としては、例えば、車両111の前後方向における位置が挙げられる。また、車両111の前後方向における位置は、例えば、車両111からの距離により規定することができる。
ステップ10では、まず、仮想的な平坦面121からの対象物115の高さΔh(図2参照)を算出する。この高さΔhは、前記処理Bを実行した場合は、後述するステップ32の処理で取得した値を用いることができる。また、高さΔhは、前記処理Aを実行した場合は、後述するステップ24で算出した差ΔL(路面123の起伏の程度を反映したパラメータ)と、車両111から対象物115までの距離(例えば画像113に基づき推定した距離D、図2参照)とから、算出することができる。
次に、前記ステップ9で算出した、仮想的な平坦面121上での対象物115の位置と、上記のように算出した高さΔhとから、対象物115の3次元空間における位置を算出する。
ここで、3次元空間における位置とは、仮想的な平坦面121(2次元平面)上での位置と、鉛直方向(1次元軸)での位置とで構成されるものである。仮想的な平坦面121上での位置は、前記ステップ9で算出した位置であり、鉛直方向での位置は、上述したように算出した高さΔhで定まる位置である。
ステップ11では、前記ステップ10で算出した、対象物115の3次元空間における位置を車両制御部109に出力する。
次に、前記ステップ7の処理Aを、図2、図4、図7に基づき説明する。図4のステップ21では、図7に示すように、前記ステップ1で取得した画像113において、周知の画像認識方法を用い、地平線125を認識する。なお、地平線125を直接認識できない場合は、前方の道路127における左右の車線境界線129、131をそれぞれ前方に向けて延長し、それらの交点133を求め、その交点133を通る水平線を地平線125としてもよい。図7の直線道路以外で、前方の道路が湾曲している場合でも、左右の車線境界線が交差する点を求め、同様に地平線を推定してもよい。
次に、前記ステップ7の処理Aを、図2、図4、図7に基づき説明する。図4のステップ21では、図7に示すように、前記ステップ1で取得した画像113において、周知の画像認識方法を用い、地平線125を認識する。なお、地平線125を直接認識できない場合は、前方の道路127における左右の車線境界線129、131をそれぞれ前方に向けて延長し、それらの交点133を求め、その交点133を通る水平線を地平線125としてもよい。図7の直線道路以外で、前方の道路が湾曲している場合でも、左右の車線境界線が交差する点を求め、同様に地平線を推定してもよい。
ステップ22では、図7に示すように、画像113において、前記ステップ21で認識した地平線125の縦軸Y上の位置(座標)Lyを取得する。
ステップ23では、前記ステップ22で取得した位置Lyを、前記ステップ5と同様に補正して、車両111の姿勢が基準姿勢である場合における、地平線125の縦軸Y上での位置Ly'を算出する。
ステップ23では、前記ステップ22で取得した位置Lyを、前記ステップ5と同様に補正して、車両111の姿勢が基準姿勢である場合における、地平線125の縦軸Y上での位置Ly'を算出する。
ステップ24では、図7に示すように、前記ステップ23で取得した位置Ly‘と、基準地平線135の位置との、縦軸Y上での差ΔLを算出する。ここで、基準地平線135とは、車両111の姿勢が基準姿勢であり、車両111の前方に起伏がない(仮想的な平坦面121が地平線を形成する)場合の地平線である。画像113における基準地平線135の位置は予め記憶部5に記憶されている。差ΔLは、仮想的な平坦面121に対する、対象物115が存在する路面123の起伏が著しいほど、大きくなる。よって、差ΔLは、路面123の起伏の程度を表す値である。
ステップ25では、前記ステップ24で算出した差ΔLに基づき、補正量Δy2を算出する。なお、記憶部5のマップ9には、予め、差ΔLと補正量Δy2との対応関係が記憶されており、上記のように算出した差ΔLをマップ9に当てはめると、それに対応する補正量Δy2が算出される。
ここで補正量Δy2について説明する。画像113における対象物115の縦軸Y上の位置は、対象物115の2次元平面上での位置(図2において上方から見たときの位置)が同じであっても、対象物が存在する路面123の起伏の程度に応じて変化する。
例えば、図2に示すように、対象物115が起伏のある路面123上にある場合の、画像113における対象物115の縦軸Y上の位置をy'とする。また、2次元平面上での位置は同じである対象物115が、仮想的な平坦面121上の位置124にある場合の、画像113における対象物115の縦軸Y上の位置をy''とする。位置y'と位置y''との差が上述した補正量Δy2である。補正量Δy2と差ΔLとの間には一義的な関係が成立する。
ステップ26では、前記ステップ5で算出した位置y'に、前記ステップ25で算出した補正量Δy2を加算し、位置y''を算出する。この位置y''は、上述したとおり、対象物115が仮想的な平坦面121上の位置124にある場合の、画像113における対象物115の縦軸Y上の位置である。
次に、前記ステップ8の処理Bを、図5を用いて説明する。図5のステップ31では、まず、前記ステップ1で取得した画像113において、車両111を基準とする、対象物115の方位を取得する。次に、3次元地図7から、その方位上(車両111と対象物115とを結ぶ直線上)での連続的な高度(変化)情報を取得する。
次に、その高度(変化)情報を用いて、上記方位上の各点に対象物115が存在すると仮定した場合の、画像113における対象物115の縦軸Y上での位置を計算する。そして、その計算した縦軸Y上での位置と、位置y'( 車両111の姿勢が基準姿勢である場合における、縦軸Y上での対象物115の実際の位置)とが一致する上記方位上の地点Pを探す。この地点Pが、3次元地図7における対象物115の位置である。
ステップ32では、上記のように探した地点Pを3次元地図7にあてはめ、対象物115が存在する地点Pでの高さを算出する。そして、対象物115が存在する地点の高さから、車両111が存在する地点の高さを差し引いて、高さΔhを算出する。車両111が存在する地点の高さは、GPS105を用いて車両111の位置を取得し、その位置を3次元地図7にあてはめることで取得できる。なお、この高さΔhは、仮想的な平坦面121に対する、対象物115が存在する路面123の起伏が著しいほど、大きくなる。よって、高さΔhは、路面123の起伏の程度を表す値である。
ステップ33では、前記ステップ32で算出した高さΔhに基づき、補正量Δy2を算出する。なお、記憶部5のマップ9には、予め、高さΔhと補正量Δy2との対応関係が記憶されており、前記ステップ32で算出した高さΔhをマップ9に当てはめると、それに対応する補正量Δy2が算出される。
ステップ34では、前記ステップ5で算出した位置y'に、前記ステップ33で算出した補正量Δy2を加算し、位置y''を算出する。この位置y''は、上述したとおり、対象物115が仮想的な平坦面121上の位置124にある場合の、画像113における対象物115の縦軸Y上の位置である。
3.対象物位置推定装置1が奏する効果
(1)対象物位置推定装置1は、対象物の3次元空間における位置を容易に推定することができる。また、対象物位置推定装置1は、駐車車両で道端が隠れていたり、道路の幅員が途中で変化していたりする場合でも、対象物の3次元空間における位置を推定することができる。
(1)対象物位置推定装置1は、対象物の3次元空間における位置を容易に推定することができる。また、対象物位置推定装置1は、駐車車両で道端が隠れていたり、道路の幅員が途中で変化していたりする場合でも、対象物の3次元空間における位置を推定することができる。
(2)対象物位置推定装置1は、高価なステレオカメラを必ずしも使用しなくても、対象物の3次元空間における位置を推定することができる。
(3)対象物位置推定装置1は、車両111の姿勢にピッチングが生じている場合や、前方の路面に起伏がある場合でも、対象物の3次元空間における位置を推定することができる。
<第2の実施形態>
1.対象物位置推定装置1の構成
本実施形態の対象物位置推定装置1の構成は、基本的には、前記第1の実施形態と同様であるが、一部において相違する。以下では、この相違点を説明する。本実施形態の対象物位置推定装置1では、図9に示すように、単眼カメラ101は、車両111の後方(一方向の一例)を撮像するように、車両111に取り付けられている。
(3)対象物位置推定装置1は、車両111の姿勢にピッチングが生じている場合や、前方の路面に起伏がある場合でも、対象物の3次元空間における位置を推定することができる。
<第2の実施形態>
1.対象物位置推定装置1の構成
本実施形態の対象物位置推定装置1の構成は、基本的には、前記第1の実施形態と同様であるが、一部において相違する。以下では、この相違点を説明する。本実施形態の対象物位置推定装置1では、図9に示すように、単眼カメラ101は、車両111の後方(一方向の一例)を撮像するように、車両111に取り付けられている。
2.対象物位置推定装置1が実行する処理
本実施形態の対象物位置推定装置1は、前記第1の実施形態と基本的に同様の処理を実行する。ただし、本実施形態では、車両111の後方に存在する対象物115の3次元空間における位置を推定する。
本実施形態の対象物位置推定装置1は、前記第1の実施形態と基本的に同様の処理を実行する。ただし、本実施形態では、車両111の後方に存在する対象物115の3次元空間における位置を推定する。
3.対象物位置推定装置1が奏する効果
本実施形態の対象物位置推定装置1は、前記第1の実施形態と基本的に同様の効果を奏する。また、本実施形態の対象物位置推定装置1は、車両111の後方に存在する対象物115の3次元空間における位置を容易に推定することができる。
<第3の実施形態>
1.対象物位置推定装置1の構成
本実施形態の対象物位置推定装置1の構成は、基本的には、前記第1の実施形態と同様であるが、一部において相違する。以下では、この相違点を説明する。本実施形態の対象物位置推定装置1では、図10に示すように、単眼カメラ101は、車両111の左方(一方向の一例)を撮像するように、車両111に取り付けられている。
本実施形態の対象物位置推定装置1は、前記第1の実施形態と基本的に同様の効果を奏する。また、本実施形態の対象物位置推定装置1は、車両111の後方に存在する対象物115の3次元空間における位置を容易に推定することができる。
<第3の実施形態>
1.対象物位置推定装置1の構成
本実施形態の対象物位置推定装置1の構成は、基本的には、前記第1の実施形態と同様であるが、一部において相違する。以下では、この相違点を説明する。本実施形態の対象物位置推定装置1では、図10に示すように、単眼カメラ101は、車両111の左方(一方向の一例)を撮像するように、車両111に取り付けられている。
2.対象物位置推定装置1が実行する処理
本実施形態の対象物位置推定装置1は、前記第1の実施形態と基本的に同様の処理を実行する。ただし、本実施形態では、車両の姿勢とは、図10中の矢印Rで示す、車両111のローリング角を意味し、基準姿勢とは車両111の左右軸137が路面119に平行である姿勢を意味する。また、車両の姿勢における、基準姿勢に対する変化量とは、基準姿勢におけるローリング角に対する、その時点でのローリング角の変化量(以下、ΔRとする)を意味する。
本実施形態の対象物位置推定装置1は、前記第1の実施形態と基本的に同様の処理を実行する。ただし、本実施形態では、車両の姿勢とは、図10中の矢印Rで示す、車両111のローリング角を意味し、基準姿勢とは車両111の左右軸137が路面119に平行である姿勢を意味する。また、車両の姿勢における、基準姿勢に対する変化量とは、基準姿勢におけるローリング角に対する、その時点でのローリング角の変化量(以下、ΔRとする)を意味する。
また、姿勢センサ103は、ローリング角の変化量ΔRを算出する。前記ステップ5では、前記ステップ3で取得した位置yを、ローリング角の変化量ΔRに基づき、位置y'( 車両111の姿勢が基準姿勢である場合における、対象物115の縦軸Y上での位置)に補正する。記憶部5のマップ9には、予め、ローリング角の変化量ΔRと、ローリング角の変化に起因する、縦軸Y上の位置における変化量との間の一定の対応関係が記憶されており、この対応関係を用いて、上記の補正を行う。
3.対象物位置推定装置1が奏する効果
本実施形態の対象物位置推定装置1は、前記第1の実施形態と基本的に同様の効果を奏する。また、本実施形態の対象物位置推定装置1は、車両111の左方に存在する対象物115の3次元空間における位置を容易に推定することができる。
<その他の実施形態>
(1)前記第1〜第3の実施形態において、対象物位置推定装置1は、処理A、処理Bのうちの一方は行わなくてもよい。また、対象物位置推定装置1は、処理A、処理Bの両方を行ってもよい。処理Bを行わない場合、対象物位置推定装置1は、GPS105と3次元地図7を備えていなくてもよい。
本実施形態の対象物位置推定装置1は、前記第1の実施形態と基本的に同様の効果を奏する。また、本実施形態の対象物位置推定装置1は、車両111の左方に存在する対象物115の3次元空間における位置を容易に推定することができる。
<その他の実施形態>
(1)前記第1〜第3の実施形態において、対象物位置推定装置1は、処理A、処理Bのうちの一方は行わなくてもよい。また、対象物位置推定装置1は、処理A、処理Bの両方を行ってもよい。処理Bを行わない場合、対象物位置推定装置1は、GPS105と3次元地図7を備えていなくてもよい。
(2)前記第3の実施形態において、単眼カメラ101は、車両111の右方(一方向の一例)を撮像するように、車両111に取り付けられていてもよい。
1…対象物位置推定装置、3…処理部、5…記憶部、101…単眼カメラ、103…姿勢センサ、105…GPS、109…車両制御部、111…車両、113…画像、115…対象物、117…前後軸、119、123…路面、121…仮想的な平坦面、125…地平線、127…道路、129、131…車線境界線、133…交点、135…基準地平線、137…左右軸
Claims (4)
- 車両(111)における一方向の画像(113)を取得する画像取得手段(101)と、
前記画像において対象物(115)を認識する対象物認識手段(3)と、
前記車両の姿勢における、基準姿勢に対する変化量(ΔP)を検出する姿勢変化量検出手段(3)と、
前記画像における前記対象物の縦軸上の位置(y)を、前記変化量に基づき、前記車両の姿勢が前記基準姿勢である場合の位置(y')に補正する第1の補正手段(3)と、
前記車両が存在する路面(119)を含む仮想的な平坦面(121)に対する、前記対象物が存在する路面(123)の起伏の程度を取得する起伏情報取得手段(3、7、105)と、
前記第1の補正手段による補正後の、前記画像における前記対象物の縦軸上の位置を、前記起伏の程度に基づき、前記対象物が前記仮想的な平坦面上に存在する場合の位置(y'')に補正する第2の補正手段(3)と、
前記車両の姿勢が前記基準姿勢である場合の前記画像における縦軸上の位置と、前記仮想的な平坦面上での位置との関係を規定するマップ(9)と、
前記マップを用いて、前記第2の補正手段による補正後の、前記画像における前記対象物の縦軸上の位置から、前記仮想的な平坦面上での前記対象物の位置を算出する平坦面上位置算出手段と、
前記仮想的な平坦面上での前記対象物の位置と、前記起伏の程度とから、前記対象物の3次元空間における位置を算出する3次元空間位置算出手段(3)と、
を備えることを特徴とする対象物位置推定装置(1)。 - 前記起伏情報取得手段は、前記対象物が存在する範囲を含む3次元地図(7)と、前記車両及び前記対象物の2次元平面上での位置を特定する位置特定手段(105)と、を用いて前記起伏の程度を取得することを特徴とする請求項1に記載の対象物位置推定装置。
- 前記起伏情報取得手段は、前記第1の補正手段による補正後の、前記画像における地平線(125)の縦軸上の位置と、予め設定された基準地平線(135)の位置との差(ΔL)に基づき、前記起伏の程度を取得することを特徴とする請求項1に記載の対象物位置推定装置。
- 前記一方向は車両の前方又は後方であり、
前記変化量は、ピッチング角の変化量であることを特徴とする請求項1〜3のいずれか1項に記載の対象物位置推定装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014099650A JP2015215299A (ja) | 2014-05-13 | 2014-05-13 | 対象物位置推定装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014099650A JP2015215299A (ja) | 2014-05-13 | 2014-05-13 | 対象物位置推定装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015215299A true JP2015215299A (ja) | 2015-12-03 |
Family
ID=54752304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014099650A Pending JP2015215299A (ja) | 2014-05-13 | 2014-05-13 | 対象物位置推定装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015215299A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108692719A (zh) * | 2017-04-07 | 2018-10-23 | 丰田自动车株式会社 | 物体检测装置 |
JP2018165912A (ja) * | 2017-03-28 | 2018-10-25 | アイシン精機株式会社 | 支援装置 |
JP2019114086A (ja) * | 2017-12-25 | 2019-07-11 | パイオニア株式会社 | 情報処理装置、情報収集装置、地図情報更新タイミング判定システム、地図情報更新タイミング判定方法およびプログラム |
WO2023155532A1 (zh) * | 2022-02-17 | 2023-08-24 | 上海商汤智能科技有限公司 | 位姿检测方法及装置、电子设备和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08136237A (ja) * | 1994-11-10 | 1996-05-31 | Nissan Motor Co Ltd | 走行路勾配算出装置および車速制御装置 |
JP2005285011A (ja) * | 2004-03-30 | 2005-10-13 | Sumitomo Electric Ind Ltd | 人間認識システム、及び画像処理装置 |
JP2007285851A (ja) * | 2006-04-17 | 2007-11-01 | Alpine Electronics Inc | 車載周辺物体検出装置 |
JP2013002883A (ja) * | 2011-06-14 | 2013-01-07 | Honda Motor Co Ltd | 測距装置 |
-
2014
- 2014-05-13 JP JP2014099650A patent/JP2015215299A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08136237A (ja) * | 1994-11-10 | 1996-05-31 | Nissan Motor Co Ltd | 走行路勾配算出装置および車速制御装置 |
JP2005285011A (ja) * | 2004-03-30 | 2005-10-13 | Sumitomo Electric Ind Ltd | 人間認識システム、及び画像処理装置 |
JP2007285851A (ja) * | 2006-04-17 | 2007-11-01 | Alpine Electronics Inc | 車載周辺物体検出装置 |
JP2013002883A (ja) * | 2011-06-14 | 2013-01-07 | Honda Motor Co Ltd | 測距装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018165912A (ja) * | 2017-03-28 | 2018-10-25 | アイシン精機株式会社 | 支援装置 |
CN108692719A (zh) * | 2017-04-07 | 2018-10-23 | 丰田自动车株式会社 | 物体检测装置 |
JP2019114086A (ja) * | 2017-12-25 | 2019-07-11 | パイオニア株式会社 | 情報処理装置、情報収集装置、地図情報更新タイミング判定システム、地図情報更新タイミング判定方法およびプログラム |
WO2023155532A1 (zh) * | 2022-02-17 | 2023-08-24 | 上海商汤智能科技有限公司 | 位姿检测方法及装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102313026B1 (ko) | 차량 및 차량 후진 시 충돌방지 보조 방법 | |
US9740942B2 (en) | Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method | |
WO2018221453A1 (ja) | 出力装置、制御方法、プログラム及び記憶媒体 | |
EP2348279B1 (en) | Road measurement device and method for measuring road | |
JP5089545B2 (ja) | 道路境界検出判断装置 | |
KR100921427B1 (ko) | 영상 기반 내비게이션을 위한 가상차선을 생성하는 방법 및그 장치 | |
JP5664603B2 (ja) | 車載音響装置及びプログラム | |
JP6020729B2 (ja) | 車両位置姿勢角推定装置及び車両位置姿勢角推定方法 | |
CN111263960B (zh) | 用于更新高清晰度地图的设备和方法 | |
JP2008021161A (ja) | 走行状態判定装置 | |
JP6756101B2 (ja) | 物体認識装置 | |
CN104204726A (zh) | 移动物体位置姿态估计装置和移动物体位置姿态估计方法 | |
CN107600073B (zh) | 一种基于多源信息融合的车辆质心侧偏角估计系统及方法 | |
WO2018179281A1 (ja) | 物体検出装置及び車両 | |
JP6380550B2 (ja) | 表示装置及び表示方法 | |
JP5310027B2 (ja) | 車線認識装置、及び車線認識方法 | |
JP2015215299A (ja) | 対象物位置推定装置 | |
JP6044084B2 (ja) | 移動物体位置姿勢推定装置及び方法 | |
Cheung et al. | Accurate distance estimation using camera orientation compensation technique for vehicle driver assistance system | |
JP5695000B2 (ja) | 車両周辺監視装置 | |
JP7081098B2 (ja) | 走行環境認識装置、走行環境認識方法、プログラム | |
Li et al. | Pitch angle estimation using a Vehicle-Mounted monocular camera for range measurement | |
KR102003387B1 (ko) | 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체 | |
JP7411108B2 (ja) | 車両姿勢推定システムおよび車両姿勢推定方法 | |
CN113811743A (zh) | 用于确定运输工具位置的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170606 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171212 |