JP3808287B2 - 位置検出装置 - Google Patents
位置検出装置 Download PDFInfo
- Publication number
- JP3808287B2 JP3808287B2 JP2000192394A JP2000192394A JP3808287B2 JP 3808287 B2 JP3808287 B2 JP 3808287B2 JP 2000192394 A JP2000192394 A JP 2000192394A JP 2000192394 A JP2000192394 A JP 2000192394A JP 3808287 B2 JP3808287 B2 JP 3808287B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- coordinate system
- vehicle
- pitch angle
- straight line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
【発明の属する技術分野】
本発明は、車両に搭載された撮像装置により得られる画像に基づいて、対象物の位置を検出する位置検出装置に関する。
【0002】
【従来の技術】
車両に撮像装置を搭載し、その撮像装置により得られる画像から対象物の位置を検出し、その対象物と当該車両との衝突の可能性を判定する周辺監視装置が従来より提案されている。このような装置では、撮像装置を移動する車両に搭載しているため、車両のピッチングによって車両に固定された撮像装置によって得られる画像に含まれる対象物像が上下方向に移動する。その結果、2つの撮像装置により得られる対象物像から、その対象物までの距離を算出し、該距離と画像内での位置データとを用いて、該対象物の位置を検出する場合、以下のような不具合が発生する。
【0003】
すなわち、撮像装置により得られる画像に基づいて算出される対象物の位置データは、撮像装置の光軸を基準とする座標系(以下「カメラ座標系」という)における位置データであるが、車両のピッチングにより、カメラ座標系と、車両の進行方向を基準とする実空間座標系との間にずれが生じるため、カメラ座標系における位置データをそのまま実空間座標系の位置データとして採用すると、対象物の位置を誤って検出することになる。
【0004】
例えば図16において、車両のピッチングにより生じるピッチ角をθPとし、O−Y−Zを車両の進行方向を基準とする実空間座標系とし、Oc−Yc−Zcをカメラ座標系とすると、点Aの実空間座標系における位置座標(Y,Z)は、(0,a)であるのに対し、カメラ座標系における位置座標(Yc,Zc)は、(−a・sinθP,a・cosθP)となり、ピッチ角θPに応じたずれが発生する。
【0005】
【発明が解決しようとする課題】
このような検出誤差を無くすため、車両の路面からの高さ(車高)を検出する車高センサを設け、このセンサにより検出される車高に基づいてピッチ角を検出し、検出位置を補正することが考えられるが、その場合には車高センサが必要となって装置の構造が複雑化する。
【0006】
本発明はこの点に着目してなされたものであり、撮像装置により得られる画像に基づいて、車両のピッチングの影響を除く補正を行い、正確な位置検出を行うことができる位置検出装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
上記目的を達成するため請求項1に記載の発明は、車両に搭載された2つの撮像手段によって得られる画像に基づいて対象物の実空間座標系における位置を検出する位置検出装置において、前記撮像手段により得られる対象物像から、前記撮像手段の光軸を基準とする撮像手段座標系における前記対象物の時系列の3次元空間上の位置データを算出する第1の位置データ算出手段と、該時系列の位置データに基づいて前記対象物の3次元空間上の相対移動軌跡を近似する近似直線を算出する近似直線算出手段と、該近似直線に基づいて前記撮像手段の光軸のピッチ角を算出するピッチ角算出手段と、前記撮像手段座標系における前記対象物の位置データを、前記ピッチ角に応じて補正することにより、前記実空間座標系における位置データを算出する第2の位置データ算出手段とを備えることを特徴とする。
【0008】
この構成によれば、撮像手段により得られる対象物の画像から、撮像手段の光軸を基準とする撮像手段座標系における前記対象物の時系列の3次元空間上の位置データが算出され、該時系列の位置データに基づいて前記対象物の3次元空間上の相対移動軌跡を近似する近似直線が算出され、その近似直線に基づいて撮像手段の光軸のピッチ角が算出される。そして、撮像手段座標系における対象物の位置データをピッチ角に応じて補正することにより、実空間座標系における位置データが算出される。したがって、車高センサを用いることなく車両のピッチングの影響を除いて正確な位置検出を行うことができる。
【0009】
前記近似直線算出手段は、前記時系列の位置データの平均位置座標を通り、各データ点からの距離の2乗の平均値が最小となるような直線として、前記近似直線を算出する。
また前記ピッチ角算出手段は、撮像手段座標系の座標軸が、前記車両のピッチングに伴って回動したときに、その回動の中心となる座標軸(Xc軸)に垂直な2つの座標軸(Yc軸及びZc軸)を含む平面に、前記近似直線を投影した直線と、前記撮像手段の光軸に平行な座標軸(Zc軸)とのなす角として、前記ピッチ角を算出する。
【0010】
【発明の実施の形態】
以下本発明の実施の形態を図面を参照して説明する。
図1は本発明の一実施形態にかかる位置検出装置を含む、車両の周辺監視装置の構成を示す図であり、この装置は、遠赤外線を検出可能な2つの赤外線カメラ1R,1Lと、当該車両のヨーレートを検出するヨーレートセンサ5と、当該車両の走行速度(車速)VCARを検出する車速センサ6と、ブレーキの操作量を検出するためのブレーキセンサ7と、これらのカメラ1R,1Lによって得られる画像データの基づいて車両前方の動物等の対象物を検出し、衝突の可能性が高い場合に警報を発する画像処理ユニット2と、音声で警報を発するためのスピーカ3と、カメラ1Rまたは1Lによって得られる画像を表示するとともに、衝突の可能性が高い対象物を運転者に認識させるためのヘッドアップディスプレイ(以下「HUD」という)4とを備えている。
【0011】
カメラ1R、1Lは、図2に示すように車両10の前部に、車両10の横方向の中心軸に対してほぼ対象な位置に離間して配置されており、2つのカメラ1R、1Lの光軸が互いに平行となり、両者の路面からの高さが等しくなるように固定されている。赤外線カメラ1R、1Lは、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。
【0012】
画像処理ユニット2は、入力アナログ信号をディジタル信号に変換するA/D変換回路、ディジタル化した画像信号を記憶する画像メモリ、各種演算処理を行うCPU(Central Processing Unit)、CPUが演算途中のデータを記憶するために使用するRAM(Random Access Memory)、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)、スピーカ3の駆動信号、HUD4の表示信号などを出力する出力回路などを備えており、カメラ1R,1L及びセンサ5〜7の出力信号は、ディジタル信号に変換されて、CPUに入力されるように構成されている。
HUD4は、図2に示すように、車両10のフロントウインドウの、運転者の前方位置に画面4aが表示されるように設けられている。
【0013】
図3は画像処理ユニット2における対象物の位置検出処理の手順を示すフローチャートであり、この処理は、所定時間毎に実行される。
先ずカメラ1R、1Lの出力信号をA/D変換して画像メモリに格納する(ステップS11,S12,S13)。画像メモリに格納される画像は、輝度情報を含んだグレースケール画像である。図5(a)(b)は、それぞれはカメラ1R,1Lによって得られるグレースケール画像(カメラ1Rにより右画像が得られ、カメラ1Lにより左画像が得られる)を説明するための図であり、ハッチングを付した領域は、中間階調(グレー)の領域であり、太い実線で囲んだ領域が、輝度レベルが高く(高温で)、画面上に白色として表示される対象物の領域(以下「高輝度領域」という)である。右画像と左画像では、同一の対象物の画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
【0014】
図3のステップS14では、右画像を基準画像とし、その画像信号の2値化、すなわち、実験的に決定される輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。図6に図5(a)の画像を2値化した画像を示す。この図は、ハッチングを付した領域が黒であり、太い実線で囲まれた高輝度領域が白であることを示している。
【0015】
続くステップS15では、2値化した画像データをランレングスデータに変換する処理を行う。図7(a)はこれを説明するための図であり、この図では2値化により白となった領域を画素レベルでラインL1〜L8として示している。ラインL1〜L8は、いずれもy方向には1画素の幅を有しており、実際にはy方向には隙間なく並んでいるが、説明のために離間して示している。またラインL1〜L8は、x方向にはそれぞれ2画素、2画素、3画素、8画素、7画素、8画素、8画素、8画素の長さを有している。ランレングスデータは、ラインL1〜L8を各ラインの開始点(各ラインの左端の点)の座標と、開始点から終了点(各ラインの右端の点)までの長さ(画素数)とで示したものである。例えばラインL3は、(x3,y5)、(x4,y5)及び(x5,y5)の3画素からなるので、ランレングスデータとしては、(x3,y5,3)となる。
【0016】
ステップS16、S17では、図7(b)に示すように対象物のラベリングをすることにより、対象物を抽出する処理を行う。すなわち、ランレングスデータ化したラインL1〜L8のうち、y方向に重なる部分のあるラインL1〜L3を1つの対象物1とみなし、ラインL4〜L8を1つの対象物2とみなし、ランレングスデータに対象物ラベル1,2を付加する。この処理により、例えば図6に示す高輝度領域が、それぞれ対象物1から4として把握されることになる。
【0017】
ステップS18では図7(c)に示すように、抽出した対象物の面積重心G、面積S及び破線で示す外接四角形の縦横比ASPECTを算出する。面積Sは、ランレングスデータの長さを同一対象物について積算することにより算出し、面積重心Gの座標は、面積Sをx方向に2等分する線のx座標及びy方向に2等分する線のy座標として算出し、縦横比APECTは、図7(c)に示すDyとDxとの比Dy/Dxとして算出する。なお、面積重心Gの位置は、外接四角形の重心位置で代用してもよい。
【0018】
ステップS19では、対象物の時刻間追跡、すなわちサンプリング周期毎に同一対象物の認識を行う。アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、図8(a)に示すように時刻kで対象物1,2を抽出した場合において、時刻(k+1)で抽出した対象物3,4と、対象物1,2との同一性判定を行う。具体的には、以下の同一性判定条件1)〜3)を満たすときに、対象物1、2と対象物3、4とは同一であると判定し、対象物3、4をそれぞれ1,2というラベルに変更することにより、時刻間追跡が行われる。
【0019】
1)時刻kにおける対象物i(=1,2)の画像上での面積重心位置座標を、それぞれ(xi(k),yi(k))とし、時刻(k+1)における対象物j(=3,4)の画像上での面積重心位置座標を、(xj(k+1),yj(k+1))としたとき、
|xj(k+1)−xi(k)|<ΔxM
|yj(k+1)−yi(k)|<ΔyM
であること。ただし、ΔxM、ΔyMは、それぞれx方向及びy方向の画像上の変位量の許容値である。
【0020】
2)時刻kにおける対象物i(=1,2)の画像上での面積をSi(k)とし、時刻(k+1)における対象物j(=3,4)の画像上での面積をSj(k+1)としたとき、
Sj(k+1)/Si(k)<1±ΔS
であること。ただし、ΔSは面積変化の許容値である。
【0021】
3)時刻kにおける対象物i(=1,2)の外接四角形の縦横比をASPECTi(k)とし、時刻(k+1)における対象物j(=3,4)の外接四角形の縦横比をASPECTj(k+1)としたとき、
ASPECTj(k+1)/ASPECTi(k)<1±ΔASPECT
であること。ただし、ΔASPECTは縦横比変化の許容値である。
【0022】
図8(a)と(b)とを対比すると、各対象物は同図(b)の方が画像上での大きさが大きくなっているが、対象物1と3とが上記同一性判定条件を満たし、対象物2と4とが上記同一性判定条件を満たすので、対象物3、4はそれぞれ対象物1、2と認識される。このようにして認識された各対象物の(面積重心の)位置座標は、時系列位置データとしてメモリに格納され、後の演算処理に使用される。
なお以上説明した図3のステップS14〜S19の処理は、2値化した基準画像(本実施形態では、右画像)ついて実行する。
【0023】
図3のステップS31では、先ず図9に示すように右画像(基準画像)に含まれる対象物像OBJR1に対応する左画像(探索画像)中の対象物像COBJL1を求める。次いで、対象物像OBJR1の面積重心位置と、画像左端との距離dR(画素数)及び対応対象物像COBJL1の面積重心位置と画像左端との距離dL(画素数)を算出し、下記式(1)に適用して、車両10と、対象物との距離zを算出する。ステップS31は、ステップS19の処理に比べて長い時間を要するので、ステップS19より長い周期(例えばステップS11〜S19の実行周期の3倍程度の周期)で実行される。
【数1】
【0024】
ここで、Bは基線長、すなわち図10に示すようにカメラ1Rの撮像素子11Rの中心位置と、カメラ1Lの撮像素子11Lの中心位置との水平方向(x方向)の距離(両カメラの光軸の間隔)、Fはレンズ12R、12Lの焦点距離、pは、撮像素子11R、11L内の画素間隔であり、Δd(=dL−dR)が視差である。
【0025】
ステップS20では、図4に示す実空間位置算出処理を実行する。この処理では、先ず画像内の対象物像の座標(x、y)及び距離zから、カメラの光軸を基準とするカメラ座標系(撮像手段座標系)における対象物の座標(Xc,Yc,Zc)を算出し、これを車両進行方向を基準とする実空間座標系における座標(X,Y,Z)に変換する処理を行う。
【0026】
カメラ座標系における座標(Xc,Yc,Zc)は、画像内の座標(x,y)及び式(1)により算出した距離zを下記式(2)に適用して算出する。
ここで、カメラ座標系は、図11(a)に示すように、カメラ1R、1Lの取り付け位置の中点の位置(車両10に固定された位置)を原点Ocとし、この原点Ocを通り、カメラ1Rの光軸に平行な軸をZc軸として、図示のように定め、画像内の座標は同図(b)に示すように、画像の中心を原点として水平方向をx、垂直方向をyと定めている。
【数2】
【0027】
式(2)において、(xc,yc)は、右画像上の座標(x,y)を、カメラ1Rの取り付け位置と、原点Ocとの相対位置関係基づいて、原点Ocと画像の中心とを一致させた仮想的な画像内の座標に変換したものである。またfは、焦点距離Fと画素間隔pとの比である。
【0028】
カメラ座標系は、車両10のピッチングにより、Xc軸を中心として回動するので、ピッチングの影響を受けない座標系として、車両10の進行方向を基準とした実空間座標系O−X−Y−Zを定義する。実空間座標系は、車両のピッチングがない状態では、図11(c)に示すようにカメラ座標系Oc−Xc−Yc−Zcと一致するが、例えばカメラの光軸が下方向に回動(回転移動)したときは、Y軸及びZ軸は、同図(d)に示すように、Yc軸及びZc軸とずれる。
【0029】
図12は、図11(d)に示すような状態を、X軸方向からみた図である。すなわち図12は、X軸(Xc軸)の正方向が、紙面の裏から表に向かう方向となるように示されている。この図において、PLは画像面であり、Zc=Fの平面として示される。画像上で座標q=(x0c,y0c)に位置する対象物像について距離z0が算出されると、式(2)により、カメラ座標系における対象物の位置座標Q=(X0c,Y0c,Z0c)が算出される。この座標Qに対応する実空間座標系における位置座標Pを(X0,Y0,Z0)とすると、座標PとQの関係は、下記式(3)で与えられる。
【数3】
ここで、θPは、カメラの光軸(Zc軸)と車両10の進行方向(Z軸)とのなすピッチ角である。ピッチ角θPは、図12に示すようにZc軸がZ軸に対して下方向に回動したときを正とし、逆に上方向に回動したときを負とする。
【0030】
したがって、カメラ座標系における座標Qを、式(3)を用いて実空間座標系における座標Pに変換するためには、ピッチ角θPを求める必要がある。そこで、次にピッチ角θPの算出方法を説明する。
車両10が静止対象物に対して直進している状態において、車両10から観測される静止対象物の時系列の位置座標は、図13にQ(N−1),Q(N−2),…,Q(1),Q(0)として示すように、実空間座標系のZ軸からの距離がαで、且つZ軸に平行な直線LQ上に並ぶ。ここで、Q(j)(j=0〜N−1)は、jサンプル期間前の位置座標であり、Q(0)が最新の位置座標である。この直線LQをカメラ座標系で観測すると、傾きを持った直線として認識され、この直線LQとZc軸とのなす角がピッチ角θPと等しい。なお、直線LQは、3次元空間上では、Zc軸と交わるとは限らないので、ピッチ角θPは、より正確には直線LQをYcZc平面への投影した直線と、Zc軸とのなす角として、算出することができる。
【0031】
実際に走行する車両10から静止対象物の位置を検出すると、得られる位置データは、図13に示すようにきれいに直線LQ上に並ぶことはなく、直線LQの近傍に分布するようなデータが得られる。したがって、本実施形態では、以下に説明する手法で、検出位置データから静止対象物の相対移動軌跡を近似する近似直線LMV(直線LQとして推定される線)を算出し、その近似直線LMVをYcZc平面に投影した直線と、Zc軸とのなす角として、ピッチ角θPを算出する。
【0032】
図14に示すように同一対象物について、(N−1)サンプル期間内に得られた、カメラ座標系におけるN個の位置データ(例えばN=10程度)、すなわち時系列データQ(N−1),Q(N−2),…,Q(1),Q(0)から、対象物と車両10との相対移動軌跡に対応する近似直線LMVを求める。具体的には、近似直線LMVの方向を示す方向ベクトルL=(Lx,Ly,Lz)(|L|=1)とすると、下記式(4)で表される直線を求める。
【数4】
【0033】
ここでuは、任意の値をとる媒介変数であり、Xav,Yav及びZavは、それぞれカメラ座標系における位置データ列のXc座標の平均値、Yc座標の平均値及びZc座標の平均値である。なお、式(4)は媒介変数uを消去すれば下記式(4a)のようになる。
【0034】
近似直線LMVは、図14に示す時系列データの平均位置座標Qav(=(Xav,Yav,Zav))を通り、各データ点からの距離の2乗の平均値が最小となるような直線として求められる。
より具体的には、平均位置座標Qavから各データ点の座標Q(0)〜Q(N−1)に向かうベクトルD(j)=(DX(j),DY(j),DZ(j))=(Xc(j)−Xav,Yc(j)−Yav,Zc(j)−Zav)と、方向ベクトルLとの内積sを下記式(5)により算出し、この内積sの分散が最大となる方向ベクトルL=(Lx,Ly,Lz)を求める。
s=Lx・DX(j)+Ly・DY(j)+Lz・DZ(j) (5)
【0035】
各データ点の座標の分散共分散行列Vは、下記式(6)で表され、この行列の固有値σが内積sの分散に相当するので、この行列から算出される3つの固有値のうち最大の固有値に対応する固有ベクトルが求める方向ベクトルLとなる。なお、式(6)の行列から固有値と固有ベクトルを算出するには、ヤコビ法(例えば「数値計算ハンドブック」(オーム社)に示されている)として知られている手法を用いる。
【数5】
このようにして、方向ベクトルLが求まると、ピッチ角θPは、下記式(7)で与えられる。
【数6】
【0036】
以上説明した処理が図4の処理で実行される。すなわち、ステップS41では、画像上の位置座標(xc,yc)及び距離zを式(2)にて適用して、カメラ座標系における位置座標(Xc,Yc,Zc)を算出する。次いで同一対象物についての位置座標データの数がN個以上となったか否かを判別し(ステップS42)、データ数が不足しているときは、ステップS43〜S45を実行することなく処理を終了する。
【0037】
データ数がN個となると、上述した手法により近似直線LMVを算出し(ステップS43)、式(7)により、ピッチ角θPを算出する(ステップS44)。次いで、カメラ座標系における位置座標データ(Xc,Yc,Zc)及びピッチ角θPを式(3)に適用して、すなわちカメラ座標系における位置座標データをピッチ角θPに応じて補正することにより、実空間座標系における位置座標データ(X,Y,Z)を算出して(ステップS45)、本処理を終了する。
【0038】
なお、上述したピッチ角算出方法は、対象物が静止していることを前提として説明したが、実際には対象物の実空間座標系におけるY座標、すなわち高さ方向の位置が変化しなければよいので、X方向やZ方向への動きがある対象物であっても、ピッチ角θPを算出することができる。通常は、高さ方向に移動する対象物はほとんどないので、静止対象物であるか否かの判定を行わなくても、十分な精度のピッチ角θPを算出することできる。ただし、少なくとN個のデータを取得する期間中はピッチ角θPがほぼ一定であることを前提としているので、例えば加速度または減速度がほぼ一定の加速状態または減速状態、あるいは車両に搭載された荷物などに起因する車両の傾きがあり場合に、ほぼ一定速度で走行している状態などにおいて、正確なピッチ角θPを得ることができ、対象物の正確な位置検出を行うことができる。
【0039】
図15は、ほぼ一定の加速度で加速中の車両から観測した時系列位置データを示し、時系列データDP1が、ピッチ角θPによる補正を行う前のデータであり、時系列データDP2がピッチ角補正後のデータである。このように、加速中はピッチ角補正を行わないと、対象物の高さを誤検出してしまうが、上述したピッチ角θPに応じた補正、すなわち座標変換を行うことにより、対象物の正確な位置を検出することができる。
【0040】
画像処理ユニット2は、図3の処理により算出された対象物の実空間上の位置情報に基づいて、その対象物と車両10との衝突の可能性を判定し、衝突の可能性が高いときは、スピーカ3及びHUD4を介して運転者への警報を発する。
本実施形態では、画像処理ユニット2が位置検出装置を構成し、より具体的には、図4のステップS41、S43、S44及びS45が、それぞれ第1の位置データ算出手段、近似直線算出手段、ピッチ角算出手段及び第2の位置データ算出手段に相当する。
【0041】
なお本発明は上述した実施形態に限るものではなく、種々の変形が可能である。例えば、上述した実施形態では、撮像手段として赤外線カメラを使用したが、例えば特開平9−226490号公報に示されるように通常の可視光線のみ検出可能なテレビカメラを使用してもよい。ただし、赤外線カメラを用いることにより、動物等あるいは走行中の車両などの抽出処理を簡略化することができ、演算装置の演算能力が比較的低いものでも実現できる。
【0042】
【発明の効果】
以上詳述したように本発明によれば、撮像手段により得られる対象物の画像から、撮像手段の光軸を基準とする撮像手段座標系における前記対象物の時系列の3次元空間上の位置データが算出され、該時系列の位置データに基づいて前記静止対象物の3次元空間上の相対移動軌跡を近似する近似直線が算出され、その近似直線に基づいて撮像手段の光軸のピッチ角が算出される。そして、撮像手段座標系における対象物の位置データをピッチ角に応じて補正することにより、実空間座標系における位置データが算出される。したがって、車高センサを用いることなく車両のピッチングの影響を除いて正確な位置検出を行うことができる。
【図面の簡単な説明】
【図1】本発明の一実施形態にかかる位置検出装置を含む、車両の周辺監視装置の構成を示す図である。
【図2】赤外線カメラの取り付け位置を説明するための図である。
【図3】対象物を抽出した位置検出を行う処理の手順を示すフローチャートである。
【図4】図3の実空間位置算出処理のフローチャートである。
【図5】赤外線カメラにより得られるグレースケール画像を説明するために、中間階調部にハッチングを付して示す図である。
【図6】グレースケール画像を2値化した画像を説明するために、黒の領域をハッチングを付して示す図である。
【図7】ランレングスデータへの変換処理及びラベリングを説明するための図である。
【図8】対象物の時刻間追跡を説明するための図である。
【図9】視差の算出方法を説明するための図である。
【図10】視差から距離を算出する手法を説明するための図である。
【図11】本実施形態における座標系を示す図である。
【図12】ピッチングが発生した場合のカメラ座標系と、実空間座標系との関係を示す図である。
【図13】ピッチ角の算出方法を説明するための図である。
【図14】近似直線の算出方法を説明するための図である。
【図15】実測位置データ及び補正後の位置データを示す図である。
【図16】車両のピッチングにより発生する問題点を説明するための図である。
【符号の説明】
1R、1L 赤外線カメラ(撮像手段)
2 画像処理ユニット(第1の位置データ算出手段、近似直線算出手段、ピッチ角算出手段、第2の位置データ算出手段)
Claims (1)
- 車両に搭載された2つの撮像手段によって得られる画像に基づいて対象物の実空間座標系における位置を検出する位置検出装置において、
前記撮像手段により得られる対象物像から、前記撮像手段の光軸を基準とする撮像手段座標系における前記対象物の時系列の3次元空間上の位置データを算出する第1の位置データ算出手段と、
該時系列の位置データに基づいて前記対象物の3次元空間上の相対移動軌跡を近似する近似直線を算出する近似直線算出手段と、
該近似直線に基づいて前記撮像手段の光軸のピッチ角を算出するピッチ角算出手段と、
前記撮像手段座標系における前記対象物の位置データを、前記ピッチ角に応じて補正することにより、前記実空間座標系における位置データを算出する第2の位置データ算出手段とを備えることを特徴とする位置検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000192394A JP3808287B2 (ja) | 2000-06-27 | 2000-06-27 | 位置検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000192394A JP3808287B2 (ja) | 2000-06-27 | 2000-06-27 | 位置検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002005626A JP2002005626A (ja) | 2002-01-09 |
JP3808287B2 true JP3808287B2 (ja) | 2006-08-09 |
Family
ID=18691532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000192394A Expired - Fee Related JP3808287B2 (ja) | 2000-06-27 | 2000-06-27 | 位置検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3808287B2 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3951734B2 (ja) * | 2002-02-13 | 2007-08-01 | 日産自動車株式会社 | 車両用外界認識装置 |
JP4032052B2 (ja) | 2004-11-30 | 2008-01-16 | 本田技研工業株式会社 | 位置検出装置及びその補正方法 |
JP4224449B2 (ja) | 2004-11-30 | 2009-02-12 | 本田技研工業株式会社 | 画像抽出装置 |
US7590263B2 (en) | 2004-11-30 | 2009-09-15 | Honda Motor Co., Ltd. | Vehicle vicinity monitoring apparatus |
US7599521B2 (en) | 2004-11-30 | 2009-10-06 | Honda Motor Co., Ltd. | Vehicle vicinity monitoring apparatus |
JP4461091B2 (ja) | 2004-11-30 | 2010-05-12 | 本田技研工業株式会社 | 位置検出装置及びその補正方法 |
JP2007087203A (ja) * | 2005-09-22 | 2007-04-05 | Sumitomo Electric Ind Ltd | 衝突判定システム、衝突判定方法及びコンピュータプログラム |
JP5570902B2 (ja) * | 2010-07-28 | 2014-08-13 | 本田技研工業株式会社 | 車両ピッチ角の推定装置 |
JP5695000B2 (ja) * | 2012-08-13 | 2015-04-01 | 本田技研工業株式会社 | 車両周辺監視装置 |
WO2015151681A1 (ja) * | 2014-03-31 | 2015-10-08 | 日立オートモティブシステムズ株式会社 | 車両姿勢検出装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09161060A (ja) * | 1995-12-12 | 1997-06-20 | Mitsubishi Electric Corp | 車両用周辺監視装置 |
JP3600378B2 (ja) * | 1996-07-24 | 2004-12-15 | 本田技研工業株式会社 | 車両の外界認識装置 |
JP3189711B2 (ja) * | 1996-11-01 | 2001-07-16 | 三菱自動車工業株式会社 | 車両の前方認識装置 |
JP3357290B2 (ja) * | 1998-05-22 | 2002-12-16 | 三菱電機株式会社 | 車両用位置検出装置 |
JP4038944B2 (ja) * | 1999-08-30 | 2008-01-30 | 株式会社デンソー | 車両用障害物検出装置の中心軸偏向量算出装置及び中心軸偏向量補正装置、操舵角中立学習装置並びに車間制御装置 |
-
2000
- 2000-06-27 JP JP2000192394A patent/JP3808287B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002005626A (ja) | 2002-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4615139B2 (ja) | 車両の周辺監視装置 | |
JP3515926B2 (ja) | 車両の周辺監視装置 | |
US8144195B2 (en) | Vehicle zone monitoring apparatus | |
JP4410292B1 (ja) | 車両の周辺監視装置 | |
JP4028135B2 (ja) | 物体検出装置 | |
JP4173902B2 (ja) | 車両周辺監視装置 | |
JP3808287B2 (ja) | 位置検出装置 | |
JP2001169310A (ja) | 距離検出装置 | |
JP2003329439A (ja) | 距離検出装置 | |
JP3910345B2 (ja) | 位置検出装置 | |
JP4397573B2 (ja) | 画像処理装置 | |
JP4128562B2 (ja) | 車両周辺監視装置 | |
JP2009075124A (ja) | 距離検出装置 | |
JP3897956B2 (ja) | 位置検出装置 | |
JP3919975B2 (ja) | 車両の周辺監視装置 | |
CN106355581A (zh) | 利用车辆检测实现车载摄像头的在线标定的装置及方法 | |
JP3916930B2 (ja) | 進入警報装置 | |
JP3936313B2 (ja) | 画像認識装置 | |
JP3949628B2 (ja) | 車両の周辺監視装置 | |
JP4176558B2 (ja) | 車両周辺表示装置 | |
JP3970876B2 (ja) | 車両周辺監視装置 | |
JP4567072B2 (ja) | 車両周辺監視装置 | |
JP3859429B2 (ja) | 移動対象物検出装置 | |
JP4040657B2 (ja) | 移動対象物検出装置 | |
JP4162817B2 (ja) | 距離検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050830 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051021 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060502 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060517 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090526 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100526 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110526 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110526 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130526 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130526 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140526 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |