JP2009075124A - 距離検出装置 - Google Patents
距離検出装置 Download PDFInfo
- Publication number
- JP2009075124A JP2009075124A JP2008284931A JP2008284931A JP2009075124A JP 2009075124 A JP2009075124 A JP 2009075124A JP 2008284931 A JP2008284931 A JP 2008284931A JP 2008284931 A JP2008284931 A JP 2008284931A JP 2009075124 A JP2009075124 A JP 2009075124A
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- image
- vehicle
- time
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Abstract
【課題】 従来に比べて少ない演算量で、車両に搭載された2つの撮像装置の光軸間平行度ずれに起因する誤差を補正して正確な視差を算出し、距離検出精度を向上させることできる距離検出装置を提供する。
【解決手段】 時刻t0及びt1において、静止対象物の視差δd(t0)δd(t1)の検出を行うとともに、時刻t0からt1までの車両の走行距離Lを算出する。検出視差δd(t0)、δd(t1)及び走行距離Lに基づいて、カメラ1R、1Lの光軸間平行度ずれに起因する誤差を視差オフセット量D(φ)として求め、視差オフセット量D(φ)により検出視差δdを補正する。時刻t0からt1までの時間Tmは車速VCARが高いほど短くなるように設定される。
【選択図】 図20
【解決手段】 時刻t0及びt1において、静止対象物の視差δd(t0)δd(t1)の検出を行うとともに、時刻t0からt1までの車両の走行距離Lを算出する。検出視差δd(t0)、δd(t1)及び走行距離Lに基づいて、カメラ1R、1Lの光軸間平行度ずれに起因する誤差を視差オフセット量D(φ)として求め、視差オフセット量D(φ)により検出視差δdを補正する。時刻t0からt1までの時間Tmは車速VCARが高いほど短くなるように設定される。
【選択図】 図20
Description
本発明は、車両に搭載された2つの撮像装置により得られる2つの画像から対象物の視差を算出し、その視差に基づいて対象物までの距離を検出する距離検出装置に関する。
2つの撮像装置により得られる2つの画像に基づいて、画像内に含まれる対象物までの距離を検出するための手法は従来より知られており、この手法では2つの撮像装置の光軸の平行度が距離検出精度に大きく影響する。すなわち、2つの撮像装置の光軸が平行でない場合(光軸間平行度ずれがある場合)には、2つの撮像装置の取り付け間隔に比べて十分遠い位置にある対象物(事実上無限遠にあるとみなせる対象物)の視差が「0」とならないため、検出される視差に常に誤差が含まれることとなる。
そこで、2つの撮像装置の取り付け間隔(基線長)を短くして小型堅牢な構造とし、光軸間平行度を正確に保持することが考えられるが、基線長を短くすると光軸の平行度が確保されても、距離検出精度が低下するという問題がある。また車両などに搭載される場合には、小型堅牢であっても運転にともなう振動や車体の歪みによって、光軸平行度が経年変化する可能性が高い。
そこで、車両に搭載された2つ撮像装置の取り付け角度差を、各撮像装置から得られる画像に基づいて算出し、該算出した取り付け角度差を考慮して距離を検出する測距装置が、既に提案されている(特許文献1)。この特許文献1に示された取り付け角度差算出手法は、自車両近傍の道路上の白線を認識し、その白線に基づいて各撮像装置の無限遠点に対応する画像上の位置を求め、その位置のずれから取り付け角度差を算出するものである。
しかしながら、上記公報に示された手法は、自車両の近傍の白線を認識し、その白線に基づいて無限遠点に対応する画像上の位置を求めるものであるため、演算量が多くなる上、精度が出にくく、安定した結果を得ることが困難であった。
本発明は上述した点に鑑みなされたものであり、従来に比べて少ない演算量で、車両に搭載された2つの撮像装置の光軸間平行度ずれに起因する誤差を補正して正確な視差を算出し、距離検出精度を向上させることができる距離検出装置を提供することを目的とする。
上記目的を達成するため請求項1に記載の発明は、車両に搭載された2つの撮像手段によって得られる2つの画像に基づいて対象物の視差を算出し、該視差から前記対象物までの距離を検出する距離検出装置において、第1及び第2の時刻において静止対象物の視差を算出する静止対象物視差算出手段と、前記第1の時刻から前記第2の時刻までの期間における前記車両の移動量を算出する車両移動量算出手段と、前記第1及び第2の時刻における前記静止対象物の視差並びに前記車両移動量に基づいて、前記2つの撮像手段の光軸間平行度ずれに起因する視差オフセット量を算出し、該算出した視差オフセット量により視差を補正する視差補正手段とを備えることを特徴とする。
静止対象物視差算出手段は、車両走行中に検知される可能性が高く、且つ確実に静止している対象物(例えば、信号機や電柱)の特徴の有無により、静止対象物を判定することが望ましい。
請求項1に記載の発明によれば、第1及び第2の時刻において静止対象物の視差が算出されるとともに、第1の時刻から第2の時刻までの間の車両移動量が算出され、第1及び第2の時刻における静止対象物の視差並びに車両移動量に基づいて、2つの撮像手段の光軸間平行度ずれに起因する誤差を補正するための視差オフセット量が算出され、この視差オフセット量により視差が補正されるので、従来に比べて少ない演算量で、2つの撮像手段の光軸間平行度ずれに起因する誤差を補正して正確な視差を算出し、距離検出精度を向上させることできる。
以下本発明の実施の形態を図面を参照して説明する。
図1は本発明の一実施形態にかかる車両の周辺監視装置の構成を示す図であり、この装置は、遠赤外線を検出可能な2つの赤外線カメラ1R,1Lと、当該車両のヨーレートを検出するヨーレートセンサ5と、当該車両の走行速度(車速)VCARを検出する車速センサ6と、ブレーキの操作量を検出するためのブレーキセンサ7と、これらのカメラ1R,1Lによって得られる画像データの基づいて車両前方の動物等の対象物を検出し、衝突の可能性が高い場合に警報を発する画像処理ユニット2と、音声で警報を発するためのスピーカ3と、カメラ1Rまたは1Lによって得られる画像を表示するとともに、衝突の可能性が高い対象物を運転者に認識させるためのヘッドアップディスプレイ(以下「HUD」という)4とを備えている。
図1は本発明の一実施形態にかかる車両の周辺監視装置の構成を示す図であり、この装置は、遠赤外線を検出可能な2つの赤外線カメラ1R,1Lと、当該車両のヨーレートを検出するヨーレートセンサ5と、当該車両の走行速度(車速)VCARを検出する車速センサ6と、ブレーキの操作量を検出するためのブレーキセンサ7と、これらのカメラ1R,1Lによって得られる画像データの基づいて車両前方の動物等の対象物を検出し、衝突の可能性が高い場合に警報を発する画像処理ユニット2と、音声で警報を発するためのスピーカ3と、カメラ1Rまたは1Lによって得られる画像を表示するとともに、衝突の可能性が高い対象物を運転者に認識させるためのヘッドアップディスプレイ(以下「HUD」という)4とを備えている。
カメラ1R、1Lは、図2に示すように車両10の前部に、車両10の横方向の中心軸に対してほぼ対象な位置に配置されており、2つのカメラ1R、1Lの光軸が互いに平行となり、両者の路面からの高さが等しくなるように固定されている。赤外線カメラ1R、1Lは、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。
画像処理ユニット2は、入力アナログ信号をディジタル信号に変換するA/D変換回路、ディジタル化した画像信号を記憶する画像メモリ、各種演算処理を行うCPU(Central Processing Unit)、CPUが演算途中のデータを記憶するために使用するRAM(Random Access Memory)、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)、スピーカ3の駆動信号、HUD4の表示信号などを出力する出力回路などを備えており、カメラ1R,1L及びセンサ5〜7の出力信号は、ディジタル信号に変換されて、CPUに入力されるように構成されている。
HUD4は、図2に示すように、車両10のフロントウインドウの、運転者の前方位置に画面4aが表示されるように設けられている。
HUD4は、図2に示すように、車両10のフロントウインドウの、運転者の前方位置に画面4aが表示されるように設けられている。
図3及び4は画像処理ユニット2における処理の手順を示すフローチャートである。先ずステップS10では、カメラ1R、1Lの光軸間平行度のずれに対応した視差オフセット量D(φ)を初期値(例えば工場出荷時に設定された値、あるいは前回運転時に算出され、記憶装置に格納されていた視差オフセット量)に設定し、次いでカメラ1R、1Lの出力信号をA/D変換して画像メモリに格納する(ステップS11,S12,S13)。画像メモリに格納される画像は、輝度情報を含んだグレースケール画像である。図5(a)(b)は、それぞれはカメラ1R,1Lによって得られるグレースケール画像(カメラ1Rにより右画像が得られ、カメラ1Lにより左画像が得られる)を説明するための図であり、ハッチングを付した領域は、中間階調(グレー)の領域であり、太い実線で囲んだ領域が、輝度レベルが高く(高温で)、画面上に白色として表示される対象物の領域(以下「高輝度領域」という)である。右画像と左画像では、同一の対象物の画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
図3のステップS14では、右画像を基準画像とし、その画像信号の2値化、すなわち、実験的に決定される輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。図6に図5(a)の画像を2値化した画像を示す。この図は、ハッチングを付した領域が黒であり、太い実線で囲まれた高輝度領域が白であることを示している。
続くステップS15では、2値化した画像データをランレングスデータに変換する処理を行う。図7(a)はこれを説明するための図であり、この図では2値化により白となった領域を画素レベルでラインL1〜L8として示している。ラインL1〜L8は、いずれもy方向には1画素の幅を有しており、実際にはy方向には隙間なく並んでいるが、説明のために離間して示している。またラインL1〜L8は、x方向にはそれぞれ2画素、2画素、3画素、8画素、7画素、8画素、8画素、8画素の長さを有している。ランレングスデータは、ラインL1〜L8を各ラインの開始点(各ラインの左端の点)の座標と、開始点から終了点(各ラインの右端の点)までの長さ(画素数)とで示したものである。例えばラインL3は、(x3,y5)、(x4,y5)及び(x5,y5)の3画素からなるので、ランレングスデータとしては、(x3,y5,3)となる。
ステップS16、S17では、図7(b)に示すように対象物のラベリングをすることにより、対象物を抽出する処理を行う。すなわち、ランレングスデータ化したラインL1〜L8のうち、y方向に重なる部分のあるラインL1〜L3を1つの対象物1とみなし、ラインL4〜L8を1つの対象物2とみなし、ランレングスデータに対象物ラベル1,2を付加する。この処理により、例えば図6に示す高輝度領域が、それぞれ対象物1から4として把握されることになる。
ステップS18では図7(c)に示すように、抽出した対象物の重心G、面積S及び破線で示す外接四角形の縦横比ASPECTを算出する。面積Sは、ランレングスデータの長さを同一対象物について積算することにより算出し、重心Gの座標は、面積Sをx方向に2等分する線のx座標及びy方向に2等分する線のy座標として算出し、縦横比APECTは、図7(c)に示すDyとDxとの比Dy/Dxとして算出する。なお、重心Gの位置は、外接四角形の重心位置で代用してもよい。
ステップS19では、対象物の時刻間追跡、すなわちサンプリング周期毎に同一対象物の認識を行う。アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、図8(a)に示すように時刻kで対象物1,2を抽出した場合において、時刻(k+1)で抽出した対象物3,4と、対象物1,2との同一性判定を行う。具体的には、以下の同一性判定条件1)〜3)を満たすときに、対象物1、2と対象物3、4とは同一であると判定し、対象物3、4をそれぞれ1,2というラベルに変更することにより、時刻間追跡が行われる。
1)時刻kにおける対象物i(=1,2)の画像上での重心位置座標を、それぞれ(xi(k),yi(k))とし、時刻(k+1)における対象物j(=3,4)の画像上での重心位置座標を、(xj(k+1),yj(k+1))としたとき、
|xj(k+1)−xi(k)|<Δx
|yj(k+1)−yi(k)|<Δy
であること。ただし、Δx、Δyは、それぞれx方向及びy方向の画像上の移動量の許容値である。
|xj(k+1)−xi(k)|<Δx
|yj(k+1)−yi(k)|<Δy
であること。ただし、Δx、Δyは、それぞれx方向及びy方向の画像上の移動量の許容値である。
2)時刻kにおける対象物i(=1,2)の画像上での面積をSi(k)とし、時刻(k+1)における対象物j(=3,4)の画像上での面積をSj(k+1)としたとき、
Sj(k+1)/Si(k)<1±ΔS
であること。ただし、ΔSは面積変化の許容値である。
Sj(k+1)/Si(k)<1±ΔS
であること。ただし、ΔSは面積変化の許容値である。
3)時刻kにおける対象物i(=1,2)の外接四角形の縦横比をASPECTi(k)とし、時刻(k+1)における対象物j(=3,4)の外接四角形の縦横比をASPECTj(k+1)としたとき、
ASPECTj(k+1)/ASPECTi(k)<1±ΔASPECT
であること。ただし、ΔASPECTは縦横比変化の許容値である。
ASPECTj(k+1)/ASPECTi(k)<1±ΔASPECT
であること。ただし、ΔASPECTは縦横比変化の許容値である。
図8(a)と(b)とを対比すると、各対象物は画像上での大きさが大きくなっているが、対象物1と3とが上記同一性判定条件を満たし、対象物2と4とが上記同一性判定条件を満たすので、対象物3、4はそれぞれ対象物1、2と認識される。このようにして認識された各対象物の(重心の)位置座標は、時系列位置データとしてメモリに格納され、後の演算処理に使用される。
なお以上説明したステップS14〜S19の処理は、2値化した基準画像(本実施形態では、右画像)ついて実行する。
なお以上説明したステップS14〜S19の処理は、2値化した基準画像(本実施形態では、右画像)ついて実行する。
図3のステップS20では、車速センサ6により検出される車速VCAR及びヨーレートセンサ5より検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することより、自車両10の回頭角θr(図16参照)を算出する。
一方、ステップS31〜S34では、ステップS19,S20の処理と平行して、対象物と自車両10と距離zを算出する処理を行う。この演算はステップS19,S20より長い時間を要するため、ステップS19,S20より長い周期(例えばステップS11〜S20の実行周期の3倍程度の周期)で実行される。
ステップS31では、基準画像(右画像)の2値化画像によって追跡される対象物の中の1つを選択することにより、図9(a)に示すように右画像から探索画像R1(ここでは、外接四角形で囲まれる領域全体を探索画像とする)を抽出する。続くステップS32では、左画像中から探索画像に対応する画像(以下「対応画像」という)を探索する探索領域を設定し、相関演算を実行して対応画像を抽出する。具体的には、探索画像R1の各頂点座標に応じて左画像中に図9(b)に示すように、探索領域R2を設定し、探索領域R2内で探索画像R1との相関の高さを示す輝度差分総和値C(a,b)を下記式(1)により算出し、この総和値C(a,b)が最小となる領域を対応画像として抽出する。なお、この相関演算は、2値画像ではなくグレースケール画像を用いて行う。また同一対象物についての過去の位置データがあるときは、その位置データに基づいて探索領域R2より狭い領域R2a(図9(b)に破線で示す)を探索領域として設定する。
ここで、IR(m,n)は、図10に示す探索画像R1内の座標(m,n)の位置の輝度値であり、IL(a+m−M,b+n−N)は、探索領域内の座標(a,b)を基点とした、探索画像R1と同一形状の局所領域R3内の座標(m,n)の位置の輝度値である。基点の座標(a,b)を変化させて輝度差分総和値C(a,b)が最小となる位置を求めることにより、対応画像の位置が特定される。
ステップS32の処理により、図11に示すように探索画像R1と、この対象物に対応する対応画像R4とが抽出されるので、ステップS33では、探索画像R1の重心位置と、画像中心線LCTRとの距離dR(画素数)及び対応画像R4の重心位置と画像中心線LCTRとの距離dL(画素数)を求め、距離dR及びdLを加算することにより、検出視差δd(=dR+dL)を算出し、下記式(2)に検出視差δd及び視差オフセット量D(φ)を適用して、視差Δdを算出する。視差オフセット量D(φ)は、後述するステップS27(図4)において、運転中に検出される静止対象物を用いた演算により更新されるので、式(2)により検出視差δdを補正することにより、2つのカメラ1R、1Lの光軸間平行度ずれに起因する誤差を除き、正確な視差、ひいては正確な距離zを得ることができる。
Δd=δd−D(φ) (2)
Δd=δd−D(φ) (2)
図12に示すように、カメラ1Lの光軸21Lが、カメラ1Rの光軸21Rに平行な直線22に対して角度φ(以下「パン角φ」という)分だけ平行度がずれている場合の視差オフセット量をD(φ)とすると、図13に示すように、距離zにかかわらず、検出視差δdは、真の視差Δdより視差オフセット量D(φ)分だけ大きくなるので、上記式(2)により正確な視差を得ることができる。本実施形態では、2つカメラの光軸が互いに開く方向(図12の方向)にずれたときのパン角φ及び視差オフセット量D(φ)を正の値とし、逆にずれたときを負の値としている。また検出視差δdは、パン角φが負の値の場合、すなわち2つカメラの光軸が互いに閉じる方向(図12の方向と逆方向)にずれたときは、右画像中の対象物像が、左画像中の対象物像より右側に位置することがあるので、そのような場合は、検出視差δdを負の値とする。
続くステップS33では、視差Δdを下記式(3)に適用して、自車両10と、対象物との距離zを算出する。
ここで、Bは基線長、すなわち図14に示すようにカメラ1Rの撮像素子11Rの中心位置と、カメラ1Lの撮像素子11Lの中心位置との水平方向(x方向)の距離(両カメラの光軸の間隔)、Fはレンズ12R、12Lの焦点距離、pは、撮像素子11R、11L内の画素間隔である。
図4のステップS21では、画像内の座標(x,y)及び式(3)により算出した距離zを下記式(4)に適用し、実空間座標(X,Y,Z)に変換する。ここで、実空間座標(X,Y,Z)は、図15(a)に示すように、カメラ1R、1Lの取り付け位置の中点の位置(自車両10に固定された位置)を原点Oとして、図示のように定め、画像内の座標は同図(b)に示すように、画像の中心を原点として水平方向をx、垂直方向をyと定めている。
ここで、(xc,yc)は、右画像上の座標(x,y)を、カメラ1Rの取り付け位置と、実空間原点Oとの相対位置関係に基づいて、実空間原点Oと画像の中心とを一致させた仮想的な画像内の座標に変換したものである。またfは、焦点距離Fと画素間隔pとの比である。
ステップS22では、自車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う。図16に示すように、時刻kから(k+1)までの期間中に自車両が例えば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、図17に示すようにΔxだけx方向にずれるので、これを補正する処理である。具体的には、下記式(5)に実空間座標(X,Y,Z)を適用して、補正座標(Xr,Yr,Zr)を算出する。算出した実空間位置データ(Xr,Yr,Zr)は、対象物毎に対応づけてメモリに格納する。なお、以下の説明では、回頭角補正後の座標を(X,Y,Z)と表示する。
ステップS23では、図18に示すように同一対象物について、ΔTの期間内に得られた、回頭角補正後のN個の実空間位置データ(例えばN=10程度)、すなわち時系列データから、対象物と自車両10との相対移動ベクトルに対応する近似直線LMVを求める。具体的には、近似直線LMVの方向を示す方向ベクトルLu=(lx,ly,lz)(|Lu|=1)とすると、下記式(6)で表される直線を求める。
ここでuは、任意の値をとる媒介変数であり、Xav,Yav及びZavは、それぞれ実空間位置データ列のX座標の平均値、Y座標の平均値及びZ座標の平均値である。なお、式(6)は媒介変数uを消去すれば下記式(6a)のようになる。
(X−Xav)/lx=(Y−Yav)/ly=(Z−Zav)/lz
…(6a)
(X−Xav)/lx=(Y−Yav)/ly=(Z−Zav)/lz
…(6a)
図18は、近似直線LMVを説明するための図であり、同図のP(0),P(1),P(2),…,P(N−2),P(N−1)が回頭角補正後の時系列データを示し、近似直線LMVは、この時系列データの平均位置座標Pav(=(Xav,Yav,Zav))を通り、各データ点からの距離の2乗の平均値が最小となるような直線として求められる。ここで各データ点の座標を示すPに付した()内の数値はその値が増加するほど過去のデータであることを示す。例えば、P(0)は最新の位置座標、P(1)は1サンプル周期前の位置座標、P(2)は2サンプル周期前の位置座標を示す。以下の説明におけるD(j)、X(j)、Y(j)、Z(j)等も同様である。
より具体的には、平均位置座標Pavから各データ点の座標P(0)〜P(N−1)に向かうベクトルD(j)=(DX(j),DY(j),DZ(j))=(X(j)−Xav,Y(j)−Yav,Z(j)−Zav)と、方向ベクトルLuとの内積sを下記式(7)により算出し、この内積sの分散が最大となる方向ベクトルLu=(lx,ly,lz)を求める。
s=lx・DX(j)+ly・DY(j)+lz・DZ(j) (7)
s=lx・DX(j)+ly・DY(j)+lz・DZ(j) (7)
各データ点の座標の分散共分散行列Vは、下記式(8)で表され、この行列の固有値σが内積sの分散に相当するので、この行列から算出される3つの固有値のうち最大の固有値に対応する固有ベクトルが求める方向ベクトルLuとなる。なお、式(8)の行列から固有値と固有ベクトルを算出するには、ヤコビ法(例えば「数値計算ハンドブック」(オーム社)に示されている)として知られている手法を用いる。
次いで最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)サンプル前(時間ΔT前)の位置座標P(Nー1)=(X(N−1),Y(N−1),Z(N−1))を近似直線LMV上の位置に補正する。具体的には、前記式(6a)にZ座標Z(0)、Z(N−1)を適用することにより、すなわち下記式(9)により、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))及びPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
式(9)で算出された位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる。このようにモニタ期間ΔT内の複数(N個)のデータから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して対象物との衝突の可能性をより正確に予測することが可能となる。
図4に戻り、ステップS24では、その時点で検出されている対象物の中に静止対象物が存在するか否かを判別する。ここでいう「静止対象物」は、例えば図19に示す信号機101や電柱102のように、車両走行中に検知される可能性が高く、且つ確実に静止している対象物とし、このような対象物の特徴の有無により判定する。具体的には、以下のような条件を満たすものを「静止対象物」と判定する。
1)円形の同一サイズの対象物が並んで存在し、高さが4.5m以上の対象物
2)高さが5m以上の長方形の対象物
ステップS24で静止対象物が存在しないとき、直ちにステップS28に進み、存在するときは、ステップS25〜S27により視差オフセット量D(φ)の更新を行う。以下に静止対象物を用いた視差オフセット量D(φ)の算出手法を、図20を参照して説明する。
2)高さが5m以上の長方形の対象物
ステップS24で静止対象物が存在しないとき、直ちにステップS28に進み、存在するときは、ステップS25〜S27により視差オフセット量D(φ)の更新を行う。以下に静止対象物を用いた視差オフセット量D(φ)の算出手法を、図20を参照して説明する。
図20に示すように第1の時刻t0における自車両から静止対象物までの距離及び検出視差をそれぞれZ(t0)及びδd(t0)とし、第1の時刻t0から時間Tmだけ経過した第2の時刻t1における自車両から静止対象物までの距離及び検出視差をZ(t1)及びδd(t1)とすると、式(2),(3)より、距離Z(t0),Z(t1)は、下記式(10)、(11)のようになる。なお時間Tmは、例えば車速VCARが高いほど短くなるように設定される。
式(10)(11)から視差オフセット量D(φ)を消去することより、下記式(12)を得る。
ここで、変数αを下記式(13)で定義し、Z(t1)=Z(t0)−Lという関係を用いると式(12)は、下記式(14)に変形される。
式(14)をZ(t0)>0の条件で解くと、距離Z(t0)は下記式(15)で与えられる。
一方、式(10)を変形すると視差オフセット量D(φ)は、下記式(10a)で与えられるので、式(15)を代入して下記式(16)を得る。
式(16)に第1及び第2の時刻t0、t1における検出視差δd(t0)、δd(t1)と、その間の自車両10の走行距離Lと適用することにより、視差オフセット量D(φ)を求めることができる。
なお、道路が曲線状となっている場合には、道路形状に沿った走行距離Lを、第1の時刻t0から第2の時刻t1の期間の回頭角θrに応じて直線移動量に換算することにより、前記式(16)を用いて視差オフセット量D(φ)を算出することができる。
図4に戻り、ステップS24の答が肯定(YES)、すなわち上記した条件を満たす静止対象物が存在するときは、第1の時刻t0から第2の時刻t1までの期間で車速VCARを積分することにより、自車両10の走行距離Lを算出するともに時刻t0,t1においてそれぞれ視差δd(t0)及びδd(t1)を算出し(ステップS25、S26)、次いで前記式(16)に走行距離L及び検出視差δd(t0)、δd(t1)を適用して、視差オフセット量D(φ)を最新の値に更新する(ステップS27)。
続くステップS28では、対象物までの距離と、対象物の他の位置情報(自車両10の進行方向に対して垂直な水平方向及び高さ方向の座標)とに基づいて、その対象物と自車両10との衝突の可能性を判定し、衝突の可能性が高いときは、スピーカ3及びHUD4を介して運転者への警報を発する。ステップS28実行後は、ステップS11に戻り、処理を繰り返す。
以上のように本実施形態では、走行中に静止対象物の有無を判定し、静止対象物が存在するときは、2つの時点、すなわち第1及び第2の時刻t0,t1において静止対象物の検出視差δd(t0)及びδd(t1)を算出し、これらの検出視差δd(t0)及びδd(t1)と、時刻t0からt1までの間の自車両の移動量Lとに基づいて視差オフセット量D(φ)を算出し、視差オフセット量D(φ)により検出視差δdを補正し、正確な視差Δdを得るようにしたので、この視差Δdを用いることにより、カメラ1R、1Lの光軸間平行度ずれ(パン角φ)に起因する誤差を補正して正確な視差を算出し、対象物までの距離検出精度を向上させることができる。また、工場における検査、あるいは販売店における確認は、静止対象物に向かって車両を走行させることにより、容易に行うことができるので、距離が既知の対象物を用いる必要がないので、検査・確認専用のスペースや設備を不要とすることができる。
本実施形態では、赤外線カメラ1R、1Lが撮像手段に相当し、画像処理ユニット2が距離検出装置を構成する。具体的には、図4のステップS24及びS26が静止対象物視差算出手段に相当し、同図のステップS25が車両移動量算出手段に相当し、図3のステップS33及び図4のステップS27が視差補正手段に相当する。
なお本発明は上述した実施形態に限るものではなく、種々の変形が可能である。例えば、撮像手段として赤外線カメラを用いたが、通常の可視光線のみ検出可能なテレビカメラなどを使用してもよい。また、2つの撮像手段は、離間して配置されていればよく、図2に示した配置に限定されるものではない。
1R、1L 赤外線カメラ(撮像手段)
2 画像処理ユニット(静止対象物視差算出手段、車両移動量算出手段、視差補正手段)
6 車速センサ
2 画像処理ユニット(静止対象物視差算出手段、車両移動量算出手段、視差補正手段)
6 車速センサ
Claims (1)
- 車両に搭載された2つの撮像手段によって得られる2つの画像に基づいて対象物の視差を算出し、該視差から前記対象物までの距離を検出する距離検出装置において、
第1及び第2の時刻において静止対象物の視差を算出する静止対象物視差算出手段と、
前記第1の時刻から前記第2の時刻までの期間における前記車両の移動量を算出する車両移動量算出手段と、
前記第1及び第2の時刻における前記静止対象物の視差並びに前記車両移動量に基づいて、前記2つの撮像手段の光軸間平行度ずれに起因する視差オフセット量を算出し、該算出した視差オフセット量により視差を補正する視差補正手段とを備えることを特徴とする距離検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008284931A JP2009075124A (ja) | 2008-11-06 | 2008-11-06 | 距離検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008284931A JP2009075124A (ja) | 2008-11-06 | 2008-11-06 | 距離検出装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP34599699A Division JP2001169310A (ja) | 1999-12-06 | 1999-12-06 | 距離検出装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009075124A true JP2009075124A (ja) | 2009-04-09 |
Family
ID=40610185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008284931A Pending JP2009075124A (ja) | 2008-11-06 | 2008-11-06 | 距離検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009075124A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012036102A1 (en) * | 2010-09-14 | 2012-03-22 | Ricoh Company, Ltd. | Stereo camera device, correction method, and program |
KR20120055162A (ko) * | 2010-11-23 | 2012-05-31 | 엘지이노텍 주식회사 | 카메라 모듈 |
JP2013224919A (ja) * | 2012-03-21 | 2013-10-31 | Ricoh Co Ltd | 校正装置、距離計測装置及び車両 |
RU2602729C2 (ru) * | 2014-09-22 | 2016-11-20 | Общество С Ограниченной Ответственностью "Дисикон" | Способ определения расстояния до объекта при помощи камеры (варианты) |
JP2017173343A (ja) * | 2012-03-21 | 2017-09-28 | 株式会社リコー | 画像処理装置、撮影装置、制御システム、移動体、及びプログラム |
JP2017198710A (ja) * | 2012-03-21 | 2017-11-02 | 株式会社リコー | 校正装置、距離計測装置及び車両 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10341458A (ja) * | 1997-06-10 | 1998-12-22 | Toyota Motor Corp | 車載ステレオカメラの校正方法、および、その方法を適用した車載ステレオカメラ |
-
2008
- 2008-11-06 JP JP2008284931A patent/JP2009075124A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10341458A (ja) * | 1997-06-10 | 1998-12-22 | Toyota Motor Corp | 車載ステレオカメラの校正方法、および、その方法を適用した車載ステレオカメラ |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012036102A1 (en) * | 2010-09-14 | 2012-03-22 | Ricoh Company, Ltd. | Stereo camera device, correction method, and program |
JP2012083330A (ja) * | 2010-09-14 | 2012-04-26 | Ricoh Co Ltd | ステレオカメラ装置、校正方法およびプログラム |
US9170103B2 (en) | 2010-09-14 | 2015-10-27 | Ricoh Company, Ltd. | Stereo camera device, correction method, and program |
KR20120055162A (ko) * | 2010-11-23 | 2012-05-31 | 엘지이노텍 주식회사 | 카메라 모듈 |
KR101675900B1 (ko) | 2010-11-23 | 2016-11-14 | 엘지이노텍 주식회사 | 카메라 모듈 |
JP2013224919A (ja) * | 2012-03-21 | 2013-10-31 | Ricoh Co Ltd | 校正装置、距離計測装置及び車両 |
JP2017173343A (ja) * | 2012-03-21 | 2017-09-28 | 株式会社リコー | 画像処理装置、撮影装置、制御システム、移動体、及びプログラム |
JP2017198710A (ja) * | 2012-03-21 | 2017-11-02 | 株式会社リコー | 校正装置、距離計測装置及び車両 |
RU2602729C2 (ru) * | 2014-09-22 | 2016-11-20 | Общество С Ограниченной Ответственностью "Дисикон" | Способ определения расстояния до объекта при помощи камеры (варианты) |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4615139B2 (ja) | 車両の周辺監視装置 | |
JP3515926B2 (ja) | 車両の周辺監視装置 | |
JP4456086B2 (ja) | 車両周辺監視装置 | |
US7969466B2 (en) | Vehicle surroundings monitoring apparatus | |
US20030007074A1 (en) | Vehicle zone monitoring apparatus | |
JP4173902B2 (ja) | 車両周辺監視装置 | |
WO2011108217A1 (ja) | 車両の周辺監視装置 | |
WO2010047054A1 (ja) | 車両の周辺監視装置 | |
JP2001169310A (ja) | 距離検出装置 | |
JP2003150938A (ja) | 画像認識装置 | |
JP4528283B2 (ja) | 車両周辺監視装置 | |
JP2009075124A (ja) | 距離検出装置 | |
JP4397573B2 (ja) | 画像処理装置 | |
JP3919975B2 (ja) | 車両の周辺監視装置 | |
JP3910345B2 (ja) | 位置検出装置 | |
JP2008077154A (ja) | 車両周辺監視装置 | |
JP3916930B2 (ja) | 進入警報装置 | |
JP3949628B2 (ja) | 車両の周辺監視装置 | |
JP2004106682A (ja) | 障害物検出装置 | |
JP3897956B2 (ja) | 位置検出装置 | |
JP4943403B2 (ja) | 車両の周辺監視装置 | |
US9030560B2 (en) | Apparatus for monitoring surroundings of a vehicle | |
JP4567072B2 (ja) | 車両周辺監視装置 | |
JP2004364112A (ja) | 車両周辺表示装置 | |
JP4040657B2 (ja) | 移動対象物検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111108 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120306 |