JP2006011570A - カメラキャリブレーション方法及びカメラキャリブレーション装置 - Google Patents
カメラキャリブレーション方法及びカメラキャリブレーション装置 Download PDFInfo
- Publication number
- JP2006011570A JP2006011570A JP2004184364A JP2004184364A JP2006011570A JP 2006011570 A JP2006011570 A JP 2006011570A JP 2004184364 A JP2004184364 A JP 2004184364A JP 2004184364 A JP2004184364 A JP 2004184364A JP 2006011570 A JP2006011570 A JP 2006011570A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- obstacle
- vehicle
- image
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Traffic Control Systems (AREA)
Abstract
【課題】カメラの画像座標がレーザレーダの探査座標に確実に整合して障害物の誤認識を確実に防止し得るように、カメラの画像座標を校正する。
【解決手段】自車1の旋回半径から自車1の直進走行状態を検出し、かつ、スキャン式レーザレーダ2の探査結果に基づく自車1と障害物との距離の時間変化及び自車速から障害物が静止状態であることを検出したときに、前記距離と前記自車速とにより自車1と障害物とのレーダ側の衝突予測時間を算出し、単眼カメラ3の撮影画像上の障害物の水平方向の時間変化から自車1と障害物との画像側の衝突予測時間を算出し、両衝突予測時間のずれからレーザレーダ2の探査座標に対する単眼カメラ3の画像座標の水平方向のずれを検出し、このずれが打ち消されて両衝突予測時間が一致するように単眼カメラ3の画像座標を校正する。
【選択図】図1
【解決手段】自車1の旋回半径から自車1の直進走行状態を検出し、かつ、スキャン式レーザレーダ2の探査結果に基づく自車1と障害物との距離の時間変化及び自車速から障害物が静止状態であることを検出したときに、前記距離と前記自車速とにより自車1と障害物とのレーダ側の衝突予測時間を算出し、単眼カメラ3の撮影画像上の障害物の水平方向の時間変化から自車1と障害物との画像側の衝突予測時間を算出し、両衝突予測時間のずれからレーザレーダ2の探査座標に対する単眼カメラ3の画像座標の水平方向のずれを検出し、このずれが打ち消されて両衝突予測時間が一致するように単眼カメラ3の画像座標を校正する。
【選択図】図1
Description
本発明は、スキャン式レーダの自車前方の探査結果とカメラの自車前方の撮影結果とを組み合わせたセンサフュージョンの認識処理により、自車前方の先行車等の障害物を認識する障害物認識における、前記カメラの画像座標の水平方向のずれを校正するカメラキャリブレーション方法及びカメラキャリブレーション装置に関する。
一般に、ACCと呼ばれる車両走行支援システム(Adaptive Cruise Control)等を搭載した車両において、いわゆる被害軽減自動ブレーキ機能等を実現するため、スキャン式レーザレーダの自車前方の探査結果とカメラ(画像センサ)の自車前方の撮影結果とを組み合わせたセンサフュージョンの認識処理により、自車前方の先行車等の障害物を認識することが、種々提案されている。
このセンサフュージョンの認識処理の一例として、本出願人は、画像センサ(カメラ)の撮影画像のエッジヒストグラムに基いて撮影画像の照合パターンを求めるとともに、スキャン式レーザレーダの自車前方の探査結果に基づいてレーザの各反射点の分布パターンを求め、両パターンを融合して得られた融合パターンと辞書パターンとのパターンマッチングにより、自車前方の先行車等の障害物を認識することを既に提案している(例えば、特許文献1参照。)。
また、前記のセンサフュージョンの認識処理の他の例として、画像処理装置により撮影した自車前方の物標の輪郭を抽出し、抽出した輪郭の物標につき、レ−ダ装置が計測したその物標までの距離値を用いて同物標の実際の寸法値を求め、その寸法値から物標が何であるかを識別することも提案されている(例えば、特許文献2参照。)。
前記従来のセンサフュージョンの障害物認識においては、レーダの探査座標とカメラの撮影座標とが整合しているものとして、レーダの探査結果とカメラの撮影結果とを組み合わせているが、自車に搭載するときの取り付け誤差や走行中の振動によってカメラの位置がずれると、レーダとカメラの座標のずれが発生して障害物の誤認識(認識できない状態を含む)が発生する問題がある。
なお、この問題を解消するため、カメラの画像座標を、例えば撮影画像中の自車のボンネットやエンブレム等の基準物(不動物)の位置ずれにしたがって校正することが考えられるが、この場合、レーザレーダの探査座標とは無関係に校正されるため、校正されたカメラの画像座標がレーザレーダの探査座標と整合するとは限らず、障害物の誤認識を確実に防止することはできない。
本発明は、スキャン式レーダの探査結果とカメラの撮影結果とに基くこの種のセンサフュージョンの障害物認識において、カメラの画像座標がレーザレーダの探査座標に確実に整合して障害物の誤認識を確実に防止し得るように、カメラの画像座標を校正することを目的とする。
上記した目的を達成するために、本発明のカメラキャリブレーション方法は、自車に搭載したスキャン式レーダの自車前方の探査結果と、自車に搭載したカメラの自車前方の撮影結果とを組み合わせたセンサフュージョンの認識処理により、自車前方の先行車等の障害物を認識する障害物認識の前記カメラの画像座標を校正するカメラキャリブレーション方法であって、自車の旋回半径から自車の直進走行状態を検出し、かつ、前記探査結果に基づく自車と前記障害物との距離の時間変化及び自車速から前記障害物が静止状態であることを検出したときに、前記距離と前記自車速とにより自車と前記障害物とのレーダ側の衝突予測時間を算出し、前記カメラの撮影画像上の前記障害物の水平方向の時間変化から自車と前記障害物との画像側の衝突予測時間を算出し、前記両衝突予測時間のずれから前記スキャン式レーダの探査座標に対する前記カメラの画像座標の前記水平方向のずれを検出し、前記水平方向のずれが打ち消されて前記両衝突予測時間が一致するように前記カメラの画像座標を校正することを特徴としている(請求項1)。
また、本発明のカメラキャリブレーション方法は、カメラの撮影画像の垂直エッジのヒストグラムのピーク点を検出し、前記カメラの撮影画像上の障害物の水平方向の時間変化を、前記カメラの撮影画像の垂直エッジのヒストグラムのピーク点の軌跡から検出することも特徴としている(請求項2)。
そして、本発明のカメラキャリブレーション方法は、スキャン式レーダがスキャン式レーザレーダであって、カメラが単眼カメラであることが実用的で好ましい(請求項3)。
つぎに、本発明のカメラキャリブレーション装置は、自車に搭載されたスキャン式レーダの自車前方の探査結果と自車に搭載されたカメラの自車前方の撮影結果とを組み合わせたセンサフュージョンの認識処理により、自車前方の先行車等の障害物を認識する障害物認識装置に設けらた前記カメラの画像座標校正用のカメラキャリブレーション装置であって、自車の旋回半径から自車の直進走行状態を検出する自車状態検出手段と、前記探査結果に基づく自車と前記障害物との距離の時間変化及び自車速から前記障害物の静止状態を検出する障害物状態検出手段と、前記自車状態検出手段が前記直進走行状態を検出し、かつ、前記障害物状態検出手段が前記静止状態を検出したときに、校正許可を発生する校正制御手段と、前記距離と前記自車速とにより自車と前記障害物とのレーダ側の衝突予測時間を算出し、前記カメラの撮影画像上の前記障害物の水平方向の時間変化から自車と前記障害物との画像側の衝突予測時間を算出する衝突予測時間算出手段と、前記両衝突予測時間のずれから前記スキャン式レーダの探査座標に対する前記カメラの画像座標の前記水平方向のずれを検出するカメラずれ検出手段と、前記水平方向のずれが打ち消されて前記両衝突予測時間が一致するように前記カメラの画像座標を更正する座標校正手段とを備えたことを特徴としている(請求項4)。
また、本発明のカメラキャリブレーション装置は、衝突予測時間算出手段により、カメラの撮影画像の垂直エッジのヒストグラムのピーク点を検出し、前記カメラの撮影画像上の障害物の水平方向の時間変化を、前記カメラの撮影画像の垂直エッジのヒストグラムのピーク点の軌跡から検出するようにしたことも特徴としている(請求項5)。
そして、本発明のカメラキャリブレーション装置も、スキャン式レーダがスキャン式レーザレーダであって、カメラが単眼カメラであることが実用的で好ましい(請求項6)。
まず、請求項1、4の構成によれば、自車の旋回半径から自車が直進走行状態であることを検出し、かつ、スキャン式レーダの探査結果から自車前方の障害物が静止状態であることを検出し、カメラの画像座標のずれの検出条件が整ったときに、スキャン式レーダの探査結果から算出したレーダ側の衝突予測時間と、カメラの撮影画像から算出した画像側の衝突予測時間とのずれに基き、スキャン式レーダの探査座標に対するカメラの画像座標の水平方向のずれを検出し、このずれを打ち消してスキャン式レーダの探査座標に整合するようにカメラの画像座標を校正することができ、障害物の誤認識を確実に防止することができる。
また、請求項2、5の構成によれば、カメラの撮影画像上の障害物の水平方向の時間変化検出する具体的な構成を提供することができ、請求項3、6の構成によれば、スキャン式レーダ、カメラの実用的な構成を提供することができる。
つぎに、本発明をより詳細に説明するため、その実施形態について、図1〜図8にしたがって詳述する。
図1はカメラキャリブレーション装置を搭載した自車1の自動ブレーキ制御機構のブロック図、図2は図1の動作説明用のフローチャート、図3は図2の一部の詳細な動作説明用のフローチャート、図4は図1の撮影画像、垂直エッジヒストグラムの時間変化の説明図、図5、図6は後述のトラッキング画像の一例、他の例の説明図、図7は自車1の走行による画像変化の説明図、図8はキャリブレーションの処理の模式図である。
そして、図1に示すように自車1に、自車前方を探査するスキャン式レーダとして、安価な汎用のスキャン式レーザレーダ2が搭載され、自車前方を撮影するカメラとして、小型かつ安価なモノクロCCDカメラ構成の単眼カメラ3が搭載され、自車1はレーザレーダ2と単眼カメラ3からなるセンサフュージョンの自車前方検出センサを備える。
このとき、レーザレーダ2と単眼カメラ3とは、前記従来と同様のセンサフュージョンの障害物認識処理を行なうため、レーザレーダ2の各反射点の位置を示す2次元(x、y)の探査座標と単眼カメラ3の2次元(x、y)の画像座標との水平方向の軸(x軸)が一致するように、自車1に取り付けられる。
具体的には、レーザレーダ2は例えば自車1のフロントバンパー或いはボンネット内の車幅方向のセンタ位置に、前方を車幅方向に掃引探査して車幅方向を水平方向(横軸方向)、高さ方向を垂直方向(縦軸方向)とする探査結果が得られるように取り付けられ、単眼カメラ3は例えば自車1の車室内の同じセンタ位置に、同様に、車幅方向を水平方向(横軸方向)、高さ方向を垂直方向(縦軸方向)とする撮影結果(撮影画像)が得られるように取り付けられる。
しかし、取り付け誤差や走行中の振動により、レーザレーダ2、単眼カメラ3の位置がずれて探査座標と撮影座標のずれが生じることがあり、センサフュージョンの障害物の認識処理において、前記したように、とくに両座標の水平方向のx軸のずれが問題となる。
つぎに、自車1は、自車速を検出する車輪速センサ構成の車速センサ4及び、自車1の旋回状態を検出するためのヨーレートセンサ5、舵角センサ6等の自車状態検出用の各種センサ等も備える。
そして、自車1のエンジン始動後、レーザレーダ2はレーザパルスを車幅方向(水平方向)に掃引照射して自車前方をくり返し探査し、探査結果の信号をマイクロコンピュータ構成の制御ECU7に出力し、単眼カメラ3は自車前方を連続的に撮像して撮影画像の信号を制御ECU7に出力する。
つぎに、制御ECU7はメモリユニット8等に予め設定された図2のステップS1〜S7の障害物認識プログラム、その一部の詳細な処理を示した図3のステップS31〜S36のカメラキャリブレーションプログラムを実行することにより、図1の状態検出ユニット9、認識処理ユニット10、カメラキャリブレーションユニット11をソフトウエア処理で形成する。
そして、状態検出ユニット9、カメラキャリブレーションユニット11によりカメラキャリブレーション装置が形成され、両ユニット9、11はつぎの(a)〜(f)の各手段を備える。なお、(a)、(b)の手段は状態検出ユニット9が備え、(c)〜(f)の手段はカメラキャリブレーションユニット11が備える。
(a)自車状態検出手段
この手段は、自車1の旋回半径から自車1の直進走行状態を検出する。具体的には、車速センサ4の自車速の検出及び、ヨーレートセンサ5、舵角センサ6のヨーレート、舵角の検出に基いて、時々刻々の自車1の推定自車旋回半径を演算して検出監視し、その旋回半径が予め設定された所定値以上か否かの比較検出に基き、自車1が直進走行状態か否かを判別して検出する。
この手段は、自車1の旋回半径から自車1の直進走行状態を検出する。具体的には、車速センサ4の自車速の検出及び、ヨーレートセンサ5、舵角センサ6のヨーレート、舵角の検出に基いて、時々刻々の自車1の推定自車旋回半径を演算して検出監視し、その旋回半径が予め設定された所定値以上か否かの比較検出に基き、自車1が直進走行状態か否かを判別して検出する。
(b)障害物状態検出手段
この手段は、レーザレーダ2の探査結果に基づく自車1と自車前方の先行車等の障害物との距離の時間変化及び自車速から障害物の静止状態を検出する。具体的には、レーザレーダ2の送信から反射波受信までの時間に基づく周知の測距処理により、自車1と障害物との距離(車間距離等)を検出し、その時間変化から障害物の相対速度を検出し、この相対速度が自車速と逆向きで自車速の大きさであれば、障害物が停止中の先行車等の静止状態の障害物であることを検出する。
この手段は、レーザレーダ2の探査結果に基づく自車1と自車前方の先行車等の障害物との距離の時間変化及び自車速から障害物の静止状態を検出する。具体的には、レーザレーダ2の送信から反射波受信までの時間に基づく周知の測距処理により、自車1と障害物との距離(車間距離等)を検出し、その時間変化から障害物の相対速度を検出し、この相対速度が自車速と逆向きで自車速の大きさであれば、障害物が停止中の先行車等の静止状態の障害物であることを検出する。
(c)校正制御手段
この手段は、自車状態検出手段、障害物状態検出手段の検出結果のアンドゲート処理により、自車状態検出手段が直進走行状態を検出し、かつ、障害物状態検出手段が静止状態を検出したときに、カメラずれの校正許可を発生する。
この手段は、自車状態検出手段、障害物状態検出手段の検出結果のアンドゲート処理により、自車状態検出手段が直進走行状態を検出し、かつ、障害物状態検出手段が静止状態を検出したときに、カメラずれの校正許可を発生する。
これは、自車1がカーブ路を走行したり、右左折、進路変更等を行なったりするときには、自車の走行方向とずれた方向の車両等を自車前方の衝突の可能性がある障害物として誤認識するおそれがあり、また、障害物が静止状態でなければ後述の衝突予測時間が正確に求まらず、正確な校正が行えないからである。
(d)衝突予測時間算出手段
この手段は、校正制御手段が校正許可を発生するときに限り、レーザレーダ2の探査結果に基づく自車1と障害物との検出距離(車間距離等)と、車速センサ4の自車速とに基づき、検出距離をLsr、自車速をVsとして、自車1と障害物とのレーダ側の衝突予測時間TTC(LSR)=Lsr/Vrを算出し、また、つぎに説明するようにして、単眼カメラ3の撮影画像上の障害物の水平方向の時間変化から自車1と障害物との画像側の衝突予測時間TTC(IMG)を算出する。
この手段は、校正制御手段が校正許可を発生するときに限り、レーザレーダ2の探査結果に基づく自車1と障害物との検出距離(車間距離等)と、車速センサ4の自車速とに基づき、検出距離をLsr、自車速をVsとして、自車1と障害物とのレーダ側の衝突予測時間TTC(LSR)=Lsr/Vrを算出し、また、つぎに説明するようにして、単眼カメラ3の撮影画像上の障害物の水平方向の時間変化から自車1と障害物との画像側の衝突予測時間TTC(IMG)を算出する。
この画像側の衝突予測時間TTC(IMG)の算出は、具体的には、次のようにして行なわれる。
まず、自車1の走行中に単眼カメラ3の撮影画像Piは例えば図4に示すように時間変化し、自車1の走行によって、障害物である停止中の先行車Aが相対的に自車1に接近するにしたがって撮影画像Piの先行車Aが大きくなる。
なお、図4のt−6、t−5、t−4、t−3、t−2、t−1、tは撮影時刻を示し、Wは撮影画像のほぼ中央部分に予め設定された所定の大きさのROI領域を示す。
そして、衝突予測時間算出手段は各時刻の撮影画像Piの少なくともROI領域Wの部分を垂直成分のエッジ画像に変換した後二値化し、さらに、二値化した垂直成分のエッジ画像を水平方向に加算して図4中の垂直のヒストグラムGを算出し、このヒストグラムGの各ピーク点pを検出する。
このとき、先行車Aについては車幅方向の両端部等の特徴部分に大きなピーク点pが発生し、各ピーク点pの発生位置は時間経過にしたがって広がる方向に移動する。
さらに、各時刻のヒストグラムGの各ピーク点pをプロットして図5に示すような各ピーク点pの軌跡のトラッキング画像Ptを形成する。
図5は各ピーク点pを白色で示したトラッキング画像Ptの一例を示し、この画像Ptはほぼ先行車Aの左右両側端部のピーク点pの軌跡a、bのみを含み、両軌跡a、bが、時間の経過にしたがって、換言すれば、先行車Aが相対的に接近するにしたがって、ほぼ「ハ」の字状に車幅方向に広がるという特徴的な時間変化特性を示す。
なお、時間軸を上向きにとれば、前記の「ハ」の字を上下逆さまにした状態で車幅方向に広がる軌跡になる。
また、自車1が直進走行して停止中の先行車A等の検出対象の障害物に接近するような場合、前記の左右両側の「ハ」の字状の時間変化特性の軌跡は、例えば図6のトラッキング画像Ptに示すように、ほぼ画像中央の画像中心座標(FOE:Focus Of Expansion)の垂線状の軌跡の左、右両側に位置し、このことは、先行車A以外の衝突予測対象の障害物についても同様である。
なお、図5、図6のa、bはピーク点pの軌跡である。また、前記の画像中心座標(FOE)は画像内の無限遠点または消失点であり、単眼カメラ3の撮影座標の原点である。さらに、図6において、cは画像中心座標(FOE)の軌跡、図中の矢印線xはピーク点pの画像中心座標(FOE)からのx軸方向の距離を示し、図中の矢印線dx/dtが衝突予測時間TTC(IMG)の算出に用いられる軌跡a、bの時間変化のベクトルである。
一方、図7は自車1の接近による画像状態変化を説明する模式図であり、自車1の走行を上から見た平面図に相当し、同図の左右が自車1の走行方向、上下が撮影画像の水平方向であって、自車1が右端部の停止中の先行車Aに向かって直進走行しているとする。
このとき、前後する時刻tn、tn+1に自車1の単眼カメラ3が先行車Aを撮影すると、自車1の走行に基づき、図7の矢印線の撮影光路等からも明らかなように、撮影の距離や画像の大きさが変化し、単眼カメラ3のレンズ位置を自車位置<o>、この位置<o>から微小な一定距離f後方の撮影画像Piが得られる位置を撮像面位置<f>、自車前方の先行車Aの後部左右端のピークエッジpの位置を障害物停止位置<a>とすると、図7の時刻tn、tn+1の位置変化からも明らかなように、自車位置<o>、撮像面位置<f>は時間変化するが、障害物停止位置<a>は時間変化しない固定の位置である。
また、時刻tnの自車位置<o>と障害物停止位置<a>との実距離をZ、時刻tn+1の自車位置<o>と障害物停止位置<a>との実距離をZ1とすると、距離Z、Z1が時刻tn、tn+1のいわゆる車間距離であり、その差ΔZ(=Z−Z1)が時刻tnから時刻tn+1の間の自車1の走行距離である。
さらに、撮像面位置<f>の点q及び障害物停止位置<a>の点Qを通るカメラ光軸の位置が撮影画像Piの前記画像中心座標(FOE)の位置に相当する。
そして、撮像面位置<f>における、水平方向(x軸方向)、高さ方向(y軸方向)の二次元のxy座標系が撮影座標系であり、この撮影座標系や探査座標系のような個別の座標系に対して、共通のワールド座標系が、自車1の走行方向をZ軸方向、車幅方向(水平方向)をX軸方向、高さ方向をY軸方向とする3次元のXYZ座標系であるとし、説明を簡単にするため、時刻tnに、障害物停止位置<a>の座標(X、Y、Z)のピーク点pが、撮像面位置<f>の座標(x、y)にピーク点p(x、y)として撮影され、それから微小時間後の時刻tn+1に、障害物停止位置<a>の座標(X1、Y1、Z1)のピーク点p1が、撮像面位置<f>の座標(x1、y1)にピーク点p1として撮影されたとすると、図7からも明らかなように、つぎの(1)式が成り立つ。
X/Z=x/f (1)式
この(1)式を時間微分すると、つぎの(2)式を得る。
(dx/dt)・Z+x・(dZ/dt)=f・(dX/dt) (2)式
そして、自車1が直進走行するときには、先行車Aが停止している条件下、(1)式、(2)式中のXは一定値で変わらず、X=X1になることから、(2)式の右辺が0となり、つぎの(3)式が求まる。
(dx/dt)・Z+x・(dZ/dt)=0 (3)式
ここで、dx/dt(=x1−x)=uとして、(3)式を整理すると、つぎの(4)式を得る。
(dZ/dt)=−(u・Z/x) (4)式
そして、(4)式に基き、衝突予測時間TTC(IMG)を、つぎの(5)式にしたがって撮影画像上から算出する。
TTC(IMG)=−{Z/(dZ/dt)}=x/u (5)式
すなわち、衝突予測時間演算手段は、例えば図6のトラッキング画像Ptの各ピーク点p(x、y)の軌跡のx軸方向の広がりの時間変化特性から、同図中の矢印線のx、u(=dx/dt)を求め、前記(5)式の演算から衝突予測時間TTC(IMG)を算出する。
なお、衝突予測時間TTCは、例えば、新たなピーク点p(x、y)が得られる毎に算出して更新され、また、前記軌跡が複数個ある場合、全部または一部(1個の場合を含む)の軌跡について算出される。
(e)カメラずれ検出手段
この手段は、両衝突予測時間TTC(LSR)、TTC(IMG)のずれに基き、レーザレーダ2の探査座標に対する単眼カメラ3の画像座標の水平方向のずれ(以下、誤差という)TTCerrを検出する。
この手段は、両衝突予測時間TTC(LSR)、TTC(IMG)のずれに基き、レーザレーダ2の探査座標に対する単眼カメラ3の画像座標の水平方向のずれ(以下、誤差という)TTCerrを検出する。
具体的には、つぎのようにして誤差TTCerrを検出する。
まず、微小時間dtに水平方向の位置(距離)が図7のxからx1に変化すると、衝突予測時間TTC(IMG)は、前記(5)式に基き、つぎの(6)式で示される。
TTC(IMG)=x/u=x1/(x1−x) (6)式
この(6)式の衝突予測時間TTC(IMG)において、単眼カメラ3のずれによって位置x、x1に誤差TTCerrが含まれるときは、衝突予測時間TTC(LSR)に対して、つぎの(7)式が成り立つ。
TTC(LSR)=(x1−TTCerr)/(x1−x) (7)式
そして、衝突予測時間TTC(LSR)、位置x1、xが実測、演算で得られることから、誤差TTCerrは、つぎの(8)式から求めて検出される。
TTCerr=x1−TTC(LSR)×(x1−x)=x1(1−TTC(LSR)/TTC(IMG) (8)式
(f)座標校正手段
この手段は、誤差(水平方向のずれ)TTCerrが打ち消されて両衝突予測時間TTC(LSR)、TTC(IMG)が一致するように単眼カメラ3の画像座標を校正する。
この手段は、誤差(水平方向のずれ)TTCerrが打ち消されて両衝突予測時間TTC(LSR)、TTC(IMG)が一致するように単眼カメラ3の画像座標を校正する。
具体的には、例えばメモリユニット8に誤差TTCerrを書き換え自在に保持し、画像中心座標(FOE)の水平方向の位置をメモリユニット8に保持した最新の誤差TTCerrずらし、単眼カメラ3の画像座標を校正する。
そして、この画像座標の校正により、レーザレーダ2の探査座標と単眼カメラ3の撮影座標とのとくに水平方向が正確に一致し、両座標の整合が図られる。
なお、前記のカメラキャリブレーションの処理を模式的に示すと、図8のようになり、同図のα、βは衝突予測時間算出手段のレーザレーダ側、カメラ側の処理ブロック、γはカメラずれ検出手段の処理ブロック、δは座標校正手段のブロックである。
つぎに、認識処理ユニット10は、レーザレーダ2の探査結果とカメラキャリブレーションユニット11で校正された単眼カメラ3の撮影結果とに基くセンサフュージョンの障害物認識処理を実行し、衝突可能性がある障害物を認識すると、ブレーキユニット12を自動ブレーキ制御し、警報ユニット13によりブザー音やランプ点灯或いは音声出力やメッセージ表示等で自動ブレーキがかかったことをドライバ等に警報する。
そして、認識処理ユニット10のセンサフュージョンの障害物認識処理は、前記の特許文献1(特開2003−99762号公報)、特許文献2(特開平7−182484号公報)に記載のような周知のセンサフュージョンの障害物認識処理と同様の処理であり、具体的には、例えば前記特許文献1に記載の処理と同様、単眼カメラ3の撮影画像のエッジヒストグラムに基いて撮影画像の照合パターンを求めるとともに、レーザレーダ2の自車前方の探査結果に基づいてレーザの各反射点の分布パターンを求め、両パターンを融合して得られた融合パターンと辞書パターンとのパターンマッチングにより、自車前方の先行車等の障害物を認識する処理であり、さらに、認識した障害物と自車1との距離及び障害物の速度から、前記の衝突予測時間TTC(LSR)と同様の衝突予測時間を算出し、この時間と設定時間とに比較に基づいて衝突可能性がある障害物を検出する処理である。
そして、自車1の走行中に各ユニット9〜11が上記の処理をくり返すことにより、制御ECU7は、つぎに説明するように、図2に示す手順で衝突可能性がある障害物を認識して自動ブレーキをかける。
まず、自車1の走行中に図2のステップS1において、前記の自車状態検出手段により、自車1が直進走行中か否かを検出し、直進走行状態であれば、つぎのステップS2に移行し、前記の障害物状態検出手段により、自車前方に先行車A等の静止状態の障害物があるか否かを検出し、静止状態の障害物があるときに限り、つぎのステップS3のカメラキャリブレーションに進む。
そして、ステップS3のカメラキャリブレーションの処理は、図3のステップS31〜S36からなり、前記の衝突予測時間算出手段の動作に基き、ステップS31で単眼カメラ3の撮影画像Piの垂直エッジのヒストグラムGのピーク点pを検出し、ステップS32で前記のピーク点pの軌跡a、bからdx/dtの時間変化を検出し、ステップS33、S34により衝突予測時間TTC(IMG)、TTC(LSR)を算出する。
さらに、ステップS25に移行し、カメラずれ検出手段によって衝突予測時間TTC(IMG)、TTC(LSR)のずれを検出し、この検出に基き、ステップS36において、座標校正手段によって前記の画像中心座標(FOE)を補正し、単眼カメラ3の撮影座標の水平方向のずれを校正し、レーザレーダ2の探査座標に対する単眼カメラ3の撮影座標のずれを自動的に修正する。
このカメラキャリブレーションが終了すると、図2のステップS3からステップS4に移行し、認識処理ユニット10によるセンサフュージョンの障害物認識を実行し、衝突の可能性がある障害物を認識すると、ステップS5を介してステップS6に移行し、ブレーキユニット12、警報ユニット13を制御して自車1の自動ブレーキ制御、その警報を行う。
そして、自車1のエンジンが停止するまでステップS7を介してステップS1にもどり、このステップS1から処理をくり返す。
したがって、この実施形態の場合、取り付け誤差や走行中の振動によって単眼カメラ3の撮影座標がレーザレーダ2の探査座標とずれても、自車1の走行中の前記の画像座標の校正により、単眼カメラ3の撮影座標が、レーザレーダ2の探査座標と整合するように、ソフトウエア上で自動的に校正され、両座標が正確に整合した状態で衝突の可能性がある障害物が認識され、両座標のずれに起因した障害物の誤認識が確実に防止されて不用意に自動ブレーキがかかることがない。
そして、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能であり、例えば、認識処理ユニット10のセンサフュージョンの障害物認識処理等が前記実施形態の処理と異なる場合にも本発明が同様に適用できるのは勿論である。
また、制御ECU7のその他のユニット9、11の処理手順等が前記実施形態と異なっていてもよく、さらに、スキャン式レーダはスキャン式の種々のレーダであってよく、カメラはCCDの単眼カメラ3に限られるものではなく、場合によっては、ステレオカメラでもよい。
そして、本発明の認識結果は、自動ブレーキ制御以外の自車走行制御等にも用いることができるのは勿論である。
ところで、自車1の装備部品数を少なくするため、例えば図1のレーザレーダ2、単眼カメラ3を追従走行制御等の他の制御のセンサに兼用する場合にも適用することができる。
1 自車
2 スキャン式レーザレーダ
3 単眼カメラ
7 制御ECU
2 スキャン式レーザレーダ
3 単眼カメラ
7 制御ECU
Claims (6)
- 自車に搭載したスキャン式レーダの自車前方の探査結果と、自車に搭載したカメラの自車前方の撮影結果とを組み合わせたセンサフュージョンの認識処理により、自車前方の先行車等の障害物を認識する障害物認識の前記カメラの画像座標を校正するカメラキャリブレーション方法であって、
自車の旋回半径から自車の直進走行状態を検出し、かつ、前記探査結果に基づく自車と前記障害物との距離の時間変化及び自車速から前記障害物が静止状態であることを検出したときに、
前記距離と前記自車速とにより自車と前記障害物とのレーダ側の衝突予測時間を算出し、
前記カメラの撮影画像上の前記障害物の水平方向の時間変化から自車と前記障害物との画像側の衝突予測時間を算出し、
前記両衝突予測時間のずれから前記スキャン式レーダの探査座標に対する前記カメラの画像座標の前記水平方向のずれを検出し、
前記水平方向のずれが打ち消されて前記両衝突予測時間が一致するように前記カメラの画像座標を校正することを特徴とするカメラキャリブレーション方法。 - カメラの撮影画像の垂直エッジのヒストグラムのピーク点を検出し、
前記カメラの撮影画像上の障害物の水平方向の時間変化を、前記カメラの撮影画像の垂直エッジのヒストグラムのピーク点の軌跡から検出することを特徴とする請求項1記載のカメラキャリブレーション方法。 - スキャン式レーダがスキャン式レーザレーダであって、カメラが単眼カメラであることを特徴とする請求項1または2に記載のカメラキャリブレーション方法。
- 自車に搭載されたスキャン式レーダの自車前方の探査結果と自車に搭載されたカメラの自車前方の撮影結果とを組み合わせたセンサフュージョンの認識処理により、自車前方の先行車等の障害物を認識する障害物認識装置に設けらた前記カメラの画像座標校正用のカメラキャリブレーション装置であって、
自車の旋回半径から自車の直進走行状態を検出する自車状態検出手段と、
前記探査結果に基づく自車と前記障害物との距離の時間変化及び自車速から前記障害物の静止状態を検出する障害物状態検出手段と、
前記自車状態検出手段が前記直進走行状態を検出し、かつ、前記障害物状態検出手段が前記静止状態を検出したときに、校正許可を発生する校正制御手段と、
前記距離と前記自車速とにより自車と前記障害物とのレーダ側の衝突予測時間を算出し、前記カメラの撮影画像上の前記障害物の水平方向の時間変化から自車と前記障害物との画像側の衝突予測時間を算出する衝突予測時間算出手段と、
前記両衝突予測時間のずれから前記スキャン式レーダの探査座標に対する前記カメラの画像座標の前記水平方向のずれを検出するカメラずれ検出手段と、
前記水平方向のずれが打ち消されて前記両衝突予測時間が一致するように前記カメラの画像座標を更正する座標校正手段とを備えたことを特徴とするカメラキャリブレーション装置。 - 衝突予測時間算出手段により、カメラの撮影画像の垂直エッジのヒストグラムのピーク点を検出し、前記カメラの撮影画像上の障害物の水平方向の時間変化を、前記カメラの撮影画像の垂直エッジのヒストグラムのピーク点の軌跡から検出するようにしたことを特徴とする請求項4記載のカメラキャリブレーション装置。
- スキャン式レーダがスキャン式レーザレーダであって、カメラが単眼カメラであることを特徴とする請求項4または5に記載のカメラキャリブレーション装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004184364A JP2006011570A (ja) | 2004-06-23 | 2004-06-23 | カメラキャリブレーション方法及びカメラキャリブレーション装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004184364A JP2006011570A (ja) | 2004-06-23 | 2004-06-23 | カメラキャリブレーション方法及びカメラキャリブレーション装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006011570A true JP2006011570A (ja) | 2006-01-12 |
Family
ID=35778799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004184364A Withdrawn JP2006011570A (ja) | 2004-06-23 | 2004-06-23 | カメラキャリブレーション方法及びカメラキャリブレーション装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006011570A (ja) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009012704A (ja) * | 2007-07-09 | 2009-01-22 | Honda Motor Co Ltd | 制御対象判定装置 |
JP2010501952A (ja) * | 2007-04-19 | 2010-01-21 | ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング | 運転者支援システム、および対象物の妥当性を確定する方法 |
JP2011227029A (ja) * | 2010-04-23 | 2011-11-10 | Honda Motor Co Ltd | 車両の周辺監視装置 |
JP2011232139A (ja) * | 2010-04-27 | 2011-11-17 | Honda Motor Co Ltd | 車両の周辺監視装置 |
CN102768803A (zh) * | 2012-07-31 | 2012-11-07 | 株洲南车时代电气股份有限公司 | 基于雷达与视频检测的车辆智能监测记录系统及其方法 |
CN104129387A (zh) * | 2014-07-25 | 2014-11-05 | 杭州电子科技大学 | 安全距离与碰撞时间权衡风险的单摄像头汽车防撞方法 |
CN104760812A (zh) * | 2015-02-26 | 2015-07-08 | 三峡大学 | 基于单目视觉的传送带上产品实时定位系统和方法 |
JP2015187589A (ja) * | 2014-03-27 | 2015-10-29 | 三菱電機株式会社 | センサ軸ずれ検出装置およびセンサ軸ずれ検出方法 |
WO2016013373A1 (ja) * | 2014-07-23 | 2016-01-28 | 日立建機株式会社 | 電子制御装置及び車載通信ネットワークシステム |
JPWO2017057041A1 (ja) * | 2015-09-30 | 2018-08-09 | ソニー株式会社 | 信号処理装置、信号処理方法、およびプログラム |
CN108596979A (zh) * | 2018-03-27 | 2018-09-28 | 深圳市智能机器人研究院 | 一种用于激光雷达和深度相机的标定装置和方法 |
JP2019015606A (ja) * | 2017-07-06 | 2019-01-31 | 本田技研工業株式会社 | 情報処理方法及び情報処理装置 |
US10220820B2 (en) | 2016-12-21 | 2019-03-05 | Hyundai Motor Company | Vehicle and method for controlling the same |
US10429492B2 (en) | 2014-09-24 | 2019-10-01 | Denso Corporation | Apparatus for calculating misalignment quantity of beam sensor |
CN111654677A (zh) * | 2020-06-17 | 2020-09-11 | 浙江大华技术股份有限公司 | 确定云台失步的方法及装置 |
CN111711735A (zh) * | 2020-06-12 | 2020-09-25 | 高德科科技(北京)有限公司 | 一种双标靶式自动驾驶辅助系统标定装置 |
CN111731272A (zh) * | 2020-06-17 | 2020-10-02 | 重庆长安汽车股份有限公司 | 基于自动泊车系统的障碍物碰撞规避方法 |
CN112528771A (zh) * | 2020-11-27 | 2021-03-19 | 深兰科技(上海)有限公司 | 障碍物检测方法、装置、电子设备及存储介质 |
WO2022156176A1 (zh) * | 2021-01-22 | 2022-07-28 | 上海西井信息科技有限公司 | 多种雷达和相机联合标定方法、系统、设备及存储介质 |
CN116353753A (zh) * | 2023-03-28 | 2023-06-30 | 广东宏远新科自动化技术开发有限公司 | 一种电动自行车的自动防撞辅助方法及其系统 |
-
2004
- 2004-06-23 JP JP2004184364A patent/JP2006011570A/ja not_active Withdrawn
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010501952A (ja) * | 2007-04-19 | 2010-01-21 | ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング | 運転者支援システム、および対象物の妥当性を確定する方法 |
JP2009012704A (ja) * | 2007-07-09 | 2009-01-22 | Honda Motor Co Ltd | 制御対象判定装置 |
JP2011227029A (ja) * | 2010-04-23 | 2011-11-10 | Honda Motor Co Ltd | 車両の周辺監視装置 |
JP2011232139A (ja) * | 2010-04-27 | 2011-11-17 | Honda Motor Co Ltd | 車両の周辺監視装置 |
CN102768803A (zh) * | 2012-07-31 | 2012-11-07 | 株洲南车时代电气股份有限公司 | 基于雷达与视频检测的车辆智能监测记录系统及其方法 |
CN102768803B (zh) * | 2012-07-31 | 2014-10-22 | 株洲南车时代电气股份有限公司 | 基于雷达与视频检测的车辆智能监测记录系统及其方法 |
JP2015187589A (ja) * | 2014-03-27 | 2015-10-29 | 三菱電機株式会社 | センサ軸ずれ検出装置およびセンサ軸ずれ検出方法 |
WO2016013373A1 (ja) * | 2014-07-23 | 2016-01-28 | 日立建機株式会社 | 電子制御装置及び車載通信ネットワークシステム |
CN104129387A (zh) * | 2014-07-25 | 2014-11-05 | 杭州电子科技大学 | 安全距离与碰撞时间权衡风险的单摄像头汽车防撞方法 |
US10429492B2 (en) | 2014-09-24 | 2019-10-01 | Denso Corporation | Apparatus for calculating misalignment quantity of beam sensor |
CN104760812A (zh) * | 2015-02-26 | 2015-07-08 | 三峡大学 | 基于单目视觉的传送带上产品实时定位系统和方法 |
US10908257B2 (en) | 2015-09-30 | 2021-02-02 | Sony Corporation | Signal processing apparatus, signal processing method, and program |
JPWO2017057041A1 (ja) * | 2015-09-30 | 2018-08-09 | ソニー株式会社 | 信号処理装置、信号処理方法、およびプログラム |
US11719788B2 (en) | 2015-09-30 | 2023-08-08 | Sony Corporation | Signal processing apparatus, signal processing method, and program |
US10220820B2 (en) | 2016-12-21 | 2019-03-05 | Hyundai Motor Company | Vehicle and method for controlling the same |
JP2019015606A (ja) * | 2017-07-06 | 2019-01-31 | 本田技研工業株式会社 | 情報処理方法及び情報処理装置 |
CN108596979A (zh) * | 2018-03-27 | 2018-09-28 | 深圳市智能机器人研究院 | 一种用于激光雷达和深度相机的标定装置和方法 |
CN111711735A (zh) * | 2020-06-12 | 2020-09-25 | 高德科科技(北京)有限公司 | 一种双标靶式自动驾驶辅助系统标定装置 |
CN111654677A (zh) * | 2020-06-17 | 2020-09-11 | 浙江大华技术股份有限公司 | 确定云台失步的方法及装置 |
CN111731272A (zh) * | 2020-06-17 | 2020-10-02 | 重庆长安汽车股份有限公司 | 基于自动泊车系统的障碍物碰撞规避方法 |
CN111654677B (zh) * | 2020-06-17 | 2021-12-17 | 浙江大华技术股份有限公司 | 确定云台失步的方法及装置 |
CN112528771A (zh) * | 2020-11-27 | 2021-03-19 | 深兰科技(上海)有限公司 | 障碍物检测方法、装置、电子设备及存储介质 |
WO2022156176A1 (zh) * | 2021-01-22 | 2022-07-28 | 上海西井信息科技有限公司 | 多种雷达和相机联合标定方法、系统、设备及存储介质 |
CN116353753A (zh) * | 2023-03-28 | 2023-06-30 | 广东宏远新科自动化技术开发有限公司 | 一种电动自行车的自动防撞辅助方法及其系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006011570A (ja) | カメラキャリブレーション方法及びカメラキャリブレーション装置 | |
CN110232836B (zh) | 物体识别装置以及车辆行驶控制系统 | |
US10384681B2 (en) | Vehicle cruise control device and cruise control method | |
JP6361366B2 (ja) | 物体認識装置 | |
JP4763250B2 (ja) | 物体検出装置 | |
US20170297488A1 (en) | Surround view camera system for object detection and tracking | |
CN107004368B (zh) | 车辆的行驶控制装置以及行驶控制方法 | |
US10429492B2 (en) | Apparatus for calculating misalignment quantity of beam sensor | |
WO2017170798A1 (ja) | 物体認識装置及び物体認識方法 | |
CN107209997B (zh) | 车辆的行驶控制装置以及行驶控制方法 | |
JP6614108B2 (ja) | 車両制御装置、車両制御方法 | |
WO2017183667A1 (ja) | 物体検出装置、物体検出方法 | |
JP7018277B2 (ja) | 物体検出装置、物体検出方法及び車両制御システム | |
JP2008123462A (ja) | 物体検知装置 | |
JP6458651B2 (ja) | 路面標示検出装置及び路面標示検出方法 | |
JP2017211249A (ja) | 物標検出装置 | |
JP2007310741A (ja) | 立体物認識装置 | |
JPH09142236A (ja) | 車両の周辺監視方法と周辺監視装置及び周辺監視装置の故障判定方法と周辺監視装置の故障判定装置 | |
JP6602982B2 (ja) | 車載カメラ、車載カメラの調整方法、車載カメラシステム | |
US11346922B2 (en) | Object recognition apparatus and object recognition method | |
JP4712562B2 (ja) | 車両の前方立体物認識装置 | |
JP2019012323A (ja) | 車両制御装置 | |
US20170227634A1 (en) | Object recognition apparatus using a plurality of object detecting means | |
JP5098563B2 (ja) | 物体検出装置 | |
JP2017191382A (ja) | 車両制御装置、及び車両制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070904 |