JP2012221099A - 運転支援装置 - Google Patents
運転支援装置 Download PDFInfo
- Publication number
- JP2012221099A JP2012221099A JP2011084536A JP2011084536A JP2012221099A JP 2012221099 A JP2012221099 A JP 2012221099A JP 2011084536 A JP2011084536 A JP 2011084536A JP 2011084536 A JP2011084536 A JP 2011084536A JP 2012221099 A JP2012221099 A JP 2012221099A
- Authority
- JP
- Japan
- Prior art keywords
- image
- optical flow
- image plane
- pixel position
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】運転支援装置において、オプティカルフロー検出等の画像処理機能を向上することにある。
【解決手段】画像処理手段(5)は、広角レンズ(3)を有する撮像手段(4)により撮像される画像上の各画素の座標に対応するイメージプレーン上の各画素の座標を記録した記録手段(8)と、撮像手段(4)により撮像された画像上の画素位置から記録手段(8)に記録された座標の対応関係に基づいてイメージプレーン上の画素位置を取得する画素位置取得手段(9)とを備える。
【選択図】図1
【解決手段】画像処理手段(5)は、広角レンズ(3)を有する撮像手段(4)により撮像される画像上の各画素の座標に対応するイメージプレーン上の各画素の座標を記録した記録手段(8)と、撮像手段(4)により撮像された画像上の画素位置から記録手段(8)に記録された座標の対応関係に基づいてイメージプレーン上の画素位置を取得する画素位置取得手段(9)とを備える。
【選択図】図1
Description
この発明は、運転支援装置に係り、特に車両に取り付けた撮像手段により撮像された画像を処理して運転を支援する運転支援装置に関する。
車両には、運転を支援するために、運転支援装置を搭載しているものがある。この運転支援装置は、車両後部に取り付けられた撮像手段(バックアイカメラ)の画像等を表示手段(モニタ)に表示させて、運転者の運転を支援するものである。
この運転支援装置においては、走行中、車両に取り付けられた単眼の撮像手段を使用して自車両の後方の後続車両との距離を自動的に確認する場合、撮像手段により撮影した画像からオプティカルフロー等の処理で障害物の動きを把握し、障害物の相対位置・速度、移動方向を自動計測して判定している。
撮像手段としては、撮像した画像から障害物の位置を自動計測する際、障害物の三次元空間座標と撮影された二次元の画像平面座標とをカメラキャリブレーション等の校正作業で(ピンホールカメラモデルに代表される)線形な位置関係で対応がとれるようレンズ収差の小さいものが使用されている。
この運転支援装置においては、走行中、車両に取り付けられた単眼の撮像手段を使用して自車両の後方の後続車両との距離を自動的に確認する場合、撮像手段により撮影した画像からオプティカルフロー等の処理で障害物の動きを把握し、障害物の相対位置・速度、移動方向を自動計測して判定している。
撮像手段としては、撮像した画像から障害物の位置を自動計測する際、障害物の三次元空間座標と撮影された二次元の画像平面座標とをカメラキャリブレーション等の校正作業で(ピンホールカメラモデルに代表される)線形な位置関係で対応がとれるようレンズ収差の小さいものが使用されている。
特許文献1に係る計測マップ生成装置及び走行環境確認装置は、広角レンズを有する撮像手段(バックカメラ)の外部パラメータ及び内部パラメータを記憶した記憶部を備えるとともに、撮像手段から入力される広角画像の画像処理に使用するための計測マップを生成する生成処理部を備え、記憶部が、複数の座標系を定義する座標系定義と、各座標系の関係を表す複数の座標関係式と、各座標関係式の係数となる関係式パラメータとを記憶するものである。
特許文献2に係る画像の歪曲補正方法は、歪曲のあるレンズを有する撮像手段(カメラ)で撮像した画像を、撮像手段の光軸と画像の面との交点を中心とする円に内包される領域では、非線形最小二乗法によって係数を求めた多項式近似による歪曲補正関数を適用して歪曲画像を補正し、上記の円に内包されない領域では、非線形最小二乗法によって係数を求めた対数式近似による歪曲補正関数を適用して歪曲画像を補正するものである。
特許文献2に係る画像の歪曲補正方法は、歪曲のあるレンズを有する撮像手段(カメラ)で撮像した画像を、撮像手段の光軸と画像の面との交点を中心とする円に内包される領域では、非線形最小二乗法によって係数を求めた多項式近似による歪曲補正関数を適用して歪曲画像を補正し、上記の円に内包されない領域では、非線形最小二乗法によって係数を求めた対数式近似による歪曲補正関数を適用して歪曲画像を補正するものである。
ところで、従来、レンズ収差の小さい撮像手段は、二次元の画像平面座標と三次元空間座標の対応が線形であるが、原理的に撮影可能なエリアが狭かった。逆に、レンズ収差が大きい撮像手段では、撮影可能エリアは広くなるが、撮影した画像に歪みが現れ、二次元の画像平面座標と三次元空間座標との対応が非線形となり、自動計測には不向きであった。
また、レンズ収差を考慮に入れた計測マップの導入により、自車両と後続車両の距離・速度を認識し、歪み画像を直接処理して、後続車両の接近を判別して運転者に警告する方法にあっては、計測マップ上にかからない位置でのオプティカルフローを判定対象外として扱っていたため、環境(日照照明条件)により車間が迫った対象物を判定できない場合が発生するという不都合があった。
また、レンズ収差を考慮に入れた計測マップの導入により、自車両と後続車両の距離・速度を認識し、歪み画像を直接処理して、後続車両の接近を判別して運転者に警告する方法にあっては、計測マップ上にかからない位置でのオプティカルフローを判定対象外として扱っていたため、環境(日照照明条件)により車間が迫った対象物を判定できない場合が発生するという不都合があった。
そこで、この発明の目的は、オプティカルフロー検出等の画像処理機能を向上する運転支援装置を提供することにある。
この発明は、広角レンズを有する撮像手段を設け、この撮像手段により撮像される画像上の各画素の座標に対応するイメージプレーン上の各画素の座標を記録した記録手段と、
前記撮像手段により撮像された画像上の画素位置から前記記録手段に記録された座標の対応関係に基づいてイメージプレーン上の画素位置を取得する画素位置取得手段とを備える画像処理手段を設けたことを特徴とする。
前記撮像手段により撮像された画像上の画素位置から前記記録手段に記録された座標の対応関係に基づいてイメージプレーン上の画素位置を取得する画素位置取得手段とを備える画像処理手段を設けたことを特徴とする。
この発明の運転支援装置は、広角レンズを有する撮像手段により撮像した画像を、歪み補正を行うことなく、直接的に座標計測処理を行うことにより、オプティカルフロー検出等の画像処理機能を向上できる。例えば、ブロックマッチングベースオプティカルフローや勾配法に基づくオプティカルフローが存在する。
この発明は、オプティカルフロー検出等の画像処理機能を向上する目的を、広角レンズを有する撮像手段により撮像した画像を、歪み補正を行うことなく、直接的に座標計測処理を行うことによって実現するものである。
図1〜図23は、この発明の実施例1を示すものである。
図1、図2において、1は車両、2は車両1に搭載される運転支援装置である。
この運転支援装置2は、広角レンズ3を有して車両後方を撮像する撮像手段4と、入力側で撮像手段4に連絡した画像処理制御手段5と、この画像制御処理手段5の出力側に連絡した表示手段6及び音声出力手段7とを備える。
撮像手段4は、車両1の後部に取り付けたバックカメラからなり、車両後方を撮像する。以下、この撮像手段4を、カメラ4と称して説明する。
表示手段6は、車両1の車室内に配置されたカーナビゲーションシステムのモニタ等の表示機器からなり、カメラ4により撮像された画像等を表示する。
音声出力手段7は、スピーカ等の音声機器からなり、カメラ4により撮像された画像状態等により運転者に警告等を知らせるものである。
図1、図2において、1は車両、2は車両1に搭載される運転支援装置である。
この運転支援装置2は、広角レンズ3を有して車両後方を撮像する撮像手段4と、入力側で撮像手段4に連絡した画像処理制御手段5と、この画像制御処理手段5の出力側に連絡した表示手段6及び音声出力手段7とを備える。
撮像手段4は、車両1の後部に取り付けたバックカメラからなり、車両後方を撮像する。以下、この撮像手段4を、カメラ4と称して説明する。
表示手段6は、車両1の車室内に配置されたカーナビゲーションシステムのモニタ等の表示機器からなり、カメラ4により撮像された画像等を表示する。
音声出力手段7は、スピーカ等の音声機器からなり、カメラ4により撮像された画像状態等により運転者に警告等を知らせるものである。
この実施例1において、画像処理制御手段5は、カメラ4により撮像される画像上の各画素の座標に対応するイメージプレーン上の各画素の座標を記録した記録手段(メモリ)8と、カメラ4により撮像された画像上の画素位置から記録手段8に記録された座標の対応関係に基づいてイメージプレーン上の画素位置を取得する画素位置取得手段9とを備える。
これにより、広角レンズ3を用いて撮像された歪み画像に対して歪み補正を行なうことなく、直接、座標計測処理を行うことができる。このため、歪み補正した画像を画像処理する場合に比べて、人為的な画像加工が加わらない分、オプティカルフロー検出等の画像処理機能に優れている。
これにより、広角レンズ3を用いて撮像された歪み画像に対して歪み補正を行なうことなく、直接、座標計測処理を行うことができる。このため、歪み補正した画像を画像処理する場合に比べて、人為的な画像加工が加わらない分、オプティカルフロー検出等の画像処理機能に優れている。
また、この実施例1において、画像処理制御手段5は、カメラ4により撮像された画像上の物体のオプティカルフローを検出するオプティカルフロー検出手段10と、このオプティカルフロー検出手段10により検出されたオプティカルフローの始点位置と終点位置とに対応するイメージプレーン上の画素位置を画素位置取得手段9により取得し、画素位置取得手段9で取得された2つの画素間の距離及び物体とカメラ4との距離に基づいて前記物体がカメラ4に接触するまでの時間を推定する接触時間推定手段11とを備える。
これにより、イメージプレーンは、カメラ4により撮像された画像上の略全画素をカバーしているので、画像の広範囲にわたって物体がカメラ4に接触するまでの時間を推定することができる。
これにより、イメージプレーンは、カメラ4により撮像された画像上の略全画素をカバーしているので、画像の広範囲にわたって物体がカメラ4に接触するまでの時間を推定することができる。
この実施例1においては、以下に述べるように、従来の計測マップに代わる歪み画像に対応するイメージプレーンマップの作成を行い、また、このイメージプレーンマップに基づく接近車両の判定を行う。
先ず、この発明に係る経緯・内容を述べるために、その背景について説明する。
通常、バックアイカメラであるカメラは、より広い視界を確保するために、広角レンズを有している。但し、広角レンズを通したカメラの映像には、レンズ収差の影響によって画像に歪みが生じている。
よって、車両周囲を自動的に確認する運転支援装置では、先ず、画像の歪み補正処理を行い、歪みを除去加工した映像を利用する手法が用いられる。但し、歪み補正画像は、人為的に処理された仮想画像を使用するため、ブロックマッチング作業等の処理を行なう際に、検出したオプティカルフローの精度に疑問の余地が残っていた。
上述した特許文献1等の運転支援装置では、取得した画像の歪みを持つ入力したカメラの映像から画像の歪み補正処理を行なうことなく、直接的に処理して接近車両の距離を確認する技術手法を報告し、その有効性を示している。
また、上述した特許文献1では、取得したオプティカルフローに対して、三次元上で任意に設定した規定高さ(Yconst)に基づき作成した三次元画像上のX・Z座標の計測マップを重ね合わせ、オプティカルフロー始点位置と終点位置との各座標[U・V]と計測マップ上の記録座標値[Xw、Yconst、Zw]の対応から、接近車両の相対位置・相対速度を計算し、自車両と接近車両との接触までの時期である接近交差時間(TTCR)(Time To CRossing、TTCR=(Zw/ΔZw))から接近車両との距離状態を判定している。ここで、ΔZw(Zw:方向速度)は、オプティカルフローの始点・終点と比較画像の撮影時間との差から算出される。
先ず、この発明に係る経緯・内容を述べるために、その背景について説明する。
通常、バックアイカメラであるカメラは、より広い視界を確保するために、広角レンズを有している。但し、広角レンズを通したカメラの映像には、レンズ収差の影響によって画像に歪みが生じている。
よって、車両周囲を自動的に確認する運転支援装置では、先ず、画像の歪み補正処理を行い、歪みを除去加工した映像を利用する手法が用いられる。但し、歪み補正画像は、人為的に処理された仮想画像を使用するため、ブロックマッチング作業等の処理を行なう際に、検出したオプティカルフローの精度に疑問の余地が残っていた。
上述した特許文献1等の運転支援装置では、取得した画像の歪みを持つ入力したカメラの映像から画像の歪み補正処理を行なうことなく、直接的に処理して接近車両の距離を確認する技術手法を報告し、その有効性を示している。
また、上述した特許文献1では、取得したオプティカルフローに対して、三次元上で任意に設定した規定高さ(Yconst)に基づき作成した三次元画像上のX・Z座標の計測マップを重ね合わせ、オプティカルフロー始点位置と終点位置との各座標[U・V]と計測マップ上の記録座標値[Xw、Yconst、Zw]の対応から、接近車両の相対位置・相対速度を計算し、自車両と接近車両との接触までの時期である接近交差時間(TTCR)(Time To CRossing、TTCR=(Zw/ΔZw))から接近車両との距離状態を判定している。ここで、ΔZw(Zw:方向速度)は、オプティカルフローの始点・終点と比較画像の撮影時間との差から算出される。
ところで、オプティカルフローは、入力画像上でコントラスト等の特徴量の大きい位置に対して発生するため、接近車両では輪郭部等に対して感度が良い。また、後続車両の接近に伴い画像上に映る車両映像が拡大するため、オプティカルフローは、輪郭の拡大変化に合わせて離散して細分化した形で発生するようになる。
設定した計測マップと重複できないオプティカルフローとについては、XwZw座標値を計測マップから取得することができない。つまり、計測マップ有効範囲以外となり、接近交差時間(TTCR)の計測度合の判定ができない。ある程度車間距離が接近した後続車両の場合には、車両のルーフ部等を対象に発生したオプティカルフローについては、規定高さ(Yconst)から大きく反れた高さ関係となるので、位置計測精度が劣化する。よって、これらの計測マップ有効範囲外の位置に発生するオプティカルフローは、従来、無効なノイズフローとして、接近車両の接近判定候補から除外してきた。あるいは、規定高さ(Yconst)を複数の高さで設定し、計測マップを多重階層化して判定する必要があった。
設定した計測マップと重複できないオプティカルフローとについては、XwZw座標値を計測マップから取得することができない。つまり、計測マップ有効範囲以外となり、接近交差時間(TTCR)の計測度合の判定ができない。ある程度車間距離が接近した後続車両の場合には、車両のルーフ部等を対象に発生したオプティカルフローについては、規定高さ(Yconst)から大きく反れた高さ関係となるので、位置計測精度が劣化する。よって、これらの計測マップ有効範囲外の位置に発生するオプティカルフローは、従来、無効なノイズフローとして、接近車両の接近判定候補から除外してきた。あるいは、規定高さ(Yconst)を複数の高さで設定し、計測マップを多重階層化して判定する必要があった。
しかしながら、ある程度車間距離が接近した場合、自車両・接近車両・太陽の位置関係で、規定高さ(Yconst)付近の部位が接近車両自身の陰影部となることで、コントラストが低下し、オプティカルフローの検出自体が難しくなる場合が発生する。反対に、計測マップ有効範囲外に位置するルーフ部等は、日照方向境界となるため、コントラストが増加してフロー検出感度が増加する。つまり、計測マップ有効範囲外では、図3に示すように、自車両と対象の相対距離を求められず、計測マップ無効範囲では、検出したオプティカルフローを廃棄せざるを得なかった。
そこで、この実施例1では、敢えて自車両との相対距離・相対速度の計測を行なわない条件に限定することで、従来どおり歪みを持ったカメラの画像から歪み補正処理を施すことなく、接近交差時間(TTCR)のみを検出する手法を提案する。この提案する手法では、相対距離の計測を行なわないため、XZの計測マップを使用しない。よって、従来の判定候補から除外してきた規定高さ(Yconst)から外れたオプティカルフローをも利用して(図3の矢印Pで示す)、接近交差時間(TTCR)を求めることができる。つまり、略全ての画素位置で、オプティカルフローによって接近交差時間(TTCR)の推定を行う。
そこで、この実施例1では、敢えて自車両との相対距離・相対速度の計測を行なわない条件に限定することで、従来どおり歪みを持ったカメラの画像から歪み補正処理を施すことなく、接近交差時間(TTCR)のみを検出する手法を提案する。この提案する手法では、相対距離の計測を行なわないため、XZの計測マップを使用しない。よって、従来の判定候補から除外してきた規定高さ(Yconst)から外れたオプティカルフローをも利用して(図3の矢印Pで示す)、接近交差時間(TTCR)を求めることができる。つまり、略全ての画素位置で、オプティカルフローによって接近交差時間(TTCR)の推定を行う。
参考として、上述した特許文献1のピンホールカメラモデルと歪み画像の関係並びに補正方法について概略的に説明する。
ピンホールカメラモデルでは、図4に示すように、物体の存在する三次元空間座標系を世界座標系[Xw、Yw、Zw]と、カメラのレンズを基準としたカメラ座標系[Xc、Yc、Zc]との2系統でモデル化する。
カメラで撮影した物体は、下記の[数1]−(1)式で示すカメラ外部パラメータ変換により、線形変換(回転と並行)にてカメラ座標系に変換される。
ピンホールカメラモデルでは、図4に示すように、物体の存在する三次元空間座標系を世界座標系[Xw、Yw、Zw]と、カメラのレンズを基準としたカメラ座標系[Xc、Yc、Zc]との2系統でモデル化する。
カメラで撮影した物体は、下記の[数1]−(1)式で示すカメラ外部パラメータ変換により、線形変換(回転と並行)にてカメラ座標系に変換される。
画像を投影平面で扱うので、上記の[数1]−(2)式により、カメラ座標系Zc=1となる位置に、投影面となるイメージプレーンを定義する。
撮影された物体は、図4に示すように、物体・レンズ焦点を結ぶ直線と、イメージプレーンの交点[Xcm、Ycm、1]との位置に、画像として投影される。
また、上記の[数2]−(3)式で示すカメラ内部パラメータにより、イメージプレーン上の投影点は、モニタ等の表示デバイス座標[Um、Vm]の黒丸印の位置に変換され、画像として表示される。
しかしながら、より広い視野を1枚の画像の中に収めるべく収差の大きな広角レンズを有するカメラの場合に、イメージプレーン上の[Xcm、Ycm、1]点が、少し内側に歪曲された[Xcd、Ycd、1]点に投影されるものと考えられる。この歪曲が画像歪みとなり、下記の[数2]−(4)式に従い、モニタ上での物体の表示位置は、[Ud、Vd]の黒逆三角印となる。この結果、広角レンズを有するカメラから通常取得される表示画像は、歪みを含んだ映像となる。
撮影された物体は、図4に示すように、物体・レンズ焦点を結ぶ直線と、イメージプレーンの交点[Xcm、Ycm、1]との位置に、画像として投影される。
また、上記の[数2]−(3)式で示すカメラ内部パラメータにより、イメージプレーン上の投影点は、モニタ等の表示デバイス座標[Um、Vm]の黒丸印の位置に変換され、画像として表示される。
しかしながら、より広い視野を1枚の画像の中に収めるべく収差の大きな広角レンズを有するカメラの場合に、イメージプレーン上の[Xcm、Ycm、1]点が、少し内側に歪曲された[Xcd、Ycd、1]点に投影されるものと考えられる。この歪曲が画像歪みとなり、下記の[数2]−(4)式に従い、モニタ上での物体の表示位置は、[Ud、Vd]の黒逆三角印となる。この結果、広角レンズを有するカメラから通常取得される表示画像は、歪みを含んだ映像となる。
また、上述した特許文献2等の手法により、カメラの歪み係数を導入したピンホールカメラモデルに基づく近似手法等を導入すれば、下記の[数3]−(5)〜(7)式の操作で歪みを持つ画像から歪み補正画像を作成することができる。
この場合についても、次式で表すことができる。
Xcd2 +Ycd2 =Rcd2
Xcm2 +Ycm2 =Rcm2
そして、上記の[数3]〜[数6]の操作を転用し、
Rcd2 ={1+e1 ・[atan(Rcm)+e2 [atan(Rcm)]2 +e3 [atan(Rcm)]3 }2 Rcm2
として、Rcdを入力値、Rcmを求める半径として計算すればよい。
その他の歪近似式(シグモイド関数等を利用する歪近似式)についても、歪みはRcmの大きさに比例するので、同様に、X2 +Y2 =R2 で操作すれば、対応できると考えられる。
Xcd2 +Ycd2 =Rcd2
Xcm2 +Ycm2 =Rcm2
そして、上記の[数3]〜[数6]の操作を転用し、
Rcd2 ={1+e1 ・[atan(Rcm)+e2 [atan(Rcm)]2 +e3 [atan(Rcm)]3 }2 Rcm2
として、Rcdを入力値、Rcmを求める半径として計算すればよい。
その他の歪近似式(シグモイド関数等を利用する歪近似式)についても、歪みはRcmの大きさに比例するので、同様に、X2 +Y2 =R2 で操作すれば、対応できると考えられる。
上述した[Xd、Yd]と[Xc、Yc]との関係で示すように、歪みのある画像では、本来の投影位置より内側にずれて投影されている。よって、歪み補正画像(図5(B)参照)は、歪み画像(図5(A)参照)よりも画像サイズが大きくなる。以後、歪み画像のサイズを[幅w、高さh]、歪み補正画像のサイズを[幅W、高さH](比率 W/w=H/h=N)として示す。
上述した特許文献1では、画像を歪み補正することなく、バックアイカメラ(広角カメラ・単眼視)により、後続車両と自車両との相対位置の関係を求めるために、歪み補正画像と同じ大きさ[w*h]で用意した記憶手段(メモリ)に対応する世界座標[Xw、Yw、Zw]を記録した計測マップを導入する手法を取り上げた。但し、二次元で示される画像から三次元の情報を復元することは、原理上難しい。よって、高さ方向Ywを定数として扱いある任意の規定高さ(Yw=Yconst)平面上に存在する物体のXw、Zw位置を計測する。
イメージプレーンと画像平面の対応は、カメラ内部パラメータで示される線形変換であるため、[Xcm、Ycm、1]と[Um、Vm]との順変換・逆変換及び[Xcd、Ycd、1]と[Ud、Vd]との順変換・逆変換は、上記の[数2]の操作に従い容易に行なうことができる。
また、イメージプレーン上で、歪みのない像[Xcm、Ycm、1]から歪みを持つ像[Xd、Xd、1]への変換は、上記の[数3]−(5)〜(7)式の操作で容易に実行することができる。
さらに、Yw=Yconstとする条件下では、上記の[数2]により、[Xcm、Ycm、1]から世界座標系[Xw、Yconst、Zw]の位置を求めることが可能である。
歪み画像[Ud、Vd]に対応する世界座標系[Xw、Yconst、Zw]位置を求めるためには、[Ud、Vd]と[Xcd、Ycd、1]と[Xcm、Ycm、1]と[[Xw、Yconst、Zw]との順序で、近似モデル式の逆を追って変換しなければならない。
従来では、計測マップXw、Zwの作成は、図6〜図10の手順によって行われている。
即ち、従来、手順1として、図6に示す歪み画像上の点[Ud、Vd]をイメージプレーン上の[Xd、Yd、1]座標系に変換する。手順2として、上記の[数2]の逆変換をすることで、図7に示すように、イメージプレーン上の[Xc、Yc、1]座標系に変換する。手順3として、下記の[数5]〜[数7]の高次方程式の計算をすることで、図8に示すように、イメージプレーン上の[Xc、Yc、1]座標系から世界座標系[Xw、Yconst、Zw]に変換する。手順4として、上記の[数1]の逆変換をすることで、図9に示すように、歪み画像と同じサイズ[w*h]のバッファを用意し、計算元の[Ud、Vd]と同じ位置へ世界座標系[Xw、Zw]を求める。手順4として、図10に示すように、この求めた世界座標系[Xw、Zw]を登録したXw計測マップ、Zw計測マップを作成する。
イメージプレーンと画像平面の対応は、カメラ内部パラメータで示される線形変換であるため、[Xcm、Ycm、1]と[Um、Vm]との順変換・逆変換及び[Xcd、Ycd、1]と[Ud、Vd]との順変換・逆変換は、上記の[数2]の操作に従い容易に行なうことができる。
また、イメージプレーン上で、歪みのない像[Xcm、Ycm、1]から歪みを持つ像[Xd、Xd、1]への変換は、上記の[数3]−(5)〜(7)式の操作で容易に実行することができる。
さらに、Yw=Yconstとする条件下では、上記の[数2]により、[Xcm、Ycm、1]から世界座標系[Xw、Yconst、Zw]の位置を求めることが可能である。
歪み画像[Ud、Vd]に対応する世界座標系[Xw、Yconst、Zw]位置を求めるためには、[Ud、Vd]と[Xcd、Ycd、1]と[Xcm、Ycm、1]と[[Xw、Yconst、Zw]との順序で、近似モデル式の逆を追って変換しなければならない。
従来では、計測マップXw、Zwの作成は、図6〜図10の手順によって行われている。
即ち、従来、手順1として、図6に示す歪み画像上の点[Ud、Vd]をイメージプレーン上の[Xd、Yd、1]座標系に変換する。手順2として、上記の[数2]の逆変換をすることで、図7に示すように、イメージプレーン上の[Xc、Yc、1]座標系に変換する。手順3として、下記の[数5]〜[数7]の高次方程式の計算をすることで、図8に示すように、イメージプレーン上の[Xc、Yc、1]座標系から世界座標系[Xw、Yconst、Zw]に変換する。手順4として、上記の[数1]の逆変換をすることで、図9に示すように、歪み画像と同じサイズ[w*h]のバッファを用意し、計算元の[Ud、Vd]と同じ位置へ世界座標系[Xw、Zw]を求める。手順4として、図10に示すように、この求めた世界座標系[Xw、Zw]を登録したXw計測マップ、Zw計測マップを作成する。
しかしながら、その逆の[Xd、Yd、1]から[Xcm、Ycm、1]の変換については、上記の[数5]〜[数7]で示すように、イメージプレーン上、Tsai近似モデル域(Rcm2 ≦Rck2 あるいはRcd2 ≦Rc12 )では五次元以上の高次方程式を、対数近似モデル域では非線型方程式を、反復法等の繰り返し処理を用いて強制的に解く必要がある。ここで、Rckは、Tsai近似モデルと対数近似モデルとを切り替える境界条件であり、実験的に求められる。
計算精度を確保するためには、繰り返しの反復回数を増やす必要があるため、リアルタイムに解を得る操作は原理的に不可能に等しい。
よって、上述した特許文献1では、事前に[Xd、Yd、1]から[Xcm、Ycm、1]の変換を行い、歪み画像上の全ての画素位置で対応する[Xw、Yconst、Zw]をラゲール法等の処理にて高次方程式を解き、これら座標を記録する2枚の計測マップ[Xw、Zw]の作成を行なう手法を提案していた。但し、イメージプレーン上で対数近似域(Rcm2 >Rck2 あるいはRcd2 >Rcl2 )では、上記の[数7]の操作により非線形方程式をTsai近似モデル域と同じ次元で、線形の高次方程式に変換して計測マップ座標値を算出した。
規定高さ(Yconst)平面は、図4に示すように、地面と平行な平面で定義したので、規定高さ(Yconst)平面上の[Xw、Yw]座標は、計算することができない。よって、計測マップについては、レンズ焦点高さよりも上方の位置に関する[Xw、Yw]座標値を持つことはできない。なぜならば、レンズ焦点高さよりも上方に存在する物体とレンズ焦点を結ぶカメラ視線(直線)は、カメラよりも後方位置で規定高さ(Yconst)と交わるため投影面裏位置(虚空間)となり撮影できないからである。
計算精度を確保するためには、繰り返しの反復回数を増やす必要があるため、リアルタイムに解を得る操作は原理的に不可能に等しい。
よって、上述した特許文献1では、事前に[Xd、Yd、1]から[Xcm、Ycm、1]の変換を行い、歪み画像上の全ての画素位置で対応する[Xw、Yconst、Zw]をラゲール法等の処理にて高次方程式を解き、これら座標を記録する2枚の計測マップ[Xw、Zw]の作成を行なう手法を提案していた。但し、イメージプレーン上で対数近似域(Rcm2 >Rck2 あるいはRcd2 >Rcl2 )では、上記の[数7]の操作により非線形方程式をTsai近似モデル域と同じ次元で、線形の高次方程式に変換して計測マップ座標値を算出した。
規定高さ(Yconst)平面は、図4に示すように、地面と平行な平面で定義したので、規定高さ(Yconst)平面上の[Xw、Yw]座標は、計算することができない。よって、計測マップについては、レンズ焦点高さよりも上方の位置に関する[Xw、Yw]座標値を持つことはできない。なぜならば、レンズ焦点高さよりも上方に存在する物体とレンズ焦点を結ぶカメラ視線(直線)は、カメラよりも後方位置で規定高さ(Yconst)と交わるため投影面裏位置(虚空間)となり撮影できないからである。
次いで、相対位置計測を使用しない接近交差時間(TTCR)による接近判定法とイメージプレーンマップXcm、Ycmの導入について説明する。
上述の特許文献1では、従来、後方よりの接近車両を示すオプティカルフローの始点・終点と対応する計測マップの[Xw、Zw]登録値より自車両との相対位置を計測し、図11、図12に示すように、マッチング比較対象の2枚の撮影時間の差を利用し相対速度を求め、そして、接近交差時間(TTCR)を算出し、自車両への接近状態を判定している。
この実施例1に係る手法では、自車両と接近車両との相対位置の計測が行なえない計測マップ無効範囲上に発生するオプティカルフローを利用して、接近交差時間(TTCR)を算出することを目的とする。しかしながら、二次元の画像から三次元の全情報を算出することが不可能であるため、何らかの拘束条件が必須事項となる。
そこで、この実施例1では、物体が同じ高さのまま、ΔX、ΔY方向へ等速移動するという拘束条件を定義する。
なお、図12において、全てのフローは、移動前後で高さの変動が発生しないと仮定し、また、以下のように、Xw・Zw方向に等速度移動を行うと仮定する。つまり、
[Xw1 −Xw0 、Yw1 −Yw0 、Zw1 −Zw0 ]=[ΔXw*Δt、0、ΔZw*Δt]
となる。
上述の特許文献1では、従来、後方よりの接近車両を示すオプティカルフローの始点・終点と対応する計測マップの[Xw、Zw]登録値より自車両との相対位置を計測し、図11、図12に示すように、マッチング比較対象の2枚の撮影時間の差を利用し相対速度を求め、そして、接近交差時間(TTCR)を算出し、自車両への接近状態を判定している。
この実施例1に係る手法では、自車両と接近車両との相対位置の計測が行なえない計測マップ無効範囲上に発生するオプティカルフローを利用して、接近交差時間(TTCR)を算出することを目的とする。しかしながら、二次元の画像から三次元の全情報を算出することが不可能であるため、何らかの拘束条件が必須事項となる。
そこで、この実施例1では、物体が同じ高さのまま、ΔX、ΔY方向へ等速移動するという拘束条件を定義する。
なお、図12において、全てのフローは、移動前後で高さの変動が発生しないと仮定し、また、以下のように、Xw・Zw方向に等速度移動を行うと仮定する。つまり、
[Xw1 −Xw0 、Yw1 −Yw0 、Zw1 −Zw0 ]=[ΔXw*Δt、0、ΔZw*Δt]
となる。
次に、イメージプレーンマップXcm、Ycmの作成について説明する。
先ず、[Xw、Yw、Zw]と[Xc、Yc、Zc]との対応について着目する。
オプティカルフローの始点位置[Ud0、Vd0]に対応する物体の世界座標系位置を[Xw0、Yw0、Zw0]、カメラ座標系位置を[Xc0、Yc0、Zc0]、オプティカルフローの終点位置[Ud1、Vd1]に対応する物体の世界座標系位置を[Xw1、Yw1、Zw1]、カメラ座標系位置を[Xc1、Yc1、Zc1]で、それぞれ定義する。
また、同様に、オプティカルフローの始点位置[Ud0、Vd0]に対応する歪みを除去したイメージプレーン座標位置を[Xcm0、Ycm0、1]、オプティカルフローの終点位置[Ud1、Vd1]に対応する歪みを除去したイメージプレーン座標を[Xcm1、Ycm1、1]で、それぞれ定義する。
但し、歪み画像上の座標[Ud、Vd]とイメージプレーン上の座標[Xcm、Ycm、1]との順変換・逆変換の操作には、高次方程式の求解作業(反復操作)が必須である。上述した特許文献1と同様に、計算精度を維持したまま反復操作を回避し、変換操作を円滑に行なう操作が必要と考えられる。
そこで、新たに歪み画像と同じ[w*h]サイズの2枚の記録バッファを導入し、画素単位で歪み画像とイメージプレーンの対応を取れるように図る。用意した2枚の記録バッファを、それぞれXcm、Ycmイメージプレーンマップと呼称する。
即ち、実施例1では、手順1として、図13に示す歪み画像上の点[Ud、Vd]をイメージプレーン上の[Xd、Yd、1]座標系に変換する。手順2として、上記の[数2]の逆変換をすることで、図14に示すように、イメージプレーン上の[Xc、Yc、1]座標系に変換する。手順3として、上記の[数5]〜[数7]の高次方程式の計算をすることで、図15に示すように、歪み画像と同じサイズ[w*h]のバッファを用意し、計算元の[Ud、Vd]と同じ位置へイメージプレーン座標系[Xcm、Ycm]を求める。手順4として、図16に示すように、この求めたイメージプレーン座標系[Xcm、Ycm]を登録したXcm計測マップ、Ycm計測マップを作成する。
先ず、[Xw、Yw、Zw]と[Xc、Yc、Zc]との対応について着目する。
オプティカルフローの始点位置[Ud0、Vd0]に対応する物体の世界座標系位置を[Xw0、Yw0、Zw0]、カメラ座標系位置を[Xc0、Yc0、Zc0]、オプティカルフローの終点位置[Ud1、Vd1]に対応する物体の世界座標系位置を[Xw1、Yw1、Zw1]、カメラ座標系位置を[Xc1、Yc1、Zc1]で、それぞれ定義する。
また、同様に、オプティカルフローの始点位置[Ud0、Vd0]に対応する歪みを除去したイメージプレーン座標位置を[Xcm0、Ycm0、1]、オプティカルフローの終点位置[Ud1、Vd1]に対応する歪みを除去したイメージプレーン座標を[Xcm1、Ycm1、1]で、それぞれ定義する。
但し、歪み画像上の座標[Ud、Vd]とイメージプレーン上の座標[Xcm、Ycm、1]との順変換・逆変換の操作には、高次方程式の求解作業(反復操作)が必須である。上述した特許文献1と同様に、計算精度を維持したまま反復操作を回避し、変換操作を円滑に行なう操作が必要と考えられる。
そこで、新たに歪み画像と同じ[w*h]サイズの2枚の記録バッファを導入し、画素単位で歪み画像とイメージプレーンの対応を取れるように図る。用意した2枚の記録バッファを、それぞれXcm、Ycmイメージプレーンマップと呼称する。
即ち、実施例1では、手順1として、図13に示す歪み画像上の点[Ud、Vd]をイメージプレーン上の[Xd、Yd、1]座標系に変換する。手順2として、上記の[数2]の逆変換をすることで、図14に示すように、イメージプレーン上の[Xc、Yc、1]座標系に変換する。手順3として、上記の[数5]〜[数7]の高次方程式の計算をすることで、図15に示すように、歪み画像と同じサイズ[w*h]のバッファを用意し、計算元の[Ud、Vd]と同じ位置へイメージプレーン座標系[Xcm、Ycm]を求める。手順4として、図16に示すように、この求めたイメージプレーン座標系[Xcm、Ycm]を登録したXcm計測マップ、Ycm計測マップを作成する。
以下に、この実施例1に係るXcm計測マップ、Ycm計測マップを利用したTTCR計算に関する操作を示す。こ操作の手順1〜8を、以下の[数8]〜[数13]に沿って説明する。
即ち、手順1として、上記の[数1]の操作により、これらの関係を下記の[数8]のように表すことができる。
即ち、手順1として、上記の[数1]の操作により、これらの関係を下記の[数8]のように表すことができる。
この[数8]−(12a)式の行列は、[数2]−(4)式のXcd、Ycdを置換したものである。この式中の1+f(Rcm2 )は、[数3]等に示す半径Rcm2 に基づく歪近似式で、反復法を利用して解を計算することができる。手順2以降は、予め作成したXcm計測マップ、Ycm計測マップにオプティカルフローの始点・終点をあてはめて、TTCRを求める操作である。
手順2として、オプティカルフローは、Δt秒差で撮影した画像における物体の移動を表す。物体の移動が、等速直線移動であるという拘束条件を踏まえると、下記の[数9]のように表すことができる。この[数9]は、[数8]−(12)式のフロー終点[Xc1、Yc1、Zc1]がフロー始点[Xc0、Yc0、Zc0]から移動した状態を示す。
手順3として、カメラ座標[Xc1、Yc1、Zc1]及び[Xc0、Yc0、Zc0]を、イメージプレーンに投影すると、下記の[数10]のように表すことができる。
手順4として、カメラ座標係での移動量[ΔXc、ΔYc、ΔZc]を、イメージプレーン座標系に戻すと、下記の[数11]のように表すことができる。
上記の[数11]−(19c)式から、以下のことが伺える。
2*2行列による二次元ベクトルの変換式の形態である。また、[ΔXw、ΔZw]は、等速移動であるので、定数と考えられる。更に、Δtは、マッチング比較を行う2枚の画像の撮影時間差であるので定数と考えられる。更にまた、ΔXcm、ΔYcmは、歪み画像上のオプティカルフローをイメージプレーン上に変換したものである。
よって、Xcm、Ycmは、イメージプレーンマップ、あるいは、上記の[数5]〜[数7]の高次方程式の操作により求められる。
これにより、2*2逆行列を使用することで、[ΔXw/ΔZc1、ΔZw/ΔZc1]を求めることができる。
2*2行列による二次元ベクトルの変換式の形態である。また、[ΔXw、ΔZw]は、等速移動であるので、定数と考えられる。更に、Δtは、マッチング比較を行う2枚の画像の撮影時間差であるので定数と考えられる。更にまた、ΔXcm、ΔYcmは、歪み画像上のオプティカルフローをイメージプレーン上に変換したものである。
よって、Xcm、Ycmは、イメージプレーンマップ、あるいは、上記の[数5]〜[数7]の高次方程式の操作により求められる。
これにより、2*2逆行列を使用することで、[ΔXw/ΔZc1、ΔZw/ΔZc1]を求めることができる。
手順5として、この求めた[ΔXw/ΔZc1、ΔZw/ΔZc1]を、再びカメラ座標系に変換すると、下記の[数12]のように表すことができる。
この場合、上記の[数12]−(20)式での左辺のΔZc/Zc1に着目する。
拘束条件である等速直線運動によれば、ΔZcは一定値である。正確にZc1とΔZc(位置・速度の具体値)を求めることは、原理上できないが、接近交差時間(TTCR)については、ΔZc/Zc1の逆数であるZc1/ΔZc(距離/速度の比率)として求めることができる。
但し、Zc1/ΔZcは、カメラ座標系上でのベクトルによる評価を示すため、向き・符号を検討しなければならない。
ΔZcは、接近を示す変位量である。また、ピンホールカメラモデルの前提条件によりZc1は必ず正の符号を持つ。故に、Zc1とΔZcとでは、ベクトル方向が異なる。よって、TTTCRは、下記の[数13]のように表すことができる。
拘束条件である等速直線運動によれば、ΔZcは一定値である。正確にZc1とΔZc(位置・速度の具体値)を求めることは、原理上できないが、接近交差時間(TTCR)については、ΔZc/Zc1の逆数であるZc1/ΔZc(距離/速度の比率)として求めることができる。
但し、Zc1/ΔZcは、カメラ座標系上でのベクトルによる評価を示すため、向き・符号を検討しなければならない。
ΔZcは、接近を示す変位量である。また、ピンホールカメラモデルの前提条件によりZc1は必ず正の符号を持つ。故に、Zc1とΔZcとでは、ベクトル方向が異なる。よって、TTTCRは、下記の[数13]のように表すことができる。
ここで、TTTCRが零(0)になれば、接近車両と自車両との車間距離がなくなるとすると、判別できる。
よって、実施例1では、オプティカルフローから相対距離Xw、Zw及びXw、Zwの各速度については計測できないが、TTTCRの大きさを元に接近車両の接近の度合いを判別し、運転者ヘ後続車両の接近に関する情報を判定し、必要に応じて運転者にアナウンス等の警告をすることが可能である。実際に装置に適用する場合には、入力画像から直接オプティカルフローを求め、フローの始点[Ud0、Vd0]、フローの終点[Ud1、Vd1]に対応するXcm、Ycmの値を用意したマップから読み取り、[数14]に適用してTTCRを求める。
また、歪み画像に対応したマップに関しては、多重階層化の必要がなく、Xcm、Ycmを記録した2枚のイメージプレーンマップのみで対応可能である。
加えて、計算精度・感度の差異はあるが、対応するイメージプレーン座標で、画像中心[Xcm、Ycm]=[0、0]以外となる全ての歪み画像上[Ud、Vd]位置でTTTCRの計算を行なうことができるため、略全画像域をTTTCRの計算とすることができる。
ここで、上記の[Xcm、Ycm]=[0、0]の場合は、[Ud1、Vd1]=[Ud0、Vd0]となる。つまり、全てのオプティカルフロー自体が点となり、移動体の検出ができない。
よって、実施例1では、オプティカルフローから相対距離Xw、Zw及びXw、Zwの各速度については計測できないが、TTTCRの大きさを元に接近車両の接近の度合いを判別し、運転者ヘ後続車両の接近に関する情報を判定し、必要に応じて運転者にアナウンス等の警告をすることが可能である。実際に装置に適用する場合には、入力画像から直接オプティカルフローを求め、フローの始点[Ud0、Vd0]、フローの終点[Ud1、Vd1]に対応するXcm、Ycmの値を用意したマップから読み取り、[数14]に適用してTTCRを求める。
また、歪み画像に対応したマップに関しては、多重階層化の必要がなく、Xcm、Ycmを記録した2枚のイメージプレーンマップのみで対応可能である。
加えて、計算精度・感度の差異はあるが、対応するイメージプレーン座標で、画像中心[Xcm、Ycm]=[0、0]以外となる全ての歪み画像上[Ud、Vd]位置でTTTCRの計算を行なうことができるため、略全画像域をTTTCRの計算とすることができる。
ここで、上記の[Xcm、Ycm]=[0、0]の場合は、[Ud1、Vd1]=[Ud0、Vd0]となる。つまり、全てのオプティカルフロー自体が点となり、移動体の検出ができない。
以下に、引用式を、図解して説明する。
カメラ座標系Yc=0投影面の現象であって、拘束条件に沿って、移動接近車両とする接近車両の配置を、図17に示す。
そして、ある任意のオプティカルフローに着目すると、図18に示すように、符号Aの長さは、A=ΔXc+Bで表され、また、イメージプレーン上に変換されたオプティカルフローがXcm1−Xcm0=ΔXcmで示され、更に、三角形の相似関係より、A:ΔXcm=Zc1:1であり、また、三角形の相似関係より、B:Xcm0=ΔZc:1である。
これらを踏まえると、A=ΔXcの関係は、Zc1*ΔXcm=ΔXc+ΔZc*Xcm0となる。ここでも、ベクトルの方向性を考慮に入れれば、Zc1*ΔXcm=ΔXc−ΔZc*Xcm0となる。
そして、カメラ座標系Xc=0投影平面にて現象を検討すれば、Zc1*ΔYcm=ΔYc−ΔZc*Ycm0となり、これは、上記の手順4の[数11]の先頭の形式に帰着できることが明らかである。
カメラ座標系Yc=0投影面の現象であって、拘束条件に沿って、移動接近車両とする接近車両の配置を、図17に示す。
そして、ある任意のオプティカルフローに着目すると、図18に示すように、符号Aの長さは、A=ΔXc+Bで表され、また、イメージプレーン上に変換されたオプティカルフローがXcm1−Xcm0=ΔXcmで示され、更に、三角形の相似関係より、A:ΔXcm=Zc1:1であり、また、三角形の相似関係より、B:Xcm0=ΔZc:1である。
これらを踏まえると、A=ΔXcの関係は、Zc1*ΔXcm=ΔXc+ΔZc*Xcm0となる。ここでも、ベクトルの方向性を考慮に入れれば、Zc1*ΔXcm=ΔXc−ΔZc*Xcm0となる。
そして、カメラ座標系Xc=0投影平面にて現象を検討すれば、Zc1*ΔYcm=ΔYc−ΔZc*Ycm0となり、これは、上記の手順4の[数11]の先頭の形式に帰着できることが明らかである。
手順6としては、前述までの解法に沿って、さらに近接する複数のオプティカルフローによるグループ単位で検討することで、接近交差時間(TTCR)の精度を向上できる。
上記の[数11]−(19c)式について、グループを構成する複数のオプティカルフローに関して、下記の[数14]の形式で羅列する。
上記の[数11]−(19c)式について、グループを構成する複数のオプティカルフローに関して、下記の[数14]の形式で羅列する。
この場合、[X(cm0)A、Y(cm0)A]はA番目のオプティカルフローの始点[Ud0、Vd0]を、同様に、[X(cm1)A、Y(cm1)A]はA番目のオプティカルフローの終点[Ud1、Vd1]を、Xcm、Ycmイメージプレーンマップにより、イメージプレーン上に変換した座標を指す。
上記の[数14]について解を求める場合、例えば、以下の手順で行なう。
行列とベクトルによるベクトル方程式の形に、下記の[数15]のように置き換える。
上記の[数14]について解を求める場合、例えば、以下の手順で行なう。
行列とベクトルによるベクトル方程式の形に、下記の[数15]のように置き換える。
また、このイメージプレーンマップの代理手法(歪み補正・逆参照マップ)について説明する。
イメージプレーンマップXc、Ycは、基本的に少数以下のデータを扱うため、実装対象となる装置によっては、浮動少数のデータサイズや表現の都合上、導入が困難な場合が考えられる。
よって、イメージプレーンマップXc、Ycの代わりに、入力画像(歪み画像)w*hに対応した歪み補正画像の座標位置(上記の[数15]の「※」で示す)を登録したUm、Vmマップを使用しても構わない。
この場合、上記の[数15]は、下記の[数16]−(24c)式に変形される。
イメージプレーンマップXc、Ycは、基本的に少数以下のデータを扱うため、実装対象となる装置によっては、浮動少数のデータサイズや表現の都合上、導入が困難な場合が考えられる。
よって、イメージプレーンマップXc、Ycの代わりに、入力画像(歪み画像)w*hに対応した歪み補正画像の座標位置(上記の[数15]の「※」で示す)を登録したUm、Vmマップを使用しても構わない。
この場合、上記の[数15]は、下記の[数16]−(24c)式に変形される。
上記の[数13]に関する解法、上記の[数16]−(24c)式への応用には、上記の作成した[数11]−(19c)式に基づく方程式を使用する。
ここで、Um、Vmマップは、上述した特許文献2で示される歪み補正マップとは異なるものである。
上述した特許文献2で示される歪み補正マップは、サイズ=w*h、参照の最大値w*h(入力画像の外は参照しない……画素がないから)、w*hサイズの画像で表示できる歪み補正を作成するとまの座標を登録、[Cx、Cy]は表示中心なので、n倍で倍率調整した画像(n*W)*(n*H)に合わせた[Cxm、Cym]を使用することを特徴としている。
これに対し、Um、Vmマップで示される歪み補正マップは、サイズ=w*h、参照の最大値W*H(入力画像の外を参照する・・・・座標系変換に画像サイズは関係ない)、w*hサイズの入力画像が収差の影響を受け歪む前の座標位置を取得、マップサイズがw*hで入力画像と同じなので、キャリブレーションデータ[Cxd、Cyd]を使用することを特徴としている。
この発明のマップ作成法は、反復法によりRcd−Rcm間の変換への対応を解決する。すなわち、上記の特許文献1の簡易計測マップで示すように、反復法を利用しない手段では、計算精度に問題が生じるおそれが多分にある。また、上記の特許文献2に従って歪み補正した画像を用いる場合には、計算精度の他に、オプティカルフローの誤対応、検出精度の低下が課題となる。オプティカルフロー検出は、入力画像を直接使用する方が画像の変形(引き伸ばし)等の加工による影響が加わらないので、オプティカルフロー検出精度が向上する。なお、計算精度とは[Ud、Vd]に対する[Xcm、Ycm]あるいは[Xw、Yconst、Zw]対応のずれを示す。
ここで、Um、Vmマップは、上述した特許文献2で示される歪み補正マップとは異なるものである。
上述した特許文献2で示される歪み補正マップは、サイズ=w*h、参照の最大値w*h(入力画像の外は参照しない……画素がないから)、w*hサイズの画像で表示できる歪み補正を作成するとまの座標を登録、[Cx、Cy]は表示中心なので、n倍で倍率調整した画像(n*W)*(n*H)に合わせた[Cxm、Cym]を使用することを特徴としている。
これに対し、Um、Vmマップで示される歪み補正マップは、サイズ=w*h、参照の最大値W*H(入力画像の外を参照する・・・・座標系変換に画像サイズは関係ない)、w*hサイズの入力画像が収差の影響を受け歪む前の座標位置を取得、マップサイズがw*hで入力画像と同じなので、キャリブレーションデータ[Cxd、Cyd]を使用することを特徴としている。
この発明のマップ作成法は、反復法によりRcd−Rcm間の変換への対応を解決する。すなわち、上記の特許文献1の簡易計測マップで示すように、反復法を利用しない手段では、計算精度に問題が生じるおそれが多分にある。また、上記の特許文献2に従って歪み補正した画像を用いる場合には、計算精度の他に、オプティカルフローの誤対応、検出精度の低下が課題となる。オプティカルフロー検出は、入力画像を直接使用する方が画像の変形(引き伸ばし)等の加工による影響が加わらないので、オプティカルフロー検出精度が向上する。なお、計算精度とは[Ud、Vd]に対する[Xcm、Ycm]あるいは[Xw、Yconst、Zw]対応のずれを示す。
次いで、シュミレーション検証について説明する。
前述した操作により、接近交差時間(TTCR)を回帰的に求めた場合について、実値とのシミュレーションにて検証を行なう。
参考とする接近交差時間(TTCRc)の計算には、図19、図20に示すように、実空間上に16頂点の仮想球体を設定し、一定速度で自車両の方向まで移動するシミュレーションモデルを適用する。
また、上記の[数1]の投影操作により、カメラ座標系Zcに変換される。
レンズ焦点までの距離・時間は、カメラ座標系Zcにおける接近交差時間(TTCR)として計算し、仮想球体16点での接近交差時間(TTCR)平均値を目標値としてプロットする。
さらに、半径マップの操作により、仮想球体は、16点の仮想円盤としてイメージプレーン上、あるいは、歪み画像[Ud、Vd]に変換可能である。回帰処理を行なうために必要な入力項としての隣接するオプティカルフロー始点・終点のN個については、仮想円盤の16頂点を歪み画像上へ描画した点[Ud、Vd]1−16点を使用する。
実施例1では、計測マップ[Yconst=345]とした場合が対象であるので、Xw計測マップ、Zw計測マップの有効範囲外となる高さY=1400位置を移動する球体中心軌道に持つ仮想球体を設定し、シミュレーション検証を行なった。
ここで、仮想球体及び球体投影による仮想円盤の各16点に関する記述・計算方法は、上述した特許文献2等による半径マップの計算手法を参考とする。
図21〜図23に示すように、隣斜線を移動する仮想球体モデルに関しては、シミュレーションの結果、TTCR<1.5秒程度の範囲で、略目標とする精度で接近球体に関する接近交差時間(TTCR)の検出を行なうことが可能であると分かった。
従来のXw計測マップ、Yw計測マップによる処理場合、このような高さでの対象物の接近を検出・判断するためには、規定高さ(Ycosnt)の異なる計測マップを複数の高さ分で用意しなければならなかった。また、高さで異なるYcosnt計測マップ同士の検出結果を使用する場合には、重複算出分を、例えば、平均化等の補正や優先度をつけて評価する必要があった。
そこで、この実施例1における手法を使用すれば、イメージプレーン上の対応座標を記録したXcm計測マップ、Ycm計測マップを1枚ずつ計2枚分用意するだけで良い。
なお、TTCR計測精度は、使用するカメラを高解像度化することにより、さらに精度を向上し、より遠方の障害物の接近を検出することができる。
前述した操作により、接近交差時間(TTCR)を回帰的に求めた場合について、実値とのシミュレーションにて検証を行なう。
参考とする接近交差時間(TTCRc)の計算には、図19、図20に示すように、実空間上に16頂点の仮想球体を設定し、一定速度で自車両の方向まで移動するシミュレーションモデルを適用する。
また、上記の[数1]の投影操作により、カメラ座標系Zcに変換される。
レンズ焦点までの距離・時間は、カメラ座標系Zcにおける接近交差時間(TTCR)として計算し、仮想球体16点での接近交差時間(TTCR)平均値を目標値としてプロットする。
さらに、半径マップの操作により、仮想球体は、16点の仮想円盤としてイメージプレーン上、あるいは、歪み画像[Ud、Vd]に変換可能である。回帰処理を行なうために必要な入力項としての隣接するオプティカルフロー始点・終点のN個については、仮想円盤の16頂点を歪み画像上へ描画した点[Ud、Vd]1−16点を使用する。
実施例1では、計測マップ[Yconst=345]とした場合が対象であるので、Xw計測マップ、Zw計測マップの有効範囲外となる高さY=1400位置を移動する球体中心軌道に持つ仮想球体を設定し、シミュレーション検証を行なった。
ここで、仮想球体及び球体投影による仮想円盤の各16点に関する記述・計算方法は、上述した特許文献2等による半径マップの計算手法を参考とする。
図21〜図23に示すように、隣斜線を移動する仮想球体モデルに関しては、シミュレーションの結果、TTCR<1.5秒程度の範囲で、略目標とする精度で接近球体に関する接近交差時間(TTCR)の検出を行なうことが可能であると分かった。
従来のXw計測マップ、Yw計測マップによる処理場合、このような高さでの対象物の接近を検出・判断するためには、規定高さ(Ycosnt)の異なる計測マップを複数の高さ分で用意しなければならなかった。また、高さで異なるYcosnt計測マップ同士の検出結果を使用する場合には、重複算出分を、例えば、平均化等の補正や優先度をつけて評価する必要があった。
そこで、この実施例1における手法を使用すれば、イメージプレーン上の対応座標を記録したXcm計測マップ、Ycm計測マップを1枚ずつ計2枚分用意するだけで良い。
なお、TTCR計測精度は、使用するカメラを高解像度化することにより、さらに精度を向上し、より遠方の障害物の接近を検出することができる。
即ち、この実施例1では、計測マップに代わる新たな歪み画像対応マップの作成にあたり、歪み画像上の画素位置と対応した世界座標系の3軸[Xw、Yw、Zw(Yw=Yconst任意定数)]に関する座標を記録する計測マップを作成した。
そして、この実施例1に係るマップは、同様に、歪み画像上の各画素と対応した位置に、ピンホールカメラモデルに基づくイメージプレーン上のカメラ座標[Xc、Yc、Zc(Zc=1任意定数)]をレンズ収差を考慮した形で登録する。
イメージプレーン座標を登録した新たなマップは、画像上の略全画素をカバーし、測定マップ有効範囲が従来の範囲と比べて格段に広くした。
また、イメージプレーンマップに基づく接近車両の判定手法においては、従来 計測対象外としていた接近後続車のルーフ部付近に発生するオプティカルフローを利用して、接近車両から最接近(追い越し)までの時間を推定できるため、環境変化に強く従来の計測マップに基づく判定手法(特許文献1)と組み合わせることで、死角の軽減・安定性の向上に効果を発揮できる。
そして、この実施例1に係るマップは、同様に、歪み画像上の各画素と対応した位置に、ピンホールカメラモデルに基づくイメージプレーン上のカメラ座標[Xc、Yc、Zc(Zc=1任意定数)]をレンズ収差を考慮した形で登録する。
イメージプレーン座標を登録した新たなマップは、画像上の略全画素をカバーし、測定マップ有効範囲が従来の範囲と比べて格段に広くした。
また、イメージプレーンマップに基づく接近車両の判定手法においては、従来 計測対象外としていた接近後続車のルーフ部付近に発生するオプティカルフローを利用して、接近車両から最接近(追い越し)までの時間を推定できるため、環境変化に強く従来の計測マップに基づく判定手法(特許文献1)と組み合わせることで、死角の軽減・安定性の向上に効果を発揮できる。
図24〜図30は、この発明の実施例2を示すものである。
この実施例2においては、上述の実施例1と同一機能を果たす箇所には、同一符号を付して説明する。
この実施例2の特徴とするところは、以下の点にある。即ち、図24に示すように、画像処理制御手段5は、カメラ4により撮像された画像上の画素数と同サイズで検出可能なオプティカルフローの最大長さに対応するテーブル数である多重テーブル12と、この多重テーブル12上の各画素位置に対応するエリアに物体がカメラ4に接触するまでの時間に関する情報を登録しておき、カメラ4により撮像された画像上の物体のオプティカルフローを検出するオプティカルフロー検出手段13と、このオプティカルフロー検出手段13により検出されたオプティカルフローに基づいて多重テーブル12を参照して前記物体がカメラ4に接触するまでの時間に間する情報を取得する情報取得手段14とを備える。
これにより、検出したオプティカルフローに基づいて物体がカメラ4に接触するまでの時間に間する情報を高速に取得することができる。
即ち、この実施例2では、後続車両との接近判定処理を円滑に行なえるよう、画像と対応したイメージプレーン上の座標を多重テーブル化したイメージプレーン上の対応座標を、記録したXcm、Ycmマップの導入を新たに提案する。
また、FPGA(Field Programmable Gate Array:現場でプログラム可能なLSI)等によるハードウェア化を考慮し、接近交差時間(TTCR)、FOE(消失点:Focus Of Expansion)内積評価・逆向きフロー判定の3要素を、総合判定テーブル(多重テーブル)として登録し、探索範囲に応じて検出可能なフロー[±u、±v]別で総合判定テーブルを多重階層化する接近車両検出手法を提案する。
この実施例2においては、上述の実施例1と同一機能を果たす箇所には、同一符号を付して説明する。
この実施例2の特徴とするところは、以下の点にある。即ち、図24に示すように、画像処理制御手段5は、カメラ4により撮像された画像上の画素数と同サイズで検出可能なオプティカルフローの最大長さに対応するテーブル数である多重テーブル12と、この多重テーブル12上の各画素位置に対応するエリアに物体がカメラ4に接触するまでの時間に関する情報を登録しておき、カメラ4により撮像された画像上の物体のオプティカルフローを検出するオプティカルフロー検出手段13と、このオプティカルフロー検出手段13により検出されたオプティカルフローに基づいて多重テーブル12を参照して前記物体がカメラ4に接触するまでの時間に間する情報を取得する情報取得手段14とを備える。
これにより、検出したオプティカルフローに基づいて物体がカメラ4に接触するまでの時間に間する情報を高速に取得することができる。
即ち、この実施例2では、後続車両との接近判定処理を円滑に行なえるよう、画像と対応したイメージプレーン上の座標を多重テーブル化したイメージプレーン上の対応座標を、記録したXcm、Ycmマップの導入を新たに提案する。
また、FPGA(Field Programmable Gate Array:現場でプログラム可能なLSI)等によるハードウェア化を考慮し、接近交差時間(TTCR)、FOE(消失点:Focus Of Expansion)内積評価・逆向きフロー判定の3要素を、総合判定テーブル(多重テーブル)として登録し、探索範囲に応じて検出可能なフロー[±u、±v]別で総合判定テーブルを多重階層化する接近車両検出手法を提案する。
次に、実施例2に係る多重階層式総合判定の多重テーブルについて説明する。
実施例2の多重テーブルは、オプティカルフローの始点と向きから衝突可能性の有無を直接判定するものである。よって、多重テーブルを使用する場合、[Xcm、Ycm]は不要となる。ただし、多重テーブル作成には、[Xcm、Ycm]を使用する。
プログラム可能なLSI(FPGA)等によるハードウェア化を考慮した場合、検出したオプティカルフロー及びオプティカルフローに対応するイメージプレーンマップを毎回計算するのは、構成上不利な点が多い。
ところで、ブロックマッチングベースのオプティカルフローについては、設定した探索範囲を超過するフローの検出が原理上不可能である。よって、操作により検出されるオプティカルフローの長さ上限は、システム開発時に既に明らかとなっている。
検出可能なオプティカルフローの最大長さを[±u、±v]とした場合、(2*U+1)*(2*V+1)−1枚の歪み画像と同サイズの多重テーブルを用意し、各画素位置に予め接近交差時間(TTCR)を登録しておき、検出したオプティカルフローに沿って参照することで、簡単にオプティカルフローに該当した対象の衝突可能性を把握することが可能である。
また、接近交差時間(TTCR)を準備した多重テーブルに記録する過程で、オプティカルフローの向きと消失点(FOE)との内積評価情報、及び逆向きフロー判定情報の2要素を追加した3要素を総合判定の多重テーブルとして登録することで、より誤検出に強い接近車両検出手段とすることができる。
実施例2の多重テーブルは、オプティカルフローの始点と向きから衝突可能性の有無を直接判定するものである。よって、多重テーブルを使用する場合、[Xcm、Ycm]は不要となる。ただし、多重テーブル作成には、[Xcm、Ycm]を使用する。
プログラム可能なLSI(FPGA)等によるハードウェア化を考慮した場合、検出したオプティカルフロー及びオプティカルフローに対応するイメージプレーンマップを毎回計算するのは、構成上不利な点が多い。
ところで、ブロックマッチングベースのオプティカルフローについては、設定した探索範囲を超過するフローの検出が原理上不可能である。よって、操作により検出されるオプティカルフローの長さ上限は、システム開発時に既に明らかとなっている。
検出可能なオプティカルフローの最大長さを[±u、±v]とした場合、(2*U+1)*(2*V+1)−1枚の歪み画像と同サイズの多重テーブルを用意し、各画素位置に予め接近交差時間(TTCR)を登録しておき、検出したオプティカルフローに沿って参照することで、簡単にオプティカルフローに該当した対象の衝突可能性を把握することが可能である。
また、接近交差時間(TTCR)を準備した多重テーブルに記録する過程で、オプティカルフローの向きと消失点(FOE)との内積評価情報、及び逆向きフロー判定情報の2要素を追加した3要素を総合判定の多重テーブルとして登録することで、より誤検出に強い接近車両検出手段とすることができる。
この総合判定の多重テーブルの手順は、以下のように行われる。
即ち、手順1として、上述したイメージプレーンマップを作成する。
この場合、作業工数に問題なければ、イメージプレーンマップを作成せず、毎回計算してもかまわない。
手順2として、各画素についてオプティカルフローの発生する組み合わせは、フローの等号の±分を考慮して、(2*U+1)*(2*V+1)−1通りである。よって、(2*U+1)*(2*V+1)−1枚の空データテーブルを、用意する。また、各データテーブルのサイズは、歪み画像と同じ[w*h]とする。そして、先ず、空データテーブルのうち、オプティカルフロー[U1、V1]に対応するデータテーブル[U1、V1]を作成する。
ここで、[U、V]=[0、0]の場合には、静止状態なので、オプティカルフローが発生しない。
手順3として、データテーブル[U1、V1]について1画素ずつ仮想オプティカルフローを設定する。
データテーブル[U1、V1]の座標[i、j]についてイメージプレーンマップの[i、j]座標登録値よりイメージプレーン座標[XcmA 、YcmA ]を取得する。この位置は、イメージプレーン上で表示される仮想オプティカルフローの始点となる。
同様に、テーブル[U1、V1]の座標[i+U1、j+V1]について、イメージプレーン座標[XcmB 、YcmB ]を取得する。これが、イメージプレーン上で表示される仮想オプティカルフローの終点となる。
つまり、図25に示すように、ブロックマッチング作業からオプティカルフローの検出を行い、図26に示すように、歪み画像上の[Ud、Vd]座標系[i、j]から対応する[Xcm、Ycm]系イメージプレーン位置を参照取得し、オプティカルフローの始点[Xcm[i、j]、Ycm[i、j]]=[XcmA 、YcmA ]と、オプティカルフローの終点[Xcm[i、j]、Ycm[i、j]=[XcmB 、YcmB ]とを求める。
手順4として、イメージプレーンマップ上で、FOE座標[Xcmf、Ycmf、1]は、下記の[数17]と仮定し、ベクトルA[XcmB −XcmA 、YcmB −YcmA ]と、ベクトルB[XcmB −Xcmf、YcmB −Ycmf]の内積を評価する。
即ち、手順1として、上述したイメージプレーンマップを作成する。
この場合、作業工数に問題なければ、イメージプレーンマップを作成せず、毎回計算してもかまわない。
手順2として、各画素についてオプティカルフローの発生する組み合わせは、フローの等号の±分を考慮して、(2*U+1)*(2*V+1)−1通りである。よって、(2*U+1)*(2*V+1)−1枚の空データテーブルを、用意する。また、各データテーブルのサイズは、歪み画像と同じ[w*h]とする。そして、先ず、空データテーブルのうち、オプティカルフロー[U1、V1]に対応するデータテーブル[U1、V1]を作成する。
ここで、[U、V]=[0、0]の場合には、静止状態なので、オプティカルフローが発生しない。
手順3として、データテーブル[U1、V1]について1画素ずつ仮想オプティカルフローを設定する。
データテーブル[U1、V1]の座標[i、j]についてイメージプレーンマップの[i、j]座標登録値よりイメージプレーン座標[XcmA 、YcmA ]を取得する。この位置は、イメージプレーン上で表示される仮想オプティカルフローの始点となる。
同様に、テーブル[U1、V1]の座標[i+U1、j+V1]について、イメージプレーン座標[XcmB 、YcmB ]を取得する。これが、イメージプレーン上で表示される仮想オプティカルフローの終点となる。
つまり、図25に示すように、ブロックマッチング作業からオプティカルフローの検出を行い、図26に示すように、歪み画像上の[Ud、Vd]座標系[i、j]から対応する[Xcm、Ycm]系イメージプレーン位置を参照取得し、オプティカルフローの始点[Xcm[i、j]、Ycm[i、j]]=[XcmA 、YcmA ]と、オプティカルフローの終点[Xcm[i、j]、Ycm[i、j]=[XcmB 、YcmB ]とを求める。
手順4として、イメージプレーンマップ上で、FOE座標[Xcmf、Ycmf、1]は、下記の[数17]と仮定し、ベクトルA[XcmB −XcmA 、YcmB −YcmA ]と、ベクトルB[XcmB −Xcmf、YcmB −Ycmf]の内積を評価する。
そして、この内積には、一致度閾値Thrを設定し、内債計算結果、閾値Thrについては、下記の[数18]のように評価し、データテーブル[U1、V1]の[i、j]にデータを登録する。
以上の作業を、(2*U+1)*(2*V+1)−1通りで、各全画素位置で実行し、合計で、(2*U+1)*(2*V+1)毎のデータテーブルを作成する。
なお、接近交差時間(TTCR)について2値で扱う場合(例えば、最接近まで1秒以内か、1秒以上か等)、接近交差時間(TTCR)の判定に1ビット、逆向きオプティカルフローの判定に1ビット、消失点(FOE)の判定は零(0)ということで、データテーブルは、合計2ビットデータで作成することができる。したがって、記憶装置(メモリ)の容量を削減可能なので、データテーブルの多重化に対して必要となるメモリ総容量の削減に効果がある。なお、メモリに余裕がある場合にはTTCR値をデータテーブルに登録しても構わない。
この実施例2の例では、各データテーブルについてオプティカルフローの一本で接近交差時間(TTCR)を求めたが、上記の手順3にて、オプティカルフローの始点・終点について、周辺の座標データを加えた平均(あるいは、重みを追加した荷重平均)にて接近交差時間(TTCR)を計算し、データテーブル[i、j]位置に登録してもかまわない。
なお、接近交差時間(TTCR)について2値で扱う場合(例えば、最接近まで1秒以内か、1秒以上か等)、接近交差時間(TTCR)の判定に1ビット、逆向きオプティカルフローの判定に1ビット、消失点(FOE)の判定は零(0)ということで、データテーブルは、合計2ビットデータで作成することができる。したがって、記憶装置(メモリ)の容量を削減可能なので、データテーブルの多重化に対して必要となるメモリ総容量の削減に効果がある。なお、メモリに余裕がある場合にはTTCR値をデータテーブルに登録しても構わない。
この実施例2の例では、各データテーブルについてオプティカルフローの一本で接近交差時間(TTCR)を求めたが、上記の手順3にて、オプティカルフローの始点・終点について、周辺の座標データを加えた平均(あるいは、重みを追加した荷重平均)にて接近交差時間(TTCR)を計算し、データテーブル[i、j]位置に登録してもかまわない。
次いで、接近車両検出の手順について説明する。
手順1としては、図27に示すように、ブロックマッチング作業により、オプティカルフローを検出し、そして、図28に示すように、歪み画像上の[Ud、Vd]座標系[i、j]から対応する[Xcm、Ycm]系イメージプレーン位置を参照取得し、オプティカルフローの始点[Xcm[i、j]、Ycm[i、j]]=[XcmA 、YcmA ]と、オプティカルフローの終点[Xcm[i、j]、Ycm[i、j]=[XcmB 、YcmB ]とを求める。
手順2としては、検出したオプティカルフローの始点[i、j]と、オプティカルフローフロー長さ[u、v]を求める。この場合、データテーブルのうち、オプティカルフロー長さ[u、v]について求めた図29のテーブル内の[i,j]登録値を取り出す。
例えば、図27及び図28の符号Aにおけるオプティカルフローの長さが、例えば、[u、v]=[3、3]であれば、データテーブル[3、3]の[i,j]登録値を取り出す。
図29においては、FOE内積不一致の部分では、最接近時間が長く、それ以外の部分では、最接近時間が短い。
手順3としては、データテーブル[u、v]の[i、j]登録値がTTCR接近閾値以下(例えば1.0秒)であれば、1.0秒以内に後続車両が接近するおそれがあるので、運転者ヘ警告を促す。
手順1としては、図27に示すように、ブロックマッチング作業により、オプティカルフローを検出し、そして、図28に示すように、歪み画像上の[Ud、Vd]座標系[i、j]から対応する[Xcm、Ycm]系イメージプレーン位置を参照取得し、オプティカルフローの始点[Xcm[i、j]、Ycm[i、j]]=[XcmA 、YcmA ]と、オプティカルフローの終点[Xcm[i、j]、Ycm[i、j]=[XcmB 、YcmB ]とを求める。
手順2としては、検出したオプティカルフローの始点[i、j]と、オプティカルフローフロー長さ[u、v]を求める。この場合、データテーブルのうち、オプティカルフロー長さ[u、v]について求めた図29のテーブル内の[i,j]登録値を取り出す。
例えば、図27及び図28の符号Aにおけるオプティカルフローの長さが、例えば、[u、v]=[3、3]であれば、データテーブル[3、3]の[i,j]登録値を取り出す。
図29においては、FOE内積不一致の部分では、最接近時間が長く、それ以外の部分では、最接近時間が短い。
手順3としては、データテーブル[u、v]の[i、j]登録値がTTCR接近閾値以下(例えば1.0秒)であれば、1.0秒以内に後続車両が接近するおそれがあるので、運転者ヘ警告を促す。
また、上記の接近車両検出の手順1〜手順3に関して、誤検出が発生する場合は、手順3の繰り返し連続検出回数を評価すれば良い。繰り返し連続検出回数の評価時に、データテーブル[u、v]の[i、j]登録値が繰り返しパターン(=逆向きフロー)を示す場合は、カウントを零(0)にリセットする等の対応処理を施すことが可能である。なお、上記の繰り返しパターンについては、上述した特許文献2と同様に行われる。
手順4としては、図30に示す歪み画像と同じサイズの連続検出テーブルを用意する。
手順5としては、手順3で接近交差時間(TTCR)が閾値以下と判定された場合、連続検出テーブルのオプティカルフローの始点データを終点位置ヘコピーし、さらにカウントを1つ増加する(トラッキング作業)。
手順6としては、次の画像を取得し、新たにオプティカルフローを探索する。
手順7としては、手順3で繰り返しパターンが検出された場合は、連続検出テーブルの該当位置の履歴をクリアする。
手順8としては、連続検出テーブルの検出回数が規定値を満たした場合、接近車両検出と判定する。
また、ノイズヘの対応として各評価は、隣接するオプティカルフローの各接近判定をグループとして取り扱い判定してもかまわない。
手順5としては、手順3で接近交差時間(TTCR)が閾値以下と判定された場合、連続検出テーブルのオプティカルフローの始点データを終点位置ヘコピーし、さらにカウントを1つ増加する(トラッキング作業)。
手順6としては、次の画像を取得し、新たにオプティカルフローを探索する。
手順7としては、手順3で繰り返しパターンが検出された場合は、連続検出テーブルの該当位置の履歴をクリアする。
手順8としては、連続検出テーブルの検出回数が規定値を満たした場合、接近車両検出と判定する。
また、ノイズヘの対応として各評価は、隣接するオプティカルフローの各接近判定をグループとして取り扱い判定してもかまわない。
即ち、この実施例2においては、FPGAのハードウェア化を考慮に入れた総合判定テーブルの導入であって、検出される全ての組み合わせのフローに対応したデータテーブルを用意し、TTCR計算値、FOE内積評価、繰り返しパターン判定を記録する。オプティカルフローの評価及び接近車両の有無の判定は、検出したフローに対応した総合判定の多重テーブル上のオプティカルフローの始点の座標位置の登録データを参照して行なう。
この発明の運転支援装置は、車両周辺の移動障害物の接近判定等で自動的に支援する技術にも適用できる。
1 車両
2 運転支援装置
3 広角レンズ
4 撮像手段(カメラ)
5 画像処理制御手段
6 表示手段
7 音声出力手段
8 記録手段
9 画素位置取得手段
10 オプティカルフロー検出手段(実施例1)
11 接触時間推定手段
12 多重テーブル
13 オプティカルフロー検出手段(実施例2)
14 情報取得手段
2 運転支援装置
3 広角レンズ
4 撮像手段(カメラ)
5 画像処理制御手段
6 表示手段
7 音声出力手段
8 記録手段
9 画素位置取得手段
10 オプティカルフロー検出手段(実施例1)
11 接触時間推定手段
12 多重テーブル
13 オプティカルフロー検出手段(実施例2)
14 情報取得手段
Claims (3)
- 広角レンズを有する撮像手段を設け、この撮像手段により撮像される画像上の各画素の座標に対応するイメージプレーン上の各画素の座標を記録した記録手段と、前記撮像手段により撮像された画像上の画素位置から前記記録手段に記録された座標の対応関係に基づいてイメージプレーン上の画素位置を取得する画素位置取得手段とを備える画像処理手段を設けたことを特徴とする運転支援装置。
- 前記画像処理手段は、前記撮像手段により撮像された画像上の物体のオプティカルフローを検出するオプティカルフロー検出手段と、このオプティカルフロー検出手段により検出されたオプティカルフローの始点位置と終点位置とに対応するイメージプレーン上の画素位置を前記画素位置取得手段で取得し、前記画素位置取得手段で取得した2つの画素間の距離及び前記物体と前記撮像手段との距離に基づいて前記物体が前記撮像手段に接触するまでの時間を推定する接触時間推定手段とを備えることを特徴とする請求項1に記載の運転支援装置。
- 広角レンズを有する撮像手段を設け、この撮像手段により撮像された画像上の画素数と同サイズで検出可能なオプティカルフローの最大長さに対応するテーブル数である多重テーブルと、この多重テーブル上の各画素位置に対応するエリアに物体が前記撮像手段に接触するまでの時間に関する情報を登録しておき、前記撮像手段により撮像された画像上の物体のオプティカルフローを検出するオプティカルフロー検出手段と、このオプティカルフロー検出手段により検出されたオプティカルフローに基づいて前記多重テーブルを参照して前記物体が前記撮像手段に接触するまでの時間に間する情報を取得する情報取得手段とを備える画像処理手段を設けたことを特徴とする運転支援装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011084536A JP2012221099A (ja) | 2011-04-06 | 2011-04-06 | 運転支援装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011084536A JP2012221099A (ja) | 2011-04-06 | 2011-04-06 | 運転支援装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012221099A true JP2012221099A (ja) | 2012-11-12 |
Family
ID=47272569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011084536A Withdrawn JP2012221099A (ja) | 2011-04-06 | 2011-04-06 | 運転支援装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012221099A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017151764A (ja) * | 2016-02-25 | 2017-08-31 | トヨタ自動車株式会社 | 走行制御装置 |
CN108241851A (zh) * | 2016-12-27 | 2018-07-03 | 松下电器(美国)知识产权公司 | 信息处理装置、信息处理方法以及程序 |
-
2011
- 2011-04-06 JP JP2011084536A patent/JP2012221099A/ja not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017151764A (ja) * | 2016-02-25 | 2017-08-31 | トヨタ自動車株式会社 | 走行制御装置 |
CN108241851A (zh) * | 2016-12-27 | 2018-07-03 | 松下电器(美国)知识产权公司 | 信息处理装置、信息处理方法以及程序 |
CN108241851B (zh) * | 2016-12-27 | 2023-04-07 | 松下电器(美国)知识产权公司 | 信息处理装置、信息处理方法以及程序 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6522076B2 (ja) | 側方の車両測位のための方法、装置、記憶媒体及びプログラム製品 | |
JP4919036B2 (ja) | 移動物体認識装置 | |
JP5108605B2 (ja) | 運転支援システム及び車両 | |
CN111046743B (zh) | 一种障碍物信息标注方法、装置、电子设备和存储介质 | |
JP4793324B2 (ja) | 車両監視装置および車両監視方法 | |
KR20160123668A (ko) | 무인자동주차 기능 지원을 위한 장애물 및 주차구획 인식 장치 및 그 방법 | |
EP3594902B1 (en) | Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle | |
JP2009060499A (ja) | 運転支援システム及び連結車両 | |
JP7107931B2 (ja) | 移動オブジェクトのレンジを推定する方法および装置 | |
JP2011134207A (ja) | 運転記録装置および地図作成システム | |
JP2011513876A (ja) | 物体の動作を特徴づけるための方法およびシステム | |
JP4344860B2 (ja) | ステレオ画像を用いた道路平面領域並びに障害物検出方法 | |
WO2012014972A1 (ja) | 車両挙動解析装置及び車両挙動解析プログラム | |
JP2012221099A (ja) | 運転支援装置 | |
JP2020135866A (ja) | オブジェクト検出方法、検出装置及び電子機器 | |
CN116343165A (zh) | 一种3d目标检测系统、方法、终端设备及存储介质 | |
JP2005170290A (ja) | 障害物検出装置 | |
JP5709048B2 (ja) | オプティカルフロー検出装置 | |
JP5773334B2 (ja) | オプティカルフロー処理装置及び表示半径マップ生成装置 | |
JP4106163B2 (ja) | 障害物検出装置及びその方法 | |
JP5251460B2 (ja) | 接近物体検出装置、接近物体検出プログラム、接近物体検出方法 | |
WO2022133986A1 (en) | Accuracy estimation method and system | |
JP2009077022A (ja) | 運転支援システム及び車両 | |
Mariotti et al. | Spherical formulation of moving object geometric constraints for monocular fisheye cameras | |
US11897517B2 (en) | Information processing device, information processing method, computer program product, and vehicle control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140701 |