JP3063481B2 - 車両用物体検出装置 - Google Patents
車両用物体検出装置Info
- Publication number
- JP3063481B2 JP3063481B2 JP5234594A JP23459493A JP3063481B2 JP 3063481 B2 JP3063481 B2 JP 3063481B2 JP 5234594 A JP5234594 A JP 5234594A JP 23459493 A JP23459493 A JP 23459493A JP 3063481 B2 JP3063481 B2 JP 3063481B2
- Authority
- JP
- Japan
- Prior art keywords
- road
- vehicle
- image
- parameter
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Description
【0001】
【産業上の利用分野】本発明は、例えば車両の自動操縦
や予防安全運転のために、車両の進行方向前方の車両等
の物体を検出する車両用物体検出装置に関する。
や予防安全運転のために、車両の進行方向前方の車両等
の物体を検出する車両用物体検出装置に関する。
【0002】
【従来の技術】従来のこの種の車両用物体検出装置とし
て、例えば特開平4−36878号公報に開示されたも
のがある。この開示された車両用物体検出装置では、走
行路の検出後、走行路の内側でエッジ点の検出を行い、
エッジの端が、ある時間連続して存在した時、物体とし
て検出される。
て、例えば特開平4−36878号公報に開示されたも
のがある。この開示された車両用物体検出装置では、走
行路の検出後、走行路の内側でエッジ点の検出を行い、
エッジの端が、ある時間連続して存在した時、物体とし
て検出される。
【0003】
【発明が解決しようとする課題】しかしながら、従来の
この種の車両用物体検出装置の場合においては、車両の
進行方向前方に車両等の物体が存在するか否かを単にエ
ッジの有無を検出することのみに依存して検出する検出
手法となっていたため、特に、道路面上に描かれた文字
や模様なども、物体として誤検出してしまうことも起り
得るという問題点があった。
この種の車両用物体検出装置の場合においては、車両の
進行方向前方に車両等の物体が存在するか否かを単にエ
ッジの有無を検出することのみに依存して検出する検出
手法となっていたため、特に、道路面上に描かれた文字
や模様なども、物体として誤検出してしまうことも起り
得るという問題点があった。
【0004】本発明は、上記した問題点に着目してなさ
れたものであり、その目的とするところは、道路面の文
字や模様と車両等の物体との相違を正しく識別して、そ
の物体を精度良く検出することができる車両用物体検出
装置を提供することにある。
れたものであり、その目的とするところは、道路面の文
字や模様と車両等の物体との相違を正しく識別して、そ
の物体を精度良く検出することができる車両用物体検出
装置を提供することにある。
【0005】
【課題を解決するための手段】上記の目的を達成するた
め、本発明は、図1に示す如く、車両の進行方向前方の
道路を撮像する撮像手段101と、該撮像手段101で
撮像した画像から少なくとも白線又は障害物のエッジ部
を表わす特徴を抽出する前処理手段102と、道路形状
パラメータに基づいて3次元座標上で定義された3次元
道路モデルを演算する道路モデル演算手段103と、該
道路モデル演算手段で演算された3次元道路モデルを前
記撮像手段の姿勢パラメータに基づいて画像座標に変換
する座標変換手段104と、前記前処理手段により抽出
した前記少なくとも白線又は障害物のエッジ部を表わす
特徴と前記座標変換手段で座標変換された前記3次元道
路モデルとを比較して、両者間の位置ずれを検出する位
置ずれ検出手段105と、該位置ずれ検出手段で検出し
た位置ずれから前記道路形状パラメータの変化量および
前記撮像手段の姿勢パラメータの変化量を演算する変化
量演算手段106と、前記両パラメータの変化量に基づ
き前記道路形状パラメータ及び前記姿勢パラメータを更
新する更新手段107と、該更新手段107により更新
された前記撮像手段101の姿勢パラメータに基づい
て、前記エッジ部を表わす特徴の時間的移動を、前記3
次元道路モデルで表わされる道路面上での移動量に座標
変換して前記画像中の特徴点の見かけの移動速度を計測
する見かけ移動速度計測手段108と、該見かけ移動速
度計測手段で計測された前記画像中の特徴点の見かけの
移動速度を車速と比較して車両の進行方向前方に物体が
存在するか否かを判定する物体判定手段109とを有す
ることを特徴とする。
め、本発明は、図1に示す如く、車両の進行方向前方の
道路を撮像する撮像手段101と、該撮像手段101で
撮像した画像から少なくとも白線又は障害物のエッジ部
を表わす特徴を抽出する前処理手段102と、道路形状
パラメータに基づいて3次元座標上で定義された3次元
道路モデルを演算する道路モデル演算手段103と、該
道路モデル演算手段で演算された3次元道路モデルを前
記撮像手段の姿勢パラメータに基づいて画像座標に変換
する座標変換手段104と、前記前処理手段により抽出
した前記少なくとも白線又は障害物のエッジ部を表わす
特徴と前記座標変換手段で座標変換された前記3次元道
路モデルとを比較して、両者間の位置ずれを検出する位
置ずれ検出手段105と、該位置ずれ検出手段で検出し
た位置ずれから前記道路形状パラメータの変化量および
前記撮像手段の姿勢パラメータの変化量を演算する変化
量演算手段106と、前記両パラメータの変化量に基づ
き前記道路形状パラメータ及び前記姿勢パラメータを更
新する更新手段107と、該更新手段107により更新
された前記撮像手段101の姿勢パラメータに基づい
て、前記エッジ部を表わす特徴の時間的移動を、前記3
次元道路モデルで表わされる道路面上での移動量に座標
変換して前記画像中の特徴点の見かけの移動速度を計測
する見かけ移動速度計測手段108と、該見かけ移動速
度計測手段で計測された前記画像中の特徴点の見かけの
移動速度を車速と比較して車両の進行方向前方に物体が
存在するか否かを判定する物体判定手段109とを有す
ることを特徴とする。
【0006】
【作用】本発明による車両用物体検出装置であれば、撮
像手段101で撮像した画像から前処理手段102が少
なくとも白線又は障害物のエッジ部を表わす特徴を抽出
し、他方、道路モデル演算手段103が道路形状パラメ
ータに基づいて3次元座標上で定義された3次元道路モ
デルを演算するので、位置ずれ検出手段105におい
て、道路モデル演算手段103で求めた3次元道路モデ
ルの値を座標変換手段104により画像座標に変換して
受ける一方、前処理手段102が抽出した少なくとも白
線又は障害物のエッジ部を表わす特徴を受けてその両者
を比較することにより、その両者間の位置ずれを検出
し、この検出結果から変化量演算手段106により自車
両の道路形状パラメータの変化量および撮像手段101
の姿勢パラメータの変化量が演算され、更新手段107
によりその自車両の道路形状パラメータおよび撮像手段
101の姿勢パラメータが更新される。
像手段101で撮像した画像から前処理手段102が少
なくとも白線又は障害物のエッジ部を表わす特徴を抽出
し、他方、道路モデル演算手段103が道路形状パラメ
ータに基づいて3次元座標上で定義された3次元道路モ
デルを演算するので、位置ずれ検出手段105におい
て、道路モデル演算手段103で求めた3次元道路モデ
ルの値を座標変換手段104により画像座標に変換して
受ける一方、前処理手段102が抽出した少なくとも白
線又は障害物のエッジ部を表わす特徴を受けてその両者
を比較することにより、その両者間の位置ずれを検出
し、この検出結果から変化量演算手段106により自車
両の道路形状パラメータの変化量および撮像手段101
の姿勢パラメータの変化量が演算され、更新手段107
によりその自車両の道路形状パラメータおよび撮像手段
101の姿勢パラメータが更新される。
【0007】このように自車両の道路形状パラメータお
よび撮像手段101の姿勢パラメータが更新される条件
下において、前処理手段102により少なくとも白線又
は障害物のエッジ部を表わす特徴が抽出されると、見か
け移動量速度計測手段108では、更新手段107によ
り更新された撮像手段101の姿勢パラメータに基づい
て、画像中の特徴点の時間的移動が、3次元道路モデル
で表わされる道路面上での移動量に座標変換されて画像
中の特徴点の見かけの移動速度が計測される。
よび撮像手段101の姿勢パラメータが更新される条件
下において、前処理手段102により少なくとも白線又
は障害物のエッジ部を表わす特徴が抽出されると、見か
け移動量速度計測手段108では、更新手段107によ
り更新された撮像手段101の姿勢パラメータに基づい
て、画像中の特徴点の時間的移動が、3次元道路モデル
で表わされる道路面上での移動量に座標変換されて画像
中の特徴点の見かけの移動速度が計測される。
【0008】こうして見かけ移動速度計測手段108に
より見かけの移動速度が計測されると、物体判定手段1
09は、その見かけの移動速度を車速と比較して車両の
進行方向前方に車両等の物体が存在するか否かを判定で
きる。
より見かけの移動速度が計測されると、物体判定手段1
09は、その見かけの移動速度を車速と比較して車両の
進行方向前方に車両等の物体が存在するか否かを判定で
きる。
【0009】
【実施例】以下、図面を用いて本発明の実施例を説明す
る。
る。
【0010】図2は、本発明の一実施例に係わる車両用
物体検出装置の全体構成を概略的に示すブロック図であ
る。同図に示す車両用物体検出装置は、車両の進行方向
前方の道路を撮像すべく車両に搭載された撮像手段であ
るカメラ1、該カメラ1で撮像した画像信号を入力し、
この入力された画像信号を画像処理する画像処理部3、
および該画像処理部3で得られた計測結果である道路の
3次元形状データをまたは障害物の位置に基づいて車両
の制御および警報判断等を行う制御部5を有する。
物体検出装置の全体構成を概略的に示すブロック図であ
る。同図に示す車両用物体検出装置は、車両の進行方向
前方の道路を撮像すべく車両に搭載された撮像手段であ
るカメラ1、該カメラ1で撮像した画像信号を入力し、
この入力された画像信号を画像処理する画像処理部3、
および該画像処理部3で得られた計測結果である道路の
3次元形状データをまたは障害物の位置に基づいて車両
の制御および警報判断等を行う制御部5を有する。
【0011】図2に示す画像処理部3は、カメラ1で撮
像された2車線道路の画像を連続的に入力し、この画像
からカメラ1の高さ(Dy)、ヨー角(θ)、ピッチ角
(φ)、ロール角(ψ)、道路端からの距離(Dx)と
いう車速を除くカメラの5軸の姿勢パラメータと、道路
の水平曲線(ρ)および道路の勾配を表す垂直曲線
(μ)の道路形状パラメータを有する3次元道路構造を
同時にオンラインで推定する。そして、これらの推定し
た値を用いて、画像中の物体のエッジ点の動きを、あた
かも道路面上での3次元的動きとして計測し、計測され
た動き量と車速とを比較することによって、道路面上の
文字や模様などと、高さのある物体とを弁別するもので
ある。さらに、動く物体でも、およその相対移動速度を
知ることが可能なものである。
像された2車線道路の画像を連続的に入力し、この画像
からカメラ1の高さ(Dy)、ヨー角(θ)、ピッチ角
(φ)、ロール角(ψ)、道路端からの距離(Dx)と
いう車速を除くカメラの5軸の姿勢パラメータと、道路
の水平曲線(ρ)および道路の勾配を表す垂直曲線
(μ)の道路形状パラメータを有する3次元道路構造を
同時にオンラインで推定する。そして、これらの推定し
た値を用いて、画像中の物体のエッジ点の動きを、あた
かも道路面上での3次元的動きとして計測し、計測され
た動き量と車速とを比較することによって、道路面上の
文字や模様などと、高さのある物体とを弁別するもので
ある。さらに、動く物体でも、およその相対移動速度を
知ることが可能なものである。
【0012】図3は、図2に示す画像処理部3の詳細な
構成を示すブロック図である。同図に示すように、画像
処理部3は、前記カメラ1で撮像された画像を入力され
る画像入力部11、この画像入力部11から入力された
画像情報からエッジ部を表わす特徴を抽出する前処理部
13、1画面前(前時刻)に推定された道路形状パラメ
ータに基づいて3次元の道路モデルを作成する道路モデ
ル作成部15、前時刻に推定されたカメラの姿勢パラメ
ータを用いて、道路モデル作成部15で作成された3次
元の道路モデルを車両座標系に座標変換し、更に画像座
標系に透視変換する座標変換部17、この座標変換部1
7によって画像座標系の座標変換された道路モデルと前
処理部13で検出された道路のエッジ画像とを線対応関
係で対応づける線対応マッチング部19、この線対応マ
ッチング部19によって線対応づけられた画像の位置ず
れを検出し、この位置ずれから道路形状パラメータおよ
びカメラの姿勢パラメータの各パラメータの変化量を推
定するパラメータ推定部21、このパラメータ推定部2
1で推定されたパラメータを更新するパラメータ更新部
23、このパラメータ更新部23で更新されたカメラの
姿勢パラメータに基づいて、前処理部13で抽出したエ
ッジ部を表わす特徴を、道路モデル作成部15で作成さ
れた3次元の道路モデルで表わされる道路面上での移動
量に座標変換した時空間画像を作成する時空間画像作成
部25、この時空間画像作成部25で作成した画像か
ら、直線検出の手法によって、障害物または道路面上の
エッジ点を切り出し、この見かけ移動量を計測する直線
処理部27、この直線処理部27で計測された見かけ移
動量と車速とを比較して障害物検出と相対速度弁別を行
う障害物検出部29から構成されている。
構成を示すブロック図である。同図に示すように、画像
処理部3は、前記カメラ1で撮像された画像を入力され
る画像入力部11、この画像入力部11から入力された
画像情報からエッジ部を表わす特徴を抽出する前処理部
13、1画面前(前時刻)に推定された道路形状パラメ
ータに基づいて3次元の道路モデルを作成する道路モデ
ル作成部15、前時刻に推定されたカメラの姿勢パラメ
ータを用いて、道路モデル作成部15で作成された3次
元の道路モデルを車両座標系に座標変換し、更に画像座
標系に透視変換する座標変換部17、この座標変換部1
7によって画像座標系の座標変換された道路モデルと前
処理部13で検出された道路のエッジ画像とを線対応関
係で対応づける線対応マッチング部19、この線対応マ
ッチング部19によって線対応づけられた画像の位置ず
れを検出し、この位置ずれから道路形状パラメータおよ
びカメラの姿勢パラメータの各パラメータの変化量を推
定するパラメータ推定部21、このパラメータ推定部2
1で推定されたパラメータを更新するパラメータ更新部
23、このパラメータ更新部23で更新されたカメラの
姿勢パラメータに基づいて、前処理部13で抽出したエ
ッジ部を表わす特徴を、道路モデル作成部15で作成さ
れた3次元の道路モデルで表わされる道路面上での移動
量に座標変換した時空間画像を作成する時空間画像作成
部25、この時空間画像作成部25で作成した画像か
ら、直線検出の手法によって、障害物または道路面上の
エッジ点を切り出し、この見かけ移動量を計測する直線
処理部27、この直線処理部27で計測された見かけ移
動量と車速とを比較して障害物検出と相対速度弁別を行
う障害物検出部29から構成されている。
【0013】前処理部13における前処理は、カメラ1
で撮像した道路の入力画像から道路の白線のエッジを検
出するために、入力画像をI(x,y)とし、エッジ画
像をG(x,y)とした場合、次式の演算を行い、エッ
ジ画像を検出する。
で撮像した道路の入力画像から道路の白線のエッジを検
出するために、入力画像をI(x,y)とし、エッジ画
像をG(x,y)とした場合、次式の演算を行い、エッ
ジ画像を検出する。
【0014】
【数1】 このような演算式を使用することにより、カーブ路にお
いて遠方の白線はほとんど水平で、線幅も1画素以下で
撮影されてもエッジを抽出することができる。
いて遠方の白線はほとんど水平で、線幅も1画素以下で
撮影されてもエッジを抽出することができる。
【0015】また、この前処理部13では、画像中の車
両進行方向前方の道路内の2次元形状物もしくは3次元
形状物のエッジ部を表わす特徴を公知の他の特徴強調処
理で抽出してもよい。
両進行方向前方の道路内の2次元形状物もしくは3次元
形状物のエッジ部を表わす特徴を公知の他の特徴強調処
理で抽出してもよい。
【0016】道路モデル作成部15および座標変換部1
7では、前時刻に推定される道路形状パラメータを基に
3次元の道路モデルを作成し、また前時刻に推定される
カメラの挙動パラメータを用いて車両座標系に座標変換
し、更に2次元の画像座標系に透視変換する。なお、本
実施例では、道路のカーブや勾配のパラメータは時間的
に変化するものと考える。カメラ1の焦点距離は既知と
し、また車両の速度成分に推定しないものとする。これ
は白線と平行に移動しても、見かけ上の白線位置は変化
しないためである。従って、推定すべきパラメータは、
前述したカメラ1の高さ(Dy)、ヨー角(θ)、ピッ
チ角(φ)、ロール角(ψ)、道路端からの距離(D
x)のカメラの5軸の姿勢パラメータに加えて、水平曲
線(ρ)および垂直曲率(μ)を含む道路形状パラメー
タである。
7では、前時刻に推定される道路形状パラメータを基に
3次元の道路モデルを作成し、また前時刻に推定される
カメラの挙動パラメータを用いて車両座標系に座標変換
し、更に2次元の画像座標系に透視変換する。なお、本
実施例では、道路のカーブや勾配のパラメータは時間的
に変化するものと考える。カメラ1の焦点距離は既知と
し、また車両の速度成分に推定しないものとする。これ
は白線と平行に移動しても、見かけ上の白線位置は変化
しないためである。従って、推定すべきパラメータは、
前述したカメラ1の高さ(Dy)、ヨー角(θ)、ピッ
チ角(φ)、ロール角(ψ)、道路端からの距離(D
x)のカメラの5軸の姿勢パラメータに加えて、水平曲
線(ρ)および垂直曲率(μ)を含む道路形状パラメー
タである。
【0017】まず、座標系について図4を参照して説明
する。座標系としては、道路座標系(X,Y,Z)、車
両座標系(U,V,W)および2次元の画像座標系
(x,y)の3つの座標系を定義する。
する。座標系としては、道路座標系(X,Y,Z)、車
両座標系(U,V,W)および2次元の画像座標系
(x,y)の3つの座標系を定義する。
【0018】道路座標系(X,Y,Z)は、現在車両が
置かれている地点を基準に道路の形状を表すものであ
り、図4に示すように、道路中央の路面上に原点を取
り、道路接続および路面と平行で車両の進行方向にZ
軸、左方向に路面と平行にX軸、路面と垂直で上方にY
軸を取る右手系である。なお、カメラ1のレンズの中心
は常にZ=0の位置にあるものとする。
置かれている地点を基準に道路の形状を表すものであ
り、図4に示すように、道路中央の路面上に原点を取
り、道路接続および路面と平行で車両の進行方向にZ
軸、左方向に路面と平行にX軸、路面と垂直で上方にY
軸を取る右手系である。なお、カメラ1のレンズの中心
は常にZ=0の位置にあるものとする。
【0019】車両座標系(U,V,W)は、カメラ1の
レンズの中心を原点とし、該レンズの主軸方向にW軸、
撮像面と平行にU軸およびV軸を取る右手系である。
レンズの中心を原点とし、該レンズの主軸方向にW軸、
撮像面と平行にU軸およびV軸を取る右手系である。
【0020】画像座標系(x,y)は、撮像面上で定義
され、x軸がU軸と平行、y軸がV軸と平行で、それぞ
れ逆向きであるものとする。
され、x軸がU軸と平行、y軸がV軸と平行で、それぞ
れ逆向きであるものとする。
【0021】また、車両座標系で表された3次元空間上
の点P(U,V,W)は、画像上の画像座標系で次式の
ように透視変換されて表される。
の点P(U,V,W)は、画像上の画像座標系で次式の
ように透視変換されて表される。
【0022】 x=−F・U/W y=−F/v/w (2) 但し、Fはカメラ1のレンズの焦点距離である。
【0023】道路座標系と車両座標系との関係が車両の
挙動、すなわちカメラ1の姿勢に対応する。以下、カメ
ラ1の道路端からの距離をDx、カメラ1の高さをD
y、ヨー角をθ、ピッチ角をφ、ロール角をψで表す。
挙動、すなわちカメラ1の姿勢に対応する。以下、カメ
ラ1の道路端からの距離をDx、カメラ1の高さをD
y、ヨー角をθ、ピッチ角をφ、ロール角をψで表す。
【0024】車両座標系は、まず道路座標系で(Dx,
Dy,0)だけ平行移動した後、ヨー角θ、ピッチ角
φ、ロール角ψの順で回転させる。なお、ヨー角θは、
W軸をXZ平面に射影した時のZ軸とのなす角度であ
り、ピッチ角φはW軸とXZ平面との角度であり、ロー
ル角ψはW軸回りの回転角でU軸とXZ平面との角度で
ある。回転マトリックスをRとすると、道路座標系で表
された点は、次式により車両座標系へ変換される。
Dy,0)だけ平行移動した後、ヨー角θ、ピッチ角
φ、ロール角ψの順で回転させる。なお、ヨー角θは、
W軸をXZ平面に射影した時のZ軸とのなす角度であ
り、ピッチ角φはW軸とXZ平面との角度であり、ロー
ル角ψはW軸回りの回転角でU軸とXZ平面との角度で
ある。回転マトリックスをRとすると、道路座標系で表
された点は、次式により車両座標系へ変換される。
【0025】
【数2】 次に、道路モデル作成部15で作成される道路モデルに
ついて説明する。
ついて説明する。
【0026】道路は、横断曲線(カーブ)と縦断曲線
(勾配)に分けて構造が決定されている。横断道路は曲
率一定の円弧部、直線部、およびこれらを滑らかに結ぶ
ための緩和曲線部によって定義される。また、縦断曲線
は一定勾配である直線部を放物線によって滑らかに結ぶ
ものとされている。
(勾配)に分けて構造が決定されている。横断道路は曲
率一定の円弧部、直線部、およびこれらを滑らかに結ぶ
ための緩和曲線部によって定義される。また、縦断曲線
は一定勾配である直線部を放物線によって滑らかに結ぶ
ものとされている。
【0027】3次元の道路座標上では、横断曲線、縦断
曲線ともに多次曲線によって近似される。そして、路面
上に描かれた白線の道路座標系における座標は次式のよ
うに定義される。
曲線ともに多次曲線によって近似される。そして、路面
上に描かれた白線の道路座標系における座標は次式のよ
うに定義される。
【0028】 X=f(Z)=aZ4 +bZ3 +cZ2 +B Y=g(Z)=dZ3 +eZ2 (4) ここで、Bは、道路中心から白線までの距離を表し、3
車線道路の場合には、左の白線に対してはBは正の定義
であり、中央に対しては0である。a〜eは求める道路
形状パラメータである。なお、水平方向の式f(Z)を
4次式としたのは、S字カーブにも対応するためであ
る。
車線道路の場合には、左の白線に対してはBは正の定義
であり、中央に対しては0である。a〜eは求める道路
形状パラメータである。なお、水平方向の式f(Z)を
4次式としたのは、S字カーブにも対応するためであ
る。
【0029】また、道路の水平曲率ρおよび垂直曲率μ
は、次式で表される。
は、次式で表される。
【0030】
【数3】 特に、Z=0の付近の曲率は、水平曲率ρ=2cおよび
垂直曲率μ=2eである。
垂直曲率μ=2eである。
【0031】このようにして、N点からなる道路モデル
を作成するZi(i=1〜N)を与えれば、白線の3次
元座標を計算することができる。また、Zの地点の曲率
を求めることも可能である。
を作成するZi(i=1〜N)を与えれば、白線の3次
元座標を計算することができる。また、Zの地点の曲率
を求めることも可能である。
【0032】上述した式(4)で示した道路形状パラメ
ータa,b,c,d,eを前画面(前時刻)から得て、
道路モデルを作成し、この道路モデルを前時刻における
カメラ1の挙動パラメータに基づく車両座標系に変換す
る。そして、道路モデル上の各点が現画面(現時刻)で
どう移動するかを観測することによって、車両座標系に
おける挙動変動量および道路パラメータの変動量を求め
る。すなわち、道路モデル上の点(x,y)が現画面で
(Δx,Δy)だけ変動したとし、この変動Δx,Δy
がカメラの姿勢パラメータの変動と道路形状パラメータ
の変動とに起因すると考えて、各パラメータの変動量と
ΔxおよびΔyとの関係を導く。なお、パラメータは各
時刻毎に変動量を積分することになるが、モデルを基準
とした変動量であるので、誤差の蓄積はない。
ータa,b,c,d,eを前画面(前時刻)から得て、
道路モデルを作成し、この道路モデルを前時刻における
カメラ1の挙動パラメータに基づく車両座標系に変換す
る。そして、道路モデル上の各点が現画面(現時刻)で
どう移動するかを観測することによって、車両座標系に
おける挙動変動量および道路パラメータの変動量を求め
る。すなわち、道路モデル上の点(x,y)が現画面で
(Δx,Δy)だけ変動したとし、この変動Δx,Δy
がカメラの姿勢パラメータの変動と道路形状パラメータ
の変動とに起因すると考えて、各パラメータの変動量と
ΔxおよびΔyとの関係を導く。なお、パラメータは各
時刻毎に変動量を積分することになるが、モデルを基準
とした変動量であるので、誤差の蓄積はない。
【0033】パラメータの変動によって画像上の道路モ
デル上の点(x,y)が(x’,y’)に移動したと考
え、点の移動量を(Δx,Δy)とすると、次式で表さ
れる。
デル上の点(x,y)が(x’,y’)に移動したと考
え、点の移動量を(Δx,Δy)とすると、次式で表さ
れる。
【0034】 x’=x+Δx y’=y+Δy (6) カメラの姿勢パラメータの変動を車両座標系での点の移
動として考える。すなわち、車両座標系で挙動変動量を
求め、前時刻の姿勢パラメータと合成することにより、
現時刻におけるカメラの姿勢パラメータに変換し、次時
刻で更に新たな車両座標系を作成する。なお、挙動変動
量を道路座標系でなく、車両座標系で求めるのは、回転
角が常に0からの変動となるため、近似の精度を維持し
ながら線形解を求められるからである。
動として考える。すなわち、車両座標系で挙動変動量を
求め、前時刻の姿勢パラメータと合成することにより、
現時刻におけるカメラの姿勢パラメータに変換し、次時
刻で更に新たな車両座標系を作成する。なお、挙動変動
量を道路座標系でなく、車両座標系で求めるのは、回転
角が常に0からの変動となるため、近似の精度を維持し
ながら線形解を求められるからである。
【0035】車両座標系において、点P(U,V,W)
が点P’(U’,V’,W’)に移動するとすると、
が点P’(U’,V’,W’)に移動するとすると、
【数4】 で表される。なお、DU ,DU は平行移動成分であり、
α,β,γはそれぞれV軸、U軸、W軸回りの回転角で
ある。但し、各パラメータの値は、十分小さいものと
し、sinδ=δ,cosδ=1,sinα=α,co
sα=1,sinβ=β,cosβ=1,sinγ=
γ,cosγ=1とすると共に、2次以上の項は無視し
た。
α,β,γはそれぞれV軸、U軸、W軸回りの回転角で
ある。但し、各パラメータの値は、十分小さいものと
し、sinδ=δ,cosδ=1,sinα=α,co
sα=1,sinβ=β,cosβ=1,sinγ=
γ,cosγ=1とすると共に、2次以上の項は無視し
た。
【0036】(6)式と(2)式とから、次式が得られ
る。
る。
【0037】
【数5】 各姿勢パラメータの微小変動による画像座標の変動は、
(5)式のTaler展開の1次の項から次式のように
表される。
(5)式のTaler展開の1次の項から次式のように
表される。
【0038】
【数6】 (8)式から、α,β,γ=0なる条件を近似的に計算
すると、次式に示すようにカメラの姿勢パラメータの変
動分が得られる。
すると、次式に示すようにカメラの姿勢パラメータの変
動分が得られる。
【0039】
【数7】 次に、道路パラメータの変動分について考える。上述し
た(3)および(4)式から、 U=R11(X−DX )+R12(Y−DY )+R13Z V=R21(X−DX )+R22(Y−DY )+R23Z X=f(Z),Y=g(Z) (11) であるので、これを(7)式に代入するとともに、また
α,β,γ=0とおいて
た(3)および(4)式から、 U=R11(X−DX )+R12(Y−DY )+R13Z V=R21(X−DX )+R22(Y−DY )+R23Z X=f(Z),Y=g(Z) (11) であるので、これを(7)式に代入するとともに、また
α,β,γ=0とおいて
【数8】 を計算すると、次式に示すように道路パラメータの変動
分が得られる。
分が得られる。
【0040】
【数9】 従って、(9)式と(13)式を加算すると、カメラの
姿勢パラメータと道路パラメータによる画像上での点の
移動量の関係式が得られる。
姿勢パラメータと道路パラメータによる画像上での点の
移動量の関係式が得られる。
【0041】
【数10】 次に、線対応マッチング部19における線対応マッチン
グについて説明する。
グについて説明する。
【0042】モデルを用いたカメラ姿勢の推定手法に
は、点対応と線対応とがあるが、本実施例では線対応、
すなわち道路モデルにおける接線と画面中から抽出され
る白線の線成分とを対応づける。白線は滑らかな曲線で
あるので、点の対応は困難であるからである。
は、点対応と線対応とがあるが、本実施例では線対応、
すなわち道路モデルにおける接線と画面中から抽出され
る白線の線成分とを対応づける。白線は滑らかな曲線で
あるので、点の対応は困難であるからである。
【0043】対応付けには画像の探索が必要であるが、
ここでは同一x軸または同一y軸上を走査する。探索処
理が簡単化できるため、高速化につながるからである。
x軸走査かy軸走査かの選択は、対応付けする線の傾き
の大きさに応じて行う。
ここでは同一x軸または同一y軸上を走査する。探索処
理が簡単化できるため、高速化につながるからである。
x軸走査かy軸走査かの選択は、対応付けする線の傾き
の大きさに応じて行う。
【0044】画像座標系における道路モデル上の点P
(x,y)における接線の傾きをωで表し、ωを
(x,y)における接線の傾きをωで表し、ωを
【数11】 で定義すると、ωは次式で計算される。
【0045】
【数12】 現時刻の白線は、点P付近の点P’(x’,y’)でモ
デルと同じωなる傾きを有すると仮定する。すなわち、
傾きの変化はないものとする。前時刻で求められたモデ
ルが現時刻で白線位置まで移動したと考える。この場合
の道路モデルと白線との関係は図5に示すようになる。
同一x軸上の移動量をpとし、同一y軸上の移動量をq
とすると、ΔxとΔyとの関係は、 Δx/p+Δy/q=1 (17) であり、更に q/p=−ω (18) であるから、 Δx−Δy/ω−p=0 (19) または −ωΔx+Δy−q=0 (20) が得られる。上式は直線の座標軸方向の(見かけの)移
動量と実際の移動量の関係を表す。|ω|が大きい時
(垂直に近い場合)は、(19)式が使用され、|ω|
が小さい時(水平に近い場合)は、(20)式が使用さ
れる。
デルと同じωなる傾きを有すると仮定する。すなわち、
傾きの変化はないものとする。前時刻で求められたモデ
ルが現時刻で白線位置まで移動したと考える。この場合
の道路モデルと白線との関係は図5に示すようになる。
同一x軸上の移動量をpとし、同一y軸上の移動量をq
とすると、ΔxとΔyとの関係は、 Δx/p+Δy/q=1 (17) であり、更に q/p=−ω (18) であるから、 Δx−Δy/ω−p=0 (19) または −ωΔx+Δy−q=0 (20) が得られる。上式は直線の座標軸方向の(見かけの)移
動量と実際の移動量の関係を表す。|ω|が大きい時
(垂直に近い場合)は、(19)式が使用され、|ω|
が小さい時(水平に近い場合)は、(20)式が使用さ
れる。
【0046】道路モデル上のいくつかの点でPi(x
i,yi)とωiを計算し、入力画像上における点との
対応からpiまたはqiを求め、最小二乗法を適用すれ
ば、連立方程式が得られ、各パラメータの変化量が算出
される。
i,yi)とωiを計算し、入力画像上における点との
対応からpiまたはqiを求め、最小二乗法を適用すれ
ば、連立方程式が得られ、各パラメータの変化量が算出
される。
【0047】評価誤差は、上述した(14)式と(1
9)式および(20)式とから次式で求められる。
9)式および(20)式とから次式で求められる。
【0048】
【数13】 Ei =A1iΔa+A2iΔb+A3iΔc+A4iΔd+A5iΔe +A6iΔDU +A7iΔDV +A8iΔα+A9iΔβ+A10i Δγ−Bi (21) 但し
【数14】
【数15】 次に、本実施例の作用を説明する。
【0049】まず、道路モデル作成部15において、N
点からなる道路モデルを作成する。そして、前時刻のカ
メラの姿勢パラメータ(Dx,Dy,θ,φ,ψ)の推
定結果から、(3)式の変換行列を作成する。それか
ら、前時刻の道路形状パラメータ(a,b,c,d,
e)から(4)式に基づいて道路座標系(X,Y,Z)
で道路モデルの3次元座標を計算する。すなわち、前時
刻の道路形状パラメータ(a,b,c,d,e)から
(4)式にZ=Zi(i=1〜N)とおくことによって
道路モデルの点列を作成する。次に、前時刻のカメラの
挙動パラメータ(Dx,Dy,θ,φ,ψ)により
(3)式で車両座標系(U,V,W)に変換し、更に
(1)式で画像座標系(x,y)に変換し、座標(x
i,yi)(i=i〜N)を得る。また、(16)式で
接線の傾きωを計算する。なお、各座標変換は、座標変
換部17で行われる。
点からなる道路モデルを作成する。そして、前時刻のカ
メラの姿勢パラメータ(Dx,Dy,θ,φ,ψ)の推
定結果から、(3)式の変換行列を作成する。それか
ら、前時刻の道路形状パラメータ(a,b,c,d,
e)から(4)式に基づいて道路座標系(X,Y,Z)
で道路モデルの3次元座標を計算する。すなわち、前時
刻の道路形状パラメータ(a,b,c,d,e)から
(4)式にZ=Zi(i=1〜N)とおくことによって
道路モデルの点列を作成する。次に、前時刻のカメラの
挙動パラメータ(Dx,Dy,θ,φ,ψ)により
(3)式で車両座標系(U,V,W)に変換し、更に
(1)式で画像座標系(x,y)に変換し、座標(x
i,yi)(i=i〜N)を得る。また、(16)式で
接線の傾きωを計算する。なお、各座標変換は、座標変
換部17で行われる。
【0050】道路モデルから算出される値は、(21)
式に現れているZi,Ui,Vi,Wi,ωiおよびx
i,yi(i=1〜N)である。このうち、Ziは道路
座標上で例えば3メートル間隔と予め定めておく。すな
わち、Ziを与えれば、(21)式中のAri(r=1
〜10)の値が定まる。次に、入力画像とのマッチング
を行い、Biを求める。
式に現れているZi,Ui,Vi,Wi,ωiおよびx
i,yi(i=1〜N)である。このうち、Ziは道路
座標上で例えば3メートル間隔と予め定めておく。すな
わち、Ziを与えれば、(21)式中のAri(r=1
〜10)の値が定まる。次に、入力画像とのマッチング
を行い、Biを求める。
【0051】線対応マッチング部19は、画像入力部1
1を介してカメラ1から得られる入力画像であるエッジ
画像とモデル点接続との線対応マッチングを行う。|ω
i|≧1のとき(垂直に近い場合)は、各モデル点(x
i,yi)を中心にx軸方向に探索して、piを求め、
|ωi|<1のとき(水平に近い場合)は、y軸方向に
探索して、qiを求める。
1を介してカメラ1から得られる入力画像であるエッジ
画像とモデル点接続との線対応マッチングを行う。|ω
i|≧1のとき(垂直に近い場合)は、各モデル点(x
i,yi)を中心にx軸方向に探索して、piを求め、
|ωi|<1のとき(水平に近い場合)は、y軸方向に
探索して、qiを求める。
【0052】|ωi|≧1のときは、点(xi,yi)
を中心に幅Mx ,高さMy なるウインドウを考える。こ
の中で、傾きωiの直線を発生させ、直線上のエッジ濃
度の和が最も大きい直線を選択し、直線のx座標値とx
iとの差をpiとする。すなわち、
を中心に幅Mx ,高さMy なるウインドウを考える。こ
の中で、傾きωiの直線を発生させ、直線上のエッジ濃
度の和が最も大きい直線を選択し、直線のx座標値とx
iとの差をpiとする。すなわち、
【数16】 を求め、Ci(τ)の最大値近傍で重心を求め、piと
する。また、この時のCi(τ)の値は確からしさを表
すので、あらためてCiとおく。
する。また、この時のCi(τ)の値は確からしさを表
すので、あらためてCiとおく。
【0053】また、|ωi|<1の場合も同様にqiを
求める。なお、幅Mx 、高さMy については数画素が適
当である。
求める。なお、幅Mx 、高さMy については数画素が適
当である。
【0054】以上のようにして、(21)式で示す評価
誤差のすべての係数が求められるので、最小二乗法を適
用することにより、各パラメータをパラメータ推定部2
1において推定することができる。
誤差のすべての係数が求められるので、最小二乗法を適
用することにより、各パラメータをパラメータ推定部2
1において推定することができる。
【0055】ここで、別の誤差尺度を考える。1つは道
路パラメータが時間的に大きく変動しないことを利用す
るものである。すなわち、Δa〜Δeは0に近いといえ
る。そこで、 EG1=Δa,EG2=Δb,EG3=Δc, EG4=Δd,EG5=Δe,EG5〜EG10 =0 (24) として、それぞれの重みをGr(r=1〜5)を定数と
して定義する。
路パラメータが時間的に大きく変動しないことを利用す
るものである。すなわち、Δa〜Δeは0に近いといえ
る。そこで、 EG1=Δa,EG2=Δb,EG3=Δc, EG4=Δd,EG5=Δe,EG5〜EG10 =0 (24) として、それぞれの重みをGr(r=1〜5)を定数と
して定義する。
【0056】もう1つの誤差は、曲率に関するものであ
る。道路パラメータcとeはZ=0の地点の曲率の1/
2である。車両も速度が既知で、速度v(m(メート
ル)/1画面時間)で走行しているとすると、t画面前
のZ=vtの地点の曲率が現画面のZ=0の曲率になる
はずである。従って、 Eρ=Ck-1 +Δc−ρk Eμ=ek-1 +Δe−μk (25) 但し
る。道路パラメータcとeはZ=0の地点の曲率の1/
2である。車両も速度が既知で、速度v(m(メート
ル)/1画面時間)で走行しているとすると、t画面前
のZ=vtの地点の曲率が現画面のZ=0の曲率になる
はずである。従って、 Eρ=Ck-1 +Δc−ρk Eμ=ek-1 +Δe−μk (25) 但し
【数17】 とすることができる。なお、ck-1 およびek-1 はそれ
ぞれ前画面の結果である。また、ρk-1 およびμk-1 は
t画面前の結果から得られる曲率である。
ぞれ前画面の結果である。また、ρk-1 およびμk-1 は
t画面前の結果から得られる曲率である。
【0057】各パラメータは最小二乗法で推定される。
すなわち、
すなわち、
【数18】 を最小化するように上式を各変数で微分し、それぞれ0
とおく。なお、HρおよびHμは重み定数である。この
ようにして、次に示す10元連立1次方程式
とおく。なお、HρおよびHμは重み定数である。この
ようにして、次に示す10元連立1次方程式
【数19】 が作成される。ここで、l(Lの小文字)は1〜10で
あり、m=1〜10である。
あり、m=1〜10である。
【0058】この10元連立1次方程式は容易に解くこ
とができる。
とができる。
【0059】以上のようにして、パラメータ推定部21
において最小二乗法により各パラメータの変化量が計算
されると、これらの結果を基にカメラの姿勢パラメータ
(Dx,Dy,θ,φ,ψ)および道路形状パラメータ
(a,b,c,d,e)がパラメータ更新部23におい
て更新される。なお、前時刻のパラメータを添字k−1
で表し、更新されたパラメータを添字kで表す。
において最小二乗法により各パラメータの変化量が計算
されると、これらの結果を基にカメラの姿勢パラメータ
(Dx,Dy,θ,φ,ψ)および道路形状パラメータ
(a,b,c,d,e)がパラメータ更新部23におい
て更新される。なお、前時刻のパラメータを添字k−1
で表し、更新されたパラメータを添字kで表す。
【0060】まず、道路形状パラメータa,b,c,
d,eは、Δa〜Δeをそのまま加えればよい。すなわ
ち、次式に示すようになる。
d,eは、Δa〜Δeをそのまま加えればよい。すなわ
ち、次式に示すようになる。
【0061】
【数20】 a(k) =a(K-1)+Δa,b(k) =b(K-1) +Δb, c(k) =c(K-1)+Δc,d(k) =d(K-1) +Δd, e(k) =e(K-1)+Δe (29) また、カメラの姿勢パラメータDx,Dy,θ,φ,ψ
は、以下のように更新される。(7)式中のパラメータ
(DU ,DU ,α,β,γ)はk−1においてすべて0
とみなせるので、DU =ΔDU ,DU =ΔDU ,α=Δ
α,β=Δβ,γ=Δγとおく。(2)式を(7)式に
代入すると、
は、以下のように更新される。(7)式中のパラメータ
(DU ,DU ,α,β,γ)はk−1においてすべて0
とみなせるので、DU =ΔDU ,DU =ΔDU ,α=Δ
α,β=Δβ,γ=Δγとおく。(2)式を(7)式に
代入すると、
【数21】 となる。カメラの姿勢パラメータの更新により、 (U,V,W)=(U’,V’,W’) とすればよい。(3)式と(30)式を比較することに
より、 R(k) =SR(k-1) DX(k)=DX(k-1)−R11(k) DU −R21(k) DV DY(k)=DY(k-1)−R12(k) DU −R22(k) DV (32) にて求められる。なお、R-1=RT なる関係式を用い
た。θ(k) ,φ(k) ,ψ(k) は(3)式中のR31(k) ,
R32(k) ,R12(k) から容易に求められる。
より、 R(k) =SR(k-1) DX(k)=DX(k-1)−R11(k) DU −R21(k) DV DY(k)=DY(k-1)−R12(k) DU −R22(k) DV (32) にて求められる。なお、R-1=RT なる関係式を用い
た。θ(k) ,φ(k) ,ψ(k) は(3)式中のR31(k) ,
R32(k) ,R12(k) から容易に求められる。
【0062】次に、時空間画像作成部25、直線検出部
27、及び物体検出部29での一連の処理動作で障害物
を検出する方法について説明する。
27、及び物体検出部29での一連の処理動作で障害物
を検出する方法について説明する。
【0063】まず、物体を弁別する原理について説明す
る。
る。
【0064】道路形状とカメラ姿勢の推定によって、前
方道路の3次元形状と道路に対する5自由度カメラ姿勢
が求められたとする。この時、物体が全て路面上にある
と仮定すると、画像座標系の座標値と道路座標系の座標
値とは、一対一対応する。なぜなら、道路面は(4)式
の道路モデルで3次元形状が記述され、この3次元座標
は(2)式および(3)式で画像座標系に変換されるか
らである。
方道路の3次元形状と道路に対する5自由度カメラ姿勢
が求められたとする。この時、物体が全て路面上にある
と仮定すると、画像座標系の座標値と道路座標系の座標
値とは、一対一対応する。なぜなら、道路面は(4)式
の道路モデルで3次元形状が記述され、この3次元座標
は(2)式および(3)式で画像座標系に変換されるか
らである。
【0065】いま、高さのある物体が画像に映っている
とする。2次元画像では高さの有無の判断はできない
が、画像座標系で見かけ上の座標値は求められる。見か
け上の座標値は、その点が路面上にあるものとして考え
ると、何m前方の点であるかが計測できる。例えば、図
6に示すように、高さのある物体は、実物の位置より遠
方の道路面上に点(頂点、エッジ点)があるように、観
測される。
とする。2次元画像では高さの有無の判断はできない
が、画像座標系で見かけ上の座標値は求められる。見か
け上の座標値は、その点が路面上にあるものとして考え
ると、何m前方の点であるかが計測できる。例えば、図
6に示すように、高さのある物体は、実物の位置より遠
方の道路面上に点(頂点、エッジ点)があるように、観
測される。
【0066】いま、路面のほうが車速分だけカメラに近
づいたとする。この時、静止物体であれば、真の移動量
は車速と一致するが、見かけ上の移動量は車速より大き
く観測される(図6)。また、路面上の模様や汚れなど
については、真の移動量と見かけの移動量は等しい。さ
らに、先行車のように動く物体の場合、ゆっくり近づい
ていれば、見かけの移動量は車速より小さく、しかし、
車速と同じ符号をもつ。逆に遠方の遠ざかる先行車の場
合は、車速と見かけの移動量とは、逆の符号となる。す
なわち、 路面上の模様 見かけの移動量=車速 静止物体 見かけの移動量>車速 移動物体(接近) 0<見かけの移動量<車速 移動物体(遠のく) 0>見かけの移動量 となる。
づいたとする。この時、静止物体であれば、真の移動量
は車速と一致するが、見かけ上の移動量は車速より大き
く観測される(図6)。また、路面上の模様や汚れなど
については、真の移動量と見かけの移動量は等しい。さ
らに、先行車のように動く物体の場合、ゆっくり近づい
ていれば、見かけの移動量は車速より小さく、しかし、
車速と同じ符号をもつ。逆に遠方の遠ざかる先行車の場
合は、車速と見かけの移動量とは、逆の符号となる。す
なわち、 路面上の模様 見かけの移動量=車速 静止物体 見かけの移動量>車速 移動物体(接近) 0<見かけの移動量<車速 移動物体(遠のく) 0>見かけの移動量 となる。
【0067】以上が、静止物体と、ゆっくり接近する物
体と、遠ざかる物体と、路面上のノイズや模様との、弁
別原理である。
体と、遠ざかる物体と、路面上のノイズや模様との、弁
別原理である。
【0068】時空間画像作成部25では、前処理部13
で抽出された特徴点と、道路モデル作成部15で作成さ
れた3次元の道路モデルと、パラメータ更新部23によ
り更新された姿勢パラメータとを受けて時空間画像を作
成する。
で抽出された特徴点と、道路モデル作成部15で作成さ
れた3次元の道路モデルと、パラメータ更新部23によ
り更新された姿勢パラメータとを受けて時空間画像を作
成する。
【0069】この時空間画像の作成について説明する。
【0070】道路モデルは既知(推定された)であるの
で、(4)式から、道路と平行、かつ、等間隔の座標点
列を求める。図7(a)のように、例えば2車線の場
合、各車線内で2本づつ、あるいは各車線の中央で求め
る。各平行線を添え字jで区別し、前方方向の点列を添
え字iで区別する。点の道路座標系での値は、(4)式
と同様に、
で、(4)式から、道路と平行、かつ、等間隔の座標点
列を求める。図7(a)のように、例えば2車線の場
合、各車線内で2本づつ、あるいは各車線の中央で求め
る。各平行線を添え字jで区別し、前方方向の点列を添
え字iで区別する。点の道路座標系での値は、(4)式
と同様に、
【数22】 Zi は例えばlm間隔にとる。Lj は道路中央を0と
し、例えば、L1 =−2.5m,L2 =−1.25m,
L3 =0m,L4 =1.25m,L5 =2.5m,など
とする。道路形状パラメータa,b,c,d,eは前記
道路形状の推定によって求められた値を用いる。
し、例えば、L1 =−2.5m,L2 =−1.25m,
L3 =0m,L4 =1.25m,L5 =2.5m,など
とする。道路形状パラメータa,b,c,d,eは前記
道路形状の推定によって求められた値を用いる。
【0071】(33)式で計算された座標値を(2)式
から(3)式で座標変換すれば、画像座標(xi,j ,y
i,j )が求められる。この時、カメラ姿勢パラメータの
値は、前記の推定結果を用いる。
から(3)式で座標変換すれば、画像座標(xi,j ,y
i,j )が求められる。この時、カメラ姿勢パラメータの
値は、前記の推定結果を用いる。
【0072】現在時刻t=tk を単にkで表す。時刻k
の前処理結果画像Gk (x,y)の点(xi,j ,
yi,j )の値を取り出して、時空間画像Hj (k,i)
を作成する。すなわち、 Hj (k,i)=Gk (xi,j ,yi,j ) (34) である。
の前処理結果画像Gk (x,y)の点(xi,j ,
yi,j )の値を取り出して、時空間画像Hj (k,i)
を作成する。すなわち、 Hj (k,i)=Gk (xi,j ,yi,j ) (34) である。
【0073】図7(a)〜(c)に以上の様子を示す。
図7(c)は、j=3すなわち中央線(途切れ線と仮
定)上の時空間画像の概念図を示した。
図7(c)は、j=3すなわち中央線(途切れ線と仮
定)上の時空間画像の概念図を示した。
【0074】時空間画像では、等速度で移動しているエ
ッジ点が直線状に現われる。そして、この直線の傾きが
見かけの移動量である。
ッジ点が直線状に現われる。そして、この直線の傾きが
見かけの移動量である。
【0075】直線検出部27では、時空間直線作成部2
5により作成された時空間画像から直線検出の手法によ
って、物体または路面上のエッジ点を切り出す。例え
ば、時刻kからk−Kまでの区間で Hough変換する。K
は例えば1秒である。 Hough平面をPj (α,β)とす
ると、
5により作成された時空間画像から直線検出の手法によ
って、物体または路面上のエッジ点を切り出す。例え
ば、時刻kからk−Kまでの区間で Hough変換する。K
は例えば1秒である。 Hough平面をPj (α,β)とす
ると、
【数23】 で求められる。Pj (α,β)で、あるしきい値以上の
値をもつ点(α,β)があれば、直線が検出されたとみ
なす。βの値から点までの距離が求められ(=Zi ,i
=β)、傾きβは見かけの速度と一致する。
値をもつ点(α,β)があれば、直線が検出されたとみ
なす。βの値から点までの距離が求められ(=Zi ,i
=β)、傾きβは見かけの速度と一致する。
【0076】こうして見かけの移動速度が求まると、物
体検出部29では、次のように物体検出と相対速度弁別
を行う。
体検出部29では、次のように物体検出と相対速度弁別
を行う。
【0077】前述のように、見かけの速度(移動量)と
車速の関係から、物体を判別する。車速は車速計から求
めてもよいが、ここでは、中央線の移動量から求める手
法を説明する。
車速の関係から、物体を判別する。車速は車速計から求
めてもよいが、ここでは、中央線の移動量から求める手
法を説明する。
【0078】中央線が途切れ線であるものとすると、図
7(c)のように、一定の傾きをもつ直線群が検出され
る。よって、j=3における直線検出結果のαの値を車
速(の推定値)Vとする。
7(c)のように、一定の傾きをもつ直線群が検出され
る。よって、j=3における直線検出結果のαの値を車
速(の推定値)Vとする。
【0079】j≠3において直線が検出されなければ、
物体はないものと判断する。直線が検出された場合、そ
の傾きαの符号やVとの比較から、 (1) αとVとがほぼ等しい時、路面上の汚れや模様と判
断 (2) αの絶対値がVの絶対値より大きい場合、静止また
は速い相対速度で接近する物体と判断 (3) αの符号とVの符号とが逆の場合、遠ざかる物体と
判断 (4) 上記以外、ゆっくり近づく物体と判断 とする。
物体はないものと判断する。直線が検出された場合、そ
の傾きαの符号やVとの比較から、 (1) αとVとがほぼ等しい時、路面上の汚れや模様と判
断 (2) αの絶対値がVの絶対値より大きい場合、静止また
は速い相対速度で接近する物体と判断 (3) αの符号とVの符号とが逆の場合、遠ざかる物体と
判断 (4) 上記以外、ゆっくり近づく物体と判断 とする。
【0080】上記(2) や(4) の場合、前述のように、β
の値から物体までの距離が求められる(=Zi でi=β
とおく)ので、距離に応じて警報したり、車速の自動制
御を行えばよい。
の値から物体までの距離が求められる(=Zi でi=β
とおく)ので、距離に応じて警報したり、車速の自動制
御を行えばよい。
【0081】
【発明の効果】以上のように、この発明は、道路の3次
元形状とカメラの対道路姿勢とを、予め計測することに
よって、画像中の物体のエッジ点の動きを、あたかも路
面上での3次元的動きとして計測し、計測された動き量
と車速とを比較することによって、路面上の文字や模様
などと、高さのある障害物とを弁別できる。さらに、動
く障害物でも、およその相対移動速度を知ることも可能
である。また、1台のカメラ信号を処理するのみである
ので、低コストで実現可能である。
元形状とカメラの対道路姿勢とを、予め計測することに
よって、画像中の物体のエッジ点の動きを、あたかも路
面上での3次元的動きとして計測し、計測された動き量
と車速とを比較することによって、路面上の文字や模様
などと、高さのある障害物とを弁別できる。さらに、動
く障害物でも、およその相対移動速度を知ることも可能
である。また、1台のカメラ信号を処理するのみである
ので、低コストで実現可能である。
【図1】本発明のクレーム対応図である。
【図2】本発明の一実施例に係わる車両用物体検出装置
の全体構成を概略的に示すブロック図である。
の全体構成を概略的に示すブロック図である。
【図3】図2に示す車両用物体検出装置に使用される画
像処理部の詳細な構成を示すブロック図である。
像処理部の詳細な構成を示すブロック図である。
【図4】図3に示す画像処理部に使用される座標系を示
す説明図である。
す説明図である。
【図5】図3に示す線対応マッチング部における道路モ
デルと白線との線対応マッチングを示す説明図である。
デルと白線との線対応マッチングを示す説明図である。
【図6】物体検出の原理を示す図である。
【図7】時空間画像の一例を示す図である。
101 撮像手段 102 前処理手段 103 道路モデル演算手段 104 座標変換手段 105 位置ずれ検出手段 106 変化量演算手段 107 更新手段 108 見かけ移動速度計測手段 109 物体判定手段
フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G08G 1/16 G01P 3/36 G06T 1/00 G08G 1/0968
Claims (2)
- 【請求項1】 車両の進行方向前方の道路を撮像する撮
像手段と、 該撮像手段で撮像した画像から少なくとも白線又は障害
物のエッジ部を表わす特徴を抽出する前処理手段と、道路形状 パラメータに基づいて3次元座標上で定義され
た3次元道路モデルを演算する道路モデル演算手段と、 該道路モデル演算手段で演算された3次元道路モデルを
前記撮像手段の姿勢パラメータに基づいて画像座標に変
換する座標変換手段と、 前記前処理手段により抽出した前記少なくとも白線又は
障害物のエッジ部を表わす特徴と前記座標変換手段で座
標変換された前記3次元道路モデルとを比較して、両者
間の位置ずれを検出する位置ずれ検出手段と、 該位置ずれ検出手段で検出した位置ずれから前記道路形
状パラメータの変化量および前記撮像手段の姿勢パラメ
ータの変化量を演算する変化量演算手段と、 前記両パラメータの変化量に基づき前記道路形状パラメ
ータ及び前記姿勢パラメータを更新する更新手段と、 前記更新手段により更新された前記撮像手段の姿勢パラ
メータに基づいて、前記エッジ部を表わす特徴の時間的
移動を、前記3次元道路モデルで表わされる道路面上で
の移動量に座標変換して前記画像中の特徴点の見かけの
移動速度を計測する見かけ移動速度計測手段と、 該見かけ移動速度計測手段で計測された前記画像中の特
徴点の見かけの移動速度を車速と比較して車両の進行方
向前方に物体が存在するか否かを判定する物体判定手段
とを有することを特徴とする車両用物体検出装置。 - 【請求項2】 前記物体判定手段は、見かけの移動速度
と車速とが同じ符号であるか逆の符号であるかに応じて
各種物体の弁別を行うことを特徴とする請求項1記載の
車両用物体検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5234594A JP3063481B2 (ja) | 1993-09-21 | 1993-09-21 | 車両用物体検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5234594A JP3063481B2 (ja) | 1993-09-21 | 1993-09-21 | 車両用物体検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0793693A JPH0793693A (ja) | 1995-04-07 |
JP3063481B2 true JP3063481B2 (ja) | 2000-07-12 |
Family
ID=16973481
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5234594A Expired - Fee Related JP3063481B2 (ja) | 1993-09-21 | 1993-09-21 | 車両用物体検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3063481B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3961584B2 (ja) * | 1996-02-08 | 2007-08-22 | 株式会社デンソー | 区画線検出装置 |
KR100466458B1 (ko) | 1999-09-20 | 2005-01-14 | 마츠시타 덴끼 산교 가부시키가이샤 | 운전지원장치 |
JP5003395B2 (ja) * | 2007-10-05 | 2012-08-15 | 日産自動車株式会社 | 車両周辺画像処理装置及び車両周辺状況提示方法 |
RU2619724C2 (ru) * | 2012-02-23 | 2017-05-17 | Ниссан Мотор Ко., Лтд. | Устройство обнаружения трехмерных объектов |
JP6060947B2 (ja) * | 2014-08-08 | 2017-01-18 | 住友電気工業株式会社 | 移動体速度算出装置、コンピュータプログラム及び移動体速度算出方法 |
CN113486796B (zh) | 2018-09-07 | 2023-09-05 | 百度在线网络技术(北京)有限公司 | 无人车位置检测方法、装置、设备、存储介质及车辆 |
-
1993
- 1993-09-21 JP JP5234594A patent/JP3063481B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH0793693A (ja) | 1995-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106096525B (zh) | 一种复合型车道识别系统及方法 | |
CN111611853B (zh) | 一种传感信息融合方法、装置及存储介质 | |
JP3357749B2 (ja) | 車両の走行路画像処理装置 | |
JP4919036B2 (ja) | 移動物体認識装置 | |
US5757287A (en) | Object recognition system and abnormality detection system using image processing | |
Jung et al. | A lane departure warning system using lateral offset with uncalibrated camera | |
EP3159121A1 (en) | Device for updating map of mobile robot and method therefor | |
US20090297036A1 (en) | Object detection on a pixel plane in a digital image sequence | |
JP2002197469A (ja) | 車線検出装置 | |
JPH10143659A (ja) | 物体検出装置 | |
JP6708730B2 (ja) | 移動体 | |
JP4407920B2 (ja) | 障害物認識方法及び障害物認識装置 | |
JP2003083742A (ja) | 監視システムの距離補正装置および距離補正方法 | |
CN111829484A (zh) | 基于视觉的目标距离测算方法 | |
JP4344860B2 (ja) | ステレオ画像を用いた道路平面領域並びに障害物検出方法 | |
CN112802196A (zh) | 基于点线特征融合的双目惯性同时定位与地图构建方法 | |
US6956959B2 (en) | Apparatus for recognizing environment | |
JP2917681B2 (ja) | 道路形状計測装置 | |
Dunlay et al. | Obstacle avoidance on roadways using range data | |
JP3063481B2 (ja) | 車両用物体検出装置 | |
JP3384278B2 (ja) | 距離計測装置 | |
JP2007280387A (ja) | 物体移動の検出方法及び検出装置 | |
JPH11345392A (ja) | 障害物検出装置及び障害物検出方法 | |
JPH05157558A (ja) | 車間距離検出装置 | |
JP3757500B2 (ja) | 先行車追従装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090512 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090512 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100512 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110512 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |