JP2005157875A - 車両認識方法及び車両認識装置 - Google Patents
車両認識方法及び車両認識装置 Download PDFInfo
- Publication number
- JP2005157875A JP2005157875A JP2003397642A JP2003397642A JP2005157875A JP 2005157875 A JP2005157875 A JP 2005157875A JP 2003397642 A JP2003397642 A JP 2003397642A JP 2003397642 A JP2003397642 A JP 2003397642A JP 2005157875 A JP2005157875 A JP 2005157875A
- Authority
- JP
- Japan
- Prior art keywords
- image
- side candidate
- radar
- positions
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
【課題】レーザレーダの受信結果から先行車の左右端部の片方しか検出できないときにも、画像センサの撮影画像の画像処理結果とレーザレーダの受信処理結果との組み合わせにより先行車を認識する。
【解決手段】画像センサの撮影画像から先行車の左右端部の画像側候補位置を検出し、レーザレーダの反射点の受信結果から前記左右端部のレーダ側候補領域を検出したときに、両方の画像側候補位置が画像上のレーダ側候補領域に位置することにより、両方の画像側候補位置を左右端部の検出位置に決定して先行車を認識し、前記左右端部の両方の画像側候補位置及び片方のレーダ側候補領域を検出したときに、両方の画像側候補位置のいずれか一方が前記片方のレーダ側候補領域に位置して他方が画像上に設定した左、右窓領域のいずれかに位置することにより、両方の画像側候補位置を前記左右端部の検出位置に決定して前記先行車を認識する。
【選択図】図4
【解決手段】画像センサの撮影画像から先行車の左右端部の画像側候補位置を検出し、レーザレーダの反射点の受信結果から前記左右端部のレーダ側候補領域を検出したときに、両方の画像側候補位置が画像上のレーダ側候補領域に位置することにより、両方の画像側候補位置を左右端部の検出位置に決定して先行車を認識し、前記左右端部の両方の画像側候補位置及び片方のレーダ側候補領域を検出したときに、両方の画像側候補位置のいずれか一方が前記片方のレーダ側候補領域に位置して他方が画像上に設定した左、右窓領域のいずれかに位置することにより、両方の画像側候補位置を前記左右端部の検出位置に決定して前記先行車を認識する。
【選択図】図4
Description
本発明は、画像センサの自車前方の撮影画像の画像処理結果及びレーザーレーダの自車前方の受信処理結果から自車前方の先行車両の左右端部を検出して先行車両を認識する車両認識方法及び車両認識装置に関する。
従来、車両走行を自動制御するため、自車にCCDカメラ等の画像センサ及びレーザレーダを搭載し、画像センサの撮影画像の画像処理によるエッジ検出と、レーザレーダによる反射物体の検出との組み合わせにより、自車前方の先行車等の物体を検出して認識することが提案されている(例えば、特許文献1参照。)。
また、ASVと呼ばれる先進安全自動車(Advanced Safety Vehicle)等の車両において、先行車の走行状態に応じた追従走行、自動ブレーキ等の走行、制動に関連した制御を行うため、自車に前記の画像センサ及びレーザレーダを搭載し、画像センサの撮影画像の画像処理からの認識とレーザレーダの受信処理からの認識との組み合わせ(融合)により、自車の走行中に、自車前方の先行車を精度よく認識して捕捉することが提案されている(例えば、非特許文献1参照。)。
つぎに、このASV等の既提案の車両認識について説明する。
まず、認識の前提となる自車の走行環境及び画像センサ、レーザレーダの座標系について、図7を参照して説明する。
図7は自車の走行環境及び画像センサ、レーザレーダの座標系の説明図であり、同図に示すように、平坦な道路1のレーンマーク(白線)2によって区切られた車線(レーン)3を自車が走行し、その前方を先行車4が走行しているものとする。
このとき、自車の画像センサであるカメラの3次元(X、Y、Z)座標系は、カメラのレンズ中心を原点Oとし、カメラ光軸をZ軸にとり、このZ軸に直交する車幅方向(左右方向)のX軸、車高方向のY軸を、画像面(撮影画像面)5の2次元(x、y)座標系のx軸、y軸に平行にとる。
また、自車のレーザレーダの3次元(XR、YR、ZR)座標系は、その受光部を原点、レーザ光軸をZR軸、鉛直方向の軸をYR軸、水平方向の軸をXR軸とする座標系であり、(X、Y、Z)座標系に回転ベクトルRの回転操作、並進ベクトルTの並進操作をしたものである。
つぎに、カメラの撮影画像の画像処理に基づく車両認識について説明する。
まず、カメラの時々刻々の撮影画像(入力画像)の微分画像を形成し、この微分画像につき、先行車4の左右端部を含む横長の領域を設定し、この領域の輝度(濃度)を垂直方向に加算して垂直エッジ画像を形成し、同様に、先行車4の上下端部を含む縦長の領域を設定し、この領域の輝度を水平方向に加算して水平エッジ画像を形成する。
そして、垂直エッジ画像と水平エッジ画像の対称のエッジピーク位置から、画像上で先行車4を認識し、その上下左右の中央の車両センタ位置を検出して先行車4を捕捉する。
つぎに、レーザレーダの反射点の受信処理に基づく車両認識について説明する。
まず、自車に搭載されたレーザレーダは例えばスキャン式であり、自車前方に視野角θ(θは例えば12度〜20度)で左右方向に走査しながらレーザをパルス照射する。
このパルス照射のレーザが先行車4の左右端部のリフレクタや道路1のガードレールのリフレクタ等によって反射し、これらの反射波を受信したレーザレーダは、その受信処理により、レーザパルスの送信角度、送受信時間差等に基づいてリフレクタ等の反射点の位置を検出し、対称位置の対の反射点から先行車4の左右端部を検出して先行車4を認識する。
ところで、レーザレーダの場合、反射点の受信処理結果からは上下方向の検出は行えないため、先行車4の左右端部を縦長の領域として先行車4を認識する。
つぎに、撮影画像の画像処理側の認識とレーザレーダの受信処理側の認識との融合に基づく、先行車4の認識について説明する。
まず、撮影画像の画像処理側の先行車4の左右端部の検出等から、画像上で先行車4を認識し、この認識の精度を判定するため、図8の認識精度判定の説明図に示すように、(x、y)座標系の画像上に、撮影画像の画像処理側から検出した先行車4の左右端部を含む画像側認識領域6pと、レーザレーダの受信処理に基づく先行車4の左右端部の縦長の領域を含むレーダ側認識領域6rとを設定する。
そして、評価領域6p、6rをカバーする横幅を1.0とし、このとき、図8のように認識領域6p、6rの重なっている部分の幅が0.7、その左右の重なっていない部分の幅が0.1(左)、0.2(右)であれば、評価値0.4(=0.7−0.1−0.2)を求め、認識領域6p、6rの左右方向の重なり比から認識精度を評価し、画像上での先行車4の認識とこの評価とから、撮影画像の画像処理側の認識とレーザレーダの受信処理側の認識とを融合して最終的に先行車4を認識する。なお、前記の評価値は1.0に近づく程認識精度が高いことを示す。
前記従来の車両認識においては、画像センサの撮影画像の画像処理に基づく認識結果と、レーザレーダの受信処理に基づく認識結果とを、画像上で照合して融合するため、必ず、画像センサの撮影画像の画像処理によって先行車4の左右端部の両方を検出し、かつ、レーザレーダの受信処理からも先行車4の左右端部の両方を検出する必要がある。
そのため、先行車4の片方のリフレクタが破損したり、先行車4の片方のリフレクタに泥が付着したりして、レーザレーダの受信処理から先行車4の左右端部のいずれか一方しか検出できない場合は、前記の照合が行えなくなり、画像センサの撮影画像の画像処理の結果単独で先行車4を認識するしかなく、認識の信頼性が極端に低下する問題がある。
本発明は、レーザレーダの受信処理から先行車の左右端部の片方しか検出できないときにも、その結果を利用し、画像センサの撮影画像の画像処理結果とレーザレーダの受信処理結果とに基づいて先行車を認識するようにし、認識の信頼性を向上することを目的とし、さらには、認識状態をドライバ等に報知することも目的とする。
上記した目的を達成するために、本発明の車両認識方法は、自車前方を撮影する画像センサの撮影画像を画像処理して自車前方の先行車の左右端部の画像側候補位置を検索し、自車前方を探査するレーザレーダの反射点の受信結果から前記左右端部のレーダ側候補領域を検索し、前記両検索により前記左右端部の両方の画像側候補位置及び前記左右端部の両方のレーダ側候補領域を検出したときに、前記両方のレーダ側候補領域が画像上の前記両方の画像側候補位置に位置することにより、前記両方の画像側候補位置を前記左右端部の検出位置に決定して前記先行車を認識し、前記両検索により前記両方の画像側候補位置及び前記左右端部のいずれか片方のレーダ側候補領域を検出したときに、画像上の前記片方のレーダ側候補領域から左方向、右方向に車両横幅相等の設定距離離れた位置に端部検出用の左窓領域、右窓領域それぞれを設定し、該設定に基づき、前記両方の画像側候補位置のいずれか一方が前記片方のレーダ側候補領域に位置して前記両方の画像側候補位置の他方が前記左窓領域、前記右窓領域のいずれかに位置することにより、前記両方の画像側候補位置を前記左右端部の検出位置に決定して前記先行車を認識することを特徴としている(請求項1)。
また、本発明の車両認識方法は、画像センサの撮影画像の画像処理により、前記撮影画像の垂直エッジ画像を形成し、該垂直エッジ画像のエッジピークの位置から画像側候補位置を検索することを特徴としている(請求項2)。
さらに、本発明の車両認識方法は、先行車の左右端部の両方の画像側候補位置及び前記左右端部の両方のレーダ側候補領域の検出に基づく前記先行車の認識と、前記左右端部の両方の画像側候補位置及び前記左右端部のいずれか片方のレーダ側候補領域の検出に基づく前記先行車の認識とを、区別して報知することを特徴としている(請求項3)。
つぎに、本発明の車両認識装置は、自車前方を撮影する画像センサと、自車前方を探査するレーザレーダと、前記画像センサの撮影画像を画像処理して自車前方の先行車の左右端部の画像側候補位置を検索する画像側検索手段と、前記レーザレーダの反射点の受信結果から前記左右端部のレーダ側候補領域を検索するレーダ側検索手段と、前記画像側検索手段が前記左右端部の両方の画像側候補位置を検出し、前記レーダ側検索手段が前記左右端部の両方のレーダ側候補領域を検出したときに、前記両方の画像側候補位置と前記両方のレーダ側候補領域とを画像上で照合し、前記両方の画像側候補位置が前記両方のレーダ側候補領域に位置することにより、前記両方の画像側候補位置を前記左右両端部の検出位置に決定する主決定手段と、前記画像側検索手段が前記両方の画像側候補位置を検出し、前記レーダ側検索手段が前記左右端部のいずれか片方のレーダ側候補領域を検出したときに、画像上の前記片方のレーダ側候補領域から左方向、右方向に車両横幅相等の設定距離離れた位置に端部検出用の左窓領域、右窓領域それぞれを設定する窓領域設定手段と、該窓領域設定手段の設定に基づき、前記両方の画像側候補位置のいずれか一方が前記片方のレーダ側候補領域に位置した状態で前記両方の画像側候補位置の他方が前記左窓領域、前記右窓領域のいずれかに位置するか否かを検査し、該検査により前記両方の画像側候補位置の他方が前記両窓領域のいずれかに位置することを検出したときに前記両方の画像側候補位置を前記左右端部の検出位置に決定する補助決定手段と、前記主決定手段、前記補助決定手段の検出位置の決定に基づいて前記先行車を認識する認識処理手段とを備えたことを特徴としている(請求項4)。
また、本発明の車両認識装置は、画像側検索手段により、画像センサの撮影画像を画像処理して前記撮影画像の垂直エッジ画像を形成し、該垂直エッジ画像のエッジピークの位置から画像側候補位置を検索するようにしたことを特徴としている(請求項5)。
さらに、本発明の車両認識装置は、先行車の左右端部の両方の画像側候補位置及び前記左右端部の両方のレーダ側候補領域の検出に基づく前記先行車の認識と、前記左右端部の両方の画像側候補位置及び前記左右端部のいずれか片方のレーダ側候補領域の検出に基づく前記先行車の認識とを、区別して報知する認識状態報知手段を備えたことをことを特徴としている(請求項6)。
まず、請求項1、4の構成によれば、先行車の左右のリフレクタが正常で先行車の左右端部の両方のレーダ側候補領域が検出されるときは、画像上で、左右端部の両方の画像側候補位置がレーダ側候補領域に位置することを条件に、先行車の左右端部を、画像センサの撮影画像の画像処理結果、レーザレーダの受信処理結果の両方から、精度よく検出することができ、そのときの両方の画像側候補位置を先行車の左右端部の検出位置に決定して先行車を極めて精度よく認識することができる。
また、先行車にリフレクタの破損やリフレクタへの汚泥の付着等が発生し、先行車の左右端部のいずれか片方のレーダ側候補領域しか検出されないときは、画像上の片方のレーダ側候補領域から左方向、右方向に車両横幅相等の設定距離離れた位置に端部検出用の左窓領域、右窓領域それぞれを設定し、両方の画像側候補位置のいずれか一方が片方のレーダ側候補領域に位置し、かつ、両方の画像側候補位置の他方が左窓領域、右窓領域のいずれかに位置することを条件として、先行車の左右端部を、画像センサの撮影画像の画像処理結果、レーザレーダの受信処理結果の両方から検出することができ、そのときの両方の画像側候補位置を先行車の左右端部の検出位置に決定して先行車を精度よく認識することができる。
したがって、先行車にリフレクタの破損やリフレクタへの汚泥の付着等が発生し、レーザレーダの受信結果から先行車の左右端部の片方しか検出できないときにも、その検出結果を利用し、画像センサの撮影画像の画像処理結果、レーザレーダの受信処理結果の両方から先行車を精度よく認識することができる。
そのため、常に、画像センサの撮影結果、レーザレーダの受信結果の両方から先行車を精度よく認識することができ、この種の車両認識の信頼性を著しく向上することができる。
また、請求項2、5の構成によれば、画像センサの撮影画像の画像処理により、撮影画像の垂直エッジ画像を形成したため、先行車の左右端部が垂直エッジ画像の左右にエッジピークとして明瞭に出現し、実用的な構成により、両エッジピークの位置から先行車の左右端部の両方の画像側候補位置を精度よく検出することができる。
さらに、請求項3、6の構成によれば、先行車の左右のリフレクタが正常で先行車の左右端部の両方のレーダ側候補領域が検出され、両方のレーダ側候補領域を用いて先行車を認識している状態と、先行車にリフレクタの破損やリフレクタへの汚泥の付着等が発生して先行車の左右端部のいずれか片方のレーダ側候補領域しか検出されず、片方のレーダ側候補領域を用いて先行車を認識している状態とを区別して報知することができるため、認識状態をドライバ等に報知して一層の信頼性等の向上を図ることができる。
つぎに、本発明をより詳細に説明するため、その一実施形態について、図1〜図6にしたがって詳述する。
図1は車両認識装置のブロック図、図2は図1の単眼カメラの画像処理の説明図、図3(a)、(b)は図1のレーザレーダの反射点の受信処理の説明図、図4は図1の動作説明用のフローチャートであり、図5、図6は片方のレーダ側候補領域しか検出しないときの走行状態図、認識処理の説明図である。
<構成>
まず、図1の車両認識装置の構成について説明する。
まず、図1の車両認識装置の構成について説明する。
図1のASV等の自車7は、自車前方を撮影する画像センサとしてのCCDカメラ構成の単眼カメラ8、自車前方を探査する例えばスキャン式のレーザレーダ9を搭載する。
そして、単眼カメラ8は自車7の前方を連続的に撮影し、レーザレーダ9は自車7の前方の前記視野角θの範囲を左右に走査しつつレーザをパルス照射して反射波を受信することをことをくり返す。
また、自車7は、単眼カメラ8の撮影画像の情報、レーザレーダ9の受信結果の情報が入力されるマイクロコンピュータ構成の制御ECU10を備える。
この制御ECU10は、予め設定された先行車認識処理プログラムを実行することにより、つぎの(a)〜(f)の各手段を備える。
(a)画像側検索手段
この手段は、単眼カメラ8の撮影画像を画像処理し、自車7の前方の例えば図7の先行車4の左右端部の画像側候補位置を検索し、この実施形態においては、同様にして先行車4の上下端部の画像側候補位置も検索する。
この手段は、単眼カメラ8の撮影画像を画像処理し、自車7の前方の例えば図7の先行車4の左右端部の画像側候補位置を検索し、この実施形態においては、同様にして先行車4の上下端部の画像側候補位置も検索する。
具体的には、単眼カメラ8の撮影画像の画像処理により、カメラ8の撮影画像(入力画像)の微分画像を2値化処理した(x、y)座標の図2の2値画像Pに、カメラ8の焦点位置等に基づいて、先行車4の左右端部を含む横長の垂直エッジ側注視領域Vaを設定し、この注視領域Vaの各垂直線分(垂直エッジの線分)につき、線分毎に輝度(画像濃度)を加算して垂直エッジ分布図Pvを形成する。
そして、先行車4の左右端部の垂直エッジが、左右対称位置の対のピークエッジになることから、垂直エッジ分布図Pvの左右端部のエッジピーク位置x(L)、x(R)を画像上の先行車4の左右端部の画像側候補位置として検出する。
同様にして、2値画像Pに、先行車4の上下端部を含む縦長の水平エッジ側注視領域Haを設定し、この注視領域Haの各水平線分(水平エッジの線分)につき、線分毎に輝度(画像濃度)を加算して水平エッジ分布図Phを形成する。
そして、先行車4の上下端部の水平エッジが、上下対称位置の対のピークエッジになることから、水平エッジ分布図Phの上下端部のエッジピーク位置y(U)、y(D)を画像上の先行車4の上下端部の画像側候補位置として検出する。
(b)レーダ側検索手段
この手段は、レーザレーダ9の反射点の受信結果から先行車4の左右端部のレーダ側候補領域を検索する。
この手段は、レーザレーダ9の反射点の受信結果から先行車4の左右端部のレーダ側候補領域を検索する。
具体的には、例えば図3(a)の走行状態の一例の説明図に示すように、道路1を自車7が走行し、その前方を、先行車4a又は先行車4b(先行車4aは先行車4が自車7に近い場合を示し、先行車4bは先行車4が自車7から遠い場合を示す)が走行している場合、自車7に搭載されたレーザレーダ9は、自車前方に、図中の視野角θ(θ:12度〜20度)で左右方向に走査しながらレーザをパルス照射し、このパルス照射のレーザが、先行車4a、4bの後ろ側の左右端部のリフレクタ4(L)、4(R)や、道路1のガードレール11のリフレクタ12等によって反射し、これらの反射波を受信したレーザレーダ9が、レーザパルスの送信角度、送受信時間差等に基づき、例えば図3(b)の検出状態の説明図に示すように、リフレクタ4(L)、4(R)、12等の反射点の位置を検出する。なお、図3(b)の4(L)*、4(R)*はリフレクタ4(L)、4(R)の反射点、12*はリフレクタ12の反射点であり、4*は先行車4aのいわゆるボディー反射の反射点である。
そして、レーザレーダ9の受信結果が入力されるレーダ側検索手段は、レーザレーダ9の受信結果が図7のY、YR軸方向に値を持たないので、先行車4a、4bの対の反射点4(L)*、4(R)*のX、XR軸方向の位置から、先行車4a、4bの左右端部、すなわち先行車4の左右端部を検出し、それぞれの検出位置に後述の縦長のレーダ側候補領域を設定する。
(c)主決定手段
この手段は、画像側検索手段が先行車4の左右端部の両方の画像側候補位置を検出し、しかも、先行車4の左右端部の両方のリフレクタ4(L)、4(R)に破損、汚れ等がなく、レーダ側検索手段が先行車4の左右端部の両方のレーダ側候補領域を検出したときに、両方の画像側候補位置と両方のレーダ側候補領域とを画像上で照合し、両方の画像側候補位置と両方のレーダ側候補領域との重合により、両方の画像側候補位置を先行車4の左右両端部の検出位置に決定する。
この手段は、画像側検索手段が先行車4の左右端部の両方の画像側候補位置を検出し、しかも、先行車4の左右端部の両方のリフレクタ4(L)、4(R)に破損、汚れ等がなく、レーダ側検索手段が先行車4の左右端部の両方のレーダ側候補領域を検出したときに、両方の画像側候補位置と両方のレーダ側候補領域とを画像上で照合し、両方の画像側候補位置と両方のレーダ側候補領域との重合により、両方の画像側候補位置を先行車4の左右両端部の検出位置に決定する。
(d)窓領域設定手段
この手段は、画像側検索手段が先行車4の左右端部の両方の画像側候補位置を検出するが、先行車4の左右端部のいずれか一方のリフレクタ4(L)、4(R)に破損、汚れ等があり、レーダ側検索手段が先行車4の左右端部のいずれか片方のレーダ側候補領域しか検出し得ないときに、画像上の片方のレーダ側候補領域から左方向、右方向に車両横幅に相等する設定距離離れた位置それぞれに、後述の端部検出用の左窓領域13(L)、右窓領域13(R)それぞれを設定する。
この手段は、画像側検索手段が先行車4の左右端部の両方の画像側候補位置を検出するが、先行車4の左右端部のいずれか一方のリフレクタ4(L)、4(R)に破損、汚れ等があり、レーダ側検索手段が先行車4の左右端部のいずれか片方のレーダ側候補領域しか検出し得ないときに、画像上の片方のレーダ側候補領域から左方向、右方向に車両横幅に相等する設定距離離れた位置それぞれに、後述の端部検出用の左窓領域13(L)、右窓領域13(R)それぞれを設定する。
(e)補助決定手段
この手段は、窓領域設定手段の設定に基づき、先行車4の両方の画像側候補位置のいずれか一方が片方のレーダ側候補領域に位置した状態で、両方の画像側候補位置の他方が左窓領域13(L)、右窓領域13(R)のいずれかに位置するか否かを検査し、この検査により両方の画像側候補位置の他方が両窓領域13(L)、13(R)のいずれかに位置することを検出したときに、両方の画像側候補位置を先行車4の左右端部の検出位置に決定する。
この手段は、窓領域設定手段の設定に基づき、先行車4の両方の画像側候補位置のいずれか一方が片方のレーダ側候補領域に位置した状態で、両方の画像側候補位置の他方が左窓領域13(L)、右窓領域13(R)のいずれかに位置するか否かを検査し、この検査により両方の画像側候補位置の他方が両窓領域13(L)、13(R)のいずれかに位置することを検出したときに、両方の画像側候補位置を先行車4の左右端部の検出位置に決定する。
(f)認識処理手段
この手段は、主決定手段、補助決定手段の検出位置の決定に基づき、画像上で先行車4の左右端部を検出して先行車4を認識し、この認識の結果を、例えば、図示省略された追従走行制御又は自動ブレーキ制御のECUに供給する。
この手段は、主決定手段、補助決定手段の検出位置の決定に基づき、画像上で先行車4の左右端部を検出して先行車4を認識し、この認識の結果を、例えば、図示省略された追従走行制御又は自動ブレーキ制御のECUに供給する。
なお、先行車4の認識は、例えば、先行車4の左右端部の検出位置から、図2のエッジピーク位置x(L)、x(R)の中点に相当する位置のx座標を検出し、画像上の先行車4の上下端部の画像側候補位置から図2のエッジピーク位置y(U)、y(D)の中点に相当する位置のy座標を検出し、先行車4の上下左右の車両センタの画像上の位置(x、y)を検出することによって行われる。
このとき、検出したエッジピーク位置x(L)、x(R)、y(U)、y(D)及び左右端部のレーダ側候補領域に基づいて、画像上に図8の画像側認識領域6p、レーダ側認識領域6rを設定し、画像上の先行車4の認識精度を評価するようにしてもよい。
さらに、自車7は認識状態報知手段を形成する報知ユニット14を備える。
このユニット14は、例えば、制御ECU10の主、補助決定手段の決定フラグに基づき、制御ECU10の認識処理手段が主、補助決定手段のいずれの決定に基づいて先行車4を認識したかを識別することにより、先行車4の左右端部の両方の画像側候補位置及び左右端部の両方のレーダ側候補領域の検出に基づく先行車4の認識(主認識)と、先行車4の左右端部の両方の画像側候補位置及び左右端部のいずれか片方のレーダ側候補領域の検出に基づく先行車4の認識(補助認識)とを区別して検出する。
そして、検出した認識状態を表示して報知するときは、例えば、自車7のダッシュボードの状態表示パネルに、主、補助認識によって文字、図形を変えたり、それらの色を変えたり、それらを点滅したりする。また、検出した認識状態を音、音声で報知するときは、主、補助認識によって自車7のスピーカ等から出力する音、メッセージ等を変える。
<動作>
つぎに、前記の構成に基づく、図1の車両認識装置の動作について、図4のフローチャート等を参照して説明する。
つぎに、前記の構成に基づく、図1の車両認識装置の動作について、図4のフローチャート等を参照して説明する。
まず、自車7の走行中、単眼カメラ8は自車7の前方を連続的に撮影し、レーザレーダ9は自車7の前方の前記視野角θの範囲を左右に走査しつつレーザをパルス照射して反射波を受信することをことをくり返す。
そして、例えば撮影画像が得られる毎に、画像側検索手段が先行車4の左右端部の両方、上下端部の両方の画像側候補位置を検索して検出し、このとき、先行車4の左右端部の両方のリフレクタ4(L)、4(R)に破損、汚れ等がなく、レーダ側検索手段が先行車4の左右端部の両方のレーダ側候補領域を検出すると、図4のステップS1からステップS2を介してステップS3に移行し、主決定手段により、両方の画像側候補位置と両方のレーダ側候補領域とを画像上で照合し、両方の画像側候補位置が両方のレーダ側候補領域に位置することを条件に、両方の画像側候補位置を先行車4の左右両端部の検出位置に決定する。
さらに、図4のステップS4により、認識処理手段がステップS3の主決定手段の決定に基づき、画像上で先行車4を認識するとともに、図8の評価方法で認識精度を評価してステップS5に移行し、このステップS5により、認識結果を追従走行制御又は自動ブレーキ制御のECUに供給する。
また、図4のステップS6により、報知ユニット14が、先行車4の左右端部の両方の画像側候補位置及び左右端部の両方のレーダ側候補領域の検出に基づく先行車4の主認識状態であることを報知する。
そして、自車7が走行を停止するまで、ステップS6からステップS7を介してステップS1に戻り、このステップS1から処理をくり返す。
つぎに、例えば図5に示すように先行車4の左側のリフレクタ4(L)の破損又はリフレクタ4(L)への泥の付着が発生し、図6に示すように、画像側認識領域6pの先行車4の左右両端部の画像側候補位置(エッジピーク位置)x(L)、x(R)には垂直エッジピーク15(L)、15(R)が生じ、画像側検索手段が先行車4の左右端部の両方の画像側候補位置(エッジピーク位置)x(L)、x(R)を検出するが、レーダ側検索手段が先行車4の左右端部の両方のレーダ側候補領域16(L)、16(R)のうちの例えば右側の片方のレーダ側候補領域13(R)しか検出しない状態になると、図4のステップS2からステップS8を介してステップS9に移行する。
このとき、図6に示すように画像上の片方のレーダ側候補領域13(R)から左方向、右方向に車両横幅に相等する設定距離離れた位置それぞれに、端部検出用の所定の大きさの左窓領域16(L)、右窓領域16(R)それぞれを設定する。
そして、ステップS9からステップS10に移行し、補助決定手段により、画像側候補位置(エッジピーク位置)x(L)、x(R)のいずれか一方が片方のレーダ側候補領域13(R)に位置した状態で、両方の画像側候補位置(エッジピーク位置)x(L)、x(R)の他方が左窓領域16(L)、右窓領域16(R)のいずれかに位置するか否かを検査し、図6のように画像側候補位置x(R)がレーダ側候補領域13(R)に位置して画像側候補位置x(L)が左窓領域13(L)に位置すると、ステップS10からステップS11に移行して両方の画像側候補位置x(L)、x(R)から先行車4を認識した後、ステップS5に移行し、ステップS5、S6により先行車4の認識結果の出力、認識常態の報知を行う。
なお、画像側候補位置(エッジピーク位置)x(L)、x(R)が共に検出されない場合及び、レーダ側候補領域13(L)、13(R)が共に検出されない場合は、認識を行わない。
したがって、先行車4のリフレクタ4(L)、4(R)のいずれかの破損又はリフレクタ4(L)、4(R)のいずれかへの泥の付着が発生し、レーダ側候補領域13(L)、13(R)のいずれか一方が検出されないときにも、検出された他方のレーダ側候補領域13(R)、13(L)を用いて、単眼カメラ8の撮影画像(輝度画像)の画像処理結果と、レーザレーダ9の反射点の受信処理結果との組み合わせにより、先行車4を精度よく認識することができる。
そして、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能であり、例えば、画像センサは単眼カメラ8に限られるものではなく、ステレオカメラ等であってもよい。
ところで、自車7の装備部品数を少なくするため、単眼カメラ8、レーザレーダ9等は追従走行制御、ブレーキ制御等の他の制御のセンサ等に兼用する場合にも適用することができる。
4、4a、4b 先行車
7 自車
8 単眼カメラ
9 レーザレーダ
10 制御ECU
13(L)、13(R) 窓領域
14 報知ユニット
16(L)、16(R) レーダ側候補領域
x(L)、x(R) 画像側候補位置(エッジピーク位置)
7 自車
8 単眼カメラ
9 レーザレーダ
10 制御ECU
13(L)、13(R) 窓領域
14 報知ユニット
16(L)、16(R) レーダ側候補領域
x(L)、x(R) 画像側候補位置(エッジピーク位置)
Claims (6)
- 自車前方を撮影する画像センサの撮影画像を画像処理して自車前方の先行車の左右端部の画像側候補位置を検索し、
自車前方を探査するレーザレーダの反射点の受信結果から前記左右端部のレーダ側候補領域を検索し、
前記両検索により前記左右端部の両方の画像側候補位置及び前記左右端部の両方のレーダ側候補領域を検出したときに、
前記両方の画像側候補位置が画像上の前記両方のレーダ側候補領域に位置することにより、前記両方の画像側候補位置を前記左右端部の検出位置に決定して前記先行車を認識し、
前記両検索により前記両方の画像側候補位置及び前記左右端部のいずれか片方のレーダ側候補領域を検出したときに、
画像上の前記片方のレーダ側候補領域から左方向、右方向に車両横幅相等の設定距離離れた位置に端部検出用の左窓領域、右窓領域それぞれを設定し、
該設定に基づき、前記両方の画像側候補位置のいずれか一方が前記片方のレーダ側候補領域に位置して前記両方の画像側候補位置の他方が前記左窓領域、前記右窓領域のいずれかに位置することにより、前記両方の画像側候補位置を前記左右端部の検出位置に決定して前記先行車を認識することを特徴とする車両認識方法。 - 画像センサの撮影画像の画像処理により、前記撮影画像の垂直エッジ画像を形成し、該垂直エッジ画像のエッジピークの位置から画像側候補位置を検索することを特徴とする請求項1に記載の車両認識方法。
- 先行車の左右端部の両方の画像側候補位置及び前記左右端部の両方のレーダ側候補領域の検出に基づく前記先行車の認識と、前記左右端部の両方の画像側候補位置及び前記左右端部のいずれか片方のレーダ側候補領域の検出に基づく前記先行車の認識とを、区別して報知することを特徴とする請求項1または2に記載の車両認識方法。
- 自車前方を撮影する画像センサと、
自車前方を探査するレーザレーダと、
前記画像センサの撮影画像を画像処理して自車前方の先行車の左右端部の画像側候補位置を検索する画像側検索手段と、
前記レーザレーダの反射点の受信結果から前記左右端部のレーダ側候補領域を検索するレーダ側検索手段と、
前記画像側検索手段が前記左右端部の両方の画像側候補位置を検出し、前記レーダ側検索手段が前記左右端部の両方のレーダ側候補領域を検出したときに、前記両方の画像側候補位置と前記両方のレーダ側候補領域とを画像上で照合し、前記両方の画像側候補位置が画像上の前記両方のレーダ側候補領域に位置することにより、前記両方の画像側候補位置を前記左右両端部の検出位置に決定する主決定手段と、
前記画像側検索手段が前記両方の画像側候補位置を検出し、前記レーダ側検索手段が前記左右端部のいずれか片方のレーダ側候補領域を検出したときに、画像上の前記片方のレーダ側候補領域から左方向、右方向に車両横幅相等の設定距離離れた位置に端部検出用の左窓領域、右窓領域それぞれを設定する窓領域設定手段と、
該窓領域設定手段の設定に基づき、前記両方の画像側候補位置のいずれか一方が前記片方のレーダ側候補領域に位置した状態で前記両方の画像側候補位置の他方が前記左窓領域、前記右窓領域のいずれかに位置するか否かを検査し、該検査により前記両方の画像側候補位置の他方が前記両窓領域のいずれかに位置することを検出したときに前記両方の画像側候補位置を前記左右端部の検出位置に決定する補助決定手段と、
前記主決定手段、前記補助決定手段の検出位置の決定に基づいて前記先行車を認識する認識処理手段とを備えたことを特徴とする車両認識装置。 - 画像側検索手段により、画像センサの撮影画像を画像処理して前記撮影画像の垂直エッジ画像を形成し、該垂直エッジ画像のエッジピークの位置から画像側候補位置を検索するようにしたことを特徴とする請求項4に記載の車両認識装置。
- 先行車の左右端部の両方の画像側候補位置及び前記左右端部の両方のレーダ側候補領域の検出に基づく前記先行車の認識と、前記左右端部の両方の画像側候補位置及び前記左右端部のいずれか片方のレーダ側候補領域の検出に基づく前記先行車の認識とを、区別して報知する認識状態報知手段を備えたことをことを特徴とする請求項4または5に記載の車両認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003397642A JP2005157875A (ja) | 2003-11-27 | 2003-11-27 | 車両認識方法及び車両認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003397642A JP2005157875A (ja) | 2003-11-27 | 2003-11-27 | 車両認識方法及び車両認識装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005157875A true JP2005157875A (ja) | 2005-06-16 |
Family
ID=34722743
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003397642A Withdrawn JP2005157875A (ja) | 2003-11-27 | 2003-11-27 | 車両認識方法及び車両認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005157875A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1837804A1 (en) * | 2006-03-22 | 2007-09-26 | Nissan Motor Co., Ltd. | Object detection |
JP2010151621A (ja) * | 2008-12-25 | 2010-07-08 | Fujitsu Ten Ltd | 信号処理装置、及びレーダ装置 |
KR101080730B1 (ko) | 2010-03-18 | 2011-11-07 | 서강대학교산학협력단 | 차량용 레이더 리플렉터 |
JP2012518793A (ja) * | 2009-02-20 | 2012-08-16 | デジタル・シグナル・コーポレーション | ライダーとビデオ測定を使用する3次元画像の生成システム及び方法 |
WO2015121935A1 (ja) * | 2014-02-13 | 2015-08-20 | 株式会社日立製作所 | 車両連結制御システム |
-
2003
- 2003-11-27 JP JP2003397642A patent/JP2005157875A/ja not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1837804A1 (en) * | 2006-03-22 | 2007-09-26 | Nissan Motor Co., Ltd. | Object detection |
JP2010151621A (ja) * | 2008-12-25 | 2010-07-08 | Fujitsu Ten Ltd | 信号処理装置、及びレーダ装置 |
JP2012518793A (ja) * | 2009-02-20 | 2012-08-16 | デジタル・シグナル・コーポレーション | ライダーとビデオ測定を使用する3次元画像の生成システム及び方法 |
JP2016138878A (ja) * | 2009-02-20 | 2016-08-04 | デジタル・シグナル・コーポレーション | ライダーとビデオ測定を使用する3次元画像の生成システム及び方法 |
KR101080730B1 (ko) | 2010-03-18 | 2011-11-07 | 서강대학교산학협력단 | 차량용 레이더 리플렉터 |
WO2015121935A1 (ja) * | 2014-02-13 | 2015-08-20 | 株式会社日立製作所 | 車両連結制御システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7684590B2 (en) | Method of recognizing and/or tracking objects | |
JP5399027B2 (ja) | 自動車の運転を支援するための、立体画像を捕捉することができるシステムを有するデバイス | |
JP4755227B2 (ja) | 物体を認識するための方法 | |
JP2001351200A (ja) | 車載用物体検知装置 | |
JP2008123462A (ja) | 物体検知装置 | |
JP2018081628A (ja) | 車両制御装置、車両制御方法 | |
JP2017147629A (ja) | 駐車位置検出システム及びそれを用いた自動駐車システム | |
JP4265931B2 (ja) | 先行車両検出装置 | |
JP4052291B2 (ja) | 車両用画像処理装置 | |
JP2011134226A (ja) | 移動ロボットの遠方環境認識装置及び方法 | |
JPWO2017047282A1 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP2003281700A (ja) | 割り込み車両検出装置及びその方法 | |
JP2007279805A (ja) | 障害物衝突判断装置および障害物衝突警告システム | |
JP2005157875A (ja) | 車両認識方法及び車両認識装置 | |
JP2010176592A (ja) | 車両用運転支援装置 | |
JPH04193641A (ja) | 車両用障害物検出装置 | |
JP2006004188A (ja) | 障害物認識方法及び障害物認識装置 | |
JP4899899B2 (ja) | 障害物認識装置及び方法 | |
JP2007115198A (ja) | 車両認識方法及び車載装置 | |
JP2013101432A (ja) | 障害物検出装置及びプログラム | |
JP2011149856A (ja) | 物体識別方法及び物体識別装置 | |
JP2005216200A (ja) | 他車検出装置及び他車検出方法 | |
JP2008249634A (ja) | 対象物検出装置 | |
JP6177632B2 (ja) | 車両位置検出装置および車両後側方警報装置 | |
JPH05113482A (ja) | 車載用追突防止装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070206 |