JP2012078938A - 後方認識装置 - Google Patents
後方認識装置 Download PDFInfo
- Publication number
- JP2012078938A JP2012078938A JP2010221571A JP2010221571A JP2012078938A JP 2012078938 A JP2012078938 A JP 2012078938A JP 2010221571 A JP2010221571 A JP 2010221571A JP 2010221571 A JP2010221571 A JP 2010221571A JP 2012078938 A JP2012078938 A JP 2012078938A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- road surface
- image
- feature
- behind
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】コストを低減できる簡単で安価な画像処理により、撮影手段の後方の撮影画像から、路面ペイント部分が存在していても、自車の後方の路面と車両とを容易に判断して認識できるようにする。
【解決手段】車載カメラ3により、走行する自車1の後方の路面を含む領域を撮影し、その各時刻の撮影両像を射影変換部61により射影変換画像(上面視画像)に変換する。さらに、領域設定部62、記憶部4により、撮影画像の下端から現れた前記射影変換画像における特徴を記憶し、推定部63により、白車速に基づいて所定時間後の前記射影変換画像での前記特徴の位置を推定する。そして、認識部66により、推定された前記所定時間後の位置における前記特徴と記憶された前記特徴との一致度合いに基づいて、前記一致度合いが所定以上の路面部分が路面ペイント部分を含む路面部分であると判断する。
【選択図】図1
【解決手段】車載カメラ3により、走行する自車1の後方の路面を含む領域を撮影し、その各時刻の撮影両像を射影変換部61により射影変換画像(上面視画像)に変換する。さらに、領域設定部62、記憶部4により、撮影画像の下端から現れた前記射影変換画像における特徴を記憶し、推定部63により、白車速に基づいて所定時間後の前記射影変換画像での前記特徴の位置を推定する。そして、認識部66により、推定された前記所定時間後の位置における前記特徴と記憶された前記特徴との一致度合いに基づいて、前記一致度合いが所定以上の路面部分が路面ペイント部分を含む路面部分であると判断する。
【選択図】図1
Description
この発明は、自車後方を認識する後方認識装置に関する。
従来、車両(自車両)に搭載した撮影手段(車載カメラ)の後方の撮影画像は、後方から接近/追従する車両の監視や衝突(追突)防止に有用であるが、そのためには、撮影画像の路面と後方の車両とを判断して認識する必要がある。
そこで、自車後方の時間が前後する2つの撮影画像について射影変換を施した後に差分をとり、その差分から時間ずれが生じた特徴点を検出して動きベクトルのオプティカルフロ−を検出し、この検出に基づいて後方の車両を認識することが提案されている(例えば、特許文献1参照)。
特許文献1に記載の認識では、オプティカルフロ−を検出する複雑な画像処理が必要であるだけでなく、路面ペイント部分と後方の車両とが重なる場合には、それを判断して後方の車両を認識することは容易ではないという問題がある。
本発明は、コストを低減できる簡単で安価な画像処理により、撮影手段の後方の撮影画像から、自車の後方の路面ペイント部分と車両とを容易に判断して認識できるようにすることを目的とする。
上記した目的を達成するために、本発明の後方認識装置は、走行する自車の後方の路面を含む領域を撮影する撮影手段と、前記撮影手段の各時刻の撮影両像を射影変換画像に変換する射影変換手段と、前記撮影画像の下端から現れた前記射影変換画像における特徴を記憶する記憶手段と、白車速に基づいて所定時間後の前記射影変換画像での前記特徴の位置を推定する推定手段と、前記推定手段が推定した前記所定時間後の位置における前記特徴と前記記憶手段に記憶された前記特徴との一致度合いに基づいて路面ペイント部分を含む路面部分であるか否かを判断する判断手段とを備え、前記判断手段は、前記一致度合いが所定以上の路面部分が路面ペイント部分を含む路面部分であると判断することを特徴としている(請求項1)。
請求項1に記載の発明によれば、撮影手段の各時刻の撮影両像は射影変換画像、例えば上面視画像に射影変換される。この上面視画像の下端は路面であり、撮影画像の下端から現れた上面視画像における特徴(画素値(輝度濃度値)、その微分値、ヒストグラム等)は、路面部分が路面ペイント部分であればその模様(数字や記号も含む)の特徴であり、記憶手段に記憶される。そして、ある時刻に自車の下端から現れた部分は上面視画像で下端から次第に上端側に移動する。一方、自車の後方に接近/追従する車両(後方車両)があれば、その画像は上面視画像上で上端側から下端側に移動する。
そして、撮影画像の下端に路面ペイント部分が現れ、所定時間後に撮影画像に現れた後方の車両が後方に移動した路面ペイント部分に重なっても、推定手段により、記憶手段に記憶した路面部分の特徴の前記所定時間後の射影変換画像での位置が推定され、判断手段により、射影変換画像の推定された位置の特徴と、記憶手段に記憶されている特徴との一致度合いが所定以上になるか否かに基づいて、推定された位置の部分が路面部分であるか否か(車両であるか)を精度よく判断し、後方の車両を正確に認識できる。
この場合、オプティカルフローの複雑で高価な画像処理は不要であり、撮影画像を射影変換画像に変換する、コストを低減できる簡単で安価な画像処理により、撮影手段の後方の撮影画像から、自車の後方の路面部分と車両とを容易に判断して後方車両を認識できる。
本発明の実施形態について、図1〜図10を参照して説明する。
(一実施形態)
まず、一実施形態について、図1〜図7を参照して説明する。
まず、一実施形態について、図1〜図7を参照して説明する。
図1は自車1に搭載された本発明の後方認識装置2の一例の構成を示し、自車1は、走行する自車1の後端および後方の路面を含む領域を撮影する撮影手段として、例えば1/30秒のフレーム周期で撮影した自車後方の撮影画像を出力する車載カメラ3を備える。車載カメラ3はモノクロ又はカラーの単眼CCDカメラからなる。
車載カメラ3により撮影された毎フレームの撮影画像やそれらの上面視画像Q等は最新の設定フレーム数ずつ記憶部4に書き換え自在に保持される。
5aはマイクロコンピュータ構成の認識処理ECUであり、記憶部4の撮影画像は、そのまま射影変換してもよいが、路面rの路面ペイント部分以外の不要画像を生じないようにするため、本実施形態では認識処理ECU5aの射影変換部61(本発明の変換手段に対応)により、水平エッジ画像に微分変換した後、周知の射影変換処理と同様の射影変換処理により、上面視画像Qに変換されて記憶部4に保持される。
図2は上面視画像Qの一例の略図を示し、下端が自車1の後端であり、図中のlは路面rの自車1が走行する車線の左右の白線、αは路面ペイント部分、βは後方の車両である。
上面視画像Qの画像下端は、自車1が通過した後の領域になる。そのため、この領域には路面rしか映っていない。
そこで、特徴抽出部62により、毎フレームの上面視画像Qの後方路面を含む領域である白線lで囲まれた車線領域(路面領域)につき、画像下端部から後方に向かって車線幅と一定の高さとを持つ領域γを切り取り、その領域γの特徴(画素値(輝度値)、その微分値、ヒストグラム等)Sを抽出して記憶部4に記憶させる。特徴抽出部62、記憶部4が本発明の記憶手段を形成する。
図3は時刻tの領域γを模式的に示し、車両下端部から現れた路面ペイント部分αが領域γに位置している。この場合、抽出した特徴S(t)は路面ペイント部分αの模様(数字や文字を含む)に応じたものとなり、その領域γは次第に後方にずれて上面視画像Qの上方に移動する。
図4は時刻tに出現した特徴S(t)の領域γの移動例を示し、(a)は抽出された時刻tの特徴S(t)の領域γ、(b)はその領域γのn(n=1、2、…、n)フレーム後の時刻t+nにおける位置を示す。
そして、例えば時刻tから次の時刻t+1までに自車1(正確には車載カメラ3)が動いた量は、自車1の車速から分かり、同様にして、n時間経過後の時刻t+nにおける特徴S(t)の領域γの移動後の位置も求めることができる。
さらに、特徴S(t)の時刻t+nに移動した領域γと後方の車両βとが重なった場合、例えば時刻t+nにおける領域γの特徴をR(t+n、S(t))とすると、特徴R(t+n、S(t))が元の特徴S(t)から変化するか否かから、領域γの時刻t+nの位置が路面rであるか車両βであるかを判断して認識し、車両βの前部の下端を検出して自車1から車両βまでの距離を計測できる。
図5(a)、(b)、(c)、(d)は路面ペイント部分αが次第に上面視画像Qの上方に移動して車両βと重なるようになる場合の画像変化例を示し、本実施形態の場合、路面ペイント部分αに車両βが重なっても、上記の特徴R(t+n、S(t))、S(t)の比較から、路面rであるか車両βであるかを判断して認識し、この認識から、車両βの前部の下端を検出して自車1から車両βまでの距離を計測できる。
そこで、図1の推定部(本発明の推定手段に相当)63は、白車速に基づいて所定時間後、例えば毎フレーム経過後の特徴S(t)の領域γの位置を推定する。
さらに、特徴算出部64は、例えば時刻tからn時間後の時刻t+nの上面視画像Qにつき、特徴S(t)の領域γの推定された位置での特徴、すなわち、特徴R(t+n、S(t))を算出する。
このとき、特徴S(t)は時刻tにおける路面rの領域γの特徴である。そのため、時刻t+nの上面視画像Qにおいて、特徴S(t)の領域γの推定された位置での特徴R(t+n、S(t))が元の特徴S(t)と似ていれば路面rと判断でき、似ていなければ車両βが存在する領域と判断できる。
そこで、図1の一致度算出部65は、例えば毎フレームの撮影時刻からn時間後の時刻t+nの上面視画像Qにおいて、特徴S(t)の領域γの推定された位置での特徴R(t+n、S(t))と元の特徴S(t)との一致度を計算する。
さらに、認識部(本発明の判断手段に対応)66は、算出された一致度から、時刻t+nの上面視画像Qにおける特徴S(t)の領域γの推定された位置が路面rか車両βかを、路面ペイントαと車両βとが重なっていたとしても、精度よく判断して認識し、車両βを確実に検出する。具体的には、例えば特徴R(t+n、S(t))、特徴S(t)の差の絶対値を一致度(非一致度であってもよい)、閾値をThとすると、つぎの(1)、(2)の判断条件にしたがって路面rであるか否か(車両βであるか)を判断する。
(判断条件)
(1)|S(t)−R(t+n、S(t))|≦Thであれば、特徴R(t+n、S(t))の領域は路面rである。
(1)|S(t)−R(t+n、S(t))|≦Thであれば、特徴R(t+n、S(t))の領域は路面rである。
(2)|S(t)−R(t+n、S(t))|>Thであれば特徴R(t+n、S(t))の領域には車両βが存在する。
そして、認識部66により、時刻t、t+1、t+2、…、t+nに特徴S(t)、S(t+1)、…、S(t+n)が生成されるので、逐次、現時刻t+nまでに得られた時刻t、t+1、t+2、…、t+nの特徴S(t)、S(t+1)、…、S(t+n)と、現時刻t+nの上面視画像Qでの特徴S(t)、S(t+1)、…、S(t+n)の推定された位置での特徴R(t+n、S(t))、R(t+n、S(t+1))、…、R(t+n、S(t+n))との一致度(あるいは非一致度)を計算することで、毎フレームに自車1の後方の各路面部が路面rか車両βかが精度よく判断して認識され、後方の車両βが確実に認識されてその前部下端の位置および自車1までの距離が検出される。
図6(a)は時刻t、t+1、t+2、…、t+nの特徴S(t)、S(t+1)、…、S(t+n)の例を示し、同図(b)は時刻t+nの上面視画像Qにおいて、特徴S(t)、S(t+1)、…、S(t+n)と比較される推定された位置での特徴R(t+n、S(t))、R(t+n、S(t+1))、…、R(t+n、S(t+n))が存在する全領域γallの例を示す。
そして、認識部66の認識、検出結果は図示省略された走行支援ECU等に提供され、自車1と車両βの距離、その変化等に基づいて、衝突回避等の走行制御が行われる。
図7は認識処理ECU5aの処理手順例を示し、撮影画像が上面視画像Qに射影変換され(ステップA1)、その領域γの特徴S(t)を算出して記憶し(ステップA2)、所定時間後の上面視画像での領域γの位置を推定し(ステップA3)、推定した位置の特徴R(t+n、S(t))と記憶している特徴S(t)との一致度(非一致度)を算出し(ステップA4)、一致度が閾値Th以上か否かによって路面rであるか否か(車両βであるか)を判断する(ステップA5〜A7)。
以上説明したように、本実施形態の場合、オプティカルフローの複雑で高価な画像処理は不要であり、撮影画像を射影変換画像である上面視画像Qに変換する、コストを低減できる簡単で安価な画像処理により、車載カメラ3の後方の撮影画像から、自車1の後方の路面rの部分と車両βとを容易に判断して後方の車両1を精度よく認識できる。
(他の実施形態)
他の実施形態について、図8〜図10を参照して説明する。
他の実施形態について、図8〜図10を参照して説明する。
前記一実施形態において、車載カメラ3の撮影画像から水平エッジを抽出した画像を作成し、それを変換した上面視画像Qは、路面ペイント部分αが映っていなければ、水平エッジが現れるのは後方の車両βが存在するときだけになる。この場合、車両βの下端は前記のような特徴比較を行わなくても、水平エッジを検出して簡単に認識できる。
そこで、本実施形態の場合は、一実施形態の認識処理ECU5aに代えて設けられた認識処理ECU5bの処理負担を軽減して一層コストを低減するため、上面視画像Qの下端部に水平エッジが現れたときだけ算出した特徴S(t)を記憶する。
そして、各時刻の上面視画像Qの特徴と記憶した特徴とを比較すれば、路面ペイント部分αと車両βとが重なっても自車1の後方の路面rの部分と車両βとを容易に判断して後方の車両1を精度よく認識できる。
この場合、路面rの路面ペイント部分αでない部分の特徴S(t)は算出して記憶する必要がないので、計算の負担を一層低減できる。
図8は本実施形態に適用される本発明の後方認識装置2の他の例を示し、この後方認識装置2が図1の一例と異なるのは、前記したように認識処理ECU5aに代えて認識処理ECU5bを備える点である。
本実施形態の認識処理ECU5bは、上記のように上面視画像Qの下端部に水平エッジが現れたときだけ算出した特徴S(t)を算出して記憶部4に記憶する。また、路面ペイントαと車両βが重なれば、図5(a)〜(d)からも明らかなように、水平エッジの特徴部分が、路面ペイント部分αから、路面ペイント部分αと車両βが重なった部分に大きくなる(長く変形する)ことに着目し、上面視画像Qのクラスタを抽出して追跡監視し、特徴S(t)のクラスタが大きくなるか否かによって路面ペイント部分αと車両βとを判断する。
そのため、車載カメラ3の撮影画像Pは認識処理ECU5bの射影変換部71により水平成分が上面視画像Qに変換される。そして、上面視画像Qはクラスタ抽出部72に取り込まれ、クラスタ抽出部72は、毎フレームの上面視画像Qの後方路面を含む領域である白線lで囲まれた車線領域(路面領域)につき、後述のj軸の各座標で水平エッジ成分を累積してそのヒストグラムを形成し、ヒストグラムの設定された閾値を越える部分のクラスタを生成する。さらに、各クラスタは、クラスタ追跡部(本発明の推定手段を形成)73により、ラベルを付す等して個別に認識されて位置が推定され、記憶部4に前回保持した各クラスとの連続性等から各クラスタが時系列に追跡される。
図9(a)は図2と同様の上面視画像Qの一例の略図を示し、下端が自車1の後端であり、図中のlは路面rの自車1が走行する車線の左右の白線、αは路面ペイント部分、βは後方の車両である。なお、図9(a)に示したように、上面視画像Qの左上部を原点として、横軸をi軸、縦軸(高さ軸)をj軸とする。図9(b)は前記クラスタの生成例を示し、Hはヒストグラムである。
クラスタ追跡部73の上記監視に基づき、自車1に接近する動きを示すクラスタのうちで最も近いものを後方の車両の下端部として認識するだけでは、路面ペイント部分αと車両βが重なる場合、車両βの部分と路面ペイント部分αのヒストグラムが隣接するので1つのクラスタとして抽出されてしまい、接近/追従する車両β及び、その下端を正しく検出できない。
そこで、クラスタ追跡部73は、撮影画像の下端から現れた上面視画像Qにおける特徴として、撮影画像の下端から路面ペイント部分αのクラスタが始めて出現したときの上面視画像Qでのクラスタの大きさ(面積)を、そのクラスタにラベルを付して記憶部4に記憶する。さらに、白車速に基づいて所定時間後の上面視画像Qでの前記特徴の位置を推定して追跡する。
認識部(本発明の判断手段に相当)74は、路面ペイント部分αのクラスタが各時刻に移動した位置の部分それぞれが、撮影画像の下端から現れた当初の大きさに対して閾値以下でクラスタの一致度合いが所定以上であれば、それらの位置の部分は路面rであると判断し、撮影画像の下端から現れた当初の大きさに対して閾値以上に大きくなって長くなると、それらの位置の部分は、路面ペイント部分αと重なっているか否かにかかわらず車両βであると判断し、この判断に基づき、路面rか車両βかを、路面ペイントαと車両βとが重なっていたとしても、精度よく判断して認識し、車両βを確実に検出する。なお、認識部74の、検出結果も図示省略された走行支援ECU等に提供され、自車1と車両βの距離、その変化等に基づいて、衝突回避等の走行制御が行われる。
図10は認識処理ECU5bの処理手順例を示し、撮影画像が上面視画像Qに射影変換され(ステップB1)、その路面領域の路面ペイント部分αのクラスタが算出されて生成され、下端に新たに出現した路面ペイント部分αのクラスタは記憶保持される(ステップB2)。さらに、生成された路面ペイント部分αのクラスタが追跡され(ステップB3)、当初の大きさの変化からクラスタの一致度合いが算出され(ステップB4)、一致度合いが所定以上であれば路面ペイント部分αを含む路面rの部分であると判断し(ステップB5、B6)、一致度合いが所定以下であれば車両βであると判断する(ステップB5、B7)。
したがって、本実施形態の場合、路面ペイント部分αについてのみ特徴比較であるクラスタの比較を行なえばよいので、一層コストを低減できる簡単で安価な画像処理により、車載カメラ3の後方の撮影画像から、自車1の後方の路面rの部分と車両βとを容易に判断して後方の車両1を精度よく認識できる。
そして、本発明は上記した両実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能であり、例えば、認識処理ECU5a、5bの構成や処理手順等は前記両実施形態の構成や処理手順に限定されるものではない。
つぎに、前記両実施形態においては撮影画像Pを上面視画像Qに射影変換したが、本発明の射影変換画像は、上面視画像Qに限るものではなく、種々の方向の射影変換画像であってよく、例えば車載カメラ3の視線の射影変換画像であってもよい。
そして、本発明は、種々の車両の後方認識装置に適用することができる。
1 自車
2 後方認識装置
3 車載カメラ
4 記憶部
5a、5b 認識処理ECU
61、71 射影変換部
62 特徴抽出部
63 推定部
64 特徴算出部
65 一致度算出部
66、74 認識部
72 クラスタ抽出部
73 クラスタ追跡部
α 路面ペイント部分
β 車両
r 路面
2 後方認識装置
3 車載カメラ
4 記憶部
5a、5b 認識処理ECU
61、71 射影変換部
62 特徴抽出部
63 推定部
64 特徴算出部
65 一致度算出部
66、74 認識部
72 クラスタ抽出部
73 クラスタ追跡部
α 路面ペイント部分
β 車両
r 路面
Claims (1)
- 走行する自車の後方の路面を含む領域を撮影する撮影手段と、
前記撮影手段の各時刻の撮影両像を射影変換画像に変換する射影変換手段と、
前記撮影画像の下端から現れた前記射影変換画像における特徴を記憶する記憶手段と、
白車速に基づいて所定時間後の前記射影変換画像での前記特徴の位置を推定する推定手段と、
前記推定手段が推定した前記所定時間後の位置における前記特徴と前記記憶手段に記憶された前記特徴との一致度合いに基づいて路面ペイント部分を含む路面部分であるか否かを判断する判断手段とを備え、
前記判断手段は、前記一致度合いが所定以上の路面部分が路面ペイント部分を含む路面部分であると判断することを特徴とする後方認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010221571A JP2012078938A (ja) | 2010-09-30 | 2010-09-30 | 後方認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010221571A JP2012078938A (ja) | 2010-09-30 | 2010-09-30 | 後方認識装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012078938A true JP2012078938A (ja) | 2012-04-19 |
Family
ID=46239150
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010221571A Withdrawn JP2012078938A (ja) | 2010-09-30 | 2010-09-30 | 後方認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012078938A (ja) |
-
2010
- 2010-09-30 JP JP2010221571A patent/JP2012078938A/ja not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11170466B2 (en) | Dense structure from motion | |
US10169667B2 (en) | External environment recognizing device for vehicle and vehicle behavior control device | |
JP3780922B2 (ja) | 道路白線認識装置 | |
EP2933790B1 (en) | Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method | |
EP2815383B1 (en) | Time to collision using a camera | |
JP4832321B2 (ja) | カメラ姿勢推定装置、車両、およびカメラ姿勢推定方法 | |
JP5251800B2 (ja) | 対象物追跡装置及びプログラム | |
US9177196B2 (en) | Vehicle periphery monitoring system | |
JP2008186246A (ja) | 移動物体認識装置 | |
JP6458651B2 (ja) | 路面標示検出装置及び路面標示検出方法 | |
JP2010256995A (ja) | 物体認識装置 | |
US11514683B2 (en) | Outside recognition apparatus for vehicle | |
JP2008309519A (ja) | 画像処理を用いた物体検出装置 | |
JP2012252501A (ja) | 走行路認識装置及び走行路認識用プログラム | |
WO2011016257A1 (ja) | 車両用距離算出装置 | |
JP7003972B2 (ja) | 距離推定装置、距離推定方法及び距離推定用コンピュータプログラム | |
JP2020201876A (ja) | 情報処理装置及び運転支援システム | |
US20240153106A1 (en) | Object tracking device | |
JP5903901B2 (ja) | 車両位置算出装置 | |
JP5760523B2 (ja) | 走路推定装置及びプログラム | |
JP7134780B2 (ja) | ステレオカメラ装置 | |
JP2018073049A (ja) | 画像認識装置、画像認識システム、及び画像認識方法 | |
JP2012078938A (ja) | 後方認識装置 | |
JP4847303B2 (ja) | 障害物検出方法、障害物検出プログラムおよび障害物検出装置 | |
JP6429101B2 (ja) | 画像判定装置、画像処理装置、画像判定プログラム、画像判定方法、移動体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20131203 |