JP4857909B2 - 物体検出方法および物体検出装置 - Google Patents

物体検出方法および物体検出装置 Download PDF

Info

Publication number
JP4857909B2
JP4857909B2 JP2006143329A JP2006143329A JP4857909B2 JP 4857909 B2 JP4857909 B2 JP 4857909B2 JP 2006143329 A JP2006143329 A JP 2006143329A JP 2006143329 A JP2006143329 A JP 2006143329A JP 4857909 B2 JP4857909 B2 JP 4857909B2
Authority
JP
Japan
Prior art keywords
information
type
detection
object detection
importance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006143329A
Other languages
English (en)
Other versions
JP2007315814A (ja
Inventor
倫子 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2006143329A priority Critical patent/JP4857909B2/ja
Publication of JP2007315814A publication Critical patent/JP2007315814A/ja
Application granted granted Critical
Publication of JP4857909B2 publication Critical patent/JP4857909B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Description

本発明は、レーダやカメラなどの入力手段を用いて物体を検出する物体検出装置に関する。
従来、車両において入力手段からの入力と、データベースに保存されたデータとを比較して物体の種類を判定する装置が知られている(例えば、特許文献1参照)。
この従来技術では、カメラで撮像した画像情報から特徴ベクトルを抽出し、抽出した特徴ベクトルと、あらかじめデータベースに保存された検出対象に固有の特徴ベクトルとを比較することで、検出対象の検出を行うものである。
特開2002−083297号公報
しかしながら、上述の従来技術は、固有の特徴ベクトルに基づいて検出対象の検出を行う構成となっているため、検出精度を高くするには、事前に、検出対象とその特徴ベクトルとの対応関係を厳格に対応させておく必要がある。特に、検出対象の種類数を複数設定した場合、その種類ごとに設定する必要がある。
このように、従来技術にあっては、検出精度を高くするには、初期設定に手間を要するという問題があった。
本発明は、上述の従来の問題点に着目して成されたもので、初期設定が容易でありながら、高い検出精度を得ることができる物体検出方法および物体検出装置を提供することを目的とする。
上述の目的を達成するために、本発明は、入力手段からの入力に基づいて得られる外界に存在する物体に関する情報を、あらかじめ設定された物体の種類とその判定に用いる情報ごとの重要度とに基づいて設定された重要度特性と照合することで物体の種類を判定し、この物体の種類判定結果が正しい場合、前記重要度特性におけるその物体の種類判定に用いられた情報の重要度を増加させることを特徴とする物体検出方法とした。
本発明の物体検出装置では、物体検出を行いながら、物体の種類判定の正否に基づいて物体の種類の判定に必要な情報の重要度特性の重要度が更新され、物体の種類とその判定に必要な情報の重要度との相関性が高まる。すなわち、どの種類の物体の検出に、どの情報が必要であるかが、常に実際の種類判定結果に基づいて更新され、重要度特性の適正化を図ることができ、検出精度が高まる。
よって、重要度特性の初期の設定を厳格に行う必要が無くなり、初期設定が容易でありながら、検出精度を向上させることができる。
以下、本発明の実施の形態を図面に基づいて説明する。
この実施の形態の物体検出装置は、入力手段からの入力に基づいて得られる外界に存在する物体に関する情報に基づいて物体の検出を行う物体検出処理手段を備えた物体検出装置であって、前記物体検出処理手段が、前記情報を、あらかじめ設定された物体の種類とその検出に用いる情報の重要度とに基づいて設定された重要度特性と照合することで物体の種類を判定する物体判定処理と、この物体判定処理における判定結果が正しい場合に、前記重要度特性におけるその物体の種類の判定に使用された情報の重要度を増加させる更新処理と、を行うことを特徴とする。
図1〜図13に基づいて本発明の最良の実施の形態の実施例1の物体検出装置について説明する。
実施例1の物体検出装置は、図1に示すように、車両MBに搭載されており、入力手段としてカメラ1、レーダ2、物体検出処理手段としてのコントロールユニットCUとを備えている。
カメラ1は、例えば、車室内の図示を省略したルームミラーの近傍位置に搭載されている。このカメラ1としては、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)のカメラなどの輝度画像を撮像する輝度カメラと赤外線画像を撮像する赤外カメラとの少なくとも一方を用いることができるが、本実施例1では、輝度カメラを用いている。
レーダ2としては、ミリ波レーダやレーザレーダや超音波レーダを用いることができるが、本実施例1では、レーザレーダを使用している。なお、レーザレーダの場合、検出物体の情報として、距離とレーザ光の反射強度とを得ることができる。また、ミリ波レーダの場合、検出物体の情報として、距離・電波の反射強度・車両MBと検出物体との相対速度を得ることができる。
コントロールユニットCUは、図2に示すように、カメラ1とレーダ2を含む車載のセンサ群10から信号を入力して、物体を検出し、さらにその種類を識別する物体検出処理を行うもので、RAM(Random Access Memory),ROM(Read Only Memory),CPU(Central Processing Unit)などを備えた周知のものである。
図2は、このコントロールユニットCUにおいて物体検出処理を行う構成を機能的に表したもので、コントロールユニットCUは、メモリ11と、変換処理部12と、物体判定処理部13と、正否判定処理部14と、更新処理部15と、データベース16と、を備えている。
メモリ11には、カメラ1が撮像した輝度画像情報と、レーダ2が検知した検波情報とが保存される。
ここで、カメラ1で得られる輝度画像情報の一例を図3により説明する。
図3は、車両(自車両)MBの前方に車両(他車両)ABと人物(歩行者)PEと道路構造物としての壁WOとが存在する場合の画像の一例を示しており、これらがカメラ1の撮像面1aにおいて同図(d)に示す輝度画像情報として投影される。なお、図3において(a)は、横から見た状態を示し、(b)は上から見た状態を示し、(c)はカメラ1として赤外線カメラを用いた場合の赤外画像を示しており、他車両ABにおいて図中MPは高温として捉えられている部分(マフラ部分)を示している。
また、以下の説明において、検出対象物体としての車両ABは、実施例1の物体検出装置が搭載された車両MBと区別するために、他車両ABと称し、かつ、車両MBは自車両と称する。
図3では、カメラ1の路面への垂直投影点PAから人物(歩行者)PEの路面への垂直投影像における自車両MB側の端点PFまでの距離をz、点PAと点PFとのx軸方向の間隔をxsとしている。
そこで、基準座標をカメラ1のレンズ1bの中心を原点とすると、基準座標系における点PFの位置は、(xs,−H,z)と表され、撮像面1aの画像上において点PFが位置する座標(xc,yc)は、焦点距離fを用いて、下記の式(1)および式(2)の関係で表される。
xc=xs・f/z ・・・(1)
yc=−H・f/z ・・・(2)
輝度画像情報は、このようなx、y、z軸の座標ごとに保存される。なお、図では基準座標系の原点をレーダ2の中心位置として示しているが、カメラ1のレンズ中心においてもよく、その場合は、カメラ1とレーダ2の取り付け位置関係を記憶しておき、両者の取付位置の差だけ平行移動させる計算を行うようにする。なお、図1においてカメラ1とレーダ2との位置を異ならせて表示しているが、以後の説明では、計算式と図の簡略化のため、カメラ1のレンズ中心とレーダ2の中心軸は同じ位置にあるものとして説明する。
次に、レーダ2による検波情報の一例を図4に示す。
図4は、図3で説明した検知例から時間が経過した後の検知例を示しており、(a)はその検知例の輝度画像情報を示し、(b)はその検知例を上方から見た状態を示している。この図に示すように、自車両MBの前方に存在する他車両ABと人物(歩行者)PEと壁(道路構造物)WOと二輪車MSにおいて反射したレーザ光を検出することで、物体が存在することを検出できる。なお、図4(b)において丸印で示したqP,qA,qW,qMが、それぞれ各物体の計測点を示している。また、これら計測点qP,qA,qW,qMは、その丸印の大きさが後述する反射強度を表している。
そこで、メモリ11では、反射波が観測された方位ごとに、計測点までの距離とその反射強度とが保存される。
次に、変換処理部12について説明する。
この変換処理部12では、輝度画像情報を変換するとともに、検波情報を変換する情報変換処理とが行われる。
この輝度画像情報を変換する処理としては、図5に示すように、カメラ1から得られる輝度画像情報に対して、縦エッジ、横エッジ、エッジ強度を検出するエッジ検出処理と、方向ベクトルを算出する方向ベクトル算出処理と、オプティカルフローを算出するオプティカルフロー処理とが成される。
また、検波情報を変換する処理としては、レーダ2からの検波情報から得られる計測点に基づいて相対速度を求める処理が成される。
ここで、エッジ検出処理と、エッジの方向ベクトルの求め方を図6と図7を用いて説明する。
図6において(a)(b)は縦エッジ検出用フィルタを示し、同図(c)(d)は横エッジ検出用フィルタを示している。なお、図6(a)〜(d)に示すエッジ検出用フィルタは、黒がマイナス、白がプラスの値を持つものとし、詳細には、図6(e)(f)に示すように、エッジ検出用フィルタ内の数値合計値が0になるように値が設定されている。
エッジの検出は、これらのエッジ検出用フィルタを利用し、例えば検出領域内を1画素ずつ縦横にずらしてコンボリューション(たたみこみ(掛け合わせ))をとることで検出領域の全ての画素位置における縦エッジおよび横エッジの強さを算出する。
これらのエッジ検出用フィルタを用いたエッジ検出をさらに説明すると、図8の(a)は、他車両ABが撮像された領域Rabのエッジ検出の様子を概念的に示している。この図において(e)は横エッジ検出用フィルタを適用した例であり、同様に縦エッジ検出用フィルタを用いて同様の処理を行う。また、図8(b)は壁WOが撮像された領域のエッジの算出原理の説明図である。
例えば、画像上において縦エッジが存在する図8(g)と(h)の位置において、縦エッジ検出用フィルタと横エッジ検出用フィルタとでコンボリューションをとると、(g)の位置での縦エッジ検出用フィルタの値が大きくなるが、(h)の位置での横エッジ検出用フィルタの値は0に近い値となる。また、(j)のエッジのない位置では、縦横いずれのエッジ検出用フィルタを適用した場合も値は0に近い値となり。また、(i)のような斜めのエッジを持つ部分では、縦エッジ検出用フィルタと横エッジ検出用フィルタとのいずれも 値を持つが、(g)の位置ほど大きくない(絶対値でほぼ半分程度)の値となる。
このように、エッジ検出用フィルタを用いたエッジ検出では、エッジが存在しない位置では、縦横どちらのエッジ検出用フィルタのコンボリューション値も小さく、エッジが存在する位置では、そのエッジの傾きに近い方のエッジ検出用フィルタとのコンボリューション値が高くなる。そして、その縦横エッジ検出用フィルタとのコンボリューション値の絶対値の和がそのエッジの強さを示すことになる。
次に、画像上のエッジが存在する部分において、そのエッジの方向ベクトルを算出する方法の具体例を説明する。
前述したように、縦エッジでは縦エッジ検出用フィルタが高い値を示し、横エッジ部分では横エッジ検出用フィルタが高い値を示す。一方、斜めエッジの場合には、縦横両エッジ検出用フィルタとのコンボリューションが値を持つが、エッジが縦向きに近い傾きであれば、縦エッジ検出用フィルタの値の方が、横エッジ検出用フィルタの値よりも大きな値となる。
また、図8の(k)の位置と(g)の位置とにおけるコンボリューションを比較した場合、両者はプラスマイナスが逆になり、絶対値はほぼ同じ値となる。
図7は、このようなエッジの方向と、コンボリューション値のプラスマイナスおよび絶対値との関係を表している。例えば、図6の(a)(b)に示した縦エッジ検出用フィルタと横エッジ検出用フィルタを用いて求めたコンボリューション値をDx、Dyとすると、エッジの角度は、atan(Dx/Dy)で算出可能である。すなわち、この計算を検出領域の各画素において行うことで、検出領域の細かなエッジの方向ベクトルを算出することができる。
また、上述したエッジ強度は、|Dx+Dy|で求めることができる。
なお、後述する種類識別判定処理に用いるエッジの方向ベクトルの分散は、上述した方法で得られた各方向ベクトルについて、分散を算出することで得ることができる。
次に、オプティカルフローについて説明する。
オプティカルフローとは、ある時刻の画像上において、画像上のある点(xc、yc)に表示された映像と、その映像がΔt秒後に位置する画像上の点を結んだ矢印のことであり、一般的に画像上に撮像されたある物体上のある点の動きを示すこととなる。このようなオプティカルフローは、ブロックマッチングや勾配法など、従来提案されているいずれかの手法を適用して求めることができる。
このオプティカルフローについて、図4および図9を用いて具体的に説明する。
これらの図4および図9では、人物PEが止まっている一方、他車両ABが自車両MBと同方向に前進している場合を示しており、図9は図4に示す時点からΔt秒後の状態を示している。また、両図において、(a)はカメラ1の画像であり、(b)はレーダ2による検出領域を上方から見た状態を示している。
ここで図4において人物PEを示す値xc1,yc1,hc1は、図9に示すΔt秒後には、前述した式(1)(2)において、分母となるzの値だけが小さくなるため、自車両MBの前進に伴って大きくなる。そこで、オプティカルフローの矢印は消失点VP(画像上の前方の無限遠点が撮像される点のことであり、カメラ1の光軸LZを路面RSと平行にした場合は、画像中心が消失点VPとなる)から遠ざかる方向に長くなる。
同様に、壁WOの上にある点なども、止まっているため、オプティカルフローは長くなる。また、これらのオプティカルフローは、消失点VPを中心としてそこから画像の外側に向く矢印となる。
そこで、図9の(a)に示す人物PEのオプティカルフローは、足元では右下向きとなり、画像の中心近くの頭部付近では右向きとなる。
一方、他車両ABは、自車両MBと等速運動をしていると仮定すると、距離関係が略一定で前述の式(1)(2)においてzの値が変化しないため、オプティカルフローの長さは短くなる。
次に、変換処理部12の変換処理について説明する。
ここで、レーダ2からの検波情報に含まれる反射強度について説明する。
前述したように図9に示す計測点qP,qA,qWの丸印の大きさは、反射強度の強さを示している。
一般にレーザレーダの場合は、表面が光を反射する物体(金板製看板や反射板)を検出すると強い反射強度が観測される。一般に車両(他車両AB)には、その後部に2個以上のリフレクタ(夜、光を照らすと光を効率よく反射するための反射板であり、夜間の視認性を助けるために取り付けられている)が設けられている。また、二輪車MSにも、1個以上のリフレクタが必ず取り付けられている。また、路上でもカーブ上の側壁やセンターポールなどには、反射板が設けられている場合も多い。さらに、路上の道路標識や看板は、金板製であり、一般にレーザレーダの照射光をよく反射する。
それに対して、人物PEや動物などの自然物は、反射効率は低い。そのため、図9(b)に示す他車両ABの計測点qAにおいては、リフレクタに相当する位置から強い反射強度の計測点が観測されるため、丸印が大きく表示されている。それに対して、壁WOや人物PEの計測点qP,qWでは、比較的低い反射強度で丸印も小さく表示されている。
そこで、レーダ2の強度分布を求める処理を行う。なお、1つの物体上の計測点は、図9に示すように、検出対象物ごとに塊となったグループ化が行われる。これらの計測点は強度情報をもっているので、グループ毎に、その物体の特徴を示す特徴量を求める。
なお、通常、同一の物体の反射強度は、距離が長くなるほど弱くなる。そこで、本実施例1では、反射強度値は、距離に応じた強度値として保存される。この手法としては、反射強度を距離ごとに求めるか、あるいは、あらかじめ基準となる距離を求めておき、(計測した距離/基準の距離)の4乗を乗算した値を保存する。ちなみに、反射強度は、ほぼ距離の4乗に比例して弱くなるという特徴を有していることから、このような値として保存する。
また、レーダ2の検波情報には、距離の情報が含まれている。そこで、変換処理部12では、この距離情報に基づいて検出対象となる物体の相対速度を求める。
すなわち、レーダ2による計測点との距離を時系列的に観測し、この距離の変化から相対速度を求める。この相対速度は、同じ計測点における、ある一定時間の距離変化/観測時間で求めることができる。
次に、データベース16について説明する。
データベース16には、物体判定処理部13において物体判定処理に用いる図10に示す重要度特性表PGが保存されている。この重要度特性表PGは、図示のように、検出対象となる物体の種類と、この物体の種類の判定に利用される情報の重要度とが設定されている。
すなわち、本実施例1では、物体の種類の判定対象として、人物PE、車両(他車両AB)、二輪車MS、道路構造物の4種類が設定されている。一方、物体の種類の判定に使用する情報としては、図示のように、「縦エッジ」「横エッジ(水平エッジ)」「細かな動き」「エッジ強度」「(エッジの)方向ベクトル分散」「反射強度」「相対速度」が設定されている。なお、「細かな動き」は、オプティカルフローの分布から得る。
そして、この重要度特性表PGでは、物体の検出に用いる情報の重要度が、検出対象となる物体の種類ごとに「高い」「低い」で設定されている。この重要度は、実際には、0〜1の係数で設定されている。また、本実施例1では、「高い」と設定された情報の重要度は、初期設定値は、0.5であり、「低い」と設定された情報の重要度は、0.5よりも低い小数に初期設定されている。
ここで、図10に示す物体の種類と、その判定に用いられる情報との相関関係について説明を加える。
一般的に、他車両ABや二輪車MSの後部にはリフレクタ(反射板)が設けられている。そのため、レーダ2の計測点の反射強度が高いことから、他車両ABや二輪車MSの種類判定には、反射強度の有効度が高く、また、反射強度が高いことから距離の計測が正確に行われる。また、他車両ABと二輪車MSの差異として、一般的に画像上において他車両ABの場合は、水平エッジが強く長いが、二輪車MSの場合、形状が人物PEと似ているため、特徴的な直線エッジが無く、エッジの方向性の分散が大きい(エッジがいろいろな方向を向く)という特徴がある。
つまり、他車両ABは、レーダ2の反射強度が高く距離が確実に算出され、水平エッジが多く観測されるという特徴を有している。また、二輪車MSは、レーダ2の反射強度が高く、エッジの方向分散が大きく観測されるという特徴を有している。
また、人物PEは、一般的に形状の特徴などから輝度画像情報に特徴を有している。すなわち、一般的にその形状が縦長であることから、横方向のエッジは少ないが縦方向のエッジが多く観測される。また、人物PEの独特の足などの動き(つまりオプティカルフローの分布)から細かな動きが多く観測されるという特徴を有している。なお、先に述べた乗車した二輪車MSは、形状が人物PEとほぼ同一であることから、輝度画像情報上は人物PEと二輪車MSとの特徴が類似している。しかし、レーダ2の検波情報では、人物PEは、反射強度が低く、二輪車MSは反射強度が高いという特徴を有している。
また、道路構造物は、一般的に、形状の規定が難しい。しかし、人工物であることからエッジの強度と直線性が強いという特徴を有している。さらに、道路構造物は、停止物であることから、時系列的な観測において、動かない物体である。したがって、オプティカルフローや相対速度が自車両MBに近づく動きとして観測される。
以上のように、物体の種類により各情報との相関性が異なることから、図10の重要度特性表PGは、この相関性が強い情報ほど、その重要度が高く設定されている。
次に、物体判定処理部13について説明する。
この物体判定処理部13では、物体が存在するか否かの判定と、その種類の判定が行われる。また、本実施例1では、物体が存在するか否かの判定は、全ての物体について行われ、物体の種類の判定は、図10に示した4種類のいずれに該当するかが判定される。
物体が存在する場合、輝度画像に関する情報としては、エッジやエッジ強度やエッジの方向ベクトルなどが観測される。また、レーダ2の検波情報に関する情報としては、強い反射強度や、距離および相対速度の情報が観測される。
そこで、物体の存在の有無を判定するにあたって、本実施例1では、図11に示すXZ平面の投票表を用いる。この投票表TSは、X軸とZ軸とのそれぞれを、あらかじめ設定されたΔx,Δzの小領域に分割したグリッドを有している。これらΔx,Δzは、例えば、1mや50cm程度の分解能とするもので、また、投票表TSの大きさ、すなわち、z軸方向寸法、x軸方向寸法は、物体検出の要求距離や、物体検出精度などに応じて任意に設定されている。
なお、図では、投票表TSに加えて、カメラ1からの情報である輝度画像KP、そのエッジ成分距離EK、レーダ2からの情報である反射強度RK、距離LK、および参考例である赤外カメラからの情報である温度画像SPを示している。また、図11では、検出例として、他車両AB、人物PE、道路構造物としての樹木TRが検出されている場合を示している。
そして、図10に示した判定用の各情報(縦エッジ、横エッジ、細かな動き、エッジ強度、方向ベクトル分散、反射強度、相対速度)について、それらが観測された位置に対応する投票表TSの領域に、それらの値が投票される。
具体例を、図11を用いて説明すると、例えば、エッジ強度画像において方位θAに、縦エッジTAが観測されている。そこで、本例では、レーダ2による距離の計測では、この方位θAの距離L2に物体が観測されているとする。そこで、このような場合には、縦エッジTAに相当する値を、投票表TSの方位θA、距離L2の位置に投票する。
このような投票処理が、上記の重要度特性表PGに示した各情報について行われる。図11では、これらの情報を縦棒状に表しており、また、情報の種類別に表示形状を異ならせている。この図11に示されるように、物体が存在する場合には、その位置に多くの投票が加算されることから、投票値が高い位置には、物体が存在すると判定される。
具体的には、図11に示す例では、距離L1のX軸の両端部付近や、距離L2の位置の中央部や、距離L3のX軸図中左側端部などには、投票値が高い部分が存在している。そこで、これらの位置に物体が存在すると判定される。
さらに、物体判定処理部13では、これらの物体が存在すると判定された物体について、その種類を判定する処理が行われる。
この種類の判定処理には、データベース16に保存された図12に示す判定特性表HLが用いられるもので、投票表TSの各領域に投票された情報の種類と、図12の判定特性表とを照合して、物体の種類の判定が行われる。
例えば、方位θAかつ距離L2の領域およびその近傍には、強い反射強度を示す値(縦棒)が投票されている。また、図示は省略するが、横エッジも強い値が投票されているものとする。一方、また、この領域では、相対速度が低く、方向ベクトル分散も低いことから、これらの値は投票されていない。
そこで、これらの情報と、図12の判定特性表HLとを照合することで、この領域に存在する物体は、他車両ABであると判定することができる。そして、このような照合を、物体が存在すると判定された各領域において行うことで、物体の種類の判定が行われる。
次に、正否判定処理部14について説明する。
この正否判定処理部14では、物体判定処理部13において判定された物体の種類が正しいか否か、すなわち正否を判定する。
ここで、本実施例1では、ある物体が存在すると判定された場合に、その物体の種類の判定結果として、あらかじめ設定された時間を超えて、一定の判定結果が連続して得られる場合に、その判定結果が正しいと判定する。
すなわち、同じ検出物体の種類の判定結果として、常に一定の判定結果が得られるとは限らないもので、例えば、光の反射や背景と物体との関係などの外乱要素の影響などにより、ある時点では、二輪車MSと判定していたものを、次の時点では、人物PEと判定するなど、判定結果が途中で変わることがある。
そこで、本実施例1では、このような判定結果の変化が生じることなく、設定時間を超えて、物体の種類の判定結果が連続して一定である場合には、その判定結果が正しいと判定する。なお、この設定時間とは、例えば、1秒〜3秒程度の時間とする。
次に、更新処理部15について説明する。
この更新処理部15は、正否判定処理部14において正しいと判定されたときに、図10に示す重要度特性表PGの重みを更新する。すなわち、物体判定処理部13において、判定結果が正しいと判定された物体の種類判定に用いられた情報の重みを増加させる。
例えば、投票表のθA、L2の領域に反射強度と横エッジの情報が投票されており、この情報に基づいて、図12の判定特性表HLに基づいて他車両ABと判定し、これが正解であった場合、図10の重要度特性表PGにおいて、車両の横エッジと反射強度の重要度を増加させる更新処理を行う。
なお、この増加は、重要度にあらかじめ設定された小数を加算するか、あるいは所定の値を乗算するものであり、また、この重要度の最大値は、「1」とし、「1」を超える増加は成されないようになっている。
さらに、本実施例1では、上記更新処理を行う際には、正解の判定に用いられた情報が全て用いられるとは限らず、以下の条件を満たした情報に限られる。すなわち、本実施例1では、ある種類の物体を検出し、その種類の判定が成される際に、この種類判定に用いられる情報も記憶されるようになっている。そして、物体の種類判定において、設定時間を越えて同一の種類の判定結果が連続して得られ、かつ、情報についても、設定時間を越えて連続してその判定に用いられた情報が更新用の情報として記憶される。
なお、本実施例1では、この設定時間は、n回連続して判定されることとしており、例えば、nは、4〜5としている。
また、本実施例1では、この更新される情報について、連続して正しい判定結果が得られた際に用いられた情報について、その種類の物体の種類判定に、最初に用いられた情報については、初回は、更新用の情報として記憶されないように、フラグなどにより条件が設定されている。すなわち、ある一定時間中利用されなかった情報が、その画像情報や検波情報として取得され、判定に使用された場合、それが、設定時間を越えてその情報が得られ、かつ、この情報を使用し設定時間を越えて同一種類の判定が成されていても、初回は、更新用の情報として記憶されない。そして、その後、同一種類の判定に、その情報が継続して使用された場合に、初めて更新用の情報として記憶される。
以上のように構成された実施例1の物体検出装置にあっては、以下に述べる効果を有する。
実施例1では、正否判定処理部14において、物体の種類判定結果が正しいか否か判定し、正しい場合に、その判定に用いられた情報について、重要度特性表PGにおける重要度を増加させる更新を行うようにした。
したがって、初期の「重要度」の設定が、精度の高い設定としなくても、使用するのに従って、どの種類の物体種類判定に、どの情報が必要であるかが、実際の判定結果に基づいて徐々に更新され、適正な値となる。そして、このようにして、「重要度」が適正になることで、物体の種類の判定精度も向上する。
さらに、本実施例1では、更新処理部15にあっては、「重要度」の更新を行う条件として、その判定に用いられている情報の種類が、設定時間を越えて連続的に一定である場合に行うようにした。
したがって、ノイズや太陽や路面のエッジなどの外乱による影響を排除して、「重要度」の更新を適正に行うことができる。
さらに、本実施例1では、上述の「重要度」の更新を行うのにあたり、物体の種類の判定に初めて使用された情報については、更新を行わないようにした。これにより、「重要度」の更新の適正化を図ることができる。
これについて説明を加えると、例えば、他車両ABを判定する場合、その輝度画像上の特徴は、エッジ強度が高く、エッジが直線状に現れる。そこで、このような情報が時間的に連続して検出されている場合、たまたまこの物体上に一瞬異なるエッジがノイズとして乗ってしまった場合であっても、他のエッジがきちんと検出されている場合には、一般的には、他車両ABとして判定され、かつ、それが正しいと判定されることがあり得る。
このときの物体の種類の判定に用いられた情報の全てについて、その「重要度」を更新してしまうと、たまたま一瞬乗ってしまった実際には物体の種類の判定には不必要な情報についても、「重要度」の更新が成されるおそれがある。
特に、輝度画像上では、検出対象の物体の周囲に撮像される背景に含まれる物体や模様(例えば、路上の人物PEの足の間などに撮像される背景や建物、あるいは他車両ABと一緒に取り込まれる路面や白線など)がその物体の情報として処理されることがある。このような処理は、道路上で生じやすい。
また、周囲に存在する照明や太陽の光や太陽の反射光が、その物体の上に重なっている状態で、物体が撮像されることは頻繁に起こり得る。
このような背景に含まれる物体や模様、あるいは物体に重なる光は、物体の誤検出や種類の誤判定の要因ともなりうる情報である。
これらについて図面を用いて説明すると、図13(a)に示すように、輝度画像上において他車両ABが検出されている場合に、同図(b)に示すように、他車両ABとして検出されている領域R01に強い光FRaが重なったり、同図(c)に示すように、領域R01に、背景に存在する壁WOのエッジEd1や路面の白線WLによるエッジEd2が含まれたりする場合がある。
このような場合、単に、正しいか否かだけの判定では、たまたま入ってしまった図13(b)の光FRaが差し込んだために観測された斜めエッジEd3,Ed3や、図13(c)の白線WLや壁WOによるエッジEd1,Ed2も、他車両ABの特徴量として、「重要度」が増加されることになる。
しかし、本実施例1では、連続して判定に用いられた一定の情報であって、複数回の判定に用いられた情報の「重要度」を更新するようにしたため、本来、物体の種類の判定には不要な、一瞬だけ乗ってしまうような外乱要素を除去して、必要な情報の「重要度」を増加することができる。これによって、物体の種類の判定精度を高めることができる。
また、上述のように、連続して判定に用いられている情報についても、初回は「重要度」増加しないようにしているが、2回目以降は、増加させるようにしている。
これにより、同じ物体を連続して検出しているが、例えば、物体の向きが変化した場合のように、確実に物体の検出および種類の判定が成されている場合、適正に「重要度」の増加が成される。
例えば、検出対象の物体の背面を撮像していたが、その物体の側面を撮像するように位置関係が変化した場合など、入力される情報の種類が変化する場合がある。
そこで、本実施例1では、種類の判定に利用され、その判定が正解で、かつ、連続して入力されている情報であっても、初回のものは、更新の対象から排除しているが、初回以降は、更新の対象となる。よって、上述のように、物体との位置関係が変化して、入力される情報の種類が変化した場合など、物体の判定結果が正しく、情報が連続して入力されているものは、2回目以降は、更新の対象となるため、「重要度」の適正化を図ることができる。
また、実施例1では、物体判定処理において、全ての物体検出を対象とするため、あらかじめ種類判定に設定されていない物体であっても物体が存在すると判定することができる。このため、物体の存在の検出精度が高い。
次に、本発明の実施の形態の実施例2の物体検出装置について説明する。なお、この実施例2を説明するにあたり、前記実施例1と同一ないし均等な部分については、図示を省略するかあるいは同一符号を付して説明を省略し、構成が相違する部分を中心として説明する。
この実施例2は、実施例1の変形例であり、物体判定処理部13における種類判定処理の内容が実施例1と異なる。
この実施例2は、検出する物体の種類が先に決められている例である。
図14は、他車両ABと人物PEのみを検出対象とする投票例を示している。ここで、他車両ABに関する情報は、他車両ABが長い水平垂直の直線を必ず持つことから、縦エッジと横エッジが観測されやすく、かつ、レーダ2からの検波がリフレクタで反射されるため、レーダ2の強い反射が観測されるという特徴を有している。一方、人物PEの情報は、方向ベクトル分散が非常に大きいという特徴を有している。
これらのことから、投票表に投票する情報は、「縦エッジ、横エッジ、方向ベクトル分散値、レーダ強度」の4種類に絞られている。
そして、実施例1と同様に、これらの情報が観測された方位および距離に対応する領域に投票が行われる。
その投票結果を示すのが、図14であって、この図に示すように、図11に示される実施例1の投票例と比較して、投票される情報の数が少なくなっており、図11に示されていた樹木TRに関する情報などが投票されていないのが分かる。
また、本実施例1では、横エッジが多数観測され、反射強度が強く観測された物体を、他車両ABと判定する。一方、方向ベクトル分散が大きく、縦エッジが観測された物体を人物PEと判定する。
このように、実施例2にあっては、あらかじめ設定された物体のみを検出しその種類判定を行うようにしたため、物体の全てを検出するのと比較して、判定に用いる情報が、物体の種類の特徴を顕著に表す情報のみで済み、その情報の数が少なくなる。
よって、入力した情報の変換処理や、物体の検出および種類判定の処理が、物体の全てを検出するのと比較して、簡易になり、構成の簡略化および処理速度の向上を図ることができる。
さらに、検出対象となる物体以外の誤検出が減り、対象物だけを検出できるという利点を有する。
しかも、実際に対象とする物体の特徴的な情報以外は投票しないため、ノイズや対象物以外の物体や背景の特徴を誤って検出するなどの誤検出も減り、物体の種類判定精度を向上させることができる。
次に、本発明の実施の形態の実施例3の物体検出装置について説明する。なお、この実施例3を説明するにあたり、他の実施例と同一ないし均等な部分については、図示を省略するかあるいは同一符号を付して説明を省略し、構成が相違する部分を中心として説明する。
この実施例3は、物体検出・種類判定部の処理が実施例1および実施例2と異なる例であって、この実施例3では、投票表を用いずに物体の検出および種類判定を行うようにしている。
すなわち、この実施例3では、物体の検出および種類判定において、輝度画像情報に関連した情報と検波情報に関連した情報との中から、検出対象となる物体の特徴が観測される領域の有無を判定し、このような領域が存在すると判定された場合に、その検出対象の物体が存在すると判定する。
以下に、検出対象を人物PEとした場合を例に挙げて説明する。
この場合、まず、データベースの判定特性表HLに基づいて、人物PEの検出に必要な情報を確認し、これらの情報が多く含まれている位置を、輝度画像上およびレーダ2の検出走査範囲から検索する。
この検索において、本実施例3では、人物PEに相当する縦エッジ量、細かな動き、方向ベクトル分散が観測される領域の有無を判定する。
また、この検索は、例えば、輝度画像の場合、人物PEは縦長であるので、例えば、図15(a)に示すように、x:y=10画素:20画素の小領域SRを用い、1〜数画素ずつこの小領域をずらしながら行う。そして、図15(a)に示す例であれば、x=xc2,y=yc2を基準点とする位置の小領域SR04や、x=xc0,y=yc0を基準点とする小領域SR05あるいはSR06において、人物PEに対応する縦エッジ量、細かな動き、方向ベクトル分散が観測される。
また、レーダ2の検索も同様に、人物PEの幅を基準とした小領域Δθで検索し、「人物程度の幅」や「人物程度の反射強度」が観測される計測点qP1,qP2の存在の有無を判定する。例えば、レーダ2が、1走査で0.25度程の範囲(Δθ)の走査を行う場合、3〜4走査=1度程度に計測周期を設定し、3〜4点連続する計測点の有無を判定する。
なお、計測点の幅および反射強度は、同じ物体を検出していても、距離に応じて変化する。すなわち、距離が遠くなるほど、計測点の幅が狭くなるとともに、反射強度は低くなるため、これを考慮する。
例えば、人物の幅を30cm程度とすると、この幅は、約10m先で、2度(atan0.3/10)、約20m先で1度程度の幅に相当する。そこで、20m程度)の距離(例えば、z=z2)では、3〜4点、10m程度の距離(例えば、z=z0)では、6〜7点の計測点が人物PEの反射強度程度で観測される領域の有無を判定する。
また、反射強度についても、人物PEの距離と反射強度との関係をあらかじめ入力しておき、これに対応する反射強度の有無を判定する。
以上、実施例3では、人物PEを検出する場合を例に挙げて説明したが、他車両ABや二輪車MSについても、同様に、その物体の種類に応じた特徴的な情報を設定し、そのような情報が検出される小領域の有無に基づいて、物体の検出を行うものとする。
この実施例3では、物体の種類ごとに検出を行うことから、他の物体の誤検出が生じにくく、検出精度を向上することができる。
次に、図16により本発明の実施の形態の実施例4の物体検出装置について説明する。なお、この実施例4を説明するにあたり、他の実施例と同一ないし均等な部分については、図示を省略するかあるいは同一符号を付して説明を省略し、構成が相違する部分を中心として説明する。
実施例4は、正否判定処理部414の正解判定処理が実施例1と異なる。すなわち、この実施例4では、正解の判定を人が行った結果が入力されるようになっている。
この実施例4では、物体判定処理部13の判定結果が、ディスプレイ装置などの呈示手段41に出力されるようになっている。
そして、この呈示手段41に表示された物体の存在および種類判定結果と、実際の物体の存在の有無および種類と、を人が照合し、正解の物体の表示出力箇所に、ボタンあるいはマウスなどの入力操作手段42により正否の入力を行う。
正否判定処理部414では、この正しいと入力が成された物体について、その正解の判定結果を示す信号が、更新処理部15へ出力される。
この実施例4の物体検出装置は、データベース16の重要度特性を構築する過程などにおいて適用することができる。
次に、本発明の実施の形態の実施例5の物体検出装置について説明する。なお、この実施例5を説明するにあたり、他の実施例と同一ないし均等な部分については、図示を省略し、あるいは同一符号を付して説明を省略し、構成が相違する部分を中心として説明する。
実施例5は、更新処理部15において、更新処理を実行する情報についての条件が、さらに付加された例である。
すなわち、実施例5では、変換処理部12の以降の処理に用いる情報について、しきい値が設定されている。
具体的には、横エッジおよび縦エッジについて、あらかじめ設定されたしきい値以上のエッジ強度のエッジのみを用いるようにしている。また、方向ベクトル分散の算出についても、その分散を求める対象を、エッジ強度のしきい値を越えたエッジについて行うようにしている。
検波情報については、しきい値以上の反射強度の計測点から求めた距離や相対速度の情報のみを用いるようにしている。
この結果、正否判定処理部14の判定結果を受けて、「重要度」が更新されるのは、上記しきい値を越えた情報およびこの情報により算出された情報に限られることになる。
一般に、輝度画像情報と検波情報とに基づいて物体の検出および種類の判定を行う場合には、輝度画像上のエッジ強度が高い部分や、検波情報の反射強度が高い場合、それらのエッジの存在や反射強度が強く観測された位置で検出された物体までの距離は、誤計測や誤判定が少なく、確実性が高い。
一方で、エッジ強度が低い部分は、例えば、太陽光の変化などによるノイズが含まれたり、反射強度が弱い部分は、距離や相対速度の算出に誤判定が含まれたりするというように、エッジ強度が高い位置や反射強度が高い部分の情報に比べて確実性が低い。
このことから、本実施例5では、エッジ強度および反射強度の高い情報のみを使用するため、データベース16における重要度特性表PGの「重要度」の更新において、ノイズ成分を含む誤った情報に基づく重みの更新が抑制され、確実にその種類の物体であることを示す情報の重みだけが更新される。
これにより、物体の検出精度および種類判定精度の向上を図ることができる。
次に、図17により本発明の実施の形態の実施例6の物体検出装置について説明する。なお、この実施例6を説明するにあたり、他の実施例と同一ないし均等な部分については、図示を省略し、あるいは同一符号を付して説明を省略し、構成が相違する部分を中心として説明する。
実施例6の物体検出装置では、その判定結果を運転支援装置501に出力し、かつ、その運転支援の正否に基づいて、物体の検出および種類判定結果の正否の判断を行うようにした例である。
この運転支援装置501は、実施例6の物体検出装置のコントロールユニットCUから出力される物体の検出結果に応じて、運転者の運転支援を行う。この運転支援の内容としては、駐車時に車両の周囲に存在する物体を報せて、自車両MBが物体と接触するのを回避する支援や、走行時に先行車両との車間を保ったり、道路上の物体との衝突を回避したりする支援など種々存在するが、本実施例6にあっては、その支援内容については特定しない。
また、運転支援装置501は、情報を呈示する呈示手段502を備えている。この呈示手段502は、ディスプレイあるいは音などにより、自車両MBの周囲に存在する物体を報せる構成となっている。
さらに、運転支援装置501には、この運転支援装置501が、何らかの運転支援あるいは呈示手段502を用いて何らかの物体に関する呈示を行った際に、図外の運転者が、その支援内容あるいは呈示内容が正しく実行されたか否かの判定結果を入力する入力操作手段503が設けられている。この入力操作手段503としては、例えば、押しボタンやタッチパネルあるいは音声入力手段などを用いることができる。なお、入力は、正しく行われた際に入力することもできるし、正しく実行されなかったときに入力するようにしてもよい。
また、本実施例6では、コントロールユニットCUには、図17に示すように、入力操作手段503から正否に関する信号が入力される運転支援正否判定処理部517が設けられている。そして、本実施例6では、正否判定処理部14による正否の判定に加えて、運転支援装置501による支援の正否の判定結果に基づいて、両者で正しいと判定された場合に、更新処理部515が、「重要度」を増加する更新を行う。
すなわち、物体検出装置による物体の検出結果は、運転支援装置501で利用されることが多いが、確実に検出すべき物体の種類は、運転支援装置501によって異なる。例えば、駐車の際に運転支援を行う装置の場合、自車両MBの周囲の物体を検出すればよく、100m前方の他車両ABの検出は不要である。逆に、車間距離を保持する運転支援を行う装置の場合は、100m以上離れた他車両ABの検出が重要となる。
このように、運転支援装置501の運転支援内容によって、確実に検出すべき物体が異なる。そこで、本実施例6のように、単に物体の検出結果の正否のみではなく、運転支援装置501の支援結果の正否判定を行うことで、データベース16の重要度特性表PGの「重要度」が、運転支援装置501の運転支援に対応した「重要度」に近づけることができ、運転支援装置501にとって効果的な物体の検出が可能となる。
さらに、運転支援装置501は、同じ運転支援内容であっても、運転者が走行する道路環境によって、検出すべき対象が異なる場合もある。例えば、例えば、夜に歩行者の多い都市部を走行する運転者であれば、夜間の歩行者(人物PE)の検出が重要となるが、昼に高速道路を走ることの多いトラックなどは、前方の他車両AB高速道路用の車両検出が重要となる。
このような場合、本実施例6では、運転支援を実際に行う状況に応じて、「重要度」の更新が行われることから、運転者の運転環境に合わせて物体の検出および種類判定の確実性が向上し、様々な運転者の個々に最適な運転支援に結び付けられるという利点を有している。
次に、本発明の実施の形態の実施例7の物体検出装置について説明する。なお、この実施例7を説明するにあたり、他の実施例と同一ないし均等な部分については、図示を省略し、あるいは同一符号を付して説明を省略し、構成が相違する部分を中心として説明する。
実施例7は、更新処理部15において、更新処理を実行する情報についての条件を、実施例1で示した条件にさらに付加した例である。
すなわち、実施例7では、更新処理部15の更新処理において、図18のフローチャートに示す処理を行う。
ステップ701では、正否判定処理部14において正しいと判定されたか否かを判定し、YESすなわち正解判定時にはステップ702に進む。
ステップ702では、物体判定処理部13の判定結果が、同一の物体に対し設定時間を超えて同一の種類の判定結果が得られたか否か判定し、YESすなわち設定時間を超えて同一種類の判定結果が得られている場合には、ステップ703に進む。
ステップ703では、物体判定処理部13の判定に用いられた情報の時系列的な分散があらかじめ設定されたしきい値未満であるか否か判定し、YESすなわち分散がしきい値未満である場合に、ステップ704に進む。
ステップ704では、上記の条件を満たした情報の「重要度」を増加させる更新を行う。
すなわち、ある物体を検出している間は、同じ情報が得られ続けられる。また、それは同じ対象物であれば急激にその情報の量が変化することもない。
例えば、ある先行車両ABの横エッジを検出し続けている場合であれば、その強度と長さは、常に同程度の強度と長さが検出され続ける。一方、対向車ライトなど他の影響が入ると、一瞬だけ、異なる情報が入り、その量が変化する。
したがって、確実に検出されている情報は、その情報の種類が検出されつづけているだけでなく、その量や強さや長さや形状も急激に変化することなく、一定して同程度の量や強さや長さや形状が観測される。
そこで、本実施例7では、更新処理部15において、各情報の分散を算出し、この分散が、「一定である」と判定できるしきい値未満であることを更新の条件としている。
また、本実施例7では、過去10回程度で連続して検出された情報の分散を求める用にしている。
以上のように、実施例7では、重み更新対象となる情報の時系列的に見たときの分散がしきい値以下である情報だけを更新するようにしたため、「重要度」の更新において、ノイズや一瞬の光や反射などの検出に不必要、または、誤検出につながるような情報の「重要度」を増加させることを排除して、正確な物体検出およびその種類判定につながる「重要度」の更新が可能になる。
以上、図面を参照して、本発明の実施の形態および実施例1ないし実施例7を詳述してきたが、具体的な構成は、この実施の形態および実施例1ないし実施例7に限らず、本発明の要旨を逸脱しない程度の設計的変更は、本発明に含まれる。
例えば、実施例1〜7では、本発明の物体検出方法および物体検出装置として、車両に搭載して実行するものを示したが、これに限定されず、産業ロボットなど車両以外にも適用することができる。
図10に示した、重要度特性表PGは、使用するセンサに応じて、適宜設定されるものであり、物体の種類と情報の重要度との相関関係、実施例で示した情報に限定されるものではない。また、実施例1で用いた重要度特性表PGは、全ての情報について重み付け「高い」「低い」を示したが、物体の種類によっては、情報を判定に使用しない場合もあり、その場合、重み付けは「0」と設定するものとする。
また、実施例1では、重要度特性表PGおよび判定特性表HLにおいて、相対速度を用いたが、これに代えて実速度を用いてもよい。なお、この実速度は、相対速度と自車速度とを加算することで得られる。
また、実施例2では、検出対象として、他車両ABと人物PEの例を示したが、これに限定されない。例えば、検出対象を他車両ABのみとすることもでき、この場合、投票表に投票する情報として、方向ベクトル分散を外す。
また、実施例6では、実施例1で説明した正否判定処理部14による物体種類判定結果が正しいとの判定と、運転支援正否判定処理部517への運転支援制御が正しく行われたとの判定と、の両方が成された場合に、更新処理部515が重要度特性(表PG)の重要度の更新を行うようにした例を示した。しかし、運転支援正否判定処理部517の運転支援制御が正しく行われたかの判定のみに基づいて更新処理部515が更新処理を行うようにしてもよい。
本発明の実施の形態の実施例1の物体検出装置を搭載した車両MBを示す概略図であり、(a)は側方から見た図、(b)は上方から見た図である。 本発明の実施の形態の実施例1の物体検出装置のコントロールユニットCUを機能的に表したブロック図である。 前記実施例1の物体検出装置におけるカメラ1の画像情報を説明する図であって、(a)は横から見た状態を示し、(b)は上方から見た状態を示し、(c)はカメラ1として赤外線カメラを用いた場合の赤外画像を示し(d)カメラ1の撮像面1aに投影された輝度画像を示している。 前記実施例1の物体検出装置における輝度画像情報と検波情報との比較例で、(a)は画像情報を示し、(b)は検波情報による計測点を示している。 前記実施例1の物体検出装置における変換処理部12の変換処理の説明図である。 前記実施例1の物体検出装置におけるカメラ1の画像情報の情報変換処理で用いるソーベルフィルタを示す概略図である。 前記実施例1の物体検出装置におけるカメラ1の画像情報の情報変換処理において、エッジの方向ベクトルの求め方の説明図であり、(a)は垂直エッジ成分算出用のフィルタを示し、(b)は水平エッジ成分算出用のフィルタを示し、(c)はエッジ強度とエッジ方向ベクトルとの関係を示している。 本発明の実施の形態の実施例1の物体検出装置によるエッジ検出の説明図で、(a)は他車両ABの横エッジの検出例を示し、(b)はエッジの算出原理を示している。 本発明の実施の形態の実施例1の物体検出装置によるオプティカルフローの説明図であり、(a)は図4の状態から時間が経過したときのオプティカルフローを示し、(b)はそのレーダの距離検出の状態を示している。 本発明の実施の形態の実施例1の物体検出装置における重要度特性表PGを示す特性図である。 本発明の実施の形態の実施例1の物体検出装置の物体種類判定処理における投票例の説明図である。 本発明の実施の形態の実施例1の物体検出装置における判定特性表HLを示す特性図である。 本発明の実施の形態の実施例1の物体検出装置の作用を説明する説明図であり、(a)は一般的な物体の画像情報、(b)は物体に光が重なった状態の画像情報、(c)は物体の検出領域に背景や路面の模様が重なった状態の画像情報を示している。 本発明の実施の形態の実施例2の物体検出装置の物体種類判定処理における投票例の説明図である。 本発明の実施の形態の実施例3の物体検出装置による物体判定処理の一例を示す説明図であり、(a)はカメラ1による輝度画像情報を示し、(b)はレーダ2による距離検出の状態を示している。 本発明の実施の形態の実施例4の物体検出装置を示すブロック図である。 本発明の実施の形態の実施例5の物体検出装置を示すブロック図である。 本発明の実施の形態の実施例7の物体検出装置の更新処理部における更新処理を示すフローチャートである。
符号の説明
1 カメラ(画像情報取得手段))
2 レーダ(検波情報取得手段)
11 メモリ
12 変換処理部
13 物体判定処理部
14 正否判定処理部
15 更新処理部
16 データベース
CU コントロールユニット(物体検出処理手段)

Claims (6)

  1. 画像情報取得手段により取得された物体検出対象領域の物体に関する画像情報と、検波情報取得手段により前記物体検出対象領域を検出波で走査して得られた検出波の反射に基づく前記物体に関する検波情報と、を含む前記物体検出対象領域に存在する物体に関する情報を用いて前記物体の検出を行う物体検出方法であって、
    前記物体の種類ごとにその判定に用いる前記情報の重要度があらかじめ設定された重要度特性に応じて重みづけた情報を、前記物体検出対象領域に対応した投票表に投票し、さらに、この投票表の同一領域に投票された前記情報の種類と、あらかじめ前記物体の種類に対応して前記情報の特性の違いを関連付けた判定特性表とを照合することで前記物体の種類を判定し、
    前記物体の種類判定結果が、あらかじめ設定された時間を超えて連続して得られる場合に種類判定結果が正しいと判定する正否判定を行い、この物体の種類判定結果が正しいと判定された場合、前記重要度特性におけるその物体の種類判定に用いられた情報の重要度を増加させることを特徴とする物体検出方法。
  2. 画像情報取得手段により取得された物体検出対象領域の物体に関する画像情報と、検波情報取得手段により前記物体検出対象領域を検出波で走査して得られた検出波の反射に基づく前記物体に関する検波情報と、を含む前記物体検出対象領域に存在する物体に関する情報を用いて前記物体の検出を行う物体検出処理手段を備えた物体検出装置であって、
    前記物体検出処理手段が、
    前記物体の種類ごとにその判定に用いる前記情報の重要度があらかじめ設定された重要度特性に応じて重みづけた情報を、前記物体検出対象領域に対応した投票表に投票し、さらに、この投票表の同一領域に投票された前記情報の種類と、あらかじめ前記物体の種類に対応して前記情報の特性の違いを関連付けた判定特性表とを照合することで前記物体の種類を判定する物体判定処理と、
    前記物体の種類判定結果があらかじめ設定された時間を超えて連続して得られる場合に種類判定結果が正しいと判定する正否判定処理を行う正否判定処理手段により前記物体判定処理において判定された前記物体の種類判定結果が正しいと判定された場合、前記重要度特性におけるその物体の種類判定に用いられた情報の重要度を増加させる更新処理と、
    を行うことを特徴とする物体検出装置。
  3. 前記更新処理を実行するのが、前記正否判定結果が正しい場合に加え、前記画像情報に含まれるエッジ強度が、あらかじめ設定されたしきい値以上であり、かつ、前記検波情報に含まれる反射強度が、あらかじめ設定されたしきい値以上である場合であることを特徴とする請求項2に記載の物体検出装置。
  4. 前記更新処理を実行するのが、前記正否判定結果が正しいのに加え、その物体の検出に用いられている情報の種類が、時系列的に連続して一定である場合であることを特徴とする請求項2または請求項3に記載の物体検出装置。
  5. 前記更新処理において、前記重要度の更新対象となる情報は、時系列的な分散があらかじめ設定されたしきい値未満の情報に制限されていることを特徴とする請求項2〜4のいずれか1項に記載の物体検出装置。
  6. 前記物体検出処理手段の前記物体の種類判定結果が、この判定結果に基づいて運転支援処理を行う運転支援処理手段に出力され、
    この運転支援処理手段による運転支援処理が正しく実行されたと判定された場合に、前記物体検出処理手段の種類判定の判定結果が正しいと判定する第2の正否判定処理手段が設けられていることを特徴とする請求項2〜5のいずれか1項に記載の物体検出装置。
JP2006143329A 2006-05-23 2006-05-23 物体検出方法および物体検出装置 Expired - Fee Related JP4857909B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006143329A JP4857909B2 (ja) 2006-05-23 2006-05-23 物体検出方法および物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006143329A JP4857909B2 (ja) 2006-05-23 2006-05-23 物体検出方法および物体検出装置

Publications (2)

Publication Number Publication Date
JP2007315814A JP2007315814A (ja) 2007-12-06
JP4857909B2 true JP4857909B2 (ja) 2012-01-18

Family

ID=38849815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006143329A Expired - Fee Related JP4857909B2 (ja) 2006-05-23 2006-05-23 物体検出方法および物体検出装置

Country Status (1)

Country Link
JP (1) JP4857909B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4753053B2 (ja) * 2008-02-15 2011-08-17 本田技研工業株式会社 物体種別判定装置、物体種別判定方法、及び物体種別判定用プログラム
JP6077785B2 (ja) * 2012-08-21 2017-02-08 株式会社豊田中央研究所 対象物検出装置及びプログラム
JP5921596B2 (ja) * 2014-04-30 2016-05-24 三菱電機株式会社 画像処理装置および画像処理方法
JP2016008922A (ja) * 2014-06-25 2016-01-18 株式会社東芝 センサ情報融合装置
JP6058072B2 (ja) * 2015-05-29 2017-01-11 三菱電機株式会社 物体識別装置
JP6252549B2 (ja) * 2015-05-29 2017-12-27 株式会社デンソー 物体検出装置
JP6752024B2 (ja) * 2016-02-12 2020-09-09 日立オートモティブシステムズ株式会社 画像処理装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3669205B2 (ja) * 1999-05-17 2005-07-06 日産自動車株式会社 障害物認識装置
JP4624594B2 (ja) * 2000-06-28 2011-02-02 パナソニック株式会社 物体認識方法および物体認識装置
JP3636150B2 (ja) * 2002-03-12 2005-04-06 日産自動車株式会社 走路上反射物の物体種類判定方法
JPWO2004102222A1 (ja) * 2003-05-13 2006-07-13 富士通株式会社 物体検出装置、物体検出方法、物体検出プログラム、距離センサ
JP4857840B2 (ja) * 2006-03-22 2012-01-18 日産自動車株式会社 物体検出方法および物体検出装置
JP4857839B2 (ja) * 2006-03-22 2012-01-18 日産自動車株式会社 物体検出装置
JP2007255977A (ja) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd 物体検出方法および物体検出装置
JP4830604B2 (ja) * 2006-04-17 2011-12-07 日産自動車株式会社 物体検出方法および物体検出装置

Also Published As

Publication number Publication date
JP2007315814A (ja) 2007-12-06

Similar Documents

Publication Publication Date Title
US10690770B2 (en) Navigation based on radar-cued visual imaging
JP6773540B2 (ja) 車載用画像処理装置
JP4857840B2 (ja) 物体検出方法および物体検出装置
JP4830604B2 (ja) 物体検出方法および物体検出装置
US10317231B2 (en) Top-down refinement in lane marking navigation
JP4426535B2 (ja) 車両の周辺監視装置
JP4857839B2 (ja) 物体検出装置
JP4857909B2 (ja) 物体検出方法および物体検出装置
US8311283B2 (en) Method for detecting lane departure and apparatus thereof
US7103213B2 (en) Method and apparatus for classifying an object
JP2007255977A (ja) 物体検出方法および物体検出装置
US7672514B2 (en) Method and apparatus for differentiating pedestrians, vehicles, and other objects
JP5145585B2 (ja) 物標検出装置
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
JP2008123113A (ja) 歩行者検知装置
JP2003084064A (ja) 前方車両の認識装置及び認識方法
Suzuki et al. Sensor fusion-based pedestrian collision warning system with crosswalk detection
JP2007304033A (ja) 車両の周辺監視装置、車両、車両の周辺監視方法、および車両の周辺監視用プログラム
TWI531499B (zh) Anti-collision warning method and device for tracking moving object
JP4296287B2 (ja) 車両認識装置
JP2009245042A (ja) 交通流計測装置及びプログラム
JP4753053B2 (ja) 物体種別判定装置、物体種別判定方法、及び物体種別判定用プログラム
JP2010176592A (ja) 車両用運転支援装置
JP2006258507A (ja) 前方物体認識装置
JPH0843083A (ja) 先行車検出装置及び接近警報装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111017

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141111

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees