JP4414054B2 - 物体認識装置 - Google Patents

物体認識装置 Download PDF

Info

Publication number
JP4414054B2
JP4414054B2 JP2000086192A JP2000086192A JP4414054B2 JP 4414054 B2 JP4414054 B2 JP 4414054B2 JP 2000086192 A JP2000086192 A JP 2000086192A JP 2000086192 A JP2000086192 A JP 2000086192A JP 4414054 B2 JP4414054 B2 JP 4414054B2
Authority
JP
Japan
Prior art keywords
cluster
distance
unit
window
object recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000086192A
Other languages
English (en)
Other versions
JP2001273494A (ja
Inventor
守道 西垣
博光 湯原
友好 青木
雅和 坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2000086192A priority Critical patent/JP4414054B2/ja
Priority to US09/783,613 priority patent/US6775395B2/en
Priority to DE10115080A priority patent/DE10115080B4/de
Publication of JP2001273494A publication Critical patent/JP2001273494A/ja
Application granted granted Critical
Publication of JP4414054B2 publication Critical patent/JP4414054B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Description

【0001】
【発明の属する技術分野】
この発明は、自動車などの車両に搭載された少なくとも2つのカメラによる撮像手段を用いて、前方の物体を検出する光学式の物体認識装置に関し、より具体的には、撮像された画像における複数のウィンドウを用いて、物体を認識する物体認識装置に関する。
【0002】
【従来の技術】
近年、車両走行の安全性を向上させるため、自車両の前方にある物体の距離や大きさを判断し、これに応じて車両を適切に制御する装置が提案されている。
【0003】
2つの受光素子からなる光学式距離計測装置を使用し、距離検出された被写体が物体か道路領域(路面上の文字/白線を含む)かを判断する手法に関連するものとして、特開平9−79821号公報には、計算エリアごとに距離を算出し、距離が相互に一定範囲内であり、水平方向に一定値以内に近接する計算エリアをクラスタリングして、障害物が存在する領域を認識する装置が提案されている。このクラスタリングでは、距離が未測定の計算エリアも含めてクラスタリングされる。
【0004】
同じ出願人による特願平11−169567号には、それぞれのウィンドウについて計測された距離に従ってそれぞれのウィンドウに距離ラベルを付与し、該距離ラベルに基づいてウィンドウをクラスタリングすることにより、高速に物体を認識することのできる装置が記載されている。この距離ラベルは、計測される距離の誤差に応じて予め設定された距離範囲のそれぞれについて予め設定される。ウィンドウについて計測された距離が属する距離範囲に対応する距離ラベルが、該ウィンドウに付与されるので、同じ物体を表すウィンドウを正確にクラスタリングすることができ、よって正確に自車両前方の物体を認識することができる。
【0005】
【発明が解決しようとする課題】
しかし、上記のような物体認識装置においても、撮像カメラの前方にある車両のフロントガラスに付着した雨滴や、画像に発生したノイズの影響により、物体を誤って認識することがある。これに対処するために、特開2000−19259号公報に開示されているような可視光線カメラ、赤外光線カメラ、降雨センサなどの外界センサによって悪天候時の車外の環境を認識する技術を使用して、雨滴の検出などを行おうとすると、コストが高くなるという問題がある。
【0006】
一方、雨滴やノイズの影響に起因して物体を誤って認識するのを回避するために、物体認識自体の処理とは別個に、撮像された画像から物体を認識することの有効性判断の処理を実行すると、さらなる処理時間およびメモリ容量を必要とする。
【0007】
したがって、この発明は、撮像された画像の有効性を、別センサを使用せずに、ウィンドウについて計測された距離に基づいて判断し、雨滴またはノイズの影響によって物体を誤って認識することのない物体認識装置を提供することを目的とする。
【0008】
また、この発明の他の目的は、物体を認識するための処理の過程で物体認識の有効性を判断することにより、メモリ容量および処理時間の増大を抑制しつつ、物体認識の有効性を判断することができる物体認識装置を提供することである。
【0009】
【課題を解決するための手段】
上記の課題を解決するため、請求項1の発明の物体認識装置は、所定の間隔をおいて配置された少なくとも2つの撮像手段と、該少なくとも2つの撮像手段で得られ、複数のウィンドウに分割された画像に基づいて、ウィンドウごとに対象物までの距離を計測する計測手段と、前記計測手段によって得られた計測距離およびウィンドウの位置に基づいてウィンドウをクラスタリングし、クラスタを形成するクラスタリング手段と、前記クラスタの属性に基づいて、クラスタの有効または無効を判断するクラスタ判別手段と、前記クラスタ判別手段によって有効と判断されたクラスタに基づいて、物体を認識する物体認識手段とを備えるという構成をとる。
【0010】
請求項1の発明によると、物体認識処理の過程で使用するクラスタに基づいて物体認識の有効性を判断するので、処理の負荷を小さくすることができる。さらに、有効と判断されたクラスタに基づいて物体を認識するので、雨滴またはノイズの影響による誤った物体認識を回避することができる。
【0011】
また、請求項2の発明は、請求項1の物体認識装置において、クラスタの属性がクラスタの面積であり、クラスタ判別手段が、クラスタに含まれるウィンドウの数および該ウィンドウのそれぞれの計測距離に基づいて、該クラスタの面積を算出し、該クラスタの面積が予め決められた値以上ならば該クラスタを有効と判断するという構成をとる。
【0012】
請求項2の発明によると、クラスタの面積に基づいてクラスタの有効性を判断するので、雨滴またはノイズの影響によって形成されたクラスタと、物体を表すクラスタとを判別することができ、正確に物体を認識することができる。
【0013】
請求項3の発明は、請求項1の物体認識装置において、クラスタの属性が、該クラスタに含まれるウィンドウ数であり、クラスタ判別手段が、該クラスタに含まれるウィンドウの数が、該クラスタに含まれるウィンドウの計測距離に従って予め決められたしきい値以上ならば、クラスタを有効と判断するという構成をとる。
【0014】
請求項3の発明によると、クラスタに含まれるウィンドウ数に基づいてクラスタの有効性を判断するので、雨滴またはノイズの影響によって形成されたクラスタと、物体を表すクラスタとを判別することができ、正確に物体を認識することができる。
【0015】
請求項4の発明は、請求項1から請求項3のいずれかの物体認識装置において、クラスタ判別手段によって無効と判断されたクラスタ数に基づいて、撮像された画像のフェイル状態を検出するフェイル検出手段を備えるという構成をとる。
【0016】
請求項4の発明によると、無効と判断されたクラスタ数に基づいてフェイル状態を検出するので、画像におけるノイズの発生、または撮像カメラ前方のウィンドウへの雨滴の付着の影響により、ウィンドウの対象物までの距離が正確に計測することができなかお状態を検出することができ、物体が存在するにかかわらず該物体を検出できない状況を適切に判断することができる。
【0017】
請求項5の発明は、請求項1から請求項3のいずれかの物体認識装置において、クラスタ判別手段によって無効と判断されたクラスタ数の、撮像手段によって撮像された画像に含まれるクラスタ総数に対する比率に基づいて、撮像された画像のフェイル状態を検出するフェイル検出手段を備えるという構成をとる。
【0018】
請求項5の発明によると、無効と判断されたクラスタの比率に基づいてフェイル状態が検出されるので、画像におけるノイズの発生、または撮像カメラ前方のウィンドウへの雨滴の付着の影響により、ウィンドウの対象物までの距離が正確に計測することができなかった状態を検出することができ、物体が存在するにかかわらず該物体を検出できない状況を適切に判断することができる。
【0019】
請求項6の発明は、請求項4または請求項5の物体認識装置において、フェイル検出手段によって、撮像された画像がフェイル状態と検出されたならば、物体認識手段による物体の認識、または前記物体認識手段によって認識された物体に基づく車両の制御を禁止するという構成をとる。
【0020】
請求項6の発明によると、フェイル状態と検出された画像に基づく物体認識が禁止されるので、雨滴またはノイズによって影響された画像に基づく物体認識を回避することができる。
【0021】
【発明の実施の形態】
次に図面を参照してこの発明の実施の形態を説明する。図1は、この発明の一実施例の物体認識装置の全体的なブロック図である。この物体認識において実行される物体認識の方法は、計測距離の算出、計測距離の距離ラベルへの変換、ウィンドウのクラスタリング、クラスタの有効性判断、フェイル状態の検出、および物体認識から構成される。
【0022】
計測距離の算出処理では、撮像部3および3’によって撮像されメモリ5および5’に格納された画像から、ウィンドウ切り出し部13がウィンドウを切り出し、相関計算部6および距離計算部7が、ウィンドウごとに計測距離を算出する。計測距離の距離ラベルへの変換処理においては、距離変換部10が、ウィンドウごとに計測された距離に従って、対応する距離ラベルをそれぞれのウィンドウに付与する。ウィンドウのクラスタリング処理においては、クラスタリング部11が、付与された距離ラベルに基づいて、ウィンドウをクラスタリングし、クラスタを形成する。
【0023】
クラスタの有効性判断処理においては、クラスタ判別部12が、形成されたクラスタの属性に基づいて、クラスタの有効/無効を判断する。フェイル状態の検出処理においては、フェイル検出部14が、無効と判断されたクラスタに基づいて、撮像された画像のフェイル状態を検出する。物体認識処理においては、クラスタ選択部21、物体候補抽出部22、物体認識部23および物体推定部31が、過去に認識された物体に関する情報を使用して、一連の物体認識処理を実行する。
【0024】
車両制御部45は、上記の一連の物体認識処理の結果に基づいて、車両を制御する。一方、車両制御部45は、フェイル検出部14によってフェイル状態を検出された場合には、物体認識処理の結果を無効にし、それに基づく車両制御を禁止する。以下、それぞれの処理について、図を参照しつつ詳細に説明する。
【0025】
計測距離の算出
図2は、この実施例で用いる三角計測法による距離の計測原理を説明する図である。まず図2を参照して1対の撮像装置を用いた距離の測定方法を説明する。一対の撮像装置の一方を構成するラインセンサ21およびレンズ23は、他方の撮像装置を構成するラインセンサ22およびレンズ24と所定の間隔すなわち基線長Bだけ左右方向または上下方向に間隔をおいて配置されている。ラインセンサ21および22は、典型的には1次元のCCDであり、直線的に配列されたフォトセンサのアレイであってもよい。夜間の使用を考慮すると赤外線を用いた撮像装置にするのがよい。この場合、レンズ23、24の前に赤外線透過性のフィルタを置き、赤外線の光源を用いて一定の周期で対象物20を照射し、対象物20から反射する赤外線をラインセンサ21、22が感知するようにするのがよい。
【0026】
ラインセンサ21、22は、それぞれレンズ23、24の焦点距離fに配置されている。レンズ23、24のある平面から距離aにある対象物の像が、ラインセンサ21ではレンズ23の光軸からX1ずれた位置に形成され、ラインセンサ22ではレンズ24の光軸からX2だけずれた位置に形成されるとすると、レンズ23、24の面から対象物20までの距離aは、三角計測法の原理により、a=B・f/(X1+X2)で求められる。
【0027】
この実施例では画像はデジタル化されるので、距離(X1+X2)は、デジタル的に算出される。ラインセンサ21および22で得られる画像の片方または両方をシフトさせながら両画像のそれぞれ対応する画素の輝度を示すデジタル値の差の絶対値の総和を求め、これを相関値とする。相関値が最小値になるときの画像のシフト量が両画像の間の位置ずれ、すなわち(X1+X2)を示す。観念的には図2に示すようにラインセンサ21および22から得られる2つの画像を重なり合わせるために2つの画像を相対的に移動させねばならない距離が(X1+X2)である。
【0028】
ここでは、簡単のため撮像装置が1次元のラインセンサ21、22であるものとして説明したが、以下に述べるようにこの発明の一実施例では2次元のCCDまたは2次元のフォトセンサ・アレイを撮像装置として使用する。この場合、2つの撮像装置から得られる2次元の画像を相対的にシフトさせて上述したのと同様の相関計算を行い、相関値が最小となるときのシフト量を求めると、このシフト量が(X1+X2)に相当する。
【0029】
図1の撮像部3は、図2のレンズ23およびラインセンサ21からなる一方の撮像手段に対応し、撮像部3’は、図2のレンズ24およびラインセンサ22からなる他方の撮像手段に対応する。この実施例では、図3の(b)に示すように撮像領域を複数のウィンドウ(小領域)W11、W12、・・・に分割し、ウィンドウごとに距離の計測を行うので、対象物全体の2次元の画像が必要になる。このため撮像部3、3’は、2次元のCCDアレイまたは2次元のフォトセンサ・アレイで構成される。
【0030】
ここで、図3を参照すると、図3の(a)は、撮像部3または3’により自車両の前方を走行する他車両を撮像した画像の例を示し、図3の(b)は、図3の(a)の画像を概念的に複数のウィンドウに分割したものを示す。図3の(b)は、垂直方向に行および水平方向に列をとり、簡単のため10行×15列のウィンドウに分割して示す。それぞれのウィンドウには番号が付されており、例えばW12は、1行2列にあるウィンドウを示す。
【0031】
図1に戻り、撮像部3、3’で撮像された対象物の画像はアナログ・デジタル変換器(A/D変換器)4、4’でデジタルデータに変換され、画像メモリ5、5’に格納される。ウィンドウ切り出し部13によって、ウィンドウW11に対応する画像部分が画像メモリ5および5’からそれぞれ切り出されて相関計算部6に送られる。相関計算部6は、切り出された2つの画像を所定の単位ずつシフトさせて前述した相関計算を行い相関値が最小になるときのシフト量を求めると、このシフト量が(X1+X2)である。相関計算部6は、こうして求めた(X1+X2)の値を距離計算部7に送る。
【0032】
距離計算部7は、前述したa=B・f/(X1+X2)の式を用いて、ウィンドウW11にある対象物までの距離a11を求める。こうして求められた距離a11は、距離記憶部8に記憶される。同様の計算処理がそれぞれのウィンドウについて順次実行され、距離a11、a12、・・・が距離記憶部8に記憶される。以下、あるウィンドウについて計算された対象物までの距離を、そのウィンドウの計測距離という。
【0033】
上の相関計算で用いる画像データは、撮像素子アレイの素子のピッチによって分解能が定まるので、フォトセンサ・アレイなど比較的ピッチの大きい受光素子を用いるときは、ピッチ間の補間計算を行って画像データの密度を高める処理を行い、こうして密度を高められた画像データについて相関計算を行うのが好ましい。
【0034】
また、温度による撮像素子アレイの特性変化を補正するため、温度センサを撮像素子アレイ付近に配置し、温度センサから得られる温度情報に基づいて距離計算を補正するようにすることもできる。
【0035】
それぞれのウィンドウについて算出された計測距離のうち、路面距離と判定された計測距離を除去するようにしてもよい。路面距離とは、車両が傾くことなく路面に平行な状態にある場合の撮像部から路面までの距離をいい、たとえばCCDアレイにより実現される撮像部3および3’の取り付け位置、俯角、基線長、焦点距離およびサイズと、画像におけるウィンドウの位置とにより予め算出され、メモリに格納しておくことができる。計測距離が、路面距離に近い値または路面距離以上の値ならば、ウィンドウの対象物が路面であって物体ではないと判断し、路面と判断されたウィンドウの計測距離を距離記憶部8から削除することができる。
【0036】
計測距離の距離ラベルへの変換
図1の距離変換部10は、それぞれのウィンドウに、ウィンドウの計測距離が属する距離範囲に対応づけられた距離ラベルを付与する。距離範囲および対応する距離ラベルは、予め設定され、距離変換テーブル9に格納されている。
【0037】
最初に、図4を参照して、距離範囲の設定方法を説明する。図4の(a)を参照すると、検知エリア100は、撮像部3および3’により距離を計測することのできる領域であり、撮像部3および3’の仕様および位置に基づいて定められる。たとえば、検知エリア100は、距離レンジ60メートル、角度レンジ30度のように設定される。検知エリア100は、予め固定して設定することもできるが、自車の速度に応じて動的に設定することが好ましい。この場合、速度が大きくなるにつれて、測定可能な距離範囲は大きく、角度範囲は小さくなるよう設定する。
【0038】
検知エリア100は、互いに重なりを持たないよう複数の距離範囲に区分けされる。この実施例では、撮像部3および3’を備える車両から距離が遠くなるほど計測される距離の精度が低下するので、距離が遠くなるほど広い距離範囲を持つよう区分けされる(図4の(a)のS1〜S6)。
【0039】
距離範囲は、計測される距離の誤差に応じて設定される。ここで、距離の誤差の値は、撮像部3および3’の仕様などに依存する。この実施例では、分割数を少なくして高速に処理するため、また誤差10%という精度がすべての画素について確保されないことがあるので、距離の誤差を30%として距離範囲を定める。したがって、ある距離に対する距離範囲を、「距離〜(距離×(1+0.3))」と定める。
【0040】
図5を参照して、設定されたそれぞれの距離範囲に、距離ラベルを対応づける方法を説明する。図5は、距離の誤差を30%とした場合の距離と距離ラベルの対応の一部を示す表である(距離の単位は0.1メートル)。たとえば、距離が1のときは、距離の30%は0(小数点以下は切り捨て)であるので、距離範囲1に対して距離ラベル「1」が付与される。距離が2のときも、距離の30%は0であるので、距離範囲2に対して距離ラベル「2」が付与される。距離ラベルは、距離範囲が変わるごとに1ずつ歩進されるよう設定される。このように距離ラベルを付与していくと、たとえば距離が20のときは、距離の30%は6であるので、距離範囲20〜26に対して距離ラベル「9」が付与される。こうして、検知エリア100は、近距離から遠距離へと複数の距離範囲に区分けされ、それぞれの距離範囲に距離ラベルが対応づけられる。距離ラベルは、たとえばアルファベット文字など識別可能な他の符号を使用してもよい。
【0041】
この実施例ではわかりやすくするため、図5に示されるいくつかの距離範囲を1つの距離範囲に結合する。すなわち、図4の(a)に示すように距離範囲S1〜S6を設定し、図4の(b)の距離変換テーブルに示すように、それぞれの距離範囲S1〜S6に、新たな距離ラベル1〜6をそれぞれ付与する。
【0042】
検知エリアが予め固定的に設定される場合には、予め距離範囲および距離ラベルを設定し、これを距離変換テーブル9としてメモリに格納しておくのが好ましい。検知エリアが動的に変更される場合には、距離変換テーブルを動的に更新することができる。
【0043】
図1の距離変換部10は、距離変換テーブル9に基づいて、それぞれのウィンドウの計測距離を、対応する距離ラベルに変換する。ここで、たとえばコントラストがなかったために計測距離が得られなかったウィンドウについては、距離変換テーブル9で使用されていないラベル、たとえばラベル「0」を付与する。
【0044】
例として図6を参照すると、図6の(a)は、撮像された画像におけるそれぞれのウィンドウの計測距離を示し、図6の(b)は、距離変換テーブル9(図4の(b))に基づいてそれぞれのウィンドウに付与された距離ラベルを示す。
【0045】
ウィンドウのクラスタリング
クラスタリング部11は、こうして付与されたそれぞれのウィンドウの距離ラベルに基づいて、それぞれのウィンドウにクラスタラベルを付与し、同じクラスタラベルが付与されたウィンドウをクラスタリングする。クラスタリングは既知の方法を使用して実行することができる。この実施例では、前述の特願平11−169567号に従って、クラスタリングを実行する。
【0046】
クラスタリング部11は、図7に示されるテンプレートを使用してウィンドウにクラスタラベルを付与する。図7の(a)のT1〜T5はテンプレートにおける位置を示す。図7の(b)のa〜eは、あるウィンドウにT4が合うようテンプレートが置かれた時の、T1〜T5のそれぞれの位置に対応するウィンドウの距離ラベルを示す。図7の(c)のA〜Eは、あるウィンドウにT4が合うようテンプレートが置かれた時の、T1〜T5のそれぞれの位置に対応するウィンドウに付与されたクラスタラベルを示す。
【0047】
図7の(d)の表は、あるウィンドウにT4が合うようテンプレートが置かれたときの、T1〜T5の位置に対応するウィンドウの距離ラベルに基づいて、T4の位置に対応するウィンドウにどのようなクラスタラベルDが付与されるかを示す。たとえば、T1〜T5の位置に対応するウィンドウの距離ラベルa〜eが条件5を満たせば、T4に対応するウィンドウのクラスタラベルDには、T2に対応するウィンドウのクラスタラベルBと同じクラスタラベルが付与される。図7の(d)の条件2および3が満たされた時に付与されるクラスタラベル「L」は、まだ使用されていない新たなクラスタラベルを示す。
【0048】
図6の(b)を例として、テンプレートを使用したクラスタリング方法を説明する。クラスタリング部11は、図7のテンプレートを使用して、画像上のウィンドウを左上から右下へと走査する。付与するクラスタラベルを2桁で表すことにし、ここで、上位の桁は距離ラベルを表し、下位の桁は図7の(d)の条件2または3に該当するたびに、1ずつ歩進するよう設定する。しかし、クラスタラベルを、数字または文字などの任意の符号を使用して表すことができる。画像の端にテンプレートが置かれると、テンプレートの一部が画像からはみだすが、このはみだした部分に対応する距離ラベルは、テンプレートのT4に対応するウィンドウの距離ラベルとは異なると仮定して、図7の(d)の条件を適用する。
【0049】
最初に、ウィンドウW11にテンプレートのT4が合うようテンプレートが置かれる。ウィンドウW11の距離ラベルは「3」であり、テンプレートが画像からはみだした部分については、d≠a、d≠b、d≠cと仮定するので、図7の(d)の条件2を満たし、クラスタラベル「31」をウィンドウW11に付与する。次に、ウィンドウW12にT4が合うようテンプレートが置かれ、ウィンドウW12は図7の(d)の条件4を満たすので、ウィンドウW11と同じクラスタラベル「31」を付与する。ウィンドウW13にT4が合うようテンプレートが置かれ、ウィンドウW13は図7の(d)の条件2を満たすので、クラスタラベル「41」を付与する。ウィンドウW14も、図7の(d)の条件2を満たすので、新たなクラスタラベル「51」を付与する。ウィンドウW15も、図7の(d)の条件2を満たすので、新たなクラスタラベル「42」を付与する。こうしてW11〜W18にクラスタラベルを付与した後、W21〜W28、W31〜W38...W81〜W88と順番にクラスタラベルを付与する。図6の(c)は、こうしてそれぞれのウィンドウに付与されたクラスタラベルを示す。
【0050】
クラスタリング部11は、図7の(d)の条件8を満たす場合には、テンプレートのT1およびT3に対応するクラスタラベルを「連結」としてクラスタ記憶部15に記憶する。連結について、図6の(c)および(d)を参照して説明する。
【0051】
図6の(d)のウィンドウW75にT4が合うようテンプレートが置かれたとき、図7の(d)の条件2を満たすので、新たなクラスタラベル「47」が付与される。その後、ウィンドウW76〜W78およびW81〜W84にクラスタラベルを付与した後、ウィンドウW85にT4が合うようテンプレートが置かれたとき、図7の(d)の条件8を満たすので、ウィンドウW85には、ウィンドウW75と同じクラスタラベル「47」が付与される。結果として、図6の(c)に示されるように、ウィンドウW85およびW84には、隣接しているにもかかわらず異なるクラスタラベルが付与されることとなる。
【0052】
したがって、図7の(d)の条件8を満たす場合には、テンプレートのT1およびT3に対応するウィンドウのクラスタラベルAおよびC、すなわちウィンドウW84およびW75のクラスタラベル「47」および「49」を連結としてクラスタ記憶部15に記憶する。クラスタリング部11は、すべてのウィンドウについてクラスタラベルを付与した後、連結として記憶された2つのクラスタラベルを、任意の同じクラスタラベルに置き換える。たとえば、クラスタラベル「47」を「49」に置き換えてもよいし(図6の(d))、この逆でもよい。または、全く新しいクラスタラベルで置き換えてもよい。
【0053】
このように、同じ距離ラベルを持つ隣接ウィンドウには同じクラスタラベルが付与され、図6の(e)に示されるようなクラスタが形成される。計測距離値そのものを扱うのではなく距離ラベルを使用することにより、高速にウィンドウがクラスタリングされる。
【0054】
図7に示すテンプレートは例であり、異なるテンプレートを用いてウィンドウを走査することができ、テンプレートの種類に合わせて走査順序を定めるのが好ましい。
【0055】
クラスタの有効性判断
図1に戻り、クラスタ判別部12は、クラスタリング部11によって得られたそれぞれのクラスタについて、クラスタの属性に基づいてクラスタの有効性を判断する。この実施例においては、クラスタの属性として、クラスタの面積またはクラスタを構成するウィンドウ数を使用する。しかし、クラスタを構成するウィンドウの位置など他の属性を使用して、クラスタの有効性を判断するようにしてもよい。
【0056】
最初に、図8を参照してクラスタの面積A(m)を求める方法を説明する。図8の(a)は、あるウィンドウWpに撮像された対象物80の水平方向の長さXp(すなわち、対象物80の幅)を求めるための図である。μ(m)はウィンドウWpの水平方向の長さ、f(m)はレンズ81の焦点距離、Dp(m)は、前述したように距離計算部7によって算出されたウィンドウWpの計測距離を示す。この図から、式(1)の関係が成立する。
【0057】
【数1】
Xp=μ・Dp/f 式(1)
【0058】
図8の(b)は、図8の(a)と同じウィンドウWpに撮像された対象物80の垂直方向の長さYp(すなわち、対象物80の高さ)を求めるための図である。μ(m)はウィンドウWpの垂直方向の長さを示す。この図から、上記の式(1)と同様に式(2)が成立する。
【0059】
【数2】
Yp=μ・Dp/f 式(2)
【0060】
ウィンドウの水平および垂直方向の長さμおよびμは一定であるので、クラスタの面積Aは、式(3)によって表される。
【0061】
【数3】
Figure 0004414054
【0062】
一方、以下の式(4)のように、計測距離Dpの和を、クラスタを構成するウィンドウ数Nで除算することにより、ウィンドウの計測距離の平均値Daveが求まる。この計測距離の平均値Daveを使用して、式(3)を、式(5)のように近似することができる。
【0063】
【数4】
Figure 0004414054
【0064】
こうして、クラスタの面積Aが求められる。クラスタ判別部12は、クラスタの面積Aが、予め決められたしきい値(たとえば、100cm)より大きければそのクラスタを有効と判断し、予め決められたしきい値より小さければ、そのクラスタを無効と判断する。こうすることにより、ノイズまたは雨滴の影響によって形成された小さいクラスタは無効と判断されるので、ノイズまたは雨滴のクラスタに基づく誤った物体認識を回避することができる。
【0065】
しきい値は、どのくらいの大きさまでをノイズ成分として除去するか、およびどのくらいの大きさを物体として認識するかに依存して定めることができる。しかし、画像を撮像したときにコントラストが少ないと小さめのクラスタが多数形成されることがあるので、あまりに大きいしきい値を設定すると、実際に物体が存在していても有効と判断されるクラスタが存在しなくなる。たとえば、しきい値を前方車両の大きさに合わせて設定すると(たとえば、2平方メートル)、しきい値に達するクラスタが存在しなくなり、実際に前方に車両が存在していても物体として認識できないことがある。したがって、ノイズ成分と区別することができ、かつ物体として認識する必要がある大きさ(たとえば、1平方メートル)を、しきい値として設定するのが好ましい。
【0066】
代替の実施形態においては、クラスタ判別部12は、しきい値Aに対応するウィンドウ数Nに基づいてクラスタの有効性を判断する。式(5)から、しきい値Aに対応するウィンドウ数Nを、クラスタの計測距離Dごとに予め設定することができる(式(6))。
【0067】
【数5】
Figure 0004414054
【0068】
クラスタ判別部12は、クラスタを構成するウィンドウ数NおよびNを比較し、N<Nならばそのクラスタを無効と判断し、N≧Nならばそのクラスタを有効と判断する。クラスタの計測距離Dとして、式(4)で求めたような、クラスタを構成するウィンドウの計測距離の平均値Daveを使用することができる。
【0069】
クラスタ判別部12は、有効と判断されたクラスタとその数および無効と判断されたクラスタとその数を、クラスタ記憶部15に格納する。また、クラスタ判別部12は、クラスタの面積、すなわちクラスタによって表される物体の高さおよび幅、クラスタの距離、クラスタの水平および垂直位置を、クラスタ記憶部15に記憶する。クラスタの水平および垂直位置は、クラスタの幅、高さ、およびクラスタを構成するウィンドウの画像上の位置から求めることができ、たとえば自車両を原点とした座標系を使用して、その位置を表すことができる。
【0070】
フェイル状態の検出
フェイル検出部14は、クラスタ判別部12によって無効と判断されたクラスタ数またはその比率に基づいて、物体認識を正しく行うことができる状態かどうか判断する。物体認識を正しく行うことができない状態を、フェイル状態という。
【0071】
クラスタは、実質的に同じ計測距離を持つウィンドウの集まりであるので、撮像された画像領域内に距離変化が小さい領域が多数存在すると、面積の小さいクラスタが多数形成される。これは、コントラストが低い領域またはノイズが含まれる画像に対して前述のような相関演算を行うことにより、エラーを含む計測距離が算出されたことに起因することが多い。したがって、物体を誤って認識するのを回避するには、このような状態で形成されたクラスタから物体を認識することを禁止する必要がある。そこで、フェイル検出部14は、ノイズ量の指標として無効クラスタの数またはその比率を使用し、フェイル状態を検出する。
【0072】
図9は、フェイル状態を説明するための図であり、降雨による無効クラスタ数の変動を示す。横軸は経過時間を表し、縦軸はクラスタ判別部12によって検出された無効クラスタ数を表す。図9の(a)において、グラフ85は、晴れの日に計測された無効クラスタ数の遷移を示し、グラフ86は、小雨の日に計測された無効クラスタ数の遷移を示す。図9の(b)のグラフ87は、大雨の日に計測された無効クラスタ数の遷移を示す。
【0073】
グラフ85に示されるように、晴れの日は、撮像部3および3’の前方にあるフロントガラスに雨滴がはりつくこともなく、ノイズも発生しにくいので、無効クラスタ数が非常に少ない。小雨になると、グラフ86に示されるように、フロントガラスに雨滴がはりつき、撮像部が雨滴を捕らえてしまうので、晴れの日に比べて無効クラスタ数が多く検出される。大雨になると、グラフ87に示されるように、フロントガラスにはりつく雨滴の数が多くなるので、小雨の日に比べてさらに多くの無効クラスタ数が検出される。
【0074】
小雨および大雨のグラフ86および87において、無効クラスタ数が周期的に変化しているのは、ワイパーの動作によるものである。ワイパーが動作した直後は、フロントガラスにおける雨滴が一掃されるので、局所的に無効クラスタ数が減少する。
【0075】
フェイル検出部14は、無効クラスタ数が予め決められた値(図9の例では、380個)を超えた場合に、フェイル状態と判定する。図9のグラフ87から明らかなように、大雨の日は、晴れおよび小雨の日と異なり、周期的にフェイル状態が検出される。代替の形態として、画像のクラスタの総数に対する無効クラスタ数の比率が予め決められた値(たとえば、80%)を超えた場合に、フェイル状態と判定することができる。
【0076】
フェイル検出部14は、フェイル状態と判定したならば、今回撮像された画像に対してフェイル状態フラグを設定し、フェイル記憶部16に記憶する。
【0077】
物体認識
図1に戻り、クラスタ選択部21、物体候補抽出部22、物体認識部23および物体推定部31による一連の処理は、クラスタ判別部12によって有効と判断されたクラスタに基づいて、自車両前方にある物体を認識する。クラスタを使用した物体の認識には様々な方法があり、任意の方法を使用することができる。この実施例では、前述の特願平11−169567号に従って、過去に認識された物体に関する情報から現在の物体の位置を推定し、推定された物体および有効と判断されたクラスタに基づいて物体の認識を行う。以下に、この物体認識処理について説明する。
【0078】
物体記憶部25には、物体認識部23によって前回認識された物体の属性(たとえば、物体の位置(距離、水平および垂直位置)および大きさ(幅、高さ)などの物体に関する情報)および該物体に対する相対速度が格納されており、物体推定部31は、これらの値に基づいて、今回得られた画像における物体の位置を推定する。この物体推定部31による処理は、上記のクラスタリング処理と並行して行うのが好ましい。
【0079】
図10を参照して、この実施形態における物体の推定方法について説明する。図10の(a)〜(c)は前回の処理を示し、2台の車両91および92が撮像されている。図10の(b)は、図10の(a)の画像に基づいてクラスタリング部11により形成されたクラスタC11〜C17を示し、図10の(c)は、これらのクラスタから認識された物体65および66を示す。物体65および66は、車両91および92にそれぞれ対応する。
【0080】
図10の(d)〜(f)は今回の処理を示し、図10の(d)には、図10の(a)と同じ車両91および92と、標識93が撮像されている。図10の(e)は、図10の(d)の画像に基づいて形成されたクラスタC21〜C31を示し、図10の(f)は、これらのクラスタおよび図10の(c)に示される認識された物体65および66に基づいて今回認識された物体77、78および79を示す。
【0081】
物体推定部31は、前回認識された物体65および66の位置と、該物体に対する相対速度を物体記憶部25から読み出し、物体65および66の今回の位置を算出する。算出は、(前回の物体の位置+相対速度×検出間隔時間)という計算式を使用して行うことができる。この例では、物体65に対する相対速度はゼロ、物体66に対する相対速度は時速−10キロメートル(この例では、物体の速度に対して自車両の速度が大きい場合の相対速度を「負」で表す)、検出間隔時間は100ミリ秒と仮定すると、前回および今回の物体65に対する相対距離は変化せず、物体66に対する相対距離は約0.3メートルだけ短くなると推定することができる。
【0082】
物体65および66の自車両に対する水平方向の相対位置は変わらないと仮定すると、物体65および66の大きさは変わらないので、物体推定部31は、相対距離の変化から、今回の物体65および66の位置を推定することができる。図10の(e)は、こうして推定された物体75および76を、画像上の四角で囲まれた領域で示す。物体推定部31は、推定物体75および76の属性(位置(距離、水平および垂直位置)および大きさ(幅、高さ))を、推定物体記憶部32に記憶する。
【0083】
今回の処理において、クラスタ選択部21は、図10の(e)に示されるように形成されたクラスタC21〜C31の距離、水平および垂直位置をクラスタ記憶部15から読み出す。一方、クラスタ選択部21は、推定物体75の距離、水平および垂直位置を推定物体記憶部32から読み出す(この実施例では、自車両に近い方の推定物体から処理する)。クラスタ選択部21は、推定物体75との距離の差がしきい値以下であり、かつ推定物体75と水平および垂直方向で重なりを持つクラスタを、クラスタC21〜C31から選択する。その結果、クラスタC22〜C26が選択される。
【0084】
クラスタが、いずれの推定物体との距離の差がしきい値を満たさず、またはいずれの推定物体とも重なりを持たない場合、そのクラスタは、対応する推定物体を持たないクラスタとして区別される。ここで、距離の差のしきい値は、誤差を考慮して、自車両からの距離が大きくなるほど大きく設定するのが好ましい。重なりの判断は、クラスタおよび推定物体が水平方向および垂直方向で重なりがあればよく、推定物体にクラスタ全体が含まれる必要はない。
【0085】
物体候補抽出部22は、クラスタ選択部21によって選択されたクラスタからすべての組み合わせを抽出し、それぞれの組み合わせについて結合クラスタを定める(それぞれの結合クラスタが、物体候補となる)。組み合わせには、クラスタが1つの場合も含まれる。図11に、推定物体75について選択されたクラスタC22〜C26のすべての組み合わせを一覧として示す。
【0086】
物体認識部23は、それぞれの結合クラスタの属性を、対応する推定物体の属性と順次比較し、推定物体の属性に一番近い属性をもつ結合クラスタを物体として認識する。この実施例で比較する属性は、距離、水平位置、垂直位置、幅および高さであり、比較は、以下の式(7)によって行われる。式(7)は、結合クラスタおよび推定物体の位置および大きさの差に基づいて両者の属性の差を関数で表したものであり、式(7)の変数の意味を表1に示す。ここで、距離(Z値)は、その距離値に応じた誤差をもつので、推定物体の距離Ztに比例する値で補正するのが好ましい。
【0087】
【数6】
Figure 0004414054
【0088】
【表1】
Figure 0004414054
【0089】
具体的には、図11に示されるように、物体認識部23は、推定物体75に対応する結合クラスタ1〜31のすべてについて関数値E1を算出し(e01、e02、、、e31)、関数値E1が最小となる結合クラスタ31を物体78として認識する(図10の(f))。これは、最小のE1を持つ結合クラスタ31が、推定物体75の位置および大きさを最も良く表すからである。
【0090】
物体として認識されたクラスタC22〜C26および対応する推定物体75は、物体認識処理が達成されたことを識別するため、処理済みフラグをたててクラスタ記憶部15および推定物体記憶部32にそれぞれ記憶される。クラスタ選択部21、物体候補抽出部22、物体認識部23による一連の処理は、すべてのクラスタに処理済みフラグがたつまで繰り返される。
【0091】
物体78が認識された後、クラスタ選択部21は、クラスタ記憶部15から、処理済みフラグがたっていないクラスタC21、C27〜C31を抽出し、推定物体記憶部49から、処理済みフラグがたっていない推定物体76を抽出し、上記と同様の処理を行う。すなわち、クラスタ選択部21は、推定物体76との距離の差がしきい値以下で、かつ水平および垂直方向で重なりを持つクラスタC27〜C31を選択する。物体候補抽出部22は、クラスタC27〜C31のすべての組み合わせを作って結合クラスタを定める。物体認識部23は、それぞれの結合クラスタの属性を、推定物体76の属性と順次比較する。その結果、クラスタC27〜C31からなる結合クラスタが推定物体76に最も近い属性を持つと判断し、クラスタC27〜C31の結合クラスタを物体79と認識する(図10の(f))。物体と認識されたクラスタC27〜C31および対応する推定物体76は、クラスタ記憶部15および推定物体記憶部32に、処理済みフラグをたててそれぞれ記憶される。
【0092】
次に、クラスタ選択部21は、処理済みフラグがたっていないクラスタC21を選択する。物体候補抽出部22は、クラスタC21を結合クラスタと定め、物体認識部23に渡す。クラスタC21は、対応する推定物体を持たないので、物体認識部23は、結合クラスタの属性と、予め決められた検知すべき物体(以下、検知物体という)の属性とを比較し、属性の差が最小値となる検知物体を、結合クラスタに対応する物体として認識する。しかし、しきい値を設けて、属性の差がしきい値以下で、かつ最小値となる検知物体を、対応する物体として認識するようにしてもよい。
【0093】
検知すべき物体の属性は予め決められてメモリに記憶されている。たとえば、車両を検知するのであれば、いくつかの種類の標準的な車両の属性が記憶されており、標識を検知するのであれば、いくつかの標準的な標識の属性を記憶することができる。この実施例では、比較する属性として幅および高さを使用し、比較は、以下の式(8)によって行われる。式(8)は、結合クラスタおよび検知物体の幅および高さの差に基づいて、両者の属性の差を関数で表したものであり、式(8)の変数の意味を表2に示す。
【0094】
【数7】
E2 = |Wc−Wt|+|Hc−Ht| 式(8)
【0095】
【表2】
Figure 0004414054
【0096】
物体認識部23は、物体候補抽出部22により抽出されたクラスタC21の結合クラスタの属性と、いくつかの検知物体の属性とを式(8)によって比較し、関数値E2が最小となる検知物体(この例では、標識)を抽出する。こうして、クラスタC21が物体77として認識される(図12の(f))。
【0097】
クラスタ選択部21は、対応する推定物体を持たないクラスタが複数存在する場合には、クラスタの距離、水平および垂直位置の差が予め決められた値以下のクラスタを1つのクラスタ群と設定し、以降の処理をクラスタ群単位で行うようにするのが好ましい。これは、たとえば水平方向に離れた位置に存在する2つのクラスタを結合して、物体を誤って認識することがあるからである。
【0098】
クラスタ選択部21は、すべてのクラスタが処理された後になお推定物体が残っている場合には、この推定物体はすでに画像領域に現れなくなったと判断し、推定記憶部32から削除することができる。
【0099】
物体認識部23は、物体を認識した後、認識した物体の属性を物体記憶部25に記憶する。さらに、物体認識部23は、前回認識された物体の距離(前回距離)および今回認識された物体の距離(今回距離)を用い、計算式「(今回距離−前回距離)/検出時間間隔」に基づいて求めた値にフィルタをかけて物体に対する自車両の相対速度を算出し、物体記憶部25に記憶する。検出時間間隔は、前述したように前回の計測と今回の計測との時間差であり、たとえば60ミリ秒〜100ミリ秒と設定することができる。
【0100】
車両制御
車両制御部45は、フェイル記憶部16に格納されたフェイル状態フラグを調べ、フェイル状態フラグが設定されていれば、今回撮像された画像がフェイル状態にあることを示すので、物体認識部23によって処理された結果に基づく車両制御を禁止する。この場合、車両制御部45は、運転者にフェイル状態であることを通知することができる。
【0101】
反対に、フェイル状態フラグが設定されていなければ、物体認識部23によって処理された結果に基づいて車両を制御する。車両制御部45は、物体記憶部25に記憶された物体の位置および相対速度などの情報、および自車速度検出装置46およびヨーレート検出装置47からの情報に基づいて、物体までの距離が適切であるよう自車両を制御することができる。
【0102】
たとえば、車両制御部45は、警報装置を駆動して前方車両に近づきすぎていることを示す警報を発したり、ECU(電子制御装置)またはブレーキ制御ユニットに信号を送って強制制動処理を実行させることができる。そのとき、車両制御部45は、自車速度検出装置46から自車速度データを、ヨーレート検出装置47からヨーレートを示す信号を受け取り、自車両の走行領域を判断して、物体との距離が適切な範囲になるよう自車両を制御することができる。
【0103】
物体の認識を確実にするため、前回認識された物体と今回認識された物体とが同一かどうか判断し、同一物体が連続してある予め決められた回数認識されたときに、車両制御部45が車両を制御するようにするのが好ましい。たとえば、2サイクルから3サイクルの認識処理の結果を総合することにより、認識の信頼性を向上させることができる。
【0104】
上記の実施例においては、物体認識の一連の処理を、フェイル検出部14によるフェイル状態検出処理と並行して実行する。しかし、代替の形態として、フェイル検出部14がフェイル状態かどうか判断した後に物体認識の一連の処理を行うようにし、フェイル状態と判断された場合には物体認識の処理を中止するようにしてもよい。この場合、物体認識部23(または、クラスタ選択部21、物体候補抽出部22でもよい)は、フェイル記憶部16に格納されたフェイル状態フラグを調べ、フェイル状態フラグが設定されていれば、該画像に対する以降の物体認識処理を中止する。
【0105】
図1に示した相関計算部6、距離計算部7、距離記憶部8、ウィンドウ切り出し部13、距離変換テーブル9、クラスタリング部11、クラスタ判別部12、フェイル検知部14、クラスタ記憶部15、フェイル記憶部16、クラスタ選択部21、物体候補抽出部22、物体認識部23、物体記憶部25、物体推定部31、推定物体記憶部32および車両制御部45は、中央演算処理装置(CPU)、制御プログラムおよび制御データを格納する読み出し専用メモリ、CPUの演算作業領域を提供し様々なデータを一時記憶することができるランダムアクセスメモリ(RAM)で構成することができる。距離記憶部8、距離変換テーブル9、クラスタ記憶部15、フェイル記憶部16、推定物体記憶部32および物体記憶部31は、1つのRAMのそれぞれ異なる記憶領域を使用して実現することができる。また、各種の演算で必要となるデータの一時記憶領域も同じRAMの一部分を使用して実現することができる。
【0106】
また、この発明の物体認識装置をエンジンのECU、ブレーキ制御ECUその他のECUとLAN接続して物体認識装置からの出力を車両の全体的な制御に利用することができる。
【0107】
【発明の効果】
請求項1の発明によると、物体認識処理の過程で使用するクラスタに基づいて物体認識の有効性を判断するので、処理の負荷を小さくすることができる。さらに、有効と判断されたクラスタに基づいて物体を認識するので、雨滴またはノイズの影響による誤った物体認識を回避することができる。
【0108】
請求項2の発明によると、クラスタの面積に基づいてクラスタの有効性を判断するので、雨滴またはノイズの影響によって形成されたクラスタと、物体を表すクラスタとを判別することができ、正確に物体を認識することができる。
【0109】
請求項3の発明によると、クラスタに含まれるウィンドウ数に基づいてクラスタの有効性を判断するので、雨滴またはノイズの影響によって形成されたクラスタと、物体を表すクラスタとを判別することができ、正確に物体を認識することができる。
【0110】
請求項4の発明によると、無効と判断されたクラスタ数に基づいてフェイル状態を検出するので、画像におけるノイズの発生、または撮像カメラ前方のウィンドウへの雨滴の付着の影響により、ウィンドウの対象物までの距離が正確に計測することができなかった状態を検出することができ、物体が存在するにかかわらず該物体を検出できない状況を適切に判断することができる。
【0111】
請求項5の発明によると、無効と判断されたクラスタの比率に基づいてフェイル状態が検出されるので、画像におけるノイズの発生、または撮像カメラ前方のウィンドウへの雨滴の付着の影響により、ウィンドウの対象物までの距離が正確に計測することができなかった状態を検出することができ、物体が存在するにかかわらず該物体を検出できない状況を適切に判断することができる。
【0112】
請求項6の発明によると、フェイル状態と検出された画像に基づく物体認識が禁止されるので、雨滴またはノイズによって影響された画像に基づく物体認識を回避することができる。
【図面の簡単な説明】
【図1】この発明の一実施例の全体的な構成を示すブロック図。
【図2】三角計測法による距離の計測原理を説明するための図。
【図3】この発明による、(a)撮像された画像、(b)距離および道路領域判定のため小領域(ウィンドウ)に分割された画像を示す図。
【図4】この発明による、(a)検知エリアの分割、(b)距離範囲と距離ラベルの設定を示す図。
【図5】この発明による、距離範囲および距離ラベルの設定を示す表。
【図6】この発明による、クラスタリングを示す図。
【図7】この発明による、テンプレート((a)、(b)、(c))、クラスタラベルの決定方法(d)を示す図。
【図8】この発明による、ウィンドウに撮像された対象物の(a)水平方向の長さ、(b)垂直方向の長さを求めるための図。
【図9】この発明による、降雨による無効クラスタ数の変化を示す図。
【図10】この発明による、前回および今回の撮像された画像((a)および(d))、クラスタ((b)および(e))、認識された物体((c)および(f))を示す図。
【図11】この発明による、クラスタの組み合わせを示す表。
【符号の説明】
3、3’ 撮像部 7 距離計算部 11 クラスタリング部
12 クラスタ判別部 14 フェイル検出部 23 物体認識部

Claims (4)

  1. 所定の間隔をおいて配置された少なくとも2つの撮像手段と、
    該少なくとも2つの撮像手段で得られ、複数のウィンドウに分割された画像に基づいて、ウィンドウごとに対象物までの距離を計測する計測手段と、
    前記計測手段によって得られた計測距離およびウィンドウの位置に基づいてウィンドウをクラスタリングし、クラスタを形成するクラスタリング手段と、
    前記クラスタの属性に基づいて、クラスタの有効または無効を判断するクラスタ判別手段と、
    前記クラスタ判別手段によって有効と判断されたクラスタに基づいて、物体を認識する物体認識手段と、
    前記クラスタ判別手段によって無効と判断されたクラスタ数の、前記撮像手段によって撮像された画像に含まれるクラスタ総数に対する比率に基づいて、該撮像された画像のフェイル状態を検出するフェイル検出手段と、
    を備える物体認識装置。
  2. 前記クラスタの属性がクラスタの面積であり、前記クラスタ判別手段が、クラスタに含まれるウィンドウの数および該ウィンドウのそれぞれの計測距離に基づいて、該クラスタの面積を算出し、該クラスタの面積が予め決められた値以上ならば該クラスタを有効と判断する請求項1に記載の物体認識装置。
  3. 前記クラスタの属性が、該クラスタに含まれるウィンドウ数であり、前記クラスタ判別手段が、該クラスタに含まれるウィンドウの数が、該クラスタに含まれるウィンドウの計測距離に従って予め決められたしきい値以上ならば、クラスタを有効と判断する請求項1に記載の物体認識装置。
  4. 前記フェイル検出手段によって、撮像された画像がフェイル状態と検出されたならば、前記物体認識手段による物体の認識、または前記物体認識手段によって認識された物体に基づく車両の制御を禁止する請求項1から3のいずれかに記載の物体認識装置。
JP2000086192A 2000-03-27 2000-03-27 物体認識装置 Expired - Fee Related JP4414054B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2000086192A JP4414054B2 (ja) 2000-03-27 2000-03-27 物体認識装置
US09/783,613 US6775395B2 (en) 2000-03-27 2001-02-15 Object recognition system
DE10115080A DE10115080B4 (de) 2000-03-27 2001-03-27 Objekterkennungssystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000086192A JP4414054B2 (ja) 2000-03-27 2000-03-27 物体認識装置

Publications (2)

Publication Number Publication Date
JP2001273494A JP2001273494A (ja) 2001-10-05
JP4414054B2 true JP4414054B2 (ja) 2010-02-10

Family

ID=18602405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000086192A Expired - Fee Related JP4414054B2 (ja) 2000-03-27 2000-03-27 物体認識装置

Country Status (3)

Country Link
US (1) US6775395B2 (ja)
JP (1) JP4414054B2 (ja)
DE (1) DE10115080B4 (ja)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL159695A0 (en) * 2001-07-06 2004-06-20 Computer Ass Think Inc System and method for managing object based clusters
JP4541609B2 (ja) * 2001-09-06 2010-09-08 富士重工業株式会社 停止線認識装置、及び、その停止線認識装置を用いた車両用運転支援装置
JP2003098424A (ja) * 2001-09-25 2003-04-03 Fujitsu Ten Ltd 画像処理測距装置
US7221777B2 (en) * 2002-07-02 2007-05-22 Honda Giken Kogyo Kabushiki Kaisha Image analysis device
JP4176430B2 (ja) * 2002-09-18 2008-11-05 富士重工業株式会社 車外監視装置、及び、この車外監視装置を備えた走行制御装置
FR2845051B1 (fr) * 2002-09-26 2005-06-03 Arvinmeritor Light Vehicle Sys Vehicule a detection optique multi-fonctions
US7194114B2 (en) * 2002-10-07 2007-03-20 Carnegie Mellon University Object finder for two-dimensional images, and system for determining a set of sub-classifiers composing an object finder
DE10255797A1 (de) * 2002-11-28 2004-06-17 Daimlerchrysler Ag Verfahren zur Erfassung der vorausliegenden Umgebung eines Strassenfahrzeugs mittels eines Umgebungserfassungssystems
US7564996B2 (en) * 2003-01-17 2009-07-21 Parimics, Inc. Method and apparatus for image processing
JP2005047331A (ja) * 2003-07-31 2005-02-24 Nissan Motor Co Ltd 制御装置
JP3987013B2 (ja) * 2003-09-01 2007-10-03 本田技研工業株式会社 車両周辺監視装置
JP2005309323A (ja) * 2004-04-26 2005-11-04 Kodak Digital Product Center Japan Ltd 撮像用焦点距離検出方法及び撮像装置
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
WO2005116828A2 (en) * 2004-05-21 2005-12-08 Computer Associates Think, Inc. Method and apparatus for dynamic memory resource management
US7979863B2 (en) * 2004-05-21 2011-07-12 Computer Associates Think, Inc. Method and apparatus for dynamic CPU resource management
JP4210640B2 (ja) * 2004-10-29 2009-01-21 本田技研工業株式会社 車両用制御対象判定装置および車両制御装置
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US8104033B2 (en) * 2005-09-30 2012-01-24 Computer Associates Think, Inc. Managing virtual machines based on business priorty
US8225313B2 (en) * 2005-10-19 2012-07-17 Ca, Inc. Object-based virtual infrastructure management
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7483978B2 (en) * 2006-05-15 2009-01-27 Computer Associates Think, Inc. Providing a unified user interface for managing a plurality of heterogeneous computing environments
JP4267657B2 (ja) * 2006-10-31 2009-05-27 本田技研工業株式会社 車両周辺監視装置
JP5221886B2 (ja) 2007-03-07 2013-06-26 富士重工業株式会社 物体検出装置
US8509487B2 (en) * 2007-04-19 2013-08-13 Avago Technologies General Ip (Singapore) Pte. Ltd. System and method for optically measuring a parameter of an object
JP4315991B2 (ja) * 2007-04-20 2009-08-19 本田技研工業株式会社 車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム
US20090005948A1 (en) * 2007-06-28 2009-01-01 Faroog Abdel-Kareem Ibrahim Low speed follow operation and control strategy
JP5075672B2 (ja) * 2008-02-25 2012-11-21 株式会社東芝 対象物検出装置及び方法
EP2275990B1 (de) * 2009-07-06 2012-09-26 Sick Ag 3D-Sensor
US9342500B2 (en) 2010-03-15 2016-05-17 Michael V. Liguori Object memory management system
KR101429250B1 (ko) * 2010-08-20 2014-09-25 주식회사 팬택 단계별 객체 정보 제공이 가능한 단말 장치 및 방법
JP2012185684A (ja) * 2011-03-07 2012-09-27 Jvc Kenwood Corp 対象物検出装置、対象物検出方法
US8406470B2 (en) * 2011-04-19 2013-03-26 Mitsubishi Electric Research Laboratories, Inc. Object detection in depth images
JP5690688B2 (ja) * 2011-09-15 2015-03-25 クラリオン株式会社 外界認識方法,装置,および車両システム
DE102011056051A1 (de) * 2011-12-05 2013-06-06 Conti Temic Microelectronic Gmbh Verfahren zur Auswertung von Bilddaten einer Fahrzeugkamera unter Berücksichtigung von Informationen über Regen
DE102011122457A1 (de) * 2011-12-24 2013-06-27 Connaught Electronics Ltd. Verfahren zum Betreiben einer Kameraanordnung, Kameraanordnung und Fahrerassistenzsystem
EP2821980A4 (en) 2012-03-02 2015-05-27 Nissan Motor DEVICE FOR DETECTING THREE-DIMENSIONAL OBJECTS
JP2014009975A (ja) * 2012-06-28 2014-01-20 Hitachi Automotive Systems Ltd ステレオカメラ
CN104395156B (zh) 2012-07-03 2017-02-22 歌乐株式会社 车辆周围监视装置
JP6174975B2 (ja) * 2013-11-14 2017-08-02 クラリオン株式会社 周囲環境認識装置
JP6313667B2 (ja) * 2014-06-10 2018-04-18 株式会社Subaru 車外環境認識装置
DE102016215249B4 (de) 2016-08-16 2022-03-31 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Unterstützen eines Fahrerassistenzsystems in einem Kraftfahrzeug
CN107192674A (zh) * 2017-05-25 2017-09-22 河南嘉禾智慧农业科技有限公司 一种监控大棚内种植物生长的物联网采集系统
DE102017218405A1 (de) * 2017-10-13 2019-04-18 Robert Bosch Gmbh Verfahren zum Verarbeiten von Bildern
US10748012B2 (en) * 2018-02-13 2020-08-18 Ford Global Technologies, Llc Methods and apparatus to facilitate environmental visibility determination
JP2021050988A (ja) * 2019-09-25 2021-04-01 ソニーセミコンダクタソリューションズ株式会社 測距装置及び電子機器

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0471079A (ja) * 1990-07-12 1992-03-05 Takayama:Kk 画像の位置合わせ方法
JPH04331311A (ja) * 1991-01-24 1992-11-19 Mitsubishi Electric Corp 車間距離検出装置
JPH0783655A (ja) 1993-09-13 1995-03-28 Toyota Motor Corp 車両用距離測定装置
JP3102825B2 (ja) * 1993-11-29 2000-10-23 キヤノン株式会社 カメラ
JPH07225126A (ja) 1994-02-14 1995-08-22 Mitsubishi Motors Corp 車両用路上物体認識装置
JPH08138053A (ja) * 1994-11-08 1996-05-31 Canon Inc 被写体情報処理装置及び遠隔装置
JP3035768B2 (ja) * 1995-05-22 2000-04-24 本田技研工業株式会社 車両用対照物検知装置
JPH0979821A (ja) 1995-09-12 1997-03-28 Suzuki Motor Corp 障害物認識装置
JPH10143659A (ja) * 1996-11-06 1998-05-29 Komatsu Ltd 物体検出装置
US5956424A (en) * 1996-12-23 1999-09-21 Esco Electronics Corporation Low false alarm rate detection for a video image processing based security alarm system
JP3337197B2 (ja) 1997-04-04 2002-10-21 富士重工業株式会社 車外監視装置
JP3516856B2 (ja) * 1998-01-30 2004-04-05 富士重工業株式会社 車外監視装置
JP4103179B2 (ja) 1998-06-30 2008-06-18 マツダ株式会社 環境認識装置
JP4391624B2 (ja) 1999-06-16 2009-12-24 本田技研工業株式会社 物体認識装置

Also Published As

Publication number Publication date
JP2001273494A (ja) 2001-10-05
DE10115080A1 (de) 2001-11-08
US20010028729A1 (en) 2001-10-11
DE10115080B4 (de) 2007-07-19
US6775395B2 (en) 2004-08-10

Similar Documents

Publication Publication Date Title
JP4414054B2 (ja) 物体認識装置
JP4391624B2 (ja) 物体認識装置
JP4118452B2 (ja) 物体認識装置
JP4856612B2 (ja) 物体検出装置
JP4856611B2 (ja) 物体検出装置
US6658150B2 (en) Image recognition system
US10520309B2 (en) Object recognition device, object recognition method, equipment control system, and distance image generation device
CN111832536B (zh) 一种车道线检测方法及装置
JP2000339597A (ja) 物体検出装置
JP4956374B2 (ja) 物体検出装置および接触回避システム
US20130208945A1 (en) Method for the detection and tracking of lane markings
JP4568637B2 (ja) 道路認識装置
JP2001091217A (ja) 物体認識装置
JP5834933B2 (ja) 車両位置算出装置
JP4389602B2 (ja) 物体検出装置、物体検出方法、プログラム
EP3591355B1 (en) Load meter, and load measurement method
US20160207473A1 (en) Method of calibrating an image detecting device for an automated vehicle
JP3807583B2 (ja) 道路領域判定装置
JP6701905B2 (ja) 検出装置、視差値導出装置、物体認識装置、機器制御システム、およびプログラム
WO2017002367A1 (en) Disparity image generation device, disparity image generation method, disparity image generation program, object recognition device, and equipment control system
JPH07244717A (ja) 車両用走行環境認識装置
JPH1166226A (ja) 車両のナンバプレート認識装置
JP5903901B2 (ja) 車両位置算出装置
JPH07333339A (ja) 自動車用障害物検知装置
JP5891802B2 (ja) 車両位置算出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091002

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20091002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131127

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees