JP2001004368A - 物体認識装置 - Google Patents

物体認識装置

Info

Publication number
JP2001004368A
JP2001004368A JP11169567A JP16956799A JP2001004368A JP 2001004368 A JP2001004368 A JP 2001004368A JP 11169567 A JP11169567 A JP 11169567A JP 16956799 A JP16956799 A JP 16956799A JP 2001004368 A JP2001004368 A JP 2001004368A
Authority
JP
Japan
Prior art keywords
distance
cluster
window
label
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11169567A
Other languages
English (en)
Other versions
JP4391624B2 (ja
Inventor
Morimichi Nishigaki
守道 西垣
Masakazu Saka
雅和 坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP16956799A priority Critical patent/JP4391624B2/ja
Priority to US09/572,249 priority patent/US6853738B1/en
Priority to DE10029423A priority patent/DE10029423B4/de
Publication of JP2001004368A publication Critical patent/JP2001004368A/ja
Application granted granted Critical
Publication of JP4391624B2 publication Critical patent/JP4391624B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • G01C3/085Use of electric radiation detectors with electronic parallax measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

(57)【要約】 【課題】ウィンドウのクラスタリングを高速に行う。 【解決手段】所定の間隔をおいて配置された少なくとも
2つの撮像手段、および該少なくとも2つの撮像手段で
得られ、複数のウィンドウに分割された画像に基づいて
ウィンドウごとに対象物までの距離を計測する計測手段
を有し、該計測手段により計測された距離に基づいて物
体を認識する物体認識装置において、前記計測手段によ
り計測することのできる領域が複数の距離範囲に区分け
されており、それぞれの距離範囲に異なるラベルを付与
して格納する距離範囲記憶手段と、前記計測手段により
計測された距離の値を、該距離値が属する距離範囲に対
応する前記ラベルに変換する距離変換手段と、該距離値
が変換されたラベルに基づいて、画像上のウィンドウを
クラスタリングしてクラスタを定めるクラスタリング手
段とを備え、ラベルに基づいてクラスタリングを高速に
行う。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、自動車などの車
両に搭載されたカメラによる撮像手段を用いて、前方の
物体を検出する光学式の物体認識装置に関し、より具体
的には、撮像された画像における複数のウィンドウを用
いて、物体の特徴を認識する物体認識装置に関する。
【0002】
【従来の技術】近年、車両走行の安全性を向上させるた
め、自車両の前方にある物体の距離や大きさを判断し、
これに応じて車両を適切に制御する装置が提案されてい
る。
【0003】2つの受光素子からなる光学式距離計測装
置を使用し、距離検出された被写体が物体か道路領域
(路面上の文字/白線を含む)かを判断する手法に関連
するものとして、特開平9−79821号公報には、計
算エリアごとに距離を算出し、、距離が相互に一定範囲
内であり、水平方向に一定値以内に近接する計算エリア
をクラスタリングして、障害物が存在する領域を認識す
る装置が提案されている。このクラスタリングでは、距
離が未測定の計算エリアも含めてクラスタリングされ
る。
【0004】
【発明が解決しようとする課題】しかしながら、ウィン
ドウ(上記の計算エリアに該当する)数を多くして、よ
り緻密に計測距離値を得てクラスタリング(上記のブロ
ック化に対応する)を行う場合には、特開平9−798
21号公報のもののように、算出された距離値に基づい
て距離が相互に一定範囲内にあるかどうかを判断する
と、処理に非常に時間がかかる。
【0005】また、従来、予め距離範囲を定めて、その
距離範囲内にあるウィンドウをクラスタリングする場合
には、最初に距離の度数分布等を求めてクラスタリング
を行う距離範囲を決定する処理が必要であった。さら
に、クラスタリングを行う際に、ウィンドウについて算
出された距離値がどの距離範囲に属するかを判断し、そ
の距離範囲が互いに等しいかどうかを判断することが必
要であった。これらの処理は、いずれも非常に時間がか
かる。
【0006】さらに、特開平9−79821号公報のも
ののようにクラスタリングを行う距離範囲を一定とする
と、距離が遠くなるほど距離値の精度が低下する。一般
に、距離dの算出は、視差をsとすると「d=C/s
(Cは定数)」の式で表され、視差の分解能が一定であ
るのに対し距離の分解能は遠距離にいくほど低下する。
そのため、同一の物体が複数のウィンドウにわたって撮
像されているとき、ウィンドウごとの距離値の誤差が、
遠距離にいくほど大きくなる。
【0007】たとえば、図14の(a)に示すように、
クラスタリングを行う距離範囲を一定にし、同一の物体
を撮像した2つのウィンドウの距離値を算出すると、近
距離では距離値101のウィンドウおよび距離値102
のウィンドウが一緒にクラスタリングされるのに対し、
遠距離では距離値103をもつウィンドウと距離値10
4をもつウィンドウが異なるクラスタにクラスタリング
されることになる。
【0008】反対に、図14の(b)に示すように、同
一の物体を撮像した2つのウィンドウを、遠距離で同じ
クラスタにクラスタリングさせるよう距離範囲を設定す
ると、距離値103をもつウィンドウと距離値104を
もつウィンドウは同じクラスタにクラスタリングされる
が、近距離では、距離値101および102をもつウィ
ンドウだけでなく、異なる物体を撮像した距離値105
をもつ他のウィンドウも同じクラスタにクラスタリング
されてしまう。このように、距離範囲を一定にしてクラ
スタリングを行うと、同一物体を同一のクラスタに含め
ることができなかったり、同一ではない物体が同一のク
ラスタに含まれてしまうということが生じる。
【0009】したがって、この発明は、ウィンドウにつ
いて算出された距離値に対応するラベルに基づいてクラ
スタリングすることにより、高速にウィンドウをクラス
タリングして物体を認識することのできる装置を提供す
ることを目的とする。さらに、計測される距離の誤差に
応じて距離範囲を設定することにより、正確にウィンド
ウをクラスタリングして物体を認識することのできる物
体認識装置を提供することを目的とする。
【0010】
【課題を解決するための手段】上記の課題を解決するた
め、請求項1の発明の物体認識装置は、所定の間隔をお
いて配置された少なくとも2つの撮像手段、および該少
なくとも2つの撮像手段で得られ、複数のウィンドウに
分割された画像に基づいてウィンドウごとに対象物まで
の距離を計測する計測手段を有し、該計測手段により計
測された距離に基づいて物体を認識する物体認識装置に
おいて、前記計測手段により計測することのできる領域
が複数の距離範囲に区分けされており、それぞれの距離
範囲に異なるラベルを付与して格納する距離範囲記憶手
段と、前記計測手段により計測された距離の値を、該距
離値が属する距離範囲に対応する前記ラベルに変換する
距離変換手段と、該距離値が変換されたラベルに基づい
て、画像上のウィンドウをクラスタリングしてクラスタ
を定めるクラスタリング手段とを備える。
【0011】この発明によると、ウィンドウの計測距離
ではなく、計測距離が属する距離範囲に対応するラベル
に基づいてクラスタリングするので、高速にクラスタリ
ングすることができる。
【0012】また、請求項2の発明は、請求項1の物体
認識装置の前記距離範囲記憶手段において、前記計測手
段が計測することのできる領域が、前記計測手段により
計測される距離の誤差に応じて複数の距離範囲に区分け
されている構成をとる。
【0013】請求項2の発明によると、計測される距離
の誤差に応じて距離範囲を設定するので、正確にクラス
タリングすることができる。
【0014】
【発明の実施の形態】次に図面を参照してこの発明の実
施の形態を説明する。図1は、この発明の一実施例の物
体認識装置の全体的なブロック図である。図2は、この
実施例で用いる三角計測法による距離の計測原理を説明
する図である。まず図2を参照して1対の撮像装置を用
いた距離の測定方法を説明する。
【0015】一対の撮像装置の一方を構成するラインセ
ンサ21およびレンズ23は、他方の撮像装置を構成す
るラインセンサ22およびレンズ24と所定の間隔すな
わち基線長Bだけ左右方向または上下方向に間隔をおい
て配置されている。ラインセンサ21および22は、典
型的には1次元のCCDであり、直線的に配列されたフ
ォトセンサのアレイであってもよい。夜間の使用を考慮
すると赤外線を用いた撮像装置にするのがよい。この場
合、レンズ23、24の前に赤外線透過性のフィルタを
置き、赤外線の光源を用いて一定の周期で対象物20を
照射し、対象物20から反射する赤外線をラインセンサ
21、22が感知するようにするのがよい。
【0016】ラインセンサ21、22は、それぞれレン
ズ23、24の焦点距離fに配置されている。レンズ2
3、24のある平面から距離aにある対象物の像が、ラ
インセンサ21ではレンズ23の光軸からX1ずれた位
置に形成され、ラインセンサ22ではレンズ24の光軸
からX2だけずれた位置に形成されるとすると、レンズ
23、24の面から対象物20までの距離aは、三角計
測法の原理により、a=B・f/(X1+X2)で求め
られる。
【0017】この実施例では画像はデジタル化されるの
で、距離(X1+X2)は、ディジタル的に算出され
る。ラインセンサ21および22で得られる画像の片方
または両方をシフトさせながら両画像のそれぞれ対応す
る画素の輝度を示すディジタル値の差の絶対値の総和を
求め、これを相関値とする。相関値が最小値になるとき
の画像のシフト量が両画像の間の位置ずれ、すなわち
(X1+X2)を示す。観念的には図2に示すようにラ
インセンサ21および22から得られる2つの画像を重
なり合わせるために2つの画像を相対的に移動させねば
ならない距離が(X1+X2)である。
【0018】ここでは、簡単のため撮像装置が1次元の
ラインセンサ21、22であるものとして説明したが、
以下に述べるようにこの発明の一実施例では2次元のC
CDまたは2次元のフォトセンサ・アレイを撮像装置と
して使用する。この場合、2つの撮像装置から得られる
2次元の画像を相対的にシフトさせて上述したのと同様
の相関計算を行い、相関値が最小となるときのシフト量
を求めると、このシフト量が(X1+X2)に相当す
る。
【0019】図1の撮像手段3は、図2のレンズ23お
よびラインセンサ21からなる一方の撮像手段に対応
し、撮像手段3’は、図2のレンズ24およびラインセ
ンサ22からなる他方の撮像手段に対応する。この実施
例では、図3の(b)に示すように撮像領域を複数のウ
ィンドウ(小領域)W11、W12、・・・に分割し、ウィ
ンドウごとに距離の計測を行うので、対象物全体の2次
元の画像が必要になる。このため撮像手段3、3’は、
2次元のCCDアレイまたは2次元のフォトセンサ・ア
レイで構成される。
【0020】図3の(a)は、撮像手段3または3’に
より自車両の前方を走行する他車両を撮像した画像の例
を示し、図3の(b)は、図3の(a)の画像を概念的
に複数のウィンドウに分割したものを示す。図3の
(b)は、縦方向に行および横方向に列をとり、簡単の
ため10行×15列のウィンドウに分割して示す。それ
ぞれのウィンドウには番号が付されており、例えばW12
は、1行2列にあるウィンドウを示す。
【0021】撮像手段3、3’で撮像された対象物の画
像はアナログ・デジタル変換器(A/D変換器)4、
4’でデジタルデータに変換され、画像メモリ5、5’
に格納される。ウィンドウ切り出し部9によって、ウィ
ンドウW11に対応する画像部分が画像メモリ5および
5’からそれぞれ切り出されて相関計算部6に送られ
る。相関計算部6は、切り出された2つの画像を所定の
単位ずつシフトさせて前述した相関計算を行い相関値が
最小になるときのシフト量を求めると、このシフト量が
(X1+X2)である。相関計算部6は、こうして求め
た(X1+X2)の値を距離計算部7に送る。
【0022】距離計算部7は、前述したa=B・f/
(X1+X2)の式を用いて、ウィンドウW11にある対
象物までの距離a11を求める。こうして求められた距離
11は、距離記憶部8に記憶される。同様の計算処理が
それぞれのウィンドウについて順次実行され、距離
11、a12、・・・が距離記憶部8に記憶される。以
下、あるウィンドウについて計算された対象物までの距
離を、そのウィンドウの計測距離という。
【0023】上の相関計算で用いる画像データは、撮像
素子アレイの素子のピッチによって分解能が定まるの
で、フォトセンサ・アレイなど比較的ピッチの大きい受
光素子を用いるときは、ピッチ間の補間計算を行って画
像データの密度を高める処理を行い、こうして密度を高
められた画像データについて相関計算を行うのが好まし
い。
【0024】また、温度による撮像素子アレイの特性変
化を補正するため、温度センサを撮像素子アレイ付近に
配置し、温度センサから得られる温度情報に基づいて距
離計算を補正するようにすることもできる。
【0025】次に、上記のようにして距離を計測するこ
とのできる領域を、複数の距離範囲に区分けする方法に
ついて説明する。図4の(a)に、検知エリア100の
例を示す。検知エリア100は、撮像部3および3’に
より距離を計測することのできる領域であり、撮像手段
3および3'の仕様および位置に基づいて定められる。
たとえば、検知エリア100を、距離レンジ60メート
ル、角度レンジ30度と設定することができる。検知エ
リア100は予め固定して設定することもできるが、自
車の速度に応じて動的に設定することが好ましい。この
場合、速度が大きくなるにつれて、測定可能な距離範囲
は大きくなり、角度範囲は小さくなるよう設定する。
【0026】検知エリア100は、計測される距離の誤
差に応じて、互いに重なりを持たないよう複数の距離範
囲に区分けされる。この実施例では、撮像手段3および
3’を備える車両から距離が遠くなるほど計測した距離
の精度が低下するので、距離が遠くなるほど広い距離範
囲を持つよう区分けされる(図4の(a)のS1〜S
6)。
【0027】距離範囲は、計測される距離の誤差に応じ
て設定される。ここで、距離の誤差の値は、撮像手段3
および3'の仕様などに依存する。たとえば、計測され
る距離の誤差が実際の距離の10%以下とすると、ある
距離に対する距離範囲は、「距離〜(距離×(1+0.
1))」と定めることができる。この実施例では、分割
数を少なくして高速に処理するため、また誤差10%と
いう精度がすべての画素について確保されないことがあ
るので、距離の誤差を30%として距離範囲を定める。
したがって、ある距離に対する距離範囲は、「距離〜
(距離×(1+0.3))」と定められる。
【0028】図5は、距離の誤差を30%とした場合の
距離と距離ラベルの対応の一部を示した表であり、同じ
距離ラベルをもつ距離が、1つの距離範囲を構成する。
距離の単位は0.1メートルである。たとえば、距離が
1のとき、距離の30%は0(小数点以下は切り捨て)
であるので、距離範囲1に対して距離ラベル「1」が付
与される。距離が2のとき、距離の30%は0なので、
距離範囲2に対して別の距離ラベル「2」が付与され
る。ここで、距離ラベルは、距離範囲が変わるごとに1
ずつ歩進されるよう設定される。距離が20のときは、
距離の30%は6であるので、距離範囲20〜26に対
して距離ラベル「9」が付与される。こうして、距離範
囲が近距離から遠距離へと設定され、検知エリア100
が複数の距離範囲に区分けされる。なお、異なる距離ラ
ベルを持ついくつかの距離範囲を結合して、1つの距離
範囲としてもよい。
【0029】この実施例ではわかりやすく説明するた
め、図5に示されるいくつかの距離範囲を大きく結合
し、図4の(b)に示すように距離範囲S1〜S6を設
定し、さらに新たな距離ラベル1〜6をそれぞれ付与す
る。図4の(a)は、図4の(b)の距離範囲S1〜S
6を示したものであり、車両から遠くなるほど距離範囲
が大きくなっている。なお、距離ラベルは、たとえばア
ルファベット文字など識別可能な他の符号を使用しても
よい。こうして、距離ラベルを付与された距離範囲は、
距離変換テーブルとして距離範囲記憶部9に記憶され
る。なお、検知エリアが予め固定して設定される場合に
は、予め距離範囲を算出して距離ラベルを付与した距離
変換テーブルを距離範囲記憶部9に格納しておくのが好
ましい。また、検知エリアが動的に変更される場合に
は、格納された距離変換テーブルを動的に更新すること
ができる。
【0030】図1の路面除去部31は、予め決められた
推定距離と上記のようにして計測された距離とをウィン
ドウごとに比較し、推定距離に近い計測距離および推定
距離以上の計測距離をもつウィンドウについての計測距
離値を距離記憶部8から削除する。推定距離とは、車両
が傾くことなく路面に平行な状態にある場合の路面まで
の距離をいい、この時の路面を推定路面という。この推
定距離は、たとえばCCDアレイにより実現される撮像
手段3および3'の取り付け位置、俯角、基線長、焦点
距離およびサイズと、画像におけるウィンドウの位置と
により予め算出され、ウィンドウごとに推定距離記憶部
32に記憶されている。
【0031】計測距離が推定距離に近い値または推定距
離以上の値ならば、ウィンドウの対象物が路面であって
物体ではないと判断し、路面除去部31は、路面と判断
されたウィンドウの計測距離値を距離記憶部8から削除
する。これにより、計測距離値が削除されたウィンドウ
については以降の物体認識の処理を進める必要がなくな
り、より効率よく他のウィンドウについて物体認識を行
うことができる。路面と判断されたウィンドウの計測距
離値を距離記憶部8から削除するかわりに、たとえば路
面と判断されたことを識別するフラグを使用し、路面と
判断されたウィンドウに識別フラグをたてて距離記憶部
8に記憶することもできる。
【0032】別の実施形態では、たとえば車両が下り坂
を走行し始めるという場合も考えられるので、計測距離
と推定距離とを比較して所定範囲内ならば、その計測距
離値を削除するようにすることもできる。たとえば、計
測距離と推定距離との差が0.5m以内ならば、所定範
囲内と判断して計測距離値を削除し、差が0.5mより
大きければ、以降のクラスタリング処理を進める。
【0033】次に、ウィンドウをクラスタリングする方
法を説明する。クラスタリング部33は、路面除去部3
1により削除されずに残った、計測距離をもつウィンド
ウについてクラスタリングを行う。最初に、クラスタリ
ング部33の距離変換部26は、それぞれのウィンドウ
について、計測距離を距離ラベルに変換する。具体的に
は、距離範囲記憶部9に格納された距離変換テーブルに
基づいて、ウィンドウの計測距離が属する距離範囲を調
べ、その距離範囲に対応するラベルに計測距離を変換す
る。ここで、たとえばコントラストがなかったために計
測距離が得られなかったウィンドウについては、距離変
換テーブルで使用されていないラベル、たとえばラベル
「0」を付与する。さらに、距離変換部26は、計測距
離をラベルに変換するとき、その計測距離が属する距離
範囲のウィンドウ数をカウントし、図4の(b)に示さ
れるそれぞれの距離範囲に属するウィンドウの度数を算
出する。
【0034】例として、図6の(a)は、撮像された画
像上のそれぞれのウィンドウの計測距離を示す。距離変
換部26は、図6の(a)に示される計測距離を、図4
の(b)の距離変換テーブルに従って距離ラベルに変換
する。図6の(b)は、それぞれのウィンドウについて
変換された距離ラベルを示す。この処理と同時に、距離
変換部26は、距離ラベルごとにウィンドウ数をカウン
トし、距離範囲ごとのウィンドウの度数を算出する。
【0035】すべてのウィンドウについて距離ラベルに
変換した後、距離変換部26は、ある距離範囲に属する
ウィンドウの度数がしきい値未満である場合には、その
距離範囲に属する計測距離を持つウィンドウの距離ラベ
ルを「0」に設定する。これは、高速化という目的では
一致しているが、その距離範囲に有効な物体(前方車両
など)が撮像されていないという判断を行ったために、
距離ラベルを「0」として無効化しているものである。
したがって、ウィンドウの度数がしきい値未満の距離範
囲に属するウィンドウをクラスタリングの対象から外
し、より高速にクラスタリングを行うようにする。な
お、しきい値は、距離範囲ごとに異なる値を設定するこ
とができる。
【0036】図6の(b)の例において、距離ラベル
「1」および「2」に対するしきい値をたとえば「1
0」とすると、距離ラベル「1」を持つウィンドウはW
31の1個だけであり、距離ラベル「2」を持つウィンド
ウは、W53、W73、W66、W68およびW48の5個である
ので、これらのウィンドウの距離ラベルを「0」に置き
換える。その結果得られる距離ラベルを図6の(c)に
示す。
【0037】次に、クラスタリング部33のクラスタラ
ベル付与部27は、それぞれのウィンドウの距離ラベル
に基づいて、それぞれのウィンドウにクラスタラベルを
付与し、同じラベルを持つウィンドウをクラスタリング
する。クラスタラベルは、同じ距離ラベルをもつ隣接す
るウィンドウが同じクラスタを構成するよう付与され
る。
【0038】クラスタラベル付与部27は、図7に示さ
れるテンプレートを使用してウィンドウにクラスタラベ
ルを付与する。図7の(a)のT1〜T5はテンプレー
トにおける位置を示す。図7の(b)のa〜eは、ある
ウィンドウにT4が合うようテンプレートが置かれた時
の、T1〜T5の位置にそれぞれ対応するウィンドウの
距離ラベルをそれぞれ示す。図7の(c)のA〜Eは、
あるウィンドウにT4が合うようテンプレートが置かれ
た時の、T1〜T5の位置にそれぞれ対応するウィンド
ウに付与されたクラスタラベルを示す。
【0039】また、図7の(d)の表は、あるウィンド
ウにT4が合うようテンプレートが置かれたときの、T
1〜T5の位置に対応するウィンドウの距離ラベルに基
づいて、T4の位置に対応するウィンドウにどのような
クラスタラベルDが付与されるかを示したものである。
たとえば、T1〜T5の位置に対応するウィンドウの距
離ラベルa〜eが条件5を満たせば、T4に対応するウ
ィンドウのクラスタラベルDには、T2に対応するウィ
ンドウのクラスタラベルBと同じクラスタラベルが付与
される。なお、条件2および3が満たされた時に付与さ
れるクラスタラベル「L」は、まだ使用されていない新
たなクラスタラベルを示す。クラスタラベル付与部27
は、テンプレートのT4を画像上のウィンドウに順次合
わせて画像上のウィンドウを順次走査し、ウィンドウの
距離ラベルに基づいてウィンドウにクラスタラベルDを
付与する。
【0040】図8の例を参照して、クラスタラベルを付
与する具体的な方法を説明する。図8で使用するウィン
ドウには、図8の(f)のように番号が付されている。
図8の(a)は、距離変換部26により、ウィンドウの
計測距離が距離ラベルに変換されたウィンドウW11〜W
44を示す。クラスタラベル付与部27は、画像上のウィ
ンドウを左上から右下へと走査する。
【0041】最初に、テンプレートのT4がウィンドウ
W11に合うようテンプレートが置かれる。ウィンドウW
11の距離ラベルが「0」であるので、図7の(d)の条
件1を満たし、T4に対応するウィンドウW11にクラス
タラベル「0」が付与される。同様にして、ウィンドウ
W12〜W14およびW21にクラスタラベル「0」が付与さ
れる。
【0042】次に、ウィンドウW22にテンプレートのT
4が合うようテンプレートが置かれ、ウィンドウW22は
図7の(d)の条件2を満たすので、新たなクラスタラ
ベル「61」を付与する(図8の(b))。この例で
は、クラスタラベルを2桁で表すことにし、上位の桁で
距離ラベルを表し、下位の桁は図7の(d)の条件2お
よび3に該当するたびに、1ずつ歩進するよう設定す
る。クラスタラベルは数字または文字などの任意の符号
を使用することができる。
【0043】次に、ウィンドウW23にT4が合うようテ
ンプレートが置かれ、ウィンドウW23は図7の(d)の
条件4を満たすので、ウィンドウW23に、ウィンドウW
22と同じクラスタラベル、すなわちクラスタラベル「6
1」を付与する。(図8の(c))。ウィンドウW24お
よびW31は条件1を満たすので、クラスタラベル「0」
が付与される。
【0044】次に、ウィンドウW32にT4が合うようテ
ンプレートが置かれ、ウィンドウW32は図7の(d)の
条件6を満たすので、T4に対応するウィンドウW32
に、ウィンドウW22と同じクラスタラベル、すなわちク
ラスタラベル「61」を付与する(図8の(d))。次
に、ウィンドウW33にT4が合うようテンプレートが置
かれ、ウィンドウW33は図7の(d)の条件7を満たす
ので、T4に対応するウィンドウW33に、ウィンドウW
23と同じクラスタラベル、すなわちクラスタラベル「6
1」を付与する。残りのウィンドウW34およびW41〜W
44は条件1を満たすので、クラスタラベル「0」が付与
される。こうして、クラスタラベルがそれぞれ付与され
たウィンドウが得られる(図8の(e))。
【0045】図7の(a)に示されるテンプレートで
は、T4に対応するウィンドウのクラスタラベルDを、
T4の上および左のT1およびT3に対応するウィンド
ウのクラスタラベル(AおよびC)に基づいて設定する
場合が多いので(図7の(d)の条件6〜8)、このよ
うなテンプレートを使用する場合には、画像上のウィン
ドウを左上から右下へと走査するのが好ましい。図7に
示すテンプレートは例であり、異なるテンプレートを用
いることができる。また、テンプレートに合わせて、ウ
ィンドウの走査の順序を定めることができる。
【0046】クラスタラベル付与部27は、図7の
(d)の条件8を満たす場合には、テンプレートのT1
およびT3に対応するクラスタラベルを連結としてクラ
スタ記憶部48に記憶する。図9を参照して連結を説明
する。図9の例で使用するウィンドウには、図9の
(g)に示されるように番号が付されている。図9の
(a)は、距離変換部26により、計測距離が距離ラベ
ルに変換されたウィンドウW11〜W35を示す。
【0047】クラスタラベル付与部27は、画像上のウ
ィンドウを左上から右下へとテンプレートを走査させ、
図8で説明したのと同じ方法で、図9の(a)の距離ラ
ベルに基づいてウィンドウにクラスタラベルを付与す
る。ウィンドウW11〜W31、W12およびW22は、条件1
を満たすので、クラスタラベル「0」が付与される。ウ
ィンドウW32は、図7の(d)の条件2を満たすので、
新たなクラスタラベル「61」を付与する(図9の
(b))。ウィンドウW13およびW23は条件1を満たす
ので、クラスタラベル「0」が付与される。ウィンドウ
W33は条件4を満たすので、ウィンドウW32と同じクラ
スタラベル「61」が付与される(図9の(c))。ウ
ィンドウW14は条件1を満たすので、クラスタラベル
「0」が付与される。ウィンドウW24は条件2を満たす
ので、新たなクラスタラベル「62」を付与する(図9
の(d))。
【0048】次に、T4がウィンドウW34に合うようテ
ンプレートが置かれ、T1に対応するウィンドウW24の
距離ラベルは「6」、クラスタラベルは「62」であ
り、T3に対応するウィンドウW33の距離ラベルは
「6」、クラスタラベルは「61」であるので、ウィン
ドウW34は図7の(d)の条件8を満たし、T1に対応
するウィンドウW24と同じクラスタラベル「62」が付
与される(図9の(e))。この結果、ウィンドウW32
およびW33のクラスタラベルと、ウィンドウW24および
W34のクラスタラベルとが、隣接しているにかかわらず
異なるものとなる。
【0049】したがって、図7の(d)の条件8を満た
す場合には、テンプレートのT1およびT3に対応する
ウィンドウのクラスタラベルAおよびC、この例ではウ
ィンドウW33およびW24のクラスタラベル「61」およ
び「62」を連結としてクラスタ記憶部48に記憶す
る。すべてのウィンドウについてクラスタラベルを付与
した後、連結として記憶された2つのクラスタラベル
を、同じクラスタラベルに置き換える。たとえば、クラ
スタラベル「61」を「62」に置き換えてもよいし、
この逆でもよい。さらに、たとえばラベル「63」のよ
うな新しいクラスタラベルで「61」および「62」を
置き換えてもよい。こうして、図9の(f)に示される
ように、同じ距離ラベルを持ち、隣接するウィンドウに
は、同じクラスタラベルが付与される。
【0050】図6に戻り、上記に説明した方法に従い、
図6の(c)に示される距離ラベルに基づいてウィンド
ウにクラスタラベルを付与すると、図6の(d)が得ら
れる。同じクラスタラベルを持つウィンドウの集まり
が、1つのクラスタを構成する。こうして定められたク
ラスタを、図6の(e)に示す。
【0051】計測距離値そのものを扱うのではなく距離
ラベルを使用することにより、高速にウィンドウのクラ
スタリングを行うことができる。すなわち、この発明に
よれば、計測距離値の距離ラベルへの変換が、距離範囲
ごとに度数分布を求める処理と並行して行われることに
より、ウィンドウの計測距離がどの距離範囲に属するか
という判断がすでに行われているため、従来のように、
クラスタリングを行うときに、距離範囲の度数分布等を
求めてクラスタリングする距離範囲を決定する処理が不
要となる。また、図7のようなテンプレートを走査させ
てクラスタラベルを決定するとき、従来のように計測距
離がどの距離範囲に属するかという判断が不要となり、
それぞれの属する距離範囲がdの属する距離範囲と等し
いかどうかの判断が不要となる。
【0052】以上のように、計測された距離の誤差に基
づいて距離範囲を設定することによりクラスタリングを
正しく行うことができ、距離ラベルを使用することによ
りクラスタリングを高速に行うことができる。
【0053】次に、3次元表示部35は、上記のように
クラスタリングされたウィンドウのクラスタを3次元情
報で表す。図10に示すように、3次元情報は、この実
施例では水平位置(x)、垂直位置(y)および路面距
離(z)の3座標を使用する。水平位置を示すx座標は
ウィンドウの列方向(図3の(b)を参照)に対応し、
垂直位置を示すy座標は路面からの高さ方向に対応し、
路面距離を示すz座標はウィンドウの行方向(図3の
(b)を参照)に対応する。また、路面距離を示すz座
標は計測距離dに比例する。
【0054】図10を参照して、クラスタを構成するウ
ィンドウを3次元情報で表す方法を説明する。原点Oは
車両が位置する路面を示し、x、yおよびz軸は原点O
で互いに直交する。x軸は車両から見て左右に伸びてお
り、y軸は路面に垂直に伸びており、z軸は車両の進行
方向に伸びている。撮像カメラ53は、原点Oからy軸
方向の高さHのところにある。物体54は、高さhおよ
び幅gを持ち、z軸方向にi進んだ所にある。撮像カメ
ラ53で撮像された画像上の複数のウィンドウのうち、
あるウィンドウには、物体54が存在しなければ点55
で表される路面が対象物として撮像され、物体54が存
在すれば、点56で表される物体54の一部が対象物と
して撮像される。推定距離Dは、撮像カメラ53と点5
5との間の距離であり、物体54が存在しない場合に撮
像された点55までの計測距離に等しい。計測距離d
は、撮像カメラ53と点56との間の距離であり、図2
を参照して前述した方法により計算される。(x,y,
z)座標系を使用すると、撮像カメラ53の位置は
(0,H,0)で表され、点56の位置は(g,h,
i)で表される。
【0055】ウィンドウごとの推定距離Dおよび撮像カ
メラの推定路面からの高さHは固定値であるので、予め
計算して記憶しておくことができる。図10から明らか
なように、ウィンドウの対象物の高さhは以下の式
(1)から、対象物の路面距離iは式(2)から求めら
れる。
【0056】
【数1】
【0057】図10のx軸方向の車両からの水平距離
は、撮像カメラの位置、画像におけるウィンドウ数など
に応じてウィンドウの列ごとに予め決められる。たとえ
ば、ウィンドウの3列目は、車両の中心から左に1メー
トルの位置を示すというように定めることができる。し
たがって、点56が撮像されているウィンドウの画像上
の位置に基づいて、点56のx座標値(この例ではgで
あり、対象物の幅の値に等しい)を求めることができ
る。こうして、クラスタを構成するウィンドウのそれぞ
れを、x、yおよびz座標で表すことができる。なお、
別の実施形態では、たとえば路面距離を示すz座標の代
わりに計測距離dを使用することもでき、上記の座標系
とは異なる座標系を使用してウィンドウを表すこともで
きる。
【0058】こうして、3次元情報表示部35は、クラ
スタを構成するそれぞれのウィンドウを3次元情報で表
して3次元上に点として投影し、クラスタの中心位置、
幅および大きさを求めることができる。あるクラスタに
ついて3次元上に投影されたすべての点を含む最小の直
方体を定め、クラスタを直方体で近似するのが好まし
い。これにより、クラスタの中心位置、幅および高さ
(厚み)を容易に求めることができ、クラスタに含まれ
る対象物の大きさおよび位置を正確に認識することがで
きる。
【0059】上記のx,y,z座標系を使用すると、直
方体で近似されたクラスタの幅は、投影された点のうち
最大のx座標値から最小のx座標値引いた値であり、ク
ラスタの厚みは、投影された点のうち最大のy座標値か
ら最小のy座標値を引いた値である。さらに、クラスタ
の中心位置は、x、yおよびz座標のそれぞれについ
て、最大値から最小値を引いて2分の1した値で表され
る。こうして算出されたクラスタの中心位置の距離、水
平位置および垂直位置と、クラスタの幅および高さ(こ
のようなクラスタに関するそれぞれの情報を、クラスタ
の属性という)は、クラスタ記憶部48に記憶される。
【0060】図1に戻り、クラスタ群決定部36は、物
体認識の処理が行われたことを示す処理済みフラグがた
っていないクラスタをクラスタ記憶部48から抽出し、
クラスタの属性に基づいて、任意の数のクラスタから構
成されるクラスタ群を定める。クラスタリング部33に
よりクラスタリングされた直後は、すべてのクラスタに
処理済みフラグがたっていないので、すべてのクラスタ
が抽出される。
【0061】この実施例では、クラスタ群決定部36
は、あるクラスタと他のクラスタの距離、水平位置およ
び垂直位置の差を算出し、これらの差がいずれもしきい
値以下ならば、これらのクラスタは同じクラスタ群に含
まれると判断する。この処理を、抽出されたクラスタの
すべてについて行い、クラスタ群を決定する。複数のク
ラスタが近い場所に現れているならば、これらのクラス
タは同じ対象物を表す可能性が高いからである。
【0062】しきい値は、車両からの距離に応じて異な
る値を設定するのが好ましい。この実施形態では、距離
および位置の差を求める2つのクラスタの距離に応じ
て、しきい値を設定する。2つのクラスタの距離は、そ
れぞれのクラスタに含まれるウィンドウ数と、それらウ
ィンドウの計測距離とに基づいて算出する。たとえば、
2つのクラスタC1およびC2があり、クラスタC1お
よびC2の距離をそれぞれd1およびd2とし、それぞ
れのクラスタC1およびC2に含まれるウィンドウ数を
w1およびw2とすると、以下の式(3)に基づいて2
つのクラスタの距離を算出することができる。ここで、
クラスタの距離d1およびd2は、それぞれのクラスタ
に含まれるウィンドウの計測距離を平均した値を用い
る。
【0063】
【数2】 2つのクラスタの距離 = (d1×w1+d2×w2)/(w1+w2) ...式(3)
【0064】2つのクラスタの水平位置および垂直位置
の差dxおよびdyは、2つのクラスタ間の間隔で表さ
れ、距離の差dzは、それぞれのクラスタの距離(上記
ではd1およびd2)の差で表される。例として、図1
1の(a)は、x−y平面から見た複数のクラスタを示
し、図11の(b)は、x−z平面から見た、図11の
(a)と同じクラスタを示す。クラスタC4およびC6
の水平位置の差は、x軸方向のdxで表され、垂直位置
の差は、y軸方向のdyで表される。また、クラスタC
4およびC6の距離をそれぞれd4およびd6とする
と、距離の差はz軸方向のdzで表される。
【0065】しきい値は、上記の式(3)を用いて計算
された2つのクラスタの距離に基づいて、たとえば、距
離の差については以下の表1のように、水平位置および
垂直位置の差については以下の表2のように設定するこ
とができる。
【0066】
【表1】
【0067】
【表2】
【0068】表1において、2つのクラスタの距離が大
きくなるほど距離の差のしきい値が大きくなっているの
は、自車両からの距離が遠くなるほど計測距離の誤差が
大きくなるためである。表2において、2つのクラスタ
の距離が大きくなるほど水平および垂直位置の差のしき
い値が小さくなっているのは、たとえば他の車両が自車
両から近い距離に存在するような場合には、コントラス
トが低いために計測距離を算出することのできないウィ
ンドウが多く発生し、クラスタとクラスタとの間の間隔
が広くなることがあるからである。
【0069】図11の(a)および(b)を参照する
と、クラスタ群決定部36は、クラスタC1〜C6から
任意のクラスタを2つ選び、距離、水平および垂直位置
の差を算出してしきい値と比較し、同じクラスタ群に含
めることができるかどうか判断する。たとえば、クラス
タC1およびC2は距離および位置の差がしきい値以下
なので同じクラスタ群に含めることができ、クラスタC
2およびC4も距離および位置の差がしきい値以下なの
で同じクラスタ群に含めることができると判断し、その
結果、クラスタC1、C2およびC4を同じクラスタ群
G1に含めることができると判断する。
【0070】また、クラスタC6およびクラスタC5
は、水平および垂直位置の差はしきい値以下であるが、
距離の差がしきい値を超えるため、それぞれ別のクタス
タ群に含めると判断する。このようにして、クラスタ群
決定部36は、図11の(c)および(d)に示される
ような2つのクラスタ群G1およびG2を決定する。そ
の後、クラスタ群決定部36は、同じクラスタ群を構成
するクラスタに、同じクラスタラベルを付与しなおす。
【0071】次に、過去の情報に基づいて物体を推定す
る方法を説明する。図1の物体推定部40は、前回認識
された物体の位置と、該物体に対する相対速度に基づ
き、今回得られた画像における物体の位置を推定する。
図12を参照して、この実施形態における物体の推定方
法について説明する。図12の(a)〜(c)は前回の
処理を示し、図12の(d)〜(f)は今回の処理を示
す。図12の(a)には、2台の車両91および92が
撮像されており、図12の(d)には、図12の(a)
と同じ車両91および92が撮像され、さらに新たに標
識93が撮像されている。
【0072】図12の(b)は、図12の(a)の画像
に基づいてクラスタリング部33により定められたクラ
スタC11〜C17と、クラスタ群決定部36により定
められたクラスタ群63および64を示す。図12の
(c)は、クラスタ群63および64から認識された物
体65および66を示し、それぞれ車両91および車両
92に対応する。物体65と66の位置および大きさ
は、前回の処理で物体記憶部39に記憶されている。
【0073】物体推定部40は、前回認識された物体6
5および66の位置と相対速度を物体記憶部39から読
み出し、物体65および66の今回の位置を算出する。
算出は、(前回の物体の位置+相対速度×検出間隔時
間)という計算式を使用して行うことができる。この例
では、物体65に対する相対速度はゼロであり、物体6
6に対する相対速度が時速−10キロメートルとし(こ
の例では、物体の速度に対して自車両の速度が大きい場
合の相対速度を「負」で表す。)、検出間隔時間を10
0ミリ秒とする。前回と今回の物体65に対する相対距
離は変化せず、物体66に対する相対距離は約0.3メ
ートルだけ短くなる。
【0074】したがって、自車両の位置を原点とし、前
回の物体65の位置(物体の中心座標で表すとする)を
(x1,y1,z1)、物体66の位置を(x2,y2,x2)と
し、それぞれの座標値をメートルで示すと、物体65の
今回の位置は(x1,y1,z1)、物体66の今回の位置は
(x2,y2,z2−0.3)と推定することができる。ここ
で、推定される物体は前回と同じ水平位置にあるとす
る。なお、座標系や原点のとりかたに応じて、物体に対
して自車両の速度が大きい(または小さい)場合の相対
速度「正」または「負」で表すことができ、上記と異な
る式を用いて物体の位置を算出することもできる。
【0075】さらに、時間が経過しても物体の大きさは
変わらないので、物体推定部40は、物体65および6
6の幅および高さを物体記憶部39から読み出し、それ
ぞれの今回の位置(x1,y1,z1)および(x2,y2,z2−
0.3)において、物体65および66を3次元上に再構
成することができ、推定された物体の画像上におけるウ
ィンドウの位置を求めることができる。図12の(e)
は、上記のように物体65および66を推定した物体7
5および76を、画像上の四角で囲まれた領域で示す。
【0076】物体推定部40は、推定した物体(以下、
推定物体という)75および76の属性(距離、水平位
置、垂直位置、幅および高さなどの物体に関する情報)
を、推定物体記憶部49に記憶する。なお、物体推定部
40による処理は、前述したクラスタリング部33およ
びクラスタ群決定部36による処理と並行して行うのが
好ましい。
【0077】図1に戻り、クラスタ選択部41は、最も
近い距離にあるクラスタを含むクラスタ群を選ぶ。次
に、選択されたクラスタ群を構成するクラスタと距離の
差がしきい値以下であって、水平および垂直位置で重な
りを持つ推定物体のうち、最も近い距離にある推定物体
を選択する。その後、クラスタ選択部41は、選択され
た推定物体と重なりを持つクラスタを、選択されたクラ
スタ群からすべて選択する。
【0078】ここで、選択したクラスタ群を構成するい
ずれのクラスタも、推定物体との距離の差がしきい値を
満たさず推定物体と重なりを持たない場合、すなわち選
択すべき推定物体が無い場合には、そのクラスタ群に含
まれるすべてのクラスタを選択し、処理は物体候補抽出
部42に進む。
【0079】また、物体候補抽出クラスタ選択部41
は、すべてのクラスタが処理された後になお推定物体が
残っている場合には、この推定物体はすでに画像領域に
現れなくなった物体と判断し、推定記憶部49から削除
することができる。
【0080】近い距離にあるクラスタ群および推定物体
から処理するのは、近い距離にあるクラスタほど物体か
どうか優先して判断する必要があり、また、対応する推
定物体を見つけやすいからである。
【0081】クラスタおよび推定物体のそれぞれの距離
は、それぞれの中心位置における距離を用いることがで
きる。または、クラスタの距離は、クラスタを構成する
ウィンドウの計測距離の平均した値を用いることもでき
る。距離の差のしきい値は、前述した表1の値を用いる
こともでき、または新たに異なる値のしきい値を用いて
もよい。重なりの判断は、比較するクラスタと推定物体
をx−y平面に投影することにより、簡単に判断するこ
とができる。なお、水平および垂直位置に重なりがあれ
ばよく、推定物体にクラスタ全体が含まれる必要はな
い。
【0082】図12の例で説明すると、図12の(d)
に示される車両91と92および標識93は、実際に路
面上のほぼ同じ距離に存在しているとする。図12の
(e)には、クラスタリング部33が図12の(d)の
画像に基づいて定めたクラスタC21〜C31と、クラ
スタ群決定部36により定められ、クラスタC21〜C
31から構成される1つのクラスタ群72が示される。
【0083】クラスタ選択部41は、最も近い距離にあ
るクラスタを含むクラスタ群を選択するが、この例では
クラスタ群が1つなので、クラスタ群72が選択され
る。次に、クラスタ群72を構成するクラスタの距離お
よび位置をクラスタ記憶部48から読み出し、推定物体
75および76の距離および位置を推定物体記憶部49
から読み出す。クラスタ群72を構成するクラスタとの
距離の差がしきい値以下で、水平および垂直位置で重な
りを持つ推定物体は2つある(推定物体75および7
6)。推定物体75が76より近い距離にあるとする
と、推定物体75が選択される。次に、クラスタ群72
を構成するクラスタのうち、推定物体75と重なりを持
つクラスタC22〜C26を選択する。こうして、推定
物体に対応するクラスタがまとまりをもって選択され
る。
【0084】物体候補抽出部42は、クラスタ選択部4
1で選択されたクラスタからすべての組み合わせを抽出
し、それぞれの組み合わせについて結合クラスタを定
め、それぞれの結合クラスタを物体候補とする。組み合
わせには、クラスタが1つの場合も含む。図13は、図
12の(e)の推定物体75について選択されたクラス
タC22〜C26のすべての組み合わせを抽出したもの
である。たとえば、図13の結合クラスタ番号10に
は、クラスタC23とC24の組み合わせで結合された
クラスタが示される。ここで、結合クラスタを構成する
クラスタをすべて含む最小の直方体を定めて、結合クラ
スタを直方体で近似するのが好ましい。これにより、結
合クラスタの属性(距離、位置、大きさなど)を容易に
求めることができる。
【0085】物体候補抽出部42により、物体候補であ
る結合クラスタが抽出された後、対応する推定物体を持
つ結合クラスタについては、処理は物体判定部37を経
て第1の物体認識部43に進み、対応する推定物体を持
たない結合クラスタについては、処理は物体判定部37
を経て第2の物体認識部44に進む。
【0086】図1の物体判定部37は、物体候補抽出部
42により抽出された物体候補である結合クラスタの高
さまたは厚みに基づいて、クラスタの対象物が物体かど
うか判断する。結合クラスタの高さおよび厚みがクラス
タ記憶部48に記憶されている。たとえば、検知対象を
他の車両とする場合には、推定路面から結合クラスタの
上面までの高さが90cm以下であり、かつ上面と下面と
の差が80cm以下の結合クラスタと、上面までの高さが
70cm以下の結合クラスタとを、物体ではないと判定し
て物体候補から除外する。高さおよび厚みにこのような
しきい値を設けることにより、結合クラスタが路面であ
る場合には、厚みが非常に薄いものとなるため、物体と
判定されることはない。
【0087】第1の物体認識部43は、物体判定部37
により除外されずに残っている結合クラスタであって、
対応する推定物体を持つ結合クラスタの属性と、推定物
体との属性とを順次比較し、推定物体の属性に一番近い
属性をもつ結合クラスタを物体として認識する。ここで
使用する属性は、距離、水平位置、垂直位置、幅および
高さであり、属性の比較は以下の式(4)を用いて行わ
れる。式(4)の変数の意味を表3に示す。
【0088】
【数3】
【0089】
【表3】
【0090】式(4)は、結合クラスタおよび推定物体
の中心位置の差と、幅および高さの差とに基づいて、両
者の属性の差を関数で表したものである。なお、距離
(Z値)は、その距離値に応じて誤差があるので、推定
物体の距離Ztに比例する値で補正している。
【0091】図13の例では、推定物体75に対応する
結合クラスタ1〜31のすべてについて関数値E1を算
出し(e01、e02、、、e31)、関数値E1が最小となる結
合クラスタ31を物体78として認識する(図12の
(f))。最小のE1を持つ結合クラスタ31が、推定
物体75の位置および大きさを最も良く表すからであ
る。
【0092】こうして属性の比較を行うことにより、た
とえばあるクラスタが複数の推定物体と重なりをもち、
推定物体のほんの一部しか表さない場合には、そのクラ
スタを含まない結合クラスタが物体として認識され、よ
り正確に物体を認識することができる。
【0093】物体として認識されたクラスタC22〜C
26および対応する推定物体75は、物体認識の処理が
行われたことを識別するため、たとえば処理済みフラグ
をたててクラスタ記憶部48および推定物体記憶部49
に記憶される。
【0094】クラスタ群決定部36、クラスタ選択部4
1、物体候補抽出部42、第1の物体認識部43(また
は第2の物体認識部44)による処理は、すべてのクラ
スタが処理済みとなるまで(この例では、すべてのクラ
スタに処理済みフラグがたつまで)繰り返される。すな
わち、クラスタ群決定部36が、クラスタ記憶部48に
記憶されたクラスタの処理済みフラグを調べ、処理済み
フラグがたっていないクラスタが見つからないとき、繰
り返し処理を終える。
【0095】または、物体として認識する数に予め上限
(たとえば、4個)を定め、認識された物体の数がこの
数に達したならば、処理の繰り返しを終えるようにする
こともできる。
【0096】図12の(f)を参照して前述したよう
に、物体78が認識された後、クラスタ群決定部36
は、クラスタ記憶部48に記憶されたクラスタの処理済
みフラグを調べ、処理済みフラグがたっていないラスタ
C21、C27〜C31を抽出する。さらに、推定物体
記憶部49に記憶された推定物体の処理済みフラグを調
べ、処理済みフラグがたっていない推定物体76を抽出
する。
【0097】クラスタC21およびクラスタC27〜C
31は水平位置の差がしきい値を超えるので、クラスタ
群決定部36は、それぞれ異なる2つのクラスタ群を新
たに定める。このように、新たにクラスタ群を定めるこ
とにより、他の推定物体がどのような位置にあっても、
クラスタC21とC27〜C31が結合されて1つの物
体と誤認されることがなくなる。
【0098】クラスタC27〜C31から構成されるク
ラスタ群の方が近い距離にあるとすると、クラスタ選択
部41は、クラスタC27〜C31のクラスタ群を選択
し、このクラスタ群を構成するクラスタと、距離の差が
しきい値以下で水平および垂直位置で重なりを持つ推定
物体76を選択する。次に、クラスタ群を構成するクラ
スタのうち、推定物体76を重なりを持つクラスタC2
7〜C31を選択する。
【0099】物体候補抽出部42は、クラスタC27〜
C31のすべての組み合わせを作って結合クラスタを定
める。第1の物体認識部43は、それぞれの結合クラス
タの属性を、推定物体76の属性と比較する。その結
果、クラスタC27〜C31からなる結合クラスタが、
推定物体76に最も近い属性を持つと判断し、クラスタ
C27〜C31の結合クラスタを物体79と認識する
(図12の(f))。物体と認識されたクラスタC27
〜C31および対応する推定物体76は、クラスタ記憶
部48および推定物体記憶部49に、それぞれ処理済み
フラグをたてて記憶される。
【0100】次に、クラスタ群決定部36は、処理済み
フラグがたっていないクラスタC21をクラスタ記憶部
48から抽出する。クラスタが1個なので、クラスタC
21をクラスタ群とする。この例では、推定物体がすべ
て処理され、対応する推定物体が存在しないので、クラ
スタ選択部41は、クラスタC21を選択し、物体候補
抽出部42に渡す。物体候補抽出部42は、クラスタ群
に含まれるクラスタのすべての組み合わせから結合クラ
スタを定めるが、ここではクラスタC21の1個だけな
ので、クラスタC21からなる結合クラスタを定める。
クラスタC21からなる結合クラスタは、物体判定部3
7を経て、第2の物体認識部44で処理される。
【0101】このように、物体を表すクラスタはまとま
って現れると考えられるので、処理の繰り返しはクラス
タ群の決定から行うのが好ましい。前述したように、推
定物体の距離および位置は相対速度から求めるので、誤
差を含むことが多い。クラスタ群を決定せずに、推定物
体と重なりを持つクラスタを抽出すると、水平位置が非
常に離れているクラスタを結合して物体と誤認すること
がある。
【0102】第2の物体認識部44は、物体候補抽出部
42から抽出された、対応する推定物体を持たない少な
くとも1つ以上のクラスタから構成される結合クラスタ
の属性と、予め決められた検知すべき物体(以下、検知
物体という)の属性とを比較し、属性の差が最小値とな
る検知物体を、結合クラスタに対応する物体として認識
する。なお、しきい値を設けて、属性の差がしきい値以
下で、最小値となる検知物体を、対応する物体として認
識することもできる。予め決められた検知物体との比較
は、すべての結合クラスタについて行われ、検知物体が
複数ある場合には、すべての検知物体と比較される。
【0103】検知すべき物体の属性は予め決められて検
知物体記憶部50に記憶されている。たとえば、車両を
検知するのであれば、いくつかの種類の標準的な車両の
属性が記憶されており、標識を検知するのであれば、い
くつかの標準的な標識の属性を記憶することができる。
この実施例では、比較する属性として幅および高さを使
用し、前回の情報が存在しないので距離、水平位置およ
び垂直位置は比較しない。属性の比較は、以下の式
(5)を用いる。式(5)の変数の意味を表4に示す。
式(5)は、結合クラスタおよび検知物体の幅および高
さの差に基づいて、両者の属性の差を関数で表したもの
である。
【0104】
【数4】 E2 = |Wc−Wt|+|Hc−Ht| ・・・式(5)
【0105】
【表4】
【0106】図12の例では、前述したように、第2の
物体認識部44は、物体候補抽出部42により抽出され
たクラスタC21の結合クラスタの属性と、いくつかの
検知物体の属性とを比較し、関数値E2が最小となる検
知物体(この例では、標識)を抽出する。こうして、ク
ラスタC21が物体77として認識される(図12の
(f))。
【0107】以上のように、過去の物体に関する情報を
使用して物体を認識することにより、前方を走行する他
の車両が路側物(たとえば、標識)に近接して走行した
場合や、隣りのレーンの車両が前方車に接近した場合
に、2つの物体を1つの物体と誤認したり、1つの物体
を複数の物体と誤認することがなくなる。
【0108】第1および第2の物体認識部43および4
4は、認識された物体の属性を物体記憶部39に記憶す
る。物体記憶部39には、前回認識された物体の属性も
記憶されている。さらに、第1および第2の物体認識部
43および44は、前回認識された物体の距離(前回距
離)および今回認識された物体の距離(今回距離)を用
い、計算式「(今回距離−前回距離)/検出時間間隔」
に基づいて求めた値にフィルターをかけて物体に対する
自車の相対速度を算出し、物体記憶部39に記憶する。
検出時間間隔は、前述したように前回の計測と今回の計
測との時間差であり、たとえば100ミリ秒とすること
ができる。
【0109】車両制御部45は、物体記憶部39に記憶
された物体の距離、位置および相対速度などの情報、お
よび自車速度検出装置46やヨーレート検出装置47な
どの装置からの情報に基づいて、物体までの距離が適切
であるよう自車両を制御する。たとえば、運転者に音声
やアラームで警告を発したり、自車のエンジンを制御し
て強制的に減速させたりなどの制御をすることができ
る。
【0110】なお、物体の認識を確実にするため、第1
および第2の物体認識部43および44により前回認識
された物体と今回認識された物体とが同一かどうか判断
し、同一物体が連続してある予め決められた回数認識さ
れたときに、車両制御部45が車両を制御するようにす
るのが好ましい。
【0111】図1に示した相関計算部6、距離計算部
7、距離記憶部8、ウィンドウ切り出し部13、距離範
囲記憶部9、クラスタリング部33、クラスタ群決定部
36、クラスタ記憶部48、物体判定部37、物体記憶
部39、物体推定部40、クラスタ選択部41、物体候
補抽出部42、第1および第2の物体認識部43および
44、推定物体記憶部49、検知物体記憶部50および
車両制御部45は、中央演算処理装置(CPU)、制御
プログラムおよび制御データを格納する読み出し専用メ
モリ、CPUの演算作業領域を提供し様々なデータを一
時記憶することができるランダムアクセスメモリ(RA
M)で構成することができる。距離記憶部8、距離範囲
記憶部9、クラスタ記憶部48、推定物体記憶部49、
物体記憶部39および検知物体記憶部50は、1つのR
AMのそれぞれ異なる記憶領域を使用して実現すること
ができる。また、各種の演算で必要となるデータの一時
記憶領域も同じRAMの一部分を使用して実現すること
ができる。
【0112】また、この発明の物体判定装置をエンジン
の電子制御ユニット(ECU)、ブレーキ制御ECUそ
の他のECUとLAN接続して物体判定装置からの出力
を車両の全体的な制御に利用することができる。
【0113】
【発明の効果】請求項1の発明によると、ウィンドウの
計測距離ではなく、その計測距離が属する距離範囲に対
応するラベルに基づいてクラスタリングするので、高速
にクラスタリングすることができる。
【0114】請求項2の発明によると、計測される距離
の誤差に応じて距離範囲を設定するので、正確にクラス
タリングすることができる。
【図面の簡単な説明】
【図1】この発明の一実施例の全体的な構成を示すブロ
ック図。
【図2】三角計測法による距離の計測原理を説明するた
めの図。
【図3】この発明による、(a)撮像された画像、
(b)距離および道路領域判定のため小領域(ウィンド
ウ)に分割された画像を示す図。
【図4】この発明による、(a)検知エリアの分割、
(b)距離範囲と距離ラベルの設定を示す図。
【図5】この発明による、計測された距離の誤差に応じ
た距離の分割を示す表。
【図6】この発明による、クラスタリングを示す図。
【図7】この発明による、テンプレートと、クラスタラ
ベルの決定方法を示す図。
【図8】この発明による、クラスタラベルの付与の方法
を示す図。
【図9】この発明による、クラスタラベルの連結の方法
を示す図。
【図10】この発明による、(a)ウィンドウを3次元
情報で表す方法、(b)車両が移動した場合のウィンド
ウの3次元情報の変化を示す図。
【図11】この発明によるクラスタ群決定を説明するた
め、(a)x−y平面から見たクラスタ、(b)x−z
平面から見たクラスタ、(c)x−y平面から見たクラ
スタ群、(d)x−z平面から見たクラスタ群を示す
図。
【図12】この発明による、前回および今回の撮像され
た画像((a)および(d))、クラスタ((b)および(e))、
認識された物体((c)および(f))を示す図。
【図13】この発明による、クラスタの組み合わせを示
す表。
【図14】従来技術による、検知エリアにおける距離範
囲の設定とクラスタリングの関係を示す図。
【符号の説明】
3、3’ 撮像部 7 距離計算部
9 距離範囲記憶部 33 クラスタリング部 36 クラスタ群決定部 4
1 クラスタ選択部4142 物体候補抽出部 43
第1の物体認識部 44 第2の物体認識部

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】所定の間隔をおいて配置された少なくとも
    2つの撮像手段、および該少なくとも2つの撮像手段で
    得られ、複数のウィンドウに分割された画像に基づいて
    ウィンドウごとに対象物までの距離を計測する計測手段
    を有し、該計測手段により計測された距離に基づいて物
    体を認識する物体認識装置において、 前記計測手段により計測することのできる領域が複数の
    距離範囲に区分けされており、それぞれの距離範囲に異
    なるラベルを付与して格納する距離範囲記憶手段と、 前記計測手段により計測された距離の値を、該距離値が
    属する距離範囲に対応する前記ラベルに変換する距離変
    換手段と、 該距離値が変換されたラベルに基づいて、画像上のウィ
    ンドウをクラスタリングしてクラスタを定めるクラスタ
    リング手段と、 を備える物体認識装置。
  2. 【請求項2】前記距離範囲記憶手段において、前記計測
    手段が計測することのできる領域が、前記計測手段によ
    り計測される距離の誤差に応じて複数の距離範囲に区分
    けされている請求項1に記載の物体認識装置。
JP16956799A 1999-06-16 1999-06-16 物体認識装置 Expired - Fee Related JP4391624B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP16956799A JP4391624B2 (ja) 1999-06-16 1999-06-16 物体認識装置
US09/572,249 US6853738B1 (en) 1999-06-16 2000-05-17 Optical object recognition system
DE10029423A DE10029423B4 (de) 1999-06-16 2000-06-15 Objekterkennungssystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16956799A JP4391624B2 (ja) 1999-06-16 1999-06-16 物体認識装置

Publications (2)

Publication Number Publication Date
JP2001004368A true JP2001004368A (ja) 2001-01-12
JP4391624B2 JP4391624B2 (ja) 2009-12-24

Family

ID=15888873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16956799A Expired - Fee Related JP4391624B2 (ja) 1999-06-16 1999-06-16 物体認識装置

Country Status (3)

Country Link
US (1) US6853738B1 (ja)
JP (1) JP4391624B2 (ja)
DE (1) DE10029423B4 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6775395B2 (en) 2000-03-27 2004-08-10 Honda Giken Kogyo Kabushiki Kaisha Object recognition system
JP2007052626A (ja) * 2005-08-18 2007-03-01 Matsushita Electric Ind Co Ltd メタデータ入力装置およびコンテンツ処理装置
JP2012238245A (ja) * 2011-05-12 2012-12-06 Fuji Heavy Ind Ltd 環境認識装置および環境認識方法
JP2012238244A (ja) * 2011-05-12 2012-12-06 Fuji Heavy Ind Ltd 環境認識装置および環境認識方法
JP2012238243A (ja) * 2011-05-12 2012-12-06 Fuji Heavy Ind Ltd 環境認識装置および環境認識方法
JP2015520433A (ja) * 2012-03-26 2015-07-16 ティーケー ホールディングス インコーポレーテッド レンジ・キュー式物体セグメンテーションシステムおよび方法
KR20160083619A (ko) * 2014-12-31 2016-07-12 (주)베라시스 복수개의 검출윈도우를 통한 관심영역에서의 차량식별방법
WO2017209213A1 (ja) * 2016-05-31 2017-12-07 Necソリューションイノベータ株式会社 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
US7208720B2 (en) * 1999-07-06 2007-04-24 Larry C. Hardin Intrusion detection system
US20070162248A1 (en) * 1999-07-06 2007-07-12 Hardin Larry C Optical system for detecting intruders
JP2004535023A (ja) * 2001-07-06 2004-11-18 コンピュータ アソシエイツ シンク,インコーポレイテッド オブジェクトベースのクラスタを管理するためのシステム及び方法
DE10219788C1 (de) * 2002-05-03 2003-11-13 Bosch Gmbh Robert Verfahren und Vorrichtung zur Sichtweitenmessung mit Bildsensorsystemen
AU2003225228A1 (en) 2002-05-03 2003-11-17 Donnelly Corporation Object detection system for vehicle
JP2004061446A (ja) * 2002-07-31 2004-02-26 Fujitsu Ten Ltd パターンマッチング処理方法及び画像処理装置
JP4176430B2 (ja) * 2002-09-18 2008-11-05 富士重工業株式会社 車外監視装置、及び、この車外監視装置を備えた走行制御装置
US7266453B2 (en) * 2003-08-22 2007-09-04 Honda Motor Co., Ltd. Vehicular object detection system, tracking control system, and vehicle control system
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
EP1769352B1 (en) * 2004-05-21 2013-03-20 Computer Associates Think, Inc. Method and apparatus for dynamic cpu resource management
EP1769353A2 (en) * 2004-05-21 2007-04-04 Computer Associates Think, Inc. Method and apparatus for dynamic memory resource management
JP4532171B2 (ja) * 2004-06-01 2010-08-25 富士重工業株式会社 立体物認識装置
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
JP4859390B2 (ja) * 2005-05-10 2012-01-25 株式会社リコー 画像処理方法及び画像処理装置
US8104033B2 (en) 2005-09-30 2012-01-24 Computer Associates Think, Inc. Managing virtual machines based on business priorty
US8225313B2 (en) * 2005-10-19 2012-07-17 Ca, Inc. Object-based virtual infrastructure management
US8108119B2 (en) * 2006-04-21 2012-01-31 Sri International Apparatus and method for object detection and tracking and roadway awareness using stereo cameras
US7483978B2 (en) * 2006-05-15 2009-01-27 Computer Associates Think, Inc. Providing a unified user interface for managing a plurality of heterogeneous computing environments
US8213734B2 (en) * 2006-07-07 2012-07-03 Sony Ericsson Mobile Communications Ab Active autofocus window
US7972045B2 (en) 2006-08-11 2011-07-05 Donnelly Corporation Automatic headlamp control system
JP5100543B2 (ja) * 2008-07-11 2012-12-19 キヤノン株式会社 文書管理装置、文書管理方法、及びコンピュータプログラム
JP5038283B2 (ja) * 2008-11-05 2012-10-03 キヤノン株式会社 撮影システム及びレンズ装置
JP5068779B2 (ja) * 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
US8452599B2 (en) * 2009-06-10 2013-05-28 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for extracting messages
US8269616B2 (en) * 2009-07-16 2012-09-18 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for detecting gaps between objects
US8337160B2 (en) * 2009-10-19 2012-12-25 Toyota Motor Engineering & Manufacturing North America, Inc. High efficiency turbine system
US8237792B2 (en) * 2009-12-18 2012-08-07 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for describing and organizing image data
US9342500B2 (en) 2010-03-15 2016-05-17 Michael V. Liguori Object memory management system
DE102010021807B4 (de) 2010-05-27 2018-03-29 Sick Ag Lichttaster in V-Anordnung
US8424621B2 (en) 2010-07-23 2013-04-23 Toyota Motor Engineering & Manufacturing North America, Inc. Omni traction wheel system and methods of operating the same
CN103109313B (zh) * 2010-09-08 2016-06-01 丰田自动车株式会社 危险度计算装置
US9280711B2 (en) * 2010-09-21 2016-03-08 Mobileye Vision Technologies Ltd. Barrier and guardrail detection using a single camera
KR101340014B1 (ko) * 2011-12-09 2013-12-10 에스엘 주식회사 위치 정보 제공 장치 및 방법
JP6197291B2 (ja) * 2012-03-21 2017-09-20 株式会社リコー 複眼カメラ装置、及びそれを備えた車両
TWI457532B (zh) * 2012-05-31 2014-10-21 Pixart Imaging Inc 光學物件辨識系統
CN103488277B (zh) * 2012-06-12 2016-08-03 原相科技股份有限公司 光学物体识别系统
JP6494253B2 (ja) * 2014-11-17 2019-04-03 キヤノン株式会社 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
US9984494B2 (en) * 2015-01-26 2018-05-29 Uber Technologies, Inc. Map-like summary visualization of street-level distance data and panorama data
US9766336B2 (en) * 2015-03-16 2017-09-19 Here Global B.V. Vehicle obstruction detection
US9898668B2 (en) * 2015-08-27 2018-02-20 Qualcomm Incorporated System and method of object detection
JP6462544B2 (ja) * 2015-09-17 2019-01-30 株式会社東芝 推定装置、方法及びプログラム
US10629079B2 (en) * 2016-12-05 2020-04-21 Ford Global Technologies, Llc Vehicle collision avoidance
US10740627B2 (en) 2017-05-10 2020-08-11 Fotonation Limited Multi-camera vision system and method of monitoring
US10331960B2 (en) 2017-05-10 2019-06-25 Fotonation Limited Methods for detecting, identifying and displaying object information with a multi-camera vision system
US11615566B2 (en) 2017-05-10 2023-03-28 Fotonation Limited Multi-camera vehicle vision system and method
US11488379B2 (en) 2018-03-13 2022-11-01 Harman International Industries, Incorporated Apparatus and method for automatic failure threshold detection for images

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
JP3065822B2 (ja) 1992-11-06 2000-07-17 株式会社豊田中央研究所 移動物体検出装置
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
JP2854805B2 (ja) * 1994-06-15 1999-02-10 富士通株式会社 物体認識方法および視覚装置
JPH08138053A (ja) * 1994-11-08 1996-05-31 Canon Inc 被写体情報処理装置及び遠隔装置
JP3035768B2 (ja) * 1995-05-22 2000-04-24 本田技研工業株式会社 車両用対照物検知装置
JPH0979821A (ja) 1995-09-12 1997-03-28 Suzuki Motor Corp 障害物認識装置
TW349211B (en) * 1996-01-12 1999-01-01 Sumitomo Electric Industries Method snd apparatus traffic jam measurement, and method and apparatus for image processing
JP3337197B2 (ja) * 1997-04-04 2002-10-21 富士重工業株式会社 車外監視装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6775395B2 (en) 2000-03-27 2004-08-10 Honda Giken Kogyo Kabushiki Kaisha Object recognition system
JP2007052626A (ja) * 2005-08-18 2007-03-01 Matsushita Electric Ind Co Ltd メタデータ入力装置およびコンテンツ処理装置
JP2012238245A (ja) * 2011-05-12 2012-12-06 Fuji Heavy Ind Ltd 環境認識装置および環境認識方法
JP2012238244A (ja) * 2011-05-12 2012-12-06 Fuji Heavy Ind Ltd 環境認識装置および環境認識方法
JP2012238243A (ja) * 2011-05-12 2012-12-06 Fuji Heavy Ind Ltd 環境認識装置および環境認識方法
JP2015520433A (ja) * 2012-03-26 2015-07-16 ティーケー ホールディングス インコーポレーテッド レンジ・キュー式物体セグメンテーションシステムおよび方法
KR20160083619A (ko) * 2014-12-31 2016-07-12 (주)베라시스 복수개의 검출윈도우를 통한 관심영역에서의 차량식별방법
KR101665207B1 (ko) * 2014-12-31 2016-10-14 (주)베라시스 복수개의 검출윈도우를 통한 관심영역에서의 차량식별방법
WO2017209213A1 (ja) * 2016-05-31 2017-12-07 Necソリューションイノベータ株式会社 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体
JPWO2017209213A1 (ja) * 2016-05-31 2019-01-31 Necソリューションイノベータ株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
DE10029423B4 (de) 2011-04-14
DE10029423A1 (de) 2001-01-11
JP4391624B2 (ja) 2009-12-24
US6853738B1 (en) 2005-02-08

Similar Documents

Publication Publication Date Title
JP4391624B2 (ja) 物体認識装置
JP4118452B2 (ja) 物体認識装置
JP4414054B2 (ja) 物体認識装置
JP6519262B2 (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP4028135B2 (ja) 物体検出装置
JP6550881B2 (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP4205825B2 (ja) 対象物認識装置
EP0747870B1 (en) An object observing method and device with two or more cameras
JP6150164B2 (ja) 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム
JP6583527B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
KR102536037B1 (ko) 차량의 주변 환경에 있는 물체와 관련된 정보를 결정하기 위한 방법 및 처리 유닛
JPH05265547A (ja) 車輌用車外監視装置
JP6687039B2 (ja) 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム
JP2003084064A (ja) 前方車両の認識装置及び認識方法
JP2001134772A (ja) 対象物認識装置
JPWO2017145634A1 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2006012178A (ja) 駐車車両検知方法及び駐車車両検知システム
JP2002334330A (ja) 車両認識装置
JP3807583B2 (ja) 道路領域判定装置
US20200372264A1 (en) Image-based road cone recognition method and appartus, storage medium, and vehicle
EP3428876A1 (en) Image processing device, apparatus control system, imaging device, image processing method, and program
CN114467111B (zh) 物体识别方法及物体识别装置
JPH07244717A (ja) 車両用走行環境認識装置
JP4580005B2 (ja) 対象物認識装置
JP3287166B2 (ja) 距離測定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080521

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091006

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091008

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121016

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131016

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees