JP2004235711A - 対象物追跡システムおよび対象物追跡方法 - Google Patents
対象物追跡システムおよび対象物追跡方法 Download PDFInfo
- Publication number
- JP2004235711A JP2004235711A JP2003018712A JP2003018712A JP2004235711A JP 2004235711 A JP2004235711 A JP 2004235711A JP 2003018712 A JP2003018712 A JP 2003018712A JP 2003018712 A JP2003018712 A JP 2003018712A JP 2004235711 A JP2004235711 A JP 2004235711A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- net
- distance
- image
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】カメラ2からの入力画像から車両を検出する車両発見部4と、車両までの距離または距離変化計測部7と、車両上の所定の長さに相当する画像上の長さを1つの格子点間隔とする仮想ネットを画像上に作成し、ネットの格子点上情報を車両追跡用のネット型基準テンプレートとして定義するネット型基準テンプレート作成部5と、新たに得られた距離またはネット型基準テンプレートに対する距離変化に応じて格子点間隔を実際の車両上の所定の長さになるように調整し、新たなネットの格子点上情報を収集する新規入力画像用ネット定義部8と、ネットの位置をずらしながら得られる格子点上情報とネット型基準テンプレートとの相関を計算し、もっとも相関の高くなる位置から車両の位置を算出する車両追跡処理部9とを有する。
【選択図】 図1
Description
【発明の属する技術分野】
本発明は、例えば車両に搭載された前方車両追跡システムおよび前方車両追跡方法等の対象物追跡システムおよび対象物追跡方法に関する。
【0002】
【従来の技術】
【特許文献】特開平11−317939号公報。
【0003】
従来の車両に搭載されたカメラを用いた走行車両からの自車両周辺対象物検出において、画像上のある点を用いた対象物追跡の発明には、例えば上記特許文献がある。
この発明は、車載カメラで車両の周囲を撮像し、そのカメラで撮像した画像から、各認識対象物の特徴を示す特定点という概念を導入し、車両の走行に基づく特定点の空間的な位置の変化を予測し、この近傍の誤差範囲の内に、後の画面で、同一の特定点が存在するかどうかを判定し、同一の特定点が存在すると判定された場合は、その特定点により認識対象物を追従することで、走行中の自車両周辺の認識対象物を精度よく追跡しようとするものである。
【0004】
【発明が解決しようとする課題】
しかし、この方法は、追跡対象物を追跡するための情報を、エッジなどの特定点という明確な特徴を持つ部位に限定して定義しているため、例えば、内部にエッジが少ない車両を追跡する場合、ピラーやバンパなどの車両の端に存在する部位のエッジに頼った追跡をせざるを得なくなるが、このような追跡では、車両が接近し、車両端が画像の外に出ると、それらのエッジが見えなくなるため、追跡が不可能になるという問題がある。
【0005】
本発明の目的は、対象物が接近し、対象物の端部が画像の外に出て、それらのエッジが見えなくなっても追跡が可能な対象物追跡システムおよび対象物追跡方法を提供することにある。
【0006】
【課題を解決するための手段】
上記課題を解決するため、本発明は、カメラの入力画像から対象物を検出する手段と、対象物までの距離または相対距離変化を計測する手段と、対象物上の所定の長さに相当する画像上の長さを1つの格子点間隔とする仮想ネットを作成し、ネットの格子点上の情報を基準テンプレートとして定義する手段と、対象物を含む新たな入力画像において、新たに得られた距離または基準テンプレートに対する距離変化に応じて、格子点間隔を所定の長さになるように調整し、新たなネットの格子点上の情報を収集する手段と、画像上における所定の範囲内においてネットの位置をずらしながら得られる格子点上の情報と、基準テンプレートとの相関を計算し、もっとも相関の高くなる位置から新たな対象物の位置を算出する手段とを有する構成になっている。
【0007】
【発明の効果】
本発明によれば、対象物が接近し、対象物の端部が画像の外に出て、それらのエッジが見えなくなっても追跡が可能な対象物追跡システムおよび対象物追跡方法を提供することができる。
【0008】
【発明の実施の形態】
以下、図面を用いて本発明の実施の形態について詳細に説明する。なお、以下で説明する図面で、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
まず、本発明に係る、ネット型拡大縮小テンプレートマッチング手法による対象物追跡システムを構成するための装置の構成を図1と図2に基づき説明する。
以下の説明は、追跡対象物を自車両前方の車両とした場合を例に取り説明する。ただし、本発明は車両のように追跡対象物の形状が固定である物体であれば種類に関係なく適用可能である。また、存在する位置は、前方でなくともカメラの取り付け位置を後方、側方に変更すれば同じ手法で他の位置に存在する対象物にも適用可能である。
【0009】
実施の形態1
図1は本発明の実施の形態1のシステム構成図、図2(a)、(b)はカメラを搭載した車両の図と、後述する説明に用いる検出対象物標の位置を表すための基準座標系の説明図である。図2(a)は横から見た図、(b)は上から見た図である。
【0010】
図1に示すように、本装置は、自車両1(図2)に搭載された電子式のカメラ2とそのカメラ2から入力される画像を保存する画像メモリ3と、所定の処理に基づいて画像内から追跡対象物となる車両(他車両)を発見する車両発見部4と、追跡対象物である車両を発見した位置に相当する画像上の範囲をネット型基準テンプレート定義範囲とし、その内部に所定の間隔の格子を切り(すなわち、ネットを張り)、格子点が位置する画像上の情報を所定の計算式に基づき定義するネット型基準テンプレート作成部5と、そのネット型基準テンプレートを格納するネット型基準テンプレート格納用メモリ6と、新たな画像入力時において、自車両1から追跡対象である車両までの距離または距離変化を計測する、距離または距離変化計測部7と、追跡対象物の距離変化に応じて、ネットの格子点の間隔をネット型基準テンプレート定義時における実際の車両上における格子点間隔と同じになるように、その時点で入力した画像上に定義する、新規入力画像用ネット定義部8と、予め定義したネット型基準テンプレートと、新たに定義した格子点ごとの情報から求められる情報との相関を求めることで画像上における車両を追跡する車両追跡処理部(車両追跡判定部。ネット型基準テンプレートを利用した相関計算部)9と、車両追跡処理部9における相関の値から追跡結果の信頼性を判定する追跡信頼性判定部10と、追跡の信頼性が高いときに限り、新たな追跡結果を元に、追跡中の車両の画像上の位置を算出し、必要に応じて、画像上での位置に加えて3次元的な実際の車両位置、距離12を算出し、それらの車両位置、距離12の情報を追跡位置結果として算出、出力する処理結果出力部11から構成されている。
【0011】
カメラ2は、図2に示すように、自車両1の前部の適宜な場所に取り付けられており、自車両1の前方の様子を撮像する。そして、入力した画像を画像メモリ3に保存する。
図2において、13はカメラの光軸、14は基準座標系である。
車両発見部4では、画像メモリ3に保持された画像を元に、画像処理により画像上における前方の車両が存在する位置を発見する。画像処理による車両検出は、例えば、白線の間に挟まれる水平エッジを検出する、白線の間に挟まれるエッジのヒストグラムより上下または左右のペアとなるエッジを検出するなどの従来方法を利用すればよい(図3(b)参照)。図3(a)、(b)は、画像から車両を検出する様子を説明する図である。図3(a)は入力画像を示し、(b)は車両検出の様子を示す。図3において、15は前方の車両、16は道路上に引かれた白線である。図3(b)に示すように、まず、(1)白線16の間に挟まれる水平エッジAを画像の下から上に向けて検出する。次に、(2)水平エッジAより上方にある水平エッジBを検出する。次に、(3)水平エッジAとBに挟まれる領域にある垂直エッジC、Dを検出する。
【0012】
また、画像上での位置から車両15の距離をも算出する場合は、例えば次のような手法を適用すればよい。図4は、平坦な道路走行時における前方の車両15の車載カメラ2での撮像位置と、カメラ2と追跡車両15との位置関係を説明する図である。
図4において、17は道路面、18は縦方向の画角、19は撮像面である。
【0013】
図4からわかるように、画像内における前方車両15の下端エッジ位置ydが検出できれば、そのときの車間距離zは、式1により算出できる。
【0014】
z=H・f/yd …式1
(H:カメラの取り付け高さ、f:カメラの焦点距離)
つまり、図3の車両検出で、車両の下端(図3(b)の水平エッジA)を検出し、その位置からydを求め、式1に代入することで、距離zを求めることができる。
【0015】
次に、ネット型基準テンプレート作成部5では、車両発見部4により検出された車両15が撮像されている位置に所定の間隔の格子を定義し、その格子点の情報からなるテンプレートを作成し、そのテンプレートをネット型基準テンプレートとすればよい。図5はその様子を示す例を示し、画像へのネットの定義とネット型基準テンプレートの作成方法を説明する図である。
図5において、右下がりのハッチングを付した部分20は画素、黒太破線21は格子(ネット)、格子21の交差点22は格子点を示す。図5(b)の入力画像において、23は車両領域である。
【0016】
ネット型基準テンプレートは、各格子点22が情報を持つという考えのテンプレートであり、その情報は画像上において格子点22が位置する場所の画素20またはその周囲の画素20が持つ輝度値やエッジ情報で計算される。図5は格子点22が位置する画素20の輝度を格子点22の情報としてネット型基準テンプレートを定義する場合の例である。ネット型基準テンプレート格納用メモリ6では、ネット型基準テンプレート作成部5で定義されたテンプレート、つまり、図5の方法で作成する場合は、図5の過程で最終的に作成される「格子点情報から作成したネット型基準テンプレート」(図5(f))を格納する。
まず、(b)の入力画像を元に車両領域23を切り出す(c)。(c)中における格子は画素である。次に、(d)に示すように、格子(ネット)21を張る。次に、(e)に示すように、格子点22の情報からなるテンプレートを定義する。(f)が格子点22の情報から作成したネット型基準テンプレートである。
【0017】
初回の車両発見時の車両位置は、この画像上でのネット定義位置、つまり、車両発見部4での車両発見位置を画像上での車両発見位置とし、発見時に距離も求めている場合は、その距離と画像上の位置情報から計算される3次元的な位置(距離と横位置)を処理結果出力部11の最終結果とする。
【0018】
次に、ネット型基準テンプレート作成後の追跡方法を説明する。前述の処理により車両を発見し、ネット型基準テンプレートを定義した後は、この基準テンプレートを用いての追跡を行う。距離または距離変化計測部7、新規入力画像用ネット定義部8、車両追跡処理部9、追跡信頼性判定部10による処理は、その追跡時の処理である。
【0019】
まず、距離または距離変化計測部7では、追跡中の車両の距離またはネット型基準テンプレート定義時からの追跡車両の距離変化を求める。距離の算出は、図4の手法を用いればよい。また、下端エッジが出にくく、図4の手法を用いることが困難な場合は、距離変化を算出すればよい。距離変化は、例えば、次の方法で算出できる。
【0020】
図6(a)は、実際の車両の幅W、その車両までの距離z、その車両の画像上の幅wcの関係を示す図である。24はカメラレンズである。図からわかるように、距離zと画像上の幅wcは、式2の関係となる。
【0021】
z=f・w/wc …式2
(f:カメラの焦点距離)
つまり、追跡車両上の2本以上の任意線の組み合わせを検出し、その線の間隔の変化から、距離の変化を算出することができる。例えば、図6の場合で、画像上の幅wcが、基準とする画像に対して1/2の幅になった場合は、距離zは2倍になったことが算出できる。
【0022】
次に、新規入力画像用ネット定義部8においては、この距離zまたは距離変化を元に、新しい入力画像上におけるネットを定義する。図6(b)は、距離zに存在する車両上に設けたある格子点の画像上の格子点間隔acと、その格子点間隔acに相当する実際の車両上における対応位置の間隔A(実際の車両上の格子点の1つの間隔に相当する幅)の関係を示す図である。この関係も、式2同様の考え方から、式3となる。
【0023】
z=f・A/ac …式3
つまり、実際の車両上において、ネット型基準テンプレートの1つの格子点間隔がAの場合、新しい入力画像上では画像上の格子点間隔をそのときのネット型基準テンプレート定義時の距離に対する距離変化に合わせて拡大縮小することで、実際の車両上の間隔を同じ長さであるAに合わせるような格子間隔acを設ける。この方法で格子点間隔acを調整することで、図7に示すように、ネット型基準テンプレートのある格子点Ac1(図7(a))の車両上における対応位置が点A1(図7(d))、その隣の格子点Ac2が指す位置がA2、その距離間隔がAとなるよう格子点を設けた場合、距離変化があり、画像上の車両の大きさが変化した後の新規入力画像(図7(c))上に定義した格子点間隔は、同じ車両上の点であれば、その隣り合う格子点間隔の車両上における長さは同じようにAとなり、距離変化後の格子点Ac1の位置が車両上のA1に対応していれば、その隣のAc2は実際の車両上において同じ距離A分だけ右にずれた位置となることから、A2の位置に対応するようになる。つまり、画像にノイズがない理想状態であれば、車両上に乗る格子点情報だけを見ると、すべての格子点それぞれ車両の同じ部位を指すため、距離変化の前後で同じデータが得られる。すなわち、図7は、各格子点に対応する車両上の位置が、車間距離変化後も同じ位置となることを説明する図である。図7(a)はネット型基準テンプレート作成時の入力画像(車間距離:z)を示し、1つの格子点間隔acが車両上の長さaに相当する。(b)は作成されたネット型基準テンプレートを示し、(c)は新規入力画像(距離:z′)を示し、1つの格子点間隔ac′=ac×z/z′である。(d)は実際の車両を示す。
【0024】
次に、車両追跡処理部9では、定義したネット型基準テンプレートと、そのときの車間距離変化に対応した格子点間隔のネットを張った画像から得られる格子点情報との相関を算出することで、車両位置を算出する。図8は、その車両追跡(画像上での車両位置検出)の様子を示す図である。
【0025】
図8(a)はネット型基準テンプレート作成時の入力画像(車間距離:z)、(b)は作成されたネット型基準テンプレート、(c)は新規入力画像(距離:z′)、(d)、(e)、(f)は作成したテンプレートを示す。
【0026】
図8において、ネット型基準テンプレートの作成は、距離zのときに作成され(図8(a))、新規の入力画像での車間距離はz´である(図8(c))。つまり、格子点間隔は、ネット型基準テンプレート作成時のac´(=ac×z/z´)となる。この間隔の格子点ネットを用意し、画像上においてそのネットを車両が存在する可能性のある範囲で上下左右にずらしながら、格子点に対応する位置の情報からなるテンプレート(図8(d)、(e)、(f))を作成し、そのテンプレートと、(b)のネット型基準テンプレートとの正規化相関を算出することで相関値を算出する。車両の位置は、相関が最大となる位置とすればよい。すなわち、図8(c)に示す距離z′の新規入力画像において、格子点間隔ac′=ac×z/z′のネットを張り、各格子点毎の情報をネット型基準テンプレート作成時と同様の方法で計算し、格子点間隔ac′=ac×z/z′のネットで作成した各格子点毎の情報から得た情報((d)〜(f)のテンプレート)とネット型基準テンプレートとの相関を計算し、相関最大の位置を車両位置とする。つまり相関最大の位置は、図7でも説明したとおり、車両上において定義した各格子点の位置がネット型基準テンプレート作成時と一致する位置となった場合である。これにより画像上における車両位置が検出できる。
【0027】
車両追跡処理部9による車両位置検出後は、追跡信頼性判定部10において追跡結果の信頼性を判定する。この追跡信頼性は、相関が最大となったときの正規化相関の値が所定のしきい値以上であることを確認することで行うことができる。相関が高い場合は、正確な位置検出ができている場合が多い。一方、基準となるネットがうまく車両上に定義されていない場合や、画像にノイズが多く、入力画像上において車両が撮像されていない場合などは、図7の理論どおりに同じ車両上の点をうまく捉えることができないために相関値が低くなる。このように相関が低い場合は、追跡に失敗したと判定する。この判定において、連続して失敗する場合は、前者のように基準となるネット型基準テンプレートがうまく車両を捉えていないと判定し、ネット型基準テンプレートを再度作り直す。また、過去は連続的に安定して追跡ができていたが、新しい入力画像に限り相関が低くなった場合は、逆光などのノイズによる影響と判定し、その新規入力画像に限り追跡ができなかったなど、過去の情報とも統合して判定し、次の処理に備える。
【0028】
最後に、追跡信頼性判定部10において、追跡信頼性が高いと判定された場合は、処理結果出力部11において結果を出力する。出力する結果は、そのときの画像上における車両追跡位置および距離がわかっている場合は、3次元的な距離および自車両に搭載したカメラに対する横位置の算出結果などとすればよい。画像上における位置から3次元的な実際の車両の横位置の算出は、図9に示す位置関係であることから、式4により計算できる。図9は、カメラに対する車両の3次元的位置と画像上における撮像位置との関係を説明する図である。ただし、図において、車両までの距離をzL、横位置(光軸13からの距離)をxLとする。また、fは焦点距離、25は実際の車両の中心(xL,zL)である。
である)。
【0029】
xL=zL×xc/f …式4
このような処理により、追跡車両を、その車両の形状、特にエッジの有無や強度に左右されず、ロバストに追跡する。さらに、図10に本実施の形態1の効果の一例を示す。図10は本実施の形態1において、大型バス追跡時における効果を説明する図である。図10(a)は大型バスが先行車である場合のネット型基準テンプレートの作成(車間距離:z)、(b)は作成されたネット型基準テンプレート、(c)はバスが至近距離に近づいたときの新規入力画像(車間距離:z′)、(d)は画像全体がバスのボディとなったテンプレートを示す。(d)においては、画像内に残る内部の格子点情報だけを使った相関計算により、ネット型基準テンプレートと同じバスを追跡中であることが判定可能である。
【0030】
従来例における車両追跡の多くは、エッジを追跡することで行われることが多い。しかし、図10のような、背面にエッジを持たない大型バスなどが先行車である場合、この追跡車両が接近すると、エッジを持つ部位が画角の外に出てしまうという現象が起きる。しかし、本実施の形態1では、各格子点が持つ情報、例えば色やエッジがない領域が連続する、という情報を用いての追跡も可能である。例えば、バスがシルバー色であればシルバー色の領域が距離に応じて大きくなるという情報からも追跡可能である。つまり、画像内に残る内部の格子点情報だけを使った相関計算により、ネット型基準テンプレートと同じバスに追跡中であることを判定可能となる。
【0031】
以上説明したように、本実施の形態1の対象物追跡システムは、自車両1に搭載されたカメラ2からの入力画像から画像処理により車両を検出し、車両が存在する画像上の領域を確定する車両発見部4と、車両までの距離または相対距離変化を計測する距離または距離変化計測部7と、領域内に存在する車両上の所定の長さに相当する画像上の長さを、1つの格子点間隔とする仮想ネットを画像上に作成し、ネットの格子点上の情報を車両追跡用のネット型基準テンプレートとして定義するネット型基準テンプレート作成部5と、車両を含む新たな入力画像において、新たに得られた車両までの距離またはネット型基準テンプレートに対する距離変化に応じて、ネットの格子点間隔を実際の車両上の所定の長さになるように調整し、新たなネットの格子点上の情報を収集する新規入力画像用ネット定義部8と、画像上における左右上下の所定の範囲内においてネットの位置をずらしながら得られる格子点上の情報と、あらかじめ定義したネット型基準テンプレートとの相関を計算し、もっとも相関の高くなる位置から新たな車両の撮像位置を算出する車両追跡処理部9とを有する構成になっている。
なお、図1の車両発見部4が特許請求の範囲の対象物発見手段に、距離または距離変化計測部7が計測手段に、ネット型基準テンプレート作成部5が基準テンプレート作成手段に、新規入力画像用ネット定義部8が新規入力画像用ネット定義手段に、車両追跡処理部9が追跡処理手段、対象物が車両に相当する。
【0032】
また、本実施の形態1の対象物追跡方法は、カメラ2からの入力画像から車両を検出する手順と、車両までの距離または相対距離変化を計測する手順と、車両上の所定の長さに相当する画像上の長さを、1つの格子点間隔とする仮想のネットを画像上に作成し、ネットの格子点上の情報を車両追跡用のネット型基準テンプレートとして定義する手順と、定義した後は、毎回入力される車両を含む新たな入力画像において、新たに得られた車両までの距離または基準テンプレートに対する距離変化に応じて、ネットの格子点間隔を可変として実際の車両上の所定の長さになるように調整し、新たなネットの格子点上の情報を収集する手順と、画像上における所定の範囲内においてネットの位置をずらしながら得られる格子点上の情報と、あらかじめ定義した基準テンプレートとの相関を計算し、もっとも相関の高くなる位置から新たな車両の位置を算出する手順とを有するという構成になっている。
【0033】
本実施の形態1では、このような構成になっているので、前述のように、エッジ検出に頼らない手法で車両の特徴を定義することが可能となるため、エッジが不鮮明な対象物、また、対象物との距離が至近距離となり、対象物端が画角外になるなど、特徴的なエッジが画像に撮像されない場合でも精度よく追跡を行うことができる。例えば、図10を用いて説明したように、ボディ面が広い大型バスなどエッジの少ない物体を対象物とした場合、距離が至近距離となると、画像の大部分がボディ面となり、特徴的なエッジがなくなるような場面も存在する。しかし、この手法では、各格子点が情報を持ち、その格子点はエッジがないという情報も1つの情報として捉えるため、例えばこのように、大型バスのボディ面が画像の大部分となるような場面であっても、同じ輝度を持ちエッジがない格子点が数個連続する、という情報を持つことで車両の特徴を捉えることも可能となり、種類に寄らない追跡が可能となる。また、エッジに頼らない手法であるため、車両が逆光や影を含む場合など、追跡対象物のエッジが不鮮明になったり、追跡対象物以外にエッジ強度の方が強くなる場合に、誤追跡が起きやすいという問題も解消できる。また、通常、車載カメラで周囲を撮像する場合、物体より、路面上の白線や停止線など路面に人為的に描かれた線の方がエッジ強度が強くなるため、そのような、物体ではない路面の線を特定点と誤判定する問題が起きやすいが、本手法ではこのような問題も解消できる。
【0034】
実施の形態2
次に、本発明の実施の形態2について説明する。
本実施の形態2では、ネット型基準テンプレートの作成を、各格子点の輝度平均と水平、垂直エッジ成分からなる値として作成し、車両追跡の相関において、同じ計算方法で計算したテンプレートとの相関を計算することで画像上の車両位置を求める。
【0035】
図11(a)は領域内の画像(升目は画素)、(b)は実際の車両上にネットを張る様子を示す。(c)、(d)、(e)は、実際の車両上に張られたネット上において、格子点毎のそれぞれ輝度平均と水平、垂直エッジ成分から作成したネット型基準テンプレートを示す図である。(c)は格子点毎の輝度平均画像、(d)は格子点毎の垂直エッジ成分、(e)は格子点毎の水平エッジ成分で作成したネット型基準テンプレートである。
これらの図からわかるように、輝度の平均は、明るさ情報、水平、垂直エッジは、車両の持つ特徴であるエッジの位置情報を持つ。図11(f)は1つの格子点データの計算方法を示す。ある格子点付近の画素20の値と、そこから得られる輝度平均と、水平、垂直エッジ成分の算出結果の例である。輝度の平均は格子点22を含む画素20の周囲(図では3×3画素)の平均として求めることができる。また、水平、垂直エッジ成分は、水平、垂直微分画像、つまり、図11(b)に示すように、エッジ算出用フィルタとのコンボリューションを取ることでエッジ成分を算出することができる。図11(c)〜(e)のネット型基準テンプレートは、各格子点において、同じ計算を行うことで算出できる。また、相関計算も、ネットを入力画像上で操作し、格子点22にあたる位置において同じ計算を施して得られたテンプレートを作成することで計算できる。位置検出における一致度は、それぞれで求めた輝度、水平、垂直エッジ成分からなるテンプレートの相関を計算すればよい。相関の計算は、例えば、図11の3つのテンプレートを連結させたもののテンプレートの相関、もしくは、3つそれぞれの相関の合計として計算とすればよい。これにより、輝度情報とエッジ成分情報の両方の一致度を確認した位置検出が可能となる。
【0036】
このように、本実施の形態2では、ネットの格子点上の情報として、格子点付近の画素の輝度平均、垂直エッジ、水平エッジの少なくとも1つを用いることにより、一般的に特徴となるエッジのある物体はエッジを捉え、エッジのない物体を追跡対象とする場合では、エッジ以外の特徴、例えば、その物体上の格子点の位置が持つ明るさや色などの特徴を利用した追跡が可能となり、様々な種類に順応した追跡が可能となる。
【0037】
実施の形態3
次に、本発明の実施の形態3について説明する。
図12は、本実施の形態3(および実施の形態4)を説明する図で、格子点毎の信頼性判断、およびテンプレートからの背景除去を説明する図である。
【0038】
この図において、(a)はネット型基準テンプレート作成時の入力画像(車間距離:z)、(b)は車両発見時に作成したネット型基準テンプレート、(c)はその後の新規入力画像(車間距離:z′)、(d)はその新規入力画像上で相関が高いと判定された位置の画像(ネット格子点の情報)、(e)は(d)の画像のネット型テンプレート、(f)は信頼性が高いと判定された格子点位置だけの情報を残したネット型基準テンプレートである。背景は変化するため、車両に乗る位置の格子点情報だけが残る。
【0039】
ここでの信頼性は、格子点の情報が車両上の情報となっていること、その情報が安定して得られること、追跡中の車両の特徴が明確な場合は、その特徴と捉えている部位の信頼度を高くするなどを基準として判定すればよい。例えば、背景と車両との分離では、図3の車両検出で検出した車両の上下エッジの外側を背景とみなし、外側に属する格子点を信頼性が低い点とみなすことなどで行うことができる。車両の特徴的な部位を、信頼性の高い部分とする場合は、例えば、検出対象車が、エッジの形、強度、本数などが捉えやすい車両と判定された場合は、図11に示した輝度平均、水平、垂直エッジなどを計算した後、エッジ度の高い格子点を信頼性の高い格子点とみなす。逆の場合、例えば、ボディ面が広く、エッジは少ないが、ボディ色を捉えやすいなどの特徴がある場合は、輝度や色の情報を持つ格子点を信頼性の高い格子点として残す、などで行うことができる。
【0040】
上記のように、本実施の形態3では、格子点毎に信頼性を示す値を持たせ、車両の特徴を捉えている点だけを用いた相関計算、または信頼性に応じた重みを持つ相関の計算を行う。このように、定義した格子点において、格子点毎の信頼性を示す値を持たせ、車両の特徴を捉えている点だけを用いた相関計算、または、その信頼性に応じた重みを持つ相関の計算を行う構成とした。本発明では対象物発見時に定義するネット型基準テンプレートを対象物の存在するある所定の範囲内に格子点を設けることで定義する。対象物の形状や高さは様々であるため、物体の存在する所定の範囲内であるにもかかわらず、その物体上以外、例えば背景に相当する位置に格子点が定義される場合もある。そこで、相関による追跡をより確実に行うために、初期テンプレートの定義時もしくは追跡開始後に対象物の形状や背景分離判定などを元に格子点の中で物体を確実に捉えている点を抽出、もしくは物体上に乗る確率を示す信頼度を計算し、物体上の点もしくは物体上である確率の高い点だけを用いて相関の計算を行うようにする。これにより、背景に影響されにくい追跡を行うことができる。
【0041】
実施の形態4
次に、本発明の実施の形態4について説明する。
本実施の形態4は、前に述べたの信頼性の算出方法に関する。前述したように、車両追跡中における格子点は、車両上に存在し、車両の特徴として捉えた部位の信頼性を高くするものである。なお、図8で説明したように、画像上における各格子点の間隔は、実際の車両上において同じ長さに相当するように長さを調整するため、同じ車両を正しく追跡している場合、車両上を捉えているある格子点は車両の同じ部位を常に追跡している。そのため、その輝度、水平、垂直微分値は、同じになるはずである(図8、図12参照)。一方、その格子点の間隔は、車間距離に応じて調整され、かつ、車両以外の背景部分は時間的に変化するため、車両以外の部分の格子点は、時系列的にその値を見ると変化する。このことは、図12(a)〜(e)の車両上における格子点と背景上に存在する格子点位置の輝度やエッジの比較からもわかる。このことから、相関が高い、つまり、車両を追跡していると判定された場合における各格子点の情報(そのときの相関計算に利用していた輝度、水平、垂直微分値などの情報)を時系列的に保存し、その値が変化する、つまり、保存された各格子点の分散が大きい位置は、信頼性の低い点であると判定できる。
【0042】
上記のように、本実施の形態4では、信頼性を示す値は、相関が所定の値以上である車両の複数回の追跡結果において、同じ位置に相当する格子点が持つ情報の分散が所定の値より小さい格子点とする。対象物が正しく追跡できている場合、各格子点は、同じ対象物の同じ位置に定義されるよう計算されているため、画像が理想状態であれば同じ格子点は同じ輝度、水平垂直エッジ値を持つ。このことから、相関が高く追跡できている場合は、時系列的に追跡中の各格子点は、異なる時間で得られた画像でも同じ輝度、水平垂直エッジ値である可能性が高い。逆に、背景など、物体以外の部分は、同じ位置であることが保証されていないため、輝度やエッジ度が毎回ことなる。すなわち、相関が高く追跡できているときにおける各格子点の情報が安定している点は追跡対象物上の点である可能性が高いという判断、つまり、時系列的な点の輝度やエッジ強度などの分散を判断基準として、各格子点の信頼度を判定することで実施の形態3の効果をより一層高めることができる。
【0043】
実施の形態5
次に、本発明の実施の形態5について説明する。
本発明の実施の形態5におけるセンサ構成は、実施の形態1の単眼カメラ2に、レーダなどの距離計測装置を加えた構成とする。ここでは、レーダとして、車両の車間距離と方位の計測が可能なスキャニングレーザレーダ26を設けた場合を例にとって説明する。
図13は本実施の形態5のセンサ構成を示し、実施の形態1の図2と同様の図である。図14は本実施の形態5のシステム構成を示し、実施の形態1の図1と同様の図である。
図13において、27はスキャニングレーザレーダのスキャニング面(中心軸)である。
図14において、カメラ2、画像メモリ3、車両発見部4、ネット型基準テンプレート作成部5、ネット型基準テンプレート格納用メモリ6、新規入力画像用ネット定義部8、車両追跡処理部9、追跡信頼性判定部10、処理結果出力部11は、実施の形態1と同様である。
ここでは、実施の形態1と異なるレーダによる車間距離・方位計測部28の説明と、レーダによる車間距離・方位計測部28の結果を利用する、車両発見部4、新規入力画像用ネット定義部8における結果の利用方法について説明する。
【0044】
レーダによる車間距離・方位計測部28では、図13の自車両1に設置されたスキャニングレーザレーダ26からの情報により、前方に存在する車両等の対象物の距離と方位を計測する。車両の車間距離、方位計測は、特願平2002−20557号公報などに記載された従来手法を用いればよい。
【0045】
次に、この結果の利用方法、つまり、車両発見部4、新規入力画像用ネット定義部8における結果の利用方法について説明する。
本実施の形態5では、車両発見部4における画像内の車両の撮像領域をレーダによる車間距離・方位計測部28で検出した位置、距離を元に計算する。
スキャニングレーザレーダ26で計測した対象物までの位置とカメラ2からの距離は、図13から求められる互いの設置位置の関係から補正できる。ここで、スキャニングレーザレーダ26からの計測結果より、カメラ2に対する前方車両の中心までの3次点的な位置は(xL、zL)であると仮定する。距離、位置が求められた場合、その位置(xL、zL)に相当する画像上の位置(xc、yc)は、図9や式1、式4で説明した原理により比例計算で計算できる。画像上の車両の中心位置(xc、yc)を求めることができれば、車両の領域は通常の車両の幅、高さを考慮することで、その領域は決められる。例えば、車両の高さがH、幅がWの場合、そのときの距離とそれらの値を利用することで、式2の原理により画像上の領域の枠の幅wc、高さhcを求めることができる(図15参照)。
図15は、3次元上の位置から車両の存在する画像上の範囲を求める方法を説明する図である。
【0046】
また、新規入力画像用ネット定義部8では、新規画像が入力されるときの車間距離または車間距離の変化率から新規ネットを定義している。ここでは、スキャニングレーザレーダ26により車両までの距離zLが常に計測されているので、ネットの格子間間隔はその距離を利用すればよい。また、相関計算の際のスキャン領域は、前回の車両検出結果の位置または、スキャニングレーザレーダ26で計測した車両位置のどちらかを基準としてその周囲を探索すればよい。
【0047】
上記のように、本実施の形態5では、対象物までの距離または距離と方位を計測する計測器であるスキャニングレーザレーダ26を有し、前記計測手段(ここではレーダによる車間距離・方位計測部)の計測をスキャニングレーザレーダ26からの計測結果を用い、初回のネット型基準テンプレートの作成時においてネットの位置を定義する。これにより、ネットの格子点間隔の調整を実際の距離計測結果を元に行えるようになるため、より正確に行うことができる。さらに、方位をも計測可能な装置を用いることで、エッジが不鮮明で、画像処理での初期の物体検出・発見が困難な物体の追跡にも本発明を適用可能となり、実施の形態1〜4に示した手法をより一層確実なものとすることができる。
【0048】
実施の形態6
最後に、本発明の実施の形態6を説明する。
【0049】
実施の形態1〜実施の形態5では、格子点の間隔だけを距離の変化に合わせて調整していた。しかし、車両を検出対象とする場合、追跡対象車両の実際の形状変化はないものの、右左折や勾配のある道路では、その前方車両のカメラに対する姿勢が変化することがある。
【0050】
図16は、追跡対象車両の右折時における車両端の撮像位置の算出方法を説明する図である。(a)は前方車両と自車両が同じ向きを向いている場合、(b)は前方車両が自車両に対してθ度右に向いている場合を示す。
以下、図16を用いて、前方車両の右左折時などで、前方車両が左右に回転したときにおける車両とカメラ2との位置関係およびそのときに撮像される画像上での撮像位置の関係を説明する。ここで、計算の説明上、レンズ24の中心を原点、撮像面に平行で路面に水平な軸をXc、光軸と同一な軸をZcとする基準座標系を設ける。この説明では、3次元的な位置はこの座標系からの位置とする。図16(a)は、車両中心が(xC1、z)に、その車両の右端が(xR1、z)、左端が(xL1、z)に位置する場面であり、(b)は(a)に対して、車両中心の位置が同じで、向きだけがθ度傾いている場面である。また、説明をわかりやすくするため、xC1は光軸上とする。
【0051】
図からわかるように、図16(a)における(xC1、z)、(xR1、z)、(xL1、z)が撮像される、画像上におけるx座標上の位置xcl1、xc1、xcr1は、図9や式1、式4で説明してきたとおり、3次元上の位置と焦点距離fにより計算できる。例えば、画像上における車両右端の撮像位置xcr1は、xcr1=f・xR1/zで計算できる。一方、図16(b)の場合、車が回転しているため、車両中心の位置の画像上への撮像位置xc1は、図16(a)に対して不変であるが、左右端の位置は、その3次元上の位置が変化しているため、画像上への撮像位置も変化する。例えば図16(b)のように、θ度回転している場合、左右端の位置、距離はそれぞれ、(xL1・cosθ,z+xL1・sinθ),(xR1・cosθ,z−xR1・sinθ)となる。つまり、撮像位置は、これらの座標を用いて計算されるため、例えば、回転後の右端の画像上の位置xcr2は、式5で計算される。
【0052】
Xcr2=f・xR1・cosθ/(z−xR1・sinθ) …式5
また、同様に勾配のある道路などでは、上下方向の回転がかかるため、同様の考え方で画像上のy座標を計算できる。
【0053】
このようなことから、交差点や勾配のある道路などにおいて、追跡車両の角度が変化する場合は、各格子点の位置を図16の原理より、回転がかかることを考慮した位置として計算すればよい。図16では、説明をわかりやすくするために、車両の左右端が撮像されるべき位置を例にとったが、車両が回転した場合の格子点の画像上における対応位置は、前述同様、次の考え方で計算できる。
【0054】
各格子点間隔の実際の車両における長さは、前に説明したとおり、距離と画像上の格子の間隔より計算済みである。回転を考慮する際の、光軸からの距離xR1に相当する値は、格子点の間隔から計算できる。例えばある格子点が光軸上(画像上での中心)に位置し、格子点間隔の車両上に相当する距離が式3と同様に、aである場合、その隣の格子点位置に相当する画像上の位置acは、ac=f・a・cosθ/(z−a・sinθ)で計算できる。
【0055】
このような計算により、図7で説明したように、画像が理想状態であれば、各格子点は常に車両の同じ部位を指すという変換が、車両が回転を含む運動をした場面にも成り立つようになる。つまり、距離変化だけでなく、右左折や勾配のある場面にも、実施の形態1〜5と同様の効果が維持され、よりロバストな追跡が可能となる。
【0056】
上記のように、本実施の形態6では、毎回新たに入力される画像上において、自車両に搭載されたカメラに対する検出対象物の距離だけでなく、左右上下の回転の姿勢変化も考慮して格子点の位置を計算し、相関計算を行うことにより、例えば、追跡対象物が前方の車両である場合の前方車両の右左折時や勾配のある道路などで前方車両の左右や上下方向回転が加わり見え方が変化する場面でも確実な追跡可能となる。
【0057】
以上本発明を実施の形態に基づいて具体的に説明したが、本発明は上記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
【図面の簡単な説明】
【図1】本発明の実施の形態1のシステム構成図である。
【図2】本発明の実施の形態1のカメラの車両への搭載位置と座標系設定の説明図である。
【図3】本発明の実施の形態1の画像から車両を検出する様子の説明図である。
【図4】本発明の実施の形態1の画像の検出位置から車間距離を計測する方法の説明図である。
【図5】本発明の実施の形態1の画像へのネットの定義とネット型基準テンプレートの作成方法の説明図である。
【図6】本発明の実施の形態1の画像上の車幅と実際の車幅、および1つの格子点に対応する車両上における長さとの間隔との関係の説明図である。
【図7】本発明の実施の形態1の各格子点に対応する車両上の位置が車間距離変化後も同じ位置となることの説明図である。
【図8】本発明の実施の形態1のネット型基準テンプレート利用による画像上における車両位置検出の説明図である。
【図9】本発明の実施の形態1のカメラに対する車両の3次元的位置と、画像上における撮像位置の関係の説明図である。
【図10】本発明の実施の形態1の大型バス追跡時における効果の説明図である。
【図11】本発明の実施の形態2の格子点情報を輝度平均、水平・垂直微分としたときの画像の様子である。
【図12】本発明の実施の形態3、4の格子点毎の信頼性判断およびテンプレートからの背景除去の説明図である。
【図13】本発明の実施の形態5のカメラとスキャニングレーザレーダの車両への搭載位置と座標系設定の説明図である。
【図14】本発明の実施の形態6のシステム構成図である。
【図15】本発明の実施の形態6の3次元上の位置から車両の存在する画像上の範囲を求める方法の説明図である。
【図16】本発明の実施の形態6の追跡対象車両右折時における車両端の撮像位置の算出方法の説明図である。
【符号の説明】
…自車両、2…カメラ、3…画像メモリ、4…車両発見部、5…ネット型基準テンプレート作成部、6…ネット型基準テンプレート格納用メモリ、7…距離または距離変化計測部、8…新規入力画像用ネット定義部、9…車両追跡処理部、10…追跡信頼性判定部、11…処理結果出力部、12…車両位置、距離、13…カメラの光軸、14…基準座標系、15…車両、16…白線、17…道路面、18…縦方向の画角、19…撮像面、20…画素、21…格子(ネット)、22…格子点、23…車両領域、24…カメラレンズ、25…実際の車両の中心、26…スキャニングレーザレーダ、27…スキャニング面、28…レーダによる車間距離・方位計測部。
Claims (7)
- カメラからの入力画像から対象物を検出する対象物発見手段と、
前記対象物までの距離または相対距離変化を計測する計測手段と、
前記対象物上の所定の長さに相当する画像上の長さを、1つの格子点間隔とする仮想のネットを画像上に作成し、前記ネットの格子点上の情報を前記対象物追跡用のネット型基準テンプレートとして定義する基準テンプレート作成手段と、
前記対象物を含む新たな入力画像において、新たに得られた前記対象物までの距離または前記基準テンプレートに対する距離変化に応じて、前記ネットの格子点間隔を実際の前記対象物上の所定の長さになるように調整し、新たな前記ネットの格子点上の情報を収集する新規入力画像用ネット定義手段と、
画像上における所定の範囲内において前記ネットの位置をずらしながら得られる前記格子点上の情報と、あらかじめ定義した前記基準テンプレートとの相関を計算し、もっとも相関の高くなる位置から新たな前記対象物の位置を算出する追跡処理手段と
を有することを特徴とする対象物追跡システム。 - 前記情報が、前記格子点付近の画素の輝度平均、垂直エッジ、水平エッジの少なくとも1つであることを特徴とする請求項1記載の対象物追跡システム。
- 前記格子点毎に信頼性を示す値を持たせ、前記対象物の特徴を捉えている点だけを用いた相関計算、または前記信頼性に応じた重みを持つ相関の計算を行うことを特徴とする請求項1記載の対象物追跡システム。
- 前記信頼性を示す値は、相関が所定の値以上である前記対象物の複数回の追跡結果において、同じ位置に相当する格子点が持つ情報の分散が所定の値より小さい格子点とすることを特徴とする請求項3記載の対象物追跡システム。
- 前記対象物までの距離または距離と方位を計測する計測器を有し、前記計測手段の計測を前記計測器からの計測結果を用い、初回の前記基準テンプレートの作成時において前記ネットの位置を定義することを特徴とする請求項1記載の対象物追跡システム。
- 毎回新たに入力される画像上において、左右上下の回転の姿勢変化も考慮して前記格子点の位置を計算し、前記相関計算を行うことを特徴とする請求項1記載の対象物追跡システム。
- カメラからの入力画像から対象物を検出する手順と、
前記対象物までの距離または相対距離変化を計測する手順と、
前記対象物上の所定の長さに相当する画像上の長さを、1つの格子点間隔とする仮想のネットを画像上に作成し、前記ネットの格子点上の情報を前記対象物追跡用のネット型基準テンプレートとして定義する手順と、
前記対象物を含む新たな入力画像において、新たに得られた前記対象物までの距離または前記基準テンプレートに対する距離変化に応じて、前記ネットの格子点間隔を実際の前記対象物上の所定の長さになるように調整し、新たな前記ネットの格子点上の情報を収集する手順と、
画像上における所定の範囲内において前記ネットの位置をずらしながら得られる前記格子点上の情報と、あらかじめ定義した前記基準テンプレートとの相関を計算し、もっとも相関の高くなる位置から新たな前記対象物の位置を算出する手順と
を有することを特徴とする対象物追跡方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003018712A JP2004235711A (ja) | 2003-01-28 | 2003-01-28 | 対象物追跡システムおよび対象物追跡方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003018712A JP2004235711A (ja) | 2003-01-28 | 2003-01-28 | 対象物追跡システムおよび対象物追跡方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004235711A true JP2004235711A (ja) | 2004-08-19 |
Family
ID=32948770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003018712A Pending JP2004235711A (ja) | 2003-01-28 | 2003-01-28 | 対象物追跡システムおよび対象物追跡方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004235711A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006099155A (ja) * | 2004-09-28 | 2006-04-13 | Nissan Motor Co Ltd | 衝突判定装置、および方法 |
JP2006259847A (ja) * | 2005-03-15 | 2006-09-28 | Matsushita Electric Ind Co Ltd | 自動追尾装置及び自動追尾方法 |
JP2007317025A (ja) * | 2006-05-26 | 2007-12-06 | Fujitsu Ltd | 車両判別装置及びそのプログラム |
JP2008015771A (ja) * | 2006-07-05 | 2008-01-24 | Fujitsu Ten Ltd | 画像認識装置、画像認識方法および車両制御装置 |
JP2009026223A (ja) * | 2007-07-23 | 2009-02-05 | Toyota Central R&D Labs Inc | 物体検出装置及びプログラム |
JP2009087238A (ja) * | 2007-10-02 | 2009-04-23 | Fujitsu Ltd | 画像追尾プログラム、装置、及び方法 |
JP2013142670A (ja) * | 2012-01-12 | 2013-07-22 | Honda Motor Co Ltd | 画像認識装置およびこれを用いたワークの移載方法 |
JP2014002462A (ja) * | 2012-06-15 | 2014-01-09 | Canon Inc | 映像処理装置、映像処理方法、及びプログラム |
WO2017170875A1 (ja) * | 2016-03-30 | 2017-10-05 | 株式会社エクォス・リサーチ | 画像認識装置、及び画像認識プログラム |
WO2019073920A1 (ja) * | 2017-10-12 | 2019-04-18 | ソニー株式会社 | 情報処理装置、移動装置、および方法、並びにプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07129898A (ja) * | 1993-11-05 | 1995-05-19 | Toyota Central Res & Dev Lab Inc | 障害物検出装置 |
JPH09245168A (ja) * | 1996-03-13 | 1997-09-19 | Tech Res & Dev Inst Of Japan Def Agency | 画像認識装置 |
JPH10124676A (ja) * | 1996-10-24 | 1998-05-15 | Fujitsu Ltd | 形状追跡方法および装置 |
JP2002163657A (ja) * | 2000-11-24 | 2002-06-07 | Matsushita Electric Ind Co Ltd | 画像認識装置、画像認識方法およびそのプログラムを格納した記録媒体。 |
-
2003
- 2003-01-28 JP JP2003018712A patent/JP2004235711A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07129898A (ja) * | 1993-11-05 | 1995-05-19 | Toyota Central Res & Dev Lab Inc | 障害物検出装置 |
JPH09245168A (ja) * | 1996-03-13 | 1997-09-19 | Tech Res & Dev Inst Of Japan Def Agency | 画像認識装置 |
JPH10124676A (ja) * | 1996-10-24 | 1998-05-15 | Fujitsu Ltd | 形状追跡方法および装置 |
JP2002163657A (ja) * | 2000-11-24 | 2002-06-07 | Matsushita Electric Ind Co Ltd | 画像認識装置、画像認識方法およびそのプログラムを格納した記録媒体。 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006099155A (ja) * | 2004-09-28 | 2006-04-13 | Nissan Motor Co Ltd | 衝突判定装置、および方法 |
JP4699056B2 (ja) * | 2005-03-15 | 2011-06-08 | パナソニック株式会社 | 自動追尾装置及び自動追尾方法 |
JP2006259847A (ja) * | 2005-03-15 | 2006-09-28 | Matsushita Electric Ind Co Ltd | 自動追尾装置及び自動追尾方法 |
JP2007317025A (ja) * | 2006-05-26 | 2007-12-06 | Fujitsu Ltd | 車両判別装置及びそのプログラム |
JP2008015771A (ja) * | 2006-07-05 | 2008-01-24 | Fujitsu Ten Ltd | 画像認識装置、画像認識方法および車両制御装置 |
JP2009026223A (ja) * | 2007-07-23 | 2009-02-05 | Toyota Central R&D Labs Inc | 物体検出装置及びプログラム |
JP2009087238A (ja) * | 2007-10-02 | 2009-04-23 | Fujitsu Ltd | 画像追尾プログラム、装置、及び方法 |
JP2013142670A (ja) * | 2012-01-12 | 2013-07-22 | Honda Motor Co Ltd | 画像認識装置およびこれを用いたワークの移載方法 |
JP2014002462A (ja) * | 2012-06-15 | 2014-01-09 | Canon Inc | 映像処理装置、映像処理方法、及びプログラム |
US9842269B2 (en) | 2012-06-15 | 2017-12-12 | Canon Kabushiki Kaisha | Video processing apparatus, video processing method, and recording medium |
WO2017170875A1 (ja) * | 2016-03-30 | 2017-10-05 | 株式会社エクォス・リサーチ | 画像認識装置、及び画像認識プログラム |
US10832044B2 (en) | 2016-03-30 | 2020-11-10 | Equos Research Co., Ltd. | Image recognition device and image recognition program |
WO2019073920A1 (ja) * | 2017-10-12 | 2019-04-18 | ソニー株式会社 | 情報処理装置、移動装置、および方法、並びにプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3861781B2 (ja) | 前方車両追跡システムおよび前方車両追跡方法 | |
JP4919036B2 (ja) | 移動物体認識装置 | |
JP5689907B2 (ja) | 車両において通行物体位置検出を向上する方法 | |
JP5157067B2 (ja) | 自動走行用マップ作成装置、及び自動走行装置。 | |
JP3596339B2 (ja) | 車間距離計測装置 | |
JP4930046B2 (ja) | 路面判別方法および路面判別装置 | |
JP5136504B2 (ja) | 物体識別装置 | |
JP5834933B2 (ja) | 車両位置算出装置 | |
JP2007255979A (ja) | 物体検出方法および物体検出装置 | |
JP2003296736A (ja) | 障害物検知装置及びその方法 | |
JP2000329852A (ja) | 障害物認識装置 | |
JP4872769B2 (ja) | 路面判別装置および路面判別方法 | |
JP5716671B2 (ja) | 走路認識装置、車両、走路認識方法及び走路認識プログラム | |
JPH08329393A (ja) | 先行車検出装置 | |
JP5539250B2 (ja) | 接近物体検知装置及び接近物体検知方法 | |
JP3656056B2 (ja) | 割り込み車両検出装置及びその方法 | |
JP5501084B2 (ja) | 平面領域検出装置及びステレオカメラシステム | |
JP2004235711A (ja) | 対象物追跡システムおよび対象物追跡方法 | |
JP2018073275A (ja) | 画像認識装置 | |
JP2005156199A (ja) | 車両検知方法及び車両検知装置 | |
JP5891802B2 (ja) | 車両位置算出装置 | |
JP5903901B2 (ja) | 車両位置算出装置 | |
JPH10312463A (ja) | 物体認識方法およびその装置 | |
JPH06274788A (ja) | ナンバープレート読み取り装置 | |
JP2007233487A (ja) | 歩行者検出方法、装置、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080325 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080408 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080527 |