JPH10269365A - 特徴抽出方法およびその方法を用いた物体認識装置 - Google Patents

特徴抽出方法およびその方法を用いた物体認識装置

Info

Publication number
JPH10269365A
JPH10269365A JP9090354A JP9035497A JPH10269365A JP H10269365 A JPH10269365 A JP H10269365A JP 9090354 A JP9090354 A JP 9090354A JP 9035497 A JP9035497 A JP 9035497A JP H10269365 A JPH10269365 A JP H10269365A
Authority
JP
Japan
Prior art keywords
image
feature
perspective
perspective transformation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9090354A
Other languages
English (en)
Other versions
JP3516118B2 (ja
Inventor
Katsumi Ohashi
勝己 大橋
Masaru Go
越 呉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP09035497A priority Critical patent/JP3516118B2/ja
Publication of JPH10269365A publication Critical patent/JPH10269365A/ja
Application granted granted Critical
Publication of JP3516118B2 publication Critical patent/JP3516118B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 対象物の位置にかかわらず、精度の良い特徴
抽出処理を実施する。 【解決手段】 画像入力部6は、撮像方向を道路に向け
て配備されたカメラからの画像を取り込んで処理し、そ
の入力画像を画像メモリ7に格納する。画像変換部9
は、この入力画像の各画素の画像データが道路面上に設
定された仮想水平面上に投影された透視変換画像を生成
する。特徴抽出部9がこの透視変換画像からエッジ抽出
処理を行うと、領域設定部は、生成されたエッジ変換画
像を均一な大きさの複数個の小領域に分割し、さらに所
定数のエッジ構成点が含まれる小領域を抽出してグルー
プ分けする。物体判別部12は、各グループの大きさを
所定のモデルと照合して、そのグループが車輌に該当す
るか否かを判別する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、画像処理の手法を用
いて対象物を認識する技術に関連し、特にこの発明は、
画像上で撮像位置の近傍に位置する対象物と遠方に位置
する対象物とを、ともに精度良く認識するための特徴抽
出方法、およびこの方法を用いた物体認識装置に関す
る。
【0002】
【従来の技術】近年、各種の対象物を認識するために、
テレビカメラをその対象物が位置する方向に向けて撮像
し、得られた画像を入力して認識処理を行う装置が利用
されている。
【0003】この種の代表的な装置では、まず入力画像
に所定の処理を施して対象物の特徴を示す画素(以下こ
れを「特徴点」という)を抽出した後、抽出された各特
徴点の示すパターンを所定のモデルデータと照合するな
どして、前記対象物の種類,位置,向きなどを認識する
ようにしている。
【0004】この特徴点を抽出する方法として、従来、
入力画像を所定大きさの小領域に分割し、それぞれその
領域内に対象物の特徴が含まれていれば、領域内の所定
の点(例えば中心点)を特徴点として設定する方法が提
案されている。この方法によれば、対象物の特徴が含ま
れる小領域毎に1つの特徴点が設定されることになるの
で、処理対象となるデータを削減して効率の良い認識処
理を実施することができる。
【0005】
【発明が解決しようとする課題】しかしながら上記の方
法では、各小領域は画像上で均一な大きさに設定されて
いるため、特に道路上の車輌など、撮像位置の近傍から
遠方までの広い範囲を観測対象とする場合、遠方に位置
する対象物の特徴を精度良く抽出できないという問題が
ある。
【0006】図22は、道路の近傍位置に設置されたカ
メラからの画像を入力して、前記領域分割処理を行った
例を示すもので、入力画像上には、車輌の画像50,5
1が現れている。この入力画像に対し、図中の点線で示
すような分割処理を行った場合、撮像位置の近傍にある
車輌の画像50上には複数個の小領域が設定され(図
中、対応する領域の外枠を太実線で示す)、これら小領
域毎に抽出される複数個の特徴点を用いて認識処理を実
施することができる。これに対し、撮像位置より遠方に
ある車輌の画像51は1つの小領域内に含まれるため、
単に1個の特徴点が抽出されるのみとなり、車輌として
認識することは困難となる。
【0007】この発明は、上記問題点に着目してなされ
たもので、撮像位置より遠方に位置する対象物について
も、その特徴を精度良く抽出して、認識処理精度を向上
することを技術課題とする。
【0008】
【課題を解決するための手段】請求項1の発明は、特定
方向に向けて撮像手段を設置し、この撮像手段により得
られた画像を用いて前記特定方向に位置する対象物の特
徴を抽出する方法であって、前記画像上の各画素を、前
記対象物の支持面を含む仮想平面上に透視変換する第1
のステップと、前記透視変換画像に対する特徴抽出処理
を行って前記対象物の特徴を抽出する第2のステップと
を一連に実施するようにしている。
【0009】請求項2の発明では、前記第2のステップ
において、前記透視変換画像上の所定の画像領域を均一
な大きさを有する複数個の小領域に分割した後、これら
の小領域毎にその領域内に含まれる対象物の特徴を抽出
する。
【0010】請求項3の発明は、特定方向に向けて設置
された撮像手段からの画像を入力し、前記特定方向に位
置する対象物を認識する装置に、前記入力画像を、前記
対象物の支持面を含む仮想平面上に透視変換する透視変
換手段と、前記透視変換手段により生成された透視変換
画像上で対象物の特徴を抽出する特徴抽出手段と、前記
特徴抽出手段による特徴抽出結果を用いて対象物の認識
処理を行う認識処理手段とを具備させたものである。
【0011】請求項4の発明では、前記特徴抽出手段
を、前記透視変換手段により生成された変換画像上の所
定の画像領域を均一な大きさを有する複数個の小領域に
分割した後、これらの小領域毎にその領域内に含まれる
対象物の特徴を抽出するように構成する。
【0012】請求項5の発明では、前記特徴抽出手段
を、前記各小領域毎に、その領域内に対象物の特徴が含
まれるか否かを判別した後、対象物の特徴が含まれると
判別された小領域を領域間の距離に基づきグループ分け
するように構成する。
【0013】請求項6の発明では、特定方向に向けて設
置された複数個の撮像手段からの画像を入力して、前記
特定方向に位置する対象物を認識する装置に、前記各入
力画像を、それぞれ前記対象物の支持面を含む仮想平面
上に透視変換する透視変換手段と、前記透視変換手段に
より生成された各変換画像上で、それぞれ対象物の特徴
を抽出する特徴抽出手段と、前記特徴抽出手段による各
変換画像上の特徴抽出結果を用いた3次元計測処理を実
施する3次元計測手段と、前記3次元計測手段による計
測結果に基づき、対象物の3次元的形状を認識する認識
処理手段とを具備させている。
【0014】
【作用】撮像手段により特定方向を撮像して得られた画
像を、この特定方向における対象物の支持面を含む仮想
水平面上に透視変換すると、画像上で高さのある物点を
示す画素は、実際の物点を前記支持面上に垂直に投影し
て得られる位置よりも離れた位置に投影される。一方、
画像上の対象物の支持面上の物点を表す画素は、透視変
換後も、この物点の実際の位置と同じ位置に投影され
る。したがって所定の高さを有する対象物の画像を透視
変換すると、その支持面に接する部分は実際の座標位置
に、高さを有する部分は実際の座標位置より離れた位置
に、それぞれ投影される。その結果、透視変換画像上に
現れる対象物の画像は、実際の対象物を支持面の真上か
ら見た2次元形状よりも歪んだ形状をとることになる。
【0015】各請求項にかかる発明は、画像上に現れる
対象物であれば、その対象物が撮像位置から実際のどの
くらい離れているかにかかわらず、上記の原理を適用で
きることに着目してなされたもので、請求項1の発明で
は、前記透視変換画像上で対象物の特徴を抽出すること
により、撮像位置より遠方にある対象物についても、認
識するのに十分な大きさの特徴が抽出される。
【0016】請求項3の発明では、上記請求項1の方法
により抽出された特徴を用いて対象物の認識処理が行わ
れる。
【0017】請求項2,4の発明では、前記透視変換画
像上の所定の画像領域を均一な小領域に分割して、これ
らの小領域毎にその領域内に含まれる特徴を抽出するの
で、各小領域毎の抽出結果を用いて対象物の特徴を正確
に抽出することができる。
【0018】請求項5の発明では、対象物の特徴が含ま
れる小領域を、各領域間の距離に基づきグループ化する
ことにより、対象物を個別に認識することが可能とな
る。
【0019】請求項6の発明では、複数個の撮像手段に
より特定方向を撮像して得られた画像について、それぞ
れ上記の透視変換処理と特徴抽出処理とを実施した後、
各透視変換画像毎の特徴抽出結果を用いた3次元計測処
理を行うことにより、遠方の対象物についてもその3次
元形状を抽出することが可能となる。
【0020】
【実施例】図1は、この発明の一実施例にかかる交通流
計測装置の設置例を示す。この交通流計測装置は、道路
4の近傍に支柱3を配備し、この支柱3の上部位置にカ
メラ1を、下部位置に制御ボックス2を、それぞれ取り
付けて構成される。
【0021】前記制御ボックス2の内部には、カメラ1
を道路4の長さ方向に向けて撮像して得られた画像を処
理する制御処理装置5(図5に示す)やその処理結果を
管理センターなどの外部へ伝送するための伝送装置(図
示せず)などが収容されている。
【0022】前記制御処理装置5は、カメラ1より入力
された2次元画像をフレーム単位で道路面上の仮想水平
面上に透視変換し、この透視変換画像について後記する
特徴抽出処理や車輌の判別処理を実行する。さらに制御
処理装置5は、この判別結果を道路上の車輌の位置デー
タに編集するとともに、この編集結果の時間的な推移に
基づいて道路上の各車輌の動きを認識し、各車輌の軌跡
や移動速度,道路の渋滞度合いなどを示す交通流データ
を生成する。
【0023】ここで、この制御処理装置5の具体的な構
成を示す前に、この制御処理装置5に導入された透視変
換処理の原理および変換処理の詳細な方法を説明する。
この透視変換処理は、あらかじめ定められた空間座標系
に対するカメラ座標系の回転角度により決定されるパラ
メータを用いて、入力画像上の各画素について、それぞ
れカメラの撮像中心とこの画素とを結ぶ直線を設定し、
この直線と前記仮想水平面上との交点の位置にその画素
データを投影するものである。前記パラメータは、計測
処理に先立ち、空間座標が既知の点を用いたキャリブレ
ーションによりカメラ座標系の回転角度を算出した後、
さらにこの算出結果を後記する(28)〜(35)式に
あてはめることにより算出される。
【0024】図2は、カメラ1のカメラ座標系(図中、
x,y,zの各軸で示される座標系)と、前記した空間
座標系(図中、X,Y,Zの各軸で示される座標系)と
の関係を示す。なおOc はカメラの撮像中心点であっ
て、ここではカメラ座標系の原点に対応するものとす
る。またOは空間座標系の原点を、Mは空間中の任意の
物点を、それぞれ示す。
【0025】いま空間座標系のX,Y,Z各軸に対しカ
メラ座標系のx,y,z軸がそれぞれ角度α,β,γだ
け回転していると想定すると、点Oc の空間座標を(X
co,Yco,Zc0),点Mの空間座標を(XM ,YM ,Z
M )としたときの点Mのカメラ座標(xM ,yM
M )は、これら回転角度α,β,γにより決定される
パラメータs1 ,s2 ,s3 ,t1 ,t2 ,t3
1 ,u2 ,u3 に基づき、つぎの(1)〜(3)で表
される。なお上記各パラメータは、それぞれ(4)〜
(12)式で表される。また前記xM ,yM は、点Mの
入力画像上の対応点M´のx,y座標に、zM はカメラ
の焦点距離Fに、それぞれ相当する。
【0026】
【数1】
【0027】
【数2】
【0028】
【数3】
【0029】
【数4】
【0030】
【数5】
【0031】
【数6】
【0032】
【数7】
【0033】
【数8】
【0034】
【数9】
【0035】
【数10】
【0036】
【数11】
【0037】
【数12】
【0038】一方、直線Oc M,および道路4を含む仮
想水平面は、それぞれつぎの(13)(14)式により
表される。
【0039】
【数13】
【0040】
【数14】
【0041】いま前記点M´を含む画像を前記仮想水平
面上に透視変換するものとすると、点M´は前記直線O
c Mと仮想水平面との交点m(Xm ,Ym ,0)の位置
に投影される。したがって前記(13)(14)式よ
り、Xm ,Ym は、つぎの(15)(16)式で表され
る。
【0042】
【数15】
【0043】
【数16】
【0044】さらにX´=XM −Xc0/ZM −Zc0,
´=YM −Yc0/ZM −Zc0,Z´=1/ZM −Zc0
おくと、前記(1)〜(3)式および(15)(16)
式は、それぞれ(17)〜(21)式に変形される。
【0045】
【数17】
【0046】
【数18】
【0047】
【数19】
【0048】
【数20】
【0049】
【数21】
【0050】上記(17)〜(19)式よりZ´を消去
することにより、X´,Y´は、それぞれつぎの(2
2)(23)式により表される。さらにこの(22)
(23)式を用いて前記(20)(21)式を変形する
ことにより、(24)(25)式が得られる。
【0051】
【数22】
【0052】
【数23】
【0053】
【数24】
【0054】
【数25】
【0055】よって、前記Xm ,Ym は、画像上の点M
´の座標(xM ,yM )と(28)〜(35)式により
定義されるパラメータa,b,c,d,e,f,g,h
とを用いた(26)(27)式により算出される。
【0056】
【数26】
【0057】
【数27】
【0058】
【数28】
【0059】
【数29】
【0060】
【数30】
【0061】
【数31】
【0062】
【数32】
【0063】
【数33】
【0064】
【数34】
【0065】
【数35】
【0066】したがって、カメラの撮像中心点Oc の空
間座標(Xc0,Yc0,Zc0),キャリブレーションによ
り算出されたカメラ座標系の回転角度α,β,γ,およ
びカメラ32の焦点距離Fを、前記(28)〜(35)
式に代入して各パラメータa〜hを求めておき、カメラ
32からの入力画像の各画素毎に、そのx,y座標を前
記(26)(27)式にあてはめることにより、各画素
の投影点の座標を算出することができる。
【0067】このように、空間中の物点Mに対応する入
力画像上の点M´を仮想水平面上に透視変換すると、こ
の点M´における画像データは、カメラ中心点Oc と点
Mとを結ぶ直線Oc Mと仮想水平面との交点mに投影さ
れる。したがってこの直線Oc Mの傾きが緩慢であるほ
ど、仮想水平面上の投影点は、点Mを真上方向から透視
した際の投影点(すなわち点MのX,Y座標により特定
される点)から離れた場所に位置することになる。言い
換えれば、点Mが高い位置にあるほど、また点Mが撮像
中心点Oc より離れた位置にあるほど、その投影点は、
本来の点Mのあるべき位置から離れた場所に位置するの
で、高さ成分を有する対象物を透視変換したとき、実際
の対象物を真上位置より見た場合とは異なる大きさ,形
状を有する特徴が得られることになる。
【0068】一方、空間座標におけるZ座標が0となる
点の画像データは、実際と同じ位置に投影されるため、
影など道路面上の2次元対象物は、透視変換後も、実際
の対象物を真上位置より見た場合と同様の大きさ,形状
の特徴を有する。
【0069】図3(1)は、カメラからの入力画像の一
例であって、車輌の画像30,その影の画像31,道路
の車線間の境界線を示す画像32などが含まれている。
図3(2)は、上記入力画像を前記水平面上に透視変換
した結果を示すもので、透視変換画像中、前記車輌の画
像30の投影像30´の形状には、車輌の高さ成分を反
映した歪みが現れている。これに対し、影の画像14や
車線間の境界線の画像32の投影像31´,32´の形
状は、実際の車線や影を真上位置から観察した結果と同
様になる。
【0070】したがって認識対象の車輌を示す所定の3
次元モデルを設定しておき、前記透視変換画像上で抽出
された特徴を、前記3次元モデルがこの特徴抽出位置に
あるときに仮想水平面上に現れる2次元パターンと比較
することにより、この特徴が車輌を示すものであるか否
かを判別することが可能となる。
【0071】一般にカメラの撮像面上に現れる車輌の像
は、この車輌がカメラの撮像位置より遠方にあるほど小
さくなるので、カメラからの画像上で車輌を示す特徴の
抽出処理を行った場合、遠方の車輌については認識する
のに十分な特徴が得られなくなる虞がある。しかしなが
ら画像の透視変換処理を行うと、前記したように、撮像
位置より遠方にある物点ほど、その物点の実際の位置よ
り離れた場所に投影されるので、透視変換画像上の車輌
の投影像の大きさは、図4に示すように、撮像位置より
遠方にある車輌ほど大きくなる。したがって原画像上に
現れた車輌であれば、その車輌がいずれの位置にあって
も、透視変換画像上に認識するのに十分な大きさの投影
像を生成することができる。
【0072】図5は前記制御処理装置5の電気的構成を
示すもので、カメラ1からの画像データを入力するため
の画像入力部6,画像メモリ7,パラメータ記憶部8,
画像変換部9,特徴抽出部10,領域設定部11,物体
判別部12などを構成として含んでいる。
【0073】画像入力部6は、前記カメラ1から出力さ
れたアナログ量の画像データをディジタル量に変換する
ためのA/D変換回路などを具備する。画像メモリ7に
は、画像入力部による変換処理後のディジタル量の濃淡
画像データのほか、この入力画像を上記原理に基づき透
視変換して得られる透視変換画像データや後記するエッ
ジ画像データなどが、それぞれ、個別に格納される。
【0074】パラメータ記憶部8には、前記(28)〜
(35)式により算出されたパラメータa,b,c,
d,e,f,g,hなどが記憶されている。画像変換部
9は、これらパラメータと入力画像中の各画素のx,y
座標とを前記(26)(27)式に代入することによ
り、各画素の透視変換点の座標を算出した後、この算出
結果に基づき入力画像の透視変換画像を生成して、画像
メモリ7へと格納する。
【0075】なお前記パラメータ記憶部8の代わりに、
入力画像の各画素についての透視変換先の座標が記憶さ
れたルックアップテーブルを設け、画像入力時に、各画
素を、このルックアップテーブル中の対応する設定値に
基づく位置に変換するようにすれば、変換処理の高速化
を実現できる。
【0076】特徴抽出部10は、前記透視変換画像にラ
プラシアンフィルタなどのエッジ抽出用フィルタを走査
して、車輌などの物体の輪郭を示すエッジ成分を抽出す
る。この抽出結果は、例えばエッジ構成点を黒画素とす
る2値画像として表され、前記画像メモリ7内に記憶さ
れる(以下この画像を「エッジ変換画像」という)。
【0077】領域設定部11は、このエッジ変換画像
を、均一な大きさを有する複数個の小領域に分割処理し
た後、これら小領域の中から所定のエッジ成分を有する
領域を抽出する。物体判別部12は、この抽出結果を用
いて道路上の車輌の位置などを判別した後、その判別結
果を前記した交通流データの生成部(図示せず)などに
出力する。
【0078】図6は、前記制御処理装置5による一連の
手順を示すもので、以下、図7〜11を参照しつつ図6
の流れに沿って、上記各部による詳細な処理を説明す
る。まずステップ1で、前記画像入力部6にカメラから
の画像データが入力された後、つぎのステップ2で、前
記画像変換部9によりこの入力画像に対する透視変換画
像が生成されると、特徴抽出部10により、この透視変
換画像上の水平方向のエッジ成分が抽出されて、前記し
たエッジ変換画像が生成される(ステップ3)。
【0079】図7は、入力画像の一例を示すもので、こ
こでは説明を簡単にするために、車輌の画像C1 ,C2
に対応する影の画像を省略して示してある。図8は、前
記図7の入力画像に対する透視変換画像を示すもので、
前記図2に示した3次元座標系のX,Y軸により特定さ
れる平面上に前記車輌の投影像K1 ,K2 が示されてい
る。さらに図9は、この透視変換画像から生成されたエ
ッジ変換画像を示すもので、前記各車輌の投影像K1
2 の水平エッジ成分が黒画素として抽出されている。
【0080】上記ステップ1〜3の処理が終了すると、
つぎのステップ4で、領域設定部11は、図10に示す
ように、前記エッジ変換画像を一辺がdの複数の小領域
により均等に分割した後、各小領域内に含まれるエッジ
構成点の数をチェックし、さらにステップ5で所定のし
きい値以上のエッジ構成点が含まれる小領域のみを認識
処理の対象として設定する。
【0081】物体判別部12は、これら処理対象とされ
た小領域に対し、各領域間の距離を計測するなどして、
所定の距離範囲内にある小領域を1グループとして統合
する。またこの物体判別部12は、車輌の標準形状を示
す3次元モデルを記憶するメモリを備えており、最終的
に生成されたグループの特徴と前記3次元モデルがその
グループの位置に投影された場合の特徴とを照合して、
各グループがそれぞれ車輌を示すものであるか否かを判
別する(ステップ6)。図11は、前記図10の分割処
理結果のうち処理対象として設定された小領域のについ
ての統合結果を示すもので、前記車輌の投影像K1 ,K
2 の位置において、それぞれ複数個の小領域が統合され
て2個のグループG1 ,G2 が生成されている。
【0082】物体判別部12は、生成された各グループ
について、それぞれそのグループの最下端部の幅長さ
(図中f1 ,f2 で示す)と、縦方向の長さ(図中LT
1 ,LT2 で示す)とを抽出する。さらに物体判別部1
2は、前記車輌の標準形状を示す3次元モデルを、各グ
ループの抽出位置(前記最下端部のY座標Y1 ,Y2
において投影処理を行ったときに得られる投影像の大き
さを求め、前記幅長さf1 ,f2 および縦方向の長さL
1 ,LT2 をそれぞれこのモデルの投影像の大きさと
照合する。この結果、グループ内の特徴抽出結果と3次
元モデルの投影像の大きさとの間に有意な差がなけれ
ば、物体判別部12は、これらグループG1,G2 が車
輌を示す特徴であると認識し、その抽出位置を示すY座
標Y1 ,Y2などを車輌抽出位置として特定する。
【0083】なお上記実施例では、透視変換画像からエ
ッジ成分を抽出した後、このエッジ画像上で車輌を示す
特徴を抽出するようにしているが、これに限らず、例え
ば透視変換画像から背景部分の画像データや1段階前に
生成された透視変換画像を差分処理した画像を、所定の
しきい値で2値化した後、前記ステップ4以下の処理を
実施するようにしても良い。
【0084】図12は、交通流計測装置の他の実施例を
示す。この実施例の交通流計測装置は、道路4の近傍に
配備された支柱33上に2台のカメラ1a,1bと制御
ボックス34とを取り付けて構成される。
【0085】前記支柱33には、2つの横桟を道路方向
に向かって突出させたF字型のものが用いられており、
カメラ1a,1bは、支柱の各横桟間に縦並びに取り付
けられている。
【0086】図13は、各カメラ1a,1bの座標系と
3次元座標系(ここでは前記図2に示したのと同様の座
標系とする)との関係を示す。この実施例の各カメラ1
a,1bは、ともに焦点距離をFとするレンズを有する
とともに、各光軸が道路の長さ方向に向けて角度θをも
って平行となり、かつ各撮像面が同一平面上に位置する
ように、その取り付け位置が調整される。なお図13に
おいて、IL ,Iu は、それぞれ各カメラ1a,1bに
より得られる画像を示す。またHは、3次元座標系の原
点Oから下方のカメラ1aの撮像中心点までの距離を、
Bは各カメラ1a,1b間の基線長を、それぞれ示す。
【0087】なおこの実施例では、2台のカメラにより
道路を撮像しているが、これに限らず、3台以上のカメ
ラを用いてもよい。またカメラの配置は縦並びに限らず
横並びにしても良い。またカメラを取り付ける支柱も上
記のF字型支柱2に限らず、既存の電信柱や照明柱など
を改良して用いてもよい。
【0088】前記制御ボックス2内には、図14に示す
ような制御処理装置15や図示しない伝送装置が収容さ
れている。この制御処理装置15は、各カメラ1a,1
bからの画像よりそれぞれ前記第1の実施例と同様の仮
想平面上に透視変換した後、各透視変換画像を用いた3
次元計測処理を行って車輌の認識処理を行うもので、各
カメラ1a,1bにそれぞれ対応する画像入力部16
a,16b,画像メモリ17,パラメータ記憶部18,
画像変換部19,特徴抽出部20,対応付け処理部2
1,3次元計測部22,物体判別部23などを構成とし
て含んでいる。
【0089】画像変換部19は、各カメラ1a,1bか
らの入力画像に対し、それぞれ前記と同様の透視変換処
理を実施する。特徴抽出部20は、生成された各透視変
換画像について、それぞれ画像上の物体の輪郭を示すエ
ッジ変換画像を生成する。これら入力画像,透視変換画
像,エッジ変換画像は、入力または生成の都度、画像メ
モリ17内に個別に格納され、対応付け処理部21によ
る対応付け処理時などに、必要に応じて読み出される。
なおこの実施例では、各カメラ1a,1b毎に前記(2
8)〜(35)式に示したパラメータがあらかじめ求め
られてパラメータ記憶部18に記憶される。このほかパ
ラメータ記憶部18には、3次元計測部22の計測処理
のための各種パラメータが記憶される。
【0090】物体判別部23には、道路の各車線の位置
を特定するためのデータや、複数の車種について、その
車種にかかる車輌を側方から見たイメージを示す2次元
モデルが登録されており、前記3次元計測結果をこれら
登録データと照合することにより、各車線毎の車輌の位
置や車種の判別が行われる。
【0091】図15は、前記制御処理装置による一連の
手順を示すもので、以下、図16〜19を参照しつつ、
図15の流れに沿って、上記各部の詳細な処理を説明す
る。まずステップ1で、各カメラ1a,1bからの画像
が各画像入力部16a,16bに取り込まれると、つぎ
のステップ2で画像変換部19による透視変換処理が実
施される。
【0092】図16(1)は、下方に配置されるカメラ
1aからの入力画像IL (以下「第1入力画像IL 」と
いう)の一例を、図16(2)は上方に配置されるカメ
ラ1bにより前記図16(1)の画像と同じタイミング
で入力された画像Iu (以下「第2入力画像Iu 」とい
う)を、それぞれ示す。また図17(1)は、前記第1
入力画像IL を透視変換して得られた変換画像Hl (以
下「第1透視変換画像Hl 」という)を、図17(2)
は、前記第2入力画像Iu を透視変換して得られた変換
画像Hu (以下「第2透視変換画像Hu 」という)を、
それぞれ示す。
【0093】各入力画像に対する透視変換処理が終了す
ると、特徴抽出部20は、各透視変換画像から水平方向
のエッジ成分を抽出した後、これら抽出結果の中から車
輌の幅長さに応じた長さを有するエッジ成分のみを選択
する(ステップ3,4)。図18(1)(2)は、それ
ぞれ前記第1、第2の透視変換画像に対するエッジ抽出
結果を示す。また図19(1)(2)は、それぞれ前記
図18(1)(2)のエッジ抽出結果から車輌の幅に応
じたエッジ成分のみを抽出した結果であって、いずれ
も、前記透視変換画像上の車輌の投影像に対応する位置
において、車輌の水平方向の輪郭線を示すエッジ成分が
抽出されている。以下この実施例においては、この図1
9(1)(2)に示す所定長さのエッジ成分のみに限定
されたエッジ画像EL ,Eu を、それぞれ「第1エッジ
変換画像EL 」「第2エッジ変換画像Eu 」と呼ぶこと
にする。
【0094】こうして各カメラ1a,1bに対応するエ
ッジ変換画像が生成されると、つぎのステップ5で、対
応付け処理部21により各エッジ変換画像上の特徴点を
画像間で対応づける処理が行われる(ステップ5)。
【0095】ここで図20(1)〜(4)を用いて、前
記対応付け処理の具体例を説明する。いま第1エッジ変
換画像EL 上の所定の特徴点p(図20(1)に示す)
に対応する第2エッジ変換画像Eu 上の特徴点qを抽出
するものとすると、対応付け処理部は、第2エッジ変換
画像Eu 上に前記特徴点pのエピポーララインLを設定
し、このエピポーラライン上(もしくはその近傍)に位
置する特徴点(図中q1 〜q6 の6点)を、点pの対応
候補点として抽出する。なおここではカメラ1a,1b
が縦並びにかつ光軸が平行になるように配備されている
ので、原入力画像上のエピポーララインはy軸に平行と
なる。透視変換画像上のエピポーララインLは、この入
力画像上のエピポーララインの投影像と見なされるの
で、同じくY軸に平行となり、対応候補点を容易に抽出
することができる。
【0096】つぎに対応付け処理部21は、第1透視変
換画像HL (図20(3)に示す)上に、前記特徴点p
と同じ座標に位置する点Pを中心点とする所定大きさの
ウィンドウWL を設定するとともに、第2透視変換画像
u (図20(4)に示す)上で前記各対応候補点q1
〜q6 と同じ座標に位置する点Q1 〜Q6 を中心とし
て、それぞれ前記ウィンドウWL と同じ大きさのウィン
ドウW1 〜W6 を設定する。さらに対応付け処理部21
は、これらウィンドウW1 〜W6 についてそれぞれつぎ
の(36)式を実行し、各ウィンドウ内の画像データと
前記ウィンドウWu 内の画像データとの相違度DFを算
出する。
【0097】
【数36】
【0098】なお上式において、gL (X,Y)はウィ
ンドウWL 内の所定の画素の輝度値を、またgu (X,
Y)はウィンドウWu (U=1〜6)内の所定の画素の
輝度値を、それぞれ示す。またi,jは各ウィンドウの
サイズに応じて変動する整数である。
【0099】さらに対応付け処理部21は、各ウィンド
ウW1 〜W6 毎に求められた相違度DFを比較し、相違
度が最も小さくなるウィンドウをウィンドウWL に対応
するものとして判別する。そしてそのウィンドウの中心
点QU と同じ座標(Xu ,Yu )上にある第2エッジ変
換画像上の点qu (図示例ではq4 )を前記第1エッジ
変換画像の特徴点pの対応点として決定する。
【0100】上記の対応付け処理が完了すると、ステッ
プ6で各特徴点に対応する空間中の物点の3次元座標が
計測される。まず3次元計測部22は、対応付けられた
特徴点p,qについて、それぞれその座標(XL
L ),(Xu ,Yu )と前記透視変換処理に用いられ
たパラメータとを用いて、原入力画像上でこれら特徴点
p,qに対応する点の座標(xL,yL ),(xu ,y
u )を算出する(以下この座標を(特徴点p,qの)
「原座標」という)。
【0101】前記図2において、透視変換画像上の点m
の座標(Xm ,Ym )が判明している場合、この点mの
原座標(xm ,ym )は、前記(26)(27)式を変
形したつぎの(37)(38)式により求められる。
【0102】
【数37】
【0103】
【数38】
【0104】ただし上式において、A,B,C,D,
E,F,G,H,Iは、前記した(28)〜(35)で
求めたパラメータa〜hによるつぎの(39)〜(4
7)式により算出される。
【0105】
【数39】
【0106】
【数40】
【0107】
【数41】
【0108】
【数42】
【0109】
【数43】
【0110】
【数44】
【0111】
【数45】
【0112】
【数46】
【0113】
【数47】
【0114】実施例に戻って、ここでは2台のカメラ1
a,1bが設置されているので、それぞれのカメラ毎に
得られたパラメータを上記(37)(38)式にセット
した後、前記特徴点p,qの座標を該当するパラメータ
が設定された式に代入することにより、入力画像IL
における特徴点pの原座標(xL ,yL )と入力画像I
u 上における特徴点qの原座標(xu ,yu )とを算出
することができる。
【0115】さらに3次元計測部22は、算出された特
徴点p,qの原座標(xL ,yL )(xu ,yu )とカ
メラ1a,1bのパラメータとを3角測量の原理に基づ
く(48)〜(50)式に代入し、前記特徴点に対応す
る空間中の物点の3次元座標(X,Y,Z)を算出す
る。なお各式中、F,θ,B,Hは、前記図13に示し
たパラメータである。またCCDW ,CCDH は、それ
ぞれ各カメラ1a,1bのCCD素子の横方向,縦方向
のサイズを、WTは入力画像上のx軸方向の画素数を、
HTは入力画像のy軸方向の画素数を、それぞれ示す。
【0116】
【数48】
【0117】
【数49】
【0118】
【数50】
【0119】なお上記の方法では、エッジ変換画像間で
特徴点の対応付け処理を行ってから対応付けられた各特
徴点を原入力画像上の点に変換し、3次元計測処理を行
うようにしているが、前記(37)(38)式により各
エッジ変換画像上で抽出された特徴点の原座標を求めた
後、各入力画像上で対応付け処理を行うようにしてもよ
い。
【0120】このようにして、各エッジ変換画像上の各
特徴点について、上記した対応付け処理と3次元計測処
理とが行われた結果、各特徴点に対応する空間中の物点
の3次元座標が算出されると、以下、物体判別部23に
よる車輌判別処理が実施される(ステップ7)。
【0121】物体判別部23は、各物点の3次元座標の
算出結果を前記車線位置の登録データと照合して各車線
上に位置する物点を認識した後、各車線毎に、その長さ
方向に沿って仮想垂直平面を設定し、この平面上に前記
車線上の物点として認識された点の3次元座標を投影す
る。
【0122】図21は、前記入力画像上に現れていた1
車線に対する仮想垂直平面上の投影結果を示す。なお仮
想垂直平面の座標系は、前記した3次元座標系に基づ
き、車線の長さ方向をY軸,高さ方向をZ軸として設定
されている。また図中の×印は、前記特徴点の投影点を
示すもので、これら特徴点により車線上の対象物を車輌
の側方から見た2次元形状が表される。
【0123】この投影処理が終了すると、物体判別部2
3は、前記登録された各車種の2次元モデルをこの仮想
垂直平面上に順次設定して走査し、各走査位置毎に、投
影結果と2次元モデルとの類似度を算出するマッチング
処理を実行する。この結果、投影結果に最も類似する2
次元モデルが抽出されると、物体判別部23は、その2
次元モデルに最も類似する投影パターンが得られた位置
を、その2次元モデルに該当する車輌の位置として認識
する。
【0124】なお車輌を認識する方法は、上記の方法に
限らず、例えば3次元計測処理部22による計測結果の
中からZ座標が所定のしきい値以上となる物点を抽出
し、これら抽出された各物点間の距離を計測して所定距
離内にある物点同士をグループ化してゆき、最終的に得
られた各グループを車輌として認識するなど、種々の方
法を適用できる。
【0125】
【発明の効果】請求項1の発明では、特定方向に向けて
設置された撮像手段により得られた画像上の各画素を、
前記対象物の支持面を含む仮想平面上に透視変換した
後、この透視変換画像に対する特徴抽出処理を行って前
記対象物の特徴を抽出するので、撮像位置より遠方にあ
る対象物についても、認識するのに十分な大きさの特徴
を抽出することが可能となり、認識精度を大幅に向上す
ることができる。
【0126】請求項3の発明では、上記請求項1の方法
により抽出された特徴を用いて対象物の認識処理を実施
することにより、撮像位置より遠方にある対象物につい
ても、その特徴を精度良く抽出して認識処理を行うこと
が可能となる。
【0127】請求項2,4の発明では、前記透視変換画
像上の所定の画像領域を均一な小領域に分割して、これ
らの小領域毎にその領域内に含まれる特徴を抽出するの
で、各小領域毎の抽出結果を用いて対象物の特徴を正確
に抽出することができる。さらに請求項5の発明では、
対象物の特徴が含まれる小領域を、各領域間の距離に基
づきグループ化するので、各グループの特徴により対象
物を個別に認識することができる。
【0128】請求項6の発明では、複数個の撮像手段に
より特定方向を撮像して得られた画像について、それぞ
れ上記の透視変換処理と特徴抽出処理とを実施した後、
各透視変換画像毎の特徴抽出結果を用いた3次元計測処
理を行って対象物を認識するので、撮像位置より遠方の
対象物についても3次元形状の抽出が可能となり、認識
処理精度を大幅に向上することができる。
【図面の簡単な説明】
【図1】この発明の1実施例にかかる交通流計測装置の
設置例を示す説明図である。
【図2】透視変換処理にかかるカメラ座標系と空間座標
系との関係を示す説明図である。
【図3】入力画像およびその透視変換画像を示す説明図
である。
【図4】車輌の位置による投影像の大きさの違いを示す
説明図である。
【図5】図1の交通流計測装置に用いられる制御処理装
置の電気的構成を示すブロック図である。
【図6】図5の制御処理装置の処理手順を示すフローチ
ャートである。
【図7】入力画像の一例を示す説明図である。
【図8】図7の入力画像に対する透視変換結果を示す説
明図である。
【図9】図8の透視変換画像に対するエッジ抽出結果を
示す説明図である。
【図10】エッジ変換画像の分割処理を示す説明図であ
る。
【図11】図10の分割処理結果から認識処理対象の小
領域を設定した例を示す説明図である。
【図12】この発明の第2の実施例にかかる交通流計測
装置の設置例を示す説明図である。
【図13】図12の各カメラの座標系と空間座標系との
関係を示す説明図である。
【図14】図12の交通流計測装置に用いられる制御処
理装置の電気的構成を示すブロック図である。
【図15】図14の制御処理装置の処理手順を示すフロ
ーチャートである。
【図16】各カメラからの入力画像の一例を示す説明図
である。
【図17】図16の入力画像に対する透視変換処理結果
を示す説明図である。
【図18】図17の透視変換画像に対するエッジ抽出結
果を示す説明図である。
【図19】所定長さのエッジ成分のみを抽出したエッジ
変換画像を示す説明図である。
【図20】対応づけ処理の具体例を示す説明図である。
【図21】3次元座標の計測結果を投影処理した例を示
す説明図である。
【図22】従来の特徴抽出処理を示す説明図である。
【符号の説明】
1,1a,1b カメラ 5,15 制御処理装置 9,19 画像変換部 11 領域設定部 21 対応付け処理部 22 3次元計測部 12,23 物体判別部

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 特定方向に向けて撮像手段を設置し、こ
    の撮像手段により得られた画像を用いて前記特定方向に
    位置する対象物の特徴を抽出する方法であって、 前記画像上の各画素を、前記対象物の支持面を含む仮想
    平面上に透視変換する第1のステップと、 前記透視変換画像に対する特徴抽出処理を行って前記対
    象物の特徴を抽出する第2のステップとから成る特徴抽
    出方法。
  2. 【請求項2】 前記第2のステップにおいて、前記透視
    変換画像上の所定の画像領域を均一な大きさを有する複
    数個の小領域に分割した後、これらの小領域毎にその領
    域内に含まれる対象物の特徴を抽出する請求項1に記載
    された特徴抽出方法。
  3. 【請求項3】 特定方向に向けて設置された撮像手段か
    らの画像を入力し、前記特定方向に位置する対象物を認
    識する装置において、 前記入力画像を、前記対象物の支持面を含む仮想平面上
    に透視変換する透視変換手段と、 前記透視変換手段により生成された透視変換画像上で対
    象物の特徴を抽出する特徴抽出手段と、 前記特徴抽出手段による特徴抽出結果を用いて対象物の
    認識処理を行う認識処理手段とを備えて成る物体認識装
    置。
  4. 【請求項4】 前記特徴抽出手段は、前記透視変換手段
    により生成された変換画像上の所定の画像領域を均一な
    大きさを有する複数個の小領域に分割した後、これらの
    小領域毎にその領域内に含まれる対象物の特徴を抽出す
    る請求項3に記載された物体認識装置。
  5. 【請求項5】 前記特徴抽出手段は、前記各小領域毎
    に、その領域内に対象物の特徴が含まれるか否かを判別
    した後、対象物の特徴が含まれると判別された小領域を
    領域間の距離に基づきグループ分けする請求項3または
    4に記載された物体認識装置。
  6. 【請求項6】 特定方向に向けて設置された複数個の撮
    像手段からの画像を入力して、前記特定方向に位置する
    対象物を認識する装置において、 前記各入力画像を、それぞれ前記対象物の支持面を含む
    仮想平面上に透視変換する透視変換手段と、 前記透視変換手段により生成された各変換画像上で、そ
    れぞれ対象物の特徴を抽出する特徴抽出手段と、 前記特徴抽出手段による各変換画像上の特徴抽出結果を
    用いた3次元計測処理を実施する3次元計測手段と、 前記3次元計測手段による計測結果に基づき、対象物の
    3次元的形状を認識する認識処理手段とを備えて成る物
    体認識装置。
JP09035497A 1997-03-24 1997-03-24 物体認識方法および物体認識装置 Expired - Lifetime JP3516118B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP09035497A JP3516118B2 (ja) 1997-03-24 1997-03-24 物体認識方法および物体認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09035497A JP3516118B2 (ja) 1997-03-24 1997-03-24 物体認識方法および物体認識装置

Publications (2)

Publication Number Publication Date
JPH10269365A true JPH10269365A (ja) 1998-10-09
JP3516118B2 JP3516118B2 (ja) 2004-04-05

Family

ID=13996208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09035497A Expired - Lifetime JP3516118B2 (ja) 1997-03-24 1997-03-24 物体認識方法および物体認識装置

Country Status (1)

Country Link
JP (1) JP3516118B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007172504A (ja) * 2005-12-26 2007-07-05 Daihatsu Motor Co Ltd 付着物検出装置及び付着物検出方法
JP2007333679A (ja) * 2006-06-19 2007-12-27 Mitsubishi Electric Corp 3次元位置補正装置
JP2009163682A (ja) * 2008-01-10 2009-07-23 Toyota Central R&D Labs Inc 画像識別装置及びプログラム
JP2009186228A (ja) * 2008-02-04 2009-08-20 Konica Minolta Holdings Inc 3次元計測装置
JP2010128732A (ja) * 2008-11-27 2010-06-10 Japan Traffic Management Technology Association 車両台数密度観測装置及び車両台数密度観測装置用のプログラム
JP2011130290A (ja) * 2009-12-18 2011-06-30 Ricoh Co Ltd カメラ画像の補正方法およびカメラ装置および座標変換パラメータ決定装置
JP2013025489A (ja) * 2011-07-19 2013-02-04 Sumitomo Electric Ind Ltd 移動体検出装置、移動体検出システム及びコンピュータプログラム
JP2013089129A (ja) * 2011-10-20 2013-05-13 Sumitomo Electric Ind Ltd 移動体検出装置、コンピュータプログラム及び移動体検出方法
KR20190115501A (ko) * 2018-03-14 2019-10-14 광주과학기술원 차량 인식 시스템
CN110487796A (zh) * 2019-08-16 2019-11-22 上海达梦数据技术有限公司 一种基于图像的物料检测方法和装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007172504A (ja) * 2005-12-26 2007-07-05 Daihatsu Motor Co Ltd 付着物検出装置及び付着物検出方法
JP2007333679A (ja) * 2006-06-19 2007-12-27 Mitsubishi Electric Corp 3次元位置補正装置
JP2009163682A (ja) * 2008-01-10 2009-07-23 Toyota Central R&D Labs Inc 画像識別装置及びプログラム
JP2009186228A (ja) * 2008-02-04 2009-08-20 Konica Minolta Holdings Inc 3次元計測装置
JP2010128732A (ja) * 2008-11-27 2010-06-10 Japan Traffic Management Technology Association 車両台数密度観測装置及び車両台数密度観測装置用のプログラム
JP2011130290A (ja) * 2009-12-18 2011-06-30 Ricoh Co Ltd カメラ画像の補正方法およびカメラ装置および座標変換パラメータ決定装置
JP2013025489A (ja) * 2011-07-19 2013-02-04 Sumitomo Electric Ind Ltd 移動体検出装置、移動体検出システム及びコンピュータプログラム
JP2013089129A (ja) * 2011-10-20 2013-05-13 Sumitomo Electric Ind Ltd 移動体検出装置、コンピュータプログラム及び移動体検出方法
KR20190115501A (ko) * 2018-03-14 2019-10-14 광주과학기술원 차량 인식 시스템
CN110487796A (zh) * 2019-08-16 2019-11-22 上海达梦数据技术有限公司 一种基于图像的物料检测方法和装置

Also Published As

Publication number Publication date
JP3516118B2 (ja) 2004-04-05

Similar Documents

Publication Publication Date Title
US8867790B2 (en) Object detection device, object detection method, and program
JP3868876B2 (ja) 障害物検出装置及び方法
CN112424565B (zh) 车载环境识别装置
JP3709879B2 (ja) ステレオ画像処理装置
JP2002228423A (ja) タイヤ検出方法および装置
JP3516118B2 (ja) 物体認識方法および物体認識装置
JP4123138B2 (ja) 車両検知方法及び車両検知装置
JPH1144533A (ja) 先行車両検出装置
JP3465531B2 (ja) 物体認識方法およびその装置
JP3605955B2 (ja) 車輌判別装置
JPH11211738A (ja) 移動体の速度計測方法およびその方法を用いた速度計測装置
JP2002117403A (ja) 画像処理装置および画像処理方法
JP3475700B2 (ja) 物体認識方法、物体認識装置、および車輌認識装置
JP2006050451A (ja) 障害物警告システム及び画像処理装置
JPH1055446A (ja) 物体認識装置
JPH10283478A (ja) 特徴抽出方法およびその方法を用いた物体認識装置
JPH11259792A (ja) 車輌認識方法およびその装置
CN110852278B (zh) 地面标识线识别方法、设备及计算机可读存储介质
JPH11259658A (ja) 物体認識方法およびその方法を用いた物体認識装置,車輌認識方法,車輌認識装置
JP2566395B2 (ja) 三次元座標計測装置
JP2003208692A (ja) 車両認識方法およびこの方法を用いた交通流計測装置
JPH11190611A (ja) 3次元計測方法およびその方法を用いた3次元計測処理装置
JP3419968B2 (ja) 画像認識装置及び方法
JP3419919B2 (ja) 移動物体検出装置
JP2004094707A (ja) ステレオ画像による平面推定方法および物体検出装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100130

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100130

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110130

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110130

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120130

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130130

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140130

Year of fee payment: 10

EXPY Cancellation because of completion of term