JP3465531B2 - 物体認識方法およびその装置 - Google Patents

物体認識方法およびその装置

Info

Publication number
JP3465531B2
JP3465531B2 JP13762997A JP13762997A JP3465531B2 JP 3465531 B2 JP3465531 B2 JP 3465531B2 JP 13762997 A JP13762997 A JP 13762997A JP 13762997 A JP13762997 A JP 13762997A JP 3465531 B2 JP3465531 B2 JP 3465531B2
Authority
JP
Japan
Prior art keywords
image
observation position
images
feature points
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP13762997A
Other languages
English (en)
Other versions
JPH10312463A (ja
Inventor
吉博 小野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP13762997A priority Critical patent/JP3465531B2/ja
Publication of JPH10312463A publication Critical patent/JPH10312463A/ja
Application granted granted Critical
Publication of JP3465531B2 publication Critical patent/JP3465531B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、所定の観測位置を撮
像して得られた画像により、この観測位置における対象
物を認識するための方法および装置に関する。
【0002】
【従来の技術】近年、道路や駐車場の上方にカメラを設
置して所定位置を撮像し、得られた画像から車輌の特徴
を示す画像部分を抽出して、車輌の移動台数、移動速
度、車種などを認識する装置が開発されている。
【0003】上記装置には、車輌の特徴を抽出するため
に、あらかじめ観測位置に対象物が存在しない状態下で
の画像がメモリ内に記憶されており、観測時には、前記
カメラからの画像とこの背景画像との差分が車輌に関わ
る画像として抽出される(電気学会技術報告 第512
号 第80〜81頁)。
【0004】また背景画像を記憶する代わりに、1段階
前に取り込んだ画像を記憶しておき、この直前の画像を
最新の画像から差し引くことにより車輌の特徴を抽出す
る方法も提案されている。
【0005】入力画像と背景画像との差分を用いる場
合、昼夜、晴天時、雨天時など種々の環境に応じた背景
画像を記憶する必要があるが、必要な環境を想定した
り、環境の変化に応じた背景画像の更新を行うことには
限界があり、車輌の特徴を高精度で抽出することは望め
ない。また上記した各方法の場合、車輌の影や風で揺れ
る木の影などの路面上で動く影、あるいは夜間のライト
の反射光や濡れた路面に写った車輌など、車輌以外の動
きを車輌として誤検出してしまうという問題がある。
【0006】さらに従来の各方法の場合、大型車輌が存
在したり、渋滞が生じたりすると、画面上の複数台の車
輌が1台の車輌として誤検出される虞がある。また大型
車輌の影の画像が隣の車線にまで及んで後方にある小型
車輌と重なると、この影や小型車輌が大型車輌として誤
検出されるなど、道路上の車輌の台数や車種を正確に判
別することは到底不可能である。
【0007】上記の問題を解決するために、出願人は、
先般、3次元認識およびパターンマッチングの手法によ
り道路上の車輌の車種や移動状態を認識する方法を提案
した(特開平9−33232号)。この認識処理は、複
数台のカメラにより道路上の観測位置を撮像し、各カメ
ラからの画像上で抽出された車輌の特徴点を画像間で対
応づけて3次元計測を実施した後、この3次元計測結果
を道路に沿う仮想平面上に投影し、さらにその投影部分
に対し複数種の2次元モデルを順次走査してマッチング
処理を実施するというもので、仮想平面上に投影された
車輌の側面形状に基づき、周囲環境や影などの影響を受
けることなく、道路上の各車輌を高精度で認識すること
が可能となる。
【0008】
【発明が解決しようとする課題】ところで車輌のような
移動体は、常に道路の長さ方向に沿って進んでいるとは
限らず、車線変更や右折,左折などにより、道路に対し
て所定角度の傾きをもって位置していることも考えられ
る。しかしながら上記の認識処理では、3次元計測結果
は、常に所定の方向に沿う仮想平面上に投影されるの
で、道路に対して傾きをもって位置する車輌の画像が含
まれていると、その車輌にかかる特徴部分の投影像は車
輌の側面形状を正確に反映しなくなり、誤認識が生じる
という問題がある。
【0009】この発明は上記問題点に着目してなされた
もので、観測位置において対象物がいずれの方向を向い
ているかを認識した後、画像上の対象物の特徴点をこの
特定結果に応じた仮想平面上に投影して認識処理を実施
することにより、認識精度を大幅に向上することを技術
課題とする。
【0010】
【課題を解決するための手段】請求項1,2の発明は、
所定の観測位置を複数の撮像手段により撮像して得られ
た画像を用いて、この観測位置における対象物を認識す
る方法に関するもので、請求項1の方法では、前記各撮
像手段により得られた画像上でそれぞれ対象物を示す複
数個の特徴点を抽出する第1のステップと、前記特徴点
の抽出結果に基づき、前記画像上における対象物の向き
を計測するとともに、各特徴点を画像間で対応づけて対
応する特徴点の組毎に3次元座標を算出する第2のステ
ップと、前記画像上の対象物の向きおよび各3次元座標
の算出結果により前記観測位置における対象物の向きを
特定した後、この特定結果に基づき前記観測位置の所定
の方向に仮想平面を設定する第3のステップと、前記各
特徴点の組毎に算出された3次元座標を前記仮想平面上
に投影し、得られた投影像を用いて前記対象物を認識す
る第4のステップとが一連に実施される。
【0011】請求項2の方法では、請求項1と同様の第
1のステップとが実施された後、前記抽出された各特徴
点を画像間で対応づけて、対応する特徴点の組毎に3次
元座標を算出する第2のステップと、前記算出された各
3次元座標を、対象物を支持する平面上に投影して得ら
れる投影像により前記観測位置における対象物の向きを
特定した後、この特定結果に基づき前記観測位置の所定
の方向に仮想平面を設定する第3のステップと、前記各
特徴点の組毎に算出された3次元座標を前記仮想平面上
に投影し、得られた投影像を用いて前記対象物を認識す
る第4のステップとが一連に実施される。
【0012】請求項3の発明は、請求項1の発明を実施
するための物体認識装置であって、複数の撮像手段から
の画像を取り込んで、それぞれその画像上の対象物を示
す複数個の特徴点を抽出する特徴抽出手段と、前記各特
徴点の抽出結果に基づき、画像上における対象物の向き
を計測する計測手段と、前記各特徴点を画像間で対応づ
けて対応する特徴点の組毎に3次元座標を算出する3次
元座標算出手段と、前記計測手段の計測結果および3次
元座標算出手段による算出結果に基づき前記観測位置に
おける対象物の向きを特定する向き特定手段と、前記向
き特定手段の特定結果に基づき前記観測位置の所定の方
向に仮想平面を設定して、この平面上に前記3次元計測
結果を投影する投影手段と、前記投影手段により得られ
た仮想平面上の投影像を用いて前記対象物を認識する認
識手段とを具備している。
【0013】請求項4の発明は、請求項2の方法を実施
するための物体認識装置であって、請求項3と同様の特
徴抽出手段、3次元座標算出手段と、前記3次元座標算
出手段による算出結果を対象物の支持面上に投影した
後、その投影結果を用いて前記観測位置における対象物
の向きを特定する向き特定手段と、前記向き特定手段の
特定結果に基づき前記観測位置の所定の方向に仮想平面
を設定して、この平面上に前記3次元座標の算出結果を
投影する投影手段と、前記投影手段により得られた仮想
平面上の投影像を用いて前記対象物を認識する認識手段
とを具備している。
【0014】
【作用】各撮像手段からの観測位置の画像が取り込まれ
ると、各画像上で、対象物を示す複数個の特徴点が抽出
される。この後、請求項1および3の発明では、これら
特徴点の抽出結果に基づき、画像上における対象物の向
きが計測されると共に、各特徴点が画像間で対応づけら
れて対応する特徴点の組毎に3次元座標が算出され、さ
らにこれらの結果に基づき観測位置における対象物の向
きが特定される。
【0015】また請求項2および4の発明では、画像間
で対応づけられた特徴点の組毎に3次元座標を算出し
て、その算出結果を対象物の支持面上に投影した後、そ
の投影結果を用いて観測位置における対象物の向きが特
定される。
【0016】このようにして特定された対象物の向きに
基づき、観測位置に仮想平面を設定し、その平面上に各
3次元座標を投影するので、対象物がいずれの向きを向
いていても、その特徴的な2次元形状を精度良く捉えた
投影像を得ることができ、高精度の認識処理を行うこと
が可能となる。
【0017】
【実施例】図1は、この発明の一実施例にかかる交通流
計測装置の設置例を示す。この交通流計測装置は、道路
1の近傍にF字形状の支柱2を配備して、この支柱2に
2台のカメラ3a,3bと制御処理装置4とを取り付け
て構成されるもので、各カメラ3a,3bにより道路を
上方より撮像して得られた画像を制御処理装置4に取り
込んで、道路1の各車道毎の通過車輌の台数や車種の判
別、特定車輌の通過速度の計測、違法駐車中の車輌の検
出などを実施する。
【0018】前記支柱2は、その横桟を道路上に突出さ
れて配備されている。各カメラ3a,3bは、焦点距離
を同じくするレンズを有しており、支柱2の各横桟間に
固定配備された垂直棒6により縦並びに取り付けられて
いる。なお各カメラ3a,3bは、各光軸が道路の方向
に向けて平行になり、かつ各撮像面が同一平面上に位置
するように、その取り付け位置が調整される。一方、制
御処理装置4は、保守,点検などの必要から支柱2の基
部付近に取り付けられる。
【0019】なおこの実施例では、2台のカメラにより
道路を撮像しているが、これに限らず、3台以上のカメ
ラを用いてもよい。またカメラの配置は縦並びに限らず
横並びにしても良い。またカメラを取り付ける支柱も上
記のF字型支柱2に限らず、既存の電信柱や照明柱など
を改良して用いてもよい。
【0020】図2は、前記制御処理装置4の電気的構成
を示すもので、各カメラ3a,3bからの画像データを
入力するための画像入力部5a,5b,特徴抽出部6,
車輌方向計測部7,3次元計測部8,投影処理部9,マ
ッチング処理部10,モデルメモリ11,マッチング結
果記憶部12,追跡処理部13などを構成として含んで
いる。
【0021】各画像入力部5a,5bは、それぞれ各カ
メラ3a,3bからのアナログ量の画像データをディジ
タル量に変換するためのA/D変換回路や、変換処理後
のディジタル量の画像データを格納するための画像メモ
リなどから構成される。特徴抽出部6は、各入力画像に
対し、それぞれあらかじめ登録された背景画像による差
分処理を行った後、その差分画像上に所定のエッジ抽出
用フィルタを走査して、車輌などの物体の輪郭を示すエ
ッジ構成点を抽出する。この抽出結果は、各エッジ構成
点を黒画素とする2値のエッジ画像により表され、車輌
方向計測部7や3次元計測部8に与えられる。
【0022】車輌方向計測部7は、前記各エッジ画像を
用いて後記する方向計測処理を実施し、画像上の各車輌
がいずれの方向を向いているかを抽出する。3次元計測
部8は、抽出された各エッジ構成点をエッジ画像間で対
応づけした後、その対応づけ結果と三角測量の原理とを
用いて各エッジ構成点に対応する3次元座標を算出す
る。
【0023】前記3次元座標の算出処理が完了すると、
投影処理部9は、この算出結果と前記車輌方向計測部7
による計測結果とを用いて、実際の道路上の車輌の向き
に沿い、かつ道路面に垂直になるような仮想垂直平面を
設定し、前記算出された3次元座標をこの平面上に投影
する。
【0024】前記モデルメモリ11には、複数種の車輌
について、それぞれその立体形状を示す3次元モデルが
記憶されている。マッチング処理部10は、これら3次
元モデルを用いて前記仮想垂直平面における各車種毎の
投影モデルを生成した後、これらモデルと前記3次元座
標の投影パターンとのマッチング処理を実施し、前記投
影パターンが何を示しているのかを判断する。
【0025】マッチング結果記憶部12には、前記マッ
チング処理部10による認識結果として、仮想垂直平面
上の投影パターンに対応すると判断された車種や、仮想
垂直平面上でこの車種の投影モデルに最も類似すると判
断された位置(以下これを「マッチング位置」という)
などが記憶される。これらの記憶データは、つぎの段階
でのマッチング処理時にマッチング処理部10に与えら
れ、最初に設定されるモデルやそのモデルの走査開始位
置の決定に用いられる。
【0026】追跡処理部13は、画像入力毎に得られる
マッチング処理結果を順次入力し、その認識結果の時間
的な推移に基づき観測位置を通過した車輌の台数,速度
などを認識し、外部へと出力する。
【0027】図3は、上記制御処理装置4による認識処
理の一連の手順を示すもので、以下同図の流れに沿っ
て、図4〜12を参照しつつ、上記各構成による処理の
詳細を説明する。
【0028】まずステップ1で、各カメラ3a,3bか
らの画像が各画像入力部5a,5bに取り込まれると、
特徴抽出部6は、これら入力画像に対し、前記した背景
差分処理とエッジ抽出処理とを実施し、前記したエッジ
画像を生成する(ステップ2)。
【0029】図4(1)(2)は、それぞれ各カメラ3
a,3bからの入力画像の具体例を示すもので、いずれ
の画像にも、撮像位置近傍で走行車線を変更中の車輌の
画像Ca1,Cb1と、この車輌の後方を走行中の車輌の画
像Ca2,Cb2とが現れている。
【0030】図5(1)(2)は、前記図4(1)
(2)に示した各入力画像の背景差分処理画像より生成
されたエッジ画像を示すもので、各エッジ画像上にはそ
れぞれ前記車輌の画像Ca1,Ca2,Cb1,Cb2の輪郭を
示す特徴点が現れている。
【0031】車輌方向計測部7は、これらエッジ画像の
うちのいずれか一方(ここではカメラ3aに対応する第
1のエッジ画像とする)について、その画像上に現れた
各車輌がいずれの方向を向いているかを計測するもの
で、まずエッジ画像上の各特徴点にクラスタリング処理
を施して、各特徴点を車輌毎にグループ分けした後、各
グループ毎にその構成要素となる特徴点を包括するよう
な画像領域を設定する(ステップ3)。
【0032】図6は、前記図5(1)に示したエッジ画
像上の各特徴点について、上記のクラスタリング処理を
行った結果を示すもので、各特徴点は、前記車輌の画像
a1,Ca2に対応する2つのグループに分類され、各グ
ループ毎にそのグループ内の各特徴点が含まれるような
画像領域Ra ,Rb が設定されている。
【0033】このクラスタリング処理が終了すると、車
輌方向計測部7は、各画像領域毎に、所定大きさのマス
クウィンドウを走査して、複数個の特徴点が連続して成
る輪郭線成分を抽出する。さらに車輌方向計測部7は、
抽出された各輪郭線成分の長さや方向を一般的な車輌の
輪郭形状と照合するなどして、車輌の画像がいずれの方
向を向いているかを示すベクトルを設定する(ステップ
4)。
【0034】図7は、前記図6の画像領域Ra における
ベクトルの設定結果を示すもので、車輌の幅方向に相当
する各輪郭線成分にかかる位置に、車輌の長さ方向に沿
ったベクトルnが設定されている。なお図中An ,Bn
は、車輌の前端および後端にあたる輪郭線成分とベクト
ルnとの交点であって、後記する道路上への仮想垂直平
面の設定処理時に用いられる。
【0035】このようにして各入力画像上の車輌の向き
を示すベクトルが設定されると、つぎに3次元計測部8
により、前記エッジ画像間で各特徴点を対応づける処理
が行われる(ステップ5)。
【0036】図8(1)〜(4)は、前記図5(1)
(2)の各エッジ画像上のエッジ構成点を対応づける場
合の具体例を示す。なお以下の説明では、前記カメラ3
a,3bからの各入力画像から背景部分を差分処理した
画像(図8(3)(4)のG1,G2)をそれぞれ「第
1画像G1」「第2画像G2」と呼び、これら画像から
生成されたエッジ画像(図8(1)(2)のE1,E
2)をそれぞれ「第1エッジ画像E1」「第2エッジ画
像E2」と呼ぶものとする。
【0037】まず3次元計測部8は、第1エッジ画像E
1から所定のエッジ構成点pを抽出した後、第2エッジ
画像E2に着目し、このエッジ画像E2内で前記エッジ
構成点pのエピポーララインL上に位置するエッジ構成
点(図中q1 ,q2 ,q3 ,q4 ,q5 )を、エッジ構
成点pの対応候補点として抽出する。なおこの場合、カ
メラ3a,3bは、前記したように縦並びに配備されて
いるので、エピポーララインLはy軸に垂直になり、対
応候補点を容易に抽出することができる。
【0038】つぎに3次元計測部8は、第1画像G1上
に前記エッジ構成点pと同じ座標(x,yu )上に位置
する点Pを中心点とする所定の大きさのウィンドウWu
を設定するとともに、第2画像G2上でも、前記対応候
補点q1 〜q5 と同じ座標(x,y1 ),(x,
2 ),(x,y3 ),(x,y4 , (x,y5 )上
にそれぞれ位置する点Q1 〜Q5 を抽出し、これら点Q
1 〜Q5 を中心とし、かつ前記ウィンドウWu と同じ大
きさを有するウィンドウW1 〜W5 を画像G2上に設定
する。
【0039】各ウィンドウが設定されると、3次元計測
部8は、第2画像上の各ウィンドウW1 〜W5 について
それぞれつぎの(1)式を実行し、各ウィンドウと第1
画像上のウィンドウWu との相違度DFを算出する。な
お、次式において、gU (x,y)はウィンドウWU
の所定の画素の輝度値を、またgL (x,y)はウィン
ドウWL (L=1〜5)内の所定の画素の輝度値を、そ
れぞれ示す。またi,jはそれぞれ各ウィンドウの大き
さに応じて変動する変数である。
【0040】
【数1】
【0041】3次元計測部8は、各ウィンドウW1 〜W
5 について求められたウィンドウWU との相違度DFを
比較し、相違度が最も小さくなるウィンドウをウィンド
ウWU に対応するものとして判別する。そしてそのウィ
ンドウの中心点QL と同じ座標(x,yL )上にある第
2エッジ画像上の点qL を前記第1エッジ画像のエッジ
構成点pの対応点として決定する。
【0042】上記の対応付け処理が、両エッジ画像内の
すべてのエッジ構成点について行われると、3次元計測
部8は、各エッジ画像E1,E2間の対応するエッジ構
成点p,qの座標(x,yU , (x,yL )とあらか
じめ内部のメモリに記憶された各カメラ3a,3bのパ
ラメータとを用いて、三角測量の原理をもとに、各エッ
ジ構成点に対応する3次元座標を算出する(ステップ
6)。
【0043】図9は、上記の三角測量の原理を示す。図
中Cは、車道上の対象物15(この場合車輌)上の所定
の構成点を示すもので、各カメラ3a,3bの撮像面I
U ,IL 上にはこの点Cの物点像p,qが現れている。
なお図中、Uはカメラ3aの焦点を、Lはカメラ3bの
焦点を、それぞれ示す。
【0044】上記の対応する物点像p,qに対応する3
次元座標は、物点Cの空間位置に相当する。したがって
この対象物15のすべての特徴点について上記の方法を
実行すれば、対象物15の立体形状を把握することがで
きる。この原理に基づき、3次元計測部8は、前記対応
づけられた特徴点の組毎につぎの(2)〜(4)式を実
行し、各特徴点に対応する物点の3次元座標を算出す
る。
【0045】
【数2】
【0046】
【数3】
【0047】
【数4】
【0048】なおこの算出処理の前提となる空間座標系
は、図10に示すように、前記支柱2の設置位置を原点
Oとして道路の幅方向をX軸,高さ方向をY軸,長さ方
向をZ軸として設定されたもので、上記(2)〜(4)
式において、Bは各カメラの基線長を、Fは各カメラの
レンズの焦点距離を、Hは第2のカメラ3bの高さデー
タを、θはカメラの俯角を、それぞれ示す。
【0049】すべての特徴点に対応する3次元座標が算
出されると、投影処理部9は、前記道路上に、前記クラ
スタリング処理により得られたグループ毎に、前記車輌
方向計測部7により設定されたベクトルに沿う仮想垂直
平面を設定し、その平面上にグループ内の各特徴点に対
応する3次元座標を投影する(ステップ7,8)。
【0050】図11は、前記図7に示したベクトルnに
対応する仮想垂直平面を設定する場合の具体例を示す。
図示例は、前記した空間座標系をXZ平面の上方より見
た状態であって、A,Bは、それぞれ前記図7の交点A
n ,Bn に対応する物点をXZ平面上に投影して得られ
る投影点を示す。
【0051】ここで点A,Bの3次元座標をそれぞれ
(XA ,0,ZA ),(XB ,0,ZB )とおくと、点
A,Bを通る直線Mはつぎの(5)式により表される。
なお、XA ,ZA ,XB ,ZB の各座標は、前記交点A
n ,Bn および第2エッジ画像上でこれら交点に対応す
る特徴点の各座標を前記(2)(4)式に代入すること
により算出される。
【0052】
【数5】
【0053】前記仮想垂直平面は、この(5)式により
特定される直線Mの方向とY軸に平行な方向とを2軸と
するもので、この直線Mの方向をH軸,H軸とZ軸との
交点を原点O´,原点O´を通りY軸に平行な方向をV
軸とおくと、空間内の任意の物点C(X,Y,Z)をこ
のHV平面上に投影した場合の投影点C´のH座標は、
原点O´からC´までの距離mにより表される。
【0054】ここで原点O´を通り、X軸に平行な直線
をlとおき、この直線lに点C,C´から下ろした垂線
の足をそれぞれD,Eとおくと、投影点C´のH座標
(距離m)はつぎの(6)式により表される。ただし前
記角度ψは、H軸のZ軸に対する角度であって、前記点
A,Bの座標を用いた(7)式により求められる。また
a,bは、それぞれ(8)(9)式により算出されるも
のである。
【0055】
【数6】
【0056】
【数7】
【0057】
【数8】
【0058】
【数9】
【0059】なお前記したように、V軸はY軸に平行に
なるように設定されているるので、投影点C´のV座標
は、点CのY座標と同値となる。
【0060】図12は、前記HV平面への投影結果の一
例を示す。図中の各×印は、各特徴点の投影点を示すも
ので、これら特徴点の投影像により、道路上の車輌を、
その車輌の向きに直交する方向から見た2次元形状が表
される。
【0061】このようにして、各車輌毎に仮想垂直平面
の設定と投影処理とが行われると、マッチング処理部1
0は、各仮想垂直平面毎に、モデルメモリ11より所定
の車種の3次元モデルを読み出して仮想垂直平面におけ
る投影モデルを生成する。ついでマッチング処理部10
は、この投影モデルにより前記投影パターンを走査しつ
つ、各走査位置毎に投影モデルと投影パターンとの類似
度を算出する。
【0062】以下各車種の3次元モデルが順次読み出さ
れて同様の処理が実施されることにより、各仮想垂直平
面毎に、その平面上の投影パターンに最も類似すると判
断された投影モデル、およびそのマッチング位置が、道
路上の各車輌の車種およびその位置として判別される
(ステップ10)。
【0063】この判別結果は、マッチング結果記憶部1
2に出力され、つぎに取り込まれた画像の処理時まで保
持される。この段階でマッチング処理部10は、設定さ
れた各仮想垂直平面に対し、それぞれ前段階に設定され
た最も近い仮想垂直平面におけるマッチング結果にかか
る3次元モデルを用いて投影モデルを生成した後、これ
を前段階のマッチング位置に対応する位置に初期設定し
て投影パターンとのマッチング処理を実施する。この結
果、前記投影モデルと投影パターンとの間に所定のしき
い値を越える類似度が得られると、その他のモデルによ
るマッチング処理はスキップされる。
【0064】前記マッチング処理部10により判別され
た各車輌の車種とその位置とは、追跡処理部13に与え
られ、各車輌毎の位置データの変化を示す軌跡データが
作成される。さらに追跡処理部13は、この軌跡データ
を用いて、観測地点を通過した車輌の数やその速度など
を計測し、その計測結果を図示しない伝送装置を介して
外部に出力する(ステップ11)。
【0065】このように取り込まれた画像に対する特徴
抽出結果から各車輌の向きを特定し、その特定された方
向に沿う仮想垂直平面上に各特徴点に対応する3次元座
標を投影するので、車輌がいずれの方向を向いていて
も、その側面形状を精度良く反映した投影データをもっ
て、その車種や位置を正確に認識することができる。ま
た各車輌の投影データに対するマッチング処理時に、前
段階で行われたマッチング処理結果を利用するようにし
ているので、各仮想垂直平面に対するマッチング処理時
間を大幅に削減して効率の良い処理を行うことができ
る。
【0066】なお上記構成において、車輌方向計測部7
と3次元計測部8との処理を、並列して行うようにすれ
ば、処理を高速化することができる。また前記ステップ
4で各グループ毎に設定された方向ベクトルの角度差が
所定の誤差範囲内であるときには、各グループに共通の
仮想垂直平面を設定するように構成してもよい。
【0067】図13は、前記制御処理装置4の他の構成
を示すもので、前記図2と同様の画像入力部5a,5
b,特徴抽出部6,3次元計測部8,マッチング処理部
10,モデルメモリ11,マッチング結果記憶部12,
追跡処理部13のほか、第1,第2の2個の投影処理部
16,18,車輌方向計測部17などを構成として含ん
でいる。
【0068】前記3次元計測部8は、各カメラ3a,3
bより生成されたエッジ画像上の特徴点に対し、前記第
1の実施例と同様の3次元計測処理を実施して、車輌を
示す特徴点の3次元座標を算出する。
【0069】第1の投影処理部16は、前記3次元座標
の算出結果を空間座標系のXZ平面上、すなわち道路面
上に投影するためのもので、車輌方向計測部17は、こ
の投影結果を用いて道路上の各車輌がいずれの方向を向
いているかを計測する。第2の投影処理部18は、前記
車輌方向計測部17により計測された各車輌の向きに沿
う仮想垂直平面を設定した後、この平面上に前記3次元
座標の算出結果を投影する。
【0070】図14は、上記制御処理装置4による処理
手順を示す。まずステップ1で、各カメラ3a,3bか
らの画像が入力されると、特徴抽出部6は、各入力画像
に対し、前記と同様の背景差分処理およびエッジ抽出処
理を行って、車輌の輪郭を表すエッジ画像を生成する
(ステップ2)。3次元計測部8は、これらエッジ画像
上の特徴点に対し、前記と同様の対応づけ処理と3次元
座標算出処理とを行って、各特徴点に対応する物点の3
次元座標を算出する(ステップ3,4)。
【0071】各特徴点に対する3次元座標の算出処理が
終了すると、第1投影処理部16は、算出された各3次
元座標を、前記空間座標系のXZ平面上に投影する(ス
テップ5)。車輌方向計測部17は、これら投影点にク
ラスタリング処理を行って各投影点を車輌毎にグループ
分けし、さらに各グループ毎の輪郭線成分の長さや方向
を用いて車輌の向きを計測する(ステップ6,7)。
【0072】図15は、XZ平面上において、グループ
分けされた投影結果に対するベクトルの設定例を示す。
図中、R1 ,R2 は、各グループ毎の特徴点群を包括す
る領域を示す。車輌方向計測部17は、前記第1の実施
例と同様、各領域R1 ,R2 内の輪郭線成分の長さや方
向をそれぞれ車輌を上方から見た輪郭形状と比較するこ
とにより、各車輌が道路上でいずれの方向を向いている
かを示すベクトルn1,n2を設定した後、車輌の前端
および後端にあたる輪郭線成分とベクトルとの交点
1 ,b1 ,a2 ,b2 を抽出する。
【0073】図14に戻って、第2投影処理部18は、
つぎのステップ8で、前記抽出された各交点の3次元座
標を用いて前記ベクトルに沿う仮想垂直平面を設定した
後、続くステップ9で、この平面上に前記3次元計測部
8により算出された各3次元座標を投影する。この後、
ステップ11,12で、前記図3と同様の車輌判別処
理、追跡処理が実施され、1サイクル分の処理が終了す
る。
【0074】なお上記実施例は、道路上を走行する車輌
を認識対象とするため、車輌の向きに沿う仮想垂直平面
を設定して車輌の側面形状を抽出するようにしている
が、駐車場における車輌を認識するような場合には、車
輌の向きに直交するような仮想垂直平面を設定して、車
輌の正面または背面の形状を抽出するようにしても良
い。
【0075】
【発明の効果】この発明は上記の如く、観測位置を撮像
して得られた画像上で対象物を示す特徴点の3次元座標
を算出するとともに、観測位置における対象物の向きに
応じた仮想平面を設定して、その平面上に前記3次元座
標を投影して対象物の認識処理を行うようにしたから、
対象物がいずれの方向を向いていても、その特徴的な2
次元形状を精度良く捉えた投影像をもって、高精度の認
識処理を行うことができる。
【図面の簡単な説明】
【図1】この発明の一実施例にかかる交通流計測装置の
設置例を示す説明図である。
【図2】制御処理装置の電気的構成を示すブロック図で
ある。
【図3】図2の制御処理装置による認識処理手順を示す
フローチャートである。
【図4】各カメラからの入力画像の一例を示す説明図で
ある。
【図5】図4の各入力画像より生成されたエッジ画像を
示す説明図である。
【図6】クラスタリング処理の結果を示す説明図であ
る。
【図7】車輌の方向を示すベクトルの設定結果を示す説
明図である。
【図8】各特徴点の対応づけ処理の原理を示す説明図で
ある。
【図9】3次元座標の算出処理の原理を示す説明図であ
る。
【図10】3次元座標の算出処理の原理を示す説明図で
ある。
【図11】仮想垂直平面の設定にかかる原理を示す説明
図である。
【図12】仮想垂直平面への3次元座標の投影結果を示
す説明図である。
【図13】制御処理装置の第2の構成例を示すブロック
図である。
【図14】図13の制御処理装置による認識処理手順を
示すフローチャートである。
【図15】XZ平面上で車輌の方向を示すベクトルを設
定した結果を示す説明図である。
【符号の説明】
3a,3b カメラ 6 特徴抽出部 7,17 車輌方向計測部 8 3次元計測部 9 投影処理部
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 G01B 11/24 G08G 1/015 H04N 7/18

Claims (4)

    (57)【特許請求の範囲】
  1. 【請求項1】 所定の観測位置を複数の撮像手段により
    撮像して得られた画像を用いて、この観測位置における
    対象物を認識する方法において、 前記各撮像手段により得られた画像上でそれぞれ対象物
    を示す複数個の特徴点を抽出する第1のステップと、 前記特徴点の抽出結果に基づき、前記画像上における対
    象物の向きを計測するとともに、各特徴点を画像間で対
    応づけて対応する特徴点の組毎に3次元座標を算出する
    第2のステップと、 前記画像上の対象物の向きおよび各3次元座標の算出結
    果により前記観測位置における対象物の向きを特定した
    後、この特定結果に基づき前記観測位置の所定の方向に
    仮想平面を設定する第3のステップと、 前記各特徴点の組毎に算出された3次元座標を前記仮想
    平面上に投影し、得られた投影像を用いて前記対象物を
    認識する第4のステップとを一連に実施することを特徴
    とする物体認識方法。
  2. 【請求項2】 所定の観測位置を複数の撮像手段により
    撮像して得られた画像を用いて、この観測位置における
    対象物を認識する方法において、 前記各撮像手段により得られた画像上でそれぞれ対象物
    を示す複数個の特徴点を抽出する第1のステップと、 前記抽出された各特徴点を画像間で対応づけて、対応す
    る特徴点の組毎に3次元座標を算出する第2のステップ
    と、 前記算出された各3次元座標を、対象物を支持する平面
    上に投影して得られる投影像により前記観測位置におけ
    る対象物の向きを特定した後、この特定結果に基づき前
    記観測位置の所定の方向に仮想平面を設定する第3のス
    テップと、 前記各特徴点の組毎に算出された3次元座標を前記仮想
    平面上に投影し、得られた投影像を用いて前記対象物を
    認識する第4のステップとを一連に実施することを特徴
    とする物体認識方法。
  3. 【請求項3】 所定の観測位置を複数の撮像手段により
    撮像して得られた画像を用いて、この観測位置における
    対象物を認識する装置であって、 前記各撮像手段からの画像を取り込んで、それぞれその
    画像上の対象物を示す複数個の特徴点を抽出する特徴抽
    出手段と、 前記各特徴点の抽出結果に基づき、画像上における対象
    物の向きを計測する計測手段と、 前記各特徴点を画像間で対応づけて対応する特徴点の組
    毎に3次元座標を算出する3次元座標算出手段と、 前記計測手段の計測結果および3次元算出手段による算
    出結果に基づき前記観測位置における対象物の向きを特
    定する向き特定手段と、 前記向き特定手段の特定結果に基づき前記観測位置の所
    定の方向に仮想平面を設定して、この平面上に前記各3
    次元座標の算出結果を投影する投影手段と、 前記投影手段により得られた仮想平面上の投影像を用い
    て前記対象物を認識する認識手段とを備えて成る物体認
    識装置。
  4. 【請求項4】 所定の観測位置を複数の撮像手段により
    撮像して得られた画像を用いて、この観測位置における
    対象物を認識する装置であって、 前記各撮像手段からの画像を取り込んで、それぞれ画像
    上の対象物を示す複数個の特徴点を抽出する特徴抽出手
    段と、 前記各特徴点を画像間で対応づけて対応する特徴点の組
    毎に3次元座標を算出する3次元座標算出手段と、 前記3次元座標算出手段による算出結果を対象物の支持
    面上に投影した後、その投影結果を用いて前記観測位置
    における対象物の向きを特定する向き特定手段と、 前記向き特定手段の特定結果に基づき前記観測位置の所
    定の方向に仮想平面を設定して、この平面上に前記各3
    次元座標の算出結果を投影する投影手段と、 前記投影手段により得られた仮想平面上の投影像を用い
    て前記対象物を認識する認識手段とを備えて成る物体認
    識装置。
JP13762997A 1997-05-12 1997-05-12 物体認識方法およびその装置 Expired - Fee Related JP3465531B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13762997A JP3465531B2 (ja) 1997-05-12 1997-05-12 物体認識方法およびその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13762997A JP3465531B2 (ja) 1997-05-12 1997-05-12 物体認識方法およびその装置

Publications (2)

Publication Number Publication Date
JPH10312463A JPH10312463A (ja) 1998-11-24
JP3465531B2 true JP3465531B2 (ja) 2003-11-10

Family

ID=15203129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13762997A Expired - Fee Related JP3465531B2 (ja) 1997-05-12 1997-05-12 物体認識方法およびその装置

Country Status (1)

Country Link
JP (1) JP3465531B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4748789B2 (ja) * 2005-12-05 2011-08-17 キヤノン株式会社 画像処理方法及び画像処理装置
JP4835201B2 (ja) * 2006-02-27 2011-12-14 トヨタ自動車株式会社 立体形状検出装置
JP5109294B2 (ja) * 2006-06-19 2012-12-26 三菱電機株式会社 3次元位置補正装置
JP2010128732A (ja) * 2008-11-27 2010-06-10 Japan Traffic Management Technology Association 車両台数密度観測装置及び車両台数密度観測装置用のプログラム
CN103047943B (zh) * 2012-12-31 2016-04-06 吉林大学 基于单投射编码结构光的车门外板形状尺寸检测方法
JP6602595B2 (ja) * 2015-08-24 2019-11-06 株式会社東芝 車種判別装置、及び車種判別方法
JP6472504B1 (ja) * 2017-12-14 2019-02-20 株式会社 ディー・エヌ・エー 情報処理装置、情報処理プログラム、及び、情報処理方法
KR102161972B1 (ko) * 2020-01-16 2020-10-06 유니셈(주) 객체 간 거리를 이용한 교통량 산출장치

Also Published As

Publication number Publication date
JPH10312463A (ja) 1998-11-24

Similar Documents

Publication Publication Date Title
US7899211B2 (en) Object detecting system and object detecting method
US5910817A (en) Object observing method and device
CN108197523B (zh) 基于图像转换及轮廓邻域差异的夜间车辆检测方法及系统
JPH10124683A (ja) 立体画像−物体検出方法
JP3456339B2 (ja) 物体観測方法およびその方法を用いた物体観測装置、ならびにこの装置を用いた交通流計測装置および駐車場観測装置
JP2013148356A (ja) 車両位置算出装置
JP3577875B2 (ja) 移動物体抽出装置
JPH10269362A (ja) 物体認識方法およびその装置
JPH11139225A (ja) トンネル検出装置及びそれを用いた車両制御装置
JP3465531B2 (ja) 物体認識方法およびその装置
JP5369921B2 (ja) 物体検出装置及び物体検出方法
JP3629935B2 (ja) 移動体の速度計測方法およびその方法を用いた速度計測装置
JP3516118B2 (ja) 物体認識方法および物体認識装置
JP3475700B2 (ja) 物体認識方法、物体認識装置、および車輌認識装置
KR102065337B1 (ko) 비조화비를 이용하여 대상체의 이동 정보를 측정하는 장치 및 방법
JP3605955B2 (ja) 車輌判別装置
JP4106163B2 (ja) 障害物検出装置及びその方法
JPH1055446A (ja) 物体認識装置
JPH11259792A (ja) 車輌認識方法およびその装置
JPH10283478A (ja) 特徴抽出方法およびその方法を用いた物体認識装置
JPH11175883A (ja) 交通量計測装置および信号機制御装置
JP4144300B2 (ja) ステレオ画像による平面推定方法および物体検出装置
JP3419968B2 (ja) 画像認識装置及び方法
JPH05141930A (ja) 3次元形状計測装置
JP5141275B2 (ja) 車両用画像処理装置及び車両用画像処理方法

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080829

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080829

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090829

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees