JPH08138057A - 物体監視装置 - Google Patents

物体監視装置

Info

Publication number
JPH08138057A
JPH08138057A JP6271604A JP27160494A JPH08138057A JP H08138057 A JPH08138057 A JP H08138057A JP 6271604 A JP6271604 A JP 6271604A JP 27160494 A JP27160494 A JP 27160494A JP H08138057 A JPH08138057 A JP H08138057A
Authority
JP
Japan
Prior art keywords
dimensional
feature amount
target object
error
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6271604A
Other languages
English (en)
Inventor
Akiko Konno
章子 紺野
Yoshihiro Igawa
喜裕 井川
Yukio Koga
由紀夫 古賀
Etsuo Yamada
越生 山田
Akira Shimizu
清水  晃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP6271604A priority Critical patent/JPH08138057A/ja
Publication of JPH08138057A publication Critical patent/JPH08138057A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 2次元画面上の座標を3次元の座標に変換す
る際に発生する量子化誤差の影響を低減する。 【構成】 時系列画像を入力する撮像手段1、画像上の
座標を3次元に変換するとともに画像上の2次元特徴量
を3次元特徴量に変換する座標変換部10、変換された
3次元の特徴量,座標により監視対象物体を抽出・追跡
する対象物体抽出手段6・対象物体追跡手段16などか
らなる物体監視装置において、物体抽出時に一定の誤差
を許容して特徴量の存在範囲を拡大する特徴量変換誤差
補正部13を付加することで、量子化誤差の影響を少な
くする。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、テレビカメラ等によ
って撮像された画像から対象物体を抽出し、時間経過に
伴って物体を追跡することにより、特定の移動物体の有
無を検知したり、その個数をカウントしたり、あるいは
物体の移動速度を計測したりする機能を持つ、画像処理
技術を利用した物体監視装置に関する。
【0002】
【従来の技術】従来、テレビカメラ等により得られた画
像を利用する物体監視装置として、出願人は先に、例え
ば図10に示す如きものを提案している(特願平5−1
81267号参照:提案済み装置ともいう)。この監視
装置は画像から得られた2次元の情報を一定の拘束条件
のもとで、座標変換手段にて3次元情報に変換し、物体
監視をするようにしている。なお、図10において、1
はテレビカメラ等の撮像手段、2はこの撮像手段から入
力したアナログ画像をディジタル画像に変換するA/D
(アナログ/ディジタル)変換手段、3は入力画像記憶
部である。4は時間的に変化する領域を抽出する変化領
域抽出手段、5は変化領域抽出手段4で抽出された変化
領域2値化画像である。6は変化領域2値化画像5から
対象物体情報を抽出する対象物体抽出手段全体を示す。
【0003】対象物体抽出手段6は特徴量抽出部8、物
体特徴量記憶部9(2次元),11(3次元)、座標変
換部10および対象物体領域決定部13などから構成さ
れている。すなわち、特徴量抽出部8によって変化領域
2値化画像上での2次元の物体特徴量を抽出し、記憶部
9に記憶する。座標変換部10はこの記憶部9からの2
次元特徴量を、カメラパラメータ記憶部7からのカメラ
パラメータ・変換拘束条件を用いて、3次元空間におけ
る特徴量に変換する。対象物体領域決定部13は、変化
領域特徴量11と対象物体特徴量記憶部(物体モデル)
12からのデータとを比較して対象物体の領域を決定
し、その結果の対象物体情報(特徴量,3次元位置)を
記憶部15へ格納する。
【0004】16は対応付け処理部20、物体予測位置
記憶部21および予測処理部22等からなり、対象物体
の軌跡を求めるための対象物体追跡手段である。すなわ
ち、現時刻で抽出され記憶部15に格納されている対象
物体情報と、記憶部23に格納されている前時刻までの
対象物体の軌跡から、予測処理部22によって予測され
記憶部21に格納された現時刻の対象物体予測位置と
を、記憶部18に格納されている対象物体運動パラメー
タ(物体運動モデル)を用いて対応付け処理部20で対
応付けを行ない、対象物体の現時刻までの軌跡を求め記
憶部23に格納する。24は記憶部20からの対象物体
軌跡より、目的に応じて物体数,物体移動速度等を計
算,出力する結果計算・出力手段であり、25は監視結
果を示す。
【0005】このような物体監視装置における、カメラ
と監視領域の面との関係を図11(a)に示す。この例
は、監視領域は手前の地平面Aと奥にある垂直面Bから
構成されている例である。図11(a)で、地平面Aに
対するカメラの設置高さH、カメラの視軸と地平面Aと
のなす角度θ、レンズの焦点距離fが既知であれば、面
A上に物体が接しているという条件のもとで、カメラ座
標で求められた2次元データ(特徴量・座標)を擬似的
に3次元空間でのデータに変換することができる。こう
することにより、実空間上の値で記述されたサイズ等の
対象物体特徴量を使用して、近くの物体も遠くの物体
も、同一の物体特徴量モデルを参照して抽出することが
可能である。
【0006】図11(b)に監視画面例を示す。この監
視画面はm×n画素から構成されている。これに対応す
る実際の空間において、監視領域を地平面Aの上から見
たところを図11(c)に示す。実空間の座標系(X,
Y,Z)の設定例としては、ここではカメラの設置位置
から地平面に下ろした垂線の足を原点Oとし、そこから
カメラの撮像面に平行にX軸、地平面上に投影したカメ
ラの視軸方向にY、そして、原点からカメラの設置位置
方向にZ軸を取っている。
【0007】図11(c)に地平面Aの被監視領域の1
画素のサイズを模式的に示す。1画素の中に収まる実空
間でのサイズは手前は小さく、奥側の幅が大きい台形形
状となる。面A上の点(u,v)は、上述の如く決めら
れた実空間(3次元)の座標から、次の(1)式を用い
て実空間上の座標(X,Y,Z)に変換することができ
る。 X=u・H/(vcosθ+fsinθ) Y=H・(fcosθ−vsinθ)/(vcosθ+fsinθ) Z=0 …(1)
【0008】
【発明が解決しようとする課題】以上のように、提案済
み装置では、監視画面から得られた2次元の座標を3次
元に変換する際に、各画素の中心点を基準に考えてい
る。そのため、監視面とカメラとの距離が比較的小さい
場合は、3次元情報への変換時の量子化誤差による影響
は少ないが、監視領域を広くとるため監視面とカメラと
の距離が大きく離れており、かつ、カメラの監視平面と
なす角度が小さい場合は、3次元情報への変換時の量子
化誤差が大きくなり、物体抽出や物体追跡に悪影響を与
え、正しく物体が抽出されなかったり、正しい物体追跡
ができなかったりするような場合が生じる。
【0009】図12(a)に監視領域内の地平面A上で
抽出された対象物体の例を示す。この画面上での対象物
体の代表点座標を足下の座標(uf ,vf )とし、物体
抽出誤差として±ε画素を想定する。図12(b)は地
平面Aでの対象物体存在位置を示す。この座標(X,
Y,0)は、上記(1)式から求められる。ここで、2
次元画面上で±1画素の誤差を含んだ抽出位置を3次元
に変換すると、その物体存在範囲は図12(b)に網掛
け部分で示す、3×3画素の範囲となる。
【0010】物体特徴量のうち、物体高さLを例にとっ
て説明すると、Lは物体足下座標(uf ,vf )と頂点
座標(ut ,vt )から、次の(2)式によって求ま
る。 Yf =(fcosθ−vf sinθ)・H/(vf cosθ+fsinθ) Y’=(fcosθ−vt sinθ)・H/(vt cosθ+fsinθ) L=Zt =(1−Yf /Y’)・H=f・H・(vf −vt )/u{(vf ・ cosθ+fsinθ)(fcosθ−vt sinθ)} …(2) なお、Y’は物体頂点を、水平面に投影した点のY座標
を示す。
【0011】θ>0の場合、物体の足下および頂点抽出
誤差を±ε画素と考えると、3次元に変換後の物体高さ
Lは、図12(c)に示す範囲で変化する。抽出された
特徴量に含まれる誤差が、特徴量の変化に対して大きい
かどうかは、カメラパラメータf,θ,Hと物体抽出位
置vf ,vt に依存する。また、時刻tにおける画面上
での物体位置pt (ut ,vt )、点pt を3次元に変
換した位置をPt (X t ,Yt ,Zt )、時刻t+1の
物体位置をpt+1 (ut+1 ,vt+1 )、同じく3次元に
変換した位置をPt+1 (Xt+1 ,Yt+1 ,Zt+1 )とす
ると、時刻t,t+1間の移動距離V(VX ,VY
0)は次の(3)式で表わされる。
【0012】 VX =Xt+1 −Xt =H・{ut+1 /(vt+1 cosθ+fsinθ) −ut /(vt cosθ+fsinθ)} VY =Yt+1 −Yt =H・{(fcosθ−vt+1 sinθ)/(vt+1 ・ cosθ+fsinθ)−(fcosθ−vt sinθ)/(vt ・ cosθ+fsinθ)} …(3)
【0013】Y方向における、変換誤差の速度に与える
影響の例を図13に示す。ここでは、「↓」印で示され
る物体抽出範囲に対して、真の物体位置は物体抽出誤差
を考慮すると、「←→」印で示される範囲にあると考え
られる。物体のY方向の速度Vは、時刻tと時刻t+1
の物体位置の差によって求められるので、真の物体速度
Vは図示されるようなV- とV+ の間にある。この誤差
は、カメラ姿勢,カメラと対象物体との距離により変化
するが、1画素の誤差であっても場合によっては物体追
跡時に物体の追跡を誤ったり、追跡ができなかったりす
ることがある。
【0014】したがって、この発明の課題は1台のカメ
ラで3次元的に物体の監視を行なう物体監視装置におい
て、2次元画面上の座標を3次元の座標に変換する際に
発生する量子化誤差の影響を軽減することにある。
【0015】
【課題を解決するための手段】このような課題を解決す
るため、請求項1の発明では、時系列画像を入力する撮
像手段と、監視領域の視野を構成する面とカメラ設置位
置,カメラ姿勢およびレンズ焦点距離の関係から、カメ
ラ座標より求めた2次元の特徴量を3次元空間上での特
徴量に変換する特徴量変換手段と、同じく対象物体の2
次元の座標位置を3次元空間上での座標位置に変換する
座標変換手段と、前記特徴量変換手段より得られた3次
元の特徴量を用いて、追跡対象となる対象物体の領域と
その3次元位置を抽出する物体抽出手段と、連続する時
刻間での対象物体位置の対応付けを行ない、物体の軌跡
を決定する対応付け手段とを備えた物体監視装置におい
て、前記3次元の特徴量に対して2次元画面上で一定の
抽出誤差を許容し、誤差分だけ特徴量の存在範囲を拡張
する特徴量補正手段を設け、この補正された特徴量と対
象物体モデルとの類似度を前記物体抽出手段により算出
することを特徴としている。
【0016】また、請求項2の発明では、時系列画像を
入力する撮像手段と、監視領域の視野を構成する面とカ
メラ設置位置,カメラ姿勢およびレンズ焦点距離の関係
から、カメラ座標より求めた2次元の特徴量を3次元空
間上での特徴量に変換する特徴量変換手段と、同じく対
象物体の2次元の座標位置を3次元空間上での座標位置
に変換する座標変換手段と、前記特徴量変換手段より得
られた3次元の特徴量を用いて、追跡対象となる対象物
体の領域とその3次元位置を抽出する物体抽出手段と、
連続する時刻間での対象物体位置の対応付けを行ない、
物体の軌跡を決定する対応付け手段とを備えた物体監視
装置において、物体運動モデルに対して2次元画面上で
一定の抽出誤差を許容し、3次元座標変換後の誤差分だ
け前記物体運動モデルを拡張する運動モデル補正手段を
設け、この補正された物体運動モデルを用いて前記対応
付け手段により物体の対応付けを行なうことを特徴とし
ている。
【0017】さらに請求項3の発明では、時系列画像を
入力する撮像手段と、監視領域の視野を構成する面とカ
メラ設置位置,カメラ姿勢およびレンズ焦点距離の関係
から、カメラ座標より求めた2次元の特徴量を3次元空
間上での特徴量に変換する特徴量変換手段と、同じく対
象物体の2次元の座標位置を3次元空間上での座標位置
に変換する座標変換手段と、前記特徴量変換手段より得
られた3次元の特徴量を用いて、追跡対象となる対象物
体の領域とその3次元位置を抽出する物体抽出手段と、
連続する時刻間での対象物体位置の対応付けを行ない、
物体の軌跡を決定する対応付け手段とを備えた物体監視
装置において、前記3次元の特徴量に対して2次元画面
上で一定の抽出誤差を許容し、誤差分だけ特徴量の存在
範囲を拡張する特徴量補正手段と、物体運動モデルに対
して2次元画面上で一定の抽出誤差を許容し、3次元座
標変換後の誤差分だけ前記物体運動モデルを拡張する運
動モデル補正手段とを設け、この補正された物体運動モ
デルを用いて、前記特徴量補正手段により補正された特
徴量と対象物体モデルとの類似度から抽出される対象物
体の対応付けを行なうことを特徴としている。
【0018】
【作用】従来の物体抽出部では、3次元に変換された特
徴量と、3次元特徴量によって記述された物体モデルと
の類似度を総合的に判断して、対象物を抽出する。これ
に対し、請求項1の発明では、物体の足元と頭頂座標に
それぞれ抽出誤差があるものとして、抽出された情報か
ら物体抽出部により真の特徴量の存在する可能性のある
範囲を求め、この範囲内で最も高い物体モデルの類似度
を算出することにより、物体抽出誤差による影響を減少
させる。
【0019】また、従来の物体追跡手段では、時刻tに
おける物体抽出位置と時刻t+1における物体抽出位置
との対応付け候補を、物体の速度,加速度のモデルによ
って絞り込み、さらに、物体予測部から計算される時刻
tの物体の時刻t+1における予測位置と、実際の時刻
t+1における物体抽出位置との差を全物体について合
計した値がもっとも小さくなるような対応付けを選択
し、各物体の軌跡を求める。請求項2の発明では、上記
のような処理に加え、物体の抽出位置によって物体の速
度,加速度の運動モデルのしきい値に誤差項を付加し、
物体抽出誤差に応じて対応付けのためのしきい値を大き
くすることで、物体抽出位置を3次元に変換した際の誤
差の、物体追跡に与える影響を軽減する。さらには、抽
出される特徴量に一定の誤差を許容するだけでなく、運
動モデルのしきい値に一定の誤差を許容する、つまり、
両者を併用することにより安定性を高め精度を向上させ
る。
【0020】
【実施例】図1はこの発明の実施例を示す構成図であ
る。同図からも明らかなように、この実施例と図10に
示す従来例との相違は対象物体抽出手段6に特徴量変換
誤差補正部13を付加し、対象物体追跡手段16に誤差
補正係数記憶部17および座標変換誤差記憶部19を付
加した点が特徴で、その他は図10と同様である。
【0021】動作について説明する。撮像手段1によっ
て取り込まれた画像は、A/D変換手段2によってディ
ジタル化され、入力画像記憶部3に送られる。変化領域
抽出手段4では変化のあった領域が抽出され、変化領域
2値化画像5が得られる。変化領域抽出手段4による変
化領域の抽出方法としては、基準画像と入力画像との差
分をとる方法や、入力画像の連続する時刻間の差分をと
る方法などがある。
【0022】変化領域2値化画像5を対象物体特徴量抽
出部8に入力し、ここで2値化画像のラベル付け、特徴
量(ラベル毎の代表点座標,面積,外接長方形の幅・高
さなど)の計算を行なう。ここでの特徴量は、全て画面
上の2次元座標上のものであり、物体特徴量記憶部9に
格納される。次に、座標変換処理手段10では、記憶部
7からのカメラパラメータ・物体拘束条件を用いて、2
次元座標上の特徴量9を3次元空間での特徴量に変換
し、記憶部11に格納する。この格納された3次元空間
での特徴量は、座標変換誤差補正部13により一定の変
換誤差を加えて補正される。
【0023】次に、対象物体領域決定部14では、補正
された3次元空間での特徴量を対象物体特徴量記憶部1
2に格納されている特徴量と比較し、対象物体の領域を
決定する。各対象物体の3次元の特徴量,3次元座標は
物体抽出結果として対象物体情報記憶部15に格納さ
れ、対象物体追跡手段16に入力される。
【0024】対象物体追跡手段16では、現時刻で抽出
され記憶部15に格納されている現フレームでの物体抽
出結果と、記憶部23に格納されている前時刻までの対
象物体の軌跡から、予測処理部22によって予測され記
憶部21に格納された現時刻の対象物体予測位置とを、
記憶部18に格納されている対象物体運動パラメータ
(物体運動モデル)を用いて対応付け処理部20で対応
付けを行ない、対象物体の現時刻までの軌跡を求め記憶
部23に格納する。
【0025】このとき、記憶部18に格納されている対
象物体モデルについて、座標変換誤差補正部19におい
て誤差補正係数記憶部17からの出力を参照しつつ一定
の誤差を許容した補正を行ない、その補正結果を使用す
る。対応付け結果により、現時刻の対象物体の軌跡を加
えて記憶部23に格納する。24は記憶部23からの対
象物体軌跡より、目的に応じて監視対象物体の有無,
数,物体移動速度等を計算,出力する結果計算・出力手
段であり、25は監視結果を示す。
【0026】図2はこの発明による特徴量補正方法を示
すフローチャートである。物体抽出では、変化領域2値
化画像にラベル付けを行なった後、ラベルまたは複数ラ
ベルからなる或るまとまり(ラベルの組)や、1個のラ
ベルを何らかの基準で分割したサブラベル毎にこの処理
を実施し、対象物体領域を決定する。対象物体モデルは
n個の3次元特徴量と、そのn個の特徴量を統合し総合
的な物体類似度を求める手段によって記述されている。
例えば、対象物体モデルを物体特徴量に関するn個のフ
ァジーメンバーシップ関数で表わし、さらに各特徴量に
対する類似度の合計により、総合的な物体の類似度を算
出するものとする(ステップS1)。
【0027】特徴量毎に、従来手法と同様に抽出された
座標をもとに3次元特徴量Fiを求め、その特徴量とi
番目の特徴量に対応するファジーメンバーシップ関数か
ら、その特徴量に関する物体モデルと抽出領域との類似
度Siを求める(ステップS2)。そして、この類似度
Siがしきい値より大きいときは、誤差による補正は不
要として、そのまま次特徴量へと進む(ステップS3,
S1)。類似度Siがしきい値に満たない場合は、抽出
誤差±εを考慮した場合の3次元特徴量の存在範囲、 Fmini≦Fi≦Fmaxi を求め、この範囲内での最大類似度SmaxiをSiと
する(ステップS4,S5,S6)。こうして全特徴量
に対する類似度を求めた後、総合的な物体の類似度を算
出し、これを用いて対象物体領域を決定する(ステップ
S7)。
【0028】図3は特徴量補正方法を具体的に説明する
ための説明図である。図3(a)に監視画面内の対象物
体抽出例を示す。図3(b)は高さ特徴量に対するファ
ジーメンバーシップ関数で、横軸は特徴量、縦軸は高さ
類似度を示している。いま、図3(a)でのカメラパラ
メータをθ=45°、H=10〔m〕、f=800〔p
ixel〕とし、抽出された物体足元座標を(uf ,v
f )=(150,0)、頂点座標(ut ,vt )=(1
52,−50)とすると、対象物体の高さLは先の
(2)式から、次のようになる。
【0029】L=f・H・(vf −vt )/{(vf
osθ+fsinθ)(fcosθ+vt sinθ)}
=800・1000・50/{(0・cos45°+8
00・sin45°)(800・cos45°+(−5
0)・sin45°)}=800・1000・50・2
/800・750≒133.33〔cm〕
【0030】上記高さ133.33〔cm〕に対する類
似度を図3(b)から求めると、S=0.63で類似度
しきい値Sth=0.9より小さいので、特徴量補正を
行なう。そこで、3次元座標上での足元,頭頂座標に対
する抽出誤差を±2画素以内と仮定し、この範囲に対し
て高さ特徴量の存在する範囲を求めると、以下のように
なる。
【0031】Lmin≦L≦Lmax Lmin=l{(ut ,vt +ε),(uf ,vf
ε)}=f・H・{(vf −ε)−(vt +ε)}/
[{(vf −ε)cosθ+fsinθ}{fcosθ
+(vt +ε)sinθ}]=800・1000・46
/[{(−2)cos45°+800sin45°}
{800・cos45°+(−48)sin45°}]
=61.33〔cm〕
【0032】Lmax=l{(ut ,vt −ε),(u
f ,vf +ε)}=f・H・{(vf +ε)−(vt
ε)}/[{(vf +ε)cosθ+fsinθ}{f
cosθ+(vt −ε)sinθ}]=800・100
0・46/[(2cos45°+800sin45°)
{800・cos45°+(−52)sin45°}]
=144.02〔cm〕 となり、類似度Sは図3(c)の関係から、特徴量の存
在範囲61.33≦L≦144.02での最大類似度S
=0.93として補正されることになる。
【0033】図4は対象物体追跡方法を示すフローチャ
ートである。ここでは、連続する2時刻t=t,t+1
での対象物体位置p,rと、時刻t=tまでの物体の軌
跡より予測した時刻t+1での予測位置qを利用して、
p−r間の対応付けを行ない、時刻t+1までの各物体
の軌跡および次時刻までの予測位置を求めることとす
る。
【0034】図5は図4のステップS1に示す、対応付
け候補の選択方法例1,2を説明するための説明図であ
る。すなわち、図5(a)において、piは時刻t=t
におけるi番目の対象物体位置、qiはpiの軌跡から
予測した時刻t+1におけるpiの予測位置、rjは時
刻t+1でのj番目の対象物体位置を示す。つまり、こ
の例は単純にpiから距離vmax以内にあるrjを、
対応付け候補とするものである。
【0035】図5(b)は対応付け候補の選択方法の他
の例の説明図である。これは、図示のpiを焦点とし、
piとqiを結ぶ方向(進行方向)を主軸として進行方
向にvmax、その逆方向にvbmaxの大きさの楕円
の範囲内にあるrjを、対応付け可能な候補として残す
方法である。
【0036】図4のステップS2の、対応付け決定方法
の手順は次の通りである。 (1)対応付け候補として残った組について、それぞれ
時刻t+1の予測位置qiと時刻t+1の物体位置rj
との距離の差を、物体最大加速度amaxで正規化した
加速度変化値Wijを、次の数1の(4)式で求める。
【数1】
【0037】(2)時刻t+1の全物体について、次の
数2の(5)式で示すWijの合計Wが最小となるよう
な組を対応付ける。したがって、この方法では物体加速
度が運動パラメータの中の最大加速度amax以上のも
のは、対応付けられないことになる。
【数2】
【0038】図6(a)に監視画面上の物体位置を示
す。この画面上では、時刻tにp1,p2の2個の物体
があり、それぞれ時刻t+1では予測位置q1,q2に
あるとする。また、時刻t+1ではr1,r2の2個の
物体が抽出されたとすると、これらの間の対応付けを行
なうことが必要である。図6(b)は監視画面の時刻t
+1における物体予測位置Q1,Q2、物体位置R1,
R2と、物体抽出誤差を考慮した物体存在範囲を実空間
上で示したものである。
【0039】図6(c)に従来方式における加速度最大
値amaxを用いて、対応付け評価を行なった結果を示
す。この場合、P2(Q2)−R2間の距離はamax
より大きいので対応付けられず、したがってR2は時刻
t+1で出現したものと判断される。ところが、図6
(b)で1画素分の物体抽出誤差を想定すると、遠くに
ある予測位置Q2と物体位置R2の存在範囲の最小距離
L22−MINと、近くにある予測位置Q1と物体位置
R1の存在範囲の最大距離L11−MAXでは、L11
−MAXの方が大きくなる。これでは、物体が同じ速度
で移動していても僅かな物体抽出位置の誤差により、安
定な追跡が困難となってしまう。
【0040】そこで、1画素あたりのX方向の解像度Δ
Xについて考える。先の(1)式で示す変換式から、 ΔX=H/(vcosθ+fsinθ) …(6) で表わされる。図7はカメラと監視平面との関係をY軸
方向の断面から見たものを示しているが、ここで、画面
上の1画素あたり地平面上での解像度ΔYは、次の
(7)式のように示される。
【0041】 ΔY=(H/f){cosα/sin(θ−α)}2 =(H/f){cosα/(sinθcosα−cosθsinα)}2 =(H/f){1/(sinθ−tanαcosθ)}2 =Hf/(fsinθ+vcosθ)2 (∵tanα=−v/fでα>0にとっているため) …(7)
【0042】ここで、Y座標とΔX,ΔYとの比を求め
ると、先の(1)式よりYは、 Y=H・(fcosθ−vsinθ)/(vcosθ+
fsinθ) であるから、以下のようになる。 ΔX/Y=1/(vcosθ+fsinθ) ×(vcosθ+fsinθ)/(fcosθ−vsinθ) =1/(fcosθ−vsinθ) ΔY/Y=f/(vcosθ+fsinθ)2 ×(vcosθ+fsinθ)/(fcosθ−vsinθ) =f/{(vcosθ+fsinθ)(fcosθ−vsinθ)} …(8)
【0043】上記(8)式より、1画素あたりの3次元
座標変換後の解像度ΔX,ΔYとY座標との比は、カメ
ラパラメータf,θおよびカメラのv座標で決まること
が分かる。図8(a)はvとΔX/Yの関係を、図8
(b)はvとΔY/Yの関係をそれぞれfを固定とし、
θを変化させて調べたものである。図8(a)でθが小
さいとき(θ=pi(π)/36のとき)、ΔX/Yは
ほぼ一定となる。
【0044】この実施例では、対象物体の追跡時に物体
移動速度上限値vmaxおよび加速度上限値amaxに
対し、物体抽出誤差分の物体抽出および3次元座標変換
の誤差を表わす項を付け加えることにより、物体抽出誤
差があっても安定に対応付けの候補選択,候補決定を可
能とするものである。そこで、速度上限値と加速度上限
値にε画素分の誤差項を加えて補正する方法の具体例
を、次の(9)式に示す。なお、(9)式のVMAX,
AMAXはそれぞれ補正後の速度上限値,加速度上限値
を示している。
【0045】 VMAX=vmax+εY[{1/(fcosθ−vsinθ)}2 +{f/ (vcosθ+fsinθ)・1/(fcosθ−vsinθ)}2 1/2 AMAX=amax+εY[{1/(fcosθ−vsinθ)}2 +{f/ (vcosθ+fsinθ)・1/(fcosθ−vsinθ)}2 1/2 …(9)
【0046】速度上限値,加速度上限値の誤差による簡
易な補正方法としては、上式に代えて次式(10)のよ
うにすることもできる。 VMAX=vmax+kv・Y AMAX=amax+ka・Y …(10) すなわち、誤差項を適宜な係数kv,kaと、カメラと
物体との間の距離Yの積で近似するものである。
【0047】上記(9),(10)式のY値としては、
対応付けようとする点の3次元座標変換のY座標のう
ち、カメラから遠い方のものを使用する。これは、図9
に示すように、物体追跡時の対応付け可能な範囲を3次
元座標変換の分解能に応じて、大きくとることを示して
いる。その結果、遠くで検出された物体に対して3次元
座標に変換した後の物体抽出,量子化誤差があっても、
対応付けを成立させ、物体を追跡することが可能とな
る。
【0048】図6に戻り具体的に説明する。図6(a)
の監視画面上の時刻tにおける物体位置p1,p2、時
刻t+1における物体予測位置q1,q2をそれぞれ、 p1=(20,100)、p2=(−50,−100) q1=(30,110)、p2=(−30,−100) とする。また、時刻t+1における物体位置r1,r2
を、 r1=(40,100)、r2=(−40,−102) とし、カメラ角度θ=10°,焦点距離f=800〔p
ixel〕,カメラ高さH=3〔m〕の条件で3次元座
標に変換すると、以下のようになる。
【0049】ここで、図6(a)の時刻tにおける物体
位置p1,p2、予測位置q1,q2に対応する図6
(b)の地平面上での位置をそれぞれP1,P2,Q
1,Q2とする。 P1={20・300/(100cos10°+800
sin10°),(800cos10°−100sin
10°)・300/(100cos10°+800si
n10°),0}=(43,3246,0)
【0050】P2={−50・300/(−100co
s10°+800sin10°),(800cos10
°+100sin10°)/(−100・cos10°
+800sin10°),0}=(−371,597
4,0)
【0051】Q1={30・300/(110cos1
0°+800sin10°),(800cos10°−
110sin10°)・300/(110cos10°
+800sin10°),0}=(121,3109,
0) Q2={−30・300/(−100cos10°+8
00sin10°),(800cos10°+100s
in10°)・300/(−100cos10°+80
0sin10°),0}=(−222,5974,0)
【0052】同様に、時刻tでの物体位置r1 r2に
対応する地平面上での物体位置を、R1,R2とする
と、その座標は次のようになる。 R1={40・300/(100cos10°+800
sin10°),(800cos10°−100sin
10°)・300/(100cos10°+800si
n10°),0}=(169,3246,0) R2={−40・300/(−102cos10°+8
00sin10°),(800cos10°−100s
in10°)・300/(−102cos10°+80
0sin10°),0}=(−312,6282,0)
【0053】ここで、物体速度最大値vmax=180
〔cm/sec〕として、対応付けの候補を選択する
と、 P1・R1=√{(43−169)2 +(3246−3
246)2 }=126≦vmax P1・R2=√[{43−(−312)}2 +(324
6−6282)2 ]=3057>vmax P2・R1=√{(−371−169))2 +(597
4−3246)2 }=2735>vmax P2・R2=√[{−371−(−312)}2 +(5
974−6282)2 ]=314>vmax となり、P1・R1の組み合わせしか許容されない。
【0054】しかし、R2の画面上での抽出座標に例え
ば1画素の誤差があり、真の物体位置がr2’=(−4
1,−101)だったとすると、 R2’={−41・300/(−101cos10°+
800sin10°),(800cos10°+101
sin10°)・300/(−101cos10°+8
00sin10°),0}=(−312,6124,
0) P2・R2=√[{−371−(−312)}2 +(5
974−6124)2 ]=161≦vmax となり、P2・R2の組み合わせも対応付けの候補とし
て残ることになる。
【0055】このように、物体移動最大速度に量子化誤
差による項を付加し、例えば次式で補正したVMAX値
を用いることで、このような不安定さを減少させること
ができる。 VMAX=vmax+kv・Y ここで、kv=0.03とすると、 Y=max(Yp1,Yr1)=3246では、VMA
X=277 Y=max(Yp2,Yr1)=5946では、VMA
X=359 Y=max(Yp1,Yr2)=6124では、VMA
X=364 となり、物体抽出誤差が含まれている結果に対して、い
ちいち誤差を修正した組み合わせ毎の対応付け候補の可
否を計算するより簡単な方法で、誤差がある場合でも対
応付け候補を安定に選択することができる。
【0056】ここで、残った対応付け候補P1・R1,
P2・R2に対し、物体加速度最大値amax=250
〔cm/sec2 〕として、対応付け評価値w11,w
22を求めると、次の数3で示す(11)式のようにな
る。
【数3】
【0057】これでは、比較的近くにあるP1・R1は
対応付けられるが、遠くにあるP2・R2は対応付けら
れず、R2は時刻t+1で新たに出現した物体となる。
したがって、ここでもR2’=(−312,6124,
0)を用いると、次の数4で示す(12)式のようにな
り、対応付けが可能となる。
【数4】
【0058】また、このような誤差の影響を軽減するた
め、速度と同様に、誤差を考慮した最大加速度AMAX
を次式のように定める。 AMAX=amax+ka・Y ここで、ka=0.03とすると、 Y=max(Yq1,Yr1)=3246では、AMA
X=347 Y=max(Yq2,Yr2)=6282では、AMA
X=439 となり、 w11={(121−169)2 +(3109−324
6)2 }/3472=0.175 w22={−222−(−312)2 +(5974−6
282)2 }/4392 =0.534 で、P2・R2に物体抽出誤差が含まれていても、対応
付けを行なうことが可能となる。このように、しきい値
補正を行なった場合の、対応付けの結果を図6(d)に
示す。
【0059】なお、以上では特徴量変換誤差補正部,座
標変換誤差補正部の双方を併設する実施例について説明
したが、この発明はいずれか一方だけを設ける場合も当
然に含むものとし、従来よりは安定性や精度を向上させ
ることができるのは言うまでもない。
【0060】
【発明の効果】この発明によれば、2次元画像を用いて
3次元空間の物体監視を行なう物体監視装置において、
抽出された情報から物体抽出部により真の特徴量の存在
する可能性のある範囲を求め、この範囲内で最も高い物
体モデルの類似度を算出するようにしたので、物体抽出
誤差による影響を減少させることができる。また、物体
の抽出位置によって物体の速度,加速度の運動モデルの
しきい値に誤差項を付加し、物体抽出誤差に応じて対応
付けのためのしきい値を大きくするようにしたので、物
体抽出位置を3次元に変換した際の誤差の物体追跡に与
える影響を軽減することが可能となる利点が得られる。
さらには、これらを総合することで、所定範囲内の物体
抽出誤差があっても、物体抽出や物体追跡を安定かつ精
度良く行なうことができる。
【図面の簡単な説明】
【図1】この発明の実施例を示す構成図である。
【図2】図1の動作を示すフローチャートである。
【図3】この発明による特徴量補正方法の1例を説明す
る説明図である。
【図4】この発明による物体追跡方法の1例を示すフロ
ーチャートである。
【図5】この発明による対応付け候補選択方法例を説明
する説明図である。
【図6】物体の抽出位置と誤差との関係を説明する説明
図である。
【図7】物体の水平面上の解像度を説明する説明図であ
る。
【図8】物体の抽出位置座標と解像度との関係を説明す
る説明図である。
【図9】物体の抽出位置による対応付け範囲の大きさを
説明する説明図である。
【図10】提案済み装置を示す構成図である。
【図11】座標変換の原理説明図である。
【図12】物体抽出誤差を説明する説明図である。
【図13】座標変換における量子化誤差が速度に与える
影響を説明する説明図である。
【符号の説明】
1…撮像手段(テレビカメラ)、2…A/D変換手段、
3…入力画像記憶部、4…変化領域抽出手段、5…変化
領域2値化画像、6…対象物体抽出手段、7…カメラパ
ラメータ記憶部、8…特徴量抽出部、9…物体特徴量記
憶部(2次元)、10…座標変換部、11…物体特徴量
記憶部(3次元)、12…対象物体特徴量記憶部、13
…特徴量変換誤差補正部、14…対象物体領域決定部、
15…対象物体情報記憶部(特徴量,3次元座標)、1
6…対象物体追跡手段、17…誤差補正係数記憶部、1
8…対象物体運動パラメータ記憶部、19…座標変換誤
差記憶部、20…対応付け処理部、21…物体予測位置
記憶部、22…予測処理部、23…対象物体軌跡記憶
部、24…結果計算・出力手段、25…監視結果。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 山田 越生 神奈川県川崎市川崎区田辺新田1番1号 富士電機株式会社内 (72)発明者 清水 晃 東京都日野市富士町1番地 富士ファコム システム株式会社内

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 時系列画像を入力する撮像手段と、監視
    領域の視野を構成する面とカメラ設置位置,カメラ姿勢
    およびレンズ焦点距離の関係から、カメラ座標より求め
    た2次元の特徴量を3次元空間上での特徴量に変換する
    特徴量変換手段と、同じく対象物体の2次元の座標位置
    を3次元空間上での座標位置に変換する座標変換手段
    と、前記特徴量変換手段より得られた3次元の特徴量を
    用いて、追跡対象となる対象物体の領域とその3次元位
    置を抽出する物体抽出手段と、連続する時刻間での対象
    物体位置の対応付けを行ない、物体の軌跡を決定する対
    応付け手段とを備えた物体監視装置において、 前記3次元の特徴量に対して2次元画面上で一定の抽出
    誤差を許容し、誤差分だけ特徴量の存在範囲を拡張する
    特徴量補正手段を設け、この補正された特徴量と対象物
    体モデルとの類似度を前記物体抽出手段により算出する
    ことを特徴とする物体監視装置。
  2. 【請求項2】 時系列画像を入力する撮像手段と、監視
    領域の視野を構成する面とカメラ設置位置,カメラ姿勢
    およびレンズ焦点距離の関係から、カメラ座標より求め
    た2次元の特徴量を3次元空間上での特徴量に変換する
    特徴量変換手段と、同じく対象物体の2次元の座標位置
    を3次元空間上での座標位置に変換する座標変換手段
    と、前記特徴量変換手段より得られた3次元の特徴量を
    用いて、追跡対象となる対象物体の領域とその3次元位
    置を抽出する物体抽出手段と、連続する時刻間での対象
    物体位置の対応付けを行ない、物体の軌跡を決定する対
    応付け手段とを備えた物体監視装置において、 物体運動モデルに対して2次元画面上で一定の抽出誤差
    を許容し、3次元座標変換後の誤差分だけ前記物体運動
    モデルを拡張する運動モデル補正手段を設け、この補正
    された物体運動モデルを用いて前記対応付け手段により
    物体の対応付けを行なうことを特徴とする物体監視装
    置。
  3. 【請求項3】 時系列画像を入力する撮像手段と、監視
    領域の視野を構成する面とカメラ設置位置,カメラ姿勢
    およびレンズ焦点距離の関係から、カメラ座標より求め
    た2次元の特徴量を3次元空間上での特徴量に変換する
    特徴量変換手段と、同じく対象物体の2次元の座標位置
    を3次元空間上での座標位置に変換する座標変換手段
    と、前記特徴量変換手段より得られた3次元の特徴量を
    用いて、追跡対象となる対象物体の領域とその3次元位
    置を抽出する物体抽出手段と、連続する時刻間での対象
    物体位置の対応付けを行ない、物体の軌跡を決定する対
    応付け手段とを備えた物体監視装置において、 前記3次元の特徴量に対して2次元画面上で一定の抽出
    誤差を許容し、誤差分だけ特徴量の存在範囲を拡張する
    特徴量補正手段と、物体運動モデルに対して2次元画面
    上で一定の抽出誤差を許容し、3次元座標変換後の誤差
    分だけ前記物体運動モデルを拡張する運動モデル補正手
    段とを設け、この補正された物体運動モデルを用いて、
    前記特徴量補正手段により補正された特徴量と対象物体
    モデルとの類似度から抽出される対象物体の対応付けを
    行なうことを特徴とする物体監視装置。
JP6271604A 1994-11-04 1994-11-04 物体監視装置 Pending JPH08138057A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6271604A JPH08138057A (ja) 1994-11-04 1994-11-04 物体監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6271604A JPH08138057A (ja) 1994-11-04 1994-11-04 物体監視装置

Publications (1)

Publication Number Publication Date
JPH08138057A true JPH08138057A (ja) 1996-05-31

Family

ID=17502396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6271604A Pending JPH08138057A (ja) 1994-11-04 1994-11-04 物体監視装置

Country Status (1)

Country Link
JP (1) JPH08138057A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001006096A (ja) * 1999-06-23 2001-01-12 Honda Motor Co Ltd 車両の周辺監視装置
JP2002027446A (ja) * 2000-07-04 2002-01-25 Matsushita Electric Ind Co Ltd 監視システム
JP2007013814A (ja) * 2005-07-01 2007-01-18 Secom Co Ltd 検出領域の設定装置
JP2008176768A (ja) * 2006-12-19 2008-07-31 Hitachi Kokusai Electric Inc 画像処理装置
JP2011053933A (ja) * 2009-09-02 2011-03-17 Mitsubishi Electric Corp 映像特徴量抽出方法、映像状態判別方法、映像符号化方法、オブジェクト検索方法、映像特徴量抽出装置、映像状態判別装置、映像符号化装置およびオブジェクト検索装置
JP2022049793A (ja) * 2020-09-17 2022-03-30 株式会社Qoncept 軌跡算出装置、軌跡算出方法、軌跡算出プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001006096A (ja) * 1999-06-23 2001-01-12 Honda Motor Co Ltd 車両の周辺監視装置
JP2002027446A (ja) * 2000-07-04 2002-01-25 Matsushita Electric Ind Co Ltd 監視システム
JP2007013814A (ja) * 2005-07-01 2007-01-18 Secom Co Ltd 検出領域の設定装置
JP2008176768A (ja) * 2006-12-19 2008-07-31 Hitachi Kokusai Electric Inc 画像処理装置
JP2011053933A (ja) * 2009-09-02 2011-03-17 Mitsubishi Electric Corp 映像特徴量抽出方法、映像状態判別方法、映像符号化方法、オブジェクト検索方法、映像特徴量抽出装置、映像状態判別装置、映像符号化装置およびオブジェクト検索装置
JP2022049793A (ja) * 2020-09-17 2022-03-30 株式会社Qoncept 軌跡算出装置、軌跡算出方法、軌跡算出プログラム

Similar Documents

Publication Publication Date Title
Nedevschi et al. Stereo-based pedestrian detection for collision-avoidance applications
CA2326816C (en) Face recognition from video images
EP1329850B1 (en) Apparatus, program and method for detecting both stationary objects and moving objects in an image
US9275472B2 (en) Real-time player detection from a single calibrated camera
US8351646B2 (en) Human pose estimation and tracking using label assignment
US20020118874A1 (en) Apparatus and method for taking dimensions of 3D object
US20090116692A1 (en) Realtime object tracking system
US10721431B2 (en) Method for estimating a timestamp in a video stream and method of augmenting a video stream with information
Tang et al. Camera self-calibration from tracking of moving persons
Taylor et al. Fusion of multimodal visual cues for model-based object tracking
JP7272024B2 (ja) 物体追跡装置、監視システムおよび物体追跡方法
CN111144213A (zh) 一种对象检测方法和相关设备
Proença et al. Fast cylinder and plane extraction from depth cameras for visual odometry
CN110942470A (zh) 图像处理装置
Cerri et al. Free space detection on highways using time correlation between stabilized sub-pixel precision IPM images
JPH08138057A (ja) 物体監視装置
Kang et al. Multi-views tracking within and across uncalibrated camera streams
EP1580684B1 (en) Face recognition from video images
US6931145B1 (en) Method and apparatus for measuring motion of an object surface by multi-resolution analysis using a mesh model
JPH08249471A (ja) 動画像処理装置
EP1307705A1 (en) Height measurement apparatus
Koch Surface segmentation and modeling of 3D polygonal objects from stereoscopic image pairs
JPH10105712A (ja) 移動体追跡装置
JP3063481B2 (ja) 車両用物体検出装置
Kim et al. Facial region detection using range color information