JP4795479B2 - 移動物体認識方法及び装置 - Google Patents
移動物体認識方法及び装置 Download PDFInfo
- Publication number
- JP4795479B2 JP4795479B2 JP2010181677A JP2010181677A JP4795479B2 JP 4795479 B2 JP4795479 B2 JP 4795479B2 JP 2010181677 A JP2010181677 A JP 2010181677A JP 2010181677 A JP2010181677 A JP 2010181677A JP 4795479 B2 JP4795479 B2 JP 4795479B2
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- block
- image
- motion vector
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
すると、分離して写っていた移動物体同士がその後、隣接し又は重なり、その際にカメラ
と移動物体との間の距離及びアングルに依存して移動物体の形や大きさが変化する場合が
ある。
があるが、従来ではこれが容易でなかった。
が可能な移動物体認識方法及び装置を提供することにある。
電子カメラ(10)で撮影されたフレーム画像(21)を、複数ピクセルからなるブロックに分割し、ブロック単位で移動物体が存在するかどうかを判定し、同一移動物体に属するブロックに同一識別符号を持たせたオブジェクトマップを作成し(図11)、時間的に前後のフレーム画像に基づいて、各移動物体の動きベクトルを求める移動物体認識方法であって、
現フレーム画像(図29のF2)について、着目ブロックを、前フレームの各移動物体の動きベクトルの符号を逆にしたベクトルで移動させたときに(図30(B)、図31(A))、複数の移動のそれぞれで該前フレームの移動物体と重なる場合、評価関数に基づいて該着目ブロックの識別符号を決定し、
該評価関数は、該移動させた着目ブロックの枠内に含まれる、該移動に対応した動きベクトルを持つ移動物体と同一識別符号を持つブロックの面積が広いほど、該着目ブロックが該同一識別符号を持つ確度が高くなることを示す関数値となる関数である。
。
して移動物体間衝突事故を認識する画像認識装置20とを備えている。
構成を機能ブロックで示している。
る。移動物体認識部22は、画像メモリ21内の現画像を過去の画像と比較して、移動物
体を認識し、その位置、例えば移動物体の図形の重心を検出する。例えば図1の場合、車
M1〜M6の位置P1〜P6を検出する。これらの位置座標は、位置レジスタアレイ23
の内容が位置レジスタアレイ24にコピーされた後、位置レジスタアレイ23に保持され
る。移動物体認識部22はまた、移動物体間の距離、例えば図3(A)に示す距離dを画
素単位で測定し、位置レジスタアレイ内の2位置の組み合わせと対応させて、相対距離レ
ジスタアレイ25に格納する。
移動物体の速度ベクトルとして求め、次に、全ての移動物体間の相対速度ベクトルVを計
算する。例えば、図3(A)に示す車M1の速度ベクトルV1と車M2の速度ベクトルV
2の相対速度ベクトルVは図3(B)に示す如くなる。V/D計算部26はさらに、各移
動物体間について、相対速度ベクトルVの2物体に対応した相対距離位置レジスタアレイ
24の内容dを読み出し、ベクトルV/Dを計算する。ここに、D=d+εであり、εは
D>0を保証するための定数であって、ε≧0である。εの値はdの定義によって異なり
、必ずD>0であればε=0とすることができる。
認識されるので、様々な衝突事故を認識することが可能となる。衝突危険度は、相対速度
ベクトルVが大きいほど、相対距離dが小さいほど大きいと考えられるので、V/Dは衝
突危険度を示している。図1の場合、移動物体間の組み合わせは15通りあり、各組み合
わせについてV/Dを計算する。その計算結果は、V/D時系列メモリ27に格納される
。
系列メモリ27から排出されるとともに、V/D計算部26からの新たなデータがV/D
時系列メモリ27格納される。次の表1は、V/D時系列メモリ27内のデータ格納状態
を示している。
Dの値を示している。V/Dは、例えばX座標とY座標の値で表される。
出力からその絶対値|V/D|を計算し、これが設定値Cより大きいかどうかを判定し、
その結果をV/D時系列切り出し部29に供給する。
ので、該所定時間経過後にV/D時系列切り出し部29はそのV/D時系列をV/D時系
列メモリ27から切り出す。
理が省かれ、処理速度が低速で安価な装置を用いて衝突事故認識に必要な処理時間を確保
することが可能になる。
と分類する必要がある。例えば、ある衝突事故の時系列パターンと、静止座標系を回転さ
せれば同一になる時系列パターンとが、同一観測系列になるようにした方が好ましい。す
なわち、交差点の形状やカメラ10の取付位置などに観測系列が依存しないようにすべき
である。
列内の最初の時刻t=1のベクトル(V/D)ij1のX軸に対する角度θを計算する。
次に、このV/D時系列の各ベクトルV/Dを−θ回転させる。例えば図3(C)に示す
如く回転させる。これにより、例えば図5に示す衝突パターンのV/D時系列とこれを1
80度回転させた図6に示すような衝突パターンのそれは同一になる。
びM2の時刻t=1〜4での速度ベクトルV11〜V14及びV21〜V24は、−θ回
転により図8(A)に示す速度ベクトルV11a〜V14a及びV21a〜V24aにな
り、相対速度ベクトルは図8(B)に示すV=V1〜V4となる。
如く、量子化する。例えばV/D=vの時系列が{v0,v1,v2}の場合、時系列{0
,1,2}と量子化する。量子化された観測量の時系列を観測系列と称す。例えば図5に示
す時刻t=4〜9の観測系列は{1,2,3,0,8,7}となる。図6の衝突パターンにつ
いても同じである。この量子化により、ある衝突パターンと類似の衝突パターンは同一観
測系列となるので、様々な衝突事故を容易に認識可能になる。また、量子化により観測系
列が簡単な数値列になるので、その後の認識処理が簡単になる。
供給される観測系列の参照系列に対する類似度を計算する。上記のことから、少ない参照
系列で様々な衝突事故を容易に認識可能になる。
グ法などがあり、これらのいずれかを利用することができる。例えば、具体的な衝突事故
の観測系列を学習系列としてパラメータを決定したHMMにより、量子化部31で得られ
た観測系列が生ずる確率P=EXP(μ)を計算する。この計算方法は、後述する。学習
系列に対称パターンが含まれていなければ、量子化部31で得られた観測系列と対称なパ
ターンについても確率Pを計算し、確率Pの大きい方の値を類似度とする。例えば、観測
系列{0,1,4,5,2}に対し、図4との関係でこれと対称なパターンは{0,1,10,
11,2}である。
ると判定し、その結果を出力する。この結果は、警察に自動通報され、これにより救助活
動が迅速に行われるとともに、実地検分が迅速に行われて事故渋滞が緩和される。
おける状態は観測量ではなく、具体的なイメージと対応していないのが通常である。観測
量は図4に示す如く量子化されたものであり、時刻tでの観測量をOtと表記する。1≦
i≦Nなる任意のiについて、時刻(t−1)で状態iであるとき、時刻tで状態jにな
る確率をaijと表記し、このとき観測量Otを出力する確率をbij(Ot)と表記すると、
次の関係が成立する。
のiに対し、aii+ai(i+1)=1
状態Nは最終状態であり、次の状態には遷移できず、aNN=1
j=i又はj=i+1に対し、
bij(0)+bij(1)+・・・+bij(12)=1
例えば初期t=0に状態1である確率が1であり、時刻t=1、2の観測系列{2,5
}が生ずる確率Pは、時刻t=1、2の状態系列{1,1}、{1,2}、{2,2}、{
2,3}の各々について観測系列{2,5}を出力する確率の総和であり、次式で表される
。
+a11・b11(2)・a12・b12(5)
+a12・b12(2)・a22・b22(5)
+a12・b12(2)・a23・b23(5)
初期t=0に状態iにいる確率をπiと表記する。HMMモデルは、初期状態の確率分
布π={π1,π2,π3,,,,,πN}と、上記確率aij及びbij(k)の集合とにより定まる
。これらのパラメータをλと表記する。
時刻tまでに観測系列{O1O2...Ot}を出力し、状態iになる部分系列観測確率をα(
i,t)と表記する。
λ)は一般に、以下の3ステップからなる前向きアルコリズムで計算されることが知られ
ている。
α(1,1)=π1・b11
2≦j≦Nの各jに対し、
α(j,1)=π(j-1)・b(j-1)j+πj・bjj
ステップ2:t=1,2,・・・,T−1の各々について順次
1≦j≦Nの各jに対し、
計算することができる(電子・情報工学講座19「情報処理概論」、榑松明著、培風館)
。
・・OT}となる確率をβ(i,t)と表記すると、次の関係式が成立する。
状態jに遷移する確率をγ(i,j,t)と表記する。
ルゴリズムにより求めることができる。すなわち、モデルパラメータに初期値を与え、1
≦i≦N、1≦j≦Nの各i及びjに対し、以下のステップ1でγ(i,j,t)を計算
し、得られたγ(i,j,t)を用いてステップ2でモデルパラメータを更新し、同様に
ステップ1と2の計算をモデルパラメータが収束するまで繰り返すことにより、モデルパ
ラメータが決定される。
味である。
=kは、時刻tにおいて観測量kであるもののみの総和をとることを意味している。
ータを決定し、このモデルパラメータを初期値として次の学習系列につき上記方法でモデ
ルパラメータを決定し、以降同様の処理を繰り返す。
アの構成を機能ブロックで示している。
移動物体のみの図10に示すようなパターン情報を該メモリに書き込む。例えば、画像メ
モリ21の1フレームが480×640ピクセルの場合、8×8ピクセルを1ブロックの
情報に低減して、60×80ブロックのパターン情報に変換する。ブロック情報は、移動
物体毎に異なる識別符号であり、図10では図1中の車M1〜M6に対応してそれぞれ識
別符号1〜6の情報が書き込まれている。
る識別符号の画素間距離の最小値を移動物体間距離dと決定する。
14がX方向になるようにそれぞれθ1〜θ4回転させたものを速度ベクトルV11b〜
V14bとする。速度ベクトルが0である場合にはその方向を、0になる直前の速度ベク
トルの方向であるとみなす。θ1〜θ4回転に対応して、車M2の時刻t=1〜4での速
度ベクトルV21〜V24をそれぞれθ1〜θ4回転させたものを速度ベクトルV21b
〜V24bとする。i=1〜4について、図12(B)に示す相対速度ベクトルVi=V
2ib−V1ibを求める。換言すれば、車M1の速度ベクトルV1iのX軸に対する角
度がθiのとき、車M1とM2の相対速度ベクトル(V2i−V1i)を−θ回転させた
ベクトルViを求める。次に、ベクトルv=Vi/Diを図4に示すように量子化したも
のを、時刻t=iでの観測量として求める。ここにDiは、時刻t=iでの上述のD=d
+εである。
示している。この場合、上記同様に回転して得られる速度ベクトルV11b〜V14b及
びV21b〜V24bは、図12(A)のそれと同一になり、観測系列も図12(A)の
場合と同一になる。
2の相対的な観測量V/Dの時系列であり、地上静止座標系を回転させても同一になる。
/Dをベクトル回転部30Aに供給してベクトルV/Dをリアルタイムで上記−θ回転さ
せ、次にこれを量子化部31で図4に示す如く量子化し、観測系列メモリ27Aに格納す
ることができる。
量がメモリ27Aに格納されるので、その必要な容量は、量子化前のベクトル量が格納さ
れる図2のメモリ27のそれより少なくなる。
aijの初期値を、
i=1〜6の各々についてaii=0.5
a77=1.0とし、bijの初期値を、
i=1〜6、j=i+1、k=0〜2の各々について、
bii(k)=0.10、bij(k)=0.10
i=7、k=0〜2の各々について、
bii(k)=0.10
i=1〜6、j=i+1、k=3〜12の各々について、
bii(k)=0.07、bij(k)=0.07
i=7、k=0〜2の各々について、
bii(k)=0.07とした。また、初期t=0での状態確率分布を、
π1=1、i=2〜7に対しπi= 0
とした、さらに、以下の表2のNo1〜10の衝突事故観測系列を学習系列とした。この
学習系列はいずれも、図5又は図6に示すような同一車線上の同一方向の車間の衝突に関
するものである。
を次の表3のように決定し、パラメータbij(0)〜bij(6)及びbij(7)〜bij(
12)をそれぞれ以下の表4及び表5のように決定した。
上記同様にして、次の2つの動作パターンに対するモデルパラメータλ2及びλ3を決
定した。
ート動作(タンデム動作)するパターン 次の表6のNo1〜10の観測系列をこの動作
の学習系列とした。タンデム動作は、後ろの車が前の車に接近した後、前の車が後ろの車
から離れるので、衝突動作に類似している。
ン
次の表7のNo1〜10の観測系列をこの動作の学習系列とした。
ップ動作の観測系列O2及び通過動作の観測系列O3の各々について、モデルパラメータλ
1、λ2及びλ3の下で該観測系列が生ずる確率P(Oi|λj)=EXP(μij)、i
=1〜3、j=1〜3の指数部μijを計算したところ、次の表8に示す結果が得られた。
P(O1|λ1)/P(O2|λ1)=EXP(11.2)
P(O1|λ1)/P(O3|λ1)=EXP(29.7)
と確率比が大きく、動作分離性能が高いことがわかる。
。
(Tandem)との区別の程度が状態数Nによりどのように変化するかの解析結果を示す。モデ
ルパラメータは、40の衝突事故の観測系列を学習系列として決定した。横軸は状態数N
であり、縦軸はこのモデルで計算された観測系列の確率P=EXP(μ)の指数部を、複
数の観測系列について合計し、さらに−1を乗じた値である。図14中のAccidentは、前
記40の観測系列に関するものであり、Tandemは他の40のタンデム動作の観測系列に関
するものである。
遷移し又は状態jに留まって観測量Oを出力する確率(bij(O)+bjj(O))の具体
例を視覚的に示す3次元棒グラフである。
ことができる。
接近(状態3):観測量1又は2
急接近(状態4):観測量3
衝突の瞬間(状態5):観測量0
反動(状態6):観測量7又は8
停止(状態7):観測量0
アの構成を機能ブロックで示している。
説する。
ロックとし、1フレームを60×80ブロックに分割する。ブロック単位で移動物体が存
在するかどうかを判断し、存在すれば、移動物体毎に異なる識別符号を付す。図11では
、升目がブロックを示しており、図1中の車M1〜M6に対応してそれぞれ識別符号1〜
6の情報がブロック単位で書き込まれている。典型的には、一つの移動物体に5〜30程
度のブロックが属する。移動物体としては、車、バイク、自転車、人などがある。
ーム上(画像メモリ21内)において、交差点への4つの入口及び交差点からの4つの出
口にそれぞれスリットEN1〜EN4及びEX1〜EX4を初期設定しておく。
1をアクセスし、例えば過去10分間の全画像について、対応するピクセルの画素値のヒ
ストグラムを作成し、その最頻値(モード)をそのピクセルの画素値とする画像を背景画
像として生成し、画像メモリ21内の所定領域に格納する。背景画像は、背景画像生成部
34により定期的に更新される。
ものであり、構成要素35〜39及びV/D計算部26によりアクセスされる。画像メモ
リ21内のブロックは、アドレスにより識別される。なお、画像メモリ21とブロック情
報メモリ35とは同一メモリ内の異なる記憶領域であってもよい。
ータを読み込み、これらスリット内に移動物体が存在するかどうかをブロック単位で判定
する。あるブロックに移動物体が存在するかどうかは、このブロックの各ピクセルと背景
画像の対応するピクセルとの差の絶対値の総和が所定値以上であるかどうかにより判定す
る。
い場合には、該移動物体存在ブロックに新たなIDを付す。
体に対応したクラスタができる。例えば図17中の入口スリットEN1内にはID=1が
生成されている。新たな移動物体のブロックが、すでに存在する移動物体のブロックと隣
接しているときには、すでに存在する移動物体のIDと同じにする。例えば図17中の入
口スリットEN4内の移動物体存在ブロックには、すでに存在する移動物体のIDと同じ
ID=5が付加される。
画像データを読み込み、これらスリット内に移動物体が存在するかどうかをブロック単位
で判定し、出口スリットを移動物体が通過したときにそのIDを消滅させる。例えば図1
7中の出口スリットEX1内のブロックにIDが付されている状態から、IDが付されな
い状態に変化したときに、ID=3を消滅させる。消滅IDは、次の生成IDとして用い
ることができる。
)での前フレーム中の移動物体に属するブロック毎に独立に、これと時刻tでの現フレー
ム内の位置可変ブロックとの間で、MPEGの符号化で用いられているブロックマッチングを
適用して、該ブロックの動きベクトルを求める。動きベクトル算出部37はさらに、移動
物体毎に、求めた複数の動きベクトルの代表値、例えばモード、メジアン又は平均値を、
その移動物体の動きベクトルと推定し、これを、該移動物体の情報としてブロック情報メ
モリ35に書き込む。代表値がメジアン又は平均値である場合には、中心分布から著しく
離れる動きベクトルを除外した後に代表値を求めることにより、より正確な値を得るよう
にしてもよい。
場合、平均値である太線ベクトルをこの移動物体の動きベクトルと推定する。
高めることが可能となる。
らず、ID=1、3及び5のような移動物体一部についても、その動きベクトルを推定す
る。
きベクトルという概念はない。また、動きベクトルが小さい場合には、ブロックマッチン
グの他にオプティカルフローの推定も有用な手法として用いることができる。
クスチャの少ないブロックがクラスタに存在する場合、ブロックマッチングやオプティカ
ルフローなどの手法により正確な動きベクトルを得ることができない。
素値の散布度、例えば分散σ2、標準偏差σ、平均偏差MD、四分偏差QD、範囲R又は
エントロピーなどが所定値以下であるブロックについては、動きベクトルを求めず、移動
物体の動きベクトル推定に使用しない。この場合であっても、タイヤの部分のように色が
一様でないブロック群が存在するので、動きベクトル算出部37は移動物体の動きベクト
ルを推定することができる。
することができる。すなわち、原画像に対しエッジ強調処理を行い、次いで2値画像に変
換し、ブロック内に‘1’のエッジ画素の数が所定値以下であれば、動きベクトルを求め
るのに適しないブロックと判定してもよい。エッジ強調画像は、原画像に1次微分オペレ
ータ又はラプラシアンオペレータなどの2次微分オペレータをかけて簡単なフィルタ処理
を行うことにより得られる。エッジ画像取得には、Sobel、Roberts又はPrewittなどの公
知手法を用いてもよい。
処理説明図である。
け平行移動させると、次フレームの予測画像P2が得られる。この予測画像のクラスタ周
囲を、1ブロック外側まで拡大させて、太線で境界を示す領域を考える。次フレームの実
際の画像は、P3であるとする。この場合、移動物体更新部38は、予測画像P2の拡大
領域(太線枠内)に対応する画像メモリ21内の領域について、ブロック毎に、上記のよ
うに移動物体が存在するかどうかを判定し、存在すると判定されたブロックに対しては、
画像P1中のクラスタに付されたIDと同じIDを付す。このようにして更新されたクラ
スタを予測画像P2中のクラスタと比較すると、結果として、予測クラスタから削除され
たブロック(斜線部)と、予測クラスタに追加されたブロック(縦線部)とがある。
トマップ及び動きベクトルを読み込み、この動きベクトルだけ、該移動物体を該オブジェ
クトマップ内で平行移動させ、さらにその周囲を拡大した範囲について、画像メモリ21
内の現フレームに移動物体が存在するかどうかをブロック毎に判定することにより、該移
動物体のクラスタを更新する。この動きベクトルは、時刻(t−1)でのフレームと時刻
tでのフレームとの間で動きベクトル算出部37により求められたものであり、画像メモ
リ21内の現フレームは時刻(t+1)でのものである。
の際にカメラと移動物体との間の距離及びアングルに依存してクラスタのブロック数や形
が変化しても、両者を異なる車として認識することが可能になる。例えば図19(A)に
示す1つのクラスタを2台の車として認識することができる。
がどの移動物体に属するかどうかが不明であるので、重なったブロックはいずれの移動物
体にも属さないとみなし、移動物体が存在するかどうかを判定しない、すなわち重なった
ブロックにはIDを付加しない。
移動物体との間の距離及びアングルに依存してクラスタのブロック数や形が変化しても、
両者の動きベクトルが不正確になるのを防止することができる。
ることができる。
きベクトル算出部37でブロック毎に動きベクトルを求めたとき、図20(B)に示すよ
うに動きベクトルが複数のグループに分かれる場合には、移動物体分割部39はグループ
毎に異なる移動物体と認識する。そして、これにともなって新たなIDを生成し、各移動
物体の動きベクトルを上記のように推定し、各移動物体のこれらID及び動きベクトルを
ブロック情報メモリ35に書き込む。
ク情報メモリ35内のオブジェクトマップについて、例えば時刻tで図19(A)に示す
単一クラスタが、次の時刻(t+1)で図19(B)に示すように2つのクラスタに分か
れたとき、互いに異なる移動物体と認識し、これにともなって新たなIDを生成しこれを
ブロック情報メモリ35に書き込む。
移動物体間の最短距離dを求め、これをその2つのIDと共にV/D計算部26に供給す
る。V/D計算部26は、この2つのIDの動きベクトルをブロック情報メモリ35から
読み出し、上述の衝突危険度V/(d+ε)を算出する。
過の動作を認識するためのモデルパラメータの決定には、衝突、タンデム及び通過の動作
の各々について40個の学習系列を用いた。上記モデルパラメータλ1、λ2及びλ3に
対応したこの場合のモデルパラメータをそれぞれλ1a、λ2a及びλ3aと表記する。
って、それぞれ衝突、タンデム及び通過の動作を示している。O1Aは、O1と異なる交差
点での衝突の観測系列である。
3を除いた部分と同一である。画像認識装置は、画像処理装置41と、これら要素32及
び33の替わりに用いられるデコーダ42、シフトレジスタ43、ニューラルネットワー
ク44及びコンパレータ45とを備えている。
ビットのみ‘1’である13ビットにし、シフトレジスタ43の初段に供給する。シフト
レジスタ43は、13×20=260個のフリップフロップを備え、すなわち20ビット
のシフトレジスタを13個備え、図22に示す如く、1ワード=13ビットの観測量を時
刻t=0〜19について保持している。t=19がシフトレジスタ43の初段に相当して
いる。
2値パターンが一時記憶されている。
しており、その観測量は、t=0〜3で0(無干渉)、t=3及び4で1(接近)、t=
5〜7で3(急接近)、t=8〜10で0(衝突)、t=11で8(反動)、t=12〜
14で7(反動)、t=15〜19で0(停止)である。
ている。入力層のノード数は、シフトレジスタ43のビット数260に等しく、各ノード
の入力値は‘0’または‘1’である。入力層のノードにはそれぞれシフトレジスタ43
のビットが供給される。すなわち、シフトレジスタ43の全ビットが入力パターンとして
、ニューラルネットワーク44の入力層に供給される。ニューラルネットワーク44の中
間層のノード数は思考錯誤で定められ、例えば50である。本実施例4では、衝突事故の
みを判定するので、出力層のノード数は1であり、そのノードの出力値の範囲は0〜1で
ある。
レータ45の一方の入力端に供給され、コンパレータ45の他方の入力端には参照値とし
て0.5が供給される。ニューラルネットワーク44の出力が0.5より大きいとき、コ
ンパレータ45の出力が‘1’となって、衝突事故と認識される。
リゴリズムでトレーニングされて定められる。前記参照系列は、このパラメータを定める
ための学習系列と考えることができる。
ワーク44の中間層及び出力層のノード数をそれぞれ50及び3として、衝突のみならず
上述のタンデム及び通過の動作も認識できるようにした。
される観測系列も上記実施例3で述べたものと同一である。
が間違っていることを示している。
れる。すなわち、HMMでは状態遷移において同じ状態に留まる場合を考慮するので、少
ない学習データで時間軸方向に関し伸縮した様々な類似パターンを吸収することができ、
これにより高い認識率が得られると考えられる。ニューラルネットワーク44の欠点を解
消するためには、学習データ数を増やせばよい。
時入力することができるので、高速処理が可能になるということである。
加したものである。部分系列観測確率算出部46は、観測系列切り出し部29Aから観測
量が供給される毎に、上述の、HMMにおける部分系列観測確率α(i,t)、すなわち
時刻tまでに観測系列{O1O2...Ot}を出力し、状態iになる確率を、全ての状態i=
1〜Nについて算出して出力する。α(1,t)〜α(N,t)は同時に、シフトレジス
タ43Aの入力段に供給される。α(i,t)が小数であるので、シフトレジスタ43A
のビット数は図21のそれよりも多い。
7,t)がt=0〜19についてシフトレジスタ43Aに保持された場合のデータパター
ンを示している。
れぞれニューラルネットワーク44Aの入力層のノードに供給される。ニューラルネット
ワーク44Aの入力層の各ノードの入力値は、0〜1の範囲の小数である。ニューラルネ
ットワーク44Aの出力は、コンパレータ45の一方の入力端に供給され、図21と同様
にして衝突事故が認識される。
についての部分系列観測確率α(1,t)〜α(7,t)のデータパターンを示している
。
タンデム及び通過を認識可能にした場合の、表10に対応した認識実験結果を示す。部分
系列観測確率α(1,t)〜α(N,t)はHMMモデルパラメータに依存するが、衝突
のそれを用いた。タンデム及び通過のそれを用いても、学習系列が互いに類似しているの
で、同様の結果が得られると考えられる。
の移動物体の拡大範囲が他の移動物体のそれと重なった場合、重なったブロックがいずれ
の移動物体にも属さないとみなし、移動物体IDを付加しなかった。
の情報がなくなるので、両移動物体を正確にトレースすることができなくなる。
一部が見えなくなっても、カメラから見て前面側の移動物体は見えるので、そのブロック
がどの移動物体に属するかを、簡単な画像処理により推定することを考える。また、時刻
tにおいて、移動物体間が重なっていないが接近しているため同一ブロック(混合ブロッ
ク)に2つの移動物体の一部が属する場合であっても、時刻(t−1)では該一部がそれ
ぞれ異なるブロックに属している場合がある。この場合、時刻(t−1)での画像を参照
することにより、混合ブロックにどちらの移動物体がより多く属しているかを容易に推定
することを考える。
る本発明の実施例6に係る画像認識装置20Cを示す。
された不明ID決定部47を備えている点で、図16の画像認識装置20Bと異なる。
(t−1)でのオブジェクトマップ及び各クラスタの動きベクトルと、画像メモリ21に
格納されている時点tでのフレーム画像とに基づいて、時点tでのオブジェクトマップを
作成する。作成中において、移動物体が存在すると判定されたが上記のように移動物体I
Dが付されなかったブロック(ID不明ブロック)が存在した場合には、作成後に、これ
を不明ID決定部47に通知する。
体IDを決定する。
1に格納されているフレーム画像の一部を概略的に示す。1つの枡目は1画素を表してい
る。BL1(t−1)及びBL1(t)はそれぞれ、時点(t−1)及びtでの移動物体
M1の境界線であり。BL2(t)は時点tでの移動物体M2の境界線である。
メモリ35に格納されているオブジェクトマップの概略を示す図である。1つの枡目は1
つのブロックを表している。オブジェクトマップは、移動体IDを持っているブロックと
持っていないブロックとからなる。図29では理解を容易にするために、オブジェクトマ
ップ中にも移動物体の境界線を太線で表している。オブジェクトマップQ1及びQ2中の
ハッチングは、IDが付されたブロックであることを示している。右上がり斜線が付され
たブロックはID=1を持ち、右下がり斜線が付されたブロックはID=2を持っている
。
M2の一部が含まれているので、移動物体更新部38は、これらのブロックがいずれの移
動物体に属するかを判定することができない。
Q2並びに移動物体M1及びM2の動きベクトルに基づき、ブロックB1、B2及びB3
のIDを決定して、オブジェクトマップQ3を得る。
るかを決定する方法を、具体的に説明する。この決定は、ブロックB2が移動物体M1で
あると仮定したときの評価値と、ブロックB2が移動物体M2であると仮定したときの評
価値との大小関係に基づいて行なわれる。評価値は、以下の要素(1)〜(3)を含んで
ある。
ブロックB2と隣接する9ブロックについて、ID=1を持ったブロックの数N1が多
いほどブロックB2が移動物体M1のブロックである確度が高いと考えられる。そこで、
ブロックB2のIDが1であることを評価する要素UN(1)を例えば次式で表す。
ここに、αは正の定数である。UN(1)の値が小さいほどブロックB2が移動物体M
1に属する確度が高いと言える。
ここにN2は、ブロックB2と隣接する9ブロックのうち、ID=2を持ったブロック
の数である。
ェクトマップQ2のみから判断すると、ブロックB2は、ID=1である確度が、ID=
2である確度よりも高いと言える。
評価要素US
図30(A)は大略、図29中のオブジェクトマップQ1とQ2とを重ね合わせ、かつ
、ハッチングを削除したものである。図中、MV1は移動物体M1の動きベクトルであり
、点線はBL1(t−1)をMVだけ平行移動させたものである。
動物体M1に固定された座標系から見て、時点(t−1)でのブロックB2に対応すると
推定される判定枠B21が得られる。時点tでブロックB2に移動物体M1の一部と移動
物体M2の一部とが含まれていても、時点(t−1)で判定枠B21には移動物体M2の
一部が含まれていない場合があり、この場合、判定枠B21内を見ることにより、ブロッ
クB2がID=1であるかどうかをより正確に推定することが可能となる。
B2がID=1を持つことの確度が高くなると考えられる。
ここに、βは正の定数である。US(1)の値が小さいほどブロックB2が移動物体M
1に属する確度が高いと言える。
ここにS2は、図31(A)に示す如く、ブロックB2を−MV2だけ平行移動させて
得られる判定枠B22内のID=2の個数(右下がり斜線部面積)である。MV2は、移
動物体M2の動きベクトルである。
評価要素UD
図30(B)のブロックB2と判定枠B21とに対応した図29のフレーム画像F2及
びF1中の局所画像の相関が強いほど、ブロックB2がID=1である確度が高いと言え
る。図31(B)に示すB2F及びB21Fはそれぞれ、図30中のブロックB2及び判
定枠B21に対応したフレーム画像F2及びF1中の局所画像を示す。
ここに、γは正の定数であり,B21F(i,j)及びB2F(i,j)はそれぞれ局
所画像B2F及びB21F内の第i行第j列の画素値であり、Σはi=1〜8及びj=1
〜8についての総和(ブロック内全画素についての総和)を意味している。
。
ここに、B22F(i,j)は局所画像B22F内の第i行第j列の画素値であり、局
所画像B22Fは図31(A)中の判定枠B22に対応したフレーム画像F1中の局所画
像である。
、評価関数の値
U(1)=UN(1)+US(1)+UD(1)
と、
U(2)=UN(2)+US(2)+UD(2)
との大小関係に基づいて、ブロックB2のIDを決定する。すなわち、
U12=U(1)−U(2)
の値が負であればID=1と決定し、正であればID2=2と決定する。U(1)及びU
(2)の最小値はいずれも0である。U12の値が小さいほど、ブロックB2がID=1
である確度が高くなる。
Dを考慮しなかったが、実際には、ブロックB1、B2及びB3のIDを同時に仮定し、
ブロックB1、B2及びB3の各々の評価関数の総和が最小となるように、ブロックB1
、B2及びB3のIDを決定する。 この際、メトロポリス(Metropolis)アルゴリズム
又はギッブスサンプラー(Gibbs Sampler)アルゴリズムなどの確率的緩和アルゴリズム
を用いて最小値へ導く。また、評価値の極小値を最小値と間違えないようにするとともに
、極小の谷から速く脱出するために、公知のシミュレーティッドアニーリング(Simulate
d Annealing)法を適用する。
きる。
ように定められる。
た。すなわち、マルコフ・ランダム・フィールド(Markov Random Field)モデルを時空
間画像に拡張して適用し、表現された画像のエネルギー分布を確率緩和過程により最適化
した結果、上記結果評価関数の最小化と同一になった。この点は、後述する実施例7につ
いても同様である。
場合、これを不明ID決定部47で分離認識できないので、移動物体分割部39は本実施
例6においても用いられる。
流れに分けて示している。表は、交差点での実際の画像を解析して得られたものであり、
複雑な交通の流れも上記いずれかの場合に分けられている。
合であった。水平方向のトラッキング成功率が、左右方向のそれよりも高い理由は、左右
方向の交通の方が、移動物体間の重なりが垂直方向のそれよりも大きいためである。
体M1又はM2に属すると仮定して評価関数の値の大小関係に基づき不明IDを決定した
。
の移動物体について、互いに接近しようとしている移動物体がどれであるかを判断しなけ
ればならない。
ロック間では値が大きく高いブロック間では値が小さい。これらの値を見るだけで上記の
ことを判断することができる。また、評価値の計算は容易である。
ックは、時点(t−1)のオブジェクトマップに含まれる全てのID=1〜mのいずれか
を持つと考えて、評価関数の値の大小関係に基づき不明IDを決定する。
DがIDj(1≦IDj≦m)であると仮定したときの、ID不明ブロックBKiの上記
評価関数U=UN+US+UDの値をU(BKi,IDj)で表すと,次のようにしてI
D不明ブロックBK1〜BKpのIDを決定する。
、評価関数の値
UT=U(BK1,ID1)+U(BK2,ID2)+・・・+U(BKp,IDp)
を計算する。この値が最小になるID1〜IDpを、繰り返し計算により求め、求めたも
のをID不明ブロックBK1〜BKpのIDと決定する。この繰り返し計算において、上
記確率的緩和アルゴリズム及びシミュレーティッドアニーリング法を適用する。
る。
1〜IIDpに初期値ID10〜IDp0を与える。i及びjに初期値1を代入する(i
←1、j←1)。UTの前回値UTBに、大きな初期値UTBmaxを与える。
UT=U(BK1,ID1)+U(BK2,ID2)+・・・+U(BKp,IDp)
を計算する。
(S6、S7)j≦mであればブロックBKiのIDiの値を更新してステップS2へ
戻り、そうでなければ次のステップS6へ進む。
(S9)i≦pであればステップS2へ戻り、そうでなければ処理を終了する。
pと決定される。
Dを決定可能である。
おいて観測量の相違度を、横切る境界線の数と定義する。例えば、観測量0と0は相違度
0、観測量0と7は相違度1、観測量4と8は相違度2である。参照系列が{1,2,0}
で観測系列が{3,2,1}の場合、対応する成分間の相違度を求め、その総和(2+0+
1)の逆数1/3を一致度として求め、複数の参照系列について同様の計算を行い、その
うち最も大きい一致度を類似度としてもよい。
を計算し、最大値を最終的な類似度として求めてもよいことは勿論である。
>Cと判定された場合のみV/D時系列切り出し部29で切り出しを行う場合を説明した
が、認識開始判定部28、及び、時系列切り出し部29又は29Aを省略し、時系列メモ
リ27又は27A内の各時点における全ての時系列に対しブロック32で確率Pを計算す
る構成であってもよい。
も本発明を適用可能である。
理をコンピュータで実行することも可能である。
上記関数は一例であり、推定の確度が上がるほど一方向に変化(単調変化)する種々の形
のものを用いることができる。
20、20A〜20C 画像認識装置
21 画像メモリ
22、22A 移動物体認識部
23、24 位置レジスタアレイ
25 相対距離レジスタアレイ
26、26A V/D計算部
27 V/D時系列メモリ
27A O時系列メモリ
28 認識開始判定部
29 V/D時系列切り出し部
29A 観測系列切り出し部
30、30A ベクトル回転部
31 量子化部
32 類似度計算部
33 衝突事故判定部
M1〜M6 車
34 背景画像生成部
36 ID生成/消滅部
37 動きベクトル算出部
38 移動物体更新部
39 移動物体分割部
40 移動物体間距離算出部
41、41A 画像処理装置
42 デコーダ
43、43A シフトレジスタ
44、44A ニューラルネットワーク
45 コンパレータ
46 部分系列観測確率算出部
47 不明ID決定部
B1、B2、B3 ブロック
F1、F2 フレーム画像
Q1〜Q3 オブジェクトマップ
MV1、MV2 動きベクトル
B21、B22 判定枠
B21F、B2F 局所画像
Claims (2)
- 電子カメラで撮影されたフレーム画像を、複数ピクセルからなるブロックに分割し、ブロック単位で移動物体が存在するかどうかを判定し、同一移動物体に属するブロックに同一識別符号を持たせたオブジェクトマップを作成し、時間的に前後のフレーム画像に基づいて、各移動物体の動きベクトルを求める移動物体認識方法であって、
現フレーム画像について、着目ブロックを、前フレームの各移動物体の動きベクトルの符号を逆にしたベクトルで移動させたときに、複数の移動のそれぞれで該前フレームの移動物体と重なる場合、評価関数に基づいて該着目ブロックの識別符号を決定し、
該評価関数は、該移動させた着目ブロックの枠内に含まれる、該移動に対応した動きベクトルを持つ移動物体と同一識別符号を持つブロックの面積が広いほど、該着目ブロックが該同一識別符号を持つ確度が高くなることを示す関数値となる関数である、
ことを特徴とする移動物体認識方法。 - 撮影されたフレーム画像が格納される画像記憶部と、
該フレーム画像を複数ピクセルからなるブロックに分割し、ブロックに移動物体が存在するかどうかを判定し、同一移動物体に属するブロックに同一識別符号を持たせたオブジェクトマップを作成するオブジェクトマップ作成部と、
該画像記憶部に格納された時間的に前後のフレーム画像に基づいて、各移動物体の動きベクトルを求める動きベクトル算出部と、
現フレーム画像について、着目ブロックを、前フレームの各移動物体の動きベクトルの符号を逆にしたベクトルで移動させたときに、複数の移動のそれぞれで該前フレームの移動物体と重なる場合、評価関数に基づいて該着目ブロックの識別符号を決定する識別符号決定部と、
を有し、該評価関数は、該移動させた着目ブロックの枠内に含まれる、該移動に対応した動きベクトルを持つ移動物体と同一識別符号を持つブロックの面積が広いほど、該着目ブロックが該同一識別符号を持つ確度が高くなることを示す関数値となる関数であることを特徴とする移動物体認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010181677A JP4795479B2 (ja) | 1999-06-01 | 2010-08-16 | 移動物体認識方法及び装置 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1999154281 | 1999-06-01 | ||
JP15428199 | 1999-06-01 | ||
JP1999258035 | 1999-09-10 | ||
JP25803599 | 1999-09-10 | ||
JP2010181677A JP4795479B2 (ja) | 1999-06-01 | 2010-08-16 | 移動物体認識方法及び装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009252293A Division JP4583493B2 (ja) | 1999-06-01 | 2009-11-02 | 移動物体認識方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011008809A JP2011008809A (ja) | 2011-01-13 |
JP4795479B2 true JP4795479B2 (ja) | 2011-10-19 |
Family
ID=41705551
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009252293A Expired - Lifetime JP4583493B2 (ja) | 1999-06-01 | 2009-11-02 | 移動物体認識方法及び装置 |
JP2010181677A Expired - Lifetime JP4795479B2 (ja) | 1999-06-01 | 2010-08-16 | 移動物体認識方法及び装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009252293A Expired - Lifetime JP4583493B2 (ja) | 1999-06-01 | 2009-11-02 | 移動物体認識方法及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP4583493B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010113732A (ja) * | 2009-12-28 | 2010-05-20 | Fujitsu Microelectronics Ltd | 移動物体認識方法及び装置 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4583493B2 (ja) * | 1999-06-01 | 2010-11-17 | 富士通セミコンダクター株式会社 | 移動物体認識方法及び装置 |
JP2015089590A (ja) | 2013-11-05 | 2015-05-11 | ファナック株式会社 | バラ積みされた物品をロボットで取出す装置及び方法 |
WO2017068490A1 (en) * | 2015-10-23 | 2017-04-27 | Semiconductor Energy Laboratory Co., Ltd. | Semiconductor device and electronic device |
JP7383491B2 (ja) * | 2020-01-07 | 2023-11-20 | 日野自動車株式会社 | 物体検出装置、及び、物体検出方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0797392B2 (ja) * | 1985-03-27 | 1995-10-18 | 富士通株式会社 | 画像識別装置 |
JPH08167022A (ja) * | 1994-12-12 | 1996-06-25 | Toshiba Corp | 画像監視装置 |
JPH09161071A (ja) * | 1995-12-12 | 1997-06-20 | Sony Corp | 領域対応付け装置および領域対応付け方法 |
JP2940469B2 (ja) * | 1996-04-30 | 1999-08-25 | 日本電気株式会社 | 動画像解析装置及び動画像解析方法 |
JPH1040490A (ja) * | 1996-07-22 | 1998-02-13 | Toyota Motor Corp | 道路監視装置 |
JP3567066B2 (ja) * | 1997-10-31 | 2004-09-15 | 株式会社日立製作所 | 移動体組合せ検出装置および方法 |
JP4583493B2 (ja) * | 1999-06-01 | 2010-11-17 | 富士通セミコンダクター株式会社 | 移動物体認識方法及び装置 |
JP4420512B2 (ja) * | 1999-06-01 | 2010-02-24 | 富士通マイクロエレクトロニクス株式会社 | 移動物体間動作分類方法及び装置並びに画像認識装置 |
-
2009
- 2009-11-02 JP JP2009252293A patent/JP4583493B2/ja not_active Expired - Lifetime
-
2010
- 2010-08-16 JP JP2010181677A patent/JP4795479B2/ja not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010113732A (ja) * | 2009-12-28 | 2010-05-20 | Fujitsu Microelectronics Ltd | 移動物体認識方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
JP4583493B2 (ja) | 2010-11-17 |
JP2011008809A (ja) | 2011-01-13 |
JP2010020808A (ja) | 2010-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4420512B2 (ja) | 移動物体間動作分類方法及び装置並びに画像認識装置 | |
CN111310574B (zh) | 一种车载视觉实时多目标多任务联合感知方法和装置 | |
CN109146921B (zh) | 一种基于深度学习的行人目标跟踪方法 | |
CN112750150B (zh) | 基于车辆检测和多目标跟踪的车流量统计方法 | |
CN107038723B (zh) | 棒状像素估计方法和系统 | |
Pizzati et al. | Enhanced free space detection in multiple lanes based on single CNN with scene identification | |
Peng et al. | MASS: Multi-attentional semantic segmentation of LiDAR data for dense top-view understanding | |
CN113128348A (zh) | 一种融合语义信息的激光雷达目标检测方法及系统 | |
JP4795479B2 (ja) | 移動物体認識方法及び装置 | |
Guindel et al. | Traffic scene awareness for intelligent vehicles using ConvNets and stereo vision | |
Bisht et al. | Integration of hough transform and inter-frame clustering for road lane detection and tracking | |
JP2002133421A (ja) | 移動物体認識方法及び装置 | |
Al Mamun et al. | Efficient lane marking detection using deep learning technique with differential and cross-entropy loss. | |
CN112396043B (zh) | 车辆环境信息感知方法、装置、电子设备及存储介质 | |
Zhang et al. | A comparative analysis of object detection algorithms in naturalistic driving videos | |
Gehrig et al. | A real-time multi-cue framework for determining optical flow confidence | |
Hu et al. | Tracking cycle: a new concept for simultaneous tracking of multiple moving objects in a typical traffic scene | |
CN113793364B (zh) | 目标跟踪方法、装置、计算机设备和存储介质 | |
Ha et al. | Improved Optical Flow Estimation In Wrong Way Vehicle Detection. | |
Jiangzhou et al. | Research on real-time object detection algorithm in traffic monitoring scene | |
JP4818430B2 (ja) | 移動物体認識方法及び装置 | |
Wang et al. | LiteEdge: Lightweight semantic edge detection network | |
Danescu et al. | A stereovision-based probabilistic lane tracker for difficult road scenarios | |
Kapoor et al. | Traffic signs recognition using CNN | |
Bataineh | A Novel Ego Lanes Detection Method for Autonomous Vehicles. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110308 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110524 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110620 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110726 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110727 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4795479 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140805 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140805 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140805 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313115 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |