JP2001148019A - 移動物体間動作分類方法及び装置、画像認識装置並びに移動物体認識方法及び装置 - Google Patents

移動物体間動作分類方法及び装置、画像認識装置並びに移動物体認識方法及び装置

Info

Publication number
JP2001148019A
JP2001148019A JP2000048981A JP2000048981A JP2001148019A JP 2001148019 A JP2001148019 A JP 2001148019A JP 2000048981 A JP2000048981 A JP 2000048981A JP 2000048981 A JP2000048981 A JP 2000048981A JP 2001148019 A JP2001148019 A JP 2001148019A
Authority
JP
Japan
Prior art keywords
moving object
block
image
moving
blocks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000048981A
Other languages
English (en)
Other versions
JP4420512B2 (ja
Inventor
Shunsuke Kamishino
俊介 上篠
Masao Sakauchi
正夫 坂内
Katsushi Ikeuchi
克史 池内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2000048981A priority Critical patent/JP4420512B2/ja
Publication of JP2001148019A publication Critical patent/JP2001148019A/ja
Application granted granted Critical
Publication of JP4420512B2 publication Critical patent/JP4420512B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/84Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
    • G06V10/85Markov-related models; Markov random fields

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Data Mining & Analysis (AREA)
  • Social Psychology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Psychiatry (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】移動物体間の様々な動作を分類可能にする。 【解決手段】移動物体間の相対速度ベクトルVをD=d
+ε(dは移動物体間距離d、εは正又は0の定数)で
除した危険度ベクトルV/Dを計算し(26)、一方の
移動物体の速度ベクトルが常にX方向になるようにベク
トルV/Dを回転させ(30A)、量子化し(31)、
その時系列を観測系列としてメモリ27Aに格納し、|
V/d|が設定値Cより大きいとき(28)、所定時間
経過後に観測系列{O12...OT}をメモリ27Aから
切り出し、観測系列の参照系列に対する類似度を算出し
(32)、該類似度に基づいて移動物体間の動作が衝突
であるかどうかを判定する(33)。類似度は、隠れマ
ルコフモデルに基づき算出され、又は、ニューラルネッ
トワークを用いて決定される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、移動物体間動作分
類方法及び装置、画像認識装置並びに移動物体認識方法
及び装置に関する。
【0002】
【従来の技術】交通事故の早期発見は、迅速な救助活動
により人命救助の成功率を高めるだけでなく、警察の実
地検分などを迅速にすることにより事故渋滞を緩和する
こともできるので、様々な交通事故の認識自動化が期待
されている。
【0003】従来の交通監視装置は、特定条件の下での
限定的な事象しか認識することができなかった。
【0004】例えば高速道路上の車をカメラで撮像し、
その画像を処理して通常の直線的な動きとは異なる動き
を異常と認識していた。しかし、車の動きは本来の進行
方向であることが前提になっており、限定された条件を
満たす事故しか認識することができない。
【0005】また、交差点の車をカメラで撮像し、信号
機が停止を示している時に車が停止線を通過している場
合、信号無視であると認識していた。しかし、この場合
も限られた範囲の画像の限定的な事象しか認識すること
ができない。
【0006】すなわち、従来の交通監視装置は、交差点
の全領域で複雑な動きをする車の様々な衝突事故を検出
することができない。この問題を解決するには、新規な
画像認識方法を用いる必要がある。
【0007】一方、車、バイク、自転車及び人などの移
動物体をカメラで撮像してその動作を認識しようとする
と、分離して写っていた移動物体同士がその後、隣接し
又は重なり、その際にカメラと移動物体との間の距離及
びアングルに依存して移動物体の形や大きさが変化する
場合がある。
【0008】衝突事故を正確に認識するためには、この
ような移動物体の動作を正確に認識する必要があるが、
従来ではこれが容易でなかった。
【0009】
【発明が解決しようとする課題】本発明の目的は、この
ような問題点に鑑み、移動物体間の様々な動作を分類す
ることが可能な移動物体間動作分類方法及び装置並びに
画像認識装置を提供することにある。
【0010】本発明の他の目的は、移動物体の動作をよ
り正確に認識することが可能な移動物体認識方法及び装
置を提供することにある。
【0011】
【課題を解決するための手段及びその作用効果】本発明
による移動物体間動作分類方法では、移動物体間の相対
速度ベクトルVに関する量を量子化した観測量Oの時系
列である観測系列{O12...T}を求め、該観測系列
の参照系列に対する類似度を算出し、該類似度に基づい
て移動物体間の動作を分類する。
【0012】この移動物体間動作分類方法によれば、
(1)移動物体間の相対速度ベクトルVを用いること、
(2)このベクトルに関する量を量子化していること、
及び、(3)観測系列{O12...T}の参照系列に対
する類似度を算出していることから、少ない参照系列で
様々な移動物体間の動作を分類することが可能になる。
【0013】上記分類は例えば、移動物体間の衝突であ
るかどうかの分類であり、この場合、交差点で複雑な動
きをする車の様々な衝突事故を検出することが可能とな
り、これにより救助活動が迅速に行われるとともに、実
地検分が迅速に行われて事故渋滞が緩和される。
【0014】本発明による移動物体間動作分類装置で
は、移動物体を撮像して画像信号を出力する電子カメラ
と、該画像信号を処理して、移動物体間の相対速度ベク
トルVに関する量を量子化した観測量Oの時系列である
観測系列{O12...T}を求め、該観測系列の参照系
列に対する類似度を算出し、該類似度に基づいて移動物
体間の動作を分類する画像認識装置とを有する。
【0015】本発明による画像認識装置では、移動物体
の撮影画像を処理して、移動物体間の相対速度ベクトル
Vに関する量を量子化した観測量Oの時系列である観測
系列{O12...T}を求め、該観測系列の参照系列に
対する類似度を算出し、該類似度に基づいて移動物体間
の動作を分類する。
【0016】本発明による移動物体認識方法では例えば
図13及び20(A)に示す如く、電子カメラで撮影さ
れたフレーム画像を、複数ピクセルからなるブロックに
分割し、移動物体の一部が含まれる各ブロックについ
て、次フレーム画像内で、該ブロックと同一形状で類似
したものを見つけて、該ブロックの動きベクトルを求
め、該移動物体に含まれる複数のブロックの各動きベク
トルの代表値を、該移動物体の動きベクトルと決定す
る。
【0017】この方法によれば、右折や左折する移動物
体の速度を高精度で測定することが可能となる。
【0018】本発明による他の移動物体認識装置では、
例えば図16に示す如く、撮影された前フレーム画像及
び現フレーム画像が格納される画像記憶部(21)と、
該前フレーム画像を、複数ピクセルからなるブロックに
分割したときの、移動物体の一部が含まれる各ブロック
について、該現フレーム画像内で、該ブロックと同一形
状で類似したものを見つけて、該ブロックの動きベクト
ルを求め、該移動物体に含まれる複数のブロックの各動
きベクトルの代表値を、該移動物体の動きベクトルと決
定する動きベクトル算出部(37)とを有する。
【0019】本発明による他の移動物体認識方法では、
電子カメラで撮影されたフレーム画像を、複数ピクセル
からなるブロックに分割し、同一移動物体に属するブロ
ックに同一識別符号を持たせたオブジェクトマップを作
成し、時間的に前後のフレーム画像に基づいて、各移動
物体の動きベクトルを求める方法であって、現フレーム
画像について移動物体が存在すると判定されたブロック
の各々が、前フレーム画像に存在する移動物体のいずれ
かの識別符号を持っていると仮定したときの評価関数の
値の大小関係に基づいて、該存在ブロックに付与すべき
識別符号を決定する。
【0020】画像上で移動物体間の重なりが生じて、カ
メラから見て背面側の移動物体の一部が見えなくなって
も、カメラから見て前面側の移動物体は見えるので、こ
の移動物体認識方法によれば、存在ブロックがどの移動
物体に属するかを評価関数の値に基づき推定することが
できる。
【0021】また、時刻tにおいて、移動物体間が重な
っていないが接近しているため同一ブロックに2つの移
動物体の一部が属し、このブロックのIDが不明であっ
ても、時刻(t−1)では該一部がそれぞれ異なるブロ
ックに属している場合があるので、この移動物体認識方
法によれば、存在ブロックがどの移動物体に属するかを
評価関数の値に基づき推定することができる。
【0022】本発明による他の移動物体認識装置では、
撮影されたフレーム画像が格納される画像記憶部と、該
フレーム画像を複数ピクセルからなるブロックに分割
し、ブロックに移動物体が存在するかどうかを判定し、
同一移動物体に属するブロックに同一識別符号を持たせ
たオブジェクトマップを作成するオブジェクトマップ作
成部と、該画像記憶部に格納された時間的に前後のフレ
ーム画像に基づいて、各移動物体の動きベクトルを求め
る動きベクトル算出部と、現フレーム画像について移動
物体が存在すると判定されたブロックの各々が、前フレ
ーム画像に存在する移動物体のいずれかの識別符号を持
っていると仮定したときの評価関数の値の大小関係に基
づいて、該存在ブロックに付与すべき識別符号を決定す
るID更新部と、を有する。
【0023】本発明の他の目的、構成及び効果は以下の
説明から明らかになる。
【0024】
【発明の実施の形態】以下、図面を参照して本発明の実
施形態を説明する。
【0025】[第1実施形態]図1は、本発明の移動物
体間動作分類装置を交差点に配置した場合の概略を示し
ている。
【0026】この装置は、交差点を撮像して画像信号を
出力する電子カメラ10と、その画像を処理して移動物
体間衝突事故を認識する画像認識装置20とを備えてい
る。
【0027】図2は、本発明の第1実施形態に係る画像
認識装置20のハードウエア及びソフトウエアの構成を
機能ブロックで示している。
【0028】電子カメラ10からの画像信号は、デジタ
ル化されており、画像メモリ21に格納される。移動物
体認識部22は、画像メモリ21内の現画像を過去の画
像と比較して、移動物体を認識し、その位置、例えば移
動物体の図形の重心を検出する。例えば図1の場合、車
M1〜M6の位置P1〜P6を検出する。これらの位置
座標は、位置レジスタアレイ23の内容が位置レジスタ
アレイ24にコピーされた後、位置レジスタアレイ23
に保持される。移動物体認識部22はまた、移動物体間
の距離、例えば図3(A)に示す距離dを画素単位で測
定し、位置レジスタアレイ内の2位置の組み合わせと対
応させて、相対距離レジスタアレイ25に格納する。
【0029】V/D計算部26は、位置レジスタアレイ
23と24の対応するレジスタの内容の差を移動物体の
速度ベクトルとして求め、次に、全ての移動物体間の相
対速度ベクトルVを計算する。例えば、図3(A)に示
す車M1の速度ベクトルV1と車M2の速度ベクトルV
2の相対速度ベクトルVは図3(B)に示す如くなる。
V/D計算部26はさらに、各移動物体間について、相
対速度ベクトルVの2物体に対応した相対距離位置レジ
スタアレイ24の内容dを読み出し、ベクトルV/Dを
計算する。ここに、D=d+εであり、εはD>0を保
証するための定数であって、ε≧0である。εの値はd
の定義によって異なり、必ずD>0であればε=0とす
ることができる。
【0030】相対的なベクトルであるV/Dの時系列パ
ターンが同一であれば同一パターンであると認識される
ので、様々な衝突事故を認識することが可能となる。衝
突危険度は、相対速度ベクトルVが大きいほど、相対距
離dが小さいほど大きいと考えられるので、V/Dは衝
突危険度を示している。図1の場合、移動物体間の組み
合わせは15通りあり、各組み合わせについてV/Dを
計算する。その計算結果は、V/D時系列メモリ27に
格納される。
【0031】V/D時系列メモリ27は、例えばFIF
Oメモリであり、最も古いデータがV/D時系列メモリ
27から排出されるとともに、V/D計算部26からの
新たなデータがV/D時系列メモリ27格納される。次
の表1は、V/D時系列メモリ27内のデータ格納状態
を示している。
【0032】
【表1】
【0033】表1中、(V/D)ijtは、車MiとM
jの組の時刻tにおける危険度ベクトルV/Dの値を示
している。V/Dは、例えばX座標とY座標の値で表さ
れる。
【0034】V/Dが小さければ衝突が生じないので、
認識開始判定部28は、V/D計算部26の出力からそ
の絶対値|V/D|を計算し、これが設定値Cより大き
いかどうかを判定し、その結果をV/D時系列切り出し
部29に供給する。
【0035】|V/D|>Cと判定されると、その後所
定時間以内に交通事故が生ずるかもしれないので、該所
定時間経過後にV/D時系列切り出し部29はそのV/
D時系列をV/D時系列メモリ27から切り出す。
【0036】このようにすれば、|V/D|≦Cのとき
には衝突事故の認識をしないので、無駄な処理が省か
れ、処理速度が低速で安価な装置を用いて衝突事故認識
に必要な処理時間を確保することが可能になる。
【0037】ここで、様々な衝突事故を容易に認識可能
にするためには、類似の衝突事故を同種事故と分類する
必要がある。例えば、ある衝突事故の時系列パターン
と、静止座標系を回転させれば同一になる時系列パター
ンとが、同一観測系列になるようにした方が好ましい。
すなわち、交差点の形状やカメラ10の取付位置などに
観測系列が依存しないようにすべきである。
【0038】そこでベクトル回転部30は、V/D時系
列切り出し部29で切り出されたV/D時系列内の最初
の時刻t=1のベクトル(V/D)ij1のX軸に対す
る角度θを計算する。次に、このV/D時系列の各ベク
トルV/Dを−θ回転させる。例えば図3(C)に示す
如く回転させる。これにより、例えば図5に示す衝突パ
ターンのV/D時系列とこれを180度回転させた図6
に示すような衝突パターンのそれは同一になる。
【0039】簡単化のためにV/Dの替わりに速度ベク
トルのみで説明すると、図7に示す車M1及びM2の時
刻t=1〜4での速度ベクトルV11〜V14及びV2
1〜V24は、−θ回転により図8(A)に示す速度ベ
クトルV11a〜V14a及びV21a〜V24aにな
り、相対速度ベクトルは図8(B)に示すV=V1〜V
4となる。
【0040】量子化部31は、このように回転されたV
/D時系列の各V/Dについて、図4に示す如く、量子
化する。例えばV/D=vの時系列が{v0,v1,v
2}の場合、時系列{0,1,2}と量子化する。量子化
された観測量の時系列を観測系列と称す。例えば図5に
示す時刻t=4〜9の観測系列は{1,2,3,0,8,
7}となる。図6の衝突パターンについても同じであ
る。この量子化により、ある衝突パターンと類似の衝突
パターンは同一観測系列となるので、様々な衝突事故を
容易に認識可能になる。また、量子化により観測系列が
簡単な数値列になるので、その後の認識処理が簡単にな
る。
【0041】類似度計算部32は、具体的な衝突事故の
観測系列を参照系列とし、量子化部31から供給される
観測系列の参照系列に対する類似度を計算する。上記の
ことから、少ない参照系列で様々な衝突事故を容易に認
識可能になる。
【0042】公知のパターン類似度計算には、隠れマル
コフモデル(HMM)法やパターンマッチング法などが
あり、これらのいずれかを利用することができる。例え
ば、具体的な衝突事故の観測系列を学習系列としてパラ
メータを決定したHMMにより、量子化部31で得られ
た観測系列が生ずる確率P=EXP(μ)を計算する。
この計算方法は、後述する。学習系列に対称パターンが
含まれていなければ、量子化部31で得られた観測系列
と対称なパターンについても確率Pを計算し、確率Pの
大きい方の値を類似度とする。例えば、観測系列{0,
1,4,5,2}に対し、図4との関係でこれと対称なパ
ターンは{0,1,10,11,2}である。
【0043】衝突事故判定部33は、μが設定値μ0よ
り大きければ、この観測系列が衝突事故であると判定
し、その結果を出力する。この結果は、警察に自動通報
され、これにより救助活動が迅速に行われるとともに、
実地検分が迅速に行われて事故渋滞が緩和される。
【0044】図2の構成要素28〜33の処理は、コン
ピュータで実行することができる。
【0045】次に上記計算方法を説明する。
【0046】図9に示すような状態数Nのleft−t
o−rijht HMMを考える。HMMにおける状態
は観測量ではなく、具体的なイメージと対応していない
のが通常である。観測量は図4に示す如く量子化された
ものであり、時刻tでの観測量をOtと表記する。1≦
i≦Nなる任意のiについて、時刻(t−1)で状態i
であるとき、時刻tで状態jになる確率をaijと表記
し、このとき観測量Otを出力する確率をbij(Ot)と
表記すると、次の関係が成立する。
【0047】j≠iかつj≠i+1に対し、aij=0、
ij(Ot)=0 1≦i≦N−1なる任意のiに対し、aii+ai(i+1)
1 状態Nは最終状態であり、次の状態には遷移できず、a
NN=1 j=i又はj=i+1に対し、 bij(0)+bij(1)+・・・+bij(12)=1 例えば初期t=0に状態1である確率が1であり、時刻
t=1、2の観測系列{2,5}が生ずる確率Pは、時
刻t=1、2の状態系列{1,1}、{1,2}、{2,
2}、{2,3}の各々について観測系列{2,5}を出
力する確率の総和であり、次式で表される。
【0048】 P=a11・b11(2)・a11・b11(5)+a11・b11
(2)・a12・b12(5)+a12・b12(2)・a22
22(5)+a12・b12(2)・a23・b23(5) 初期t=0に状態iにいる確率をπiと表記する。HM
Mモデルは、初期状態の確率分布π={π1,π2,π
3,,,,,πN}と、上記確率aij及びbij(k)の集合と
により定まる。これらのパラメータをλと表記する。
【0049】以下、観測系列の長さをT、観測量の数を
L(図4ではL=13)と表記する。また、時刻tまで
に観測系列{O12...t}を出力し、状態iになる部
分系列観測確率をα(i,t)と表記する。
【0050】モデルパラメータλの下で観測系列{O1
2...T}が生ずる確率P(O12 ...T|λ)は一
般に、以下の3ステップからなる前向きアルコリズムで
計算されることが知られている。
【0051】ステップ1:t=1 α(1,1)=π1・b11 2≦j≦Nの各jに対し、 α(j,1)=π(j-1)・b(j-1)j+πj・bjj ステップ2:t=1,2,・・・,T−1の各々につい
て順次1≦j≦Nの各jに対し、
【0052】
【数1】
【0053】ステップ3:
【0054】
【数2】
【0055】確率Pは、公知の後ろ向きアルコリズムで
も、さらにViterbiアルゴリズムでも計算するこ
とができる(電子・情報工学講座19「情報処理概
論」、榑松明著、培風館)。
【0056】ここで、時刻tで状態iにいるとき、時刻
(t+1)からの観測系列が{Ot+ 1t+2・・・OT
となる確率をβ(i,t)と表記すると、次の関係式が
成立する。
【0057】
【数3】
【0058】また、学習系列{O12・・・OT}に関
し、時刻(t−1)に状態iにいて時刻tで状態jに遷
移する確率をγ(i,j,t)と表記する。
【0059】モデルパラメータは、衝突事故の観測系列
を学習系列として、Baum−Welchアルゴリズム
により求めることができる。すなわち、モデルパラメー
タに初期値を与え、1≦i≦N、1≦j≦Nの各i及び
jに対し、以下のステップ1でγ(i,j,t)を計算
し、得られたγ(i,j,t)を用いてステップ2でモ
デルパラメータを更新し、同様にステップ1と2の計算
をモデルパラメータが収束するまで繰り返すことによ
り、モデルパラメータが決定される。
【0060】ステップ1:γ(i,j,t)の計算
【0061】
【数4】
【0062】ここに、Fは状態の全集合{1,2,・・
・,N}であり、総和のiはi∈Fと同じ意味である。
【0063】ステップ2:モデルパラメータ更新
【0064】
【数5】
【0065】ここに、総和のi及びjはいずれもi∈F
及びj∈Fを意味している。また、t:yt=kは、時
刻tにおいて観測量kであるもののみの総和をとること
を意味している。
【0066】学習系列が複数ある場合には、例えば、1
つの学習系列につき上記方法でモデルパラメータを決定
し、このモデルパラメータを初期値として次の学習系列
につき上記方法でモデルパラメータを決定し、以降同様
の処理を繰り返す。
【0067】[第2実施形態]図10は、本発明の第2
実施形態に係る画像認識装置20Aのハードウエア及び
ソフトウエアの構成を機能ブロックで示している。
【0068】移動物体認識部22Aは、メモリを有し、
画像メモリ21内の画像の解像度を低減し、移動物体の
みの図10に示すようなパターン情報を該メモリに書き
込む。例えば、画像メモリ21の1フレームが480×
640ピクセルの場合、8×8ピクセルを1ブロックの
情報に低減して、60×80ブロックのパターン情報に
変換する。ブロック情報は、移動物体毎に異なる識別符
号であり、図10では図1中の車M1〜M6に対応して
それぞれ識別符号1〜6の情報が書き込まれている。
【0069】移動物体認識部22Aは、上記第1実施形
態と同様に移動物体の位置を検出し、また、異なる識別
符号の画素間距離の最小値を移動物体間距離dと決定す
る。
【0070】次に、本第2実施形態で用いる観測量につ
いて説明する。
【0071】図12(A)において、車M1及びM2の
時刻t=1〜4での速度ベクトルV11〜V14がX方
向になるようにそれぞれθ1〜θ4回転させたものを速
度ベクトルV11b〜V14bとする。速度ベクトルが
0である場合にはその方向を、0になる直前の速度ベク
トルの方向であるとみなす。θ1〜θ4回転に対応し
て、車M2の時刻t=1〜4での速度ベクトルV21〜
V24をそれぞれθ1〜θ4回転させたものを速度ベク
トルV21b〜V24bとする。i=1〜4について、
図12(B)に示す相対速度ベクトルVi=V2ib−
V1ibを求める。換言すれば、車M1の速度ベクトル
V1iのX軸に対する角度がθiのとき、車M1とM2
の相対速度ベクトル(V2i−V1i)を−θ回転させ
たベクトルViを求める。次に、ベクトルv=Vi/D
iを図4に示すように量子化したものを、時刻t=iで
の観測量として求める。ここにDiは、時刻t=iでの
上述のD=d+εである。
【0072】図13は、図12(A)を時計回りに90
゜回転させた速度ベクトル時系列パターンを示してい
る。この場合、上記同様に回転して得られる速度ベクト
ルV11b〜V14b及びV21b〜V24bは、図1
2(A)のそれと同一になり、観測系列も図12(A)
の場合と同一になる。
【0073】すなわち、この観測系列は、図13におい
て、車M1に固定された座標系から見た車M2の相対的
な観測量V/Dの時系列であり、地上静止座標系を回転
させても同一になる。
【0074】このような観測系列を用いれば、図10に
示す如く、V/D計算部26で求められたV/Dをベク
トル回転部30Aに供給してベクトルV/Dをリアルタ
イムで上記−θ回転させ、次にこれを量子化部31で図
4に示す如く量子化し、観測系列メモリ27Aに格納す
ることができる。
【0075】したがって、図2の場合のようにθ決定時
点を選ぶ必要がない。また、量子化後の観測量がメモリ
27Aに格納されるので、その必要な容量は、量子化前
のベクトル量が格納される図2のメモリ27のそれより
少なくなる。
【0076】他の点は、上記第1実施形態と同一であ
る。
【0077】次に、上記第2実施形態の効果を示す実験
結果について説明する。
【0078】(1)衝突動作パターンに対するモデルパ
ラメータλ1の決定 状態数N=7とした。aijの初期値を、 i=1〜6の各々についてaii=0.5 a77=1.0 とし、bijの初期値を、i=1〜6、j=i+1、k=
0〜2の各々について、 bii(k)=0.10、bij(k)=0.10 i=7、k=0〜2の各々について、 bii(k)=0.10 i=1〜6、j=i+1、k=3〜12の各々につい
て、 bii(k)=0.07、bij(k)=0.07 i=7、k=0〜2の各々について、 bii(k)=0.07 とした。また、初期t=0での状態確率分布を、 π1=1、i=2〜7に対しπi= 0 とした、さらに、以下の表2のNo1〜10の衝突事故
観測系列を学習系列とした。この学習系列はいずれも、
図5又は図6に示すような同一車線上の同一方向の車間
の衝突に関するものである。
【0079】
【表2】
【0080】このような条件の下で、上記Baum−W
elchアルゴリズムによりパラメータaijを次の表3
のように決定し、パラメータbij(0)〜bij(6)及
びb ij(7)〜bij(12)をそれぞれ以下の表4及び
表5のように決定した。
【0081】
【表3】
【0082】
【表4】
【0083】
【表5】
【0084】このモデルパラメータをλ1と表記する。
【0085】(2)他の動作パターンに対するモデルパ
ラメータの決定 上記同様にして、次の2つの動作パターンに対するモデ
ルパラメータλ2及びλ3を決定した。
【0086】交差点で同一方向に直列に隣合った車ど
うしが衝突を起こさずにストップ/スタート動作(タン
デム動作)するパターン 次の表6のNo1〜10の観測系列をこの動作の学習系
列とした。タンデム動作は、後ろの車が前の車に接近し
た後、前の車が後ろの車から離れるので、衝突動作に類
似している。
【0087】
【表6】
【0088】上記同様にして得られたモデルパラメータ
をλ2と表記する。
【0089】異なる車線で少なくとも一方が移動して
他方を通過する動作(通過動作)パターン 次の表7のNo1〜10の観測系列をこの動作の学習系
列とした。
【0090】
【表7】
【0091】上記同様にして得られたモデルパラメータ
をλ3と表記する。
【0092】同一車線上の同一方向の車間のある衝突事
故の観測系列O1、タンデムスタート/ストップ動作の
観測系列O2及び通過動作の観測系列O3の各々につい
て、モデルパラメータλ1、λ2及びλ3の下で該観測
系列が生ずる確率P(Oi|λj)=EXP(μij)、
i=1〜3、j=1〜3の指数部μijを計算したとこ
ろ、次の表8に示す結果が得られた。
【0093】
【表8】
【0094】この表から、例えば、 P(O1|λ1)/P(O2|λ1)=EXP(11.
2) P(O1|λ1)/P(O3|λ1)=EXP(29.
7) と確率比が大きく、動作分離性能が高いことがわかる。
【0095】次に、衝突事故のHMMモデルにおける状
態の理解を深めるための解析結果を説明する。
【0096】図14は、HMMモデルにおいて、衝突動
作(Accident)とこれに類似したタンデム動作(Tandem)と
の区別の程度が状態数Nによりどのように変化するかの
解析結果を示す。モデルパラメータは、40の衝突事故
の観測系列を学習系列として決定した。横軸は状態数N
であり、縦軸はこのモデルで計算された観測系列の確率
P=EXP(μ)の指数部を、複数の観測系列について
合計し、さらに−1を乗じた値である。図14中のAcci
dentは、前記40の観測系列に関するものであり、Tand
emは他の40のタンデム動作の観測系列に関するもので
ある。
【0097】この図から、Nが6又は7以上でTandemと
Accidentの区別がよくできることが分かる。
【0098】図15は、N=7のときの上記モデルパラ
メータの下で、状態iから状態j=i+1に遷移し又は
状態jに留まって観測量Oを出力する確率(bij(O)
+b jj(O))の具体例を視覚的に示す3次元棒グラフ
である。
【0099】HMMの状態には明示的な意味はないが、
このグラフから、状態を次のように解釈することができ
る。
【0100】無干渉(状態1及び2):観測量0 接近(状態3):観測量1又は2 急接近(状態4):観測量3 衝突の瞬間(状態5):観測量0 反動(状態6):観測量7又は8 停止(状態7):観測量0 [第3実施形態]図16は、本発明の第3実施形態に係
る画像認識装置20Bのハードウエア及びソフトウエア
の構成を機能ブロックで示している。
【0101】図10とは、構成要素34〜40のみ異な
る。まず、構成要素35〜39での処理を概説する。
【0102】画像メモリ21の1フレームが480×6
40ピクセルの場合、8×8ピクセルを1ブロックと
し、1フレームを60×80ブロックに分割する。ブロ
ック単位で移動物体が存在するかどうかを判断し、存在
すれば、移動物体毎に異なる識別符号を付す。図11で
は、升目がブロックを示しており、図1中の車M1〜M
6に対応してそれぞれ識別符号1〜6の情報がブロック
単位で書き込まれている。典型的には、一つの移動物体
に5〜30程度のブロックが属する。移動物体として
は、車、バイク、自転車、人などがある。
【0103】移動物体識別番号(ID)の生成及び消滅
処理を行うために、図17に示す如く、フレーム上(画
像メモリ21内)において、交差点への4つの入口及び
交差点からの4つの出口にそれぞれスリットEN1〜E
N4及びEX1〜EX4を初期設定しておく。
【0104】次に、構成要素34〜40での処理の詳細
を説明する。
【0105】背景画像は、移動物体が存在しない画像で
ある。背景画像生成部34は、画像メモリ21をアクセ
スし、例えば過去10分間の全画像について、対応する
ピクセルの画素値のヒストグラムを作成し、その最頻値
(モード)をそのピクセルの画素値とする画像を背景画
像として生成し、画像メモリ21内の所定領域に格納す
る。背景画像は、背景画像生成部34により定期的に更
新される。
【0106】ブロック情報メモリ35は、60×80ブ
ロック及び移動物体の情報を記憶するためのものであ
り、構成要素35〜39及びV/D計算部26によりア
クセスされる。画像メモリ21内のブロックは、アドレ
スにより識別される。なお、画像メモリ21とブロック
情報メモリ35とは同一メモリ内の異なる記憶領域であ
ってもよい。
【0107】ID生成/消滅部36は、画像メモリ21
から入口スリットEN1〜EN4内の画像データを読み
込み、これらスリット内に移動物体が存在するかどうか
をブロック単位で判定する。あるブロックに移動物体が
存在するかどうかは、このブロックの各ピクセルと背景
画像の対応するピクセルとの差の絶対値の総和が所定値
以上であるかどうかにより判定する。
【0108】入口スリット内の移動物体存在ブロック
が、識別符号を持ったブロックと隣接していない場合に
は、該移動物体存在ブロックに新たなIDを付す。
【0109】移動物体が存在すると判定された隣接ブロ
ックに同一IDを付すことにより、該移動物体に対応し
たクラスタができる。例えば図17中の入口スリットE
N1内にはID=1が生成されている。新たな移動物体
のブロックが、すでに存在する移動物体のブロックと隣
接しているときには、すでに存在する移動物体のIDと
同じにする。例えば図17中の入口スリットEN4内の
移動物体存在ブロックには、すでに存在する移動物体の
IDと同じID=5が付加される。
【0110】ID生成/消滅部36はさらに、画像メモ
リ21から出口スリットEX1〜EX4内の画像データ
を読み込み、これらスリット内に移動物体が存在するか
どうかをブロック単位で判定し、出口スリットを移動物
体が通過したときにそのIDを消滅させる。例えば図1
7中の出口スリットEX1内のブロックにIDが付され
ている状態から、IDが付されない状態に変化したとき
に、ID=3を消滅させる。消滅IDは、次の生成ID
として用いることができる。
【0111】動きベクトル算出部37は、画像メモリ2
1から画像データを読み込み、時刻(t−1)での前フ
レーム中の移動物体に属するブロック毎に独立に、これ
と時刻tでの現フレーム内の位置可変ブロックとの間
で、MPEGの符号化で用いられているブロックマッチング
を適用して、該ブロックの動きベクトルを求める。動き
ベクトル算出部37はさらに、移動物体毎に、求めた複
数の動きベクトルの代表値、例えばモード、メジアン又
は平均値を、その移動物体の動きベクトルと推定し、こ
れを、該移動物体の情報としてブロック情報メモリ35
に書き込む。代表値がメジアン又は平均値である場合に
は、中心分布から著しく離れる動きベクトルを除外した
後に代表値を求めることにより、より正確な値を得るよ
うにしてもよい。
【0112】例えば4ブロックの移動物体の動きベクト
ルが図20(A)に示す細線ベクトルである場合、平均
値である太線ベクトルをこの移動物体の動きベクトルと
推定する。
【0113】これにより、右折や左折する移動物体の速
度を高精度で測定して、衝突事故の認識率を高めること
が可能となる。
【0114】動きベクトル算出部37は、図17に示す
ID=2のような欠落のない移動物体のみならず、ID
=1、3及び5のような移動物体一部についても、その
動きベクトルを推定する。
【0115】なお、MPEGでの動きベクトルは、データ圧
縮のためのものであって、クラスタ単位の動きベクトル
という概念はない。また、動きベクトルが小さい場合に
は、ブロックマッチングの他にオプティカルフローの推
定も有用な手法として用いることができる。
【0116】ある移動物体に属するブロック内の各ピク
セルの色がほぼ同一である場合、すなわちテクスチャの
少ないブロックがクラスタに存在する場合、ブロックマ
ッチングやオプティカルフローなどの手法により正確な
動きベクトルを得ることができない。
【0117】そこで動きベクトル算出部37は、このよ
うなブロック、例えばそのブロック内の全画素値の散布
度、例えば分散σ2、標準偏差σ、平均偏差MD、四分
偏差QD、範囲R又はエントロピーなどが所定値以下で
あるブロックについては、動きベクトルを求めず、移動
物体の動きベクトル推定に使用しない。この場合であっ
ても、タイヤの部分のように色が一様でないブロック群
が存在するので、動きベクトル算出部37は移動物体の
動きベクトルを推定することができる。
【0118】動きベクトルを求めるべきブロックである
かどうかを判断するのに、エッジ画像を利用することが
できる。すなわち、原画像に対しエッジ強調処理を行
い、次いで2値画像に変換し、ブロック内に‘1’のエ
ッジ画素の数が所定値以下であれば、動きベクトルを求
めるのに適しないブロックと判定してもよい。エッジ強
調画像は、原画像に1次微分オペレータ又はラプラシア
ンオペレータなどの2次微分オペレータをかけて簡単な
フィルタ処理を行うことにより得られる。エッジ画像取
得には、Sobel、Roberts又はPrewittなどの公知手法を
用いてもよい。
【0119】次に、移動物体更新部38での処理の具体
例を説明する。
【0120】図18は、車がカメラ側へ向かった後、車
から見て右折する場合の、移動物体更新部の処理説明図
である。
【0121】画像P1中の車のクラスタ(ドット領域)
を、上記のようにして求めた動きベクトルだけ平行移動
させると、次フレームの予測画像P2が得られる。この
予測画像のクラスタ周囲を、1ブロック外側まで拡大さ
せて、太線で境界を示す領域を考える。次フレームの実
際の画像は、P3であるとする。この場合、移動物体更
新部38は、予測画像P2の拡大領域(太線枠内)に対
応する画像メモリ21内の領域について、ブロック毎
に、上記のように移動物体が存在するかどうかを判定
し、存在すると判定されたブロックに対しては、画像P
1中のクラスタに付されたIDと同じIDを付す。この
ようにして更新されたクラスタを予測画像P2中のクラ
スタと比較すると、結果として、予測クラスタから削除
されたブロック(斜線部)と、予測クラスタに追加され
たブロック(縦線部)とがある。
【0122】すなわち、移動物体更新部38は、ブロッ
ク情報メモリ35から移動物体のオブジェクトマップ及
び動きベクトルを読み込み、この動きベクトルだけ、該
移動物体を該オブジェクトマップ内で平行移動させ、さ
らにその周囲を拡大した範囲について、画像メモリ21
内の現フレームに移動物体が存在するかどうかをブロッ
ク毎に判定することにより、該移動物体のクラスタを更
新する。この動きベクトルは、時刻(t−1)でのフレ
ームと時刻tでのフレームとの間で動きベクトル算出部
37により求められたものであり、画像メモリ21内の
現フレームは時刻(t+1)でのものである。
【0123】このようにすることにより、カメラに分離
して写っていた車同士がその後、隣接し、その際にカメ
ラと移動物体との間の距離及びアングルに依存してクラ
スタのブロック数や形が変化しても、両者を異なる車と
して認識することが可能になる。例えば図19(A)に
示す1つのクラスタを2台の車として認識することがで
きる。
【0124】移動物体更新部38は、前記拡大範囲が移
動物体間で重なった場合、重なったブロックがどの移動
物体に属するかどうかが不明であるので、重なったブロ
ックはいずれの移動物体にも属さないとみなし、移動物
体が存在するかどうかを判定しない、すなわち重なった
ブロックにはIDを付加しない。
【0125】これにより、カメラに分離して写っていた
車同士がその後、重なり、その際にカメラと移動物体と
の間の距離及びアングルに依存してクラスタのブロック
数や形が変化しても、両者の動きベクトルが不正確にな
るのを防止することができる。
【0126】したがって、このような重なりや変化によ
り衝突事故の判定ができなくなるのを防止することがで
きる。
【0127】入口スリットなどで複数の移動物体が重な
って写り、単一クラスタと認識されても、動きベクトル
算出部37でブロック毎に動きベクトルを求めたとき、
図20(B)に示すように動きベクトルが複数のグルー
プに分かれる場合には、移動物体分割部39はグループ
毎に異なる移動物体と認識する。そして、これにともな
って新たなIDを生成し、各移動物体の動きベクトルを
上記のように推定し、各移動物体のこれらID及び動き
ベクトルをブロック情報メモリ35に書き込む。
【0128】移動物体分割部39はまた、動きベクトル
が複数のグループに分かれなくても、ブロック情報メモ
リ35内のオブジェクトマップについて、例えば時刻t
で図19(A)に示す単一クラスタが、次の時刻(t+
1)で図19(B)に示すように2つのクラスタに分か
れたとき、互いに異なる移動物体と認識し、これにとも
なって新たなIDを生成しこれをブロック情報メモリ3
5に書き込む。
【0129】移動物体間距離算出部40は、ブロック情
報メモリ35内のオブジェクトマップから、移動物体間
の最短距離dを求め、これをその2つのIDと共にV/
D計算部26に供給する。V/D計算部26は、この2
つのIDの動きベクトルをブロック情報メモリ35から
読み出し、上述の衝突危険度V/(d+ε)を算出す
る。
【0130】他の点は、上記第2実施形態と同一であ
る。
【0131】以下の表9は、本第3実施形態の装置によ
る認識実験の結果を示す。衝突、タンデム及び通過の動
作を認識するためのモデルパラメータの決定には、衝
突、タンデム及び通過の動作の各々について40個の学
習系列を用いた。上記モデルパラメータλ1、λ2及び
λ3に対応したこの場合のモデルパラメータをそれぞれ
λ1a、λ2a及びλ3aと表記する。
【0132】
【表9】
【0133】認識される観測系列のうち、O1、O2及び
3は上記第2実施形態で述べたものと同一であって、
それぞれ衝突、タンデム及び通過の動作を示している。
1Aは、O1と異なる交差点での衝突の観測系列であ
る。
【0134】[第4実施形態]図21は、本発明の第4
実施形態に係る画像認識装置を示している。
【0135】画像処理装置41は、図16の装置20B
から類似度計算部32及び衝突事故判定部33を除いた
部分と同一である。画像認識装置は、画像処理装置41
と、これら要素32及び33の替わりに用いられるデコ
ーダ42、シフトレジスタ43、ニューラルネットワー
ク44及びコンパレータ45とを備えている。
【0136】デコーダ42は、観測系列切り出し部29
Aからの4ビット観測量をデコードして、1ビットのみ
‘1’である13ビットにし、シフトレジスタ43の初
段に供給する。シフトレジスタ43は、13×20=2
60個のフリップフロップを備え、すなわち20ビット
のシフトレジスタを13個備え、図22に示す如く、1
ワード=13ビットの観測量を時刻t=0〜19につい
て保持している。t=19がシフトレジスタ43の初段
に相当している。
【0137】すなわち、シフトレジスタ43には、事故
を判定可能な数の観測量からなる観測系列の2値パター
ンが一時記憶されている。
【0138】図22に示す、シフトレジスタ43に同時
に保持されている観測系列は、衝突事故を示しており、
その観測量は、t=0〜3で0(無干渉)、t=3及び
4で1(接近)、t=5〜7で3(急接近)、t=8〜
10で0(衝突)、t=11で8(反動)、t=12〜
14で7(反動)、t=15〜19で0(停止)であ
る。
【0139】ニューラルネットワーク44は一般的な構
成であり、入力層、中間層及び出力層を備えている。入
力層のノード数は、シフトレジスタ43のビット数26
0に等しく、各ノードの入力値は‘0’または‘1’で
ある。入力層のノードにはそれぞれシフトレジスタ43
のビットが供給される。すなわち、シフトレジスタ43
の全ビットが入力パターンとして、ニューラルネットワ
ーク44の入力層に供給される。ニューラルネットワー
ク44の中間層のノード数は思考錯誤で定められ、例え
ば50である。本第4実施形態では、衝突事故のみを判
定するので、出力層のノード数は1であり、そのノード
の出力値の範囲は0〜1である。
【0140】ニューラルネットワーク44の出力は、参
照系列に対する類似度を示しており、コンパレータ45
の一方の入力端に供給され、コンパレータ45の他方の
入力端には参照値として0.5が供給される。ニューラ
ルネットワーク44の出力が0.5より大きいとき、コ
ンパレータ45の出力が‘1’となって、衝突事故と認
識される。
【0141】ニューラルネットワーク44のパラメータ
は、例えば通常のバックプロパゲーションアリゴリズム
でトレーニングされて定められる。前記参照系列は、こ
のパラメータを定めるための学習系列と考えることがで
きる。
【0142】以下の表10は、図23の装置による認識
実験の結果を示す。但し、ニューラルネットワーク44
の中間層及び出力層のノード数をそれぞれ50及び3と
して、衝突のみならず上述のタンデム及び通過の動作も
認識できるようにした。
【0143】
【表10】
【0144】この実験に使用した学習系列は、上記第3
実施形態で述べたものと同一である。また、認識される
観測系列も上記第3実施形態で述べたものと同一であ
る。
【0145】O1Aに対する上記第3実施形態での識結果
は正しかったが、表10はこれに対する認識結果が間違
っていることを示している。
【0146】これは、HMMとニューラルネットワーク
44との本質的な相違に基ずくものと考えられる。すな
わち、HMMでは状態遷移において同じ状態に留まる場
合を考慮するので、少ない学習データで時間軸方向に関
し伸縮した様々な類似パターンを吸収することができ、
これにより高い認識率が得られると考えられる。ニュー
ラルネットワーク44の欠点を解消するためには、学習
データ数を増やせばよい。
【0147】ニューラルネットワーク44を用いたこと
の利点は、リアルタイムで観測系列全体を同時入力する
ことができるので、高速処理が可能になるということで
ある。
【0148】[第5実施形態]図23は、本発明の第5
実施形態に係る画像認識装置を示している。
【0149】画像処理装置41Aは、図21の画像処理
装置41に部分系列観測確率算出部46を付加したもの
である。部分系列観測確率算出部46は、観測系列切り
出し部29Aから観測量が供給される毎に、上述の、H
MMにおける部分系列観測確率α(i,t)、すなわち
時刻tまでに観測系列{O12...t}を出力し、状態
iになる確率を、全ての状態i=1〜Nについて算出し
て出力する。α(1,t)〜α(N,t)は同時に、シ
フトレジスタ43Aの入力段に供給される。α(i,
t)が小数であるので、シフトレジスタ43Aのビット
数は図21のそれよりも多い。
【0150】図24は、上述の観測系列O1に対応して
おり、部分系列観測確率α(1,t)〜α(7,t)が
t=0〜19についてシフトレジスタ43Aに保持され
た場合のデータパターンを示している。
【0151】任意の時点におけるシフトレジスタ43A
内のデータ数は7×20=140であり、それぞれニュ
ーラルネットワーク44Aの入力層のノードに供給され
る。ニューラルネットワーク44Aの入力層の各ノード
の入力値は、0〜1の範囲の小数である。ニューラルネ
ットワーク44Aの出力は、コンパレータ45の一方の
入力端に供給され、図21と同様にして衝突事故が認識
される。
【0152】図25〜27はそれぞれ、上述の観測系列
1A、O2及びO3に対応した、t=0〜19についての
部分系列観測確率α(1,t)〜α(7,t)のデータ
パターンを示している。
【0153】以下の表11は、ニューラルネットワーク
44Aの出力層のノード数を3にして衝突、タンデム及
び通過を認識可能にした場合の、表10に対応した認識
実験結果を示す。部分系列観測確率α(1,t)〜α
(N,t)はHMMモデルパラメータに依存するが、衝
突のそれを用いた。タンデム及び通過のそれを用いて
も、学習系列が互いに類似しているので、同様の結果が
得られると考えられる。
【0154】
【表11】
【0155】この表から、第5実施形態のほうが第4実
施形態よりも認識率が高いことが分かる。
【0156】[第6実施形態]上記第3実施形態では、
移動物体更新部38において、時点(t−1)で予測し
た時点tでの移動物体の拡大範囲が他の移動物体のそれ
と重なった場合、重なったブロックがいずれの移動物体
にも属さないとみなし、移動物体IDを付加しなかっ
た。
【0157】しかし、移動物体の重なり部分の割合が大
きくなると、重なり部分について料移動物体の情報がな
くなるので、両移動物体を正確にトレースすることがで
きなくなる。
【0158】画像上でこのような移動物体間の重なりが
生じて、カメラから見て背面側の移動物体の一部が見え
なくなっても、カメラから見て前面側の移動物体は見え
るので、そのブロックがどの移動物体に属するかを、簡
単な画像処理により推定することを考える。また、時刻
tにおいて、移動物体間が重なっていないが接近してい
るため同一ブロック(混合ブロック)に2つの移動物体
の一部が属する場合であっても、時刻(t−1)では該
一部がそれぞれ異なるブロックに属している場合があ
る。この場合、時刻(t−1)での画像を参照すること
により、混合ブロックにどちらの移動物体がより多く属
しているかを容易に推定することを考える。
【0159】図28は、このような推定を用いて移動物
体をより正確にトレースすることを可能にする本発明の
第6実施形態に係る画像認識装置20Cを示す。
【0160】この装置は、画像メモリ21、ブロック情
報メモリ35及び移動物体更新部38に接続された不明
ID決定部47を備えている点で、図16の画像認識装
置20Bと異なる。
【0161】上述のように、移動物体更新部38は、ブ
ロック情報メモリ35に格納されている時点(t−1)
でのオブジェクトマップ及び各クラスタの動きベクトル
と、画像メモリ21に格納されている時点tでのフレー
ム画像とに基づいて、時点tでのオブジェクトマップを
作成する。作成中において、移動物体が存在すると判定
されたが上記のように移動物体IDが付されなかったブ
ロック(ID不明ブロック)が存在した場合には、作成
後に、これを不明ID決定部47に通知する。
【0162】不明ID決定部47は、これに応答して、
以下のようにしてID不明ブロックの移動物体IDを決
定する。
【0163】図29は、不明ID決定部47の入出力関
係を模式的に示す。
【0164】図29中、F1及びF2はそれぞれ時点
(t−1)及びtでの、図28の画像メモリ21に格納
されているフレーム画像の一部を概略的に示す。1つの
枡目は1画素を表している。BL1(t−1)及びBL
1(t)はそれぞれ、時点(t−1)及びtでの移動物
体M1の境界線であり。BL2(t)は時点tでの移動
物体M2の境界線である。
【0165】Q1及びQ2はそれぞれフレーム画像F1
及びF2に対応した、図28のブロック情報メモリ35
に格納されているオブジェクトマップの概略を示す図で
ある。1つの枡目は1つのブロックを表している。オブ
ジェクトマップは、移動体IDを持っているブロックと
持っていないブロックとからなる。図29では理解を容
易にするために、オブジェクトマップ中にも移動物体の
境界線を太線で表している。オブジェクトマップQ1及
びQ2中のハッチングは、IDが付されたブロックであ
ることを示している。右上がり斜線が付されたブロック
はID=1を持ち、右下がり斜線が付されたブロックは
ID=2を持っている。
【0166】オブジェクトマップQ2中のブロックB
1、B2及びB3のいずれにも移動物体M1とM2の一
部が含まれているので、移動物体更新部38は、これら
のブロックがいずれの移動物体に属するかを判定するこ
とができない。
【0167】不明ID決定部47は、これらフレーム画
像F1、F2、オブジェクトマップQ1及びQ2並びに
移動物体M1及びM2の動きベクトルに基づき、ブロッ
クB1、B2及びB3のIDを決定して、オブジェクト
マップQ3を得る。
【0168】以下、オブジェクトマップQ2中のブロッ
クB2が移動物体M1とM2のいずれに属するかを決定
する方法を、具体的に説明する。この決定は、ブロック
B2が移動物体M1であると仮定したときの評価値と、
ブロックB2が移動物体M2であると仮定したときの評
価値との大小関係に基づいて行なわれる。評価値は、以
下の要素(1)〜(3)を含んである。
【0169】(1)時点tでのオブジェクトマップのみ
に関係した評価要素UN ブロックB2と隣接する9ブロックについて、ID=1
を持ったブロックの数N1が多いほどブロックB2が移
動物体M1のブロックである確度が高いと考えられる。
そこで、ブロックB2のIDが1であることを評価する
要素UN(1)を例えば次式で表す。
【0170】UN(1)=α(N1−9)2 ここに、αは正の定数である。UN(1)の値が小さい
ほどブロックB2が移動物体M1に属する確度が高いと
言える。
【0171】同様に、ブロックB2のIDが2であるこ
とを評価する要素UN(2)を次式で表す。
【0172】UN(2)=α(N2−9)2 ここにN2は、ブロックB2と隣接する9ブロックのう
ち、ID=2を持ったブロックの数である。
【0173】図29の場合、UN(1)=16α、UN
(2)=64αである。したがって、オブジェクトマッ
プQ2のみから判断すると、ブロックB2は、ID=1
である確度が、ID=2である確度よりも高いと言え
る。
【0174】(2)時点(t−1)でのオブジェクトマ
ップと移動物体の動きベクトルとに関係した評価要素U
S 図30(A)は大略、図29中のオブジェクトマップQ
1とQ2とを重ね合わせ、かつ、ハッチングを削除した
ものである。図中、MV1は移動物体M1の動きベクト
ルであり、点線はBL1(t−1)をMVだけ平行移動
させたものである。
【0175】図30(B)に示す如く、ブロックB2を
−MV1だけ平行移動させることにより、移動物体M1
に固定された座標系から見て、時点(t−1)でのブロ
ックB2に対応すると推定される判定枠B21が得られ
る。時点tでブロックB2に移動物体M1の一部と移動
物体M2の一部とが含まれていても、時点(t−1)で
判定枠B21には移動物体M2の一部が含まれていない
場合があり、この場合、判定枠B21内を見ることによ
り、ブロックB2がID=1であるかどうかをより正確
に推定することが可能となる。
【0176】判定枠B21内の右上がり斜線部(ID=
1の部分)の面積S1が広いほど、ブロックB2がID
=1を持つことの確度が高くなると考えられる。
【0177】そこで、オブジェクトマップの各ブロック
を、8×8の同一IDアレイに拡大したマップを作成
し、この拡大マップ上で、図31(A)に示す如く、I
D=1の画素の個数を数えることにより、斜線部面積S
1を求める。図31(A)中の斜線部はID=1の領域
を示している。S1が64であるとき、ID=1である
確度が最大となる。そこで、ブロックB2のIDが1で
あることを評価する要素US(1)を例えば次式で表
す。
【0178】US(1)=β(S1−64)2 ここに、βは正の定数である。US(1)の値が小さい
ほどブロックB2が移動物体M1に属する確度が高いと
言える。
【0179】同様に、ブロックB2のIDが2であるこ
とを評価する要素US(2)を次式で表す。
【0180】US(2)=β(S2−64)2 ここにS2は、図31(A)に示す如く、ブロックB2
を−MV2だけ平行移動させて得られる判定枠B22内
のID=2の個数(右下がり斜線部面積)である。MV
2は、移動物体M2の動きベクトルである。
【0181】(3)時点t及び(t−1)でのフレーム
画像と移動物体の動きベクトルとに関係した評価要素U
D 図30(B)のブロックB2と判定枠B21とに対応し
た図29のフレーム画像F2及びF1中の局所画像の相
関が強いほど、ブロックB2がID=1である確度が高
いと言える。図31(B)に示すB2F及びB21Fは
それぞれ、図30中のブロックB2及び判定枠B21に
対応したフレーム画像F2及びF1中の局所画像を示
す。
【0182】ブロックB2のIDが1であることを評価
する要素UD(1)を例えば次式で表す。
【0183】UD(1)=γΣ|B21F(i,j)−
B2F(i,j)| ここに、γは正の定数であり,B21F(i,j)及び
B2F(i,j)はそれぞれ局所画像B2F及びB21
F内の第i行第j列の画素値であり、Σはi=1〜8及
びj=1〜8についての総和(ブロック内全画素につい
ての総和)を意味している。
【0184】UD(1)の値が小さいほどブロックB2
が移動物体M1に属する確度が高いと言える。
【0185】同様に、ブロックB2のIDが2であるこ
とを評価する要素UD(2)を次式で表す。
【0186】UD(1)=γΣ|B22F(i,j)−
B2F(i,j)| ここに、B22F(i,j)は局所画像B22F内の第
i行第j列の画素値であり、局所画像B22Fは図31
(A)中の判定枠B22に対応したフレーム画像F1中
の局所画像である。
【0187】不明IDブロックのIDをより正確に推定
するために、以上の(1)〜(3)を総合し、評価関数
の値 U(1)=UN(1)+US(1)+UD(1) と、 U(2)=UN(2)+US(2)+UD(2) との大小関係に基づいて、ブロックB2のIDを決定す
る。すなわち、 U12=U(1)−U(2) の値が負であればID=1と決定し、正であればID2
=2と決定する。U(1)及びU(2)の最小値はいず
れも0である。U12の値が小さいほど、ブロックB2
がID=1である確度が高くなる。
【0188】図29のオブジェクトマップQ2におい
て、上記具体例ではブロックB1及びB3のIDを考慮
しなかったが、実際には、ブロックB1、B2及びB3
のIDを同時に仮定し、ブロックB1、B2及びB3の
各々の評価関数の総和が最小となるように、ブロックB
1、B2及びB3のIDを決定する。 この際、メトロ
ポリス(Metropolis)アルゴリズム又はギッブスサンプ
ラー(Gibbs Sampler)アルゴリズムなどの確率的緩和
アルゴリズムを用いて最小値へ導く。また、評価値の極
小値を最小値と間違えないようにするとともに、極小の
谷から速く脱出するために、公知のシミュレーティッド
アニーリング(Simulated Annealing)法を適用する。
【0189】これにより、複数のID不明ブロックのI
Dを、より正確かつ容易に決定することができる。
【0190】定数α、β及びγは、実際の画像を処理し
て、移動物体トラッキング成功率が高くなるように定め
られる。
【0191】本発明者らは、上記のような評価関数を用
いることが適切であることを数学的に確かめた。すなわ
ち、マルコフ・ランダム・フィールド(Markov Random
Field)モデルを時空間画像に拡張して適用し、表現さ
れた画像のエネルギー分布を確率緩和過程により最適化
した結果、上記結果評価関数の最小化と同一になった。
この点は、後述する第7実施形態についても同様であ
る。
【0192】なお、上記入口スリットで複数の移動物体
が重なって写り、単一クラスタと認識された場合、これ
を不明ID決定部47で分離認識できないので、移動物
体分割部39は本第6実施形態においても用いられる。
次の表12は、本第6実施形態を適用した実験結果を
示す。
【0193】
【表12】
【0194】フレーム画像は、カラーではなく8ビット
の濃淡画像を用いた。
【0195】この表は、移動物体のトラキックング成功
率を、画像中の垂直方向と水平方向の交通の流れに分け
て示している。表は、交差点での実際の画像を解析して
得られたものであり、複雑な交通の流れも上記いずれか
の場合に分けられている。
【0196】トラッキングが失敗した例は、一方の移動
物体中に他方の移動物体が完全に重なった場合であっ
た。水平方向のトラッキング成功率が、左右方向のそれ
よりも高い理由は、左右方向の交通の方が、移動物体間
の重なりが垂直方向のそれよりも大きいためである。
【0197】[第7実施形態]上記第6実施形態では、
時点tでのID不明ブロックが、互いに接近し又は重な
った移動物体M1又はM2に属すると仮定して評価関数
の値の大小関係に基づき不明IDを決定した。
【0198】しかし、1つのブロックに3以上の移動物
体の一部が含まれる場合がある。また、多くの移動物体
について、互いに接近しようとしている移動物体がどれ
であるかを判断しなければならない。
【0199】他方、評価要素US及びUDはいずれも、
時点tと時点(t−1)での相関度が低いブロック間で
は値が大きく高いブロック間では値が小さい。これらの
値を見るだけで上記のことを判断することができる。ま
た、評価値の計算は容易である。
【0200】そこで、本発明の第7実施形態では、図2
8の不明ID決定部47において、ID不明ブロック
は、時点(t−1)のオブジェクトマップに含まれる全
てのID=1〜mのいずれかを持つと考えて、評価関数
の値の大小関係に基づき不明IDを決定する。
【0201】時点tでのID不明ブロックを、BK1〜
BKpで表し、ID不明ブロックBKiのIDがIDj
(1≦IDj≦m)であると仮定したときの、ID不明
ブロックBKiの上記評価関数U=UN+US+UDの
値をU(BKi,IDj)で表すと,次のようにしてI
D不明ブロックBK1〜BKpのIDを決定する。
【0202】すなわち、ID不明ブロックBK1〜BK
pのIDをそれぞれID1〜IDpと仮定し、評価関数
の値 UT=U(BK1,ID1)+U(BK2,ID2)+
・・・+U(BKp,IDp) を計算する。この値が最小になるID1〜IDpを、繰
り返し計算により求め、求めたものをID不明ブロック
BK1〜BKpのIDと決定する。この繰り返し計算に
おいて、上記確率的緩和アルゴリズム及びシミュレーテ
ィッドアニーリング法を適用する。
【0203】他の点は上記第6実施形態と同一である。
【0204】次に、図32を参照して、メトロポリスア
ルゴリズムを用いて解を求める場合を説明する。
【0205】(S1)ID不明ブロックBK1〜BKp
の識別符号ID1〜IDp及びその解IID1〜IID
pに初期値ID10〜IDp0を与える。i及びjに初
期値1を代入する(i←1、j←1)。UTの前回値U
TBに、大きな初期値UTBmaxを与える。
【0206】(S2)評価関数の値 UT=U(BK1,ID1)+U(BK2,ID2)+
・・・+U(BKp,IDp) を計算する。
【0207】(S3、S4)UT<UTBであれば、I
IDi←IDi、UTB←UT。
【0208】(S5)j←j+1 (S6、S7)j≦mであればブロックBKiのIDi
の値を更新してステップS2へ戻り、そうでなければ次
のステップS6へ進む。
【0209】(S8)IDi←IIDi、i←i+1 (S9)i≦pであればステップS2へ戻り、そうでな
ければ処理を終了する。
【0210】このようにして、ID不明ブロックBK1
〜BKpのIDがそれそれIID1〜IIDpと決定さ
れる。
【0211】理論的には、時点tでの全ブロックをID
不明ブロックとして上記計算により適正なIDを決定可
能である。
【0212】なお、本発明には外にも種々の変形例が含
まれる。
【0213】例えば、類似度計算部32ではパターンマ
ッチング度を求めてもよい。例えば、図4において観測
量の相違度を、横切る境界線の数と定義する。例えば、
観測量0と0は相違度0、観測量0と7は相違度1、観
測量4と8は相違度2である。参照系列が{1,2,0}
で観測系列が{3,2,1}の場合、対応する成分間の相
違度を求め、その総和(2+0+1)の逆数1/3を一
致度として求め、複数の参照系列について同様の計算を
行い、そのうち最も大きい一致度を類似度としてもよ
い。
【0214】また、参照系列に対し観測系列を時間軸方
向にずらし、ずらしたものについても類似度を計算し、
最大値を最終的な類似度として求めてもよいことは勿論
である。
【0215】さらに、上記実施形態では、図2又は図1
0の認識開始判定部28において|V/D|>Cと判定
された場合のみV/D時系列切り出し部29で切り出し
を行う場合を説明したが、認識開始判定部28、及び、
時系列切り出し部29又は29Aを省略し、時系列メモ
リ27又は27A内の各時点における全ての時系列に対
しブロック32で確率Pを計算する構成であってもよ
い。
【0216】また、本発明の適用は各種移動物体間衝突
事故に限定されず、衝突以外の動作に対しても本発明を
適用可能である。
【0217】さらにまた、要求される処理速度によって
は、図2又は図10の画像認識装置での全処理をコンピ
ュータで実行することも可能である。
【0218】また、評価関数は上記3要素のうち少なく
とも1つを含むものであればよい。各要素の上記関数は
一例であり、推定の確度が上がるほど一方向に変化(単
調変化)する種々の形のものを用いることができる。
【図面の簡単な説明】
【図1】本発明の移動物体間動作分類装置を交差点に配
置した場合を示す概略図である。
【図2】図1中の画像認識装置のハードウエア及びソフ
トウエアの構成を機能ブロックで示す概略図である。
【図3】図2中の処理を説明するためのベクトル図であ
る。
【図4】危険度ベクトルV/Dの量子化説明図である。
【図5】衝突事故の時系列パターン説明図である。
【図6】他の衝突事故の時系列パターン説明図である。
【図7】さらに他の衝突事故の車両速度ベクトル時系列
説明図である。
【図8】(A)は図7の車両速度ベクトルを−θ回転さ
せたものの時系列説明図り、(B)はこの時系列と相対
速度ベクトルの時系列とを示す図である。
【図9】left−to−right隠れマルコフモデ
ルの状態遷移図である。
【図10】本発明の第2実施形態に係る画像認識装置の
ハードウエア及びソフトウエアの構成を機能ブロックで
示す概略図である。
【図11】図10中の移動物体認識部での処理説明図で
ある。
【図12】(A)は衝突事故の車両速度ベクトル時系列
の各ベクトル回転説明図、(B)はこの時系列と相対速
度ベクトルの時系列とを示す図である。
【図13】図12(A)を時計回りに90゜回転させた
速度ベクトル時系列パターンを示す図である。
【図14】HMMモデルにおいて、衝突とこれに類似し
たタンデムの動作の区別度の状態数依存性を示す線図で
ある。
【図15】状態数が7のときの衝突動作において、状態
iから状態j=i+1に遷移し又は状態jに留まって観
測量Oを出力する確率の具体例を視覚的に示す3次元棒
グラフである。
【図16】本発明の第3実施形態に係る画像認識装置の
ハードウエア及びソフトウエアの構成を機能ブロックで
示す図である。
【図17】交差点への4つの入口及び交差点からの4つ
の出口に設定されたスリット及びブロックに付された移
動物体のIDを示す説明図である。
【図18】図16の移動物体更新部38での処理説明図
であって、それぞれ時刻(t−1)での画像、時刻tで
の予測画像及び時刻tでの実際の画像を示す図である。
【図19】(A)及び(B)は、図16の移動物体分割
部39での処理説明図であって、それぞれ時刻t及び時
刻(t+1)での画像を示す図である。
【図20】(A)は4ブロックの各々の動きベクトルに
基づいて得られる移動物体動きベクトルを示し、(B)
は、重なって写っている2つの移動物体に属するブロッ
クの各々の動きベクトルに基づいて得られる、2つの移
動物体の動きベクトルを示す図である。
【図21】本発明の第4実施形態に係る画像認識装置を
示すブロック図である。
【図22】図21中の一部を示すブロック図である。
【図23】本発明の第5実施形態に係る画像認識装置を
示すブロック図である。
【図24】図23中のシフトレジスタに同時に保持され
るデータであって、ある交差点での衝突動作の観測系列
1に対応した、t=0〜19についての部分系列観測
確率α(1,t)〜α(N,t)を示す表である。
【図25】図23中のシフトレジスタに同時に保持され
るデータパターンであって、他の交差点での衝突動作の
観測系列O1Aに対応した、t=0〜19についての部分
系列観測確率α(1,t)〜α(N,t)を示す表であ
る。
【図26】図23中のシフトレジスタに同時に保持され
るデータパターンであって、タンデム動作の観測系列O
2に対応した、t=0〜19についての部分系列観測確
率α(1,t)〜α(N,t)を示す表である。
【図27】図23中のシフトレジスタに同時に保持され
るデータパターンであって、通過動作の観測系列O3
対応した、t=0〜19についての部分系列観測確率α
(1,t)〜α(N,t)を示す表である。
【図28】本発明の第6実施形態に係る画像認識装置の
ハードウエア及びソフトウエアの構成を機能ブロックで
示す図である。
【図29】図28中の不明ID決定部の入出力関係を模
式的に示す図である。
【図30】(A)及び(B)は該不明ID決定部の処理
説明図である。
【図31】(A)及び(B)は該不明ID決定部の処理
説明図である。
【図32】本発明の第7実施形態に係る画像認識装置の
不明ID決定部での処理を示すフローチャートである。
【符号の説明】
10 電子カメラ 20、20A〜20C 画像認識装置 21 画像メモリ 22、22A 移動物体認識部 23、24 位置レジスタアレイ 25 相対距離レジスタアレイ 26、26A V/D計算部 27 V/D時系列メモリ 27A O時系列メモリ 28 認識開始判定部 29 V/D時系列切り出し部 29A 観測系列切り出し部 30、30A ベクトル回転部 31 量子化部 32 類似度計算部 33 衝突事故判定部 M1〜M6 車 34 背景画像生成部 36 ID生成/消滅部 37 動きベクトル算出部 38 移動物体更新部 39 移動物体分割部 40 移動物体間距離算出部 41、41A 画像処理装置 42 デコーダ 43、43A シフトレジスタ 44、44A ニューラルネットワーク 45 コンパレータ 46 部分系列観測確率算出部 47 不明ID決定部 B1、B2、B3 ブロック F1、F2 フレーム画像 Q1〜Q3 オブジェクトマップ MV1、MV2 動きベクトル B21、B22 判定枠 B21F、B2F 局所画像
───────────────────────────────────────────────────── フロントページの続き (72)発明者 上篠 俊介 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内 (72)発明者 坂内 正夫 神奈川県横浜市青葉区美しが丘2−56−7 (72)発明者 池内 克史 神奈川県横浜市青葉区つつじが丘5−22− 303 Fターム(参考) 5L096 BA02 CA02 EA43 FA06 FA35 GA02 GA05 GA19 GA28 GA55 HA04 HA11

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】 移動物体間の相対速度ベクトルVに関す
    る量を量子化した観測量Oの時系列である観測系列{O
    12...T}を求め、 該観測系列の参照系列に対する類似度を算出し、 該類似度に基づいて移動物体間の動作を分類することを
    特徴とする移動物体間動作分類方法。
  2. 【請求項2】 上記観測量Oは、各上記観測系列につい
    て、その最初の観測量O1の相対速度ベクトルの方向を
    基準方向として、上記相対速度ベクトルに関する量を量
    子化したものであることを特徴とする請求項1記載の移
    動物体間動作分類方法。
  3. 【請求項3】 上記観測量Oは、第1移動物体と第2移
    動物体の間の相対速度ベクトルを、基準方向に対する該
    第1移動物体の速度ベクトルの角度がθである場合に−
    θ回転させ、そのベクトルに関する量を量子化したもの
    であることを特徴とする請求項1記載の移動物体間動作
    分類方法。
  4. 【請求項4】 上記相対速度ベクトルに関する量は、V
    ・f(d)であり、ここにf(d)は上記移動物体間の
    距離dの単調減少関数であることを特徴とする請求項2
    又は3記載の移動物体間動作分類方法。
  5. 【請求項5】 上記相対速度ベクトルに関する量V・f
    (d)が所定値より大きいと判定したときのみ、該判定
    から所定時間後に得られた観測系列{O12 ...T}に
    ついて上記類似度を算出することを特徴とする請求項4
    記載の移動物体間動作分類方法。
  6. 【請求項6】 移動物体の撮影画像を処理して、移動物
    体間の相対速度ベクトルVに関する量を量子化した観測
    量Oの時系列である観測系列{O12...T}を求め、
    該観測系列の参照系列に対する類似度を算出し、該類似
    度に基づいて移動物体間の動作を分類することを特徴と
    する画像認識装置。
  7. 【請求項7】 電子カメラで撮影されたフレーム画像
    を、複数ピクセルからなるブロックに分割し、 移動物体の一部が含まれる各ブロックについて、次フレ
    ーム画像内で、該ブロックと同一形状で類似したものを
    見つけて、該ブロックの動きベクトルを求め、該移動物
    体に含まれる複数のブロックの各動きベクトルの代表値
    を、該移動物体の動きベクトルと決定する、 ことを特徴とする移動物体認識方法。
  8. 【請求項8】 上記フレーム画像に入口スリット及び出
    口スリットを設定し、 該入口スリット内に移動物体が存在するかどうかを上記
    ブロックの単位で判定し、 移動物体が存在すると判定された、該入口スリット内の
    ブロックが、識別符号を持ったブロックと隣接していな
    い場合には、該ブロックに新たな識別符号を付し、 移動物体が存在すると判定された隣接ブロックに同一識
    別符号を付し、 該出口スリットを通り抜けた移動物体の識別符号を消滅
    させる、 ことを特徴とする請求項7記載の移動物体認識方法。
  9. 【請求項9】 撮影された前フレーム画像及び現フレー
    ム画像が格納される画像記憶部と、 該前フレーム画像を、複数ピクセルからなるブロックに
    分割したときの、移動物体の一部が含まれる各ブロック
    について、該現フレーム画像内で、該ブロックと同一形
    状で類似したものを見つけて、該ブロックの動きベクト
    ルを求め、該移動物体に含まれる複数のブロックの各動
    きベクトルの代表値を、該移動物体の動きベクトルと決
    定する動きベクトル算出部と、 を有することを特徴とする移動物体認識装置。
  10. 【請求項10】 同一移動物体に属する上記ブロックに
    同一識別符号を持たせたオブジェクトマップが格納され
    るブロック情報記憶部と、 該オブジェクトマップに含まれる移動物体をその上記動
    きベクトルだけ平行移動させ、平行移動した該移動物体
    をその周囲のブロックまで拡大した範囲について、次フ
    レーム画像に移動物体が存在するかどうかをブロック毎
    に判定し、存在すると判定されたブロックに、該平行移
    動前の該移動物体のブロックと同じ識別符号を付加する
    ことにより、該次フレーム画像に対応したオブジェクト
    マップを生成する移動物体更新部と、 をさらに有することを特徴とする請求項9記載の移動物
    体認識装置。
  11. 【請求項11】 電子カメラで撮影されたフレーム画像
    を、複数ピクセルからなるブロックに分割し、同一移動
    物体に属するブロックに同一識別符号を持たせたオブジ
    ェクトマップを作成し、 時間的に前後のフレーム画像に基づいて、各移動物体の
    動きベクトルを求める移動物体認識方法であって、 現フレーム画像について移動物体が存在すると判定され
    たブロックの各々が、前フレーム画像に存在する移動物
    体のいずれかの識別符号を持っていると仮定したときの
    評価関数の値の大小関係に基づいて、該存在ブロックに
    付与すべき識別符号を決定する、 ことを特徴とする移動物体認識方法。
  12. 【請求項12】 上記評価関数は、時刻tでのオブジェ
    クトマップ上の着目ブロックと隣接するブロックの同一
    識別符号の数が多いほど、該着目ブロックが該同一識別
    符号を持つ確度が高くなる関数を含む、 ことを特徴とする請求項11記載の移動物体認識方法。
  13. 【請求項13】 上記評価関数は、時刻(t−1)のオ
    ブジェクトマップ上の判定枠内に含まれる、同一識別符
    号を持つブロックの面積が広いほど、着目ブロックが該
    同一識別符号を持つ確度が高くなる関数を含み、 該判定枠は、時刻tでのオブジェクトマップ上の該着目
    ブロックに対応した、該同一識別符号を持つ移動物体の
    上記動きベクトルに基づいて推定される、時刻(t−
    1)でのオブジェクトマップ上のブロック枠である、 ことを特徴とする請求項11又は12記載の移動物体認
    識方法。
  14. 【請求項14】 上記評価関数は、時刻tでのフレーム
    画像上の着目ブロックに対応した局所画像と、上記動き
    ベクトルに基づいて推定される、時刻(t−1)でのフ
    レーム画像上の該着目ブロックに対応する局所画像との
    相関度が高くなるほど、該着目ブロックが、該動きベク
    トルを持つ移動物体と同一識別符号を持つ確度が高くな
    る関数を含む、 ことを特徴とする請求項11乃至13のいずれか1つに
    記載の移動物体認識方法。
  15. 【請求項15】 撮影されたフレーム画像が格納される
    画像記憶部と、 該フレーム画像を複数ピクセルからなるブロックに分割
    し、ブロックに移動物体が存在するかどうかを判定し、
    同一移動物体に属するブロックに同一識別符号を持たせ
    たオブジェクトマップを作成するオブジェクトマップ作
    成部と、 該画像記憶部に格納された時間的に前後のフレーム画像
    に基づいて、各移動物体の動きベクトルを求める動きベ
    クトル算出部と、 現フレーム画像について移動物体が存在すると判定され
    たブロックの各々が、前フレーム画像に存在する移動物
    体のいずれかの識別符号を持っていると仮定したときの
    評価関数の値の大小関係に基づいて、該存在ブロックに
    付与すべき識別符号を決定するID更新部と、 を有することを特徴とする移動物体認識装置。
JP2000048981A 1999-06-01 2000-02-21 移動物体間動作分類方法及び装置並びに画像認識装置 Expired - Lifetime JP4420512B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000048981A JP4420512B2 (ja) 1999-06-01 2000-02-21 移動物体間動作分類方法及び装置並びに画像認識装置

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP15428199 1999-06-01
JP25803599 1999-09-10
JP11-154281 1999-09-10
JP11-258035 1999-09-10
JP2000048981A JP4420512B2 (ja) 1999-06-01 2000-02-21 移動物体間動作分類方法及び装置並びに画像認識装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009252293A Division JP4583493B2 (ja) 1999-06-01 2009-11-02 移動物体認識方法及び装置

Publications (2)

Publication Number Publication Date
JP2001148019A true JP2001148019A (ja) 2001-05-29
JP4420512B2 JP4420512B2 (ja) 2010-02-24

Family

ID=27320634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000048981A Expired - Lifetime JP4420512B2 (ja) 1999-06-01 2000-02-21 移動物体間動作分類方法及び装置並びに画像認識装置

Country Status (1)

Country Link
JP (1) JP4420512B2 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006655A (ja) * 2001-06-21 2003-01-10 Fujitsu Ltd 移動体を含む画像の処理方法及び装置
EP1345175A2 (en) 2002-03-07 2003-09-17 Fujitsu Limited Method and apparatus for tracking moving objects in pictures
JP2005190142A (ja) * 2003-12-25 2005-07-14 Foundation For The Promotion Of Industrial Science 交差点交通量計測装置および交差点交通量計測方法
US7227974B2 (en) 2001-05-11 2007-06-05 Fujitsu Limited Mobile unit identification apparatus and method and apparatus for automatically warning to mobile unit
JP2007188269A (ja) * 2006-01-12 2007-07-26 Univ Of Tokyo 画像上移動物体追跡方法及び装置
WO2009044785A1 (ja) * 2007-10-03 2009-04-09 Kabushiki Kaisha Toshiba 目視検査装置および目視検査方法
JP2009276149A (ja) * 2008-05-13 2009-11-26 Toshiba Corp 目視検査装置及び方法
JP2010113732A (ja) * 2009-12-28 2010-05-20 Fujitsu Microelectronics Ltd 移動物体認識方法及び装置
JP2010160802A (ja) * 2010-02-08 2010-07-22 Fujitsu Semiconductor Ltd 移動体を含む画像の処理方法及び装置
JP2012003780A (ja) * 2011-09-08 2012-01-05 Fujitsu Semiconductor Ltd 移動体識別方法及び装置
WO2016132775A1 (ja) * 2015-02-19 2016-08-25 シャープ株式会社 映像分析装置、映像分析方法、および制御プログラム
CN109271870A (zh) * 2018-08-21 2019-01-25 平安科技(深圳)有限公司 行人重识别方法、装置、计算机设备及存储介质
CN109863535A (zh) * 2016-10-11 2019-06-07 富士通株式会社 运动识别装置、运动识别程序以及运动识别方法
CN112183615A (zh) * 2020-09-25 2021-01-05 睿驰达新能源汽车科技(北京)有限公司 一种带有马尔可夫链数据处理的汽车风险用户筛查方法
CN112201118A (zh) * 2020-09-29 2021-01-08 深圳市优必选科技股份有限公司 一种逻辑板识别方法、装置及终端设备
CN112376382A (zh) * 2020-11-17 2021-02-19 深圳中科超远科技有限公司 边缘测距定位和绕开护栏异常段的方法
CN116342961A (zh) * 2023-03-30 2023-06-27 重庆师范大学 基于混合量子神经网络的时间序列分类深度学习系统

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4583493B2 (ja) * 1999-06-01 2010-11-17 富士通セミコンダクター株式会社 移動物体認識方法及び装置
US11993291B2 (en) * 2019-10-17 2024-05-28 Perceptive Automata, Inc. Neural networks for navigation of autonomous vehicles based upon predicted human intents

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7227974B2 (en) 2001-05-11 2007-06-05 Fujitsu Limited Mobile unit identification apparatus and method and apparatus for automatically warning to mobile unit
US7701482B2 (en) 2001-06-21 2010-04-20 Fujitsu Microelectronics Limited Method and apparatus for processing pictures of mobile object
JP2003006655A (ja) * 2001-06-21 2003-01-10 Fujitsu Ltd 移動体を含む画像の処理方法及び装置
US7298394B2 (en) 2001-06-21 2007-11-20 Fujitsu Limited Method and apparatus for processing pictures of mobile object
US7420589B2 (en) 2001-06-21 2008-09-02 Fujitsu Limited Method and apparatus for processing pictures of mobile object
JP4480299B2 (ja) * 2001-06-21 2010-06-16 富士通マイクロエレクトロニクス株式会社 移動体を含む画像の処理方法及び装置
EP1345175A2 (en) 2002-03-07 2003-09-17 Fujitsu Limited Method and apparatus for tracking moving objects in pictures
US7149328B2 (en) 2002-03-07 2006-12-12 Fujitsu Limited Method and apparatus for tracking moving objects in spatial differential frame pictures
JP2005190142A (ja) * 2003-12-25 2005-07-14 Foundation For The Promotion Of Industrial Science 交差点交通量計測装置および交差点交通量計測方法
JP4734568B2 (ja) * 2006-01-12 2011-07-27 国立大学法人 東京大学 画像上移動物体計測点決定方法及び装置
JP2007188269A (ja) * 2006-01-12 2007-07-26 Univ Of Tokyo 画像上移動物体追跡方法及び装置
WO2009044785A1 (ja) * 2007-10-03 2009-04-09 Kabushiki Kaisha Toshiba 目視検査装置および目視検査方法
US8976242B2 (en) 2007-10-03 2015-03-10 Kabushiki Kaisha Toshiba Visual inspection apparatus and visual inspection method
JP2009276149A (ja) * 2008-05-13 2009-11-26 Toshiba Corp 目視検査装置及び方法
JP2010113732A (ja) * 2009-12-28 2010-05-20 Fujitsu Microelectronics Ltd 移動物体認識方法及び装置
JP2010160802A (ja) * 2010-02-08 2010-07-22 Fujitsu Semiconductor Ltd 移動体を含む画像の処理方法及び装置
JP2012003780A (ja) * 2011-09-08 2012-01-05 Fujitsu Semiconductor Ltd 移動体識別方法及び装置
WO2016132775A1 (ja) * 2015-02-19 2016-08-25 シャープ株式会社 映像分析装置、映像分析方法、および制御プログラム
CN109863535B (zh) * 2016-10-11 2022-11-25 富士通株式会社 运动识别装置、存储介质以及运动识别方法
CN109863535A (zh) * 2016-10-11 2019-06-07 富士通株式会社 运动识别装置、运动识别程序以及运动识别方法
CN109271870A (zh) * 2018-08-21 2019-01-25 平安科技(深圳)有限公司 行人重识别方法、装置、计算机设备及存储介质
CN109271870B (zh) * 2018-08-21 2023-12-26 平安科技(深圳)有限公司 行人重识别方法、装置、计算机设备及存储介质
CN112183615A (zh) * 2020-09-25 2021-01-05 睿驰达新能源汽车科技(北京)有限公司 一种带有马尔可夫链数据处理的汽车风险用户筛查方法
CN112183615B (zh) * 2020-09-25 2023-08-18 睿驰达新能源汽车科技(北京)有限公司 一种带有马尔可夫链数据处理的汽车风险用户筛查方法
CN112201118A (zh) * 2020-09-29 2021-01-08 深圳市优必选科技股份有限公司 一种逻辑板识别方法、装置及终端设备
CN112201118B (zh) * 2020-09-29 2022-08-05 深圳市优必选科技股份有限公司 一种逻辑板识别方法、装置及终端设备
CN112376382A (zh) * 2020-11-17 2021-02-19 深圳中科超远科技有限公司 边缘测距定位和绕开护栏异常段的方法
CN116342961A (zh) * 2023-03-30 2023-06-27 重庆师范大学 基于混合量子神经网络的时间序列分类深度学习系统
CN116342961B (zh) * 2023-03-30 2024-02-13 重庆师范大学 基于混合量子神经网络的时间序列分类深度学习系统

Also Published As

Publication number Publication date
JP4420512B2 (ja) 2010-02-24

Similar Documents

Publication Publication Date Title
Hassaballah et al. Vehicle detection and tracking in adverse weather using a deep learning framework
JP4420512B2 (ja) 移動物体間動作分類方法及び装置並びに画像認識装置
CN108171112B (zh) 基于卷积神经网络的车辆识别与跟踪方法
CN109146921B (zh) 一种基于深度学习的行人目标跟踪方法
CN112750150B (zh) 基于车辆检测和多目标跟踪的车流量统计方法
JP5124592B2 (ja) 車両を検出および追跡するためのシステムおよび方法
Lin et al. Intelligent traffic-monitoring system based on YOLO and convolutional fuzzy neural networks
Kim Multiple vehicle tracking and classification system with a convolutional neural network
CN112738470B (zh) 一种高速公路隧道内停车检测的方法
JP4795479B2 (ja) 移動物体認識方法及び装置
CN110176022B (zh) 一种基于视频检测的隧道全景监控系统及方法
JP2002133421A (ja) 移動物体認識方法及び装置
Quinn et al. Traffic flow monitoring in crowded cities
Al Mamun et al. An efficient encode-decode deep learning network for lane markings instant segmentation
Al Mamun et al. Efficient lane marking detection using deep learning technique with differential and cross-entropy loss.
Bisht et al. Integration of hough transform and inter-frame clustering for road lane detection and tracking
Zhang et al. A comparative analysis of object detection algorithms in naturalistic driving videos
CN111832463A (zh) 一种基于深度学习的交通标志检测方法
CN116310748A (zh) 一种自动驾驶场景恢复及自动驾驶原型测试方法和系统
Ha et al. Improved Optical Flow Estimation In Wrong Way Vehicle Detection.
Nasehi et al. An Overview of the Type of Vehicle Detection Techniques
Paidi et al. Tracking vehicle cruising in an open parking lot using deep learning and kalman filter
Abdullah et al. Contour Based Tracking for Driveway Entrance Counting System
JP4818430B2 (ja) 移動物体認識方法及び装置
Al Mamun et al. A deep learning approach for lane marking detection applying encode-decode instant segmentation network

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040323

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070129

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20080728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4420512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131211

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term