JP4187448B2 - 画像における移動体追跡方法及び装置 - Google Patents

画像における移動体追跡方法及び装置 Download PDF

Info

Publication number
JP4187448B2
JP4187448B2 JP2002062439A JP2002062439A JP4187448B2 JP 4187448 B2 JP4187448 B2 JP 4187448B2 JP 2002062439 A JP2002062439 A JP 2002062439A JP 2002062439 A JP2002062439 A JP 2002062439A JP 4187448 B2 JP4187448 B2 JP 4187448B2
Authority
JP
Japan
Prior art keywords
value
image
time
block
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002062439A
Other languages
English (en)
Other versions
JP2003263626A (ja
Inventor
俊介 上條
正夫 坂内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Semiconductor Ltd
Foundation for the Promotion of Industrial Science
Original Assignee
Fujitsu Semiconductor Ltd
Foundation for the Promotion of Industrial Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Semiconductor Ltd, Foundation for the Promotion of Industrial Science filed Critical Fujitsu Semiconductor Ltd
Priority to JP2002062439A priority Critical patent/JP4187448B2/ja
Priority to EP03251309.5A priority patent/EP1345175B1/en
Priority to KR1020030013980A priority patent/KR100882368B1/ko
Priority to US10/379,560 priority patent/US7149328B2/en
Priority to CNB031197124A priority patent/CN1272747C/zh
Publication of JP2003263626A publication Critical patent/JP2003263626A/ja
Application granted granted Critical
Publication of JP4187448B2 publication Critical patent/JP4187448B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、時系列画像を処理して画像中の移動体(車、自転車、動物等の移動可能なもの)を追跡する移動体追跡方法及び装置に関する。
【0002】
【従来の技術】
交通事故の早期発見は、迅速な救助活動により人命救助の成功率を高めるだけでなく、警察の実地検分などを迅速にすることにより事故渋滞を緩和することもできるので、様々な交通事故の認識自動化が期待されている。交通事故の認識率を高めるためには、カメラで撮像された画像を処理して移動体を正確に追跡する必要がある。
【0003】
移動体追跡においては特に、画像上で重なった移動体を分離して認識することと、雲や建物の影などによる移動体の照度変化に影響されずに移動体を追跡することが問題となる。
【0004】
前者の問題は、本発明者の特開2001−148019号公報に開示されている、時空間マルコフモデルを用いて時空間の相関度を計算する方法により、解決することができる。後者の問題は、差分画像を用いることにより解決することができる(G.L.Gimel'farb, “Texture Modeling by Multiple Pairwise Pixel Interactions”, IEEE trans.
PAMI, Vol.18, No.11, 1996, pp1110-1114)。
【0005】
【発明が解決しようとする課題】
しかしながら、後者の差分画像をどのように変換して前者の方法に組み入れれば、移動体追跡の成功率を高くすることができるかという技術的課題が残されていた。
【0006】
本発明の目的は、このような事実に鑑み、画像上で移動体が重なったり移動体の照度が変化しても高い成功率で移動体を追跡することが可能な移動体追跡方法及び装置を提供することにある。
【0007】
【課題を解決するための手段及びその作用効果】
本発明の一態様では、撮像された第1時系列画像を処理して画像中の移動体を追跡する移動体追跡方法において、
(a)該第1時系列画像の各フレーム画像を空間的差分フレーム画像に変換して第2時系列画像を生成し、
(b)該時刻t1の空間的差分フレーム画像と、該時刻t1と隣り合う時刻t2の空間的差分フレーム画像との相関関係と、該時刻t1の空間的差分フレーム画像に含まれる移動体の識別結果とに基づいて、該時刻t2の移動体を識別するステップを有する。
【0008】
この構成によれば、ステップ(a)により第2時系列画像が照度変化に殆どよらず、該第2時系列画像に対しステップ(b)の処理が行われるので、画像上で移動体が重なったり移動体の照度が変化しても高い成功率で移動体を追跡することが可能となる。
【0009】
上記ステップ(a)において、上記変換前のフレームの着目画素の値を、該着目画素とその周囲の画素との差分値を該着目画素とその周囲の画素の値の最大値で除したものに比例した値Hに関する値Iに変換することにより、上記空間的差分フレーム画像の着目画素の値を求めれば、画素値が小さくて差分が小さい場合も、画素値及び差分が大きい場合とほぼ等価にエッジ情報を取得することができるので、移動体追跡の成功率をさらに高めることができる。
【0010】
上記ステップ(a)においてさらに、上記比例した値Hが所定範囲であるとき該値Hを略一次変換して上記値Iを求め、該比例した値Hが該所定範囲を越えるとき該値Hを、該空間的差分フレーム画像の画素の取り得る最大値Gmaxを超えないように抑圧した値に変換して上記値Iを求めれば、Hの分布に含まれるエッジ情報を殆ど低減させることなく値Iのビットを短くすることができ、画像処理の高速化が可能になる。
【0011】
本発明の他の目的、構成及び効果は以下の説明から明らかになる。
【0012】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を説明する。複数の図中の対応する同一又は類似の構成要素には、同一又は類似の符号を付している。
【0013】
図1は、交差点及びこれに配置された本発明の一実施形態の移動体追跡装置の概略を示す。
【0014】
この装置は、交差点を撮像して画像信号を出力する電子カメラ10と、その画像を処理して移動体を追跡する移動体追跡装置20とを備えている。
【0015】
図2は、この移動体追跡装置20の機能ブロック図である。移動体追跡装置20の構成要素のうち、記憶部以外はコンピュータソフトウェア、専用のハードウェア又はコンピュータソフトウエアと専用のハードウエアの組み合わせで構成することができる。
【0016】
電子カメラ10で撮影された時系列画像は、例えば12フレーム/秒のレートで、画像メモリ21に格納される。
【0017】
画像メモリ21は、3フレーム以上の記憶容量を有し、最も古いフレームが新しいフレーム画像で書き換えられる。
【0018】
画像変換部22は、画像メモリ21内の各フレーム画像について、これをフレームバッファメモリ23にコピーし、コピーされた画像のデータを用いて画像メモリ21内の対応するフレーム画像を空間的差分フレーム画像に変換する。この変換は2段階で行われる。
【0019】
元のフレーム画像の第i行第j列の画素値(輝度値)をG(i,j)とすると、第1段階における変換後の第i行第j列の画素値H(i,j)は、次式で表される。
【0020】
Figure 0004187448
ここにΣneighberpixcelsは、cを自然数とすると、di=−c〜c及びdj=−c〜cにわたっての総和を意味し、例えばc=1のとき、第i行第j列の画素と隣り合う8画素にわたる総和である。照度が変化すると、画素値G(i,j)とその付近の画素値G(i+di,j+dj)が同様に変化するので、H(i,j)の画像は、照度の変化に対し不変である。
【0021】
ここで、隣り合う画素の差分の絶対値は、一般に画素値が大きいほど大きい。移動体追跡の成功率を高めるには、画素値が小さくて差分が小さい場合も、画素値及び差分が大きい場合とほぼ等価にエッジ情報を取得した方が好ましい。そこで、H(i,j)を次のように規格化する。
【0022】
Figure 0004187448
ここに、Gi,j,maxは、H(i,j)の計算に用いた元の画素の値の最大値であり、例えばc=1の場合、第i行第j列の画素を中心とする3×3画素の値の最大値であり、Gmaxは画素値G(i,j)の取りうる最大値、例えば画素値が8ビットで表される場合、255である。以下、c=1、Gmax=255である場合について説明する。
【0023】
H(i,j)の取りうる最大値は、移動体毎に異なる。例えばG(i,j)=Gmaxで第i行第j列の画素に隣り合う8画素の値がいずれも0で有る場合、H(i,j)=8Gmaxとなって、H(i,j)を8ビットで表すことができない。
【0024】
一方、移動体のエッジ部のH(i,j)の値のヒストグラムを作成してみると、頻度の大部分がH=50〜110の範囲に含まれることがわかった。すなわち、Hの値が約110より大きくなるほど移動体追跡のためのエッジ情報の数が少ないので、重要度が低い。
【0025】
したがって、Hの値の大きい部分を抑圧して変換画素のビット長を短くすることにより、画像処理を高速に行なったほうが好ましい。そこで、第2段階として、このH(i,j)を、シグモイド関数を用いた次式により、I(i,j)に変換する。
【0026】
I=Gmax/{1+exp〔−β(H−α)〕} (6)
シグモイド関数はH=αの付近で線形性が良い。そこで、閾値αの値を、エッジ情報を持つHの度数分布の最頻値、例えば80にする。
【0027】
図3は、Gmax=255、α=80でβの値が0.001、0.02、0.05、0.20及び0.50の場合のHに対するIのグラフを示す。βの値の好ましい範囲は、実際に行なった移動体追跡の成功率との関係で後述する。
【0028】
画像変換部22は、上式(2)及び(3)に基づいて、画素値G(i,j)の画像を画素値I(i,j)の画像に変換する。
【0029】
図4(A)及び図4(B)は、交差点を撮影した元画像であり、図4(A)は建物の影が存在しない場合、図5(A)はこの影が存在する場合である。図4(B)及び図5(B)はそれぞれ、図4(A)及び図5(A)の元画像を画像変換部22で変換して得られた空間的差分画像である。これらの画像から、差分画像は照度の変化に対しほぼ不変であり、また、移動体の特徴が抽出されていることが判る。
【0030】
背景画像生成部24、ID生成/消滅部25及び移動体追跡部27は、画像メモリ21中の空間的差分フレーム画像に基づいて処理を行う。以下においては、空間的差分フレーム画像を単にフレーム画像と称す。
【0031】
背景画像生成部24は、記憶部と処理部とを備え、処理部は、画像メモリ21をアクセスし、例えば過去10分間の全てのフレーム画像の対応するピクセルについて画素値のヒストグラムを作成し、その最頻値(モード)をそのピクセルの画素値とする画像を、移動体が存在しない背景画像として生成し、これを該記憶部に格納する。背景画像は、この処理が定期的に行われて更新される。
【0032】
ID生成/消滅部25には、図6に示す如くフレーム画像内の、交差点への4つの入口及び交差点からの4つの出口にそれぞれ配置されるスリットEN1〜EN4及びEX1〜EX4の位置及びサイズのデータが予め設定されている。ID生成/消滅部25は、画像メモリ21から入口スリットEN1〜EN4内の画像データを読み込み、これら入口スリット内に移動体が存在するかどうかをブロック単位で判定する。図6中のメッシュの升目はブロックであり、1ブロックは例えば8×8画素であり、1フレームが480×640画素の場合、1フレームは60×80ブロックに分割される。あるブロックに移動体が存在するかどうかは、このブロック内の各ピクセルと背景画像の対応するピクセルとの差の絶対値の総和が所定値以上であるかどうかにより判定する。この判定は、移動体追跡部27においても行われる。
【0033】
ID生成/消滅部25は、ブロック内に移動体が存在すると判定すると、このブロックに新たなクラスタ識別符号IDを付与する。ID生成/消滅部25は、ID付与済ブロックと隣接しているブロックに移動体が存在すると判定すると、この隣接ブロックに付与済ブロックと同一のIDを付与する。このID付与済ブロックは入口スリットに隣接しているブロックも含まれる。例えば図6中の入口スリットEN1内のブロックにはID=1が付与され、入口スリットEN4内の移動体存在ブロックにはID=5が付与される。
【0034】
IDの付与は、オブジェクトマップ記憶部26内の対応するブロックに対して行われる。オブジェクトマップ記憶部26は、上述の場合60×80ブロックのオブジェクトマップを記憶するためのものであり、各部ブロックには、IDが付与されているかどうかのフラグ、IDが付与されている場合にはその番号と後述のブロック動きベクトルとがブロック情報として付与される。なお、該フラグを用いずに、ID=0のときIDが付与されていないと判定してもよい。また、IDの最上位ビットをフラグとしてもよい。
【0035】
入口スリットを通過したクラスタに対しては、移動体追跡部27により移動方向のブロックに対するIDの付与及び移動と反対方向のブロックに対するIDの消滅、すなわちクラスタの追跡処理が行われる。移動体追跡部27による追跡処理は、各クラスタについて出口スリット内まで行われる。
【0036】
ID生成/消滅部25はさらに、オブジェクトマップ記憶部26の内容に基づき出口スリットEX1〜EX4内のブロックにIDが付与されているかどうかを調べ、付与されていれば、出口スリットをクラスタが通過したときにそのIDを消滅させる。例えば図6中の出口スリットEX1内のブロックにIDが付されている状態から、IDが付されない状態に変化したときに、ID=3を消滅させる。消滅IDは、次の生成IDとして用いることができる。
【0037】
移動体追跡部27は、時刻(t−1)のオブジェクトマップ及びフレーム画像と、時刻tのフレーム画像とに基づいて、時刻tのオブジェクトマップを生成する。以下、これを説明する。
【0038】
1台のカメラで広い領域を撮像して移動体を追跡するために、路面に対し低カメラアングルで移動体を正面から撮像した場合、図7(A)〜(C)に示すように移動体同士の画像上での重なりが頻繁に生ずる。
【0039】
図8及び図9はそれぞれ、図7(A)及び(B)の拡大画像を示す。点線は、画像をブロックに分割するものである。図8において、重なった移動体M1とM2は、図2のオブジェクトマップ記憶部26において1つのクラスタC12に対応しており、移動体M1とM2とが識別されていないとする。これに対し、クラスタC3は1つの移動体M3に対応している。
【0040】
時刻tでの第i行第j列のブロックをB(t:i,j)で表す。図8に示すように、ブロックB(t−1:11,13)及びB(t−1:14,13)の動きベクトルをそれぞれV2及びV3で表す。動きベクトルV2及びV3の先端はいずれもブロックB(t−1:18,11)内に存在している。図9に示す時刻tの画像中の枠SB2及びSB3はそれぞれ、図8の画像中のブロックB(t−1:11,13)及びB(t−1:14,13)をそれぞれ動きベクトルV1及びV2移動させた領域に対応している。
【0041】
次に、動きベクトルV2及びV3の先端がブロックB(18,11)の中心に一致するように動きベクトルV2及びV3を平行移動させ、動きベクトルV2及びV3の方向を逆にし、図10に示すように、ハッチングが施されたブロックB(t−1:18,11)を−V2及び−V3移動させた枠SBR2及びSBR3を求める。枠SBR2及びSBR3内の画像はそれぞれ、図11のブロックB(t:18,11)内の画像が図10の時刻(t−1)のクラスタC12及びC3に属していた仮定したときの推定画像である。クラスタC12及びC3のIDをそれぞれID12及びID3とする。
【0042】
図10中の枠SBR2内の画像と図11中のブロックB(t:18,11)内の画像との相関度に関係した評価値UDを次式で計算し、この値をUD(ID12)とする。
【0043】
UD=Σ|SP(t−1:i,j)−BP(t:i,j)| (4)
ここにSP(t−1:i,j)及びBP(t:i,j)はそれぞれ、図10の枠SBR2内及び図11のブロックB(t:18,11)内の第i行第j列のピクセルの値であり、Σはi=1〜8及びj=1〜8についての総和(ブロック内全画素についての総和)を意味している。評価値UDの値が小さいほど相関度が高い。
【0044】
同様に図10中の枠SBR3内の画像と図11中のブロックB(t:18,11)内の画像との相関度に関係した評価値UDを計算し、この値をUD(ID3)とする。
【0045】
図10と図11の場合には、UD(ID3)<UD(ID12)となり、ブロックB(t:18,11)にID3を付与する。
【0046】
このように、ブロック毎の動きベクトルを用いることにより、複数の移動体を含む時刻tのクラスタC123に含まれるブロックに異なるIDを付与することができ、これにより1つのクラスタC123を異なるIDのクラスタに分割することが可能になる。
【0047】
図9のクラスタC123に属するブロックB(t:18,11)に対応するクラスタC12内のブロックB(t−1:11,13)及びクラスタC3内のB(t−1:14,13)の見つけ方は次の通りである。すなわち、ブロックB(t−1:i,j)の中心からブロックB(t−1:18,11)の中心までのベクトルをV(18−i,11−j)、ブロックB(t−1:i,j)の動きベクトルをV(t−1:i,j)と表記すると、
|V(18−i,11−j)−V(t−1:i,j)|<ΔV
を満たすV(t−1:i,j)をもつブロックB(t−1:i,j)を見つければよい。ここにΔVは定数であり、例えばブロックの1辺の画素数の3倍の値である。ブロックB(t:18,11)に対応するクラスタC12内のブロックが複数有り、又は、ブロックB(t:18,11)に対応するクラスタクラスタC3内のブロックが複数有る場合には、その各々についての評価値を求め、最も小さい評価値に対応したIDをブロックB(t:18,11)に付与する。
【0048】
図9のクラスタC123に属する他のブロックについても上記同様である。
【0049】
ブロックB(t:18,11)にID3を付与する上記の場合、このブロックの動きベクトルはほぼ動きベクトルV3であると推定できる。ブロックB(t:18,11)の動きベクトルをより正確に求めるために、枠SBR3を、この位置を中心として所定範囲内で1画素ずつシフトさせ、このシフト毎に該評価値を求め、評価値が最小(相関度が最大)になったときの枠SBR3の中心からブロックB(t:18,11)の中心へ向かうベクトルを、ブロックB(t:18,11)の動きベクトルと決定する。時刻tでのブロックの動きベクトルは、このブロックにIDを付与する毎に、このようなブロックマッチングで決定される。
【0050】
類似度をより正確に見積もるために、以下のような量も考慮する。
【0051】
図10中の枠SBR3の一部はクラスタC3からはみ出しており、その面積が広いほど、図11のブロックB(t:18,11)のIDがID3である確率が低いと考えられる。そこで、ブロックB(t:18,11)のIDがID3であると仮定し、枠SBR3内の、クラスタC3に属する画素数S(t−1)を求め、図10中の枠SBR3内の画像と図11中のブロックB(t:18,11)内の画像との相関度に関係した評価値USを次式で計算し、この値をUS(ID3)とする。
【0052】
US=(S(t−1)−64)2 (5)
評価値UDの値が小さいほど相関度が高い。同様にブロックB(t:18,11)のIDがID12であると仮定し、枠SBR2内の、クラスタC12に属する画素数Sを求めて評価値USを計算し、この値をUS(ID12)とする。図10と図11の場合には、US(ID12)=0であり、US(ID3)>US(ID12)である。
【0053】
上式(4)と(5)の一次結合U=αUD+βUSを評価関数とし、評価値Uが小さいほど類似度が高いと判定する。ここにα及びβは正の定数であり、類似度の評価がより正確になるように経験的に定められる。
【0054】
図11の時刻tにおける各ブロックにつき、上記同様にしてID12を付与するかID3を付与するかを決定する。評価値の差の絶対値|U(ID12)−U(ID3)|が所定値以下の場合には誤判定される確率が大きいので、IDを付与しないで残しておき、時刻tの画像について次の量を考慮する。例えば、図11のブロックB(t:18,11)のIDが未定でこれがID3であると仮定した場合、ブロックB(t:18,11)に隣接した8個のブロックについて、ID3が付与されている個数N(t)を求め、評価値UNを次式で計算し、この値をUN(ID3)とする。
【0055】
UN=(N(t)−8)2 (6)
評価値UNの値が小さいほど相関度が高い。同様に図11中のブロックB(t:18,11)がID12であると仮定した場合、ブロックB(t:18,11)に隣接した8個のブロックについて、ID12が付与されている個数Nを求め、評価値UNを計算し、この値をUN(ID12)とする。
【0056】
また、ほぼ同一の画素値が分布しているためにブロックマッチングで求めた時刻(t−1)の動きベクトルの誤差が大きく、このため上式(4)〜(6)の一次結合U=αUD+βUS評価値の差の絶対値|U(ID12)−U(ID3)|が所定値以下になる場合も考えられるので、さらに、ブロックB(t:18,11)に対応するブロックB(t−1:14,13)及びB(t−1:11,13)の各々の周囲のブロックの動きベクトルに着目することにより、類似度の評価をより正確化する。すなわち、ブロックB(t:18,11)がID3であると仮定して求められた、時刻(t−1)の対応するブロックB(t−1:14,13)の動きベクトルVC(t−1)=V3と、このブロックB(t−1:14,13)に隣接した8個のブロックのうちIDがID3であるNX=NX3個のブロック(図10中の小黒点付ブロック)の動きベクトルVBi(t−1)、i=1〜NXについて、評価値UVを次式で計算し、この値をUV(ID3)とする。
【0057】
UV=Σ|VC(t−1)−VBi(t−1)|2/NX (7)
ここにΣはi=1〜NXについての総和を意味する。評価値UVの値が小さいほど相関度が高い。同様に、ブロックB(t:18,11)がID12であると仮定して求められた、時刻(t−1)の対応するブロックB(t−1:11,13)の動きベクトルVC=V2と、このブロックB(t−1:11,13)に隣接した8個のブロックのうちIDがID12であるNX=NX12個のブロック(図10中の×印付ブロック)の動きベクトルVBj(t−1)、j=1〜NXについて、評価値UVを計算し、この値をUV(ID12)とする。
【0058】
上式(4)〜(7)の一次結合
U=aUN+bUS+cUD+fUV (8)
を評価関数とし、評価値Uが小さいほど類似度が高い(相関度が高い)と判定する。ここにa及びfも正の定数であり、類似度の評価がより正確になるように経験的に定められる。
【0059】
このようにして、図11のクラスタC123内のブロック毎にIDがID12であるかID3であるかが決定されるとともにその動きベクトルが決定される。すなわち、時刻tでのオブジェクトマップが決定され、図12に示すように、移動体M2が移動体M1とM3の両方に重なっていても、異なるIDをもつクラスタに分割することができる。
【0060】
同様にして、時刻tのフレーム画像とオブジェクトマップとから、時刻(t+1)でのオブジェクトマップが得られる。時刻tでC12とC3とが識別されていることと、時刻(t+1)のフレーム画像で移動体M1がM2から分離していることから、図13に示すように、時刻(t+1)では移動体M1〜M3に対応したC1〜C3が識別される。
【0061】
なお、時刻tのオブジェクトマップ作成前に、時刻(t−1)のオブジェクトマップXをワークエリアにコピーしてオブジェクトマップYとし、オブジェクトマップX上でIDがIDαである各ブロックiの動きベクトルViを、オブジェクトマップY上の該ブロックiに対応したブロック及びこれに隣接したID=IDαの全てのブロックの動きベクトルVj、j=1〜pを平均化したベクトル(ΣVj)/pで置き換えてもよい。このようにすれば、ブロック内のテクスチャが隣接ブロックのそれと類似しているために動きベクトルの誤差が大きい場合、この誤差が低減される。ワークエリアへのコピーは、平均化ベクトルを一意的に定めるためである。
【0062】
時刻tのオブジェクトマップは、次のようにして決定することもできる。
【0063】
時刻tでのオブジェクトマップ中のブロックi、例えば図11中のブロックB(18,11)が識別コードIDi及び動きベクトルVi、例えばID3及びV3を有すると仮定し、
ブロックiの枠をベクトル−Viだけ移動させたときの時刻(t−1)でのフレーム画像上の枠内の画像、例えば図10中の枠SBR3内の画像と、時刻tでのフレーム画像上のブロックiの画像との相関度を単位相関度として計算し、
時刻tの全ブロックにわたって単位相関度の総和を求め、この総和が最大になるように時刻tのオブジェクトマップを作成する。
【0064】
このアルゴリズムは、tと(t−1)を入れ替えても成立する。この場合、重なっていた移動体が分離した場合に、時間を遡ることにより、重なっていた移動体を分離することができる。
【0065】
図14(A)は、高速道路に設置された低カメラアングルの撮影画像の一部を示す。図14(B)は、図14(A)の画像を図2の画像変換部22で処理した画像を示す。図14(B)中の黒線矩形は、識別された移動体の範囲の概略を人が容易に把握できるようにするために、画像上に描かれたものであり、実際の移動体追跡処理とは無関係である。図14(C)は、図14(B)の差分画像に対応したオブジェクトマップ中のID分布図である。
【0066】
図15は、図2のカメラを高速道路に低カメラアングルで設置(図14(A)はこのカメラで撮影された画像の一部分)した場合の、上式(3)のシグモイド関数中のパラメータβに対する移動体追跡成功率の実験結果を示す。α=80、Gmax=255、30フレーム/secとした。また、上式(8)中の係数をa=1/2、b=1/256、c=32/1000000、f=1/4と試行錯誤的に決定した。このグラフから、βの値が0.05〜0.50の範囲で移動体追跡成功率が90%以上になることが判る。
【0067】
なお、本発明には外にも種々の変形例が含まれる。例えば、上式(3)のシグモイド関数の代わりに、図16に示すような簡単な折線関数を用いてH(i,j)をI(i,j)に変換する構成であってもよい。また、上式(2)中の分子の代わりに、従来のラプラシアンオペレータ等の差分オペレータを用いて変換したものであってもよい。ただし、上式(2)のように規格化したほうが、移動体追跡成功率を向上させることができる。
【0068】
以上の説明から明らかなように、本発明には、以下の付記が含まれる。
【0069】
(付記1)撮像された第1時系列画像を処理して画像中の移動体を追跡する移動体追跡方法において、
(a)該第1時系列画像の各フレーム画像を空間的差分フレーム画像に変換して第2時系列画像を生成し、
(b)該時刻t1の空間的差分フレーム画像と、該時刻t1と隣り合う時刻t2の空間的差分フレーム画像との相関関係と、該時刻t1の空間的差分フレーム画像に含まれる移動体の識別結果とに基づいて、該時刻t2の移動体を識別する、ステップを有することを特徴とする移動体追跡方法。(1)
(付記2) 上記ステップ(a)では、上記変換前のフレームの着目画素の値を、該着目画素とその周囲の画素との差分値に関する値Iに変換することにより、上記空間的差分フレーム画像の着目画素の値を求める、
ことを特徴とする付記1記載の移動体追跡方法。(2)
(付記3) 上記ステップ(a)において、上記差分値に関する値Iは、該差分値を上記着目画素とその上記周囲の画素の値の最大値で除したものに比例した値Hに関する値Iである、
ことを特徴とする付記2記載の移動体追跡方法。(3)
(付記4)上記比例した値Hが所定範囲であるとき該値Hを略一次変換して上記値Iを求め、該比例した値Hが該所定範囲を越えるとき該値Hを、該空間的差分フレーム画像の画素の取り得る最大値Gmaxを超えないように抑圧した値に変換して上記値Iを求めることを特徴とする付記3記載の移動体追跡方法。(4)
(付記5)上記比例した値Hを変数とするシグモイド関数f(H)
f(H)=1/{1+exp〔−β(H−α)〕}
に基づき上記値I=Gmax・f(H)を求め、ここにα及びβは正の定数であることを特徴とする付記4記載の移動体追跡方法。(5)
(付記6)上記定数βは0.05〜0.50の範囲の値であることを特徴とする付記4記載の移動体追跡方法。(6)
(付記7)上記ステップ(b)では、
上記時刻t1及びt2の空間的差分フレーム画像の各々を、複数画素を含むブロックに分割し、
上記時刻t1の移動体識別結果は、移動体の一部が含まれるブロックに付与された該移動体の識別コードと、該識別コードが付与されたブロックの動きベクトルとを含む該時刻t1でのオブジェクトマップであり、
該時刻t2のオブジェクトマップを作成することにより該時刻t2での移動体を識別する、
ことを特徴とする付記1乃至5のいずれか1つに記載の移動体追跡方法。(7)
(付記8)上記時刻t2でのオブジェクトマップ中のブロックiが識別コードIDi及び動きベクトルViを有すると仮定し、該ブロックiの枠をベクトル−Viだけ移動させたときの上記時刻t1での空間的差分フレーム画像上の枠内の画像と、該時刻t2での空間的差分フレーム画像上のブロックiの画像との相関度を単位相関度として計算し、該時刻t2の全ブロックにわたって該単位相関度の総和を求め、該総和が最大になるように該時刻t2のオブジェクトマップを作成することを特徴とする付記7記載の移動体追跡方法。(8)
(付記9)撮像された第1時系列画像を処理して画像中の移動体を追跡する移動体追跡装置において、
該第1時系列画像が格納される画像記憶部と、
該第1時系列画像の各フレーム画像を空間的差分フレーム画像に変換して第2時系列画像を生成し該画像記憶部に格納させる画像変換部と、
該時刻t1の空間的差分フレーム画像と、該時刻t1と隣り合う時刻t2の空間的差分フレーム画像との相関関係と、該時刻t1の空間的差分フレーム画像に含まれる移動体の識別結果とに基づいて、該時刻t2の移動体を識別することにより、該第2時系列画像中の移動体を追跡する画像処理部と、
を有することを特徴とする移動体追跡装置。(9)
(付記10)上記画像変換部は、上記変換前のフレームの着目画素の値を、該着目画素とその周囲の画素との差分値を該着目画素とその周囲の画素の値の最大値で除したものに比例した値Hに関する値Iに変換することにより、上記空間的差分フレーム画像の着目画素の値を求める、
ことを特徴とする付記8記載の移動体追跡装置。(10)
(付記11)上記画像変換部は、上記比例した値Hが所定範囲であるとき該値Hを略一次変換して上記値Iを求め、該比例した値Hが該所定範囲を越えるとき該値Hを、該空間的差分フレーム画像の画素の取り得る最大値Gmaxを超えないように抑圧した値に変換して上記値Iを求めることを特徴とする付記10記載の移動体追跡装置。
【0070】
(付記12)上記画像変換部は、上記比例した値Hを変数とするシグモイド関数f(H)
f(H)=1/{1+exp〔−β(H−α)〕}
に基づき上記値I=Gmax・f(H)を求め、ここにα及びβは正の定数であることを特徴とする付記10記載の移動体追跡装置。
【0071】
(付記13)上記定数βは0.05〜0.50の範囲の値であることを特徴とする付記12記載の移動体追跡装置。
【0072】
(付記14)上記画像処理部では、
上記時刻t1及びt2の空間的差分フレーム画像の各々を、複数画素を含むブロックに分割し、
上記時刻t1の移動体識別結果は、移動体の一部が含まれるブロックに付与された該移動体の識別コードと、該識別コードが付与されたブロックの動きベクトルとを含む該時刻t1でのオブジェクトマップであり、
該時刻t2のオブジェクトマップを作成することにより該時刻t2での移動体を識別する、
ことを特徴とする付記9乃至13のいずれか1つに記載の移動体追跡装置。
【0073】
(付記15)上記画像処理部は、上記時刻t2でのオブジェクトマップ中のブロックiが識別コードIDi及び動きベクトルViを有すると仮定し、該ブロックiの枠をベクトル−Viだけ移動させたときの上記時刻t1での空間的差分フレーム画像上の枠内の画像と、該時刻t2での空間的差分フレーム画像上のブロックiの画像との相関度を単位相関度として計算し、該時刻t2の全ブロックにわたって該単位相関度の総和を求め、該総和が最大になるように該時刻t2のオブジェクトマップを作成することを特徴とする付記14記載の移動体追跡装置。
【図面の簡単な説明】
【図1】交差点及びこれに配置された本発明の一実施形態の装置の概略を示す図である。
【図2】図1中の移動体追跡装置の機能ブロック図である。
【図3】図2の画像変換部で用いられるシグモイド関数を示すグラフである。
【図4】(A)は建物の影が存在しない交差点を撮影した元画像であり、(B)は(A)の画像を図2の画像変換部で変換した空間的差分画像である。
【図5】(A)は建物の影が存在する交差点を撮影した元画像であり、(B)は(A)の画像を図2の画像変換部で変換した空間的差分画像である。
【図6】交差点への4つの入口及び交差点からの4つの出口に設定されたスリット及びブロックに付された移動体のIDを示す説明図である。
【図7】移動体同士の画像上での重なりが頻繁に生ずる場合の説明図である。
【図8】オブジェクトマップ作成説明図である。
【図9】オブジェクトマップ作成説明図である。
【図10】オブジェクトマップ作成説明図である。
【図11】オブジェクトマップ作成説明図である。
【図12】オブジェクトマップ作成説明図である。
【図13】オブジェクトマップ作成説明図である。
【図14】(A)は高速道路に設置された低カメラアングルの撮影画像の一部を示す図であり、(B)は(A)の画像を図2の画像変換部で変換した画像に、図2の移動体追跡部で認識された移動体を含む矩形枠を付した図であり、(C)は(B)の画像に対応したオブジェクトマップを示す図である。
【図15】図2のカメラを高速道路に低カメラアングルで設置した場合の、シグモイド関数中のパラメータβに対する移動体追跡成功率の実験結果を示す図である。
【図16】図3のシグモイド関数の替わりに用いることができる簡単な折線関数を示す図である。
【符号の説明】
10 カメラ
20 移動体追跡装置
21 画像メモリ
22 画像変換部
23 フレームバッファメモリ
24 背景画像生成部
25 ID生成/消滅部
26 オブジェクトマップ記憶部
27 移動体追跡部

Claims (7)

  1. 撮像された第1時系列画像を処理して画像中の移動体を追跡する移動体追跡方法において、
    (a)該第1時系列画像の各フレーム画像を空間的差分フレーム画像に変換して第2時系列画像を生成し、
    (b)該時刻t1の空間的差分フレーム画像と、該時刻t1と隣り合う時刻t2の空間的差分フレーム画像との相関関係と、該時刻t1の空間的差分フレーム画像に含まれる移動体の識別結果とに基づいて、該時刻t2の移動体を識別する、
    ステップを有し、
    該ステップ(a)では、該変換前のフレームの着目画素の値を、該着目画素とその周囲の画素との差分値に関する値Iに変換することにより、上記空間的差分フレーム画像の着目画素の値を求め、
    該ステップ(a)において、該差分値に関する値Iは、該差分値を該着目画素とその該周囲の画素の値の最大値で除したものに比例した値Hに関する値Iである、
    ことを特徴とする移動体追跡方法。
  2. 上記比例した値Hが所定範囲であるとき該値Hを略一次変換して上記値Iを求め、該比例した値Hが該所定範囲を越えるとき該値Hを、該空間的差分フレーム画像の画素の取り得る最大値Gmaxを超えないように抑圧した値に変換して上記値Iを求めることを特徴とする請求項記載の移動体追跡方法。
  3. 上記比例した値Hを変数とするシグモイド関数f(H)
    f(H)=1/{1+exp〔−β(H−α)〕}
    に基づき上記値I=Gmax・f(H)を求め、ここにα及びβは正の定数であることを特徴とする請求項記載の移動体追跡方法。
  4. 上記定数βは0.05〜0.50の範囲の値であることを特徴とする請求項記載の移動体追跡方法。
  5. 上記ステップ(b)では、
    上記時刻t1及びt2の空間的差分フレーム画像の各々を、複数画素を含むブロックに分割し、
    上記時刻t1の移動体識別結果は、移動体の一部が含まれるブロックに付与された該移動体の識別コードと、該識別コードが付与されたブロックの動きベクトルとを含む該時刻t1でのオブジェクトマップであり、
    該時刻t2のオブジェクトマップを作成することにより該時刻t2での移動体を識別する、
    ことを特徴とする請求項1乃至のいずれか1つに記載の移動体追跡方法。
  6. 上記時刻t2でのオブジェクトマップ中のブロックiが識別コードIDi及び動きベクトルViを有すると仮定し、該ブロックiの枠をベクトル−Viだけ移動させたときの上記時刻t1での空間的差分フレーム画像上の枠内の画像と、該時刻t2での空間的差分フレーム画像上のブロックiの画像との相関度を単位相関度として計算し、該時刻t2の全ブロックにわたって該単位相関度の総和を求め、該総和が最大になるように該時刻t2のオブジェクトマップを作成することを特徴とする請求項記載の移動体追跡方法。
  7. 撮像された第1時系列画像を処理して画像中の移動体を追跡する移動体追跡装置において、
    該第1時系列画像が格納される画像記憶部と、
    該第1時系列画像の各フレーム画像を空間的差分フレーム画像に変換して第2時系列画像を生成し該画像記憶部に格納させる画像変換部と、
    該時刻t1の空間的差分フレーム画像と、該時刻t1と隣り合う時刻t2の空間的差分フレーム画像との相関関係と、該時刻t1の空間的差分フレーム画像に含まれる移動体の識別結果とに基づいて、該時刻t2の移動体を識別することにより、該第2時系列画像中の移動体を追跡する画像処理部と、
    を有し、
    該画像変換部は、該変換前のフレームの着目画素の値を、該着目画素とその周囲の画素との差分値を該着目画素とその周囲の画素の値の最大値で除したものに比例した値Hに関する値Iに変換することにより、上記空間的差分フレーム画像の着目画素の値を求める、
    ことを特徴とする移動体追跡装置。
JP2002062439A 2002-03-07 2002-03-07 画像における移動体追跡方法及び装置 Expired - Lifetime JP4187448B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2002062439A JP4187448B2 (ja) 2002-03-07 2002-03-07 画像における移動体追跡方法及び装置
EP03251309.5A EP1345175B1 (en) 2002-03-07 2003-03-05 Method and apparatus for tracking moving objects in pictures
KR1020030013980A KR100882368B1 (ko) 2002-03-07 2003-03-06 화상에 있어서의 이동체 추적 방법 및 장치
US10/379,560 US7149328B2 (en) 2002-03-07 2003-03-06 Method and apparatus for tracking moving objects in spatial differential frame pictures
CNB031197124A CN1272747C (zh) 2002-03-07 2003-03-07 用于跟踪图像中移动物体的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002062439A JP4187448B2 (ja) 2002-03-07 2002-03-07 画像における移動体追跡方法及び装置

Publications (2)

Publication Number Publication Date
JP2003263626A JP2003263626A (ja) 2003-09-19
JP4187448B2 true JP4187448B2 (ja) 2008-11-26

Family

ID=27764448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002062439A Expired - Lifetime JP4187448B2 (ja) 2002-03-07 2002-03-07 画像における移動体追跡方法及び装置

Country Status (5)

Country Link
US (1) US7149328B2 (ja)
EP (1) EP1345175B1 (ja)
JP (1) JP4187448B2 (ja)
KR (1) KR100882368B1 (ja)
CN (1) CN1272747C (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7113079B2 (en) * 2003-10-28 2006-09-26 Oakland University System and method for detecting a collision using a continuous mode hidden Markov model
CN101398891B (zh) * 2004-08-03 2010-12-08 松下电器产业株式会社 人物判定装置
JP3970877B2 (ja) * 2004-12-02 2007-09-05 独立行政法人産業技術総合研究所 追跡装置および追跡方法
GB0502371D0 (en) * 2005-02-04 2005-03-16 British Telecomm Identifying spurious regions in a video frame
US20060210159A1 (en) * 2005-03-15 2006-09-21 Yea-Shuan Huang Foreground extraction approach by using color and local structure information
KR100690279B1 (ko) * 2005-09-12 2007-03-09 주식회사 리트코 다목적 영상감지 시스템
JP4714872B2 (ja) * 2006-01-12 2011-06-29 国立大学法人 東京大学 画像上重畳移動物体分割方法及び装置
US20080100473A1 (en) * 2006-10-25 2008-05-01 Siemens Corporate Research, Inc. Spatial-temporal Image Analysis in Vehicle Detection Systems
KR100818289B1 (ko) * 2007-02-02 2008-03-31 삼성전자주식회사 비디오 영상 트레킹 방법 및 장치
DE102007010186A1 (de) * 2007-03-02 2008-09-04 Robert Bosch Gmbh Vorrichtung, Verfahren und Computerprogramm zur bildgestützten Verfolgung von Überwachungsobjekten
WO2011141990A1 (ja) * 2010-05-10 2011-11-17 富士通株式会社 画像処理装置および画像処理プログラム
US10204444B2 (en) * 2016-04-28 2019-02-12 Verizon Patent And Licensing Inc. Methods and systems for creating and manipulating an individually-manipulable volumetric model of an object
JP7022041B2 (ja) * 2018-09-27 2022-02-17 本田技研工業株式会社 画像選択装置
US11783707B2 (en) 2018-10-09 2023-10-10 Ford Global Technologies, Llc Vehicle path planning
US11460851B2 (en) 2019-05-24 2022-10-04 Ford Global Technologies, Llc Eccentricity image fusion
US11521494B2 (en) 2019-06-11 2022-12-06 Ford Global Technologies, Llc Vehicle eccentricity mapping
US11662741B2 (en) 2019-06-28 2023-05-30 Ford Global Technologies, Llc Vehicle visual odometry
CN112287805A (zh) * 2020-10-29 2021-01-29 地平线(上海)人工智能技术有限公司 运动物体的检测方法、装置、可读存储介质及电子设备
US12046047B2 (en) 2021-12-07 2024-07-23 Ford Global Technologies, Llc Object detection

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2953712B2 (ja) 1989-09-27 1999-09-27 株式会社東芝 移動物体検知装置
DE69232732T2 (de) 1991-03-19 2009-09-10 Mitsubishi Denki K.K. Messeinrichtung für sich bewegende Körper und Bildverarbeitungsanordnung zum Messen des Verkehrsflusses
US5210799A (en) * 1991-03-28 1993-05-11 Texas Instruments Incorporated System and method for ranking and extracting salient contours for target recognition
US5838828A (en) 1995-12-12 1998-11-17 Massachusetts Institute Of Technology Method and apparatus for motion estimation in a video signal
JP3435623B2 (ja) 1996-05-15 2003-08-11 株式会社日立製作所 交通流監視装置
EP0831422B1 (en) * 1996-09-20 2007-11-14 Hitachi, Ltd. Method of displaying moving object for enabling identification of its moving route, display system using the same, and program recording medium therefor
US6188778B1 (en) * 1997-01-09 2001-02-13 Sumitomo Electric Industries, Ltd. Traffic congestion measuring method and apparatus and image processing method and apparatus
WO2000031707A1 (en) 1998-11-23 2000-06-02 Nestor, Inc. Non-violation event filtering for a traffic light violation detection system
JP4420512B2 (ja) 1999-06-01 2010-02-24 富士通マイクロエレクトロニクス株式会社 移動物体間動作分類方法及び装置並びに画像認識装置
US6999004B2 (en) * 2002-06-17 2006-02-14 Siemens Corporate Research, Inc. System and method for vehicle detection and tracking

Also Published As

Publication number Publication date
KR20030074266A (ko) 2003-09-19
US20030169340A1 (en) 2003-09-11
EP1345175A2 (en) 2003-09-17
KR100882368B1 (ko) 2009-02-05
CN1272747C (zh) 2006-08-30
JP2003263626A (ja) 2003-09-19
EP1345175A3 (en) 2005-12-14
EP1345175B1 (en) 2017-02-22
CN1444183A (zh) 2003-09-24
US7149328B2 (en) 2006-12-12

Similar Documents

Publication Publication Date Title
JP4187448B2 (ja) 画像における移動体追跡方法及び装置
US10261574B2 (en) Real-time detection system for parked vehicles
EP1574992B1 (en) Method and device for tracking moving objects in images
JP4782123B2 (ja) カメラによりシーンに関して取得された映像中の移動物体を追跡する方法
CN101470809B (zh) 一种基于扩展混合高斯模型的运动目标检测方法
WO2012127815A1 (ja) 移動体検出装置および移動体検出方法
US20080112606A1 (en) Method for moving cell detection from temporal image sequence model estimation
KR101921071B1 (ko) 다중 프레임에서의 센서 융합을 통한 3차원 객체의 포즈 추정 방법 및 이를 구비한 장치
JP5371040B2 (ja) 移動物体追跡装置、移動物体追跡方法および移動物体追跡プログラム
JP2005509983A (ja) 確率的フレームワークを用いるブロブベースの分析のためのコンピュータビジョン方法およびシステム
Hsu et al. Industrial smoke detection and visualization
JP2001148019A (ja) 移動物体間動作分類方法及び装置、画像認識装置並びに移動物体認識方法及び装置
JP2002133421A (ja) 移動物体認識方法及び装置
JP2004094518A (ja) 人物追跡装置、人物追跡方法及びプログラム
KR100566629B1 (ko) 이동물체 검출 시스템 및 방법
CN115457080A (zh) 基于像素级图像融合的多目标车辆轨迹提取方法
CN114640807A (zh) 基于视频的对象统计方法、装置、电子设备和存储介质
Qasim et al. Performance evaluation of background subtraction techniques for video frames
JP4818430B2 (ja) 移動物体認識方法及び装置
JP2012226403A (ja) 画像領域追跡装置、画像領域追跡方法、および、コンピュータ・プログラム
Branca et al. Human motion tracking in outdoor environment
Islam et al. Non-Lane Based Heterogeneous Traffic State Measurement using Robust Vision System
Shokri et al. Proposing an Efficient Deep Learning Algorithm Based on Segment Anything Model for Detection and Tracking of Vehicles through Uncalibrated Urban Traffic Surveillance Cameras
CN115830304A (zh) 物体检测系统
Giardino et al. MULTIPLE VEHICLE DETECTION AND TRACKING USING AN ADAPTIVE SYSTEM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080711

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20080728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080909

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080909

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4187448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110919

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110919

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110919

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120919

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120919

Year of fee payment: 4

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120919

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130919

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term