JP2009282975A - 物体検出方法 - Google Patents

物体検出方法 Download PDF

Info

Publication number
JP2009282975A
JP2009282975A JP2009119673A JP2009119673A JP2009282975A JP 2009282975 A JP2009282975 A JP 2009282975A JP 2009119673 A JP2009119673 A JP 2009119673A JP 2009119673 A JP2009119673 A JP 2009119673A JP 2009282975 A JP2009282975 A JP 2009282975A
Authority
JP
Japan
Prior art keywords
frame
zone
zones
cluster
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009119673A
Other languages
English (en)
Other versions
JP5135284B2 (ja
Inventor
Vitaly Lopota
ラポータ ヴィタリー
Alexander Kondratyev
コンドラテフ アレキサンダー
Victor Yudin
ユージン ヴィクター
Sergey Polovko
ポロヴコ セルゲイ
Ekaterina Smirnova
スミノワ エカテリーナ
Kirill Stupin
ストゥーピン キリル
Lev Kogan
コーガン レフ
Dmitry Stepanov
ステファノフ ドミトリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Publication of JP2009282975A publication Critical patent/JP2009282975A/ja
Application granted granted Critical
Publication of JP5135284B2 publication Critical patent/JP5135284B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】人や車、置き去られた物体を検出する方法を提供する。
【解決手段】最初のフレームでは、所定の最小の閾値からなる定数画像の背景を、検出の閾値として記憶しておき、以降のフレームでは、数式を用いて検出物体の存否に応じたピクセル毎の更新定数の適応を行いながら背景と閾値を修正し、現在のフレームとバックグラウンドとの間の差分を計算し、閾値と比較し、別のある閾値を越えたエレメントを検出ゾーンへと結合し、検出ゾーンを篩い、影を分離するためにそのゾーンを分割し、追跡ゾーンを形成し、既に見つかっている物体のセグメントを探し、追跡ゾーンのクラスターを形成する。得られた長方形の箱の座標は、フレーム中に存在した物体の座標とみなされる。
【選択図】図4

Description

本発明は、オプトエレクトロニックシステム、情報処理の分野に関連し、明るさの定常的或いは一時的な変化や、葉や水面の動き、雨や雪による減衰等、複雑な外乱の下での複合的な警備システムや交通解析に好適に用いられるものである。
フレームを取得し、フレーム間の差分を計算し、閾値により2値化し、モルフォロジカル演算をし、物体の境界を決定するためにSobel演算子による計算をして、動く車を検出する方法(Dailey D.J.1999年)が知られる(例えば、非特許文献1参照。)。
その方法の欠点は、ノイズに対する耐性が弱いこと、及びそれによる検出精度の低さであり、一日の内の時刻、天候の状態、及び新たな静止物体が監視エリアに出現することによる、作動場所の領域内の変化の影響を顕著に受けることが原因している。
技術的基礎において最も関係のあるものとして、移動車両検出方法[露国特許第2262661号明細書(Eremin S. N.2005年)]がある(例えば、特許文献1参照。)。その方法は、フレームの取得、フレーム間の差分の計算、閾値による2値化、モルフォロジカル演算、Sobel演算子の計算、初期フレームの保存、特別な式に基づく背景の更新、フレームと背景との間の差分の検出、イメージのヒストグラムの算出、最大輝度の検出、存在する物体との比較による検証、混ざった物体の分離、車両の位置およびそのフレーム手段中でその車両が位置すると考えられる座標を表現する矩形の生成を含んでいる。
露国特許第2262661号明細書
Dailey D. J., Li L. Video image processing to create a speed sensor. Washington: University of Washingon,1999
上記方法の欠点は、影を物体−つまり車両として誤って検出すること、及び物体の実際のサイズを判断できないことである。その他の欠点は、視界に持ってこられ置き去られた物体或いはその位置を誤って検出した場合に、適切なピクセルにおける背景モデルの更新が完全に停止してしまい、結果的に、静止物体を背景へ自動的に統合できなくなることである。したがって、この方法は、車両の検出に関して十分高い品質を有していない。
本発明の目的は、誤った応答の数を減らし、動く物体の境界の検出精度を向上させることで、複雑な気象条件および変化する背景のもとで、テレビ監視セキュリティシステムの品質の向上させ、さらに機能性を拡張することである。
物体検出方法を提案する。その方法は、フレームの取得と、背景更新定数ρを用いて引き続き修正される背景の設定と、を有し、背景更新定数ρは、下記の規則に従い物体の検出に応じてピクセル毎に順次選ばれる。
ここで、0<ρ<1,kはファクターで0<=k<=1である。更に、現在のフレームと背景との間の差分の絶対値を計算し、閾値に基づく2値化が行われる。閾値は、ピクセル毎に式p=k σ で計算され、ここでkは定数であり、分散σは移動平均の式σ =(1−ρ)σi−1 +ρ(μ−Ii−1で計算され、ここでIi−1は前回のフレーム、μは現在の背景フレームである。2値化には、下記の規則が用いられる。
ここで、Iは現在のフレームである。更に、2値化フレーム中で予検出ゾーンを生成しながら、空間フィルタリングを行う。
物体の位置を表す予検出ゾーンは選別され(ふるいに掛けられ)、選ばれたものは複数のセクションへと分割される。そして、物体として独立の部分である、追跡ゾーンを形成する。いくつかの追跡ゾーンは選別され、残ったゾーンがクラスタとして統合される。その後クラスタの選別を行う。それらゾーンやクラスタの選別は、メートル単位のサイズおよび座標系を考慮して行われる。選別で残ったクラスタの座標は、その物体の座標としてみなされる。
規則1(式1)で与えられる小さな値の更新定数を用いた背景フレームの更新は、長時間定常的に検出ゾーンに存在する物体を、背景フレームに自動的に含ませることを可能にする。
それらの占有度、メートル単位のサイズおよび座標に基づく、多階層での対応するゾーン及びクラスタの選別という特殊な手法による空間(3次元)フィルタリングの実装は、誤った応答の数を減らし、また物体により検出ゾーンに投げかけられる影を分離することを可能にし、それによって本方法の品質及び正確性が改善される。物体のメートル単位によるサイズの判断は、物体の動きの軌跡の解析を可能にし、本方法の実装であるシステムの機能性を拡張する。従って、これらの顕著な特徴は、現状の問題の解決に本質的かつ必要なものである。
本発明によれば、輝度の変化を伴う動的なノイズにかかわらず、誤報の数を減らすことができる。
本発明の他の目的、特徴及び利点は添付図面に関する以下の本発明の実施例の記載から明らかになるであろう。
予検出ゾーンが矩形で表現されることを示す図。 予検出ゾーンが均一の幅のセクションに分割されることを示す図。 複数のセクションから、1つの新たな追跡ゾーンが形成されることを示す図。 セクションの、追跡ゾーンへの取り込みを示す図。
本発明で実装される装置は、少なくとも1台のビデオカメラと、オペレータに通知をしオペレータからコントロールコマンドを得るために用いる1台の監視端末と、メモリを有し同軸ケーブルまたはLANで接続された1台のコンピュータと、を備える。
本方法の実装は、例えば、カラーもしくは白黒の固定テレビカメラで撮影されたフレームの系列に用いることができる。コンピュータのメモリー中には、複数の要素からなる配列がフレーム毎に割り当てられる。画像は、ピクセル毎に輝度値の配列の中に保存され、例えば各ピクセルは、赤、緑および青のチャネルに分離されたり(RGB表現)、YUV形式に分離されたり、或いは1チャネルの輝度値(L. Shapiro 2006(L. Shapiro, J. Stokman. Computer vision. Moscow: BINOM. Knowledge Lab, 2006), 249-259)であってもよい。
処理を開始する前に、本方法を実現する装置のパラメータについての初期タスクが、例えば操作員のいるサイトにおける下記のような操作を用いて行われる:
−カメラ校正パラメータ(焦点距離、俯瞰の角度、軸周りの回転角度、カメラの設置高さ、センサの大きさ、センサの解像度)−これらのパラメータは、直接的な測定、カメラの仕様書、或いは公知の校正方法(Shapiro 2006, 567-578)による自動決定により知ることができる。
−セクションや追跡ゾーン(後述する)の幅wおよび高さh、物体の幅および高さの最大値及び最小値(WCMin,WCmax,HCMin,HCMax)、マスクゾーン(画像の一部であり、そのなかで検出された物体は無視される)の座標の設定。
−更新定数ρ、その更新定数を変更する係数k、およびその初期値k1
−背景との類似さの係数CBkg、セクションと追跡ゾーンとの重なりの係数、背景との近さ(近似度)の係数、及び直前のフレームから追跡ゾーンを探すために用いる類似度CTrCorr
−追跡ゾーンが現在のフレームで見つからなくなるまで存続する間のフレーム数、クラスターを形成する際に用いる追跡ゾーン間の距離(例えば、ピクセル数で指定する)、クラスタの生存時間の閾値LT。
−追跡ゾーンの幅および高さWMerge、HMerge
−セクションを追跡ゾーンに取り込む際の重なり合いの百分率COvr、追跡ゾーンを選別するための面積比の百分率CARatio
次に、本装置は、最初のフレームを取得し、背景フレームの初期化を行う。初期化は例えば、ゼロ値、或いは処理への復帰時間を短縮するために初期フレームそのもので行う。また、閾値フレームの初期化も所定の定数を用いて行い、その定数は例えば、閾値フレームの各ピクセルが1バイトに対応する場合、255である。
次に、本装置は、次のフレームを取得し、新たなフレーム毎に、下記のステップを行う。
[ステップ1]
それぞれのピクセルに対して、その場所で何らかの検出物体が存在するか否かに応じて規則1に基づき、更新定数がセットされる。更新定数は、例えばρ=0.001に選ばれ、ファクターk=0.1とする。更新定数は、検出の目的となる物体が背景フレームに溶け込まないように、且つ背景(草、水、その他)の動揺や緩やかな影の動きが除外されるように選ばれる。ファクタ(係数)は、停止した対象物が検出され続けるべき時間τに基づいて、k≒5/(ρτ)のように定められる。
[ステップ2]
背景フレームと標準偏差の更新を、下記の指数減衰移動平均の式によって行う。
μ=(1−ρ)μi−1+ρ Ii−1 (式3)
σ =(1−ρ)σi−1 +ρ(μi−1−Ii−1 (式4)
ここで、Iiは現在のフレーム、Ii-1は前のフレーム、μiは現在の背景フレーム、μi-1は前の背景フレーム、σi 2は現在の標準偏差、σi-1 2は前の標準偏差、iは現在のフレームの番号(インデックス)である。
[ステップ3]
ピクセル毎に、現在のフレームと背景フレームとの絶対差分を計算する(L. Shapiro 2006, 329-331)。すなわち差分フレームDを形成する。
=|I − μ| (式5)
[ステップ4]
下記式によって、閾値フレームを形成する。
=kσ, (式6)
ここで、kは定数の係数で3〜5である。ノイズの激しいフレームに対してはより大きな重みが選ばれ、静的なフレームに対しては小さな重みが選ばれる。
[ステップ5]
2値化を行う。2値化とは、規則2(式2)に基づき差分フレームを閾値フレームと比較し、2値化フレームrを形成することである。
[ステップ6]
もしカラーのフレームを使っている場合、カラーチャネルを1色に統合する。例えば、赤、緑、青の形式のピクセル値(RGB形式(L. Shapiro 2006, 249-252))の場合、統合は以下の規則で行われる。
m=r OR r OR r, (式7)
ここで、mは結果の値、r,r及びrはそれぞれ青、緑、赤のチャネルの値、“OR”はブーリアンのOR演算であり、もしいずれかの引数がゼロ以外であれば結果は1に等しく、それ以外は0となるものである。
空間フィルタリングは、下記の方法で達成される。
[ステップ7]
公知の方法(L. Shapiro 2006, 84-92)を用いて、二値化フレーム中で非ゼロ値を持つピクセルからなる全ての結合されたエリアにしるしを付け、それらエリアから矩形記述によって予検出ゾーンを形成する。その矩形の境界の座標は、ゾーンの座標を表すものとして扱われる。矩形は、公知の方法によって、各エリアの最も右、最も上、最も下、及び最も左の点を選び、それらを矩形の右辺、上辺、下辺、及び左辺に継承させることによって作られる(図1)。
[ステップ8]
予検出ゾーンのメートルサイズを、例えば校正されたカメラを用いることで計算し、またクラスターの幅wmin,wmaxや高さhmin,hmaxに基づいて選別(選り抜き)を行う。
[ステップ9]
2値化フレーム中にある複数の予検出ゾーンを、予検出ゾーンごとに均一の幅のセクションに分割する(図2)。幅wは、システムチューニングの段階で、想定される検出物体のサイズに基づいて設定され、例えば人や車に対しては、w=0.2mが選ばれる。ゾーンが整数個のセクションに分割されるように、セクションの幅はピクセル単位で定義される。即ち、ゾーンの中に収まり得る幅wのセクション全ての数を計算し、その数でゾーンの幅を除算することにより、セクションにふさわしい幅が各予検出ゾーンに対して得られる。
[ステップ10]
複数のセクションから、1つの新たな追跡ゾーンを形成する(図3)。そのために、まず、フレームの下端の中心点に最も近いセクションのある場所に、所定のメートルサイズの高さh(例えば、人に対しては、たとえその人の半分が、木で隠れていたり、背景と溶け込んでいたり、或いはその他の理由で検出されなかったりしても、その人が検出されるように、h=0.8mとする。)及び幅wを持つ1つの追跡ゾーンを創設する。次に、各セクションについて、創設した追跡ゾーンと重なっている面積(図4の斜線部分)を算出する。もし重なっている面積のセクション自体の面積に対する比が、特定の閾値(例えば60%)を超えた場合、そのセクションはその追跡ゾーンに取り込まれる(図4の斜線部分はそれを満たさないので取り込まれず、追跡ゾーン自体も破棄される)。その後は、未処理のセクションが残っている間、同様の処理を繰り返す(追跡ゾーンに、2番目に近いセクションの場所における所定の高さhの領域を暫定的に追加して、追跡ゾーンを拡張する。セクションが1つも取り込まれていないときは、追跡ゾーンは都度創設しなおされる。)。これにより、影のように横に細長く横たわる像は、(その部分のセクションが上記比の閾値を満たせずつ追跡ゾーンに取り込まれないので、)除外できることになる。
[ステップ11]
各追跡ゾーン毎に、そのゾーンに取り込まれたセクションの面積の総和と、セクションと当該ゾーンとが重複する面積の総和とを計算する。その重複面積総和のセクション面積総和との比が特定の閾値例えば50%を越えるような追跡ゾーンは、信頼できるものとし、そのゾーンに属したセクションは(別のゾーンに重複して属しないよう)本ステップの以後の処理から除外する。反対に、閾値を超えなかったゾーンは却下される。
[ステップ12]
各追跡ゾーンと背景フレームとを、例えば相関関数を計算することによって比較し、その相関関数の値が特定の閾値(60%)を超えたゾーンについては、ふるいで取り除かれる。次に、現在のフレームの中から、これまで前回フレームの中で扱われていた追跡ゾーンを検索(例えば、相関検出による)をする。とり得る任意の位置での類似度(相関)関数の値が特定の閾値、例えば70%を超える(即ち相関が認められる)ようなゾーンは、新たな追跡ゾーンのリストに追加される。連続するNmiss=5フレーム以上に亘り、相関が見つからないようなゾーンは、リストから除去される(L. Shapiro 2006, 219-225)。
[ステップ13]
新たな追跡ゾーンであって互いの位置が近いものを、クラスターに合体させる。例えば、境界間の距離が所定の値、例えば5ピクセル又は10cmより小さいような複数の追跡ゾーンは、1つのクラスターに統合される。
[ステップ14]
クラスタのメートルサイズ(実空間サイズ)を、例えば校正されたカメラを用いることで計算し、幅WCMin,WCMa、高さHCMin,HCMaxおよび所定の無視ゾーンとの相対位置に基づいてフィルタリングを行う(L. Shapiro 2006, 578-580)。例えば、もしクラスターの下寄りの中央部分(「足」)がその無視ゾーンに入っている場合、そのクラスターはフィルタリングにより除外される。
[ステップ15]
クラスタの生存時間を、そのクラスタが現れているフレームの数として決定する。そのために、(現在フレーム中に)残っているクラスターと前回フレームにおいて保存されたクラスターとの比較が行われる。互いの座標およびサイズが近く対を成しているクラスターについては、現在および前回のクラスターが対になっている間のフレーム数を、1づつ増加させながら記録する。ライフタイムが所定の閾値、例えば40に満たないクラスターは保持され、それ以外は、以降のこのステップでの処理から除外される。閾値は、生存時間の短いものが誤って物体として検出されるのを防ぐように、経験的に選ばれる。前回フレーム中にペアの相手が見つからないクラスターについては、後続フレームに対して初期値となるような、生存時間=1の値を設定する。
[ステップ16]
上記除外をくぐりぬけたクラスターの座標を、フレーム中に存在する物体の座標として採用する。
以下、動作の一例を、順を追って説明する。
ビデオ監視カメラから、モノクロのテレビフレームの系列を取得し、それを次から次へと、本発明を実現する装置の入力部へ入力する。校正方法を用いて、任意のフレームおよびカメラのスペック値の観点で、カメラパラメータを以下のように決定する。カメラの(光軸の地面に対する)傾き角の正弦及び余弦sin(α)=0.997564, cos(α)=0.069756、カメラの設置高さH=4m、カメラの(鉛直軸周りの)回転角の正弦及び余弦sin (β)=0, cos (β)=1、(カメラの撮像素子の)ピクセルのサイズWpx=0.0003, Wpx=0.0003、カメラの焦点距離f=0.24、フレーム上での1水平ラインの高さHhor=55。
更新定数ρ1=0.005、ファクターk=0.2、ファクターk1=3を設定する。
予検出ゾーンの大きさについての制限を、メートル単位で下記のように設定する:wmin=0.1, wmax=2, hmin=0.1,hmax=3。
背景との類似度の閾値CBkg=70%、追跡ゾーンの検索領域を形成するためのゾーン拡張係数(横および縦方向)СTrWExp=1 ,СTrHExp=1を設定する。即ちこのゾーン拡張係数は、追跡ゾーンを右及び左方向にそれぞれ追跡ゾーンの半分の幅だけ、高さ方向にも同様に拡張して得られる領域内で、検索が行われるように規定する。
前回フレームから追跡ゾーンを検索する際に用いる類似度CTrCorr=60%を設定する。
追跡ゾーンの充足率CTrFill=30%を設定する。
ゾーンの重複率CZOver=5%を設定する。
もし現在フレームにおいて見つからなくても、そのゾーンを保持する期間のフレーム数Nmf =1を設定する。
クラスターを形成する際に用いる追跡ゾーン間の距離CF=5ピクセルを設定する。
クラスターの生存時間の(上側の)閾値LT=40フレームを設定する。
クラスターに許容される幅および高さWCMin=0, WCMax=2m,HCMin=0, HCMax=4 mを設定する。
(併合されるべき)追跡ゾーンの幅及び高さWMerge=0.2m, HMerge=0.8 mを設定する。
追跡ゾーンにセクションを割り当てる(取り込む)ための基準となる重複率COver = 10%と、追跡ゾーンをフィルタで除去する際に用いる面積比の百分率CARatio = 50%を設定する。
値I1 0,0,R = 4, I1 0,0,G = 0, I1 0,2,B= 0, ..., I1 319,239,R = 176を持つ最初のフレームを取得し、背景フレームを初期化するのに用いる(В1=I1)。これ以降、上付き文字はフレーム中でのピクセル座標を意味し、最初のインデックスは列(カラム)、2番目は行、3番目はR,G又はBのカラーチャネルである。
カラーチャネル毎に閾値フレームのピクセル値を設定する:p1 0,0,R = 255, p1 0,1,G = 255, p1 0,2,B = 255,..., p1 319,239,B = 255。
次に、以下の値を持つ2番目のフレームを取得する。
I2 0,0,R= 6, I2 0,0,G = 0, I2 0,2,B= 6, ..., I2 319,239,B = 178。
背景フレームと閾値フレームを式(3、4、6)を用いて更新する。
B2 0,0,R= 4, B2 0,0,G = 0, B2 0,0,B= 0, ... , B2 319,239,B = 176,
P2 0,0,R = 255, p2 0,0,R = 255, p2 0,0,B = 255,..., p2 319,239,B = 255。
差分フレームDを式(5)を用いて計算して、
D2 0,0,R= 2, D2 0,0,G = 0, D2 0,0,B= 6, ... , D2 319,239,B = 2
を得、閾値フレームP2を用いて2値化すると、
γ2 0,0,R = 0, γ2 0,0,G = 0, γ 2 0,0,B = 0,..., γ2 319,239,B = 0
となる。
カラーチャネルを論理和のルールに基づいて統合し、
m2 0,0= 0, m2 1,0 = 0, m2 2,0= 0, ... , m2 319,239 = 0
を得る。非ゼロ値の領域(互いに隣接するピクセルが結合されてなる)にラベルを付け、領域数=0を得る。
2番目のフレームに対しては、処理はここで終わりである。
3番目から9750番目のフレームについても、同様の処理を繰り返す。
次に、以下の値を持つ9751番目のフレームを取得する。
I9751 0,0,R= 2, I9751 0,0,G= 0, I9751 0,0,B = 5, I9751 1,0,R = 0, I9751 1,0,G= 0, I9751 1,0,B = 1, I9751 2,0,R = 4, I9751 2,0,G= 3, I9751 2,0,B = 5, ..., I9751 319,239,B= 177。
背景フレームと閾値フレームの更新を、式(3、4、6)を用いて行う。
B9751 0,0,R= 2, B9751 0,0,G= 0, B9751 0,0,B = 2, B9751 1,0,R = 2, B9751 1,0,G= 0, B9751 1,0,B = 2, B9751 2,0,R = 8, B9751 2,0,G= 5, B9751 2,0,B = 9, ..., B9751 319,239,B= 176;
p9751 0,0,R= 6, p9751 0,0,G= 6, p9751 0,0,B = 6, p9751 1,0,R = 7, p9751 1,0,G= 6, p9751 1,0,B = 6, p9751 2,0,R = 5, p9751 2,0,G= 9, p9751 2,0,B = 11, ..., p9751 319,239,B= 6。
差分フレームDを式(5)を用いて計算して、下記を得る。
D9751 0,0,R= 6, D9751 0,0,G= 0, D9751 0,0,B = 3, D9751 1,0,R = 2, D9751 1,0,G= 0, D9751 1,0,B = 1, D9751 2,0,R = 6, D9751 2,0,G= 2, D9751 2,0,B = 4, ..., D9751 319,239,B= 1。
閾値フレームP9751を用いて2値化を行う。
γ9751 0,0,R= 0, γ9751 0,0,G= 0, γ9751 0,0,B = 0, γ9751 1,0,R = 0, γ9751 1,0,G= 0, γ9751 1,0,B = 0, γ9751 2,0,R = 0 γ9751 2,0,G= 0, γ9751 2,0,B = 0, ..., γ9751 319,239,B= 0。
カラーチャネルを論理和のルールに基づいて統合し、下記を得る。
m9751 0,0= 6, m9751 1,0 = 0, m9751 2,0= 3, m9751 3,0 = 2, m9751 4,0 = 0, m9751 5,0= 1, m9751 6,0 = 255, m9751 7,0 = 2, m9751 8,0= 4, ..., m9751 319,239 = 0。
非ゼロ値からなる結合された領域にラベルを付け、領域数=928を得る。
予検出ゾーンを、それを記述する矩形を生成することにより、以下の様に形成する。
Dz0= {62,14,62,15}, ... , Dz927={200,238,203,239}。
ここで、矩形の座標は(水平方向の左境界、上下方向の上境界、水平方向の右境界、上下方向の下境界)の順で与えられる。
メートル単位(実空間)による各サイズの大きさを計算し、Dz0の幅=1.38m,Dz0の高さ=2.66m,…, Dz927の幅=0.11m, Dz927の高さ=0.10 mを得る。
メートルサイズに基づいて予検出ゾーンのフィルタリング(スクリーニング、ふるい)をし、119個のゾーンを得る。
2値化フレームから得られたものであるその予検出ゾーンは、セクションに分割される。そして、Sz0 = (11,14,11,14 },..., Sz927= (200,238,203,239)の149個のセクションを得る。
複数のセクションから、新たな追跡ゾーンを形成する。まず最初に、全てのセクションの中でフレームの下端中央に最も近いセクション(即ち、(118,128,121,163)のセクション)のある場所に、所定のメートル高さ0.8m及び幅0.2mを満たす追跡ゾーンを創設する。その追跡ゾーンの座標(117, 150, 121, 163)を得る。対応するセクション(追跡ゾーンの位置を与えたセクション)は、このステップの以降の処理から除外される。
次に、残っているセクションそれぞれについて、追跡ゾーンとの重複面積を計算する。
座標(113, 126, 117, 165)を持つセクションについては、重複面積は14となる。セクション自体の面積は169である。その面積に対する重複面積の比が10%を超えないので、そのセクションは追跡ゾーンには組み入れられない。同様の処理が、残りのセクションについても繰り返される。
追跡ゾーン形成の処理は、未処理のセクションが残っている限り繰り返される。
各追跡ゾーンについて、その追跡ゾーンとセクションとの重複面積の和と、セクションの面積の和との比を計算する。座標{1,18,1,18}を持つ追跡ゾーンに対して、値0.97を得る。この値は所定の閾値より大きいので、その追跡ゾーンは信頼できると考えられる。
現在のフレームからは、座標{1,18,1,18}を持つ1個の追跡ゾーンのみを得る。
それらの境界の間の距離が5ピクセル未満であるような複数の追跡ゾーンを、1つのクラスタに統合する。本例では、1つのクラスタCl0={1,18,1,18}を形成する。
校正カメラを用いるなどして、クラスタのメートルサイズを計算する。クラスターの幅0.83m、高さ0.81mを得る。
クラスタの幅WCMin, WCMax,、及び高さHCMin, HCmaxに基づいて、スクリーニングを行う。クラスタがスクリーニングを通過すると、以降の処理が続けられる。
特に無視ゾーンが定義されていないので、無視ゾーンとの位置比較によるスクリーニングは行われない。
現在のクラスタそれぞれについて、生存時間を、そのクラスタがその間見出されていたフレーム数として定義する。それを行うために、前回フレームにおいて保存されていたクラスタと、残っているクラスタとを、(対応しているかどうか)比較する。
一致する前回のクラスタが見つからないので、クラスタCl0に対して1の生存時間がセットされる。
また、その値は所定の閾値40を超えていないので、現在のフレームではこれ以上の処理(判断)は行わないが、後続フレームでの処理のためそのクラスタの情報は保存される。
同様の処理を、次のフレームから9819番目のフレームまで繰り返す。
以下の値を持つ9820番目のフレームを取得する。
I9820 0,0,R= 3, I9820 0,0,G= 2, I9820 0,0,B = 0, I9820 1,0,R = 2, I9820 1,0,G= 1, I9820 1,0,B = 0, I9820 2,0,R = 9, I9820 2,0,G= 8, I9820 2,0,B = 13, ..., I9820 319,239,B= 176。
背景フレームと閾値フレームの更新を、式(3、4、6)を用いて行い、下記を得る。
B9820 0,0,R= 2, B9820 0,0,G= 0, B9820 0,0,B = 2, B9820 1,0,R = 2, B9820 1,0,G= 0, B9820 1,0,B = 2, B9820 2,0,R = 8, B9820 2,0,G= 5, B9820 2,0,B = 9, ..., B9820 319,239,B= 176;
p9820 0,0,R = 6, p9820 0,0,G= 6, p9820 0,0,B = 6, p9820 1,0,R = 7, p9820 1,0,G= 6, p9820 1,0,B = 6, p9820 2,0,R =12, p9820 2,0,G = 8, p9820 2,0,B= 11, ..., p9820 319,239,B= 6。
差分フレームDを式(5)を用いて計算して、下記を得る。
D9820 0,0,R= 1, D9820 0,0,G= 2, D9820 0,0,B = 2, D9820 1,0,R= 0, D9820 1,0,G = 1, D9820 1,0,B = 2, D9820 2,0,R= 1, D9820 2,0,G = 2, D9820 2,0,B = 3, ..., D9820 319,239,B= 0。
閾値フレームP9820を用いて2値化を行う。
γ9820 0,0,R= 0, γ9820 0,0,G= 0, γ9820 0,0,B = 0, γ9820 1,0,R = 0, γ9820 1,0,G= 0, γ9820 1,0,B = 0, γ9820 2,0,R = 0 γ9820 2,0,G= 0, γ9820 2,0,B = 0, ..., γ9820 319,239,B= 0。
カラーチャネルを論理和のルールに基づいて統合し、下記を得る。
m9820 0,0= 0, m9820 1,0 = 0, m9820 2,0= 0, m9820 3,0 = 0, m9820 4,0 = 0, m9820 5,0= 0, m9820 6,0 = 0, m9820 7,0 = 0, m9820 8,0= 0, ..., m9820 319,239 = 0。
非ゼロ値からなる結合された領域にラベルを付け、領域数=837を得る。
予検出ゾーンを、それを記述する矩形を生成することにより、以下の様に形成する。
Dz0= {115,19,116,22}, ... , Dz836={4,163,12,167}。
メートル単位(実空間)による各サイズの大きさを計算し、Dz0の幅=1.38m,Dz0の高さ=2.66m,…, Dz836の幅=0.36m, Dz836の高さ=0.29mを得る。
メートルサイズに基づいて予検出ゾーンのフィルタリングをし、78個のゾーンを得る。
2値化フレームから得られたものであるその予検出ゾーンは、セクションに分割される。そして、Sz0 ={115,21,115,21},..., Sz108 ={4,163,12,167}の109個のセクションを得る。
複数のセクションから、新たな追跡ゾーンを形成する。まず最初に、全てのセクションの中でフレームの下端中央に最も近いセクション(即ち、(100,135,104,165)のセクション)のある場所に、所定のメートル高さ0.8m及び幅0.2mを満たす追跡ゾーンを創設する。その追跡ゾーンの座標(100, 152, 104, 165)を得る。対応するセクションは、このステップの以降の処理から除外される。
次に、残っているセクションそれぞれについて、追跡ゾーンとの重複面積を計算する。
座標{100,135,104,165}を持つセクションについては、重複面積は155となる。セクション自体の面積は155である。その面積に対する重複面積の比が10%を超えるので、そのセクションは追跡ゾーンには組み入れられる。同様の処理が、残りのセクションについても繰り返される。
残りのセクションは、重複(共通部分)がないので併合されない。
追跡ゾーン形成の処理は、未処理のセクションが残っている限り繰り返される。
各追跡ゾーンについて、その追跡ゾーンとセクションとの重複面積の和と、セクションの面積の和との比を計算する。座標{100, 152, 104, 165}を持つ追跡ゾーンに対して、値1を得る。この値は所定の閾値より大きいので、その追跡ゾーンは信頼できると考えられる。
結果的に、座標{108, 149, 112, 162}、{139, 69, 140, 76}、…、{2, 26, 2, 27}を持つ37個の追跡ゾーンを得る。
正規化相関の計算により、追跡ゾーンを背景フレームと比較し、類似度(正規化相関)が閾値60%を超えなかった、座標{116, 21, 116, 22}を持つゾーン1つを得る。そのゾーンは保持するが、それ以外の閾値を超えたゾーンは破棄する。
新たな追跡ゾーンの形成後、座標{116, 21, 116, 22}を持つ1つのゾーンを得る。
前回フレーム上で形成(定義)されていた上記追跡ゾーンを、現在フレームの中で検索する。そして、任意の位置で類似度関数の値が所定の閾値70%を超える(即ち、対応が認められる)ようなゾーンがあれば、それらゾーンを新たな追跡ゾーンのリストに加える。対応が認められなかったゾーンは、破棄される。
その後、24個の追跡ゾーンについて対応を発見し、それらを新たな追跡ゾーンのリストに加える。従って、Tr0={35, 132, 39, 145}、Tr1={35, 125, 39, 138}、…、Tr24={116, 21, 116, 22}の25個の追跡ゾーンを得る。
追跡ゾーンの境界の間の距離が5ピクセル未満であるような複数の追跡ゾーンを、1つのクラスタに統合する。本例では、4つのクラスタCl0{1,18,1,18}を形成する。
校正カメラを用いて、クラスタのメートルサイズを計算する。Cl0に対しクラスターの幅0.21m、高さ0.79m、Cl1に対し幅0.20m、高さ0.78m、Cl2に対し幅0.38m、高さ1.89m、Cl3に対し幅0.54m、高さ1.06mを得る。
クラスタの幅wmin, wmMax,、高さhmin, hmaxに基づいて、スクリーニングを行う。クラスタがスクリーニングを通過すると、以降の処理が続けられる。
特に無視ゾーンが設定されていないので、無視ゾーンとの位置比較によるスクリーニングは行われない。
現在のクラスタそれぞれについて、生存時間を、そのクラスタがその間見出されていたフレーム数として定義する。それを行うために、前回フレームにおいて保存されていたクラスタと、残っているクラスタとを、比較する。
クラスタCl0に関して、座標の位置において近く且つ既に発見済みでもない、1つのクラスタを発見する。従って、そのクラスタには生存時間=1がセットされる。このフレームでの処理は終えるが、次のフレームでの処理のため、そのクラスタの情報は保存される。
クラスタCl1に関して、既に発見済みのクラスタ{95,126,108,166}を発見し、同じクラスタであると判断する。保存されていたクラスタのライフタイムをコピーし、1をインクリメントし、26を得る。この値は所定の閾値40を超えないので、このフレームでの処理は終えるが、一方で次のフレームでの処理のため、そのクラスタの情報は保存される。
クラスタCl2に関して、既に発見済みのクラスタ{53,116,63,157}を発見し、同じクラスタであると判断する。保存されていたクラスタのライフタイムをコピーし、1をインクリメントし、41を得る。この値は所定の閾値40を超えるので、このクラスタの座標を、このフレーム中に存在する物体の座標であると推定する。
クラスタCl3に関して、座標の位置において近く且つ既に発見済みでもない、1つのクラスタを発見する。従って、そのクラスタには生存時間=1がセットされる。このフレームでの処理は終えるが、次のフレームでの処理のため、そのクラスタの情報は保存される。
以上から、現在フレームにおける物体は、スクリーン座標{63,116,63,157}および0.38m(幅)と1.89m(高さ)のメートルサイズを有すると判断する。
以降のフレームそれぞれについても、同様の計算を行う。
上記記載は実施例についてなされたが、本発明はそれに限らず、本発明の精神と添付の請求の範囲の範囲内で種々の変更および修正をすることができることは当業者に明らかである。

Claims (2)

  1. ビデオのフレームの受け取り、後続の修正を伴う背景の初期化、現在のフレームと前記背景との間の差の計算、閾値フレームを用いた2値化、空間フィルタリング、ゾーンの形成、物体の位置の特定、を含む物体検出方法であって、
    背景更新定数ρが、ルール

    (ここで、0<ρ1<1,kはファクターで0<=k<=1である)のもとに、物体の検出に依存してピクセル毎に定義され、閾値フレームは式pi=k1 2σi 2(ここでk1はファクター)で計算され、分散σiは式σi 2=(1−ρ)σi-1 2+ρ(μi−Ii2(ここでIiは現在のフレーム、μiは現在の背景フレーム、iはフレームナンバー)で更新され、2値化画像の中から検出されたゾーンを事前に整形することにより空間フィルタリングを行う物体検出方法。
  2. 請求項1記載の物体検出方法において、前記空間フィルタリングの後に、一部のゾーンが除去され、残りのゾーンがセクションに分割され、該セクションの一部を除去して追跡ゾーンが形成され、互いに近くにある追跡ゾーンを結合することで該追跡ゾーンのクラスターが形成され、メトリックサイズと、座標系と、クラスタの生存時間を計算し、クラスタのろ過が行われ、かつ、前記ろ過で残ったクラスタの座標がフレーム内における物体の座標として受け入れられること特徴とする物体検出方法。
JP2009119673A 2008-05-19 2009-05-18 物体検出方法 Active JP5135284B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
RU2008119711/28A RU2395787C2 (ru) 2008-05-19 2008-05-19 Способ обнаружения объектов
RU2008119711 2008-05-19

Publications (2)

Publication Number Publication Date
JP2009282975A true JP2009282975A (ja) 2009-12-03
JP5135284B2 JP5135284B2 (ja) 2013-02-06

Family

ID=40935730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009119673A Active JP5135284B2 (ja) 2008-05-19 2009-05-18 物体検出方法

Country Status (6)

Country Link
US (1) US8462211B2 (ja)
EP (1) EP2124194B1 (ja)
JP (1) JP5135284B2 (ja)
KR (1) KR101021994B1 (ja)
AT (1) ATE528730T1 (ja)
RU (1) RU2395787C2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011151477A1 (es) * 2010-06-01 2011-12-08 Milenium Espacio Soft, S.A. Procedimiento de reconocimiento de objetos
RU2461067C1 (ru) * 2011-05-04 2012-09-10 Государственное образовательное учреждение высшего профессионального образования "Тамбовский государственный технический университет" ГОУ ВПО ТГТУ Способ обнаружения движущихся объектов
RU2533876C2 (ru) * 2013-01-23 2014-11-20 Олег Владимирович Чикало Способ бинаризации медицинских изображений
JP6351240B2 (ja) * 2013-11-20 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN104361572B (zh) * 2014-11-27 2017-12-29 百度在线网络技术(北京)有限公司 图片处理方法和装置
JP6599672B2 (ja) * 2015-07-17 2019-10-30 日本電産サンキョー株式会社 文字切り出し装置、文字認識装置、および文字切り出し方法
CN108475431B (zh) * 2015-12-18 2022-02-18 株式会社理光 图像处理装置、图像处理系统、图像处理方法和记录介质
US11188756B2 (en) * 2019-10-16 2021-11-30 Realtek Singapore Private Limited Object localization and classification system and method thereof
RU2752851C1 (ru) * 2020-06-17 2021-08-11 Федеральное государственное бюджетное учреждение "Национальный исследовательский центр "Курчатовский институт" Способ идентификации пользователя компьютера "человек или интернет-робот"

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005122571A (ja) * 2003-10-17 2005-05-12 Canon Inc 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP2006099700A (ja) * 2004-09-30 2006-04-13 Secom Co Ltd 画像監視装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4918523A (en) * 1987-10-05 1990-04-17 Intel Corporation Digital video formatting and transmission system and method
CA2166884C (en) * 1993-07-19 1999-12-28 Angela Ruth Murphy Detecting errors in video images
KR100343223B1 (ko) 1999-12-07 2002-07-10 윤종용 화자 위치 검출 장치 및 그 방법
RU2262661C2 (ru) 2000-06-26 2005-10-20 Череповецкий научный координационный центр Российской Академии Наук (ЧНКЦ РАН) Способ обнаружения движущихся транспортных средств
US7215795B2 (en) * 2000-09-28 2007-05-08 Hitachi Kokusai Electric Inc. Intruding object detecting method and intruding object monitoring apparatus employing the method
US7424175B2 (en) * 2001-03-23 2008-09-09 Objectvideo, Inc. Video segmentation using statistical pixel modeling
US7224735B2 (en) * 2003-05-21 2007-05-29 Mitsubishi Electronic Research Laboratories, Inc. Adaptive background image updating
US7720283B2 (en) * 2005-12-09 2010-05-18 Microsoft Corporation Background removal in a live video
US20070177800A1 (en) * 2006-02-02 2007-08-02 International Business Machines Corporation Method and apparatus for maintaining a background image model in a background subtraction system using accumulated motion
US7865015B2 (en) * 2006-02-22 2011-01-04 Huper Laboratories Co. Ltd. Method for video object segmentation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005122571A (ja) * 2003-10-17 2005-05-12 Canon Inc 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP2006099700A (ja) * 2004-09-30 2006-04-13 Secom Co Ltd 画像監視装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNJ200610069044; 結城 直: '画像処理による魚の遡上数の計測' 映像メディア処理シンポジウム第10回 , 20051109, p.97-98, 電子情報通信学会画像工学研究専門委員会 *
JPN6012054472; 結城 直: '画像処理による魚の遡上数の計測' 映像メディア処理シンポジウム第10回 , 20051109, p.97-98, 電子情報通信学会画像工学研究専門委員会 *

Also Published As

Publication number Publication date
EP2124194B1 (en) 2011-10-12
KR101021994B1 (ko) 2011-03-16
JP5135284B2 (ja) 2013-02-06
RU2395787C2 (ru) 2010-07-27
RU2008119711A (ru) 2009-11-27
ATE528730T1 (de) 2011-10-15
US20090284660A1 (en) 2009-11-19
KR20090120411A (ko) 2009-11-24
EP2124194A1 (en) 2009-11-25
US8462211B2 (en) 2013-06-11

Similar Documents

Publication Publication Date Title
JP5135284B2 (ja) 物体検出方法
RU2484531C2 (ru) Устройство обработки видеоинформации системы охранной сигнализации
US9311524B2 (en) Image processing apparatus and image processing method
WO2016199244A1 (ja) 物体認識装置及び物体認識システム
US20060221181A1 (en) Video ghost detection by outline
Awrangjeb et al. Improved building detection using texture information
US10762372B2 (en) Image processing apparatus and control method therefor
JP2012038318A (ja) ターゲット検出方法及び装置
JP2002074368A (ja) 移動物体認識追跡装置
CN108197523A (zh) 基于图像转换及轮廓邻域差异的夜间车辆检测方法及系统
JP7092615B2 (ja) 影検出装置、影検出方法、影検出プログラム、学習装置、学習方法、及び学習プログラム
Yu et al. A robust method for detecting and counting people
CN106570883B (zh) 一种基于rgb-d相机的人数统计方法
Stone et al. Forward looking anomaly detection via fusion of infrared and color imagery
KR20160089165A (ko) 이동 물체 탐지 시스템 및 방법
JP2018055367A (ja) 画像処理装置、画像処理方法、及びプログラム
Kröhnert et al. Segmentation of environmental time lapse image sequences for the determination of shore lines captured by hand-held smartphone cameras
KR101381580B1 (ko) 다양한 조명 환경에 강인한 영상 내 차량 위치 판단 방법 및 시스템
WO2022045877A1 (en) A system and method for identifying occupancy of parking lots
JP7092616B2 (ja) 物体検出装置、物体検出方法、及び物体検出プログラム
CN113994381A (zh) 检测移动物体的方法
KR102161212B1 (ko) 움직임 검출 시스템 및 방법
KR101954404B1 (ko) 가변 문턱값을 이용한 반그림자 차량번호판 인식률 개선방법 및 그 방법을 위한 cctv 시스템
JP2020031393A (ja) 対象検知装置、画像処理装置、対象検知方法、画像処理方法、及びプログラム
RU2809945C2 (ru) Способ обнаружения движущихся объектов

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121019

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121112

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151116

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5135284

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250