JP2005250692A - 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体 - Google Patents

物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体 Download PDF

Info

Publication number
JP2005250692A
JP2005250692A JP2004057979A JP2004057979A JP2005250692A JP 2005250692 A JP2005250692 A JP 2005250692A JP 2004057979 A JP2004057979 A JP 2004057979A JP 2004057979 A JP2004057979 A JP 2004057979A JP 2005250692 A JP2005250692 A JP 2005250692A
Authority
JP
Japan
Prior art keywords
person
moving body
feature distribution
color feature
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004057979A
Other languages
English (en)
Inventor
Masashi Tominaga
将史 冨永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Softopia Japan Foundation
Original Assignee
Softopia Japan Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Softopia Japan Foundation filed Critical Softopia Japan Foundation
Priority to JP2004057979A priority Critical patent/JP2005250692A/ja
Publication of JP2005250692A publication Critical patent/JP2005250692A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Abstract

【課題】画像処理により人物追跡や人物再検出等を行う際に、撮像手段としてのカメラの位置や物体(例えば人物等の移動体)の見え方に影響されることなく、安定して物体の同定を行うことができるとともに、高速な処理を実現することができる。
【解決手段】所定の区域内を移動する移動体を多視点から撮像する撮像ステップと、該撮像ステップで撮像された複数の画像から移動体領域を検出する移動体領域検出ステップと、該移動体領域検出ステップで検出された移動体領域全体を高さ毎の領域に分割する領域分割ステップと、該領域分割ステップで分割された高さ毎の各領域の色を抽出して平均化し、平均化された高さ毎の領域の色に基づいて前記移動体全体の高さ毎の色特徴分布を作成する色特徴分布作成ステップとを有し、該色特徴分布作成ステップで作成された色特徴分布の比較に基づいて前記区域内における異なる時刻での前記移動体の同定を行う。
【選択図】 図3

Description

本発明は、画像中の移動体の特徴を抽出して同定を行う同定方法に関するものであって、特に店舗や公共施設内等において得られる複数の人物が撮像された画像から、人物特徴によって各人物を検出し、軌跡追跡等を行うことができる同定方法、移動体同定方法、同定プログラム、移動体同定プログラム、同定プログラム記録媒体、移動体同定プログラム記録媒体に関する。
例えば、店舗に訪れる顧客の要望や興味を分析するマーケティング調査や、店舗内の顧客の状況を把握する監視システム等として活用される画像処理技術において、ある特定区域内の人物を検出しその人物の追跡を行う技術が知られている(特許文献1参照)。これらの画像処理における人物追跡や人物再検出の処理では、人物を同定するための情報として顔領域画像や身体全体領域画像、服の色等の情報(以下、「人物特徴」という。)が用いられている。
これら人物特徴のうち、最も広く使用されているのが、顔領域画像(以下、単に「顔画像」ともいう。)を特徴とする手法である。1枚若しくは複数枚の顔画像をテンプレートとして保持し、大きさや回転パターンにバリエーションを持たせ、入力画像に対して正規化相関等を用いてパターンマッチングを行う。相関値の最も高い位置の領域が同一人物となる。
その他、身体全体の領域の画像を用いる手法や、身体の各部位(頭部、胴体、手、足等)の領域の画像それぞれをテンプレートとし、これと位置関係とを用いる手法がある。また、肌色検出による人物特徴の抽出もある。これは、肌色領域を手がかりに顔や顔部品、手足等の形状を特徴として利用するものである。
さらに、上記の各手法に人物の色情報(主に服装の色情報)を加えた手法も存在する。例えば、単一画像内で上半身領域と下半身領域とを切り出し、各領域の色情報を用いる手法である。
特開2002−218449(請求項1、図1)
しかしながら、上記の各手法では、撮像手段としてのカメラ位置と対象となる人物の見え方によってテンプレートとのパターンが異なる。また、人物が立ったり座ったりした時の縦横サイズの変動、ポーズの相違等によっても対象人物の形態は種々変化する。このため、例えば顔画像を用いた手法において、精度を向上させるためにはバリエーションを持った複数の画像を事前に撮影する必要があった。さらに、精度を落とさないためには、この顔画像を撮像した環境の照射条件や顔の微妙な傾き等の要素が実際に利用される環境や要素となるべく一致していることが必要であった。このようなバリエーションのテンプレートを増やせば、同定の精度は高くすることができるが、計算コストが増大し、実時間で処理できなくなるという問題があった。
これは、その他の手法についても同様であり、高精度の同定を行うためにはより多くのテンプレートデータが必要となり、処理コストがかかるとともに高速な処理が困難であるという問題を抱えていた。
また、色情報を付加する手法においても、単一画像内での色情報に留まっており、人物が着用している服が前開きの服であって中の衣装が見えたり、バックプリントが施してある服の場合等は、前面と後面とで色の違いがあるために安定した同定を行うことができなかった。
さらに、特定領域内に複数の人物が存在し、その複数の人物の軌跡追跡調査を同時に行う場合では、画像中での複数の人物の重なり合いによって混同が生じ、特にテンプレートとのパターンの相違が生じ易い上記手法では、各人物を個別に検出することが非常に困難であった。
そこで、本発明は、画像処理により人物追跡や人物再検出等を行う際に、撮像手段としてのカメラの位置や物体(例えば人物等の移動体)の見え方に影響されることなく、安定して物体の同定を行うことができるとともに、高速な処理を実現することができる同定方法を提供することを目的とする。併せて、移動体同定方法、同定プログラム、移動体同定プログラム、同定プログラム記録媒体、移動体同定プログラム記録媒体を提供することを目的とする。
上記目的を達成するため、請求項1に係る物体の同定方法は、物体の領域全体を高さ毎の領域に分割する領域分割ステップと、分割された高さ毎の各領域の色を抽出して平均化し、平均化された高さ毎の領域の色に基づいて前記物体全体の高さ毎の色特徴分布を作成する色特徴分布作成ステップとを有し、物体と、該物体と比較すべき物体との同定を、前記各物体の色特徴分布と前記比較すべき物体の色特徴分布との比較に基づいて行うことを要旨とする。
請求項2に係る移動体同定方法は、所定の区域内を移動する移動体を多視点から撮像する撮像ステップと、該撮像ステップで撮像された複数の画像から移動体領域を検出する移動体領域検出ステップと、該移動体領域検出ステップで検出された移動体領域全体を高さ毎の領域に分割する領域分割ステップと、該領域分割ステップで分割された高さ毎の各領域の色を抽出して平均化し、平均化された高さ毎の領域の色に基づいて前記移動体全体の高さ毎の色特徴分布を作成する色特徴分布作成ステップとを有し、該色特徴分布作成ステップで作成された色特徴分布の比較に基づいて前記区域内における異なる時刻での前記移動体の同定を行うことを要旨とする。
請求項3に係る移動体同定方法は、請求項2に記載の移動体同定方法において、前記移動体領域検出ステップでは、視体積交差法を用いて前記移動体領域の検出を行い、前記色特徴分布作成ステップでは、前記視体積交差法において移動体領域をボクセルとして検出し、当該各ボクセルの色を抽出して平均化することを要旨とする。
請求項4に係る移動体同定方法は、請求項3に記載の移動体同定方法において、前記ボクセルは、その一辺が3cm〜10cmの範囲の立方体であることを要旨とする。
請求項5に係る移動体同定方法は、請求項2乃至請求項4のいずれか1項に記載の移動体同定方法において、前記色特徴分布作成ステップでは、検出された前記移動体領域の全体の高さを100パーセントとして前記移動体の色特徴分布を作成することを要旨とする。
請求項6に係る移動体同定方法は、請求項2乃至請求項5のいずれか1項に記載の移動体同定方法において、前記移動体同定方法は、同定を行う対象画像における対象移動体の色特徴分布と、基準画像における基準移動体の色特徴分布との相関を正規化して類似度を算出する類似度算出ステップをさらに有することを要旨とする。
請求項7に係る移動体同定方法は、請求項6に記載の移動体同定方法において、前記領域内に複数の移動体が存在する場合であって、前記色特徴分布作成ステップは、複数の移動体の色特徴分布を作成し、前記類似度算出ステップは、複数の前記対象移動体の色特徴分布と複数の前記基準移動体の色特徴分布との類似度をそれぞれ算出し、前記移動体同定方法は、算出された当該類似度に基づいて各対象移動体に各基準移動体を割り当てる割り当てステップをさらに有することを要旨とする。
請求項8に係る移動体同定方法は、請求項2乃至請求項7のいずれか1項に記載の移動体同定方法において、前記領域内に複数の移動体が存在する場合であって、前記移動体領域検出ステップにおいて検出される複数の移動体領域が重なって合体した場合に、その合体後に再び分離した時に、前記対象移動体に対して前記色特徴分布に基づいた同定を行うことを要旨とする。
請求項9に係る移動体同定方法は、請求項2乃至請求項8のいずれか1項に記載の移動体同定方法において、前記移動体同定方法は、基準画像における基準移動体の位置情報から同定を行う対象画像における対象移動体の存在確率を算出する存在確率算出ステップをさらに有し、前記移動体領域検出ステップにおいて、視体積交差法で前記存在確率に基づいて前記移動体の検出を行うことを要旨とする。
請求項10に係る移動体同定方法は、請求項2乃至請求項9のいずれか1項に記載の移動体同定方法において、前記撮像ステップは、固定された撮像手段によって実行されることを要旨とする。
請求項11に係る物体同定プログラムは、請求項1に記載の同定方法をコンピュータに実行させることを要旨とする。
請求項12に係る移動体同定プログラムは、ある区域内を移動する移動体を多視点から撮像する撮像手段によって撮像された複数の画像から移動体領域を検出する移動体領域検出ステップと、該移動体領域検出ステップで検出された移動体領域を高さ毎の領域に分割する領域分割ステップと、該領域分割ステップで分割された高さ毎の各領域の色を平均化して抽出し、抽出された色に基づいて前記移動体の高さ毎の色特徴分布を作成する色特徴分布作成ステップとを有し、該色特徴分布作成ステップで作成された色特徴分布に基づいて前記区域内における異なる時刻での前記移動体の同定をコンピュータに実行させることを要旨とする。
請求項13に係る物体同定プログラム記録媒体は、請求項11に記載の同定プログラムが記録されていることを要旨とする。
請求項14に係る移動体同定プログラム記録媒体は、請求項12に記載の移動体同定プログラムが記録されていることを要旨とする。
本発明によれば、画像処理により人物追跡や人物再検出等を行う際に、撮像手段としてのカメラの位置や物体(例えば人物等の移動体)の見え方に影響されることなく、安定して物体の同定を行うことができるとともに、高速な処理を実現することができる。
以下、本発明を人物追跡システムに具体化した一実施形態を図1〜図8にしたがって説明する。なお、本実施形態の人物追跡システムは、百貨店内の洋服売り場やコンビニエンスストア等の小規模な区域を想定した室内において、顧客等の人物(移動体)の移動状況を把握するシステムである。
図1は、本実施形態の人物追跡システムのシステム構成を示す概略図である。図1に示すように、人物追跡システム1は、所定の区域2内における人物3を撮像する撮像手段としてのビデオカメラ4a,4b,4c,4d(なお、これらのカメラを総称して単に「カメラ4」ともいう。)と、それらのカメラ4a,4b,4c,4dが接続されたコンピュータ5とを備えている。カメラ4a,4b,4c,4dは、領域内の上方(高さ約250cm)4角に下方45度を向くように配置され、複数(本実施形態では4台)のカメラで領域内の人物を同時に撮像できるようになっている。このビデオカメラは、一般のコンビニエンスストア等に監視カメラとして用いられているものと同等のもので良いが、本実施形態では水平画角110度、垂直画角81.57度の魚眼レンズを装着している。一方、コンピュータ5は、4ポート入力可能なキャプチャボードを通じて各カメラが撮像したカラー画像を取得できるようになっている。上記4台のカメラ4a,4b,4c,4dとコンピュータ5とで本実施形態における人物追跡装置6が構成されている。
なお、本実施形態では、コンビニエンスストア等の小売規模の店舗を想定しており、区域2のサイズは、床面は一辺460cmの正方形状であって、高さは250cmとなっている。また、室内の照明条件は一定に保たれている。
図2は、主にコンピュータ5の機能を示す人物追跡装置6のブロック図である。図2に示すように、撮像手段としてのビデオカメラ4a,4b,4c,4dは、区域2内の人物3(移動体)を撮像する(図1参照)。画像取得手段7は、撮像手段としてのカメラ4a,4b,4c,4dにより撮像された画像を取得する。人物領域検出手段(移動体領域検出手段)8は、視体積交差法により区域2内に存在する人物の人物領域を検出する。色特徴分布作成手段9は、視体積交差法において既にボクセル分割された人物領域の高さ毎の色を抽出し(詳しくは後にフローチャートを用いて説明する。)、抽出された色に基づいて人物特徴としての色特徴分布を作成する。類似度算出手段10は、同定を行う対象画像における対象人物(対象移動体)の色特徴分布と基準画像(前フレームにおける画像)における基準人物(基準移動体)の色特徴分布との相関を正規化して類似度を算出する。割り当て手段11は、類似度算出手段10により算出された類似度に基づいて、対象人物に基準人物を割り当てる。動線情報記憶手段12は、基準人物と対象人物とを関連付けて連続的に追跡を行うためにその動線情報を記憶する。表示手段13は、検出された人物およびその追跡状況を目視できるように表示装置としてのモニタに出力する。本実施形態の人物追跡システム1では、モニタを通して人物追跡の模様をリアルタイムで目視することができるようになっている。
なお、人物領域検出手段8は、領域分割手段14と存在確率算出手段15を備えている。本実施形態の人物領域検出手段8はボクセル分割を前提とした視体積交差法を用いているため、色特徴分布作成において必要となる人物領域を高さ毎に分割する領域分割手段14を兼ねている。また、存在確率算出手段15は、前フレームにおける基準人物の位置情報から対象画像における存在確率を求め、視体積交差法において対象人物位置の推定信頼度を向上させるためのものである。
図3は、人物追跡装置6によって遂行される人物追跡プログラム(物体同定プログラム、移動体同定プログラム)を表すフローチャートである。以下、このフローチャートを参照して人物追跡装置6による人物追跡処理について、上記各手段の処理と共に詳しく説明する。
まず、4台のカメラ4a,4b,4c,4dにて撮像された画像を取得する時刻であるか否かが判定される(ステップ1、以下「ステップ」を「S」と略す。)。本実施形態では、カメラ4からの画像の取得は、所定の時間間隔t(例えばt=0.2秒)毎に行われるようになっており、画像を取得する時刻であると判断された場合には(S1:YES)、画像取得手段7(図2参照)はカメラ4a,4b,4c,4dからの画像を取得する(S2)。一方、画像を取得する時刻ではないと判断された場合には(S1:NO)、画像を取得する時刻であるか否かの判断を繰り返し行う。
次に、人物領域検出手段8(図2参照)は、取得した画像から視体積交差法によって区域2内の人物検出を行う(S3)。ここで用いる視体積交差法とは、主に2次元画像を3次元形状に復元する際に用いられる手法である。同一時刻に複数の異なる視点に配置されたカメラで撮影した画像を利用して、物体の位置及び周囲形状を求めることができる。事前に取得した背景画像との差分により、それぞれの視線方向から見た物体の形状を反映する物体存在領域を3次元画像空間内のボクセルの集合として投票する。そして、すべての方向から見た物体存在領域内のボクセルの集合を抽出することで、3次元空間内の物体として形状を復元する。本実施形態では、この視体積交差法を適用し人物検出に用いることで、人物の床面上の位置だけでなく投票空間中の人物ボクセルから身体各部位の像を検出することができる。それにより、人物移動の動線の検出はもちろん、人物の姿勢や体格の推定、ジェスチャ認識、行動把握等が可能となっている。なお、視体積交差法による形状復元では、精度を高めるため、空間分解能を高める必要がある。しかし、本実施形態では、人物の精巧な形状復元が目的ではなく、人物領域の検出及び処理速度が重要となる。そのため、投票空間(区域2)の分解能は、低く(粗く)設定してある。後に詳しく述べる人物特徴としての色特徴分布を作成するのに最低限の精度を持った人物領域(人物形状)の検出が、なるべく早い処理速度でなされれば十分なためである。
なお、本システムでは魚眼カメラを用いているため、視体積交差法の際に歪曲を補正して投票を行う必要がある。歪曲率Dは、
Figure 2005250692
とする。ここで、Yは実像高、Hは理想像高である。人物検出が目的であり、ミリ単位の精度が必要な形状復元を目的としないことから、一般的なモデルであるfθを用いる。通常のカメラのftanθに対する歪曲率Dは、
Figure 2005250692
となる。それゆえ、原画像F(i,j)は、光軸と画像中心座標(hi,hj)が一致していると仮定すると、
Figure 2005250692
のように補正できる。
さらに、本実施形態では視体積公差法における雑音除去と人物同士の分離の信頼度を向上させるために、存在確率を用いる。
各ボクセルにおける平面位置の存在確率は、サンプリング間隔が人物の移動に対して充分短ければ前フレームの位置に近いほど高く、離れるに従い低くなると仮定できる。さらに、人物同士が近接する場合、他の人物の存在確率が高い位置では、自分の存在できる確率はその分抑制される。そのため、ここでは相手の存在によって各自の存在確率は減少すると仮定する。このような仮定から、ある人物iが位置(x,y)で存在する存在確率Pi(x,y)を、
Figure 2005250692
のように定義する.ここで、Rは存在確率を適用する半径、すなわち人物が1フレーム間に移動可能な範囲である。また、前フレームでの人物位置(fx,fy)は半径Rの円の中心(Rx,Ry)に等しい。存在確率の分布には正規分布等を用いたモデルを適用することで、人物位置の推定信頼度を向上させることができる。しかし、本実施形態では、実時間での人物追跡と人物領域検出を目指しているため、分解能を粗く設定し、計算量を考慮した単純な分布モデルが好ましい。そのため、本実施形態では、前フレームの人物位置を基準に単調減少に設計した。
さらに、存在確率に移動方向を考慮した変形を行う。人物の推定位置を基準にして、確率分布の適用範囲をスライドするように設計した場合、人物の急激な移動方向の変更に対応できなくなる。また、推定位置や推定方向に存在する雑音や他の人物に強く影響をうける可能性がある。そのため、存在確率分布の適用範囲を、現在の位置から1フレーム以内に人物が移動可能な距離を充分に含むように設定し、存在確率のみを推定位置を基準に変形する。すなわち、現在の位置から移動可能な存在確率の適用範囲に相当する円錐の底辺は移動速度に関わらず一定とし、存在確率の最高位置である頂点を次フレームの推定位置(dx,dy)になるよう移動速度・加速度を反映させた変形を行う。以上により、分解能の低いボクセル空間においても複数人物の分離が有効となる。人物位置の推定では、ボクセル空間の分解能を粗くした場合、瞬間速度と加速度を用いると1フレームでの移動ボクセル数が1ボクセルに満たないことがある。安定した推定を行うため、過去5フレームの平均速度(v,v)と平均加速度(a,a)を算出し、推定位置(dx,dy)を求める。存在確率Pi(x,y)は、位置(x,y)とt=5フレーム後の予測人物位置
Figure 2005250692
を結ぶ直線と、存在範囲(半径R)の円の交点から求まる。交点が存在しない場合、
Figure 2005250692
となる。交点数が2:(x1,y1),(x2,y2)、又は1:((x1,y1)=(x2,y2))の場合、推定位置(dx,dy)から位置(x,y)までの距離を
Figure 2005250692
(x1,y1)までの距離を
Figure 2005250692
(x2,y2)までの距離を
Figure 2005250692
としたとき、
Figure 2005250692
Figure 2005250692
より、推定位置(dx、dy)から円の中心までの距離を
Figure 2005250692
位置(x、y)から(x1,y1)までの距離を
Figure 2005250692
(x2,y2)までの距離を
Figure 2005250692
とすると、
Figure 2005250692
となる。ある人物の存在する地点において、他の人物の存在できる確率は抑制されると仮定する。それにより、人物iの存在確率を、
Figure 2005250692
とする。室内に存在する全ての人物によって求められる存在確率の分布
Figure 2005250692
を存在確率マップと呼ぶ。存在確率が0となる場所は、視体積交差により投票されたとしても、ノイズもしくは人物以外のボクセルであり削除される。そのため、人物位置をグローバルな空間座標で保持し、投票空間を個人毎にローカルに持つことで、投票時のロスを無くすことができる。
図3に戻り、人物検出(S3)の後には、色特徴分布作成手段9(図2参照)は、対象人物の人物領域に該当するボクセルの色を抽出して平均化し、人物領域の高さを100パーセントとした高さ毎の色特徴分布を作成する(S4)。なお、この色特徴分布作成ステップ(S4)に関しては、後にさらに詳しく述べることとする。
次に、類似度算出手段10(図2参照)は、作成された色特徴分布に基づいて、対象人物の色特徴分布と基準人物の色特徴分布との相関を正規化して類似度を算出する(S5)。ここで正規化とは、得られた各色特徴分布を比較可能とするために、比較対象となる各色特徴分布相互の整合をとることを意味する。次に、算出された類似度に基づいて、割り当て手段11(図2参照)は対象人物に基準人物を割り当てる(S6)。図4は、この割り当てステップ(S6)をさらに詳しく示すフローチャートである。以下、この割り当てステップでは、過去のフレームにおいて追跡されてきた基準人物(既に人物同定されてきた人物を示す。)をB(k=1〜n)で表し、現フレームにおける対象人物をO(k=1〜n)で表し説明する。図4に示すように、まず各対象人物O〜Oに対し、類似度算出手段10によって算出された類似度の高い順に候補となる基準人物Bを複数取得する(S61)。ここで、短時間のフレーム間において、遠い位置に急に移動することはありえないため、対象人物から半径約1mの範囲に存在する基準人物に限定して候補を取得する。なお、この範囲は、人物の標準移動速度や人物の厚み等を考慮して設定される移動可能範囲であって、人物の移動形態等により適宜変更することができるものである。基準人物Bを複数取得した後には、各対象人物O〜Oに基準人物B〜Bを割り当てる(S62)。例えば、1番目の対象人物Oから順に、その第1候補の基準人物Bを取得する。i番目の対象人物Oにおいてその第1候補Bが既に別の対象人物Oに取得されている場合には、類似度を比較し、より類似度の高い方の対象人物O又はOが第1候補Bを取得する。この場合、他方の対象人物O又はOは第2候補の基準人物Bを取得する、こうした処理を随時行うことで、各対象人物O〜Oはそれぞれ最適の基準人物B〜Bを取得することになる。
なお、前フレームと現フレームにおいて新たに人物が区域2に入室した場合は、対象人物数が基準人物数よりも多くなるため、必然的にどの基準人物も取得しない対象人物が存在する。この対象人物については新たに入出した新規の人物として認識する。また、逆に区域2内から人物が退室した場合には、対象人物数が基準人物数よりも少なくなるため、どの対象人物にも取得されない基準人物が存在する。この基準人物については既に退出したものとして認識する。
上記説明した通り、対象人物に基準人物を割り当てた後には、動線情報記憶手段12(図2参照)は基準人物が割り当てられた対象人物毎の動線情報を記憶し(図3、S7)、最初の処理(図3、S1)へ戻る。以上で、人物追跡処理の一連の流れは終了である。なお、本実施形態では、画像を取得する最初の処理で、画像を取得する時刻か否かの判断(S1)を行っているが、その後の各処理(S2〜S7)にかかる時間が画像取得を行う所定の時間間隔t以上である場合、リターンからスタートへ戻り再び一連の処理を開始して画像取得の処理(S2)を行う際に待ち時間が発生する可能性がある。この場合は、画像を取得するか否かの判断(S1)を行わずに、直接画像取得の処理(S2)に入るように構成することができる。
次に、本発明の要部である色特徴分布作成(S4)について詳しく説明する。
図5は、検出された人物領域から色を抽出して高さ毎の色特徴分布を作成するまでを説明する模式図であり、図6は、色特徴分布を作成する処理をさらに詳しく説明するフローチャートである。まず、図6に示すように、色特徴分布作成手段9(図2参照)は、人物領域検出手段8(図2参照)が検出した人物領域16(図5参照)の各ボクセル17の色を抽出する(S41)。本実施形態では、ボクセル17は、人物サイズに対して適切な大きさとなるよう一辺5cm程度の立方体に設定してある。一辺10cm程度でも人物特徴の特徴量としての色抽出には問題のない程度であるが、それより大きくなるとより厳密な色抽出ができないため若干精度の面で問題がある。さらに、一辺3cm以下となると、データ数が増加し処理時間がかかるため実時間での処理が難しくなるという問題がある。よって、一辺3cm〜10cm程度の範囲が好適である。
各ボクセルから色を抽出した後は、高さ毎に色を平均化する(S42)。図5に模式的に示すように、人物の頭からつま先までの人物領域の色を、各ボクセル17の段毎に、つまり均等に分割された高さ毎に平均化する。なお、図5では簡単のため、頭部、胴部(手を含む)、足部についてのみ模式化して表しているが、高さ毎に人物領域16の全てについて同様に行うものである。そして、それら高さ毎に平均化された色を、人物領域の高さを100パーセントとして分布させた色特徴分布を作成する(図6、S43)。この色特徴分布のデータは、3色(赤、緑、青)×ボクセルの段数(高さ方向に何分割したか、に相当する。)のデータで表すことができる。例えば、身長160cmの人物の場合、ボクセルの一辺を5cmとした場合、3色×高さ32分割の96個のデータ(char型であれば96バイト)程度の少ない情報量で、人物の特徴を保持することができる。よって、色特徴分布自体のデータが軽く、その後の類似度算出及び割り当ての処理時間も少なくてすみ、装置全体として処理速度を向上させ、実時間での人物追跡が可能となっている。
この色特徴分布は、図5に示すように立体的な人物領域の高さ毎に色を平均化した情報量であるため、画像に移る人物の向きや位置に影響されることがない。つまり、高さ毎に平均化された色特徴分布は、人物領域の高さを100パーセントとした時の高さ毎における各色が占めるいわば割合である。よって、例えば、身体の前後で色彩や模様が異なる服を着用している人物追跡の際でも、その人物の前後の向きが変化しても全体としての色の割合はさほど変化しないため、安定した人物特徴として利用することができる。位置に対しても、常に人物領域の全体の高さを基準としていることにより、カメラから距離が近い場合に像が大きく、遠い場合に小さくなるという画像上の像の大小変化に対しても常にその人物の相対的な特徴として抽出することができる。また、立ったりしゃがんだりといった人物の動作に対しても、人物特徴としての平均化された色が上下で入れ替わったり極端に変動したりすることはまずないので、そういった人物の姿勢の変化に対しても安定して対応することができる。
図7は、上記説明した人物追跡システム1によって複数の人物(人物A、人物B、人物Cの3人)検出を行った結果を示す図である。図7に示すように、各人物のおおよその体型や位置を検出することができる。本実施形態では視体積交差法を用いたため、人物の床面上の位置だけでなく、人物の三次元的な像を検出することができ大まかな動作をも監視することができる。
図8は、人物追跡システム1によって、複数の人物(人物E、人物G、人物I、人物Jの4人)の追跡を行った結果を平面的に示す図である。図8(a)はフレームnにおける追跡結果を示し、図8(b)は図8(a)から23フレーム経過したフレーム(n+23)、図8(c)は図8(b)からさらに15フレーム経過したフレーム(n+38)における追跡結果を示している。図8で、実線で示されているのが人物Eの動線、点線で示されているのが人物Gの動線、一点鎖線で示されているのが人物Iの動線、二点鎖線で示されているのが人物Jの動線である。図8(a)のフレームnから図8(c)のフレーム(n+38)への時間経過に従い、人物Eは区域2の入り口(図8の下部中央に位置する。)から入って来て区域2内を真っ直ぐに進む。人物Gは区域2のほぼ中心から入り口へ向う。人物Iは区域2の隅(図面左上角)を僅かに動く。人物Jは一点(図面右上近傍)に留まり動かない。
図8(a)〜図8(c)に示すように、それぞれのフレームにおいて人物の動線が交差した後にも、正確に人物同定が行われているのがわかる。動線が交差しているということは、複数の人物がかなり近くに接近した状態ですれ違ったことを示すが、その後においても良好な追跡が確認できた。さらに、図8(b)のフレーム(n+23)において、カメラ4bの視点から人物Gによって遮られている人物Eや人物Jを検出することができた。すなわち特定のカメラで別の人物によってその像が遮られている場合であっても、良好に人物の検出をすることができた。また、位置を動かなかったJについては、座ったり立ったりする動作を行ったが、これらの動作に対しても影響されることなく人物同定及び追跡が確認できた。
上記実施形態によれば、以下のような効果を得ることができる。
(1)上記実施形態では、人物同定における人物特徴として、人物領域の全体の高さを基準(100パーセント)として高さ毎に色を平均化した色特徴分布を採用している。この色特徴分布は、3次元で検出された人物領域においてどのような色が人物の高さ(身長)に対して比率としてどの位置にあるのかという情報を持っているため、この情報量は人物の向きやカメラの見え方によってほとんど変化しない。また、本実施形態では照明条件の変化がほとんどない店舗等の室内を想定しているため、環境の変化に人物領域の色が影響されることはありえない。よって、人物のポーズの変化等によって多少影響を受けた場合であっても、類似度算出や最終的な同定に際して許容される程度の誤差の範囲である。よって、カメラ4a,4b,4c,4dに映る人物の向きや位置に左右されない安定した人物特徴であって、正確な人物同定を行うことができる。
(2)また、その他の周知の同定方法等と比較して、システム構成を簡単にできる。特に顔画像を人物特徴としたパターンマッチングでは、高精度を維持するために様々な角度からの顔画像データが必要となることから、カメラの台数も多くなり、システム全体としての構成が複雑となる。その点、本実施形態によれば4台のカメラによって効率的に人物同定を行うことができる。
(3)さらに、この色特徴分布のデータは、3色(赤、青、緑)×ボクセルの段数、という非常に小数のデータで表すことができる。このため、人物特徴獲得の処理が軽く、その後の類似度算出ステップ(S5)や割り当てステップ(S6)における処理時間も少なくてすむため、装置全体として処理速度を向上させることができ、実時間での良好な人物追跡を行うことができる。また、処理コストも削減できる。さらに、汎用のコンピュータで手軽に本システムを実施することができる。
(4)さらに、視体積公差法では存在確率を用いて人物追跡が可能であるが、一端人物同士が重なってしまうとその後の人物の判別は困難であり、何らかの人物特徴を用いて同定を行う必要がある。本実施形態では、これらを組み合わせて実施することにより、人物同士が重なった後でも混同することなく良好な人物追跡を行うことができる。
(5)本実施形態では、表示手段13を有し、区域2内の人物の動向を実時間でモニタにて目視できるようになっている。上記実施形態の人物追跡システム1を店舗等の監視システムとして使用することができ、同じ人物が何度も同じ所を通る等の不審な動きをするようであれば、すぐに察知することができる。
(6)さらに、本実施形態の人物領域検出ステップ(S3)では視体積交差法を用いているため、人物検出において床面上の位置だけでなく人物の外形形状の復元が可能であって、人物の2次元的な移動のみならず人物の姿勢やジェスチャ等3次元的な動作をも把握することができる。監視システムとして利用する場合、実時間で不審な行動を効率的に発見することができる。
(7)上記実施形態は動線情報記憶手段12を有しており、動線情報記憶手段12に記憶された動線情報を集計すれば、店舗内でどの箇所が最も顧客の注意を引いているかといった顧客のニーズや市場動向を探る手がかりとして利用することができる。
(8)上記実施形態の人物領域検出ステップ(S3)における視体積公差法では、存在確率算出手段15によって基準人物の位置情報から対象人物の存在確率を算出する。よって、視体積公差法における雑音除去と人物同士の分離の信頼度を向上させることができ、システム全体としての精度向上を図ることができる。
(9)上記実施形態では、カメラ4a,4b,4c,4dは区域2の上方約250cmの位置の4角に下方45度を向くように配置されているため、区域2内をそれぞれのカメラ4a,4b,4c,4dによって隅々まで効率良く撮像することができる。
なお、上記実施形態は以下のような別の実施形態(別例)に変更してもよい。
・区域2内で複数の人物がすれ違った時に、検出される各人物領域が合体してその合体後に再び分離した時に、色特徴分布による同定を行う構成としても良い。人物追跡において視体積交差法のみでは補えない時にのみはじめて色特徴分布を使用することで、人物同士が重なった後でも混同することなく良好な人物追跡を行うことができる。
・人物領域の全体の高さ(人物の高さ)を基準とした高さ毎の色特徴分布を人物特徴とした部分の同定手法は、人物同定を行う際に最も一般的な顔画像のパターンマッチングによる手法と併せて実施することもできる。人物同定における種々の手法に対して補佐的な手法として用いることができる。これによれば、通常の手法に色特徴分布に基づいた比較をさらに加えることで、より正確で精度の高い人物の同定を行うことができる。
・また、一方の主の手法(顔画像によるパターンマッチング等)では同定が行えない場合にのみ、色特徴分布を用いて比較するように構成することもできる。
・上記実施形態では、色特徴分布による人物同定の手法を人物追跡装置6に具体化して説明したが、その他、種々の人物再検出の場面で実施することもできる。例えば、上記と同様な設定の区域を有する室内に一人の人物が入室した場合に、その人物が以前に入室した過去の履歴中のどの人物に該当するかを調べたりすることができる。また、過去の履歴中のどの人物の色特徴分布とも類似度が著しく異なり、予め定めた閾値を満たさない場合には、その入室人物は、はじめてその区域に入室する人物であることを認識する等の種々の実施態様が可能である。
・上記実施形態の人物領域検出ステップ(S3)における視体積公差法において、存在確率算出ステップを省略しても良い。
・上記実施形態では、4台のカメラ4a,4b,4c,4dを設置したが、設置位置及び台数はなんら限定されるものではない。視体積公差法を採用するに当たって、少なくとも2台のカメラは必要であるが、区域2の形状や面積によって3台もしくは4台以上の複数のカメラを種々の位置に設置することができる。
・上記実施形態では、対象人物に基準人物を割り当てる際に(図3のS6、図4)、フレーム内に存在する対象人物と全ての基準人物との類似度対応の比較を行う構成としたが、まず対象人物から一番近い基準人物を優先して類似度を比較する構成としても良い。この場合、人物が1フレームで極端に大きく移動することは考えにくいことから、まず対象人物から一番近い基準人物との類似度を算出し、この類似度が予め定めた閾値を超える場合には同一人物と同定することができる。
本実施形態の人物追跡システムの構成を示す概念図。 人物追跡装置のブロック図。 人物追跡プログラムを説明するフローチャート。 割り当てステップを説明するフローチャート。 色特徴分布作成の流れを説明する模式図。 色特徴分布作成ステップを説明するフローチャート。 人物検出結果を示す図。 人物追跡結果を示す図であり、(a)はフレームnにおける人物追跡結果であり、(b)はフレーム(n+23)における人物追跡結果であり、(c)はフレーム(n+38)における人物追跡結果を示す。
符号の説明
…基準人物(基準移動体)、O…対象人物(対象移動体)、Pi…存在確率、1…人物追跡システム、2…区域、3…人物(物体、移動体)、4,4a,4b,4c,4d…ビデオカメラ(カメラ、撮像手段)、5…コンピュータ、6…人物追跡装置、7…画像取得手段、8…人物領域検出手段、9…色特徴分布作成手段、10…類似度算出手段、11…割り当て手段、12…動線情報記憶手段、13…表示手段、16…人物領域(物体領域、移動体領域)、17…ボクセル。

Claims (14)

  1. 物体の領域全体を高さ毎の領域に分割する領域分割ステップと、
    分割された高さ毎の各領域の色を抽出して平均化し、平均化された高さ毎の領域の色に基づいて前記物体全体の高さ毎の色特徴分布を作成する色特徴分布作成ステップと
    を有し、物体と、該物体と比較すべき物体との同定を、前記各物体の色特徴分布と前記比較すべき物体の色特徴分布との比較に基づいて行うことを特徴とする物体の同定方法。
  2. 所定の区域内を移動する移動体を多視点から撮像する撮像ステップと、
    該撮像ステップで撮像された複数の画像から移動体領域を検出する移動体領域検出ステップと、
    該移動体領域検出ステップで検出された移動体領域全体を高さ毎の領域に分割する領域分割ステップと、
    該領域分割ステップで分割された高さ毎の各領域の色を抽出して平均化し、平均化された高さ毎の領域の色に基づいて前記移動体全体の高さ毎の色特徴分布を作成する色特徴分布作成ステップと
    を有し、該色特徴分布作成ステップで作成された色特徴分布の比較に基づいて前記区域内における異なる時刻での前記移動体の同定を行うことを特徴とする移動体同定方法。
  3. 前記移動体領域検出ステップでは、視体積交差法を用いて前記移動体領域の検出を行い、
    前記色特徴分布作成ステップでは、前記視体積交差法において移動体領域をボクセルとして検出し、当該各ボクセルの色を抽出して平均化することを特徴とする請求項2に記載の移動体同定方法。
  4. 前記ボクセルは、その一辺が3cm〜10cmの範囲の立方体であることを特徴とする請求項3に記載の移動体同定方法。
  5. 前記色特徴分布作成ステップでは、検出された前記移動体領域の全体の高さを100パーセントとして前記移動体の色特徴分布を作成することを特徴とする請求項2乃至請求項4のいずれか1項に記載の移動体同定方法。
  6. 前記移動体同定方法は、
    同定を行う対象画像における対象移動体の色特徴分布と、基準画像における基準移動体の色特徴分布との相関を正規化して類似度を算出する類似度算出ステップ
    をさらに有することを特徴とする請求項2乃至請求項5のいずれか1項に記載の移動体同定方法。
  7. 前記領域内に複数の移動体が存在する場合であって、
    前記色特徴分布作成ステップは、複数の移動体の色特徴分布を作成し、前記類似度算出ステップは、複数の前記対象移動体の色特徴分布と複数の前記基準移動体の色特徴分布との類似度をそれぞれ算出し、
    前記移動体同定方法は、算出された当該類似度に基づいて各対象移動体に各基準移動体を割り当てる割り当てステップ
    をさらに有することを特徴とする請求項6に記載の移動体同定方法。
  8. 前記領域内に複数の移動体が存在する場合であって、前記移動体領域検出ステップにおいて検出される複数の移動体領域が重なって合体した場合に、その合体後に再び分離した時に、前記対象移動体に対して前記色特徴分布に基づいた同定を行うことを特徴とする請求項2乃至請求項7のいずれか1項に記載の移動体同定方法。
  9. 前記移動体同定方法は、基準画像における基準移動体の位置情報から同定を行う対象画像における対象移動体の存在確率を算出する存在確率算出ステップをさらに有し、前記移動体領域検出ステップにおいて、視体積交差法で前記存在確率に基づいて前記移動体の検出を行うことを特徴とする請求項2乃至請求項8のいずれか1項に記載の移動体同定方法。
  10. 前記撮像ステップは、固定された撮像手段によって実行されることを特徴とする請求項2乃至請求項9のいずれか1項に記載の移動体同定方法。
  11. 請求項1に記載の同定方法をコンピュータに実行させる物体同定プログラム。
  12. ある区域内を移動する移動体を多視点から撮像する撮像手段によって撮像された複数の画像から移動体領域を検出する移動体領域検出ステップと、
    該移動体領域検出ステップで検出された移動体領域を高さ毎の領域に分割する領域分割ステップと、
    該領域分割ステップで分割された高さ毎の各領域の色を平均化して抽出し、抽出された色に基づいて前記移動体の高さ毎の色特徴分布を作成する色特徴分布作成ステップと
    を有し、該色特徴分布作成ステップで作成された色特徴分布に基づいて前記区域内における異なる時刻での前記移動体の同定をコンピュータに実行させる移動体同定プログラム。
  13. 請求項11に記載の同定プログラムが記録されている物体同定プログラム記録媒体。
  14. 請求項12に記載の移動体同定プログラムが記録されている移動体同定プログラム記録媒体。
JP2004057979A 2004-03-02 2004-03-02 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体 Pending JP2005250692A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004057979A JP2005250692A (ja) 2004-03-02 2004-03-02 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004057979A JP2005250692A (ja) 2004-03-02 2004-03-02 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体

Publications (1)

Publication Number Publication Date
JP2005250692A true JP2005250692A (ja) 2005-09-15

Family

ID=35031129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004057979A Pending JP2005250692A (ja) 2004-03-02 2004-03-02 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体

Country Status (1)

Country Link
JP (1) JP2005250692A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265922A (ja) * 2008-04-24 2009-11-12 Toshiba Tec Corp 人物動線追跡システム
WO2011021588A1 (ja) * 2009-08-20 2011-02-24 日本電気株式会社 移動体軌跡識別システム
JP2011048627A (ja) * 2009-08-27 2011-03-10 Kddi Corp マスク画像を抽出する方法及びプログラム並びにボクセルデータを構築する方法及びプログラム
WO2012042864A1 (ja) * 2010-10-01 2012-04-05 パナソニック株式会社 物体位置推定システム、物体位置推定装置、物体位置推定方法、及び物体位置推定プログラム
WO2012131816A1 (ja) 2011-03-28 2012-10-04 日本電気株式会社 人物追跡装置、人物追跡方法および人物追跡プログラムを格納した非一時的なコンピュータ可読媒体
JP5807635B2 (ja) * 2010-05-31 2015-11-10 日本電気株式会社 動線検出システム、動線検出方法および動線検出プログラム
CN107767397A (zh) * 2016-08-17 2018-03-06 富士通株式会社 移动对象组检测装置和移动对象组检测方法
JP2018163467A (ja) * 2017-03-24 2018-10-18 Kddi株式会社 自由視点画像の生成表示方法、装置およびプログラム
US10140555B2 (en) 2013-10-30 2018-11-27 Nec Corporation Processing system, processing method, and recording medium
JP2023514107A (ja) * 2021-01-15 2023-04-05 チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド 三次元再構築方法、装置、機器及び記憶媒体

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4585580B2 (ja) * 2008-04-24 2010-11-24 東芝テック株式会社 人物動線追跡システム
JP2009265922A (ja) * 2008-04-24 2009-11-12 Toshiba Tec Corp 人物動線追跡システム
JP5682563B2 (ja) * 2009-08-20 2015-03-11 日本電気株式会社 移動体軌跡識別システム、移動体軌跡識別方法および移動体軌跡識別プログラム
WO2011021588A1 (ja) * 2009-08-20 2011-02-24 日本電気株式会社 移動体軌跡識別システム
US8989438B2 (en) 2009-08-20 2015-03-24 Nec Corporation Mobile body track identification system
JP2011048627A (ja) * 2009-08-27 2011-03-10 Kddi Corp マスク画像を抽出する方法及びプログラム並びにボクセルデータを構築する方法及びプログラム
JP5807635B2 (ja) * 2010-05-31 2015-11-10 日本電気株式会社 動線検出システム、動線検出方法および動線検出プログラム
WO2012042864A1 (ja) * 2010-10-01 2012-04-05 パナソニック株式会社 物体位置推定システム、物体位置推定装置、物体位置推定方法、及び物体位置推定プログラム
WO2012131816A1 (ja) 2011-03-28 2012-10-04 日本電気株式会社 人物追跡装置、人物追跡方法および人物追跡プログラムを格納した非一時的なコンピュータ可読媒体
US9235754B2 (en) 2011-03-28 2016-01-12 Nec Corporation Person tracking device, person tracking method, and non-transitory computer readable medium storing person tracking program
US10140555B2 (en) 2013-10-30 2018-11-27 Nec Corporation Processing system, processing method, and recording medium
CN107767397A (zh) * 2016-08-17 2018-03-06 富士通株式会社 移动对象组检测装置和移动对象组检测方法
JP2018163467A (ja) * 2017-03-24 2018-10-18 Kddi株式会社 自由視点画像の生成表示方法、装置およびプログラム
JP2023514107A (ja) * 2021-01-15 2023-04-05 チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド 三次元再構築方法、装置、機器及び記憶媒体
JP7352748B2 (ja) 2021-01-15 2023-09-28 チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド 三次元再構築方法、装置、機器及び記憶媒体

Similar Documents

Publication Publication Date Title
US8254633B1 (en) Method and system for finding correspondence between face camera views and behavior camera views
Harville et al. Fast, integrated person tracking and activity recognition with plan-view templates from a single stereo camera
Liu et al. Detecting and counting people in surveillance applications
EP3029604B1 (en) Area information estimating device, area information estimating method, and air conditioning apparatus
JP5594672B2 (ja) 物体認識装置および物体認識方法
JP5657113B2 (ja) 映像内のオブジェクトの意味解析
JP6013241B2 (ja) 人物認識装置、及び方法
US8781217B2 (en) Analysis of three-dimensional scenes with a surface model
JP5380789B2 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP4198951B2 (ja) グループ属性推定方法及びグループ属性推定装置
JP5950296B2 (ja) 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
WO2012117687A1 (ja) 姿勢推定装置、姿勢推定システム、および姿勢推定方法
JP6590609B2 (ja) 画像解析装置及び画像解析方法
JP2007317062A (ja) 人物認識装置及びその方法
KR20120019008A (ko) 복수의 객체를 추적하는 객체 추적 방법 및 장치
Hossny et al. Low cost multimodal facial recognition via kinect sensors
Li et al. Robust multiperson detection and tracking for mobile service and social robots
JP6779410B2 (ja) 映像解析装置、映像解析方法、及びプログラム
US10496874B2 (en) Facial detection device, facial detection system provided with same, and facial detection method
Volkhardt et al. Fallen person detection for mobile robots using 3D depth data
Snidaro et al. Automatic camera selection and fusion for outdoor surveillance under changing weather conditions
Krzeszowski et al. DTW-based gait recognition from recovered 3-D joint angles and inter-ankle distance
JP2005250692A (ja) 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体
Hadi et al. Fusion of thermal and depth images for occlusion handling for human detection from mobile robot
Hung et al. Detecting fall incidents of the elderly based on human-ground contact areas

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090401