JP4918615B2 - 対象個数検出装置および対象個数検出方法 - Google Patents

対象個数検出装置および対象個数検出方法 Download PDF

Info

Publication number
JP4918615B2
JP4918615B2 JP2010294428A JP2010294428A JP4918615B2 JP 4918615 B2 JP4918615 B2 JP 4918615B2 JP 2010294428 A JP2010294428 A JP 2010294428A JP 2010294428 A JP2010294428 A JP 2010294428A JP 4918615 B2 JP4918615 B2 JP 4918615B2
Authority
JP
Japan
Prior art keywords
data
learning
factor
frame
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010294428A
Other languages
English (en)
Other versions
JP2011090708A (ja
Inventor
展之 大津
康幸 下畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2010294428A priority Critical patent/JP4918615B2/ja
Publication of JP2011090708A publication Critical patent/JP2011090708A/ja
Application granted granted Critical
Publication of JP4918615B2 publication Critical patent/JP4918615B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、動画像を取り込んで任意の方向に移動する人や車などの複数種の対象物の個数を種類別に検出することができる対象個数検出装置および対象個数検出方法に関するものである。
現在、監視カメラシステム、高度道路交通システム、ロボットの視覚などにおいて、移動物体の認識は重要な課題である。また、人の流れや混雑具合を時々刻々と監視し記録することで、人が一ヶ所に集中するために生じる事故を未然に防いだり、空き/混雑情報の提供、店舗内での人員配置プラン等の戦略などに利用するため、人の流れや混雑具合などをモニタリングするニーズもある。
人の流れや混雑具合といったものを自動的にモニタリングするようなシステムの場合、移動物体の流れや数といった全体の状況を高速かつロバストに認識を行うことができる必要がある。しかし、コンピュータによって自動的に移動物体を認識することは非常に難しい課題である。認識を難しくしている要因としては、たとえば以下のものが挙げられる。
(1)カメラの画像内には複数の人が存在したり、自転車などといったさまざまな種類の移動物体が存在する。
(2)同じ移動物体でもさまざまな方向や速度の動きが存在する。
(3)カメラと対象の距離や大人と子供、身長差などのため画面内での対象のスケール(大きさ)がさまざまである。
移動物体の検出や認識を行う研究は数多く存在するが、それらのほとんどは、移動物体の切り出しとトラッキングを行うため、対象の数や種類に比例した計算コストがかかってしまい、多数の対象を高速かつ高精度で認識することは困難であった。また、スケールの違い等によって検出精度も低かった。
一方、本発明者らが出願した下記の特許文献1には、静止画像に対して高次局所自己相関特徴を抽出し、多変量解析手法を使用して対象の個数の推定を行う技術が開示されている。
また、本発明者らは、画像全体から対象物の動きの違いを認識する異常動作認識の研究を行い、本発明者らが出願した下記の特許文献2には、立体高次局所自己相関特徴(以下、CHLACデータとも記す)を用いて異常動作認識を行う技術が開示されている。
特許第2834153号公報 特開2006−079272号公報
移動物体の数やその流れといった全体の状況を知りたい場合、個々の物体の位置情報は不要である。右に歩く人が1人、左に歩く人が2人、左に走る自転車が1台という全体の状況が分かることが大切であり、登場するすべての移動物体をトラッキングしなくても、このような状況についての情報とその変化のみで人の流れや混雑具合を把握することは十分可能である。
上記した異常動作認識技術においては、動作特徴として動画面全体から抽出したCHLACデータを用いており、このCHLACデータは対象の場所や時間に依らない位置不変な値である。また、画面内に複数個の対象がある場合、全体の特徴値はそれぞれの個別の特徴値の和になるという加法性がある。即ち、例えば「右に歩く人」が2人いる場合には、特徴値は「右に歩く人」1人の特徴値の2倍になる。そこで、CHLACデータを移動物体の数やその移動方向の検出に適用することが考えられる。
上記したCHLACデータを移動物体の数やその流れの検出に適用しようとした場合には、動画面上の対象のスケール(大きさ)や動き方の種別(速度や方向)によって特徴値が変化するので個数の検出精度が低下してしまうという問題点があった。
本発明の目的は、上記したような従来例の問題点を解決し、動画像を取り込んで立体高次局所自己相関特徴を用いて所定の方向に移動する人や車などの複数種の対象物の個数を種類別に高精度で検出することができる対象個数検出装置および対象個数検出方法を提供する点にある。
本発明の対象個数検出装置は、検出対象を撮影した複数の画像フレームデータからなる動画像データからフレーム間差分データを生成し、2値化する差分2値化データ生成手段と、直近の複数の前記フレーム間差分2値化データからなる3次元データから立体高次局所自己相関によって特徴データを抽出する特徴データ抽出手段と、予め学習により生成された、1つの検出対象について複数の因子ベクトルを並べた因子行列と前記特徴データから各因子ベクトルの係数を求める係数取得手段と、1つの検出対象についての複数の前記係数を加算する加算手段と、前記加算手段の出力値の小数点未満を四捨五入して整数化することにより個数を生成する整数化手段とを備えたことを主要な特徴とする。
また、前記した対象個数検出装置において、更に、学習データから得られた特徴データに基づいて因子行列を生成する学習手段を備えた点にも特徴がある。また、前記した対象個数検出装置において、前記学習手段は、学習データである検出対象を撮影した複数の画像フレームデータからなる動画像データからフレーム間差分データを生成し、2値化する差分2値化データ生成手段と、複数の前記フレーム間差分2値化データからなる3次元データから立体高次局所自己相関によって特徴データを抽出する特徴データ抽出手段と、学習データにおける対象の既知の個数を使用し、複数の学習データと対応する前記特徴データから因子分析によって因子行列を求める因子行列生成手段とを備えている点にも特徴がある。
また、前記した対象個数検出装置において、前記因子行列に含まれる、1つの検出対象と対応する複数の因子ベクトルは画面上の対象のスケール、移動速度、移動方向の内の少なくとも1つが異なる複数の学習データからそれぞれ生成されたものである点にも特徴がある。
本発明の他の対象個数検出装置は、検出対象を撮影した複数の画像フレームデータからなる動画像データからフレーム間差分データを生成し、2値化する差分2値化データ生成手段と、直近の複数の前記フレーム間差分2値化データからなる3次元データから立体高次局所自己相関によって特徴データを抽出する特徴データ抽出手段と、画面上の対象のスケール、移動速度、移動方向の内の少なくとも1つが異なる複数の学習データから得られた特徴データに基づいて検出対象の個数を算出するための係数行列を生成する学習手段と、予め前記学習手段により生成された係数行列と、認識データから得られた特徴データから個数を求める個数生成手段と、前記個数生成手段の出力値の小数点未満を四捨五入して整数化する整数化手段とを備えたことを主要な特徴とする。
本発明の対象個数検出方法は、学習データに基づき、立体高次局所自己相関に基づく因子行列を生成するステップ、検出対象を撮影した複数の画像フレームデータからなる動画像データからフレーム間差分データを生成し、2値化するステップ、直近の複数の前記フレーム間差分2値化データからなる3次元データから立体高次局所自己相関によって特徴データを抽出するステップ、予め学習により生成された、1つの検出対象について複数の因子ベクトルを並べた因子行列および前記特徴データから各因子ベクトルの係数を求めるステップ、1つの検出対象についての複数の前記係数を加算するステップ、前記加算手段の出力値の小数点未満を四捨五入して整数化することにより個数を生成するステップを含むことを主要な特徴とする。
本発明によれば、以下のような効果がある。
(1)1つの検出対象について、予め因子分析を使用した学習によってスケールや移動速度の異なる対象と対応する複数の因子ベクトルを並べた因子行列を用意し、認識時において各因子ベクトルの係数を加算してから四捨五入して整数化することにより個数を生成するようにしたので、係数の和の変動が小さく、かつ認識したい対象の個数と高精度で一致する。従って対象のスケール、速度、方向の違いやこれらの動的変化にロバストな認識が可能となり、個数の検出精度が向上する。
(2)対象物の切り出しを行わずに複数の対象物を同時に認識するので、特徴抽出や個数識別判定のための計算量が少ない。また、計算量は対象物の個数に依らず一定である。従って実時間処理が可能である。
(3)予めスケール、移動速度、方向の異なる対象の画像を用いた重回帰分析に基づく学習によって係数行列を生成し、直接的かつ高速に個数を算出することができる。速度や方向、スケールにロバストな個数の検出が可能となる。
本発明による対象個数検出装置の構成を示すブロック図である。 本発明による対象個数検出処理の概要を示す説明図である。 3次元画素空間における自己相関処理座標を示す説明図である。 自己相関マスクパターンの例を示す説明図である。 本発明による動画像の実時間処理の内容を示す説明図である。 学習モードで生成された因子行列の例を示す説明図である。 本発明による対象個数検出処理(学習モード)の内容を示すフローチャートである。 本発明による対象個数検出処理(認識モード)の内容を示すフローチャートである。 S13の画素CHLACデータ抽出処理の内容を示すフローチャートである。
以下の実施例においては、対象物が左または右に歩行する人である例について説明するが、対象物については動画として撮影可能な任意の移動体あるいは運動体、形状や大きさ、色、明るさのいずれかが変化する対象物に適用可能である。
図1は、本発明による対象個数検出装置の構成を示すブロック図である。ビデオカメラ10は対象となる人や車等の動画像フレームデータをリアルタイムで出力する。ビデオカメラ10はモノクロでもよいしカラーカメラであってもよい。コンピュータ11は例えば動画像を取り込むためのビデオキャプチャー回路を備えた周知のパソコン(PC)であってもよい。本発明は、パソコンなどの周知の任意のコンピュータ11に後述する処理のプログラムを作成してインストールして起動することにより実現される。
モニタ装置12はコンピュータ11の周知の出力装置であり、例えば対象の検出個数をオペレータに表示するために使用される。キーボード13およびマウス14は、オペレータが入力に使用する周知の入力装置である。なお、実施例においては、例えばビデオカメラ10から入力された動画像データを実時間で処理してもよいし、一旦動画像ファイルに保存してから順次読み出して処理してもよい。また、ビデオカメラ10は任意の通信網を介してコンピュータ11と接続されていてもよい。
図2は、本発明による対象個数検出処理の概要を示す説明図である。例えばビデオカメラ10によって、360画素×240画素のグレースケール(モノクロ多値)動画像が撮影され、順次コンピュータ11に取り込まれる。
取り込まれたフレームデータ(a)から直前のフレームの同じ画素の輝度値との差分の絶対値を求め、この値が例えば所定の閾値以上である場合に1、そうでない場合に0とする差分2値化フレームデータ(c)を得る。次に、直近の3枚の差分2値化フレームデータ(d)から後述する方法で、画素毎にCHLACデータを計算し、この画素対応CHLACデータを1フレーム分加算してフレーム対応CHLACデータ(f)を得る。以上の処理は学習モードと認識モード共通の処理である。
学習モードにおいては、所定領域(例えば時間幅30フレーム分)のフレーム対応CHLACデータ(g)を加算する処理(h)を実行することにより、複数の学習データと対応する複数の学習データ対応CHLAC特徴データを求める。そして、学習データにおける既知の対象物の各因子の個数情報を使用して因子分析(i)によって因子行列を求める。因子行列(j)は、1つの対象、例えば「右に歩く人」に対して、「右に早足で歩くスケールの大きい人」、「右に普通に歩くスケールの小さい人」などと対応する複数の因子ベクトルデータを並べたものである。
一方、認識モードにおいては、直近の所定領域(例えば時間幅30フレーム分)のフレーム対応CHLACデータ(k)を加算する処理(l)を実行することにより、(M)CHLAC特徴データを得る。そして、学習モードにて予め求めた因子行列(j)を使用して(N)後述する方法により対象物の個数を推定する。
個数推定処理(N)においては、個々の因子ベクトルの係数を求め、1つの対象と対応する複数の係数を加算してから小数点未満を四捨五入して個数を算出する。この処理によって、対象のスケールや速度の違いやこれらの動的変化にロバストな認識が可能となる。
以下に、処理の詳細について説明する。図7は、本発明による対象個数検出処理(学習モード)の内容を示すフローチャートである。S10においては、未処理の学習データを選択する。学習データは、例えば2種類の対象である「右に歩く人」および「左に歩く人」について、それぞれ任意の人数を異なる移動速度(普通、早足、駆け足)やスケール(大(近)、中、小(遠))で撮影した動画像データである。2種類の対象が任意の個数混在していてもよい。なお、学習データにおける各対象の個数、移動速度、スケールは既知である。なお、この時点において学習データ対応CHLACデータをクリアしておく。
S11においては、フレームデータを入力(メモリに読み込む)する。このときの画像データは例えば256階調のグレイスケールデータである。S12においては、動画像データに対して「動き」の情報を検出し、背景など静止しているものを除去する目的で差分データを生成する。
差分の取り方としては、隣接するフレーム間の同じ位置の画素の輝度の変化を抽出するフレーム間差分方式を採用するが、フレーム内における輝度の変化部分を抽出するエッジ差分、あるいは両方を採用してもよい。なお、画素毎にRGBのカラーデータを持っている場合には、2つの画素の差分データとして、2つのRGBカラーベクトル間の距離を算出してもよい。
更に、「動き」に無関係な色情報やノイズを除去するために自動閾値選定による2値化を行う。なお、2値化の方法としては、例えば一定閾値、下記非特許文献1に開示されている判別最小二乗自動閾値法、閾値0及びノイズ処理方式(濃淡画像において差が0以外を全て動き有り=1とし、公知のノイズ除去法によってノイズを除去する方法)等を採用可能である。
判別最小二乗自動閾値法では対象が全く存在しないシーンではノイズを検出してしまうので、二値化を行う輝度差分値の閾値が所定の下限値より小さい場合には、下限値を閾値とする。以上の前処理により入力動画データは画素値に「動いた(1)」「動かない(0)」の論理値をもつフレームデータ(c)の列となる。
大津展之、"判別および最小2乗規準に基づく自動しきい値選定法"電子通信学会論文誌D、J63-D-4、P349-356、1980年。
S13においては、1フレームの画素それぞれについて251次元特徴データである画素CHLACデータを抽出し、1フレーム分加算してフレーム対応CHLACデータを得る。
ここで、立体高次局所自己相関(CHLAC)特徴について説明する。N次自己相関関数は次の数式1のように表せる。
Figure 0004918615
ここで、fは画素値(差分値)であり、参照点(注目画素)rおよび参照点からみたN個の変位ai(i=1,…,N)は差分2値化フレーム内の二次元座標および時間も成分として持つ三次元のベクトルである。
高次自己相関関数は変位方向、次数のとり方により無数に考えられるが、これを局所領域に限定したものが高次局所自己相関関数である。立体高次局所自己相関特徴では変位方向を参照点rを中心とする3×3×3画素の局所領域内、即ち参照点rの26近傍に限定している。1組の変位方向に対応する数式1の積分値が特徴量の1つの要素になる。従って変位方向の組み合わせ(=マスクパターン)の数だけ特徴量の要素が生成される。
特徴量の要素数、つまり特徴ベクトルの次元はマスクパターンの種類に相当する。2値画像の場合、画素値1を何回乗算しても1であるので、二乗以上の項は乗数のみが異なる1乗の項と重複するものとして削除する。また数式1の積分操作(平行移動:スキャン)で重複するパターンは1つの代表パターンを残して他を削除する。数式1右辺の式は参照点(f(r):局所領域の中心)を必ず含むので、代表パターンとしては中心点を含み、パターン全体が3×3×3画素の局所領域内に収まるものを選択する。
この結果、中心点を含むマスクパターンの種類は、選択画素数が1個のもの:1個、2個のもの:26個、3個のもの:26×25/2=325個の計352個あるが、数式1の積分操作(平行移動:スキャン)で重複するパターンを除くと、マスクパターンの種類は251種類となる。即ち、1つの3次元データに対する立体高次局所自己相関特徴ベクトルは251次元となる。
なお、画素の値が多値の濃淡画像の場合には、例えば画素値をaとすると、相関値はa(0次)≠a×a(1次)≠a×a×a(2次)となり、選択画素が同じでも乗数の異なるものを重複削除できない。従って、多値の場合には、2値の場合より選択画素数が1の場合に2個、選択画素数が2の場合に26個増加し、マスクパターンの種類は計279種類となる。
図3は、3次元画素空間における自己相関処理座標を示す説明図である。図3においては、t−1フレーム、tフレーム、t+1フレームの3つの差分フレームのxy平面を並べて図示してある。本発明においては、注目する参照画素を中心とする3×3×3(=27)画素の立方体の内部の画素について相関を取る。マスクパターンは、相関を取る画素の組合せを示す情報であり、マスクパターンによって選択された画素のデータは相関値の計算に使用されるが、マスクパターンによって選択されなかった画素は無視される。マスクパターンでは注目画素(中心の画素:参照点)は必ず選択される。
図4は、自己相関マスクパターンの例を示す説明図である。図4(1)は注目画素のみの最も簡単な0次のマスクパターンである。(2)はハッチングを施した2つの画素が選択されている1次マスクパターン例、(3)、(4)はハッチングを施した3つの画素が選択されている3次マスクパターン例であり、この他に多数のパターンがある。そして、前記したように、重複するパターンを除くと、マスクパターンの種類は251種類となる。即ち、3×3×3画素の3次元データに対する立体高次局所自己相関特徴ベクトルは251次元となり、要素の値は0か1である。
図7に戻って、S14においては、フレーム対応CHLACデータを学習データ対応CHLACデータに要素毎に加算する。S15においては、学習データの全フレームの処理が完了したか否かが判定され、判定結果が否定の場合にはS13に移行するが、肯定の場合にはS16に移行する。S16においては、学習データ対応CHLACデータを保存する。S17においては、学習データ全て処理完了か否かが判定され、判定結果が否定の場合にはS10に移行するが、肯定の場合にはS18に移行する。
S18においては、既知の因子の個数データに基づいて、因子分析を行って因子行列を求める。ここで因子分析について説明する。まず実施例における因子とは形状、スケール、移動速度などによって識別される対象物の種別のことである。実施例においては、例えば「右に歩く人」という1つの対象の中の「右に普通速度で歩くスケール大の人」が1つの因子であり、速度やスケールが違えば同じ対象でも別の因子となる。
そして、例えば画面上に1つの因子のみが存在する学習データより抽出された立体高次局所自己相関特徴ベクトルは因子ベクトルと等価となる。つまり因子ベクトルとは個々の因子に固有な特徴ベクトルである。
ここで立体データとしての動画像がm個の因子ベクトルfj(0≦j≦m-1)の組み合わせから成るとすると、その立体データから得られる立体高次局所自己相関特徴zはその加法性および位置不変性により、fjの線形結合によって以下のように表現される。
Figure 0004918615
ここでFを因子行列、線形結合で表す際の係数ajを因子付加量、それを並べてベクトル化したaを因子付加量ベクトルと定義する。また、eは誤差を表す。因子付加量は因子と対応する対象物の個数を表している。例えばf0が人が右に歩く因子だとするとa0=2なら動画像中で右に歩いている人が2人いることを示している。従って、因子付加量ベクトルを得ることができれば、どの対象物が画面中にどれだけ存在するかが分かる。そのために、学習によって因子行列を予め獲得し、認識時には因子行列を使用して因子付加量ベクトルを求める。
学習モードでは因子行列F=[f0;f1;・・;fm-1]Tを求める。教師信号としては各因子に対応する個数である因子付加量ベクトルaを与える。以下に具体的な学習過程について述べる。学習データとして用いる動画像データの数をN、i番目(1≦i≦N)の学習データに対応する立体高次局所自己相関特徴をzi、因子付加量ベクトルをai=[ai0;ai1;・・・;ai(m-1)]とする。このとき因子行列Fは以下の数式3において誤差eを最小にすることにより陽に求めることができる。
Figure 0004918615
数式3の平均2乗誤差は以下のようになる。
Figure 0004918615
aaおよびRazはそれぞれaiの自己相関行列、aiとziの相互相関行列である。このとき誤差eを最小にするFは以下の数式5を解いて、解は数式6のように線形代数の範囲で陽に求まる。
Figure 0004918615
Figure 0004918615
この学習方法による長所は以下に示す3点である。
(1)個々の対象を切り出して教示する必要がない。
(2)画面内にいる対象の個数を教示するだけで認識に必要な因子をシステムが自動的かつ適応的に獲得する。
(3)解は線形代数の範囲で陽に求まるので、解の収束性や局所解への収束を考える必要がなく、計算量が少ない。
図6は、学習モードで生成された因子行列の例を示す説明図である。この例では、対象として「右に歩く人」と「左に歩く人」の2種類を含む因子行列を示している。「右に歩く人」には、移動速度(駆け足、早歩き、普通歩き)やスケール(大、中、小)の異なる9個の因子ベクトルf0〜f16(添え字が偶数)が属し、「左に歩く人」にも9個の因子ベクトルf1〜f17(添え字が奇数)が属している。図6に示した画像は個々の因子ベクトルと対応する学習データの差分2値画像例である。
図8は、本発明による対象個数検出処理(認識モード)の内容を示すフローチャートである。S20においては、フレーム入力されるまで待ち、S21においては、フレームデータを入力する。S22においては、前記したように差分データを生成し、2値化する。S23においては、1フレームの画素それぞれについて画素CHLACデータを抽出し、1フレーム分を加算してフレーム対応CHLAC特徴データを得る。S21〜S23の処理は前記した学習モードにおけるS11〜S13と同一である。S24においては、フレーム対応CHLACデータを保存する。S25においては、直近の所定時間幅のフレーム対応CHLACデータを加算してCHLAC特徴データを得る。
図5は、本発明による動画像の実時間処理の内容を示す説明図である。S24において得られるCHLAC特徴データはフレームのシーケンスとなっている。そこで時間方向に一定幅の時間窓を設定し、窓内のフレーム集合を1つの3次元データとする。そして、新たなフレームが入力される度に時間窓を移動させ、古いフレームを削除することで有限な3次元データが得られる。この時間窓の長さは、認識しようとする動作の1周期と等しいか、より長く設定することが望ましい。
なお、実際には画像フレームデータは差分を取るために1フレームのみ保存され、フレームと対応するフレーム対応CHLACデータが時間窓分だけ保存される。即ち、時刻tに新たなフレームが入力された時点では、直前の時間窓(t-1,t-n-1)に対応するフレーム対応CHLACデータはすでに算出されている。但し、フレームCHLACデータを計算するためには直近の3つの差分フレームが必要であるが、(t-1)フレームは端なのでフレームCHLACデータは(t-2)フレームに対応するものまで算出されている。
そこで、新たに入力されたtフレームを用いて(t-1)フレームに対応するフレーム対応CHLACデータを生成してCHLAC特徴データに加算する。また、最も古い(t-n-1)フレームと対応するフレーム対応CHLACデータをCHLAC特徴データから減算する。このような処理により、時間窓と対応するCHLAC特徴データが更新される。
図8に戻って、S26においては、学習によって得られた既知の因子行列に基づき、各因子ベクトルの因子付加量(係数)aを求める。認識したい動画像から得られた立体高次局所自己相関特徴zがあるとき、数式3のようにzは学習によって得られた因子ベクトルfの線形結合として表されるはずである。従って、このとき誤差eを最小にするような係数のベクトルである因子付加量ベクトルaを求める。
以下に数式3における誤差eを最小とする因子付加量aを求める具体的な過程について説明する。最小2乗誤差は、以下の数式7のようになる。
Figure 0004918615
これを最小とする係数aは、以下の数式8を解いて、数式9のように陽に求まる。
Figure 0004918615
Figure 0004918615
このようにして求まる因子付加量aは整数とはならず、小数点未満を含む実数となる。S27においては、同じ対象に属する複数の因子の係数の合計を求める。即ち、例えば図6に示す「右に移動する人」に属する9個の因子(f0,f2,f4…f16)の係数の合計を求める。
S28においては、係数の合計の小数点未満を四捨五入して整数化し、各対象毎の個数として出力する。S29においては、処理終了か否かが判定され、判定結果が否定の場合にはS20に移行するが、肯定の場合には処理を終了する。
従来のCHLACデータによる個数認識においては、単純に各因子の係数である因子付加量を四捨五入してそれを個数の認識結果としていた。しかし、それではスケールや速度の違う因子が存在するような場合に個数の認識がうまくいかなかった。そこで本発明者が各種の実験を行った結果、1つの対象について、画面内のスケールや歩く速度の違いによって因子を分けて設け、更に、同じ対象に属する因子の因子付加量を足し合わせてから四捨五入するという方式を用いることでスピードや速度の違いに頑健な認識ができることが判明した。
図9は、S13の画素CHLACデータ抽出処理の内容を示すフローチャートである。S30においては、251個の相関パターン対応の相関値群データをクリアする。S31においては、未処理の画素(参照点)を1つ選択する(フレーム内で参照点である注目画素を順にスキャンする)。S32においては、未処理の相関マスクパターンを1つ選択する。
S33においては、前記した数式1を用いてパターンと対応する位置の差分値(0または1)を乗算して相関値を計算する。なお、この処理は前記した数式1におけるf(r)f(r+a1)…f(r+aN)の演算に相当する。
S34においては、相関値は1か否かが判定され、判定結果が肯定の場合にはS35に移行するが、否定の場合にはS36に移行する。S35においては、マスクパターンと対応する相関値データに1を加算する。S36においては、全てのマスクパターンについて処理が完了したか否かが判定され、判定結果が肯定の場合にはS37に移行するが、否定の場合にはS32に移行する。
S37においては、全ての画素について処理が完了したか否かが判定され、判定結果が肯定の場合にはS38に移行するが、否定の場合にはS31に移行する。S38においては、1フレーム分が加算された相関値群データをフレーム対応CHLACデータとして出力する。
実施例1の因子分析では、求めたい計測結果を得るため、学習時に個々の移動物体の種類や動き、スケール等に固有の因子ベクトルを求め、認識時に各因子ベクトルの係数の和の形で対象の個数を求めた。この際、スケールやスピードの違いに応じた因子を用意し、それらの係数を加算してから四捨五入することで対象のスケールやスピードの変化に頑健な認識を行うことができた。この手法は、各因子に対応する特徴ベクトルを求めているため、それらを利用した手法、例えば交通量計測や異常検出には有用である。
しかし、実験の結果、単純に個数のみを知りたい場合には、因子分析に比べてより直接的な手法である重回帰分析を用いることにより、高速かつロバストに個数の計測が可能であることが判明した。
重回帰分析を用いて、スケールやスピードに対して頑健な認識を行うためには、因子分析の場合と同様に様々なスケールやスピードの対象を含んだ学習データを用いて学習を行う。ただし、学習データに対する教師信号については因子分析とは異なる与え方をする。
因子分析ではスケールやスピードの違いも含めた教師信号を用い、認識時に検出対象の係数を足し合わせることを行うが、重回帰分析では予め教師信号の段階で足し合わせたものを用いる。すなわちスケールやスピードの違いを無視した教師信号を用いる。
例えば、「右に歩く人」としてスケール大中小が含まれるデータがあった場合、因子分析ではそれらを分けて「右に歩くスケール大の人」が1人というように教師信号を与えるが、重回帰分析ではスケールやスピードの違いを無視して単純に「右に歩く人」の個数を与える。認識時においては加算を行う必要はなく、スケールやスピードの違いに頑健に人数を計測することが可能である。以下、具体的な内容について説明する。
実施例2において用いる重回帰分析とは、ある特徴量ziが得られる際の望ましい計測結果をaiとしたとき、出力yi=BTiとaiの最小2乗誤差を最も小さくするような係数行列Bを決定する手法である。この場合、最適な係数行列は一意に求まり、得られた最適な係数行列Bを用いることにより、システムは新たな入力特徴ベクトルに対する計測値(個数)を高速に算出することができる。以下に詳しい算出方法を説明する。
<<学習フェーズ>>
学習データとして用いる立体データの数、すなわち学習データ数をN、i番目(1≦i≦N)の立体データに対応する立体高次局所自己相関特徴をzi、教師信号をai=[ai0,ai1,・・・,ai(m-1)Tとする。教師信号は学習データがスケールやスピードが様々な「右に歩く人」と「左に歩く人」がいるデータであっても、スケールやスピードの違いを無視し、a=(右に歩く人の数、左に歩く人の数)Tとする。教師信号aiと出力yi=BTiの平均2乗誤差は以下のようになる。
Figure 0004918615
zzおよびRzaはそれぞれ、ziの自己相関行列およびziとaiの相互相関行列である。このとき、平均2乗誤差を最小にするBは下記の数式11を解いて、数式12に示すように線形代数の範囲で陽に求まる。
Figure 0004918615
Figure 0004918615
<<認識フェーズ>>
認識においては、得られた特徴ベクトルに対し学習フェーズで得られた係数行列Bを以下のように掛け合わせることで直接的に対象の個数を得ることができる。
Figure 0004918615
重回帰分析を用いた場合、各因子ベクトルを直接的に得ていないため、各因子ベクトルのなす部分空間との距離を用いることによる異常検出や、交通量計測の際に必要となる付加的な情報などは得られない。従って、対象や状況により、実施例1と実施例2の手法を使い分ける必要がある。また、2つの手法を組み合わせて使用することにより、処理速度の向上と認識精度の向上の両立を図ることも可能である。
以上、実施例を説明したが、本発明は、例えば画面内を通過した車や人の数を計測する交通量計測システムに適用可能である。実施例のシステムにおいては、画面内の対象の個数がリアルタイムに出力されるが、例えば1時間当たりの通過個数は実施例のシステムから直接得ることはできない。そこで、単位時間当たりの対象の通過個数は、本発明のシステムから出力される個数情報を時間積分し、この積分値を対象の平均移動速度等から求めた画面を通過する平均時間で除算することによって算出できる。対象が画面を通過する平均時間は、本発明のシステムから出力される個数情報の変動からも推定可能である。
また、本発明には以下のような変形例も考えられる。実施例においては、1つの対象についてスケールや移動速度などが異なる複数の因子ベクトルを全て学習データから因子分析によって生成する例を開示したが、例えばスケール大と対応する因子ベクトルとスケール小に対応する因子ベクトルからスケール中と対応する因子ベクトルを計算によって生成するなど、因子ベクトルを他の因子ベクトルから内挿補間演算あるいは外挿補間演算により求めてもよい。
実施例においては、対象画像のスケールや速度について各種の学習用データを用いる例を開示したが、対象の移動方向についても、スケールや速度と同様にロバストな個数計測が可能である。例えば、因子分析を用いたロバストな個数計測の応用例として、様々な方向に歩く人を上方から撮影し、任意の方向に移動する人の合計数を計測することが可能である。
人が歩く方向の因子としては、例えば上下、左右、斜め右上(下)、斜め左上(下) の8方向を採用する。そして8方向の因子を学習する。認識時には、学習した因子行列を用いて各因子付加量を求め、スケールやスピードの場合と同様にそれらの因子付加量を加算し、四捨五入することにより歩行者の数とする。なお、用意する方向としては、用途に応じて増減が可能である。また、重回帰分析を用いる場合には方向性を無視して単に歩行者の数のみを教師信号とすればよい。
以上の方法により、様々な方向に動く対象を扱う場合においてもロバストに個数の計測ができる。実用的なアプリケーションとしては(スクランブル)交差点などを上方から撮影したカメラによる歩行者や車両の個数計測、動いている生物や粒子の個数計測、特に顕微鏡などを用いた微細生物、粒子等の個数計測。静止しているものと動いているものの個数比較、動きの傾向分析などが考えられる。
10…ビデオカメラ
11…コンピュータ
12…モニタ装置
13…キーボード
14…マウス

Claims (2)

  1. 検出対象を撮影した複数の画像フレームデータからなる動画像データからフレーム間差分データを生成し、2値化する差分2値化データ生成手段と、
    直近の複数の前記フレーム間差分2値化データからなる3次元データから立体高次局所自己相関によって特徴データを抽出する特徴データ抽出手段と、
    画面上の対象の移動方向が異なる複数の学習データから得られた前記特徴データに基づいて重回帰分析によって検出対象の個数を算出するための係数行列を生成するものであって、前記重回帰分析においては、前記対象の移動方向が異なる複数の学習データの教師信号として、前記対象の移動方向の違いを無視し、対象の個数を足し合わせた数値を用いる学習手段と、
    予め得られた前記係数行列を使用して、認識すべきデータから得られた特徴データから個数を求める個数生成手段と、
    前記個数生成手段の出力値の小数点未満を四捨五入して整数化する整数化手段と
    を備えたことを特徴とする対象個数検出装置。
  2. コンピュータが、検出対象を撮影した複数の画像フレームデータからなる動画像データからフレーム間差分データを生成し、2値化するステップ、
    コンピュータが、直近の複数の前記2値化されたフレーム間差分データからなる3次元データから立体高次局所自己相関によって特徴データを抽出するステップ、
    コンピュータが、画面上の対象の移動方向が異なる複数の学習データから得られた前記特徴データに基づいて重回帰分析によって検出対象の個数を算出するための係数行列を生成するものであって、前記重回帰分析においては、前記対象の移動方向が異なる複数の学習データの教師信号として、前記対象の移動方向の違いを無視し、対象の個数を足し合わせた数値を用いるステップ、
    コンピュータが、前記係数行列を使用して、認識すべきデータから得られた特徴データから個数値を求めるステップ、
    コンピュータが、前記個数値の小数点未満を四捨五入して整数化するステップ
    を含むことを特徴とする対象個数検出方法。
JP2010294428A 2010-12-29 2010-12-29 対象個数検出装置および対象個数検出方法 Active JP4918615B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010294428A JP4918615B2 (ja) 2010-12-29 2010-12-29 対象個数検出装置および対象個数検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010294428A JP4918615B2 (ja) 2010-12-29 2010-12-29 対象個数検出装置および対象個数検出方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009141781A Division JP4674920B2 (ja) 2009-06-15 2009-06-15 対象個数検出装置および対象個数検出方法

Publications (2)

Publication Number Publication Date
JP2011090708A JP2011090708A (ja) 2011-05-06
JP4918615B2 true JP4918615B2 (ja) 2012-04-18

Family

ID=44108840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010294428A Active JP4918615B2 (ja) 2010-12-29 2010-12-29 対象個数検出装置および対象個数検出方法

Country Status (1)

Country Link
JP (1) JP4918615B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4925120B2 (ja) * 2007-07-02 2012-04-25 独立行政法人産業技術総合研究所 物体認識装置および物体認識方法
JP6460332B2 (ja) * 2015-04-20 2019-01-30 国立大学法人 東京大学 特徴量生成ユニット、照合装置、特徴量生成方法、および特徴量生成プログラム
JP6509685B2 (ja) * 2015-09-03 2019-05-08 日本電信電話株式会社 移動速度推定装置、方法、及びプログラム
KR102516366B1 (ko) 2018-05-30 2023-03-31 삼성전자주식회사 특징 데이터 획득 방법 및 장치

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2982814B2 (ja) * 1988-10-11 1999-11-29 工業技術院長 適応学習型汎用画像計測方法
JP4061377B2 (ja) * 2003-09-12 2008-03-19 独立行政法人産業技術総合研究所 3次元データからの特徴抽出装置

Also Published As

Publication number Publication date
JP2011090708A (ja) 2011-05-06

Similar Documents

Publication Publication Date Title
JP4429298B2 (ja) 対象個数検出装置および対象個数検出方法
TWI750498B (zh) 視訊流的處理方法和裝置
EP2858008B1 (en) Target detecting method and system
Hu et al. Moving object detection and tracking from video captured by moving camera
JP4215781B2 (ja) 異常動作検出装置および異常動作検出方法
CN109727275B (zh) 目标检测方法、装置、系统和计算机可读存储介质
CN110033431B (zh) 钢桥表面锈蚀区域检测的非接触式检测装置及检测方法
CN103093198A (zh) 一种人群密度监测方法及装置
US11030478B1 (en) System and method for correspondence map determination
CN112381132A (zh) 一种基于多个摄像头融合的目标物跟踪方法和系统
CN111382637A (zh) 行人检测跟踪方法、装置、终端设备及介质
JP4918615B2 (ja) 対象個数検出装置および対象個数検出方法
Bulugu Algorithm for license plate localization and recognition for tanzania car plate numbers
CN111028263A (zh) 一种基于光流颜色聚类的运动物体分割方法及其系统
JP4674920B2 (ja) 対象個数検出装置および対象個数検出方法
JP4459162B2 (ja) 速度計測装置、方法及びプログラム
Bharath et al. Moving object detection, classification and its parametric evaluation
Balcilar et al. Extracting vehicle density from background estimation using Kalman filter
CN113628251B (zh) 一种智慧酒店终端监测方法
JP6606340B2 (ja) 画像検出装置、画像検出方法およびプログラム
KR20150033047A (ko) 객체를 검출하기 위한 전처리 장치 및 방법
JP2006010652A (ja) 物体検出装置
Tupper et al. Pedestrian proximity detection using RGB-D data
RU2466456C2 (ru) Способ выделения контуров движущихся объектов
JP6348020B2 (ja) 画像処理装置、画像処理方法およびそれを用いた検査方法。

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120130

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150203

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4918615

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250