以下、図面を参照して本発明の実施の形態を詳細に説明する。
<第1実施形態>
本実施の形態では、一例として、撮影位置が固定された2台のカメラで撮影された撮影画像を用いて、予め定めた領域(以下、特定領域という)内に存在する物体の物体数分布を推定する。ここで物体とは、人物を含む生物及び生物以外の物品の両者を総称したものであり、本実施の形態では、人物を例にした物体数分布の推定について説明する。
まず、特定領域の構成について説明する。図1は、本実施の形態に係る特定領域の一例を示した図である。
図1に示すように、本実施の形態に係る特定領域は、床面を3×3の9つの領域に分割した領域全体をいう。
そして、特定領域は図2に示すように、カメラから見た左右方向に3分割した撮影面分割領域に分割される。
また、撮影面分割領域は図3に示すように、撮影面分割領域を奥行方向に3分割した分割特定領域に分割される。
更に、分割特定領域は図4に示すように、分割特定領域を高さ方向に3分割した空間分割領域に分割される。
このように、特定領域は、複数の撮影面分割領域を含んで構成される。なお、本実施の形態に係る特定領域は、複数の撮影面分割領域を含んで構成されるものとして説明するが、例えば、特定領域を分割することなく、特定領域自体を1つの撮影面分割領域として扱ってもよいことは言うまでもない。
なお、本実施の形態では、一例として、特定領域を複数の撮影面分割領域に分割するものとして説明する。
次に、特定領域及びカメラの位置関係について説明する。
図5は、特定領域を上方から見た場合の平面図である。本実施の形態に係る特定領域は300[cm]四方の床面を有し、床面は3×3の9つの領域に分割されている。そして、100[cm]四方からなる各々の領域には、最大4人までの人物が入れるものと仮定した。
また、特定領域から250[cm]離れた位置に、カメラ1及びカメラ2が配置されている。この際、カメラ1及びカメラ2は、特定領域を異なる方向から撮影できるように、特定領域を含む矩形空間の異なる面と対向する位置に各々配置される。各カメラには、カメラを一意に識別するため、カメラ番号が付されている。
なお、図5では、特定領域を正面及び右方面から撮影する位置にカメラが配置されているが、カメラの配置場所はこれに限られない。また、特定領域の床面の大きさや、特定領域の床面の分割数も上記の例に限られず、状況に応じて任意に設定すればよい。
そして、撮影面分割領域毎に、カメラ1及びカメラ2で撮影した画像から得られる特徴を割り当て、分割特定領域で交差する撮影面分割領域毎の特徴と当該分割特定領域の物体数との予め定めた対応関係に基づいて、分割特定領域における物体数を算出することで特定領域における物体数分布を推定する。
図6は、分割特定領域で交差する撮影面分割領域の特徴を割り当て、分割特定領域における物体数を算出する一例を示した説明図である。
例えば、カメラ1の撮影画像から得られた撮影面分割領域に対応する領域の特徴を表す特徴量をX、カメラ2の撮影画像から得られた撮影面分割領域に対応する領域の特徴を表す特徴量をYとした場合、特徴量X及びYと、予め定めた対応関係とから、分割特定領域に存在する人数p1が推定される。ここで、撮影面分割領域に対応する領域とは、図2において斜線で示された撮影面分割領域の上方に設定された領域をいう。
そして、上記の処理を全ての分割特定領域に対して実施すれば、特定領域における物体数分布を推定することができる。
次に、特定領域における物体数の分布を推測する物体数分布推測装置に、本発明を適用した場合を例にして、本実施の形態を説明する。
図7に示すように、本実施の形態に係る物体数分布推定装置100は、CPUと、RAMと、後述する物体数分布推定処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。
物体数分布推定装置100は、入力部10と、演算部20と、記憶部30と、出力部40とを備えている。
入力部10により、カメラ1及びカメラ2で撮影された撮影画像のペア、カメラ1及びカメラ2で撮影された特定領域の背景画像、カメラ1及びカメラ2で撮影された学習用前景画像のペア、及び当該学習用前景画像のペアに対応する学習用物体数分布が入力される。ここで、背景画像とは、特定領域内に物体が存在していない状況で撮影された画像をいい、前景画像とは、特定領域内に存在する物体を表す画像、すなわち、特定領域の撮影画像から背景画像を除去した画像をいう。
記憶部30は、入力部10により入力された各種画像及び学習用物体数分布を記憶する。また、記憶部30は、後述する演算部20の各処理での結果を記憶する。
演算部20は、学習用前景画像合成部201と、学習用分割領域特徴取得部202と、対応関係学習部203と、背景画像蓄積部204と、前景画像抽出部205と、分割領域特徴取得部206と、物体数分布取得部207とを備えている。
学習用前景画像合成部201は、カメラ1及びカメラ2で撮影された学習用前景画像のペアと当該学習用前景画像のペアに対応する学習用物体数分布を入力部10から取得し、複数の分割特定領域に対応する学習用前景画像の部分画像を合成することにより、複数の学習用物体数分布の各々に対応して、擬似的に、カメラ1及びカメラ2で撮影された各々の学習用前景画像を生成する。
なお、学習用前景画像合成部201に入力される学習用前景画像は、予め前景画像の切り出しを人手で行ったものが利用される。こうすることで、仮に後述する対応関係の学習に十分な数の学習用前景画像が得られない場合であっても、特定領域に存在する少人数を撮影した画像から切り出した前景画像を重ね合わせて合成することで、特定領域に存在する多人数を撮影した画像から得られる学習用前景画像を生成することができる。
学習用分割領域特徴取得部202は、入力部10により入力された学習用前景画像及び学習用前景画像合成部201で合成された学習用前景画像の各々から、撮影面分割領域毎に分割領域特徴を取得する。すなわち、学習用前景画像を、撮影面分割領域に対応する領域単位に分割し、撮影面分割領域毎に、学習用前景画像と撮影面分割領域に対応する領域とが重複する共通の領域から学習用前景画像の特徴を取得して、当該撮影面分割領域における分割領域特徴として対応づける。
本実施の形態で用いる分割領域特徴は、(1)前景領域の画素数、(2)前景領域のエッジの画素数、(3)前景領域と背景領域との境界の画素数、の3つである。
図8は、3つの分割領域特徴を説明した図である。図8に示すように、前景領域とは、前景画像が表示されている領域を表し、前景領域のエッジとは、前景画像から抽出される輪郭線を表し、前景領域と背景領域との境界とは、前景画像が表示されている領域と背景画像が表示されている領域との境界を表している。
なお、分割領域特徴の取得には、例えば、非特許文献1に示されているCannyエッジ検出器が用いられる。
対応関係学習部203は、学習用分割領域特徴取得部202で学習用前景画像の各々について取得した撮影面分割領域毎の分割領域特徴と、カメラ1及びカメラ2で撮影された学習用前景画像のペアに対応する学習用物体数分布と、に基づいて、分割特定領域毎に、分割領域特徴と物体数との対応関係を学習する。
学習する対応関係は、物体数分布^pのi番目の分割特定領域の推定値をpiとすると、例えば、最も単純な一次式による回帰(単回帰)を用いて(1)式のように表すことができる。
ここで、w0i及びwjiの値は、カメラ1及びカメラ2で撮影された学習用前景画像のペアの各々に対応する、学習用分割領域特徴取得部202で当該ペアの学習用前景画像の各々について取得した、i番目の分割特定領域を含む撮影面分割領域に対応する領域の特徴xji(j=1,・・・,J)と、当該ペアに対応する学習用物体数分布から得られるi番目の分割特定領域の物体数との多数の組み合わせを用いて決定される。
なお、(1)式では対応関係を表す回帰式として単回帰を用いたが、(2)式に示すようにn次式に拡張した場合や、(3)式に示すように、変数を予め定めた関数φnji(xji)により拡張した場合であっても、複数の説明変数を用いた回帰分析である重回帰分析を用いることで、対応関係を学習することができる。
背景画像蓄積部204は、入力部10から取得したカメラ1及びカメラ2で撮影された背景画像を、カメラ毎に蓄積する。
前景画像抽出部205は、背景画像蓄積部204によって蓄積された、特定領域に物体が存在しない状況で、カメラ1及びカメラ2から特定領域を撮影した複数の背景画像と、入力部10から取得したカメラ1及びカメラ2から特定領域を撮影した複数の撮影画像とに基づいて、カメラ毎に、当該カメラの背景画像と撮影画像との差分を求めて、物体を表す画像である前景画像を抽出する。
前景画像を抽出する方法としては、例えば、撮影画像のRGB値と背景画像のRGB値との差分が予め定めた閾値以上となる画素を検出することにより、撮影画像内の物体像の領域を特定し、特定した領域を前景画像として抽出する方法が用いられる。
なお、差分の測定対象となる値は画像のRGB値に限定されない。例えば、明度、彩度、色相等の画像の色空間を表現する一般的な数値を用いることができる。また、差分の算出方法には、例えば、画像のRGB値をベクトルとみなした場合のベクトル差のノルム等、一般に使用される距離尺度を用いることができる。
また、前景画像の抽出の精度を上げるために、例えば、時間相関の変化パターンを用いて、画像中での移動物体が存在する時間区分を決定して画像中から移動物体を検出する、非特許文献3に記載されている既知の手法を用いてもよい。
すなわち、前景画像抽出部205で用いられる前景画像の抽出方法は特に限定されず、既知の手法が用いられる。
分割領域特徴取得部206は、前景画像抽出部205で抽出されたカメラ毎の前景画像を、当該カメラから見た複数の撮影面分割領域に対応する領域に分割し、撮影面分割領域毎に撮影面分割領域と前景画像とが重複する共通領域から分割領域特徴を取得する。
物体数分布取得部207は、分割特定領域i毎に、分割領域特徴取得部206で取得した当該分割特定領域iを含む撮影面分割領域の各々の分割領域特徴xjiと、対応関係学習部203によって当該分割特定領域iについて予め求められた分割領域特徴xjiと物体数との対応関係(w0i及びwjiの値)とから、上記(1)式に従って、当該分割特定領域iにおける物体数の推定値piを取得する。
具体的には、本実施の形態の場合、図6に示したように、分割特定領域について、カメラ1の撮影画像から取得した当該分割特定領域を含む撮影面分割領域に対応する分割領域特徴と、カメラ2の撮影画像から取得した当該分割特定領域を含む撮影面分割領域に対応する分割領域特徴とに基づいて、当該分割特定領域の物体数が推定される。
出力部40は、物体数分布取得部207で取得した分割特定領域i毎の物体数の推定値piを、特定領域における物体数分布^pとして出力する。
なお、物体数の推定値piを整数値として出力する場合には、推定値piを、例えば(4)式に従って変換した値pi’で出力する。なお、round(x)は、xを四捨五入することを表している。
次に、本実施の形態に係る物体数分布推定装置100の作用について説明する。まず、異なる撮影位置に配置されたカメラ1及びカメラ2によって特定領域を撮影した複数の背景画像が物体数分布推定装置100に入力されると、背景画像蓄積部204に蓄積されると共に、物体数分布推定装置100において、図9に示す対応関係学習処理ルーチンが実行される。
まず、ステップS10では、入力部10からカメラ1及びカメラ2によって撮影された学習用前景画像のペアと、当該ペアに対応する学習用物体数分布が入力されたか否かを判定し、否定判定の場合には、当該学習用前景画像のペア及び当該ペアに対応する学習用物体数分布が入力されるまで、ステップS10の処理を繰り返す。一方、肯定判定の場合には、ステップS20に移行する。
ステップS20では、ステップS10で入力部10から入力された学習用前景画像のペアを読み込んで、学習用前景画像をカメラ番号と対応づけて記憶部30に格納すると共に、ステップS10で入力部10から入力された学習用物体数分布を、学習用前景画像のペアと対応付けて記憶部30に格納する。
そして、ステップS30では、記憶部30からステップS20の処理によって格納された学習用前景画像のペア、及び当該学習用前景画像のペアに対応する学習用物体数分布を読み出し、カメラ番号毎に学習用前景画像を合成して、カメラ1について合成された学習用前景画像とカメラ2について合成された学習用前景画像との複数のペアを生成し、生成された複数のペアの各々を、当該ペアに対応する学習用物体数分布と対応付けて記憶部30に格納する。
ステップS40では、ステップS30で生成された学習用前景画像のペアの各々について、当該ペアに含まれるカメラ1の学習用前景画像を、カメラ1から見た複数の撮影面分割領域に対応する領域に分割すると共に、当該ペアに含まれるカメラ2の学習用前景画像を、カメラ2から見た複数の撮影面分割領域に対応する領域に分割する。そして、既に説明したCannyエッジ検出器を介して、撮影面分割領域に対応する領域毎に、撮影面分割領域に対応する領域と学習用前景画像とが重複する共通領域の(1)前景領域の画素数、(2)前景領域のエッジの画素数、(3)前景領域と背景領域との境界の画素数を取得する。そして、学習用前景画像のペアの各々について、上記(1)〜(3)の各画素数を、対応する撮影面分割領域における学習用分割領域特徴として割り当てた上で、カメラ1及びカメラ2の各々に対し、撮影面分割領域と学習用分割領域特徴とを対応付けて、記憶部30に格納する。
ステップS50では、全ての学習用前景画像のペア及び当該ペアの各々に対応する学習用物体数分布から学習用分割領域特徴を取得したか否かを判定し、否定判定の場合には、上記ステップS10へ戻り、次の学習用前景画像のペア及び当該ペアに対応する学習用物体数分布に基づいて、上記ステップS10〜ステップS40の処理を繰り返す。一方、肯定判定の場合には、ステップS60へ移行する。
ステップS60では、分割特定領域i毎に、全ての学習用前景画像のペアにおける、ステップS40で取得した当該分割特定領域iを含む撮影面分割領域の分割領域特徴と、全ての学習用前景画像のペアに対応する学習用物体数分布から得られる分割特定領域iの物体数とに基づいて、上記(1)式で用いられるパラメータw0i及びwji(j=1,・・・,J)の値を決定する。決定したパラメータw0i及びwjiは記憶部30に格納する。
以上の処理によって、分割特定領域毎に、撮影面分割領域の分割領域特徴と当該分割特定領域における物体数との対応関係を表す回帰式が学習される。
そして、この後、物体数分布推定装置100において、図10に示す物体数分布推定処理ルーチンが実行される。
まず、ステップS100において、入力部10から入力されたカメラ1及びカメラ2によって撮影された特定領域の背景画像の各々を背景画像蓄積部204から読み出し、例えば、背景画像をカメラ番号と対応づけて記憶部30に格納する。
そして、ステップS110では、入力部10からカメラ1及びカメラ2によって撮影された特定領域の撮影画像のペアが入力されたか否かを判定し、否定判定の場合には、当該撮影画像のペアが入力されるまで、ステップS110の処理を繰り返す。一方、肯定判定の場合には、ステップS120に移行する。
ステップS120では、入力部10から入力されたカメラ1及びカメラ2によって撮影された特定領域の撮影画像のペアを読み込んで、当該撮影画像の各々をカメラ番号と対応づけて記憶部30に格納する。
そして、ステップS130では、記憶部30からステップS100の処理によって格納された、カメラ1及びカメラ2によって撮影された特定領域の背景画像の各々と、ステップS120の処理によって記憶された、カメラ1及びカメラ2によって撮影された特定領域の撮影画像のペアとを読み出し、カメラ番号毎に、撮影画像のRGB値と背景画像のRGB値との差分が予め定めた閾値以上となる画素を検出して撮影画像内の物体像の領域を特定し、特定した領域を前景画像としてカメラ番号と対応づけて記憶部30に格納する。
なお、撮影画像内の物体像の領域を特定する際に用いられる予め定めた閾値を、例えば、ROMの予め定めた領域に予め記憶しておけばよい。
ステップS140では、ステップS130で抽出したカメラ1の前景画像を、カメラ1から見た撮影面分割領域に対応した領域に分割すると共に、ステップS130で抽出したカメラ2の前景画像を、カメラ2から見た撮影面分割領域に対応した領域に分割する。そして、既に説明したCannyエッジ検出器を介して、撮影面分割領域に対応した領域毎に、(1)前景領域の画素数、(2)前景領域のエッジの画素数、(3)前景領域と背景領域との境界の画素数を取得し、カメラ1及びカメラ2の各々について、上記(1)〜(3)の各画素数を当該撮影面分割領域における分割領域特徴として、各撮影面分割領域と対応づけて記憶部30に格納する。
そして、ステップS150では、ステップS140で取得した撮影面分割領域毎の分割領域特徴と、図9に示した対応関係学習処理ルーチンの実行により、分割特定領域i毎に用意された撮影面分割領域の分割領域特徴と物体数との対応関係とから、例えば上記(1)式に従って、分割特定領域iにおける物体数の推定値piを全ての分割特定領域iについて算出して、記憶部30に格納する。
具体的には、図6で示したように、分割特定領域iを含むカメラ1の撮影面分割領域及びカメラ2の撮影面分割領域に対応する分割領域特徴xji(j=1,・・・,J)を記憶部30から各々読み出し、読み出した分割領域特徴xjiを上記(1)に代入することで、分割特定領域iにおける物体数の推定値piを算出することができる。そして、この処理を全ての分割特定領域iについて実行する。
ステップS160では、全ての撮影画像のペアに対して物体数の推定を実施したか否かを判定し、肯定判定の場合には、ステップS150で推定した分割特定領域毎の物体数の推定値piに基づいて、出力部40より特定領域における物体数分布を出力して物体数分布推定処理ルーチンを終了する。全ての撮影画像のペアに対して物体数分布の推定を実施したか否かの判定条件としては、例えば、予め定めた数の撮影画像のペアに対して、上記ステップS110〜ステップS150の処理が実施されたか否かを判断すればよい。
一方、ステップS160の判定が否定判定となった場合には、終了条件を満足していないと判断して、上記ステップS110へ戻り、上記ステップS110〜ステップS150の処理を繰り返す。
以上の処理によって、特定領域における物体数の分布を推定することができる。
次に、本実施の形態に係る手法の有用性を示す目的で、図11に示すように、1台のカメラあたり1人から12人が写った撮影画像230枚から得られる学習用画像を合成することで生成された、4500枚の学習用前景画像を用いた場合の、提案法での評価実験の結果について説明する。
まず、図12を参照して学習用前景画像の生成方法の流れを示す。本評価実験では、床面を3×3に分割し、各分割特定領域単位で人物が0人から4人いる各々の状況を、予め図5で示した位置に配置した2台のカメラで撮影しておき、人物画像のみを切り出す。そして、切り出された人物画像と背景画像を合成することにより、学習用画像を生成する。この学習用画像はカメラ毎に生成される。そして、学習用画像から背景画像を用いて、学習用前景画像を抽出する。
なお、本評価実験では、分割特定領域毎に、当該分割特定領域に存在する人物画像を、0人から4人までそれぞれ1パターン、すなわち5パターン用意した。
図13に、上記のようにして生成された学習用前景画像に基づいて提案法を用いた場合の評価実験結果を示す。
図13に示されるように、提案法を用いて特定領域の物体数分布を推定した場合、一例として、最大誤差人数を0.57人以内に収めることができた。
<第2実施形態>
第1実施形態の対応関係学習部203では、撮影面分割領域の分割領域特徴と分割特定領域における物体数との対応関係は回帰式として表されるものとして、分割特定領域毎に対応関係を表した。本実施の形態における対応関係学習部203では、空間分割領域の分割領域特徴と物体数の分布との対応関係を対応表として表す形態について説明する。
なお、本実施の形態が第1実施形態と異なる点は、学習用分割領域特徴取得部202、対応関係学習部203、分割領域特徴取得部206、及び物体数分布取得部207における処理内容であり、その他の各部の処理内容は第1実施形態と同じである。また、本実施の形態に係る物体数分布推定装置100の構成も図7に示した構成と同じである。
本実施の形態における学習用分割領域特徴取得部202では、学習用前景画像合成部201で合成された学習用前景画像から、空間分割領域毎に、学習用前景画像と空間分割領域に対応する領域とが重複する共通の領域から学習用前景画像の特徴を取得して、当該空間分割領域における分割領域特徴として対応づける。
そして、対応関係学習部203は、学習用分割領域特徴取得部202で取得した全ての空間分割領域の分割領域特徴を表す特徴ベクトルに対して、主成分分析を実施することで次元削減を行い、次元削減後の各空間分割領域の分割領域特徴の特徴ベクトルvと、入力部10から入力された学習用物体数分布(人数分布の配置パターン)と、を対応づけた対応表を作成する。
例えば、L次元に次元を削減した後の特徴ベクトルvのl番目の要素を(5)式で表す。
ここで、φlは固有ベクトルであり、tは、ベクトルの転置を表す。また、カメラ1及びカメラ2の学習用前景画像の全ての空間分割領域の分割領域特徴を表すベクトルをzとし、(6)式で表す。
ただし、33個ある空間分割領域のカメラ1からの見掛け上の各々の領域を図4のように多角形の領域として表し、そのi番目の領域の(1)前景領域の画素数、(2)前景領域のエッジの画素数、(3)前景領域と背景領域との境界の画素数の分割領域特徴をそれぞれx1,i、x2,i、x3,iとし、カメラ2から見た空間分割領域のj番目の領域の分割領域特徴をy1,j、y2,j、y3,jとする。
ここで、カメラ1とカメラ2の学習用前景画像の分割領域特徴をzk(k=1,・・・,K)とし、(7)式で表される固有値問題を解くことで、固有ベクトルφlを求めることができる。ただし、φlは、固有値λを降順に並べてあり、次元削減後の特徴ベクトルvの次元数を予め決めておき、その次元数の数だけ使用する。
また、分割領域特徴取得部206では、前景画像抽出部205で抽出されたカメラ毎の前景画像を、当該カメラから見た複数の空間分割領域に対応する領域に分割し、空間分割領域毎に空間分割領域と前景画像とが重複する共通領域から分割領域特徴を取得する。
物体数分布取得部207では、分割領域特徴取得部206でカメラ1及びカメラ2について取得された全ての空間分割領域の分割領域特徴を表す特徴ベクトルに対して、主成分分析を実施することで次元削減を行う。そして、次元削減後の特徴ベクトルvと、対応関係学習部203で作成された特徴ベクトルvと人数分布の配置パターンとを対応づけた対応表と、に基づいて、特定領域における物体数分布を推定する。
具体的には、次元削減後の特徴ベクトルvと、対応表内の特徴ベクトルvを比較し、最も距離の近い対応表内の特徴ベクトルvに対応する人数分布の配置パターンを、物体数分布の推定結果として取得する。
対応表内の特徴ベクトルvとの比較に使用する距離尺度としては、L1距離、L2距離などの既知の距離尺度が用いられる。なお、本実施の形態では、一例として、L1距離を用いるものとする。
次に、図9及び図10を参照して、本実施の形態に係る物体数分布推定装置100の作用について説明する。なお、本実施の形態における物体数分布推定装置100の物体数分布推定処理ルーチンが、第1実施形態における物体数分布推定装置100の物体数分布推定処理ルーチンと異なる点は、図9におけるステップS40及びステップS60、並びに、図10におけるステップS140及びステップS150であり、その他のステップにおける処理は、既に第1実施形態で説明した処理と同じである。
図9のステップS40では、ステップS30で合成された学習用前景画像のペアの各々を、カメラ1及びカメラ2から見た複数の空間分割領域に対応する領域に分割する。そして、既に説明したCannyエッジ検出器を介して、空間分割領域に対応する領域毎に、(1)前景領域の画素数、(2)前景領域のエッジの画素数、(3)前景領域と背景領域との境界の画素数を取得する。そして、学習用前景画像のペアの各々について、上記(1)〜(3)の各画素数を、対応する空間分割領域における学習用分割領域特徴として割り当てた上で、カメラ1及びカメラ2の各々に対し、空間分割領域と学習用分割領域特徴とを対応付けて、記憶部30に格納する。
そして、ステップS50の判定処理により、全ての学習用前景画像のペア及び当該ペアの各々に対応する学習用物体数分布から学習用分割領域特徴を取得したと判定された場合にステップS60へ移行する。
ステップS60では、ステップS40で取得した全ての空間分割領域の学習用分割領域特徴を用いて、上記(7)式から予め定めた次元数Lの固有ベクトルφl(l=1,・・・,L)を求める。そして、学習用前景画像のペアの各々について、上記ステップS40で取得した当該ペアの全ての空間分割領域の学習用分割領域特徴を表す特徴ベクトルに対し、上記(5)式に従って、全てのlに対して特徴ベクトルvの要素vlを算出することによって、次元削減後の特徴ベクトルvを得る。そして、本ステップの処理により学習用前景画像のペアの各々について取得した特徴ベクトルvを、当該ペアに対応して入力された学習用物体数分布に基づく人数分布の配置パターンと対応づけた対応表を生成して、記憶部30に格納する。
また、図10のステップS140では、ステップS130で抽出したカメラ1の前景画像を、カメラ1から見た空間分割領域に対応した領域に分割すると共に、ステップS130で抽出したカメラ2の前景画像を、カメラ2から見た空間分割領域に対応した領域に分割する。そして、既に説明したCannyエッジ検出器を介して、空間分割領域に対応した領域毎に、(1)前景領域の画素数、(2)前景領域のエッジの画素数、(3)前景領域と背景領域との境界の画素数を取得し、カメラ1及びカメラ2の各々について、上記(1)〜(3)の各画素数を当該空間分割領域における分割領域特徴として、各空間分割領域と対応づけて記憶部30に格納する。
そして、ステップS150では、ステップS140で取得した全ての空間分割領域の分割領域特徴を表す特徴ベクトルに対して、上記ステップS60で求めた固有ベクトルφl(l=1,・・・,L)を用いて、全てのlについて上記(5)式を算出することにより次元削減後の特徴ベクトルvを得る。そして、前述したステップS60の処理によって生成された対応表を記憶部30から読み出し、対応表内の全ての特徴ベクトルvと、本ステップの処理より算出した特徴ベクトルvとのL1距離を演算して、最も距離の近い対応表内の特徴ベクトルvに対応する人数分布の配置パターンを、特定領域における物体数分布として記憶部30に格納する。
以上の処理によって、各空間分割領域の分割領域特徴を表す特徴ベクトルと物体数の分布との対応関係が対応づけられた対応表から、特定領域における物体数の分布を推定することができる。
次に、第1実施形態における評価実験と同様に、本実施の形態に係る手法の有用性を示す目的で、1台のカメラあたり1人から12人が写った画像230枚から得られる学習用画像を合成して、59枚の学習用前景画像を生成し、学習用前景画像のペア毎に、当該学習用前景画像のペアから得られる全ての空間分割領域の分割領域特徴を表す特徴ベクトルと、当該学習用画像のペアに対応する人数分布の配置パターンと、の対応関係が学習された対応表を用いて、提案法での評価実験を行った。なお、59枚の学習用前景用画像を用意したのは、9個の分割特定領域の各々に0人から4人の人物がいる配置パターンの全ての組み合わせについて学習用前景画像を作成したためである。
図14に、上記のようにして生成された学習用前景画像に基づいて提案法を用いた場合の評価実験結果を示す。
図14に示されるように、提案法を用いて特定領域の物体数分布を推定した場合、一例として、最大誤差人数を1.05人以内に収めることができた。
なお、本実施形態では、各空間分割領域の分割領域特徴を表す特徴ベクトルと物体数の分布との対応表を、分割領域特徴と物体数の分布との対応関係として用いたが、各撮影面分割領域の分割領域特徴と物体数の分布との対応表を、分割領域特徴と物体数の分布との対応関係として用い、特定領域における物体数の分布を推定してもよいことは言うまでもない。また、分割特定領域毎に、対応する空間分割領域又は撮影面分割領域の分割領域特徴と物体数との対応表を予め求めておき、分割特定領域毎に、物体数を推定して、特定領域における物体数の分布を推定するようにしてもよい。
<第3実施形態>
次に、本発明における第3の実施形態について説明する。
図15は、本実施の形態に係る物体数分布推定装置100の構成を示した図である。本実施の形態に係る物体数分布推定装置100の構成が第1実施形態及び第2実施形態における物体数分布推定装置100の構成と異なる点は、背景画像蓄積部204から学習用前景画像抽出部208へ、カメラ1及びカメラ2で撮影された背景画像のペアを出力するようにした点と、学習用前景画像合成部201を学習用前景画像抽出部208に置き換えた上で、入力部10から学習用前景画像抽出部208へ、カメラ1及びカメラ2で撮影された学習用撮影画像のペアを出力するようにした点と、入力部10から対応関係学習部203へ、当該学習用撮影画像のペアに対応する学習用物体数分布を出力するようにした点であり、その他の構成及び各部の処理は、第1実施形態及び第2実施形態における物体数分布推定装置100と同じである。
本実施の形態における学習用前景画像抽出部208は、カメラ1及びカメラ2で撮影された学習用撮影画像のペアを入力部10から取得すると共に、カメラ1及びカメラ2で撮影された背景画像のペアを背景画像蓄積部204から取得する。
そして、背景画像蓄積部204から取得した背景画像のペアと、入力部10から取得した学習用撮影画像のペアとに基づいて、カメラ番号毎に背景画像と学習用撮影画像との差分を求めて、学習用撮影画像から学習用前景画像を抽出する。
なお、この学習用前景画像の抽出には、前景画像抽出部205で実施される抽出方法と同様の方法を用いることができる。
学習用分割領域特徴取得部202では、学習用前景画像抽出部208で抽出された学習用前景画像のペアから、例えば、既に説明した処理によって撮影面分割領域毎に分割領域特徴を取得し、対応関係学習部203において、学習用分割領域特徴取得部202で学習用前景画像の各々について取得した撮影面分割領域毎の分割領域特徴と、カメラ1及びカメラ2で撮影された学習用撮影画像のペアに対する学習用物体数分布と、に基づいて、分割特定領域毎に、分割領域特徴と物体数との対応関係を学習する。
次に、図16を参照して、本実施の形態に係る物体数分布推定装置100の対応関係学習処理ルーチンについて説明する。なお、本実施の形態における物体数分布推定装置100の物体数分布推定処理ルーチンは、図10に示した処理と同じである。
まず、ステップS300では、入力部10からカメラ1及びカメラ2によって撮影された学習用撮影画像のペアと、当該ペアに対応する学習用物体数分布が入力されたか否かを判定し、否定判定の場合には、当該学習用撮影画像のペア及び当該ペアに対応する学習用物体数分布が入力されるまで、ステップS300の処理を繰り返す。一方、肯定判定の場合には、ステップS310に移行する。
ステップS310では、ステップS300で入力部10から入力された学習用撮影画像のペアを読み込むと共に、当該学習用撮影画像のペアが撮影された場所の背景画像のペアを、背景画像蓄積部204から読み込む。
そして、ステップS320では、ステップS310で読み込んだ学習用撮影画像のペア及び背景画像のペアに基づいてカメラ番号毎に、学習用撮影画像のRGB値と背景画像のRGB値との差分が予め定めた閾値以上となる画素を検出して学習用撮影画像内の物体像の領域を特定し、特定した領域を学習用前景画像としてカメラ番号と対応づけて記憶部30に格納する。
ステップS330では、図10のステップS40の処理と同様に、ステップS320で抽出された学習用前景画像のペアの各々を、カメラ1及びカメラ2から見た複数の撮影面分割領域に対応する領域に分割する。そして、既に説明したCannyエッジ検出器を介して、撮影面分割領域に対応する領域毎に、撮影面分割領域に対応する領域と学習用前景画像とが重複する共通領域の上記(1)〜(3)の各画素数を取得する。そして、これらの各画素数を、対応する撮影面分割領域における学習用分割領域特徴として割り当てた上で、撮影面分割領域と学習用分割領域特徴とを対応付けて、記憶部30に格納する。
そして、ステップS340の判定処理により、全ての学習用撮影画像のペア及び当該ペアの各々に対応する学習用物体数分布から学習用分割領域特徴を取得したか否かを判定し、否定判定の場合には、上記ステップS300へ戻り、次の学習用撮影画像のペア及び当該ペアに対応する学習用物体数分布に基づいて、上記ステップS300〜ステップS330の処理を繰り返す。一方、肯定判定の場合には、ステップS350へ移行する。
ステップS350では、図9のステップS60と同様の処理を実行して、分割特定領域毎に撮影面分割領域の分割領域特徴と物体数との対応関係を生成する。
第1実施形態及び第2実施形態では、対応関係を学習する際、入力部10から学習用前景画像を取得したが、本実施の形態では、実際の画像である学習用撮影画像と背景画像とから学習用前景画像を生成し、対応関係の学習を行った。
<第4実施形態>
本実施の形態に係る物体数分布推定装置100は、既に説明した第2実施形態に係る物体数分布推定装置100の変形例である。
第2実施形態では、次元削減後の特徴ベクトルvと、対応表内の特徴ベクトルvを比較し、最も距離の近い対応表内の特徴ベクトルvに対応する人数分布の配置パターンを、物体数分布の推定結果として取得した。
本実施の形態に係る物体数分布推定装置100は、次元削減後の特徴ベクトルvと、対応表内の特徴ベクトルvを比較するところまでは、第2実施形態に係る物体数分布推定装置100と同じである。
しかし、当該比較の際、本実施の形態に係る物体数分布推定装置100は、次元削減後の特徴ベクトルvに最も距離の近い対応表内の特徴ベクトルvに対応する人数分布の配置パターンを、物体数分布の推定結果とするのではなく、次元削減後の特徴ベクトルvからM近傍(M=1,・・・,m)にある対応表内の特徴ベクトルvに対応する人数分布の配置パターンを取得する。ここで、次元削減後の特徴ベクトルvからM近傍にある対応表内の特徴ベクトルvとは、次元削減後の特徴ベクトルvからの距離が最も近い対応表内の特徴ベクトルvからM番目に近い対応表内の特徴ベクトルvまでのM個の特徴ベクトルvをいう。
そして、取得したM個の人数分布の配置パターンの各々に対して、次元削減後の特徴ベクトルvからの距離に応じて予め設定された重み付けを行い、重み付け後のM個の人数分布の配置パターン(重み付け配置パターン)の各々を加算した結果を、特定領域における物体数分布の推定結果として取得する。
すなわち、特定領域における各分割特定領域iの物体数の推定値Biは(10)式で表される。
ここで、bmiは、次元削減後の特徴ベクトルvからの距離がm番目に近い対応表内の特徴ベクトルvに対応する人数分布の配置パターンにおける分割特定領域iの物体数であり、gmはbmiの重み付けに用いられる重みである。M=1の場合にgm=1とすれば、第2実施形態における特定領域における物体数分布の推定結果と一致する。
なお、人数分布の配置パターンの重み付けに用いられる重みgmの大きさは、次元削減後の特徴ベクトルvから最も距離が近い対応表内の特徴ベクトルvに対応する人数分布の配置パターンb1の重み付けに用いられる重み、すなわちg1の値を最も大きくする。そして、g2、g3、・・・、gmとmの値が大きくなるに従って、重みの値が小さくなるように重みgmを設定することが好ましい。例えば、M=3の場合、g1=0.4、g2=0.35、g3=0.25である。
具体的には、次元削減後の特徴ベクトルvからm番目に近い対応表内の特徴ベクトルvまでの距離をdm(m=1,・・・,M)とすれば、重みgmの大きさは(11)式で表される。
次に、図10を参照して、本実施の形態に係る物体数分布推定装置100の作用について説明する。
本実施の形態に係る物体数分布推定装置100の構成は、図7に示した第2実施形態に係る物体数分布推定装置100の構成と同じである。
また、本実施の形態における物体数分布推定装置100の物体数分布推定処理ルーチンが、第2実施形態における物体数分布推定装置100の物体数分布推定処理ルーチンと異なる点は、図10におけるステップS150の処理であり、その他のステップにおける処理は、既に第2実施形態で説明した処理と同じである。従って、ここではステップS150の処理について説明する。
ステップS150では、ステップS140で取得した全ての空間分割領域の分割領域特徴を表す特徴ベクトルに対して、図9のステップS60で求めた固有ベクトルφl(l=1,・・・,L)を用いて、全てのlについて上記(5)式を算出することにより次元削減後の特徴ベクトルvを得る。
次に、前述したステップS60の処理によって生成された対応表を記憶部30から読み出し、対応表内の全ての特徴ベクトルvと、本ステップの処理より算出した特徴ベクトルvとのL1距離を演算する。そして、対応表内の全ての特徴ベクトルvのうち、本ステップの処理より算出した特徴ベクトルvとの距離が近い方から順にM個の特徴ベクトルvを抽出し、選択された対応表内のM個の特徴ベクトルvに対応する人数分布の配置パターンを選択する。なお、対応表内から抽出する特徴ベクトルvの数Mを、例えば、ROMの予め定めた領域に予め記憶しておけばよい。
そして、本ステップの処理により算出した特徴ベクトルvからm番目に近い対応表内のM個の特徴ベクトルvまでの各距離dm(m=1,・・・,M)を用いて、上記(11)に従って、選択されたM個の人数分布の配置パターンの各々に対応した重みgmを算出する。
このM個の重みgmと、選択されたM個の人数分布の配置パターンとから、例えば上記(10)式に従って、特定領域における各分割特定領域iの物体数の推定値Biを算出し、記憶部30に格納する。
このように、特定領域における物体数分布を、対応表に含まれる複数の人数分布の配置パターンから推定することで、第2実施形態に係る物体数分布の推定手法と比較して、特定領域における物体数分布の推定精度の向上が期待できる
なお、本発明は、上述した各実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上記の第3の実施の形態で説明した学習用撮影画像と背景画像とから学習用前景画像を生成する方法を、上記の第2の実施の形態に適用してもよい。
また、上述の物体数分布推定装置は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
また、説明を簡略化するため、カメラ1及びカメラ2の2台のカメラを用いて特定領域における物体数分布を推定する例を示したが、カメラ台数はこれに限定されない。3台以上のカメラからの画像を用いることで、より精度よく特定領域における物体数分布を推定する効果が期待される。
また、移動可能な1台のカメラで、異なる撮影位置1及び撮影位置2から特定領域を撮影するようにしてもよい。