JP2015148895A - 物体数分布推定方法 - Google Patents

物体数分布推定方法 Download PDF

Info

Publication number
JP2015148895A
JP2015148895A JP2014020655A JP2014020655A JP2015148895A JP 2015148895 A JP2015148895 A JP 2015148895A JP 2014020655 A JP2014020655 A JP 2014020655A JP 2014020655 A JP2014020655 A JP 2014020655A JP 2015148895 A JP2015148895 A JP 2015148895A
Authority
JP
Japan
Prior art keywords
divided
region
area
learning
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014020655A
Other languages
English (en)
Inventor
隆行 黒住
Takayuki Kurozumi
隆行 黒住
柏野 邦夫
Kunio Kashino
邦夫 柏野
義宗 田渕
Yoshimune Tabuchi
義宗 田渕
高橋 友和
Tomokazu Takahashi
友和 高橋
大輔 出口
Daisuke Deguchi
大輔 出口
一郎 井手
Ichiro Ide
一郎 井手
村瀬 洋
Hiroshi Murase
洋 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Nagoya University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Nippon Telegraph and Telephone Corp filed Critical Nagoya University NUC
Priority to JP2014020655A priority Critical patent/JP2015148895A/ja
Publication of JP2015148895A publication Critical patent/JP2015148895A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】複数の撮影位置から撮影した画像に基づいて、特定領域内に存在する物体数の分布を精度よく推定することができるようにする。
【解決手段】物体数分布取得部207により、複数の撮影位置から撮影された特定領域内の複数の撮影画像から前景画像を抽出し、前景画像の各々について取得した撮影面分割領域毎の分割領域特徴と、予め用意した分割領域特徴と物体数との対応関係に基づいて、特定領域における物体数の分布を推定する。
【選択図】図7

Description

本発明は、物体数分布推定方法に係り、特に、複数の撮影位置で撮影された撮影画像から、特定領域内に存在する物体数の分布を推定するための物体数分布推定方法に関する。
一般に、公共の安全やマーケティングを目的として、人数の計数、群衆の行動の調査といった群衆を対象とした解析が行われている。また、近年のセキュリティー意識の高まりから、屋内外に設置された多数の監視カメラによって群衆の行動を撮影した画像が、防犯等の目的に利用される機会が増大した。しかし、こうした画像から群衆の様子を人手で解析した場合、時間や労力がかかるため、群衆の行動を撮影した大量の画像から、例えば予め定めた範囲内のどこに何人の人間が存在するかをコンピュータ等を用いて自動的に解析する手法の開発が求められている。
そこで、従来より、例えばガウシアンフィルタとSobelフィルタを組み合わせることで、物体の輪郭を細線化して形状を抽出する手法(非特許文献1)や、複数のカメラから得られた画像の特徴を抽出し、画像の特徴と人数の関係を例えば2次多項式で回帰することで、空間内に存在する人数を推定する手法(非特許文献2)や、天候等の撮影条件が異なる場合であっても、時間相関の変化パターンを用いて、画像中での移動物体が存在する時間区分を決定して、画像中から移動物体を検出する手法(非特許文献3)が提案されている。
J. Canny. "A computational approach to edge detection". IEEE Trans. Pattern Analysis and Machine Intelligence, Vol. 8, No. 6, pp. 679−698, 1986. 田渕義宗, 高橋友和, 出口大輔, 井手一郎, 村瀬洋, 泉谷知範, 柏野邦夫. "視体積交差法を用いた複数カメラからの人数推定に関する検討". 電子情報通信学会総合大会講演論文集, 2013. D-12-98. 長屋茂喜, 宮武孝文, 藤田武洋, 伊藤渡, 上田博唯. "時間相関型背景判定法による移動物体検出". 電子情報通信学会論文誌, Vol. J79−D−II, No. 4, pp. 568−576, 1996.
しかし、非特許文献1は、物体のエッジ抽出に関する内容が記載されたものであり、非特許文献2は、空間内に存在する物体の数を検出するものである。また、非特許文献3は、撮影条件が変化する状況下で移動物体を精度よく抽出するものであり、非特許文献1〜非特許文献3の提案手法では、予め定めた空間内のどこにどの程度の物体が存在しているかといった物体数の分布(物体数分布)を推定することは困難であるという問題があった。
本発明は、上記の事情を鑑みてなされたもので、複数の撮影位置から撮影した画像に基づいて、特定領域内に存在する物体数の分布を精度よく推定することができる物体数分布推定方法を提供することを目的とする。
上記の目的を達成するために本発明に係る物体数分布推定方法は、特定領域内の物体数の分布を推定する物体数分布推定方法であって、特定領域に物体が存在しない状態で、異なる複数の撮影位置から前記特定領域を撮影した画像である複数の背景画像と、前記複数の撮影位置から前記特定領域を撮影した画像である複数の撮影画像と、に基づいて、前記複数の撮影位置の各々に対し、前記撮影位置の背景画像と撮影画像との差分を求めて、前記物体を表す画像である前景画像を抽出する前景画像抽出過程と、前記複数の撮影位置の各々に対して抽出された前景画像の各々について、前記特定領域を少なくとも1つ以上の撮影面分割領域に分割して、前記撮影面分割領域毎に、前記前景画像上の前記撮影面分割領域に対応した領域の特徴である少なくとも1つ以上の分割領域特徴を取得する分割領域特徴取得過程と、前記前景画像の各々について取得した前記撮影面分割領域毎の前記分割領域特徴と、予め用意した前記分割領域特徴と物体数の分布との対応関係、又は前記特定領域を分割した分割特定領域毎に予め用意した前記分割領域特徴と物体数との対応関係と、に基づいて、前記特定領域における物体数の分布を推定する物体数分布取得過程と、を含む。
以上説明したように、本発明の物体数分布推定方法によれば、複数の撮影位置から撮影された特定領域の各々の撮影画像から前景画像を抽出して、特定領域を少なくとも1つ以上の撮影面分割領域に分割した上で、撮影面分割領域毎に分割領域特徴を取得し、取得した分割領域特徴と予め用意した分割領域特徴と物体数の分布との対応関係、又は分割特定領域毎に予め用意した分割領域特徴と物体数との対応関係とに基づいて、特定領域内の物体数の分布を精度よく推定することができる、という効果が得られる。
特定領域を示す図である。 撮影面分割領域を示す図である。 分割特定領域を示す図である。 空間分割領域を示す図である。 複数のカメラと特定領域との位置関係を示す図である。 複数のカメラを用いて撮影した特定領域の分割領域特徴及び物体数の対応づけを説明した図である。 第1及び第2の実施の形態に係る物体数分布推定装置の構成を示す概略図である。 分割領域特徴を示す図である。 第1及び第2の実施の形態に係る物体数分布推定装置における対応関係の生成処理ルーチンの内容を示すフローチャートである。 第1及び第2の実施の形態に係る物体数分布推定装置における物体数分布推定処理ルーチンの内容を示すフローチャートである。 学習用前景画像の一例を示す図である。 学習用画像の生成方法を示した図である。 回帰分析を用いて物体数分布を推定した場合の推定誤差を示すグラフである。 対応表を用いて物体数分布を推定した場合の推定誤差を示すグラフである。 第3の実施の形態に係る物体数分布推定装置の構成を示す概略図である。 第3の実施の形態に係る物体数分布推定装置における対応関係の生成処理ルーチンの内容を示すフローチャートである。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<第1実施形態>
本実施の形態では、一例として、撮影位置が固定された2台のカメラで撮影された撮影画像を用いて、予め定めた領域(以下、特定領域という)内に存在する物体の物体数分布を推定する。ここで物体とは、人物を含む生物及び生物以外の物品の両者を総称したものであり、本実施の形態では、人物を例にした物体数分布の推定について説明する。
まず、特定領域の構成について説明する。図1は、本実施の形態に係る特定領域の一例を示した図である。
図1に示すように、本実施の形態に係る特定領域は、床面を3×3の9つの領域に分割した領域全体をいう。
そして、特定領域は図2に示すように、カメラから見た左右方向に3分割した撮影面分割領域に分割される。
また、撮影面分割領域は図3に示すように、撮影面分割領域を奥行方向に3分割した分割特定領域に分割される。
更に、分割特定領域は図4に示すように、分割特定領域を高さ方向に3分割した空間分割領域に分割される。
このように、特定領域は、複数の撮影面分割領域を含んで構成される。なお、本実施の形態に係る特定領域は、複数の撮影面分割領域を含んで構成されるものとして説明するが、例えば、特定領域を分割することなく、特定領域自体を1つの撮影面分割領域として扱ってもよいことは言うまでもない。
なお、本実施の形態では、一例として、特定領域を複数の撮影面分割領域に分割するものとして説明する。
次に、特定領域及びカメラの位置関係について説明する。
図5は、特定領域を上方から見た場合の平面図である。本実施の形態に係る特定領域は300[cm]四方の床面を有し、床面は3×3の9つの領域に分割されている。そして、100[cm]四方からなる各々の領域には、最大4人までの人物が入れるものと仮定した。
また、特定領域から250[cm]離れた位置に、カメラ1及びカメラ2が配置されている。この際、カメラ1及びカメラ2は、特定領域を異なる方向から撮影できるように、特定領域を含む矩形空間の異なる面と対向する位置に各々配置される。各カメラには、カメラを一意に識別するため、カメラ番号が付されている。
なお、図5では、特定領域を正面及び右方面から撮影する位置にカメラが配置されているが、カメラの配置場所はこれに限られない。また、特定領域の床面の大きさや、特定領域の床面の分割数も上記の例に限られず、状況に応じて任意に設定すればよい。
そして、撮影面分割領域毎に、カメラ1及びカメラ2で撮影した画像から得られる特徴を割り当て、分割特定領域で交差する撮影面分割領域毎の特徴と当該分割特定領域の物体数との予め定めた対応関係に基づいて、分割特定領域における物体数を算出することで特定領域における物体数分布を推定する。
図6は、分割特定領域で交差する撮影面分割領域の特徴を割り当て、分割特定領域における物体数を算出する一例を示した説明図である。
例えば、カメラ1の撮影画像から得られた撮影面分割領域に対応する領域の特徴を表す特徴量をX、カメラ2の撮影画像から得られた撮影面分割領域に対応する領域の特徴を表す特徴量をYとした場合、特徴量X及びYと、予め定めた対応関係とから、分割特定領域に存在する人数pが推定される。ここで、撮影面分割領域に対応する領域とは、図2において斜線で示された撮影面分割領域の上方に設定された領域をいう。
そして、上記の処理を全ての分割特定領域に対して実施すれば、特定領域における物体数分布を推定することができる。
次に、特定領域における物体数の分布を推測する物体数分布推測装置に、本発明を適用した場合を例にして、本実施の形態を説明する。
図7に示すように、本実施の形態に係る物体数分布推定装置100は、CPUと、RAMと、後述する物体数分布推定処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。
物体数分布推定装置100は、入力部10と、演算部20と、記憶部30と、出力部40とを備えている。
入力部10により、カメラ1及びカメラ2で撮影された撮影画像のペア、カメラ1及びカメラ2で撮影された特定領域の背景画像、カメラ1及びカメラ2で撮影された学習用前景画像のペア、及び当該学習用前景画像のペアに対応する学習用物体数分布が入力される。ここで、背景画像とは、特定領域内に物体が存在していない状況で撮影された画像をいい、前景画像とは、特定領域内に存在する物体を表す画像、すなわち、特定領域の撮影画像から背景画像を除去した画像をいう。
記憶部30は、入力部10により入力された各種画像及び学習用物体数分布を記憶する。また、記憶部30は、後述する演算部20の各処理での結果を記憶する。
演算部20は、学習用前景画像合成部201と、学習用分割領域特徴取得部202と、対応関係学習部203と、背景画像蓄積部204と、前景画像抽出部205と、分割領域特徴取得部206と、物体数分布取得部207とを備えている。
学習用前景画像合成部201は、カメラ1及びカメラ2で撮影された学習用前景画像のペアと当該学習用前景画像のペアに対応する学習用物体数分布を入力部10から取得し、複数の分割特定領域に対応する学習用前景画像の部分画像を合成することにより、複数の学習用物体数分布の各々に対応して、擬似的に、カメラ1及びカメラ2で撮影された各々の学習用前景画像を生成する。
なお、学習用前景画像合成部201に入力される学習用前景画像は、予め前景画像の切り出しを人手で行ったものが利用される。こうすることで、仮に後述する対応関係の学習に十分な数の学習用前景画像が得られない場合であっても、特定領域に存在する少人数を撮影した画像から切り出した前景画像を重ね合わせて合成することで、特定領域に存在する多人数を撮影した画像から得られる学習用前景画像を生成することができる。
学習用分割領域特徴取得部202は、入力部10により入力された学習用前景画像及び学習用前景画像合成部201で合成された学習用前景画像の各々から、撮影面分割領域毎に分割領域特徴を取得する。すなわち、学習用前景画像を、撮影面分割領域に対応する領域単位に分割し、撮影面分割領域毎に、学習用前景画像と撮影面分割領域に対応する領域とが重複する共通の領域から学習用前景画像の特徴を取得して、当該撮影面分割領域における分割領域特徴として対応づける。
本実施の形態で用いる分割領域特徴は、(1)前景領域の画素数、(2)前景領域のエッジの画素数、(3)前景領域と背景領域との境界の画素数、の3つである。
図8は、3つの分割領域特徴を説明した図である。図8に示すように、前景領域とは、前景画像が表示されている領域を表し、前景領域のエッジとは、前景画像から抽出される輪郭線を表し、前景領域と背景領域との境界とは、前景画像が表示されている領域と背景画像が表示されている領域との境界を表している。
なお、分割領域特徴の取得には、例えば、非特許文献1に示されているCannyエッジ検出器が用いられる。
対応関係学習部203は、学習用分割領域特徴取得部202で学習用前景画像の各々について取得した撮影面分割領域毎の分割領域特徴と、カメラ1及びカメラ2で撮影された学習用前景画像のペアに対応する学習用物体数分布と、に基づいて、分割特定領域毎に、分割領域特徴と物体数との対応関係を学習する。
学習する対応関係は、物体数分布^pのi番目の分割特定領域の推定値をpとすると、例えば、最も単純な一次式による回帰(単回帰)を用いて(1)式のように表すことができる。
ここで、w0i及びwjiの値は、カメラ1及びカメラ2で撮影された学習用前景画像のペアの各々に対応する、学習用分割領域特徴取得部202で当該ペアの学習用前景画像の各々について取得した、i番目の分割特定領域を含む撮影面分割領域に対応する領域の特徴xji(j=1,・・・,J)と、当該ペアに対応する学習用物体数分布から得られるi番目の分割特定領域の物体数との多数の組み合わせを用いて決定される。
なお、(1)式では対応関係を表す回帰式として単回帰を用いたが、(2)式に示すようにn次式に拡張した場合や、(3)式に示すように、変数を予め定めた関数φnji(xji)により拡張した場合であっても、複数の説明変数を用いた回帰分析である重回帰分析を用いることで、対応関係を学習することができる。
背景画像蓄積部204は、入力部10から取得したカメラ1及びカメラ2で撮影された背景画像を、カメラ毎に蓄積する。
前景画像抽出部205は、背景画像蓄積部204によって蓄積された、特定領域に物体が存在しない状況で、カメラ1及びカメラ2から特定領域を撮影した複数の背景画像と、入力部10から取得したカメラ1及びカメラ2から特定領域を撮影した複数の撮影画像とに基づいて、カメラ毎に、当該カメラの背景画像と撮影画像との差分を求めて、物体を表す画像である前景画像を抽出する。
前景画像を抽出する方法としては、例えば、撮影画像のRGB値と背景画像のRGB値との差分が予め定めた閾値以上となる画素を検出することにより、撮影画像内の物体像の領域を特定し、特定した領域を前景画像として抽出する方法が用いられる。
なお、差分の測定対象となる値は画像のRGB値に限定されない。例えば、明度、彩度、色相等の画像の色空間を表現する一般的な数値を用いることができる。また、差分の算出方法には、例えば、画像のRGB値をベクトルとみなした場合のベクトル差のノルム等、一般に使用される距離尺度を用いることができる。
また、前景画像の抽出の精度を上げるために、例えば、時間相関の変化パターンを用いて、画像中での移動物体が存在する時間区分を決定して画像中から移動物体を検出する、非特許文献3に記載されている既知の手法を用いてもよい。
すなわち、前景画像抽出部205で用いられる前景画像の抽出方法は特に限定されず、既知の手法が用いられる。
分割領域特徴取得部206は、前景画像抽出部205で抽出されたカメラ毎の前景画像を、当該カメラから見た複数の撮影面分割領域に対応する領域に分割し、撮影面分割領域毎に撮影面分割領域と前景画像とが重複する共通領域から分割領域特徴を取得する。
物体数分布取得部207は、分割特定領域i毎に、分割領域特徴取得部206で取得した当該分割特定領域iを含む撮影面分割領域の各々の分割領域特徴xjiと、対応関係学習部203によって当該分割特定領域iについて予め求められた分割領域特徴xjiと物体数との対応関係(w0i及びwjiの値)とから、上記(1)式に従って、当該分割特定領域iにおける物体数の推定値pを取得する。
具体的には、本実施の形態の場合、図6に示したように、分割特定領域について、カメラ1の撮影画像から取得した当該分割特定領域を含む撮影面分割領域に対応する分割領域特徴と、カメラ2の撮影画像から取得した当該分割特定領域を含む撮影面分割領域に対応する分割領域特徴とに基づいて、当該分割特定領域の物体数が推定される。
出力部40は、物体数分布取得部207で取得した分割特定領域i毎の物体数の推定値pを、特定領域における物体数分布^pとして出力する。
なお、物体数の推定値pを整数値として出力する場合には、推定値pを、例えば(4)式に従って変換した値p’で出力する。なお、round(x)は、xを四捨五入することを表している。
次に、本実施の形態に係る物体数分布推定装置100の作用について説明する。まず、異なる撮影位置に配置されたカメラ1及びカメラ2によって特定領域を撮影した複数の背景画像が物体数分布推定装置100に入力されると、背景画像蓄積部204に蓄積されると共に、物体数分布推定装置100において、図9に示す対応関係学習処理ルーチンが実行される。
まず、ステップS10では、入力部10からカメラ1及びカメラ2によって撮影された学習用前景画像のペアと、当該ペアに対応する学習用物体数分布が入力されたか否かを判定し、否定判定の場合には、当該学習用前景画像のペア及び当該ペアに対応する学習用物体数分布が入力されるまで、ステップS10の処理を繰り返す。一方、肯定判定の場合には、ステップS20に移行する。
ステップS20では、ステップS10で入力部10から入力された学習用前景画像のペアを読み込んで、学習用前景画像をカメラ番号と対応づけて記憶部30に格納すると共に、ステップS10で入力部10から入力された学習用物体数分布を、学習用前景画像のペアと対応付けて記憶部30に格納する。
そして、ステップS30では、記憶部30からステップS20の処理によって格納された学習用前景画像のペア、及び当該学習用前景画像のペアに対応する学習用物体数分布を読み出し、カメラ番号毎に学習用前景画像を合成して、カメラ1について合成された学習用前景画像とカメラ2について合成された学習用前景画像との複数のペアを生成し、生成された複数のペアの各々を、当該ペアに対応する学習用物体数分布と対応付けて記憶部30に格納する。
ステップS40では、ステップS30で生成された学習用前景画像のペアの各々について、当該ペアに含まれるカメラ1の学習用前景画像を、カメラ1から見た複数の撮影面分割領域に対応する領域に分割すると共に、当該ペアに含まれるカメラ2の学習用前景画像を、カメラ2から見た複数の撮影面分割領域に対応する領域に分割する。そして、既に説明したCannyエッジ検出器を介して、撮影面分割領域に対応する領域毎に、撮影面分割領域に対応する領域と学習用前景画像とが重複する共通領域の(1)前景領域の画素数、(2)前景領域のエッジの画素数、(3)前景領域と背景領域との境界の画素数を取得する。そして、学習用前景画像のペアの各々について、上記(1)〜(3)の各画素数を、対応する撮影面分割領域における学習用分割領域特徴として割り当てた上で、カメラ1及びカメラ2の各々に対し、撮影面分割領域と学習用分割領域特徴とを対応付けて、記憶部30に格納する。
ステップS50では、全ての学習用前景画像のペア及び当該ペアの各々に対応する学習用物体数分布から学習用分割領域特徴を取得したか否かを判定し、否定判定の場合には、上記ステップS10へ戻り、次の学習用前景画像のペア及び当該ペアに対応する学習用物体数分布に基づいて、上記ステップS10〜ステップS40の処理を繰り返す。一方、肯定判定の場合には、ステップS60へ移行する。
ステップS60では、分割特定領域i毎に、全ての学習用前景画像のペアにおける、ステップS40で取得した当該分割特定領域iを含む撮影面分割領域の分割領域特徴と、全ての学習用前景画像のペアに対応する学習用物体数分布から得られる分割特定領域iの物体数とに基づいて、上記(1)式で用いられるパラメータw0i及びwji(j=1,・・・,J)の値を決定する。決定したパラメータw0i及びwjiは記憶部30に格納する。
以上の処理によって、分割特定領域毎に、撮影面分割領域の分割領域特徴と当該分割特定領域における物体数との対応関係を表す回帰式が学習される。
そして、この後、物体数分布推定装置100において、図10に示す物体数分布推定処理ルーチンが実行される。
まず、ステップS100において、入力部10から入力されたカメラ1及びカメラ2によって撮影された特定領域の背景画像の各々を背景画像蓄積部204から読み出し、例えば、背景画像をカメラ番号と対応づけて記憶部30に格納する。
そして、ステップS110では、入力部10からカメラ1及びカメラ2によって撮影された特定領域の撮影画像のペアが入力されたか否かを判定し、否定判定の場合には、当該撮影画像のペアが入力されるまで、ステップS110の処理を繰り返す。一方、肯定判定の場合には、ステップS120に移行する。
ステップS120では、入力部10から入力されたカメラ1及びカメラ2によって撮影された特定領域の撮影画像のペアを読み込んで、当該撮影画像の各々をカメラ番号と対応づけて記憶部30に格納する。
そして、ステップS130では、記憶部30からステップS100の処理によって格納された、カメラ1及びカメラ2によって撮影された特定領域の背景画像の各々と、ステップS120の処理によって記憶された、カメラ1及びカメラ2によって撮影された特定領域の撮影画像のペアとを読み出し、カメラ番号毎に、撮影画像のRGB値と背景画像のRGB値との差分が予め定めた閾値以上となる画素を検出して撮影画像内の物体像の領域を特定し、特定した領域を前景画像としてカメラ番号と対応づけて記憶部30に格納する。
なお、撮影画像内の物体像の領域を特定する際に用いられる予め定めた閾値を、例えば、ROMの予め定めた領域に予め記憶しておけばよい。
ステップS140では、ステップS130で抽出したカメラ1の前景画像を、カメラ1から見た撮影面分割領域に対応した領域に分割すると共に、ステップS130で抽出したカメラ2の前景画像を、カメラ2から見た撮影面分割領域に対応した領域に分割する。そして、既に説明したCannyエッジ検出器を介して、撮影面分割領域に対応した領域毎に、(1)前景領域の画素数、(2)前景領域のエッジの画素数、(3)前景領域と背景領域との境界の画素数を取得し、カメラ1及びカメラ2の各々について、上記(1)〜(3)の各画素数を当該撮影面分割領域における分割領域特徴として、各撮影面分割領域と対応づけて記憶部30に格納する。
そして、ステップS150では、ステップS140で取得した撮影面分割領域毎の分割領域特徴と、図9に示した対応関係学習処理ルーチンの実行により、分割特定領域i毎に用意された撮影面分割領域の分割領域特徴と物体数との対応関係とから、例えば上記(1)式に従って、分割特定領域iにおける物体数の推定値pを全ての分割特定領域iについて算出して、記憶部30に格納する。
具体的には、図6で示したように、分割特定領域iを含むカメラ1の撮影面分割領域及びカメラ2の撮影面分割領域に対応する分割領域特徴xji(j=1,・・・,J)を記憶部30から各々読み出し、読み出した分割領域特徴xjiを上記(1)に代入することで、分割特定領域iにおける物体数の推定値pを算出することができる。そして、この処理を全ての分割特定領域iについて実行する。
ステップS160では、全ての撮影画像のペアに対して物体数の推定を実施したか否かを判定し、肯定判定の場合には、ステップS150で推定した分割特定領域毎の物体数の推定値pに基づいて、出力部40より特定領域における物体数分布を出力して物体数分布推定処理ルーチンを終了する。全ての撮影画像のペアに対して物体数分布の推定を実施したか否かの判定条件としては、例えば、予め定めた数の撮影画像のペアに対して、上記ステップS110〜ステップS150の処理が実施されたか否かを判断すればよい。
一方、ステップS160の判定が否定判定となった場合には、終了条件を満足していないと判断して、上記ステップS110へ戻り、上記ステップS110〜ステップS150の処理を繰り返す。
以上の処理によって、特定領域における物体数の分布を推定することができる。
次に、本実施の形態に係る手法の有用性を示す目的で、図11に示すように、1台のカメラあたり1人から12人が写った撮影画像230枚から得られる学習用画像を合成することで生成された、4500枚の学習用前景画像を用いた場合の、提案法での評価実験の結果について説明する。
まず、図12を参照して学習用前景画像の生成方法の流れを示す。本評価実験では、床面を3×3に分割し、各分割特定領域単位で人物が0人から4人いる各々の状況を、予め図5で示した位置に配置した2台のカメラで撮影しておき、人物画像のみを切り出す。そして、切り出された人物画像と背景画像を合成することにより、学習用画像を生成する。この学習用画像はカメラ毎に生成される。そして、学習用画像から背景画像を用いて、学習用前景画像を抽出する。
なお、本評価実験では、分割特定領域毎に、当該分割特定領域に存在する人物画像を、0人から4人までそれぞれ1パターン、すなわち5パターン用意した。
図13に、上記のようにして生成された学習用前景画像に基づいて提案法を用いた場合の評価実験結果を示す。
図13に示されるように、提案法を用いて特定領域の物体数分布を推定した場合、一例として、最大誤差人数を0.57人以内に収めることができた。
<第2実施形態>
第1実施形態の対応関係学習部203では、撮影面分割領域の分割領域特徴と分割特定領域における物体数との対応関係は回帰式として表されるものとして、分割特定領域毎に対応関係を表した。本実施の形態における対応関係学習部203では、空間分割領域の分割領域特徴と物体数の分布との対応関係を対応表として表す形態について説明する。
なお、本実施の形態が第1実施形態と異なる点は、学習用分割領域特徴取得部202、対応関係学習部203、分割領域特徴取得部206、及び物体数分布取得部207における処理内容であり、その他の各部の処理内容は第1実施形態と同じである。また、本実施の形態に係る物体数分布推定装置100の構成も図7に示した構成と同じである。
本実施の形態における学習用分割領域特徴取得部202では、学習用前景画像合成部201で合成された学習用前景画像から、空間分割領域毎に、学習用前景画像と空間分割領域に対応する領域とが重複する共通の領域から学習用前景画像の特徴を取得して、当該空間分割領域における分割領域特徴として対応づける。
そして、対応関係学習部203は、学習用分割領域特徴取得部202で取得した全ての空間分割領域の分割領域特徴を表す特徴ベクトルに対して、主成分分析を実施することで次元削減を行い、次元削減後の各空間分割領域の分割領域特徴の特徴ベクトルvと、入力部10から入力された学習用物体数分布(人数分布の配置パターン)と、を対応づけた対応表を作成する。
例えば、L次元に次元を削減した後の特徴ベクトルvのl番目の要素を(5)式で表す。
ここで、φは固有ベクトルであり、tは、ベクトルの転置を表す。また、カメラ1及びカメラ2の学習用前景画像の全ての空間分割領域の分割領域特徴を表すベクトルをzとし、(6)式で表す。
ただし、3個ある空間分割領域のカメラ1からの見掛け上の各々の領域を図4のように多角形の領域として表し、そのi番目の領域の(1)前景領域の画素数、(2)前景領域のエッジの画素数、(3)前景領域と背景領域との境界の画素数の分割領域特徴をそれぞれx1,i、x2,i、x3,iとし、カメラ2から見た空間分割領域のj番目の領域の分割領域特徴をy1,j、y2,j、y3,jとする。
ここで、カメラ1とカメラ2の学習用前景画像の分割領域特徴をz(k=1,・・・,K)とし、(7)式で表される固有値問題を解くことで、固有ベクトルφを求めることができる。ただし、φは、固有値λを降順に並べてあり、次元削減後の特徴ベクトルvの次元数を予め決めておき、その次元数の数だけ使用する。
また、分割領域特徴取得部206では、前景画像抽出部205で抽出されたカメラ毎の前景画像を、当該カメラから見た複数の空間分割領域に対応する領域に分割し、空間分割領域毎に空間分割領域と前景画像とが重複する共通領域から分割領域特徴を取得する。
物体数分布取得部207では、分割領域特徴取得部206でカメラ1及びカメラ2について取得された全ての空間分割領域の分割領域特徴を表す特徴ベクトルに対して、主成分分析を実施することで次元削減を行う。そして、次元削減後の特徴ベクトルvと、対応関係学習部203で作成された特徴ベクトルvと人数分布の配置パターンとを対応づけた対応表と、に基づいて、特定領域における物体数分布を推定する。
具体的には、次元削減後の特徴ベクトルvと、対応表内の特徴ベクトルvを比較し、最も距離の近い対応表内の特徴ベクトルvに対応する人数分布の配置パターンを、物体数分布の推定結果として取得する。
対応表内の特徴ベクトルvとの比較に使用する距離尺度としては、L1距離、L2距離などの既知の距離尺度が用いられる。なお、本実施の形態では、一例として、L1距離を用いるものとする。
次に、図9及び図10を参照して、本実施の形態に係る物体数分布推定装置100の作用について説明する。なお、本実施の形態における物体数分布推定装置100の物体数分布推定処理ルーチンが、第1実施形態における物体数分布推定装置100の物体数分布推定処理ルーチンと異なる点は、図9におけるステップS40及びステップS60、並びに、図10におけるステップS140及びステップS150であり、その他のステップにおける処理は、既に第1実施形態で説明した処理と同じである。
図9のステップS40では、ステップS30で合成された学習用前景画像のペアの各々を、カメラ1及びカメラ2から見た複数の空間分割領域に対応する領域に分割する。そして、既に説明したCannyエッジ検出器を介して、空間分割領域に対応する領域毎に、(1)前景領域の画素数、(2)前景領域のエッジの画素数、(3)前景領域と背景領域との境界の画素数を取得する。そして、学習用前景画像のペアの各々について、上記(1)〜(3)の各画素数を、対応する空間分割領域における学習用分割領域特徴として割り当てた上で、カメラ1及びカメラ2の各々に対し、空間分割領域と学習用分割領域特徴とを対応付けて、記憶部30に格納する。
そして、ステップS50の判定処理により、全ての学習用前景画像のペア及び当該ペアの各々に対応する学習用物体数分布から学習用分割領域特徴を取得したと判定された場合にステップS60へ移行する。
ステップS60では、ステップS40で取得した全ての空間分割領域の学習用分割領域特徴を用いて、上記(7)式から予め定めた次元数Lの固有ベクトルφ(l=1,・・・,L)を求める。そして、学習用前景画像のペアの各々について、上記ステップS40で取得した当該ペアの全ての空間分割領域の学習用分割領域特徴を表す特徴ベクトルに対し、上記(5)式に従って、全てのlに対して特徴ベクトルvの要素vを算出することによって、次元削減後の特徴ベクトルvを得る。そして、本ステップの処理により学習用前景画像のペアの各々について取得した特徴ベクトルvを、当該ペアに対応して入力された学習用物体数分布に基づく人数分布の配置パターンと対応づけた対応表を生成して、記憶部30に格納する。
また、図10のステップS140では、ステップS130で抽出したカメラ1の前景画像を、カメラ1から見た空間分割領域に対応した領域に分割すると共に、ステップS130で抽出したカメラ2の前景画像を、カメラ2から見た空間分割領域に対応した領域に分割する。そして、既に説明したCannyエッジ検出器を介して、空間分割領域に対応した領域毎に、(1)前景領域の画素数、(2)前景領域のエッジの画素数、(3)前景領域と背景領域との境界の画素数を取得し、カメラ1及びカメラ2の各々について、上記(1)〜(3)の各画素数を当該空間分割領域における分割領域特徴として、各空間分割領域と対応づけて記憶部30に格納する。
そして、ステップS150では、ステップS140で取得した全ての空間分割領域の分割領域特徴を表す特徴ベクトルに対して、上記ステップS60で求めた固有ベクトルφ(l=1,・・・,L)を用いて、全てのlについて上記(5)式を算出することにより次元削減後の特徴ベクトルvを得る。そして、前述したステップS60の処理によって生成された対応表を記憶部30から読み出し、対応表内の全ての特徴ベクトルvと、本ステップの処理より算出した特徴ベクトルvとのL1距離を演算して、最も距離の近い対応表内の特徴ベクトルvに対応する人数分布の配置パターンを、特定領域における物体数分布として記憶部30に格納する。
以上の処理によって、各空間分割領域の分割領域特徴を表す特徴ベクトルと物体数の分布との対応関係が対応づけられた対応表から、特定領域における物体数の分布を推定することができる。
次に、第1実施形態における評価実験と同様に、本実施の形態に係る手法の有用性を示す目的で、1台のカメラあたり1人から12人が写った画像230枚から得られる学習用画像を合成して、5枚の学習用前景画像を生成し、学習用前景画像のペア毎に、当該学習用前景画像のペアから得られる全ての空間分割領域の分割領域特徴を表す特徴ベクトルと、当該学習用画像のペアに対応する人数分布の配置パターンと、の対応関係が学習された対応表を用いて、提案法での評価実験を行った。なお、5枚の学習用前景用画像を用意したのは、9個の分割特定領域の各々に0人から4人の人物がいる配置パターンの全ての組み合わせについて学習用前景画像を作成したためである。
図14に、上記のようにして生成された学習用前景画像に基づいて提案法を用いた場合の評価実験結果を示す。
図14に示されるように、提案法を用いて特定領域の物体数分布を推定した場合、一例として、最大誤差人数を1.05人以内に収めることができた。
なお、本実施形態では、各空間分割領域の分割領域特徴を表す特徴ベクトルと物体数の分布との対応表を、分割領域特徴と物体数の分布との対応関係として用いたが、各撮影面分割領域の分割領域特徴と物体数の分布との対応表を、分割領域特徴と物体数の分布との対応関係として用い、特定領域における物体数の分布を推定してもよいことは言うまでもない。また、分割特定領域毎に、対応する空間分割領域又は撮影面分割領域の分割領域特徴と物体数との対応表を予め求めておき、分割特定領域毎に、物体数を推定して、特定領域における物体数の分布を推定するようにしてもよい。
<第3実施形態>
次に、本発明における第3の実施形態について説明する。
図15は、本実施の形態に係る物体数分布推定装置100の構成を示した図である。本実施の形態に係る物体数分布推定装置100の構成が第1実施形態及び第2実施形態における物体数分布推定装置100の構成と異なる点は、背景画像蓄積部204から学習用前景画像抽出部208へ、カメラ1及びカメラ2で撮影された背景画像のペアを出力するようにした点と、学習用前景画像合成部201を学習用前景画像抽出部208に置き換えた上で、入力部10から学習用前景画像抽出部208へ、カメラ1及びカメラ2で撮影された学習用撮影画像のペアを出力するようにした点と、入力部10から対応関係学習部203へ、当該学習用撮影画像のペアに対応する学習用物体数分布を出力するようにした点であり、その他の構成及び各部の処理は、第1実施形態及び第2実施形態における物体数分布推定装置100と同じである。
本実施の形態における学習用前景画像抽出部208は、カメラ1及びカメラ2で撮影された学習用撮影画像のペアを入力部10から取得すると共に、カメラ1及びカメラ2で撮影された背景画像のペアを背景画像蓄積部204から取得する。
そして、背景画像蓄積部204から取得した背景画像のペアと、入力部10から取得した学習用撮影画像のペアとに基づいて、カメラ番号毎に背景画像と学習用撮影画像との差分を求めて、学習用撮影画像から学習用前景画像を抽出する。
なお、この学習用前景画像の抽出には、前景画像抽出部205で実施される抽出方法と同様の方法を用いることができる。
学習用分割領域特徴取得部202では、学習用前景画像抽出部208で抽出された学習用前景画像のペアから、例えば、既に説明した処理によって撮影面分割領域毎に分割領域特徴を取得し、対応関係学習部203において、学習用分割領域特徴取得部202で学習用前景画像の各々について取得した撮影面分割領域毎の分割領域特徴と、カメラ1及びカメラ2で撮影された学習用撮影画像のペアに対する学習用物体数分布と、に基づいて、分割特定領域毎に、分割領域特徴と物体数との対応関係を学習する。
次に、図16を参照して、本実施の形態に係る物体数分布推定装置100の対応関係学習処理ルーチンについて説明する。なお、本実施の形態における物体数分布推定装置100の物体数分布推定処理ルーチンは、図10に示した処理と同じである。
まず、ステップS300では、入力部10からカメラ1及びカメラ2によって撮影された学習用撮影画像のペアと、当該ペアに対応する学習用物体数分布が入力されたか否かを判定し、否定判定の場合には、当該学習用撮影画像のペア及び当該ペアに対応する学習用物体数分布が入力されるまで、ステップS300の処理を繰り返す。一方、肯定判定の場合には、ステップS310に移行する。
ステップS310では、ステップS300で入力部10から入力された学習用撮影画像のペアを読み込むと共に、当該学習用撮影画像のペアが撮影された場所の背景画像のペアを、背景画像蓄積部204から読み込む。
そして、ステップS320では、ステップS310で読み込んだ学習用撮影画像のペア及び背景画像のペアに基づいてカメラ番号毎に、学習用撮影画像のRGB値と背景画像のRGB値との差分が予め定めた閾値以上となる画素を検出して学習用撮影画像内の物体像の領域を特定し、特定した領域を学習用前景画像としてカメラ番号と対応づけて記憶部30に格納する。
ステップS330では、図10のステップS40の処理と同様に、ステップS320で抽出された学習用前景画像のペアの各々を、カメラ1及びカメラ2から見た複数の撮影面分割領域に対応する領域に分割する。そして、既に説明したCannyエッジ検出器を介して、撮影面分割領域に対応する領域毎に、撮影面分割領域に対応する領域と学習用前景画像とが重複する共通領域の上記(1)〜(3)の各画素数を取得する。そして、これらの各画素数を、対応する撮影面分割領域における学習用分割領域特徴として割り当てた上で、撮影面分割領域と学習用分割領域特徴とを対応付けて、記憶部30に格納する。
そして、ステップS340の判定処理により、全ての学習用撮影画像のペア及び当該ペアの各々に対応する学習用物体数分布から学習用分割領域特徴を取得したか否かを判定し、否定判定の場合には、上記ステップS300へ戻り、次の学習用撮影画像のペア及び当該ペアに対応する学習用物体数分布に基づいて、上記ステップS300〜ステップS330の処理を繰り返す。一方、肯定判定の場合には、ステップS350へ移行する。
ステップS350では、図9のステップS60と同様の処理を実行して、分割特定領域毎に撮影面分割領域の分割領域特徴と物体数との対応関係を生成する。
第1実施形態及び第2実施形態では、対応関係を学習する際、入力部10から学習用前景画像を取得したが、本実施の形態では、実際の画像である学習用撮影画像と背景画像とから学習用前景画像を生成し、対応関係の学習を行った。
<第4実施形態>
本実施の形態に係る物体数分布推定装置100は、既に説明した第2実施形態に係る物体数分布推定装置100の変形例である。
第2実施形態では、次元削減後の特徴ベクトルvと、対応表内の特徴ベクトルvを比較し、最も距離の近い対応表内の特徴ベクトルvに対応する人数分布の配置パターンを、物体数分布の推定結果として取得した。
本実施の形態に係る物体数分布推定装置100は、次元削減後の特徴ベクトルvと、対応表内の特徴ベクトルvを比較するところまでは、第2実施形態に係る物体数分布推定装置100と同じである。
しかし、当該比較の際、本実施の形態に係る物体数分布推定装置100は、次元削減後の特徴ベクトルvに最も距離の近い対応表内の特徴ベクトルvに対応する人数分布の配置パターンを、物体数分布の推定結果とするのではなく、次元削減後の特徴ベクトルvからM近傍(M=1,・・・,m)にある対応表内の特徴ベクトルvに対応する人数分布の配置パターンを取得する。ここで、次元削減後の特徴ベクトルvからM近傍にある対応表内の特徴ベクトルvとは、次元削減後の特徴ベクトルvからの距離が最も近い対応表内の特徴ベクトルvからM番目に近い対応表内の特徴ベクトルvまでのM個の特徴ベクトルvをいう。
そして、取得したM個の人数分布の配置パターンの各々に対して、次元削減後の特徴ベクトルvからの距離に応じて予め設定された重み付けを行い、重み付け後のM個の人数分布の配置パターン(重み付け配置パターン)の各々を加算した結果を、特定領域における物体数分布の推定結果として取得する。
すなわち、特定領域における各分割特定領域iの物体数の推定値Biは(10)式で表される。
ここで、bmiは、次元削減後の特徴ベクトルvからの距離がm番目に近い対応表内の特徴ベクトルvに対応する人数分布の配置パターンにおける分割特定領域iの物体数であり、gはbmiの重み付けに用いられる重みである。M=1の場合にg=1とすれば、第2実施形態における特定領域における物体数分布の推定結果と一致する。
なお、人数分布の配置パターンの重み付けに用いられる重みgの大きさは、次元削減後の特徴ベクトルvから最も距離が近い対応表内の特徴ベクトルvに対応する人数分布の配置パターンbの重み付けに用いられる重み、すなわちgの値を最も大きくする。そして、g、g、・・・、gとmの値が大きくなるに従って、重みの値が小さくなるように重みgを設定することが好ましい。例えば、M=3の場合、g1=0.4、g2=0.35、g3=0.25である。
具体的には、次元削減後の特徴ベクトルvからm番目に近い対応表内の特徴ベクトルvまでの距離をd(m=1,・・・,M)とすれば、重みgの大きさは(11)式で表される。
次に、図10を参照して、本実施の形態に係る物体数分布推定装置100の作用について説明する。
本実施の形態に係る物体数分布推定装置100の構成は、図7に示した第2実施形態に係る物体数分布推定装置100の構成と同じである。
また、本実施の形態における物体数分布推定装置100の物体数分布推定処理ルーチンが、第2実施形態における物体数分布推定装置100の物体数分布推定処理ルーチンと異なる点は、図10におけるステップS150の処理であり、その他のステップにおける処理は、既に第2実施形態で説明した処理と同じである。従って、ここではステップS150の処理について説明する。
ステップS150では、ステップS140で取得した全ての空間分割領域の分割領域特徴を表す特徴ベクトルに対して、図9のステップS60で求めた固有ベクトルφ(l=1,・・・,L)を用いて、全てのlについて上記(5)式を算出することにより次元削減後の特徴ベクトルvを得る。
次に、前述したステップS60の処理によって生成された対応表を記憶部30から読み出し、対応表内の全ての特徴ベクトルvと、本ステップの処理より算出した特徴ベクトルvとのL1距離を演算する。そして、対応表内の全ての特徴ベクトルvのうち、本ステップの処理より算出した特徴ベクトルvとの距離が近い方から順にM個の特徴ベクトルvを抽出し、選択された対応表内のM個の特徴ベクトルvに対応する人数分布の配置パターンを選択する。なお、対応表内から抽出する特徴ベクトルvの数Mを、例えば、ROMの予め定めた領域に予め記憶しておけばよい。
そして、本ステップの処理により算出した特徴ベクトルvからm番目に近い対応表内のM個の特徴ベクトルvまでの各距離d(m=1,・・・,M)を用いて、上記(11)に従って、選択されたM個の人数分布の配置パターンの各々に対応した重みgを算出する。
このM個の重みgと、選択されたM個の人数分布の配置パターンとから、例えば上記(10)式に従って、特定領域における各分割特定領域iの物体数の推定値Biを算出し、記憶部30に格納する。
このように、特定領域における物体数分布を、対応表に含まれる複数の人数分布の配置パターンから推定することで、第2実施形態に係る物体数分布の推定手法と比較して、特定領域における物体数分布の推定精度の向上が期待できる
なお、本発明は、上述した各実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上記の第3の実施の形態で説明した学習用撮影画像と背景画像とから学習用前景画像を生成する方法を、上記の第2の実施の形態に適用してもよい。
また、上述の物体数分布推定装置は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
また、説明を簡略化するため、カメラ1及びカメラ2の2台のカメラを用いて特定領域における物体数分布を推定する例を示したが、カメラ台数はこれに限定されない。3台以上のカメラからの画像を用いることで、より精度よく特定領域における物体数分布を推定する効果が期待される。
また、移動可能な1台のカメラで、異なる撮影位置1及び撮影位置2から特定領域を撮影するようにしてもよい。
10 入力部
20 演算部
30 記憶部
40 出力部
100 物体数分布推定装置
201 学習用前景画像合成部
202 学習用分割領域特徴取得部
203 対応関係学習部
204 背景画像蓄積部
205 前景画像抽出部
206 分割領域特徴取得部
207 物体数分布取得部
208 学習用前景画像抽出部

Claims (6)

  1. 特定領域内の物体数の分布を推定する物体数分布推定方法であって、
    特定領域に物体が存在しない状態で、異なる複数の撮影位置から前記特定領域を撮影した画像である複数の背景画像と、前記複数の撮影位置から前記特定領域を撮影した画像である複数の撮影画像と、に基づいて、前記複数の撮影位置の各々に対し、前記撮影位置の背景画像と撮影画像との差分を求めて、前記物体を表す画像である前景画像を抽出する前景画像抽出過程と、
    前記複数の撮影位置の各々に対して抽出された前景画像の各々について、前記特定領域を少なくとも1つ以上の撮影面分割領域に分割して、前記撮影面分割領域毎に、前記前景画像上の前記撮影面分割領域に対応した領域の特徴である少なくとも1つ以上の分割領域特徴を取得する分割領域特徴取得過程と、
    前記前景画像の各々について取得した前記撮影面分割領域毎の前記分割領域特徴と、予め用意した前記分割領域特徴と物体数の分布との対応関係、又は前記特定領域を分割した分割特定領域毎に予め用意した前記分割領域特徴と物体数との対応関係と、に基づいて、前記特定領域における物体数の分布を推定する物体数分布取得過程と、
    を含む物体数分布推定方法。
  2. 前記複数の撮影位置から前記特定領域を撮影した画像である複数の撮影画像から得られる前記前景画像の各々について、前記撮影面分割領域毎に、前記前景画像上の前記撮影面分割領域に対応した領域の前記分割領域特徴を取得する学習用分割領域特徴取得過程と、 前記分割特定領域毎に、前記学習用分割領域特徴取得過程によって取得した前記分割特定領域を含む撮影面分割領域に対応する前記分割領域特徴と、予め求めた前記分割特定領域における物体数との対応から、前記分割特定領域に対する前記分割領域特徴と物体数との対応関係を学習する対応関係学習過程とを更に含み、
    前記物体数分布取得過程は、前記分割領域特徴取得過程によって前記前景画像の各々について取得した前記撮影面分割領域毎の前記分割領域特徴と、前記対応関係学習過程によって前記分割特定領域毎に学習された前記分割領域特徴と物体数との対応関係と、に基づいて、前記特定領域における物体数の分布を推定する
    請求項1記載の物体数分布推定方法。
  3. 前記複数の撮影位置から前記特定領域を撮影した画像である複数の撮影画像から得られる前記前景画像の各々について、前記撮影面分割領域毎に、前記前景画像上の前記撮影面分割領域に対応した領域の前記分割領域特徴を取得する学習用分割領域特徴取得過程と、 前記学習用分割領域特徴取得過程によって前記撮影面分割領域毎に取得した前記分割領域特徴と、予め求めた前記特定領域における物体数の分布との対応から、前記分割領域特徴と物体数の分布との対応関係を学習する対応関係学習過程とを更に含み、
    前記物体数分布取得過程は、前記分割領域特徴取得過程によって前記前景画像の各々について取得した前記撮影面分割領域毎の前記分割領域特徴と、前記対応関係学習過程によって前記分割特定領域毎に学習された前記分割領域特徴と物体数の分布との対応関係と、に基づいて、前記特定領域における物体数の分布を推定する
    請求項1記載の物体数分布推定方法。
  4. 前記分割領域特徴取得過程は、前記撮影面分割領域毎に、前記前景画像と前記撮影面分割領域に対応する領域との共通領域から抽出した特徴を、前記撮影面分割領域の前記分割領域特徴として取得する
    請求項1〜請求項3の何れか1項記載の物体数分布推定方法。
  5. 前記物体数分布取得過程は、前記分割特定領域毎に、前記分割領域特徴を説明変数とし、前記分割特定領域における物体数を目的変数とした式を、前記分割特定領域に対する前記分割領域特徴と物体数との対応関係として用いて、前記分割特定領域における物体数を推定することにより、前記特定領域における物体数の分布を推定する
    請求項1又は請求項2に記載の物体数分布推定方法。
  6. 前記物体数分布取得過程は、前記分割領域特徴と物体数の分布との対応表を、前記分割領域特徴と物体数の分布との対応関係として用いて、前記特定領域における物体数の分布を推定する
    請求項1又は請求項3に記載の物体数分布推定方法。
JP2014020655A 2014-02-05 2014-02-05 物体数分布推定方法 Pending JP2015148895A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014020655A JP2015148895A (ja) 2014-02-05 2014-02-05 物体数分布推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014020655A JP2015148895A (ja) 2014-02-05 2014-02-05 物体数分布推定方法

Publications (1)

Publication Number Publication Date
JP2015148895A true JP2015148895A (ja) 2015-08-20

Family

ID=53892220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014020655A Pending JP2015148895A (ja) 2014-02-05 2014-02-05 物体数分布推定方法

Country Status (1)

Country Link
JP (1) JP2015148895A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018060360A (ja) * 2016-10-05 2018-04-12 日本電信電話株式会社 人数推定方法、人数推定装置、人数推定プログラム、及び記録媒体
JP2018132802A (ja) * 2017-02-13 2018-08-23 東京電力ホールディングス株式会社 学習装置、属性推定装置、学習方法、属性推定方法及びプログラム
JP2019066909A (ja) * 2017-09-28 2019-04-25 セコム株式会社 物体分布推定装置
JPWO2021149091A1 (ja) * 2020-01-20 2021-07-29
WO2022024165A1 (ja) * 2020-07-27 2022-02-03 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007109126A (ja) * 2005-10-17 2007-04-26 Advanced Telecommunication Research Institute International 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム
JP2009014415A (ja) * 2007-07-02 2009-01-22 National Institute Of Advanced Industrial & Technology 物体認識装置および物体認識方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007109126A (ja) * 2005-10-17 2007-04-26 Advanced Telecommunication Research Institute International 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム
JP2009014415A (ja) * 2007-07-02 2009-01-22 National Institute Of Advanced Industrial & Technology 物体認識装置および物体認識方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018060360A (ja) * 2016-10-05 2018-04-12 日本電信電話株式会社 人数推定方法、人数推定装置、人数推定プログラム、及び記録媒体
JP2018132802A (ja) * 2017-02-13 2018-08-23 東京電力ホールディングス株式会社 学習装置、属性推定装置、学習方法、属性推定方法及びプログラム
JP7024187B2 (ja) 2017-02-13 2022-02-24 東京電力ホールディングス株式会社 学習装置及び属性推定装置
JP2019066909A (ja) * 2017-09-28 2019-04-25 セコム株式会社 物体分布推定装置
JPWO2021149091A1 (ja) * 2020-01-20 2021-07-29
WO2021149091A1 (ja) * 2020-01-20 2021-07-29 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体
WO2022024165A1 (ja) * 2020-07-27 2022-02-03 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体
JP7400982B2 (ja) 2020-07-27 2023-12-19 日本電気株式会社 情報処理装置、情報処理方法、及び、プログラム

Similar Documents

Publication Publication Date Title
Lu et al. Depth enhancement via low-rank matrix completion
JP6700752B2 (ja) 位置検出装置、位置検出方法及びプログラム
JP6368709B2 (ja) 3次元身体データを生成する方法
KR101747216B1 (ko) 표적 추출 장치와 그 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록 매체
KR20140045854A (ko) 단일객체에 대한 기울기를 추정하는 영상을 감시하는 장치 및 방법
JP2016500975A (ja) 結合された深度キューに基づく平面視画像からの深度マップの生成
JP6497579B2 (ja) 画像合成システム、画像合成方法、画像合成プログラム
JP2017129567A5 (ja)
US10839529B2 (en) Image processing apparatus and image processing method, and storage medium
JP2015148895A (ja) 物体数分布推定方法
JP2016015045A (ja) 画像認識装置、画像認識方法及びプログラム
JP2015219603A5 (ja)
CN107767358B (zh) 一种图像中物体模糊度确定方法和装置
JP2019016114A (ja) 画像処理装置、学習装置、フォーカス制御装置、露出制御装置、画像処理方法、学習方法、及びプログラム
KR20150136225A (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
US11741615B2 (en) Map segmentation method and device, motion estimation method, and device terminal
KR20110133416A (ko) 멀티 스레드 방식을 기반으로 하는 3d 디스플레이를 위한 비디오 처리 방법
KR20170024303A (ko) 얼굴의 특징점 검출 시스템 및 방법
Kurmi et al. Pose error reduction for focus enhancement in thermal synthetic aperture visualization
JP2019040229A5 (ja)
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
KR101696086B1 (ko) 소나 이미지 내의 물체 부분 추출 방법 및 장치
Wang et al. LBP-based edge detection method for depth images with low resolutions
JP2014164525A (ja) 物体数推定方法、物体数推定装置、及び物体数推定プログラム
JP2017162179A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160506

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160506

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170523

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171121