JP2018010483A - 前景領域抽出装置、方法、及びプログラム - Google Patents

前景領域抽出装置、方法、及びプログラム Download PDF

Info

Publication number
JP2018010483A
JP2018010483A JP2016138882A JP2016138882A JP2018010483A JP 2018010483 A JP2018010483 A JP 2018010483A JP 2016138882 A JP2016138882 A JP 2016138882A JP 2016138882 A JP2016138882 A JP 2016138882A JP 2018010483 A JP2018010483 A JP 2018010483A
Authority
JP
Japan
Prior art keywords
region
foreground
area
virtual
foreground region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016138882A
Other languages
English (en)
Other versions
JP6615709B2 (ja
Inventor
悠 米本
Haruka Yonemoto
悠 米本
新井 啓之
Hiroyuki Arai
啓之 新井
杵渕 哲也
Tetsuya Kinebuchi
哲也 杵渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016138882A priority Critical patent/JP6615709B2/ja
Publication of JP2018010483A publication Critical patent/JP2018010483A/ja
Application granted granted Critical
Publication of JP6615709B2 publication Critical patent/JP6615709B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】前景領域を得ることにより、太陽光が直接被写体に当たるような環境であっても、前景領域を精度よく抽出することができる前景領域抽出装置を提供する。【解決手段】前景領域抽出装置100において、仮想前景領域生成部40が、予め定められた物体の長さに基づいて仮想的な物体の領域又は仮想的な物体の影の領域を含む仮想前景領域を生成する。領域マッチング部44が、画像から、背景画像との差分により、物体を表す実前景領域を抽出し、生成された仮想前景領域と、抽出された実前景領域とが重なる領域に基づいて、物体らしい領域又は物体の影らしい領域を表すマップ画像を生成する。選択的前景領域処理部46が、マップ画像に基づいて、抽出された実前景領域から、前景領域を得る。【選択図】図1

Description

本発明は、前景領域抽出装置、方法、及びプログラムに係り、特に、入力された画像から、背景画像との差分により、物体を表す前景領域を抽出するための前景領域抽出装置、方法、及びプログラムに関する。
近年、監視カメラ設置台数の増加に伴い、画像処理技術を使って映像の意味理解を自動的に行い、人手で監視するコストを削減するサービスに注目が集まっている。映像の意味を理解するには、例えば、物体や人を検出し、検出した物体や人の状態を認識するといった処理が必要であるが、すべてのフレームについて画像全体を走査すると計算コストが大きくなってしまうという問題がある。そこで、監視カメラ映像では、長時間にわたってカメラが定位置に固定されており、環境物がほとんど変化しないという前提を用いることで、映像中に出入りする物体・人部分(前景)だけを前処理的に抽出し、処理対象を狭めるというアプローチがよく用いられる。
Z. Zivkovic and F. van der Heijden, Efficient adaptive density estimation per image pixel for the task of background subtraction , Pattern Recognit. Lett., vol. 27, pp. 773-780, 2006
前景領域は、ある時刻に得られた画像と、別途用意した背景の環境だけが映った画像(背景画像)との差分をとることにより得られる。このような処理で行う性質上、単純に差分をとるだけでは前景領域に本来注目対象ではない影が含まれてしまうという問題がある。これを解決する手段として、Gaussian mixtureモデルを使って逐次的に背景を構築することで、影部分を推定する手法などがある(非特許文献1参照)。しかしながら、非特許文献1のような技術では、照明が間接的に被写体に当たっており、影が薄くなる環境においては良好に影を検出することができるが、太陽光が被写体に直接当っており、影が濃くはっきりでる環境においては精度よく影を検出することができない。
本発明は、上記事情を鑑みて成されたものであり、太陽光が直接被写体に当たるような環境であっても、前景領域を精度よく抽出することができる前景領域抽出装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係る前景領域抽出装置は、入力された画像から、背景画像との差分により、物体を表す前景領域を抽出する前景領域抽出装置であって、予め定められた前記物体の長さに基づいて仮想的な前記物体の領域又は仮想的な前記物体の影の領域を含む仮想前景領域を生成する仮想前景領域生成部と、前記画像から、前記背景画像との差分により、前記物体を表す実前景領域を抽出する前景領域抽出部と、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体らしい領域又は前記物体の影らしい領域を表すマップ画像を生成する領域マッチング部と、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された前記実前景領域から、前記前景領域を得る選択的前景領域処理部と、を含んで構成されている。
また、第1の発明に係る前景領域抽出装置において、前記仮想前景領域生成部は、予め定められた物体のサイズに基づいて、前記仮想的な前記物体の領域を計算し、前記仮想的な前記物体の領域を含む前記仮想前景領域を生成し、前記領域マッチング部は、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体らしい領域を表す前記マップ画像を生成し、前記選択的前景領域処理部は、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された実前景領域から、前記物体の領域を抽出した前景領域を得るようにしてもよい。
また、第1の発明に係る前景領域抽出装置において、前記画像を撮影した日時を取得する日時取得部を更に含み、前記仮想前景領域生成部は、予め求められた前記画像を撮影したカメラの方角及び設置位置と、前記日時取得部により取得した前記日時と、前記物体の長さとに基づいて、前記日時における前記物体の影の領域を計算し、前記物体の影の領域を含む前記仮想前景領域を生成し、前記領域マッチング部は、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体の影らしい領域を表す前記マップ画像を生成し、前記選択的前景領域処理部は、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された実前景領域から、前記影の領域を除去した前記前景領域を得るようにしてもよい。
また、第1の発明に係る前景領域抽出装置において、前記領域マッチング部は、前記仮想前景領域を走査する毎に、前記仮想前景領域と前記実前景領域とが重なる領域の面積比により求まる一致度を算出することにより、前記マップ画像を生成するようにしてもよい。
第2の発明に係る前景領域抽出方法は、入力された画像から、背景画像との差分により、物体を表す前景領域を抽出する前景領域抽出装置における前景領域抽出方法であって、仮想前景領域生成部が、予め定められた前記物体の長さに基づいて仮想的な前記物体の領域又は仮想的な前記物体の影の領域を含む仮想前景領域を生成するステップと、前景領域抽出部が、前記画像から、前記背景画像との差分により、前記物体を表す実前景領域を抽出するステップと、領域マッチング部が、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体らしい領域又は前記物体の影らしい領域を表すマップ画像を生成するステップと、選択的前景領域処理部が、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された前記実前景領域から、前記前景領域を得るステップと、を含んで実行することを特徴とする。
また、第2の発明に係る前景領域抽出方法において、前記仮想前景領域生成部が生成するステップは、予め定められた物体のサイズに基づいて、前記仮想的な前記物体の領域を計算し、前記仮想的な前記物体の領域を含む前記仮想前景領域を生成し、前記領域マッチング部が生成するステップは、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体らしい領域を表す前記マップ画像を生成し、前記選択的前景領域処理部が前景領域を得るステップは、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された実前景領域から、前記物体の領域を抽出した前景領域を得るようにしてもよい。
また、第2の発明に係る前景領域抽出方法において、日時取得部が、前記画像を撮影した日時を取得するステップを更に含み、前記仮想前景領域生成部が生成するステップは、予め求められた前記画像を撮影したカメラの方角及び設置位置と、前記日時取得部により取得した前記日時と、前記物体の長さとに基づいて、前記日時における前記物体の影の領域を計算し、前記物体の影の領域を含む前記仮想前景領域を生成し、前記領域マッチング部が生成するステップは、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体の影らしい領域を表す前記マップ画像を生成し、前記選択的前景領域処理部が前景領域を得るステップは、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された実前景領域から、前記影の領域を除去した前記前景領域を得るようにしてもよい。
また、第3の発明に係るプログラムは、コンピュータを、上記第1の発明に係る前景領域抽出装置の各部として機能させるためのプログラムである。
本発明の前景領域抽出装置、方法、及びプログラムによれば、予め定められた物体の長さに基づいて仮想的な物体の領域又は仮想的な物体の影の領域を含む仮想前景領域を生成し、画像から、背景画像との差分により、物体を表す実前景領域を抽出し、生成された仮想前景領域と、抽出された実前景領域とが重なる領域に基づいて、物体らしい領域又は物体の影らしい領域を表すマップ画像を生成し、マップ画像に基づいて、抽出された実前景領域から、前景領域を得ることにより、太陽光が直接被写体に当たるような環境であっても、前景領域を精度よく抽出することができる、という効果が得られる。
本発明の第1の実施の形態に係る前景領域抽出装置の構成を示すブロック図である。 仮想的な人を上から見た例と、人の両端の位置を射影して得た点から生成した仮想前景領域の一例を示す図である。 実前景領域に対する探索枠の一例を示す図である。 仮想前景領域の走査の一例を示す図である。 マスク画像の生成、及び前景領域の抽出の一例を示す図である。 本発明の第1の実施の形態に係る前景領域抽出装置における前景領域抽出処理ルーチンを示すフローチャートである。 本発明の第1の実施の形態に係る仮想前景領域生成処理ルーチンを示すフローチャートである。 本発明の第1の実施の形態に係る領域マッチング処理ルーチンを示すフローチャートである。 本発明の実施の形態に係る選択的前景領域処理ルーチンを示すフローチャートである。 本発明の第2の実施の形態に係る前景領域抽出装置の構成を示すブロック図である。 仮想的な人を上から見た例と、人の両端の位置、及び当該人の影の両端の位置を射影して得た点から生成した仮想前景領域の一例を示す図である。 仮想前景領域の走査の一例を示す図である。 本発明の第2の実施の形態に係る前景領域抽出装置における前景領域抽出処理ルーチンを示すフローチャートである。 本発明の第2の実施の形態に係る仮想前景領域生成処理ルーチンを示すフローチャートである。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態に係る概要>
まず、本発明の実施の形態における概要を説明する。本発明の実施の形態では上記の課題の解決を図るために、カメラ設置時に行うカメラキャリブレーションの情報や、カメラの向いている方角及び設置場所の緯度・経度といった環境情報をもとに、人の長さの比をシミュレートするか、又は影の長さの比や、影の出る方角をシミュレートすることで仮想的に前景領域を生成し、仮想的な前景領域と実際の前景領域とを比較することによって、人領域を選択的に得る処理を行うことを特徴としている。なお、本実施の形態では、物体として人の前景領域を得る場合について説明するが、これに限定されるものではなく、他の物体(例えば動物、車等)としてもよい。
本実施の形態の手法を用いることで、屋外環境のように、太陽光が直接当たり、影が濃くはっきりと出る環境において、ある時刻に取得された画像と背景画像との差分処理によって得られた影を含む前景領域から、物体の領域を選択的に残すことができる。
<本発明の第1の実施の形態に係る前景領域抽出装置の構成>
次に、本発明の第1の実施の形態に係る前景領域抽出装置の構成について説明する。図1に示すように、本発明の実施の形態に係る前景領域抽出装置100は、CPUと、RAMと、後述する前景領域抽出処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この前景領域抽出装置100は、機能的には図1に示すように入力部10と、演算部20と、出力部50とを備えている。
入力部10は、固定された位置に設置されたカメラにより撮影された映像を受け付ける。また、入力部10は、カメラに関するキャリブレーション情報を受け付ける。
演算部20は、キャリブレーション情報保存部26と、カメラ情報DB28と、映像取得部30と、撮影情報取得部32と、照明状態判定部34と、既存前景領域抽出部36と、仮想前景領域生成部40と、前景領域抽出部42と、領域マッチング部44と、選択的前景領域処理部46とを含んで構成されている。
キャリブレーション情報保存部26は、入力部10により受け付けたカメラのキャリブレーション情報を、カメラ情報DB28に保存する。カメラのキャリブレーションは、監視カメラ設置時に行うが、例えば非特許文献2のような方法によりキャリブレーションを行う。キャリブレーションにより、カメラと床面との距離、床面に対するカメラの角度、焦点距離・歪み係数といったカメラ内部パラメータを取得することができる。さらに、これらのキャリブレーション情報に加え、カメラの撮影方向の方角、カメラ設置位置の緯度・経度の情報を別途、キャリブレーション情報として取得する。キャリブレーション情報保存部26は、取得した各種のキャリブレーション情報を、カメラ情報DB28に保存する。
[非特許文献2]I. Miyagawa , H. Arai and H. Koike, Simple camera calibration from a single image using five points on two orthogonal 1-d objects, IEEE Trans. Image Process., vol. 19, no. 6, pp. 1528-1538, 2010.
映像取得部30は、入力部10で受け付けた映像について、各時刻における画像の各々を取得する。なお、画像取得には、撮影情報取得部32に必要な情報を取得することができるカメラを使用しているものとする。
撮影情報取得部32は、映像取得部30で取得した画像の各々から、露光に関する情報を取得する。本実施の形態では、露光に関する情報を取得することとするが、例えば、逆光補正の値や、インターネットから入手できる天候の情報など、照明状態判定部34において、照明状態を推定するための情報として用いることができる他の情報を取得してもよい。
照明状態判定部34は、既存技術では推定が難しい濃い影が出現する環境であるかどうかを判定するため、撮影情報取得部32で得られた情報に基づいて、直射日光のような明るい光が被写体に当たっているか否かを判定する。例えば、露光状態と輝度値と、照明状態の情報をあらかじめ蓄積し、露光状態と輝度値から、照明状態を推定する方法などによって判定できる。
照明状態判定手段の結果、明るい光が被写体に当たっていない(曇っていたりなどして、濃い影が出ていない状況)と判定された場合には、既存手法による既存前景領域抽出部36により、画像の各々について、非特許文献1のような既存の影推定方法を用いて、背景画像との差分により、物体を表す前景領域を抽出し、出力部50に出力する。一方で、明るい光が被写体に当たっていると判定された場合には、仮想前景領域生成部40以降の処理を行う。
仮想前景領域生成部40は、予め定められた人のサイズと、カメラ情報DB28に保存されているキャリブレーション情報とに基づいて、仮想的な人の領域を計算し、仮想的な人の領域を含む仮想前景領域を生成する。仮想前景領域生成部40では、まず、カメラ情報DB28に保存された、カメラと床面との距離、角度、焦点距離と歪みパラメータ等のキャリブレーション情報を用いて、仮想的なカメラ位置から人を撮影した場合を仮定した投影面に対して、人の両端の位置を射影する。次に、射影された人の両端の位置に基づいて、人の領域を長方形で近似したボリュームで表現し、仮想前景領域を生成する。なお、本実施の形態においては、人の領域を長方形で近似したが、楕円形など他の図形で近似してもよい。図2に仮想的な人を上から見た例と、人の両端の位置を射影して得た点から生成した仮想前景領域の一例を示す。
前景領域抽出部42は、映像取得部30で取得した画像の各々から、背景画像との差分により、人を表す実前景領域を抽出する。実前景領域の抽出には、既存前景領域抽出部36と同様、既存手法を用いればよい。
領域マッチング部44は、以下に説明するように、仮想前景領域生成部40により生成された仮想前景領域のうちの人の領域と、前景領域抽出部42により抽出された実前景領域とが重なる領域に基づいて、人らしい領域を表すマップ画像を生成する。
領域マッチング部44では、まず、実前景領域の個々の塊に接するような枠に対してオフセットoを足して拡張した枠(探索枠)を計算する。図3に探索枠の一例を示す。次に、画素(i,j)毎に、計算した探索枠の内部全領域に仮想前景領域を走査させたときの仮想前景領域と実前景領域との一致度合いを計算していく。このオフセットoは、恣意的に指定してもよいし、計算結果の精度がよくなるよう学習されたパラメータを用いてもよい。探索枠内の実前景領域中の位置における画素(i,j)に対し、人に対する一致度の積算値S(i,j)を計算する。これにより、人らしい領域を表すマップ画像を得ることができる。一致度は、仮想前景領域の面積に対する、仮想前景領域と実前景領域とが重なる領域の面積比であり、仮想前景領域を走査する毎に求められる。図4に仮想前景領域の走査の一例を示す。今、探索枠の中で、仮想前景領域の左上座標が実前景領域における座標(k,l)である時の一致度をm(k,l)としたとき、人の領域に対する画素(i,j)の一致度の積算値は、以下(1)式により計算される。
ここで、Cは、画素(i,j)が仮想前景領域と実前景領域の重なった部分に含まれるような(k,l)の集合を表し、画素(i,j)毎に求められる。Hは、仮想前景領域の左上座標が(k,l)にある時、仮想前景領域中の人の領域と重なる実前景領域の座標の集合を表す。計算により得られた積算値Sにより、人らしい領域を表すマップ画像Sが生成される。また、人の映り込む大きさは画像位置によって大きさが異なるため、仮想前景領域を、比較する実前景領域の位置に合わせて拡大縮小しながら一致度を計算することとする。この拡大縮小の倍率は、カメラDB28に保存されたパラメータを用いて、ある画像位置に高さhの物体の領域の下端が来る場合、画像上何ピクセルになるかを計算しておくことで得ることができる。本実施の形態では、一致度m(i,j)を面積比としたが、他の指標を用いて一致度を計算してもよい。また、積算値Sについても、単純な和をとる例を示したが、和をとって積算数で割るなど、別の方法を用いてもよい。
選択的前景領域処理部46は、以下に説明するように、領域マッチング部44により生成されたマップ画像に基づいて、前景領域抽出部42により抽出された実前景領域から、物体の領域を抽出した前景領域を得る。
選択的前景領域処理部46では、まず、領域マッチング部44によって得られた人らしい領域を表すマップ画像Sのうち、閾値T以上の画素位置を1、閾値以下となる画素位置を0として、マスク画像を生成する。生成したマスク画像Sを、実前景領域にオーバーラップし、Sで1となっている位置のみ、前景領域を残す処理を行う。これにより、人の領域としての確からしさが高い前景領域のみを選択的に得ることができる。図5にマスク画像の生成、及び前景領域の抽出の一例を示す。
<本発明の第1の実施の形態に係る前景領域抽出装置の作用>
次に、本発明の第1の実施の形態に係る前景領域抽出装置100の作用について説明する。入力部10において、固定された位置に設置されたカメラにより撮影された映像、及びカメラに関するキャリブレーション情報を受け付け、カメラ情報DB28に保存すると、前景領域抽出装置100は、図6に示す前景領域抽出処理ルーチンを実行する。
まず、ステップS100では、入力部10で受け付けた映像について、各時刻における画像の各々を取得する。
次に、ステップS102では、映像取得部30で取得した画像の各々から、露光に関する情報を取得する。
ステップS104では、ステップS102で得られた情報に基づいて、直射日光のような明るい光が被写体に当たっているか否かを判定し、明るい光が被写体に当たっていないと判定された場合は、ステップS106へ移行し、明るい光が被写体に当たっていると判定された場合には、ステップS108へ移行する。
ステップS106では、画像の各々について、非特許文献1のような既存の影推定方法を用いて、背景画像との差分により、物体を表す前景領域を抽出し、出力部50に出力し、処理を終了する。
ステップS108では、予め定められた人のサイズと、カメラ情報DB28に保存されているキャリブレーション情報とに基づいて、仮想的な人の領域を計算し、仮想的な人の領域を含む仮想前景領域を生成する。
ステップS110では、ステップS100で取得した画像の各々から、背景画像との差分により、人を表す実前景領域を抽出する。
ステップS112では、画像の各々について、ステップS108で生成された仮想前景領域のうちの人の領域と、ステップS110で抽出された実前景領域とが重なる領域に基づいて、仮想前景領域を走査する毎に、仮想前景領域の面積に対する、仮想前景領域と実前景領域とが重なる領域の面積比により求まる一致度を算出することにより、物体らしい領域を表すマップ画像を生成する。
ステップS114では、画像の各々について、ステップS112で生成されたマップ画像に基づいて、ステップS110で抽出された実前景領域から、物体の領域を抽出した前景領域を得て、出力部50に出力し、処理を終了する。
上記ステップS108は、図7に示す仮想前景領域生成処理ルーチンによって実行される。
ステップS200では、カメラ情報DB28に保存された、カメラと床面との距離、角度、焦点距離と歪みパラメータ等のキャリブレーション情報を用いて、仮想的なカメラ位置から人を撮影した場合を仮定した投影面に対して、人の両端の位置を射影する。
ステップS202では、射影された人の両端の位置に基づいて、人の領域を長方形で近似したボリュームで表現し、仮想前景領域を生成し、仮想前景領域生成処理ルーチンを終了する。
上記ステップS112は、図8に示す領域マッチング処理ルーチンによって実行される。
ステップS300では、画像を選択し、当該画像における実前景領域の個々の塊に接するような枠に対してオフセットoを足して拡張した枠(探索枠)を計算する。
ステップS302では、実前景領域の塊を選択し、仮想前景領域を走査する毎に、仮想前景領域の面積に対する、仮想前景領域と実前景領域とが重なる領域の面積比により求まる一致度を算出し、画素(i,j)毎に、上記(1)式に従って、人の領域に対する一致度の積算値S(i,j)を得て、人らしい領域を表すマップ画像を生成する。
ステップS304では、全ての実前景領域の塊について処理を終了したか否かを判定し、終了していなければステップS302に戻って次の実前景領域の塊を選択して処理を繰り返し、終了していればステップS306へ移行する。
ステップS306では、全ての画像について処理を終了したか否かを判定し、終了していなければステップS300に戻って次の画像を選択して処理を繰り返し、終了していれば領域マッチング処理ルーチンを終了する。
上記ステップS114は、図9に示す選択的前景領域処理ルーチンによって実行される。
ステップS400では、画像を選択し、当該画像について生成された、人らしい領域を表すマップ画像Sのうち、閾値T以上の画素位置を1、閾値以下となる画素位置を0として、マスク画像を生成する。
ステップS402では、ステップS400で生成したマスク画像Sを、当該画像の実前景領域にオーバーラップし、Sで1となっている位置のみの前景領域を残す処理を行うことで、前景領域を得て、出力部50に出力する。
ステップS404では、全ての画像について処理を終了したか否かを判定し、終了していなければステップS400に戻って次の画像を選択して処理を繰り返し、終了していれば選択的前景領域処理ルーチンを終了する。
以上説明したように、本発明の第1の実施の形態に係る前景領域抽出装置によれば、予め定められた物体の長さに基づいて仮想的な物体の領域を含む仮想前景領域を生成し、画像から、背景画像との差分により、人を表す実前景領域を抽出し、生成された仮想前景領域と、抽出された実前景領域とが重なる領域に基づいて、人らしい領域を表すマップ画像を生成し、マップ画像に基づいて、抽出された実前景領域から、前景領域を得ることにより、太陽光が直接当たるような環境であっても、前景領域を精度よく抽出することができる。
<本発明の第2の実施の形態に係る前景領域抽出装置の構成>
次に、本発明の第2の実施の形態に係る前景領域抽出装置の構成について説明する。なお、第1の実施の形態と同様の構成となる箇所については同一符号を付して説明を省略する。
第2の実施の形態では、影らしい領域を含む仮想前景領域を生成し、前景領域を得る点が第1の実施の形態と異なっている。
図10に示すように、本発明の実施の形態に係る前景領域抽出装置200は、CPUと、RAMと、後述する前景領域抽出処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この前景領域抽出装置200は、機能的には図10に示すように入力部10と、演算部220と、出力部50とを備えている。
演算部20は、キャリブレーション情報保存部26と、カメラ情報DB28と、映像取得部30と、撮影情報取得部32と、照明状態判定部34と、既存前景領域抽出部36と、日時取得部238と、仮想前景領域生成部240と、前景領域抽出部42と、領域マッチング部244と、選択的前景領域処理部246とを含んで構成されている。
日時取得部238は、画像を撮影した日時を取得する。画像を撮影した日時は、ネットワーク(図示省略)経由でカメラ設置場所と時間同期がとれたコンピュータのシステム時間等から得てもよいし、IPカメラ等を利用する場合には、カメラデバイスそのものの時刻を取得してもよい。
仮想前景領域生成部240は、予め求められた画像を撮影したカメラの方角及び設置位置と、日時取得部238により取得した日時と、人の長さとに基づいて、仮想的な人の領域と、当該日時における人の影の領域とを計算し、仮想的な人の領域及び仮想的な人の影の領域を含む仮想前景領域を生成する。仮想前景領域生成部240では、まず、カメラの方角及び設置位置(緯度・経度)の情報と日時の情報から、その時刻と場所における太陽の高度と方角を計算する。本実施の形態では、緯度・経度を用いるが、都市程度の粒度で場所がわかる設置位置の情報を用いてもよい。また、太陽の高度と方角については、例えば国立天文台等が公開しているデータ等を用いる。太陽の高度をαと、太陽の方角が得られると、長さhの物体の影の長さは
と計算され、その日時における影の長さを得ることができる。次に、予め定められた人のサイズと、カメラ情報DB28に保存された、カメラと床面との距離、角度、焦点距離と歪みパラメータ等のキャリブレーション情報を用いて、仮想的なカメラの方角及び設置位置から仮想的な人と影を撮影する場合を仮定した投影面に対して、人の両端の位置、及び当該人の影の両端の位置を射影する。次に、人と影の領域を長方形で近似しボリュームを表現し、これを仮想前景領域とする。なお、本実施の形態においては、人領域を長方形で近似したが、楕円形など他の図形で近似してもよい。図11に仮想的な人と影を上から見た例と、人の両端の位置、及び当該人の影の両端の位置を射影して得た点から生成した仮想前景領域の一例を示す。
領域マッチング部244は、以下に説明するように、仮想前景領域生成部40により生成された仮想前景領域のうちの影の領域と、前景領域抽出部42により抽出された実前景領域とが重なる領域に基づいて、影らしい領域を表すマップ画像を生成する。
領域マッチング部244では、まず、第1の実施の形態と同様の処理を行って、実前景領域の個々の塊に接するような枠に対してオフセットoを足して拡張した枠(探索枠)を計算する。次に、探索枠内の実前景領域中の位置における画素(i,j)の各々に対し、影に対する一致度の積算値S(i,j)を計算する。これにより、影らしい領域を表すマップ画像を得ることができる。一致度は、仮想前景領域の面積に対する、仮想前景領域と実前景領域とが重なる領域の面積比であり、仮想前景領域を走査する毎に求められる。図12に走査の一例を示す。今、探索枠の中で、仮想前景領域の左上座標が実前景領域における座標(k,l)である時の一致度をm(k,l)としたとき、影の領域に対する画素(i,j)の一致度の積算値は、以下(3)式により計算される。
ここで、Dは、仮想前景領域の左上座標が(k,l)にある時、仮想前景領域中の影の領域と重なる実前景領域の座標の集合を表し、画素(i,j)毎に求められる。計算により得られた積算値Sにより、影らしい領域を表すマップ画像Sが生成される。
選択的前景領域処理部246は、以下に説明するように、領域マッチング部44により生成されたマップ画像に基づいて、前景領域抽出部42により抽出された実前景領域から、物体の領域を抽出した前景領域を得る。
選択的前景領域処理部246では、まず、領域マッチング部44によって得られた影らしい領域を表すマップ画像Sのうち、閾値T以上の画素位置を1、閾値以下となる画素位置を0として、マスク画像を生成する。生成したマスク画像Sを、実前景領域にオーバーラップし、Sで1となっている位置のみの前景領域を除去する処理を行う。これにより、人の領域としての確からしさが高い前景領域のみを選択的に得ることができる。
なお、第2の実施の形態の他の構成は第1の実施の形態と同様であるため説明を省略する。
<本発明の第2の実施の形態に係る前景領域抽出装置の作用>
次に、本発明の第2の実施の形態に係る前景領域抽出装置100の作用について説明する。なお、第1の実施の形態と同様の作用となる箇所については同一符号を付して説明を省略する。
入力部10において、固定された位置に設置されたカメラにより撮影された映像、及びカメラに関するキャリブレーション情報を受け付け、カメラ情報DB28に保存すると、前景領域抽出装置200は、図13に示す前景領域抽出処理ルーチンを実行する。
ステップS104では、ステップS102で得られた情報に基づいて、直射日光のような明るい光が被写体に当たっているか否かを判定し、明るい光が被写体に当たっていないと判定された場合は、ステップS106へ移行し、明るい光が被写体に当たっていると判定された場合には、ステップS500へ移行する。
ステップS500では、画像の各々について、当該画像を撮影した日時を取得する。
ステップS502では、カメラ情報DB28に保存された画像を撮影したカメラの方角及び設置位置と、ステップS500で取得した日時と、人の長さとに基づいて、仮想的な人の領域と当該日時における人の影の領域とを計算し、仮想的な人の領域及び仮想的な人の影の領域を含む仮想前景領域を生成する。
ステップS504では、ステップS500で生成された仮想前景領域のうちの影の領域と、ステップS110で抽出された実前景領域とが重なる領域に基づいて、影らしい領域を表すマップ画像を生成する。
ステップS506では、画像の各々について、ステップS504で生成されたマップ画像に基づいて、ステップS110で抽出された実前景領域から、物体の領域を抽出した前景領域を得て、出力部50に出力し、処理を終了する。
上記ステップS502は、図14に示す仮想前景領域生成処理ルーチンによって実行される。
ステップS600では、画像を選択し、予め求められた当該画像を撮影したカメラの方角及び設置位置(緯度・経度)と、ステップS500で取得した日時とに基づいて、その時刻と場所における太陽の高度と方角を計算する。
ステップS602では、ステップS600で計算された太陽の高度と方角と、人の長さhとに基づいて、カメラの緯度・経度と、太陽の方角との関係から、影の出る方角を算出する。また、上記(2)式に従って、影の長さを算出する。そして、算出された影の方角と長さにより、影の両端の位置を決定する。
ステップS604では、カメラ情報DB28に保存された、カメラと床面との距離、角度、焦点距離と歪みパラメータ等のキャリブレーション情報を用いて、仮想的なカメラの方角及び設置位置から仮想的な人と影を撮影した場合を仮定した投影面に対して、人の両端の位置、及び当該人の影の両端の位置を射影する。
ステップS604では、射影された人の両端の位置、及び当該人の影の両端の位置に基づいて、人と影の領域を長方形で近似したボリュームで表現し、仮想前景領域を生成する。
ステップS606では、全ての画像について処理を終了したか否かを判定し、終了していなければステップS600に戻って次の画像を選択して処理を繰り返し、終了していれば仮想前景領域生成処理ルーチンを終了する。
上記ステップS504は、上記図8に示す領域マッチング処理ルーチンのステップS302の処理を下記に置き換えて実行する。ステップS302では、実前景領域の塊を選択し、仮想前景領域を走査する毎に、仮想前景領域の面積に対する、仮想前景領域と実前景領域とが重なる領域の面積比により求まる一致度を算出し、画素(i,j)毎に、上記(3)式に従って、影の領域に対する一致度の積算値S(i,j)を得て、影らしい領域を表すマップ画像を生成する。
上記ステップS506は、上記図9に示す選択的前景領域処理ルーチンのステップS400及びS402を下記に置き換えて実行する。ステップS400では、画像を選択し、当該画像について生成された、影らしい領域を表すマップ画像Sのうち、閾値T以上の画素位置を1、閾値以下となる画素位置を0として、マスク画像を生成する。
ステップS402では、ステップS400で生成したマスク画像Sを、当該画像の実前景領域にオーバーラップし、Sで1となっている位置のみ、前景領域を除去する処理を行うことで、前景領域を得て、出力部50に出力する。
なお、第2の実施の形態の他の作用は第1の実施の形態と同様であるため説明を省略する。
以上説明したように、本発明の第2の実施の形態に係る前景領域抽出装置によれば、予め求められた画像を撮影したカメラの方角及び設置位置と、日時取得部により取得した日時と、人の長さとに基づいて、日時における物体の影の領域を計算し、仮想的な影の領域を含む仮想前景領域を生成し、画像から、背景画像との差分により、物体を表す実前景領域を抽出し、生成された仮想前景領域と、抽出された実前景領域とが重なる領域に基づいて、影らしい領域を表すマップ画像を生成し、マップ画像に基づいて、抽出された実前景領域から、前景領域を得ることにより、太陽光が直接当たるような環境であっても、前景領域を精度よく抽出することができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上述した第1及び第2の実施の形態では、それぞれ、人らしい領域を表すマップ画像S、及び影らしい領域を表すマップ画像Sの何れかを用いて、前景領域を得ていたが、これに限定されるものではない。例えば、第1及び第2の実施の形態を組み合わせて、人らしい領域を表すマップ画像S、及び影らしい領域を表すマップ画像Sの双方を生成し、選択的前景領域処理部は、画像毎に、計算された、人らしい領域を表すマップ画像Sと、影らしい領域を表すマップ画像Sとを用いて、統計的手法により、いずれのマップ画像が実前景領域に適合するのかを計算し、計算結果からいずれのマップ画像を用いるのかを選択し、人らしい領域を表すマップ画像Sを選択した場合には、Sで1となっている位置のみ、前景領域を残して、前景領域を得るようにし、影らしい領域を表すマップ画像Sを選択した場合には、Sで1となっている位置のみ、前景領域を除去して、前景領域を得るようにしてもよい。
また、上述した第1及び第2の実施の形態では、照明状態判定部34において、明るい光が被写体に当たっているか否かを判定し、必要に応じて、仮想前景領域を生成し、前景領域を得る処理を行っていたが、これに限定されるものではない。例えば、撮影情報取得部32と、照明状態判定部34と、既存前景領域抽出部36とを含まない構成として、外部の装置によって予め判定により明るい光が被写体に当たっていると判定された映像を入力として受け付け、仮想前景領域を生成し、前景領域を得る処理を行うようにしてもよい。
10 入力部
20、220 演算部
26 キャリブレーション情報保存部
30 映像取得部
32 撮影情報取得部
34 照明状態判定部
36 既存前景領域抽出部
40、240 仮想前景領域生成部
42 前景領域抽出部
44、244 領域マッチング部
46、246 選択的前景領域処理部
50 出力部
100、200 前景領域抽出装置
238 日時取得部

Claims (8)

  1. 入力された画像から、背景画像との差分により、物体を表す前景領域を抽出する前景領域抽出装置であって、
    予め定められた前記物体の長さに基づいて仮想的な前記物体の領域又は仮想的な前記物体の影の領域を含む仮想前景領域を生成する仮想前景領域生成部と、
    前記画像から、前記背景画像との差分により、前記物体を表す実前景領域を抽出する前景領域抽出部と、
    前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体らしい領域又は前記物体の影らしい領域を表すマップ画像を生成する領域マッチング部と、
    前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された前記実前景領域から、前記前景領域を得る選択的前景領域処理部と、
    を含む前景領域抽出装置。
  2. 前記仮想前景領域生成部は、予め定められた物体のサイズに基づいて、前記仮想的な前記物体の領域を計算し、前記仮想的な前記物体の領域を含む前記仮想前景領域を生成し、
    前記領域マッチング部は、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体らしい領域を表す前記マップ画像を生成し、
    前記選択的前景領域処理部は、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された実前景領域から、前記物体の領域を抽出した前景領域を得る請求項1に記載の前景領域抽出装置。
  3. 前記画像を撮影した日時を取得する日時取得部を更に含み、
    前記仮想前景領域生成部は、予め求められた前記画像を撮影したカメラの方角及び設置位置と、前記日時取得部により取得した前記日時と、前記物体の長さとに基づいて、前記日時における前記物体の影の領域を計算し、前記物体の影の領域を含む前記仮想前景領域を生成し、
    前記領域マッチング部は、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体の影らしい領域を表す前記マップ画像を生成し、
    前記選択的前景領域処理部は、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された実前景領域から、前記影の領域を除去した前記前景領域を得る請求項1に記載の前景領域抽出装置。
  4. 前記領域マッチング部は、前記仮想前景領域を走査する毎に、前記仮想前景領域と前記実前景領域とが重なる領域の面積比により求まる一致度を算出することにより、前記マップ画像を生成する請求項1〜3の何れか1項に記載の前景領域抽出装置。
  5. 入力された画像から、背景画像との差分により、物体を表す前景領域を抽出する前景領域抽出装置における前景領域抽出方法であって、
    仮想前景領域生成部が、予め定められた前記物体の長さに基づいて仮想的な前記物体の領域又は仮想的な前記物体の影の領域を含む仮想前景領域を生成するステップと、
    前景領域抽出部が、前記画像から、前記背景画像との差分により、前記物体を表す実前景領域を抽出するステップと、
    領域マッチング部が、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体らしい領域又は前記物体の影らしい領域を表すマップ画像を生成するステップと、
    選択的前景領域処理部が、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された前記実前景領域から、前記前景領域を得るステップと、
    を含む前景領域抽出方法。
  6. 前記仮想前景領域生成部が生成するステップは、予め定められた物体のサイズに基づいて、前記仮想的な前記物体の領域を計算し、前記仮想的な前記物体の領域を含む前記仮想前景領域を生成し、
    前記領域マッチング部が生成するステップは、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体らしい領域を表す前記マップ画像を生成し、
    前記選択的前景領域処理部が前景領域を得るステップは、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された実前景領域から、前記物体の領域を抽出した前景領域を得る請求項5に記載の前景領域抽出方法。
  7. 日時取得部が、前記画像を撮影した日時を取得するステップを更に含み、
    前記仮想前景領域生成部が生成するステップは、予め求められた前記画像を撮影したカメラの方角及び設置位置と、前記日時取得部により取得した前記日時と、前記物体の長さとに基づいて、前記日時における前記物体の影の領域を計算し、前記物体の影の領域を含む前記仮想前景領域を生成し、
    前記領域マッチング部が生成するステップは、前記仮想前景領域生成部により生成された仮想前景領域と、前記前景領域抽出部により抽出された実前景領域とが重なる領域に基づいて、前記物体の影らしい領域を表す前記マップ画像を生成し、
    前記選択的前景領域処理部が前景領域を得るステップは、前記領域マッチング部により生成された前記マップ画像に基づいて、前記前景領域抽出部により抽出された実前景領域から、前記影の領域を除去した前記前景領域を得る請求項5に記載の前景領域抽出方法。
  8. コンピュータを、請求項1〜請求項3のいずれか1項に記載の前景領域抽出装置の各部として機能させるためのプログラム。
JP2016138882A 2016-07-13 2016-07-13 前景領域抽出装置、方法、及びプログラム Active JP6615709B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016138882A JP6615709B2 (ja) 2016-07-13 2016-07-13 前景領域抽出装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016138882A JP6615709B2 (ja) 2016-07-13 2016-07-13 前景領域抽出装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018010483A true JP2018010483A (ja) 2018-01-18
JP6615709B2 JP6615709B2 (ja) 2019-12-04

Family

ID=60995646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016138882A Active JP6615709B2 (ja) 2016-07-13 2016-07-13 前景領域抽出装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6615709B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117915138A (zh) * 2024-01-08 2024-04-19 湖北泰跃卫星技术发展股份有限公司 一种在数据中台中对视频时间校准方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133413A (ja) * 2000-10-26 2002-05-10 Kawasaki Heavy Ind Ltd 画像処理を用いる3次元物体の識別方法および装置
JP2002190023A (ja) * 2000-12-21 2002-07-05 Toshiba Corp 車種判別装置及び車種判別方法及び車種判別方法を行うプログラムをコンピュータ読み取り可能なように記憶させた記憶媒体
JP2004258931A (ja) * 2003-02-25 2004-09-16 Matsushita Electric Works Ltd 画像処理方法、画像処理装置、画像処理プログラム
JP2007142527A (ja) * 2005-11-15 2007-06-07 Hitachi Ltd 移動体監視システム、移動体特徴量算出装置およびカメラ間移動体照合追跡装置
US20100322476A1 (en) * 2007-12-13 2010-12-23 Neeraj Krantiveer Kanhere Vision based real time traffic monitoring

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133413A (ja) * 2000-10-26 2002-05-10 Kawasaki Heavy Ind Ltd 画像処理を用いる3次元物体の識別方法および装置
JP2002190023A (ja) * 2000-12-21 2002-07-05 Toshiba Corp 車種判別装置及び車種判別方法及び車種判別方法を行うプログラムをコンピュータ読み取り可能なように記憶させた記憶媒体
JP2004258931A (ja) * 2003-02-25 2004-09-16 Matsushita Electric Works Ltd 画像処理方法、画像処理装置、画像処理プログラム
JP2007142527A (ja) * 2005-11-15 2007-06-07 Hitachi Ltd 移動体監視システム、移動体特徴量算出装置およびカメラ間移動体照合追跡装置
US20100322476A1 (en) * 2007-12-13 2010-12-23 Neeraj Krantiveer Kanhere Vision based real time traffic monitoring

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
長谷川為春, 外1名: ""モデルに基づいた影を伴う移動物体の検出"", 電子情報通信学会論文誌, vol. 第J83−D−II巻, 第2号, JPN6019031538, 25 February 2000 (2000-02-25), JP, pages 555 - 564, ISSN: 0004096794 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117915138A (zh) * 2024-01-08 2024-04-19 湖北泰跃卫星技术发展股份有限公司 一种在数据中台中对视频时间校准方法

Also Published As

Publication number Publication date
JP6615709B2 (ja) 2019-12-04

Similar Documents

Publication Publication Date Title
CN110400363B (zh) 基于激光点云的地图构建方法和装置
JP6942488B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
TWI455040B (zh) 前景物件偵測方法與裝置及背景偵測方法與裝置
US9818232B2 (en) Color-based depth smoothing of scanned 3D model to enhance geometry in 3D printing
KR102153607B1 (ko) 영상에서의 전경 검출 장치 및 방법
US9396583B2 (en) Method of modelling buildings on the basis of a georeferenced image
CN105578027B (zh) 一种拍照方法及装置
WO2020110576A1 (ja) 情報処理装置
Nyaruhuma et al. Verification of 2D building outlines using oblique airborne images
CN109520500A (zh) 一种基于终端拍摄图像匹配的精确定位及街景库采集方法
CN110781964A (zh) 一种基于视频图像的人体目标检测方法及系统
JP7387261B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN110942456B (zh) 篡改图像检测方法、装置、设备及存储介质
JP7092615B2 (ja) 影検出装置、影検出方法、影検出プログラム、学習装置、学習方法、及び学習プログラム
CN106846249A (zh) 一种全景视频拼接方法
JP6615709B2 (ja) 前景領域抽出装置、方法、及びプログラム
KR101598399B1 (ko) 로드뷰 사진이미지의 좌표정보를 이용한 자동 이미지 합성 시스템
CN113470093B (zh) 基于航拍图像处理的视频果冻效应检测方法、装置及设备
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
CN114944015A (zh) 图像的处理方法、装置、电子设备及存储介质
TW201415882A (zh) Ptz攝影機自動追蹤之方法
JP7194534B2 (ja) 対象検知装置、画像処理装置、対象検知方法、画像処理方法、及びプログラム
CN113505844A (zh) 标签生成方法、装置、设备、存储介质及程序产品
CN113992904A (zh) 一种信息处理方法、装置、电子设备和可读存储介质
JP2021033374A (ja) 対象物認識装置、対象物認識方法、及び対象物認識プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191106

R150 Certificate of patent or registration of utility model

Ref document number: 6615709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150