JP6082607B2 - 物体特徴抽出装置、物体領域抽出装置及び物体追跡装置 - Google Patents

物体特徴抽出装置、物体領域抽出装置及び物体追跡装置 Download PDF

Info

Publication number
JP6082607B2
JP6082607B2 JP2013015395A JP2013015395A JP6082607B2 JP 6082607 B2 JP6082607 B2 JP 6082607B2 JP 2013015395 A JP2013015395 A JP 2013015395A JP 2013015395 A JP2013015395 A JP 2013015395A JP 6082607 B2 JP6082607 B2 JP 6082607B2
Authority
JP
Japan
Prior art keywords
person
image
viewpoint
unit
seed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013015395A
Other languages
English (en)
Other versions
JP2014146247A (ja
Inventor
叶秋 李
叶秋 李
黒川 高晴
高晴 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2013015395A priority Critical patent/JP6082607B2/ja
Publication of JP2014146247A publication Critical patent/JP2014146247A/ja
Application granted granted Critical
Publication of JP6082607B2 publication Critical patent/JP6082607B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像から人などの注目物体が現れている領域の特徴量を抽出する物体特徴抽出装置、当該領域を抽出する物体領域抽出装置、及び当該抽出結果を用いて注目物体を空間内にて追跡する物体追跡装置に関する。
監視空間における人物等の対象物の追跡は監視空間を撮影した画像により行うことができ、当該追跡は例えば、対象物の画像特徴に基づいて行うことができる。
また、防犯等の目的で、画像から抽出した人物領域の形状を基に人物の姿勢を推定して異常の発生を検知する提案がなされている。姿勢の推定にはその前段である人物領域の抽出処理の精度が大きく影響する。例えば、背景差分処理等の簡易な抽出処理で得られる人物領域には背景画素の混入等が生じやすく姿勢の推定を誤る原因となっていた。この点に関し、人物領域などの対象物領域を高精度に抽出するための技術として、グラフカット法が注目されている。
グラフカット法では、対象物の色などの画像特徴を有する領域(シード)を対象物領域の手がかりとして事前設定し、シードと類似する領域を対象物領域として抽出する。例えば、非特許文献1に記載のグラフカット法では、対象物の形状を模した形状モデルの中央部をシードに設定することが行われていた。
D. Freedman andT. Zhang, "Interactive graph cut based segmentationwith shape priors", In Proceedings of the IEEEConference on Computer Vision and Pattern Recognition (CVPR), volume 1, pages755-762, 2005.
しかしながら、抽出対象の人物が歩行中であると人物の中心軸上に足の間の背景が含まれる。そのため当該歩行中の人物に例えば、鉛直軸を回転軸とする回転楕円体で近似した人形状モデルを当てはめると中央部に足の間の背景が含まれてしまうため、足の間の背景部分が人物のシードに設定されてしまう問題があった。人物のシードに背景部分が混入すると背景領域がシードに類似しているとして人物領域と共に抽出されてしまう。このように対象物の画像上の姿勢によってはシードに背景部分が混入し、対象物の特徴量や対象物領域の抽出精度が低下する問題があった。
本発明は上記問題を鑑みてなされたものであり、対象物の姿勢によらず当該対象物の画像上の特徴量や領域を高精度に抽出可能な物体特徴抽出装置及び物体領域抽出装置、並びに当該抽出結果を用いて対象物を高精度に追跡可能な物体追跡装置に関する。
本発明に係る物体特徴抽出装置は、所定の注目物体を複数の撮影部により互いに異なる視点から同時撮影した画像それぞれから当該注目物体の物体像を抽出する物体像抽出部と、前記視点ごとに前記物体像の内側と外側とでの前記画像の相違に応じた評価値を算出し、当該評価値が最も高いベスト視点を決定するベスト視点決定部と、前記複数の撮影部のカメラパラメータを用いた三次元空間内での対応付けにより、前記各視点の画像において前記ベスト視点から抽出した前記物体像に対応する対応部分を算出し、当該対応部分から前記物体を特徴付ける物体特徴量を抽出する物体特徴抽出部と、を有する。
他の本発明に係る物体特徴抽出装置においては、前記物体特徴抽出部は、前記視点ごとの前記画像において、前記注目物体の予め定められた二次元形状モデルと類似した形状が現れている位置を探索して当該位置に当該二次元形状モデルを配置し、前記ベスト視点にて抽出した前記物体像の視体積と前記ベスト視点以外の前記画像に配置した前記二次元形状モデルの視体積との前記三次元空間における積空間の一部又は全部を前記各画像に投影して前記対応部分を算出する。
さらに他の本発明に係る物体特徴抽出装置においては、複数の前記画像から抽出した前記物体像と前記カメラパラメータとを用いて前記三次元空間における前記注目物体の物体位置を算出する物体位置算出部を有し、前記物体特徴抽出部は、前記注目物体の予め定められた三次元形状モデルを前記三次元空間内の前記物体位置に配置すると共に、前記ベスト視点にて抽出した前記物体像の視体積を算出し、前記三次元形状モデルと前記視体積との積空間の一部又は全部を前記各画像に投影して前記対応部分を算出する。
別の本発明に係る物体特徴抽出装置においては、前記物体特徴抽出部は、前記積空間内にて高さごとに、前記視点ごとの前記画像の画素の逆投影線が交わる対応点を算出し、当該対応点の密度が最も高くなるピーク点を定め、前記各視点の前記画像において前記各ピーク点を前記各画像に投影して前記対応部分を算出する。
本発明に係る物体領域抽出装置は、上記本発明に係る物体特徴抽出装置と、前記視点ごとの前記物体特徴量を用いて当該視点の前記画像から物体像を再抽出する物体像再抽出部と、を有してなる。
本発明に係る物体追跡装置は、上記本発明に係る物体特徴抽出装置と、異なる時刻における前記注目物体を前記物体特徴量を用いて同定することにより当該注目物体を追跡する物体追跡部と、を有してなる。
本発明によれば、対象物の姿勢によらず画像から当該対象物の特徴量や領域を高精度に抽出することが可能となり、また対象物を高精度に追跡することが可能となる。
本発明の実施形態に係る画像監視装置の概略の構成を示すブロック図である。 撮影部の設置例を示す模式的な斜視図である。 監視空間である部屋を真上から見たときの撮影部の配置及びその視野を示す模式的な平面図である。 監視空間に仮想的に配置した人形状モデルを示す模式的な斜視図である。 本発明の実施形態に係る画像監視装置の動作の概略のフロー図である。 人物領域抽出部による人物領域抽出処理の概略のフロー図である。 モデル領域とシードの初期値の例を示す撮影画面の模式図である。 領域分割部にて撮影画像を人物領域と背景領域とに分割する際のグラフカット法に用いるグラフの模式図である。 人物領域再抽出処理の概略のフロー図である。 撮影画像における人物領域の輪郭を含む部分の一例の模式図である。 視体積交差空間の一例を模式的に示す斜視図である。 人物シードの初期値の位置、及び更新後の人物シードの位置の例を示す模式図である。 人物シードの初期値を用いて抽出した人物領域、及び更新後の人物シードを用いて抽出した人物領域の例を示す模式図である。
以下、本発明の物体特徴抽出装置及び物体領域抽出装置を含んだ好適な実施の形態(以下実施形態という)である画像監視装置1について、図面に基づいて説明する。画像監視装置1は、監視空間における人物を注目物体とし、物体特徴抽出装置により監視画像上の人物の像(物体像)から画像特徴を抽出し、当該画像特徴を用いて物体領域抽出装置により監視画像上の人物領域を抽出し、そして人物領域の形状に基づく人物姿勢の推定により異常の発生を監視する。なお、画像監視装置1は後述する人物領域抽出部41により物体特徴抽出装置及び物体領域抽出装置として機能し、監視画像を人物が現れている人物領域とそれ以外の背景領域に分割することで人物領域を抽出する。
[画像監視装置1の構成]
図1は画像監視装置1の概略の構成を示すブロック図である。画像監視装置1は4つの撮影部2a,2b,2c,2d、記憶部3及び出力部5が制御部4に接続されてなる。
撮影部2a〜2dはいわゆる監視カメラであり、撮影部2a〜2dは相互に共通視野を有して設置される。撮影部2a〜2dは、所定の時間間隔で共通視野を同時撮影し、撮影した画像を順次、制御部4へ出力する。この構成により、撮影部2は、抽出対象物(注目物体)である人物が共通視野に現れたときに当該人物を互いに異なる視点から同時撮影する。各撮影部2a〜2dには予めそれぞれを識別する符号(以下、カメラIDと称する)が付与されており、制御部4は各撮影部2a〜2dが撮影した画像等をカメラIDと対応づけて管理する。
図2は撮影部2a〜2dの設置例を示す模式的な斜視図である。この例では各撮影部2a〜2dは監視空間である部屋の天井に真下を向けて設置され、天井にて撮影部2a〜2dは四角形の四隅に配置されている。なお、監視空間の床面11上に人物10を図示している。図3は部屋を真上から見たときの視野及び撮影部2の配置を示す模式的な平面図である。図3において小さな○印は各撮影部2の位置であり、撮影部2a〜2dの共通視野は撮影部2a〜2dの真下位置を包含している。
画像監視装置1は、撮影部2a〜2dそれぞれの画像情報を統合するために、撮影部2a〜2dに共通の監視空間を模した3次元座標系(ワールド座標系)を設定する。具体的には、例えば床面11における撮影部2aの鉛直下の点を原点とし、鉛直高さ方向をZ軸、撮影部2aから撮影部2bへの方向をX軸、床面11にてX軸と直交する方向をY軸とするワールド座標系XYZを設定する。
記憶部3は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。記憶部3は、各種プログラムや各種データを記憶し、制御部4との間でこれらの情報を入出力する。
各種データには、カメラパラメータ30、追跡情報31、人形状モデル32、シード情報33、及び視点評価情報34が含まれる。
制御部4はCPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、記憶部3からプログラムを読み出して実行することで人物追跡部40、人物領域抽出部41、異常姿勢判定部42等として機能する。
出力部5は異常姿勢判定部42から異常信号が入力されると当該異常信号を外部に出力する外部出力装置である。例えば、出力部5は電話網あるいはインターネットなどの広域網を介して警備センターと接続された通信回路で構成され、警備センターに異常信号を送信することによって異常事態の発生を通報する。
以下、記憶部3に記憶される各種データと、制御部4の各部について説明する。
カメラパラメータ30は、予めのキャリブレーションにより計測された撮影部2a〜2dの内部パラメータ及び外部パラメータである。各撮影部2a〜2dのカメラパラメータ30は当該撮影部2のカメラIDと対応づけて記憶部3に記憶されている。外部パラメータによりワールド座標系における各撮影部2a〜2dの位置・姿勢が表され、外部パラメータをピンホールカメラモデル等に適用することで、ワールド座標系XYZの位置を各撮影部2a〜2dの撮影面座標系xyに変換(投影)したり、各撮影部2a〜2dの撮影面座標系xyの位置をワールド座標系XYZに変換(逆投影)したりすることが可能となる。
人物追跡部40は、撮影部2a〜2dが撮影した画像から共通視野に現れた人物を追跡して当該人物の人物位置を検出し、当該人物位置を含む追跡情報31を生成して記憶部3に記憶させる。画像中の人物の追跡は背景差分処理とテンプレートマッチングとに基づく方法など公知の方法によって行うことができる。
具体的には、人物追跡部40は撮影部2a〜2dの撮影画像から検出した撮影面座標系xyにおける人物の頭部中心位置を逆投影してワールド座標系XYZにおける位置を求め、例えば、撮影部2の対ごとに得られる当該位置を人物ごとに平均化して、ワールド座標系XYZにおける各人物の人物位置を求める。人物追跡部40は或る時刻の当該人物位置を当該人物の過去の人物位置と対応付けて追跡情報31を生成する。生成した追跡情報31は人物領域抽出部41に入力される。
なお、追跡情報31は、人物位置のほかに各人物の像を特徴づける人物テンプレート(色ヒストグラムなど)を含む。
人形状モデル32は、抽出対象物である人物の形状を模した形状データである。図4は監視空間に仮想的に配置した人形状モデル32を示す模式的な斜視図である。本実施形態では、立位の人の頭部、胴部及び脚部の3部分それぞれを鉛直軸を回転軸とする回転楕円体で近似し、これらを上から順に鉛直方向に整列した立体形状データを予め作成して人形状モデル32として記憶させておく。人形状モデル32は人物領域抽出部41にて利用される。
シード情報33は、撮影画像において抽出対象物が現れている可能性が十分に高い領域の情報(人物シード)、及び撮影画像において背景が現れている可能性が十分に高い領域の情報(背景シード)である。シード情報33は人物領域抽出部41により生成される。各撮影部2a〜2dの撮影画像に対して人物ごとに人物シードを構成する画素の値(色)及び位置と、背景シードを構成する画素の値(色)及び位置とがシード情報33として生成され、カメラID及び人物IDと対応付けて記憶部3に記憶される。
撮影画像における人物領域の抽出はシード情報33を手掛かりとして行われる。具体的には、撮影画像において背景シードよりも人物シードと類似する領域を人物領域として抽出する。そのため人物シードに背景が混入しているといった誤りがあると人物領域の抽出精度が低下してしまう。
人物シードに背景が混入する誤りは画像上の人物の姿勢に起因して生じる場合がある。撮影部2a〜2dは互いに異なる視点から人物を同時撮影するので、これら複数の撮影画像上の人物の姿勢は互いに異なる。そのため、互いに異なる視点から同時撮影した複数の撮影画像のうちいずれかの視点に対して人物の姿勢に起因する人物シードの誤りが生じて人物領域の抽出精度が低下しても、別の視点の撮影画像に対しては当該人物の人物シードが正しく生成されて人物領域が高精度に抽出できる可能性がある。
そこで人物領域抽出部41は、互いに異なる視点から同時撮影した複数の撮影画像それぞれに対して人物領域の抽出を行い、撮影画像ごとに人物領域の評価値(視点評価値)を算出して、最も高い視点評価値が算出された撮影画像を人物領域の抽出に最も適したベスト視点の撮影画像と決定する。
視点評価値は例えば人物領域内の画素値と人物領域外の画素値との相違度とすることができる。すなわち相違度が高い人物領域ほど背景と分離されており、背景の混入が少ない人物シードを用いて人物領域が抽出できていると推定できる。
視点評価情報34にはベスト視点に決定された撮影画像のカメラIDが記憶される。また、視点評価情報34はベスト視点の視点評価値やベスト視点以外の視点の視点評価値を含み得る。
人物領域抽出部41は上述したようにシード情報33を生成する。さらに人物領域抽出部41は、複数の撮影部2のカメラパラメータを用いた3次元空間内での対応付けにより、各視点の撮影画像においてベスト視点から抽出した人物の像に対応する対応部分を算出し、当該対応部分から人物シードを抽出してシード情報33を更新し、更新したシード情報33を用いて人物領域の再抽出を行うことで人物領域の抽出精度向上を図る。このようにシード情報33の生成と人物領域の抽出を段階的に行うために、人物領域抽出部41は、シード生成部410、領域分割部411、ベスト視点決定部412、シード更新部413及び領域再分割部414を備える。これら人物領域抽出部41を構成する各部の処理は画像監視装置1の動作説明において詳述する。
[画像監視装置1の動作]
図5は画像監視装置1の動作の概略のフロー図である。図5を参照して、画像監視装置1の動作を説明する。監視空間が無人であることを確認した管理者が装置に電源を投入すると、画像監視装置1の各部が初期化され動作を開始する。初期化の後は、撮影部2から制御部4へ新たな撮影画像が入力されるたびにステップS1〜S7の処理がループ処理として繰り返される。
新たな撮影画像が入力されると(S1)、制御部4の人物追跡部40は、撮影画像上の人物を追跡して当該人物の人物位置を検出する(S2)。人物追跡部40は検出した人物位置を当該人物の人物IDと対応付けて記憶部3の追跡情報31に記憶させる。
制御部4は、新たな撮影画像上に人物が存在しているか否か、すなわち追跡情報31に新たな撮影画像から検出した人物位置が記憶されているか否かを確認する(S3)。人物が存在しなければ(ステップS3にてNOの場合)、制御部4は以降の処理をスキップして処理をステップS1へ戻す。
人物が存在していれば(ステップS3にてYESの場合)、制御部4は新たな撮影画像から得た追跡情報31を人物領域抽出部41に入力し、人物領域抽出部41は各人物の人物領域を抽出する(S4)。
図6はステップS4の人物領域抽出処理S4の概略のフロー図である。以下、図6を参照して人物領域抽出処理を説明する。
まず、シード生成部410は、追跡情報31に記憶されている各人物の人物位置に人形状モデル32を配置し、各撮影部2a〜2dの撮影画像において当該人物が現れている人物領域の概略形状データである2次元形状モデル(モデル領域)を求める(S100)。この処理を図4を用いて説明する。ワールド座標系XYZの仮想空間110は監視空間に対応し、人形状モデル32は当該監視空間の床面111上に配置される。人形状モデル32は、頭部中心位置に設定される各人物の人物位置112を基準にして配置され、各撮影部2a〜2dのカメラパラメータ30を用いて当該人形状モデル32を各撮影部2a〜2dの撮影面座標系xyに投影することで、各撮影部2a〜2dの撮影画像115におけるモデル領域116を算出することができる。
次にシード生成部410はモデル領域を基にシード情報33の初期値を抽出する(S101)。具体的にはシード生成部410はモデル領域の中心軸を求めて中心軸上の画素群の正規化色ヒストグラムhを人物の特徴量(物体特徴量)として抽出する。そして、当該正規化色ヒストグラムhと中心軸上の各画素のxy座標とを人物シードとして抽出する。図7はモデル領域とシードの初期値の例を示す撮影画面の模式図である。例えば図4のモデル領域116に対しては図7に示す人物シード200が抽出される。またシード生成部410は、モデル領域を所定距離だけ離れて囲む外周部の画素群の正規化色ヒストグラムhと当該外周部の各画素のxy座標を背景シードとして抽出する。外周部はモデル領域を所定回数だけ膨張した膨張領域の輪郭画素とすることができる。膨張回数は例えば10回程度とすることができる。例えば図4のモデル領域116に対しては図7に示す背景シード201が抽出される。
続いて領域分割部411は、シード生成部410が生成したシード情報33を用いて、撮影部2a〜2dの撮影画像を人物シードに類似する人物領域と背景シードに類似する背景領域とに分割する(S102)。
このような分割処理はグラフカット法と呼ばれる手法により実現することができる。そのために領域分割部411は、まず、撮影画像115にそれぞれに対して図8に示すようなグラフを生成する。すなわち、領域分割部411は、人物領域及び背景領域の最小単位である画素をそれぞれノード210に設定すると共に人物領域側及び背景領域側の仮想ターミナルとしてソースS及びシンクTを設定し、各隣接ノード間のリンク(n-link)を設定し、さらに各ノードとソースとの間及び各ノードとシンクとの間にもリンク(t-link)を設定することで各撮影画像に対するグラフを生成する。
次に領域分割部411は、各n-linkに当該n-linkを切断するときのコストを設定し、各ノードとソースSのt-linkにn-linkの切断により当該ノードが人物領域側に分割されるときのコストを設定し、各ノードとシンクTのt-linkにn-linkの切断により当該ノードが背景領域側に分割されるときのコストを設定する。領域分割部411はn-linkのコストとして隣り合う画素の画素値の類似度を算出する。領域分割部411は各ノードとソースSのt-linkのコストとして背景シードhと各画素の画素値の類似度を算出する。領域分割部411は各ノードとシンクTのt-linkのコストとして人物シードhと各画素の画素値の類似度を算出する。各コストは分割が正しくないときに高くなる値であり、各視点の撮影画像を人物領域側のノードと背景領域側のノードに2分割するときのコストの総和が領域分割のエネルギーとして定義される。
領域分割部411は各撮影画像に対して設定したグラフにMinimum Cut/Maximum Flowアルゴリズムを適用して当該グラフを最小のエネルギーで人物領域と背景領域に2分割する切断を導出することで各撮影画像から人物領域を抽出する。
こうして領域分割部411によって、シード情報33の初期値を用いた人物領域が各撮影画像から抽出されると、制御部4は処理を図5のステップS5へ進める。
ステップS5ではシード情報33を更新して人物領域を再抽出する処理が行われる。図9はステップS5の人物領域再抽出処理の概略のフロー図である。以下、図9を参照して人物領域再抽出処理を説明する。
ベスト視点決定部412は、互いに視点が異なる撮影部2a〜2dの撮影画像それぞれから抽出された人物領域に対して視点評価値を算出する(S200)。具体的にはベスト視点決定部412は図6のステップS102で抽出された各人物領域に対し、以下に示す式(1)〜(3)に従って視点評価値Vを算出する。
Figure 0006082607
Figure 0006082607
Figure 0006082607
ここで、1/Vは人物領域内の画素pの画素値Iと人物領域外の画素qの画素値Iとの相違度である。相違度1/Vが高いほど視点評価値は高くなる。Edgeは人物領域の輪郭画素の集合、Nは人物領域の輪郭画素に隣接する近傍背景画素の集合、distは画素pの位置と画素qの位置との間の距離である。図10は撮影画像115における人物領域の輪郭を含む部分の一例の模式図であり、同図の右側に凡例として示す各種画素の配置例を示している。この例では、輪郭画素の1つを注目画素pとしたときにその8近傍内に存在する背景画素を近傍背景画素qとしている。
また、1/Vはモデル領域に対する人物領域のマッチング率である。マッチング率1/Vが高いほど視点評価値は高くなる。Mλは人物領域とモデル領域とで画素位置が一致する画素数であり、Mはモデル領域の画素数であり、Mは人物領域の画素数である。マッチング率1/Vはモデル領域とかけ離れた人物領域に対して視点評価値が不当に高くならないようにする役割を担う。
ベスト視点決定部412は次に視点ごと(すなわち撮影部ごと)に算出した視点評価値を比較して視点評価値が最も高い視点を人物領域抽出に最も適した視点(ベスト視点)と決定する(S201)。ベスト視点決定部412は視点を表すカメラIDと対応付けた視点評価値を値の高い順に並べて、シード更新部413に出力すると共に、視点評価情報34として記憶部3に記憶させる。
続いてシード更新部413は、各視点(すなわち各カメラID)を順次、注目視点に設定してステップS202〜S206のループ処理を実行する。
このループ処理において、シード更新部413は注目視点がベスト視点か否かを確認する(S203)。ベスト視点であればシード更新部413は注目視点のカメラパラメータ30を用いて当該視点の人物領域をワールド座標系に逆投影する(S204)。他方、ベスト視点でなければシード更新部413は注目視点のカメラパラメータ30を用いて当該視点のモデル領域をワールド座標系に逆投影する(S205)。シード更新部413はこれらの逆投影処理を全視点について処理し終えるまで繰り返す(S206にてNOの場合→S202)。この逆投影により、視点を頂点とする錐体の空間である視体積が定義される。全視点について処理を終えると(S206にてYESの場合)、全視点の視体積が交差する空間(積空間)を算出する(S207)。これによりベスト視点のみの人物領域を反映した人物の3次元の概略形状が算出される。
次にシード更新部413はステップS207にて算出した人物の視体積の積空間を基に人物シードを更新する(S208)。
そのためにシード更新部413は、視体積の交差空間にて上下方向に延在する中核部を求め、当該中核部を撮影部2a〜2dのそれぞれに投影して投影領域を人物シードとして抽出する。このようにすることで、ベスト視点における人物領域を反映した視体積交差空間に基づいて、人物シードを設定することができるので人物シードが人物の一部であることの確度が高くなる。
例えば、シード更新部413は、視体積交差空間内にて高さごとに、視点ごとの撮影画像の画素の逆投影線が交わる対応点を算出し、当該対応点の密度が最も高くなるピーク点を定め、当該ピーク点の集合を中核部と定めることができる。
また、視体積交差空間の中核部を算出するにあたりシード更新部413は視体積交差空間を、ベスト視点の撮影画像と他の視点の撮影画像との間で色が類似する画素として撮影される点からなる部分に絞り込んで中核部を算出することが好適である。このように異なる視点の撮影画像間で画素値の整合性を考慮することで、一般に実際の人物より大きめに得られる視体積交差空間の中からより人物の確度が高い領域を人物シードの抽出対象とすることができる。
図11は視体積交差空間の一例を模式的に示す斜視図である。この図を用いて人物シードの再抽出を具体的に説明する。シード更新部413は視体積交差空間300にて例えば、床面からの距離0cmから一定の間隔をおいて260cmまでZ軸方向の位置が異なる複数の水平断面302を設定し、各水平断面302をボクセルに区分する。次にシード更新部413は、視点ごとの逆投影線のうち共通のボクセルで互いに交わるものについて当該逆投影線に対応する画素の色の視点間での整合性を調べる。この整合性は例えば、ベスト視点の画素の色に対する他の視点の画素の色の標準偏差に基づいて判定することができる。シード更新部413は当該標準偏差を算出し、それが予め設定したしきい値より大きなボクセルを整合性なしとして視体積から除外する。
続いてシード更新部413は、修正された各水平断面について色の整合性の条件を満たすボクセル(対応点)の密度が最も高くなるピーク点304を1点ずつ算出し、各水平断面においてピーク点304に位置するボクセルvg(X,Y,Z)を求める。高さごとに求めたボクセルvgの集合V{vg(X,Y,Z)}が視体積交差空間の中核部となり、再抽出された人物シードの3次元形状とされる。なお、ピーク点304は例えば、ミーンシフト法による最頻値探索により求めることができる。
シード更新部413は、各撮影部2a〜2dのカメラパラメータ30を用いてボクセル集合V{vg(X,Y,Z)}を各撮影部2に投影する。そしてシード更新部413は各撮影画像においてボクセル集合の投影像をなす画素群の正規化色ヒストグラムhと投影像の各画素のxy座標を人物シードとして抽出する。
シード更新部413はこうして算出した人物シードを記憶部3のシード情報33に記憶させる。なお背景シードの更新は行わない。
上述したように、ベスト視点からは抽出した人物領域を逆投影するので、視体積交差空間から背景領域を高い確度で除外できる。その一方で、その他の視点からは抽出した人物領域ではなくモデル領域を逆投影する。このようにベスト視点以外からは抽出精度の低い人物領域を逆投影しないことで余分な背景領域によって人物シードがずれないようにしている。また回転対称である人形状モデル32から生成したモデル領域を逆投影することによりベスト視点以外で抽出した人物領域が水平断面のピーク点算出に影響しないようにしている。
以上のように、ベスト視点で抽出した人物領域に基づき更新した人物シードは背景領域が少なく人物の一部である確度が高まった人物シードとなる。
領域再分割部414はシード更新部413が更新したシード情報33を用いて、グラフカット法により撮影部2a〜2dの撮影画像を人物シードに類似する人物領域と背景シードに類似する背景領域とに再分割することで人物領域を再抽出する(S209)。
ベスト視点決定部412は互いに視点が異なる撮影部2a〜2dそれぞれから再抽出された人物領域に対し、上述した式(1)〜(3)に従って視点評価値Vを算出する(S210)。そして、ベスト視点決定部412は視点ごとに算出した視点評価値を比較して視点評価値が最も高い視点をベスト視点と決定する(S211)。ベスト視点決定部412は視点を表すカメラIDと対応付けた視点評価値を値の高い順に並べて、シード更新部413に出力すると共に、視点評価情報34として記憶部3に追記させる。
人物領域抽出部41は、視点評価情報34を参照して最新のベスト視点の視点評価値が予め設定したしきい値以上である場合、つまり好適な人物領域が再抽出された場合には(S212にてYESの場合)、再抽出した人物領域を異常姿勢判定部42に出力し、処理を図5のステップS6へ進める。一方、最新のベスト視点の視点評価値が予め設定したしきい値未満の場合であって(S212にてNOの場合)、再抽出により人物領域の改善が期待できそうである場合には、人物領域抽出部41は処理をステップS202へ戻して再抽出を繰り返し、今回よりも好適な人物領域の抽出を試みる。しかし、再抽出により人物領域の改善があまり期待できないような場合、例えば最新のベスト視点の視点評価値が前回のベスト視点の視点評価値より低くなった場合(S213にてYESの場合)や、人物領域の再抽出のループを所定回数、例えば3回繰り返してもステップS212の条件を満たす視点評価値が得られなかった場合(S214にてYESの場合)は反復を打ち切って、再抽出した人物領域を異常姿勢判定部42に出力し、処理を図5のステップS6へ進める。
なおステップS212における再抽出処理完了の判定は、視点評価値をしきい値と比較する判定に代えて、人物領域の抽出結果そのものの変化によって判定してもよい。この場合、人物領域抽出部41は人物領域の抽出結果を反復の履歴として記憶部3に記憶させ、今回と前回の人物領域を重ね合わせてそれら人物領域間におけるはみ出し画素数を求め、例えば、はみ出し画素数が所定値以上であれば改善中であるとして再抽出を反復し、はみ出し画素数が所定値未満であれば改善が飽和したとして再抽出の反復を終了する。
或いはステップS212の再抽出処理完了の判定は、ベスト視点の交代によって判定してもよい。この場合、人物領域抽出部41は視点評価情報34を参照して今回と前回のベスト視点を比較し、ベスト視点が交代していれば改善中であるとして再抽出を反復し、ベスト視点が交代していなければ改善が飽和したとして再抽出の反復を終了する。
再び図5を参照して画像監視処理の続きを説明する。
制御部4の異常姿勢判定部42は、人物領域抽出部41から入力された各人物の人物領域の形状と異常姿勢パターンとの類似度を算出して予め設定したしきい値と比較し、しきい値以上の類似度が算出された人物領域を異常姿勢であると判定し、そうでなければ異常姿勢でないと判定する(S6)。
異常姿勢判定部42は複数視点での人物領域のいずれかが異常姿勢と判定された場合に(ステップS7にてYESの場合)、所定の異常信号を生成して出力部5に当該信号を出力する(S8)。異常信号を入力された出力部5は警備センターに異常信号を送信し通報を行う。他方、人物領域のいずれも異常姿勢と判定されなければ(ステップS7にてNOの場合)、ステップS8の異常出力処理はスキップされる。
以上の処理を終えると、制御部4は処理をステップS1に戻し、次の撮影画像に対する処理が行われる。
図12は人物シードの初期値の位置、及び更新後の人物シードの位置の例を示す模式図である。図12において上段及び下段にそれぞれ4つ並ぶ画像は左から撮影部2a〜2dの撮影画像における人物像である。上段の画像310a〜310dには初期値の人物シード311a〜311dの位置を示している。初期値の人物シードは上述したようにモデル領域の中心軸に設定される。下段の画像312a〜312dには更新後の人物シードの位置を示している。更新後の人物シードは上述したように高さごとに求めたボクセルvgの集合V{vg(X,Y,Z)}を各視点に投影したものであり、下段の画像中の各黒点313がボクセルvgの投影像である。
図13は人物シードの初期値を用いて抽出した当初の人物領域(反復前)、及び更新後の人物シードを用いて抽出した人物領域(2度の反復後)の例を示す模式図である。図13は図12の人物像及び人物シードに対応した例を示しており、上段及び下段にそれぞれ4つ並ぶ人物領域は左から撮影部2a〜2dに対応している。上段の人物領域320a〜320dは初期値の人物シードを用いて抽出したものであり、下段の人物領域321a〜321dは更新後の人物シードを用いて抽出したものである。
図12の上段に示す人物シードの初期値は撮影部2a,2dの視点では人物像の足の間の背景を含んでしまっている。また撮影部2bの視点では挙げた足のひざ下の背景が人物シードの初期値に含まれてしまっている。しかしながら撮影部2cの視点ではほぼ人物のみから人物シードの初期値が抽出できている。
この人物シードの初期値を用いて抽出した人物領域320にはいずれも背景部分322が誤抽出されており、その人物領域の形状から歩行姿勢を推定するのは困難な状態であることが見て取れる。その中で撮影部2cの視点の人物領域は、上述のように人物シードがほぼ人物像のみから抽出できていることに対応して、他の視点に比べ背景部分が少なく視点評価値が高くなる。そこで撮影部2cの視点がベスト視点と決定される。
一方、更新後の人物シードはいずれも人物のみから抽出できている。これらを用いて抽出した人物領域も背景をほとんど含まず、歩行姿勢を推定可能な状態であることが見て取れる。
[変形例]
(1)上記実施形態では、人物シードの再抽出に際して、ベスト視点以外の視点については、監視空間にて追跡された人物位置に仮想的に配置した人形状モデル32を投影したモデル領域の視体積を用いた。この点に関し別の実施形態では、シード更新部413はベスト視点以外の撮影画像において、人物の予め定められた2次元形状モデルと類似した形状が現れている位置を探索して、当該位置に撮影画像における2次元形状モデルを設定することができる。
ここで、撮影画像における人物の概略形状は撮影部2と人物との位置関係に依存するので、2次元形状モデルは好適には撮影画像における探索位置に応じて変化させる。例えば、撮影画像における探索位置を逆投影した監視空間における位置に配置した人形状モデル32の投影像を2次元形状モデルとすることができる。当該2次元形状モデルはカメラパラメータ30に基づいて位置ごとに予め求めて記憶部3に記憶させ、それを読み出して利用する構成とすることもできるし、探索処理にて随時算出する構成とすることもできる。
シード更新部413は探索した位置に配置した2次元形状モデルに対応する視体積と、ベスト視点にて抽出した人物領域の視体積との交差空間の一部又は全部を各視点の撮影画像に投影して人物シードを算出する。
(2)上記実施形態では、視体積交差空間内にて求めた人物シードの3次元形状を各撮影部2に投影し、各撮影画像におけるその投影像から物体特徴量を抽出し、人物シードを更新した。この人物シードの再抽出の仕方に代えて、視体積交差空間を各撮影部2に投影し、その投影像の一部又は全部を人物シードの領域とし、当該領域から物体特徴量を抽出する構成とすることもできる。この変形例では、視点ごとの画像処理の割合を増やすことができるので、並列処理による高速化が容易となる。
(3)シード更新部413は、人形状モデル32を監視空間内の人物位置に仮想的に配置すると共に、ベスト視点にて抽出した人物領域の視体積を算出し、当該視体積と人形状モデル32との積空間に基づいて人物シードを更新する構成としてもよい。この場合、シード更新部413は当該積空間の一部又は全部を人物シードの3次元形状として定め、これを各撮影部2に投影して人物シードを求めることができる。またシード更新部413は当該積空間を各撮影部2に投影し、その像の一部又は全部を人物シードの領域とし、当該領域から物体特徴量を抽出する構成とすることもできる。この変形例では、人形状モデル32の3次元形状により、個々の視点の視体積が錐体であることに起因する積空間の推定誤差を抑制できる。この変形例は撮影部2の数が少ないときに特に有効である。
人形状モデル32は人物追跡部40の追跡位置に配置することができる。また制御部4は、複数の撮影画像から抽出した人物領域とカメラパラメータ30とを用いて監視空間における人物の位置を算出する物体位置算出部を備え、当該人物位置に人形状モデル32を配置してもよい。
(4)上記実施形態では画像監視装置1は本発明に係る物体領域抽出装置として、再抽出した人物の物体特徴量を人物領域の再抽出に利用している。本発明に係る物体追跡装置では、再抽出した人物の物体特徴量を異なる時刻における人物を同定するために用いて、人物を追跡する。例えば、人物追跡部40のテンプレートマッチングに用いる人物テンプレートを、再抽出した人物シードを用いて更新する構成とすることで、上述の画像監視装置1を本発明に係る物体追跡装置として機能させることができる。
また、画像監視装置1が抽出した人物領域を人物追跡部40にて人物テンプレートに利用して追跡を行うこともできる。このようにすることで背景の混入が少ない人物テンプレートで人物を追跡できるので、人物の取り違えや追跡し損ねを減じた高精度な追跡が可能となる。
1 画像監視装置、2 撮影部、3 記憶部、4 制御部、5 出力部、10 人物、11,111 床面、30 カメラパラメータ、31 追跡情報、32 人形状モデル、33 シード情報、34 視点評価情報、40 人物追跡部、41 人物領域抽出部、42 異常姿勢判定部、110 仮想空間、115 撮影画像、116 モデル領域、200 人物シード、201 背景シード、300 視体積交差空間、302 水平断面、304 ピーク点、410 シード生成部、411 領域分割部、412 ベスト視点決定部、413 シード更新部、414 領域再分割部。

Claims (6)

  1. 所定の注目物体を複数の撮影部により互いに異なる視点から同時撮影した画像それぞれから当該注目物体の物体像を抽出する物体像抽出部と、
    前記視点ごとに前記物体像の内側と外側とでの前記画像の相違に応じた評価値を算出し、当該評価値が最も高いベスト視点を決定するベスト視点決定部と、
    前記複数の撮影部のカメラパラメータを用いた三次元空間内での対応付けにより、前記各視点の画像において前記ベスト視点から抽出した前記物体像に対応する対応部分を算出し、当該対応部分から前記物体を特徴付ける物体特徴量を抽出する物体特徴抽出部と、
    を有することを特徴とする物体特徴抽出装置。
  2. 請求項1に記載の物体特徴抽出装置において、
    前記物体特徴抽出部は、前記視点ごとの前記画像において、前記注目物体の予め定められた二次元形状モデルと類似した形状が現れている位置を探索して当該位置に当該二次元形状モデルを配置し、前記ベスト視点にて抽出した前記物体像の視体積と前記ベスト視点以外の前記画像に配置した前記二次元形状モデルの視体積との前記三次元空間における積空間の一部又は全部を前記各画像に投影して前記対応部分を算出すること、を特徴とする物体特徴抽出装置。
  3. 請求項1に記載の物体特徴抽出装置において、
    複数の前記画像から抽出した前記物体像と前記カメラパラメータとを用いて前記三次元空間における前記注目物体の物体位置を算出する物体位置算出部を有し、
    前記物体特徴抽出部は、前記注目物体の予め定められた三次元形状モデルを前記三次元空間内の前記物体位置に配置すると共に、前記ベスト視点にて抽出した前記物体像の視体積を算出し、前記三次元形状モデルと前記視体積との積空間の一部又は全部を前記各画像に投影して前記対応部分を算出すること、を特徴とする物体特徴抽出装置。
  4. 請求項2又は請求項3に記載の物体特徴抽出装置において、
    前記物体特徴抽出部は、前記積空間内にて高さごとに、前記視点ごとの前記画像の画素の逆投影線が交わる対応点を算出し、当該対応点の密度が最も高くなるピーク点を定め、前記各視点の前記画像において前記各ピーク点を前記各画像に投影して前記対応部分を算出すること、を特徴とする物体特徴抽出装置。
  5. 請求項1から請求項4のいずれか1つに記載の物体特徴抽出装置と、
    前記視点ごとの前記物体特徴量を用いて当該視点の前記画像から物体像を再抽出する物体像再抽出部と、
    を有することを特徴とする物体領域抽出装置。
  6. 請求項1から請求項4のいずれか1つに記載の物体特徴抽出装置と、
    異なる時刻における前記注目物体を前記物体特徴量を用いて同定することにより当該注目物体を追跡する物体追跡部と、
    を有することを特徴とする物体追跡装置。
JP2013015395A 2013-01-30 2013-01-30 物体特徴抽出装置、物体領域抽出装置及び物体追跡装置 Active JP6082607B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013015395A JP6082607B2 (ja) 2013-01-30 2013-01-30 物体特徴抽出装置、物体領域抽出装置及び物体追跡装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013015395A JP6082607B2 (ja) 2013-01-30 2013-01-30 物体特徴抽出装置、物体領域抽出装置及び物体追跡装置

Publications (2)

Publication Number Publication Date
JP2014146247A JP2014146247A (ja) 2014-08-14
JP6082607B2 true JP6082607B2 (ja) 2017-02-15

Family

ID=51426442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013015395A Active JP6082607B2 (ja) 2013-01-30 2013-01-30 物体特徴抽出装置、物体領域抽出装置及び物体追跡装置

Country Status (1)

Country Link
JP (1) JP6082607B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112288772B (zh) * 2020-10-14 2022-06-07 武汉大学 基于在线多特征选择的通道注意力目标跟踪方法
DE112021007115T5 (de) * 2021-04-22 2024-02-15 Mitsubishi Electric Corporation Positionserfassungsvorrichtung, positionserfassungsverfahren und positionserfassungsprogramm

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4088060B2 (ja) * 2001-10-31 2008-05-21 株式会社東芝 人物監視システム
JP2007306464A (ja) * 2006-05-15 2007-11-22 Fujifilm Corp 撮影制御方法および装置ならびにプログラム
JP2008176504A (ja) * 2007-01-17 2008-07-31 Toshiba Corp 物体検出装置及びその方法

Also Published As

Publication number Publication date
JP2014146247A (ja) 2014-08-14

Similar Documents

Publication Publication Date Title
JP6942488B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US20180047175A1 (en) Method for implementing human skeleton tracking system based on depth data
JP5167248B2 (ja) 深度マップによるヒューマノイド形状のモデル化
JP6286474B2 (ja) 画像処理装置および領域追跡プログラム
JP4531897B2 (ja) 人物追跡装置、人物追跡方法及びそのプログラムを記録した記録媒体
KR101732898B1 (ko) 영상 처리 장치 및 방법
JP2014127208A (ja) 物体検出方法及び物体検出装置
JP2009536731A5 (ja)
JP4878330B2 (ja) 対象物の関節構造の取得方法及び装置
JP5940862B2 (ja) 画像処理装置
JP2010002976A (ja) 画像監視装置
CN109003307A (zh) 基于水下双目视觉测量的捕鱼网目尺寸设计方法
JP6082607B2 (ja) 物体特徴抽出装置、物体領域抽出装置及び物体追跡装置
Ke et al. View-invariant 3D human body pose reconstruction using a monocular video camera
JP4670010B2 (ja) 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム
Micusik et al. Towards detection of orthogonal planes in monocular images of indoor environments
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
CN115880643A (zh) 一种基于目标检测算法的社交距离监测方法和装置
CN113610969B (zh) 一种三维人体模型生成方法、装置、电子设备及存储介质
Panagiotakis et al. Recognition and tracking of the members of a moving human body
Lo et al. Vanishing point-based line sampling for real-time people localization
JP7396364B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2018185623A (ja) 物体検出装置
JP7152651B2 (ja) プログラム、情報処理装置、及び情報処理方法
Zhang et al. 3d pedestrian tracking based on overhead cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170123

R150 Certificate of patent or registration of utility model

Ref document number: 6082607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250