JP5217917B2 - 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム - Google Patents

物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム Download PDF

Info

Publication number
JP5217917B2
JP5217917B2 JP2008286095A JP2008286095A JP5217917B2 JP 5217917 B2 JP5217917 B2 JP 5217917B2 JP 2008286095 A JP2008286095 A JP 2008286095A JP 2008286095 A JP2008286095 A JP 2008286095A JP 5217917 B2 JP5217917 B2 JP 5217917B2
Authority
JP
Japan
Prior art keywords
specific object
reference image
image
possibility
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008286095A
Other languages
English (en)
Other versions
JP2010113562A (ja
Inventor
彬 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008286095A priority Critical patent/JP5217917B2/ja
Publication of JP2010113562A publication Critical patent/JP2010113562A/ja
Application granted granted Critical
Publication of JP5217917B2 publication Critical patent/JP5217917B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は,カメラにより撮像された画像から人などの特定物体を検知し,追跡する技術に関するものであり,特に,パターン識別を含めて複数の情報を統合し,異なる次元空間での特定物体の存在可能性の分布を互いの入力情報として,各次元空間での特定物体の存在可能性の分布を逐次更新することにより,短い処理時間で安定的な特定物体の検知,追跡を行う物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラムに関するものである。
画像や映像から人などの特定物体を検知する技術がある。以下,画像からの人の検知を例として,特定物体を検知する技術を説明する。
一般に,画像から人領域を検出する場合には,人の画像パターンを学習してパターンマッチングを行うことにより,画像から人領域を検出する。また,複数のカメラで計測したシーンの三次元情報を手がかりとして人領域の検出を行う画像領域を絞り込んでから,パターンマッチングにより,画像から人領域を検出する技術がある。
なお,ステレオカメラで撮像された画像を用いたステレオ画像処理により,監視空間内の三次元情報を計測して仮想平面上の物体領域を抽出し,監視空間の混雑度を計測する技術が知られている(例えば,特許文献1参照)。
また,ステレオ画像に基づいて特徴点の空間座標を求め,座標値が近い特徴点同士を同一のクラスタにまとめることにより個々の人間の分類を行い,個々の人間の移動状況を追跡する技術が知られている(例えば,特許文献2参照)。
また,テンプレート走査により画像から人の目を検出する技術が知られている(例えば,特許文献3参照)。
また,所定の区域を通過する人の頭頂部を上方から撮影するカメラと,所定の区域を通過する人の正面を撮影するカメラとを用いて人を検知する技術が知られている(例えば,特許文献4参照)。
特開2001−034883号公報 特開平10−049718号公報 特開2003−196655号公報 特開2005−140754号公報
上述のパターンマッチングにより画像から人領域を検出する技術では,精度よく人領域の検出を行うために多数の画像パターンを用いるため,高速に画像から人領域を検出することは困難であった。
また,人パターンの定義を厳しくすると人の検出見逃しが多くなってしまい,逆に人パターンの定義を甘くすると人の誤検出が多く発生してしまうため,安定的に人領域を検出することが難しかった。
本発明は,上記の問題点の解決を図り,短時間の処理で,ロバストに画像から特定物体を検知し,追跡することが可能となる技術を提供することを目的とする。
撮像された画像から特定物体の領域を検知し,検知された特定物体の領域を追跡する物体検知追跡装置は,基準画像を含む複数の撮像画像から基準画像の三次元情報を生成する三次元情報生成部と,基準画像における特定物体の存在可能性に基づいて仮想平面上に投影する三次元情報の領域を定義するマスク情報によりマスクされた三次元情報を所定の仮想平面に投影し,仮想平面における特定物体の存在可能性を示す第一のマップ情報を生成する第一マップ情報生成部と,第一のマップ情報における特定物体の存在可能性を示す値に応じて仮想平面における特定物体の候補位置のサンプルを抽出する特定物体候補位置サンプル抽出部と,特定物体の候補位置のサンプルごとに,特定物体の候補位置に存在すると仮定された特定物体の像を基準画像に投影することにより基準画像での特定物体の候補領域を決定し,特定物体の候補領域における特定物体の存在可能性を示す特定物体らしさの値を算出する特定物体らしさ算出部と,特定物体の候補位置のサンプルごとに算出された特定物体の候補領域における特定物体らしさを統合し,基準画像における特定物体の存在可能性を示す第二のマップ情報を生成する第二マップ情報生成部と,第二のマップ情報からマスク情報を生成するマスク情報生成部とを備える。
また,撮像された画像から特定物体の領域を検知し,検知された特定物体の領域を追跡する物体検知追跡方法は,コンピュータが,基準画像を含む複数の撮像画像から基準画像の三次元情報を生成する過程と,基準画像における特定物体の存在可能性に基づいて仮想平面上に投影する三次元情報の領域を定義するマスク情報によりマスクされた三次元情報を所定の仮想平面に投影し,仮想平面における特定物体の存在可能性を示す第一のマップ情報を生成する過程と,第一のマップ情報における特定物体の存在可能性を示す値に応じて仮想平面における特定物体の候補位置のサンプルを抽出する過程と,特定物体の候補位置のサンプルごとに,特定物体の候補位置に存在すると仮定された特定物体の像を基準画像に投影することにより基準画像での特定物体の候補領域を決定し,特定物体の候補領域における特定物体の存在可能性を示す特定物体らしさの値を算出する過程と,特定物体の候補位置のサンプルごとに算出された特定物体の候補領域における特定物体らしさを統合し,基準画像における特定物体の存在可能性を示す第二のマップ情報を生成する過程と,第二のマップ情報からマスク情報を生成する過程とを実行する。
また,撮像された画像から特定物体の領域を検知し,検知された特定物体の領域を追跡する物体検知追跡プログラムは,コンピュータを,基準画像を含む複数の撮像画像から生成された基準画像の三次元情報を,基準画像における特定物体の存在可能性に基づいて仮想平面上に投影する三次元情報の領域を定義するマスク画像によりマスクして所定の仮想平面に投影し,仮想平面における特定物体の存在可能性を示す第一のマップ情報を生成する第一マップ情報生成部と,第一のマップ情報における特定物体の存在可能性を示す値に応じて仮想平面における特定物体の候補位置のサンプルを抽出する特定物体候補位置サンプル抽出部と,特定物体の候補位置のサンプルごとに,特定物体の候補位置に存在すると仮定された特定物体の像を基準画像に投影することにより基準画像での特定物体の候補領域を決定し,特定物体の候補領域における特定物体の存在可能性を示す特定物体らしさの値を算出する特定物体らしさ算出部と,特定物体の候補位置のサンプルごとに算出された特定物体の候補領域における特定物体らしさを統合し,基準画像における特定物体の存在可能性を示す第二のマップ情報を生成する第二マップ情報生成部と,第二のマップ情報からマスク情報を生成するマスク情報生成部として機能させる。
異なる次元空間での特定物体の存在可能性の分布を互いの入力情報として,各次元空間での特定物体の存在可能性の分布を逐次更新することにより,従来よりも短い処理時間で,安定的な特定物体の検知,追跡を行うことができるようになる。
以下,本実施の形態について,図を用いて説明する。
本実施の形態では,撮像された画像からの特定物体の検知,追跡の例として,人の検知,追跡の例を説明する。このとき,撮像された画像から特定物体の領域を検出し,その特定物体の領域を追跡する物体検知追跡装置は,撮像された画像から人の領域を検出し,その人の領域を追跡する人検知追跡装置となる。
図1は,本実施の形態による人検知追跡装置の構成例を示す図である。
人検知追跡装置10は,複数のカメラ20により撮像された画像から,人が写っている予測される領域を検知し,その人領域の経時変化を追跡する。
人検知追跡装置10は,画像取得部11,三次元情報生成部12,マップb生成部13,人候補位置サンプル抽出部14,人らしさ算出部15,マップa生成部16,マスク画像生成部17を備える。
画像取得部11は,所定の間隔で複数のカメラ20により撮像される画像を取得する。各カメラの位置や方向などは,あらかじめ校正しておく。取得された複数の画像のうちの1つは,人領域の検出を行う基準画像となり,その他の画像は参照画像となる。
三次元情報生成部12は,取得された複数の画像から,環境の三次元情報を生成する。ここでは,三次元情報として,基準画像の各画素についての被写体までの距離を示す画像である距離画像(Depth Map )を生成する。なお,異なる位置から同じ被写体を撮像した複数の画像(基準画像を含む)から,基準画像における被写体までの距離を算出する技術については,従来から知られている。
マップb生成部13は,生成された距離画像を,基準画像における人領域の確率分布(後述のマップa)に基づいて生成されたマスク画像によりマスクし,距離画像の各画素を仮想平面上に投影した画素数の二次元ヒストグラムを生成する。生成された二次元ヒストグラムは,仮想平面における人の存在可能性を示す情報である。以下では,生成された二次元ヒストグラムをマップbと呼ぶものとする。
マスク画像は,仮想平面上に投影する距離画像の領域を定義するマスク情報である。マップb生成部13は,マスク画像により定義された距離画像の領域の画素について,仮想平面上への投影を行う。マスク画像は,後述のマスク画像生成部17によって,人領域の確率分布に基づいて生成される。人領域の確率分布は,マップa生成部16によって生成されたものを用いるが,初期設定では一様分布であるものとする。
図2は,本実施の形態による距離画像の生成およびマップb生成の一例を説明する図である。
ここでは,仮想平面を,撮影空間における床平面と同じ法線を持つ面とする。以下,本実施の形態において,距離画像が投影される仮想平面を床面と呼ぶ。また,人領域の確率分布は初期設定の状態であるものとし,マスク画像により距離画像の全画素の投影が定義されているものとする。
三次元情報生成部12は,参照画像を用いて,基準画像の三次元情報である距離画像を生成する。
基準画素の各画素の座標を(i,j)とする。距離画像の各画素の座標も同様に(i,j)となる。基準画像における各画素の画素値は,その画素の色や明るさを示す値であるが,距離画像における各画素の画素値は,基準画像における画素に写った被写体までの距離を示す値となる。距離画像における画素値をdとする。
マップb生成部13は,距離画像を床面のグリッドマップに投影し,マップbを生成する。床面のグリッドマップは,例えば10cm間隔のグリッドで区切られている。
床面の座標を,(x,y)とする。なお,床面の法線方向,すなわち高さ方向の座標をzとする。距離画像における画素の三次元情報(i,j,d)を,床面における三次元座標Q(x,y,z)に変換する。
Q(x,y,z)=f(i,j,d)
変換に用いる関数f()は,基準画像カメラ20の位置,方向などの設定や,床面の位置との関係により決定される。変換された座標Q(x,y,z)のx座標,y座標が,その画素に写った被写体の床面における位置を示す。該当する床面上の区分領域の画素数を+1する。
距離画像の全画素についてQ(x,y,z)を求め,そのx座標,y座標に基づいて,床面のグリッドマップにおける画素数の二次元ヒストグラムであるマップbを生成する。さらに,本実施の形態では,床面のグリッドマップの各区分領域の画素数を全画素数で割ることにより,マップbの正規化を行っておく。
ここで得られたマップbは,基準画像に写った被写体の床面における位置を示す情報である。すなわち,マップbは,基準画像に写った何らかの物体の,床面上での存在可能性を示す確率分布として扱うことができる。値が大きい区分領域の位置に,基準画像に写った何らかの物体が存在する可能性が高いと考えられる。
なお,ここでは,初期段階でマスク画像により距離画像の全画素の投影が定義されているものとしているので,マップbは,基準画像に写った何らかの物体の,床面上での存在可能性を示す情報となっている。基準画像上における人の存在可能性を示す人領域の確率分布(後述のマップa)に基づいて生成されたマスク画像によって,距離画像の投影する領域が定義されている場合には,マップbは,基準画像に写った人らしき物体の,床面上での存在可能性を示す情報となる。
図1において,人候補位置サンプル抽出部14は,リサンプリング(再標本化)により,マップb生成部13により生成されたマップbから,人の候補位置のサンプルを抽出する。リサンプリングとは,ある標本点系列で表現された確率分布関数を,別の標本点系列で標本化して,新しい標本点系列で表現しなおすことをいう。
図3は,本実施の形態によるマップbからのリサンプリングの一例を説明する図である。リサンプリングの手法としては様々な手法が存在するが,ここではその一例について説明する。
図3に示す例では,マップbの各位置(座標点)について,それぞれ乱数を用いてサンプルとして抽出するか否かを判定する。このとき,物体が存在する確率が高い座標点ほど,サンプルとして選択されやすくなるようにする。ここでは,グリッドで区分された領域の中心を判定を行う座標点とし,その区分領域の値(その区分領域に投影された画素数/全画素数)を用いて,その座標点を人候補位置のサンプルとして抽出するか否かの判定を行う。
図3(A)は,マップbにおいて,y座標をあるy1 で固定した場合の値P(x,y1 )を示す。Pの値は,(その区分領域に投影された画素数/全画素数の値)であるので,0≦P≦1の値となる。
ここで,ある位置(x1 ,y1 )について,サンプルとして抽出するか否かを判定する例を説明する。まず,乱数Pr (ただし,0≦Pr ≦1)を発生させる。ここでは,位置(x1 ,y1 )のサンプル抽出判定のために発生された乱数を,Pr (x1 ,y1 )と表記する。座標点(x1 ,y1 )における値P(x1 ,y1 )と,乱数値Pr (x1 ,y1 )とを比較し,
P(x1 ,y1 )>Pr (x1 ,y1
であれば,その座標点を人候補位置のサンプルとして抽出すると判断する。
このようなサンプル抽出の可否判定を,マップb上の所定の全座標点(x,y)について,それぞれ乱数Pr (x,y)を発生させて行う。Pの値が大きい座標点ほど,すなわち床面上で物体が存在する可能性が高い位置(区分領域)ほど,サンプルとして抽出される可能性が高くなる。
図3(B)は,あるマップbをイメージした図であり,図3(C)は,リサンプリングにより,図3(B)のマップbから人候補位置のサンプルを抽出した床面のイメージを示す図である。図3(C)において,縦棒で示された床面上の位置がサンプルとして抽出された人候補領域である。物体が存在する可能性が高い位置ほど,サンプルとして選択されやすくなる。
図1において,人らしさ算出部15は,人候補位置のサンプルごとに,床面のその人候補位置に人が存在すると仮定し,その人の像を基準画像に投影した領域である人候補領域の人らしさの値を算出する。人候補領域の人らしさとは,その人候補領域に人が存在する可能性の高さ,すなわちその人候補領域に人が写っている可能性の高さを示す。
人らしさ算出部15は,人候補領域投影部150,肌色尤度分布生成部151と,人候補領域人らしさ算出部152,人属性データベース156,肌色モデル157,顔検出器158を備える。
人候補領域投影部150は,抽出されたサンプルの人候補位置に人が存在すると仮定し,その仮定された人の像を基準画像上に投影する。具体的には,人候補領域投影部150は,床面上の人候補位置に存在する人が写ると考えられる基準画像上の領域(人候補領域)を,透視変換により求める。
図4は,本実施の形態による人候補領域の算出の一例を説明する図である。
人属性データベース156には,例えば人の身長(高さ),幅などの人の属性に関する設定情報が格納されている。人候補領域投影部150は,人属性データベース156の設定情報に基づいて,床面上の人候補位置に人が立っているものと仮定し,その人の像(例えば,高さ1.8m,幅0.6m)を設定する。
床面を底面とする三次元空間上で仮定された人の像を,基準画像上に人候補領域として透視変換する。三次元空間をカメラで撮像すると,近くにある物体は画像に大きく写り,遠くにある物体は画像に小さく写る。透視変換とは,三次元物体を二次元で表現する場合に,遠近感を表現する投影法をいう。すなわち,カメラの位置から近い人候補位置に存在すると仮定された人の領域は,基準画像上に比較的大きな人候補領域として投影され,カメラの位置から遠い人候補位置に存在すると仮定された人の領域は,基準画像上に比較的小さな人候補領域として投影される。
図1において,肌色尤度分布生成部151は,基準画像における肌色尤度の分布を求める。人の肌色の尤度を示す肌色モデル157が,あらかじめ用意されている。
図5は,本実施の形態による肌色モデルの例を示す図である。
図5に示す例では,肌色モデル157が,HSV色空間における色相(H)と彩度(S)との対応(HS平面)において,肌色尤度によって表されたものである。図5に示す肌色モデル157において,濃い部分ほど肌色尤度が高いことを示している。尤度とは,結果から推測された尤もらしさをいう。
このような肌色モデル157を用意するために,たくさんの人肌の画像のサンプルを集め,人肌部分の画素に出現する色の頻度をHS平面にプロットする。本実施の形態では,各HSにおける頻度をピーク値で正規化したものを,そのHSの対応における肌色尤度とする。
図6は,本実施の形態による基準画像における肌色尤度分布生成の例を説明する図である。
肌色尤度分布生成部151は,肌色モデル157を用いて,基準画像における肌色尤度の分布を求める。具体的には,基準画像の各画素について,それぞれ色相(H),彩度(S)を求める。例えば基準画像がRGB色空間で表現されている場合に,そのRGB色空間をHSV色空間に変換する技術が知られている。求められたHSの対応で肌色モデル157を参照し,画素ごとの肌色尤度を求める。求められた画素ごとの肌色尤度を,基準画像に対応する画像平面で表したものが,その基準画像の肌色尤度分布である。
図1において,人候補領域人らしさ算出部152は,人候補領域の人らしさを算出する。人候補領域の人らしさは,基準画像における人候補領域に人が写っている可能性の高さを示す尤度である。
図7は,本実施の形態による人候補領域の人らしさ算出の例を説明する図である。
まず,人候補領域人らしさ算出部152は,図7(A)に示すように,基準画像の人候補領域内において,パターンマッチングにより人の特徴部位の探索を行う。
ここでは,探索する人の特徴部位を人の顔とし,あらかじめ用意された顔検出器158を用いたパターンマッチングにより,基準画像の人候補領域内における人の顔検出を行う。顔検出器158としては,大まかな顔検出ができる顔検出器158から,精密な顔検出ができる顔検出器158まで,複数の段階の顔検出器158を用意する。
従来の画像から人領域を検知する技術では,人領域の検知を顔の識別精度の高さに頼っていたため多数の段階の顔検出器158が必要であったが,本実施の形態では,人領域の検知を顔の識別精度の高さに頼らないため,従来よりも少ない段階の顔検出器158を用意すればよい。本実施の形態では,顔検出器158の段階が少ないため,従来よりも処理時間が短く済む。
基準画像の人候補領域内において顔検出を行う場合には,肌色尤度分布を参照し,基準画像の人候補領域内における肌色分布が集中する領域について顔パターンをマッチングし,検出された顔の顔らしさ(パターンとの類似度)を算出する。このとき,算出された顔らしさが所定の閾値以下である場合には,その人候補領域から人の顔が検出されなかったものと判断し,その人候補領域の人らしさの値を0に設定する。
人候補位置のサンプルがマップbにおいて人の存在可能性が高い領域から抽出されたサンプルであれば,基準画像上に投影された人候補領域から,人の顔の画像が検出される可能性は高い。逆に,人候補位置のサンプルがマップbにおいて人の存在可能性が低い領域から抽出されたサンプルであれば,基準画像上に投影された人候補領域から,人の顔の画像が検出される可能性は低い。マップbにおいて人の存在可能性が低い領域から抽出された人候補位置のサンプルから得られた人候補領域の人らしさの値は,0となる可能性が高い。
次に,人候補領域人らしさ算出部152は,図7(B)に示すように,参照画像において,基準画像で検出された顔領域に対応する顔候補の探索を行う。
ここでは,各参照画像のエピポーラ線上で顔候補の探索を行う。複数の候補が検出された場合には,基準画像の人候補領域内で検出された顔領域にパターン的に最も類似している領域を,参照画像における検出顔領域とする。
図8は,エピポーラ線を説明する図である。図8において,カメラaが注目している点Mとカメラaの焦点とを結ぶ直線,およびカメラaの焦点とカメラbの焦点とを結ぶ直線の2直線から形成した平面が,カメラbの画像平面と交わることによって生成される直線は,エピポーラ線と呼ばれる。注目点Mがカメラaの画像平面上に写った点mは,カメラaの焦点から注目点Mまで距離に応じて,カメラbの画像平面のエピポーラ線上のいずれかの点m’に写ることになる。
人候補領域人らしさ算出部152は,基準画像の人候補領域から検出された顔領域の位置と,それに対応する参照画像から検出された顔領域の位置との関係から,ステレオビジョンの原理に基づいて,検出された顔の三次元空間上での位置を算出する。
人候補領域人らしさ算出部152は,図7(C)に示すように,顔の三次元空間上での位置を床面のグリッドマップに投影し,マップb生成部13で生成されたマップbを参照して,顔領域が検出された人候補領域の人らしさの値を算出する。
具体的には,床面上での人の存在可能性を示す情報であるマップbから,検出された顔の位置における人の存在可能性を示す値を取得し,その値を顔領域が検出された人候補領域の人らしさの値とする。マップbから取得された値を用いた何らかの計算を行い,人候補領域の人らしさの値とするようにしてもよい。
検出された顔の位置がマップb上で値が高い領域であれば,検出された顔が本当に人の顔である可能性は高く,その顔が検出された人候補領域に人が写っている可能性は高い。検出された顔の位置がマップb上で値が低い領域であれば,その顔が本当に人の顔である可能性は低く,その顔が検出された人候補領域に人が写っている可能性は低い。
マップbにおいて人の存在可能性が高い領域から抽出された人候補位置のサンプルについて,基準画像上に投影された人候補領域の人らしさを算出した場合について考察する。この場合,人候補領域から顔らしき画像が検出される可能性は高く,検出された顔らしき画像が本当に人の顔の画像である可能性が高いので,人候補領域から検出された顔の位置が,もとの抽出された人候補位置の近傍となる可能性が高い。
人候補領域から検出された顔の位置がもとの抽出された人候補位置の近傍であれば,人候補領域から検出された顔が,抽出された人候補位置に存在する人の顔である可能性が高い。このとき,顔の位置がもとの人候補位置の近傍の,マップbの値の高い領域に出現するため,マップbから高い値が取得され,その人候補領域の人らしさの値は高くなる。
しかし,人候補領域から検出された顔の位置がもとの抽出された人候補位置から離れた位置であれば,人候補領域から検出された顔が,誤検出された顔である可能性がある。このとき,顔の位置がもとの人候補位置から離れた,マップbの値の低い領域に出現する可能性があるため,マップbから低い値が取得されてその人候補領域の人らしさが低くなる可能性がある。
このように,人らしさ算出部15によって,人候補位置の人の像から基準画面に投影された人候補領域の人らしさが,人候補領域に人が写っている可能性が高いほど値が高くなるように算出される。人らしさ算出部15は,人候補位置サンプル抽出部14でサンプル抽出されたすべての人候補位置について,対応する基準画像の人候補領域の人らしさの算出を行う。
図1において,マップa生成部16は,人らしさ算出部15によって得られた各人候補領域の人らしさを統合し,基準画像に対応する画像平面において人が写っている可能性を表した確率分布を生成する。本実施の形態では,このような基準画像に対応する画像平面の人領域の確率分布をマップaと呼ぶものとする。
マップaは,基準画像における人の存在可能性を示す情報である。マップaの各画素は,基準画像の各画素に対応する。すなわち,マップaにおける各画素の値は,基準画像における同じ座標の画素に人が写っている可能性を示す値となる。
図9は,本実施の形態による人領域確率分布の生成の一例を説明する図である。
マップa生成部16は,図9(A)に示すように,基準画像に対応する画像平面で人候補領域の統合を行う。ここでは,人候補領域a,人候補領域b,人候補領域cの3つの人候補領域の統合の例について説明する。
3つの人候補領域は,人らしさ算出部15によって,それぞれ人らしさの値が求められている。ここでは,人候補領域aの人らしさの値を0.1,人候補領域bの人らしさの値を0.3,人候補領域cの人らしさの値を0.4とする。
図9(A)に示すように,基準画像に対応する画像平面において,各人候補領域を,基準画像上での位置に基づいて配置し,基準画像に対応する画像平面の各画素の値を,その画素に配置された人候補領域の人らしさの値から求める。ここでは,基準画像に対応する画像平面における各画素の値は,その画素に配置された人候補領域の人らしさの値そのままとする。
このとき,複数の人候補領域が重なり合う画素が発生する。ここでは,重なった人候補領域の人らしさの値のうち,最大の値をその画素の値として設定する。重なった人候補領域の人らしさの値の平均値を求めたり,重なった人候補領域の人らしさの値を加算するなどの設計は任意である。
このように,人らしさ算出部15によって得られた各人候補領域の人らしさを統合し,図9(B)に示すような基準画像における人の存在可能性を示す情報であるマップaが得られる。
図1において,マスク画像生成部17は,マップa生成部16により生成されたマップaから,マップbの生成時に距離画像をマスクするマスク画像を生成する。マスク画像は,マップaと同様に,基準画像に対応する画像平面である。マスク画像生成部17は,人存在仮定領域サンプル抽出部170を備える。
人存在仮定領域サンプル抽出部170は,リサンプリングにより,マップaから,基準画像上での人の存在を仮定する領域のサンプルを抽出する。ここでは,抽出される人の存在を仮定する領域を人存在仮定領域と呼ぶ。
図10は,本実施の形態による人領域確率分布からのリサンプリングの一例を説明する図である。
人存在仮定領域サンプル抽出部170は,マップaの各画素の値に応じて,その画素を中心とした人存在仮定領域を抽出するか否かの判定を行う。このとき,上述の人候補位置サンプル抽出部14におけるマップbからの人候補位置のサンプル抽出と同様に,値が大きい画素ほどサンプルとして抽出される可能性が高くなり,値が小さい画素ほどサンプルとして抽出される可能性が低くなるように,人存在仮定領域のサンプル抽出の判定を行う。マップbからのリサンプリングの場合と同様に,マップaからのリサンプリングの手法にも様々な手法が存在する。
図10(A)に示すマップaにおいて,濃い領域が値の高い領域である。図10(B)では,図10(A)に示すマップa上に,抽出されたサンプルの人存在仮定領域(各枠線)が示されている。例えば,図10(A)に示すマップaにおいてリサンプリングを行うと,図10(B)に示すような各人存在仮定領域が得られる。図10(B)に示すように,マップaにおいて値が高い領域ほど,サンプルの人存在仮定領域が集中して抽出され易くなっている。
マスク画像生成部17では,人存在仮定領域サンプル抽出部170で抽出された人存在仮定領域のサンプルから,マスク画像が生成される。
図11は,本実施の形態による人候補領域のサンプルからマスク画像を生成する一例を説明する図である。
マスク画像生成部17は,基準画像に対応する画像平面上で,人存在仮定領域サンプル抽出部170で抽出されたすべての人存在仮定領域のサンプルをマージし,マスク画像を生成する。
図11(A)に示すように,基準画像に対応する画像平面上に抽出されたすべての人存在仮定領域のサンプルを配置する。図11(B)に示すように,配置されたすべての人存在仮定領域をマージしてマスク領域を生成し,マスク領域内の各画素に1の値を,マスク領域外の各画素に0の値を付与することにより,マスク画像が得られる。図11において,マスク領域が,仮想平面上に投影する距離画像の定義領域である。得られたマスク画像は,次のマップb生成時に距離画像をマスクするマスク画像として利用される。
なお,ここではマスク領域内の画素の値を一様にしているが,人存在仮定領域の重なり具合によって,マスク領域内の画素の値に重み付けを行うようにしてもよい。人存在仮定領域が多く重なっている領域は,それだけ人が存在する可能性が高い領域と考えることができる。このとき,マスク画像を用いたマップb生成部13の処理では,マスク画像のマスク領域内の各画素の値に応じて,該当する距離画像の画素の投影時に,その値に重み付けを行う。このようにすれば,マップbにおいて,より人が存在する可能性が高い位置が強調されることになる。
人検知追跡装置10は,次々と取得される撮像画像に対して,以上説明したような処理を,マップa,マップbを更新しながら繰り返し実行していく。
初期の段階では,一様分布のマップaからマスク画像が生成されているため,そのマスク画像で距離画像をマスクして生成されたマップbは,何らかの物体の存在可能性を示すマップbであった。人らしさ算出部15を経た一連の処理を繰り返していくことにより,より人が写っている可能性が高い領域のマスク画像がマップaから生成されるようになり,そのマスク画像で距離画像をマスクして生成されたマップbは,より正確に仮想平面上の人の存在可能性を示す値の情報に収束していく。同様に,マップaも,より正確に基準画像上の人の存在可能性を示す値の情報に収束していく。
また,リサンプリングによりマップaから抽出された人存在仮定領域のサンプルからマスク画像を生成することにより,人の存在可能性が高い領域を中心としつつもある程度のあいまい性を持たせたマスク領域が定義されるため,基準画像における人領域の経時変化を追跡していくことができる。
マップaは,基準画像における人の存在可能性の分布を示す情報であり,マップbは仮想平面における人の存在可能性の分布を示す情報である。すなわちマップaとマップbの次元空間は異なる。本実施の形態による人検知追跡装置10では,マップaとマップbの異なる次元空間での人の存在可能性の分布を,リサンプリングによって互いの入力情報とする。
マップaは,次元空間が異なるマップbからのリサンプリングにより得られた情報と,パターン識別を用いた人らしさの算出とにより逐次更新され,マップbは,次元が異なるマップaからのリサンプリングにより得られた情報と,カメラにより撮像された画像とにより逐次更新される。マップaの経時変化は,基準画像における人領域の経時変化となり,マップbの経時変化は,仮想平面(床面)における人の位置の経時変化となる。
このように,本実施の形態による人検知追跡装置10は,緩やかなパターン識別を含めて複数の情報を統合し,異なる次元空間での人の存在可能性の分布を互いの入力情報として,各次元空間での人の存在可能性の分布を逐次更新することにより,短い処理時間で安定的な画像からの人の検知,追跡を行うことができる。
なお,人検知追跡装置10は,コンピュータ(図示省略)が備えるCPU,メモリ等のハードウェアとソフトウェアプログラムとにより実現することができる。距離画像の生成などのパターン化された処理を高速に実行したい一部の処理を回路により実現し,その他の処理をコンピュータとソフトウェアプログラムとによって実現することもできる。
図12は,本実施の形態による人検知追跡処理フローチャートである。
人検知追跡装置10では,初期の段階において,マップaが一様分布に初期設定されている(ステップS10)。
人検知追跡装置10において,マスク画像生成部17は,人存在仮定領域サンプル抽出部170により,マップaから人存在仮定領域のサンプルを抽出し(ステップS11),抽出された人存在仮定領域を統合することにより,マスク画像を生成する(ステップS12)。
画像取得部11は,適正に配置された複数のカメラ20から画像を取得し(ステップS13),三次元情報生成部12は,基準画像の三次元情報を示す距離画像を生成する(ステップS14)。
マップb生成部13は,マスク情報によりマスクされた距離画像を,仮想平面(床面)に投影し,仮想平面における人の存在可能性の分布を示す,画素数の二次元ヒストグラムであるマップbを生成する(ステップS15)。人候補位置サンプル抽出部14は,マップbからのリサンプリングにより,仮想平面における人候補位置のサンプルを抽出する(ステップS16)。
人らしさ算出部15は,人候補位置のサンプルごとに,人候補位置に存在すると仮定された人の像を基準画像に投影することにより得られた,基準画像上の人候補領域の人らしさの値を算出する人らしさ算出処理を行う(ステップS17)。マップa生成部16は,人候補位置のサンプルごとに算出された人候補領域の人らしさを統合し,基準画像における人の存在可能性の分布を示すマップaを生成する(ステップS18)。
以降,ステップS11からステップS18の処理を繰り返していく。
図13は,本実施の形態による人らしさ算出処理フローチャートである。
人らしさ算出部15は,人候補位置サンプル抽出部14により抽出された人候補位置のサンプルを1つ選択し(ステップS20),人候補領域投影部150により,その人候補位置に存在すると仮定された人の像を基準画像に投影した人候補領域を求める(ステップS21)。肌色尤度分布生成部151は,あらかじめ用意された人の肌色モデル157を用いて,基準画像における肌色尤度分布を生成する(ステップS22)。
人候補領域人らしさ算出部152は,人候補領域内での顔検出器158を用いたパターンマッチングにより,人候補領域内の顔領域の探索を行う(ステップS23)。このとき,肌色尤度分布を参照し,人候補領域内の肌色分布が集中する領域について,顔領域の探索を行う。
検出された顔領域の顔らしさを算出し,顔らしさの値が所定の閾値以下であれば(ステップS24のNO),その人候補領域の人らしさの値を0に設定し(ステップS25),人候補領域の人らしさのリストに追加する(ステップS32)。
人候補領域における顔領域の顔らしさの値が所定の閾値より大きければ(ステップS24のYES),参照画像において人候補領域における顔領域に対応するエピポーラ線上での顔検出器158を用いたパターンマッチングにより,参照画像上での顔領域の探索を行い(ステップS26),人候補領域における顔領域に対応する,参照画像における顔領域を検出する。このとき複数の参照画像があれば,全参照画像について顔領域の探索を行う。人候補領域における顔領域に対応する顔領域が複数検出された場合には(ステップS27のYES),人候補領域における顔領域との類似度を算出し,最も類似度が高いものを,参照画像における顔領域として選択する(ステップS28)。
人候補領域における顔領域と,対応する参照画像における顔領域とから,ステレオビジョン原理に基づいて,検出された顔の三次元位置を算出する(ステップS29)。顔の三次元位置でマップbを参照して(ステップS30),顔の位置における人の存在可能性を示す値をマップbから取得し,取得された値から人候補領域の人らしさの値を算出し(ステップS31),人候補領域の人らしさのリストに追加する(ステップS32)。
人らしさ算出部15は,ステップS20からステップS32までの処理を,すべての人候補位置のサンプルについて実行し,すべての人候補位置のサンプルについて評価が完了したら(ステップS33のYES),人らしさ算出処理を終了し,すべての人候補位置のサンプルに対する評価リスト,すなわちすべての人候補領域の人らしさのリストをマップa生成部16に渡す。
以上,本実施の形態について説明したが,本発明はその主旨の範囲において種々の変形が可能であることは当然である。
例えば,本実施の形態では,撮像された画像からの人の検知,追跡を行う例を説明しているが,人以外の特定の物体の検知,追跡を行うことも当然可能である。本実施の形態の説明において,“人”を“特定物体”に置き換えれば,特定物体の検知,追跡を行う技術の説明となる。
本実施の形態による人検知追跡装置の構成例を示す図である。 本実施の形態による距離画像の生成およびマップb生成の一例を説明する図である。 本実施の形態によるマップbからのリサンプリングの一例を説明する図である。 本実施の形態による人候補領域の算出の一例を説明する図である。 本実施の形態による肌色モデルの例を示す図である。 本実施の形態による基準画像における肌色尤度分布生成の例を説明する図である。 本実施の形態による人候補領域の人らしさ算出の例を説明する図である。 エピポーラ線を説明する図である。 本実施の形態による人領域確率分布の生成の一例を説明する図である。 本実施の形態による人領域確率分布からのリサンプリングの一例を説明する図である。 本実施の形態による人候補領域のサンプルからマスク画像を生成する一例を説明する図である。 本実施の形態による人検知追跡処理フローチャートである。 本実施の形態による人らしさ算出処理フローチャートである。
符号の説明
10 人検知追跡装置
11 画像取得部
12 三次元情報生成部
13 マップb生成部
14 人候補位置サンプル算出部
15 人らしさ算出部
150 人候補領域投影部
151 肌色尤度分布生成部
152 人候補領域人らしさ算出部
156 人属性データベース
157 肌色モデル
158 顔検出器
16 マップa生成部
17 マスク画像生成部
170 人存在仮定領域サンプル抽出部
20 カメラ

Claims (5)

  1. 撮像された画像から特定物体の領域を検知し,検知された特定物体の領域を追跡する物体検知追跡装置であって,
    基準画像を含む複数の撮像画像から,基準画像の三次元情報を生成する三次元情報生成部と,
    基準画像における特定物体の存在可能性に基づいて仮想平面上に投影する三次元情報の領域を定義するマスク情報によりマスクされた前記三次元情報を所定の仮想平面に投影し,仮想平面における前記特定物体の存在可能性を示す第一のマップ情報を生成する第一マップ情報生成部と,
    前記第一のマップ情報における前記特定物体の存在可能性を示す値に応じて,前記仮想平面における前記特定物体の候補位置のサンプルを抽出する特定物体候補位置サンプル抽出部と,
    前記特定物体の候補位置のサンプルごとに,前記特定物体の候補位置に存在すると仮定された前記特定物体の像を前記基準画像に投影することにより,前記基準画像での前記特定物体の候補領域を決定し,前記特定物体の候補領域における前記特定物体の存在可能性を示す前記特定物体らしさの値を算出する特定物体らしさ算出部と,
    前記特定物体の候補位置のサンプルごとに算出された前記特定物体の候補領域における前記特定物体らしさを統合し,前記基準画像における前記特定物体の存在可能性を示す第二のマップ情報を生成する第二マップ情報生成部と,
    前記第二のマップ情報から前記マスク情報を生成するマスク情報生成部とを備える
    ことを特徴とする物体検知追跡装置。
  2. 前記マスク情報生成部は,前記第二のマップ情報における前記特定物体の存在可能性を示す値に応じて,前記基準画像における前記特定物体の存在仮定領域のサンプルを抽出し,抽出された前記特定物体の存在仮定領域のサンプルを統合することにより,前記マスク画像を生成する
    ことを特徴とする請求項1に記載された物体検知追跡装置。
  3. 前記特定物体らしさ算出部は,前記基準画像における前記特定物体の候補領域からパターンマッチングにより前記特定物体の特徴部位を検出し,前記基準画像以外の撮像画像から前記検出された特徴部位に対応する前記特定物体の特徴部位を検出し,前記検出された特徴部位の前記仮想平面における位置を算出し,算出された位置における前記特定物体の存在可能性を示す値を前記第一のマップ情報から取得し,取得された値から前記特定物体の候補領域における前記特定物体らしさの値を算出する
    ことを特徴とする請求項1または請求項2に記載された物体検知追跡装置。
  4. 撮像された画像から特定物体の領域を検知し,検知された特定物体の領域を追跡する物体検知追跡方法であって,
    コンピュータが,
    基準画像を含む複数の撮像画像から,基準画像の三次元情報を生成する過程と,
    基準画像における特定物体の存在可能性に基づいて仮想平面上に投影する三次元情報の領域を定義するマスク情報によりマスクされた前記三次元情報を所定の仮想平面に投影し,仮想平面における前記特定物体の存在可能性を示す第一のマップ情報を生成する過程と,
    前記第一のマップ情報における前記特定物体の存在可能性を示す値に応じて,前記仮想平面における前記特定物体の候補位置のサンプルを抽出する過程と,
    前記特定物体の候補位置のサンプルごとに,前記特定物体の候補位置に存在すると仮定された前記特定物体の像を前記基準画像に投影することにより,前記基準画像での前記特定物体の候補領域を決定し,前記特定物体の候補領域における前記特定物体の存在可能性を示す前記特定物体らしさの値を算出する過程と,
    前記特定物体の候補位置のサンプルごとに算出された前記特定物体の候補領域における前記特定物体らしさを統合し,前記基準画像における前記特定物体の存在可能性を示す第二のマップ情報を生成する過程と,
    前記第二のマップ情報から前記マスク情報を生成する過程とを実行する
    ことを特徴とする物体検知追跡方法。
  5. 撮像された画像から特定物体の領域を検知し,検知された特定物体の領域を追跡する物体検知追跡装置のコンピュータが実行するプログラムであって,
    前記コンピュータを,
    基準画像を含む複数の撮像画像から生成された基準画像の三次元情報を,基準画像における特定物体の存在可能性に基づいて仮想平面上に投影する三次元情報の領域を定義するマスク画像によりマスクして所定の仮想平面に投影し,仮想平面における前記特定物体の存在可能性を示す第一のマップ情報を生成する第一マップ情報生成部と,
    前記第一のマップ情報における前記特定物体の存在可能性を示す値に応じて,前記仮想平面における前記特定物体の候補位置のサンプルを抽出する特定物体候補位置サンプル抽出部と,
    前記特定物体の候補位置のサンプルごとに,前記特定物体の候補位置に存在すると仮定された前記特定物体の像を前記基準画像に投影することにより,前記基準画像での前記特定物体の候補領域を決定し,前記特定物体の候補領域における前記特定物体の存在可能性を示す前記特定物体らしさの値を算出する特定物体らしさ算出部と,
    前記特定物体の候補位置のサンプルごとに算出された前記特定物体の候補領域における前記特定物体らしさを統合し,前記基準画像における前記特定物体の存在可能性を示す第二のマップ情報を生成する第二マップ情報生成部と,
    前記第二のマップ情報から前記マスク情報を生成するマスク情報生成部として
    機能させるための物体検知追跡プログラム。
JP2008286095A 2008-11-07 2008-11-07 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム Active JP5217917B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008286095A JP5217917B2 (ja) 2008-11-07 2008-11-07 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008286095A JP5217917B2 (ja) 2008-11-07 2008-11-07 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム

Publications (2)

Publication Number Publication Date
JP2010113562A JP2010113562A (ja) 2010-05-20
JP5217917B2 true JP5217917B2 (ja) 2013-06-19

Family

ID=42302073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008286095A Active JP5217917B2 (ja) 2008-11-07 2008-11-07 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム

Country Status (1)

Country Link
JP (1) JP5217917B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9996974B2 (en) * 2013-08-30 2018-06-12 Qualcomm Incorporated Method and apparatus for representing a physical scene
CN104715249B (zh) * 2013-12-16 2018-06-05 株式会社理光 物体跟踪方法和装置
KR102453858B1 (ko) * 2015-12-23 2022-10-14 한화테크윈 주식회사 영상 처리 장치 및 영상 처리 방법
JP6632142B2 (ja) * 2016-10-27 2020-01-15 Kddi株式会社 オブジェクト追跡装置、方法およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3502226B2 (ja) * 1996-08-01 2004-03-02 富士通株式会社 画像処理方法
JP3734793B2 (ja) * 2002-12-09 2006-01-11 三菱電機株式会社 人物検出装置
GB0502371D0 (en) * 2005-02-04 2005-03-16 British Telecomm Identifying spurious regions in a video frame
JP4691708B2 (ja) * 2006-03-30 2011-06-01 独立行政法人産業技術総合研究所 ステレオカメラを用いた白杖使用者検出システム

Also Published As

Publication number Publication date
JP2010113562A (ja) 2010-05-20

Similar Documents

Publication Publication Date Title
US11789545B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
US9818023B2 (en) Enhanced face detection using depth information
JP6942488B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP6125188B2 (ja) 映像処理方法及び装置
JP4855556B1 (ja) 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム
JP4215781B2 (ja) 異常動作検出装置および異常動作検出方法
JP6204659B2 (ja) 映像処理装置及び映像処理方法
US11398049B2 (en) Object tracking device, object tracking method, and object tracking program
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
JP2012221437A (ja) 物体認識装置および物体認識方法
US20120062749A1 (en) Human body identification method using range image camera and human body identification apparatus
JP5290227B2 (ja) 対象物検知装置及びその学習装置
CN111382637B (zh) 行人检测跟踪方法、装置、终端设备及介质
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
JP2008288684A (ja) 人物検出装置及びプログラム
Luna et al. Fast heuristic method to detect people in frontal depth images
US10140509B2 (en) Information processing for detection and distance calculation of a specific object in captured images
JP2017033556A (ja) 画像処理方法及び電子機器
JP6393495B2 (ja) 画像処理装置および物体認識方法
KR101357581B1 (ko) 깊이 정보 기반 사람의 피부 영역 검출 방법
JP5470529B2 (ja) 動き検出装置、動き検出方法及び動き検出プログラム
JP2005071125A (ja) 被写体検出装置、被写体検出方法、被写体データ選定プログラムおよび被写体位置検出プログラム
Le et al. Geometry-Based 3D Object Fitting and Localizing in Grasping Aid for Visually Impaired
US20240119620A1 (en) Posture estimation apparatus, posture estimation method, and computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5217917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150