JP2009251990A - 物体運動推定装置、物体運動推定方法、物体運動推定プログラムおよびそのプログラムを記録した記録媒体 - Google Patents

物体運動推定装置、物体運動推定方法、物体運動推定プログラムおよびそのプログラムを記録した記録媒体 Download PDF

Info

Publication number
JP2009251990A
JP2009251990A JP2008100026A JP2008100026A JP2009251990A JP 2009251990 A JP2009251990 A JP 2009251990A JP 2008100026 A JP2008100026 A JP 2008100026A JP 2008100026 A JP2008100026 A JP 2008100026A JP 2009251990 A JP2009251990 A JP 2009251990A
Authority
JP
Japan
Prior art keywords
image
gradient
coordinates
speed
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008100026A
Other languages
English (en)
Inventor
Isao Miyagawa
勲 宮川
Hiroyuki Arai
啓之 新井
Hideki Koike
秀樹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008100026A priority Critical patent/JP2009251990A/ja
Publication of JP2009251990A publication Critical patent/JP2009251990A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】1台以上のカメラで得た映像から空間中での速度を推定し、複数の被写体あるいは人物の動き表す速度場を生成できる物体運動推定装置を提供する。
【解決手段】 空間中のある位置Xに用意した被写体上の3次元点を前記カメラで取得した画像中に投影したときの、当該3次元点の座標の変化に対する画像座標上での座標の変化量を得る勾配係数処理部3と、時系列中のある時刻tでの画像上における水平方向と垂直方向の濃淡変化を反映した空間勾配と、時間間隔Δtとして時刻t+Δtでの画像との間の時間的濃淡変化を反映した時間勾配を得る時空間勾配処理部2と、前記空間勾配、時間勾配、画像座標上での変化量が満たす時間間隔Δtの間の拘束条件を満たす場合に、投票空間としての速度マップ中のその速度の場所に投票を行い、その得票値が極大となる速度を位置Xでの被写体の速度と決定する物体速度推定部4とを備える。
【選択図】図3

Description

本発明は、監視カメラなどの固定カメラで車両や歩行者などの動きを撮影した時系列画像に利用可能で、カメラで取得した時系列画像から被写体の動きまたは速度、並びに映像中の群衆全体の動きを推定する物体運動推定装置、物体運動推定方法、物体運動推定プログラムおよびそのプログラムを記録した記録媒体に関する。
時系列画像中において被写体の動きを把握するには、オプティカルフローと呼ばれる手法が一般的に利用される。この手法を簡単に説明しておく。時刻tでの画像座標(x,y)での濃淡値をI(x,y,t)とすると、時刻t+Δtでの画像はI(x,y,t+Δt)と表現される。ここで、時間間隔Δtの濃淡変化に対して、式(1)に示すように時刻tでの画像の濃淡値が、時刻t+Δtでの画像上でのxy座標を(x+Δx,y+Δy)と平行移動したとき近似的に同じ濃淡値になると仮定する。
Figure 2009251990
式(1)右辺をTaylor展開して第一次項まで求めると式(2)が得られ、Δtが十分に小さいと仮定すると式(3)にまとめることができる。式(3)は非特許文献1に記載のオプティカルフローとして知られている拘束条件であり、時間tの画像と時刻t+Δtでの画像の間において時間勾配:dI/dtと画像座標に対する空間勾配:∂I/∂x,∂I/∂yが得られれば、画像座標上での時間的変化量(dx/dt,dy/dt)が求まる。この原理に基づき、オプティカルフローは時系列画像間の特徴点追跡や被写体の動線追跡などに応用されている。
一方、空間中での時間的変化量、すなわち、被写体の運動を推定するためにコンピュータビジョンではStructure From Motionと呼ばれている基本原理があり、被写体に対してカメラが相対的に運動することにより被写体の3次元形状と運動を復元する方法がある。例えば、被写体が複数の剛体から構成されており、各剛体がカメラに対して相対的に運動すれば非特許文献2に記載の方法の応用が考えられる。あるいは、運動する被写体に対してカメラが時間線形に運動するならば非特許文献3に記載の方法も有効と考えられる。
最近では、監視映像における人物追跡への新たな応用としてパーティクル・フィルタ(非特許文献4に記載)の有効性が報告されている。パーティクル・フィルタとは、追跡対象を状態量と尤度を持つ多数の仮説群により離散的な確率密度として表現し、状態遷移モデルを用いて伝播させることで動きの変動や観測の雑音に対して頑健に追跡を実現する手法である。
また非特許文献5には、ガウス混合分布を利用して物体領域を抽出する手法が記載されている。
Horn,"ロボットビジョン",朝倉書店,pp.305−312,1993. J.P.Costeira & T.Kanade,"A Multibody Factorization Method for Independently Moving Objects",International Journal of Computer Vision,Vol.29,No.3,pp.159−179,1998. M.Han & T.Kanade,"Multiple Motion Scene Reconstruction with Uncalibrated Cameras,"IEEE Transactions on Pattern Analysis and Machine Intelligence,Vol.25,No.7,pp.884−894,2003. 樋口知之,"粒子フィルタ",電子情報通信学会誌,Vol.88,No.12,pp.989−994,2005. C.Stauffer & W.E.L Grimson,"Adaptive background mixture models for real−time tracking",Proceeding of International Conference on Computer Vision and Pattern Recognition,Vol.2,pp.246−252,1999.
オプティカルフローは画像座標の時間的変化量を求めるだけであり、空間中の被写体の運動状態が把握できるわけではなく、あくまでカメラ上での“見え”としての被写体の時間的変化が把握できるだけである。このとき、カメラの設置状況によっては、カメラからの遠近においてオプティカルフローに偏りが発生する。したがって、オプティカルフローでは複数の被写体の空間中の運動を把握することはできない。
また、非特許文献3、4などのStructure From Motion原理に基づく3次元復元手法は、画像中の特徴点をいかに精度良く測定できるかによって復元精度が左右される。また、特徴点として明確な代表点を時系列画像において追跡しなければならないため、監視カメラなどの大規模な空間において複数の被写体の運動状態を一度に把握することには適さない。
一方、パーティクル・フィルタを使った3次元追跡は有効な手法の一つと考えられるが、数人程度の人物を追跡するレベルなら有効だと言えるが、駅・空港・公共広場などの広域空間では群衆としての動きが多く、逐次、人物を識別して追跡することは計算機パワーに依存する処理が多くなり、処理する計算機の資源が乏しい場合には処理負荷が大きいという問題がある。
本発明は、上記課題を解決するものであり、その目的は、1台または複数台のカメラで得た映像から空間中での速度を推定し、複数の被写体あるいは人物の動き、あるいは群衆としての全体の動きを表す速度場を生成することができる、物体運動推定装置、物体運動推定方法、物体運動推定プログラムおよびそのプログラムを記録した記録媒体を提供することにある。
本発明の基本原理を式(3)のオプティカルフローを用いて説明する。本発明では、画像座標(x,y)は時間tの関数とするだけでなく、その投影の元となる3次元点(X,Y,Z)の関数と考える。以降では簡単のため、式(4)の関数形について述べるが、式(5)の関数形の場合も原理は同じであり、本発明の実施例を容易に拡張することができる。
Figure 2009251990
画像座標(x,y)が式(4)に示す3次元点の成分(X,Y)の関数とすると、式(3)から式(6)に展開することができ、式(7)に示すような関係に表現することができる。ここで、便宜上、式(8)に示すように置換する。
Figure 2009251990
(Vx,Vy)は空間中の3次元点の各成分の時間的変化量、すなわち時間に関する一回微分なので3次元点の速度を意味する。したがって、式(7)の拘束式を満たす(Vx,Vy)を求めれば、被写体の空間中の動きまたは速度を推定することができる。
本発明は、式(7)の関係に基づいた処理構成となっている。空間勾配∂I/∂x,∂I/∂yと時間勾配dI/dtは、時系列画像から取り出した時間tの画像と時刻t+Δtの画像から求めることができる。これに対して、3次元点の成分に対する画像座標上での変化量∂x/∂X,∂y/∂X,∂x/∂Y,∂y/∂Yは、カメラパラメータと3次元点から構成される式(4)の具体的な関係式が与えられれば、事前に計算することができる。
上記課題を解決するための請求項1に記載の物体運動推定装置は、画像入力装置を1台または複数台使って取得した映像において、ある時刻tでの画像から時刻t+Δtでの画像までの時間変化における複数の被写体の運動状態を推定する装置であって、空間中のある位置Xに用意した被写体上の3次元点を前記画像入力装置で取得した画像中に投影したときの、当該3次元点の座標の変化に対する画像座標上での座標の変化量を得る勾配係数処理手段と、時系列中のある時刻tでの画像上における水平方向と垂直方向の濃淡変化を反映した空間勾配と、時間間隔Δtとして時刻t+Δtでの画像との間の時間的濃淡変化を反映した時間勾配を得る時空間勾配処理手段と、前記時空間勾配処理手段により得られた空間勾配と時間勾配、並びに、前記勾配係数処理手段より得られた画像座標上での変化量が満たす時間間隔Δtの間の拘束条件を使って、空間中での被写体の速度をパラメータとする投票空間としての速度マップにおいて、その拘束条件を満たす場合に速度マップ中のその速度の場所に投票を行い、全ての投票処理の後に、速度マップにおいてその得票値が極大となる速度を位置Xでの被写体の速度と決定する物体速度推定手段と、を備えることを特徴としている。
また請求項2に記載の物体運動推定装置は、請求項1において、前記勾配係数処理手段は、画像入力装置の位置と姿勢のパラメータとその画像入力装置固有の内部パラメータからなるカメラパラメータに従って、空間中のある位置Xに用意した被写体上の3次元点を画像中の画像座標に投影したときの、当該3次元点の座標の変化に対する画像座標の変化量を得る、ことを特徴としている。
また請求項3に記載の物体運動推定装置は、請求項1又は2において、前記勾配係数処理手段は、空間中の位置Xが異なる被写体上の複数の3次元点の座標を算出し、各位置Xでの各3次元点の座標の変化に対する投影画像座標の変化量を得て、前記物体速度推定手段は、前記空間中の複数の位置Xについて速度を推定し、複数の被写体または群集の運動状態を表す速度場を生成する、ことを特徴としている。
また請求項4に記載の物体運動推定装置は、請求項1ないし3のいずれか1項において、空間中の位置Xを変えて被写体上の複数の3次元点の座標を算出し、各位置Xでの各3次元点の投影画像座標が時刻tの画像から抽出した物体領域の画素の座標と一致しているか否かを判定し、一致したと判定された画素数が所定の値未満の場合は位置Xでの運動がないと判定し、一致したと判定された画素数が所定の値以上の場合は位置Xでの運動があると判定するための物体位置に関する情報を得る物体位置推定手段をさらに備え、前記物体速度推定手段は、前記物体位置推定手段により得られた物体位置に関する情報に基づいて、位置Xでの運動があると判定された場合に限り、被写体の速度を推定する、ことを特徴としている。
また請求項5に記載の物体運動推定方法は、画像入力装置を1台または複数台使って取得した映像において、ある時刻tでの画像から時刻t+Δtでの画像までの時間変化における複数の被写体の運動状態を推定する方法であって、勾配計数処理手段が、空間中のある位置Xに用意した被写体上の3次元点を前記画像入力装置で取得した画像中に投影したときの、当該3次元点の座標の変化分に対する画像座標上での座標の変化量を得る勾配係数処理ステップと、時空間勾配処理手段が、時系列中のある時刻tでの画像上における水平方向と垂直方向の濃淡変化を反映した空間勾配と、時間間隔Δtとして時刻t+Δtでの画像との間の時間的濃淡変化を反映した時間勾配を得る時空間勾配処理ステップと、物体速度推定手段が、前記時空間勾配処理ステップにより得られた空間勾配と時間勾配、並びに、前記勾配係数処理ステップにより得られた画像座標上での変化量が満たす時間間隔Δtの間の拘束条件を使って、空間中での被写体の速度をパラメータとする投票空間としての速度マップにおいて、その拘束条件を満たす場合に速度マップ中のその速度の場所に投票を行い、全ての投票処理の後に、速度マップにおいてその得票値が極大となる速度を位置Xでの被写体の速度と決定する物体速度推定ステップと、を備えることを特徴としている。
また請求項6に記載の物体運動推定方法は、請求項5において、前記勾配係数処理ステップは、画像入力装置の位置と姿勢のパラメータとその画像入力装置固有の内部パラメータからなるカメラパラメータに従って、空間中のある位置Xに用意した被写体上の3次元点を画像中の画像座標に投影したときの、当該3次元点の座標の変化に対する画像座標の変化量を得る、ことを特徴としている。
また請求項7に記載の物体運動推定方法は、請求項5または6において、前記勾配計数処理ステップは、空間中の位置Xが異なる被写体上の複数の3次元点の座標を算出し、各位置Xでの各3次元点の座標の変化に対する投影画像座標の変化量を得て、前記物体速度推定ステップは、前記空間中の複数の位置Xについて速度を推定し、複数の被写体または群集の運動状態を表す速度場を生成する、ことを特徴としている。
また請求項8に記載の物体運動推定方法は、請求項5ないし7のいずれか1項において、物体位置推定手段が、空間中の位置Xを変えて被写体上の複数の3次元点の座標を算出し、各位置Xでの各3次元点の投影画像座標が時刻tの画像から抽出した物体領域の画素の座標と一致しているか否かを判定し、一致したと判定された画素数が所定の値未満の場合は位置Xでの運動がないと判定し、一致したと判定された画素数が所定の値以上の場合は位置Xでの運動があると判定するための物体位置に関する情報を得る物体位置推定ステップをさらに備え、前記物体速度推定ステップは、前記物体位置推定ステップにより得られた物体位置に関する情報に基づいて、位置Xでの運動があると判定された場合に限り、被写体の速度を推定する、ことを特徴としている。
また請求項9に記載の物体運動推定プログラムは、コンピュータに、請求項5ないし請求項8のいずれか1項に記載の各ステップを実行させるプログラムとしたことを特徴としている。
また請求項10に記載の記録媒体は、請求項9に記載の物体運動推定プログラムを記録したコンピュータ読み取り可能な記録媒体であることを特徴としている。
請求項1〜10に記載の発明によれば次のような優れた効果が得られる。
(1)従来のオプティカルフローでは、画像上(2次元)の時間的変化量として被写体の運動を推定するため、被写体の遠近において画像上でのフローに偏りが発生する問題に対し、本発明によれば、空間中の速度、すなわち空間位置での動き成分としてとらえることができ、これによって3次元空間における被写体の運動を推定することができる。
(2)また空間中に格子点を設け、その位置での速度を求めることにより、空間中の群衆の動きを速度場として表現することができる。このため駅・空港・公共広場などの大規模な空間における監視映像においても複数の被写体の運動状態を一度に把握することができる。
(3)また本発明は複数台のカメラで得た映像にも容易に拡張できるので、複数台のカメラで同じ被写体の運動を推定することにより、精度、信頼性の高い複数の被写体の動き、あるいは、群集の動きを推定することができる。
(4)本発明は時系列画像間の特徴点座標に依存しない方法であるため、非特許文献3、4に記載のStructure From Motion原理に基づく3次元復元手法のように、時系列画像での特徴点の正確な画像座標を測定する必要がない。
(5)また請求項4、8に記載の発明によれば、被写体位置に関する情報を事前に把握しておくことにより、その位置での速度を推定することに処理を集中させることができるため、計算機資源を効率的に活用して速度を推定することができる。
以下、図面を参照しながら本発明の実施の形態を説明するが、本発明は下記の実施形態例に限定されるものではない。
(実施例1)
図3は請求項1、並びに請求項2に記載の物体速度を推定する発明に関する基本構成図であり、本実施例を図3に沿って説明する。本発明は、時系列画像を蓄積した時系列画像データベース1、各画像上での各画像座標点(xj,yj)における時間勾配:dI/dtと空間勾配:∂I/∂xj,∂I/∂yjを計算する時空間勾配処理手段としての時空間勾配処理部2、空間中の3次元位置(Xj,Yj,Zj)をパラメータとした各画像上での各画像座標点(xj,yj)の偏微分係数:∂xj/∂Xj,∂xj/∂Yj,∂yj/∂Xj,∂yj/∂Yjを計算する勾配係数処理手段としての勾配係数処理部3、並びに、時空間勾配処理部2からの時間勾配と空間勾配と、勾配係数処理部3からの各偏微分係数から位置(Xj,Yj)での速度を推定する物体速度推定手段としての物体速度推定部4から構成される。前記時空間勾配処理部2、勾配係数処理部3および物体速度推定部4が行う各処理は例えばコンピュータが実行する。
上記構成において、時系列画像データベース1には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介してリモートのデータ資源を利用する形態でもどちらでも構わない。
さらに、図4はリアルタイムで処理する場合の処理構成図であり、本発明は必ずしも各データベース部などの記憶装置を必要としない。図4において図3と異なる点は、時系列画像データベース1の代わりに画像入力部11を設けた点にあり、その他の部分は図3と同一に構成されている。
ここで、以降の説明または数式において使用する記号、変数を、世界座標系とカメラ視点の関係を示す図1および各時系列画像を示す図2により補足説明する。図1では世界座標系をXwYwZwとし、カメラ視点の位置を(Tx,Ty,Tz)として、この視点を原点としたカメラ座標系XYZを設ける。外部パラメータとは、このXYZ軸周りの回転角とカメラ位置(Tx,Ty,Tz)であり、物体はXY平面上において任意に運動すると仮定する。
本実施例では、空間中の3次元点を獲得するために、図1の位置(Xm,Yn)に3次元モデルを設置する。3次元モデルとは楕円体(立方体や円柱を設定しても構わない)のことであり、楕円体パラメータとしてXwYwZw軸方向の半径をそれぞれA,B,Cとすると、位置(Xm,Yn,C)を中心とした楕円体は式(9)と表現できる。
Figure 2009251990
A,B,Cは平均的な人の大きさを包含する程度の大きさを設定しておく。この楕円体上の標本点を適当にサンプリングしてQ個の3次元点を(Xj,Yj,Zj),j=1,2,…,Qとして抽出する。これらの3次元点はカメラパラメータを通して、カメラで取得した画像上へ投影される。図1のカメラは事前の校正作業が行われているものとし、本実施例の処理中はカメラパラメータが不変として、内部パラメータとして焦点距離α、アスペクト比β/α、画像中心(u0,v0)、外部パラメータとして、原点からカメラ視点までの並進(Tx,Ty,Tz)とXYZ軸周りの回転角Rx,Ry,Rzを保持しておく。カメラパラメータと3次元点が与えられれば、画像上への投影は式(10)〜式(12)に従って計算することができ、投影されたQ個の画像座標(xj,yj),j=1,2,…,Qが得られる。
Figure 2009251990
この各画像座標点(xj,yj)に対する偏微分係数:∂xj/∂Xj,∂xj/∂Yj,∂yj/∂Xj,∂yj/∂Yjはカメラパラメータと用意した3次元点によって決定される物理量であり時系列画像とは独立に計算することができる。したがって、図2の各時系列画像を処理する前に、予め図3の勾配係数処理部3においてこれらの偏微分係数を計算しておき勾配係数データとして格納しておく。
この勾配係数処理部3の動作を図5の処理フローに従って説明する。勾配係数データは、例えば、図6のような形式のテーブルで保持する。このテーブルの第1列目に3次元モデル上の3次元点が投影された点の画像座標(xj,yj)が並べられ、その画像座標に対する偏微分係数の値が第2列目から第5列目の欄に並ぶ形式になっている。図5の処理フローでは、計算によって得た偏微分係数値がこのテーブルに逐次書き込まれる。
まず、図6の第2列目から第5列目の欄を0にセットする(ステップS1;テーブルの初期化)。3次元モデルは各位置で同じ形状であり、中心位置(Xm,Yn,C)がインデックスmとnに沿って変更されるだけである。インデックスm,nと位置(Xm,Yn,C)の関係は式(13)であり、インデックスm,nは、図2における物体が運動するXwYw平面においてWx×Wyのエリアを撮影領域の対象とした場合、そのエリアをXw軸、Yw軸にそれぞれM,Nに等分割(処理の便宜上、M,Nは奇数とする)したときの空間位置を示す目盛り(指標)である。
Figure 2009251990
処理を開始したとき、m=1、n=1にセットし、3次元モデルの中心位置(Xm,Yn,C)が設定される(ステップS2)。次に、位置(Xm,Yn,C)を中心とした3次元楕円体を用意し(ステップS3)、その楕円体上のQ個の3次元点を標本化して3次元データを得る(ステップS4)。
この3次元点をカメラの内部・外部パラメータを使ってカメラの撮像系へ透視投影する。カメラ外部パラメータとして、原点からカメラ視点までの並進を(Tx,Ty,Tz)、XYZ軸周りの回転角Rx,Ry,Rzを保有しているので、その値を使って式(11)、(12)に従い各3次元点(Xj,Yj,Zj)から座標(x’j,y’j)を計算し、内部パラメータを使って式(10)に従い透視投影での画像座標(xj,yj)を得る(ステップS5,S6)。
図5の投影座標とは計算で得た画像座標(xj,yj)であり、この座標値が640×480画素(本実施例ではこの画像サイズを例にする)の内部、すなわち、xj>=1かつxj<=640かつyj>=1かつyj<=480のときにだけ、偏微分係数を求める(ステップS7)。もし、画像外、すなわち、xj<=1またはxj>=640またはyj<=1またはyj>=480のときは偏微分係数を求めない。偏微分係数∂xj/∂Xj,∂xj/∂Yj,∂yj/∂Xj,並びに、∂yj/∂Yjは、それぞれ式(14)、式(15)、式(16)、並びに、式(17)から計算する。
尚式(14)〜式(17)におけるT1,T2,T3は、式(18)のように定義される。
Figure 2009251990
これらの計算値を図6のテーブルの第2列目から第5列目の該当欄に書き込む(ステップS8)。一連の更新が終わると(ステップS9)、インデックスm→m+1あるいはn→n+1と増分して(ステップS2)、同様の処理(ステップS3〜S9)を行いテーブル更新を続ける。この処理フローは全ての位置(Xm,Yn,C)に対して行うため、3次元モデルを設置した位置(MN箇所)に応じてテーブルを生成する。
なお、図6のテーブルの列方向に用意した全ての画像座標の偏微分係数が更新されるわけではなく、標本点から透視投影計算によって得た投影座標が画像内部と判断された点に対してのみ偏微分係数を計算する。また、3次元点を設定しても画像内に投影されない点は更新されず値0のままである。
次に、図3に戻り、時空間勾配処理部2において、時系列画像を逐次的に取り出し、各画像上での時間勾配:dI(x,y)/dtと空間勾配:∂I(x,y)/∂x,∂I(x,y)/∂yを求める。ここでは、必要に応じて各画像座標(xj,yj)に対して時間勾配と空間勾配を求めるか、あるいは画像全体に対して求め、後の物体速度推定部の処理において各画像座標(xj,yj)に該当するところだけを取り出して使うかどちらでもよい(以降では、便宜上、時間勾配をdI(x,y)/dt、空間勾配を∂I(x,y)/∂x,∂I(x,y)/∂yと表記する)。
時間勾配は、図2に示すように対象とする時刻tの画像と時刻t+Δtの画像を取り出し、それらの画像間で差分画像ΔI(x,y)=I(x,y,t+Δt)−I(x,y,t)を求める。次に、差分画像ΔI(x,y)の各画素(x,y)に対して図7に示す3×3のマスクを使ってフィルタ処理を行う(各画素での平均化処理に相当する)。この処理によって得た値をΔtで除算して各画像座標での時間勾配dI(x,y)/dtを得る。
一方、空間勾配は、図2に示すように各時刻tでの画像上での各画素に対して、図8または図9に示す3×3のマスクを使ってフィルタ処理を行う。x方向の空間勾配には図8(a)のマスク、y方向の空間勾配には図8(b)のマスクをそれぞれ使う(図9でもx方向、y方向の空間勾配には(a),(b)のマスクをそれぞれ使う)。このフィルタ処理により、図2に示す時刻tの画像における各画像座標(x,y)での空間勾配:∂I(x,y)/∂x,∂I(x,y)/∂yを得る。このように、時空間勾配処理部2では、各時系列画像から画像処理によって時空間勾配を得る。
この時空間勾配処理部2の動作を図10の処理フローを使って説明する。図10のステップS10,S11a〜S11fは各画像座標での時間勾配を得る処理を示し、ステップS10,S12a〜S12fは各画像座標での空間勾配を得る処理を示している。
まず処理対象が有ると判断された(ステップS10)場合、ステップS11aにおいて、図2の時刻t+Δtの画像を取出し、時刻tの画像との間で差分画像ΔIを求める(ステップS11b)。次に前記画像中の各画素を指定し(ステップS11c)、図7の3×3マスクを使ってフィルタ処理し(ステップS11d)、それによって得た値をΔtで除算して時間勾配dI(x,y)/dtを求める(ステップS11e)。これらステップS11c〜S11eの処理は差分画像の各画素に対して行う(ステップS11f)。
また空間勾配を得る処理は、ステップS10,S12aにおいて、図2の時刻tの画像I(t)を取出す。次に前記画像中の各画素を指定し(ステップS12c)、図8、図9の3×3マスクを使ってフィルタ処理し(ステップS12d)、各画像座標(x,y)での空間勾配∂I(x,y)/∂x,∂I(x,y)/∂yを求める(ステップS12e)。これらステップS12c〜S12eの処理は各画素に対して行う(ステップS12f)。
続いて図3の物体速度推定部4では、最初に、3次元点が投影された画像座標(xj,yj)に対して、その画像座標での時間勾配値dI(xj,yj)/dt、空間勾配値:∂I(xj,yj)/∂xj,∂I(xj,yj)/∂yj,並びに、勾配係数データとして保持したテーブル(図6のテーブル)からその画像座標に該当する勾配係数データ:∂xj/∂Xj,∂yj/∂Xj,∂xj/∂Yj,∂yj/∂Yjをそれぞれ取り出す。次に、式(19)に従って、値Ajと値Bjをそれぞれ求める(値Cjは時空間勾配処理で得た時間勾配dI(xj,yj)/dtを代入する)。
Figure 2009251990
ここで、3次元モデルの平面運動の速度ベクトルを(Vx,Vy)とすると、Aj,Bj、並びに、Cjは式(7)に示す時空間勾配拘束を満たさなければならないので、式(20)の拘束条件で制約できる。
Figure 2009251990
つまり、位置(Xm,Yn)上の3次元モデルの速度ベクトル(Vx,Vy)はQ個の透視投影像(xj,yj)に対する式(20)の拘束条件を満たす解を求めればよい。
図11は、式(20)の拘束条件を満たす速度ベクトル(Vx,Vy)を算出する処理フローである。この処理フローでは、図12に示すように、物体速度として取り得る範囲の(Vx,Vy)空間を用意し、この範囲を格子状に分割した空間(速度マップ)において式(20)の拘束条件を満たす妥当な速度ベクトル(Vx,Vy)を算出する。
まず、図12に示すような値0に初期化した速度マップを用意する(ステップS20)。このマップへ式(20)の拘束条件を満たす速度ベクトル(Vx,Vy)を投票していく。すなわち、速度マップ上の各格子点(Vx,Vy)の値を式(20)左辺に代入しΔE(=AjVx+BjVy+Cj)を得る(ステップS21,S22)。このとき、ΔEの値の二乗(拘束値)が所定の許容値以下であればその格子点に1票を加える(ステップS23,S24)。
これは、図13に示すように、速度マップ上に直線:AjVx+BjVy+Cj=0を描くことに相当する。つまり、Q個の画像座標に相当する拘束条件式に対して、この投票処理を全ての格子点(Vx,Vy)において行うことは、速度マップ上に、直線群:AjVx+BjVy+Cj=0,j=1,2,…,Qを逐次描いていくことになる。これにより、図14に示す速度マップが得られる。この図では、同じ得票値が等高線で表されており、その頂点(×で示した箇所)が式(20)の拘束条件を満たす適切な解ということになる。
また、複数台のカメラを使った場合では、一つの速度マップ上において多視点での投票処理を行うことができるため、より信頼性の高く正確な速度マップを得ることできる。図11のステップS25における極大点検出は、図14の速度マップにおいて極大点となる箇所を検出する処理であり、その箇所を速度(Vx,Vy)として決定し、その速度(Vx,Vy)を位置(Xm,Yn)での物体速度とする(ステップS26の速度ベクトル算出)。
なお、図11の処理を全ての位置(Xm,Yn)において実行することにより、図15に示すような速度場を生成することができる(請求項3の実施例)。この図15は、上記の実施例によって、各格子位置(Xm,Yn)で推定した各速度(Vx,Vy)がベクトル量として描かれている。
次に上記のように構成された実施例1全体の動作を図16の処理フローとともに説明する。図16において、ステップS30〜S32は時空間勾配処理部2の処理を示し、ステップS33〜S37は勾配係数処理部3の処理を示し、ステップS38〜S41は物体速度推定部4の処理を示している。
まずステップS30では、図2に示す時刻tの画像および時刻t+Δtの画像を取出し、それらの間の差分画像を求める(図10のステップS11a,S11b,S12a)。
次にステップS31において、図10のステップS11c〜S11fで述べた時間勾配を求める処理を行い、ステップS32において、図10のステップS12c〜S12fで述べた空間勾配を求める処理を行う。
勾配係数処理部3では、まずステップS33において、図1の3次元モデルの中心位置を設定し、その位置を中心とした3次元楕円体を用意し、その楕円体上のQ個の3次元点を標本化して3次元データを得る(図5のステップS2〜S4)。
次にステップS34,S35において、前記3次元点をカメラの内部・外部パラメータを用いてカメラの撮像系へ透視投影し、該透視投影での画像座標を求める(図5のステップS5,S6)。
次にステップS36,S37において、前記透視投影での画像座標に対する偏微分係数を求め、それをテーブルに書き込んで図6の勾配係数テーブルを生成する(図5のステップS7,S8)。
次に物体速度推定部4では、ステップS38において、図11のステップS20〜S22で述べたように、速度マップ上の各格子点(Vx,Vy)の値を式(20)の左辺に代入して拘束値を求める。
次にステップS39において、前記拘束値が許容値以下であれば速度マップへ投票を行って図14に示す速度マップを生成する(図11のステップS23,S24)。
次にステップS40,S41において、前記生成した速度マップの極大点を検出し(図11のステップS25)、その箇所を速度(Vx,Vy)として決定し、その速度(Vx,Vy)を位置(Xm,Yn)での物体速度とする(図11のステップS26)。
(実施例2)
前記の実施例1ではインデックスm=1,2,…,M,n=1,2,…,Nと変化させ、式(13)に従って位置(Xm,Yn)を得てその位置に配置した3次元モデルに関する速度を推定するのに対し、本実施例2は請求項4,8で記載しているように、処理対象とする時刻tの画像において、勾配係数処理部3で計算しておいた勾配係数データのうち、どの勾配係数データを使用するかを事前に把握し、その情報を使って効率的に物体の速度を生成するものである。
図17は本実施例の画像蓄積型の基本構成図であり、図3と異なる点は物体位置推定手段としての物体位置推定部5を追加した点にあり、その他の部分は図3と同一に構成されている。この構成において、時系列画像データベース1には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介してリモートのデータ資源を利用する形態でもどちらでも構わない。
さらに、図18はリアルタイムで処理する場合の処理構成図であり、本発明は必ずしも各データベース部などの記憶装置を必要としない。図18において図17と異なる点は、時系列画像データベース1の代わりに画像入力部11を設けた点にあり、その他の部分は図17と同一に構成されている。
図17、図18に示すように、本実施例は、物体位置推定部5を追加することにより、物体速度推定部4における処理の簡略化を図る。本実施例2ではこの物体位置推定部5および物体速度推定部4の処理部分が前記実施例1と異なるため、以降ではこの箇所を中心に説明する。
図19は、物体位置推定部5の主な処理フローであり、図20に示す参照用のテーブルを生成する。図20のテーブルの例では、縦方向がインデックスmとnを表し、横方向が時系列画像の各時刻を表す形式になっている。まず、図20のテーブルにおいて各欄を初期化する(欄の値を0とする;ステップS51)。ステップS52のモデル位置入力では、テーブルの上から順番に従ってインデックスmとnを準備し、その指標が示す位置(Xm,Yn)に楕円体の3次元モデルを設置し(ステップS53)、適当な標本により3次元データを得る(ステップS54)。この3次元データは式(9)上の点である。
次に、カメラパラメータ入力によりカメラ内部、外部パラメータが与えられ(ステップS55)、式(10)〜式(12)に従って透視投影座標(xj,yj),j=1,2,…,Qが計算される(ステップS56)。
一方、時系列画像データベース1から時刻tでの画像を逐次取り出し(ステップS57)、その画像から移動物体領域または人物領域(これ以降の説明では物体領域と総称する)を抽出する(ステップS58)。ここで、事前に背景画像が得られているならば、時刻tでの画像と背景画像との差分処理(背景差分)により物体領域を抽出することができる。または、ガウス混合分布を利用した非特許文献5の方法を使えば、背景画像を必要とせずフレーム間差分により物体領域を抽出することができる。以上の処理により、
Figure 2009251990
を得る。
次に、前記ステップS56の透視投影計算により得た座標値(xj,yj),j=1,2,…,Qを順番に取り出し(ステップS59)、時刻t(=t1)の画像から抽出した物体領域の
Figure 2009251990
と照合し(ステップS60)、一致する画素がある場合は図20のテーブルにおいて(m,n)と時刻t=t1で指定される欄に一致した画素数を書き込む(ステップS61)。指標(m,n)すなわち各位置(Xm,Yn)に対してこの投票処理が終わると、次の指標(m,n)に移り、新たな位置(Xm,Yn)に3次元モデルを配置して同様の処理を繰り返す(ステップS52〜S62)。
以上の投票処理を、対象とする時系列画像t=t1,t2,…,tMに対して、3次元モデルの位置(Xm,Yn)を変えながら行い、図20のテーブルの各欄を更新する。このテーブルは、位置(Xm,Yn)に立てた3次元モデル上の3次元点が、時系列画像から抽出した物体領域の画素へどれだけ投影されているかを表しており、言い換えれば、図19の物体位置推定部5の処理では、3次元モデルからの投影像と画像上での物体領域との照合により得た物体位置(Xm,Yn)を表すテーブルを生成することになる。
次に図19の物体位置推定部5の処理において生成したテーブルを使って物体速度を推定する処理について説明する。前記実施例1では、すべての位置(Xm,Yn),m=1,2,…,M,n=1,2,…,Nに対して勾配係数データを使って係数Aj,Bjを算出していた。これに対して、本実施例2は図21に示す処理フローにより係数Aj,Bjを算出する。物体速度を推定する処理は前記実施例1の図11の処理フローに従うが、速度マップ生成に使う係数Aj,Bjの算出方法が異なるため、以下ではこの箇所のみを記述する。
説明の都合上、時刻t(=t1)の画像を処理対象とする。図21の処理フローは、3次元モデルを立てる位置(Xm,Yn)に対して逐次処理が行なわれる(ステップS71〜S81を繰り返す)。まず、先の図19の処理で得た図20のテーブルを参照し(ステップS71,S72)、指標(m,n)と時刻t1で指定する欄において得票値がε(閾値)以上かどうかを判定する。ここでは、物体領域抽出の画像処理において雑音の影響を受けている可能性もあるので、それらの影響を抑えるために閾値εを設定し3次元モデル位置の信頼性を判断する(ステップS73,S74)。
もし、得票値がε未満の場合は位置(Xm,Yn)での速度を(Vx,Vy)=(0,0)とし、次の位置(Xm,Yn)に移る(ステップS81,S71)。得票値がε以上の場合のみ、以降の処理を続ける。これは、得票値が閾値ε以上の場合、位置(Xm,Yn)に物体が存在する(位置での運動がある)確率が高いと判定したことになり、閾値ε未満の得票値の場合、位置(Xm,Yn)には物体は存在しない(位置での運動がない)と判定したことになる。
次に、得票値がε以上の場合、位置(Xm,Yn)に3次元モデルを設置し(ステップS75,S76;図19のステップS53,S54と同様の処理)、標本化により得た3次元点からカメラパラメータを使って透視投影座標を得る(ステップS77,S78;図19のステップS55,S56と同様の処理)。
次に、勾配係数処理部3で求めておいた図6のテーブルにおいて、透視投影計算によって得た画像座標の欄が示す欄の勾配係数データを参照して、式(19)に従って係数Aj,Bjを算出する(ステップS79,S80)。この係数が得られれば、図11の処理フローにより、位置(Xm,Yn)での速度(Vx,Vy)を算出する。
次に上記のように構成された実施例2全体の動作を図22の処理フローとともに説明する。図22において、ステップS90〜S92は時空間勾配処理部2の処理を示し、ステップS93〜S97は勾配係数処理部3の処理を示し、ステップS98は図17、図18の物体位置推定部5の処理を示し、ステップS99〜S102は図17、図18の物体速度推定部4の処理を示している。
まずステップS90では、図2に示す時刻tの画像および時刻t+Δtの画像を取出し、それらの間の差分画像を求める(図10のステップS11a,S11b,S12a)。
次にステップS91において、図10のステップS11c〜S11fで述べた時間勾配を求める処理を行い、ステップS92において、図10のステップS12c〜S12fで述べた空間勾配を求める処理を行う。
勾配係数処理部3では、まずステップS93において、図1の3次元モデルの中心位置を設定し、その位置を中心とした3次元楕円体を用意し、その楕円体上のQ個の3次元点を標本化して3次元データを得る(図5のステップS2〜S4)。
次にステップS94,S95において、前記3次元点をカメラの内部・外部パラメータを用いてカメラの撮像系へ透視投影し、該透視投影での画像座標を求める(図5のステップS5,S6)。
次にステップS96,S97において、前記透視投影での画像座標に対する偏微分係数を求め、それをテーブルに書き込んで図6の勾配係数テーブルを生成する(図5のステップS7,S8)。
次に物体位置推定部5は、ステップS98において、前記図19のステップS58〜S62で述べたように、時系列入力画像から、物体領域を抽出し、該抽出した画像上での物体領域と3次元モデルからの投影像とを照合して物体位置(Xm,Yn)を表すテーブル(図20の参照用テーブル)を生成する。
次に物体速度推定部4は、まずステップS99において、図21の処理フローで述べたように、前記生成された図20のテーブルを参照し物体が存在する確率が高いと判定したときに、ステップS97において生成された図6の勾配係数データを使って式(19)の係数Aj,Bjを算出する。
次にステップS100〜S102において、図11のステップS24〜S26で述べたように、式(20)の拘束条件を満たす速度ベクトル(Vx,Vy)を速度マップへ投票し、得られた図14に示す速度マップの極大点を検出し、その極大点となる箇所を位置(Xm,Yn)での物体速度(Vx,Vy)とする。
以上の実施例を、全ての位置(Xm,Yn)、並びに、処理対象とする時系列画像t=t1,t2,…,tMに対して行う。図6のテーブルを事前に求めておけば、そのテーブルを時系列画像に対して共通的に利用でき、全ての位置(Xm,Yn)に対して必ずしも係数Aj,Bjを求めて速度(Vx,Vy)を算出する必要はなく、本実施例のように、図20のテーブルに従い処理の簡略化を図ることができる。
本実施例は、物体位置推定部5において事前に各位置(Xm,Yn)での3次元モデルの位置に関する事前情報を求めておき、物体速度推定部4においてその情報に基づいて位置(Xm,Yn)に物体が存在しないと判定したときは、図6の勾配係数データを使用せず速度(Vx,Vy)=(0,0)とし、物体が存在した位置に対して勾配係数データを使って係数Aj,Bjを求め速度(Vx,Vy)を推定する。これにより、計算コストの点で効率的に各時系列画像に対して物体速度の推定、並びに、群集の速度場生成が可能となる。
また、本実施形態の物体運動推定装置における各手段の一部もしくは全部の機能をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行して本発明を実現することができること、本実施形態の物体運動推定方法における手順をコンピュータのプログラムで構成し、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えばFD(Floppy(登録商標) Disk)や、MO(Magneto−Optical disk)、ROM(Read Only Memory)、メモリカード、CD(Compact Disk)−ROM、DVD(Digital Versatile Disk)−ROM、CD−R,、CD−RW,HDD,リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。
本発明の実施形態例における空間中の点と固定カメラの位置関係を示す説明図である。 本発明の実施形態例における時間勾配と空間勾配の例を示す説明図である。 本発明の実施例1の画像蓄積型の基本構成を示すブロック図である。 本発明の実施例1のリアルタイム処理型の基本構成を示すブロック図である。 本発明の実施例1における勾配係数処理部でのテーブル生成の処理を示すフローチャートである。 本発明の実施形態例における勾配係数処理部でのテーブルの例を示す説明図である。 本発明の実施形態例において、時間勾配を求めるときに用いる3×3マスクの例を示す説明図である。 本発明の実施形態例において、空間勾配を求めるときに用いる3×3マスクの一例を示す説明図である。 本発明の実施形態例において、空間勾配を求めるときに用いる3×3マスクの他の例を示す説明図である。 本発明の実施形態例における時空間勾配処理部の処理を示すフローチャートである。 本発明の実施形態例において、時空間勾配拘束を満たす速度パラメータを投票処理により求める処理を示すフローチャートである。 本発明の実施形態例において、用意する速度マップの例を示す説明図である。 本発明の実施形態例において、速度マップ上での投票処理の例を示す説明図である。 本発明の実施形態例における速度マップの生成結果の例を示す説明図である。 本発明の実施形態例において、全ての位置(Xm,Yn)における速度場生成の例を示す説明図である。 本発明の実施例1の全体の処理を示すフローチャートである。 本発明の実施例2の画像蓄積型の基本構成を示すブロック図である。 本発明の実施例2のリアルタイム処理型の基本構成を示すブロック図である。 本発明の実施例2における参照用テーブル生成の処理を示すフローチャートである。 本発明の実施例2における3次元モデルの位置に関する情報を表すテーブルの例を示す説明図である。 本発明の実施例2において、図20のテーブルの照合を併用した係数Aj,Bjの算出処理フローチャートである。 本発明の実施例2の全体の処理を示すフローチャートである。
符号の説明
1…時系列画像データベース、2…時空間勾配処理部、3…勾配係数処理部、4…物体速度推定部、5…物体位置推定部、11…画像入力部。

Claims (10)

  1. 画像入力装置を1台または複数台使って取得した映像において、ある時刻tでの画像から時刻t+Δtでの画像までの時間変化における複数の被写体の運動状態を推定する装置であって、
    空間中のある位置Xに用意した被写体上の3次元点を前記画像入力装置で取得した画像中に投影したときの、当該3次元点の座標の変化に対する画像座標上での座標の変化量を得る勾配係数処理手段と、
    時系列中のある時刻tでの画像上における水平方向と垂直方向の濃淡変化を反映した空間勾配と、時間間隔Δtとして時刻t+Δtでの画像との間の時間的濃淡変化を反映した時間勾配を得る時空間勾配処理手段と、
    前記時空間勾配処理手段により得られた空間勾配と時間勾配、並びに、前記勾配係数処理手段より得られた画像座標上での変化量が満たす時間間隔Δtの間の拘束条件を使って、空間中での被写体の速度をパラメータとする投票空間としての速度マップにおいて、その拘束条件を満たす場合に速度マップ中のその速度の場所に投票を行い、全ての投票処理の後に、速度マップにおいてその得票値が極大となる速度を位置Xでの被写体の速度と決定する物体速度推定手段と、
    を備えることを特徴とする物体運動推定装置。
  2. 請求項1において、前記勾配係数処理手段は、
    画像入力装置の位置と姿勢のパラメータとその画像入力装置固有の内部パラメータからなるカメラパラメータに従って、空間中のある位置Xに用意した被写体上の3次元点を画像中の画像座標に投影したときの、当該3次元点の座標の変化に対する画像座標の変化量を得る、
    ことを特徴とする物体運動推定装置。
  3. 請求項1又は2において、
    前記勾配係数処理手段は、空間中の位置Xが異なる被写体上の複数の3次元点の座標を算出し、各位置Xでの各3次元点の座標の変化に対する投影画像座標の変化量を得て、
    前記物体速度推定手段は、前記空間中の複数の位置Xについて速度を推定し、複数の被写体または群集の運動状態を表す速度場を生成する、
    ことを特徴とする物体運動推定装置。
  4. 請求項1ないし3のいずれか1項において、
    空間中の位置Xを変えて被写体上の複数の3次元点の座標を算出し、各位置Xでの各3次元点の投影画像座標が時刻tの画像から抽出した物体領域の画素の座標と一致しているか否かを判定し、一致したと判定された画素数が所定の値未満の場合は位置Xでの運動がないと判定し、一致したと判定された画素数が所定の値以上の場合は位置Xでの運動があると判定するための物体位置に関する情報を得る物体位置推定手段をさらに備え、
    前記物体速度推定手段は、前記物体位置推定手段により得られた物体位置に関する情報に基づいて、位置Xでの運動があると判定された場合に限り、被写体の速度を推定する、
    ことを特徴とする物体運動推定装置。
  5. 画像入力装置を1台または複数台使って取得した映像において、ある時刻tでの画像から時刻t+Δtでの画像までの時間変化における複数の被写体の運動状態を推定する方法であって、
    勾配計数処理手段が、空間中のある位置Xに用意した被写体上の3次元点を前記画像入力装置で取得した画像中に投影したときの、当該3次元点の座標の変化分に対する画像座標上での座標の変化量を得る勾配係数処理ステップと、
    時空間勾配処理手段が、時系列中のある時刻tでの画像上における水平方向と垂直方向の濃淡変化を反映した空間勾配と、時間間隔Δtとして時刻t+Δtでの画像との間の時間的濃淡変化を反映した時間勾配を得る時空間勾配処理ステップと、
    物体速度推定手段が、前記時空間勾配処理ステップにより得られた空間勾配と時間勾配、並びに、前記勾配係数処理ステップにより得られた画像座標上での変化量が満たす時間間隔Δtの間の拘束条件を使って、空間中での被写体の速度をパラメータとする投票空間としての速度マップにおいて、その拘束条件を満たす場合に速度マップ中のその速度の場所に投票を行い、全ての投票処理の後に、速度マップにおいてその得票値が極大となる速度を位置Xでの被写体の速度と決定する物体速度推定ステップと、
    を備えることを特徴とする物体運動推定方法。
  6. 請求項5において、
    前記勾配係数処理ステップは、
    画像入力装置の位置と姿勢のパラメータとその画像入力装置固有の内部パラメータからなるカメラパラメータに従って、空間中のある位置Xに用意した被写体上の3次元点を画像中の画像座標に投影したときの、当該3次元点の座標の変化に対する画像座標の変化量を得る、
    ことを特徴とする物体運動推定方法。
  7. 請求項5または6において、前記勾配計数処理ステップは、空間中の位置Xが異なる被写体上の複数の3次元点の座標を算出し、各位置Xでの各3次元点の座標の変化に対する投影画像座標の変化量を得て、
    前記物体速度推定ステップは、前記空間中の複数の位置Xについて速度を推定し、複数の被写体または群集の運動状態を表す速度場を生成する、
    ことを特徴とする物体運動推定方法。
  8. 請求項5ないし7のいずれか1項において、
    物体位置推定手段が、空間中の位置Xを変えて被写体上の複数の3次元点の座標を算出し、各位置Xでの各3次元点の投影画像座標が時刻tの画像から抽出した物体領域の画素の座標と一致しているか否かを判定し、一致したと判定された画素数が所定の値未満の場合は位置Xでの運動がないと判定し、一致したと判定された画素数が所定の値以上の場合は位置Xでの運動があると判定するための物体位置に関する情報を得る物体位置推定ステップをさらに備え、
    前記物体速度推定ステップは、前記物体位置推定ステップにより得られた物体位置に関する情報に基づいて、位置Xでの運動があると判定された場合に限り、被写体の速度を推定する、
    ことを特徴とする物体運動推定方法。
  9. コンピュータに、請求項5ないし請求項8のいずれか1項に記載の各ステップを実行させるプログラムとしたことを特徴とする物体運動推定プログラム。
  10. 請求項9に記載の物体運動推定プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2008100026A 2008-04-08 2008-04-08 物体運動推定装置、物体運動推定方法、物体運動推定プログラムおよびそのプログラムを記録した記録媒体 Pending JP2009251990A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008100026A JP2009251990A (ja) 2008-04-08 2008-04-08 物体運動推定装置、物体運動推定方法、物体運動推定プログラムおよびそのプログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008100026A JP2009251990A (ja) 2008-04-08 2008-04-08 物体運動推定装置、物体運動推定方法、物体運動推定プログラムおよびそのプログラムを記録した記録媒体

Publications (1)

Publication Number Publication Date
JP2009251990A true JP2009251990A (ja) 2009-10-29

Family

ID=41312630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008100026A Pending JP2009251990A (ja) 2008-04-08 2008-04-08 物体運動推定装置、物体運動推定方法、物体運動推定プログラムおよびそのプログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP2009251990A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019117630A (ja) * 2017-12-21 2019-07-18 ザ・ボーイング・カンパニーThe Boeing Company オブジェクト検出のための画像からのクラッタ背景の除去
CN112489134A (zh) * 2020-11-26 2021-03-12 南方科技大学 面向运动估计的跨帧超高速相机设计方法及运动估计方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019117630A (ja) * 2017-12-21 2019-07-18 ザ・ボーイング・カンパニーThe Boeing Company オブジェクト検出のための画像からのクラッタ背景の除去
JP7286310B2 (ja) 2017-12-21 2023-06-05 ザ・ボーイング・カンパニー オブジェクト検出のための画像からのクラッタ背景の除去
CN112489134A (zh) * 2020-11-26 2021-03-12 南方科技大学 面向运动估计的跨帧超高速相机设计方法及运动估计方法
CN112489134B (zh) * 2020-11-26 2024-05-14 南方科技大学 面向运动估计的跨帧超高速相机设计方法及运动估计方法

Similar Documents

Publication Publication Date Title
Dong et al. Marker-free monitoring of the grandstand structures and modal identification using computer vision methods
CN107980150B (zh) 对三维空间建模
JP6816058B2 (ja) パラメータ最適化装置、パラメータ最適化方法、プログラム
CN108898676B (zh) 一种虚实物体之间碰撞及遮挡检测方法及系统
KR101870902B1 (ko) 영상 처리 장치 및 영상 처리 방법
JP2019075156A (ja) 多因子画像特徴登録及び追尾のための方法、回路、装置、システム、及び、関連するコンピュータで実行可能なコード
WO2019225547A1 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
JP2007310707A (ja) 姿勢推定装置及びその方法
JPWO2007010893A1 (ja) 関節物体位置姿勢推定装置及びその方法ならびにプログラム
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP2012059030A (ja) 距離画像カメラを用いた人体識別方法および人体識別装置
WO2022127181A1 (zh) 客流的监测方法、装置、电子设备及存储介质
JPWO2019044038A1 (ja) 撮影対象追跡装置及び撮影対象追跡方法
CN115457176A (zh) 一种图像生成方法、装置、电子设备及存储介质
JP2007025863A (ja) 撮影システム、撮影方法及び画像処理プログラム
JP3520050B2 (ja) 移動物体追跡装置
JP7304235B2 (ja) 学習済みモデル、学習装置、学習方法、及び学習プログラム
JP2008134939A (ja) 動体追跡装置,動体追跡方法,その方法を記述した動体追跡プログラム及びそのプログラムを格納した記録媒体
JP4670010B2 (ja) 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム
JP2021149687A (ja) 物体認識装置、物体認識方法及び物体認識プログラム
JP3401512B2 (ja) 移動物体追跡装置
JP2009251990A (ja) 物体運動推定装置、物体運動推定方法、物体運動推定プログラムおよびそのプログラムを記録した記録媒体
JP4673241B2 (ja) 動体追跡装置、動体追跡方法及びその方法を実現したプログラムを格納した記録媒体
JP4759447B2 (ja) 動体追跡装置,動体追跡方法およびその方法を記述したプログラムを格納した記録媒体
JP4675368B2 (ja) 物体位置推定装置、物体位置推定方法、物体位置推定プログラムおよびそのプログラムを記録した記録媒体

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100602