JP2008035301A - 移動体追跡装置 - Google Patents
移動体追跡装置 Download PDFInfo
- Publication number
- JP2008035301A JP2008035301A JP2006207335A JP2006207335A JP2008035301A JP 2008035301 A JP2008035301 A JP 2008035301A JP 2006207335 A JP2006207335 A JP 2006207335A JP 2006207335 A JP2006207335 A JP 2006207335A JP 2008035301 A JP2008035301 A JP 2008035301A
- Authority
- JP
- Japan
- Prior art keywords
- moving body
- image
- unit
- feature
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】複数の画像入力部で検出された移動体の特徴量の照合精度を向上できる移動体追跡装置を提供する。
【解決手段】本発明による移動体追跡装置は、移動体の画像を取得する複数の画像入力部と、取得された画像から移動体の向きと特徴量を検出し、向きと特徴量を統合したデータを作成する画像処理部と、データを格納するデータ格納部と、格納されたデータの内、向きが同一あるいは対称のデータの特徴量から、同一移動体であるか否かを照合する照合部と、照合部による照合結果に基づいて同一移動体を追跡する追跡部とを備える。
【効果】移動体の向きと特徴量を統合することにより、向き別に特徴量を比較することができるので、移動体の照合精度が向上する。
【選択図】図1
【解決手段】本発明による移動体追跡装置は、移動体の画像を取得する複数の画像入力部と、取得された画像から移動体の向きと特徴量を検出し、向きと特徴量を統合したデータを作成する画像処理部と、データを格納するデータ格納部と、格納されたデータの内、向きが同一あるいは対称のデータの特徴量から、同一移動体であるか否かを照合する照合部と、照合部による照合結果に基づいて同一移動体を追跡する追跡部とを備える。
【効果】移動体の向きと特徴量を統合することにより、向き別に特徴量を比較することができるので、移動体の照合精度が向上する。
【選択図】図1
Description
本発明は、複数のカメラ等の画像入力部で取得した画像により移動体を追跡する移動体追跡装置に関する。
動画像を連続して処理し移動体を検出して、追跡するシステムは、単一カメラ内の追跡に利用されている。近年、複数のカメラ間での移動体の追跡に関する研究が行われているが、複数のカメラ間において、移動体の追跡を行う機能の重要性はますます高まってきている。
従来、複数のカメラ間での移動体の追跡を行う場合、各カメラで移動体の特徴量を求めて、その特徴量の照合を行うことで追跡を行う。特徴量の求め方は様々で、移動体の色ヒストグラムなどの色情報を用いた特徴量や、移動体の面積や移動体の外接矩形枠の縦と横の長さの比などの特徴量がある。その一例として、特開平8−249471号公報(特許文献1)に記載の技術がある。これはカメラ内の移動体の追跡方法を示すもので、本方法によれば、移動体が静止しても、再度移動体を検出した際に、移動体の特徴量によって同定することでその移動体の追跡が可能になる。
しかしながら、複数のカメラ間で移動体を追跡する場合、上記従来技術においては、あるカメラで移動体の上向きの撮像シーンのみ取得され、他のカメラでは移動体の上向き及び下向きの撮像シーンが取得され、かつ上向きの特徴量と下向きの特徴量が大きく異なる場合には、後者で求められた特徴量は前者で求められた特徴量よりばらつく。このため、両者の特徴量を照合する場合、照合精度が低くなるという問題がある。
本発明は、上記の問題点を考慮してなされたものであり、複数の画像入力部で検出された移動体の特徴量の照合精度を向上できる移動体追跡装置を提供する。
本発明による移動体追跡装置は、複数の画像入力部によって取得された画像から移動体の向きと特徴量を検出し、向きと特徴量を統合したデータを作成する画像処理部を備える。
移動体の向きと特徴量を統合することにより、向き別に特徴量を比較することができるので、移動体の照合精度が向上する。
図1は、本発明の一実施形態である移動体追跡装置を示す。本図において、1は画像入力部、2は画像処理部、3は特徴量格納部、4は移動体照合部、5は移動体追跡部である。画像入力部1は複数あるものとし、本実施形態ではN(正の整数)個とする。画像入力部1としては、テレビカメラやCCDカメラなどが適用される。また、画像処理部2,移動体照合部4及び移動体追跡部5としては、CPUやマイクロコンピュータ等の演算処理装置が適用される。特徴量格納部3としては、半導体メモリやハードディスク等の記憶装置が適用される。なお、図示されてはいないが、画像入力部1で取得された画像を格納する画像格納部を設けても良い。画像格納部としては、特徴量格納部3と同様の記憶装置が適用される。また、以下に説明する図面においては、移動体を人物としている。
複数の画像入力部1は、それぞれ、あるフレーム間隔で画像を取得する。取得された画像は順次、画像処理部2に送られる。画像処理部2は、画像入力部1から送られた画像を用いて、移動体を検出し、その検出された移動体の特徴量と移動体の向きとを順次演算し、その移動体の特徴量と向きを統合した向き付き特徴量を特徴量格納部3に送る。特徴量格納部3では、画像処理部2で算出された移動体の特徴量が、どの画像入力部で取得された画像から算出されたものかを区別できるように格納される。また画像入力部1で複数の移動体を検出した場合も、画像入力部別,移動体別に特徴量を格納する。移動体照合部4は、特徴量格納部3に格納された特徴量を用いて、画像入力部別及び移動体別に特徴量を相互比較することで、移動体の照合を行い、移動体追跡部5に照合結果を送る。移動体追跡部5は、移動体照合部4から送られた照合結果が、同一移動体であることを示していれば移動体の追跡を行う。
以下、画像入力部1,画像処理部2,特徴量格納部3,移動体照合部4並びに移動体追跡部5について、それぞれ説明する。
図2は、画像入力部の説明図である。画像入力部1では、動画像より、あるフレーム間隔で入力画像を取得する。S(正の整数)枚のフレームが画像入力部1から取得され、このフレーム毎の画像11を取得するたびに画像処理部2に送る。
図3は、画像処理部の機能説明図である。画像入力部1から送られたフレーム毎の画像を用いて、移動体抽出部21ではフレーム毎の移動体が抽出される。この抽出された移動体の画像を用いて、移動体向き検出部22によって、移動体の向きを検出する。次に、移動体領域分割部23では、移動体抽出部21から送られた移動体の画像から、移動体を抽出し、抽出された移動体のシルエットに外接する矩形枠を作成し、その矩形枠を縦方向と横方向で分割し、複数の分割領域を生成する。そして、この分割領域ごとに、特徴量抽出部24によって特徴量を検出する。特徴量としては、輝度情報や色情報などの代表値を用いる。代表値とは最頻値,平均値などである。移動体領域分割部23及び特徴量抽出部
24で求められた特徴量と、移動体向き検出部22で求められた移動体の向きを、特徴量/向き統合部25により統合する。これは移動体の特徴量が移動体の向きによって区別され、移動体の特徴量が向きによって大きく異なる場合に、照合精度が向上する。
24で求められた特徴量と、移動体向き検出部22で求められた移動体の向きを、特徴量/向き統合部25により統合する。これは移動体の特徴量が移動体の向きによって区別され、移動体の特徴量が向きによって大きく異なる場合に、照合精度が向上する。
以下、移動体抽出部21,移動体向き検出部22,移動体領域分割部23,特徴量抽出部24並びに特徴量/向き統合部25について、それぞれ説明する。
図4,図5,図6及び図7は、移動体抽出部21の機能説明図であり、それぞれ入力画像例,背景画像例,移動体抽出画像例及び処理手順例を示すフローチャートである。移動体抽出部21では、入力画像(図4)から背景画像(図5)を生成し、生成した背景画像を基に背景差分法を用いて移動体抽出画像(図6)を生成し移動体を抽出する。図6のように、移動体抽出画像において複数の移動体a,bが存在する場合、それぞれ異なる移動体であると認識する。また、一つまたは複数の移動体に対して、複数フレームの移動体抽出画像が取得されるが、その複数フレーム中の移動体は追跡されている。例えば、その複数フレーム中で、フレーム中に設定される座標から求められる移動体の移動距離が所定の範囲である移動体を同じ移動体と認識する。そして、この移動体抽出画像(図6)を移動体向き検出部10に送る。ここでは背景差分法を用いた方法を示したが、他の移動体抽出方法を用いても良い。
図7の処理手順例においては、まず、ステップ2101で画像を取り込み、入力画像とする。ステップ2102では、背景画像を作成済みか否かをチェックし、背景画像を作成済みでない場合、ステップ2103を実行し、背景画像が存在する場合、ステップ2104を実行する。ステップ2103では、入力画像から初期背景画像を作成し、初期背景画像を背景画像とする。初期背景画像を作成するためには、移動体が存在していない状態の入力画像を少なくとも1フレーム用いる。ステップ2104では、ステップ2101で取り込んだ入力画像とステップ2102またはステップ2103の背景画像から、画素毎の輝度差の差分画像を作成する。ステップ2105では、差分画像から所定の閾値以上を変化領域として抽出する。その後、ステップ2106で、変化領域の面積を算出して閾値以上か否かをチェックし、閾値以上の場合は、ステップ2107を処理し、閾値未満の場合は、変化なしとして、ステップ2109を処理する。ステップ2109では、変化のない入力画像を新たな背景画像とし更新する。ステップ2107では、ステップ2105で抽出した変化領域に対し、ノイズ除去等を行って整形した後、膨張及び/又は収縮等により近隣を統合して物体候補を作成する。ステップ2108では、ステップ2107の物体候補の出現回数をカウントして所定回数以上出現した場合には、ステップ2110で候補物体を移動体として検知して、移動体のシルエットを抽出する。
図8,図9及び図10は、移動体向き検出部22の機能説明図であり、それぞれ向き検出方法,向き角度と向きの関係及び処理手順例を示すフローチャートである。
移動体向き検出部22では、移動体抽出部21から送られた移動体抽出画像(図6)の個別移動体(a,b)の移動方向を求める。すなわち、次のようにして、画像入力部で取得されたS枚の画像フレームにおけるある一つのフレームと他のフレーム間において、移動体が移動した方向を求める。まず、図8に示すように、一つの画像フレーム中における個別移動体のA外接枠のA中心点と、他の画像フレーム中における同じ移動体のA′外接枠のA′中心点とを結ぶ中心点間線を作成する。そして中心点間線と、A′中心点から右水平方向に伸びる基準線とから成る移動方向角度θを求める。図9に示すように、移動方向角度θに対して、4方向に分割する場合は、45°〜134°を上向き、135°〜
224°を左向き、225°〜314°を下向き、0°〜44°及び315°〜359°を右向き、というように向きを割り当てることで、移動体の向きを決定する。更に細かく8方向(図9の下図)や16方向などに検出できる向きを細かく分けることも可能である。なお、移動体向き角度θは、A′中心点の座標を(x0,y0)、A中心点の座標を(x1,y1)とすると、次式(1)で求められる。
移動体向き検出部22では、移動体抽出部21から送られた移動体抽出画像(図6)の個別移動体(a,b)の移動方向を求める。すなわち、次のようにして、画像入力部で取得されたS枚の画像フレームにおけるある一つのフレームと他のフレーム間において、移動体が移動した方向を求める。まず、図8に示すように、一つの画像フレーム中における個別移動体のA外接枠のA中心点と、他の画像フレーム中における同じ移動体のA′外接枠のA′中心点とを結ぶ中心点間線を作成する。そして中心点間線と、A′中心点から右水平方向に伸びる基準線とから成る移動方向角度θを求める。図9に示すように、移動方向角度θに対して、4方向に分割する場合は、45°〜134°を上向き、135°〜
224°を左向き、225°〜314°を下向き、0°〜44°及び315°〜359°を右向き、というように向きを割り当てることで、移動体の向きを決定する。更に細かく8方向(図9の下図)や16方向などに検出できる向きを細かく分けることも可能である。なお、移動体向き角度θは、A′中心点の座標を(x0,y0)、A中心点の座標を(x1,y1)とすると、次式(1)で求められる。
図10の処理手順においては、まずステップ2201で画像を取り込み、移動体抽出画像とする。次に、ステップ2202で現フレームの抽出された移動体枠の中心座標を算出する。次に、ステップ2203で現フレームの一つ前のフレームである前フレームの移動体枠中心座標が存在するか否かを判定し、存在する場合はステップ2206を処理する。前フレームの移動体枠中心座標が存在しない場合は、ステップ2204及びステップ2205の処理を行った後にステップ2206を処理する。ステップ2204では、現在のフレームである現フレームの移動体枠の中心座標を前フレームの移動体枠中心座標とする。ステップ2205では画面の中心座標を算出し、この座標を現フレームの移動体中心座標とする。ステップ2206では前フレームの移動体枠中心座標と現フレームの移動体枠中心座標を用いて、前フレームの移動体枠中心座標に対して、現フレームの移動体枠中心座標の角度を算出する。ステップ2207ではステップ2206で求められた角度を用いて移動体の向きを決定する。ここでは、図9のように角度に対しての向きを予め定義しておくことで、角度が求められれば向きが決定できる。
図11は、移動体領域分割部23の機能説明図である。移動体領域分割部23は、移動体枠をW×L(W,L:整数)で分割する分割線で移動体を分割し、分割された領域毎の座標を特徴量抽出部24に送る。こうすることで特徴量抽出部24では、この分割された領域毎の特徴量を演算し、有効な領域を選定することで、背景混在が解消される。また、図12に示すように、移動体の特徴量が垂直方向や水平方向に反転している場合に、それら移動体を同一移動体と認識してしまうような誤認識を防止することができる。
次に、特徴量抽出部24について説明する。特徴量抽出部24では、移動体領域分割部23によって分割された移動体領域ごとに特徴量を算出する。輝度情報を用いた特徴量としては、例えば、分割された領域毎に求めた平均輝度値(最頻輝度値)と移動体領域全体の平均輝度値(最頻輝度値)との比(輝度比)を適用できる。また、色情報を用いた特徴量としては、例えば、領域分割毎のRGB値からHSV(H:Hue(色相),S:Saturation(彩度),V:Value(明度))変換した色相値が適用できる。これらの特徴量に限らず、他の特徴量を用いてもよい。
図13は、特徴量/向き統合部25の機能説明図である。特徴量/向き統合部では、移動体向き検出部22で求めた移動体の向き252と、特徴量抽出部24から求められた特徴量251を、フレーム番号(本図では1〜10)を用いてそれぞれ結びつけ、移動体の向き253と特徴量254を有する、向き付き特徴量255をその向き毎に作成する。これは一つの移動体に対して複数フレーム分の移動体の向きと特徴量を統合し、向き付き特徴量255を作成する。すなわち、各向き付き特徴量は、一つ以上の特徴量データからなる特徴量の集合である。そして各特徴量は、本図では分割された領域の各特徴量から成る、言わば分割領域数(=W×L:図11参照)を次元数とするベクトルデータとなっている。
図示されてはいないが、向き付き特徴量は、複数のフレーム(図13では10フレーム)が画像入力部によって取得された時刻を示す時刻データ(例えば、10フレームの代表時刻)を含むか、あるいはこの時刻データと対応付けられている。作成された向き付き特徴量255は特徴量格納部3に格納される。図13においては、移動体の向きが、上向き,下向き,右向き,左向きの四方向であるが、観測された向きの数だけ向き付き特徴量が作成される。
図14は特徴量格納部3における内部構造を示す。特徴量格納部3は、各画像入力部別に分けられ、これを画像入力部別特徴量格納部31とする。この画像入力部別特徴量格納部31は、画像入力部で検出された各移動体で分けられ、これを移動体特徴量格納部311とする。そして、この移動体特徴量格納部311には、特徴量/向き統合部25で統合された向き付き特徴量311a,311b,311c,311dが格納されている。移動体照合部4では、比較対照である二つの移動体の向き付き特徴量311a,311b,311c,311dを比較することで移動体の照合を行う。例えば、画像入力部別特徴量格納部
311と画像入力部別特徴量格納部321とを照合する場合は、まず、向きが上向きである向き付き特徴量311aと向き付き特徴量321aとを比較し、下向きである向き付き特徴量311bと向き付き特徴量321bとを比較する。
311と画像入力部別特徴量格納部321とを照合する場合は、まず、向きが上向きである向き付き特徴量311aと向き付き特徴量321aとを比較し、下向きである向き付き特徴量311bと向き付き特徴量321bとを比較する。
なお、本図における各画像入力部の移動体1〜Mは、単に各入力部で別の移動体と認識された移動体を示すものであり、異なる画像入力部の移動体Mが同一の移動体であるとは限らない。
図15,図16は、移動体照合部4における照合方法の例を示す。それぞれの図は特徴量を二次元表示とした場合に縦軸,横軸にそれぞれ異なる特徴量の軸を設け、特徴点をプロットし、比較対象の各々の特徴点と、その特徴点の代表点を示した図であり、各代表点間の距離が、ある閾値以上であった場合は「異なる移動体」、閾値以下であった場合は
「同一移動体」と判定する。この照合結果を移動体追跡部5に送る。図15,図16においては、移動体領域分割部23により移動体画像を2領域に分割し、各領域の特徴量(例えば輝度情報を用いた特徴量)をそれぞれ縦軸,横軸としたものである。すなわち、これらの図では、分割領域数と同じ次元数である2次元の特徴量空間を用いている。なお、分割領域数が図11に示したようにW×Lであれば、W×L次元の特徴量空間を用いることになる。また、移動体画像を分割せず、複数種類の特徴量を求めて、複数次元の特徴量空間にプロットしても良い。例えば輝度情報を用いた特徴量と色情報を用いた特徴量とを、それぞれ縦軸横軸としても良い。なお、プロット総数は、特徴量が演算された画像フレーム数に相当する。
「同一移動体」と判定する。この照合結果を移動体追跡部5に送る。図15,図16においては、移動体領域分割部23により移動体画像を2領域に分割し、各領域の特徴量(例えば輝度情報を用いた特徴量)をそれぞれ縦軸,横軸としたものである。すなわち、これらの図では、分割領域数と同じ次元数である2次元の特徴量空間を用いている。なお、分割領域数が図11に示したようにW×Lであれば、W×L次元の特徴量空間を用いることになる。また、移動体画像を分割せず、複数種類の特徴量を求めて、複数次元の特徴量空間にプロットしても良い。例えば輝度情報を用いた特徴量と色情報を用いた特徴量とを、それぞれ縦軸横軸としても良い。なお、プロット総数は、特徴量が演算された画像フレーム数に相当する。
図15は、従来と本発明の実施形態における移動体照合方法の違いを示す。従来の場合及び本発明の実施形態の場合とで、対応する特徴量のプロットの集合を、それぞれ破線と実線で囲んでいる。従来の場合、すなわち移動体の向きを統合しない場合、全ての向きに対応する特徴点の代表点3111,3211で比較する。これに対し、本発明の実施形態では向きによって特徴量を区別することにより、同一向きの特徴量での照合が可能になり、上向き特徴量の集合の代表点3112,3212で照合すると共に、下向き特徴点の代表点3113,3213での照合が可能になるため、より精度の高い照合が可能になる。ここでは代表点を特徴点の平均値としたが、代表点の求め方は本方法に限定されず、他の方法でも良い。なお、図15で点線で囲んだ特徴点と図16において実践で囲んだ特徴点は互いに対応している。
図16は、片方の移動体の特徴量がある一方向の特徴量しか持たず、他方は二方向の特徴量を有し、かつそれぞれの方向での特徴量が大きく異なる場合における、従来と本発明の実施形態の照合方法の違いを示す。従来の場合、全ての向きに対応した特徴点の集合の代表点3111,3211での照合を行うが、本発明の実施形態では、同じ向きの特徴点の代表点3112,3211での照合を行うことが可能なため、照合精度が向上する。なお、図16においては、便宜上従来と本実施形態の場合を同じ図に示したため、同じ向きの特徴点を実線で囲んでいるが、言うまでも無く、従来においては向きの違いは検出されていない。
図17は、移動体照合部4における照合方法の流れを示すフローチャートである。まず、ステップ41では、異なる画像入力部間で等しい向きの特徴量組があるか否かを判定し、等しい向きの特徴量組が存在すればステップ42の処理を実行し、等しい向きの特徴量組が存在しなければステップ47の処理を実行する。ステップ47では、従来と同様に存在する向き全ての特徴量に対する代表点間の距離で照合を行う処理や、照合処理を行わないなどの処理を不一致処理として行う。ステップ42では、ステップ41によって選択された特徴量組が一組であるか否かを判定する。一組であればステップ43の処理を実行し、その特徴量組の代表点間の距離を算出して、さらにステップ46の照合処理を実行する。二組以上である場合は、ステップ44において、その全ての組で代表点間の距離を求め、次にステップ45で代表点間の距離の最大値を算出して、さらにステップ46で照合処理を行う。これにより、同じ向きの特徴量が存在する場合にその同じ向きの特徴量同士で照合を行うことが可能となるため、照合精度が高くなり、移動体を追跡する際の追跡精度が向上する。
本実施形態では、同じ向きの特徴量を比較しているが、対称な向きの特徴量同士、例えば左向きの特徴量と右向きの特徴量を照合しても良い。
図18は、移動体追跡部5による追跡結果の表示例である。移動体照合部4で同じ移動体であると照合された向き付き特徴量の基になった画像を取得した画像入力部すなわちカメラが、カメラ1,2,3,4であることが表示されている。これは、同じ移動体51がこれらのカメラの設置場所に現れたことを示している。さらに、向き付き特徴量に対応する時刻データを用いて、カメラ1〜4において同じ移動体の画像が取得された時刻的順番を矢印で表示している。すなわち、移動体51が、カメラ2の設置場所からカメラ1の設置場所へ移動し、その後、カメラ3の設置場所,カメラ4の設置場所の順に移動していることが追跡されている。なお、本表示例においては、カメラの設置階床(1F,2F)も表示している。さらに、同じ移動体であると照合された向き付き特徴量の基になった複数フレームの画像の内の代表的な画像を各カメラ毎に表示している。これらの画像は、図1では図示されていない、ハードディスクなどの画像格納部に記録されている。
上述した実施形態では、移動体を人物としたが、人物に限らず動物や車両など他の移動体にも本発明による移動体追跡装置は適用できる。
上述した実施形態に限らず、本発明の技術的思想の範囲内で、種々の変形例が可能である。
1…画像入力部、2…画像処理部、3…特徴量格納部、4…移動体照合部、5…移動体追跡部、21…移動体抽出部、22…移動体向き検出部、23…移動体領域分割部、24…特徴量抽出部、25…特徴量/向き統合部。
Claims (6)
- 移動体の画像によって移動体を追跡する移動体追跡装置において、
移動体の画像を取得する複数の画像入力部と、
取得された前記画像から移動体の向きと特徴量を検出し、前記向きと前記特徴量を統合したデータを作成する画像処理部と、
前記データを格納するデータ格納部と、
格納された前記データの内、前記向きが同一あるいは対称のデータの前記特徴量から、同一移動体であるか否かを照合する照合部と、
前記照合部による照合結果に基づいて同一移動体を追跡する追跡部と、
を備えることを特徴とする移動体追跡装置。 - 請求項1において、前記画像入力部は所定のフレーム間隔で複数フレームの画像を取得し、前記画像処理部は、前記複数フレームの内の一のフレームと他のフレーム間において前記移動体が移動した方向に基づいて前記向きを検出することを特徴とする移動体追跡装置。
- 請求項1において、前記画像入力部は所定のフレーム間隔で複数フレームの画像を取得し、前記画像処理部は前記複数のフレームの各々について前記移動体の前記向きと前記特徴量を検出し、前記データ格納部には向きごとに前記特徴量の集合が格納されることを特徴とする移動体追跡装置。
- 請求項1ないし3のいずれか1項において、前記照合部は、同一あるいは対称の向きの特徴量がなかった場合には不一致処理を行うことを特徴とする移動体追跡装置。
- 請求項1ないし4のいずれか1項において、前記画像処理部は、前記移動体の画像を複数の領域に分割し、前記複数の領域の各々について前記特徴量を検出し、前記データ格納部には前記領域数に等しい次元のデータとして前記特徴量が格納されることを特徴とする移動体追跡装置。
- 請求項1において、
前記画像入力部は所定のフレーム間隔で複数フレームの画像を取得し、
前記画像処理部は前記複数のフレームの各々について前記移動体の前記向きを検出し、かつ前記移動体の画像を複数の領域に分割し、前記複数の領域の各々について前記特徴量を検出し、
前記データ格納部には、前記画像入力部ごとに、かつ同じ向きごとに、前記領域数に等しい次元のデータとして前記特徴量の集合が格納され、
前記照合部は、前記次元の特徴量空間において、異なる画像入力部の、前記向きが同一あるいは対称の前記特徴量の前記集合間の距離に基づいて同一の移動体であるか否かを照合することを特徴とする移動体追跡装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006207335A JP2008035301A (ja) | 2006-07-31 | 2006-07-31 | 移動体追跡装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006207335A JP2008035301A (ja) | 2006-07-31 | 2006-07-31 | 移動体追跡装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008035301A true JP2008035301A (ja) | 2008-02-14 |
Family
ID=39124243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006207335A Pending JP2008035301A (ja) | 2006-07-31 | 2006-07-31 | 移動体追跡装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008035301A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010058703A1 (ja) * | 2008-11-18 | 2010-05-27 | 株式会社 明電舎 | 画像処理による通過列車撮影装置 |
JP2013210845A (ja) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | 移動物体照合装置 |
JP2014048711A (ja) * | 2012-08-29 | 2014-03-17 | Toshiba Corp | 地上移動体経路導出装置 |
JP2014192700A (ja) * | 2013-03-27 | 2014-10-06 | Panasonic Corp | 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法 |
JP2015002547A (ja) * | 2013-06-18 | 2015-01-05 | 富士通株式会社 | 画像処理装置、プログラム、および画像処理方法 |
JP2019028577A (ja) * | 2017-07-27 | 2019-02-21 | 日本電信電話株式会社 | 動物種別判定装置、方法およびプログラム |
US10672133B2 (en) | 2016-11-18 | 2020-06-02 | Kabushiki Kaisha Toshiba | Moving object tracking device, display device, and moving object tracking method |
US11429985B2 (en) | 2017-03-21 | 2022-08-30 | Kabushiki Kaisha Toshiba | Information processing device calculating statistical information |
-
2006
- 2006-07-31 JP JP2006207335A patent/JP2008035301A/ja active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010058703A1 (ja) * | 2008-11-18 | 2010-05-27 | 株式会社 明電舎 | 画像処理による通過列車撮影装置 |
JP2010124084A (ja) * | 2008-11-18 | 2010-06-03 | Meidensha Corp | 画像処理による通過列車撮影装置 |
JP2013210845A (ja) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | 移動物体照合装置 |
JP2014048711A (ja) * | 2012-08-29 | 2014-03-17 | Toshiba Corp | 地上移動体経路導出装置 |
JP2014192700A (ja) * | 2013-03-27 | 2014-10-06 | Panasonic Corp | 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法 |
US10445887B2 (en) | 2013-03-27 | 2019-10-15 | Panasonic Intellectual Property Management Co., Ltd. | Tracking processing device and tracking processing system provided with same, and tracking processing method |
JP2015002547A (ja) * | 2013-06-18 | 2015-01-05 | 富士通株式会社 | 画像処理装置、プログラム、および画像処理方法 |
US10672133B2 (en) | 2016-11-18 | 2020-06-02 | Kabushiki Kaisha Toshiba | Moving object tracking device, display device, and moving object tracking method |
US11429985B2 (en) | 2017-03-21 | 2022-08-30 | Kabushiki Kaisha Toshiba | Information processing device calculating statistical information |
JP2019028577A (ja) * | 2017-07-27 | 2019-02-21 | 日本電信電話株式会社 | 動物種別判定装置、方法およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11360571B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
KR101971866B1 (ko) | 동화상에 있어서 물체를 검출하는 방법 및 장치, 및 그 프로그램을 기억한 기억 매체 | |
US10212324B2 (en) | Position detection device, position detection method, and storage medium | |
US8588466B2 (en) | Object area detection system, device, method, and program for detecting an object | |
CN106326832B (zh) | 基于物体区域处理图像的装置及方法 | |
JP5484184B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2008035301A (ja) | 移動体追跡装置 | |
CN103391424B (zh) | 分析监控摄像机捕获的图像中的对象的方法和对象分析器 | |
US20190258852A1 (en) | Image processing apparatus, image processing system, image processing method, and program | |
US10762372B2 (en) | Image processing apparatus and control method therefor | |
US20190384969A1 (en) | Image processing apparatus, image processing system, image processing method, and program | |
JP2021108193A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2008288684A (ja) | 人物検出装置及びプログラム | |
US11544926B2 (en) | Image processing apparatus, method of processing image, and storage medium | |
CN116261742A (zh) | 信息处理装置及信息处理方法 | |
JP2004094518A (ja) | 人物追跡装置、人物追跡方法及びプログラム | |
EP3441938A1 (en) | Image recognition device and image recognition program | |
JP2005025568A (ja) | 頭部領域抽出装置 | |
JP5217917B2 (ja) | 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム | |
JP4812743B2 (ja) | 顔認識装置、顔認識方法、顔認識プログラムおよびそのプログラムを記録した記録媒体 | |
JP2020106970A (ja) | 人検出装置および人検出方法 | |
JP2004046565A (ja) | 動物体のエッジ画像取得方法 | |
JP2005275915A (ja) | 画像認識装置及び画像認識方法 | |
JP2005275916A (ja) | 画像認識装置及び画像認識方法 | |
KR20160147512A (ko) | 전경 추출 방법 및 장치 |