JP6344953B2 - 軌跡解析装置および軌跡解析方法 - Google Patents

軌跡解析装置および軌跡解析方法 Download PDF

Info

Publication number
JP6344953B2
JP6344953B2 JP2014078580A JP2014078580A JP6344953B2 JP 6344953 B2 JP6344953 B2 JP 6344953B2 JP 2014078580 A JP2014078580 A JP 2014078580A JP 2014078580 A JP2014078580 A JP 2014078580A JP 6344953 B2 JP6344953 B2 JP 6344953B2
Authority
JP
Japan
Prior art keywords
trajectory
pair
reverse
start point
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014078580A
Other languages
English (en)
Other versions
JP2015201005A (ja
Inventor
川口 京子
京子 川口
大気 関井
大気 関井
雅基 田靡
雅基 田靡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2014078580A priority Critical patent/JP6344953B2/ja
Priority to EP15161617.4A priority patent/EP2930690B1/en
Priority to US14/675,878 priority patent/US9477887B2/en
Publication of JP2015201005A publication Critical patent/JP2015201005A/ja
Application granted granted Critical
Publication of JP6344953B2 publication Critical patent/JP6344953B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、コンピュータビジョンアプリケーションに関し、特に、映像に対する移動体追跡処理の結果を解析する軌跡解析装置および軌跡解析方法に関する。
近年、映像を構成する時系列のフレームのそれぞれから移動体を抽出することにより、映像における移動体の移動を追跡する処理(以下「移動体追跡処理」という)が、様々な分野で活用されている。
移動体追跡処理は、通常、直前までのフレームで抽出された移動体の画像特徴および位置に基づいて、次のフレームにおいて移動体を探索する。このような移動体追跡処理は、高い精度で移動体を追跡することが可能である一方で、誤差が蓄積し、軌跡の出発点からの移動距離が長くなるほど追跡精度が低下し易い、特徴を有する。
そこで、映像の先頭から時間軸の順方向に沿って移動体追跡処理を行うとともに、映像の終了点から時間軸の逆方向に沿って移動体追跡処理を行うことにより、追跡精度の向上を図る技術が、例えば、特許文献1に記載されている。
特許文献1に記載の技術(以下「従来技術」という)は、複数の移動体追跡処理のアルゴリズムの中から1つを選択し、時間軸の順方向と逆方向の双方で移動体追跡処理を行う。そして、従来技術は、得られた順方向軌跡と逆方向軌跡との差異が大きい場合、移動体追跡処理のアルゴリズムを変更して、再度、移動体追跡処理を行う。
このような従来技術は、追跡精度の誤差がより蓄積しにくい、つまり、追跡対象の移動体により適した移動体追跡処理のアルゴリズムを用いることができるので、追跡精度を向上させることが可能である。
特開2008−243187号公報
Q. Zhu, M.-C. Yeh, K.-T. Cheng, and S. Avidan, "Fast human detection using a cascade of histograms of oriented gradients", IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2006, vol.2, p.1491-1498 K. Nummiaro, E. Koller-Meier, L. Van Gool, "An Adaptive Color-Based Particle Filter", Image and Vision Computing, 2003, vol.21, No.1, p.99-110
しかしながら、移動体追跡処理のアルゴリズムを変化させたとしても、追跡精度が所定のレベルに到達しない場合もある。例えば、動きの速度あるいは自由度が高い移動体や、外観の変化が著しい移動体の場合、追跡精度の向上は難しい。すると、従来技術では、追跡精度が所定のレベルに到達しない場合、移動体の軌跡を出力することができないか、出力したとしても、時間軸に対して一方向に出力した場合の追跡結果の確からしさを示す情報しか出力することしかできない。すなわち、従来技術は、追跡精度が低い場合、移動体追跡処理の結果として、有意性の高い情報を出力することができない。
本発明の目的は、追跡精度が低い場合であっても、移動体追跡処理の結果として有意性の高い情報を出力することができる、軌跡解析装置および軌跡解析方法を提供することである。
本開示の軌跡解析装置は、映像を入力する映像入力部と、前記映像に対し、順方向軌跡の開始位置である順方向開始点と、逆方向軌跡の開始位置である逆方向開始点と、を設定する開始位置設定部と、前記映像に対し、前記順方向開始点に位置する移動体について、時間軸の順方向に沿って移動体追跡処理を行って前記順方向軌跡を生成し、前記映像に対し、前記逆方向開始点に位置する移動体について、前記時間軸の逆方向に沿って移動体追跡処理を行って前記逆方向軌跡を生成する追跡部と、前記時間軸における時刻毎に、当該時刻における前記順方向軌跡と前記逆方向軌跡との間の距離を算出する距離算出部と、前記順方向軌跡および前記逆方向軌跡の少なくとも一方が複数存在する場合において、前記距離に応じて算出される相関度に応じて、同一の移動体に対応する可能性が高い前記順方向軌跡と前記逆方向軌跡とのペアを決定するマッチング部と、決定された前記ペアの前記順方向軌跡と前記逆方向軌跡とを統合して、統合軌跡を生成する軌跡統合部と、前記統合軌跡を出力する結果出力部と、を有する。
本開示の軌跡解析方法は、映像を入力し、順方向軌跡の開始位置である順方向開始点と、逆方向軌跡の開始位置である逆方向開始点と、を設定し、前記映像に対し、前記順方向開始点に位置する移動体について、時間軸の順方向に沿って移動体追跡処理を行って前記順方向軌跡を生成し、前記映像に対し、前記逆方向開始点に位置する移動体について、前記時間軸の逆方向に沿って移動体追跡処理を行って前記逆方向軌跡を生成し、前記時間軸における時刻毎に、当該時刻における前記順方向軌跡と前記逆方向軌跡との間の距離を算出し、前記順方向軌跡および前記逆方向軌跡の少なくとも一方が複数存在する場合において、前記距離に応じて算出される相関度に応じて、同一の移動体に対応する可能性が高い前記順方向軌跡と前記逆方向軌跡とのペアを決定し、決定された前記ペアの前記順方向軌跡と前記逆方向軌跡とを統合して、統合軌跡を生成し、前記統合軌跡を出力する。
本開示によれば、追跡精度が低い場合であっても、移動体追跡処理の結果として有意性の高い情報を出力することができる。
本発明の実施の形態1に係る軌跡解析装置の構成を示すブロック図 本発明の実施の形態2に係る軌跡解析装置の構成の一例を示すブロック図 本実施の形態2にかかる軌跡解析装置の動作の一例を示すフローチャート 本実施の形態2における順方向軌跡の取得の様子の一例を示す図 本実施の形態2における逆方向軌跡の取得の様子の一例を示す図 本実施の形態2における軌跡間の距離を説明するための図 本実施の形態2におけるペア抽出処理の詳細の一例を示すフローチャート 本実施の形態2において抽出されるペア候補A、Bの例およびその過程を示す図 本実施の形態2において抽出されるペア候補Cの例およびその過程を示す図 本実施の形態2において抽出されるペア候補Dの例およびその過程を示す図 本実施の形態2における順方向軌跡と逆方向軌跡との統合の様子を示す図 本実施の形態2における軌跡表示画像および動線表示映像の例を示す図 本実施の形態2における付加情報生成処理の一例を示すフローチャート 本実施の形態2において生成される付加情報の例およびその過程を示す図
以下、本発明の各一実施の形態について、図面を参照して詳細に説明する。
(実施の形態1)
本発明の実施の形態1は、本発明の基本的態様の一例である。
図1は、本実施の形態に係る軌跡解析装置の構成を示すブロック図である。
図1において、軌跡解析装置100は、マッチング部150および結果出力部170を有する。
マッチング部150は、映像に対して時間軸の順方向に沿って移動体追跡処理を行った結果である順方向軌跡と、映像に対して時間軸の逆方向に沿って移動体追跡処理を行った結果である逆方向軌跡との間の、相関度を算出する。
結果出力部170は、算出された相関度に応じた信頼度と、当該信頼度に対応する、順方向軌跡、逆方向軌跡、および、これらの軌跡を統合した統合軌跡のうち、少なくとも1つの軌跡と、の組を示す軌跡情報を出力する。
軌跡解析装置100は、図示しないが、例えば、CPU(Central Processing Unit)、制御プログラムを格納したROM(Read Only Memory)等の記憶媒体、およびRAM(Random Access Memory)等の作業用メモリを有する。この場合、上記した各部の機能は、CPUが制御プログラムを実行することにより実現される。
このような軌跡解析装置100は、追跡精度が低い場合であっても、軌跡とその信頼度との組という、移動体追跡処理の結果として有意性の高い情報を出力することができる。
(実施の形態2)
本発明の実施の形態2は、本発明を、複数の移動体についての移動体追跡処理の結果を解析する装置に適用した場合の、具体的態様の一例である。
<軌跡解析装置の構成>
図2は、本実施の形態に係る軌跡解析装置の構成の一例を示すブロック図である。
図2において、軌跡解析装置100は、映像入力部110、開始位置設定部120、追跡部130、距離算出部140、マッチング部150、軌跡統合部160、および結果出力部170を有する。
映像入力部110は、時系列のフレームから成る所定の長さの映像データ(以下、単に「映像」という)を入力する。映像入力部110は、デジタルビデオカメラから直接に映像を入力してもよいし、記録媒体から映像を読み出してもよいし、ネットワーク上のサーバから映像を受信してもよい。あるいは、映像入力部110が、デジタルビデオカメラを含んでいてもよい。そして、映像入力部110は、入力した映像を、開始位置設定部120へ出力する。
開始位置設定部120は、入力された映像に対し、順方向軌跡の開始位置である順方向開始点と、逆方向軌跡の開始位置である逆方向開始点とを設定する。順方向開始点および逆方向開始点の位置は、映像の時間軸における最初のフレーム(以下「先頭フレーム」という)および最後のフレーム(以下「末尾フレーム」という)に対する画像解析処理により設定されてもよいし、ユーザ操作により設定されてもよい。そして、開始位置設定部120は、入力された映像と、設定された順方向開始点および逆方向開始点を示す情報とを、追跡部130へ出力する。
ここで、順方向軌跡とは、映像に対して時間軸の順方向に沿って、後述の移動体追跡処理を行った結果である。すなわち、順方向開始点とは、先頭フレームにおける、追跡対象となる移動体の位置である。
また、逆方向軌跡とは、映像に対して時間軸の逆方向に沿って、後述の移動体追跡処理を行った結果である。すなわち、逆方向開始点とは、末尾フレームにおける、追跡対象となる移動体の位置である。
なお、映像に含まれる移動体が複数の場合、複数の順方向開始点および複数の逆方向開始点が設定され得る。また、設定される順方向開始点と逆方向開始点とは、必ずしも同一の移動体であるとは限らない。
追跡部130は、入力された情報が示す順方向開始点毎に、入力された映像に対して時間軸の順方向に沿って移動体追跡処理を行い、順方向軌跡を生成する。すなわち、追跡部130は、先頭フレームにおいて順方向開始点に位置する移動体を、時間軸の順方向に沿って追跡する(以下「順追跡」という)。また、追跡部130は、入力された情報が示す逆方向開始点毎に、入力された映像に対して時間軸の逆方向に沿って移動体追跡処理を行い、逆方向軌跡を生成する。すなわち、追跡部130は、末尾フレームにおいて逆方向開始点に位置する移動体を、時間軸の逆方向に沿って追跡する(以下「逆追跡」という)。そして、追跡部130は、生成された順方向軌跡および逆方向軌跡を示す情報を、距離算出部140へ出力する。
なお、設定された順方向開始点が複数の場合、複数の順方向軌跡が生成され、逆方向開始点が複数の場合、複数の逆方向軌跡が生成される。
距離算出部140は、入力された情報が示す順方向軌跡と逆方向軌跡との組み合わせ(以下「軌跡組み合わせ」という)のそれぞれについて、映像の時間軸(つまり、順方向軌跡および逆方向軌跡の時間軸)における時刻毎に、当該時刻における順方向軌跡と逆方向軌跡との間の距離(以下、単に「距離」という)を算出する。そして、距離算出部140は、算出された距離と、当該距離が対応する軌跡組み合わせおよび時刻と、を示す情報を、マッチング部150へ出力する。
マッチング部150は、入力された情報に基づいて、軌跡組み合わせ毎に、順方向軌跡と逆方向軌跡との間の相関度を算出する。ここで、相関度とは、対応する軌跡組み合わせが同一の移動体についての順方向軌跡および逆方向軌跡であることの確からしさであり、軌跡全体において同時刻の位置が近いほど高い値となる指標値である。相関度の算出手法の詳細については、後述する。
また、マッチング部150は、順方向軌跡および逆方向軌跡の少なくとも一方が複数存在する場合において、相関度に基づいて、同一の移動体に対応する可能性が高い順方向軌跡と逆方向軌跡とのペア(以下「軌跡ペア」という)を決定する。なお、マッチング部150は、順方向軌跡および逆方向軌跡の両方が1つずつしか存在しない場合、かかる順方向軌跡および逆方向軌跡についても、軌跡ペアとして決定してもよい。軌跡ペアの決定手法の詳細については、後述する。
そして、マッチング部150は、算出された相関度と、当該相関度が対応する軌跡組み合わせと、決定された軌跡ペアの軌跡組み合わせと、を示す情報を、軌跡統合部160へ出力する。
軌跡統合部160は、入力された情報が示す軌跡ペア毎に、当該軌跡ペアの順方向軌跡と逆方向軌跡とを統合して、統合軌跡を生成する。軌跡の統合手法の詳細については、後述する。そして、軌跡統合部160は、入力された相関度、軌跡組み合わせ、および軌跡ペアの軌跡組み合わせと、生成された統合軌跡と、を示す情報を、結果出力部170へ出力する。
結果出力部170は、入力された情報に基づき、相関度に応じた信頼度と、当該信頼度に対応する、順方向軌跡、逆方向軌跡、および統合軌跡(以下、適宜「軌跡」と総称する)のうち少なくとも1つの軌跡と、の組を示す軌跡情報を出力する。より具体的には、結果出力部170は、各軌跡を示した画像を軌跡情報として生成する。軌跡情報として生成される画像(以下「軌跡表示画像」という)は、複数の軌跡組み合わせが存在するとき、複数の軌跡の間の信頼度の差異を、画像における軌跡の表示形態の差異により表示する内容となっている。そして、結果出力部170は、例えば、生成された軌跡表示画像を、液晶ディスプレイやプロジェクタ等の表示装置へ出力して表示させたり、ファイル化してハードディスク等の記録媒体に保存させる。
なお、軌跡解析装置100は、図示しないが、例えば、CPU、制御プログラムを格納したROM等の記憶媒体、およびRAM等の作業用メモリを有する。この場合、上記した各部の機能は、CPUが制御プログラムを実行することにより実現される。
このような構成を有する軌跡解析装置100は、軌跡とその信頼度との組を含む軌跡情報を、画像化して表示することができる。
追跡精度が低い場合、同じ映像の同一の移動体を追跡対象としたとしても、順方向軌跡と逆方向軌跡との差異が十分に小さくなるとは限らず、信頼度の低い軌跡が生成され得る。しかしながら、各軌跡と併せて信頼度が出力されれば、各軌跡に応じて行われる処理や作業を、信頼度を考慮したものとすることができる。例えば、映像に重畳して、信頼度が分かる状態で各軌跡が表示されれば、それぞれの信頼度を比較考量することを可能にし、オペレータが各軌跡を確認する作業の負担を軽減することができる。
すなわち、軌跡解析装置100は、追跡精度が低い場合であっても、移動体追跡処理の結果として有意性の高い情報を出力することができる。
<軌跡解析装置の動作>
次に、軌跡解析装置100の動作について説明する。
図3は、軌跡解析装置100の動作の一例を示すフローチャートである。軌跡解析装置100は、例えば、マウスやキーボード等の入力装置(図示せず)を介したユーザ操作により、対象となる映像を指定して移動体追跡処理の開始を指示されると、以下に説明する処理を開始する。
ステップS1100において、映像入力部は、映像を入力する。入力される映像は、例えば、サッカーの試合を連続撮影した数秒〜数分間の映像である。この場合、追跡対象となる移動体は、例えば、サッカー選手である。
ステップS1200において、開始位置設定部120は、追跡対象となる1つまたは複数の移動体のそれぞれについて、順方向開始点を設定する。
例えば、開始位置設定部120は、液晶ディスプレイ等の表示装置(図示せず)に、先頭フレームの画像を表示し、入力装置を介して、ユーザから順方向開始点の位置の指定を受け付ける。あるいは、開始位置設定部120は、人領域検出処理により、先頭フレームから人領域を検出し、かかる領域の代表点を、順方向開始点とする。代表点としては、例えば、腰部の中央、頭部の中心、あるいは、領域に外接する矩形や円の重心を採用することができる。また、人領域検出処理としては、例えば、非特許文献1に記載の、HoG(Histograms of Oriented Gradients)特徴量を用いた識別器を用いる処理を採用することができる。
先頭フレームに対して設定される、i番目の移動体の順方向開始点を示す情報Psは、例えば(id,x,y)という3次元のデータとなる。ここで、idiは、順方向開始点が設定されたi番目の移動体の識別子であり、かかる移動体に対応して生成される順方向軌跡の識別子である。また、xは、i番目の移動体の位置の、映像に設定されたxy座標系(以下「映像座標系」という)における先頭フレームでのx座標値を示し、yは、i番目の移動体の位置の、映像座標系における先頭フレームでのy座標値を示す。
ステップS1300において、開始位置設定部120は、順方向開始点と同様に、末尾フレームを表示するなどして、移動体毎に逆方向開始点を設定する。
末尾フレームに対して設定される、j番目の移動体の逆方向開始点を示す情報Peは、例えば、(id,x,y)という3次元のデータとなる。ここで、idiは、逆方向開始点が設定されたj番目の移動体の識別子であり、かかる移動体に対応して生成される逆方向軌跡の識別子である。また、xは、j番目の移動体の位置の、映像座標系における末尾フレームでのx座標値を示し、yは、j番目の移動体の位置の、映像座標系における末尾フレームでのy座標値を示す。
ステップS1400において、追跡部130は、順方向開始点を示す情報Psに基づいて、各移動体について、順方向に移動体追跡処理を行い、順方向軌跡を生成する。
移動体追跡処理としては、例えば、特許文献1あるいは非特許文献2に記載の移動体追跡処理を採用することができる。すなわち、例えば、追跡部130は、先頭フレームにおいて、開始点を中心とした所定の楕円の領域について、色特徴量を抽出する。そして、追跡部130は、次のフレームにおいて、開始点付近で最も特徴量が類似している所定の形状(例えば、楕円や矩形)の領域を算出し、その領域の中心を、次のフレームの移動体の位置とする。色特徴量としては、例えば、RGB色情報を用いた、8×8×8の512次元からなるベクトルを採用することができる。
i番目の移動体の軌跡Pfitは、例えば、(t,x,y)という時系列の3次元データとなる。ここで、tは、映像の時間軸における時刻を示す。
ステップS1500において、追跡部130は、逆方向開始点を示す情報Peに基づいて、各移動体について、逆方向に移動体追跡処理を行い、逆方向軌跡を生成する。移動体追跡処理としては、例えば、特許文献1に記載の処理を採用することができる。
j番目の時刻tにおける移動体の軌跡Pfjtは、例えば、(t,x,y)という時系列の3次元データとなる。
なお、移動体追跡処理の処理アルゴリズムは、ステップS1400の順追跡とステップS1500の逆追跡との間で、あるいは、複数の移動体の間で、必ずしも同一でなくてもよい。
図4は、順方向軌跡の取得の様子の一例を示す図であり、図3のステップS1100、S1200、S1400に対応するものである。また、図5は、逆方向軌跡の取得の様子の一例を示す図であり、図3のステップS1100、S1300、S1500に対応するものである。
図4Aに示すように、先頭フレーム210には、5つの移動体211が含まれており、それぞれの移動体211の代表位置に順方向開始点が設定されたとする。すると、図4Bに示すように、これら5つの移動体211に、例えば、1〜5の整数が、順方向開始点の識別子idiとして設定される。そして、図4Cに示すように、それぞれの移動体211について、順方向軌跡212が生成される。
以下の説明において、適宜、識別子idi「1」の移動体211iに設定された順方向開始点は、「開始点1」といい、開始点1について算出された順方向軌跡は、「軌跡1」という。同様に、識別子idi「2」〜idi「5」に対応する順方向開始点および順方向軌跡は、順に、「開始点2」〜「開始点5」および「軌跡2」〜「軌跡5」という。
また、図5Aに示すように、末尾頭フレーム220には、5つの移動体221が含まれており、それぞれの移動体221の代表位置に逆方向開始点が設定されたとする。すると、図5Bに示すように、これら5つの移動体221に、例えば、a〜eのアルファベットが、逆方向開始点の識別子idとして設定される。そして、図5Cに示すように、それぞれの移動体221について、順方向軌跡222が生成される。
ここで、初期状態において、先頭フレーム210に含まれる各移動体211が、末尾フレーム220に含まれる移動体221のどれに対応するかは、不明であるものとする。すなわち、順方向開始点の識別子idiと、逆方向開始点の識別子idとは、独立しているものとする。
また、以下の説明において、適宜、識別子id「a」の移動体211に設定された逆方向開始点は、「開始点a」といい、開始点aについて算出された逆方向軌跡は、「軌跡a」という。同様に、識別子id「b」〜id「e」に対応する逆方向開始点および逆方向軌跡は、順に、「開始点b」〜「開始点e」および「軌跡b」〜「軌跡e」という。
なお、順方向軌跡である軌跡1〜軌跡5と、逆方向軌跡である軌跡a〜軌跡eとは、高精度に一致するとは限らない。すなわち、図4Cと図5Cとの違いにみられるように、順方向軌跡と逆方向軌跡との間には、差異が生じ得る。
図3のステップS1600において、距離算出部140は、軌跡組み合わせのそれぞれについて、各時刻の距離を算出する。
上述の例では、順方向軌跡が5つ、逆方向軌跡が5つであるため、例えば、距離の算出の対象となる時刻の個数(例えば、フレームの枚数)が100の場合、算出される距離の個数は、2500となる。
図6は、軌跡間の距離を説明するための図である。
軌跡1〜5(図4C参照)および軌跡a〜e(図5C参照)を重ねあわせると、図6Aのようになる。ここで、軌跡5と軌跡a〜eのみを抽出すると、図6Bのようになる。
図6Cにおいて、軌跡5のうち、ある時刻tに対応する部分の位置は、黒丸で示す231とする。この場合、軌跡a〜eのうち、同一の時刻tに対応する部分の位置は、白丸でしめす位置232〜232のようになる。距離算出部140は、例えば、位置231と、位置232〜232のそれぞれとの距離を算出する。
図6Cの例では、軌跡5上の位置231との間の距離が最小となるのは、軌跡a上の位置232である。また、軌跡5上の位置231との間の距離が最大となるのは、軌跡b上の位置232である。したがって、上述の時刻tにおける距離のみを参考した場合には、軌跡5と同一の移動体についての逆方向軌跡である可能性が最も高いのは、軌跡aであり、かかる可能性が最も低いのは、軌跡bということになる。
図3のステップS1700において、マッチング部150は、軌跡ペア抽出処理を行う。軌跡ペア抽出処理は、軌跡組み合わせ毎の距離を映像の全体について考慮して、軌跡ペアを抽出すると共に、各軌跡ペアの相関度を算出する処理である。
図7は、図3のステップS1700のペア抽出処理の詳細の一例を示すフローチャートである。また、図8〜図10は、ペア抽出処理において抽出されるペア候補の例およびその過程を示す図である。
なお、以下の説明において、ペア抽出処理は、上述の図6Aに示す、順方向軌跡1〜5および逆方向軌跡a〜eの軌跡群に対して行われるものとする。
ステップS1710において、マッチング部150は、映像全体における距離の総和が第1の閾値以下となる軌跡組み合わせを、ペア候補A(第1のペア)として抽出する。ペア候補Aは、つまり、映像の全体に亘って軌跡が似通っている軌跡組み合わせである。
なお、映像全体における距離の総和が第1の閾値以下となり、かつ、映像全体における距離の最大値が第2の閾値以下となる軌跡組み合わせを、ペア候補A(第1のペア)として抽出するようにしてもよい。このようにすることにより、妥当と思われるペア候補の絞込みを効率的に行うことができる。
例えば、図8Aに示すように、軌跡2と軌跡cとの組(以下「軌跡ペア2−c」という)、軌跡3と軌跡eとの組(以下「軌跡ペア3−e」という)、および、軌跡5と軌跡aとの組(以下「軌跡ペア5−a」という)が、それぞれ、ペア候補Aとして抽出される。
図7のステップS1720において、マッチング部150は、ペア候補A以外で、距離が第3の閾値以下の区間が第4の閾値以上の時間(フレーム数、距離データ数)に亘って連続する軌跡組み合わせを、ペア候補B(第2のペア)として抽出する。ペア候補Bは、つまり、映像の全体ではないものの、比較的長い時間に亘って、軌跡が似通っている軌跡組み合わせである。
例えば、図8Bおよび図8Cに示すように、軌跡1と軌跡dとの組(以下「軌跡ペア1−d」という)、および、軌跡4と軌跡eとの組(以下「軌跡ペア4−e」という)が、それぞれ、ペア候補Bとして抽出される。
図7のステップS1730において、マッチング部150は、ペア候補Aおよびペア候補Bに対応する順方向開始点および逆方向開始点(以下、適宜「開始点」と総称する)の中から、ペア候補Aとペア候補Bとの両方に含まれる開始点が存在するか否かを判断する。そして、かかる開始点が存在する場合、マッチング部150は、その開始点を抽出し、ペア候補Aおよびペア候補Bから、抽出された開始点が含まれる軌跡ペアを除いた軌跡ペアを、ペア候補Cとして抽出する。
ペア候補Aあるいはペア候補Bを構成する軌跡のうち、開始点が重複している軌跡は、追跡途中で、別の移動体を追跡対象として誤認識してしまった結果である可能性が高い。したがって、ペア候補Cは、つまり、追跡対象の乗り移りが発生した可能性が低い軌跡ペアである。
例えば、図9Aに示すように、ペア候補Aあるいはペア候補Bを構成する軌跡ペア群は、軌跡ペア1−d、2−c、3−e、4−e、5−aとなる。ここで、図8Aと図8Bおよび図8Cとの比較から明らかなように、逆方向開始点eが、ペア候補Aとペア候補Bとの両方に含まれている。したがって、図9Bに示すように、ペア候補Cは、図9Aに示す軌跡ペア群のうち軌跡ペア3−e、4−e以外のもの、つまり、軌跡ペア1−d、2−c、5−aとなる。
図7のステップS1740において、マッチング部150は、映像全体におけるいずれかの時刻において、複数の順方向軌跡の間、あるいは、複数の逆方向軌跡の間で、他の軌跡との距離が第5の閾値以下となる軌跡が存在するか否かを判断する。そして、マッチング部150は、距離が第5の閾値以下となる軌跡が存在する場合、当該軌跡を、軌跡Gとして抽出する。軌跡Gは、つまり、いずれかの時刻で近接した複数の移動体の間で、かかる時刻において追跡対象の入れ替えが発生した結果である可能性が高い軌跡である。
ステップS1750において、マッチング部150は、ペア候補Cから、軌跡Gに開始点が含まれる軌跡ペアを除いた軌跡ペアを、ペア候補Dとして抽出して、図3の処理へ戻る。ペア候補Dは、つまり、追跡対象の入れ替えが発生した可能性が低い軌跡ペアである。
例えば、図10Aに示すように、軌跡2と軌跡5、および、軌跡aと軌跡cが、それぞれ、ある時刻に対応する黒三角で示す位置241で、近接している。この場合、位置241で、移動体2と移動体5との間での追跡対象の入れ替わりや、移動体aと移動体cとの間での追跡対象の入れ替わりが発生している可能性がある。すなわち、図10Bおよび図10Cに示すように、軌跡ペア2−a、5−cの可能性についても、考慮する必要がある。
したがって、軌跡2、5、a、cが、軌跡Gとして抽出される。そして、軌跡ペアC(図9B参照)から、軌跡2、5、a、cを含む軌跡ペアを除外して得られるペア候補Dは、図10Dに示すように、軌跡ペア1−dのみとなる。
以上のペア抽出処理において、複数の軌跡組み合わせから、軌跡ペアA〜Dが抽出される。上述の通り、ペア候補Bは、映像の比較的長い区間で軌跡が似通っている軌跡組み合わせであり、ペア候補Aは、映像全体で軌跡が似通っている軌跡組み合わせである。そして、ペア候補Cは、ペア候補A、Bのうち、追跡対象の乗り移りが発生した可能性がより低い軌跡組み合わせである。更に、ペア候補Dは、ペア候補Cのうち、追跡対象の入れ替わりが発生した可能性がより低い軌跡組み合わせである。
すなわち、軌跡群は、ペア候補を構成する軌跡と、ペア候補を構成しない軌跡(以下「残りの軌跡」という)とに分けられる。そして、ペア候補群は、ペア候補D、ペア候補C(但しペア候補Dを除く)、ペア候補A(但しペア候補C、Dを除く)、およびペア候補B(但しペア候補C、Dを除く)に分けられる。また、これらのペア候補は、この順に、ペア候補を構成する順方向軌跡と逆方向軌跡との間の相関度が高いということになる。
なお、実用的には、ペア候補Dまで求めずに、ペア候補Cまで求めて、以下の統合軌跡の生成に移るようにしてもよい。映像の開始と終了を操作者がチェックすることが可能であることから、追跡対象の入れ替わりが発生したと認められる軌跡は、容易に削除等することができるためである。
図3のステップS1800において、軌跡統合部160は、軌跡ペア毎に、順方向軌跡と逆方向軌跡とを統合し、統合軌跡を生成する。軌跡統合部160は、例えば、順方向軌跡と逆方向軌跡との間の相関度が比較的高い、ペア候補C(およびペア候補D)を、統合対象となる軌跡ペアとする。
なお、移動体追跡処理では、上述の通り、誤差が処理の経過とともに蓄積し得る。このため、各軌跡は、開始点から時間的により近い部分ほど、信頼度がより高く、開始点から時間的により遠い部分ほど、信頼度がより低いといえる。このため、軌跡統合部160は、各軌跡のうちその開始点により近い部分ほど、より高い重み付けをして、統合軌跡を生成する。
図11は、順方向軌跡と逆方向軌跡との統合の様子を示す図である。
例えば、軌跡統合部160は、図11Aに示す、軌跡5(順方向軌跡212)と軌跡a(逆方向軌跡222)とを統合する、この場合、軌跡統合部160は、映像の時間軸の中央に当たる時刻tよりも前の時刻については、軌跡5を抽出し、時刻t以降の時刻については、軌跡aを抽出する。そして、軌跡統合部160は、図11Bに示すように、抽出した軌跡5の前半部分と軌跡aの後半部分とを、時刻tで接続することにより、統合軌跡251を生成する。
なお、軌跡統合部160は、例えば、より滑らかな多段階の重み付けを行うことにより、より滑らかな統合軌跡を生成することができる。
図3のステップS1900において、結果出力部170は、各軌跡とその信頼度とを含む軌跡情報を出力して、一連の処理を終了する。
例えば、結果出力部170は、各軌跡を、それぞれの信頼度が分かる状態で描画した軌跡表示画像を生成し、表示装置へ出力する。あるいは、結果出力部170は、移動体が軌跡に沿って移動した場合における、移動体の動線を示す映像を、それぞれの軌跡の信頼度が分かる状態で描画した動線表示映像を生成し、表示装置へ出力する。
図12は、結果出力部170が生成する軌跡表示画像および動線表示映像の例を示す図である。
結果出力部170は、例えば、図12Aに示すような軌跡表示画像260を生成する。軌跡表示画像260は、相関度が高い軌跡ペアのそれぞれから生成された軌跡261を含む。なお、図12Aでは、開始点とその識別子を図示しているが、これらは必ずしも表示されなくてもよい。
ここで、軌跡ペア1−dの統合軌跡1−d(軌跡261)は、軌跡ペア2−cの統合軌跡2−c(軌跡261)や、軌跡ペア5−aの統合軌跡5−a(軌跡261)よりも、太い線で描かれている。これは、ペア候補Dである軌跡ペア1−dは、ペア候補Cであるり、軌跡ペア2−c、5−aよりも、信頼度が高いからである。そして、そのような信頼度が高い軌跡ペアから生成される統合軌跡も、信頼度が高いからである。
また、結果出力部170は、例えば、図12Bに示すような動線表示映像262を生成する。動線表示映像262は、例えば、再生中の映像に、軌跡261〜261の再生中の時刻の位置を示すマーカ263〜263を、重畳して表示する。各マーカ263は、対応する移動体の動線を示すことになる。
マーカ263は、映像の進行に伴って、統合軌跡をなぞるように移動する。統合軌跡が正しければ、マーカ263は移動体に正しく追従して移動し、統合軌跡が誤っていれば、マーカ263は移動体に正しく追従せず、離れたり、別の移動体への追従を開始することになる。したがって、ユーザは、実際の映像を参考にしながら、移動体追跡処理の結果の正しさを確認することができる。
なお、信頼度の差異は、線の太さ、マーカの大きさや形状、線あるいはマーカの色、輝度、点滅の有無、表示タイミングの差異等、様々な表示形態の差異によって示すことができる。
また、結果出力部170は、ペア候補Dの統合軌跡、ペア候補Cの統合軌跡、ペア候補Aの統合軌跡、ペア候補Bの統合軌跡、および残りの軌跡のそれぞれに、軌跡の信頼度を示す5段階の指標値Vを付与してもよい。この場合、軌跡の信頼度は、例えば、追跡成功(V=1)、追跡成功の可能性が高い(V=2)、追跡成功の可能性が低い(V=3)、追跡失敗の可能性あり(V=4)、および追跡失敗(V=5)のいずかを示す内容となる。
また、結果出力部170は、フレーム毎に、指標値Vを表す画像を、対応する移動体の位置に重畳して表示してもよい。例えば、結果出力部170は、移動体の腰の位置に、指標値Vに応じた色の丸印(○)を表示する。指標値V=1〜4に対応する色は、例えば、順に、青、緑、黄色、赤である。これにより、ユーザは、追跡結果のそれぞれがどの程度の信用することができるかを、容易に判定することができる。
<付加情報生成処理>
なお、軌跡統合部160は、ペア候補C、D以外の軌跡(以下「低信頼度の軌跡」という)についても、出力の対象としてもよい。また、軌跡統合部160は、低信頼度の軌跡について、各時刻における正しい追跡結果としての尤もらしさ(以下「追跡尤度」という)を算出し、低信頼度の軌跡と当該軌跡に対応する追跡尤度に基づく優先度との組(以下「付加情報」という)を、出力してもよい。
図13は、付加情報生成処理の一例を示すフローチャートである。軌跡解析装置100は、例えば、図3のステップS1900の処理の後に、ユーザによる付加情報表示を指示する操作が行われると、以下に説明する付加情報生成処理を実行する。また、図14は、付加情報生成処理において生成される付加情報の例およびその過程を示す図である。
ステップS2100において、軌跡統合部160は、低信頼度の軌跡を抽出する。
例えば、図14Aに示すように、軌跡3、4、b、eが、低信頼度の軌跡として抽出される。
図13のステップS2200において、軌跡統合部160は、順方向軌跡毎、および、時刻t毎に、他の全ての順方向軌跡との間の距離の最小値(以下「最短距離d」という)を算出する。
最短距離dが小さい部分ほど、複数の移動体が至近距離で位置し、軌跡追跡が失敗している可能性が高い。また、最短距離dが小さいほど、追跡対象の乗り移りや入れ替わりが既に発生してしまっている可能性が高い。
ステップS2300において、軌跡統合部160は、最短距離dに基づいて、追跡尤度pを算出する。
例えば、軌跡統合部160は、最短距離dが第6の閾値n(正の定数)以下のとき、第iの軌跡の時刻tの部分の追跡尤度pを、以下の式(1)で表される値とする。また、軌跡統合部160は、最短距離dが第6の閾値nを超えているとき、第iの軌跡の時刻tの部分の追跡尤度pを、以下の式(2)で表される値とする。
= d/n (if d < n) ・・・(1)
= 1 (if d ≧ n) ・・・(2)
すなわち、追跡尤度pは、ある一定の距離内において、最短距離dが大きいほど大きい値となり、上記一定の距離以上において、固定の最大値「1」となる。
例えば、図14Bに示すように、軌跡3の後半は、軌跡1、軌跡4、および軌跡5との距離が短い。また、軌跡4の後半は、軌跡1、軌跡3、および軌跡5との距離が短い。したがって、軌跡3、4の追跡尤度pは、斜線で示す領域271において、低い値となる。
また、例えば、図14Cに示すように、軌跡bの後半と軌跡eの後半との距離は、短い。近くなっている。また、軌跡4の後半は、軌跡1、軌跡3、および軌跡5との距離が短い。したがって、軌跡b、eの追跡尤度pは、斜線で示す領域272において、低い値となる。
図13のステップS2400において、軌跡統合部160は、算出された軌跡毎および時刻毎の追跡尤度pに基づいて、信頼度の低い軌跡のそれぞれの優先度を決定する。ここで、優先度とは、信頼度が低いほどより低くなる指標値であり、例えば、ユーザへの提示の優先度に相当する。
ステップS2400で、軌跡統合部160は、初期位置ごとに、ステップS2300で算出した追跡尤度pを用いて、軌跡の優先度を算出する。例えば、軌跡統合部160は、映像全体での追跡尤度pの総和(以下「追跡尤度総和」という)Sが大きい順に、各軌跡の優先度をつける。
例えば、図14Dに示す軌跡3、軌跡b、および軌跡eの間では、軌跡bの追跡尤度総和Sが最も高く、次いで、軌跡eの追跡尤度総和Sが高く、軌跡3の追跡尤度総和Sが最も低くなる。
なお、軌跡統合部160は、追跡尤度総和Sが等しい複数の軌跡の間において、ペア候補Aおよびペア候補Bの両方に含まれる開始点を含まない軌跡や、開始点における最短距離dがより小さい軌跡に対して、より高い優先度を設定してもよい。
また、軌跡統合部160は、開始点毎に、軌跡情報に基づき、新たな軌跡の候補を生成してもよい。
例えば、図14Eに示すように、軌跡bは、ある時刻に対応する菱形で示す位置273で、軌跡dと近接している。この場合、図10で説明したように、追跡対象の乗り移りや入れ替えが発生した可能性がある。そこで、軌跡統合部160は、例えば、図14Fに示すように、軌跡bの後半と軌跡dの前半とを接続して、新たな軌跡274を生成する。
なお、軌跡統合部160は、新たに生成された軌跡274の優先度は、軌跡eの優先度よりも低く設定してもよい。または、軌跡274の追跡尤度総和Sを算出し、軌跡3、b、e、274に対して、追跡尤度総和Sの高いものから順に優先度が高くなるように、優先度の設定し直しをしてもよい。
ステップS2500において、軌跡統合部160は、低信頼度の軌跡(新たに生成されたものを含む)と優先度とを組み付けて、付加情報を生成する。そして、結果出力部170は、生成された付加情報を、例えば表示装置に出力して、一連の処理を終了する。
例えば、結果出力部170は、図12で示した軌跡表示画像260あるいは動線表示映像262と同様の、軌跡と当該軌跡の優先度を示す情報とを表示する画像(映像)を、生成して表示させる。あるいは、結果出力部170は、軌跡統合部160は、ユーザ操作を受けて優先度の高いものから順に切り替えながら、軌跡と当該軌跡の優先度を示す情報とを表示する画像(映像)を順次表示させる。
また、結果出力部170は、時刻毎の追跡尤度pを、軌跡の該当部分に対応付けて表示してもよい。例えば、結果出力部170は、軌跡の各部を、追跡尤度pに反比例させた太さの線で示す。この場合、軌跡の線の太さが太いほど、追跡失敗の可能性が高いことを示している。したがって、ユーザは、軌跡の各部の追跡失敗の可能性の度合い、つまり信頼度を、直感的に把握することができる。
なお、結果出力部170は、ステップS2500において、付加情報を生成して保存しておくだけでもよい。保存された付加情報は、例えば、後から読み出して出力することができる。
このような付加情報生成処理により、軌跡解析装置100は、低信頼度の軌跡についても、それぞれの信頼度に対応した情報と共に出力することができ、移動体追跡処理の結果として有意性の高い情報を更に出力することができる。
なお、軌跡解析装置100は、ペア候補C、Dの軌跡あるいは統合軌跡についても、追跡尤度pを算出し、軌跡と追跡尤度pとを対応付けた情報を出力してもよい。
また、追跡尤度p差異は、線の太さ、マーカの大きさ、線あるいはマーカの色、輝度、点滅の有無、表示タイミングの差異等、様々な表示形態の差異によって示すことができる。
以上のような動作により、軌跡解析装置100は、各時刻における軌跡間の距離に基づいて、軌跡ペアを抽出すると共に、各軌跡ペアの確からしさ(信頼度)を判定することができる。これにより、軌跡解析装置100は、軌跡の誤マッチングの可能性を削減して、軌跡の確からしさについての判定精度を向上させることができる。
また、軌跡解析装置100は、各軌跡ペアの確からしさの判定結果を含めた軌跡情報を、出力することができる。これにより、軌跡解析装置100は、追跡精度が低い場合であっても、軌跡とその信頼度との組という、移動体追跡処理の結果として有意性の高い情報を出力することができる。
なお、上記第1〜第5の閾値は、実験等により予め定められた値であってもよいし、ユーザ操作等により可変の値であってもよい。
例えば、第1〜第3、および第5の閾値は、追跡対象の物体サイズに応じて(例えば、比例して)調整されることが望ましい。また、第4の閾値は、対象物体の速さや動きに応じて(例えば、比例して)調整されることが望ましい。また、各閾値は、ユーザの好みに応じて、厳しめに(より信頼性の高い軌跡ペアのみが抽出されるように)設定されてもよい。更に、各閾値は、移動体追跡処理の結果を確認するユーザの熟練度に応じて、設定さてもよい。例えば、軌跡の手入力による修正操作が苦手な初心者に対しては、軌跡の候補が多数提示されるように、第5の閾値は、緩目に(大き目に)設定されてもよい。
また、ステップS1200、S1300の処理順序、ステップS1400、S1500の処理順序、およびステップS1300、S1400の処理順序は、それぞれ、前後してもよい。また、ペア候補Cとペア候補Dとの間の信頼度の差異を出力しない場合、ステップS1740、S1750は、省略されてもよい。
<本実施の形態の効果>
以上説明したように、本実施の形態に係る軌跡解析装置100は、順方向軌跡と逆方向軌跡との間の相関度を算出し、相関度に応じた信頼度と、当該信頼度に対応する軌跡との組を示す軌跡情報を出力することができる。すなわち、軌跡解析装置100は、追跡精度が低い場合であっても、軌跡とその信頼度との組という、移動体追跡処理の結果として有意性の高い情報を出力することができる。
また、本実施の形態に係る軌跡解析装置100は、上記情報を、画像で表示し、例えば、映像に重畳して当該画像を表示する。これにより、ユーザは、移動体追跡処理の結果として得られた軌跡の妥当性の確認を、より効率的に行うことができる。
また、本実施の形態に係る軌跡解析装置100は、より信頼度が高い軌跡を優先的に出力対象として選択するので、精度がより高い軌跡を出力することができる。
<他の処理対象>
なお、軌跡解析装置100が移動体追跡処理の対象は、上述のサッカー選手に限定されるものではなく、他のスポーツのプレイヤー、レーシングカー、工場の作業員、動物等、各種の移動体とすることができる。また、軌跡解析装置100は、必ずしも移動体追跡処理を行わなくてもよく、他の装置から、順方向軌跡および逆方向軌跡を取得してもよい。
本開示の軌跡解析装置は、映像に対して時間軸の順方向に沿って移動体追跡処理を行った結果である順方向軌跡と、前記映像に対して前記時間軸の逆方向に沿って移動体追跡処理を行った結果である逆方向軌跡との間の、相関度を算出するマッチング部と、算出された相関度に応じた信頼度と、当該信頼度に対応する、前記順方向軌跡、前記逆方向軌跡、および、これらの軌跡を統合した統合軌跡のうち、少なくとも1つの軌跡と、の組を示す軌跡情報を出力する結果出力部と、を有する。
なお、上記軌跡解析装置は、前記時間軸における時刻毎に、当該時刻における前記順方向軌跡と前記逆方向軌跡との間の距離を算出する距離算出部、を有し、前記相関度は、算出された前記距離が短いほど高くてもよい。
また、上記軌跡解析装置は、前記映像を入力する映像入力部と、前記映像に対し、前記順方向軌跡の開始位置である順方向開始点と、前記逆方向軌跡の開始位置である逆方向開始点と、を設定する開始位置設定部と、前記映像に対し、前記順方向開始点に位置する移動体について前記順方向に沿って前記移動体追跡処理を行って前記順方向軌跡を生成し、前記映像に対し、前記逆方向開始点に位置する移動体について前記逆方向に沿って前記移動体追跡処理を行って前記逆方向軌跡を生成する追跡部と、前記順方向軌跡と前記逆方向軌跡とを統合して前記統合軌跡を生成する軌跡統合部、を有してもよい。
また、上記軌跡解析装置において、前記マッチング部は、前記順方向軌跡および前記逆方向軌跡の少なくとも一方が複数存在する場合において、前記相関度に応じて、同一の移動体に対応する可能性が高い前記順方向軌跡と前記逆方向軌跡とのペアを決定し、前記軌跡統合部は、決定された前記ペアの前記順方向軌跡と前記逆方向軌跡とを統合して、前記統合軌跡を生成してもよい。
また、上記軌跡解析装置において、前記マッチング部は、前記順方向軌跡および前記逆方向軌跡の少なくとも一方が複数存在する場合において、前記距離の前記時間軸における総和が第1の閾値以下となる、前記順方向軌跡と前記逆方向軌跡との組を、第1のペアとし、前記第1のペア以外で、前記距離が第3の閾値以下となる区間が前記時間軸において第4の閾値以上連続する、前記順方向軌跡と前記逆方向軌跡との組を、前記第1のペアよりも前記相関度が低い第2のペアとし、前記第1のペアおよび前記第2のペアから、前記第1のペアおよび前記第2のペアの両方に同一の前記順方向開始点あるいは同一の前記逆方向開始点が含まれる前記ペアを除いたペアを、前記第2のペアよりも前記相関度が高い第3のペアとし、前記第1〜第3のペアのいずれにも属さない前記ペアあるいは前記軌跡に対して、前記第2のペアに対応する前記信頼度よりも低い前記信頼度を設定し、前記結果出力部は、複数の前記軌跡の間の前記信頼度の差異を表す前記軌跡情報を出力してもよい。
また、上記軌跡解析装置において、前記マッチング部は、前記第3のペアから、前記時間軸におけるいずれかの時刻において、複数の前記順方向軌跡の間、あるいは、複数の前記逆方向軌跡の間で、他の前記軌跡との距離が第5の閾値以下となる前記軌跡に、前記順方向開始点あるいは前記逆方向開始点が含まれる前記ペアを除いたペアを、前記第3のペアよりも前記相関度が高い第4のペアとしてもよい。
また、上記軌跡解析装置において、前記結果出力部は、前記軌跡を示した画像を前記軌跡情報として生成し、前記画像は、前記信頼度の差異を、前記画像における前記軌跡の表示形態の差異により表示してもよい。
また、上記軌跡解析装置において、前記軌跡統合部は、前記順方向軌跡のうち前記順方向開始点により近い部分ほど、および、前記逆方向軌跡のうち前記逆方向開始点により近い部分ほど、より高い重み付けをして、前記統合軌跡を生成してもよい。
また、上記軌跡解析装置において、前記軌跡統合部は、複数の前記順方向軌跡の間の時刻毎の距離、あるいは、複数の前記逆方向軌跡の間の時刻毎の距離、に基づいて、前記軌跡の各部の追跡尤度を算出し、前記結果出力部は、算出された前記追跡尤度に関する情報を出力してもよい。
本開示の軌跡解析方法は、映像に対して時間軸の順方向に沿って移動体追跡処理を行った結果である順方向軌跡と、前記映像に対して前記時間軸の逆方向に沿って移動体追跡処理を行った結果である逆方向軌跡との間の、相関度を算出するステップと、算出された相関度に応じた信頼度と、当該信頼度に対応する、前記順方向軌跡、前記逆方向軌跡、および、これらの軌跡を統合した統合軌跡のうち、少なくとも1つの軌跡と、の組を示す軌跡情報を出力するステップと、を有する。
本発明は、追跡精度が低い場合であっても、移動体追跡処理の結果として有意性の高い情報を出力することができる、軌跡解析装置および軌跡解析方法として有用である。
100 軌跡解析装置
110 映像入力部
120 開始位置設定部
130 追跡部
140 距離算出部
150 マッチング部
160 軌跡統合部
170 結果出力部

Claims (11)

  1. 映像を入力する映像入力部と、
    前記映像に対し、順方向軌跡の開始位置である順方向開始点と、逆方向軌跡の開始位置である逆方向開始点と、を設定する開始位置設定部と、
    前記映像に対し、前記順方向開始点に位置する移動体について、時間軸の順方向に沿って移動体追跡処理を行って前記順方向軌跡を生成し、前記映像に対し、前記逆方向開始点に位置する移動体について、前記時間軸の逆方向に沿って移動体追跡処理を行って前記逆方向軌跡を生成する追跡部と、
    前記時間軸における時刻毎に、当該時刻における前記順方向軌跡と前記逆方向軌跡との間の距離を算出する距離算出部と、
    前記順方向軌跡および前記逆方向軌跡の少なくとも一方が複数存在する場合において、前記距離に応じて算出される相関度に応じて、同一の移動体に対応する可能性が高い前記順方向軌跡と前記逆方向軌跡とのペアを決定するマッチング部と、
    決定された前記ペアの前記順方向軌跡と前記逆方向軌跡とを統合して、統合軌跡を生成する軌跡統合部と、
    前記統合軌跡を出力する結果出力部と、を有する、
    軌跡解析装置。
  2. 映像を入力する映像入力部と、
    前記映像に対し、順方向軌跡の開始位置である順方向開始点と、逆方向軌跡の開始位置である逆方向開始点と、を設定する開始位置設定部と、
    前記映像に対し、前記順方向開始点に位置する移動体について、時間軸の順方向に沿って移動体追跡処理を行って前記順方向軌跡を生成し、前記映像に対し、前記逆方向開始点に位置する移動体について、前記時間軸の逆方向に沿って移動体追跡処理を行って前記逆方向軌跡を生成する追跡部と、
    前記時間軸における時刻毎に、当該時刻における前記順方向軌跡と前記逆方向軌跡との間の距離を算出する距離算出部と、
    前記順方向軌跡および前記逆方向軌跡の少なくとも一方が複数存在する場合において、前記距離の前記時間軸における総和が第1の閾値以下となる、前記順方向軌跡と前記逆方向軌跡との組を、第1のペアとし、前記第1のペア以外で、前記距離が第3の閾値以下となる区間が前記時間軸において第4の閾値以上連続する、前記順方向軌跡と前記逆方向軌跡との組を、前記順方向軌跡と前記逆方向軌跡との間の距離に応じて算出される相関度が前記第1のペアよりも低い第2のペアとし、前記第1のペアおよび前記第2のペアから、前記第1のペアおよび前記第2のペアの両方に同一の前記順方向開始点あるいは同一の前記逆方向開始点が含まれる前記ペアを除いたペアを、前記第2のペアよりも前記相関度が高い第3のペアとし、前記第1〜前記第3のペアのいずれにも属さない前記ペアあるいは前記軌跡に対して、前記第2のペアに対応する前記相関度に応じた信頼度よりも低い前記信頼度を設定するマッチング部と、
    複数の前記軌跡の間の前記信頼度の差異を出力する結果出力部と、を有する、
    軌跡解析装置。
  3. 前記マッチング部は、
    前記第3のペアから、前記時間軸におけるいずれかの時刻において、複数の前記順方向軌跡の間、あるいは、複数の前記逆方向軌跡の間で、他の前記軌跡との距離が第5の閾値以下となる前記軌跡に、前記順方向開始点あるいは前記逆方向開始点が含まれる前記ペアを除いたペアを、前記第3のペアよりも前記相関度が高い第4のペアとする、
    請求項に記載の軌跡解析装置。
  4. 前記相関度は、算出された前記距離が短いほど高い、
    請求項1から3の何れか1項に記載の軌跡解析装置。
  5. 前記軌跡統合部は、
    前記順方向軌跡のうち前記順方向開始点により近い部分ほど、および、前記逆方向軌跡のうち前記逆方向開始点により近い部分ほど、より高い重み付けをして、前記統合軌跡を生成する、
    請求項に記載の軌跡解析装置。
  6. 前記結果出力部は、
    算出された前記相関度に応じた信頼度と、当該信頼度に対応する、前記順方向軌跡、前記逆方向軌跡、および、前記統合軌跡のうち、少なくとも1つの軌跡と、の組を示す軌跡情報を出力する、
    請求項1に記載の軌跡解析装置。
  7. 前記結果出力部は、
    前記軌跡を示した画像を前記軌跡情報として生成し、前記画像は、前記信頼度の差異を、前記画像における前記軌跡の表示形態の差異により表示する、
    請求項に記載の軌跡解析装置。
  8. 映像を入力する映像入力部と、
    前記映像に対し、順方向軌跡の開始位置である順方向開始点と、逆方向軌跡の開始位置である逆方向開始点と、を設定する開始位置設定部と、
    前記映像に対し、前記順方向開始点に位置する移動体について、時間軸の順方向に沿って移動体追跡処理を行って前記順方向軌跡を生成し、前記映像に対し、前記逆方向開始点に位置する移動体について、前記時間軸の逆方向に沿って移動体追跡処理を行って前記逆方向軌跡を生成する追跡部と、
    複数の前記順方向軌跡の間の時刻毎の距離、あるいは、複数の前記逆方向軌跡の間の時刻毎の距離、に基づいて、前記軌跡の各部の追跡尤度を算出する、軌跡統合部と、
    算出された前記追跡尤度に関する情報を出力する結果出力部と、を有する、
    軌跡解析装置。
  9. 映像を入力し、
    順方向軌跡の開始位置である順方向開始点と、逆方向軌跡の開始位置である逆方向開始点と、を設定し、
    前記映像に対し、前記順方向開始点に位置する移動体について、時間軸の順方向に沿って移動体追跡処理を行って前記順方向軌跡を生成し、前記映像に対し、前記逆方向開始点に位置する移動体について、前記時間軸の逆方向に沿って移動体追跡処理を行って前記逆方向軌跡を生成し、
    前記時間軸における時刻毎に、当該時刻における前記順方向軌跡と前記逆方向軌跡との間の距離を算出し、
    前記順方向軌跡および前記逆方向軌跡の少なくとも一方が複数存在する場合において、前記距離に応じて算出される相関度に応じて、同一の移動体に対応する可能性が高い前記順方向軌跡と前記逆方向軌跡とのペアを決定し、
    決定された前記ペアの前記順方向軌跡と前記逆方向軌跡とを統合して、統合軌跡を生成し、
    前記統合軌跡を出力する、
    軌跡解析方法。
  10. 映像を入力し、
    順方向軌跡の開始位置である順方向開始点と、逆方向軌跡の開始位置である逆方向開始点と、を設定し、
    前記映像に対し、前記順方向開始点に位置する移動体について、時間軸の順方向に沿って移動体追跡処理を行って前記順方向軌跡を生成し、前記映像に対し、前記逆方向開始点に位置する移動体について、前記時間軸の逆方向に沿って移動体追跡処理を行って前記逆方向軌跡を生成し、
    前記時間軸における時刻毎に、当該時刻における前記順方向軌跡と前記逆方向軌跡との間の距離を算出し、
    前記順方向軌跡および前記逆方向軌跡の少なくとも一方が複数存在する場合において、前記距離の前記時間軸における総和が第1の閾値以下となる、前記順方向軌跡と前記逆方向軌跡との組を、第1のペアとし、前記第1のペア以外で、前記距離が第3の閾値以下となる区間が前記時間軸において第4の閾値以上連続する、前記順方向軌跡と前記逆方向軌跡との組を、前記順方向軌跡と前記逆方向軌跡との間の距離に応じて算出される相関度が前記第1のペアよりも低い第2のペアとし、前記第1のペアおよび前記第2のペアから、前記第1のペアおよび前記第2のペアの両方に同一の前記順方向開始点あるいは同一の前記逆方向開始点が含まれる前記ペアを除いたペアを、前記第2のペアよりも前記相関度が高い第3のペアとし、前記第1〜前記第3のペアのいずれにも属さない前記ペアあるいは前記軌跡に対して、前記第2のペアに対応する前記相関度に応じた信頼度よりも低い前記信頼度を設定し、
    複数の前記軌跡の間の前記信頼度の差異を出力する、
    軌跡解析方法。
  11. 映像を入力し、
    順方向軌跡の開始位置である順方向開始点と、逆方向軌跡の開始位置である逆方向開始点と、を設定し、
    前記映像に対し、前記順方向開始点に位置する移動体について、時間軸の順方向に沿って移動体追跡処理を行って前記順方向軌跡を生成し、前記映像に対し、前記逆方向開始点に位置する移動体について、前記時間軸の逆方向に沿って移動体追跡処理を行って前記逆方向軌跡を生成し、
    複数の前記順方向軌跡の間の時刻毎の距離、あるいは、複数の前記逆方向軌跡の間の時刻毎の距離、に基づいて、前記軌跡の各部の追跡尤度を算出し、
    算出された前記追跡尤度に関する情報を出力する、
    軌跡解析方法。
JP2014078580A 2014-04-07 2014-04-07 軌跡解析装置および軌跡解析方法 Active JP6344953B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014078580A JP6344953B2 (ja) 2014-04-07 2014-04-07 軌跡解析装置および軌跡解析方法
EP15161617.4A EP2930690B1 (en) 2014-04-07 2015-03-30 Apparatus and method for analyzing a trajectory
US14/675,878 US9477887B2 (en) 2014-04-07 2015-04-01 Apparatus and method for analyzing trajectory

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014078580A JP6344953B2 (ja) 2014-04-07 2014-04-07 軌跡解析装置および軌跡解析方法

Publications (2)

Publication Number Publication Date
JP2015201005A JP2015201005A (ja) 2015-11-12
JP6344953B2 true JP6344953B2 (ja) 2018-06-20

Family

ID=52824041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014078580A Active JP6344953B2 (ja) 2014-04-07 2014-04-07 軌跡解析装置および軌跡解析方法

Country Status (3)

Country Link
US (1) US9477887B2 (ja)
EP (1) EP2930690B1 (ja)
JP (1) JP6344953B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5915960B1 (ja) 2015-04-17 2016-05-11 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
JP6558579B2 (ja) 2015-12-24 2019-08-14 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
US10497130B2 (en) 2016-05-10 2019-12-03 Panasonic Intellectual Property Management Co., Ltd. Moving information analyzing system and moving information analyzing method
CN106650486A (zh) * 2016-09-28 2017-05-10 河北经贸大学 路网环境中的轨迹隐私保护方法
US10510125B2 (en) * 2016-11-17 2019-12-17 International Business Machines Corporation Expense compliance checking based on trajectory detection
JP6659524B2 (ja) * 2016-11-18 2020-03-04 株式会社東芝 移動体追跡装置、表示装置および移動体追跡方法
CN106651916B (zh) * 2016-12-29 2019-09-03 深圳市深网视界科技有限公司 一种目标的定位跟踪方法及装置
US11068721B2 (en) * 2017-03-30 2021-07-20 The Boeing Company Automated object tracking in a video feed using machine learning
JP7174252B2 (ja) 2019-04-25 2022-11-17 日本電信電話株式会社 物体情報処理装置、物体情報処理方法及び物体情報処理プログラム
CN110110787A (zh) * 2019-05-06 2019-08-09 腾讯科技(深圳)有限公司 目标的位置获取方法、装置、计算机设备及存储介质
KR20240026062A (ko) * 2022-08-19 2024-02-27 주식회사 핏투게더 객체의 궤적을 추적하기 위한 방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5680862A (en) * 1995-02-01 1997-10-28 The Board Of Trustees Of The Leland Stanford Junior University Iterative method of determining trajectory of a moving region in a moving material using velocity measurements in a fixed frame of reference
US7280753B2 (en) * 2003-09-03 2007-10-09 Canon Kabushiki Kaisha Display apparatus, image processing apparatus, and image processing system
JP4492107B2 (ja) * 2003-12-02 2010-06-30 株式会社日立メディコ 画像診断装置
GB0500174D0 (en) * 2005-01-06 2005-02-16 Kokaram Anil Method for estimating motion and occlusion
US7756296B2 (en) * 2007-03-27 2010-07-13 Mitsubishi Electric Research Laboratories, Inc. Method for tracking objects in videos using forward and backward tracking
US10648803B2 (en) * 2012-02-29 2020-05-12 Nec Corporation Movement line information generation system, movement line information generation method and movement line information generation program

Also Published As

Publication number Publication date
EP2930690B1 (en) 2018-11-21
US20150286866A1 (en) 2015-10-08
US9477887B2 (en) 2016-10-25
EP2930690A1 (en) 2015-10-14
JP2015201005A (ja) 2015-11-12

Similar Documents

Publication Publication Date Title
JP6344953B2 (ja) 軌跡解析装置および軌跡解析方法
Bloom et al. G3D: A gaming action dataset and real time action recognition evaluation framework
US11755952B2 (en) System and method for predictive sports analytics using body-pose information
JP6525453B2 (ja) オブジェクト位置推定システム、及びそのプログラム
US10346465B2 (en) Systems, methods, and apparatus for digital composition and/or retrieval
CN107543530B (zh) 用于测量球的旋转的方法、系统及非暂时性计算机可读记录介质
US10726620B2 (en) Image processing apparatus, image processing method, and storage medium
Morimitsu et al. Exploring structure for long-term tracking of multiple objects in sports videos
Riazuelo et al. Semantic visual slam in populated environments
JP2008250999A (ja) 対象物追跡方法、対象物追跡装置および対象物追跡プログラム
JP6649231B2 (ja) 検索装置、検索方法およびプログラム
JP2015079502A (ja) オブジェクト追跡方法、オブジェクト追跡装置、及び追跡特徴選択方法
US20210158032A1 (en) System, apparatus and method for recognizing motions of multiple users
EP2899706A1 (en) Method and system for analyzing human behavior in an intelligent surveillance system
US11501577B2 (en) Information processing apparatus, information processing method, and storage medium for determining a contact between objects
JP6040825B2 (ja) 物体追跡プログラム、物体追跡方法及び物体追跡装置
Pandya et al. Homography based player identification in live sports
US10853952B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
EP3543908B1 (en) Video frame processing for motion comparison
Liu et al. DOTF-SLAM: Real-Time Dynamic SLAM Using Dynamic Odject Tracking and Key-Point Filtering
WO2022091166A1 (ja) 追跡装置、追跡システム、追跡方法、および記録媒体
Khan et al. 3D object tracking using disparity map
Mao et al. Background subtraction for realtime tracking of a tennis ball.
Desai An efficient feature descriptor and its real-time applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180522

R151 Written notification of patent or utility model registration

Ref document number: 6344953

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151