JP6641163B2 - オブジェクト追跡装置及びそのプログラム - Google Patents

オブジェクト追跡装置及びそのプログラム Download PDF

Info

Publication number
JP6641163B2
JP6641163B2 JP2015235536A JP2015235536A JP6641163B2 JP 6641163 B2 JP6641163 B2 JP 6641163B2 JP 2015235536 A JP2015235536 A JP 2015235536A JP 2015235536 A JP2015235536 A JP 2015235536A JP 6641163 B2 JP6641163 B2 JP 6641163B2
Authority
JP
Japan
Prior art keywords
image
dimensional
frame
dimensional position
object candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015235536A
Other languages
English (en)
Other versions
JP2017102708A (ja
Inventor
高橋 正樹
正樹 高橋
英彦 大久保
英彦 大久保
三科 智之
智之 三科
健佑 池谷
健佑 池谷
正規 加納
正規 加納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2015235536A priority Critical patent/JP6641163B2/ja
Publication of JP2017102708A publication Critical patent/JP2017102708A/ja
Application granted granted Critical
Publication of JP6641163B2 publication Critical patent/JP6641163B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、多視点映像解析によりオブジェクト位置の追跡を可能とするオブジェクト追跡装置及びそのプログラムに関する。
映像内の特定のオブジェクトを追跡可能とするオブジェクト追跡装置は、例えば、スポーツ映像を解析し、自動審判、スポーツ番組の放送、スポーツデータ生成・配信、コーチングなどのサービスに利用することができる。また、監視カメラ映像解析に基づいたセキュリティシステムなど、様々なサービスにも利用することができる。
映像解析技術の進展に伴い、カメラをオブジェクト位置の追跡を行うためのセンサとした様々なアプリケーションが提案されている。この映像解析技術の進展は特にスポーツシーン解析において顕著であり、ウィンブルドンでも使用されているテニスのホークアイシステムは、複数台の固定撮影カメラの多視点映像を用いてテニスボールを3次元的に追跡し、ジャッジに絡むIN/OUTの判定を行っている。また2014年のFIFAワールドカップでは、ゴールラインテクノロジーと称して、数台の固定カメラの映像を解析し、ゴールの判定を自動化している。更に、サッカースタジアムヘ多数のステレオカメラを設置し、フィールド内の全選手をリアルタイムに追跡するTRACABシステムなど、スポーツにおけるリアルタイム映像解析技術の高度化が進んでいる。
更に、複数台のカメラから得られる多視点映像を用いて、或るカメラの映像における被写体をオブジェクトとし、その索引付けを行う技法も知られている(例えば、特許文献1参照)。特許文献1の技法では、多視点映像を構成する複数の映像のうち、或る映像で被写体を特定する被写体の特徴が映っていなくても別の映像を用いて被写体を特定することで、当該或る映像における被写体を効率的に索引付けすることを可能にしている。
また、1視点映像における複数の動的なオブジェクトを含む動画から自由視点映像を生成する装置において、当該動画の今回フレームからオブジェクトの追跡がオクルージョン(隠蔽)により妨げられても、前回フレームで対応付けたオブジェクトの追跡IDを補正し、そのオブジェクトの追跡を回復する技法が開示されている(例えば、特許文献2参照)。特許文献2の技法では、オクルージョンにより一度追跡が途絶えても、色情報などを基に再度の捕捉を可能にしている。
また、複数台のカメラから得られる多視点映像を用いて、或るカメラの映像における人物をオブジェクトとして追跡する技法も知られている(例えば、特許文献3参照)。特許文献3の技法では、或る映像における人物の認識処理の処理負荷を増大させることなく、マーキング対象の人物を簡単かつ確実に特定してマーク表示するために、他カメラからの映像による認識処理の結果を用いて処理負荷を軽減するようにしている。
特開2006−25306号公報 特開2014−199560号公報 特開2006−229465号公報
スポーツシーンで現在運用されているボールや選手の追跡技術は、外乱がなく軌道がある程度予測可能なテニスボール、ゴール付近のみを撮影した映像からのサッカーボール、移動速度が遅く追跡が比較的容易なサッカー選手などを対象としている。一方、バレーボール競技のボールのように軌道予測が難しく、高速で移動し、オクルージョン(隠蔽)が発生する頻度が高いオブジェクトについて、追跡精度、頑健性(即ち、統計的な信頼性)、及び処理速度性能を高くして安定的に自動追跡する技法は未だ確立されていない。
例えば、特許文献1の技法では、複数台のカメラ映像上に映る被写体を効率的に索引付けすることが可能であるが、被写体の実空間上の3次元位置を求めるものではなく、精度よく被写体の位置を計測することは難しい。
また、特許文献2の技法では、1視点映像における動画の今回フレームからオブジェクトの追跡がオクルージョン(隠蔽)により妨げられても、そのオブジェクトの追跡を回復することができるので、サッカーなど背景が比較的均一なスポーツでは効果的と思われるが、バレーボール競技など背景が複雑な映像に対する利用は難しい。
特に、単眼カメラの情報からオブジェクトヘの視線ベクトルは計測できるものの、多視点映像を利用しない場合には、オブジェクトヘの奥行きまでは計測できず、不規則な軌道を描くオブジェクトを頑健に追跡することが困難である。
また、特許文献3の技法では、或る映像におけるマーキング対象の人物を簡単かつ確実に特定してマーク表示するのに、他カメラの認識処理結果を用いることでその人物の認識処理の処理負荷を軽減させることが可能である。しかしながら、特許文献3の技法では、射影変換などにより被写体を同一空間で追跡するものではなく各カメラ映像に対する人物の認識処理は独立していることから、そのオブジェクト位置の精度を各カメラ映像の認識処理結果以上に高めることができない。
このため、従来技法では、バレーボール競技のボールのように軌道予測が難しく、高速で移動し、オクルージョン(隠蔽)が発生する頻度が高いオブジェクトを安定追跡することは難しい。
従って、バレーボール競技のボールのように高速で移動し、選手の影に隠れる場合もあるオブジェクトを安定追跡する技法が望まれる。また、バレーボール競技以外にも、他の球技や監視カメラ映像解析においても応用可能な技法が望まれる。
本発明の目的は、上述の問題に鑑みて、多視点映像解析によりオブジェクト位置を安定的に自動追跡可能とするオブジェクト追跡装置及びそのプログラムを提供することにある。
本発明では、複数台の固定撮影カメラから得られる多視点映像を並列処理して、オブジェクトの実空間上の3次元位置を推定し、且つ次フレームの多視点映像におけるオブジェクト位置を予測するよう構成することで、追跡対象のオブジェクトを安定的に自動追跡することを可能とした。尚、本願明細書中、「位置」とは予め定義された座標系の座標を意味しており、例えばオブジェクトの2次元位置とは2次元カメラ座標系のオブジェクトの位置座標を云い、オブジェクトの3次元位置とは3次元実空間座標系のオブジェクトの位置座標を云う。
即ち、本発明のオブジェクト追跡装置は、多視点映像解析によりオブジェクト位置を自動追跡可能とするオブジェクト追跡装置であって、複数台の固定撮影カメラからそれぞれ得られる多視点映像を構成する現フレームの画像に対し、予測位置情報を基にそれぞれのオブジェクト候補を選定する並列選定処理を行う並列処理手段と、前記複数台の固定撮影カメラに関連付けて選定したオブジェクト候補の2次元位置を基に、追跡対象のオブジェクトの実空間上の3次元位置を推定し出力する3次元位置計測手段と、当該推定した追跡対象のオブジェクトの実空間上の3次元位置を基に、所定の状態推定法を用いて前記複数台の固定撮影カメラに対する次フレームの多視点映像における当該追跡対象のオブジェクトの位置を予測した当該予測位置情報を生成し、前記並列選定処理を補助する位置予測手段と、を備え、前記並列処理手段は、多視点映像を構成するそれぞれの現フレームの画像に対し、隣接フレーム間の差を累積した所定のフレーム差累積画像を生成し、前記予測位置情報が示す予測位置周辺の探索領域内で当該オブジェクト候補を抽出するオブジェクト候補抽出手段と、前記オブジェクト候補抽出手段によって抽出したオブジェクト候補のうち前記予測位置情報が示す予測位置に対し最近位置のオブジェクト候補を選定するオブジェクト選定手段と、を備えることを特徴とする。
また、本発明のオブジェクト追跡装置において、前記オブジェクト候補抽出手段は、前記所定のフレーム差累積画像に対し、前記予測位置情報が示す予測位置を基に所定サイズから始めて拡大可能な索範囲を設定し、該探索範囲内で、フレーム間で連続性の有る現フレームのレベル差を示すオブジェクト候補を抽出することを特徴とする。
また、本発明のオブジェクト追跡装置において、前記3次元位置計測手段は、射影変換を用いて前記複数台の固定撮影カメラの画像における当該選定したオブジェクト候補の2次元位置を実空間上の3次元位置に射影し、前記複数台の固定撮影カメラの各々から該オブジェクト候補の2次元位置へ向かう視線ベクトルを算出し、算出した複数の視線ベクトルのうち一対の視線ベクトルの組み合わせで定まる1以上の3次元位置を統合して、当該追跡対象のオブジェクトの実空間上の3次元位置を推定することを特徴とする。
また、本発明のオブジェクト追跡装置において、前記位置予測手段は、当該現フレームに対し推定した追跡対象のオブジェクトの実空間上の3次元位置を前記複数台の固定撮影カメラのカメラ座標に投影し、前記所定の状態推定法として、該3次元位置について複数フレームに亘って前記複数台の固定撮影カメラ毎のカメラ座標に投影した位置座標を観測値としたカルマンフィルタ又はパーティクルフィルタにより、当該次フレームの多視点映像における当該追跡対象のオブジェクトの位置を予測することを特徴とする。
更に、本発明のプログラムは、コンピュータを、本発明のオブジェクト追跡装置として機能させるためのプログラムとして構成される。
本発明によれば、複数台の固定撮影カメラから得られる多視点映像における特定オブジェクトについて、追跡精度、頑健性、及び処理速度性能を高くして安定的に自動追跡することが可能となる。
本発明による一実施形態のオブジェクト追跡装置の概略構成を示すブロック図である。 本発明による一実施形態のオブジェクト追跡装置の動作を示すフローチャートである。 (a)乃至(f)は、本発明による一実施形態のオブジェクト追跡装置におけるオブジェクト候補抽出部により生成されるフレーム差累積画像に関する説明図である。 (a),(b)は、それぞれ本発明による一実施形態のオブジェクト追跡装置における或る固定撮影カメラからのフレーム単位の入力画像と、オブジェクト候補抽出部で生成するフレーム差累積画像の一例を説明する図である。 本発明による一実施形態のオブジェクト追跡装置におけるオブジェクト候補抽出部により生成されるフレーム差累積画像から定めるオブジェクト候補に関する説明図である。 本発明による一実施形態のオブジェクト追跡装置における3次元位置計測部により固定撮影カメラ毎の視線ベクトルを算出する際の一例を説明する図である。 (a),(b)は、それぞれ本発明による一実施形態のオブジェクト追跡装置における3次元位置計測部により固定撮影カメラ毎の視線ベクトルを算出する際のカメラ座標系の入力画像と、その入力画像を実空間座標系の仮想平面に射影変換した際の射影変換画像の一例を示す図である。 本発明による一実施形態のオブジェクト追跡装置における3次元位置計測部により固定撮影カメラ毎の視線ベクトルを算出する際の別例を説明する図である。 (a)乃至(d)は、それぞれ本発明による一実施形態のオブジェクト追跡装置における3次元位置計測部により推定される特定オブジェクト(ボール)の位置を、固定撮影カメラ毎に得られる画像に対しCG(3次元コンピュータグラフィックス)合成した一例を示す図である。 本発明による一実施形態のオブジェクト追跡装置における3次元位置計測部により複数フレームに亘って推定される特定オブジェクト(ボール)の位置を、或る固定撮影カメラからの画像にCG合成した一例を示す図である。 (a),(b),(c)は、それぞれ本発明による一実施形態のオブジェクト追跡装置について性能評価した結果を示す図である。
以下、図面を参照して、本発明による一実施形態のオブジェクト追跡装置1について詳細に説明する。図1は、本発明による一実施形態のオブジェクト追跡装置1の概略構成を示すブロック図である。また、図2は、本発明による一実施形態のオブジェクト追跡装置1の動作を示すフローチャートである。
〔装置構成〕
図1を参照するに、本実施形態のオブジェクト追跡装置1は、複数台の固定撮影カメラ5-1,5-2,・・・,5-N(Nは、2以上の整数)から得られる多視点映像を並列処理して、オブジェクトの実空間上の3次元位置を推定し、且つ次フレームの多視点映像におけるオブジェクト位置を予測する装置として構成される。以下、複数台の固定撮影カメラ5-1,5-2,・・・,5-Nについて、個々を特定せず総括して言及するときは「固定撮影カメラ5」と称する。尚、複数台の固定撮影カメラ5の各々は、撮影領域を固定に設置したカメラであり、実空間上の予め定義された座標情報と、複数台の固定撮影カメラ5の各々の当該実空間における設置座標が、本実施形態のオブジェクト追跡装置1に設定されている。また、本実施形態のオブジェクト追跡装置1では、後述するように、多視点映像の各画像をフレーム番号で管理して処理するため複数台の固定撮影カメラ5の各々について必ずしも撮影同期させている必要はないが、オブジェクトの追跡精度を高めるために、全て撮影同期させている。
そして、本実施形態の例では、バレーボール競技を複数台の固定撮影カメラ5の各々によって異なる視点から固定的に撮影し、オブジェクト追跡装置1によってバレーボール競技の多視点映像におけるボールを追跡対象のオブジェクトとした例を説明する。
より具体的に、本実施形態のオブジェクト追跡装置1は、並列処理部2-1〜2-Nと、3次元位置計測部3と、位置予測部4と、を備える。
並列処理部2-1〜2-Nは、複数台の固定撮影カメラ5からそれぞれ得られる多視点映像を構成する現フレーム(フレーム番号t)の画像に対し、予測位置情報を基にそれぞれのオブジェクト候補を選定する並列選定処理を行う処理部である。
即ち、並列処理部2-1はカメラ番号No.1の固定撮影カメラ5-1から得られる現フレーム(フレーム番号t)の画像(「I 」と表記)を入力し、並列処理部2-2はカメラ番号No.2の固定撮影カメラ5-2から得られる現フレーム(フレーム番号t)の画像(「I 」と表記)を入力して並列処理を行うよう構成され、従って並列処理部2-Nはカメラ番号No.Nの固定撮影カメラ5-Nから得られる現フレーム(フレーム番号t)の画像(「I 」と表記)を入力して並列処理を行う。以下、並列処理部2-1〜2-Nについて、個々を特定せず総括して言及するときは「並列処理部2」と称する。
3次元位置計測部3は、複数台の固定撮影カメラ5の各々に関連付けて選定したオブジェクト候補の2次元位置(2次元特定オブジェクト位置)を基に、追跡対象のオブジェクトの実空間上の3次元位置(3次元オブジェクト位置)を推定して出力する機能部である。
位置予測部4は、当該推定した追跡対象のオブジェクトの実空間上の3次元位置を基に、複数台の固定撮影カメラ5の各々に対する次フレームの多視点映像における当該オブジェクトの位置座標を予測する予測位置情報(当該オブジェクトの2次元予測位置の情報)を生成し、並列処理部2-1〜2-Nによる並列選定処理を補助する機能部である。
並列処理部2は、複数台の固定撮影カメラ5の台数分に相当する数で設けられる処理部であり、それぞれオブジェクト候補抽出部21及びオブジェクト選定部22を備える。
オブジェクト候補抽出部21は、多視点映像を構成するそれぞれの現フレームの画像に対し、隣接フレーム間の差を累積した所定のフレーム差累積画像を生成し、当該予測位置情報が示す予測位置周辺の探索領域内で当該オブジェクト候補を抽出する機能部である。
オブジェクト選定部22は、オブジェクト候補抽出部21によって抽出したオブジェクト候補のうち前記予測位置情報が示す予測位置に対し最近位置のオブジェクト候補を選定する機能部である。
尚、オブジェクト追跡装置1の出力として、フレーム番号tの3次元オブジェクト位置の情報と併せて、複数台の固定撮影カメラ5の各々における各画像I 〜I を出力する構成や、位置予測部4における当該2次元オブジェクト位置の情報を出力する構成とすることもできる。
以下、図1に示す本実施形態のオブジェクト追跡装置1における各機能部について、図2に示すフローチャートを基にその動作を詳細に説明する。
〔装置動作〕
(オブジェクト候補抽出部)
代表して説明する並列処理部2-Nにおいて、オブジェクト候補抽出部21は、固定撮影カメラ5-Nから得られる現フレーム(フレーム番号t)の画像I を入力し、追跡対象のオブジェクトの候補を抽出する。より具体的には、まず、オブジェクト候補抽出部21は、現フレーム(フレーム番号t)の画像I を入力し所定のメモリ(図示せず)に一時保持する(図2:ステップS1)。ここで、オブジェクト候補抽出部21は、現フレーム(フレーム番号t)の画像I より以前に入力した予め定めた所定期間分(例えば、1秒〜10秒程度に設定される固定期間)のフレームの画像を当該所定のメモリ(図示せず)に一時保持している。
続いて、オブジェクト候補抽出部21は、フレーム番号tの画像とその直前画像(フレーム番号t−1)との間で所定の閾値以上のレベル差が発生した画素位置を示す領域にモルフォルジ処理を施したフレーム差発生画像を生成し、更に、当該フレーム差発生画像について所定期間分、累積し合成したフレーム差累積画像を生成する(図2:ステップS2)。
ここで、所定期間分、累積し合成したフレーム差累積画像の生成方法について、図3を参照してより具体的に説明する。
まず、図3(a)に示すように、オブジェクト候補抽出部21は、入力した現フレーム(フレーム番号t)の画像I と、一時保持していた直前のフレーム番号t-1の画像I t-1についてグレー表示画像に変換する。即ち、通常、固定撮影カメラ5から得られる画像はRGBカラー表示画像であるため、オブジェクト候補抽出部21は、グレー表示画像に変換した画像についてグレー表示画像に変換する。このようなグレー表示画像は、RGBのいずれか単色から得た単色画像とするか、又はRGBのうち2以上を混色して得られる輝度表示画像とすることができる。
続いて、図3(b)に示すように、オブジェクト候補抽出部21は、画像I と画像I t-1との間で閾値M以上のレベル差が生じた画素位置を検出し、その検出した画素位置にレベルSmax(例:8ビットレベル表示で255)を付与し、他の画素位置をSmin(例:8ビットレベル表示で0)としたフレーム差発生画像を生成する。これにより、フレーム番号tのフレーム差発生画像が生成される。尚、SmaxとSminの扱いは逆でもよいが、本実施形態では、閾値M以上のレベル差が生じた画素位置に対しSmaxを付与した例としている。
続いて、図3(c)に示すように、オブジェクト候補抽出部21は、画像I t-1と画像I との間で得られたフレーム番号tのフレーム差発生画像に対しモルフォルジ処理を実行し、微細領域の除去と、領域成長を施したフレーム番号tのフレーム差発生画像を生成する。このモルフォルジ処理は、所定サイズ未満のSmaxの画素領域に対してはSmin(例:8ビットレベル表示で0)に変換して微細領域を除去し、所定サイズ以上のSmaxの画素領域に対しては正方状に領域成長(領域サイズ:a×a画素,領域レベル:Smax)を施す処理である。ここで、aは予め定めた固定値である。
続いて、図3(d)に示すように、オブジェクト候補抽出部21は、フレーム番号t−1の画像I t-1と、その直前のフレーム番号t−2の画像I t-2との間で、上記と同様に、モルフォルジ処理を実行したフレーム番号t−1のフレーム差発生画像を生成し、且つフレーム番号tのフレーム差発生画像に対しSmaxを付与していた領域(旧Smax領域)のレベルをSmax−αとし領域拡大する再処理(例えば領域サイズ:(a+β)×(a+β)画素,領域レベル:Smax−α)を施したフレーム番号t−1のフレーム差発生画像を生成する。ここで、βは1以上“a”未満の予め定めた固定整数値であり、例えばβ=1とすることができる。αは、例えば8ビットレベル表示でSmax=255,Smin=0としたとき、1以上で(255/累積フレーム数)未満の予め定めた固定整数値であり、例えばα=1とすることができる。
続いて、図3(e)に示すように、オブジェクト候補抽出部21は、モルフォルジ処理を実行したフレーム番号tのフレーム差発生画像が最上位となるよう、当該再処理したフレーム番号t−1のフレーム差発生画像を合成し、フレーム差累積画像を生成する。
続いて、図3(f)に示すように、オブジェクト候補抽出部21は、モルフォルジ処理を実行したフレーム番号tのフレーム差発生画像が最上位となるよう、フレーム番号tまでの所定期間分、累積し合成したフレーム差累積画像を生成する。ここで、フレーム番号tから時間的に遡る度に更にレベルαを減算し更にサイズβで領域拡大する再処理を実行したフレーム差発生画像を合成する。後述する図5に示すように、例えば、当該再処理により、画像I t−2と画像I t−3との間のフレーム差発生画像の旧Smax領域は、領域サイズ:(a+2β)×(a+2β)画素,領域レベル:Smax−2αとなり、画像I t−3と画像I t−4との間のフレーム差発生画像の旧Smax領域は、領域サイズ:(a+3β)×(a+3β)画素,領域レベル:Smax−3αとなる。
従って、本実施形態のオブジェクト追跡装置1におけるオブジェクト候補抽出部21の機能により、図4(a)に示すフレーム番号tまでの所定期間分の画像I ,I t−1,I t−2,I t−3,・・・の入力画像から、図4(b)に示すフレーム差累積画像を実際に得ることができる。尚、図4(b)に示されるフレーム差累積画像に関して、オブジェクト候補抽出部21によるフレーム差累積画像の生成後の処理の説明は後述する。
ところで、本例では、並列処理部2‐Nにおけるオブジェクト候補抽出部21は、所定期間分、一時保持した画像I ,I t−1,I t−2,I t−3,・・・の入力画像について、その都度、各フレーム間のフレーム差発生画像を生成し、これを累積し合成してフレーム差累積画像を生成する例を説明したが、現フレーム番号のフレーム差累積画像を生成する度に当該所定のメモリ(図示せず)に一時保持しておくことで、フレーム差累積画像の生成に係る処理時間を高速化することができる。
このフレーム差累積画像の生成処理をフレーム番号t,t‐1について総括して表すと、式(1)のようになる。
ここで、Ixy はフレーム番号tにおけるカメラ座標系の画素位置(x,y)の入力画像I の画素値であり、Sxy はフレーム番号tにおけるフレーム差累積画像の画素値である。即ち、フレーム番号tにおけるフレーム差累積画像の画素値Sxy は、フレーム番号tの画像とその直前画像(フレーム番号t−1)との間で所定の閾値M以上のレベル差が発生した画素位置を示す領域にモルフォルジ処理を施したフレーム差発生画像のSmax領域を示す画素値(Smax)に対し、フレーム番号t−1の画像とその直前画像(フレーム番号t−2)との間で所定の閾値M以上のレベル差が発生した画素位置を示す領域にモルフォルジ処理を施したフレーム差発生画像の旧Smax領域を示す画素値Sxy t−1が区別して累積され(式(1)に示すotherwise)、所定期間分、式(1)に従ってこれを繰り返すことにより累積し合成されることで、フレーム差累積画像が生成される。従って、図4(b)に示すように、フレーム差累積画像は、時間軸上で新しく発生した差分画素位置は明るく(Smax領域)、古い差分画素位置ほど暗くなる(旧Smax領域)。尚、旧Smax領域は、古い差分画素位置ほど領域拡大させている(図3(f)参照)。
以上のようにして、オブジェクト候補抽出部21は、フレーム番号tの画像とその直前画像(フレーム番号t−1)との間で所定の閾値以上のレベル差が発生した画素位置を示す領域にモルフォルジ処理を施したフレーム差発生画像を生成し、更に、当該フレーム差発生画像について所定期間分、累積し合成したフレーム差累積画像を生成する(図2:ステップS2)。
続いて、オブジェクト候補抽出部21は、固定撮影カメラ5‐Nにおけるフレーム番号tの画像I を基に得られたフレーム差累積画像に対し、2次元予測位置P t−1の情報を用いて、その2次元予測位置P t−1を基に所定サイズから始めて拡大可能な探索範囲を設定し、その探索範囲内で、フレーム間で連続性の有る現フレームのレベル差を示すオブジェクト候補領域(即ち、フレーム番号tの現フレームで示された、旧Smax領域からフレーム間で連続性の有るSmax領域)を抽出し、それぞれの当該現フレームのレベル差を示すオブジェクト候補領域の重心位置をオブジェクト選定部22に出力する(図2:ステップS3)。2次元予測位置P t−1の情報は、位置予測部4によって、フレーム番号t−1の多視点映像を基に推定された3次元オブジェクト位置から予測した、フレーム番号tの画像用に追跡対象のオブジェクトの位置を示す情報である。
より具体的には、図4(b)に示されるように、フレーム番号tの画像I を基に得られたフレーム差累積画像に対し、オブジェクト候補領域を決定するための探索範囲を自動的に設定する。追跡対象のオブジェクト(ボール)以外にも動くオブジェクト(人物等)が存在する場合は、そのフレーム差を生じている領域が追跡処理におけるノイズとなる。そのようなノイズオブジェクトを避けるべく2次元予測位置P t−1の情報を用いて探索範囲を設置することで、その探索範囲を入力画像が入力される度に自動的にその位置が更新されることになる。また、当該探索範囲内でオブジェクト候補領域を決定することで、オブジェクト候補の探索に要する処理時間を高速化することができる。
ただし、この探索範囲は、2次元予測位置P t−1を重心位置とする予め定めた所定サイズとするが、当該所定サイズでオブジェクト候補領域を発見できない場合には、発見できるまで徐々に拡大する処理を施すことで、より頑健になる。換言すれば、オブジェクト候補領域を発見できる限りにおいては、常に、予め定めた所定サイズの探索範囲とすることができる。尚、所定最大サイズまで拡大する処理を施してもオブジェクト候補領域を発見できない場合、オブジェクト候補抽出部21は、その旨を示す情報をオブジェクト選定部22に出力する。
また、位置予測部4については詳細に後述するが、位置予測部4は、フレーム番号t−1の多視点映像を基に推定された3次元オブジェクト位置から予測した2次元予測位置P t−1の情報をオブジェクト候補抽出部21に出力する。3次元オブジェクト位置は、3次元位置計測部3によって、複数台の固定撮影カメラ5の各々のうち少なくともカメラ2台分の視線ベクトルを用いて求められ、その3次元オブジェクト位置について自カメラ画像へ予測投影した点が2次元予測位置P t−1となる。このとき、例えオブジェクト候補抽出部21により自カメラ映像でのオブジェクト追跡が失敗(オブジェクト候補が未発見)となっても、他のカメラ映像でのオブジェクト追跡が成功(オブジェクト候補が発見)されることで3次元オブジェクト位置が推定されるため、当該オブジェクト追跡が失敗(オブジェクト候補が未発見)となった自カメラ映像に対し、2次元予測位置P t−1及び探索範囲が設定可能となり、これにより追跡ミスの少ない頑健な追跡処理を実現される。
ここで、所定期間累積し合成したフレーム差累積画像における探索範囲内でオブジェクト候補領域を決定する方法について、図5を参照してより具体的に説明する。
オブジェクト候補抽出部21は、フレーム差累積画像における探索範囲内でオブジェクト候補領域を決定する際に、まず、当該探索範囲内で、フレーム番号tの画像I とその直前画像I t−1との間のフレーム差発生画像のSmax領域を有し、且つフレーム番号tより以前の所定フレーム数まで、隣接フレーム毎にSmax領域又は旧Smax領域が連続している連続領域を探索し、その連続領域内のSmax領域をオブジェクト候補領域として定め、そのオブジェクト候補領域の重心位置をオブジェクト候補位置としてオブジェクト選定部22に出力する。尚、Smax領域が見つからない場合には、前述したように、オブジェクト候補抽出部21は、その旨を示す情報をオブジェクト選定部22に出力する。探索範囲内にて、Smax領域が複数検出されることが多いが、それらすべてをオブジェクト候補領域とする。ここで、連続領域とは隣接フレーム毎にSmax領域又は旧Smax領域が重複又は接している領域を云う。
例えば、図5に示す探索範囲内の例では、多数のSmax領域があるが、探索範囲内に、フレーム番号tより以前の所定フレーム数(例えば探索範囲内で認められる最大フレーム数)まで、隣接フレーム毎にSmax領域又は旧Smax領域が連続している部分は、連続領域A,B,Cとして定められる。このため、連続領域A,B,C内のSmax領域がオブジェクト候補領域となり、他のSmax領域はノイズオブジェクトとして除外される。そして、オブジェクト候補抽出部21は、連続領域A,B,C内において、Nをカメラ番号、iをオブジェクトIDとして定義されるSmax領域の重心位置O を求め、オブジェクト候補位置としてオブジェクト選定部22に出力する。特に、連続領域B内の或るSmax領域は、3つの正方状のSmax領域が連結した状態となっており、そのSmax連結領域の重心位置O を求める。重心位置O は、その領域内の全ての画素位置における2次元座標(x,y)の平均値で求める。尚、図5に示す例では、連続領域A,B,Cが離間した領域を連続領域として図示しているが重複している場合もある点に留意する。また、図5に示す連続領域B内に、Smax領域や連結状態のSmax連結領域が複数存在するときも、別個のオブジェクト候補位置としてオブジェクト選定部22に出力する。
図5に示すように、フレーム番号tより以前のフレーム番号では時間軸上で遡るに従って、旧Smax領域が拡大するようにしてフレーム差累積画像が生成されているため、追跡対象のオブジェクトに対するフレーム間の連続性をより確実に識別できるようになり、連続領域A,B,Cの判別が容易になる。また、フレーム番号tより以前のフレーム番号では時間軸上で遡るに従って、フレーム番号tのSmax領域に対しレベル差を段階的に付与するようにフレーム差累積画像が生成されているため、フレーム間の連続性をより確実に識別できるようになるとともに、Smax領域の判別が容易になる。これにより、追跡対象のオブジェクトがオブジェクト候補に含まれる確度を高めることができ、その頑健性が向上する。尚、本例では、モルフォルジ処理により正方状に領域成長させる例を説明したが、必ずしも正方状でなくともよく、多角状や円状、或いは楕円状でもよい。
(オブジェクト選定部)
オブジェクト選定部22は、オブジェクト候補抽出部21で抽出したオブジェクト候補位置の中から特定オブジェクト位置を選定する機能部である。より具体的には、オブジェクト選定部22は、式(2)で示される距離Dを基に、2次元予測位置P t−1から最も距離Dが短いオブジェクト候補領域の重心位置O を2次元特定オブジェクト位置O として選定し、3次元位置計測部3に出力する(図2:ステップS4)。
例えば、図5に示す例では、連続領域B内における2次元予測位置P t−1から最も距離Dが短いSmax連結領域の重心位置が2次元特定オブジェクト位置O として選定される。尚、選定された時点でオブジェクトIDは不要となるため、特定オブジェクト位置の表記にはオブジェクトIDに替えてフレーム番号tを付与している。
以上のようなオブジェクト候補抽出部21及びオブジェクト選定部22を備える並列処理部2の処理により、複数台の固定撮影カメラ5の台数分の2次元特定オブジェクト位置O が、3次元位置計測部3に出力される。
(3次元位置計測部)
3次元位置計測部3は、並列処理部2の処理を経て、複数台の固定撮影カメラ5の各々から得られる選定した2次元特定オブジェクト位置の情報を基に、三角測量法により追跡対象のオブジェクトの実空間上の3次元位置(3次元オブジェクト位置)を推定して外部に出力するとともに、位置予測部4に出力する機能部である(図2:ステップS5)。特に、3次元位置計測部3は、射影変換を用いて前記複数台の固定撮影カメラの画像における当該選定したオブジェクト候補の2次元位置を実空間上の3次元位置に射影し、複数台の固定撮影カメラ5の各々から該オブジェクト候補の2次元位置へ向かう視線ベクトルを算出し、算出した複数の視線ベクトルのうち一対の視線ベクトルの組み合わせで定まる1以上の3次元位置を統合して、当該追跡対象のオブジェクトの実空間上の3次元位置を推定する。
単眼カメラではオブジェクトの3次元位置を特定することは不可能だが、少なくとも2つの2次元特定オブジェクト位置の画像座標を利用することで、三角測量の原理により実空間におけるオブジェクトの3次元位置を算出することができる。三角測量法で3次元位置を計算する場合、或る固定撮影カメラ5からオブジェクトヘ向かう視線ベクトルとして、2本必要となる。視線ベクトルの算出には、そのベクトル上を通る3次元位置が少なくとも2点必要となる。
そこで、本実施形態のオブジェクト追跡装置1において、3次元位置計測部3は、事前準備として、フィールド(バレーボールコート)に対して垂直な予め定めた仮想平面を利用して、実空間上の特定位置を原点として予め計測しておくとともに、それぞれの固定撮影カメラ5の画像を仮想平面へ射影するための射影変換行列を予め求めて、それぞれの固定撮影カメラ5の実空間上の位置座標と共に、所定のメモリ(図示せず)に保持しておく。
そして、3次元位置計測部3は、まず、並列処理部2から得られる2次元特定オブジェクト位置O 〜O と、これに対応するフレーム番号tのそれぞれの固定撮影カメラ5の画像I 〜I とを入力し、射影変換行列を用いて、画像I 〜I をそれぞれ仮想平面へ射影した実空間座標系の射影変換画像を生成し、当該2次元特定オブジェクト位置O 〜O (カメラ座標系の2次元座標)に対応する実空間座標系の射影変換画像上の座標点をそれぞれ求め、これら座標点と、対応するそれぞれの固定撮影カメラ5の実空間上の位置座標を利用して、それぞれの固定撮影カメラ5の視線ベクトルを算出する。
例えば、図6に示すように、フィールド(バレーボールコート)に対して垂直なバレーボールネットを仮想平面とした実空間座標(X,Y,Z)上の特定位置を原点(0,0,0)として定めておくことで、固定撮影カメラ5‐1の実空間座標(XC1,YC1,ZC1)と、固定撮影カメラ5‐2の実空間座標(XC2,YC2,ZC2)を固定的に設定することができる。実空間上(3次元空間)上のオブジェクト(ボール)位置の実空間座標(X,Y,Z)を求めるには、オブジェクト(ボール)位置に対する固定撮影カメラ5‐1の視線ベクトルと、固定撮影カメラ5‐2の視線ベクトルとの交点(又は最近接点)から求められる。そして、画像I 〜I をそれぞれ仮想平面へ射影して生成された実空間座標系の射影変換画像を用いて、当該2次元特定オブジェクト位置O 〜O (カメラ座標系の2次元座標)に対応する実空間座標系の射影変換画像上の座標点(Xb1,Yb1,0),(Xb2,Yb2,0)をそれぞれ求めることで、固定撮影カメラ5‐1,5‐2の各視線ベクトルを算出することができる。図7(a)に、固定撮影カメラ5‐1で得られるカメラ座標系の画像例と、図7(b)に、バレーボールネットを仮想平面とした実空間座標の射影変換画像の例を示している。
射影変換とは、平面から平面へ写像する技法であり(例えば、「高橋、沼徳、青木、近藤、“投影画像の幾何補正に関する実験的検討”、計測自動制御学会東北支部、第235回研究集会、資料番号235‐5,2007年5月18日」参照)、その射影変換行列は、例えば、図6に示す固定撮影カメラ5‐1について、その2次元特定オブジェクト位置O のカメラ座標が(xb1,yb1)であるとすると、式(3)で表すことができる。
仮想平面は、3次元空間のZ軸と平行で原点を通過する平面を仮定しているため常にZ=0となり、射影変換後の座標を求めることで視線ベクトル上の一点として定めることができる。尚、h,…,hは射影変換パラメータであり、射影変換行列Hは式(4)で表される。これら8つの射影変換パラメータは、画像間の4点以上の対応関係を得ることで求めることができる。例えば、固定撮影映像から競技場の四隅などの特徴点を4点以上指定し、バレーボールコートを真上から見た映像へ変換する射影変換行列を事前準備として作成しておき所定のメモリ(図示せず)に保持しておくようにする。
射影変換画像は仮想平面に対して垂直に作成されるため、画像内の全ての画素がカメラに対して同じ奥行き値を持つ。即ち、射影変換画像上のオブジェクト位置(2次元座標)を指定することで、視線ベクトル上の特定オブジェクト位置の3次元座標を求めることができる。
尚、図6に示す例では、バレーボールネットを仮想平面として視線ベクトルを求める例を説明したが、図8に示すように、フィールド(バレーボールコート)に対して垂直な競技場の側壁や市松模様の基準パネルを基に仮想平面を定めて視線ベクトルを求めるようにしてもよい。全ての固定撮影カメラ5に対し共通の仮想平面を用いる方が処理効率として簡便になるため好ましいが、異なる仮想平面を用いる場合でも実空間座標の原点及び軸方向を共通化することで追跡対象のオブジェクトの3次元位置を算出することができる。これにより、全ての固定撮影カメラ5における設置位置制限をほぼ無くすことができる。
そして、3次元位置計測部3は、2台の固定撮影カメラ5‐1,5‐2で視線ベクトルを求めると、その交点(又は最近接点)から追跡対象のオブジェクトの3次元位置を算出する。
N台の固定撮影カメラ5でオブジェクトを撮影した場合、2台の固定撮影カメラ5の組み合わせ個数はとなる(C:コンビネーション)。例えば4台の固定撮影カメラ5で撮影した場合は=6で、6通りの3次元オブジェクト位置を算出可能である。しかしながら、オクルージョン等より、必ずしも全ての組み合わせで高精度な位置計測が行われるとは限らない。そこで、3次元位置計測部3は、求め得た複数の3次元オブジェクト位置に対し、その平均位置からの距離を計算して所定の閾値を超える距離を持つ3次元オブジェクト位置を外れ値として除外する処理を少なくとも1回以上行って、残りの3次元オブジェクト位置の平均位置を、最終的な3次元オブジェクト位置として決定するのが好適である。
例えば、まず、全ての組み合わせNC2個の3次元オブジェクト位置の座標を算出し、その平均値を得る。その後、平均位置と個別の3次元オブジェクト位置との距離を算出し、距離が所定の関値を超える場合はその位置座標を外れ値とする。外れ値を除いた3次元オブジェクト位置の座標で再び平均位置を算出し、その位置を最終的な3次元オブジェクト位置として決定する。
このようにして計測して推定された追跡対象のオブジェクトの実空間上の3次元位置(3次元オブジェクト位置)の情報は、3次元位置計測部3により外部に出力されるとともに、位置予測部4に出力される。尚、2つの視線ベクトルを用い、その交点が求まらない場合や、最近接点から2つの視線ベクトルまでの最短距離が所定の閾値を超える場合、計測不能とし、全ての視線ベクトルを用いても計測不能となる場合、3次元位置計測部3は、その旨を示す情報を出力する。このような計測不能の旨を示す情報出力は、各種パラメータの最適化に役立つようになる。
(位置予測部)
位置予測部4は、3次元位置計測部3により最終決定された3次元オブジェクト位置を基に、所定の状態推定法を用いて、当該複数台の固定撮影カメラ5の各々の次フレームの画像における追跡対象のオブジェクトの2次元予測位置をそれぞれ算出し、それぞれの並列処理部2におけるオブジェクト候補抽出部21及びオブジェクト選定部22に出力する機能部である(図2:ステップS6)。特に、位置予測部4は、当該現フレームに対し推定した追跡対象のオブジェクトの実空間上の3次元位置を複数台の固定撮影カメラ5の各々のカメラ座標に投影し、当該所定の状態推定法として、該3次元位置について複数フレームに亘って複数台の固定撮影カメラ5毎のカメラ座標に投影した位置座標を観測値としたカルマンフィルタ又はパーティクルフィルタにより、当該次フレームの多視点映像における当該追跡対象のオブジェクトの位置を予測し、その予測した当該2次元予測位置の情報(予測位置情報)を並列処理部2に出力し、並列処理部2における並列選定処理を補助する。
より具体的に、位置予測部4は、まず、3次元位置計測部3により最終決定された3次元オブジェクト位置を、当該複数台の固定撮影カメラ5の各々のカメラ画像座標上へ投影し、これを観測値としてカルマンフィルタやパーティクルフィルタなどの所定の状態推定法を用いて予測処理を施す。このため、位置予測部4は、複数フレームに亘って、3次元位置計測部3により得られる最終決定された3次元オブジェクト位置の情報、或いは該3次元オブジェクト位置の情報を複数台の固定撮影カメラ5の各々のカメラ座標に投影した固定撮影カメラ5毎の位置座標の情報を所定のメモリ(図示せず)に一時保持している。ところで、3次元オブジェクト位置を観測値として3次元の状態推定法(パーティクルフィルタ等)を用いて予測処理を施し、その後、予測した3次元オブジェクト位置を2次元座標へと投影して当該予測位置の情報を生成することも可能であるが、本実施形態では、2次元座標へと投影したオブジェクト位置を観測値として2次元の状態推定法を用いて予測処理を施すことで、処理速度性能を向上させている。本実施形態の好適例として、非ガウス性の状態推定モデルを扱えるパーティクルフィルタでの位置予測とした。パーティクルフィルタ(粒子フィルタ)は、離散的な誤差のある観測から、時々刻々と時間変化する量(例えば或る物体の位置と速度)を推定するのに用いられる(例えば、「山本、“3.4 粒子フィルタ”、土木学会応用力学委員会逆問題小委員会ホームページ逆問題副読本、[online]、[平成27年11月17日検索]、インターネット〈http://tcu-yoshida-lab.org/Inverse_HP/pdf/kihon_PF(yamamoto).pdf〉」参照)。
追跡対象のオブジェクトとしたバレーボール競技のボールについても、観測ノイズが平均0、共分散行列Rのガウス分布に従うと仮定した場合、観測値に対するその尤度はパーティクルフィルタにより算出することができる。カメラ画像座標上のボール位置を観測値として、パーティクルフィルタにおけるその粒子尤度を重みとした重み付き平均を求めることで、ボール位置の推定することができる。また、パーティクルフィルタでは、この粒子尤度に応じてサンプル数を増減させることができるため、カルマンフィルタを用いる場合よりも安定した追跡処理が実現される。
図9(a)乃至(d)に、それぞれ本実施形態のオブジェクト追跡装置1における3次元位置計測部3により推定される特定オブジェクト(ボール)の位置を、4台の固定撮影カメラ5毎に得られる画像I 〜I に対しCG(3次元コンピュータグラフィックス)合成した一例を示している。
また、図10に、本実施形態のオブジェクト追跡装置1における3次元位置計測部3により複数フレームに亘って推定される特定オブジェクト(ボール)の位置を、或る固定撮影カメラ5‐Nからの画像I にCG合成した一例を示している。図10では、更に、位置予測部4で推定されるオブジェクトの予測位置座標(x,y)の座標点や、その座標点に基づく当該探索範囲を示す枠をCG合成することも可能であることを示している。従って、また追跡対象をボール以外にも人物等の特定オブジェクトに拡張する際に、例えばスポーツ以外にも監視カメラ映像解析に基づいたセキュリティシステムなどに応用することができる。
また、図11に、本実施形態のオブジェクト追跡装置1について性能評価した結果を示している。
図11(a)には、本実施形態のオブジェクト追跡装置1についての計測誤差評価の結果を示しており、目視正解データで求めたボール位置(実空間座標)との誤差[cm]を評価した。試合形式1ではフレーム数600とし、試合形式2ではフレーム数400として評価したところ、その平均誤差として21.8cmとなり、バレーボール競技でのボール追跡誤差として、約ボール1個分(直径21cm)値度の誤差範囲に収まることが分かり、その実用性の高さを確認できている。
図11(b)には、本実施形態のオブジェクト追跡装置1についての位置予測の有効性評価の結果を示しており、目視正解データと各固定撮影カメラの画像上での誤差 [画素数] を評価した。4台の固定撮影カメラにおいて、それぞれ位置予測部4における状態推定法無しで追跡した場合、位置予測部4における状態推定法としてカルマンフィルタを用いた場合、及びパーティクルフィルタを用いた場合について比較した。カルマンフィルタを用いた場合でも実用性の高さを確認できたが、パーティクルフィルタを用いた場合に、優れた性能を発揮することが確認された。尚、位置予測部4における状態推定法無しで追跡した場合とは、即ち、2次元予測位置P t−1を用いることなくフレーム画像全体を探索範囲として追跡した例であるが、特定の固定撮影カメラ(仮想平面に対し鋭角位置に配置)では、途中、追跡不能な状態となることがあり、位置予測部4を設けることにより固定撮影カメラの設置場所が制限されず、追跡精度を高め処理速度を向上させることができる観点から、その有効性が確認できた。
図11(c)には、本実施形態のオブジェクト追跡装置1についての処理速度評価の結果を示しており、パーティクルフィルタを用いた場合でも1カメラ映像あたりの平均処理速度31.2[msec/frame]であったことから、実時間処理(リアルタイム処理)が実現できることが確認できた。尚、カルマンフィルタを用いた場合にはより処理負担が軽減されるため、実時間処理(リアルタイム処理)には更に有利となる。
以上のように、本実施形態のオブジェクト追跡装置1によれば、複数台の固定撮影カメラ5の各々から得られる多視点映像における特定オブジェクトについて、追跡精度、頑健性、及び処理速度性能を高くして安定的に自動追跡することが可能となることが確認できた。
尚、上述した一実施形態のオブジェクト追跡装置1をコンピュータとして機能させることができ、当該コンピュータに、本発明に係る各構成要素を実現させるためのプログラムは、当該コンピュータの内部又は外部に備えられるメモリに記憶される。コンピュータに備えられる中央演算処理装置(CPU)などの制御で、各構成要素の機能を実現するための処理内容が記述されたプログラムを、適宜、メモリから読み込んで、本実施形態のオブジェクト追跡装置1の各構成要素の機能をコンピュータに実現させることができる。ここで、各構成要素の機能をハードウェアの一部で実現してもよい。
以上、特定の実施例を挙げて本発明を説明したが、本発明は前述の実施例に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば、バレーボール競技におけるボールを追跡対象のオブジェクトとする例について説明したが、バレーボール競技以外にもテニスやバスケットボールなど、様々なスポーツヘ適用することが可能である。また追跡対象が剛体であれば、ボールに限らず様々なオブジェクトの位置を計測できるため、他の応用も可能である。例えば、スポーツにおける自動審判、スポーツ番組の放送、スポーツデータ生成配信、コーチングなどのサービス、更には、監視カメラ映像解析に基づいたセキュリティンステムなどに応用可能である。例えば、追跡対象のオブジェクトをボールでなく比較的大きな対象物(人物等)とする場合、探索範囲の初期サイズを大きめにとり、式(1)の閾値Mを調整するととともに所定画素数以上のSmax連結領域について探索するよう構成することが想定される。
本発明によれば、複数台の固定撮影カメラから得られる多視点映像における特定オブジェクトについて、追跡精度、頑健性、及び処理速度性能を高くして安定的に自動追跡することが可能となるので、オブジェクト位置の判定又は追跡に関する用途に有用である。
1 オブジェクト追跡装置
2,2‐1,2‐2,2‐N 並列処理部
3 3次元位置計測部
4 位置予測部
5,5‐1,5‐2,5‐N 固定撮影カメラ
21 オブジェクト候補抽出部
22 オブジェクト選定部

Claims (5)

  1. 多視点映像解析によりオブジェクト位置を自動追跡可能とするオブジェクト追跡装置であって、
    複数台の固定撮影カメラからそれぞれ得られる多視点映像を構成する現フレームの画像に対し、予測位置情報を基にそれぞれのオブジェクト候補を選定する並列選定処理を行う並列処理手段と、
    前記複数台の固定撮影カメラに関連付けて選定したオブジェクト候補の2次元位置を基に、追跡対象のオブジェクトの実空間上の3次元位置を推定し出力する3次元位置計測手段と、
    当該推定した追跡対象のオブジェクトの実空間上の3次元位置を基に、所定の状態推定法を用いて前記複数台の固定撮影カメラに対する次フレームの多視点映像における当該追跡対象のオブジェクトの位置を予測した当該予測位置情報を生成し、前記並列選定処理を補助する位置予測手段と、を備え
    前記並列処理手段は、
    多視点映像を構成するそれぞれの現フレームの画像に対し、隣接フレーム間の差を累積した所定のフレーム差累積画像を生成し、前記予測位置情報が示す予測位置周辺の探索領域内で当該オブジェクト候補を抽出するオブジェクト候補抽出手段と、
    前記オブジェクト候補抽出手段によって抽出したオブジェクト候補のうち前記予測位置情報が示す予測位置に対し最近位置のオブジェクト候補を選定するオブジェクト選定手段と、
    を備えることを特徴とするオブジェクト追跡装置。
  2. 前記オブジェクト候補抽出手段は、前記所定のフレーム差累積画像に対し、前記予測位置情報が示す予測位置を基に所定サイズから始めて拡大可能な索範囲を設定し、該探索範囲内で、フレーム間で連続性の有る現フレームのレベル差を示すオブジェクト候補を抽出することを特徴とする、請求項に記載のオブジェクト追跡装置。
  3. 前記3次元位置計測手段は、射影変換を用いて前記複数台の固定撮影カメラの画像における当該選定したオブジェクト候補の2次元位置を実空間上の3次元位置に射影し、前記複数台の固定撮影カメラの各々から該オブジェクト候補の2次元位置へ向かう視線ベクトルを算出し、算出した複数の視線ベクトルのうち一対の視線ベクトルの組み合わせで定まる1以上の3次元位置を統合して、当該追跡対象のオブジェクトの実空間上の3次元位置を推定することを特徴とする、請求項1又は2に記載のオブジェクト追跡装置。
  4. 前記位置予測手段は、当該現フレームに対し推定した追跡対象のオブジェクトの実空間上の3次元位置を前記複数台の固定撮影カメラの各々のカメラ座標に投影し、前記所定の状態推定法として、該3次元位置について複数フレームに亘って前記複数台の固定撮影カメラ毎のカメラ座標に投影した位置座標を観測値としたカルマンフィルタ又はパーティクルフィルタにより、当該次フレームの多視点映像における当該追跡対象のオブジェクトの位置を予測することを特徴とする、請求項1からのいずれか一項に記載のオブジェクト追跡装置。
  5. コンピュータを、請求項1からのいずれか一項に記載のオブジェクト追跡装置として機能させるためのプログラム。
JP2015235536A 2015-12-02 2015-12-02 オブジェクト追跡装置及びそのプログラム Active JP6641163B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015235536A JP6641163B2 (ja) 2015-12-02 2015-12-02 オブジェクト追跡装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015235536A JP6641163B2 (ja) 2015-12-02 2015-12-02 オブジェクト追跡装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2017102708A JP2017102708A (ja) 2017-06-08
JP6641163B2 true JP6641163B2 (ja) 2020-02-05

Family

ID=59016507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015235536A Active JP6641163B2 (ja) 2015-12-02 2015-12-02 オブジェクト追跡装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP6641163B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6425847B1 (ja) * 2017-08-14 2018-11-21 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP7003628B2 (ja) * 2017-12-19 2022-01-20 富士通株式会社 物体追跡プログラム、物体追跡装置、及び物体追跡方法
JP7164968B2 (ja) * 2018-05-07 2022-11-02 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
EP3598390A1 (en) * 2018-07-19 2020-01-22 Thomson Licensing Method for estimating a depth for pixels, corresponding device and computer program product
JP6950832B2 (ja) * 2018-08-23 2021-10-13 日本電信電話株式会社 位置座標推定装置、位置座標推定方法およびプログラム
JP7192582B2 (ja) * 2019-03-11 2022-12-20 オムロン株式会社 物体追跡装置および物体追跡方法
CN110223320B (zh) * 2019-05-08 2022-05-17 北京百度网讯科技有限公司 物体检测跟踪方法和检测跟踪装置
CN114127792A (zh) * 2019-08-14 2022-03-01 英特尔公司 从多相机2d图像数据自动生成3d边界框
JP7422361B2 (ja) * 2020-03-06 2024-01-26 株式会社アイシン 追跡装置、及び追跡プログラム
CN111612827B (zh) * 2020-05-21 2023-12-15 广州海格通信集团股份有限公司 基于多摄像头的目标位置确定方法、装置和计算机设备
CN112184890B (zh) * 2020-10-14 2023-06-30 佳都科技集团股份有限公司 一种应用于电子地图中的摄像头精准定位方法及处理终端
JP7117408B1 (ja) 2021-02-26 2022-08-12 株式会社パスコ 位置算出装置、プログラム及び位置算出方法
CN113223083B (zh) * 2021-05-27 2023-08-15 北京奇艺世纪科技有限公司 一种位置确定方法、装置、电子设备及存储介质
CN115278194B (zh) * 2022-09-22 2022-12-23 山东省青东智能科技有限公司 一种基于3d工业相机的图像数据处理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
US8098891B2 (en) * 2007-11-29 2012-01-17 Nec Laboratories America, Inc. Efficient multi-hypothesis multi-human 3D tracking in crowded scenes

Also Published As

Publication number Publication date
JP2017102708A (ja) 2017-06-08

Similar Documents

Publication Publication Date Title
JP6641163B2 (ja) オブジェクト追跡装置及びそのプログラム
JP6525453B2 (ja) オブジェクト位置推定システム、及びそのプログラム
US9330470B2 (en) Method and system for modeling subjects from a depth map
JP6204659B2 (ja) 映像処理装置及び映像処理方法
US10789765B2 (en) Three-dimensional reconstruction method
EP2320379B1 (en) Image processing device, object tracking device, and image processing method
US8805007B2 (en) Integrated background and foreground tracking
JP6030617B2 (ja) 画像処理装置および画像処理方法
KR101616926B1 (ko) 영상 처리 장치 및 방법
US20030012410A1 (en) Tracking and pose estimation for augmented reality using real features
US11151787B2 (en) Generation device, generation method and storage medium for three-dimensional model from object images and structure images
JP5965293B2 (ja) カメラポーズ推定装置、及びカメラポーズ推定プログラム
EP1857978A1 (en) Method, system and computer product for deriving three-dimensional information progressivly from a streaming video sequence
CN105809664B (zh) 生成三维图像的方法和装置
JP4881178B2 (ja) 走行距離映像生成装置及び走行距離映像生成プログラム
JP4272538B2 (ja) 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム
JP6989877B2 (ja) 位置座標算出方法及び位置座標算出装置
JP6154759B2 (ja) カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム
JP7024876B2 (ja) 検出装置、処理装置、検出方法、及び処理プログラム
JP6392742B2 (ja) 最適奥行き決定装置、最適奥行き決定方法及びコンピュータプログラム
Aksay et al. Robust 3d tracking in tennis videos
JP2022037506A (ja) 検出装置、処理装置、検出方法、及び処理プログラム
JP2016163130A (ja) カメラパラメータ推定装置およびカメラパラメータ推定プログラム
JP2023026244A (ja) 画像生成装置および画像生成方法、プログラム
CN117980946A (zh) 图像处理程序、图像处理装置以及图像处理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191227

R150 Certificate of patent or registration of utility model

Ref document number: 6641163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250