JP2018206285A - Object tracking device and object trajectory generation system - Google Patents
Object tracking device and object trajectory generation system Download PDFInfo
- Publication number
- JP2018206285A JP2018206285A JP2017114052A JP2017114052A JP2018206285A JP 2018206285 A JP2018206285 A JP 2018206285A JP 2017114052 A JP2017114052 A JP 2017114052A JP 2017114052 A JP2017114052 A JP 2017114052A JP 2018206285 A JP2018206285 A JP 2018206285A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- unit
- conversion
- search range
- fixed camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、固定カメラの撮影結果からオブジェクトを追跡する技術に関する。 The present invention relates to a technique for tracking an object from a photographing result of a fixed camera.
映像解析技術の進展に伴い、カメラをセンサとした様々なアプリケーションが提案されている。ウィンブルドンでも使用されているテニスのホークアイシステムは、複数の固定カメラ映像をセンサとしてテニスボールを3次元的に追跡し、ジャッジに絡むイン/アウトの判定を行っている。また2014年のFIFAワールドカップで用いられたゴールラインテクノロジーは、数台の固定カメラの映像を解析し、ゴールの判定を自動化している。さらにサッカースタジアムへ多数のステレオカメラを設置し、フィールド内の全選手をリアルタイムに追跡するトラッキングシステム(例えば、TRACAB)等、スポーツにおけるリアルタイム映像解析技術の高度化が進んでいる。 With the progress of video analysis technology, various applications using cameras as sensors have been proposed. The tennis hawkeye system also used in Wimbledon tracks a tennis ball three-dimensionally by using a plurality of fixed camera images as sensors, and performs in / out determination involving a judge. The goal line technology used in the 2014 FIFA World Cup automates goal determination by analyzing video from several fixed cameras. Furthermore, real-time video analysis technology in sports such as a tracking system (for example, TRACAB) that installs a large number of stereo cameras in a soccer stadium and tracks all players in the field in real time has been advanced.
特許文献1,2には、カメラ映像内から物体像の重なりにより追跡が困難となるオクルージョン現象を回避しつつ、広域を移動する物体を追跡する手法が記載されている。これらの手法では、8台程度の多数のカメラ映像中から対象物を追跡し、オクルージョンが発生した際には、他のオクルージョンの発生していないカメラの情報を利用しながら頑健に追跡する。
特許文献3には、サッカーボールなどの追跡対象オブジェクトに送信機を取り付け、その位置をリアルタイムで計測する手法が記載されている。 Patent Document 3 describes a method of attaching a transmitter to a tracking target object such as a soccer ball and measuring the position in real time.
しかし、特許文献1,2に記載の手法は、カメラを多数設置できる環境では有効であるが、カーリング競技場のようにカメラ台数に制約がある場合は利用が困難である。また、特許文献3に記載の手法は、カーリングのようにルールによって競技に用いる用具への加工が禁じられている場合には利用することができない。
However, the methods described in
本発明は、前記の点に鑑みてなされたものであり、オクルージョンが頻繁に発生するオブジェクトを少ない固定カメラで好適に追跡することが可能なオブジェクト追跡装置及びオブジェクト軌跡生成システムを提供することを課題とする。 The present invention has been made in view of the above points, and it is an object of the present invention to provide an object tracking device and an object trajectory generation system capable of suitably tracking an object in which occlusion frequently occurs with a small number of fixed cameras. And
前記した課題を解決するために、本発明のオブジェクト追跡装置は、固定カメラ映像に含まれるオブジェクトを追跡するオブジェクト追跡装置であって、追跡部と、探索範囲設定部と、を備える。 In order to solve the above-described problem, an object tracking device of the present invention is an object tracking device that tracks an object included in a fixed camera image, and includes a tracking unit and a search range setting unit.
オブジェクト追跡装置は、前記追跡部により、逐次学習型の追跡手法によって前記オブジェクトを追跡し、前記探索範囲設定部により、前記固定カメラ映像の現フレームに含まれる前記オブジェクトのサイズが大きいほど、次フレームにおける前記オブジェクトの探索範囲のサイズが大きくなるように、前記固定カメラ映像のフレームに前記探索範囲を設定する。また、オブジェクト追跡装置は、前記追跡部により、前記探索範囲設定部によって前記フレームに設定された前記探索範囲内において、前記オブジェクトを追跡する。 In the object tracking device, the tracking unit tracks the object by a sequential learning type tracking method, and the search range setting unit increases the size of the object included in the current frame of the fixed camera video as the next frame increases. The search range is set in the frame of the fixed camera video so that the size of the search range of the object at is large. The object tracking device tracks the object within the search range set in the frame by the search range setting unit by the tracking unit.
オブジェクト追跡装置は、オブジェクト候補画像生成部を備える構成であってもよい。この場合には、オブジェクト追跡装置は、前記オブジェクト候補画像生成部により、前記オブジェクトの色に基づいて、前記フレームに含まれるオブジェクト候補を抽出したオブジェクト候補画像を生成し、前記追跡部により、前記オブジェクト候補画像を用いて前記オブジェクトを追跡し、前記探索範囲設定部により、前記オブジェクト候補画像において前記探索範囲を設定する。 The object tracking device may include an object candidate image generation unit. In this case, the object tracking device generates an object candidate image obtained by extracting the object candidates included in the frame based on the color of the object by the object candidate image generation unit, and the tracking unit generates the object candidate image. The object is tracked using a candidate image, and the search range is set in the object candidate image by the search range setting unit.
また、本発明のオブジェクト軌跡生成システムは、前記オブジェクト追跡装置と、射影変換装置と、軌跡生成装置と、を備える。オブジェクト軌跡生成システムは、前記射影変換装置により、前記追跡部によって追跡された前記オブジェクトの座標を射影変換し、前記軌跡生成装置により、前記オブジェクト追跡装置によって追跡された前記オブジェクトの位置群、又は、前記オブジェクト追跡装置によって追跡されて前記射影変換装置によって射影変換された前記オブジェクトの位置群に基づいて、前記オブジェクトの軌跡を生成する。 The object trajectory generation system of the present invention includes the object tracking device, a projective transformation device, and a trajectory generation device. The object trajectory generation system performs projective conversion of the coordinates of the object tracked by the tracking unit by the projective conversion device, and the position group of the object tracked by the object tracking device by the trajectory generation device, or A trajectory of the object is generated based on a position group of the object tracked by the object tracking device and projectively transformed by the projective transformation device.
また、前記射影変換装置は、第一の変換部と、第二の変換部と、を備える。射影変換装置は、前記第一の変換部により、前記固定カメラ映像に含まれる前記オブジェクトの座標を、変換用の座標系に射影変換し、前記第二の変換部により、前記変換用の座標系に変換された前記オブジェクトの座標を、前記固定カメラ映像とは異なる視点からの座標系に射影変換する。 The projective conversion device includes a first conversion unit and a second conversion unit. The projective transformation device performs projective transformation of the coordinates of the object included in the fixed camera image to the coordinate system for conversion by the first conversion unit, and the coordinate system for conversion by the second conversion unit. Projective transformation is performed on the coordinates of the object converted into the coordinate system from a viewpoint different from that of the fixed camera video.
前記射影変換装置は、前記第一の変換部により、フィールドを一方側から撮影した前記オブジェクトの座標を、前記フィールドを上から見た前記変換用の座標系に変換し、前記第二の変換部により、前記変換用の座標系に変換された前記オブジェクトの座標を、前記フィールドを一方側から異なる画角で見た座標系に変換する構成であってもよい。 The projective transformation device transforms the coordinates of the object obtained by photographing the field from one side by the first conversion unit into the coordinate system for conversion when the field is viewed from above, and the second conversion unit. Thus, the coordinates of the object converted into the conversion coordinate system may be converted into a coordinate system in which the field is viewed from one side at a different angle of view.
また、前記射影変換装置は、前記第一の変換部により、フィールドを一方側から撮影した前記オブジェクトの座標を、前記フィールドを上から見た前記変換用の座標系に変換し、前記第二の変換部により、前記変換用の座標系に変換された前記オブジェクトの座標を前記フィールドの面内で180°回転させるとともに、180°回転した前記オブジェクトの座標を前記フィールドを前記一方側と対向する他方側から見た座標系に変換する構成であってもよい。 The projective transformation device converts the coordinates of the object obtained by photographing the field from one side to the coordinate system for conversion when the field is viewed from above by the first conversion unit. The coordinates of the object converted into the coordinate system for conversion by the conversion unit are rotated by 180 ° in the plane of the field, and the coordinates of the object rotated by 180 ° are the other opposite to the one side of the field. The configuration may be such that the coordinate system is viewed from the side.
オブジェクト軌跡生成システムは、前記軌跡生成装置により、スプライン補間によって前記オブジェクトの軌跡を生成する構成であってもよい。 The object trajectory generation system may be configured to generate the trajectory of the object by spline interpolation by the trajectory generation device.
前記オブジェクトは、カーリングのストーンであってもよい。 The object may be a curling stone.
本発明によると、オクルージョンが頻繁に発生するオブジェクトを少ない固定カメラで好適に追跡することができる。 According to the present invention, an object in which occlusion frequently occurs can be suitably tracked with a few fixed cameras.
本発明の実施形態について、本発明の装置及び装置を、オブジェクトとしてのカーリングのストーンの追跡に適用した場合を例にとり、図面を参照して詳細に説明する。以下の説明において、同一の要素には同一の符号を付し、重複する説明は省略する。 An embodiment of the present invention will be described in detail with reference to the drawings, taking as an example the case where the apparatus and apparatus of the present invention are applied to tracking of a curling stone as an object. In the following description, the same elements are denoted by the same reference numerals, and redundant descriptions are omitted.
カーリングは、氷上でハウスと呼ばれるサークルにストーンを投げ合い、その位置に応じた得点を競う競技である。ストーンの投げやすさはその日のカーリングシートの状態や、投石によるカーリングシートの状況変化に大きく左右される。その場その場で投げやすいコースを見極めて投げつつ、逆に敵チームには投げにくいコースへ投げさせる状況を作ることが勝負の秘訣である。 Curling is a game in which stones are thrown into a circle called a house on the ice, and points are scored according to their positions. The ease of throwing stones depends greatly on the curling sheet condition of the day and the changes in the curling sheet condition caused by stone throwing. The trick is to create a situation where the enemy team is thrown to a course that is difficult for the enemy team to throw, while finding the easy-to-throw course on the spot.
カメラ映像だけでカーリングシートの状態や各チームの戦術を伝えきるには限界があるが、本発明のオブジェクト軌跡生成システムは、投石の軌跡を累積表示することにより、解説コメントを交えて視聴者に分かりやすく状況を伝えることができる。カーリング競技でのストーン軌跡表示は初の試みであり、その映像表現自体にも新規性を有する。 Although there is a limit to telling the state of the curling seat and the tactics of each team only with the camera image, the object trajectory generation system of the present invention displays the trajectory of the stones cumulatively to the viewer with commentary comments. Can convey the situation in an easy-to-understand manner. Stone trajectory display in curling competition is the first attempt, and the video expression itself is also novel.
図1に示すように、本発明の実施形態に係るオブジェクト軌跡生成システム1は、カーリングにおける長さLA約45[m]、幅WA約5[m]のカーリングシート2の撮影結果に、オブジェクト4としてのストーンの軌跡を表示するためのシステムである。カーリングシート2の長さ方向両端部には、それぞれハウス3A,3Bが設けられている。オブジェクト4は、奇数エンドにおいてハウス3B側からハウス3Aへ向けて投じられ、偶数エンドにおいてハウス3A側からハウス3Bへ向けて投じられる。オブジェクト軌跡生成システム1は、固定カメラ10としての第一の固定カメラ10A及び第二の固定カメラ10Bと、スイッチャ20と、操作部30と、表示部40と、制御部50と、インサータ60と、を備える。
As shown in FIG. 1, the object
<第一の固定カメラ>
第一の固定カメラ10Aは、カーリングシート2の長さ方向一端部に設けられたハウス3Aに向けて投じられたオブジェクト4を撮影するためのものであって、カーリングシート2をハウス3A側から撮影する。第一の固定カメラ10Aの撮影結果は、スイッチャ20へ出力される。
<First fixed camera>
The first fixed camera 10A is for photographing the
ここで、図2(a)〜図4(a)に示すように、第一の固定カメラ10Aの撮影結果において、オブジェクト4は、画面の奥側(かつ上側)から手前側(かつ下側)に向かって移動する。また、図2(b)〜図4(b)に示すように、オブジェクト4には、カーリングの選手等によってオクルージョン(隠れ)が発生する。
Here, as shown in FIGS. 2A to 4A, in the photographing result of the first fixed camera 10A, the
<第二の固定カメラ>
図1に示すように、第二の固定カメラ10Bは、カーリングシート2の長さ方向他端部に設けられたハウス3Bに向けて投じられたオブジェクト4を撮影するためのものであって、カーリングシート2をハウス3B側から撮影する。第二の固定カメラ10Bの撮影結果は、スイッチャ20へ出力される。
<Second fixed camera>
As shown in FIG. 1, the second fixed camera 10 </ b> B is for photographing an
<第三の固定カメラ>
なお、図1には、第三の固定カメラ10Cが図示されている。第三の固定カメラ10Cは、第一の固定カメラ10Aと同様に、カーリングシート2の長さ方向一端部に設けられたハウス3Aに向けて投じられたオブジェクト4を撮影するためのものであって、カーリングシート2をハウス3A側から撮影する。第三の固定カメラ10Cの撮影結果は、スイッチャ20へ出力される。すなわち、第一の固定カメラ10A及び第三の固定カメラ10Cは、カーリングシート2を同一方向から異なる画角で撮影する。かかる第三の固定カメラ10Cは、第一の固定カメラ10Aによって撮影されるカーリングシート2の隣のカーリングシート2を撮影したり、第一の固定カメラ10Aによって撮影されるカーリングシート2と同一のカーリングシート2を、異なる日に異なる画角で撮影したりするものである。
<Third fixed camera>
In FIG. 1, a third fixed camera 10C is shown. Similarly to the first fixed camera 10A, the third fixed camera 10C is for photographing the
<スイッチャ>
スイッチャ20は、第一の固定カメラ10A及び第二の固定カメラ10Bの撮影結果を取得し、ユーザによる操作結果に基づいて、取得された撮影結果の一方を制御部50及びインサータ60へ出力する。本実施形態において、スイッチャ20は、固定カメラ10A,10Bの撮影結果のうち、オブジェクト4が奥側から手前側に移動する方(奇数エンドでは第一の固定カメラ10Aの撮影結果、偶数エンドでは第二の固定カメラ10Bの撮影結果)の撮影結果(例えば、図2〜図4参照)を制御部50及びインサータ60へ出力する。
<Switcher>
The
<操作部及び表示部>
操作部30は、キーボード、マウス等によって構成されており、ユーザによる当該操作部30の操作結果を制御部50へ出力する。表示部40は、モニタ等によって構成されており、制御部50からの画像データに基づいて、画像を表示する。
<Operation section and display section>
The
<制御部>
制御部50は、CPU(Central Processing Unit)、ROM(Read-Only Memory)、RAM(Random Access Memory)、入出力回路等によって構成されている。図5に示すように、制御部50は、機能部として、オブジェクト追跡部51と、射影変換部52と、軌跡生成部53と、記憶部54と、軌跡出力部55と、を備える。
<Control unit>
The
<オブジェクト追跡部(オブジェクト追跡装置)>
オブジェクト追跡部51は、固定カメラ10A,10Bによって撮影された映像に含まれるオブジェクト4を映像内において追跡する。オブジェクト追跡部51は、オブジェクト候補画像生成部51aと、追跡部51bと、探索範囲設定部51cと、を備える。
<Object Tracking Unit (Object Tracking Device)>
The
≪オブジェクト候補画像生成部≫
オブジェクト候補画像生成部51aは、固定カメラ10A,10Bの一方によって撮影された映像を構成するフレームである固定カメラ画像Itをスイッチャ20を介して取得し、取得された固定カメラ画像Itからオブジェクト候補画像Stを生成する。ここで、tは、映像を構成するフレームの番号である。オブジェクト候補画像Stは、後記する探索範囲5(図6参照)内においてオブジェクト4の候補が抽出されている画像である。
<< Object candidate image generator >>
Objects candidate
まず、オブジェクト候補画像生成部51aは、オブジェクト4の色(例えば、赤色又は黄色)に基づいて、固定カメラ画像Itに含まれる物体の中からオブジェクト4と同色のものをオブジェクト候補として抽出する。続いて、オブジェクト候補画像生成部51aは、抽出されたオブジェクト候補以外の画像領域を、黒で塗り潰す処理を行う。
First, the object candidate
続いて、オブジェクト候補画像生成部51aは、オブジェクト候補が抽出された画像を表示部40に表示させる。続いて、オブジェクト候補画像生成部51aは、表示部40に表示された画像を見たオペレータによる操作部30の操作結果に基づいて、1枚目の固定カメラ画像Itに関して、オブジェクト4の初期位置を指定するとともに、指定された当該オブジェクト4の位置を中心とする初期の探索範囲5(図6参照)を1枚目の固定カメラ画像Itに対して設定する。ここで指定されるオブジェクト4の初期位置は、初期の探索範囲5を設定するためのものである。また、探索範囲5の初期サイズ(縦及び横の寸法)は、予め記憶されている。
Subsequently, the object candidate
続いて、オブジェクト候補画像生成部51aは、探索範囲5(図6参照)内の画像領域にラべリング処理を施すとともに、面積及び形状に基づくフィルタリングを施すことによって、オブジェクト候補を絞り込む。ここで、オブジェクト候補画像生成部51aは、オブジェクト候補の面積が予め設定された最大値よりも大きい場合、オブジェクト候補の面積が予め設定された最小値よりも小さい場合、及び、オブジェクト候補の形状が予め設定された形状と異なる場合には、かかるオブジェクト候補を除外する。オブジェクト候補の面積の最大値及び最小値は、カーリングシート2の長さ方向の両端部に位置するオブジェクト4の面積に基づいて設定されており、予め記憶されている。続いて、オブジェクト候補画像生成部51aは、かかるフィルタリングによって除外されたオブジェクト候補を、黒で塗り潰す処理を行う。これにより、オブジェクト候補画像Stが得られる。
Subsequently, the object candidate
続いて、オブジェクト候補画像生成部51aは、1枚目の固定カメラ画像Itのオブジェクト候補画像Stに関して、オブジェクト候補のうち、探索範囲5(図6参照)の中心に最も近いものをオブジェクト4として抽出し、当該オブジェクト4のサイズ(例えば、一辺の長さ)を記憶する。
Subsequently, the object candidate
オブジェクト候補画像生成部51aは、2枚目以降のオブジェクト候補画像Stを、追跡部51bへ出力する。
Objects candidate
≪追跡部≫
追跡部51bは、オブジェクト候補画像生成部51aから出力されたオブジェクト候補画像Stを取得し、逐次学習型の追跡手法、本実施形態では、改良されたKCF(Kernelized Correlation Filter)法に基づいて、オブジェクト候補画像Stに含まれるオブジェクト4を追跡する。KCF法は、オブジェクト4自体の画像を逐次(随時)学習しながら追跡する手法である。そのため、KCF法では、カーリングのようにスイーパーによるスイーピングによってオブジェクト4に頻繁にオクルージョンが発生する状況においても、最新のオブジェクト4の見え方を学習しながら当該オブジェクト4を頑健に追跡することができる。また、KCF法では、Boosting、MIL(Multiple Instance Learning)、SVM(Support Vector Machine)等といった一般的な2クラス識別器を用いた手法とは異なり、FFT(Fast Fourier Transform)によってメモリ使用量を抑えつつ、高速にオブジェクト4を学習して追跡することができる。また、一般的な2クラス識別器を用いた手法では、オブジェクト4の予測位置の周辺からランダムに探索窓(subwindow)をサンプリングして識別処理を行うのに対し、KCF法では、1画素ずつ密に探索窓をシフトさせた画像群をFFTによって解析的に処理することで、オブジェクト4を高速に追跡することができる。
≪Tracking part≫
KCF法を用いる追跡部51bは、入力u(オブジェクト候補画像Stの画素値の系列、特徴ベクトル等)に重みwをかけるとともにバイアスbを足すことによって出力値f(x)を得る。
f(u)=〈w,u〉+b
=w1u1+w2u2+…+wmum+b …式(1)
また、KCF法を用いる追跡部51bは、得られた出力値f(u)に基づいて、画像中に映っている物体が対象のオブジェクト4であるか否かを判定する。
f (u) = <w, u> + b
= W 1 u 1 + w 2 u 2 +... + W m u m + b Formula (1)
The
追跡部51bは、重みw及びバイアスbの最適値を、学習フェーズにおいて式(2)の目的関数を最小化することによって算出する。式(2)において、Lは、ロス関数であり、推定結果f(u)と真値vとの誤差が大きいほどLも大きくなる。バイアスbは、重みwが大きな値をとることでf(u)が複雑化することを防止するために付加される正則化項である。λは、正則化項(重みw)のバランスを決定するハイパーパラメータである。ハイパーパラメータλを大きくする程、正則化の効果が高くなる(重みwの影響力が大きくなる)。
The
本実施形態において、追跡部51bは、探索範囲5を追跡対象であるオブジェクト4の周辺で1ピクセルずつシフトした画像群を生成し、生成された画像群を式(3)の示す巡回行列(circulant matirixes)C(u)として扱う。この巡回行列C(u)において、各行は、1ピクセルずつシフトした画像に該当する。式(4)において、Fはフーリエ変換、F−1はフーリエ逆変換、*は複素共役である。uは、前記入力であって、追跡対象のオブジェクト4の領域周辺で1ピクセルずつシフトした画像群である。vは、uの真値である。巡回行列C(u)において、行列の各行は、1ピクセルずつシフトした画像に相当する。すなわち、式(4)の右辺は、入力uをフーリエ変換したものの複素共役と真値vをフーリエ変換したものとの要素ごとの積(アダマール積)をフーリエ逆変換したものである。
In the present embodiment, the
追跡部51bは、巡回行列C(u)と真値のベクトルvとの積を、フーリエ空間のみにおいて式(4)によって計算することができる。空間領域の畳み込み演算は、周波数領域の乗除演算に等しいため、追跡部51bは、かかる巡回行列の特性を用いることによって、繰り返し処理が不要な高速処理を実現することができる。オブジェクト4の追跡処理において、追跡部51bは、学習フェーズで算出された重みw及びバイアスbを用いてf(u)を算出し、当該f(u)が最大となるuをオブジェクト4の位置(座標)とする。
The
オブジェクト4の位置すなわち二次元座標(x,y)をPf C(i)で表す。ここで、iは、オブジェクト4の位置の通し番号を表し、Cは、固定カメラ10A,10Bの番号を表す。Cは、第一の固定カメラ10Aを示す「1」、第二の固定カメラ10Bを示す「2」及び上方視点座標系の「T」の3通りの値をとる。fは、当該固定カメラから見て順方向の軌跡であることを示す。反転によって逆方向に延びる軌跡を表す際には、r(reverse)を用いてPr C(i)とする。
The position of the
追跡部51bは、オブジェクト4が静止するまで当該オブジェクト4を追跡し続ける。追跡部51bは、オブジェクト4の速度をフレーム毎に算出し、算出されたオブジェクト4の速度に基づいて追跡終了を判定することができる。また、追跡部51bは、オペレータによる操作部30の操作結果に基づいて追跡を終了することができる。また、オブジェクト4が選手等に隠れた状態で静止した場合(オクルージョンが発生した場合)には、追跡部51bは、オペレータによる操作部30の操作結果に基づいて、オブジェクト4の静止位置を取得することができる。
The
≪探索範囲設定部≫
オブジェクト4であるカーリングのストーンは、画面の奥側から手前側に向かってサイズを拡大しながら移動する。ここで、既存のKCF法は、探索範囲5のサイズが固定であることを前提に設計されているため、カーリングのストーンを追跡する場合には、追跡が不安定になりやすい。そこで、探索範囲設定部51cは、オブジェクト4のサイズrに基づいて、探索範囲5のサイズR(図6参照)を更新する。
Rt+1=(rt/rt−1)・Rt …式(5)
≪Search range setting part≫
The curling stone that is the
R t + 1 = (r t / r t−1 ) · R t (5)
ここで、tは、フレームの番号、rt−1は、前フレームにおけるオブジェクト4の一辺(縦辺又は横辺)の長さ、rtは、現フレームにおけるオブジェクト4の一辺(縦辺又は横辺)の長さ、Rtは、現フレームにおける探索範囲5の一辺の長さ、Rt+1は、次フレームにおける探索範囲5の一辺の長さである。
Here, t is the frame number, r t-1 is the length of one side (vertical side or horizontal side) of the
すなわち、探索範囲設定部51cは、前フレームから現フレームにかけてのオブジェクト4のサイズ(ここでは、一辺の寸法)の拡大/縮小率に基づいて、現フレームから次フレームにかけての探索範囲5の拡大/縮小率を決定する。詳細には、探索範囲設定部51cは、前フレームにおけるオブジェクト4のサイズrt−1(図6(a)参照)、現フレームにおけるオブジェクトのサイズrt(図6(b)参照)及び現フレームにおける探索範囲5のサイズRt(図6(b)参照)をオブジェクト候補画像生成部51a及び/又は追跡部51bから取得し、取得された各サイズrt−1,rt,Rtに基づいて、次フレームにおける探索範囲5のサイズRt+1(図6(c)参照)を算出し、算出されたサイズの探索範囲5を、次フレームの画像に設定する。すなわち、探索範囲設定部51cによって設定(更新)された探索範囲5を用いて、追跡部51bによるオブジェクト4の追跡が行われる。探索範囲5の形状は、縦辺及び横辺の長さが等しい正方形であってもよく、オブジェクト4の形状に合わせて縦辺及び横辺の長さを変化させる長方形であってもよい。
That is, the search
なお、探索範囲設定部51cは、t−1枚目のフレームとt枚目のフレームとの間におけるオブジェクトの移動ベクトル(速度)に基づいて、t+1枚目のフレームにおける探索範囲5の位置(中心位置)を設定することができる。
The search
また、探索範囲設定部51cは、tが所定数以下(例えば、3以上5以下)の場合には、所定サイズ(例えば、前記した初期サイズ)の探索範囲5を用いてオブジェクト4を追跡することができる。同様に、探索範囲設定部51cは、tが所定数以下(例えば、3以上5以下)の場合には、指定されたオブジェクト4の初期位置を中心として探索範囲5を設定することができる。これにより、探索範囲設定部51cは、特にt=1,2における探索範囲5の設定を好適に行うことができる。
The search
<射影変換部(射影変換装置)>
射影変換部52は、オブジェクト4の位置Pf C(i)の集合であるオブジェクト位置群Pf Cを取得し、取得されたオブジェクト位置群Pf Cを、オブジェクト4の軌跡のCG描画に適した座標系に射影変換する。ここで、Pf C(i)は、一の固定カメラ10(例えば、10A)によって撮影された2次元座標系であるため、画角の異なる他の固定カメラ10(例えば、10C)によって撮影された画像に対して正確な位置にオブジェクト4の軌跡を描画することは困難である。そのため、射影変換部52は、射影変換を用いて、一の固定カメラ10によって撮影されたオブジェクト4の位置(座標)を、一旦、上方視点座標系へ変換し、その後、他の固定カメラ10に対応する他の座標系へ変換する。ここで、上方視点座標系は、カーリングシート2をその中心部の上方から撮影した場合の座標系である。射影変換部52は、第一の変換部52aと、第二の変換部52bと、を備える。
<Projection conversion unit (projection conversion device)>
The
≪第一の変換部≫
第一の変換部52aは、追跡部51bから出力されたオブジェクト位置群Pf Cを取得し、取得されたオブジェクト位置群Pf Cを上方視点座標系へ射影変換し、変換結果を第二の変換部52bへ出力する。変換後の座標を(xp,yp)、変換前の座標を(xc,yc)とすると、
xp=(h1xc+h2yc+h3)/(h7xc+h8yc+1)
yp=(h4xc+h5yc+h6)/(h7xc+h8yc+1)
となる。
この射影変換は平面から平面への写像であるため、変換後に得られる座標も2次元座標となる。ここで、3次元空間のZ軸に垂直で原点を通過する平面を仮定すると、常にZ=0となるため、射影変換後の2次元座標が得られることによって、3次元座標上の1点を指定することができる。ここで、オブジェクト4としてのカーリングのストーンは氷上を平行移動するため、高さ方向をZ軸としてZ=0と設定することによって、第一の固定カメラ10Aによって撮影された2次元座標系におけるオブジェクト4の位置から、オブジェクト4の三次元位置が算出可能である。かかる射影変換における射影変換行列Hにおいて、h1,…,h8は未知の射影変換パラメータである。8つの射影変換パラメータh1,…h8は、変換前後の画像間の4点以上の対応関係に基づいて算出可能である。
≪First conversion part≫
The
x p = (h 1 x c +
y p = (h 4 x c +
It becomes.
Since this projective transformation is a mapping from a plane to a plane, the coordinates obtained after the transformation are also two-dimensional coordinates. Here, assuming a plane perpendicular to the Z-axis in the three-dimensional space and passing through the origin, Z = 0 is always obtained, so that a two-dimensional coordinate after projective transformation is obtained, so that one point on the three-dimensional coordinate is obtained. Can be specified. Here, since the curling stone as the
第一の変換部52aは、第一の固定カメラ10Aによって撮影された画像を表示部40に表示させる。また、第一の変換部52aは、表示部40に表示された画像を見たオペレータによる操作部30の操作結果に基づいて、第一の固定カメラ10Aによって撮影された画像における4点(例えば、カーリングシート2の四隅2a〜2d)に変換前の座標を取得し、取得された変換前の座標と、予め記憶された変換後の座標と、に基づいて、射影変換行列Hを生成する。
The
≪第二の変換部≫
第二の変換部52bは、第一の変換部52aの変換結果を取得し、取得された変換結果(上方視点座標系)を、さらに他の固定カメラ10(例えば、第二の固定カメラ10B又は第三の固定カメラ10C)の座標系に射影変換する。
≪Second conversion part≫
The
≪画角変化への対応≫
第二の変換部52bは、前記した射影変換を用いることによって、第一の固定カメラ10Aによって撮影されたオブジェクト4の軌跡を、画角が異なる第三の固定カメラ10Cの画像に対して正しい位置に描画することができるようにする。すなわち、射影変換部52は、過去の試合において別の画角で撮影されたオブジェクト4の軌跡を、現在の固定カメラ10Cの画角に合わせて表示することを可能とする。
≪Responding to changes in angle of view≫
By using the above-described projective transformation, the
まず、第一の変換部52aは、第一の画角に設定された第一の固定カメラ10Aに関して、射影変換行列H1を算出するとともに、第一の画角におけるオブジェクト位置群Pf Cをオブジェクト追跡部51から取得する(図7(a)参照)。続いて、第二の変換部52bは、第二の画角に設定された第三の固定カメラ10Cに関して、射影変換行列H3を算出する。
First, the
続いて、第一の変換部52aは、オブジェクト位置群Pf CをH1で射影変換することによって、上方視点座標系のオブジェクト位置群Pf Tを取得する(図7(b)参照)。続いて、第二の変換部52bは、オブジェクト位置群Pf TをH3で逆射影変換することによって、第二の画角に設定された第三の固定カメラ10Cでのオブジェクト位置群Pf C’を取得する(図8参照)。このように、射影変換部52は、第二の画角の画像に描画するのに適したオブジェクト位置群Pf C’を得ることができる。
Subsequently, the
≪軌跡の反転≫
カーリングは10エンドまで行われ、奇数エンド(1,3,5,7,9)と偶数エンド(2,4,6,8,10)とでハウスの位置が交互に入れ替えられる。そのため、奇数エンドでの投石(オブジェクト4の軌跡)と偶数エンドの投石とは逆方向となり、一方の第一の固定カメラ10Aによるオブジェクト位置群を他方の第二の固定カメラ10Bによる画像に単に合成し、奇数エンド及び偶数エンドのオブジェクト4の軌跡を同時に表示しようとすると、逆方向のオブジェクト4の軌跡が混在することとなる。
≪Inversion of locus≫
Curling is performed up to 10 ends, and the positions of the houses are alternately switched between odd ends (1, 3, 5, 7, 9) and even ends (2, 4, 6, 8, 10). Therefore, the stone throwing at the odd end (the trajectory of the object 4) and the stone throwing at the even end are in opposite directions, and the object position group by one first fixed camera 10A is simply combined with the image by the other second fixed camera 10B. Then, when trying to display the trajectories of the odd-numbered end and even-numbered end objects 4 at the same time, the trajectories of the
ここで、射影変換部52は、奇数エンド及び偶数エンドの一方のオブジェクト位置群を点対象に180°回転させることによって、奇数エンド及び偶数エンドの両方のオブジェクト位置群を同一方向に向かう軌跡とする。
Here, the
まず、第一の変換部52aは、カーリングシート2の一方側に設置された固定カメラ10Aに関して、射影変換行列H1を算出するとともに、オブジェクト位置群Pf Cをオブジェクト追跡部51から取得する(図7(a)参照)。続いて、第一の変換部52aは、オブジェクト位置群Pf CをH1で射影変換することによって、上方視点座標系のオブジェクト位置群Pf Tを取得する(図7(b)参照)。続いて、第二の変換部52bは、式(8)(9)によって、上方視点座標系におけるオブジェクト位置群を点対象に180°回転させる(図9(a)参照)。
Pr T(i,x)=WA−Pf T(i,x) …式(8)
Pr T(i,y)=HA−Pf T(i,y) …式(9)
ここで、Pf T(i,x)は、上方視点座標系における回転前のx座標、Pf T(i,y)は、上方視点座標系における回転前のy座標、Pr T(i,x)は、上方視点座標系における回転後のx座標、Pr T(i,y)は、上方視点座標系における回転後のy座標である。また、WAは、カーリングシート2の幅(定数)であり、HAは、カーリングシート2の高さ(定数)である。
First, the
P r T (i, x) = W A −P f T (i, x) (8)
P r T (i, y) = H A -P f T (i, y) ... formula (9)
Here, P f T (i, x) is the x coordinate before rotation in the upper viewpoint coordinate system, P f T (i, y) is the y coordinate before rotation in the upper viewpoint coordinate system, and P r T (i , X) is the x coordinate after rotation in the upper viewpoint coordinate system, and P r T (i, y) is the y coordinate after rotation in the upper viewpoint coordinate system. Further, W A is the width of the curling sheet 2 (constant), H A is the curling
続いて、第二の変換部52bは、カーリングシート2の他方側に設置された固定カメラ10Bに関して、射影変換行列H2を算出する。続いて、第二の変換部52bは、オブジェクト位置群Pr TをH2で逆射影変換することによって、カーリングシート2の他方側に設置された固定カメラ10Bでのオブジェクト位置群Pr C’’を取得する(図9(b)参照)。このように、射影変換部52は、カーリングシート2の反対側からの画像に描画するのに適したオブジェクト位置群Pf C’を得ることができる。
Subsequently, the
なお、射影変換部52における射影変換前及び射影変換後(2回の変換後)のオブジェクト位置群は、撮影対象である平面上のフィールド(カーリングシート2)の領域を、当該フィールドに直交する上下の領域から外れた位置(例えば、斜め上)から撮影した座標系によって表される。また、射影変換部52における射影変換途中(1回の変換後)のオブジェクト位置群は、撮影対象である平面上のフィールド(カーリングシート2)の領域を、当該フィールドに直交する上下の領域から撮影した座標系(変換用の座標系。例えば、上方視点座標系、下方視点座標系)によって表される。
It should be noted that the object position group before the projective transformation and after the projective transformation (after the second transformation) in the
<軌跡生成部(軌跡生成装置)>
軌跡生成部53は、得られたオブジェクト位置群を用いて、オブジェクト4の軌跡を生成し、生成された軌跡に関するデータを記憶部54に記憶させる。ここで、検出された全てのフレームにおけるオブジェクト4の位置を繋ぐと、誤検出、検出漏れ等の影響が生じるため、滑らかな軌跡を描画することは困難である。そのため、軌跡生成部53は、オブジェクト位置群の数点をサンプリングし、サンプリングされたオブジェクト位置にスプライン補間を行うことによって、オブジェクト4の軌跡を滑らかな曲線として描画可能に生成する。
<Track generation unit (track generation device)>
The
スプライン補間は、与えられた点群の全てを用いて関数を決定するのではなく、局所的な数点のみを用いて局所の関数(曲線)を決定し、かつ、決定された複数の曲線が全体として滑らかに接続される手法である。スプライン補間は、点群の全てから単一の多項式を決定するのではなく、各区間を比較的低い次元の多項式で近似する。軌跡生成部53は、3次スプライン補間を用いており、以下の式(10)(11)によってオブジェクト4の軌跡kを生成する。式(10)(11)において、kは、スプライン補間によって得られる軌跡を示す関数である。jは、スプライン補間に用いるのに選択された局所的な数点(n個の点(x,y))の通し番号である。式(10)(11)において、軌跡kは、x座標、y座標ごとに分けて記述されている。
kj(x)=pj+qj(x−xj)+rj(x−xj)2+sj(x−xj)3 …式(10)
kj(y)=pj+qj(y−yj)+rj(y−yj)2+sj(y−yj)3 …式(11)
ここで、j=0,1,…,n−1
軌跡生成部53は、点(xj,yj)の全てを通り、係数pj,qj,rj,sjの値が各点(xj,yj)で一致するように、係数pj,qj,rj,sjを設定する。ここで、2乗の係数rjの両端に関して、r0=rn−1=0とする。
Spline interpolation determines a local function (curve) using only a few local points instead of determining a function using all of the given points, and the determined curves are This is a method that is smoothly connected as a whole. Spline interpolation does not determine a single polynomial from all of the points, but approximates each interval with a relatively low-dimensional polynomial. The
k j (x) = p j + q j (x−x j ) + r j (x− j j ) 2 + s j (x−x j ) 3 ... (10)
k j (y) = p j + q j (y−y j ) + r j (y−y j ) 2 + s j (y−y j ) 3 ... (11)
Where j = 0, 1,..., N−1.
The
<軌跡出力部>
軌跡出力部55は、オペレータによる操作部30の操作結果に基づいて、記憶部54に記憶された軌跡に関するデータ(kj(x)及びkj(y)のセット)を読み出し、読み出された軌跡に関するデータをインサータ60へ出力する。
<Track output unit>
The
<インサータ>
インサータ60は、スイッチャ20から出力された固定カメラ10(例えば、第二の固定カメラ10B又は第三の固定カメラ10C)の画像、及び、軌跡出力部55によって出力された軌跡に関するデータ(例えば、第一の固定カメラ10Aによって撮影されたオブジェクト4の軌跡に関するデータ)を取得し、取得された軌跡に関するデータに基づいて、当該軌跡を固定カメラ10(例えば、第二の固定カメラ10B又は第三の固定カメラ10C)の画像上に合成し、合成画像を出力する)。図10に示す例では、第二の固定カメラ10Bによって撮影された画像に対して、1試合中に第一の固定カメラ10A及び第二の固定カメラ10Bによって撮影された画像に含まれるオブジェクト4の軌跡の全て(例えば、第一の固定カメラ10Aによる軌跡が点線、第二の固定カメラ10Bによる軌跡が実線)が合成されている。第一の固定カメラ10Aによって撮影されたオブジェクト4の軌跡は、実際にはハウス3B側からハウス3Aへ向かうものであるが、かかる合成画像では、ハウス3B側からハウス3Aへ向かうように変換されている。そのため、第一の固定カメラ10Aによって撮影されたオブジェクト4の軌跡と第二の固定カメラ10Bによって撮影されたオブジェクト4の軌跡とが同一方向に向かうようになっており、かかる合成画像は、視聴者に対してカーリングのゲーム内容を好適に伝えることができる。オブジェクト4の軌跡が合成された画像は、図示しない表示装置に表示される。
<Inserter>
The
<動作例>
続いて、本発明の実施形態に係るオブジェクト軌跡生成システム1の動作例について、オブジェクト4の追跡、オブジェクト4の軌跡(オブジェクト位置群)の射影変換の順に説明する。図12及び図13のフローは、それぞれ、図11のフローの後に実行される。
<Operation example>
Next, an operation example of the object
≪オブジェクトの追跡≫
図11に示すように、オブジェクト候補画像生成部51aは、固定カメラ10によって撮影された固定カメラ画像Itを取得し、取得された固定カメラ画像Itからオブジェクト候補画像Stを生成する(ステップS1)。オブジェクト候補画像Stが1枚目である場合(ステップS2でYes)において、オブジェクト候補画像生成部51aは、オブジェクト4の初期位置の手動指定を受けると(ステップS3でYes)、オブジェクト4の初期位置を中心とした初期の探索範囲5を1枚目のオブジェクト候補画像Stに設定する(ステップS4)。
≪Tracking of objects≫
As shown in FIG. 11, the object candidate
オブジェクト候補画像Stが2枚目以降である場合(ステップS2でNo)と、ステップS4の実行後とには、オブジェクト候補画像生成部51aは、探索範囲5内のオブジェクト候補を絞り込む(ステップS5)。続いて、追跡部51bは、KCF法を用いて、オブジェクト候補画像Stからオブジェクト4を検出する(ステップS6)。
When the object candidate image St is the second or subsequent image (No in step S2) and after execution of step S4, the object candidate
続いて、探索範囲設定部51cは、検出されたオブジェクト4の位置及びサイズに基づいて、探索範囲5の位置及びサイズを更新する(ステップS7)。ステップS1〜S7は、オブジェクト4が静止する(ステップS8でNo)まで繰り返される。
Subsequently, the search
オブジェクト4が静止した場合(ステップS8でYes)において、静止したオブジェクト4にオクルージョンが発生している場合(ステップS9でYes)には、追跡部51bは、オブジェクト4の最終位置の手動指定を受ける(ステップS10)。静止したオブジェクト4にオクルージョンが発生していない場合(ステップS9でNo)と、オブジェクト4の最終位置が手動指定された場合(ステップS10でYes)とには、本フローは終了する。
When the
≪オブジェクトの軌跡の射影変換:画角変化への対応≫
図12に示すように、第二の変換部52bは、第三の固定カメラ10Cの撮影結果の4点の手動指定を受けると(ステップS21でYes)、手動指定された4点の座標に基づいて、射影変換行列H3を生成する(ステップS22)。続いて、第一の変換部52aは、予め得られた第一の固定カメラ10Aの撮影結果からのオブジェクト位置群Pf Cを予め算出された射影変換行列H1を用いて射影変換することによって、上方視点座標系におけるオブジェクト位置群Pf Tを算出する(ステップS23)。続いて、第二の変換部52bは、オブジェクト位置群Pf Tを射影変換行列H3を用いて逆射影変換することによって、第三の固定カメラ10Cの座標系におけるオブジェクト位置群Pf C’を算出する(ステップS24)。
≪Projective transformation of object trajectory: Response to changes in angle of view≫
As illustrated in FIG. 12, when the
≪オブジェクトの軌跡の射影変換:画角変化への対応≫
一方、図13に示すように、第二の変換部52bは、第二の固定カメラ10Bの撮影結果の4点の手動指定を受けると(ステップS41でYes)、手動指定された4点の座標に基づいて、射影変換行列H2を生成する(ステップS42)。続いて、第一の変換部52aは、予め得られた第一の固定カメラ10Aの撮影結果からのオブジェクト位置群Pf Cを予め算出された射影変換行列H1を用いて射影変換することによって、上方視点座標系におけるオブジェクト位置群Pf Tを算出する(ステップS43)。続いて、第二の変換部52bは、オブジェクト位置群Pf Tをカーリングシート2の中心を回転中心として180°回転させることによって、オブジェクト位置群Pr Tを算出する(ステップS44)。続いて、第二の変換部52bは、オブジェクト位置群Pr Tを射影変換行列H2を用いて逆射影変換することによって、第二の固定カメラ10Bの座標系におけるオブジェクト位置群Pr Cを算出する(ステップS45)。
≪Projective transformation of object trajectory: Response to changes in angle of view≫
On the other hand, as illustrated in FIG. 13, when the
本発明の実施形態に係るオブジェクト軌跡生成システム1は、逐次学習型の追跡手法であるKCF法によってオブジェクト4を追跡するとともに、オブジェクト4が大きくなるほど探索範囲5を大きく設定するので、撮影サイズが可変であるとともにオクルージョンが発生しやすいオブジェクト4を好適に追跡することができる。
The object
また、オブジェクト軌跡生成システム1は、オブジェクト4の色に基づいて生成されたオブジェクト候補画像を用いてオブジェクト4を追跡するので、より高速にオブジェクト4を追跡することができる。
Moreover, since the object
また、オブジェクト軌跡生成システム1は、変換用の座標系である上方視点座標系を介して射影変換を行うので、オブジェクト4の位置群を異なる視点からの座標系へ好適に変換することができる。
Further, since the object
特に、オブジェクト軌跡生成システム1は、オブジェクト4の位置群を異なる画角からの固定カメラ10の座標系に変換したり、カーリングシート2の反対側からにある固定カメラ10の座標系に変換したりすることによって、オブジェクト4の位置群を他の固定カメラ10の画像に合成するのに適した座標系に変換することができる。
In particular, the object
また、オブジェクト軌跡生成システム1は、スプライン補間によってオブジェクト4の軌跡を生成するので、誤検出、検出漏れ等の影響を防ぎ、滑らかな軌跡を生成することができる。
In addition, since the object
また、オブジェクト軌跡生成システム1は、オブジェクト4としてカーリングのストーンを追跡するので、撮影サイズが可変であるとともにオクルージョンが発生しやすいカーリングのストーンを好適に追跡することができる。また、オブジェクト軌跡生成システム1は、異なる画角で撮影されたり反対方向から撮影されたりするカーリングのストーンの軌跡を、表示装置に好適に表示させることができる。
In addition, since the object
以上、本発明の実施形態について説明したが、本発明は前記実施形態に限定されず、本発明の要旨を逸脱しない範囲で適宜変更可能である。例えば、追跡部51bにおける逐次学習型の追跡手法は、改良されたKCF法に限定されない。また、記憶部54に記憶されたオブジェクト4の位置群には、オペレータによる操作部30の操作結果に基づいて、当該位置群の属性が付与されてもよい。属性としては、チーム(赤、黄)、ショットの種別(テイクショット、ドローショット)、選手名、ショット番号等が挙げられる。この場合、軌跡出力部55は、オペレータによる操作部30の操作結果に基づいて、操作結果で指定された属性を有するオブジェクト4の位置群を記憶部54から読み出し、インサータ60へ出力することができる。すなわち、インサータ60は、特定の属性を有するオブジェクト4の軌跡を図示しない表示装置に表示させることができる。
As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment, In the range which does not deviate from the summary of this invention, it can change suitably. For example, the sequential learning type tracking method in the
また、変換用の座標系は、上方視点座標系に限定されず、例えば、カーリングシート2をその中心の下から仮想的に見る下方視点座標系であってもよい。
Moreover, the coordinate system for conversion is not limited to the upper viewpoint coordinate system, and may be, for example, a lower viewpoint coordinate system in which the
また、本発明のオブジェクト軌跡生成システム1、オブジェクト追跡部(オブジェクト追跡装置)51、射影変換部(射影変換装置)52及び軌跡生成部(軌跡生成装置)53は、カーリングのストーン以外のオブジェクト4の追跡及び軌跡の生成に適用可能である。
In addition, the object
1 オブジェクト軌跡生成システム
2 カーリングシート(フィールド)
3A,3B ハウス
4 オブジェクト(ストーン)
5 探索範囲
10,10A,10B,10C 固定カメラ
51 オブジェクト追跡部(オブジェクト追跡装置)
51a オブジェクト候補画像生成部
51b 追跡部
51c 探索範囲設定部
52 射影変換部(射影変換装置)
52a 第一の変換部
52b 第二の変換部
53 軌跡生成部(軌跡生成装置)
1 Object
3A,
5 Search Range 10, 10A, 10B, 10C Fixed
51a Object candidate
52a
Claims (7)
逐次学習型の追跡手法によって前記オブジェクトを追跡する追跡部と、
前記固定カメラ映像の現フレームに含まれる前記オブジェクトのサイズが大きいほど、次フレームにおける前記オブジェクトの探索範囲のサイズが大きくなるように、前記固定カメラ映像のフレームに前記探索範囲を設定する探索範囲設定部と、
を備え、
前記追跡部は、前記探索範囲設定部によって前記フレームに設定された前記探索範囲内において、前記オブジェクトを追跡する
ことを特徴とするオブジェクト追跡装置。 An object tracking device for tracking an object included in a fixed camera image,
A tracking unit that tracks the object by a sequential learning type tracking method;
A search range setting that sets the search range in the frame of the fixed camera video so that the size of the search range of the object in the next frame increases as the size of the object included in the current frame of the fixed camera video increases. And
With
The tracking unit tracks the object within the search range set in the frame by the search range setting unit.
前記追跡部は、前記オブジェクト候補画像を用いて前記オブジェクトを追跡し、
前記探索範囲設定部は、前記オブジェクト候補画像において前記探索範囲を設定する
ことを特徴とする請求項1に記載のオブジェクト追跡装置。 An object candidate image generation unit that generates an object candidate image obtained by extracting object candidates included in the frame based on the color of the object;
The tracking unit tracks the object using the object candidate image,
The object tracking apparatus according to claim 1, wherein the search range setting unit sets the search range in the object candidate image.
前記追跡部によって追跡された前記オブジェクトの座標を射影変換する射影変換装置と、
前記オブジェクト追跡装置によって追跡された前記オブジェクトの位置群、又は、前記オブジェクト追跡装置によって追跡されて前記射影変換装置によって射影変換された前記オブジェクトの位置群に基づいて、前記オブジェクトの軌跡を生成する軌跡生成装置と、
を備え、
前記射影変換装置は、
前記固定カメラ映像に含まれる前記オブジェクトの座標を、変換用の座標系に射影変換する第一の変換部と、
前記変換用の座標系に変換された前記オブジェクトの座標を、前記固定カメラ映像とは異なる視点からの座標系に射影変換する第二の変換部と、
を備えることを特徴とするオブジェクト軌跡生成システム。 The object tracking device according to claim 1 or 2,
A projective transformation device for projective transformation of the coordinates of the object tracked by the tracking unit;
A trajectory for generating a trajectory of the object based on the position group of the object tracked by the object tracking device or the position group of the object tracked by the object tracking device and projectively transformed by the projective transformation device. A generating device;
With
The projective transformation device comprises:
A first conversion unit for projectively converting the coordinates of the object included in the fixed camera video to a coordinate system for conversion;
A second conversion unit for projectively converting the coordinates of the object converted into the coordinate system for conversion into a coordinate system from a different viewpoint from the fixed camera video;
An object trajectory generation system comprising:
前記第二の変換部は、前記変換用の座標系に変換された前記オブジェクトの座標を、前記フィールドを一方側から異なる画角で見た座標系に変換する
ことを特徴とする請求項3に記載のオブジェクト軌跡生成システム。 The first conversion unit converts the coordinates of the object taken from one side of the field into the coordinate system for conversion when the field is viewed from above,
The said 2nd conversion part converts the coordinate of the said object converted into the coordinate system for the said conversion into the coordinate system which looked at the said field from the one side at a different angle of view. The object trajectory generation system described.
前記第二の変換部は、前記変換用の座標系に変換された前記オブジェクトの座標を前記フィールドの面内で180°回転させるとともに、180°回転した前記オブジェクトの座標を前記フィールドを前記一方側と対向する他方側から見た座標系に変換する
ことを特徴とする請求項3に記載のオブジェクト軌跡生成システム。 The first conversion unit converts the coordinates of the object taken from one side of the field into the coordinate system for conversion when the field is viewed from above,
The second conversion unit rotates the coordinates of the object converted into the coordinate system for conversion by 180 ° in the plane of the field, and the coordinates of the object rotated by 180 ° as the one side of the field. The object locus generation system according to claim 3, wherein the object locus generation system is converted to a coordinate system viewed from the other side opposite to.
ことを特徴とする請求項3から請求項5のいずれか一項に記載のオブジェクト軌跡生成システム。 The object locus generation system according to any one of claims 3 to 5, wherein the locus generation device generates a locus of the object by spline interpolation.
ことを特徴とする請求項3から請求項6のいずれか一項に記載のオブジェクト軌跡生成システム。 The object trajectory generation system according to any one of claims 3 to 6, wherein the object is a curling stone.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017114052A JP2018206285A (en) | 2017-06-09 | 2017-06-09 | Object tracking device and object trajectory generation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017114052A JP2018206285A (en) | 2017-06-09 | 2017-06-09 | Object tracking device and object trajectory generation system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018206285A true JP2018206285A (en) | 2018-12-27 |
Family
ID=64957912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017114052A Pending JP2018206285A (en) | 2017-06-09 | 2017-06-09 | Object tracking device and object trajectory generation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018206285A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111476825A (en) * | 2020-03-10 | 2020-07-31 | 重庆邮电大学 | Anti-occlusion target tracking method based on multi-example learning and kernel correlation filter |
JP2020187385A (en) * | 2019-05-09 | 2020-11-19 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Geometric parameter estimation device, geometric parameter estimation system, geometric parameter estimation method and computer program |
JP2020191036A (en) * | 2019-05-24 | 2020-11-26 | 日本放送協会 | Object locus generation device and program |
JP7424280B2 (en) | 2020-12-01 | 2024-01-30 | オムロン株式会社 | Information processing device and information processing method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012014558A (en) * | 2010-07-02 | 2012-01-19 | Sony Corp | Image processing method, image processing device, program and recording medium |
WO2014207892A1 (en) * | 2013-06-28 | 2014-12-31 | 楽天株式会社 | Information processing device, information processing method, information processing device program, and recording medium |
JP2015230616A (en) * | 2014-06-05 | 2015-12-21 | キヤノン株式会社 | Image processing method and image processor |
JP2016071830A (en) * | 2014-09-26 | 2016-05-09 | 日本電気株式会社 | Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium |
JP2016126624A (en) * | 2015-01-06 | 2016-07-11 | Kddi株式会社 | Device, program and method for tracking body using dedicated discrimination device on occlusion occurrence |
-
2017
- 2017-06-09 JP JP2017114052A patent/JP2018206285A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012014558A (en) * | 2010-07-02 | 2012-01-19 | Sony Corp | Image processing method, image processing device, program and recording medium |
WO2014207892A1 (en) * | 2013-06-28 | 2014-12-31 | 楽天株式会社 | Information processing device, information processing method, information processing device program, and recording medium |
JP2015230616A (en) * | 2014-06-05 | 2015-12-21 | キヤノン株式会社 | Image processing method and image processor |
JP2016071830A (en) * | 2014-09-26 | 2016-05-09 | 日本電気株式会社 | Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium |
JP2016126624A (en) * | 2015-01-06 | 2016-07-11 | Kddi株式会社 | Device, program and method for tracking body using dedicated discrimination device on occlusion occurrence |
Non-Patent Citations (1)
Title |
---|
谷川 右京、外6名: ""部位追跡を併用した車椅子利用者の検出に関する検討 "", 電子情報通信学会技術研究報告, vol. 116, no. 91, JPN6021021938, 6 June 2016 (2016-06-06), JP, pages 65 - 70, ISSN: 0004576909 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020187385A (en) * | 2019-05-09 | 2020-11-19 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Geometric parameter estimation device, geometric parameter estimation system, geometric parameter estimation method and computer program |
JP7334058B2 (en) | 2019-05-09 | 2023-08-28 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Geometric parameter estimation device, geometric parameter estimation system, geometric parameter estimation method, and computer program |
JP2020191036A (en) * | 2019-05-24 | 2020-11-26 | 日本放送協会 | Object locus generation device and program |
JP7316097B2 (en) | 2019-05-24 | 2023-07-27 | 日本放送協会 | Object trajectory generator and its program |
CN111476825A (en) * | 2020-03-10 | 2020-07-31 | 重庆邮电大学 | Anti-occlusion target tracking method based on multi-example learning and kernel correlation filter |
CN111476825B (en) * | 2020-03-10 | 2022-08-26 | 重庆邮电大学 | Anti-occlusion target tracking method based on multi-example learning and kernel correlation filter |
JP7424280B2 (en) | 2020-12-01 | 2024-01-30 | オムロン株式会社 | Information processing device and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10334168B2 (en) | Threshold determination in a RANSAC algorithm | |
Reinbacher et al. | Real-time panoramic tracking for event cameras | |
US10354129B2 (en) | Hand gesture recognition for virtual reality and augmented reality devices | |
JP2018206285A (en) | Object tracking device and object trajectory generation system | |
JP6951166B2 (en) | How and devices to blur virtual objects in video | |
JP6641163B2 (en) | Object tracking device and its program | |
JP4758842B2 (en) | Video object trajectory image composition device, video object trajectory image display device, and program thereof | |
US9042637B2 (en) | Image processing device, method of processing image, and image display apparatus | |
JP7164968B2 (en) | IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE | |
JP2008171280A (en) | Position detection device, method, and program | |
US8644645B2 (en) | Image processing device and processing method thereof | |
JP2014505389A (en) | Method for processing an image in the invisible spectral region, corresponding camera and measuring device | |
US9413952B2 (en) | Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method | |
Jiang et al. | Golfpose: Golf swing analyses with a monocular camera based human pose estimation | |
JP6494402B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP5748355B2 (en) | Three-dimensional coordinate calculation apparatus, three-dimensional coordinate calculation method, and program | |
Imre et al. | Calibration of nodal and free-moving cameras in dynamic scenes for post-production | |
JP7316097B2 (en) | Object trajectory generator and its program | |
JP4578653B2 (en) | Depth image generation apparatus, depth image generation method, and computer-readable recording medium storing a program for causing a computer to execute the method | |
JP4652536B2 (en) | Motion information detecting device, motion information detecting method, and recording medium recording motion information detecting program | |
JP7265825B2 (en) | Generation device, generation method and program | |
JP2013126123A (en) | Image processing device, imaging apparatus, and image processing method | |
TWI594209B (en) | Method for automatically deducing motion parameter for control of mobile stage based on video images | |
JP7393179B2 (en) | Photography equipment | |
CN116385273B (en) | Method, system and storage medium for moving points in stepping panoramic roaming |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200424 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210805 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210824 |