JP2018206285A - Object tracking device and object trajectory generation system - Google Patents

Object tracking device and object trajectory generation system Download PDF

Info

Publication number
JP2018206285A
JP2018206285A JP2017114052A JP2017114052A JP2018206285A JP 2018206285 A JP2018206285 A JP 2018206285A JP 2017114052 A JP2017114052 A JP 2017114052A JP 2017114052 A JP2017114052 A JP 2017114052A JP 2018206285 A JP2018206285 A JP 2018206285A
Authority
JP
Japan
Prior art keywords
tracking
unit
conversion
search range
fixed camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017114052A
Other languages
Japanese (ja)
Inventor
高橋 正樹
Masaki Takahashi
正樹 高橋
佐和子 村松
Sawako Muramatsu
佐和子 村松
泰之 松久
Yasuyuki Matsuhisa
泰之 松久
真介 横澤
Shinsuke Yokozawa
真介 横澤
秀樹 三ツ峰
Hideki Mitsumine
秀樹 三ツ峰
三科 智之
Tomoyuki Mishina
智之 三科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2017114052A priority Critical patent/JP2018206285A/en
Publication of JP2018206285A publication Critical patent/JP2018206285A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

To provide an object tracking device capable of optimally tracking an object in which occlusion is frequently generated, with few stationary cameras.SOLUTION: An object tracking section 51 as the object tracking device includes: a tracking part 51b for tracking an object by a sequential learning-type tracking method; and a search range setup part 51c setting up a search range to frames of stationary cameras such that as a size of the object included in current frames is enlarged, the size of the object search range in next frames is enlarged. The tracking part 51b tracks the object within the search ranges set up in the frames by the search range setup part 51c.SELECTED DRAWING: Figure 5

Description

本発明は、固定カメラの撮影結果からオブジェクトを追跡する技術に関する。   The present invention relates to a technique for tracking an object from a photographing result of a fixed camera.

映像解析技術の進展に伴い、カメラをセンサとした様々なアプリケーションが提案されている。ウィンブルドンでも使用されているテニスのホークアイシステムは、複数の固定カメラ映像をセンサとしてテニスボールを3次元的に追跡し、ジャッジに絡むイン/アウトの判定を行っている。また2014年のFIFAワールドカップで用いられたゴールラインテクノロジーは、数台の固定カメラの映像を解析し、ゴールの判定を自動化している。さらにサッカースタジアムへ多数のステレオカメラを設置し、フィールド内の全選手をリアルタイムに追跡するトラッキングシステム(例えば、TRACAB)等、スポーツにおけるリアルタイム映像解析技術の高度化が進んでいる。   With the progress of video analysis technology, various applications using cameras as sensors have been proposed. The tennis hawkeye system also used in Wimbledon tracks a tennis ball three-dimensionally by using a plurality of fixed camera images as sensors, and performs in / out determination involving a judge. The goal line technology used in the 2014 FIFA World Cup automates goal determination by analyzing video from several fixed cameras. Furthermore, real-time video analysis technology in sports such as a tracking system (for example, TRACAB) that installs a large number of stereo cameras in a soccer stadium and tracks all players in the field in real time has been advanced.

特許文献1,2には、カメラ映像内から物体像の重なりにより追跡が困難となるオクルージョン現象を回避しつつ、広域を移動する物体を追跡する手法が記載されている。これらの手法では、8台程度の多数のカメラ映像中から対象物を追跡し、オクルージョンが発生した際には、他のオクルージョンの発生していないカメラの情報を利用しながら頑健に追跡する。   Patent Documents 1 and 2 describe a method of tracking an object moving in a wide area while avoiding an occlusion phenomenon that makes tracking difficult due to overlapping of object images from within a camera video. In these methods, an object is tracked from a large number of camera images of about eight cameras, and when occlusion occurs, the object is robustly tracked using information of other cameras in which no occlusion has occurred.

特許文献3には、サッカーボールなどの追跡対象オブジェクトに送信機を取り付け、その位置をリアルタイムで計測する手法が記載されている。   Patent Document 3 describes a method of attaching a transmitter to a tracking target object such as a soccer ball and measuring the position in real time.

特開2001−94975号公報JP 2001-94975 A 特開2016−1447号公報JP-A-2006-1447 特表2006−504088号公報JP-T-2006-504088

しかし、特許文献1,2に記載の手法は、カメラを多数設置できる環境では有効であるが、カーリング競技場のようにカメラ台数に制約がある場合は利用が困難である。また、特許文献3に記載の手法は、カーリングのようにルールによって競技に用いる用具への加工が禁じられている場合には利用することができない。   However, the methods described in Patent Documents 1 and 2 are effective in an environment where a large number of cameras can be installed, but are difficult to use when the number of cameras is limited as in a curling stadium. In addition, the technique described in Patent Document 3 cannot be used when the processing of the equipment used for the competition is prohibited by rules, such as curling.

本発明は、前記の点に鑑みてなされたものであり、オクルージョンが頻繁に発生するオブジェクトを少ない固定カメラで好適に追跡することが可能なオブジェクト追跡装置及びオブジェクト軌跡生成システムを提供することを課題とする。   The present invention has been made in view of the above points, and it is an object of the present invention to provide an object tracking device and an object trajectory generation system capable of suitably tracking an object in which occlusion frequently occurs with a small number of fixed cameras. And

前記した課題を解決するために、本発明のオブジェクト追跡装置は、固定カメラ映像に含まれるオブジェクトを追跡するオブジェクト追跡装置であって、追跡部と、探索範囲設定部と、を備える。   In order to solve the above-described problem, an object tracking device of the present invention is an object tracking device that tracks an object included in a fixed camera image, and includes a tracking unit and a search range setting unit.

オブジェクト追跡装置は、前記追跡部により、逐次学習型の追跡手法によって前記オブジェクトを追跡し、前記探索範囲設定部により、前記固定カメラ映像の現フレームに含まれる前記オブジェクトのサイズが大きいほど、次フレームにおける前記オブジェクトの探索範囲のサイズが大きくなるように、前記固定カメラ映像のフレームに前記探索範囲を設定する。また、オブジェクト追跡装置は、前記追跡部により、前記探索範囲設定部によって前記フレームに設定された前記探索範囲内において、前記オブジェクトを追跡する。   In the object tracking device, the tracking unit tracks the object by a sequential learning type tracking method, and the search range setting unit increases the size of the object included in the current frame of the fixed camera video as the next frame increases. The search range is set in the frame of the fixed camera video so that the size of the search range of the object at is large. The object tracking device tracks the object within the search range set in the frame by the search range setting unit by the tracking unit.

オブジェクト追跡装置は、オブジェクト候補画像生成部を備える構成であってもよい。この場合には、オブジェクト追跡装置は、前記オブジェクト候補画像生成部により、前記オブジェクトの色に基づいて、前記フレームに含まれるオブジェクト候補を抽出したオブジェクト候補画像を生成し、前記追跡部により、前記オブジェクト候補画像を用いて前記オブジェクトを追跡し、前記探索範囲設定部により、前記オブジェクト候補画像において前記探索範囲を設定する。   The object tracking device may include an object candidate image generation unit. In this case, the object tracking device generates an object candidate image obtained by extracting the object candidates included in the frame based on the color of the object by the object candidate image generation unit, and the tracking unit generates the object candidate image. The object is tracked using a candidate image, and the search range is set in the object candidate image by the search range setting unit.

また、本発明のオブジェクト軌跡生成システムは、前記オブジェクト追跡装置と、射影変換装置と、軌跡生成装置と、を備える。オブジェクト軌跡生成システムは、前記射影変換装置により、前記追跡部によって追跡された前記オブジェクトの座標を射影変換し、前記軌跡生成装置により、前記オブジェクト追跡装置によって追跡された前記オブジェクトの位置群、又は、前記オブジェクト追跡装置によって追跡されて前記射影変換装置によって射影変換された前記オブジェクトの位置群に基づいて、前記オブジェクトの軌跡を生成する。   The object trajectory generation system of the present invention includes the object tracking device, a projective transformation device, and a trajectory generation device. The object trajectory generation system performs projective conversion of the coordinates of the object tracked by the tracking unit by the projective conversion device, and the position group of the object tracked by the object tracking device by the trajectory generation device, or A trajectory of the object is generated based on a position group of the object tracked by the object tracking device and projectively transformed by the projective transformation device.

また、前記射影変換装置は、第一の変換部と、第二の変換部と、を備える。射影変換装置は、前記第一の変換部により、前記固定カメラ映像に含まれる前記オブジェクトの座標を、変換用の座標系に射影変換し、前記第二の変換部により、前記変換用の座標系に変換された前記オブジェクトの座標を、前記固定カメラ映像とは異なる視点からの座標系に射影変換する。   The projective conversion device includes a first conversion unit and a second conversion unit. The projective transformation device performs projective transformation of the coordinates of the object included in the fixed camera image to the coordinate system for conversion by the first conversion unit, and the coordinate system for conversion by the second conversion unit. Projective transformation is performed on the coordinates of the object converted into the coordinate system from a viewpoint different from that of the fixed camera video.

前記射影変換装置は、前記第一の変換部により、フィールドを一方側から撮影した前記オブジェクトの座標を、前記フィールドを上から見た前記変換用の座標系に変換し、前記第二の変換部により、前記変換用の座標系に変換された前記オブジェクトの座標を、前記フィールドを一方側から異なる画角で見た座標系に変換する構成であってもよい。   The projective transformation device transforms the coordinates of the object obtained by photographing the field from one side by the first conversion unit into the coordinate system for conversion when the field is viewed from above, and the second conversion unit. Thus, the coordinates of the object converted into the conversion coordinate system may be converted into a coordinate system in which the field is viewed from one side at a different angle of view.

また、前記射影変換装置は、前記第一の変換部により、フィールドを一方側から撮影した前記オブジェクトの座標を、前記フィールドを上から見た前記変換用の座標系に変換し、前記第二の変換部により、前記変換用の座標系に変換された前記オブジェクトの座標を前記フィールドの面内で180°回転させるとともに、180°回転した前記オブジェクトの座標を前記フィールドを前記一方側と対向する他方側から見た座標系に変換する構成であってもよい。   The projective transformation device converts the coordinates of the object obtained by photographing the field from one side to the coordinate system for conversion when the field is viewed from above by the first conversion unit. The coordinates of the object converted into the coordinate system for conversion by the conversion unit are rotated by 180 ° in the plane of the field, and the coordinates of the object rotated by 180 ° are the other opposite to the one side of the field. The configuration may be such that the coordinate system is viewed from the side.

オブジェクト軌跡生成システムは、前記軌跡生成装置により、スプライン補間によって前記オブジェクトの軌跡を生成する構成であってもよい。   The object trajectory generation system may be configured to generate the trajectory of the object by spline interpolation by the trajectory generation device.

前記オブジェクトは、カーリングのストーンであってもよい。   The object may be a curling stone.

本発明によると、オクルージョンが頻繁に発生するオブジェクトを少ない固定カメラで好適に追跡することができる。   According to the present invention, an object in which occlusion frequently occurs can be suitably tracked with a few fixed cameras.

本発明の実施形態に係るオブジェクト軌跡生成システムを示す模式図である。It is a mimetic diagram showing an object locus generating system concerning an embodiment of the present invention. (a)は、撮影画像の一例を示す図であり、(b)は(a)のオブジェクト付近を示す拡大図である。(A) is a figure which shows an example of a picked-up image, (b) is an enlarged view which shows the object vicinity of (a). (a)は、撮影画像の一例を示す図であり、(b)は(a)のオブジェクト付近を示す拡大図である。(A) is a figure which shows an example of a picked-up image, (b) is an enlarged view which shows the object vicinity of (a). (a)は、撮影画像の一例を示す図であり、(b)は(a)のオブジェクト付近を示す拡大図である。(A) is a figure which shows an example of a picked-up image, (b) is an enlarged view which shows the object vicinity of (a). 本発明の実施形態に係るオブジェクト軌跡生成システムを示すブロック図である。It is a block diagram which shows the object locus | trajectory generation system which concerns on embodiment of this invention. 探索範囲の設定手法を説明するための図であって、(a)はt−1枚目のオブジェクト候補画像におけるオブジェクト及び探索範囲の一例を示す図、(b)はt枚目のオブジェクト候補画像におけるオブジェクト及び探索範囲の一例を示す図、(c)はt+1枚目のオブジェクト候補画像におけるオブジェクト及び探索範囲の一例を示す図である。FIG. 7 is a diagram for explaining a search range setting method, in which (a) is a diagram illustrating an example of an object and a search range in a t−1th object candidate image, and (b) is a tth object candidate image. FIG. 6C is a diagram illustrating an example of an object and a search range in FIG. 6C, and FIG. 8C is a diagram illustrating an example of an object and a search range in a t + 1th object candidate image. 画角変化への対応手法及び軌跡の反転手法を説明するための図であって、(a)は固定カメラによるカーリングシートの撮影結果の一例を示す図、(b)は上方視点座標系に射影変換されたカーリングシートの撮影結果の一例を示す図である。It is a figure for demonstrating the correspondence method to a view angle change, and the inversion method of a locus | trajectory, Comprising: (a) is a figure which shows an example of the imaging | photography result of a curling sheet by a fixed camera, (b) is a projection to an upper viewpoint coordinate system It is a figure which shows an example of the imaging | photography result of the converted curling sheet. 画角変化への対応手法を説明するための図であって、他の画角の固定カメラの座標系に変換されたカーリングシートの撮影結果の一例を示す図である。It is a figure for demonstrating the response | compatibility method to a view angle change, Comprising: It is a figure which shows an example of the imaging | photography result of the curling sheet converted into the coordinate system of the fixed camera of another view angle. 軌跡の反転手法を説明するための図であって、(a)は上方視点座標系に射影変換されたカーリングシートの撮影結果を反転させた一例を示す図、(b)は他方の固定カメラの座標系に変換されたカーリングシートの撮影結果の一例を示す図である。It is a figure for demonstrating the reversal method of a locus | trajectory, Comprising: (a) is a figure which shows an example which reversed the imaging | photography result of the curling sheet | seat by which projection conversion was carried out to the upper viewpoint coordinate system, (b) is a figure of the other fixed camera. It is a figure which shows an example of the imaging | photography result of the curling sheet converted into a coordinate system. オブジェクトの軌跡の合成画像の一例を示す図である。It is a figure which shows an example of the synthesized image of the locus | trajectory of an object. 本発明の実施形態に係るオブジェクト軌跡生成システムの動作例を説明するフローチャートである。It is a flowchart explaining the operation example of the object locus | trajectory generation system which concerns on embodiment of this invention. 本発明の実施形態に係るオブジェクト軌跡生成システムの動作例を説明するフローチャートである。It is a flowchart explaining the operation example of the object locus | trajectory generation system which concerns on embodiment of this invention. 本発明の実施形態に係るオブジェクト軌跡生成システムの動作例を説明するフローチャートである。It is a flowchart explaining the operation example of the object locus | trajectory generation system which concerns on embodiment of this invention.

本発明の実施形態について、本発明の装置及び装置を、オブジェクトとしてのカーリングのストーンの追跡に適用した場合を例にとり、図面を参照して詳細に説明する。以下の説明において、同一の要素には同一の符号を付し、重複する説明は省略する。   An embodiment of the present invention will be described in detail with reference to the drawings, taking as an example the case where the apparatus and apparatus of the present invention are applied to tracking of a curling stone as an object. In the following description, the same elements are denoted by the same reference numerals, and redundant descriptions are omitted.

カーリングは、氷上でハウスと呼ばれるサークルにストーンを投げ合い、その位置に応じた得点を競う競技である。ストーンの投げやすさはその日のカーリングシートの状態や、投石によるカーリングシートの状況変化に大きく左右される。その場その場で投げやすいコースを見極めて投げつつ、逆に敵チームには投げにくいコースへ投げさせる状況を作ることが勝負の秘訣である。   Curling is a game in which stones are thrown into a circle called a house on the ice, and points are scored according to their positions. The ease of throwing stones depends greatly on the curling sheet condition of the day and the changes in the curling sheet condition caused by stone throwing. The trick is to create a situation where the enemy team is thrown to a course that is difficult for the enemy team to throw, while finding the easy-to-throw course on the spot.

カメラ映像だけでカーリングシートの状態や各チームの戦術を伝えきるには限界があるが、本発明のオブジェクト軌跡生成システムは、投石の軌跡を累積表示することにより、解説コメントを交えて視聴者に分かりやすく状況を伝えることができる。カーリング競技でのストーン軌跡表示は初の試みであり、その映像表現自体にも新規性を有する。   Although there is a limit to telling the state of the curling seat and the tactics of each team only with the camera image, the object trajectory generation system of the present invention displays the trajectory of the stones cumulatively to the viewer with commentary comments. Can convey the situation in an easy-to-understand manner. Stone trajectory display in curling competition is the first attempt, and the video expression itself is also novel.

図1に示すように、本発明の実施形態に係るオブジェクト軌跡生成システム1は、カーリングにおける長さL約45[m]、幅W約5[m]のカーリングシート2の撮影結果に、オブジェクト4としてのストーンの軌跡を表示するためのシステムである。カーリングシート2の長さ方向両端部には、それぞれハウス3A,3Bが設けられている。オブジェクト4は、奇数エンドにおいてハウス3B側からハウス3Aへ向けて投じられ、偶数エンドにおいてハウス3A側からハウス3Bへ向けて投じられる。オブジェクト軌跡生成システム1は、固定カメラ10としての第一の固定カメラ10A及び第二の固定カメラ10Bと、スイッチャ20と、操作部30と、表示部40と、制御部50と、インサータ60と、を備える。 As shown in FIG. 1, the object trajectory generation system 1 according to the embodiment of the present invention includes a curling sheet 2 having a curling length L A of about 45 [m] and a width W A of about 5 [m]. This is a system for displaying a trajectory of a stone as the object 4. Houses 3A and 3B are provided at both ends in the length direction of the curling sheet 2, respectively. The object 4 is thrown from the house 3B side to the house 3A at the odd end, and is thrown from the house 3A side to the house 3B at the even end. The object trajectory generation system 1 includes a first fixed camera 10A and a second fixed camera 10B as the fixed camera 10, a switcher 20, an operation unit 30, a display unit 40, a control unit 50, an inserter 60, Is provided.

<第一の固定カメラ>
第一の固定カメラ10Aは、カーリングシート2の長さ方向一端部に設けられたハウス3Aに向けて投じられたオブジェクト4を撮影するためのものであって、カーリングシート2をハウス3A側から撮影する。第一の固定カメラ10Aの撮影結果は、スイッチャ20へ出力される。
<First fixed camera>
The first fixed camera 10A is for photographing the object 4 thrown toward the house 3A provided at one end of the curling sheet 2 in the length direction, and photographs the curling sheet 2 from the house 3A side. To do. The photographing result of the first fixed camera 10 </ b> A is output to the switcher 20.

ここで、図2(a)〜図4(a)に示すように、第一の固定カメラ10Aの撮影結果において、オブジェクト4は、画面の奥側(かつ上側)から手前側(かつ下側)に向かって移動する。また、図2(b)〜図4(b)に示すように、オブジェクト4には、カーリングの選手等によってオクルージョン(隠れ)が発生する。   Here, as shown in FIGS. 2A to 4A, in the photographing result of the first fixed camera 10A, the object 4 moves from the back side (and the upper side) to the front side (and the lower side) of the screen. Move towards. Further, as shown in FIGS. 2B to 4B, the object 4 is occluded (hidden) by a curling player or the like.

<第二の固定カメラ>
図1に示すように、第二の固定カメラ10Bは、カーリングシート2の長さ方向他端部に設けられたハウス3Bに向けて投じられたオブジェクト4を撮影するためのものであって、カーリングシート2をハウス3B側から撮影する。第二の固定カメラ10Bの撮影結果は、スイッチャ20へ出力される。
<Second fixed camera>
As shown in FIG. 1, the second fixed camera 10 </ b> B is for photographing an object 4 thrown toward a house 3 </ b> B provided at the other longitudinal end of the curling sheet 2. The sheet 2 is photographed from the house 3B side. The imaging result of the second fixed camera 10B is output to the switcher 20.

<第三の固定カメラ>
なお、図1には、第三の固定カメラ10Cが図示されている。第三の固定カメラ10Cは、第一の固定カメラ10Aと同様に、カーリングシート2の長さ方向一端部に設けられたハウス3Aに向けて投じられたオブジェクト4を撮影するためのものであって、カーリングシート2をハウス3A側から撮影する。第三の固定カメラ10Cの撮影結果は、スイッチャ20へ出力される。すなわち、第一の固定カメラ10A及び第三の固定カメラ10Cは、カーリングシート2を同一方向から異なる画角で撮影する。かかる第三の固定カメラ10Cは、第一の固定カメラ10Aによって撮影されるカーリングシート2の隣のカーリングシート2を撮影したり、第一の固定カメラ10Aによって撮影されるカーリングシート2と同一のカーリングシート2を、異なる日に異なる画角で撮影したりするものである。
<Third fixed camera>
In FIG. 1, a third fixed camera 10C is shown. Similarly to the first fixed camera 10A, the third fixed camera 10C is for photographing the object 4 thrown toward the house 3A provided at one end in the length direction of the curling sheet 2. The curling sheet 2 is photographed from the house 3A side. The photographing result of the third fixed camera 10 </ b> C is output to the switcher 20. That is, the first fixed camera 10A and the third fixed camera 10C capture the curling sheet 2 from the same direction at different angles of view. The third fixed camera 10C captures the curling sheet 2 adjacent to the curling sheet 2 photographed by the first fixed camera 10A, or the same curling as the curling sheet 2 photographed by the first fixed camera 10A. The sheet 2 is photographed at different angles of view on different days.

<スイッチャ>
スイッチャ20は、第一の固定カメラ10A及び第二の固定カメラ10Bの撮影結果を取得し、ユーザによる操作結果に基づいて、取得された撮影結果の一方を制御部50及びインサータ60へ出力する。本実施形態において、スイッチャ20は、固定カメラ10A,10Bの撮影結果のうち、オブジェクト4が奥側から手前側に移動する方(奇数エンドでは第一の固定カメラ10Aの撮影結果、偶数エンドでは第二の固定カメラ10Bの撮影結果)の撮影結果(例えば、図2〜図4参照)を制御部50及びインサータ60へ出力する。
<Switcher>
The switcher 20 acquires the imaging results of the first fixed camera 10A and the second fixed camera 10B, and outputs one of the acquired imaging results to the control unit 50 and the inserter 60 based on the operation result by the user. In the present embodiment, the switcher 20 moves the object 4 from the back side to the near side among the shooting results of the fixed cameras 10A and 10B (the shooting result of the first fixed camera 10A at the odd end and the first at the even end. The imaging result (for example, see FIGS. 2 to 4) of the second fixed camera 10 </ b> B is output to the control unit 50 and the inserter 60.

<操作部及び表示部>
操作部30は、キーボード、マウス等によって構成されており、ユーザによる当該操作部30の操作結果を制御部50へ出力する。表示部40は、モニタ等によって構成されており、制御部50からの画像データに基づいて、画像を表示する。
<Operation section and display section>
The operation unit 30 is configured by a keyboard, a mouse, and the like, and outputs an operation result of the operation unit 30 by the user to the control unit 50. The display unit 40 is configured by a monitor or the like, and displays an image based on image data from the control unit 50.

<制御部>
制御部50は、CPU(Central Processing Unit)、ROM(Read-Only Memory)、RAM(Random Access Memory)、入出力回路等によって構成されている。図5に示すように、制御部50は、機能部として、オブジェクト追跡部51と、射影変換部52と、軌跡生成部53と、記憶部54と、軌跡出力部55と、を備える。
<Control unit>
The control unit 50 includes a CPU (Central Processing Unit), a ROM (Read-Only Memory), a RAM (Random Access Memory), an input / output circuit, and the like. As illustrated in FIG. 5, the control unit 50 includes an object tracking unit 51, a projective conversion unit 52, a trajectory generation unit 53, a storage unit 54, and a trajectory output unit 55 as functional units.

<オブジェクト追跡部(オブジェクト追跡装置)>
オブジェクト追跡部51は、固定カメラ10A,10Bによって撮影された映像に含まれるオブジェクト4を映像内において追跡する。オブジェクト追跡部51は、オブジェクト候補画像生成部51aと、追跡部51bと、探索範囲設定部51cと、を備える。
<Object Tracking Unit (Object Tracking Device)>
The object tracking unit 51 tracks the object 4 included in the video captured by the fixed cameras 10A and 10B in the video. The object tracking unit 51 includes an object candidate image generation unit 51a, a tracking unit 51b, and a search range setting unit 51c.

≪オブジェクト候補画像生成部≫
オブジェクト候補画像生成部51aは、固定カメラ10A,10Bの一方によって撮影された映像を構成するフレームである固定カメラ画像Iをスイッチャ20を介して取得し、取得された固定カメラ画像Iからオブジェクト候補画像Sを生成する。ここで、tは、映像を構成するフレームの番号である。オブジェクト候補画像Sは、後記する探索範囲5(図6参照)内においてオブジェクト4の候補が抽出されている画像である。
<< Object candidate image generator >>
Objects candidate image generation unit 51a, an object fixed camera 10A, the fixed camera image I t is a frame constituting the image captured by one of 10B obtained through the switcher 20, from the obtained fixed camera image I t Candidate image St is generated. Here, t is the number of a frame constituting the video. Objects candidate image S t is an image candidate of the object 4 is within the search range to below 5 (see FIG. 6) is extracted.

まず、オブジェクト候補画像生成部51aは、オブジェクト4の色(例えば、赤色又は黄色)に基づいて、固定カメラ画像Iに含まれる物体の中からオブジェクト4と同色のものをオブジェクト候補として抽出する。続いて、オブジェクト候補画像生成部51aは、抽出されたオブジェクト候補以外の画像領域を、黒で塗り潰す処理を行う。 First, the object candidate image generation unit 51a, the color of the object 4 (e.g., red or yellow) on the basis of the extracted ones object 4 and the same color as an object candidate from among the objects included in the fixed camera image I t. Subsequently, the object candidate image generation unit 51a performs a process of filling the image area other than the extracted object candidate with black.

続いて、オブジェクト候補画像生成部51aは、オブジェクト候補が抽出された画像を表示部40に表示させる。続いて、オブジェクト候補画像生成部51aは、表示部40に表示された画像を見たオペレータによる操作部30の操作結果に基づいて、1枚目の固定カメラ画像Iに関して、オブジェクト4の初期位置を指定するとともに、指定された当該オブジェクト4の位置を中心とする初期の探索範囲5(図6参照)を1枚目の固定カメラ画像Iに対して設定する。ここで指定されるオブジェクト4の初期位置は、初期の探索範囲5を設定するためのものである。また、探索範囲5の初期サイズ(縦及び横の寸法)は、予め記憶されている。 Subsequently, the object candidate image generation unit 51a causes the display unit 40 to display an image from which the object candidates are extracted. Subsequently, the object candidate image generation unit 51a, based on the operation result of the operation unit 30 by the operator who viewed the image displayed on the display unit 40, with respect to the first sheet of the fixed camera image I t, the initial position of the object 4 as well as specify the sets initial search range 5 around the specified position of the object 4 (see FIG. 6) with respect to the first sheet of the fixed camera image I t. The initial position of the object 4 specified here is for setting the initial search range 5. The initial size (vertical and horizontal dimensions) of the search range 5 is stored in advance.

続いて、オブジェクト候補画像生成部51aは、探索範囲5(図6参照)内の画像領域にラべリング処理を施すとともに、面積及び形状に基づくフィルタリングを施すことによって、オブジェクト候補を絞り込む。ここで、オブジェクト候補画像生成部51aは、オブジェクト候補の面積が予め設定された最大値よりも大きい場合、オブジェクト候補の面積が予め設定された最小値よりも小さい場合、及び、オブジェクト候補の形状が予め設定された形状と異なる場合には、かかるオブジェクト候補を除外する。オブジェクト候補の面積の最大値及び最小値は、カーリングシート2の長さ方向の両端部に位置するオブジェクト4の面積に基づいて設定されており、予め記憶されている。続いて、オブジェクト候補画像生成部51aは、かかるフィルタリングによって除外されたオブジェクト候補を、黒で塗り潰す処理を行う。これにより、オブジェクト候補画像Sが得られる。 Subsequently, the object candidate image generation unit 51a narrows down the object candidates by performing a labeling process on the image region in the search range 5 (see FIG. 6) and filtering based on the area and shape. Here, the object candidate image generation unit 51a determines that the area of the object candidate is larger than the preset maximum value, the area of the object candidate is smaller than the preset minimum value, and the shape of the object candidate is If the shape is different from the preset shape, the object candidate is excluded. The maximum value and the minimum value of the area of the object candidate are set based on the area of the object 4 located at both ends in the length direction of the curling sheet 2 and stored in advance. Subsequently, the object candidate image generation unit 51a performs a process of filling the object candidates excluded by the filtering with black. Thereby, the object candidate image St is obtained.

続いて、オブジェクト候補画像生成部51aは、1枚目の固定カメラ画像Iのオブジェクト候補画像Sに関して、オブジェクト候補のうち、探索範囲5(図6参照)の中心に最も近いものをオブジェクト4として抽出し、当該オブジェクト4のサイズ(例えば、一辺の長さ)を記憶する。 Subsequently, the object candidate image generation unit 51a, with respect to the object candidate image S t of the first sheet of the fixed camera image I t, of the object candidates, the search range 5 objects 4 the closest to the center (see FIG. 6) And the size of the object 4 (for example, the length of one side) is stored.

オブジェクト候補画像生成部51aは、2枚目以降のオブジェクト候補画像Sを、追跡部51bへ出力する。 Objects candidate image generation unit 51a, a second or subsequent object candidate image S t, and outputs to the tracking unit 51b.

≪追跡部≫
追跡部51bは、オブジェクト候補画像生成部51aから出力されたオブジェクト候補画像Sを取得し、逐次学習型の追跡手法、本実施形態では、改良されたKCF(Kernelized Correlation Filter)法に基づいて、オブジェクト候補画像Sに含まれるオブジェクト4を追跡する。KCF法は、オブジェクト4自体の画像を逐次(随時)学習しながら追跡する手法である。そのため、KCF法では、カーリングのようにスイーパーによるスイーピングによってオブジェクト4に頻繁にオクルージョンが発生する状況においても、最新のオブジェクト4の見え方を学習しながら当該オブジェクト4を頑健に追跡することができる。また、KCF法では、Boosting、MIL(Multiple Instance Learning)、SVM(Support Vector Machine)等といった一般的な2クラス識別器を用いた手法とは異なり、FFT(Fast Fourier Transform)によってメモリ使用量を抑えつつ、高速にオブジェクト4を学習して追跡することができる。また、一般的な2クラス識別器を用いた手法では、オブジェクト4の予測位置の周辺からランダムに探索窓(subwindow)をサンプリングして識別処理を行うのに対し、KCF法では、1画素ずつ密に探索窓をシフトさせた画像群をFFTによって解析的に処理することで、オブジェクト4を高速に追跡することができる。
≪Tracking part≫
Tracking unit 51b acquires the object candidate image S t output from the object candidate image generation unit 51a, tracking method of sequential learning type, in the present embodiment, based on the improved KCF (Kernelized Correlation Filter) method, tracking objects 4 that are included in the object candidate image S t. The KCF method is a method of tracking an image of the object 4 itself while learning sequentially (as needed). For this reason, in the KCF method, even in a situation where occlusion frequently occurs in the object 4 due to sweeping by a sweeper, such as curling, the object 4 can be tracked robustly while learning how the latest object 4 looks. Also, in the KCF method, unlike a method using a general 2-class classifier such as Boosting, MIL (Multiple Instance Learning), SVM (Support Vector Machine), etc., the memory usage is suppressed by FFT (Fast Fourier Transform). However, the object 4 can be learned and tracked at high speed. Further, in the method using a general two-class classifier, a search window (subwindow) is randomly sampled from the vicinity of the predicted position of the object 4 and the discrimination process is performed. The object 4 can be tracked at high speed by analytically processing the image group with the search window shifted to FFT.

KCF法を用いる追跡部51bは、入力u(オブジェクト候補画像Sの画素値の系列、特徴ベクトル等)に重みwをかけるとともにバイアスbを足すことによって出力値f(x)を得る。
f(u)=〈w,u〉+b
=w+w+…+w+b …式(1)
また、KCF法を用いる追跡部51bは、得られた出力値f(u)に基づいて、画像中に映っている物体が対象のオブジェクト4であるか否かを判定する。
Tracking unit 51b using the KCF method, to obtain an output value f (x) by adding the bias b with applying a weight w to the input u (series of pixel values of the object candidate image S t, the feature vector, etc.).
f (u) = <w, u> + b
= W 1 u 1 + w 2 u 2 +... + W m u m + b Formula (1)
The tracking unit 51b using the KCF method determines whether or not the object shown in the image is the target object 4 based on the obtained output value f (u).

追跡部51bは、重みw及びバイアスbの最適値を、学習フェーズにおいて式(2)の目的関数を最小化することによって算出する。式(2)において、Lは、ロス関数であり、推定結果f(u)と真値vとの誤差が大きいほどLも大きくなる。バイアスbは、重みwが大きな値をとることでf(u)が複雑化することを防止するために付加される正則化項である。λは、正則化項(重みw)のバランスを決定するハイパーパラメータである。ハイパーパラメータλを大きくする程、正則化の効果が高くなる(重みwの影響力が大きくなる)。   The tracking unit 51b calculates the optimum values of the weight w and the bias b by minimizing the objective function of Expression (2) in the learning phase. In Equation (2), L is a loss function, and L increases as the error between the estimation result f (u) and the true value v increases. The bias b is a regularization term added to prevent f (u) from becoming complicated due to the weight w taking a large value. λ is a hyperparameter that determines the balance of the regularization term (weight w). As the hyperparameter λ is increased, the regularization effect is increased (the influence of the weight w is increased).

Figure 2018206285
Figure 2018206285

本実施形態において、追跡部51bは、探索範囲5を追跡対象であるオブジェクト4の周辺で1ピクセルずつシフトした画像群を生成し、生成された画像群を式(3)の示す巡回行列(circulant matirixes)C(u)として扱う。この巡回行列C(u)において、各行は、1ピクセルずつシフトした画像に該当する。式(4)において、Fはフーリエ変換、F−1はフーリエ逆変換、*は複素共役である。uは、前記入力であって、追跡対象のオブジェクト4の領域周辺で1ピクセルずつシフトした画像群である。vは、uの真値である。巡回行列C(u)において、行列の各行は、1ピクセルずつシフトした画像に相当する。すなわち、式(4)の右辺は、入力uをフーリエ変換したものの複素共役と真値vをフーリエ変換したものとの要素ごとの積(アダマール積)をフーリエ逆変換したものである。 In the present embodiment, the tracking unit 51b generates an image group in which the search range 5 is shifted by one pixel around the object 4 to be tracked, and the generated image group is represented by a circular matrix (circulant) represented by Expression (3). matirixes) Treat as C (u). In this cyclic matrix C (u), each row corresponds to an image shifted by one pixel. In Expression (4), F is Fourier transform, F −1 is Fourier inverse transform, and * is complex conjugate. u is the input and is an image group shifted by one pixel around the area of the object 4 to be tracked. v is the true value of u. In the cyclic matrix C (u), each row of the matrix corresponds to an image shifted by one pixel. That is, the right side of the equation (4) is obtained by performing inverse Fourier transform on the product (Hadamard product) of each element of the complex conjugate of the input u subjected to Fourier transform and the true value v subjected to Fourier transform.

Figure 2018206285
Figure 2018206285

追跡部51bは、巡回行列C(u)と真値のベクトルvとの積を、フーリエ空間のみにおいて式(4)によって計算することができる。空間領域の畳み込み演算は、周波数領域の乗除演算に等しいため、追跡部51bは、かかる巡回行列の特性を用いることによって、繰り返し処理が不要な高速処理を実現することができる。オブジェクト4の追跡処理において、追跡部51bは、学習フェーズで算出された重みw及びバイアスbを用いてf(u)を算出し、当該f(u)が最大となるuをオブジェクト4の位置(座標)とする。   The tracking unit 51b can calculate the product of the circulant matrix C (u) and the true value vector v according to the equation (4) only in the Fourier space. Since the spatial domain convolution operation is equivalent to the frequency domain multiplication / division operation, the tracking unit 51b can realize high-speed processing that does not require repetitive processing by using the characteristics of the cyclic matrix. In the tracking process of the object 4, the tracking unit 51 b calculates f (u) using the weight w and the bias b calculated in the learning phase, and determines u where the f (u) is maximum as the position of the object 4 ( Coordinate).

Figure 2018206285
Figure 2018206285

オブジェクト4の位置すなわち二次元座標(x,y)をP (i)で表す。ここで、iは、オブジェクト4の位置の通し番号を表し、Cは、固定カメラ10A,10Bの番号を表す。Cは、第一の固定カメラ10Aを示す「1」、第二の固定カメラ10Bを示す「2」及び上方視点座標系の「T」の3通りの値をとる。fは、当該固定カメラから見て順方向の軌跡であることを示す。反転によって逆方向に延びる軌跡を表す際には、r(reverse)を用いてP (i)とする。 The position of the object 4, that is, the two-dimensional coordinates (x, y) is represented by P f C (i). Here, i represents the serial number of the position of the object 4, and C represents the number of the fixed cameras 10A and 10B. C takes three values: "1" indicating the first fixed camera 10A, "2" indicating the second fixed camera 10B, and "T" in the upper viewpoint coordinate system. f indicates a forward trajectory as viewed from the fixed camera. When a trajectory extending in the reverse direction by reversal is represented, r (reverse) is used as P r C (i).

追跡部51bは、オブジェクト4が静止するまで当該オブジェクト4を追跡し続ける。追跡部51bは、オブジェクト4の速度をフレーム毎に算出し、算出されたオブジェクト4の速度に基づいて追跡終了を判定することができる。また、追跡部51bは、オペレータによる操作部30の操作結果に基づいて追跡を終了することができる。また、オブジェクト4が選手等に隠れた状態で静止した場合(オクルージョンが発生した場合)には、追跡部51bは、オペレータによる操作部30の操作結果に基づいて、オブジェクト4の静止位置を取得することができる。   The tracking unit 51b continues to track the object 4 until the object 4 stops. The tracking unit 51b can calculate the speed of the object 4 for each frame, and can determine the end of tracking based on the calculated speed of the object 4. The tracking unit 51b can end the tracking based on the operation result of the operation unit 30 by the operator. Further, when the object 4 is stationary in a state where it is hidden by a player or the like (when occlusion occurs), the tracking unit 51b acquires the stationary position of the object 4 based on the operation result of the operation unit 30 by the operator. be able to.

≪探索範囲設定部≫
オブジェクト4であるカーリングのストーンは、画面の奥側から手前側に向かってサイズを拡大しながら移動する。ここで、既存のKCF法は、探索範囲5のサイズが固定であることを前提に設計されているため、カーリングのストーンを追跡する場合には、追跡が不安定になりやすい。そこで、探索範囲設定部51cは、オブジェクト4のサイズrに基づいて、探索範囲5のサイズR(図6参照)を更新する。
t+1=(r/rt−1)・R …式(5)
≪Search range setting part≫
The curling stone that is the object 4 moves while increasing in size from the back side to the near side of the screen. Here, since the existing KCF method is designed on the assumption that the size of the search range 5 is fixed, tracking tends to become unstable when tracking a curling stone. Therefore, the search range setting unit 51 c updates the size R (see FIG. 6) of the search range 5 based on the size r of the object 4.
R t + 1 = (r t / r t−1 ) · R t (5)

ここで、tは、フレームの番号、rt−1は、前フレームにおけるオブジェクト4の一辺(縦辺又は横辺)の長さ、rは、現フレームにおけるオブジェクト4の一辺(縦辺又は横辺)の長さ、Rは、現フレームにおける探索範囲5の一辺の長さ、Rt+1は、次フレームにおける探索範囲5の一辺の長さである。 Here, t is the frame number, r t-1 is the length of one side (vertical side or horizontal side) of the object 4 in the previous frame, and r t is one side (vertical side or horizontal side) of the object 4 in the current frame. Side), R t is the length of one side of the search range 5 in the current frame, and R t + 1 is the length of one side of the search range 5 in the next frame.

すなわち、探索範囲設定部51cは、前フレームから現フレームにかけてのオブジェクト4のサイズ(ここでは、一辺の寸法)の拡大/縮小率に基づいて、現フレームから次フレームにかけての探索範囲5の拡大/縮小率を決定する。詳細には、探索範囲設定部51cは、前フレームにおけるオブジェクト4のサイズrt−1(図6(a)参照)、現フレームにおけるオブジェクトのサイズr(図6(b)参照)及び現フレームにおける探索範囲5のサイズR(図6(b)参照)をオブジェクト候補画像生成部51a及び/又は追跡部51bから取得し、取得された各サイズrt−1,r,Rに基づいて、次フレームにおける探索範囲5のサイズRt+1(図6(c)参照)を算出し、算出されたサイズの探索範囲5を、次フレームの画像に設定する。すなわち、探索範囲設定部51cによって設定(更新)された探索範囲5を用いて、追跡部51bによるオブジェクト4の追跡が行われる。探索範囲5の形状は、縦辺及び横辺の長さが等しい正方形であってもよく、オブジェクト4の形状に合わせて縦辺及び横辺の長さを変化させる長方形であってもよい。 That is, the search range setting unit 51c enlarges / reduces the search range 5 from the current frame to the next frame based on the enlargement / reduction ratio of the size of the object 4 (here, the dimension of one side) from the previous frame to the current frame. Determine the reduction ratio. Specifically, the search range setting unit 51c determines the size r t-1 of the object 4 in the previous frame (see FIG. 6A), the size r t of the object in the current frame (see FIG. 6B), and the current frame. The size R t of the search range 5 (see FIG. 6B) is acquired from the object candidate image generation unit 51a and / or the tracking unit 51b, and based on the acquired sizes r t−1 , r t , R t . Then, the size R t + 1 of the search range 5 in the next frame (see FIG. 6C) is calculated, and the search range 5 of the calculated size is set in the image of the next frame. That is, the tracking unit 51b tracks the object 4 using the search range 5 set (updated) by the search range setting unit 51c. The shape of the search range 5 may be a square having the same length of the vertical side and the horizontal side, or may be a rectangle that changes the length of the vertical side and the horizontal side according to the shape of the object 4.

なお、探索範囲設定部51cは、t−1枚目のフレームとt枚目のフレームとの間におけるオブジェクトの移動ベクトル(速度)に基づいて、t+1枚目のフレームにおける探索範囲5の位置(中心位置)を設定することができる。   The search range setting unit 51c determines the position (center) of the search range 5 in the t + 1 frame based on the movement vector (speed) of the object between the t-1 frame and the t frame. Position) can be set.

また、探索範囲設定部51cは、tが所定数以下(例えば、3以上5以下)の場合には、所定サイズ(例えば、前記した初期サイズ)の探索範囲5を用いてオブジェクト4を追跡することができる。同様に、探索範囲設定部51cは、tが所定数以下(例えば、3以上5以下)の場合には、指定されたオブジェクト4の初期位置を中心として探索範囲5を設定することができる。これにより、探索範囲設定部51cは、特にt=1,2における探索範囲5の設定を好適に行うことができる。   The search range setting unit 51c tracks the object 4 using the search range 5 having a predetermined size (for example, the initial size described above) when t is a predetermined number or less (for example, 3 to 5). Can do. Similarly, the search range setting unit 51c can set the search range 5 around the initial position of the designated object 4 when t is a predetermined number or less (eg, 3 or more and 5 or less). Thereby, the search range setting unit 51c can suitably set the search range 5 particularly at t = 1,2.

<射影変換部(射影変換装置)>
射影変換部52は、オブジェクト4の位置P (i)の集合であるオブジェクト位置群P を取得し、取得されたオブジェクト位置群P を、オブジェクト4の軌跡のCG描画に適した座標系に射影変換する。ここで、P (i)は、一の固定カメラ10(例えば、10A)によって撮影された2次元座標系であるため、画角の異なる他の固定カメラ10(例えば、10C)によって撮影された画像に対して正確な位置にオブジェクト4の軌跡を描画することは困難である。そのため、射影変換部52は、射影変換を用いて、一の固定カメラ10によって撮影されたオブジェクト4の位置(座標)を、一旦、上方視点座標系へ変換し、その後、他の固定カメラ10に対応する他の座標系へ変換する。ここで、上方視点座標系は、カーリングシート2をその中心部の上方から撮影した場合の座標系である。射影変換部52は、第一の変換部52aと、第二の変換部52bと、を備える。
<Projection conversion unit (projection conversion device)>
The projective transformation unit 52 acquires an object position group P f C that is a set of the positions P f C (i) of the object 4, and uses the acquired object position group P f C for CG drawing of the trajectory of the object 4. Projective transformation into the coordinate system. Here, since P f C (i) is a two-dimensional coordinate system photographed by one fixed camera 10 (for example, 10A), it is photographed by another fixed camera 10 (for example, 10C) having a different angle of view. It is difficult to draw the locus of the object 4 at an accurate position with respect to the obtained image. Therefore, the projective transformation unit 52 uses the projective transformation to temporarily convert the position (coordinates) of the object 4 photographed by one fixed camera 10 to the upper viewpoint coordinate system, and then to another fixed camera 10. Convert to another corresponding coordinate system. Here, the upper viewpoint coordinate system is a coordinate system in a case where the curling sheet 2 is photographed from above the central portion. The projective conversion unit 52 includes a first conversion unit 52a and a second conversion unit 52b.

≪第一の変換部≫
第一の変換部52aは、追跡部51bから出力されたオブジェクト位置群P を取得し、取得されたオブジェクト位置群P を上方視点座標系へ射影変換し、変換結果を第二の変換部52bへ出力する。変換後の座標を(x,y)、変換前の座標を(x,y)とすると、

=(h+h+h)/(h+h+1)
=(h+h+h)/(h+h+1)

となる。
この射影変換は平面から平面への写像であるため、変換後に得られる座標も2次元座標となる。ここで、3次元空間のZ軸に垂直で原点を通過する平面を仮定すると、常にZ=0となるため、射影変換後の2次元座標が得られることによって、3次元座標上の1点を指定することができる。ここで、オブジェクト4としてのカーリングのストーンは氷上を平行移動するため、高さ方向をZ軸としてZ=0と設定することによって、第一の固定カメラ10Aによって撮影された2次元座標系におけるオブジェクト4の位置から、オブジェクト4の三次元位置が算出可能である。かかる射影変換における射影変換行列Hにおいて、h,…,hは未知の射影変換パラメータである。8つの射影変換パラメータh,…hは、変換前後の画像間の4点以上の対応関係に基づいて算出可能である。
≪First conversion part≫
The first conversion unit 52a acquires the object position group P f C output from the tracking unit 51b, performs projective conversion on the acquired object position group P f C to the upper viewpoint coordinate system, and converts the conversion result into the second It outputs to the conversion part 52b. If the coordinates after conversion are (x p , y p ) and the coordinates before conversion are (x c , y c ),

x p = (h 1 x c + h 2 y c + h 3) / (h 7 x c + h 8 y c +1)
y p = (h 4 x c + h 5 y c + h 6) / (h 7 x c + h 8 y c +1)

It becomes.
Since this projective transformation is a mapping from a plane to a plane, the coordinates obtained after the transformation are also two-dimensional coordinates. Here, assuming a plane perpendicular to the Z-axis in the three-dimensional space and passing through the origin, Z = 0 is always obtained, so that a two-dimensional coordinate after projective transformation is obtained, so that one point on the three-dimensional coordinate is obtained. Can be specified. Here, since the curling stone as the object 4 moves in parallel on the ice, the object in the two-dimensional coordinate system photographed by the first fixed camera 10A is set by setting Z = 0 with the height direction as the Z axis. From the position of 4, the three-dimensional position of the object 4 can be calculated. In the projective transformation matrix H in such projective transformation, h 1 ,..., H 8 are unknown projective transformation parameters. The eight projective transformation parameters h 1 ,..., H 8 can be calculated based on four or more points of correspondence between images before and after conversion.

第一の変換部52aは、第一の固定カメラ10Aによって撮影された画像を表示部40に表示させる。また、第一の変換部52aは、表示部40に表示された画像を見たオペレータによる操作部30の操作結果に基づいて、第一の固定カメラ10Aによって撮影された画像における4点(例えば、カーリングシート2の四隅2a〜2d)に変換前の座標を取得し、取得された変換前の座標と、予め記憶された変換後の座標と、に基づいて、射影変換行列Hを生成する。   The first conversion unit 52a causes the display unit 40 to display an image captured by the first fixed camera 10A. In addition, the first conversion unit 52a has four points (for example, for example) in the image captured by the first fixed camera 10A based on the operation result of the operation unit 30 by the operator who viewed the image displayed on the display unit 40. The coordinates before conversion are acquired at the four corners 2a to 2d) of the curling sheet 2, and the projective transformation matrix H is generated based on the acquired coordinates before conversion and the coordinates after conversion stored in advance.

≪第二の変換部≫
第二の変換部52bは、第一の変換部52aの変換結果を取得し、取得された変換結果(上方視点座標系)を、さらに他の固定カメラ10(例えば、第二の固定カメラ10B又は第三の固定カメラ10C)の座標系に射影変換する。
≪Second conversion part≫
The second conversion unit 52b acquires the conversion result of the first conversion unit 52a, and uses the acquired conversion result (upper viewpoint coordinate system) as another fixed camera 10 (for example, the second fixed camera 10B or Projective transformation is performed on the coordinate system of the third fixed camera 10C).

≪画角変化への対応≫
第二の変換部52bは、前記した射影変換を用いることによって、第一の固定カメラ10Aによって撮影されたオブジェクト4の軌跡を、画角が異なる第三の固定カメラ10Cの画像に対して正しい位置に描画することができるようにする。すなわち、射影変換部52は、過去の試合において別の画角で撮影されたオブジェクト4の軌跡を、現在の固定カメラ10Cの画角に合わせて表示することを可能とする。
≪Responding to changes in angle of view≫
By using the above-described projective transformation, the second conversion unit 52b makes the locus of the object 4 photographed by the first fixed camera 10A the correct position with respect to the image of the third fixed camera 10C having a different angle of view. To be able to draw. That is, the projective conversion unit 52 can display the trajectory of the object 4 taken at a different angle of view in the past game in accordance with the current angle of view of the fixed camera 10C.

まず、第一の変換部52aは、第一の画角に設定された第一の固定カメラ10Aに関して、射影変換行列Hを算出するとともに、第一の画角におけるオブジェクト位置群P をオブジェクト追跡部51から取得する(図7(a)参照)。続いて、第二の変換部52bは、第二の画角に設定された第三の固定カメラ10Cに関して、射影変換行列Hを算出する。 First, the first conversion unit 52a, with respect to the first fixed camera 10A which is set in the first field angle, calculates a projective transformation matrix H 1, the object position group P f C in the first field angle Obtained from the object tracking unit 51 (see FIG. 7A). Subsequently, the second conversion unit 52b calculates a projective transformation matrix H3 for the third fixed camera 10C set to the second angle of view.

続いて、第一の変換部52aは、オブジェクト位置群P をHで射影変換することによって、上方視点座標系のオブジェクト位置群P を取得する(図7(b)参照)。続いて、第二の変換部52bは、オブジェクト位置群P をHで逆射影変換することによって、第二の画角に設定された第三の固定カメラ10Cでのオブジェクト位置群P C’を取得する(図8参照)。このように、射影変換部52は、第二の画角の画像に描画するのに適したオブジェクト位置群P C’を得ることができる。 Subsequently, the first conversion unit 52a obtains the object position group P f T in the upper viewpoint coordinate system by performing projective transformation on the object position group P f C with H 1 (see FIG. 7B). Subsequently, the second conversion unit 52b, by the inverse projective transformation object location group P f T at H 3, a third object position group P f of the fixed camera 10C, which is set to a second angle of view C ′ is acquired (see FIG. 8). In this way, the projective transformation unit 52 can obtain the object position group P f C ′ suitable for drawing on the image having the second angle of view.

≪軌跡の反転≫
カーリングは10エンドまで行われ、奇数エンド(1,3,5,7,9)と偶数エンド(2,4,6,8,10)とでハウスの位置が交互に入れ替えられる。そのため、奇数エンドでの投石(オブジェクト4の軌跡)と偶数エンドの投石とは逆方向となり、一方の第一の固定カメラ10Aによるオブジェクト位置群を他方の第二の固定カメラ10Bによる画像に単に合成し、奇数エンド及び偶数エンドのオブジェクト4の軌跡を同時に表示しようとすると、逆方向のオブジェクト4の軌跡が混在することとなる。
≪Inversion of locus≫
Curling is performed up to 10 ends, and the positions of the houses are alternately switched between odd ends (1, 3, 5, 7, 9) and even ends (2, 4, 6, 8, 10). Therefore, the stone throwing at the odd end (the trajectory of the object 4) and the stone throwing at the even end are in opposite directions, and the object position group by one first fixed camera 10A is simply combined with the image by the other second fixed camera 10B. Then, when trying to display the trajectories of the odd-numbered end and even-numbered end objects 4 at the same time, the trajectories of the objects 4 in the opposite direction are mixed.

ここで、射影変換部52は、奇数エンド及び偶数エンドの一方のオブジェクト位置群を点対象に180°回転させることによって、奇数エンド及び偶数エンドの両方のオブジェクト位置群を同一方向に向かう軌跡とする。   Here, the projective transformation unit 52 rotates the object position group of one of the odd end and the even end by 180 ° with respect to the point target, thereby setting the object position group of both the odd end and the even end as a locus in the same direction. .

まず、第一の変換部52aは、カーリングシート2の一方側に設置された固定カメラ10Aに関して、射影変換行列Hを算出するとともに、オブジェクト位置群P をオブジェクト追跡部51から取得する(図7(a)参照)。続いて、第一の変換部52aは、オブジェクト位置群P をHで射影変換することによって、上方視点座標系のオブジェクト位置群P を取得する(図7(b)参照)。続いて、第二の変換部52bは、式(8)(9)によって、上方視点座標系におけるオブジェクト位置群を点対象に180°回転させる(図9(a)参照)。
(i,x)=W−P (i,x) …式(8)
(i,y)=H−P (i,y) …式(9)
ここで、P (i,x)は、上方視点座標系における回転前のx座標、P (i,y)は、上方視点座標系における回転前のy座標、P (i,x)は、上方視点座標系における回転後のx座標、P (i,y)は、上方視点座標系における回転後のy座標である。また、Wは、カーリングシート2の幅(定数)であり、Hは、カーリングシート2の高さ(定数)である。
First, the first conversion unit 52a, with respect to the fixed camera 10A installed on one side of the curling sheet 2, and calculates a projective transformation matrix H 1, to obtain the object position group P f C from the object tracking unit 51 ( FIG. 7 (a)). Subsequently, the first conversion unit 52a obtains the object position group P f T in the upper viewpoint coordinate system by performing projective transformation on the object position group P f C with H 1 (see FIG. 7B). Subsequently, the second conversion unit 52b rotates the object position group in the upper viewpoint coordinate system by 180 ° with respect to the point target by the equations (8) and (9) (see FIG. 9A).
P r T (i, x) = W A −P f T (i, x) (8)
P r T (i, y) = H A -P f T (i, y) ... formula (9)
Here, P f T (i, x) is the x coordinate before rotation in the upper viewpoint coordinate system, P f T (i, y) is the y coordinate before rotation in the upper viewpoint coordinate system, and P r T (i , X) is the x coordinate after rotation in the upper viewpoint coordinate system, and P r T (i, y) is the y coordinate after rotation in the upper viewpoint coordinate system. Further, W A is the width of the curling sheet 2 (constant), H A is the curling sheet 2 height (constant).

続いて、第二の変換部52bは、カーリングシート2の他方側に設置された固定カメラ10Bに関して、射影変換行列Hを算出する。続いて、第二の変換部52bは、オブジェクト位置群P をHで逆射影変換することによって、カーリングシート2の他方側に設置された固定カメラ10Bでのオブジェクト位置群P C’’を取得する(図9(b)参照)。このように、射影変換部52は、カーリングシート2の反対側からの画像に描画するのに適したオブジェクト位置群P C’を得ることができる。 Subsequently, the second conversion unit 52b, with respect to the fixed camera 10B disposed on the other side of the curling sheet 2, to calculate a projective transformation matrix H 2. Subsequently, the second conversion unit 52b subjects the object position group P r T to the object position group P r C ′ of the fixed camera 10B installed on the other side of the curling sheet 2 by performing the projective transformation with the H 2. ' Is acquired (see FIG. 9B). In this way, the projective transformation unit 52 can obtain an object position group P f C ′ suitable for drawing on an image from the opposite side of the curling sheet 2.

なお、射影変換部52における射影変換前及び射影変換後(2回の変換後)のオブジェクト位置群は、撮影対象である平面上のフィールド(カーリングシート2)の領域を、当該フィールドに直交する上下の領域から外れた位置(例えば、斜め上)から撮影した座標系によって表される。また、射影変換部52における射影変換途中(1回の変換後)のオブジェクト位置群は、撮影対象である平面上のフィールド(カーリングシート2)の領域を、当該フィールドに直交する上下の領域から撮影した座標系(変換用の座標系。例えば、上方視点座標系、下方視点座標系)によって表される。   It should be noted that the object position group before the projective transformation and after the projective transformation (after the second transformation) in the projective transformation unit 52 is an area of the field (curling sheet 2) on the plane to be imaged that is perpendicular to the field. It is represented by the coordinate system image | photographed from the position (for example, diagonally upward) out of the area | region. Further, the object position group in the middle of the projective transformation (after one transformation) in the projective transformation unit 52 is taken from the upper and lower regions orthogonal to the field of the field (curling sheet 2) on the plane to be photographed. (A coordinate system for conversion. For example, an upper viewpoint coordinate system, a lower viewpoint coordinate system).

<軌跡生成部(軌跡生成装置)>
軌跡生成部53は、得られたオブジェクト位置群を用いて、オブジェクト4の軌跡を生成し、生成された軌跡に関するデータを記憶部54に記憶させる。ここで、検出された全てのフレームにおけるオブジェクト4の位置を繋ぐと、誤検出、検出漏れ等の影響が生じるため、滑らかな軌跡を描画することは困難である。そのため、軌跡生成部53は、オブジェクト位置群の数点をサンプリングし、サンプリングされたオブジェクト位置にスプライン補間を行うことによって、オブジェクト4の軌跡を滑らかな曲線として描画可能に生成する。
<Track generation unit (track generation device)>
The trajectory generation unit 53 generates a trajectory of the object 4 using the obtained object position group, and stores data related to the generated trajectory in the storage unit 54. Here, if the positions of the objects 4 in all the detected frames are connected, influences such as erroneous detection and detection omission occur, so that it is difficult to draw a smooth trajectory. Therefore, the trajectory generation unit 53 generates a trajectory of the object 4 so as to be drawn as a smooth curve by sampling several points of the object position group and performing spline interpolation on the sampled object positions.

スプライン補間は、与えられた点群の全てを用いて関数を決定するのではなく、局所的な数点のみを用いて局所の関数(曲線)を決定し、かつ、決定された複数の曲線が全体として滑らかに接続される手法である。スプライン補間は、点群の全てから単一の多項式を決定するのではなく、各区間を比較的低い次元の多項式で近似する。軌跡生成部53は、3次スプライン補間を用いており、以下の式(10)(11)によってオブジェクト4の軌跡kを生成する。式(10)(11)において、kは、スプライン補間によって得られる軌跡を示す関数である。jは、スプライン補間に用いるのに選択された局所的な数点(n個の点(x,y))の通し番号である。式(10)(11)において、軌跡kは、x座標、y座標ごとに分けて記述されている。

(x)=p+q(x−x)+r(x−x+s(x−x …式(10)
(y)=p+q(y−y)+r(y−y+s(y−y …式(11)
ここで、j=0,1,…,n−1

軌跡生成部53は、点(x,y)の全てを通り、係数p,q,r,sの値が各点(x,y)で一致するように、係数p,q,r,sを設定する。ここで、2乗の係数rの両端に関して、r=rn−1=0とする。
Spline interpolation determines a local function (curve) using only a few local points instead of determining a function using all of the given points, and the determined curves are This is a method that is smoothly connected as a whole. Spline interpolation does not determine a single polynomial from all of the points, but approximates each interval with a relatively low-dimensional polynomial. The trajectory generation unit 53 uses cubic spline interpolation, and generates the trajectory k of the object 4 by the following equations (10) and (11). In Expressions (10) and (11), k is a function indicating a trajectory obtained by spline interpolation. j is a serial number of several local points (n points (x, y)) selected to be used for spline interpolation. In equations (10) and (11), the trajectory k is described separately for each x coordinate and y coordinate.

k j (x) = p j + q j (x−x j ) + r j (x− j j ) 2 + s j (x−x j ) 3 ... (10)
k j (y) = p j + q j (y−y j ) + r j (y−y j ) 2 + s j (y−y j ) 3 ... (11)
Where j = 0, 1,..., N−1.

The trajectory generation unit 53 passes through all of the points (x j , y j ), and the coefficients p j , q j , r j , s j match each point (x j , y j ). p j , q j , r j , and s j are set. Here, r 0 = r n−1 = 0 for both ends of the square coefficient r j .

<軌跡出力部>
軌跡出力部55は、オペレータによる操作部30の操作結果に基づいて、記憶部54に記憶された軌跡に関するデータ(k(x)及びk(y)のセット)を読み出し、読み出された軌跡に関するデータをインサータ60へ出力する。
<Track output unit>
The trajectory output unit 55 reads out and reads out data related to the trajectory (a set of k j (x) and k j (y)) stored in the storage unit 54 based on the operation result of the operation unit 30 by the operator. Data on the locus is output to the inserter 60.

<インサータ>
インサータ60は、スイッチャ20から出力された固定カメラ10(例えば、第二の固定カメラ10B又は第三の固定カメラ10C)の画像、及び、軌跡出力部55によって出力された軌跡に関するデータ(例えば、第一の固定カメラ10Aによって撮影されたオブジェクト4の軌跡に関するデータ)を取得し、取得された軌跡に関するデータに基づいて、当該軌跡を固定カメラ10(例えば、第二の固定カメラ10B又は第三の固定カメラ10C)の画像上に合成し、合成画像を出力する)。図10に示す例では、第二の固定カメラ10Bによって撮影された画像に対して、1試合中に第一の固定カメラ10A及び第二の固定カメラ10Bによって撮影された画像に含まれるオブジェクト4の軌跡の全て(例えば、第一の固定カメラ10Aによる軌跡が点線、第二の固定カメラ10Bによる軌跡が実線)が合成されている。第一の固定カメラ10Aによって撮影されたオブジェクト4の軌跡は、実際にはハウス3B側からハウス3Aへ向かうものであるが、かかる合成画像では、ハウス3B側からハウス3Aへ向かうように変換されている。そのため、第一の固定カメラ10Aによって撮影されたオブジェクト4の軌跡と第二の固定カメラ10Bによって撮影されたオブジェクト4の軌跡とが同一方向に向かうようになっており、かかる合成画像は、視聴者に対してカーリングのゲーム内容を好適に伝えることができる。オブジェクト4の軌跡が合成された画像は、図示しない表示装置に表示される。
<Inserter>
The inserter 60 includes an image of the fixed camera 10 (for example, the second fixed camera 10B or the third fixed camera 10C) output from the switcher 20, and data (for example, the first track) output by the track output unit 55. The data related to the trajectory of the object 4 photographed by one fixed camera 10A is acquired, and based on the acquired data related to the trajectory, the trajectory is fixed to the fixed camera 10 (for example, the second fixed camera 10B or the third fixed camera 10A). The image is synthesized on the image of the camera 10C) and a synthesized image is output). In the example shown in FIG. 10, the object 4 included in the images captured by the first fixed camera 10 </ b> A and the second fixed camera 10 </ b> B during one game is compared with the image captured by the second fixed camera 10 </ b> B. All of the trajectories (for example, the trajectory by the first fixed camera 10A is a dotted line and the trajectory by the second fixed camera 10B is a solid line) are combined. The trajectory of the object 4 photographed by the first fixed camera 10A is actually from the house 3B side to the house 3A, but in such a composite image, the trajectory is converted from the house 3B side to the house 3A. Yes. For this reason, the trajectory of the object 4 photographed by the first fixed camera 10A and the trajectory of the object 4 photographed by the second fixed camera 10B are directed in the same direction. The curling game content can be suitably communicated to. An image in which the trajectory of the object 4 is combined is displayed on a display device (not shown).

<動作例>
続いて、本発明の実施形態に係るオブジェクト軌跡生成システム1の動作例について、オブジェクト4の追跡、オブジェクト4の軌跡(オブジェクト位置群)の射影変換の順に説明する。図12及び図13のフローは、それぞれ、図11のフローの後に実行される。
<Operation example>
Next, an operation example of the object trajectory generation system 1 according to the embodiment of the present invention will be described in the order of tracking the object 4 and projective transformation of the trajectory (object position group) of the object 4. The flow of FIG. 12 and FIG. 13 is executed after the flow of FIG.

≪オブジェクトの追跡≫
図11に示すように、オブジェクト候補画像生成部51aは、固定カメラ10によって撮影された固定カメラ画像Iを取得し、取得された固定カメラ画像Iからオブジェクト候補画像Sを生成する(ステップS1)。オブジェクト候補画像Sが1枚目である場合(ステップS2でYes)において、オブジェクト候補画像生成部51aは、オブジェクト4の初期位置の手動指定を受けると(ステップS3でYes)、オブジェクト4の初期位置を中心とした初期の探索範囲5を1枚目のオブジェクト候補画像Sに設定する(ステップS4)。
≪Tracking of objects≫
As shown in FIG. 11, the object candidate image generation unit 51a obtains the fixed camera image I t taken by the fixed camera 10, and generates an object candidate image S t from the acquired fixed camera image I t (step S1). When the object candidate image St is the first image (Yes in Step S2), the object candidate image generation unit 51a receives the initial designation of the object 4 (Yes in Step S3) and receives the initial setting of the object 4 to set the position of the initial search range 5 around the the first sheet of the object candidate image S t (step S4).

オブジェクト候補画像Sが2枚目以降である場合(ステップS2でNo)と、ステップS4の実行後とには、オブジェクト候補画像生成部51aは、探索範囲5内のオブジェクト候補を絞り込む(ステップS5)。続いて、追跡部51bは、KCF法を用いて、オブジェクト候補画像Sからオブジェクト4を検出する(ステップS6)。 When the object candidate image St is the second or subsequent image (No in step S2) and after execution of step S4, the object candidate image generation unit 51a narrows down object candidates within the search range 5 (step S5). ). Subsequently, the tracking unit 51b, by using the KCF method for detecting an object 4 from the object candidate image S t (step S6).

続いて、探索範囲設定部51cは、検出されたオブジェクト4の位置及びサイズに基づいて、探索範囲5の位置及びサイズを更新する(ステップS7)。ステップS1〜S7は、オブジェクト4が静止する(ステップS8でNo)まで繰り返される。   Subsequently, the search range setting unit 51c updates the position and size of the search range 5 based on the detected position and size of the object 4 (step S7). Steps S1 to S7 are repeated until the object 4 stops (No in step S8).

オブジェクト4が静止した場合(ステップS8でYes)において、静止したオブジェクト4にオクルージョンが発生している場合(ステップS9でYes)には、追跡部51bは、オブジェクト4の最終位置の手動指定を受ける(ステップS10)。静止したオブジェクト4にオクルージョンが発生していない場合(ステップS9でNo)と、オブジェクト4の最終位置が手動指定された場合(ステップS10でYes)とには、本フローは終了する。   When the object 4 is stationary (Yes in step S8) and the occlusion occurs in the stationary object 4 (Yes in step S9), the tracking unit 51b receives a manual designation of the final position of the object 4. (Step S10). This flow ends when no occlusion has occurred in the stationary object 4 (No in step S9) and when the final position of the object 4 is manually designated (Yes in step S10).

≪オブジェクトの軌跡の射影変換:画角変化への対応≫
図12に示すように、第二の変換部52bは、第三の固定カメラ10Cの撮影結果の4点の手動指定を受けると(ステップS21でYes)、手動指定された4点の座標に基づいて、射影変換行列Hを生成する(ステップS22)。続いて、第一の変換部52aは、予め得られた第一の固定カメラ10Aの撮影結果からのオブジェクト位置群P を予め算出された射影変換行列Hを用いて射影変換することによって、上方視点座標系におけるオブジェクト位置群P を算出する(ステップS23)。続いて、第二の変換部52bは、オブジェクト位置群P を射影変換行列Hを用いて逆射影変換することによって、第三の固定カメラ10Cの座標系におけるオブジェクト位置群P C’を算出する(ステップS24)。
≪Projective transformation of object trajectory: Response to changes in angle of view≫
As illustrated in FIG. 12, when the second conversion unit 52b receives manual designation of four points of the imaging result of the third fixed camera 10C (Yes in Step S21), the second conversion unit 52b is based on the coordinates of the four points designated manually. Te generates a projective transformation matrix H 3 (step S22). Subsequently, the first conversion unit 52a by projective transformation using projective transformation matrix H 1 of the object position group P f C is calculated in advance from the imaging result of the first fixed cameras 10A obtained in advance Then, the object position group P f T in the upper viewpoint coordinate system is calculated (step S23). Subsequently, the second conversion unit 52b performs inverse projective transformation on the object position group P f T using the projective transformation matrix H 3 , whereby the object position group P f C ′ in the coordinate system of the third fixed camera 10C. Is calculated (step S24).

≪オブジェクトの軌跡の射影変換:画角変化への対応≫
一方、図13に示すように、第二の変換部52bは、第二の固定カメラ10Bの撮影結果の4点の手動指定を受けると(ステップS41でYes)、手動指定された4点の座標に基づいて、射影変換行列Hを生成する(ステップS42)。続いて、第一の変換部52aは、予め得られた第一の固定カメラ10Aの撮影結果からのオブジェクト位置群P を予め算出された射影変換行列Hを用いて射影変換することによって、上方視点座標系におけるオブジェクト位置群P を算出する(ステップS43)。続いて、第二の変換部52bは、オブジェクト位置群P をカーリングシート2の中心を回転中心として180°回転させることによって、オブジェクト位置群P を算出する(ステップS44)。続いて、第二の変換部52bは、オブジェクト位置群P を射影変換行列Hを用いて逆射影変換することによって、第二の固定カメラ10Bの座標系におけるオブジェクト位置群P を算出する(ステップS45)。
≪Projective transformation of object trajectory: Response to changes in angle of view≫
On the other hand, as illustrated in FIG. 13, when the second conversion unit 52b receives manual designation of four points of the photographing result of the second fixed camera 10B (Yes in step S41), the coordinates of the four points manually designated. based on, to generate a projective transformation matrix H 2 (step S42). Subsequently, the first conversion unit 52a by projective transformation using projective transformation matrix H 1 of the object position group P f C is calculated in advance from the imaging result of the first fixed cameras 10A obtained in advance Then, an object position group P f T in the upper viewpoint coordinate system is calculated (step S43). Subsequently, the second conversion unit 52b calculates the object position group P r T by rotating the object position group P f T by 180 ° about the center of the curling sheet 2 (step S44). Subsequently, the second conversion unit 52b converts the object position group P r T into the object position group P r C in the coordinate system of the second fixed camera 10B by performing reverse projection conversion on the object position group P r T using the projection conversion matrix H 2. Calculate (step S45).

本発明の実施形態に係るオブジェクト軌跡生成システム1は、逐次学習型の追跡手法であるKCF法によってオブジェクト4を追跡するとともに、オブジェクト4が大きくなるほど探索範囲5を大きく設定するので、撮影サイズが可変であるとともにオクルージョンが発生しやすいオブジェクト4を好適に追跡することができる。   The object trajectory generation system 1 according to the embodiment of the present invention tracks the object 4 by the KCF method, which is a sequential learning type tracking method, and sets the search range 5 to be larger as the object 4 becomes larger. In addition, the object 4 that is likely to cause occlusion can be suitably tracked.

また、オブジェクト軌跡生成システム1は、オブジェクト4の色に基づいて生成されたオブジェクト候補画像を用いてオブジェクト4を追跡するので、より高速にオブジェクト4を追跡することができる。   Moreover, since the object locus generation system 1 tracks the object 4 using the object candidate image generated based on the color of the object 4, the object 4 can be tracked at a higher speed.

また、オブジェクト軌跡生成システム1は、変換用の座標系である上方視点座標系を介して射影変換を行うので、オブジェクト4の位置群を異なる視点からの座標系へ好適に変換することができる。   Further, since the object locus generation system 1 performs projective transformation through the upper viewpoint coordinate system which is a coordinate system for conversion, the position group of the object 4 can be suitably converted to a coordinate system from a different viewpoint.

特に、オブジェクト軌跡生成システム1は、オブジェクト4の位置群を異なる画角からの固定カメラ10の座標系に変換したり、カーリングシート2の反対側からにある固定カメラ10の座標系に変換したりすることによって、オブジェクト4の位置群を他の固定カメラ10の画像に合成するのに適した座標系に変換することができる。   In particular, the object trajectory generation system 1 converts the position group of the object 4 into the coordinate system of the fixed camera 10 from a different angle of view, or converts it into the coordinate system of the fixed camera 10 on the opposite side of the curling sheet 2. By doing so, the position group of the object 4 can be converted into a coordinate system suitable for combining with the image of another fixed camera 10.

また、オブジェクト軌跡生成システム1は、スプライン補間によってオブジェクト4の軌跡を生成するので、誤検出、検出漏れ等の影響を防ぎ、滑らかな軌跡を生成することができる。   In addition, since the object locus generation system 1 generates the locus of the object 4 by spline interpolation, it is possible to prevent the influence of erroneous detection, detection omission, and the like and generate a smooth locus.

また、オブジェクト軌跡生成システム1は、オブジェクト4としてカーリングのストーンを追跡するので、撮影サイズが可変であるとともにオクルージョンが発生しやすいカーリングのストーンを好適に追跡することができる。また、オブジェクト軌跡生成システム1は、異なる画角で撮影されたり反対方向から撮影されたりするカーリングのストーンの軌跡を、表示装置に好適に表示させることができる。   In addition, since the object trajectory generation system 1 tracks the curling stone as the object 4, it can suitably track the curling stone which has a variable shooting size and is likely to be occluded. Further, the object trajectory generation system 1 can suitably display a curling stone trajectory captured at a different angle of view or from the opposite direction on a display device.

以上、本発明の実施形態について説明したが、本発明は前記実施形態に限定されず、本発明の要旨を逸脱しない範囲で適宜変更可能である。例えば、追跡部51bにおける逐次学習型の追跡手法は、改良されたKCF法に限定されない。また、記憶部54に記憶されたオブジェクト4の位置群には、オペレータによる操作部30の操作結果に基づいて、当該位置群の属性が付与されてもよい。属性としては、チーム(赤、黄)、ショットの種別(テイクショット、ドローショット)、選手名、ショット番号等が挙げられる。この場合、軌跡出力部55は、オペレータによる操作部30の操作結果に基づいて、操作結果で指定された属性を有するオブジェクト4の位置群を記憶部54から読み出し、インサータ60へ出力することができる。すなわち、インサータ60は、特定の属性を有するオブジェクト4の軌跡を図示しない表示装置に表示させることができる。   As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment, In the range which does not deviate from the summary of this invention, it can change suitably. For example, the sequential learning type tracking method in the tracking unit 51b is not limited to the improved KCF method. In addition, the position group of the object 4 stored in the storage unit 54 may be given the attribute of the position group based on the operation result of the operation unit 30 by the operator. Attributes include team (red, yellow), shot type (take shot, draw shot), player name, shot number, and the like. In this case, the trajectory output unit 55 can read out the position group of the object 4 having the attribute specified by the operation result from the storage unit 54 based on the operation result of the operation unit 30 by the operator, and output it to the inserter 60. . That is, the inserter 60 can display the trajectory of the object 4 having a specific attribute on a display device (not shown).

また、変換用の座標系は、上方視点座標系に限定されず、例えば、カーリングシート2をその中心の下から仮想的に見る下方視点座標系であってもよい。   Moreover, the coordinate system for conversion is not limited to the upper viewpoint coordinate system, and may be, for example, a lower viewpoint coordinate system in which the curling sheet 2 is virtually viewed from below the center.

また、本発明のオブジェクト軌跡生成システム1、オブジェクト追跡部(オブジェクト追跡装置)51、射影変換部(射影変換装置)52及び軌跡生成部(軌跡生成装置)53は、カーリングのストーン以外のオブジェクト4の追跡及び軌跡の生成に適用可能である。   In addition, the object trajectory generation system 1, the object tracking unit (object tracking device) 51, the projection conversion unit (projection conversion device) 52, and the trajectory generation unit (trajectory generation device) 53 of the present invention are used for the object 4 other than the curling stone. Applicable to tracking and trajectory generation.

1 オブジェクト軌跡生成システム
2 カーリングシート(フィールド)
3A,3B ハウス
4 オブジェクト(ストーン)
5 探索範囲
10,10A,10B,10C 固定カメラ
51 オブジェクト追跡部(オブジェクト追跡装置)
51a オブジェクト候補画像生成部
51b 追跡部
51c 探索範囲設定部
52 射影変換部(射影変換装置)
52a 第一の変換部
52b 第二の変換部
53 軌跡生成部(軌跡生成装置)
1 Object locus generation system 2 Curling seat (field)
3A, 3B House 4 Object (Stone)
5 Search Range 10, 10A, 10B, 10C Fixed Camera 51 Object Tracking Unit (Object Tracking Device)
51a Object candidate image generation unit 51b Tracking unit 51c Search range setting unit 52 Projection conversion unit (projection conversion device)
52a First conversion unit 52b Second conversion unit 53 Trajectory generation unit (trajectory generation device)

Claims (7)

固定カメラ映像に含まれるオブジェクトを追跡するオブジェクト追跡装置であって、
逐次学習型の追跡手法によって前記オブジェクトを追跡する追跡部と、
前記固定カメラ映像の現フレームに含まれる前記オブジェクトのサイズが大きいほど、次フレームにおける前記オブジェクトの探索範囲のサイズが大きくなるように、前記固定カメラ映像のフレームに前記探索範囲を設定する探索範囲設定部と、
を備え、
前記追跡部は、前記探索範囲設定部によって前記フレームに設定された前記探索範囲内において、前記オブジェクトを追跡する
ことを特徴とするオブジェクト追跡装置。
An object tracking device for tracking an object included in a fixed camera image,
A tracking unit that tracks the object by a sequential learning type tracking method;
A search range setting that sets the search range in the frame of the fixed camera video so that the size of the search range of the object in the next frame increases as the size of the object included in the current frame of the fixed camera video increases. And
With
The tracking unit tracks the object within the search range set in the frame by the search range setting unit.
前記オブジェクトの色に基づいて、前記フレームに含まれるオブジェクト候補を抽出したオブジェクト候補画像を生成するオブジェクト候補画像生成部を備え、
前記追跡部は、前記オブジェクト候補画像を用いて前記オブジェクトを追跡し、
前記探索範囲設定部は、前記オブジェクト候補画像において前記探索範囲を設定する
ことを特徴とする請求項1に記載のオブジェクト追跡装置。
An object candidate image generation unit that generates an object candidate image obtained by extracting object candidates included in the frame based on the color of the object;
The tracking unit tracks the object using the object candidate image,
The object tracking apparatus according to claim 1, wherein the search range setting unit sets the search range in the object candidate image.
請求項1又は請求項2に記載のオブジェクト追跡装置と、
前記追跡部によって追跡された前記オブジェクトの座標を射影変換する射影変換装置と、
前記オブジェクト追跡装置によって追跡された前記オブジェクトの位置群、又は、前記オブジェクト追跡装置によって追跡されて前記射影変換装置によって射影変換された前記オブジェクトの位置群に基づいて、前記オブジェクトの軌跡を生成する軌跡生成装置と、
を備え、
前記射影変換装置は、
前記固定カメラ映像に含まれる前記オブジェクトの座標を、変換用の座標系に射影変換する第一の変換部と、
前記変換用の座標系に変換された前記オブジェクトの座標を、前記固定カメラ映像とは異なる視点からの座標系に射影変換する第二の変換部と、
を備えることを特徴とするオブジェクト軌跡生成システム。
The object tracking device according to claim 1 or 2,
A projective transformation device for projective transformation of the coordinates of the object tracked by the tracking unit;
A trajectory for generating a trajectory of the object based on the position group of the object tracked by the object tracking device or the position group of the object tracked by the object tracking device and projectively transformed by the projective transformation device. A generating device;
With
The projective transformation device comprises:
A first conversion unit for projectively converting the coordinates of the object included in the fixed camera video to a coordinate system for conversion;
A second conversion unit for projectively converting the coordinates of the object converted into the coordinate system for conversion into a coordinate system from a different viewpoint from the fixed camera video;
An object trajectory generation system comprising:
前記第一の変換部は、フィールドを一方側から撮影した前記オブジェクトの座標を、前記フィールドを上から見た前記変換用の座標系に変換し、
前記第二の変換部は、前記変換用の座標系に変換された前記オブジェクトの座標を、前記フィールドを一方側から異なる画角で見た座標系に変換する
ことを特徴とする請求項3に記載のオブジェクト軌跡生成システム。
The first conversion unit converts the coordinates of the object taken from one side of the field into the coordinate system for conversion when the field is viewed from above,
The said 2nd conversion part converts the coordinate of the said object converted into the coordinate system for the said conversion into the coordinate system which looked at the said field from the one side at a different angle of view. The object trajectory generation system described.
前記第一の変換部は、フィールドを一方側から撮影した前記オブジェクトの座標を、前記フィールドを上から見た前記変換用の座標系に変換し、
前記第二の変換部は、前記変換用の座標系に変換された前記オブジェクトの座標を前記フィールドの面内で180°回転させるとともに、180°回転した前記オブジェクトの座標を前記フィールドを前記一方側と対向する他方側から見た座標系に変換する
ことを特徴とする請求項3に記載のオブジェクト軌跡生成システム。
The first conversion unit converts the coordinates of the object taken from one side of the field into the coordinate system for conversion when the field is viewed from above,
The second conversion unit rotates the coordinates of the object converted into the coordinate system for conversion by 180 ° in the plane of the field, and the coordinates of the object rotated by 180 ° as the one side of the field. The object locus generation system according to claim 3, wherein the object locus generation system is converted to a coordinate system viewed from the other side opposite to.
前記軌跡生成装置は、スプライン補間によって前記オブジェクトの軌跡を生成する
ことを特徴とする請求項3から請求項5のいずれか一項に記載のオブジェクト軌跡生成システム。
The object locus generation system according to any one of claims 3 to 5, wherein the locus generation device generates a locus of the object by spline interpolation.
前記オブジェクトは、カーリングのストーンである
ことを特徴とする請求項3から請求項6のいずれか一項に記載のオブジェクト軌跡生成システム。
The object trajectory generation system according to any one of claims 3 to 6, wherein the object is a curling stone.
JP2017114052A 2017-06-09 2017-06-09 Object tracking device and object trajectory generation system Pending JP2018206285A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017114052A JP2018206285A (en) 2017-06-09 2017-06-09 Object tracking device and object trajectory generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017114052A JP2018206285A (en) 2017-06-09 2017-06-09 Object tracking device and object trajectory generation system

Publications (1)

Publication Number Publication Date
JP2018206285A true JP2018206285A (en) 2018-12-27

Family

ID=64957912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017114052A Pending JP2018206285A (en) 2017-06-09 2017-06-09 Object tracking device and object trajectory generation system

Country Status (1)

Country Link
JP (1) JP2018206285A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111476825A (en) * 2020-03-10 2020-07-31 重庆邮电大学 Anti-occlusion target tracking method based on multi-example learning and kernel correlation filter
JP2020187385A (en) * 2019-05-09 2020-11-19 エヌ・ティ・ティ・コミュニケーションズ株式会社 Geometric parameter estimation device, geometric parameter estimation system, geometric parameter estimation method and computer program
JP2020191036A (en) * 2019-05-24 2020-11-26 日本放送協会 Object locus generation device and program
JP7424280B2 (en) 2020-12-01 2024-01-30 オムロン株式会社 Information processing device and information processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012014558A (en) * 2010-07-02 2012-01-19 Sony Corp Image processing method, image processing device, program and recording medium
WO2014207892A1 (en) * 2013-06-28 2014-12-31 楽天株式会社 Information processing device, information processing method, information processing device program, and recording medium
JP2015230616A (en) * 2014-06-05 2015-12-21 キヤノン株式会社 Image processing method and image processor
JP2016071830A (en) * 2014-09-26 2016-05-09 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium
JP2016126624A (en) * 2015-01-06 2016-07-11 Kddi株式会社 Device, program and method for tracking body using dedicated discrimination device on occlusion occurrence

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012014558A (en) * 2010-07-02 2012-01-19 Sony Corp Image processing method, image processing device, program and recording medium
WO2014207892A1 (en) * 2013-06-28 2014-12-31 楽天株式会社 Information processing device, information processing method, information processing device program, and recording medium
JP2015230616A (en) * 2014-06-05 2015-12-21 キヤノン株式会社 Image processing method and image processor
JP2016071830A (en) * 2014-09-26 2016-05-09 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium
JP2016126624A (en) * 2015-01-06 2016-07-11 Kddi株式会社 Device, program and method for tracking body using dedicated discrimination device on occlusion occurrence

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
谷川 右京、外6名: ""部位追跡を併用した車椅子利用者の検出に関する検討 "", 電子情報通信学会技術研究報告, vol. 116, no. 91, JPN6021021938, 6 June 2016 (2016-06-06), JP, pages 65 - 70, ISSN: 0004576909 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020187385A (en) * 2019-05-09 2020-11-19 エヌ・ティ・ティ・コミュニケーションズ株式会社 Geometric parameter estimation device, geometric parameter estimation system, geometric parameter estimation method and computer program
JP7334058B2 (en) 2019-05-09 2023-08-28 エヌ・ティ・ティ・コミュニケーションズ株式会社 Geometric parameter estimation device, geometric parameter estimation system, geometric parameter estimation method, and computer program
JP2020191036A (en) * 2019-05-24 2020-11-26 日本放送協会 Object locus generation device and program
JP7316097B2 (en) 2019-05-24 2023-07-27 日本放送協会 Object trajectory generator and its program
CN111476825A (en) * 2020-03-10 2020-07-31 重庆邮电大学 Anti-occlusion target tracking method based on multi-example learning and kernel correlation filter
CN111476825B (en) * 2020-03-10 2022-08-26 重庆邮电大学 Anti-occlusion target tracking method based on multi-example learning and kernel correlation filter
JP7424280B2 (en) 2020-12-01 2024-01-30 オムロン株式会社 Information processing device and information processing method

Similar Documents

Publication Publication Date Title
US10334168B2 (en) Threshold determination in a RANSAC algorithm
Reinbacher et al. Real-time panoramic tracking for event cameras
US10354129B2 (en) Hand gesture recognition for virtual reality and augmented reality devices
JP2018206285A (en) Object tracking device and object trajectory generation system
JP6951166B2 (en) How and devices to blur virtual objects in video
JP6641163B2 (en) Object tracking device and its program
JP4758842B2 (en) Video object trajectory image composition device, video object trajectory image display device, and program thereof
US9042637B2 (en) Image processing device, method of processing image, and image display apparatus
JP7164968B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE
JP2008171280A (en) Position detection device, method, and program
US8644645B2 (en) Image processing device and processing method thereof
JP2014505389A (en) Method for processing an image in the invisible spectral region, corresponding camera and measuring device
US9413952B2 (en) Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method
Jiang et al. Golfpose: Golf swing analyses with a monocular camera based human pose estimation
JP6494402B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5748355B2 (en) Three-dimensional coordinate calculation apparatus, three-dimensional coordinate calculation method, and program
Imre et al. Calibration of nodal and free-moving cameras in dynamic scenes for post-production
JP7316097B2 (en) Object trajectory generator and its program
JP4578653B2 (en) Depth image generation apparatus, depth image generation method, and computer-readable recording medium storing a program for causing a computer to execute the method
JP4652536B2 (en) Motion information detecting device, motion information detecting method, and recording medium recording motion information detecting program
JP7265825B2 (en) Generation device, generation method and program
JP2013126123A (en) Image processing device, imaging apparatus, and image processing method
TWI594209B (en) Method for automatically deducing motion parameter for control of mobile stage based on video images
JP7393179B2 (en) Photography equipment
CN116385273B (en) Method, system and storage medium for moving points in stepping panoramic roaming

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210805

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210824