JP7316097B2 - オブジェクト軌跡生成装置及びそのプログラム - Google Patents

オブジェクト軌跡生成装置及びそのプログラム Download PDF

Info

Publication number
JP7316097B2
JP7316097B2 JP2019097378A JP2019097378A JP7316097B2 JP 7316097 B2 JP7316097 B2 JP 7316097B2 JP 2019097378 A JP2019097378 A JP 2019097378A JP 2019097378 A JP2019097378 A JP 2019097378A JP 7316097 B2 JP7316097 B2 JP 7316097B2
Authority
JP
Japan
Prior art keywords
unit
trajectory
fixed camera
coordinate system
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019097378A
Other languages
English (en)
Other versions
JP2020191036A (ja
Inventor
正樹 高橋
秀樹 三ツ峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2019097378A priority Critical patent/JP7316097B2/ja
Publication of JP2020191036A publication Critical patent/JP2020191036A/ja
Application granted granted Critical
Publication of JP7316097B2 publication Critical patent/JP7316097B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、オブジェクトの軌跡を生成するオブジェクト軌跡生成装置及びそのプログラムに関する。
映像解析技術の進展に伴い、カメラをセンサとした様々なアプリケーションが提案されている。ウィンブルドンでも使用されているテニスのホークアイシステムは、複数の固定カメラ映像をセンサとしてテニスボールを3次元的に追跡し、ジャッジに絡むIN/OUTの判定を行っている。また2014年のFIFAワールドカップで用いられたゴールラインテクノロジーは、数台の固定カメラの映像を解析し、ゴールの判定を自動化している。さらにサッカースタジアムへ多数のステレオカメラを設置し、フィールド内の全選手をリアルタイムに追跡するトラッキングシステム(例えば、TRACABシステム)など、スポーツにおけるリアルタイム映像解析技術の高度化が進んでいる。
この映像解析技術を利用し、野球、ボウリング、ゴルフ、カーリングなどのスポーツ中継において、ボールやストーンの軌跡表示が行われている。カーリング競技でのストーン軌跡表示は、試合状況を分かりやすく可視化し、解説にも有用な映像表現である。すなわち、カメラ映像だけでカーリングシートの状態や各チームの戦術を伝えきるには限界があるが、投石の軌跡を累積表示することにより、解説を交えて視聴者に分かりやすく状況を伝えることができる。例えば、特許文献1では、カーリング競技において、オクルージョンが頻繁に発生するストーンを少数の固定カメラで好適に追跡することが可能なオブジェクト追跡装置が提案されている。
特開2018-206285号公報
ストーン軌跡表示の実現にあたっては、カーリング競技での一投一投を記録し、精度の高い軌跡を描画する必要がある(図1参照)。また、カーリング競技では、投石後に選手のスウィーピングにより、その軌跡が自然な放物軌道から逸れる場合がある(図2参照)。放物軌道を想定した自動補正では、実際の軌跡と異なることもあるため、人手による軌跡の補正作業を施すことで、実軌跡に近い軌跡CGを描画している。しかし、カーリングの試合では、投石と投石とのインターバルが30秒程度と短く、その間に軌跡の補正作業を完了する必要がある。この軌跡の補正作業は、画素単位の緻密な作業であり、時間的な制約もあることから、多大な労力を要するという問題がある。
そこで、本発明は、実軌跡に近いオブジェクトの軌跡を生成できるオブジェクト軌跡生成装置及びそのプログラムを提供することを課題とする。
前記した課題に鑑みて、本発明に係るオブジェクト軌跡生成装置は、固定カメラ映像に含まれるオブジェクトの軌跡を生成するオブジェクト軌跡生成装置であって、追跡部と、射影変換部と、位置補正部と、軌跡生成部と、を備える構成とした。
かかる構成によれば、追跡部は、移動するオブジェクトの位置を追跡する。
射影変換部は、追跡部によって追跡されたオブジェクトの位置群を射影変換する。
位置補正部は、オブジェクトの位置群の補正結果を予め機械学習した識別器により、射影変換部が算出したオブジェクトの位置群を補正する。この識別器は、人手によるオブジェクトの軌跡の補正結果を学習したものである。
軌跡生成部は、位置補正部が補正したオブジェクトの位置群に基づいて、オブジェクトの軌跡を生成する。
射影変換部は、固定カメラ映像に含まれるオブジェクトの位置群を、固定カメラの撮影空間を上から見た変換用座標系に射影変換し、変換用座標系に変換されたオブジェクトの位置群を、固定カメラ映像と異なる視点の座標系に射影変換する。
位置補正部は、固定カメラの座標系及び変換用座標系において、オブジェクトの各位置と、オブジェクトの各位置からオブジェクトの位置群の平滑化曲線までの距離と、オブジェクトの軌跡全長に対するオブジェクトの軌跡先頭から各位置までの長さの割合とが含まれる誤差特徴量を算出する誤差特徴量算出部と、オブジェクトの位置が補正されたときの誤差特徴量を正例、及び、オブジェクトの位置が補正されなかったときの誤差特徴量を負例として予め機械学習した識別器により、射影変換部が算出したオブジェクトの位置群を平滑化曲線上に補正する補正部と、を備える。
このように、オブジェクト軌跡生成装置は、人手によるオブジェクトの軌跡の補正結果を学習した識別器を用いるので、その補正結果がオブジェクトの軌跡に反映されることになる。
なお、本発明は、コンピュータが備えるCPU、メモリ、ハードディスクなどのハードウェア資源を、前記したオブジェクト軌跡生成装置として協調動作させるプログラムで実現することもできる。
本発明によれば、人手によるオブジェクトの軌跡の補正結果を学習した識別器を用いるので、その補正結果がオブジェクトの軌跡に反映され、実軌跡に近いオブジェクトの軌跡を生成することができる。
カーリング競技において、オブジェクトの軌跡を合成した画像の一例を示す図である。 カーリング競技において、オブジェクトの軌跡が逸れる一例を示す図である。 実施形態に係るオブジェクト軌跡生成システムを示す模式図である。 実施形態において、(a)は、撮影画像の一例を示す図であり、(b)は(a)のオブジェクト付近を示す拡大図である。 実施形態に係るオブジェクト軌跡生成システムを示すブロック図である。 実施形態において、射影変換の手法を説明するための図であって、(a)は固定カメラによるカーリングシートの撮影結果の一例を示す図であり、(b)は真上視点座標系へ射影変換されたカーリングシートの撮影結果の一例を示す図である。 実施形態において、オブジェクト位置の補正を説明する説明図である。 実施形態において、オブジェクト軌跡生成装置が生成した画像の一例を示す図である。 実施形態に係るオブジェクト軌跡生成装置の動作を示すフローチャートである。 実施形態において、オブジェクト位置群の補正処理を示すフローチャートである。 変形例において、オブジェクト軌跡生成装置が生成した画像の一例を示す図である。
(実施形態)
本発明の実施形態について、オブジェクトとしてのカーリングのストーンの追跡に適用した場合を例にとり、図面を参照して詳細に説明する。以下の説明において、同一の要素には同一の符号を付し、重複する説明は省略する。
はじめに、カーリング競技の概要を説明する。図1に示すように、カーリングは、氷上でハウス3A,3Bと呼ばれるサークルにストーンを投げ合い、その位置に応じた得点を競う競技である。ストーンの投げやすさはその日のカーリングシート2の状態や、投石によるカーリングシート2の状況変化に大きく左右される。その場その場で投げやすいコースを見極めて投げつつ、逆に敵チームには投げにくいコースへ投げさせる状況を作ることが勝負の秘訣である。
カメラ映像だけでは、カーリングシート2の状態や各チームの戦術を伝えきるには限界がある。そこで、オブジェクト軌跡生成システム1(図3)は、投石の軌跡T(T,T)を累積表示することにより、解説コメントを交えて視聴者に分かりやすく状況を伝えることができる。なお、図1では、一方のチームによる投石の軌跡Tを実線で図示し、他方のチームによる投石の軌跡Tを破線で図示した。
ここで、カーリング競技では、図2に示すように、投石後に選手のスウィーピングにより、その軌跡Tが自然な放物軌道から逸れてしまう場合がある。図2では、ハウス3Bの付近で軌跡Tが歪んでいる。そこで、オブジェクト軌跡生成システム1は、歪みが少なく自然な軌跡Tを生成する。
[オブジェクト軌跡生成システムの全体構成]
図3を参照し、実施形態に係るオブジェクト軌跡生成システム1の全体構成について説明する。
図3に示すように、オブジェクト軌跡生成システム1は、カーリングにおける長さL約45[m]、幅W約5[m]のカーリングシート2の撮影結果に、移動するオブジェクト4としてのストーンの軌跡を表示する。カーリングシート2の長さ方向両端部には、それぞれハウス3A,3Bが設けられている。オブジェクト4は、奇数エンドにおいてハウス3B側からハウス3Aへ向けて投じられ、偶数エンドにおいてハウス3A側からハウス3Bへ向けて投じられる。オブジェクト軌跡生成システム1は、固定カメラ10(10A~10C)と、スイッチャ20と、操作部30と、表示部40と、オブジェクト軌跡生成装置50と、インサータ60と、を備える。
<第一の固定カメラ>
第一の固定カメラ10Aは、カーリングシート2の長さ方向一端部に設けられたハウス3Aに向けて投じられたオブジェクト4を撮影するためのものであって、カーリングシート2をハウス3A側から撮影する。第一の固定カメラ10Aの撮影結果は、スイッチャ20へ出力される。ここで、図4(a)及び(b)に示すように、第一の固定カメラ10Aの撮影結果において、オブジェクト4は、画面の奥側(ハウス3B側)から手前側(ハウス3A側)に向かって移動する。
<第二の固定カメラ>
第二の固定カメラ10Bは、カーリングシート2の長さ方向他端部に設けられたハウス3Bに向けて投じられたオブジェクト4を撮影するものであって、カーリングシート2をハウス3B側から撮影する。第二の固定カメラ10Bの撮影結果は、スイッチャ20へ出力される。
<第三の固定カメラ>
第三の固定カメラ10Cは、第一の固定カメラ10Aと同様、ハウス3Aに向けて投じられたオブジェクト4を撮影するものであって、カーリングシート2をハウス3A側から撮影する。第三の固定カメラ10Cの撮影結果は、スイッチャ20へ出力される。すなわち、第一の固定カメラ10A及び第三の固定カメラ10Cは、カーリングシート2を同一方向から異なる画角で撮影する。例えば、第三の固定カメラ10Cは、第一の固定カメラ10Aで撮影したカーリングシート2に隣接するカーリングシート2を撮影する。また、第三の固定カメラ10Cは、第一の固定カメラ10Aで撮影したカーリングシート2を、異なる時間に異なる画角で撮影してもよい。
<スイッチャ>
スイッチャ20は、固定カメラ10の撮影結果を取得し、ユーザによる操作結果に基づいて、取得した撮影結果をオブジェクト軌跡生成装置50及びインサータ60へ出力する。奇数エンドでは、スイッチャ20は、固定カメラ10の撮影結果のうち、第一の固定カメラ10Aの撮影結果をオブジェクト軌跡生成装置50及びインサータ60へ出力する。偶数エンドでは、スイッチャ20は、固定カメラ10の撮影結果のうち、第二の固定カメラ10Bの撮影結果をオブジェクト軌跡生成装置50及びインサータ60へ出力する。
<操作部及び表示部>
操作部30は、キーボード、マウス等によって構成されており、ユーザによる当該操作部30の操作結果をオブジェクト軌跡生成装置50へ出力する。
表示部40は、モニタ等によって構成されており、オブジェクト軌跡生成装置50から入力された画像を表示する。
<オブジェクト軌跡生成装置>
オブジェクト軌跡生成装置50は、固定カメラ映像に含まれるオブジェクト4の軌跡Tを生成し、生成したオブジェクト4の軌跡Tをインサータ60に出力する。なお、オブジェクト軌跡生成装置50の詳細は後記する。なお、固定カメラ映像とは、固定カメラ10で撮影された映像のことである。
<インサータ>
インサータ60は、スイッチャ20から入力された固定カメラ10の画像、及び、軌跡出力部56から入力された軌跡Tを取得する。そして、インサータ60は、取得した軌跡Tを固定カメラ10の画像上に合成し、合成画像を出力する。オブジェクト4の軌跡Tが合成された合成画像は、図示しない表示装置に表示される。
[オブジェクト軌跡生成装置の構成]
図5を参照し、オブジェクト軌跡生成装置50の構成ついて説明する。
オブジェクト軌跡生成装置50は、固定カメラ映像に含まれるオブジェクト4の軌跡を生成する。図5に示すように、オブジェクト軌跡生成装置50は、オブジェクト追跡部51と、射影変換部52と、位置補正部53と、軌跡生成部54と、記憶部55と、軌跡出力部56と、を備える。
<オブジェクト追跡部>
オブジェクト追跡部51は、固定カメラ映像に含まれるオブジェクト4の位置を映像内において追跡する。オブジェクト追跡部51は、オブジェクト候補画像生成部51aと、追跡部51bと、を備える。
<<オブジェクト候補画像生成部>>
オブジェクト候補画像生成部51aは、固定カメラ映像を構成するフレームである固定カメラ画像から、オブジェクト候補画像を生成する。オブジェクト候補画像は、予め設定された探索範囲内において、オブジェクト4の候補が抽出された画像である。
まず、オブジェクト候補画像生成部51aは、オブジェクト4の色(例えば、赤色又は黄色)に基づいて、固定カメラ画像に含まれる物体の中からオブジェクト4と同色のものをオブジェクト候補として抽出する。続いて、オブジェクト候補画像生成部51aは、抽出されたオブジェクト候補以外の画像領域を、黒で塗り潰す処理を行う。
続いて、オブジェクト候補画像生成部51aは、オブジェクト候補が抽出された画像を表示部40に表示させる。すると、オペレータは、表示部40に表示された画像を見ながら、操作部30を操作して、1枚目の固定カメラ画像に関して、オブジェクト4の初期位置を指定する。続いて、オブジェクト候補画像生成部51aは、指定された当該オブジェクト4の位置を中心とする探索範囲を1枚目の固定カメラ画像に対して設定する。なお、指定されるオブジェクト4の初期位置は、探索範囲を設定するためのものである。また、探索範囲のサイズ(縦及び横の寸法)は、予め記憶されている。
続いて、オブジェクト候補画像生成部51aは、探索範囲内の画像領域にラベリング処理を施すとともに、面積及び形状に基づくフィルタリングを施すことによって、オブジェクト候補を絞り込む。ここで、オブジェクト候補画像生成部51aは、オブジェクト候補の面積が予め設定された最大値よりも大きい場合、又は、オブジェクト候補の面積が予め設定された最小値よりも小さい場合、そのオブジェクト候補を除外する。オブジェクト候補の面積の最大値及び最小値は、カーリングシート2の長さ方向の両端部に位置するオブジェクト4の面積に基づいて設定されている。さらに、オブジェクト候補画像生成部51aは、オブジェクト候補の形状が予め設定された形状と異なる場合、そのオブジェクト候補を除外する。さらに、オブジェクト候補画像生成部51aは、前記したフィルタリングで除外したオブジェクト候補を、黒で塗り潰す処理を行う。これにより、オブジェクト候補画像が得られる。
続いて、オブジェクト候補画像生成部51aは、1枚目の固定カメラ画像のオブジェクト候補画像に関して、オブジェクト候補のうち、探索範囲の中心に最も近いものをオブジェクト4として抽出する。そして、オブジェクト候補画像生成部51aは、1枚目の固定カメラ画像と同様にオブジェクト4を抽出した2枚目以降のオブジェクト候補画像を、追跡部51bへ出力する。
なお、オブジェクト候補画像生成部51aは、探索範囲の中心に最も近いオブジェクト4のサイズ(例えば、一辺の長さ)を検出し、検出したサイズに応じて、探索範囲のサイズを変更してもよい。この手法は、特開2018-206285号公報に記載されているため、詳細な説明を省略する。
<<追跡部>>
追跡部51bは、オブジェクト候補画像生成部51aから入力されたオブジェクト候補画像に逐次学習型の追跡手法を施し、オブジェクト候補画像に含まれるオブジェクト4の位置を追跡する。
本実施形態では、追跡部51bは、逐次学習型の追跡処理として、KCF(Kernelized Correlation Filter)法を用いることとする。KCF法は、オブジェクト4自体の画像を逐次(随時)学習しながら追跡する手法である。そのため、KCF法では、カーリングのようにスイーピングによってオブジェクト4に頻繁にオクルージョンが発生する状況でも、オブジェクト4の見え方を学習しながらオブジェクト4を頑健に追跡できる。また、KCF法では、FFT(Fast Fourier Transform)によってメモリ使用量を抑えつつ、高速にオブジェクト4を学習して追跡できる。この点、Boosting、MIL(Multiple Instance Learning)、サポートベクターマシン(SVM:support vector machine)、等といった一般的な2クラス識別器を用いた手法とは異なる。さらに、KCF法では、1画素ずつ密に探索窓をシフトさせた画像群をFFTによって解析的に処理することで、オブジェクト4を高速に追跡できる。一方、一般的な2クラス識別器を用いた手法では、オブジェクト4の予測位置の周辺からランダムに探索窓(subwindow)をサンプリングして識別処理を行うので、処理速度がKCF法より遅くなる。
追跡部51bは、以下の式(1)に示すように、入力u(オブジェクト候補画像の画素値の系列、特徴ベクトル等)に重みwを乗算してバイアスbを加算することで、出力値f(u)を算出する(但し、mは要素数)。そして、追跡部51bは、算出した出力値f(u)に基づいて、画像中に映っている物体がオブジェクト4であるか否かを判定する。
Figure 0007316097000001
次に、追跡部51bは、重みw及びバイアスbの最適値を、学習フェーズにおいて式(2)の目的関数を最小化することによって算出する。式(2)において、Lは、ロス関数であり、推定結果f(u)と真値vとの誤差が大きいほどロス関数Lも大きくなる。バイアスbは、重みwが大きな値をとることで、f(u)が複雑化することを防止するために付加する正則化項である。λは、正則化項(重みw)のバランスを決定するハイパーパラメータである。ハイパーパラメータλを大きくする程、正則化の効果が高くなる(重みwの影響力が大きくなる)。
Figure 0007316097000002
本実施形態において、追跡部51bは、探索範囲内において追跡対象であるオブジェクト4の周辺で1ピクセルずつシフトした画像群を生成し、生成された画像群を式(3)で示す巡回行列(circulant matirixes)C(u)として扱う。
Figure 0007316097000003
そして、追跡部51bは、巡回行列C(u)と真値のベクトルvとの積を、フーリエ空間のみにおいて、式(4)によって計算する。式(4)において、Fはフーリエ変換、F-1はフーリエ逆変換、*は複素共役である。uは、前記入力であって、追跡対象のオブジェクト4の領域周辺で1ピクセルずつシフトした画像群である。vは、uの真値である。巡回行列C(u)において、行列の各行は、1ピクセルずつシフトした画像に相当する。すなわち、式(4)の右辺は、入力uをフーリエ変換したものの複素共役と真値vをフーリエ変換したものとの要素ごとの積(アダマール積)をフーリエ逆変換したものである。
Figure 0007316097000004
空間領域の畳み込み演算は、周波数領域の乗除演算に等しいため、追跡部51bは、かかる巡回行列の特性を用いることによって、繰り返し処理が不要な高速処理を実現することができる。オブジェクト4の追跡処理において、追跡部51bは、学習フェーズで算出された重みw及びバイアスbを用いてf(u)を算出し、当該f(u)が最大となるuをオブジェクト4の位置とする。
以下、固定カメラ10のカメラ座標系におけるオブジェクト4の位置、すなわち、オブジェクト4の二次元座標(x,y)をP (i)で表す。ここで、iは、オブジェクト4の位置の通し番号を表し、添え字Cは、各カメラ座標系の番号を表す。Cは、第一の固定カメラ10Aのカメラ座標系を示す「1」、第二の固定カメラ10Bのカメラ座標系を示す「2」をとる。fは、当該固定カメラから見て順方向の軌跡Tであることを示す。また、オブジェクト位置P (i)の集合をオブジェクト位置群P とする。
オブジェクト位置群P は、追跡した全オブジェクト位置P (i)の集合としてもよく、1つのショットを代表する5~8点のオブジェクト位置P (i)の集合としてもよい。全オブジェクト位置P (i)を用いると、誤差の影響で軌跡Tが波打つため、代表点を用いることが好ましい。ここで、一定距離又は時間間隔でサンプリングすることで、代表点を抽出できる。このとき、代表点には、初回検出点及び最終位置を含めるとよい。
追跡部51bは、移動中のオブジェクト4が静止するまで当該オブジェクト4を追跡し続ける。追跡部51bは、オブジェクト4の速度をフレーム毎に算出し、算出されたオブジェクト4の速度に基づいて追跡を終了する。また、追跡部51bは、オペレータによる操作部30の操作結果に基づいて追跡を終了する。オブジェクト4が選手等に隠れた状態で静止した場合(オクルージョンが発生した場合)には、追跡部51bは、オペレータによる操作部30の操作結果に基づいて、オブジェクト4の静止位置を取得する。追跡終了後、追跡部51bは、オブジェクト4の追跡結果であるオブジェクト位置群P を第一の変換部52aに出力する。
<射影変換部>
射影変換部52は、追跡部51bによって追跡されたオブジェクト位置群P を射影変換する。射影変換部52は、第一の変換部52aと、第二の変換部52bと、を備える。
ここで、P (i)は、ある固定カメラ10(例えば、固定カメラ10A)によって撮影された2次元座標系上の位置を示す。このため、画角の異なる他の固定カメラ10(例えば、固定カメラ10B)によって撮影された画像に対し、正確な位置にオブジェクト4の軌跡を描画することは困難である。そこで、射影変換部52は、射影変換を用いて、ある固定カメラ10によって撮影されたオブジェクト4の位置を真上視点座標系(変換用座標系)へ変換する。そして、射影変換部52は、真上視点座標系に変換されたオブジェクト4の位置を他の固定カメラ10に対応するカメラ座標系へ変換する。
なお、真上視点座標系とは、カーリングシート2をその中心部の真上から撮影した場合の座標系のことである。以下、真上視点座標系におけるオブジェクト4の二次元座標(x,y)をP (i)で表し、オブジェクト位置P (i)の集合をオブジェクト位置群P とする。添え字Tは、真上視点座標系であることを表す。
<<第一の変換部>>
第一の変換部52aは、追跡部51bから入力されたオブジェクト位置群P を真上視点座標系へ射影変換し、真上視点座標系のオブジェクト位置群P を誤差特徴量算出部53aへ出力する。また、第一の変換部52aは、追跡部51bから入力されたカメラ座標系のオブジェクト位置群P を誤差特徴量算出部53aへ出力する。変換後の座標(x,y)は、変換前の座標を(x,y)とすると、以下の式(5)で表される。
Figure 0007316097000005
この射影変換は、平面から平面への写像であるため、変換後に得られる座標も2次元座標となる。ここで、3次元空間のZ軸に垂直で原点を通過する平面を仮定すると、常にZ=0となるため、射影変換後の2次元座標が得られることによって、3次元座標上の1点を指定することができる。ここで、オブジェクト4としてのカーリングのストーンが氷上を平行移動するため、高さ方向をZ軸としてZ=0と設定する。これにより、第一の固定カメラ10Aによって撮影された2次元座標系におけるオブジェクト4の位置から、オブジェクト4の三次元位置を算出できる。この射影変換において、射影変換行列Hは、未知の射影変換パラメータh1,…,h8を用いて、以下の式(6)で表される。8つの射影変換パラメータh1,…h8は、変換前後の画像間の4点以上の対応関係に基づいて算出可能である。
Figure 0007316097000006
ここで、第一の変換部52aは、図6(a)に示すように、第一の固定カメラ10Aによって撮影された画像を表示部40に表示させる。すると、オペレータは、操作部30を操作し、表示部40に表示された画像上で4点(例えば、カーリングシート2の四隅2a~2d)を指定する。すると、第一の変換部52aは、オペレータが指定した4点の座標を変換前の座標として取得し、前記した手順により射影変換行列Hを生成し、図6(b)に示すように真上視点座標系への射影変換を行う。
<<第二の変換部>>
第二の変換部52bは、後記する補正部53cから補正後のオブジェクト位置群P ´が入力された場合、真上視点座標系のオブジェクト位置群P ´を、他の固定カメラ10に対応したカメラ座標系へ射影変換する。ここで、第二の変換部52bは、第一の変換部52aと同様の手順で射影変換を行い、他の固定カメラ10に対応したカメラ座標系のオブジェクト位置群P ´を軌跡生成部54に出力する。
なお、カーリングは10エンドまで行われ、奇数エンド(1,3,5,7,9)と偶数エンド(2,4,6,8,10)とでハウス3A,3Bの位置が交互に入れ替えられる。そのため、奇数エンドでの投石(オブジェクト4の軌跡T)と偶数エンドの投石とは逆方向となり、一方の第一の固定カメラ10Aによるオブジェクト位置群を他方の第二の固定カメラ10Bによる画像に単に合成し、奇数エンド及び偶数エンドの軌跡Tを同時に表示しようとすると、逆方向の軌跡Tが混在することとなる。そこで、射影変換部52は、奇数エンド及び偶数エンドの一方のオブジェクト位置群を点対象に180°回転させることによって、奇数エンド及び偶数エンドの両方の軌跡Tを同一方向にしてもよい。この手法は、特開2018-206285号公報に記載されているため、詳細な説明を省略する。
<位置補正部>
位置補正部53は、後記する識別器53dにより、射影変換部52が算出したオブジェクト位置群P を補正し、補正後のオブジェクト位置群P ´を射影変換部52に出力する。図5に示すように、位置補正部53は、誤差特徴量算出部53aと、学習部53bと、補正部53cと、識別器53dとを備える。
真上視点座標系のオブジェクト位置群P には位置ずれが生じていることが多く、その結果、オブジェクト4の軌跡Tが自然な放物軌道から逸れてしまう場合がある。この場合、オペレータが軌跡Tの代表点(オブジェクト4の位置)を補正しているが、どの代表点を補正するかはオペレータの判断に依存する。スウィーピングにより軌跡Tの後半が放物軌道とならないことも多く、補正の要否は代表点の位置と平滑化曲線との誤差に基づいて、オペレータが人手で判断している。そこで、この人手による判定を機械学習することで、修正作業の自動化を図る。
以下、誤差特徴量の算出と識別器53dの学習手順を説明する。まず、真上視点座標系のオブジェクト位置群P を用いて、オブジェクト位置群P の平滑化曲線を真上視点座標系で算出する。平滑化曲線は、スプライン曲線、ベジェ曲線などの任意の曲線である。続いて、カメラ座標系のオブジェクト位置群P を用いて、オブジェクト位置群P の平滑化曲線をカメラ座標系で算出する。そして、真上視点座標系において、オブジェクト位置群P に含まれる各オブジェクト位置P (i)から平滑化曲線までの距離R (i)を算出する。さらに、カメラ座標系において、オブジェクト位置群P に含まれる各オブジェクト位置P (i)から平滑化曲線までの距離R (i)を算出する。その後、オブジェクト4の軌跡先頭から各位置までの長さを求め、オブジェクト4の軌跡T全長に対する各位置までの長さの割合Lを算出する。
そして、以下の式(7)で定義される誤差特徴量を算出する。この式(7)には、真上視点座標系の各オブジェクト位置P (i)、真上視点座標系での距離R (i)、カメラ座標系の各オブジェクト位置P (i)、カメラ座標系での距離R (i)、割合Lが含まれる。なお、オブジェクト4の位置iにおいて、xが水平座標(X座標)であり、yが垂直座標(Y座標)である。また、Lは、軌跡Tの全長に対する点iの位置の割合(0.0~1.0)である。
Figure 0007316097000007
学習時において、オペレータが補正したオブジェクト位置の誤差特徴量を正例、及び、オペレータが補正しなかったオブジェクト位置の誤差特徴量を負例として機械学習することで、識別器53dを生成する。識別時において、固定カメラ画像から求めたオブジェクト位置群P ,P の誤差特徴量を識別器53dに入力することで、補正の要否を判定する。補正が必要と判断された場合、補正が必要なオブジェクト位置P (i)を真上視点座標系の平滑化曲線上で補正する。そして、補正後のオブジェクト位置群P ´を用いて、誤差特徴量を再度算出する。このように、位置補正部53は、全オブジェクト位置で補正が必要ないと判定されるまで前記処理を繰り返し、補正後のオブジェクト位置群P ´を求める。
<<誤差特徴量算出部>>
学習時において、誤差特徴量算出部53aは、オペレータが補正したオブジェクト位置(正例)、及び、オペレータが補正しなかったオブジェクト位置(負例)が入力される。誤差特徴量算出部53aは、前記式(7)を用いて、オペレータが補正したオブジェクト位置の誤差特徴量を正例、及び、オペレータが補正しなかったオブジェクト位置の誤差特徴量を負例として算出する。そして、誤差特徴量算出部53aは、正例及び負例の誤差特徴量を学習部53bに出力する。
識別時において、誤差特徴量算出部53aは、前記式(7)を用いて、第一の変換部52aから入力されたオブジェクト位置群P ,P の誤差特徴量を算出する。そして、誤差特徴量算出部53aは、算出した誤差特徴量を補正部53cに出力する。
<<学習部>>
学習時において、学習部53bは、誤差特徴量算出部53aから入力された正例及び負例の誤差特徴量を機械学習することで、識別器53dを生成する。本実施形態では、学習部53bは、サポートベクターマシン、ランダムフォレスト(Random Forest)、アダブースト(Adaboost)等の機械学習を用いて、識別器53dを生成する。
<<補正部>>
識別時において、補正部53cは、識別器53dにより、射影変換部52が算出したオブジェクト位置群P の補正の要否を判定し、補正が必要な場合、オブジェクトの位置P (i)を平滑化曲線上に補正する。
具体的には、補正部53cは、誤差特徴量算出部53aが算出した誤差特徴量を識別器53dに入力し、オブジェクト位置群P に含まれる各オブジェクト位置P (i)の補正の要否を判定する。以下、そのオブジェクト位置P (i)の補正が必要な場合について説明する。図7に示すように、補正部53cは、真上視点座標系において、そのオブジェクト位置P (i)から最短距離となる平滑化曲線CV上の1点を補正後のオブジェクト位置P (i)´として求める。
ここで、補正部53cは、全オブジェクト位置P (i)で補正が必要ないと判定されるまで、前記した補正を繰り返す。例えば、補正部53cは、全オブジェクト位置P (i)の誤差特徴量を合計し、その合計値が予め設定した閾値以下であるか否かを判定する。
合計値が閾値以下の場合、補正部53cは、全オブジェクト位置P (i)で補正が必要ないと判定し、補正後のオブジェクト位置群P ´を第二の変換部52bに出力する。
合計値が閾値未満の場合、補正部53cは、何れかのオブジェクト位置P (i)で補正が必要と判定する。この場合、補正部53cは、全オブジェクト位置P (i)で補正が必要ないと判定されるまで、オブジェクト位置P (i)の補正を繰り返す。
<<識別器>>
識別器53dは、オペレータによるオブジェクト位置群の補正結果を予め機械学習したものである。この識別器53dは、学習部53bによって生成され、補正部53cによって参照される。
<軌跡生成部>
軌跡生成部54は、第二の変換部52bから入力されたオブジェクト位置群P ´に基づいて、オブジェクト4の軌跡Tを生成する。すなわち、軌跡生成部54は、得られたオブジェクト位置群P ´を用いて、オブジェクト4の軌跡Tを生成し、生成した軌跡Tを記憶部55に記憶させる。ここで、検出された全てのフレームにおけるオブジェクト位置P (i)´を繋ぐと、誤検出や検出漏れが発生するため、滑らかな軌跡を描画することは困難である。このため、軌跡生成部54は、オブジェクト位置P (i)´の数点をサンプリングし、サンプリングされたオブジェクト位置P (i)´にスプライン補間を行う。これにより、滑らかなオブジェクト4の軌跡Tを生成できる。
スプライン補間は、与えられた点群の全てを用いて関数を決定するのではなく、局所的な数点のみを用いて局所の関数(曲線)を決定し、かつ、決定された複数の曲線が全体として滑らかに接続される手法である。スプライン補間は、点群の全てから単一の多項式を決定するのではなく、各区間を比較的低い次元の多項式で近似する。軌跡生成部54は、以下の式(8)で表される3次スプライン補間により、オブジェクト4の軌跡Tを生成する。
Figure 0007316097000008
式(8)において、zは、スプライン補間によって得られる軌跡を示す関数である。また、式(8)において、軌跡zは、水平座標(X座標)、垂直座標(Y座標)に分けて記述されている。スプライン補間は、与えられた全ての点(x,y)を必ず通過し、微係数の値が全ての点(x,y)で一致するように、係数p,q,r,sを予め設定する(但し、係数r=rn-1=0)。
<記憶部及び軌跡出力部>
記憶部55は、軌跡生成部54が生成した軌跡Tを記憶するメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの記憶装置である。
軌跡出力部56は、オペレータによる操作部30の操作結果に基づいて、記憶部55に記憶された軌跡Tを読み出し、読み出した軌跡Tをインサータ60へ出力する。
以上より、オブジェクト軌跡生成装置50は、実軌跡に近いオブジェクト4の軌跡Tを生成することができる。図8に示すように、オブジェクト軌跡生成装置50が生成した軌跡Tは、図2に比べて、蛇行が少なく、自然な放物軌道となっている。
[オブジェクト軌跡生成装置の動作]
図9を参照し、オブジェクト軌跡生成装置50の動作ついて説明する。なお、図9では、識別器53dが学習済みであることとする。
図9に示すように、ステップS1において、オブジェクト追跡部51は、固定カメラ映像に含まれるオブジェクト4の位置を映像内において追跡する。オブジェクト候補画像生成部51aは、固定カメラ映像を構成するフレームである固定カメラ画像から、オブジェクト候補画像を生成する。追跡部51bは、オブジェクト候補画像生成部51aから入力されたオブジェクト候補画像に逐次学習型の追跡手法を施し、オブジェクト候補画像に含まれるオブジェクト4の位置を追跡する。
ステップS2において、射影変換部52は、ステップS1で追跡したオブジェクト4の位置群を射影変換する。第一の変換部52aは、追跡部51bから入力されたオブジェクト位置群を真上視点座標系へ射影変換する。
ステップS3において、位置補正部53は、識別器53dにより、ステップS2で算出したオブジェクト位置群を補正する。このステップS3の詳細は、後記する。
ステップS4において、射影変換部52は、ステップS3で補正したオブジェクト位置群を射影変換する。第二の変換部52bは、補正部53cから入力されたオブジェクト位置群を、他の固定カメラ10に対応したカメラ座標系へ射影変換する。
ステップS5において、軌跡生成部54は、ステップS4で射影変換されたオブジェクト位置群に基づいて、オブジェクト4の軌跡Tを生成し、記憶部55に記憶させる。軌跡出力部56は、オペレータによる操作部30の操作結果に基づいて、記憶部55に記憶された軌跡Tを読み出し、読み出した軌跡Tをインサータ60へ出力する。
<オブジェクト位置群の補正>
図10を参照し、図9のオブジェクト位置群の補正処理について説明する。
図10に示すように、ステップS30において、誤差特徴量算出部53aは、真上視点座標系でオブジェクト位置群から平滑化曲線を算出し、オブジェクト4の各位置から平滑化曲線までの距離を算出する。
ステップS31において、誤差特徴量算出部53aは、カメラ座標系でオブジェクト位置群から平滑化曲線を算出し、オブジェクト4の各位置から平滑化曲線までの距離を算出する。
ステップS32において、誤差特徴量算出部53aは、前記式(7)を用いて、誤差特徴量を算出する。
ステップS33において、補正部53cは、ステップS32で算出した各オブジェクト位置の誤差特徴量を識別器53dに入力し、そのオブジェクト位置の補正の要否を判定する。例えば、補正部53cは、全オブジェクト位置で誤差特徴量を合計し、その合計値が閾値以下であるか否かを閾値判定する。
補正が必要ない場合(ステップS33でNo)、補正部53cは、補正後のオブジェクト位置群を射影変換部52に出力し、処理を終了する。
補正が必要な場合(ステップS33でYes)、補正部53cは、ステップS34の処理に進む。
ステップS34において、補正部53cは、オブジェクトの位置群を平滑化曲線上に補正し、ステップS30の処理に戻る。
[作用・効果]
以上のように、オブジェクト軌跡生成装置50は、人手による軌跡Tの補正結果を学習した識別器53dを用いるので、その補正結果が軌跡Tに反映され、実軌跡に近い軌跡Tを自動的に生成することができる。例えば、カーリングの試合において、オブジェクト軌跡生成装置50は、オブジェクト4の軌跡Tの補正作業に要する労力を軽減することができる。
さらに、オブジェクト軌跡生成装置50は、変換用の座標系である真上視点座標系を介して射影変換を行うので、オブジェクト4の位置群を異なる視点の座標系へ精度よく変換することができる。
さらに、オブジェクト軌跡生成装置50は、正例及び負例の誤差特徴量を機械学習するので、高精度な識別器53dを生成することができる。
さらに、オブジェクト軌跡生成装置50は、カーリングのストーンなどのオブジェクト4の軌跡Tを可視化することが可能である。これにより、オブジェクト軌跡生成装置50は、カーリング競技において、カメラ映像だけでは伝えきれない各チームの戦術やカーリングシート2の状態など、解説コメントを交えて分かりやすく伝えることができる。
(変形例)
以上、本発明の実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した実施形態では、平滑化曲線がスプライン曲線であることとして説明したが、これに限定されない。例えば、平滑化曲線は、ベジェ曲線等の任意の曲線でもよい。
前記した実施形態では、カーリング競技において、ストーンの軌跡を生成することとして説明したが、これに限定されない。例えば、オブジェクト軌跡生成装置は、図11に示すように、ゴルフのパッティングにおいて、ゴルフボールの軌跡を生成及び表示することもできる。ゴルフのパッティングでは、グリーンのアンジュレーション(地面の凹凸)により、ゴルフボールの軌跡が自然な放物軌道にならないため、オブジェクト軌跡生成装置が有効である。このように、オブジェクト軌跡生成装置は、カーリングのみならず、地面に接地したオブジェクトの軌跡を生成することができる。さらに、オブジェクト軌跡生成装置は、追跡したオブジェクト位置に誤差が含まれることが多く、その補正を行えるため、カーリング、ゴルフ以外にも汎用的に利用できる。
前記した実施形態では、オブジェクト軌跡生成装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記したオブジェクト軌跡生成装置として協調動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD-ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
本発明は、スポーツ映像解析技術に関し、自動審判、スポーツ番組の放送、スポーツデータ生成・配信、コーチングなどのサービスに利用することができる。さらに、本発明は、スポーツ以外でも情報番組、ドラマ・映画での映像制作、ゲームなどのエンターテイメントといった幅広い演出にも利用することができる。
1 オブジェクト軌跡生成システム
10 固定カメラ
10A 第一の固定カメラ
10B 第二の固定カメラ
10C 第三の固定カメラ
20 スイッチャ
30 操作部
40 表示部
50 オブジェクト軌跡生成装置
51 オブジェクト追跡部
51a オブジェクト候補画像生成部
51b 追跡部
52 射影変換部
52a 第一の変換部
52b 第二の変換部
53 位置補正部
53a 誤差特徴量算出部
53b 学習部
53c 補正部
53d 識別器
54 軌跡生成部
55 記憶部
56 軌跡出力部
60 インサータ

Claims (4)

  1. 固定カメラ映像に含まれるオブジェクトの軌跡を生成するオブジェクト軌跡生成装置であって、
    移動する前記オブジェクトの位置を追跡する追跡部と、
    前記追跡部によって追跡された前記オブジェクトの位置群を射影変換する射影変換部と、
    前記オブジェクトの位置群の補正結果を予め機械学習した識別器により、前記射影変換部が算出したオブジェクトの位置群を補正する位置補正部と、
    前記位置補正部が補正したオブジェクトの位置群に基づいて、前記オブジェクトの軌跡を生成する軌跡生成部と、
    を備え、
    前記射影変換部は、
    前記固定カメラ映像に含まれる前記オブジェクトの位置群を、固定カメラの撮影空間を上から見た変換用座標系に射影変換し、
    前記変換用座標系に変換された前記オブジェクトの位置群を、前記固定カメラ映像と異なる視点の座標系に射影変換し、
    前記位置補正部は、
    前記固定カメラの座標系及び前記変換用座標系において、前記オブジェクトの各位置と、前記オブジェクトの各位置から前記オブジェクトの位置群の平滑化曲線までの距離と、前記オブジェクトの軌跡全長に対する前記オブジェクトの軌跡先頭から各位置までの長さの割合とが含まれる誤差特徴量を算出する誤差特徴量算出部と、
    前記オブジェクトの位置が補正されたときの前記誤差特徴量を正例、及び、前記オブジェクトの位置が補正されなかったときの前記誤差特徴量を負例として予め機械学習した前記識別器により、前記射影変換部が算出したオブジェクトの位置群を前記平滑化曲線上に補正する補正部と、
    を備えることを特徴とするオブジェクト軌跡生成装置。
  2. 前記位置補正部は、正例及び負例の前記誤差特徴量を機械学習することで、前記識別器を生成する学習部、を備えることを特徴とする請求項に記載のオブジェクト軌跡生成装置。
  3. 前記オブジェクトは、カーリングのストーンであることを特徴とする請求項1又は請求項2に記載のオブジェクト軌跡生成装置。
  4. コンピュータを、請求項1から請求項の何れか一項に記載のオブジェクト軌跡生成装置として機能させるためのプログラム。
JP2019097378A 2019-05-24 2019-05-24 オブジェクト軌跡生成装置及びそのプログラム Active JP7316097B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019097378A JP7316097B2 (ja) 2019-05-24 2019-05-24 オブジェクト軌跡生成装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019097378A JP7316097B2 (ja) 2019-05-24 2019-05-24 オブジェクト軌跡生成装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2020191036A JP2020191036A (ja) 2020-11-26
JP7316097B2 true JP7316097B2 (ja) 2023-07-27

Family

ID=73454627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019097378A Active JP7316097B2 (ja) 2019-05-24 2019-05-24 オブジェクト軌跡生成装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP7316097B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116958195A (zh) 2022-04-13 2023-10-27 纬创资通股份有限公司 物件追踪整合方法及整合装置
US20240020964A1 (en) 2022-07-18 2024-01-18 42Dot Inc. Method and device for improving object recognition rate of self-driving car

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017217185A1 (ja) 2016-06-14 2017-12-21 富士フイルム株式会社 サーバ装置、画像処理システム及び画像処理方法
JP2018206285A (ja) 2017-06-09 2018-12-27 日本放送協会 オブジェクト追跡装置及びオブジェクト軌跡生成システム
JP2019036030A (ja) 2017-08-10 2019-03-07 日本電信電話株式会社 物体検出装置、物体検出方法及び物体検出プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5832106A (en) * 1996-05-22 1998-11-03 Electronics And Telecommunications Research Institute Method for camera calibration of range imaging system by use of neural network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017217185A1 (ja) 2016-06-14 2017-12-21 富士フイルム株式会社 サーバ装置、画像処理システム及び画像処理方法
JP2018206285A (ja) 2017-06-09 2018-12-27 日本放送協会 オブジェクト追跡装置及びオブジェクト軌跡生成システム
JP2019036030A (ja) 2017-08-10 2019-03-07 日本電信電話株式会社 物体検出装置、物体検出方法及び物体検出プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高橋 正樹 外5名,逐次学習を利用したカーリング競技でのストーン軌跡表示,2017年映像情報メディア学会年次大会,2017年09月01日

Also Published As

Publication number Publication date
JP2020191036A (ja) 2020-11-26

Similar Documents

Publication Publication Date Title
US11594029B2 (en) Methods and systems for determining ball shot attempt location on ball court
Puwein et al. Robust multi-view camera calibration for wide-baseline camera networks
JP6702329B2 (ja) 映像処理装置、映像処理方法、及び、プログラム
US9437012B2 (en) Multiple-object tracking and team identification for game strategy analysis
JP6816058B2 (ja) パラメータ最適化装置、パラメータ最適化方法、プログラム
JP4733651B2 (ja) 位置検出装置、位置検出方法、及び位置検出プログラム
TWI537872B (zh) 辨識二維影像產生三維資訊之方法
JP7316097B2 (ja) オブジェクト軌跡生成装置及びそのプログラム
JP2018040789A (ja) 画像距離算出装置、画像距離算出方法および画像距離算出用プログラム
Kotera et al. Intra-frame object tracking by deblatting
US20210125349A1 (en) Systems and methods for visualizing ball trajectory in real-time
JP2018206285A (ja) オブジェクト追跡装置及びオブジェクト軌跡生成システム
CN114120168A (zh) 一种目标跑动距离测算方法、系统、设备及存储介质
JP7198661B2 (ja) オブジェクト追跡装置及びそのプログラム
JP2019101892A (ja) オブジェクト追跡装置及びそのプログラム
Puwein et al. PTZ camera network calibration from moving people in sports broadcasts
Ringaby et al. Scan rectification for structured light range sensors with rolling shutters
JP6602726B2 (ja) 仮想環境生成装置、仮想環境生成方法、プログラム
Wang et al. Adaptive video stabilization based on feature point detection and full-reference stability assessment
Imre et al. Calibration of nodal and free-moving cameras in dynamic scenes for post-production
Bright et al. Mitigating motion blur for robust 3d baseball player pose modeling for pitch analysis
JP2004252748A (ja) 画像処理方法、画像処理装置
Polceanu et al. Real time tennis match tracking with low cost equipment
Shishido et al. Calibration of multiple sparsely distributed cameras using a mobile camera
Rosney et al. Automating sports broadcasting using ultra-high definition cameras, neural networks, and classical denoising

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230714

R150 Certificate of patent or registration of utility model

Ref document number: 7316097

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150