JP2008284166A - Pitch type identification apparatus, identifier generator, pitch type identification program, and identifier generation program - Google Patents
Pitch type identification apparatus, identifier generator, pitch type identification program, and identifier generation program Download PDFInfo
- Publication number
- JP2008284166A JP2008284166A JP2007132166A JP2007132166A JP2008284166A JP 2008284166 A JP2008284166 A JP 2008284166A JP 2007132166 A JP2007132166 A JP 2007132166A JP 2007132166 A JP2007132166 A JP 2007132166A JP 2008284166 A JP2008284166 A JP 2008284166A
- Authority
- JP
- Japan
- Prior art keywords
- pitch
- trajectory
- type
- discriminator
- ball
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、投球の映像から当該投球を解析する技術に係り、特に、投球の球種を識別するための投球球種識別装置、識別器生成装置、投球球種識別プログラム及び識別器生成プログラムに関する。 The present invention relates to a technique for analyzing a pitch from a pitch video, and more particularly, to a pitch type identifying device, a classifier generating device, a pitch type identifying program, and a classifier generating program for identifying a pitch type. .
野球では、ピッチャにより、ストレート、カーブ、フォークなどの様々な球種が用いられる。バッタに打たれるか否かは配球の組み立てにより決まることも多く、野球の知識のある視聴者は、次の球種を予想しながら視聴する。このように視聴者の球種の情報に対する関心は高く、中継番組内のスーパ表示、データ放送、インタネットなどで球種の情報が提供されている。また、球種の情報をメタデータとして保存すれば、後のシーン検索や、投球内容の解析に利用することが可能となる。 In baseball, various pitches such as straight, curve, and fork are used depending on the pitcher. Whether or not it is hit by a grasshopper is often determined by assembling the pitch, and a viewer with knowledge of baseball views the next ball type in anticipation. In this way, viewers are highly interested in information on the type of sphere, and information on the type of sphere is provided by super display, data broadcasting, the Internet, and the like in relay programs. In addition, if the information on the type of ball is stored as metadata, it can be used for later scene search and analysis of pitching contents.
そして、従来、投球の軌跡を表示する装置が開示されている(特許文献1参照)。この装置は、画像認識技術を利用して、映像内からフィールドレートでボールの領域をリアルタイムで抽出・追跡し、得られた位置に軌跡を示すCG(コンピュータグラフィックス)を描画する。これによって、変化球の落差などが一目で分かるため、視聴者に対して有益な情報を提供できる。 And the apparatus which displays the locus | trajectory of pitching conventionally is disclosed (refer patent document 1). This device uses image recognition technology to extract and track a ball area from a video at a field rate in real time, and draws CG (computer graphics) indicating a locus at the obtained position. This makes it possible to provide information useful to the viewer because the drop of the changing ball can be seen at a glance.
また、ストライクゾーンの判定を行う装置が開示されている(特許文献2参照)。この装置は、ホームベース付近を撮影した複数台のカメラの映像からボールがストライクゾーンに入ったかを画像処理で判定するものである。 Also, an apparatus for determining a strike zone is disclosed (see Patent Document 2). This apparatus determines, by image processing, whether or not a ball has entered a strike zone from images of a plurality of cameras that photographed the vicinity of a home base.
更に、ゴルフ練習場において、プレイヤから移動するゴルフボールを画像処理により追跡し、ゴルフの飛距離や軌道などの特性を知らせる装置が開示されている(特許文献3参照)。
しかし、従来、球種は、ほとんどの場合、専門家が一球一球目視で確認して定めており、判定には高い野球の知識が要求される。また、人間が判定しているため、主観が混入する恐れがある。 However, conventionally, most of the ball types are determined and confirmed by an expert visually by one ball, and a high baseball knowledge is required for the determination. In addition, since human beings make the determination, there is a risk that subjectivity will be mixed.
また、特許文献1の装置は、投球の軌跡を一目で把握できるものの、それがどのような球種であるのかまでは判定できない。そのため、球種の判別は、軌跡を見た解説者や視聴者の判断に委ねられていた。
Moreover, although the apparatus of
一方、特許文献2の装置は、ボールがストライクゾーンに入ったか否かを判定できるものの、球種まで判定することは不可能である。また、この装置では、複数台のカメラを設置する必要があるが、既存の放送用のカメラを1台だけで運用できることが好ましい。
On the other hand, the apparatus of
そして、特許文献3の装置は、複数台のカメラが必要であり、単眼カメラでの球種判定に適用することができない。 And the apparatus of patent document 3 requires a plurality of cameras, and cannot be applied to the ball type determination with a monocular camera.
本発明は、前記従来技術の問題を解決するために成されたもので、1台のカメラによって撮影された投球の映像から、その投球の球種を判定することができる投球球種識別装置、識別器生成装置、投球球種識別プログラム及び識別器生成プログラムを提供することを目的とする。 The present invention is made in order to solve the problems of the prior art, and a pitching type identification device capable of determining the pitch type of the pitch from the video of the pitch shot by one camera, It is an object of the present invention to provide a discriminator generating device, a pitching ball type identifying program, and a discriminator generating program.
前記課題を解決するため、請求項1に記載の投球球種識別装置は、投球の映像から、当該投球の球種を識別する投球球種識別装置であって、識別器記憶手段と、投球軌跡解析手段と、球種識別手段とを備える構成とした。
In order to solve the above-mentioned problem, the pitch type identification device according to
かかる構成によれば、投球球種識別装置は、識別器記憶手段に、投球の映像を構成する時系列の画像内における投球の映像オブジェクトの位置の時系列の情報である軌跡データと、各々の投球に予め対応付けられた当該投球の球種の情報とに基づいて複数の投球について機械学習された、軌跡データから球種を識別するための識別器を予め記憶する。また、投球球種識別装置は、投球軌跡解析手段によって、球種の識別対象となる投球の映像を入力し、この映像を構成する時系列の画像内における投球の映像オブジェクトを抽出して、当該投球の軌跡データを生成し、球種識別手段によって、識別器記憶手段に記憶された識別器を用いて、投球軌跡解析手段で生成された軌跡データから識別対象の投球の球種を識別する。 According to such a configuration, the pitching ball type identifying device stores, in the classifier storage means, trajectory data that is time-series information of the position of the video object of the pitch in the time-series image constituting the pitched video, A discriminator for discriminating the ball type from the trajectory data, machine-learned for a plurality of pitches based on the pitch type information associated with the pitch in advance, is stored in advance. Further, the pitching ball type identifying device inputs a pitching video as a pitch type identification target by the pitching trajectory analyzing means, extracts a pitching video object in a time-series image constituting this video, and Pitch trajectory data is generated, and the ball type discriminating unit identifies the pitch type of the pitch to be identified from the trajectory data generated by the pitch trajectory analyzing unit using the discriminator stored in the discriminator storage unit.
これによって、投球球種識別装置は、球種の識別対象となる投球の映像から軌跡データを生成して、当該投球の球種を識別することができる。ここで、球種が既知である投球の軌跡データを用いて予め機械学習によって生成された、球種を識別するための識別器を予め記憶しておくことで、投球球種識別装置は、この識別器を用いて、識別対象となる投球の軌跡データから当該投球の球種を識別することができる。 Thereby, the pitching ball type identifying device can generate trajectory data from the video of the pitching that is the target of the pitching type identification, and can identify the pitching type of the pitching. Here, the throwing ball type identifying device stores the discriminator for identifying the ball type, which is generated by machine learning in advance using the trajectory data of the pitch whose known ball type is known. Using the discriminator, the pitch type of the pitch can be identified from the trajectory data of the pitch to be identified.
また、請求項2に記載の投球球種識別装置は、請求項1に記載の投球球種識別装置において、前記識別器記憶手段が、前記複数の投球の軌跡データから所定の基準により正規化して算出された前記投球の軌道の形状、前記投球の相対的な位置及び球速の少なくともひとつの特徴を示す特徴量と、各々の投球に予め対応付けられた当該投球の球種の情報とに基づいて機械学習された、前記特徴量から前記球種を識別するための識別器を予め記憶し、前記球種識別手段が、前記投球軌跡解析手段によって生成された軌跡データから、前記所定の基準により正規化された前記特徴量を算出する特徴量算出手段と、前記識別器記憶手段に記憶された識別器を用いて、前記特徴量算出手段によって算出された特徴量から前記識別対象の投球の球種を識別する識別手段とを有する構成とした。 According to a second aspect of the present invention, there is provided the pitched ball type identifying apparatus according to the first aspect, wherein the classifier storage unit normalizes the pitched ball trajectory data according to a predetermined standard from the plurality of pitched track data. Based on the calculated trajectory shape of the pitch, the characteristic amount indicating at least one characteristic of the relative position of the pitch and the speed of the pitch, and information on the pitch type of the pitch previously associated with each pitch A discriminator for discriminating the ball type from the feature quantity, which has been machine-learned, is stored in advance, and the ball type discriminating unit is registered in accordance with the predetermined reference from the trajectory data generated by the throwing trajectory analyzing unit. A pitch type of the pitch to be identified from the feature quantity calculated by the feature quantity calculation means using a feature quantity calculation means for calculating the converted feature quantity and a classifier stored in the classifier storage means Identify That was configured to have an identification means.
これによって、投球球種識別装置は、球種の識別対象となる投球の映像から軌跡データを生成し、投球の軌道の形状、投球の相対的な位置及び球速の少なくともひとつの特徴を示す特徴量を算出して、当該投球の球種を識別することができる。ここで、球種が既知である投球の軌跡データを用いて予め機械学習によって生成された、投球の軌道の形状、投球の相対的な位置及び球速の少なくともひとつの特徴を示す特徴量から球種を識別するための識別器を予め記憶しておくことで、投球球種識別装置は、この識別器を用いて、識別対象となる投球の特徴量から当該投球の球種を識別することができる。なお、投球の相対的な位置とは、投球同士の相対的な位置、軌跡の近似曲線のような複数の投球の位置を所定の方法により解析して得られたものの位置に対する投球の相対的な位置、あるいは、人物や映像内の物に対する投球の相対的な位置を示す。 Thereby, the pitch type identification device generates trajectory data from the video of the pitch to be identified as the pitch type, and the feature amount indicates at least one of the shape of the pitch trajectory, the relative position of the pitch, and the ball speed Can be calculated to identify the pitch type of the pitch. Here, the ball type from the feature amount indicating at least one of the shape of the pitch trajectory, the relative position of the pitch, and the ball speed, which is generated by machine learning in advance using the pitch trajectory data of which the ball type is known. By storing a discriminator for discriminating in advance, the pitching ball type identifying device can identify the pitch type of the pitch from the characteristic amount of the pitch to be discriminated using this discriminator. . Note that the relative position of the pitch is the relative position of the pitch with respect to the position of the pitch obtained by analyzing a plurality of pitch positions such as an approximate curve of the trajectory by a predetermined method. Indicates the position or the relative position of the pitch with respect to a person or an object in the video.
また、請求項3に記載の識別器生成装置は、請求項1に記載の投球球種識別装置において用いられる、投球の球種を識別するための識別器を生成する識別器生成装置であって、投球軌跡解析手段と、球種学習手段とを備える構成とした。
The discriminator generating device according to claim 3 is a discriminator generating device for generating a discriminator for identifying the pitch type of the pitch used in the pitched ball type identifying device according to
かかる構成によれば、識別器生成装置は、投球軌跡解析手段によって、複数の投球の映像を入力して、各々の映像を構成する時系列の画像内における投球の映像オブジェクトを抽出して、当該画像内における投球の映像オブジェクトの位置の時系列の情報である軌跡データを生成し、球種学習手段によって、この投球軌跡解析手段で生成された軌跡データと、各々の投球に予め対応付けられた当該投球の球種の情報とに基づいて、軌跡データから球種を識別するための識別器を機械学習によって生成する。 According to such a configuration, the discriminator generation device inputs a plurality of pitch videos by the pitch trajectory analysis means, extracts the pitch video objects in the time-series images constituting each video, and Trajectory data that is time-series information of the position of the video object of the pitch in the image is generated, and the trajectory data generated by the pitch trajectory analyzing means is associated with each pitch in advance by the ball type learning means. Based on the pitch type information of the pitch, a discriminator for identifying the pitch type from the trajectory data is generated by machine learning.
これによって、識別器生成装置は、球種の情報が予め対応付けられた複数の投球の軌跡データに基づいて、機械学習により、軌跡データから球種を識別するための識別器を生成することができる。 As a result, the discriminator generation device can generate a discriminator for identifying the ball type from the trajectory data by machine learning based on the trajectory data of a plurality of pitches in which the ball type information is associated in advance. it can.
また、請求項4に記載の投球球種識別装置は、請求項2に記載の投球球種識別装置において用いられる、投球の軌道の形状、当該投球の相対的な位置及び球速の少なくともひとつの特徴を示す特徴量から球種を識別するための識別器を生成する識別器生成装置であって、投球軌跡解析手段と、球種学習手段とを備え、前記球種学習手段が、特徴量算出手段と、学習手段とを有することとした。 According to a fourth aspect of the present invention, at least one characteristic of the shape of the pitch of the pitch, the relative position of the pitch and the speed of the ball used in the pitch type identification device of the second aspect. A discriminator generating device for generating a discriminator for discriminating a ball type from a feature amount indicating a pitch trajectory analysis unit and a ball type learning unit, wherein the ball type learning unit includes a feature amount calculation unit. And learning means.
かかる構成によれば、識別器生成装置は、投球軌跡解析手段によって、複数の投球の映像を入力して、各々の映像を構成する時系列の画像内における投球の映像オブジェクトを抽出して、当該画像内における投球の映像オブジェクトの位置の時系列の情報である軌跡データを生成し、球種学習手段によって、この投球軌跡解析手段で生成された軌跡データと、各々の投球に予め対応付けられた当該投球の球種の情報とに基づいて、軌跡データから球種を識別するための識別器を機械学習によって生成する。ここで、識別器生成装置は、球種学習手段の、特徴量算出手段によって、投球軌跡解析手段で生成された軌跡データから、各々の投球について、所定の基準により正規化された特徴量を算出し、学習手段によって、この特徴量算出手段で算出された複数の投球の特徴量と、対応する球種の情報とに基づいて、特徴量から球種を識別するための識別器を機械学習によって生成する。 According to such a configuration, the discriminator generation device inputs a plurality of pitch videos by the pitch trajectory analysis means, extracts the pitch video objects in the time-series images constituting each video, and Trajectory data that is time-series information of the position of the video object of the pitch in the image is generated, and the trajectory data generated by the pitch trajectory analyzing means is associated with each pitch in advance by the ball type learning means. Based on the pitch type information of the pitch, a discriminator for identifying the pitch type from the trajectory data is generated by machine learning. Here, the discriminator generation device calculates the feature value normalized by a predetermined reference for each pitch from the trajectory data generated by the pitch trajectory analysis unit by the feature amount calculation unit of the ball type learning unit. Then, a learning unit uses a machine learning to identify a discriminator for identifying the ball type from the feature amount based on the plurality of pitch feature amounts calculated by the feature amount calculating unit and the corresponding ball type information. Generate.
これによって、識別器生成装置は、複数の軌跡データから、所定の基準により正規化された、投球の軌道の形状、投球の相対的な位置及び球速の少なくともひとつの特徴を示す特徴量を算出して、この特徴量と、当該投球に予め対応付けられた球種の情報とに基づいて、機械学習により、特徴量から球種を識別するための識別器を生成することができる。 Thereby, the discriminator generation device calculates a feature amount indicating at least one feature of the shape of the pitch of the pitch, the relative position of the pitch, and the speed of the ball normalized by a predetermined reference from the plurality of track data. Thus, based on the feature amount and the information on the ball type previously associated with the pitch, a discriminator for identifying the ball type from the feature amount can be generated by machine learning.
更に、請求項5に記載の投球球種識別プログラムは、前記投球の映像を構成する時系列の画像内における前記投球の映像オブジェクトの位置の時系列の情報である軌跡データと、各々の前記投球に予め対応付けられた当該投球の球種の情報とに基づいて複数の投球につい機械学習されて識別器記憶装置に予め記憶された、前記軌跡データから前記球種を識別するための識別器を用いて、投球の映像から当該投球の球種を識別するためにコンピュータを、投球軌跡解析手段、球種識別手段として機能させることとした。
Furthermore, the pitching type identification program according to
かかる構成によれば、投球球種識別プログラムは、投球軌跡解析手段によって、球種の識別対象となる投球の映像を入力し、この映像を構成する時系列の画像内における投球の映像オブジェクトを抽出して、当該投球の軌跡データを生成し、球種識別手段によって、識別器記憶装置に記憶された識別器を用いて、投球軌跡解析手段で生成された軌跡データから識別対象の投球の球種を識別する。 According to this configuration, the pitching type identification program inputs a pitching video as a pitch type identification target by the pitching trajectory analysis means, and extracts a pitching video object in a time-series image constituting this video. Then, the trajectory data of the pitch to be identified is generated from the trajectory data generated by the pitch trajectory analyzing means using the discriminator stored in the discriminator storage device by the ball type discriminating means. Identify.
これによって、投球球種識別プログラムは、球種の識別対象となる投球の映像から軌跡データを生成して、当該投球の球種を識別することができる。 As a result, the pitching type identification program can generate trajectory data from the video of the pitch to be identified as the pitch type and identify the pitch type of the pitch.
また、請求項6に記載の識別器生成プログラムは、請求項1に記載の投球球種識別装置において用いられる、球種を識別するための識別器を生成するためにコンピュータを、投球軌跡解析手段、球種学習手段として機能させることとした。
According to a sixth aspect of the present invention, there is provided a discriminator generating program for generating a discriminator for discriminating a ball type used in the pitched ball type identifying device according to
かかる構成によれば、識別器生成プログラムは、特徴量算出手段によって、複数の投球の映像を入力して、各々の映像を構成する時系列の画像内における投球の映像オブジェクトを抽出して、当該画像内における投球の映像オブジェクトの位置の時系列の情報である軌跡データを生成し、球種学習手段によって、この投球軌跡解析手段で生成された軌跡データと、各々の投球に予め対応付けられた当該投球の球種の情報とに基づいて、軌跡データから球種を識別するための識別器を機械学習によって生成する。 According to such a configuration, the discriminator generation program inputs a plurality of pitch videos by the feature amount calculation means, extracts the pitch video objects in the time-series images constituting each video, and Trajectory data that is time-series information of the position of the video object of the pitch in the image is generated, and the trajectory data generated by the pitch trajectory analyzing means is associated with each pitch in advance by the ball type learning means. Based on the pitch type information of the pitch, a discriminator for identifying the pitch type from the trajectory data is generated by machine learning.
これによって、識別器生成プログラムは、球種の情報が予め対応付けられた複数の投球の軌跡データに基づいて、機械学習により、軌跡データから球種を識別するための識別器を生成することができる。 As a result, the discriminator generation program can generate a discriminator for identifying the ball type from the trajectory data by machine learning based on the trajectory data of a plurality of pitches in which the ball type information is associated in advance. it can.
本発明に係る投球球種識別装置、識別器生成装置、投球球種識別プログラム及び識別器生成プログラムでは、以下のような優れた効果を奏する。 The pitched ball type identifying device, the classifier generating device, the pitched ball type identifying program, and the classifier generating program according to the present invention have the following excellent effects.
請求項1又は請求項5に記載の発明によれば、球種の識別対象となる投球の映像から当該投球の球種を識別することができる。そのため、従来、球種に関する知識を有する専門家によって目視で判定されていた球種を、投球の映像から自動で判定することが可能になる。また、得られた球種の情報をメタデータとして映像に付与することで、映像検索のためのメタデータの生成を自動で行うこともできる。
According to the invention described in
請求項2に記載の発明によれば、球種の識別対象となる投球の映像から正規化された特徴量を算出して、当該投球の球種を識別することができる。そして、特徴量を正規化して求めることで、撮影時のカメラの動きや、球速の違いによるフレーム数の違い等の影響を排除した特徴量を算出することができ、より正確に球種を識別することができる。 According to the second aspect of the present invention, it is possible to calculate the normalized feature amount from the video of the pitch to be identified as the ball type and identify the ball type of the pitch. Then, by obtaining the normalized feature value, it is possible to calculate the feature value that eliminates the effects of camera movement during shooting and the difference in the number of frames due to the difference in ball speed. can do.
請求項3又は請求項6に記載の発明によれば、機械学習により、軌跡データから球種を識別するための識別器を自動で生成することができる。請求項4に記載の発明によれば、機械学習により、正規化された特徴量から球種を識別するための識別器を自動で生成することができる。そして、特徴量を正規化して求めることで、撮影時のカメラの動きや、球速の違いによるフレーム数の違い等の影響を排除した特徴量を算出することができ、より正確に球種を識別できる識別器を生成することができる。
According to invention of Claim 3 or
以下、本発明の実施の形態について図面を参照して説明する。なお、ここでは、本発明における識別器生成装置及び投球球種識別装置を備える球種判定システムについて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. Here, a ball type determination system including a discriminator generation device and a pitching ball type identification device according to the present invention will be described.
[球種判定システムの構成]
まず、図1を参照して、球種判定システムSの構成について説明する。図1は本発明の識別器生成装置及び投球球種識別装置を備える球種判定システムの構成を示したブロック図である。球種判定システムSは、複数の過去の投球の情報に基づいて、識別対象となる投球の球種を識別する識別器を生成し、当該球種を識別するものである。球種判定システムSは、映像蓄積装置1a、1bと、識別器生成装置Aと、投球球種識別装置Bとを備えて構成されている。更に、識別器生成装置Aは、投球軌跡解析装置2aと、軌跡データ蓄積装置3と、球種学習装置4とを備え、投球球種識別装置Bは、投球軌跡解析装置2bと、学習結果記憶装置5と、球種識別装置6とを備える。
[Configuration of ball type determination system]
First, the configuration of the ball type determination system S will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration of a ball type determination system including a discriminator generating device and a pitching ball type discriminating device of the present invention. The ball type determination system S generates a discriminator that identifies a ball type of a pitch to be identified based on a plurality of past pitch information, and identifies the ball type. The ball type determination system S includes
映像蓄積装置1a、1bは、投球を撮像した映像を蓄積するもので、ハードディスク等の一般的な記憶手段である。ここに蓄積された映像は、投球軌跡解析装置2a、2bによって読み出される。ここで、映像蓄積装置1aは、球種が既知である複数の投球の映像を記憶することとした。また、映像蓄積装置1bは、球種の識別対象となる投球の映像を記憶することとした。
The
投球軌跡解析装置2a、2bは、それぞれ映像蓄積装置1a、1bから入力された投球の映像内から投球の映像オブジェクトを抽出・追跡して、投球軌跡を示す軌跡データを生成するものである。この軌跡データは、映像のフレーム画像内の投球の映像オブジェクトの位置の時系列の情報であり、例えば、入力された映像のフレーム画像の横軸及び縦軸方向の2次元座標を時系列に並べたものである。ここで、投球軌跡解析装置(投球軌跡解析手段)2aによって生成された軌跡データは、軌跡データ蓄積装置3に出力される。なお、ここで解析される投球は、予め専門家等によって球種が判定されているものとする。また、投球軌跡解析装置(投球軌跡解析手段)2bによって生成された軌跡データは、球種識別装置6に出力される。この投球軌跡解析装置2aと、投球軌跡解析装置2bとは、映像の入力元と、軌跡データの出力先が異なるだけで、構成や機能は同一である。投球軌跡解析装置2a(2b)の詳細な構成については後記する。
The pitching
軌跡データ蓄積装置3は、投球軌跡解析装置2aから入力された軌跡データに、予め判定された当該軌跡の球種の情報である球種データを対応付けて蓄積するもので、ハードディスク等の一般的な記憶手段である。ここに蓄積された軌跡データと球種データとは、球種学習装置4によって読み出される。
The trajectory data storage device 3 stores the trajectory data input from the pitch
球種学習装置(球種学習手段)4は、軌跡データ蓄積装置3に記憶された軌跡データと、当該軌跡データに対応付けられた球種データとから、球種を識別する識別器を機械学習により生成するものである。ここでは、球種学習装置4は、軌跡データに基づいて投球の軌道の形状、投球の相対的な位置及び球速の少なくともひとつの特徴を示す特徴量を算出して、当該特徴量と球種データとから、特徴量に基づいて球種を識別する識別器を生成することとした。ここで生成された識別器である学習結果は、学習結果記憶装置5に記憶される。なお、球種学習装置4の詳細な構成については後記する。
The ball type learning device (ball type learning means) 4 performs machine learning on an identifier for identifying the ball type from the track data stored in the track data storage device 3 and the ball type data associated with the track data. Is generated. Here, the ball
ここで、従来、専門家が球種を判断する場合には、投球の映像を見ながら判断する場合が多い。投球の映像から球種を判断するための判断材料としては、球速の変化、軌道、ピッチャの投球フォームなどが挙げられる。但し、ピッチャが球種に応じて投球フォームを変えるとバッタに球種を推測される恐れがあるため、投球フォームを判断材料とすることが困難である。従って、投球の軌道や速度変化のみから球種を判定することが可能であることとし、球種学習装置4は、投球の映像から得られる軌跡データから、軌道や速度変化を解析して、球種を識別する識別器を生成することとした。
Here, conventionally, when an expert determines a ball type, it is often determined while watching a video of a pitch. Examples of the judgment material for judging the type of ball from the video of the pitch include a change in ball speed, a trajectory, and a pitcher pitch form. However, if the pitcher changes the pitch form according to the ball type, there is a fear that the ball type may be guessed by the grasshopper, so it is difficult to use the pitch form as a judgment material. Therefore, it is possible to determine the ball type only from the pitch or trajectory of the pitch, and the ball
学習結果記憶装置(識別器記憶手段、識別器記憶装置)5は、球種学習装置4の学習結果である識別器を記憶するもので、ハードディスク等の一般的な記憶手段である。この学習結果は、球種識別装置6によって参照されて用いられる。
A learning result storage device (discriminator storage means, discriminator storage device) 5 stores a discriminator as a learning result of the ball
球種識別装置(球種識別手段)6は、投球軌跡解析装置2bによって生成された軌跡データに基づいて、学習結果記憶装置5に記憶された学習結果である識別器を用いて当該投球の球種を識別するものである。ここでは、球種識別装置6は、軌跡データに基づいて投球の軌道の形状、投球の相対的な位置及び球速の少なくともひとつの特徴を示す特徴量を算出して、当該特徴量に基づいて、学習結果記憶装置5に記憶された識別器を用いて球種を識別することとした。ここで識別された識別結果は、外部に出力される。なお、球種識別装置6の詳細な構成については後記する。
The ball type identifying device (ball type identifying means) 6 uses the discriminator which is the learning result stored in the learning
(投球軌跡解析装置の構成)
続いて、図2を参照(適宜図1参照)して、投球軌跡解析装置2a(2b)の構成について説明する。図2は、本発明の識別器生成装置及び投球球種識別装置を備える球種判定システムの投球軌跡解析装置の構成を示したブロック図である。投球軌跡解析装置2a(2b)は、オブジェクト候補画像生成手段21と、ボール選定手段22と、抽出条件記憶手段23と、位置予測手段24と、探索領域設定手段25と、投球補間手段26とを備える。
(Configuration of pitching trajectory analysis device)
Next, the configuration of the pitching
オブジェクト候補画像生成手段21は、映像蓄積装置1a(1b)から入力された映像から、その映像を構成するフィールド画像ごとに探索領域を切り出し、追跡対象となる映像オブジェクト(投球の画像)の候補を抽出したオブジェクト候補画像を生成するものである。このオブジェクト候補画像生成手段21は、画像記憶部211、212と、差分画像生成部213、214と、候補画像生成部215とを備えて構成される。
The object candidate image generating means 21 cuts out a search area for each field image constituting the video from the video input from the
なお、映像は、例えば、1秒間に60枚のフィールド画像から構成されている。そこで、オブジェクト候補画像生成手段21は、このフィールド画像の中から映像オブジェクトの候補を抽出し、2値化することで、その映像オブジェクトの候補だけからなる画像(オブジェクト候補画像)を生成する。このオブジェクト候補画像は、追跡対象となる映像オブジェクトに類似する映像オブジェクトを複数抽出した画像である。例えば、オブジェクト候補画像は、動きを伴った映像オブジェクト等、追跡対象となる映像オブジェクトを大まかに抽出した画像である。 The video is composed of, for example, 60 field images per second. Therefore, the object candidate image generation means 21 extracts a video object candidate from the field image and binarizes it, thereby generating an image (object candidate image) consisting only of the video object candidate. This object candidate image is an image obtained by extracting a plurality of video objects similar to the video object to be tracked. For example, the object candidate image is an image obtained by roughly extracting a video object to be tracked, such as a video object with movement.
画像記憶部211、212は、各種の信号/画像処理をするためのメモリであり、例えば、映像信号を1フィールド単位でデジタルデータとして記録するものである。画像記憶部211は、連続する3枚の入力されたフィールド画像のうち中間の位置(現在)のフィールド画像(奇数フィールドおよび偶数フィールド)を記憶する。ここで記憶される現在のフィールド画像は、画像記憶部212、差分画像生成部213、214及びボール選定手段22に出力される。画像記憶部212は、連続する3枚のフィールド画像のうち最初の位置(過去)のフィールド画像(奇数フィールドおよび偶数フィールド)を記憶する。ここで記憶される過去のフィールド画像は、差分画像生成部214に出力される。
The
差分画像生成部213は、画像記憶部211からの遅延させたフィールド画像(現在のフィールド画像)の輝度から、新たに入力したフィールド画像(未来のフィールド画像)の輝度を差し引くことによって差分画像1を生成するものである。なお、ここでは、差分画像生成部213は、後記する探索領域設定手段25から入力される探索領域についての差分画像1を生成することとした。ここで生成された差分画像1は、候補画像生成部215に出力される。
The difference
差分画像生成部214は、画像記憶部212からの遅延させたフィールド画像(過去のフィールド画像)の輝度から、画像記憶部211からの現在のフィールド画像の輝度を差し引くことによって差分画像2を生成するものである。なお、ここでは、差分画像生成部214は、後記する探索領域設定手段25から入力される探索領域についての差分画像2を生成することとした。ここで生成された差分画像2は、候補画像生成部215に出力される
The difference
候補画像生成部215は、探索領域の全画素に対して差分画像1及び差分画像2を所定の輝度閾値と比較して、差分画像の画素値が予め定めた所定の条件を満たす場合に、画素値を“1(白)”、それ以外の場合に“0(黒)”と判別することで2値化画像を生成するものである。なお、この所定の条件については後記する。これによって、候補画像生成部215は、画素値が“1(白)”となる領域を映像オブジェクトの候補として抽出することができる。ここで生成された2値化画像は、映像オブジェクトの候補を抽出したオブジェクト候補画像として、ボール選定手段22に出力される。
The candidate
ボール選定手段22は、オブジェクト候補画像生成手段21で生成されたオブジェクト候補画像の中から、抽出条件記憶手段23に記憶されている抽出条件に基づいて、抽出(追跡)対象となる映像オブジェクトを選択し、その映像オブジェクトの位置及び映像オブジェクトを特徴付ける特徴量を抽出するものである。ここでは、ボール選定手段22は、ラベリング部221と、特徴量解析部222と、フィルタ処理部223と、オブジェクト選択部224とを備えて構成される。
The
ラベリング部221は、オブジェクト候補画像生成手段21で生成されたオブジェクト候補画像(2値化画像)の中で、映像オブジェクトの候補となる領域に対して番号(ラベル)を付すものである。すなわち、ラベリング部221は、映像オブジェクトの領域である“1(白)”の画素値を持つ連結した領域(連結領域)に対して1つの番号を付す。これによって、オブジェクト候補画像内の映像オブジェクトの候補が番号付けされる。ここでラベリングされたオブジェクト候補画像は、特徴量解析部222に出力される。
The
特徴量解析部222は、ラベリング部221で番号付けされた映像オブジェクトの候補ごとに、映像オブジェクトの候補の位置座標や、映像オブジェクトの面積、輝度、色及び円形度などの特徴量(パラメータ)の値を算出するものである。ここで算出された位置座標及び特徴量は、フィルタ処理部223に出力される。
For each video object candidate numbered by the
位置は、例えば、映像オブジェクトの重心位置を示す。面積は、例えば、映像オブジェクトの画素数を示す。また、輝度は、映像オブジェクトにおける各画素の輝度の平均値を示す。また、色は、映像オブジェクトにおける各画素のRGB値の平均値を示す。また、円形度は、映像オブジェクトの円形の度合いを示すものであって、円形に近いほど大きな値を有する。例えば、映像オブジェクトがボールのような円形の形状を有する場合には、円形度は1に近い値になる。この円形度eは、映像オブジェクトの面積をS、周囲長をLとしたとき、以下の(1)式で表される。
e=4πS/L2 …(1)
The position indicates, for example, the position of the center of gravity of the video object. The area indicates the number of pixels of the video object, for example. Further, the luminance indicates an average value of the luminance of each pixel in the video object. The color indicates an average value of RGB values of each pixel in the video object. The circularity indicates the degree of circularity of the video object, and has a larger value as it is closer to a circular shape. For example, when the video object has a circular shape such as a ball, the circularity is a value close to 1. The circularity e is expressed by the following equation (1), where S is the area of the video object and L is the perimeter.
e = 4πS / L 2 (1)
フィルタ処理部223は、特徴量解析部222が算出したパラメータの値を用いて、抽出条件記憶手段23に記憶されている抽出条件情報に合致する映像オブジェクトかどうかを判定することで、抽出(追跡)対象となる映像オブジェクトを絞り込むものである。すなわち、このフィルタ処理部223は、映像オブジェクトの候補ごとに、抽出条件記憶手段23に記憶されている抽出条件(例えば、面積、輝度、色及び円形度)や、後記する位置予測手段24による予測位置に基づいて、特徴量解析部222で解析された特徴量をフィルタ(位置フィルタ、面積フィルタ、輝度フィルタ、色フィルタ及び円形度フィルタ)にかけることで、抽出条件を満たす映像オブジェクトを、抽出すべき映像オブジェクトの候補として選択する。
The
なお、画像記憶部211に記憶された現在のフィールド画像(奇数フィールドおよび偶数フィールド)は前記のようにボール選定手段22に出力されており、フィルタ処理部223は、入力されたフィールド画像を1フレーム(2フィールド)分遅らせた画像を参照画像としてフィルタ処理を行う。
The current field image (odd field and even field) stored in the
オブジェクト選択部224は、すべてのフィルタを通過した映像オブジェクトの中で、直前のフレーム画像から抽出された映像オブジェクトの位置座標に最も近い映像オブジェクトの候補をボールとして選択するものである。ここで抽出した映像オブジェクトの位置は、現在の映像オブジェクトの位置情報として、抽出条件記憶手段23に記憶されるとともに、投球補間手段26に出力される。ここで映像オブジェクトの位置には、映像オブジェクトの重心座標、多角形近似の頂点座標、スプライン曲線の制御点座標等を用いることができる。なお、オブジェクト選択部224は、抽出条件に適合した映像オブジェクトを選択できなかった場合は、その旨(抽出失敗)を投球補間手段26に通知する。
The
抽出条件記憶手段23は、抽出(追跡)対象となる映像オブジェクトを選択するための条件を記憶するもので、一般的なハードディスク等の記憶手段である。この抽出条件記憶手段23は、種々の抽出条件を示す抽出条件情報と、映像オブジェクトの位置を示す位置情報とを記憶している。
The extraction
抽出条件情報は、抽出すべき映像オブジェクトの抽出条件を記述した情報であって、例えば、面積、輝度、色及び円形度の少なくとも1つ以上の抽出条件を記述したものである。この抽出条件情報は、ボール選定手段22のフィルタ処理部223が、オブジェクト候補画像生成手段21で生成されたオブジェクト候補画像から抽出すべき映像オブジェクトを選択するためのフィルタ(面積フィルタ、輝度フィルタ、色フィルタ及び円形度フィルタ)の条件となるものである。
The extraction condition information is information describing the extraction condition of the video object to be extracted, and describes, for example, at least one extraction condition of area, luminance, color, and circularity. This extraction condition information includes a filter (area filter, luminance filter, color filter) for the
なお、抽出条件情報には、面積フィルタ、輝度フィルタ、色フィルタ及び円形度フィルタの条件として、予め定めた初期値と、その許容範囲を示す閾値とを記憶しておく。これによって、ボール選定手段22の各フィルタは、閾値外の値(特徴)を持つ映像オブジェクトを抽出すべき映像オブジェクトの候補から外すことができる。 The extraction condition information stores a predetermined initial value and a threshold value indicating an allowable range as conditions for the area filter, the luminance filter, the color filter, and the circularity filter. Thereby, each filter of the ball selecting means 22 can exclude a video object having a value (feature) outside the threshold from candidates of video objects to be extracted.
抽出条件記憶手段23に記憶される位置情報は、追跡している映像オブジェクトの位置を示す情報である。この位置情報は、例えば、映像オブジェクトの重心座標とする。この重心座標は、ボール選定手段22の特徴量解析部222によって算出される。なお、この位置情報は、後記する投球補間手段26が抽出に失敗した投球の位置を補間する際に参照されるとともに、フィルタ処理部223によるフィルタ処理において抽出条件情報に合致する映像オブジェクトが複数存在する場合に、オブジェクト選択部224によって、位置情報で示した座標に最も近い映像オブジェクトを、抽出すべき映像オブジェクトとして決定するための抽出条件としても利用される。
The position information stored in the extraction condition storage means 23 is information indicating the position of the video object being tracked. This position information is, for example, the barycentric coordinates of the video object. The barycentric coordinates are calculated by the feature
位置予測手段24は、ボール選定手段22で選定された映像オブジェクトの位置(重心座標等)に基づいて、次に入力されるフィールド画像における映像オブジェクトの位置を予測し、予測された位置情報を探索領域設定手段25に出力するものである。位置予測手段24は、線形予測部241と、曲線予測部242と、切替部243とを備えて構成される。
The
線形予測部241は、所定数の連続したフィールド画像から抽出された映像オブジェクトの軌跡が直線になると仮定し、ボール選定手段22のオブジェクト選択部224によって求められた位置情報に基づいて、動きベクトルを利用して、次に入力されるフィールド画像内の映像オブジェクトの位置を予測するものである。ここで予測された位置情報は、後記する切替部243の切り替えに応じて、探索領域設定手段25に出力される。
The
この線形予測部241は、例えば、重心座標にカルマンフィルタ(Kalman filter)を適用することで、次フィールド画像(次フレーム)における映像オブジェクトの位置を予測する。カルマンフィルタは、時系列に観測される観測量に基づいて現在の状態を推定する「濾波」と、未来の状態を推定する「予測」とを行う漸化式を適用することで、時々刻々と変化する状態を推定するものである。
For example, the
曲線予測部242は、所定数の連続したフィールド画像から抽出された映像オブジェクトの軌跡が最小自乗法で求めた2次曲線になると仮定し、ボール選定手段22のオブジェクト選択部224によって求められた位置情報に基づいて、次に入力されるフィールド画像内の映像オブジェクトの位置を予測するものである。ここで予測された位置情報は、後記する切替部243の切り替えに応じて、探索領域設定手段25に出力される。
The
この曲線予測部242は、ボール選定手段22のオブジェクト選択部224から映像オブジェクトの位置情報が入力される度に、曲線予測に利用する2次曲線(y=ax2+bx+c)を更新するとともに、2次曲線の係数a、bを監視しており、係数a、bの符号が変化したか否か、及び、係数a、bの値が所定値を超えたか否かを判別し、判別結果を切替部243に出力する。
The
切替部243は、過去に抽出された映像オブジェクトの位置座標の数、又は、2次曲線の方程式に基づいて、線形予測部241による線形予測の位置情報と、曲線予測部242による曲線予測の位置情報との、探索領域設定手段25への出力を切り替えるものである。ここで、切替部243は、例えば、映像オブジェクトの過去に抽出された位置座標が所定数以上である場合には曲線予測を選択し、この所定数より少ない場合には線形予測を選択する。この所定数は例えば3個であり、曲線予測部242において特に正確な曲線を求めて予測する場合には5個以上が好適である。また、曲線予測部242が曲線予測を実行しているときに、2次曲線の方程式(y=ax2+bx+c)の係数a、bの符号が変化した場合や、係数a、bの値が所定値を超えた場合には、切替部243は曲線予測から線形予測に切り替える。
Based on the number of position coordinates of the video object extracted in the past or the quadratic curve equation, the
探索領域設定手段25は、位置予測手段24によって予測された次フィールド(次フレーム)での映像オブジェクトの位置情報を利用して、フィールド画像中に所定範囲の映像オブジェクトの探索領域を設定するものである。この探索領域設定手段25は、設定された探索領域の位置及び大きさを、探索領域情報としてオブジェクト候補画像生成手段21へ出力する。ここでは、探索領域の範囲の大きさと、映像オブジェクトが抽出される前の探索領域の位置の情報とが、探索領域の初期値として、図示していないマウス、キーボード等の入力手段(図示せず)によって、探索領域設定手段25に入力されることとした。探索領域設定手段25は、位置予測手段24から予測された位置情報が入力されない場合には、初期値によって示される探索領域をオブジェクト候補画像生成手段21に通知し、位置予測手段24から位置情報が入力された場合には、この位置情報と、初期値によって示される探索領域の範囲の大きさの情報とに基づいて新たな探索領域を設定して、オブジェクト候補画像生成手段21に通知する。
The search area setting means 25 uses the position information of the video object in the next field (next frame) predicted by the position prediction means 24 to set a search area for a video object within a predetermined range in the field image. is there. The search area setting means 25 outputs the set position and size of the search area to the object candidate image generation means 21 as search area information. Here, the size of the range of the search area and the position information of the search area before the video object is extracted are used as input values (not shown) such as a mouse and a keyboard not shown as the initial value of the search area. ) To the search area setting means 25. When the position information predicted from the
投球補間手段26は、オブジェクト選択部224からの抽出失敗の通知に応じて、抽出条件記憶手段23に記憶された過去のフィールド画像の映像オブジェクトの位置情報に基づいて、抽出に失敗したフィールド画像の映像オブジェクトの位置情報を内挿補間によって求めるものである。オブジェクト選択部224からの映像オブジェクトの位置情報と、ここで求められた映像オブジェクトの位置情報とは、映像オブジェクトとして抽出された投球の軌跡を示す情報(軌跡データ)として、軌跡データ蓄積装置3(又は、球種識別装置6)に出力される。
In response to the notification of the extraction failure from the
なお、例えば、左バッタに対する投球の映像において、バッタの領域をボールが通過した際のフィールド画像においては、抽出されない可能性があるが、この投球補間手段26によって、投球の位置情報の欠損のない軌跡データを生成することができる。 Note that, for example, in the pitch video for the left grasshopper, the field image when the ball passes through the grasshopper area may not be extracted. Trajectory data can be generated.
以上によって、投球軌跡解析装置2a(2b)は、入力されるフィールド画像から投球の映像オブジェクトを抽出してその位置座標を軌跡データとして出力することができる。この投球軌跡解析装置2a(2b)は、入力されるフィールド画像から投球の位置をリアルタイムで抽出することが可能である。更に、投球軌跡解析装置2a(2b)は、ピッチャの手から離れたボールが、キャッチャのミットまで(あるいはバッタのバットに当たるまで)の投球の位置(画像座標)を取得することができる。
As described above, the pitching
なお、軌跡データは、ひとつの投球の映像オブジェクトの時系列の位置座標のデータであり、例えば、フィールド画像内の投球の映像オブジェクトの位置情報を、横軸及び縦軸方向の2次元座標とし、この2次元座標を時系列に並べたものとしてもよい。 Note that the trajectory data is time-series position coordinate data of one pitch video object. For example, the position information of the pitch video object in the field image is two-dimensional coordinates in the horizontal and vertical axes, These two-dimensional coordinates may be arranged in time series.
(球種学習装置の構成)
続いて、図1を参照して、球種学習装置4の構成について説明する。球種学習装置4は、特徴量算出手段41と、学習手段42とを備える。
(Configuration of ball type learning device)
Next, the configuration of the ball
特徴量算出手段41は、軌跡データ蓄積装置3から入力された軌跡データに基づいて、軌跡データごとの当該投球の軌跡の特徴を示す特徴量を所定の基準に基づいて正規化して算出するものである。ここで算出された特徴量は、学習手段42に出力される。 The feature amount calculating means 41 calculates the feature amount indicating the feature of the trajectory of the pitch for each trajectory data based on the trajectory data input from the trajectory data storage device 3 based on a predetermined standard. is there. The feature amount calculated here is output to the learning means 42.
ここで、軌跡データには、球速の変化や軌道の曲がり具合などの情報が盛り込まれているため、そのまま特徴量として用いることとしてもよいが、野球の投球映像は、カメラが固定された撮影ではないことが多く、一球ごとに画角が変化する。また、球速によってボールの抽出数が変化し、データ数が異なる。そこで、特徴量算出手段41は、投球の速度、軌道の形状や、投球の相対的な位置等の特徴を示す特徴量を正規化して求めることとした。これによって、特徴量算出手段41は、例えば、従来のように2台のカメラで撮影して投球の3次元位置を求めなくても、1台のカメラで撮影された映像の軌跡データから、カメラの動きや球速の影響を排除した特徴量を算出することができる。 Here, since the trajectory data includes information such as changes in ball speed and the degree of trajectory bending, it may be used as a feature value as it is, but baseball pitch video is used for shooting with a fixed camera. In many cases, the angle of view changes for each ball. In addition, the number of extracted balls varies depending on the ball speed, and the number of data differs. Therefore, the feature quantity calculation means 41 normalizes and obtains feature quantities indicating features such as pitching speed, trajectory shape, and relative position of the pitching. In this way, the feature amount calculation means 41, for example, from the trajectory data of the video imaged by one camera without taking the three-dimensional position of the pitch by photographing with two cameras as in the prior art, It is possible to calculate the feature amount excluding the influence of the movement and the ball speed.
以下、特徴量算出手段41によって算出される特徴量の例と、その算出方法とについて説明する。ここでは、特徴量算出手段41は、特徴量として、投げ出しから捕球までのフレーム(フィールド)数(以下、抽出数と言う)、投球の軌跡の全区間及び所定区間について直線近似した際の近似直線の傾き(以下、一次微係数と言う)、投球の軌跡の全区間及び所定区間について曲線(2次曲線)近似した際の近似曲線の曲率(以下、二次微係数と言う)、ホームベースの位置を原点とした捕球位置のフィールド画像内の2次元座標(以下、捕球位置と言う)、及び、軌跡データにおいて隣り合う2次元座標の横軸方向の変化量及び縦軸方向の変化量(以下、動きベクトルと言う)を算出することとした。なお、これらの特徴量は一例であり、特徴量算出手段41は、投球の軌跡の特徴を示す他の特徴量を算出することとしてもよい。
Hereinafter, an example of a feature amount calculated by the feature
<抽出数>
ここで、以下の式(2)に示すような軌跡データ(x,y)が特徴量算出手段41に入力されたとする。そうすると、特徴量算出手段41は、データ数nを抽出数とする。
(x,y)=(x1,y1),(x2,y2),…(xn,yn) …(2)
<Number of extractions>
Here, it is assumed that trajectory data (x, y) as shown in the following equation (2) is input to the feature amount calculation means 41. Then, the feature
(X, y) = (x 1 , y 1 ), (x 2 , y 2 ),... (X n , y n ) (2)
一般的に野球では、投げ出しから捕球までの時間は約0.5秒である。ボールの画像座標の計測レートをフレーム間隔(1/30秒)とした場合、約15点の座標を取得することができる。なお、投球軌跡解析装置2aの計測レートは最高でフィールドレート(1/60秒)である。この抽出数が少なければ早くボールが捕球されたことになり、抽出数が多ければ捕球まで時間がかかったことになる。すなわち、抽出数は、ボールの速度を示す。
In general, in baseball, the time from throwing to catching is about 0.5 seconds. When the measurement rate of the image coordinates of the ball is a frame interval (1/30 second), approximately 15 coordinates can be acquired. In addition, the measurement rate of the pitch
<一次微係数>
特徴量算出手段41は、軌跡に対して近似直線を生成して、この近似直線の傾きを一次微係数とする。例えば、図3に示すように、特徴量算出手段41は、軌跡データによって示される複数のボールM、M、…の軌跡に対して近似直線L1を生成する。図3は、投球の軌跡と、特徴量算出手段によって生成される近似直線及び近似曲線とを模式的に示した模式図である。
<First derivative>
The feature
そして、この近似直線L1を以下の式(3)のように置くと、一次微係数a1は、以下の式(4)によって算出することができる。この近似直線の傾きを示す一次微係数a1は、ボールの高低を示す。なお、ここでは、特徴量算出手段41は、投球の全区間と、この全区間を3つに分割した最初、中間、最後の3区間とについて、それぞれ一次微係数を算出することとした。
y=a1x+b1 …(3)
When placing the approximation line L 1 as shown in the following expression (3), the first derivative a 1 can be calculated by the following equation (4). A first derivative a 1 indicating the inclination of the approximate straight line indicates the height of the ball. Here, the feature amount calculation means 41 calculates the primary differential coefficient for each of the pitching sections and the first, middle, and last three sections obtained by dividing all the sections into three.
y = a 1 x + b 1 (3)
<二次微係数>
特徴量算出手段41は、軌跡に対して近似曲線を生成して、この近似曲線の曲率を二次微係数とする。例えば、図3に示すように、特徴量算出手段41は、軌跡データによって示される複数のボールM、M、…の軌跡に対して近似曲線L2を生成する。そして、この近似曲線L2を以下の式(5)のように置くと、近似曲線L2とボールの座標の残差平方和Sは、以下の式(6)によって算出することができる。
y=a2x2+b2x+c2 …(5)
<Secondary derivative>
The feature quantity calculation means 41 generates an approximate curve with respect to the trajectory, and uses the curvature of the approximate curve as a second derivative. For example, as shown in FIG. 3, the feature
y = a 2 x 2 + b 2 x + c 2 (5)
そして、特徴量算出手段41は、係数a2,b2,c2について偏微分して、値を0として連立方程式を解くことで、係数a2,b2,c2が求められる。この近似曲線L2の曲率を示す二次微係数a2は、軌跡の曲がり具合を示す。なお、ここでは、特徴量算出手段41は、投球の全区間と、この全区間を3つに分割した最初、中間、最後の3区間とについて、それぞれ二次微係数を算出することとした。
Then, the feature
<捕球位置>
捕球位置は、最後に抽出されたボールの画像座標からも推測できるが、カメラを固定して撮影していない場合には、ボールの画像座標だけで捕球位置を判断することが難しい。そのため、特徴量算出手段41は、最後にボールの抽出された画像内からホームベースを検出し、その重心座標とボールの画像座標との相対位置を捕球位置とすることとした。例えば、図4に示すように、ホームベースHの画像座標が(xh,yh)、最後に抽出されたボールMの画像座標が(xb,yb)である場合、特徴量算出手段41は、ホームベースHからボールMへ向かうベクトルBh(xh−xb,yh−yb)を捕球位置とする。図4は、最後にボールの抽出された画像と、特徴量算出手段よって生成される捕球位置とを模式的に示した模式図である。
<Catching position>
The catching position can be estimated from the image coordinates of the ball extracted last, but it is difficult to determine the catching position only from the image coordinates of the ball when the camera is not fixed and photographed. For this reason, the feature amount calculating means 41 finally detects the home base from the extracted image of the ball, and determines the relative position between the barycentric coordinates and the image coordinates of the ball as the catching position. For example, as shown in FIG. 4, when the image coordinates of the home base H are (x h , y h ) and the image coordinates of the last extracted ball M are (x b , y b ), the feature amount calculating means 41 designates a vector B h (x h −x b , y h −y b ) from the home base H to the ball M as a catching position. FIG. 4 is a schematic diagram schematically showing the image of the ball extracted last and the catching position generated by the feature amount calculating means.
これによって、特徴量算出手段41は、カメラ操作の影響を排除して捕球位置を取得することができる。そして、フォークなどの落ちる変化球は捕球位置が低くなるため、この捕球位置は、落ちる変化球か否かを示す特徴量となる。なお、ホームベースH付近はオクルージョンが少ないため、特徴量算出手段41は、当該軌跡データに対応する映像の画像から画像処理によってホームベースHの領域を検出することで、その重心位置を取得することができる。 Thereby, the feature amount calculation means 41 can acquire the catching position while eliminating the influence of the camera operation. Since the falling ball such as a fork has a low catching position, this catching position is a feature amount indicating whether or not the falling ball is a falling ball. Since the occlusion is small in the vicinity of the home base H, the feature amount calculating means 41 acquires the center of gravity position by detecting the region of the home base H by image processing from the video image corresponding to the trajectory data. Can do.
<動きベクトル>
特徴量算出手段41は、軌跡データにおいて隣り合うボールの画像座標の横軸方向の変化量及び縦軸方向の変化量を求める。例えば、図5に示すように、軌跡データによって示される、隣り合うボールMA、MBの画像座標がそれぞれ(xA,yA)、(xB,yB)である場合に、特徴量算出手段41は、ボールMA、MB間の動きベクトルBM(xB−xA,yB−yA)を算出する。図5は、投球の軌跡と、特徴量算出手段によって算出される動きベクトルとを模式的に示した模式図である。
<Motion vector>
The feature amount calculation means 41 obtains the amount of change in the horizontal axis direction and the amount of change in the vertical axis direction of the image coordinates of adjacent balls in the trajectory data. For example, as shown in FIG. 5, indicated by the trajectory data, ball M A adjacent, image coordinates of M B, respectively (x A, y A), if a (x B, y B), the feature amount calculating means 41 calculates the ball M a, the motion vector B M (x B -x a, y B -y a) between M B a. FIG. 5 is a schematic diagram schematically showing a pitching trajectory and a motion vector calculated by the feature amount calculating means.
ここで、たとえピッチャが全く同じ位置から投球しても、撮影するカメラが固定されていないため、一球ごとの軌跡の画像上の位置が変動するところ、特徴量算出手段41は、隣り合うボールの動きベクトルを特徴量として算出することで、カメラのパンやチルトの影響が排除された特徴量となる。なお、投球ごとに軌跡データの抽出数が異なるため、算出できる動きベクトルの数も投球ごとに変化する。そのため、特徴量算出手段41は、例えば、投げ出しからa個、中間にb個、捕球直前にc個の所定数の動きベクトルを求め、全部で(a+b+c)個の動きベクトルを算出することとしてもよい。 Here, even if the pitcher throws from the exact same position, since the camera for shooting is not fixed, the position on the image of the trajectory for each ball fluctuates. Is calculated as a feature amount, and the feature amount is free from the influence of panning and tilting of the camera. Since the number of extracted trajectory data differs for each pitch, the number of motion vectors that can be calculated also changes for each pitch. Therefore, for example, the feature amount calculation means 41 calculates a predetermined number of motion vectors of a, b in the middle, and c immediately before catching from throwing, and calculates (a + b + c) motion vectors in total. Also good.
なお、特徴量算出手段41は、動きベクトルの代わりに、軌跡の近似直線に対するボールの画像座標からの距離を算出することとしてもよい。例えば、図6に示すように、特徴量算出手段41は、軌跡に対する近似直線L1から、ボールMの重心までの距離Dを算出することとしてもよい。更に、投球ごとの距離の数を揃えるため、動きベクトルの場合と同様に、投げ出し、中間及び捕球直前に、それぞれ所定数の距離を算出することとしてもよい。図6は、投球の軌跡と、特徴量算出手段によって算出される距離とを模式的に示した模式図である。 Note that the feature amount calculating means 41 may calculate the distance from the image coordinates of the ball with respect to the approximate straight line of the trajectory instead of the motion vector. For example, as shown in FIG. 6, the feature amount calculation means 41, from the approximate straight line L 1 with respect to the trajectory, it is also possible to calculate the distance D to the center of gravity of the ball M. Furthermore, in order to align the number of distances for each pitch, a predetermined number of distances may be calculated immediately before throwing out, in the middle, and immediately before catching, as in the case of the motion vector. FIG. 6 is a schematic diagram schematically showing a pitching trajectory and a distance calculated by the feature amount calculating means.
学習手段42は、特徴量算出手段41によって算出された特徴量と、軌跡データ蓄積装置3に記憶された当該軌跡の球種データとから、特徴量に基づいて球種を識別する識別器を学習するものである。ここで機械学習によって生成された識別器は、学習結果として学習結果記憶装置5に出力される。
The
ここでは、学習手段42は、教師付き学習のランダムフォレスト(Leo Breiman, Random Forests, Machine Learning, 45, 5-32, 2001)によって学習することとした。以下、図7を参照(適宜図1参照)して、学習手段42が、教師付き学習としてランダムフォレストによって学習する方法について説明する。図7は、学習手段がランダムフォレストによって学習する方法を説明するための説明図、(a)は、ランダムフォレストの処理の概要を模式的に示す模式図、(b)は、決定木を模式的に示す模式図である。
Here, it is assumed that the learning means 42 learns by a supervised random forest (Leo Breiman, Random Forests, Machine Learning, 45, 5-32, 2001). Hereinafter, with reference to FIG. 7 (refer to FIG. 1 as appropriate), a method in which the
図7(a)に示すように、学習手段42は、軌跡データ蓄積装置3に蓄積された様々な軌跡データt、t、…から重複を許して無作為に所定数(図7(a)では4個)の軌跡データt、t、…(ブートストラップサンプル)を抽出したn個のノードT、T、…を生成して、特徴量算出手段41によって算出された各ノードTに含まれる軌跡データt、t、…の特徴量に基づいてn個の決定木を生成する。なお、学習手段42が、軌跡データ蓄積装置3の軌跡データt、t、…から重複を許して無作為に軌跡データt、t、…を抽出してノードT、T、…を生成することで、各々のノードTに含まれる軌跡データt、t、…の偏りを防ぐことができる。
As shown in FIG. 7 (a), the learning means 42 allows a predetermined number of random data (in FIG. 7 (a)) by allowing duplication from various trajectory data t, t,... Stored in the trajectory data storage device 3. (4 pieces) of trajectory data t, t,... (Bootstrap sample) are extracted to generate n nodes T, T,..., And trajectory data included in each node T calculated by the feature amount calculation means 41. n decision trees are generated based on the feature quantities t, t,. The
このとき、学習手段42は、各々のノードT(もしくは部分集合T1、T2、…)の軌跡データt、t、…を、Giniインデックスを用いて2つに分岐することとした。ここで、学習手段42が、Giniインデックスを用いて軌跡データt、t、…を2つに分岐する方法を、ノードTの軌跡データt、t、…を2つの部分集合T1、T2に分岐する場合を例に説明する。
At this time, the learning means 42 branches the trajectory data t, t,... Of each node T (or subset T 1 , T 2 ,...) Into two using the Gini index. Here, learning means 42, locus data t by using the Gini index, t, ... to the method branches to two, the trajectory data t of the node T, t, ... into two
まず、学習手段42は、分岐に使用する特徴量の候補となる所定数の特徴量を、特徴量算出手段41によって算出された特徴量の中からランダムに選定する。学習手段42は、例えば、特徴量算出手段41によって算出された特徴量V1〜V37が37種類あった場合に、ランダムに4つの特徴量V10、V21、V2、V24を選定したとする。そうすると、学習手段42は、軌跡データt、t、…を2つの部分集合T1、T2に分岐するための特徴量(V10、V21、V2又はV24)と、当該特徴量(V10、V21、V2又はV24)の閾値xを、Giniインデックスに基づいて求める。
First, the learning means 42 randomly selects a predetermined number of feature quantities that are candidates for feature quantities to be used for branching from the feature quantities calculated by the feature quantity calculation means 41. For example, when there are 37 types of feature amounts V 1 to V 37 calculated by the feature
ここで、分岐前のあるノードTのGiniインデックスgini(T)は、以下の式(7)によって求められる。なお、nはクラス(球種)の数、pjは、クラスj(球種j)の軌跡データtのノードTにおける相対頻度を示す。 Here, the Gini index gini (T) of a certain node T before branching is obtained by the following equation (7). Note that n is the number of classes (sphere types), and p j is the relative frequency at the node T of the trajectory data t of the class j (sphere type j).
そして、ノードTに含まれるM個の軌跡データt、t、…が、M1個の軌跡データt、t、…の部分集合T1と、M2個の軌跡データt、t、…の部分集合T2とに分岐された後のノードTのGiniインデックスginisplit(T)は、以下の式(8)によって示される。 The M pieces of trajectory data t, t,... Included in the node T are a subset T 1 of M 1 pieces of trajectory data t, t,..., And M 2 pieces of trajectory data t, t,. Gini index gini split node T after being branched into a set T 2 (T) is represented by the following equation (8).
このGiniインデックスginisplit(T)は、各クラスの相対頻度の分布に偏りがあるほど、つまり、部分集合T1、T2のそれぞれに特定の球種の軌跡データt、t、…が偏って存在するほど小さい値となる。そのため、学習手段42は、それぞれの特徴量V10、V21、V2、V24について、その各々の特徴量(V10、V21、V2又はV24)の最大値から最小値までの範囲で閾値xを変化させてGiniインデックスginisplit(T)を算出して、最小のGiniインデックスginisplit(T)を与えるひとつの特徴量(V10、V21、V2又はV24)の閾値xを決定する。学習手段42は、このようにして部分集合T1、T2の各々についても同様に、分岐して生成されたすべての部分集合がそれぞれ1種類の球種の軌跡データt、t、…の集合になるまで分岐を繰り返して決定木を生成する。
The Gini index gini split (T) is such that the distribution of the relative frequency of each class is biased, that is, the trajectory data t, t,... Of a specific sphere type is biased in each of the subsets T 1 and T 2. The smaller the value, the smaller the value. For this reason, the
このように、ランダムフォレストでは、分岐するごとに使用する特徴量の種類をランダムに選定するため、互いに類似せず、かつ、分岐の多いn個の決定木が生成される。そして、学習手段42は、n個の決定木を学習結果とし、学習結果記憶装置5に記憶する。
In this way, in the random forest, the type of feature quantity to be used is selected at random every time it branches, so that n decision trees that are not similar to each other and have many branches are generated. The
なお、ここでは、学習手段42が、ランダムフォレストによって学習する方法について説明したが、バギング(Bagging ; Bootstrap aggregating)、サポートベクタマシン、アダブースト等の他の教師付き学習によって学習することとしてもよい。 Here, although the learning means 42 has explained the method of learning by a random forest, it may be learned by other supervised learning such as bagging (Bagging; Bootstrap aggregating), support vector machine, or Adaboost.
サポートベクタマシンは、カーネル関数を利用し、高次元の空間でデータを線形分離するアルゴリズムである。学習手段42が、例えば、サポートベクタマシンによって学習する場合は、2種類のクラス間のマージンを最大にし、マージンの中間を通る境界(超平面)を求めてデータを分離する。
A support vector machine is an algorithm that linearly separates data in a high-dimensional space using a kernel function. For example, when the
また、学習手段42が、例えば、バギングによって学習する場合は、以下のように行うことができる。すなわち、学習手段42は、ブーストラップ法によって、軌跡データ蓄積装置3に蓄積された様々な軌跡データから重複を許して無作為に所定数の軌跡データからなるn個のデータセットを復元抽出し、それぞれのデータセットを訓練用サンプルとして、特徴量算出手段41によって算出された各データセットに含まれる軌跡データの特徴量に基づいてn個の識別器を生成する。学習手段42は、この識別器を学習結果記憶装置5に記憶する。そして、後記する球種識別装置6の識別手段62によって、学習結果記憶装置5に記憶された各識別器を用いて識別し、各識別器の識別結果の平均又は多数決によって最終的な識別結果とすることとしてもよい。
Further, when the learning means 42 learns by bagging, for example, it can be performed as follows. That is, the learning means 42 restores and extracts n data sets consisting of a predetermined number of trajectory data at random from the various trajectory data stored in the trajectory data storage device 3 by the booth trap method, Using each data set as a training sample, n discriminators are generated based on the feature amount of the trajectory data included in each data set calculated by the feature
更に、学習手段42は、教師なし学習によって学習することとしてもよい。以下、図8を参照(適宜図1参照)して、学習手段42が、教師なし学習の一例として、主成分分析を用いて学習する場合について説明する。なお、学習手段42は、主成分分析に限定されず、例えば、K−means法のような他の教師なし学習によっても学習することが可能である。図8は、学習手段の特徴量の主成分分析により得られた主成分特点の分布を示す散布図である。なお、図8では、学習手段42が第1主成分と第2主成分とについての2つの主成分得点を求めた場合の例を示した。
Furthermore, the learning means 42 may learn by unsupervised learning. Hereinafter, a case where the
ここで、特徴量算出手段41によって得られた特徴量は高次であり、識別での処理の負荷が大きい。そこで、学習手段42は、特徴量算出手段41から入力された特徴量について主成分分析を行い、次元を圧縮することとした。このとき、学習手段42は、各主成分の固有値と固有ベクトルとを求めて、固有値の高い所定数の主成分を選択する。そして、学習手段42は、特徴量と、選択された各々の主成分の固有ベクトルとの内積を算出して主成分得点を求める。
Here, the feature quantity obtained by the feature quantity calculation means 41 is high-order, and the processing load for identification is large. Therefore, the
この主成分得点は、図8に示すように、球種ごとに分布がまとまる傾向がある。例えば、図8では、ストレートの球種の軌跡の特徴量から求めた主成分得点を丸印、カーブの主成分得点を四角印、フォークの主成分得点を三角印で示した。そうすると、図8の散布図において、領域R1には、ストレートの主成分得点が分布し、領域R2には、カーブの主成分得点が分布し、領域R3には、フォークの主成分得点が分布する。 As shown in FIG. 8, the main component scores tend to be distributed for each sphere type. For example, in FIG. 8, the principal component score obtained from the feature quantity of the trajectory of the straight sphere type is indicated by a circle, the principal component score of a curve is indicated by a square mark, and the principal component score of a fork is indicated by a triangle mark. Then, in the scatter diagram of FIG. 8, straight principal component scores are distributed in region R1, curved principal component scores are distributed in region R2, and fork principal component scores are distributed in region R3. .
学習手段42は、この主成分得点の分布を学習結果記憶装置5に記憶する。そして、後記する球種識別装置6の識別手段62によって、特徴量算出手段61から入力された特徴量についても主成分得点を算出して、当該主成分得点の座標が学習結果記憶装置5に記憶された分布のどの球種に最も近いかを判定することで、球種を識別することができる。例えば、識別手段62によって、図8に示す主成分得点rが算出された場合には、当該主成分得点rはカーブに最も近いため、識別手段62は、当該軌跡をカーブと判定する。
The learning means 42 stores this principal component score distribution in the learning
更に、学習手段42は、それぞれの軌跡データに対応付けて、当該投球におけるバッタの種類(右バッタ用あるいは左バッタ用の投球)、ピッチャの種類(右投げあるいは左投げのピッチャの投球)、投げ方の種類(アンダスローあるいはオーバスロー)を示す情報を外部から入力することとして、これらのバッタの種類、ピッチャの種類及び投げ方の種類が一致する投球ごとに別々に識別器を生成することが好ましい。このとき、後記する球種識別装置6の識別手段62も、外部から識別対象とする投球におけるバッタの種類、ピッチャの種類及び投げ方の種類の情報を入力して、対応する識別器を用いて識別することとする。
Further, the learning means 42 associates with the respective trajectory data, the type of grasshopper in the pitch (right or left pitcher pitch), pitcher type (right pitch or left pitcher pitcher), pitch By inputting information indicating the type (underslow or overslow) of the direction from the outside, it is possible to generate a discriminator separately for each pitch that matches the grasshopper type, pitcher type and throw type. preferable. At this time, the discriminating means 62 of the ball
(球種識別装置の構成)
更に、図1を参照して、球種識別装置6の構成について説明する。球種識別装置6は、特徴量算出手段61と、識別手段62とを備える。
(Configuration of ball type identification device)
Further, the configuration of the ball
特徴量算出手段61は、投球軌跡解析装置2bから入力された軌跡データに基づいて、当該投球の軌道の形状、投球の相対的な位置及び球速の少なくともひとつを示す所定の特徴量を算出するものである。ここで算出された特徴量は、識別手段62に出力される。なお、この特徴量算出手段61は、球種学習装置4の特徴量算出手段41と比べて軌跡データの入力元と特徴量の出力先が異なるだけで、算出される特徴量の種類や算出方法は同一である。
The feature amount calculating means 61 calculates a predetermined feature amount indicating at least one of the shape of the trajectory of the pitch, the relative position of the pitch, and the ball speed based on the trajectory data input from the pitch
識別手段62は、学習結果記憶装置5に記憶された学習結果に基づいて、特徴量算出手段61から入力された特徴量から当該投球の球種を識別するものである。ここで得られた識別結果は、外部に出力される。
The identifying
ここで、球種学習装置4の学習手段42において、ランダムフォレストによって機械学習した場合における識別手段62の識別方法について説明する。まず、識別手段62は、学習結果記憶装置5に記憶されたn個の決定木を読み出し、それぞれの決定木について、特徴量算出手段61から入力された特徴量に基づいて、当該投球の軌跡データが決定木の最下層のどの部分集合に含まれるかを判定する。ここで、学習手段42は、分岐して最下層に生成された部分集合がすべて1種類の球種の軌跡データの集合になるまで分岐を繰り返して決定木を生成しているため、最下層の部分集合には、それぞれ1種類の球種が対応付けられている。
Here, an identification method of the
そこで、識別手段62は、当該軌跡データが含まれる各決定木の最下層の部分集合に対応付けられた球種を識別結果とし、これらのn個の識別結果を多数決によって統合して、最終的な識別結果として出力することとした。更に、ここでは、球種をその特徴に基づいて、直球、曲がる変化球、落ちる変化球の3つの系統に分類し、識別手段62が、各決定木の識別結果から多数決によって系統を判定して、球種の情報とともに識別結果として出力することとした。なお、ここでは、ストレート及びシュートを直球、カーブ、スライダ及びカットボールを曲がる変化球、フォーク、シンカ及びチェンジアップを落ちる変化球に分類した。
Therefore, the
なお、ここでは、識別手段62は、各決定木の識別結果を多数決して、最終的な識別結果とすることとしたが、各決定木の識別結果の割合(例えば、ストレート70%、カーブ30%)を最終的な識別結果とすることとしてもよい。更に、球種識別装置6が図示しない軌跡画像生成手段を備えることとして、投球軌跡解析装置2bから入力された軌跡データに基づいて、抽出された投球の位置を、例えば、各決定木の識別結果の割合に応じて球種ごとに予め割り当てられた色(例えば、ストレートは赤、カーブは黄)を混合した色の円で示す軌跡画像を生成して、識別結果として外部に出力することとしてもよい。
In this example, the
以上、球種判定システムSの構成について説明したが、本発明はこれに限定されるものではない。例えば、ここでは、野球の球種を判定する場合を例に挙げて説明したが、本発明の識別器生成装置及び投球球種識別装置は、野球に限らず、ソフトボールやサッカ、ゴルフなどの様々な球技への応用が可能である。サッカに適用した場合には、例えば、フリーキックの曲がり具合の判定をすることができ、ゴルフに適用した場合には、例えば、スライスやフックなどの判定に利用することができる。また、娯楽施設などで、自分の投球の球種を判定させるアトラクションなどに組み込むことも可能である。 The configuration of the ball type determination system S has been described above, but the present invention is not limited to this. For example, here, the case where the baseball ball type is determined has been described as an example. However, the discriminator generating device and the throwing ball type discriminating device of the present invention are not limited to baseball, but include softball, soccer, golf, etc. It can be applied to various ball games. When applied to a soccer player, for example, it is possible to determine the degree of bending of a free kick, and when applied to golf, it can be used to determine, for example, a slice or a hook. In addition, it can be incorporated into an attraction or the like that determines the type of pitch of his / her pitch at an amusement facility or the like.
また、ここでは、投球軌跡解析装置2bが、映像蓄積装置1bに蓄積された映像を解析することとしたが、例えば、リアルタイムで撮影された映像を入力して解析することとしてもよい。このとき、放送局側で当該球種判定システムSによって判定された球種を、中継番組内において即座に表示することも可能である。また、投球軌跡解析装置2a、2bの構成は図2に示すものに限定されず、投球軌跡解析装置2a、2bは、入力された投球の映像から投球の軌跡を解析できるものであればよい。
Here, the pitching
更に、球種判定システムSによって得られた球種の情報をメタデータとして映像に付与することで、映像検索のためのメタデータの生成を自動で行うことができる。更に、得られた球種の情報は、データ放送やインタネットなどで配信する情報としても使用可能である。 Furthermore, by adding the information on the sphere type obtained by the sphere type determination system S to the video as metadata, it is possible to automatically generate metadata for video search. Furthermore, the obtained information on the type of sphere can be used as information distributed via data broadcasting or the Internet.
なお、識別器生成装置A及び投球球種識別装置Bは、コンピュータにおいて各手段を各機能プログラムとして実現することも可能であり、各機能プログラムを結合して、識別器生成プログラム及び投球球種識別プログラムとして動作させることも可能である。 The discriminator generating device A and the pitched ball type discriminating device B can also realize each means as a function program in a computer, and the function program is combined to identify the discriminator generating program and the pitched ball type. It is also possible to operate as a program.
[球種判定システムの動作]
次に、図9〜図13を参照(適宜図1参照)して、本発明における識別器生成装置A及び投球球種識別装置Bを備える球種判定システムSの動作について説明する。図9は、本発明における識別器生成装置の識別器生成動作を示したフローチャートである。図10は、投球軌跡解析装置の軌跡データ生成動作を示したフローチャートである。図11は、差分画像の条件式を説明するための説明図であり、(a)は3枚の連続したフィールド画像であり、(b)は2枚の差分画像である。図12は、位置予測処理を説明するための説明図である。図13は、本発明における投球球種識別装置の投球球種識別動作を示したフローチャートである。
[Operation of the ball type determination system]
Next, with reference to FIGS. 9 to 13 (refer to FIG. 1 as appropriate), the operation of the ball type determination system S including the discriminator generation device A and the pitching ball type identification device B in the present invention will be described. FIG. 9 is a flowchart showing the discriminator generating operation of the discriminator generating apparatus according to the present invention. FIG. 10 is a flowchart showing the trajectory data generation operation of the pitching trajectory analysis apparatus. FIG. 11 is an explanatory diagram for explaining a conditional expression of a difference image, where (a) shows three continuous field images, and (b) shows two difference images. FIG. 12 is an explanatory diagram for explaining the position prediction process. FIG. 13 is a flowchart showing the pitching ball type identifying operation of the pitching ball type identifying device according to the present invention.
(識別器生成動作)
まず、図9を参照して、球種判定システムSが、球種を識別するための識別器を生成する識別器生成動作について説明する。球種判定システムSは、投球軌跡解析装置2aによって、映像蓄積装置1aに蓄積されたひとつの投球の映像を入力して、後記する軌跡データ生成動作によって軌跡データを生成する(ステップS11)。そして、球種判定システムSは、ステップS11において生成された軌跡データに、外部から入力される球種データを対応付けて軌跡データ蓄積装置3に記憶する(ステップS12)。
(Classifier generation operation)
First, with reference to FIG. 9, the discriminator generation operation in which the ball type determination system S generates a discriminator for identifying the ball type will be described. The ball type determination system S inputs a video of one pitch stored in the
更に、球種判定システムSは、投球軌跡解析装置2aによって、映像蓄積装置1aに蓄積されたすべての映像について軌跡データの生成が終了したかを判断する(ステップS13)。そして、終了していない場合には(ステップS13でNo)、球種判定システムSは、ステップS11に戻って、投球軌跡解析装置2aが、映像蓄積装置1aに蓄積された次の映像について軌跡データ生成動作によって軌跡データを生成する動作以降の動作を行う。
Further, the ball type determination system S determines whether or not the pitch
一方、終了した場合には(ステップS13でYes)、球種判定システムSは、球種学習装置4の特徴量算出手段41によって、ステップS12において軌跡データ蓄積装置3に記憶された軌跡データを入力して、各々の軌跡データについて特徴量を算出する(ステップS14)。
On the other hand, when the processing is completed (Yes in step S13), the ball type determination system S inputs the trajectory data stored in the trajectory data storage device 3 in step S12 by the feature
続いて、球種判定システムSは、球種学習装置4の学習手段42によって、ステップS14において算出された軌跡データの特徴量と、ステップS12において当該軌跡データに対応付けられた球種データとに基づいて、軌跡データの特徴量から球種を識別する識別器を機械学習によって生成して、学習結果記憶装置5に記憶し(ステップS15)、動作を終了する。
Subsequently, the ball type determination system S uses the
(軌跡データ生成動作)
次に、図10〜図12を参照(適宜図1及び図2参照)して、球種判定システムSの投球軌跡解析装置2a(2b)が、映像から投球の映像オブジェクトを抽出して軌跡データを生成する軌跡データ生成動作(図9のステップS11)について説明する。
(Track data generation operation)
Next, referring to FIGS. 10 to 12 (refer to FIGS. 1 and 2 as appropriate), the pitching
まず、図示していないマウス、キーボード等の入力手段によって探索領域が入力され、投球軌跡解析装置2a(2b)は、探索領域設定手段25によって、入力された映像を構成するフィールド画像において、フィールド画像の一部の範囲に映像オブジェクトを探索する探索領域を設定する(ステップS21)。なお、この探索領域は、後記するステップS32においてボールの動きに追従して位置が適宜更新される。
First, a search area is input by an input means such as a mouse or a keyboard (not shown), and the pitching
続いて、投球軌跡解析装置2a(2b)は、ステップS21において設定された探索領域について、オブジェクト候補画像生成手段21の差分画像生成部213によって、画像記憶部211に記憶された現在の入力画像と、未来の入力画像(最新の入力画像)との間の輝度差を画素値とした差分画像1を生成するとともに、差分画像生成部214によって、画像記憶部211に記憶された現在の入力画像と、画像記憶部212に記憶された過去の入力画像との間の輝度差を画素値とした差分画像2を生成する(ステップS22)。ここで、オブジェクト候補画像生成手段21には、3枚の連続した入力画像(過去、現在、未来)が入力されて、現在のフィールド画像が画像記憶部211に、過去のフィールド画像が画像記憶部212に記憶されている。
Subsequently, the pitching
続いて、投球軌跡解析装置2a(2b)は、オブジェクト候補画像生成手段21の候補画像生成部215によって、ステップS22において生成された差分画像1と差分画像2とからオブジェクト候補画像を生成する(ステップS23)。ここで、候補画像生成部215は、差分画像1の輝度値Image1(x,y)と、差分画像2の輝度値Image2(x,y)が以下の式(9)、(10)を満たす領域を判断し、この領域をオブジェクトの候補とすることとした。なお、(x、y)は、差分画像1及び差分画像2における画素の座標を示し、Tは、輝度閾値である。
Image1(x,y)>T …(9)
Image2(x,y)<−T …(10)
Subsequently, in the pitch
Image1 (x, y)> T (9)
Image2 (x, y) <-T (10)
つまり、本実施形態では、抽出(追跡)対象とする映像オブジェクトがボールであり、ボールの輝度が背景画像の輝度よりも一般に高いので、式(9)と式(10)とが同時に満たされることがこのときの条件式となる。以下に、前記のように差分画像1及び差分画像2が式(9)及び式(10)を満足するときに、高速で移動する映像オブジェクト(ボール)を抽出できる理由を、図11を参照して説明する。
In other words, in this embodiment, the video object to be extracted (tracked) is a ball, and the luminance of the ball is generally higher than the luminance of the background image, so that the equations (9) and (10) are satisfied simultaneously. Is the conditional expression at this time. The reason why the video object (ball) moving at high speed can be extracted when the
図11の(a)に示すように、過去、現在、未来を表す連続した3枚のフィールド画像G1、G2、G3には、過去・現在・未来の位置にある1個のボール(M1、M2、M3)が示されている。なお、ボールM1、M2、M3は、フィールド画像同士で重ならない程度の高速で移動しており、ボールの輝度は背景画像の輝度よりも高いこととする。また、図11の(b)に示すように、差分画像1(G’1)は、フィールド画像G2の輝度からフィールド画像G3の輝度を引いた差分を画素値として生成されたものである。また、差分画像2(G’2)は、フィールド画像G1の輝度からフィールド画像G2の輝度を引いた差分を画素値として生成されたものである。 As shown in FIG. 11A, three consecutive field images G1, G2, and G3 representing the past, present, and future have one ball (M1, M2) at the past, present, and future positions. , M3). The balls M1, M2, and M3 are moving at a high speed that does not overlap the field images, and the brightness of the balls is higher than the brightness of the background image. Further, as shown in FIG. 11B, the difference image 1 (G′1) is generated using a difference obtained by subtracting the luminance of the field image G3 from the luminance of the field image G2 as a pixel value. Further, the difference image 2 (G′2) is generated by using a difference obtained by subtracting the luminance of the field image G2 from the luminance of the field image G1 as a pixel value.
差分画像G’1における領域M’2は、ボールM2の輝度からオブジェクトの存在しない領域の輝度を差し引いた輝度差分値を画素値として構成されているので、画素値は符号がプラス(例えば白)となる。また、差分画像G’1における領域M’3は、オブジェクトの存在しない領域の輝度からボールM3の輝度を差し引いた輝度差分値を画素値として構成されているので、画素値は符号がマイナス(例えば黒)となる。更に、差分画像G’1における領域M’1を含むその他の領域は、オブジェクトの存在しない領域の輝度同士を差し引いた輝度差分値を画素値として構成されているので、画素値は0となる。 The region M′2 in the difference image G′1 is configured with a luminance difference value obtained by subtracting the luminance of the region where no object exists from the luminance of the ball M2 as a pixel value, and therefore the pixel value has a plus sign (for example, white) It becomes. Further, the region M′3 in the difference image G′1 is configured with a luminance difference value obtained by subtracting the luminance of the ball M3 from the luminance of the region where the object does not exist as a pixel value. Black). Furthermore, the other areas including the area M′1 in the difference image G′1 are configured with the luminance difference value obtained by subtracting the luminances of the areas where no object is present as the pixel value, and thus the pixel value is 0.
一方、差分画像G’2における領域M’1は、ボールM1の輝度からオブジェクトの存在しない領域の輝度を差し引いた輝度差分値を画素値として構成されているので、画素値は符号がプラス(例えば白)となる。また、差分画像G’2における領域M’2は、オブジェクトの存在しない領域の輝度からボールM2の輝度を差し引いた輝度差分値を画素値として構成されているので、画素値は符号がマイナス(例えば黒)となる。更に、差分画像G’2における領域M’3を含むその他の領域は、オブジェクトの存在しない領域の輝度同士を差し引いた輝度差分値を画素値として構成されているので、画素値は0となる。 On the other hand, the region M′1 in the difference image G′2 is configured with a luminance difference value obtained by subtracting the luminance of the region where no object is present from the luminance of the ball M1 as a pixel value, and therefore the pixel value has a plus sign (for example, White). In addition, since the area M′2 in the difference image G′2 is configured with a luminance difference value obtained by subtracting the luminance of the ball M2 from the luminance of the area where no object exists, the pixel value has a minus sign (for example, Black). Further, since the other areas including the area M′3 in the difference image G′2 are configured with the luminance difference value obtained by subtracting the luminances of the areas where no object exists as the pixel value, the pixel value is 0.
差分画像G’1と差分画像G’2とを比較すると、差分画像G’1において画素値の符号がプラスであり(式(9))、且つ、差分画像G’2において画素値の符号がマイナスである(式(10))領域は、領域M’2すなわちボールM2(現在の位置)を表すことになる。従って、候補画像生成部215は、式(9)及び式(10)から、高速で移動する映像オブジェクト(ボール)をオブジェクト候補画像として抽出することができる。
When the difference image G′1 and the difference image G′2 are compared, the sign of the pixel value in the difference image G′1 is positive (equation (9)), and the sign of the pixel value in the difference image G′2 is The area that is negative (equation (10)) represents the area M′2, that is, the ball M2 (current position). Therefore, the candidate
なお、対象とする映像オブジェクトの輝度が背景画像の輝度よりも低い場合には、式(11)と式(12)とを同時に満たすことを条件とする。
Image1(x,y)<−T …(11)
Image2(x,y)>T …(12)
Note that when the luminance of the target video object is lower than the luminance of the background image, it is a condition that Expression (11) and Expression (12) are satisfied at the same time.
Image1 (x, y) <-T (11)
Image2 (x, y)> T (12)
この場合、差分画像G’1において画素値の符号がマイナスであり(式(11))、且つ、差分画像G’2において画素値の符号がプラスである(式(12))領域が映像オブジェクトとして抽出される。 In this case, the region where the sign of the pixel value is negative in the difference image G′1 (formula (11)) and the sign of the pixel value is positive in the difference image G′2 (formula (12)) is the video object. Extracted as
図10の軌跡データ生成動作の説明を続ける。投球軌跡解析装置2a(2b)は、ボール選定手段22のラベリング部221によって、ステップS23において生成されたオブジェクト候補画像の中で、映像オブジェクトの候補となる領域に対して番号(ラベル)を付す(ステップS24)。なお、以降の動作は、映像オブジェクトの候補に付された番号に基づいて、映像オブジェクトの単位で処理される。
The description of the locus data generation operation in FIG. 10 will be continued. The pitching
そして、投球軌跡解析装置2a(2b)は、ボール選定手段22の特徴量解析部222によって、ステップS24で番号付けされた映像オブジェクトごとに、オブジェクト候補画像の中から、抽出条件記憶手段23に記憶されている抽出条件等に基づいて、抽出(追跡)対象となる映像オブジェクトを選択し、選択した映像オブジェクトの位置及び特徴量を解析(算出)する(ステップS25)。ここで、映像オブジェクトの位置としては、例えば、映像オブジェクトの重心座標を用いる。また、映像オブジェクトの特徴量としては、映像オブジェクトの面積、輝度、色、円形度等を用いる。
Then, the pitch
更に、投球軌跡解析装置2a(2b)は、ボール選定手段22のフィルタ処理部223によって、オブジェクト候補画像の中から、番号(ラベル)に基づいて、映像オブジェクトを選択し、フィルタ処理を行う(ステップS26)。すなわち、フィルタ処理部223は、選択された映像オブジェクトの「位置」が、位置予測手段24により予測される範囲に適合するかどうかを判定する。ここで、「位置」による適合条件に合致する場合、フィルタ処理部223は、選択された映像オブジェクトの「面積」が、抽出条件記憶手段23に記憶されている抽出条件に適合するかどうかを判定する。ここで、「面積」による適合条件に合致する場合、フィルタ処理部223は、映像オブジェクトの「色」が、抽出条件に適合するかどうかを判定する。また、「色」による適合条件に合致する場合、フィルタ処理部223は、映像オブジェクトの「輝度」が、抽出条件に適合するかどうかを判定する。また、「輝度」による適合条件に合致する場合、フィルタ処理部223は、映像オブジェクトの「円形度」が、抽出条件に適合するかどうかを判定する。
Further, the pitching
続いて、投球軌跡解析装置2a(2b)は、ボール選定手段22のオブジェクト選択部224によって、ステップS26において、すべての抽出条件に適合した映像オブジェクトの候補がない、つまり、抽出する映像オブジェクトの候補がなく抽出に失敗したかを判断する(ステップS27)。
Subsequently, the pitching
そして、抽出に失敗していない場合には(ステップS27でNo)、投球軌跡解析装置2a(2b)は、ボール選定手段22のオブジェクト選択部224によって、ステップS26において、すべての抽出条件に適合した映像オブジェクトの候補から、前のフレーム画像から抽出された映像オブジェクトの位置座標に最も近いものを追跡対象の映像オブジェクトとして選択する(ステップS28)。これにより、すべてのフィルタを通過した映像オブジェクトの候補が複数存在する場合にもオブジェクト選択部224はひとつの映像オブジェクトを選定することができる。なお、ここで選択された映像オブジェクトの位置情報は抽出条件記憶手段23に記憶される。
If the extraction has not failed (No in step S27), the pitching
更に、投球軌跡解析装置2a(2b)は、投球補間手段26によって、前回の抽出及びそれ以前に、抽出に失敗したフィールド画像がある場合に、ステップS28において選択された映像オブジェクトの位置情報と、抽出条件記憶手段23に記憶された更に過去のフィールド画像の映像オブジェクトの位置情報とに基づいて、抽出に失敗したフィールド画像の映像オブジェクトの位置情報を内挿補間によって求め(ステップS29)、ステップS31に進む。
Further, the pitch
一方、ステップS27において抽出に失敗した場合には(ステップS27でYes)、投球軌跡解析装置2a(2b)は、オブジェクト選択部224によって、所定数以上のフレームで連続して抽出に失敗したか否かを判断する(ステップS30)。そして、所定数以上のフレームで連続して抽出に失敗した場合には(ステップS30でYes)、動作を終了する。一方、所定数以上のフレームで連続して抽出に失敗していない場合には(ステップS30でNo)、ステップS31に進む。
On the other hand, when the extraction fails in step S27 (Yes in step S27), the pitching
そして、投球軌跡解析装置2a(2b)は、投球補間手段26によって、ステップS28において選択された映像オブジェクトの位置情報、もしくは、ステップS30において求められた位置情報を軌跡データ蓄積装置3に出力する(ステップS31)。更に、投球軌跡解析装置2a(2b)は、ステップS28において選択された映像オブジェクトの位置に基づいて、位置予測手段24により、次に入力されるフィールド画像におけるボールの探索領域を推定し(ステップS32)、ステップS21に戻る。
Then, the pitch
ここで、投球軌跡解析装置2a(2b)は位置予測手段24によって、最小自乗法及びカルマンフィルタを用いて探索領域を推定することができる。図12に示すように、過去のオブジェクト抽出処理によりそれぞれ異なる時刻のボールM1〜M4が得られており、また、現在のフィールド画像におけるボールM5(図中、二重丸)の位置座標が抽出されているものと仮定する。
Here, the pitching
そうすると、位置予測手段24は、線形予測部241によって、現フィールドでの抽出位置座標(ボールM5)と前フィールド(前フレーム)での抽出位置座標(ボール軌跡M4)とにより、矢印V1で示される動きベクトルを求める。そして、線形予測部241は、動きベクトルV1に基づいて、現フィールドでの抽出位置座標(ボールM5)に対して、動きベクトルV1と同様の動きベクトルV2を、ボールM5の位置に加算することにより、ボールの予測位置として、線形予測位置座標Y1(図中、三角印)を仮に求める(線形予測)。
Then, the
一方、位置予測手段24は、曲線予測部242によって、最小自乗法を用いて過去から現在に至るボール軌跡(ボールM1〜M5)を平均的に通るような一点鎖線で示される2次曲線K1を求める。そして、位置予測手段24は、線形予測位置座標Y1を2次曲線K1上に補正して、四角印で示される曲線予測位置座標Y2を求める(曲線予測)。求めた曲線予測位置座標Y2を次フィールド画像(次フレーム)での探索位置とする。
On the other hand, the
但し、位置予測手段24は、切替部243によって、過去に抽出されたボールの位置座標の数又は2次曲線の方程式に基づいて、線形予測部241による線形予測と曲線予測部242による曲線予測とを切り替える。すなわち、位置予測手段24は、曲線予測を実行するのに十分な数(3個でもよいが5個以上が好適である)の過去のボール位置座標がない場合には曲線予測を実行せずに、線形予測のみを実行する。また、位置予測手段24は、曲線予測部242によって曲線予測を実行しているときに、曲線予測に用いる2次曲線(y=ax2+bx+c)の係数a、bの符号が変化したり、係数a、bの値が所定値を超えたりした場合にも、線形予測に切り替える。このように、投球軌跡解析装置2a(2b)は、ボールを探索する領域を適宜更新しながら、ボールの抽出を行うため、ボールを抽出・更新するための演算量を抑えることができる。
However, the
以上の動作によって、投球軌跡解析装置2a(2b)は、映像として時系列に入力されるフィールド画像から、追跡対象となる映像オブジェクト(ボール)を逐次抽出、追跡し、映像オブジェクトの軌跡データ生成することができる。
Through the above operation, the pitching
(識別器生成動作)
更に、図13を参照して、球種判定システムSが、図11に示す識別器生成動作によって生成された識別器を用いて投球の球種を識別する投球球種識別動作について説明する。球種判定システムSは、投球軌跡解析装置2bによって、映像蓄積装置1bに蓄積されたひとつの投球の映像を入力して、図10に示す軌跡データ生成動作によって軌跡データを生成する(ステップS41)。そして、球種判定システムSは、球種識別装置6の特徴量算出手段61によって、ステップS41において生成された軌跡データについて特徴量を算出する(ステップS42)。
(Classifier generation operation)
Further, with reference to FIG. 13, the pitch type identifying operation for identifying the pitch type of the pitch using the classifier generated by the classifier generating operation shown in FIG. 11 will be described. The ball type determination system S inputs the video of one pitch stored in the
続いて、球種判定システムSは、球種識別装置6の識別手段62によって、図9に示す識別器生成動作によって生成され、学習結果記憶装置5に記憶された識別器を用いて、ステップS42において算出された軌跡データの特徴量に基づいて、当該軌跡データの投球の球種を識別する(ステップS43)。
Subsequently, the ball type determination system S uses the discriminator generated by the discriminator generating operation shown in FIG. 9 by the discriminating means 62 of the ball
更に、球種判定システムSは、投球軌跡解析装置2bによって、映像蓄積装置1bに蓄積されたすべての映像について軌跡データの生成が終了したかを判断する(ステップS44)。そして、終了していない場合には(ステップS44でNo)、球種判定システムSは、ステップS41に戻って、投球軌跡解析装置2bが、映像蓄積装置1bに蓄積された次の映像について軌跡データ生成動作によって軌跡データを生成する動作以降の動作を行う。一方、終了した場合には(ステップS44でYes)、動作を終了する。
Furthermore, the ball type determination system S determines whether or not the pitch
S 球種判定システム
A 球種学習装置
B 投球球種識別装置
2a 投球軌跡解析装置(投球軌跡解析手段)
2b 投球軌跡解析装置(投球軌跡解析手段)
4 球種学習装置(球種学習手段)
41 特徴量算出手段
42 学習手段
5 学習結果記憶装置(識別器記憶手段、識別器記憶装置)
6 球種識別装置(球種識別手段)
61 特徴量算出手段
62 識別手段
S Ball type determination system A Ball type learning device B Throwing ball
2b Throwing trajectory analysis device (throwing trajectory analysis means)
4 Ball type learning device (ball type learning means)
41 feature quantity calculation means 42 learning means 5 learning result storage device (discriminator storage means, discriminator storage device)
6 Ball type identification device (ball type identification means)
61 feature amount calculation means 62 identification means
Claims (6)
前記投球の映像を構成する時系列の画像内における前記投球の映像オブジェクトの位置の時系列の情報である軌跡データと、各々の前記投球に予め対応付けられた当該投球の球種の情報とに基づいて複数の投球について機械学習された、前記軌跡データから前記球種を識別するための識別器を予め記憶する識別器記憶手段と、
球種の識別対象となる投球の映像を入力し、この映像を構成する時系列の画像内における前記投球の映像オブジェクトを抽出して、当該投球の軌跡データを生成する投球軌跡解析手段と、
前記識別器記憶手段に記憶された識別器を用いて、前記投球軌跡解析手段によって生成された軌跡データから前記識別対象の投球の球種を識別する球種識別手段と、
を備えることを特徴とする投球球種識別装置。 A pitching type identifying device for identifying the pitch type of the pitch from the pitch video,
The trajectory data, which is the time-series information of the position of the video object of the pitch in the time-series image constituting the video of the pitch, and the information on the type of the pitch of the pitch previously associated with the pitch Discriminator storage means for storing in advance a discriminator for discriminating the ball type from the trajectory data, machine-learned for a plurality of pitches
A pitching trajectory analysis means for inputting a video of a pitch to be identified as a pitch type, extracting a video object of the pitch in a time-series image constituting the video, and generating trajectory data of the pitch;
Using a discriminator stored in the discriminator storage means, a ball type identifying means for identifying the ball type of the pitch to be identified from the trajectory data generated by the pitch trajectory analyzing means;
A pitching ball type identifying device comprising:
前記球種識別手段が、
前記投球軌跡解析手段によって生成された軌跡データから、前記所定の基準により正規化された前記特徴量を算出する特徴量算出手段と、
前記識別器記憶手段に記憶された識別器を用いて、前記特徴量算出手段によって算出された特徴量から前記識別対象の投球の球種を識別する識別手段と、
を有することを特徴とする請求項1に記載の投球球種識別装置。 A feature amount indicating at least one of the shape of the trajectory of the pitch, the relative position of the pitch, and the ball speed calculated by the discriminator storage means normalized by a predetermined reference from the trajectory data of the plurality of pitches A pre-stored discriminator for identifying the ball type from the feature amount, machine-learned based on the pitch type information of the pitch previously associated with each pitch,
The ball type identifying means is
Feature amount calculating means for calculating the feature amount normalized by the predetermined reference from the trajectory data generated by the pitch trajectory analyzing means;
Using a discriminator stored in the discriminator storage unit, an identifying unit for identifying a pitch type of the pitch to be identified from the feature amount calculated by the feature amount calculating unit;
The pitching ball type identifying device according to claim 1, wherein:
複数の投球の映像を入力して、各々の映像を構成する時系列の画像内における前記投球の映像オブジェクトを抽出して、当該画像内における前記投球の映像オブジェクトの位置の時系列の情報である軌跡データを生成する投球軌跡解析手段と、
この投球軌跡解析手段によって生成された軌跡データと、各々の投球に予め対応付けられた当該投球の球種の情報とに基づいて、前記軌跡データから前記球種を識別するための識別器を機械学習によって生成する球種学習手段と、
を備えることを特徴とする識別器生成装置。 A discriminator generating device for generating a discriminator for identifying a pitch type of a pitch used in the pitched ball type identifying device according to claim 1,
This is time series information of the position of the pitch video object in the image by inputting a plurality of pitch videos and extracting the pitch video object in the time series image constituting each video. Pitching trajectory analysis means for generating trajectory data;
Based on the trajectory data generated by the pitch trajectory analyzing means and information on the pitch type of the pitch previously associated with each pitch, a discriminator for identifying the ball type from the trajectory data is provided. A ball type learning means generated by learning;
A discriminator generation device comprising:
複数の投球の映像を入力して、各々の映像を構成する時系列の画像内における前記投球の映像オブジェクトを抽出して、当該画像内における前記投球の映像オブジェクトの位置の時系列の情報である軌跡データを生成する投球軌跡解析手段と、
この投球軌跡解析手段によって生成された軌跡データと、各々の投球に予め対応付けられた当該投球の球種の情報とに基づいて、前記軌跡データから前記球種を識別するための識別器を機械学習によって生成する球種学習手段と、
を備え、
前記球種学習手段が、
前記投球軌跡解析手段によって生成された軌跡データから、各々の前記投球について、所定の基準により正規化された前記特徴量を算出する特徴量算出手段と、
この特徴量算出手段によって算出された複数の投球の特徴量と、対応する前記球種の情報とに基づいて、前記特徴量から前記球種を識別するための識別器を機械学習によって生成する学習手段と、
を有することを特徴とする識別器生成装置。 A discriminator for discriminating a ball type from a feature amount indicating at least one feature of a shape of a pitch of a pitch, a relative position of the pitch, and a ball speed, which is used in the pitch type identification device according to claim 2. A discriminator generating device for generating,
This is time series information of the position of the pitch video object in the image by inputting a plurality of pitch videos and extracting the pitch video object in the time series image constituting each video. Pitching trajectory analysis means for generating trajectory data;
Based on the trajectory data generated by the pitch trajectory analyzing means and information on the pitch type of the pitch previously associated with each pitch, a discriminator for identifying the ball type from the trajectory data is provided. A ball type learning means generated by learning;
With
The ball type learning means
Feature amount calculating means for calculating the feature amount normalized by a predetermined standard for each of the pitches from the trajectory data generated by the pitch trajectory analyzing means;
Learning that generates, by machine learning, a discriminator for identifying the ball type from the feature value based on the feature value of the plurality of pitches calculated by the feature value calculating means and the information on the corresponding ball type Means,
A discriminator generation device comprising:
球種の識別対象となる投球の映像を入力し、この映像を構成する時系列の画像内における前記投球の映像オブジェクトを抽出して、当該投球の軌跡データを生成する投球軌跡解析手段、
前記識別器記憶装置に記憶された識別器を用いて、前記投球軌跡解析手段によって生成された軌跡データから前記識別対象の投球の球種を識別する球種識別手段、
として機能させることを特徴とする投球球種識別プログラム。 The trajectory data, which is the time-series information of the position of the video object of the pitch in the time-series image constituting the video of the pitch, and the information on the type of the pitch of the pitch previously associated with the pitch The pitch type of the pitch is identified from the video of the pitch using a discriminator for discriminating the ball type from the trajectory data, which is machine-learned based on a plurality of pitches and stored in advance in the discriminator storage device Computer for
A pitching trajectory analysis means for inputting a video of a pitch to be identified as a pitch type, extracting a video object of the pitch in a time-series image constituting the video, and generating trajectory data of the pitch,
Using a discriminator stored in the discriminator storage device, a ball type identifying unit for identifying the ball type of the pitch to be identified from the trajectory data generated by the pitch trajectory analyzing unit;
Throwing ball type identification program characterized by functioning as
複数の投球の映像を入力して、各々の映像を構成する時系列の画像内における前記投球の映像オブジェクトを抽出して、当該画像内における前記投球の映像オブジェクトの位置の時系列の情報である軌跡データを生成する投球軌跡解析手段、
この投球軌跡解析手段によって生成された軌跡データと、各々の投球に予め対応付けられた当該投球の球種の情報とに基づいて、前記軌跡データから前記球種を識別するための識別器を機械学習によって生成する球種学習手段、
として機能させることを特徴とする識別器生成プログラム。 A computer for generating a discriminator for identifying a pitch type of a pitch used in the pitch type discriminating apparatus according to claim 1.
This is time series information of the position of the pitch video object in the image by inputting a plurality of pitch videos and extracting the pitch video object in the time series image constituting each video. Pitching trajectory analysis means for generating trajectory data;
Based on the trajectory data generated by the pitch trajectory analyzing means and information on the pitch type of the pitch previously associated with each pitch, a discriminator for identifying the ball type from the trajectory data is provided. Sphere learning means generated by learning,
A discriminator generation program characterized by functioning as:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007132166A JP4956273B2 (en) | 2007-05-17 | 2007-05-17 | Throwing ball type discriminating device, discriminator generating device, throwing ball type discriminating program and discriminator generating program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007132166A JP4956273B2 (en) | 2007-05-17 | 2007-05-17 | Throwing ball type discriminating device, discriminator generating device, throwing ball type discriminating program and discriminator generating program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008284166A true JP2008284166A (en) | 2008-11-27 |
JP4956273B2 JP4956273B2 (en) | 2012-06-20 |
Family
ID=40144454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007132166A Expired - Fee Related JP4956273B2 (en) | 2007-05-17 | 2007-05-17 | Throwing ball type discriminating device, discriminator generating device, throwing ball type discriminating program and discriminator generating program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4956273B2 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110190912A1 (en) * | 2010-01-29 | 2011-08-04 | Ross Paul | Real time pitch classification |
JP2012048624A (en) * | 2010-08-30 | 2012-03-08 | Toshiba Corp | Learning device, method and program |
JP2012084140A (en) * | 2010-09-30 | 2012-04-26 | Toshiba Corp | Video analysis method and system |
JP2014508625A (en) * | 2011-03-22 | 2014-04-10 | ゴルフゾン カンパニー リミテッド | Virtual golf simulation apparatus, and sensing apparatus and sensing method used therefor |
JP2015154890A (en) * | 2014-02-21 | 2015-08-27 | 株式会社横浜DeNAベイスターズ | pitching analysis support system |
JP2017069939A (en) * | 2015-10-02 | 2017-04-06 | キヤノン株式会社 | Image processing system, control method of the same, and program |
WO2018190327A1 (en) * | 2017-04-11 | 2018-10-18 | 株式会社バスキュール | Virtual-reality provision system, three-dimensional-display-data provision device, virtual-space provision system, and program |
KR20190062156A (en) * | 2017-11-27 | 2019-06-05 | 최은정 | A method of recognizing only golf ball objects in photograph using cameras in a golf simulator |
JP2019083968A (en) * | 2017-11-06 | 2019-06-06 | 株式会社ザクティ | Player analysis support system |
US10737167B2 (en) | 2014-03-12 | 2020-08-11 | Greiner Agencies Inc. | Baseball pitch quality determination method and apparatus |
WO2022005122A1 (en) * | 2020-07-01 | 2022-01-06 | 계명대학교 산학협력단 | Device and method for learning time series data on basis of multilayer random forest |
WO2022034245A1 (en) * | 2020-08-14 | 2022-02-17 | Topgolf Sweden Ab | Motion based pre-processing of two-dimensional image data prior to three-dimensional object tracking with virtual time synchronization |
US11335013B2 (en) | 2020-08-14 | 2022-05-17 | Topgolf Sweden Ab | Motion based pre-processing of two-dimensional image data prior to three-dimensional object tracking with virtual time synchronization |
JP7526542B1 (en) | 2024-05-10 | 2024-08-01 | 株式会社Knowhere | PROGRAM, COMPUTER, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101508523B1 (en) | 2014-05-12 | 2015-04-07 | 한양대학교 산학협력단 | Pitching machine |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08115429A (en) * | 1994-10-19 | 1996-05-07 | Tokimec Inc | Form identification method and picture processor |
JPH08329247A (en) * | 1995-05-30 | 1996-12-13 | Nippon Telegr & Teleph Corp <Ntt> | Dynamic image recognition device |
JP2000180162A (en) * | 1998-12-11 | 2000-06-30 | Hitachi Plant Eng & Constr Co Ltd | Task analyzer |
JP2003265665A (en) * | 2002-01-11 | 2003-09-24 | Takeshi Hori | Analysis system |
JP2005018675A (en) * | 2003-06-30 | 2005-01-20 | Nippon Hoso Kyokai <Nhk> | Content characteristic quantity extraction device, content characteristic quantity extraction program and content characteristic quantity extraction method |
JP2006323507A (en) * | 2005-05-17 | 2006-11-30 | Yamaha Motor Co Ltd | Attribute identifying system and attribute identifying method |
JP2006338082A (en) * | 2005-05-31 | 2006-12-14 | Sony Corp | Image processing system, learning device and method, image recognition device and method, recording medium and program |
-
2007
- 2007-05-17 JP JP2007132166A patent/JP4956273B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08115429A (en) * | 1994-10-19 | 1996-05-07 | Tokimec Inc | Form identification method and picture processor |
JPH08329247A (en) * | 1995-05-30 | 1996-12-13 | Nippon Telegr & Teleph Corp <Ntt> | Dynamic image recognition device |
JP2000180162A (en) * | 1998-12-11 | 2000-06-30 | Hitachi Plant Eng & Constr Co Ltd | Task analyzer |
JP2003265665A (en) * | 2002-01-11 | 2003-09-24 | Takeshi Hori | Analysis system |
JP2005018675A (en) * | 2003-06-30 | 2005-01-20 | Nippon Hoso Kyokai <Nhk> | Content characteristic quantity extraction device, content characteristic quantity extraction program and content characteristic quantity extraction method |
JP2006323507A (en) * | 2005-05-17 | 2006-11-30 | Yamaha Motor Co Ltd | Attribute identifying system and attribute identifying method |
JP2006338082A (en) * | 2005-05-31 | 2006-12-14 | Sony Corp | Image processing system, learning device and method, image recognition device and method, recording medium and program |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110190912A1 (en) * | 2010-01-29 | 2011-08-04 | Ross Paul | Real time pitch classification |
US8876638B2 (en) * | 2010-01-29 | 2014-11-04 | Mlb Advanced Media, L.P. | Real time pitch classification |
JP2012048624A (en) * | 2010-08-30 | 2012-03-08 | Toshiba Corp | Learning device, method and program |
US9058748B2 (en) | 2010-08-30 | 2015-06-16 | Kabushiki Kaisha Toshiba | Classifying training method and apparatus using training samples selected at random and categories |
JP2012084140A (en) * | 2010-09-30 | 2012-04-26 | Toshiba Corp | Video analysis method and system |
US8750614B2 (en) | 2010-09-30 | 2014-06-10 | Kabushiki Kaisha Toshiba | Method and system for classifying features in a video sequence |
JP2014508625A (en) * | 2011-03-22 | 2014-04-10 | ゴルフゾン カンパニー リミテッド | Virtual golf simulation apparatus, and sensing apparatus and sensing method used therefor |
JP2015154890A (en) * | 2014-02-21 | 2015-08-27 | 株式会社横浜DeNAベイスターズ | pitching analysis support system |
US10737167B2 (en) | 2014-03-12 | 2020-08-11 | Greiner Agencies Inc. | Baseball pitch quality determination method and apparatus |
JP2017069939A (en) * | 2015-10-02 | 2017-04-06 | キヤノン株式会社 | Image processing system, control method of the same, and program |
JPWO2018190327A1 (en) * | 2017-04-11 | 2019-12-19 | 株式会社バスキュール | Virtual reality providing system, three-dimensional display data providing device, virtual space providing system and program |
WO2018190327A1 (en) * | 2017-04-11 | 2018-10-18 | 株式会社バスキュール | Virtual-reality provision system, three-dimensional-display-data provision device, virtual-space provision system, and program |
US11093025B2 (en) | 2017-04-11 | 2021-08-17 | Bascule Inc. | Virtual-reality provision system, three-dimensional-display-data provision device, virtual-space provision system, and program |
JP2019083968A (en) * | 2017-11-06 | 2019-06-06 | 株式会社ザクティ | Player analysis support system |
KR20190062156A (en) * | 2017-11-27 | 2019-06-05 | 최은정 | A method of recognizing only golf ball objects in photograph using cameras in a golf simulator |
KR102084858B1 (en) | 2017-11-27 | 2020-03-04 | 최은정 | A method of recognizing only golf ball objects in photograph using cameras in a golf simulator |
WO2022005122A1 (en) * | 2020-07-01 | 2022-01-06 | 계명대학교 산학협력단 | Device and method for learning time series data on basis of multilayer random forest |
KR20220003424A (en) * | 2020-07-01 | 2022-01-10 | 계명대학교 산학협력단 | Apparatus and method for learning time series data based on multilayered random forest |
KR102418139B1 (en) | 2020-07-01 | 2022-07-07 | 계명대학교 산학협력단 | Apparatus and method for learning time series data based on multilayered random forest |
US11335013B2 (en) | 2020-08-14 | 2022-05-17 | Topgolf Sweden Ab | Motion based pre-processing of two-dimensional image data prior to three-dimensional object tracking with virtual time synchronization |
WO2022034245A1 (en) * | 2020-08-14 | 2022-02-17 | Topgolf Sweden Ab | Motion based pre-processing of two-dimensional image data prior to three-dimensional object tracking with virtual time synchronization |
US11557044B2 (en) | 2020-08-14 | 2023-01-17 | Topgolf Sweden Ab | Motion based pre-processing of two-dimensional image data prior to three-dimensional object tracking with virtual time synchronization |
KR20230038584A (en) * | 2020-08-14 | 2023-03-20 | 탑골프 스웨덴 에이비 | Motion-based preprocessing of 2D image data prior to 3D object tracking using virtual time synchronization |
CN116157836A (en) * | 2020-08-14 | 2023-05-23 | 涛普高尔夫瑞典公司 | Motion-based preprocessing of two-dimensional image data prior to three-dimensional object tracking with virtual time synchronization |
KR102625119B1 (en) | 2020-08-14 | 2024-01-12 | 탑골프 스웨덴 에이비 | Motion-based preprocessing of 2D image data before 3D object tracking using virtual time synchronization |
CN116157836B (en) * | 2020-08-14 | 2024-05-14 | 涛普高尔夫瑞典公司 | Motion-based preprocessing of two-dimensional image data prior to three-dimensional object tracking with virtual time synchronization |
JP7526542B1 (en) | 2024-05-10 | 2024-08-01 | 株式会社Knowhere | PROGRAM, COMPUTER, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD |
Also Published As
Publication number | Publication date |
---|---|
JP4956273B2 (en) | 2012-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4956273B2 (en) | Throwing ball type discriminating device, discriminator generating device, throwing ball type discriminating program and discriminator generating program | |
US11755952B2 (en) | System and method for predictive sports analytics using body-pose information | |
US11544928B2 (en) | Athlete style recognition system and method | |
US11395947B2 (en) | Virtual environment construction apparatus, video presentation apparatus, model learning apparatus, optimal depth decision apparatus, methods for the same, and program | |
Baysal et al. | Sentioscope: a soccer player tracking system using model field particles | |
Lan et al. | Social roles in hierarchical models for human activity recognition | |
Wei et al. | Large-scale analysis of formations in soccer | |
JP6525453B2 (en) | Object position estimation system and program thereof | |
US20180157939A1 (en) | System and method for appearance search | |
CN101639354B (en) | Method and apparatus for object tracking | |
US20180197296A1 (en) | Method And Device For Tracking Sports Players with Context-Conditioned Motion Models | |
KR101227569B1 (en) | Body Segments Localization Device and Method for Analyzing Motion of Golf Swing | |
JP4886707B2 (en) | Object trajectory identification device, object trajectory identification method, and object trajectory identification program | |
D'Orazio et al. | An investigation into the feasibility of real-time soccer offside detection from a multiple camera system | |
JP2004046647A (en) | Method and device for tracking moving object based on dynamic image data | |
JP2004096402A (en) | Object tracking device, object tracking method, and object tracking program | |
CN110383324A (en) | Utilize the mobile explicit prediction of the opponent of canonical correlation analysis | |
Morimitsu et al. | Exploring structure for long-term tracking of multiple objects in sports videos | |
US9928879B2 (en) | Video processing method, and video processing device | |
EP3267395B1 (en) | Person tracking method and person tracking device | |
JP2008250746A (en) | Mobile object tracking device | |
Istasse et al. | Associative embedding for team discrimination | |
Waltner et al. | Indoor activity detection and recognition for sport games analysis | |
Faulkner et al. | AFL player detection and tracking | |
US10405065B2 (en) | Video processing system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091016 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111025 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120221 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120316 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150323 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |