JP2018068516A - Exercise motion evaluation system - Google Patents

Exercise motion evaluation system Download PDF

Info

Publication number
JP2018068516A
JP2018068516A JP2016210027A JP2016210027A JP2018068516A JP 2018068516 A JP2018068516 A JP 2018068516A JP 2016210027 A JP2016210027 A JP 2016210027A JP 2016210027 A JP2016210027 A JP 2016210027A JP 2018068516 A JP2018068516 A JP 2018068516A
Authority
JP
Japan
Prior art keywords
machine learning
play
evaluation
movement
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016210027A
Other languages
Japanese (ja)
Inventor
慶輔 藤井
Keisuke Fujii
慶輔 藤井
山本 裕二
Yuji Yamamoto
裕二 山本
吉伸 河原
Yoshinobu Kawahara
吉伸 河原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Original Assignee
Nagoya University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC filed Critical Nagoya University NUC
Priority to JP2016210027A priority Critical patent/JP2018068516A/en
Publication of JP2018068516A publication Critical patent/JP2018068516A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To objectively evaluate play and performance of a player who is taking exercise.SOLUTION: A series of motions of a player who is taking exercise are acquired as pieces of motion data. From the pieces of motion data, parts which are evaluation objects (actions) are extracted on the basis of a condition such as a physical relationship of a player. Then, by a classification type machine learning, to the extracted actions as objects, an action corresponding to play or performance to be the evaluation object is identified. Then, to the identified action, a regression type machine learning is used for evaluating completion degree of play or performance. In the step, the classification type machine learning and regression type machine learning use a common feature vector. Therefore, the play or performance can be objectively and accurately evaluated.SELECTED DRAWING: Figure 1

Description

本発明は、運動中の選手の動きに関し、特定のプレーまたは演技としての完成度を評価する技術に関する。   The present invention relates to a technique for evaluating the degree of perfection as a specific play or performance in relation to the movement of a player during exercise.

種々のスポーツにおいて、選手の能力向上を図るためには、練習や試合における選手のプレーを評価し、より良い動きができるよう指導することが求められる。また、フィギュアスケートなど、一部のスポーツにおいては、選手の動き自体が採点の対象となることもある。従来、選手の動きの評価は、コーチや審判が経験に基づいて行っており、十分に客観性が確保されているとは言えなかった。例えば、録画した選手の動きを再生し、その動きを評価する場合、同じ人が同じ動きを評価しているにも関わらず、評価する度に評価結果がばらつくことは通常であった。
こうした選手の動きの評価について、コンピュータを利用しようとする試みもなされている。非特許文献1は、バスケットボールにおいて、攻撃側が用いるスクリーンプレーをコンピュータによって見極める技術を開示している。具体的には、バスケットボールの各選手の位置、動きをデジタルデータ化してコンピュータに読み込み、一連の動きの中からスクリーンプレーを行っている場面を切り出す技術である。この技術では、分類型機械学習を用いて、切り出しを行っている。
In various sports, in order to improve the player's ability, it is required to evaluate the player's play in practice and games and to instruct him to make better movements. In some sports, such as figure skating, the movement of the player itself may be scored. Conventionally, the evaluation of the movements of players has been performed by coaches and referees based on experience, and it cannot be said that the objectivity is sufficiently secured. For example, when a recorded player's movement is played back and the movement is evaluated, the evaluation result usually varies with each evaluation even though the same person is evaluating the same movement.
Attempts have been made to use computers to evaluate the movement of these players. Non-Patent Document 1 discloses a technique for determining a screen play used by an attacker in a basketball by a computer. Specifically, it is a technology that converts the position and movement of each player in basketball into digital data and loads it into a computer, and cuts out a scene of screen play from a series of movements. In this technique, segmentation-type machine learning is used to perform segmentation.

K.Fujii、外5名著、「Resilient help to switch and overlap hierarchical subsystems in a small human group」、Scientific Reports 6, 23911K. Fujii, 5 other authors, “Resilient help to switch and overlap hierarchical subsystems in a small human group”, Scientific Reports 6, 23911 Armand MacQueen 外2名著、「Automatically Recognizing On-Ball Screens」、2014 MIT Sloan Sports Analytics Conference, 2014Armand MacQueen and 2 other authors, “Automatically Recognizing On-Ball Screens”, 2014 MIT Sloan Sports Analytics Conference, 2014

運動中の選手の動きにコンピュータ、特に機械学習を活用する試みは、始まったばかりであり、バスケットボールのスクリーンプレーという限定したプレーを対象としたものでさえ、非特許文献1に開示された先行技術で完成されているとは言えない。例えば、先行技術は、プレー中にボールを保持した選手に関係するスクリーンプレーのみを対象としているが、スクリーンプレーは、ボールを保持していない選手間でも行われるものであるから、かかるプレーの切り出しが行えないという点で不十分である。また、先行技術は、一連の動きからスクリーンプレーを切り出すための技術に過ぎず、それをコンピュータによって評価するには至っていない。かかる課題は、バスケットボールのスクリーンプレーに特有のものではなく、種々のスポーツにおいて選手の動きを評価する際に共通の課題である。
本発明は、これらの課題に鑑み、コンピュータを利用して、運動中の選手の動きを評価する技術を提供することを目的とする。
Attempts to use computers, especially machine learning, for the movement of athletes during exercise have just begun, and even the limited play of basketball screen play is the prior art disclosed in Non-Patent Document 1. It cannot be said that it has been completed. For example, the prior art covers only screen play related to a player who holds the ball during play, but screen play is also performed between players who do not hold the ball, so the play is cut out. Is not sufficient in that it cannot be performed. Further, the prior art is merely a technique for extracting a screen play from a series of movements, and has not yet been evaluated by a computer. Such a problem is not unique to basketball screen play, but is a common problem when evaluating the movement of players in various sports.
In view of these problems, an object of the present invention is to provide a technique for evaluating the movement of a player during exercise using a computer.

本発明は、
運動中の選手の動きに関し、特定のプレーまたは演技としての完成度を評価する運動動作評価システムであって、
前記選手の動きを表す動作データを読み込む動作データ入力部と、
前記動作データに基づいて、前記プレーまたは演技に対する分類型機械学習によって設定された特徴ベクトルを用いた回帰型機械学習により、前記評価を行う評価部とを備える運動動作評価システムとして構成することができる。
The present invention
An exercise motion evaluation system for evaluating the completeness of a specific play or performance with respect to the movement of a player during exercise,
An operation data input unit for reading operation data representing the movement of the player;
Based on the motion data, it can be configured as an exercise motion evaluation system including an evaluation unit that performs the evaluation by regression type machine learning using a feature vector set by classification type machine learning for the play or performance. .

本発明によれば、回帰型機械学習を利用することにより選手の動きを評価することができるため、客観的な評価が可能となる。一般に回帰型機械学習においては、評価対象となる動きを評価するための特徴ベクトルが必要となるが、本発明では、この特徴ベクトルを分類型機械学習で設定したものを利用する。つまり、選手の多様な動きが、評価対象となる動きに該当するか否かを教師付の分類型機械学習で訓練し、この過程で、この分類に適すると思われる特徴ベクトルを見いだすのである。そして、この特徴ベクトルを用いて、今度は回帰型機械学習の訓練、つまり種々の選手の動きに対して評価点数を教えることを繰り返して実行する。こうして十分に訓練を行うことにより、新たな動きを回帰型機械学習によって評価することが可能となる。
発明者は、種々の特徴ベクトルを用いて分類型機械学習および回帰型機械学習を行わせることにより、それぞれ適した特徴ベクトルを研究したところ、分類型機械学習において好成績が得られる特徴ベクトルを回帰型機械学習にも用いることにより、回帰型機械学習も安定した評価結果を得られるという事実を見いだした。かかる結果が得られる原理は、必ずしも明確にはなっていないが、評価対象となる動きの分類と回帰で、その分析に用いるパラメータを変える必要性はないことが一つの理由として考えられる。
一般に回帰型機械学習は多様な評価点数をとりうるため、特徴ベクトルの良否を判断しづらいのに対し、分類型機械学習は評価対象となる動きに該当するか否かで訓練するため特徴ベクトルの良否を判断しやすいと考えられる。本発明では、このように良否を判断しやすい分類型機械学習で特徴ベクトルを設定するため、回帰型機械学習の精度を容易に向上させることが可能となる利点がある。
According to the present invention, since a player's movement can be evaluated by using regression machine learning, an objective evaluation is possible. In general, regression type machine learning requires a feature vector for evaluating a motion to be evaluated. In the present invention, a feature vector set by classification type machine learning is used. In other words, whether or not the various movements of the players correspond to the movements to be evaluated is trained by supervised classification machine learning, and in this process, feature vectors that are suitable for this classification are found. Then, using this feature vector, the training of the regression machine learning, that is, teaching the evaluation score for the movements of various players is repeatedly executed. With sufficient training in this way, new movements can be evaluated by regression machine learning.
The inventor researched suitable feature vectors by performing classification-type machine learning and regression-type machine learning using various feature vectors, and found that feature vectors with good results in classification-type machine learning were regressed. By using it for machine learning, we found the fact that regression-type machine learning can also provide stable evaluation results. The principle of obtaining such a result is not necessarily clear, but it is considered that one of the reasons is that there is no need to change the parameters used for the analysis in the classification and regression of the movement to be evaluated.
In general, regression type machine learning can take various evaluation points, so it is difficult to judge whether the feature vector is good or bad. On the other hand, classification type machine learning trains according to whether it corresponds to the motion to be evaluated. It is considered easy to judge good or bad. In the present invention, since the feature vector is set by classification-type machine learning in which it is easy to determine whether the quality is good or bad, there is an advantage that the accuracy of regression type machine learning can be easily improved.

本発明における評価対象は、特定のプレーや演技の完成度である。前者の例としては、バスケットボールのスクリーンプレーなどチームプレーにおいて複数の選手が連携して行う定型のプレー、柔道や剣道などにおける技などが挙げられる。後者の例としては、フィギュアスケートにおける演技などが挙げられる。
動作データとして読み込むべき動きは、評価対象に応じて決めればよい。例えば、バスケットボールのスクリーンプレーを対象とする場合には、各選手やボールの位置や動きなどを読み込むことになる。柔道等の技やフィギュアスケートにおける演技などを対象とする場合には、選手の位置などに加えて、手足の動きなども読み込むことになる。動きデータをデジタルデータ化する方法には、周知の種々の技術を適用可能である。
本発明は、選手のプレーを評価することで指導に活用する態様、試合において選手の演技を評価することで採点の客観性を向上させる態様、選手の動きに対する審判による評価と本発明による評価とを比較することによって審判の能力判定に利用する態様など、種々の態様で利用することができる。
The evaluation object in the present invention is the completeness of a specific play or performance. Examples of the former include a standard play in which a plurality of players cooperate in team play such as a basketball screen play, a technique in judo or kendo, and the like. Examples of the latter include acting in figure skating.
The movement to be read as operation data may be determined according to the evaluation target. For example, in the case of basketball screen play, the position and movement of each player and ball are read. In the case where a technique such as judo or performance in figure skating is targeted, in addition to the position of the player, the movement of the limbs and the like are also read. Various known techniques can be applied to the method of converting motion data into digital data.
The present invention is an aspect that is used for instruction by evaluating the player's play, an aspect that improves the objectivity of scoring by evaluating the performance of the player in the game, the evaluation by the referee for the movement of the player, and the evaluation according to the present invention. Can be used in various modes, such as a mode used for judging a referee's ability.

本発明において、
前記動作データは、評価対象となるプレーまたは演技を含む一連の動きを表すデータであり、
前記評価部による評価に先だって、前記動作データから、前記評価対象となるプレーまたは演技に該当する部分を、分類型機械学習によって切り出すセグメント化部を備えるものとしてもよい。
In the present invention,
The motion data is data representing a series of movements including play or performance to be evaluated,
Prior to the evaluation by the evaluation unit, a segmentation unit may be provided that extracts, from the motion data, a portion corresponding to the play or performance to be evaluated by classification machine learning.

かかる態様によれば、評価対象となるプレーまたは演技も、本発明によって容易に切り出すことが可能となり、評価者の負担を軽減することができる。例えば、バスケットボールを例にとれば、一試合の中で、スクリーンプレーは多数行われるものであるため、かかるプレーが行われている部分の動きを切り出す労力は軽くない。しかし、上記態様によれば、かかる作業を本発明によって行うことが可能となるのである。
本発明では、上述の切り出し、即ちセグメント化に分類型機械学習を利用する。この機械学習に利用される特徴ベクトルは、動きの評価に用いられるものと同じであるため、本発明では、新たに特徴ベクトルを用意するまでもなく、分類型機械学習を適用可能となる利点がある。
According to this aspect, the play or performance to be evaluated can be easily extracted by the present invention, and the burden on the evaluator can be reduced. For example, in the case of basketball, since many screen plays are performed in one game, the effort to cut out the movement of the part where such play is performed is not light. However, according to the said aspect, this operation | work can be performed by this invention.
In the present invention, classification-type machine learning is used for the above-described segmentation, that is, segmentation. Since the feature vectors used for this machine learning are the same as those used for motion evaluation, the present invention has the advantage that classification machine learning can be applied without preparing a new feature vector. is there.

また、前記セグメント化部は、前記分類型機械学習に先だって、前記動作データから、前記プレーまたは演技に応じて設定された所定の条件を前記選手の動きが満たす区間を抽出し、当該抽出された区間を対象として前記分類型機械学習を適用するものとしてもよい。   In addition, prior to the classification type machine learning, the segmentation unit extracts a section where the movement of the player satisfies a predetermined condition set according to the play or performance from the motion data, and the extracted The classification-type machine learning may be applied to a section.

上述の態様は、分類型機械学習を適用する前に、評価対象となるプレーまたは演技に相当する区間を簡易に抽出するのである。事前の抽出には、機械学習を利用しないため、比較的軽い負荷で処理することが可能である。このように、機械学習を用いない抽出処理と、分類型機械学習との併用により、一連の動作全体に分類型機械学習を適用するよりも、効果的にセグメント化を行うことができる。
抽出に用いる所定の条件は、評価対象となるプレーまたは演技に応じて設定することができる。例えば、バスケットボールのスクリーンプレーであれば、選手間の距離が所定距離内に接近することなどのように条件を設定すればよい。またフィギュアスケートにおけるジャンプであれば、両足が氷から離れていること、などのように条件を設定することができる。抽出のための条件は、一つに限る必要はなく2以上の条件を用いることができる。
In the above-described aspect, before the classification type machine learning is applied, the section corresponding to the play or performance to be evaluated is easily extracted. Since the machine learning is not used for the extraction in advance, it is possible to perform processing with a relatively light load. As described above, the combination of the extraction process that does not use machine learning and the classification machine learning makes it possible to perform segmentation more effectively than the classification machine learning is applied to the entire series of operations.
The predetermined conditions used for extraction can be set according to the play or performance to be evaluated. For example, in the case of basketball screen play, a condition may be set such that the distance between players approaches within a predetermined distance. For jumps in figure skating, conditions can be set such that both feet are away from the ice. The conditions for extraction need not be limited to one, and two or more conditions can be used.

前記セグメント化部は、さらに、前記抽出された複数の区間が一連の区間と判断される場合には、当該複数の区間を一つの区間に融合した上で前記分類型機械学習を適用するものとしてもよい。
選手の動きデータから所定の条件による抽出を行う場合、動きデータに含まれるノイズや、選手の動きが条件を満たすか否かの境界付近にあるときなど、本来は、一連の動きがいくつかに分断される事態が生じる可能性がある。かかる場合に、分断された区間に対して分類型機械学習を適用すると、評価対象となるプレーまたは演技が精度良く判断されない場合も生じ得る。
上記態様は、このように分断された区間を一つの区間に融合する処理を施すことにより、分類型機械学習によるセグメント化の効率および精度を向上させることができる。融合するための条件は、例えば、分断された区間同士の時間間隔などに基づいて任意に設定可能である。
The segmentation unit further applies the classification type machine learning after the plurality of sections are merged into one section when the plurality of sections extracted are determined as a series of sections. Also good.
When extracting from a player's movement data under certain conditions, there are usually a series of movements such as noise included in the movement data and when the player's movement is near the boundary of whether or not the condition is met. There is a possibility that the situation will be divided. In such a case, if the classification-type machine learning is applied to the divided sections, the play or performance to be evaluated may not be accurately determined.
In the above aspect, the efficiency and accuracy of segmentation by classification-type machine learning can be improved by performing a process of fusing the divided sections into one section. The conditions for merging can be arbitrarily set based on, for example, the time interval between divided sections.

セグメント化部を設けるか否かに関わらず、本発明においては、
前記特徴ベクトルは、複数種類の特徴ベクトルおよびその組み合わせに対して、前記分類型機械学習を施し、その結果の評価に基づいて設定されているものとしてもよい。
こうすることにより、複数種類の特徴ベクトルおよびその組み合わせから、評価結果の良いものを選択し得るため、分類型機械学習の精度、ひいては回帰型機械学習の評価精度を向上させることが可能となる。
Regardless of whether or not a segmented portion is provided, in the present invention,
The feature vector may be set based on evaluation of a result obtained by performing the classification machine learning on a plurality of types of feature vectors and combinations thereof.
By doing this, it is possible to select one having a good evaluation result from a plurality of types of feature vectors and combinations thereof. Therefore, it is possible to improve the accuracy of classification-type machine learning, and hence the evaluation accuracy of regression-type machine learning.

本発明は、種々の運動に適用可能であり、例えば、
前記プレーは、バスケットボールにおけるスクリーンプレーであり、
前記特徴ベクトルは、バスケットボールのゴールとの位置関係を考慮せず、該スクリーンプレーに関係する四人の選手の位置関係に基づいて設定されているものとしてもよい。
発明者は、このような特徴ベクトルを用いることにより、バスケットボールにおいて、ボールやゴールの位置に無関係に随所で行われるスクリーンプレーを抽出し評価することが可能となることを見いだした。従って、かかる特徴ベクトルを用いることにより、バスケットボールのスクリーンプレーの抽出や評価における本発明の利用価値を大きく向上することができる。
The present invention is applicable to various exercises, for example
The play is a screen play in basketball,
The feature vector may be set based on the positional relationship of the four players related to the screen play without considering the positional relationship with the basketball goal.
The inventor has found that by using such a feature vector, it is possible to extract and evaluate screen play performed everywhere regardless of the position of the ball or goal in basketball. Therefore, the use value of the present invention in the extraction and evaluation of basketball screen play can be greatly improved by using such feature vectors.

本発明は、上述の種々の特徴を、必ずしも全て備えている必要はなく、適宜、その一部を省略したり組み合わせたりして構成してもよい。
本発明は、上述した運動動作評価システムとしての態様に限らず、コンピュータによって運動動作の評価を行う運動動作評価方法として構成することもできる。また、かかる評価をコンピュータに行わせるためのコンピュータプログラム、およびかかるプログラムを記録したコンピュータ読み取り可能な記録媒体として構成することもできる。ここでコンピュータ読み取り可能な記録媒体としては、フラッシュメモリ、ハードディスク、光ディスクなど種々の媒体を用いることができる。
The present invention does not necessarily include all of the various features described above, and may be configured by omitting or combining some of them as appropriate.
The present invention is not limited to the above-described aspect of the exercise motion evaluation system, but may be configured as an exercise motion evaluation method for evaluating exercise motion by a computer. Moreover, it can also be comprised as a computer program for making a computer perform this evaluation, and a computer-readable recording medium which recorded such a program. Here, as a computer-readable recording medium, various media such as a flash memory, a hard disk, and an optical disk can be used.

運動動作評価システムの構成を示す説明図である。It is explanatory drawing which shows the structure of an exercise | movement motion evaluation system. アクション抽出処理のフローチャートである。It is a flowchart of an action extraction process. アクション抽出の処理例を示す説明図である。It is explanatory drawing which shows the process example of action extraction. プレー識別処理のフローチャートである。It is a flowchart of a play identification process. プレー評価処理のフローチャートである。It is a flowchart of a play evaluation process. 機械学習訓練処理のフローチャートである。It is a flowchart of a machine learning training process. 制限パラメータの評価例を示す説明図である。It is explanatory drawing which shows the example of evaluation of a restriction | limiting parameter. 回帰結果の評価例を示す説明図である。It is explanatory drawing which shows the example of evaluation of a regression result. 第2実施例における審判能力評価システムの構成を示す説明図である。It is explanatory drawing which shows the structure of the referee ability evaluation system in 2nd Example. 審判能力評価処理のフローチャートである。It is a flowchart of a referee ability evaluation process.

以下、バスケットボールのスクリーンプレーを評価するシステムとして構成した場合を例にとって運動動作評価システムの実施例を説明する。即ち、実施例の運動動作評価システムは、バスケットボールをプレーする選手の動きをデジタルデータとして入力し、一連の動きの中からスクリーンプレーと呼ばれるプレーに該当する箇所を抽出し、スクリーンプレーとしての完成度を評価するシステムである。
ここで、簡単にスクリーンプレーについて説明する。バスケットボールでは、攻撃選手に対して守備選手が1対1で対応することが多い。このような場合に、攻撃選手の1人(この選手を「スクリーナ」と呼ぶ)が、他の攻撃選手(この選手を「ユーザ」と呼ぶ)に接近し、ユーザについている守備選手(この選手を「ユーザディフェンス」と呼ぶ)の動きをブロックするのである。こうすることで、ユーザは、スクリーナを利用してユーザディフェンスをかわし、フリーでプレーすることができるようになる。かかるプレーは、ボールを所持している攻撃選手をユーザとして行うこともあれば、ボールを所持していない選手をユーザとして、ユーザがパスを受け取りやすくするために行うこともある。実際の各選手の動きは、プレーの中の位置関係により変動するが、スクリーナがユーザに接近し、ユーザディフェンスの動きをブロックする点で共通しているという意味で、スクリーンプレーは、バスケットボールにおける定型プレーの一つである。
実施例では、評価の対象をスクリーンプレーに限定しているが、本発明は、この他にも種々の競技、種々のプレーや演技に適用可能である。
Hereinafter, an example of an athletic motion evaluation system will be described taking as an example a system configured to evaluate a basketball screen play. In other words, the movement evaluation system of the embodiment inputs the movement of a player playing basketball as digital data, extracts a portion corresponding to a play called screen play from a series of movements, and completes the screen play. It is a system that evaluates.
Here, the screen play will be briefly described. In basketball, defensive players often respond one-on-one to attacking players. In such a case, one of the attacking players (this player is referred to as “screener”) approaches another attacking player (this player is referred to as “user”), and the defensive player (this player is referred to as “player”). "User defense") is blocked. By doing so, the user can use the screener to dodge the user defense and play for free. Such a play may be performed as an attacking player who possesses the ball as a user or a player who does not possess the ball as a user so that the user can easily receive a pass. The actual movement of each player varies depending on the positional relationship in the play, but screen play is a standard in basketball in the sense that the screener is close to the user and blocks the movement of the user defense. One of the plays.
In the embodiment, the object of evaluation is limited to screen play, but the present invention can be applied to various other games, various plays and performances.

A.システム構成:
図1は、運動動作評価システムの構成を示す説明図である。実施例の運動動作評価システムは、図1に示す各機能を実現するためのコンピュータプログラムを、CPU、RAM、ROMなどを備えたコンピュータにインストールことによってソフトウェア的に構成されている。図示した機能の一部または全部をハードウェア的に構成することも可能である。
また、実施例では、スタンドアロンで稼働するコンピュータによってシステムが実現される例を示すが、ネットワークで接続された複数のコンピュータやサーバによって構成されるシステムとしてもよい。
以下、図中の各機能について説明する。
A. System configuration:
FIG. 1 is an explanatory diagram showing a configuration of an exercise motion evaluation system. The exercise motion evaluation system according to the embodiment is configured by software by installing a computer program for realizing each function shown in FIG. 1 in a computer having a CPU, a RAM, a ROM, and the like. It is also possible to configure a part or all of the illustrated functions as hardware.
In the embodiment, an example in which the system is realized by a stand-alone computer is shown, but a system including a plurality of computers and servers connected via a network may be used.
Hereinafter, each function in the figure will be described.

動きデータ入力部11は、バスケットボールをプレーする選手やボールの動きをデジタルデータ(以下、「動きデータ」と称する)として入力する機能を奏する。入力する動きデータとしては、例えば、選手の位置、移動方向、移動速度、ボールの位置、ゴールの位置などが挙げられる。かかるデータは、プレー中の選手をコート周辺の複数のカメラで撮影して、各選手やボールの位置を特定する方法などによって生成することができる。コートを真上から見下ろすカメラを設置し、2次元的に選手の位置を把握するようにしてもよい。選手の動き等をデジタルデータとして取得する方法は、既に確立された周知の技術が存在するため、詳細な説明は省略する。
本実施例では、スクリーンプレーを評価するが、入力する動きデータは、スクリーンプレーが行われている場面だけでなく、バスケットボールの競技中の一連の動きを表すものである。
The movement data input unit 11 has a function of inputting the movement of a player who plays basketball or the ball as digital data (hereinafter referred to as “movement data”). Examples of the motion data to be input include a player position, a moving direction, a moving speed, a ball position, a goal position, and the like. Such data can be generated by, for example, a method in which a player who is playing is photographed with a plurality of cameras around the court and the position of each player or ball is specified. A camera that looks down on the court from directly above may be installed so as to grasp the position of the player two-dimensionally. Since there is a well-known technique already established as a method for acquiring a player's movement or the like as digital data, a detailed description thereof will be omitted.
In this embodiment, the screen play is evaluated, but the input motion data represents not only the scene where the screen play is being performed but also a series of movements during the basketball game.

本実施例では、選手の位置等を動きデータとして入力するが、柔道や剣道の技やスケートの演技などを評価する場合には、選手の位置等に加えて選手の手足の動きなどを動きデータとして入力するようにしてもよい。このように入力すべき動きデータは、評価対象となるプレーや演技に応じて適宜、設定することができる。   In this embodiment, the position of the player is input as movement data. However, when evaluating judo or kendo skills, skating performance, etc., the movement data of the athlete's limbs in addition to the position of the athlete is used. You may make it input as. The motion data to be input in this way can be set as appropriate according to the play or performance to be evaluated.

動きデータ記憶部12は、入力された動きデータを格納する。ハードディスクや大容量のメモリなどによって構成することができる。
アクション抽出部13は、動きデータ記憶部12に格納された動きデータから、動作の評価対象であるスクリーンプレーが行われている場面のみを抽出する。抽出された一つ一つの場面を、アクションと呼ぶこともある。
アクションデータ記憶部14は、アクション抽出部13によって抽出されたアクションを格納する。
The motion data storage unit 12 stores the input motion data. It can be constituted by a hard disk or a large-capacity memory.
The action extraction unit 13 extracts from the motion data stored in the motion data storage unit 12 only the scene where the screen play that is the object of motion evaluation is being performed. Each extracted scene is sometimes called an action.
The action data storage unit 14 stores the actions extracted by the action extraction unit 13.

識別処理部15は、抽出されたアクションに対して、分類型機械学習を用いて、スクリーンプレーに該当する場面をさらに絞り込み、その結果に基づき、アクションデータ記憶部14の内容を更新する。本実施例では教師付機械学習の一つであるサポートベクターマシンを用いている。
特徴ベクトル記憶部16は、識別処理部15の分類型機械学習で用いられる特徴ベクトルを記憶する。特徴ベクトル記憶部16は、識別処理部15と別の構成として図示しているが、必ずしも識別処理部15と別個のデータベースを構築する必要はなく、識別処理部15に組み込む形で用意するようにしてもよい。
評価処理部17は、アクションデータ記憶部14に格納されたスクリーンプレーのアクションに対して回帰型機械学習により評価を行う。本実施例では、教師付機械学習の一つであるサポートベクター回帰を用いている。本実施例では、回帰型機械学習において用いる特徴ベクトルは、識別処理部15が用いるものと共通にしており、いずれも特徴ベクトル記憶部16に記憶されている。識別処理部15と同様、特徴ベクトル記憶部16は、評価処理部17に組み込む形で用意するようにしてもよい。
The identification processing unit 15 further narrows down the scenes corresponding to the screen play using the classification-type machine learning for the extracted actions, and updates the contents of the action data storage unit 14 based on the result. In this embodiment, a support vector machine which is one of supervised machine learning is used.
The feature vector storage unit 16 stores a feature vector used in the classification machine learning of the identification processing unit 15. Although the feature vector storage unit 16 is illustrated as a separate configuration from the identification processing unit 15, it is not always necessary to construct a database separate from the identification processing unit 15, and the feature vector storage unit 16 is prepared by being incorporated in the identification processing unit 15. May be.
The evaluation processing unit 17 evaluates the screen play action stored in the action data storage unit 14 by regression machine learning. In this embodiment, support vector regression which is one of supervised machine learning is used. In this embodiment, the feature vectors used in the regression machine learning are the same as those used by the identification processing unit 15, and both are stored in the feature vector storage unit 16. Similar to the identification processing unit 15, the feature vector storage unit 16 may be prepared by being incorporated in the evaluation processing unit 17.

上述の通り、本実施例では、識別処理部15、評価処理部17において、機械学習を適用する。機械学習においては、十分な精度を実現するために、予めシステムにスクリーンプレーの識別やその評価について学習させる必要がある。この点で、本実施例では、教師付の機械学習、特にサポートベクターマシンおよびサポートベクター回帰を利用していることになる。   As described above, in the present embodiment, machine learning is applied in the identification processing unit 15 and the evaluation processing unit 17. In machine learning, in order to achieve sufficient accuracy, it is necessary to have the system learn in advance about screen play identification and evaluation. In this regard, this embodiment uses supervised machine learning, particularly support vector machine and support vector regression.

上述の学習、即ち訓練を行わせる機能を奏するのが、訓練部20である。訓練部20において、教師データ設定部23は、アクションデータ記憶部14に格納された訓練用のアクションに対する教師データを設定し、これを教師データ記憶部22に記憶する。
教師データとは、例えば、スクリーンプレーを識別するための分類型機械学習であれば、アクションがスクリーンプレーか否かという「正解」を表すデータとなる。教師データは、アクションをオペレータに再生表示し、オペレータが各アクションに対する「正解」を入力することによって生成することができる。
教師データは、回帰型機械学習の場合には、アクションに対して、スクリーンプレーとしての完成度を表すデータとなる。このデータも、アクションを再生表示し、オペレータが、評価値を入力することによって生成することができる。
The training unit 20 performs the above-described learning, that is, the function of performing training. In the training unit 20, the teacher data setting unit 23 sets teacher data for the training action stored in the action data storage unit 14, and stores this in the teacher data storage unit 22.
For example, in the case of categorized machine learning for identifying screen play, the teacher data is data representing a “correct answer” indicating whether the action is screen play. The teacher data can be generated by reproducing and displaying the action to the operator and inputting the “correct answer” for each action by the operator.
In the case of regression machine learning, the teacher data is data representing the degree of completion as a screen play for an action. This data can also be generated by reproducing and displaying the action and inputting an evaluation value by the operator.

機械学習訓練処理部21は、教師データを用いて、識別処理部15および評価処理部17の訓練を行う。つまり、アクションデータ記憶部14に記憶されたアクションに対して、識別処理部15にスクリーンプレーか否かの識別を行わせ、また評価処理部17にその評価を行わせた上、教師データ記憶部22に用意された教師データを参照して、「正解」を提供するという処理を繰り返し実行するのである。   The machine learning training processing unit 21 trains the identification processing unit 15 and the evaluation processing unit 17 using the teacher data. That is, the action stored in the action data storage unit 14 is identified by the identification processing unit 15 as to whether or not it is screen play, and the evaluation processing unit 17 performs the evaluation, and then the teacher data storage unit The process of providing the “correct answer” is repeatedly executed with reference to the teacher data prepared in 22.

図1の例では、訓練部20を備えるシステム構成を示したが、識別処理部15および評価処理部17の訓練が完了した後は、訓練部20を省略した構成をとることもできる。即ち、訓練によって新たな動きデータについて十分な精度で評価可能な識別処理部15および評価処理部17が得られた後は、これを移植する方法で、訓練部20を省略したシステムを製造するようにしてもよい。   In the example of FIG. 1, the system configuration including the training unit 20 is shown. However, after the training of the identification processing unit 15 and the evaluation processing unit 17 is completed, a configuration in which the training unit 20 is omitted can be employed. That is, after the identification processing unit 15 and the evaluation processing unit 17 that can evaluate new motion data with sufficient accuracy by training are obtained, a system in which the training unit 20 is omitted is manufactured by a method of transplanting the identification processing unit 15 and the evaluation processing unit 17. It may be.

B.アクション抽出処理:
図2は、アクション抽出処理のフローチャートである。これは、運動動作評価システム10に記憶された動きデータ記憶部12から評価対象となるプレー、即ち本実施例ではスクリーンプレーを抽出する処理であり、図1におけるアクション抽出部13が実行する処理に該当する。抽出は、機械学習ではなく、選手の動きが所定の条件(以下、「クライテリア」と呼ぶこともある)を満たすか否かによって行う。つまり、ここで行うアクション抽出処理は、後に機械学習によってスクリーンプレーを切り出す処理を実行するための前処理に相当するものである。
この処理は、全動きデータを所定の時間間隔で区切った場面ごとの処理を繰り返し実行することで、動きデータの全体について行われるものである。場面を区切る時間間隔は、任意に設定可能であるが、本実施例では、1秒以下の区切りとし、25〜100Hzの周波数で処理が行われる間隔、つまり0.01〜0.04秒間隔とした。
B. Action extraction process:
FIG. 2 is a flowchart of the action extraction process. This is a process of extracting a play to be evaluated from the motion data storage unit 12 stored in the exercise motion evaluation system 10, that is, a screen play in this embodiment, and is a process executed by the action extraction unit 13 in FIG. Applicable. The extraction is performed not by machine learning but by whether or not the player's movement satisfies a predetermined condition (hereinafter also referred to as “criteria”). That is, the action extraction process performed here corresponds to a pre-process for executing a process of cutting out screen play by machine learning later.
This process is performed on the entire motion data by repeatedly executing the process for each scene obtained by dividing all the motion data at a predetermined time interval. The time interval for dividing the scene can be arbitrarily set. In this embodiment, the interval is set to 1 second or less, and the processing is performed at a frequency of 25 to 100 Hz, that is, 0.01 to 0.04 second. did.

処理を開始すると、運動動作評価システム10は、動きデータ記憶部12から動きデータを入力する(ステップS10)。そして、シュートを行っている箇所を抽出する(ステップS11)。シュートを行っているか否かは、ボールが選手を離れてゴールに向かって移動しているかなど、ボールの動きに着目することにより、比較的容易に特定することができる。   When the process is started, the motion motion evaluation system 10 inputs motion data from the motion data storage unit 12 (step S10). And the location which has shot is extracted (step S11). Whether or not the player is shooting can be identified relatively easily by paying attention to the movement of the ball, such as whether the ball is moving toward the goal after leaving the player.

次に、運動動作評価システム10は、スクリーナ(図中等で「S」と略記することがある)候補を選択する(ステップS12)。そして、ユーザ(図中等で「U」と略記することがある)およびユーザディフェンス(図中等で「UD」と略記することがある)の各候補を選択する(ステップS13)。本実施例では、ユーザ候補としてスクリーナに近い攻撃選手2人を選択し、ユーザディフェンス候補としてスクリーナに近い守備選手3人を選択するものとした。ユーザおよびユーザディフェンスの候補は、かかる条件に限らず、種々の条件に基づいて選択することができる。スクリーナ以外の全選手をユーザ候補とし、全守備選手をユーザディフェンス候補としても差し支えない。   Next, the exercise motion evaluation system 10 selects a screener (may be abbreviated as “S” in the figure) (step S12). Then, each candidate of the user (sometimes abbreviated as “U” in the figure) and the user defense (sometimes abbreviated as “UD” in the figure) is selected (step S13). In this embodiment, two attacking players close to the screener are selected as user candidates, and three defense players close to the screener are selected as user defense candidates. The user and user defense candidates are not limited to such conditions, and can be selected based on various conditions. All players other than the screener may be user candidates, and all defense players may be user defense candidates.

運動動作評価システム10は、これらの3選手の位置関係等を用いたクライテリアに基づいてシグナルを判定する(ステップS14)。判定中の場面が3つの条件を全て満たす場合には、スクリーンプレーに該当するものと判断してシグナルをオンとし、そうでない場合にはシグナルをオフとする。判断するための3条件は、次の通りである。
条件(1)「スクリーナ(S)とユーザディフェンス(UD)との距離≦1.2m」であること。スクリーンプレーの特徴的な位置関係である、スクリーナがユーザディフェンスに接近していることを表している。
条件(2)「ユーザディフェンス(UD)がユーザ(U)にとって最も近い」こと。スクリーナの近くにいる自身の守備選手がユーザディフェンス候補として選択されている場合に、スクリーンプレーに無関係に条件(1)を満たす可能性があることから、スクリーナが自身の守備ではなくユーザディフェンスに接近しているという形でスクリーンプレーの特徴的な位置関係を条件(2)としたものである。
条件(3)「シュートされていない」ことである。スクリーンプレーは、シュートしていない場面で利用されるものだからである。
The exercise motion evaluation system 10 determines a signal based on criteria using the positional relationship of these three players (step S14). If the scene being determined satisfies all three conditions, it is determined that the scene corresponds to screen play, and the signal is turned on. Otherwise, the signal is turned off. The three conditions for determining are as follows.
Condition (1) “Distance between screener (S) and user defense (UD) ≦ 1.2 m”. This indicates that the screener is approaching the user defense, which is a characteristic positional relationship of screen play.
Condition (2) “User defense (UD) is closest to user (U)”. If a defender near the screener is selected as a user defense candidate, the conditioner (1) may be satisfied regardless of screen play, so the screener approaches the user defense instead of his defense. The characteristic positional relationship of screen play is defined as condition (2).
Condition (3) “Not shot”. This is because screen play is used in scenes that are not shot.

ここで、理解を助けるために、シグナルの判定処理例を示す。
図3は、アクション抽出の処理例を示す説明図である。上段に、攻撃選手を丸、守備選手を三角で各場面の位置関係を模式的に示した。上段左側は、スクリーナ(S)が、矢印s1方向に移動し、ユーザディフェンス(UD)に接近しようとしている場面を表している。中央は、ユーザ(U)が矢印u1方向に移動しているが、スクリーナ(S)がユーザディフェンス(UD)の動きをブロックしているため、ユーザディフェンス(UD)は矢印ud1のように回り込んでユーザ(U)についていかざるを得なくなっている場面を表している。右側は、ユーザ(U)、ユーザディフェンス(UD)がスクリーナ(S)から離れ、それぞれ矢印u2、ud2のように移動している場面を表している。ユーザディフェンス(UD)の軌跡は破線dのように迂回した軌跡となっており、この結果、ユーザ(U)を後ろから追いかける状態、即ちスクリーンプレーが成功した状態を表している。
Here, in order to help understanding, an example of signal determination processing is shown.
FIG. 3 is an explanatory diagram showing an example of action extraction processing. In the upper row, the position of each scene is shown schematically with the attacking player as a circle and the defensive player as a triangle. The upper left side represents a scene in which the screener (S) moves in the direction of the arrow s1 and approaches the user defense (UD). In the center, the user (U) moves in the direction of the arrow u1, but the screener (S) blocks the movement of the user defense (UD), so the user defense (UD) turns around as indicated by the arrow ud1. Represents a scene in which the user (U) has to be dealt with. The right side shows a scene where the user (U) and the user defense (UD) move away from the screener (S) and move as indicated by arrows u2 and ud2, respectively. The locus of the user defense (UD) is a locus detoured as indicated by a broken line d, and as a result, represents a state in which the user (U) is chased from behind, that is, a screen play has been successful.

上から2段目に、シグナルの判定結果を示した。上段に示した各場面について、図2のステップS14で説明した3つの条件を判断することにより、シグナルのオン・オフを決定することができる。図3中には、シグナルオンの場面、即ち3条件を全て満たす場面に〇、そうでない場面に×を示した。
最上段左側のスクリーンプレー開始前の場面では、概ねシグナルオフ(×)が続き、スクリーンプレー中の中央の場面では、概ねシグナルオン(〇)が続き、スクリーンプレー後の右側の場面では、概ねシグナルオフ(×)の場面が続く結果となる。ただし、図中のスクリーンプレー開始前の場面では、「××〇×・・・」というように、シグナルオフ(×)が続きながらも、1カ所だけシグナルオン(〇)が現れている。このように、動きデータに含まれる選手の位置関係等には、誤差やノイズが含まれるため、それぞれの場面で、ごく短期間、前後の場面とは異なるシグナル判定がなされることも生じ得る。
The signal determination results are shown in the second row from the top. For each scene shown in the upper part, it is possible to determine whether the signal is on or off by judging the three conditions described in step S14 of FIG. In FIG. 3, “X” is shown for a signal-on scene, that is, a scene that satisfies all three conditions, and “X” for a scene that does not.
In the scene before the start of the screen play on the left side of the top row, the signal off (×) generally continues, in the center scene during the screen play, the signal on (○) generally continues, and in the right scene after the screen play, the signal is approximately The result is an off (x) scene. However, in the scene before the start of screen play in the figure, the signal ON (O) appears only at one place, although the signal OFF (X) continues as "XX OX ...". As described above, since the positional relationship of the players included in the motion data includes errors and noise, it may occur that a signal determination different from the preceding and following scenes is made in each scene for a very short period of time.

図2に戻り、次の処理を説明する。シグナル判定を終えると、運動動作評価システム10は、ノイズ除去処理を実行する(ステップS15)。シグナルオンとされたもののうち次のいずれかの条件を満たすものを、不適切として除外する処理である。
条件(1)「シグナル長さ≦0.1秒」であること。極端に短いシグナルは、ノイズと判断されるからである。
条件(2)「遠回り距離=0m」であること。遠回り距離とは、ユーザディフェンス(UD)が、スクリーナ(S)の動きによって迂回させられた移動距離のことを言う。遠回り距離が0mということは、スクリーンプレーを行ったとは判断できないため、かかる条件に該当するものを除外するのである。
Returning to FIG. 2, the next process will be described. When the signal determination is finished, the exercise motion evaluation system 10 executes a noise removal process (step S15). This is a process of excluding those that satisfy any of the following conditions from the signal-on state as inappropriate.
Condition (1) “Signal length ≦ 0.1 seconds”. This is because an extremely short signal is judged as noise.
Condition (2) “Circumstance distance = 0 m”. The circuitous distance refers to a moving distance that the user defense (UD) is detoured by the movement of the screener (S). If the circuitous distance is 0 m, it cannot be determined that the screen play has been performed, and thus those that meet such a condition are excluded.

図3で、ノイズ除去処理について説明する。上から3段目に、ノイズ除去処理の結果を示した。各場面の間が時間間隔0.1秒程度であるとすれば、先に行ったシグナル判定(上から2段目)において、シグナルオン(〇)が2つ以上続いていない部分が条件(1)を満たす部分と判断される。この結果、2段目の最初の方にある「××〇×」の部分、および最後の方にある「×××〇××」の部分におけるシグナルオン「〇」が、それぞれノイズと判断され、シグナルオフ「×」に置換される。条件(1)の判断基準となる時間間隔は、任意に設定可能である。
条件(2)は、上段右側に示したユーザディフェンス(UD)の軌跡dに基づいて判断できる。スクリーナ(S)が不在の状態で、ユーザ(U)に追随するようにユーザディフェンス(UD)が移動する軌跡に対して、スクリーナ(S)が存在する状態でどれだけユーザディフェンス(UD)が遠回りしたかを判断すればよい。条件(2)の判断も任意の方法で行うことができる。例えば、ユーザディフェンス(UD)の移動距離ではなく、スクリーナ(S)の有無で移動軌跡の変形の程度などに基づいて遠回りか否かを判定しても良い。また、条件(2)は、ノイズ除去処理から除外しても差し支えない。
The noise removal process will be described with reference to FIG. The result of noise removal processing is shown in the third row from the top. Assuming that the interval between scenes is about 0.1 seconds, in the first signal determination (second stage from the top), the portion where two or more signal on (O) does not continue is the condition (1 ). As a result, the signal ON “◯” in the “XX ○ ×” part at the beginning of the second stage and the “XXX XX” part at the end is judged as noise. , Signal off “x” is replaced. The time interval that is the criterion for the condition (1) can be arbitrarily set.
The condition (2) can be determined based on the locus d of the user defense (UD) shown on the upper right side. How far the user defense (UD) makes a detour with the screener (S) present against the trajectory of the user defense (UD) moving to follow the user (U) in the absence of the screener (S) You just have to judge whether The determination of the condition (2) can also be made by an arbitrary method. For example, it may be determined whether it is a detour based on the degree of deformation of the movement trajectory based on the presence or absence of the screener (S), not the movement distance of the user defense (UD). Further, the condition (2) may be excluded from the noise removal process.

図2に戻り、次の処理を説明する。ノイズ除去処理を終えると、運動動作評価システム10は、融合処理を実行する(ステップS16)。融合処理は、シグナルオンとされた場面のうち、分断されているものを一連のプレーとして融合する処理である。本実施例では、次の3条件を満たすもの同士を融合するものとした。
条件(1)「スクリーナ(S)、ユーザ(U)、ユーザディフェンス(UD)が同一」であること。スクリーンプレーに関わる選手が異なる場合には、別のプレーと判断されるからである。
条件(2)「セグメント間の間隔≦3秒」であること。セグメントとは、シグナルオンが一定期間連続したひとまとまりの区間を言う。セグメント間の間隔が大きい場合には、別のプレーと判断されるため、3秒以下の場合に限って融合対象とした。判断基準となる「3秒」という間隔については、任意に設定可能である。
条件(3)「シュートを挟んでいない」ことである。シュートの前後に行われたプレーは、別のプレーと考えられるからである。
Returning to FIG. 2, the next process will be described. When the noise removal process is finished, the exercise motion evaluation system 10 executes the fusion process (step S16). The fusion process is a process of fusing the divided scenes of the signal-on scenes as a series of plays. In this embodiment, those satisfying the following three conditions are fused.
Condition (1) “screener (S), user (U), and user defense (UD) are the same”. This is because if the players involved in the screen play are different, it is determined that they are different.
Condition (2) “interval between segments ≦ 3 seconds”. A segment refers to a group of segments in which signal-on is continued for a certain period. When the interval between the segments is large, it is determined that the play is different. The interval of “3 seconds” that serves as a determination criterion can be arbitrarily set.
Condition (3) “A chute is not sandwiched”. This is because the play performed before and after the shot is considered as another play.

図3で、融合処理について説明する。ノイズ除去の結果、図中に示すようにシグナルオンが連続するセグメント1、セグメント2が見いだされている。セグメント1、2の間は、図中では、「××」となっており、非常に短期間であることが分かる。従って、条件(2)を満たしている。そこで、セグメント1、2のスクリーナ(S)、ユーザ(U)、ユーザディフェンス(UD)が同一(条件(1))、シュートを挟んでいない(条件(3))を満たす場合には、セグメント1、2を融合し、一つのセグメント3とするのである。   The fusion process will be described with reference to FIG. As a result of noise removal, segment 1 and segment 2 in which signal-on continues are found as shown in the figure. Between the segments 1 and 2, “XX” is shown in the figure, and it can be seen that the period is very short. Therefore, the condition (2) is satisfied. Therefore, if the screener (S), the user (U), and the user defense (UD) of the segments 1 and 2 satisfy the same condition (condition (1)) and do not sandwich the chute (condition (3)), the segment 1 2 are merged into one segment 3.

図2に戻り、次の処理を説明する。融合処理を終えると、運動動作評価システム10は、アクション開始、終了時刻を決定する(ステップS17)。融合処理(ステップS16)までの処理で得られるセグメントは、シグナルオン、即ちステップS14で説明した条件を満たす場面のみを抽出したものである。しかし、スクリーンプレーに該当するか否かの判断や、プレーの完成度の評価を行うには、ステップS14で示した位置関係を満たす場面だけでなく、その前後の動きも含めて判断するする必要がある。そこで、ステップS17の処理では、セグメントの前後に、スクリーンプレー開始前後の一定期間を追加し、この一連の区間をスクリーンプレーの評価対象となる一定の期間とするものとした。この一定の期間をアクションと呼ぶものとする。
即ち、本実施例では、シグナル開始の0.5秒前をアクションの開始時刻とし、シグナル終了の3.0秒後をアクションの終了時刻と設定するものとしている(ステップS17)。
Returning to FIG. 2, the next process will be described. When the fusion process is finished, the exercise motion evaluation system 10 determines the action start and end times (step S17). The segment obtained by the processing up to the fusion processing (step S16) is obtained by extracting only the scenes that satisfy the signal ON, that is, the conditions described in step S14. However, in order to determine whether or not it corresponds to screen play and to evaluate the completeness of play, it is necessary to determine not only the scene satisfying the positional relationship shown in step S14 but also the movement before and after that. There is. Therefore, in the process of step S17, a fixed period before and after the start of screen play is added before and after the segment, and this series of sections is set as a fixed period to be evaluated for screen play. This fixed period is called an action.
That is, in this embodiment, the action start time is set 0.5 seconds before the start of the signal, and the action end time is set 3.0 seconds after the end of the signal (step S17).

図3で、アクション開始、終了時刻の決定処理について説明する。融合処理によって、セグメント3が特定されているものとする。運動動作評価システム10は、セグメント3の最も早い場面を特定し、その0.5秒前をアクション開始時刻とするのである。また、セグメント3の最も遅い場面を特定し、その3.0秒後をアクション終了時刻とするのである。この結果、セグメント3の前後に、シグナルオフ(×)の期間を含むアクションが設定される。   The action start / end time determination process will be described with reference to FIG. Assume that segment 3 is specified by the fusion processing. The motion motion evaluation system 10 identifies the earliest scene in the segment 3 and sets the action start time 0.5 seconds before that. Also, the latest scene of segment 3 is specified, and the action end time is 3.0 seconds later. As a result, before and after the segment 3, an action including a signal off (×) period is set.

図2に戻り、次の処理を説明する。運動動作評価システム10は、以上の処理を全スクリーナ候補について終了するまで繰り返し実行する(ステップS18)。以上の処理によって、全プレーの中から、スクリーンプレーに該当すると考えられるアクションが特定される。
図2で説明したアクション抽出処理は、所定のクライテリアを満たす場面を抽出する処理であるため、後述する機械学習を利用した識別処理よりも容易に判定できる利点がある。本実施例では、機械学習による処理の前に、このようなアクション抽出処理を実行することにより、スクリーンプレーを効率的に識別することが可能となる利点がある。
本実施例では、人間の目視でスクリーンプレーと判断される144のプレーのうち、140がアクションとして抽出された。つまり、本実施例の処理は、97.2%(140/144)の精度であることが確認された。本実施例で用いた条件は、任意に設定可能であり、図2で説明した以外の条件を用いるものとしてもよい。
Returning to FIG. 2, the next process will be described. The motion motion evaluation system 10 repeatedly executes the above processing until all the screener candidates are completed (step S18). Through the above processing, an action that is considered to be a screen play is specified from all the plays.
Since the action extraction process described in FIG. 2 is a process for extracting a scene that satisfies a predetermined criterion, there is an advantage that it can be determined more easily than an identification process using machine learning described later. This embodiment has an advantage that screen play can be efficiently identified by executing such action extraction processing before processing by machine learning.
In this example, 140 out of 144 plays judged as screen play by human eyes were extracted as actions. That is, it was confirmed that the processing of this example had an accuracy of 97.2% (140/144). The conditions used in this embodiment can be arbitrarily set, and conditions other than those described in FIG. 2 may be used.

C.プレー識別処理:
次にプレー識別処理について説明する。この処理は、分類型機械学習を利用してスクリーンプレーか否かを識別する処理であり、図1における識別処理部15が実行する処理である。本実施例では、機械学習として、サポートベクターマシンを用いる。
図4は、プレー識別処理のフローチャートである。処理を開始すると、運動動作評価システム10は、アクション抽出処理の結果を読み込む(ステップS30)。
そして、読み込んだ中から、識別の対象となるアクションを選択し(ステップS31)、これについて機械学習による識別に用いるための特徴量を抽出する(ステップS32)。そして、機械学習によるプレー識別を実行するのである(ステップS33)。運動動作評価システム10は、これらの処理を全アクションについて終了するまで実行し(ステップS34)、スクリーンプレーに該当するアクションを出力する(ステップS35)。
C. Play identification process:
Next, the play identification process will be described. This process is a process for identifying whether or not the screen play is performed using classification machine learning, and is a process executed by the identification processing unit 15 in FIG. In this embodiment, a support vector machine is used as machine learning.
FIG. 4 is a flowchart of the play identification process. When the process is started, the exercise motion evaluation system 10 reads the result of the action extraction process (step S30).
Then, an action to be identified is selected from the read information (step S31), and a feature amount to be used for identification by machine learning is extracted (step S32). Then, play identification by machine learning is executed (step S33). The exercise motion evaluation system 10 executes these processes for all actions (step S34), and outputs an action corresponding to screen play (step S35).

上述の処理で用いる特徴ベクトルは、任意に設定可能であるが、本実施例では、次の5種類の変数を候補とした。
(1)アクション開始時刻からアクション終了時刻までの距離の最小値(「最小距離」と言う);
(2)アクション開始時刻の距離と最小距離との差違;
(3)アクション開始時刻の距離から最小距離に至るまでの距離の平均値;
(4)最小距離とアクション終了時刻における距離との差違;
(5)最小距離とアクション終了時刻の距離に至るまでの距離の平均値;
それぞれの距離は、スクリーナ(S)、ユーザ(U)候補(2人)、ユーザディフェンス(UD)の間で算出する。スクリーンプレーは、ボールおよびゴールと無関係の場所で行われることもあるため、特徴ベクトルにおいてボールおよびゴールとの距離は考慮しないものとした。
The feature vector used in the above process can be arbitrarily set, but in the present embodiment, the following five types of variables are used as candidates.
(1) The minimum distance from the action start time to the action end time (referred to as “minimum distance”);
(2) The difference between the distance of the action start time and the minimum distance;
(3) Average value of distance from the distance of the action start time to the minimum distance;
(4) Difference between the minimum distance and the distance at the action end time;
(5) Average value of the distance to reach the minimum distance and the distance of the action end time;
Each distance is calculated among the screener (S), the user (U) candidates (two people), and the user defense (UD). Since the screen play may be performed at a place unrelated to the ball and the goal, the distance from the ball and the goal is not considered in the feature vector.

本実施例では、上述の5つの変数のあらゆる組み合わせ、即ち(2−1)通りの組み合わせで機械学習を行い、その成績を評価した。成績の評価方法については後述する。そして、その成績が最も良かった変数(1)(3)(4)の組み合わせを選択した。
また、更に
(6)アクションの開始時刻から終了時刻までの移動距離;
を変数として追加した。
以上の結果、本実施例では、変数(1)(3)(4)(6)を特徴ベクトルとして用いるものとした。
本実施例では、以上で説明した特徴ベクトルに基づく機械学習を用いることにより、スクリーンプレーを精度良く識別することが可能となった。
In this example, machine learning was performed with all combinations of the above five variables, that is, (2 5 −1) combinations, and the results were evaluated. A method for evaluating the grade will be described later. Then, the combination of variables (1), (3), and (4) that had the best results was selected.
And (6) the distance traveled from the start time to the end time of the action;
Was added as a variable.
As a result, in this embodiment, the variables (1), (3), (4), and (6) are used as feature vectors.
In the present embodiment, it is possible to identify the screen play with high accuracy by using the machine learning based on the feature vector described above.

D.プレー評価処理:
次にプレー評価処理について説明する。この処理は、図4までのスクリーン識別処理によってスクリーンプレーと識別されたアクションについて、スクリーンプレーとしての完成度を評価する処理であり、図1における評価処理部17が実行する処理である。本実施例の評価には、回帰型機械学習を用いており、本実施例では、その一つであるサポートベクター回帰を利用する。即ち、予めいくつかのスクリーンプレーに対して評価結果を教師データとして与えることにより、運動動作評価システム10を訓練し、その訓練結果に基づいて、新たなスクリーンプレーに対して完成度を点数等で評価するのである。
D. Play evaluation process:
Next, the play evaluation process will be described. This process is a process for evaluating the degree of completion as a screen play for the action identified as the screen play by the screen identification process up to FIG. 4, and is a process executed by the evaluation processing unit 17 in FIG. For the evaluation of this embodiment, regression machine learning is used, and in this embodiment, support vector regression, which is one of them, is used. That is, by giving the evaluation results for some screen plays in advance as teacher data, the exercise motion evaluation system 10 is trained, and based on the training results, the degree of completion for the new screen play is indicated by a score or the like. Evaluate.

図5は、プレー評価処理のフローチャートである。処理を開始すると、運動動作評価システム10は、スクリーンプレーであると識別されたアクションを読み込み(ステップS40)、特徴量を算出する(ステップS41)。ここで用いる特徴量は、任意に設定可能であるが、本実施例では、スクリーン識別処理(図4)で用いるものと同じものとした。運動動作評価システム10は、この特徴量に基づいて、機械学習を用いたプレー評価を行い(ステップS42)、その結果を出力する(ステップS43)。
このように本実施例のプレー評価処理によれば、サポートベクター回帰を利用することによりスクリーンプレーを客観的に評価することができる。本実施例では、上述の通り、分類型機械学習においてスクリーンプレーの識別に適した特徴ベクトルを見いだし、この特徴ベクトルを回帰型機械学習でも共通して利用する。こうすることにより、回帰型機械学習も安定した評価結果を得られるという事実が見いだされたからである。かかる結果が得られる原理は、必ずしも明確にはなっていないが、評価対象となる動きの分類と回帰で、その分析に用いるパラメータを変える必要性はないことが一つの理由として考えられる。また、このように良否を判断しやすい分類型機械学習で特徴ベクトルを設定することにより、回帰型機械学習の精度を容易に向上させることが可能となる利点がある。
FIG. 5 is a flowchart of the play evaluation process. When the processing is started, the exercise motion evaluation system 10 reads an action identified as screen play (step S40), and calculates a feature amount (step S41). The feature amount used here can be arbitrarily set, but in this embodiment, it is the same as that used in the screen identification process (FIG. 4). The motor motion evaluation system 10 performs play evaluation using machine learning based on the feature amount (step S42), and outputs the result (step S43).
As described above, according to the play evaluation process of the present embodiment, the screen play can be objectively evaluated by using the support vector regression. In the present embodiment, as described above, a feature vector suitable for screen play identification is found in classification-type machine learning, and this feature vector is also commonly used in regression-type machine learning. This is because it has been found that the regression machine learning can obtain a stable evaluation result. The principle of obtaining such a result is not necessarily clear, but it is considered that one of the reasons is that there is no need to change the parameters used for the analysis in the classification and regression of the movement to be evaluated. In addition, there is an advantage that the accuracy of regression type machine learning can be easily improved by setting the feature vector by classification type machine learning in which pass / fail is easy to judge.

E.機械学習訓練処理:
以上で説明した通り、本実施例では、分類型機械学習であるサポートベクターマシン、および回帰型機械学習であるサポートベクター回帰で共通の特徴ベクトルを用いるが、いずれにおいても、教師付機械学習であるため、訓練が必要である。以下では、その訓練処理について説明する。
図6は、機械学習訓練処理のフローチャートである。運動動作評価システム10の識別処理部15、評価処理部17を訓練するための処理であり、図1における機械学習訓練処理部21が実行する処理に相当する。
処理を開始すると、運動動作評価システム10は、アクションデータを読み込む(ステップS51)。ここで読み込むのは、訓練用に用意されたアクションデータである。運動動作評価システム10は、併せて教師データを読み込む(ステップS52)。教師データとは、アクションデータのそれぞれについての回答を記録したデータである。分類型機械学習の教師データは、図中に示すように、それぞれのアクションに対して、スクリーンプレーに該当するか否かを記録したデータとなる。回帰型機械学習の教師データは、それぞれのアクションに対して、スクリーンプレーの完成度を点数等で評価した結果を格納したデータとなる。
E. Machine learning training process:
As described above, in the present embodiment, a common feature vector is used for the support vector machine that is the classification type machine learning and the support vector regression that is the regression type machine learning. Therefore, training is necessary. Below, the training process is demonstrated.
FIG. 6 is a flowchart of the machine learning training process. This is a process for training the identification processing unit 15 and the evaluation processing unit 17 of the motor motion evaluation system 10, and corresponds to the process executed by the machine learning training processing unit 21 in FIG.
When the process is started, the exercise motion evaluation system 10 reads action data (step S51). What is read here is action data prepared for training. The exercise motion evaluation system 10 also reads teacher data (step S52). Teacher data is data in which responses for each of the action data are recorded. As shown in the figure, the classification-type machine learning teacher data is data that records whether or not each action corresponds to screen play. Regression type machine learning teacher data is data that stores the results of evaluating the degree of completion of screen play with respect to each action in terms of scores or the like.

そして、運動動作評価システム10は、それぞれのアクションについて特徴量を抽出する(ステップS53)。特徴ベクトルは、プレー識別処理(図4)、プレー評価処理(図5)で用いたものと同じである。機械学習の成績に基づいて特徴ベクトルを設定する場合には、種々の特徴ベクトルを対象として繰り返し機械学習訓練処理(図6)を実行することになるので、ステップS53では、実行の時に評価対象として設定された特徴ベクトルに基づいて抽出すればよい。   Then, the exercise motion evaluation system 10 extracts a feature amount for each action (step S53). The feature vectors are the same as those used in the play identification process (FIG. 4) and the play evaluation process (FIG. 5). When setting a feature vector based on the results of machine learning, the machine learning training process (FIG. 6) is repeatedly executed for various feature vectors. Therefore, in step S53, as an evaluation target at the time of execution. What is necessary is just to extract based on the set feature vector.

次に、運動動作評価システム10は、交差検定法と呼ばれる手法を用いて訓練および評価を行うため、アクションをK通りに分割する。Kは任意に設定可能であり、例えば、10分割とすることができる。分割とは、複数存在するアクションをグループ分けすることを意味し、一つのアクションを時間間隔で分断するという意味ではない。また、分割された一つ一つのグループに含まれるアクションの数は、厳密に一致している必要はない。   Next, the exercise motion evaluation system 10 divides the action into K ways in order to perform training and evaluation using a method called a cross-validation method. K can be arbitrarily set, for example, it can be divided into ten. The division means that a plurality of existing actions are grouped, and does not mean that one action is divided at time intervals. Further, the number of actions included in each divided group does not need to be exactly the same.

アクションの分割を終えると、運動動作評価システム10は、交差検定スコアを算出する(ステップS55)。
図示するように、まず、分割したグループ1をテストデータとして用い、グループ2以降の残りを訓練データとして用いる。そして、訓練データに含まれるアクションデータ及び教師データを用いて機械学習の訓練を実行する。分類型機械学習の場合は、アクションデータに対して、それがスクリーンプレーに該当するか否かを教師データによって教えるのである。訓練が完了すると、運動動作評価システム10は、テストデータとして用意してあるグループ1に対してスクリーンプレーか否かの識別を実施し、この結果と、グループ1に対する教師データとを対比して、その正解率をスコアとして算出する。図の例では、0.856がスコアとして算出されている。
同様の処理を、次は、グループ2をテストデータとして実行する。このようにテストデータを、順にグループ1からグループKまで、順次入れ換えながらスコアを算出するのである。そして、グループ1〜グループKのスコアの平均値を交差検定のスコアとする。
When the action division is completed, the exercise motion evaluation system 10 calculates a cross validation score (step S55).
As shown in the figure, first, the divided group 1 is used as test data, and the remainder after group 2 is used as training data. Then, machine learning training is executed using action data and teacher data included in the training data. In the case of categorized machine learning, teacher data is used to tell whether action data corresponds to screen play. When the training is completed, the exercise motion evaluation system 10 identifies whether or not the screen play is for the group 1 prepared as test data, and compares the result with the teacher data for the group 1, The correct answer rate is calculated as a score. In the example in the figure, 0.856 is calculated as the score.
The same processing is executed next using group 2 as test data. In this way, the score is calculated while sequentially replacing the test data from group 1 to group K. And let the average value of the score of the group 1-the group K be a score of a cross-validation.

上述した交差検定のスコアは、機械学習において特徴ベクトルに応じて判断結果を得る関係の複雑さを規定する制限パラメータCの値によっても変化する。
そこで、本実施例では、運動動作評価システム10は、交差検定スコアが最適値を得られるまで(ステップS56)、制限パラメータCの値を変更しながら、交差検定スコアの算出を繰り返す。
The cross-validation score described above also varies depending on the value of the limiting parameter C that defines the complexity of the relationship for obtaining the determination result according to the feature vector in machine learning.
Therefore, in this embodiment, the exercise motion evaluation system 10 repeats the calculation of the cross-validation score while changing the value of the restriction parameter C until the cross-validation score obtains the optimum value (step S56).

図7は、制限パラメータの評価例を示す説明図である。横軸に制限パラメータCの値をとり、縦軸に誤り率をとってグラフ化したものである。特徴ベクトルは一定の状態で、制限パラメータによる影響を表している。図示する通り、制限パラメータが10となるときに、誤り率が最小となっており、この値が最適の制限パラメータであることが分かる。また、この制限パラメータのときに得られる交差検定スコアが、用いられている特徴ベクトルにおける成績となる。 FIG. 7 is an explanatory view showing an example of evaluation of the limit parameter. The value of the limit parameter C is plotted on the horizontal axis, and the error rate is plotted on the vertical axis. The feature vector is in a constant state and represents the influence of the limiting parameter. As illustrated, when the restriction parameters is 10 2, has a error rate minimum, it can be seen the value is restricted parameter optimal. In addition, the cross-validation score obtained with this restriction parameter is the result for the feature vector being used.

以上の機械学習訓練処理を、種々の特徴ベクトルに対して繰り返し実行すれば、それぞれの特徴ベクトルに対する成績を得ることができる。そして、その中から、最も成績の良いものを選択すれば、最適の特徴ベクトルを設定することができる。
本実施例では、かかる処理を経て、分類型機械学習における特徴ベクトルを、図4で説明した内容に決定した。
If the above machine learning training process is repeatedly executed for various feature vectors, a result for each feature vector can be obtained. Then, the best feature vector can be set by selecting the best one from among them.
In the present embodiment, through such processing, the feature vector in the classification type machine learning is determined as the content described in FIG.

図6の機械学習訓練処理は、必ずしも常に全ての処理を実行しなくてはならないものではない。最適と考えられる特徴ベクトルが既に求められている場合には、その特徴ベクトルに基づいて行えば足りる。また、特徴ベクトルについて制限パラメータCの最適値も得られている場合には、当該制限パラメータCを用いてステップS55の交差検定スコア算出についての処理、またはこれに代えて全グループを訓練データとして用いた訓練処理を行うようにしてもよい。
さらに、訓練も完了した状態の識別処理部15、特徴ベクトル記憶部16、評価処理部17を移植可能であれば、図1における訓練部20を省略し、図6の機械学習訓練処理を省略して運動動作評価システム10を構築してもよい。
The machine learning training process of FIG. 6 does not always have to execute all the processes. When a feature vector that is considered to be optimal has already been obtained, it is sufficient to perform it based on the feature vector. If the optimum value of the restriction parameter C is also obtained for the feature vector, the process for calculating the cross-validation score in step S55 using the restriction parameter C, or using all groups as training data instead. You may be made to perform the training processing which was.
Further, if the identification processing unit 15, the feature vector storage unit 16, and the evaluation processing unit 17 in a state where the training is completed can be transplanted, the training unit 20 in FIG. 1 is omitted, and the machine learning training process in FIG. 6 is omitted. Thus, the exercise motion evaluation system 10 may be constructed.

図8は、回帰結果の評価例を示す説明図である。図8(a)は、スクリーンプレーに対するコーチ1の評価をもとに回帰型機械学習の教師データを生成して、機械学習の訓練を行った上で、新たなスクリーンプレーに対する機械学習による評価(縦軸)とコーチ1による評価(横軸)との関係をグラフ化したものである。図中に示した「C=10」は、制限パラメータの値を表している。また、「R=0.99」は、決定係数であり、値1に近いほど両者の一致度が高いことを表している。つまり、図8(a)は、スクリーンプレーに対して、運動動作評価システム10が、コーチ1と同様の評価を精度良く再現していることを表している。
図8(b)〜図8(d)は、それぞれ異なるコーチ2〜4に対して同様に訓練および評価を行った結果である。コーチが異なれば回帰型機械学習に用いる教師データが異なるため、最適値となる制限パラメータも、それぞれ異なる値となる。つまり、運動動作評価システム10は、それぞれのコーチの個性を反映して訓練されたことになる。しかし、いずれにおいても決定係数はほぼ1に近い値を示しており、運動動作評価システム10は、非常に高い精度で各コーチの評価を再現していることが分かる。
FIG. 8 is an explanatory diagram illustrating an example of evaluation of regression results. FIG. 8A shows the generation of regression machine learning teacher data based on coach 1's evaluation for screen play, machine learning training, and machine learning evaluation for a new screen play ( The graph shows the relationship between the vertical axis) and the evaluation by coach 1 (horizontal axis). “C = 10” shown in the figure represents the value of the limiting parameter. Further, “R 2 = 0.99” is a determination coefficient, and the closer to value 1, the higher the degree of coincidence between the two. That is, FIG. 8A shows that the exercise motion evaluation system 10 accurately reproduces the same evaluation as the coach 1 with respect to the screen play.
8 (b) to 8 (d) show the results of training and evaluation in the same manner for different coaches 2 to 4, respectively. Different coaches use different teacher data for regression type machine learning, so that the limiting parameters that are optimum values also have different values. That is, the exercise motion evaluation system 10 is trained reflecting the individuality of each coach. However, in any case, the coefficient of determination shows a value almost close to 1, and it can be seen that the motion motion evaluation system 10 reproduces the evaluation of each coach with very high accuracy.

このように、本実施例によれば、各コーチの個性を反映して、精度良い評価を実現することが可能となるのである。実施例では、バスケットボールのスクリーンプレーを対象としたが、本実施例は、種々の競技および種々のプレーや演技の評価に適用することが出来る。また利用する場面としては、練習中における選手の強化・指導だけではなく、例えば、フィギュアスケートのように演技が採点対象となる競技において、その演技の評価に利用する場面も考えられる。   As described above, according to the present embodiment, it is possible to realize accurate evaluation reflecting the individuality of each coach. In this embodiment, basketball screen play is targeted, but this embodiment can be applied to various games and evaluation of various plays and performances. In addition to strengthening and instructing players during practice, for example, scenes used for performance evaluation in competitions where performances are scored, such as figure skating, can also be considered.

次に、本発明の第2実施例について説明する。第2実施例では、選手の強化・指導としてのシステムではなく、審判の評価等のための審判能力評価システムとしての構成例を示す。審判能力評価システムは、プレーや演技に対する審判による評価と、機械学習による評価とを比較し、機械学習による評価が正答であるとの前提で審判の能力を評価するシステムである。審判の教育・訓練や、ある審判が国際試合の判定を行うことができる実力を備えているか否かといった実力評価などに用いることができる。
図9は、第2実施例における審判能力評価システム10Aの構成を示す説明図である。審判能力評価システム10Aも、第1実施例と同様、図示する各機能を実現するためのコンピュータプログラムをコンピュータにインストールすることによってソフトウェア的に構成することができる。もちろん、一部または全部の機能をハードウェア的に構成しても差し支えない。
Next, a second embodiment of the present invention will be described. The second embodiment shows a configuration example as a referee ability evaluation system for referee evaluation and the like, not as a system for strengthening / instructing players. The referee ability evaluation system is a system that evaluates the referee's ability on the assumption that the evaluation by the machine learning is a correct answer by comparing the evaluation by the referee for play and performance with the evaluation by the machine learning. It can be used for umpire education / training, and ability evaluation such as whether or not a umpire has the ability to judge international matches.
FIG. 9 is an explanatory diagram showing the configuration of the referee ability evaluation system 10A in the second embodiment. Similarly to the first embodiment, the referee ability evaluation system 10A can also be configured in software by installing a computer program for realizing each function shown in the computer. Of course, some or all of the functions may be configured in hardware.

図中に示す機能のうち、動きデータ入力部11、動きデータ記憶部12、アクション抽出部13、アクションデータ記憶部14、識別処理部15、特徴ベクトル記憶部16、評価処理部17は、それぞれ第1実施例と同様である。
アクションデータ再生部30は、アクションデータ記憶部14に記憶されたアクションを動画で再生し、パソコンのディスプレイDなどに表示する機能を奏する。
回答入力部31は、パソコンのキーボードK、マウスMなどを用いて審判の回答を入力する。
そして、合否判定部32は、アクションに対する機械学習による評価結果と、審判の回答とを比較して、合否判定を行う。
Among the functions shown in the figure, the motion data input unit 11, the motion data storage unit 12, the action extraction unit 13, the action data storage unit 14, the identification processing unit 15, the feature vector storage unit 16, and the evaluation processing unit 17 are respectively This is the same as in the first embodiment.
The action data reproduction unit 30 has a function of reproducing the action stored in the action data storage unit 14 as a moving image and displaying it on a display D of a personal computer.
The response input unit 31 inputs the referee's response using the keyboard K, mouse M, etc. of the personal computer.
And the pass / fail determination part 32 compares the evaluation result by the machine learning with respect to an action, and the reply of a referee, and performs pass / fail determination.

図10は、審判能力評価処理のフローチャートである。この処理を開始すると、審判能力評価システム10Aは、アクションを読み込む(ステップS60)。ここで用いるアクションは、予め審判の訓練用に用意されたアクションであってもよいし、新たに選手のプレーや演技から切り出したものであってもよい。アクションの切り出しは、第1実施例と同様の方法で行うことができる。
審判能力評価システム10Aは、読み込んだアクションをコンピュータのディスプレイ等に再生し(ステップS61)、アクションに対する回答を入力する(ステップS62)。回答は、審判がそのアクションを評価した結果である。
FIG. 10 is a flowchart of the referee ability evaluation process. When this process is started, the referee ability evaluation system 10A reads an action (step S60). The action used here may be an action prepared for referee training in advance, or may be newly extracted from a player's play or performance. The action can be cut out in the same manner as in the first embodiment.
The referee ability evaluation system 10A reproduces the read action on a computer display or the like (step S61), and inputs an answer to the action (step S62). The answer is the result of the referee evaluating the action.

一方、審判能力評価システム10Aは、アクションに対する特徴量を抽出し(ステップS63)、機械学習を用いて基準回答を求める(ステップS64)。これらの処理は、プレー評価処理(図5)と同じである。即ち、サポートベクター回帰によってアクションの評価結果を得るのである。
ただし、第1実施例において図8で示した通り、サポートベクター回帰を利用した機械学習による評価の場合、その教師データを作成したコーチの個性が反映されてしまうようでは、基準回答とすることはできない。そこで、第2実施例においては、回帰型機械学習の教師データとして、既に一定の実力が認められた複数の審判による評価結果を用いる。こうすることにより、各審判による能力や個性の相違を平均化した標準的な教師データを作成することができ、サポートベクター回帰による評価結果を基準回答として用いることが可能となる。
On the other hand, the referee ability evaluation system 10A extracts a feature amount for the action (step S63) and obtains a reference answer using machine learning (step S64). These processes are the same as the play evaluation process (FIG. 5). That is, an action evaluation result is obtained by support vector regression.
However, as shown in FIG. 8 in the first embodiment, in the case of evaluation by machine learning using support vector regression, if the personality of the coach who created the teacher data is reflected, it can be used as a reference answer Can not. Therefore, in the second embodiment, evaluation results obtained by a plurality of referees who have already been recognized to have a certain ability are used as teacher data for regression machine learning. This makes it possible to create standard teacher data that averages the differences in ability and individuality of each referee, and the evaluation result by support vector regression can be used as a reference answer.

次に、審判能力評価システム10Aは、基準回答と入力された回答とを比較し、合否を判定して(ステップS65)、その結果を出力する(ステップS66)。合否判定は、基準回答と回答との差違が、所定範囲内であれば合格というように、任意に基準を設定できる。また、一つのアクションに基づく評価だけでなく、複数のアクションに基づいて評価するようにしてもよい。
以上で説明した通り、第2実施例によれば、回帰型機械学習を用いることにより、審判の能力評価を客観的に実現することが可能となる。
Next, the referee ability evaluation system 10A compares the reference answer with the inputted answer, determines pass / fail (step S65), and outputs the result (step S66). In the pass / fail judgment, if the difference between the reference answer and the answer is within a predetermined range, it is possible to arbitrarily set a reference such as passing. Moreover, you may make it evaluate based not only on the evaluation based on one action but on several actions.
As described above, according to the second embodiment, it is possible to objectively realize the referee's ability evaluation by using regression machine learning.

以上、本発明について第1実施例、第2実施例を説明した。これらの実施例によれば、本発明は、種々の競技においてそのプレーの識別、完成度の評価を客観的かつ精度良く実現することができる。また、第2実施例に示したように、本発明は、審判の能力評価を客観的かつ精度良く行うことも可能である。
これらの実施例において説明した種々の特徴は、必ずしも全てを備えている必要はなく、本発明は、適宜、その一部を省略したり組み合わせたりして実施することができる。また本発明は、さらに種々の変形例を実現することも可能である。
The first embodiment and the second embodiment have been described above with respect to the present invention. According to these embodiments, the present invention can objectively and accurately realize identification of play and evaluation of completeness in various competitions. Further, as shown in the second embodiment, the present invention can also objectively and accurately evaluate the referee's ability.
The various features described in these embodiments are not necessarily all provided, and the present invention can be implemented by omitting or combining some of them as appropriate. Further, the present invention can also realize various modifications.

本発明は、運動中の選手の動きに関し、特定のプレーまたは演技としての完成度を評価するために利用することができる。   The present invention can be used to evaluate the completeness of a specific play or performance regarding the movement of a player during exercise.

10、10A…運動動作評価システム
11…動きデータ入力部
12…動きデータ記憶部
13…アクション抽出部
14…アクションデータ記憶部
15…識別処理部
16…特徴ベクトル記憶部
17…評価処理部
20…訓練部
21…機械学習訓練処理部
22…教育データ記憶部
23…教師データ設定部
30…アクションデータ再生部
31…回答入力部
32…合否判定部
DESCRIPTION OF SYMBOLS 10, 10A ... Exercise motion evaluation system 11 ... Motion data input part 12 ... Motion data storage part 13 ... Action extraction part 14 ... Action data storage part 15 ... Identification processing part 16 ... Feature vector storage part 17 ... Evaluation processing part 20 ... Training Unit 21 ... Machine learning training processing unit 22 ... Educational data storage unit 23 ... Teacher data setting unit 30 ... Action data reproduction unit 31 ... Answer input unit 32 ... Pass / fail judgment unit

Claims (8)

運動中の選手の動きに関し、特定のプレーまたは演技としての完成度を評価する運動動作評価システムであって、
前記選手の動きを表す動作データを読み込む動作データ入力部と、
前記動作データに基づいて、前記プレーまたは演技に対する分類型機械学習によって設定された特徴ベクトルを用いた回帰型機械学習により、前記評価を行う評価部とを備える運動動作評価システム。
An exercise motion evaluation system for evaluating the completeness of a specific play or performance with respect to the movement of a player during exercise,
An operation data input unit for reading operation data representing the movement of the player;
An exercise motion evaluation system comprising: an evaluation unit that performs the evaluation by regression type machine learning using a feature vector set by classification type machine learning for the play or performance based on the motion data.
請求項1記載の運動動作評価システムであって、
前記動作データは、評価対象となるプレーまたは演技を含む一連の動きを表すデータであり、
前記評価部による評価に先だって、前記動作データから、前記評価対象となるプレーまたは演技に該当する部分を、分類型機械学習によって切り出すセグメント化部を備える運動動作評価システム。
The motor motion evaluation system according to claim 1,
The motion data is data representing a series of movements including play or performance to be evaluated,
Prior to the evaluation by the evaluation unit, an athletic motion evaluation system including a segmentation unit that extracts, from the motion data, a part corresponding to the play or performance to be evaluated by classification machine learning.
請求項2記載の運動動作評価システムであって、
前記セグメント化部は、前記分類型機械学習に先だって、前記動作データから、前記プレーまたは演技に応じて設定された所定の条件を前記選手の動きが満たす区間を抽出し、当該抽出された区間を対象として前記分類型機械学習を適用する運動動作評価システム。
It is an exercise | movement movement evaluation system of Claim 2, Comprising:
Prior to the classification type machine learning, the segmenting unit extracts, from the motion data, a section where the movement of the player satisfies a predetermined condition set according to the play or performance, and the extracted section An exercise motion evaluation system that applies the classification type machine learning as a target.
請求項3記載の運動動作評価システムであって、
前記セグメント化部は、さらに、前記抽出された複数の区間が一連の区間と判断される場合には、当該複数の区間を一つの区間に融合した上で前記分類型機械学習を適用する運動動作評価システム。
It is an exercise | movement movement evaluation system of Claim 3, Comprising:
When the plurality of extracted sections are determined as a series of sections, the segmenting unit further combines the plurality of sections into one section and then applies the classification type machine learning. Evaluation system.
請求項1〜4いずれか記載の運動動作評価システムであって、
前記特徴ベクトルは、複数種類の特徴ベクトルおよびその組み合わせに対して、前記分類型機械学習を施し、その結果の評価に基づいて設定されている運動動作評価システム。
It is an exercise | movement movement evaluation system in any one of Claims 1-4,
The feature vector is an exercise motion evaluation system in which a plurality of types of feature vectors and combinations thereof are subjected to the classification-type machine learning and set based on the evaluation of the result.
請求項1〜5いずれか記載の運動動作評価システムであって、
前記プレーは、バスケットボールにおけるスクリーンプレーであり、
前記特徴ベクトルは、バスケットボールのゴールとの位置関係を考慮せず、該スクリーンプレーに関係する四人の選手の位置関係に基づいて設定されている運動動作評価システム。
It is an exercise | movement motion evaluation system in any one of Claims 1-5,
The play is a screen play in basketball,
The motion vector evaluation system is set based on the positional relationship of four players related to the screen play without considering the positional relationship with the basketball goal.
運動中の選手の動きに関し、特定のプレーまたは演技としての完成度をコンピュータによって評価する運動動作評価方法であって、
前記コンピュータが実行するステップとして、
前記選手の動きを表す動作データを読み込む工程と、
前記動作データに基づいて、前記プレーまたは演技に対する分類型機械学習によって設定された特徴ベクトルを用いた回帰型機械学習により、前記評価を行う工程とを備える運動動作評価方法。
An exercise motion evaluation method for evaluating the degree of perfection as a specific play or performance with respect to the movement of a player during exercise,
As the steps executed by the computer,
Reading motion data representing the movement of the player;
And a step of performing the evaluation by regression type machine learning using a feature vector set by classification type machine learning for the play or performance based on the action data.
運動中の選手の動きに関し、特定のプレーまたは演技としての完成度をコンピュータによって評価するためのコンピュータプログラムであって、
前記選手の動きを表す動作データを読み込む機能と、
前記動作データに基づいて、前記プレーまたは演技に対する分類型機械学習を行う機能と、
前記分類型機械学習によって設定された特徴ベクトルを用いた回帰型機械学習により、前記評価を行う機能とをコンピュータによって実現するためのコンピュータプログラム。
A computer program for evaluating by a computer the completeness of a specific play or performance with respect to the movement of an athlete during exercise,
A function of reading motion data representing the movement of the player;
A function of performing classification-type machine learning for the play or performance based on the motion data;
A computer program for realizing, by a computer, the function of performing the evaluation by regression type machine learning using a feature vector set by the classification type machine learning.
JP2016210027A 2016-10-26 2016-10-26 Exercise motion evaluation system Pending JP2018068516A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016210027A JP2018068516A (en) 2016-10-26 2016-10-26 Exercise motion evaluation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016210027A JP2018068516A (en) 2016-10-26 2016-10-26 Exercise motion evaluation system

Publications (1)

Publication Number Publication Date
JP2018068516A true JP2018068516A (en) 2018-05-10

Family

ID=62111752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016210027A Pending JP2018068516A (en) 2016-10-26 2016-10-26 Exercise motion evaluation system

Country Status (1)

Country Link
JP (1) JP2018068516A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110755084A (en) * 2019-10-29 2020-02-07 南京茂森电子技术有限公司 Motion function evaluation method and device based on active and passive staged actions
JP2020054747A (en) * 2018-10-04 2020-04-09 パナソニックIpマネジメント株式会社 Play analysis device and play analysis method
JP2020054748A (en) * 2018-10-04 2020-04-09 パナソニックIpマネジメント株式会社 Play analysis device and play analysis method
WO2020071092A1 (en) * 2018-10-04 2020-04-09 パナソニックIpマネジメント株式会社 Play analysis device and play analysis method
EP3663968A1 (en) 2018-12-05 2020-06-10 Fujitsu Limited Display method, display program, and information processing apparatus
CN111767932A (en) * 2019-04-02 2020-10-13 北京深蓝长盛科技有限公司 Action determination method and device, computer device and computer-readable storage medium
WO2020255716A1 (en) * 2019-06-20 2020-12-24 パナソニックIpマネジメント株式会社 Play analysis device, play analysis method, and computer program
WO2021192143A1 (en) * 2020-03-26 2021-09-30 ソニーグループ株式会社 Information processing method, information processing device, and information processing system
WO2022208859A1 (en) * 2021-04-01 2022-10-06 富士通株式会社 Skill recognition method, skill recognition apparatus, and gymnastics scoring support system
WO2022230501A1 (en) 2021-04-28 2022-11-03 オムロン株式会社 Motion analyzing device, motion analysis method, motion analyzing program, and motion analyzing system
US11995845B2 (en) 2019-09-30 2024-05-28 Fujitsu Limited Evaluation method, storage medium, and information processing apparatus

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7113335B2 (en) 2018-10-04 2022-08-05 パナソニックIpマネジメント株式会社 Play analysis device and play analysis method
JP2020054747A (en) * 2018-10-04 2020-04-09 パナソニックIpマネジメント株式会社 Play analysis device and play analysis method
JP2020054748A (en) * 2018-10-04 2020-04-09 パナソニックIpマネジメント株式会社 Play analysis device and play analysis method
WO2020071092A1 (en) * 2018-10-04 2020-04-09 パナソニックIpマネジメント株式会社 Play analysis device and play analysis method
JP7113336B2 (en) 2018-10-04 2022-08-05 パナソニックIpマネジメント株式会社 Play analysis device and play analysis method
EP3663968A1 (en) 2018-12-05 2020-06-10 Fujitsu Limited Display method, display program, and information processing apparatus
CN111767932A (en) * 2019-04-02 2020-10-13 北京深蓝长盛科技有限公司 Action determination method and device, computer device and computer-readable storage medium
CN111767932B (en) * 2019-04-02 2024-02-06 北京深蓝长盛科技有限公司 Action determination method and device, computer equipment and computer readable storage medium
WO2020255716A1 (en) * 2019-06-20 2020-12-24 パナソニックIpマネジメント株式会社 Play analysis device, play analysis method, and computer program
JP2021000216A (en) * 2019-06-20 2021-01-07 パナソニックIpマネジメント株式会社 Play analysis device, play analysis method, and computer program
US11995845B2 (en) 2019-09-30 2024-05-28 Fujitsu Limited Evaluation method, storage medium, and information processing apparatus
CN110755084A (en) * 2019-10-29 2020-02-07 南京茂森电子技术有限公司 Motion function evaluation method and device based on active and passive staged actions
CN110755084B (en) * 2019-10-29 2023-06-23 南京茂森电子技术有限公司 Motion function assessment method and device based on active-passive and staged actions
WO2021192143A1 (en) * 2020-03-26 2021-09-30 ソニーグループ株式会社 Information processing method, information processing device, and information processing system
WO2022208859A1 (en) * 2021-04-01 2022-10-06 富士通株式会社 Skill recognition method, skill recognition apparatus, and gymnastics scoring support system
WO2022230501A1 (en) 2021-04-28 2022-11-03 オムロン株式会社 Motion analyzing device, motion analysis method, motion analyzing program, and motion analyzing system

Similar Documents

Publication Publication Date Title
JP2018068516A (en) Exercise motion evaluation system
Link et al. Individual ball possession in soccer
Sors et al. The contribution of early auditory and visual information to the discrimination of shot power in ball sports
Loffing et al. On-court position influences skilled tennis players’ anticipation of shot outcome
RU2645553C2 (en) Device and method for automatic evaluation of the training exercise
US11839805B2 (en) Computer vision and artificial intelligence applications in basketball
US9610491B2 (en) Playbook processor
US20130034837A1 (en) Systems and methods for training and analysis of responsive skills
US20180295419A1 (en) System and method for visual-based training
US20220080260A1 (en) Pose comparison systems and methods using mobile computing devices
US20150242797A1 (en) Methods and systems for evaluating performance
US20210170230A1 (en) Systems and methods for training players in a sports contest using artificial intelligence
JP6677319B2 (en) Sports motion analysis support system, method and program
Sors et al. Predicting the length of volleyball serves: The role of early auditory and visual information
Shin et al. A novel way to soccer match prediction
Ste-Marie Expertise in sport judges and referees
Lora Ariza et al. Time series and case-based reasoning for an intelligent tetris game
North et al. Familiarity detection and pattern perception
JP2021531057A (en) Dynamic region determination
Bamunif Sports information & discussion forum using artificial intelligence techniques: A new approach
JP7248137B2 (en) Evaluation method, evaluation program and information processing device
US20240013675A1 (en) A computerized method for facilitating motor learning of motor skills and system thereof
Siles Canales Automated semantic annotation of football games from TV broadcast
WO2018122957A1 (en) Sports motion analysis support system, method and program
CN110314368B (en) Auxiliary method, device, equipment and readable medium for billiard ball hitting