JP2022124826A - Evaluation device, method and program - Google Patents

Evaluation device, method and program Download PDF

Info

Publication number
JP2022124826A
JP2022124826A JP2021022690A JP2021022690A JP2022124826A JP 2022124826 A JP2022124826 A JP 2022124826A JP 2021022690 A JP2021022690 A JP 2021022690A JP 2021022690 A JP2021022690 A JP 2021022690A JP 2022124826 A JP2022124826 A JP 2022124826A
Authority
JP
Japan
Prior art keywords
feint
action
evaluation
predicted
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021022690A
Other languages
Japanese (ja)
Other versions
JP7071018B1 (en
Inventor
章浩 手塚
Akihiro Tezuka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Platforms Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Platforms Ltd filed Critical NEC Platforms Ltd
Priority to JP2021022690A priority Critical patent/JP7071018B1/en
Application granted granted Critical
Publication of JP7071018B1 publication Critical patent/JP7071018B1/en
Publication of JP2022124826A publication Critical patent/JP2022124826A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an evaluation device, a method and a program, capable of improving evaluation accuracy of a faint action.SOLUTION: An evaluation device 10 includes an acquisition unit 11 and an evaluation unit 12. The acquisition unit 11 acquires an imaged faint action of a player. The evaluation unit 12 evaluates the faint action based on a model learned by machine learning, stored beforehand. In this case, the evaluation unit 12 evaluates the faint action based on whether or not the action is different from a prediction operation predicted by the learned model.SELECTED DRAWING: Figure 1

Description

本発明は、評価装置、方法及びプログラムに関する。 The present invention relates to an evaluation device, method and program.

スポーツのプレイヤは、参考書や他人のプレーからフェイントの方法等の情報を入手し、実践で試す。センスの高いプレイヤは、見ただけでプレーを体現させることができるが、多くのプレイヤは体現させることができない。また、プレイヤは、指導者にアドバイスをもらう場合、プレーがどのように向上したのか分かり難い。
特許文献1では、機械学習したモデルを用いて運動中の選手のプレーや演技などの動作を客観的に評価する技術が開示されている。
A sports player obtains information such as a feint method from a reference book or other people's play, and tries it out in practice. A player with good taste can embody the play just by watching it, but many players cannot embody it. Also, when a player receives advice from a coach, it is difficult for the player to know how his play has improved.
Patent Literature 1 discloses a technique for objectively evaluating a motion such as a player's play or performance during exercise using a machine-learned model.

特開2018-68516号公報JP 2018-68516 A

特許文献1では、動作(プレー、演技)と点数とが紐づけられた学習モデルに沿って選手の動作の完成度が評価される。ここで、プレーのなかでもフェイント動作は、相手を惑わす動作であり、その完成度は相手の予測を裏切った場合に高く評価される。しかしながら、特許文献1では、当該内容は開示されていない。したがって、特許文献1では、フェイント動作の評価精度に改善の余地があるという課題があった。 In Patent Literature 1, the completeness of a player's action is evaluated according to a learning model in which actions (plays, performances) and scores are linked. Here, among plays, a feint movement is a movement that confuses an opponent, and its perfection is highly evaluated when the opponent's prediction is betrayed. However, Patent Document 1 does not disclose this content. Therefore, in Patent Literature 1, there is a problem that there is room for improvement in the evaluation accuracy of the feint motion.

本開示は、そのような課題を解決することによって、フェイント動作の評価精度を向上できる評価装置、方法及びプログラムを提供することを目的とする。 An object of the present disclosure is to provide an evaluation apparatus, method, and program capable of improving the evaluation accuracy of feint motions by solving such problems.

本開示の評価装置は、撮像されたプレイヤのフェイント動作を取得する取得部と、予め記憶されている機械学習による学習済みモデルに基づいて前記フェイント動作を評価する評価部と、前記評価部は、前記学習済みモデルよって予測される予測動作と異なるか否かに基づいて前記フェイント動作を評価する。 The evaluation device of the present disclosure includes an acquisition unit that acquires an imaged feint motion of a player, an evaluation unit that evaluates the feint motion based on a pre-stored learned model by machine learning, and the evaluation unit: The feint action is evaluated based on whether it differs from the predicted action predicted by the trained model.

本開示の方法は、撮像されたプレイヤのフェイント動作を取得することと、予め記憶されている機械学習による学習済みモデルに基づいて前記フェイント動作を評価することと、を含み、前記フェイント動作を評価することは、前記学習済みモデルよって予測される予測動作と異なるか否かに基づいて前記フェイント動作を評価することを含む。 A method of the present disclosure includes acquiring an imaged feint motion of a player, and evaluating the feint motion based on a pre-stored learned model by machine learning, and evaluating the feint motion. Doing includes evaluating the feint action based on whether it differs from a predicted action predicted by the trained model.

本開示のプログラムは、撮像されたプレイヤのフェイント動作を取得する処理と、予め記憶されている機械学習による学習済みモデルに基づいて前記フェイント動作を評価する処理と、をコンピュータに実行させ、前記フェイント動作を評価する処理は、前記学習済みモデルよって予測される予測動作と異なるか否かに基づいて前記フェイント動作を評価する処理を含む。 A program according to the present disclosure causes a computer to perform a process of acquiring an imaged feint motion of a player, and a process of evaluating the feint motion based on a pre-stored model trained by machine learning. The process of evaluating the motion includes the process of evaluating the feint motion based on whether it differs from the predicted motion predicted by the trained model.

本開示により、フェイント動作の評価精度を向上できる評価装置、方法及びプログラムを提供することができる。 According to the present disclosure, it is possible to provide an evaluation device, method, and program capable of improving the evaluation accuracy of feint motions.

第1の実施形態にかかる評価装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an evaluation device according to a first embodiment; FIG. 第2の実施形態にかかる評価装置の構成の概略を示す模式図である。It is a schematic diagram which shows the outline of a structure of the evaluation apparatus concerning 2nd Embodiment. 第2の実施形態にかかる評価装置の構成の詳細を示すブロック図である。It is a block diagram showing the details of the configuration of the evaluation device according to the second embodiment. 第2の実施形態にかかる評価装置の評価動作を示すフローチャートである。9 is a flowchart showing evaluation operations of the evaluation device according to the second embodiment; 第2の実施形態にかかる評価装置の点数化方法を示すフローチャートである。9 is a flow chart showing a scoring method of the evaluation device according to the second embodiment; 第2の実施形態にかかる評価装置の点数化方法の一例を示す模式図である。It is a schematic diagram which shows an example of the scoring method of the evaluation apparatus concerning 2nd Embodiment. 第2の実施形態にかかる評価装置の学習動作を示すフローチャートである。9 is a flowchart showing learning operation of the evaluation device according to the second embodiment; 本実施形態のコンピュータの構成を示すブロック図である。It is a block diagram which shows the structure of the computer of this embodiment.

以下では、本開示を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略する。 Hereinafter, specific embodiments to which the present disclosure is applied will be described in detail with reference to the drawings. In each drawing, the same elements are denoted by the same reference numerals, and redundant description will be omitted as necessary for clarity of description.

(第1の実施形態)
まず、図1を用いて、第1の実施形態に係る評価装置10の構成を説明する。
評価装置10は、取得部11及び評価部12を備える。取得部11は、撮像されたプレイヤのフェイント動作を取得する。評価部12は、予め記憶されている機械学習による学習済みモデルに基づいてプレイヤのフェイント動作を評価する。
(First embodiment)
First, the configuration of the evaluation device 10 according to the first embodiment will be described with reference to FIG.
The evaluation device 10 includes an acquisition unit 11 and an evaluation unit 12 . The acquisition unit 11 acquires the captured feint motion of the player. The evaluation unit 12 evaluates the player's feint motion based on a model that has been learned by machine learning and is stored in advance.

続いて、第1の実施形態に係る評価装置10の動作を説明する。
まず、取得部11は、撮像されたプレイヤのフェイント動作を取得する。次に、評価部12は、予め記憶されている機械学習による学習済みモデルに基づいてプレイヤのフェイント動作を評価する。具体的には、評価部12は、学習済みモデルよって予測される予測動作と異なるか否かに基づいてフェイント動作を評価する。
Next, operation of the evaluation device 10 according to the first embodiment will be described.
First, the acquisition unit 11 acquires the captured feint motion of the player. Next, the evaluation unit 12 evaluates the player's feint motion based on a machine-learned model that is stored in advance. Specifically, the evaluation unit 12 evaluates the feint motion based on whether it differs from the predicted motion predicted by the trained model.

上述するように、第1の実施形態に係る評価装置10は、機械学習による予測動作と異なるか否か(予測を裏切ったか否か)でフェイント動作を評価できる。したがって、評価装置10は、フェイント動作の評価精度を向上できる。 As described above, the evaluation apparatus 10 according to the first embodiment can evaluate a feint action based on whether it is different from the predicted action by machine learning (whether the prediction was betrayed). Therefore, the evaluation device 10 can improve the evaluation accuracy of the feint motion.

(第2の実施形態)
まず、図2-図3を用いて、第2の実施形態に係る評価装置20の構成を説明する。図2-図3に示すように、評価装置20は、第1の実施形態に係る評価装置10を具体化したものであり、撮像部21、取得部22、評価部23、出力部24、学習部25及び記憶部26を備える。取得部22及び評価部23は、それぞれ第1の実施形態に係る取得部11及び評価部12に対応する。
(Second embodiment)
First, the configuration of the evaluation device 20 according to the second embodiment will be described with reference to FIGS. 2 and 3. FIG. As shown in FIGS. 2 and 3, the evaluation device 20 is a specific embodiment of the evaluation device 10 according to the first embodiment, and includes an imaging unit 21, an acquisition unit 22, an evaluation unit 23, an output unit 24, a learning A unit 25 and a storage unit 26 are provided. The acquisition unit 22 and the evaluation unit 23 correspond to the acquisition unit 11 and the evaluation unit 12 according to the first embodiment, respectively.

撮像部21は、例えばカメラなどの撮像機能を有し、評価対象のプレイヤのフェイント動作の画像(複数枚の一連の画像)又は動画を撮像する。例えば、撮像部21は、評価装置20のユーザの操作によって、練習中の単体のプレイヤの動作を前方から撮像する。そして、撮像部21は、撮像された撮像画像を取得部22に供給する。 The image capturing unit 21 has an image capturing function such as a camera, and captures an image (a series of multiple images) or a moving image of the feint action of the player to be evaluated. For example, the image capturing unit 21 captures an image of the action of a single player during practice from the front by the operation of the user of the evaluation device 20 . Then, the imaging unit 21 supplies the captured image to the acquisition unit 22 .

取得部22は、撮像部21から撮像画像を取得する。また、記憶部26に記憶された撮像画像を取得してもよい。そして、取得部22は、プレイヤのフェイント動作を評価する評価動作が評価部23によって実行される場合、取得された撮像画像を評価部23に供給する。また、取得部22は、プレイヤのフェイント動作を学習する学習動作が学習部25によって実行される場合、取得された撮像画像を学習部25に供給する。 The acquisition unit 22 acquires the captured image from the imaging unit 21 . Also, the captured image stored in the storage unit 26 may be obtained. Then, the acquisition unit 22 supplies the acquired captured image to the evaluation unit 23 when the evaluation unit 23 executes the evaluation operation for evaluating the player's feint operation. Further, the acquisition unit 22 supplies the acquired captured image to the learning unit 25 when the learning unit 25 executes a learning operation for learning a feint operation of the player.

評価部23は、評価装置20における評価動作を実行する。取得部22から撮像画像を取得する。評価部23は、撮像画像と予め記憶部26に記憶されている学習済みモデルとに基づいてプレイヤのフェイント動作を例えば点数化するなどして評価する。 The evaluation unit 23 executes evaluation operations in the evaluation device 20 . A captured image is acquired from the acquisition unit 22 . The evaluation unit 23 evaluates the player's feint motion by, for example, scoring it based on the captured image and the learned model stored in advance in the storage unit 26 .

ここで、評価部23は、学習済みモデルよって予測される予測動作と異なるか否かに基づいてフェイント動作を評価する。具体的には、評価部23は、フェイント動作における第1のアクションを抽出する。アクションとは、一連のフェイント動作においてプレイヤが実行する動作であり、例えば、左右に加速する、状態を左右に傾ける、ボールをまたぐ、視線を変える等の動作である。そして、評価部23は、第1のアクションの次に実行される第2のアクションが学習済みモデルよって予測される予測アクションと異なる場合の評価を、第2のアクションが予測アクションと同様である場合の評価より高くする。そして、評価部23は、一連のフェイント動作における得点を集計し、点数を算出する。
加えて、評価部23は、学習済みモデルを用いて、フェイント動作とスキルが所定の水準以上のプレイヤのフェイント動作との類似度に基づいてフェイント動作を評価してもよい。
Here, the evaluation unit 23 evaluates the feint motion based on whether it differs from the predicted motion predicted by the trained model. Specifically, the evaluation unit 23 extracts the first action in the feint motion. An action is a motion performed by the player in a series of feint motions, such as acceleration to the left or right, tilting the state left or right, stepping over the ball, changing the line of sight, or the like. Then, the evaluation unit 23 evaluates the case where the second action to be executed next to the first action is different from the predicted action predicted by the trained model, and to be higher than the evaluation of Then, the evaluation unit 23 totalizes the scores of the series of feint actions and calculates the score.
In addition, the evaluation unit 23 may use a learned model to evaluate the feint motion based on the degree of similarity between the feint motion and the feint motion of a player whose skill is equal to or higher than a predetermined level.

出力部24は、評価部23によって算出された点数をディスプレイ等に出力する。また、出力部24は、評価装置20と接続又は通信する例えば携帯端末などの外部機器に算出された点数を出力してもよい。そうすることによって、評価装置20のユーザは、プレイヤのフェイント動作を定量的に評価できる。 The output unit 24 outputs the score calculated by the evaluation unit 23 to a display or the like. Further, the output unit 24 may output the calculated score to an external device such as a mobile terminal connected or communicating with the evaluation device 20 . By doing so, the user of the evaluation device 20 can quantitatively evaluate the player's feint motion.

学習部25は、評価装置20における評価動作を実行する。学習部25は、取得部22から撮像画像を取得する。そして、学習部25は、フェイント動作を点数化するための学習モデルを生成する。以下、学習が完了した学習モデルを学習済みモデルとする。
記憶部26は、学習部25によって生成された学習モデル及び学習済みモデルを記憶する。なお、記憶部26は、撮像部21で撮像されたプレイヤの画像又は動画を記憶していてもよい。
The learning unit 25 executes evaluation operations in the evaluation device 20 . The learning unit 25 acquires the captured image from the acquisition unit 22 . Then, the learning unit 25 generates a learning model for scoring the feint motion. A learning model for which learning has been completed is hereinafter referred to as a learned model.
The storage unit 26 stores the learning model generated by the learning unit 25 and the learned model. Note that the storage unit 26 may store images or moving images of the player captured by the imaging unit 21 .

続いて、図4を用いて、第2の実施形態に係る評価装置20の評価動作を説明する。
図4に示すように、まず、撮像部21は、例えばカメラなどの撮像機能を有し、プレイヤのフェイント動作の画像(複数枚の一連の画像)又は動画を撮像する。そして、取得部22は、撮像部21から撮像画像を取得する(ステップS101)。さらに、取得部22は、取得した撮像画像を評価部23に供給する。
Subsequently, the evaluation operation of the evaluation device 20 according to the second embodiment will be described with reference to FIG.
As shown in FIG. 4, first, the imaging unit 21 has an imaging function such as a camera, and captures an image (a series of multiple images) or a moving image of the player's feint action. Then, the acquiring unit 22 acquires the captured image from the imaging unit 21 (step S101). Furthermore, the acquisition unit 22 supplies the acquired captured image to the evaluation unit 23 .

次に、評価部23は、受け取った撮像画像と記憶部26に記憶された学習済みモデルとを用いてプレイヤのフェイント動作を点数化する(ステップS102)。
例えば、ステップS102において、図5に示すように、評価部23は、学習済みモデルよって予測される予測動作と異なるか否かに基づいてフェイント動作を評価する。具体的には、評価部23は、受け取った撮像画像に含まれるフェイント動作における任意の第1のアクションを検出する(ステップS201)。次に、評価部23は、検出された第1のアクションの次の第2のアクションを抽出する(ステップS202)。
Next, the evaluation unit 23 uses the received captured image and the learned model stored in the storage unit 26 to score the player's feint motion (step S102).
For example, in step S102, as shown in FIG. 5, the evaluation unit 23 evaluates the feint action based on whether it differs from the predicted action predicted by the learned model. Specifically, the evaluation unit 23 detects an arbitrary first action in the feint motion included in the received captured image (step S201). Next, the evaluation unit 23 extracts a second action following the detected first action (step S202).

次に、評価部23は、第2のアクションを実際の次のアクションが裏切っているか否かに基づいてプレイヤのフェイント動作を点数化する(ステップS203)。具体的には、評価部23は、第2のアクションが学習済みモデルよって予測される予測アクションと異なる場合の評価を、第2のアクションが予測アクションと同様である場合の評価より高くする。例えば、図6に示すように、学習済みモデルは、10%の確率でプレイヤが第2のアクションで右に加速する、又は90%の確率でプレイヤが第2のアクションで左に加速すると予測する。その場合、評価部23は、実際にプレイヤが第2のアクションで右に加速した場合、9点とする。一方、評価部23は、実際にプレイヤが第2のアクションで左に加速した場合、1点とする。なお、点数の値は、前述したものに限られず、実際にプレイヤが第2のアクションで右に加速した場合、9点としたところを90点と算出してもよい。 Next, the evaluation unit 23 scores the player's feint motion based on whether or not the actual next action betrays the second action (step S203). Specifically, the evaluation unit 23 gives a higher evaluation when the second action is different from the predicted action predicted by the trained model than when the second action is the same as the predicted action. For example, as shown in FIG. 6, the trained model predicts 10% of the time that the player will accelerate to the right on the second action, or 90% of the time that the player will accelerate to the left on the second action. . In that case, the evaluation unit 23 gives 9 points when the player actually accelerates to the right in the second action. On the other hand, the evaluation unit 23 gives 1 point when the player actually accelerates to the left in the second action. Note that the score value is not limited to the value described above, and when the player actually accelerates to the right in the second action, 9 points may be calculated as 90 points.

評価部23は、ステップS201~ステップS203の動作を同一のフェイント動作において繰り返してもよい。その場合、評価部23は、フェイント動作における一連のアクションの総合点数を平均や加算することによって点数として算出してもよい。 The evaluation unit 23 may repeat the operations of steps S201 to S203 in the same feint operation. In that case, the evaluation unit 23 may calculate the score by averaging or adding the total score of the series of actions in the feint motion.

最後に、出力部24は、評価部によって算出された点数をディスプレイ等に出力する(ステップS103)。例えば、評価部23は、Aさんが7.5点、Bさんが8.5点、Cさんが9.0点のように個人ごとにフェイント動作を点数化でき、出力部24は、プレイヤ毎に算出された点数を出力できる。 Finally, the output unit 24 outputs the score calculated by the evaluation unit to a display or the like (step S103). For example, the evaluation unit 23 can score feint actions for each individual, such as 7.5 points for Mr. A, 8.5 points for Mr. B, and 9.0 points for Mr. C. You can output the score calculated in .

続いて、図7を用いて、第2の実施形態に係る評価装置20の学習動作を説明する。
図7に示すように、まず、取得部22は、教師データを取得する(ステップS301)。評価装置20のユーザは、教師データとして例えばプレイヤが行うフェイント動作の画像や動画を用いる。次に、学習部25は、取得部22によって取得された教師データからフェイント動作を学習し、上述した評価部23がプレイヤのフェイント動作を学習し、フェイント動作を点数化するための学習モデルを生成する(ステップS302)。次に、学習部25は、生成された学習モデルを記憶部26に記憶する(ステップS303)。ここで、評価装置20は、ステップS201において教師データを繰り返し取得し、学習モデルを成長させてもよい。最終的に構築された学習モデルを学習済みモデルと称する。
Next, the learning operation of the evaluation device 20 according to the second embodiment will be described with reference to FIG.
As shown in FIG. 7, first, the acquisition unit 22 acquires teacher data (step S301). The user of the evaluation device 20 uses, for example, images and moving images of feint movements performed by the player as training data. Next, the learning unit 25 learns the feint motion from the teacher data acquired by the acquisition unit 22, and the above-described evaluation unit 23 learns the feint motion of the player and generates a learning model for scoring the feint motion. (step S302). Next, the learning unit 25 stores the generated learning model in the storage unit 26 (step S303). Here, the evaluation device 20 may repeatedly acquire teacher data in step S201 to grow the learning model. The finally constructed learning model is called a trained model.

第2の実施形態に係る評価装置20は、第1の実施形態に係る評価装置10と同様に、機械学習による予測動作と異なるか否かでフェイント動作を評価できる。したがって、評価装置20は、フェイント動作の評価精度を向上できる。
また、評価装置20は、点数化されたプレイヤのフェイント動作をフィードバックする。そうすることによって、評価装置20のユーザは、プレイヤ間のフェイント動作の良し悪しの比較ができる。また、プレイヤは自身の課題を客観的に評価できる。
As with the evaluation apparatus 10 according to the first embodiment, the evaluation apparatus 20 according to the second embodiment can evaluate the feint movement based on whether it differs from the predicted movement based on machine learning. Therefore, the evaluation device 20 can improve the evaluation accuracy of the feint motion.
In addition, the evaluation device 20 feeds back the scored feint actions of the player. By doing so, the user of the evaluation device 20 can compare the quality of feint motions between players. Also, the player can objectively evaluate his/her own assignment.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。 It should be noted that the present invention is not limited to the above embodiments, and can be modified as appropriate without departing from the scope of the invention.

(変形例1)
例えば、ステップS102において、評価部23は、学習済みモデルを用いて、フェイント動作とスキルが所定の水準以上のプレイヤのフェイント動作との類似度に基づいてフェイント動作を点数化してもよい。
(Modification 1)
For example, in step S102, the evaluation unit 23 may use a learned model to score the feint motion based on the degree of similarity between the feint motion and the feint motion of a player whose skill is equal to or higher than a predetermined level.

具体的には、変形例1の学習部25は、ステップS301において、教師データとして例えばフェイントの上手なプレイヤが行うフェイント動作の画像や動画を用いて学習済みモデルを生成する。そして、評価部23は、受け取った撮像画像に含まれるフェイント動作から、所定の指標を用いて、プレイヤのフェイント動作とスキルが所定の水準以上のプレイヤのフェイント動作との類似度を算出する。所定の指標とは、例えば、プレイヤの全体的な動き、目線、体の向き、手の動き、足の動き、動作緩急の付け方、ボールの位置等である。そして、評価部23は、例えば類似度が90%であれば9.0点のように、類似度に基づいてプレイヤのフェイント動作を点数化し、ステップS201からステップS203で算出した点数に反映してもよい。また、評価部23は、ステップS201からステップS203の動作を実行せずに、上述した類似度に基づく評価を実行してもよい。 Specifically, in step S301, the learning unit 25 of Modification 1 generates a trained model using, for example, images and videos of feint actions performed by a player who is good at feints as teacher data. Then, the evaluation unit 23 calculates the degree of similarity between the feint motion of the player and the feint motion of the player whose skill is equal to or higher than a predetermined level, using a predetermined index from the feint motion included in the received captured image. Predetermined indicators are, for example, the overall movement of the player, the line of sight, the direction of the body, the movement of the hand, the movement of the foot, how the movement is slowed down, the position of the ball, and the like. Then, the evaluation unit 23 scores the player's feint motion based on the degree of similarity, such as 9.0 points if the degree of similarity is 90%, and reflects it in the scores calculated in steps S201 to S203. good too. Alternatively, the evaluation unit 23 may perform the evaluation based on the degree of similarity described above without performing the operations from step S201 to step S203.

<ハードウェア構成>
続いて、図8を用いて、評価装置10及び評価装置20に係るコンピュータ1000のハードウェア構成例を説明する。図8においてコンピュータ1000は、プロセッサ1001と、メモリ1002とを有している。プロセッサ1001は、例えば、マイクロプロセッサ、MPU(Micro Processing Unit)、又はCPU(Central Processing Unit)であってもよい。プロセッサ1001は、複数のプロセッサを含んでもよい。メモリ1002は、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ1002は、プロセッサ1001から離れて配置されたストレージを含んでもよい。この場合、プロセッサ1001は、図示されていないI/Oインターフェースを介してメモリ1002にアクセスしてもよい。
<Hardware configuration>
Next, a hardware configuration example of the computer 1000 associated with the evaluation device 10 and the evaluation device 20 will be described with reference to FIG. A computer 1000 in FIG. 8 has a processor 1001 and a memory 1002 . The processor 1001 may be, for example, a microprocessor, an MPU (Micro Processing Unit), or a CPU (Central Processing Unit). Processor 1001 may include multiple processors. Memory 1002 is comprised of a combination of volatile and non-volatile memory. Memory 1002 may include storage remotely located from processor 1001 . In this case, processor 1001 may access memory 1002 via an I/O interface (not shown).

また、上述の実施形態における各装置は、ハードウェア又はソフトウェア、もしくはその両方によって構成され、1つのハードウェア又はソフトウェアから構成してもよいし、複数のハードウェア又はソフトウェアから構成してもよい。上述の実施形態における各装置の機能(処理)を、コンピュータにより実現してもよい。例えば、メモリ1002に実施形態における方法を行うためのプログラムを格納し、各機能を、メモリ1002に格納されたプログラムをプロセッサ1001で実行することにより実現してもよい。 Further, each device in the above-described embodiments is configured by hardware or software, or both, and may be configured by one piece of hardware or software, or may be configured by multiple pieces of hardware or software. The functions (processing) of each device in the above-described embodiments may be implemented by a computer. For example, a program for performing the method in the embodiment may be stored in the memory 1002 and each function may be realized by executing the program stored in the memory 1002 with the processor 1001 .

これらのプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random Access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 These programs can be stored and delivered to computers using various types of non-transitory computer readable media. Non-transitory computer-readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (eg, flexible discs, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, CD-R/W, semiconductor memory (eg, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)). The program may also be delivered to the computer on various types of transitory computer readable medium. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves. Transitory computer-readable media can deliver the program to the computer via wired channels, such as wires and optical fibers, or wireless channels.

10 評価装置
11 取得部
12 評価部
20 評価装置
21 撮像部
22 取得部
23 評価部
24 出力部
25 学習部
26 記憶部
10 evaluation device 11 acquisition unit 12 evaluation unit 20 evaluation device 21 imaging unit 22 acquisition unit 23 evaluation unit 24 output unit 25 learning unit 26 storage unit

Claims (8)

撮像されたプレイヤのフェイント動作を取得する取得部と、
予め記憶されている機械学習による学習済みモデルに基づいて前記フェイント動作を評価する評価部と、
前記評価部は、前記学習済みモデルよって予測される予測動作と異なるか否かに基づいて前記フェイント動作を評価する
評価装置。
an acquisition unit that acquires an imaged feint movement of the player;
an evaluation unit that evaluates the feint motion based on a pre-stored model learned by machine learning;
The evaluation device, wherein the evaluation unit evaluates the feint action based on whether or not it differs from a predicted action predicted by the learned model.
前記評価部は、前記学習済みモデルよって予測される予測動作と異なる場合の前記フェイント動作を、当該予測動作と同様の場合の前記フェイント動作より高く評価する
請求項1に記載の評価装置。
The evaluation device according to claim 1, wherein the evaluation unit evaluates the feint action different from the predicted action predicted by the learned model higher than the feint action similar to the predicted action.
前記評価部は、前記フェイント動作における第1のアクションを抽出し、前記第1のアクションの次に実行される第2のアクションが前記学習済みモデルよって予測される予測アクションと異なる場合の評価を、前記第2のアクションが前記予測アクションと同様である場合の評価より高くする
請求項1又は2に記載の評価装置。
The evaluation unit extracts a first action in the feint action, and evaluates when a second action to be executed next to the first action is different from the predicted action predicted by the learned model, 3. The evaluation device according to claim 1, wherein the evaluation is made higher than when the second action is similar to the predicted action.
前記評価部は、前記学習済みモデルを用いて、前記フェイント動作とスキルが所定の水準以上のプレイヤのフェイント動作との類似度に基づいて前記フェイント動作をさらに評価する
請求項1乃至3のいずれか1項に記載の評価装置。
4. The evaluation unit further evaluates the feint motion based on a degree of similarity between the feint motion and a feint motion of a player whose skill is equal to or higher than a predetermined level, using the learned model. The evaluation device according to item 1.
前記評価部は、点数によって前記フェイント動作を評価する
請求項1乃至4のいずれか1項に記載の評価装置。
The evaluation device according to any one of claims 1 to 4, wherein the evaluation unit evaluates the feint action based on a score.
前記評価結果をプレイヤごとに出力する出力部をさらに備える
請求項1乃至5のいずれか1項に記載の評価装置。
The evaluation device according to any one of claims 1 to 5, further comprising an output unit that outputs the evaluation result for each player.
撮像されたプレイヤのフェイント動作を取得することと、
予め記憶されている機械学習による学習済みモデルに基づいて前記フェイント動作を評価することと、を含み、
前記フェイント動作を評価することは、前記学習済みモデルよって予測される予測動作と異なるか否かに基づいて前記フェイント動作を評価することを含む
方法。
Acquiring an imaged feint movement of the player;
Evaluating the feint action based on a pre-stored model trained by machine learning,
Evaluating the feint action includes evaluating the feint action based on whether it differs from a predicted action predicted by the trained model.
撮像されたプレイヤのフェイント動作を取得する処理と、
予め記憶されている機械学習による学習済みモデルに基づいて前記フェイント動作を評価する処理と、をコンピュータに実行させ、
前記フェイント動作を評価する処理は、前記学習済みモデルよって予測される予測動作と異なるか否かに基づいて前記フェイント動作を評価する処理を含む
プログラム。
a process of acquiring an imaged feint movement of the player;
causing a computer to execute a process of evaluating the feint motion based on a pre-stored model trained by machine learning;
A program, wherein the process of evaluating the feint action includes a process of evaluating the feint action based on whether or not it differs from a predicted action predicted by the learned model.
JP2021022690A 2021-02-16 2021-02-16 Evaluation equipment, methods and programs Active JP7071018B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021022690A JP7071018B1 (en) 2021-02-16 2021-02-16 Evaluation equipment, methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021022690A JP7071018B1 (en) 2021-02-16 2021-02-16 Evaluation equipment, methods and programs

Publications (2)

Publication Number Publication Date
JP7071018B1 JP7071018B1 (en) 2022-05-18
JP2022124826A true JP2022124826A (en) 2022-08-26

Family

ID=81652914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021022690A Active JP7071018B1 (en) 2021-02-16 2021-02-16 Evaluation equipment, methods and programs

Country Status (1)

Country Link
JP (1) JP7071018B1 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092342A (en) * 1999-09-27 2001-04-06 Naohide Tomita Prediction and judgment training device and prediction and judgment training method using the same
JP2002516121A (en) * 1998-03-03 2002-06-04 アリーナ, インコーポレイテッド System and method for tracking and evaluating exercise techniques in a multidimensional space
US20100316983A1 (en) * 2009-06-10 2010-12-16 Johns Jr William Burgan Educational exercise system and method simulation of swordplay
JP2011036483A (en) * 2009-08-12 2011-02-24 Hiroshima Industrial Promotion Organization Image generation system, control program, and recording medium
US20120135825A1 (en) * 2005-10-21 2012-05-31 Will International Ltd Interactive device for video games
JP2012245071A (en) * 2011-05-25 2012-12-13 Aina:Kk Repetition practice supporting device and repetition practice supporting method using the device
JP2015531904A (en) * 2012-06-29 2015-11-05 ナイキ イノベイト シーブイ Retail training applications
JP2016027873A (en) * 2011-02-17 2016-02-25 ナイキ イノベイト シーブイ Tracking of user performance metrics during workout session
US20170147872A1 (en) * 2014-06-25 2017-05-25 Renaud Maroy Method of identifying a movement by quantified recursive bayesian filtering
JP2019213900A (en) * 2013-12-02 2019-12-19 ナイキ イノベイト シーブイ Flight time
JP2021000217A (en) * 2019-06-20 2021-01-07 パナソニックIpマネジメント株式会社 Play analysis device, play analysis method, and computer program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002516121A (en) * 1998-03-03 2002-06-04 アリーナ, インコーポレイテッド System and method for tracking and evaluating exercise techniques in a multidimensional space
JP2001092342A (en) * 1999-09-27 2001-04-06 Naohide Tomita Prediction and judgment training device and prediction and judgment training method using the same
US20120135825A1 (en) * 2005-10-21 2012-05-31 Will International Ltd Interactive device for video games
US20100316983A1 (en) * 2009-06-10 2010-12-16 Johns Jr William Burgan Educational exercise system and method simulation of swordplay
JP2011036483A (en) * 2009-08-12 2011-02-24 Hiroshima Industrial Promotion Organization Image generation system, control program, and recording medium
JP2016027873A (en) * 2011-02-17 2016-02-25 ナイキ イノベイト シーブイ Tracking of user performance metrics during workout session
JP2012245071A (en) * 2011-05-25 2012-12-13 Aina:Kk Repetition practice supporting device and repetition practice supporting method using the device
JP2015531904A (en) * 2012-06-29 2015-11-05 ナイキ イノベイト シーブイ Retail training applications
JP2019213900A (en) * 2013-12-02 2019-12-19 ナイキ イノベイト シーブイ Flight time
US20170147872A1 (en) * 2014-06-25 2017-05-25 Renaud Maroy Method of identifying a movement by quantified recursive bayesian filtering
JP2021000217A (en) * 2019-06-20 2021-01-07 パナソニックIpマネジメント株式会社 Play analysis device, play analysis method, and computer program

Also Published As

Publication number Publication date
JP7071018B1 (en) 2022-05-18

Similar Documents

Publication Publication Date Title
US20220072381A1 (en) Method and system for training users to perform activities
JP6757010B1 (en) Motion evaluation device, motion evaluation method, motion evaluation system
WO2017161734A1 (en) Correction of human body movements via television and motion-sensing accessory and system
Woolley et al. The use of spatial manipulation to examine goalkeepers’ anticipation
KR20160059844A (en) Method for training using movement trajectory analysis and apparatus therefor
KR20200133847A (en) System for managing personal exercise and method for controlling the same
JP2019056957A (en) Information processing apparatus, information processing method, computer program and storage medium
CN115331314A (en) Exercise effect evaluation method and system based on APP screening function
EP3009173B1 (en) Assisted-training system and method for billiards
TW201509487A (en) Method and system for exercise video training
JP2022124826A (en) Evaluation device, method and program
US20230201719A1 (en) Dynamic game models
KR20220039440A (en) Display apparatus and method for controlling the display apparatus
KR102158218B1 (en) Smart mirror for processing motivation scenario, method of performing thereof and motivation scenario processing system including the smart mirror
JP6787601B2 (en) Autism treatment support system, autism treatment support device, and program
KR20230087352A (en) Apparatus and method for detecting workout status
US20220246060A1 (en) Electronic device and method for eye-contact training
KR102120711B1 (en) A system for management and assistance of billiard game
KR102095647B1 (en) Comparison of operation using smart devices Comparison device and operation Comparison method through dance comparison method
CN112866810A (en) Video playing method and video playing device
WO2023106201A1 (en) Play analysis device, play analysis method, and computer-readable storage medium
KR102234548B1 (en) Body balance check system using Jump rope exercise posture
KR20200076259A (en) 4D Model based Home Training Method and System
JP2019042219A (en) Analysis data collection device, analysis device, training device, method for the same, program, and data structure
KR20220053021A (en) video game overlay

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220428

R150 Certificate of patent or registration of utility model

Ref document number: 7071018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150