JP2024066646A - Motion evaluation device, method and program - Google Patents

Motion evaluation device, method and program Download PDF

Info

Publication number
JP2024066646A
JP2024066646A JP2022176181A JP2022176181A JP2024066646A JP 2024066646 A JP2024066646 A JP 2024066646A JP 2022176181 A JP2022176181 A JP 2022176181A JP 2022176181 A JP2022176181 A JP 2022176181A JP 2024066646 A JP2024066646 A JP 2024066646A
Authority
JP
Japan
Prior art keywords
motion
action
cooperative
data
player
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022176181A
Other languages
Japanese (ja)
Inventor
弘祐 岡崎
Hirosuke Okazaki
勝彦 植田
Katsuhiko Ueda
伸好 辻内
Nobuyoshi Tsujiuchi
彰人 伊藤
Akihito Ito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Rubber Industries Ltd
Doshisha Co Ltd
Original Assignee
Sumitomo Rubber Industries Ltd
Doshisha Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Rubber Industries Ltd, Doshisha Co Ltd filed Critical Sumitomo Rubber Industries Ltd
Priority to JP2022176181A priority Critical patent/JP2024066646A/en
Publication of JP2024066646A publication Critical patent/JP2024066646A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a motion evaluation device that can quantitatively evaluate the second motion by comparing the first motion of a first player with the second motion of a second player.SOLUTION: There is provided a device to evaluate the second motion which is the motion of a second player on the basis of the first motion which is the motion of a first player. The device comprises: an acquisition part that acquires a second motion value obtained by measuring the second motion; an extraction part that extracts the second cooperative motion data showing the characteristic behavior of the second motion by performing singular value decomposition of the second motion value; a first cooperative motion data storage part which stores the first cooperative motion data showing the characteristic behavior of the first motion; a comparison part that obtains the first comparison result 31 obtained by comparing the first cooperative operation data with the second cooperative operation data; and an output part that outputs the first comparison result 31 to a display device 12.SELECTED DRAWING: Figure 6

Description

特許法第30条第2項適用申請有り 刊行物名 シンポジウム:スポーツ工学・ヒューマンダイナミクス2022 講演論文集、Vol.31、No.22(2022)、B-7-2 発行者名 日本機械学会 発行日 令和4年10月28日 刊行物名 シンポジウム:スポーツ工学・ヒューマンダイナミクス2022 講演論文集、Vol.31、No.22(2022)、B-7-4 発行者名 日本機械学会 発行日 令和4年10月28日Application for application of Article 30, Paragraph 2 of the Patent Act has been filed. Publication Name: Symposium: Sports Engineering and Human Dynamics 2022, Proceedings of the Conference, Vol. 31, No. 22 (2022), B-7-2 Publisher: The Japan Society of Mechanical Engineers Publication Date: October 28, 2022 Publication Name: Symposium: Sports Engineering and Human Dynamics 2022, Proceedings of the Conference, Vol. 31, No. 22 (2022), B-7-4 Publisher: The Japan Society of Mechanical Engineers Publication Date: October 28, 2022

本発明は、動作評価装置、方法及びプログラムに関する。 The present invention relates to a motion evaluation device, method, and program.

従来、ゴルフスイングなどの動作の解析に用いられる動作解析装置が、種々提案されている(例えば、特許文献1参照)。 Various motion analysis devices have been proposed for analyzing motions such as golf swings (see, for example, Patent Document 1).

特許第6554158号公報Patent No. 6554158

近年、健康志向の高まりにより、様々なエクササイズ等が広く行われている。一般的なエクササイズのレッスンは、インストラクターが模範動作を示し、受講者がそれを模擬するとうものである。一方、受講者の動作の評価は、もっぱら、インストラクター個人の感覚で行われており、定量的ではなく、動作の改善点を把握が困難であった。 In recent years, with the rise in health consciousness, various exercises are widely practiced. In a typical exercise lesson, the instructor demonstrates model movements and the student imitates them. However, the instructor's assessment of the student's movements is based solely on the instructor's personal sense, and is not quantitative, making it difficult to grasp areas for improvement in movements.

本発明は、以上のような実状に鑑み案出されたもので、第1プレーヤの第1動作と第2プレーヤの第2動作との比較により、第2動作を定量的に評価することが可能な装置を提供することを主たる目的としている。 The present invention was devised in consideration of the above-mentioned circumstances, and its main objective is to provide a device that can quantitatively evaluate a second action by comparing a first action of a first player with a second action of a second player.

本発明は、第1プレーヤの動作である第1動作に基づいて、第2プレーヤの動作である第2動作を評価するための装置であって、前記第2動作を計測した第2動作値を取得する取得部と、前記第2動作値を特異値分解することにより、前記第2動作の特徴的な挙動を示す第2協調動作データを抽出する抽出部と、前記第1動作の特徴的な挙動を示す第1協調動作データを記憶する第1協調動作データ記憶部と、前記第1協調動作データと、前記第2協調動作データとを比較した第1比較結果を取得する比較部と、前記第1比較結果を表示装置に出力する出力部とを含む、動作評価装置である。 The present invention is a device for evaluating a second action, which is an action of a second player, based on a first action, which is an action of a first player, and includes an acquisition unit that acquires a second action value obtained by measuring the second action, an extraction unit that extracts second cooperative action data that indicates characteristic behavior of the second action by performing singular value decomposition on the second action value, a first cooperative action data storage unit that stores the first cooperative action data that indicates characteristic behavior of the first action, a comparison unit that acquires a first comparison result by comparing the first cooperative action data with the second cooperative action data, and an output unit that outputs the first comparison result to a display device.

本発明の動作評価装置は、第1プレーヤの第1動作と第2プレーヤの第2動作との比較により、第2動作を定量的に評価することが可能となる。 The action evaluation device of the present invention makes it possible to quantitatively evaluate the second action by comparing the first action of the first player with the second action of the second player.

本実施形態の動作評価装置を含む動作評価システムを概念的に示す構成図である。1 is a configuration diagram conceptually showing an action evaluation system including an action evaluation device according to an embodiment of the present invention. 本実施形態の動作評価装置を示すブロック図である。1 is a block diagram showing an action evaluation device according to an embodiment of the present invention; 本実施形態の動作評価方法の処理手順を示すフローチャートである。4 is a flowchart showing a processing procedure of the action evaluation method according to the present embodiment. 第2プレーヤの身体各部位の位置データを説明する図であり、(a)は、X軸方向(正面)からみた位置データであり、(b)は、Y軸方向(側面)からみた位置データである。13A is a diagram illustrating position data of each part of the second player's body, and FIG. 13B is position data viewed from the Y-axis direction (side). 第1協調動作データの空間基底の大きさと、第2協調動作データの空間基底の大きさとを比較したグラフである。11 is a graph comparing the size of a spatial base of first cooperative motion data with the size of a spatial base of second cooperative motion data. 表示装置に表示された第1比較結果の一例を示す図である。FIG. 13 is a diagram showing an example of a first comparison result displayed on a display device. 本発明の他の実施形態の動作評価方法の処理手順を示すフローチャートである。13 is a flowchart showing a processing procedure of a motion evaluation method according to another embodiment of the present invention. 第1協調動作データの空間基底の大きさと、第3協調動作データの空間基底の大きさとを比較したグラフである。13 is a graph comparing the size of a spatial base of first cooperative motion data with the size of a spatial base of third cooperative motion data. 表示装置に表示された第2比較結果の一例を示す図である。FIG. 11 is a diagram showing an example of a second comparison result displayed on the display device.

以下、本発明の実施形態が図面に基づき説明される。図面は、発明の内容の理解を助けるために、誇張表現や、実際の構造の寸法比とは異なる表現が含まれることが理解されなければならない。また、各実施形態を通して、同一又は共通する要素については同一の符号が付されており、重複する説明が省略される。さらに、実施形態及び図面に表された具体的な構成は、本発明の内容理解のためのものであって、本発明は、図示されている具体的な構成に限定されるものではない。 Below, an embodiment of the present invention will be described with reference to the drawings. It should be understood that the drawings contain exaggerated expressions and expressions that differ from the dimensional ratios of the actual structure in order to aid in understanding the contents of the invention. Furthermore, the same reference numerals are used for identical or common elements throughout each embodiment, and duplicate explanations will be omitted. Furthermore, the specific configurations shown in the embodiments and drawings are intended to aid in understanding the contents of the present invention, and the present invention is not limited to the specific configurations shown in the drawings.

[動作解析システム]
本実施形態の動作評価システム(動作評価装置)では、第1プレーヤの動作である第1動作に基づいて、第2プレーヤの動作である第2動作が評価される。図1は、本実施形態の動作評価装置2を含む動作評価システム1を概念的に示す構成図である。
[Motion analysis system]
In the action evaluation system (action evaluation device) of this embodiment, a second action which is an action of a second player is evaluated based on a first action which is an action of a first player. Fig. 1 is a configuration diagram conceptually showing an action evaluation system 1 including an action evaluation device 2 of this embodiment.

動作(第1動作及び第2動作)は、プレーヤ(人体)による動作であれば、特に限定されない。動作の一例には、エクササイズを行っているプレーヤの動作(エクササイズ動作)や、スポーツ等を行っているプレーヤの動作(スポーツ動作)等が挙げられる。本実施形態の動作には、エクササイズ動作が含まれる。このエクササイズ動作には、例えば、体操、ダンス、ヨガ及び太極拳等での動作が含まれる。本実施形態のエクササイズ動作として、体操での動作が例示される。 The actions (first action and second action) are not particularly limited as long as they are actions performed by a player (human body). Examples of actions include the actions of a player performing exercises (exercise actions) and the actions of a player performing sports (sports actions). Actions in this embodiment include exercise actions. Exercise actions include, for example, actions in gymnastics, dance, yoga, tai chi, and the like. Exercise actions in this embodiment are exemplified by gymnastics actions.

第1プレーヤ(図示省略)は、第2動作と比較される第1動作を行うプレーヤであれば、特に限定されない。本実施形態の第1プレーヤは、エクササイズ動作のレッスンを行うインストラクターである場合が例示される。この場合、本実施形態の第1動作は、第2プレーヤP2による第2動作の模範動作である。 The first player (not shown) is not particularly limited as long as he or she is a player who performs a first action to be compared with a second action. In this embodiment, the first player is, for example, an instructor who gives lessons on exercise actions. In this case, the first action in this embodiment is an exemplary action of the second action performed by the second player P2.

第1プレーヤは、インストラクターに限定されるわけではなく、例えば、第2プレーヤP2に比べて、エクササイズ動作の熟練者(上級者)等であってもよいし、第2プレーヤP2とエクササイズ動作の優劣を競うプレーヤであってもよい。 The first player is not limited to an instructor, but may be, for example, a more skilled (advanced) exerciser than the second player P2, or a player competing with the second player P2 in terms of superiority of exercise movements.

第2プレーヤP2は、動作評価システム1(動作評価装置2)によって、第2動作が評価されるプレーヤである。本実施形態では、第2プレーヤP2として、エクササイズ動作のレッスンの受講者(例えば、初級者や中級者)である場合が例示される。この場合、第2動作は、第1プレーヤ(インストラクター)による第1動作を模擬した動作である。なお、第2プレーヤP2は、受講者に限定されるわけではなく、例えば、第1プレーヤとエクササイズ動作の優劣を競うプレーヤであってもよい。 The second player P2 is a player whose second movement is evaluated by the movement evaluation system 1 (movement evaluation device 2). In this embodiment, the second player P2 is exemplified as a student of an exercise movement lesson (e.g., a beginner or intermediate player). In this case, the second movement is a movement that imitates the first movement by the first player (instructor). Note that the second player P2 is not limited to a student, and may be, for example, a player competing with the first player to see which exercise movement is superior.

本実施形態の動作評価システム1は、動作評価装置2と、計測装置3とを含んで構成される。動作評価システム1(動作評価装置2)は、後述の動作評価方法を実行するのに用いられる。 The movement evaluation system 1 of this embodiment includes a movement evaluation device 2 and a measurement device 3. The movement evaluation system 1 (movement evaluation device 2) is used to execute the movement evaluation method described below.

[計測装置]
計測装置3は、第2プレーヤP2による第2動作を計測するためのものである。本実施形態の計測装置3は、モーションキャプチャシステム3Aとして構成されている。本実施形態では、第1プレーヤによる第1動作の計測にも、計測装置3(モーションキャプチャシステム3A)が用いられる。なお、計測装置3は、第1動作及び第2動作を計測できれば、モーションキャプチャシステム3Aに限定されるわけではなく、種々の装置が採用されうる。
[Measuring equipment]
The measurement device 3 is for measuring the second action by the second player P2. The measurement device 3 in this embodiment is configured as a motion capture system 3A. In this embodiment, the measurement device 3 (motion capture system 3A) is also used to measure the first action by the first player. Note that the measurement device 3 is not limited to the motion capture system 3A as long as it can measure the first action and the second action, and various devices can be adopted.

本実施形態のモーションキャプチャシステム3Aには、複数台のカメラ4が含まれる。これらのカメラ4は、第2プレーヤP2による第2動作を様々な方向から撮影することができる位置に配置されており、第2動作の三次元計測が可能とされている。モーションキャプチャシステム3Aには、例えば、VICON社製の三次元動作分析システムが好適に採用されうる。 The motion capture system 3A of this embodiment includes multiple cameras 4. These cameras 4 are positioned so that the second action by the second player P2 can be captured from various directions, making it possible to perform three-dimensional measurement of the second action. For example, a three-dimensional motion analysis system manufactured by VICON Corporation can be suitably used for the motion capture system 3A.

計測装置3は、有線又は無線の通信線(図示省略)を介して、動作評価装置2と通信可能に接続されている。これにより、計測装置3で計測された計測値が、動作評価装置2に送信されうる。なお、計測値の送信は、このような通信線に限定されるわけではなく、例えば、通信ネットワークを介して送信されてもよい。通信ネットワークには、例えば、WAN(Wide Area Network)やLAN(Local Area Network)等が含まれる。また、計測装置3が動作評価装置2に接続されない場合には、例えば、フラッシュメモリ等の記憶メディア(図示省略)等を介して、位置データが動作評価装置2に入力されてもよい。 The measuring device 3 is communicatively connected to the movement evaluation device 2 via a wired or wireless communication line (not shown). This allows the measurement values measured by the measuring device 3 to be transmitted to the movement evaluation device 2. Note that the transmission of the measurement values is not limited to such a communication line, and may be transmitted, for example, via a communication network. Communication networks include, for example, a wide area network (WAN) and a local area network (LAN). Furthermore, when the measuring device 3 is not connected to the movement evaluation device 2, the position data may be input to the movement evaluation device 2, for example, via a storage medium (not shown) such as a flash memory.

[動作評価装置]
動作評価装置2は、例えば、コンピュータ5によって構成される。コンピュータ5の一例には、デスクトップ型コンピュータ、ノート型コンピュータ、タブレットコンピュータ、スマートフォン、及び、クラウドサーバ等が挙げられる。本実施形態のコンピュータ5には、デスクトップ型コンピュータが採用される。図2は、本実施形態の動作評価装置2を示すブロック図である。
[Motion evaluation device]
The action evaluating device 2 is configured by, for example, a computer 5. Examples of the computer 5 include a desktop computer, a notebook computer, a tablet computer, a smartphone, and a cloud server. A desktop computer is adopted as the computer 5 in this embodiment. Fig. 2 is a block diagram showing the action evaluating device 2 of this embodiment.

本実施形態の動作評価装置2は、例えば、入力装置11と、表示装置12と、通信装置13と、演算処理装置14とを含んで構成されている。 The action evaluation device 2 of this embodiment is configured to include, for example, an input device 11, a display device 12, a communication device 13, and a processing device 14.

[入力装置・表示装置]
入力装置11には、例えば、図1に示したキーボード11aやマウス11b等が用いられる。表示装置12には、例えば、図1に示したディスプレイ12a等が用いられる。
[Input device/display device]
The input device 11 may be, for example, a keyboard 11a or a mouse 11b shown in Fig. 1. The display device 12 may be, for example, a display 12a shown in Fig. 1.

[通信装置]
図2に示されるように、本実施形態の通信装置13は、通信線23を介して、計測装置3(モーションキャプチャシステム3A)と通信可能に接続されている。これにより、通信装置13(動作評価装置2)は、計測装置3の計測値を、通信線23を介して取得(受信)することが可能となる。また、本実施形態の通信装置13(動作評価装置2)は、例えば、計測装置3を制御するための信号を、通信線を介して計測装置3に送信しうる。
[Communication device]
2, the communication device 13 of this embodiment is communicatively connected to the measurement device 3 (motion capture system 3A) via a communication line 23. This allows the communication device 13 (movement evaluation device 2) to acquire (receive) the measurement values of the measurement device 3 via the communication line 23. Furthermore, the communication device 13 (movement evaluation device 2) of this embodiment can transmit, for example, a signal for controlling the measurement device 3 to the measurement device 3 via the communication line.

[演算処理装置]
本実施形態の演算処理装置14は、例えば、各種の演算を行う演算部(CPU)15、データやプログラム等が記憶される記憶部16、及び、作業用メモリ17を含んで構成されている。
[Processing device]
The arithmetic processing device 14 of this embodiment is configured to include, for example, a calculation unit (CPU) 15 that performs various calculations, a storage unit 16 in which data, programs, etc. are stored, and a working memory 17.

[記憶部]
記憶部16は、例えば、磁気ディスク、光ディスク又はSSD等からなる不揮発性の情報記憶装置である。本実施形態の記憶部16には、データ部18及びプログラム部19が含まれる。
[Memory unit]
The storage unit 16 is a non-volatile information storage device formed of, for example, a magnetic disk, an optical disk, an SSD, etc. The storage unit 16 in this embodiment includes a data section 18 and a program section 19.

[データ部]
データ部18は、図1に示した第2プレーヤP2による第2動作の評価に必要なデータ(情報)や、評価結果等を記憶するためのものである。本実施形態のデータ部18には、第1動作値記憶部18a、第2動作値入力部18b、協調動作データ入力部18c、及び、比較結果入力部18dが含まれる。なお、データ部18は、このような態様に限定されるわけではなく、これらの一部が省略されてもよいし、その他のデータが記憶されるデータ部が含まれてもよい。これらのデータ部18に入力されるデータの詳細は、後述される。
[Data section]
The data section 18 is for storing data (information) necessary for evaluating the second action by the second player P2 shown in Fig. 1, the evaluation result, and the like. The data section 18 of this embodiment includes a first action value storage section 18a, a second action value input section 18b, a cooperative action data input section 18c, and a comparison result input section 18d. Note that the data section 18 is not limited to such an embodiment, and some of these may be omitted, or a data section in which other data is stored may be included. Details of the data input to these data sections 18 will be described later.

[プログラム部]
プログラム部19は、図1に示した第2プレーヤP2による第2動作の評価に必要なプログラム(コンピュータプログラム)である。プログラム部(プログラム)19は、演算部15によって実行されることにより、コンピュータ5を、特定の手段として機能させることができる。
[Program section]
The program unit 19 is a program (computer program) necessary for evaluating the second action by the second player P2 shown in Fig. 1. The program unit (program) 19, when executed by the calculation unit 15, can cause the computer 5 to function as a specific means.

本実施形態のプログラム部19には、取得部19a、抽出部19b、比較部19c、出力部19d及び評価部19eが含まれる。なお、プログラム部19は、このような態様に限定されるわけではなく、その他の機能を有するプログラム部が含まれてもよい。これらのプログラム部19の機能の詳細は、後述される。 The program unit 19 in this embodiment includes an acquisition unit 19a, an extraction unit 19b, a comparison unit 19c, an output unit 19d, and an evaluation unit 19e. Note that the program unit 19 is not limited to this embodiment, and may include program units having other functions. The functions of these program units 19 will be described in detail later.

[動作評価方法(第1実施形態)]
次に、本実施形態の動作評価方法が説明される。本実施形態の動作評価方法では、第1プレーヤの動作である第1動作に基づいて、図1に示した第2プレーヤP2の動作である第2動作が評価される。図3は、本実施形態の動作評価方法の処理手順を示すフローチャートである。本実施形態では、動作評価方法の各工程が、図1及び図2に示した動作評価装置2(コンピュータ5)によって実行される。
[Movement evaluation method (first embodiment)]
Next, the action evaluation method of this embodiment will be described. In the action evaluation method of this embodiment, a second action which is the action of the second player P2 shown in FIG. 1 is evaluated based on a first action which is the action of the first player. FIG. 3 is a flowchart showing the processing procedure of the action evaluation method of this embodiment. In this embodiment, each step of the action evaluation method is executed by the action evaluation device 2 (computer 5) shown in FIGS. 1 and 2.

[第2プレーヤの第2動作値を取得]
本実施形態の動作評価方法では、先ず、図1に示した第2プレーヤP2の第2動作を計測した第2動作値が取得される(工程S1)。第2動作値は、第2動作を定量的に表すことができれば、適宜取得されうる。本実施形態の第2動作値には、第2プレーヤP2の身体各部位の位置データが含まれる。
[Get second action value of second player]
In the motion evaluation method of this embodiment, first, a second motion value is obtained by measuring the second motion of the second player P2 shown in Fig. 1 (step S1). The second motion value can be appropriately obtained as long as it can quantitatively express the second motion. The second motion value of this embodiment includes position data of each body part of the second player P2.

本実施形態の工程S1では、先ず、図2に示したプログラム部19に含まれる取得部19aが、作業用メモリ17に読み込まれる。取得部19aは、第2動作値を取得するためのプログラムである。この取得部19aが、演算部15によって実行されることで、コンピュータ5を、第2動作値を取得するための手段として機能させることができる。 In step S1 of this embodiment, first, the acquisition unit 19a included in the program unit 19 shown in FIG. 2 is loaded into the working memory 17. The acquisition unit 19a is a program for acquiring the second operating value. When the acquisition unit 19a is executed by the calculation unit 15, the computer 5 can function as a means for acquiring the second operating value.

本実施形態の工程S1では、先ず、図1に示した第2プレーヤP2による第2動作が計測される。本実施形態の第2動作の計測には、計測装置3(モーションキャプチャシステム3A)が用いられる。計測装置3による計測の開始及び終了などの制御は、動作評価装置2(コンピュータ5)が行ってもよいし、オペレータ等が行ってもよい。 In step S1 of this embodiment, first, the second movement by the second player P2 shown in FIG. 1 is measured. In this embodiment, the measurement device 3 (motion capture system 3A) is used to measure the second movement. The start and end of the measurement by the measurement device 3 may be controlled by the movement evaluation device 2 (computer 5) or by an operator, etc.

本実施形態では、第2動作の計測に先立ち、図1に示した第2プレーヤP2の身体の所定の部位に、複数のマーカー(図示省略)が取り付けられる。本実施形態の複数のマーカーは、例えば、光反射性の球体に形成されている。このようなマーカーにより、第2プレーヤP2の身体の挙動が、複数台のカメラ4によって精度良く捉えられうる。 In this embodiment, prior to measuring the second movement, multiple markers (not shown) are attached to predetermined parts of the body of the second player P2 shown in FIG. 1. In this embodiment, the multiple markers are formed, for example, as light-reflective spheres. Such markers allow the behavior of the body of the second player P2 to be captured with high accuracy by the multiple cameras 4.

本実施形態のマーカー(図示省略)は、例えば、上記特許文献1と同様に、第2プレーヤP2の身体各部位(例えば、頭、手首、手の指先、肘、肩、腰、膝、踝、及び、脚の指先等)にそれぞれ取り付けられる。本実施形態では、53個のマーカーが取り付けられているが、このような態様に限定されるわけではなく、例えば、第2動作による体の動き等に応じて、一部のマーカーが省略されてもよいし、他のマーカーが追加されてもよい。各マーカーには、予め定められた識別番号(例えば、第1番~第53番)が設定されている。 The markers (not shown) in this embodiment are attached to various parts of the body of the second player P2 (e.g., head, wrists, fingertips, elbows, shoulders, hips, knees, ankles, and toes, etc.) in the same manner as in the above-mentioned Patent Document 1. In this embodiment, 53 markers are attached, but this is not limited to this embodiment, and for example, some markers may be omitted or other markers may be added depending on the body movement caused by the second action, etc. Each marker is assigned a predetermined identification number (e.g., number 1 to number 53).

次に、図1に示した第2プレーヤP2による第2動作が開始されてから終了するまでの間、第2動作が、複数台のカメラ4で連続撮影される。これにより、第2動作が時系列(複数の時刻)で連続的に撮影された複数の画像を含む画像群(動画)が取得される。第2動作は、予め定められたサンプリング周波数に対応する時間間隔で撮影される。サンプリング周波数は、適宜設定することができ、例えば、500Hzに設定される。 Next, from the start to the end of the second action by the second player P2 shown in FIG. 1, the second action is continuously photographed by the multiple cameras 4. This results in an image group (video) including multiple images of the second action photographed continuously in chronological order (at multiple times). The second action is photographed at time intervals corresponding to a predetermined sampling frequency. The sampling frequency can be set appropriately, and is set to 500 Hz, for example.

画像群(動画)に含まれる各画像は、例えば、計測装置3(モーションキャプチャシステム3A)に含まれる画像処理ソフトウェア等で画像処理される。これにより、第2動作の時系列の第2動作値が取得される。 Each image included in the image group (video) is processed, for example, by image processing software included in the measurement device 3 (motion capture system 3A). This allows the second movement value of the second movement in time series to be obtained.

本実施形態では、第2動作値として、複数のマーカー(図示省略)の位置データがそれぞれ取得される。これらの位置データにより、複数のマーカーが取り付けられた第2プレーヤP2の身体各部位の位置(身体各部位の位置データ)がそれぞれ特定される。なお、複数のマーカー(本例では、53個のマーカー)の位置データは、例えば、それらで特定される身体各部位20の関節中心を平均化することで、一部のマーカー(本例では、23個のマーカー)の位置データに集約されてもよい。これにより、位置データが少なくなり、後述の特異値分解によって得られる協調動作データのモードの個数の増大が抑制される。なお、このような集約を行わなくても、例えば、複数のマーカー(本例では、53個のマーカー)の位置データのうち、第2動作の評価をする際に注目すべき身体各部位に取り付けられたマーカーの位置データが限定されてもよい。 In this embodiment, position data of a plurality of markers (not shown) is acquired as the second action value. The position data specifies the positions of the body parts of the second player P2 to which the plurality of markers are attached (position data of the body parts). The position data of the plurality of markers (53 markers in this example) may be aggregated into position data of some markers (23 markers in this example) by, for example, averaging the joint centers of the body parts 20 specified by the plurality of markers. This reduces the amount of position data, and suppresses an increase in the number of modes of the collaborative action data obtained by singular value decomposition described below. Even without such aggregation, for example, the position data of the markers attached to the body parts that should be noted when evaluating the second action may be limited among the position data of the plurality of markers (53 markers in this example).

図4は、第2プレーヤP2の身体各部位20の位置データを説明する図である。図4において、(a)は、X軸方向(第2プレーヤP2の正面)からみた位置データであり、(b)は、Y軸方向(第2プレーヤP2の側面)からみた位置データである。 Figure 4 is a diagram explaining the position data of each body part 20 of the second player P2. In Figure 4, (a) is the position data as viewed from the X-axis direction (the front of the second player P2), and (b) is the position data as viewed from the Y-axis direction (the side of the second player P2).

第2プレーヤP2の身体各部位20の位置データは、三次元(直交座標系)の座標値として取得される。三次元の座標値は、例えば、図4(a)に示した第2プレーヤP2の正面視において、奥行方向(X軸方向)、左右方向(Y軸方向)、及び、高さ方向(Z軸方向)に基づいて特定される。このような第2プレーヤP2の身体各部位20の位置データが時系列で特定されることによって第2動作値が取得される。 The position data of each body part 20 of the second player P2 is acquired as three-dimensional (Cartesian coordinate system) coordinate values. The three-dimensional coordinate values are identified, for example, based on the depth direction (X-axis direction), left/right direction (Y-axis direction), and height direction (Z-axis direction) when viewed from the front of the second player P2 shown in FIG. 4(a). The second motion value is acquired by identifying such position data of each body part 20 of the second player P2 in chronological order.

第2プレーヤP2の身体各部位20の座標値(位置データ)は、例えば、複数の身体各部位20から選択された一つの身体各部位20の座標値が、予め定められた基準位置21に一致するように、座標変換(移動)されてもよい。これにより、基準位置21に基づいて、身体各部位20の座標値が揃えられた第2動作値が取得されうる。このような第2動作値により、例えば、体格が異なる他のプレーヤの動作値(本例では、第1プレーヤーの第1動作値)との比較や、動作が計測された位置が異なる他のプレーヤの動作値との比較が容易となる。基準位置21は、例えば、X軸、Y軸及びZ軸の原点に設定されているが、特に限定されるわけではなく、任意の位置に設定されうる。また、基準位置21に一致させる部位20は、左足先20aに設定されているが、特に限定されるわけではなく、任意の身体各部位20が選択されうる。 The coordinate values (position data) of each body part 20 of the second player P2 may be transformed (moved) so that the coordinate values of one body part 20 selected from the multiple body parts 20 match a predetermined reference position 21. This allows a second motion value in which the coordinate values of each body part 20 are aligned based on the reference position 21 to be acquired. Such a second motion value makes it easy to compare, for example, with the motion values of other players with different physiques (in this example, the first motion value of the first player) or with the motion values of other players whose motions are measured at different positions. The reference position 21 is set, for example, to the origin of the X-axis, Y-axis, and Z-axis, but is not particularly limited and can be set to any position. In addition, the part 20 to be matched to the reference position 21 is set to the left toe 20a, but is not particularly limited and any body part 20 can be selected.

第2プレーヤP2の身体各部位20の座標値(位置データ)は、例えば、第2プレーヤP2の右足先20bの位置から左足先20aの位置に向かうベクトル(図示省略)が、Y軸方向(左右方向)と平行となるように、座標変換されてもよい。これにより、第2プレーヤP2の体の向きが揃えられた第2動作値が取得され、例えば、他のプレーヤの動作値(第1プレーヤーの第1動作値)との比較が容易となる。 The coordinate values (position data) of each body part 20 of the second player P2 may be transformed so that, for example, a vector (not shown) pointing from the position of the right toe 20b to the position of the left toe 20a of the second player P2 is parallel to the Y-axis direction (left-right direction). This allows a second movement value with the orientation of the second player P2's body aligned to be obtained, making it easier to compare with, for example, the movement values of other players (first movement value of the first player).

第2動作値は、例えば、以下の式(1)~(3)で定義される。先ず、式(1)では、第1時刻から第N時刻までの任意の時刻tにおいて、第i番のマーカー(身体各部位20)の位置データ(原点を基準とする位置ベクトル)が特定される。本実施形態において、第1時刻は、第2動作が開始された時刻である。また、第N時刻は、第2動作が終了した時刻である。 The second movement value is defined, for example, by the following formulas (1) to (3). First, in formula (1), position data (position vector with the origin as the reference point) of the i-th marker (each body part 20) is identified at any time t between the first time and the N-th time. In this embodiment, the first time is the time when the second movement is started. Furthermore, the N-th time is the time when the second movement is ended.

Figure 2024066646000002
ここで、
i:マーカー(身体各部位)の識別番号
t:時刻
Figure 2024066646000002
here,
i: Identification number of marker (each body part) t: Time

上記の式(1)において、xi(t)、yi(t)及びzi(t)は、時刻tにおいて、第i番のマーカー(身体各部位20)のX軸方向の座標、Y軸方向の座標、及び、Z軸方向の座標を示している。この位置データri(t)について、第1時刻から第N時刻まで作成し、これらを行ごとに並べた行列[ri]が、下記の式(2)で定義される。 In the above formula (1), x i (t), y i (t), and z i (t) indicate the X-axis coordinate, Y-axis coordinate, and Z-axis coordinate of the i-th marker (body part 20) at time t. Position data r i (t) is created from the first time to the N-th time, and a matrix [r i ] in which these are arranged row by row is defined by the following formula (2).

Figure 2024066646000003
Figure 2024066646000003

上記の式(2)の行列[ri]では、N行3列の行列であり、第1行から第N行に、時系列に沿って順に、上記の式(1)で定義される三次元座標ri(1),ri(2),・・・,ri(N)が並べられている。そして、全てのマーカー(身体各部位20)に対する23個の行列[r1]、[r2]…[r23]を、この順に列方向(横方向)に並べた行列[R]が、下記の式(3)で定義される。行列[R]は、N行69(=3×23)列の行列である。 The matrix [ ri ] in the above formula (2) is a matrix with N rows and 3 columns, and the three-dimensional coordinates ri (1), ri (2), ..., ri(N) defined in the above formula (1) are arranged in the first to Nth rows in chronological order. Then, the matrix [R] in which 23 matrices [ r1 ], [ r2 ] ... [ r23 ] for all markers (each body part 20) are arranged in this order in the column direction (horizontal direction) is defined by the following formula (3). The matrix [R] is a matrix with N rows and 69 (= 3 x 23) columns.

Figure 2024066646000004
Figure 2024066646000004

上記の式(3)の行列[R]は、第1時刻から第N時刻までの23個のマーカー(身体各部位20)の位置を時系列に表す時系列の挙動データである。なお、行例[R]の第t行には、第t時刻での第2プレーヤP2の身体における23個のマーカー(身体各部位20)の三次元座標が含まれている。 The matrix [R] in the above formula (3) is time-series behavior data that represents the positions of 23 markers (body parts 20) from the first time to the Nth time in a time series. Note that the tth row of the matrix [R] contains the three-dimensional coordinates of the 23 markers (body parts 20) on the body of the second player P2 at the tth time.

この行列[R]の第t行において、第t時刻の第2プレーヤP2の身体各部位20の位置データ(第2プレーヤP2の姿勢)が表される。このような行列[R]により、第2動作値が特定されうる。 The t-th row of this matrix [R] represents the position data of each body part 20 of the second player P2 at the t-th time (the posture of the second player P2). The second motion value can be determined by such a matrix [R].

本実施形態の工程S1では、行列[R]で特定される複数の身体各部位20をジョイントとし、これらのジョイントを連結するボーン(骨)24を含む人体モデル(スティックピクチャー)M2が設定される。これらの第2動作値及び人体モデルM2は、第2動作値入力部18b(図2に示す)に記憶される。 In step S1 of this embodiment, a human body model (stick picture) M2 is set that includes a plurality of body parts 20 identified by the matrix [R] as joints and bones 24 connecting these joints. These second motion values and the human body model M2 are stored in the second motion value input unit 18b (shown in FIG. 2).

[第2動作値から第2協調動作データを抽出]
次に、本実施形態の動作評価方法では、第2動作の特徴的な挙動を示す第2協調動作データが抽出される(工程S2)。本実施形態の工程S2では、第2動作値を特異値分解することで、第2協調動作データが抽出される。
[Extracting second cooperative motion data from second motion value]
Next, in the action evaluation method of this embodiment, second cooperative action data indicating characteristic behavior of the second action is extracted (step S2). In step S2 of this embodiment, the second action value is subjected to singular value decomposition to extract the second cooperative action data.

本実施形態の工程S2では、先ず、図2に示した第2動作値入力部18bに入力されている第2動作値が、作業用メモリ17に読み込まれる。さらに、プログラム部19に含まれる抽出部19bが、作業用メモリ17に読み込まれる。抽出部19bは、第2協調動作データを抽出するためのプログラムである。この抽出部19bが、演算部15によって実行されることで、コンピュータ5を、第2協調動作データを抽出する手段として機能させることができる。 In step S2 of this embodiment, first, the second operation value input to the second operation value input unit 18b shown in FIG. 2 is read into the working memory 17. Furthermore, the extraction unit 19b included in the program unit 19 is read into the working memory 17. The extraction unit 19b is a program for extracting the second cooperative operation data. When the extraction unit 19b is executed by the calculation unit 15, the computer 5 can function as a means for extracting the second cooperative operation data.

本実施形態の工程S2では、特異値分解に先立ち、上記の式(3)の行列が拡張される。この行列の拡張は、特異値分解の基準点を、第2動作(エクササイズ動作)の初期姿勢に近づけるためのものである。 In step S2 of this embodiment, the matrix in the above formula (3) is expanded prior to singular value decomposition. This matrix expansion is intended to bring the reference point of the singular value decomposition closer to the initial posture of the second movement (exercise movement).

行列の拡張は、先ず、第i番のマーカー(図4に示した身体各部位20)の初期姿勢の座標値(位置ベクトル)ri(1)が、上記の式(1)に基づいて求められる。次に、求められた座標値(位置ベクトル)ri(1)の行ごとに、第1時刻から第2N時刻まで並べた行列([ri(1)])が作成される。このとき、[ri(1)]の行ごとの要素は、すべてri(1)となる。 To expand the matrix, first, the coordinate values (position vector) r i (1) of the initial posture of the i-th marker (each body part 20 shown in FIG. 4) are found based on the above formula (1). Next, a matrix ([r i (1)]) is created in which the first time through the 2Nth time are arranged for each row of the found coordinate values (position vector) r i (1). At this time, all elements of each row of [r i (1)] become r i (1).

次に、上記の行列([ri(1)])が第1番~第23番のマーカー(身体各部位20)について作成され、それらを列ごとに並べた行列([R(1)])が、以下の式(4)で定義される。 Next, the above matrix ([r i (1)]) is created for markers 1 to 23 (body parts 20), and a matrix ([R(1)]) that arranges them column by column is defined by the following equation (4).

Figure 2024066646000005
Figure 2024066646000005

さらに、行列のデータ点数を増やして分解能を向上させるために、上記の式(3)の行列を時系列方向に反転した行列[Rt]が、以下の式(5)で定義される。そして、上記の式(3)の行列[R]に上記の式(4)の行列[R(1)]、及び、下記の式(5)の行列[Rt]を結合した行列である観測行列[Ra]が、以下の式(6)で定義される。 Furthermore, in order to increase the number of data points in the matrix and improve the resolution, a matrix [R t ] obtained by inverting the matrix of the above formula (3) in the time series direction is defined by the following formula (5). Then, an observation matrix [R a ] obtained by combining the matrix [R] of the above formula (3) with the matrix [R(1)] of the above formula (4) and the matrix [R t ] of the following formula ( 5 ) is defined by the following formula (6).

Figure 2024066646000006
Figure 2024066646000006
Figure 2024066646000007
Figure 2024066646000007

次に、本実施形態の工程S2では、23個のマーカー(身体各部位20)の位置の時系列データを上記の式(6)の観測行列[Ra]とし、基準となる初期姿勢を示す行列[R0]として、下記の式(7)を用いて特異値分解が行われる。なお、行列[R0]は、観測行列[Ra]の時間方向(行方向)に平均をとり、その平均を行ごとに6N個並べた行列(6N行69(=3×23)列)として定義される。 Next, in step S2 of this embodiment, the time-series data of the positions of the 23 markers (body parts 20) are defined as the observation matrix [R a ] in the above formula (6), and the matrix [R 0 ] indicating the reference initial posture is used to perform singular value decomposition using the following formula (7). Note that the matrix [R 0 ] is defined as a matrix (6N rows and 69 (=3×23) columns) in which the observation matrix [R a ] is averaged in the time direction (row direction) and 6N averages are arranged per row.

Figure 2024066646000008
Figure 2024066646000008

上記の式(7)に基づいて、観測行列[Ra]と初期姿勢の行列[R0]との差分である[Ra]-[R0]が特異値分解され、n=1,2,・・・,J(Jは、69以下の整数)に対し、U(n)、Γ(n)及びV(n)が得られる。 Based on the above equation (7), the difference between the observation matrix [R a ] and the initial posture matrix [R 0 ], [R a ]-[R 0 ], is subjected to singular value decomposition to obtain U (n) , Γ (n) , and V (n) for n = 1, 2, ..., J (J is an integer less than or equal to 69).

Γ(n)は、第nモード(第n番目)の特異値であり、[Ra]-[R0]に対する第nモード(第n番目)の割合を表している。U(n)は、観測行列[Ra]の左特異ベクトルであり、6N行69(=3×23)列となる。V(n)は、観測行列[Ra]の右特異ベクトルであり、69次元である。 Γ (n) is the singular value of the nth mode (nth) and represents the ratio of the nth mode (nth) to [R a ]-[R 0 ]. U (n) is the left singular vector of the observation matrix [R a ] and has 6N rows and 69 (=3×23) columns. V (n) is the right singular vector of the observation matrix [R a ] and is 69-dimensional.

左特異ベクトルU(n)は、右特異ベクトルV(n)の時間情報を表す基底である時間基底である。一方、右特異ベクトルV(n)は、第2プレーヤP2の身体における各マーカー(身体各部位20)の位置情報を表す基底である空間基底である。この空間基底は、基準となる初期姿勢の行列[R0]に対し,第nモード(第n番目)の動作の方向を示すベクトルである。このような空間基底の値により、第2動作での第2プレーヤP2の動き(身体各部位20の動き)を、モード毎に数値化することが可能となる。 The left singular vector U (n) is a time basis that is a basis representing the time information of the right singular vector V (n) . On the other hand, the right singular vector V (n) is a spatial basis that is a basis representing the position information of each marker (each body part 20) on the body of the second player P2. This spatial basis is a vector that indicates the direction of the n-th mode (n-th) movement with respect to the matrix [R 0 ] of the reference initial posture. The value of such a spatial basis makes it possible to digitize the movement (movement of each body part 20) of the second player P2 in the second movement for each mode.

本実施形態の工程S2では、第2動作値を特異値分解することで得られる空間基底(右特異ベクトルV(n))が、第2動作の特徴的な挙動を示す第2協調動作データとして抽出される。これらの第2協調動作データは、モードごと(本例では、第1モードから第69モードごと)に、図2に示した協調動作データ入力部18cに記憶される。 In step S2 of the present embodiment, a spatial basis (right singular vector V (n) ) obtained by singular value decomposition of the second action value is extracted as second cooperative action data indicating characteristic behavior of the second action. The second cooperative action data is stored in the cooperative action data input unit 18c shown in FIG. 2 for each mode (in this example, for each of the first to 69th modes).

[第1比較結果を取得]
次に、本実施形態の評価方法では、第1協調動作データと、第2協調動作データとを比較した第1比較結果が取得される(工程S3)。
[Get first comparison result]
Next, in the evaluation method of this embodiment, a first comparison result is obtained by comparing the first cooperative movement data with the second cooperative movement data (step S3).

第1協調動作データは、図示しない第1プレーヤの動作である第1動作(本例では、第2動作の模範動作)の特徴的な挙動を示す指標である。この第1協調動作データは、評価方法の実施に先立って抽出されているのが好ましい。 The first cooperative action data is an index showing characteristic behavior of the first action (in this example, the model action of the second action), which is the action of the first player (not shown). It is preferable that this first cooperative action data is extracted prior to carrying out the evaluation method.

第1協調動作データは、第2強調動作データと同様の手順(工程S1及び工程S2)で抽出されうる。この第1協調動作データの抽出には、先ず、第1動作を計測した第1動作値が取得される。この第1動作値には、第1プレーヤの身体各部位の位置データが含まれており、図2に示した第1動作値記憶部18aに予め記憶されている。 The first cooperative movement data can be extracted in the same procedure as the second emphasizing movement data (steps S1 and S2). To extract this first cooperative movement data, first, a first movement value obtained by measuring the first movement is obtained. This first movement value includes position data of each part of the first player's body, and is stored in advance in the first movement value storage unit 18a shown in FIG. 2.

次に、第1動作値が特異値分解されることで、第1協調動作データが抽出されうる。この第1協調動作データには、空間基底(右特異ベクトルV(n))が含まれる。本実施形態の第1協調動作データは、モードごと(本例では、第1モードから第69モードごと)に、図2に示した協調動作データ入力部18cに予め記憶されている。 Next, the first cooperative motion data can be extracted by performing singular value decomposition on the first motion value. The first cooperative motion data includes a spatial basis (right singular vector V (n) ). The first cooperative motion data of this embodiment is stored in advance in the cooperative motion data input unit 18c shown in FIG. 2 for each mode (in this example, for each of the first to 69th modes).

本実施形態の工程S3では、先ず、図2に示した協調動作データ入力部18cに入力されている第1協調動作データ、及び、第2協調動作データが、作業用メモリ17に読み込まれる。さらに、プログラム部19に含まれる比較部19cが、作業用メモリ17に読み込まれる。比較部19cは、第1協調動作データと、第2協調動作データとを比較した第1比較結果を取得するためのプログラムである。この比較部19cが、演算部15によって実行されることで、コンピュータ5を、第1比較結果を取得する手段として機能させることができる。 In step S3 of this embodiment, first, the first cooperative action data and the second cooperative action data inputted to the cooperative action data input unit 18c shown in FIG. 2 are read into the working memory 17. Furthermore, the comparison unit 19c included in the program unit 19 is read into the working memory 17. The comparison unit 19c is a program for obtaining a first comparison result obtained by comparing the first cooperative action data with the second cooperative action data. When the comparison unit 19c is executed by the calculation unit 15, the computer 5 can function as a means for obtaining the first comparison result.

第1協調動作データと第2協調動作データとの比較は、適宜実施されうる。本実施形態では、これらの協調動作データに含まれる複数のモード(本例では、第1モード~第69モード)ごとに、第1協調動作データと第2協調動作データとが比較されるのが好ましい。 The comparison between the first cooperative operation data and the second cooperative operation data can be performed as appropriate. In this embodiment, it is preferable to compare the first cooperative operation data and the second cooperative operation data for each of the multiple modes (in this example, the first mode to the 69th mode) included in the cooperative operation data.

本実施形態では、第1協調動作データの空間基底(右特異ベクトルV(n))と、第2協調動作データの空間基底(右特異ベクトルV(n))との類似度が、複数のモード毎に取得される。このような類似度が、第1比較結果として取得されることで、図示しない第1プレーヤの第1動作(身体各部位の動き)に対して、図4に示した第2プレーヤP2の第2動作(身体各部位20の動き)がどの程度似ているかを定量的に評価することが可能となる。 In this embodiment, the similarity between the spatial base of the first cooperative motion data (right singular vector V (n) ) and the spatial base of the second cooperative motion data (right singular vector V (n) ) is obtained for each of a plurality of modes. By obtaining such similarity as the first comparison result, it becomes possible to quantitatively evaluate the degree to which the second motion (movements of each body part 20) of the second player P2 shown in FIG. 4 is similar to the first motion (movements of each body part) of the first player (not shown).

類似度は、第1協調動作データと第2協調動作データとを比較することができれば、適宜取得される。本実施形態の類似度には、コサイン類似度又は相関係数が含まれる。第nモードのコサイン類似度は、下記の式(8)で取得される。 The similarity is obtained as appropriate if it is possible to compare the first cooperative operation data with the second cooperative operation data. In this embodiment, the similarity includes cosine similarity or correlation coefficient. The cosine similarity of the nth mode is obtained by the following formula (8).

Figure 2024066646000009
ここで、
V’ins(n) :第1協調動作データの第nモードにおける各部位の空間基底をノルム化したベクトル(以下、「空間ベクトルノルム」ということがある。)
V’1(n) :第2協調動作データの第nモードにおける各部位の空間基底をノルム化したベクトル
|V’ins(n)|:第1協調動作データの第nモードにおける全部位の空間基底における
ノルム
|V’1(n)| :第2協調動作データの第nモードにおける全部位の空間基底における
ノルム
n:モード特定するための変数
Figure 2024066646000009
here,
V'ins(n) : A vector obtained by norming the spatial basis of each part in the n-th mode of the first coordination data (hereinafter, may be referred to as "spatial vector norm").
V' 1(n) : A vector obtained by norming the spatial basis of each part in the n-th mode of the second coordinated motion data
| V'ins(n) |: norm of all parts in the spatial basis in the n-th mode of the first coordinated motion data
|V' 1(n) |: norm of all parts in the spatial basis in the n-th mode of the second coordinated motion data n: variable for identifying the mode

上記の式(8)において、V’ins(n)は、第nモードにおける第1協調動作データの空間基底(右特異ベクトルV(n))を身体各部位のx,y,z軸成分でノルム化したベクトル(すなわち、V’ins_1(n)~V’ins_23(n)の成分)である。V’1(n)は、第nモードにおける第2協調動作データの空間基底(右特異ベクトルV(n))を身体各部位のx,y,z軸成分でノルム化したベクトル(すなわち、V1_1(n)~V1_23(n)の成分)である。 In the above formula (8), V'ins(n) is a vector obtained by norming the spatial basis of the first cooperative motion data in the nth mode (right singular vector V (n) ) with the x-, y-, and z-axis components of each body part (i.e., the components V'ins_1(n) to V'ins_23(n) ). V'1(n) is a vector obtained by norming the spatial basis of the second cooperative motion data in the nth mode (right singular vector V (n) ) with the x-, y-, and z-axis components of each body part (i.e., the components V1_1(n) to V1_23(n) ).

上記の式(8)において、|V’ins(n)|は、第nモードについて、第1協調動作データの全部位及び全成分の空間基底(右特異ベクトルV(n))におけるノルムである。このノルム|V’ins(n)|は、第1協調動作データの空間基底(右特異ベクトルV(n))を二乗した値の総和を求め、その総和の平方根を取った値である。このようなノルム|V’ins(n)|により、図示しない第1動作での第1プレーヤの動き(身体各部位20の動き)の大きさを数値化することが可能となる。 In the above formula (8), | V'ins(n) | is the norm of the spatial basis (right singular vector V (n) ) of all parts and all components of the first cooperative movement data for the nth mode. This norm | V'ins(n) | is a value obtained by calculating the sum of the squared values of the spatial basis (right singular vector V (n) ) of the first cooperative movement data and taking the square root of the sum. Such norm | V'ins(n) | makes it possible to quantify the magnitude of the movement of the first player (movement of each body part 20) in the first movement (not shown).

上記の式(8)において、|V’1(n)|は、第nモードについて、第2協調動作データの全部位及び全成分の空間基底(右特異ベクトルV(n))におけるノルムである。このノルム|V’1(n)|は、第2協調動作データの空間基底(右特異ベクトルV(n))を二乗した値の総和を求め、その総和の平方根をとった値である。このようなノルム|V’1(n)|により、図4に示した第2動作での第2プレーヤP2の動き(身体各部位20の動き)の大きさを数値化することが可能となる。 In the above formula (8), |V'1 (n) | is the norm of the spatial basis (right singular vector V (n) ) of all parts and all components of the second cooperative movement data for the nth mode. This norm | V'1(n) | is a value obtained by calculating the sum of the squared values of the spatial basis (right singular vector V (n) ) of the second cooperative movement data and taking the square root of the sum. Such norm | V'1(n) | makes it possible to quantify the magnitude of the movement (movement of each body part 20) of the second player P2 in the second movement shown in FIG. 4.

本実施形態の工程S3では、上記の式(8)のコサイン類似度により、全てのモード(本例では、第1モードから第69モード)を対象として、第1協調動作データの第nモードにおける各部位の空間基底をノルム化したベクトル(V’ins(n))と、第2協調動作データの第nモードにおける各部位の空間基底をノルム化したベクトル(V’1(n))との類似度が、身体各部位20ごとに計算されうる。このようなコサイン類似度が、第1比較結果として取得されることで、第1動作を模擬した第2動作が評価されうる。 In step S3 of the present embodiment, the cosine similarity of the above formula (8) is used to calculate the similarity between a vector ( V'ins(n) ) obtained by norming the spatial base of each part in the nth mode of the first cooperative movement data and a vector (V'1 (n)) obtained by norming the spatial base of each part in the nth mode of the second cooperative movement data for each body part 20, for all modes (in this example, the first mode to the 69th mode ). By obtaining such cosine similarity as the first comparison result, the second movement that simulates the first movement can be evaluated.

また、コサイン類似度は、下記の式(9)に基づいて、身体各部位20から選択される複数の部位を対象に計算されてもよい。 The cosine similarity may also be calculated for multiple parts selected from each body part 20 based on the following formula (9):

Figure 2024066646000010

ここで、
V’ins(n)_k :第1協調動作データの第nモードでの部位範囲(k)における各部位の空間基底をノルム化したベクトル
V’1(n)_k :第2協調動作データの第nモードでの部位範囲(k)における各部位の空間基底をノルム化したベクトル
|V’ins(n)_k |:第1協調動作データの第nモードでの部位範囲(k)の全体におけるノルム
|V’1(n)_k | :第2協調動作データの第nモードでの部位範囲(k)の全体におけるノルム
k:部位を特定するための変数
n:モード特定するための変数
Figure 2024066646000010

here,
V'ins(n)_k : A vector obtained by norming the spatial basis of each part in the part range (k) in the n-th mode of the first cooperative motion data. V'1 (n)_k : A vector obtained by norming the spatial basis of each part in the part range (k) in the n-th mode of the second cooperative motion data.
| V'ins(n)_k |: norm of the entire part range (k) in the n-th mode of the first coordinated motion data
|V' 1(n)_k |: norm of the whole part range (k) in the n-th mode of the second coordinated motion data k: variable for identifying the part n: variable for identifying the mode

上記の式(9)では、身体の特定の部位範囲(例えば、下半身)を構成する複数の部位について、変数m1で特定される部位のコサイン類似度から、変数m2で特定される部位のコサイン類似度までが足し合わされる。このようなコサイン類似度により、特定の部位範囲での類似度が求められる。 In the above formula (9), for multiple parts constituting a specific part range of the body (for example, the lower body), the cosine similarity of the part specified by variable m1 to the cosine similarity of the part specified by variable m2 are added together. From such cosine similarity, the similarity in the specific part range is found.

相関係数C(n)は、下記の式(10)で取得される。 The correlation coefficient C (n) is obtained by the following equation (10).

Figure 2024066646000011
ここで、
V’ins(n):第1協調動作データの第nモードにおける各部位の空間基底を
ノルム化したベクトル
V’1(n) :第2協調動作データの第nモードにおける各部位の空間基底を
ノルム化したベクトル
n:モード特定するための変数
Figure 2024066646000011
here,
V'ins(n) : A vector obtained by norming the spatial base of each part in the n-th mode of the first coordinated motion data. V'1 (n) : A vector obtained by norming the spatial base of each part in the n-th mode of the second coordinated motion data. n: A variable for identifying the mode.

上記の式(9)では、第nモード(本例では、第1モード~第69モード)ごとに、第1協調動作データの各部位の空間基底をノルム化したベクトル(V’ins(n))と、第2協調動作データの各部位の空間基底をノルム化したベクトル(V’1(n))との相関係数がそれぞれ求められる。そして、これらの全てのモードの相関係数が平均処理されることで、相関係数の平均値が求められてもよいし、モードごとに異なる重みを設定した加重平均等した値が求められてもよい。 In the above formula (9), for each n-th mode (in this example, modes 1 to 69), a correlation coefficient is calculated between a vector ( V'ins(n) ) obtained by norming the spatial base of each part of the first cooperative movement data and a vector (V'1(n)) obtained by norming the spatial base of each part of the second cooperative movement data. Then, the correlation coefficients of all these modes may be averaged to calculate an average value of the correlation coefficients, or a weighted average value may be calculated by setting different weights for each mode.

また、相関係数は、下記の式(11)に基づいて、身体各部位20から選択される複数の部位を対象に計算されてもよい。 The correlation coefficient may also be calculated for multiple parts selected from each body part 20 based on the following formula (11):

Figure 2024066646000012

ここで、
V’ins(n)_k :第1協調動作データの第nモードでの部位範囲(k)における各部位の空間基底をノルム化したベクトル
V’1(n)_k :第2協調動作データの第nモードでの部位範囲(k)における各部位の空間基底をノルム化したベクトル
|V’ins(n)_k |:第1協調動作データの第nモードでの部位範囲(k)の全体におけるノルム
|V’1(n)_k | :第2協調動作データの第nモードでの部位範囲(k)の全体におけるノルム
k:部位を特定するための変数
n:モード特定するための変数
Figure 2024066646000012

here,
V'ins(n)_k : A vector obtained by norming the spatial basis of each part in the part range (k) in the n-th mode of the first cooperative motion data. V'1 (n)_k : A vector obtained by norming the spatial basis of each part in the part range (k) in the n-th mode of the second cooperative motion data.
| V'ins(n)_k |: norm of the entire part range (k) in the n-th mode of the first coordinated motion data
|V' 1(n)_k |: norm of the whole part range (k) in the n-th mode of the second coordinated motion data k: variable for identifying the part n: variable for identifying the mode

上記の式(11)では、身体の特定の部位範囲(例えば、下半身)を構成する複数の部位について、変数m1で特定される部位の相関係数から、変数m2で特定される部位の相関係数までが足し合わされる。このような相関係数により、特定の部位範囲での類似度が求められる。これらの相関係数が求められることで、第1動作と第2動作との線形な相関関係の強さが求められ、第1動作を模擬した第2動作が評価されうる。 In the above formula (11), for a plurality of parts constituting a specific part range of the body (e.g., the lower body), the correlation coefficients of the parts specified by the variable m1 to the correlation coefficients of the parts specified by the variable m2 are added together. The similarity in the specific part range is calculated using such correlation coefficients. By calculating these correlation coefficients, the strength of the linear correlation between the first movement and the second movement can be calculated, and the second movement simulating the first movement can be evaluated.

本実施形態では、第1比較結果として、コサイン類似度が取得されるが、コサイン類似度に代えて、相関係数が取得されても良いし、これらの双方が取得されてもよい。また、第1比較結果には、コサイン類似度や相関係数とは異なる他のパラメータ等が取得されてもよい。また、本実施形態では、コサイン類似度及び相関係数の計算に、空間ベクトルノルムが用いられたが、このような態様に限定されない。例えば、空間ベクトル(右特異ベクトル)に基づいて、コサイン類似度や相関係数が計算されてもよい。 In this embodiment, the cosine similarity is obtained as the first comparison result, but instead of the cosine similarity, a correlation coefficient may be obtained, or both may be obtained. In addition, other parameters different from the cosine similarity and the correlation coefficient may be obtained as the first comparison result. In addition, in this embodiment, the space vector norm is used to calculate the cosine similarity and the correlation coefficient, but this is not limited to this aspect. For example, the cosine similarity and the correlation coefficient may be calculated based on the space vector (right singular vector).

本実施形態では、複数のモード(本例では、第1モード~第69モード)のうち、類似度が相対的に小さいモードが選択されてもよい。このようなモードは、第2プレーヤP2が重点的に改善すべきモードとして特定されうる。このモードは、第1比較結果として取得される。 In this embodiment, a mode with a relatively low degree of similarity may be selected from among a plurality of modes (in this example, the first mode to the 69th mode). Such a mode may be identified as a mode that the second player P2 should focus on improving. This mode is obtained as the first comparison result.

第1比較結果には、例えば、マーカー(身体各部位20)ごとに、第1協調動作データの空間ベクトルノルムと、第2協調動作データの空間ベクトルノルムとを比較したグラフが含まれてもよい。図5は、第1協調動作データの空間ベクトルノルムと、第2協調動作データの空間ベクトルノルムとを比較したグラフ25である。 The first comparison result may include, for example, a graph comparing the spatial vector norm of the first cooperative motion data with the spatial vector norm of the second cooperative motion data for each marker (each body part 20). FIG. 5 shows a graph 25 comparing the spatial vector norm of the first cooperative motion data with the spatial vector norm of the second cooperative motion data.

図5において、横軸は、図4に示した身体各部位(マーカー)20を示している。この横軸の「(L)」は、左側の部位(マーカー)を示しており、「(R)」は、左側の部位(マーカー)を示している。一方、縦軸は、空間ベクトルノルムを示しており、身体各部位(マーカー)20の動きの大きさを示している。また、図5において、「Instructor」は、第1プレーヤ(第1協調動作データ)の身体各部位の動きの大きさを示しており、「Participant」は、第2プレーヤ(第2協調動作データ)の身体各部位の動きの大きさを示している。 In Figure 5, the horizontal axis indicates each body part (marker) 20 shown in Figure 4. "(L)" on this horizontal axis indicates the left part (marker), and "(R)" indicates the left part (marker). Meanwhile, the vertical axis indicates the spatial vector norm, which indicates the magnitude of movement of each body part (marker) 20. Also in Figure 5, "Instructor" indicates the magnitude of movement of each body part of the first player (first cooperative movement data), and "Participant" indicates the magnitude of movement of each body part of the second player (second cooperative movement data).

図5のグラフ25により、第1プレーヤによる動きの大きさと、第2プレーヤP2による動きの大きさとを、身体各部位20ごとに比較することが可能となる。なお、図5では、第1モードのグラフ25が示されている。第1比較結果は、図2に示した比較結果入力部18dに記憶される。 The graph 25 in FIG. 5 makes it possible to compare the magnitude of the movements made by the first player P2 with the magnitude of the movements made by the second player P2 for each body part 20. Note that FIG. 5 shows the graph 25 in the first mode. The first comparison result is stored in the comparison result input unit 18d shown in FIG. 2.

[第1比較結果を表示]
次に、本実施形態の評価方法では、図1及び図2に示した表示装置12に、第1比較結果が出力される(工程S4)。本実施形態の工程S4では、先ず、図2に示した比較結果入力部18dに入力されている第1比較結果が、作業用メモリ17に読み込まれる。さらに、プログラム部19に含まれる出力部19dが、作業用メモリ17に読み込まれる。出力部19dは、第1比較結果を表示装置12に出力するためのプログラムである。この出力部19dが、演算部15によって実行されることで、コンピュータ5を、第1比較結果を出力する手段として機能させることができる。
[Show first comparison result]
Next, in the evaluation method of this embodiment, the first comparison result is output to the display device 12 shown in Figures 1 and 2 (step S4). In step S4 of this embodiment, first, the first comparison result input to the comparison result input unit 18d shown in Figure 2 is read into the working memory 17. Furthermore, the output unit 19d included in the program unit 19 is read into the working memory 17. The output unit 19d is a program for outputting the first comparison result to the display device 12. When this output unit 19d is executed by the calculation unit 15, the computer 5 can function as a means for outputting the first comparison result.

図6は、表示装置12に表示された第1比較結果31の一例を示す図である。本実施形態の工程S4では、第1比較結果31として、第1協調動作データの空間基底と、第2協調動作データの空間基底との類似度26が、表示装置12に表示される。本実施形態では、類似度26として、コサイン類似度が表示されているが、相関係数であってもよいし、その他の類似度が表示されてもよい。また、本実施形態の類似度26には、第1モードのコサイン類似度が示されているが、特に限定されるわけではなく、複数のモードごとにコサイン類似度が表示されてもよい。 Figure 6 is a diagram showing an example of the first comparison result 31 displayed on the display device 12. In step S4 of this embodiment, the similarity 26 between the spatial base of the first cooperative action data and the spatial base of the second cooperative action data is displayed on the display device 12 as the first comparison result 31. In this embodiment, the cosine similarity is displayed as the similarity 26, but it may be a correlation coefficient or another similarity may be displayed. Also, although the similarity 26 in this embodiment shows the cosine similarity of the first mode, this is not particularly limited, and the cosine similarity may be displayed for each of multiple modes.

このように、本実施形態の動作評価方法(動作評価装置2)では、第2プレーヤP2(図1に示す)の第2動作の特徴的な挙動を示す第2協調動作データが抽出され、その第2協調動作データと、第1プレーヤの第1協調動作データとが比較される。そして、第1動作と第2動作とを比較した第1比較結果31が表示装置12に出力される。これにより、第2動作を評価する者(本例では、インストラクターである第1プレーヤ)の感覚に依存することなく、第2プレーヤ(本例では、受講者)P2の第2動作が定量的に評価されうる。これにより、第2プレーヤP2の第2動作の改善点が容易に把握され、例えば、第2プレーヤP2への第2動作の適切な指導が可能となり、第2動作がさらに上達(エクササイズ動作が定着)されうる。 In this way, in the motion evaluation method (motion evaluation device 2) of this embodiment, second cooperative motion data showing characteristic behavior of the second motion of the second player P2 (shown in FIG. 1) is extracted, and the second cooperative motion data is compared with the first cooperative motion data of the first player. Then, a first comparison result 31 comparing the first motion with the second motion is output to the display device 12. This allows the second motion of the second player (in this example, the student) P2 to be quantitatively evaluated without relying on the sense of the person evaluating the second motion (in this example, the first player who is the instructor). This makes it easy to grasp the points to be improved in the second motion of the second player P2, and for example, it becomes possible to provide appropriate guidance on the second motion to the second player P2, and the second motion can be further improved (the exercise motion can be established).

本実施形態の工程S4では、表示装置12に、第1比較結果31として取得されたグラフ25(図5に示す)が表示されてもよい。グラフ25の詳細は、上述のとおりである。このようなグラフ25により、第1プレーヤ及び第2プレーヤP2の身体各部位ごとに、第1動作の動きの大きさと、第2動作の動きの大きさとを比較することでき、重点的に改善すべき身体各部位の動きの把握が可能となる。 In step S4 of this embodiment, a graph 25 (shown in FIG. 5) obtained as the first comparison result 31 may be displayed on the display device 12. Details of the graph 25 are as described above. Such a graph 25 makes it possible to compare the magnitude of the movement of the first action with the magnitude of the movement of the second action for each body part of the first player and the second player P2, and to grasp the movement of each body part that should be focused on for improvement.

本実施形態では、例えば、プルダウンメニュー27等により、複数のモード(第1モード~第69モード)ごとに、グラフ25の切り替えが可能とされるのが好ましい。これにより、複数のモードごとに、身体各部位の動きの大きさを比較することが可能となる。 In this embodiment, it is preferable that the graph 25 can be switched between multiple modes (mode 1 to mode 69) using, for example, a pull-down menu 27 or the like. This makes it possible to compare the magnitude of movement of each part of the body for each of the multiple modes.

本実施形態の工程S4では、表示装置12に、第1プレーヤの人体モデルM1と、第2プレーヤP2の人体モデルM2とが表示されてもよい。このような人体モデルM1、M2により、第1動作と第2動作とを視覚的に比較することが可能となる。 In step S4 of this embodiment, a human body model M1 of the first player and a human body model M2 of the second player P2 may be displayed on the display device 12. Such human body models M1 and M2 make it possible to visually compare the first action and the second action.

本実施形態の人体モデルM1、M2は、第1時刻から第N時刻までのうち、4つの時刻での第1動作及び第2動作が表現されているが、このような態様に限定されない。例えば、1つの時刻の第1動作及び第2動作が表現されてもよいし、5つ以上の時刻の第1動作及び第2動作が表現されてもよい。 In the present embodiment, the human body models M1 and M2 represent the first and second movements at four times among the first time to the Nth time, but are not limited to this aspect. For example, the first and second movements at one time may be represented, or the first and second movements at five or more times may be represented.

本実施形態では、人体モデルM1、M2について、図4(a)、(b)に示されるように、複数の身体各部位20から選択された一つの部位20(本例では、左足先20a)の座標値が、基準位置21に一致されている。これにより、図6に示されるように、第1プレーヤと第2プレーヤP2との体格差や、第1動作及び第2動作が計測された位置にズレがあったとしても、第1動作と第2動作との比較が容易となる。本実施形態では、例えば、プルダウンメニュー28等により、複数のモード(第1モード~第69モード)ごとに、人体モデルM1、M2の切り替えが可能とされるのが好ましい。これにより、複数のモードごとに、第1動作と第2動作とを視覚的に比較することが可能となる。 In this embodiment, as shown in Figs. 4(a) and (b), for the human body models M1 and M2, the coordinate values of one part 20 selected from the multiple body parts 20 (in this example, the left foot 20a) are matched to the reference position 21. This makes it easy to compare the first and second movements, even if there is a difference in physique between the first player and the second player P2, or a difference in the positions at which the first and second movements are measured, as shown in Fig. 6. In this embodiment, it is preferable that the human body models M1 and M2 can be switched for each of the multiple modes (first mode to 69th mode) using, for example, a pull-down menu 28 or the like. This makes it possible to visually compare the first and second movements for each of the multiple modes.

本実施形態の工程S4では、表示装置12に、アドバイスデータ29が表示されてもよい。このようなアドバイスデータ29により、第2動作の改善点が具体的に把握され、第2プレーヤP1(図1に示す)による適切な学習が可能となる。 In step S4 of this embodiment, advice data 29 may be displayed on the display device 12. Such advice data 29 allows the second player P1 (shown in FIG. 1) to specifically grasp the areas that need improvement in the second action, enabling appropriate learning.

アドバイスデータ29の作成には、先ず、図5に示したグラフ25において、第1協調動作データの空間基底の大きさと、第2協調動作データの空間基底の大きさと差が大きいマーカー(身体各部位)が特定される。そして、この特定された部位が、例えば、下半身に集中している場合には、下半身の動きを大きくする(又は小さくする)ことを示すアドバイスデータ29が作成される。これにより、第2動作の改善点がより具体的に把握されうる。なお、アドバイスデータ29の作成は、このような態様に限定されない。 To create the advice data 29, first, markers (body parts) in which there is a large difference between the size of the spatial base of the first cooperative movement data and the size of the spatial base of the second cooperative movement data are identified in the graph 25 shown in FIG. 5. Then, if the identified parts are concentrated in the lower body, for example, advice data 29 is created that indicates to increase (or decrease) the movement of the lower body. This makes it possible to grasp more specifically the points to improve in the second movement. Note that the creation of the advice data 29 is not limited to this manner.

本実施形態の工程S4では、表示装置12に、第1動作の動画データ(図示省略)がさらに出力されてもよい。これにより、第2プレーヤP2は、重点的に改善すべき第1動作を学習することができ、第2動作の改善が可能となる。この動画データは、複数のモード(本例では、第1モード~第69モード)のうち、類似度が相対的に小さいモードの動画データであるのが好ましい。これにより、第2プレーヤP2は、重点的に改善すべきモードの第1動作を学習することが可能となる。本実施形態の表示装置12には、動画データへのリンク30が表示されている。これにより、動画データへのアクセスが容易となる。 In step S4 of this embodiment, video data (not shown) of the first movement may further be output to the display device 12. This allows the second player P2 to learn the first movement that is to be improved with emphasis, and enables the second player P2 to improve the second movement. This video data is preferably video data of a mode with a relatively low degree of similarity among a plurality of modes (in this example, the first mode to the 69th mode). This allows the second player P2 to learn the first movement of the mode that is to be improved with emphasis. In this embodiment, a link 30 to the video data is displayed on the display device 12. This allows easy access to the video data.

本実施形態の工程S4では、例えば、図5に示したグラフ25において、第1協調動作データの空間基底の大きさと、第2協調動作データの空間基底の大きさと差が大きい身体各部位の動きを部分的に抽出した動画データ(図示省略)が表示されてもよい。これにより、第2プレーヤP2は、第2動作の改善に必要な第1動作を重点的に確認でき、その動作を集中的に実践(練習)することが可能となる。 In step S4 of this embodiment, for example, video data (not shown) may be displayed that partially extracts the movements of each body part in which the difference between the spatial base size of the first cooperative movement data and the spatial base size of the second cooperative movement data is large in the graph 25 shown in FIG. 5. This allows the second player P2 to focus on the first movement that is necessary to improve the second movement, and to concentrate on practicing that movement.

[動作評価方法(第2実施形態)]
これまでの実施形態では、第1協調動作データと第2協調動作データとを比較した第1比較結果31が出力されることで、動作評価方法の一連の処理が終了したが、このような態様に限定されない。例えば、第1協調動作データと、第1比較結果31を見て学習した第2プレーヤP2(図1に示す)の動作の特徴的な挙動を示す第3協調動作データとを比較した第2比較結果がさらに出力されてもよい。図7は、本発明の他の実施形態の動作評価方法の処理手順を示すフローチャートである。
[Movement evaluation method (second embodiment)]
In the above embodiments, a series of processes of the action evaluation method is completed by outputting the first comparison result 31 obtained by comparing the first cooperative action data with the second cooperative action data, but the present invention is not limited to such an embodiment. For example, a second comparison result obtained by comparing the first cooperative action data with third cooperative action data indicating characteristic behavior of the action of the second player P2 (shown in FIG. 1) learned by viewing the first comparison result 31 may be further output. FIG. 7 is a flowchart showing the processing procedure of the action evaluation method of another embodiment of the present invention.

[第2動作を評価]
この実施形態の動作評価方法では、第3協調動作データの出力に先立ち、第2プレーヤP2(図1に示す)による第2動作が、良好か否かが評価される(工程S5)。第2動作は、適宜評価することができる。例えば、第1比較結果31が予め定められた基準を満たすか否かに基づいて、第2動作が評価されうる。基準は、例えば、第2プレーヤP2の熟練度等に応じて適宜設定されうる。
[Evaluate the second action]
In the action evaluation method of this embodiment, prior to outputting the third cooperative action data, the second action by the second player P2 (shown in FIG. 1) is evaluated as to whether it is good or not (step S5). The second action can be evaluated as appropriate. For example, the second action can be evaluated based on whether the first comparison result 31 satisfies a predetermined criterion. The criterion can be set as appropriate according to, for example, the skill level of the second player P2.

この実施形態の工程S5では、先ず、図2に示した比較結果入力部18dに入力されている第1比較結果31(図6に示した類似度26など)が、作業用メモリ17に読み込まれる。さらに、プログラム部19に含まれる評価部19eが、作業用メモリ17に読み込まれる。評価部19eは、第2動作が良好か否かを評価するためのプログラムである。この評価部19eが、演算部15によって実行されることで、コンピュータ5を、第2動作を評価するための手段として機能させることができる。 In step S5 of this embodiment, first, the first comparison result 31 (such as the similarity 26 shown in FIG. 6) input to the comparison result input unit 18d shown in FIG. 2 is read into the working memory 17. Furthermore, the evaluation unit 19e included in the program unit 19 is read into the working memory 17. The evaluation unit 19e is a program for evaluating whether the second operation is good or not. When the evaluation unit 19e is executed by the calculation unit 15, the computer 5 can function as a means for evaluating the second operation.

この実施形態の工程S5では、図6に示した第1比較結果31として取得された類似度26(本例では、コサイン類似度)が、予め定められた閾値以上である場合に、第2動作が良好であると評価される。閾値は、第2プレーヤP2(図2に示す)の熟練度等に応じて適宜設定されうる。 In step S5 of this embodiment, if the similarity 26 (cosine similarity in this example) obtained as the first comparison result 31 shown in FIG. 6 is equal to or greater than a predetermined threshold, the second action is evaluated as being good. The threshold can be set appropriately depending on the skill level of the second player P2 (shown in FIG. 2), etc.

工程S5において、類似度が閾値以上である場合(工程S5で「Yes」)、第2プレーヤP2(図1に示す)による第2動作が、要求された熟練度に達している。このため、動作評価方法の一連の処理が終了する。一方、工程S5において、類似度が閾値未満であると判断された場合(工程S5で「No」)、第2プレーヤP2による第2動作が、要求された熟練度に達していない。この場合、次の工程S6~工程S9が実施される。 In step S5, if the similarity is equal to or greater than the threshold ("Yes" in step S5), the second action by the second player P2 (shown in FIG. 1) has reached the required level of proficiency. This ends the series of processes in the action evaluation method. On the other hand, in step S5, if it is determined that the similarity is less than the threshold ("No" in step S5), the second action by the second player P2 has not reached the required level of proficiency. In this case, the next steps S6 to S9 are performed.

[第3協調動作データを抽出]
次に、この実施形態の動作評価方法では、図6に示した第1比較結果31を見て学習した第2プレーヤP2(図1に示す)の動作の特徴的な挙動を示す第3協調動作データが抽出される(工程S6)。第3協調動作データは、これまでの実施形態の工程S1~工程S2と同様の手順に基づいて抽出される。したがって、図2に示したプログラム部19に含まれる取得部19a及び抽出部19bが、演算部15によって実行されることで、コンピュータ5を、第3協調動作データを抽出するための手段として機能させることができる。
[Extract third cooperative motion data]
Next, in the movement evaluation method of this embodiment, third cooperative movement data showing characteristic behavior of the movement of the second player P2 (shown in FIG. 1) learned by looking at the first comparison result 31 shown in FIG. 6 is extracted (step S6). The third cooperative movement data is extracted based on the same procedure as steps S1 and S2 in the previous embodiments. Therefore, the acquisition unit 19a and the extraction unit 19b included in the program unit 19 shown in FIG. 2 are executed by the calculation unit 15, so that the computer 5 can function as a means for extracting the third cooperative movement data.

第3協調動作データの抽出には、先ず、図6に示した第1比較結果31を見て学習した第2プレーヤP2(図1に示す)の動作である第3動作が計測された第3動作値が取得される。そして、第3動作値が特異値分解されることで、第3協調動作データが抽出される。この第3協調動作データには、空間基底(右特異ベクトルV(n))が含まれる。第3協調動作データは、図2に示した協調動作データ入力部18cに記憶される。 To extract the third cooperative motion data, first, a third motion value is obtained by measuring the third motion of the second player P2 (shown in FIG. 1) who learned by viewing the first comparison result 31 shown in FIG. 6. The third motion value is then subjected to singular value decomposition to extract the third cooperative motion data. This third cooperative motion data includes a spatial basis (right singular vector V (n) ). The third cooperative motion data is stored in the cooperative motion data input unit 18c shown in FIG. 2.

[第2比較結果を取得]
次に、この実施形態の動作評価方法では、第1協調動作データと、第3協調動作データとを比較した第2比較結果が取得される(工程S7)。この実施形態の工程S7では、先ず、図2に示した協調動作データ入力部18cに入力されている第1協調動作データ、及び、第3協調動作データが、作業用メモリ17に読み込まれる。さらに、プログラム部19に含まれる比較部19cが、作業用メモリ17に読み込まれる。比較部19cは、第1協調動作データと、第3協調動作データとを比較した第2比較結果を取得するためのプログラムである。この比較部19cが、演算部15によって実行されることで、コンピュータ5を、第2比較結果を取得する手段として機能させることができる。
[Get second comparison result]
Next, in the motion evaluation method of this embodiment, a second comparison result is obtained by comparing the first cooperative motion data with the third cooperative motion data (step S7). In step S7 of this embodiment, first, the first cooperative motion data and the third cooperative motion data inputted to the cooperative motion data input unit 18c shown in FIG. 2 are read into the working memory 17. Furthermore, the comparison unit 19c included in the program unit 19 is read into the working memory 17. The comparison unit 19c is a program for obtaining a second comparison result by comparing the first cooperative motion data with the third cooperative motion data. The comparison unit 19c is executed by the calculation unit 15, so that the computer 5 can function as a means for obtaining the second comparison result.

この実施形態の第2比較結果には、第1協調動作データの空間基底と、第3協調動作データの空間基底との類似度(本例では、コサイン類似度)が含まれる。さらに。第2比較結果には、例えば、マーカー(身体各部位20)ごとに、第1協調動作データの空間基底の大きさと、第3協調動作データの空間基底の大きさとを比較したグラフが含まれてもよい。図8は、第1協調動作データの空間基底の大きさと、第3協調動作データの空間基底の大きさとを比較したグラフ34である。 The second comparison result in this embodiment includes the similarity (in this example, cosine similarity) between the spatial base of the first cooperative motion data and the spatial base of the third cooperative motion data. Furthermore, the second comparison result may include, for example, a graph comparing the size of the spatial base of the first cooperative motion data and the size of the spatial base of the third cooperative motion data for each marker (each body part 20). Figure 8 is a graph 34 comparing the size of the spatial base of the first cooperative motion data and the size of the spatial base of the third cooperative motion data.

図8において、横軸は、図5のグラフ25と同様に、身体各部位(マーカー)20を示している。縦軸は、空間ベクトルノルムを示しており、身体各部位(マーカー)20の動きの大きさを示している。また、図8において、「Instructor」は、第1プレーヤ(第1協調動作データ)の身体各部位の動きの大きさを示している。「Before」は、学習前の第2プレーヤ(第2協調動作データ)の身体各部位の動きの大きさを示している。「After」は、学習後の第2プレーヤ(第3協調動作データ)の身体各部位の動きの大きさを示している。 In FIG. 8, the horizontal axis indicates each body part (marker) 20, similar to graph 25 in FIG. 5. The vertical axis indicates the spatial vector norm, which indicates the magnitude of movement of each body part (marker) 20. Also in FIG. 8, "Instructor" indicates the magnitude of movement of each body part of the first player (first cooperative motion data). "Before" indicates the magnitude of movement of each body part of the second player (second cooperative motion data) before learning. "After" indicates the magnitude of movement of each body part of the second player (third cooperative motion data) after learning.

図8のグラフ34により、第1プレーヤによる第1動作の動きの大きさと、学習後の第2プレーヤP2による動きの大きさとを、身体各部位20ごとに比較することが可能となる。さらに、グラフ34には、学習前の第2プレーヤP2の第2動作の動きの大きさが示されているため、学習前後の第2プレーヤP2の動きの変化を、身体各部位20ごとに比較することが可能となる。第2比較結果は、図2に示した比較結果入力部18dに記憶される。 Graph 34 in FIG. 8 makes it possible to compare the magnitude of the movement of the first action by the first player with the magnitude of the movement of the second player P2 after learning, for each body part 20. Furthermore, graph 34 shows the magnitude of the movement of the second action by the second player P2 before learning, making it possible to compare the change in the movement of the second player P2 before and after learning, for each body part 20. The second comparison result is stored in the comparison result input unit 18d shown in FIG. 2.

[第2比較結果を表示]
次に、この実施形態の動作評価方法では、図1に示した表示装置12に、第2比較結果が出力される(工程S8)。この実施形態の工程S8では、先ず、図2に示した比較結果入力部18dに入力されている第2比較結果が、作業用メモリ17に読み込まれる。さらに、プログラム部19に含まれる出力部19dが、作業用メモリ17に読み込まれる。出力部19dは、第2比較結果を表示装置12に出力するためのプログラムである。この出力部19dが、演算部15によって実行されることで、コンピュータ5を、第2比較結果を出力する手段として機能させることができる。
[Show second comparison result]
Next, in the action evaluation method of this embodiment, the second comparison result is output to the display device 12 shown in Fig. 1 (step S8). In step S8 of this embodiment, first, the second comparison result input to the comparison result input unit 18d shown in Fig. 2 is read into the working memory 17. Furthermore, the output unit 19d included in the program unit 19 is read into the working memory 17. The output unit 19d is a program for outputting the second comparison result to the display device 12. When the output unit 19d is executed by the calculation unit 15, the computer 5 can function as a means for outputting the second comparison result.

図9は、表示装置12に表示された第2比較結果32の一例を示す図である。この実施形態の工程S8では、第2比較結果32として、第1協調動作データの空間基底と、第3協調動作データの空間基底との類似度33が、表示装置12に表示される。この実施形態では、類似度33として、コサイン類似度が表示されているが、相関係数であってもよいし、その他の類似度が表示されてもよい。 Figure 9 is a diagram showing an example of the second comparison result 32 displayed on the display device 12. In step S8 of this embodiment, the similarity 33 between the spatial base of the first cooperative action data and the spatial base of the third cooperative action data is displayed on the display device 12 as the second comparison result 32. In this embodiment, the cosine similarity is displayed as the similarity 33, but it may be a correlation coefficient or another similarity may be displayed.

このように、この実施形態の動作評価方法(動作評価装置2)では、表示装置12に第2比較結果32が表示されることで、図6に示した第1比較結果31を見て学習した第2プレーヤP2の第3動作を定量的に評価することが可能となる。これにより、第3動作の改善効果等が容易に把握されるため、例えば、第2プレーヤP2への第3動作の適切な指導や、第3動作のさらなる上達が可能となる。 In this manner, in the movement evaluation method (movement evaluation device 2) of this embodiment, the second comparison result 32 is displayed on the display device 12, making it possible to quantitatively evaluate the third movement of the second player P2, who learned the third movement by viewing the first comparison result 31 shown in FIG. 6. This makes it easy to grasp the improvement effect of the third movement, and therefore makes it possible, for example, to provide appropriate guidance to the second player P2 on the third movement and further improve the third movement.

第1協調動作データの空間基底と、第2協調動作データの空間基底との類似度26が併せて表示されてもよい。これにより、学習前(Before)の類似度26と学習後(After)の類似度33とを比較することができ、第3動作の改善効果が正確に把握されうる。 The similarity 26 between the spatial base of the first cooperative action data and the spatial base of the second cooperative action data may also be displayed. This allows the similarity 26 before learning (Before) to be compared with the similarity 33 after learning (After), and the improvement effect of the third action can be accurately understood.

この実施形態の工程S8では、表示装置12に、第2比較結果32として取得されたグラフ34が表示されてもよい。グラフ34の詳細は、上述のとおりである。このようなグラフ34により、第1プレーヤ及び第2プレーヤP2の身体各部位ごとに、第1動作~第3動作の動きの大きさを比較することができ、第3動作の改善効果が正確に把握されうる。 In step S8 of this embodiment, the graph 34 obtained as the second comparison result 32 may be displayed on the display device 12. Details of the graph 34 are as described above. Such a graph 34 makes it possible to compare the magnitude of movement of the first to third movements for each body part of the first and second players P2, and the improvement effect of the third movement can be accurately understood.

この実施形態では、例えば、プルダウンメニュー35等により、複数のモード(第1モード~第69モード)ごとに、グラフ34が切り替え可能とされるのが好ましい。これにより、複数のモードごとに、各身体各部位の動きの大きさの比較が可能となり、改善効果の把握が可能となる。 In this embodiment, it is preferable that the graph 34 be switchable between multiple modes (mode 1 to mode 69) using, for example, a pull-down menu 35 or the like. This makes it possible to compare the magnitude of movement of each body part for each of the multiple modes, and to grasp the effect of improvement.

この実施形態の工程S8では、表示装置12に、第1プレーヤの人体モデルM1と、第2プレーヤの人体モデルM2とが表示されてもよい。このような人体モデルM1、M2により、第1動作と第3動作とを視覚的に比較して、改善効果の把握が可能となる。人体モデルM1、M2は、プルダウンメニュー36等により、複数のモード(第1モード~第69モード)ごとに切り替えが可能とされるのが好ましい。 In step S8 of this embodiment, a human body model M1 of the first player and a human body model M2 of the second player may be displayed on the display device 12. Such human body models M1 and M2 make it possible to visually compare the first and third actions and grasp the improvement effect. It is preferable that the human body models M1 and M2 can be switched between a plurality of modes (first mode to 69th mode) by a pull-down menu 36 or the like.

この実施形態の工程S4では、表示装置12に、アドバイスデータ29が表示されてもよい。アドバイスデータ29の詳細は、上述のとおりである。この実施形態のように、全てのモードにおいて、類似度33が良好である場合には、改善点の指摘が省略されてもよいし、良好であることを伝えるメッセージが表示されてもよい。 In step S4 of this embodiment, advice data 29 may be displayed on the display device 12. Details of the advice data 29 are as described above. If the similarity 33 is good in all modes, as in this embodiment, the indication of areas for improvement may be omitted, or a message conveying that the similarity is good may be displayed.

[第3動作を評価]
次に、この実施形態の動作評価方法では、第2プレーヤP2(図1に示す)による第3動作が、良好か否かが評価される(工程S9)。第3動作の評価は、これまでの実施形態の工程S5と同様の手順に基づいて、第3動作の良否が評価される。そして、第3動作が良好でないと判断された場合(工程S9で「No」)、工程S6~工程S9が再度実施される。
[Evaluate the third movement]
Next, in the action evaluation method of this embodiment, the third action by the second player P2 (shown in FIG. 1) is evaluated as to whether it is good or not (step S9). The third action is evaluated based on the same procedure as step S5 of the previous embodiments. If it is determined that the third action is not good (step S9: No), steps S6 to S9 are performed again.

このように、この実施形態の動作評価方法(動作評価装置2)では、第2プレーヤP2(図1に示す)による動作が、要求された熟練度に達するまで、反復学習(実践)が実施される。これにより、動作評価方法は、第2プレーヤP2にエクササイズ動作を確実に上達(定着)させることが可能となる。 In this way, in the movement evaluation method (movement evaluation device 2) of this embodiment, repetitive learning (practice) is carried out until the movement by the second player P2 (shown in FIG. 1) reaches the required level of proficiency. This makes it possible for the movement evaluation method to reliably allow the second player P2 to improve (establish) the exercise movement.

以上、本発明の特に好ましい実施形態について詳述したが、本発明は図示の実施形態に限定されることなく、種々の態様に変形して実施しうる。 The above describes in detail a particularly preferred embodiment of the present invention, but the present invention is not limited to the illustrated embodiment and can be modified and implemented in various ways.

[付記]
本発明は以下の態様を含む。
[Additional Notes]
The present invention includes the following aspects.

[本発明1]
第1プレーヤの動作である第1動作に基づいて、第2プレーヤの動作である第2動作を評価するための装置であって、
前記第2動作を計測した第2動作値を取得する取得部と、
前記第2動作値を特異値分解することにより、前記第2動作の特徴的な挙動を示す第2協調動作データを抽出する抽出部と、
前記第1動作の特徴的な挙動を示す第1協調動作データを記憶する第1協調動作データ記憶部と、
前記第1協調動作データと、前記第2協調動作データとを比較した第1比較結果を取得する比較部と、
前記第1比較結果を表示装置に出力する出力部とを含む、
動作評価装置。
[本発明2]
前記第1動作は、前記第2動作の模範動作である、本発明1に記載の動作評価装置。
[本発明3]
前記第1動作を計測した第1動作値は、前記第1プレーヤの身体各部位の位置データを含み、
前記第2動作値は、前記第2プレーヤの身体各部位の位置データを含む、本発明1又は2に記載の動作評価装置。
[本発明4]
前記第1協調動作データは、前記第1動作を計測した第1動作値を、特異値分解することで得られる空間基底を含み、
前記第2協調動作データは、前記第2動作値を特異値分解することで得られる空間基底を含む、本発明1ないし3のいずれかに記載の動作評価装置。
[本発明5]
前記比較部は、前記第1比較結果として、前記第1協調動作データの空間基底と、前記第2協調動作データの空間基底との類似度を取得する、本発明4に記載の動作評価装置。
[本発明6]
前記類似度は、コサイン類似度又は相関係数を含む、本発明5に記載の動作評価装置。
[本発明7]
前記類似度は、前記第1協調動作データ及び前記第2協調動作データに含まれる複数のモード毎に取得される、本発明5又は6に記載の動作評価装置。
[本発明8]
前記比較部は、前記複数のモードのうち、前記類似度が相対的に小さいモードを選択し、
前記出力部は、選択されたモードの前記第1動作の動画データをさらに出力する、本発明7に記載の動作評価装置。
[本発明9]
前記比較部は、前記第1協調動作データと、前記第1比較結果を見て学習した前記第2プレーヤの動作の特徴的な挙動を示す第3協調動作データとを比較した第2比較結果をさらに取得し、
前記出力部は、前記第2比較結果をさらに出力する、本発明1ないし8のいずれかに記載の動作評価装置。
[本発明10]
前記第1動作及び前記第2動作は、エクササイズ動作を含む、本発明1ないし9のいずれかに記載の動作評価装置。
[本発明11]
第1プレーヤの動作である第1動作に基づいて、第2プレーヤの動作である第2動作を評価するための方法であって、
コンピュータが、前記第2動作を計測した第2動作値を取得する工程と、
前記第2動作値を特異値分解することにより、前記第2動作の特徴的な挙動を示す第2協調動作データを抽出する工程と、
前記第1動作の特徴的な挙動を示す第1協調動作データと、前記第2協調動作データとを比較した第1比較結果を取得する工程と、
前記第1比較結果を表示装置に出力する工程とを実行する、
動作評価方法。
[本発明12]
第1プレーヤの動作である第1動作に基づいて、第2プレーヤの動作である第2動作を評価するためのコンピュータプログラムであって、
コンピュータを、
前記第2動作を計測した第2動作値を取得する手段と、
前記第2動作値を特異値分解することにより、前記第2動作の特徴的な挙動を示す第2協調動作データを抽出する手段と、
前記第1動作の特徴的な挙動を示す第1協調動作データと、前記第2協調動作データとを比較した第1比較結果を取得する手段と、
前記第1比較結果を表示装置に出力する手段として機能させる、
コンピュータプログラム。
[Invention 1]
1. A device for evaluating a second action of a second player based on a first action of a first player, the device comprising:
an acquisition unit that acquires a second action value obtained by measuring the second action;
an extracting unit that extracts second cooperative motion data indicating a characteristic behavior of the second motion by performing singular value decomposition on the second motion value;
a first cooperative motion data storage unit configured to store first cooperative motion data indicating a characteristic behavior of the first motion;
a comparison unit that obtains a first comparison result by comparing the first cooperative operation data with the second cooperative operation data;
an output unit that outputs the first comparison result to a display device;
Behavior evaluation device.
[Invention 2]
2. The action evaluation device according to claim 1, wherein the first action is a model action of the second action.
[The present invention 3]
a first motion value obtained by measuring the first motion includes position data of each body part of the first player;
3. The motion evaluation device according to claim 1, wherein the second motion value includes position data of each body part of the second player.
[Invention 4]
the first cooperative motion data includes a spatial basis obtained by performing singular value decomposition on a first motion value obtained by measuring the first motion;
4. The action evaluating device according to any one of claims 1 to 3, wherein the second cooperative action data includes a spatial basis obtained by singular value decomposition of the second action value.
[Invention 5]
5. The action evaluation device according to claim 4, wherein the comparison unit obtains, as the first comparison result, a similarity between a spatial base of the first cooperative action data and a spatial base of the second cooperative action data.
[Invention 6]
The action evaluation device according to claim 5, wherein the similarity includes a cosine similarity or a correlation coefficient.
[Invention 7]
7. The action evaluation device according to claim 5 or 6, wherein the similarity is acquired for each of a plurality of modes included in the first cooperative action data and the second cooperative action data.
[The present invention 8]
the comparison unit selects a mode having a relatively small degree of similarity from among the plurality of modes,
8. The action evaluation device according to claim 7, wherein the output section further outputs video data of the first action in a selected mode.
[The present invention 9]
the comparison unit further obtains a second comparison result by comparing the first cooperative movement data with third cooperative movement data indicating characteristic behavior of the second player learned by viewing the first comparison result;
9. The action evaluation device according to any one of claims 1 to 8, wherein the output section further outputs the second comparison result.
[Invention 10]
The motion evaluation device according to any one of claims 1 to 9, wherein the first motion and the second motion include an exercise motion.
[Invention 11]
1. A method for evaluating a second action of a second player based on a first action of a first player, the method comprising:
A step of acquiring a second motion value obtained by measuring the second motion by a computer;
extracting second cooperative motion data indicating a characteristic behavior of the second motion by performing singular value decomposition on the second motion value;
acquiring a first comparison result obtained by comparing first cooperative motion data indicating a characteristic behavior of the first motion with the second cooperative motion data;
and outputting the first comparison result to a display device.
Operation evaluation method.
[Invention 12]
A computer program for evaluating a second action of a second player based on a first action of a first player, the computer program comprising:
Computer,
a means for acquiring a second motion value obtained by measuring the second motion;
a means for extracting second cooperative motion data indicating a characteristic behavior of the second motion by performing singular value decomposition on the second motion value;
a means for acquiring a first comparison result obtained by comparing first cooperative motion data indicating a characteristic behavior of the first motion with the second cooperative motion data;
functioning as a means for outputting the first comparison result to a display device;
Computer program.

12 表示装置
31 第1比較結果
12 Display device 31 First comparison result

Claims (12)

第1プレーヤの動作である第1動作に基づいて、第2プレーヤの動作である第2動作を評価するための装置であって、
前記第2動作を計測した第2動作値を取得する取得部と、
前記第2動作値を特異値分解することにより、前記第2動作の特徴的な挙動を示す第2協調動作データを抽出する抽出部と、
前記第1動作の特徴的な挙動を示す第1協調動作データを記憶する第1協調動作データ記憶部と、
前記第1協調動作データと、前記第2協調動作データとを比較した第1比較結果を取得する比較部と、
前記第1比較結果を表示装置に出力する出力部とを含む、
動作評価装置。
1. A device for evaluating a second action of a second player based on a first action of a first player, the device comprising:
an acquisition unit that acquires a second action value obtained by measuring the second action;
an extracting unit that extracts second cooperative motion data indicating a characteristic behavior of the second motion by performing singular value decomposition on the second motion value;
a first cooperative motion data storage unit configured to store first cooperative motion data indicating a characteristic behavior of the first motion;
a comparison unit that obtains a first comparison result by comparing the first cooperative operation data with the second cooperative operation data;
an output unit that outputs the first comparison result to a display device;
Behavior evaluation device.
前記第1動作は、前記第2動作の模範動作である、請求項1に記載の動作評価装置。 The action evaluation device according to claim 1, wherein the first action is a model action of the second action. 前記第1動作を計測した第1動作値は、前記第1プレーヤの身体各部位の位置データを含み、
前記第2動作値は、前記第2プレーヤの身体各部位の位置データを含む、請求項1又は2に記載の動作評価装置。
a first motion value obtained by measuring the first motion includes position data of each body part of the first player;
The action evaluation device according to claim 1 , wherein the second action value includes position data of each body part of the second player.
前記第1協調動作データは、前記第1動作を計測した第1動作値を、特異値分解することで得られる空間基底を含み、
前記第2協調動作データは、前記第2動作値を特異値分解することで得られる空間基底を含む、請求項1又は2に記載の動作評価装置。
the first cooperative motion data includes a spatial basis obtained by performing singular value decomposition on a first motion value obtained by measuring the first motion;
The action evaluating device according to claim 1 , wherein the second coordination action data includes a spatial basis obtained by performing singular value decomposition on the second action value.
前記比較部は、前記第1比較結果として、前記第1協調動作データの空間基底と、前記第2協調動作データの空間基底との類似度を取得する、請求項4に記載の動作評価装置。 The motion evaluation device according to claim 4, wherein the comparison unit obtains, as the first comparison result, a similarity between a spatial base of the first cooperative motion data and a spatial base of the second cooperative motion data. 前記類似度は、コサイン類似度又は相関係数を含む、請求項5に記載の動作評価装置。 The motion evaluation device according to claim 5, wherein the similarity includes a cosine similarity or a correlation coefficient. 前記類似度は、前記第1協調動作データ及び前記第2協調動作データに含まれる複数のモード毎に取得される、請求項5に記載の動作評価装置。 The action evaluation device according to claim 5, wherein the similarity is obtained for each of a plurality of modes included in the first cooperative action data and the second cooperative action data. 前記比較部は、前記複数のモードのうち、前記類似度が相対的に小さいモードを選択し、
前記出力部は、選択されたモードの前記第1動作の動画データをさらに出力する、請求項7に記載の動作評価装置。
the comparison unit selects a mode having a relatively small degree of similarity from among the plurality of modes,
The action evaluation device according to claim 7 , wherein the output section further outputs video data of the first action in a selected mode.
前記比較部は、前記第1協調動作データと、前記第1比較結果を見て学習した前記第2プレーヤの動作の特徴的な挙動を示す第3協調動作データとを比較した第2比較結果をさらに取得し、
前記出力部は、前記第2比較結果をさらに出力する、請求項1又は2に記載の動作評価装置。
the comparison unit further obtains a second comparison result obtained by comparing the first cooperative movement data with third cooperative movement data indicating characteristic behavior of the second player learned by viewing the first comparison result;
The action evaluation device according to claim 1 , wherein the output section further outputs the second comparison result.
前記第1動作及び前記第2動作は、エクササイズ動作を含む、請求項1又は2に記載の動作評価装置。 The motion evaluation device according to claim 1 or 2, wherein the first motion and the second motion include an exercise motion. 第1プレーヤの動作である第1動作に基づいて、第2プレーヤの動作である第2動作を評価するための方法であって、
コンピュータが、前記第2動作を計測した第2動作値を取得する工程と、
前記第2動作値を特異値分解することにより、前記第2動作の特徴的な挙動を示す第2協調動作データを抽出する工程と、
前記第1動作の特徴的な挙動を示す第1協調動作データと、前記第2協調動作データとを比較した第1比較結果を取得する工程と、
前記第1比較結果を表示装置に出力する工程とを実行する、
動作評価方法。
1. A method for evaluating a second action of a second player based on a first action of a first player, the method comprising:
A step of acquiring a second motion value obtained by measuring the second motion by a computer;
extracting second cooperative motion data indicating a characteristic behavior of the second motion by performing singular value decomposition on the second motion value;
acquiring a first comparison result obtained by comparing first cooperative motion data indicating a characteristic behavior of the first motion with the second cooperative motion data;
and outputting the first comparison result to a display device.
Operation evaluation method.
第1プレーヤの動作である第1動作に基づいて、第2プレーヤの動作である第2動作を評価するためのコンピュータプログラムであって、
コンピュータを、
前記第2動作を計測した第2動作値を取得する手段と、
前記第2動作値を特異値分解することにより、前記第2動作の特徴的な挙動を示す第2協調動作データを抽出する手段と、
前記第1動作の特徴的な挙動を示す第1協調動作データと、前記第2協調動作データとを比較した第1比較結果を取得する手段と、
前記第1比較結果を表示装置に出力する手段として機能させる、
コンピュータプログラム。
A computer program for evaluating a second action of a second player based on a first action of a first player, the computer program comprising:
Computer,
a means for acquiring a second motion value obtained by measuring the second motion;
a means for extracting second cooperative motion data indicating a characteristic behavior of the second motion by performing singular value decomposition on the second motion value;
a means for acquiring a first comparison result obtained by comparing first cooperative motion data indicating a characteristic behavior of the first motion with the second cooperative motion data;
functioning as a means for outputting the first comparison result to a display device;
Computer program.
JP2022176181A 2022-11-02 2022-11-02 Motion evaluation device, method and program Pending JP2024066646A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022176181A JP2024066646A (en) 2022-11-02 2022-11-02 Motion evaluation device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022176181A JP2024066646A (en) 2022-11-02 2022-11-02 Motion evaluation device, method and program

Publications (1)

Publication Number Publication Date
JP2024066646A true JP2024066646A (en) 2024-05-16

Family

ID=91067644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022176181A Pending JP2024066646A (en) 2022-11-02 2022-11-02 Motion evaluation device, method and program

Country Status (1)

Country Link
JP (1) JP2024066646A (en)

Similar Documents

Publication Publication Date Title
CN109716444B (en) Assessment and guidance of athletic performance
Alexiadis et al. Evaluating a dancer's performance using kinect-based skeleton tracking
US11113988B2 (en) Apparatus for writing motion script, apparatus for self-teaching of motion and method for using the same
Passos et al. Interpersonal dynamics in sport: The role of artificial neural networks and 3-D analysis
JP5575652B2 (en) Method and system for selecting display settings for rendered images
CN105228708A (en) Body action scoring apparatus, dancing scoring apparatus, Caraok device and game device
JP2009297240A (en) Learning support apparatus and method
CN110751100A (en) Auxiliary training method and system for stadium
Chun et al. A sensor-aided self coaching model for uncocking improvement in golf swing
TWI380837B (en) Body Muscle Training Feedback System and Method
CN114093032A (en) Human body action evaluation method based on action state information
JP2005111178A (en) Motion training display system
CN114092863A (en) Human body motion evaluation method for multi-view video image
Wen et al. Augmented coach: Volumetric motion annotation and visualization for immersive sports coaching
Khong et al. A simple and objective method for analyzing a gymnastics skill
KR20170140756A (en) Appratus for writing motion-script, appratus for self-learning montion and method for using the same
CN116740618A (en) Motion video action evaluation method, system, computer equipment and medium
JP2024066646A (en) Motion evaluation device, method and program
CN116271757A (en) Auxiliary system and method for basketball practice based on AI technology
JP7482471B2 (en) How to generate a learning model
Karunaratne et al. Objectively measure player performance on Olympic weightlifting
JP6554158B2 (en) Swing analysis device
JP2024079159A (en) Swing evaluation device, method and program
JP7283692B2 (en) Swing analysis device
JP7283693B2 (en) Swing analysis device

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20221201