JP6943326B2 - Training equipment, its methods, and programs - Google Patents

Training equipment, its methods, and programs Download PDF

Info

Publication number
JP6943326B2
JP6943326B2 JP2020132424A JP2020132424A JP6943326B2 JP 6943326 B2 JP6943326 B2 JP 6943326B2 JP 2020132424 A JP2020132424 A JP 2020132424A JP 2020132424 A JP2020132424 A JP 2020132424A JP 6943326 B2 JP6943326 B2 JP 6943326B2
Authority
JP
Japan
Prior art keywords
information
motion
analysis
evaluation
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020132424A
Other languages
Japanese (ja)
Other versions
JP2020189122A (en
Inventor
聡貴 木村
聡貴 木村
牧夫 柏野
牧夫 柏野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017169620A external-priority patent/JP6754342B2/en
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2020132424A priority Critical patent/JP6943326B2/en
Publication of JP2020189122A publication Critical patent/JP2020189122A/en
Application granted granted Critical
Publication of JP6943326B2 publication Critical patent/JP6943326B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、スポーツをしている対象者から運動制御に寄与する知覚情報を解析するためのデータを収集する技術、そのデータを解析するための解析技術、および、運動制御に寄与する知覚情報に基づいて対象者の運動能力を向上させるよう訓練する技術に関する。 The present invention provides a technique for collecting data for analyzing perceptual information contributing to motor control from a subject playing sports, an analysis technique for analyzing the data, and perceptual information contributing to motor control. Based on techniques for training the subject to improve their athletic performance.

スポーツの基本動作を適切に取得する上では、行為者が自身の身体動作を客観的に把握することが重要である。 In order to properly acquire the basic movements of sports, it is important for the actor to objectively grasp his / her own physical movements.

特許文献1では、基準となる運動状態に対する行為者の現在の運動状態を出力することで、お手本と比較したときの行為者の身体動作を客観的に把握可能にする技術が開示されている。 Patent Document 1 discloses a technique that makes it possible to objectively grasp the physical movement of an actor when compared with a model by outputting the current exercise state of the actor with respect to the reference exercise state.

特開2016−150119号公報Japanese Unexamined Patent Publication No. 2016-150119

例えば、野球のバッティングの動作を考えた場合、人は、自分に向かってくるボールの軌道や速さだけでなく、ボールを投げる相手の動きなどの様々な知覚情報に基づいて、ボールの到達点や到達時刻を予測して自身の取るべき行動(運動)の内容やタイミングを計画し、運動制御を行っている。実環境においては様々な知覚情報が取得可能であるが、そのうち意味のある知覚情報を迅速かつ的確に処理することが運動制御に重要と考えられる。しかしながら、バッティングのような運動の制御は短時間の間に行われており、ほぼ無意識的に必要な知覚情報を収集し判断が行われている。そのため、自分でも何の情報に基づいて運動を決定しているかを把握することは難しい。また、バッティングの上手い人とそうでない人の間で運動制御に用いる知覚情報にどのような差異があるかを客観的に把握することは難しい。 For example, when considering the batting movement of baseball, a person reaches the destination of the ball based on various perceptual information such as the movement of the opponent throwing the ball as well as the trajectory and speed of the ball coming toward him. It predicts the arrival time and plans the content and timing of the action (exercise) to be taken by oneself, and controls the exercise. Various perceptual information can be acquired in the real environment, but it is considered important for motor control to process meaningful perceptual information quickly and accurately. However, motion control such as batting is performed in a short period of time, and necessary perceptual information is collected almost unconsciously to make a judgment. Therefore, it is difficult for oneself to grasp what information is used to decide the exercise. In addition, it is difficult to objectively grasp the difference in perceptual information used for motor control between a person who is good at batting and a person who is not good at batting.

特許文献1では、動かす筋肉の場所や動かすタイミングを音や映像で提示することで、どの筋肉を、いつ、どのように動かすかについて、お手本と自身の運動との差異を客観的に把握することができ、お手本と揃うように訓練していくことが可能である。しかしながら、こうした目標とする運動をスポーツ実環境で実行するにあたっては、おかれている状況を適切に認識・判断し、適切な目標運動を選択する必要がある。そのためには、どのような情報を知覚して運動制御を行っているのか(つまり、身体動作として表出される前の脳内の処理)について理解する必要があり、また、そうした知覚情報が明らかになれば、運動パフォーマンスを向上させる効果的な訓練にむすびつくと考えられる。 In Patent Document 1, by presenting the location and timing of moving muscles with sound or video, it is possible to objectively grasp the difference between a model and one's own exercise regarding which muscle to move, when and how. It is possible to train to match the model. However, in order to carry out such a target exercise in a real sports environment, it is necessary to appropriately recognize and judge the situation and select an appropriate target exercise. In order to do so, it is necessary to understand what kind of information is perceived to control movement (that is, the processing in the brain before it is expressed as body movement), and such perceived information is clarified. If this happens, it will lead to effective training to improve athletic performance.

本発明では、運動制御への寄与が大きい知覚情報が何であるかを客観的に解析可能とするための解析用データ収集装置を提供することを目的とする。さらに、解析用データを用いて運動制御への寄与が大きい知覚情報を解析する解析装置と、対象者が当該知覚情報を扱えるようになるよう訓練するための訓練装置を提供することを目的とする。 An object of the present invention is to provide an analysis data acquisition device for objectively analyzing what perceptual information has a large contribution to motor control. Furthermore, it is an object of the present invention to provide an analysis device that analyzes perceptual information that greatly contributes to motor control using analysis data, and a training device for training a subject to be able to handle the perceptual information. ..

上記の課題を解決するために、本発明の一態様によれば、訓練装置は、物体の動きを映像として提示する際に用いる動き情報と、運動の評価の高い運動と低い運動とで差異のある運動情報の種別を表す変化運動種別情報とバーチャル映像中の注目領域および注目時刻を特定する情報である注目視覚情報とを関連付けた情報である注目運動種別情報とを記憶する記憶部と、訓練対象者に訓練させる運動の種別である訓練対象運動情報が与えられ、注目運動種別情報に基づいて、訓練対象運動情報に対応する変化運動種別情報に関連付けられた注目視覚情報を出力する訓練条件設定部と、動き情報を用いて、バーチャル映像内に表示される相手が物理法則に逆らう動きをするバーチャル映像を合成する第二映像合成部とを含み、第二映像合成部は、バーチャル映像中の注目視覚情報に含まれる注目時刻近傍において、注目視覚情報により特定される注目領域を強調する視覚効果を重畳したバーチャル映像を合成することを特徴とする。
上記の課題を解決するために、本発明の他の態様によれば、訓練装置は、物体の動きを映像として提示する際に用いる動き情報と、運動の評価の高い運動と低い運動とで差異のある運動情報の種別を表す変化運動種別情報とバーチャル映像中の注目領域および注目時刻を特定する情報である注目視覚情報とを関連付けた情報である注目運動種別情報とを記憶する記憶部と、訓練対象者に訓練させる運動の種別である訓練対象運動情報が与えられ、注目運動種別情報に基づいて、訓練対象運動情報に対応する変化運動種別情報に関連付けられた注目視覚情報を出力する訓練条件設定部と、動き情報を用いて、相手の身体動作と相手の身体動作に伴う物体の動きとが物理法則に照らして整合しないバーチャル映像を合成する第二映像合成部とを含み、第二映像合成部は、バーチャル映像中の注目視覚情報に含まれる注目時刻近傍において、注目視覚情報により特定される注目領域を強調する視覚効果を重畳したバーチャル映像を合成することを特徴とする。
In order to solve the above problem, according to one aspect of the present invention, the training device differs between the motion information used when presenting the motion of an object as an image and the motion with a high evaluation and a motion with a low evaluation of the motion. A storage unit that stores change movement type information that represents a certain type of movement information and attention movement type information that is information that associates attention area and attention visual information that identifies the attention area and attention time in a virtual image, and training. Training target exercise information, which is the type of exercise to be trained by the subject, is given, and based on the attention exercise type information, the training condition setting that outputs the attention visual information associated with the change exercise type information corresponding to the training target exercise information. The second video compositing unit includes a unit and a second video compositing unit that synthesizes a virtual image in which the opponent displayed in the virtual image moves against the laws of physics using motion information. It is characterized by synthesizing a virtual image in which a visual effect that emphasizes a region of interest specified by the visual information of interest is superimposed in the vicinity of the time of interest included in the visual information of interest.
In order to solve the above problem, according to another aspect of the present invention, the training device differs between the motion information used when presenting the motion of the object as an image and the motion with a high evaluation and the motion with a low evaluation of the motion. A storage unit that stores the change movement type information representing the type of certain movement information and the attention movement type information which is the information associated with the attention area and the attention visual information which is the information for specifying the attention area and the attention time in the virtual image. A training condition in which training target exercise information, which is a type of exercise to be trained by a trainee, is given, and based on the attention exercise type information, attention visual information associated with the change exercise type information corresponding to the training target exercise information is output. A second video including a setting unit and a second video compositing unit that synthesizes a virtual image in which the movement of the other party's body and the movement of an object accompanying the other's body movement do not match in accordance with the laws of physics using motion information. The synthesizing unit is characterized in synthesizing a virtual image in which a visual effect that emphasizes a region of interest specified by the visual information of interest is superimposed in the vicinity of the time of interest included in the visual information of interest in the virtual image.

上記の課題を解決するために、本発明の他の態様によれば、訓練方法は、記憶部には、物体の動きを映像として提示する際に用いる動き情報と、運動の評価の高い運動と低い運動とで差異のある運動情報の種別を表す変化運動種別情報とバーチャル映像中の注目領域および注目時刻を特定する情報である注目視覚情報とを関連付けた情報である注目運動種別情報とが記憶されているものとし、訓練対象者に訓練させる運動の種別である訓練対象運動情報が与えられ、注目運動種別情報に基づいて、当該訓練対象運動情報に対応する変化運動種別情報に関連付けられた注目視覚情報を出力する訓練条件設定ステップと、動き情報を用いて、バーチャル映像内に表示される相手が物理法則に逆らう動きをするバーチャル映像を合成する第二映像合成ステップとを含み、第二映像合成ステップにおいて、バーチャル映像中の注目視覚情報に含まれる注目時刻近傍において、注目視覚情報により特定される注目領域を強調する視覚効果を重畳したバーチャル映像を合成する、ことを特徴とする。
上記の課題を解決するために、本発明の他の態様によれば、訓練方法は、記憶部には、物体の動きを映像として提示する際に用いる動き情報と、運動の評価の高い運動と低い運動とで差異のある運動情報の種別を表す変化運動種別情報とバーチャル映像中の注目領域および注目時刻を特定する情報である注目視覚情報とを関連付けた情報である注目運動種別情報とが記憶されているものとし、訓練対象者に訓練させる運動の種別である訓練対象運動情報が与えられ、注目運動種別情報に基づいて、当該訓練対象運動情報に対応する変化運動種別情報に関連付けられた注目視覚情報を出力する訓練条件設定ステップと、動き情報を用いて、相手の身体動作と相手の身体動作に伴う物体の動きとが物理法則に照らして整合しないバーチャル映像を合成する第二映像合成ステップとを含み、第二映像合成ステップにおいて、バーチャル映像中の注目視覚情報に含まれる注目時刻近傍において、注目視覚情報により特定される注目領域を強調する視覚効果を重畳したバーチャル映像を合成する、ことを特徴とする。
In order to solve the above-mentioned problems, according to another aspect of the present invention, the training method includes motion information used when presenting the motion of an object as an image in a storage unit, and motion with a high evaluation of motion. Changes that represent the type of exercise information that differs from low exercise The attention exercise type information that is information that associates the attention area and attention visual information that identifies the attention area and attention time in the virtual image is stored. The training target exercise information, which is the type of exercise to be trained by the trainee, is given, and the attention associated with the change exercise type information corresponding to the training target exercise information based on the attention exercise type information. The second video includes a training condition setting step for outputting visual information and a second video synthesis step for synthesizing a virtual video in which the opponent displayed in the virtual video moves against the laws of physics using the motion information. The synthesizing step is characterized in that a virtual image in which a visual effect that emphasizes a region of interest specified by the visual information of interest is superimposed is synthesized in the vicinity of the time of interest included in the visual information of interest in the virtual image.
In order to solve the above-mentioned problems, according to another aspect of the present invention, the training method includes motion information used when presenting the motion of an object as an image in a storage unit, and motion with a high evaluation of motion. Changes that represent the type of exercise information that differs from low exercise The attention exercise type information that is information that associates the attention area and attention visual information that identifies the attention area and attention time in the virtual image is stored. The training target exercise information, which is the type of exercise to be trained by the trainee, is given, and the attention associated with the change exercise type information corresponding to the training target exercise information based on the attention exercise type information. A training condition setting step that outputs visual information, and a second video composition step that uses motion information to synthesize a virtual image in which the body movement of the other party and the movement of an object accompanying the body movement of the other party do not match in light of the physical law. Including It is characterized by.

本発明の解析用データ収集装置によれば、運動制御への寄与が大きい知覚情報が何であるかを客観的に解析可能とするための解析用データを収集することができる。また、本発明の解析装置によれば、解析用データを用いて、運動制御への寄与が大きい知覚情報を推定することができる。さらに、本発明の訓練装置によれば、運動制御への寄与が大きい知覚情報を用いて、対象者が当該知覚情報を扱えるようになるよう訓練することができる。 According to the analysis data collecting device of the present invention, it is possible to collect analysis data for objectively analyzing what perceptual information has a large contribution to motor control. Further, according to the analysis device of the present invention, it is possible to estimate perceptual information that greatly contributes to motor control by using the analysis data. Further, according to the training device of the present invention, it is possible to train the subject so that the subject can handle the perceptual information by using the perceptual information having a large contribution to the motor control.

第一実施形態に係る訓練システムの構成図。The block diagram of the training system which concerns on 1st Embodiment. 第一実施形態に係る解析用データ収集装置の機能ブロック図。The functional block diagram of the data acquisition apparatus for analysis which concerns on 1st Embodiment. 第一実施形態に係る解析用データ収集装置の処理フローの例を示す図。The figure which shows the example of the processing flow of the analysis data acquisition apparatus which concerns on 1st Embodiment. 第一実施形態に係る解析装置の機能ブロック図。The functional block diagram of the analysis apparatus which concerns on 1st Embodiment. 第一実施形態に係る解析装置の処理フローの例を示す図。The figure which shows the example of the processing flow of the analysis apparatus which concerns on 1st Embodiment. 第一実施形態に係る訓練装置の機能ブロック図。The functional block diagram of the training apparatus which concerns on 1st Embodiment. 第一実施形態に係る訓練装置の処理フローの例を示す図。The figure which shows the example of the processing flow of the training apparatus which concerns on 1st Embodiment.

以下、本発明の実施形態について、説明する。なお、以下の説明に用いる図面では、同じ機能を持つ構成部や同じ処理を行うステップには同一の符号を記し、重複説明を省略する。以下の説明において、テキスト中で使用する記号「^」等は、本来直前の文字の真上に記載されるべきものであるが、テキスト記法の制限により、当該文字の直後に記載する。式中においてはこれらの記号は本来の位置に記述している。また、ベクトルや行列の各要素単位で行われる処理は、特に断りが無い限り、そのベクトルやその行列の全ての要素に対して適用されるものとする。 Hereinafter, embodiments of the present invention will be described. In the drawings used in the following description, the same reference numerals are given to the components having the same function and the steps for performing the same processing, and duplicate description is omitted. In the following explanation, the symbol "^" etc. used in the text should be written directly above the character immediately before, but due to the limitation of the text notation, it should be written immediately after the character. In the formula, these symbols are described in their original positions. Further, unless otherwise specified, the processing performed for each element of the vector or the matrix shall be applied to all the elements of the vector or the matrix.

<第一実施形態>
図1は第一実施形態に係る訓練システムの構成図を示す。訓練システムは、解析用データ収集装置100と解析装置200と訓練装置300とを含む。
<First Embodiment>
FIG. 1 shows a configuration diagram of a training system according to the first embodiment. The training system includes an analysis data acquisition device 100, an analysis device 200, and a training device 300.

解析用データ収集装置100、解析装置200及び訓練装置300のそれぞれは、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。解析用データ収集装置100、解析装置200及び訓練装置300のそれぞれは、例えば、中央演算処理装置の制御のもとで各処理を実行する。解析用データ収集装置100、解析装置200及び訓練装置300のそれぞれに入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。解析用データ収集装置100、解析装置200及び訓練装置300のそれぞれの各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。解析用データ収集装置100、解析装置200及び訓練装置300のそれぞれが備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。 Each of the analysis data collection device 100, the analysis device 200, and the training device 300 is a known or dedicated computer having, for example, a central processing unit (CPU), a main storage device (RAM: Random Access Memory), and the like. It is a special device configured by loading a special program into the memory. Each of the analysis data acquisition device 100, the analysis device 200, and the training device 300 executes each process under the control of, for example, the central processing unit. The data input to each of the analysis data collection device 100, the analysis device 200, and the training device 300 and the data obtained by each process are stored in, for example, the main storage device, and the data stored in the main storage device is necessary. It is read out to the central arithmetic processing device according to the above and used for other processing. At least a part of each processing unit of the analysis data acquisition device 100, the analysis device 200, and the training device 300 may be configured by hardware such as an integrated circuit. Each storage unit included in each of the analysis data collection device 100, the analysis device 200, and the training device 300 includes, for example, a main storage device such as RAM (Random Access Memory), a hard disk, an optical disk, or a flash memory (Flash Memory). It can be configured by an auxiliary storage device composed of semiconductor memory elements or middleware such as a relational database or a key value store.

さらに、訓練システムは、解析用データを収集する際に解析対象者93に映像を表示する映像表示部91、センサ92、訓練する際に訓練対象者83に映像を表示する映像表示部81を含んでもよい。映像表示部81,91は、例えば、ヘッドマウントディスプレイであり、解析対象者93、訓練対象者83に取り付けられる。ヘッドマウントディスプレイは、訓練対象者83、解析対象者93が頭部に装着して映像や音声を視聴するためのデバイスである。ヘッドマウントディスプレイは、例えば、訓練対象者83、解析対象者93が装着したときの視界に対応する範囲にディスプレイが設けられ、両耳に対応する位置にヘッドホンが設けられる。ヘッドマウントディスプレイには、加速度センサや変位センサなどの各種センサが搭載されており、訓練対象者83、解析対象者93が装着したときの頭部の位置および姿勢を認識することが可能である。これにより、ヘッドマウントディスプレイは、訓練対象者83、解析対象者93の視点に合わせた映像を提示することが可能となっている。ただし、映像表示部81,91は、ヘッドマウントディスプレイ以外の表示装置であってもよい。例えば、3Dディスプレイや多面の箱型プロジェクションスクリーン(例えば、CAVE: Cave Automatic Virtual Environment)等であってもよい。この場合、ヘッドマウントディスプレイに搭載されていた加速度センサや変位センサなどの各種センサは必要に応じて別途、訓練対象者83、解析対象者93に取り付ければよい。 Further, the training system includes a video display unit 91 that displays an image on the analysis target person 93 when collecting analysis data, a sensor 92, and a video display unit 81 that displays an image on the training target person 83 when training. But it may be. The video display units 81 and 91 are, for example, head-mounted displays, and are attached to the analysis target person 93 and the training target person 83. The head-mounted display is a device for the training target person 83 and the analysis target person 93 to wear on the head and watch video and audio. As for the head-mounted display, for example, the display is provided in a range corresponding to the field of view when the training target person 83 and the analysis target person 93 are worn, and the headphones are provided at positions corresponding to both ears. The head-mounted display is equipped with various sensors such as an acceleration sensor and a displacement sensor, and can recognize the position and posture of the head when worn by the training target person 83 and the analysis target person 93. As a result, the head-mounted display can present images that match the viewpoints of the training target person 83 and the analysis target person 93. However, the video display units 81 and 91 may be display devices other than the head-mounted display. For example, it may be a 3D display, a multi-faceted box-shaped projection screen (for example, CAVE: Cave Automatic Virtual Environment), or the like. In this case, various sensors such as an acceleration sensor and a displacement sensor mounted on the head-mounted display may be separately attached to the training target person 83 and the analysis target person 93 as necessary.

〔解析用データ収集装置100〕
本実施形態の解析用データ収集装置100は、バーチャルリアリティを用いたスポーツシステムを用い、実環境に基づく映像ならびに実環境では再現しえない環境の映像をバーチャルリアリティ映像として解析対象者に提示し、そのバーチャル映像を見ながら運動する解析対象者から、運動情報と当該運動の評価を示す運動評価情報を取得し、提示したバーチャル映像を特定する情報である映像特定情報と対象者の運動情報と運動評価情報反応とを対応付けた解析用データを生成するものである。
[Data collection device for analysis 100]
The analysis data collecting device 100 of the present embodiment uses a sports system using virtual reality, and presents an image based on the actual environment and an image of an environment that cannot be reproduced in the actual environment to the analysis target person as a virtual reality image. Exercise information and exercise evaluation information indicating the evaluation of the exercise are acquired from the analysis target person who exercises while watching the virtual image, and the image identification information which is the information for identifying the presented virtual image, the exercise information of the subject, and the exercise It generates analysis data associated with the evaluation information reaction.

図2は解析用データ収集装置100の機能ブロック図を、図3はその処理フローの例を示す。 FIG. 2 shows a functional block diagram of the analysis data collection device 100, and FIG. 3 shows an example of its processing flow.

解析用データ収集装置100は、記憶部101、映像条件設定部102、映像合成部103、評価情報取得部106及び解析用データ生成部107を含む。 The analysis data acquisition device 100 includes a storage unit 101, a video condition setting unit 102, a video synthesis unit 103, an evaluation information acquisition unit 106, and an analysis data generation unit 107.

<記憶部101>
記憶部101には、映像合成部103で映像を合成する際のベースとなる各物体の動き情報(バーチャル映像中の各物体)および周辺環境の映像が予め格納されている。各物体の動き情報は、物体の「動きの種類」毎に当該「動きの種類」に対応付けて格納されているものとする。
<Memory unit 101>
The storage unit 101 stores in advance motion information (each object in the virtual image) of each object and an image of the surrounding environment, which are the bases when the image composition unit 103 synthesizes the image. It is assumed that the movement information of each object is stored in association with the "type of movement" for each "type of movement" of the object.

例えば、野球のバッターについて解析用データを取得しようとする場合、バーチャル映像として投手が投球し、ボールが解析対象者(バッター)のほうに向かって飛んでくる映像が映像表示部91に表示されることになる。この場合、記憶部101に記憶される各物体の動き情報は、
(1)投手の動き情報
投手の動き(投球スタイルや球種)毎の投手の投球フォームの映像(例えば、ストレートを投げるオーバーハンドスロー投手の映像、カーブを投げるサイドスロー投手の映像、スライダーを投げるアンダースロー投手の映像、等)
(2)ボールの動き情報
ボールの動き(ボールの軌道)毎のボールの位置情報の系列、つまり、各フレームにおいてボールがどの位置に表示されるかを示す位置情報の系列(例えば、ストレートで飛んでくるボールの位置情報の系列、カーブで飛んでくるボールの位置情報の系列、スライダーで飛んでくるボールの位置情報の系列、等)。
である。なお、位置情報の系列は、ボールが投手の手を離れる時刻を基準として次の時刻(フレーム)でボールがどの位置に表示されるかを示す位置情報を先頭として、以降の時刻のボールの位置情報が時系列に並んだ系列とする。
For example, when trying to acquire analysis data for a baseball batter, an image in which the pitcher throws a ball as a virtual image and the ball flies toward the analysis target (batter) is displayed on the image display unit 91. It will be. In this case, the motion information of each object stored in the storage unit 101 is
(1) Pitcher movement information An image of the pitcher's pitching form for each pitcher's movement (throwing style and type) (for example, an image of an overhand throw pitcher throwing a straight, an image of a side throw pitcher throwing a curve, and throwing a slider Underslow pitcher footage, etc.)
(2) Ball movement information A series of ball position information for each ball movement (ball trajectory), that is, a series of position information indicating where the ball is displayed in each frame (for example, flying straight). A series of ball position information that comes out, a series of ball position information that flies on a curve, a series of ball position information that flies with a slider, etc.).
Is. In addition, the series of position information starts with the position information indicating the position where the ball is displayed at the next time (frame) based on the time when the ball leaves the pitcher's hand, and the position of the ball at a later time. The information is arranged in chronological order.

また、(2)の代わりに、ボールの動き(ボールの軌道)毎のボールの映像(ストレートのボールが対象者のほうに向かって飛んでくる映像、カーブのボールが対象者のほうに向かって飛んでくる映像、スライダーのボールが対象者のほうに向かって飛んでくる映像、等)をボールの動き情報として格納してもよい。要は、動き情報は、後述する映像合成部103において、バーチャル映像を生成する際に、物体の動きを示す情報であればよい。 Also, instead of (2), the image of the ball for each movement of the ball (ball trajectory) (the image of a straight ball flying toward the target, and the curved ball toward the target). An image of flying, an image of a slider ball flying toward the target person, etc.) may be stored as ball movement information. In short, the motion information may be any information indicating the motion of the object when the virtual image is generated by the image compositing unit 103, which will be described later.

<映像条件設定部102>
映像条件設定部102は、映像合成部103で合成するバーチャル映像の条件を設定する(S102)。上述の通り、本実施形態の解析用データ収集装置100は、「実環境では再現しえない環境の映像」を映像表示部91に表示するが、この「実環境では再現しえない環境」として具体的にどのようなものを扱うかを映像の条件(以下、「映像特定情報」ともいう)として設定するものである。換言すると、映像特定情報とは、提示したバーチャル映像がどのような設定で生成されたものであるかを特定するための情報、つまり、提示したバーチャル映像を特定する情報である。映像の条件毎に固有のIDを振っていれば、そのIDでもよいし、映像の条件そのもの(例えば、後述の野球の例では投球フォームとボール動きの組である(ストレート,カーブ)等)でもよい。
<Video condition setting unit 102>
The video condition setting unit 102 sets the conditions for the virtual video to be synthesized by the video compositing unit 103 (S102). As described above, the analysis data acquisition device 100 of the present embodiment displays "an image of an environment that cannot be reproduced in an actual environment" on the image display unit 91, but as this "environment that cannot be reproduced in an actual environment". Specifically, what kind of data is handled is set as a video condition (hereinafter, also referred to as "video specific information"). In other words, the video specific information is information for specifying what kind of setting the presented virtual video is generated, that is, information for specifying the presented virtual video. As long as a unique ID is assigned to each video condition, that ID may be used, or the video condition itself (for example, in the example of baseball described later, it is a pair of throwing form and ball movement (straight, curve), etc.). good.

「実環境では再現しえない環境」とは、バーチャル映像内に表示される相手が物理法則に逆らう動きをする映像や、相手の身体動作と相手の身体動作に伴って繰り出されるボール等の物体の動きとが物理法則に照らして整合しない映像である。野球の場合を例に説明すると、以下のような映像である。
(1)投手がストレートのボールを投げるときの投球フォームの映像と、カーブの軌道に沿って対象者に向かってくるボールの映像とを合成した映像(つまり投球フォームと投じられるボール軌道が整合しない映像)。
(2)投手が投げたボールの軌道が途中まではストレートの軌道に沿っているが、その後突然カーブの軌道に沿った動きに切り替わるような映像(つまり、前半のボールの軌道が従う物理法則と、後半のボールの軌道が従う物理法則が異なる映像)。
(3)投手から自身のほうに向かってくるボールが、軌道上の一部区間において消えてしまう映像(つまり、実環境上では消滅するはずがないところで物体が消滅する映像)。
"Environment that cannot be reproduced in the real environment" means an image in which the opponent moves against the laws of physics displayed in the virtual image, or an object such as a ball that is drawn out according to the opponent's body movement and the opponent's body movement. It is an image in which the movement of is not consistent with the laws of physics. Taking the case of baseball as an example, the following image is shown.
(1) The image of the throwing form when the pitcher throws a straight ball and the image of the ball approaching the target along the trajectory of the curve are combined (that is, the throwing form and the trajectory of the thrown ball do not match. picture).
(2) An image in which the trajectory of the ball thrown by the pitcher follows a straight trajectory halfway, but then suddenly switches to a movement along a curved trajectory (that is, the physics law that the trajectory of the ball in the first half follows). , The image that the physical law that the trajectory of the ball in the latter half follows is different).
(3) An image in which a ball coming from a pitcher toward himself disappears in a part of the orbit (that is, an image in which an object disappears where it cannot disappear in the actual environment).

つまり、映像条件設定部102は、映像表示部91でバーチャル映像として表示する映像(実環境では再現しえない環境を提示する映像)中の各物体(人物含む)の動きを特定する映像特定情報を映像の条件として設定し(S102)、映像合成部103に出力する。 That is, the video condition setting unit 102 identifies the movement of each object (including a person) in the video displayed as a virtual video on the video display unit 91 (a video presenting an environment that cannot be reproduced in the real environment). Is set as a video condition (S102) and output to the video compositing unit 103.

上述の野球の(1)の例では、投手とボールの動きについて、(ストレート,カーブ)といった動きを特定する情報の組を映像の条件(映像特定情報)として設定する。 In the above-mentioned example of baseball (1), a set of information that specifies the movement of the pitcher and the ball (straight, curve) is set as a video condition (video specific information).

映像の条件は外部入力により与えられても良いし、各物体について予め用意された複数の動きの中からランダムに1つずつ選んで映像の条件を生成してもよい。例えば、上述の野球の例では、予め投手の動きとしてストレート、カーブ、スライダー等がリストで定められており、ボールの動きとしてストレート、カーブ、スライダー等がリストで定められており、そのなかから1つずつ動きを選択して(カーブ、スライダー)といった動きを特定する情報の組を映像の条件として設定する。 The video condition may be given by an external input, or the video condition may be generated by randomly selecting one from a plurality of movements prepared in advance for each object. For example, in the above-mentioned baseball example, straights, curves, sliders, etc. are defined in advance as pitcher movements, and straights, curves, sliders, etc. are defined as ball movements in a list. Select movements one by one (curve, slider) and set a set of information that identifies the movement as a condition of the image.

記憶部101に記憶される動き情報及び映像特定情報は、解析対象者に提示するバーチャル映像に応じて適宜用意すればよい。例えば、(2)のボールの軌道が物理法則に逆らう動きをするような映像の場合、投手が投げたボールの軌道が途中まではストレート、カーブ、スライダー等の軌道に沿っている動き情報を用意し(予め記憶部101に記憶しておき)、途中からストレート、カーブ、スライダー等の軌道に沿っている動き情報を用意し(予め記憶部101に記憶しておき)、途中までの軌道と途中からの軌道との組合せを設定可能な映像特定情報とする。また、例えば、(3)投手から自身のほうに向かってくるボールが、軌道上の一部区間において消えてしまう映像の場合、軌道上のA地点からB地点まで、B地点からC地点まで、…においてボールが消える動き情報を用意し(予め記憶部101に記憶しておき)、消える区間を特定する情報を設定可能な映像特定情報とする。 The motion information and the video identification information stored in the storage unit 101 may be appropriately prepared according to the virtual video presented to the analysis target person. For example, in the case of an image in which the trajectory of the ball in (2) moves against the laws of physics, the motion information of the ball thrown by the pitcher along the trajectory of a straight, curve, slider, etc. is prepared halfway. (Stored in the storage unit 101 in advance), prepare motion information along the trajectory of straights, curves, sliders, etc. from the middle (stored in the storage unit 101 in advance), and the trajectory and the middle of the process. The combination with the trajectory from is set as the video specific information that can be set. Also, for example, (3) in the case of an image in which the ball coming from the pitcher toward himself disappears in a part of the orbit, from point A to point B on the orbit, from point B to point C, ..., the movement information on which the ball disappears is prepared (stored in the storage unit 101 in advance), and the information for specifying the disappearing section is set as the video identification information that can be set.

なお、各物体についての動きに加えて、運動環境(雨が降っている/晴れている、暗い/明るい)を特定する情報も映像の条件(映像特定情報)として加えても良い。 In addition to the movement of each object, information for specifying the exercise environment (raining / sunny, dark / bright) may be added as a video condition (video specific information).

なお、実環境では再現しえない環境の映像だけでなく、実環境に基づく映像をバーチャルリアリティ映像として解析対象者に提示するために、物理法則に逆らわない動きをする映像や、相手の身体動作と相手の身体動作に伴って繰り出されるボール等の物体の動きとが物理法則に照らして整合する映像を特定する情報も映像特定情報として加えても良い。例えば、上述の野球の(1)の例では投手とボールの動きについて(ストレート,ストレート)といった動きを特定する情報の組を映像特定情報として設定してもよいし、(2)の例では投手が投げたボールの軌道の途中までの軌道と途中からの軌道について(ストレート,ストレート)といった動きを特定する情報の組を映像特定情報として設定してもよいし、(3)の例では投手から自身のほうに向かってくるボールが消えない動き情報を映像特定情報として設定してもよい。 In addition to the images of the environment that cannot be reproduced in the actual environment, in order to present the images based on the actual environment to the analysis target as virtual reality images, the images that move without violating the laws of physics and the body movements of the other party. Information that identifies an image in which the movement of an object such as a ball that is delivered in accordance with the body movement of the other party matches with the physical law may also be added as the image identification information. For example, in the above-mentioned example of baseball (1), a set of information specifying the movement such as the movement of the pitcher and the ball (straight, straight) may be set as the video identification information, and in the example of (2), the pitcher. A set of information that specifies the movement, such as the trajectory of the ball thrown by the ball up to the middle and the trajectory from the middle (straight, straight), may be set as the video identification information, or in the example of (3), from the pitcher. The motion information that the ball coming toward itself does not disappear may be set as the image specific information.

<映像合成部103>
映像合成部103は、映像特定情報を入力とし、映像条件設定部102で設定された映像の条件に従って、各物体(人物含む)が動く映像を合成した映像(バーチャル映像)を生成し(S103)、映像表示部91に出力する。映像の条件に運動環境の情報が含まれる場合には、その環境に応じて映像を加工して、映像表示部91に出力する。
<Video compositing unit 103>
The video compositing unit 103 receives video specific information as input, and generates a video (virtual video) that synthesizes a video in which each object (including a person) moves according to the video conditions set by the video condition setting unit 102 (S103). , Is output to the video display unit 91. When the video condition includes information on the exercise environment, the video is processed according to the environment and output to the video display unit 91.

上述の野球の例で説明すると、映像合成部103は、映像条件設定部102から出力された映像の条件中の投手の動きに対応する投球フォームの映像と、ボールの動きに対応するボールの映像とを記憶部101から読み出し、これらを合成した映像をバーチャル映像として映像表示部91に出力する。具体的には、例えば、記憶部101から読み出した投球フォームの映像のうち、ボールが手を離れる瞬間に対応するフレームの画像(投球開始フレーム画像)のボールを投げるほうの手の位置(初期位置)にボールの映像を重畳した映像を生成する。次の時刻のフレームの画像は、投球フォームの映像のうち投球開始フレーム画像の次のフレームの画像に、記憶部101から読み出したボールの位置情報の系列中の先頭の位置情報を前フレームのボールの位置に応じて補正した位置にボールの映像を重畳した映像を生成する。同様の処理を以後のフレームについても行うことでバーチャル映像を生成する。 Explaining with the above-mentioned baseball example, the image compositing unit 103 has a pitching form image corresponding to the pitcher's movement under the condition of the image output from the image condition setting unit 102 and a ball image corresponding to the ball movement. Is read from the storage unit 101, and the combined video is output to the video display unit 91 as a virtual video. Specifically, for example, in the image of the throwing form read from the storage unit 101, the position of the hand throwing the ball (initial position) of the frame image (throwing start frame image) corresponding to the moment when the ball leaves the hand. ) Is superimposed on the image of the ball to generate an image. The image of the frame at the next time is the image of the frame next to the pitching start frame image in the video of the pitching form, and the first position information in the series of ball position information read from the storage unit 101 is the ball of the previous frame. Generates an image in which the image of the ball is superimposed on the position corrected according to the position of. A virtual image is generated by performing the same processing for subsequent frames.

上述の映像表示部91は、映像合成部103で合成したバーチャル映像を内部のディスプレイに映し、解析対象者93に提示する(S104)。 The above-mentioned image display unit 91 displays the virtual image synthesized by the image composition unit 103 on the internal display and presents it to the analysis target person 93 (S104).

センサ92は、映像表示部91に提示されたバーチャル映像を見ながら運動する解析対象者93の体の所定部位、または/および、解析対象者93が保持する物体(バットやラケット等であり、付属物ともいう)に取り付けられ、センサデータを取得し(S105)、出力する。この取得したセンサデータを運動情報と呼ぶこととする。センサ92としては、加速度センサや変位センサやモーションセンサなどの各種運動情報を検知するためのセンサ、あるいは、心拍・心電・呼吸・筋電・眼の動的な動き等の各種生体情報を取得するセンサ等が考えられる。これらのセンサのうち1つ以上のセンサから取得した1つ以上のセンサデータを運動情報として取得するものとする。 The sensor 92 is a predetermined part of the body of the analysis target person 93 who moves while viewing the virtual image presented on the image display unit 91, or / and an object (bat, racket, or the like, which is attached to the sensor 92) held by the analysis target person 93. It is attached to an object), acquires sensor data (S105), and outputs it. This acquired sensor data will be referred to as motion information. As the sensor 92, a sensor for detecting various motion information such as an acceleration sensor, a displacement sensor, and a motion sensor, or various biological information such as heartbeat, electrocardiogram, respiration, myoelectricity, and dynamic movement of the eye are acquired. Sensors and the like can be considered. It is assumed that one or more sensor data acquired from one or more of these sensors is acquired as motion information.

<評価情報取得部106>
評価情報取得部106は、映像表示部91に提示されたバーチャル映像を見ながら運動する対象者が行った運動(言い換えると、バーチャル映像が提示された状態で解析対象者が行った運動)の評価を示す情報を運動評価情報として取得し(S106)、出力する。
<Evaluation information acquisition unit 106>
The evaluation information acquisition unit 106 evaluates the exercise performed by the subject exercising while viewing the virtual image presented on the image display unit 91 (in other words, the exercise performed by the analysis subject while the virtual image is presented). The information indicating the above is acquired as exercise evaluation information (S106) and output.

「運動評価情報」とは、例えばバッティングが上手くできたか否か(ボールを打ち返すことができたかどうか、ヒットなのか、ホームランなのか、空振りなのか等)やバッティング動作の巧みさ(どのようなタイミングでどのように身体を操作していたか等)、あるいは当該運動時の対象者の生体反応(眼の動きや心拍等)に影響するような運動状態を示す情報(例えば、ビーンボール(頭に向かってくるときの球)を投じられたことを示す情報など)である。当該運動時の対象者の注意状態(注意を向けている程度や範囲)や心理状態などを運動評価情報として付加してもよい。 "Exercise evaluation information" includes, for example, whether or not batting was successful (whether or not the ball was hit back, whether it was a hit, whether it was a home run, or whether it was a missed shot, etc.) and the skill of batting movement (what kind of timing). Information indicating the movement state that affects the subject's biological reaction (eye movement, heartbeat, etc.) during the exercise (for example, beanball (toward the head)) Information indicating that the ball) was thrown). The attention state (degree and range of attention) and psychological state of the subject during the exercise may be added as exercise evaluation information.

解析対象者93もしくは第三者から外部入力により運動評価情報を入力する構成としても良いし、センサ92で取得した運動情報と映像表示部91で表示した映像の情報とに基づいて評価値を計算し、運動評価情報として用いてもよい。 The motion evaluation information may be input from the analysis target person 93 or a third party by external input, or the evaluation value is calculated based on the motion information acquired by the sensor 92 and the video information displayed by the video display unit 91. However, it may be used as exercise evaluation information.

野球の例では、解析対象者93が振ったバッドの運動情報と映像表示部91で表示したボールの位置の情報とに基づいてバットにボールが当たったか否かの当たり判定を行った結果を運動評価情報としてもよい。例えば、評価情報取得部106は、映像条件設定部102から映像特定情報を受け取り、映像特定情報に基づき記憶部101からボールの動き情報(ボールの位置情報の系列)を取り出す。また、評価情報取得部106は、バットに取り付けられたセンサ92からバットの位置を示す運動情報を受け取る。評価情報取得部106は、ボールの動き情報とバットの位置を示す運動情報とから、バットにボールが当たったか否かの当たり判定を行う。当たった場合には高い評価値を、当たらなかった場合には低い評価値を運動評価情報として設定してもよい。 In the example of baseball, the result of hit determination as to whether or not the ball hits the bat is exercised based on the motion information of the bad swung by the analysis target 93 and the position information of the ball displayed on the video display unit 91. It may be used as evaluation information. For example, the evaluation information acquisition unit 106 receives the video identification information from the video condition setting unit 102, and retrieves the ball movement information (series of ball position information) from the storage unit 101 based on the video identification information. Further, the evaluation information acquisition unit 106 receives motion information indicating the position of the bat from the sensor 92 attached to the bat. The evaluation information acquisition unit 106 determines whether or not the ball hits the bat based on the movement information of the ball and the movement information indicating the position of the bat. If it hits, a high evaluation value may be set, and if it does not hit, a low evaluation value may be set as exercise evaluation information.

<解析用データ生成部107>
解析用データ生成部107は、映像条件設定部102で設定した映像の条件に対応する映像特定情報と、センサ92が出力した運動情報と、評価情報取得部106が出力した運動評価情報とを入力とし、これらの情報を対応付けた情報を解析用データとし、解析装置200に出力する。なお、解析用データ収集装置100は、図示しない記憶部に解析用データを蓄積しておき、解析用データの集合が、後述する解析装置200の記憶部201に格納される。
<Data generation unit for analysis 107>
The analysis data generation unit 107 inputs the image identification information corresponding to the image condition set by the image condition setting unit 102, the motion information output by the sensor 92, and the motion evaluation information output by the evaluation information acquisition unit 106. Then, the information associated with these information is used as analysis data and output to the analysis device 200. The analysis data collection device 100 stores analysis data in a storage unit (not shown), and a set of analysis data is stored in the storage unit 201 of the analysis device 200, which will be described later.

〔解析装置200〕
本実施形態の解析装置200は、上述の解析用データ収集装置100を用いて異なる映像の条件や異なる対象者について取得した解析用データの集合(解析用データ集合)を用いて、運動パフォーマンス向上に寄与しうる知覚情報(映像中のどの動きに注目すべきかを示す情報、以下「注目視覚情報」ともいう)を推定する。
[Analyzer 200]
The analysis device 200 of the present embodiment improves exercise performance by using a set of analysis data (analysis data set) acquired for different video conditions and different subjects using the above-mentioned analysis data collection device 100. Estimate perceptual information that can contribute (information indicating which movement in the image should be focused on, hereinafter also referred to as "focused visual information").

なお、図1では解析用データ収集装置100で取得した解析用データを逐次解析装置200に入力するように見えるが、これに限定されるものではない。予め様々な場所、様々な対象者、異なる日時において解析用データ収集装置100で取得した解析用データを記憶部に格納しておくものとし、記憶部に格納された解析用データの集合を解析装置200が読み出して用いることができるものとする。 In FIG. 1, it seems that the analysis data acquired by the analysis data collection device 100 is input to the sequential analysis device 200, but the present invention is not limited to this. It is assumed that the analysis data acquired by the analysis data collection device 100 at various places, various subjects, and different dates and times is stored in the storage unit in advance, and the set of analysis data stored in the storage unit is stored in the analysis device. It is assumed that 200 can be read and used.

図4は解析装置200の機能ブロック図を、図5はその処理フローの例を示す。 FIG. 4 shows a functional block diagram of the analyzer 200, and FIG. 5 shows an example of its processing flow.

解析装置200は、記憶部201、第一解析部202及び第二解析部203を含む。 The analysis device 200 includes a storage unit 201, a first analysis unit 202, and a second analysis unit 203.

解析装置200は、解析用データ収集装置100で収集した解析用データの集合を受け取り、記憶部201に格納する。 The analysis device 200 receives a set of analysis data collected by the analysis data collection device 100 and stores it in the storage unit 201.

<記憶部201>
記憶部201には、解析用データの集合が格納されているものとする。解析用データの集合は、少なくとも
(1)複数の異なる映像特定情報に対応する映像について、同一の解析対象者から取得した複数の解析用データ
(2)同一の映像特定情報に対応する映像について、複数の異なる解析対象者から取得した複数の解析用データ
の何れかを含むものとする。
<Memory unit 201>
It is assumed that the storage unit 201 stores a set of analysis data. The set of analysis data includes at least (1) multiple analysis data acquired from the same analysis target person for videos corresponding to a plurality of different video specific information, and (2) video corresponding to the same video specific information. It shall include any of a plurality of analysis data obtained from a plurality of different analysis subjects.

<第一解析部202>
第一解析部202は、解析用データの集合を記憶部201から取り出し、解析用データの集合に基づき、運動評価情報と相関性が高い運動情報を推定し(S202)、推定した運動情報の種別を特定する情報を出力する。なお、推定された結果を「解析対象運動情報」と呼ぶこととする。よって、解析対象運動情報は、加速度センサ、変位センサ、モーションセンサの出力値、心拍・心電・呼吸・筋電・眼の動的な動き等の各種生体情報(生体応答)の種別を特定する情報などである。なお、解析対象運動情報は、これらの出力値や各種生体情報(生体応答)を得る際に用いられるセンサの種別を特定する情報とも言える。
<First analysis unit 202>
The first analysis unit 202 takes out a set of analysis data from the storage unit 201, estimates motion information having a high correlation with the motion evaluation information based on the set of analysis data (S202), and types of the estimated motion information. Outputs information that identifies. The estimated result will be referred to as "analysis target motion information". Therefore, the motion information to be analyzed specifies the types of various biological information (biological responses) such as acceleration sensor, displacement sensor, output value of motion sensor, heartbeat, electrocardiogram, respiration, myoelectricity, and dynamic movement of the eye. Information etc. The motion information to be analyzed can be said to be information that specifies the type of sensor used when obtaining these output values and various biological information (biological responses).

具体的には、同一の映像特定情報に対応する映像について、同一または複数の解析対象者から取得した複数の解析用データを解析した場合、運動評価が高いとき(上手くできたとき)と運動評価が低いとき(上手くできなかったとき)とで差異が大きい運動情報のカテゴリ(例えばセンサの種別を特定する情報等)を解析対象運動情報と推定する。例えば、運動評価が高いときと低いときでピーク値を取る時刻が異なる運動情報や、運動情報の時系列パターンが、評価が高いときと低いときで大きく異なるような運動情報のカテゴリ(例えばセンサの種別を特定する情報等)を解析対象運動情報とする。なお、解析対象運動情報は、同じ種類のセンサであっても運動情報を取得する部位(どこにセンサをつけたか)を含めて識別可能な情報であるものとする。 Specifically, when a plurality of analysis data acquired from the same or a plurality of analysis subjects are analyzed for a video corresponding to the same video specific information, when the motion evaluation is high (when it is successful) and the motion evaluation is performed. It is estimated that the category of motion information (for example, information that identifies the type of sensor) that has a large difference from when is low (when it cannot be done well) is the motion information to be analyzed. For example, a category of motion information (for example, a sensor) in which the time at which the peak value is taken differs greatly depending on whether the motion evaluation is high or low, or the time-series pattern of the motion information differs greatly depending on whether the evaluation is high or low. Information that identifies the type, etc.) is used as the exercise information to be analyzed. It should be noted that the motion information to be analyzed is information that can be identified even if the sensors are of the same type, including the part (where the sensor is attached) from which the motion information is acquired.

また、(1)複数の異なる映像特定情報に対応する映像について、同一の解析対象者から取得した複数の解析用データを解析した場合、運動評価が高いときと運動評価が低いときとで差異が大きい運動情報のカテゴリ(例えばセンサの種別を特定する情報等)を解析対象運動情報と推定する。 In addition, (1) when a plurality of analysis data acquired from the same analysis target person are analyzed for videos corresponding to a plurality of different video specific information, there is a difference between when the motion evaluation is high and when the motion evaluation is low. A large category of motion information (for example, information that identifies the type of sensor) is estimated as the motion information to be analyzed.

あるいは、(2)同一の映像特定情報に対応する映像について、複数の異なる解析対象者から取得した複数の解析用データを解析した場合、運動評価が高い対象者(運動パフォーマンスの高い対象者:プロ選手やレギュラー選手等)と運動評価が低い対象者(運動パフォーマンスが高くない対象者:初心者や補欠選手等)とで差異が大きい運動情報のカテゴリ(例えばセンサの種別を特定する情報等)を解析対象運動情報とする。 Alternatively, (2) when a plurality of analysis data acquired from a plurality of different analysis subjects are analyzed for a video corresponding to the same video specific information, a subject with a high exercise evaluation (a subject with a high exercise performance: a professional). Analyzing the categories of exercise information (for example, information that identifies the type of sensor) where there is a large difference between subjects with low exercise evaluation (targets with low exercise performance: beginners, substitute athletes, etc.) Use as target exercise information.

解析対象運動情報は、1個の運動情報のカテゴリであっても良いし、複数の運動情報のカテゴリの組み合わせであっても良い。 The movement information to be analyzed may be one movement information category or a combination of a plurality of movement information categories.

解析用データが複数個ある場合はこれらの平均を取った解析用データに対して上述の解析を行って解析対象運動情報を求めてもよいし、各解析用データに対して解析対象運動情報を求めた結果の多数決をとり、多いものを優先して最終的な解析対象運動情報としても良い。 When there are a plurality of analysis data, the analysis target motion information may be obtained by performing the above analysis on the analysis data obtained by averaging these data, or the analysis target motion information may be obtained for each analysis data. The majority of the obtained results may be taken, and the most ones may be prioritized as the final analysis target exercise information.

上述の処理によって、解析用データの集合から複数の映像特定情報に対応する複数の解析対象運動情報を取得する。 By the above-mentioned processing, a plurality of analysis target motion information corresponding to a plurality of video specific information is acquired from a set of analysis data.

<第二解析部203>
第二解析部203は、解析対象運動情報と、記憶部201に記憶された解析用データの集合に含まれる映像特定情報を用いて、バーチャル映像に含まれる、解析対象運動情報に対応する運動情報との相関性が高い映像部分領域(バーチャル映像中の動きがある部分領域)を特定する情報を「注目視覚情報」として推定し(S203)、解析対象運動情報と注目視覚情報とを関連付ける情報(注目運動種別情報ともいう)を得、出力する。例えば、注目視覚情報は、解析対象運動情報に対応する運動情報が示す挙動に変動が発生する時刻(以下、「変化時刻」という)と、当該変化時刻近傍で動きのあるバーチャル映像中の部分領域(解析対象運動情報に対応する運動情報との相関が高い映像部分領域)を示す情報とを少なくとも含む。部分領域を示す情報は、フレーム中で動きのある部分領域が特定できる情報、つまりフレーム内での部分領域の位置や大きさを特定する情報である。例えば、部分領域を示す情報は、運動評価が高いときの解析用データに含まれるバーチャル映像において、解析対象運動情報に対応する運動情報の変動が大きい時刻(変動時刻ともいう)の近傍で動きのある部分領域を特定する情報としてもよい。注目視覚情報は、変動時刻を部分領域を示す情報と対応付けたものである。また、注目視覚情報に、バーチャル映像中の部分領域を特定するのに用いた映像情報を特定する映像特定情報を含めてもよい。
<Second analysis unit 203>
The second analysis unit 203 uses the analysis target motion information and the video identification information included in the set of analysis data stored in the storage unit 201, and the motion information corresponding to the analysis target motion information included in the virtual image. Information that identifies a video partial region (a partial region with movement in a virtual video) that has a high correlation with is estimated as "attention visual information" (S203), and information that associates the analysis target motion information with the attention visual information (information that is associated with the attention visual information). (Also called attention movement type information) is obtained and output. For example, the visual information of interest includes the time at which the behavior indicated by the motion information corresponding to the motion information to be analyzed changes (hereinafter referred to as “change time”) and a partial region in the virtual image that moves near the change time. It includes at least information indicating (a video partial region having a high correlation with the motion information corresponding to the motion information to be analyzed). The information indicating the partial area is information that can identify a moving partial area in the frame, that is, information that specifies the position and size of the partial area in the frame. For example, the information indicating the partial region moves in the vicinity of the time (also referred to as the fluctuation time) in which the movement information corresponding to the analysis target movement information fluctuates greatly in the virtual image included in the analysis data when the movement evaluation is high. It may be information that identifies a certain subregion. The visual information of interest is the association of the fluctuation time with the information indicating the partial area. In addition, the visual information of interest may include video identification information that identifies the video information used to specify a partial region in the virtual video.

ここで、第二解析部203が用いる解析用データ集合は、第一解析部202で解析対象運動情報を得るのに用いた解析用データ集合と同じものとする。 Here, the analysis data set used by the second analysis unit 203 is the same as the analysis data set used by the first analysis unit 202 to obtain the analysis target motion information.

例えば、第二解析部203は、解析用データ集合中の各解析用データについて、第一解析部202で得た解析対象運動情報に対応する特定のセンサ92から取得した運動情報が示す挙動に変動が発生する時刻近傍に動きがあったバーチャル映像(解析用データ収集装置100の映像表示部91に表示されていた映像)中の部分領域を推定する。これにより、映像中のどの部分の動き(映像中の部分領域)と、どの動作や生体応答の動き(解析対象運動情報に対応する運動情報)とが相関性が高いのかを関係付けることができる。 For example, the second analysis unit 203 changes the behavior of each analysis data in the analysis data set to the behavior indicated by the motion information acquired from the specific sensor 92 corresponding to the analysis target motion information obtained by the first analysis unit 202. Estimates a partial area in the virtual image (the image displayed on the image display unit 91 of the analysis data acquisition device 100) that has moved in the vicinity of the time when the above occurs. This makes it possible to correlate which part of the image moves (partial area in the image) with which movement or movement of the biological response (motion information corresponding to the movement information to be analyzed) has a high correlation. ..

第二解析部203は、例えば、変化時刻と、こうして得た解析対象運動情報に対応する運動情報と相関性の高い(と推定された)バーチャル映像中の部分領域と、当該部分領域を含むバーチャル映像を特定するための映像特定情報とを注目視覚情報としてもよい。この場合、この注目視覚情報と解析対象運動情報とを「解析対象運動情報と注目視覚情報とを関連付ける情報」として出力する。この場合に、注目視覚情報に映像特定情報を含むようにするのは、後述の訓練装置で訓練のために生成するバーチャル映像を特定する情報として必要なためである。 The second analysis unit 203 includes, for example, a partial region in the virtual image having a high correlation (presumed) with the change time, the motion information corresponding to the motion information to be analyzed thus obtained, and a virtual including the partial region. The video identification information for specifying the video may be the visual information of interest. In this case, the attention visual information and the analysis target movement information are output as "information relating the analysis target movement information and the attention visual information". In this case, the visual information of interest includes the image-specific information because it is necessary as the information for specifying the virtual image generated for training by the training device described later.

例えば、以下のような処理で行うことができる。
(1)第一解析部202で得た解析対象運動情報に対応するセンサで取得された解析用データ中の運動情報の系列について、隣接する時刻間でセンサデータの変動が大きい時刻を変化時刻として抽出する。
(2)上記(1)で変化時刻を求めた解析用データが示す映像特定情報について、映像特定情報により特定される映像(前述の映像合成部103から出力されていた映像)中の変化時刻近傍の2つの異なる時刻のフレームの画像を比較し、当該フレーム間で動きがある映像中の部分領域を、当該変化時刻におけるフレームの特徴として算出する。
For example, the following processing can be performed.
(1) Regarding the sequence of motion information in the analysis data acquired by the sensor corresponding to the analysis target motion information obtained by the first analysis unit 202, the time when the sensor data fluctuates greatly between adjacent times is set as the change time. Extract.
(2) Regarding the video identification information indicated by the analysis data for which the change time was obtained in (1) above, the vicinity of the change time in the video specified by the video identification information (the video output from the video synthesis unit 103 described above). The images of the two frames at different times are compared, and the partial region in the image in which there is movement between the frames is calculated as the feature of the frame at the change time.

解析対象運動情報が示す運動情報の種別毎に、解析対象データ集合中の各解析用データについて上記(1)(2)を行うと、各運動情報の種別と相関の高い映像の部分領域と変化時刻が抽出できる。解析用データ毎に抽出される部分領域や変化時刻が異なる場合は、解析用データ全体の中で多数決をとり、多いものから所定数の部分領域や変化時刻を選択するようにしても良い。 When the above (1) and (2) are performed for each analysis data in the analysis target data set for each type of exercise information indicated by the analysis target exercise information, the partial region and change of the image having a high correlation with each exercise information type. The time can be extracted. If the subregions and change times extracted for each analysis data are different, a majority vote may be taken in the entire analysis data, and a predetermined number of subregions and change times may be selected from the largest number.

第一解析部202で得られる解析対象運動情報に対応する運動情報は、運動評価が高いとき(または人)と運動評価が低いとき(または人)とで差がある。 The exercise information corresponding to the analysis target exercise information obtained by the first analysis unit 202 differs between when the exercise evaluation is high (or person) and when the exercise evaluation is low (or person).

第二解析部203では、この運動評価が高いか低いかによって差がある動作や生体応答の動きに着目して、当該動作や生体応答が大きくでる時刻の周辺で動きのある映像の部分領域が、脳内で当該動作や生体応答を決定するに際して寄与した映像(視覚)情報であろうと推定するものである。 In the second analysis unit 203, focusing on the movements and the movements of the biological response that differ depending on whether the motion evaluation is high or low, the partial region of the moving image around the time when the movements or the biological response is large is generated. , It is presumed that it is the video (visual) information that contributed to the determination of the movement and the biological response in the brain.

例えば、実環境ではバッティングの精度が高い人が、投球フォームとボールの軌道が一致しない映像に対するバッティングの場合は精度が落ちてしまうとすると、投球フォーム又はボールの軌道の少なくとも一方の知覚情報が運動制御や生体応答に大きく寄与していると考えられる。そこで、本手法により実環境でバッティングした場合の解析用データを運動評価が高いときの解析用データとし、投球フォームとボールの軌道が一致しない映像に対してバッティングした場合の解析用データを運動評価が低いときの解析用データとして解析することで、抽出された注目視覚情報が「投球フォームに動きがある区間(ボールが手を離れる前)」であれば、運動パフォーマンスの高い選手はボールの軌道を見る前に投球フォームからある程度ボールの軌道を予測していると考えられる。特に、投球フォームのどの時点の動きで判断をしているかが注目視覚情報により把握可能となる。同様に、注目視覚情報が「ボールが投手の手を離れて飛んでくる区間」であれば、当該区間のボールの軌道が運動制御(バッティングのタイミングや動き)や生体応答を決定するのに寄与していることが分かる。 For example, if a person with high batting accuracy in a real environment loses accuracy in batting for an image in which the throwing form and the trajectory of the ball do not match, the perceived information of at least one of the throwing form or the trajectory of the ball moves. It is considered that it greatly contributes to control and biological response. Therefore, the analysis data when batting in the actual environment by this method is used as the analysis data when the motion evaluation is high, and the analysis data when batting is performed on the image in which the throwing form and the trajectory of the ball do not match is the motion evaluation. If the extracted attention visual information is "the section where the throwing form is moving (before the ball leaves the hand)" by analyzing it as analysis data when the value is low, the player with high athletic performance will have the trajectory of the ball. It is thought that the trajectory of the ball is predicted to some extent from the throwing form before looking at. In particular, it is possible to grasp at what point in time the movement of the pitching form the judgment is made by the attention visual information. Similarly, if the visual information of interest is "the section where the ball flies away from the pitcher's hand", the trajectory of the ball in that section contributes to determining motion control (batting timing and movement) and biological response. You can see that you are doing it.

あるいは、映像条件設定部102の(3)では、ボールの軌道上の一部区間においてボールの映像を消す例を示したが、このような映像であれば、運動評価が低いときの解析用データに対応する映像でボールを消した区間の情報が運動制御や生体応答に大きく寄与している可能性があると推定できる。 Alternatively, (3) of the image condition setting unit 102 shows an example of erasing the image of the ball in a part section on the trajectory of the ball, but in such an image, the analysis data when the motion evaluation is low. It can be presumed that the information on the section where the ball is erased in the video corresponding to the above may greatly contribute to the movement control and the biological response.

なお、解析用データ収集装置100で取得した解析用データは、本解析装置200による手法に限らず、人手で運動パフォーマンス向上に寄与しうる知覚情報(注目視覚情報)を解析することも利用可能である。 The analysis data acquired by the analysis data collection device 100 is not limited to the method used by the analysis device 200, and it is also possible to manually analyze perceptual information (visual information of interest) that can contribute to the improvement of motor performance. be.

〔訓練装置300〕
訓練装置300は、注目視覚情報に対応する視覚情報を訓練対象者が取得できるようになるよう訓練するための訓練装置300である。
[Training device 300]
The training device 300 is a training device 300 for training so that the trainee can acquire the visual information corresponding to the visual information of interest.

なお、図1では解析装置200から出力された情報が逐次的に訓練装置300に入力され、訓練装置300が実行されるように見えるが、これに限定されるものではない。一般には、解析装置200又は別の人手による手法等で予め解析対象運動情報と注目視覚情報とを関連付ける情報を得、当該解析対象運動情報と注目視覚情報とを関連付ける情報が記憶部に記憶されているものとし、訓練装置300は、解析用データを取得した場所や取得した対象者、取得した日時とは異なる場所、対象者、日時において、記憶部に格納された解析対象運動情報と注目視覚情報とを関連付ける情報を読み出して実行されるものとする。 In FIG. 1, the information output from the analysis device 200 is sequentially input to the training device 300, and it seems that the training device 300 is executed, but the present invention is not limited to this. In general, information that associates the analysis target motion information with the attention visual information is obtained in advance by the analyzer 200 or another manual method, and the information that associates the analysis target motion information with the attention visual information is stored in the storage unit. In the training device 300, the analysis target exercise information and the attention visual information stored in the storage unit are stored in the storage unit at the place where the analysis data is acquired, the acquired target person, the place different from the acquired date and time, the target person, and the date and time. It is assumed that the information associated with is read and executed.

図6は訓練装置300の機能ブロック図を、図7はその処理フローの例を示す。 FIG. 6 shows a functional block diagram of the training device 300, and FIG. 7 shows an example of its processing flow.

訓練装置300は、記憶部301、訓練条件設定部302及び第二映像合成部303を含む。 The training device 300 includes a storage unit 301, a training condition setting unit 302, and a second video compositing unit 303.

<記憶部301>
記憶部301には、第二映像合成部303で映像を合成する際のベースとなる各物体の動き情報(バーチャル映像中の各物体)および周辺環境の映像が予め格納されている。各物体の動き情報は、物体の「動きの種類」毎に当該「動きの種類」に対応付けて格納されているものとする。動き情報は、物体の動きを映像として提示する際に用いる情報である。基本的には解析用データ収集装置の記憶部101に格納されているものと同じである。
<Memory unit 301>
The storage unit 301 stores in advance motion information (each object in the virtual image) of each object and an image of the surrounding environment, which are the bases when the image is synthesized by the second image compositing unit 303. It is assumed that the movement information of each object is stored in association with the "type of movement" for each "type of movement" of the object. The motion information is information used when presenting the motion of an object as an image. Basically, it is the same as that stored in the storage unit 101 of the analysis data collection device.

また、記憶部301には、解析対象運動情報と注目視覚情報とを関連付ける情報が格納されているものとする。これは、前述の解析装置200や別の人手による手法等で得られた、解析対象運動情報(センサの種別)と当該解析対象運動情報の変動と相関の高い視覚情報である注目視覚情報とを関連付ける情報である。解析対象運動情報は、運動の評価の高い運動と低い運動とで差異のある運動情報の種別を表す情報であり、変化運動種別情報ともいう。 Further, it is assumed that the storage unit 301 stores information relating the analysis target motion information and the attention visual information. This is the analysis target motion information (type of sensor) obtained by the above-mentioned analysis device 200 or another manual method, and the attention visual information which is the visual information highly correlated with the fluctuation of the analysis target motion information. Information to be associated. The exercise information to be analyzed is information indicating the type of exercise information in which there is a difference between exercise with a high evaluation of exercise and exercise with a low evaluation, and is also referred to as change exercise type information.

<訓練条件設定部302>
訓練条件設定部302は、訓練対象者に訓練させたい解析対象運動情報を訓練対象運動情報として設定し(S302)、記憶部301に記憶された解析対象運動情報と注目視覚情報とを関連付ける情報に基づいて、設定された訓練対象運動情報に対応する解析対象運動情報に関連づけられた注目視覚情報を出力する。例えば、上述の解析装置200(もしくは人手による解析等)の第一解析部202で訓練対象者について得た解析用データと、訓練対象者よりも運動パフォーマンスの高い人について得た解析用データとの間で差異の大きい解析対象運動を得、これを訓練対象運動情報として設定する。複数の解析対象運動情報が抽出された場合は、その中から訓練させたいものを1つ選んで設定してもよい。
<Training condition setting unit 302>
The training condition setting unit 302 sets the analysis target exercise information to be trained by the training target person as the training target exercise information (S302), and sets the analysis target exercise information stored in the storage unit 301 as the information for associating the attention visual information. Based on this, the attention visual information associated with the analysis target exercise information corresponding to the set training target exercise information is output. For example, the analysis data obtained for the trainee by the first analysis unit 202 of the above-mentioned analysis device 200 (or manual analysis, etc.) and the analysis data obtained for the person with higher exercise performance than the trainee. An analysis target exercise with a large difference is obtained, and this is set as training target exercise information. When a plurality of analysis target exercise information is extracted, one of them to be trained may be selected and set.

あるいは、上述の解析装置200(もしくは人手による解析等)の第一解析部202で、訓練対象者の運動評価が高いときに取得された解析用データと、訓練対象者の運動評価が低いときに取得された解析用データとの間で差異の大きい解析対象運動を得、これを訓練対象運動情報として設定してもよい。 Alternatively, when the analysis data acquired by the first analysis unit 202 of the above-mentioned analysis device 200 (or manual analysis or the like) when the exercise evaluation of the trainee is high and when the exercise evaluation of the trainee is low. An analysis target exercise having a large difference from the acquired analysis data may be obtained and set as training target exercise information.

解析装置200によらず、指導者等が特に動きを強化させたい体の部位又は付属物の動き等を把握していれば、当該体の部位又は付属物の動きを計測するセンサを特定する情報を訓練対象運動情報として設定しても良い。 Information that identifies a sensor that measures the movement of the body part or accessory if the instructor or the like grasps the movement of the body part or accessory that the instructor or the like particularly wants to enhance the movement regardless of the analysis device 200. May be set as training target exercise information.

<第二映像合成部303>
第二映像合成部303は、訓練条件設定部302から注目視覚情報を受け取り、注目視覚情報を用いて、訓練用のバーチャル映像を合成する。訓練用のバーチャル映像は、実環境では再現しえない環境を提示するバーチャル映像であり、注目視覚情報が示すバーチャル映像中の部分領域が強調された映像である。
<Second video compositing unit 303>
The second video synthesizing unit 303 receives the attention visual information from the training condition setting unit 302, and synthesizes the virtual video for training by using the attention visual information. The virtual image for training is a virtual image that presents an environment that cannot be reproduced in a real environment, and is an image in which a partial area in the virtual image indicated by the visual information of interest is emphasized.

例えば、第二映像合成部303は、解析用データ収集装置100の映像合成部103と同様の方法でバーチャル映像を合成する。このとき、訓練条件設定部302から受け取った注目視覚情報に含まれる変化時刻の近傍の時刻フレームでは、注目視覚情報が示すバーチャル映像中の部分領域を強調する視覚効果を重畳したバーチャル映像を合成し(S303)、映像表示部81に出力する。 For example, the second video compositing unit 303 synthesizes a virtual video in the same manner as the video compositing unit 103 of the analysis data acquisition device 100. At this time, in the time frame near the change time included in the attention visual information received from the training condition setting unit 302, a virtual image superimposing a visual effect that emphasizes a partial area in the virtual image indicated by the attention visual information is synthesized. (S303), output to the image display unit 81.

なお、解析用データ収集装置100の映像合成部103は、映像合成の条件が映像条件設定部102で与えられるが、第二映像合成部303ではランダムに映像条件を設定し、設定した条件で解析用データ収集装置100の映像合成部103と同様の方法でバーチャル映像を合成できるものとする。ランダムに合成されたバーチャル映像の中で、変化時刻近傍において注目視覚情報が示す部分領域に注意を向けるように訓練をするのである。なお、注目視覚情報に映像特定情報を含めておき、第二映像合成部303では当該映像特定情報に対応する映像条件でバーチャル映像を合成してもよい。 In the video compositing unit 103 of the analysis data acquisition device 100, the video compositing conditions are given by the video condition setting unit 102, but the second video compositing unit 303 randomly sets the video conditions and analyzes under the set conditions. It is assumed that the virtual video can be synthesized by the same method as the video compositing unit 103 of the data acquisition device 100. In the randomly synthesized virtual image, training is performed to pay attention to the partial area indicated by the visual information of interest in the vicinity of the change time. It should be noted that the video specific information may be included in the visual information of interest, and the second video compositing unit 303 may synthesize the virtual video under the video conditions corresponding to the video specific information.

訓練条件設定部302で設定した注目視覚情報が示すバーチャル映像中の部分領域を強調する視覚効果を重畳した映像とは、例えばバーチャル映像中で当該部分領域を目立つように囲む視覚効果を付与したり、バーチャル映像中で当該部分領域以外の領域の映像をぼかしたり、情報を削減した映像である。また、一定の視覚効果を付与するだけでなく、基準となる映像から上記のような映像に向けて、訓練の進捗に合わせて徐々に変化させても良い。 The image in which the visual effect that emphasizes the partial area in the virtual image indicated by the attention visual information set by the training condition setting unit 302 is superimposed is, for example, a visual effect that conspicuously surrounds the partial area in the virtual image. , This is an image in which the image in the area other than the relevant partial area is blurred or the information is reduced in the virtual image. In addition to imparting a certain visual effect, the reference image may be gradually changed according to the progress of the training from the reference image to the above image.

上述の映像表示部81は、第二映像合成部303で合成したバーチャル映像を内部のディスプレイに映し、訓練対象者83に提示する(S304)。 The above-mentioned video display unit 81 displays the virtual image synthesized by the second video compositing unit 303 on the internal display and presents it to the training target person 83 (S304).

訓練対象者83は、映像表示部81で表示された映像を見ながら運動を行う。これにより、運動パフォーマンスの高い人がいつ、どのような領域を視認し運動制御を行っているかがバーチャル映像中で強調表示されるので、訓練対象者83はその部分に着目して視覚情報を取得し、運動を開始するように訓練することができる。 The trainee 83 exercises while watching the image displayed on the image display unit 81. As a result, when and what kind of area a person with high exercise performance is visually recognizing and performing exercise control is highlighted in the virtual image, and the trainee 83 acquires visual information by paying attention to that part. And can be trained to start exercising.

<効果>
以上の構成により、解析用データ収集装置は運動制御への寄与が大きい知覚情報が何であるかを客観的に解析可能とするための解析用データを収集することができ、解析装置は解析用データを用いて運動制御への寄与が大きい知覚情報を推定することができ、訓練装置は運動制御への寄与が大きい知覚情報を用いて訓練対象者が当該知覚情報を扱えるようになるよう訓練することができる。
<Effect>
With the above configuration, the analysis data collection device can collect analysis data to enable objective analysis of what perceived information has a large contribution to motor control, and the analysis device can collect analysis data. Can be used to estimate perceptual information that contributes significantly to motor control, and the training device should train the trainee to handle the perceptual information using perceptual information that contributes significantly to motor control. Can be done.

なお、本実施形態では、実環境では再現しえない環境のバーチャル映像を用いることで、解析対象者がどの情報を用いて運動するのかについて、実環境に基づく映像のみを用いる場合に比べ、より強調させる効果をもつ。 In this embodiment, by using a virtual image of an environment that cannot be reproduced in the actual environment, it is possible to determine which information the analysis target person uses to exercise, as compared with the case of using only the image based on the actual environment. It has the effect of emphasizing.

<変形例>
本実施形態では、解析用データ収集装置100と解析装置200と訓練装置300とを別体の異なる装置として説明したが、これらの装置を1つの公知又は専用のコンピュータにより実現してもよい。映像表示部81,91についても同様に1つの映像表示部(例えばヘッドマウントディスプレイ)により実現してもよい。
<Modification example>
In the present embodiment, the analysis data acquisition device 100, the analysis device 200, and the training device 300 have been described as separate devices, but these devices may be realized by one known or dedicated computer. Similarly, the video display units 81 and 91 may be realized by one video display unit (for example, a head-mounted display).

なお、本実施形態では、解析用データ収集装置100の出力値(解析用データの集合)を解析装置200で利用し、解析装置200の出力値(注目視覚情報)を訓練装置300で利用しているが、各装置は他の装置を必ずしも必要とせず、独立して利用することができる。例えば、解析用データ収集装置100の出力値(解析用データの集合)は、必ずしも解析装置200で利用する必要はなく、上述の通り、人手で運動パフォーマンス向上に寄与しうる知覚情報(注目視覚情報)を解析することも可能である。また、解析装置200では、解析用データの集合に対応するデータがあれば、必ずしも解析用データ収集装置100の出力値でなくともよい。例えば、解析用データ収集装置は、「実環境に基づく映像」のみを解析対象者に提示し、その映像を見ながら運動する解析対象者から、運動情報と当該運動の評価を示す運動評価情報を取得し、映像特定情報と対象者の運動情報と運動評価情報反応とを対応付けた解析用データの集合を利用してもよい。また、解析装置200の出力値(注目視覚情報)から訓練装置によらずに訓練時に注意する箇所を提示してもよい。訓練装置300では、解析装置200の出力値を用いずとも、注意すべき部分が分かれば、バーチャル映像中の注意すべき部分を強調する視覚効果を重畳したバーチャル映像を合成すればよい。 In the present embodiment, the output value (set of analysis data) of the analysis data collection device 100 is used by the analysis device 200, and the output value (attention visual information) of the analysis device 200 is used by the training device 300. However, each device does not necessarily require another device and can be used independently. For example, the output value (set of analysis data) of the analysis data collection device 100 does not necessarily have to be used in the analysis device 200, and as described above, perceptual information (attention visual information) that can manually contribute to the improvement of motor performance. ) Can also be analyzed. Further, in the analysis device 200, if there is data corresponding to a set of analysis data, it does not necessarily have to be the output value of the analysis data collection device 100. For example, the analysis data collection device presents only the "image based on the actual environment" to the analysis target person, and the analysis target person who exercises while watching the image provides the exercise information and the exercise evaluation information indicating the evaluation of the exercise. You may use a set of analysis data which is acquired and associates the video specific information with the exercise information of the target person and the exercise evaluation information reaction. Further, from the output value (visual information of interest) of the analysis device 200, a part to be noted at the time of training may be presented regardless of the training device. In the training device 300, even if the output value of the analysis device 200 is not used, if the part to be noted is known, the virtual image in which the visual effect emphasizing the part to be noted in the virtual image is superimposed may be synthesized.

本実施形態では、バーチャル映像を提示された状態で解析対象者が行う運動、及び、訓練対象者に訓練させたい運動が野球のバッティングの例を示したが、本発明が他のスポーツ(ソフトボールやクリケット)のバッティング、さらには、対戦型の球技に適用できることは言うまでもない。さらに、他の運動においても、実環境では再現しえない環境のバーチャル映像を用いることで、解析対象者がどの情報を用いて運動するのかを、実環境に基づく映像のみを用いる場合に比べ、解析しやすくなるため、本発明の解析用データ収集装置、解析装置を適用することができる。他の運動においても、注目視覚情報に対応する動きを含むバーチャル映像中の部分領域を強調する視覚効果を重畳したバーチャル映像を合成を提示することで、訓練対象者を効率的に訓練することができるため、本発明の訓練装置を適用することができる。 In the present embodiment, an example of baseball batting is shown in which the exercise performed by the analysis target person while the virtual image is presented and the exercise to be trained by the training target person are other sports (softball). It goes without saying that it can be applied to batting (or cricket) and even competitive ball games. Furthermore, even in other exercises, by using a virtual image of an environment that cannot be reproduced in the actual environment, it is possible to determine which information the analysis target person uses to exercise, as compared with the case of using only the image based on the actual environment. Since it becomes easy to analyze, the analysis data collecting device and the analysis device of the present invention can be applied. In other exercises as well, it is possible to efficiently train the trainee by presenting a composite of a virtual image that superimposes a visual effect that emphasizes a partial area in the virtual image including the movement corresponding to the visual information of interest. Therefore, the training device of the present invention can be applied.

<その他の変形例>
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
<Other variants>
The present invention is not limited to the above embodiments and modifications. For example, the various processes described above may not only be executed in chronological order according to the description, but may also be executed in parallel or individually as required by the processing capacity of the device that executes the processes. In addition, changes can be made as appropriate without departing from the spirit of the present invention.

<プログラム及び記録媒体>
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
<Programs and recording media>
Further, various processing functions in each device described in the above-described embodiment and modification may be realized by a computer. In that case, the processing content of the function that each device should have is described by the program. Then, by executing this program on the computer, various processing functions in each of the above devices are realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。 The program describing the processing content can be recorded on a computer-readable recording medium. The computer-readable recording medium may be, for example, a magnetic recording device, an optical disk, a photomagnetic recording medium, a semiconductor memory, or the like.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させてもよい。 Further, the distribution of this program is performed, for example, by selling, transferring, renting, or the like a portable recording medium such as a DVD or a CD-ROM in which the program is recorded. Further, the program may be distributed by storing the program in the storage device of the server computer and transferring the program from the server computer to another computer via the network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶部に格納する。そして、処理の実行時、このコンピュータは、自己の記憶部に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実施形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよい。さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。 A computer that executes such a program first temporarily stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage unit. Then, when the process is executed, the computer reads the program stored in its own storage unit and executes the process according to the read program. Further, as another embodiment of this program, a computer may read the program directly from a portable recording medium and execute processing according to the program. Further, each time a program is transferred from the server computer to this computer, processing may be sequentially executed according to the received program. In addition, the above processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition without transferring the program from the server computer to this computer. May be. The program shall include information used for processing by a computer and equivalent to the program (data that is not a direct command to the computer but has a property of defining the processing of the computer, etc.).

また、コンピュータ上で所定のプログラムを実行させることにより、各装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。 Further, although each device is configured by executing a predetermined program on a computer, at least a part of these processing contents may be realized by hardware.

Claims (13)

物体の動きを映像として提示する際に用いる動き情報と、運動の評価の高い運動と低い運動とで差異のある運動情報の種別を表す解析対象運動情報とバーチャル映像中の注目領域および注目時刻を特定する情報である注目視覚情報とを関連付けた情報である注目運動種別情報とを記憶する記憶部と、
記憶部に記憶された注目運動種別情報に基づいて、訓練対象者に訓練させる解析対象運動情報に関連付けられた注目視覚情報を出力する訓練条件設定部と、
前記動き情報を用いて、バーチャル映像内に表示される相手が物理法則に逆らう動きをするバーチャル映像を合成する第二映像合成部とを含み、
前記第二映像合成部は、前記バーチャル映像中の前記注目視覚情報に含まれる注目時刻近傍において、前記注目視覚情報により特定される注目領域を強調する視覚効果を重畳したバーチャル映像を合成する
ことを特徴とする訓練装置。
The motion information used when presenting the motion of an object as an image, the motion information to be analyzed indicating the type of motion information that differs between the motion with high evaluation and the motion with low evaluation, and the attention area and attention time in the virtual image. A storage unit that stores attention movement type information that is information associated with attention visual information that is identification information, and a storage unit that stores attention movement type information.
Based on the target motion classification information stored before term memory unit, a training condition setting unit for outputting an attention visual information associated with the analysis object motion information to be trained trainees,
It includes a second video compositing unit that synthesizes a virtual video in which the opponent displayed in the virtual video moves against the laws of physics using the motion information.
The second video compositing unit synthesizes a virtual image in which a visual effect that emphasizes a region of interest specified by the visual information of interest is superimposed in the vicinity of the time of interest included in the visual information of interest in the virtual image. A featured training device.
物体の動きを映像として提示する際に用いる動き情報と、運動の評価の高い運動と低い運動とで差異のある運動情報の種別を表す解析対象運動情報とバーチャル映像中の注目領域および注目時刻を特定する情報である注目視覚情報とを関連付けた情報である注目運動種別情報とを記憶する記憶部と、
記憶部に記憶された注目運動種別情報に基づいて、訓練対象者に訓練させる解析対象運動情報に関連付けられた注目視覚情報を出力する訓練条件設定部と、
前記動き情報を用いて、相手の身体動作と前記相手の身体動作に伴う物体の動きとが物理法則に照らして整合しないバーチャル映像を合成する第二映像合成部とを含み、
前記第二映像合成部は、前記バーチャル映像中の前記注目視覚情報に含まれる注目時刻近傍において、前記注目視覚情報により特定される注目領域を強調する視覚効果を重畳したバーチャル映像を合成する
ことを特徴とする訓練装置。
The motion information used when presenting the motion of an object as an image, the motion information to be analyzed indicating the type of motion information that differs between the motion with high evaluation and the motion with low evaluation, and the attention area and attention time in the virtual image. A storage unit that stores attention movement type information that is information associated with attention visual information that is identification information, and a storage unit that stores attention movement type information.
Based on the target motion classification information stored before term memory unit, a training condition setting unit for outputting an attention visual information associated with the analysis object motion information to be trained trainees,
It includes a second image synthesizing unit that synthesizes a virtual image in which the body movement of the other party and the movement of the object accompanying the body movement of the other party do not match in light of the laws of physics using the movement information.
The second video compositing unit synthesizes a virtual image in which a visual effect that emphasizes a region of interest specified by the visual information of interest is superimposed in the vicinity of the time of interest included in the visual information of interest in the virtual image. A featured training device.
請求項1記載の訓練装置であって、
バーチャル映像内に表示される相手が物理法則に逆らう動きをするバーチャル映像に含まれる物体の動きを特定する映像特定情報と、前記映像特定情報に基づき、バーチャル映像内に表示される相手が物理法則に逆らう動きをする合成されたバーチャル映像を提示される解析対象者またはその付属物に取り付けたセンサから得られる運動情報と、前記バーチャル映像を提示された状態で前記解析対象者が行う運動の評価を示す運動評価情報とを対応付けたデータの集合を解析用データの集合とし、
前記解析用データの集合中で、運動評価が高いときに対応する前記解析用データ中の解析用データの運動情報と、運動評価が低いときに対応する前記解析用データ中の解析用データの運動情報とで差異のある運動情報に対応するセンサを特定する情報を前記解析対象運動情報とし、
前記運動評価が高いときの解析用データに含まれる前記バーチャル映像において、前記解析対象運動情報に対応する運動情報の変動が大きい時刻である変動時刻近傍で動きのある部分領域を特定する情報を前記注目領域とし、
前記注目視覚情報は、
前記変動時刻を前記注目時刻として前記注目領域と対応付けたものである、
ことを特徴とする訓練装置。
The training device according to claim 1.
The other party displayed in the virtual image moves against the laws of physics The other party displayed in the virtual image is the law of physics based on the image identification information that specifies the movement of the object included in the virtual image and the above-mentioned image identification information. Evaluation of the motion information obtained from the sensor attached to the analysis target person or its accessory, which is presented with a synthesized virtual image that moves against, and the motion performed by the analysis target person while the virtual image is presented. The set of data associated with the exercise evaluation information indicating is used as the set of analysis data.
In the set of analysis data, the motion information of the analysis data in the analysis data corresponding to when the motion evaluation is high and the motion of the analysis data in the analysis data corresponding to when the motion evaluation is low. The information that identifies the sensor corresponding to the motion information that differs from the information is used as the analysis target motion information .
In the virtual image included in the analysis data when the motion evaluation is high, the information for identifying a partial region having motion in the vicinity of the fluctuation time, which is the time when the motion information corresponding to the analysis target motion information fluctuates greatly, is described above. As an area of interest
The attention visual information is
The fluctuation time is associated with the attention area as the attention time.
A training device characterized by that.
請求項2記載の訓練装置であって、
相手の身体動作と前記相手の身体動作に伴う物体の動きとが物理法則に照らして整合し
ないバーチャル映像に含まれる物体の動きを特定する映像特定情報と、前記映像特定情報に基づき、相手の身体動作と前記相手の身体動作に伴う物体の動きとが物理法則に照らして整合しない合成されたバーチャル映像を提示される解析対象者またはその付属物に取り付けたセンサから得られる運動情報と、前記バーチャル映像を提示された状態で前記解析対象者が行う運動の評価を示す運動評価情報とを対応付けたデータの集合を解析用データの集合とし、
前記解析用データの集合中で、運動評価が高いときに対応する前記解析用データ中の解析用データの運動情報と、運動評価が低いときに対応する前記解析用データ中の解析用データの運動情報とで差異のある運動情報に対応するセンサを特定する情報を前記解析対象運動情報とし、
前記運動評価が高いときの解析用データに含まれる前記バーチャル映像において、前記解析対象運動情報に対応する運動情報の変動が大きい時刻である変動時刻近傍で動きのある部分領域を特定する情報を前記注目領域とし、
前記注目視覚情報は、
前記変動時刻を前記注目時刻として前記注目領域と対応付けたものである、
ことを特徴とする訓練装置。
The training device according to claim 2.
The body movements of the other party and the movements of the object accompanying the body movements of the other party do not match in light of the laws of physics. The motion information obtained from the sensor attached to the analysis target person or its accessory, which is presented with a synthesized virtual image in which the motion and the motion of the object accompanying the physical motion of the other party do not match in light of the laws of physics, and the virtual A set of data associated with the movement evaluation information indicating the evaluation of the movement performed by the analysis target person in the state where the image is presented is defined as a set of analysis data.
In the set of analysis data, the motion information of the analysis data in the analysis data corresponding to when the motion evaluation is high and the motion of the analysis data in the analysis data corresponding to when the motion evaluation is low. The information that identifies the sensor corresponding to the motion information that differs from the information is used as the analysis target motion information .
In the virtual image included in the analysis data when the motion evaluation is high, the information for identifying a partial region having motion in the vicinity of the fluctuation time, which is the time when the motion information corresponding to the analysis target motion information fluctuates greatly, is described above. As an area of interest
The attention visual information is
The fluctuation time is associated with the attention area as the attention time.
A training device characterized by that.
請求項1記載の訓練装置であって、
バーチャル映像内に表示される相手が物理法則に逆らう動きをするバーチャル映像に含まれる物体の動きを特定する映像特定情報と、前記映像特定情報に基づき、バーチャル映像内に表示される相手が物理法則に逆らう動きをする合成されたバーチャル映像を提示される解析対象者またはその付属物に取り付けたセンサから得られる運動情報と、前記バーチャル映像を提示された状態で前記解析対象者が行う運動の評価を示す運動評価情報とを対応付けたデータの集合を解析用データの集合を記憶する記憶部と、
前記解析用データの集合中で、運動評価が高いときの解析対象者の運動情報と、運動評価が低いときの解析対象者の運動情報とで差異のある運動情報に対応するセンサを特定する情報を前記解析対象運動情報として得る第一解析部と、
前記運動評価が高いときの解析用データに含まれる前記バーチャル映像において、前記解析対象運動情報に対応する運動情報の変動が大きい時刻である変動時刻近傍で動きのある部分領域を特定する情報を得、前記変動時刻と前記部分領域を特定する情報を前記注目視覚情報として、前記解析対象運動情報と前記注目視覚情報とを対応付けた情報である注目運動種別情報を得る第二解析部と、
をさらに備える訓練装置。
The training device according to claim 1.
The other party displayed in the virtual image moves against the physical law The other party displayed in the virtual image is the physical law based on the video identification information that specifies the movement of the object included in the virtual image and the video identification information. Evaluation of the movement information obtained from the sensor attached to the analysis target person or its accessory, which is presented with a synthesized virtual image that moves against the above, and the movement performed by the analysis target person while the virtual image is presented. A storage unit that stores a set of data for analysis and a storage unit that stores a set of data associated with the exercise evaluation information indicating
Information that identifies a sensor that corresponds to the motion information that differs between the motion information of the analysis target person when the motion evaluation is high and the motion information of the analysis target person when the motion evaluation is low in the set of analysis data. The first analysis unit, which obtains the above-mentioned analysis target motion information,
In the virtual image included in the analysis data when the motion evaluation is high, information for identifying a partial region of motion in the vicinity of the fluctuation time, which is the time when the motion information corresponding to the analysis target motion information fluctuates greatly, is obtained. , information identifying the partial area and the change time as the attention visual information, and a second analysis unit for obtaining an attention motion type information is information that associates with the target visual information and the analysis object motion information,
Training equipment further equipped with.
請求項2記載の訓練装置であって、
相手の身体動作と前記相手の身体動作に伴う物体の動きとが物理法則に照らして整合しないバーチャル映像に含まれる物体の動きを特定する映像特定情報と、前記映像特定情報に基づき、相手の身体動作と前記相手の身体動作に伴う物体の動きとが物理法則に照らして整合しない合成されたバーチャル映像を提示される解析対象者またはその付属物に取り付けたセンサから得られる運動情報と、前記バーチャル映像を提示された状態で前記解析対象者が行う運動の評価を示す運動評価情報とを対応付けたデータの集合を解析用データの集合を記憶する記憶部と、
前記解析用データの集合中で、運動評価が高いときの解析対象者の運動情報と、運動評価が低いときの解析対象者の運動情報とで差異のある運動情報に対応するセンサを特定する情報を前記解析対象運動情報として得る第一解析部と、
前記運動評価が高いときの解析用データに含まれる前記バーチャル映像において、前記解析対象運動情報に対応する運動情報の変動が大きい時刻である変動時刻近傍で動きのある部分領域を特定する情報を得、前記変動時刻と前記部分領域を特定する情報を前記注目視覚情報として、前記解析対象運動情報と前記注目視覚情報とを対応付けた情報である注目運動種別情報を得る第二解析部と、
をさらに備える訓練装置。
The training device according to claim 2.
The body movements of the other party and the movements of the object accompanying the body movements of the other party do not match in light of the laws of physics. The motion information obtained from the sensor attached to the analysis target person or its accessory, which is presented with a synthesized virtual image in which the motion and the motion of the object accompanying the body motion of the other party do not match in light of the laws of physics, and the virtual A storage unit that stores a set of data for analysis that associates a set of data associated with the movement evaluation information indicating the evaluation of the movement performed by the analysis target person in the state where the image is presented, and a storage unit that stores the set of data for analysis.
Information that identifies a sensor that corresponds to the motion information that differs between the motion information of the analysis target person when the motion evaluation is high and the motion information of the analysis target person when the motion evaluation is low in the set of analysis data. The first analysis unit, which obtains the above-mentioned analysis target motion information,
In the virtual image included in the analysis data when the motion evaluation is high, information for identifying a partial region of motion in the vicinity of the fluctuation time, which is the time when the motion information corresponding to the analysis target motion information fluctuates greatly, is obtained. , information identifying the partial area and the change time as the attention visual information, and a second analysis unit for obtaining an attention motion type information is information that associates with the target visual information and the analysis object motion information,
Training equipment further equipped with.
訓練装置が実行する訓練方法であって、
記憶部には、物体の動きを映像として提示する際に用いる動き情報と、運動の評価の高い運動と低い運動とで差異のある運動情報の種別を表す解析対象運動情報とバーチャル映像中の注目領域および注目時刻を特定する情報である注目視覚情報とを関連付けた情報である注目運動種別情報とが記憶されているものとし、
前記訓練装置が、前記記憶部に記憶された注目運動種別情報に基づいて、訓練対象者に訓練させる解析対象運動情報に関連付けられた注目視覚情報を出力する訓練条件設定ステップと、
前記訓練装置が、前記動き情報を用いて、バーチャル映像内に表示される相手が物理法則に逆らう動きをするバーチャル映像を合成する第二映像合成ステップとを含み、
第二映像合成ステップにおいて、前記バーチャル映像中の前記注目視覚情報に含まれる注目時刻近傍において、前記注目視覚情報により特定される注目領域を強調する視覚効果を重畳したバーチャル映像を合成する、
ことを特徴とする訓練方法。
It is a training method performed by the training device.
In the storage unit, the motion information used when presenting the motion of the object as an image, the motion information to be analyzed indicating the type of motion information that differs between the motion with high evaluation and the motion with low evaluation, and the attention in the virtual image. It is assumed that the attention movement type information, which is the information associated with the attention visual information, which is the information for specifying the area and the attention time, is stored.
The training apparatus, on the basis of the stored target movement type information in the storage unit, and the training condition setting step of outputting the target visual information associated with the analysis object motion information to be trained trainees,
The training device includes a second video compositing step of synthesizing a virtual video in which the opponent displayed in the virtual video moves against the laws of physics using the motion information.
In the second video compositing step, a virtual image superimposing a visual effect that emphasizes the attention area specified by the attention visual information is synthesized in the vicinity of the attention time included in the attention visual information in the virtual image.
A training method characterized by that.
訓練装置が実行する訓練方法であって、
記憶部には、物体の動きを映像として提示する際に用いる動き情報と、運動の評価の高い運動と低い運動とで差異のある運動情報の種別を表す解析対象運動情報とバーチャル映像中の注目領域および注目時刻を特定する情報である注目視覚情報とを関連付けた情報である注目運動種別情報とが記憶されているものとし、
前記訓練装置が、前記記憶部に記憶された注目運動種別情報に基づいて、訓練対象者に訓練させる解析対象運動情報に関連付けられた注目視覚情報を出力する訓練条件設定ステップと、
前記訓練装置が、前記動き情報を用いて、相手の身体動作と前記相手の身体動作に伴う物体の動きとが物理法則に照らして整合しないバーチャル映像を合成する第二映像合成ステップとを含み、
第二映像合成ステップにおいて、前記バーチャル映像中の前記注目視覚情報に含まれる注目時刻近傍において、前記注目視覚情報により特定される注目領域を強調する視覚効果を重畳したバーチャル映像を合成する、
ことを特徴とする訓練方法。
It is a training method performed by the training device.
In the storage unit, the motion information used when presenting the motion of the object as an image, the motion information to be analyzed indicating the type of motion information that differs between the motion with high evaluation and the motion with low evaluation, and the attention in the virtual image. It is assumed that the attention movement type information, which is the information associated with the attention visual information, which is the information for specifying the area and the attention time, is stored.
The training apparatus, on the basis of the stored target movement type information in the storage unit, and the training condition setting step of outputting the target visual information associated with the analysis object motion information to be trained trainees,
The training device includes a second image synthesis step of synthesizing a virtual image in which the body movement of the other party and the movement of an object accompanying the body movement of the other party do not match in light of the laws of physics using the movement information.
In the second video compositing step, a virtual image superimposing a visual effect that emphasizes the attention area specified by the attention visual information is synthesized in the vicinity of the attention time included in the attention visual information in the virtual image.
A training method characterized by that.
請求項7記載の訓練方法であって、
バーチャル映像内に表示される相手が物理法則に逆らう動きをするバーチャル映像に含まれる物体の動きを特定する映像特定情報と、前記映像特定情報に基づき、バーチャル映像内に表示される相手が物理法則に逆らう動きをする合成されたバーチャル映像を提示される解析対象者またはその付属物に取り付けたセンサから得られる運動情報と、前記バーチャル映像を提示された状態で前記解析対象者が行う運動の評価を示す運動評価情報とを対応付けたデータの集合を解析用データの集合とし、
前記解析用データの集合中で、運動評価が高いときに対応する前記解析用データ中の解析用データの運動情報と、運動評価が低いときに対応する前記解析用データ中の解析用データの運動情報とで差異のある運動情報に対応するセンサを特定する情報を前記解析対象運動情報とし、
前記運動評価が高いときの解析用データに含まれる前記バーチャル映像において、前記解析対象運動情報に対応する運動情報の変動が大きい時刻である変動時刻近傍で動きのある部分領域を特定する情報を前記注目領域とし、
前記注目視覚情報は、
前記変動時刻を前記注目時刻として前記注目領域と対応付けたものである、
ことを特徴とする訓練方法。
The training method according to claim 7.
The other party displayed in the virtual image moves against the laws of physics The other party displayed in the virtual image is the law of physics based on the image identification information that specifies the movement of the object included in the virtual image and the above-mentioned image identification information. Evaluation of the motion information obtained from the sensor attached to the analysis target person or its accessory, which is presented with a synthesized virtual image that moves against, and the motion performed by the analysis target person while the virtual image is presented. The set of data associated with the exercise evaluation information indicating is used as the set of analysis data.
In the set of analysis data, the motion information of the analysis data in the analysis data corresponding to when the motion evaluation is high and the motion of the analysis data in the analysis data corresponding to when the motion evaluation is low. The information that identifies the sensor corresponding to the motion information that differs from the information is used as the analysis target motion information .
In the virtual image included in the analysis data when the motion evaluation is high, the information for identifying a partial region having motion in the vicinity of the fluctuation time, which is the time when the motion information corresponding to the analysis target motion information fluctuates greatly, is described above. As an area of interest
The attention visual information is
The fluctuation time is associated with the attention area as the attention time.
A training method characterized by that.
請求項8記載の訓練方法であって、
相手の身体動作と前記相手の身体動作に伴う物体の動きとが物理法則に照らして整合し
ないバーチャル映像に含まれる物体の動きを特定する映像特定情報と、前記映像特定情報に基づき、相手の身体動作と前記相手の身体動作に伴う物体の動きとが物理法則に照らして整合しない合成されたバーチャル映像を提示される解析対象者またはその付属物に取り付けたセンサから得られる運動情報と、前記バーチャル映像を提示された状態で前記解析対象者が行う運動の評価を示す運動評価情報とを対応付けたデータの集合を解析用データの集合とし、
前記解析用データの集合中で、運動評価が高いときに対応する前記解析用データ中の解析用データの運動情報と、運動評価が低いときに対応する前記解析用データ中の解析用データの運動情報とで差異のある運動情報に対応するセンサを特定する情報を前記解析対象運動情報とし、
前記運動評価が高いときの解析用データに含まれる前記バーチャル映像において、前記解析対象運動情報に対応する運動情報の変動が大きい時刻である変動時刻近傍で動きのある部分領域を特定する情報を前記注目領域とし、
前記注目視覚情報は、
前記変動時刻を前記注目時刻として前記注目領域と対応付けたものである、
ことを特徴とする訓練方法。
The training method according to claim 8.
The body movements of the other party and the movements of the object accompanying the body movements of the other party do not match in light of the laws of physics. The motion information obtained from the sensor attached to the analysis target person or its accessory, which is presented with a synthesized virtual image in which the motion and the motion of the object accompanying the physical motion of the other party do not match in light of the laws of physics, and the virtual A set of data associated with the movement evaluation information indicating the evaluation of the movement performed by the analysis target person in the state where the image is presented is defined as a set of analysis data.
In the set of analysis data, the motion information of the analysis data in the analysis data corresponding to when the motion evaluation is high and the motion of the analysis data in the analysis data corresponding to when the motion evaluation is low. The information that identifies the sensor corresponding to the motion information that differs from the information is used as the analysis target motion information .
In the virtual image included in the analysis data when the motion evaluation is high, the information for identifying a partial region having motion in the vicinity of the fluctuation time, which is the time when the motion information corresponding to the analysis target motion information fluctuates greatly, is described above. As an area of interest
The attention visual information is
The fluctuation time is associated with the attention area as the attention time.
A training method characterized by that.
請求項7記載の訓練方法であって、
記憶部には、バーチャル映像内に表示される相手が物理法則に逆らう動きをするバーチャル映像に含まれる物体の動きを特定する映像特定情報と、前記映像特定情報に基づき、バーチャル映像内に表示される相手が物理法則に逆らう動きをする合成されたバーチャル映像を提示される解析対象者またはその付属物に取り付けたセンサから得られる運動情報と、前記バーチャル映像を提示された状態で前記解析対象者が行う運動の評価を示す運動評価情報とを対応付けたデータの集合を解析用データの集合が記憶されるものとし、
前記訓練装置が、前記解析用データの集合中で、運動評価が高いときの解析対象者の運動情報と、運動評価が低いときの解析対象者の運動情報とで差異のある運動情報に対応するセンサを特定する情報を前記解析対象運動情報として得る第一解析ステップと、
前記訓練装置が、前記運動評価が高いときの解析用データに含まれる前記バーチャル映像において、前記解析対象運動情報に対応する運動情報の変動が大きい時刻である変動時刻近傍で動きのある部分領域を特定する情報を得、前記変動時刻と前記部分領域を特定する情報を前記注目視覚情報として、前記解析対象運動情報と前記注目視覚情報とを対応付けた情報である注目運動種別情報を得る第二解析ステップと、
をさらに備える訓練方法。
The training method according to claim 7.
In the storage unit, the image identification information that identifies the movement of the object included in the virtual image in which the other party moves against the physical law displayed in the virtual image and the image identification information are displayed in the virtual image based on the image identification information. The analysis target person is presented with a synthesized virtual image in which the other party moves against the laws of physics. It is assumed that the set of data for analysis is stored in the set of data associated with the motion evaluation information indicating the evaluation of the exercise performed by.
The training device corresponds to the movement information in which the movement information of the analysis target person when the movement evaluation is high and the movement information of the analysis target person when the movement evaluation is low in the set of the analysis data are different. The first analysis step of obtaining the information that identifies the sensor as the analysis target motion information, and
In the virtual image included in the analysis data when the exercise evaluation is high , the training device sets a partial region of motion in the vicinity of the fluctuation time, which is the time when the motion information corresponding to the analysis target motion information fluctuates greatly. Second, the information to be specified is obtained, and the information for specifying the fluctuation time and the partial region is used as the attention visual information, and the attention movement type information which is the information in which the analysis target motion information and the attention visual information are associated with each other is obtained. Analysis steps and
Training method to further prepare.
請求項8記載の訓練方法であって、
記憶部には、相手の身体動作と前記相手の身体動作に伴う物体の動きとが物理法則に照らして整合しないバーチャル映像に含まれる物体の動きを特定する映像特定情報と、前記映像特定情報に基づき、相手の身体動作と前記相手の身体動作に伴う物体の動きとが物理法則に照らして整合しない合成されたバーチャル映像を提示される解析対象者またはその付属物に取り付けたセンサから得られる運動情報と、前記バーチャル映像を提示された状態で前記解析対象者が行う運動の評価を示す運動評価情報とを対応付けたデータの集合を解析用データの集合が記憶されるものとし、
前記訓練装置が、前記解析用データの集合中で、運動評価が高いときの解析対象者の運動情報と、運動評価が低いときの解析対象者の運動情報とで差異のある運動情報に対応するセンサを特定する情報を前記解析対象運動情報として得る第一解析ステップと、
前記訓練装置が、前記運動評価が高いときの解析用データに含まれる前記バーチャル映像において、前記解析対象運動情報に対応する運動情報の変動が大きい時刻である変動時刻近傍で動きのある部分領域を特定する情報を得、前記変動時刻と前記部分領域を特定する情報を前記注目視覚情報として、前記解析対象運動情報と前記注目視覚情報とを対応付けた情報である注目運動種別情報を得る第二解析ステップと、
をさらに備える訓練方法。
The training method according to claim 8.
In the storage unit, the image identification information for specifying the movement of the object included in the virtual image in which the body movement of the other party and the movement of the object accompanying the body movement of the other party do not match in light of the physical law, and the image identification information Based on this, the movement obtained from the sensor attached to the person to be analyzed or its accessory is presented with a synthesized virtual image in which the movement of the other party's body and the movement of the object accompanying the other party's body movement do not match in light of the laws of physics. It is assumed that the set of data for analysis is stored as a set of data in which the information is associated with the motion evaluation information indicating the evaluation of the motion performed by the analysis target person while the virtual image is presented.
The training device corresponds to the movement information in which the movement information of the analysis target person when the movement evaluation is high and the movement information of the analysis target person when the movement evaluation is low in the set of the analysis data are different. The first analysis step of obtaining the information that identifies the sensor as the analysis target motion information, and
In the virtual image included in the analysis data when the exercise evaluation is high , the training device sets a partial region of motion in the vicinity of the fluctuation time, which is the time when the motion information corresponding to the analysis target motion information fluctuates greatly. Second, the information to be specified is obtained, and the information for specifying the fluctuation time and the partial region is used as the attention visual information, and the attention movement type information which is the information in which the analysis target motion information and the attention visual information are associated with each other is obtained. Analysis steps and
Training method to further prepare.
請求項1から請求項6の何れかの訓練装置として、コンピュータを機能させるためのプログラム。 A program for operating a computer as the training device according to any one of claims 1 to 6.
JP2020132424A 2017-09-04 2020-08-04 Training equipment, its methods, and programs Active JP6943326B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020132424A JP6943326B2 (en) 2017-09-04 2020-08-04 Training equipment, its methods, and programs

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017169620A JP6754342B2 (en) 2017-09-04 2017-09-04 Analyzer, its method, and program
JP2020132424A JP6943326B2 (en) 2017-09-04 2020-08-04 Training equipment, its methods, and programs

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017169620A Division JP6754342B2 (en) 2017-09-04 2017-09-04 Analyzer, its method, and program

Publications (2)

Publication Number Publication Date
JP2020189122A JP2020189122A (en) 2020-11-26
JP6943326B2 true JP6943326B2 (en) 2021-09-29

Family

ID=73453220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020132424A Active JP6943326B2 (en) 2017-09-04 2020-08-04 Training equipment, its methods, and programs

Country Status (1)

Country Link
JP (1) JP6943326B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004328579A (en) * 2003-04-28 2004-11-18 Kuraray Medical Inc Image recording medium with image recorded for displaying position of visual point
JP2008079917A (en) * 2006-09-28 2008-04-10 Osaka Seikei Gakuen Training system
JP2008093179A (en) * 2006-10-11 2008-04-24 Doctor-K Co Ltd Virtual batting system
JP6467698B2 (en) * 2014-08-28 2019-02-13 学校法人立命館 Baseball batting practice support system
JP6583055B2 (en) * 2016-02-26 2019-10-02 株式会社セガゲームス Virtual sports simulation device

Also Published As

Publication number Publication date
JP2020189122A (en) 2020-11-26

Similar Documents

Publication Publication Date Title
US10821347B2 (en) Virtual reality sports training systems and methods
Bruce et al. But I can’t pass that far! The influence of motor skill on decision making
Petri et al. Training using virtual reality improves response behavior in karate kumite
Wilson Development in video technology for coaching
JP6328081B2 (en) Exercise training system and method
Loffing et al. On-court position influences skilled tennis players’ anticipation of shot outcome
Hancock et al. Gaze behaviors and decision making accuracy of higher-and lower-level ice hockey referees
US11826628B2 (en) Virtual reality sports training systems and methods
US20160365121A1 (en) Game Video Processing Systems and Methods
US8848058B2 (en) Method for analyzing the motion of a person during an activity
Shim et al. Perception of kinematic characteristics of tennis strokes for anticipating stroke type and direction
Murgia et al. Using perceptual home-training to improve anticipation skills of soccer goalkeepers
US20170046967A1 (en) Virtual team sport trainer
EP2953115A1 (en) Swing analysis system
Mann et al. Issues in the measurement of anticipation
US20140287391A1 (en) Method and system for training athletes
Afonso et al. Skill-based differences in visual search behaviours and verbal reports in a representative film-based task in volleyball
Tsai et al. Feasibility study on using ai and vr for decision-making training of basketball players
EP3009173B1 (en) Assisted-training system and method for billiards
JP6754342B2 (en) Analyzer, its method, and program
Mecheri et al. Are visual cue masking and removal techniques equivalent for studying perceptual skills in sport?
JP6943326B2 (en) Training equipment, its methods, and programs
JP6969640B2 (en) Data acquisition device for analysis, its method, and program
Kulpa et al. Displacements in Virtual Reality for sports performance analysis
Uppara et al. Eye tracking in naturalistic badminton play: comparing visual gaze pattern strategy in world-rank and amateur player

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210823

R150 Certificate of patent or registration of utility model

Ref document number: 6943326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150