JP2020175240A - Analysis data collection device, method therefor, program, and data structure - Google Patents

Analysis data collection device, method therefor, program, and data structure Download PDF

Info

Publication number
JP2020175240A
JP2020175240A JP2020132423A JP2020132423A JP2020175240A JP 2020175240 A JP2020175240 A JP 2020175240A JP 2020132423 A JP2020132423 A JP 2020132423A JP 2020132423 A JP2020132423 A JP 2020132423A JP 2020175240 A JP2020175240 A JP 2020175240A
Authority
JP
Japan
Prior art keywords
information
video
analysis
image
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020132423A
Other languages
Japanese (ja)
Other versions
JP6969640B2 (en
Inventor
聡貴 木村
Satoki Kimura
聡貴 木村
牧夫 柏野
Makio Kayano
牧夫 柏野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017169620A external-priority patent/JP6754342B2/en
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2020132423A priority Critical patent/JP6969640B2/en
Publication of JP2020175240A publication Critical patent/JP2020175240A/en
Application granted granted Critical
Publication of JP6969640B2 publication Critical patent/JP6969640B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide an analysis data collection device for making it possible to objectively analyze what perceptual information substantially contributing to exercise control is.SOLUTION: An analysis data collection device includes: a video condition setting unit that as a condition for video, sets video identification information identifying object movement, the video identification information included in video in which an opponent displayed in virtual video performs movement against a physical law; a storage unit that for each of types of object movement, stores movement information to be used in presenting object movement as video; a video synthesis unit that on the basis of the video identification information and using the movement information, synthesizes virtual video presenting an environment incapable of being reproduced in an actual environment; and an analysis data generation unit that takes as analysis data information obtained by associating the video identification information, exercise information obtained from a sensor attached to an analysis target person to which the virtual video is presented or an attachment of the person, and exercise evaluation information showing evaluation of exercise performed by the analysis target person in a state in which the virtual video is presented with one another.SELECTED DRAWING: Figure 2

Description

本発明は、スポーツをしている対象者から運動制御に寄与する知覚情報を解析するためのデータを収集する技術、そのデータを解析するための解析技術、および、運動制御に寄与する知覚情報に基づいて対象者の運動能力を向上させるよう訓練する技術に関する。 The present invention is a technique for collecting data for analyzing perceptual information contributing to motor control from a subject playing sports, an analysis technique for analyzing the data, and perceptual information contributing to motor control. Based on techniques for training the subject to improve their athletic performance.

スポーツの基本動作を適切に取得する上では、行為者が自身の身体動作を客観的に把握することが重要である。 In order to properly acquire the basic movements of sports, it is important for the actor to objectively grasp his / her own physical movements.

特許文献1では、基準となる運動状態に対する行為者の現在の運動状態を出力することで、お手本と比較したときの行為者の身体動作を客観的に把握可能にする技術が開示されている。 Patent Document 1 discloses a technique that makes it possible to objectively grasp the physical movement of an actor when compared with a model by outputting the current exercise state of the actor with respect to the reference exercise state.

特開2016−150119号公報Japanese Unexamined Patent Publication No. 2016-150119

例えば、野球のバッティングの動作を考えた場合、人は、自分に向かってくるボールの軌道や速さだけでなく、ボールを投げる相手の動きなどの様々な知覚情報に基づいて、ボールの到達点や到達時刻を予測して自身の取るべき行動(運動)の内容やタイミングを計画し、運動制御を行っている。実環境においては様々な知覚情報が取得可能であるが、そのうち意味のある知覚情報を迅速かつ的確に処理することが運動制御に重要と考えられる。しかしながら、バッティングのような運動の制御は短時間の間に行われており、ほぼ無意識的に必要な知覚情報を収集し判断が行われている。そのため、自分でも何の情報に基づいて運動を決定しているかを把握することは難しい。また、バッティングの上手い人とそうでない人の間で運動制御に用いる知覚情報にどのような差異があるかを客観的に把握することは難しい。 For example, when considering the batting movement of baseball, a person reaches the destination of the ball based on various perceptual information such as the movement of the opponent who throws the ball as well as the trajectory and speed of the ball coming toward him. It predicts the arrival time and plans the content and timing of the action (exercise) to be taken by oneself, and controls the exercise. Various perceptual information can be acquired in the real environment, but it is considered important for motor control to process meaningful perceptual information quickly and accurately. However, motion control such as batting is performed in a short period of time, and necessary perceptual information is collected almost unconsciously to make a judgment. Therefore, it is difficult for oneself to grasp what information is used to decide the exercise. In addition, it is difficult to objectively grasp the difference in perceptual information used for motor control between a person who is good at batting and a person who is not good at batting.

特許文献1では、動かす筋肉の場所や動かすタイミングを音や映像で提示することで、どの筋肉を、いつ、どのように動かすかについて、お手本と自身の運動との差異を客観的に把握することができ、お手本と揃うように訓練していくことが可能である。しかしながら、こうした目標とする運動をスポーツ実環境で実行するにあたっては、おかれている状況を適切に認識・判断し、適切な目標運動を選択する必要がある。そのためには、どのような情報を知覚して運動制御を行っているのか(つまり、身体動作として表出される前の脳内の処理)について理解する必要があり、また、そうした知覚情報が明らかになれば、運動パフォーマンスを向上させる効果的な訓練にむすびつくと考えられる。 In Patent Document 1, by presenting the location and timing of moving muscles with sound or video, it is possible to objectively grasp the difference between a model and one's own exercise regarding which muscle to move, when and how. It is possible to train to match the model. However, in order to carry out such a target exercise in a real sports environment, it is necessary to appropriately recognize and judge the situation and select an appropriate target exercise. In order to do so, it is necessary to understand what kind of information is perceived to control movement (that is, the processing in the brain before it is expressed as body movement), and such perceived information is clarified. If this happens, it will lead to effective training to improve athletic performance.

本発明では、運動制御への寄与が大きい知覚情報が何であるかを客観的に解析可能とするための解析用データ収集装置を提供することを目的とする。さらに、解析用データを用いて運動制御への寄与が大きい知覚情報を解析する解析装置と、対象者が当該知覚情報を扱えるようになるよう訓練するための訓練装置を提供することを目的とする。 An object of the present invention is to provide an analysis data collecting device for objectively analyzing what perceptual information has a large contribution to motor control. Furthermore, it is an object of the present invention to provide an analysis device that analyzes perceptual information that greatly contributes to motor control using analysis data, and a training device for training a subject to be able to handle the perceptual information. ..

上記の課題を解決するために、本発明の一態様によれば、解析用データ収集装置は、バーチャル映像内に表示される相手が物理法則に逆らう動きをする映像に含まれる、物体の動きを特定する映像特定情報を映像の条件として設定する映像条件設定部と、物体の動きの種類毎に、物体の動きを映像として提示する際に用いる動き情報を記憶する記憶部と、映像特定情報に基づき、動き情報を用いて、実環境では再現しえない環境を提示するバーチャル映像を合成する映像合成部と、映像特定情報と、バーチャル映像を提示される解析対象者またはその付属物に取り付けたセンサから得られる運動情報と、バーチャル映像を提示された状態で解析対象者が行う運動の評価を示す運動評価情報とを対応付けた情報を解析用データとする解析用データ生成部とを含む。 In order to solve the above problems, according to one aspect of the present invention, the analysis data collecting device captures the movement of an object included in an image in which the other party displayed in the virtual image moves against the laws of physics. The video condition setting unit that sets the video specific information to be specified as the video condition, the storage unit that stores the movement information used when presenting the movement of the object as a video for each type of motion of the object, and the video specific information Based on this, it is attached to a video synthesizer that synthesizes a virtual image that presents an environment that cannot be reproduced in the real environment using motion information, video specific information, and the analysis target person or its accessories to which the virtual image is presented. It includes an analysis data generation unit that uses information in which motion information obtained from the sensor and motion evaluation information indicating the evaluation of the motion performed by the analysis target person while the virtual image is presented as analysis data.

上記の課題を解決するために、本発明の他の態様によれば、解析用データ収集装置は、相手の身体動作と前記相手の身体動作に伴う物体の動きとが物理法則に照らして整合しない映像に含まれる、物体の動きを特定する映像特定情報を映像の条件として設定する映像条件設定部と、物体の動きの種類毎に、物体の動きを映像として提示する際に用いる動き情報を記憶する記憶部と、映像特定情報に基づき、動き情報を用いて、実環境では再現しえない環境を提示するバーチャル映像を合成する映像合成部と、映像特定情報と、バーチャル映像を提示される解析対象者またはその付属物に取り付けたセンサから得られる運動情報と、バーチャル映像を提示された状態で解析対象者が行う運動の評価を示す運動評価情報とを対応付けた情報を解析用データとする解析用データ生成部とを含む。 In order to solve the above problem, according to another aspect of the present invention, in the analysis data collecting device, the body movement of the other party and the movement of the object accompanying the body movement of the other party do not match in light of the physical law. The video condition setting unit that sets the video specific information that identifies the movement of the object included in the video as the condition of the video and the motion information used when presenting the movement of the object as a video for each type of movement of the object are stored. A storage unit that synthesizes a virtual image that presents an environment that cannot be reproduced in the real environment using motion information based on the image identification information, an image identification unit, and an analysis that presents the image identification information and the virtual image. The data for analysis is the information obtained by associating the motion information obtained from the sensor attached to the subject or its accessory with the motion evaluation information indicating the evaluation of the motion performed by the analysis subject while the virtual image is presented. Includes a data generation unit for analysis.

上記の課題を解決するために、本発明の他の態様によれば、解析用データ収集方法は、記憶部には、物体の動きの種類毎に、物体の動きを映像として提示する際に用いる動き情報が記憶されているものとし、バーチャル映像内に表示される相手が物理法則に逆らう動きをする映像に含まれる、物体の動きを特定する映像特定情報を映像の条件として設定する映像条件設定ステップと、映像特定情報に基づき、動き情報を用いて、実環境では再現しえない環境を提示するバーチャル映像を合成する映像合成ステップと、映像特定情報と、バーチャル映像を提示される解析対象者またはその付属物に取り付けたセンサから得られる運動情報と、バーチャル映像を提示された状態で解析対象者が行う運動の評価を示す運動評価情報とを対応付けた情報を解析用データとする解析用データ生成ステップとを含む。 In order to solve the above problems, according to another aspect of the present invention, the analysis data collection method is used when the movement of the object is presented as an image in the storage unit for each type of movement of the object. It is assumed that motion information is stored, and video condition setting that sets video specific information that identifies the movement of an object, which is included in the video in which the other party moves against the physical law displayed in the virtual video, as the video condition. A video synthesis step that synthesizes a virtual video that presents an environment that cannot be reproduced in the real environment using motion information based on the steps and video specific information, and the analysis target person who is presented with the video specific information and virtual video. Or, for analysis, the information obtained by associating the motion information obtained from the sensor attached to the accessory with the motion evaluation information indicating the evaluation of the motion performed by the analysis target person while the virtual image is presented is used as the analysis data. Includes data generation steps.

上記の課題を解決するために、本発明の他の態様によれば、解析用データ収集方法は、記憶部には、物体の動きの種類毎に、物体の動きを映像として提示する際に用いる動き情報が記憶されているものとし、相手の身体動作と前記相手の身体動作に伴う物体の動きとが物理法則に照らして整合しない映像に含まれる、物体の動きを特定する映像特定情報を映像の条件として設定する映像条件設定ステップと、映像特定情報に基づき、動き情報を用いて、実環境では再現しえない環境を提示するバーチャル映像を合成する映像合成ステップと、映像特定情報と、バーチャル映像を提示される解析対象者またはその付属物に取り付けたセンサから得られる運動情報と、バーチャル映像を提示された状態で解析対象者が行う運動の評価を示す運動評価情報とを対応付けた情報を解析用データとする解析用データ生成ステップとを含む。 In order to solve the above problems, according to another aspect of the present invention, the analysis data collection method is used when the movement of the object is presented as an image in the storage unit for each type of movement of the object. It is assumed that the motion information is stored, and the image specific information that identifies the movement of the object is included in the image in which the body movement of the other party and the movement of the object accompanying the body movement of the other party do not match in light of the physical law. The video condition setting step to be set as the condition of, the video synthesis step to synthesize the virtual video that presents the environment that cannot be reproduced in the real environment by using the motion information based on the video specific information, the video specific information, and the virtual Information that associates motion information obtained from a sensor attached to the analysis target person or its accessory to which the image is presented with motion evaluation information indicating the evaluation of the motion performed by the analysis target person while the virtual image is presented. Includes an analysis data generation step in which is used as analysis data.

上記の課題を解決するために、本発明の他の態様によれば、データ構造は、バーチャル映像内に表示される相手が物理法則に逆らう動きをする合成されたバーチャル映像を提示される対象者またはその付属物に取り付けたセンサから得られる運動情報と、バーチャル映像を提示された状態で解析対象者が行う運動の評価を示す運動評価情報と、バーチャル映像を特定する映像特定情報と、を対応付けたデータ構造であり、運動評価情報が高いときの運動情報と運動評価が低いときの運動情報とで差異の大きい時刻を注目時刻として特定し、この注目時刻近傍で動きのあるバーチャル映像中の部分領域を特定する処理に用いられる。
上記の課題を解決するために、本発明の他の態様によれば、データ構造は、相手の身体動作と前記相手の身体動作に伴う物体の動きとが物理法則に照らして整合しない合成されたバーチャル映像を提示される対象者またはその付属物に取り付けたセンサから得られる運動情報と、バーチャル映像を提示された状態で解析対象者が行う運動の評価を示す運動評価情報と、バーチャル映像を特定する映像特定情報と、を対応付けたデータ構造であり、運動評価情報が高いときの運動情報と運動評価が低いときの運動情報とで差異の大きい時刻を注目時刻として特定し、この注目時刻近傍で動きのあるバーチャル映像中の部分領域を特定する処理に用いられる。
In order to solve the above problems, according to another aspect of the present invention, the data structure is a subject who is presented with a synthesized virtual image in which the opponent displayed in the virtual image moves against the laws of physics. Or, it corresponds to the motion information obtained from the sensor attached to the accessory, the motion evaluation information indicating the evaluation of the motion performed by the analysis target person while the virtual image is presented, and the image identification information that identifies the virtual image. With the attached data structure, the time when there is a large difference between the motion information when the motion evaluation information is high and the motion information when the motion evaluation is low is specified as the attention time, and in the virtual image with movement near this attention time. It is used in the process of identifying a partial area.
In order to solve the above problems, according to another aspect of the present invention, the data structure is synthesized in which the body movement of the other party and the movement of the object accompanying the body movement of the other party do not match in the light of the physical law. Identify the motion information obtained from the sensor attached to the subject or its accessories to which the virtual image is presented, the motion evaluation information indicating the evaluation of the motion performed by the analysis subject while the virtual image is presented, and the virtual image. It is a data structure that associates the video specific information to be performed, and the time when there is a large difference between the motion information when the motion evaluation information is high and the motion information when the motion evaluation is low is specified as the attention time, and the vicinity of this attention time. It is used in the process of identifying a partial area in a moving virtual image.

本発明の解析用データ収集装置によれば、運動制御への寄与が大きい知覚情報が何であるかを客観的に解析可能とするための解析用データを収集することができる。また、本発明の解析装置によれば、解析用データを用いて、運動制御への寄与が大きい知覚情報を推定することができる。さらに、本発明の訓練装置によれば、運動制御への寄与が大きい知覚情報を用いて、対象者が当該知覚情報を扱えるようになるよう訓練することができる。 According to the analysis data collection device of the present invention, it is possible to collect analysis data for objectively analyzing what perceptual information has a large contribution to motor control. Further, according to the analysis device of the present invention, it is possible to estimate perceptual information that greatly contributes to motion control by using the analysis data. Further, according to the training device of the present invention, it is possible to train the subject so that the subject can handle the perceptual information by using the perceptual information having a large contribution to the motor control.

第一実施形態に係る訓練システムの構成図。The block diagram of the training system which concerns on 1st Embodiment. 第一実施形態に係る解析用データ収集装置の機能ブロック図。The functional block diagram of the data collection apparatus for analysis which concerns on 1st Embodiment. 第一実施形態に係る解析用データ収集装置の処理フローの例を示す図。The figure which shows the example of the processing flow of the analysis data collection apparatus which concerns on 1st Embodiment. 第一実施形態に係る解析装置の機能ブロック図。The functional block diagram of the analysis apparatus which concerns on 1st Embodiment. 第一実施形態に係る解析装置の処理フローの例を示す図。The figure which shows the example of the processing flow of the analysis apparatus which concerns on 1st Embodiment. 第一実施形態に係る訓練装置の機能ブロック図。The functional block diagram of the training apparatus which concerns on 1st Embodiment. 第一実施形態に係る訓練装置の処理フローの例を示す図。The figure which shows the example of the processing flow of the training apparatus which concerns on 1st Embodiment.

以下、本発明の実施形態について、説明する。なお、以下の説明に用いる図面では、同じ機能を持つ構成部や同じ処理を行うステップには同一の符号を記し、重複説明を省略する。以下の説明において、テキスト中で使用する記号「^」等は、本来直前の文字の真上に記載されるべきものであるが、テキスト記法の制限により、当該文字の直後に記載する。式中においてはこれらの記号は本来の位置に記述している。また、ベクトルや行列の各要素単位で行われる処理は、特に断りが無い限り、そのベクトルやその行列の全ての要素に対して適用されるものとする。 Hereinafter, embodiments of the present invention will be described. In the drawings used in the following description, the same reference numerals are given to the components having the same function and the steps for performing the same processing, and duplicate description is omitted. In the following explanation, the symbol "^" etc. used in the text should be written directly above the character immediately before, but due to the limitation of the text notation, it should be written immediately after the character. In the formula, these symbols are described in their original positions. Further, the processing performed for each element of the vector or matrix shall be applied to all the elements of the vector or the matrix unless otherwise specified.

<第一実施形態>
図1は第一実施形態に係る訓練システムの構成図を示す。訓練システムは、解析用データ収集装置100と解析装置200と訓練装置300とを含む。
<First Embodiment>
FIG. 1 shows a configuration diagram of a training system according to the first embodiment. The training system includes an analysis data collection device 100, an analysis device 200, and a training device 300.

解析用データ収集装置100、解析装置200及び訓練装置300のそれぞれは、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。解析用データ収集装置100、解析装置200及び訓練装置300のそれぞれは、例えば、中央演算処理装置の制御のもとで各処理を実行する。解析用データ収集装置100、解析装置200及び訓練装置300のそれぞれに入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。解析用データ収集装置100、解析装置200及び訓練装置300のそれぞれの各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。解析用データ収集装置100、解析装置200及び訓練装置300のそれぞれが備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。 Each of the analysis data collection device 100, the analysis device 200, and the training device 300 is a publicly known or dedicated computer having, for example, a central processing unit (CPU), a main storage device (RAM: Random Access Memory), and the like. It is a special device configured by loading a special program into the memory. Each of the analysis data collection device 100, the analysis device 200, and the training device 300 executes each process under the control of, for example, the central processing unit. The data input to each of the analysis data collection device 100, the analysis device 200, and the training device 300 and the data obtained by each process are stored in the main storage device, for example, and the data stored in the main storage device is necessary. It is read out to the central arithmetic processing device according to the above and used for other processing. At least a part of each processing unit of the analysis data collection device 100, the analysis device 200, and the training device 300 may be configured by hardware such as an integrated circuit. Each storage unit included in each of the analysis data collection device 100, the analysis device 200, and the training device 300 includes, for example, a main storage device such as RAM (Random Access Memory), a hard disk, an optical disk, or a flash memory. It can be configured by an auxiliary storage device composed of semiconductor memory elements or middleware such as a relational database or a key value store.

さらに、訓練システムは、解析用データを収集する際に解析対象者93に映像を表示する映像表示部91、センサ92、訓練する際に訓練対象者83に映像を表示する映像表示部81を含んでもよい。映像表示部81,91は、例えば、ヘッドマウントディスプレイであり、解析対象者93、訓練対象者83に取り付けられる。ヘッドマウントディスプレイは、訓練対象者83、解析対象者93が頭部に装着して映像や音声を視聴するためのデバイスである。ヘッドマウントディスプレイは、例えば、訓練対象者83、解析対象者93が装着したときの視界に対応する範囲にディスプレイが設けられ、両耳に対応する位置にヘッドホンが設けられる。ヘッドマウントディスプレイには、加速度センサや変位センサなどの各種センサが搭載されており、訓練対象者83、解析対象者93が装着したときの頭部の位置および姿勢を認識することが可能である。これにより、ヘッドマウントディスプレイは、訓練対象者83、解析対象者93の視点に合わせた映像を提示することが可能となっている。ただし、映像表示部81,91は、ヘッドマウントディスプレイ以外の表示装置であってもよい。例えば、3Dディスプレイや多面の箱型プロジェクションスクリーン(例えば、CAVE: Cave Automatic Virtual Environment)等であってもよい。この場合、ヘッドマウントディスプレイに搭載されていた加速度センサや変位センサなどの各種センサは必要に応じて別途、訓練対象者83、解析対象者93に取り付ければよい。 Further, the training system includes a video display unit 91 and a sensor 92 that display an image on the analysis target person 93 when collecting analysis data, and a video display unit 81 that displays an image on the training target person 83 when training. It may be. The video display units 81 and 91 are, for example, head-mounted displays, and are attached to the analysis target person 93 and the training target person 83. The head-mounted display is a device for the training target person 83 and the analysis target person 93 to wear on the head and watch video and audio. As for the head-mounted display, for example, the display is provided in a range corresponding to the field of view when the training target person 83 and the analysis target person 93 are worn, and the headphones are provided at positions corresponding to both ears. Various sensors such as an acceleration sensor and a displacement sensor are mounted on the head-mounted display, and it is possible to recognize the position and posture of the head when the training target person 83 and the analysis target person 93 wear the head-mounted display. As a result, the head-mounted display can present images that match the viewpoints of the training target person 83 and the analysis target person 93. However, the video display units 81 and 91 may be display devices other than the head-mounted display. For example, it may be a 3D display, a multi-faceted box-shaped projection screen (for example, CAVE: Cave Automatic Virtual Environment), or the like. In this case, various sensors such as an acceleration sensor and a displacement sensor mounted on the head-mounted display may be separately attached to the training target person 83 and the analysis target person 93 as necessary.

〔解析用データ収集装置100〕
本実施形態の解析用データ収集装置100は、バーチャルリアリティを用いたスポーツシステムを用い、実環境に基づく映像ならびに実環境では再現しえない環境の映像をバーチャルリアリティ映像として解析対象者に提示し、そのバーチャル映像を見ながら運動する解析対象者から、運動情報と当該運動の評価を示す運動評価情報を取得し、提示したバーチャル映像を特定する情報である映像特定情報と対象者の運動情報と運動評価情報反応とを対応付けた解析用データを生成するものである。
[Data collection device for analysis 100]
The analysis data collecting device 100 of the present embodiment uses a sports system using virtual reality, and presents an image based on the actual environment and an image of an environment that cannot be reproduced in the actual environment to the analysis target person as a virtual reality image. Exercise information and exercise evaluation information indicating the evaluation of the exercise are acquired from the analysis target person who exercises while watching the virtual image, and the image specific information which is the information for identifying the presented virtual image, the exercise information and the exercise of the subject person. It generates analysis data associated with the evaluation information reaction.

図2は解析用データ収集装置100の機能ブロック図を、図3はその処理フローの例を示す。 FIG. 2 shows a functional block diagram of the analysis data collection device 100, and FIG. 3 shows an example of its processing flow.

解析用データ収集装置100は、記憶部101、映像条件設定部102、映像合成部103、評価情報取得部106及び解析用データ生成部107を含む。 The analysis data collection device 100 includes a storage unit 101, a video condition setting unit 102, a video synthesis unit 103, an evaluation information acquisition unit 106, and an analysis data generation unit 107.

<記憶部101>
記憶部101には、映像合成部103で映像を合成する際のベースとなる各物体の動き情報(バーチャル映像中の各物体)および周辺環境の映像が予め格納されている。各物体の動き情報は、物体の「動きの種類」毎に当該「動きの種類」に対応付けて格納されているものとする。
<Memory unit 101>
The storage unit 101 stores in advance motion information (each object in the virtual image) of each object and an image of the surrounding environment, which are the bases when the image synthesis unit 103 synthesizes the image. It is assumed that the movement information of each object is stored in association with the "type of movement" for each "type of movement" of the object.

例えば、野球のバッターについて解析用データを取得しようとする場合、バーチャル映像として投手が投球し、ボールが解析対象者(バッター)のほうに向かって飛んでくる映像が映像表示部91に表示されることになる。この場合、記憶部101に記憶される各物体の動き情報は、
(1)投手の動き情報
投手の動き(投球スタイルや球種)毎の投手の投球フォームの映像(例えば、ストレートを投げるオーバーハンドスロー投手の映像、カーブを投げるサイドスロー投手の映像、スライダーを投げるアンダースロー投手の映像、等)
(2)ボールの動き情報
ボールの動き(ボールの軌道)毎のボールの位置情報の系列、つまり、各フレームにおいてボールがどの位置に表示されるかを示す位置情報の系列(例えば、ストレートで飛んでくるボールの位置情報の系列、カーブで飛んでくるボールの位置情報の系列、スライダーで飛んでくるボールの位置情報の系列、等)。
である。なお、位置情報の系列は、ボールが投手の手を離れる時刻を基準として次の時刻(フレーム)でボールがどの位置に表示されるかを示す位置情報を先頭として、以降の時刻のボールの位置情報が時系列に並んだ系列とする。
For example, when trying to acquire analysis data for a baseball batter, an image of a pitcher pitching as a virtual image and a ball flying toward an analysis target person (batter) is displayed on the image display unit 91. It will be. In this case, the motion information of each object stored in the storage unit 101 is
(1) Pitcher movement information An image of the pitcher's pitching form for each pitcher's movement (throwing style and type) (for example, an image of an overhand throw pitcher throwing a straight, an image of a side throw pitcher throwing a curve, and a slider are thrown. Underslow pitcher footage, etc.)
(2) Ball movement information A series of ball position information for each ball movement (ball trajectory), that is, a series of position information indicating where the ball is displayed in each frame (for example, flying straight). Series of position information of the coming ball, series of position information of the ball flying on the curve, series of position information of the ball flying with the slider, etc.).
Is. In addition, the series of position information starts with the position information indicating the position where the ball is displayed at the next time (frame) based on the time when the ball leaves the pitcher's hand, and the position of the ball at a later time. Let the information be arranged in chronological order.

また、(2)の代わりに、ボールの動き(ボールの軌道)毎のボールの映像(ストレートのボールが対象者のほうに向かって飛んでくる映像、カーブのボールが対象者のほうに向かって飛んでくる映像、スライダーのボールが対象者のほうに向かって飛んでくる映像、等)をボールの動き情報として格納してもよい。要は、動き情報は、後述する映像合成部103において、バーチャル映像を生成する際に、物体の動きを示す情報であればよい。 Also, instead of (2), the image of the ball for each movement of the ball (ball trajectory) (the image of a straight ball flying toward the target, and the curved ball toward the target). An image of flying, an image of a slider ball flying toward the target person, etc.) may be stored as ball movement information. In short, the motion information may be any information indicating the motion of the object when the virtual image is generated in the image synthesis unit 103, which will be described later.

<映像条件設定部102>
映像条件設定部102は、映像合成部103で合成するバーチャル映像の条件を設定する(S102)。上述の通り、本実施形態の解析用データ収集装置100は、「実環境では再現しえない環境の映像」を映像表示部91に表示するが、この「実環境では再現しえない環境」として具体的にどのようなものを扱うかを映像の条件(以下、「映像特定情報」ともいう)として設定するものである。換言すると、映像特定情報とは、提示したバーチャル映像がどのような設定で生成されたものであるかを特定するための情報、つまり、提示したバーチャル映像を特定する情報である。映像の条件毎に固有のIDを振っていれば、そのIDでもよいし、映像の条件そのもの(例えば、後述の野球の例では投球フォームとボール動きの組である(ストレート,カーブ)等)でもよい。
<Video condition setting unit 102>
The video condition setting unit 102 sets the conditions for the virtual video to be combined by the video composition unit 103 (S102). As described above, the analysis data collecting device 100 of the present embodiment displays "an image of an environment that cannot be reproduced in an actual environment" on the image display unit 91, but as this "environment that cannot be reproduced in an actual environment". What kind of thing is specifically handled is set as a video condition (hereinafter, also referred to as "video specific information"). In other words, the video specific information is information for specifying what kind of setting the presented virtual video is generated, that is, information for specifying the presented virtual video. As long as a unique ID is assigned to each video condition, that ID may be used, or the video condition itself (for example, in the example of baseball described later, it is a pair of throwing form and ball movement (straight, curve), etc.). Good.

「実環境では再現しえない環境」とは、バーチャル映像内に表示される相手が物理法則に逆らう動きをする映像や、相手の身体動作と相手の身体動作に伴って繰り出されるボール等の物体の動きとが物理法則に照らして整合しない映像である。野球の場合を例に説明すると、以下のような映像である。
(1)投手がストレートのボールを投げるときの投球フォームの映像と、カーブの軌道に沿って対象者に向かってくるボールの映像とを合成した映像(つまり投球フォームと投じられるボール軌道が整合しない映像)。
(2)投手が投げたボールの軌道が途中まではストレートの軌道に沿っているが、その後突然カーブの軌道に沿った動きに切り替わるような映像(つまり、前半のボールの軌道が従う物理法則と、後半のボールの軌道が従う物理法則が異なる映像)。
(3)投手から自身のほうに向かってくるボールが、軌道上の一部区間において消えてしまう映像(つまり、実環境上では消滅するはずがないところで物体が消滅する映像)。
"Environment that cannot be reproduced in the real environment" means an image in which the opponent moves against the laws of physics displayed in the virtual image, or an object such as a ball that is delivered according to the opponent's body movement and the opponent's body movement. It is an image in which the movement of is not consistent with the laws of physics. Taking the case of baseball as an example, the following image is shown.
(1) The image of the pitching form when the pitcher throws a straight ball and the image of the ball approaching the target along the trajectory of the curve are combined (that is, the throwing form and the trajectory of the thrown ball do not match. Video).
(2) An image in which the trajectory of the ball thrown by the pitcher follows a straight trajectory halfway, but then suddenly switches to a movement along a curved trajectory (that is, the physical law that the trajectory of the ball in the first half follows). , Images with different physical laws that the trajectory of the ball in the second half follows).
(3) An image in which a ball coming from a pitcher toward himself disappears in a part of the orbit (that is, an image in which an object disappears where it cannot disappear in the actual environment).

つまり、映像条件設定部102は、映像表示部91でバーチャル映像として表示する映像(実環境では再現しえない環境を提示する映像)中の各物体(人物含む)の動きを特定する映像特定情報を映像の条件として設定し(S102)、映像合成部103に出力する。 That is, the video condition setting unit 102 identifies the movement of each object (including a person) in the video displayed as a virtual video on the video display unit 91 (a video presenting an environment that cannot be reproduced in the real environment). Is set as a video condition (S102) and output to the video compositing unit 103.

上述の野球の(1)の例では、投手とボールの動きについて、(ストレート,カーブ)といった動きを特定する情報の組を映像の条件(映像特定情報)として設定する。 In the above-mentioned example of baseball (1), a set of information for specifying the movement of the pitcher and the ball (straight, curve) is set as a video condition (video specific information).

映像の条件は外部入力により与えられても良いし、各物体について予め用意された複数の動きの中からランダムに1つずつ選んで映像の条件を生成してもよい。例えば、上述の野球の例では、予め投手の動きとしてストレート、カーブ、スライダー等がリストで定められており、ボールの動きとしてストレート、カーブ、スライダー等がリストで定められており、そのなかから1つずつ動きを選択して(カーブ、スライダー)といった動きを特定する情報の組を映像の条件として設定する。 The video condition may be given by an external input, or the video condition may be generated by randomly selecting one from a plurality of movements prepared in advance for each object. For example, in the above-mentioned baseball example, straights, curves, sliders, etc. are defined in advance as pitcher movements, and straights, curves, sliders, etc. are defined as ball movements in a list. Select movements one by one (curve, slider) and set a set of information that identifies the movement as a condition of the image.

記憶部101に記憶される動き情報及び映像特定情報は、解析対象者に提示するバーチャル映像に応じて適宜用意すればよい。例えば、(2)のボールの軌道が物理法則に逆らう動きをするような映像の場合、投手が投げたボールの軌道が途中まではストレート、カーブ、スライダー等の軌道に沿っている動き情報を用意し(予め記憶部101に記憶しておき)、途中からストレート、カーブ、スライダー等の軌道に沿っている動き情報を用意し(予め記憶部101に記憶しておき)、途中までの軌道と途中からの軌道との組合せを設定可能な映像特定情報とする。また、例えば、(3)投手から自身のほうに向かってくるボールが、軌道上の一部区間において消えてしまう映像の場合、軌道上のA地点からB地点まで、B地点からC地点まで、…においてボールが消える動き情報を用意し(予め記憶部101に記憶しておき)、消える区間を特定する情報を設定可能な映像特定情報とする。 The motion information and the video identification information stored in the storage unit 101 may be appropriately prepared according to the virtual video presented to the analysis target person. For example, in the case of an image in which the trajectory of the ball in (2) moves against the laws of physics, the motion information of the ball thrown by the pitcher along the trajectory of a straight, curve, slider, etc. is prepared halfway. (Stored in the storage unit 101 in advance), prepare motion information along the trajectory of straights, curves, sliders, etc. from the middle (stored in the storage unit 101 in advance), and the trajectory and the middle of the process. The combination with the trajectory from is set as the video specific information that can be set. Also, for example, (3) in the case of an image in which the ball coming from the pitcher toward himself disappears in a part of the orbit, from point A to point B on the orbit, from point B to point C, In ..., the movement information on which the ball disappears is prepared (stored in the storage unit 101 in advance), and the information for specifying the disappearing section is set as the video specific information that can be set.

なお、各物体についての動きに加えて、運動環境(雨が降っている/晴れている、暗い/明るい)を特定する情報も映像の条件(映像特定情報)として加えても良い。 In addition to the movement of each object, information for specifying the exercise environment (raining / sunny, dark / bright) may be added as a video condition (video specific information).

なお、実環境では再現しえない環境の映像だけでなく、実環境に基づく映像をバーチャルリアリティ映像として解析対象者に提示するために、物理法則に逆らわない動きをする映像や、相手の身体動作と相手の身体動作に伴って繰り出されるボール等の物体の動きとが物理法則に照らして整合する映像を特定する情報も映像特定情報として加えても良い。例えば、上述の野球の(1)の例では投手とボールの動きについて(ストレート,ストレート)といった動きを特定する情報の組を映像特定情報として設定してもよいし、(2)の例では投手が投げたボールの軌道の途中までの軌道と途中からの軌道について(ストレート,ストレート)といった動きを特定する情報の組を映像特定情報として設定してもよいし、(3)の例では投手から自身のほうに向かってくるボールが消えない動き情報を映像特定情報として設定してもよい。 In addition to the images of the environment that cannot be reproduced in the actual environment, in order to present the images based on the actual environment to the analysis target as virtual reality images, the images that move without violating the laws of physics and the body movements of the other party. Information that identifies an image in which the movement of an object such as a ball that is delivered in accordance with the physical movement of the other party matches with the physical law may also be added as the image identification information. For example, in the above-mentioned example of baseball (1), a set of information specifying the movement such as the movement of the pitcher and the ball (straight, straight) may be set as the video identification information, and in the example of (2), the pitcher. A set of information that specifies the movement, such as the trajectory of the ball thrown by the ball up to the middle of the trajectory and the trajectory from the middle (straight, straight), may be set as the video identification information, or in the example of (3), from the pitcher. The motion information that the ball coming toward itself does not disappear may be set as the image specific information.

<映像合成部103>
映像合成部103は、映像特定情報を入力とし、映像条件設定部102で設定された映像の条件に従って、各物体(人物含む)が動く映像を合成した映像(バーチャル映像)を生成し(S103)、映像表示部91に出力する。映像の条件に運動環境の情報が含まれる場合には、その環境に応じて映像を加工して、映像表示部91に出力する。
<Video synthesis unit 103>
The video compositing unit 103 receives the video specific information as input, and generates a video (virtual video) that synthesizes a video in which each object (including a person) moves according to the video conditions set by the video condition setting unit 102 (S103). , Is output to the video display unit 91. When the video condition includes information on the exercise environment, the video is processed according to the environment and output to the video display unit 91.

上述の野球の例で説明すると、映像合成部103は、映像条件設定部102から出力された映像の条件中の投手の動きに対応する投球フォームの映像と、ボールの動きに対応するボールの映像とを記憶部101から読み出し、これらを合成した映像をバーチャル映像として映像表示部91に出力する。具体的には、例えば、記憶部101から読み出した投球フォームの映像のうち、ボールが手を離れる瞬間に対応するフレームの画像(投球開始フレーム画像)のボールを投げるほうの手の位置(初期位置)にボールの映像を重畳した映像を生成する。次の時刻のフレームの画像は、投球フォームの映像のうち投球開始フレーム画像の次のフレームの画像に、記憶部101から読み出したボールの位置情報の系列中の先頭の位置情報を前フレームのボールの位置に応じて補正した位置にボールの映像を重畳した映像を生成する。同様の処理を以後のフレームについても行うことでバーチャル映像を生成する。 Explaining with the above-mentioned baseball example, the image synthesizing unit 103 has a pitching form image corresponding to the pitcher's movement under the condition of the image output from the image condition setting unit 102 and a ball image corresponding to the ball movement. Is read from the storage unit 101, and the combined video is output to the video display unit 91 as a virtual video. Specifically, for example, in the image of the pitching form read from the storage unit 101, the position of the hand throwing the ball (initial position) of the frame image (throwing start frame image) corresponding to the moment when the ball leaves the hand. ) Is superimposed on the image of the ball to generate an image. The image of the frame at the next time is the image of the frame next to the pitching start frame image in the image of the pitching form, and the first position information in the sequence of the ball position information read from the storage unit 101 is the ball of the previous frame. An image in which the image of the ball is superimposed on the position corrected according to the position of is generated. A virtual image is generated by performing the same processing for subsequent frames.

上述の映像表示部91は、映像合成部103で合成したバーチャル映像を内部のディスプレイに映し、解析対象者93に提示する(S104)。 The above-mentioned image display unit 91 displays the virtual image synthesized by the image composition unit 103 on the internal display and presents it to the analysis target person 93 (S104).

センサ92は、映像表示部91に提示されたバーチャル映像を見ながら運動する解析対象者93の体の所定部位、または/および、解析対象者93が保持する物体(バットやラケット等であり、付属物ともいう)に取り付けられ、センサデータを取得し(S105)、出力する。この取得したセンサデータを運動情報と呼ぶこととする。センサ92としては、加速度センサや変位センサやモーションセンサなどの各種運動情報を検知するためのセンサ、あるいは、心拍・心電・呼吸・筋電・眼の動的な動き等の各種生体情報を取得するセンサ等が考えられる。これらのセンサのうち1つ以上のセンサから取得した1つ以上のセンサデータを運動情報として取得するものとする。 The sensor 92 is a predetermined part of the body of the analysis target person 93 who moves while viewing the virtual image presented on the image display unit 91, or / and an object (bat, racket, or the like) held by the analysis target person 93, which is attached. It is attached to an object), acquires sensor data (S105), and outputs it. This acquired sensor data will be referred to as motion information. As the sensor 92, a sensor for detecting various motion information such as an acceleration sensor, a displacement sensor, and a motion sensor, or various biological information such as heartbeat, electrocardiogram, respiration, myoelectricity, and dynamic eye movement are acquired. Sensors and the like can be considered. It is assumed that one or more sensor data acquired from one or more of these sensors is acquired as motion information.

<評価情報取得部106>
評価情報取得部106は、映像表示部91に提示されたバーチャル映像を見ながら運動する対象者が行った運動(言い換えると、バーチャル映像が提示された状態で解析対象者が行った運動)の評価を示す情報を運動評価情報として取得し(S106)、出力する。
<Evaluation information acquisition unit 106>
The evaluation information acquisition unit 106 evaluates the exercise performed by the subject exercising while viewing the virtual image presented on the image display unit 91 (in other words, the exercise performed by the analysis target person while the virtual image is presented). The information indicating the above is acquired as exercise evaluation information (S106) and output.

「運動評価情報」とは、例えばバッティングが上手くできたか否か(ボールを打ち返すことができたかどうか、ヒットなのか、ホームランなのか、空振りなのか等)やバッティング動作の巧みさ(どのようなタイミングでどのように身体を操作していたか等)、あるいは当該運動時の対象者の生体反応(眼の動きや心拍等)に影響するような運動状態を示す情報(例えば、ビーンボール(頭に向かってくるときの球)を投じられたことを示す情報など)である。当該運動時の対象者の注意状態(注意を向けている程度や範囲)や心理状態などを運動評価情報として付加してもよい。 "Exercise evaluation information" includes, for example, whether or not batting was successful (whether or not the ball was hit back, whether it was a hit, whether it was a home run, whether it was a missed shot, etc.) and the skill of batting movement (what kind of timing). Information indicating the movement state (for example, beanball (toward the head)) that affects the subject's biological reaction (eye movement, heartbeat, etc.) during the exercise, or how the body was manipulated. Information indicating that the ball) was thrown when it came). The attention state (degree and range of attention) and psychological state of the subject during the exercise may be added as exercise evaluation information.

解析対象者93もしくは第三者から外部入力により運動評価情報を入力する構成としても良いし、センサ92で取得した運動情報と映像表示部91で表示した映像の情報とに基づいて評価値を計算し、運動評価情報として用いてもよい。 The motion evaluation information may be input from the analysis target person 93 or a third party by external input, or the evaluation value is calculated based on the motion information acquired by the sensor 92 and the video information displayed by the video display unit 91. However, it may be used as exercise evaluation information.

野球の例では、解析対象者93が振ったバッドの運動情報と映像表示部91で表示したボールの位置の情報とに基づいてバットにボールが当たったか否かの当たり判定を行った結果を運動評価情報としてもよい。例えば、評価情報取得部106は、映像条件設定部102から映像特定情報を受け取り、映像特定情報に基づき記憶部101からボールの動き情報(ボールの位置情報の系列)を取り出す。また、評価情報取得部106は、バットに取り付けられたセンサ92からバットの位置を示す運動情報を受け取る。評価情報取得部106は、ボールの動き情報とバットの位置を示す運動情報とから、バットにボールが当たったか否かの当たり判定を行う。当たった場合には高い評価値を、当たらなかった場合には低い評価値を運動評価情報として設定してもよい。 In the example of baseball, the result of hit determination as to whether or not the ball hits the bat is exercised based on the motion information of the bad swung by the analysis target 93 and the position information of the ball displayed on the video display unit 91. It may be used as evaluation information. For example, the evaluation information acquisition unit 106 receives the video identification information from the video condition setting unit 102, and extracts the ball movement information (series of ball position information) from the storage unit 101 based on the video identification information. Further, the evaluation information acquisition unit 106 receives motion information indicating the position of the bat from the sensor 92 attached to the bat. The evaluation information acquisition unit 106 determines whether or not the ball has hit the bat based on the movement information of the ball and the movement information indicating the position of the bat. If it hits, a high evaluation value may be set, and if it does not hit, a low evaluation value may be set as exercise evaluation information.

<解析用データ生成部107>
解析用データ生成部107は、映像条件設定部102で設定した映像の条件に対応する映像特定情報と、センサ92が出力した運動情報と、評価情報取得部106が出力した運動評価情報とを入力とし、これらの情報を対応付けた情報を解析用データとし、解析装置200に出力する。なお、解析用データ収集装置100は、図示しない記憶部に解析用データを蓄積しておき、解析用データの集合が、後述する解析装置200の記憶部201に格納される。
<Data generation unit for analysis 107>
The analysis data generation unit 107 inputs the image identification information corresponding to the image condition set by the image condition setting unit 102, the motion information output by the sensor 92, and the motion evaluation information output by the evaluation information acquisition unit 106. Then, the information associated with these information is used as analysis data and output to the analysis device 200. The analysis data collection device 100 stores analysis data in a storage unit (not shown), and a set of analysis data is stored in the storage unit 201 of the analysis device 200, which will be described later.

〔解析装置200〕
本実施形態の解析装置200は、上述の解析用データ収集装置100を用いて異なる映像の条件や異なる対象者について取得した解析用データの集合(解析用データ集合)を用いて、運動パフォーマンス向上に寄与しうる知覚情報(映像中のどの動きに注目すべきかを示す情報、以下「注目視覚情報」ともいう)を推定する。
[Analyzer 200]
The analysis device 200 of the present embodiment improves exercise performance by using a set of analysis data (analysis data set) acquired for different video conditions and different subjects using the above-mentioned analysis data collection device 100. Estimate perceptual information that can contribute (information indicating which movement in the image should be focused on, hereinafter also referred to as "focused visual information").

なお、図1では解析用データ収集装置100で取得した解析用データを逐次解析装置200に入力するように見えるが、これに限定されるものではない。予め様々な場所、様々な対象者、異なる日時において解析用データ収集装置100で取得した解析用データを記憶部に格納しておくものとし、記憶部に格納された解析用データの集合を解析装置200が読み出して用いることができるものとする。 In FIG. 1, it seems that the analysis data acquired by the analysis data collection device 100 is input to the sequential analysis device 200, but the present invention is not limited to this. It is assumed that the analysis data acquired by the analysis data collection device 100 at various places, various subjects, and different dates and times is stored in the storage unit in advance, and the set of analysis data stored in the storage unit is stored in the analysis device. It is assumed that 200 can be read and used.

図4は解析装置200の機能ブロック図を、図5はその処理フローの例を示す。 FIG. 4 shows a functional block diagram of the analyzer 200, and FIG. 5 shows an example of its processing flow.

解析装置200は、記憶部201、第一解析部202及び第二解析部203を含む。 The analysis device 200 includes a storage unit 201, a first analysis unit 202, and a second analysis unit 203.

解析装置200は、解析用データ収集装置100で収集した解析用データの集合を受け取り、記憶部201に格納する。 The analysis device 200 receives a set of analysis data collected by the analysis data collection device 100 and stores it in the storage unit 201.

<記憶部201>
記憶部201には、解析用データの集合が格納されているものとする。解析用データの集合は、少なくとも
(1)複数の異なる映像特定情報に対応する映像について、同一の解析対象者から取得した複数の解析用データ
(2)同一の映像特定情報に対応する映像について、複数の異なる解析対象者から取得した複数の解析用データ
の何れかを含むものとする。
<Memory unit 201>
It is assumed that the storage unit 201 stores a set of analysis data. The set of analysis data includes at least (1) multiple analysis data acquired from the same analysis target person for videos corresponding to a plurality of different video specific information, and (2) video corresponding to the same video specific information. It shall include any of a plurality of analysis data obtained from a plurality of different analysis subjects.

<第一解析部202>
第一解析部202は、解析用データの集合を記憶部201から取り出し、解析用データの集合に基づき、運動評価情報と相関性が高い運動情報を推定し(S202)、推定した運動情報の種別を特定する情報を出力する。なお、推定された結果を「解析対象運動情報」と呼ぶこととする。よって、解析対象運動情報は、加速度センサ、変位センサ、モーションセンサの出力値、心拍・心電・呼吸・筋電・眼の動的な動き等の各種生体情報(生体応答)の種別を特定する情報などである。なお、解析対象運動情報は、これらの出力値や各種生体情報(生体応答)を得る際に用いられるセンサの種別を特定する情報とも言える。
<First analysis unit 202>
The first analysis unit 202 extracts a set of analysis data from the storage unit 201, estimates motion information having a high correlation with the motion evaluation information based on the set of analysis data (S202), and types of the estimated motion information. Outputs information that identifies. The estimated result will be referred to as "analysis target motion information". Therefore, the motion information to be analyzed specifies the types of various biological information (biological responses) such as acceleration sensor, displacement sensor, output value of motion sensor, heartbeat, electrocardiogram, respiration, myoelectricity, and dynamic movement of the eye. Information etc. The motion information to be analyzed can be said to be information that specifies the type of sensor used when obtaining these output values and various biological information (biological responses).

具体的には、同一の映像特定情報に対応する映像について、同一または複数の解析対象者から取得した複数の解析用データを解析した場合、運動評価が高いとき(上手くできたとき)と運動評価が低いとき(上手くできなかったとき)とで差異が大きい運動情報のカテゴリ(例えばセンサの種別を特定する情報等)を解析対象運動情報と推定する。例えば、運動評価が高いときと低いときでピーク値を取る時刻が異なる運動情報や、運動情報の時系列パターンが、評価が高いときと低いときで大きく異なるような運動情報のカテゴリ(例えばセンサの種別を特定する情報等)を解析対象運動情報とする。なお、解析対象運動情報は、同じ種類のセンサであっても運動情報を取得する部位(どこにセンサをつけたか)を含めて識別可能な情報であるものとする。 Specifically, when a plurality of analysis data acquired from the same or multiple analysis subjects are analyzed for a video corresponding to the same video specific information, when the motion evaluation is high (when it is successful) and the motion evaluation is performed. The category of motion information (for example, information that identifies the type of sensor) that has a large difference from when is low (when it cannot be done well) is estimated as the analysis target motion information. For example, a category of exercise information (for example, a sensor) in which the time at which the peak value is taken differs greatly depending on whether the evaluation is high or low, or the time-series pattern of the exercise information differs greatly depending on whether the evaluation is high or low. Information that identifies the type, etc.) is used as the exercise information to be analyzed. It should be noted that the motion information to be analyzed is information that can be identified even if the sensors are of the same type, including the part (where the sensor is attached) from which the motion information is acquired.

また、(1)複数の異なる映像特定情報に対応する映像について、同一の解析対象者から取得した複数の解析用データを解析した場合、運動評価が高いときと運動評価が低いときとで差異が大きい運動情報のカテゴリ(例えばセンサの種別を特定する情報等)を解析対象運動情報と推定する。 In addition, (1) when a plurality of analysis data acquired from the same analysis target person are analyzed for videos corresponding to a plurality of different video specific information, there is a difference between when the motion evaluation is high and when the motion evaluation is low. A large category of motion information (for example, information that identifies the type of sensor) is estimated as the motion information to be analyzed.

あるいは、(2)同一の映像特定情報に対応する映像について、複数の異なる解析対象者から取得した複数の解析用データを解析した場合、運動評価が高い対象者(運動パフォーマンスの高い対象者:プロ選手やレギュラー選手等)と運動評価が低い対象者(運動パフォーマンスが高くない対象者:初心者や補欠選手等)とで差異が大きい運動情報のカテゴリ(例えばセンサの種別を特定する情報等)を解析対象運動情報とする。 Alternatively, (2) when a plurality of analysis data acquired from a plurality of different analysis subjects are analyzed for a video corresponding to the same video specific information, a subject with a high exercise evaluation (a subject with a high exercise performance: a professional). Analyzing categories of exercise information (for example, information that identifies the type of sensor) where there is a large difference between subjects with low exercise evaluation (targets with low exercise performance: beginners, substitute athletes, etc.) and those with low exercise evaluation (athletes, regular athletes, etc.) Use as target exercise information.

解析対象運動情報は、1個の運動情報のカテゴリであっても良いし、複数の運動情報のカテゴリの組み合わせであっても良い。 The exercise information to be analyzed may be one exercise information category or a combination of a plurality of exercise information categories.

解析用データが複数個ある場合はこれらの平均を取った解析用データに対して上述の解析を行って解析対象運動情報を求めてもよいし、各解析用データに対して解析対象運動情報を求めた結果の多数決をとり、多いものを優先して最終的な解析対象運動情報としても良い。 When there are a plurality of analysis data, the analysis target motion information may be obtained by performing the above analysis on the analysis data obtained by averaging these data, or the analysis target motion information may be obtained for each analysis data. The majority of the obtained results may be taken, and the most ones may be prioritized as the final analysis target exercise information.

上述の処理によって、解析用データの集合から複数の映像特定情報に対応する複数の解析対象運動情報を取得する。 By the above-mentioned processing, a plurality of analysis target motion information corresponding to a plurality of video specific information is acquired from a set of analysis data.

<第二解析部203>
第二解析部203は、解析対象運動情報と、記憶部201に記憶された解析用データの集合に含まれる映像特定情報を用いて、バーチャル映像に含まれる、解析対象運動情報に対応する運動情報との相関性が高い映像部分領域(バーチャル映像中の動きがある部分領域)を特定する情報を「注目視覚情報」として推定し(S203)、解析対象運動情報と注目視覚情報とを関連付ける情報(注目運動種別情報ともいう)を得、出力する。例えば、注目視覚情報は、解析対象運動情報に対応する運動情報が示す挙動に変動が発生する時刻(以下、「変化時刻」という)と、当該変化時刻近傍で動きのあるバーチャル映像中の部分領域(解析対象運動情報に対応する運動情報との相関が高い映像部分領域)を示す情報とを少なくとも含む。部分領域を示す情報は、フレーム中で動きのある部分領域が特定できる情報、つまりフレーム内での部分領域の位置や大きさを特定する情報である。例えば、部分領域を示す情報は、運動評価が高いときの解析用データに含まれるバーチャル映像において、解析対象運動情報に対応する運動情報の変動が大きい時刻(変動時刻ともいう)の近傍で動きのある部分領域を特定する情報としてもよい。注目視覚情報は、変動時刻を部分領域を示す情報と対応付けたものである。また、注目視覚情報に、バーチャル映像中の部分領域を特定するのに用いた映像情報を特定する映像特定情報を含めてもよい。
<Second analysis unit 203>
The second analysis unit 203 uses the analysis target motion information and the video identification information included in the set of analysis data stored in the storage unit 201, and the motion information corresponding to the analysis target motion information included in the virtual image. Information that identifies a video partial region (a partial region with movement in a virtual video) that has a high correlation with is estimated as "attention visual information" (S203), and information that associates the analysis target motion information with the attention visual information (information (Also called attention movement type information) is obtained and output. For example, the visual information of interest includes the time at which the behavior indicated by the motion information corresponding to the motion information to be analyzed changes (hereinafter referred to as “change time”) and a partial region in the virtual image that moves near the change time. It includes at least information indicating (a video partial region having a high correlation with the motion information corresponding to the motion information to be analyzed). The information indicating the partial area is information that can identify a moving partial area in the frame, that is, information that specifies the position and size of the partial area in the frame. For example, the information indicating the partial region moves in the vicinity of the time when the movement information corresponding to the analysis target movement information fluctuates greatly (also called the fluctuation time) in the virtual image included in the analysis data when the movement evaluation is high. It may be information that identifies a certain subregion. The visual information of interest is the association of the fluctuation time with the information indicating the partial area. In addition, the visual information of interest may include video identification information that identifies the video information used to specify a partial region in the virtual video.

ここで、第二解析部203が用いる解析用データ集合は、第一解析部202で解析対象運動情報を得るのに用いた解析用データ集合と同じものとする。 Here, the analysis data set used by the second analysis unit 203 is the same as the analysis data set used by the first analysis unit 202 to obtain the analysis target motion information.

例えば、第二解析部203は、解析用データ集合中の各解析用データについて、第一解析部202で得た解析対象運動情報に対応する特定のセンサ92から取得した運動情報が示す挙動に変動が発生する時刻近傍に動きがあったバーチャル映像(解析用データ収集装置100の映像表示部91に表示されていた映像)中の部分領域を推定する。これにより、映像中のどの部分の動き(映像中の部分領域)と、どの動作や生体応答の動き(解析対象運動情報に対応する運動情報)とが相関性が高いのかを関係付けることができる。 For example, the second analysis unit 203 changes the behavior of each analysis data in the analysis data set as shown by the motion information acquired from the specific sensor 92 corresponding to the analysis target motion information obtained by the first analysis unit 202. Estimates a partial area in the virtual image (the image displayed on the image display unit 91 of the analysis data acquisition device 100) in which there is movement in the vicinity of the time when This makes it possible to correlate which part of the image moves (partial area in the image) with which movement or movement of the biological response (motion information corresponding to the motion information to be analyzed) has a high correlation. ..

第二解析部203は、例えば、変化時刻と、こうして得た解析対象運動情報に対応する運動情報と相関性の高い(と推定された)バーチャル映像中の部分領域と、当該部分領域を含むバーチャル映像を特定するための映像特定情報とを注目視覚情報としてもよい。この場合、この注目視覚情報と解析対象運動情報とを「解析対象運動情報と注目視覚情報とを関連付ける情報」として出力する。この場合に、注目視覚情報に映像特定情報を含むようにするのは、後述の訓練装置で訓練のために生成するバーチャル映像を特定する情報として必要なためである。 The second analysis unit 203 has, for example, a partial region in the virtual image having a high correlation (presumed) with the change time, the motion information corresponding to the motion information to be analyzed thus obtained, and a virtual including the partial region. The video identification information for specifying the video may be the visual information of interest. In this case, the attention visual information and the analysis target movement information are output as "information relating the analysis target movement information and the attention visual information". In this case, the reason why the visual information of interest includes the video specific information is that it is necessary as the information for specifying the virtual video generated for training by the training device described later.

例えば、以下のような処理で行うことができる。
(1)第一解析部202で得た解析対象運動情報に対応するセンサで取得された解析用データ中の運動情報の系列について、隣接する時刻間でセンサデータの変動が大きい時刻を変化時刻として抽出する。
(2)上記(1)で変化時刻を求めた解析用データが示す映像特定情報について、映像特定情報により特定される映像(前述の映像合成部103から出力されていた映像)中の変化時刻近傍の2つの異なる時刻のフレームの画像を比較し、当該フレーム間で動きがある映像中の部分領域を、当該変化時刻におけるフレームの特徴として算出する。
For example, it can be performed by the following processing.
(1) Regarding the sequence of motion information in the analysis data acquired by the sensor corresponding to the analysis target motion information obtained by the first analysis unit 202, the time when the sensor data fluctuates greatly between adjacent times is set as the change time. Extract.
(2) Regarding the video identification information indicated by the analysis data for which the change time was obtained in (1) above, the vicinity of the change time in the video specified by the video identification information (the video output from the video synthesis unit 103 described above). The images of the two frames at different times are compared, and the partial region in the image in which there is movement between the frames is calculated as the feature of the frame at the change time.

解析対象運動情報が示す運動情報の種別毎に、解析対象データ集合中の各解析用データについて上記(1)(2)を行うと、各運動情報の種別と相関の高い映像の部分領域と変化時刻が抽出できる。解析用データ毎に抽出される部分領域や変化時刻が異なる場合は、解析用データ全体の中で多数決をとり、多いものから所定数の部分領域や変化時刻を選択するようにしても良い。 When the above (1) and (2) are performed for each analysis data in the analysis target data set for each type of exercise information indicated by the analysis target exercise information, the partial region and change of the image having a high correlation with each exercise information type. The time can be extracted. If the subregions and change times extracted for each analysis data are different, a majority vote may be taken in the entire analysis data, and a predetermined number of subregions and change times may be selected from the largest number.

第一解析部202で得られる解析対象運動情報に対応する運動情報は、運動評価が高いとき(または人)と運動評価が低いとき(または人)とで差がある。 The exercise information corresponding to the analysis target exercise information obtained by the first analysis unit 202 differs between when the exercise evaluation is high (or person) and when the exercise evaluation is low (or person).

第二解析部203では、この運動評価が高いか低いかによって差がある動作や生体応答の動きに着目して、当該動作や生体応答が大きくでる時刻の周辺で動きのある映像の部分領域が、脳内で当該動作や生体応答を決定するに際して寄与した映像(視覚)情報であろうと推定するものである。 In the second analysis unit 203, focusing on the movements and the movements of the biological response that differ depending on whether the motion evaluation is high or low, the partial region of the moving image around the time when the movements or the biological response is large is generated. , It is presumed that it is the video (visual) information that contributed to the determination of the movement and the biological response in the brain.

例えば、実環境ではバッティングの精度が高い人が、投球フォームとボールの軌道が一致しない映像に対するバッティングの場合は精度が落ちてしまうとすると、投球フォーム又はボールの軌道の少なくとも一方の知覚情報が運動制御や生体応答に大きく寄与していると考えられる。そこで、本手法により実環境でバッティングした場合の解析用データを運動評価が高いときの解析用データとし、投球フォームとボールの軌道が一致しない映像に対してバッティングした場合の解析用データを運動評価が低いときの解析用データとして解析することで、抽出された注目視覚情報が「投球フォームに動きがある区間(ボールが手を離れる前)」であれば、運動パフォーマンスの高い選手はボールの軌道を見る前に投球フォームからある程度ボールの軌道を予測していると考えられる。特に、投球フォームのどの時点の動きで判断をしているかが注目視覚情報により把握可能となる。同様に、注目視覚情報が「ボールが投手の手を離れて飛んでくる区間」であれば、当該区間のボールの軌道が運動制御(バッティングのタイミングや動き)や生体応答を決定するのに寄与していることが分かる。 For example, if a person with high batting accuracy in a real environment loses accuracy in batting for an image in which the throwing form and the trajectory of the ball do not match, the perceptual information of at least one of the throwing form or the trajectory of the ball moves. It is considered that it greatly contributes to control and biological response. Therefore, the analysis data when batting in the actual environment by this method is used as the analysis data when the motion evaluation is high, and the analysis data when batting is performed on the image in which the throwing form and the trajectory of the ball do not match is the motion evaluation. If the extracted attention visual information is "a section where the throwing form is moving (before the ball leaves the hand)" by analyzing it as analysis data when the value is low, a player with high athletic performance will have the trajectory of the ball. It is thought that the trajectory of the ball is predicted to some extent from the throwing form before looking at. In particular, it is possible to grasp at what point in time the movement of the pitching form the judgment is made by the attention visual information. Similarly, if the visual information of interest is "the section where the ball flies away from the pitcher's hand", the trajectory of the ball in that section contributes to determining motion control (batting timing and movement) and biological response. You can see that it is doing.

あるいは、映像条件設定部102の(3)では、ボールの軌道上の一部区間においてボールの映像を消す例を示したが、このような映像であれば、運動評価が低いときの解析用データに対応する映像でボールを消した区間の情報が運動制御や生体応答に大きく寄与している可能性があると推定できる。 Alternatively, (3) of the image condition setting unit 102 shows an example of erasing the image of the ball in a part section on the trajectory of the ball, but in such an image, the analysis data when the motion evaluation is low. It can be presumed that the information on the section where the ball is erased in the video corresponding to the above may greatly contribute to the movement control and the biological response.

なお、解析用データ収集装置100で取得した解析用データは、本解析装置200による手法に限らず、人手で運動パフォーマンス向上に寄与しうる知覚情報(注目視覚情報)を解析することも利用可能である。 The analysis data acquired by the analysis data collection device 100 is not limited to the method used by the analysis device 200, and it is also possible to manually analyze perceptual information (visual information of interest) that can contribute to the improvement of motor performance. is there.

〔訓練装置300〕
訓練装置300は、注目視覚情報に対応する視覚情報を訓練対象者が取得できるようになるよう訓練するための訓練装置300である。
[Training device 300]
The training device 300 is a training device 300 for training so that the trainee can acquire the visual information corresponding to the visual information of interest.

なお、図1では解析装置200から出力された情報が逐次的に訓練装置300に入力され、訓練装置300が実行されるように見えるが、これに限定されるものではない。一般には、解析装置200又は別の人手による手法等で予め解析対象運動情報と注目視覚情報とを関連付ける情報を得、当該解析対象運動情報と注目視覚情報とを関連付ける情報が記憶部に記憶されているものとし、訓練装置300は、解析用データを取得した場所や取得した対象者、取得した日時とは異なる場所、対象者、日時において、記憶部に格納された解析対象運動情報と注目視覚情報とを関連付ける情報を読み出して実行されるものとする。 In FIG. 1, the information output from the analysis device 200 is sequentially input to the training device 300, and it seems that the training device 300 is executed, but the present invention is not limited to this. In general, information that associates the analysis target motion information with the attention visual information is obtained in advance by the analyzer 200 or another manual method, and the information that associates the analysis target motion information with the attention visual information is stored in the storage unit. In the training device 300, the analysis target exercise information and the attention visual information stored in the storage unit are stored in the storage unit at the place where the analysis data is acquired, the acquired target person, the place different from the acquired date and time, the target person, and the date and time. It is assumed that the information associated with is read and executed.

図6は訓練装置300の機能ブロック図を、図7はその処理フローの例を示す。 FIG. 6 shows a functional block diagram of the training device 300, and FIG. 7 shows an example of its processing flow.

訓練装置300は、記憶部301、訓練条件設定部302及び第二映像合成部303を含む。 The training device 300 includes a storage unit 301, a training condition setting unit 302, and a second video composition unit 303.

<記憶部301>
記憶部301には、第二映像合成部303で映像を合成する際のベースとなる各物体の動き情報(バーチャル映像中の各物体)および周辺環境の映像が予め格納されている。各物体の動き情報は、物体の「動きの種類」毎に当該「動きの種類」に対応付けて格納されているものとする。動き情報は、物体の動きを映像として提示する際に用いる情報である。基本的には解析用データ収集装置の記憶部101に格納されているものと同じである。
<Memory unit 301>
The storage unit 301 stores in advance motion information (each object in the virtual image) of each object and an image of the surrounding environment, which are the bases when the image is synthesized by the second image synthesis unit 303. It is assumed that the movement information of each object is stored in association with the "type of movement" for each "type of movement" of the object. The motion information is information used when presenting the motion of an object as an image. Basically, it is the same as that stored in the storage unit 101 of the analysis data collection device.

また、記憶部301には、解析対象運動情報と注目視覚情報とを関連付ける情報が格納されているものとする。これは、前述の解析装置200や別の人手による手法等で得られた、解析対象運動情報(センサの種別)と当該解析対象運動情報の変動と相関の高い視覚情報である注目視覚情報とを関連付ける情報である。解析対象運動情報は、運動の評価の高い運動と低い運動とで差異のある運動情報の種別を表す情報であり、変化運動種別情報ともいう。 Further, it is assumed that the storage unit 301 stores information relating the motion information to be analyzed and the visual information of interest. This is the analysis target motion information (type of sensor) obtained by the above-mentioned analysis device 200 or another manual method, and the attention visual information which is the visual information highly correlated with the fluctuation of the analysis target motion information. Information to be associated. The exercise information to be analyzed is information representing the types of exercise information that differ between exercises with high evaluation and exercises with low evaluation, and is also called change exercise type information.

<訓練条件設定部302>
訓練条件設定部302は、訓練対象者に訓練させたい解析対象運動情報を訓練対象運動情報として設定し(S302)、記憶部301に記憶された解析対象運動情報と注目視覚情報とを関連付ける情報に基づいて、設定された訓練対象運動情報に対応する解析対象運動情報に関連づけられた注目視覚情報を出力する。例えば、上述の解析装置200(もしくは人手による解析等)の第一解析部202で訓練対象者について得た解析用データと、訓練対象者よりも運動パフォーマンスの高い人について得た解析用データとの間で差異の大きい解析対象運動を得、これを訓練対象運動情報として設定する。複数の解析対象運動情報が抽出された場合は、その中から訓練させたいものを1つ選んで設定してもよい。
<Training condition setting unit 302>
The training condition setting unit 302 sets the analysis target exercise information to be trained by the training target person as the training target exercise information (S302), and sets the analysis target exercise information stored in the storage unit 301 as information for associating the attention visual information. Based on this, the attention visual information associated with the analysis target exercise information corresponding to the set training target exercise information is output. For example, the analysis data obtained for the trainee by the first analysis unit 202 of the above-mentioned analysis device 200 (or manual analysis, etc.) and the analysis data obtained for the person with higher exercise performance than the trainee. The analysis target exercise with a large difference is obtained, and this is set as the training target exercise information. When a plurality of analysis target exercise information is extracted, one of them to be trained may be selected and set.

あるいは、上述の解析装置200(もしくは人手による解析等)の第一解析部202で、訓練対象者の運動評価が高いときに取得された解析用データと、訓練対象者の運動評価が低いときに取得された解析用データとの間で差異の大きい解析対象運動を得、これを訓練対象運動情報として設定してもよい。 Alternatively, when the analysis data acquired by the first analysis unit 202 of the above-mentioned analysis device 200 (or manual analysis or the like) when the exercise evaluation of the trainee is high and when the exercise evaluation of the trainee is low. An analysis target exercise having a large difference from the acquired analysis data may be obtained and set as training target exercise information.

解析装置200によらず、指導者等が特に動きを強化させたい体の部位又は付属物の動き等を把握していれば、当該体の部位又は付属物の動きを計測するセンサを特定する情報を訓練対象運動情報として設定しても良い。 Information that identifies a sensor that measures the movement of the body part or accessory if the instructor or the like grasps the movement of the body part or accessory that the instructor or the like particularly wants to enhance the movement regardless of the analysis device 200. May be set as training target exercise information.

<第二映像合成部303>
第二映像合成部303は、訓練条件設定部302から注目視覚情報を受け取り、注目視覚情報を用いて、訓練用のバーチャル映像を合成する。訓練用のバーチャル映像は、実環境では再現しえない環境を提示するバーチャル映像であり、注目視覚情報が示すバーチャル映像中の部分領域が強調された映像である。
<Second video compositing unit 303>
The second video synthesizing unit 303 receives the attention visual information from the training condition setting unit 302, and synthesizes the virtual image for training by using the attention visual information. The virtual image for training is a virtual image that presents an environment that cannot be reproduced in a real environment, and is an image in which a partial area in the virtual image indicated by the visual information of interest is emphasized.

例えば、第二映像合成部303は、解析用データ収集装置100の映像合成部103と同様の方法でバーチャル映像を合成する。このとき、訓練条件設定部302から受け取った注目視覚情報に含まれる変化時刻の近傍の時刻フレームでは、注目視覚情報が示すバーチャル映像中の部分領域を強調する視覚効果を重畳したバーチャル映像を合成し(S303)、映像表示部81に出力する。 For example, the second video synthesizing unit 303 synthesizes a virtual image in the same manner as the video synthesizing unit 103 of the analysis data collecting device 100. At this time, in the time frame near the change time included in the attention visual information received from the training condition setting unit 302, a virtual image superimposing a visual effect that emphasizes a partial area in the virtual image indicated by the attention visual information is synthesized. (S303), output to the image display unit 81.

なお、解析用データ収集装置100の映像合成部103は、映像合成の条件が映像条件設定部102で与えられるが、第二映像合成部303ではランダムに映像条件を設定し、設定した条件で解析用データ収集装置100の映像合成部103と同様の方法でバーチャル映像を合成できるものとする。ランダムに合成されたバーチャル映像の中で、変化時刻近傍において注目視覚情報が示す部分領域に注意を向けるように訓練をするのである。なお、注目視覚情報に映像特定情報を含めておき、第二映像合成部303では当該映像特定情報に対応する映像条件でバーチャル映像を合成してもよい。 In the video composition unit 103 of the analysis data collection device 100, the video composition conditions are given by the video condition setting unit 102, but the second video composition unit 303 randomly sets the video conditions and analyzes under the set conditions. It is assumed that the virtual video can be synthesized by the same method as the video compositing unit 103 of the data collecting device 100. In the randomly synthesized virtual image, training is performed to pay attention to the partial area indicated by the visual information of interest in the vicinity of the change time. It should be noted that the video specific information may be included in the visual information of interest, and the second video compositing unit 303 may synthesize the virtual video under the video conditions corresponding to the video specific information.

訓練条件設定部302で設定した注目視覚情報が示すバーチャル映像中の部分領域を強調する視覚効果を重畳した映像とは、例えばバーチャル映像中で当該部分領域を目立つように囲む視覚効果を付与したり、バーチャル映像中で当該部分領域以外の領域の映像をぼかしたり、情報を削減した映像である。また、一定の視覚効果を付与するだけでなく、基準となる映像から上記のような映像に向けて、訓練の進捗に合わせて徐々に変化させても良い。 The image in which the visual effect that emphasizes the partial area in the virtual image indicated by the attention visual information set by the training condition setting unit 302 is superimposed is, for example, a visual effect that conspicuously surrounds the partial area in the virtual image. , This is an image in which the image in the area other than the relevant partial area is blurred or the information is reduced in the virtual image. In addition to imparting a certain visual effect, the reference image may be gradually changed according to the progress of the training from the reference image to the above image.

上述の映像表示部81は、第二映像合成部303で合成したバーチャル映像を内部のディスプレイに映し、訓練対象者83に提示する(S304)。 The above-mentioned image display unit 81 displays the virtual image synthesized by the second image compositing unit 303 on the internal display and presents it to the trainee 83 (S304).

訓練対象者83は、映像表示部81で表示された映像を見ながら運動を行う。これにより、運動パフォーマンスの高い人がいつ、どのような領域を視認し運動制御を行っているかがバーチャル映像中で強調表示されるので、訓練対象者83はその部分に着目して視覚情報を取得し、運動を開始するように訓練することができる。 The trainee 83 exercises while watching the image displayed on the image display unit 81. As a result, when and what kind of area a person with high exercise performance is visually recognizing and performing exercise control is highlighted in the virtual image, and the trainee 83 acquires visual information by focusing on that part. And can be trained to start exercising.

<効果>
以上の構成により、解析用データ収集装置は運動制御への寄与が大きい知覚情報が何であるかを客観的に解析可能とするための解析用データを収集することができ、解析装置は解析用データを用いて運動制御への寄与が大きい知覚情報を推定することができ、訓練装置は運動制御への寄与が大きい知覚情報を用いて訓練対象者が当該知覚情報を扱えるようになるよう訓練することができる。
<Effect>
With the above configuration, the analysis data collection device can collect analysis data to enable objective analysis of what perceived information has a large contribution to motor control, and the analysis device can collect analysis data. Can be used to estimate perceptual information that contributes significantly to motor control, and the training device should train the trainee to handle the perceptual information using perceptual information that contributes significantly to motor control. Can be done.

なお、本実施形態では、実環境では再現しえない環境のバーチャル映像を用いることで、解析対象者がどの情報を用いて運動するのかについて、実環境に基づく映像のみを用いる場合に比べ、より強調させる効果をもつ。 In this embodiment, by using a virtual image of an environment that cannot be reproduced in the actual environment, it is possible to determine which information the analysis target person uses to exercise, as compared with the case of using only the image based on the actual environment. It has the effect of emphasizing.

<変形例>
本実施形態では、解析用データ収集装置100と解析装置200と訓練装置300とを別体の異なる装置として説明したが、これらの装置を1つの公知又は専用のコンピュータにより実現してもよい。映像表示部81,91についても同様に1つの映像表示部(例えばヘッドマウントディスプレイ)により実現してもよい。
<Modification example>
In the present embodiment, the analysis data collection device 100, the analysis device 200, and the training device 300 have been described as separate devices, but these devices may be realized by one known or dedicated computer. Similarly, the video display units 81 and 91 may be realized by one video display unit (for example, a head-mounted display).

なお、本実施形態では、解析用データ収集装置100の出力値(解析用データの集合)を解析装置200で利用し、解析装置200の出力値(注目視覚情報)を訓練装置300で利用しているが、各装置は他の装置を必ずしも必要とせず、独立して利用することができる。例えば、解析用データ収集装置100の出力値(解析用データの集合)は、必ずしも解析装置200で利用する必要はなく、上述の通り、人手で運動パフォーマンス向上に寄与しうる知覚情報(注目視覚情報)を解析することも可能である。また、解析装置200では、解析用データの集合に対応するデータがあれば、必ずしも解析用データ収集装置100の出力値でなくともよい。例えば、解析用データ収集装置は、「実環境に基づく映像」のみを解析対象者に提示し、その映像を見ながら運動する解析対象者から、運動情報と当該運動の評価を示す運動評価情報を取得し、映像特定情報と対象者の運動情報と運動評価情報反応とを対応付けた解析用データの集合を利用してもよい。また、解析装置200の出力値(注目視覚情報)から訓練装置によらずに訓練時に注意する箇所を提示してもよい。訓練装置300では、解析装置200の出力値を用いずとも、注意すべき部分が分かれば、バーチャル映像中の注意すべき部分を強調する視覚効果を重畳したバーチャル映像を合成すればよい。 In the present embodiment, the output value (set of analysis data) of the analysis data collection device 100 is used by the analysis device 200, and the output value (attention visual information) of the analysis device 200 is used by the training device 300. However, each device does not necessarily require another device and can be used independently. For example, the output value (set of analysis data) of the analysis data collection device 100 does not necessarily have to be used in the analysis device 200, and as described above, perceptual information (attention visual information) that can manually contribute to the improvement of exercise performance. ) Can also be analyzed. Further, in the analysis device 200, if there is data corresponding to a set of analysis data, it does not necessarily have to be the output value of the analysis data collection device 100. For example, the analysis data collecting device presents only the "image based on the actual environment" to the analysis target person, and the analysis target person who exercises while watching the image provides the exercise information and the exercise evaluation information indicating the evaluation of the exercise. You may use a set of analysis data which is acquired and associates the video specific information with the exercise information of the subject and the exercise evaluation information reaction. Further, from the output value (visual information of interest) of the analysis device 200, a part to be noted during training may be presented regardless of the training device. In the training device 300, even if the output value of the analysis device 200 is not used, if the part to be noted is known, the virtual image in which the visual effect emphasizing the part to be noted in the virtual image is superimposed may be synthesized.

本実施形態では、バーチャル映像を提示された状態で解析対象者が行う運動、及び、訓練対象者に訓練させたい運動が野球のバッティングの例を示したが、本発明が他のスポーツ(ソフトボールやクリケット)のバッティング、さらには、対戦型の球技に適用できることは言うまでもない。さらに、他の運動においても、実環境では再現しえない環境のバーチャル映像を用いることで、解析対象者がどの情報を用いて運動するのかを、実環境に基づく映像のみを用いる場合に比べ、解析しやすくなるため、本発明の解析用データ収集装置、解析装置を適用することができる。他の運動においても、注目視覚情報に対応する動きを含むバーチャル映像中の部分領域を強調する視覚効果を重畳したバーチャル映像を合成を提示することで、訓練対象者を効率的に訓練することができるため、本発明の訓練装置を適用することができる。 In the present embodiment, an example of baseball batting is shown in which the exercise performed by the analysis target person while the virtual image is presented and the exercise to be trained by the training target person are other sports (softball). It goes without saying that it can be applied to batting (and cricket), and even to competitive ball games. Furthermore, even in other exercises, by using a virtual image of an environment that cannot be reproduced in the actual environment, it is possible to determine which information the analysis target person uses to exercise, as compared with the case of using only the image based on the actual environment. Since it becomes easy to analyze, the analysis data collecting device and the analysis device of the present invention can be applied. In other exercises as well, it is possible to efficiently train the trainee by presenting a composite of a virtual image in which a visual effect that emphasizes a partial area in the virtual image including the movement corresponding to the visual information of interest is superimposed. Therefore, the training device of the present invention can be applied.

<その他の変形例>
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
<Other variants>
The present invention is not limited to the above embodiments and modifications. For example, the various processes described above may not only be executed in chronological order according to the description, but may also be executed in parallel or individually as required by the processing capacity of the device that executes the processes. In addition, changes can be made as appropriate without departing from the spirit of the present invention.

<プログラム及び記録媒体>
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
<Programs and recording media>
In addition, various processing functions in each device described in the above-described embodiment and modification may be realized by a computer. In that case, the processing content of the function that each device should have is described by the program. Then, by executing this program on the computer, various processing functions in each of the above devices are realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。 The program describing the processing content can be recorded on a computer-readable recording medium. The computer-readable recording medium may be, for example, a magnetic recording device, an optical disk, a photomagnetic recording medium, a semiconductor memory, or the like.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させてもよい。 Further, the distribution of this program is performed, for example, by selling, transferring, renting, or the like a portable recording medium such as a DVD or a CD-ROM in which the program is recorded. Further, the program may be distributed by storing the program in the storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶部に格納する。そして、処理の実行時、このコンピュータは、自己の記憶部に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実施形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよい。さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。 A computer that executes such a program first, for example, first stores a program recorded on a portable recording medium or a program transferred from a server computer in its own storage unit. Then, when the process is executed, the computer reads the program stored in its own storage unit and executes the process according to the read program. Further, as another embodiment of this program, a computer may read the program directly from a portable recording medium and execute processing according to the program. Further, every time the program is transferred from the server computer to this computer, the processing according to the received program may be executed sequentially. Further, the above-mentioned processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and the result acquisition without transferring the program from the server computer to this computer. May be. In addition, the program shall include information used for processing by a computer and equivalent to the program (data that is not a direct command to the computer but has a property of defining the processing of the computer, etc.).

また、コンピュータ上で所定のプログラムを実行させることにより、各装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。 Further, although each device is configured by executing a predetermined program on a computer, at least a part of these processing contents may be realized by hardware.

Claims (11)

バーチャル映像内に表示される相手が物理法則に逆らう動きをする映像に含まれる、物体の動きを特定する映像特定情報を映像の条件として設定する映像条件設定部と、
物体の動きの種類毎に、物体の動きを映像として提示する際に用いる動き情報を記憶する記憶部と、
前記映像特定情報に基づき、前記動き情報を用いて、実環境では再現しえない環境を提示するバーチャル映像を合成する映像合成部と、
前記映像特定情報と、前記バーチャル映像を提示される解析対象者またはその付属物に取り付けたセンサから得られる運動情報と、前記バーチャル映像が提示された状態で前記解析対象者が行う運動の評価を示す運動評価情報とを対応付けた情報を解析用データとする解析用データ生成部とを含む、
解析用データ収集装置。
An image condition setting unit that sets image specific information that identifies the movement of an object, which is included in an image in which the other party moves against the laws of physics displayed in the virtual image, as an image condition.
A storage unit that stores motion information used when presenting the motion of an object as an image for each type of motion of the object.
A video synthesizer that synthesizes a virtual video that presents an environment that cannot be reproduced in a real environment using the motion information based on the video specific information.
The image specific information, the motion information obtained from the analysis target person presented with the virtual image or the sensor attached to the accessory thereof, and the evaluation of the motion performed by the analysis target person with the virtual image presented. Includes an analysis data generation unit that uses information associated with the indicated exercise evaluation information as analysis data.
Data collection device for analysis.
相手の身体動作と前記相手の身体動作に伴う物体の動きとが物理法則に照らして整合しない映像に含まれる、物体の動きを特定する映像特定情報を映像の条件として設定する映像条件設定部と、
物体の動きの種類毎に、物体の動きを映像として提示する際に用いる動き情報を記憶する記憶部と、
前記映像特定情報に基づき、前記動き情報を用いて、実環境では再現しえない環境を提示するバーチャル映像を合成する映像合成部と、
前記映像特定情報と、前記バーチャル映像を提示される解析対象者またはその付属物に取り付けたセンサから得られる運動情報と、前記バーチャル映像が提示された状態で前記解析対象者が行う運動の評価を示す運動評価情報とを対応付けた情報を解析用データとする解析用データ生成部とを含む、
解析用データ収集装置。
A video condition setting unit that sets video specific information that identifies the movement of an object, which is included in the video in which the body movement of the other party and the movement of the object accompanying the body movement of the other party do not match in light of the laws of physics. ,
A storage unit that stores motion information used when presenting the motion of an object as an image for each type of motion of the object.
A video synthesizer that synthesizes a virtual video that presents an environment that cannot be reproduced in a real environment using the motion information based on the video specific information.
The image specific information, the motion information obtained from the analysis target person presented with the virtual image or the sensor attached to the accessory thereof, and the evaluation of the motion performed by the analysis target person with the virtual image presented. Includes an analysis data generation unit that uses information associated with the indicated exercise evaluation information as analysis data.
Data collection device for analysis.
請求項2の解析用データ収集装置であって、
前記身体動作と相手の身体動作に伴う物体の動きとが物理法則に照らして整合しない映像は、
前記相手の身体動作は投げるフォームの映像であり、
前記物体の動きは前記相手の身体動作に伴って繰り出される物体の動きの軌道である、
解析用データ収集装置。
The analysis data collection device according to claim 2.
An image in which the body movement and the movement of an object accompanying the body movement of the other party do not match in light of the laws of physics is
The opponent's physical movement is an image of a throwing form,
The movement of the object is a trajectory of the movement of the object that is delivered in accordance with the body movement of the other party.
Data collection device for analysis.
請求項1の解析用データ収集装置であって、
前記バーチャル映像内に表示される相手が物理法則に逆らう動きをする映像は、
投げた物体の軌道が途中で切り替わるような映像である、
解析用データ収集装置。
The analysis data collecting device according to claim 1.
The image displayed in the virtual image in which the other party moves against the laws of physics is
It is an image that the trajectory of the thrown object changes in the middle,
Data collection device for analysis.
請求項1から請求項4の何れかの解析用データ収集装置であって、
前記解析対象者が行う運動は対戦型の球技であり、前記バーチャル映像には対戦相手と球技で使われる球とが含まれる、
解析用データ収集装置。
A data collection device for analysis according to any one of claims 1 to 4.
The exercise performed by the analysis target person is a battle-type ball game, and the virtual image includes an opponent and a ball used in the ball game.
Data collection device for analysis.
請求項1から請求項5の何れかの解析用データ収集装置であって、
前記解析対象者が行う運動は、バッティングである、
解析用データ収集装置。
A data collection device for analysis according to any one of claims 1 to 5.
The exercise performed by the analysis subject is batting.
Data collection device for analysis.
記憶部には、物体の動きの種類毎に、物体の動きを映像として提示する際に用いる動き情報が記憶されているものとし、
バーチャル映像内に表示される相手が物理法則に逆らう動きをする映像に含まれる、物体の動きを特定する映像特定情報を映像の条件として設定する映像条件設定ステップと、
前記映像特定情報に基づき、前記動き情報を用いて、実環境では再現しえない環境を提示するバーチャル映像を合成する映像合成ステップと、
前記映像特定情報と、前記バーチャル映像を提示される解析対象者またはその付属物に取り付けたセンサから得られる運動情報と、前記バーチャル映像が提示された状態で前記解析対象者が行う運動の評価を示す運動評価情報とを対応付けた情報を解析用データとする解析用データ生成ステップとを含む、
解析用データ収集方法。
It is assumed that the storage unit stores motion information used when presenting the motion of the object as an image for each type of motion of the object.
A video condition setting step that sets video specific information that identifies the movement of an object as a video condition, which is included in the video in which the other party moves against the laws of physics displayed in the virtual video.
A video synthesis step of synthesizing a virtual video that presents an environment that cannot be reproduced in a real environment by using the motion information based on the video specific information.
The image specific information, the motion information obtained from the analysis target person presented with the virtual image or the sensor attached to the accessory thereof, and the evaluation of the motion performed by the analysis target person with the virtual image presented. Includes an analysis data generation step in which information associated with the indicated exercise evaluation information is used as analysis data.
Data collection method for analysis.
記憶部には、物体の動きの種類毎に、物体の動きを映像として提示する際に用いる動き情報が記憶されているものとし、
相手の身体動作と前記相手の身体動作に伴う物体の動きとが物理法則に照らして整合しない映像に含まれる、物体の動きを特定する映像特定情報を映像の条件として設定する映像条件設定ステップと、
前記映像特定情報に基づき、前記動き情報を用いて、実環境では再現しえない環境を提示するバーチャル映像を合成する映像合成ステップと、
前記映像特定情報と、前記バーチャル映像を提示される解析対象者またはその付属物に取り付けたセンサから得られる運動情報と、前記バーチャル映像が提示された状態で前記解析対象者が行う運動の評価を示す運動評価情報とを対応付けた情報を解析用データとする解析用データ生成ステップとを含む、
解析用データ収集方法。
It is assumed that the storage unit stores motion information used when presenting the motion of the object as an image for each type of motion of the object.
A video condition setting step for setting video specific information that identifies the movement of an object, which is included in a video in which the body movement of the other party and the movement of the object accompanying the body movement of the other party do not match in light of the laws of physics. ,
A video synthesis step of synthesizing a virtual video that presents an environment that cannot be reproduced in a real environment by using the motion information based on the video specific information.
The image specific information, the motion information obtained from the analysis target person presented with the virtual image or the sensor attached to the accessory thereof, and the evaluation of the motion performed by the analysis target person with the virtual image presented. Includes an analysis data generation step in which information associated with the indicated exercise evaluation information is used as analysis data.
Data collection method for analysis.
請求項1から請求項6の何れかの解析用データ収集装置として、コンピュータを機能させるためのプログラム。 A program for operating a computer as an analysis data collection device according to any one of claims 1 to 6. バーチャル映像内に表示される相手が物理法則に逆らう動きをする合成されたバーチャル映像を提示される対象者またはその付属物に取り付けたセンサから得られる運動情報と、
前記バーチャル映像を提示された状態で前記解析対象者が行う運動の評価を示す運動評価情報と、
前記バーチャル映像を特定する映像特定情報と、
を対応付けたデータ構造であって、運動評価情報が高いときの前記運動情報と運動評価が低いときの前記運動情報とで差異の大きい時刻を注目時刻として特定し、当該注目時刻近傍で動きのある前記バーチャル映像中の部分領域を特定する処理に用いられるデータ構造。
Motion information obtained from a sensor attached to the subject or its accessories, which is presented with a synthesized virtual image in which the other party displayed in the virtual image moves against the laws of physics,
Exercise evaluation information indicating the evaluation of the exercise performed by the analysis target person while the virtual image is presented, and
Video identification information that identifies the virtual image and
In the data structure associated with, the time when there is a large difference between the motion information when the motion evaluation information is high and the motion information when the motion evaluation is low is specified as the attention time, and the movement is performed in the vicinity of the attention time. A data structure used in a process for identifying a partial area in a virtual image.
相手の身体動作と前記相手の身体動作に伴う物体の動きとが物理法則に照らして整合しない合成されたバーチャル映像を提示される対象者またはその付属物に取り付けたセンサから得られる運動情報と、
前記バーチャル映像を提示された状態で前記解析対象者が行う運動の評価を示す運動評価情報と、
前記バーチャル映像を特定する映像特定情報と、
を対応付けたデータ構造であって、運動評価情報が高いときの前記運動情報と運動評価が低いときの前記運動情報とで差異の大きい時刻を注目時刻として特定し、当該注目時刻近傍で動きのある前記バーチャル映像中の部分領域を特定する処理に用いられるデータ構造。
The movement information obtained from the sensor attached to the subject or its accessory, which is presented with a synthesized virtual image in which the body movement of the other party and the movement of the object accompanying the body movement of the other party do not match in light of the laws of physics,
Exercise evaluation information indicating the evaluation of the exercise performed by the analysis target person while the virtual image is presented, and
Video identification information that identifies the virtual image and
Is a data structure in which A data structure used in a process for identifying a partial area in a virtual image.
JP2020132423A 2017-09-04 2020-08-04 Data acquisition device for analysis, its method, and program Active JP6969640B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020132423A JP6969640B2 (en) 2017-09-04 2020-08-04 Data acquisition device for analysis, its method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017169620A JP6754342B2 (en) 2017-09-04 2017-09-04 Analyzer, its method, and program
JP2020132423A JP6969640B2 (en) 2017-09-04 2020-08-04 Data acquisition device for analysis, its method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017169620A Division JP6754342B2 (en) 2017-09-04 2017-09-04 Analyzer, its method, and program

Publications (2)

Publication Number Publication Date
JP2020175240A true JP2020175240A (en) 2020-10-29
JP6969640B2 JP6969640B2 (en) 2021-11-24

Family

ID=72916271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020132423A Active JP6969640B2 (en) 2017-09-04 2020-08-04 Data acquisition device for analysis, its method, and program

Country Status (1)

Country Link
JP (1) JP6969640B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08112449A (en) * 1994-10-19 1996-05-07 Casio Comput Co Ltd Image control device
US5846086A (en) * 1994-07-01 1998-12-08 Massachusetts Institute Of Technology System for human trajectory learning in virtual environments
JP2016047219A (en) * 2014-08-28 2016-04-07 学校法人立命館 Body motion training support system
JP2016131782A (en) * 2015-01-21 2016-07-25 セイコーエプソン株式会社 Head wearable display device, detection device, control method for head wearable display device, and computer program
JP2017148446A (en) * 2016-02-26 2017-08-31 株式会社セガゲームス Virtual sport simulation device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5846086A (en) * 1994-07-01 1998-12-08 Massachusetts Institute Of Technology System for human trajectory learning in virtual environments
JPH08112449A (en) * 1994-10-19 1996-05-07 Casio Comput Co Ltd Image control device
JP2000504854A (en) * 1996-02-13 2000-04-18 マサチューセッツ・インスティテュート・オブ・テクノロジー Human motion trajectory learning device in virtual environment
JP2016047219A (en) * 2014-08-28 2016-04-07 学校法人立命館 Body motion training support system
JP2016131782A (en) * 2015-01-21 2016-07-25 セイコーエプソン株式会社 Head wearable display device, detection device, control method for head wearable display device, and computer program
JP2017148446A (en) * 2016-02-26 2017-08-31 株式会社セガゲームス Virtual sport simulation device

Also Published As

Publication number Publication date
JP6969640B2 (en) 2021-11-24

Similar Documents

Publication Publication Date Title
US10821347B2 (en) Virtual reality sports training systems and methods
JP2021100722A (en) Athletic training system and method
Petri et al. Training using virtual reality improves response behavior in karate kumite
US10269390B2 (en) Game video processing systems and methods
Bruce et al. But I can’t pass that far! The influence of motor skill on decision making
Wilson Development in video technology for coaching
US10121065B2 (en) Athletic attribute determinations from image data
US11826628B2 (en) Virtual reality sports training systems and methods
EP2953115A1 (en) Swing analysis system
JP2011505202A5 (en)
Mann et al. Issues in the measurement of anticipation
US20140287391A1 (en) Method and system for training athletes
Tsai et al. Feasibility study on using ai and vr for decision-making training of basketball players
EP3009173B1 (en) Assisted-training system and method for billiards
JP6754342B2 (en) Analyzer, its method, and program
Mecheri et al. Are visual cue masking and removal techniques equivalent for studying perceptual skills in sport?
JP6943326B2 (en) Training equipment, its methods, and programs
JP6969640B2 (en) Data acquisition device for analysis, its method, and program
Kulpa et al. Displacements in Virtual Reality for sports performance analysis
JP2022007548A (en) Evaluation system and evaluation method
WO2023176057A1 (en) Information processing device, information processing method, program, and information presentation system
Kudo et al. State Transition Probability as the Anticipation Clue of the Course of a Struck Ball
Redwood-Brown Effects of score line on match performance in professional soccer players
Murphy The role of contextual information in expert anticipation
Nunome et al. The processes underlying ‘game intelligence’skills in soccer players

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211011

R150 Certificate of patent or registration of utility model

Ref document number: 6969640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150