JP2009018127A - Learning support device and method - Google Patents
Learning support device and method Download PDFInfo
- Publication number
- JP2009018127A JP2009018127A JP2007185075A JP2007185075A JP2009018127A JP 2009018127 A JP2009018127 A JP 2009018127A JP 2007185075 A JP2007185075 A JP 2007185075A JP 2007185075 A JP2007185075 A JP 2007185075A JP 2009018127 A JP2009018127 A JP 2009018127A
- Authority
- JP
- Japan
- Prior art keywords
- target
- information
- unit
- learning
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、運動の学習を支援する学習支援装置および学習支援方法に関する。 The present invention relates to a learning support apparatus and a learning support method that support learning of exercise.
従来、運動の学習において上達を図るために、コーチの指導を受けたり、上級者の運動の姿を見たり、ビデオや鏡を活用して自分の運動の姿を見るということが広く行われている。ところが、特にこれから運動を始める初心者や、なかなか上達しない初級者は、言葉や運動の姿から目標となる運動をうまくイメージできない場合が多く、このような場合には上達は難しい。 Traditionally, in order to improve learning in exercise, it has been widely practiced to receive coaching guidance, see the exercises of advanced players, and watch videos of their exercise using videos and mirrors. Yes. However, beginners who begin to exercise in the future and beginners who do not easily improve often cannot imagine the target exercise well from words and movements, and in such cases it is difficult to improve.
そこで、上級者の運動における手や足などの部位の軌道を提示することで、より直感的で体感可能な学習を可能にする技術が、例えば特許文献1および特許文献2に記載されている。
Thus, for example,
特許文献1記載の技術では、書道における筆の運びを学習するための教材において、上級者の筆の運びにおける筆圧の強弱や重心位置を、筆の移動経路に沿って図形で表示する。ユーザは、この教材に表示された図形を、それぞれの図形の意味に従ってなぞることにより、上級者の筆の運びをイメージしながら書道の練習を行うことができる。
In the technique disclosed in
特許文献2記載の技術では、描画における筆の運びを学習するための装置において、基準線を表示し、これをなぞる形でユーザにより記入された記入線とのずれを測定して、描画の巧緻性を判定する。ユーザは、巧緻性の判定結果が向上するように努力を繰り返すことにより、上級者の運動をイメージし易くなる。
しかしながら、特許文献1および特許文献2記載の技術では、例えば、表示されている図形や基準線に対するユーザの位置や姿勢が上級者と異なっている場合、ユーザの運動は、上級者の運動とはかけ離れたものとなる可能性がある。すると、ワンパターンの運動の結果物を得ることを学習するにはよいが、上級者の運動の学習には必ずしも適さず、逆に運動の上達という本来の目的を達成しにくくなる可能性が高くなる。
However, in the techniques described in
本発明は、かかる点に鑑みてなされたものであり、運動の効果的な学習を可能にする学習支援装置および学習支援方法を提供することを目的とする。 The present invention has been made in view of such a point, and an object thereof is to provide a learning support device and a learning support method that enable effective learning of exercise.
本発明の学習支援装置は、所定の運動を学習するための学習支援装置であって、前記所定の運動における学習対象部位の動作である目標動作を示す目標動作情報を取得する目標動作取得部と、前記目標動作取得部によって取得された前記目標動作情報に基づいて、前記目標動作を、前記所定の運動を学習するユーザの視界に適合させて描画する描画部とを有する構成を採る。 A learning support device according to the present invention is a learning support device for learning a predetermined motion, and a target motion acquisition unit that acquires target motion information indicating a target motion that is a motion of a part to be learned in the predetermined motion; And a drawing unit that draws the target motion in conformity with the field of view of the user who learns the predetermined motion based on the target motion information acquired by the target motion acquisition unit.
本発明の学習支援方法は、所定の運動を学習するための学習支援方法であって、前記所定の運動における学習対象部位の動作である目標動作を示す目標動作情報を取得する目標動作取得ステップと、前記目標動作取得ステップで取得された前記目標動作情報に基づいて、前記目標動作の画像を、前記所定の運動を学習するユーザの視界に適合させて描画する描画ステップとを有するようにした。 The learning support method of the present invention is a learning support method for learning a predetermined motion, and a target motion acquisition step of acquiring target motion information indicating a target motion that is a motion of a learning target part in the predetermined motion; A drawing step of drawing an image of the target motion in conformity with a field of view of the user who learns the predetermined motion based on the target motion information acquired in the target motion acquisition step.
本発明によれば、ユーザの視界に適合させて目標動作の画像が描画されるので、ユーザは、より正しい位置や姿勢で、所定の運動における特定部位の動作をなぞることができる。これにより、運動の結果物から間接的に運動を学習する場合に比べて、より効果的な運動の学習が可能となる。 According to the present invention, since the image of the target motion is drawn in conformity with the user's field of view, the user can trace the motion of the specific part in the predetermined motion at a more correct position and posture. As a result, it is possible to learn exercise more effectively than when learning exercise indirectly from the result of exercise.
以下、本発明の各実施の形態について、図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(実施の形態1)
図1は、本発明の実施の形態1に係る学習支援装置が使用される場面の様子を示す図である。実施の形態1は、本発明を、ゴルフクラブのスィングの学習を支援する学習支援装置に適用した例である。
(Embodiment 1)
FIG. 1 is a diagram illustrating a scene in which the learning support apparatus according to
図1に示すように、学習支援装置10は、ヘッドマウントディスプレイ(head mounted display:HMD)110、3軸加速度センサ120、および制御端末130により構成される。制御端末130は、ゴルフクラブのスィングを練習するユーザ150の近くに据え置かれている。ヘッドマウントディスプレイ110は、ユーザ150の頭部に装着されている。3軸加速度センサ120は、ユーザ150の目標となる運動を学習するにあたってユーザ150が着目する運動器具や体の部位(以下「学習対象」という)に着脱自在に取り付けられる。ここでは、学習対象として、ゴルフクラブのクラブヘッド160が選択された例を示しており、3軸加速度センサ120は、クラブヘッド160に取り付けられている。
As shown in FIG. 1, the
ヘッドマウントディスプレイ110は、光学式シースルー型の表示装置であり、ユーザ150の目の前のゴルフボール170やクラブヘッド160などの実視界の画像に、制御端末130から送られてくる情報に基づいてコンピュータ生成された画像を光学的に重ね合わせて表示させる。
The head mounted
具体的には、ヘッドマウントディスプレイ110は、マウントディスプレイ110に固定された描画面に、制御端末130から送られてきた後述する描画情報に基づいて描画を行う。また、ヘッドマウントディスプレイ110は、ユーザ150の視線の起点である視点と、ユーザ150の頭の位置および姿勢を計測し、制御端末130に送信する。ここで、視点は、ユーザ150の瞳孔の位置であり、姿勢とは、物体の向きや傾きをいうものとする。
Specifically, the head mounted
3軸加速度センサ120は、自己の加速度をアナログ値で計測し、計測データをディジタル値である加速度データに変換して、制御端末130に送信する。
The
制御端末130は、ユーザ150の目標となるスィングにおける、クラブヘッド160の目標となる軌道(以下「目標軌道」という)および目標軌道の各位置におけるヘッド面の向きなどの所定の物理量(目標軌道および所定の物理量が示す動作並びにこの動作を示す情報を、以下「目標動作」と総称する)を取得する。そして、制御端末130は、ヘッドマウントディスプレイ110からの情報に基づいて、取得した目標動作をユーザ150の視界に適合させて描画するための画像データである描画情報を作成し、ヘッドマウントディスプレイ110に送信する。
The
更に、制御端末130は、3軸加速度センサ120から送られてくる情報に基づいて、クラブヘッド160の実際の軌道(以下「実軌道」という)および実軌道の各位置におけるヘッド面の向きなどの所定の物理量(実軌道および所定の物理量が示す動作並びにこの動作を示す情報を、以下「実動作」と総称する)を取得する。そして、制御端末130は、実動作を目標動作と比較し、比較結果をユーザ150の視界に適合させて描画するための描画情報を作成して、ヘッドマウントディスプレイ110に送信する。
Furthermore, the
このような学習支援装置10を用いることにより、ユーザ150の視界に適合した位置で、目標動作が描画される。これにより、ユーザ150は、スィング学習において、クラブヘッド160の目標動作を目で確認しながらスィング練習を行うことができるとともに、クラブヘッド160の実動作を目標動作との比較でチェックすることができる。このような学習支援装置10を用いて繰り返し練習することにより、ユーザ150は、自身のスィング運動を目標となるスィング運動に近づけることができる。
By using the
次に、学習支援装置10の詳細な構成について説明する。
Next, a detailed configuration of the
図2は、学習支援装置10の詳細な構成を示すブロック図である。
FIG. 2 is a block diagram illustrating a detailed configuration of the
図2に示す学習支援装置10において、ヘッドマウントディスプレイ110は、視界情報計測部111、位置姿勢情報計測部112、および画像表示部113を有する。3軸加速度センサ120は、運動情報計測部121を有する。制御端末130は、目標動作情報格納部131、学習対象取得部132、視界情報取得部133、位置姿勢情報取得部134、目標動作作成部135、目標動作描画部136、運動情報取得部137、および通過判定部138を有する。
In the
目標動作情報格納部131は、それぞれ異なる部位に対応する複数のオブジェクト情報131a−1、131a−2、・・・、131a−N(Nは自然数)を予め格納する。オブジェクト情報131aは、学習対象の目標動作を算出するための基礎情報である。具体的には、オブジェクト情報131aは、学習対象の目標軌道を構成する1つまたは複数の位置に、上記した所定の物理量を視覚的に示すためのシンボルであるオブジェクトを定義する。
The target motion
図3は、クラブヘッド(以下適宜「クラブ」という)に対応するオブジェクト情報131aの内容の一例を示す図である。
FIG. 3 is a diagram showing an example of the contents of the
図3に示すように、オブジェクト情報131aは、部位名201、オブジェクト番号202、直前のオブジェクト番号203、直後のオブジェクト番号204、ポイント重要度205、位置座標206、大きさ207、加速度208、およびその他情報209から構成される。これらの情報は、部位の目標軌道を構成する位置ごとに記述される。
As shown in FIG. 3, the
部位名201には、他の各情報がどの部位に関する情報であるかが記述される。オブジェクト番号202には、位置の識別情報としてオブジェクトの番号が記述される。直前のオブジェクト番号203には、目標軌道における直前の位置に対応する他のオブジェクトの番号が記述される。直後のオブジェクト番号204には、部位の目標軌道における直後の位置に対応する他のオブジェクトの番号が記述される。ポイント重要度205には、オブジェクトのポイントとしての重要度が記述される。位置座標206には、制御端末130に固定された座標系(以下「基準座標系」という)で位置を表した位置座標(x,y,z)が記述される。大きさ207には、オブジェクトの大きさを指定する情報が記述される。加速度208には、対応する位置における部位の加速度が記述される。その他情報209には、目標となる運動に関連する加速度以外の所定の物理量や、オブジェクトを描画する際の視覚的な情報が記述される。
The
目標となる運動に関連する所定の物理量としては、例えば、加速度、姿勢、速度、回転速度、回転加速度、学習対象に対してユーザ150が掛ける力が記述されてもよい。また、オブジェクトを描画する際の視覚的な情報としては、オブジェクトの形状、解像度、色、透明度、輝度、密度、グラデーションなどの属性が記述される。
As the predetermined physical quantity related to the target exercise, for example, acceleration, posture, speed, rotation speed, rotation acceleration, and force applied by the
図2の学習対象取得部132は、オブジェクト情報131a−1、131a−2、・・・、131a−Nが対応するクラブヘッド160や手などの複数の部位を、学習対象の選択肢としてユーザ150に提示し、選択結果を示す学習対象情報を、目標動作作成部135に出力する。具体的には、学習対象取得部132は、液晶タッチパネル(図示せず)に、学習対象の選択を含めた各種操作を受け付けるための制御パネルを表示させて、ユーザ150の学習対象の選択を受け付ける。
The learning
図4は、学習対象取得部132が表示させる制御パネルの外観の一例を示す図である。
FIG. 4 is a diagram illustrating an example of the appearance of the control panel displayed by the learning
制御パネル210には、運動の学習のための処理の開始および終了、表示メニューの切り替え、音量の切り替えの操作を受け付けるためのボタンなどが配置される。図4は、学習対象を選択するためのメニューが表示されているときの制御パネル210の外観を示している。
The
制御パネル210では、学習レベルを選択するためのメニューなど、他の各種設定を行うための画面を更に表示するようにしてもよい。ここで、学習レベルとは、例えば、オブジェクトをなぞるべき順序で順に表示させるなどして実動作の先導を行う場合に、目標動作をなぞる速度によって区分されるレベルのことである。
The
なお、制御パネル210での選択操作ではなく、ディジタルカメラでユーザ150を撮影し、ユーザ150のジェスチャに基づいて、学習対象の選択や学習レベルの選択を受け付けるようにしてもよい。この場合には、学習対象取得部132は、各選択肢と特定のジェスチャとの対応付けを予め設定しておき、ディジタルカメラで撮像されたユーザ150の画像を解析して、予め設定されたジェスチャとのマッチングを行う。
Note that instead of the selection operation on the
例えば、腕組みのジェスチャをメニュー選択開始に、指差しのジェスチャを対象部位の選択に、そして再度の腕組みのジェスチャを選択終了にそれぞれ対応付けて設定することができる。この場合、ユーザ150は、腕組みを数秒間行ってから学習対象となる部位を指で数秒間示し、再度腕組みをするといったジェスチャを行うことによって、学習支援装置10から離れた練習ポジションのままで、学習対象の選択や学習レベルの選択を行うことができる。
For example, an arm set gesture can be set in association with the start of menu selection, a pointing gesture can be set in selection of a target region, and a second arm set gesture can be set in correspondence with selection end. In this case, the
図2の視界情報計測部111は、光源、ミラー、および小型ディジタルカメラを備えた視点検出装置(図示せず)を有し、視点検出装置を用いて、ユーザ150の視点を単位時間ごとに検出する。具体的には、視界情報計測部111は、光源からの光を角膜に当て、反射像をミラーで反射させて小型ディジタルカメラで捉えることにより眼球運動を検出する角膜反射法を用いる。視界情報計測部111は、検出した視線方向をヘッドマウントディスプレイ110本体に固定された座標系(以下「HMD座標系」という)で表した情報を、視界情報として取得する。そして、視界情報計測部111は、無線通信により、単位時間ごとの時系列データとして視界情報を制御端末130に送信する。
2 includes a viewpoint detection device (not shown) including a light source, a mirror, and a small digital camera, and detects the viewpoint of the
視界情報取得部133は、視界情報計測部111から送られてくる視界情報を受信し、目標動作作成部135に出力する。
The visual field
位置姿勢情報計測部112は、ヘッドマウントディスプレイ110本体に固定された磁気センサ(図示せず)を有する。磁気センサの位置および姿勢は、位置姿勢情報取得部134により取得される。
The position / orientation
位置姿勢情報取得部134は、位置姿勢情報計測部112に備えられた磁気センサの位置および姿勢を取得し、磁気センサの位置および姿勢を基準座標系で表した情報を、位置姿勢情報として目標動作作成部135に出力する。
The position / orientation
なお、磁気センサはヘッドマウントディスプレイ110本体に固定されているため、位置姿勢情報から、基準座標系におけるヘッドマウントディスプレイ110の位置および姿勢とヘッドマウントディスプレイ110に設けられた描画面の位置とを取得することが可能である。また、HMD座標系242もヘッドマウントディスプレイ110本体に固定されているため、視界情報および位置姿勢情報から、基準座標系におけるユーザ150の視線方向を取得することが可能である。各座標系の関係については、後に別図を用いて説明する。
Since the magnetic sensor is fixed to the head mounted
目標動作作成部135は、学習対象情報が示す部位に対応するオブジェクト情報131aを、目標動作情報格納部131から取得する。目標動作作成部135は、取得したオブジェクト情報131aの記述内容に従い、視界情報および位置姿勢情報から、ヘッドマウントディスプレイ110の描画面にオブジェクトの画像により目標動作を描画するための描画情報を作成する。そして、目標動作作成部135は、作成した描画情報を目標動作描画部136に出力する。
The target
また、目標動作作成部135は、取得したオブジェクト情報131aを、通過判定部138に出力する。そして、目標動作作成部135は、通過判定部138から出力される通過判定情報に基づいて、新たな描画情報を作成して目標動作描画部136に出力する。通過判定情報は、学習対象の実動作と目標動作との比較結果を示す情報であり、学習対象の実軌道が学習対象の目標軌道をなぞることができたか否かを示す通過判定結果を含む。
In addition, the target
目標動作描画部136は、目標動作作成部135で作成された描画情報を、無線通信によりヘッドマウントディスプレイ110の画像表示部113に送信する。
The target
画像表示部113は、描画面(図示せず)を有し、制御端末130から送られてくる描画情報に基づいてオブジェクトを描画面に描画する。ユーザ150は、描画面に描画されたオブジェクトの画像と実視界のゴルフボール170やクラブヘッド160などを同時に見ながら、スィングの練習を行うことができる。
The
図5は、ヘッドマウントディスプレイ110における描画面の様子の一例を示す図である
FIG. 5 is a diagram illustrating an example of a drawing surface of the head mounted
図5に示すように、描画面230には、制御端末130から送られてきた描画情報に基づいて、実視界の画像231に重ねて、二次元画像または三次元画像であるオブジェクト画像232を表示する。ここでは、オブジェクトのデフォルトのシンボルが球体であり、図3に示すオブジェクト番号A1〜A3に対応するオブジェクト画像232が、大きさ207の記述内容に応じた大きさで描画されたときの描画面230を図示している。なお、ここでは、オブジェクト画像232の内部にオブジェクト番号を付加して図示しているが、必ずしもオブジェクト画像232にオブジェクト番号を付加する必要は無い。
As shown in FIG. 5, an
なお、オブジェクトの描画の手法は、上記内容に限定されるものではない。例えば、実世界の映像とコンピュータ生成映像とを融合させたもの画像をディスプレィに表示するビデオ式シースルー型、低出力レーザを用いてコンピュータ生成の映像を網膜に直接描画する網膜ディスプレィ型、またはコンピュータ生成の情報を直接投影する投影型などの表示機器を用いてもよい。 Note that the method of drawing an object is not limited to the above contents. For example, a video-type see-through display that displays an image of a fusion of real-world video and computer-generated video on a display, or a retinal display that directly draws computer-generated video on the retina using a low-power laser, or computer-generated A projection type display device that directly projects the information may be used.
運動情報計測部121は、3軸加速度センサ120で計測された3軸方向の加速度を基準座標系で表した加速度データを、運動情報として単位時間ごとに取得する。そして、運動情報計測部121は、無線通信により、単位時間ごとの時系列データとして運動情報を制御端末130に送信する。
The motion
運動情報取得部137は、3軸加速度センサ120の運動情報計測部121から送られてきた運動情報(加速度データ)を受信し、通過判定部138に出力する。
The motion
通過判定部138は、運動情報から、学習対象(ここではクラブヘッド160)の実動作を取得する。通過判定部138は、取得した実動作と、オブジェクト情報131aに定義された学習対象の目標動作とを比較解析し、上記した通過判定結果を含む通過判定情報を作成する。そして、通過判定部138は、作成した通過判定情報を目標動作作成部135に出力する。目標動作作成部135では、上述したように、通過判定情報に基づいて、通過判定結果をユーザ150に対してフィードバックするための描画情報が作成される。
The
なお、学習対象の実動作の取得の仕方は、上記内容に限定されるものではない。例えば、学習対象に圧力センサを取り付けて加速度データを取得したり、学習対象に取り付けたマーカの動きをカメラで撮影し撮影画像を解析するなどしてもよい。 Note that the method of acquiring the actual operation to be learned is not limited to the above content. For example, a pressure sensor may be attached to the learning target to obtain acceleration data, or the movement of the marker attached to the learning target may be photographed with a camera and the photographed image may be analyzed.
制御端末130およびヘッドマウントディスプレイ110は、例えば、CPU(central processing unit)、制御プログラムを格納したROM(read only memory)などの記憶媒体、RAM(random access memory)などの作業用メモリ、および通信回路をそれぞれ備える。この場合、CPUが制御プログラムを実行することで、制御端末130およびヘッドマウントディスプレイ110の上記各部の機能は実現される。
The
ここで、学習支援装置10における各座標系の関係およびオブジェクトの描画位置の算出の原理について説明する。
Here, the principle of calculating the relationship between the coordinate systems and the drawing position of the object in the
図6は、各座標系の関係およびオブジェクトの描画位置の算出の原理を示す図である。 FIG. 6 is a diagram showing the principle of calculating the relationship between the coordinate systems and the drawing position of the object.
図6において、基準座標系241(Xh,Yh,Zh)は、制御端末130の位置および姿勢に固定された、位置姿勢情報取得部134を原点とする座標系である。制御端末130の位置姿勢情報取得部134は、ヘッドマウントディスプレイ110に固定された磁気センサの位置および姿勢を、基準座標系241で計測する。
In FIG. 6, a reference coordinate system 241 (X h , Y h , Z h ) is a coordinate system with the position and orientation
HMD座標系242(Xe,Ye,Ze)は、視点検出装置112に固定された、ヘッドマウントディスプレイ110の描画面230上の所定の位置を原点とした座標系である。ヘッドマウントディスプレイ110に固定された視点検出装置112は、ユーザ150の視点243の位置を、HMD座標系242で検出する。
The HMD coordinate system 242 (X e , Y e , Z e ) is a coordinate system that is fixed to the
なお、説明の簡便化のため、ここでは、描画面230上の座標系がHMD座標系242に一致するものとする。
For simplicity of explanation, it is assumed here that the coordinate system on the
HMD座標系242における磁気センサ111aの位置および姿勢は、予め測定される。または、HMD座標系242における磁気センサ111aの位置および姿勢が予め定められた位置および姿勢となるように、磁気センサ111aおよび視点検出装置112は固定される。これにより、HMD座標系242と基準座標系241との間で、位置座標やベクトルを変換することができる。
The position and orientation of the
また、HMD座標系242における描画面230の位置および姿勢は、予め測定される。または、HMD座標系242における描画面230の位置および姿勢が予め定められた位置および姿勢となるように、視点検出装置112は固定される。これにより、HMD座標系242と描画面230上の座標系との間で、位置座標やベクトルを変換することができる。
Further, the position and orientation of the
すなわち、ユーザ150の視点243および描画面230上の位置は、基準座標系241でも表すことができる。
That is, the position on the
更に、オブジェクト情報131aに定義されているオブジェクト250の位置座標は、基準座標系241の値であり、基準座標系241において、視点243とオブジェクト250とを結ぶ直線251の描画面230との交点を容易に求めることができる。この交点は、ユーザ150が描画面230を通してオブジェクト250を見たときの、描画面230上のオブジェクト250の画像の位置である。
Further, the position coordinates of the
このように、学習支援装置10では、基準座標系241と、他の座標系との幾何学的整合が取られている。
As described above, in the
目標動作作成部135は、上記した各座標系の関係を用いて、ユーザ150の視点243、描画面230の位置、およびオブジェクト250の三次元的な位置に基づいて、描画面230上におけるオブジェクト画像232の描画すべき位置および姿勢を求める。これにより、学習支援装置10は、例えば、オブジェクト情報131aに基準座標系241で定義されているオブジェクト250の三次元的な目標軌道252を、描画面230におけるオブジェクト画像232の二次元的な目標軌道253に変換して、表示することができる。
The target
但し、描画面230の領域は有限であるため、視点243からみて描画面230の範囲外の領域に位置するオブジェクト250bに対応して描画されるはずのオブジェクト画像232bは、実際には描画されないことになる。
However, since the area of the
また、学習支援装置10は、オブジェクト情報131aが定義する目標動作を実現する際の運動、つまり目標となる運動においてユーザ150が取るべき基本姿勢の立ち位置と向きを、予め記憶している。この記憶された立ち位置と向きに、基本姿勢を取るユーザ150の立ち位置や向きが合致するように、制御端末130とゴルフボール170の相対位置は設定されている。このような設定と、上記座標系の変換とにより、ユーザ150が目標となる運動を行った場合のユーザ150の視界における目標動作を、ユーザ150の視界に適合させて描画することができる。
In addition, the
なお、ゴルフボール170の初期位置に対するユーザ150の立ち位置は、ボールを打つべき方向との関係で定まることから、ゴルフボール170の初期位置を基準に基準座標系261(Xw,Yw,Zw)を設定してもよい。具体的には、例えば、ゴルフボール170の初期位置を原点とし、制御端末130からゴルフボール170へと向かうベクトルをX軸、垂直方向をZ軸、X軸とZ軸の外積方向をY軸とする座標系を、基準座標系261(Xw,Yw,Zw)とする。この場合には、地面または床面262上に、制御端末130に対して予め定められた距離および方向にゴルフボール170の初期位置が位置するように、制御端末130を設置すればよい。または、ゴルフボール170にマーカを取り付け、制御端末130に備えられたディジタルカメラの撮影画像から、マーカの位置および方向を特定するなどして、ゴルフボール170の初期位置を原点とする基準座標系261を設定してもよい。
Incidentally, standing position of the
また、ユーザ150の胴体などの位置および姿勢を基準に、基準座標系260を設定してもよい。この場合には、例えば、ユーザ150の体の所定の位置に磁気センサを取り付け、制御端末130でこの磁気センサの位置および姿勢を検出する。これにより、移動や大きな動きを伴う運動についても、ユーザ150の視界に適合させて目標動作を描画することができる。
Further, the reference coordinate system 260 may be set based on the position and posture of the
次に、通過判定部138による通過判定の原理の一例について説明する。
Next, an example of the principle of passage determination by the
図7は、通過判定部138による通過判定の原理の一例を示す図である。
FIG. 7 is a diagram illustrating an example of the principle of passage determination by the
通過判定部138は、3軸加速度センサ120からの加速度データを2重積分し、学習対象(ここではクラブヘッド160)の三次元位置の初期位置に対する相対変化を求めることにより、学習対象の実動作を算出する。具体的には、通過判定部138は、例えばクラブヘッド160のヘッド面をゴルフボールに沿わせた状態を学習対象の初期位置および初期姿勢として取得する。そして、通過判定部138は、学習対象のある時点での加速度からオイラー法などにより微小時間後の運動を求める処理を反復することにより、運動結果の時系列を逐次的に求めていく。
The
学習対象の実軌道270のどの時点の位置271を、どのオブジェクト250と比較すべきかを判断することは難しい。そこで、本実施の形態では、学習対象の実軌道270のうち、あるオブジェクト250との距離が最小となる位置271を、そのオブジェクト250と比較すべき位置とする。そして、その学習対象の位置271とオブジェクト250の位置との距離(以下「ずれ量」という)が所定の閾値より小さい場合には、成功したものと判定し、ずれ量が所定の閾値以上である場合には、失敗したものと判定する。
It is difficult to determine which point 271 of the
ここで、成功とは、学習対象の実軌道270が、目標軌道に位置するオブジェクト250を通過したことをいい、失敗とは、学習対象の実軌道270が、目標軌道に位置するオブジェクト250を通過しなかったことをいう。
Here, success means that the
通過判定部138は、微少時間ごとの学習対象の位置271を算出する。ある時間における学習対象の位置(x,y,z)が微小時間後に位置(x+Δx,y+Δy,z+Δz)に変位したとする。通過判定部138は、変位後のずれ量d'が変位前のずれ量dよりも大きくなった時点における変位前の位置(x,y,z)を、オブジェクト250との距離が最小となる位置と判定する。
The
具体的には、通過判定部138は、まず、オブジェクト250の位置(xa,ya,za)に対して、以下の式(1)が成立するか否かを逐次判定する。
Specifically, the
オブジェクト250が多数存在する場合には、全てのオブジェクト250に対して上記演算を行うと処理負荷が高くなる。そこで、通過判定部138は、オブジェクト情報131aに定義されたオブジェクトの順序に従って、1つずつ順に通過判定を行う。例えば、図7に示すように、オブジェクト番号A1に対応するオブジェクト250−A1と、次のオブジェクト番号であるオブジェクト番号A2に対応するオブジェクト250−A2が存在したとする。この場合、通過判定部138は、まず、オブジェクト250−A1についてのみ式(1)を用いた判定を実行し、式(1)が成立してから、次のオブジェクト250−A2について式(1)を用いた判定を実行すればよい。
When there are a large number of
学習対象は、図7に示す位置271−1〜271−3を、この順序で通過したものとする。オブジェクト250−A2について式(1)の判定を実行している場合において、例えば、図7に示す位置271−1を(x,y,z)と置いたとき、学習対象はオブジェクト250−A2に近付く方向で移動しているので、式(1)は成立しない。一方、図7に示す位置271−2、271−3をそれぞれ(x,y,z)、(x+Δx,y+Δy,z+Δz)と置いたとき、学習対象はオブジェクト250−A2から遠ざかる方向で移動しているので、式(1)は成立する。
The learning target is assumed to have passed positions 271-1 to 271-3 shown in FIG. 7 in this order. In the case where the determination of Expression (1) is executed for the object 250-A2, for example, when the position 271-1 shown in FIG. 7 is set as (x, y, z), the learning target is the object 250-A2. Since moving in the approaching direction, equation (1) does not hold. On the other hand, when the positions 271-2 and 271-3 shown in FIG. 7 are set as (x, y, z) and (x + Δx, y + Δy, z + Δz), the learning object moves in a direction away from the object 250 -
通過判定部138は、式(1)が成立したと判定したとき、その時点の学習対象の位置(x,y,z)から、オブジェクト250の位置に対する学習対象の実軌道270の最小のずれ量dを、例えば以下の式(2)を用いて算出する。
When the
そして、通過判定部138は、算出したずれ量dを所定の閾値と比較し、成功であるか否かを判定する。
Then, the
また、通過判定部138は、式(1)が成立したと判定したとき、その時点の学習対象の姿勢(ここではクラブヘッド160のヘッド面の法線ベクトル)を、オブジェクト情報131aに定義されたオブジェクトの姿勢と比較する。
Further, when the
具体的には、通過判定部138は、例えば、学習対象の姿勢を示すベクトルとオブジェクト情報131aが定義するベクトルとが成す角(以下「ずれ角」という)を算出する。そして、通過判定部138は、ずれ角の絶対値が所定の閾値より小さい場合には、姿勢が正しいと判定し、ずれ角の絶対値が所定の閾値以上である場合には、姿勢が正しくないと判定する。
Specifically, for example, the
更に、通過判定部138は、通過判定部138は、式(1)が成立したと判定したとき、その時点の学習対象の加速度を、オブジェクト情報131aに定義されたオブジェクト250の加速度と比較する。
Further, when the
具体的には、通過判定部138は、例えば、学習対象の加速度とオブジェクト情報131aが定義する加速度との差を算出し、算出結果の絶対値が所定の閾値より小さい場合には、加速度が適正であると判定し、算出結果の絶対値が所定の閾値以上である場合には、加速度が適正でないと判定する。
Specifically, for example, the
また、あるオブジェクト250の位置を通過するときの加速度を基準に、他の各オブジェクト250の位置を通過するときの加速度の比率を算出し、比率の大きさによって加速度が適正か否かを判定してもよい。この場合には、相対的な加速度の変化を捉えながら、スローモーションの動きで目標動作をなぞる動作を行うことができる。
Further, based on the acceleration when passing through the position of a
なお、実動作と目標動作との間で比較を行う物理量は、上記に限定されるものではない。但し、比較を行おうとする物理量を、目標動作を構成する1つの要素として、オブジェクト情報131aに予め定義しておく必要がある。
Note that the physical quantity to be compared between the actual operation and the target operation is not limited to the above. However, the physical quantity to be compared needs to be defined in advance in the
次に、図2に示す構成を有する学習支援装置10の動作について、詳細に説明する。
Next, the operation of the
図8は、学習支援装置10の動作の流れを示すフローチャートである。
FIG. 8 is a flowchart showing an operation flow of the
まず、ステップS1100で、学習対象取得部132は、ユーザが希望する学習対象を示す学習対象情報を取得し、取得した学習対象情報を、目標動作作成部135に出力する。ここでは、「クラブ」が選択されるため、クラブヘッド160を学習対象とする学習対象情報が出力される。
First, in step S <b> 1100, the learning
そして、ステップS1200で、目標動作作成部135は、学習対象情報が示す部位に対応するオブジェクト情報131aを、目標動作情報格納部131から、目標動作情報として取得する。ここでは、クラブヘッド160が学習対象であるため、図3に示す、部位名201に「クラブ」が設定されているオブジェクト情報131aが取得される。また、目標動作作成部135は、取得したオブジェクト情報131aを、通過判定部138に出力する。
In step S1200, the target
そして、ステップS1300で、目標動作作成部135は、取得したオブジェクト情報131aに記述された位置座標206を、位置姿勢情報取得部134で取得された位置姿勢情報および視界情報取得部133で取得された視界情報から、HMD座標系242に変換する。そして、目標動作作成部135は、描画対象となるオブジェクト250を取捨選択する描画対象計算を実施した後、目標動作を可視化して表現するための画像データ(以下単に「目標動作」という)を作成し、描画情報として目標動作描画部136に出力する。
In step S1300, the target
例えば、学習の開始時において、描画対象がオブジェクト番号A1、A2、A3のオブジェクト250であり、図3に示す位置座標P1、P2、P3をHMD座標系242で表した位置座標がP−1、P−2、P−3であるとする。この場合、目標動作作成部135は、オブジェクト番号A1のオブジェクト250のオブジェクト画像232を、位置座標P−1に大きさS1で描画し、オブジェクト番号A2のオブジェクト250のオブジェクト画像232を、位置P−2に大きさS3で描画し、オブジェクト番号A3のオブジェクト250のオブジェクト画像232を、位置P−3に大きさS3で描画するための描画情報を作成する。
For example, at the start of learning, the drawing target is the
また、上記した描画対象計算の詳細は、下記の通りである。まず、目標動作作成部135は、オブジェクト情報131aのオブジェクト番号202、直前のオブジェクト番号203、および直後のオブジェクト番号204から、ユーザがなぞるべきオブジェクト250の順序を判断する。そして、目標動作作成部135は、ユーザ150の視点243と各オブジェクト250の位置とを結ぶ直線と、画像表示部113の描画面230との交点が、描画面230の内部に属するか否かを、なぞる順番に従って計算により判断する。そして、目標動作作成部135は、上記交点が描画面230の内部に属さないオブジェクトが現れた段階で計算を一時停止し、上記交点が描画面230の内部に属するオブジェクト250を描画対象として選択し、目標動作描画部136に描画対象の描画を依頼する。
The details of the above-described drawing object calculation are as follows. First, the target
そして、ステップS1400で、目標動作描画部136は、目標動作作成部135の描画指示に基づいて、図5に示すように、ヘッドマウントディスプレイ110の描画面230に目標動作を描画する。具体的には、目標動作描画部136は、目標動作作成部135から入力された描画情報を、無線通信によりヘッドマウントディスプレイ110の画像表示部113に送信する。
In step S1400, the target
このように、図8のステップS1100〜S1400の処理により、学習対象の目標軌道に沿って、オブジェクト画像232が、描画面230上の対応する位置で表示される。ユーザ150は、オブジェクト画像232を見ながら、実物の学習対象(ここではクラブヘッド160)を目標動作になぞらせるように運動する。
In this manner, the
図9は、オブジェクト画像232をなぞるように学習対象を動作させる様子を示す図である。ここでは、学習対象が手であり、オブジェクト250が球と円板とその他の立体図形との組み合わせによりシンボル化させている場合を図示している。
FIG. 9 is a diagram illustrating a state in which the learning target is moved so as to trace the
図9に示すように、学習対象である手の目標軌道に沿って、オブジェクト画像232−1〜232−3が表示される。ユーザ150は、自己の手281の手がオブジェクト画像232−1〜232−3をなぞるように運動する。例えば、円板の平面が手のひらの向き、三角錐や円柱が加速または減速およびその大きさを示している。これらのシンボルの意味を予めユーザ150に通知しておくことにより、ユーザ150は、目標軌道に加えて、手のひらの向きや力加減といった目標となる運動に関連する物理量をも確認しながら、運動することができる。
As shown in FIG. 9, object images 232-1 to 232-3 are displayed along the target trajectory of the hand that is the learning target. The
図10は、オブジェクト250の具体例を示す図である。
FIG. 10 is a diagram illustrating a specific example of the
図10(A)に示すように、オブジェクト250は、例えば、フェース面282および後続オブジェクト方向指示部283から成るシンボルである。フェース面282は、所定の大きさの平面であり、ヘッド面の位置および姿勢を表現する。後続オブジェクト方向指示部283は、フェース面282を底辺とする円錐であり、円錐の高さによってヘッド面の加速度の大きさを、フェース面282の中心から頂点に向かう方向によってヘッド面の移動方向を表現する。あるオブジェクト250−1と次のオブジェクト250−2が存在している場合、図10(A)に示すように、オブジェクト250−1の後続オブジェクト方向指示部283は、次のオブジェクト250−2の位置の方向を示す。
As shown in FIG. 10A, the
また、図10(A)に示すように、後続オブジェクト方向指示部283の円錐を縮小した相似形の円錐284を図示し、後続オブジェクト方向指示部283と円錐284で挟まれた部分の厚さ285で、クラブヘッド160に掛ける力加減を表現してもよい。
Further, as shown in FIG. 10A, a
このようなオブジェクト250を用いることにより、ユーザ150に対して、ヘッド面の位置だけでなく、姿勢や加えるべき力の加減を、感覚的に伝えることができる。
By using such an
ゴルフのスィングにおいては、ユーザ150の手前から奥に部位を動かす場面は無いため、図10(A)に示すシンボルで差し支え無い。ところが、格闘技のパンチのように手前から奥に手を動かす動作がある場合には、後続オブジェクト方向指示部283の形状を把握しづらくなる可能性がある。
In the golf swing, there is no scene of moving the part from the front of the
そこで、このような場合には、図10(B)に示すように、頂点の部分を切り取る形で、後続オブジェクト方向指示部283に穴286を設けるようにしてもよい。
Therefore, in such a case, as shown in FIG. 10B, a
このようなオブジェクト250を用いることにより、ユーザ150に対して、オブジェクト250がどのような姿勢にあっても、穴286の位置や大きさによって、次のオブジェクト250の方向や加速度などを感覚的に伝えることができる。
By using such an
このように、学習シーンや学習したい内容によって、種々のシンボルをオブジェクトとして使用できる。また、サイズ、解像度、色、透明度、輝度、密度、グラデーション、形状など、各種の属性を用いることにより、より多くの種類の物理量を表現できるとともに、物理量の大きさを細かに表現することが可能となる。 In this way, various symbols can be used as objects depending on the learning scene and the content to be learned. In addition, by using various attributes such as size, resolution, color, transparency, brightness, density, gradation, shape, etc., it is possible to express more types of physical quantities and to express the physical quantities in detail. It becomes.
図8のステップS1500で、運動情報取得部137は、スィング動作(なぞり動作)を開始したユーザの運動情報の取得を開始する。また、通過判定部138は、通過判定のための演算を開始する。具体的には、運動情報取得部137は、運動情報計測部121から単位時間ごとに送られてくる加速度データを受信し、通過判定部138に出力する。通過判定部138は、加速度データから、逐次、学習対象の実動作を計測する。そして、通過判定部138は、オブジェクト情報131aに定義されるオブジェクト250のうち、描画対象となっているオブジェクト250を順序に従って1つ選択し、2回目以降の実動作の計測が行われると、図7で説明した手順により、選択されているオブジェクト250に対する学習対象の実軌道270のずれ量dを求める。
In step S1500 of FIG. 8, the exercise
そして、ステップS1600で、通過判定部138は、図7で説明した手法を用いて、求めたずれ量dと所定の閾値との比較により、学習対象の目標軌道の通過を判定する。具体的には、通過判定部138は、学習対象の通過が成功したか否か、および学習対象の姿勢が正しいか否か、学習対象の加速度が適正か否かなどの判定を行う。ここでは、クラブヘッド160が正しい位置を通過したか否か、通過時のヘッド面の向きは正しいか否か、およびクラブヘッド160に加える力加減は適正か否かが判定される。
In step S1600, the
そして、ステップS1700で、通過判定部138は、各判定結果を判定結果情報として目標動作作成部135に出力し、判定結果を蓄積するように目標動作作成部135に対して指示する。
In step S1700, the
そして、ステップS1800で、目標動作作成部135は、判定結果情報の内容に応じて、選択されているオブジェクト画像232の属性の変更を目標動作描画部136に依頼し、描画面230にオブジェクト画像232を再描画させる。具体的には、例えば、目標動作作成部135は、学習対象が通過に成功した場合、既に目標動作描画部136に渡した描画情報を、該当するオブジェクト250の属性を変更した描画情報で差し替え、新たな描画情報に基づいた画像を描画面230に描画させる。
In step S 1800, the target
なお、目標動作作成部135は、学習対象の現在位置に対応して、次になぞるべきオブジェクト画像232を、マーカを付けたり、サイズを変更したり、点滅させるなどして、強調してユーザに通知するようにしてもよい。これにより、学習対象の動きを先導することができ、ユーザが目標軌道を直感的に捉え易くすることができる。
The target
また、運動に伴い、ユーザの頭部の位置や姿勢は変化し、ヘッドマウントディスプレイ110の描画面230を通して見える実視界も変化する。したがって、このことを考慮して、ステップS1800において上記した描画対象計算を再度行い、描画対象の取捨選択からやり直すようにしてもよい。
Further, as the user moves, the position and posture of the user's head change, and the actual field of view that can be seen through the
そして、ステップS1900で、目標動作作成部135は、描画対象となっている全てのオブジェクト250について処理を終了したか否かを判断する。目標動作作成部135は、未処理のオブジェクト250が残っている場合には(S1900:NO)、ステップS1500に戻り、次の描画対象となっているオブジェクト250を選択し直し、以降の処理を繰り返す。ステップS1500〜S1900の処理は、予め決められた時間ごとに実行してもよいし、ユーザ150の視点243の位置やヘッドマウントディスプレイ110の位置変位が所定の閾値よりも大きくなったタイミングで実行するようにしてもよい。
In step S1900, the target
図11は、目標動作の再描画によりオブジェクト画像232のシンボルが変化する様子の一例を示す図である。ここでは、ユーザ150の視界に入る画像のうち、オブジェクト画像232−1〜232−3とクラブヘッド160のみを図示している。
FIG. 11 is a diagram illustrating an example of how the symbol of the
ここで、目標動作作成部135は、ステップS1800におけるオブジェクト画像232の属性の変更として、通過が成功したオブジェクト250のオブジェクト画像232を、一定時間経過すると消滅する爆発の画像に置き換える処理を実行するものとする。
Here, the target
図11に示すように、時刻t1で、オブジェクト画像232−1が示すオブジェクト250について通過が成功すると、時刻t2で、オブジェクト画像232−1に代えて爆発の画像290が描画される。また、時刻t3で、オブジェクト画像232−2が示すオブジェクト250について通過が成功すると、時刻t4で、オブジェクト画像232−2に代えて爆発の画像290が描画される。
As shown in FIG. 11, when the passage of the
一方、時刻t5で、オブジェクト画像232−3が示すオブジェクト250について通過が失敗した場合には、爆発の画像290が描画されず、オブジェクト画像232−3がそのまま残る。これにより、ユーザ150は、目標軌道に配置されたオブジェクト画像232を学習対象が通過したか否かを、運動をしながら、リアルタイムにかつ直感的に確認することができる。
On the other hand, when the passage of the
なお、クラブヘッド160が、オブジェクト画像232−1に対応する位置を時刻t1に通過するとして、次のオブジェクト画像232−2に対応する位置に到達する時刻t2よりも前に、オブジェクト画像232−1についての通過の成否がユーザ150に通知されることが望ましい。
Assuming that the
すなわち、クラブヘッド160が前後するオブジェクト画像232−1、232−2に対応する位置の近傍を時刻t1、t2に通過する場合、再描画の基となるクラブヘッド160の位置計測が行われてから再描画が完了するまでの時間(図8のステップS1500〜S1800の処理に要する時間)を△tとすると、以下の式(3)が成立することが望ましい。
In other words, when the vicinity of the position corresponding to the object images 232-1 and 232-2 in which the
このことから、目標動作作成部135は、式(3)を満たすように、描画対象の取捨選択を行ってもよい。具体的には、目標動作作成部135は、例えば、クラブヘッド160の移動速度に基づいて、またはユーザ150が選択した速度レベルに基づいて、オブジェクト情報131aに定義されたオブジェクト250を間引き、予め即時の結果通知が可能なオブジェクトを優先して描画対象に選択する。
From this, the target
図12は、目標動作の再描画によりオブジェクト画像232のシンボルが変化した後の様子の一例を示す図である。
FIG. 12 is a diagram illustrating an example of a state after the symbol of the
ここで、学習対象取得部132は、ポイント重要度205が大となっているオブジェクトをポイントオブジェクトとして、ポイント重要度205が小となっているオブジェクトを一般オブジェクトとして、それぞれ取り扱うものとする。ポイントオブジェクトとは、正しくなぞれたか否かの通過判定結果に基づいて形状を変化させるオブジェクトである。また、一般オブジェクトとは、判定結果に関係なく形状を一定とするオブジェクトである。
Here, it is assumed that the learning
また、学習対象取得部132は、ステップS1800におけるオブジェクト画像232の属性の変更として、通過が失敗したオブジェクト250がポイントオブジェクトである場合には、オブジェクト画像232のサイズを大きくする処理を実行するものとする。
In addition, as a change in the attribute of the
図3に示すように、オブジェクト番号A1、A4のオブジェクト250のポイント重要度205は大であり、オブジェクト番号A2、A3のオブジェクト250のポイント重要度205は小である。
As shown in FIG. 3, the
したがって、オブジェクト番号A1〜A4に対応するオブジェクト250の全てにおいて通過が失敗した場合、図12(A)に示す目標動作291−1のように、ポイントオブジェクト、つまりポイント重要度205が大であるオブジェクト番号A1、A4に対応するオブジェクト画像232のみ、大きなサイズに変更される。このように、ポイントオブジェクトと一般オブジェクトとが混在することにより、ユーザ150は、意識するポイントを直感的に認識することができる。
Therefore, when the passage fails in all of the
また、例えば、図12(B)に示す目標動作291−2のように、順序が隣り合うオブジェクト250を結ぶオブジェクト250の画像として、点線状のオブジェクト画像232を配置するようにしてもよい。このオブジェクト250を結ぶオブジェクト250も、一般オブジェクトの一種として取り扱うことができる。
Further, for example, a dotted
なお、オブジェクト情報131aのポイント重要度205において、大中小などより多くの段階のポイント重要度を記述し、重要度「大」をポイントオブジェクト、重要度「中」を一般オブジェクト、重要度「小」を点線で表示する一般オブジェクトとしてもよい。
It should be noted that in the
また、ユーザ150に対して、より滑らかになぞりの動作を行わせようとする場合には、ポイントオブジェクトの間により多くの一般オブジェクトを配置すればよい。更に、目標動作作成部135の計算能力や目標動作描画部136の描画能力に応じて、これらの装置部に対する処理負荷を軽減すべく、一般オブジェクトの図示を省略するようにしてもよい。
Further, in order to cause the
また、図12(A)、(B)に示すオブジェクト画像232の表示手法を、再描画後ではなく、当初の目標動作の描画に適用してもよいことは勿論である。
Also, it goes without saying that the display method of the
目標動作作成部135は、図8のステップS1500〜S1900の処理を繰り返して、描画対象となっている全てのオブジェクト250について処理を終了した場合には(S1900:YES)、ステップS2000に進む。
If the target
ステップS2000で、学習支援装置10は、目標動作と実動作とを重ねて表示し、一連の処理を終了する。具体的には、通過判定部138は、時間経過に伴う学習対象の初期位置からの変位を、学習対象の実動作として、目標動作作成部135に出力する。目標動作作成部135は、学習対象の実動作に目標動作を重ねて表示するための描画情報を作成し、目標動作描画部136に出力する。
In step S2000, the learning
図13は、学習対象の実動作に目標動作を重ねて表示した状態を示す図である。 FIG. 13 is a diagram illustrating a state in which the target motion is displayed superimposed on the actual motion to be learned.
図13に示すように、ヘッドマウントディスプレイ110の描画面230には、学習対象の実軌道292に重ねて、実動作と目標動作との比較結果を示すオブジェクト画像232が表示される。ここでは、オブジェクト画像232に対して、ずれ方向に色が濃くなるようなグラデーションを施した例を図示している。このような比較結果の表示により、ユーザ150は、目標動作に対する実動作の、運動の全体的な流れの中でのずれを、即時に認識し、自己の運動の全体的な流れを効率良く改善することができる。
As shown in FIG. 13, on the
以上説明したように、本実施の形態によれば、学習支援装置10は、ユーザに対し、ユーザの目標となる運動に関連する、学習対象の姿勢や加速度といった所定の物理量を、学習対象の目標軌道上の対応する位置で提示する。また、このような目標動作の提示を、三次元的に目標軌道に重ならない位置での描画によって行う。これにより、たとえば上級者の運動といった目標となる運動における学習対象の動作をなぞることができ、目標となる運動を体感しながら学習することができる。したがって、ユーザに対して、目標となる運動の確実な学習を促すことができる。
As described above, according to the present embodiment, the
すなわち、従来のように、テキストや動画などからユーザ自身が頭の中で目標動作を空間的にイメージして、見様見真似で運動を学習する場合に比べて、短時間での運動の上達を図ることができる。特に、学習対象分野の知識が少ないユーザや、イメージ作成が苦手な初心者または初級者に対しては、目標動作を容易かつ正確に認知できることから、学習効率を著しく向上させることができる。 In other words, as compared to the case where the user himself / herself spatially imagines the target motion in his / her head and learns the exercise by imitating the appearance from text and videos, the improvement of the exercise in a short time is achieved. Can do. In particular, for a user who has little knowledge in the field to be learned and a beginner or beginner who is not good at image creation, the target action can be recognized easily and accurately, so that the learning efficiency can be significantly improved.
また、ユーザの実際の運動における学習対象の軌道や所定の物理量を計測し、目標となる運動における学習対象の軌道や所定の物理量と比較して、比較結果をフィードバックする。これにより、ユーザが自己の運動を目標となる運動に近づけるために有効な情報を得ることができ、学習効率を更に向上させることができる。 In addition, the trajectory and predetermined physical quantity of the learning target in the actual motion of the user are measured, and compared with the trajectory and predetermined physical quantity of the learning target in the target motion, the comparison result is fed back. Thereby, it is possible to obtain effective information for the user to bring his / her exercise closer to the target exercise, and the learning efficiency can be further improved.
また、他人の運動における学習対象の軌道などを体感することができるので、エンターティメント性に富んだ学習支援を行うことができる。 In addition, since it is possible to experience the trajectory of the learning target in other people's movements, it is possible to provide learning support rich in entertainment.
なお、目標動作の表示の手法には、上記内容以外の様々なバリエーションを適用し得る。どのような手法を適用するかは、例えば、目標動作作成部135の計算能力や、目標動作描画部136の描画能力に応じて決定すればよい。または、目標動作作成部135で複数の手法を選択できるようにしておき、ユーザ150の学習レベルやチェックしたい内容に応じて、適用する手法を切り替えるようにしてもよい。
It should be noted that various variations other than the above contents can be applied to the display method of the target action. What method should be applied may be determined according to, for example, the calculation capability of the target
また、計測されたユーザの運動における学習対象の軌道および各位置における所定の物理量から、オブジェクト情報を作成して記憶しておき、このオブジェクト情報の内容を、目標となる運動の基礎情報として用いてもよい。これにより、ユーザは、自分の運動を目標となる運動として他人に提供したり、他人の任意の運動を目標となる運動として取得することができ、コミュニケーション性に富んだ学習支援をも行うことができる。すなわち、ユーザに対し、単なる運動の学習支援以上の幅広い貢献が可能である。 In addition, object information is created and stored from the measured trajectory of the user's movement and predetermined physical quantities at each position, and the contents of this object information are used as basic information of the target movement. Also good. As a result, the user can provide his / her exercise as a target exercise to another person, or can acquire any other person's exercise as a target exercise, and can also provide learning support rich in communicability. it can. In other words, it is possible to make a wide range of contributions to the user beyond simple exercise learning support.
(実施の形態2)
実施の形態2では、学習対象の通過判定結果と、ユーザの運動の習熟度に応じて、オブジェクトの属性を変更する場合について説明する。
(Embodiment 2)
In the second embodiment, a case will be described in which the attribute of an object is changed in accordance with the result of passage determination as a learning target and the user's exercise proficiency.
図14は、本発明の実施の形態2に係る学習支援装置の詳細な構成を示すブロック図であり、実施の形態1の図2に対応するものである。図2と同一部分には同一符号を付し、これについての説明を省略する。 FIG. 14 is a block diagram showing a detailed configuration of the learning support apparatus according to the second embodiment of the present invention, and corresponds to FIG. 2 of the first embodiment. The same parts as those in FIG.
図14に示すように、学習支援装置30は、図2の制御端末130に代えて、制御端末330を有する。
As illustrated in FIG. 14, the
制御端末330は、学習対象の目標動作を取得し、目標動作をヘッドマウントディスプレイ110の対応する位置に表示させる。また、制御端末330は、学習対象の実動作を計測し、目標動作と実動作との比較結果からユーザ150の習熟度を推定し、習熟度に応じて目標動作の表示を変化させる。
The
制御端末330は、図2の目標動作作成部135に代えて目標動作作成部335を有し、更に、習熟度推定部339を有する。
The
目標動作作成部335は、取得したオブジェクト情報131aの記述内容に基づいて、描画情報を作成するための作成計画であるオブジェクト描画計画を作成し、作成した描画情報を目標動作描画部136に出力する。オブジェクト描画計画は、図3に示すオブジェクト情報131aと同様の構成を有するが、HMD座標系242の座標情報でオブジェクト250の位置座標を定義する。
The target
また、目標動作作成部335は、通過判定部138から出力される通過判定情報を習熟度推定部339に出力し、習熟度推定部339からの指示に従って、オブジェクト描画計画を変更する。そして、目標動作作成部335は、変更されたオブジェクト描画計画に基づいて、目標動作の表示を変化させた新たな描画情報を作成する。
The target
図15は、習熟度推定部339に入力される通過判定情報の構成の一例を示す図である。
FIG. 15 is a diagram illustrating an example of the configuration of the passage determination information input to the proficiency
図15に示すように、通過判定情報410は、階層構造を有する。通過判定情報410は、1つまたは複数の部位単位結果411から構成される。各部位単位結果411は、部位名412と、1つまたは複数のオブジェクト単位結果413とから構成される。各オブジェクト単位結果413は、オブジェクト番号414と、失敗数415と、1つまたは複数のずれ説明416とから構成される。各ずれ説明416は、項目名417、ずれ内容418、およびずれ差分419から構成される。
As shown in FIG. 15, the
部位単位結果411は、部位ごとの目標動作と実動作との比較結果を示す。 The part unit result 411 indicates a comparison result between the target action and the actual action for each part.
部位名412は、実施の形態1の図3に示すオブジェクト情報131aにおける部位名201に対応しており、学習対象を示す。オブジェクト単位結果413は、オブジェクトごとの目標動作と実動作との比較結果を示す。オブジェクト番号414は、オブジェクト情報131aにおけるオブジェクト番号202に対応しており、目標動作と実動作との間でなんらかのずれが発生したオブジェクトのオブジェクト番号を示す。失敗数415は、目標動作と実動作との間でずれがあった項目の数を示す。ずれ説明416は、項目ごとのずれの内容を示し、失敗数415に記述された数だけ連続的に記述される。
The
ずれ説明416において、項目名417は、目標動作と実動作との間でずれがあった項目であって、チェックすべき項目を示す。ずれ内容418は、ずれの具体的内容を示す。ずれ差分419は、ずれの大きさを示す。ずれ内容418やずれ差分419に記述される値の単位は、項目名417の種別ごとに予め定められている。
In the deviation explanation 416, the
図14の習熟度推定部339は、入力される通過判定情報410が示す判定結果を蓄積し、蓄積された判定結果から、ユーザ150の習熟度を推定し、習熟度に応じて、目標動作作成部335に対してオブジェクト画像の表示の変更を指示する。具体的には、習熟度推定部339は、習熟度に応じた目標動作の表示の修正についてのポリシを定めた修正ポリシ情報をあらかじめ保持している。
The proficiency
図16は、修正ポリシ情報の内容の一例を示す図である。 FIG. 16 is a diagram illustrating an example of the content of the modified policy information.
図16に示すように、修正ポリシ情報420は、判定結果内容421、および変更依頼内容422から構成される。判定結果内容421には、通過判定情報410のずれ説明416に記述され得る内容が記述される。変更依頼内容422は、判定結果内容421に記述された内容に、通過判定情報410のずれ説明416に記述される内容が当てはまるときに、目標動作作成部335に対して依頼すべき目標動作の表示の変更の内容が記述される。
As shown in FIG. 16, the modified
例えば、「ずれ内容:内側」という判定結果内容421に対して、「色:内側の色を濃く、大きさ:内側に拡大」という変更依頼内容422が記述されている。これは、通過判定情報410のずれ内容418に、実軌道が目標軌道の内側にずれている旨が記述されている場合には、オブジェクト250に対して、内側の色を濃くするとともに大きさを内側に拡大させる変化を与えるべきであることを示す。これにより、ユーザ150は、オブジェクトのグラデーションから、実軌道の修正すべき方向を直感的に捉えることができる。
For example, a
また、「ずれ内容:内側または外側、かつ、ずれ差分:所定の閾値より大」という判定結果内容421に対して、「軌道を実軌道側に修正」という変更依頼内容421が記述されている。これは、通過判定情報410において、ずれ内容418に、実起動が目標方法軌道の内側または外側にずれている旨が記述されており、かつ、ずれ差分419に記述された値が所定の閾値よりも大きい場合には、オブジェクト250に対して、目標軌道を実軌道側に移動させる変化を与えるべきであることを示す。これにより、ユーザ150は、より到達し易い目標軌道を用いて学習を行うことができ、最終的な目標動作を段階的に学習することができる。
In addition, a
図14に示す習熟度推定部339は、一連の実動作について計測が完了するごとに、ユーザ150の習熟度を推定して適宜オブジェクト画像232の表示の変更を依頼する習熟度推定処理を実行する。
The proficiency
習熟度推定処理において、習熟度推定部339は、習熟度が低いと推定した場合には、修正ポリシ情報420に従って、オブジェクト画像232の表示の変更の具体的内容を記述した変更依頼情報を作成し、作成した変更依頼情報を、目標動作作成部335に出力する。
In the proficiency level estimation process, when the proficiency
なお、修正ポリシ情報420には、例えば、描画対象とするオブジェクト250の数の増加、輝度やグラデーションの変更といったオブジェクト250の属性の変更など、各種の変更依頼内容を記述できる。
The
図17は、習熟度推定部339が作成する変更依頼情報の構成の一例を示す図である。
FIG. 17 is a diagram illustrating an example of a configuration of change request information created by the proficiency
図17に示すように、変更依頼情報430は、階層構造を有する。変更依頼情報430は、1つまたは複数の部位単位変更依頼431から構成される。各部位単位変更依頼431は、部位名432と、1つまたはオブジェクト単位変更依頼433とから構成される。各オブジェクト単位変更依頼433は、オブジェクト番号434と、変更依頼数435と、1つまたは複数の変更説明436から構成される。各変更説明436は、項目名437、および変更内容438から構成される。
As shown in FIG. 17, the
各部位単位変更依頼情報431は、部位ごとの目標動作の変更依頼内容を示す。 Each part unit change request information 431 indicates a change request content of a target action for each part.
部位名432は、実施の形態1の図3に示すオブジェクト情報131aにおける部位名201に対応しており、変更の対象を示す。オブジェクト単位変更依頼433は、オブジェクトごとの変更内容を示す。オブジェクト番号434は、オブジェクト情報131aにおけるオブジェクト番号202に対応しており、変更の対象となるオブジェクトのオブジェクト番号を示す。変更依頼数435は、変更を依頼する項目の数を示す。変更説明436は、項目ごとの変更を依頼する内容を示し、変更依頼数435に記述された数だけ連続的に記述される。
The
変更説明436において、項目名437は、変更を依頼する項目を示す。変更内容438は、変更の具体的内容を示す。変更内容438に記述される値の単位は、項目名437の種別ごとに予め定められている。
In the change description 436, an
以下、習熟度推定部339で実行される習熟度推定処理について、詳細に説明する。
Hereinafter, the proficiency level estimation process executed by the proficiency
図18は、習熟度推定部339が実行する習熟度推定処理の流れを示すフローチャートである。習熟度推定部339は、例えば、実施の形態1の図8のステップS2000の直前に、以下に説明する習熟度推定処理を実行する。
FIG. 18 is a flowchart showing a flow of proficiency level estimation processing executed by the proficiency
まず、ステップS1910で、習熟度推定部339は、目標動作作成部335を介して、通過判定部138から、図15に示す通過判定情報410を入力する。
First, in step S1910, the proficiency
図19は、通過判定情報410の内容の具体例を示す図であり、図15に対応するものである。
FIG. 19 is a diagram showing a specific example of the contents of the
図19に示すように、通過判定情報410aには、「クラブ」という部位名412a、「Am」というオブジェクト番号414a、「2」という失敗数415a、「位置」という項目名417a−1に対応付けられた「内側」というずれ内容418a−1および「a」というずれ差分419a−1、「加速度」という項目名417a−2に対応付けられた「遅い」というずれ内容418a−2および「b」というずれ差分419a−2が記述されている。これは、クラブヘッド160が学習対象であり、オブジェクト番号Amにおいて、位置が内側にaだけずれたという失敗と、加速度がbだけ遅いという失敗があったということを示す。
As shown in FIG. 19, the
そして、図18に示すステップS1920で、習熟度推定部339は、入力された通過判定情報410が示す判定結果を、使用可能な最大メモリ容量の範囲内で蓄積する。または、習熟度推定部339は、予め定められた数の通過判定情報410に対応する判定結果を、新しい情報を優先させて蓄積する。
Then, in step S1920 shown in FIG. 18, the proficiency
そして、ステップS1930で、習熟度推定部339は、蓄積された判定結果から、学習対象の実動作が学習対象の目標動作を通過した確率(以下「通過確率」という)を算出する。
In step S1930, the proficiency
ここで、目標動作の通過とは、学習対象の通過の成功のみならず、学習対象の姿勢が正しいこと、学習対象の加速度が適正であることなど、目標動作を構成する各種要素ごとの目標動作に対する一致を含むものとする。 Here, the passage of the target motion is not only the success of the learning target, but also the target motion for each element that constitutes the target motion, such as that the posture of the learning target is correct and the acceleration of the learning target is appropriate. Including a match for.
また、通過確率とは、ユーザが正しくなぞれたかを判断するための指標である。通過確率としては、過去数回分の判定結果の数に対する通過の数の比を採用してもよいし、直前の試行結果のみならず、過去何回かにおける失敗の頻度や傾向などランダム性をふまえた分析結果を採用してもよい。 The passing probability is an index for determining whether the user has traced correctly. As the pass probability, the ratio of the number of passes to the number of judgment results for the past several times may be adopted, and not only the previous trial result but also the randomness such as the frequency and tendency of failure in the past several times The analysis results may be adopted.
そして、ステップS1940で、習熟度推定部339は、各オブジェクト250について、算出した通過確率が所定の閾値以上であるか否かを判断する。具体的には、例えば、習熟度推定部339は、過去10回分の判定結果において5回以上失敗し、かつ3回以上連続して失敗しているという条件を閾値とした場合、各オブジェクト250について、過去10回分の判定結果から失敗数と連続失敗数の最大値を通過確率として算出し、算出結果と閾値とを比較する。習熟度推定部339は、通過確率が所定の閾値以上であるオブジェクト250については(S1940:YES)、該当するオブジェクトをユーザ150が苦手なポイントと判断して、ステップS1950に進む。一方、習熟度推定部339は、通過確率が所定の閾値未満であるオブジェクト250については(S1940:NO)、該当するオブジェクトをユーザ150が苦手なポイントではないと判断して、ステップS1950には進まずに、そのまま図8のステップS2000の処理に戻る。
In step S1940, the proficiency
ステップS1950で、習熟度推定部339は、目標動作作成部335に対してオブジェクト描画計画の変更を依頼し、図8のステップS2000の処理に戻る。具体的には、習熟度推定部339は、図16に示す修正ポリシ情報420を参照して、ユーザ150が苦手なポイントであると判断されたオブジェクト250に対して施すべき修正内容を取得する。そして、各オブジェクト250について取得した修正内容から、図17に示す変更依頼情報430を作成し、作成した変更依頼情報430を目標動作作成部335に出力する。
In step S1950, the proficiency
図20は、図19に示す通過判定情報410aから作成される変更依頼情報430の内容の具体例を示す図である。
FIG. 20 is a diagram showing a specific example of the contents of the
通過判定情報410aに記述されたずれ差分aは小さいものとする。この場合、図16に示す修正ポリシ情報420において、通過判定情報410aの内容に合致する判定結果内容421は、「ずれ内容:内側」であり、対応する変更依頼内容422は、「色:内側の色を濃く、大きさ:内側に拡大」である。
It is assumed that the deviation difference a described in the
したがって、図20に示すように、変更依頼情報430aには、「クラブ」という部位名432a、「Am」というオブジェクト番号434a、「2」という変更依頼数435a、「色」という項目名437a−1に対応付けられた「内側の色を濃く」という変更内容438a−1、「大きさ」という項目名437a−2に対応付けられた「内側に拡大」という変更内容438a−2が記述される。これは、クラブヘッド160のオブジェクト番号Amのオブジェクト250に対して、内側の色を濃くするとともに、大きさを内側に拡大させる変化を与えることを依頼するものである。
Accordingly, as shown in FIG. 20, the
変更依頼情報430を受け取った目標動作作成部335は、その内容に従って、オブジェクト描画計画の内容を更新する。例えば、図19に示す通過判定情報410aを受け取った場合、目標動作作成部335は、現状のオブジェクト描画計画のうち、クラブヘッド160のオブジェクト番号Amのオブジェクト250に対して、内側の色を濃くし、大きさを内側に拡大させる変化を与える。そして、更新後のオブジェクト描画計画に基づいて描画情報を作成し、作成した描画情報を目標動作描画部136に出力する。
The target
以上の習熟度推定処理の結果、図8のステップS2000では、ユーザ150の習熟度および目標動作に対する実動作のずれの内容に応じて、属性が変化した目標動作が表示される。
As a result of the proficiency level estimation process described above, in step S2000 of FIG. 8, the target action whose attribute has changed is displayed according to the proficiency level of the
このように、本実施の形態によれば、蓄積したユーザの試行結果から、ユーザの習熟度を推定し、習熟度に応じて、目標動作の表示を変更する。これにより、ユーザが苦手とするポイントの学習を補強することができる。 Thus, according to the present embodiment, the user's proficiency level is estimated from the accumulated trial results of the user, and the display of the target action is changed according to the proficiency level. Thereby, learning of the point which a user is not good at can be reinforced.
同じことの繰り返しや、できないことの繰り返しによる練習は、ユーザにとって飽きやすい。したがって、このような習熟度を考慮した変化のある繰り返しは、ユーザの練習意欲を増進させることができ、運動の上達に効果的である。また、ユーザは、描画された目標動作を見るだけで苦手な部分とそれ以外の部分とを明確に区別して認識することができる。これにより、ユーザに対して高い課題意識を持たせることができるだけでなく、ユーザにアドバイスを行う第三者に対してユーザの動作の特徴の把握を容易ならしめる。更に、例えば、前回の練習から長時間が経過した後の練習では、前回の練習で会得した技術は、ユーザにとって曖昧な記憶となるが、本実施の形態の学習支援装置30を用いることにより、未習熟のポイントをより正確に認識できるため、ユーザが会得した技術の再現性を向上させることができる。
It is easy for users to get tired of practicing by repeating the same things or not doing things. Therefore, the repetition with the change in consideration of the proficiency level can increase the user's willingness to practice and is effective in improving the exercise. In addition, the user can clearly distinguish and recognize the weak part and the other part only by looking at the drawn target action. As a result, not only can the user have high awareness of the problem, but also the third party who gives advice to the user can easily grasp the characteristics of the user's operation. Furthermore, for example, in the practice after a long time has passed since the previous practice, the technology acquired in the previous practice is an ambiguous memory for the user, but by using the
(実施の形態3)
実施の形態3では、複数の部位の運動を、これら複数の部位の関連性と併せて表示させる場合について説明する。
(Embodiment 3)
In the third embodiment, a case will be described in which the motions of a plurality of parts are displayed together with the relevance of the plurality of parts.
目標動作は、複数の部位がバランスよく連動していることが多い。つまり、部位間の位置関係、動き出すタイミングなどに狂いが生じると目的の動作を実現することが困難になる。そこで、本実施の形態に係る学習支援装置では、学習対象の動作のみならず、複数の学習対象の間の位置関係および動き出すタイミング(以下単に「関連性」という)を表示する。 In many cases, the target motion is linked in a balanced manner. In other words, if the positional relationship between the parts, the timing to start moving, or the like is out of order, it becomes difficult to realize the target operation. Therefore, in the learning support apparatus according to the present embodiment, not only the operation of the learning object but also the positional relationship between the plurality of learning objects and the timing of starting movement (hereinafter simply referred to as “relevance”) are displayed.
図21は、本発明の実施の形態3に係る学習支援装置の詳細な構成を示すブロック図であり、実施の形態1の図2に対応するものである。図2と同一部分には同一符号を付し、これについての説明を省略する。 FIG. 21 is a block diagram showing a detailed configuration of the learning support apparatus according to the third embodiment of the present invention, and corresponds to FIG. 2 of the first embodiment. The same parts as those in FIG.
図21に示すように、学習支援装置50は、図2の制御端末130に代えて、制御端末530を有する。制御端末530は、図2の目標動作作成部135および通過判定部138に代えて、関連性判定部539を備えた目標動作作成部535と、通過判定部538とを有する。また、本実施の形態の制御端末530における目標動作情報格納部131は、目標動作における複数のタイミングについて、どのタイミングに各オブジェクト情報131aに定義されたどのオブジェクトが関連するかを記述したオブジェクト関連情報131bを、更に格納している。
As illustrated in FIG. 21, the
図22は、オブジェクト関連情報131bの内容の一例を示す図である。
FIG. 22 is a diagram illustrating an example of the contents of the object related
図22に示すように、オブジェクト関連情報131bは、「手、足、クラブ、腰、・・・」という部位名441のそれぞれに対応付けて、「t1、t2、t3、・・・、tn」という複数のタイミング442ごとに、オブジェクト番号が記述されている。部位名441は、図3に示すオブジェクト情報131aの部位名201に対応している。タイミング442の数は、オブジェクト情報131aに定義されたオブジェクトの数に対応している。記述されているオブジェクと番号は、オブジェクト情報131aのオブジェクト番号202に対応している。
As shown in FIG. 22, the object related
同一のタイミング442に対応して記述された複数のオブジェクト番号は、該当するオブジェクト250のそれぞれが示す部位の動作が連動していることを示す。例えば、図22に示すように、「t1」というタイミングに対応して、「クラブ」という部位名441の「A1」というオブジェクト番号と、「手」という部位名441の「C1」というオブジェクト番号とが記述されている。これは、オブジェクト番号A1のオブジェクトが示すクラブヘッド160の動作と、オブジェクト番号C1のオブジェクトが示す手の動作とが、目標動作において同一のタイミングに実現される連動した動作であるということを示す。
A plurality of object numbers described corresponding to the
このような同一のタイミングで連動しているオブジェクトの組または連動しているオブジェクトのオブジェクト番号の組を、以下、「連動オブジェクト組」という。また、例えば、オブジェクト番号A1、B2、C1の各オブジェクトが連動オブジェクト組である場合に、適宜、(A1、B1、C1)と表記する。 Such a set of objects linked at the same timing or a set of object numbers of linked objects is hereinafter referred to as a “linked object set”. Further, for example, when each object of the object numbers A1, B2, and C1 is a linked object set, it is appropriately expressed as (A1, B1, C1).
図21の制御端末530は、学習対象の目標動作を取得し、目標動作をヘッドマウントディスプレイ110の対応する位置に表示させる。また、制御端末530は、複数の部位が学習対象として選択されているときには、各々の学習対象の動作およびこれらの関連性を表示させる。
The
目標動作作成部535は、取得したオブジェクト情報131aの記述内容に従って描画情報を作成し、作成した描画情報を目標動作描画部136に出力する。また、目標動作作成部535は、複数の部位が学習対象として選択されたときには、関連性判定部539を用いて、複数の学習対象の関連性を判定する。具体的には、関連性判定部539において、目標動作情報格納部131のオブジェクト関連情報131bに基づいて複数の学習対象の関連性を判定し、連動オブジェクト組を出力する、関連性判定処理を実行する。そして、目標動作作成部535は、判定した関連性を示す新たなオブジェクト(以下「関連性オブジェクト」という)を追加した描画情報を作成する。
The target
また、目標動作作成部535は、複数の部位が学習対象として選択されたときには、対応する複数のオブジェクト情報131aと、連動オブジェクト組とを、通過判定部538に出力する。
Further, when a plurality of parts are selected as learning targets, the target
通過判定部538は、運動情報取得部137を介して取得した実動作と、オブジェクト情報131aに定義された学習対象の目標動作とを比較解析して、通過判定情報を作成し、作成した通過判定情報を目標動作作成部135に出力する。また、通過判定部538は、複数のオブジェクト情報131aと連動オブジェクト組とを目標動作作成部135から受け取った場合には、複数の学習対象の動作の関係性を考慮して実動作と目標動作との比較解析を行う。
The
以下、関連性判定部539で実行される関連性判定処理について、詳細に説明する。
Hereinafter, the relevance determination process executed by the
図23は、関連性判定部539が実行する関連性判定処理の流れを示すフローチャートである。例えば、実施の形態1の図8のステップS1100で、図4に示す制御パネル210において「手」および「クラブ」という2つの部位が学習対象として選択された場合、目標動作作成部535は、対応する2つのオブジェクト情報131aを取得する。このように、目標動作作成部535で複数のオブジェクト情報131aが所得された場合に、関連性判定部539は、例えば、図8のステップS1200の直後に、以下に説明する関連性判定処理を実行する。
FIG. 23 is a flowchart showing the flow of relevance determination processing executed by the
まず、ステップS1210で、関連性判定部539は、複数のオブジェクト情報131aから1つを選択し、選択したオブジェクト情報131aから全てのオブジェクト番号202を抽出する。
First, in step S1210, the
そして、ステップS1220で、関連性判定部539は、オブジェクト関連情報131bを参照し、ステップS1210で抽出した個々のオブジェクト番号202について、同一のタイミング442に対応付けられた他の部位のオブジェクト番号を抽出する。そして、関連性判定部539は、オブジェクト番号202とこれに対応して抽出された他の部位のオブジェクト番号とを、連動オブジェクト組に設定する。
In step S1220, the
そして、ステップS1230で、関連性判定部539は、ステップS1220で設定された連動オブジェクト組を目標動作作成部535に出力して、図8のステップS1300の処理に戻る。
In step S1230, the
目標動作作成部535は、図8のステップS1300で、図8のステップS1100で取得した複数のオブジェクト情報131aと、関連性判定部539から出力された連動オブジェクト組とを、通過判定部538に出力する。通過判定部538の処理については後述する。
In step S1300 in FIG. 8, the target
また、目標動作作成部535は、連動オブジェクト組を構成する複数のオブジェクトのそれぞれについて、描画対象計算を実施する。また、関連性判定部539から出力される連動オブジェクト組のうち、オブジェクトの全てが描画対象となっているものを、関連性オブジェクトの描画の対象として決定する。
In addition, the target
例えば、あるタイミングで、描画面230の内部に属するオブジェクト250のオブジェクト番号が、「クラブ」という部位名441に関してはオブジェクト番号A2、A3であり、「手」という部位名441に関してオブジェクト番号C1、C2、C3であったとする。この場合、連動オブジェクト組(A2、C2)、(A3、C3)は、全て描画対象として揃っているが、連動オブジェクト組(A1、C1)は、全て描画対象として揃っていない。したがって、目標動作作成部535は、連動オブジェクト組(A2、C2)、(A3、C3)を関連性オブジェクトの描画対象として決定する。
For example, at a certain timing, the object numbers of the
そして、目標動作作成部535は、描画対象に決定されたオブジェクトおよび関連性オブジェクトを描画するための描画情報を作成し、目標動作描画部136に出力する。
Then, the target
図24は、目標動作作成部535で作成される描画情報のうち、描画対象を示すデータ部分である描画対象データの内容の一例を示す図である。ここでは、関連性オブジェクトとして、オブジェクトを結ぶ線が使用される場合を例示している。
FIG. 24 is a diagram illustrating an example of the contents of drawing target data, which is a data portion indicating a drawing target, of the drawing information generated by the target
図24に示すように描画対象データ450には、描画対象となるオブジェクトの、オブジェクト番号、位置座標、大きさ、および色が記述されている。オブジェクトに関して記述される情報は、元のオブジェクト情報131aの記述内容に対応している。また、描画対象データ450には、関連性オブジェクトに関する情報が記述されている。
As shown in FIG. 24, the drawing
ここでは、描画対象のオブジェクト250のオブジェクト番号がA2、A3、C1、C2、およびC3である場合を図示している。この場合、上述したように、関連性オブジェクトの描画対象となるのは、連動オブジェクト組(A2、C2)、(A3、C3)である。したがって、描画対象データ450には、関連性オブジェクトとして、連動オブジェクト組(A2、C2)、(A3、C3)を結ぶ線を描画する旨が記述されている。
Here, a case where the object numbers of the
なお、目標動作作成部535は、オブジェクト情報131aの記述内容にそのまま従うのではなく、学習対象ごとに異なる色を割り当てるなど、オブジェクトの種類ごとにシンボルが異なるような描画対象データ450を作成してもよい。
Note that the target
図25は、図24に示す描画対象データ450に基づいて描画が行われたときの描画面230の様子の一例を示す図である。
FIG. 25 is a diagram illustrating an example of a state of the
図25に示すように、描画面230には、オブジェクト番号A2、A3、C1、C2、C3に対応するオブジェクト画像232が描画される。また、描画面230には、連動オブジェクト組(A2、C2)、(A3、C3)をそれぞれ結ぶ線460−2、460−3が、関連性オブジェクトの画像として描画される。
As shown in FIG. 25, the
このような関連性オブジェクトの画像を表示した描画面230を見ながら練習することにより、ユーザは、複数の部位の関連性を確認しながら個々の部位の動作を学習することができる。
By practicing while looking at the
なお、一部のオブジェクト250のみが描画面230内に存在している連動オブジェクト組に対しても、関連性オブジェクトの画像を描画するようにしてもよい。この場合には、全てのオブジェクトについて連動オブジェクト組の設定を行った後に、描画対象となるオブジェクトの取捨選択を行うとともに、設定された連動オブジェクトの画像から描画面の内部に位置する部分のみを抜き出して描画対象とするようにすればよい。
Note that an image of a related object may be drawn even for a linked object set in which only some
図26は、一部のオブジェクト250のみが描画面230内に存在している連動オブジェクト組に対しても関連性オブジェクトの画像を描画した場合の描画面230の様子の一例を示す図であり、図25に対応するものである。
FIG. 26 is a diagram illustrating an example of a state of the
図26に示すように、線460−2、460−3だけでなく、一方のオブジェクト250が描画面230の外部に位置する連動オブジェクト組(A1、C1)を結ぶ線460−1も、外部に位置するオブジェクト250の存在する方向に向かう形で描画される。
As shown in FIG. 26, not only the lines 460-2 and 460-3 but also the line 460-1 that connects the linked object set (A 1, C 1) where one
次に、通過判定以降の動作について説明する。 Next, operations after the passage determination will be described.
通過判定部538は、図8のステップS1600で、各実施の形態1と同様の通過判定を行う。また、通過判定部538は、複数のオブジェクト情報131aと連動オブジェクト組とを目標動作作成部135から受け取った場合には、連動オブジェクト組のそれぞれについて、オブジェクト250の位置を一番早く通過した部位と、その後に通過した部位との時間差を記録した時間差情報を作成する。そして、通過判定部538は、作成した時間差情報を、目標動作作成部635に出力する。
The
目標動作作成部635は、時間差情報を受け取ると、それぞれの連動オブジェクト組について、最も早く実軌道が通過したオブジェクト250を始点とし、他のオブジェクト250を終点とした矢印を、追加で描画する描画情報を作成する。そして、目標動作作成部635は、既に目標動作描画部136に渡した描画情報を、矢印を追加した描画情報で差し替え、新たな描画情報に基づいた画像を描画面230に描画させる。
Upon receiving the time difference information, the target
なお、目標動作作成部635は、矢印の太さで時間差の大きさを表現するような描画情報を作成してもよい。これにより、複数の学習対象の動作の関係性を含めた実動作と目標動作との比較結果が、描画面230に表示される。
The target
図27は、複数の学習対象の動作の関係性を含めた実動作と目標動作との比較結果が描画されたときの描画面230の様子の一例を示す図であり、図25に対応するものである。
FIG. 27 is a diagram illustrating an example of the state of the
ここでは、オブジェクト番号A2、A3についての実軌道の通過時刻が遅れており、かつ、オブジェクト番号A2の遅れが大きい場合を例示している。この場合、図27に示すように、オブジェクト番号C2のオブジェクト画像232からオブジェクト番号A2のオブジェクト画像232に向けて太い矢印461−2が描画され、オブジェクト番号C3のオブジェクト画像232からオブジェクト番号A3のオブジェクト画像232に向けて細い矢印461−3が描画される。これは、「手がクラブより先に動き、その差が縮まった」ということを示す。ユーザ150は、このような複数の学習対象の動作の関係性を含めた比較結果を見ることによって、目標動作における複数部位の連動のバランスと実動作における複数部位の連動のバランスとの差を直感的に捉えることができる。
Here, the case where the actual trajectory passage times for object numbers A2 and A3 are delayed and the delay of object number A2 is large is illustrated. In this case, as shown in FIG. 27, a thick arrow 461-2 is drawn from the
このように、本実施の形態によれば、目標動作における複数の部位の関連性を表示するので、ユーザの運動時の部位間のずれに対する直感な理解を促すことができ、複数部位間のバランスを考慮した効果的な学習を実現できる。したがって、初心者や初級者は、体全体の使い方を効率的に学習できる。また、熟練者も、複数部位の連動のバランスが崩れていることにより技術の向上が停滞しているような場合に、原因を特定することができ、更なる技術の向上を図ることができる。 As described above, according to the present embodiment, since the relevance of a plurality of parts in the target motion is displayed, it is possible to promote an intuitive understanding of the deviation between the parts during the exercise of the user, and the balance between the plurality of parts. Effective learning can be realized. Therefore, beginners and beginners can efficiently learn how to use the entire body. Moreover, the expert can also identify the cause when the improvement of the technology is stagnant due to the imbalance of the interlocking of the plurality of parts, and can further improve the technology.
なお、通過判定の際、実動作と目標動作との比較の基準となる学習対象を設定し、基準に設定された学習対象以外の学習対象については、どの時点の位置をどのオブジェクトと比較すべきかの判断を、基準に設定された学習対象を基準にして決定するようにしてもよい。 In addition, at the time of passage determination, a learning target is set as a reference for comparison between the actual action and the target action, and for a learning target other than the learning target set as the reference, which point should be compared with which object This determination may be made with reference to the learning target set as the reference.
具体的には、例えば、通過判定部は、学習対象に予め優先順位を設定しておき、受け取った複数のオブジェクト情報が対応する学習対象の中で最も優先順位の高いものを、上記比較の基準に設定する。そして、通過判定部は、基準に設定された学習対象のオブジェクト情報については、実施の形態1と同様の比較解析を行い、一方、他のオブジェクト情報については、基準に設定された学習対象の実動作の各計測時刻と、それぞれの実動作について比較の対象となったオブジェクトが対応する各タイミングとの間で、実動作と目標動作との比較を行うようにすればよい。 Specifically, for example, the passage determination unit sets a priority in advance for the learning target, and determines the highest priority among the learning targets corresponding to the plurality of received object information. Set to. Then, the passage determination unit performs a comparative analysis similar to that of the first embodiment for the learning target object information set as the reference, while the other object information is the actual learning target set as the reference. The actual motion and the target motion may be compared between each measurement time of the motion and each timing corresponding to the object that is the comparison target for each actual motion.
また、連動オブジェクト組は、3つ以上のオブジェクトから構成されてもよいことはもちろんである。また、オブジェクトそのものを線や棒状の形状とし、1つのオブジェクトに複数のポイントを設定して、複数の部位の関連性を単一のオブジェクトで表現し、それぞれのポイントについて実動作との比較を行うようにしてもよい。 Of course, the interlocking object set may be composed of three or more objects. In addition, the object itself is formed in a line or bar shape, a plurality of points are set for one object, the relationship between a plurality of parts is expressed by a single object, and each point is compared with the actual operation. You may do it.
(実施の形態4)
実施の形態4では、描画面に描画する情報量を状況に応じて最適化する場合について説明する。
(Embodiment 4)
In the fourth embodiment, a case where the amount of information drawn on the drawing surface is optimized according to the situation will be described.
例えば、目標動作をなぞるスピードが速くなったユーザ150にとっては、オブジェクト画像232や比較結果が表示するまでの時間が遅く感じられる場合がある。このような場合、描画面230に描画する情報量を低減することで、処理負荷を軽減し、オブジェクト画像232や比較結果が表示するまでの時間を短縮することができる。そこで、本実施の形態に係る学習支援装置では、オブジェクト情報131aに定義されたオブジェクト250の一部を描画対象から除外して、描画面に描画する情報量を最適化する。
For example, for the
図28は、本発明の実施の形態4に係る学習支援装置の詳細な構成を示すブロック図であり、実施の形態3の図21に対応するものである。図21と同一部分には同一符号を付し、これについての説明を省略する。 FIG. 28 is a block diagram showing a detailed configuration of the learning support apparatus according to the fourth embodiment of the present invention, and corresponds to FIG. 21 of the third embodiment. The same parts as those in FIG. 21 are denoted by the same reference numerals, and description thereof will be omitted.
図28に示すように、学習支援装置60は、図21の制御端末530に代えて、制御端末630を有する。制御端末630は、図21の目標動作作成部535および通過判定部538に代えて、目標動作作成部635と、関連性判定部539を備えた通過判定部638とを有し、更に、情報量制御部639を有する。
As illustrated in FIG. 28, the
目標動作作成部635は、取得したオブジェクト情報131aの記述内容に従って、どの位置にどのようなオブジェクトを配置するかを規定するオブジェクト配置計画を作成し、作成したオブジェクト配置計画を情報量制御部639に出力する。そして、目標動作作成部635は、情報量制御部639から描画許可を受け取った場合には、作成したオブジェクト配置計画に沿ってそのまま描画情報を作成し、作成した描画情報を目標動作描画部136に出力する。一方、情報量制御部639からオブジェクト配置計画の修正を命令するオブジェクト配置計画修正命令を受け取った場合には、目標動作作成部635は、オブジェクト配置計画の内容を修正し、修正後のオブジェクト配置計画に基づいて描画情報を作成する。また目標動作作成部635は、受け取ったオブジェクト配置計画修正命令を、通過判定部638に出力する。
The target
図29は、オブジェクト配置計画の内容の一例を示す図である。 FIG. 29 is a diagram illustrating an example of the contents of the object arrangement plan.
図29に示すように、オブジェクト配置計画470は、部位名471、オブジェクト番号472、ポイント重要度473、位置座標474、大きさ475、その他情報476、およびタイミング477により構成される。部位名471、オブジェクト番号472、ポイント重要度473、位置座標474、大きさ475、およびその他情報476は、それぞれ、図3に示すオブジェクト情報131aの、部位名201、オブジェクト番号202、ポイント重要度205、位置座標206、大きさ207、およびその他情報209にそれぞれ対応している。ただし、オブジェクト配置計画470の位置座標474には、HMD座標系242の座標情報が記述される。また、タイミング477は、図22に示すオブジェクト関連情報131bのタイミング442に対応している。
As shown in FIG. 29, the
ここでは、「手」、「足」、「クラブ」という3つの部位が学習対象として選択されており、あるタイミングにおける描画対象の取捨選択が完了している場合の例を図示している。また、説明の便宜上、後述するオブジェクト配置計画修正命令の対象外となる情報には下線を付している。 Here, an example is shown in which three parts of “hand”, “foot”, and “club” are selected as learning objects, and drawing object selection at a certain timing is completed. For convenience of explanation, information that is not subject to an object arrangement plan correction instruction to be described later is underlined.
情報量制御部639は、情報量を低減するための方針を定めた制御指示書を予め格納する。情報量制御部639は、目標動作作成部635からオブジェクト配置計画を受け取ると、オブジェクト配置計画修正命令を適宜作成して情報量の最適化を行う情報量最適化処理を実行する。
The information
具体的には、情報量制御部639は、ユーザに提示される情報の情報量を示す値(以下単に「情報量」)を算出する。そして、情報量制御部639は、算出した情報量が所定の閾値以下である場合には、目標動作作成部635に描画許可を出力する。一方、算出した情報量が所定の閾値を超える場合には、情報量制御部639は、制御指示書に従ってオブジェクト配置計画修正命令を作成し、作成したオブジェクト配置計画修正命令を目標動作作成部635に出力する。情報量最適化処理の詳細については後述する。
Specifically, the information
図30は、情報量制御部639が格納する制御指示書の内容の一例を示す図である。
FIG. 30 is a diagram illustrating an example of the content of a control instruction stored in the information
図30に示すように、制御指示書480には、情報量を減らすためにオブジェクト配置計画470に施すべき修正の方針が記述されている。ここでは、例えば、「1:一般オブジェクトを削除/ただし、ポイントオブジェクトの間に複数ある場合には、間引く」と記述されている。これは、原則として一般オブジェクトを削除し、オブジェクト番号472が示す順序においてポイントオブジェクトの間に複数の一般オブジェクトがある場合には、複数の一般オブジェクトのうち一部を削除するという方針を示す。また、「2:周辺部のオブジェクトを削除」と記述されている。これは、描画面230を中央付近とその周辺部とに区分したときに、周辺部に位置するオブジェクトを削除するという方針を示す。
As shown in FIG. 30, the
図28の通過判定部638は、運動情報取得部137を介して取得した実動作と、オブジェクト情報131aに定義された学習対象の目標動作とを比較解析して、通過判定情報を作成し、作成した通過判定情報を目標動作作成部135に出力する。また、通過判定部638、複数のオブジェクト情報131aを目標動作作成部135から受け取った場合には、関連性判定部538を用いて連動オブジェクト組を取得し、複数の学習対象の動作の関係性を考慮して実動作と目標動作との比較解析を行う。また、目標動作作成部635からオブジェクト配置計画修正命令を受け取った場合には、オブジェクト配置計画修正命令の内容に従って、実動作と目標動作との比較解析の対象となるオブジェクト250を削減する。
The
以下、情報量制御部639で実行される情報量最適化処理について、詳細に説明する。
Hereinafter, the information amount optimization process executed by the information
図31は、情報量制御部639が実行する情報量最適化処理の流れを示すフローチャートである。情報量制御部639は、例えば、図8のステップS1300の直後に、目標動作作成部635からオブジェクト配置計画470を受け取った場合、以下に説明する情報量最適化処理を実行する。
FIG. 31 is a flowchart showing a flow of information amount optimization processing executed by the information
まず、ステップS1310で、情報量制御部639は、受け取ったオブジェクト配置計画470からそのまま描画情報を作成した場合の情報量を算出する。ただし、後述する処理によってオブジェクト配置計画命令を既に作成している場合には、情報量制御部639は、作成したオブジェクト配置計画修正命令に従って描画情報を作成した場合の情報量を算出する。
First, in step S1310, the information
情報量の定義の仕方や算出手法は、各種の定義および算出手法を採用できる。例えば、情報量は、ユーザ150の視界内の、オブジェクト画像232の総数や、視界にほぼ一致するとみなすことができる描画面230に対するオブジェクト画像232が占める面積比、オブジェクト画像232が集積する密度とすればよい。また、視界の中央付近に配置された画像を注視する傾向があるという人間の特性を考慮して、描画面230の中央付近により高い重み付けを行って、上記面積比や密度を算出し、算出結果を情報量として採用してもよい。
Various definitions and calculation methods can be adopted as the definition method and calculation method of the information amount. For example, the amount of information may be the total number of
ここでは、全ての学習対象について重要度ごとのオブジェクト画像232の面積が共通であるものとし、一般オブジェクト250の表示面積を示す点数が「1」、ポイントオブジェクト250の表示面積を示す点数が「3」、関連性オブジェクトの表示面積を示す点数が「2」であるものとする。また、描画面230上の中央付近の所定の範囲に位置する場合の重み係数を「3」とし、その他の範囲に位置する場合の重み係数を「1」とする。情報量制御部639は、このようなオブジェクトに対する点数の設定と重み付けとにより、描画面230の状態を簡易モデル化して、情報量を算出する。
Here, it is assumed that the area of the
具体的には、k個目のオブジェクトの点数をPk、位置に対応する重み係数をWkと置くと、オブジェクト配置計画470に規定された、関連オブジェクトを含むオブジェクトの個数がm個のとき、情報量制御部639は、例えば以下の式(4)を用いて情報量Qを算出する。
Specifically, when the number of points of the kth object is Pk and the weighting coefficient corresponding to the position is Wk, the number of objects including related objects specified in the
そして、ステップS1320で、情報量制御部639は、ステップS1330で算出した情報量が、所定の閾値を超えるか否かを判断する。所定の閾値は、ユーザ150のレベルに応じて複数用意されていることが望ましい。この場合、情報量制御部639は、制御パネル210を介してレベルの入力を受け付け、入力されたレベルに対応する閾値を使用すればよい。情報量制御部639は、算出した情報量が所定の閾値を超えている場合には(S1320:YES)、ステップS1330に進む。
In step S1320, the information
ステップS1330で、情報量制御部639は、図30に示す制御指示書480に従い、オブジェクト配置計画修正命令を作成し、既にオブジェクト配置計画修正命令を作成している場合には、削除対象となるオブジェクトを指定する情報を追加する。そして、情報量制御部639は、ステップS1310に戻り、オブジェクト配置計画修正命令について情報量を算出する。ステップS1310〜S1330の処理は、情報量が所定の閾値以下となるまで繰り返される。これにより、オブジェクト配置計画修正命令は、最終的に、情報量を所定の閾値以下に制御する内容となる。
In step S1330, the information
算出した情報量が所定の閾値以下となった場合、または元のオブジェクト配置計画470で情報量が所定の閾値以下であった場合には(S1320:NO)、ステップS1340に進む。 When the calculated information amount is equal to or smaller than the predetermined threshold value, or when the information amount is equal to or smaller than the predetermined threshold value in the original object arrangement plan 470 (S1320: NO), the process proceeds to step S1340.
ステップS1340で、情報量制御部639は、オブジェクト配置計画修正命令が作成された場合には、オブジェクト配置計画修正命令を目標動作作成部635に出力し、オブジェクト配置計画修正命令が作成されなかった場合には、描画許可を目標動作作成部635に出力する。そして、図8のステップS1400の処理に戻る。
In step S1340, when the object arrangement plan correction instruction is generated, the information
図32は、オブジェクト配置計画修正命令の内容の一例を示す図である。 FIG. 32 is a diagram showing an example of the contents of the object arrangement plan correction instruction.
図32に示すように、オブジェクト配置計画修正命令471は、図29に示すオブジェクト配置計画470と同様の構成であり、オブジェクト配置計画470のうち残すべき部分を示した内容となっている。
As shown in FIG. 32, the object arrangement
目標動作作成部635は、オブジェクト配置計画修正命令471に記述された内容をオブジェクト配置計画470に反映し、反映後のオブジェクト配置計画470基づいて、描画情報を作成する。これにより、描画面230に描画される情報量は削減される。
The target
図33は、あるオブジェクト配置計画470に基づいて描画が行われたときの描画面230の様子の一例を示す図である。
FIG. 33 is a diagram illustrating an example of a state of the
図33に示すように、ここでは、大きい楕円で示されるポイントオブジェクトの画像232aと、小さい円で示される一般オブジェクトの画像232bと、関連性オブジェクトとしてオブジェクト画像232を結ぶ直線で示される線460とが描画されている。また、高い重み付けを行う中央エリア472の内部に、7つのポイントオブジェクトの画像232aと、4つの一般オブジェクトの画像232bと、5つの線460が表示され、中央エリア472の周辺部に、1つのポイントオブジェクトの画像232aが表示されている。
As shown in FIG. 33, here, an
このような描画面230の元となるオブジェクト配置計画470から算出される情報量は、3×(3×7+1×4+2×5)+1×(3×1)=108と算出される。図31のステップS1320で使用される閾値が例えば80の場合、算出された情報量は閾値を超えるため、情報量制御部639でオブジェクト配置計画修正命令が作成され、描画面230の情報量は削減される。
The amount of information calculated from the
図34は、図33に示す描画面230の元となるオブジェクト配置計画470に対して情報量制御部639の命令による修正が行われたときの描画面230の様子の一例を示す図である。
FIG. 34 is a diagram illustrating an example of the state of the
図33に示す描画面230と比較すると、図34に示す描画面230では、中央エリア472の周辺部の1つのポイントオブジェクトの画像232aと、3つの一般オブジェクトの画像232bと、2つの線460が削減されており、よりすっきりした画面となっている。
Compared to the
このような描画面230の元となるオブジェクト配置計画470から算出される情報量は、3×(3×6+1×1+2×3)=75と算出される。つまり、算出された情報量が閾値以下とすることにより、より見易い画面が表示されることが分かる。
The amount of information calculated from the
このように、本実施の形態によれば、情報量制御部639が、制御指示書480に従ってオブジェクト配置計画を修正し、描画面に描画される情報量を削減する。これにより、処理負荷を軽減し、オブジェクト画像232や比較結果が表示するまでの時間を短縮することができる。また、重要度の低い情報を削減する形で情報量を削減するので、ユーザのレベルによっては、かえって必要な情報を捉え易くすることができる。
Thus, according to the present embodiment, the information
また、オブジェクトとして立体図形を用いたり、強調の効果を目的として回転、膨張、縮小などの動的変化をオブジェクトに与えるような場合には、ちらつき防止など、より高い視覚的効果を得ることができる。例えば、指や関節など、更に細分化した単位の部位について学習を行う場合には表示されるオブジェクト多くなり、情報過多となる可能性があるが、このような情報量削減により情報過多の防止と学習単位の細分化とを両立させることができる。 In addition, when a solid figure is used as an object or when an object is subjected to dynamic changes such as rotation, expansion, and reduction for the purpose of emphasis, higher visual effects such as flicker prevention can be obtained. . For example, if learning is performed for parts of more detailed units such as fingers and joints, the number of objects displayed may increase and information may be excessive. It is possible to achieve both learning unit subdivision.
同時に複数の部位を学習したり、個々のオブジェクトが単なる通過点ではなく、物理量の変化などを示すなどの意味を持っていたりする場合には、ユーザがなぞる対象を探し、認識するまでの反応時間は長くなる傾向にある。反応時間に時間がかかりすぎて運動の滑らかさに支障が出ることは、運動学習として望ましくない。また、一般的に、眼球運動が高速になればなるほど視力は低下し、視野も狭くなることが知られている。特に、複数の部位をチェックするために頻繁に頭を動かす場合には、眼球運動も高速になり、表示されている情報の正確な認識が困難となる。その点、本実施の形態によれば、反応時間や情報認識の正確さに影響を与える情報量を制限することができ、より質の高い運動学習支援を行うことができる。 When learning multiple parts at the same time, or when each object has a meaning such as showing a change in physical quantity, not just a passing point, the reaction time until the user searches for and recognizes the target to be traced Tend to be longer. It is undesirable for motor learning that the reaction time is too long and the smoothness of the movement is disturbed. In general, it is known that the faster the eye movement, the lower the visual acuity and the narrower the visual field. In particular, when the head is frequently moved in order to check a plurality of parts, the eye movement also becomes high speed, and accurate recognition of displayed information becomes difficult. In this respect, according to the present embodiment, it is possible to limit the amount of information that affects the reaction time and the accuracy of information recognition, and to provide higher-quality motor learning support.
(実施の形態5)
実施の形態5では、描画面の外部の領域など、ユーザの死角の領域に位置する目標動作部分を、ユーザの視界内に再配置する場合について説明する。
(Embodiment 5)
In the fifth embodiment, a case will be described in which a target motion portion located in a user's blind spot area, such as an area outside the drawing surface, is rearranged in the user's field of view.
ユーザ150の視界や描画面230の大きさには制限があることから、ユーザ150が運動の際に体を曲げたり、反らせたり、ねじれさせたりしても、ユーザ150が視認することができない領域が存在する。以下このような領域を「死角」と定義する。ここで、死角は、運動のフォームを犠牲にしなければ見られない領域や、理想とするフォームにおける望ましい視線方向(視界)では視界に入らない領域を含む。具体的には、例えば、ゴルフにおけるトップの位置にあるクラブヘッド160や、サッカーにおける蹴り上げ足は、死角に位置する運動動作に該当する。
Since the field of view of the
このような死角に位置する目標動作部分(以下「死角動作」という)の情報についても、動作の流れや方向を感覚的に習得するために、描画面230に描画することが望ましい。ところが、このような死角動作は、学習対象の目標動作の本来表示すべき位置とは異なる位置に描画されることになり、そのまま描画を行うと、本来の位置なのか否かについてユーザ150の混乱を招く。
It is desirable to draw information on the target motion part (hereinafter referred to as “dead zone motion”) located in such a blind spot on the
そこで、本実施の形態の学習支援装置70は、死角動作をユーザの視界内に擬似的に表示するとともに、死角動作の画像には、死角動作に関する画像であることを示す情報を併せて表示する。 Therefore, the learning support device 70 according to the present embodiment displays the blind spot motion in a pseudo manner in the user's field of view, and also displays information indicating that the image is related to the blind spot motion in the blind spot motion image. .
図35は、本発明の実施の形態5に係る学習支援装置の詳細な構成を示すブロック図であり、実施の形態1の図2に対応するものである。図2と同一部分には同一符号を付し、これについての説明を省略する。 FIG. 35 is a block diagram showing a detailed configuration of the learning support apparatus according to the fifth embodiment of the present invention, and corresponds to FIG. 2 of the first embodiment. The same parts as those in FIG.
図35に示すように、学習支援装置70は、図2の制御端末130に代えて、制御端末730を有する。制御端末730は、図2の目標動作作成部135に代えて、死角描画指示書739を予め格納した目標動作作成部735を有する。また、本実施の形態の制御端末730における目標動作情報格納部131は、目標動作のどの部分が死角動作であるかを示す死角情報を含むオブジェクト情報131cを格納している。
As shown in FIG. 35, the learning support apparatus 70 has a
図36は、オブジェクト情報131cの内容の一例を示す図である。
FIG. 36 is a diagram illustrating an example of the contents of the
図36に示すように、オブジェクト情報131cは、実施の形態1の図3に示すオブジェクト情報131aと同様の構成を有し、更に、死角に関連する各位置に該当するか否かを示す死角情報481を有する。死角情報481には、オブジェクト番号202に対応付けて、「死角開始直前点」、「死角開始点」、「死角点」、および「死角終了点」などの情報が記述されている。
As shown in FIG. 36, the
ここで、死角開始直前点は、目標動作が死角に入る直前のオブジェクト250の位置である。死角開始点は、死角に入る最初のオブジェクト250の位置である。死角点は、死角に入っているオブジェクト250の位置である。そして、死角終了点は、死角から出る最初のオブジェクトの位置である。また、死角開始点から死角終了点までの目標動作部分、つまり死角動作における学習対象の軌跡を、「死角軌跡」というものとする。
Here, the point immediately before the start of the blind spot is the position of the
ここでは、図36に示すように、オブジェクト番号A3のオブジェクト250が、目標動作が死角に入る直前のオブジェクト250であり、オブジェクト番号A4のオブジェクト250が、視界に入る最初のオブジェクト250である。また、オブジェクト番号A5〜A7までのオブジェクト250が、死角に入っているオブジェクト250であり、オブジェクト番号A8のオブジェクト250が、死角から出る最初のオブジェクト250である。
Here, as shown in FIG. 36, the
図35の目標動作作成部735は、オブジェクト情報131cの記述内容に従って、例えば実施の形態4の図29に示すオブジェクト配置計画470と同様の構成を有するオブジェクト描画計画を作成し、作成した描画情報を目標動作描画部136に出力する。このとき、目標動作作成部735は、死角描画指示書739に従って、オブジェクト情報131cの死角情報481に基づいて、死角動作を描画面230内に描画するとともに死角動作の画像であることを示す各種情報を描画する描画情報を作成する。ここでは、目標動作作成部735は、各オブジェクト250をオブジェクト情報131cに規定された順序に従って順に表示させるように描画情報を作成するものとする。また、目標動作作成部735は、通過判定部138から入力される通過判定情報に基づいて、実軌道が通過したオブジェクト250のオブジェクト画像232を、逐次、描画面230から消去させる。
The target
図37は、死角描画指示書739の内容の一例を示す図である。
FIG. 37 is a diagram showing an example of the contents of the blind spot
死角描画指示書739には、死角動作の描画や、死角動作の画像であることを示す各種情報の描画に関する条件482と描画に関する指示内容483とが規定されている。
In the blind
ここでは、死角動作の画像であることを示す情報として、予め定められた死角開始情報および死角終了情報を用いる。死角開始情報は、死角開始点および死角点のオブジェクト画像232をどの領域に描画するかを示す情報である。死角終了情報は、死角終了点をどの領域に描画するかを示す情報である。
Here, predetermined blind spot start information and blind spot end information are used as information indicating that the image is a blind spot motion image. The blind spot start information is information indicating in which area the blind spot start point and the blind
ここでは、死角描画指示書739には、例えば、「死角開始直前点より2個前のオブジェクトを実軌道が通過したタイミングから死角開始点より2個後のオブジェクトを実軌道が通過したタイミングまで」という条件482に対応して、「所定の位置に死角開始情報を描画する」という指示内容483が記述されている。また、「死角開始直前点より1個前のオブジェクトを実軌道が通過したタイミングから、死角終了点より1個前のオブジェクトを実軌道が通過したタイミングまで」という条件482に対応して、「所定の位置に、死角動作と、死角動作をなぞる順序を示す矢印とを描画する」という指示内容483が記述されている。また、「死角終了点より3個前のオブジェクトを実軌道が通過したタイミングから、死角終了点のオブジェクトを実軌道が通過したタイミングまで」という条件482に対応して、「所定の位置に、死角終了情報を描画する」という指示内容483が記述されている。なお、他にも、例えば、「死角開始直前点から所定の距離の範囲内に実軌道が入ったタイミングから、死角終了点より1個後のオブジェクトの位置から所定の距離の範囲内に実軌道が入ったタイミングまで」という条件に対応して、「所定の位置に死角動作を描画する」という指示内容を記述してもよい。
Here, the blind
なお、死角動作が複数のオブジェクト画像232で表示される場合には、目標動作作成部735は、これら複数のオブジェクト画像232の相対位置を、本来の目的動作における相対位置に対応させる。また、目標動作作成部735は、死角開始情報を描画する所定位置を、死角開始点のオブジェクト画像232の近傍とし、死角終了情報を描画する所定位置を、死角終了点のオブジェクト画像232の近傍とする。
When the blind spot motion is displayed as a plurality of
図38は、図36に示すオブジェクト情報131cから図37に示す死角描画指示書739に基づいて描画が行われたときの描画面230の様子の一例を示す図である。
FIG. 38 is a diagram showing an example of the state of the
図38(A)は、実軌道がオブジェクト番号A1のオブジェクト250を通過するタイミングにおける描画面230の様子を示す。この場合、死角描画指示書739の「死角開始直前点より2個前のオブジェクトを実軌道が通過したタイミングから死角開始点より2個後のオブジェクトを実軌道が通過したタイミングまで」という条件482に該当する。したがって、図38(A)に示すように、死角開始情報484が、死角開始点の近傍に描画される。ここでは、死角開始情報484として、矢印と「死角開始」の文字列とが描画される場合を図示している。
FIG. 38A shows a state of the
図38(B)は、実軌道がオブジェクト番号A2のオブジェクト250を通過するタイミングにおける描画面230の様子を示す。この場合、死角描画指示書739の「死角開始直前点より1個前のオブジェクトを実軌道が通過したタイミングから、死角終了点より1個前のオブジェクトを実軌道が通過したタイミングまで」という条件482に該当する。したがって、図38(B)に示すように、死角開始情報484と、死角動作のオブジェクト画像232と、死角動作をなぞる順序を示す矢印485とが描画される。
FIG. 38B shows a state of the
死角動作では、目標動作における本来の位置とは異なる位置にオブジェクト画像232を配置することになるため、本来の位置をイメージしにくい。したがって、上記した矢印485を表示することで、ユーザ150が本来の軌跡をイメージするのを助けることができる。
In the blind spot operation, since the
図38(C)は、実軌道がオブジェクト番号A6のオブジェクト250を通過するタイミングにおける描画面230の様子を示す。この場合、死角描画指示書739の「死角終了点より3個前のオブジェクトを実軌道が通過したタイミングから、死角終了点のオブジェクトを実軌道が通過したタイミングまで」という条件482に該当する。したがって、図(C)に示すように、死角終了情報486が、死角終了点の近傍に描画される。ここでは、死角終了情報486として、矢印と「死角終了」の文字列とが描画される場合を図示している。
FIG. 38C shows the state of the
図38(D)は、実軌道がオブジェクト番号A7のオブジェクト250を通過するタイミングにおける描画面230の様子を示す。この場合も、死角描画指示書739の「死角終了点より3個前のオブジェクトを実軌道が通過したタイミングから、死角終了点のオブジェクトを実軌道が通過したタイミングまで」という条件482に該当するため、死角終了情報486が描画されたままの状態となる。
FIG. 38D shows a state of the
このように、本実施の形態によれば、死角動作の画像を、死角動作に関する画像であることを示す情報と併せて、描画面に表示する。これにより、ユーザに対して、死角動作における学習対象の軌跡の動きや所定の物理量を、本来の軌跡の位置とは区別して提示することができる。したがって、ユーザは、必要以上に無理に体を動かして目標動作を視界に入れる努力をすることなく、目標動作の学習ができる。これにより、従来、勘に頼らざるを得なかった見えない部分のトレーニングを、より正確に行うことができる。 As described above, according to the present embodiment, the image of the blind spot motion is displayed on the drawing surface together with the information indicating that the image is related to the blind spot motion. Accordingly, the movement of the trajectory to be learned and the predetermined physical quantity in the blind spot motion can be presented to the user separately from the original trajectory position. Therefore, the user can learn the target action without making an effort to move the body more than necessary and bring the target action into view. As a result, it is possible to more accurately perform training for the invisible portion that conventionally had to rely on intuition.
なお、各実施の形態では、目標動作や比較結果を、ヘッドマウントディスプレイを利用して擬似的に表示する場合について説明したが、これに限定されるものではない。3D(dimension)ホログラムなどの立体映像技術や、空間中にレーザ光によりプラズマ化した輝点を連続して生成し三次元映像を描画する立体描画技術を、目標動作や比較結果の表示に用いてもよい。このような技術を活用した場合には、描画対象の制約が少なくなり、目標動作のより多くの部分を表示することが可能となる。 In each of the embodiments, a case has been described in which target operations and comparison results are displayed in a pseudo manner using a head-mounted display, but the present invention is not limited to this. 3D (dimension) holograms and other 3D image technologies, as well as 3D image drawing technology that draws 3D images by continuously generating bright spots that have been converted into plasma by laser light in the space, are used to display target actions and comparison results. Also good. When such a technique is used, there are fewer restrictions on the drawing target, and it is possible to display more parts of the target motion.
また、各実施の形態では、本発明をゴルフクラブのスィングの学習に適用した場合について説明したが、体の一部や運動器具などの部位の動作を定義または計測できる各種の運動の学習に適用できることは勿論である。例えば、本発明は、テニス、格闘技、野球などの各種スポーツだけでなく、楽器演奏、リハビリテーションなど、様々な分野における運動の学習にも適用できる。更に、本発明を、学習目的ではなく、他人や自分の運動をなぞって楽しむゲームなど、エンターティメント目的の用途に適用してもよい。 In each of the embodiments, the case where the present invention is applied to learning of golf club swing has been described. However, the present invention is applied to learning of various types of movement that can define or measure the movement of a part of a body or an exercise equipment. Of course you can. For example, the present invention can be applied not only to various sports such as tennis, martial arts, and baseball but also to learning of exercises in various fields such as musical instrument performance and rehabilitation. Furthermore, the present invention may be applied not to learning purposes but to entertainment purposes such as games for tracing other people and their own exercises.
本発明に係る学習支援装置および学習支援方法は、各種スポーツや楽器演奏、リハビリテーションなど、様々な分野における運動の効果的な学習に有用である。 The learning support device and the learning support method according to the present invention are useful for effective learning of exercise in various fields such as various sports, musical instrument performances, and rehabilitation.
10、30、50、60、70 学習支援装置
110 ヘッドマウントディスプレイ
111 視界情報計測部
112 位置姿勢情報計測部
113 画像表示部
120 3軸加速度センサ
121 運動情報計測部
130、330、530、630、730 制御端末
131 目標動作情報格納部
132 学習対象取得部
133 視界情報取得部
134 位置姿勢情報取得部
135、335、535、635、735 目標動作作成部
136 目標動作描画部
137 運動情報取得部
138、538、638 通過判定部
210 制御パネル
339 習熟度推定部
539 関連性判定部
639 情報量制御部
10, 30, 50, 60, 70
Claims (15)
前記所定の運動における学習対象部位の動作である目標動作を示す目標動作情報を取得する目標動作取得部と、
前記目標動作取得部によって取得された前記目標動作情報に基づいて、前記目標動作を、前記所定の運動を学習するユーザの視界に適合させて描画する描画部と、
を有する学習支援装置。 A learning support device for learning a predetermined exercise,
A target motion acquisition unit for acquiring target motion information indicating a target motion that is a motion of a learning target part in the predetermined motion;
Based on the target motion information acquired by the target motion acquisition unit, a rendering unit that renders the target motion in conformity with the field of view of the user who learns the predetermined motion;
A learning support apparatus.
前記ユーザが前記所定の運動を行った場合の前記ユーザの視界における前記目標動作を、前記ユーザが前記所定の運動を行った場合の前記学習対象部位の軌道とは重ならない位置で描画する、
請求項1記載の学習支援装置。 The drawing unit
The target motion in the user's field of view when the user performs the predetermined motion is drawn at a position that does not overlap with the trajectory of the learning target region when the user performs the predetermined motion.
The learning support apparatus according to claim 1.
請求項2記載の学習支援装置。 The operation of the learning target part is performed with respect to the target trajectory of the learning target part and the posture, speed, acceleration, rotational speed, rotational acceleration, and the learning target part of the learning target part at a position constituting the target trajectory. A predetermined physical quantity including at least one of the force to be applied, and
The learning support apparatus according to claim 2.
前記所定の物理量を視覚的に示すオブジェクトを対応する位置に配置して描画する、
請求項3記載の学習支援装置。 The drawing unit arranges and draws an object visually indicating the predetermined physical quantity at a corresponding position;
The learning support apparatus according to claim 3.
請求項4記載の学習支援装置。 When the predetermined physical quantity includes a direction component, the object has a surface whose normal is the direction or a protrusion protruding toward the direction.
The learning support apparatus according to claim 4.
前記目標動作取得部によって取得された目標動作情報と、前記計測部により生成された前記実動作を示す情報と、を比較する比較部と、を更に有し、
前記描画部は、
前記比較部による比較結果を示す情報を、前記ユーザの視界に適合させて描画する、
請求項1記載の学習支援装置。 A measurement unit that measures an actual motion that is the motion of the learning target part in the actual motion of the user, and generates information indicating the actual motion;
A comparison unit that compares the target motion information acquired by the target motion acquisition unit with information indicating the actual motion generated by the measurement unit;
The drawing unit
The information indicating the comparison result by the comparison unit is drawn in conformity with the field of view of the user.
The learning support apparatus according to claim 1.
前記所定の物理量を視覚的に示すオブジェクトを対応する位置に配置して描画し、前記比較部による比較結果に応じて、前記オブジェクトの画像のサイズ、解像度、色、透明度、輝度、密度、グラデーション、および描画の有無の少なくとも1つを含む属性を変更する、
請求項6記載の学習支援装置。 The drawing unit
An object visually indicating the predetermined physical quantity is arranged and drawn at a corresponding position, and according to the comparison result by the comparison unit, the size, resolution, color, transparency, brightness, density, gradation, image of the object, And changing an attribute including at least one of presence / absence of drawing,
The learning support apparatus according to claim 6.
前記目標動作情報と前記実動作を示す情報との比較を前記オブジェクトごとに行い、
前記描画部は、
前記オブジェクトごとの比較結果を示す情報を、前記学習対象部位が次のオブジェクトの位置に到達する前に描画する、
請求項7記載の学習支援装置。 The comparison unit includes:
A comparison between the target motion information and information indicating the actual motion is performed for each object,
The drawing unit
Draw information indicating the comparison result for each object before the learning target part reaches the position of the next object,
The learning support apparatus according to claim 7.
前記描画部は、
前記重要度に応じて、前記オブジェクトの画像のサイズ、解像度、色、透明度、輝度、密度、グラデーション、および描画の有無の少なくとも1つを含む属性を変更する、
請求項4記載の学習支援装置。 The target motion information further includes importance for each object,
The drawing unit
Changing an attribute including at least one of the size, resolution, color, transparency, luminance, density, gradation, and presence / absence of drawing of the object according to the importance,
The learning support apparatus according to claim 4.
前記描画部は、
前記習熟度判定部による判定結果に応じて、前記オブジェクトの画像のサイズ、解像度、色、透明度、輝度、密度、グラデーション、および描画の有無の少なくとも1つを含む属性を変更する、
請求項6記載の学習支援装置。 A proficiency level determination unit for determining the proficiency level of the user for the predetermined exercise from the comparison result by the comparison unit;
The drawing unit
Changing an attribute including at least one of the size, resolution, color, transparency, luminance, density, gradation, and presence / absence of drawing of the image of the object according to a determination result by the proficiency level determination unit;
The learning support apparatus according to claim 6.
前記描画部は、
前記第1の部位の軌道を構成する位置と、その位置に前記第1の部位が位置するときの前記第2の部位の位置とを、関連付けて描画する、
請求項1記載の学習支援装置。 The operation of the learning target part includes a trajectory of the first part and a position of the second part when the first part is located at a position constituting the trajectory of the first part,
The drawing unit
Draw and associate the position constituting the trajectory of the first part and the position of the second part when the first part is located at the position;
The learning support apparatus according to claim 1.
を更に有する請求項4または請求項7記載の学習支援装置。 An information amount control unit that calculates the amount of information drawn in the user's field of view and reduces the objects to be drawn when the calculated amount of information exceeds a predetermined threshold;
The learning support device according to claim 4 or 7, further comprising:
前記描画部は、
前記死角軌道における前記目標動作を、前記ユーザの視界の死角における前記目標動作の画像である旨を通知して、前記ユーザの視界内に描画する、
請求項3記載の学習支援装置。 A blind spot trajectory discriminating unit for discriminating a blind spot trajectory located in the blind spot of the user's field of view among the target trajectories;
The drawing unit
Notifying that the target motion in the blind spot trajectory is an image of the target motion in the blind spot of the user's field of view, and drawing in the user's field of view,
The learning support apparatus according to claim 3.
入力される画像データに基づいて画像を表示する画像表示部、を有し、
前記ユーザの頭部の位置および姿勢を取得する位置姿勢取得部と、
前記ユーザの視点の位置を取得する視点取得部と、
前記位置姿勢取得部により取得されたユーザの頭部の位置および姿勢と、前記視点取得部により取得されたユーザの視点の位置とに基づいて前記ユーザの視界を算出し、算出した前記ユーザの視界と前記画像表示部の画像表示位置とに基づいて、前記ユーザが前記所定の運動を行った場合の前記ユーザの視界における前記目標動作の画像を表示するための画像データを生成し、生成した画像データを前記描画部に出力する目標動作生成部と、
を更に有する請求項1記載の学習支援装置。 The drawing unit
An image display unit that displays an image based on input image data;
A position and orientation acquisition unit for acquiring the position and orientation of the user's head;
A viewpoint acquisition unit that acquires the position of the user's viewpoint;
Based on the position and orientation of the user's head acquired by the position / orientation acquisition unit and the position of the user's viewpoint acquired by the viewpoint acquisition unit, the user's field of view is calculated, and the calculated user's field of view And image data for displaying an image of the target motion in the field of view of the user when the user performs the predetermined exercise based on the image display position of the image display unit and the generated image A target motion generation unit for outputting data to the drawing unit;
The learning support apparatus according to claim 1, further comprising:
前記所定の運動における学習対象部位の動作である目標動作を示す目標動作情報を取得する目標動作取得ステップと、
前記目標動作取得ステップで取得された前記目標動作情報に基づいて、前記目標動作の画像を、前記所定の運動を学習するユーザの視界に適合させて描画する描画ステップと、
を有する学習支援方法。 A learning support method for learning a predetermined exercise,
A target motion acquisition step of acquiring target motion information indicating a target motion that is a motion of a learning target part in the predetermined motion;
Based on the target motion information acquired in the target motion acquisition step, a rendering step of rendering an image of the target motion in conformity with the field of view of the user who learns the predetermined motion;
A learning support method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007185075A JP4982279B2 (en) | 2007-07-13 | 2007-07-13 | Learning support apparatus and learning support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007185075A JP4982279B2 (en) | 2007-07-13 | 2007-07-13 | Learning support apparatus and learning support method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009018127A true JP2009018127A (en) | 2009-01-29 |
JP4982279B2 JP4982279B2 (en) | 2012-07-25 |
Family
ID=40358271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007185075A Expired - Fee Related JP4982279B2 (en) | 2007-07-13 | 2007-07-13 | Learning support apparatus and learning support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4982279B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013027628A (en) * | 2011-07-29 | 2013-02-07 | Seiko Epson Corp | Device for generating exercise guidance information, program for generating the exercise guidance information, and recording medium |
JP2015120085A (en) * | 2015-04-02 | 2015-07-02 | セイコーエプソン株式会社 | Motion information generation device, motion information generation program, and recording medium |
CN105759953A (en) * | 2015-01-05 | 2016-07-13 | 索尼公司 | Information processing device, information processing method, and program |
JP2019020913A (en) * | 2017-07-13 | 2019-02-07 | 株式会社東芝 | Information processing apparatus, method and program |
WO2020158727A1 (en) * | 2019-01-28 | 2020-08-06 | 国立大学法人 東京大学 | System, method, and program |
JP2022002798A (en) * | 2018-10-12 | 2022-01-11 | 株式会社mediVR | Rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program |
WO2024009389A1 (en) * | 2022-07-05 | 2024-01-11 | 三菱電機株式会社 | Assistance system for arrangement work on devices of elevator |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002143363A (en) * | 2000-11-09 | 2002-05-21 | Nippon Telegr & Teleph Corp <Ntt> | Mass game support system |
JP2005034195A (en) * | 2003-07-15 | 2005-02-10 | Canon Inc | Lesson support system and method |
JP2006230630A (en) * | 2005-02-23 | 2006-09-07 | Nihon Knowledge Kk | Practical skill analysis system and program |
-
2007
- 2007-07-13 JP JP2007185075A patent/JP4982279B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002143363A (en) * | 2000-11-09 | 2002-05-21 | Nippon Telegr & Teleph Corp <Ntt> | Mass game support system |
JP2005034195A (en) * | 2003-07-15 | 2005-02-10 | Canon Inc | Lesson support system and method |
JP2006230630A (en) * | 2005-02-23 | 2006-09-07 | Nihon Knowledge Kk | Practical skill analysis system and program |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013027628A (en) * | 2011-07-29 | 2013-02-07 | Seiko Epson Corp | Device for generating exercise guidance information, program for generating the exercise guidance information, and recording medium |
CN105759953A (en) * | 2015-01-05 | 2016-07-13 | 索尼公司 | Information processing device, information processing method, and program |
WO2016111067A1 (en) * | 2015-01-05 | 2016-07-14 | ソニー株式会社 | Information processing device, information processing method, and program |
JPWO2016111067A1 (en) * | 2015-01-05 | 2017-10-12 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
CN105759953B (en) * | 2015-01-05 | 2020-04-21 | 索尼公司 | Information processing apparatus, information processing method, and program |
JP2015120085A (en) * | 2015-04-02 | 2015-07-02 | セイコーエプソン株式会社 | Motion information generation device, motion information generation program, and recording medium |
JP2019020913A (en) * | 2017-07-13 | 2019-02-07 | 株式会社東芝 | Information processing apparatus, method and program |
JP2022002798A (en) * | 2018-10-12 | 2022-01-11 | 株式会社mediVR | Rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program |
JP7149658B2 (en) | 2018-10-12 | 2022-10-07 | 株式会社mediVR | Rehabilitation support system, rehabilitation support method and rehabilitation support program |
WO2020158727A1 (en) * | 2019-01-28 | 2020-08-06 | 国立大学法人 東京大学 | System, method, and program |
JPWO2020158727A1 (en) * | 2019-01-28 | 2021-10-21 | 国立大学法人 東京大学 | Systems, methods, and programs |
WO2024009389A1 (en) * | 2022-07-05 | 2024-01-11 | 三菱電機株式会社 | Assistance system for arrangement work on devices of elevator |
Also Published As
Publication number | Publication date |
---|---|
JP4982279B2 (en) | 2012-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11367410B2 (en) | Eclipse cursor for mixed reality displays | |
EP3631567B1 (en) | Eye tracking calibration techniques | |
JP7191714B2 (en) | Systems and methods for direct pointing detection for interaction with digital devices | |
US10719911B2 (en) | Information processing method and system for executing the information processing method | |
JP4982279B2 (en) | Learning support apparatus and learning support method | |
CN104471511B (en) | Identify device, user interface and the method for pointing gesture | |
US10783712B2 (en) | Visual flairs for emphasizing gestures in artificial-reality environments | |
KR20220012990A (en) | Gating Arm Gaze-Driven User Interface Elements for Artificial Reality Systems | |
CN103347437A (en) | Gaze detection in a 3d mapping environment | |
KR20220018561A (en) | Artificial Reality Systems with Personal Assistant Element for Gating User Interface Elements | |
KR20220018562A (en) | Gating Edge-Identified Gesture-Driven User Interface Elements for Artificial Reality Systems | |
CN108027987A (en) | Information processing method, the program for making the computer-implemented information processing method, the information processor and information processing system for implementing the information processing method | |
WO2017051595A1 (en) | Information processing device, information processing method and program | |
TWI802456B (en) | Optical system with improved user experiemce and accurate eye-tracking and related method | |
US20230256297A1 (en) | Virtual evaluation tools for augmented reality exercise experiences | |
US20220362631A1 (en) | Virtual tastings and guided tours for augmented reality experiences | |
JP2023090200A (en) | Sign language learning device, sign language learning method and sign language learning program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120104 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120403 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120423 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150427 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4982279 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |