JP2009018127A - Learning support device and method - Google Patents

Learning support device and method Download PDF

Info

Publication number
JP2009018127A
JP2009018127A JP2007185075A JP2007185075A JP2009018127A JP 2009018127 A JP2009018127 A JP 2009018127A JP 2007185075 A JP2007185075 A JP 2007185075A JP 2007185075 A JP2007185075 A JP 2007185075A JP 2009018127 A JP2009018127 A JP 2009018127A
Authority
JP
Japan
Prior art keywords
target
information
unit
learning
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007185075A
Other languages
Japanese (ja)
Other versions
JP4982279B2 (en
Inventor
Masaki Tanabiki
雅基 田靡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2007185075A priority Critical patent/JP4982279B2/en
Publication of JP2009018127A publication Critical patent/JP2009018127A/en
Application granted granted Critical
Publication of JP4982279B2 publication Critical patent/JP4982279B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a learning support device allowing a user to effectively learn an exercise. <P>SOLUTION: This learning support device 10 is provided with: a target movement information storage part 131 storing object information 131a indicating a target movement of a learning object site in a target exercise of a user; a target movement creation part 135 calculating the user's field of view based on the position of the user's head and the posture and, when the user performs the target exercise based on the calculated user's field of view, an image display position of an image display part 113 and object information 131a, creating drawing information, or image data for displaying an image of the target movement in the user's field of view; and the image display part 113 for displaying the movement of the learning object site in the target exercise based on the drawing information. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、運動の学習を支援する学習支援装置および学習支援方法に関する。   The present invention relates to a learning support apparatus and a learning support method that support learning of exercise.

従来、運動の学習において上達を図るために、コーチの指導を受けたり、上級者の運動の姿を見たり、ビデオや鏡を活用して自分の運動の姿を見るということが広く行われている。ところが、特にこれから運動を始める初心者や、なかなか上達しない初級者は、言葉や運動の姿から目標となる運動をうまくイメージできない場合が多く、このような場合には上達は難しい。   Traditionally, in order to improve learning in exercise, it has been widely practiced to receive coaching guidance, see the exercises of advanced players, and watch videos of their exercise using videos and mirrors. Yes. However, beginners who begin to exercise in the future and beginners who do not easily improve often cannot imagine the target exercise well from words and movements, and in such cases it is difficult to improve.

そこで、上級者の運動における手や足などの部位の軌道を提示することで、より直感的で体感可能な学習を可能にする技術が、例えば特許文献1および特許文献2に記載されている。   Thus, for example, Patent Literature 1 and Patent Literature 2 describe a technique that enables learning that is more intuitive and bodily sensation by presenting the trajectory of a part such as a hand or a foot in the exercise of an advanced person.

特許文献1記載の技術では、書道における筆の運びを学習するための教材において、上級者の筆の運びにおける筆圧の強弱や重心位置を、筆の移動経路に沿って図形で表示する。ユーザは、この教材に表示された図形を、それぞれの図形の意味に従ってなぞることにより、上級者の筆の運びをイメージしながら書道の練習を行うことができる。   In the technique disclosed in Patent Document 1, in a teaching material for learning how to carry a brush in calligraphy, the strength of the writing pressure and the position of the center of gravity in carrying a brush by an advanced user are displayed as a graphic along the movement path of the brush. The user can practice calligraphy while imagining the movement of a brush by an advanced user by tracing the graphic displayed on the teaching material according to the meaning of each graphic.

特許文献2記載の技術では、描画における筆の運びを学習するための装置において、基準線を表示し、これをなぞる形でユーザにより記入された記入線とのずれを測定して、描画の巧緻性を判定する。ユーザは、巧緻性の判定結果が向上するように努力を繰り返すことにより、上級者の運動をイメージし易くなる。
特開2004−170736号公報 特開2000−75783号公報
In the technique described in Patent Document 2, in a device for learning how to carry a brush in drawing, a reference line is displayed, and a deviation from the writing line written by the user is measured by tracing the reference line. Determine sex. A user repeats an effort so that the judgment result of skillfulness improves, and it becomes easy to imagine a senior's exercise.
JP 2004-170736 A JP 2000-75783 A

しかしながら、特許文献1および特許文献2記載の技術では、例えば、表示されている図形や基準線に対するユーザの位置や姿勢が上級者と異なっている場合、ユーザの運動は、上級者の運動とはかけ離れたものとなる可能性がある。すると、ワンパターンの運動の結果物を得ることを学習するにはよいが、上級者の運動の学習には必ずしも適さず、逆に運動の上達という本来の目的を達成しにくくなる可能性が高くなる。   However, in the techniques described in Patent Document 1 and Patent Document 2, for example, when the position and posture of the user with respect to the displayed graphic and reference line are different from those of the advanced user, the user's exercise is the exercise of the advanced user. It can be far away. Then, it is good to learn to obtain the result of one pattern of exercise, but it is not necessarily suitable for advanced exercise learning, and conversely, it is highly likely that it will be difficult to achieve the original purpose of exercise improvement. Become.

本発明は、かかる点に鑑みてなされたものであり、運動の効果的な学習を可能にする学習支援装置および学習支援方法を提供することを目的とする。   The present invention has been made in view of such a point, and an object thereof is to provide a learning support device and a learning support method that enable effective learning of exercise.

本発明の学習支援装置は、所定の運動を学習するための学習支援装置であって、前記所定の運動における学習対象部位の動作である目標動作を示す目標動作情報を取得する目標動作取得部と、前記目標動作取得部によって取得された前記目標動作情報に基づいて、前記目標動作を、前記所定の運動を学習するユーザの視界に適合させて描画する描画部とを有する構成を採る。   A learning support device according to the present invention is a learning support device for learning a predetermined motion, and a target motion acquisition unit that acquires target motion information indicating a target motion that is a motion of a part to be learned in the predetermined motion; And a drawing unit that draws the target motion in conformity with the field of view of the user who learns the predetermined motion based on the target motion information acquired by the target motion acquisition unit.

本発明の学習支援方法は、所定の運動を学習するための学習支援方法であって、前記所定の運動における学習対象部位の動作である目標動作を示す目標動作情報を取得する目標動作取得ステップと、前記目標動作取得ステップで取得された前記目標動作情報に基づいて、前記目標動作の画像を、前記所定の運動を学習するユーザの視界に適合させて描画する描画ステップとを有するようにした。   The learning support method of the present invention is a learning support method for learning a predetermined motion, and a target motion acquisition step of acquiring target motion information indicating a target motion that is a motion of a learning target part in the predetermined motion; A drawing step of drawing an image of the target motion in conformity with a field of view of the user who learns the predetermined motion based on the target motion information acquired in the target motion acquisition step.

本発明によれば、ユーザの視界に適合させて目標動作の画像が描画されるので、ユーザは、より正しい位置や姿勢で、所定の運動における特定部位の動作をなぞることができる。これにより、運動の結果物から間接的に運動を学習する場合に比べて、より効果的な運動の学習が可能となる。   According to the present invention, since the image of the target motion is drawn in conformity with the user's field of view, the user can trace the motion of the specific part in the predetermined motion at a more correct position and posture. As a result, it is possible to learn exercise more effectively than when learning exercise indirectly from the result of exercise.

以下、本発明の各実施の形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る学習支援装置が使用される場面の様子を示す図である。実施の形態1は、本発明を、ゴルフクラブのスィングの学習を支援する学習支援装置に適用した例である。
(Embodiment 1)
FIG. 1 is a diagram illustrating a scene in which the learning support apparatus according to Embodiment 1 of the present invention is used. The first embodiment is an example in which the present invention is applied to a learning support apparatus that supports learning of golf club swing.

図1に示すように、学習支援装置10は、ヘッドマウントディスプレイ(head mounted display:HMD)110、3軸加速度センサ120、および制御端末130により構成される。制御端末130は、ゴルフクラブのスィングを練習するユーザ150の近くに据え置かれている。ヘッドマウントディスプレイ110は、ユーザ150の頭部に装着されている。3軸加速度センサ120は、ユーザ150の目標となる運動を学習するにあたってユーザ150が着目する運動器具や体の部位(以下「学習対象」という)に着脱自在に取り付けられる。ここでは、学習対象として、ゴルフクラブのクラブヘッド160が選択された例を示しており、3軸加速度センサ120は、クラブヘッド160に取り付けられている。   As shown in FIG. 1, the learning support device 10 includes a head mounted display (HMD) 110, a triaxial acceleration sensor 120, and a control terminal 130. The control terminal 130 is placed near the user 150 who practices swinging a golf club. The head mounted display 110 is attached to the head of the user 150. The triaxial acceleration sensor 120 is detachably attached to an exercise device or a body part (hereinafter referred to as “learning target”) that the user 150 focuses on when learning the target exercise of the user 150. Here, an example is shown in which a club head 160 of a golf club is selected as a learning target, and the three-axis acceleration sensor 120 is attached to the club head 160.

ヘッドマウントディスプレイ110は、光学式シースルー型の表示装置であり、ユーザ150の目の前のゴルフボール170やクラブヘッド160などの実視界の画像に、制御端末130から送られてくる情報に基づいてコンピュータ生成された画像を光学的に重ね合わせて表示させる。   The head mounted display 110 is an optical see-through display device, and is based on information sent from the control terminal 130 to an image of a real field of view, such as the golf ball 170 and the club head 160 in front of the user 150. A computer-generated image is optically superimposed and displayed.

具体的には、ヘッドマウントディスプレイ110は、マウントディスプレイ110に固定された描画面に、制御端末130から送られてきた後述する描画情報に基づいて描画を行う。また、ヘッドマウントディスプレイ110は、ユーザ150の視線の起点である視点と、ユーザ150の頭の位置および姿勢を計測し、制御端末130に送信する。ここで、視点は、ユーザ150の瞳孔の位置であり、姿勢とは、物体の向きや傾きをいうものとする。   Specifically, the head mounted display 110 performs drawing on the drawing surface fixed to the mount display 110 based on drawing information described later sent from the control terminal 130. In addition, the head mounted display 110 measures the viewpoint that is the starting point of the line of sight of the user 150 and the position and posture of the user 150 head, and transmits them to the control terminal 130. Here, the viewpoint is the position of the pupil of the user 150, and the posture refers to the direction and inclination of the object.

3軸加速度センサ120は、自己の加速度をアナログ値で計測し、計測データをディジタル値である加速度データに変換して、制御端末130に送信する。   The triaxial acceleration sensor 120 measures its own acceleration as an analog value, converts the measurement data into acceleration data that is a digital value, and transmits the acceleration data to the control terminal 130.

制御端末130は、ユーザ150の目標となるスィングにおける、クラブヘッド160の目標となる軌道(以下「目標軌道」という)および目標軌道の各位置におけるヘッド面の向きなどの所定の物理量(目標軌道および所定の物理量が示す動作並びにこの動作を示す情報を、以下「目標動作」と総称する)を取得する。そして、制御端末130は、ヘッドマウントディスプレイ110からの情報に基づいて、取得した目標動作をユーザ150の視界に適合させて描画するための画像データである描画情報を作成し、ヘッドマウントディスプレイ110に送信する。   The control terminal 130 is a predetermined physical quantity such as a target trajectory of the club head 160 (hereinafter referred to as a “target trajectory”) and a head surface direction at each position of the target trajectory in the target swing of the user 150 (the target trajectory and the target trajectory). The operation indicated by the predetermined physical quantity and the information indicating this operation are hereinafter collectively referred to as “target operation”). Based on the information from the head mounted display 110, the control terminal 130 creates drawing information, which is image data for drawing with the acquired target motion adapted to the field of view of the user 150. Send.

更に、制御端末130は、3軸加速度センサ120から送られてくる情報に基づいて、クラブヘッド160の実際の軌道(以下「実軌道」という)および実軌道の各位置におけるヘッド面の向きなどの所定の物理量(実軌道および所定の物理量が示す動作並びにこの動作を示す情報を、以下「実動作」と総称する)を取得する。そして、制御端末130は、実動作を目標動作と比較し、比較結果をユーザ150の視界に適合させて描画するための描画情報を作成して、ヘッドマウントディスプレイ110に送信する。   Furthermore, the control terminal 130 determines the actual trajectory of the club head 160 (hereinafter referred to as “real trajectory”) and the orientation of the head surface at each position of the real trajectory based on the information sent from the three-axis acceleration sensor 120. A predetermined physical quantity (the actual trajectory and the operation indicated by the predetermined physical quantity and information indicating this operation is hereinafter collectively referred to as “actual operation”) is acquired. Then, the control terminal 130 compares the actual motion with the target motion, creates drawing information for rendering the comparison result in conformity with the field of view of the user 150, and transmits the drawing information to the head mounted display 110.

このような学習支援装置10を用いることにより、ユーザ150の視界に適合した位置で、目標動作が描画される。これにより、ユーザ150は、スィング学習において、クラブヘッド160の目標動作を目で確認しながらスィング練習を行うことができるとともに、クラブヘッド160の実動作を目標動作との比較でチェックすることができる。このような学習支援装置10を用いて繰り返し練習することにより、ユーザ150は、自身のスィング運動を目標となるスィング運動に近づけることができる。   By using the learning support device 10 as described above, the target motion is drawn at a position suitable for the field of view of the user 150. Thereby, in swing learning, the user 150 can perform swing practice while visually confirming the target motion of the club head 160, and can check the actual motion of the club head 160 by comparing with the target motion. . By repeatedly practicing using such a learning support device 10, the user 150 can bring his / her swing exercise closer to the target swing exercise.

次に、学習支援装置10の詳細な構成について説明する。   Next, a detailed configuration of the learning support apparatus 10 will be described.

図2は、学習支援装置10の詳細な構成を示すブロック図である。   FIG. 2 is a block diagram illustrating a detailed configuration of the learning support apparatus 10.

図2に示す学習支援装置10において、ヘッドマウントディスプレイ110は、視界情報計測部111、位置姿勢情報計測部112、および画像表示部113を有する。3軸加速度センサ120は、運動情報計測部121を有する。制御端末130は、目標動作情報格納部131、学習対象取得部132、視界情報取得部133、位置姿勢情報取得部134、目標動作作成部135、目標動作描画部136、運動情報取得部137、および通過判定部138を有する。   In the learning support apparatus 10 illustrated in FIG. 2, the head mounted display 110 includes a visual field information measurement unit 111, a position / orientation information measurement unit 112, and an image display unit 113. The triaxial acceleration sensor 120 has a motion information measurement unit 121. The control terminal 130 includes a target motion information storage unit 131, a learning target acquisition unit 132, a field of view information acquisition unit 133, a position and orientation information acquisition unit 134, a target motion creation unit 135, a target motion drawing unit 136, a motion information acquisition unit 137, and A passage determination unit 138 is included.

目標動作情報格納部131は、それぞれ異なる部位に対応する複数のオブジェクト情報131a−1、131a−2、・・・、131a−N(Nは自然数)を予め格納する。オブジェクト情報131aは、学習対象の目標動作を算出するための基礎情報である。具体的には、オブジェクト情報131aは、学習対象の目標軌道を構成する1つまたは複数の位置に、上記した所定の物理量を視覚的に示すためのシンボルであるオブジェクトを定義する。   The target motion information storage unit 131 stores a plurality of object information 131a-1, 131a-2,..., 131a-N (N is a natural number) corresponding to different parts in advance. The object information 131a is basic information for calculating a target motion to be learned. Specifically, the object information 131a defines an object that is a symbol for visually indicating the predetermined physical quantity described above at one or a plurality of positions constituting the target trajectory to be learned.

図3は、クラブヘッド(以下適宜「クラブ」という)に対応するオブジェクト情報131aの内容の一例を示す図である。   FIG. 3 is a diagram showing an example of the contents of the object information 131a corresponding to the club head (hereinafter referred to as “club” as appropriate).

図3に示すように、オブジェクト情報131aは、部位名201、オブジェクト番号202、直前のオブジェクト番号203、直後のオブジェクト番号204、ポイント重要度205、位置座標206、大きさ207、加速度208、およびその他情報209から構成される。これらの情報は、部位の目標軌道を構成する位置ごとに記述される。   As shown in FIG. 3, the object information 131a includes a part name 201, an object number 202, an immediately preceding object number 203, an immediately following object number 204, a point importance degree 205, a position coordinate 206, a size 207, an acceleration 208, and others. It consists of information 209. These pieces of information are described for each position constituting the target trajectory of the part.

部位名201には、他の各情報がどの部位に関する情報であるかが記述される。オブジェクト番号202には、位置の識別情報としてオブジェクトの番号が記述される。直前のオブジェクト番号203には、目標軌道における直前の位置に対応する他のオブジェクトの番号が記述される。直後のオブジェクト番号204には、部位の目標軌道における直後の位置に対応する他のオブジェクトの番号が記述される。ポイント重要度205には、オブジェクトのポイントとしての重要度が記述される。位置座標206には、制御端末130に固定された座標系(以下「基準座標系」という)で位置を表した位置座標(x,y,z)が記述される。大きさ207には、オブジェクトの大きさを指定する情報が記述される。加速度208には、対応する位置における部位の加速度が記述される。その他情報209には、目標となる運動に関連する加速度以外の所定の物理量や、オブジェクトを描画する際の視覚的な情報が記述される。   The part name 201 describes which part the other information is related to. The object number 202 describes an object number as position identification information. In the immediately preceding object number 203, the number of another object corresponding to the immediately preceding position in the target trajectory is described. The immediately following object number 204 describes the number of another object corresponding to the position immediately after the part in the target trajectory. The point importance degree 205 describes the importance degree as an object point. In the position coordinates 206, position coordinates (x, y, z) representing a position in a coordinate system (hereinafter referred to as “reference coordinate system”) fixed to the control terminal 130 are described. In the size 207, information specifying the size of the object is described. The acceleration 208 describes the acceleration of the part at the corresponding position. The other information 209 describes a predetermined physical quantity other than the acceleration related to the target motion and visual information when drawing the object.

目標となる運動に関連する所定の物理量としては、例えば、加速度、姿勢、速度、回転速度、回転加速度、学習対象に対してユーザ150が掛ける力が記述されてもよい。また、オブジェクトを描画する際の視覚的な情報としては、オブジェクトの形状、解像度、色、透明度、輝度、密度、グラデーションなどの属性が記述される。   As the predetermined physical quantity related to the target exercise, for example, acceleration, posture, speed, rotation speed, rotation acceleration, and force applied by the user 150 to the learning target may be described. Further, as the visual information when drawing the object, attributes such as the shape, resolution, color, transparency, luminance, density, and gradation of the object are described.

図2の学習対象取得部132は、オブジェクト情報131a−1、131a−2、・・・、131a−Nが対応するクラブヘッド160や手などの複数の部位を、学習対象の選択肢としてユーザ150に提示し、選択結果を示す学習対象情報を、目標動作作成部135に出力する。具体的には、学習対象取得部132は、液晶タッチパネル(図示せず)に、学習対象の選択を含めた各種操作を受け付けるための制御パネルを表示させて、ユーザ150の学習対象の選択を受け付ける。   The learning target acquisition unit 132 of FIG. 2 gives the user 150 a plurality of parts such as a club head 160 and hands corresponding to the object information 131a-1, 131a-2,. The learning target information that is presented and indicates the selection result is output to the target action creating unit 135. Specifically, the learning target acquisition unit 132 displays a control panel for receiving various operations including selection of the learning target on a liquid crystal touch panel (not shown), and receives the learning target selection of the user 150. .

図4は、学習対象取得部132が表示させる制御パネルの外観の一例を示す図である。   FIG. 4 is a diagram illustrating an example of the appearance of the control panel displayed by the learning target acquisition unit 132.

制御パネル210には、運動の学習のための処理の開始および終了、表示メニューの切り替え、音量の切り替えの操作を受け付けるためのボタンなどが配置される。図4は、学習対象を選択するためのメニューが表示されているときの制御パネル210の外観を示している。   The control panel 210 includes buttons for accepting operations for starting and ending processing for learning exercises, switching display menus, and switching sound volumes. FIG. 4 shows an appearance of the control panel 210 when a menu for selecting a learning target is displayed.

制御パネル210では、学習レベルを選択するためのメニューなど、他の各種設定を行うための画面を更に表示するようにしてもよい。ここで、学習レベルとは、例えば、オブジェクトをなぞるべき順序で順に表示させるなどして実動作の先導を行う場合に、目標動作をなぞる速度によって区分されるレベルのことである。   The control panel 210 may further display a screen for performing various other settings such as a menu for selecting a learning level. Here, the learning level is a level that is classified according to the speed of tracing the target action when, for example, guiding the actual action by displaying the objects sequentially in the order to be traced.

なお、制御パネル210での選択操作ではなく、ディジタルカメラでユーザ150を撮影し、ユーザ150のジェスチャに基づいて、学習対象の選択や学習レベルの選択を受け付けるようにしてもよい。この場合には、学習対象取得部132は、各選択肢と特定のジェスチャとの対応付けを予め設定しておき、ディジタルカメラで撮像されたユーザ150の画像を解析して、予め設定されたジェスチャとのマッチングを行う。   Note that instead of the selection operation on the control panel 210, the user 150 may be photographed with a digital camera, and the selection of the learning target or the learning level may be accepted based on the gesture of the user 150. In this case, the learning target acquisition unit 132 sets the association between each option and a specific gesture in advance, analyzes the image of the user 150 captured by the digital camera, and sets the preset gesture and Perform matching.

例えば、腕組みのジェスチャをメニュー選択開始に、指差しのジェスチャを対象部位の選択に、そして再度の腕組みのジェスチャを選択終了にそれぞれ対応付けて設定することができる。この場合、ユーザ150は、腕組みを数秒間行ってから学習対象となる部位を指で数秒間示し、再度腕組みをするといったジェスチャを行うことによって、学習支援装置10から離れた練習ポジションのままで、学習対象の選択や学習レベルの選択を行うことができる。   For example, an arm set gesture can be set in association with the start of menu selection, a pointing gesture can be set in selection of a target region, and a second arm set gesture can be set in correspondence with selection end. In this case, the user 150 performs the gesture such as performing the arm assembly for a few seconds and then indicating the part to be learned with the finger for a few seconds and then performing the arm assembly again, so that the user 150 remains in the practice position away from the learning support device 10. It is possible to select a learning target and a learning level.

図2の視界情報計測部111は、光源、ミラー、および小型ディジタルカメラを備えた視点検出装置(図示せず)を有し、視点検出装置を用いて、ユーザ150の視点を単位時間ごとに検出する。具体的には、視界情報計測部111は、光源からの光を角膜に当て、反射像をミラーで反射させて小型ディジタルカメラで捉えることにより眼球運動を検出する角膜反射法を用いる。視界情報計測部111は、検出した視線方向をヘッドマウントディスプレイ110本体に固定された座標系(以下「HMD座標系」という)で表した情報を、視界情報として取得する。そして、視界情報計測部111は、無線通信により、単位時間ごとの時系列データとして視界情報を制御端末130に送信する。   2 includes a viewpoint detection device (not shown) including a light source, a mirror, and a small digital camera, and detects the viewpoint of the user 150 for each unit time using the viewpoint detection device. To do. Specifically, the visual field information measurement unit 111 uses a corneal reflection method in which eye movement is detected by applying light from a light source to the cornea, reflecting the reflected image with a mirror, and capturing it with a small digital camera. The visual field information measuring unit 111 acquires information representing the detected visual line direction in a coordinate system (hereinafter referred to as “HMD coordinate system”) fixed to the head mounted display 110 main body as visual field information. Then, the visibility information measuring unit 111 transmits the visibility information to the control terminal 130 as time-series data for each unit time by wireless communication.

視界情報取得部133は、視界情報計測部111から送られてくる視界情報を受信し、目標動作作成部135に出力する。   The visual field information acquisition unit 133 receives the visual field information transmitted from the visual field information measurement unit 111 and outputs the visual field information to the target motion creation unit 135.

位置姿勢情報計測部112は、ヘッドマウントディスプレイ110本体に固定された磁気センサ(図示せず)を有する。磁気センサの位置および姿勢は、位置姿勢情報取得部134により取得される。   The position / orientation information measuring unit 112 includes a magnetic sensor (not shown) fixed to the head mounted display 110 main body. The position and orientation of the magnetic sensor are acquired by the position / orientation information acquisition unit 134.

位置姿勢情報取得部134は、位置姿勢情報計測部112に備えられた磁気センサの位置および姿勢を取得し、磁気センサの位置および姿勢を基準座標系で表した情報を、位置姿勢情報として目標動作作成部135に出力する。   The position / orientation information acquisition unit 134 acquires the position and orientation of the magnetic sensor provided in the position / orientation information measurement unit 112, and uses the information representing the position and orientation of the magnetic sensor in the reference coordinate system as the position / orientation information as the target operation. The data is output to the creation unit 135.

なお、磁気センサはヘッドマウントディスプレイ110本体に固定されているため、位置姿勢情報から、基準座標系におけるヘッドマウントディスプレイ110の位置および姿勢とヘッドマウントディスプレイ110に設けられた描画面の位置とを取得することが可能である。また、HMD座標系242もヘッドマウントディスプレイ110本体に固定されているため、視界情報および位置姿勢情報から、基準座標系におけるユーザ150の視線方向を取得することが可能である。各座標系の関係については、後に別図を用いて説明する。   Since the magnetic sensor is fixed to the head mounted display 110 main body, the position and orientation of the head mounted display 110 in the reference coordinate system and the position of the drawing surface provided on the head mounted display 110 are obtained from the position and orientation information. Is possible. Further, since the HMD coordinate system 242 is also fixed to the main body of the head mounted display 110, it is possible to acquire the line-of-sight direction of the user 150 in the reference coordinate system from the view information and the position and orientation information. The relationship between the coordinate systems will be described later with reference to another drawing.

目標動作作成部135は、学習対象情報が示す部位に対応するオブジェクト情報131aを、目標動作情報格納部131から取得する。目標動作作成部135は、取得したオブジェクト情報131aの記述内容に従い、視界情報および位置姿勢情報から、ヘッドマウントディスプレイ110の描画面にオブジェクトの画像により目標動作を描画するための描画情報を作成する。そして、目標動作作成部135は、作成した描画情報を目標動作描画部136に出力する。   The target motion creation unit 135 acquires object information 131a corresponding to the part indicated by the learning target information from the target motion information storage unit 131. The target action creating unit 135 creates drawing information for drawing the target action from the image of the object on the drawing surface of the head mounted display 110 from the view information and the position / orientation information according to the description content of the acquired object information 131a. Then, the target action creating unit 135 outputs the created drawing information to the target action drawing unit 136.

また、目標動作作成部135は、取得したオブジェクト情報131aを、通過判定部138に出力する。そして、目標動作作成部135は、通過判定部138から出力される通過判定情報に基づいて、新たな描画情報を作成して目標動作描画部136に出力する。通過判定情報は、学習対象の実動作と目標動作との比較結果を示す情報であり、学習対象の実軌道が学習対象の目標軌道をなぞることができたか否かを示す通過判定結果を含む。   In addition, the target action creation unit 135 outputs the acquired object information 131a to the passage determination unit 138. Then, the target motion creation unit 135 creates new drawing information based on the passage determination information output from the passage determination unit 138 and outputs the new drawing information to the target motion drawing unit 136. The passage determination information is information indicating a comparison result between the actual motion to be learned and the target motion, and includes a passage determination result indicating whether or not the actual trajectory to be learned can trace the target trajectory to be learned.

目標動作描画部136は、目標動作作成部135で作成された描画情報を、無線通信によりヘッドマウントディスプレイ110の画像表示部113に送信する。   The target action drawing unit 136 transmits the drawing information created by the target action creating unit 135 to the image display unit 113 of the head mounted display 110 by wireless communication.

画像表示部113は、描画面(図示せず)を有し、制御端末130から送られてくる描画情報に基づいてオブジェクトを描画面に描画する。ユーザ150は、描画面に描画されたオブジェクトの画像と実視界のゴルフボール170やクラブヘッド160などを同時に見ながら、スィングの練習を行うことができる。   The image display unit 113 has a drawing surface (not shown), and draws an object on the drawing surface based on drawing information sent from the control terminal 130. The user 150 can practice swinging while simultaneously viewing the image of the object drawn on the drawing surface and the golf ball 170 and the club head 160 in real field of view.

図5は、ヘッドマウントディスプレイ110における描画面の様子の一例を示す図である   FIG. 5 is a diagram illustrating an example of a drawing surface of the head mounted display 110.

図5に示すように、描画面230には、制御端末130から送られてきた描画情報に基づいて、実視界の画像231に重ねて、二次元画像または三次元画像であるオブジェクト画像232を表示する。ここでは、オブジェクトのデフォルトのシンボルが球体であり、図3に示すオブジェクト番号A1〜A3に対応するオブジェクト画像232が、大きさ207の記述内容に応じた大きさで描画されたときの描画面230を図示している。なお、ここでは、オブジェクト画像232の内部にオブジェクト番号を付加して図示しているが、必ずしもオブジェクト画像232にオブジェクト番号を付加する必要は無い。   As shown in FIG. 5, an object image 232 that is a two-dimensional image or a three-dimensional image is displayed on the drawing surface 230 so as to be superimposed on the real-view image 231 based on the drawing information sent from the control terminal 130. To do. Here, the default symbol of the object is a sphere, and the drawing surface 230 when the object image 232 corresponding to the object numbers A1 to A3 shown in FIG. Is illustrated. Note that, here, an object number is added to the inside of the object image 232, but it is not always necessary to add an object number to the object image 232.

なお、オブジェクトの描画の手法は、上記内容に限定されるものではない。例えば、実世界の映像とコンピュータ生成映像とを融合させたもの画像をディスプレィに表示するビデオ式シースルー型、低出力レーザを用いてコンピュータ生成の映像を網膜に直接描画する網膜ディスプレィ型、またはコンピュータ生成の情報を直接投影する投影型などの表示機器を用いてもよい。   Note that the method of drawing an object is not limited to the above contents. For example, a video-type see-through display that displays an image of a fusion of real-world video and computer-generated video on a display, or a retinal display that directly draws computer-generated video on the retina using a low-power laser, or computer-generated A projection type display device that directly projects the information may be used.

運動情報計測部121は、3軸加速度センサ120で計測された3軸方向の加速度を基準座標系で表した加速度データを、運動情報として単位時間ごとに取得する。そして、運動情報計測部121は、無線通信により、単位時間ごとの時系列データとして運動情報を制御端末130に送信する。   The motion information measuring unit 121 acquires acceleration data representing the acceleration in the triaxial direction measured by the triaxial acceleration sensor 120 in the reference coordinate system as motion information for each unit time. Then, the exercise information measuring unit 121 transmits the exercise information to the control terminal 130 as time series data for each unit time by wireless communication.

運動情報取得部137は、3軸加速度センサ120の運動情報計測部121から送られてきた運動情報(加速度データ)を受信し、通過判定部138に出力する。   The motion information acquisition unit 137 receives the motion information (acceleration data) sent from the motion information measurement unit 121 of the three-axis acceleration sensor 120 and outputs it to the passage determination unit 138.

通過判定部138は、運動情報から、学習対象(ここではクラブヘッド160)の実動作を取得する。通過判定部138は、取得した実動作と、オブジェクト情報131aに定義された学習対象の目標動作とを比較解析し、上記した通過判定結果を含む通過判定情報を作成する。そして、通過判定部138は、作成した通過判定情報を目標動作作成部135に出力する。目標動作作成部135では、上述したように、通過判定情報に基づいて、通過判定結果をユーザ150に対してフィードバックするための描画情報が作成される。   The passage determination unit 138 acquires the actual operation of the learning target (here, the club head 160) from the exercise information. The passage determination unit 138 compares and analyzes the acquired actual motion and the target motion to be learned defined in the object information 131a, and creates passage determination information including the above-described passage determination result. Then, the passage determination unit 138 outputs the created passage determination information to the target action creation unit 135. As described above, the target motion creation unit 135 creates drawing information for feeding back the passage determination result to the user 150 based on the passage determination information.

なお、学習対象の実動作の取得の仕方は、上記内容に限定されるものではない。例えば、学習対象に圧力センサを取り付けて加速度データを取得したり、学習対象に取り付けたマーカの動きをカメラで撮影し撮影画像を解析するなどしてもよい。   Note that the method of acquiring the actual operation to be learned is not limited to the above content. For example, a pressure sensor may be attached to the learning target to obtain acceleration data, or the movement of the marker attached to the learning target may be photographed with a camera and the photographed image may be analyzed.

制御端末130およびヘッドマウントディスプレイ110は、例えば、CPU(central processing unit)、制御プログラムを格納したROM(read only memory)などの記憶媒体、RAM(random access memory)などの作業用メモリ、および通信回路をそれぞれ備える。この場合、CPUが制御プログラムを実行することで、制御端末130およびヘッドマウントディスプレイ110の上記各部の機能は実現される。   The control terminal 130 and the head mounted display 110 include, for example, a central processing unit (CPU), a storage medium such as a ROM (read only memory) that stores a control program, a working memory such as a random access memory (RAM), and a communication circuit Each is provided. In this case, the functions of the above-described units of the control terminal 130 and the head mounted display 110 are realized by the CPU executing the control program.

ここで、学習支援装置10における各座標系の関係およびオブジェクトの描画位置の算出の原理について説明する。   Here, the principle of calculating the relationship between the coordinate systems and the drawing position of the object in the learning support apparatus 10 will be described.

図6は、各座標系の関係およびオブジェクトの描画位置の算出の原理を示す図である。   FIG. 6 is a diagram showing the principle of calculating the relationship between the coordinate systems and the drawing position of the object.

図6において、基準座標系241(X,Y,Z)は、制御端末130の位置および姿勢に固定された、位置姿勢情報取得部134を原点とする座標系である。制御端末130の位置姿勢情報取得部134は、ヘッドマウントディスプレイ110に固定された磁気センサの位置および姿勢を、基準座標系241で計測する。 In FIG. 6, a reference coordinate system 241 (X h , Y h , Z h ) is a coordinate system with the position and orientation information acquisition unit 134 fixed to the position and orientation of the control terminal 130 as the origin. The position / orientation information acquisition unit 134 of the control terminal 130 measures the position and orientation of the magnetic sensor fixed to the head mounted display 110 using the reference coordinate system 241.

HMD座標系242(X,Y,Z)は、視点検出装置112に固定された、ヘッドマウントディスプレイ110の描画面230上の所定の位置を原点とした座標系である。ヘッドマウントディスプレイ110に固定された視点検出装置112は、ユーザ150の視点243の位置を、HMD座標系242で検出する。 The HMD coordinate system 242 (X e , Y e , Z e ) is a coordinate system that is fixed to the viewpoint detection device 112 and has a predetermined position on the drawing surface 230 of the head mounted display 110 as an origin. The viewpoint detection device 112 fixed to the head mounted display 110 detects the position of the viewpoint 243 of the user 150 using the HMD coordinate system 242.

なお、説明の簡便化のため、ここでは、描画面230上の座標系がHMD座標系242に一致するものとする。   For simplicity of explanation, it is assumed here that the coordinate system on the drawing surface 230 coincides with the HMD coordinate system 242.

HMD座標系242における磁気センサ111aの位置および姿勢は、予め測定される。または、HMD座標系242における磁気センサ111aの位置および姿勢が予め定められた位置および姿勢となるように、磁気センサ111aおよび視点検出装置112は固定される。これにより、HMD座標系242と基準座標系241との間で、位置座標やベクトルを変換することができる。   The position and orientation of the magnetic sensor 111a in the HMD coordinate system 242 are measured in advance. Alternatively, the magnetic sensor 111a and the viewpoint detection device 112 are fixed so that the position and posture of the magnetic sensor 111a in the HMD coordinate system 242 become a predetermined position and posture. Thereby, position coordinates and vectors can be converted between the HMD coordinate system 242 and the reference coordinate system 241.

また、HMD座標系242における描画面230の位置および姿勢は、予め測定される。または、HMD座標系242における描画面230の位置および姿勢が予め定められた位置および姿勢となるように、視点検出装置112は固定される。これにより、HMD座標系242と描画面230上の座標系との間で、位置座標やベクトルを変換することができる。   Further, the position and orientation of the drawing surface 230 in the HMD coordinate system 242 are measured in advance. Alternatively, the viewpoint detection device 112 is fixed so that the position and orientation of the drawing surface 230 in the HMD coordinate system 242 become a predetermined position and orientation. Thereby, position coordinates and vectors can be converted between the HMD coordinate system 242 and the coordinate system on the drawing surface 230.

すなわち、ユーザ150の視点243および描画面230上の位置は、基準座標系241でも表すことができる。   That is, the position on the viewpoint 243 and the drawing surface 230 of the user 150 can also be expressed by the reference coordinate system 241.

更に、オブジェクト情報131aに定義されているオブジェクト250の位置座標は、基準座標系241の値であり、基準座標系241において、視点243とオブジェクト250とを結ぶ直線251の描画面230との交点を容易に求めることができる。この交点は、ユーザ150が描画面230を通してオブジェクト250を見たときの、描画面230上のオブジェクト250の画像の位置である。   Further, the position coordinates of the object 250 defined in the object information 131a are values of the reference coordinate system 241, and the intersection of the straight line 251 connecting the viewpoint 243 and the object 250 with the drawing surface 230 in the reference coordinate system 241. It can be easily obtained. This intersection is the position of the image of the object 250 on the drawing surface 230 when the user 150 views the object 250 through the drawing surface 230.

このように、学習支援装置10では、基準座標系241と、他の座標系との幾何学的整合が取られている。   As described above, in the learning support device 10, geometric matching between the reference coordinate system 241 and other coordinate systems is achieved.

目標動作作成部135は、上記した各座標系の関係を用いて、ユーザ150の視点243、描画面230の位置、およびオブジェクト250の三次元的な位置に基づいて、描画面230上におけるオブジェクト画像232の描画すべき位置および姿勢を求める。これにより、学習支援装置10は、例えば、オブジェクト情報131aに基準座標系241で定義されているオブジェクト250の三次元的な目標軌道252を、描画面230におけるオブジェクト画像232の二次元的な目標軌道253に変換して、表示することができる。   The target motion creation unit 135 uses the relationship between the coordinate systems described above to determine the object image on the drawing surface 230 based on the viewpoint 243 of the user 150, the position of the drawing surface 230, and the three-dimensional position of the object 250. The position and orientation to be drawn 232 are obtained. Thereby, for example, the learning support apparatus 10 uses the three-dimensional target trajectory 252 of the object 250 defined by the reference coordinate system 241 in the object information 131a as the two-dimensional target trajectory of the object image 232 on the drawing surface 230. It can be converted into H.253 and displayed.

但し、描画面230の領域は有限であるため、視点243からみて描画面230の範囲外の領域に位置するオブジェクト250bに対応して描画されるはずのオブジェクト画像232bは、実際には描画されないことになる。   However, since the area of the drawing surface 230 is finite, the object image 232b that should be drawn corresponding to the object 250b located outside the range of the drawing surface 230 as viewed from the viewpoint 243 is not actually drawn. become.

また、学習支援装置10は、オブジェクト情報131aが定義する目標動作を実現する際の運動、つまり目標となる運動においてユーザ150が取るべき基本姿勢の立ち位置と向きを、予め記憶している。この記憶された立ち位置と向きに、基本姿勢を取るユーザ150の立ち位置や向きが合致するように、制御端末130とゴルフボール170の相対位置は設定されている。このような設定と、上記座標系の変換とにより、ユーザ150が目標となる運動を行った場合のユーザ150の視界における目標動作を、ユーザ150の視界に適合させて描画することができる。   In addition, the learning support device 10 stores in advance the standing position and orientation of the basic posture that the user 150 should take in the exercise for realizing the target motion defined by the object information 131a, that is, the target exercise. The relative positions of the control terminal 130 and the golf ball 170 are set so that the standing position and orientation of the user 150 taking the basic posture matches the stored standing position and orientation. By such setting and the transformation of the coordinate system, it is possible to draw the target motion in the field of view of the user 150 when the user 150 performs the targeted exercise in conformity with the field of view of the user 150.

なお、ゴルフボール170の初期位置に対するユーザ150の立ち位置は、ボールを打つべき方向との関係で定まることから、ゴルフボール170の初期位置を基準に基準座標系261(X,Y,Z)を設定してもよい。具体的には、例えば、ゴルフボール170の初期位置を原点とし、制御端末130からゴルフボール170へと向かうベクトルをX軸、垂直方向をZ軸、X軸とZ軸の外積方向をY軸とする座標系を、基準座標系261(X,Y,Z)とする。この場合には、地面または床面262上に、制御端末130に対して予め定められた距離および方向にゴルフボール170の初期位置が位置するように、制御端末130を設置すればよい。または、ゴルフボール170にマーカを取り付け、制御端末130に備えられたディジタルカメラの撮影画像から、マーカの位置および方向を特定するなどして、ゴルフボール170の初期位置を原点とする基準座標系261を設定してもよい。 Incidentally, standing position of the user 150 to the initial position of the golf ball 170, since it is determined in relation to the direction in which hit the ball, golf ball 170 initial position reference coordinate system 261, based on the (X w of, Y w, Z w ) may be set. Specifically, for example, the initial position of the golf ball 170 is the origin, the vector from the control terminal 130 toward the golf ball 170 is the X axis, the vertical direction is the Z axis, and the cross product direction of the X axis and the Z axis is the Y axis. A coordinate system to be used is a reference coordinate system 261 (X w , Y w , Z w ). In this case, the control terminal 130 may be installed such that the initial position of the golf ball 170 is located on the ground or floor 262 at a predetermined distance and direction with respect to the control terminal 130. Alternatively, a reference coordinate system 261 with the initial position of the golf ball 170 as the origin is attached by attaching a marker to the golf ball 170 and specifying the position and direction of the marker from the captured image of the digital camera provided in the control terminal 130. May be set.

また、ユーザ150の胴体などの位置および姿勢を基準に、基準座標系260を設定してもよい。この場合には、例えば、ユーザ150の体の所定の位置に磁気センサを取り付け、制御端末130でこの磁気センサの位置および姿勢を検出する。これにより、移動や大きな動きを伴う運動についても、ユーザ150の視界に適合させて目標動作を描画することができる。   Further, the reference coordinate system 260 may be set based on the position and posture of the user 150 such as the body. In this case, for example, a magnetic sensor is attached to a predetermined position on the body of the user 150, and the position and orientation of the magnetic sensor are detected by the control terminal 130. Thereby, it is possible to draw a target motion in conformity with the field of view of the user 150 even for movement or movement involving a large movement.

次に、通過判定部138による通過判定の原理の一例について説明する。   Next, an example of the principle of passage determination by the passage determination unit 138 will be described.

図7は、通過判定部138による通過判定の原理の一例を示す図である。   FIG. 7 is a diagram illustrating an example of the principle of passage determination by the passage determination unit 138.

通過判定部138は、3軸加速度センサ120からの加速度データを2重積分し、学習対象(ここではクラブヘッド160)の三次元位置の初期位置に対する相対変化を求めることにより、学習対象の実動作を算出する。具体的には、通過判定部138は、例えばクラブヘッド160のヘッド面をゴルフボールに沿わせた状態を学習対象の初期位置および初期姿勢として取得する。そして、通過判定部138は、学習対象のある時点での加速度からオイラー法などにより微小時間後の運動を求める処理を反復することにより、運動結果の時系列を逐次的に求めていく。   The passage determination unit 138 double-integrates the acceleration data from the three-axis acceleration sensor 120 and obtains a relative change from the initial position of the three-dimensional position of the learning target (in this case, the club head 160), thereby obtaining the actual operation of the learning target. Is calculated. Specifically, the passage determination unit 138 acquires, for example, a state in which the head surface of the club head 160 is along the golf ball as the initial position and initial posture of the learning target. Then, the passage determination unit 138 sequentially obtains the time series of the motion results by repeating the process of obtaining the motion after a minute time from the acceleration at a certain time of the learning target by the Euler method or the like.

学習対象の実軌道270のどの時点の位置271を、どのオブジェクト250と比較すべきかを判断することは難しい。そこで、本実施の形態では、学習対象の実軌道270のうち、あるオブジェクト250との距離が最小となる位置271を、そのオブジェクト250と比較すべき位置とする。そして、その学習対象の位置271とオブジェクト250の位置との距離(以下「ずれ量」という)が所定の閾値より小さい場合には、成功したものと判定し、ずれ量が所定の閾値以上である場合には、失敗したものと判定する。   It is difficult to determine which point 271 of the actual trajectory 270 to be learned should be compared with which object 250. Therefore, in the present embodiment, a position 271 where the distance from a certain object 250 in the actual trajectory 270 to be learned is the minimum is set as a position to be compared with the object 250. When the distance between the learning target position 271 and the position of the object 250 (hereinafter referred to as “deviation amount”) is smaller than a predetermined threshold value, it is determined that the distance has succeeded, and the deviation amount is greater than or equal to the predetermined threshold value. In the case, it is determined that it has failed.

ここで、成功とは、学習対象の実軌道270が、目標軌道に位置するオブジェクト250を通過したことをいい、失敗とは、学習対象の実軌道270が、目標軌道に位置するオブジェクト250を通過しなかったことをいう。   Here, success means that the real trajectory 270 to be learned has passed the object 250 located in the target trajectory, and failure means that the real trajectory 270 to be learned has passed the object 250 located in the target trajectory. That didn't happen.

通過判定部138は、微少時間ごとの学習対象の位置271を算出する。ある時間における学習対象の位置(x,y,z)が微小時間後に位置(x+Δx,y+Δy,z+Δz)に変位したとする。通過判定部138は、変位後のずれ量d'が変位前のずれ量dよりも大きくなった時点における変位前の位置(x,y,z)を、オブジェクト250との距離が最小となる位置と判定する。   The passage determination unit 138 calculates a learning target position 271 for each minute time. It is assumed that the position (x, y, z) of the learning target at a certain time is displaced to the position (x + Δx, y + Δy, z + Δz) after a short time. The passage determination unit 138 uses the position (x, y, z) before displacement when the displacement amount d ′ after displacement becomes larger than the displacement amount d before displacement as the position where the distance from the object 250 is minimized. Is determined.

具体的には、通過判定部138は、まず、オブジェクト250の位置(x,y,z)に対して、以下の式(1)が成立するか否かを逐次判定する。 Specifically, the passage determining unit 138 first sequentially determines whether or not the following expression (1) is satisfied with respect to the position (x a , y a , z a ) of the object 250.

Figure 2009018127
Figure 2009018127

オブジェクト250が多数存在する場合には、全てのオブジェクト250に対して上記演算を行うと処理負荷が高くなる。そこで、通過判定部138は、オブジェクト情報131aに定義されたオブジェクトの順序に従って、1つずつ順に通過判定を行う。例えば、図7に示すように、オブジェクト番号A1に対応するオブジェクト250−A1と、次のオブジェクト番号であるオブジェクト番号A2に対応するオブジェクト250−A2が存在したとする。この場合、通過判定部138は、まず、オブジェクト250−A1についてのみ式(1)を用いた判定を実行し、式(1)が成立してから、次のオブジェクト250−A2について式(1)を用いた判定を実行すればよい。   When there are a large number of objects 250, the processing load increases if the above calculation is performed on all the objects 250. Therefore, the passage determination unit 138 performs passage determination one by one in accordance with the order of the objects defined in the object information 131a. For example, as shown in FIG. 7, it is assumed that an object 250-A1 corresponding to the object number A1 and an object 250-A2 corresponding to the object number A2 which is the next object number exist. In this case, the passage determination unit 138 first performs determination using the expression (1) only for the object 250-A1, and after the expression (1) is satisfied, the expression (1) for the next object 250-A2 is established. What is necessary is just to perform the determination using.

学習対象は、図7に示す位置271−1〜271−3を、この順序で通過したものとする。オブジェクト250−A2について式(1)の判定を実行している場合において、例えば、図7に示す位置271−1を(x,y,z)と置いたとき、学習対象はオブジェクト250−A2に近付く方向で移動しているので、式(1)は成立しない。一方、図7に示す位置271−2、271−3をそれぞれ(x,y,z)、(x+Δx,y+Δy,z+Δz)と置いたとき、学習対象はオブジェクト250−A2から遠ざかる方向で移動しているので、式(1)は成立する。   The learning target is assumed to have passed positions 271-1 to 271-3 shown in FIG. 7 in this order. In the case where the determination of Expression (1) is executed for the object 250-A2, for example, when the position 271-1 shown in FIG. 7 is set as (x, y, z), the learning target is the object 250-A2. Since moving in the approaching direction, equation (1) does not hold. On the other hand, when the positions 271-2 and 271-3 shown in FIG. 7 are set as (x, y, z) and (x + Δx, y + Δy, z + Δz), the learning object moves in a direction away from the object 250 -A 2. Therefore, Formula (1) is materialized.

通過判定部138は、式(1)が成立したと判定したとき、その時点の学習対象の位置(x,y,z)から、オブジェクト250の位置に対する学習対象の実軌道270の最小のずれ量dを、例えば以下の式(2)を用いて算出する。   When the passage determination unit 138 determines that the expression (1) is established, the minimum deviation amount of the learning target actual trajectory 270 with respect to the position of the object 250 from the learning target position (x, y, z) at that time. d is calculated using, for example, the following equation (2).

Figure 2009018127
Figure 2009018127

そして、通過判定部138は、算出したずれ量dを所定の閾値と比較し、成功であるか否かを判定する。   Then, the passage determination unit 138 compares the calculated deviation amount d with a predetermined threshold value, and determines whether or not it is successful.

また、通過判定部138は、式(1)が成立したと判定したとき、その時点の学習対象の姿勢(ここではクラブヘッド160のヘッド面の法線ベクトル)を、オブジェクト情報131aに定義されたオブジェクトの姿勢と比較する。   Further, when the passage determination unit 138 determines that the expression (1) is established, the posture of the learning target at that time (here, the normal vector of the head surface of the club head 160) is defined in the object information 131a. Compare with the posture of the object.

具体的には、通過判定部138は、例えば、学習対象の姿勢を示すベクトルとオブジェクト情報131aが定義するベクトルとが成す角(以下「ずれ角」という)を算出する。そして、通過判定部138は、ずれ角の絶対値が所定の閾値より小さい場合には、姿勢が正しいと判定し、ずれ角の絶対値が所定の閾値以上である場合には、姿勢が正しくないと判定する。   Specifically, for example, the passage determination unit 138 calculates an angle (hereinafter referred to as “shift angle”) formed by a vector indicating the learning target posture and a vector defined by the object information 131a. Then, the passage determination unit 138 determines that the posture is correct when the absolute value of the deviation angle is smaller than a predetermined threshold, and the posture is not correct when the absolute value of the deviation angle is equal to or larger than the predetermined threshold. Is determined.

更に、通過判定部138は、通過判定部138は、式(1)が成立したと判定したとき、その時点の学習対象の加速度を、オブジェクト情報131aに定義されたオブジェクト250の加速度と比較する。   Further, when the passage determination unit 138 determines that the expression (1) is satisfied, the passage determination unit 138 compares the acceleration of the learning target at that time with the acceleration of the object 250 defined in the object information 131a.

具体的には、通過判定部138は、例えば、学習対象の加速度とオブジェクト情報131aが定義する加速度との差を算出し、算出結果の絶対値が所定の閾値より小さい場合には、加速度が適正であると判定し、算出結果の絶対値が所定の閾値以上である場合には、加速度が適正でないと判定する。   Specifically, for example, the passage determination unit 138 calculates the difference between the acceleration to be learned and the acceleration defined by the object information 131a. If the absolute value of the calculation result is smaller than a predetermined threshold, the acceleration is appropriate. If the absolute value of the calculation result is equal to or greater than a predetermined threshold, it is determined that the acceleration is not appropriate.

また、あるオブジェクト250の位置を通過するときの加速度を基準に、他の各オブジェクト250の位置を通過するときの加速度の比率を算出し、比率の大きさによって加速度が適正か否かを判定してもよい。この場合には、相対的な加速度の変化を捉えながら、スローモーションの動きで目標動作をなぞる動作を行うことができる。   Further, based on the acceleration when passing through the position of a certain object 250, the ratio of acceleration when passing through the position of each other object 250 is calculated, and it is determined whether or not the acceleration is appropriate based on the magnitude of the ratio. May be. In this case, it is possible to perform an operation of tracing the target motion by the slow motion while capturing the relative acceleration change.

なお、実動作と目標動作との間で比較を行う物理量は、上記に限定されるものではない。但し、比較を行おうとする物理量を、目標動作を構成する1つの要素として、オブジェクト情報131aに予め定義しておく必要がある。   Note that the physical quantity to be compared between the actual operation and the target operation is not limited to the above. However, the physical quantity to be compared needs to be defined in advance in the object information 131a as one element constituting the target action.

次に、図2に示す構成を有する学習支援装置10の動作について、詳細に説明する。   Next, the operation of the learning support apparatus 10 having the configuration shown in FIG. 2 will be described in detail.

図8は、学習支援装置10の動作の流れを示すフローチャートである。   FIG. 8 is a flowchart showing an operation flow of the learning support apparatus 10.

まず、ステップS1100で、学習対象取得部132は、ユーザが希望する学習対象を示す学習対象情報を取得し、取得した学習対象情報を、目標動作作成部135に出力する。ここでは、「クラブ」が選択されるため、クラブヘッド160を学習対象とする学習対象情報が出力される。   First, in step S <b> 1100, the learning target acquisition unit 132 acquires learning target information indicating a learning target desired by the user, and outputs the acquired learning target information to the target action creation unit 135. Here, since “club” is selected, learning target information for the club head 160 as a learning target is output.

そして、ステップS1200で、目標動作作成部135は、学習対象情報が示す部位に対応するオブジェクト情報131aを、目標動作情報格納部131から、目標動作情報として取得する。ここでは、クラブヘッド160が学習対象であるため、図3に示す、部位名201に「クラブ」が設定されているオブジェクト情報131aが取得される。また、目標動作作成部135は、取得したオブジェクト情報131aを、通過判定部138に出力する。   In step S1200, the target motion creation unit 135 acquires object information 131a corresponding to the part indicated by the learning target information from the target motion information storage unit 131 as target motion information. Here, since the club head 160 is a learning target, the object information 131a in which “club” is set in the part name 201 shown in FIG. 3 is acquired. In addition, the target action creation unit 135 outputs the acquired object information 131a to the passage determination unit 138.

そして、ステップS1300で、目標動作作成部135は、取得したオブジェクト情報131aに記述された位置座標206を、位置姿勢情報取得部134で取得された位置姿勢情報および視界情報取得部133で取得された視界情報から、HMD座標系242に変換する。そして、目標動作作成部135は、描画対象となるオブジェクト250を取捨選択する描画対象計算を実施した後、目標動作を可視化して表現するための画像データ(以下単に「目標動作」という)を作成し、描画情報として目標動作描画部136に出力する。   In step S1300, the target motion creation unit 135 has acquired the position coordinates 206 described in the acquired object information 131a by the position and orientation information and view information acquisition unit 133 acquired by the position and orientation information acquisition unit 134. The view information is converted into the HMD coordinate system 242. Then, the target motion creating unit 135 performs drawing target calculation for selecting the object 250 to be rendered, and then creates image data (hereinafter simply referred to as “target motion”) for visualizing and expressing the target motion. Then, it is output to the target motion drawing unit 136 as drawing information.

例えば、学習の開始時において、描画対象がオブジェクト番号A1、A2、A3のオブジェクト250であり、図3に示す位置座標P1、P2、P3をHMD座標系242で表した位置座標がP−1、P−2、P−3であるとする。この場合、目標動作作成部135は、オブジェクト番号A1のオブジェクト250のオブジェクト画像232を、位置座標P−1に大きさS1で描画し、オブジェクト番号A2のオブジェクト250のオブジェクト画像232を、位置P−2に大きさS3で描画し、オブジェクト番号A3のオブジェクト250のオブジェクト画像232を、位置P−3に大きさS3で描画するための描画情報を作成する。   For example, at the start of learning, the drawing target is the object 250 with the object numbers A1, A2, and A3, and the position coordinates represented by the HMD coordinate system 242 in the position coordinates P1, P2, and P3 shown in FIG. It is assumed that P-2 and P-3. In this case, the target action creating unit 135 draws the object image 232 of the object 250 with the object number A1 at the position coordinate P-1 with the size S1, and the object image 232 of the object 250 with the object number A2 is drawn at the position P−. The drawing information for drawing the object image 232 of the object 250 with the object number A3 at the size S3 is created at the position P-3 with the size S3.

また、上記した描画対象計算の詳細は、下記の通りである。まず、目標動作作成部135は、オブジェクト情報131aのオブジェクト番号202、直前のオブジェクト番号203、および直後のオブジェクト番号204から、ユーザがなぞるべきオブジェクト250の順序を判断する。そして、目標動作作成部135は、ユーザ150の視点243と各オブジェクト250の位置とを結ぶ直線と、画像表示部113の描画面230との交点が、描画面230の内部に属するか否かを、なぞる順番に従って計算により判断する。そして、目標動作作成部135は、上記交点が描画面230の内部に属さないオブジェクトが現れた段階で計算を一時停止し、上記交点が描画面230の内部に属するオブジェクト250を描画対象として選択し、目標動作描画部136に描画対象の描画を依頼する。   The details of the above-described drawing object calculation are as follows. First, the target action creating unit 135 determines the order of the objects 250 to be traced by the user from the object number 202 of the object information 131a, the immediately preceding object number 203, and the immediately following object number 204. Then, the target action creating unit 135 determines whether or not the intersection of the straight line connecting the viewpoint 243 of the user 150 and the position of each object 250 and the drawing surface 230 of the image display unit 113 belongs to the inside of the drawing surface 230. Judgment is made by calculation according to the tracing order. Then, the target action creating unit 135 temporarily stops the calculation when an object whose intersection does not belong to the drawing surface 230 appears, and selects the object 250 whose intersection belongs to the drawing surface 230 as a drawing target. Then, the target action drawing unit 136 is requested to draw the drawing target.

そして、ステップS1400で、目標動作描画部136は、目標動作作成部135の描画指示に基づいて、図5に示すように、ヘッドマウントディスプレイ110の描画面230に目標動作を描画する。具体的には、目標動作描画部136は、目標動作作成部135から入力された描画情報を、無線通信によりヘッドマウントディスプレイ110の画像表示部113に送信する。   In step S1400, the target action drawing unit 136 draws the target action on the drawing surface 230 of the head mounted display 110 as shown in FIG. 5 based on the drawing instruction of the target action creating unit 135. Specifically, the target action drawing unit 136 transmits the drawing information input from the target action creating unit 135 to the image display unit 113 of the head mounted display 110 by wireless communication.

このように、図8のステップS1100〜S1400の処理により、学習対象の目標軌道に沿って、オブジェクト画像232が、描画面230上の対応する位置で表示される。ユーザ150は、オブジェクト画像232を見ながら、実物の学習対象(ここではクラブヘッド160)を目標動作になぞらせるように運動する。   In this manner, the object image 232 is displayed at a corresponding position on the drawing surface 230 along the target trajectory to be learned by the processing of steps S1100 to S1400 in FIG. While viewing the object image 232, the user 150 exercises to make the actual learning target (here, the club head 160) follow the target motion.

図9は、オブジェクト画像232をなぞるように学習対象を動作させる様子を示す図である。ここでは、学習対象が手であり、オブジェクト250が球と円板とその他の立体図形との組み合わせによりシンボル化させている場合を図示している。   FIG. 9 is a diagram illustrating a state in which the learning target is moved so as to trace the object image 232. Here, a case where the learning target is a hand and the object 250 is symbolized by a combination of a sphere, a disk, and other three-dimensional figures is illustrated.

図9に示すように、学習対象である手の目標軌道に沿って、オブジェクト画像232−1〜232−3が表示される。ユーザ150は、自己の手281の手がオブジェクト画像232−1〜232−3をなぞるように運動する。例えば、円板の平面が手のひらの向き、三角錐や円柱が加速または減速およびその大きさを示している。これらのシンボルの意味を予めユーザ150に通知しておくことにより、ユーザ150は、目標軌道に加えて、手のひらの向きや力加減といった目標となる運動に関連する物理量をも確認しながら、運動することができる。   As shown in FIG. 9, object images 232-1 to 232-3 are displayed along the target trajectory of the hand that is the learning target. The user 150 exercises so that the hand of his / her hand 281 traces the object images 232-1 to 232-3. For example, the plane of the disc indicates the orientation of the palm, and the triangular pyramid or cylinder indicates acceleration or deceleration and its size. By notifying the user 150 of the meanings of these symbols in advance, the user 150 exercises while confirming not only the target trajectory but also physical quantities related to the target exercise such as the orientation of the palm and the force. be able to.

図10は、オブジェクト250の具体例を示す図である。   FIG. 10 is a diagram illustrating a specific example of the object 250.

図10(A)に示すように、オブジェクト250は、例えば、フェース面282および後続オブジェクト方向指示部283から成るシンボルである。フェース面282は、所定の大きさの平面であり、ヘッド面の位置および姿勢を表現する。後続オブジェクト方向指示部283は、フェース面282を底辺とする円錐であり、円錐の高さによってヘッド面の加速度の大きさを、フェース面282の中心から頂点に向かう方向によってヘッド面の移動方向を表現する。あるオブジェクト250−1と次のオブジェクト250−2が存在している場合、図10(A)に示すように、オブジェクト250−1の後続オブジェクト方向指示部283は、次のオブジェクト250−2の位置の方向を示す。   As shown in FIG. 10A, the object 250 is a symbol composed of, for example, a face surface 282 and a subsequent object direction instruction unit 283. The face surface 282 is a plane having a predetermined size, and expresses the position and posture of the head surface. The subsequent object direction indicating unit 283 is a cone having the face surface 282 as a base, the magnitude of acceleration of the head surface is determined by the height of the cone, and the moving direction of the head surface is determined by the direction from the center of the face surface 282 to the vertex. Express. When a certain object 250-1 and the next object 250-2 exist, as shown in FIG. 10A, the subsequent object direction instruction unit 283 of the object 250-1 determines the position of the next object 250-2. Indicates the direction.

また、図10(A)に示すように、後続オブジェクト方向指示部283の円錐を縮小した相似形の円錐284を図示し、後続オブジェクト方向指示部283と円錐284で挟まれた部分の厚さ285で、クラブヘッド160に掛ける力加減を表現してもよい。   Further, as shown in FIG. 10A, a similar cone 284 in which the cone of the subsequent object direction indicating unit 283 is reduced is illustrated, and the thickness 285 of the portion sandwiched between the subsequent object direction indicating unit 283 and the cone 284 is illustrated. Thus, the force applied to the club head 160 may be expressed.

このようなオブジェクト250を用いることにより、ユーザ150に対して、ヘッド面の位置だけでなく、姿勢や加えるべき力の加減を、感覚的に伝えることができる。   By using such an object 250, not only the position of the head surface but also the adjustment of the posture and the force to be applied can be sensed to the user 150.

ゴルフのスィングにおいては、ユーザ150の手前から奥に部位を動かす場面は無いため、図10(A)に示すシンボルで差し支え無い。ところが、格闘技のパンチのように手前から奥に手を動かす動作がある場合には、後続オブジェクト方向指示部283の形状を把握しづらくなる可能性がある。   In the golf swing, there is no scene of moving the part from the front of the user 150 to the back, so the symbol shown in FIG. However, when there is an action of moving the hand from the front to the back like a martial arts punch, it may be difficult to grasp the shape of the subsequent object direction instruction unit 283.

そこで、このような場合には、図10(B)に示すように、頂点の部分を切り取る形で、後続オブジェクト方向指示部283に穴286を設けるようにしてもよい。   Therefore, in such a case, as shown in FIG. 10B, a hole 286 may be provided in the subsequent object direction instructing section 283 by cutting out the apex portion.

このようなオブジェクト250を用いることにより、ユーザ150に対して、オブジェクト250がどのような姿勢にあっても、穴286の位置や大きさによって、次のオブジェクト250の方向や加速度などを感覚的に伝えることができる。   By using such an object 250, the direction and acceleration of the next object 250 can be sensibly determined by the position and size of the hole 286 regardless of the posture of the object 250 with respect to the user 150. I can tell you.

このように、学習シーンや学習したい内容によって、種々のシンボルをオブジェクトとして使用できる。また、サイズ、解像度、色、透明度、輝度、密度、グラデーション、形状など、各種の属性を用いることにより、より多くの種類の物理量を表現できるとともに、物理量の大きさを細かに表現することが可能となる。   In this way, various symbols can be used as objects depending on the learning scene and the content to be learned. In addition, by using various attributes such as size, resolution, color, transparency, brightness, density, gradation, shape, etc., it is possible to express more types of physical quantities and to express the physical quantities in detail. It becomes.

図8のステップS1500で、運動情報取得部137は、スィング動作(なぞり動作)を開始したユーザの運動情報の取得を開始する。また、通過判定部138は、通過判定のための演算を開始する。具体的には、運動情報取得部137は、運動情報計測部121から単位時間ごとに送られてくる加速度データを受信し、通過判定部138に出力する。通過判定部138は、加速度データから、逐次、学習対象の実動作を計測する。そして、通過判定部138は、オブジェクト情報131aに定義されるオブジェクト250のうち、描画対象となっているオブジェクト250を順序に従って1つ選択し、2回目以降の実動作の計測が行われると、図7で説明した手順により、選択されているオブジェクト250に対する学習対象の実軌道270のずれ量dを求める。   In step S1500 of FIG. 8, the exercise information acquisition unit 137 starts acquiring exercise information of the user who has started the swing operation (tracing operation). In addition, the passage determination unit 138 starts computation for passage determination. Specifically, the exercise information acquisition unit 137 receives acceleration data sent from the exercise information measurement unit 121 every unit time and outputs the acceleration data to the passage determination unit 138. The passage determination unit 138 sequentially measures the actual operation to be learned from the acceleration data. Then, the passage determining unit 138 selects one of the objects 250 to be drawn from the objects 250 defined in the object information 131a according to the order, and the second and subsequent actual motions are measured. The deviation d of the actual trajectory 270 to be learned with respect to the selected object 250 is obtained by the procedure described in FIG.

そして、ステップS1600で、通過判定部138は、図7で説明した手法を用いて、求めたずれ量dと所定の閾値との比較により、学習対象の目標軌道の通過を判定する。具体的には、通過判定部138は、学習対象の通過が成功したか否か、および学習対象の姿勢が正しいか否か、学習対象の加速度が適正か否かなどの判定を行う。ここでは、クラブヘッド160が正しい位置を通過したか否か、通過時のヘッド面の向きは正しいか否か、およびクラブヘッド160に加える力加減は適正か否かが判定される。   In step S1600, the passage determination unit 138 determines the passage of the target trajectory to be learned by comparing the obtained deviation amount d with a predetermined threshold using the method described in FIG. Specifically, the passage determination unit 138 determines whether or not the learning target has passed successfully, whether or not the learning target posture is correct, and whether or not the learning target acceleration is appropriate. Here, it is determined whether or not the club head 160 has passed through the correct position, whether or not the orientation of the head surface at the time of passing is correct, and whether or not the force applied to the club head 160 is appropriate.

そして、ステップS1700で、通過判定部138は、各判定結果を判定結果情報として目標動作作成部135に出力し、判定結果を蓄積するように目標動作作成部135に対して指示する。   In step S1700, the passage determination unit 138 outputs each determination result as determination result information to the target motion creation unit 135, and instructs the target motion creation unit 135 to accumulate the determination result.

そして、ステップS1800で、目標動作作成部135は、判定結果情報の内容に応じて、選択されているオブジェクト画像232の属性の変更を目標動作描画部136に依頼し、描画面230にオブジェクト画像232を再描画させる。具体的には、例えば、目標動作作成部135は、学習対象が通過に成功した場合、既に目標動作描画部136に渡した描画情報を、該当するオブジェクト250の属性を変更した描画情報で差し替え、新たな描画情報に基づいた画像を描画面230に描画させる。   In step S 1800, the target action creating unit 135 requests the target action drawing unit 136 to change the attribute of the selected object image 232 according to the content of the determination result information, and causes the object image 232 to be displayed on the drawing surface 230. Redraw. Specifically, for example, when the learning target succeeds in passing, the target action creating unit 135 replaces the drawing information that has already been passed to the target action drawing unit 136 with the drawing information in which the attribute of the corresponding object 250 is changed, An image based on the new drawing information is drawn on the drawing surface 230.

なお、目標動作作成部135は、学習対象の現在位置に対応して、次になぞるべきオブジェクト画像232を、マーカを付けたり、サイズを変更したり、点滅させるなどして、強調してユーザに通知するようにしてもよい。これにより、学習対象の動きを先導することができ、ユーザが目標軌道を直感的に捉え易くすることができる。   The target motion creating unit 135 emphasizes the object image 232 to be traced next to the user by highlighting it by attaching a marker, changing the size, or blinking in accordance with the current position of the learning target. You may make it notify. Thereby, the movement of the learning target can be led, and the user can easily grasp the target trajectory intuitively.

また、運動に伴い、ユーザの頭部の位置や姿勢は変化し、ヘッドマウントディスプレイ110の描画面230を通して見える実視界も変化する。したがって、このことを考慮して、ステップS1800において上記した描画対象計算を再度行い、描画対象の取捨選択からやり直すようにしてもよい。   Further, as the user moves, the position and posture of the user's head change, and the actual field of view that can be seen through the drawing surface 230 of the head mounted display 110 also changes. Therefore, in consideration of this, the above-described drawing object calculation may be performed again in step S1800, and the drawing object may be selected again.

そして、ステップS1900で、目標動作作成部135は、描画対象となっている全てのオブジェクト250について処理を終了したか否かを判断する。目標動作作成部135は、未処理のオブジェクト250が残っている場合には(S1900:NO)、ステップS1500に戻り、次の描画対象となっているオブジェクト250を選択し直し、以降の処理を繰り返す。ステップS1500〜S1900の処理は、予め決められた時間ごとに実行してもよいし、ユーザ150の視点243の位置やヘッドマウントディスプレイ110の位置変位が所定の閾値よりも大きくなったタイミングで実行するようにしてもよい。   In step S1900, the target action creating unit 135 determines whether the processing has been completed for all the objects 250 to be drawn. If the unprocessed object 250 remains (S1900: NO), the target action creating unit 135 returns to step S1500, reselects the next drawing target object 250, and repeats the subsequent processing. . The processing in steps S1500 to S1900 may be executed at predetermined time intervals, or at a timing when the position of the viewpoint 243 of the user 150 or the positional displacement of the head mounted display 110 becomes larger than a predetermined threshold. You may do it.

図11は、目標動作の再描画によりオブジェクト画像232のシンボルが変化する様子の一例を示す図である。ここでは、ユーザ150の視界に入る画像のうち、オブジェクト画像232−1〜232−3とクラブヘッド160のみを図示している。   FIG. 11 is a diagram illustrating an example of how the symbol of the object image 232 changes due to redrawing of the target action. Here, only the object images 232-1 to 232-3 and the club head 160 among the images that are in the field of view of the user 150 are illustrated.

ここで、目標動作作成部135は、ステップS1800におけるオブジェクト画像232の属性の変更として、通過が成功したオブジェクト250のオブジェクト画像232を、一定時間経過すると消滅する爆発の画像に置き換える処理を実行するものとする。   Here, the target action creating unit 135 executes processing for replacing the object image 232 of the object 250 that has passed successfully with an explosion image that disappears after a certain period of time as the attribute change of the object image 232 in step S1800. And

図11に示すように、時刻t1で、オブジェクト画像232−1が示すオブジェクト250について通過が成功すると、時刻t2で、オブジェクト画像232−1に代えて爆発の画像290が描画される。また、時刻t3で、オブジェクト画像232−2が示すオブジェクト250について通過が成功すると、時刻t4で、オブジェクト画像232−2に代えて爆発の画像290が描画される。   As shown in FIG. 11, when the passage of the object 250 indicated by the object image 232-1 is successful at time t1, an explosion image 290 is drawn instead of the object image 232-1 at time t2. If the object 250 indicated by the object image 232-2 is successfully passed at time t3, an explosion image 290 is drawn instead of the object image 232-2 at time t4.

一方、時刻t5で、オブジェクト画像232−3が示すオブジェクト250について通過が失敗した場合には、爆発の画像290が描画されず、オブジェクト画像232−3がそのまま残る。これにより、ユーザ150は、目標軌道に配置されたオブジェクト画像232を学習対象が通過したか否かを、運動をしながら、リアルタイムにかつ直感的に確認することができる。   On the other hand, when the passage of the object 250 indicated by the object image 232-3 fails at time t5, the explosion image 290 is not drawn and the object image 232-3 remains as it is. As a result, the user 150 can intuitively confirm in real time while exercising whether or not the learning target has passed through the object image 232 arranged on the target trajectory.

なお、クラブヘッド160が、オブジェクト画像232−1に対応する位置を時刻t1に通過するとして、次のオブジェクト画像232−2に対応する位置に到達する時刻t2よりも前に、オブジェクト画像232−1についての通過の成否がユーザ150に通知されることが望ましい。   Assuming that the club head 160 passes the position corresponding to the object image 232-1 at time t1, the object image 232-1 is reached before time t2 when it reaches the position corresponding to the next object image 232-2. It is desirable to notify the user 150 of the success or failure of the passage.

すなわち、クラブヘッド160が前後するオブジェクト画像232−1、232−2に対応する位置の近傍を時刻t1、t2に通過する場合、再描画の基となるクラブヘッド160の位置計測が行われてから再描画が完了するまでの時間(図8のステップS1500〜S1800の処理に要する時間)を△tとすると、以下の式(3)が成立することが望ましい。   In other words, when the vicinity of the position corresponding to the object images 232-1 and 232-2 in which the club head 160 moves back and forth at the times t1 and t2, the position of the club head 160 that is the basis of redrawing is measured. When the time until redrawing is completed (the time required for the processing of steps S1500 to S1800 in FIG. 8) is Δt, it is desirable that the following expression (3) is satisfied.

Figure 2009018127
Figure 2009018127

このことから、目標動作作成部135は、式(3)を満たすように、描画対象の取捨選択を行ってもよい。具体的には、目標動作作成部135は、例えば、クラブヘッド160の移動速度に基づいて、またはユーザ150が選択した速度レベルに基づいて、オブジェクト情報131aに定義されたオブジェクト250を間引き、予め即時の結果通知が可能なオブジェクトを優先して描画対象に選択する。   From this, the target action creating unit 135 may select the drawing target so as to satisfy the expression (3). Specifically, the target motion creating unit 135 thins out the object 250 defined in the object information 131a based on the moving speed of the club head 160 or based on the speed level selected by the user 150, for example, immediately in advance. Priority is given to the object that can be notified of the result of the above.

図12は、目標動作の再描画によりオブジェクト画像232のシンボルが変化した後の様子の一例を示す図である。   FIG. 12 is a diagram illustrating an example of a state after the symbol of the object image 232 is changed by redrawing the target action.

ここで、学習対象取得部132は、ポイント重要度205が大となっているオブジェクトをポイントオブジェクトとして、ポイント重要度205が小となっているオブジェクトを一般オブジェクトとして、それぞれ取り扱うものとする。ポイントオブジェクトとは、正しくなぞれたか否かの通過判定結果に基づいて形状を変化させるオブジェクトである。また、一般オブジェクトとは、判定結果に関係なく形状を一定とするオブジェクトである。   Here, it is assumed that the learning target acquisition unit 132 handles an object having a high point importance 205 as a point object and an object having a low point importance 205 as a general object. A point object is an object that changes its shape based on a passage determination result indicating whether or not it has been traced correctly. A general object is an object whose shape is constant regardless of the determination result.

また、学習対象取得部132は、ステップS1800におけるオブジェクト画像232の属性の変更として、通過が失敗したオブジェクト250がポイントオブジェクトである場合には、オブジェクト画像232のサイズを大きくする処理を実行するものとする。   In addition, as a change in the attribute of the object image 232 in step S1800, the learning target acquisition unit 132 executes a process of increasing the size of the object image 232 when the object 250 that has failed to pass is a point object. To do.

図3に示すように、オブジェクト番号A1、A4のオブジェクト250のポイント重要度205は大であり、オブジェクト番号A2、A3のオブジェクト250のポイント重要度205は小である。   As shown in FIG. 3, the point importance 205 of the objects 250 having the object numbers A1 and A4 is high, and the point importance 205 of the object 250 having the object numbers A2 and A3 is low.

したがって、オブジェクト番号A1〜A4に対応するオブジェクト250の全てにおいて通過が失敗した場合、図12(A)に示す目標動作291−1のように、ポイントオブジェクト、つまりポイント重要度205が大であるオブジェクト番号A1、A4に対応するオブジェクト画像232のみ、大きなサイズに変更される。このように、ポイントオブジェクトと一般オブジェクトとが混在することにより、ユーザ150は、意識するポイントを直感的に認識することができる。   Therefore, when the passage fails in all of the objects 250 corresponding to the object numbers A1 to A4, as in the target action 291-1 shown in FIG. 12A, the point object, that is, the object whose point importance degree 205 is large. Only the object image 232 corresponding to the numbers A1 and A4 is changed to a large size. As described above, by mixing the point object and the general object, the user 150 can intuitively recognize the point to be conscious of.

また、例えば、図12(B)に示す目標動作291−2のように、順序が隣り合うオブジェクト250を結ぶオブジェクト250の画像として、点線状のオブジェクト画像232を配置するようにしてもよい。このオブジェクト250を結ぶオブジェクト250も、一般オブジェクトの一種として取り扱うことができる。   Further, for example, a dotted line object image 232 may be arranged as an image of the object 250 that connects the objects 250 adjacent in order as in the target action 291-2 illustrated in FIG. The object 250 connecting the objects 250 can also be handled as a kind of general object.

なお、オブジェクト情報131aのポイント重要度205において、大中小などより多くの段階のポイント重要度を記述し、重要度「大」をポイントオブジェクト、重要度「中」を一般オブジェクト、重要度「小」を点線で表示する一般オブジェクトとしてもよい。   It should be noted that in the point importance 205 of the object information 131a, the point importance of more stages such as large, medium, and small is described, the importance “large” is the point object, the importance “medium” is the general object, and the importance “small”. May be a general object that is displayed by a dotted line.

また、ユーザ150に対して、より滑らかになぞりの動作を行わせようとする場合には、ポイントオブジェクトの間により多くの一般オブジェクトを配置すればよい。更に、目標動作作成部135の計算能力や目標動作描画部136の描画能力に応じて、これらの装置部に対する処理負荷を軽減すべく、一般オブジェクトの図示を省略するようにしてもよい。   Further, in order to cause the user 150 to perform a smoother movement, more general objects may be arranged between the point objects. Further, in accordance with the calculation capability of the target motion creation unit 135 and the rendering capability of the target motion drawing unit 136, the general object may be omitted in order to reduce the processing load on these device units.

また、図12(A)、(B)に示すオブジェクト画像232の表示手法を、再描画後ではなく、当初の目標動作の描画に適用してもよいことは勿論である。   Also, it goes without saying that the display method of the object image 232 shown in FIGS. 12A and 12B may be applied to the drawing of the initial target motion, not after the redrawing.

目標動作作成部135は、図8のステップS1500〜S1900の処理を繰り返して、描画対象となっている全てのオブジェクト250について処理を終了した場合には(S1900:YES)、ステップS2000に進む。   If the target motion creation unit 135 repeats the processing of steps S1500 to S1900 in FIG. 8 and completes the processing for all the objects 250 to be drawn (S1900: YES), the process proceeds to step S2000.

ステップS2000で、学習支援装置10は、目標動作と実動作とを重ねて表示し、一連の処理を終了する。具体的には、通過判定部138は、時間経過に伴う学習対象の初期位置からの変位を、学習対象の実動作として、目標動作作成部135に出力する。目標動作作成部135は、学習対象の実動作に目標動作を重ねて表示するための描画情報を作成し、目標動作描画部136に出力する。   In step S2000, the learning support apparatus 10 displays the target action and the actual action in a superimposed manner, and ends the series of processes. Specifically, the passage determination unit 138 outputs the displacement from the initial position of the learning target with the passage of time to the target motion creating unit 135 as the actual motion of the learning target. The target action creating unit 135 creates drawing information for displaying the target action superimposed on the actual action to be learned, and outputs the drawing information to the target action drawing unit 136.

図13は、学習対象の実動作に目標動作を重ねて表示した状態を示す図である。   FIG. 13 is a diagram illustrating a state in which the target motion is displayed superimposed on the actual motion to be learned.

図13に示すように、ヘッドマウントディスプレイ110の描画面230には、学習対象の実軌道292に重ねて、実動作と目標動作との比較結果を示すオブジェクト画像232が表示される。ここでは、オブジェクト画像232に対して、ずれ方向に色が濃くなるようなグラデーションを施した例を図示している。このような比較結果の表示により、ユーザ150は、目標動作に対する実動作の、運動の全体的な流れの中でのずれを、即時に認識し、自己の運動の全体的な流れを効率良く改善することができる。   As shown in FIG. 13, on the drawing surface 230 of the head mounted display 110, an object image 232 indicating the comparison result between the actual motion and the target motion is displayed so as to overlap the actual trajectory 292 to be learned. Here, an example in which gradation is applied to the object image 232 so that the color becomes darker in the shift direction is illustrated. By displaying such a comparison result, the user 150 immediately recognizes the deviation of the actual motion with respect to the target motion in the overall flow of motion, and efficiently improves the overall flow of own motion. can do.

以上説明したように、本実施の形態によれば、学習支援装置10は、ユーザに対し、ユーザの目標となる運動に関連する、学習対象の姿勢や加速度といった所定の物理量を、学習対象の目標軌道上の対応する位置で提示する。また、このような目標動作の提示を、三次元的に目標軌道に重ならない位置での描画によって行う。これにより、たとえば上級者の運動といった目標となる運動における学習対象の動作をなぞることができ、目標となる運動を体感しながら学習することができる。したがって、ユーザに対して、目標となる運動の確実な学習を促すことができる。   As described above, according to the present embodiment, the learning support device 10 gives a predetermined physical quantity, such as a posture or acceleration of a learning target, related to a user's target motion to the user. Present at the corresponding position on the orbit. Also, such target motion is presented by drawing at a position that does not overlap the target trajectory in three dimensions. Thereby, for example, the movement of the learning target in a target exercise such as exercise of an advanced user can be traced, and learning can be performed while experiencing the target exercise. Therefore, it is possible to prompt the user to learn the target exercise reliably.

すなわち、従来のように、テキストや動画などからユーザ自身が頭の中で目標動作を空間的にイメージして、見様見真似で運動を学習する場合に比べて、短時間での運動の上達を図ることができる。特に、学習対象分野の知識が少ないユーザや、イメージ作成が苦手な初心者または初級者に対しては、目標動作を容易かつ正確に認知できることから、学習効率を著しく向上させることができる。   In other words, as compared to the case where the user himself / herself spatially imagines the target motion in his / her head and learns the exercise by imitating the appearance from text and videos, the improvement of the exercise in a short time is achieved. Can do. In particular, for a user who has little knowledge in the field to be learned and a beginner or beginner who is not good at image creation, the target action can be recognized easily and accurately, so that the learning efficiency can be significantly improved.

また、ユーザの実際の運動における学習対象の軌道や所定の物理量を計測し、目標となる運動における学習対象の軌道や所定の物理量と比較して、比較結果をフィードバックする。これにより、ユーザが自己の運動を目標となる運動に近づけるために有効な情報を得ることができ、学習効率を更に向上させることができる。   In addition, the trajectory and predetermined physical quantity of the learning target in the actual motion of the user are measured, and compared with the trajectory and predetermined physical quantity of the learning target in the target motion, the comparison result is fed back. Thereby, it is possible to obtain effective information for the user to bring his / her exercise closer to the target exercise, and the learning efficiency can be further improved.

また、他人の運動における学習対象の軌道などを体感することができるので、エンターティメント性に富んだ学習支援を行うことができる。   In addition, since it is possible to experience the trajectory of the learning target in other people's movements, it is possible to provide learning support rich in entertainment.

なお、目標動作の表示の手法には、上記内容以外の様々なバリエーションを適用し得る。どのような手法を適用するかは、例えば、目標動作作成部135の計算能力や、目標動作描画部136の描画能力に応じて決定すればよい。または、目標動作作成部135で複数の手法を選択できるようにしておき、ユーザ150の学習レベルやチェックしたい内容に応じて、適用する手法を切り替えるようにしてもよい。   It should be noted that various variations other than the above contents can be applied to the display method of the target action. What method should be applied may be determined according to, for example, the calculation capability of the target motion creation unit 135 and the rendering capability of the target motion drawing unit 136. Alternatively, a plurality of methods may be selected by the target action creating unit 135, and the method to be applied may be switched according to the learning level of the user 150 and the content to be checked.

また、計測されたユーザの運動における学習対象の軌道および各位置における所定の物理量から、オブジェクト情報を作成して記憶しておき、このオブジェクト情報の内容を、目標となる運動の基礎情報として用いてもよい。これにより、ユーザは、自分の運動を目標となる運動として他人に提供したり、他人の任意の運動を目標となる運動として取得することができ、コミュニケーション性に富んだ学習支援をも行うことができる。すなわち、ユーザに対し、単なる運動の学習支援以上の幅広い貢献が可能である。   In addition, object information is created and stored from the measured trajectory of the user's movement and predetermined physical quantities at each position, and the contents of this object information are used as basic information of the target movement. Also good. As a result, the user can provide his / her exercise as a target exercise to another person, or can acquire any other person's exercise as a target exercise, and can also provide learning support rich in communicability. it can. In other words, it is possible to make a wide range of contributions to the user beyond simple exercise learning support.

(実施の形態2)
実施の形態2では、学習対象の通過判定結果と、ユーザの運動の習熟度に応じて、オブジェクトの属性を変更する場合について説明する。
(Embodiment 2)
In the second embodiment, a case will be described in which the attribute of an object is changed in accordance with the result of passage determination as a learning target and the user's exercise proficiency.

図14は、本発明の実施の形態2に係る学習支援装置の詳細な構成を示すブロック図であり、実施の形態1の図2に対応するものである。図2と同一部分には同一符号を付し、これについての説明を省略する。   FIG. 14 is a block diagram showing a detailed configuration of the learning support apparatus according to the second embodiment of the present invention, and corresponds to FIG. 2 of the first embodiment. The same parts as those in FIG.

図14に示すように、学習支援装置30は、図2の制御端末130に代えて、制御端末330を有する。   As illustrated in FIG. 14, the learning support device 30 includes a control terminal 330 instead of the control terminal 130 in FIG. 2.

制御端末330は、学習対象の目標動作を取得し、目標動作をヘッドマウントディスプレイ110の対応する位置に表示させる。また、制御端末330は、学習対象の実動作を計測し、目標動作と実動作との比較結果からユーザ150の習熟度を推定し、習熟度に応じて目標動作の表示を変化させる。   The control terminal 330 acquires the target motion to be learned and displays the target motion at a corresponding position on the head mounted display 110. In addition, the control terminal 330 measures the actual motion to be learned, estimates the proficiency level of the user 150 from the comparison result between the target motion and the actual motion, and changes the display of the target motion according to the proficiency level.

制御端末330は、図2の目標動作作成部135に代えて目標動作作成部335を有し、更に、習熟度推定部339を有する。   The control terminal 330 includes a target action creation unit 335 instead of the target action creation unit 135 of FIG. 2, and further includes a proficiency level estimation unit 339.

目標動作作成部335は、取得したオブジェクト情報131aの記述内容に基づいて、描画情報を作成するための作成計画であるオブジェクト描画計画を作成し、作成した描画情報を目標動作描画部136に出力する。オブジェクト描画計画は、図3に示すオブジェクト情報131aと同様の構成を有するが、HMD座標系242の座標情報でオブジェクト250の位置座標を定義する。   The target action creating unit 335 creates an object drawing plan, which is a creation plan for creating drawing information, based on the description content of the acquired object information 131a, and outputs the created drawing information to the target action drawing unit 136. . The object drawing plan has the same configuration as the object information 131a shown in FIG. 3, but the position coordinates of the object 250 are defined by the coordinate information of the HMD coordinate system 242.

また、目標動作作成部335は、通過判定部138から出力される通過判定情報を習熟度推定部339に出力し、習熟度推定部339からの指示に従って、オブジェクト描画計画を変更する。そして、目標動作作成部335は、変更されたオブジェクト描画計画に基づいて、目標動作の表示を変化させた新たな描画情報を作成する。   The target action creating unit 335 outputs the passage determination information output from the passage determination unit 138 to the proficiency level estimation unit 339, and changes the object drawing plan in accordance with an instruction from the proficiency level estimation unit 339. Then, the target action creation unit 335 creates new drawing information in which the display of the target action is changed based on the changed object drawing plan.

図15は、習熟度推定部339に入力される通過判定情報の構成の一例を示す図である。   FIG. 15 is a diagram illustrating an example of the configuration of the passage determination information input to the proficiency level estimation unit 339.

図15に示すように、通過判定情報410は、階層構造を有する。通過判定情報410は、1つまたは複数の部位単位結果411から構成される。各部位単位結果411は、部位名412と、1つまたは複数のオブジェクト単位結果413とから構成される。各オブジェクト単位結果413は、オブジェクト番号414と、失敗数415と、1つまたは複数のずれ説明416とから構成される。各ずれ説明416は、項目名417、ずれ内容418、およびずれ差分419から構成される。   As shown in FIG. 15, the passage determination information 410 has a hierarchical structure. The passage determination information 410 includes one or more part unit results 411. Each part unit result 411 includes a part name 412 and one or a plurality of object unit results 413. Each object unit result 413 includes an object number 414, a failure number 415, and one or more deviation explanations 416. Each deviation description 416 includes an item name 417, a deviation content 418, and a deviation difference 419.

部位単位結果411は、部位ごとの目標動作と実動作との比較結果を示す。   The part unit result 411 indicates a comparison result between the target action and the actual action for each part.

部位名412は、実施の形態1の図3に示すオブジェクト情報131aにおける部位名201に対応しており、学習対象を示す。オブジェクト単位結果413は、オブジェクトごとの目標動作と実動作との比較結果を示す。オブジェクト番号414は、オブジェクト情報131aにおけるオブジェクト番号202に対応しており、目標動作と実動作との間でなんらかのずれが発生したオブジェクトのオブジェクト番号を示す。失敗数415は、目標動作と実動作との間でずれがあった項目の数を示す。ずれ説明416は、項目ごとのずれの内容を示し、失敗数415に記述された数だけ連続的に記述される。   The part name 412 corresponds to the part name 201 in the object information 131a shown in FIG. 3 of the first embodiment, and indicates a learning target. The object unit result 413 indicates a comparison result between the target action and the actual action for each object. The object number 414 corresponds to the object number 202 in the object information 131a, and indicates the object number of an object in which some deviation has occurred between the target action and the actual action. The number of failures 415 indicates the number of items having a difference between the target action and the actual action. The deviation explanation 416 indicates the contents of deviation for each item, and is described continuously by the number described in the number of failures 415.

ずれ説明416において、項目名417は、目標動作と実動作との間でずれがあった項目であって、チェックすべき項目を示す。ずれ内容418は、ずれの具体的内容を示す。ずれ差分419は、ずれの大きさを示す。ずれ内容418やずれ差分419に記述される値の単位は、項目名417の種別ごとに予め定められている。   In the deviation explanation 416, the item name 417 indicates an item to be checked, which is an item having a deviation between the target action and the actual action. The deviation content 418 indicates the specific content of the deviation. The deviation difference 419 indicates the magnitude of the deviation. The unit of values described in the deviation content 418 and the deviation difference 419 is determined in advance for each type of the item name 417.

図14の習熟度推定部339は、入力される通過判定情報410が示す判定結果を蓄積し、蓄積された判定結果から、ユーザ150の習熟度を推定し、習熟度に応じて、目標動作作成部335に対してオブジェクト画像の表示の変更を指示する。具体的には、習熟度推定部339は、習熟度に応じた目標動作の表示の修正についてのポリシを定めた修正ポリシ情報をあらかじめ保持している。   The proficiency level estimation unit 339 in FIG. 14 accumulates the determination result indicated by the input passage determination information 410, estimates the proficiency level of the user 150 from the accumulated determination result, and creates a target action according to the proficiency level The unit 335 is instructed to change the display of the object image. Specifically, the proficiency level estimation unit 339 holds in advance correction policy information that defines a policy for correcting the display of the target action according to the proficiency level.

図16は、修正ポリシ情報の内容の一例を示す図である。   FIG. 16 is a diagram illustrating an example of the content of the modified policy information.

図16に示すように、修正ポリシ情報420は、判定結果内容421、および変更依頼内容422から構成される。判定結果内容421には、通過判定情報410のずれ説明416に記述され得る内容が記述される。変更依頼内容422は、判定結果内容421に記述された内容に、通過判定情報410のずれ説明416に記述される内容が当てはまるときに、目標動作作成部335に対して依頼すべき目標動作の表示の変更の内容が記述される。   As shown in FIG. 16, the modified policy information 420 includes determination result contents 421 and change request contents 422. In the determination result contents 421, contents that can be described in the deviation explanation 416 of the passage determination information 410 are described. The change request content 422 is a display of the target motion to be requested to the target motion creation unit 335 when the content described in the deviation description 416 of the passage determination information 410 is applied to the content described in the determination result content 421. The contents of the change are described.

例えば、「ずれ内容:内側」という判定結果内容421に対して、「色:内側の色を濃く、大きさ:内側に拡大」という変更依頼内容422が記述されている。これは、通過判定情報410のずれ内容418に、実軌道が目標軌道の内側にずれている旨が記述されている場合には、オブジェクト250に対して、内側の色を濃くするとともに大きさを内側に拡大させる変化を与えるべきであることを示す。これにより、ユーザ150は、オブジェクトのグラデーションから、実軌道の修正すべき方向を直感的に捉えることができる。   For example, a change request content 422 of “color: darker inner color and larger size: larger inward” is described with respect to the determination result content 421 of “deviation content: inside”. This is because when the deviation content 418 of the passage determination information 410 describes that the actual trajectory is shifted to the inside of the target trajectory, the inner color is darkened and the size of the object 250 is increased. Indicates that a change that expands inward should be given. Thereby, the user 150 can intuitively grasp the direction in which the actual trajectory should be corrected from the gradation of the object.

また、「ずれ内容:内側または外側、かつ、ずれ差分:所定の閾値より大」という判定結果内容421に対して、「軌道を実軌道側に修正」という変更依頼内容421が記述されている。これは、通過判定情報410において、ずれ内容418に、実起動が目標方法軌道の内側または外側にずれている旨が記述されており、かつ、ずれ差分419に記述された値が所定の閾値よりも大きい場合には、オブジェクト250に対して、目標軌道を実軌道側に移動させる変化を与えるべきであることを示す。これにより、ユーザ150は、より到達し易い目標軌道を用いて学習を行うことができ、最終的な目標動作を段階的に学習することができる。   In addition, a change request content 421 “modify the trajectory to the actual trajectory side” is described with respect to the determination result content 421 “deviation content: inside or outside and deviation difference: greater than a predetermined threshold”. This is because in the passage determination information 410, the deviation content 418 describes that the actual activation has deviated inside or outside the target method trajectory, and the value described in the deviation difference 419 is greater than a predetermined threshold value. Is larger, it indicates that the object 250 should be changed to move the target trajectory toward the actual trajectory. Thereby, the user 150 can perform learning using a target trajectory that can be more easily reached, and can learn the final target motion step by step.

図14に示す習熟度推定部339は、一連の実動作について計測が完了するごとに、ユーザ150の習熟度を推定して適宜オブジェクト画像232の表示の変更を依頼する習熟度推定処理を実行する。   The proficiency level estimation unit 339 illustrated in FIG. 14 executes a proficiency level estimation process that estimates the proficiency level of the user 150 and appropriately requests display change of the object image 232 every time measurement is completed for a series of actual operations. .

習熟度推定処理において、習熟度推定部339は、習熟度が低いと推定した場合には、修正ポリシ情報420に従って、オブジェクト画像232の表示の変更の具体的内容を記述した変更依頼情報を作成し、作成した変更依頼情報を、目標動作作成部335に出力する。   In the proficiency level estimation process, when the proficiency level estimation unit 339 estimates that the proficiency level is low, the proficiency level estimation unit 339 creates change request information describing the specific content of the display change of the object image 232 according to the modified policy information 420. The created change request information is output to the target action creating unit 335.

なお、修正ポリシ情報420には、例えば、描画対象とするオブジェクト250の数の増加、輝度やグラデーションの変更といったオブジェクト250の属性の変更など、各種の変更依頼内容を記述できる。   The modification policy information 420 can describe various change request contents such as an increase in the number of objects 250 to be rendered and a change in the attributes of the object 250 such as changes in luminance and gradation.

図17は、習熟度推定部339が作成する変更依頼情報の構成の一例を示す図である。   FIG. 17 is a diagram illustrating an example of a configuration of change request information created by the proficiency level estimation unit 339.

図17に示すように、変更依頼情報430は、階層構造を有する。変更依頼情報430は、1つまたは複数の部位単位変更依頼431から構成される。各部位単位変更依頼431は、部位名432と、1つまたはオブジェクト単位変更依頼433とから構成される。各オブジェクト単位変更依頼433は、オブジェクト番号434と、変更依頼数435と、1つまたは複数の変更説明436から構成される。各変更説明436は、項目名437、および変更内容438から構成される。   As shown in FIG. 17, the change request information 430 has a hierarchical structure. The change request information 430 includes one or a plurality of part unit change requests 431. Each part unit change request 431 includes a part name 432 and one or object unit change request 433. Each object unit change request 433 includes an object number 434, a change request number 435, and one or more change descriptions 436. Each change description 436 includes an item name 437 and change contents 438.

各部位単位変更依頼情報431は、部位ごとの目標動作の変更依頼内容を示す。   Each part unit change request information 431 indicates a change request content of a target action for each part.

部位名432は、実施の形態1の図3に示すオブジェクト情報131aにおける部位名201に対応しており、変更の対象を示す。オブジェクト単位変更依頼433は、オブジェクトごとの変更内容を示す。オブジェクト番号434は、オブジェクト情報131aにおけるオブジェクト番号202に対応しており、変更の対象となるオブジェクトのオブジェクト番号を示す。変更依頼数435は、変更を依頼する項目の数を示す。変更説明436は、項目ごとの変更を依頼する内容を示し、変更依頼数435に記述された数だけ連続的に記述される。   The part name 432 corresponds to the part name 201 in the object information 131a shown in FIG. 3 of the first embodiment, and indicates a change target. The object unit change request 433 indicates the change contents for each object. The object number 434 corresponds to the object number 202 in the object information 131a, and indicates the object number of the object to be changed. The number of change requests 435 indicates the number of items for which a change is requested. The change description 436 indicates the content of requesting a change for each item, and is described continuously by the number described in the change request number 435.

変更説明436において、項目名437は、変更を依頼する項目を示す。変更内容438は、変更の具体的内容を示す。変更内容438に記述される値の単位は、項目名437の種別ごとに予め定められている。   In the change description 436, an item name 437 indicates an item for which a change is requested. The change content 438 indicates the specific content of the change. The unit of the value described in the change content 438 is determined in advance for each type of the item name 437.

以下、習熟度推定部339で実行される習熟度推定処理について、詳細に説明する。   Hereinafter, the proficiency level estimation process executed by the proficiency level estimation unit 339 will be described in detail.

図18は、習熟度推定部339が実行する習熟度推定処理の流れを示すフローチャートである。習熟度推定部339は、例えば、実施の形態1の図8のステップS2000の直前に、以下に説明する習熟度推定処理を実行する。   FIG. 18 is a flowchart showing a flow of proficiency level estimation processing executed by the proficiency level estimation unit 339. The proficiency level estimation unit 339 executes the proficiency level estimation process described below, for example, immediately before step S2000 in FIG. 8 of the first embodiment.

まず、ステップS1910で、習熟度推定部339は、目標動作作成部335を介して、通過判定部138から、図15に示す通過判定情報410を入力する。   First, in step S1910, the proficiency level estimation unit 339 inputs the passage determination information 410 illustrated in FIG. 15 from the passage determination unit 138 via the target action creation unit 335.

図19は、通過判定情報410の内容の具体例を示す図であり、図15に対応するものである。   FIG. 19 is a diagram showing a specific example of the contents of the passage determination information 410, and corresponds to FIG.

図19に示すように、通過判定情報410aには、「クラブ」という部位名412a、「Am」というオブジェクト番号414a、「2」という失敗数415a、「位置」という項目名417a−1に対応付けられた「内側」というずれ内容418a−1および「a」というずれ差分419a−1、「加速度」という項目名417a−2に対応付けられた「遅い」というずれ内容418a−2および「b」というずれ差分419a−2が記述されている。これは、クラブヘッド160が学習対象であり、オブジェクト番号Amにおいて、位置が内側にaだけずれたという失敗と、加速度がbだけ遅いという失敗があったということを示す。   As shown in FIG. 19, the passage determination information 410a is associated with a part name 412a “club”, an object number 414a “Am”, a failure number 415a “2”, and an item name 417a-1 “position”. The deviation contents 418a-1 and "a", the deviation difference 419a-1 "a", and the "slow" deviation contents 418a-2 and "b" associated with the item name 417a-2 "acceleration" A shift difference 419a-2 is described. This indicates that the club head 160 is a learning target, and in the object number Am, there was a failure that the position was shifted inward by a and a failure that the acceleration was slow by b.

そして、図18に示すステップS1920で、習熟度推定部339は、入力された通過判定情報410が示す判定結果を、使用可能な最大メモリ容量の範囲内で蓄積する。または、習熟度推定部339は、予め定められた数の通過判定情報410に対応する判定結果を、新しい情報を優先させて蓄積する。   Then, in step S1920 shown in FIG. 18, the proficiency level estimation unit 339 accumulates the determination result indicated by the input passage determination information 410 within the range of the maximum usable memory capacity. Alternatively, the proficiency level estimation unit 339 accumulates determination results corresponding to a predetermined number of passage determination information 410 with priority given to new information.

そして、ステップS1930で、習熟度推定部339は、蓄積された判定結果から、学習対象の実動作が学習対象の目標動作を通過した確率(以下「通過確率」という)を算出する。   In step S1930, the proficiency level estimation unit 339 calculates the probability that the learning target actual motion has passed the learning target goal motion (hereinafter referred to as “passing probability”) from the accumulated determination result.

ここで、目標動作の通過とは、学習対象の通過の成功のみならず、学習対象の姿勢が正しいこと、学習対象の加速度が適正であることなど、目標動作を構成する各種要素ごとの目標動作に対する一致を含むものとする。   Here, the passage of the target motion is not only the success of the learning target, but also the target motion for each element that constitutes the target motion, such as that the posture of the learning target is correct and the acceleration of the learning target is appropriate. Including a match for.

また、通過確率とは、ユーザが正しくなぞれたかを判断するための指標である。通過確率としては、過去数回分の判定結果の数に対する通過の数の比を採用してもよいし、直前の試行結果のみならず、過去何回かにおける失敗の頻度や傾向などランダム性をふまえた分析結果を採用してもよい。   The passing probability is an index for determining whether the user has traced correctly. As the pass probability, the ratio of the number of passes to the number of judgment results for the past several times may be adopted, and not only the previous trial result but also the randomness such as the frequency and tendency of failure in the past several times The analysis results may be adopted.

そして、ステップS1940で、習熟度推定部339は、各オブジェクト250について、算出した通過確率が所定の閾値以上であるか否かを判断する。具体的には、例えば、習熟度推定部339は、過去10回分の判定結果において5回以上失敗し、かつ3回以上連続して失敗しているという条件を閾値とした場合、各オブジェクト250について、過去10回分の判定結果から失敗数と連続失敗数の最大値を通過確率として算出し、算出結果と閾値とを比較する。習熟度推定部339は、通過確率が所定の閾値以上であるオブジェクト250については(S1940:YES)、該当するオブジェクトをユーザ150が苦手なポイントと判断して、ステップS1950に進む。一方、習熟度推定部339は、通過確率が所定の閾値未満であるオブジェクト250については(S1940:NO)、該当するオブジェクトをユーザ150が苦手なポイントではないと判断して、ステップS1950には進まずに、そのまま図8のステップS2000の処理に戻る。   In step S1940, the proficiency level estimation unit 339 determines whether or not the calculated passing probability is greater than or equal to a predetermined threshold value for each object 250. Specifically, for example, if the proficiency level estimation unit 339 sets a threshold value as a condition that the determination result for the past 10 times has failed 5 times or more and has failed 3 times or more continuously, for each object 250 Then, the maximum value of the number of failures and the number of consecutive failures is calculated as a passage probability from the determination results for the past 10 times, and the calculated result is compared with a threshold value. The proficiency level estimation unit 339 determines that the object 150 is a point that the user 150 is not good at for the object 250 having a passage probability equal to or higher than a predetermined threshold (S1940: YES), and proceeds to step S1950. On the other hand, the proficiency level estimation unit 339 determines that the object 250 whose pass probability is less than the predetermined threshold (S1940: NO) is not a point that the user 150 is not good at, and proceeds to step S1950. First, the process directly returns to the process of step S2000 in FIG.

ステップS1950で、習熟度推定部339は、目標動作作成部335に対してオブジェクト描画計画の変更を依頼し、図8のステップS2000の処理に戻る。具体的には、習熟度推定部339は、図16に示す修正ポリシ情報420を参照して、ユーザ150が苦手なポイントであると判断されたオブジェクト250に対して施すべき修正内容を取得する。そして、各オブジェクト250について取得した修正内容から、図17に示す変更依頼情報430を作成し、作成した変更依頼情報430を目標動作作成部335に出力する。   In step S1950, the proficiency level estimation unit 339 requests the target motion creation unit 335 to change the object drawing plan, and returns to the process of step S2000 in FIG. Specifically, the proficiency level estimation unit 339 refers to the correction policy information 420 illustrated in FIG. 16 and acquires the correction content to be applied to the object 250 determined to be a point that the user 150 is not good at. Then, change request information 430 shown in FIG. 17 is created from the correction content acquired for each object 250, and the created change request information 430 is output to the target action creation unit 335.

図20は、図19に示す通過判定情報410aから作成される変更依頼情報430の内容の具体例を示す図である。   FIG. 20 is a diagram showing a specific example of the contents of the change request information 430 created from the passage determination information 410a shown in FIG.

通過判定情報410aに記述されたずれ差分aは小さいものとする。この場合、図16に示す修正ポリシ情報420において、通過判定情報410aの内容に合致する判定結果内容421は、「ずれ内容:内側」であり、対応する変更依頼内容422は、「色:内側の色を濃く、大きさ:内側に拡大」である。   It is assumed that the deviation difference a described in the passage determination information 410a is small. In this case, in the modified policy information 420 shown in FIG. 16, the determination result content 421 that matches the content of the passage determination information 410a is “deviation content: inside”, and the corresponding change request content 422 is “color: inside”. The color is dark and the size is “inward”.

したがって、図20に示すように、変更依頼情報430aには、「クラブ」という部位名432a、「Am」というオブジェクト番号434a、「2」という変更依頼数435a、「色」という項目名437a−1に対応付けられた「内側の色を濃く」という変更内容438a−1、「大きさ」という項目名437a−2に対応付けられた「内側に拡大」という変更内容438a−2が記述される。これは、クラブヘッド160のオブジェクト番号Amのオブジェクト250に対して、内側の色を濃くするとともに、大きさを内側に拡大させる変化を与えることを依頼するものである。   Accordingly, as shown in FIG. 20, the change request information 430a includes a part name 432a “club”, an object number 434a “Am”, a change request number 435a “2”, and an item name 437a-1 “color”. A change content 438a-1 “Inner color is darkened” associated with “” and a change content 438a-2 “Enlarge inside” associated with the item name 437a-2 “size” are described. This requests that the object 250 with the object number Am of the club head 160 be given a change that darkens the inner color and enlarges the size inward.

変更依頼情報430を受け取った目標動作作成部335は、その内容に従って、オブジェクト描画計画の内容を更新する。例えば、図19に示す通過判定情報410aを受け取った場合、目標動作作成部335は、現状のオブジェクト描画計画のうち、クラブヘッド160のオブジェクト番号Amのオブジェクト250に対して、内側の色を濃くし、大きさを内側に拡大させる変化を与える。そして、更新後のオブジェクト描画計画に基づいて描画情報を作成し、作成した描画情報を目標動作描画部136に出力する。   The target action creation unit 335 that has received the change request information 430 updates the contents of the object drawing plan according to the contents. For example, when the passage determination information 410a shown in FIG. 19 is received, the target action creation unit 335 darkens the inner color of the object 250 with the object number Am of the club head 160 in the current object drawing plan. , Give the change to expand the size inward. Then, drawing information is created based on the updated object drawing plan, and the created drawing information is output to the target action drawing unit 136.

以上の習熟度推定処理の結果、図8のステップS2000では、ユーザ150の習熟度および目標動作に対する実動作のずれの内容に応じて、属性が変化した目標動作が表示される。   As a result of the proficiency level estimation process described above, in step S2000 of FIG. 8, the target action whose attribute has changed is displayed according to the proficiency level of the user 150 and the content of the deviation of the actual action from the target action.

このように、本実施の形態によれば、蓄積したユーザの試行結果から、ユーザの習熟度を推定し、習熟度に応じて、目標動作の表示を変更する。これにより、ユーザが苦手とするポイントの学習を補強することができる。   Thus, according to the present embodiment, the user's proficiency level is estimated from the accumulated trial results of the user, and the display of the target action is changed according to the proficiency level. Thereby, learning of the point which a user is not good at can be reinforced.

同じことの繰り返しや、できないことの繰り返しによる練習は、ユーザにとって飽きやすい。したがって、このような習熟度を考慮した変化のある繰り返しは、ユーザの練習意欲を増進させることができ、運動の上達に効果的である。また、ユーザは、描画された目標動作を見るだけで苦手な部分とそれ以外の部分とを明確に区別して認識することができる。これにより、ユーザに対して高い課題意識を持たせることができるだけでなく、ユーザにアドバイスを行う第三者に対してユーザの動作の特徴の把握を容易ならしめる。更に、例えば、前回の練習から長時間が経過した後の練習では、前回の練習で会得した技術は、ユーザにとって曖昧な記憶となるが、本実施の形態の学習支援装置30を用いることにより、未習熟のポイントをより正確に認識できるため、ユーザが会得した技術の再現性を向上させることができる。   It is easy for users to get tired of practicing by repeating the same things or not doing things. Therefore, the repetition with the change in consideration of the proficiency level can increase the user's willingness to practice and is effective in improving the exercise. In addition, the user can clearly distinguish and recognize the weak part and the other part only by looking at the drawn target action. As a result, not only can the user have high awareness of the problem, but also the third party who gives advice to the user can easily grasp the characteristics of the user's operation. Furthermore, for example, in the practice after a long time has passed since the previous practice, the technology acquired in the previous practice is an ambiguous memory for the user, but by using the learning support device 30 of the present embodiment. Since the unskilled point can be recognized more accurately, the reproducibility of the technology acquired by the user can be improved.

(実施の形態3)
実施の形態3では、複数の部位の運動を、これら複数の部位の関連性と併せて表示させる場合について説明する。
(Embodiment 3)
In the third embodiment, a case will be described in which the motions of a plurality of parts are displayed together with the relevance of the plurality of parts.

目標動作は、複数の部位がバランスよく連動していることが多い。つまり、部位間の位置関係、動き出すタイミングなどに狂いが生じると目的の動作を実現することが困難になる。そこで、本実施の形態に係る学習支援装置では、学習対象の動作のみならず、複数の学習対象の間の位置関係および動き出すタイミング(以下単に「関連性」という)を表示する。   In many cases, the target motion is linked in a balanced manner. In other words, if the positional relationship between the parts, the timing to start moving, or the like is out of order, it becomes difficult to realize the target operation. Therefore, in the learning support apparatus according to the present embodiment, not only the operation of the learning object but also the positional relationship between the plurality of learning objects and the timing of starting movement (hereinafter simply referred to as “relevance”) are displayed.

図21は、本発明の実施の形態3に係る学習支援装置の詳細な構成を示すブロック図であり、実施の形態1の図2に対応するものである。図2と同一部分には同一符号を付し、これについての説明を省略する。   FIG. 21 is a block diagram showing a detailed configuration of the learning support apparatus according to the third embodiment of the present invention, and corresponds to FIG. 2 of the first embodiment. The same parts as those in FIG.

図21に示すように、学習支援装置50は、図2の制御端末130に代えて、制御端末530を有する。制御端末530は、図2の目標動作作成部135および通過判定部138に代えて、関連性判定部539を備えた目標動作作成部535と、通過判定部538とを有する。また、本実施の形態の制御端末530における目標動作情報格納部131は、目標動作における複数のタイミングについて、どのタイミングに各オブジェクト情報131aに定義されたどのオブジェクトが関連するかを記述したオブジェクト関連情報131bを、更に格納している。   As illustrated in FIG. 21, the learning support device 50 includes a control terminal 530 instead of the control terminal 130 illustrated in FIG. 2. The control terminal 530 includes a target action creating unit 535 including a relevance determining unit 539 and a pass determining unit 538 instead of the target action creating unit 135 and the passage determining unit 138 shown in FIG. In addition, the target motion information storage unit 131 in the control terminal 530 according to the present embodiment describes object related information that describes which object defined in each object information 131a is related to which timing for a plurality of timings in the target motion. 131b is further stored.

図22は、オブジェクト関連情報131bの内容の一例を示す図である。   FIG. 22 is a diagram illustrating an example of the contents of the object related information 131b.

図22に示すように、オブジェクト関連情報131bは、「手、足、クラブ、腰、・・・」という部位名441のそれぞれに対応付けて、「t1、t2、t3、・・・、tn」という複数のタイミング442ごとに、オブジェクト番号が記述されている。部位名441は、図3に示すオブジェクト情報131aの部位名201に対応している。タイミング442の数は、オブジェクト情報131aに定義されたオブジェクトの数に対応している。記述されているオブジェクと番号は、オブジェクト情報131aのオブジェクト番号202に対応している。   As shown in FIG. 22, the object related information 131b is associated with each of the part names 441 “hand, foot, club, waist,...” “T1, t2, t3,. An object number is described for each of the plurality of timings 442. The part name 441 corresponds to the part name 201 of the object information 131a shown in FIG. The number of timings 442 corresponds to the number of objects defined in the object information 131a. The described object and number correspond to the object number 202 of the object information 131a.

同一のタイミング442に対応して記述された複数のオブジェクト番号は、該当するオブジェクト250のそれぞれが示す部位の動作が連動していることを示す。例えば、図22に示すように、「t1」というタイミングに対応して、「クラブ」という部位名441の「A1」というオブジェクト番号と、「手」という部位名441の「C1」というオブジェクト番号とが記述されている。これは、オブジェクト番号A1のオブジェクトが示すクラブヘッド160の動作と、オブジェクト番号C1のオブジェクトが示す手の動作とが、目標動作において同一のタイミングに実現される連動した動作であるということを示す。   A plurality of object numbers described corresponding to the same timing 442 indicates that the operations of the parts indicated by the corresponding objects 250 are linked. For example, as shown in FIG. 22, in correspondence with the timing “t1”, an object number “A1” of a part name 441 “club” and an object number “C1” of a part name 441 “hand” Is described. This indicates that the movement of the club head 160 indicated by the object with the object number A1 and the movement of the hand indicated by the object with the object number C1 are linked movements realized at the same timing in the target movement.

このような同一のタイミングで連動しているオブジェクトの組または連動しているオブジェクトのオブジェクト番号の組を、以下、「連動オブジェクト組」という。また、例えば、オブジェクト番号A1、B2、C1の各オブジェクトが連動オブジェクト組である場合に、適宜、(A1、B1、C1)と表記する。   Such a set of objects linked at the same timing or a set of object numbers of linked objects is hereinafter referred to as a “linked object set”. Further, for example, when each object of the object numbers A1, B2, and C1 is a linked object set, it is appropriately expressed as (A1, B1, C1).

図21の制御端末530は、学習対象の目標動作を取得し、目標動作をヘッドマウントディスプレイ110の対応する位置に表示させる。また、制御端末530は、複数の部位が学習対象として選択されているときには、各々の学習対象の動作およびこれらの関連性を表示させる。   The control terminal 530 in FIG. 21 acquires the target motion to be learned, and displays the target motion at a corresponding position on the head mounted display 110. In addition, when a plurality of parts are selected as learning targets, the control terminal 530 displays the operation of each learning target and their relevance.

目標動作作成部535は、取得したオブジェクト情報131aの記述内容に従って描画情報を作成し、作成した描画情報を目標動作描画部136に出力する。また、目標動作作成部535は、複数の部位が学習対象として選択されたときには、関連性判定部539を用いて、複数の学習対象の関連性を判定する。具体的には、関連性判定部539において、目標動作情報格納部131のオブジェクト関連情報131bに基づいて複数の学習対象の関連性を判定し、連動オブジェクト組を出力する、関連性判定処理を実行する。そして、目標動作作成部535は、判定した関連性を示す新たなオブジェクト(以下「関連性オブジェクト」という)を追加した描画情報を作成する。   The target action creating unit 535 creates drawing information in accordance with the description content of the acquired object information 131a, and outputs the created drawing information to the target action drawing unit 136. In addition, when a plurality of parts are selected as learning targets, the target action creation unit 535 uses the relevance determination unit 539 to determine the relevance of the plurality of learning targets. Specifically, the relevance determination unit 539 executes relevance determination processing that determines relevance of a plurality of learning targets based on the object related information 131b of the target motion information storage unit 131 and outputs a linked object set. To do. Then, the target action creation unit 535 creates drawing information to which a new object (hereinafter referred to as “relevance object”) indicating the determined relevance is added.

また、目標動作作成部535は、複数の部位が学習対象として選択されたときには、対応する複数のオブジェクト情報131aと、連動オブジェクト組とを、通過判定部538に出力する。   Further, when a plurality of parts are selected as learning targets, the target action creating unit 535 outputs a plurality of corresponding object information 131a and a linked object set to the passage determining unit 538.

通過判定部538は、運動情報取得部137を介して取得した実動作と、オブジェクト情報131aに定義された学習対象の目標動作とを比較解析して、通過判定情報を作成し、作成した通過判定情報を目標動作作成部135に出力する。また、通過判定部538は、複数のオブジェクト情報131aと連動オブジェクト組とを目標動作作成部135から受け取った場合には、複数の学習対象の動作の関係性を考慮して実動作と目標動作との比較解析を行う。   The passage determination unit 538 compares and analyzes the actual motion acquired via the motion information acquisition unit 137 and the target motion of the learning target defined in the object information 131a, creates passage determination information, and the generated passage determination Information is output to the target action creating unit 135. In addition, when the passage determination unit 538 receives a plurality of object information 131a and a linked object set from the target motion creation unit 135, the passage determination unit 538 considers the relationship between the plurality of learning target motions, Perform comparative analysis.

以下、関連性判定部539で実行される関連性判定処理について、詳細に説明する。   Hereinafter, the relevance determination process executed by the relevance determination unit 539 will be described in detail.

図23は、関連性判定部539が実行する関連性判定処理の流れを示すフローチャートである。例えば、実施の形態1の図8のステップS1100で、図4に示す制御パネル210において「手」および「クラブ」という2つの部位が学習対象として選択された場合、目標動作作成部535は、対応する2つのオブジェクト情報131aを取得する。このように、目標動作作成部535で複数のオブジェクト情報131aが所得された場合に、関連性判定部539は、例えば、図8のステップS1200の直後に、以下に説明する関連性判定処理を実行する。   FIG. 23 is a flowchart showing the flow of relevance determination processing executed by the relevance determination unit 539. For example, in step S1100 of FIG. 8 of the first embodiment, when two parts “hand” and “club” are selected as learning targets in the control panel 210 shown in FIG. Two object information 131a to be acquired is acquired. As described above, when a plurality of pieces of object information 131a are obtained by the target action creation unit 535, the relevance determination unit 539 executes relevance determination processing described below immediately after step S1200 in FIG. 8, for example. To do.

まず、ステップS1210で、関連性判定部539は、複数のオブジェクト情報131aから1つを選択し、選択したオブジェクト情報131aから全てのオブジェクト番号202を抽出する。   First, in step S1210, the relevance determination unit 539 selects one from the plurality of object information 131a, and extracts all the object numbers 202 from the selected object information 131a.

そして、ステップS1220で、関連性判定部539は、オブジェクト関連情報131bを参照し、ステップS1210で抽出した個々のオブジェクト番号202について、同一のタイミング442に対応付けられた他の部位のオブジェクト番号を抽出する。そして、関連性判定部539は、オブジェクト番号202とこれに対応して抽出された他の部位のオブジェクト番号とを、連動オブジェクト組に設定する。   In step S1220, the relevancy determination unit 539 refers to the object related information 131b and extracts object numbers of other parts associated with the same timing 442 for each object number 202 extracted in step S1210. To do. Then, the relevancy determination unit 539 sets the object number 202 and the object numbers of other parts extracted corresponding to the object number 202 to the linked object set.

そして、ステップS1230で、関連性判定部539は、ステップS1220で設定された連動オブジェクト組を目標動作作成部535に出力して、図8のステップS1300の処理に戻る。   In step S1230, the relevance determination unit 539 outputs the interlocking object set set in step S1220 to the target action creation unit 535, and returns to the process of step S1300 in FIG.

目標動作作成部535は、図8のステップS1300で、図8のステップS1100で取得した複数のオブジェクト情報131aと、関連性判定部539から出力された連動オブジェクト組とを、通過判定部538に出力する。通過判定部538の処理については後述する。   In step S1300 in FIG. 8, the target action creation unit 535 outputs the plurality of object information 131a acquired in step S1100 in FIG. 8 and the interlocked object set output from the relationship determination unit 539 to the passage determination unit 538. To do. The processing of the passage determination unit 538 will be described later.

また、目標動作作成部535は、連動オブジェクト組を構成する複数のオブジェクトのそれぞれについて、描画対象計算を実施する。また、関連性判定部539から出力される連動オブジェクト組のうち、オブジェクトの全てが描画対象となっているものを、関連性オブジェクトの描画の対象として決定する。   In addition, the target action creating unit 535 performs a drawing target calculation for each of a plurality of objects constituting the linked object set. In addition, among the linked object sets output from the relevance determination unit 539, the object for which all of the objects are to be drawn is determined as the drawing target for the relevance object.

例えば、あるタイミングで、描画面230の内部に属するオブジェクト250のオブジェクト番号が、「クラブ」という部位名441に関してはオブジェクト番号A2、A3であり、「手」という部位名441に関してオブジェクト番号C1、C2、C3であったとする。この場合、連動オブジェクト組(A2、C2)、(A3、C3)は、全て描画対象として揃っているが、連動オブジェクト組(A1、C1)は、全て描画対象として揃っていない。したがって、目標動作作成部535は、連動オブジェクト組(A2、C2)、(A3、C3)を関連性オブジェクトの描画対象として決定する。   For example, at a certain timing, the object numbers of the objects 250 belonging to the drawing surface 230 are object numbers A2 and A3 for the part name 441 “club”, and the object numbers C1 and C2 for the part name 441 “hand”. , C3. In this case, the linked object sets (A2, C2) and (A3, C3) are all set as drawing targets, but the linked object sets (A1, C1) are not set as drawing targets. Therefore, the target action creating unit 535 determines the linked object sets (A2, C2) and (A3, C3) as the drawing target of the related object.

そして、目標動作作成部535は、描画対象に決定されたオブジェクトおよび関連性オブジェクトを描画するための描画情報を作成し、目標動作描画部136に出力する。   Then, the target action creating unit 535 creates drawing information for drawing the object determined as the drawing target and the related object, and outputs the drawing information to the target action drawing unit 136.

図24は、目標動作作成部535で作成される描画情報のうち、描画対象を示すデータ部分である描画対象データの内容の一例を示す図である。ここでは、関連性オブジェクトとして、オブジェクトを結ぶ線が使用される場合を例示している。   FIG. 24 is a diagram illustrating an example of the contents of drawing target data, which is a data portion indicating a drawing target, of the drawing information generated by the target action generation unit 535. Here, the case where the line which connects an object is used as a related object is illustrated.

図24に示すように描画対象データ450には、描画対象となるオブジェクトの、オブジェクト番号、位置座標、大きさ、および色が記述されている。オブジェクトに関して記述される情報は、元のオブジェクト情報131aの記述内容に対応している。また、描画対象データ450には、関連性オブジェクトに関する情報が記述されている。   As shown in FIG. 24, the drawing target data 450 describes the object number, position coordinates, size, and color of the drawing target object. Information described about the object corresponds to the description content of the original object information 131a. In addition, the drawing target data 450 describes information related to related objects.

ここでは、描画対象のオブジェクト250のオブジェクト番号がA2、A3、C1、C2、およびC3である場合を図示している。この場合、上述したように、関連性オブジェクトの描画対象となるのは、連動オブジェクト組(A2、C2)、(A3、C3)である。したがって、描画対象データ450には、関連性オブジェクトとして、連動オブジェクト組(A2、C2)、(A3、C3)を結ぶ線を描画する旨が記述されている。   Here, a case where the object numbers of the drawing target object 250 are A2, A3, C1, C2, and C3 is illustrated. In this case, as described above, the association object sets (A2, C2) and (A3, C3) are targets for drawing the related objects. Therefore, the drawing target data 450 describes that a line connecting the linked object sets (A2, C2) and (A3, C3) is drawn as the related object.

なお、目標動作作成部535は、オブジェクト情報131aの記述内容にそのまま従うのではなく、学習対象ごとに異なる色を割り当てるなど、オブジェクトの種類ごとにシンボルが異なるような描画対象データ450を作成してもよい。   Note that the target action creation unit 535 creates drawing target data 450 in which symbols differ for each type of object, such as assigning different colors for each learning target, instead of following the description content of the object information 131a as it is. Also good.

図25は、図24に示す描画対象データ450に基づいて描画が行われたときの描画面230の様子の一例を示す図である。   FIG. 25 is a diagram illustrating an example of a state of the drawing surface 230 when drawing is performed based on the drawing target data 450 illustrated in FIG. 24.

図25に示すように、描画面230には、オブジェクト番号A2、A3、C1、C2、C3に対応するオブジェクト画像232が描画される。また、描画面230には、連動オブジェクト組(A2、C2)、(A3、C3)をそれぞれ結ぶ線460−2、460−3が、関連性オブジェクトの画像として描画される。   As shown in FIG. 25, the object image 232 corresponding to the object numbers A2, A3, C1, C2, and C3 is drawn on the drawing surface 230. On the drawing surface 230, lines 460-2 and 460-3 connecting the linked object sets (A2, C2) and (A3, C3) are drawn as images of related objects.

このような関連性オブジェクトの画像を表示した描画面230を見ながら練習することにより、ユーザは、複数の部位の関連性を確認しながら個々の部位の動作を学習することができる。   By practicing while looking at the drawing surface 230 displaying such an image of the related object, the user can learn the operation of each part while confirming the relation between the plurality of parts.

なお、一部のオブジェクト250のみが描画面230内に存在している連動オブジェクト組に対しても、関連性オブジェクトの画像を描画するようにしてもよい。この場合には、全てのオブジェクトについて連動オブジェクト組の設定を行った後に、描画対象となるオブジェクトの取捨選択を行うとともに、設定された連動オブジェクトの画像から描画面の内部に位置する部分のみを抜き出して描画対象とするようにすればよい。   Note that an image of a related object may be drawn even for a linked object set in which only some objects 250 exist in the drawing surface 230. In this case, after setting the linked object set for all objects, the objects to be rendered are selected and only the part located inside the drawing surface is extracted from the set linked object image. To be drawn.

図26は、一部のオブジェクト250のみが描画面230内に存在している連動オブジェクト組に対しても関連性オブジェクトの画像を描画した場合の描画面230の様子の一例を示す図であり、図25に対応するものである。   FIG. 26 is a diagram illustrating an example of a state of the drawing surface 230 when an image of a related object is drawn even for a linked object set in which only some objects 250 exist in the drawing surface 230. This corresponds to FIG.

図26に示すように、線460−2、460−3だけでなく、一方のオブジェクト250が描画面230の外部に位置する連動オブジェクト組(A1、C1)を結ぶ線460−1も、外部に位置するオブジェクト250の存在する方向に向かう形で描画される。   As shown in FIG. 26, not only the lines 460-2 and 460-3 but also the line 460-1 that connects the linked object set (A 1, C 1) where one object 250 is located outside the drawing surface 230 is also outside. The drawing is performed in a direction toward the direction in which the positioned object 250 exists.

次に、通過判定以降の動作について説明する。   Next, operations after the passage determination will be described.

通過判定部538は、図8のステップS1600で、各実施の形態1と同様の通過判定を行う。また、通過判定部538は、複数のオブジェクト情報131aと連動オブジェクト組とを目標動作作成部135から受け取った場合には、連動オブジェクト組のそれぞれについて、オブジェクト250の位置を一番早く通過した部位と、その後に通過した部位との時間差を記録した時間差情報を作成する。そして、通過判定部538は、作成した時間差情報を、目標動作作成部635に出力する。   The passage determination unit 538 performs the same passage determination as that in each embodiment 1 in step S1600 of FIG. In addition, when the passage determination unit 538 receives a plurality of pieces of object information 131a and a linked object set from the target action creating unit 135, the passage determining unit 538 sets the part that has passed the position of the object 250 earliest for each linked object set. Then, time difference information in which the time difference from the part that passed through is recorded is created. Then, the passage determining unit 538 outputs the created time difference information to the target action creating unit 635.

目標動作作成部635は、時間差情報を受け取ると、それぞれの連動オブジェクト組について、最も早く実軌道が通過したオブジェクト250を始点とし、他のオブジェクト250を終点とした矢印を、追加で描画する描画情報を作成する。そして、目標動作作成部635は、既に目標動作描画部136に渡した描画情報を、矢印を追加した描画情報で差し替え、新たな描画情報に基づいた画像を描画面230に描画させる。   Upon receiving the time difference information, the target motion creation unit 635 additionally draws an arrow with each object pair that has the earliest passing object 250 and the other object 250 as the end point for each linked object set. Create Then, the target action creating unit 635 replaces the drawing information already passed to the target action drawing unit 136 with the drawing information with the added arrow, and causes the drawing surface 230 to draw an image based on the new drawing information.

なお、目標動作作成部635は、矢印の太さで時間差の大きさを表現するような描画情報を作成してもよい。これにより、複数の学習対象の動作の関係性を含めた実動作と目標動作との比較結果が、描画面230に表示される。   The target action creating unit 635 may create drawing information that expresses the magnitude of the time difference with the thickness of the arrow. As a result, the comparison result between the actual motion and the target motion including the relationship between the motions of the plurality of learning targets is displayed on the drawing surface 230.

図27は、複数の学習対象の動作の関係性を含めた実動作と目標動作との比較結果が描画されたときの描画面230の様子の一例を示す図であり、図25に対応するものである。   FIG. 27 is a diagram illustrating an example of the state of the drawing surface 230 when the comparison result between the actual motion and the target motion including the relationship among the plurality of learning target motions is drawn, and corresponds to FIG. It is.

ここでは、オブジェクト番号A2、A3についての実軌道の通過時刻が遅れており、かつ、オブジェクト番号A2の遅れが大きい場合を例示している。この場合、図27に示すように、オブジェクト番号C2のオブジェクト画像232からオブジェクト番号A2のオブジェクト画像232に向けて太い矢印461−2が描画され、オブジェクト番号C3のオブジェクト画像232からオブジェクト番号A3のオブジェクト画像232に向けて細い矢印461−3が描画される。これは、「手がクラブより先に動き、その差が縮まった」ということを示す。ユーザ150は、このような複数の学習対象の動作の関係性を含めた比較結果を見ることによって、目標動作における複数部位の連動のバランスと実動作における複数部位の連動のバランスとの差を直感的に捉えることができる。   Here, the case where the actual trajectory passage times for object numbers A2 and A3 are delayed and the delay of object number A2 is large is illustrated. In this case, as shown in FIG. 27, a thick arrow 461-2 is drawn from the object image 232 with the object number C2 toward the object image 232 with the object number A2, and the object with the object number A3 from the object image 232 with the object number C3. A thin arrow 461-3 is drawn toward the image 232. This indicates that “the hand has moved before the club and the difference has been reduced”. The user 150 intuitively sees the comparison result including the relationship between the motions of the plurality of learning objects, and intuitively finds the difference between the balance of interlocking of the plurality of parts in the target motion and the balance of interlocking of the plurality of parts in the actual motion. Can be understood.

このように、本実施の形態によれば、目標動作における複数の部位の関連性を表示するので、ユーザの運動時の部位間のずれに対する直感な理解を促すことができ、複数部位間のバランスを考慮した効果的な学習を実現できる。したがって、初心者や初級者は、体全体の使い方を効率的に学習できる。また、熟練者も、複数部位の連動のバランスが崩れていることにより技術の向上が停滞しているような場合に、原因を特定することができ、更なる技術の向上を図ることができる。   As described above, according to the present embodiment, since the relevance of a plurality of parts in the target motion is displayed, it is possible to promote an intuitive understanding of the deviation between the parts during the exercise of the user, and the balance between the plurality of parts. Effective learning can be realized. Therefore, beginners and beginners can efficiently learn how to use the entire body. Moreover, the expert can also identify the cause when the improvement of the technology is stagnant due to the imbalance of the interlocking of the plurality of parts, and can further improve the technology.

なお、通過判定の際、実動作と目標動作との比較の基準となる学習対象を設定し、基準に設定された学習対象以外の学習対象については、どの時点の位置をどのオブジェクトと比較すべきかの判断を、基準に設定された学習対象を基準にして決定するようにしてもよい。   In addition, at the time of passage determination, a learning target is set as a reference for comparison between the actual action and the target action, and for a learning target other than the learning target set as the reference, which point should be compared with which object This determination may be made with reference to the learning target set as the reference.

具体的には、例えば、通過判定部は、学習対象に予め優先順位を設定しておき、受け取った複数のオブジェクト情報が対応する学習対象の中で最も優先順位の高いものを、上記比較の基準に設定する。そして、通過判定部は、基準に設定された学習対象のオブジェクト情報については、実施の形態1と同様の比較解析を行い、一方、他のオブジェクト情報については、基準に設定された学習対象の実動作の各計測時刻と、それぞれの実動作について比較の対象となったオブジェクトが対応する各タイミングとの間で、実動作と目標動作との比較を行うようにすればよい。   Specifically, for example, the passage determination unit sets a priority in advance for the learning target, and determines the highest priority among the learning targets corresponding to the plurality of received object information. Set to. Then, the passage determination unit performs a comparative analysis similar to that of the first embodiment for the learning target object information set as the reference, while the other object information is the actual learning target set as the reference. The actual motion and the target motion may be compared between each measurement time of the motion and each timing corresponding to the object that is the comparison target for each actual motion.

また、連動オブジェクト組は、3つ以上のオブジェクトから構成されてもよいことはもちろんである。また、オブジェクトそのものを線や棒状の形状とし、1つのオブジェクトに複数のポイントを設定して、複数の部位の関連性を単一のオブジェクトで表現し、それぞれのポイントについて実動作との比較を行うようにしてもよい。   Of course, the interlocking object set may be composed of three or more objects. In addition, the object itself is formed in a line or bar shape, a plurality of points are set for one object, the relationship between a plurality of parts is expressed by a single object, and each point is compared with the actual operation. You may do it.

(実施の形態4)
実施の形態4では、描画面に描画する情報量を状況に応じて最適化する場合について説明する。
(Embodiment 4)
In the fourth embodiment, a case where the amount of information drawn on the drawing surface is optimized according to the situation will be described.

例えば、目標動作をなぞるスピードが速くなったユーザ150にとっては、オブジェクト画像232や比較結果が表示するまでの時間が遅く感じられる場合がある。このような場合、描画面230に描画する情報量を低減することで、処理負荷を軽減し、オブジェクト画像232や比較結果が表示するまでの時間を短縮することができる。そこで、本実施の形態に係る学習支援装置では、オブジェクト情報131aに定義されたオブジェクト250の一部を描画対象から除外して、描画面に描画する情報量を最適化する。   For example, for the user 150 whose speed of tracing the target action has increased, it may feel that the time until the object image 232 or the comparison result is displayed is delayed. In such a case, by reducing the amount of information drawn on the drawing surface 230, the processing load can be reduced, and the time until the object image 232 and the comparison result are displayed can be shortened. Therefore, the learning support apparatus according to the present embodiment optimizes the amount of information to be drawn on the drawing surface by excluding a part of the object 250 defined in the object information 131a from the drawing target.

図28は、本発明の実施の形態4に係る学習支援装置の詳細な構成を示すブロック図であり、実施の形態3の図21に対応するものである。図21と同一部分には同一符号を付し、これについての説明を省略する。   FIG. 28 is a block diagram showing a detailed configuration of the learning support apparatus according to the fourth embodiment of the present invention, and corresponds to FIG. 21 of the third embodiment. The same parts as those in FIG. 21 are denoted by the same reference numerals, and description thereof will be omitted.

図28に示すように、学習支援装置60は、図21の制御端末530に代えて、制御端末630を有する。制御端末630は、図21の目標動作作成部535および通過判定部538に代えて、目標動作作成部635と、関連性判定部539を備えた通過判定部638とを有し、更に、情報量制御部639を有する。   As illustrated in FIG. 28, the learning support device 60 includes a control terminal 630 instead of the control terminal 530 in FIG. 21. The control terminal 630 includes a target motion creation unit 635 and a passage determination unit 638 having a relevance determination unit 539 instead of the target motion creation unit 535 and the passage determination unit 538 in FIG. A control unit 639 is included.

目標動作作成部635は、取得したオブジェクト情報131aの記述内容に従って、どの位置にどのようなオブジェクトを配置するかを規定するオブジェクト配置計画を作成し、作成したオブジェクト配置計画を情報量制御部639に出力する。そして、目標動作作成部635は、情報量制御部639から描画許可を受け取った場合には、作成したオブジェクト配置計画に沿ってそのまま描画情報を作成し、作成した描画情報を目標動作描画部136に出力する。一方、情報量制御部639からオブジェクト配置計画の修正を命令するオブジェクト配置計画修正命令を受け取った場合には、目標動作作成部635は、オブジェクト配置計画の内容を修正し、修正後のオブジェクト配置計画に基づいて描画情報を作成する。また目標動作作成部635は、受け取ったオブジェクト配置計画修正命令を、通過判定部638に出力する。   The target action creating unit 635 creates an object placement plan that defines what object is placed at which position in accordance with the description content of the acquired object information 131a, and sends the created object placement plan to the information amount control unit 639. Output. When the target action creating unit 635 receives drawing permission from the information amount control unit 639, the target action creating unit 635 creates drawing information as it is according to the created object arrangement plan, and sends the created drawing information to the target action drawing unit 136. Output. On the other hand, when receiving an object arrangement plan correction command for instructing correction of the object arrangement plan from the information amount control unit 639, the target action creation unit 635 corrects the contents of the object arrangement plan and corrects the object arrangement plan after correction. Create drawing information based on. In addition, the target action creation unit 635 outputs the received object placement plan correction command to the passage determination unit 638.

図29は、オブジェクト配置計画の内容の一例を示す図である。   FIG. 29 is a diagram illustrating an example of the contents of the object arrangement plan.

図29に示すように、オブジェクト配置計画470は、部位名471、オブジェクト番号472、ポイント重要度473、位置座標474、大きさ475、その他情報476、およびタイミング477により構成される。部位名471、オブジェクト番号472、ポイント重要度473、位置座標474、大きさ475、およびその他情報476は、それぞれ、図3に示すオブジェクト情報131aの、部位名201、オブジェクト番号202、ポイント重要度205、位置座標206、大きさ207、およびその他情報209にそれぞれ対応している。ただし、オブジェクト配置計画470の位置座標474には、HMD座標系242の座標情報が記述される。また、タイミング477は、図22に示すオブジェクト関連情報131bのタイミング442に対応している。   As shown in FIG. 29, the object arrangement plan 470 includes a part name 471, an object number 472, a point importance 473, a position coordinate 474, a size 475, other information 476, and a timing 477. The part name 471, the object number 472, the point importance 473, the position coordinates 474, the size 475, and the other information 476 are respectively the part name 201, the object number 202, and the point importance 205 of the object information 131a shown in FIG. , Position coordinates 206, size 207, and other information 209, respectively. However, the coordinate information of the HMD coordinate system 242 is described in the position coordinate 474 of the object arrangement plan 470. The timing 477 corresponds to the timing 442 of the object related information 131b shown in FIG.

ここでは、「手」、「足」、「クラブ」という3つの部位が学習対象として選択されており、あるタイミングにおける描画対象の取捨選択が完了している場合の例を図示している。また、説明の便宜上、後述するオブジェクト配置計画修正命令の対象外となる情報には下線を付している。   Here, an example is shown in which three parts of “hand”, “foot”, and “club” are selected as learning objects, and drawing object selection at a certain timing is completed. For convenience of explanation, information that is not subject to an object arrangement plan correction instruction to be described later is underlined.

情報量制御部639は、情報量を低減するための方針を定めた制御指示書を予め格納する。情報量制御部639は、目標動作作成部635からオブジェクト配置計画を受け取ると、オブジェクト配置計画修正命令を適宜作成して情報量の最適化を行う情報量最適化処理を実行する。   The information amount control unit 639 stores in advance a control instruction that defines a policy for reducing the information amount. When the information amount control unit 639 receives the object placement plan from the target action creation unit 635, the information amount control unit 639 executes an information amount optimization process for appropriately creating an object placement plan correction command and optimizing the information amount.

具体的には、情報量制御部639は、ユーザに提示される情報の情報量を示す値(以下単に「情報量」)を算出する。そして、情報量制御部639は、算出した情報量が所定の閾値以下である場合には、目標動作作成部635に描画許可を出力する。一方、算出した情報量が所定の閾値を超える場合には、情報量制御部639は、制御指示書に従ってオブジェクト配置計画修正命令を作成し、作成したオブジェクト配置計画修正命令を目標動作作成部635に出力する。情報量最適化処理の詳細については後述する。   Specifically, the information amount control unit 639 calculates a value indicating the information amount of information presented to the user (hereinafter simply referred to as “information amount”). Then, the information amount control unit 639 outputs a drawing permission to the target action creating unit 635 when the calculated information amount is equal to or less than a predetermined threshold. On the other hand, when the calculated information amount exceeds a predetermined threshold, the information amount control unit 639 creates an object arrangement plan correction instruction according to the control instruction, and sends the created object arrangement plan correction instruction to the target action creation unit 635. Output. Details of the information amount optimization processing will be described later.

図30は、情報量制御部639が格納する制御指示書の内容の一例を示す図である。   FIG. 30 is a diagram illustrating an example of the content of a control instruction stored in the information amount control unit 639.

図30に示すように、制御指示書480には、情報量を減らすためにオブジェクト配置計画470に施すべき修正の方針が記述されている。ここでは、例えば、「1:一般オブジェクトを削除/ただし、ポイントオブジェクトの間に複数ある場合には、間引く」と記述されている。これは、原則として一般オブジェクトを削除し、オブジェクト番号472が示す順序においてポイントオブジェクトの間に複数の一般オブジェクトがある場合には、複数の一般オブジェクトのうち一部を削除するという方針を示す。また、「2:周辺部のオブジェクトを削除」と記述されている。これは、描画面230を中央付近とその周辺部とに区分したときに、周辺部に位置するオブジェクトを削除するという方針を示す。   As shown in FIG. 30, the control instruction 480 describes a modification policy to be applied to the object arrangement plan 470 in order to reduce the amount of information. Here, for example, “1: Delete general object / thinning out when there are multiple point objects” is described. This indicates a policy that, in principle, general objects are deleted, and if there are a plurality of general objects between point objects in the order indicated by the object number 472, some of the plurality of general objects are deleted. Further, “2: Delete peripheral object” is described. This indicates a policy of deleting an object located in the periphery when the drawing surface 230 is divided into the vicinity of the center and the periphery thereof.

図28の通過判定部638は、運動情報取得部137を介して取得した実動作と、オブジェクト情報131aに定義された学習対象の目標動作とを比較解析して、通過判定情報を作成し、作成した通過判定情報を目標動作作成部135に出力する。また、通過判定部638、複数のオブジェクト情報131aを目標動作作成部135から受け取った場合には、関連性判定部538を用いて連動オブジェクト組を取得し、複数の学習対象の動作の関係性を考慮して実動作と目標動作との比較解析を行う。また、目標動作作成部635からオブジェクト配置計画修正命令を受け取った場合には、オブジェクト配置計画修正命令の内容に従って、実動作と目標動作との比較解析の対象となるオブジェクト250を削減する。   The passage determination unit 638 shown in FIG. 28 creates a passage determination information by comparing and analyzing the actual motion acquired via the motion information acquisition unit 137 and the target motion of the learning target defined in the object information 131a. The passed determination information is output to the target action creating unit 135. Further, when the passage determination unit 638 and the plurality of object information 131a are received from the target motion creation unit 135, the association determination unit 538 is used to acquire a linked object set, and the relationship between the plurality of learning target motions is obtained. Compare and analyze the actual action and the target action. When the object placement plan correction command is received from the target motion creation unit 635, the objects 250 that are the target of the comparison analysis between the actual motion and the target motion are reduced according to the contents of the object placement plan correction command.

以下、情報量制御部639で実行される情報量最適化処理について、詳細に説明する。   Hereinafter, the information amount optimization process executed by the information amount control unit 639 will be described in detail.

図31は、情報量制御部639が実行する情報量最適化処理の流れを示すフローチャートである。情報量制御部639は、例えば、図8のステップS1300の直後に、目標動作作成部635からオブジェクト配置計画470を受け取った場合、以下に説明する情報量最適化処理を実行する。   FIG. 31 is a flowchart showing a flow of information amount optimization processing executed by the information amount control unit 639. For example, when the information amount control unit 639 receives the object arrangement plan 470 from the target action creation unit 635 immediately after step S1300 in FIG. 8, the information amount control unit 639 executes an information amount optimization process described below.

まず、ステップS1310で、情報量制御部639は、受け取ったオブジェクト配置計画470からそのまま描画情報を作成した場合の情報量を算出する。ただし、後述する処理によってオブジェクト配置計画命令を既に作成している場合には、情報量制御部639は、作成したオブジェクト配置計画修正命令に従って描画情報を作成した場合の情報量を算出する。   First, in step S1310, the information amount control unit 639 calculates an information amount when drawing information is generated as it is from the received object arrangement plan 470. However, when an object arrangement plan command has already been created by the processing described later, the information amount control unit 639 calculates an information amount when drawing information is created according to the created object arrangement plan correction command.

情報量の定義の仕方や算出手法は、各種の定義および算出手法を採用できる。例えば、情報量は、ユーザ150の視界内の、オブジェクト画像232の総数や、視界にほぼ一致するとみなすことができる描画面230に対するオブジェクト画像232が占める面積比、オブジェクト画像232が集積する密度とすればよい。また、視界の中央付近に配置された画像を注視する傾向があるという人間の特性を考慮して、描画面230の中央付近により高い重み付けを行って、上記面積比や密度を算出し、算出結果を情報量として採用してもよい。   Various definitions and calculation methods can be adopted as the definition method and calculation method of the information amount. For example, the amount of information may be the total number of object images 232 in the field of view of the user 150, the area ratio of the object image 232 to the drawing surface 230 that can be considered to substantially match the field of view, or the density at which the object images 232 are accumulated. That's fine. Further, considering the human characteristic that there is a tendency to gaze at an image arranged near the center of the field of view, the area ratio and density are calculated by performing higher weighting near the center of the drawing surface 230, and the calculation result May be adopted as the amount of information.

ここでは、全ての学習対象について重要度ごとのオブジェクト画像232の面積が共通であるものとし、一般オブジェクト250の表示面積を示す点数が「1」、ポイントオブジェクト250の表示面積を示す点数が「3」、関連性オブジェクトの表示面積を示す点数が「2」であるものとする。また、描画面230上の中央付近の所定の範囲に位置する場合の重み係数を「3」とし、その他の範囲に位置する場合の重み係数を「1」とする。情報量制御部639は、このようなオブジェクトに対する点数の設定と重み付けとにより、描画面230の状態を簡易モデル化して、情報量を算出する。   Here, it is assumed that the area of the object image 232 for each importance is common for all learning targets, the score indicating the display area of the general object 250 is “1”, and the score indicating the display area of the point object 250 is “3”. It is assumed that the score indicating the display area of the related object is “2”. In addition, the weighting coefficient when it is located in a predetermined range near the center on the drawing surface 230 is “3”, and the weighting coefficient when it is located in another range is “1”. The information amount control unit 639 calculates the amount of information by modeling the state of the drawing surface 230 based on the setting and weighting of points for such an object.

具体的には、k個目のオブジェクトの点数をPk、位置に対応する重み係数をWkと置くと、オブジェクト配置計画470に規定された、関連オブジェクトを含むオブジェクトの個数がm個のとき、情報量制御部639は、例えば以下の式(4)を用いて情報量Qを算出する。   Specifically, when the number of points of the kth object is Pk and the weighting coefficient corresponding to the position is Wk, the number of objects including related objects specified in the object arrangement plan 470 is m. The amount control unit 639 calculates the information amount Q using, for example, the following equation (4).

Figure 2009018127
Figure 2009018127

そして、ステップS1320で、情報量制御部639は、ステップS1330で算出した情報量が、所定の閾値を超えるか否かを判断する。所定の閾値は、ユーザ150のレベルに応じて複数用意されていることが望ましい。この場合、情報量制御部639は、制御パネル210を介してレベルの入力を受け付け、入力されたレベルに対応する閾値を使用すればよい。情報量制御部639は、算出した情報量が所定の閾値を超えている場合には(S1320:YES)、ステップS1330に進む。   In step S1320, the information amount control unit 639 determines whether the information amount calculated in step S1330 exceeds a predetermined threshold. It is desirable that a plurality of predetermined threshold values are prepared according to the level of the user 150. In this case, the information amount control unit 639 may receive a level input via the control panel 210 and use a threshold corresponding to the input level. If the calculated information amount exceeds the predetermined threshold (S1320: YES), the information amount control unit 639 proceeds to step S1330.

ステップS1330で、情報量制御部639は、図30に示す制御指示書480に従い、オブジェクト配置計画修正命令を作成し、既にオブジェクト配置計画修正命令を作成している場合には、削除対象となるオブジェクトを指定する情報を追加する。そして、情報量制御部639は、ステップS1310に戻り、オブジェクト配置計画修正命令について情報量を算出する。ステップS1310〜S1330の処理は、情報量が所定の閾値以下となるまで繰り返される。これにより、オブジェクト配置計画修正命令は、最終的に、情報量を所定の閾値以下に制御する内容となる。   In step S1330, the information amount control unit 639 creates an object arrangement plan modification instruction according to the control instruction 480 shown in FIG. 30, and if the object arrangement plan modification instruction has already been created, the object to be deleted is created. Add information that specifies. Then, the information amount control unit 639 returns to step S1310 and calculates the information amount for the object arrangement plan correction instruction. The processes in steps S1310 to S1330 are repeated until the information amount becomes equal to or less than a predetermined threshold value. As a result, the object arrangement plan correction instruction finally has the content of controlling the information amount to be equal to or less than a predetermined threshold.

算出した情報量が所定の閾値以下となった場合、または元のオブジェクト配置計画470で情報量が所定の閾値以下であった場合には(S1320:NO)、ステップS1340に進む。   When the calculated information amount is equal to or smaller than the predetermined threshold value, or when the information amount is equal to or smaller than the predetermined threshold value in the original object arrangement plan 470 (S1320: NO), the process proceeds to step S1340.

ステップS1340で、情報量制御部639は、オブジェクト配置計画修正命令が作成された場合には、オブジェクト配置計画修正命令を目標動作作成部635に出力し、オブジェクト配置計画修正命令が作成されなかった場合には、描画許可を目標動作作成部635に出力する。そして、図8のステップS1400の処理に戻る。   In step S1340, when the object arrangement plan correction instruction is generated, the information amount control unit 639 outputs the object arrangement plan correction instruction to the target action generation unit 635, and when the object arrangement plan correction instruction is not generated. The drawing permission is output to the target action creating unit 635. And it returns to the process of step S1400 of FIG.

図32は、オブジェクト配置計画修正命令の内容の一例を示す図である。   FIG. 32 is a diagram showing an example of the contents of the object arrangement plan correction instruction.

図32に示すように、オブジェクト配置計画修正命令471は、図29に示すオブジェクト配置計画470と同様の構成であり、オブジェクト配置計画470のうち残すべき部分を示した内容となっている。   As shown in FIG. 32, the object arrangement plan modification instruction 471 has the same configuration as the object arrangement plan 470 shown in FIG.

目標動作作成部635は、オブジェクト配置計画修正命令471に記述された内容をオブジェクト配置計画470に反映し、反映後のオブジェクト配置計画470基づいて、描画情報を作成する。これにより、描画面230に描画される情報量は削減される。   The target action creation unit 635 reflects the contents described in the object placement plan modification instruction 471 in the object placement plan 470, and creates drawing information based on the reflected object placement plan 470. Thereby, the amount of information drawn on the drawing surface 230 is reduced.

図33は、あるオブジェクト配置計画470に基づいて描画が行われたときの描画面230の様子の一例を示す図である。   FIG. 33 is a diagram illustrating an example of a state of the drawing surface 230 when drawing is performed based on an object arrangement plan 470.

図33に示すように、ここでは、大きい楕円で示されるポイントオブジェクトの画像232aと、小さい円で示される一般オブジェクトの画像232bと、関連性オブジェクトとしてオブジェクト画像232を結ぶ直線で示される線460とが描画されている。また、高い重み付けを行う中央エリア472の内部に、7つのポイントオブジェクトの画像232aと、4つの一般オブジェクトの画像232bと、5つの線460が表示され、中央エリア472の周辺部に、1つのポイントオブジェクトの画像232aが表示されている。   As shown in FIG. 33, here, an image 232a of a point object indicated by a large ellipse, an image 232b of a general object indicated by a small circle, and a line 460 indicated by a straight line connecting the object images 232 as related objects Is drawn. In addition, seven point object images 232a, four general object images 232b, and five lines 460 are displayed in the central area 472 that performs high weighting, and one point is displayed in the periphery of the central area 472. An object image 232a is displayed.

このような描画面230の元となるオブジェクト配置計画470から算出される情報量は、3×(3×7+1×4+2×5)+1×(3×1)=108と算出される。図31のステップS1320で使用される閾値が例えば80の場合、算出された情報量は閾値を超えるため、情報量制御部639でオブジェクト配置計画修正命令が作成され、描画面230の情報量は削減される。   The amount of information calculated from the object arrangement plan 470 that is the source of the drawing surface 230 is calculated as 3 × (3 × 7 + 1 × 4 + 2 × 5) + 1 × (3 × 1) = 108. When the threshold value used in step S1320 of FIG. 31 is 80, for example, the calculated information amount exceeds the threshold value, the information amount control unit 639 creates an object arrangement plan correction instruction, and the information amount on the drawing surface 230 is reduced. Is done.

図34は、図33に示す描画面230の元となるオブジェクト配置計画470に対して情報量制御部639の命令による修正が行われたときの描画面230の様子の一例を示す図である。   FIG. 34 is a diagram illustrating an example of the state of the drawing surface 230 when the object arrangement plan 470 that is the basis of the drawing surface 230 illustrated in FIG. 33 is modified by an instruction from the information amount control unit 639.

図33に示す描画面230と比較すると、図34に示す描画面230では、中央エリア472の周辺部の1つのポイントオブジェクトの画像232aと、3つの一般オブジェクトの画像232bと、2つの線460が削減されており、よりすっきりした画面となっている。   Compared to the drawing surface 230 shown in FIG. 33, in the drawing surface 230 shown in FIG. 34, an image 232 a of one point object around the central area 472, an image 232 b of three general objects, and two lines 460 are included. It has been reduced and the screen is cleaner.

このような描画面230の元となるオブジェクト配置計画470から算出される情報量は、3×(3×6+1×1+2×3)=75と算出される。つまり、算出された情報量が閾値以下とすることにより、より見易い画面が表示されることが分かる。   The amount of information calculated from the object arrangement plan 470 that is the source of the drawing surface 230 is calculated as 3 × (3 × 6 + 1 × 1 + 2 × 3) = 75. That is, it can be seen that a screen that is easier to view is displayed when the calculated amount of information is equal to or less than the threshold.

このように、本実施の形態によれば、情報量制御部639が、制御指示書480に従ってオブジェクト配置計画を修正し、描画面に描画される情報量を削減する。これにより、処理負荷を軽減し、オブジェクト画像232や比較結果が表示するまでの時間を短縮することができる。また、重要度の低い情報を削減する形で情報量を削減するので、ユーザのレベルによっては、かえって必要な情報を捉え易くすることができる。   Thus, according to the present embodiment, the information amount control unit 639 modifies the object arrangement plan according to the control instruction 480 and reduces the amount of information drawn on the drawing surface. Thereby, the processing load can be reduced, and the time until the object image 232 and the comparison result are displayed can be shortened. Further, since the amount of information is reduced by reducing information with low importance, depending on the level of the user, necessary information can be easily captured.

また、オブジェクトとして立体図形を用いたり、強調の効果を目的として回転、膨張、縮小などの動的変化をオブジェクトに与えるような場合には、ちらつき防止など、より高い視覚的効果を得ることができる。例えば、指や関節など、更に細分化した単位の部位について学習を行う場合には表示されるオブジェクト多くなり、情報過多となる可能性があるが、このような情報量削減により情報過多の防止と学習単位の細分化とを両立させることができる。   In addition, when a solid figure is used as an object or when an object is subjected to dynamic changes such as rotation, expansion, and reduction for the purpose of emphasis, higher visual effects such as flicker prevention can be obtained. . For example, if learning is performed for parts of more detailed units such as fingers and joints, the number of objects displayed may increase and information may be excessive. It is possible to achieve both learning unit subdivision.

同時に複数の部位を学習したり、個々のオブジェクトが単なる通過点ではなく、物理量の変化などを示すなどの意味を持っていたりする場合には、ユーザがなぞる対象を探し、認識するまでの反応時間は長くなる傾向にある。反応時間に時間がかかりすぎて運動の滑らかさに支障が出ることは、運動学習として望ましくない。また、一般的に、眼球運動が高速になればなるほど視力は低下し、視野も狭くなることが知られている。特に、複数の部位をチェックするために頻繁に頭を動かす場合には、眼球運動も高速になり、表示されている情報の正確な認識が困難となる。その点、本実施の形態によれば、反応時間や情報認識の正確さに影響を与える情報量を制限することができ、より質の高い運動学習支援を行うことができる。   When learning multiple parts at the same time, or when each object has a meaning such as showing a change in physical quantity, not just a passing point, the reaction time until the user searches for and recognizes the target to be traced Tend to be longer. It is undesirable for motor learning that the reaction time is too long and the smoothness of the movement is disturbed. In general, it is known that the faster the eye movement, the lower the visual acuity and the narrower the visual field. In particular, when the head is frequently moved in order to check a plurality of parts, the eye movement also becomes high speed, and accurate recognition of displayed information becomes difficult. In this respect, according to the present embodiment, it is possible to limit the amount of information that affects the reaction time and the accuracy of information recognition, and to provide higher-quality motor learning support.

(実施の形態5)
実施の形態5では、描画面の外部の領域など、ユーザの死角の領域に位置する目標動作部分を、ユーザの視界内に再配置する場合について説明する。
(Embodiment 5)
In the fifth embodiment, a case will be described in which a target motion portion located in a user's blind spot area, such as an area outside the drawing surface, is rearranged in the user's field of view.

ユーザ150の視界や描画面230の大きさには制限があることから、ユーザ150が運動の際に体を曲げたり、反らせたり、ねじれさせたりしても、ユーザ150が視認することができない領域が存在する。以下このような領域を「死角」と定義する。ここで、死角は、運動のフォームを犠牲にしなければ見られない領域や、理想とするフォームにおける望ましい視線方向(視界)では視界に入らない領域を含む。具体的には、例えば、ゴルフにおけるトップの位置にあるクラブヘッド160や、サッカーにおける蹴り上げ足は、死角に位置する運動動作に該当する。   Since the field of view of the user 150 and the size of the drawing surface 230 are limited, even if the user 150 bends, warps, or twists during exercise, the user 150 cannot view the area. Exists. Hereinafter, such a region is defined as a “blind spot”. Here, the blind spot includes a region that cannot be seen without sacrificing the form of motion and a region that does not enter the field of view in the desired line-of-sight direction (field of view) in the ideal form. Specifically, for example, a club head 160 at the top position in golf or a kicking foot in soccer corresponds to an exercise operation located in a blind spot.

このような死角に位置する目標動作部分(以下「死角動作」という)の情報についても、動作の流れや方向を感覚的に習得するために、描画面230に描画することが望ましい。ところが、このような死角動作は、学習対象の目標動作の本来表示すべき位置とは異なる位置に描画されることになり、そのまま描画を行うと、本来の位置なのか否かについてユーザ150の混乱を招く。   It is desirable to draw information on the target motion part (hereinafter referred to as “dead zone motion”) located in such a blind spot on the drawing surface 230 in order to sensuously learn the flow and direction of the motion. However, such a blind spot movement is drawn at a position different from the position where the target movement of the learning target should be originally displayed. If drawing is performed as it is, the user 150 may be confused as to whether or not it is the original position. Invite.

そこで、本実施の形態の学習支援装置70は、死角動作をユーザの視界内に擬似的に表示するとともに、死角動作の画像には、死角動作に関する画像であることを示す情報を併せて表示する。   Therefore, the learning support device 70 according to the present embodiment displays the blind spot motion in a pseudo manner in the user's field of view, and also displays information indicating that the image is related to the blind spot motion in the blind spot motion image. .

図35は、本発明の実施の形態5に係る学習支援装置の詳細な構成を示すブロック図であり、実施の形態1の図2に対応するものである。図2と同一部分には同一符号を付し、これについての説明を省略する。   FIG. 35 is a block diagram showing a detailed configuration of the learning support apparatus according to the fifth embodiment of the present invention, and corresponds to FIG. 2 of the first embodiment. The same parts as those in FIG.

図35に示すように、学習支援装置70は、図2の制御端末130に代えて、制御端末730を有する。制御端末730は、図2の目標動作作成部135に代えて、死角描画指示書739を予め格納した目標動作作成部735を有する。また、本実施の形態の制御端末730における目標動作情報格納部131は、目標動作のどの部分が死角動作であるかを示す死角情報を含むオブジェクト情報131cを格納している。   As shown in FIG. 35, the learning support apparatus 70 has a control terminal 730 instead of the control terminal 130 of FIG. The control terminal 730 includes a target motion creation unit 735 that stores a blind spot drawing instruction 739 in advance, instead of the target motion creation unit 135 of FIG. In addition, the target motion information storage unit 131 in the control terminal 730 of this embodiment stores object information 131c including blind spot information indicating which part of the target motion is a blind spot motion.

図36は、オブジェクト情報131cの内容の一例を示す図である。   FIG. 36 is a diagram illustrating an example of the contents of the object information 131c.

図36に示すように、オブジェクト情報131cは、実施の形態1の図3に示すオブジェクト情報131aと同様の構成を有し、更に、死角に関連する各位置に該当するか否かを示す死角情報481を有する。死角情報481には、オブジェクト番号202に対応付けて、「死角開始直前点」、「死角開始点」、「死角点」、および「死角終了点」などの情報が記述されている。   As shown in FIG. 36, the object information 131c has the same configuration as the object information 131a shown in FIG. 3 of the first embodiment, and further, blind spot information indicating whether or not it corresponds to each position related to the blind spot. 481. In the blind spot information 481, information such as “a blind spot start point”, “a blind spot start point”, “a blind spot point”, and “a blind spot end point” are described in association with the object number 202.

ここで、死角開始直前点は、目標動作が死角に入る直前のオブジェクト250の位置である。死角開始点は、死角に入る最初のオブジェクト250の位置である。死角点は、死角に入っているオブジェクト250の位置である。そして、死角終了点は、死角から出る最初のオブジェクトの位置である。また、死角開始点から死角終了点までの目標動作部分、つまり死角動作における学習対象の軌跡を、「死角軌跡」というものとする。   Here, the point immediately before the start of the blind spot is the position of the object 250 immediately before the target action enters the blind spot. The blind spot start point is the position of the first object 250 that enters the blind spot. The blind spot is the position of the object 250 in the blind spot. The blind spot end point is the position of the first object coming out of the blind spot. The target motion part from the blind spot start point to the blind spot end point, that is, the trajectory of the learning target in the blind spot motion is referred to as a “dead spot trajectory”.

ここでは、図36に示すように、オブジェクト番号A3のオブジェクト250が、目標動作が死角に入る直前のオブジェクト250であり、オブジェクト番号A4のオブジェクト250が、視界に入る最初のオブジェクト250である。また、オブジェクト番号A5〜A7までのオブジェクト250が、死角に入っているオブジェクト250であり、オブジェクト番号A8のオブジェクト250が、死角から出る最初のオブジェクト250である。   Here, as shown in FIG. 36, the object 250 with the object number A3 is the object 250 immediately before the target motion enters the blind spot, and the object 250 with the object number A4 is the first object 250 that enters the field of view. Further, the objects 250 having the object numbers A5 to A7 are the objects 250 in the blind spot, and the object 250 having the object number A8 is the first object 250 exiting from the blind spot.

図35の目標動作作成部735は、オブジェクト情報131cの記述内容に従って、例えば実施の形態4の図29に示すオブジェクト配置計画470と同様の構成を有するオブジェクト描画計画を作成し、作成した描画情報を目標動作描画部136に出力する。このとき、目標動作作成部735は、死角描画指示書739に従って、オブジェクト情報131cの死角情報481に基づいて、死角動作を描画面230内に描画するとともに死角動作の画像であることを示す各種情報を描画する描画情報を作成する。ここでは、目標動作作成部735は、各オブジェクト250をオブジェクト情報131cに規定された順序に従って順に表示させるように描画情報を作成するものとする。また、目標動作作成部735は、通過判定部138から入力される通過判定情報に基づいて、実軌道が通過したオブジェクト250のオブジェクト画像232を、逐次、描画面230から消去させる。   The target action creating unit 735 in FIG. 35 creates an object drawing plan having the same configuration as the object arrangement plan 470 shown in FIG. 29 of the fourth embodiment, for example, according to the description content of the object information 131c. This is output to the target motion drawing unit 136. At this time, the target motion creation unit 735 draws the blind spot motion on the drawing surface 230 based on the blind spot information 481 of the object information 131c in accordance with the blind spot rendering instruction 739, and various information indicating that it is a blind spot motion image. Create drawing information to draw. Here, it is assumed that the target action creating unit 735 creates drawing information so that each object 250 is displayed in order according to the order defined in the object information 131c. In addition, the target motion creation unit 735 sequentially erases the object image 232 of the object 250 that has passed the actual trajectory from the drawing surface 230 based on the passage determination information input from the passage determination unit 138.

図37は、死角描画指示書739の内容の一例を示す図である。   FIG. 37 is a diagram showing an example of the contents of the blind spot drawing instruction sheet 739.

死角描画指示書739には、死角動作の描画や、死角動作の画像であることを示す各種情報の描画に関する条件482と描画に関する指示内容483とが規定されている。   In the blind spot drawing instruction 739, a condition 482 relating to drawing of blind spot movement and drawing of various information indicating that the image is a blind spot action and an instruction content 483 relating to drawing are defined.

ここでは、死角動作の画像であることを示す情報として、予め定められた死角開始情報および死角終了情報を用いる。死角開始情報は、死角開始点および死角点のオブジェクト画像232をどの領域に描画するかを示す情報である。死角終了情報は、死角終了点をどの領域に描画するかを示す情報である。   Here, predetermined blind spot start information and blind spot end information are used as information indicating that the image is a blind spot motion image. The blind spot start information is information indicating in which area the blind spot start point and the blind spot object image 232 are to be drawn. The blind spot end information is information indicating in which area the blind spot end point is drawn.

ここでは、死角描画指示書739には、例えば、「死角開始直前点より2個前のオブジェクトを実軌道が通過したタイミングから死角開始点より2個後のオブジェクトを実軌道が通過したタイミングまで」という条件482に対応して、「所定の位置に死角開始情報を描画する」という指示内容483が記述されている。また、「死角開始直前点より1個前のオブジェクトを実軌道が通過したタイミングから、死角終了点より1個前のオブジェクトを実軌道が通過したタイミングまで」という条件482に対応して、「所定の位置に、死角動作と、死角動作をなぞる順序を示す矢印とを描画する」という指示内容483が記述されている。また、「死角終了点より3個前のオブジェクトを実軌道が通過したタイミングから、死角終了点のオブジェクトを実軌道が通過したタイミングまで」という条件482に対応して、「所定の位置に、死角終了情報を描画する」という指示内容483が記述されている。なお、他にも、例えば、「死角開始直前点から所定の距離の範囲内に実軌道が入ったタイミングから、死角終了点より1個後のオブジェクトの位置から所定の距離の範囲内に実軌道が入ったタイミングまで」という条件に対応して、「所定の位置に死角動作を描画する」という指示内容を記述してもよい。   Here, the blind spot drawing instruction 739 includes, for example, “from the timing at which the real trajectory passes through the object two points before the blind spot start point to the timing at which the real trajectory passes through the object two points after the blind spot start point”. In response to the condition 482, an instruction content 483 of “draw blind spot start information at a predetermined position” is described. Further, “predetermined from the timing at which the real trajectory passes through the object immediately before the blind spot start point to the timing at which the real trajectory passes through the object one point before the blind spot end point”, “predetermined The instruction content 483 of “drawing a blind spot motion and an arrow indicating the order of tracing the blind spot motion” is described at the position “. Further, in response to the condition 482 “from the timing at which the real trajectory passes through the object three points before the blind spot end point to the timing at which the real trajectory passes through the object at the blind spot end point”, An instruction content 483 “draw end information” is described. In addition, for example, “the actual trajectory within the predetermined distance from the position of the object immediately after the dead angle end point from the timing when the actual trajectory entered within the predetermined distance from the immediately preceding start of the blind spot. Corresponding to the condition “until the timing when“ is entered ”, an instruction content“ draw a blind spot motion at a predetermined position ”may be described.

なお、死角動作が複数のオブジェクト画像232で表示される場合には、目標動作作成部735は、これら複数のオブジェクト画像232の相対位置を、本来の目的動作における相対位置に対応させる。また、目標動作作成部735は、死角開始情報を描画する所定位置を、死角開始点のオブジェクト画像232の近傍とし、死角終了情報を描画する所定位置を、死角終了点のオブジェクト画像232の近傍とする。   When the blind spot motion is displayed as a plurality of object images 232, the target motion creation unit 735 associates the relative positions of the plurality of object images 232 with the relative positions in the original target motion. Further, the target motion creation unit 735 sets the predetermined position for drawing the blind spot start information as the vicinity of the object image 232 at the blind spot start point, and sets the predetermined position for drawing the blind spot end information as the vicinity of the object image 232 at the blind spot end point. To do.

図38は、図36に示すオブジェクト情報131cから図37に示す死角描画指示書739に基づいて描画が行われたときの描画面230の様子の一例を示す図である。   FIG. 38 is a diagram showing an example of the state of the drawing surface 230 when drawing is performed based on the blind spot drawing instruction sheet 739 shown in FIG. 37 from the object information 131c shown in FIG.

図38(A)は、実軌道がオブジェクト番号A1のオブジェクト250を通過するタイミングにおける描画面230の様子を示す。この場合、死角描画指示書739の「死角開始直前点より2個前のオブジェクトを実軌道が通過したタイミングから死角開始点より2個後のオブジェクトを実軌道が通過したタイミングまで」という条件482に該当する。したがって、図38(A)に示すように、死角開始情報484が、死角開始点の近傍に描画される。ここでは、死角開始情報484として、矢印と「死角開始」の文字列とが描画される場合を図示している。   FIG. 38A shows a state of the drawing surface 230 at the timing when the actual trajectory passes through the object 250 with the object number A1. In this case, the blind spot drawing instruction 739 satisfies the condition 482 “from the timing when the real trajectory passes through the object two points before the blind spot start point to the timing when the real trajectory passes two objects after the blind spot start point”. Applicable. Therefore, as shown in FIG. 38A, the blind spot start information 484 is drawn in the vicinity of the blind spot start point. Here, as the blind spot start information 484, an arrow and a character string “dead spot start” are drawn.

図38(B)は、実軌道がオブジェクト番号A2のオブジェクト250を通過するタイミングにおける描画面230の様子を示す。この場合、死角描画指示書739の「死角開始直前点より1個前のオブジェクトを実軌道が通過したタイミングから、死角終了点より1個前のオブジェクトを実軌道が通過したタイミングまで」という条件482に該当する。したがって、図38(B)に示すように、死角開始情報484と、死角動作のオブジェクト画像232と、死角動作をなぞる順序を示す矢印485とが描画される。   FIG. 38B shows a state of the drawing surface 230 at the timing when the actual trajectory passes through the object 250 with the object number A2. In this case, the condition 482 “from the timing when the real trajectory has passed through the object immediately before the blind spot start point to the timing when the real trajectory has passed through the object immediately before the blind spot end point” of the blind spot drawing instruction 739. It corresponds to. Therefore, as shown in FIG. 38B, the blind spot start information 484, the object image 232 of the blind spot motion, and the arrow 485 indicating the order of tracing the blind spot motion are drawn.

死角動作では、目標動作における本来の位置とは異なる位置にオブジェクト画像232を配置することになるため、本来の位置をイメージしにくい。したがって、上記した矢印485を表示することで、ユーザ150が本来の軌跡をイメージするのを助けることができる。   In the blind spot operation, since the object image 232 is arranged at a position different from the original position in the target operation, it is difficult to imagine the original position. Therefore, displaying the arrow 485 described above can help the user 150 imagine the original trajectory.

図38(C)は、実軌道がオブジェクト番号A6のオブジェクト250を通過するタイミングにおける描画面230の様子を示す。この場合、死角描画指示書739の「死角終了点より3個前のオブジェクトを実軌道が通過したタイミングから、死角終了点のオブジェクトを実軌道が通過したタイミングまで」という条件482に該当する。したがって、図(C)に示すように、死角終了情報486が、死角終了点の近傍に描画される。ここでは、死角終了情報486として、矢印と「死角終了」の文字列とが描画される場合を図示している。   FIG. 38C shows the state of the drawing surface 230 at the timing when the actual trajectory passes through the object 250 with the object number A6. In this case, the condition 482 in the blind spot drawing instruction 739 is “from the timing when the real trajectory passes through the object three objects before the blind spot end point to the timing when the real trajectory passes through the object at the blind spot end point”. Therefore, the blind spot end information 486 is drawn in the vicinity of the blind spot end point as shown in FIG. Here, as the blind spot end information 486, an arrow and a character string “dead spot end” are drawn.

図38(D)は、実軌道がオブジェクト番号A7のオブジェクト250を通過するタイミングにおける描画面230の様子を示す。この場合も、死角描画指示書739の「死角終了点より3個前のオブジェクトを実軌道が通過したタイミングから、死角終了点のオブジェクトを実軌道が通過したタイミングまで」という条件482に該当するため、死角終了情報486が描画されたままの状態となる。   FIG. 38D shows a state of the drawing surface 230 at the timing when the actual trajectory passes through the object 250 with the object number A7. Also in this case, the condition 482 in the blind spot drawing instruction 739 is “from the timing when the real trajectory passes through the object three points before the blind spot end point to the timing when the real trajectory passes through the object at the blind spot end point”. The blind spot end information 486 is still drawn.

このように、本実施の形態によれば、死角動作の画像を、死角動作に関する画像であることを示す情報と併せて、描画面に表示する。これにより、ユーザに対して、死角動作における学習対象の軌跡の動きや所定の物理量を、本来の軌跡の位置とは区別して提示することができる。したがって、ユーザは、必要以上に無理に体を動かして目標動作を視界に入れる努力をすることなく、目標動作の学習ができる。これにより、従来、勘に頼らざるを得なかった見えない部分のトレーニングを、より正確に行うことができる。   As described above, according to the present embodiment, the image of the blind spot motion is displayed on the drawing surface together with the information indicating that the image is related to the blind spot motion. Accordingly, the movement of the trajectory to be learned and the predetermined physical quantity in the blind spot motion can be presented to the user separately from the original trajectory position. Therefore, the user can learn the target action without making an effort to move the body more than necessary and bring the target action into view. As a result, it is possible to more accurately perform training for the invisible portion that conventionally had to rely on intuition.

なお、各実施の形態では、目標動作や比較結果を、ヘッドマウントディスプレイを利用して擬似的に表示する場合について説明したが、これに限定されるものではない。3D(dimension)ホログラムなどの立体映像技術や、空間中にレーザ光によりプラズマ化した輝点を連続して生成し三次元映像を描画する立体描画技術を、目標動作や比較結果の表示に用いてもよい。このような技術を活用した場合には、描画対象の制約が少なくなり、目標動作のより多くの部分を表示することが可能となる。   In each of the embodiments, a case has been described in which target operations and comparison results are displayed in a pseudo manner using a head-mounted display, but the present invention is not limited to this. 3D (dimension) holograms and other 3D image technologies, as well as 3D image drawing technology that draws 3D images by continuously generating bright spots that have been converted into plasma by laser light in the space, are used to display target actions and comparison results. Also good. When such a technique is used, there are fewer restrictions on the drawing target, and it is possible to display more parts of the target motion.

また、各実施の形態では、本発明をゴルフクラブのスィングの学習に適用した場合について説明したが、体の一部や運動器具などの部位の動作を定義または計測できる各種の運動の学習に適用できることは勿論である。例えば、本発明は、テニス、格闘技、野球などの各種スポーツだけでなく、楽器演奏、リハビリテーションなど、様々な分野における運動の学習にも適用できる。更に、本発明を、学習目的ではなく、他人や自分の運動をなぞって楽しむゲームなど、エンターティメント目的の用途に適用してもよい。   In each of the embodiments, the case where the present invention is applied to learning of golf club swing has been described. However, the present invention is applied to learning of various types of movement that can define or measure the movement of a part of a body or an exercise equipment. Of course you can. For example, the present invention can be applied not only to various sports such as tennis, martial arts, and baseball but also to learning of exercises in various fields such as musical instrument performance and rehabilitation. Furthermore, the present invention may be applied not to learning purposes but to entertainment purposes such as games for tracing other people and their own exercises.

本発明に係る学習支援装置および学習支援方法は、各種スポーツや楽器演奏、リハビリテーションなど、様々な分野における運動の効果的な学習に有用である。   The learning support device and the learning support method according to the present invention are useful for effective learning of exercise in various fields such as various sports, musical instrument performances, and rehabilitation.

本発明の実施の形態1に係る学習支援装置が使用される場面の様子を示す説明図Explanatory drawing which shows the mode of the scene where the learning assistance apparatus which concerns on Embodiment 1 of this invention is used. 実施の形態1に係る学習支援装置の詳細な構成を示すブロック図FIG. 1 is a block diagram showing a detailed configuration of a learning support apparatus according to Embodiment 1 実施の形態1におけるオブジェクト情報の内容の一例を示す説明図Explanatory drawing which shows an example of the content of the object information in Embodiment 1 実施の形態1における制御パネルの外観の一例を示す平面図FIG. 3 is a plan view showing an example of the appearance of a control panel in the first embodiment 実施の形態1における描画面の様子の一例を示す平面図FIG. 3 is a plan view illustrating an example of a drawing surface according to the first embodiment. 実施の形態1における各座標系の関係およびオブジェクトの描画位置の算出の原理を示す説明図Explanatory drawing which shows the principle of calculation of the relationship of each coordinate system and drawing position of an object in Embodiment 1 実施の形態1における通過判定の原理の一例を示す説明図Explanatory drawing which shows an example of the principle of the passage determination in Embodiment 1. 実施の形態1に係る学習支援装置の動作の流れを示すフローチャートThe flowchart which shows the flow of operation | movement of the learning assistance apparatus which concerns on Embodiment 1. FIG. 実施の形態1における学習対象を動作させる様子を示す説明図Explanatory drawing which shows a mode that the learning object in Embodiment 1 is operated. 実施の形態1におけるオブジェクトの具体例を示す説明図Explanatory drawing which shows the specific example of the object in Embodiment 1. 実施の形態1におけるオブジェクト画像のシンボルが変化する様子の一例を示す説明図Explanatory drawing which shows an example of a mode that the symbol of the object image in Embodiment 1 changes 実施の形態1におけるオブジェクト画像のシンボルが変化した後の様子の一例を示す説明図Explanatory drawing which shows an example of the mode after the symbol of the object image in Embodiment 1 changed 実施の形態1における学習対象の実動作に目標動作を重ねて表示した状態を示す説明図Explanatory drawing which shows the state which overlapped and displayed the target operation | movement on the real operation | movement of learning object in Embodiment 1 本発明の実施の形態2に係る学習支援装置の詳細な構成を示すブロック図The block diagram which shows the detailed structure of the learning assistance apparatus which concerns on Embodiment 2 of this invention. 実施の形態2における通過判定情報の構成の一例を示す説明図Explanatory drawing which shows an example of a structure of the passage determination information in Embodiment 2. 実施の形態2における修正ポリシ情報の内容の一例を示す説明図Explanatory drawing which shows an example of the content of the correction policy information in Embodiment 2 実施の形態2における変更依頼情報の構成の一例を示す説明図Explanatory drawing which shows an example of a structure of the change request information in Embodiment 2. 実施の形態2における習熟度推定処理の流れを示すフローチャートThe flowchart which shows the flow of the proficiency level estimation process in Embodiment 2 実施の形態2における通過判定情報の内容の具体例を示す説明図Explanatory drawing which shows the specific example of the content of the passage determination information in Embodiment 2. 実施の形態2における図19に示す通過判定情報から作成される変更依頼情報の内容の具体例を示す説明図Explanatory drawing which shows the specific example of the content of the change request information produced from the passage determination information shown in FIG. 19 in Embodiment 2. 本発明の実施の形態3に係る学習支援装置の詳細な構成を示すブロック図The block diagram which shows the detailed structure of the learning assistance apparatus which concerns on Embodiment 3 of this invention. 実施の形態3におけるオブジェクト関連情報の内容の一例を示す説明図Explanatory drawing which shows an example of the content of the object relevant information in Embodiment 3 実施の形態3における関連性判定処理の流れを示すフローチャートThe flowchart which shows the flow of the relevance determination process in Embodiment 3. 実施の形態3における描画対象データの内容の一例を示す説明図Explanatory drawing which shows an example of the content of the drawing object data in Embodiment 3 実施の形態3における図23に示す描画対象データに基づいて描画が行われたときの描画面の様子の一例を示す平面図The top view which shows an example of the mode of the drawing surface when drawing is performed based on the drawing object data shown in FIG. 23 in Embodiment 3. 実施の形態3における一部のオブジェクトのみが描画面内に存在している場合の描画面の様子の一例を示す平面図FIG. 9 is a plan view illustrating an example of a drawing surface when only some objects exist in the drawing surface in the third embodiment 実施の形態3における複数の学習対象の動作の関係性が描画されたときの描画面の様子の一例を示す平面図The top view which shows an example of the mode of the drawing surface when the relationship of the operation | movement of the some learning object in Embodiment 3 is drawn 本発明の実施の形態4に係る学習支援装置の詳細な構成を示すブロック図The block diagram which shows the detailed structure of the learning assistance apparatus which concerns on Embodiment 4 of this invention. 実施の形態4におけるオブジェクト配置計画の内容の一例を示す説明図Explanatory drawing which shows an example of the content of the object arrangement plan in Embodiment 4 実施の形態4における制御指示書の内容の一例を示す説明図Explanatory drawing which shows an example of the content of the control instruction in Embodiment 4 実施の形態4における情報量最適化処理の流れを示すフローチャートThe flowchart which shows the flow of the information amount optimization process in Embodiment 4. 実施の形態4におけるオブジェクト配置計画修正命令の内容の一例を示す説明図Explanatory drawing which shows an example of the content of the object arrangement plan correction command in Embodiment 4 実施の形態4におけるオブジェクト配置計画に基づいて描画が行われたときの描画面の様子の一例を示す平面図The top view which shows an example of the state of the drawing surface when drawing is performed based on the object arrangement plan in Embodiment 4 実施の形態4におけるオブジェクト配置計画に対して修正が行われたときの描画面の様子の一例を示す平面図The top view which shows an example of the mode of the drawing surface when correction is performed with respect to the object arrangement plan in Embodiment 4 本発明の実施の形態5に係る学習支援装置の詳細な構成を示すブロック図The block diagram which shows the detailed structure of the learning assistance apparatus which concerns on Embodiment 5 of this invention. 実施の形態5におけるオブジェクト情報の内容の一例を示す説明図Explanatory drawing which shows an example of the content of the object information in Embodiment 5 実施の形態5における死角描画指示書の内容の一例を示す説明図Explanatory drawing which shows an example of the content of the blind spot drawing instruction in Embodiment 5 実施の形態5における死角描画指示書に基づいて描画が行われたときの描画面の様子の一例を示す平面図The top view which shows an example of the mode of the drawing surface when drawing is performed based on the blind spot drawing instruction in Embodiment 5

符号の説明Explanation of symbols

10、30、50、60、70 学習支援装置
110 ヘッドマウントディスプレイ
111 視界情報計測部
112 位置姿勢情報計測部
113 画像表示部
120 3軸加速度センサ
121 運動情報計測部
130、330、530、630、730 制御端末
131 目標動作情報格納部
132 学習対象取得部
133 視界情報取得部
134 位置姿勢情報取得部
135、335、535、635、735 目標動作作成部
136 目標動作描画部
137 運動情報取得部
138、538、638 通過判定部
210 制御パネル
339 習熟度推定部
539 関連性判定部
639 情報量制御部
10, 30, 50, 60, 70 Learning support device 110 Head mounted display 111 Visibility information measurement unit 112 Position and orientation information measurement unit 113 Image display unit 120 Three-axis acceleration sensor 121 Motion information measurement unit 130, 330, 530, 630, 730 Control terminal 131 Target motion information storage unit 132 Learning target acquisition unit 133 Visibility information acquisition unit 134 Position and orientation information acquisition unit 135, 335, 535, 635, 735 Target motion creation unit 136 Target motion drawing unit 137 Motion information acquisition unit 138, 538 , 638 Passage determination unit 210 Control panel 339 Proficiency level estimation unit 539 Relevance determination unit 639 Information amount control unit

Claims (15)

所定の運動を学習するための学習支援装置であって、
前記所定の運動における学習対象部位の動作である目標動作を示す目標動作情報を取得する目標動作取得部と、
前記目標動作取得部によって取得された前記目標動作情報に基づいて、前記目標動作を、前記所定の運動を学習するユーザの視界に適合させて描画する描画部と、
を有する学習支援装置。
A learning support device for learning a predetermined exercise,
A target motion acquisition unit for acquiring target motion information indicating a target motion that is a motion of a learning target part in the predetermined motion;
Based on the target motion information acquired by the target motion acquisition unit, a rendering unit that renders the target motion in conformity with the field of view of the user who learns the predetermined motion;
A learning support apparatus.
前記描画部は、
前記ユーザが前記所定の運動を行った場合の前記ユーザの視界における前記目標動作を、前記ユーザが前記所定の運動を行った場合の前記学習対象部位の軌道とは重ならない位置で描画する、
請求項1記載の学習支援装置。
The drawing unit
The target motion in the user's field of view when the user performs the predetermined motion is drawn at a position that does not overlap with the trajectory of the learning target region when the user performs the predetermined motion.
The learning support apparatus according to claim 1.
前記学習対象部位の動作は、前記学習対象部位の目標軌道と、前記目標軌道を構成する位置における前記学習対象部位の姿勢、速度、加速度、回転速度、回転加速度、および前記学習対象部位に対して掛ける力、の少なくとも1つを含む所定の物理量と、を含む、
請求項2記載の学習支援装置。
The operation of the learning target part is performed with respect to the target trajectory of the learning target part and the posture, speed, acceleration, rotational speed, rotational acceleration, and the learning target part of the learning target part at a position constituting the target trajectory. A predetermined physical quantity including at least one of the force to be applied, and
The learning support apparatus according to claim 2.
前記描画部は
前記所定の物理量を視覚的に示すオブジェクトを対応する位置に配置して描画する、
請求項3記載の学習支援装置。
The drawing unit arranges and draws an object visually indicating the predetermined physical quantity at a corresponding position;
The learning support apparatus according to claim 3.
前記オブジェクトは、前記所定の物理量が方向成分を含むとき、その方向を法線とする面またはその方向に向けて突出した突出部を有する、
請求項4記載の学習支援装置。
When the predetermined physical quantity includes a direction component, the object has a surface whose normal is the direction or a protrusion protruding toward the direction.
The learning support apparatus according to claim 4.
前記ユーザの実際の運動における前記学習対象部位の動作である実動作を計測し、前記実動作を示す情報を生成する計測部と、
前記目標動作取得部によって取得された目標動作情報と、前記計測部により生成された前記実動作を示す情報と、を比較する比較部と、を更に有し、
前記描画部は、
前記比較部による比較結果を示す情報を、前記ユーザの視界に適合させて描画する、
請求項1記載の学習支援装置。
A measurement unit that measures an actual motion that is the motion of the learning target part in the actual motion of the user, and generates information indicating the actual motion;
A comparison unit that compares the target motion information acquired by the target motion acquisition unit with information indicating the actual motion generated by the measurement unit;
The drawing unit
The information indicating the comparison result by the comparison unit is drawn in conformity with the field of view of the user.
The learning support apparatus according to claim 1.
前記描画部は、
前記所定の物理量を視覚的に示すオブジェクトを対応する位置に配置して描画し、前記比較部による比較結果に応じて、前記オブジェクトの画像のサイズ、解像度、色、透明度、輝度、密度、グラデーション、および描画の有無の少なくとも1つを含む属性を変更する、
請求項6記載の学習支援装置。
The drawing unit
An object visually indicating the predetermined physical quantity is arranged and drawn at a corresponding position, and according to the comparison result by the comparison unit, the size, resolution, color, transparency, brightness, density, gradation, image of the object, And changing an attribute including at least one of presence / absence of drawing,
The learning support apparatus according to claim 6.
前記比較部は、
前記目標動作情報と前記実動作を示す情報との比較を前記オブジェクトごとに行い、
前記描画部は、
前記オブジェクトごとの比較結果を示す情報を、前記学習対象部位が次のオブジェクトの位置に到達する前に描画する、
請求項7記載の学習支援装置。
The comparison unit includes:
A comparison between the target motion information and information indicating the actual motion is performed for each object,
The drawing unit
Draw information indicating the comparison result for each object before the learning target part reaches the position of the next object,
The learning support apparatus according to claim 7.
前記目標動作情報は、前記オブジェクトごとの重要度を更に含み、
前記描画部は、
前記重要度に応じて、前記オブジェクトの画像のサイズ、解像度、色、透明度、輝度、密度、グラデーション、および描画の有無の少なくとも1つを含む属性を変更する、
請求項4記載の学習支援装置。
The target motion information further includes importance for each object,
The drawing unit
Changing an attribute including at least one of the size, resolution, color, transparency, luminance, density, gradation, and presence / absence of drawing of the object according to the importance,
The learning support apparatus according to claim 4.
前記比較部による比較結果から、前記所定の運動に対する前記ユーザの習熟度を判定する習熟度判定部、を更に有し、
前記描画部は、
前記習熟度判定部による判定結果に応じて、前記オブジェクトの画像のサイズ、解像度、色、透明度、輝度、密度、グラデーション、および描画の有無の少なくとも1つを含む属性を変更する、
請求項6記載の学習支援装置。
A proficiency level determination unit for determining the proficiency level of the user for the predetermined exercise from the comparison result by the comparison unit;
The drawing unit
Changing an attribute including at least one of the size, resolution, color, transparency, luminance, density, gradation, and presence / absence of drawing of the image of the object according to a determination result by the proficiency level determination unit;
The learning support apparatus according to claim 6.
前記学習対象部位の動作は、第1の部位の軌道と、前記第1の部位の軌道を構成する位置に前記第1の部位が位置するときの第2の部位の位置とを含み、
前記描画部は、
前記第1の部位の軌道を構成する位置と、その位置に前記第1の部位が位置するときの前記第2の部位の位置とを、関連付けて描画する、
請求項1記載の学習支援装置。
The operation of the learning target part includes a trajectory of the first part and a position of the second part when the first part is located at a position constituting the trajectory of the first part,
The drawing unit
Draw and associate the position constituting the trajectory of the first part and the position of the second part when the first part is located at the position;
The learning support apparatus according to claim 1.
前記ユーザの視界に描画される情報量を算出し、算出された情報量が予め定められた閾値を超えている場合には、描画の対象となるオブジェクトを削減する情報量制御部、
を更に有する請求項4または請求項7記載の学習支援装置。
An information amount control unit that calculates the amount of information drawn in the user's field of view and reduces the objects to be drawn when the calculated amount of information exceeds a predetermined threshold;
The learning support device according to claim 4 or 7, further comprising:
前記目標軌道のうち、前記ユーザの視界の死角に位置する死角軌道を判別する死角軌道判別部、を更に有し、
前記描画部は、
前記死角軌道における前記目標動作を、前記ユーザの視界の死角における前記目標動作の画像である旨を通知して、前記ユーザの視界内に描画する、
請求項3記載の学習支援装置。
A blind spot trajectory discriminating unit for discriminating a blind spot trajectory located in the blind spot of the user's field of view among the target trajectories;
The drawing unit
Notifying that the target motion in the blind spot trajectory is an image of the target motion in the blind spot of the user's field of view, and drawing in the user's field of view,
The learning support apparatus according to claim 3.
前記描画部は、
入力される画像データに基づいて画像を表示する画像表示部、を有し、
前記ユーザの頭部の位置および姿勢を取得する位置姿勢取得部と、
前記ユーザの視点の位置を取得する視点取得部と、
前記位置姿勢取得部により取得されたユーザの頭部の位置および姿勢と、前記視点取得部により取得されたユーザの視点の位置とに基づいて前記ユーザの視界を算出し、算出した前記ユーザの視界と前記画像表示部の画像表示位置とに基づいて、前記ユーザが前記所定の運動を行った場合の前記ユーザの視界における前記目標動作の画像を表示するための画像データを生成し、生成した画像データを前記描画部に出力する目標動作生成部と、
を更に有する請求項1記載の学習支援装置。
The drawing unit
An image display unit that displays an image based on input image data;
A position and orientation acquisition unit for acquiring the position and orientation of the user's head;
A viewpoint acquisition unit that acquires the position of the user's viewpoint;
Based on the position and orientation of the user's head acquired by the position / orientation acquisition unit and the position of the user's viewpoint acquired by the viewpoint acquisition unit, the user's field of view is calculated, and the calculated user's field of view And image data for displaying an image of the target motion in the field of view of the user when the user performs the predetermined exercise based on the image display position of the image display unit and the generated image A target motion generation unit for outputting data to the drawing unit;
The learning support apparatus according to claim 1, further comprising:
所定の運動を学習するための学習支援方法であって、
前記所定の運動における学習対象部位の動作である目標動作を示す目標動作情報を取得する目標動作取得ステップと、
前記目標動作取得ステップで取得された前記目標動作情報に基づいて、前記目標動作の画像を、前記所定の運動を学習するユーザの視界に適合させて描画する描画ステップと、
を有する学習支援方法。
A learning support method for learning a predetermined exercise,
A target motion acquisition step of acquiring target motion information indicating a target motion that is a motion of a learning target part in the predetermined motion;
Based on the target motion information acquired in the target motion acquisition step, a rendering step of rendering an image of the target motion in conformity with the field of view of the user who learns the predetermined motion;
A learning support method.
JP2007185075A 2007-07-13 2007-07-13 Learning support apparatus and learning support method Expired - Fee Related JP4982279B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007185075A JP4982279B2 (en) 2007-07-13 2007-07-13 Learning support apparatus and learning support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007185075A JP4982279B2 (en) 2007-07-13 2007-07-13 Learning support apparatus and learning support method

Publications (2)

Publication Number Publication Date
JP2009018127A true JP2009018127A (en) 2009-01-29
JP4982279B2 JP4982279B2 (en) 2012-07-25

Family

ID=40358271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007185075A Expired - Fee Related JP4982279B2 (en) 2007-07-13 2007-07-13 Learning support apparatus and learning support method

Country Status (1)

Country Link
JP (1) JP4982279B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013027628A (en) * 2011-07-29 2013-02-07 Seiko Epson Corp Device for generating exercise guidance information, program for generating the exercise guidance information, and recording medium
JP2015120085A (en) * 2015-04-02 2015-07-02 セイコーエプソン株式会社 Motion information generation device, motion information generation program, and recording medium
CN105759953A (en) * 2015-01-05 2016-07-13 索尼公司 Information processing device, information processing method, and program
JP2019020913A (en) * 2017-07-13 2019-02-07 株式会社東芝 Information processing apparatus, method and program
WO2020158727A1 (en) * 2019-01-28 2020-08-06 国立大学法人 東京大学 System, method, and program
JP2022002798A (en) * 2018-10-12 2022-01-11 株式会社mediVR Rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program
WO2024009389A1 (en) * 2022-07-05 2024-01-11 三菱電機株式会社 Assistance system for arrangement work on devices of elevator

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002143363A (en) * 2000-11-09 2002-05-21 Nippon Telegr & Teleph Corp <Ntt> Mass game support system
JP2005034195A (en) * 2003-07-15 2005-02-10 Canon Inc Lesson support system and method
JP2006230630A (en) * 2005-02-23 2006-09-07 Nihon Knowledge Kk Practical skill analysis system and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002143363A (en) * 2000-11-09 2002-05-21 Nippon Telegr & Teleph Corp <Ntt> Mass game support system
JP2005034195A (en) * 2003-07-15 2005-02-10 Canon Inc Lesson support system and method
JP2006230630A (en) * 2005-02-23 2006-09-07 Nihon Knowledge Kk Practical skill analysis system and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013027628A (en) * 2011-07-29 2013-02-07 Seiko Epson Corp Device for generating exercise guidance information, program for generating the exercise guidance information, and recording medium
CN105759953A (en) * 2015-01-05 2016-07-13 索尼公司 Information processing device, information processing method, and program
WO2016111067A1 (en) * 2015-01-05 2016-07-14 ソニー株式会社 Information processing device, information processing method, and program
JPWO2016111067A1 (en) * 2015-01-05 2017-10-12 ソニー株式会社 Information processing apparatus, information processing method, and program
CN105759953B (en) * 2015-01-05 2020-04-21 索尼公司 Information processing apparatus, information processing method, and program
JP2015120085A (en) * 2015-04-02 2015-07-02 セイコーエプソン株式会社 Motion information generation device, motion information generation program, and recording medium
JP2019020913A (en) * 2017-07-13 2019-02-07 株式会社東芝 Information processing apparatus, method and program
JP2022002798A (en) * 2018-10-12 2022-01-11 株式会社mediVR Rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program
JP7149658B2 (en) 2018-10-12 2022-10-07 株式会社mediVR Rehabilitation support system, rehabilitation support method and rehabilitation support program
WO2020158727A1 (en) * 2019-01-28 2020-08-06 国立大学法人 東京大学 System, method, and program
JPWO2020158727A1 (en) * 2019-01-28 2021-10-21 国立大学法人 東京大学 Systems, methods, and programs
WO2024009389A1 (en) * 2022-07-05 2024-01-11 三菱電機株式会社 Assistance system for arrangement work on devices of elevator

Also Published As

Publication number Publication date
JP4982279B2 (en) 2012-07-25

Similar Documents

Publication Publication Date Title
US11367410B2 (en) Eclipse cursor for mixed reality displays
EP3631567B1 (en) Eye tracking calibration techniques
JP7191714B2 (en) Systems and methods for direct pointing detection for interaction with digital devices
US10719911B2 (en) Information processing method and system for executing the information processing method
JP4982279B2 (en) Learning support apparatus and learning support method
CN104471511B (en) Identify device, user interface and the method for pointing gesture
US10783712B2 (en) Visual flairs for emphasizing gestures in artificial-reality environments
KR20220012990A (en) Gating Arm Gaze-Driven User Interface Elements for Artificial Reality Systems
CN103347437A (en) Gaze detection in a 3d mapping environment
KR20220018561A (en) Artificial Reality Systems with Personal Assistant Element for Gating User Interface Elements
KR20220018562A (en) Gating Edge-Identified Gesture-Driven User Interface Elements for Artificial Reality Systems
CN108027987A (en) Information processing method, the program for making the computer-implemented information processing method, the information processor and information processing system for implementing the information processing method
WO2017051595A1 (en) Information processing device, information processing method and program
TWI802456B (en) Optical system with improved user experiemce and accurate eye-tracking and related method
US20230256297A1 (en) Virtual evaluation tools for augmented reality exercise experiences
US20220362631A1 (en) Virtual tastings and guided tours for augmented reality experiences
JP2023090200A (en) Sign language learning device, sign language learning method and sign language learning program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120423

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150427

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4982279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees