JP5359950B2 - Exercise support device, exercise support method and program - Google Patents

Exercise support device, exercise support method and program Download PDF

Info

Publication number
JP5359950B2
JP5359950B2 JP2010065162A JP2010065162A JP5359950B2 JP 5359950 B2 JP5359950 B2 JP 5359950B2 JP 2010065162 A JP2010065162 A JP 2010065162A JP 2010065162 A JP2010065162 A JP 2010065162A JP 5359950 B2 JP5359950 B2 JP 5359950B2
Authority
JP
Japan
Prior art keywords
exercise
display
motion
information
display magnification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010065162A
Other languages
Japanese (ja)
Other versions
JP2011194076A (en
Inventor
和弘 大村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2010065162A priority Critical patent/JP5359950B2/en
Publication of JP2011194076A publication Critical patent/JP2011194076A/en
Application granted granted Critical
Publication of JP5359950B2 publication Critical patent/JP5359950B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、三次元仮想空間上で運動動作するオブジェクトを映し出した映像を表示部に表示し、所定の身体部位を動作させる運動を支援する運動支援装置、運動支援方法およびプログラムに関する。   The present invention relates to an exercise support apparatus, an exercise support method, and a program for supporting an exercise of moving a predetermined body part by displaying an image showing an object that exercises in a three-dimensional virtual space on a display unit.

従来、コンピュータグラフィックス(CG)により三次元仮想空間上に配置されたオブジェクトが、有酸素運動や無酸素運動を含む運動動作を実行するシステムが開示されている(例えば、特許文献1参照)。CGでは、一般に、三次元仮想空間上にオブジェクトと視点(仮想カメラ)が配置され、仮想カメラによりオブジェクトが撮影され、二次元の映像に変換される。オブジェクトを映し出した映像は、所定の表示部に表示され、このシステムのユーザは、表示された映像においてオブジェクトが行う運動動作を手本に、自らの身体部位を動作させる運動を行う。   Conventionally, a system has been disclosed in which an object arranged in a three-dimensional virtual space by computer graphics (CG) executes an exercise operation including an aerobic exercise or an anaerobic exercise (see, for example, Patent Document 1). In CG, an object and a viewpoint (virtual camera) are generally arranged in a three-dimensional virtual space, and the object is photographed by the virtual camera and converted into a two-dimensional video. An image showing the object is displayed on a predetermined display unit, and a user of this system performs an exercise to move his / her body part based on the exercise operation performed by the object in the displayed image.

ところで、オブジェクトの行う運動動作の内容によって、三次元仮想空間内でオブジェクトの動く範囲(可動範囲)は異なる。例えば、有酸素運動に分類されるサイドステップ運動では、オブジェクトは、三次元仮想空間内で、基準の位置に対して大きく位置移動しながら、身体部位を動作させる運動動作を行う。   By the way, the range of movement (movable range) of the object in the three-dimensional virtual space varies depending on the content of the motion performed by the object. For example, in a side step exercise classified as an aerobic exercise, an object performs an exercise operation that moves a body part while moving greatly relative to a reference position in a three-dimensional virtual space.

オブジェクトを映し出した映像は、通常、基準の表示倍率で表示される。このため、例えば、オブジェクトの可動範囲の大きな運動動作において仮想カメラの向き(視線方向)を固定してしまうと、オブジェクトが映像からはみ出してしまう虞がある。このような場合、三次元仮想空間内で移動するオブジェクトに仮想カメラの視線方向を追従させて撮影した映像を用いてもよい。また、ユーザの要望により、表示倍率を縮小して、可動範囲の全体を映した映像が望まれる場合もある。   An image showing an object is usually displayed at a standard display magnification. For this reason, for example, if the orientation (line-of-sight direction) of the virtual camera is fixed in a motion motion with a large movable range of the object, the object may protrude from the video. In such a case, you may use the image | video which image | photographed making the visual line direction of a virtual camera follow the object which moves in a three-dimensional virtual space. Further, there may be a case where an image showing the entire movable range is desired by reducing the display magnification according to the user's request.

特開2009−112732号公報JP 2009-112732 A

しかしながら、従来は、ユーザによる装置の操作によって表示倍率の変更が行われており、運動動作の最中や、運動動作の種類が替わるごとに操作する必要が生ずる場合もあり、わずらわしかった。   However, conventionally, the display magnification has been changed by the operation of the device by the user, and it may be necessary to perform the operation during the exercise operation or whenever the type of the exercise operation is changed.

本発明は、上記の問題点を解決するためになされたものであり、三次元仮想空間上で運動動作するオブジェクトを映し出した映像を表示部に表示する際に、運動動作の内容に応じて映像の表示倍率を変更することができる運動支援装置、運動支援方法およびプログラムを提供することを目的とする。   The present invention has been made in order to solve the above-described problems. When displaying an image showing an object that moves in a three-dimensional virtual space on a display unit, the image is displayed according to the content of the movement. It is an object to provide an exercise support apparatus, an exercise support method, and a program capable of changing the display magnification of the exercise.

本発明の第1態様によれば、所定の身体部位を動作させる運動の種類を表す複数の運動情報を取得する第1取得手段と、前記身体部位を備え、前記運動情報が表す運動動作を行うオブジェクトを映し出した映像を、所定の表示部に表示させるときの基準となる基準表示倍率を取得する第2取得手段と、前記オブジェクトが動作する運動動作の可動範囲を決定する第1決定手段と、前記可動範囲が、前記表示部の表示範囲内に収まるように、前記オブジェクトを映し出した映像を前記表示部に表示する表示倍率を、前記基準表示倍率を基準に変更する制御を行う表示制御手段と、を備える運動支援装置が提供される。   According to the first aspect of the present invention, the first acquisition means for acquiring a plurality of pieces of exercise information representing the type of exercise for operating a predetermined body part and the body part are provided, and the exercise operation represented by the exercise information is performed. Second acquisition means for acquiring a reference display magnification that serves as a reference when displaying an image showing an object on a predetermined display unit; first determination means for determining a movable range of an exercise operation in which the object operates; Display control means for performing control to change a display magnification for displaying an image showing the object on the display unit so that the movable range falls within a display range of the display unit based on the reference display magnification. Are provided.

第1態様によれば、表示部に表示される映像の表示倍率を基準表示倍率に対して拡大または縮小する制御が、オブジェクトの運動動作の可動範囲に応じて行われる。この結果、利用者がオブジェクトの行う運動動作に合わせた運動を行っている最中に、表示倍率の変更を、利用者が入力部等により指示する必要がない。よって、利用者の運動実行が妨げられることがない。また、可動範囲を表示部の表示範囲内に確実に収めることができ、オブジェクトを映し出した映像が表示部に表示されたときに、見やすい。   According to the first aspect, control for enlarging or reducing the display magnification of the video displayed on the display unit with respect to the reference display magnification is performed according to the movable range of the motion motion of the object. As a result, it is not necessary for the user to instruct to change the display magnification using the input unit or the like while the user is exercising in accordance with the exercise operation performed by the object. Therefore, the user's exercise execution is not hindered. Further, the movable range can be surely contained within the display range of the display unit, and it is easy to see when an image showing the object is displayed on the display unit.

第1態様は、前記オブジェクトを映し出した映像が、前記表示部内で可動する座標情報を取得する第3取得手段をさらに備えてもよい。この場合に、前記第1決定手段は、前記第3取得手段により取得された前記座標情報に基づいて、前記オブジェクトが動作する運動動作の前記可動範囲を決定してもよい。このようにすれば、具体的な座標情報に基づいて、より正確な、可動範囲を得ることができるので、可動範囲を表示部の表示範囲内に、より確実に、収めることができる。   The first aspect may further include third acquisition means for acquiring coordinate information in which the video image of the object is movable in the display unit. In this case, the first determination unit may determine the movable range of the motion motion in which the object operates based on the coordinate information acquired by the third acquisition unit. In this way, since a more accurate movable range can be obtained based on specific coordinate information, the movable range can be more reliably stored within the display range of the display unit.

第1態様において、前記第1決定手段により決定された前記可動範囲が、基準となる基準範囲よりも大きいか否かを判定する判定手段をさらに備えてもよい。この場合、前記表示制御手段は、前記判定手段により前記可動範囲が前記基準範囲よりも大きいと判定された場合に、前記表示倍率を前記基準表示倍率より小さくしてもよい。このように、表示部に表示される映像の表示倍率の縮小が、可動範囲に応じて行われる。この結果、利用者がオブジェクトの行う運動動作に合わせた運動を行っている最中に、表示倍率の縮小を、利用者が入力部等により指示する必要がない。よって、利用者の運動実行が妨げられることがない。   The first aspect may further include a determination unit that determines whether or not the movable range determined by the first determination unit is larger than a reference range as a reference. In this case, the display control means may make the display magnification smaller than the reference display magnification when the determination means determines that the movable range is larger than the reference range. In this way, the display magnification of the video displayed on the display unit is reduced according to the movable range. As a result, it is not necessary for the user to instruct the display magnification reduction by the input unit or the like while the user is exercising in accordance with the exercise operation performed by the object. Therefore, the user's exercise execution is not hindered.

第1態様において、前記判定手段は、前記第1決定手段により決定された前記可動範囲が前記基準範囲よりも小さいか否かを判定し、前記表示制御手段は、前記判定手段により前記可動範囲が前記基準範囲よりも小さいと判定された場合に、前記表示倍率を前記基準表示倍率より大きくしてもよい。このように、表示部に表示される映像の表示倍率の拡大が、可動範囲に応じて行われる。この結果、利用者がオブジェクトの行う運動動作に合わせた運動を行っている最中に、表示倍率の拡大を、利用者が入力部等により指示する必要がない。よって、利用者の運動実行が妨げられることがない。   In the first aspect, the determination unit determines whether the movable range determined by the first determination unit is smaller than the reference range, and the display control unit determines whether the movable range is determined by the determination unit. When it is determined that it is smaller than the reference range, the display magnification may be larger than the reference display magnification. In this way, the display magnification of the video displayed on the display unit is increased according to the movable range. As a result, it is not necessary for the user to instruct the enlargement of the display magnification by the input unit or the like while the user is exercising in accordance with the exercise operation performed by the object. Therefore, the user's exercise execution is not hindered.

第1態様は、前記第1取得手段により取得される複数の前記運動情報の中から、所望の前記運動情報である所望運動情報を選択する選択手段と、前記選択手段により選択された前記所望運動情報と、前記所望運動情報が実行される順序を示す運動順序情報とが対応付けられたリストを取得する第4取得手段と、をさらに備えてもよい。この場合に第1態様において、前記第1決定手段は、前記リストに含まれる前記運動順序情報に従い、前記所望運動情報が表す運動動作を前記オブジェクトが動作したときの前記可動範囲を決定し、前記判定手段は、前記第1決定手段により決定された前記可動範囲が、前記基準範囲より大きいか否か、および前記基準範囲より小さいか否かを判定し、前記表示制御手段は、前記判定手段により前記可動範囲が前記基準範囲よりも大きいと判定された場合に、前記表示倍率を前記基準表示倍率より大きくし、前記表示制御手段は、前記判定手段により前記可動範囲が前記基準範囲よりも小さいと判定された場合に、前記表示倍率を前記基準表示倍率より小さくしてもよい。   The first aspect includes a selection unit that selects desired exercise information that is the desired exercise information from the plurality of pieces of exercise information acquired by the first acquisition unit, and the desired exercise that is selected by the selection unit. You may further provide the 4th acquisition means to acquire the list | wrist with which the information and the exercise | movement order information which show the order in which the said desired exercise | movement information is performed were matched. In this case, in the first aspect, the first determination means determines the movable range when the object moves the movement motion represented by the desired movement information according to the movement order information included in the list, The determining means determines whether the movable range determined by the first determining means is larger than the reference range and whether it is smaller than the reference range, and the display control means is determined by the determining means. When it is determined that the movable range is larger than the reference range, the display magnification is made larger than the reference display magnification, and the display control unit determines that the movable range is smaller than the reference range by the determination unit. When it is determined, the display magnification may be smaller than the reference display magnification.

このようにすれば、複数の運動が所望の順序に従って連続して実行される場合であっても、利用者が、運動ごとに、表示部に表示される映像の表示倍率の拡大または縮小の指示を、入力部等により直接入力する必要がない。つまり、運動が切り替わるたびに、表示倍率の変更を行う負担が利用者にかかることがないので、特に、連続した運動の実行を所望する利用者が、運動実行を妨げられることがない。   In this way, even when a plurality of exercises are successively executed according to a desired order, the user gives an instruction to enlarge or reduce the display magnification of the video displayed on the display unit for each exercise. Is not required to be directly input by an input unit or the like. In other words, each time the exercise is switched, the user is not burdened to change the display magnification. In particular, a user who desires to perform continuous exercise is not prevented from performing the exercise.

第1態様は、三次元仮想空間内に、あらかじめ視線方向および画角が設定され、前記オブジェクトを映しだした映像を撮影する視点と、前記オブジェクトと、を配置する配置手段をさらに備えてもよい。この場合に第1態様において、前記表示制御手段は、前記画角を固定したまま前記視点の配置位置を前記視線方向に沿って移動させる制御、または、前記配置位置を固定したまま前記画角を変更する制御を行って、前記表示倍率を制御してもよい。オブジェクトを映し出した映像は、三次元仮想空間内に配置されたオブジェクトを視点から撮影することによって生成されてもよい。このようにすれば、表示倍率の変更を容易に行うことができる。   The first aspect may further include an arrangement unit that arranges a viewpoint in which a line-of-sight direction and an angle of view are set in advance in the three-dimensional virtual space, and the object is captured, and the object. . In this case, in the first aspect, the display control means controls the movement of the arrangement position of the viewpoint along the line-of-sight direction with the angle of view fixed, or the angle of view with the arrangement position fixed. The display magnification may be controlled by performing control to change. The video image showing the object may be generated by photographing the object arranged in the three-dimensional virtual space from the viewpoint. In this way, it is possible to easily change the display magnification.

第1態様は、前記配置手段により複数の所定の位置のそれぞれに複数の前記視点が配置され、複数の前記視点のうち、所望する1つの前記視点である所望視点を決定する第2決定手段をさらに備えてもよい。この場合に、前記第2取得手段は、前記第2決定手段によって決定された前記所望視点から前記オブジェクトを映し出した映像を、前記表示部に表示させるときの前記基準表示倍率を取得してもよい。複数の視点から所望する視点を決定できるようにすることで、より望ましい視点からオブジェクトを映し出した映像を、表示部に表示することができる。   The first aspect includes a second determining unit that determines a desired viewpoint that is one desired viewpoint among the plurality of viewpoints, wherein the plurality of viewpoints are arranged at each of a plurality of predetermined positions by the arranging unit. Further, it may be provided. In this case, the second acquisition unit may acquire the reference display magnification for displaying on the display unit the video image of the object projected from the desired viewpoint determined by the second determination unit. . By making it possible to determine a desired viewpoint from a plurality of viewpoints, an image in which an object is projected from a more desirable viewpoint can be displayed on the display unit.

第1態様において、前記表示制御手段によって前記表示倍率が変更された後に、前記第2決定手段により、現在決定されている前記所望視点とは異なる新たな前記所望視点が決定された場合に、前記判定手段による判定と、前記表示制御手段による前記表示倍率の変更とが、再度実行されてもよい。新たな視点が決定されたら、表示倍率の変更を再度行うことで、視点位置の違いによる可動範囲と基準範囲との不一致を確実に解消することができる。   In the first aspect, after the display magnification is changed by the display control unit, the second determination unit determines a new desired viewpoint different from the currently determined desired viewpoint. The determination by the determination unit and the change of the display magnification by the display control unit may be executed again. When a new viewpoint is determined, the display magnification is changed again, so that the mismatch between the movable range and the reference range due to the difference in viewpoint position can be reliably eliminated.

第1態様において、前記運動情報は、所定の身体部位を動作させる個別の運動を表すモーション情報を、運動の種類ごとに分類した情報であり、前記判定手段による判定と、前記表示制御手段による前記表示倍率の変更とは、前記モーション情報ごとに実行されてもよい。表示倍率の変更をモーション情報ごとに行うことで、ひとつひとつの異なる運動ごとに、可動範囲にあわせた基準範囲の調整を行うことができる。   In the first aspect, the exercise information is information obtained by classifying motion information representing individual exercises for operating a predetermined body part for each type of exercise, and determination by the determination unit and the display control unit The change of the display magnification may be executed for each motion information. By changing the display magnification for each piece of motion information, it is possible to adjust the reference range according to the movable range for each different motion.

本発明の第2態様によれば、コンピュータで実行され、身体部位を備え、所定の前記身体部位を動作させる運動動作を行うオブジェクトを映し出した映像を表示部に表示させることで運動を支援する運動支援方法であって、所定の身体部位を動作させる運動の種類を表す複数の運動情報を取得する第1取得ステップと、前記身体部位を備え、前記運動情報が表す運動動作を行うオブジェクトを映し出した映像を、所定の表示部に表示させるときの基準となる基準表示倍率を取得する第2取得ステップと、前記オブジェクトが動作する運動動作の可動範囲を決定する第1決定ステップと、前記可動範囲が、前記表示部の表示範囲内に収まるように、前記オブジェクトを映し出した映像を前記表示部に表示する表示倍率を、前記基準表示倍率を基準に変更する制御を行う表示制御ステップと、を含む運動支援方法が提供される。   According to the second aspect of the present invention, an exercise that is executed by a computer and supports a movement by displaying an image on which an object that includes a body part and performs an exercise operation that moves the predetermined body part is displayed on the display unit. A support method, wherein a first acquisition step of acquiring a plurality of pieces of exercise information representing types of exercises for operating a predetermined body part, and an object that includes the body parts and performs an exercise operation represented by the exercise information are displayed. A second acquisition step of acquiring a reference display magnification as a reference when displaying an image on a predetermined display unit; a first determination step of determining a movable range of an exercise motion in which the object operates; and the movable range includes: The display magnification for displaying the video image of the object on the display unit so as to be within the display range of the display unit is based on the reference display magnification. Exercise support method comprising: a display control step of performing control for changing, to is provided.

本発明の第3態様によれば、身体部位を備え、所定の前記身体部位を動作させる運動動作を行うオブジェクトを映し出した映像を表示部に表示させる運動支援装置として機能させるためのプログラムであって、コンピュータに、所定の身体部位を動作させる運動の種類を表す複数の運動情報を取得する第1取得ステップと、前記身体部位を備え、前記運動情報が表す運動動作を行うオブジェクトを映し出した映像を、所定の表示部に表示させるときの基準となる基準表示倍率を取得する第2取得ステップと、前記オブジェクトが動作する運動動作の可動範囲を決定する第1決定ステップと、前記可動範囲が、前記表示部の表示範囲内に収まるように、前記オブジェクトを映し出した映像を前記表示部に表示する表示倍率を、前記基準表示倍率を基準に変更する制御を行う表示制御ステップと、を実行させるプログラムが提供される。   According to a third aspect of the present invention, there is provided a program for causing a display unit to display an image that includes a body part and displays an object that performs an exercise operation that moves a predetermined body part. A first acquisition step of acquiring a plurality of pieces of exercise information representing types of exercises for operating a predetermined body part on a computer, and an image showing an object that includes the body parts and performs an exercise operation represented by the exercise information A second acquisition step of acquiring a reference display magnification as a reference when displaying on a predetermined display unit, a first determination step of determining a movable range of an exercise motion in which the object operates, and the movable range, A display magnification for displaying an image showing the object on the display unit so as to be within a display range of the display unit is a reference display magnification. Program for executing a display control step of performing control for changing the reference, is provided.

第2態様に係る運動支援方法に従う処理をコンピュータで実行することによって、あるいは、第3態様に係るプログラムを実行してコンピュータを運動支援装置として機能させることで、第1態様と同様の効果を得ることができる。     By executing the process according to the exercise support method according to the second aspect on a computer, or by executing the program according to the third aspect and causing the computer to function as an exercise support apparatus, the same effect as the first aspect is obtained. be able to.

出力端末5が含まれる運動支援システム1の構成を示す図である。It is a figure which shows the structure of the exercise support system 1 in which the output terminal 5 is included. 出力端末5の電気的な構成を示すブロック図である。4 is a block diagram showing an electrical configuration of the output terminal 5. FIG. 三次元仮想空間80を模式的に示す図である。3 is a diagram schematically showing a three-dimensional virtual space 80. FIG. アフィン変換による座標変換について説明するための図である。It is a figure for demonstrating the coordinate transformation by affine transformation. 運動支援プログラムのフローチャートである。It is a flowchart of an exercise support program. 第2の三次元仮想空間79を模式的に示す図である。It is a figure which shows the 2nd three-dimensional virtual space 79 typically. 仮想カメラ81の画角を求める方法を説明するための図である。It is a figure for demonstrating the method of calculating | requiring the angle of view of the virtual camera 81. FIG. 運動支援プログラムの変形例を示すフローチャートである。It is a flowchart which shows the modification of an exercise | movement assistance program. 仮想スクリーン88の拡大および縮小について説明するための図である。It is a figure for demonstrating expansion and reduction of the virtual screen 88. FIG.

以下、本発明を具体化した一実施の形態について、運動支援プログラムが実行される出力端末5を運動支援装置の一例とし、図面を参照して説明する。なお、参照する図面は、本発明が採用しうる技術的特徴を説明するために用いられるものであり、記載されている装置の構成、各種処理のフローチャートなどは、それのみに限定する趣旨ではなく、単なる説明例である。   Hereinafter, an embodiment embodying the present invention will be described with reference to the drawings, taking an output terminal 5 on which an exercise support program is executed as an example of an exercise support device. The drawings to be referred to are used for explaining the technical features that can be adopted by the present invention, and the configuration of the apparatus and the flowcharts of various processes described are not intended to be limited thereto. This is just an illustrative example.

まず、図1を参照し、出力端末5が含まれる運動支援システム1の構成について説明する。運動支援システム1は、例えばインターネット等のネットワーク10を介して電気的に接続される一つ以上の配信サーバ2と、一つ以上の出力端末5とから構成される。配信サーバ2には、後述するモーションデータを記憶したデータベース21が接続されている。配信サーバ2は、ネットワーク10を介し、データベース21に記憶されたモーションデータを、定期的あるいは要求に応じて出力端末5に配信する。   First, the configuration of the exercise support system 1 including the output terminal 5 will be described with reference to FIG. The exercise support system 1 includes one or more distribution servers 2 and one or more output terminals 5 that are electrically connected via a network 10 such as the Internet. The distribution server 2 is connected to a database 21 that stores motion data to be described later. The distribution server 2 distributes the motion data stored in the database 21 to the output terminal 5 periodically or upon request via the network 10.

モーションデータとは、後述する三次元仮想空間80(図3参照)内に配置されるオブジェクト(人の形をしたフィギュアA)に、具体的な運動動作を行わせるためのデータである。モーションデータは、運動情報とモーション情報とに対応づけられている。また、オブジェクト(フィギュアA)の各身体部位のローカル座標系84(後述)に基づく座標データ、同様に各身体部位に対応した細部の座標データ、細部に対応したテクスチャデータなども含まれる。運動情報とは、運動の種類を表す情報である。具体的に、運動情報には、「有酸素運動」、「無酸素運動」、「ストレッチ」、「ヨガ」などが含まれる。また、モーション情報とは、運動情報によって分類される個々の運動を表す情報である。具体的に、例えば「有酸素運動」に分類されるモーション情報には、「マーチ」、「フロントランジ」、「バックランジ」、「サイドステップ」等が含まれる。また、「無酸素運動」に分類されるモーション情報には、「ショルダープレス」、「ハーフスクワット」、「クォータースクワット」等が含まれる。「ストレッチ」に分類されるモーション情報には、「上腕部ストレッチ」、「大腿ストレッチ」、「ふくらはぎストレッチ」等が含まれる。「ヨガ」に分類されるモーション情報には、「かっこうのポーズ」、「太陽礼拝のポーズ」、「英雄のポーズ」等が含まれる。上記したデータベース21には、各種の運動情報のそれぞれに分類された様々なモーション情報に、それぞれ対応するモーションデータが、蓄積される。   The motion data is data for causing a specific movement motion to be performed on an object (a figure A in the shape of a person) arranged in a three-dimensional virtual space 80 (see FIG. 3) described later. The motion data is associated with exercise information and motion information. Further, coordinate data based on a local coordinate system 84 (described later) of each body part of the object (figure A), similarly detailed coordinate data corresponding to each body part, texture data corresponding to the detail, and the like are also included. The exercise information is information representing the type of exercise. Specifically, exercise information includes “aerobic exercise”, “anaerobic exercise”, “stretch”, “yoga”, and the like. The motion information is information representing individual exercises classified by exercise information. Specifically, for example, motion information classified as “aerobic exercise” includes “march”, “front lunge”, “back lunge”, “side step”, and the like. The motion information classified as “anoxic exercise” includes “shoulder press”, “half squat”, “quarter squat”, and the like. The motion information classified as “stretch” includes “upper arm stretch”, “thigh stretch”, “calf stretch”, and the like. The motion information classified as “yoga” includes “cuckoo pose”, “sun worship pose”, “hero pose”, and the like. The database 21 stores motion data corresponding to various types of motion information classified into various types of exercise information.

次に、出力端末5は、例えば、周知のパーソナルコンピュータであり、後述する運動支援プログラムがインストールされて実行されることにより、運動支援装置として機能するものである。出力端末5は、例えば、スポーツ施設4などに設置される。出力端末5は、運動支援プログラムの実行に従い、モーションデータに応じた運動動作を行うフィギュアAを映し出した映像を生成し、後述するモニタ57の表示部67に表示する。スポーツ施設4の利用者41は、表示部67に表示された映像を手本に、各自の身体部位を動作させる運動を行う。   Next, the output terminal 5 is a known personal computer, for example, and functions as an exercise support device by installing and executing an exercise support program described later. The output terminal 5 is installed in, for example, a sports facility 4 or the like. In accordance with the execution of the exercise support program, the output terminal 5 generates an image showing the figure A performing the exercise operation according to the motion data, and displays it on the display unit 67 of the monitor 57 described later. The user 41 of the sports facility 4 performs an exercise to operate his / her body part using the image displayed on the display unit 67 as an example.

次に、出力端末5の電気的な構成について説明する。図2に示す、出力端末5は、制御を司るCPU51を備えている。CPU51には、バス54を介して、ROM52、RAM53、入出力(I/O)インタフェイス55が接続されている。ROM52は、CPU51が実行するBIOS等のプログラムを記憶する読出し専用の記憶装置である。RAM53は、データを一時的に記憶する読み書き可能な記憶装置である。   Next, the electrical configuration of the output terminal 5 will be described. The output terminal 5 shown in FIG. 2 includes a CPU 51 that performs control. A ROM 52, a RAM 53, and an input / output (I / O) interface 55 are connected to the CPU 51 via a bus 54. The ROM 52 is a read-only storage device that stores programs such as BIOS executed by the CPU 51. The RAM 53 is a readable / writable storage device that temporarily stores data.

入出力インタフェイス55には、ハードディスクドライブ(HDD)7、マルチディスクドライブ58、ネットワーク通信部60、表示制御部56、音声出力部63、信号受信部65、キーボード61およびマウス62が接続されている。マルチディスクドライブ58は、例えばCD−ROMやDVD−ROMなど、データが記憶された記憶媒体であるディスクROM59が挿入されると、ディスクROM59からデータやプログラム等の読み込みを行うものである。   Connected to the input / output interface 55 are a hard disk drive (HDD) 7, a multi-disk drive 58, a network communication unit 60, a display control unit 56, an audio output unit 63, a signal reception unit 65, a keyboard 61, and a mouse 62. . The multi-disk drive 58 reads data and programs from the disk ROM 59 when a disk ROM 59, which is a storage medium storing data, such as a CD-ROM or DVD-ROM, is inserted.

記憶装置であるHDD7には、ディスクROM59から読み出されたプログラムがインストールされる。また、配信サーバ2からネットワーク10を介して配信されるモーションデータが、運動情報とモーション情報とに対応づけられて記憶される。なお、本実施の形態では、後述する運動支援プログラムがディスクROM59に記憶されて提供されるが、フラッシュROMなど、その他の記憶媒体に記憶されて提供されてもよい。あるいは、図示しないネットワークインタフェイスを介して接続されるネットワーク上の他の端末から、ダウンロードにより、提供されてもよい。また、HDD7には、配信サーバ2から、図示しないデータベースに蓄積された、BPM(Beats Per Minute)情報、繰返し情報、楽曲情報なども配信され、蓄積される。詳細についての説明は省略するが、これらの情報は、モーション情報に応じたモーションデータに基づく運動動作をフィギュアAが行う場合の動作速度、同一動作の繰返し回数、スピーカ64から出力されるBGMなど、各種要素として用いられる。   A program read from the disk ROM 59 is installed in the HDD 7 serving as a storage device. Further, motion data distributed from the distribution server 2 via the network 10 is stored in association with the exercise information and the motion information. In the present embodiment, an exercise support program, which will be described later, is provided by being stored in the disk ROM 59, but may be provided by being stored in another storage medium such as a flash ROM. Alternatively, it may be provided by downloading from another terminal on the network connected via a network interface (not shown). The HDD 7 also distributes and stores BPM (Beats Per Minute) information, repetition information, music information, and the like stored in a database (not shown) from the distribution server 2. Although detailed explanation is omitted, these pieces of information include the operation speed when the figure A performs an exercise operation based on the motion data according to the motion information, the number of repetitions of the same operation, the BGM output from the speaker 64, and the like. Used as various elements.

表示制御部56は、後述する運動支援プログラムの実行に従い生成される、フィギュアAを映し出した映像を、モニタ57の表示部67に表示するための描画処理を行う。キーボード61、マウス62、リモコン66は、操作者42(例えばインストラクターであり、図1に示す。)が、例えば、後述する運動情報やモーション情報の選択や視点の変更など、出力端末5の操作を行う際に用いられる。信号受信部65は、電波や光など周知の手段を用いてリモコン66から出力される信号を受信する。音声出力部63は、オブジェクトAを映し出した映像に合わせて再生されるBGMや効果音等をスピーカ64から出力する制御を行う。   The display control unit 56 performs a drawing process for displaying on the display unit 67 of the monitor 57 a video image of the figure A that is generated in accordance with the execution of an exercise support program to be described later. A keyboard 61, a mouse 62, and a remote controller 66 are used by an operator 42 (for example, an instructor, shown in FIG. 1) to operate the output terminal 5 such as selecting exercise information and motion information, which will be described later, and changing a viewpoint. Used when doing. The signal receiving unit 65 receives a signal output from the remote controller 66 using a known means such as radio waves or light. The audio output unit 63 performs control to output BGM, sound effects, and the like that are reproduced in accordance with the video image of the object A from the speaker 64.

次に、図3を参照し、三次元仮想空間80について説明する。三次元仮想空間80は、運動支援プログラムの実行に伴いCPU51がRAM53に確保する所定の記憶エリアに記憶される座標データ等によって構成されるものである。本実施の形態では、理解を容易にするため、座標データ等に基づき定義される仮想的な空間を、三次元仮想空間80として、例えば図3に示すように、模式的に図に表して説明する。この三次元仮想空間80内のあらゆるオブジェクトは、XYZ座標軸に基づく座標データとして定義される。なお、オブジェクトは、本実施の形態においてはフィギュアAを指すが、他にも、図示しない、バーベルやフロアマット、縄跳び用の縄などの道具類や、フィギュアAとは異なる人の形をしたフィギュアなども含まれる。   Next, the three-dimensional virtual space 80 will be described with reference to FIG. The three-dimensional virtual space 80 is configured by coordinate data stored in a predetermined storage area that the CPU 51 secures in the RAM 53 as the exercise support program is executed. In the present embodiment, in order to facilitate understanding, a virtual space defined based on coordinate data or the like is schematically illustrated as a three-dimensional virtual space 80, for example, as shown in FIG. To do. Every object in the three-dimensional virtual space 80 is defined as coordinate data based on XYZ coordinate axes. Note that the object refers to the figure A in the present embodiment, but there are other tools such as a barbell, a floor mat, and a rope for jumping rope that are not shown in the figure, and a figure that is different from the figure A. Etc. are also included.

三次元仮想空間80内において、所定の座標に、オブジェクトとしてのフィギュアAが配置される。さらに、フィギュアAの配置位置(座標)を取り巻く24カ所の定位置に、視点(図中黒角点で示す。)が設けられるものとする。説明を容易にするため、各視点には、それぞれ、仮想カメラ81(図3ではそのうちの2つを示す。)が配置されたものとする。また、各仮想カメラ81は、それぞれ、あらかじめ撮影方向82(視線方向)、画角(垂直画角θ1、水平画角θ2(図4参照)(0°<θ1<180°、0°<θ2<180°))、および後述する仮想スクリーン88(図4参照)の設置位置が設定されているものとする。なお、撮影方向82は、フィギュアAの初期の配置位置(後述)に向けられる。そして、仮想カメラ81で三次元仮想空間80内を撮影した映像が、後述する、オブジェクトを映し出した画像として用いられることとする。なお、三次元仮想空間80内に配置されるオブジェクトの数や種類、視点の数は一例であり、任意に増減可能である。また、オブジェクトと視点の配置位置の関係についても任意に設定可能である。   In the three-dimensional virtual space 80, a figure A as an object is arranged at predetermined coordinates. Further, it is assumed that viewpoints (indicated by black corner points in the figure) are provided at 24 fixed positions surrounding the arrangement position (coordinates) of the figure A. For ease of explanation, it is assumed that virtual cameras 81 (two of them are shown in FIG. 3) are arranged at each viewpoint. Each virtual camera 81 has a shooting direction 82 (line-of-sight direction), field angle (vertical field angle θ1, horizontal field angle θ2 (see FIG. 4) (0 ° <θ1 <180 °, 0 ° <θ2 <), respectively. 180 °)), and an installation position of a virtual screen 88 (see FIG. 4) to be described later is set. Note that the shooting direction 82 is directed to the initial arrangement position (described later) of the figure A. Then, the video imaged in the three-dimensional virtual space 80 by the virtual camera 81 is used as an image on which an object is projected, which will be described later. Note that the number and types of objects arranged in the three-dimensional virtual space 80 and the number of viewpoints are examples, and can be arbitrarily increased or decreased. Further, the relationship between the arrangement position of the object and the viewpoint can be arbitrarily set.

ここで、仮想カメラ81で三次元仮想空間80内が撮影され、オブジェクトを映し出した映像が生成される過程について、簡単に説明する。オブジェクトを映し出した映像とは、三次元仮想空間80内に配置されたオブジェクトが所定の時間ごとに撮影されて二次元の画像に変換され、その画像が、時系列に沿って連続的に表示されたものである。   Here, a process in which the inside of the three-dimensional virtual space 80 is photographed by the virtual camera 81 and an image showing the object is generated will be briefly described. An image showing an object is that an object placed in the three-dimensional virtual space 80 is photographed every predetermined time and converted into a two-dimensional image, and the image is continuously displayed in time series. It is a thing.

本実施の形態において、三次元仮想空間80内に配置されたオブジェクトを二次元の画像に変換する処理は、アフィン変換に基づく一連の座標変換処理によって行われる。アフィン変換とは、二次元の座標変換に使用され、拡大、縮小、反転などの線形変換と平行移動が結合された変換方法である。アフィン変換を用いることで、三次元仮想空間80内に配置した個々のオブジェクトごとに設定された座標(ローカル座標)を、ワールド座標、ビュー座標、スクリーン座標、デバイス座標に順に変換して二次元の座標とすることができる。これにより、視点からオブジェクトを見た画像が生成され、その画像が連続表示されることで、オブジェクトを映し出した映像として生成される。このアフィン変換による座標変換の具体的な処理については公知である。ゆえに、以下では、三次元仮想空間80内に配置したオブジェクトの一例としてのフィギュアAのローカル座標がデバイス座標に変換されるまでの一連の過程の概要を説明する。   In the present embodiment, processing for converting an object arranged in the three-dimensional virtual space 80 into a two-dimensional image is performed by a series of coordinate conversion processing based on affine transformation. Affine transformation is a transformation method that is used for two-dimensional coordinate transformation and combines linear transformation such as enlargement, reduction, inversion, and parallel movement. By using affine transformation, the coordinates (local coordinates) set for each object arranged in the three-dimensional virtual space 80 are sequentially transformed into world coordinates, view coordinates, screen coordinates, and device coordinates to obtain a two-dimensional It can be a coordinate. Thereby, an image in which the object is viewed from the viewpoint is generated, and the image is continuously displayed to generate a video showing the object. Specific processing of coordinate transformation by this affine transformation is known. Therefore, an outline of a series of processes until local coordinates of the figure A as an example of the object arranged in the three-dimensional virtual space 80 is converted into device coordinates will be described below.

図4に示すように、フィギュアAは、頭、胸、手、足など、要所となる身体部位(図中黒丸点で示す。)が、それぞれ、XYZ座標軸に基づく座標データとして定義されている。これらの各身体部位の座標は、オブジェクトの基準とする座標(例えば頭の座標)を原点とする位置座標(ローカル座標系84の座標)で、それぞれ定義されている。なお、身体の細部については、さらにこれらの各身体部位を基準にした座標データで定義され、公知のテクスチャマッピング等によって表現されるが、ここでは簡略化のため、細部についての説明は省略する。   As shown in FIG. 4, in the figure A, important body parts (indicated by black dots in the figure) such as the head, chest, hands, and feet are defined as coordinate data based on XYZ coordinate axes. . The coordinates of each of these body parts are respectively defined by position coordinates (coordinates of the local coordinate system 84) whose origin is the coordinates (for example, the coordinates of the head) used as the reference of the object. The details of the body are further defined by coordinate data based on each of these body parts and expressed by known texture mapping or the like. However, for the sake of simplification, description of the details is omitted here.

フィギュアAの各身体部位のローカル座標系84の座標が、三次元仮想空間80に設定された基準の位置を原点に、三次元仮想空間80の全体をXYZ座標軸に基づく座標データで定義されたワールド座標系85の座標に変換される。また、三次元仮想空間80内に、フィギュアAを見る視点(仮想カメラ81)が設置され、視点の位置がワールド座標系85の座標で定義される。   A world in which the coordinates of the local coordinate system 84 of each body part of the figure A are defined by coordinate data based on the XYZ coordinate axes with the reference position set in the three-dimensional virtual space 80 as the origin and the entire three-dimensional virtual space 80 It is converted into the coordinates of the coordinate system 85. In addition, a viewpoint (virtual camera 81) for viewing the figure A is installed in the three-dimensional virtual space 80, and the position of the viewpoint is defined by the coordinates of the world coordinate system 85.

三次元仮想空間80を定義したワールド座標系85の座標が、視点の位置座標を原点とするビュー座標系86の座標に変換される。そして、ビュー座標系86の座標として定義された三次元仮想空間80内に、平面状の仮想スクリーン88が定義され、仮想カメラ81から仮想スクリーン88を透過させてフィギュアAを見た画像が、仮想スクリーン88上に形成される。具体的に、ビュー座標系86において、フィギュアAの各身体部位の座標が、仮想カメラ81(視点)とフィギュアAの各身体部位とを結ぶ仮想線(図中一点鎖線で示す。)が仮想スクリーン88と交わる点の座標(スクリーン座標)に変換される。   The coordinates of the world coordinate system 85 defining the three-dimensional virtual space 80 are converted into the coordinates of the view coordinate system 86 with the position coordinates of the viewpoint as the origin. Then, a planar virtual screen 88 is defined in the three-dimensional virtual space 80 defined as the coordinates of the view coordinate system 86, and an image obtained by seeing the figure A through the virtual screen 88 from the virtual camera 81 is virtual. It is formed on the screen 88. Specifically, in the view coordinate system 86, a virtual line (indicated by a one-dot chain line in the figure) in which the coordinates of each body part of the figure A connect the virtual camera 81 (viewpoint) and each body part of the figure A is a virtual screen. The coordinates of the point that intersects with 88 (screen coordinates) are converted.

こうして仮想スクリーン88上の座標に変換されたフィギュアAの各身体部位の座標は、この時点ではまだビュー座標系86において三次元の座標として定義されているので、次に二次元平面の座標に変換される。すなわち、ビュー座標系86で示される仮想スクリーン88上の座標(スクリーン座標)が、表示部67(図1参照)に表示する大きさの、デバイス座標系87で示される二次元の仮想画面89上の座標(デバイス座標)に変換される。   The coordinates of each body part of the figure A thus converted to the coordinates on the virtual screen 88 are still defined as three-dimensional coordinates in the view coordinate system 86 at this point, and then converted to coordinates on a two-dimensional plane. Is done. That is, the coordinates (screen coordinates) on the virtual screen 88 indicated by the view coordinate system 86 are on the two-dimensional virtual screen 89 indicated by the device coordinate system 87 having a size displayed on the display unit 67 (see FIG. 1). Is converted to the coordinates (device coordinates).

以上のアフィン変換によるローカル座標からデバイス座標に変換する一連の座標変換によって、三次元仮想空間80内に配置された視点から見た、仮想スクリーン88上にフィギュアAが映しだされた画像を、仮想画面89として得ることができる。アフィン変換による座標変換処理は、後述の運動支援プログラムの実行に伴うCPU51による行列演算によって行われる。仮想画面89は、所定の時間ごと(例えば1/30秒ごと)に生成され、順に表示部67に表示されることで、オブジェクトを映し出した映像が提供される。   An image in which the figure A is projected on the virtual screen 88 viewed from the viewpoint arranged in the three-dimensional virtual space 80 by a series of coordinate transformations from local coordinates to device coordinates by the above affine transformation, It can be obtained as a screen 89. Coordinate transformation processing by affine transformation is performed by matrix calculation by the CPU 51 accompanying execution of an exercise support program described later. The virtual screen 89 is generated every predetermined time (for example, every 1/30 seconds) and is displayed on the display unit 67 in order, thereby providing a video showing the object.

なお、仮想スクリーン88の大きさを、表示部67に表示する大きさ(すなわち仮想画面89の大きさ)に変換する際に、拡大または縮小する倍率が、本発明における「表示倍率」に相当する。また、前述したように、三次元仮想空間80内に配置された各視点(仮想カメラ81)には、あらかじめ撮影方向82(視線方向)、画角(垂直画角θ1、水平画角θ2)、および仮想スクリーン88の設置位置が設定されている。このデフォルトの状態において、仮想スクリーン88の大きさを表示部67に表示する大きさ(仮想画面89の大きさ)に変換するときの倍率が、本発明における「基準表示倍率」に相当する。上記の表示倍率の変更は、撮影方向82に沿って仮想カメラ81を移動させること、あるいは仮想カメラ81の画角を変更することによってなされる。本実施の形態では、仮想カメラ81の画角を変更することによって、表示倍率の変更が行われるものとする。また、仮想スクリーン88の設置位置については変更がないものとし、よって、設置位置の違いによる表示倍率への影響はない。   Note that, when the size of the virtual screen 88 is converted to the size displayed on the display unit 67 (that is, the size of the virtual screen 89), the magnification that is enlarged or reduced corresponds to the “display magnification” in the present invention. . In addition, as described above, each viewpoint (virtual camera 81) arranged in the three-dimensional virtual space 80 has a shooting direction 82 (line-of-sight direction), an angle of view (vertical angle of view θ1, horizontal angle of view θ2), The installation position of the virtual screen 88 is set. In this default state, the magnification when converting the size of the virtual screen 88 to the size displayed on the display unit 67 (the size of the virtual screen 89) corresponds to the “reference display magnification” in the present invention. The display magnification is changed by moving the virtual camera 81 along the shooting direction 82 or changing the angle of view of the virtual camera 81. In the present embodiment, the display magnification is changed by changing the angle of view of the virtual camera 81. Further, it is assumed that the installation position of the virtual screen 88 is not changed, and therefore, the display magnification is not affected by the difference in the installation position.

次に、モーションデータに基づきフィギュアAが運動動作を行う過程について、簡単に説明する。モーションデータは、対応するモーション情報に応じた動作をフィギュアAに再現させるためのデータである。モーションデータは、ローカル座標系84におけるフィギュアAの各身体部位の位置座標が、時間軸に沿って位置決めされるように、公知の規則に従い表されたデータからなる。詳細については説明を省略するが、モーションデータによれば、例えば、運動動作の開始時のフィギュアAの頭の位置を基準とした場合において、任意の時間後におけるフィギュアAの頭の位置の相対的な座標が特定可能となっている。また、フィギュアAの各身体部位の座標は、上記したように、ローカル座標系84において、頭の位置を原点にした座標で示されるので、フィギュアAの頭の位置の座標が決まれば、各身体部位の座標も決まる。   Next, a process in which the figure A performs an exercise operation based on the motion data will be briefly described. The motion data is data for causing the figure A to reproduce the operation corresponding to the corresponding motion information. The motion data consists of data represented according to a known rule so that the position coordinates of each body part of the figure A in the local coordinate system 84 are positioned along the time axis. Although detailed description is omitted, according to the motion data, for example, when the position of the head of the figure A at the start of the movement operation is used as a reference, the relative position of the head of the figure A after an arbitrary time Coordinates can be specified. Further, as described above, the coordinates of each body part of the figure A are indicated by coordinates with the head position as the origin in the local coordinate system 84. Therefore, if the coordinates of the head position of the figure A are determined, The coordinates of the part are also determined.

例えば、モーション情報「マーチ」に対応するモーションデータに基づけば、フィギュアAが三次元仮想空間80内でその場で足踏み動作を行うように、時間軸に沿って頭の座標が決定され、それに応じて各身体部位の座標が決定される。「マーチ」においては、フィギュアAの各身体部位の位置の基準となる頭の位置は、三次元仮想空間80内における位置移動が比較的小さい。一方、例えば、モーション情報「サイドステップ」に対応するモーションデータに基づけば、フィギュアAが三次元仮想空間80内で(フィギュアAを基準に)左右に振幅移動する動作を行うように、上記同様、各身体部位の座標が時間軸に沿って決定される。「サイドステップ」においては、フィギュアAの各身体部位の位置の基準となる頭の位置は、三次元仮想空間80内における位置移動が比較的大きい。   For example, based on the motion data corresponding to the motion information “March”, the coordinates of the head are determined along the time axis so that the figure A performs a stepping motion on the spot in the three-dimensional virtual space 80, and accordingly, The coordinates of each body part are determined. In the “march”, the position of the head, which is the reference for the position of each body part of the figure A, moves relatively little in the three-dimensional virtual space 80. On the other hand, for example, based on the motion data corresponding to the motion information “side step”, the figure A performs an operation of moving the amplitude to the left and right (based on the figure A) in the three-dimensional virtual space 80, as described above. The coordinates of each body part are determined along the time axis. In the “side step”, the position of the head serving as a reference for the position of each body part of the figure A has a relatively large position movement in the three-dimensional virtual space 80.

このように、三次元仮想空間80内で、フィギュアAの頭の位置が移動する範囲は、個々のモーション情報ごとに異なる。また、各身体部位についても、運動動作の内容に応じて、頭の位置に対する相対位置が、大きく移動するものや、あまり移動しないものがある。よって、一つのモーション情報によって表される運動動作が開始されてから終了するまでの間に、フィギュアAの各身体部位が、三次元仮想空間80内において存在しうる位置は、モーション情報ごとに異なる。   Thus, the range in which the position of the head of the figure A moves in the three-dimensional virtual space 80 differs for each piece of motion information. Also, for each body part, the relative position with respect to the position of the head moves greatly or does not move so much depending on the content of the exercise operation. Therefore, the position where each body part of the figure A can exist in the three-dimensional virtual space 80 from the start to the end of the motion represented by one motion information differs for each motion information. .

本実施の形態では、運動支援プログラムに従い、映像の表示倍率が、三次元仮想空間80内におけるフィギュアAの各身体部位が存在しうる範囲、すなわち可動範囲に応じて決定される。以下、図1〜図4を適宜参照しながら、図5を参照し、出力端末5にインストールされた運動支援プログラムの動作について説明する。以下、フローチャートの各ステップを「S」と略記する。   In the present embodiment, according to the exercise support program, the display magnification of the video is determined according to the range in which each body part of the figure A can exist in the three-dimensional virtual space 80, that is, the movable range. Hereinafter, the operation of the exercise support program installed in the output terminal 5 will be described with reference to FIG. 5 with reference to FIGS. Hereinafter, each step of the flowchart is abbreviated as “S”.

本実施の形態の出力端末5は、運動支援プログラムが実行されることにより、運動支援装置として機能するものである。運動支援装置は、三次元仮想空間80内にて運動動作を行うオブジェクト(フィギュアA)を映し出した映像を、表示部67に表示することにより、利用者41が自らの身体部位を動作させる運動を支援する装置である。前述したように、配信サーバ2から定期的あるいは要求に応じて配信されるモーションデータは、出力端末5で実行される、図示しない、受信プログラムによって受信され、HDD7に記憶される。運動支援プログラムでは、操作者42によって選択される運動情報に分類されるモーション情報に対応したモーションデータがHDD7から読み出され、映像の生成に使用される。   The output terminal 5 of the present embodiment functions as an exercise support device by executing an exercise support program. The exercise support device displays an image showing an object (figure A) that performs an exercise operation in the three-dimensional virtual space 80 on the display unit 67, thereby allowing the user 41 to perform an exercise that moves his / her body part. It is a device to support. As described above, the motion data distributed periodically or upon request from the distribution server 2 is received by a reception program (not shown) executed by the output terminal 5 and stored in the HDD 7. In the exercise support program, motion data corresponding to the motion information classified as exercise information selected by the operator 42 is read from the HDD 7 and used to generate a video.

運動支援プログラムが実行されると、初期設定において、RAM53やHDD7に、運動支援プログラムの各処理に応じた記憶エリアが確保される。また、プログラム内で使用される変数やフラグ、カウンタ等の初期化が行われる。なお、以下の処理はCPU51により実行される。   When the exercise support program is executed, a storage area corresponding to each process of the exercise support program is secured in the RAM 53 and the HDD 7 in the initial setting. Also, variables, flags, counters, etc. used in the program are initialized. The following processing is executed by the CPU 51.

まず、表示部67に、レッスンの選択を行うための、図示しない選択画面が表示される。レッスンとは、所定の運動目的を達成するため、効果的な複数の運動情報やモーション情報を組み合わせてリスト化し、一連の運動動作が行われるようにしたものである。より具体的に、レッスンは、モーション情報を、図示しない、BPM情報、繰返し情報、楽曲情報などと対応付けて、を実行順に並べたリストからなる。   First, a selection screen (not shown) for selecting a lesson is displayed on the display unit 67. A lesson is a list in which a plurality of effective exercise information and motion information are combined to achieve a predetermined exercise purpose, and a series of exercise operations are performed. More specifically, the lesson includes a list in which motion information is associated with BPM information, repetition information, music information, and the like (not shown) and arranged in order of execution.

図示しないが、例えば、あるレッスン(例えば第1のレッスン)においては、ウォーミングアップに相当する運動として「無酸素運動」が設定され、メイン運動に相当する運動として「有酸素運動」が設定され、クールダウンに相当する運動として「ストレッチ」が設定されている。さらに、ウォーミングアップの「無酸素運動」では、モーション情報として「ハーフスクワット」と「クォータースクワット」とが順に設定されており、それぞれにBPM情報、繰返し情報、楽曲情報が対応付けられている。同様に、メイン運動の「有酸素運動」にも、「マーチ」と「フロントランジ」と「バックランジ」とが順に設定されている。そしてクールダウンの「ストレッチ」には、「大腿ストレッチ」と「ふくらはぎストレッチ」とが、同様に、順に設定されている。このような一連のモーション情報をリスト化した第1のレッスンはあらかじめ作成され、他にも、複数種類の様々なレッスンが同様にあらかじめ作成されて、配信サーバ2から配信される。出力端末5のHDD7には、配信されたレッスン(レッスンの名称とそのリスト)が記憶される。S11では、図示しない選択画面において、所望するレッスンの名称が操作者42によって選択される(S11)。なお、レッスンは、操作者42が、任意の運動情報やモーション情報を組み合わせて作成してもよい。   Although not shown, for example, in a certain lesson (for example, the first lesson), “anaerobic exercise” is set as an exercise equivalent to warm-up, “aerobic exercise” is set as an exercise equivalent to the main exercise, “Stretch” is set as an exercise equivalent to down. Furthermore, in the “anoxic exercise” for warming up, “half squat” and “quarter squat” are set in order as motion information, and BPM information, repetition information, and music information are associated with each other. Similarly, in the “aerobic exercise” of the main exercise, “march”, “front lunge”, and “back lunge” are set in order. Similarly, “thigh stretch” and “calf stretch” are set in order in the “stretch” of the cool-down. A first lesson that lists such a series of motion information is created in advance, and other various lessons are similarly created in advance and distributed from the distribution server 2. The HDD 7 of the output terminal 5 stores the delivered lessons (lesson names and their lists). In S11, the name of a desired lesson is selected by the operator 42 on a selection screen (not shown) (S11). The lesson may be created by the operator 42 by combining arbitrary exercise information and motion information.

レッスンが選択されたら、選択されたレッスンのリストに基づき、個々のモーション情報とその実行順がHDD7から読み出される。さらに、それぞれのモーション情報に対応するBPM情報、繰返し情報、楽曲情報がHDD7から読み出される。これらの情報は、RAM53の所定の記憶エリアに記憶される(S12)。   When a lesson is selected, individual motion information and its execution order are read from the HDD 7 based on the selected lesson list. Further, BPM information, repetition information, and music information corresponding to each motion information are read from the HDD 7. These pieces of information are stored in a predetermined storage area of the RAM 53 (S12).

次に、配置設定処理が行われる(S13)。配置設定処理では、ワールド座標系85において、オブジェクト(ここではフィギュアA)のローカル座標系84における基準(原点)を三次元仮想空間80内で配置する位置が設定される。オブジェクトは、モーション情報に対応する運動動作に応じて三次元仮想空間80内で位置移動を行うため、ここでは、オブジェクトの初期の配置位置が設定される。また、視点、光源(図示外)等の配置位置の座標(ワールド座標データ)も設定される。各視点には、それぞれ仮想カメラ81(図3参照)が配置され、仮想カメラ81ごとに、撮影方向82、画角(垂直画角θ1、水平画角θ2(図4参照))、および仮想スクリーン88の設置位置が設定される。さらに、複数の視点のうち、映像の生成に使用される1つの視点が、デフォルトとしてあらかじめ設定されているものに決定される。なお、各視点の位置や各仮想カメラ81の視線方向、画角、仮想スクリーン88の設置位置について、操作者42が任意に設定できるようにしてもよい。   Next, an arrangement setting process is performed (S13). In the placement setting process, in the world coordinate system 85, a position where the reference (origin) in the local coordinate system 84 of the object (here, figure A) is placed in the three-dimensional virtual space 80 is set. Since the object moves its position in the three-dimensional virtual space 80 in accordance with the motion corresponding to the motion information, the initial arrangement position of the object is set here. Also, coordinates (world coordinate data) of arrangement positions such as a viewpoint and a light source (not shown) are set. A virtual camera 81 (see FIG. 3) is arranged at each viewpoint, and for each virtual camera 81, a shooting direction 82, a field angle (vertical field angle θ1, a horizontal field angle θ2 (see FIG. 4)), and a virtual screen. 88 installation positions are set. Further, one viewpoint used for generating a video among a plurality of viewpoints is determined to be preset as a default. The operator 42 may arbitrarily set the position of each viewpoint, the viewing direction of each virtual camera 81, the angle of view, and the installation position of the virtual screen 88.

配置設定処理がなされたら、上記選択されたレッスンが開始される(S14)。RAM53に読み込まれたレッスンのリストに従い、HDD7からモーションデータが読み込まれる。オブジェクト(フィギュアA)の各身体部位の座標データやテクスチャデータなども読み込まれ、配置設定処理で決定された三次元仮想空間80内の配置位置にオブジェクト(フィギュアA)が配置される。上記したアフィン変換に基づき、オブジェクトの基準の座標(ここでは頭の座標)がローカル座標系84の座標からワールド座標系85の座標に変換される。さらに、各身体部位に応じた細部の座標がローカル座標系84からワールド座標系85の座標に変換される。また、テクスチャデータの大きさや貼り付ける座標がワールド座標系85で設定される。これにより、図3に示すように、三次元仮想空間80内にオブジェクト(フィギュアA)が仮想的に配置された状態となる。以後、三次元仮想空間80内で、フィギュアAはモーションデータに従い動作される。   When the arrangement setting process is performed, the selected lesson is started (S14). Motion data is read from the HDD 7 in accordance with the list of lessons read into the RAM 53. The coordinate data and texture data of each body part of the object (figure A) are also read, and the object (figure A) is arranged at the arrangement position in the three-dimensional virtual space 80 determined by the arrangement setting process. Based on the affine transformation described above, the reference coordinates (here, the head coordinates) of the object are converted from the coordinates in the local coordinate system 84 to the coordinates in the world coordinate system 85. Further, detailed coordinates corresponding to each body part are converted from the local coordinate system 84 to the coordinates of the world coordinate system 85. Also, the size of the texture data and the coordinates to be pasted are set in the world coordinate system 85. As a result, the object (figure A) is virtually arranged in the three-dimensional virtual space 80 as shown in FIG. Thereafter, the figure A is operated in accordance with the motion data in the three-dimensional virtual space 80.

次に、基準表示倍率が求められる(S16)。配置設定処理で決定された視点の撮影方向82、画角(垂直画角θ1、水平画角θ2)、および仮想スクリーン88の設置位置がRAM53から読み込まれる。そして、仮想スクリーン88の大きさが算出される。この仮想スクリーン88の大きさを、表示部67に表示される仮想画面89の大きさと一致させるための拡大または縮小倍率が算出される。求められた倍率が、基準表示倍率としてRAM53に記憶される。   Next, a reference display magnification is obtained (S16). The viewpoint photographing direction 82, the field angle (vertical field angle θ 1, horizontal field angle θ 2), and the installation position of the virtual screen 88 determined by the layout setting process are read from the RAM 53. Then, the size of the virtual screen 88 is calculated. An enlargement or reduction ratio for making the size of the virtual screen 88 coincide with the size of the virtual screen 89 displayed on the display unit 67 is calculated. The obtained magnification is stored in the RAM 53 as a reference display magnification.

次に、運動動作の位置情報が求められる(S17)。現在行われているモーション情報のモーションデータがHDD7から再度読み出され、RAM53の作業用の記憶エリアに記憶される。そして、作業用の記憶エリアに記憶されたモーションデータから、現在までに終了した分のモーションデータが削除される(S18)。   Next, position information of the movement is obtained (S17). The motion data of the currently performed motion information is read again from the HDD 7 and stored in the work storage area of the RAM 53. Then, from the motion data stored in the work storage area, the motion data that has been completed so far is deleted (S18).

次に、位置情報の3Dマップ化が行われる(S19)。図6に示すように、第2の三次元仮想空間79がRAM53に別途確保され、上記の配置設定処理において決定された視点(仮想カメラ81)とフィギュアAとが配置される。そして、S18で削除された残りのモーションデータに基づき、第2の三次元仮想空間79内で、フィギュアAの運動動作が、そのモーションデータの終了まで行われる。このとき、動作の実行速度や動作間の待ち時間の情報が無視された状態で、モーションデータに基づくフィギュアAの動作が行われる。換言すると、運動動作の1単位の動作に基づくデータ処理が行われたら、次の動作までのタイミングあわせのための待ち時間(ウエイト)が0の状態で、次の1単位の運動動作に応じたデータ処理が行われる。さらに、フィギュアAの運動動作の1単位の動作に基づくデータ処理が行われた後、次の1単位の運動動作に基づくデータ処理が行われる際に、前の運動動作の際のデータが削除されない。よって、第2の三次元仮想空間79内では、現在のモーション情報の終了まで、モーションデータに基づくフィギュアAの運動動作に基づくデータ処理が、高速(ウエイト0)で行われ、さらに過去のデータが削除されずに、重ねられていく。これにより、現在のモーション情報が終了した時点で、第2の三次元仮想空間79内には、フィギュアAが動く範囲を示す、フィギュアAの残像体93が形成される(図6参照)。残像体93は、モーション情報の開始から終了までの間のフィギュアAの輪郭線を重ねた外観(実際には描画処理は行われず、RAM53上でのデータ処理が行われるだけであり、図6は視覚的なイメージを表したものである。)をなす。この残像体93は、より詳細には、仮想カメラ81を原点とするビュー座標系86の座標データとして求められる。もっとも、簡略化のためには、フィギュアAの輪郭線ではなく、各身体部位の位置(座標)を、一つのモーション情報の開始から終了まで重ねて示したものを、残像体93としてもよい。   Next, the 3D map of the position information is performed (S19). As shown in FIG. 6, the second three-dimensional virtual space 79 is separately secured in the RAM 53, and the viewpoint (virtual camera 81) and the figure A determined in the arrangement setting process are arranged. Then, based on the remaining motion data deleted in S18, the motion movement of the figure A is performed in the second three-dimensional virtual space 79 until the end of the motion data. At this time, the operation of the figure A based on the motion data is performed in a state where information on the execution speed of the operation and the waiting time between the operations is ignored. In other words, when data processing based on one unit of motion is performed, the waiting time (weight) for timing adjustment to the next motion is 0, and the next one unit of motion is performed. Data processing is performed. Further, after data processing based on one unit of motion motion of Figure A is performed, data in the previous motion motion is not deleted when data processing based on the next one unit motion motion is performed. . Therefore, in the second three-dimensional virtual space 79, data processing based on the motion movement of the figure A based on the motion data is performed at high speed (weight 0) until the end of the current motion information, and further past data is stored. Instead of being deleted, they are stacked. As a result, after the current motion information is completed, an afterimage 93 of the figure A indicating the range in which the figure A moves is formed in the second three-dimensional virtual space 79 (see FIG. 6). The afterimage 93 has an appearance in which the contour lines of the figure A are overlapped from the start to the end of the motion information (actually, drawing processing is not performed, only data processing on the RAM 53 is performed, FIG. It represents a visual image.) More specifically, the afterimage 93 is obtained as coordinate data of the view coordinate system 86 with the virtual camera 81 as the origin. However, for the sake of simplification, the afterimage 93 may be obtained by overlapping the positions (coordinates) of each body part from the start to the end of one piece of motion information instead of the contour line of the figure A.

次に、可動範囲(撮影枠)が求められる(S21)。ビュー座標系86において、視点(仮想カメラ81)の撮影方向82に直交する面95を側面の一つとし、残像体93が内接する立方体が、撮影枠94として、三次元仮想空間79内で形成される。面95は撮影方向82に直交する面であり、撮影枠94の座標から得られる面95の4つの角部96の座標をもとに、視点から面95を見た場合の垂直画角θ3と水平画角θ4とが求められる。   Next, a movable range (shooting frame) is obtained (S21). In the view coordinate system 86, a cube 95 in which a plane 95 perpendicular to the shooting direction 82 of the viewpoint (virtual camera 81) is one of the side faces and the afterimage 93 is inscribed is formed as a shooting frame 94 in the three-dimensional virtual space 79. Is done. The plane 95 is a plane orthogonal to the shooting direction 82, and based on the coordinates of the four corners 96 of the plane 95 obtained from the coordinates of the shooting frame 94, the vertical field angle θ3 when the plane 95 is viewed from the viewpoint. A horizontal angle of view θ4 is obtained.

ここで、図7を参照し、視点から面95を見た場合の画角(垂直画角θ3、水平画角θ4)の求め方について、簡単に説明する。図7は、仮想カメラ81の設置位置、すなわち視点をP1とし、P1の座標を原点(x,y,z)=(0,0,0)とするビュー座標系86において、Z軸方向の座標を0としたものである。また、仮想カメラ81の撮影方向82をX軸方向とし、撮影方向82と直交する撮影枠94の面95は、撮影枠94の座標をもとに、視点(P1)からの距離が、aの位置に配置されているものとする。ビュー座標系86において、S21で求められた面95の角部96(図6参照)の座標から、面95のY軸方向(垂直方向)における両端P3、P4の座標を、それぞれ、P3(a,b,0)、P4(a,−b,0)とする。すると、tan(θ3/2)=b/aであるので、θ3=2・arctan(b/a)として導くことができる。水平画角θ4についても同様にして、面95の角部96の座標をもとに、求めることができる。   Here, with reference to FIG. 7, a method of obtaining the field angles (vertical field angle θ3, horizontal field angle θ4) when the surface 95 is viewed from the viewpoint will be briefly described. FIG. 7 shows the coordinates of the virtual camera 81 in the Z axis direction in the view coordinate system 86 in which the installation position, that is, the viewpoint is P1, and the coordinates of P1 are the origin (x, y, z) = (0, 0, 0). Is 0. Further, the surface 95 of the imaging frame 94 orthogonal to the imaging direction 82 with the imaging direction 82 of the virtual camera 81 as the X-axis direction has a distance of a from the viewpoint (P1) based on the coordinates of the imaging frame 94. It is assumed that it is arranged at a position. In the view coordinate system 86, the coordinates of both ends P3 and P4 in the Y-axis direction (vertical direction) of the surface 95 from the coordinates of the corner portion 96 (see FIG. 6) of the surface 95 obtained in S21 are respectively P3 (a , B, 0) and P4 (a, -b, 0). Then, since tan (θ3 / 2) = b / a, it can be derived as θ3 = 2 · arctan (b / a). Similarly, the horizontal angle of view θ4 can be obtained based on the coordinates of the corner portion 96 of the surface 95.

次いで、図6に示すように、面95が仮想スクリーン88の位置に投影された、投影面91(点線)が形成される。投影面91の画角は、垂直画角θ3、水平画角θ4ともに面95と同一である。よって、図7に示すように、仮想カメラ81から仮想スクリーン88(図6参照)までの距離をcとする。投影面91の垂直方向における両端P5、P6の座標は、それぞれ、P5(c,c・tan(θ3/2),0)、P6(c,−c・tan(θ3/2),0)として求めることができる。また、投影面91の水平方向における両端の座標も、同様にして求めることができる。このようにして得られる座標をもとに、投影面91の四隅の座標が決まる。三次元仮想空間79内にて形成される投影面91を視点から見た場合、残像体93は投影面91内に収まる。   Next, as shown in FIG. 6, a projection surface 91 (dotted line) in which the surface 95 is projected onto the position of the virtual screen 88 is formed. The angle of view of the projection surface 91 is the same as that of the surface 95 in both the vertical field angle θ3 and the horizontal field angle θ4. Therefore, as shown in FIG. 7, the distance from the virtual camera 81 to the virtual screen 88 (see FIG. 6) is set to c. The coordinates of both ends P5 and P6 in the vertical direction of the projection plane 91 are P5 (c, c · tan (θ3 / 2), 0) and P6 (c, −c · tan (θ3 / 2), 0), respectively. Can be sought. Further, the coordinates of both ends of the projection surface 91 in the horizontal direction can be obtained in the same manner. Based on the coordinates thus obtained, the coordinates of the four corners of the projection surface 91 are determined. When the projection surface 91 formed in the three-dimensional virtual space 79 is viewed from the viewpoint, the afterimage 93 is within the projection surface 91.

次に、撮影範囲が求められる(S22)。ここでは、S16で算出された、仮想スクリーン88の初期の大きさが、撮影範囲として求められる。視点の撮影方向82、画角(垂直画角θ1、水平画角θ2)、および仮想スクリーン88の設置位置がRAM53から読み込まれ、ビュー座標系86において、仮想スクリーン88の四隅の座標が求められる。   Next, an imaging range is obtained (S22). Here, the initial size of the virtual screen 88 calculated in S16 is obtained as the shooting range. The photographing direction 82 of the viewpoint, the angle of view (vertical angle of view θ1, horizontal angle of view θ2), and the installation position of the virtual screen 88 are read from the RAM 53, and the coordinates of the four corners of the virtual screen 88 are obtained in the view coordinate system 86.

得られた仮想スクリーン88の四隅の座標と、投影面91の四隅の座標との比較により、フィギュアAの可動範囲(すなわち投影面91の大きさ)が、撮影範囲(すなわち初期の仮想スクリーン88の大きさであり、「基準範囲」ともいう。)よりも大きいか否か、判定される(S23)。可動範囲が撮影範囲よりも大きければ(S23:YES)、撮影範囲が拡大される(S24)。図6に示すように、拡大後の仮想スクリーン92内に投影面91が収まるように、仮想スクリーン88が拡大される。これにより、残像体93が、拡大後の仮想スクリーン92に収まる。   By comparing the coordinates of the four corners of the obtained virtual screen 88 and the coordinates of the four corners of the projection surface 91, the movable range of the figure A (that is, the size of the projection surface 91) becomes the shooting range (that is, the initial virtual screen 88 of the virtual screen 88). It is determined whether or not it is larger than the “reference range” (S23). If the movable range is larger than the shooting range (S23: YES), the shooting range is expanded (S24). As shown in FIG. 6, the virtual screen 88 is enlarged so that the projection plane 91 is within the enlarged virtual screen 92. As a result, the afterimage 93 is accommodated on the enlarged virtual screen 92.

本実施の形態では、仮想カメラ81の画角の変更によって、仮想スクリーン88の拡大または縮小が行われる。拡縮後の仮想スクリーン92の画角(垂直画角θ5、水平画角θ6)が、投影面91の画角(垂直画角θ3、水平画角θ4)以上となるように、仮想スクリーン88の拡大または縮小が行われる。例えば図9に示すように、初期の仮想スクリーン88(仮想スクリーン88a)の大きさが投影面91の大きさよりも小さければ、矢印Eで示すように、仮想スクリーン88aが拡大される。撮影枠94に内接する残像体93は、面95が仮想スクリーン88の位置に投影された投影面91にも内接することとなる。よって、拡大後の仮想スクリーン92が投影面91の大きさ以上となるように、仮想スクリーン88aが拡大される。一方、初期の仮想スクリーン88(仮想スクリーン88b)の大きさが投影面91の大きさよりも小さければ、矢印Rで示すように、仮想スクリーン88bが縮小される。縮小後の仮想スクリーン92が、上記同様、投影面91の大きさ以上となるように、仮想スクリーン88bが縮小される。   In the present embodiment, the virtual screen 88 is enlarged or reduced by changing the angle of view of the virtual camera 81. The virtual screen 88 is enlarged so that the angle of view (vertical angle of view θ5, horizontal angle of view θ6) of the virtual screen 92 after enlargement / reduction is equal to or greater than the angle of view of the projection surface 91 (vertical angle of view θ3, horizontal angle of view θ4). Or reduction is performed. For example, as shown in FIG. 9, if the size of the initial virtual screen 88 (virtual screen 88 a) is smaller than the size of the projection surface 91, the virtual screen 88 a is enlarged as indicated by an arrow E. The afterimage 93 inscribed in the imaging frame 94 is also inscribed in the projection surface 91 on which the surface 95 is projected at the position of the virtual screen 88. Therefore, the virtual screen 88a is enlarged so that the enlarged virtual screen 92 is larger than the size of the projection surface 91. On the other hand, if the size of the initial virtual screen 88 (virtual screen 88b) is smaller than the size of the projection surface 91, the virtual screen 88b is reduced as indicated by an arrow R. As described above, the virtual screen 88b is reduced so that the reduced virtual screen 92 is equal to or larger than the size of the projection surface 91.

なお、画角の変更は、垂直画角および水平画角の大きさが、同一の比率で、拡大または縮小されて行われる。よって、画角の変更は、θ1:θ2=θ5:θ6が満たされ、かつ、θ5≧θ3およびθ6≧θ4が満たされ、かつ、θ5=θ3またはθ6=θ4が満たされるように行われる。図9に示す、仮想スクリーン92は、仮想スクリーン88aが、画面の縦横比を一定としたまま、すなわち、θ1:θ2=θ5:θ6を満たしたまま、拡大されたものである。投影面91の縦横比(θ3:θ4)が、拡大後の仮想スクリーン92の縦横比(θ5:θ6)と異なる場合、θ5≧θ3が満たされれば、仮想スクリーン92の縦の大きさが、投影面91の縦の大きさ以上となる。さらに、θ6≧θ4が満たされることで、仮想スクリーン92の横の大きさが、投影面91の横の大きさ以上となる。その上で、θ5=θ3またはθ6=θ4が満たされることで、投影面91の縦または横のいずれか一方の大きさが、仮想スクリーン92の縦または横の大きさと一致する。よって、投影面91の大きさは、仮想スクリーン92に収まる大きさで最大の大きさとなる。図9では、投影面91の縦の大きさが仮想スクリーン92の縦の大きさよりも小さいながら、横の大きさが一致した例が示される。図5に戻り、拡縮後の仮想スクリーン92の大きさは前述したように求められ、表示部67に表示される仮想画面89の大きさと一致させるための拡大または縮小倍率が、新たな表示倍率として算出され、RAM53に記憶される。次にS41に進む。   Note that the angle of view is changed by expanding or reducing the vertical angle of view and the horizontal angle of view at the same ratio. Therefore, the angle of view is changed so that θ1: θ2 = θ5: θ6 is satisfied, θ5 ≧ θ3 and θ6 ≧ θ4 are satisfied, and θ5 = θ3 or θ6 = θ4 is satisfied. The virtual screen 92 shown in FIG. 9 is an enlarged version of the virtual screen 88a with the aspect ratio of the screen being fixed, that is, satisfying θ1: θ2 = θ5: θ6. When the aspect ratio (θ3: θ4) of the projection surface 91 is different from the aspect ratio (θ5: θ6) of the enlarged virtual screen 92, the vertical size of the virtual screen 92 is projected as long as θ5 ≧ θ3 is satisfied. It becomes more than the vertical size of the surface 91. Furthermore, by satisfying θ6 ≧ θ4, the horizontal size of the virtual screen 92 becomes equal to or larger than the horizontal size of the projection surface 91. In addition, when θ5 = θ3 or θ6 = θ4 is satisfied, either the vertical or horizontal size of the projection surface 91 matches the vertical or horizontal size of the virtual screen 92. Therefore, the size of the projection surface 91 is the largest size that can be accommodated on the virtual screen 92. FIG. 9 shows an example in which the vertical size of the projection surface 91 is smaller than the vertical size of the virtual screen 92, but the horizontal size is the same. Returning to FIG. 5, the size of the enlarged / reduced virtual screen 92 is obtained as described above, and the enlargement or reduction magnification for matching the size of the virtual screen 89 displayed on the display unit 67 is the new display magnification. Calculated and stored in the RAM 53. Next, the process proceeds to S41.

一方、S23において、可動範囲が撮影範囲よりも大きくなければ(S23:NO)、S26で、可動範囲が撮影範囲よりも小さいか否か、判定される(S26)。可動範囲が撮影範囲よりも小さければ(S26:YES)、撮影範囲が縮小される(S27)。すなわち、仮想スクリーン88が縮小され、縮小後の仮想スクリーン92が、上記の条件(θ1:θ2=θ5:θ6、かつ、θ5≧θ3およびθ6≧θ4、かつ、θ5=θ3またはθ6=θ4)を満たすように、生成される。図9に示す、仮想スクリーン92は、仮想スクリーン88bが、画面の縦横比を一定としたまま、すなわち、θ1:θ2=θ5:θ6を満たしたまま、縮小された例でもある。投影面91の大きさが、仮想スクリーン92に収まる大きさで最大の大きさとなるように、仮想スクリーン88bが縮小されることは、上記同様である。そして上記同様、新たな表示倍率も算出されて、RAM53に記憶される。次にS41に進む。なお、S26において、可動範囲が撮影範囲よりも小さくなければ(S26:NO)、可動範囲が撮影範囲と一致するため、そのままS41に進む。   On the other hand, if the movable range is not larger than the shooting range in S23 (S23: NO), it is determined in S26 whether or not the movable range is smaller than the shooting range (S26). If the movable range is smaller than the shooting range (S26: YES), the shooting range is reduced (S27). That is, the virtual screen 88 is reduced, and the reduced virtual screen 92 satisfies the above conditions (θ1: θ2 = θ5: θ6, and θ5 ≧ θ3 and θ6 ≧ θ4, and θ5 = θ3 or θ6 = θ4). Generated to satisfy. The virtual screen 92 shown in FIG. 9 is also an example in which the virtual screen 88b is reduced while keeping the aspect ratio of the screen constant, that is, while satisfying θ1: θ2 = θ5: θ6. The virtual screen 88b is reduced in the same manner as described above so that the projection surface 91 has the maximum size that can be accommodated in the virtual screen 92. As described above, a new display magnification is also calculated and stored in the RAM 53. Next, the process proceeds to S41. If the movable range is not smaller than the shooting range in S26 (S26: NO), the movable range coincides with the shooting range, and the process proceeds to S41 as it is.

S41では、三次元仮想空間80内で動作が開始されたフィギュアAを映し出した映像が生成され、モニタ57の表示部67に表示されるよう出力が行われる(S41)。三次元仮想空間80内の仮想カメラ81によってフィギュアAの撮影が行われる。このときに、三次元仮想空間80内の仮想スクリーン88の画角が拡大されて、三次元仮想空間80内で、拡縮後の仮想スクリーン92(垂直画角θ5、水平画角θ6)が再現される。上記のアフィン変換により、所定の時間ごと(例えば映像の1フレーム(約1/30秒)ごと)に、S24またはS27で求められた表示倍率に基づき、拡縮後の仮想スクリーン92から仮想画面89が生成される。そして生成された仮想画面89が、順に、表示部67に表示されることで、オブジェクトを映し出した映像が提供される。   In S <b> 41, a video that shows the figure A whose operation has been started in the three-dimensional virtual space 80 is generated and output so as to be displayed on the display unit 67 of the monitor 57 (S <b> 41). The figure A is shot by the virtual camera 81 in the three-dimensional virtual space 80. At this time, the angle of view of the virtual screen 88 in the three-dimensional virtual space 80 is enlarged, and the enlarged / reduced virtual screen 92 (vertical angle of view θ5, horizontal angle of view θ6) is reproduced in the three-dimensional virtual space 80. The By the above affine transformation, the virtual screen 89 is changed from the scaled virtual screen 92 to the scaled screen based on the display magnification obtained in S24 or S27 every predetermined time (for example, every frame of the video (about 1/30 second)). Generated. Then, the generated virtual screen 89 is displayed on the display unit 67 in order, thereby providing a video showing the object.

次にS42に進み、フィギュアAがレッスンのリストに含まれるすべてのモーション情報に対応する運動動作を行っておらず、レッスンが終了しないうちは(S42:NO)、S43に進む。S43において、現在決定されている視点(仮想カメラ81)に対する変更指示が、操作者42によるリモコン66(あるいはキーボード61またはマウス62)から入力されていなければ(S43:NO)、S44に進む。S44において、フィギュアAにより現在行われているモーション情報に対応する運動動作がまだ終了していなければ(S44:NO)、S41において開始された、オブジェクトを映し出した映像の出力を継続するため、S42に戻る。   Next, the process proceeds to S42, and if the figure A has not performed an exercise operation corresponding to all the motion information included in the list of lessons and the lesson is not completed (S42: NO), the process proceeds to S43. In S43, if the change instruction for the currently determined viewpoint (virtual camera 81) is not input from the remote controller 66 (or keyboard 61 or mouse 62) by the operator 42 (S43: NO), the process proceeds to S44. In S44, if the motion corresponding to the motion information currently being performed by the figure A has not been completed yet (S44: NO), the output of the video showing the object started in S41 is continued. Return to.

S42〜S44が繰り返されるうちに、フィギュアAにより現在行われているモーション情報に対応する運動動作が終了すれば(S44:YES)、リストに含まれる次の実行順のモーション情報に対応した運動動作が開始される(S46)。すなわち、次の実行順のモーション情報に対応するモーションデータがHDD7から読み込まれ、S14と同様に、三次元仮想空間80内に配置されたフィギュアAが、モーションデータに従い動作される。そしてS16に戻り、上記したS16〜S41の処理が実行され、オブジェクトを映し出した映像の出力が行われる。   If the motion operation corresponding to the motion information currently being performed by the figure A is completed while S42 to S44 are repeated (S44: YES), the motion operation corresponding to the motion information of the next execution order included in the list Is started (S46). That is, the motion data corresponding to the motion information in the next execution order is read from the HDD 7, and the figure A arranged in the three-dimensional virtual space 80 is operated according to the motion data as in S14. Then, returning to S16, the processes of S16 to S41 described above are executed, and an image showing the object is output.

また、S42〜S44が繰り返されるうちに、現在決定されている視点(仮想カメラ81)に対する変更指示が操作者42によって行われた場合(S43:YES)、新たに決定された視点が三次元仮想空間80内に設置される(S47)。そして、S16に戻り、上記したS16〜S41の処理が実行され、新たに決定された視点からオブジェクトを映し出した映像の出力が行われる。   In addition, when the operator 42 issues a change instruction to the currently determined viewpoint (virtual camera 81) while S42 to S44 are repeated, the newly determined viewpoint is a three-dimensional virtual viewpoint. It is installed in the space 80 (S47). Then, returning to S16, the processes of S16 to S41 described above are executed, and an image in which the object is projected from the newly determined viewpoint is output.

フィギュアAがレッスンのリストに含まれるすべてのモーション情報に対応する運動動作を終了し、レッスンが終了したら(S42:YES)、表示部67への映像の出力が停止され(S48)、運動支援プログラムの実行が終了される。   When the figure A finishes the motion corresponding to all the motion information included in the lesson list and the lesson ends (S42: YES), the video output to the display unit 67 is stopped (S48), and the exercise support program The execution of is terminated.

以上のように、出力端末5では、表示部67に表示される映像の表示倍率の拡大または縮小が、可動範囲に応じて行われる。この結果、利用者41がオブジェクトの行う運動動作に合わせた運動を行っている最中に、表示倍率の拡大または縮小を、利用者41または操作者42がリモコン66あるいはキーボード61またはマウス62等により指示する必要がなく、利用者41の運動実行を妨げることがない。また、撮影範囲の拡大または縮小が行われる際に、可動範囲を確実に撮影範囲内に収めることができるので、オブジェクトを映し出した映像が表示部67に表示されたときに、見やすい。具体的には、撮影枠94の面95の角部96の座標に基づき、投影面91の大きさ(画角)が得られ、これをもとに、仮想スクリーン88の拡大・縮小が行われることによって、表示倍率が求められる。このように、座標情報に基づいて、より正確な、オブジェクトの可動範囲を得ることができるので、可動範囲を表示部67の表示範囲内に、より確実に、収めることができる。   As described above, in the output terminal 5, the display magnification of the video displayed on the display unit 67 is increased or decreased according to the movable range. As a result, while the user 41 is exercising in accordance with the exercise operation performed by the object, the display magnification is enlarged or reduced by the user 41 or the operator 42 by the remote controller 66 or the keyboard 61 or the mouse 62. There is no need to give an instruction and the user 41 does not interfere with the exercise. Further, when the shooting range is enlarged or reduced, the movable range can be surely kept within the shooting range, so that it is easy to see when the video image showing the object is displayed on the display unit 67. Specifically, the size (field angle) of the projection surface 91 is obtained based on the coordinates of the corner portion 96 of the surface 95 of the photographing frame 94, and the virtual screen 88 is enlarged or reduced based on this. Thus, the display magnification is obtained. In this way, since the more accurate movable range of the object can be obtained based on the coordinate information, the movable range can be more reliably stored within the display range of the display unit 67.

また、レッスンのリストに含まれるモーション情報が複数あっても、モーション情報ごとに、撮影範囲の拡大または縮小を行うことができる。これにより、利用者41または操作者42が、モーション情報ごとに、表示部67に表示される映像の表示倍率の変更の指示を、リモコン66あるいはキーボード61またはマウス62等により指示する必要がない。つまり、運動が切り替わるたびに、表示倍率の変更を行う負担が利用者41や操作者42にかかることがないので、特に、連続した運動の実行を所望する利用者41が、運動実行を妨げられることがない。また、三次元仮想空間80内に配置されたオブジェクトを視点から撮影することによって、オブジェクトを映し出した映像を生成することで、撮影範囲の拡大または縮小、ひいては表示倍率の変更を容易に行うことができる。また、視点の変更が可能であり、複数の視点から所望する視点を決定することができるので、より望ましい視点からオブジェクトを映し出した映像を、表示部67に表示することができる。また、視点が変更されたら、あらためてS16〜S41の処理が行われ、可動範囲にあわせた撮影範囲の拡大または縮小が行われるので、視点位置の違いによる可動範囲と撮影範囲との不一致を確実に解消することができる。また、撮影範囲の変更が、モーション情報ごとに行われるので、ひとつひとつの異なる運動ごとに、可動範囲にあわせた撮影範囲の調整を行うことができる。   Even if there are a plurality of pieces of motion information included in the lesson list, the shooting range can be enlarged or reduced for each piece of motion information. This eliminates the need for the user 41 or the operator 42 to give an instruction to change the display magnification of the video displayed on the display unit 67 by using the remote controller 66 or the keyboard 61 or the mouse 62 for each motion information. In other words, since the burden of changing the display magnification is not applied to the user 41 or the operator 42 every time the exercise is switched, the user 41 who desires to perform continuous exercise is particularly disturbed. There is nothing. In addition, by photographing an object arranged in the three-dimensional virtual space 80 from a viewpoint, and generating a video showing the object, it is possible to easily enlarge or reduce the photographing range and thus change the display magnification. it can. Further, since the viewpoint can be changed and a desired viewpoint can be determined from a plurality of viewpoints, an image in which an object is projected from a more desirable viewpoint can be displayed on the display unit 67. Further, when the viewpoint is changed, the processing of S16 to S41 is performed again, and the imaging range is expanded or reduced in accordance with the movable range, so that a mismatch between the movable range and the imaging range due to a difference in viewpoint position is ensured. Can be resolved. In addition, since the shooting range is changed for each motion information, the shooting range can be adjusted according to the movable range for each different motion.

なお、上記の実施形態に示される運動支援装置の構成は例示であり、本発明は各種の変形が可能なことはいうまでもない。例えば、S47で行われる視点の変更について、本実施の形態では、図3に示すように、あらかじめ複数の視点を設け、操作者42が任意の視点を選択することによって決定されるようにした。すなわち、各視点は、三次元仮想空間80内で絶対的な配置位置を有し、オブジェクトと各視点との位置関係は、絶対的な位置関係を有する。もちろん、オブジェクトと視点との位置関係が、相対的な位置関係を有するように、オブジェクトを基準とした視点の配置位置を設定できるようにしてもよい。または、視点の位置を、リモコン66またはキーボード61あるいはマウス62による操作で任意に変更できるようにしてもよい。   The configuration of the exercise support apparatus shown in the above embodiment is an exemplification, and it goes without saying that the present invention can be variously modified. For example, in the present embodiment, the viewpoint change performed in S47 is determined by providing a plurality of viewpoints in advance and selecting an arbitrary viewpoint as shown in FIG. That is, each viewpoint has an absolute arrangement position in the three-dimensional virtual space 80, and the positional relationship between the object and each viewpoint has an absolute positional relationship. Of course, the viewpoint arrangement position based on the object may be set so that the positional relation between the object and the viewpoint has a relative positional relation. Alternatively, the position of the viewpoint may be arbitrarily changed by an operation with the remote controller 66, the keyboard 61, or the mouse 62.

また、拡縮後の仮想スクリーン92の大きさは、投影面91の大きさ以上(θ5≧θ3およびθ6≧θ4、かつ、θ5=θ3またはθ6=θ4)となるようにした。拡縮後の仮想スクリーン92の大きさが、投影面91の大きさより、所定の大きさ分、大きくなるようにしてもよい。例えば、拡縮後の仮想スクリーン92の大きさが、投影面91の大きさの1.1倍となるようにするには、θ5≧1.1×θ3およびθ6≧1.1×θ4、かつ、θ5=1.1×θ3またはθ6=1.1×θ4が満たされるようにすればよい。このようにすれば、可動範囲に対し余白を有した撮影範囲を設定することができる。   The size of the virtual screen 92 after the enlargement / reduction is set to be equal to or larger than the size of the projection surface 91 (θ5 ≧ θ3 and θ6 ≧ θ4, and θ5 = θ3 or θ6 = θ4). The size of the enlarged and reduced virtual screen 92 may be larger than the size of the projection surface 91 by a predetermined size. For example, θ5 ≧ 1.1 × θ3 and θ6 ≧ 1.1 × θ4, and θ5 ≧ 1.1 × θ3 and θ6 ≧ 1.1 × θ4 in order that the size of the enlarged and reduced virtual screen 92 is 1.1 times the size of the projection surface 91 It is sufficient to satisfy θ5 = 1.1 × θ3 or θ6 = 1.1 × θ4. In this way, it is possible to set a shooting range having a margin with respect to the movable range.

また、本実施の形態では、出力端末5において、オブジェクトを映し出した映像が生成されて表示部67に出力された。あらかじめオブジェクトを映し出した映像が、その映像に対応したモーション情報とともに、配信サーバ2から出力端末5に配信されるようにしてもよい。この場合、S21で求められる可動範囲は、モーション情報に対応した映像をすべて内部再生(表示部67に表示させずに再生)し、フレーム単位で変更のあった部分(つまり映像内でオブジェクトが動作した部分)を比較することによって、求めればよい。もっとも、この場合、配信される映像は、オブジェクトの可動範囲が常に映像内に収まるように撮影された映像であることが望ましく、出力端末5では、撮影範囲を小さくする(表示倍率を大きくする)処理を行えばよい。   In the present embodiment, the output terminal 5 generates a video showing the object and outputs it to the display unit 67. A video in which an object is projected in advance may be distributed from the distribution server 2 to the output terminal 5 together with motion information corresponding to the video. In this case, the movable range obtained in S21 is the internal reproduction of all the video corresponding to the motion information (reproduction without displaying it on the display unit 67), and the portion changed in units of frames (that is, the object operates in the video). It may be obtained by comparing the portion). In this case, however, it is desirable that the video to be distributed is a video shot so that the movable range of the object is always within the video, and the output terminal 5 reduces the shooting range (increases the display magnification). What is necessary is just to process.

また、オブジェクトによる三次元仮想空間80内での運動動作を撮影し、映像化する処理(S16〜S41)は、配信サーバ2で行ってもよい。この場合、出力端末5から、レッスンのリストや視点位置の変更指示を配信サーバ2に送信し、配信サーバ2で生成された映像を出力端末5が受信して、再生すればよい。   Further, the processing (S16 to S41) for capturing and visualizing the motion of the object in the three-dimensional virtual space 80 may be performed by the distribution server 2. In this case, a lesson list or a viewpoint position change instruction may be transmitted from the output terminal 5 to the distribution server 2, and the video generated by the distribution server 2 may be received and reproduced.

また、S24、S27では、撮影範囲を拡大または縮小(表示倍率を変更)するため、仮想スクリーン88の大きさを、画角(θ1,θ2)の大きさを拡大または縮小することによって行った。もちろん、画角(θ1,θ2)を固定し、視点(仮想カメラ81)の位置を、仮想スクリーン88の位置に対して撮影方向82に沿って近づけたり遠ざけたりすることによって、仮想スクリーン88を拡大または縮小した仮想スクリーン92を形成してもよい。すなわち、仮想スクリーン88の画角(θ1,θ2)は、拡縮後の仮想スクリーン92の画角(θ5,θ6)に対し、θ5=θ1、θ6=θ2を満たす。この状態で、仮想カメラ81と仮想スクリーン88との距離xが小さくなれば、仮想スクリーン88の縦の長さを示すx・tanθ1の値と、横の長さを示すx・tanθ2の値とが、共に小さくなるため、仮想スクリーン88に対し、仮想スクリーン92を縮小することができる。一方、距離xが大きくなれば、x・tanθ5、x・tanθ6の値が共に大きくなるため、仮想スクリーン88に対し、仮想スクリーン92を拡大することができる。   In S24 and S27, the virtual screen 88 is enlarged or reduced in size to the angle of view (θ1, θ2) in order to enlarge or reduce the imaging range (change the display magnification). Of course, the virtual screen 88 is enlarged by fixing the angle of view (θ1, θ2) and moving the viewpoint (virtual camera 81) closer to or away from the position of the virtual screen 88 along the shooting direction 82. Alternatively, a reduced virtual screen 92 may be formed. That is, the angle of view (θ1, θ2) of the virtual screen 88 satisfies θ5 = θ1 and θ6 = θ2 with respect to the angle of view (θ5, θ6) of the virtual screen 92 after enlargement / reduction. In this state, if the distance x between the virtual camera 81 and the virtual screen 88 decreases, the value of x · tan θ1 indicating the vertical length of the virtual screen 88 and the value of x · tan θ2 indicating the horizontal length are obtained. Since both become smaller, the virtual screen 92 can be reduced with respect to the virtual screen 88. On the other hand, as the distance x increases, the values of x · tan θ5 and x · tan θ6 increase, so that the virtual screen 92 can be enlarged with respect to the virtual screen 88.

また、オブジェクトの運動動作が激しい場合には、仮想スクリーン88の拡縮を、投影面91よりもさらに大きくなるように行ってもよい。つまり、オブジェクトの運動動作が激しい場合、表示倍率を、本実施の形態において小さくされる大きさよりも、さらに小さくしてもよい。具体的には、図8のフローチャートに示すように、S24またはS26:NOまたはS26で撮影範囲が決定された後に、S31〜S33の処理を行い、その後、S41で、オブジェクトを映し出した映像を出力すればよい。   Further, when the motion of the object is intense, the virtual screen 88 may be enlarged or reduced so as to be larger than the projection plane 91. That is, when the motion motion of the object is intense, the display magnification may be made smaller than the size reduced in the present embodiment. Specifically, as shown in the flowchart of FIG. 8, after the shooting range is determined in S24 or S26: NO or S26, the processing of S31 to S33 is performed, and then the video showing the object is output in S41. do it.

図8に示す、運動支援プログラムの変形例では、S19におい位置情報の3Dマップ化が行われる際に、各身体部位の座標が、映像の1フレームごとに記録される。S31では、各身体部位ごとに各フレーム間の座標の移動距離が求められ、各身体部位ごとの移動距離の最大値が、Δ値として求められる(S31)。各身体部位のΔ値が、各身体部位ごとにあらかじめ定められた標準値とそれぞれ比較され、すべての身体部位のΔ値がそれぞれ標準値以下であれば(S32:NO)、そのままS41に進む。Δ値が標準値よりも大きい身体部位があれば(S32:YES)、S22〜S27で求められた仮想スクリーン88あるいは拡縮後の仮想スクリーン92の画角に対し、それぞれ、指定値が乗算され(S33)、S41に進む。すなわち、上記した変形例と同様に、可動範囲に対し余白を有した撮影範囲を設定することができる。このようにすれば、オブジェクトの運動動作が激しい場合に、表示倍率をさらに小さくして、オブジェクトを映し出した映像において可動範囲の全体を見渡しやすくすることができる。   In the modified example of the exercise support program shown in FIG. 8, when the 3D map of the position information is performed in S19, the coordinates of each body part are recorded for each frame of the video. In S31, the movement distance of the coordinate between each frame is calculated | required for every body part, and the maximum value of the movement distance for each body part is calculated | required as (DELTA) value (S31). The Δ value of each body part is compared with a standard value determined in advance for each body part. If the Δ values of all body parts are equal to or less than the standard value (S32: NO), the process proceeds directly to S41. If there is a body part whose Δ value is larger than the standard value (S32: YES), the specified angle is multiplied to the angle of view of the virtual screen 88 or the virtual screen 92 after scaling in S22 to S27 ( S33), the process proceeds to S41. That is, similarly to the above-described modified example, it is possible to set an imaging range having a margin with respect to the movable range. In this way, when the motion of the object is intense, it is possible to further reduce the display magnification and make it easy to see the entire movable range in the video image of the object.

また、本実施の形態では、可動範囲が撮影範囲より小さい場合に、撮影範囲を可動範囲に合わせるように、撮影範囲の縮小(表示倍率の拡大)を行った。この場合に、撮影範囲の縮小を、可動範囲よりもさらに小さくしてもよい。このようにすれば、運動動作を行うオブジェクトを映し出した映像において、さらに詳細に、オブジェクトを見ることができる。特に、身体部位の一部を主に動作させる運動の場合、その部分を拡大して見ることができる。   Further, in the present embodiment, when the movable range is smaller than the photographing range, the photographing range is reduced (the display magnification is increased) so that the photographing range matches the movable range. In this case, the reduction of the shooting range may be made smaller than the movable range. In this way, it is possible to see the object in more detail in the video that shows the object that performs the motion. In particular, in the case of an exercise in which a part of the body part is mainly operated, the part can be enlarged and viewed.

なお、本実施の形態においては、S12でレッスン情報を取得するCPU51が、「第1取得手段」に相当する。S16で、基準表示倍率を求めるCPU51が、「第2取得手段」に相当する。S21で、可動範囲(撮影枠94)を求めるCPU51が、「第1決定手段」に相当し、撮影枠94の座標から面95の4つの角部96の座標を求めるCPU51が、「第3取得手段」に相当する。S23およびS26で、可動範囲と基準範囲(撮影範囲)とを比較するCPU51が、「判定手段」に相当する。S24またはS27で、表示倍率を変更するCPU51が、「表示制御手段」に相当する。また、配信サーバ2から、定期的または要求に応じてレッスンのリストを取得するCPU51が、「第4取得手段」に相当する。また、上記したように、レッスンのリストを、操作者42が任意に設定できるようにしてもよく、この場合に操作者42に、運動情報あるいはモーション情報を表示部67に提示して、リモコン66あるいはキーボード61またはマウス62等の操作により、所望するものを選択できるようにするCPU51が、「選択手段」に相当する。S13において配置設定処理を行うCPU51が、「配置手段」に相当する。S47において、視点位置を、操作者42の選択する任意の視点位置に決定するCPU51が、「第2決定手段」に相当する。   In the present embodiment, the CPU 51 that acquires lesson information in S12 corresponds to a “first acquisition unit”. In S <b> 16, the CPU 51 for obtaining the reference display magnification corresponds to “second acquisition unit”. In S21, the CPU 51 for obtaining the movable range (imaging frame 94) corresponds to the “first determining means”, and the CPU 51 for obtaining the coordinates of the four corners 96 of the surface 95 from the coordinates of the imaging frame 94 is “third acquisition”. It corresponds to “means”. The CPU 51 that compares the movable range and the reference range (shooting range) in S23 and S26 corresponds to “determination means”. The CPU 51 that changes the display magnification in S24 or S27 corresponds to “display control means”. Further, the CPU 51 that acquires a list of lessons from the distribution server 2 periodically or in response to a request corresponds to a “fourth acquisition unit”. Further, as described above, the list of lessons may be arbitrarily set by the operator 42. In this case, exercise information or motion information is presented to the display unit 67 to the operator 42, and the remote control 66 is displayed. Alternatively, the CPU 51 that makes it possible to select a desired one by operating the keyboard 61 or the mouse 62 corresponds to “selecting means”. The CPU 51 that performs the arrangement setting process in S13 corresponds to an “arranging unit”. In S <b> 47, the CPU 51 that determines the viewpoint position as an arbitrary viewpoint position selected by the operator 42 corresponds to the “second determination unit”.

2 配信サーバ
5 出力端末
10 ネットワーク
21 データベース
41 利用者
42 操作者
57 モニタ
61 キーボード
62 マウス
66 リモコン
67 表示部
79 第2の三次元仮想空間
80 三次元仮想空間
81 仮想カメラ
82 撮影方向
88 仮想スクリーン
89 仮想画面
91 投影面
92 仮想スクリーン
93 残像体
94 撮影枠
95 面
A フィギュア
2 distribution server 5 output terminal 10 network 21 database 41 user 42 operator 57 monitor 61 keyboard 62 mouse 66 remote control 67 display unit 79 second three-dimensional virtual space 80 three-dimensional virtual space 81 virtual camera 82 shooting direction 88 virtual screen 89 Virtual screen 91 Projection surface 92 Virtual screen 93 Afterimage 94 Imaging frame 95 Surface A Figure

Claims (11)

所定の身体部位を動作させる運動の種類を表す複数の運動情報を取得する第1取得手段と、
前記身体部位を備え、前記運動情報が表す運動動作を行うオブジェクトを映し出した映像を、所定の表示部に表示させるときの基準となる基準表示倍率を取得する第2取得手段と、
前記オブジェクトが動作する運動動作の可動範囲を決定する第1決定手段と、
前記可動範囲が、前記表示部の表示範囲内に収まるように、前記オブジェクトを映し出した映像を前記表示部に表示する表示倍率を、前記基準表示倍率を基準に変更する制御を行う表示制御手段と、
を備えることを特徴とする運動支援装置。
First acquisition means for acquiring a plurality of pieces of exercise information representing types of exercises for operating a predetermined body part;
A second acquisition unit that includes the body part and acquires a reference display magnification serving as a reference when displaying an image on which an object that performs an exercise motion represented by the exercise information is displayed on a predetermined display unit;
First determining means for determining a movable range of a motion motion in which the object moves;
Display control means for performing control to change a display magnification for displaying an image showing the object on the display unit so that the movable range falls within a display range of the display unit based on the reference display magnification. ,
An exercise support apparatus comprising:
前記オブジェクトを映し出した映像が、前記表示部内で可動する座標情報を取得する第3取得手段をさらに備え、
前記第1決定手段は、前記第3取得手段により取得された前記座標情報に基づいて、前記オブジェクトが動作する運動動作の前記可動範囲を決定することを特徴とする請求項1に記載の運動支援装置。
The image which projected the said object is further provided with the 3rd acquisition means to acquire the coordinate information which can move within the said display part,
2. The exercise support according to claim 1, wherein the first determination unit determines the movable range of an exercise operation in which the object operates based on the coordinate information acquired by the third acquisition unit. apparatus.
前記第1決定手段により決定された前記可動範囲が、基準となる基準範囲よりも大きいか否かを判定する判定手段をさらに備え、
前記表示制御手段は、前記判定手段により前記可動範囲が前記基準範囲よりも大きいと判定された場合に、前記表示倍率を前記基準表示倍率より小さくすることを特徴とする請求項1または2に記載の運動支援装置。
A determination unit for determining whether the movable range determined by the first determination unit is larger than a reference range as a reference;
3. The display control unit according to claim 1, wherein the display control unit makes the display magnification smaller than the reference display magnification when the determination unit determines that the movable range is larger than the reference range. Exercise support device.
前記判定手段は、前記第1決定手段により決定された前記可動範囲が前記基準範囲よりも小さいか否かを判定し、
前記表示制御手段は、前記判定手段により前記可動範囲が前記基準範囲よりも小さいと判定された場合に、前記表示倍率を前記基準表示倍率より大きくすること
を特徴とする請求項3に記載の運動支援装置。
The determination unit determines whether the movable range determined by the first determination unit is smaller than the reference range;
The exercise according to claim 3, wherein the display control unit increases the display magnification to the reference display magnification when the determination unit determines that the movable range is smaller than the reference range. Support device.
前記第1取得手段により取得される複数の前記運動情報の中から、所望の前記運動情報である所望運動情報を選択する選択手段と、
前記選択手段により選択された前記所望運動情報と、前記所望運動情報が実行される順序を示す運動順序情報とが対応付けられたリストを取得する第4取得手段と、
をさらに備え、
前記第1決定手段は、前記リストに含まれる前記運動順序情報に従い、前記所望運動情報が表す運動動作を前記オブジェクトが動作したときの前記可動範囲を決定し、
前記判定手段は、前記第1決定手段により決定された前記可動範囲が、前記基準範囲より大きいか否か、および前記基準範囲より小さいか否かを判定し、
前記表示制御手段は、前記判定手段により前記可動範囲が前記基準範囲よりも大きいと判定された場合に、前記表示倍率を前記基準表示倍率より大きくし、
前記表示制御手段は、前記判定手段により前記可動範囲が前記基準範囲よりも小さいと判定された場合に、前記表示倍率を前記基準表示倍率より小さくすること
を特徴とする請求項4に記載の運動支援装置。
Selecting means for selecting desired exercise information which is the desired exercise information from among the plurality of exercise information acquired by the first acquisition unit;
Fourth acquisition means for acquiring a list in which the desired exercise information selected by the selection means is associated with exercise order information indicating the order in which the desired exercise information is executed;
Further comprising
The first determining means determines the movable range when the object moves the movement motion represented by the desired movement information according to the movement order information included in the list,
The determination means determines whether the movable range determined by the first determination means is larger than the reference range and whether it is smaller than the reference range;
The display control means, when the determination means determines that the movable range is larger than the reference range, the display magnification is larger than the reference display magnification,
The exercise according to claim 4, wherein the display control unit reduces the display magnification to be smaller than the reference display magnification when the determination unit determines that the movable range is smaller than the reference range. Support device.
三次元仮想空間内に、あらかじめ視線方向および画角が設定され、前記オブジェクトを映しだした映像を撮影する視点と、前記オブジェクトと、を配置する配置手段をさらに備え、
前記表示制御手段は、前記画角を固定したまま前記視点の配置位置を前記視線方向に沿って移動させる制御、または、前記配置位置を固定したまま前記画角を変更する制御を行って、前記表示倍率を制御することを特徴とする請求項3から5のいずれかに記載の運動支援装置。
In the three-dimensional virtual space, a visual line direction and an angle of view are set in advance, and further includes an arrangement unit that arranges a viewpoint that captures an image of the object and the object,
The display control means performs control for moving the arrangement position of the viewpoint along the line-of-sight direction while fixing the angle of view, or control for changing the angle of view while fixing the arrangement position, 6. The exercise support apparatus according to claim 3, wherein display magnification is controlled.
前記配置手段により複数の所定の位置のそれぞれに複数の前記視点が配置され、複数の前記視点のうち、所望する1つの前記視点である所望視点を決定する第2決定手段をさらに備え、
前記第2取得手段は、前記第2決定手段によって決定された前記所望視点から前記オブジェクトを映し出した映像を、前記表示部に表示させるときの前記基準表示倍率を取得することを特徴とする請求項6に記載の運動支援装置。
A plurality of the viewpoints are arranged at each of a plurality of predetermined positions by the arrangement means, and further includes second determination means for determining a desired viewpoint, which is a desired one of the plurality of viewpoints,
The said 2nd acquisition means acquires the said reference | standard display magnification when displaying the image | video which projected the said object from the said desired viewpoint determined by the said 2nd determination means on the said display part. 6. The exercise support device according to 6.
前記表示制御手段によって前記表示倍率が変更された後に、前記第2決定手段により、現在決定されている前記所望視点とは異なる新たな前記所望視点が決定された場合に、前記判定手段による判定と、前記表示制御手段による前記表示倍率の変更とが、再度実行されることを特徴とする請求項7に記載の運動支援装置。   When the display magnification is changed by the display control means, and the second determination means determines a new desired viewpoint different from the currently determined desired viewpoint, the determination by the determination means The exercise support apparatus according to claim 7, wherein the change of the display magnification by the display control unit is executed again. 前記運動情報は、所定の身体部位を動作させる個別の運動を表すモーション情報を、運動の種類ごとに分類した情報であり、
前記判定手段による判定と、前記表示制御手段による前記表示倍率の変更とは、前記モーション情報ごとに実行されることを特徴とする請求項3から8のいずれかに記載の運動支援装置。
The exercise information is information obtained by classifying motion information representing individual exercises for operating a predetermined body part for each type of exercise,
The exercise support apparatus according to claim 3, wherein the determination by the determination unit and the change of the display magnification by the display control unit are executed for each piece of motion information.
コンピュータで実行され、身体部位を備え、所定の前記身体部位を動作させる運動動作を行うオブジェクトを映し出した映像を表示部に表示させることで運動を支援する運動支援方法であって、
所定の身体部位を動作させる運動の種類を表す複数の運動情報を取得する第1取得ステップと、
前記身体部位を備え、前記運動情報が表す運動動作を行うオブジェクトを映し出した映像を、所定の表示部に表示させるときの基準となる基準表示倍率を取得する第2取得ステップと、
前記オブジェクトが動作する運動動作の可動範囲を決定する第1決定ステップと、
前記可動範囲が、前記表示部の表示範囲内に収まるように、前記オブジェクトを映し出した映像を前記表示部に表示する表示倍率を、前記基準表示倍率を基準に変更する制御を行う表示制御ステップと、
を含む運動支援方法。
An exercise support method, which is executed by a computer, includes a body part, and supports exercise by displaying an image on which an object that performs an exercise operation to operate a predetermined body part is displayed on a display unit,
A first acquisition step for acquiring a plurality of pieces of exercise information representing types of exercises for operating a predetermined body part;
A second acquisition step of acquiring a reference display magnification that is a reference when displaying an image that includes the body part and displays an object that performs an exercise motion represented by the exercise information on a predetermined display unit;
A first determination step of determining a movable range of a motion motion in which the object moves;
A display control step for performing control to change a display magnification for displaying the video image of the object on the display unit based on the reference display magnification so that the movable range is within the display range of the display unit; ,
Exercise support method including.
身体部位を備え、所定の前記身体部位を動作させる運動動作を行うオブジェクトを映し出した映像を表示部に表示させる運動支援装置として機能させるためのプログラムであって、
コンピュータに、
所定の身体部位を動作させる運動の種類を表す複数の運動情報を取得する第1取得ステップと、
前記身体部位を備え、前記運動情報が表す運動動作を行うオブジェクトを映し出した映像を、所定の表示部に表示させるときの基準となる基準表示倍率を取得する第2取得ステップと、
前記オブジェクトが動作する運動動作の可動範囲を決定する第1決定ステップと、
前記可動範囲が、前記表示部の表示範囲内に収まるように、前記オブジェクトを映し出した映像を前記表示部に表示する表示倍率を、前記基準表示倍率を基準に変更する制御を行う表示制御ステップと、
を実行させるプログラム。
A program for functioning as an exercise support device that includes a body part and displays an image on which an object that performs an exercise operation to operate a predetermined body part is displayed on a display unit,
On the computer,
A first acquisition step for acquiring a plurality of pieces of exercise information representing types of exercises for operating a predetermined body part;
A second acquisition step of acquiring a reference display magnification that is a reference when displaying an image that includes the body part and displays an object that performs an exercise motion represented by the exercise information on a predetermined display unit;
A first determination step of determining a movable range of a motion motion in which the object moves;
A display control step for performing control to change a display magnification for displaying the video image of the object on the display unit based on the reference display magnification so that the movable range is within the display range of the display unit; ,
A program that executes
JP2010065162A 2010-03-19 2010-03-19 Exercise support device, exercise support method and program Expired - Fee Related JP5359950B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010065162A JP5359950B2 (en) 2010-03-19 2010-03-19 Exercise support device, exercise support method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010065162A JP5359950B2 (en) 2010-03-19 2010-03-19 Exercise support device, exercise support method and program

Publications (2)

Publication Number Publication Date
JP2011194076A JP2011194076A (en) 2011-10-06
JP5359950B2 true JP5359950B2 (en) 2013-12-04

Family

ID=44873009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010065162A Expired - Fee Related JP5359950B2 (en) 2010-03-19 2010-03-19 Exercise support device, exercise support method and program

Country Status (1)

Country Link
JP (1) JP5359950B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015126826A (en) * 2013-12-27 2015-07-09 ブラザー工業株式会社 Information processing device and program
KR101918158B1 (en) * 2016-06-16 2018-11-14 주식회사 에이치투앤컴퍼니 Event based 3D dynamic continuity generating method for producing 360 degree VR video and apparatus thereof
JP7492199B2 (en) * 2019-07-17 2024-05-29 株式会社バンダイナムコアミューズメント Game device and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3197536B2 (en) * 1999-07-14 2001-08-13 株式会社スクウェア GAME DEVICE, IMAGE DISPLAY CONTROL METHOD, AND RECORDING MEDIUM CONTAINING IMAGE DISPLAY CONTROL PROGRAM
JP2009089744A (en) * 2007-10-03 2009-04-30 Xing Inc Moving image display system, moving image display method, and computer program
JP2009145805A (en) * 2007-12-18 2009-07-02 Xing Inc Moving image display system, moving image display method, and computer program

Also Published As

Publication number Publication date
JP2011194076A (en) 2011-10-06

Similar Documents

Publication Publication Date Title
CN109889914B (en) Video picture pushing method and device, computer equipment and storage medium
US20170221379A1 (en) Information terminal, motion evaluating system, motion evaluating method, and recording medium
JP5927856B2 (en) Image processing apparatus, image processing method, and program
WO2019093457A1 (en) Information processing device, information processing method and program
JP5359950B2 (en) Exercise support device, exercise support method and program
JP5901370B2 (en) Image processing apparatus, image processing method, and image processing program
WO2021230101A1 (en) Information processing device, information processing method, and program
JP5540798B2 (en) Exercise support device, exercise support method and program
JP5359969B2 (en) Exercise support system, information processing apparatus, information processing method, and program
JP2017506523A (en) Image display method and apparatus
JP2009145805A (en) Moving image display system, moving image display method, and computer program
JP2020042407A (en) Information processor and information processing method and program
JP2009089744A (en) Moving image display system, moving image display method, and computer program
JP2001236505A (en) Method, device and system for estimating coordinate
JP2006318385A (en) Image generation system, program, and information storage medium
US9299180B2 (en) Image creation method, image creation apparatus and recording medium
JP5625417B2 (en) Exercise support device, exercise support method and program
JP2009072274A (en) Video distribution system, server system, client system, video distribution method and program
JP5504799B2 (en) Exercise support device, exercise support method and program
JP4762050B2 (en) Display processing apparatus, display processing method, and computer program
JP6169742B2 (en) Image processing method and image processing apparatus
JP2015126826A (en) Information processing device and program
EP4303824A1 (en) System and method for monitoring a body pose of a user
JP2012014391A (en) Comic-picture creation support apparatus, comic-picture creation support method and program
WO2022168428A1 (en) Information processing method, information processing device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130819

R150 Certificate of patent or registration of utility model

Ref document number: 5359950

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees