JP2014200338A - Information processor and program - Google Patents

Information processor and program Download PDF

Info

Publication number
JP2014200338A
JP2014200338A JP2013076468A JP2013076468A JP2014200338A JP 2014200338 A JP2014200338 A JP 2014200338A JP 2013076468 A JP2013076468 A JP 2013076468A JP 2013076468 A JP2013076468 A JP 2013076468A JP 2014200338 A JP2014200338 A JP 2014200338A
Authority
JP
Japan
Prior art keywords
output
exercise
level
information
music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013076468A
Other languages
Japanese (ja)
Other versions
JP5949638B2 (en
Inventor
弘明 松場
Hiroaki Matsuba
弘明 松場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2013076468A priority Critical patent/JP5949638B2/en
Publication of JP2014200338A publication Critical patent/JP2014200338A/en
Application granted granted Critical
Publication of JP5949638B2 publication Critical patent/JP5949638B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To conduct a performance so as to allow a user to take exercise and sing a song while having fun in accordance with an exercise level of the user.SOLUTION: An information processor determines an exercise level of a user from a plurality of exercise levels, makes output means output music information, makes display means display video information indicating a video in which an exercise action is performed, makes at least one of the output means and the display means output instruction information when the exercise level is a first level, makes at least one of the output means and the display means output lyric information when the exercise level is a second level higher than the first level, makes at least one of the output means and the display means output lyric information and makes the output means output sound effect information when the exercise level is a third level higher than the second level.

Description

本発明は、ユーザが楽曲を歌唱しながら行う運動を支援するための運動コンテンツを生成する技術分野に関する。   The present invention relates to a technical field for generating exercise content for supporting exercise performed by a user while singing music.

例えば、特許文献1には、演奏される楽曲に対応して運動の身振りと楽曲の歌詞とを表示することにより、ユーザに歌唱しながら運動を行わせ、ユーザの歌唱及び運動をそれぞれ採点する技術が開示されている。身振りと歌詞とを表示することは、運動コンテンツを出力することの一例である。   For example, Patent Document 1 discloses a technique for scoring a user's singing and exercise by exercising the user while singing by displaying exercise gestures and song lyrics corresponding to the music to be played. Is disclosed. Displaying gestures and lyrics is an example of outputting exercise content.

特開2009−193082号公報JP 2009-193082 A

ユーザが歌唱しながら運動するというレッスンを行うとき、同じ内容のレッスンを行うに従って、ユーザの運動レベルが上がる。しかしながら、同じ内容のレッスンを何度も行うことにより、レッスンに慣れたユーザは、レッスンに飽きることがある。特許文献1に記載の技術では、運動が行われるとき、身振りと歌詞とを表示するという画一的な演出だけが行われるため、ユーザが次第に飽きてしまう。従って、ユーザは、楽しみながら運動及び歌唱を行うことができない。   When the user performs a lesson of exercising while singing, the user's exercise level increases as the lesson of the same content is performed. However, users who are used to the lesson by getting the same lesson many times may get bored with the lesson. With the technique described in Patent Document 1, when exercise is performed, only a uniform effect of displaying gestures and lyrics is performed, so that the user gradually gets bored. Therefore, the user cannot perform exercise and singing while having fun.

本発明は、以上の点に鑑みてなされたものであり、ユーザの運動レベルに応じて、ユーザが楽しみながら運動及び歌唱を行うことができるように演出することを可能とする情報処理装置及びプログラムを提供することを課題とする。   The present invention has been made in view of the above points, and an information processing apparatus and a program capable of producing an effect so that the user can enjoy exercise and singing according to the user's exercise level. It is an issue to provide.

上記課題を解決するために、請求項1に記載の発明は、楽曲を示す楽曲情報と、運動動作を示す動作情報と、運動を音声及び表示の少なくとも何れかにより指導する指導情報と、前記楽曲の歌詞を示す歌詞情報と、効果音を示す効果音情報とを記憶する記憶手段と、ユーザの運動レベルを、複数の運動レベルから決定する決定手段と、前記記憶手段に記憶された前記楽曲情報を出力手段により出力させる第1制御手段と、前記出力手段により前記楽曲情報が出力されているとき、前記記憶手段に記憶された前記動作情報に基づいて、前記運動動作が行われる映像を示す映像情報を表示手段に表示させる第2制御手段と、前記決定手段により決定された前記運動レベルが、前記複数の運動レベルのうち第1レベルである場合、前記出力手段により前記楽曲情報が出力されているとき、前記記憶手段に記憶された前記指導情報を前記出力手段及び前記表示手段の少なくとも何れかにより出力させる第3制御手段と、前記決定手段により決定された前記運動レベルが、前記第1レベルよりも高い第2レベルである場合、前記出力手段により前記楽曲情報が出力されているとき、前記記憶手段に記憶された前記歌詞情報を前記出力手段及び前記表示手段の少なくとも何れかにより出力させる第4制御手段と、前記決定手段により決定された前記運動レベルが、前記第2レベルよりも高い第3レベルである場合、前記出力手段により前記楽曲情報が出力されているとき、前記記憶手段に記憶された前記歌詞情報を前記出力手段及び前記表示手段の少なくとも何れかにより出力させ、且つ、前記記憶手段に記憶された前記効果音情報を前記出力手段により出力させる第5制御手段と、を備えることを特徴とする。   In order to solve the above-mentioned problem, the invention according to claim 1 is characterized in that music information indicating music, motion information indicating exercise motion, guidance information for teaching exercise by at least one of voice and display, and the music Storage means for storing lyric information indicating the lyrics and sound effect information indicating sound effects, determination means for determining a user's exercise level from a plurality of exercise levels, and the music information stored in the storage means The first control means for outputting the image by the output means, and the image showing the image on which the exercise operation is performed based on the operation information stored in the storage means when the music information is output by the output means When the second control means for displaying information on the display means and the exercise level determined by the determination means is the first level among the plurality of exercise levels, the output means When the music information is output, third control means for outputting the instruction information stored in the storage means by at least one of the output means and the display means, and the exercise determined by the determination means When the level is a second level higher than the first level, when the music information is output by the output means, the lyrics information stored in the storage means is stored in the output means and the display means. The music information is output by the output means when the fourth control means to be output by at least one of them and the movement level determined by the determination means is a third level higher than the second level. The lyrics information stored in the storage means is output by at least one of the output means and the display means, and the Characterized in that it and a fifth control means for output by the output means the sound effect information stored in the 憶 means.

請求項2に記載の発明は、前記記憶手段は、歌詞の文字を示す第1の前記歌詞情報と、歌詞の音声を示す第2の前記歌詞情報とを記憶し、前記第4制御手段は、前記記憶手段に記憶された前記第1の歌詞情報を表示手段に表示させ、且つ、前記記憶手段に記憶された前記第2の歌詞情報を前記出力手段により出力させ、前記第5制御手段は、前記効果音情報を前記出力手段により出力させ、前記記憶手段に記憶された前記第1の歌詞情報を表示手段に前記表示させ、且つ、前記記憶手段に記憶された前記第2の歌詞情報を前記出力手段により出力させないことを特徴とする。   According to a second aspect of the present invention, the storage unit stores the first lyric information indicating the characters of the lyrics and the second lyric information indicating the sound of the lyrics, and the fourth control unit includes: The first lyric information stored in the storage means is displayed on the display means, and the second lyric information stored in the storage means is output by the output means, and the fifth control means is The sound effect information is output by the output means, the first lyrics information stored in the storage means is displayed on the display means, and the second lyrics information stored in the storage means is The output means does not output.

請求項3に記載の発明は、前記第2レベルは、第4レベルと、前記第4レベルよりも高い第5レベルとを含み、前記第4制御手段は、前記記憶手段に記憶された前記第1の歌詞情報を前記表示手段に表示させ、前記決定手段により決定された前記運動レベルが前記第4レベルである場合、前記記憶手段に記憶された前記第2の歌詞情報を前記出力手段により出力させ、前記決定手段により決定された前記運動レベルが前記第5レベルである場合、前記第2の歌詞情報を前記出力手段により出力させないことを特徴とする。   According to a third aspect of the present invention, the second level includes a fourth level and a fifth level higher than the fourth level, and the fourth control unit stores the second level stored in the storage unit. 1 lyric information is displayed on the display means, and when the exercise level determined by the determining means is the fourth level, the second lyric information stored in the storage means is output by the output means. When the exercise level determined by the determining unit is the fifth level, the second lyric information is not output by the output unit.

請求項4に記載の発明は、前記第1レベルは、第6レベルと、前記第6レベルよりも高い第7レベルとを含み、前記記憶手段は、前記運動を指導する文字を示す第1の前記指導情報と、前記運動を指導する音声を示す第2の前記指導情報とを記憶し、前記第3制御手段は、前記記憶手段に記憶された前記第1の指導情報を前記表示手段に表示させ、前記決定手段により決定された前記運動レベルが前記第6レベルである場合、前記記憶手段に記憶された前記第2の指導情報を前記出力手段により出力させ、前記決定手段により決定された前記運動レベルが前記第7レベルである場合、前記第2の指導情報を前記出力手段により出力させないことを特徴とする。   According to a fourth aspect of the present invention, the first level includes a sixth level and a seventh level higher than the sixth level, and the storage means indicates a first character indicating the exercise. The instruction information and the second instruction information indicating voice for instructing the exercise are stored, and the third control means displays the first instruction information stored in the storage means on the display means. And when the exercise level determined by the determination means is the sixth level, the second instruction information stored in the storage means is output by the output means, and the determination is determined by the determination means. When the exercise level is the seventh level, the second instruction information is not output by the output means.

請求項5に記載の発明は、前記記憶手段は、運動するときの身体の動きの基準を示す基準情報を更に記憶し、前記出力手段により前記楽曲情報が出力されているとき、運動するユーザの身体の動きを検出する検出手段により検出される前記動きを示す第2動作情報を取得する取得手段を更に備え、前記決定手段は、前記出力手段により前記楽曲情報が出力されているとき、所定のタイミングで、前記記憶手段に記憶された前記基準情報と、前記取得手段により取得された前記第2動作情報とを比較し、比較の結果に基づいて前記運動レベルを決定し、前記決定手段により前記運動レベルが決定されたとき、決定された前記運動レベルに応じて、前記第3制御手段、前記第4制御手段又は前記第5制御手段が動作することを特徴とする。   According to a fifth aspect of the present invention, the storage means further stores reference information indicating a reference of body movement when exercising, and when the music information is output by the output means, The information processing apparatus further includes an acquisition unit that acquires second motion information indicating the movement detected by a detection unit that detects a movement of the body, and the determination unit is configured to perform a predetermined operation when the music information is output by the output unit. At the timing, the reference information stored in the storage means is compared with the second motion information acquired by the acquisition means, the exercise level is determined based on the comparison result, and the determination means When the exercise level is determined, the third control unit, the fourth control unit, or the fifth control unit operates according to the determined exercise level.

請求項6に記載の発明は、ユーザの運動レベルを、複数の運動レベルから決定する決定ステップと、楽曲を示す楽曲情報と、運動動作を示す動作情報と、運動を音声及び表示の少なくとも何れかにより指導する指導情報と、前記楽曲の歌詞を示す歌詞情報と、効果音を示す効果音情報とを記憶する記憶手段に記憶された前記楽曲情報を出力手段により出力させる第1制御ステップと、前記出力手段により前記楽曲情報が出力されているとき、前記記憶手段に記憶された前記動作情報に基づいて、前記運動動作が行われる映像を示す映像情報を表示手段に表示させる第2制御ステップと、前記決定ステップにより決定された前記運動レベルが、前記複数の運動レベルのうち第1レベルである場合、前記出力手段により前記楽曲情報が出力されているとき、前記記憶手段に記憶された前記指導情報を前記出力手段及び前記表示手段の少なくとも何れかにより出力させる第3制御ステップと、前記決定ステップにより決定された前記運動レベルが、前記第1レベルよりも高い第2レベルである場合、前記出力手段により前記楽曲情報が出力されているとき、前記記憶手段に記憶された前記歌詞情報を前記出力手段及び前記表示手段の少なくとも何れかにより出力させる第4制御ステップと、前記決定ステップにより決定された前記運動レベルが、前記第2レベルよりも高い第3レベルである場合、前記出力手段により前記楽曲情報が出力されているとき、前記記憶手段に記憶された前記歌詞情報を前記出力手段及び前記表示手段の少なくとも何れかにより出力させ、且つ、前記記憶手段に記憶された前記効果音情報を前記出力手段により出力させる第5制御ステップと、をコンピュータに実行させることを特徴とする。   According to the sixth aspect of the present invention, at least one of a determination step for determining a user's exercise level from a plurality of exercise levels, music information indicating music, motion information indicating exercise motion, and voice and display of exercise. A first control step of causing the output means to output the music information stored in the storage means for storing the guidance information to be taught by, the lyrics information indicating the lyrics of the music, and the sound effect information indicating the sound effect; A second control step of causing the display means to display video information indicating a video on which the exercise motion is performed based on the motion information stored in the storage means when the music information is output by the output means; When the exercise level determined by the determining step is the first level among the plurality of exercise levels, the music information is output by the output means. A third control step for outputting the instruction information stored in the storage means by at least one of the output means and the display means, and the exercise level determined by the determination step is the first level. When the music information is output by the output means when the second level is higher than the second level, the lyrics information stored in the storage means is output by at least one of the output means and the display means. 4 When the exercise level determined by the control step and the determination step is a third level higher than the second level, the music information is output by the output means and stored in the storage means The lyric information is output by at least one of the output means and the display means, and the storage means A fifth control step of outputting 憶 been the sound effect information by the output means, characterized by causing a computer to execute the.

請求項1又は6に記載の発明によれば、運動レベルが第1レベルである場合、運動を指導する情報が出力又は表示される。そのため、ユーザの運動の習得を支援することができる。運動レベルが第1レベルよりも高い第2レベルである場合、歌詞情報が出力又は表示される。そのため、運動に慣れてきたユーザが、運動しながら歌唱を習得することができる。運動レベルが第2レベルよりも高い第3レベルである場合、歌詞情報が出力又は表示され、且つ、効果音情報が出力される。そのため、より運動に慣れて、歌唱しながら運動するユーザの気分を盛り上げることができる。このように、ユーザの運動レベルに応じて、ユーザが楽しみながら運動及び歌唱を行うことができるように演出することができる。   According to the invention described in claim 1 or 6, when the exercise level is the first level, information for instructing exercise is output or displayed. Therefore, it is possible to support the user's acquisition of exercise. When the exercise level is the second level higher than the first level, the lyrics information is output or displayed. Therefore, a user who has become accustomed to exercise can learn singing while exercising. When the exercise level is the third level higher than the second level, the lyrics information is output or displayed and the sound effect information is output. Therefore, it is possible to increase the mood of a user who is used to exercising and exercising while singing. Thus, according to a user's exercise level, it can produce so that a user can exercise and sing while enjoying.

請求項2に記載の発明によれば、運動レベルが第2レベルである場合、歌詞情報が文字として表示され且つ音声として出力されるので、歌詞の習得を促すことができる。運動レベルが第3レベルである場合、歌詞が文字としてのみ表示されるので、歌唱に慣れたユーザは、歌詞の音声を気にしないで歌唱することができる。   According to the second aspect of the present invention, when the exercise level is the second level, the lyrics information is displayed as characters and output as sound, so that learning of the lyrics can be promoted. When the exercise level is the third level, the lyrics are displayed only as characters, so that a user accustomed to singing can sing without worrying about the sound of the lyrics.

請求項3に記載の発明によれば、運動レベルが、第2レベルの中でも低いレベルである場合、歌詞情報が文字として表示され且つ音声として出力されるので、歌詞の習得を促すことができる。運動レベルが、第2レベルの中でも高いレベルである場合、歌詞情報が文字としてのみ表示されるので、歌唱に慣れたユーザは、歌詞の音声を気にしないで歌唱することができる。   According to the third aspect of the present invention, when the exercise level is lower than the second level, the lyric information is displayed as characters and output as voice, so that learning of the lyrics can be promoted. When the exercise level is higher than the second level, the lyric information is displayed only as characters, so that a user who is used to singing can sing without worrying about the sound of the lyrics.

請求項4に記載の発明によれば、運動レベルが、第1レベルの中でも低いレベルである場合、指導情報が文字として表示され且つ音声として出力されるので、運動の習得を促すことができる。運動レベルが、第1レベルの中でも高いレベルである場合、指導情報が音声としてのみ出力される。そのため、運動に慣れてきたユーザは、指導情報を見ないことにより、指導情報の音声を聴きながら運動に集中することができる。   According to the fourth aspect of the present invention, when the exercise level is lower than the first level, the instruction information is displayed as characters and output as voice, so that it is possible to promote the acquisition of exercise. When the exercise level is a higher level than the first level, the guidance information is output only as voice. Therefore, the user who has become accustomed to the exercise can concentrate on the exercise while listening to the audio of the guidance information by not viewing the guidance information.

請求項5に記載の発明によれば、ユーザが運動を行っているときに、ユーザの動きを基準の動きと比較することにより、運動レベルが決定される。そのため、運動中に動的に変わるユーザの運動レベルに応じて、指導情報、歌詞情報又は効果音情報を出力させることができる。   According to the fifth aspect of the present invention, when the user is exercising, the exercise level is determined by comparing the user's movement with the reference movement. Therefore, guidance information, lyrics information, or sound effect information can be output according to the user's exercise level that changes dynamically during exercise.

一実施形態の運動コンテンツ生成システム1の概要構成例を示す図である。It is a figure showing an example of outline composition of exercise content generation system 1 of one embodiment. (A)は、運動レッスンの設定例を示す図であり、(B)は、運動レッスンの別の設定例を示す図である。(A) is a figure which shows the example of a setting of an exercise lesson, (B) is a figure which shows another example of the setting of an exercise lesson. (A)は、Aメロ1が出力される時点の運動コンテンツの内容を示す図であり、(B)は、Bメロ1が出力される時点の運動コンテンツの内容を示す図であり、(C)は、サビ1が出力される時点の運動コンテンツの内容を示す図であり、(D)は、サビ2が出力される時点の運動コンテンツの内容を示す図である。(A) is a figure which shows the content of the exercise content at the time of A melody 1 output, (B) is a figure which shows the content of the exercise content at the time of B melody 1 output, (C ) Is a diagram showing the content of exercise content at the time when the chorus 1 is output, and (D) is a diagram showing the content of the exercise content at the time when the chorus 2 is output. (A)は、出力端末5のCPU51のレッスン処理の処理例を示すフローチャートであり、(B)は、出力端末5のCPU51のレッスン生成の処理例を示すフローチャートである。(A) is a flowchart showing a processing example of lesson processing of the CPU 51 of the output terminal 5, and (B) is a flowchart showing a processing example of lesson generation of the CPU 51 of the output terminal 5. (A)は、出力端末5のCPU51のレッスン実行処理の処理例を示すフローチャートであり、(B)は、出力端末5のCPU51のレッスン更新処理の処理例を示すフローチャートであり、(C)は、出力端末5のCPU51のレッスン評価処理の処理例を示すフローチャートである。(A) is a flowchart showing a processing example of a lesson execution process of the CPU 51 of the output terminal 5, (B) is a flowchart showing a processing example of a lesson update process of the CPU 51 of the output terminal 5, and (C). 10 is a flowchart showing a processing example of a lesson evaluation process of the CPU 51 of the output terminal 5.

以下、本発明の実施形態を図面に基づいて説明する。なお、以下に説明する実施の形態は、運動を支援するための運動コンテンツを生成する運動コンテンツ生成システムに本発明を適用した場合の実施形態である。運動コンテンツは、運動を支援するための映像及び音声を含む。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, embodiment described below is embodiment at the time of applying this invention to the exercise content production | generation system which produces | generates the exercise content for supporting exercise. The exercise content includes video and audio for supporting exercise.

[1.運動コンテンツ生成システム1の構成]
始めに、図1を参照して、本実施形態の運動コンテンツ生成システム1の構成について説明する。図1は、本実施形態の運動コンテンツ生成システム1の概要構成例を示す図である。図1に示すように、運動コンテンツ生成システム1は、配信サーバ2と1つ以上の出力端末5とを含んで構成されている。配信サーバ2と出力端末5とは、ネットワーク10を介して接続可能になっている。ネットワーク10は、例えば、インターネットを含む。配信サーバ2には、データベース3が接続されている。データベース3には、運動に関する情報や楽曲に関する情報が登録されている。配信サーバ2は、データベース3に登録されている情報等を、定期的に又は出力端末5からの要求に応じて出力端末5に配信する。
[1. Configuration of Exercise Content Generation System 1]
First, the configuration of the exercise content generation system 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating a schematic configuration example of an exercise content generation system 1 according to the present embodiment. As shown in FIG. 1, the exercise content generation system 1 includes a distribution server 2 and one or more output terminals 5. The distribution server 2 and the output terminal 5 can be connected via the network 10. The network 10 includes, for example, the Internet. A database 3 is connected to the distribution server 2. Information relating to exercise and information relating to music are registered in the database 3. The distribution server 2 distributes information registered in the database 3 to the output terminal 5 periodically or in response to a request from the output terminal 5.

出力端末5は、例えば、施設4に設置される端末装置である。出力端末5は、本発明の情報処理装置の一例である。出力端末5は、施設4の利用者41により利用される。施設4は、例えば、スポーツ施設であってもよい。利用者41は、スポーツ施設において、運動レッスンを受ける。運動レッスンは、複数の運動動作と歌唱により構成されるレッスンである。この場合の出力端末5は、例えばパーソナルコンピュータであってもよい。施設4は、例えば、カラオケ店舗であってもよい。カラオケ店舗において、利用者41は、カラオケの楽曲を歌唱する。この場合の出力端末5は、例えば、カラオケ装置である。以下では、施設4がスポーツ施設である場合を例にして説明する。   The output terminal 5 is a terminal device installed in the facility 4, for example. The output terminal 5 is an example of an information processing apparatus of the present invention. The output terminal 5 is used by a user 41 of the facility 4. The facility 4 may be a sports facility, for example. The user 41 receives an exercise lesson at the sports facility. An exercise lesson is a lesson composed of a plurality of exercises and singing. The output terminal 5 in this case may be a personal computer, for example. The facility 4 may be a karaoke store, for example. In the karaoke store, the user 41 sings karaoke music. The output terminal 5 in this case is a karaoke apparatus, for example. Hereinafter, a case where the facility 4 is a sports facility will be described as an example.

出力端末5は、モニタ57と接続可能である。モニタ57は、複数のスピーカ64とディスプレイ67とを備える表示装置であってもよい。この場合、出力端末5は、ディスプレイ67と接続可能である。また、出力端末5は、スピーカ64と接続可能である。ディスプレイ67は、本発明の表示手段の一例である。また、スピーカ64は、本発明の出力手段の一例である。出力端末5がモニタ57へ音声信号を出力することにより、スピーカ64により楽曲等が出力される。出力端末5がモニタ57へ映像信号を出力することにより、ディスプレイ67に運動映像等が表示される。運動映像は、動作を行うフィギュア83を映し出した動画である。フィギュア83は、例えば、人、動物、仮想上の生き物、ロボット等のかたちをした仮想物である。フィギュア83は、三次元仮想空間に配置される。施設4がカラオケ店舗である場合、ディスプレイ67には、例えば、カラオケの楽曲に対応した踊りの動作を行うフィギュア83が表示される。運動映像は、本発明における映像の一例である。出力端末5は、スピーカ64から出力される楽曲と、ディスプレイ67に表示されるフィギュア83の動きとが同期するように、信号を出力する。楽曲と運動映像とを出力することは、運動コンテンツを出力することの一例である。利用者41は、スピーカ64により出力される楽曲を聴きながら、楽曲を歌唱することができる。また、利用者41は、楽曲を聴きながら、ディスプレイ67に表示されるフィギュア83を見て、運動を行うことができる。これにより、利用者41は、歌唱しながら運動を行うことができる。操作者42は、リモコン66等を用いて出力端末5を操作することができる。利用者41と操作者42とは同一人物であってもよい。施設4がスポーツ施設である場合、操作者42は、例えば、インストラクターであってもよい。   The output terminal 5 can be connected to the monitor 57. The monitor 57 may be a display device including a plurality of speakers 64 and a display 67. In this case, the output terminal 5 can be connected to the display 67. The output terminal 5 can be connected to a speaker 64. The display 67 is an example of display means of the present invention. The speaker 64 is an example of the output means of the present invention. When the output terminal 5 outputs an audio signal to the monitor 57, music or the like is output from the speaker 64. When the output terminal 5 outputs a video signal to the monitor 57, an exercise video or the like is displayed on the display 67. The motion video is a moving image that shows a figure 83 that performs the motion. The figure 83 is a virtual object in the form of, for example, a person, an animal, a virtual creature, or a robot. The figure 83 is arranged in a three-dimensional virtual space. When the facility 4 is a karaoke store, the display 67 displays, for example, a figure 83 that performs a dance operation corresponding to a karaoke song. An exercise image is an example of an image in the present invention. The output terminal 5 outputs a signal so that the music output from the speaker 64 and the movement of the figure 83 displayed on the display 67 are synchronized. Outputting music and motion video is an example of outputting motion content. The user 41 can sing the music while listening to the music output from the speaker 64. Further, the user 41 can exercise while watching the figure 83 displayed on the display 67 while listening to the music. Thereby, the user 41 can exercise while singing. The operator 42 can operate the output terminal 5 using the remote controller 66 or the like. The user 41 and the operator 42 may be the same person. When the facility 4 is a sports facility, the operator 42 may be an instructor, for example.

運動レッスンを行うとき、利用者41は、例えば、複数の加速度センサASを装着することができる。加速度センサASは、利用者41が運動しているときの利用者41の所定の身体部位の加速度を検出する。例えば、利用者41は、手首、肘、肩、足の付け根、膝、足首等に加速度センサASを装着してもよい。出力端末5は、加速度センサASにより検出された加速度に基づいて、利用者41の運動の評価値と、運動による利用者41の消費カロリーとを計算する。例えば、出力端末5は、利用者41の運動動作が、ディスプレイ67に表示されるフィギュア83の運動動作に近いほど、評価値を高くしてもよい。例えば、利用者41が加速度センサASを装着するのではなく、運動しているときの利用者41を撮影するためのビデオカメラが施設4に設置されてもよい。この場合、出力端末5は、ビデオカメラにより撮影された利用者41の映像に基づいて、評価値及び消費カロリーを計算してもよい。また、運動レッスンを行うとき、利用者41は、マイク68に対して歌唱することができる。出力端末5は、マイク68に入力された歌唱音声に基づいて、利用者41の歌唱の評価値と、歌唱による利用者41の消費カロリーとを計算する。例えば、出力端末5は、利用者41の歌唱音声の音高が、スピーカ64により出力されている楽曲に対応する基準となる歌唱音声の音高に近いほど、評価値を高くしてもよい。運動レッスンが終了すると、出力端末5は、運動の評価値、運動による消費カロリー、歌唱の評価値及び歌唱による消費カロリーを、ディスプレイ67に表示させる。   When performing an exercise lesson, the user 41 can wear a plurality of acceleration sensors AS, for example. The acceleration sensor AS detects the acceleration of a predetermined body part of the user 41 when the user 41 is exercising. For example, the user 41 may wear the acceleration sensor AS on the wrist, elbow, shoulder, foot base, knee, ankle, or the like. The output terminal 5 calculates the evaluation value of the exercise of the user 41 and the calorie consumption of the user 41 due to the exercise based on the acceleration detected by the acceleration sensor AS. For example, the output terminal 5 may increase the evaluation value as the exercise motion of the user 41 is closer to the exercise motion of the figure 83 displayed on the display 67. For example, a video camera for photographing the user 41 when the user 41 is exercising may be installed in the facility 4 instead of the user 41 wearing the acceleration sensor AS. In this case, the output terminal 5 may calculate the evaluation value and the calorie consumption based on the video of the user 41 taken by the video camera. Further, when performing an exercise lesson, the user 41 can sing the microphone 68. The output terminal 5 calculates the evaluation value of the user 41 singing and the calorie consumption of the user 41 due to the singing based on the singing voice input to the microphone 68. For example, the output terminal 5 may increase the evaluation value as the pitch of the singing voice of the user 41 is closer to the pitch of the singing voice serving as a reference corresponding to the music output by the speaker 64. When the exercise lesson ends, the output terminal 5 causes the display 67 to display the exercise evaluation value, the calorie consumption by exercise, the evaluation value of singing, and the calorie consumption by singing.

[2.運動コンテンツ]
運動レッスンが行われるときにモニタ57が出力する運動コンテンツは、少なくとも楽曲と運動映像とを含む。楽曲は、複数の演奏パートで構成される。スピーカ64から、楽曲の構成に従ったパートの順で楽曲が出力される。例えば、Aメロ、Bメロ、サビ、間奏、Aメロ、Bメロ、サビ等の順で、楽曲が出力されてもよい。なお、1つの運動レッスンで複数の楽曲が順次スピーカ64から出力されてもよい。楽曲を構成する各演奏パートに、それぞれ運動動作が割り当てられる。出力端末5は、運動コンテンツを出力するとき、スピーカ64により出力されている演奏パートに割り当てられた運動動作をフィギュア83が行う運動映像をディスプレイ67に表示させる。
[2. Exercise content]
The exercise content output by the monitor 57 when an exercise lesson is performed includes at least music and an exercise video. The music is composed of a plurality of performance parts. Music is output from the speaker 64 in the order of the parts according to the composition of the music. For example, music may be output in the order of A melody, B melody, rust, interlude, A melody, B melody, rust and the like. A plurality of music pieces may be sequentially output from the speaker 64 in one exercise lesson. An exercise motion is assigned to each performance part constituting the music. When outputting the exercise content, the output terminal 5 causes the display 67 to display an exercise image in which the figure 83 performs the exercise operation assigned to the performance part output by the speaker 64.

運動動作は、例えば、身体を鍛えるための動作である。運動動作として、例えば、体操の動作と踊りの動作とがある。体操は、例えば、健康の増進、体力の増強、筋力の強化等のために行われる運動である。体操の種類として、例えば、有酸素運動、無酸素運動、ストレッチ等がある。有酸素運動の運動動作として、例えば、マーチ、フロントランジ等がある。無酸素運動の運動動作として、例えば、ショルダープレス、チェストプレス等がある。ストレッチの運動動作として、例えば、上腕部ストレッチ、首ストレッチ等がある。踊りの動作は、楽曲に合わせて踊るために楽曲に対して振り付けられた動作である。   The exercise operation is an operation for training the body, for example. Examples of the exercise operation include a gymnastic operation and a dance operation. The gymnastic exercise is, for example, an exercise performed for promoting health, strengthening physical strength, strengthening muscle strength, and the like. Examples of gymnastic exercises include aerobic exercise, anaerobic exercise, and stretching. Examples of the aerobic exercise include march and front lunge. Examples of the anaerobic exercise include a shoulder press and a chest press. Examples of stretching exercises include upper arm stretching and neck stretching. The dance motion is a motion that is choreographed to the music to dance to the music.

出力端末5は、運動コンテンツに、利用者41の運動動作を指導するナレーションや、楽曲の歌詞、効果音等を含めることができる。ナレーションにより、例えば、運動動作が説明されたり、身体の動かし方が指示されたりする。ナレーションとして、ナレーション文章とナレーション音声とがある。ナレーション文章は、ナレーションを示す文章である。ナレーション音声は、ナレーションを示す音声である。歌詞として、歌詞のテロップとガイドボーカルとがある。歌詞のテロップは、歌詞を示す文字である。ガイドボーカルは、例えば、楽曲の歌詞を、模範となる音高で歌手等が歌唱する音声である。効果音は、例えば、運動レッスンを行う利用者41の気分を盛り上げるための音声である。例えば、効果音は、手拍子の音、拍手の音、歓声等であってもよい。効果音として、基本効果音と追加効果音とがある。効果音が出力されるとき、基本効果音と追加効果音とのうち、少なくとも基本効果音が出力される。追加効果音は、基本効果音に追加して出力される効果音である。利用者41の気分を更に盛り上げる場合に、基本効果音と追加効果音との両方が出力される。基本効果音に含まれる効果音の種類と追加効果音に含まれる効果音の種類は異なっていてもよい。例えば、基本効果音は手拍子の音を含み、追加効果音は拍手の音及び歓声を含んでいてもよい。また、基本効果音と追加効果音との間で、含まれる効果音の種類の全部又は一部が同一であってもよい。   The output terminal 5 can include narration for instructing the motion of the user 41, song lyrics, sound effects, and the like in the exercise content. The narration explains, for example, an exercise operation or instructs how to move the body. Narration includes narration text and narration audio. The narration text is a text indicating the narration. Narration voice is voice that indicates narration. There are lyrics telop and guide vocal as lyrics. Lyric telop is a character indicating lyrics. The guide vocal is, for example, a voice that a singer or the like sings the lyrics of a song at an exemplary pitch. The sound effect is, for example, a sound for raising the mood of the user 41 performing an exercise lesson. For example, the sound effect may be a clapping sound, a clapping sound, a cheering sound, or the like. There are basic sound effects and additional sound effects as sound effects. When the sound effect is output, at least the basic sound effect is output among the basic sound effect and the additional sound effect. The additional sound effects are sound effects that are output in addition to the basic sound effects. When the mood of the user 41 is further increased, both basic sound effects and additional sound effects are output. The type of sound effect included in the basic sound effect and the type of sound effect included in the additional sound effect may be different. For example, the basic sound effects may include clapping sounds, and the additional sound effects may include clapping sounds and cheers. In addition, all or part of the types of included sound effects may be the same between the basic sound effects and the additional sound effects.

運動レッスンの内容を決める要素として、例えば、利用者41が歌唱する楽曲と、利用者41が行う複数の運動動作とがある。利用者41は、同じ内容の運動レッスンを何度も行うことによって、運動レッスンに慣れていく。利用者41運動レッスンに慣れていくことにより、利用者41は、運動レッスンを構成する運動動作に熟練していく。利用者41の運動の熟練の度合いを、運動レベルという。同じ内容の運動レッスンを行うことにより運動レッスンに慣れてくると、利用者41は、運動レッスンに飽きることがある。そこで、出力端末5は、同じ内容の運動レッスンであっても、ユーザの運動レベルに応じて、ユーザが楽しみながら運動及び歌唱を行うことができるように演出を行う。演出に用いられる情報として、ナレーション、歌詞及び効果音がある。   Elements that determine the content of an exercise lesson include, for example, music sung by the user 41 and a plurality of exercise operations performed by the user 41. The user 41 gets used to the exercise lesson by performing the exercise lesson with the same content many times. By getting used to the user 41 exercise lesson, the user 41 becomes proficient in the exercise operation constituting the exercise lesson. The degree of skill of exercise of the user 41 is referred to as exercise level. If the user 41 gets used to the exercise lesson by performing the exercise lesson with the same content, the user 41 may get bored with the exercise lesson. Therefore, the output terminal 5 produces an effect so that the user can enjoy exercising and singing according to the user's exercise level even if the exercise lesson has the same content. Information used for production includes narration, lyrics, and sound effects.

先ず、出力端末5は、運動レッスンを行う利用者41の運動レベルを決定する。例えば、出力端末5は、利用者41の過去の運動の評価値に基づいて、運動レベルを決定してもよい。この場合、出力端末5は、評価値が高いほど運動レベルを高くしてもよい。また、出力端末5は、例えば、利用者41が運動レッスンを行った回数に基づいて、運動レベルを決定してもよい。この場合、出力端末5は、回数が多いほど運動レベルを高くしてもよい。また、出力端末5は、例えば、利用者41により選択された運動レベルを、その利用者41の運動レベルに決定してもよい。本実施形態では、運動レベルは、3段階ある。例えば、運動レベルとして、初級、中級及び上級があってもよい。中級は初級よりも運動レベルが高い。また、上級は中級よりも運動レベルが高い。初級は、本発明における第1レベルの一例である。中級は、本発明における第2レベルの一例である。上級は、本発明における第3レベルの一例である。なお、本実施形態では、運動レベルは、3段階であったが、運動レベルは2段階であってもよいし、4段階以上あってもよい。   First, the output terminal 5 determines the exercise level of the user 41 who performs an exercise lesson. For example, the output terminal 5 may determine the exercise level based on the past exercise evaluation value of the user 41. In this case, the output terminal 5 may increase the exercise level as the evaluation value increases. Further, the output terminal 5 may determine the exercise level based on, for example, the number of times that the user 41 has performed an exercise lesson. In this case, the output terminal 5 may increase the exercise level as the number of times increases. The output terminal 5 may determine the exercise level selected by the user 41 as the exercise level of the user 41, for example. In this embodiment, there are three levels of exercise. For example, the exercise level may be beginner, intermediate and advanced. Intermediate level has higher exercise level than beginner level. Advanced level is higher than intermediate level. The beginner is an example of the first level in the present invention. Intermediate is an example of the second level in the present invention. Advanced is an example of the third level in the present invention. In the present embodiment, the exercise level is three stages, but the exercise level may be two stages or four or more stages.

運動レベルを決定すると、出力端末5は、運動レベルに応じて運動レッスンの設定を行う。運動レッスンの設定は、ナレーションの出力の有無、歌詞の出力の有無、効果音の出力の有無を、少なくとも決定することである。また、運動レッスンの設定は、運動コンテンツの内容を決定することでもある。運動レベルが初級である場合、出力端末5は、ナレーションを出力させる。これにより、出力端末5は、運動レベルが低いときに、利用者41の運動の習得を支援することができる。一方、出力端末5は、歌詞及び効果音を出力させない。運動の習得には必要のない情報は出力されないので、利用者41は、運動の習得に集中することができる。   When the exercise level is determined, the output terminal 5 sets an exercise lesson according to the exercise level. The exercise lesson setting is to determine at least whether or not to output narration, whether or not to output lyrics, and whether or not to output sound effects. The exercise lesson setting also determines the content of exercise content. When the exercise level is beginner level, the output terminal 5 outputs a narration. Thereby, the output terminal 5 can assist the user 41 in acquiring exercise when the exercise level is low. On the other hand, the output terminal 5 does not output lyrics and sound effects. Since information that is not necessary for learning exercises is not output, the user 41 can concentrate on learning exercises.

運動レベルが中級である場合、出力端末5は、歌詞を出力させる。これにより、運動に慣れてきた利用者41が、運動しながら歌唱を習得することができる。一方、出力端末5は、ナレーション及び効果音を出力させない。運動に慣れてきた利用者41にナレーションは不要である。また、歌唱の習得には必要のない情報は出力されないので、利用者41は、運動しながら歌唱の習得に集中することができる。   When the exercise level is intermediate, the output terminal 5 outputs lyrics. Thereby, the user 41 who has become accustomed to exercise can learn singing while exercising. On the other hand, the output terminal 5 does not output narration and sound effects. Narration is unnecessary for the user 41 who has become accustomed to the exercise. In addition, since information that is not necessary for learning a song is not output, the user 41 can concentrate on learning a song while exercising.

運動レベルが上級である場合、出力端末5は、歌詞及び効果音を出力させる。これにより、より運動に慣れて歌唱にも慣れてきた利用者41が歌唱しながら運動するとき、利用者41の気分を盛り上げることができる。一方、出力端末5は、ナレーションを出力させない。運動に慣れた利用者41にナレーションは不要である。   When the exercise level is advanced, the output terminal 5 outputs lyrics and sound effects. Thereby, when the user 41 who has become more accustomed to exercise and used to singing exercises while singing, the user 41 can be excited. On the other hand, the output terminal 5 does not output narration. Narration is unnecessary for the user 41 who is used to exercise.

図2(A)は、運動レッスンの設定例を示す図である。図2(A)は、運動負荷と運動レベルとの組み合わせに応じて、運動レッスンを設定する場合の例を示す。運動負荷と運動レベルとの組み合わせを、コンテンツタイプという。コンテンツタイプは、例えば、運動コンテンツの種類、類型等を示す。運動負荷は、例えば、運動動作により利用者41の身体にかかる負荷である。例えば、ある演奏パートにステップ運動が割り当てられているとする。出力端末5は、例えば、運動負荷が高いほど、ステップ運動を行うフィギュア83の動作が大きくなるように、運動映像をディスプレイ67に表示させてもよい。動作が大きいほど、身体にかかる負荷が大きくなる。運動負荷は、例えば、利用者41が選択してもよい。図2(A)の例では、運動負荷として、負荷1、負荷2及び負荷3がある。負荷2は負荷1よりも運動負荷が大きく、負荷3は負荷2よりも運動負荷が大きい。負荷1、負荷2及び負荷3の間で、演奏パートに割り当てられる運動動作の種類は同じである。例えば、ある演奏パートにステップ運動が割り当てられるとする。この場合、負荷1のステップ運動、負荷2のステップ運動、又は、負荷3のステップ運動が割り当てられる。このように、同じ運動動作のステップ運動であるが、負荷が異なるステップ運動が割り当てられる。また、ステップ運動の種類は同じであるが、負荷により運動動作が異なるステップ運動が割り当てられても良い。   FIG. 2A is a diagram illustrating a setting example of an exercise lesson. FIG. 2A shows an example in which an exercise lesson is set according to a combination of exercise load and exercise level. A combination of exercise load and exercise level is called a content type. The content type indicates, for example, the type or type of exercise content. The exercise load is, for example, a load applied to the body of the user 41 due to an exercise operation. For example, it is assumed that a step motion is assigned to a certain performance part. For example, the output terminal 5 may display the motion image on the display 67 so that the motion of the figure 83 performing the step motion increases as the exercise load increases. The greater the movement, the greater the load on the body. The exercise load may be selected by the user 41, for example. In the example of FIG. 2A, there are load 1, load 2, and load 3 as exercise loads. The load 2 has a greater exercise load than the load 1, and the load 3 has a greater exercise load than the load 2. Between the load 1, the load 2 and the load 3, the types of exercise motions assigned to the performance part are the same. For example, it is assumed that a step motion is assigned to a certain performance part. In this case, a step motion of load 1, a step motion of load 2, or a step motion of load 3 is assigned. In this manner, step motions having the same motion motion but step motions having different loads are assigned. Moreover, although the kind of step exercise | movement is the same, the step exercise | movement from which an exercise | movement action differs with load may be allocated.

出力端末5は、コンテンツタイプに応じて、運動レッスンの設定を行う。具体的に、図2(A)に示すように、出力端末5は、運動負荷、ナレーション文章の表示の有無、ナレーション音声の出力の有無、歌詞のテロップの表示の有無、ガイドボーカルの出力の有無、基本効果音の出力の有無、追加効果音の出力の有無を決定する。図2(A)において、「○」は、出力又は表示があることを示し、「×」は、出力又は表示がないことを示す。練習タイプとして、例えば、図2(A)に示すように、負荷1初級、負荷1中級、負荷1上級、負荷2初級、負荷2中級、負荷2上級、負荷3初級、負荷3中級、負荷3上級がある。運動レベルが同一である複数の練習タイプは、運動負荷が異なるのみで、その他の内容は同一である。一例として、負荷1初級、負荷2初級及び負荷3初級は、運動負荷のみが異なる。そのため、初級、中級及び上級についてのみ説明する。   The output terminal 5 sets exercise lessons according to the content type. Specifically, as shown in FIG. 2 (A), the output terminal 5 displays the exercise load, whether or not narration text is displayed, whether or not narration voice is output, whether or not lyric telop is displayed, and whether or not guide vocal is output. Whether to output basic sound effects and whether to output additional sound effects is determined. In FIG. 2A, “◯” indicates that there is output or display, and “X” indicates that there is no output or display. As an exercise type, for example, as shown in FIG. 2 (A), Load 1 beginner, Load 1 intermediate, Load 1 advanced, Load 2 intermediate, Load 2 intermediate, Load 2 advanced, Load 3 intermediate, Load 3 intermediate, Load 3 There is a senior. A plurality of exercise types having the same exercise level differ only in exercise load, and other contents are the same. As an example, the load 1 elementary class, the load 2 elementary class, and the load 3 elementary class differ only in the exercise load. Therefore, only beginner, intermediate, and advanced levels will be explained.

初級の場合、ナレーション文章の表示及びナレーション音声の出力が、「あり」に設定される。また、歌詞のテロップの表示、ガイドボーカルの出力、基本効果音の出力及び追加効果音の出力は、「なし」に設定される。中級の場合、歌詞のテロップの表示及びガイドボーカルの出力が、「あり」に設定される。また、ナレーション文章の表示、ナレーション音声の出力、基本効果音の出力及び追加効果音の出力は、「なし」に設定される。上級の場合、歌詞のテロップの表示、基本効果音の出力及び追加効果音の出力が、「あり」に設定される。また、ナレーション文章の表示、ナレーション音声の出力及びガイドボーカルの出力は、「なし」に設定される。運動レベルが上級である利用者41は、或る程度歌唱を習得している蓋然性がある。そのため、利用者41は、ガイドボーカルが出力されなくても、歌詞を見れば、歌唱することができる。また、歌唱に慣れた利用者41は、ガイドボーカルを気にしないで、運動しながら歌唱することができる。   In the beginner's class, the display of the narration text and the output of the narration voice are set to “present”. The display of lyrics telop, the output of guide vocals, the output of basic sound effects and the output of additional sound effects are set to “none”. In the intermediate level, the display of the lyrics telop and the output of the guide vocal are set to “Yes”. The display of the narration text, the output of the narration sound, the output of the basic sound effect, and the output of the additional sound effect are set to “none”. In the advanced case, the display of lyrics telop, the output of basic sound effects, and the output of additional sound effects are set to “Yes”. The display of the narration text, the output of the narration voice, and the output of the guide vocal are set to “none”. There is a probability that the user 41 with an advanced exercise level has mastered singing to some extent. Therefore, even if the guide vocal is not output, the user 41 can sing if he / she sees the lyrics. Moreover, the user 41 who is used to singing can sing while exercising without worrying about guide vocals.

図2(B)は、運動レッスンの別の設定例を示す図である。図2(B)は、各運動レベルをそれぞれ更に2つの運動レベルに分けた場合の例である。図2(B)の例においても、運動レベルが同一である複数の練習タイプは、運動負荷が異なるのみで、その他の内容は同一である。運動レベルとして、例えば、初級A、初級B、中級A、中級B、上級A及び上級Bがある。初級Bは初級Aよりも運動レベルが高い。また、中級Bは中級Aよりも運動レベルが高い。また、上級Bは上級Aよりも運動レベルが高い。初級Aは、本発明における第6レベルの一例である。初級Bは、本発明における第7レベルの一例である。中級Aは、本発明における第4レベルの一例である。中級Bは、本発明における第5レベルの一例である。なお、初級、中級及び上級がそれぞれ3つ以上の運動レベルに分けられてもよい。   FIG. 2B is a diagram illustrating another setting example of an exercise lesson. FIG. 2B shows an example in which each exercise level is further divided into two exercise levels. In the example of FIG. 2B as well, the plurality of exercise types having the same exercise level are the same except for the exercise load. The exercise level includes, for example, beginner A, beginner B, intermediate A, intermediate B, advanced A, and advanced B. Beginner B has a higher level of exercise than Beginner A. Intermediate B has a higher exercise level than Intermediate A. Advanced B has a higher exercise level than Advanced A. Beginner A is an example of the sixth level in the present invention. Beginner B is an example of the seventh level in the present invention. Intermediate A is an example of the fourth level in the present invention. Intermediate B is an example of the fifth level in the present invention. In addition, beginner, intermediate and advanced may be divided into three or more exercise levels.

初級Aの場合、ナレーション文章の表示及びナレーション音声の出力が、「あり」に設定される。また、歌詞のテロップの表示、ガイドボーカルの出力、基本効果音の出力及び追加効果音の出力は、「なし」に設定される。初級Bの場合、ナレーション音声の出力が、「あり」に設定される。また、ナレーション文章の表示、歌詞のテロップの表示、ガイドボーカルの出力、基本効果音の出力及び追加効果音の出力は、「なし」に設定される。運動レベルが初級Aから初級Bに上がり、利用者41が或る程度運動動作に慣れてくると、ナレーション文章及びナレーション音声のうち何れかが出力されれば十分である。ここで、音声の方が文章よりも、利用者41に伝えるナレーションの情報の量を多くすることができる。そのため、ナレーション文章は表示されず、ナレーション音声は出力される。これにより、利用者41は、ナレーション文章を見ないことにより、ナレーション音声を聴きながら運動に集中することができる。   In the case of beginner A, the display of narration text and the output of narration voice are set to “present”. The display of lyrics telop, the output of guide vocals, the output of basic sound effects and the output of additional sound effects are set to “none”. In the case of Beginner B, the narration voice output is set to “Yes”. Also, the display of narration text, the display of lyrics telop, the output of guide vocals, the output of basic sound effects and the output of additional sound effects are set to “none”. When the exercise level rises from beginner A to beginner B and the user 41 gets used to the exercise to some extent, it is enough to output either narration text or narration voice. Here, it is possible to increase the amount of narration information transmitted to the user 41 in the voice rather than in the text. Therefore, narration text is not displayed and narration voice is output. Thereby, the user 41 can concentrate on an exercise | movement, listening to a narration audio | voice by not seeing a narration sentence.

中級Aの場合、歌詞のテロップの表示及びガイドボーカルの出力が、「あり」に設定される。また、ナレーション文章の表示、ナレーション音声の出力、基本効果音の出力及び追加効果音の出力は、「なし」に設定される。中級Bの場合、歌詞のテロップの表示が、「あり」に設定される。また、ナレーション文章の表示、ナレーション音声の出力、ガイドボーカルの出力、基本効果音の出力及び追加効果音の出力は、「なし」に設定される。運動レベルが中級Aから中級Bに上がり、利用者41が歌唱を習得してくる。すると、ガイドボーカルがなくても、利用者41は、歌詞を見ながら或る程度正しい音程で歌唱することができる。また、歌唱に慣れてきた利用者41は、ガイドボーカルを気にしないで、運動しながら歌唱することができる。   In the case of Intermediate A, the display of the lyrics telop and the output of the guide vocal are set to “Yes”. The display of the narration text, the output of the narration sound, the output of the basic sound effect, and the output of the additional sound effect are set to “none”. In the case of Intermediate B, the display of the lyrics telop is set to “Yes”. The display of narration text, the output of narration voice, the output of guide vocals, the output of basic sound effects, and the output of additional sound effects are set to “none”. The exercise level rises from intermediate A to intermediate B, and the user 41 learns to sing. Then, even if there is no guide vocal, the user 41 can sing with a certain correct pitch while watching the lyrics. Moreover, the user 41 who has become accustomed to singing can sing while exercising without worrying about guide vocals.

上級Aの場合、歌詞のテロップの表示、及び基本効果音の出力が、「あり」に設定される。また、ナレーション文章の表示、ナレーション音声の出力、ガイドボーカルの出力及び追加効果音の出力は、「なし」に設定される。上級Bの場合、歌詞のテロップの表示、基本効果音の出力及び追加効果音の出力が、「あり」に設定される。また、ナレーション文章の表示、ナレーション音声の出力、及びガイドボーカルの出力は、「なし」に設定される。上級においては、運動レベルが上がることに従って、効果音が増える。これにより、利用者41の気分を段階的に盛り上げることができる。   In the case of Advanced A, the display of lyrics telop and the output of basic sound effects are set to “Yes”. The display of the narration text, the output of the narration voice, the output of the guide vocal and the output of the additional sound effect are set to “none”. In the case of Advanced B, the display of lyrics telop, the output of basic sound effects, and the output of additional sound effects are set to “Yes”. The display of the narration text, the output of the narration voice, and the output of the guide vocal are set to “none”. In the advanced level, sound effects increase as the exercise level increases. Thereby, the user's 41 mood can be raised in steps.

次に、図3を用いて、運動レベルに応じた実際の運動コンテンツの内容の決定例について説明する。本実施形態において、出力端末5は、運動レッスンにおいて楽曲が出力されているとき、1つの演奏パートの出力が終了するごとに、利用者41の運動の評価値を計算する。出力端末5は、評価値に基づいて運動レベルを決定する。そして、出力端末5は、運動レベルに基づいて、次の演奏パートが出力される間の運動コンテンツの内容を決定する。例えば、図2(B)に示す設定例に従って、運動コンテンツの内容が決定されるものとする。なお、出力端末5は、例えば、演奏パートの出力が終了するタイミングと異なるタイミングで、運動レベルを決定してもよい。また、出力端末5は、例えば、運動レッスンが開始されるときにのみ、運動レベルを決定してもよい。そして、CPU51は、最初に決定された運動レベルに基づいて、楽曲を構成する全ての演奏パートが順次出力される間の運動コンテンツの内容を決定してもよい。   Next, an example of determining the actual content of exercise content according to the exercise level will be described with reference to FIG. In this embodiment, the output terminal 5 calculates the exercise evaluation value of the user 41 every time the output of one performance part is completed when music is being output in the exercise lesson. The output terminal 5 determines the exercise level based on the evaluation value. Then, the output terminal 5 determines the content of the exercise content while the next performance part is output based on the exercise level. For example, it is assumed that the content of exercise content is determined according to the setting example illustrated in FIG. The output terminal 5 may determine the exercise level at a timing different from the timing at which the performance part output ends, for example. The output terminal 5 may determine the exercise level only when an exercise lesson is started, for example. Then, the CPU 51 may determine the content of the exercise content while all performance parts constituting the music are sequentially output based on the exercise level determined first.

ある楽曲Xは、例えば、Aメロ1、Bメロ1、サビ1、間奏1、Aメロ2、Bメロ2、サビ2の順で、演奏パートが出力されるとする。本実施形態においては、楽曲と演奏パートの種類との組み合わせに対応する運動動作が予め定められている。図3の例では、楽曲XのAメロ1及びAメロ2には、運動動作1が割り当てられる。楽曲XのBメロ1及びBメロ2には、運動動作2が割り当てられる。楽曲Xのサビ1には、運動動作3が割り当てられる。楽曲Xの間奏1には、運動動作4が割り当てられる。楽曲Xのサビ2には、運動動作5が割り当てられる。楽曲の中で演奏順が最後のサビ部分の運動動作は、他のサビ部分の運動動作と部分的に異なっていてもよい。また、本実施形態においては、運動動作と運動負荷との組み合わせごとに、組み合わせに対応するナレーション文章、ナレーション音声、基本効果音及び追加効果音がある。また、演奏パートごとに、演奏パートに対応する歌詞のテロップ及びガイドボーカルがある。   For a certain music X, for example, it is assumed that performance parts are output in the order of A melody 1, B melody 1, chorus 1, interlude 1, A melody 2, B melody 2, chorus 2. In the present embodiment, an exercise operation corresponding to a combination of a music piece and a performance part type is predetermined. In the example of FIG. 3, the exercise action 1 is assigned to the A melody 1 and the A melody 2 of the music piece X. The motion motion 2 is assigned to B melody 1 and B melody 2 of the music piece X. A movement motion 3 is assigned to the chorus 1 of the music piece X. The movement 1 is assigned to the interlude 1 of the music piece X. The movement 2 is assigned to the chorus 2 of the music piece X. The movement movement of the last chorus part in the music order in the music may be partially different from the movement movement of other chorus parts. In the present embodiment, for each combination of exercise motion and exercise load, there are narration text, narration sound, basic sound effect, and additional sound effect corresponding to the combination. For each performance part, there is a lyrics telop and a guide vocal corresponding to the performance part.

図3(A)は、Aメロ1が出力される時点の運動コンテンツの内容を示す。運動レッスンを開始するとき、操作者42は、例えば、楽曲Xを指定し、運動負荷として負荷1を指定したとする。運動レッスンを開始するときは、例えば、出力端末5が、予め設定された運動レベルを、運動レッスンを行う利用者41の運動レベルとして決定したとする。例えば、出力端末5は、運動レベルとして中級Bを決定する。Aメロ1が出力され、運動負荷が負荷1である運動動作1の運動映像が表示されているとき、出力端末5は、Aメロ1に対応する歌詞のテロップを表示させる。一方、出力端末5は、ナレーション文章、ナレーション音声、ガイドボーカル、基本効果音及び追加効果音を出力させない。   FIG. 3A shows the content of the exercise content at the time when A melody 1 is output. When starting an exercise lesson, it is assumed that the operator 42 specifies, for example, the music piece X and the load 1 as the exercise load. When starting an exercise lesson, for example, it is assumed that the output terminal 5 determines a preset exercise level as the exercise level of the user 41 performing the exercise lesson. For example, the output terminal 5 determines Intermediate B as the exercise level. When A melody 1 is output and an exercise image of exercise operation 1 with an exercise load of load 1 is displayed, the output terminal 5 displays a telop of lyrics corresponding to the A melody 1. On the other hand, the output terminal 5 does not output narration text, narration voice, guide vocal, basic sound effects, and additional sound effects.

図3(B)は、Bメロ1が出力される時点の運動コンテンツの内容を示す。Aメロ1の出力が終了したとき、出力端末5は、利用者41により行われた運動動作1の評価値を計算する。そして、出力端末5は、評価値に基づいて、運動レベルとして初級Bを決定したとする。この場合、Bメロ1が出力され、運動負荷が負荷1である運動動作2の運動映像が表示されているとき、出力端末5は、負荷1の運動動作2に対応するナレーション音声を出力させる。一方、出力端末5は、ナレーション文章、歌詞のテロップ、ガイドボーカル、基本効果音及び追加効果音を出力させない。   FIG. 3B shows the content of the exercise content at the time when the B melody 1 is output. When the output of the A melody 1 is completed, the output terminal 5 calculates an evaluation value of the exercise action 1 performed by the user 41. Then, it is assumed that the output terminal 5 determines the beginner level B as the exercise level based on the evaluation value. In this case, when the B melody 1 is output and the motion image of the motion motion 2 in which the motion load is the load 1 is displayed, the output terminal 5 outputs the narration sound corresponding to the motion motion 2 of the load 1. On the other hand, the output terminal 5 does not output narration sentences, lyrics telops, guide vocals, basic sound effects, and additional sound effects.

図3(C)は、サビ1が出力される時点の運動コンテンツの内容を示す。Bメロ1の出力が終了したとき、出力端末5は、利用者41により行われた運動動作2の評価値を計算する。そして、出力端末5は、評価値に基づいて、運動レベルとして中級Aを決定したとする。この場合、サビ1が出力され、運動負荷が負荷1である運動動作3の運動映像が表示されているとき、出力端末5は、サビ1に対応する歌詞のテロップを表示させ、且つ、ガイドボーカルを出力させる。一方、出力端末5は、ナレーション文章、ナレーション音声、基本効果音及び追加効果音を出力させない。   FIG. 3C shows the content of the exercise content at the time when the chorus 1 is output. When the output of the B melody 1 is completed, the output terminal 5 calculates the evaluation value of the exercise motion 2 performed by the user 41. Then, it is assumed that the output terminal 5 determines Intermediate A as the exercise level based on the evaluation value. In this case, when the chorus 1 is output and the exercise image of the exercise action 3 in which the exercise load is the load 1 is displayed, the output terminal 5 displays the telop of the lyrics corresponding to the chorus 1 and the guide vocal Is output. On the other hand, the output terminal 5 does not output narration text, narration voice, basic sound effects, and additional sound effects.

図3(D)は、サビ2が出力される時点の運動コンテンツの内容を示す。サビ1からBメロ2までの各演奏パートの出力が終了するごとに、出力端末5は、運動レベルとして上級Aを決定したとする。この場合、各演奏パートの出力中、出力端末5は、演奏パートに対応する歌詞のテロップを表示させ、且つ、演奏パートに割り当てられた負荷1の運動動作に対応する基本効果音を出力させる。一方、出力端末5は、ナレーション文章、ナレーション音声、ガイドボーカル及び追加効果音を出力させない。   FIG. 3D shows the content of the exercise content at the time when the chorus 2 is output. It is assumed that the output terminal 5 determines the upper grade A as the exercise level every time the output of each performance part from the chorus 1 to the B melody 2 is completed. In this case, during the output of each performance part, the output terminal 5 displays the telop of the lyrics corresponding to the performance part and outputs the basic sound effect corresponding to the motion operation of the load 1 assigned to the performance part. On the other hand, the output terminal 5 does not output narration text, narration voice, guide vocal, and additional sound effects.

[3.各装置の構成]
次に、図1を参照して、運動コンテンツ生成システムに含まれる各装置の構成について説明する。
[3. Configuration of each device]
Next, the configuration of each device included in the athletic content generation system will be described with reference to FIG.

[3−1.配信サーバ2の構成]
図1に示すように、配信サーバ2は、CPU21、ROM22、RAM23、バス24、I/Oインタフェイス25、表示制御部26、ディスクドライブ28、ネットワーク通信部30及びHDD(ハードディスクドライブ)37を備える。CPU21は、バス24を介して、ROM22、RAM23及びI/Oインタフェイス25に接続されている。CPU21は、ROM22やHDD37に記憶されプログラムを実行することにより、配信サーバ2の各部を制御する。I/Oインタフェイス25には、データベース3、表示制御部26、ディスクドライブ28、ネットワーク通信部30、キーボード31、マウス32及びHDD37が接続されている。CPU21は、I/Oインタフェイス25を介してデータベース3にアクセスする。表示制御部26は、CPU21の制御に基づいて映像信号をモニタ57に出力する。ディスクドライブ28は、記録媒体29に対するデータの書き込み及び読み出しを行う。ネットワーク通信部30は、配信サーバ2がネットワーク10に接続するための制御を行う。HDD37には、OSや各種制御プログラム等が記憶されている。
[3-1. Configuration of distribution server 2]
As shown in FIG. 1, the distribution server 2 includes a CPU 21, a ROM 22, a RAM 23, a bus 24, an I / O interface 25, a display control unit 26, a disk drive 28, a network communication unit 30, and an HDD (hard disk drive) 37. . The CPU 21 is connected to the ROM 22, RAM 23, and I / O interface 25 via the bus 24. The CPU 21 controls each unit of the distribution server 2 by executing a program stored in the ROM 22 or the HDD 37. Connected to the I / O interface 25 are a database 3, a display control unit 26, a disk drive 28, a network communication unit 30, a keyboard 31, a mouse 32, and an HDD 37. The CPU 21 accesses the database 3 via the I / O interface 25. The display control unit 26 outputs a video signal to the monitor 57 based on the control of the CPU 21. The disk drive 28 writes data to and reads data from the recording medium 29. The network communication unit 30 performs control for the distribution server 2 to connect to the network 10. The HDD 37 stores an OS, various control programs, and the like.

データベース3には、楽曲データ、モーションデータ、ナレーション文章データ、ナレーション音声データ、歌詞データ、ガイドボーカルデータ、基本効果音データ、追加効果音データ、教師音高データ、教師座標データ、レッスン設定表等のデータが登録されている。   Database 3 includes music data, motion data, narration text data, narration voice data, lyrics data, guide vocal data, basic sound effect data, additional sound effect data, teacher pitch data, teacher coordinate data, lesson setting table, etc. Data is registered.

楽曲データは、スピーカ64により楽曲を出力するための演奏データである。楽曲データは、例えば、MIDI(Musical Instrument Digital Interface)形式のデータであってもよい。楽曲データは、楽曲ID、楽曲名、アーティスト名、オリジナルのテンポ、楽曲の演奏パートの構成、歌詞等の情報を含む。楽曲IDは、楽曲の識別情報である。また、楽曲データは、演奏パートの切り替わりのタイミング等を規定する。例えば、楽曲データがMIDI形式のデータである場合、楽曲データには、実際の演奏データとしてのMIDIイベントに加えて、メタイベントを含めることができる。メタイベントとしては、例えば、演奏パートを示すマーカーイベント等がある。そのため、演奏パートを識別するパートIDや演奏パートの種類を示すパート種別をイベントとして楽曲データに記述することが可能である。例えば、出力端末5には、後述のミュージックシーケンサがインストールされている。出力端末5は、ミュージックシーケンサを実行することにより、楽曲データを再生するとともに、楽曲データからメタイベント等を読み出すと、読み出したイベントを出力する。例えば、マーカーイベントが出力されるタイミングが、そのマーカーイベントが示す演奏パートが開始されるタイミングとなる。本実施形態においては、マーカーイベントを、演奏パート開始イベントという。演奏パート開始イベントは、演奏パートの演奏開始を通知するイベントである。演奏パート開始イベントは、パートID及びパート種別を含む。楽曲データは、本発明における楽曲情報の一例である。   The music data is performance data for outputting music from the speaker 64. The music data may be, for example, data in MIDI (Musical Instrument Digital Interface) format. The song data includes information such as song ID, song name, artist name, original tempo, composition of performance part of song, lyrics and the like. The music ID is music identification information. In addition, the music data defines the timing of switching performance parts. For example, if the music data is data in the MIDI format, the music data can include a meta event in addition to the MIDI event as actual performance data. Examples of the meta event include a marker event indicating a performance part. Therefore, a part ID for identifying a performance part and a part type indicating the type of a performance part can be described in the music data as events. For example, a music sequencer described later is installed in the output terminal 5. The output terminal 5 reproduces music data by executing the music sequencer, and outputs a read event when reading a meta event or the like from the music data. For example, the timing at which the marker event is output is the timing at which the performance part indicated by the marker event is started. In the present embodiment, the marker event is referred to as a performance part start event. The performance part start event is an event that notifies the performance start of the performance part. The performance part start event includes a part ID and a part type. The music data is an example of music information in the present invention.

モーションデータは、三次元仮想空間におけるフィギュア83の動作を定義するデータである。モーションデータは、ディスプレイ67にフィギュア83の運動動作を表示させるためのデータである。モーションデータは、運動動作の進行に応じたフィギュア83の身体の各部の座標を含む。モーションデータは、各運動動作について運動負荷ごとに登録される。モーションデータは、例えば、モーションIDと対応付けて登録される。モーションIDは、運動動作と運動負荷との組み合わせを識別する識別情報である。モーションIDは、例えば、運動負荷、楽曲ID及びパート種別から構成されてもよい。運動負荷は、運動動作により身体に与える負荷の大きさを示す。運動負荷として、例えば、負荷1、負荷2等が設定される。楽曲ID及びパート種別は、運動動作が割り当てられる楽曲及び演奏パートの種類を示す。モーションデータは、本発明における動作情報の一例である。   The motion data is data that defines the operation of the figure 83 in the three-dimensional virtual space. The motion data is data for displaying the motion motion of the figure 83 on the display 67. The motion data includes the coordinates of each part of the body of the figure 83 according to the progress of the motion movement. The motion data is registered for each exercise load for each exercise operation. The motion data is registered in association with the motion ID, for example. The motion ID is identification information that identifies a combination of an exercise action and an exercise load. The motion ID may be composed of, for example, exercise load, music ID, and part type. The exercise load indicates the magnitude of the load applied to the body by the exercise operation. As the exercise load, for example, a load 1, a load 2, and the like are set. The music ID and the part type indicate the types of music and performance parts to which exercise motion is assigned. Motion data is an example of operation information in the present invention.

ナレーション文章データは、ナレーション文章を表示するためのデータである。ナレーション文章データは、例えば、ナレーション文章のテキスト、テキストの表示タイミング等を含む。表示タイミングは、例えば、ナレーションに対応する運動動作が割り当てられた演奏パートの演奏が開始されてからの経過時間で示されてもよい。ナレーション文章データは、例えば、ナレーション文章IDとモーションIDとに対応付けて登録される。ナレーション文章IDは、ナレーション文章の識別情報である。モーションIDは、ナレーション文章が表示される運動動作を示す。ナレーション文章データは、本発明における第1の指導情報の一例である。   Narration text data is data for displaying a narration text. The narration text data includes, for example, the text of the narration text, the display timing of the text, and the like. The display timing may be indicated by, for example, an elapsed time since the performance of the performance part to which the motion corresponding to the narration is assigned is started. Narration text data is registered in association with, for example, a narration text ID and a motion ID. The narration text ID is identification information of the narration text. The motion ID indicates an exercise operation in which a narration text is displayed. Narration text data is an example of the first instruction information in the present invention.

ナレーション音声データは、ナレーション音声を出力するためのデータである。ナレーション音声データのデータ形式は、例えば、WAV(RIFF waveform Audio Format)、AAC(Advanced Audio Coding)、MP3(MPEG Audio Layer-3)等であってもよい。例えば、ナレーション音声の再生時間が、ナレーション音声に対応する運動動作が割り当てられる演奏パートの再生時間と一致するように、ナレーション音声データが予め作成されてもよい。ナレーション音声データは、例えば、ナレーション音声IDとモーションIDとに対応付けて登録される。ナレーション音声IDは、ナレーション音声の識別情報である。モーションIDは、ナレーション音声が出力される運動動作を示す。ナレーション音声データは、本発明における第2の指導情報の一例である。   Narration voice data is data for outputting narration voice. The data format of the narration audio data may be, for example, WAV (RIFF waveform Audio Format), AAC (Advanced Audio Coding), MP3 (MPEG Audio Layer-3), or the like. For example, the narration sound data may be created in advance so that the playback time of the narration sound matches the playback time of a performance part to which an exercise motion corresponding to the narration sound is assigned. Narration voice data is registered in association with, for example, a narration voice ID and a motion ID. The narration voice ID is identification information of the narration voice. The motion ID indicates an exercise operation in which narration sound is output. Narration voice data is an example of the second instruction information in the present invention.

歌詞データは、歌詞のテロップを表示するためのデータである。歌詞データは、例えば、歌詞のテキスト、テキストの表示タイミング等を含む。表示タイミングは、例えば、演奏パートの演奏が開始されてからの経過時間で示されてもよい。歌詞データは、例えば、歌詞ID、楽曲ID及びパートIDに対応付けて登録される。歌詞IDは、歌詞の識別情報である。楽曲ID及びパートIDは、歌詞が対応する楽曲及び演奏パートを示す。歌詞データは、本発明における第1の歌詞情報の一例である。   The lyrics data is data for displaying lyrics telop. The lyric data includes, for example, lyric text, text display timing, and the like. The display timing may be indicated by, for example, an elapsed time since the performance of the performance part is started. The lyrics data is registered in association with, for example, a lyrics ID, a music ID, and a part ID. The lyrics ID is lyrics identification information. The song ID and the part ID indicate the song and performance part to which the lyrics correspond. The lyric data is an example of first lyric information in the present invention.

ガイドボーカルデータは、ガイドボーカルを出力するためのデータである。ガイドボーカルデータのデータ形式は、例えば、WAV、AAC、MP3等であってもよい。例えば、ガイドボーカルの再生時間が、ガイドボーカルに対応する演奏パートの再生時間と一致するように、ガイドボーカルデータが予め作成されてもよい。ガイドボーカルデータは、例えば、ガイドボーカルID、楽曲ID及びパートIDに対応付けて登録される。ガイドボーカルIDは、ガイドボーカルの識別情報である。楽曲ID及びパートIDは、ガイドボーカルが対応する楽曲及び演奏パートを示す。ガイドボーカルデータは、本発明における第2の歌詞情報の一例である。   The guide vocal data is data for outputting a guide vocal. The data format of the guide vocal data may be WAV, AAC, MP3, etc., for example. For example, guide vocal data may be created in advance so that the reproduction time of the guide vocal coincides with the reproduction time of the performance part corresponding to the guide vocal. The guide vocal data is registered in association with, for example, a guide vocal ID, a song ID, and a part ID. The guide vocal ID is guide vocal identification information. The music ID and part ID indicate the music and performance part to which the guide vocal corresponds. Guide vocal data is an example of the second lyric information in the present invention.

基本効果音データは、基本効果音を出力するためのデータである。基本効果音データのデータ形式は、例えば、WAV、AAC、MP3等であってもよい。例えば、基本効果音の再生時間が、基本効果音に対応する運動動作が割り当てられる演奏パートの再生時間と一致するように、基本効果音データが予め作成されてもよい。基本効果音データは、例えば、基本効果音ID、楽曲ID及びパートIDに対応付けて登録される。基本効果音IDは、基本効果音の識別情報である。楽曲ID及びパートIDは、基本効果音が対応する楽曲及び演奏パートを示す。   The basic sound effect data is data for outputting a basic sound effect. The data format of the basic sound effect data may be WAV, AAC, MP3, etc., for example. For example, the basic sound effect data may be created in advance so that the playback time of the basic sound effects coincides with the playback time of the performance part to which the motion corresponding to the basic sound effects is assigned. The basic sound effect data is registered in association with, for example, a basic sound effect ID, a song ID, and a part ID. The basic sound effect ID is basic sound effect identification information. The music ID and the part ID indicate the music and performance part to which the basic sound effect corresponds.

追加効果音データは、追加効果音を出力するためのデータである。追加効果音データのデータ形式は、例えば、WAV、AAC、MP3等であってもよい。例えば、追加効果音の再生時間が、追加効果音に対応する運動動作が割り当てられる演奏パートの再生時間と一致するように、追加効果音データが予め作成されてもよい。追加効果音データは、例えば、追加効果音ID、楽曲ID及びパートIDに対応付けて登録される。追加効果音IDは、追加効果音の識別情報である。楽曲ID及びパートIDは、追加効果音が対応する楽曲及び演奏パートを示す。   The additional sound effect data is data for outputting the additional sound effect. The data format of the additional sound effect data may be WAV, AAC, MP3, or the like, for example. For example, the additional sound effect data may be created in advance so that the playback time of the additional sound effect matches the playback time of the performance part to which the motion corresponding to the additional sound effect is assigned. The additional sound effect data is registered in association with, for example, the additional sound effect ID, the music ID, and the part ID. The additional sound effect ID is identification information of the additional sound effect. The music ID and the part ID indicate the music and performance part to which the additional sound effect corresponds.

教師音高データは、楽曲を歌唱するときの歌唱音声の音高の基準を示すデータである。教師音高データは、利用者41の歌唱の評価値を計算するために用いられる。教師音高データは楽曲ごとに登録される。例えば、教師音高データには、楽曲の演奏開始からの経過時間と、その経過時間における歌唱音声の正しい音高値とが、予め定められた時間間隔ごとに対応付けて登録される。この時間間隔を、設定時間間隔という。教師音高データは、例えば、楽曲IDに対応付けて登録される。楽曲IDは、教師音高データが用いられる楽曲を示す。   The teacher pitch data is data indicating a reference for the pitch of the singing voice when the song is sung. The teacher pitch data is used to calculate the evaluation value of the user 41 singing. Teacher pitch data is registered for each song. For example, in the teacher pitch data, an elapsed time from the start of music performance and a correct pitch value of the singing voice at the elapsed time are registered in association with each other at predetermined time intervals. This time interval is called a set time interval. The teacher pitch data is registered in association with the music ID, for example. The music ID indicates a music for which the teacher pitch data is used.

教師座標データは、利用者41が運動するときの身体の動きの基準を示す。教師座標データは、運動動作を行うときの利用者41の各身体部位の三次元空間における座標の基準を示すデータである。教師座標データは、利用者41の運動の評価値を計算するために用いられる。教師座標データは、各運動動作について運動負荷ごとに登録される。例えば、教師座標データには、運動動作の開始からの経過時間と、その経過時間における各身体部位の正しい座標とが、予め定められた時間間隔ごとに対応付けて登録される。この間隔は、例えば、教師音高データの設定時間間隔と同じであってもよい。例えば、配信サーバ2が、モーションデータに基づいて、教師座標データを生成してもよい。教師座標データは、例えば、モーションIDに対応付けて登録される。モーションIDは、教師座標データが用いられる運動動作を示す。教師座標データは、本発明における基準情報の一例である。   The teacher coordinate data indicates a reference for body movement when the user 41 exercises. The teacher coordinate data is data indicating a reference of coordinates in the three-dimensional space of each body part of the user 41 when performing an exercise operation. The teacher coordinate data is used to calculate an evaluation value of the motion of the user 41. The teacher coordinate data is registered for each exercise load for each exercise operation. For example, in the teacher coordinate data, the elapsed time from the start of the exercise operation and the correct coordinates of each body part in the elapsed time are registered in association with each other at predetermined time intervals. This interval may be the same as the set time interval of the teacher pitch data, for example. For example, the distribution server 2 may generate teacher coordinate data based on the motion data. The teacher coordinate data is registered in association with the motion ID, for example. The motion ID indicates an exercise operation in which teacher coordinate data is used. The teacher coordinate data is an example of the reference information in the present invention.

レッスン設定表は、運動レッスンを設定するための設定値が登録されるテーブルである。レッスン設定表は、例えば、図2(A)や図2(B)に示す表に相当する情報である。レッスン設定表には、コンテンツタイプごとに設定値が登録される。具体的に、コンテンツタイプに対応付けて、運動負荷、ナレーション文章有無、ナレーション音声有無、歌詞有無、ガイドボーカル有無、基本効果音有無、追加効果音有無等が登録される。ナレーション文章有無は、ナレーション文章の表示があるかないかを示す。ナレーション音声有無は、ナレーション音声の出力があるかないかを示す。歌詞有無は、歌詞の表示があるかないかを示す。ガイドボーカル有無は、ガイドボーカルの出力があるかないかを示す。基本効果音有無は、基本効果音の出力があるかないかを示す。追加効果音有無は、追加効果音の出力があるかないかを示す。   The lesson setting table is a table in which setting values for setting exercise lessons are registered. The lesson setting table is information corresponding to, for example, the tables shown in FIGS. 2 (A) and 2 (B). In the lesson setting table, setting values are registered for each content type. Specifically, exercise load, narration sentence presence / absence, narration voice presence / absence, lyrics presence / absence, guide vocal presence / absence, basic sound effect presence / absence, additional sound effect presence / absence, etc. are registered in association with the content type. The presence / absence of a narration text indicates whether or not a narration text is displayed. The presence / absence of narration voice indicates whether or not narration voice is output. The presence / absence of lyrics indicates whether or not there is a display of lyrics. The presence / absence of a guide vocal indicates whether there is a guide vocal output. The presence / absence of a basic sound effect indicates whether or not a basic sound effect is output. The presence / absence of an additional sound effect indicates whether or not there is an output of the additional sound effect.

[3−2.出力端末5の構成]
図1に示すように、出力端末5は、CPU51、ROM52、RAM53、バス54、I/Oインタフェイス55、表示制御部56、ディスクドライブ58、ネットワーク通信部60、音声出力部63、信号受信部65、センサ情報受信部69及びHDD7を備える。CPU51は、バス54を介して、ROM52、RAM53及びI/Oインタフェイス55に接続されている。CPU51は、時計機能及びタイマー機能を有する。CPU51は、ROM52やHDD7に記憶されプログラムを実行することにより、出力端末5の各部を制御する。I/Oインタフェイス55には、HDD7、表示制御部56、音声出力部63、ディスクドライブ58、ネットワーク通信部60、キーボード61、マウス62、マイク68、信号受信部65及びセンサ情報受信部69が接続されている。表示制御部56は、CPU51の制御に基づいて映像信号をモニタ57に出力する。音声出力部63は、CPU51の制御に基づいて音声信号をモニタ57に出力する。ディスクドライブ58は、記録媒体59に対するデータの書き込み及び読み出しを行う。信号受信部65は、リモコン66から出力される信号を受信する。リモコン66は、操作者42が出力端末5を操作するためのものである。センサ情報受信部69は、各加速度センサASから送信される加速度情報を受信する。加速度情報は、加速度センサASが検出した加速度を含む。
[3-2. Configuration of output terminal 5]
As shown in FIG. 1, the output terminal 5 includes a CPU 51, a ROM 52, a RAM 53, a bus 54, an I / O interface 55, a display control unit 56, a disk drive 58, a network communication unit 60, an audio output unit 63, and a signal receiving unit. 65, a sensor information receiving unit 69 and an HDD 7. The CPU 51 is connected to the ROM 52, RAM 53, and I / O interface 55 via the bus 54. The CPU 51 has a clock function and a timer function. The CPU 51 controls each unit of the output terminal 5 by executing a program stored in the ROM 52 or the HDD 7. The I / O interface 55 includes an HDD 7, a display control unit 56, an audio output unit 63, a disk drive 58, a network communication unit 60, a keyboard 61, a mouse 62, a microphone 68, a signal reception unit 65, and a sensor information reception unit 69. It is connected. The display control unit 56 outputs a video signal to the monitor 57 based on the control of the CPU 51. The audio output unit 63 outputs an audio signal to the monitor 57 based on the control of the CPU 51. The disk drive 58 writes and reads data to and from the recording medium 59. The signal receiving unit 65 receives a signal output from the remote controller 66. The remote controller 66 is for the operator 42 to operate the output terminal 5. The sensor information receiving unit 69 receives acceleration information transmitted from each acceleration sensor AS. The acceleration information includes the acceleration detected by the acceleration sensor AS.

HDD7は、本発明の記憶手段の一例である。HDD7には、配信サーバ2から配信された楽曲データ、モーションデータ、ナレーション文章データ、ナレーション音声データ、歌詞データ、ガイドボーカルデータ、基本効果音データ、追加効果音データ、教師音高データ、教師座標データ、レッスン設定表等のデータが登録される。   The HDD 7 is an example of a storage unit of the present invention. In the HDD 7, music data, motion data, narration text data, narration voice data, lyrics data, guide vocal data, basic sound effect data, additional sound effect data, teacher pitch data, teacher coordinate data distributed from the distribution server 2 Data such as lesson setting table is registered.

また、HDD7には、レッスン情報が記憶される。レッスン情報は、運動レッスンの構成及び運動コンテンツの内容を定めた情報である。レッスン情報は、例えば、図3(A)〜(D)に示すような運動レッスンの構成を表す。例えば、操作者42の操作に基づいて、出力端末5がレッスン情報を生成してもよい。レッスン情報は、例えば、楽曲IDを含む。楽曲IDは、運動レッスンが行われるときに出力される楽曲を示す。また、レッスン情報は、複数のパート情報を含む。パート情報は、楽曲IDが示す楽曲を構成する演奏パートに関連する情報である。パート情報は、演奏パートごとに登録される。パート情報は、例えば、パートID、パート種別、モーションID、ナレーション文章有無、ナレーション文章ID、ナレーション音声有無、ナレーション音声ID、歌詞有無、歌詞ID、ガイドボーカル有無、ガイドボーカルID、基本効果音有無、基本効果音ID、追加効果音有無、追加効果音ID等を含む。パートIDは、演奏パートの識別情報である。パート種別は、パートIDが示す演奏パートの種類を示す。モーションIDは、演奏パートに割り当てられた運動動作を示す。ナレーション文章IDは、表示されるナレーション文章の識別情報である。ナレーション文章IDは、ナレーション文章有無が「あり」に設定されている場合に登録される。ナレーション音声IDは、出力されるナレーション音声の識別情報である。ナレーション音声IDは、ナレーション音声有無が「あり」に設定されている場合に登録される。歌詞IDは、表示される歌詞の識別情報である。歌詞IDは、歌詞有無が「あり」に設定されている場合に登録される。ガイドボーカルIDは、出力されるガイドボーカルの識別情報である。ガイドボーカルIDは、ガイドボーカル有無が「あり」に設定されている場合に登録される。基本効果音IDは、表示される基本効果音の識別情報である。基本効果音IDは、基本効果音有無が「あり」に設定されている場合に登録される。追加効果音IDは、表示される追加効果音の識別情報である。追加効果音IDは、追加効果音有無が「あり」に設定されている場合に登録される。   The HDD 7 stores lesson information. The lesson information is information that defines the structure of the exercise lesson and the content of the exercise content. The lesson information represents, for example, the configuration of exercise lessons as shown in FIGS. For example, the output terminal 5 may generate lesson information based on the operation of the operator 42. The lesson information includes, for example, a music ID. The music ID indicates a music that is output when an exercise lesson is performed. The lesson information includes a plurality of part information. The part information is information related to the performance part constituting the music indicated by the music ID. Part information is registered for each performance part. Part information includes, for example, part ID, part type, motion ID, narration text presence / absence, narration text ID, narration voice presence / absence, narration voice ID, lyrics presence / absence, lyrics ID, guide vocal presence / absence, guide vocal ID, basic sound effect presence / absence, Includes basic sound effect ID, presence / absence of additional sound effect, additional sound effect ID, and the like. The part ID is performance part identification information. The part type indicates the type of performance part indicated by the part ID. The motion ID indicates an exercise motion assigned to the performance part. The narration text ID is identification information of the displayed narration text. The narration text ID is registered when the narration text presence / absence is set to “Yes”. The narration voice ID is identification information of the narration voice to be output. The narration voice ID is registered when the narration voice presence / absence is set to “present”. The lyrics ID is identification information of the displayed lyrics. The lyrics ID is registered when the presence / absence of the lyrics is set to “Yes”. The guide vocal ID is identification information of the output guide vocal. The guide vocal ID is registered when the presence / absence of the guide vocal is set to “present”. The basic sound effect ID is identification information of the displayed basic sound effect. The basic sound effect ID is registered when the presence or absence of the basic sound effect is set to “present”. The additional sound effect ID is identification information of the displayed additional sound effect. The additional sound effect ID is registered when the presence or absence of the additional sound effect is set to “present”.

HDD7には、更に、OS、運動支援プログラム、3Dエンジン、ミュージックシーケンサ等の各種プログラム等が記憶されている。運動支援プログラムは、利用者41の運動を支援するためのプログラムである。運動支援プログラムは、コンピュータとしてのCPU51に、決定ステップ、第1制御ステップ、第2制御ステップ、第3制御ステップ、第4制御ステップ、第5制御ステップを少なくとも実行させる。3Dエンジンは、モーションデータに基づいて、三次元仮想空間で運動動作するフィギュア83を二次元平面に投影した画像を生成するためのプログラムである。画像を生成する処理は、射影変換、クリッピング、隠面消去、シェーディング、テクスチャマッピング等を含む。CPU51は、3Dエンジンを実行して、静止画像を順次生成する。生成された静止画像をCPU51が表示制御部56へ順次出力することで、ディスプレイ67には、運動映像が表示される。   The HDD 7 further stores various programs such as an OS, an exercise support program, a 3D engine, and a music sequencer. The exercise support program is a program for supporting the exercise of the user 41. The exercise support program causes the CPU 51 as a computer to execute at least a determination step, a first control step, a second control step, a third control step, a fourth control step, and a fifth control step. The 3D engine is a program for generating an image obtained by projecting a figure 83 that moves in a three-dimensional virtual space onto a two-dimensional plane based on motion data. The process of generating an image includes projective transformation, clipping, hidden surface removal, shading, texture mapping, and the like. The CPU 51 executes the 3D engine and sequentially generates still images. The CPU 51 sequentially outputs the generated still image to the display control unit 56, whereby a motion image is displayed on the display 67.

ミュージックシーケンサは、楽曲データを再生するためのプログラムである。CPU51は、ミュージックシーケンサを実行することにより、楽曲データに対応する音声信号を生成する。また、CPU51は、ミュージックシーケンサを実行することにより、各種のイベントを発生させる。イベントとして、例えば、テンポに応じて所定時間間隔で発生するイベントがある。このイベントは、MIDIクロックや同期イベントと呼ばれる。また、イベントとして、例えば、演奏パート開始イベントがある。   The music sequencer is a program for reproducing music data. The CPU 51 generates a sound signal corresponding to the music data by executing the music sequencer. Further, the CPU 51 generates various events by executing the music sequencer. As an event, for example, there is an event that occurs at a predetermined time interval according to the tempo. This event is called a MIDI clock or synchronization event. As an event, for example, there is a performance part start event.

各種プログラムは、例えば、配信サーバ2等のサーバからネットワーク10を介してダウンロードされるようにしてもよい。また、各種プログラムは、記録媒体59に記録されてディスクドライブ58を介して読み込まれるようにしてもよい。なお、3Dエンジンやミュージックシーケンサは、プログラムではなく、専用のハードウェアであってもよい。そして、出力端末5は、ハードウェアとしての3Dエンジンやミュージックシーケンサを備えてもよい。   Various programs may be downloaded from the server such as the distribution server 2 via the network 10, for example. Various programs may be recorded on the recording medium 59 and read via the disk drive 58. The 3D engine and the music sequencer may be dedicated hardware instead of a program. The output terminal 5 may include a 3D engine or a music sequencer as hardware.

CPU51は、設定されたテンポに従って、楽曲データに対応する音声信号を音声出力部63へ出力させるとともに、生成した画像に対応する映像信号を表示制御部56から出力させる。CPU51は、同期イベントに基づいて、楽曲の音声信号の出力タイミングと運動映像の映像信号の出力タイミングとを同期させる。これにより、スピーカ64から出力される楽曲に同期して歌唱動作又は運動動作を行うフィギュア83がディスプレイ67に表示される。また、CPU51は、演奏パート開始イベントに基づいて、楽曲の演奏パートの切り替わり及び演奏が開始される演奏パートを検出する。   The CPU 51 outputs an audio signal corresponding to the music data to the audio output unit 63 and outputs a video signal corresponding to the generated image from the display control unit 56 according to the set tempo. Based on the synchronization event, the CPU 51 synchronizes the output timing of the music audio signal and the output timing of the motion video signal. As a result, the figure 83 that performs the singing motion or the motion motion in synchronization with the music output from the speaker 64 is displayed on the display 67. Further, the CPU 51 detects the performance part where the performance part is switched and the performance is started based on the performance part start event.

[4.運動コンテンツ生成システム1の動作]
次に、図4及び図5を参照して、運動コンテンツ生成システム1の動作を説明する。図4(A)は、出力端末5のCPU51のレッスン処理の処理例を示すフローチャートである。例えば、操作者42が、リモコン66等により、運動レッスンを開始させるための操作を行う。すると、CPU51は、レッスン処理を開始する。
[4. Operation of Exercise Content Generation System 1]
Next, the operation of the exercise content generation system 1 will be described with reference to FIGS. 4 and 5. FIG. 4A is a flowchart illustrating a processing example of the lesson processing of the CPU 51 of the output terminal 5. For example, the operator 42 performs an operation for starting an exercise lesson with the remote controller 66 or the like. Then, the CPU 51 starts a lesson process.

図4(A)に示すように、CPU51は、レッスン生成処理を実行する(ステップS1)。レッスン生成処理において、CPU51は、操作者42の指示に基づいて、レッスン情報を生成する。レッスン生成処理の詳細は後述する。次いで、CPU51は、レッスン実行処理を実行する(ステップS2)。レッスン実行処理において、CPU51は、生成されたレッスン情報に基づいて、運動コンテンツを再生する。利用者41は、再生される運動コンテンツに合わせて、運動レッスンを行う。レッスン実行処理の詳細は後述する。次いで、CPU51は、レッスン評価処理を実行する(ステップS3)。レッスン評価処理において、CPU51は、運動レッスンにおける利用者41の歌唱及び運動を評価する。レッスン評価処理の詳細は後述する。CPU51は、ステップS3の処理を終えると、レッスン処理を終了させる。   As shown in FIG. 4A, the CPU 51 executes a lesson generation process (step S1). In the lesson generation process, the CPU 51 generates lesson information based on an instruction from the operator 42. Details of the lesson generation process will be described later. Next, the CPU 51 executes a lesson execution process (step S2). In the lesson execution process, the CPU 51 reproduces the exercise content based on the generated lesson information. The user 41 performs an exercise lesson according to the exercise content to be reproduced. Details of the lesson execution process will be described later. Next, the CPU 51 executes a lesson evaluation process (step S3). In the lesson evaluation process, the CPU 51 evaluates the singing and exercise of the user 41 in the exercise lesson. Details of the lesson evaluation process will be described later. CPU51 complete | finishes a lesson process, after finishing the process of step S3.

図4(B)は、出力端末5のCPU51のレッスン生成処理の処理例を示すフローチャートである。図4(B)に示すように、CPU51は、運動レッスンに用いる楽曲の楽曲IDを取得する(ステップS11)。具体的に、CPU51は、ディスプレイ67に楽曲の一覧を表示させる。操作者42は、例えば、リモコン66を操作して、一覧の中から楽曲を選択する。CPU51は、リモコン66からセンサ情報受信部69を介して受信された信号に基づいて、操作者42が選択した楽曲の楽曲IDを特定する。   FIG. 4B is a flowchart illustrating a processing example of the lesson generation processing of the CPU 51 of the output terminal 5. As shown in FIG. 4B, the CPU 51 acquires the song ID of the song used for the exercise lesson (step S11). Specifically, the CPU 51 displays a list of music pieces on the display 67. For example, the operator 42 operates the remote controller 66 to select music from the list. The CPU 51 specifies the music ID of the music selected by the operator 42 based on the signal received from the remote controller 66 via the sensor information receiving unit 69.

次いで、CPU51は、運動負荷を取得する(ステップS12)。具体的に、CPU51は、運動負荷を選択するための画面を表示する。操作者42は、例えば、リモコン66を操作して選択を行う。すると、リモコン66は、操作に応じた信号を送信する。CPU51は、リモコン66から受信される信号に基づいて、運動負荷を特定する。   Next, the CPU 51 acquires an exercise load (step S12). Specifically, the CPU 51 displays a screen for selecting an exercise load. The operator 42 performs selection by operating the remote controller 66, for example. Then, the remote controller 66 transmits a signal corresponding to the operation. CPU 51 specifies an exercise load based on a signal received from remote controller 66.

次いで、CPU51は、運動レッスンを行う利用者41の運動レベルを決定する(ステップS13)。例えば、CPU51は、HDD7に予め記憶された運動レベルを、運動レッスンを行う利用者41に決定する。   Next, the CPU 51 determines the exercise level of the user 41 performing the exercise lesson (step S13). For example, the CPU 51 determines the exercise level stored in the HDD 7 in advance for the user 41 who performs an exercise lesson.

次いで、CPU51は、運動レッスンの設定値を取得する(ステップS14)。具体的に、CPU51は、運動負荷と運動レベルからコンテンツタイプを生成する。そして、CPU51は、レッスン設定表から、コンテンツタイプに対応する運動負荷、ナレーション文章有無、ナレーション音声有無、歌詞有無、ガイドボーカル有無、基本効果音有無、追加効果音有無を取得する。   Next, the CPU 51 acquires a set value for an exercise lesson (step S14). Specifically, the CPU 51 generates a content type from the exercise load and the exercise level. Then, the CPU 51 acquires from the lesson setting table the exercise load corresponding to the content type, narration sentence presence / absence, narration voice presence / absence, lyrics presence / absence, guide vocal presence / absence, basic sound effect presence / absence, and additional sound effect presence / absence.

次いで、CPU51は、レッスン情報を生成する(ステップS15)。具体的に、CPU51は、ステップS11で取得した楽曲IDを含むレッスン情報をHDD7に記憶させる。次いで、CPU51は、取得した楽曲IDに対応する楽曲データから、演奏順が1番目の演奏パート開始イベントを読み出す。次いで、CPU51は、取得した演奏パート開始イベントからパートID及びパート種別を取得する。次いで、CPU51は、取得したパートID及びパート種別を含むパート情報を生成する。次いで、CPU51は、運動負荷、楽曲ID及びパート種別から、モーションIDを生成する。次いで、CPU51は、生成したモーションIDをパート情報に追加する。次いで、CPU51は、取得したナレーション文章有無、ナレーション音声有無、歌詞有無、ガイドボーカル有無、基本効果音有無、追加効果音有無をパート情報に追加する。   Next, the CPU 51 generates lesson information (step S15). Specifically, the CPU 51 causes the HDD 7 to store lesson information including the music ID acquired in step S11. Next, the CPU 51 reads the performance part start event having the first performance order from the music data corresponding to the acquired music ID. Next, the CPU 51 acquires a part ID and a part type from the acquired performance part start event. Next, the CPU 51 generates part information including the acquired part ID and part type. Next, the CPU 51 generates a motion ID from the exercise load, the music ID, and the part type. Next, the CPU 51 adds the generated motion ID to the part information. Next, the CPU 51 adds the acquired narration text presence / absence, narration voice presence / absence, lyrics presence / absence, guide vocal presence / absence, basic sound effect presence / absence, and additional sound effect presence / absence to the part information.

ナレーション文章有無が「あり」に設定されている場合、CPU51は、モーションIDに対応するナレーション文章IDをHDD7から取得して、パート情報に追加する。ナレーション音声有無が「あり」に設定されている場合、CPU51は、モーションIDに対応するナレーション音声IDをHDD7から取得して、パート情報に追加する。歌詞有無が「あり」に設定されている場合、CPU51は、楽曲ID及びパートIDに対応する歌詞IDをHDD7から取得して、パート情報に追加する。ガイドボーカル有無が「あり」に設定されている場合、CPU51は、楽曲ID及びパートIDに対応するガイドボーカルIDをHDD7から取得して、パート情報に追加する。基本効果音有無が「あり」に設定されている場合、CPU51は、モーションIDに対応する基本効果音IDをHDD7から取得して、パート情報に追加する。追加効果音有無が「あり」に設定されている場合、CPU51は、モーションIDに対応する追加効果音IDをHDD7から取得して、パート情報に追加する。CPU51は、必要な情報を追加したパート情報をレッスン情報に追加する。CPU51は、ステップS15の処理を終えると、レッスン生成処理を終了させる。   When the narration text presence / absence is set to “present”, the CPU 51 acquires the narration text ID corresponding to the motion ID from the HDD 7 and adds it to the part information. When the narration voice presence / absence is set to “present”, the CPU 51 acquires the narration voice ID corresponding to the motion ID from the HDD 7 and adds it to the part information. When the presence / absence of lyrics is set to “Yes”, the CPU 51 acquires the lyrics ID corresponding to the music ID and the part ID from the HDD 7 and adds them to the part information. When the presence / absence of the guide vocal is set to “Yes”, the CPU 51 acquires the guide vocal ID corresponding to the music ID and the part ID from the HDD 7 and adds them to the part information. When the presence / absence of the basic sound effect is set to “present”, the CPU 51 acquires the basic sound effect ID corresponding to the motion ID from the HDD 7 and adds it to the part information. When the presence / absence of the additional sound effect is set to “present”, the CPU 51 acquires the additional sound effect ID corresponding to the motion ID from the HDD 7 and adds it to the part information. CPU51 adds the part information which added the required information to lesson information. When finishing the process of step S15, the CPU 51 ends the lesson generation process.

図5(A)は、出力端末5のCPU51のレッスン実行処理の処理例を示すフローチャートである。図5(A)に示すように、CPU51は、初期設定を行う(ステップS21)。具体的に、CPU51は、センサASを装着して規定の姿勢で静止するよう利用者41に指示するメッセージをディスプレイ67に表示させる。規定の姿勢は、例えば、気を付けの姿勢であってもよい。例えば、HDD7には、規定の姿勢をとった場合の利用者41の各身体部位の三次元空間における座標が予め記憶されている。メッセージの表示から所定秒経過した後、CPU51は、HDD7に記憶されている座標を、利用者41の身体部位の座標の初期値としてRAM53に記憶させる。次いで、CPU51は、時計機能から現在時刻を取得する。そして、CPU51は、現在時刻を、楽曲の再生開始時刻としてRAM53に記憶させる。また、CPU51は、現在時刻を、演奏順が1番目の演奏パートの再生開始時刻としてRAM53に記憶させる。また、CPU51は、生成されたレッスン情報から、演奏順が1番目である演奏パートのパート情報を取得する。また、CPU51は、レッスン情報に含まれる楽曲IDに対応する楽曲データから、楽曲のテンポを取得する。   FIG. 5A is a flowchart illustrating an example of a lesson execution process performed by the CPU 51 of the output terminal 5. As shown in FIG. 5A, the CPU 51 performs initial setting (step S21). Specifically, the CPU 51 causes the display 67 to display a message instructing the user 41 to wear the sensor AS and stand still in a specified posture. The specified posture may be a careful posture, for example. For example, the HDD 7 stores in advance the coordinates in the three-dimensional space of each body part of the user 41 in a prescribed posture. After a predetermined time has elapsed since the message was displayed, the CPU 51 stores the coordinates stored in the HDD 7 in the RAM 53 as the initial values of the coordinates of the body part of the user 41. Next, the CPU 51 acquires the current time from the clock function. Then, the CPU 51 stores the current time in the RAM 53 as the music reproduction start time. Further, the CPU 51 stores the current time in the RAM 53 as the reproduction start time of the performance part having the first performance order. Further, the CPU 51 acquires part information of the performance part having the first performance order from the generated lesson information. Further, the CPU 51 acquires the tempo of the music from the music data corresponding to the music ID included in the lesson information.

CPU51は、ステップS21の処理を終えると、運動コンテンツを再生する。先ず、CPU51は、3Dエンジンにより、運動映像表示処理を実行する(ステップS22)。具体的に、CPU51は、取得したパート情報に含まれるモーションIDに対応するモーションデータに基づいて、運動映像の静止画像を生成する。このとき、CPU51は、楽曲のテンポと、演奏パートの再生開始時刻から現時点までの経過時間とに基づいて、生成する静止画像を決定する。CPU51は、生成した静止画像を表示制御部56に出力する。表示制御部56は、静止画像に応じた映像信号をディスプレイ67に出力する。これにより、ディスプレイ67には、フィギュア83が動作する運動映像が表示される。   CPU51 reproduces | regenerates exercise | movement content after finishing the process of step S21. First, the CPU 51 executes a motion video display process by the 3D engine (step S22). Specifically, the CPU 51 generates a still image of the motion video based on the motion data corresponding to the motion ID included in the acquired part information. At this time, the CPU 51 determines a still image to be generated based on the tempo of the music and the elapsed time from the playback start time of the performance part to the current time. The CPU 51 outputs the generated still image to the display control unit 56. The display control unit 56 outputs a video signal corresponding to the still image to the display 67. As a result, an exercise image in which the figure 83 operates is displayed on the display 67.

次いで、CPU51は、歌詞表示処理を実行する(ステップS23)。具体的に、CPU51は、取得したパート情報に含まれる歌詞有無が「あり」に設定されているか否かを判定する。このとき、歌詞有無が「なし」に設定されている場合、CPU51は、歌詞を表示させないで、歌詞表示処理を終了させる。一方、歌詞有無が「あり」に設定されている場合、CPU51は、パート情報に含まれる歌詞IDに対応する歌詞データに基づいて、歌詞のテロップを表示させる。このとき、CPU51は、演奏パートの再生開始時刻から現時点までの経過時間に基づいて、歌詞データに含まれるテキストの中から、表示させるテキストを決定する。そして、CPU51は、決定したテキストを表示制御部56に出力する。この場合、表示制御部56は、テキストが示す文字と運動映像の静止画像とを合成する。そして、CPU51は、合成した画像に応じた映像信号をディスプレイ67に出力する。これにより、ディスプレイ67には、運動動作するフィギュア83と歌詞とが表示される。   Next, the CPU 51 executes a lyrics display process (step S23). Specifically, the CPU 51 determines whether or not the presence / absence of lyrics included in the acquired part information is set to “Yes”. At this time, when the presence / absence of the lyrics is set to “none”, the CPU 51 ends the lyrics display process without displaying the lyrics. On the other hand, when the presence / absence of the lyrics is set to “Yes”, the CPU 51 displays the lyrics telop based on the lyrics data corresponding to the lyrics ID included in the part information. At this time, the CPU 51 determines the text to be displayed from the text included in the lyrics data based on the elapsed time from the playback start time of the performance part to the current time. Then, the CPU 51 outputs the determined text to the display control unit 56. In this case, the display control unit 56 combines the character indicated by the text and the still image of the motion video. Then, the CPU 51 outputs a video signal corresponding to the synthesized image to the display 67. As a result, the figure 83 and the lyrics that move are displayed on the display 67.

次いで、CPU51は、ナレーション文章表示処理を実行する(ステップS24)。具体的に、CPU51は、取得したパート情報に含まれるナレーション文章有無が「あり」に設定されているか否かを判定する。このとき、ナレーション文章有無が「なし」に設定されている場合、CPU51は、ナレーション文章を表示させないで、ナレーション文章表示処理を終了させる。一方、ナレーション文章有無が「あり」に設定されている場合、CPU51は、パート情報に含まれるナレーション文章IDに対応するナレーション文章データに基づいて、ナレーション文章を表示させる。このとき、CPU51は、演奏パートの再生開始時刻から現時点までの経過時間に基づいて、ナレーション文章データに含まれるテキストの中から、表示させるテキストを決定する。そして、CPU51は、決定したテキストを表示制御部56に出力する。この場合、表示制御部56は、テキストが示す文字と運動映像の静止画像とを合成する。そして、CPU51は、合成した画像に応じた映像信号をディスプレイ67に出力する。これにより、ディスプレイ67には、運動動作するフィギュア83とナレーション文章とが表示される。   Next, the CPU 51 executes a narration text display process (step S24). Specifically, the CPU 51 determines whether or not the presence of narration text included in the acquired part information is set to “Yes”. At this time, if the narration text presence / absence is set to “none”, the CPU 51 ends the narration text display process without displaying the narration text. On the other hand, when the presence / absence of the narration text is set to “present”, the CPU 51 displays the narration text based on the narration text data corresponding to the narration text ID included in the part information. At this time, the CPU 51 determines the text to be displayed from the text included in the narration text data based on the elapsed time from the playback start time of the performance part to the current time. Then, the CPU 51 outputs the determined text to the display control unit 56. In this case, the display control unit 56 combines the character indicated by the text and the still image of the motion video. Then, the CPU 51 outputs a video signal corresponding to the synthesized image to the display 67. As a result, the figure 83 and the narration text are displayed on the display 67.

次いで、CPU51は、ミュージックシーケンサにより、楽曲再生処理を実行する(ステップS25)。具体的に、CPU51は、生成されたレッスン情報に含まれる楽曲IDに対応する楽曲データに基づいて、楽曲を出力させる。このとき、CPU51は、楽曲データから、楽曲の再生開始時刻から現時点までの経過時間に対応するイベントを読み出す。そして、CPU51は、読み出したイベントに基づいて、音声出力部63による音声信号の出力を制御する。これにより、CPU51は、音声出力部63からスピーカ64へ、楽曲の音声信号を出力させる。そして、スピーカ64から楽曲が出力される。なお、楽曲データには、例えば、デルタタイムとイベントとの組が記述されている。デルタタイムは、あるイベントを出力してから、次のイベントを出力するまでの時間を示す。そのため、CPU51は、例えば、楽曲データからイベントを読み出すタイミングを、デルタタイムと楽曲のテンポとに従って決定する。   Next, the CPU 51 executes a music reproduction process by the music sequencer (step S25). Specifically, the CPU 51 outputs music based on music data corresponding to the music ID included in the generated lesson information. At this time, the CPU 51 reads an event corresponding to the elapsed time from the music reproduction start time to the current time from the music data. And CPU51 controls the output of the audio | voice signal by the audio | voice output part 63 based on the read event. Thereby, the CPU 51 causes the audio output unit 63 to output the audio signal of the music from the speaker 64. Then, music is output from the speaker 64. In the music data, for example, a set of delta time and event is described. The delta time indicates the time from when a certain event is output until the next event is output. Therefore, for example, the CPU 51 determines the timing for reading an event from music data according to the delta time and the music tempo.

次いで、CPU51は、ガイドボーカル再生処理を実行する(ステップS26)。具体的に、CPU51は、取得したパート情報に含まれるガイドボーカル有無が「あり」に設定されているか否かを判定する。このとき、ガイドボーカル有無が「なし」に設定されている場合、CPU51は、ガイドボーカルを出力させないで、ガイドボーカル再生処理を終了させる。一方、ガイドボーカル有無が「あり」に設定されている場合、CPU51は、パート情報に含まれるガイドボーカルIDに対応するガイドボーカルデータに基づいて、ガイドボーカルを出力させる。このとき、CPU51は、ガイドボーカルデータから、演奏パートの再生開始時刻から現時点までの経過時間に対応するデータ部分を読み出す。そして、CPU51は、読み出したデータ部分に基づいて、音声出力部63による音声信号の出力を制御する。この場合、音声出力部63は、ガイドボーカルの音声信号と楽曲の音声信号とを合成する。そして、音声出力部63は、合成された音声信号をスピーカ64に出力する。これにより、スピーカ64から楽曲とガイドボーカルとが出力される。   Next, the CPU 51 executes a guide vocal reproduction process (step S26). Specifically, the CPU 51 determines whether or not the guide vocal presence / absence included in the acquired part information is set to “present”. At this time, when the presence / absence of the guide vocal is set to “none”, the CPU 51 ends the guide vocal reproduction process without outputting the guide vocal. On the other hand, when the presence / absence of the guide vocal is set to “Yes”, the CPU 51 outputs the guide vocal based on the guide vocal data corresponding to the guide vocal ID included in the part information. At this time, the CPU 51 reads from the guide vocal data the data portion corresponding to the elapsed time from the playback start time of the performance part to the current time. And CPU51 controls the output of the audio | voice signal by the audio | voice output part 63 based on the read data part. In this case, the audio output unit 63 combines the audio signal of the guide vocal and the audio signal of the music. Then, the audio output unit 63 outputs the synthesized audio signal to the speaker 64. As a result, the music piece and the guide vocal are output from the speaker 64.

次いで、CPU51は、ナレーション音声再生処理を実行する(ステップS27)。具体的に、CPU51は、取得したパート情報に含まれるナレーション音声有無が「あり」に設定されているか否かを判定する。このとき、ナレーション音声有無が「なし」に設定されている場合、CPU51は、ナレーション音声を出力させないで、ナレーション音声再生処理を終了させる。一方、ナレーション音声有無が「あり」に設定されている場合、CPU51は、パート情報に含まれるナレーション音声IDに対応するナレーション音声データに基づいて、ナレーション音声を出力させる。このとき、CPU51は、ナレーション音声データから、演奏パートの再生開始時刻から現時点までの経過時間に対応するデータ部分を読み出す。そして、CPU51は、読み出したデータ部分に基づいて、音声出力部63による音声信号の出力を制御する。この場合、音声出力部63は、ナレーション音声の音声信号と楽曲の音声信号とを合成する。そして、音声出力部63は、合成された音声信号をスピーカ64に出力する。これにより、スピーカ64から楽曲とナレーション音声とが出力される。   Next, the CPU 51 executes a narration voice reproduction process (step S27). Specifically, the CPU 51 determines whether or not the narration voice presence / absence included in the acquired part information is set to “present”. At this time, if the presence / absence of the narration sound is set to “none”, the CPU 51 ends the narration sound reproduction process without outputting the narration sound. On the other hand, when the presence / absence of the narration voice is set to “present”, the CPU 51 outputs the narration voice based on the narration voice data corresponding to the narration voice ID included in the part information. At this time, the CPU 51 reads from the narration audio data the data portion corresponding to the elapsed time from the playback start time of the performance part to the current time. And CPU51 controls the output of the audio | voice signal by the audio | voice output part 63 based on the read data part. In this case, the audio output unit 63 synthesizes the audio signal of the narration audio and the audio signal of the music. Then, the audio output unit 63 outputs the synthesized audio signal to the speaker 64. Thereby, music and narration sound are output from the speaker 64.

次いで、CPU51は、効果音再生処理を実行する(ステップS28)。具体的に、CPU51は、取得したパート情報に含まれる基本効果音有無が「あり」に設定されているか否かを判定する。このとき、基本効果音有無が「なし」に設定されている場合、CPU51は、基本効果音を出力させないで、効果音再生処理を終了する。一方、基本効果音有無が「あり」に設定されている場合、CPU51は、パート情報に含まれる基本効果音IDに対応する基本効果音データに基づいて、基本効果音を出力させる。このとき、CPU51は、基本効果音データから、演奏パートの再生開始時刻から現時点までの経過時間に対応するデータ部分を読み出す。そして、CPU51は、読み出したデータ部分に基づいて、音声出力部63による音声信号の出力を制御する。この場合、音声出力部63は、基本効果音の音声信号と楽曲の音声信号とを合成する。そして、音声出力部63は、合成された音声信号をスピーカ64に出力する。これにより、スピーカ64から楽曲と基本効果音とが出力される。また、CPU51は、追加効果音についても、基本効果音と同様に処理する。これにより、追加効果音有無が「あり」に設定されている場合、スピーカ64から楽曲と追加効果音とが出力される。   Next, the CPU 51 executes sound effect reproduction processing (step S28). Specifically, the CPU 51 determines whether or not the presence of the basic sound effect included in the acquired part information is set to “present”. At this time, if the presence / absence of the basic sound effect is set to “none”, the CPU 51 ends the sound effect reproduction process without outputting the basic sound effect. On the other hand, when the presence / absence of the basic sound effect is set to “present”, the CPU 51 outputs the basic sound effect based on the basic sound effect data corresponding to the basic sound effect ID included in the part information. At this time, the CPU 51 reads from the basic sound effect data a data portion corresponding to the elapsed time from the playback start time of the performance part to the current time. And CPU51 controls the output of the audio | voice signal by the audio | voice output part 63 based on the read data part. In this case, the audio output unit 63 combines the audio signal of the basic sound effect and the audio signal of the music. Then, the audio output unit 63 outputs the synthesized audio signal to the speaker 64. As a result, music and basic sound effects are output from the speaker 64. Further, the CPU 51 processes the additional sound effects in the same manner as the basic sound effects. Thereby, when the presence / absence of the additional sound effect is set to “present”, the music piece and the additional sound effect are output from the speaker 64.

次いで、CPU51は、利用者41の歌唱データ及び運動データの取得タイミングであるか否かを判定する(ステップS29)。歌唱データは、利用者41の歌唱音声の音高値及び音量である。運動データは、利用者41の各身体部位の三次元空間における座標及び各身体部位の移動量である。例えば、利用者41は、予め設定された設定時間間隔が経過するごとに、歌唱データ及び運動データを取得する。このとき、CPU51は、取得タイミングではないと判定した場合には(ステップS29:NO)、ステップS32に進む。一方、CPU51は、取得タイミングであると判定した場合には(ステップS29:YES)、ステップS30に進む。   Next, the CPU 51 determines whether or not it is the acquisition timing of the song data and exercise data of the user 41 (step S29). Singing data is the pitch value and volume of the singing voice of the user 41. The exercise data is the coordinates of each body part of the user 41 in the three-dimensional space and the movement amount of each body part. For example, the user 41 acquires song data and exercise data every time a preset time interval elapses. At this time, if the CPU 51 determines that it is not the acquisition timing (step S29: NO), the process proceeds to step S32. On the other hand, when the CPU 51 determines that it is the acquisition timing (step S29: YES), the CPU 51 proceeds to step S30.

ステップS30において、CPU51は、利用者41の歌唱データを取得する。具体的に、CPU51は、マイク68から入力された音声信号を分析して、歌唱音声の音高値及び音量を取得する。そして、CPU51は、取得した音高値及び音量を、楽曲の再生開始時刻からの経過時間と対応付けてRAM53に記憶させる。次いで、CPU51は、利用者41の運動データを取得する(ステップS31)。具体的に、CPU51は、各加速度センサASから送信されてくる加速度情報をセンサ情報受信部69を介して取得する。次いで、CPU51は、取得した加速度情報と、設定時間間隔前に取得した利用者41の各身体部位の座標とに基づいて、現在の利用者41の各身体部位の座標及び移動量を計算する。そして、CPU51は、計算した座標及び移動量を、パート情報に含まれるモーションIDと、演奏パートの再生開始時刻からの経過時間と対応付けてRAM53に記憶させる。利用者41の各身体部位の座標は、本発明における第2動作情報の一例である。   In step S <b> 30, the CPU 51 acquires the song data of the user 41. Specifically, the CPU 51 analyzes the voice signal input from the microphone 68 and acquires the pitch value and volume of the singing voice. Then, the CPU 51 stores the acquired pitch value and volume in the RAM 53 in association with the elapsed time from the music playback start time. Next, the CPU 51 acquires exercise data of the user 41 (step S31). Specifically, the CPU 51 acquires acceleration information transmitted from each acceleration sensor AS via the sensor information receiving unit 69. Next, the CPU 51 calculates the coordinates and movement amount of each body part of the current user 41 based on the acquired acceleration information and the coordinates of each body part of the user 41 acquired before the set time interval. Then, the CPU 51 stores the calculated coordinates and movement amount in the RAM 53 in association with the motion ID included in the part information and the elapsed time from the playback start time of the performance part. The coordinates of each body part of the user 41 are an example of second motion information in the present invention.

次いで、CPU51は、レッスン更新処理を実行する(ステップS32)。レッスン更新処理において、CPU51は、レッスン情報を更新するタイミングであるとき、利用者41の運動レベルを改めて決定する。そして、CPU51は、新しい運動レベルに基づいて、レッスン情報を更新する。レッスン情報を更新するタイミングは、例えば、演奏パートが切り替わるタイミングである。レッスン更新処理の詳細については、後述する。   Next, the CPU 51 executes a lesson update process (step S32). In the lesson update process, the CPU 51 again determines the exercise level of the user 41 when it is time to update the lesson information. Then, the CPU 51 updates the lesson information based on the new exercise level. The timing at which the lesson information is updated is, for example, the timing at which the performance part is switched. Details of the lesson update process will be described later.

次いで、CPU51は、運動コンテンツの再生が終了したか否かを判定する(ステップS33)。例えば、CPU51は、ミュージックシーケンサから、楽曲データの終端が検出されたことを示すイベントが出力された場合には、運動コンテンツの再生が終了したと判定する。このとき、CPU51は、運動コンテンツの再生が終了していないと判定した場合には(ステップS33:NO)、ステップS22に進む。一方、CPU51は、運動コンテンツの再生が終了したと判定した場合には(ステップS33:YES)、レッスン実行処理を終了させる。   Next, the CPU 51 determines whether or not the reproduction of the exercise content has ended (step S33). For example, if an event indicating that the end of music data has been detected is output from the music sequencer, the CPU 51 determines that the reproduction of the exercise content has ended. At this time, if the CPU 51 determines that the reproduction of the exercise content has not ended (step S33: NO), the CPU 51 proceeds to step S22. On the other hand, when the CPU 51 determines that the reproduction of the exercise content has ended (step S33: YES), the lesson execution process ends.

図5(B)は、出力端末5のCPU51のレッスン更新処理の処理例を示すフローチャートである。図5(B)に示すように、CPU51は、レッスン情報の更新タイミングであるか否かを判定する(ステップS41)。例えば、CPU51は、ミュージックシーケンサから演奏パート開始イベントが出力されたとき、レッスン情報の更新タイミングであると判定してもよい。このとき、CPU51は、更新タイミングではないと判定した場合には(ステップS41:NO)、レッスン更新処理を終了させる。一方、CPU51は、更新タイミングであると判定した場合には(ステップS41:YES)、ステップS42に進む。   FIG. 5B is a flowchart illustrating an example of a lesson update process performed by the CPU 51 of the output terminal 5. As shown in FIG. 5B, the CPU 51 determines whether it is the update timing of the lesson information (step S41). For example, the CPU 51 may determine that it is the update timing of lesson information when a performance part start event is output from the music sequencer. At this time, if the CPU 51 determines that it is not the update timing (step S41: NO), it ends the lesson update process. On the other hand, if the CPU 51 determines that it is the update timing (step S41: YES), it proceeds to step S42.

ステップS42において、CPU51は、演奏パートの切り替わりによって出力が終了した演奏パートに割り当てられた運度動作の評価値を算出する。具体的に、CPU51は、出力が終了した演奏パートのパート情報から、モーションIDを取得する。次いで、CPU51は、モーションIDに対応する利用者41の各身体部位の座標と、モーションIDに対応する教師座標データに登録されている各身体部位の座標との差を、経過時間ごとに計算する。これにより、CPU51は、利用者41の各身体部位の座標と、教師座標データに登録されている各身体部位の座標とを比較する。次いで、CPU51は、座標の差が、HDD7に予め記憶された運動閾値以下であるか否かを判定する。そして、CPU51は、差が運動閾値以下である利用者41の身体部位の座標の数をカウントする。次いで、CPU51は、差が運動閾値以下である座標の数を、利用者41の身体部位の座標の総数で割ることにより、差が運動閾値以下である座標の割合を計算する。そして、CPU51は、計算した割合に100を掛けて、評価値を計算する。次いで、CPU51は、計算した評価値に基づいて、運動レベルを決定する(ステップS43)。例えば、CPU51は、評価値が高いほど、運動レベルを高くする。   In step S <b> 42, the CPU 51 calculates an evaluation value of the fate motion assigned to the performance part whose output has been terminated by switching the performance part. Specifically, the CPU 51 acquires the motion ID from the part information of the performance part that has been output. Next, the CPU 51 calculates the difference between the coordinates of each body part of the user 41 corresponding to the motion ID and the coordinates of each body part registered in the teacher coordinate data corresponding to the motion ID for each elapsed time. . Thus, the CPU 51 compares the coordinates of each body part of the user 41 with the coordinates of each body part registered in the teacher coordinate data. Next, the CPU 51 determines whether or not the coordinate difference is equal to or less than the exercise threshold stored in the HDD 7 in advance. And CPU51 counts the number of the coordinates of the body part of the user 41 whose difference is below an exercise | movement threshold value. Next, the CPU 51 calculates the ratio of coordinates whose difference is equal to or less than the exercise threshold by dividing the number of coordinates whose difference is equal to or less than the exercise threshold by the total number of coordinates of the body part of the user 41. Then, the CPU 51 calculates an evaluation value by multiplying the calculated ratio by 100. Next, the CPU 51 determines an exercise level based on the calculated evaluation value (step S43). For example, the CPU 51 increases the exercise level as the evaluation value increases.

次いで、CPU51は、運動レッスンの設定値を再取得する(ステップS44)。具体的に、CPU51は、レッスン設定表から、レッスン生成処理で取得した運動負荷及びステップS43で決定した運動レベルから、コンテンツタイプを生成する。そして、CPU51は、レッスン設定表から、コンテンツタイプに対応する運動負荷、ナレーション文章有無、ナレーション音声有無、歌詞有無、ガイドボーカル有無、基本効果音有無、追加効果音有無を取得する。   Next, the CPU 51 reacquires the exercise lesson setting value (step S44). Specifically, the CPU 51 generates a content type from the lesson setting table based on the exercise load acquired in the lesson generation process and the exercise level determined in step S43. Then, the CPU 51 acquires from the lesson setting table the exercise load corresponding to the content type, narration sentence presence / absence, narration voice presence / absence, lyrics presence / absence, guide vocal presence / absence, basic sound effect presence / absence, and additional sound effect presence / absence.

次いで、CPU51は、レッスン情報を更新する(ステップS45)。具体的に、CPU51は、ミュージックシーケンサから出力された演奏パート開始イベントから、パートID及びパート種別を取得する。次いで、CPU51は、パート情報を生成して、レッスン情報に追加する。パート情報の生成方法は、レッスン生成処理のステップS15と同様である。次いで、CPU51は、次の演奏パートの再生開始時刻としてRAM53に記憶させる。CPU51は、ステップS45の処理を終えると、レッスン更新処理を終了させる。レッスン実行処理において、CPU51は、新しく追加されたパート情報及び次の演奏パートの再生開始時刻に基づいて、ステップS22〜31を実行する。   Next, the CPU 51 updates lesson information (step S45). Specifically, the CPU 51 acquires the part ID and the part type from the performance part start event output from the music sequencer. Next, the CPU 51 generates part information and adds it to the lesson information. The part information generation method is the same as that in step S15 of the lesson generation process. Next, the CPU 51 stores it in the RAM 53 as the playback start time of the next performance part. When finishing the process of step S45, the CPU 51 ends the lesson update process. In the lesson execution process, the CPU 51 executes steps S22 to S31 based on the newly added part information and the playback start time of the next performance part.

図5(C)は、出力端末5のCPU51のレッスン評価処理の処理例を示すフローチャートである。図5(C)に示すように、CPU51は、歌唱の評価値を算出する(ステップS51)。具体的に、CPU51は、RAM53に記憶された利用者41の歌唱音声の音高値と、レッスン情報に含まれる楽曲IDに対応する教師音高データに登録されている音高値との差を、経過時間ごとに計算する。次いで、CPU51は、音高値の差が、HDD7に予め記憶された歌唱閾値以下であるか否かを判定する。そして、CPU51は、差が歌唱閾値以下である利用者41の音高値の数をカウントする。次いで、CPU51は、差が歌唱閾値以下である音高値の数を、利用者41の音高値の総数で割ることにより、差が歌唱閾値以下である音高値の割合を計算する。そして、CPU51は、計算した割合に100を掛けて、評価値を計算する。   FIG. 5C is a flowchart illustrating an example of a lesson evaluation process performed by the CPU 51 of the output terminal 5. As shown in FIG.5 (C), CPU51 calculates the evaluation value of a song (step S51). Specifically, the CPU 51 calculates the difference between the pitch value of the singing voice of the user 41 stored in the RAM 53 and the pitch value registered in the teacher pitch data corresponding to the music ID included in the lesson information. Calculate every hour. Next, the CPU 51 determines whether or not the pitch value difference is equal to or less than the singing threshold value stored in advance in the HDD 7. And CPU51 counts the number of the pitch values of the user 41 whose difference is below a song threshold value. Next, the CPU 51 calculates the ratio of the pitch values whose difference is equal to or less than the singing threshold value by dividing the number of pitch values whose difference is equal to or less than the singing threshold value by the total number of pitch values of the user 41. Then, the CPU 51 calculates an evaluation value by multiplying the calculated ratio by 100.

次いで、CPU51は、運動の評価値を算出する(ステップS52)。具体的に、CPU51は、RAM53に記憶された利用者41の各身体部位の座標と、教師座標データに登録されている各身体部位の座標との差を、経過時間ごとに計算する。このとき、CPU51は、利用者41の身体部位の座標に対応付けられているモーションIDと同一のモーションIDに対応する教師音高データを用いる。次いで、CPU51は、座標の差が、HDD7に予め記憶された運動閾値以下であるか否かを判定する。そして、CPU51は、差が運動閾値以下である利用者41の身体部位の座標の数をカウントする。次いで、CPU51は、の差が運動閾値以下である座標の数を、利用者41の身体部位の座標の総数で割ることにより、差が運動閾値以下である座標の割合を計算する。そして、CPU51は、計算した割合に100を掛けて、評価値を計算する。   Next, the CPU 51 calculates an exercise evaluation value (step S52). Specifically, the CPU 51 calculates the difference between the coordinates of each body part of the user 41 stored in the RAM 53 and the coordinates of each body part registered in the teacher coordinate data for each elapsed time. At this time, the CPU 51 uses teacher pitch data corresponding to the same motion ID as the motion ID associated with the coordinates of the body part of the user 41. Next, the CPU 51 determines whether or not the coordinate difference is equal to or less than the exercise threshold stored in the HDD 7 in advance. And CPU51 counts the number of the coordinates of the body part of the user 41 whose difference is below an exercise | movement threshold value. Next, the CPU 51 calculates the ratio of coordinates whose difference is equal to or less than the exercise threshold by dividing the number of coordinates whose difference is equal to or less than the exercise threshold by the total number of coordinates of the body part of the user 41. Then, the CPU 51 calculates an evaluation value by multiplying the calculated ratio by 100.

次いで、CPU51は、歌唱による消費カロリーを計算する(ステップS53)。具体的に、CPU51は、RAM53に記憶された利用者41の歌唱音声の音量ごとに、音量に対応するカロリーを決定する。このとき、CPU51は、音量が大きいほど、カロリーを高くする。そして、CPU51は、計算したカロリーの合計値を、歌唱による消費カロリーとして計算する。   Next, the CPU 51 calculates calories burned by singing (step S53). Specifically, the CPU 51 determines the calorie corresponding to the volume for each volume of the singing voice of the user 41 stored in the RAM 53. At this time, the CPU 51 increases the calorie as the volume increases. And CPU51 calculates the calculated total value of calories as calorie consumption by singing.

次いで、CPU51は、運動による消費カロリーを計算する(ステップS54)。具体的に、CPU51は、RAM53に記憶された利用者41の各身体部位の移動量ごとに、移動量に対応するカロリーを決定する。このとき、CPU51は、移動量が大きいほど、カロリーを高くする。そして、CPU51は、計算したカロリーの合計値を、運動による消費カロリーとして計算する。   Next, the CPU 51 calculates calorie consumption due to exercise (step S54). Specifically, the CPU 51 determines a calorie corresponding to the movement amount for each movement amount of each body part of the user 41 stored in the RAM 53. At this time, the CPU 51 increases the calorie as the movement amount increases. And CPU51 calculates the total value of the calculated calorie as calorie consumption by exercise.

次いで、CPU51は、ステップS51〜S54で算出した評価値及び消費カロリーをディスプレイ67に表示させる(ステップS55)。CPU51は、ステップS55の処理を終えると、レッスン評価処理を終了させる。   Next, the CPU 51 causes the display 67 to display the evaluation value and the calorie consumption calculated in steps S51 to S54 (step S55). When finishing the process of step S55, the CPU 51 ends the lesson evaluation process.

以上説明したように、本実施形態によれば、CPU51が、利用者41の運動レベルを決定する。次いで、CPU51が、運動レベルが初級である場合、ナレーション文章を表示させること、及び、ナレーション音声を出力させることの少なくとも何れかを行う。また、CPU51が、運動レベルが中級である場合、歌詞のテロップを表示させること、及び、ガイドボーカルを出力させることの少なくとも何れかを行う。また、CPU51が、運動レベルが上級である場合、歌詞のテロップを表示させること、及び、ガイドボーカルを出力させることの少なくとも何れかを行い、且つ、効果音を出力させる。そのため、利用者41の運動レベルに応じて、利用者41が楽しみながら運動及び歌唱を行うことができるように演出することができる。   As described above, according to the present embodiment, the CPU 51 determines the exercise level of the user 41. Next, when the exercise level is an elementary level, the CPU 51 performs at least one of displaying a narration sentence and outputting a narration voice. Further, when the exercise level is intermediate, the CPU 51 performs at least one of displaying a lyrics telop and outputting a guide vocal. Further, when the exercise level is advanced, the CPU 51 performs at least one of displaying a telop of lyrics and outputting a guide vocal, and outputs a sound effect. Therefore, according to the exercise level of the user 41, it can produce so that the user 41 can perform exercise and singing while having fun.

なお、本実施形態においては、出力端末5は、運動レッスンにおいて、1つの演奏パートの出力が終了するごとに運動レベルを決定していた。つまり、出力端末5は、運動レッスン中に運動レベルを動的に変化させていた。しかしながら、出力端末5は、例えば、運動レッスン中は、運動レベルを変化させなくてもよい。具体的に、図4(B)に示すレッスン生成処理のステップS13において、出力端末5は、運動レッスンの最初から最後まで通して適用される運動レベルを決定する。例えば、出力端末5は、利用者41の過去の運動の評価値に基づいて、運動レベルを決定してもよい。また、出力端末5は、例えば、利用者41に運動レベルを選択させてもよい。次いで、出力端末5は、決定した運動レベルに対応する設定値を取得し(ステップS14)、取得した設定値に基づいてレッスン情報を生成する(ステップS15)。このとき、出力端末5は、楽曲を構成する全ての演奏パートのパート情報を含むレッスン情報を生成する。つまり、出力端末5は、楽曲を構成する全ての演奏パートに対して、ステップS13で決定した運動レベルにより、運動コンテンツの内容を決定する。図5(A)に示すレッスン実行処理において、出力端末5は、ステップS32のレッスン更新処理を実行しない。レッスン実行処理において、出力端末5は、演奏パートが切り替わるごとに、レッスン情報から次の演奏順の演奏パートのパート情報を取得する。そして、出力端末5は、取得したパート情報に基づいて、運動コンテンツの出力を制御する。   In the present embodiment, the output terminal 5 determines the exercise level every time the output of one performance part is completed in the exercise lesson. That is, the output terminal 5 dynamically changes the exercise level during the exercise lesson. However, the output terminal 5 does not have to change the exercise level during an exercise lesson, for example. Specifically, in step S13 of the lesson generation process shown in FIG. 4B, the output terminal 5 determines an exercise level to be applied throughout the exercise lesson. For example, the output terminal 5 may determine the exercise level based on the past exercise evaluation value of the user 41. The output terminal 5 may cause the user 41 to select an exercise level, for example. Next, the output terminal 5 acquires a setting value corresponding to the determined exercise level (step S14), and generates lesson information based on the acquired setting value (step S15). At this time, the output terminal 5 generates lesson information including part information of all performance parts constituting the music. That is, the output terminal 5 determines the content of the exercise content for all performance parts constituting the music according to the exercise level determined in step S13. In the lesson execution process shown in FIG. 5A, the output terminal 5 does not execute the lesson update process in step S32. In the lesson execution process, the output terminal 5 acquires part information of the performance part in the next performance order from the lesson information every time the performance part is switched. Then, the output terminal 5 controls the output of the exercise content based on the acquired part information.

また、上記実施形態においては、本発明の情報処理装置が出力端末5に適用されていた。しかしながら、本発明の情報処理装置が配信サーバ2に適用されてもよい。例えば、配信サーバ2が、利用者41の運動レベルを決定して、レッスン情報を生成してもよい。そして、配信サーバ2は、レッスン情報に基づいて、音声データ及び動画データを生成してもよい。この場合の音声データは、楽曲、ガイドボーカル、ナレーション音声、効果音を出力するためのデータである。また、動画データは、運動映像、歌詞及びナレーション文章を表示するためのデータである。運動レッスンが行われるとき、配信サーバ2は、音声データ及び動画データを、例えばストリーミング方式で出力端末5に送信する。これにより、配信サーバ2は、出力端末5により楽曲を出力させ、且つ、運動映像を表示させる。また、本発明の情報処理装置が出力端末5及び配信サーバ2に適用されてもよい。そして、出力端末5及び配信サーバ2は協働して処理を行ってもよい。   In the above embodiment, the information processing apparatus of the present invention is applied to the output terminal 5. However, the information processing apparatus of the present invention may be applied to the distribution server 2. For example, the distribution server 2 may determine the exercise level of the user 41 and generate lesson information. Then, the distribution server 2 may generate audio data and moving image data based on the lesson information. The audio data in this case is data for outputting music, guide vocals, narration audio, and sound effects. The moving image data is data for displaying exercise video, lyrics, and narration text. When the exercise lesson is performed, the distribution server 2 transmits the audio data and the moving image data to the output terminal 5 by, for example, a streaming method. As a result, the distribution server 2 causes the output terminal 5 to output the music and display the motion video. Further, the information processing apparatus of the present invention may be applied to the output terminal 5 and the distribution server 2. The output terminal 5 and the distribution server 2 may perform processing in cooperation.

1 運動コンテンツ生成システム
2 配信サーバ
3 データベース
5 出力端末
7 HDD
51 CPU
56 表示制御部
63 音声出力部
1 Exercise content generation system 2 Distribution server 3 Database 5 Output terminal 7 HDD
51 CPU
56 Display Control Unit 63 Audio Output Unit

Claims (6)

楽曲を示す楽曲情報と、運動動作を示す動作情報と、運動を音声及び表示の少なくとも何れかにより指導する指導情報と、前記楽曲の歌詞を示す歌詞情報と、効果音を示す効果音情報とを記憶する記憶手段と、
ユーザの運動レベルを、複数の運動レベルから決定する決定手段と、
前記記憶手段に記憶された前記楽曲情報を出力手段により出力させる第1制御手段と、
前記出力手段により前記楽曲情報が出力されているとき、前記記憶手段に記憶された前記動作情報に基づいて、前記運動動作が行われる映像を示す映像情報を表示手段に表示させる第2制御手段と、
前記決定手段により決定された前記運動レベルが、前記複数の運動レベルのうち第1レベルである場合、前記出力手段により前記楽曲情報が出力されているとき、前記記憶手段に記憶された前記指導情報を前記出力手段及び前記表示手段の少なくとも何れかにより出力させる第3制御手段と、
前記決定手段により決定された前記運動レベルが、前記第1レベルよりも高い第2レベルである場合、前記出力手段により前記楽曲情報が出力されているとき、前記記憶手段に記憶された前記歌詞情報を前記出力手段及び前記表示手段の少なくとも何れかにより出力させる第4制御手段と、
前記決定手段により決定された前記運動レベルが、前記第2レベルよりも高い第3レベルである場合、前記出力手段により前記楽曲情報が出力されているとき、前記記憶手段に記憶された前記歌詞情報を前記出力手段及び前記表示手段の少なくとも何れかにより出力させ、且つ、前記記憶手段に記憶された前記効果音情報を前記出力手段により出力させる第5制御手段と、
を備えることを特徴とする情報処理装置。
Music information indicating music, operation information indicating exercise, guidance information for instructing exercise by voice and / or display, lyrics information indicating lyrics of the music, and sound effect information indicating sound effects Storage means for storing;
Determining means for determining a user's exercise level from a plurality of exercise levels;
First control means for outputting the music information stored in the storage means by output means;
Second control means for causing the display means to display video information indicating a video on which the exercise motion is performed based on the motion information stored in the storage means when the music information is output by the output means; ,
When the exercise level determined by the determining means is the first level among the plurality of exercise levels, the instruction information stored in the storage means when the music information is output by the output means A third control means for outputting at least one of the output means and the display means;
When the exercise level determined by the determining means is a second level higher than the first level, the lyrics information stored in the storage means when the music information is output by the output means A fourth control means for outputting at least one of the output means and the display means;
When the exercise level determined by the determining means is a third level higher than the second level, the lyrics information stored in the storage means when the music information is output by the output means A fifth control means for causing the output means to output the sound effect information stored in the storage means, and at least one of the output means and the display means;
An information processing apparatus comprising:
前記記憶手段は、歌詞の文字を示す第1の前記歌詞情報と、歌詞の音声を示す第2の前記歌詞情報とを記憶し、
前記第4制御手段は、前記記憶手段に記憶された前記第1の歌詞情報を表示手段に表示させ、且つ、前記記憶手段に記憶された前記第2の歌詞情報を前記出力手段により出力させ、
前記第5制御手段は、前記効果音情報を前記出力手段により出力させ、前記記憶手段に記憶された前記第1の歌詞情報を表示手段に前記表示させ、且つ、前記記憶手段に記憶された前記第2の歌詞情報を前記出力手段により出力させないことを特徴とする請求項1に記載の情報処理装置。
The storage means stores the first lyric information indicating the characters of the lyrics and the second lyric information indicating the sound of the lyrics,
The fourth control means causes the display means to display the first lyrics information stored in the storage means, and causes the output means to output the second lyrics information stored in the storage means,
The fifth control means causes the output means to output the sound effect information, causes the display means to display the first lyrics information stored in the storage means, and stores the first lyric information stored in the storage means. The information processing apparatus according to claim 1, wherein the second lyric information is not output by the output unit.
前記第2レベルは、第4レベルと、前記第4レベルよりも高い第5レベルとを含み、
前記第4制御手段は、前記記憶手段に記憶された前記第1の歌詞情報を前記表示手段に表示させ、前記決定手段により決定された前記運動レベルが前記第4レベルである場合、前記記憶手段に記憶された前記第2の歌詞情報を前記出力手段により出力させ、前記決定手段により決定された前記運動レベルが前記第5レベルである場合、前記第2の歌詞情報を前記出力手段により出力させないことを特徴とする請求項2に記載の情報処理装置。
The second level includes a fourth level and a fifth level higher than the fourth level;
The fourth control means causes the display means to display the first lyric information stored in the storage means, and when the exercise level determined by the determination means is the fourth level, the storage means The second lyric information stored in the output means is output by the output means, and when the exercise level determined by the determining means is the fifth level, the second lyric information is not output by the output means. The information processing apparatus according to claim 2.
前記第1レベルは、第6レベルと、前記第6レベルよりも高い第7レベルとを含み、
前記記憶手段は、前記運動を指導する文字を示す第1の前記指導情報と、前記運動を指導する音声を示す第2の前記指導情報とを記憶し、
前記第3制御手段は、前記記憶手段に記憶された前記第1の指導情報を前記表示手段に表示させ、前記決定手段により決定された前記運動レベルが前記第6レベルである場合、前記記憶手段に記憶された前記第2の指導情報を前記出力手段により出力させ、前記決定手段により決定された前記運動レベルが前記第7レベルである場合、前記第2の指導情報を前記出力手段により出力させないことを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
The first level includes a sixth level and a seventh level higher than the sixth level;
The storage means stores the first instruction information indicating a character for instructing the exercise and the second instruction information indicating a sound for instructing the exercise,
The third control means causes the display means to display the first instruction information stored in the storage means, and when the exercise level determined by the determination means is the sixth level, the storage means The second instruction information stored in the output means is output by the output means, and when the exercise level determined by the determination means is the seventh level, the second instruction information is not output by the output means. The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
前記記憶手段は、運動するときの身体の動きの基準を示す基準情報を更に記憶し、
前記出力手段により前記楽曲情報が出力されているとき、運動するユーザの身体の動きを検出する検出手段により検出される前記動きを示す第2動作情報を取得する取得手段を更に備え、
前記決定手段は、前記出力手段により前記楽曲情報が出力されているとき、所定のタイミングで、前記記憶手段に記憶された前記基準情報と、前記取得手段により取得された前記第2動作情報とを比較し、比較の結果に基づいて前記運動レベルを決定し、
前記決定手段により前記運動レベルが決定されたとき、決定された前記運動レベルに応じて、前記第3制御手段、前記第4制御手段又は前記第5制御手段が動作することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
The storage means further stores reference information indicating a reference of body movement when exercising,
An acquisition means for acquiring second motion information indicating the movement detected by the detection means for detecting the movement of the body of the user exercising when the music information is output by the output means;
The determination means includes the reference information stored in the storage means and the second motion information acquired by the acquisition means at a predetermined timing when the music information is output by the output means. Compare, determine the exercise level based on the result of the comparison,
The said 3rd control means, the said 4th control means, or the said 5th control means operate | moves according to the determined said exercise level when the said exercise | movement level is determined by the said determination means. 5. The information processing apparatus according to any one of 1 to 4.
ユーザの運動レベルを、複数の運動レベルから決定する決定ステップと、
楽曲を示す楽曲情報と、運動動作を示す動作情報と、運動を音声及び表示の少なくとも何れかにより指導する指導情報と、前記楽曲の歌詞を示す歌詞情報と、効果音を示す効果音情報とを記憶する記憶手段に記憶された前記楽曲情報を出力手段により出力させる第1制御ステップと、
前記出力手段により前記楽曲情報が出力されているとき、前記記憶手段に記憶された前記動作情報に基づいて、前記運動動作が行われる映像を示す映像情報を表示手段に表示させる第2制御ステップと、
前記決定ステップにより決定された前記運動レベルが、前記複数の運動レベルのうち第1レベルである場合、前記出力手段により前記楽曲情報が出力されているとき、前記記憶手段に記憶された前記指導情報を前記出力手段及び前記表示手段の少なくとも何れかにより出力させる第3制御ステップと、
前記決定ステップにより決定された前記運動レベルが、前記第1レベルよりも高い第2レベルである場合、前記出力手段により前記楽曲情報が出力されているとき、前記記憶手段に記憶された前記歌詞情報を前記出力手段及び前記表示手段の少なくとも何れかにより出力させる第4制御ステップと、
前記決定ステップにより決定された前記運動レベルが、前記第2レベルよりも高い第3レベルである場合、前記出力手段により前記楽曲情報が出力されているとき、前記記憶手段に記憶された前記歌詞情報を前記出力手段及び前記表示手段の少なくとも何れかにより出力させ、且つ、前記記憶手段に記憶された前記効果音情報を前記出力手段により出力させる第5制御ステップと、
をコンピュータに実行させることを特徴とするプログラム。
A determination step for determining a user's exercise level from a plurality of exercise levels;
Music information indicating music, operation information indicating exercise, guidance information for instructing exercise by voice and / or display, lyrics information indicating lyrics of the music, and sound effect information indicating sound effects A first control step of causing the output means to output the music information stored in the storage means for storing;
A second control step of causing the display means to display video information indicating a video on which the exercise motion is performed based on the motion information stored in the storage means when the music information is output by the output means; ,
When the exercise level determined by the determining step is the first level among the plurality of exercise levels, the instruction information stored in the storage unit when the music information is output by the output unit A third control step for outputting at least one of the output means and the display means;
When the exercise level determined by the determining step is a second level higher than the first level, the lyric information stored in the storage unit when the music information is output by the output unit A fourth control step for outputting at least one of the output means and the display means;
When the exercise level determined in the determining step is a third level higher than the second level, the lyric information stored in the storage unit when the music information is output by the output unit A fifth control step of causing the output means to output the sound effect information stored in the storage means, and at least one of the output means and the display means;
A program that causes a computer to execute.
JP2013076468A 2013-04-01 2013-04-01 Information processing apparatus and program Expired - Fee Related JP5949638B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013076468A JP5949638B2 (en) 2013-04-01 2013-04-01 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013076468A JP5949638B2 (en) 2013-04-01 2013-04-01 Information processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2014200338A true JP2014200338A (en) 2014-10-27
JP5949638B2 JP5949638B2 (en) 2016-07-13

Family

ID=52351355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013076468A Expired - Fee Related JP5949638B2 (en) 2013-04-01 2013-04-01 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5949638B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109309776A (en) * 2018-08-13 2019-02-05 张利军 Piece caudal flexure based on dynamic degree selects system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002346013A (en) * 2001-05-30 2002-12-03 Sharp Corp Exercise instruction device
JP2003250895A (en) * 2002-03-05 2003-09-09 Marutaka Co Ltd Chair-type message machine
JP2004105220A (en) * 2002-09-13 2004-04-08 Konami Sports Life Corp Training equipment
JP2006276416A (en) * 2005-03-29 2006-10-12 Brother Ind Ltd Karaoke device, karaoke system, and program
WO2008120477A1 (en) * 2007-04-03 2008-10-09 Ssd Company Limited Walking training apparatus and walking training method
JP2009201799A (en) * 2008-02-28 2009-09-10 Xing Inc Exercise supporting apparatus, exercise supporting method, and computer program
JP2009233088A (en) * 2008-03-27 2009-10-15 Brother Ind Ltd Exercise support device and system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002346013A (en) * 2001-05-30 2002-12-03 Sharp Corp Exercise instruction device
JP2003250895A (en) * 2002-03-05 2003-09-09 Marutaka Co Ltd Chair-type message machine
JP2004105220A (en) * 2002-09-13 2004-04-08 Konami Sports Life Corp Training equipment
JP2006276416A (en) * 2005-03-29 2006-10-12 Brother Ind Ltd Karaoke device, karaoke system, and program
WO2008120477A1 (en) * 2007-04-03 2008-10-09 Ssd Company Limited Walking training apparatus and walking training method
JP2009201799A (en) * 2008-02-28 2009-09-10 Xing Inc Exercise supporting apparatus, exercise supporting method, and computer program
JP2009233088A (en) * 2008-03-27 2009-10-15 Brother Ind Ltd Exercise support device and system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109309776A (en) * 2018-08-13 2019-02-05 张利军 Piece caudal flexure based on dynamic degree selects system
CN109309776B (en) * 2018-08-13 2019-08-27 上海蒙彤文化传播有限公司 Piece caudal flexure based on dynamic degree selects system

Also Published As

Publication number Publication date
JP5949638B2 (en) 2016-07-13

Similar Documents

Publication Publication Date Title
US8907195B1 (en) Method and apparatus for musical training
JP6724879B2 (en) Reproduction control method, reproduction control device, and program
JP2014217627A (en) Physical action evaluation device, karaoke system, and program
WO2009007512A1 (en) A gesture-controlled music synthesis system
JP2023025013A (en) Singing support device for music therapy
JP3978506B2 (en) Music generation method
JP5983399B2 (en) Information processing apparatus, information processing method, and program
JP5949638B2 (en) Information processing apparatus and program
JP5047748B2 (en) Movie display system, movie display method, computer program, and information processing apparatus
JP5942914B2 (en) Information processing apparatus and program
JP2007304489A (en) Musical piece practice supporting device, control method, and program
JP6163755B2 (en) Information processing apparatus, information processing method, and program
Jylhä et al. Design and evaluation of human-computer rhythmic interaction in a tutoring system
JP5949688B2 (en) Information processing apparatus and program
JP5954288B2 (en) Information processing apparatus and program
JP4501874B2 (en) Music practice device
JP5954287B2 (en) Information processing apparatus and program
JP2013202153A (en) Exercise support device, exercise support method, and program
JP6048136B2 (en) Information processing apparatus, information processing method, and program
JP2014046018A (en) Information processor, information processing method, and program
JP5949687B2 (en) Information processing apparatus and program
JP5958389B2 (en) Information processing apparatus and program
Henriks Mapping physical movement parameters to auditory parameters by using human body movement
JP5928257B2 (en) Information processing apparatus, information processing method, and program
JP5928361B2 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160523

R150 Certificate of patent or registration of utility model

Ref document number: 5949638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees