JP5949687B2 - Information processing apparatus and program - Google Patents

Information processing apparatus and program Download PDF

Info

Publication number
JP5949687B2
JP5949687B2 JP2013149906A JP2013149906A JP5949687B2 JP 5949687 B2 JP5949687 B2 JP 5949687B2 JP 2013149906 A JP2013149906 A JP 2013149906A JP 2013149906 A JP2013149906 A JP 2013149906A JP 5949687 B2 JP5949687 B2 JP 5949687B2
Authority
JP
Japan
Prior art keywords
information
motion
exercise
attribute
performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013149906A
Other languages
Japanese (ja)
Other versions
JP2015019820A (en
Inventor
弘明 松場
弘明 松場
雅弘 亀井
雅弘 亀井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2013149906A priority Critical patent/JP5949687B2/en
Publication of JP2015019820A publication Critical patent/JP2015019820A/en
Application granted granted Critical
Publication of JP5949687B2 publication Critical patent/JP5949687B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、ユーザが楽曲を聴きながら行う運動を支援するための運動コンテンツを出力する技術分野に関する。 The present invention relates to a technical field of outputting exercise content for supporting exercise performed by a user while listening to music.

従来、楽曲を構成する複数の演奏パートのそれぞれに運動動作を割り当てる技術が知られている。例えば、特許文献1には、演奏パートの種類に応じた運動種類の運動動作を、演奏パートに割り当てる技術が開示されている。   2. Description of the Related Art Conventionally, a technique for assigning an exercise motion to each of a plurality of performance parts constituting a music is known. For example, Patent Document 1 discloses a technique for allocating an exercise operation of an exercise type corresponding to the type of a performance part to the performance part.

特開2012−65966号公報JP 2012-65966 A

運動コンテンツの生成を効率化するために、各演奏パートに割り当てる運動動作を、予め用意されている複数の運動動作の中から自動的に決定することが考えられる。しかしながら、従来の技術では、各演奏パートに合う運動動作を割り当てることはできるものの、運動動作と運動動作との繋がりについては考慮されていなかった。そのため、運動動作の繋がりに違和感のある運動コンテンツが生成されてしまう場合があった。   In order to increase the efficiency of the generation of exercise content, it is conceivable to automatically determine the exercise operation assigned to each performance part from a plurality of exercise operations prepared in advance. However, in the conventional technique, although the motion motion suitable for each performance part can be assigned, the connection between the motion motion and the motion motion has not been considered. For this reason, there is a case in which exercise content having a sense of incongruity in the connection of exercise motion is generated.

本発明は、以上の点に鑑みてなされたものであり、運動動作の繋がりが自然になるように各演奏パートに運動動作を自動的に割り当てることを可能とする情報処理装置及びプログラムを提供することを課題とする。   The present invention has been made in view of the above points, and provides an information processing apparatus and program capable of automatically allocating exercise motion to each performance part so that the connection of exercise motion becomes natural. This is the issue.

上記課題を解決するために、請求項1に記載の発明は、複数の演奏パートで構成される楽曲を示す楽曲情報と、前記複数の演奏パートの属性を示す第1属性情報とを記憶する第1記憶手段と、複数の運動動作を示す複数の動作情報と、前記複数の動作情報を利用可能な演奏パートの属性を示す第2属性情報と、前記複数の動作情報の繋ぎ属性を示す繋ぎ属性情報とを対応付けて記憶する第2記憶手段と、前記複数の演奏パートに含まれる第1演奏パートの前記第1属性情報に一致する前記第2属性情報に対応する前記動作情報を前記第2記憶手段から検索する第1検索手段と、前記第1検索手段により検索された前記動作情報の前記繋ぎ属性情報に一致する前記繋ぎ属性情報に対応し、且つ、前記第1演奏パートの次の出力順の第2演奏パートの前記第1属性情報に一致する前記第2属性情報に対応する前記動作情報を前記第2記憶手段から検索する第2検索手段と、前記第1検索手段及び第2検索手段の検索結果に基づいて、前記複数の演奏パートに合う複数の運動動作を示すリスト情報を生成する生成手段と、を備えることを特徴とする。   In order to solve the above-mentioned problem, the invention according to claim 1 is configured to store music information indicating music composed of a plurality of performance parts and first attribute information indicating attributes of the plurality of performance parts. 1 storage means, a plurality of movement information indicating a plurality of movements, a second attribute information indicating an attribute of a performance part that can use the plurality of movement information, and a connection attribute indicating a connection attribute of the plurality of movement information Second storage means for storing information in association with each other, and the second operation information corresponding to the second attribute information that matches the first attribute information of the first performance part included in the plurality of performance parts. A first search means for searching from the storage means; and a next output of the first performance part corresponding to the connection attribute information matching the connection attribute information of the motion information searched by the first search means Second performance par Based on search results from the second storage means for searching for the operation information corresponding to the second attribute information that matches the first attribute information, and the search results of the first search means and the second search means. And generating means for generating list information indicating a plurality of movements suitable for the plurality of performance parts.

請求項2に記載の発明は、前記第2記憶手段に記憶される前記繋ぎ属性情報は、前記動作情報の前繋ぎ属性と後ろ繋ぎ属性とを示し、前記第2検索手段は、前記第1検索手段により検索された前記動作情報の前記繋ぎ属性情報が示す後ろ繋ぎ属性に一致する前繋ぎ属性を示す前記繋ぎ属性情報に対応し、且つ、前記第1演奏パートの次の出力順の第2演奏パートの前記第1属性情報に一致する前記第2属性情報に対応する前記動作情報を前記第2記憶手段から検索し、前記第2検索手段により検索された前記動作情報の前記繋ぎ属性情報が示す後ろ繋ぎ属性に一致する前繋ぎ属性を示す前記繋ぎ属性情報に対応し、且つ、前記第2演奏パートの次の出力順の第3演奏パートの前記第1属性情報に一致する前記第2属性情報に対応する前記動作情報を前記第2記憶手段から検索する第3検索手段を更に備え、前記生成手段は、前記第1検索手段、第2検索手段及び第3検索手段の検索結果に基づいて、前記リスト情報を生成することを特徴とする。 According to a second aspect of the present invention, the connection attribute information stored in the second storage means indicates a front connection attribute and a back connection attribute of the motion information, and the second search means is the first search. The second performance corresponding to the connection attribute information indicating the previous connection attribute that matches the back connection attribute indicated by the connection attribute information of the motion information retrieved by the means and in the next output order of the first performance part The operation information corresponding to the second attribute information that matches the first attribute information of the part is searched from the second storage unit, and the connection attribute information of the operation information searched by the second search unit indicates The second attribute information that corresponds to the connection attribute information indicating the front connection attribute that matches the back connection attribute and matches the first attribute information of the third performance part in the next output order of the second performance part. The operation corresponding to Further comprising third search means for searching for information from the second storage means, wherein the generation means generates the list information based on search results of the first search means, the second search means and the third search means. It is characterized by doing.

請求項3に記載の発明は、前記複数の動作情報に対応付けて、運動動作をサポートするナレーションを示すナレーション情報と、前記運動動作の開始から何拍前に前記ナレーション情報を出力するかを示す拍情報とを記憶する第3記憶手段と、前記第3記憶手段に記憶された前記拍情報に基づいて、前記楽曲情報が出力されているときの前記ナレーション情報の出力のタイミングであって、前記生成手段により生成された前記リスト情報が示す前記運動動作に対応する前記ナレーション情報の出力のタイミングを示すタイミング情報を生成する第2生成手段と、を更に備えることを特徴とする。   According to a third aspect of the present invention, the narration information indicating the narration that supports the motor motion is associated with the plurality of motion information, and how many beats before the start of the motor motion is output. A third storage means for storing beat information; and a timing of outputting the narration information when the music information is output based on the beat information stored in the third storage means, And second generation means for generating timing information indicating the output timing of the narration information corresponding to the exercise motion indicated by the list information generated by the generation means.

請求項4に記載の発明は、前記第1記憶手段は、前記楽曲のテンポを示す第1テンポ情報を更に記憶し、前記第2記憶手段は、前記運動動作のテンポを示す第2テンポ情報を更に記憶し、前記第1検索手段は、前記第2記憶手段に記憶された複数の前記第2テンポ情報のうち、前記第1記憶手段に記憶された前記第1テンポ情報が示すテンポに最も近いテンポを示す前記第2テンポ情報に対応する前記動作情報を検索し、前記第2検索手段は、前記第1検索手段により検索された前記動作情報の前記第2テンポ情報に一致する前記第2テンポ情報に対応する前記動作情報を検索し、前記第1検索手段により検索された前記動作情報の前記第2テンポ情報が示すテンポに従って、前記第1記憶手段に記憶された前記楽曲情報を出力手段により出力させる制御手段を更に備えることを特徴とする。   According to a fourth aspect of the present invention, the first storage means further stores first tempo information indicating the tempo of the music, and the second storage means stores second tempo information indicating the tempo of the exercise action. Further, the first search means is closest to the tempo indicated by the first tempo information stored in the first storage means among the plurality of second tempo information stored in the second storage means. The motion information corresponding to the second tempo information indicating the tempo is searched, and the second search means matches the second tempo that matches the second tempo information of the motion information searched by the first search means. The operation information corresponding to the information is searched, and the music information stored in the first storage unit is output by the output unit according to the tempo indicated by the second tempo information of the operation information searched by the first search unit. Out Characterized in that it further comprises control means for.

請求項5に記載の発明は、前記第1記憶手段は、演奏パートの拍数を示す前記第1属性情報を記憶し、前記第2記憶手段は、運動動作の拍数を示す前記第2属性情報を記憶し、前記第1検索手段及び前記第2検索手段は、演奏パートの拍数に一致する拍数の運動動作を示す前記動作情報を検索することを特徴とする。   According to a fifth aspect of the present invention, the first storage means stores the first attribute information indicating the number of beats of a performance part, and the second storage means stores the second attribute indicating the number of beats of an exercise action. The information is stored, and the first search means and the second search means search for the action information indicating an exercise action having a beat number that matches the beat number of the performance part.

請求項6に記載の発明は、複数の運動動作を示す複数の動作情報と、前記複数の動作情報を利用可能な演奏パートの属性を示す第2属性情報と、前記複数の動作情報の繋ぎ属性を示す繋ぎ属性情報とを対応付けて記憶する第2記憶手段から、複数の演奏パートで構成される楽曲を示す楽曲情報と、前記複数の演奏パートの属性を示す第1属性情報とを記憶する第1記憶手段に記憶された前記第1属性情報であって、前記複数の演奏パートに含まれる第1演奏パートの前記第1属性情報に一致する前記第2属性情報に対応する前記動作情報を検索する第1検索ステップと、前記第1検索ステップにより検索された前記動作情報の前記繋ぎ属性情報に一致する前記繋ぎ属性情報に対応し、且つ、前記第1演奏パートの次の出力順の第2演奏パートの前記第1属性情報に一致する前記第2属性情報に対応する前記動作情報を前記第2記憶手段から検索する第2検索ステップと、前記第1検索ステップ及び第2検索ステップの検索結果に基づいて、前記複数の演奏パートに合う複数の運動動作を示すリスト情報を生成する生成ステップと、をコンピュータに実行させることを特徴とする。   According to a sixth aspect of the present invention, there is provided a plurality of movement information indicating a plurality of movements, second attribute information indicating attributes of a performance part that can use the plurality of movement information, and a connection attribute of the plurality of movement information From the second storage means for storing the association attribute information indicating the music information, the music information indicating the music composed of a plurality of performance parts and the first attribute information indicating the attributes of the plurality of performance parts are stored. The operation information corresponding to the second attribute information that is the first attribute information stored in the first storage means and matches the first attribute information of the first performance part included in the plurality of performance parts. A first search step for searching, and a first output step corresponding to the connection attribute information that matches the connection attribute information of the motion information searched in the first search step and in the next output order of the first performance part. 2 performance parts Based on the second search step of searching the operation information corresponding to the second attribute information that matches the first attribute information from the second storage means, and the search results of the first search step and the second search step And a generation step of generating list information indicating a plurality of athletic movements suitable for the plurality of performance parts.

請求項1、2又は6に記載の発明によれば、前の演奏パートに割り当てられる運動動作の繋ぎ属性と一致する繋ぎ属性を有する運動動作が、次の演奏パートに割り当てられる。そのため、運動動作の繋がりが自然になるように各演奏パートに運動動作を自動的に割り当てることができる。   According to the first, second, or sixth aspect of the present invention, an exercise operation having a connection attribute that matches the connection attribute of the exercise operation assigned to the previous performance part is assigned to the next performance part. For this reason, it is possible to automatically assign an exercise operation to each performance part so that the connection of the exercise operation becomes natural.

請求項3に記載の発明によれば、運動動作に対応するナレーションを運動動作の開始に先立って出力することができる。   According to the third aspect of the present invention, it is possible to output a narration corresponding to an exercise operation prior to the start of the exercise operation.

請求項4に記載の発明によれば、楽曲のテンポに応じた運動動作を、楽曲のテンポに近いテンポで行うことができる。   According to the fourth aspect of the present invention, it is possible to perform an exercise operation according to the tempo of the music at a tempo close to the tempo of the music.

請求項5に記載の発明によれば、演奏パートの拍数に合う運動動作を演奏パートに割り当てることができる。   According to the fifth aspect of the present invention, it is possible to assign an exercise motion that matches the beat number of the performance part to the performance part.

一実施形態の運動コンテンツ生成システム1の概要構成例を示す図である。It is a figure showing an example of outline composition of exercise content generation system 1 of one embodiment. (A)は、運動動作の構成例を示す図であり、(B)は、部品IDの割り当て例を示す図である。(A) is a figure which shows the structural example of an exercise | movement operation | movement, (B) is a figure which shows the example of allocation of component ID. (A)は、部品テーブルの構成例を示す図であり、(B)は、繋ぎ動作テーブルの構成例を示す図であり、(C)は、運動ジャンルテーブルの構成例を示す図であり、(D)は、ナレーションタイミングファイルの内容の一例を示す図であり、(E)は、効果音タイミングファイルの内容の一例を示す図である。(A) is a figure which shows the structural example of a components table, (B) is a figure which shows the structural example of a connection operation | movement table, (C) is a figure which shows the structural example of an exercise genre table, (D) is a figure which shows an example of the content of a narration timing file, (E) is a figure which shows an example of the content of a sound effect timing file. (A)は、楽曲の構成例を示す図であり、(B)〜(F)は、部品リスト表の更新過程の一例を示す図である。(A) is a figure which shows the structural example of a music, (B)-(F) is a figure which shows an example of the update process of a components list table. (A)は、出力端末5のCPU51のメイン処理の処理例を示すフローチャートであり、(B)は、出力端末5のCPU51の選択情報取得処理の処理例を示すフローチャートであり、(C)は、出力端末5のCPU51の運動情報生成処理の処理例を示すフローチャートであり、(D)は、出力端末5のCPU51の再生処理の処理例を示すフローチャートである。(A) is a flowchart showing a processing example of a main process of the CPU 51 of the output terminal 5, (B) is a flowchart showing a processing example of a selection information acquisition process of the CPU 51 of the output terminal 5, and (C). FIG. 5 is a flowchart showing an example of exercise information generation processing of the CPU 51 of the output terminal 5, and (D) is a flowchart showing an example of reproduction processing of the CPU 51 of the output terminal 5. 出力端末5のCPU51の部品リスト生成処理の処理例を示すフローチャートである。10 is a flowchart illustrating a processing example of a parts list generation process of a CPU 51 of the output terminal 5.

以下、本発明の実施形態を図面に基づいて説明する。なお、以下に説明する実施の形態は、運動を支援するための運動コンテンツを生成する運動コンテンツ生成システムに本発明を適用した場合の実施形態である。運動コンテンツは、運動を支援するための映像及び音声を含む。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, embodiment described below is embodiment at the time of applying this invention to the exercise content production | generation system which produces | generates the exercise content for supporting exercise. The exercise content includes video and audio for supporting exercise.

[1.運動コンテンツ生成システム1の構成]
始めに、図1を参照して、本実施形態の運動コンテンツ生成システム1の構成について説明する。図1は、本実施形態の運動コンテンツ生成システム1の概要構成例を示す図である。図1に示すように、運動コンテンツ生成システム1は、配信サーバ2と1つ以上の出力端末5とを含んで構成されている。配信サーバ2と出力端末5とは、ネットワーク10を介して接続可能になっている。ネットワーク10は、例えば、インターネットを含む。配信サーバ2には、データベース3が接続されている。データベース3には、運動に関する情報や楽曲に関する情報が登録されている。配信サーバ2は、データベース3に登録されている情報等を、定期的に又は出力端末5からの要求に応じて出力端末5に配信する。
[1. Configuration of Exercise Content Generation System 1]
First, the configuration of the exercise content generation system 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating a schematic configuration example of an exercise content generation system 1 according to the present embodiment. As shown in FIG. 1, the exercise content generation system 1 includes a distribution server 2 and one or more output terminals 5. The distribution server 2 and the output terminal 5 can be connected via the network 10. The network 10 includes, for example, the Internet. A database 3 is connected to the distribution server 2. Information relating to exercise and information relating to music are registered in the database 3. The distribution server 2 distributes information registered in the database 3 to the output terminal 5 periodically or in response to a request from the output terminal 5.

出力端末5は、例えば、施設4に設置される端末装置である。出力端末5は、本発明の情報処理装置の一例である。出力端末5は、施設4の利用者41により利用される。施設4は、例えば、スポーツ施設であってもよい。利用者41は、スポーツ施設において、運動レッスンを受ける。運動レッスンは、複数の運動動作と歌唱により構成されるレッスンである。この場合の出力端末5は、例えばパーソナルコンピュータであってもよい。   The output terminal 5 is a terminal device installed in the facility 4, for example. The output terminal 5 is an example of an information processing apparatus of the present invention. The output terminal 5 is used by a user 41 of the facility 4. The facility 4 may be a sports facility, for example. The user 41 receives an exercise lesson at the sports facility. An exercise lesson is a lesson composed of a plurality of exercises and singing. The output terminal 5 in this case may be a personal computer, for example.

出力端末5は、モニタ57と接続可能である。モニタ57は、複数のスピーカ64とディスプレイ67とを備える表示装置であってもよい。この場合、出力端末5は、ディスプレイ67と接続可能である。また、出力端末5は、スピーカ64と接続可能である。スピーカ64は、本発明の出力手段の一例である。出力端末5がモニタ57へ音声信号を出力することにより、スピーカ64により楽曲等が出力される。出力端末5がモニタ57へ映像信号を出力することにより、ディスプレイ67に運動映像等が表示される。運動映像は、動作を行うフィギュア83を映し出した動画である。フィギュア83は、例えば、人、動物、仮想上の生き物、ロボット等のかたちをした仮想物である。フィギュア83は、三次元仮想空間に配置される。出力端末5は、スピーカ64から出力される楽曲と、ディスプレイ67に表示されるフィギュア83の動きとが同期するように、信号を出力する。楽曲と運動映像とを出力することは、運動コンテンツを出力することの一例である。利用者41は、楽曲を聴きながら、ディスプレイ67に表示されるフィギュア83を見て、運動を行うことができる。操作者42は、リモコン66等を用いて出力端末5を操作することができる。利用者41と操作者42とは同一人物であってもよい。施設4がスポーツ施設である場合、操作者42は、例えば、インストラクターであってもよい。   The output terminal 5 can be connected to the monitor 57. The monitor 57 may be a display device including a plurality of speakers 64 and a display 67. In this case, the output terminal 5 can be connected to the display 67. The output terminal 5 can be connected to a speaker 64. The speaker 64 is an example of the output means of the present invention. When the output terminal 5 outputs an audio signal to the monitor 57, music or the like is output from the speaker 64. When the output terminal 5 outputs a video signal to the monitor 57, an exercise video or the like is displayed on the display 67. The motion video is a moving image that shows a figure 83 that performs the motion. The figure 83 is a virtual object in the form of, for example, a person, an animal, a virtual creature, or a robot. The figure 83 is arranged in a three-dimensional virtual space. The output terminal 5 outputs a signal so that the music output from the speaker 64 and the movement of the figure 83 displayed on the display 67 are synchronized. Outputting music and motion video is an example of outputting motion content. The user 41 can exercise while watching the figure 83 displayed on the display 67 while listening to the music. The operator 42 can operate the output terminal 5 using the remote controller 66 or the like. The user 41 and the operator 42 may be the same person. When the facility 4 is a sports facility, the operator 42 may be an instructor, for example.

[2.演奏パートに対する運動動作の割り当て]
運動レッスンが行われるときにモニタ57が出力する運動コンテンツは、少なくとも楽曲と運動映像とを含む。また、運動コンテンツは、ナレーション、効果音等を含んでもよい。ナレーション及び効果音の詳細については後述する。楽曲は、複数の演奏パートで構成される。スピーカ64から、楽曲の構成に従った演奏パートの順で楽曲が出力される。演奏パートが出力される順序を演奏順という。各演奏パートは、例えば、前奏、Aメロ、Bメロ、サビ、間奏又は後奏等であってもよい。なお、1つの運動レッスンで複数の楽曲が順次スピーカ64から出力されてもよい。楽曲を構成する各演奏パートに、それぞれ運動動作が割り当てられる。運動動作は、例えば、身体を鍛えるための動作である。運動動作として、例えば、体操の動作と踊りの動作とがある。体操は、例えば、健康の増進、体力の増強、筋力の強化等のために行われる運動である。体操の種類として、例えば、有酸素運動、無酸素運動、ストレッチ等がある。踊りの動作は、楽曲に合わせて踊るために楽曲に対して振り付けられた動作である。出力端末5は、運動コンテンツを出力するとき、スピーカ64により出力されている演奏パートに割り当てられた運動動作をフィギュア83が行う運動映像をディスプレイ67に表示させる。
[2. Assignment of motor movement to performance part]
The exercise content output by the monitor 57 when an exercise lesson is performed includes at least music and an exercise video. The exercise content may include narration, sound effects, and the like. Details of narration and sound effects will be described later. The music is composed of a plurality of performance parts. The music is output from the speaker 64 in the order of performance parts according to the composition of the music. The order in which the performance parts are output is called the performance order. Each performance part may be, for example, a prelude, an A melody, a B melody, a chorus, an interlude or a posterior. A plurality of music pieces may be sequentially output from the speaker 64 in one exercise lesson. An exercise motion is assigned to each performance part constituting the music. The exercise operation is an operation for training the body, for example. Examples of the exercise operation include a gymnastic operation and a dance operation. The gymnastic exercise is, for example, an exercise performed for promoting health, strengthening physical strength, strengthening muscle strength, and the like. Examples of gymnastic exercises include aerobic exercise, anaerobic exercise, and stretching. The dance motion is a motion that is choreographed to the music to dance to the music. When outputting the exercise content, the output terminal 5 causes the display 67 to display an exercise image in which the figure 83 performs the exercise operation assigned to the performance part output by the speaker 64.

図1に示すように、データベース3には、モーションデータが登録されている。モーションデータは、三次元仮想空間におけるフィギュア83の運動動作を定義するデータである。また、モーションデータは、ディスプレイ67に表示されるフィギュア83に運動動作をさせるためのデータである。モーションデータは、運動動作の進行に応じたフィギュア83の身体の各部の座標を含む。具体的には、モーションデータには、時系列に沿って、運動動作の進行に応じたフィギュア83の身体部位の座標が含まれる。時系列に沿って、フィギュア83の身体部位が、モーションデータに従って表示されることで、所定の運動動作を実行するフィギュア83の映像が、ディスプレイ67に表示される。本実施形態において、出力端末5は、運動映像としてフィギュア83の三次元画像をディスプレイ67に表示させる。しかしながら、出力端末5は、フィギュア83の二次元画像を表示させてもよい。各モーションデータは、例えば汎用性がある。例えば、各モーションデータは、様々な楽曲に利用可能なように予め作成されてもよい。出力端末5は、データベース3に登録されている複数のモーションデータを識別可能なモーションIDの中から、各演奏パートに割り当てるモーションIDを自動的に決定する。なお、モーションIDには、所定の属性を示す属性情報が対応付けられて、所定の記憶手段に記憶される。   As shown in FIG. 1, motion data is registered in the database 3. The motion data is data that defines the motion motion of the figure 83 in the three-dimensional virtual space. Further, the motion data is data for causing the figure 83 displayed on the display 67 to perform an exercise motion. The motion data includes the coordinates of each part of the body of the figure 83 according to the progress of the motion movement. Specifically, the motion data includes the coordinates of the body part of the figure 83 according to the progress of the motion movement in time series. The body part of the figure 83 is displayed according to the motion data along the time series, so that an image of the figure 83 that performs a predetermined exercise operation is displayed on the display 67. In the present embodiment, the output terminal 5 displays a three-dimensional image of the figure 83 on the display 67 as a motion image. However, the output terminal 5 may display a two-dimensional image of the figure 83. Each motion data has versatility, for example. For example, each motion data may be created in advance so that it can be used for various musical pieces. The output terminal 5 automatically determines a motion ID to be assigned to each performance part from among motion IDs that can identify a plurality of motion data registered in the database 3. The motion ID is associated with attribute information indicating a predetermined attribute and stored in a predetermined storage unit.

モーションIDの属性と、楽曲及び演奏パートの属性とが合えば、基本的にはモーションIDをその演奏パートに割り当てることができる。モーションIDの属性として、例えば、運動動作の長さを示す拍数、割り当て可能な演奏パートの種別、運動動作のテンポ等がある。楽曲の属性として、例えばテンポ等がある。演奏パートの属性として、例えば拍数、演奏パートの種別等がある。しかしながら、上述したように、モーションデータは、様々な楽曲に利用可能なように作成される。そのため、連続する運動動作同士の繋がりが考慮されていないと、運動動作の繋がりに違和感のある運動コンテンツが生成される。例えば、前奏にマーチのモーションIDが割り当てられ、前奏の次に演奏されるAメロに、スクワットのモーションIDが割り当てられたとする。この場合、ディスプレイ67に表示されるフィギュア83は、前奏でマーチの動作を行う。その後、前奏からAメロに演奏が切り替わると、フィギュア83の動作がマーチから急にスクワットに切り替わる。表示されるフィギュア83を見ながら運動する利用者41は、マーチからスクワットへ運動動作を自然に移行させることが難しい場合がある。   If the attributes of the motion ID match the attributes of the music piece and the performance part, basically the motion ID can be assigned to the performance part. As attributes of the motion ID, for example, there are the number of beats indicating the length of the motion, the type of performance part that can be assigned, the tempo of the motion, and the like. As an attribute of the music, for example, there is a tempo. The performance part attributes include, for example, the number of beats and the performance part type. However, as described above, motion data is created so that it can be used for various musical pieces. For this reason, if the connection between consecutive motor movements is not taken into consideration, the motor content with a sense of incongruity in the connection of motor movements is generated. For example, a March motion ID is assigned to the prelude, and a squat motion ID is assigned to the A melody played after the prelude. In this case, the figure 83 displayed on the display 67 performs a march operation in the prelude. Thereafter, when the performance is switched from the prelude to the A melody, the operation of the figure 83 is suddenly switched from the march to the squat. It may be difficult for the user 41 exercising while looking at the displayed figure 83 to naturally shift the exercise operation from the march to the squat.

そこで、本実施形態では、運動動作が自然に繋がるように、各モーションデータを示すモーションIDに対して繋ぎ属性が定義される。なお、本実施形態は、モーションIDと対応付けられた部品IDに対して繋ぎ属性が定義された例を用いて説明する。なお、部品IDではなく、モーションIDに対して繋ぎ属性が定義されていても良い。例えば、前繋ぎ動作、メイン動作及び後繋ぎ動作を順次実行するフィギュア83の映像が表示されるように、各モーションデータが予め作成されてもよい。メイン動作は、モーションデータの中で主に行われる動作である。例えば、メイン動作の拍数は、前繋ぎ動作及び後繋ぎ動作の拍数よりも長い。前繋ぎ動作は、モーションデータを示す部品IDまたはモーションIDが割り当てられた演奏パートの前の演奏順の演奏パートが出力されているときの最後の部分で行われる運動動作である。後繋ぎ動作は、モーションデータを示す部品IDまたはモーションIDが割り当てられた演奏パートの最後の部分で行われる運動動作である。メイン動作の拍数と後繋ぎ動作の拍数の合計は、部品IDを割り当て可能な演奏パートの拍数に一致する。   Therefore, in the present embodiment, a connection attribute is defined for the motion ID indicating each motion data so that the motion is naturally connected. This embodiment will be described using an example in which a connection attribute is defined for a component ID associated with a motion ID. Note that a connection attribute may be defined for the motion ID instead of the component ID. For example, each motion data may be created in advance so that an image of the figure 83 that sequentially executes the front connection operation, the main operation, and the back connection operation is displayed. The main operation is an operation mainly performed in the motion data. For example, the number of beats of the main operation is longer than the number of beats of the front connection operation and the back connection operation. The pre-joining operation is an exercise operation performed in the last part when a performance part in the order of performance is output before a performance part to which a part ID indicating motion data or a motion ID is assigned. The post-joining operation is an exercise operation performed at the last part of the performance part to which the component ID indicating the motion data or the motion ID is assigned. The sum of the number of beats of the main operation and the number of beats of the connecting operation matches the number of beats of the performance part to which the component ID can be assigned.

繋ぎ属性は、部品IDの属性の一種である。また、繋ぎ属性はモーションIDの属性の一種であっても良い。繋ぎ属性として、前繋ぎ属性と後繋ぎ属性とがある。前繋ぎ属性は、前繋ぎ動作の内容を示す。後繋ぎ属性は、後繋ぎ動作の内容を示す。例えば、前繋ぎ動作がマーチであり、メイン動作がフロントランジであり、後繋ぎ動作がステップであるとする。この場合、前繋ぎ属性はマーチを示し、後繋ぎ属性はステップを示す。   The connection attribute is a kind of component ID attribute. The connection attribute may be a kind of attribute of motion ID. As connection attributes, there are a front connection attribute and a back connection attribute. The previous connection attribute indicates the content of the previous connection operation. The back connection attribute indicates the content of the back connection operation. For example, assume that the front joining operation is a march, the main operation is a front lunge, and the back joining operation is a step. In this case, the front connection attribute indicates a march, and the rear connection attribute indicates a step.

前繋ぎ動作とメイン動作とが自然に繋がるように、且つ、メイン動作と後繋ぎ動作とが自然に繋がるように、モーションデータが作成される。例えば、インストラクター等の体に、三次元空間における身体部位の座標を取得するための加速度センサを装着させる。例えば、手首、肘、肩、足の付け根、膝、足首等に加速度センサが装着される。インストラクター等は、前繋ぎ動作、メイン動作及び後繋ぎ動作で構成される運動動作を行う。加速度センサが検出する加速度の情報に基づいて、例えば所定の装置が、運動動作が行われるときの各身体部位の座標を所定時間間隔で取得する。そして、取得された座標に基づいて、モーションデータが作成される。所定の装置は、例えば、出力端末5や配信サーバ2等であってもよい。   Motion data is created so that the front connection operation and the main operation are naturally connected, and the main operation and the back connection operation are naturally connected. For example, an acceleration sensor for acquiring the coordinates of a body part in a three-dimensional space is attached to a body such as an instructor. For example, acceleration sensors are attached to wrists, elbows, shoulders, bases of feet, knees, ankles, and the like. An instructor or the like performs an exercise operation composed of a front connecting operation, a main operation, and a rear connecting operation. Based on the acceleration information detected by the acceleration sensor, for example, a predetermined device acquires the coordinates of each body part when exercise motion is performed at predetermined time intervals. Then, based on the acquired coordinates, motion data is created. The predetermined device may be, for example, the output terminal 5, the distribution server 2, or the like.

図2(A)は、フロントランジAという運動動作の構成例を示す図である。フロントランジAの前繋ぎ動作、メイン動作及び後繋ぎ動作は、それぞれマーチ、フロントランジ及びステップである。フロントランジAは、64拍の演奏パート用の運動動作である。図2(A)の例では、メイン動作のフロントランジの拍数は60であり、前繋ぎ動作のマーチ及び後繋ぎ動作のステップの拍数はそれぞれ4である。なお、前繋ぎ動作及び後繋ぎ動作の拍数は何拍であってもよい。また、前繋ぎ動作、メイン動作及び後繋ぎ動作は互いに異なる運動動作であってもよい。また、前繋ぎ動作、メイン動作及び後繋ぎ動作のうち少なくとも2つの運動動作が同一の運動動作であってもよい。楽曲を構成する複数の演奏パートのうち演奏順が1番目の演奏パートに割り当てられる部品IDが示すモーションデータは、メイン動作と後繋ぎ動作のみの映像が表示されるように作成されてもよい。また、最後に演奏される演奏パートに割り当てられる部品IDが示すモーションデータは、前繋ぎ動作とメイン動作のみの映像が表示されるように作成されてもよい。   FIG. 2A is a diagram showing a configuration example of a motion operation called front lunge A. FIG. The front connecting operation, main operation, and rear connecting operation of the front lunge A are a march, a front lunge, and a step, respectively. Front lunge A is a motion action for a performance part of 64 beats. In the example of FIG. 2A, the number of beats of the front lunge of the main operation is 60, and the number of beats of the step of the front joint operation and the step of the back joint operation is 4, respectively. Note that the number of beats of the front connecting operation and the rear connecting operation may be any number of beats. Further, the front connecting operation, the main operation, and the rear connecting operation may be different motion operations. In addition, at least two of the front connection operation, the main operation, and the rear connection operation may be the same exercise operation. The motion data indicated by the component ID assigned to the first performance part among the plurality of performance parts constituting the music piece may be created so that only the main operation and the back connection operation are displayed. Also, the motion data indicated by the component ID assigned to the performance part to be played last may be created so that only the video of the front connection operation and the main operation is displayed.

出力端末5は、先ず演奏順が1番目の演奏パートに割り当て可能な部品IDを検索する。具体的に、出力端末5は、1番目の演奏パートの属性に一致する属性を有する部品IDを検索する。次いで、出力端末5は、2番目の演奏パートに割り当て可能な部品IDを検索する。このとき、出力端末5は、繋ぎ属性を考慮する。具体的に、出力端末5は、1番目の演奏パートに割り当て可能な部品IDの後繋ぎ属性と一致する前繋ぎ属性を有する部品IDであって、且つ、2番目の演奏パートの属性に一致する属性を有する部品IDを検索する。次いで、出力端末5は、3番目の演奏パートに割り当て可能な部品IDを検索する。具体的に、出力端末5は、2番目の演奏パートに割り当て可能な部品IDの後繋ぎ属性と一致する前繋ぎ属性を有する部品IDであって、且つ、3番目の演奏パートの属性に一致する属性を有する部品IDを検索する。出力端末5は、4番目以降の演奏パートについても、同様に部品IDを検索する。   The output terminal 5 first searches for a component ID that can be assigned to the first performance part in the performance order. Specifically, the output terminal 5 searches for a component ID having an attribute that matches the attribute of the first performance part. Next, the output terminal 5 searches for a part ID that can be assigned to the second performance part. At this time, the output terminal 5 considers the connection attribute. Specifically, the output terminal 5 is a component ID having a front connection attribute that matches the rear connection attribute that can be assigned to the first performance part, and matches the attribute of the second performance part. Search for a component ID having an attribute. Next, the output terminal 5 searches for a part ID that can be assigned to the third performance part. Specifically, the output terminal 5 is a component ID having a front connection attribute that matches the back connection attribute of the component ID that can be assigned to the second performance part, and matches the attribute of the third performance part. Search for a component ID having an attribute. The output terminal 5 similarly searches for the component ID for the fourth and subsequent performance parts.

出力端末5は、各演奏パートに対する部品IDの検索結果に基づいて、部品リストを生成する。部品リストは、運動レッスンの構成を定めた情報である。具体的に、部品リストは、楽曲を構成する複数の演奏パートに合う複数の部品IDを示す。部品リストには、演奏パートごとに、演奏パートID及び部品ID等が格納される。演奏パートIDは、演奏パートの識別情報である。例えば、演奏パートIDは、楽曲を構成する複数の演奏パートの中から識別する演奏パートの演奏順を示してもよい。部品IDは、モーションデータを識別する識別情報である。例えば、部品IDにより運動動作が識別される。部品IDと、部品IDが割り当てられた演奏パートの演奏パートIDとが対応付けられて部品リストに格納される。部品IDは、本発明における動作情報の一例である。例えば部品IDの代わりに、モーションIDまたはモーションデータが本発明の動作情報として用いられてもよい。   The output terminal 5 generates a parts list based on the part ID search result for each performance part. The parts list is information that defines the structure of an exercise lesson. Specifically, the component list indicates a plurality of component IDs that match a plurality of performance parts constituting the music. In the parts list, a performance part ID, a part ID, and the like are stored for each performance part. The performance part ID is performance part identification information. For example, the performance part ID may indicate the performance order of performance parts identified from a plurality of performance parts constituting the music. The component ID is identification information for identifying motion data. For example, the motion motion is identified by the component ID. The component ID and the performance part ID of the performance part to which the component ID is assigned are associated with each other and stored in the component list. The component ID is an example of operation information in the present invention. For example, instead of the component ID, a motion ID or motion data may be used as the operation information of the present invention.

図2(B)は、部品IDの割り当て例を示す図である。図2(B)において、或る楽曲は、演奏パート1〜3を含む。演奏パート1は演奏順が1番目の演奏パートであり、演奏パート2は演奏順が2番目の演奏パートであり、演奏パート3は演奏順が3番目の演奏パートである。演奏パート1の拍数は32拍である。出力端末5は、演奏パート1に対して、例えばマーチBのモーションIDと対応付けられた部品IDを割り当てる。マーチBは32拍の運動動作である。マーチBのメイン動作及び後繋ぎ動作は何れもマーチである。従って、マーチBの後繋ぎ属性はマーチを示す。演奏パート2の拍数は64拍である。出力端末5は、64拍の運動動作を示すモーションIDと対応付けられた部品IDのうち前繋ぎ属性がマーチを示す部品IDを演奏パート2に割り当てる。例えば、図2(A)に示すフロントランジAの部品IDが割り当てられる。マーチBの後繋ぎ動作であるマーチと、フロントランジAの前繋ぎ動作であるマーチとは基本的に同一の動作である。演奏パート3の拍数は32拍である。フロントランジAの後繋ぎ属性はステップを示す。出力端末5は、32拍の運動動作を示すモーションIDと対応付けられた部品IDのうち前繋ぎ属性がステップを示す部品IDを演奏パート2に割り当てる。例えば、スクワットCのモーションIDと対応付けられた部品IDが割り当てられる。スクワットCの前繋ぎ動作及びメイン動作はそれぞれステップ及びスクワットである。フロントランジAの後繋ぎ動作であるステップと、スクワットCの前繋ぎ動作であるステップとは基本的に同一の動作である。   FIG. 2B is a diagram illustrating an example of component ID assignment. In FIG. 2B, a certain musical piece includes performance parts 1 to 3. The performance part 1 is the first performance part, the performance part 2 is the second performance part, and the performance part 3 is the third performance part. The performance part 1 has 32 beats. The output terminal 5 assigns, for example, a component ID associated with the motion ID of March B to the performance part 1. March B is a 32-beat movement. The main operation and the back-joining operation of March B are both March. Therefore, the trailing attribute of March B indicates March. The performance part 2 has 64 beats. The output terminal 5 assigns to the performance part 2 a part ID whose front connection attribute indicates march among the part IDs associated with the motion ID indicating the 64-beat motion. For example, the part ID of the front lunge A shown in FIG. The March, which is the post-joining operation of the March B, and the March, which is the pre-joining operation of the front lunge A, are basically the same operation. The performance part 3 has 32 beats. The trailing attribute of the front lunge A indicates a step. The output terminal 5 assigns to the performance part 2 a component ID whose front connection attribute indicates a step among the component IDs associated with the motion ID indicating the 32-beat motion. For example, a component ID associated with the motion ID of squat C is assigned. The squat C front splicing operation and main operation are step and squat, respectively. The step that is the connecting operation of the front lunge A and the step that is the connecting operation of the squat C are basically the same operation.

図2(B)が示す割り当て結果に基づいて運動コンテンツが生成されたとする。この場合、運動コンテンツの出力中、演奏パート1の32拍が出力されている間、出力端末5は、マーチBのモーションデータに基づいて、フィギュア83がマーチを行う映像をディスプレイ67に表示させる。なお、演奏パート1の最後の4拍の間、出力端末5は、フロントランジAのモーションデータに基づいて、マーチを行う映像をディスプレイ67に表示させてもよい。また、加速度センサを用いる等により人間の実際の動作からモーションデータを生成した場合、マーチBの後繋ぎ動作のマーチと、フロントランジAの前繋ぎ動作のマーチとにずれが生じる場合がある。そこで、出力端末5は、両方のモーションデータを用いて、マーチBの後繋ぎ動作のマーチとフロントランジAの前繋ぎ動作のマーチとの中間的な動作を行う映像をディスプレイ67に表示させてもよい。   Assume that exercise content is generated based on the assignment result shown in FIG. In this case, while the exercise content is being output, while the 32 beats of the performance part 1 are being output, the output terminal 5 causes the display 67 to display a video on which the figure 83 performs a March based on the motion data of March B. Note that, during the last four beats of the performance part 1, the output terminal 5 may cause the display 67 to display a video for performing a march based on the motion data of the front range A. Further, when motion data is generated from an actual motion of a human by using an acceleration sensor or the like, there is a case where a shift occurs between the march of the marching B's back-joining operation and the front-running A's front-joining motion. Therefore, the output terminal 5 may display on the display 67 an image for performing an intermediate operation between the March B back-joining operation March and the Front Range A front-joining operation March using both motion data. Good.

次いで、演奏パート2の最初の60拍が出力されているとき、出力端末5は、フロントランジAのモーションデータに基づいて、フロントランジを行う映像を表示させる。演奏パート1から演奏パート2に切り替わるとき、マーチからフロントランジに自然に繋がるように、フィギュア83が表示される。その理由は、マーチBの部品IDの後繋ぎ属性とフロントランジAの部品IDの前繋ぎ属性とが同じマーチを示すからである。フロントランジAのメイン動作であるフロントランジをフィギュア83が開始するとき、前繋ぎ動作であるマーチからメイン動作であるフロントランジに自然に繋がるように、フロントランジAのモーションデータが予め作成されている。演奏パート2の最後の4拍が出力されているとき、出力端末5は、例えばフロントランジAのモーションデータに基づいて、ステップを行う映像を表示させる。次いで、演奏パート3が出力されているとき、出力端末5は、スクワットCのモーションデータに基づいて、スクワットを行う映像を表示させる。フロントランジからステップに切り替わるとき、及び、ステップからスクワットに切り替わるとき、自然に繋がるようにフィギュア83が表示される。こうして、フロントランジAからスクワットCへ運動動作が自然に繋がる。   Next, when the first 60 beats of the performance part 2 are output, the output terminal 5 displays a video for performing the front lunge based on the motion data of the front lunge A. When the performance part 1 is switched to the performance part 2, the figure 83 is displayed so as to be naturally connected from the march to the front lunge. The reason is that the connection attribute of the part ID of the March B and the front connection attribute of the part ID of the front range A indicate the same march. When the figure 83 starts the front lunge, which is the main operation of the front lunge A, the motion data of the front lunge A is created in advance so that the front lunge, which is the main motion, is naturally connected from the marching, which is the front linkage operation. . When the last four beats of the performance part 2 are being output, the output terminal 5 displays a video for performing the step based on the motion data of the front lunge A, for example. Next, when the performance part 3 is being output, the output terminal 5 displays a video for performing the squat based on the motion data of the squat C. When switching from the front lunge to the step and when switching from the step to the squat, the figure 83 is displayed so as to be connected naturally. In this way, the motion movement from the front lunge A to the squat C is naturally connected.

次に、部品IDの割り当て及び部品リストの生成に用いられる情報について説明する。部品リストを生成するため、出力端末5のHDD(ハードディスクドライブ)7には、部品テーブル、繋ぎ動作テーブル、運動ジャンルテーブル等が記憶される。図3(A)は、部品テーブルの構成例を示す図である。部品テーブルは、部品の属性及び繋ぎ属性等を定義するテーブル情報である。部品テーブルには、部品ID、部品名、演奏パート種別、拍数、運動テンポ、前繋ぎ属性ID、後繋ぎ属性ID、ジャンルID、モーションID、ナレーションタイミングID、効果音タイミングID等が、部品IDごとに格納される。   Next, information used for assigning a component ID and generating a component list will be described. In order to generate a parts list, an HDD (hard disk drive) 7 of the output terminal 5 stores a parts table, a joining operation table, an exercise genre table, and the like. FIG. 3A is a diagram illustrating a configuration example of a component table. The component table is table information that defines component attributes, connection attributes, and the like. The component table includes a component ID, component name, performance part type, beat number, exercise tempo, front connection attribute ID, back connection attribute ID, genre ID, motion ID, narration timing ID, sound effect timing ID, and the like. Stored for each.

部品IDは、モーションデータを識別可能な識別情報である。部品名は、モーションデータが示す運動動作の名称である。演奏パート種別は、部品IDを割り当て可能な演奏パートの種類である。図3(A)では、演奏パート種別として例えばptype1〜5等が格納される。例えば、ptype1は前奏、ptype2はAメロ+サビ、ptype3は間奏、ptype4はAメロ+Bメロ、ptype5は後奏であってもよい。拍数は、運動動作の長さを示す。部品テーブルに格納される拍数は、本発明における第2属性情報の一例である。   The component ID is identification information that can identify motion data. The part name is a name of the motion motion indicated by the motion data. The performance part type is a type of performance part to which a component ID can be assigned. In FIG. 3A, for example, ptypes 1 to 5 are stored as performance part types. For example, ptype1 may be a prelude, ptype2 may be an A melody + rust, ptype3 may be an interlude, ptype4 may be an A melody + B melody, and ptype5 may be a posterior. The beat number indicates the length of the movement. The number of beats stored in the parts table is an example of second attribute information in the present invention.

運動テンポは、運動動作を行うテンポである。例えば、運動テンポは予め複数定められている。例えば、所定の拍数の間隔で運動テンポが定められてもよい。図3(A)の例では、128BPMに対応するモーションデータ、144BPMに対応するモーションデータ等が登録されていることが、部品テーブルにより示されている。複数の運動テンポのうち何れかの運動テンポでフィギュア83が運動動作する映像が表示されるように、各モーションデータは予め作成される。データベース3には、複数の運動テンポのそれぞれに対応するモーションデータが演奏パート種別ごとに登録される。部品テーブルには、モーションデータに対応する運動テンポが格納される。部品テーブルに格納されるテンポは、本発明における第2テンポ情報の一例である。   The exercise tempo is a tempo at which an exercise operation is performed. For example, a plurality of exercise tempos are predetermined. For example, the exercise tempo may be determined at intervals of a predetermined number of beats. In the example of FIG. 3A, the parts table indicates that motion data corresponding to 128 BPM, motion data corresponding to 144 BPM, and the like are registered. Each motion data is created in advance so that an image in which the figure 83 exercises at any one of a plurality of exercise tempos is displayed. In the database 3, motion data corresponding to each of a plurality of exercise tempos is registered for each performance part type. The parts table stores an exercise tempo corresponding to the motion data. The tempo stored in the parts table is an example of second tempo information in the present invention.

前繋ぎ属性IDは、前繋ぎ属性を示す識別情報である。後繋ぎ属性IDは、後繋ぎ属性を示す識別情報である。図3(B)は、繋ぎ動作テーブルの構成例を示す図である。繋ぎ動作テーブルは、繋ぎ属性を定義するテーブル情報である。繋ぎ動作テーブルには、繋ぎ動作IDが格納される。図3(B)では、繋ぎ動作IDとして例えばc1〜c5等が格納される。例えば、c1はマーチであり、c2はステップであり、c3は構えであり、c4はスクワットであり、c5は直立である。前繋ぎ属性ID及び後繋ぎ属性IDは、それぞれ本発明における繋ぎ属性情報の一例である。なお、1つの部品IDに対して、例えば複数の前繋ぎ属性ID又は複数の後繋ぎ属性IDが対応付けて格納されてもよい。   The front connection attribute ID is identification information indicating the front connection attribute. The back connection attribute ID is identification information indicating a back connection attribute. FIG. 3B is a diagram illustrating a configuration example of the splicing operation table. The splicing operation table is table information that defines splicing attributes. In the splicing operation table, splicing operation IDs are stored. In FIG. 3B, for example, c1 to c5 are stored as the connection operation ID. For example, c1 is a march, c2 is a step, c3 is a stance, c4 is a squat, and c5 is upright. The front connection attribute ID and the back connection attribute ID are examples of connection attribute information in the present invention. For example, a plurality of front connection attribute IDs or a plurality of back connection attribute IDs may be stored in association with one component ID.

ジャンルIDは、運動動作が属する運動のジャンルの識別情報である。図3(C)は、運動ジャンルテーブルの構成例を示す図である。運動ジャンルテーブルは、運動ジャンルを定義するテーブル情報である。運動ジャンルテーブルには、ジャンルIDが格納される。図3(C)では、ジャンルIDとして例えばj1、j2等が格納される。例えば、j1は有酸素運動であり、j2は調整運動である。モーションIDは、モーションデータの識別情報である。部品IDとモーションIDは基本的に一対一で対応する。部品テーブルには、例えば、部品IDとモーションIDのうち何れか一方のみが格納されてもよい。ナレーションタイミングID及び効果音タイミングIDについては後述する。   The genre ID is identification information of the genre of the exercise to which the exercise motion belongs. FIG. 3C is a diagram illustrating a configuration example of the exercise genre table. The exercise genre table is table information that defines an exercise genre. Genre ID is stored in the exercise genre table. In FIG. 3C, for example, j1, j2, etc. are stored as genre IDs. For example, j1 is an aerobic exercise and j2 is an adjustment exercise. The motion ID is identification information of motion data. The component ID and the motion ID basically correspond one to one. For example, only one of a component ID and a motion ID may be stored in the component table. The narration timing ID and sound effect timing ID will be described later.

次に、図3(A)に示す部品テーブルを用いた場合の部品リストの生成方法について説明する。図4(A)は、楽曲の構成例を示す図である。図4(A)に示すように、楽曲Xは演奏パート1〜8で構成されている。出力端末5は、楽曲のテンポに基づいて、運動コンテンツを再生するときの運動テンポを決定する。楽曲は運動テンポに従って出力され、ディスプレイ67には、運動テンポに従って運動動作するフィギュア83が表示される。上述したように、予め定められた複数の運動テンポのそれぞれに対応するモーションデータが登録されている。出力端末5は、複数の運動テンポのうち楽曲のテンポに最も近いテンポを、運動コンテンツの再生に用いる運動テンポに決定する。例えば16BPMの倍数で運動テンポが定義されており、楽曲Xのテンポが125BPMであるとする。この場合、128BPMが、運動コンテンツの再生に用いられる運動テンポとして決定される。また、運動ジャンルが決定される。例えば、操作者42が運動ジャンルを選択してもよいし、出力端末5が運動ジャンルを決定してもよい。運動ジャンルとして、例えば有酸素運動が選択されたとする。   Next, a method for generating a component list when the component table shown in FIG. FIG. 4A is a diagram illustrating a configuration example of a music piece. As shown in FIG. 4A, the music piece X is composed of performance parts 1-8. The output terminal 5 determines an exercise tempo when reproducing exercise content based on the tempo of the music. The music is output according to the exercise tempo, and the display 67 displays a figure 83 that moves according to the exercise tempo. As described above, motion data corresponding to each of a plurality of predetermined exercise tempos is registered. The output terminal 5 determines the tempo closest to the tempo of the music among the plurality of exercise tempos as the exercise tempo used for reproducing the exercise content. For example, it is assumed that the exercise tempo is defined as a multiple of 16 BPM, and the tempo of the music X is 125 BPM. In this case, 128 BPM is determined as the exercise tempo used for reproducing the exercise content. Also, the exercise genre is determined. For example, the operator 42 may select the exercise genre, or the output terminal 5 may determine the exercise genre. For example, it is assumed that aerobic exercise is selected as the exercise genre.

図4(B)〜図4(F)は、部品リスト表の更新過程の一例を示す図である。部品リスト表は、生成中の部品リストを1又は複数格納するテーブル情報である。部品リスト表の各行の情報が部品リストに相当する。部品リスト表の各列は演奏パートに対応する。出力端末5は、部品テーブルから、演奏パート1の属性及び楽曲Xの属性に一致する属性に対応する部品IDを検索する。部品テーブルから部品IDを検索することは、部品IDが示すモーションデータをHDD7から検索することである。演奏パートの属性は演奏パート種別及び拍数であり、演奏パート1の演奏パート種別及び拍数は、ptype1及び32である。また、楽曲の属性はテンポ及び運動ジャンルであり、楽曲Xのテンポ及び運動ジャンルは、128BPM及び有酸素運動である。従って、出力端末5は、部品テーブルから、ptype1、32拍、128BPM及び有酸素運動に対応する部品IDを割り当て候補の部品IDとして検索する。部品テーブルにおいて、運動動作1−1〜1−3の部品IDが、ptype1、32拍、128BPM及び有酸素運動に対応する。出力端末5は、演奏パート1と検索された部品IDとを対応付けた部品リスト表を生成する。図4(B)は、演奏パート1の割り当て候補の部品IDを格納した部品リスト表の一例である。図4(B)に示すように、部品リスト表の1〜3行目の1番目の列に、運動動作1−1〜1−3の部品IDが格納される。   4B to 4F are diagrams illustrating an example of the update process of the parts list table. The parts list table is table information for storing one or more parts lists being generated. Information on each line of the parts list table corresponds to a parts list. Each column of the parts list table corresponds to a performance part. The output terminal 5 searches the component table for a component ID corresponding to an attribute that matches the attribute of the performance part 1 and the attribute of the music piece X. Retrieving the component ID from the component table is retrieving motion data indicated by the component ID from the HDD 7. The performance part attributes are the performance part type and the number of beats, and the performance part type and the number of beats of the performance part 1 are ptype1 and 32. The attributes of the music are tempo and exercise genre, and the tempo and exercise genre of music X are 128 BPM and aerobic exercise. Accordingly, the output terminal 5 searches the part table for the part ID corresponding to ptype1, 32 beats, 128 BPM, and aerobic exercise as a candidate part ID. In the parts table, the part IDs of the exercise operations 1-1 to 1-3 correspond to ptype1, 32 beats, 128 BPM, and aerobic exercise. The output terminal 5 generates a parts list table in which the performance part 1 is associated with the retrieved part ID. FIG. 4B is an example of a component list table storing component IDs of performance candidate 1 assignment candidates. As shown in FIG. 4B, the component IDs of the motion operations 1-1 to 1-3 are stored in the first columns of the first to third rows of the component list table.

演奏パート2の演奏パート種別及び拍数は、ptype2及び64である。従って、出力端末5は、部品テーブルから、ptype2、64拍、128BPM及び有酸素運動に対応する部品IDを割り当て候補の部品IDとして検索する。部品テーブルにおいて、運動動作2−4〜2−9の部品IDが、ptype2、64拍、128BPM及び有酸素運動に対応する。このとき、出力端末5は、運動動作1−1〜1−3の後繋ぎ属性IDと一致する前繋ぎ属性IDに対応する部品IDを、それぞれ部品テーブルから検索する。運動動作1−1の後繋ぎ属性IDと、運動動作2−4及び2−5の前繋ぎ属性IDが一致する。そこで、出力端末5は、運動動作1−1の部品IDを格納する行を部品リスト表に1つ追加する。出力端末5は、運動動作1−1の部品IDを格納する2つの行のうち一方の行の2番目の列に、運動動作2−4の部品IDを格納する。また、出力端末5は、運動動作1−1の部品IDを格納する2つの行のうち他方の行の2番目の列に、運動動作2−5の部品IDを格納する。運動動作1−2の後繋ぎ属性IDと、運動動作2−6及び2−7の前繋ぎ属性IDが一致する。また、運動動作1−3の後繋ぎ属性IDと、運動動作2−8及び2−9の前繋ぎ属性IDが一致する。出力端末5は、運動動作1−2及び1−3についても運動動作1−1と同様の処理をする。すると、図4(C)に示すように部品リスト表が更新される。このときの部品リスト表の行数は6行となる。   The performance part type and the number of beats of performance part 2 are ptype2 and 64. Accordingly, the output terminal 5 searches the part table for the part ID corresponding to ptype2, 64 beats, 128 BPM, and aerobic exercise as an assignment candidate part ID. In the parts table, the part IDs of the exercise operations 2-4 to 2-9 correspond to ptype2, 64 beats, 128 BPM, and aerobic exercise. At this time, the output terminal 5 searches the component table for the component ID corresponding to the front connection attribute ID that matches the back connection attribute ID of the exercise operations 1-1 to 1-3. The back connection attribute ID of the exercise operation 1-1 matches the front connection attribute ID of the exercise operations 2-4 and 2-5. Therefore, the output terminal 5 adds one row for storing the component ID of the exercise operation 1-1 to the component list table. The output terminal 5 stores the component ID of the exercise operation 2-4 in the second column of one of the two rows storing the component ID of the exercise operation 1-1. The output terminal 5 stores the component ID of the exercise operation 2-5 in the second column of the other row of the two rows storing the component ID of the exercise operation 1-1. The back connection attribute ID of the exercise action 1-2 matches the front connection attribute ID of the exercise actions 2-6 and 2-7. Further, the back connection attribute ID of the exercise action 1-3 matches the front connection attribute ID of the exercise actions 2-8 and 2-9. The output terminal 5 performs the same process as the exercise operation 1-1 for the exercise operations 1-2 and 1-3. Then, the parts list table is updated as shown in FIG. At this time, the number of rows in the parts list table is six.

演奏パート3の演奏パート種別及び拍数は、ptype3及び32である。従って、出力端末5は、部品テーブルから、ptype3、32拍、128BPM及び有酸素運動に対応する部品IDを割り当て候補の部品IDとして検索する。運動動作3−1及び3−2の部品IDが、ptype3、32拍、128BPM及び有酸素運動に対応する。このとき、出力端末5は、運動動作2−4〜2−9の後繋ぎ属性IDと一致する前繋ぎ属性IDに対応する部品IDをそれぞれ部品テーブルから検索する。運動動作2−4の後繋ぎ属性IDと、運動動作3−1の前繋ぎ属性IDが一致する。そこで、出力端末5は、運動動作2−4の部品IDを格納する行の3番目の列に、運動動作3−1の部品IDを格納する。運動動作2−5、2−6及び2−8の後繋ぎ属性IDと、運動動作3−2の前繋ぎ属性IDが一致する。そこで、出力端末5は、運動動作2−5、2−6及び2−8の部品IDを格納する各行の3番目の列に、運動動作3−1の部品IDを格納する。運動動作2−7の後繋ぎ属性IDと一致する前繋ぎ属性IDに対応する部品IDはない。また、運動動作2−9の後繋ぎ属性IDと一致する前繋ぎ属性IDに対応する部品IDはない。そのため、出力端末5は、運動動作2−7及び運動動作2−9の部品IDを格納するそれぞれの行を部品リスト表から削除する。すると、図4(D)に示すように部品リスト表が更新される。   The performance part type and the number of beats of performance part 3 are ptype3 and 32. Accordingly, the output terminal 5 searches the part table for the part ID corresponding to ptype3, 32 beats, 128 BPM, and aerobic exercise as an assignment candidate part ID. The part IDs of the exercise operations 3-1 and 3-2 correspond to ptype3, 32 beats, 128 BPM, and aerobic exercise. At this time, the output terminal 5 searches the component table for the component ID corresponding to the front connection attribute ID that matches the back connection attribute ID of the exercise operations 2-4 to 2-9. The back connection attribute ID of the exercise operation 2-4 matches the front connection attribute ID of the exercise operation 3-1. Therefore, the output terminal 5 stores the component ID of the exercise operation 3-1 in the third column of the row storing the component ID of the exercise operation 2-4. The back link attribute ID of the exercise motions 2-5, 2-6, and 2-8 matches the front link attribute ID of the motion motion 3-2. Therefore, the output terminal 5 stores the component ID of the exercise operation 3-1 in the third column of each row storing the component IDs of the exercise operations 2-5, 2-6, and 2-8. There is no component ID corresponding to the front connection attribute ID that matches the back connection attribute ID of the motion motion 2-7. Further, there is no component ID corresponding to the front connection attribute ID that matches the back connection attribute ID of the exercise motion 2-9. Therefore, the output terminal 5 deletes the respective rows storing the component IDs of the exercise operation 2-7 and the exercise operation 2-9 from the component list table. Then, the parts list table is updated as shown in FIG.

演奏パート4の演奏パート種別及び拍数は、ptype4及び32である。従って、出力端末5は、部品テーブルから、ptype4、32拍、128BPM及び有酸素運動に対応する部品IDを検索する。運動動作4−1及び4−2の部品IDが、ptype4、32拍、128BPM及び有酸素運動に対応する。このとき、出力端末5は、運動動作3−1及び3−2の後繋ぎ属性IDと一致する前繋ぎ属性IDに対応する部品IDをそれぞれ部品テーブルから検索する。運動動作3−1の後繋ぎ属性IDと、運動動作4−1の前繋ぎ属性IDが一致し、運動動作3−2の後繋ぎ属性IDと、運動動作4−2の前繋ぎ属性IDが一致する。出力端末5は、検索結果に基づいて図4(E)に示すように部品リスト表を更新する。   The performance part type and the number of beats of the performance part 4 are ptype4 and 32. Accordingly, the output terminal 5 searches the part table for the part ID corresponding to ptype4, 32 beats, 128 BPM, and aerobic exercise. The part IDs of the exercise operations 4-1 and 4-2 correspond to ptype4, 32 beats, 128 BPM, and aerobic exercise. At this time, the output terminal 5 searches the component table for the component ID corresponding to the front connection attribute ID that matches the back connection attribute ID of the exercise operations 3-1 and 3-2. The trailing attribute ID of the exercise motion 3-1 matches the front linkage attribute ID of the exercise motion 4-1, and the trailing attribute ID of the exercise motion 3-2 matches the front linkage attribute ID of the exercise motion 4-2. To do. The output terminal 5 updates the parts list table based on the search result as shown in FIG.

演奏パート5の演奏パート種別及び拍数は、ptype2及び32である。ptype2は、演奏パート2の演奏パート種別でもある。つまり、演奏パート5と演奏パート種別が同一である演奏パートに対して、割り当て候補の部品IDが既に検索済みである。この場合、出力端末5は、検索済みの部品IDのみが割り当て候補に決定されるようにする。つまり、出力端末5は、種別が同じ演奏パートが出力されているとき、同じ運動動作が行われるようにする。その理由は、利用者41に同じ運動動作を繰り返し行わせることにより、運動動作の上達を促進するためである。具体的に、演奏パート2の割り当て候補の前繋ぎ属性IDが、演奏パート4の割り当て候補の後繋ぎ属性IDと一致する場合にのみ、出力端末5は、演奏パート2の割り当て候補を、演奏パート5の割り当て候補に決定する。なお、出力端末5は、前繋ぎ属性IDが、演奏パート4の割り当て候補の後繋ぎ属性IDと一致する部品IDのうち演奏パート2の割り当て候補とは異なる部品IDを、演奏パート5の割り当て候補に決定してもよい。   The performance part type and the number of beats of performance part 5 are ptype2 and 32. ptype2 is also a performance part type of performance part 2. In other words, for the performance part having the same performance part type as the performance part 5, the allocation candidate part ID has already been searched. In this case, the output terminal 5 determines only the searched component IDs as allocation candidates. In other words, the output terminal 5 performs the same exercise operation when performance parts of the same type are output. The reason for this is to promote the improvement of the exercise operation by causing the user 41 to repeatedly perform the same exercise operation. Specifically, only when the front connection attribute ID of the performance part 2 assignment candidate matches the rear connection attribute ID of the performance part 4 assignment candidate, the output terminal 5 sets the performance part 2 assignment candidate as the performance part. 5 allocation candidates are determined. Note that the output terminal 5 assigns a part ID that is different from the performance part 2 assignment candidate among the part IDs whose front connection attribute ID matches the back connection attribute ID of the performance part 4 assignment candidate to the performance part 5 assignment candidate. You may decide to.

部品リスト表の1番目の行には、運動動作1−1、運動動作2−4、運動動作3−1、運動動作4−1の部品IDが格納されている。運動動作4−1の後繋ぎ属性IDと、運動動作2−4の前繋ぎ属性IDは一致する。そこで、出力端末5は、部品リスト表における1番目の行の5番目の列に、運動動作2−4の部品IDを格納する。部品リスト表の2番目の行には、運動動作1−1、運動動作2−5、運動動作3−2、運動動作4−2の部品IDが格納されている。運動動作4−2の後繋ぎ属性IDと、運動動作2−5の前繋ぎ属性IDは一致しない。そこで、出力端末5は、2番目の行を削除する。部品リスト表の3番目の行には、運動動作1−2、運動動作2−6、運動動作3−2、運動動作4−2の部品IDが格納されている。運動動作4−2の後繋ぎ属性IDと運動動作2−6の前繋ぎ属性IDは一致する。そこで、出力端末5は、部品リスト表における3番目の行の5番目の列に、運動動作2−6の部品IDを格納する。部品リスト表の4番目の行には、運動動作1−3、運動動作2−8、運動動作3−2、運動動作4−2の部品IDが格納されている。運動動作4−2の後繋ぎ属性IDと運動動作2−8の前繋ぎ属性IDは一致しない。そこで、出力端末5は、4番目の行を削除する。   The first row of the parts list table stores the part IDs of the exercise action 1-1, the exercise action 2-4, the exercise action 3-1, and the exercise action 4-1. The back link attribute ID of the exercise motion 4-1 matches the front link attribute ID of the motion motion 2-4. Therefore, the output terminal 5 stores the component ID of the exercise operation 2-4 in the fifth column of the first row in the component list table. The second row of the parts list table stores the part IDs of the exercise action 1-1, the exercise action 2-5, the exercise action 3-2, and the exercise action 4-2. The back link attribute ID of the exercise motion 4-2 does not match the front link attribute ID of the motion motion 2-5. Therefore, the output terminal 5 deletes the second row. The third row of the parts list table stores the part IDs of the exercise action 1-2, the exercise action 2-6, the exercise action 3-2, and the exercise action 4-2. The back link attribute ID of the motion motion 4-2 matches the front link attribute ID of the motion motion 2-6. Therefore, the output terminal 5 stores the component ID of the motion operation 2-6 in the fifth column of the third row in the component list table. The fourth row of the parts list table stores the part IDs of the exercise action 1-3, the exercise action 2-8, the exercise action 3-2, and the exercise action 4-2. The back link attribute ID of the exercise motion 4-2 does not match the front link attribute ID of the motion motion 2-8. Therefore, the output terminal 5 deletes the fourth row.

出力端末5は、演奏パート6〜8についても、これまでに説明した方法と同様の方法で、部品リスト表を更新する。すると、図4(F)に示すように部品リスト表が更新される。こうして、楽曲Xを構成する複数の演奏パートに合う複数の運動動作を示す部品リストが生成される。図4(F)に示す部品リスト表の行数は2行である。従って、2つの部品リストが生成されたことになる。複数の部品リストが生成された場合、例えば、運動コンテンツの再生に用いる部品リストをユーザが選択してもよいし、出力端末5が自動的に選択してもよい。   The output terminal 5 also updates the parts list table for the performance parts 6 to 8 in the same manner as described above. Then, the parts list table is updated as shown in FIG. In this way, a parts list indicating a plurality of movements suitable for a plurality of performance parts constituting the music piece X is generated. The number of rows in the parts list table shown in FIG. 4 (F) is two. Therefore, two parts lists are generated. When a plurality of parts lists are generated, for example, the user may select a parts list used for playing the exercise content, or the output terminal 5 may automatically select them.

[3.ナレーション、効果音の出力タイミング]
出力端末5は、運動コンテンツに、利用者41の運動動作をサポートするナレーションや効果音等の音声を含めることができる。ナレーションにより、例えば、運動動作が説明されたり、身体の動かし方が指示されたりする。効果音は、例えば運動動作するときの人間の動きに合わせて出力される音等であってもよい。例えば、パンチの動作に合わせて、拳が物に当たる音や拳が風を切る音等が出力されてもよい。また、効果音は、例えば手拍子の音、拍手の音、歓声等であってもよい。
[3. Narration and sound effect output timing]
The output terminal 5 can include voices such as narration and sound effects that support the exercise motion of the user 41 in the exercise content. The narration explains, for example, an exercise operation or instructs how to move the body. The sound effect may be, for example, a sound that is output in accordance with a human movement when performing a motion. For example, a sound of a fist hitting an object or a sound of a fist cutting the wind may be output in accordance with the punching operation. The sound effect may be, for example, a clapping sound, a clapping sound, a cheering sound, and the like.

出力端末5のHDD7には、ナレーションデータ、効果音データ、ナレーションタイミングファイル及び効果音タイミングファイルが記憶される。ナレーションデータは、ナレーションを出力するための音声データである。効果音データは効果音を出力するための音声データである。ナレーションタイミングファイルは、ナレーションの出力タイミングを示すファイルである。ナレーションタイミングファイルは、本発明における拍情報の一例である。効果音タイミングファイルは、効果音の出力タイミングを示すファイルである。運動動作に対応したナレーションデータ、効果音データ、ナレーションタイミングファイル及び効果音タイミングファイルが運動動作ごとに予め作成される。   The HDD 7 of the output terminal 5 stores narration data, sound effect data, a narration timing file, and a sound effect timing file. Narration data is audio data for outputting narration. The sound effect data is sound data for outputting a sound effect. The narration timing file is a file indicating the output timing of the narration. The narration timing file is an example of beat information in the present invention. The sound effect timing file is a file indicating the output timing of the sound effect. Narration data, sound effect data, a narration timing file, and a sound effect timing file corresponding to the movement are created in advance for each movement.

図3(D)は、ナレーションタイミングファイルの内容の一例を示す図である。ナレーションタイミングファイルには、拍数とナレーションデータのパスとが対応付けて設定される。拍数は、対応する演奏パートの出力が開始されてから、ナレーションの出力が開始されるまでに経過する拍の数である。拍数が0である場合、出力端末5は、対応する演奏パートの出力の開始と同時にナレーションの出力を開始させる。拍数が正の値である場合、出力端末5は、対応する演奏パートの出力が開始した後、拍数に相当する時間が経過したときにナレーションの出力を開始させる。拍数が負の値である場合、出力端末5は、対応する演奏パートの出力が開始されるよりも拍数に相当する時間前にナレーションの出力を開始させる。負の値が設定される理由は、対応する演奏パートに割り当てられた運動動作が行われる前に、その運動動作に対応するナレーションを出力する必要があるからである。パスは、HDD7内におけるナレーションデータの所在を示す文字列である。   FIG. 3D shows an example of the contents of the narration timing file. In the narration timing file, the beat number and the narration data path are set in association with each other. The number of beats is the number of beats that elapse after the output of the corresponding performance part is started until the output of the narration is started. When the beat number is 0, the output terminal 5 starts outputting the narration simultaneously with the start of the output of the corresponding performance part. When the beat number is a positive value, the output terminal 5 starts outputting narration when the time corresponding to the beat number has elapsed after the output of the corresponding performance part has started. When the beat number is a negative value, the output terminal 5 starts outputting narration before the time corresponding to the beat number before the output of the corresponding performance part is started. The reason why the negative value is set is that it is necessary to output a narration corresponding to the motion motion before the motion motion assigned to the corresponding performance part is performed. The path is a character string indicating the location of the narration data in the HDD 7.

図3(D)の例では、4つのナレーションデータが再生される。先ず、対応する演奏パートの出力の開始の8拍前にナレーションデータ1の再生が開始される。また、対応する演奏パートの出力が開始してから1拍経過後にナレーションデータ2の再生が開始される。また、対応する演奏パートの出力が開始してから9拍経過後にナレーションデータ3の再生が開始される。また、対応する演奏パートの出力が開始してから13拍経過後にナレーションデータ4の再生が開始される。   In the example of FIG. 3D, four narration data are reproduced. First, playback of narration data 1 is started 8 beats before the start of output of the corresponding performance part. In addition, the reproduction of the narration data 2 is started after one beat has elapsed since the output of the corresponding performance part is started. In addition, the reproduction of the narration data 3 is started after 9 beats have passed since the output of the corresponding performance part is started. In addition, the reproduction of the narration data 4 is started after 13 beats have passed since the output of the corresponding performance part is started.

図3(E)は、効果音タイミングファイルの内容の一例を示す図である。効果音タイミングファイルには、拍数と効果音データのパスとが対応付けて設定される。拍数とパスの意味については、ナレーションタイミングファイルの場合と基本的に同様である。効果音タイミングファイルには、例えば、負の値の拍数は設定されなくてもよい。   FIG. 3E shows an example of the contents of a sound effect timing file. In the sound effect timing file, the beat number and the sound effect data path are set in association with each other. The number of beats and the meaning of the pass are basically the same as in the case of the narration timing file. For example, a negative number of beats may not be set in the sound effect timing file.

図3(A)に示す部品テーブルに格納されるナレーションタイミングIDは、運動動作に対応するナレーションタイミングファイルの識別情報である。また、部品テーブルに格納される効果音タイミングIDは、運動動作に対応する効果音タイミングファイルの識別情報である。   The narration timing ID stored in the parts table shown in FIG. 3A is identification information of a narration timing file corresponding to the motion motion. The sound effect timing ID stored in the parts table is identification information of a sound effect timing file corresponding to the exercise operation.

[4.各装置の構成]
次に、図1を参照して、運動コンテンツ生成システムに含まれる各装置の構成について説明する。
[4. Configuration of each device]
Next, the configuration of each device included in the athletic content generation system will be described with reference to FIG.

[4−1.配信サーバ2の構成]
図1に示すように、配信サーバ2は、CPU21、ROM22、RAM23、バス24、I/Oインタフェイス25、表示制御部26、ディスクドライブ28、ネットワーク通信部30及びHDD37を備える。CPU21は、バス24を介して、ROM22、RAM23及びI/Oインタフェイス25に接続されている。CPU21は、ROM22やHDD37に記憶されプログラムを実行することにより、配信サーバ2の各部を制御する。I/Oインタフェイス25には、データベース3、表示制御部26、ディスクドライブ28、ネットワーク通信部30、キーボード31、マウス32及びHDD37が接続されている。CPU21は、I/Oインタフェイス25を介してデータベース3にアクセスする。表示制御部26は、CPU21の制御に基づいて映像信号をモニタ27に出力する。ディスクドライブ28は、記録媒体29に対するデータの書き込み及び読み出しを行う。ネットワーク通信部30は、配信サーバ2がネットワーク10に接続するための制御を行う。HDD37には、OSや各種制御プログラム等が記憶されている。
[4-1. Configuration of distribution server 2]
As shown in FIG. 1, the distribution server 2 includes a CPU 21, ROM 22, RAM 23, bus 24, I / O interface 25, display control unit 26, disk drive 28, network communication unit 30, and HDD 37. The CPU 21 is connected to the ROM 22, RAM 23, and I / O interface 25 via the bus 24. The CPU 21 controls each unit of the distribution server 2 by executing a program stored in the ROM 22 or the HDD 37. Connected to the I / O interface 25 are a database 3, a display control unit 26, a disk drive 28, a network communication unit 30, a keyboard 31, a mouse 32, and an HDD 37. The CPU 21 accesses the database 3 via the I / O interface 25. The display control unit 26 outputs a video signal to the monitor 27 based on the control of the CPU 21. The disk drive 28 writes data to and reads data from the recording medium 29. The network communication unit 30 performs control for the distribution server 2 to connect to the network 10. The HDD 37 stores an OS, various control programs, and the like.

データベース3には、楽曲データ、モーションデータ、部品テーブル、繋ぎ動作テーブル、運動ジャンルテーブル、ナレーションデータ、ナレーションタイミングファイル、効果音データ、効果音タイミングファイル、コーラスデータ、歌詞データ、タイトル画像データ等のデータが登録されている。   The database 3 includes data such as music data, motion data, parts table, splicing operation table, exercise genre table, narration data, narration timing file, sound effect data, sound effect timing file, chorus data, lyrics data, title image data, etc. Is registered.

楽曲データは、スピーカ64により楽曲を出力するための演奏データである。楽曲データは、例えば、MIDI(Musical Instrument Digital Interface)形式のデータであってもよい。楽曲データは、楽曲ID、楽曲名、アーティスト名、オリジナルのテンポ、楽曲の演奏パートの構成等の情報を含む。楽曲IDは、楽曲の識別情報である。オリジナルのテンポは、本発明における第1テンポ情報の一例である。また、楽曲データは、演奏パートの切り替わりのタイミング等を規定する。例えば、楽曲データがMIDI形式のデータである場合、楽曲データには、実際の演奏データとしてのMIDIイベントに加えて、メタイベントを含めることができる。メタイベントとしては、例えば、演奏パート開始イベント等がある。演奏パート開始イベントは、演奏パートの演奏開始を通知するイベントである。演奏パート開始イベントは、演奏パートのパートID、演奏パート種別、拍数等を含む。演奏パート開始イベントに含まれる拍数は、本発明における第1属性情報の一例である。楽曲データは、本発明における楽曲情報の一例である。   The music data is performance data for outputting music from the speaker 64. The music data may be, for example, data in MIDI (Musical Instrument Digital Interface) format. The song data includes information such as the song ID, song name, artist name, original tempo, and composition of the performance part of the song. The music ID is music identification information. The original tempo is an example of first tempo information in the present invention. In addition, the music data defines the timing of switching performance parts. For example, if the music data is data in the MIDI format, the music data can include a meta event in addition to the MIDI event as actual performance data. Examples of the meta event include a performance part start event. The performance part start event is an event that notifies the performance start of the performance part. The performance part start event includes the performance part part ID, performance part type, beat number, and the like. The number of beats included in the performance part start event is an example of first attribute information in the present invention. The music data is an example of music information in the present invention.

モーションデータはモーションIDと対応付けて登録される。なお、モーションデータは、例えば部品IDと対応付けて登録されてもよい。ナレーションデータ及び効果音データのデータ形式は、例えば、WAV(RIFF waveform Audio Format)、AAC(Advanced Audio Coding)、MP3(MPEG Audio Layer-3)等であってもよい。ナレーションタイミングファイルはナレーションタイミングIDと対応付けて登録される。効果音タイミングファイルは効果音タイミングIDと対応付けて登録される。   The motion data is registered in association with the motion ID. The motion data may be registered in association with the component ID, for example. The data format of the narration data and sound effect data may be, for example, WAV (RIFF waveform Audio Format), AAC (Advanced Audio Coding), MP3 (MPEG Audio Layer-3), or the like. The narration timing file is registered in association with the narration timing ID. The sound effect timing file is registered in association with the sound effect timing ID.

コーラスデータは、コーラスの音声を出力するための音声データである。コーラスデータは、コーラスが対応する楽曲の楽曲IDとコーラスタイミング情報とに対応付けて記憶される。コーラスタイミング情報は、コーラスの出力タイミングを示す。歌詞データは、歌詞のテロップを表示するためのデータである。歌詞データは、例えば、歌詞のテキスト、テキストの表示タイミング等を含む。歌詞データは、歌詞が対応する楽曲の楽曲IDに対応付けて記憶される。タイトル画像データは、楽曲に対応するタイトルの画像を表示するための画像データである。タイトル画像データは、タイトル画像が対応する楽曲の楽曲IDに対応付けて記憶される。   The chorus data is sound data for outputting chorus sound. The chorus data is stored in association with the song ID of the song to which the chorus corresponds and the chorus timing information. The chorus timing information indicates the output timing of the chorus. The lyrics data is data for displaying lyrics telop. The lyric data includes, for example, lyric text, text display timing, and the like. The lyric data is stored in association with the music ID of the music corresponding to the lyrics. The title image data is image data for displaying an image of a title corresponding to the music. The title image data is stored in association with the music ID of the music corresponding to the title image.

[4−2.出力端末5の構成]
図1に示すように、出力端末5は、CPU51、ROM52、RAM53、バス54、I/Oインタフェイス55、表示制御部56、ディスクドライブ58、ネットワーク通信部60、音声出力部63、信号受信部65、及びHDD7を備える。CPU51は、バス54を介して、ROM52、RAM53及びI/Oインタフェイス55に接続されている。CPU51は、時計機能及びタイマー機能を有する。CPU51は、ROM52やHDD7に記憶されプログラムを実行することにより、出力端末5の各部を制御する。I/Oインタフェイス55には、HDD7、表示制御部56、音声出力部63、ディスクドライブ58、ネットワーク通信部60、キーボード61、マウス62、及び信号受信部65が接続されている。表示制御部56は、CPU51の制御に基づいて映像信号をモニタ57に出力する。音声出力部63は、CPU51の制御に基づいて音声信号をモニタ57に出力する。ディスクドライブ58は、記録媒体59に対するデータの書き込み及び読み出しを行う。信号受信部65は、リモコン66から出力される信号を受信する。リモコン66は、操作者42が出力端末5を操作するためのものである。
[4-2. Configuration of output terminal 5]
As shown in FIG. 1, the output terminal 5 includes a CPU 51, a ROM 52, a RAM 53, a bus 54, an I / O interface 55, a display control unit 56, a disk drive 58, a network communication unit 60, an audio output unit 63, and a signal receiving unit. 65 and HDD 7. The CPU 51 is connected to the ROM 52, RAM 53, and I / O interface 55 via the bus 54. The CPU 51 has a clock function and a timer function. The CPU 51 controls each unit of the output terminal 5 by executing a program stored in the ROM 52 or the HDD 7. Connected to the I / O interface 55 are an HDD 7, a display control unit 56, an audio output unit 63, a disk drive 58, a network communication unit 60, a keyboard 61, a mouse 62, and a signal receiving unit 65. The display control unit 56 outputs a video signal to the monitor 57 based on the control of the CPU 51. The audio output unit 63 outputs an audio signal to the monitor 57 based on the control of the CPU 51. The disk drive 58 writes and reads data to and from the recording medium 59. The signal receiving unit 65 receives a signal output from the remote controller 66. The remote controller 66 is for the operator 42 to operate the output terminal 5.

HDD7は、本発明の第1記憶手段、第2記憶手段及び第3記憶手段の一例である。なお、第1記憶手段、第2記憶手段及び第3記憶手段が同一の記憶デバイスであってもよいし、互いに異なる記憶デバイスであってもよい。HDD7には、配信サーバ2から配信された楽曲データ、モーションデータ、部品テーブル、繋ぎ動作テーブル、運動ジャンルテーブル、ナレーションデータ、ナレーションタイミングファイル、効果音データ、効果音タイミングファイル、コーラスデータ、歌詞データ、タイトル画像データ等のデータが記憶される。また、HDD7には、生成された部品リストが記憶される。   The HDD 7 is an example of a first storage unit, a second storage unit, and a third storage unit of the present invention. The first storage unit, the second storage unit, and the third storage unit may be the same storage device, or may be different storage devices. In the HDD 7, music data distributed from the distribution server 2, motion data, parts table, splicing operation table, exercise genre table, narration data, narration timing file, sound effect data, sound effect timing file, chorus data, lyrics data, Data such as title image data is stored. Also, the HDD 7 stores the generated parts list.

HDD7には、更に、OS、運動支援プログラム、3Dエンジン、ミュージックシーケンサ等の各種プログラム等が記憶されている。運動支援プログラムは、利用者41の運動を支援するためのプログラムである。運動支援プログラムは、コンピュータとしてのCPU51に、第1検索ステップ、第2検索ステップ、生成ステップを少なくとも実行させる。3Dエンジンは、モーションデータに基づいて、三次元仮想空間で運動動作するフィギュア83を二次元平面に投影した画像を生成するためのプログラムである。画像を生成する処理は、射影変換、クリッピング、隠面消去、シェーディング、テクスチャマッピング等を含む。CPU51は、3Dエンジンを実行して、静止画像を順次生成する。生成された静止画像をCPU51が表示制御部56へ順次出力することで、ディスプレイ67には、運動映像が表示される。   The HDD 7 further stores various programs such as an OS, an exercise support program, a 3D engine, and a music sequencer. The exercise support program is a program for supporting the exercise of the user 41. The exercise support program causes the CPU 51 as a computer to execute at least a first search step, a second search step, and a generation step. The 3D engine is a program for generating an image obtained by projecting a figure 83 that moves in a three-dimensional virtual space onto a two-dimensional plane based on motion data. The process of generating an image includes projective transformation, clipping, hidden surface removal, shading, texture mapping, and the like. The CPU 51 executes the 3D engine and sequentially generates still images. The CPU 51 sequentially outputs the generated still image to the display control unit 56, whereby a motion image is displayed on the display 67.

ミュージックシーケンサは、楽曲データを再生するためのプログラムである。CPU51は、ミュージックシーケンサを実行することにより、楽曲データに対応する音声信号を生成する。また、CPU51は、ミュージックシーケンサを実行することにより、各種のイベントを発生させる。イベントとして、例えば、テンポに応じて所定時間間隔で発生するイベントがある。このイベントは、MIDIクロックや同期イベントと呼ばれる。また、イベントとして、例えば、演奏パート開始イベントがある。   The music sequencer is a program for reproducing music data. The CPU 51 generates a sound signal corresponding to the music data by executing the music sequencer. Further, the CPU 51 generates various events by executing the music sequencer. As an event, for example, there is an event that occurs at a predetermined time interval according to the tempo. This event is called a MIDI clock or synchronization event. As an event, for example, there is a performance part start event.

各種プログラムは、例えば、配信サーバ2等のサーバからネットワーク10を介してダウンロードされるようにしてもよい。また、各種プログラムは、記録媒体59に記録されてディスクドライブ58を介して読み込まれるようにしてもよい。なお、3Dエンジンやミュージックシーケンサは、プログラムではなく、専用のハードウェアであってもよい。そして、出力端末5は、ハードウェアとしての3Dエンジンやミュージックシーケンサを備えてもよい。   Various programs may be downloaded from the server such as the distribution server 2 via the network 10, for example. Various programs may be recorded on the recording medium 59 and read via the disk drive 58. The 3D engine and the music sequencer may be dedicated hardware instead of a program. The output terminal 5 may include a 3D engine or a music sequencer as hardware.

CPU51は、設定されたテンポに従って、楽曲データに対応する音声信号を音声出力部63へ出力させるとともに、生成した画像に対応する映像信号を表示制御部56から出力させる。CPU51は、同期イベントに基づいて、楽曲の音声信号の出力タイミングと運動映像の映像信号の出力タイミングとを同期させる。これにより、スピーカ64から出力される楽曲に同期して運動動作を行うフィギュア83がディスプレイ67に表示される。   The CPU 51 outputs an audio signal corresponding to the music data to the audio output unit 63 and outputs a video signal corresponding to the generated image from the display control unit 56 according to the set tempo. Based on the synchronization event, the CPU 51 synchronizes the output timing of the music audio signal and the output timing of the motion video signal. As a result, a figure 83 that performs an exercise motion in synchronization with the music output from the speaker 64 is displayed on the display 67.

[5.運動コンテンツ生成システム1の動作]
次に、図5及び図6を参照して、運動コンテンツ生成システム1の動作を説明する。図5(A)は、出力端末5のCPU51のメイン処理の処理例を示すフローチャートである。例えば、操作者42が、リモコン66等により、運動レッスンを開始させるための操作を行う。すると、CPU51は、メイン処理を開始する。
[5. Operation of Exercise Content Generation System 1]
Next, operations of the exercise content generation system 1 will be described with reference to FIGS. FIG. 5A is a flowchart illustrating a processing example of the main processing of the CPU 51 of the output terminal 5. For example, the operator 42 performs an operation for starting an exercise lesson with the remote controller 66 or the like. Then, the CPU 51 starts main processing.

図5(A)に示すように、CPU51は、選択情報取得処理を実行する(ステップS1)。選択情報取得処理において、CPU51は、部品リストの生成に必要な情報を取得する。選択情報取得処理の詳細は後述する。次いで、CPU51は、部品リスト生成処理を実行する(ステップS2)。部品リスト生成処理において、CPU51は、部品リストを生成する。部品リスト生成処理の詳細は後述する。次いで、CPU51は、運動情報生成処理を実行する(ステップS3)。運動情報生成処理おいて、CPU51は、生成された部品リストに基づいて、運動情報を生成する。運動情報は、運動コンテンツを再生するために用いられる情報である。運動情報は、楽曲が出力されているときに、運動コンテンツに含まれる映像や音声の出力を開始するタイミングを示す。運動情報により出力のタイミングが示される映像、音声として、例えば、運動映像、ナレーション、効果音、コーラス、歌詞、タイトル画像等がある。出力するタイミングは、例えば、再生位置で示されてもよい。再生位置は、運動コンテンツに含まれる楽曲の再生が開始されてから経過した時間である。運動情報は、例えば複数のレコードを含む。各レコードは、パス及び再生位置を示す。パスは、映像又は音声の出力に用いられるデータのパスである。映像又は音声の出力に用いられるデータとして、例えば、モーションデータ、ナレーションデータ、効果音データ、コーラスデータ、歌詞データ、タイトル画像データ等がある。再生位置は、映像又は音声が出力されるタイミングを示す。運動情報生成処理の詳細は後述する。次いで、CPU51は、再生処理を実行する(ステップS4)。再生処理において、CPU51は、生成された運動情報に基づいて、運動コンテンツを再生する。再生処理の詳細は後述する。CPU51は、ステップS4の処理を終えると、メイン処理を終了させる。   As shown in FIG. 5A, the CPU 51 executes selection information acquisition processing (step S1). In the selection information acquisition process, the CPU 51 acquires information necessary for generating a parts list. Details of the selection information acquisition process will be described later. Next, the CPU 51 executes a parts list generation process (step S2). In the parts list generation process, the CPU 51 generates a parts list. Details of the parts list generation processing will be described later. Next, the CPU 51 executes exercise information generation processing (step S3). In the exercise information generation process, the CPU 51 generates exercise information based on the generated parts list. The exercise information is information used for reproducing exercise content. The exercise information indicates the timing when the output of video and audio included in the exercise content is started when the music is being output. Examples of video and audio whose output timing is indicated by exercise information include exercise video, narration, sound effects, chorus, lyrics, and title images. The output timing may be indicated by a playback position, for example. The reproduction position is a time that has elapsed since the reproduction of the music included in the exercise content is started. The exercise information includes, for example, a plurality of records. Each record indicates a path and a reproduction position. The path is a data path used for video or audio output. Examples of data used for video or audio output include motion data, narration data, sound effect data, chorus data, lyrics data, title image data, and the like. The playback position indicates the timing at which video or audio is output. Details of the exercise information generation process will be described later. Next, the CPU 51 executes a reproduction process (step S4). In the reproduction process, the CPU 51 reproduces the exercise content based on the generated exercise information. Details of the reproduction process will be described later. CPU51 complete | finishes a main process, after finishing the process of step S4.

図5(B)は、出力端末5のCPU51の選択情報取得処理の処理例を示すフローチャートである。図5(B)に示すように、CPU51は、楽曲の情報を取得する(ステップS11)。具体的に、CPU51は、運動レッスンに用いる楽曲を決定する。例えば、操作者42が楽曲を選択して、CPU51が、操作者42により入力された選択結果を受け付けてもよい。CPU51は、決定された楽曲の楽曲IDを取得する。また、CPU51は、決定された楽曲の楽曲データから、楽曲のオリジナルのテンポと、楽曲を構成する各演奏パートの演奏パート開始イベントとを取得する。   FIG. 5B is a flowchart illustrating a processing example of selection information acquisition processing of the CPU 51 of the output terminal 5. As shown in FIG. 5B, the CPU 51 acquires music information (step S11). Specifically, the CPU 51 determines the music used for the exercise lesson. For example, the operator 42 may select a song, and the CPU 51 may accept a selection result input by the operator 42. CPU51 acquires music ID of the determined music. Further, the CPU 51 acquires the original tempo of the music and the performance part start event of each performance part constituting the music from the music data of the determined music.

次いで、CPU51は、運動コンテンツの再生に用いる運動テンポを決定する(ステップS12)。例えば、CPU51は、予め定められた複数の運動テンポのうち、楽曲のオリジナルのテンポに最も近いテンポを、運動コンテンツの再生に用いる運動テンポに決定する。例えば、複数の運動テンポがHDD7に記憶されているとする。CPU51は、HDD7から各運動テンポを取得する。CPU51は、取得した運動テンポごとに、運動テンポと楽曲のオリジナルのテンポとの差を計算する。そして、CPU51は、差が最も小さい運動テンポを、運動コンテンツの再生に用いる運動テンポに決定する。   Next, the CPU 51 determines an exercise tempo used for reproducing exercise content (step S12). For example, the CPU 51 determines a tempo closest to the original tempo of the music among a plurality of predetermined exercise tempos as an exercise tempo used for reproducing the exercise content. For example, assume that a plurality of exercise tempos are stored in the HDD 7. The CPU 51 acquires each exercise tempo from the HDD 7. For each acquired exercise tempo, the CPU 51 calculates the difference between the exercise tempo and the original tempo of the music. Then, the CPU 51 determines the exercise tempo with the smallest difference as the exercise tempo used for reproducing the exercise content.

次いで、CPU51は、運動ジャンルを決定する(ステップS13)。例えば、操作者42が運動ジャンルを選択して、CPU51が選択結果を受け付けてもよい。CPU51は、ステップS13の処理を終えると、選択情報取得処理を終了させる。   Next, the CPU 51 determines an exercise genre (step S13). For example, the operator 42 may select an exercise genre and the CPU 51 may accept the selection result. When finishing the process of step S13, the CPU 51 ends the selection information acquisition process.

図6は、出力端末5のCPU51の部品リスト生成処理の処理例を示すフローチャートである。図6に示すように、CPU51は、演奏順Nを1に設定する(ステップS41)。次いで、CPU51は、選択情報取得処理で取得された演奏パート開始イベントに基づいて、演奏順1〜演奏順N−1の演奏パートの中に、演奏順Nの演奏パートと演奏パート種別が同一である演奏パートがあるか否かを判定する(ステップS42)。このとき、CPU51は、演奏順Nの演奏パートと演奏パート種別が同一である演奏パートがあると判定した場合には(ステップS42:YES)、ステップS50に進む。一方、CPU51は、演奏順Nの演奏パートと演奏パート種別が同一である演奏パートがないと判定した場合には(ステップS42:NO)、ステップS43に進む。CPU51は、演奏順Nが1である場合にもステップS43に進む。   FIG. 6 is a flowchart illustrating a processing example of the parts list generation processing of the CPU 51 of the output terminal 5. As shown in FIG. 6, the CPU 51 sets the performance order N to 1 (step S41). Next, based on the performance part start event acquired by the selection information acquisition process, the CPU 51 has the same performance part type as the performance part of the performance order N among the performance parts of the performance order 1 to the performance order N-1. It is determined whether or not there is a certain performance part (step S42). At this time, if the CPU 51 determines that there is a performance part having the same performance part type as the performance part in the performance order N (step S42: YES), the CPU 51 proceeds to step S50. On the other hand, when the CPU 51 determines that there is no performance part having the same performance part type as the performance part N in the performance order (step S42: NO), the CPU 51 proceeds to step S43. The CPU 51 also proceeds to step S43 when the performance order N is 1.

ステップS43において、CPU51は、選択された運動ジャンル、演奏順Nの演奏パートの演奏パート種別、演奏順Nの演奏パートの拍数及び決定された運動テンポに一致する運動ジャンル、演奏パート種別、拍数及びテンポに対応する部品IDを、部品テーブルから検索する。次いで、CPU51は、演奏順Nが1よりも大きいか否かを判定する(ステップS44)。このとき、CPU51は、演奏順Nが1よりも大きいと判定した場合には(ステップS44:YES)、ステップS45に進む。一方、CPU51は、演奏順Nが1より大きくはないと判定した場合には(ステップS44:NO)、ステップS49に進む。   In step S43, the CPU 51 performs the selected exercise genre, the performance part type of the performance part in the performance order N, the number of beats of the performance part in the performance order N, the exercise genre that matches the determined exercise tempo, the performance part type, and the beat. The component ID corresponding to the number and tempo is searched from the component table. Next, the CPU 51 determines whether or not the performance order N is greater than 1 (step S44). At this time, if the CPU 51 determines that the performance order N is greater than 1 (step S44: YES), the CPU 51 proceeds to step S45. On the other hand, if the CPU 51 determines that the performance order N is not greater than 1 (step S44: NO), the CPU 51 proceeds to step S49.

ステップS45において、CPU51は、部品リスト表の行番号Kを1に設定する。次いで、CPU51は、部品テーブルに基づいて、ステップS43で検索された部品IDの中から、演奏順N−1の演奏パートの割り当て候補Kの部品IDに対応する後繋ぎ属性IDに一致する前繋ぎ属性IDに対応する部品IDを検索する(ステップS46)。演奏順N−1の演奏パートの割り当て候補Kの部品IDとは、部品リスト表において、K番目の行のN−1番目の列に格納された部品IDである。次いで、CPU51は、行番号Kに1を加算する(ステップS47)。次いで、CPU51は、行番号Kが行数R以下であるか否かを判定する(ステップS48)。行数Rは、現時点における部品リスト表の行数である。このとき、CPU51は、行番号Kが行数R以下であると判定した場合には(ステップS48:YES)、ステップS46に進む。一方、CPU51は、行番号Kが行数R以下でない、つまり、行番号KがRよりも大きいと判定した場合には(ステップS48:NO)、ステップS49に進む。   In step S45, the CPU 51 sets the row number K of the parts list table to 1. Next, based on the component table, the CPU 51 selects a pre-connection that matches the post-connection attribute ID corresponding to the component ID of the performance part assignment candidate K in the performance order N-1 from the component IDs retrieved in step S43. A part ID corresponding to the attribute ID is searched (step S46). The part ID of the performance part assignment candidate K in the performance order N-1 is the part ID stored in the (N-1) th column of the Kth row in the parts list table. Next, the CPU 51 adds 1 to the row number K (step S47). Next, the CPU 51 determines whether or not the row number K is equal to or less than the row number R (step S48). The number of rows R is the number of rows in the parts list table at the current time. At this time, if the CPU 51 determines that the line number K is equal to or less than the number of lines R (step S48: YES), the CPU 51 proceeds to step S46. On the other hand, if the CPU 51 determines that the line number K is not less than the number of lines R, that is, the line number K is greater than R (step S48: NO), the CPU 51 proceeds to step S49.

ステップS49において、CPU51は、部品リスト表を更新する。演奏順Nが1である場合、CPU51は、ステップS43で検索された部品IDを格納する部品リスト表を生成する。演奏順Nが2以上である場合、CPU51は、ステップS46の検索結果に基づいて、部品リスト表を更新する。具体的に、ステップS46で部品IDが検索された場合、CPU51は、対応する行のN番目の列に、検索された部品IDを格納する。1つの行につき複数の部品IDが検索された場合、CPU51は、同一内容の行を部品リスト表に追加する。そして、CPU51は、検索された複数の部品IDを複数の行に格納する。ステップS46で部品IDが検索されなかった場合、CPU51は、対応する行を部品リストから削除する。CPU51は、ステップS49の処理を終えると、ステップS57に進む。   In step S49, the CPU 51 updates the parts list table. When the performance order N is 1, the CPU 51 generates a component list table that stores the component ID searched in step S43. When the performance order N is 2 or more, the CPU 51 updates the parts list based on the search result of step S46. Specifically, when the component ID is retrieved in step S46, the CPU 51 stores the retrieved component ID in the Nth column of the corresponding row. When a plurality of component IDs are retrieved for one row, the CPU 51 adds a row having the same content to the component list table. Then, the CPU 51 stores a plurality of retrieved component IDs in a plurality of rows. When the component ID is not searched in step S46, the CPU 51 deletes the corresponding line from the component list. After completing the process in step S49, the CPU 51 proceeds to step S57.

ステップS50において、CPU51は、行番号Kを1に設定する。次いで、CPU51は、演奏順Nの演奏パートと演奏パート種別が同一である演奏パートに割り当て候補として検索済みの部品IDに対応する情報を取得する(ステップS51)。具体的に、CPU51は、部品リスト表のK番目の行において、演奏順Nの演奏パートと演奏パート種別が同一である演奏パートに対応する列から、検索済みの部品IDを取得する。次いで、CPU51は、取得された部品IDに対応する前繋ぎ属性IDを部品テーブルから取得する。   In step S50, the CPU 51 sets the line number K to 1. Next, the CPU 51 acquires information corresponding to the searched component ID as a candidate for assignment to a performance part having the same performance part type as the performance part in the performance order N (step S51). Specifically, the CPU 51 acquires the searched component ID from the column corresponding to the performance part having the same performance part type as the performance part in the performance order N in the Kth row of the component list table. Next, the CPU 51 acquires a previous connection attribute ID corresponding to the acquired component ID from the component table.

次いで、CPU51は、演奏順N−1の演奏パートの割り当て候補Kの部品IDに対応する後繋ぎ属性IDと、検索済みの部品IDに対応する前繋ぎ属性IDとが一致するか否かを判定する(ステップS52)。このとき、CPU51は、後繋ぎ属性IDと前繋ぎ属性IDとが一致すると判定した場合には(ステップS52:YES)、ステップS53に進む。一方、CPU51は、後繋ぎ属性IDと前繋ぎ属性IDとが一致しないと判定した場合には(ステップS52:NO)、ステップS54に進む。   Next, the CPU 51 determines whether or not the back connection attribute ID corresponding to the component ID of the performance part assignment candidate K in the performance order N-1 matches the front connection attribute ID corresponding to the searched component ID. (Step S52). At this time, if the CPU 51 determines that the back connection attribute ID matches the front connection attribute ID (step S52: YES), the CPU 51 proceeds to step S53. On the other hand, if the CPU 51 determines that the back connection attribute ID does not match the front connection attribute ID (step S52: NO), the CPU 51 proceeds to step S54.

ステップS53において、CPU51は、部品リスト表において、K番目の行のN番目の列に、ステップS51で取得された検索済みの部品IDを格納する。次いで、CPU51は、ステップS55に進む。ステップS54において、CPU51は、K番目の行を部品リストから削除する。次いで、CPU51は、ステップS55に進む。ステップS55において、CPU51は、行番号Kに1を加算する。次いで、CPU51は、行番号Kが行数R以下であるか否かを判定する(ステップS56)。このとき、CPU51は、行番号Kが行数R以下であると判定した場合には(ステップS56:YES)、ステップS51に進む。一方、CPU51は、行番号Kが行数R以下でない、つまり、行番号Kが行数Rよりも大きいと判定した場合には(ステップS56:NO)、ステップS57に進む。   In step S53, the CPU 51 stores the searched component ID obtained in step S51 in the Nth column of the Kth row in the component list table. Next, the CPU 51 proceeds to step S55. In step S54, the CPU 51 deletes the Kth row from the parts list. Next, the CPU 51 proceeds to step S55. In step S55, the CPU 51 adds 1 to the row number K. Next, the CPU 51 determines whether or not the row number K is equal to or less than the row number R (step S56). At this time, if the CPU 51 determines that the line number K is equal to or less than the number of lines R (step S56: YES), the CPU 51 proceeds to step S51. On the other hand, if the CPU 51 determines that the line number K is not less than or equal to the line number R, that is, the line number K is greater than the line number R (step S56: NO), the CPU 51 proceeds to step S57.

ステップS57において、CPU51は、行数Rを、更新後の部品リスト表の行数に変更する。次いで、CPU51は、演奏順Nに1を加算する(ステップS58)。次いで、CPU51は、演奏順Nが、選択された楽曲を構成する演奏パートの総数以下であるか否かを判定する(ステップS59)。このとき、CPU51は、は、演奏順Nが演奏パートの総数以下であると判定した場合には(ステップS59:YES)、ステップS42に進む。一方、CPU51は、演奏順Nが演奏パートの総数以下でない、つまり、演奏順Nが演奏パートの総数よりも大きいと判定した場合には(ステップS59:NO)、ステップS60に進む。ステップS60において、CPU51は、部品リスト表内に生成された部品リストの中から、運動情報の生成に用いられる部品リストを選択する。例えば、操作者42が選択してもよい。CPU51は、ステップS60の処理を終えると、部品リスト生成処理を終了させる。   In step S57, the CPU 51 changes the number of rows R to the number of rows in the updated parts list table. Next, the CPU 51 adds 1 to the performance order N (step S58). Next, the CPU 51 determines whether or not the performance order N is equal to or less than the total number of performance parts constituting the selected music piece (step S59). At this time, if the CPU 51 determines that the performance order N is less than or equal to the total number of performance parts (step S59: YES), the CPU 51 proceeds to step S42. On the other hand, when the CPU 51 determines that the performance order N is not less than or equal to the total number of performance parts, that is, the performance order N is larger than the total number of performance parts (step S59: NO), the CPU 51 proceeds to step S60. In step S <b> 60, the CPU 51 selects a component list used for generating exercise information from the component lists generated in the component list table. For example, the operator 42 may select. When finishing the process of step S60, the CPU 51 ends the parts list generation process.

図5(C)は、出力端末5のCPU51の運動情報生成処理の処理例を示すフローチャートである。図5(C)に示すように、CPU51は、部品リストに基づいて、基本運動情報を生成する(ステップS21)。基本運動情報は、運動映像、ナレーション及び効果音のそれぞれの出力が開始されるタイミングを示す運動情報である。基本運動情報は、本発明のタイミング情報の一例である。例えば、CPU51は、運動テンポと、選択情報取得処理で取得された演奏パート開始イベントに含まれる拍数とに基づいて、各演奏パートの再生が開始される再生位置を計算する。次いで、CPU51は、各演奏パートに割り当てられた部品IDを部品リストから取得する。次いで、CPU51は、取得した部品IDに対応するモーションID、ナレーションタイミングID及び効果音タイミングIDを部品テーブルから取得する。次いで、CPU51は、モーションIDに対応するモーションデータのパスを取得する。次いで、CPU51は、各演奏パートについて、演奏パートの再生位置と、演奏パートに割り当てられた部品IDに対応するモーションデータのパスとを含むレコードを部品IDごとに生成する。次いで、CPU51は、ナレーションタイミングIDに対応するナレーションタイミングファイルをHDD7から取得する。次いで、CPU51は、ナレーションタイミングファイルと、演奏パートの再生位置とに基づいて、ナレーションデータの再生が開始される再生位置を計算する。次いで、CPU51は、ナレーションデータの再生位置とナレーションデータのパスとを含むレコードを、ナレーションデータごとに生成する。また、CPU51は、効果音タイミングファイルに基づいて、効果音データの再生位置と効果音データのパスとを含むレコードを、効果音データごとに生成する。この処理内容は、ナレーションデータの場合と基本的に同様である。CPU51は、生成されたこれらのレコードを含む基本運動情報を生成する。   FIG. 5C is a flowchart illustrating a processing example of exercise information generation processing of the CPU 51 of the output terminal 5. As shown in FIG. 5C, the CPU 51 generates basic motion information based on the parts list (step S21). The basic motion information is motion information indicating the timing at which each output of motion video, narration, and sound effects is started. The basic exercise information is an example of timing information of the present invention. For example, the CPU 51 calculates a playback position at which playback of each performance part is started based on the exercise tempo and the number of beats included in the performance part start event acquired in the selection information acquisition process. Next, the CPU 51 acquires the component ID assigned to each performance part from the component list. Next, the CPU 51 acquires the motion ID, narration timing ID, and sound effect timing ID corresponding to the acquired component ID from the component table. Next, the CPU 51 obtains a motion data path corresponding to the motion ID. Next, the CPU 51 generates, for each performance part, a record including a playback position of the performance part and a motion data path corresponding to the component ID assigned to the performance part for each performance part. Next, the CPU 51 acquires a narration timing file corresponding to the narration timing ID from the HDD 7. Next, the CPU 51 calculates a reproduction position where reproduction of narration data is started based on the narration timing file and the reproduction position of the performance part. Next, the CPU 51 generates a record including the reproduction position of the narration data and the narration data path for each narration data. Further, the CPU 51 generates, for each sound effect data, a record including the reproduction position of the sound effect data and the path of the sound effect data based on the sound effect timing file. The contents of this process are basically the same as in the case of narration data. The CPU 51 generates basic exercise information including these generated records.

具体例を説明する。例えば、図2(B)に示すように演奏パート1〜3に部品IDが割り当てられたとする。また、運動テンポは128BPMであるとする。この場合、1拍の長さは、約0.47秒である。演奏パート1の演奏順は1番目であるため、演奏パート1の出力が開始する再生位置は0秒である。演奏パート2の演奏順は2番目であり、演奏パート1の拍数は32拍である。従って、演奏パート2の出力が開始する再生位置は約15.04秒である。演奏パート3の演奏順は3番目であり、演奏パート2の拍数は64拍である。従って、演奏パート3の出力が開始するまでに、96拍が経過する。そのため、演奏パート3の出力が開始する再生位置は約45.12秒である。従って、マーチB、フロントランジA、スクワットCのモーションデータを用いた運動映像の表示が開始される再生位置は、それぞれ0秒、15.04秒、45.12秒である。また、図3(D)に示すナレーションタイミングファイルが、フロントランジAに対応するファイルであるとする。この場合、演奏パート2の出力が開始される8拍前に、ナレーション1の出力が開始される。従って、ナレーション1の再生が開始される再生位置は約11.28秒である。演奏パート2の出力が開始されてから1拍後に、ナレーション2の出力が開始される。従って、ナレーション2の再生が開始される再生位置は15.51秒である。演奏パート2の出力が開始されてから9拍後に、ナレーション3の出力が開始される。従って、ナレーション3の再生が開始される再生位置は19.27秒である。演奏パート3の出力が開始されてから13拍後に、ナレーション4の出力が開始される。従って、ナレーション4の再生が開始される再生位置は21.15秒である。   A specific example will be described. For example, assume that a component ID is assigned to each of performance parts 1 to 3 as shown in FIG. The exercise tempo is assumed to be 128 BPM. In this case, the length of one beat is about 0.47 seconds. Since the performance order of the performance part 1 is first, the reproduction position where the output of the performance part 1 starts is 0 second. The performance order of performance part 2 is second, and the performance part 1 has 32 beats. Therefore, the reproduction position where the output of the performance part 2 starts is about 15.04 seconds. The performance order of the performance part 3 is third, and the performance part 2 has 64 beats. Therefore, 96 beats elapse before the performance part 3 starts to output. Therefore, the reproduction position where the output of the performance part 3 starts is about 45.12 seconds. Accordingly, the playback positions at which the display of motion images using the motion data of March B, Front Range A, and Squat C are started at 0 seconds, 15.04 seconds, and 45.12 seconds, respectively. Further, it is assumed that the narration timing file shown in FIG. 3D is a file corresponding to the front range A. In this case, the output of narration 1 is started 8 beats before the output of performance part 2 is started. Therefore, the reproduction position where the reproduction of narration 1 is started is about 11.28 seconds. One beat after the start of performance part 2 output, narration 2 output is started. Therefore, the playback position where playback of narration 2 is started is 15.51 seconds. 9 beats after the start of performance part 2 output, the output of narration 3 is started. Therefore, the playback position where playback of narration 3 is started is 19.27 seconds. The narration 4 starts to be output 13 beats after the output of the performance part 3 is started. Therefore, the playback position where playback of narration 4 is started is 21.15 seconds.

次いで、CPU51は、楽曲専用運動情報を生成する(ステップS22)。楽曲専用運動情報は、コーラス、歌詞及びタイトル画像のそれぞれの出力が開始されるタイミングを示す運動情報である。例えば、CPU51は、選択された楽曲の楽曲IDに対応するコーラスデータ、コーラスタイミング情報、歌詞データをHDD7から取得する。CPU51は、コーラスデータとコーラスタイミング情報に基づいて、コーラスデータの再生が開始される再生位置とコーラスデータのパスとを含むレコードを生成する。また、CPU51は、歌詞データに基づいて、歌詞のテロップの表示が開始される再生位置と歌詞データのパスとを含むレコードを生成する。また、CPU51は、例えば予め設定された再生位置とタイトル画像データのパスとを含むレコードを生成する。CPU51は、これらのレコードを含む楽曲専用運動情報を生成する。   Next, the CPU 51 generates music dedicated exercise information (step S22). The music-specific exercise information is exercise information indicating the timing at which output of each of the chorus, lyrics, and title image is started. For example, the CPU 51 acquires chorus data, chorus timing information, and lyrics data corresponding to the song ID of the selected song from the HDD 7. Based on the chorus data and the chorus timing information, the CPU 51 generates a record including a playback position where chorus data playback is started and a chorus data path. Further, the CPU 51 generates a record including the reproduction position where the display of the lyrics telop is started and the path of the lyrics data based on the lyrics data. Further, the CPU 51 generates a record including, for example, a preset reproduction position and a title image data path. CPU51 produces | generates the music exclusive exercise | movement information containing these records.

次いで、CPU51は、基本運動情報と楽曲専用運動情報と結合して、最終的な運動情報を生成する(ステップS23)。CPU51は、ステップS23の処理を終えると、運動情報生成処理を終了させる。   Next, the CPU 51 combines the basic exercise information and the music-specific exercise information to generate final exercise information (step S23). When finishing the process in step S23, the CPU 51 ends the exercise information generation process.

図5(D)は、出力端末5のCPU51の再生処理の処理例を示すフローチャートである。図5(D)に示すように、CPU51は、選択された楽曲のテンポを、オリジナルのテンポから選択情報取得処理で決定された運動テンポに変更する(ステップS31)。   FIG. 5D is a flowchart illustrating a processing example of the reproduction processing of the CPU 51 of the output terminal 5. As shown in FIG. 5D, the CPU 51 changes the tempo of the selected music from the original tempo to the exercise tempo determined by the selection information acquisition process (step S31).

次いで、CPU51は、最終的な運動情報に基づいて運動コンテンツを再生する(ステップS32)。具体的に、CPU51は、時計機能から現在時刻を取得する。CPU51は、取得した現在時刻を楽曲データの再生開始時刻とする。次いで、CPU51は、選択された楽曲の楽曲データに基づいて、ミュージックシーケンサにより楽曲データを再生する。これにより、CPU51は、スピーカ64により楽曲を出力させる。このとき、CPU51は、選択情報取得処理で決定された運動テンポに従って楽曲を出力させる。   Next, the CPU 51 reproduces the exercise content based on the final exercise information (step S32). Specifically, the CPU 51 acquires the current time from the clock function. The CPU 51 sets the acquired current time as the music data reproduction start time. Next, the CPU 51 reproduces the music data by the music sequencer based on the music data of the selected music. As a result, the CPU 51 causes the speaker 64 to output music. At this time, the CPU 51 outputs the music according to the exercise tempo determined in the selection information acquisition process.

楽曲データの再生を開始すると、CPU51は、楽曲データの再生開始時刻から経過した時間を、楽曲の現在の再生位置として随時更新する。再生位置が更新されるごとに、CPU51は、運動情報から現在の再生位置を含むレコードを検索する。CPU51は、検索されたレコードに応じた処理を行う。例えば、モーションデータのパスを含むレコードが検索された場合、CPU51は、パスに対応するモーションデータに基づいて、運動映像の再生を開始する。このとき、CPU51は、先ずメイン動作の静止画像を順次生成し、静止画像を表示制御部56へ順次出力する。次いで、CPU51は、後繋ぎ動作の静止画像を順次生成し、静止画像を表示制御部56へ順次出力する。これにより、CPU51は、ディスプレイ67に運動映像を表示する。ナレーションデータのパスを含むレコードが検索された場合、CPU51は、パスに対応するナレーションデータの再生を開始する。これにより、CPU51は、スピーカ64によりナレーションを出力させる。効果音データのパスを含むレコードが検索された場合、CPU51は、パスに対応する効果音データの再生を開始する。これにより、CPU51は、スピーカ64により効果音を出力させる。コーラスデータのパスを含むレコードが検索された場合、CPU51は、パスに対応するコーラスデータの再生を開始する。歌詞データのパスを含むレコードが検索された場合、CPU51は、パスに対応する歌詞データに基づいて、歌詞のテロップをディスプレイ67に表示する。タイトル画像データのパスを含むレコードが検索された場合、CPU51は、パスに対応するタイトル画像データに基づいて、タイトル画像をディスプレイ67に表示する。楽曲データの再生が終了すると、CPU51は、再生処理を終了させる。   When the reproduction of the music data is started, the CPU 51 updates the time elapsed from the reproduction start time of the music data as the current reproduction position of the music as needed. Each time the playback position is updated, the CPU 51 searches for a record including the current playback position from the exercise information. The CPU 51 performs processing according to the retrieved record. For example, when a record including a path of motion data is searched, the CPU 51 starts playback of a motion video based on motion data corresponding to the path. At this time, the CPU 51 sequentially generates still images of the main operation and sequentially outputs the still images to the display control unit 56. Next, the CPU 51 sequentially generates still images for the back-joining operation, and sequentially outputs the still images to the display control unit 56. As a result, the CPU 51 displays the motion video on the display 67. When a record including a narration data path is found, the CPU 51 starts reproducing the narration data corresponding to the path. As a result, the CPU 51 causes the speaker 64 to output a narration. When a record including a sound effect data path is searched, the CPU 51 starts to reproduce sound effect data corresponding to the path. As a result, the CPU 51 causes the speaker 64 to output a sound effect. When a record including a path of chorus data is searched, the CPU 51 starts reproduction of chorus data corresponding to the path. When a record including a path of lyrics data is searched, the CPU 51 displays a telop of lyrics on the display 67 based on the lyrics data corresponding to the path. When a record including the title image data path is searched, the CPU 51 displays the title image on the display 67 based on the title image data corresponding to the path. When the reproduction of the music data ends, the CPU 51 ends the reproduction process.

以上説明したように、本実施形態によれば、CPU51が、演奏順が1番目の演奏パートの属性に一致する属性に対応する部品IDを検索する。また、CPU51は、演奏順が1番目の演奏パートについて検索された部品IDの繋ぎ属性に一致する繋ぎ属性に対応し、且つ、演奏順が2番目の演奏パートの属性に一致する属性に対応する部品IDを検索する。そのため、運動動作の繋がりが自然になるように各演奏パートに部品IDを自動的に割り当てることができる。   As described above, according to the present embodiment, the CPU 51 searches for the component ID corresponding to the attribute whose performance order matches the attribute of the first performance part. Further, the CPU 51 corresponds to a connection attribute that matches the connection attribute of the component ID searched for the first performance part in the performance order, and corresponds to an attribute that matches the attribute of the second performance part in the performance order. Search for the component ID. Therefore, it is possible to automatically assign a component ID to each performance part so that the connection of the movement is natural.

なお、上記実施形態において、出力端末5は、演奏順が1番目の演奏パートに割り当て可能な部品IDを最初に検索していた。しかしながら、出力端末5は、演奏順が1番目の演奏パートとは異なる演奏パートに割り当て可能な部品IDを最初に検索してもよい。その後、出力端末5は、割り当て可能な部品IDが検索された演奏パートの次の演奏順の演奏パートから演奏順に、割り当て可能な部品IDを検索してもよい。   In the above embodiment, the output terminal 5 first searches for a component ID that can be assigned to the first performance part in the performance order. However, the output terminal 5 may first search for a component ID that can be assigned to a performance part different from the first performance part in the performance order. Thereafter, the output terminal 5 may search for the assignable component IDs in the order of performance from the performance part in the performance order next to the performance part for which the assignable component ID has been searched.

また、上記実施形態においては、本発明の情報処理装置が出力端末5に適用されていた。しかしながら、本発明の情報処理装置が配信サーバ2に適用されてもよい。例えば、配信サーバ2が、部品リストや運動情報を生成してもよい。また、配信サーバ2が、運動情報に基づいて、音声データ及び動画データを生成してもよい。この場合の音声データは、楽曲、ナレーション、効果音、コーラス等を出力するためのデータである。また、動画データは、運動映像、歌詞等を表示するためのデータである。運動レッスンが行われるとき、配信サーバ2は、音声データ及び動画データを、例えばストリーミング方式で出力端末5に送信する。これにより、配信サーバ2は、出力端末5により楽曲を出力させ、且つ、運動映像を表示させる。また、本発明の情報処理装置が出力端末5及び配信サーバ2に適用されてもよい。そして、出力端末5及び配信サーバ2は協働して処理を行ってもよい。   In the above embodiment, the information processing apparatus of the present invention is applied to the output terminal 5. However, the information processing apparatus of the present invention may be applied to the distribution server 2. For example, the distribution server 2 may generate a parts list and exercise information. Further, the distribution server 2 may generate audio data and moving image data based on the exercise information. The audio data in this case is data for outputting music, narration, sound effects, chorus, and the like. The moving image data is data for displaying exercise videos, lyrics, and the like. When the exercise lesson is performed, the distribution server 2 transmits the audio data and the moving image data to the output terminal 5 by, for example, a streaming method. As a result, the distribution server 2 causes the output terminal 5 to output the music and display the motion video. Further, the information processing apparatus of the present invention may be applied to the output terminal 5 and the distribution server 2. The output terminal 5 and the distribution server 2 may perform processing in cooperation.

1 運動コンテンツ生成システム
2 配信サーバ
3 データベース
5 出力端末
7 HDD
51 CPU
56 表示制御部
63 音声出力部
1 Exercise content generation system 2 Distribution server 3 Database 5 Output terminal 7 HDD
51 CPU
56 Display Control Unit 63 Audio Output Unit

Claims (6)

複数の演奏パートで構成される楽曲を示す楽曲情報と、前記複数の演奏パートの属性を示す第1属性情報とを記憶する第1記憶手段と、
複数の運動動作を示す複数の動作情報と、前記複数の動作情報を利用可能な演奏パートの属性を示す第2属性情報と、前記複数の動作情報の繋ぎ属性を示す繋ぎ属性情報とを対応付けて記憶する第2記憶手段と、
前記複数の演奏パートに含まれる第1演奏パートの前記第1属性情報に一致する前記第2属性情報に対応する前記動作情報を前記第2記憶手段から検索する第1検索手段と、
前記第1検索手段により検索された前記動作情報の前記繋ぎ属性情報に一致する前記繋ぎ属性情報に対応し、且つ、前記第1演奏パートの次の出力順の第2演奏パートの前記第1属性情報に一致する前記第2属性情報に対応する前記動作情報を前記第2記憶手段から検索する第2検索手段と、
前記第1検索手段及び第2検索手段の検索結果に基づいて、前記複数の演奏パートに合う複数の運動動作を示すリスト情報を生成する生成手段と、
を備えることを特徴とする情報処理装置。
First storage means for storing music information indicating music composed of a plurality of performance parts and first attribute information indicating attributes of the plurality of performance parts;
Associating a plurality of motion information indicating a plurality of movements, second attribute information indicating attributes of a performance part that can use the plurality of motion information, and connection attribute information indicating a connection attribute of the plurality of motion information Second storage means for storing
First search means for searching the operation information corresponding to the second attribute information corresponding to the first attribute information of the first performance part included in the plurality of performance parts from the second storage means;
The first attribute of the second performance part corresponding to the connection attribute information that matches the connection attribute information of the motion information searched by the first search means and in the next output order of the first performance part. Second search means for searching the operation information corresponding to the second attribute information that matches information from the second storage means;
Generating means for generating list information indicating a plurality of athletic movements suitable for the plurality of performance parts based on the search results of the first search means and the second search means;
An information processing apparatus comprising:
前記第2記憶手段に記憶される前記繋ぎ属性情報は、前記動作情報の前繋ぎ属性と後ろ繋ぎ属性とを示し、
前記第2検索手段は、前記第1検索手段により検索された前記動作情報の前記繋ぎ属性情報が示す後ろ繋ぎ属性に一致する前繋ぎ属性を示す前記繋ぎ属性情報に対応し、且つ、前記第1演奏パートの次の出力順の第2演奏パートの前記第1属性情報に一致する前記第2属性情報に対応する前記動作情報を前記第2記憶手段から検索し、
前記第2検索手段により検索された前記動作情報の前記繋ぎ属性情報が示す後ろ繋ぎ属性に一致する前繋ぎ属性を示す前記繋ぎ属性情報に対応し、且つ、前記第2演奏パートの次の出力順の第3演奏パートの前記第1属性情報に一致する前記第2属性情報に対応する前記動作情報を前記第2記憶手段から検索する第3検索手段を更に備え、
前記生成手段は、前記第1検索手段、第2検索手段及び第3検索手段の検索結果に基づいて、前記リスト情報を生成することを特徴とする請求項1に記載の情報処理装置。
The connection attribute information stored in the second storage means indicates a front connection attribute and a back connection attribute of the motion information;
The second search means corresponds to the connection attribute information indicating a front connection attribute that matches a back connection attribute indicated by the connection attribute information of the motion information searched by the first search means, and the first search means Searching the second storage means for the action information corresponding to the second attribute information that matches the first attribute information of the second performance part in the next output order of the performance part;
Corresponding to the connection attribute information indicating the previous connection attribute that matches the back connection attribute indicated by the connection attribute information of the motion information searched by the second search means, and in the next output order of the second performance part Further comprising third search means for searching the action information corresponding to the second attribute information corresponding to the first attribute information of the third performance part from the second storage means,
The information processing apparatus according to claim 1, wherein the generation unit generates the list information based on search results of the first search unit, the second search unit, and the third search unit.
前記複数の動作情報に対応付けて、運動動作をサポートするナレーションを示すナレーション情報と、前記運動動作の開始から何拍前に前記ナレーション情報を出力するかを示す拍情報とを記憶する第3記憶手段と、
前記第3記憶手段に記憶された前記拍情報に基づいて、前記楽曲情報が出力されているときの前記ナレーション情報の出力のタイミングであって、前記生成手段により生成された前記リスト情報が示す前記運動動作に対応する前記ナレーション情報の出力のタイミングを示すタイミング情報を生成する第2生成手段と、
を更に備えることを特徴とする請求項1又は2に記載の情報処理装置。
Third memory for storing narration information indicating narration supporting exercise motion and beat information indicating how many beats before the start of the exercise motion is output in association with the plurality of motion information Means,
The timing of outputting the narration information when the music information is output based on the beat information stored in the third storage means, the list information generated by the generating means indicating the timing Second generation means for generating timing information indicating a timing of output of the narration information corresponding to a motion action;
The information processing apparatus according to claim 1, further comprising:
前記第1記憶手段は、前記楽曲のテンポを示す第1テンポ情報を更に記憶し、
前記第2記憶手段は、前記運動動作のテンポを示す第2テンポ情報を更に記憶し、
前記第1検索手段は、前記第2記憶手段に記憶された複数の前記第2テンポ情報のうち、前記第1記憶手段に記憶された前記第1テンポ情報が示すテンポに最も近いテンポを示す前記第2テンポ情報に対応する前記動作情報を検索し、
前記第2検索手段は、前記第1検索手段により検索された前記動作情報の前記第2テンポ情報に一致する前記第2テンポ情報に対応する前記動作情報を検索し、
前記第1検索手段により検索された前記動作情報の前記第2テンポ情報が示すテンポに従って、前記第1記憶手段に記憶された前記楽曲情報を出力手段により出力させる制御手段を更に備えることを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
The first storage means further stores first tempo information indicating the tempo of the music,
The second storage means further stores second tempo information indicating the tempo of the exercise operation,
The first search means indicates the tempo closest to the tempo indicated by the first tempo information stored in the first storage means among the plurality of second tempo information stored in the second storage means. Searching for the motion information corresponding to the second tempo information;
The second search means searches for the motion information corresponding to the second tempo information that matches the second tempo information of the motion information searched by the first search means;
The apparatus further comprises control means for outputting the music information stored in the first storage means by the output means in accordance with the tempo indicated by the second tempo information of the motion information searched by the first search means. The information processing apparatus according to any one of claims 1 to 3.
前記第1記憶手段は、演奏パートの拍数を示す前記第1属性情報を記憶し、
前記第2記憶手段は、運動動作の拍数を示す前記第2属性情報を記憶し、
前記第1検索手段及び前記第2検索手段は、演奏パートの拍数に一致する拍数の運動動作を示す前記動作情報を検索することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
The first storage means stores the first attribute information indicating the number of beats of a performance part,
The second storage means stores the second attribute information indicating the number of beats of exercise motion,
The said 1st search means and the said 2nd search means search the said movement information which shows the exercise | movement action of the beat number which corresponds to the beat number of a performance part, Either of Claim 1 thru | or 4 characterized by the above-mentioned. The information processing apparatus described.
複数の運動動作を示す複数の動作情報と、前記複数の動作情報を利用可能な演奏パートの属性を示す第2属性情報と、前記複数の動作情報の繋ぎ属性を示す繋ぎ属性情報とを対応付けて記憶する第2記憶手段から、複数の演奏パートで構成される楽曲を示す楽曲情報と、前記複数の演奏パートの属性を示す第1属性情報とを記憶する第1記憶手段に記憶された前記第1属性情報であって、前記複数の演奏パートに含まれる第1演奏パートの前記第1属性情報に一致する前記第2属性情報に対応する前記動作情報を検索する第1検索ステップと、
前記第1検索ステップにより検索された前記動作情報の前記繋ぎ属性情報に一致する前記繋ぎ属性情報に対応し、且つ、前記第1演奏パートの次の出力順の第2演奏パートの前記第1属性情報に一致する前記第2属性情報に対応する前記動作情報を前記第2記憶手段から検索する第2検索ステップと、
前記第1検索ステップ及び第2検索ステップの検索結果に基づいて、前記複数の演奏パートに合う複数の運動動作を示すリスト情報を生成する生成ステップと、
をコンピュータに実行させることを特徴とするプログラム。
Associating a plurality of motion information indicating a plurality of movements, second attribute information indicating attributes of a performance part that can use the plurality of motion information, and connection attribute information indicating a connection attribute of the plurality of motion information Stored in the first storage means for storing the music information indicating the music composed of a plurality of performance parts and the first attribute information indicating the attributes of the plurality of performance parts. A first search step of searching for the motion information corresponding to the second attribute information which is first attribute information and matches the first attribute information of the first performance part included in the plurality of performance parts;
The first attribute of the second performance part corresponding to the splicing attribute information that matches the splicing attribute information of the motion information searched in the first searching step and in the next output order of the first performance part. A second search step for searching the operation information corresponding to the second attribute information matching the information from the second storage means;
Based on the search results of the first search step and the second search step, a generation step of generating list information indicating a plurality of movements suitable for the plurality of performance parts;
A program that causes a computer to execute.
JP2013149906A 2013-07-18 2013-07-18 Information processing apparatus and program Expired - Fee Related JP5949687B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013149906A JP5949687B2 (en) 2013-07-18 2013-07-18 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013149906A JP5949687B2 (en) 2013-07-18 2013-07-18 Information processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2015019820A JP2015019820A (en) 2015-02-02
JP5949687B2 true JP5949687B2 (en) 2016-07-13

Family

ID=52484826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013149906A Expired - Fee Related JP5949687B2 (en) 2013-07-18 2013-07-18 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5949687B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009201799A (en) * 2008-02-28 2009-09-10 Xing Inc Exercise supporting apparatus, exercise supporting method, and computer program
JP5049819B2 (en) * 2008-02-28 2012-10-17 株式会社エクシング Exercise support apparatus and computer program
JP5318465B2 (en) * 2008-05-29 2013-10-16 株式会社エクシング Exercise support apparatus and computer program
JP5606673B2 (en) * 2008-12-09 2014-10-15 ブラザー工業株式会社 Apparatus, music display method, and program
JP5625417B2 (en) * 2010-03-19 2014-11-19 ブラザー工業株式会社 Exercise support device, exercise support method and program
JP5397394B2 (en) * 2011-02-17 2014-01-22 ブラザー工業株式会社 Exercise support device, exercise support method and program

Also Published As

Publication number Publication date
JP2015019820A (en) 2015-02-02

Similar Documents

Publication Publication Date Title
JP2012182724A (en) Moving image combining system, moving image combining method, moving image combining program and storage medium of the same
JP2013171070A (en) Music information processing apparatus and music information processing method
JP5949688B2 (en) Information processing apparatus and program
JP2014128409A (en) Information processor, information processing method and program
JP5949687B2 (en) Information processing apparatus and program
JP5954287B2 (en) Information processing apparatus and program
JP5954288B2 (en) Information processing apparatus and program
JP6287921B2 (en) Information processing apparatus and program
JP6163755B2 (en) Information processing apparatus, information processing method, and program
JP5949824B2 (en) Information processing apparatus and program
JP5246232B2 (en) Exercise support device, exercise support method and program
JP5939217B2 (en) Information processing apparatus, information processing system, and program
JP2017108198A (en) Musical score display system, moving image data supply device, musical score data supply device, image display device and musical score display program
JP5942914B2 (en) Information processing apparatus and program
JP5928361B2 (en) Information processing apparatus, information processing method, and program
JP6361430B2 (en) Information processing apparatus and program
JP6048136B2 (en) Information processing apparatus, information processing method, and program
JP5943020B2 (en) Information processing apparatus and program
JP5954314B2 (en) Information processing apparatus and program
JP2014046018A (en) Information processor, information processing method, and program
JP5958389B2 (en) Information processing apparatus and program
JP2014200338A (en) Information processor and program
JP5939218B2 (en) Information processing apparatus and program
JP5510822B2 (en) Singing information processing system
JP5949808B2 (en) Information processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160523

R150 Certificate of patent or registration of utility model

Ref document number: 5949687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees