JP5949688B2 - Information processing apparatus and program - Google Patents

Information processing apparatus and program Download PDF

Info

Publication number
JP5949688B2
JP5949688B2 JP2013149907A JP2013149907A JP5949688B2 JP 5949688 B2 JP5949688 B2 JP 5949688B2 JP 2013149907 A JP2013149907 A JP 2013149907A JP 2013149907 A JP2013149907 A JP 2013149907A JP 5949688 B2 JP5949688 B2 JP 5949688B2
Authority
JP
Japan
Prior art keywords
information
motion
exercise
performance
performance part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013149907A
Other languages
Japanese (ja)
Other versions
JP2015019821A (en
Inventor
雅弘 亀井
雅弘 亀井
弘明 松場
弘明 松場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2013149907A priority Critical patent/JP5949688B2/en
Publication of JP2015019821A publication Critical patent/JP2015019821A/en
Application granted granted Critical
Publication of JP5949688B2 publication Critical patent/JP5949688B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ユーザが楽曲を聴きながら行う運動を支援するための運動コンテンツを出力する技術分野に関する。   The present invention relates to a technical field of outputting exercise content for supporting exercise performed by a user while listening to music.

従来、楽曲を構成する複数の演奏パートのそれぞれに運動動作を割り当てる技術が知られている。例えば、特許文献1には、演奏パートの種類に応じた運動種類の運動動作を、演奏パートに割り当てる技術が開示されている。   2. Description of the Related Art Conventionally, a technique for assigning an exercise motion to each of a plurality of performance parts constituting a music is known. For example, Patent Document 1 discloses a technique for allocating an exercise operation of an exercise type corresponding to the type of a performance part to the performance part.

特開2012−65966号公報JP 2012-65966 A

運動コンテンツの生成を効率化するために、各演奏パートに割り当てる運動動作を、予め用意されている複数の運動動作の中から自動的に決定することが考えられる。このとき、楽曲ごとに運動に特徴を持たせるため、楽曲専用の運動動作と汎用の運動動作とを自動的に組み合わせたいという要望がある。しかしながら、従来の技術では、各演奏パートに合う運動動作を割り当てることはできるものの、専用の運動動作と汎用の運動動作との繋がりについては考慮されていなかった。そのため、運動動作の繋がりに違和感のある運動コンテンツが生成されてしまう場合があった。   In order to increase the efficiency of the generation of exercise content, it is conceivable to automatically determine the exercise operation assigned to each performance part from a plurality of exercise operations prepared in advance. At this time, there is a demand for automatically combining a motion motion dedicated to music and a general motion motion in order to give each music a characteristic in motion. However, in the conventional technique, although a motion motion suitable for each performance part can be assigned, the connection between a dedicated motion motion and a general motion motion has not been considered. For this reason, there is a case in which exercise content having a sense of incongruity in the connection of exercise motion is generated.

本発明は、以上の点に鑑みてなされたものであり、運動動作の繋がりが自然になるように各演奏パートに専用の運動動作と汎用の運動動作とを自動的に割り当てることを可能とする情報処理装置及びプログラムを提供することを課題とする。   The present invention has been made in view of the above points, and makes it possible to automatically assign a dedicated motion motion and a general motion motion to each performance part so that the connection of the motion motion becomes natural. It is an object to provide an information processing apparatus and a program.

上記課題を解決するために、請求項1に記載の発明は、複数の演奏パートで構成される楽曲を示す楽曲情報を記憶する第1記憶手段と、前記楽曲に専用の運動動作を示す第1動作情報と、前記第1動作情報の繋ぎ属性を示す第1繋ぎ属性情報とを対応付けて記憶する第2記憶手段と、様々な楽曲で行うことができる複数の汎用の運動動作を示す複数の第2動作情報と、前記複数の動作情報の繋ぎ属性を示す第2繋ぎ属性情報とを対応付けて記憶する第3記憶手段と、前記複数の演奏パートの何れかの演奏パートに割り当てる候補となる前記第1動作情報を前記第2記憶手段から検索する第1検索手段と、前記第1検索手段により検索された前記第1動作情報の前記第1繋ぎ属性情報に一致する前記第2繋ぎ属性情報に対応する前記第2動作情報を、前記第1動作情報が検索された演奏パートの前に出力される第1演奏パート及び前記第1動作情報が検索された演奏パートの次に出力される第2演奏パートの少なくとも何れかに割り当てる候補として前記第3記憶手段から検索する第2検索手段と、前記第1検索手段及び前記第2検索手段の検索結果に基づいて、前記楽曲情報が出力されるときに行われる複数の運動動作を示すリスト情報を生成する生成手段と、を備えることを特徴とする。 In order to solve the above-mentioned problem, the invention according to claim 1 is a first storage means for storing music information indicating music composed of a plurality of performance parts, and a first motion operation dedicated to the music. Second storage means for storing movement information and first connection attribute information indicating connection attributes of the first movement information in association with each other, and a plurality of general motion movements that can be performed on various music pieces Third storage means for storing second motion information and second connection attribute information indicating connection attributes of the plurality of motion information in association with each other, and a candidate to be assigned to any one of the plurality of performance parts. First search means for searching for the first action information from the second storage means, and the second connection attribute information that matches the first connection attribute information of the first action information searched by the first search means. The second operation information corresponding to At least one of the first performance part that is output before the performance part for which the first motion information is retrieved and the second performance part that is output after the performance part for which the first motion information is retrieved. A plurality of exercises performed when the music information is output based on second search means for searching from the third storage means as candidates to be assigned, and search results of the first search means and the second search means; And generating means for generating list information indicating.

請求項2に記載の発明は、前記第1検索手段は、前記複数の演奏パートのうち最初に出力される演奏パートに割り当て可能な前記第1動作情報を検索し、前記第1検索手段により前記第1動作情報が検索されたかを判定する判定手段を更に備え、前記第1検索手段は、前記判定手段により前記第1動作情報が検索されたと判定されなかった場合、前記最初に出力される演奏パートに割り当て可能な前記第2動作情報を前記第3記憶手段から検索し、前記第2検索手段は、前記第1検索手段により検索された前記第1動作情報の前記第1繋ぎ属性情報又は前記第2動作情報の前記第2繋ぎ属性情報に一致する前記第2繋ぎ属性情報に対応する前記第2動作情報を、前記最初に出力される演奏パートの次に出力される演奏パートに割り当てる候補として検索することを特徴とする。   According to a second aspect of the present invention, the first search means searches for the first action information that can be assigned to a performance part that is output first among the plurality of performance parts, and the first search means determines the first movement information. And determining means for determining whether or not the first motion information has been searched, wherein the first search means performs the first performance output when the determination means does not determine that the first motion information has been searched. The second motion information that can be assigned to a part is searched from the third storage means, and the second search means is the first connection attribute information of the first motion information searched by the first search means or the Candidates for assigning the second action information corresponding to the second connection attribute information that matches the second connection attribute information of the second action information to the performance part that is output next to the performance part that is output first. And characterized in that the search.

請求項3に記載の発明は、前記第1検索手段は、前記複数の演奏パートのうち前記第1動作情報を割り当て可能な演奏パートを検索し、前記第2検索手段は、前記第1演奏パート及び前記第2演奏パートのうち前記第1検索手段により検索されなかった演奏パートに割り当てる候補として、前記第1検索手段により検索された前記第1動作情報の前記第1繋ぎ属性情報に一致する前記第2繋ぎ属性情報に対応する前記第2動作情報を検索することを特徴とする。   According to a third aspect of the present invention, the first search means searches for a performance part to which the first action information can be assigned among the plurality of performance parts, and the second search means searches for the first performance part. And the second performance part that matches the first connection attribute information of the first motion information searched by the first search means as a candidate to be assigned to the performance parts not searched by the first search means. The second motion information corresponding to the second connection attribute information is searched.

請求項4に記載の発明は、前記第1動作情報及び前記複数の第2動作情報に対応付けて、運動動作をサポートするナレーションを示すナレーション情報と、前記運動動作の開始から何拍前に前記ナレーション情報を出力するかを示す拍情報とを記憶する第4記憶手段と、前記第4記憶手段に記憶された前記拍情報に基づいて、前記楽曲情報が出力されているときの前記ナレーション情報の出力のタイミングであって、前記生成手段により生成された前記リスト情報が示す前記複数の運動動作に対応する前記ナレーション情報の出力のタイミングを示すタイミング情報を生成する第2生成手段と、を更に備えることを特徴とする。   According to a fourth aspect of the present invention, there is provided narration information indicating narration supporting exercise motion in association with the first motion information and the plurality of second motion information, and how many beats before the start of the motion motion Fourth storage means for storing beat information indicating whether or not to output narration information; and based on the beat information stored in the fourth storage means, the narration information when the music information is output Second generation means for generating timing information indicating the output timing of the narration information corresponding to the plurality of exercise operations indicated by the list information generated by the generation means; It is characterized by that.

請求項5に記載の発明は、複数の演奏パートで構成される楽曲を示す楽曲情報を記憶する第1記憶手段に記憶された前記楽曲情報が示す前記楽曲に専用の運動動作を示す第1動作情報と、前記第1動作情報の繋ぎ属性を示す第1繋ぎ属性情報とを対応付けて記憶する第2記憶手段から、前記複数の演奏パートの何れかの演奏パートに割り当てる候補となる前記第1動作情報を検索する第1検索ステップと、様々な楽曲で行うことができる複数の汎用の運動動作を示す複数の第2動作情報と、前記複数の動作情報の繋ぎ属性を示す第2繋ぎ属性情報とを対応付けて記憶する第3記憶手段から、前記第1検索ステップにより検索された前記第1動作情報の前記第1繋ぎ属性情報に一致する前記第2繋ぎ属性情報に対応する前記第2動作情報を、前記第1動作情報が検索された演奏パートの前に出力される第1演奏パート及び前記第1動作情報が検索された演奏パートの次に出力される第2演奏パートの少なくとも何れかに割り当てる候補として検索する第2検索ステップと、前記第1検索ステップ及び前記第2検索ステップの検索結果に基づいて、前記楽曲情報が出力されるときに行われる複数の運動動作を示すリスト情報を生成する生成ステップと、をコンピュータに実行させることを特徴とする。 According to a fifth aspect of the present invention, there is provided a first operation indicating a dedicated motion operation for the music indicated by the music information stored in a first storage means for storing music information indicating a music composed of a plurality of performance parts. The second storage means for storing information and first connection attribute information indicating the connection attribute of the first motion information in association with each other, the first to be a candidate to be assigned to any one of the plurality of performance parts. A first search step for searching for motion information, a plurality of second motion information indicating a plurality of general-purpose motions that can be performed with various music pieces, and a second connection attribute information indicating a connection attribute of the plurality of motion information The second operation corresponding to the second connection attribute information that matches the first connection attribute information of the first operation information searched in the first search step from the third storage means for storing the information in association with each other. Information before As a candidate to be assigned to at least one of the first performance part output before the performance part for which the first motion information has been searched and the second performance part output after the performance part for which the first motion information has been searched. A second search step for searching, and a generation step for generating list information indicating a plurality of exercise operations performed when the music information is output based on the search results of the first search step and the second search step And making the computer execute.

請求項1又は5に記載の発明によれば、演奏パートに割り当てられた専用の運動動作の繋ぎ属性と一致する繋ぎ属性を有する汎用の運動動作が、専用の運動動作が割り当てられた演奏パートの前の演奏パート、及び、専用の運動動作が割り当てられた演奏パートの次の演奏パートの少なくとも何れかに割り当てられる。そのため、運動動作の繋がりが自然になるように各演奏パートに専用の運動動作と汎用の運動動作とを自動的に割り当てることができる。   According to the invention described in claim 1 or 5, the general-purpose exercise motion having the connection attribute that matches the connection attribute of the dedicated exercise motion assigned to the performance part is the same as that of the performance part to which the dedicated exercise motion is assigned. It is assigned to at least one of the previous performance part and the performance part next to the performance part to which the dedicated movement is assigned. Therefore, a dedicated exercise operation and a general exercise operation can be automatically assigned to each performance part so that the connection between the exercise operations becomes natural.

請求項2に記載の発明によれば、演奏パートの出力順に運動動作を割り当てることができる。   According to the second aspect of the present invention, it is possible to assign exercise motions in the order of output of performance parts.

請求項3に記載の発明によれば、多くの演奏パートに専用の運動動作を割り当てることができる。   According to the third aspect of the present invention, dedicated movements can be assigned to many performance parts.

請求項4に記載の発明によれば、運動動作に対応するナレーションを運動動作の開始に先立って出力することができる。   According to the fourth aspect of the present invention, it is possible to output narration corresponding to the motion motion prior to the start of the motion motion.

一実施形態の運動コンテンツ生成システム1の概要構成例を示す図である。It is a figure showing an example of outline composition of exercise content generation system 1 of one embodiment. (A)は、運動動作の構成例を示す図であり、(B)は、部品IDの割り当て例を示す図である。(A) is a figure which shows the structural example of an exercise | movement operation | movement, (B) is a figure which shows the example of allocation of component ID. (A)は、汎用部品テーブルの構成例を示す図であり、(B)は、専用部品テーブルの構成例を示す図であり、(C)は、繋ぎ動作テーブルの構成例を示す図であり、(D)は、運動ジャンルテーブルの構成例を示す図であり、(E)は、ナレーションタイミングファイルの内容の一例を示す図であり、(F)は、効果音タイミングファイルの内容の一例を示す図である。(A) is a figure which shows the structural example of a general purpose component table, (B) is a figure which shows the structural example of a dedicated component table, (C) is a figure which shows the structural example of a joining operation | movement table. (D) is a figure which shows the structural example of an exercise genre table, (E) is a figure which shows an example of the content of a narration timing file, (F) is an example of the content of a sound effect timing file. FIG. (A)は、楽曲の構成例を示す図であり、(B)〜(G)は、部品リスト表の更新過程の一例を示す図である。(A) is a figure which shows the structural example of a music, (B)-(G) is a figure which shows an example of the update process of a components list table. (A)は、出力端末5のCPU51のメイン処理の処理例を示すフローチャートであり、(B)は、出力端末5のCPU51の選択情報取得処理の処理例を示すフローチャートであり、(C)は、出力端末5のCPU51の運動情報生成処理の処理例を示すフローチャートであり、(D)は、出力端末5のCPU51の再生処理の処理例を示すフローチャートである。(A) is a flowchart showing a processing example of a main process of the CPU 51 of the output terminal 5, (B) is a flowchart showing a processing example of a selection information acquisition process of the CPU 51 of the output terminal 5, and (C). FIG. 5 is a flowchart showing an example of exercise information generation processing of the CPU 51 of the output terminal 5, and (D) is a flowchart showing an example of reproduction processing of the CPU 51 of the output terminal 5. 出力端末5のCPU51の部品リスト生成処理の処理例を示すフローチャートである。10 is a flowchart illustrating a processing example of a parts list generation process of a CPU 51 of the output terminal 5. 出力端末5のCPU51の部品リスト生成処理の処理例を示すフローチャートである。10 is a flowchart illustrating a processing example of a parts list generation process of a CPU 51 of the output terminal 5.

以下、本発明の実施形態を図面に基づいて説明する。なお、以下に説明する実施の形態は、運動を支援するための運動コンテンツを生成する運動コンテンツ生成システムに本発明を適用した場合の実施形態である。運動コンテンツは、運動を支援するための映像及び音声を含む。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, embodiment described below is embodiment at the time of applying this invention to the exercise content production | generation system which produces | generates the exercise content for supporting exercise. The exercise content includes video and audio for supporting exercise.

[1.運動コンテンツ生成システム1の構成]
始めに、図1を参照して、本実施形態の運動コンテンツ生成システム1の構成について説明する。図1は、本実施形態の運動コンテンツ生成システム1の概要構成例を示す図である。図1に示すように、運動コンテンツ生成システム1は、配信サーバ2と1つ以上の出力端末5とを含んで構成されている。配信サーバ2と出力端末5とは、ネットワーク10を介して接続可能になっている。ネットワーク10は、例えば、インターネットを含む。配信サーバ2には、データベース3が接続されている。データベース3には、運動に関する情報や楽曲に関する情報が登録されている。配信サーバ2は、データベース3に登録されている情報等を、定期的に又は出力端末5からの要求に応じて出力端末5に配信する。
[1. Configuration of Exercise Content Generation System 1]
First, the configuration of the exercise content generation system 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating a schematic configuration example of an exercise content generation system 1 according to the present embodiment. As shown in FIG. 1, the exercise content generation system 1 includes a distribution server 2 and one or more output terminals 5. The distribution server 2 and the output terminal 5 can be connected via the network 10. The network 10 includes, for example, the Internet. A database 3 is connected to the distribution server 2. Information relating to exercise and information relating to music are registered in the database 3. The distribution server 2 distributes information registered in the database 3 to the output terminal 5 periodically or in response to a request from the output terminal 5.

出力端末5は、例えば、施設4に設置される端末装置である。出力端末5は、本発明の情報処理装置の一例である。出力端末5は、施設4の利用者41により利用される。施設4は、例えば、スポーツ施設であってもよい。利用者41は、スポーツ施設において、運動レッスンを受ける。運動レッスンは、複数の運動動作と歌唱により構成されるレッスンである。この場合の出力端末5は、例えばパーソナルコンピュータであってもよい。   The output terminal 5 is a terminal device installed in the facility 4, for example. The output terminal 5 is an example of an information processing apparatus of the present invention. The output terminal 5 is used by a user 41 of the facility 4. The facility 4 may be a sports facility, for example. The user 41 receives an exercise lesson at the sports facility. An exercise lesson is a lesson composed of a plurality of exercises and singing. The output terminal 5 in this case may be a personal computer, for example.

出力端末5は、モニタ57と接続可能である。モニタ57は、複数のスピーカ64とディスプレイ67とを備える表示装置であってもよい。この場合、出力端末5は、ディスプレイ67と接続可能である。また、出力端末5は、スピーカ64と接続可能である。出力端末5がモニタ57へ音声信号を出力することにより、スピーカ64により楽曲等が出力される。出力端末5がモニタ57へ映像信号を出力することにより、ディスプレイ67に運動映像等が表示される。運動映像は、動作を行うフィギュア83を映し出した動画である。フィギュア83は、例えば、人、動物、仮想上の生き物、ロボット等のかたちをした仮想物である。フィギュア83は、三次元仮想空間に配置される。出力端末5は、スピーカ64から出力される楽曲と、ディスプレイ67に表示されるフィギュア83の動きとが同期するように、信号を出力する。楽曲と運動映像とを出力することは、運動コンテンツを出力することの一例である。利用者41は、楽曲を聴きながら、ディスプレイ67に表示されるフィギュア83を見て、運動を行うことができる。操作者42は、リモコン66等を用いて出力端末5を操作することができる。利用者41と操作者42とは同一人物であってもよい。施設4がスポーツ施設である場合、操作者42は、例えば、インストラクターであってもよい。   The output terminal 5 can be connected to the monitor 57. The monitor 57 may be a display device including a plurality of speakers 64 and a display 67. In this case, the output terminal 5 can be connected to the display 67. The output terminal 5 can be connected to a speaker 64. When the output terminal 5 outputs an audio signal to the monitor 57, music or the like is output from the speaker 64. When the output terminal 5 outputs a video signal to the monitor 57, an exercise video or the like is displayed on the display 67. The motion video is a moving image that shows a figure 83 that performs the motion. The figure 83 is a virtual object in the form of, for example, a person, an animal, a virtual creature, or a robot. The figure 83 is arranged in a three-dimensional virtual space. The output terminal 5 outputs a signal so that the music output from the speaker 64 and the movement of the figure 83 displayed on the display 67 are synchronized. Outputting music and motion video is an example of outputting motion content. The user 41 can exercise while watching the figure 83 displayed on the display 67 while listening to the music. The operator 42 can operate the output terminal 5 using the remote controller 66 or the like. The user 41 and the operator 42 may be the same person. When the facility 4 is a sports facility, the operator 42 may be an instructor, for example.

[2.演奏パートに対する運動動作の割り当て]
運動レッスンが行われるときにモニタ57が出力する運動コンテンツは、少なくとも楽曲と運動映像とを含む。また、運動コンテンツは、ナレーション、効果音等を含んでもよい。ナレーション及び効果音の詳細については後述する。楽曲は、複数の演奏パートで構成される。スピーカ64から、楽曲の構成に従った演奏パートの順で楽曲が出力される。演奏パートが出力される順序を演奏順という。各演奏パートは、例えば、前奏、Aメロ、Bメロ、サビ、間奏又は後奏等であってもよい。なお、1つの運動レッスンで複数の楽曲が順次スピーカ64から出力されてもよい。楽曲を構成する各演奏パートに、それぞれ運動動作が割り当てられる。運動動作は、例えば、身体を鍛えるための動作である。運動動作として、例えば、体操の動作と踊りの動作とがある。体操は、例えば、健康の増進、体力の増強、筋力の強化等のために行われる運動である。体操の種類として、例えば、有酸素運動、無酸素運動、ストレッチ等がある。踊りの動作は、楽曲に合わせて踊るために楽曲に対して振り付けられた動作である。出力端末5は、運動コンテンツを出力するとき、スピーカ64により出力されている演奏パートに割り当てられた運動動作をフィギュア83が行う運動映像をディスプレイ67に表示させる。
[2. Assignment of motor movement to performance part]
The exercise content output by the monitor 57 when an exercise lesson is performed includes at least music and an exercise video. The exercise content may include narration, sound effects, and the like. Details of narration and sound effects will be described later. The music is composed of a plurality of performance parts. The music is output from the speaker 64 in the order of performance parts according to the composition of the music. The order in which the performance parts are output is called the performance order. Each performance part may be, for example, a prelude, an A melody, a B melody, a chorus, an interlude or a posterior. A plurality of music pieces may be sequentially output from the speaker 64 in one exercise lesson. An exercise motion is assigned to each performance part constituting the music. The exercise operation is an operation for training the body, for example. Examples of the exercise operation include a gymnastic operation and a dance operation. The gymnastic exercise is, for example, an exercise performed for promoting health, strengthening physical strength, strengthening muscle strength, and the like. Examples of gymnastic exercises include aerobic exercise, anaerobic exercise, and stretching. The dance motion is a motion that is choreographed to the music to dance to the music. When outputting the exercise content, the output terminal 5 causes the display 67 to display an exercise image in which the figure 83 performs the exercise operation assigned to the performance part output by the speaker 64.

図1に示すように、データベース3には、モーションデータが登録されている。モーションデータは、三次元仮想空間におけるフィギュア83の運動動作を定義するデータである。また、モーションデータは、ディスプレイ67に表示されるフィギュア83に運動動作をさせるためのデータである。モーションデータは、運動動作の進行に応じたフィギュア83の身体の各部の座標を含む。具体的には、モーションデータには、時系列に沿って、運動動作の進行に応じたフィギュア83の身体部位の座標が含まれる。時系列に沿って、フィギュア83の身体部位が、モーションデータに従って表示されることで、所定の運動動作を実行するフィギュア83の映像が、ディスプレイ67に表示される。本実施形態において、出力端末5は、運動映像としてフィギュア83の三次元画像をディスプレイ67に表示させる。しかしながら、出力端末5は、フィギュア83の二次元画像を表示させてもよい。出力端末5は、データベース3に登録されている複数のモーションデータを識別可能なモーションIDの中から、各演奏パートに割り当てるモーションIDを自動的に決定する。なお、モーションIDには、所定の属性を示す属性情報が対応付けられて、所定の記憶手段に記憶される。   As shown in FIG. 1, motion data is registered in the database 3. The motion data is data that defines the motion motion of the figure 83 in the three-dimensional virtual space. Further, the motion data is data for causing the figure 83 displayed on the display 67 to perform an exercise motion. The motion data includes the coordinates of each part of the body of the figure 83 according to the progress of the motion movement. Specifically, the motion data includes the coordinates of the body part of the figure 83 according to the progress of the motion movement in time series. The body part of the figure 83 is displayed according to the motion data along the time series, so that an image of the figure 83 that performs a predetermined exercise operation is displayed on the display 67. In the present embodiment, the output terminal 5 displays a three-dimensional image of the figure 83 on the display 67 as a motion image. However, the output terminal 5 may display a two-dimensional image of the figure 83. The output terminal 5 automatically determines a motion ID to be assigned to each performance part from among motion IDs that can identify a plurality of motion data registered in the database 3. The motion ID is associated with attribute information indicating a predetermined attribute and stored in a predetermined storage unit.

運動動作の中には、専用運動動作と汎用運動動作とがある。専用運動動作は、所定の楽曲に専用の運動動作である。つまり、専用運動動作は、所定の楽曲が出力される場合に行うことができる運動動作である。専用運動動作は、例えば、所定の楽曲に合った特有の動作を含んでもよい。例えば、専用運動動作は、所定の楽曲に対応する踊りの動作を含んでもよい。データベース3には、例えば楽曲ごとに、対応する専用運動動作のモーションデータが登録されてもよい。汎用運動動作は、様々な楽曲で行うことができる運動動作である。出力端末5は、楽曲を構成する複数の演奏パートに、専用運動動作と汎用運動動作とを含む複数の運動動作を割り当てることができる。これにより、楽曲ごとに運動に特徴を持たせることができる。その一方で、楽曲を構成する複数の演奏パートの少なくとも1つに対して専用運動動作のモーションデータを作成すればよい。そのため、モーションデータの作成の負担を軽減することができる。   There are two types of exercise motions: dedicated motion motions and general motion motions. The dedicated motion motion is a motion motion dedicated to a predetermined music piece. That is, the dedicated exercise operation is an exercise operation that can be performed when predetermined music is output. The dedicated movement operation may include, for example, a specific operation that matches a predetermined music piece. For example, the dedicated exercise motion may include a dance motion corresponding to a predetermined music piece. In the database 3, for example, motion data of a corresponding dedicated movement may be registered for each piece of music. The general exercise motion is an exercise motion that can be performed with various musical pieces. The output terminal 5 can assign a plurality of exercise motions including a dedicated exercise motion and a general exercise motion to a plurality of performance parts constituting the music. Thereby, a characteristic can be given to an exercise | movement for every music. On the other hand, it is only necessary to create motion data of a dedicated exercise motion for at least one of a plurality of performance parts constituting the music. Therefore, the burden of creating motion data can be reduced.

モーションIDの属性と、楽曲及び演奏パートの属性とが合えば、基本的にはモーションIDをその演奏パートに割り当てることができる。モーションIDの属性として、例えば、運動動作の長さを示す拍数、割り当て可能な演奏パートの種別、運動動作のテンポ等がある。楽曲の属性として、例えばテンポ等がある。演奏パートの属性として、例えば拍数、演奏パートの種別等がある。しかしながら、上述したように、汎用運動動作のモーションデータは、様々な楽曲に利用可能なように作成される。そのため、連続する運動動作同士の繋がりが考慮されていないと、運動動作の繋がりに違和感のある運動コンテンツが生成される。例えば、前奏にマーチのモーションIDが割り当てられ、前奏の次に演奏されるAメロに、スクワットのモーションIDが割り当てられたとする。この場合、ディスプレイ67に表示されるフィギュア83は、前奏でマーチの動作を行う。その後、前奏からAメロに演奏が切り替わると、フィギュア83の動作がマーチから急にスクワットに切り替わる。表示されるフィギュア83を見ながら運動する利用者41は、マーチからスクワットへ運動動作を自然に移行させることが難しい場合がある。   If the attributes of the motion ID match the attributes of the music piece and the performance part, basically the motion ID can be assigned to the performance part. As attributes of the motion ID, for example, there are the number of beats indicating the length of the motion, the type of performance part that can be assigned, the tempo of the motion, and the like. As an attribute of the music, for example, there is a tempo. The performance part attributes include, for example, the number of beats and the performance part type. However, as described above, the motion data of the general exercise motion is created so that it can be used for various musical pieces. For this reason, if the connection between consecutive motor movements is not taken into consideration, the motor content with a sense of incongruity in the connection of motor movements is generated. For example, a March motion ID is assigned to the prelude, and a squat motion ID is assigned to the A melody played after the prelude. In this case, the figure 83 displayed on the display 67 performs a march operation in the prelude. Thereafter, when the performance is switched from the prelude to the A melody, the operation of the figure 83 is suddenly switched from the march to the squat. It may be difficult for the user 41 exercising while looking at the displayed figure 83 to naturally shift the exercise operation from the march to the squat.

専用運動動作と汎用運動動作とを組み合わせる場合にも同様の問題がある。仮に、楽曲を構成する複数の演奏パートの全てに専用運動動作のモーションIDを割り当てるとするならば、専用運動動作同士が自然に繋がるように、専用運動動作のモーションデータを予め作成すればよい。しかしながら、専用運動動作と汎用運動動作とを組み合わせる場合には、専用運動動作と汎用運動動作との繋がりを考慮する必要がある。   There is a similar problem when combining a dedicated motion motion and a general motion motion. If a motion ID of a dedicated exercise motion is assigned to all of the plurality of performance parts constituting the music, motion data of the dedicated exercise motion may be created in advance so that the dedicated exercise motions are naturally connected. However, when combining the dedicated motion motion and the general motion motion, it is necessary to consider the connection between the dedicated motion motion and the general motion motion.

そこで、本実施形態では、運動動作が自然に繋がるように、各モーションデータを示すモーションIDに対して繋ぎ属性が定義される。なお、本実施形態は、モーションIDと対応付けられた部品IDに対して繋ぎ属性が定義された例を用いて説明する。なお、部品IDではなく、モーションIDに対して繋ぎ属性が定義されていても良い。例えば、前繋ぎ動作、メイン動作及び後繋ぎ動作を順次実行するフィギュア83の映像が表示されるように、各モーションデータが予め作成されてもよい。メイン動作は、モーションデータの中で主に行われる動作である。例えば、メイン動作の拍数は、前繋ぎ動作及び後繋ぎ動作の拍数よりも長い。専用運動動作の場合、メイン動作の中に楽曲専用の動作が含まれる。汎用運動動作の場合、メイン動作は汎用的な動作である。前繋ぎ動作は、モーションデータを示す部品IDまたはモーションIDが割り当てられた演奏パートの前の演奏順の演奏パートが出力されているときの最後の部分で行われる運動動作である。後繋ぎ動作は、モーションデータを示す部品IDまたはモーションIDが割り当てられた演奏パートの最後の部分で行われる運動動作である。専用運動動作及び汎用運動動作の何れの場合でも、前繋ぎ動作及び後繋ぎ動作は、汎用的な動作である。メイン動作の拍数と後繋ぎ動作の拍数の合計は、部品IDを割り当て可能な演奏パートの拍数に一致する。繋ぎ属性は、部品IDの属性の一種である。また、繋ぎ属性はモーションIDの属性の一種であっても良い。繋ぎ属性として、前繋ぎ属性と後繋ぎ属性とがある。前繋ぎ属性は、前繋ぎ動作の内容を示す。後繋ぎ属性は、後繋ぎ動作の内容を示す。例えば、前繋ぎ動作がマーチであり、メイン動作がフロントランジであり、後繋ぎ動作がステップであるとする。この場合、前繋ぎ属性はマーチを示し、後繋ぎ属性はステップを示す。   Therefore, in the present embodiment, a connection attribute is defined for the motion ID indicating each motion data so that the motion is naturally connected. This embodiment will be described using an example in which a connection attribute is defined for a component ID associated with a motion ID. Note that a connection attribute may be defined for the motion ID instead of the component ID. For example, each motion data may be created in advance so that an image of the figure 83 that sequentially executes the front connection operation, the main operation, and the back connection operation is displayed. The main operation is an operation mainly performed in the motion data. For example, the number of beats of the main operation is longer than the number of beats of the front connection operation and the back connection operation. In the case of a dedicated exercise operation, the main operation includes an operation dedicated to music. In the case of a general motion operation, the main operation is a general motion. The pre-joining operation is an exercise operation performed in the last part when a performance part in the order of performance is output before a performance part to which a part ID indicating motion data or a motion ID is assigned. The post-joining operation is an exercise operation performed at the last part of the performance part to which the component ID indicating the motion data or the motion ID is assigned. In both cases of the dedicated motion operation and the general motion operation, the front joint operation and the back joint operation are general motions. The sum of the number of beats of the main operation and the number of beats of the connecting operation matches the number of beats of the performance part to which the component ID can be assigned. The connection attribute is a kind of component ID attribute. The connection attribute may be a kind of attribute of motion ID. As connection attributes, there are a front connection attribute and a back connection attribute. The previous connection attribute indicates the content of the previous connection operation. The back connection attribute indicates the content of the back connection operation. For example, assume that the front joining operation is a march, the main operation is a front lunge, and the back joining operation is a step. In this case, the front connection attribute indicates a march, and the rear connection attribute indicates a step.

前繋ぎ動作とメイン動作とが自然に繋がるように、且つ、メイン動作と後繋ぎ動作とが自然に繋がるように、モーションデータが作成される。例えば、インストラクター等の体に、三次元空間における身体部位の座標を取得するための加速度センサを装着させる。例えば、手首、肘、肩、足の付け根、膝、足首等に加速度センサが装着される。インストラクター等は、前繋ぎ動作、メイン動作及び後繋ぎ動作で構成される運動動作を行う。加速度センサが検出する加速度の情報に基づいて、例えば所定の装置が、運動動作が行われるときの各身体部位の座標を所定時間間隔で取得する。そして、取得された座標に基づいて、モーションデータが作成される。所定の装置は、例えば、出力端末5や配信サーバ2等であってもよい。   Motion data is created so that the front connection operation and the main operation are naturally connected, and the main operation and the back connection operation are naturally connected. For example, an acceleration sensor for acquiring the coordinates of a body part in a three-dimensional space is attached to a body such as an instructor. For example, acceleration sensors are attached to wrists, elbows, shoulders, bases of feet, knees, ankles, and the like. An instructor or the like performs an exercise operation composed of a front connecting operation, a main operation, and a rear connecting operation. Based on the acceleration information detected by the acceleration sensor, for example, a predetermined device acquires the coordinates of each body part when exercise motion is performed at predetermined time intervals. Then, based on the acquired coordinates, motion data is created. The predetermined device may be, for example, the output terminal 5, the distribution server 2, or the like.

図2(A)は、フロントランジAという運動動作の構成例を示す図である。フロントランジAは、例えば汎用運動動作である。フロントランジAの前繋ぎ動作、メイン動作及び後繋ぎ動作は、それぞれマーチ、フロントランジ及びステップである。フロントランジAは、64拍の演奏パート用の運動動作である。図2(A)の例では、メイン動作のフロントランジの拍数は60であり、前繋ぎ動作のマーチ及び後繋ぎ動作のステップの拍数はそれぞれ4である。なお、前繋ぎ動作及び後繋ぎ動作の拍数は何拍であってもよい。また、前繋ぎ動作、メイン動作及び後繋ぎ動作は互いに異なる運動動作であってもよい。また、前繋ぎ動作、メイン動作及び後繋ぎ動作のうち少なくとも2つの運動動作が同一の運動動作であってもよい。楽曲を構成する複数の演奏パートのうち演奏順が1番目の演奏パートに割り当てられる部品IDが示すモーションデータは、メイン動作と後繋ぎ動作のみの映像が表示されるように作成されてもよい。また、最後に演奏される演奏パートに割り当てられる部品IDが示すモーションデータは、前繋ぎ動作とメイン動作のみの映像が表示されるように作成されてもよい。   FIG. 2A is a diagram showing a configuration example of a motion operation called front lunge A. FIG. The front lunge A is, for example, a general motion operation. The front connecting operation, main operation, and rear connecting operation of the front lunge A are a march, a front lunge, and a step, respectively. Front lunge A is a motion action for a performance part of 64 beats. In the example of FIG. 2A, the number of beats of the front lunge of the main operation is 60, and the number of beats of the step of the front joint operation and the step of the back joint operation is 4, respectively. Note that the number of beats of the front connecting operation and the rear connecting operation may be any number of beats. Further, the front connecting operation, the main operation, and the rear connecting operation may be different motion operations. In addition, at least two of the front connection operation, the main operation, and the rear connection operation may be the same exercise operation. The motion data indicated by the component ID assigned to the first performance part among the plurality of performance parts constituting the music piece may be created so that only the main operation and the back connection operation are displayed. Also, the motion data indicated by the component ID assigned to the performance part to be played last may be created so that only the video of the front connection operation and the main operation is displayed.

出力端末5は、先ず演奏順が1番目の演奏パートに割り当て可能な部品IDを1番目の演奏パートの割り当て候補として検索する。具体的に、出力端末5は、1番目の演奏パートの属性に一致する属性を有する部品IDを検索する。次いで、出力端末5は、2番目の演奏パートに割り当て可能な部品IDを2番目の演奏パートの割り当て候補として検索する。このとき、出力端末5は、繋ぎ属性を考慮する。具体的に、出力端末5は、1番目の演奏パートに割り当て可能な部品IDの後繋ぎ属性と一致する前繋ぎ属性を有する部品IDであって、且つ、2番目の演奏パートの属性に一致する属性を有する部品IDを検索する。次いで、出力端末5は、3番目の演奏パートに割り当て可能な部品IDを3番目の演奏パートの割り当て候補として検索する。具体的に、出力端末5は、2番目の演奏パートに割り当て可能な部品IDの後繋ぎ属性と一致する前繋ぎ属性を有する部品IDであって、且つ、3番目の演奏パートの属性に一致する属性を有する部品IDを検索する。出力端末5は、4番目以降の演奏パートについても、同様に部品IDを検索する。   The output terminal 5 first searches for a part ID that can be assigned to the first performance part in the performance order as an assignment candidate for the first performance part. Specifically, the output terminal 5 searches for a component ID having an attribute that matches the attribute of the first performance part. Next, the output terminal 5 searches for a part ID that can be assigned to the second performance part as an assignment candidate for the second performance part. At this time, the output terminal 5 considers the connection attribute. Specifically, the output terminal 5 is a component ID having a front connection attribute that matches the rear connection attribute that can be assigned to the first performance part, and matches the attribute of the second performance part. Search for a component ID having an attribute. Next, the output terminal 5 searches for a part ID that can be assigned to the third performance part as an assignment candidate for the third performance part. Specifically, the output terminal 5 is a component ID having a front connection attribute that matches the back connection attribute of the component ID that can be assigned to the second performance part, and matches the attribute of the third performance part. Search for a component ID having an attribute. The output terminal 5 similarly searches for the component ID for the fourth and subsequent performance parts.

各演奏パートに対して割り当て可能な部品IDを検索するとき、出力端末5は、先ず専用運動動作の部品IDの中から割り当て可能な部品IDを割り当て候補として検索する。割り当て可能な専用運動動作の部品IDがない場合、出力端末5は、次に汎用運動動作の部品IDの中から割り当て可能な部品IDを割り当て候補として検索する。つまり、出力端末5は、専用運動動作の部品IDを優先的に割り当てる。具体的に、出力端末5は、演奏パートの属性と一致する属性に対応する専用運動動作の部品IDを検索する。専用運動動作の部品IDが検索された場合、出力端末5は、検索された専用運動動作の部品IDを演奏パートに割り当てる。専用運動動作の部品IDが検索されなかった場合、出力端末5は、演奏パートの属性と一致する属性に対応する汎用運動動作の部品IDを検索する。そして、出力端末5は、検索された汎用運動動作の部品IDを演奏パートに割り当てる。   When searching for a part ID that can be assigned to each performance part, the output terminal 5 first searches for a part ID that can be assigned from among the part IDs of the dedicated exercise motion as an assignment candidate. If there is no assignable dedicated motion motion part ID, the output terminal 5 next searches the assignable part ID as a candidate for assignment from the general motion motion part IDs. That is, the output terminal 5 preferentially assigns the part ID for the dedicated motion operation. Specifically, the output terminal 5 searches for the part ID of the dedicated motion operation corresponding to the attribute that matches the attribute of the performance part. When the part ID of the dedicated movement is retrieved, the output terminal 5 assigns the retrieved part ID of the dedicated movement to the performance part. When the part ID for the dedicated movement is not searched, the output terminal 5 searches for the part ID for the general movement corresponding to the attribute that matches the attribute of the performance part. Then, the output terminal 5 assigns the searched general-purpose motion part ID to the performance part.

出力端末5は、各演奏パートに対する部品IDの検索結果に基づいて、部品リストを生成する。部品リストは、運動レッスンの構成を定めた情報である。具体的に、部品リストは、楽曲を構成する複数の演奏パートに合う複数の部品IDを示す。部品リストには、演奏パートごとに、演奏パートID及び部品ID等が格納される。演奏パートIDは、演奏パートの識別情報である。例えば、演奏パートIDは、楽曲を構成する複数の演奏パートの中から識別する演奏パートの演奏順を示してもよい。部品IDは、モーションデータを識別する識別情報である。例えば、部品IDにより運動動作が識別される。部品IDと、部品IDが割り当てられた演奏パートの演奏パートIDとが対応付けられて部品リストに格納される。部品IDは、本発明における第1動作情報及び第2動作情報の一例である。例えば部品IDの代わりに、モーションIDまたはモーションデータが本発明の第1動作情報及び第2動作情報として用いられてもよい。   The output terminal 5 generates a parts list based on the part ID search result for each performance part. The parts list is information that defines the structure of an exercise lesson. Specifically, the component list indicates a plurality of component IDs that match a plurality of performance parts constituting the music. In the parts list, a performance part ID, a part ID, and the like are stored for each performance part. The performance part ID is performance part identification information. For example, the performance part ID may indicate the performance order of performance parts identified from a plurality of performance parts constituting the music. The component ID is identification information for identifying motion data. For example, the motion motion is identified by the component ID. The component ID and the performance part ID of the performance part to which the component ID is assigned are associated with each other and stored in the component list. The component ID is an example of first operation information and second operation information in the present invention. For example, instead of the component ID, a motion ID or motion data may be used as the first operation information and the second operation information of the present invention.

図2(B)は、部品IDの割り当て例を示す図である。図2(B)において、或る楽曲は、演奏パート1〜3を含む。演奏パート1は演奏順が1番目の演奏パートであり、演奏パート2は演奏順が2番目の演奏パートであり、演奏パート3は演奏順が3番目の演奏パートである。演奏パート1の拍数は32拍である。出力端末5は、演奏パート1に対して、例えばマーチBのモーションIDと対応付けられた部品IDを割り当てる。マーチBは32拍の運動動作である。マーチBのメイン動作及び後繋ぎ動作は何れもマーチである。従って、マーチBの部品IDの後繋ぎ属性はマーチを示す。演奏パート2の拍数は64拍である。出力端末5は、64拍の運動動作を示すモーションIDと対応付けられた部品IDのうち前繋ぎ属性がマーチを示す部品IDを演奏パート2に割り当てる。例えば、図2(A)に示すフロントランジAの部品IDが割り当てられる。マーチBの後繋ぎ動作であるマーチと、フロントランジAの前繋ぎ動作であるマーチとは基本的に同一の動作である。演奏パート3の拍数は32拍である。フロントランジAの後繋ぎ属性はステップを示す。出力端末5は、32拍の運動動作を示すモーションIDと対応付けられた部品IDのうち前繋ぎ属性がステップを示す部品IDを演奏パート2に割り当てる。例えば、スクワットCのモーションIDと対応付けられた部品IDが割り当てられる。スクワットCの前繋ぎ動作及びメイン動作はそれぞれステップ及びスクワットである。フロントランジAの後繋ぎ動作であるステップと、スクワットCの前繋ぎ動作であるステップとは基本的に同一の動作である。   FIG. 2B is a diagram illustrating an example of component ID assignment. In FIG. 2B, a certain musical piece includes performance parts 1 to 3. The performance part 1 is the first performance part, the performance part 2 is the second performance part, and the performance part 3 is the third performance part. The performance part 1 has 32 beats. The output terminal 5 assigns, for example, a component ID associated with the motion ID of March B to the performance part 1. March B is a 32-beat movement. The main operation and the back-joining operation of March B are both March. Therefore, the subsequent attribute of the part ID of March B indicates March. The performance part 2 has 64 beats. The output terminal 5 assigns to the performance part 2 a part ID whose front connection attribute indicates march among the part IDs associated with the motion ID indicating the 64-beat motion. For example, the part ID of the front lunge A shown in FIG. The March, which is the post-joining operation of the March B, and the March, which is the pre-joining operation of the front lunge A, are basically the same operation. The performance part 3 has 32 beats. The trailing attribute of the front lunge A indicates a step. The output terminal 5 assigns to the performance part 2 a component ID whose front connection attribute indicates a step among the component IDs associated with the motion ID indicating the 32-beat motion. For example, a component ID associated with the motion ID of squat C is assigned. The squat C front splicing operation and main operation are step and squat, respectively. The step that is the connecting operation of the front lunge A and the step that is the connecting operation of the squat C are basically the same operation.

図2(B)が示す割り当て結果に基づいて運動コンテンツが生成されたとする。この場合、運動コンテンツの出力中、演奏パート1の32拍が出力されている間、出力端末5は、マーチBのモーションデータに基づいて、フィギュア83がマーチを行う映像をディスプレイ67に表示させる。なお、演奏パート1の最後の4拍の間、出力端末5は、フロントランジAのモーションデータに基づいて、マーチを行う映像をディスプレイ67に表示させてもよい。また、加速度センサを用いる等により人間の実際の動作からモーションデータを生成した場合、マーチBの後繋ぎ動作のマーチと、フロントランジAの前繋ぎ動作のマーチとにずれが生じる場合がある。そこで、出力端末5は、両方のモーションデータを用いて、マーチBの後繋ぎ動作のマーチとフロントランジAの前繋ぎ動作のマーチとの中間的な動作を行う映像をディスプレイ67に表示させてもよい。   Assume that exercise content is generated based on the assignment result shown in FIG. In this case, while the exercise content is being output, while the 32 beats of the performance part 1 are being output, the output terminal 5 causes the display 67 to display a video on which the figure 83 performs a March based on the motion data of March B. Note that, during the last four beats of the performance part 1, the output terminal 5 may cause the display 67 to display a video for performing a march based on the motion data of the front range A. Further, when motion data is generated from an actual motion of a human by using an acceleration sensor or the like, there is a case where a shift occurs between the march of the marching B's back-joining operation and the front-running A's front-joining motion. Therefore, the output terminal 5 may display on the display 67 an image for performing an intermediate operation between the March B back-joining operation March and the Front Range A front-joining operation March using both motion data. Good.

次いで、演奏パート2の最初の60拍が出力されているとき、出力端末5は、フロントランジAのモーションデータに基づいて、フロントランジを行う映像を表示させる。演奏パート1から演奏パート2に切り替わるとき、マーチからフロントランジに自然に繋がるように、フィギュア83が表示される。その理由は、マーチBの部品IDの後繋ぎ属性とフロントランジAの部品IDの前繋ぎ属性とが同じマーチを示すからである。フロントランジAのメイン動作であるフロントランジをフィギュア83が開始するとき、前繋ぎ動作であるマーチからメイン動作であるフロントランジに自然に繋がるように、フロントランジAのモーションデータが予め作成されている。演奏パート2の最後の4拍が出力されているとき、出力端末5は、例えばフロントランジAのモーションデータに基づいて、ステップを行う映像を表示させる。次いで、演奏パート3が出力されているとき、出力端末5は、スクワットCのモーションデータに基づいて、スクワットを行う映像を表示させる。フロントランジからステップに切り替わるとき、及び、ステップからスクワットに切り替わるとき、自然に繋がるようにフィギュア83が表示される。こうして、フロントランジAからスクワットCへ運動動作が自然に繋がる。   Next, when the first 60 beats of the performance part 2 are output, the output terminal 5 displays a video for performing the front lunge based on the motion data of the front lunge A. When the performance part 1 is switched to the performance part 2, the figure 83 is displayed so as to be naturally connected from the march to the front lunge. The reason is that the connection attribute of the part ID of the March B and the front connection attribute of the part ID of the front range A indicate the same march. When the figure 83 starts the front lunge, which is the main operation of the front lunge A, the motion data of the front lunge A is created in advance so that the front lunge, which is the main motion, is naturally connected from the marching, which is the front linkage operation. . When the last four beats of the performance part 2 are being output, the output terminal 5 displays a video for performing the step based on the motion data of the front lunge A, for example. Next, when the performance part 3 is being output, the output terminal 5 displays a video for performing the squat based on the motion data of the squat C. When switching from the front lunge to the step and when switching from the step to the squat, the figure 83 is displayed so as to be connected naturally. In this way, the motion movement from the front lunge A to the squat C is naturally connected.

次に、部品IDの割り当て及び部品リストの生成に用いられる情報について説明する。部品リストを生成するため、出力端末5のHDD(ハードディスクドライブ)7には、汎用部品テーブル、専用部品テーブル、繋ぎ動作テーブル、運動ジャンルテーブル等が記憶される。図3(A)は、汎用部品テーブルの構成例を示す図である。部品テーブルは、部品の属性及び繋ぎ属性等を定義するテーブル情報である。汎用部品テーブルは、汎用運動動作に対応する部品テーブルである。汎用部品テーブルには、部品ID、部品名、演奏パート種別、拍数、運動テンポ、前繋ぎ属性ID、後繋ぎ属性ID、ジャンルID、モーションID、ナレーションタイミングID、効果音タイミングID等が、汎用運動動作の部品IDごとに格納される。   Next, information used for assigning a component ID and generating a component list will be described. In order to generate the parts list, the HDD (hard disk drive) 7 of the output terminal 5 stores a general-purpose parts table, a dedicated parts table, a splicing operation table, an exercise genre table, and the like. FIG. 3A is a diagram illustrating a configuration example of the general-purpose component table. The component table is table information that defines component attributes, connection attributes, and the like. The general-purpose component table is a component table corresponding to a general-purpose motion operation. The general-purpose component table includes a component ID, a component name, a performance part type, a beat number, an exercise tempo, a front connection attribute ID, a back connection attribute ID, a genre ID, a motion ID, a narration timing ID, a sound effect timing ID, and the like. Stored for each part ID of the motion motion.

部品IDは、モーションデータを識別可能な識別情報である。部品名は、モーションデータが示す運動動作の名称である。例えば、図3(A)において、汎用1−1という部品名は汎用運動動作1−1を表している。演奏パート種別は、部品IDを割り当て可能な演奏パートの種類である。図3(A)では、演奏パート種別として例えばptype1〜5等が格納される。例えば、ptype1は前奏、ptype2はAメロ+サビ、ptype3は間奏、ptype4はAメロ+Bメロ、ptype5は後奏であってもよい。拍数は、運動動作の長さを示す。   The component ID is identification information that can identify motion data. The part name is a name of the motion motion indicated by the motion data. For example, in FIG. 3A, the component name of general purpose 1-1 represents the general purpose motion operation 1-1. The performance part type is a type of performance part to which a component ID can be assigned. In FIG. 3A, for example, ptypes 1 to 5 are stored as performance part types. For example, ptype1 may be a prelude, ptype2 may be an A melody + rust, ptype3 may be an interlude, ptype4 may be an A melody + B melody, and ptype5 may be a posterior. The beat number indicates the length of the movement.

運動テンポは、運動動作を行うテンポである。例えば、運動テンポは予め複数定められている。例えば、所定の拍数の間隔で運動テンポが定められてもよい。図3(A)の例では、128BPMに対応するモーションデータ、144BPMに対応するモーションデータ等が登録されていることが、部品テーブルにより示されている。複数の運動テンポのうち何れかの運動テンポでフィギュア83が運動動作する映像が表示されるように、各モーションデータは予め作成される。データベース3には、複数の運動テンポのそれぞれに対応するモーションデータが演奏パート種別ごとに登録される。部品テーブルには、モーションデータに対応する運動テンポが格納される。   The exercise tempo is a tempo at which an exercise operation is performed. For example, a plurality of exercise tempos are predetermined. For example, the exercise tempo may be determined at intervals of a predetermined number of beats. In the example of FIG. 3A, the parts table indicates that motion data corresponding to 128 BPM, motion data corresponding to 144 BPM, and the like are registered. Each motion data is created in advance so that an image in which the figure 83 exercises at any one of a plurality of exercise tempos is displayed. In the database 3, motion data corresponding to each of a plurality of exercise tempos is registered for each performance part type. The parts table stores an exercise tempo corresponding to the motion data.

前繋ぎ属性IDは、前繋ぎ属性を示す識別情報である。後繋ぎ属性IDは、後繋ぎ属性を示す識別情報である。図3(C)は、繋ぎ動作テーブルの構成例を示す図である。繋ぎ動作テーブルは、繋ぎ属性を定義するテーブル情報である。繋ぎ動作テーブルには、繋ぎ動作IDが格納される。図3(C)では、繋ぎ動作IDとして例えばc1〜c5等が格納される。例えば、c1はマーチであり、c2はステップであり、c3は構えであり、c4はスクワットであり、c5は直立である。汎用部品テーブルに格納される前繋ぎ属性ID及び後繋ぎ属性IDは、それぞれ本発明における第2繋ぎ属性情報の一例である。なお、1つの部品IDに対して、例えば複数の前繋ぎ属性ID又は複数の後繋ぎ属性IDが対応付けて格納されてもよい。   The front connection attribute ID is identification information indicating the front connection attribute. The back connection attribute ID is identification information indicating a back connection attribute. FIG. 3C is a diagram illustrating a configuration example of the splicing operation table. The splicing operation table is table information that defines splicing attributes. In the splicing operation table, splicing operation IDs are stored. In FIG. 3C, for example, c1 to c5 are stored as the connection operation ID. For example, c1 is a march, c2 is a step, c3 is a stance, c4 is a squat, and c5 is upright. The front connection attribute ID and the back connection attribute ID stored in the general-purpose component table are examples of second connection attribute information in the present invention. For example, a plurality of front connection attribute IDs or a plurality of back connection attribute IDs may be stored in association with one component ID.

ジャンルIDは、運動動作が属する運動のジャンルの識別情報である。図3(D)は、運動ジャンルテーブルの構成例を示す図である。運動ジャンルテーブルは、運動ジャンルを定義するテーブル情報である。運動ジャンルテーブルには、ジャンルIDが格納される。図3(D)では、ジャンルIDとして例えばj1、j2等が格納される。例えば、j1は有酸素運動であり、j2は調整運動である。汎用部品テーブルに格納されるモーションIDは、汎用運動動作のモーションデータの識別情報である。部品IDとモーションIDは基本的に一対一で対応する。部品テーブルには、例えば、部品IDとモーションIDのうち何れか一方のみが格納されてもよい。ナレーションタイミングID及び効果音タイミングIDについては後述する。   The genre ID is identification information of the genre of the exercise to which the exercise motion belongs. FIG. 3D is a diagram illustrating a configuration example of the exercise genre table. The exercise genre table is table information that defines an exercise genre. Genre ID is stored in the exercise genre table. In FIG. 3D, for example, j1, j2, etc. are stored as genre IDs. For example, j1 is an aerobic exercise and j2 is an adjustment exercise. The motion ID stored in the general-purpose component table is identification information of motion data of general-purpose exercise motion. The component ID and the motion ID basically correspond one to one. For example, only one of a component ID and a motion ID may be stored in the component table. The narration timing ID and sound effect timing ID will be described later.

図3(B)は、専用部品テーブルの構成例を示す図である。専用部品テーブルは、専用運動動作に対応する部品テーブルである。専用部品テーブルには、部品ID、部品名、楽曲ID、演奏パート種別、拍数、運動テンポ、前繋ぎ属性ID、後繋ぎ属性ID、ジャンルID、モーションID、ナレーションタイミングID、効果音タイミングID等が、専用運動動作の部品IDごとに格納される。楽曲IDは、専用運動動作が対応する楽曲の識別情報である。専用部品テーブルに格納されるモーションIDは、専用運動動作のモーションデータの識別情報である。その他の情報については、汎用部品テーブルに格納される情報と同様である。専用部品テーブルに格納される前繋ぎ属性ID及び後繋ぎ属性IDは、それぞれ本発明における第1繋ぎ属性情報の一例である。なお、1つの部品IDに対して、例えば複数の前繋ぎ属性ID又は複数の後繋ぎ属性IDが対応付けて格納されてもよい。   FIG. 3B is a diagram illustrating a configuration example of the dedicated component table. The dedicated parts table is a parts table corresponding to a dedicated motion operation. The dedicated part table includes a part ID, a part name, a music ID, a performance part type, a beat number, an exercise tempo, a front connection attribute ID, a rear connection attribute ID, a genre ID, a motion ID, a narration timing ID, a sound effect timing ID, and the like. Are stored for each part ID of the dedicated motion operation. The music ID is identification information of the music to which the dedicated exercise motion corresponds. The motion ID stored in the dedicated component table is identification information of motion data of the dedicated motion operation. Other information is the same as the information stored in the general-purpose component table. The front connection attribute ID and the back connection attribute ID stored in the dedicated component table are examples of first connection attribute information in the present invention. For example, a plurality of front connection attribute IDs or a plurality of back connection attribute IDs may be stored in association with one component ID.

次に、図3(A)及び図3(B)に示す部品テーブルを用いた場合の部品リストの生成方法について説明する。図4(A)は、楽曲の構成例を示す図である。図4(A)に示すように、楽曲Xは演奏パート1〜8で構成されている。出力端末5は、楽曲のテンポに基づいて、運動コンテンツを再生するときの運動テンポを決定する。楽曲は運動テンポに従って出力され、ディスプレイ67には、運動テンポに従って運動動作するフィギュア83が表示される。上述したように、予め定められた複数の運動テンポのそれぞれに対応するモーションデータが登録されている。出力端末5は、複数の運動テンポのうち楽曲のテンポに最も近いテンポを、運動コンテンツの再生に用いる運動テンポに決定する。例えば16BPMの倍数で運動テンポが定義されており、楽曲Xのテンポが125BPMであるとする。この場合、128BPMが、運動コンテンツの再生に用いられる運動テンポとして決定される。また、運動ジャンルが決定される。例えば、操作者42が運動ジャンルを選択してもよいし、出力端末5が運動ジャンルを決定してもよい。運動ジャンルとして、例えば有酸素運動が選択されたとする。   Next, a method for generating a parts list when the parts table shown in FIGS. 3A and 3B is used will be described. FIG. 4A is a diagram illustrating a configuration example of a music piece. As shown in FIG. 4A, the music piece X is composed of performance parts 1-8. The output terminal 5 determines an exercise tempo when reproducing exercise content based on the tempo of the music. The music is output according to the exercise tempo, and the display 67 displays a figure 83 that moves according to the exercise tempo. As described above, motion data corresponding to each of a plurality of predetermined exercise tempos is registered. The output terminal 5 determines the tempo closest to the tempo of the music among the plurality of exercise tempos as the exercise tempo used for reproducing the exercise content. For example, it is assumed that the exercise tempo is defined as a multiple of 16 BPM, and the tempo of the music X is 125 BPM. In this case, 128 BPM is determined as the exercise tempo used for reproducing the exercise content. Also, the exercise genre is determined. For example, the operator 42 may select the exercise genre, or the output terminal 5 may determine the exercise genre. For example, it is assumed that aerobic exercise is selected as the exercise genre.

図4(B)〜図4(G)は、部品リスト表の更新過程の一例を示す図である。部品リスト表は、生成中の部品リストを1又は複数格納するテーブル情報である。部品リスト表の各行の情報が部品リストに相当する。部品リスト表の各列は演奏パートに対応する。出力端末5は、部品テーブルから、演奏パート1の属性及び楽曲Xの属性に一致する属性に対応する部品IDを検索する。部品テーブルから部品IDを検索することは、部品IDが示すモーションデータをHDD7から検索することである。演奏パートの属性は演奏パート種別及び拍数であり、演奏パート1の演奏パート種別及び拍数は、ptype1及び32である。また、楽曲の属性はテンポ及び運動ジャンルであり、楽曲Xのテンポ及び運動ジャンルは、128BPM及び有酸素運動である。従って、出力端末5は、部品テーブルから、ptype1、32拍、128BPM及び有酸素運動に対応する部品IDを割り当て候補の部品IDとして検索する。このとき、出力端末5は、先ず専用部品テーブルから検索を行う。しかしながら、専用部品テーブルには、ptype1、32拍、128BPM及び有酸素運動に対応する部品IDが格納されていない。そのため、出力端末5は、次に汎用部品テーブルから検索を行う。汎用部品テーブルには、ptype1、32拍、128BPM及び有酸素運動に対応する部品IDとして、汎用運動動作1−1〜1−3の部品IDが格納されている。出力端末5は、演奏パート1と検索された部品IDとを対応付けた部品リスト表を生成する。図4(B)は、演奏パート1の割り当て候補の部品IDを格納した部品リスト表の一例である。図4(B)に示すように、部品リスト表の1〜3行目の1番目の列に、汎用運動動作1−1〜1−3の部品IDが格納される。   4B to 4G are diagrams illustrating an example of the update process of the parts list table. The parts list table is table information for storing one or more parts lists being generated. Information on each line of the parts list table corresponds to a parts list. Each column of the parts list table corresponds to a performance part. The output terminal 5 searches the component table for a component ID corresponding to an attribute that matches the attribute of the performance part 1 and the attribute of the music piece X. Retrieving the component ID from the component table is retrieving motion data indicated by the component ID from the HDD 7. The performance part attributes are the performance part type and the number of beats, and the performance part type and the number of beats of the performance part 1 are ptype1 and 32. The attributes of the music are tempo and exercise genre, and the tempo and exercise genre of music X are 128 BPM and aerobic exercise. Accordingly, the output terminal 5 searches the part table for the part ID corresponding to ptype1, 32 beats, 128 BPM, and aerobic exercise as a candidate part ID. At this time, the output terminal 5 first searches from the dedicated component table. However, the dedicated component table does not store component IDs corresponding to ptype1, 32 beats, 128 BPM, and aerobic exercise. Therefore, the output terminal 5 next searches from the general-purpose component table. In the general-purpose component table, component IDs of general-purpose exercise operations 1-1 to 1-3 are stored as component IDs corresponding to ptype1, 32 beats, 128 BPM, and aerobic exercise. The output terminal 5 generates a parts list table in which the performance part 1 is associated with the retrieved part ID. FIG. 4B is an example of a component list table storing component IDs of performance candidate 1 assignment candidates. As shown in FIG. 4B, the component IDs of the general exercise operations 1-1 to 1-3 are stored in the first columns of the first to third rows of the component list table.

演奏パート2の演奏パート種別及び拍数は、ptype2及び64である。従って、出力端末5は、先ず専用部品テーブルから、ptype2、64拍、128BPM及び有酸素運動に対応する部品IDを割り当て候補の部品IDとして検索する。専用部品テーブルにおいて、専用運動動作1の部品IDが、ptype2、64拍、128BPM及び有酸素運動に対応する。このとき、出力端末5は、汎用運動動作1−1〜1−3の後繋ぎ属性IDと一致する前繋ぎ属性IDに対応する部品IDを、それぞれ専用部品テーブルから検索する。汎用運動動作1−1の後繋ぎ属性IDと、専用運動動作1の前繋ぎ属性IDが一致する。そこで、出力端末5は、汎用運動動作1−1の部品IDを格納する行の2番目の列に、専用運動動作1の部品IDを格納する。汎用運動動作1−2の後繋ぎ属性IDと一致する前繋ぎ属性IDに対応する部品IDはない。汎用運動動作1−3の後繋ぎ属性IDと一致する前繋ぎ属性IDに対応する部品IDはない。そのため、出力端末5は、汎用運動動作1−2及び運動動作1−3の部品IDを格納するそれぞれの行を部品リスト表から削除する。すると、図4(C)に示すように部品リスト表が更新される。   The performance part type and the number of beats of performance part 2 are ptype2 and 64. Therefore, the output terminal 5 first searches the dedicated part table for the part ID corresponding to ptype2, 64 beats, 128 BPM, and aerobic exercise as a candidate part ID. In the dedicated component table, the component ID of the dedicated exercise operation 1 corresponds to ptype2, 64 beats, 128 BPM, and aerobic exercise. At this time, the output terminal 5 searches the dedicated component table for the component IDs corresponding to the front connection attribute IDs that match the general purpose motion operations 1-1 to 1-3. The back-connection attribute ID of the general exercise motion 1-1 matches the front-connection attribute ID of the dedicated motion motion 1. Therefore, the output terminal 5 stores the component ID of the dedicated exercise operation 1 in the second column of the row storing the component ID of the general exercise operation 1-1. There is no component ID corresponding to the front connection attribute ID that matches the back connection attribute ID of the general-purpose motion operation 1-2. There is no component ID corresponding to the front connection attribute ID that matches the rear connection attribute ID of the general-purpose motion operation 1-3. Therefore, the output terminal 5 deletes the respective rows storing the component IDs of the general exercise operation 1-2 and the exercise operation 1-3 from the component list table. Then, the parts list table is updated as shown in FIG.

演奏パート3の演奏パート種別及び拍数は、ptype3及び32である。従って、出力端末5は、部品テーブルから、ptype3、32拍、128BPM及び有酸素運動に対応する部品IDを割り当て候補の部品IDとして検索する。このとき、出力端末5は、専用運動動作1の後繋ぎ属性IDと一致する前繋ぎ属性IDに対応する部品IDを部品テーブルから検索する。専用部品テーブルには、ptype3、32拍、128BPM及び有酸素運動に対応する部品IDが格納されていない。汎用部品テーブルには、ptype3、32拍、128BPM及び有酸素運動に対応する部品IDとして、汎用運動動作3−1及び3−2の部品IDが格納されている。専用運動動作1の後繋ぎ動作IDと、汎用運動動作3−1の前繋ぎ動作IDが一致する。専用運動動作1の後繋ぎ動作IDと、汎用運動動作3−2の前繋ぎ動作IDは一致しない。そこで、出力端末5は、専用運動動作1の部品IDを格納する行の3番目の列に、汎用運動動作3−1の部品IDを格納する。すると、図4(D)に示すように部品リスト表が更新される。   The performance part type and the number of beats of performance part 3 are ptype3 and 32. Accordingly, the output terminal 5 searches the part table for the part ID corresponding to ptype3, 32 beats, 128 BPM, and aerobic exercise as an assignment candidate part ID. At this time, the output terminal 5 searches the component table for a component ID corresponding to the front connection attribute ID that matches the rear connection attribute ID of the dedicated exercise motion 1. The dedicated part table does not store the part ID corresponding to ptype 3, 32 beats, 128 BPM, and aerobic exercise. In the general-purpose component table, component IDs of general-purpose exercise operations 3-1 and 3-2 are stored as component IDs corresponding to ptype 3, 32 beats, 128 BPM, and aerobic exercise. The back splicing operation ID of the dedicated motion motion 1 matches the front splicing motion ID of the general motion motion 3-1. The back splicing operation ID of the dedicated motion motion 1 does not match the front splicing motion ID of the general motion motion 3-2. Therefore, the output terminal 5 stores the component ID of the general exercise operation 3-1 in the third column of the row storing the component ID of the dedicated exercise operation 1. Then, the parts list table is updated as shown in FIG.

演奏パート4の演奏パート種別及び拍数は、ptype4及び32である。従って、出力端末5は、部品テーブルから、ptype4、32拍、128BPM及び有酸素運動に対応する部品IDを検索する。このとき、出力端末5は、汎用運動動作3−1の後繋ぎ属性IDと一致する前繋ぎ属性IDに対応する部品IDを部品テーブルから検索する。専用部品テーブルには、ptype4、32拍、128BPM及び有酸素運動に対応する部品IDが格納されていない。汎用部品テーブルには、ptype4、32拍、128BPM及び有酸素運動に対応する部品IDとして、汎用運動動作4−1及び4−2の部品IDが格納されている。汎用運動動作3−1の後繋ぎ属性IDと、汎用運動動作4−1及び4−2の前繋ぎ属性IDが一致する。そこで、出力端末5は、汎用運動動作1−1、専用運動動作1及び汎用運動動作3−1の部品IDを格納する行を部品リスト表に1つ追加する。出力端末5は、2つの行のうち一方の行の2番目の列に、汎用運動動作4−1の部品IDを格納する。また、出力端末5は、2つの行のうち他方の行の2番目の列に、汎用運動動作4−2の部品IDを格納する。すると、図4(E)に示すように部品リスト表が更新される。   The performance part type and the number of beats of the performance part 4 are ptype4 and 32. Accordingly, the output terminal 5 searches the part table for the part ID corresponding to ptype4, 32 beats, 128 BPM, and aerobic exercise. At this time, the output terminal 5 searches the component table for the component ID corresponding to the front connection attribute ID that matches the rear connection attribute ID of the general exercise operation 3-1. The dedicated part table does not store the part ID corresponding to ptype 4, 32 beats, 128 BPM, and aerobic exercise. In the general-purpose component table, component IDs of general-purpose exercise operations 4-1 and 4-2 are stored as component IDs corresponding to ptype 4, 32 beats, 128 BPM, and aerobic exercise. The back joint attribute ID of the general exercise operation 3-1 matches the front connection attribute ID of the general exercise operations 4-1 and 4-2. Therefore, the output terminal 5 adds one row for storing the component IDs of the general exercise operation 1-1, the dedicated exercise operation 1, and the general exercise operation 3-1. The output terminal 5 stores the component ID of the general motion operation 4-1 in the second column of one of the two rows. Further, the output terminal 5 stores the component ID of the general motion operation 4-2 in the second column of the other row of the two rows. Then, the parts list table is updated as shown in FIG.

演奏パート5の演奏パート種別及び拍数は、ptype2及び32である。ptype2は、演奏パート2の演奏パート種別でもある。つまり、演奏パート5と演奏パート種別が同一である演奏パートに対して、割り当て候補の部品IDが既に検索済みである。この場合、出力端末5は、検索済みの部品IDのみが割り当て候補に決定されるようにする。つまり、出力端末5は、種別が同じ演奏パートが出力されているとき、同じ運動動作が行われるようにする。その理由は、利用者41に同じ運動動作を繰り返し行わせることにより、運動動作の上達を促進するためである。具体的に、演奏パート2の割り当て候補の前繋ぎ属性IDが、演奏パート4の割り当て候補の後繋ぎ属性IDと一致する場合にのみ、出力端末5は、演奏パート2の割り当て候補を、演奏パート5の割り当て候補に決定する。なお、出力端末5は、前繋ぎ属性IDが、演奏パート4の割り当て候補の後繋ぎ属性IDと一致する部品IDのうち演奏パート2の割り当て候補とは異なる部品IDを、演奏パート5の割り当て候補に決定してもよい。   The performance part type and the number of beats of performance part 5 are ptype2 and 32. ptype2 is also a performance part type of performance part 2. In other words, for the performance part having the same performance part type as the performance part 5, the allocation candidate part ID has already been searched. In this case, the output terminal 5 determines only the searched component IDs as allocation candidates. In other words, the output terminal 5 performs the same exercise operation when performance parts of the same type are output. The reason for this is to promote the improvement of the exercise operation by causing the user 41 to repeatedly perform the same exercise operation. Specifically, only when the front connection attribute ID of the performance part 2 assignment candidate matches the rear connection attribute ID of the performance part 4 assignment candidate, the output terminal 5 sets the performance part 2 assignment candidate as the performance part. 5 allocation candidates are determined. Note that the output terminal 5 assigns a part ID that is different from the performance part 2 assignment candidate among the part IDs whose front connection attribute ID matches the back connection attribute ID of the performance part 4 assignment candidate to the performance part 5 assignment candidate. You may decide to.

部品リスト表の1番目の行には、汎用運動動作1−1、専用運動動作1、汎用運動動作3−1、汎用運動動作4−1の部品IDが格納されている。汎用運動動作4−1の後繋ぎ属性IDと専用運動動作1の前繋ぎ属性IDは一致する。そこで、出力端末5は、部品リスト表における1番目の行の5番目の列に、専用運動動作1の部品IDを格納する。部品リスト表の2番目の行には、汎用運動動作1−1、専用運動動作1、汎用運動動作3−1、汎用運動動作4−2の部品IDが格納されている。汎用運動動作4−2の後繋ぎ属性IDと専用運動動作1の前繋ぎ属性IDは一致しない。そこで、出力端末5は、2番目の行を削除する。すると、図4(F)に示すように部品リスト表が更新される。   The first row of the parts list table stores the component IDs of general-purpose motion operation 1-1, dedicated motion motion 1, general-purpose motion motion 3-1, and general-purpose motion motion 4-1. The post-connection attribute ID of the general-purpose motion operation 4-1 matches the front connection attribute ID of the dedicated motion operation 1. Therefore, the output terminal 5 stores the component ID of the dedicated exercise operation 1 in the fifth column of the first row in the component list table. The second row of the parts list table stores the component IDs of the general motion operation 1-1, the dedicated motion operation 1, the general motion operation 3-1, and the general motion operation 4-2. The post-connection attribute ID of the general exercise operation 4-2 and the front connection attribute ID of the dedicated exercise operation 1 do not match. Therefore, the output terminal 5 deletes the second row. Then, the parts list table is updated as shown in FIG.

出力端末5は、演奏パート6〜8についても、これまでに説明した方法と同様の方法で、部品リスト表を更新する。すると、図4(G)に示すように部品リスト表が更新される。こうして、楽曲Xを構成する複数の演奏パートに合う複数の運動動作を示す部品リストが生成される。図4(G)に示す部品リスト表の行数は1行である。従って、1つの部品リストが生成されたことになる。部品リスト表の行数が複数行である場合、複数の部品リストが生成されたことになる。この場合、例えば、運動コンテンツの再生に用いる部品リストをユーザが選択してもよいし、出力端末5が自動的に選択してもよい。   The output terminal 5 also updates the parts list table for the performance parts 6 to 8 in the same manner as described above. Then, the parts list table is updated as shown in FIG. In this way, a parts list indicating a plurality of movements suitable for a plurality of performance parts constituting the music piece X is generated. The number of rows in the parts list table shown in FIG. 4 (G) is one. Therefore, one part list is generated. When the number of rows in the parts list table is a plurality of lines, a plurality of parts lists are generated. In this case, for example, the user may select a parts list used for playing the exercise content, or the output terminal 5 may automatically select it.

[3.ナレーション、効果音の出力タイミング]
出力端末5は、運動コンテンツに、利用者41の運動動作をサポートするナレーションや効果音等の音声を含めることができる。ナレーションにより、例えば、運動動作が説明されたり、身体の動かし方が指示されたりする。効果音は、例えば運動動作するときの人間の動きに合わせて出力される音等であってもよい。例えば、パンチの動作に合わせて、拳が物に当たる音や拳が風を切る音等が出力されてもよい。また、効果音は、例えば手拍子の音、拍手の音、歓声等であってもよい。
[3. Narration and sound effect output timing]
The output terminal 5 can include voices such as narration and sound effects that support the exercise motion of the user 41 in the exercise content. The narration explains, for example, an exercise operation or instructs how to move the body. The sound effect may be, for example, a sound that is output in accordance with a human movement when performing a motion. For example, a sound of a fist hitting an object or a sound of a fist cutting the wind may be output in accordance with the punching operation. The sound effect may be, for example, a clapping sound, a clapping sound, a cheering sound, and the like.

出力端末5のHDD7には、ナレーションデータ、効果音データ、ナレーションタイミングファイル及び効果音タイミングファイルが記憶される。ナレーションデータは、ナレーションを出力するための音声データである。効果音データは効果音を出力するための音声データである。ナレーションタイミングファイルは、ナレーションの出力タイミングを示すファイルである。ナレーションタイミングファイルは、本発明における拍情報の一例である。効果音タイミングファイルは、効果音の出力タイミングを示すファイルである。運動動作に対応したナレーションデータ、効果音データ、ナレーションタイミングファイル及び効果音タイミングファイルが運動動作ごとに予め作成される。   The HDD 7 of the output terminal 5 stores narration data, sound effect data, a narration timing file, and a sound effect timing file. Narration data is audio data for outputting narration. The sound effect data is sound data for outputting a sound effect. The narration timing file is a file indicating the output timing of the narration. The narration timing file is an example of beat information in the present invention. The sound effect timing file is a file indicating the output timing of the sound effect. Narration data, sound effect data, a narration timing file, and a sound effect timing file corresponding to the movement are created in advance for each movement.

図3(E)は、ナレーションタイミングファイルの内容の一例を示す図である。ナレーションタイミングファイルには、拍数とナレーションデータのパスとが対応付けて設定される。拍数は、対応する演奏パートの出力が開始されてから、ナレーションの出力が開始されるまでに経過する拍の数である。拍数が0である場合、出力端末5は、対応する演奏パートの出力の開始と同時にナレーションの出力を開始させる。拍数が正の値である場合、出力端末5は、対応する演奏パートの出力が開始した後、拍数に相当する時間が経過したときにナレーションの出力を開始させる。拍数が負の値である場合、出力端末5は、対応する演奏パートの出力が開始されるよりも拍数に相当する時間前にナレーションの出力を開始させる。負の値が設定される理由は、対応する演奏パートに割り当てられた運動動作が行われる前に、その運動動作に対応するナレーションを出力する必要があるからである。パスは、HDD7内におけるナレーションデータの所在を示す文字列である。   FIG. 3E shows an example of the contents of the narration timing file. In the narration timing file, the beat number and the narration data path are set in association with each other. The number of beats is the number of beats that elapse after the output of the corresponding performance part is started until the output of the narration is started. When the beat number is 0, the output terminal 5 starts outputting the narration simultaneously with the start of the output of the corresponding performance part. When the beat number is a positive value, the output terminal 5 starts outputting narration when the time corresponding to the beat number has elapsed after the output of the corresponding performance part has started. When the beat number is a negative value, the output terminal 5 starts outputting narration before the time corresponding to the beat number before the output of the corresponding performance part is started. The reason why the negative value is set is that it is necessary to output a narration corresponding to the motion motion before the motion motion assigned to the corresponding performance part is performed. The path is a character string indicating the location of the narration data in the HDD 7.

図3(E)の例では、4つのナレーションデータが再生される。先ず、対応する演奏パートの出力の開始の8拍前にナレーションデータ1の再生が開始される。また、対応する演奏パートの出力が開始してから1拍経過後にナレーションデータ2の再生が開始される。また、対応する演奏パートの出力が開始してから9拍経過後にナレーションデータ3の再生が開始される。また、対応する演奏パートの出力が開始してから13拍経過後にナレーションデータ4の再生が開始される。   In the example of FIG. 3E, four narration data are reproduced. First, playback of narration data 1 is started 8 beats before the start of output of the corresponding performance part. In addition, the reproduction of the narration data 2 is started after one beat has elapsed since the output of the corresponding performance part is started. In addition, the reproduction of the narration data 3 is started after 9 beats have passed since the output of the corresponding performance part is started. In addition, the reproduction of the narration data 4 is started after 13 beats have passed since the output of the corresponding performance part is started.

図3(F)は、効果音タイミングファイルの内容の一例を示す図である。効果音タイミングファイルには、拍数と効果音データのパスとが対応付けて設定される。拍数とパスの意味については、ナレーションタイミングファイルの場合と基本的に同様である。効果音タイミングファイルには、例えば、負の値の拍数は設定されなくてもよい。   FIG. 3F shows an example of the contents of a sound effect timing file. In the sound effect timing file, the beat number and the sound effect data path are set in association with each other. The number of beats and the meaning of the pass are basically the same as in the case of the narration timing file. For example, a negative number of beats may not be set in the sound effect timing file.

図3(A)に示す部品テーブルに格納されるナレーションタイミングIDは、運動動作に対応するナレーションタイミングファイルの識別情報である。また、部品テーブルに格納される効果音タイミングIDは、運動動作に対応する効果音タイミングファイルの識別情報である。   The narration timing ID stored in the parts table shown in FIG. 3A is identification information of a narration timing file corresponding to the motion motion. The sound effect timing ID stored in the parts table is identification information of a sound effect timing file corresponding to the exercise operation.

[4.各装置の構成]
次に、図1を参照して、運動コンテンツ生成システムに含まれる各装置の構成について説明する。
[4. Configuration of each device]
Next, the configuration of each device included in the athletic content generation system will be described with reference to FIG.

[4−1.配信サーバ2の構成]
図1に示すように、配信サーバ2は、CPU21、ROM22、RAM23、バス24、I/Oインタフェイス25、表示制御部26、ディスクドライブ28、ネットワーク通信部30及びHDD37を備える。CPU21は、バス24を介して、ROM22、RAM23及びI/Oインタフェイス25に接続されている。CPU21は、ROM22やHDD37に記憶されプログラムを実行することにより、配信サーバ2の各部を制御する。I/Oインタフェイス25には、データベース3、表示制御部26、ディスクドライブ28、ネットワーク通信部30、キーボード31、マウス32及びHDD37が接続されている。CPU21は、I/Oインタフェイス25を介してデータベース3にアクセスする。表示制御部26は、CPU21の制御に基づいて映像信号をモニタ27に出力する。ディスクドライブ28は、記録媒体29に対するデータの書き込み及び読み出しを行う。ネットワーク通信部30は、配信サーバ2がネットワーク10に接続するための制御を行う。HDD37には、OSや各種制御プログラム等が記憶されている。
[4-1. Configuration of distribution server 2]
As shown in FIG. 1, the distribution server 2 includes a CPU 21, ROM 22, RAM 23, bus 24, I / O interface 25, display control unit 26, disk drive 28, network communication unit 30, and HDD 37. The CPU 21 is connected to the ROM 22, RAM 23, and I / O interface 25 via the bus 24. The CPU 21 controls each unit of the distribution server 2 by executing a program stored in the ROM 22 or the HDD 37. Connected to the I / O interface 25 are a database 3, a display control unit 26, a disk drive 28, a network communication unit 30, a keyboard 31, a mouse 32, and an HDD 37. The CPU 21 accesses the database 3 via the I / O interface 25. The display control unit 26 outputs a video signal to the monitor 27 based on the control of the CPU 21. The disk drive 28 writes data to and reads data from the recording medium 29. The network communication unit 30 performs control for the distribution server 2 to connect to the network 10. The HDD 37 stores an OS, various control programs, and the like.

データベース3には、楽曲データ、モーションデータ、汎用部品テーブル、専用部品テーブル、繋ぎ動作テーブル、運動ジャンルテーブル、ナレーションデータ、ナレーションタイミングファイル、効果音データ、効果音タイミングファイル、コーラスデータ、歌詞データ、タイトル画像データ等のデータが登録されている。   Database 3 includes music data, motion data, general-purpose component table, dedicated component table, splicing operation table, exercise genre table, narration data, narration timing file, sound effect data, sound effect timing file, chorus data, lyrics data, title Data such as image data is registered.

楽曲データは、スピーカ64により楽曲を出力するための演奏データである。楽曲データは、例えば、MIDI(Musical Instrument Digital Interface)形式のデータであってもよい。楽曲データは、楽曲ID、楽曲名、アーティスト名、オリジナルのテンポ、楽曲の演奏パートの構成等の情報を含む。楽曲IDは、楽曲の識別情報である。また、楽曲データは、演奏パートの切り替わりのタイミング等を規定する。例えば、楽曲データがMIDI形式のデータである場合、楽曲データには、実際の演奏データとしてのMIDIイベントに加えて、メタイベントを含めることができる。メタイベントとしては、例えば、演奏パート開始イベント等がある。演奏パート開始イベントは、演奏パートの演奏開始を通知するイベントである。演奏パート開始イベントは、演奏パートのパートID、演奏パート種別、拍数等を含む。楽曲データは、本発明における楽曲情報の一例である。   The music data is performance data for outputting music from the speaker 64. The music data may be, for example, data in MIDI (Musical Instrument Digital Interface) format. The song data includes information such as the song ID, song name, artist name, original tempo, and composition of the performance part of the song. The music ID is music identification information. In addition, the music data defines the timing of switching performance parts. For example, if the music data is data in the MIDI format, the music data can include a meta event in addition to the MIDI event as actual performance data. Examples of the meta event include a performance part start event. The performance part start event is an event that notifies the performance start of the performance part. The performance part start event includes the performance part part ID, performance part type, beat number, and the like. The music data is an example of music information in the present invention.

モーションデータはモーションIDと対応付けて登録される。なお、モーションデータは、例えば部品IDと対応付けて登録されてもよい。ナレーションデータ及び効果音データのデータ形式は、例えば、WAV(RIFF waveform Audio Format)、AAC(Advanced Audio Coding)、MP3(MPEG Audio Layer-3)等であってもよい。ナレーションタイミングファイルはナレーションタイミングIDと対応付けて登録される。効果音タイミングファイルは効果音タイミングIDと対応付けて登録される。   The motion data is registered in association with the motion ID. The motion data may be registered in association with the component ID, for example. The data format of the narration data and sound effect data may be, for example, WAV (RIFF waveform Audio Format), AAC (Advanced Audio Coding), MP3 (MPEG Audio Layer-3), or the like. The narration timing file is registered in association with the narration timing ID. The sound effect timing file is registered in association with the sound effect timing ID.

コーラスデータは、コーラスの音声を出力するための音声データである。コーラスデータは、コーラスが対応する楽曲の楽曲IDとコーラスタイミング情報とに対応付けて記憶される。コーラスタイミング情報は、コーラスの出力タイミングを示す。歌詞データは、歌詞のテロップを表示するためのデータである。歌詞データは、例えば、歌詞のテキスト、テキストの表示タイミング等を含む。歌詞データは、歌詞が対応する楽曲の楽曲IDに対応付けて記憶される。タイトル画像データは、楽曲に対応するタイトルの画像を表示するための画像データである。タイトル画像データは、タイトル画像が対応する楽曲の楽曲IDに対応付けて記憶される。   The chorus data is sound data for outputting chorus sound. The chorus data is stored in association with the song ID of the song to which the chorus corresponds and the chorus timing information. The chorus timing information indicates the output timing of the chorus. The lyrics data is data for displaying lyrics telop. The lyric data includes, for example, lyric text, text display timing, and the like. The lyric data is stored in association with the music ID of the music corresponding to the lyrics. The title image data is image data for displaying an image of a title corresponding to the music. The title image data is stored in association with the music ID of the music corresponding to the title image.

[4−2.出力端末5の構成]
図1に示すように、出力端末5は、CPU51、ROM52、RAM53、バス54、I/Oインタフェイス55、表示制御部56、ディスクドライブ58、ネットワーク通信部60、音声出力部63、信号受信部65、及びHDD7を備える。CPU51は、バス54を介して、ROM52、RAM53及びI/Oインタフェイス55に接続されている。CPU51は、時計機能及びタイマー機能を有する。CPU51は、ROM52やHDD7に記憶されプログラムを実行することにより、出力端末5の各部を制御する。I/Oインタフェイス55には、HDD7、表示制御部56、音声出力部63、ディスクドライブ58、ネットワーク通信部60、キーボード61、マウス62、及び信号受信部65が接続されている。表示制御部56は、CPU51の制御に基づいて映像信号をモニタ57に出力する。音声出力部63は、CPU51の制御に基づいて音声信号をモニタ57に出力する。ディスクドライブ58は、記録媒体59に対するデータの書き込み及び読み出しを行う。信号受信部65は、リモコン66から出力される信号を受信する。リモコン66は、操作者42が出力端末5を操作するためのものである。
[4-2. Configuration of output terminal 5]
As shown in FIG. 1, the output terminal 5 includes a CPU 51, a ROM 52, a RAM 53, a bus 54, an I / O interface 55, a display control unit 56, a disk drive 58, a network communication unit 60, an audio output unit 63, and a signal receiving unit. 65 and HDD 7. The CPU 51 is connected to the ROM 52, RAM 53, and I / O interface 55 via the bus 54. The CPU 51 has a clock function and a timer function. The CPU 51 controls each unit of the output terminal 5 by executing a program stored in the ROM 52 or the HDD 7. Connected to the I / O interface 55 are an HDD 7, a display control unit 56, an audio output unit 63, a disk drive 58, a network communication unit 60, a keyboard 61, a mouse 62, and a signal receiving unit 65. The display control unit 56 outputs a video signal to the monitor 57 based on the control of the CPU 51. The audio output unit 63 outputs an audio signal to the monitor 57 based on the control of the CPU 51. The disk drive 58 writes and reads data to and from the recording medium 59. The signal receiving unit 65 receives a signal output from the remote controller 66. The remote controller 66 is for the operator 42 to operate the output terminal 5.

HDD7は、本発明の第1記憶手段、第2記憶手段、第3記憶手段及び第4記憶手段の一例である。なお、第1記憶手段、第2記憶手段、第3記憶手段及び第4記憶手段が同一の記憶デバイスであってもよいし、互いに異なる記憶デバイスであってもよい。HDD7には、配信サーバ2から配信された楽曲データ、モーションデータ、汎用部品テーブル、専用部品テーブル、繋ぎ動作テーブル、運動ジャンルテーブル、ナレーションデータ、ナレーションタイミングファイル、効果音データ、効果音タイミングファイル、コーラスデータ、歌詞データ、タイトル画像データ等のデータが記憶される。また、HDD7には、生成された部品リストが記憶される。   The HDD 7 is an example of a first storage unit, a second storage unit, a third storage unit, and a fourth storage unit of the present invention. The first storage unit, the second storage unit, the third storage unit, and the fourth storage unit may be the same storage device or may be different storage devices. In the HDD 7, music data distributed from the distribution server 2, motion data, general-purpose component table, dedicated component table, splicing operation table, exercise genre table, narration data, narration timing file, sound effect data, sound effect timing file, chorus Data such as data, lyric data, and title image data is stored. Also, the HDD 7 stores the generated parts list.

HDD7には、更に、OS、運動支援プログラム、3Dエンジン、ミュージックシーケンサ等の各種プログラム等が記憶されている。運動支援プログラムは、利用者41の運動を支援するためのプログラムである。運動支援プログラムは、コンピュータとしてのCPU51に、第1検索ステップ、第2検索ステップ、生成ステップを少なくとも実行させる。3Dエンジンは、モーションデータに基づいて、三次元仮想空間で運動動作するフィギュア83を二次元平面に投影した画像を生成するためのプログラムである。画像を生成する処理は、射影変換、クリッピング、隠面消去、シェーディング、テクスチャマッピング等を含む。CPU51は、3Dエンジンを実行して、静止画像を順次生成する。生成された静止画像をCPU51が表示制御部56へ順次出力することで、ディスプレイ67には、運動映像が表示される。   The HDD 7 further stores various programs such as an OS, an exercise support program, a 3D engine, and a music sequencer. The exercise support program is a program for supporting the exercise of the user 41. The exercise support program causes the CPU 51 as a computer to execute at least a first search step, a second search step, and a generation step. The 3D engine is a program for generating an image obtained by projecting a figure 83 that moves in a three-dimensional virtual space onto a two-dimensional plane based on motion data. The process of generating an image includes projective transformation, clipping, hidden surface removal, shading, texture mapping, and the like. The CPU 51 executes the 3D engine and sequentially generates still images. The CPU 51 sequentially outputs the generated still image to the display control unit 56, whereby a motion image is displayed on the display 67.

ミュージックシーケンサは、楽曲データを再生するためのプログラムである。CPU51は、ミュージックシーケンサを実行することにより、楽曲データに対応する音声信号を生成する。また、CPU51は、ミュージックシーケンサを実行することにより、各種のイベントを発生させる。イベントとして、例えば、テンポに応じて所定時間間隔で発生するイベントがある。このイベントは、MIDIクロックや同期イベントと呼ばれる。また、イベントとして、例えば、演奏パート開始イベントがある。   The music sequencer is a program for reproducing music data. The CPU 51 generates a sound signal corresponding to the music data by executing the music sequencer. Further, the CPU 51 generates various events by executing the music sequencer. As an event, for example, there is an event that occurs at a predetermined time interval according to the tempo. This event is called a MIDI clock or synchronization event. As an event, for example, there is a performance part start event.

各種プログラムは、例えば、配信サーバ2等のサーバからネットワーク10を介してダウンロードされるようにしてもよい。また、各種プログラムは、記録媒体59に記録されてディスクドライブ58を介して読み込まれるようにしてもよい。なお、3Dエンジンやミュージックシーケンサは、プログラムではなく、専用のハードウェアであってもよい。そして、出力端末5は、ハードウェアとしての3Dエンジンやミュージックシーケンサを備えてもよい。   Various programs may be downloaded from the server such as the distribution server 2 via the network 10, for example. Various programs may be recorded on the recording medium 59 and read via the disk drive 58. The 3D engine and the music sequencer may be dedicated hardware instead of a program. The output terminal 5 may include a 3D engine or a music sequencer as hardware.

CPU51は、設定されたテンポに従って、楽曲データに対応する音声信号を音声出力部63へ出力させるとともに、生成した画像に対応する映像信号を表示制御部56から出力させる。CPU51は、同期イベントに基づいて、楽曲の音声信号の出力タイミングと運動映像の映像信号の出力タイミングとを同期させる。これにより、スピーカ64から出力される楽曲に同期して運動動作を行うフィギュア83がディスプレイ67に表示される。   The CPU 51 outputs an audio signal corresponding to the music data to the audio output unit 63 and outputs a video signal corresponding to the generated image from the display control unit 56 according to the set tempo. Based on the synchronization event, the CPU 51 synchronizes the output timing of the music audio signal and the output timing of the motion video signal. As a result, a figure 83 that performs an exercise motion in synchronization with the music output from the speaker 64 is displayed on the display 67.

[5.運動コンテンツ生成システム1の動作]
次に、図5及び図6を参照して、運動コンテンツ生成システム1の動作を説明する。図5(A)は、出力端末5のCPU51のメイン処理の処理例を示すフローチャートである。例えば、操作者42が、リモコン66等により、運動レッスンを開始させるための操作を行う。すると、CPU51は、メイン処理を開始する。
[5. Operation of Exercise Content Generation System 1]
Next, operations of the exercise content generation system 1 will be described with reference to FIGS. FIG. 5A is a flowchart illustrating a processing example of the main processing of the CPU 51 of the output terminal 5. For example, the operator 42 performs an operation for starting an exercise lesson with the remote controller 66 or the like. Then, the CPU 51 starts main processing.

図5(A)に示すように、CPU51は、選択情報取得処理を実行する(ステップS1)。選択情報取得処理において、CPU51は、部品リストの生成に必要な情報を取得する。選択情報取得処理の詳細は後述する。次いで、CPU51は、部品リスト生成処理を実行する(ステップS2)。部品リスト生成処理において、CPU51は、部品リストを生成する。部品リスト生成処理の詳細は後述する。次いで、CPU51は、運動情報生成処理を実行する(ステップS3)。運動情報生成処理おいて、CPU51は、生成された部品リストに基づいて、運動情報を生成する。運動情報は、運動コンテンツを再生するために用いられる情報である。運動情報は、楽曲が出力されているときに、運動コンテンツに含まれる映像や音声の出力を開始するタイミングを示す。運動情報により出力のタイミングが示される映像、音声として、例えば、運動映像、ナレーション、効果音、コーラス、歌詞、タイトル画像等がある。出力するタイミングは、例えば、再生位置で示されてもよい。再生位置は、運動コンテンツに含まれる楽曲の再生が開始されてから経過した時間である。運動情報は、例えば複数のレコードを含む。各レコードは、パス及び再生位置を示す。パスは、映像又は音声の出力に用いられるデータのパスである。映像又は音声の出力に用いられるデータとして、例えば、モーションデータ、ナレーションデータ、効果音データ、コーラスデータ、歌詞データ、タイトル画像データ等がある。再生位置は、映像又は音声が出力されるタイミングを示す。運動情報生成処理の詳細は後述する。次いで、CPU51は、再生処理を実行する(ステップS4)。再生処理において、CPU51は、生成された運動情報に基づいて、運動コンテンツを再生する。再生処理の詳細は後述する。CPU51は、ステップS4の処理を終えると、メイン処理を終了させる。   As shown in FIG. 5A, the CPU 51 executes selection information acquisition processing (step S1). In the selection information acquisition process, the CPU 51 acquires information necessary for generating a parts list. Details of the selection information acquisition process will be described later. Next, the CPU 51 executes a parts list generation process (step S2). In the parts list generation process, the CPU 51 generates a parts list. Details of the parts list generation processing will be described later. Next, the CPU 51 executes exercise information generation processing (step S3). In the exercise information generation process, the CPU 51 generates exercise information based on the generated parts list. The exercise information is information used for reproducing exercise content. The exercise information indicates the timing when the output of video and audio included in the exercise content is started when the music is being output. Examples of video and audio whose output timing is indicated by exercise information include exercise video, narration, sound effects, chorus, lyrics, and title images. The output timing may be indicated by a playback position, for example. The reproduction position is a time that has elapsed since the reproduction of the music included in the exercise content is started. The exercise information includes, for example, a plurality of records. Each record indicates a path and a reproduction position. The path is a data path used for video or audio output. Examples of data used for video or audio output include motion data, narration data, sound effect data, chorus data, lyrics data, title image data, and the like. The playback position indicates the timing at which video or audio is output. Details of the exercise information generation process will be described later. Next, the CPU 51 executes a reproduction process (step S4). In the reproduction process, the CPU 51 reproduces the exercise content based on the generated exercise information. Details of the reproduction process will be described later. CPU51 complete | finishes a main process, after finishing the process of step S4.

図5(B)は、出力端末5のCPU51の選択情報取得処理の処理例を示すフローチャートである。図5(B)に示すように、CPU51は、楽曲の情報を取得する(ステップS11)。具体的に、CPU51は、運動レッスンに用いる楽曲を決定する。例えば、操作者42が楽曲を選択して、CPU51が、操作者42により入力された選択結果を受け付けてもよい。CPU51は、決定された楽曲の楽曲IDを取得する。また、CPU51は、決定された楽曲の楽曲データから、楽曲のオリジナルのテンポと、楽曲を構成する各演奏パートの演奏パート開始イベントとを取得する。   FIG. 5B is a flowchart illustrating a processing example of selection information acquisition processing of the CPU 51 of the output terminal 5. As shown in FIG. 5B, the CPU 51 acquires music information (step S11). Specifically, the CPU 51 determines the music used for the exercise lesson. For example, the operator 42 may select a song, and the CPU 51 may accept a selection result input by the operator 42. CPU51 acquires music ID of the determined music. Further, the CPU 51 acquires the original tempo of the music and the performance part start event of each performance part constituting the music from the music data of the determined music.

次いで、CPU51は、運動コンテンツの再生に用いる運動テンポを決定する(ステップS12)。例えば、CPU51は、予め定められた複数の運動テンポのうち、楽曲のオリジナルのテンポに最も近いテンポを、運動コンテンツの再生に用いる運動テンポに決定する。例えば、複数の運動テンポがHDD7に記憶されているとする。CPU51は、HDD7から各運動テンポを取得する。CPU51は、取得した運動テンポごとに、運動テンポと楽曲のオリジナルのテンポとの差を計算する。そして、CPU51は、差が最も小さい運動テンポを、運動コンテンツの再生に用いる運動テンポに決定する。   Next, the CPU 51 determines an exercise tempo used for reproducing exercise content (step S12). For example, the CPU 51 determines a tempo closest to the original tempo of the music among a plurality of predetermined exercise tempos as an exercise tempo used for reproducing the exercise content. For example, assume that a plurality of exercise tempos are stored in the HDD 7. The CPU 51 acquires each exercise tempo from the HDD 7. For each acquired exercise tempo, the CPU 51 calculates the difference between the exercise tempo and the original tempo of the music. Then, the CPU 51 determines the exercise tempo with the smallest difference as the exercise tempo used for reproducing the exercise content.

次いで、CPU51は、運動ジャンルを決定する(ステップS13)。例えば、操作者42が運動ジャンルを選択して、CPU51が選択結果を受け付けてもよい。CPU51は、ステップS13の処理を終えると、選択情報取得処理を終了させる。   Next, the CPU 51 determines an exercise genre (step S13). For example, the operator 42 may select an exercise genre and the CPU 51 may accept the selection result. When finishing the process of step S13, the CPU 51 ends the selection information acquisition process.

図6及び図7は、出力端末5のCPU51の部品リスト生成処理の処理例を示すフローチャートである。図6に示すように、CPU51は、演奏順Nを1に設定する(ステップS41)。次いで、CPU51は、選択情報取得処理で取得された演奏パート開始イベントに基づいて、演奏順1〜演奏順N−1の演奏パートの中に、演奏順Nの演奏パートと演奏パート種別が同一である演奏パートがあるか否かを判定する(ステップS42)。このとき、CPU51は、演奏順Nの演奏パートと演奏パート種別が同一である演奏パートがあると判定した場合には(ステップS42:YES)、ステップS67に進む。一方、CPU51は、演奏順Nの演奏パートと演奏パート種別が同一である演奏パートがないと判定した場合には(ステップS42:NO)、ステップS43に進む。CPU51は、演奏順Nが1である場合にもステップS43に進む。   6 and 7 are flowcharts showing a processing example of the parts list generation processing of the CPU 51 of the output terminal 5. As shown in FIG. 6, the CPU 51 sets the performance order N to 1 (step S41). Next, based on the performance part start event acquired by the selection information acquisition process, the CPU 51 has the same performance part type as the performance part of the performance order N among the performance parts of the performance order 1 to the performance order N-1. It is determined whether or not there is a certain performance part (step S42). At this time, if the CPU 51 determines that there is a performance part having the same performance part type as the performance part in the performance order N (step S42: YES), the CPU 51 proceeds to step S67. On the other hand, when the CPU 51 determines that there is no performance part having the same performance part type as the performance part N in the performance order (step S42: NO), the CPU 51 proceeds to step S43. The CPU 51 also proceeds to step S43 when the performance order N is 1.

ステップS43において、CPU51は、専用部品テーブルに、選択された楽曲の楽曲ID及び演奏順Nの演奏パートの演奏パート種別に対応する専用運動動作の部品IDが記憶されているか否かを判定する。このとき、CPU51は、対応する専用運動動作の部品IDが記憶されていると判定した場合には(ステップS43:YES)、ステップS44に進む。一方、CPU51は、対応する専用運動動作の部品IDが記憶されていないと判定した場合には(ステップS43:NO)、ステップS61に進む。   In step S <b> 43, the CPU 51 determines whether or not the dedicated component table stores the song ID of the selected song and the component ID of the dedicated exercise operation corresponding to the performance part type of the performance part in the performance order N. At this time, if the CPU 51 determines that the part ID of the corresponding dedicated motion motion is stored (step S43: YES), the CPU 51 proceeds to step S44. On the other hand, if the CPU 51 determines that the part ID of the corresponding dedicated motion operation is not stored (step S43: NO), the CPU 51 proceeds to step S61.

ステップS44において、CPU51は、選択された楽曲の楽曲ID、選択された運動ジャンル、演奏順Nの演奏パートの演奏パート種別、演奏順Nの演奏パートの拍数及び決定された運動テンポに一致する楽曲ID、運動ジャンル、演奏パート種別、拍数及びテンポに対応する部品IDを、専用部品テーブルから検索する。次いで、CPU51は、演奏順Nが1よりも大きいか否かを判定する(ステップS45)。このとき、CPU51は、演奏順Nが1よりも大きいと判定した場合には(ステップS45:YES)、ステップS46に進む。一方、CPU51は、演奏順Nが1より大きくはないと判定した場合には(ステップS45:NO)、ステップS50に進む。   In step S44, the CPU 51 matches the music ID of the selected music, the selected exercise genre, the performance part type of the performance part in the performance order N, the beat number of the performance part in the performance order N, and the determined exercise tempo. A component ID corresponding to the music ID, exercise genre, performance part type, beat number, and tempo is searched from the dedicated component table. Next, the CPU 51 determines whether or not the performance order N is greater than 1 (step S45). At this time, if the CPU 51 determines that the performance order N is greater than 1 (step S45: YES), the CPU 51 proceeds to step S46. On the other hand, if the CPU 51 determines that the performance order N is not greater than 1 (step S45: NO), the CPU 51 proceeds to step S50.

ステップS46において、CPU51は、部品リスト表の行番号Kを1に設定する。次いで、CPU51は、専用部品テーブルに基づいて、ステップS44で検索された部品IDの中から、演奏順N−1の演奏パートの割り当て候補Kの部品IDに対応する後繋ぎ属性IDに一致する前繋ぎ属性IDに対応する部品IDを検索する(ステップS47)。演奏順N−1の演奏パートの割り当て候補Kの部品IDとは、部品リスト表において、K番目の行のN−1番目の列に格納された部品IDである。次いで、CPU51は、行番号Kに1を加算する(ステップS48)。次いで、CPU51は、行番号Kが行数R以下であるか否かを判定する(ステップS49)。行数Rは、現時点における部品リスト表の行数である。このとき、CPU51は、行番号Kが行数R以下であると判定した場合には(ステップS49:YES)、ステップS47に進む。一方、CPU51は、行番号Kが行数R以下でない、つまり、行番号KがRよりも大きいと判定した場合には(ステップS49:NO)、ステップS50に進む。   In step S46, the CPU 51 sets the row number K of the parts list table to 1. Next, the CPU 51, based on the dedicated component table, before matching the back connection attribute ID corresponding to the component ID of the performance part assignment candidate K in the performance order N-1 from the component IDs searched in step S44. A component ID corresponding to the connection attribute ID is searched (step S47). The part ID of the performance part assignment candidate K in the performance order N-1 is the part ID stored in the (N-1) th column of the Kth row in the parts list table. Next, the CPU 51 adds 1 to the row number K (step S48). Next, the CPU 51 determines whether or not the row number K is equal to or less than the row number R (step S49). The number of rows R is the number of rows in the parts list table at the current time. At this time, if the CPU 51 determines that the row number K is equal to or less than the row number R (step S49: YES), the CPU 51 proceeds to step S47. On the other hand, if the CPU 51 determines that the line number K is not less than the number of lines R, that is, the line number K is greater than R (step S49: NO), the CPU 51 proceeds to step S50.

ステップS50において、CPU51は、該当する部品IDが検索されたか否かを判定する。このとき、CPU51は、ステップS44又はS47で部品IDが検索されなかったと判定した場合には(ステップS50:NO)、ステップS61に進む。一方、CPU51は、演奏順Nが1であるときにステップS44で部品IDが検索されたと判定した場合には(ステップS50:YES)、ステップS51に進む。また、CPU51は、演奏順Nが2以上であるときにステップS47で部品IDが検索されたと判定した場合にも(ステップS50:YES)、ステップS51に進む。   In step S50, the CPU 51 determines whether or not the corresponding component ID has been searched. At this time, if the CPU 51 determines in step S44 or S47 that the component ID has not been searched (step S50: NO), the CPU 51 proceeds to step S61. On the other hand, when the CPU 51 determines that the component ID is searched in step S44 when the performance order N is 1 (step S50: YES), the CPU 51 proceeds to step S51. Further, when the CPU 51 determines that the component ID is searched in step S47 when the performance order N is 2 or more (step S50: YES), the CPU 51 proceeds to step S51.

図7に示すように、ステップS61において、CPU51は、選択された運動ジャンル、演奏順Nの演奏パートの演奏パート種別、演奏順Nの演奏パートの拍数及び決定された運動テンポに一致する運動ジャンル、演奏パート種別、拍数及びテンポに対応する部品IDを、汎用部品テーブルから検索する。次いで、CPU51は、演奏順Nが1よりも大きいか否かを判定する(ステップS62)。このとき、CPU51は、演奏順Nが1よりも大きいと判定した場合には(ステップS62:YES)、ステップS63に進む。一方、CPU51は、演奏順Nが1よりも大きくはないと判定した場合には(ステップS62:NO)、ステップS51に進む。   As shown in FIG. 7, in step S61, the CPU 51 performs an exercise that matches the selected exercise genre, the performance part type of the performance part in the performance order N, the beat number of the performance part in the performance order N, and the determined exercise tempo. A component ID corresponding to the genre, performance part type, beat number, and tempo is searched from the general component table. Next, the CPU 51 determines whether or not the performance order N is greater than 1 (step S62). At this time, if the CPU 51 determines that the performance order N is greater than 1 (step S62: YES), the CPU 51 proceeds to step S63. On the other hand, when the CPU 51 determines that the performance order N is not greater than 1 (step S62: NO), the CPU 51 proceeds to step S51.

ステップS63において、CPU51は、部品リスト表の行番号Kを1に設定する。次いで、CPU51は、汎用部品テーブルに基づいて、ステップS61で検索された部品IDの中から、演奏順N−1の演奏パートの割り当て候補Kの部品IDに対応する後繋ぎ属性IDに一致する前繋ぎ属性IDに対応する部品IDを検索する(ステップS64)。次いで、CPU51は、行番号Kに1を加算する(ステップS65)。次いで、CPU51は、行番号Kが行数R以下であるか否かを判定する(ステップS66)。このとき、CPU51は、行番号Kが行数R以下であると判定した場合には(ステップS66:YES)、ステップS64に進む。一方、CPU51は、行番号Kが行数R以下でない、つまり、行番号KがRよりも大きいと判定した場合には(ステップS66:NO)、ステップS51に進む。   In step S63, the CPU 51 sets the row number K of the parts list table to 1. Next, the CPU 51, based on the general-purpose component table, before matching the back connection attribute ID corresponding to the component ID of the performance part assignment candidate K in the performance order N-1 from the component IDs searched in step S61. A component ID corresponding to the connection attribute ID is searched (step S64). Next, the CPU 51 adds 1 to the line number K (step S65). Next, the CPU 51 determines whether or not the row number K is less than or equal to the row number R (step S66). At this time, if the CPU 51 determines that the row number K is equal to or less than the row number R (step S66: YES), the CPU 51 proceeds to step S64. On the other hand, if the CPU 51 determines that the line number K is not less than or equal to the number of lines R, that is, the line number K is greater than R (step S66: NO), the CPU 51 proceeds to step S51.

ステップS67において、CPU51は、行番号Kを1に設定する。次いで、CPU51は、演奏順Nの演奏パートと演奏パート種別が同一である演奏パートに割り当て候補として検索済みの部品IDに対応する情報を取得する(ステップS68)。具体的に、CPU51は、部品リスト表のK番目の行において、演奏順Nの演奏パートと演奏パート種別が同一である演奏パートに対応する列から、検索済みの部品IDを取得する。次いで、CPU51は、取得された部品IDに対応する前繋ぎ属性IDを部品テーブルから取得する。   In step S67, the CPU 51 sets the line number K to 1. Next, the CPU 51 obtains information corresponding to the searched component ID as a candidate for assignment to a performance part having the same performance part type as the performance part in the performance order N (step S68). Specifically, the CPU 51 acquires the searched component ID from the column corresponding to the performance part having the same performance part type as the performance part in the performance order N in the Kth row of the component list table. Next, the CPU 51 acquires a previous connection attribute ID corresponding to the acquired component ID from the component table.

次いで、CPU51は、演奏順N−1の演奏パートの割り当て候補Kの部品IDに対応する後繋ぎ属性IDと、検索済みの部品IDに対応する前繋ぎ属性IDとが一致するか否かを判定する(ステップS69)。このとき、CPU51は、後繋ぎ属性IDと前繋ぎ属性IDとが一致すると判定した場合には(ステップS69:YES)、ステップS70に進む。一方、CPU51は、後繋ぎ属性IDと前繋ぎ属性IDとが一致しないと判定した場合には(ステップS69:NO)、ステップS71に進む。   Next, the CPU 51 determines whether or not the back connection attribute ID corresponding to the component ID of the performance part assignment candidate K in the performance order N-1 matches the front connection attribute ID corresponding to the searched component ID. (Step S69). At this time, if the CPU 51 determines that the back connection attribute ID matches the front connection attribute ID (step S69: YES), the CPU 51 proceeds to step S70. On the other hand, if the CPU 51 determines that the back connection attribute ID does not match the front connection attribute ID (step S69: NO), the CPU 51 proceeds to step S71.

ステップS70において、CPU51は、部品リスト表において、K番目の行のN番目の列に、ステップS68で取得された検索済みの部品IDを格納する。次いで、CPU51は、ステップS72に進む。ステップS71において、CPU51は、K番目の行を部品リストから削除する。次いで、CPU51は、ステップS72に進む。ステップS72において、CPU51は、行番号Kに1を加算する。次いで、CPU51は、行番号Kが行数R以下であるか否かを判定する(ステップS73)。このとき、CPU51は、行番号Kが行数R以下であると判定した場合には(ステップS73:YES)、ステップS68に進む。一方、CPU51は、行番号Kが行数R以下でない、つまり、行番号Kが行数Rよりも大きいと判定した場合には(ステップS73:NO)、ステップS52に進む。   In step S70, the CPU 51 stores the searched component ID obtained in step S68 in the Nth column of the Kth row in the component list table. Next, the CPU 51 proceeds to step S72. In step S71, the CPU 51 deletes the Kth row from the parts list. Next, the CPU 51 proceeds to step S72. In step S72, the CPU 51 adds 1 to the row number K. Next, the CPU 51 determines whether or not the row number K is equal to or less than the row number R (step S73). At this time, if the CPU 51 determines that the line number K is equal to or less than the number of lines R (step S73: YES), the CPU 51 proceeds to step S68. On the other hand, if the CPU 51 determines that the line number K is not less than or equal to the line number R, that is, the line number K is greater than the line number R (step S73: NO), the CPU 51 proceeds to step S52.

図6に示すように、ステップS51において、CPU51は、部品リスト表を更新する。演奏順Nが1である場合、CPU51は、ステップS44又はS61で検索された部品IDを格納する部品リスト表を生成する。演奏順Nが2以上である場合、CPU51は、ステップS47又はS64の検索結果に基づいて、部品リスト表を更新する。具体的に、ステップS47又はS64で部品IDが検索された場合、CPU51は、対応する行のN番目の列に、検索された部品IDを格納する。1つの行につき複数の部品IDが検索された場合、CPU51は、同一内容の行を部品リスト表に追加する。そして、CPU51は、検索された複数の部品IDを複数の行に格納する。ステップS47又はS64で部品IDが検索されなかった場合、CPU51は、対応する行を部品リストから削除する。CPU51は、ステップS51の処理を終えると、ステップS52に進む。   As shown in FIG. 6, in step S51, the CPU 51 updates the parts list table. When the performance order N is 1, the CPU 51 generates a component list table that stores the component ID searched in step S44 or S61. When the performance order N is 2 or more, the CPU 51 updates the parts list table based on the search result of step S47 or S64. Specifically, when the component ID is retrieved in step S47 or S64, the CPU 51 stores the retrieved component ID in the Nth column of the corresponding row. When a plurality of component IDs are retrieved for one row, the CPU 51 adds a row having the same content to the component list table. Then, the CPU 51 stores a plurality of retrieved component IDs in a plurality of rows. When the component ID is not searched in step S47 or S64, the CPU 51 deletes the corresponding line from the component list. After finishing the process of step S51, the CPU 51 proceeds to step S52.

ステップS52において、CPU51は、行数Rを、更新後の部品リスト表の行数に変更する。次いで、CPU51は、演奏順Nに1を加算する(ステップS53)。次いで、CPU51は、演奏順Nが、選択された楽曲を構成する演奏パートの総数以下であるか否かを判定する(ステップS54)。このとき、CPU51は、は、演奏順Nが演奏パートの総数以下であると判定した場合には(ステップS54:YES)、ステップS42に進む。一方、CPU51は、演奏順Nが演奏パートの総数以下でない、つまり、演奏順Nが演奏パートの総数よりも大きいと判定した場合には(ステップS54:NO)、ステップS55に進む。ステップS55において、CPU51は、部品リスト表内に生成された部品リストの中から、運動情報の生成に用いられる部品リストを選択する。例えば、操作者42が選択してもよい。CPU51は、ステップS55の処理を終えると、部品リスト生成処理を終了させる。   In step S52, the CPU 51 changes the number of rows R to the number of rows in the updated parts list table. Next, the CPU 51 adds 1 to the performance order N (step S53). Next, the CPU 51 determines whether or not the performance order N is equal to or less than the total number of performance parts constituting the selected music piece (step S54). At this time, if the CPU 51 determines that the performance order N is less than or equal to the total number of performance parts (step S54: YES), the CPU 51 proceeds to step S42. On the other hand, if the CPU 51 determines that the performance order N is not less than the total number of performance parts, that is, the performance order N is larger than the total number of performance parts (step S54: NO), the CPU 51 proceeds to step S55. In step S55, the CPU 51 selects a parts list used for generating exercise information from the parts list generated in the parts list table. For example, the operator 42 may select. When finishing the process in step S55, the CPU 51 ends the parts list generation process.

図5(C)は、出力端末5のCPU51の運動情報生成処理の処理例を示すフローチャートである。図5(C)に示すように、CPU51は、部品リストに基づいて、基本運動情報を生成する(ステップS21)。基本運動情報は、運動映像、ナレーション及び効果音のそれぞれの出力が開始されるタイミングを示す運動情報である。基本運動情報は、本発明のタイミング情報の一例である。例えば、CPU51は、運動テンポと、選択情報取得処理で取得された演奏パート開始イベントに含まれる拍数とに基づいて、各演奏パートの再生が開始される再生位置を計算する。次いで、CPU51は、各演奏パートに割り当てられた部品IDを部品リストから取得する。次いで、CPU51は、取得した部品IDに対応するモーションID、ナレーションタイミングID及び効果音タイミングIDを部品テーブルから取得する。次いで、CPU51は、モーションIDに対応するモーションデータのパスを取得する。次いで、CPU51は、各演奏パートについて、演奏パートの再生位置と、演奏パートに割り当てられた部品IDに対応するモーションデータのパスとを含むレコードを部品IDごとに生成する。次いで、CPU51は、ナレーションタイミングIDに対応するナレーションタイミングファイルをHDD7から取得する。次いで、CPU51は、ナレーションタイミングファイルと、演奏パートの再生位置とに基づいて、ナレーションデータの再生が開始される再生位置を計算する。次いで、CPU51は、ナレーションデータの再生位置とナレーションデータのパスとを含むレコードを、ナレーションデータごとに生成する。また、CPU51は、効果音タイミングファイルに基づいて、効果音データの再生位置と効果音データのパスとを含むレコードを、効果音データごとに生成する。この処理内容は、ナレーションデータの場合と基本的に同様である。CPU51は、生成されたこれらのレコードを含む基本運動情報を生成する。   FIG. 5C is a flowchart illustrating a processing example of exercise information generation processing of the CPU 51 of the output terminal 5. As shown in FIG. 5C, the CPU 51 generates basic motion information based on the parts list (step S21). The basic motion information is motion information indicating the timing at which each output of motion video, narration, and sound effects is started. The basic exercise information is an example of timing information of the present invention. For example, the CPU 51 calculates a playback position at which playback of each performance part is started based on the exercise tempo and the number of beats included in the performance part start event acquired in the selection information acquisition process. Next, the CPU 51 acquires the component ID assigned to each performance part from the component list. Next, the CPU 51 acquires the motion ID, narration timing ID, and sound effect timing ID corresponding to the acquired component ID from the component table. Next, the CPU 51 obtains a motion data path corresponding to the motion ID. Next, the CPU 51 generates, for each performance part, a record including a playback position of the performance part and a motion data path corresponding to the component ID assigned to the performance part for each performance part. Next, the CPU 51 acquires a narration timing file corresponding to the narration timing ID from the HDD 7. Next, the CPU 51 calculates a reproduction position where reproduction of narration data is started based on the narration timing file and the reproduction position of the performance part. Next, the CPU 51 generates a record including the reproduction position of the narration data and the narration data path for each narration data. Further, the CPU 51 generates, for each sound effect data, a record including the reproduction position of the sound effect data and the path of the sound effect data based on the sound effect timing file. The contents of this process are basically the same as in the case of narration data. The CPU 51 generates basic exercise information including these generated records.

具体例を説明する。例えば、図2(B)に示すように演奏パート1〜3に部品IDが割り当てられたとする。また、運動テンポは128BPMであるとする。この場合、1拍の長さは、約0.47秒である。演奏パート1の演奏順は1番目であるため、演奏パート1の出力が開始する再生位置は0秒である。演奏パート2の演奏順は2番目であり、演奏パート1の拍数は32拍である。従って、演奏パート2の出力が開始する再生位置は約15.04秒である。演奏パート3の演奏順は3番目であり、演奏パート2の拍数は64拍である。従って、演奏パート3の出力が開始するまでに、96拍が経過する。そのため、演奏パート3の出力が開始する再生位置は約45.12秒である。従って、マーチB、フロントランジA、スクワットCのモーションデータを用いた運動映像の表示が開始される再生位置は、それぞれ0秒、15.04秒、45.12秒である。また、図3(E)に示すナレーションタイミングファイルが、フロントランジAに対応するファイルであるとする。この場合、演奏パート2の出力が開始される8拍前に、ナレーション1の出力が開始される。従って、ナレーション1の再生が開始される再生位置は約11.28秒である。演奏パート2の出力が開始されてから1拍後に、ナレーション2の出力が開始される。従って、ナレーション2の再生が開始される再生位置は15.51秒である。演奏パート2の出力が開始されてから9拍後に、ナレーション3の出力が開始される。従って、ナレーション3の再生が開始される再生位置は19.27秒である。演奏パート3の出力が開始されてから13拍後に、ナレーション4の出力が開始される。従って、ナレーション4の再生が開始される再生位置は21.15秒である。   A specific example will be described. For example, assume that a component ID is assigned to each of performance parts 1 to 3 as shown in FIG. The exercise tempo is assumed to be 128 BPM. In this case, the length of one beat is about 0.47 seconds. Since the performance order of the performance part 1 is first, the reproduction position where the output of the performance part 1 starts is 0 second. The performance order of performance part 2 is second, and the performance part 1 has 32 beats. Therefore, the reproduction position where the output of the performance part 2 starts is about 15.04 seconds. The performance order of the performance part 3 is third, and the performance part 2 has 64 beats. Therefore, 96 beats elapse before the performance part 3 starts to output. Therefore, the reproduction position where the output of the performance part 3 starts is about 45.12 seconds. Accordingly, the playback positions at which the display of motion images using the motion data of March B, Front Range A, and Squat C are started at 0 seconds, 15.04 seconds, and 45.12 seconds, respectively. Further, it is assumed that the narration timing file shown in FIG. In this case, the output of narration 1 is started 8 beats before the output of performance part 2 is started. Therefore, the reproduction position where the reproduction of narration 1 is started is about 11.28 seconds. One beat after the start of performance part 2 output, narration 2 output is started. Therefore, the playback position where playback of narration 2 is started is 15.51 seconds. 9 beats after the start of performance part 2 output, the output of narration 3 is started. Therefore, the playback position where playback of narration 3 is started is 19.27 seconds. The narration 4 starts to be output 13 beats after the output of the performance part 3 is started. Therefore, the playback position where playback of narration 4 is started is 21.15 seconds.

次いで、CPU51は、楽曲専用運動情報を生成する(ステップS22)。楽曲専用運動情報は、コーラス、歌詞及びタイトル画像のそれぞれの出力が開始されるタイミングを示す運動情報である。例えば、CPU51は、選択された楽曲の楽曲IDに対応するコーラスデータ、コーラスタイミング情報、歌詞データをHDD7から取得する。CPU51は、コーラスデータとコーラスタイミング情報に基づいて、コーラスデータの再生が開始される再生位置とコーラスデータのパスとを含むレコードを生成する。また、CPU51は、歌詞データに基づいて、歌詞のテロップの表示が開始される再生位置と歌詞データのパスとを含むレコードを生成する。また、CPU51は、例えば予め設定された再生位置とタイトル画像データのパスとを含むレコードを生成する。CPU51は、これらのレコードを含む楽曲専用運動情報を生成する。   Next, the CPU 51 generates music dedicated exercise information (step S22). The music-specific exercise information is exercise information indicating the timing at which output of each of the chorus, lyrics, and title image is started. For example, the CPU 51 acquires chorus data, chorus timing information, and lyrics data corresponding to the song ID of the selected song from the HDD 7. Based on the chorus data and the chorus timing information, the CPU 51 generates a record including a playback position where chorus data playback is started and a chorus data path. Further, the CPU 51 generates a record including the reproduction position where the display of the lyrics telop is started and the path of the lyrics data based on the lyrics data. Further, the CPU 51 generates a record including, for example, a preset reproduction position and a title image data path. CPU51 produces | generates the music exclusive exercise | movement information containing these records.

次いで、CPU51は、基本運動情報と楽曲専用運動情報と結合して、最終的な運動情報を生成する(ステップS23)。CPU51は、ステップS23の処理を終えると、運動情報生成処理を終了させる。   Next, the CPU 51 combines the basic exercise information and the music-specific exercise information to generate final exercise information (step S23). When finishing the process in step S23, the CPU 51 ends the exercise information generation process.

図5(D)は、出力端末5のCPU51の再生処理の処理例を示すフローチャートである。図5(D)に示すように、CPU51は、選択された楽曲のテンポを、オリジナルのテンポから選択情報取得処理で決定された運動テンポに変更する(ステップS31)。   FIG. 5D is a flowchart illustrating a processing example of the reproduction processing of the CPU 51 of the output terminal 5. As shown in FIG. 5D, the CPU 51 changes the tempo of the selected music from the original tempo to the exercise tempo determined by the selection information acquisition process (step S31).

次いで、CPU51は、最終的な運動情報に基づいて運動コンテンツを再生する(ステップS32)。具体的に、CPU51は、時計機能から現在時刻を取得する。CPU51は、取得した現在時刻を楽曲データの再生開始時刻とする。次いで、CPU51は、選択された楽曲の楽曲データに基づいて、ミュージックシーケンサにより楽曲データを再生する。これにより、CPU51は、スピーカ64により楽曲を出力させる。このとき、CPU51は、選択情報取得処理で決定された運動テンポに従って楽曲を出力させる。   Next, the CPU 51 reproduces the exercise content based on the final exercise information (step S32). Specifically, the CPU 51 acquires the current time from the clock function. The CPU 51 sets the acquired current time as the music data reproduction start time. Next, the CPU 51 reproduces the music data by the music sequencer based on the music data of the selected music. As a result, the CPU 51 causes the speaker 64 to output music. At this time, the CPU 51 outputs the music according to the exercise tempo determined in the selection information acquisition process.

楽曲データの再生を開始すると、CPU51は、楽曲データの再生開始時刻から経過した時間を、楽曲の現在の再生位置として随時更新する。再生位置が更新されるごとに、CPU51は、運動情報から現在の再生位置を含むレコードを検索する。CPU51は、検索されたレコードに応じた処理を行う。例えば、モーションデータのパスを含むレコードが検索された場合、CPU51は、パスに対応するモーションデータに基づいて、運動映像の再生を開始する。このとき、CPU51は、先ずメイン動作の静止画像を順次生成し、静止画像を表示制御部56へ順次出力する。次いで、CPU51は、後繋ぎ動作の静止画像を順次生成し、静止画像を表示制御部56へ順次出力する。これにより、CPU51は、ディスプレイ67に運動映像を表示する。ナレーションデータのパスを含むレコードが検索された場合、CPU51は、パスに対応するナレーションデータの再生を開始する。これにより、CPU51は、スピーカ64によりナレーションを出力させる。効果音データのパスを含むレコードが検索された場合、CPU51は、パスに対応する効果音データの再生を開始する。これにより、CPU51は、スピーカ64により効果音を出力させる。コーラスデータのパスを含むレコードが検索された場合、CPU51は、パスに対応するコーラスデータの再生を開始する。歌詞データのパスを含むレコードが検索された場合、CPU51は、パスに対応する歌詞データに基づいて、歌詞のテロップをディスプレイ67に表示する。タイトル画像データのパスを含むレコードが検索された場合、CPU51は、パスに対応するタイトル画像データに基づいて、タイトル画像をディスプレイ67に表示する。楽曲データの再生が終了すると、CPU51は、再生処理を終了させる。   When the reproduction of the music data is started, the CPU 51 updates the time elapsed from the reproduction start time of the music data as the current reproduction position of the music as needed. Each time the playback position is updated, the CPU 51 searches for a record including the current playback position from the exercise information. The CPU 51 performs processing according to the retrieved record. For example, when a record including a path of motion data is searched, the CPU 51 starts playback of a motion video based on motion data corresponding to the path. At this time, the CPU 51 sequentially generates still images of the main operation and sequentially outputs the still images to the display control unit 56. Next, the CPU 51 sequentially generates still images for the back-joining operation, and sequentially outputs the still images to the display control unit 56. As a result, the CPU 51 displays the motion video on the display 67. When a record including a narration data path is found, the CPU 51 starts reproducing the narration data corresponding to the path. As a result, the CPU 51 causes the speaker 64 to output a narration. When a record including a sound effect data path is searched, the CPU 51 starts to reproduce sound effect data corresponding to the path. As a result, the CPU 51 causes the speaker 64 to output a sound effect. When a record including a path of chorus data is searched, the CPU 51 starts reproduction of chorus data corresponding to the path. When a record including a path of lyrics data is searched, the CPU 51 displays a telop of lyrics on the display 67 based on the lyrics data corresponding to the path. When a record including the title image data path is searched, the CPU 51 displays the title image on the display 67 based on the title image data corresponding to the path. When the reproduction of the music data ends, the CPU 51 ends the reproduction process.

以上説明したように、本実施形態によれば、CPU51が、楽曲を構成する複数の演奏パートの何れかの演奏パートに割り当てる候補となる専用運動動作の部品IDを検索する。また、CPU51が、検索された専用運動動作の部品IDの繋ぎ属性に一致する繋ぎ属性に対応する汎用運動動作の部品IDを、専用運動動作の部品IDが割り当て候補として検索された演奏パートの前に出力される演奏パート及び専用運動動作の部品IDが割り当候補として検索された演奏パートの次に出力される演奏パートの少なくとも何れかの割り当て候補として検索する。そのため、運動動作の繋がりが自然になるように各演奏パートに専用の運動動作の部品IDと汎用の運動動作の部品IDとを自動的に割り当てることができる。   As described above, according to the present embodiment, the CPU 51 searches for a part ID of a dedicated exercise motion that is a candidate to be assigned to any one of a plurality of performance parts constituting a music piece. Further, the CPU 51 uses the general exercise motion component ID corresponding to the connection attribute that matches the connection attribute of the searched dedicated exercise motion component ID as the candidate for assignment of the dedicated motion motion component ID before the performance part. The performance part to be output and the part ID of the dedicated motor movement are searched as assignment candidates of at least one of the performance parts output next to the performance part searched as the assignment candidate. Therefore, a dedicated motion motion component ID and a general motion motion component ID can be automatically assigned to each performance part so that the connection of motion motion becomes natural.

次に、変形例について説明する。上記実施形態においては、出力端末5は、演奏順が1番目の演奏パートから演奏順に各演奏パートの割り当て候補となる部品IDを検索していた。しかしながら、出力端末5は、楽曲を構成する複数の演奏パートのうち専用運動動作の部品IDを割り当て可能な演奏パートの全てに対して先に割り当て候補となる専用運動動作の部品IDを検索してもよい。そして、出力端末5は、専用運動動作の部品IDが検索された演奏パートの前に出力される演奏パート、及び、専用運動動作の部品IDが検索された演奏パートの次に出力される演奏パートのうち、専用運動動作の部品IDが検索されなかった演奏パートの割り当て候補として、汎用運動動作の部品IDを検索してもよい。このとき、出力端末5は、専用運動動作の前繋ぎ属性と一致する後繋ぎ属性を有する汎用運動動作の部品IDを、専用運動動作の部品IDが検索された演奏パートの前に出力される演奏パートの割り当て候補として検索する。また、出力端末5は、専用運動動作の後繋ぎ属性と一致する前繋ぎ属性を有する汎用運動動作の部品IDを、専用運動動作の部品IDが検索された演奏パートの次に出力される演奏パートの割り当て候補として検索する。   Next, a modified example will be described. In the above embodiment, the output terminal 5 searches for the component IDs that are candidates for assignment of each performance part from the first performance part in the performance order. However, the output terminal 5 searches for a part ID of a dedicated exercise motion that is a candidate for assignment to all of the performance parts that can be assigned a part ID of a dedicated motion motion among a plurality of performance parts constituting the music. Also good. Then, the output terminal 5 outputs the performance part output before the performance part for which the part ID of the dedicated exercise motion is searched, and the performance part output next to the performance part for which the part ID of the dedicated motion movement is searched. Among them, the part ID of the general exercise motion may be searched as a candidate for assigning a performance part for which the component ID of the dedicated motion motion has not been searched. At this time, the output terminal 5 outputs the part ID of the general motion motion having the back connection attribute that matches the front connection attribute of the dedicated motor motion before the performance part for which the part ID of the dedicated motor motion is searched. Search as part assignment candidates. Further, the output terminal 5 outputs the performance ID that is output next to the performance part for which the component ID of the dedicated motion motion is retrieved, with the component ID of the general motion motion having the front link attribute that matches the post-connection attribute of the dedicated motion motion. Search as a candidate for assignment.

次に、図3(A)及び図3(B)に示す部品テーブルを用いた場合の部品リストの生成方法について説明する。運動テンポは128BPMであり、運動ジャンルは有酸素運動であるとする。先ず、出力端末5は、演奏パート1〜8の中から、専用運動動作の部品IDを割り当て可能な演奏パートを全て検索する。具体的に、出力端末5は、各演奏パートについて、演奏パートの属性と一致する属性に対応する専用運動動作の部品IDを専用部品テーブルから検索する。出力端末5が演奏パートの属性と一致する属性に対応する専用運動動作の部品IDが専用部品テーブルに格納されていると判定した場合、その演奏パートに専用運動動作の部品IDが割り当て可能である。出力端末5が演奏パートの属性と一致する属性に対応する専用運動動作の部品IDが専用部品テーブルに格納されていないと判定した場合、その演奏パートに専用運動動作の部品IDは割り当て可能ではない。属性として、例えば演奏パート種別、拍数等がある。演奏パート2及び5に、専用運動動作1及び2の部品IDを割り当て可能である。その他の演奏パートについては、割り当て可能な専用運動動作の部品IDはない。出力端末5は、2番目と5番目の列に専用運動動作1の部品IDを格納した行を含む部品リスト表を生成する。   Next, a method for generating a parts list when the parts table shown in FIGS. 3A and 3B is used will be described. The exercise tempo is 128 BPM and the exercise genre is aerobic exercise. First, the output terminal 5 searches the performance parts 1 to 8 for all performance parts to which a part ID for dedicated exercise motion can be assigned. Specifically, the output terminal 5 searches the dedicated component table for the component ID of the dedicated movement corresponding to the attribute that matches the attribute of the performance part for each performance part. When the output terminal 5 determines that the component ID of the dedicated motion operation corresponding to the attribute that matches the attribute of the performance part is stored in the dedicated component table, the component ID of the dedicated motion operation can be assigned to the performance part. . When the output terminal 5 determines that the part ID of the dedicated motion motion corresponding to the attribute that matches the attribute of the performance part is not stored in the dedicated part table, the part ID of the dedicated motion motion cannot be assigned to the performance part. . Attributes include, for example, performance part type and beat number. The performance IDs 2 and 5 can be assigned with the part IDs of the dedicated movements 1 and 2. For the other performance parts, there is no part ID for dedicated motion that can be assigned. The output terminal 5 generates a parts list table including rows in which the part IDs of the dedicated motion motion 1 are stored in the second and fifth columns.

次に、出力端末5は、例えば、演奏パート1の割り当て候補を検索する。演奏パート2の割り当て候補である専用運動動作1の部品IDの前繋ぎ属性IDと汎用運動動作1−1の部品IDの後繋ぎ属性IDが一致する。そこで、出力端末5は、部品リスト表の1番目の列に汎用運動動作1−1の部品IDを格納する。次に、出力端末5は、例えば、演奏パート3の割り当て候補を検索する。演奏パート2の割り当て候補である専用運動動作1の部品IDの後繋ぎ属性IDと汎用運動動作3−1の部品IDの部品IDの前繋ぎ属性IDが一致する。そこで、出力端末5は、部品リスト表の3番目の列に汎用運動動作3−1の部品IDを格納する。次に、出力端末5は、例えば、演奏パート4の割り当て候補を検索する。演奏パート5の割り当て候補である専用運動動作1の部品IDの前繋ぎ属性IDと汎用運動動作4−1の部品IDの後繋ぎ属性IDが一致する。また、汎用運動動作3−1の部品IDの後繋ぎ属性IDと汎用運動動作4−1の部品IDの前繋ぎ属性IDが一致する。そこで、出力端末5は、部品リスト表の4番目の列に汎用運動動作4−1の部品IDを格納する。次に、出力端末5は、例えば、演奏パート6の割り当て候補を検索する。演奏パート6の演奏パート種別は演奏パート3の演奏パート種別と一致する。また、演奏パート5の割り当て候補である専用運動動作1の部品IDの後繋ぎ属性IDと、演奏パート3の割り当て候補である汎用運動動作3−1の部品IDの前繋ぎ属性IDが一致する。そこで、出力端末5は、部品リスト表の6番目の列に汎用運動動作3−1の部品IDを格納する。出力端末5は、演奏パート7及び8についても同様に割り当て候補を検索する。   Next, the output terminal 5 searches for allocation candidates for the performance part 1, for example. The front connection attribute ID of the part ID of the dedicated exercise motion 1 that is a candidate for the performance part 2 matches the rear connection attribute ID of the component ID of the general motion operation 1-1. Therefore, the output terminal 5 stores the component ID of the general exercise operation 1-1 in the first column of the component list table. Next, the output terminal 5 searches for allocation candidates for the performance part 3, for example. The succeeding attribute ID of the part ID of the dedicated movement action 1 that is a candidate for the performance part 2 matches the preceding attribute ID of the part ID of the part ID of the general movement action 3-1. Therefore, the output terminal 5 stores the component ID of the general motion operation 3-1 in the third column of the component list table. Next, the output terminal 5 searches for allocation candidates for the performance part 4, for example. The front connection attribute ID of the part ID of the dedicated movement motion 1 that is a candidate for the performance part 5 matches the rear connection attribute ID of the part ID of the general movement movement 4-1. Further, the back-join attribute ID of the component ID of the general exercise motion 3-1 matches the front link attribute ID of the component ID of the general exercise motion 4-1. Therefore, the output terminal 5 stores the component ID of the general exercise operation 4-1 in the fourth column of the component list table. Next, the output terminal 5 searches for allocation candidates for the performance part 6, for example. The performance part type of performance part 6 matches the performance part type of performance part 3. Further, the post-connection attribute ID of the part ID of the dedicated exercise action 1 that is an assignment candidate of the performance part 5 matches the front connection attribute ID of the part ID of the general-purpose exercise action 3-1 that is an assignment candidate of the performance part 3. Therefore, the output terminal 5 stores the component ID of the general exercise operation 3-1 in the sixth column of the component list table. The output terminal 5 similarly searches for allocation candidates for the performance parts 7 and 8.

なお、上記実施形態においては、本発明の情報処理装置が出力端末5に適用されていた。しかしながら、本発明の情報処理装置が配信サーバ2に適用されてもよい。例えば、配信サーバ2が、部品リストや運動情報を生成してもよい。また、配信サーバ2が、運動情報に基づいて、音声データ及び動画データを生成してもよい。この場合の音声データは、楽曲、ナレーション、効果音、コーラス等を出力するためのデータである。また、動画データは、運動映像、歌詞等を表示するためのデータである。運動レッスンが行われるとき、配信サーバ2は、音声データ及び動画データを、例えばストリーミング方式で出力端末5に送信する。これにより、配信サーバ2は、出力端末5により楽曲を出力させ、且つ、運動映像を表示させる。また、本発明の情報処理装置が出力端末5及び配信サーバ2に適用されてもよい。そして、出力端末5及び配信サーバ2は協働して処理を行ってもよい。   In the above embodiment, the information processing apparatus of the present invention is applied to the output terminal 5. However, the information processing apparatus of the present invention may be applied to the distribution server 2. For example, the distribution server 2 may generate a parts list and exercise information. Further, the distribution server 2 may generate audio data and moving image data based on the exercise information. The audio data in this case is data for outputting music, narration, sound effects, chorus, and the like. The moving image data is data for displaying exercise videos, lyrics, and the like. When the exercise lesson is performed, the distribution server 2 transmits the audio data and the moving image data to the output terminal 5 by, for example, a streaming method. As a result, the distribution server 2 causes the output terminal 5 to output the music and display the motion video. Further, the information processing apparatus of the present invention may be applied to the output terminal 5 and the distribution server 2. The output terminal 5 and the distribution server 2 may perform processing in cooperation.

1 運動コンテンツ生成システム
2 配信サーバ
3 データベース
5 出力端末
7 HDD
51 CPU
56 表示制御部
63 音声出力部
1 Exercise content generation system 2 Distribution server 3 Database 5 Output terminal 7 HDD
51 CPU
56 Display Control Unit 63 Audio Output Unit

Claims (5)

複数の演奏パートで構成される楽曲を示す楽曲情報を記憶する第1記憶手段と、
前記楽曲に専用の運動動作を示す第1動作情報と、前記第1動作情報の繋ぎ属性を示す第1繋ぎ属性情報とを対応付けて記憶する第2記憶手段と、
様々な楽曲で行うことができる複数の汎用の運動動作を示す複数の第2動作情報と、前記複数の動作情報の繋ぎ属性を示す第2繋ぎ属性情報とを対応付けて記憶する第3記憶手段と、
前記複数の演奏パートの何れかの演奏パートに割り当てる候補となる前記第1動作情報を前記第2記憶手段から検索する第1検索手段と、
前記第1検索手段により検索された前記第1動作情報の前記第1繋ぎ属性情報に一致する前記第2繋ぎ属性情報に対応する前記第2動作情報を、前記第1動作情報が検索された演奏パートの前に出力される第1演奏パート及び前記第1動作情報が検索された演奏パートの次に出力される第2演奏パートの少なくとも何れかに割り当てる候補として前記第3記憶手段から検索する第2検索手段と、
前記第1検索手段及び前記第2検索手段の検索結果に基づいて、前記楽曲情報が出力されるときに行われる複数の運動動作を示すリスト情報を生成する生成手段と、
を備えることを特徴とする情報処理装置。
First storage means for storing music information indicating music composed of a plurality of performance parts;
Second storage means for storing first motion information indicating exercise motion dedicated to the music and first connection attribute information indicating a connection attribute of the first motion information in association with each other;
Third storage means for storing a plurality of second movement information indicating a plurality of general-purpose movements that can be performed with various music pieces and a second connection attribute information indicating a connection attribute of the plurality of movement information in association with each other. When,
First search means for searching the first storage information from the second storage means for candidates to be assigned to any one of the plurality of performance parts;
The second action information corresponding to the second connection attribute information that matches the first connection attribute information of the first action information searched by the first search means is used as the performance for which the first action information is searched. A search is made from the third storage means as a candidate to be assigned to at least one of the first performance part output before the part and the second performance part output next to the performance part for which the first motion information is searched. 2 search means;
Generating means for generating list information indicating a plurality of exercise operations performed when the music information is output based on the search results of the first search means and the second search means;
An information processing apparatus comprising:
前記第1検索手段は、前記複数の演奏パートのうち最初に出力される演奏パートに割り当て可能な前記第1動作情報を検索し、
前記第1検索手段により前記第1動作情報が検索されたかを判定する判定手段を更に備え、
前記第1検索手段は、前記判定手段により前記第1動作情報が検索されたと判定されなかった場合、前記最初に出力される演奏パートに割り当て可能な前記第2動作情報を前記第3記憶手段から検索し、
前記第2検索手段は、前記第1検索手段により検索された前記第1動作情報の前記第1繋ぎ属性情報又は前記第2動作情報の前記第2繋ぎ属性情報に一致する前記第2繋ぎ属性情報に対応する前記第2動作情報を、前記最初に出力される演奏パートの次に出力される演奏パートに割り当てる候補として検索することを特徴とする請求項1に記載の情報処理装置。
The first search means searches for the first motion information that can be assigned to a performance part that is output first among the plurality of performance parts,
A determination unit for determining whether the first operation information has been searched by the first search unit;
If the determination means does not determine that the first action information has been searched, the first search means stores from the third storage means the second action information that can be assigned to the performance part that is output first. Search
The second search means includes the second connection attribute information that matches the first connection attribute information of the first action information searched by the first search means or the second connection attribute information of the second action information. The information processing apparatus according to claim 1, wherein the second motion information corresponding to is searched as a candidate to be assigned to a performance part that is output next to the performance part that is output first.
前記第1検索手段は、前記複数の演奏パートのうち前記第1動作情報を割り当て可能な演奏パートを検索し、
前記第2検索手段は、前記第1演奏パート及び前記第2演奏パートのうち前記第1検索手段により検索されなかった演奏パートに割り当てる候補として、前記第1検索手段により検索された前記第1動作情報の前記第1繋ぎ属性情報に一致する前記第2繋ぎ属性情報に対応する前記第2動作情報を検索することを特徴とする請求項1に記載の情報処理装置。
The first search means searches for a performance part to which the first motion information can be assigned among the plurality of performance parts,
The second search means is the first action searched by the first search means as a candidate to be assigned to a performance part that is not searched by the first search means among the first performance part and the second performance part. The information processing apparatus according to claim 1, wherein the second operation information corresponding to the second connection attribute information that matches the first connection attribute information of information is searched.
前記第1動作情報及び前記複数の第2動作情報に対応付けて、運動動作をサポートするナレーションを示すナレーション情報と、前記運動動作の開始から何拍前に前記ナレーション情報を出力するかを示す拍情報とを記憶する第4記憶手段と、
前記第4記憶手段に記憶された前記拍情報に基づいて、前記楽曲情報が出力されているときの前記ナレーション情報の出力のタイミングであって、前記生成手段により生成された前記リスト情報が示す前記複数の運動動作に対応する前記ナレーション情報の出力のタイミングを示すタイミング情報を生成する第2生成手段と、
を更に備えることを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
Corresponding to the first motion information and the plurality of second motion information, the narration information indicating narration that supports the motor motion, and the beat indicating the number of beats before the start of the motor motion is output. Fourth storage means for storing information;
The timing of outputting the narration information when the music information is output based on the beat information stored in the fourth storage means, and the list information generated by the generating means indicates the timing Second generation means for generating timing information indicating the timing of output of the narration information corresponding to a plurality of movements;
The information processing apparatus according to claim 1, further comprising:
複数の演奏パートで構成される楽曲を示す楽曲情報を記憶する第1記憶手段に記憶された前記楽曲情報が示す前記楽曲に専用の運動動作を示す第1動作情報と、前記第1動作情報の繋ぎ属性を示す第1繋ぎ属性情報とを対応付けて記憶する第2記憶手段から、前記複数の演奏パートの何れかの演奏パートに割り当てる候補となる前記第1動作情報を検索する第1検索ステップと、
様々な楽曲で行うことができる複数の汎用の運動動作を示す複数の第2動作情報と、前記複数の動作情報の繋ぎ属性を示す第2繋ぎ属性情報とを対応付けて記憶する第3記憶手段から、前記第1検索ステップにより検索された前記第1動作情報の前記第1繋ぎ属性情報に一致する前記第2繋ぎ属性情報に対応する前記第2動作情報を、前記第1動作情報が検索された演奏パートの前に出力される第1演奏パート及び前記第1動作情報が検索された演奏パートの次に出力される第2演奏パートの少なくとも何れかに割り当てる候補として検索する第2検索ステップと、
前記第1検索ステップ及び前記第2検索ステップの検索結果に基づいて、前記楽曲情報が出力されるときに行われる複数の運動動作を示すリスト情報を生成する生成ステップと、
をコンピュータに実行させることを特徴とするプログラム。
First motion information indicating exercise motion dedicated to the music indicated by the music information stored in the first storage means for storing music information indicating the music composed of a plurality of performance parts, and the first motion information A first search step of searching for the first motion information that is a candidate to be assigned to any one of the plurality of performance parts from the second storage means that stores the first connection attribute information indicating the connection attributes in association with each other. When,
Third storage means for storing a plurality of second movement information indicating a plurality of general-purpose movements that can be performed with various music pieces and a second connection attribute information indicating a connection attribute of the plurality of movement information in association with each other. The first motion information is searched for the second motion information corresponding to the second connection attribute information that matches the first connection attribute information of the first motion information searched in the first search step. A second search step for searching as candidates to be assigned to at least one of the first performance part output before the performance part and the second performance part output after the performance part for which the first motion information has been searched; ,
A generation step of generating list information indicating a plurality of exercise operations performed when the music information is output based on search results of the first search step and the second search step;
A program that causes a computer to execute.
JP2013149907A 2013-07-18 2013-07-18 Information processing apparatus and program Expired - Fee Related JP5949688B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013149907A JP5949688B2 (en) 2013-07-18 2013-07-18 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013149907A JP5949688B2 (en) 2013-07-18 2013-07-18 Information processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2015019821A JP2015019821A (en) 2015-02-02
JP5949688B2 true JP5949688B2 (en) 2016-07-13

Family

ID=52484827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013149907A Expired - Fee Related JP5949688B2 (en) 2013-07-18 2013-07-18 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5949688B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106227840A (en) * 2016-07-26 2016-12-14 广东小天才科技有限公司 Song search method and device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5049819B2 (en) * 2008-02-28 2012-10-17 株式会社エクシング Exercise support apparatus and computer program
JP2009201799A (en) * 2008-02-28 2009-09-10 Xing Inc Exercise supporting apparatus, exercise supporting method, and computer program
JP5318465B2 (en) * 2008-05-29 2013-10-16 株式会社エクシング Exercise support apparatus and computer program
JP5606673B2 (en) * 2008-12-09 2014-10-15 ブラザー工業株式会社 Apparatus, music display method, and program
JP5625417B2 (en) * 2010-03-19 2014-11-19 ブラザー工業株式会社 Exercise support device, exercise support method and program
JP5397394B2 (en) * 2011-02-17 2014-01-22 ブラザー工業株式会社 Exercise support device, exercise support method and program

Also Published As

Publication number Publication date
JP2015019821A (en) 2015-02-02

Similar Documents

Publication Publication Date Title
JP5706718B2 (en) Movie synthesis system and method, movie synthesis program and storage medium thereof
JP2014010275A (en) Information processing device, information processing method, and program
JP5949688B2 (en) Information processing apparatus and program
JP2014128409A (en) Information processor, information processing method and program
JP5949687B2 (en) Information processing apparatus and program
JP5954287B2 (en) Information processing apparatus and program
JP5954288B2 (en) Information processing apparatus and program
JP5949638B2 (en) Information processing apparatus and program
JP5943020B2 (en) Information processing apparatus and program
JP5949824B2 (en) Information processing apparatus and program
JP6163755B2 (en) Information processing apparatus, information processing method, and program
JP5246232B2 (en) Exercise support device, exercise support method and program
JP5942914B2 (en) Information processing apparatus and program
JP5928361B2 (en) Information processing apparatus, information processing method, and program
JP6361430B2 (en) Information processing apparatus and program
JP6048136B2 (en) Information processing apparatus, information processing method, and program
JP5939217B2 (en) Information processing apparatus, information processing system, and program
JP6287921B2 (en) Information processing apparatus and program
JP5954314B2 (en) Information processing apparatus and program
JP5958389B2 (en) Information processing apparatus and program
JP5949808B2 (en) Information processing apparatus and program
JP2014046018A (en) Information processor, information processing method, and program
JP5939218B2 (en) Information processing apparatus and program
JP6447563B2 (en) Information processing apparatus and program
JP5928257B2 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160523

R150 Certificate of patent or registration of utility model

Ref document number: 5949688

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees