JP5949688B2 - Information processing apparatus and program - Google Patents
Information processing apparatus and program Download PDFInfo
- Publication number
- JP5949688B2 JP5949688B2 JP2013149907A JP2013149907A JP5949688B2 JP 5949688 B2 JP5949688 B2 JP 5949688B2 JP 2013149907 A JP2013149907 A JP 2013149907A JP 2013149907 A JP2013149907 A JP 2013149907A JP 5949688 B2 JP5949688 B2 JP 5949688B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- motion
- exercise
- performance
- performance part
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、ユーザが楽曲を聴きながら行う運動を支援するための運動コンテンツを出力する技術分野に関する。 The present invention relates to a technical field of outputting exercise content for supporting exercise performed by a user while listening to music.
従来、楽曲を構成する複数の演奏パートのそれぞれに運動動作を割り当てる技術が知られている。例えば、特許文献1には、演奏パートの種類に応じた運動種類の運動動作を、演奏パートに割り当てる技術が開示されている。
2. Description of the Related Art Conventionally, a technique for assigning an exercise motion to each of a plurality of performance parts constituting a music is known. For example,
運動コンテンツの生成を効率化するために、各演奏パートに割り当てる運動動作を、予め用意されている複数の運動動作の中から自動的に決定することが考えられる。このとき、楽曲ごとに運動に特徴を持たせるため、楽曲専用の運動動作と汎用の運動動作とを自動的に組み合わせたいという要望がある。しかしながら、従来の技術では、各演奏パートに合う運動動作を割り当てることはできるものの、専用の運動動作と汎用の運動動作との繋がりについては考慮されていなかった。そのため、運動動作の繋がりに違和感のある運動コンテンツが生成されてしまう場合があった。 In order to increase the efficiency of the generation of exercise content, it is conceivable to automatically determine the exercise operation assigned to each performance part from a plurality of exercise operations prepared in advance. At this time, there is a demand for automatically combining a motion motion dedicated to music and a general motion motion in order to give each music a characteristic in motion. However, in the conventional technique, although a motion motion suitable for each performance part can be assigned, the connection between a dedicated motion motion and a general motion motion has not been considered. For this reason, there is a case in which exercise content having a sense of incongruity in the connection of exercise motion is generated.
本発明は、以上の点に鑑みてなされたものであり、運動動作の繋がりが自然になるように各演奏パートに専用の運動動作と汎用の運動動作とを自動的に割り当てることを可能とする情報処理装置及びプログラムを提供することを課題とする。 The present invention has been made in view of the above points, and makes it possible to automatically assign a dedicated motion motion and a general motion motion to each performance part so that the connection of the motion motion becomes natural. It is an object to provide an information processing apparatus and a program.
上記課題を解決するために、請求項1に記載の発明は、複数の演奏パートで構成される楽曲を示す楽曲情報を記憶する第1記憶手段と、前記楽曲に専用の運動動作を示す第1動作情報と、前記第1動作情報の繋ぎ属性を示す第1繋ぎ属性情報とを対応付けて記憶する第2記憶手段と、様々な楽曲で行うことができる複数の汎用の運動動作を示す複数の第2動作情報と、前記複数の動作情報の繋ぎ属性を示す第2繋ぎ属性情報とを対応付けて記憶する第3記憶手段と、前記複数の演奏パートの何れかの演奏パートに割り当てる候補となる前記第1動作情報を前記第2記憶手段から検索する第1検索手段と、前記第1検索手段により検索された前記第1動作情報の前記第1繋ぎ属性情報に一致する前記第2繋ぎ属性情報に対応する前記第2動作情報を、前記第1動作情報が検索された演奏パートの前に出力される第1演奏パート及び前記第1動作情報が検索された演奏パートの次に出力される第2演奏パートの少なくとも何れかに割り当てる候補として前記第3記憶手段から検索する第2検索手段と、前記第1検索手段及び前記第2検索手段の検索結果に基づいて、前記楽曲情報が出力されるときに行われる複数の運動動作を示すリスト情報を生成する生成手段と、を備えることを特徴とする。
In order to solve the above-mentioned problem, the invention according to
請求項2に記載の発明は、前記第1検索手段は、前記複数の演奏パートのうち最初に出力される演奏パートに割り当て可能な前記第1動作情報を検索し、前記第1検索手段により前記第1動作情報が検索されたかを判定する判定手段を更に備え、前記第1検索手段は、前記判定手段により前記第1動作情報が検索されたと判定されなかった場合、前記最初に出力される演奏パートに割り当て可能な前記第2動作情報を前記第3記憶手段から検索し、前記第2検索手段は、前記第1検索手段により検索された前記第1動作情報の前記第1繋ぎ属性情報又は前記第2動作情報の前記第2繋ぎ属性情報に一致する前記第2繋ぎ属性情報に対応する前記第2動作情報を、前記最初に出力される演奏パートの次に出力される演奏パートに割り当てる候補として検索することを特徴とする。 According to a second aspect of the present invention, the first search means searches for the first action information that can be assigned to a performance part that is output first among the plurality of performance parts, and the first search means determines the first movement information. And determining means for determining whether or not the first motion information has been searched, wherein the first search means performs the first performance output when the determination means does not determine that the first motion information has been searched. The second motion information that can be assigned to a part is searched from the third storage means, and the second search means is the first connection attribute information of the first motion information searched by the first search means or the Candidates for assigning the second action information corresponding to the second connection attribute information that matches the second connection attribute information of the second action information to the performance part that is output next to the performance part that is output first. And characterized in that the search.
請求項3に記載の発明は、前記第1検索手段は、前記複数の演奏パートのうち前記第1動作情報を割り当て可能な演奏パートを検索し、前記第2検索手段は、前記第1演奏パート及び前記第2演奏パートのうち前記第1検索手段により検索されなかった演奏パートに割り当てる候補として、前記第1検索手段により検索された前記第1動作情報の前記第1繋ぎ属性情報に一致する前記第2繋ぎ属性情報に対応する前記第2動作情報を検索することを特徴とする。 According to a third aspect of the present invention, the first search means searches for a performance part to which the first action information can be assigned among the plurality of performance parts, and the second search means searches for the first performance part. And the second performance part that matches the first connection attribute information of the first motion information searched by the first search means as a candidate to be assigned to the performance parts not searched by the first search means. The second motion information corresponding to the second connection attribute information is searched.
請求項4に記載の発明は、前記第1動作情報及び前記複数の第2動作情報に対応付けて、運動動作をサポートするナレーションを示すナレーション情報と、前記運動動作の開始から何拍前に前記ナレーション情報を出力するかを示す拍情報とを記憶する第4記憶手段と、前記第4記憶手段に記憶された前記拍情報に基づいて、前記楽曲情報が出力されているときの前記ナレーション情報の出力のタイミングであって、前記生成手段により生成された前記リスト情報が示す前記複数の運動動作に対応する前記ナレーション情報の出力のタイミングを示すタイミング情報を生成する第2生成手段と、を更に備えることを特徴とする。 According to a fourth aspect of the present invention, there is provided narration information indicating narration supporting exercise motion in association with the first motion information and the plurality of second motion information, and how many beats before the start of the motion motion Fourth storage means for storing beat information indicating whether or not to output narration information; and based on the beat information stored in the fourth storage means, the narration information when the music information is output Second generation means for generating timing information indicating the output timing of the narration information corresponding to the plurality of exercise operations indicated by the list information generated by the generation means; It is characterized by that.
請求項5に記載の発明は、複数の演奏パートで構成される楽曲を示す楽曲情報を記憶する第1記憶手段に記憶された前記楽曲情報が示す前記楽曲に専用の運動動作を示す第1動作情報と、前記第1動作情報の繋ぎ属性を示す第1繋ぎ属性情報とを対応付けて記憶する第2記憶手段から、前記複数の演奏パートの何れかの演奏パートに割り当てる候補となる前記第1動作情報を検索する第1検索ステップと、様々な楽曲で行うことができる複数の汎用の運動動作を示す複数の第2動作情報と、前記複数の動作情報の繋ぎ属性を示す第2繋ぎ属性情報とを対応付けて記憶する第3記憶手段から、前記第1検索ステップにより検索された前記第1動作情報の前記第1繋ぎ属性情報に一致する前記第2繋ぎ属性情報に対応する前記第2動作情報を、前記第1動作情報が検索された演奏パートの前に出力される第1演奏パート及び前記第1動作情報が検索された演奏パートの次に出力される第2演奏パートの少なくとも何れかに割り当てる候補として検索する第2検索ステップと、前記第1検索ステップ及び前記第2検索ステップの検索結果に基づいて、前記楽曲情報が出力されるときに行われる複数の運動動作を示すリスト情報を生成する生成ステップと、をコンピュータに実行させることを特徴とする。 According to a fifth aspect of the present invention, there is provided a first operation indicating a dedicated motion operation for the music indicated by the music information stored in a first storage means for storing music information indicating a music composed of a plurality of performance parts. The second storage means for storing information and first connection attribute information indicating the connection attribute of the first motion information in association with each other, the first to be a candidate to be assigned to any one of the plurality of performance parts. A first search step for searching for motion information, a plurality of second motion information indicating a plurality of general-purpose motions that can be performed with various music pieces, and a second connection attribute information indicating a connection attribute of the plurality of motion information The second operation corresponding to the second connection attribute information that matches the first connection attribute information of the first operation information searched in the first search step from the third storage means for storing the information in association with each other. Information before As a candidate to be assigned to at least one of the first performance part output before the performance part for which the first motion information has been searched and the second performance part output after the performance part for which the first motion information has been searched. A second search step for searching, and a generation step for generating list information indicating a plurality of exercise operations performed when the music information is output based on the search results of the first search step and the second search step And making the computer execute.
請求項1又は5に記載の発明によれば、演奏パートに割り当てられた専用の運動動作の繋ぎ属性と一致する繋ぎ属性を有する汎用の運動動作が、専用の運動動作が割り当てられた演奏パートの前の演奏パート、及び、専用の運動動作が割り当てられた演奏パートの次の演奏パートの少なくとも何れかに割り当てられる。そのため、運動動作の繋がりが自然になるように各演奏パートに専用の運動動作と汎用の運動動作とを自動的に割り当てることができる。
According to the invention described in
請求項2に記載の発明によれば、演奏パートの出力順に運動動作を割り当てることができる。 According to the second aspect of the present invention, it is possible to assign exercise motions in the order of output of performance parts.
請求項3に記載の発明によれば、多くの演奏パートに専用の運動動作を割り当てることができる。 According to the third aspect of the present invention, dedicated movements can be assigned to many performance parts.
請求項4に記載の発明によれば、運動動作に対応するナレーションを運動動作の開始に先立って出力することができる。 According to the fourth aspect of the present invention, it is possible to output narration corresponding to the motion motion prior to the start of the motion motion.
以下、本発明の実施形態を図面に基づいて説明する。なお、以下に説明する実施の形態は、運動を支援するための運動コンテンツを生成する運動コンテンツ生成システムに本発明を適用した場合の実施形態である。運動コンテンツは、運動を支援するための映像及び音声を含む。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, embodiment described below is embodiment at the time of applying this invention to the exercise content production | generation system which produces | generates the exercise content for supporting exercise. The exercise content includes video and audio for supporting exercise.
[1.運動コンテンツ生成システム1の構成]
始めに、図1を参照して、本実施形態の運動コンテンツ生成システム1の構成について説明する。図1は、本実施形態の運動コンテンツ生成システム1の概要構成例を示す図である。図1に示すように、運動コンテンツ生成システム1は、配信サーバ2と1つ以上の出力端末5とを含んで構成されている。配信サーバ2と出力端末5とは、ネットワーク10を介して接続可能になっている。ネットワーク10は、例えば、インターネットを含む。配信サーバ2には、データベース3が接続されている。データベース3には、運動に関する情報や楽曲に関する情報が登録されている。配信サーバ2は、データベース3に登録されている情報等を、定期的に又は出力端末5からの要求に応じて出力端末5に配信する。
[1. Configuration of Exercise Content Generation System 1]
First, the configuration of the exercise
出力端末5は、例えば、施設4に設置される端末装置である。出力端末5は、本発明の情報処理装置の一例である。出力端末5は、施設4の利用者41により利用される。施設4は、例えば、スポーツ施設であってもよい。利用者41は、スポーツ施設において、運動レッスンを受ける。運動レッスンは、複数の運動動作と歌唱により構成されるレッスンである。この場合の出力端末5は、例えばパーソナルコンピュータであってもよい。
The
出力端末5は、モニタ57と接続可能である。モニタ57は、複数のスピーカ64とディスプレイ67とを備える表示装置であってもよい。この場合、出力端末5は、ディスプレイ67と接続可能である。また、出力端末5は、スピーカ64と接続可能である。出力端末5がモニタ57へ音声信号を出力することにより、スピーカ64により楽曲等が出力される。出力端末5がモニタ57へ映像信号を出力することにより、ディスプレイ67に運動映像等が表示される。運動映像は、動作を行うフィギュア83を映し出した動画である。フィギュア83は、例えば、人、動物、仮想上の生き物、ロボット等のかたちをした仮想物である。フィギュア83は、三次元仮想空間に配置される。出力端末5は、スピーカ64から出力される楽曲と、ディスプレイ67に表示されるフィギュア83の動きとが同期するように、信号を出力する。楽曲と運動映像とを出力することは、運動コンテンツを出力することの一例である。利用者41は、楽曲を聴きながら、ディスプレイ67に表示されるフィギュア83を見て、運動を行うことができる。操作者42は、リモコン66等を用いて出力端末5を操作することができる。利用者41と操作者42とは同一人物であってもよい。施設4がスポーツ施設である場合、操作者42は、例えば、インストラクターであってもよい。
The
[2.演奏パートに対する運動動作の割り当て]
運動レッスンが行われるときにモニタ57が出力する運動コンテンツは、少なくとも楽曲と運動映像とを含む。また、運動コンテンツは、ナレーション、効果音等を含んでもよい。ナレーション及び効果音の詳細については後述する。楽曲は、複数の演奏パートで構成される。スピーカ64から、楽曲の構成に従った演奏パートの順で楽曲が出力される。演奏パートが出力される順序を演奏順という。各演奏パートは、例えば、前奏、Aメロ、Bメロ、サビ、間奏又は後奏等であってもよい。なお、1つの運動レッスンで複数の楽曲が順次スピーカ64から出力されてもよい。楽曲を構成する各演奏パートに、それぞれ運動動作が割り当てられる。運動動作は、例えば、身体を鍛えるための動作である。運動動作として、例えば、体操の動作と踊りの動作とがある。体操は、例えば、健康の増進、体力の増強、筋力の強化等のために行われる運動である。体操の種類として、例えば、有酸素運動、無酸素運動、ストレッチ等がある。踊りの動作は、楽曲に合わせて踊るために楽曲に対して振り付けられた動作である。出力端末5は、運動コンテンツを出力するとき、スピーカ64により出力されている演奏パートに割り当てられた運動動作をフィギュア83が行う運動映像をディスプレイ67に表示させる。
[2. Assignment of motor movement to performance part]
The exercise content output by the
図1に示すように、データベース3には、モーションデータが登録されている。モーションデータは、三次元仮想空間におけるフィギュア83の運動動作を定義するデータである。また、モーションデータは、ディスプレイ67に表示されるフィギュア83に運動動作をさせるためのデータである。モーションデータは、運動動作の進行に応じたフィギュア83の身体の各部の座標を含む。具体的には、モーションデータには、時系列に沿って、運動動作の進行に応じたフィギュア83の身体部位の座標が含まれる。時系列に沿って、フィギュア83の身体部位が、モーションデータに従って表示されることで、所定の運動動作を実行するフィギュア83の映像が、ディスプレイ67に表示される。本実施形態において、出力端末5は、運動映像としてフィギュア83の三次元画像をディスプレイ67に表示させる。しかしながら、出力端末5は、フィギュア83の二次元画像を表示させてもよい。出力端末5は、データベース3に登録されている複数のモーションデータを識別可能なモーションIDの中から、各演奏パートに割り当てるモーションIDを自動的に決定する。なお、モーションIDには、所定の属性を示す属性情報が対応付けられて、所定の記憶手段に記憶される。
As shown in FIG. 1, motion data is registered in the
運動動作の中には、専用運動動作と汎用運動動作とがある。専用運動動作は、所定の楽曲に専用の運動動作である。つまり、専用運動動作は、所定の楽曲が出力される場合に行うことができる運動動作である。専用運動動作は、例えば、所定の楽曲に合った特有の動作を含んでもよい。例えば、専用運動動作は、所定の楽曲に対応する踊りの動作を含んでもよい。データベース3には、例えば楽曲ごとに、対応する専用運動動作のモーションデータが登録されてもよい。汎用運動動作は、様々な楽曲で行うことができる運動動作である。出力端末5は、楽曲を構成する複数の演奏パートに、専用運動動作と汎用運動動作とを含む複数の運動動作を割り当てることができる。これにより、楽曲ごとに運動に特徴を持たせることができる。その一方で、楽曲を構成する複数の演奏パートの少なくとも1つに対して専用運動動作のモーションデータを作成すればよい。そのため、モーションデータの作成の負担を軽減することができる。
There are two types of exercise motions: dedicated motion motions and general motion motions. The dedicated motion motion is a motion motion dedicated to a predetermined music piece. That is, the dedicated exercise operation is an exercise operation that can be performed when predetermined music is output. The dedicated movement operation may include, for example, a specific operation that matches a predetermined music piece. For example, the dedicated exercise motion may include a dance motion corresponding to a predetermined music piece. In the
モーションIDの属性と、楽曲及び演奏パートの属性とが合えば、基本的にはモーションIDをその演奏パートに割り当てることができる。モーションIDの属性として、例えば、運動動作の長さを示す拍数、割り当て可能な演奏パートの種別、運動動作のテンポ等がある。楽曲の属性として、例えばテンポ等がある。演奏パートの属性として、例えば拍数、演奏パートの種別等がある。しかしながら、上述したように、汎用運動動作のモーションデータは、様々な楽曲に利用可能なように作成される。そのため、連続する運動動作同士の繋がりが考慮されていないと、運動動作の繋がりに違和感のある運動コンテンツが生成される。例えば、前奏にマーチのモーションIDが割り当てられ、前奏の次に演奏されるAメロに、スクワットのモーションIDが割り当てられたとする。この場合、ディスプレイ67に表示されるフィギュア83は、前奏でマーチの動作を行う。その後、前奏からAメロに演奏が切り替わると、フィギュア83の動作がマーチから急にスクワットに切り替わる。表示されるフィギュア83を見ながら運動する利用者41は、マーチからスクワットへ運動動作を自然に移行させることが難しい場合がある。
If the attributes of the motion ID match the attributes of the music piece and the performance part, basically the motion ID can be assigned to the performance part. As attributes of the motion ID, for example, there are the number of beats indicating the length of the motion, the type of performance part that can be assigned, the tempo of the motion, and the like. As an attribute of the music, for example, there is a tempo. The performance part attributes include, for example, the number of beats and the performance part type. However, as described above, the motion data of the general exercise motion is created so that it can be used for various musical pieces. For this reason, if the connection between consecutive motor movements is not taken into consideration, the motor content with a sense of incongruity in the connection of motor movements is generated. For example, a March motion ID is assigned to the prelude, and a squat motion ID is assigned to the A melody played after the prelude. In this case, the figure 83 displayed on the
専用運動動作と汎用運動動作とを組み合わせる場合にも同様の問題がある。仮に、楽曲を構成する複数の演奏パートの全てに専用運動動作のモーションIDを割り当てるとするならば、専用運動動作同士が自然に繋がるように、専用運動動作のモーションデータを予め作成すればよい。しかしながら、専用運動動作と汎用運動動作とを組み合わせる場合には、専用運動動作と汎用運動動作との繋がりを考慮する必要がある。 There is a similar problem when combining a dedicated motion motion and a general motion motion. If a motion ID of a dedicated exercise motion is assigned to all of the plurality of performance parts constituting the music, motion data of the dedicated exercise motion may be created in advance so that the dedicated exercise motions are naturally connected. However, when combining the dedicated motion motion and the general motion motion, it is necessary to consider the connection between the dedicated motion motion and the general motion motion.
そこで、本実施形態では、運動動作が自然に繋がるように、各モーションデータを示すモーションIDに対して繋ぎ属性が定義される。なお、本実施形態は、モーションIDと対応付けられた部品IDに対して繋ぎ属性が定義された例を用いて説明する。なお、部品IDではなく、モーションIDに対して繋ぎ属性が定義されていても良い。例えば、前繋ぎ動作、メイン動作及び後繋ぎ動作を順次実行するフィギュア83の映像が表示されるように、各モーションデータが予め作成されてもよい。メイン動作は、モーションデータの中で主に行われる動作である。例えば、メイン動作の拍数は、前繋ぎ動作及び後繋ぎ動作の拍数よりも長い。専用運動動作の場合、メイン動作の中に楽曲専用の動作が含まれる。汎用運動動作の場合、メイン動作は汎用的な動作である。前繋ぎ動作は、モーションデータを示す部品IDまたはモーションIDが割り当てられた演奏パートの前の演奏順の演奏パートが出力されているときの最後の部分で行われる運動動作である。後繋ぎ動作は、モーションデータを示す部品IDまたはモーションIDが割り当てられた演奏パートの最後の部分で行われる運動動作である。専用運動動作及び汎用運動動作の何れの場合でも、前繋ぎ動作及び後繋ぎ動作は、汎用的な動作である。メイン動作の拍数と後繋ぎ動作の拍数の合計は、部品IDを割り当て可能な演奏パートの拍数に一致する。繋ぎ属性は、部品IDの属性の一種である。また、繋ぎ属性はモーションIDの属性の一種であっても良い。繋ぎ属性として、前繋ぎ属性と後繋ぎ属性とがある。前繋ぎ属性は、前繋ぎ動作の内容を示す。後繋ぎ属性は、後繋ぎ動作の内容を示す。例えば、前繋ぎ動作がマーチであり、メイン動作がフロントランジであり、後繋ぎ動作がステップであるとする。この場合、前繋ぎ属性はマーチを示し、後繋ぎ属性はステップを示す。 Therefore, in the present embodiment, a connection attribute is defined for the motion ID indicating each motion data so that the motion is naturally connected. This embodiment will be described using an example in which a connection attribute is defined for a component ID associated with a motion ID. Note that a connection attribute may be defined for the motion ID instead of the component ID. For example, each motion data may be created in advance so that an image of the figure 83 that sequentially executes the front connection operation, the main operation, and the back connection operation is displayed. The main operation is an operation mainly performed in the motion data. For example, the number of beats of the main operation is longer than the number of beats of the front connection operation and the back connection operation. In the case of a dedicated exercise operation, the main operation includes an operation dedicated to music. In the case of a general motion operation, the main operation is a general motion. The pre-joining operation is an exercise operation performed in the last part when a performance part in the order of performance is output before a performance part to which a part ID indicating motion data or a motion ID is assigned. The post-joining operation is an exercise operation performed at the last part of the performance part to which the component ID indicating the motion data or the motion ID is assigned. In both cases of the dedicated motion operation and the general motion operation, the front joint operation and the back joint operation are general motions. The sum of the number of beats of the main operation and the number of beats of the connecting operation matches the number of beats of the performance part to which the component ID can be assigned. The connection attribute is a kind of component ID attribute. The connection attribute may be a kind of attribute of motion ID. As connection attributes, there are a front connection attribute and a back connection attribute. The previous connection attribute indicates the content of the previous connection operation. The back connection attribute indicates the content of the back connection operation. For example, assume that the front joining operation is a march, the main operation is a front lunge, and the back joining operation is a step. In this case, the front connection attribute indicates a march, and the rear connection attribute indicates a step.
前繋ぎ動作とメイン動作とが自然に繋がるように、且つ、メイン動作と後繋ぎ動作とが自然に繋がるように、モーションデータが作成される。例えば、インストラクター等の体に、三次元空間における身体部位の座標を取得するための加速度センサを装着させる。例えば、手首、肘、肩、足の付け根、膝、足首等に加速度センサが装着される。インストラクター等は、前繋ぎ動作、メイン動作及び後繋ぎ動作で構成される運動動作を行う。加速度センサが検出する加速度の情報に基づいて、例えば所定の装置が、運動動作が行われるときの各身体部位の座標を所定時間間隔で取得する。そして、取得された座標に基づいて、モーションデータが作成される。所定の装置は、例えば、出力端末5や配信サーバ2等であってもよい。
Motion data is created so that the front connection operation and the main operation are naturally connected, and the main operation and the back connection operation are naturally connected. For example, an acceleration sensor for acquiring the coordinates of a body part in a three-dimensional space is attached to a body such as an instructor. For example, acceleration sensors are attached to wrists, elbows, shoulders, bases of feet, knees, ankles, and the like. An instructor or the like performs an exercise operation composed of a front connecting operation, a main operation, and a rear connecting operation. Based on the acceleration information detected by the acceleration sensor, for example, a predetermined device acquires the coordinates of each body part when exercise motion is performed at predetermined time intervals. Then, based on the acquired coordinates, motion data is created. The predetermined device may be, for example, the
図2(A)は、フロントランジAという運動動作の構成例を示す図である。フロントランジAは、例えば汎用運動動作である。フロントランジAの前繋ぎ動作、メイン動作及び後繋ぎ動作は、それぞれマーチ、フロントランジ及びステップである。フロントランジAは、64拍の演奏パート用の運動動作である。図2(A)の例では、メイン動作のフロントランジの拍数は60であり、前繋ぎ動作のマーチ及び後繋ぎ動作のステップの拍数はそれぞれ4である。なお、前繋ぎ動作及び後繋ぎ動作の拍数は何拍であってもよい。また、前繋ぎ動作、メイン動作及び後繋ぎ動作は互いに異なる運動動作であってもよい。また、前繋ぎ動作、メイン動作及び後繋ぎ動作のうち少なくとも2つの運動動作が同一の運動動作であってもよい。楽曲を構成する複数の演奏パートのうち演奏順が1番目の演奏パートに割り当てられる部品IDが示すモーションデータは、メイン動作と後繋ぎ動作のみの映像が表示されるように作成されてもよい。また、最後に演奏される演奏パートに割り当てられる部品IDが示すモーションデータは、前繋ぎ動作とメイン動作のみの映像が表示されるように作成されてもよい。 FIG. 2A is a diagram showing a configuration example of a motion operation called front lunge A. FIG. The front lunge A is, for example, a general motion operation. The front connecting operation, main operation, and rear connecting operation of the front lunge A are a march, a front lunge, and a step, respectively. Front lunge A is a motion action for a performance part of 64 beats. In the example of FIG. 2A, the number of beats of the front lunge of the main operation is 60, and the number of beats of the step of the front joint operation and the step of the back joint operation is 4, respectively. Note that the number of beats of the front connecting operation and the rear connecting operation may be any number of beats. Further, the front connecting operation, the main operation, and the rear connecting operation may be different motion operations. In addition, at least two of the front connection operation, the main operation, and the rear connection operation may be the same exercise operation. The motion data indicated by the component ID assigned to the first performance part among the plurality of performance parts constituting the music piece may be created so that only the main operation and the back connection operation are displayed. Also, the motion data indicated by the component ID assigned to the performance part to be played last may be created so that only the video of the front connection operation and the main operation is displayed.
出力端末5は、先ず演奏順が1番目の演奏パートに割り当て可能な部品IDを1番目の演奏パートの割り当て候補として検索する。具体的に、出力端末5は、1番目の演奏パートの属性に一致する属性を有する部品IDを検索する。次いで、出力端末5は、2番目の演奏パートに割り当て可能な部品IDを2番目の演奏パートの割り当て候補として検索する。このとき、出力端末5は、繋ぎ属性を考慮する。具体的に、出力端末5は、1番目の演奏パートに割り当て可能な部品IDの後繋ぎ属性と一致する前繋ぎ属性を有する部品IDであって、且つ、2番目の演奏パートの属性に一致する属性を有する部品IDを検索する。次いで、出力端末5は、3番目の演奏パートに割り当て可能な部品IDを3番目の演奏パートの割り当て候補として検索する。具体的に、出力端末5は、2番目の演奏パートに割り当て可能な部品IDの後繋ぎ属性と一致する前繋ぎ属性を有する部品IDであって、且つ、3番目の演奏パートの属性に一致する属性を有する部品IDを検索する。出力端末5は、4番目以降の演奏パートについても、同様に部品IDを検索する。
The
各演奏パートに対して割り当て可能な部品IDを検索するとき、出力端末5は、先ず専用運動動作の部品IDの中から割り当て可能な部品IDを割り当て候補として検索する。割り当て可能な専用運動動作の部品IDがない場合、出力端末5は、次に汎用運動動作の部品IDの中から割り当て可能な部品IDを割り当て候補として検索する。つまり、出力端末5は、専用運動動作の部品IDを優先的に割り当てる。具体的に、出力端末5は、演奏パートの属性と一致する属性に対応する専用運動動作の部品IDを検索する。専用運動動作の部品IDが検索された場合、出力端末5は、検索された専用運動動作の部品IDを演奏パートに割り当てる。専用運動動作の部品IDが検索されなかった場合、出力端末5は、演奏パートの属性と一致する属性に対応する汎用運動動作の部品IDを検索する。そして、出力端末5は、検索された汎用運動動作の部品IDを演奏パートに割り当てる。
When searching for a part ID that can be assigned to each performance part, the
出力端末5は、各演奏パートに対する部品IDの検索結果に基づいて、部品リストを生成する。部品リストは、運動レッスンの構成を定めた情報である。具体的に、部品リストは、楽曲を構成する複数の演奏パートに合う複数の部品IDを示す。部品リストには、演奏パートごとに、演奏パートID及び部品ID等が格納される。演奏パートIDは、演奏パートの識別情報である。例えば、演奏パートIDは、楽曲を構成する複数の演奏パートの中から識別する演奏パートの演奏順を示してもよい。部品IDは、モーションデータを識別する識別情報である。例えば、部品IDにより運動動作が識別される。部品IDと、部品IDが割り当てられた演奏パートの演奏パートIDとが対応付けられて部品リストに格納される。部品IDは、本発明における第1動作情報及び第2動作情報の一例である。例えば部品IDの代わりに、モーションIDまたはモーションデータが本発明の第1動作情報及び第2動作情報として用いられてもよい。
The
図2(B)は、部品IDの割り当て例を示す図である。図2(B)において、或る楽曲は、演奏パート1〜3を含む。演奏パート1は演奏順が1番目の演奏パートであり、演奏パート2は演奏順が2番目の演奏パートであり、演奏パート3は演奏順が3番目の演奏パートである。演奏パート1の拍数は32拍である。出力端末5は、演奏パート1に対して、例えばマーチBのモーションIDと対応付けられた部品IDを割り当てる。マーチBは32拍の運動動作である。マーチBのメイン動作及び後繋ぎ動作は何れもマーチである。従って、マーチBの部品IDの後繋ぎ属性はマーチを示す。演奏パート2の拍数は64拍である。出力端末5は、64拍の運動動作を示すモーションIDと対応付けられた部品IDのうち前繋ぎ属性がマーチを示す部品IDを演奏パート2に割り当てる。例えば、図2(A)に示すフロントランジAの部品IDが割り当てられる。マーチBの後繋ぎ動作であるマーチと、フロントランジAの前繋ぎ動作であるマーチとは基本的に同一の動作である。演奏パート3の拍数は32拍である。フロントランジAの後繋ぎ属性はステップを示す。出力端末5は、32拍の運動動作を示すモーションIDと対応付けられた部品IDのうち前繋ぎ属性がステップを示す部品IDを演奏パート2に割り当てる。例えば、スクワットCのモーションIDと対応付けられた部品IDが割り当てられる。スクワットCの前繋ぎ動作及びメイン動作はそれぞれステップ及びスクワットである。フロントランジAの後繋ぎ動作であるステップと、スクワットCの前繋ぎ動作であるステップとは基本的に同一の動作である。
FIG. 2B is a diagram illustrating an example of component ID assignment. In FIG. 2B, a certain musical piece includes
図2(B)が示す割り当て結果に基づいて運動コンテンツが生成されたとする。この場合、運動コンテンツの出力中、演奏パート1の32拍が出力されている間、出力端末5は、マーチBのモーションデータに基づいて、フィギュア83がマーチを行う映像をディスプレイ67に表示させる。なお、演奏パート1の最後の4拍の間、出力端末5は、フロントランジAのモーションデータに基づいて、マーチを行う映像をディスプレイ67に表示させてもよい。また、加速度センサを用いる等により人間の実際の動作からモーションデータを生成した場合、マーチBの後繋ぎ動作のマーチと、フロントランジAの前繋ぎ動作のマーチとにずれが生じる場合がある。そこで、出力端末5は、両方のモーションデータを用いて、マーチBの後繋ぎ動作のマーチとフロントランジAの前繋ぎ動作のマーチとの中間的な動作を行う映像をディスプレイ67に表示させてもよい。
Assume that exercise content is generated based on the assignment result shown in FIG. In this case, while the exercise content is being output, while the 32 beats of the
次いで、演奏パート2の最初の60拍が出力されているとき、出力端末5は、フロントランジAのモーションデータに基づいて、フロントランジを行う映像を表示させる。演奏パート1から演奏パート2に切り替わるとき、マーチからフロントランジに自然に繋がるように、フィギュア83が表示される。その理由は、マーチBの部品IDの後繋ぎ属性とフロントランジAの部品IDの前繋ぎ属性とが同じマーチを示すからである。フロントランジAのメイン動作であるフロントランジをフィギュア83が開始するとき、前繋ぎ動作であるマーチからメイン動作であるフロントランジに自然に繋がるように、フロントランジAのモーションデータが予め作成されている。演奏パート2の最後の4拍が出力されているとき、出力端末5は、例えばフロントランジAのモーションデータに基づいて、ステップを行う映像を表示させる。次いで、演奏パート3が出力されているとき、出力端末5は、スクワットCのモーションデータに基づいて、スクワットを行う映像を表示させる。フロントランジからステップに切り替わるとき、及び、ステップからスクワットに切り替わるとき、自然に繋がるようにフィギュア83が表示される。こうして、フロントランジAからスクワットCへ運動動作が自然に繋がる。
Next, when the first 60 beats of the
次に、部品IDの割り当て及び部品リストの生成に用いられる情報について説明する。部品リストを生成するため、出力端末5のHDD(ハードディスクドライブ)7には、汎用部品テーブル、専用部品テーブル、繋ぎ動作テーブル、運動ジャンルテーブル等が記憶される。図3(A)は、汎用部品テーブルの構成例を示す図である。部品テーブルは、部品の属性及び繋ぎ属性等を定義するテーブル情報である。汎用部品テーブルは、汎用運動動作に対応する部品テーブルである。汎用部品テーブルには、部品ID、部品名、演奏パート種別、拍数、運動テンポ、前繋ぎ属性ID、後繋ぎ属性ID、ジャンルID、モーションID、ナレーションタイミングID、効果音タイミングID等が、汎用運動動作の部品IDごとに格納される。
Next, information used for assigning a component ID and generating a component list will be described. In order to generate the parts list, the HDD (hard disk drive) 7 of the
部品IDは、モーションデータを識別可能な識別情報である。部品名は、モーションデータが示す運動動作の名称である。例えば、図3(A)において、汎用1−1という部品名は汎用運動動作1−1を表している。演奏パート種別は、部品IDを割り当て可能な演奏パートの種類である。図3(A)では、演奏パート種別として例えばptype1〜5等が格納される。例えば、ptype1は前奏、ptype2はAメロ+サビ、ptype3は間奏、ptype4はAメロ+Bメロ、ptype5は後奏であってもよい。拍数は、運動動作の長さを示す。 The component ID is identification information that can identify motion data. The part name is a name of the motion motion indicated by the motion data. For example, in FIG. 3A, the component name of general purpose 1-1 represents the general purpose motion operation 1-1. The performance part type is a type of performance part to which a component ID can be assigned. In FIG. 3A, for example, ptypes 1 to 5 are stored as performance part types. For example, ptype1 may be a prelude, ptype2 may be an A melody + rust, ptype3 may be an interlude, ptype4 may be an A melody + B melody, and ptype5 may be a posterior. The beat number indicates the length of the movement.
運動テンポは、運動動作を行うテンポである。例えば、運動テンポは予め複数定められている。例えば、所定の拍数の間隔で運動テンポが定められてもよい。図3(A)の例では、128BPMに対応するモーションデータ、144BPMに対応するモーションデータ等が登録されていることが、部品テーブルにより示されている。複数の運動テンポのうち何れかの運動テンポでフィギュア83が運動動作する映像が表示されるように、各モーションデータは予め作成される。データベース3には、複数の運動テンポのそれぞれに対応するモーションデータが演奏パート種別ごとに登録される。部品テーブルには、モーションデータに対応する運動テンポが格納される。
The exercise tempo is a tempo at which an exercise operation is performed. For example, a plurality of exercise tempos are predetermined. For example, the exercise tempo may be determined at intervals of a predetermined number of beats. In the example of FIG. 3A, the parts table indicates that motion data corresponding to 128 BPM, motion data corresponding to 144 BPM, and the like are registered. Each motion data is created in advance so that an image in which the figure 83 exercises at any one of a plurality of exercise tempos is displayed. In the
前繋ぎ属性IDは、前繋ぎ属性を示す識別情報である。後繋ぎ属性IDは、後繋ぎ属性を示す識別情報である。図3(C)は、繋ぎ動作テーブルの構成例を示す図である。繋ぎ動作テーブルは、繋ぎ属性を定義するテーブル情報である。繋ぎ動作テーブルには、繋ぎ動作IDが格納される。図3(C)では、繋ぎ動作IDとして例えばc1〜c5等が格納される。例えば、c1はマーチであり、c2はステップであり、c3は構えであり、c4はスクワットであり、c5は直立である。汎用部品テーブルに格納される前繋ぎ属性ID及び後繋ぎ属性IDは、それぞれ本発明における第2繋ぎ属性情報の一例である。なお、1つの部品IDに対して、例えば複数の前繋ぎ属性ID又は複数の後繋ぎ属性IDが対応付けて格納されてもよい。 The front connection attribute ID is identification information indicating the front connection attribute. The back connection attribute ID is identification information indicating a back connection attribute. FIG. 3C is a diagram illustrating a configuration example of the splicing operation table. The splicing operation table is table information that defines splicing attributes. In the splicing operation table, splicing operation IDs are stored. In FIG. 3C, for example, c1 to c5 are stored as the connection operation ID. For example, c1 is a march, c2 is a step, c3 is a stance, c4 is a squat, and c5 is upright. The front connection attribute ID and the back connection attribute ID stored in the general-purpose component table are examples of second connection attribute information in the present invention. For example, a plurality of front connection attribute IDs or a plurality of back connection attribute IDs may be stored in association with one component ID.
ジャンルIDは、運動動作が属する運動のジャンルの識別情報である。図3(D)は、運動ジャンルテーブルの構成例を示す図である。運動ジャンルテーブルは、運動ジャンルを定義するテーブル情報である。運動ジャンルテーブルには、ジャンルIDが格納される。図3(D)では、ジャンルIDとして例えばj1、j2等が格納される。例えば、j1は有酸素運動であり、j2は調整運動である。汎用部品テーブルに格納されるモーションIDは、汎用運動動作のモーションデータの識別情報である。部品IDとモーションIDは基本的に一対一で対応する。部品テーブルには、例えば、部品IDとモーションIDのうち何れか一方のみが格納されてもよい。ナレーションタイミングID及び効果音タイミングIDについては後述する。 The genre ID is identification information of the genre of the exercise to which the exercise motion belongs. FIG. 3D is a diagram illustrating a configuration example of the exercise genre table. The exercise genre table is table information that defines an exercise genre. Genre ID is stored in the exercise genre table. In FIG. 3D, for example, j1, j2, etc. are stored as genre IDs. For example, j1 is an aerobic exercise and j2 is an adjustment exercise. The motion ID stored in the general-purpose component table is identification information of motion data of general-purpose exercise motion. The component ID and the motion ID basically correspond one to one. For example, only one of a component ID and a motion ID may be stored in the component table. The narration timing ID and sound effect timing ID will be described later.
図3(B)は、専用部品テーブルの構成例を示す図である。専用部品テーブルは、専用運動動作に対応する部品テーブルである。専用部品テーブルには、部品ID、部品名、楽曲ID、演奏パート種別、拍数、運動テンポ、前繋ぎ属性ID、後繋ぎ属性ID、ジャンルID、モーションID、ナレーションタイミングID、効果音タイミングID等が、専用運動動作の部品IDごとに格納される。楽曲IDは、専用運動動作が対応する楽曲の識別情報である。専用部品テーブルに格納されるモーションIDは、専用運動動作のモーションデータの識別情報である。その他の情報については、汎用部品テーブルに格納される情報と同様である。専用部品テーブルに格納される前繋ぎ属性ID及び後繋ぎ属性IDは、それぞれ本発明における第1繋ぎ属性情報の一例である。なお、1つの部品IDに対して、例えば複数の前繋ぎ属性ID又は複数の後繋ぎ属性IDが対応付けて格納されてもよい。 FIG. 3B is a diagram illustrating a configuration example of the dedicated component table. The dedicated parts table is a parts table corresponding to a dedicated motion operation. The dedicated part table includes a part ID, a part name, a music ID, a performance part type, a beat number, an exercise tempo, a front connection attribute ID, a rear connection attribute ID, a genre ID, a motion ID, a narration timing ID, a sound effect timing ID, and the like. Are stored for each part ID of the dedicated motion operation. The music ID is identification information of the music to which the dedicated exercise motion corresponds. The motion ID stored in the dedicated component table is identification information of motion data of the dedicated motion operation. Other information is the same as the information stored in the general-purpose component table. The front connection attribute ID and the back connection attribute ID stored in the dedicated component table are examples of first connection attribute information in the present invention. For example, a plurality of front connection attribute IDs or a plurality of back connection attribute IDs may be stored in association with one component ID.
次に、図3(A)及び図3(B)に示す部品テーブルを用いた場合の部品リストの生成方法について説明する。図4(A)は、楽曲の構成例を示す図である。図4(A)に示すように、楽曲Xは演奏パート1〜8で構成されている。出力端末5は、楽曲のテンポに基づいて、運動コンテンツを再生するときの運動テンポを決定する。楽曲は運動テンポに従って出力され、ディスプレイ67には、運動テンポに従って運動動作するフィギュア83が表示される。上述したように、予め定められた複数の運動テンポのそれぞれに対応するモーションデータが登録されている。出力端末5は、複数の運動テンポのうち楽曲のテンポに最も近いテンポを、運動コンテンツの再生に用いる運動テンポに決定する。例えば16BPMの倍数で運動テンポが定義されており、楽曲Xのテンポが125BPMであるとする。この場合、128BPMが、運動コンテンツの再生に用いられる運動テンポとして決定される。また、運動ジャンルが決定される。例えば、操作者42が運動ジャンルを選択してもよいし、出力端末5が運動ジャンルを決定してもよい。運動ジャンルとして、例えば有酸素運動が選択されたとする。
Next, a method for generating a parts list when the parts table shown in FIGS. 3A and 3B is used will be described. FIG. 4A is a diagram illustrating a configuration example of a music piece. As shown in FIG. 4A, the music piece X is composed of performance parts 1-8. The
図4(B)〜図4(G)は、部品リスト表の更新過程の一例を示す図である。部品リスト表は、生成中の部品リストを1又は複数格納するテーブル情報である。部品リスト表の各行の情報が部品リストに相当する。部品リスト表の各列は演奏パートに対応する。出力端末5は、部品テーブルから、演奏パート1の属性及び楽曲Xの属性に一致する属性に対応する部品IDを検索する。部品テーブルから部品IDを検索することは、部品IDが示すモーションデータをHDD7から検索することである。演奏パートの属性は演奏パート種別及び拍数であり、演奏パート1の演奏パート種別及び拍数は、ptype1及び32である。また、楽曲の属性はテンポ及び運動ジャンルであり、楽曲Xのテンポ及び運動ジャンルは、128BPM及び有酸素運動である。従って、出力端末5は、部品テーブルから、ptype1、32拍、128BPM及び有酸素運動に対応する部品IDを割り当て候補の部品IDとして検索する。このとき、出力端末5は、先ず専用部品テーブルから検索を行う。しかしながら、専用部品テーブルには、ptype1、32拍、128BPM及び有酸素運動に対応する部品IDが格納されていない。そのため、出力端末5は、次に汎用部品テーブルから検索を行う。汎用部品テーブルには、ptype1、32拍、128BPM及び有酸素運動に対応する部品IDとして、汎用運動動作1−1〜1−3の部品IDが格納されている。出力端末5は、演奏パート1と検索された部品IDとを対応付けた部品リスト表を生成する。図4(B)は、演奏パート1の割り当て候補の部品IDを格納した部品リスト表の一例である。図4(B)に示すように、部品リスト表の1〜3行目の1番目の列に、汎用運動動作1−1〜1−3の部品IDが格納される。
4B to 4G are diagrams illustrating an example of the update process of the parts list table. The parts list table is table information for storing one or more parts lists being generated. Information on each line of the parts list table corresponds to a parts list. Each column of the parts list table corresponds to a performance part. The
演奏パート2の演奏パート種別及び拍数は、ptype2及び64である。従って、出力端末5は、先ず専用部品テーブルから、ptype2、64拍、128BPM及び有酸素運動に対応する部品IDを割り当て候補の部品IDとして検索する。専用部品テーブルにおいて、専用運動動作1の部品IDが、ptype2、64拍、128BPM及び有酸素運動に対応する。このとき、出力端末5は、汎用運動動作1−1〜1−3の後繋ぎ属性IDと一致する前繋ぎ属性IDに対応する部品IDを、それぞれ専用部品テーブルから検索する。汎用運動動作1−1の後繋ぎ属性IDと、専用運動動作1の前繋ぎ属性IDが一致する。そこで、出力端末5は、汎用運動動作1−1の部品IDを格納する行の2番目の列に、専用運動動作1の部品IDを格納する。汎用運動動作1−2の後繋ぎ属性IDと一致する前繋ぎ属性IDに対応する部品IDはない。汎用運動動作1−3の後繋ぎ属性IDと一致する前繋ぎ属性IDに対応する部品IDはない。そのため、出力端末5は、汎用運動動作1−2及び運動動作1−3の部品IDを格納するそれぞれの行を部品リスト表から削除する。すると、図4(C)に示すように部品リスト表が更新される。
The performance part type and the number of beats of
演奏パート3の演奏パート種別及び拍数は、ptype3及び32である。従って、出力端末5は、部品テーブルから、ptype3、32拍、128BPM及び有酸素運動に対応する部品IDを割り当て候補の部品IDとして検索する。このとき、出力端末5は、専用運動動作1の後繋ぎ属性IDと一致する前繋ぎ属性IDに対応する部品IDを部品テーブルから検索する。専用部品テーブルには、ptype3、32拍、128BPM及び有酸素運動に対応する部品IDが格納されていない。汎用部品テーブルには、ptype3、32拍、128BPM及び有酸素運動に対応する部品IDとして、汎用運動動作3−1及び3−2の部品IDが格納されている。専用運動動作1の後繋ぎ動作IDと、汎用運動動作3−1の前繋ぎ動作IDが一致する。専用運動動作1の後繋ぎ動作IDと、汎用運動動作3−2の前繋ぎ動作IDは一致しない。そこで、出力端末5は、専用運動動作1の部品IDを格納する行の3番目の列に、汎用運動動作3−1の部品IDを格納する。すると、図4(D)に示すように部品リスト表が更新される。
The performance part type and the number of beats of
演奏パート4の演奏パート種別及び拍数は、ptype4及び32である。従って、出力端末5は、部品テーブルから、ptype4、32拍、128BPM及び有酸素運動に対応する部品IDを検索する。このとき、出力端末5は、汎用運動動作3−1の後繋ぎ属性IDと一致する前繋ぎ属性IDに対応する部品IDを部品テーブルから検索する。専用部品テーブルには、ptype4、32拍、128BPM及び有酸素運動に対応する部品IDが格納されていない。汎用部品テーブルには、ptype4、32拍、128BPM及び有酸素運動に対応する部品IDとして、汎用運動動作4−1及び4−2の部品IDが格納されている。汎用運動動作3−1の後繋ぎ属性IDと、汎用運動動作4−1及び4−2の前繋ぎ属性IDが一致する。そこで、出力端末5は、汎用運動動作1−1、専用運動動作1及び汎用運動動作3−1の部品IDを格納する行を部品リスト表に1つ追加する。出力端末5は、2つの行のうち一方の行の2番目の列に、汎用運動動作4−1の部品IDを格納する。また、出力端末5は、2つの行のうち他方の行の2番目の列に、汎用運動動作4−2の部品IDを格納する。すると、図4(E)に示すように部品リスト表が更新される。
The performance part type and the number of beats of the
演奏パート5の演奏パート種別及び拍数は、ptype2及び32である。ptype2は、演奏パート2の演奏パート種別でもある。つまり、演奏パート5と演奏パート種別が同一である演奏パートに対して、割り当て候補の部品IDが既に検索済みである。この場合、出力端末5は、検索済みの部品IDのみが割り当て候補に決定されるようにする。つまり、出力端末5は、種別が同じ演奏パートが出力されているとき、同じ運動動作が行われるようにする。その理由は、利用者41に同じ運動動作を繰り返し行わせることにより、運動動作の上達を促進するためである。具体的に、演奏パート2の割り当て候補の前繋ぎ属性IDが、演奏パート4の割り当て候補の後繋ぎ属性IDと一致する場合にのみ、出力端末5は、演奏パート2の割り当て候補を、演奏パート5の割り当て候補に決定する。なお、出力端末5は、前繋ぎ属性IDが、演奏パート4の割り当て候補の後繋ぎ属性IDと一致する部品IDのうち演奏パート2の割り当て候補とは異なる部品IDを、演奏パート5の割り当て候補に決定してもよい。
The performance part type and the number of beats of
部品リスト表の1番目の行には、汎用運動動作1−1、専用運動動作1、汎用運動動作3−1、汎用運動動作4−1の部品IDが格納されている。汎用運動動作4−1の後繋ぎ属性IDと専用運動動作1の前繋ぎ属性IDは一致する。そこで、出力端末5は、部品リスト表における1番目の行の5番目の列に、専用運動動作1の部品IDを格納する。部品リスト表の2番目の行には、汎用運動動作1−1、専用運動動作1、汎用運動動作3−1、汎用運動動作4−2の部品IDが格納されている。汎用運動動作4−2の後繋ぎ属性IDと専用運動動作1の前繋ぎ属性IDは一致しない。そこで、出力端末5は、2番目の行を削除する。すると、図4(F)に示すように部品リスト表が更新される。
The first row of the parts list table stores the component IDs of general-purpose motion operation 1-1,
出力端末5は、演奏パート6〜8についても、これまでに説明した方法と同様の方法で、部品リスト表を更新する。すると、図4(G)に示すように部品リスト表が更新される。こうして、楽曲Xを構成する複数の演奏パートに合う複数の運動動作を示す部品リストが生成される。図4(G)に示す部品リスト表の行数は1行である。従って、1つの部品リストが生成されたことになる。部品リスト表の行数が複数行である場合、複数の部品リストが生成されたことになる。この場合、例えば、運動コンテンツの再生に用いる部品リストをユーザが選択してもよいし、出力端末5が自動的に選択してもよい。
The
[3.ナレーション、効果音の出力タイミング]
出力端末5は、運動コンテンツに、利用者41の運動動作をサポートするナレーションや効果音等の音声を含めることができる。ナレーションにより、例えば、運動動作が説明されたり、身体の動かし方が指示されたりする。効果音は、例えば運動動作するときの人間の動きに合わせて出力される音等であってもよい。例えば、パンチの動作に合わせて、拳が物に当たる音や拳が風を切る音等が出力されてもよい。また、効果音は、例えば手拍子の音、拍手の音、歓声等であってもよい。
[3. Narration and sound effect output timing]
The
出力端末5のHDD7には、ナレーションデータ、効果音データ、ナレーションタイミングファイル及び効果音タイミングファイルが記憶される。ナレーションデータは、ナレーションを出力するための音声データである。効果音データは効果音を出力するための音声データである。ナレーションタイミングファイルは、ナレーションの出力タイミングを示すファイルである。ナレーションタイミングファイルは、本発明における拍情報の一例である。効果音タイミングファイルは、効果音の出力タイミングを示すファイルである。運動動作に対応したナレーションデータ、効果音データ、ナレーションタイミングファイル及び効果音タイミングファイルが運動動作ごとに予め作成される。
The HDD 7 of the
図3(E)は、ナレーションタイミングファイルの内容の一例を示す図である。ナレーションタイミングファイルには、拍数とナレーションデータのパスとが対応付けて設定される。拍数は、対応する演奏パートの出力が開始されてから、ナレーションの出力が開始されるまでに経過する拍の数である。拍数が0である場合、出力端末5は、対応する演奏パートの出力の開始と同時にナレーションの出力を開始させる。拍数が正の値である場合、出力端末5は、対応する演奏パートの出力が開始した後、拍数に相当する時間が経過したときにナレーションの出力を開始させる。拍数が負の値である場合、出力端末5は、対応する演奏パートの出力が開始されるよりも拍数に相当する時間前にナレーションの出力を開始させる。負の値が設定される理由は、対応する演奏パートに割り当てられた運動動作が行われる前に、その運動動作に対応するナレーションを出力する必要があるからである。パスは、HDD7内におけるナレーションデータの所在を示す文字列である。
FIG. 3E shows an example of the contents of the narration timing file. In the narration timing file, the beat number and the narration data path are set in association with each other. The number of beats is the number of beats that elapse after the output of the corresponding performance part is started until the output of the narration is started. When the beat number is 0, the
図3(E)の例では、4つのナレーションデータが再生される。先ず、対応する演奏パートの出力の開始の8拍前にナレーションデータ1の再生が開始される。また、対応する演奏パートの出力が開始してから1拍経過後にナレーションデータ2の再生が開始される。また、対応する演奏パートの出力が開始してから9拍経過後にナレーションデータ3の再生が開始される。また、対応する演奏パートの出力が開始してから13拍経過後にナレーションデータ4の再生が開始される。
In the example of FIG. 3E, four narration data are reproduced. First, playback of
図3(F)は、効果音タイミングファイルの内容の一例を示す図である。効果音タイミングファイルには、拍数と効果音データのパスとが対応付けて設定される。拍数とパスの意味については、ナレーションタイミングファイルの場合と基本的に同様である。効果音タイミングファイルには、例えば、負の値の拍数は設定されなくてもよい。 FIG. 3F shows an example of the contents of a sound effect timing file. In the sound effect timing file, the beat number and the sound effect data path are set in association with each other. The number of beats and the meaning of the pass are basically the same as in the case of the narration timing file. For example, a negative number of beats may not be set in the sound effect timing file.
図3(A)に示す部品テーブルに格納されるナレーションタイミングIDは、運動動作に対応するナレーションタイミングファイルの識別情報である。また、部品テーブルに格納される効果音タイミングIDは、運動動作に対応する効果音タイミングファイルの識別情報である。 The narration timing ID stored in the parts table shown in FIG. 3A is identification information of a narration timing file corresponding to the motion motion. The sound effect timing ID stored in the parts table is identification information of a sound effect timing file corresponding to the exercise operation.
[4.各装置の構成]
次に、図1を参照して、運動コンテンツ生成システムに含まれる各装置の構成について説明する。
[4. Configuration of each device]
Next, the configuration of each device included in the athletic content generation system will be described with reference to FIG.
[4−1.配信サーバ2の構成]
図1に示すように、配信サーバ2は、CPU21、ROM22、RAM23、バス24、I/Oインタフェイス25、表示制御部26、ディスクドライブ28、ネットワーク通信部30及びHDD37を備える。CPU21は、バス24を介して、ROM22、RAM23及びI/Oインタフェイス25に接続されている。CPU21は、ROM22やHDD37に記憶されプログラムを実行することにより、配信サーバ2の各部を制御する。I/Oインタフェイス25には、データベース3、表示制御部26、ディスクドライブ28、ネットワーク通信部30、キーボード31、マウス32及びHDD37が接続されている。CPU21は、I/Oインタフェイス25を介してデータベース3にアクセスする。表示制御部26は、CPU21の制御に基づいて映像信号をモニタ27に出力する。ディスクドライブ28は、記録媒体29に対するデータの書き込み及び読み出しを行う。ネットワーク通信部30は、配信サーバ2がネットワーク10に接続するための制御を行う。HDD37には、OSや各種制御プログラム等が記憶されている。
[4-1. Configuration of distribution server 2]
As shown in FIG. 1, the
データベース3には、楽曲データ、モーションデータ、汎用部品テーブル、専用部品テーブル、繋ぎ動作テーブル、運動ジャンルテーブル、ナレーションデータ、ナレーションタイミングファイル、効果音データ、効果音タイミングファイル、コーラスデータ、歌詞データ、タイトル画像データ等のデータが登録されている。
楽曲データは、スピーカ64により楽曲を出力するための演奏データである。楽曲データは、例えば、MIDI(Musical Instrument Digital Interface)形式のデータであってもよい。楽曲データは、楽曲ID、楽曲名、アーティスト名、オリジナルのテンポ、楽曲の演奏パートの構成等の情報を含む。楽曲IDは、楽曲の識別情報である。また、楽曲データは、演奏パートの切り替わりのタイミング等を規定する。例えば、楽曲データがMIDI形式のデータである場合、楽曲データには、実際の演奏データとしてのMIDIイベントに加えて、メタイベントを含めることができる。メタイベントとしては、例えば、演奏パート開始イベント等がある。演奏パート開始イベントは、演奏パートの演奏開始を通知するイベントである。演奏パート開始イベントは、演奏パートのパートID、演奏パート種別、拍数等を含む。楽曲データは、本発明における楽曲情報の一例である。
The music data is performance data for outputting music from the
モーションデータはモーションIDと対応付けて登録される。なお、モーションデータは、例えば部品IDと対応付けて登録されてもよい。ナレーションデータ及び効果音データのデータ形式は、例えば、WAV(RIFF waveform Audio Format)、AAC(Advanced Audio Coding)、MP3(MPEG Audio Layer-3)等であってもよい。ナレーションタイミングファイルはナレーションタイミングIDと対応付けて登録される。効果音タイミングファイルは効果音タイミングIDと対応付けて登録される。 The motion data is registered in association with the motion ID. The motion data may be registered in association with the component ID, for example. The data format of the narration data and sound effect data may be, for example, WAV (RIFF waveform Audio Format), AAC (Advanced Audio Coding), MP3 (MPEG Audio Layer-3), or the like. The narration timing file is registered in association with the narration timing ID. The sound effect timing file is registered in association with the sound effect timing ID.
コーラスデータは、コーラスの音声を出力するための音声データである。コーラスデータは、コーラスが対応する楽曲の楽曲IDとコーラスタイミング情報とに対応付けて記憶される。コーラスタイミング情報は、コーラスの出力タイミングを示す。歌詞データは、歌詞のテロップを表示するためのデータである。歌詞データは、例えば、歌詞のテキスト、テキストの表示タイミング等を含む。歌詞データは、歌詞が対応する楽曲の楽曲IDに対応付けて記憶される。タイトル画像データは、楽曲に対応するタイトルの画像を表示するための画像データである。タイトル画像データは、タイトル画像が対応する楽曲の楽曲IDに対応付けて記憶される。 The chorus data is sound data for outputting chorus sound. The chorus data is stored in association with the song ID of the song to which the chorus corresponds and the chorus timing information. The chorus timing information indicates the output timing of the chorus. The lyrics data is data for displaying lyrics telop. The lyric data includes, for example, lyric text, text display timing, and the like. The lyric data is stored in association with the music ID of the music corresponding to the lyrics. The title image data is image data for displaying an image of a title corresponding to the music. The title image data is stored in association with the music ID of the music corresponding to the title image.
[4−2.出力端末5の構成]
図1に示すように、出力端末5は、CPU51、ROM52、RAM53、バス54、I/Oインタフェイス55、表示制御部56、ディスクドライブ58、ネットワーク通信部60、音声出力部63、信号受信部65、及びHDD7を備える。CPU51は、バス54を介して、ROM52、RAM53及びI/Oインタフェイス55に接続されている。CPU51は、時計機能及びタイマー機能を有する。CPU51は、ROM52やHDD7に記憶されプログラムを実行することにより、出力端末5の各部を制御する。I/Oインタフェイス55には、HDD7、表示制御部56、音声出力部63、ディスクドライブ58、ネットワーク通信部60、キーボード61、マウス62、及び信号受信部65が接続されている。表示制御部56は、CPU51の制御に基づいて映像信号をモニタ57に出力する。音声出力部63は、CPU51の制御に基づいて音声信号をモニタ57に出力する。ディスクドライブ58は、記録媒体59に対するデータの書き込み及び読み出しを行う。信号受信部65は、リモコン66から出力される信号を受信する。リモコン66は、操作者42が出力端末5を操作するためのものである。
[4-2. Configuration of output terminal 5]
As shown in FIG. 1, the
HDD7は、本発明の第1記憶手段、第2記憶手段、第3記憶手段及び第4記憶手段の一例である。なお、第1記憶手段、第2記憶手段、第3記憶手段及び第4記憶手段が同一の記憶デバイスであってもよいし、互いに異なる記憶デバイスであってもよい。HDD7には、配信サーバ2から配信された楽曲データ、モーションデータ、汎用部品テーブル、専用部品テーブル、繋ぎ動作テーブル、運動ジャンルテーブル、ナレーションデータ、ナレーションタイミングファイル、効果音データ、効果音タイミングファイル、コーラスデータ、歌詞データ、タイトル画像データ等のデータが記憶される。また、HDD7には、生成された部品リストが記憶される。
The HDD 7 is an example of a first storage unit, a second storage unit, a third storage unit, and a fourth storage unit of the present invention. The first storage unit, the second storage unit, the third storage unit, and the fourth storage unit may be the same storage device or may be different storage devices. In the HDD 7, music data distributed from the
HDD7には、更に、OS、運動支援プログラム、3Dエンジン、ミュージックシーケンサ等の各種プログラム等が記憶されている。運動支援プログラムは、利用者41の運動を支援するためのプログラムである。運動支援プログラムは、コンピュータとしてのCPU51に、第1検索ステップ、第2検索ステップ、生成ステップを少なくとも実行させる。3Dエンジンは、モーションデータに基づいて、三次元仮想空間で運動動作するフィギュア83を二次元平面に投影した画像を生成するためのプログラムである。画像を生成する処理は、射影変換、クリッピング、隠面消去、シェーディング、テクスチャマッピング等を含む。CPU51は、3Dエンジンを実行して、静止画像を順次生成する。生成された静止画像をCPU51が表示制御部56へ順次出力することで、ディスプレイ67には、運動映像が表示される。
The HDD 7 further stores various programs such as an OS, an exercise support program, a 3D engine, and a music sequencer. The exercise support program is a program for supporting the exercise of the
ミュージックシーケンサは、楽曲データを再生するためのプログラムである。CPU51は、ミュージックシーケンサを実行することにより、楽曲データに対応する音声信号を生成する。また、CPU51は、ミュージックシーケンサを実行することにより、各種のイベントを発生させる。イベントとして、例えば、テンポに応じて所定時間間隔で発生するイベントがある。このイベントは、MIDIクロックや同期イベントと呼ばれる。また、イベントとして、例えば、演奏パート開始イベントがある。
The music sequencer is a program for reproducing music data. The
各種プログラムは、例えば、配信サーバ2等のサーバからネットワーク10を介してダウンロードされるようにしてもよい。また、各種プログラムは、記録媒体59に記録されてディスクドライブ58を介して読み込まれるようにしてもよい。なお、3Dエンジンやミュージックシーケンサは、プログラムではなく、専用のハードウェアであってもよい。そして、出力端末5は、ハードウェアとしての3Dエンジンやミュージックシーケンサを備えてもよい。
Various programs may be downloaded from the server such as the
CPU51は、設定されたテンポに従って、楽曲データに対応する音声信号を音声出力部63へ出力させるとともに、生成した画像に対応する映像信号を表示制御部56から出力させる。CPU51は、同期イベントに基づいて、楽曲の音声信号の出力タイミングと運動映像の映像信号の出力タイミングとを同期させる。これにより、スピーカ64から出力される楽曲に同期して運動動作を行うフィギュア83がディスプレイ67に表示される。
The
[5.運動コンテンツ生成システム1の動作]
次に、図5及び図6を参照して、運動コンテンツ生成システム1の動作を説明する。図5(A)は、出力端末5のCPU51のメイン処理の処理例を示すフローチャートである。例えば、操作者42が、リモコン66等により、運動レッスンを開始させるための操作を行う。すると、CPU51は、メイン処理を開始する。
[5. Operation of Exercise Content Generation System 1]
Next, operations of the exercise
図5(A)に示すように、CPU51は、選択情報取得処理を実行する(ステップS1)。選択情報取得処理において、CPU51は、部品リストの生成に必要な情報を取得する。選択情報取得処理の詳細は後述する。次いで、CPU51は、部品リスト生成処理を実行する(ステップS2)。部品リスト生成処理において、CPU51は、部品リストを生成する。部品リスト生成処理の詳細は後述する。次いで、CPU51は、運動情報生成処理を実行する(ステップS3)。運動情報生成処理おいて、CPU51は、生成された部品リストに基づいて、運動情報を生成する。運動情報は、運動コンテンツを再生するために用いられる情報である。運動情報は、楽曲が出力されているときに、運動コンテンツに含まれる映像や音声の出力を開始するタイミングを示す。運動情報により出力のタイミングが示される映像、音声として、例えば、運動映像、ナレーション、効果音、コーラス、歌詞、タイトル画像等がある。出力するタイミングは、例えば、再生位置で示されてもよい。再生位置は、運動コンテンツに含まれる楽曲の再生が開始されてから経過した時間である。運動情報は、例えば複数のレコードを含む。各レコードは、パス及び再生位置を示す。パスは、映像又は音声の出力に用いられるデータのパスである。映像又は音声の出力に用いられるデータとして、例えば、モーションデータ、ナレーションデータ、効果音データ、コーラスデータ、歌詞データ、タイトル画像データ等がある。再生位置は、映像又は音声が出力されるタイミングを示す。運動情報生成処理の詳細は後述する。次いで、CPU51は、再生処理を実行する(ステップS4)。再生処理において、CPU51は、生成された運動情報に基づいて、運動コンテンツを再生する。再生処理の詳細は後述する。CPU51は、ステップS4の処理を終えると、メイン処理を終了させる。
As shown in FIG. 5A, the
図5(B)は、出力端末5のCPU51の選択情報取得処理の処理例を示すフローチャートである。図5(B)に示すように、CPU51は、楽曲の情報を取得する(ステップS11)。具体的に、CPU51は、運動レッスンに用いる楽曲を決定する。例えば、操作者42が楽曲を選択して、CPU51が、操作者42により入力された選択結果を受け付けてもよい。CPU51は、決定された楽曲の楽曲IDを取得する。また、CPU51は、決定された楽曲の楽曲データから、楽曲のオリジナルのテンポと、楽曲を構成する各演奏パートの演奏パート開始イベントとを取得する。
FIG. 5B is a flowchart illustrating a processing example of selection information acquisition processing of the
次いで、CPU51は、運動コンテンツの再生に用いる運動テンポを決定する(ステップS12)。例えば、CPU51は、予め定められた複数の運動テンポのうち、楽曲のオリジナルのテンポに最も近いテンポを、運動コンテンツの再生に用いる運動テンポに決定する。例えば、複数の運動テンポがHDD7に記憶されているとする。CPU51は、HDD7から各運動テンポを取得する。CPU51は、取得した運動テンポごとに、運動テンポと楽曲のオリジナルのテンポとの差を計算する。そして、CPU51は、差が最も小さい運動テンポを、運動コンテンツの再生に用いる運動テンポに決定する。
Next, the
次いで、CPU51は、運動ジャンルを決定する(ステップS13)。例えば、操作者42が運動ジャンルを選択して、CPU51が選択結果を受け付けてもよい。CPU51は、ステップS13の処理を終えると、選択情報取得処理を終了させる。
Next, the
図6及び図7は、出力端末5のCPU51の部品リスト生成処理の処理例を示すフローチャートである。図6に示すように、CPU51は、演奏順Nを1に設定する(ステップS41)。次いで、CPU51は、選択情報取得処理で取得された演奏パート開始イベントに基づいて、演奏順1〜演奏順N−1の演奏パートの中に、演奏順Nの演奏パートと演奏パート種別が同一である演奏パートがあるか否かを判定する(ステップS42)。このとき、CPU51は、演奏順Nの演奏パートと演奏パート種別が同一である演奏パートがあると判定した場合には(ステップS42:YES)、ステップS67に進む。一方、CPU51は、演奏順Nの演奏パートと演奏パート種別が同一である演奏パートがないと判定した場合には(ステップS42:NO)、ステップS43に進む。CPU51は、演奏順Nが1である場合にもステップS43に進む。
6 and 7 are flowcharts showing a processing example of the parts list generation processing of the
ステップS43において、CPU51は、専用部品テーブルに、選択された楽曲の楽曲ID及び演奏順Nの演奏パートの演奏パート種別に対応する専用運動動作の部品IDが記憶されているか否かを判定する。このとき、CPU51は、対応する専用運動動作の部品IDが記憶されていると判定した場合には(ステップS43:YES)、ステップS44に進む。一方、CPU51は、対応する専用運動動作の部品IDが記憶されていないと判定した場合には(ステップS43:NO)、ステップS61に進む。
In step S <b> 43, the
ステップS44において、CPU51は、選択された楽曲の楽曲ID、選択された運動ジャンル、演奏順Nの演奏パートの演奏パート種別、演奏順Nの演奏パートの拍数及び決定された運動テンポに一致する楽曲ID、運動ジャンル、演奏パート種別、拍数及びテンポに対応する部品IDを、専用部品テーブルから検索する。次いで、CPU51は、演奏順Nが1よりも大きいか否かを判定する(ステップS45)。このとき、CPU51は、演奏順Nが1よりも大きいと判定した場合には(ステップS45:YES)、ステップS46に進む。一方、CPU51は、演奏順Nが1より大きくはないと判定した場合には(ステップS45:NO)、ステップS50に進む。
In step S44, the
ステップS46において、CPU51は、部品リスト表の行番号Kを1に設定する。次いで、CPU51は、専用部品テーブルに基づいて、ステップS44で検索された部品IDの中から、演奏順N−1の演奏パートの割り当て候補Kの部品IDに対応する後繋ぎ属性IDに一致する前繋ぎ属性IDに対応する部品IDを検索する(ステップS47)。演奏順N−1の演奏パートの割り当て候補Kの部品IDとは、部品リスト表において、K番目の行のN−1番目の列に格納された部品IDである。次いで、CPU51は、行番号Kに1を加算する(ステップS48)。次いで、CPU51は、行番号Kが行数R以下であるか否かを判定する(ステップS49)。行数Rは、現時点における部品リスト表の行数である。このとき、CPU51は、行番号Kが行数R以下であると判定した場合には(ステップS49:YES)、ステップS47に進む。一方、CPU51は、行番号Kが行数R以下でない、つまり、行番号KがRよりも大きいと判定した場合には(ステップS49:NO)、ステップS50に進む。
In step S46, the
ステップS50において、CPU51は、該当する部品IDが検索されたか否かを判定する。このとき、CPU51は、ステップS44又はS47で部品IDが検索されなかったと判定した場合には(ステップS50:NO)、ステップS61に進む。一方、CPU51は、演奏順Nが1であるときにステップS44で部品IDが検索されたと判定した場合には(ステップS50:YES)、ステップS51に進む。また、CPU51は、演奏順Nが2以上であるときにステップS47で部品IDが検索されたと判定した場合にも(ステップS50:YES)、ステップS51に進む。
In step S50, the
図7に示すように、ステップS61において、CPU51は、選択された運動ジャンル、演奏順Nの演奏パートの演奏パート種別、演奏順Nの演奏パートの拍数及び決定された運動テンポに一致する運動ジャンル、演奏パート種別、拍数及びテンポに対応する部品IDを、汎用部品テーブルから検索する。次いで、CPU51は、演奏順Nが1よりも大きいか否かを判定する(ステップS62)。このとき、CPU51は、演奏順Nが1よりも大きいと判定した場合には(ステップS62:YES)、ステップS63に進む。一方、CPU51は、演奏順Nが1よりも大きくはないと判定した場合には(ステップS62:NO)、ステップS51に進む。
As shown in FIG. 7, in step S61, the
ステップS63において、CPU51は、部品リスト表の行番号Kを1に設定する。次いで、CPU51は、汎用部品テーブルに基づいて、ステップS61で検索された部品IDの中から、演奏順N−1の演奏パートの割り当て候補Kの部品IDに対応する後繋ぎ属性IDに一致する前繋ぎ属性IDに対応する部品IDを検索する(ステップS64)。次いで、CPU51は、行番号Kに1を加算する(ステップS65)。次いで、CPU51は、行番号Kが行数R以下であるか否かを判定する(ステップS66)。このとき、CPU51は、行番号Kが行数R以下であると判定した場合には(ステップS66:YES)、ステップS64に進む。一方、CPU51は、行番号Kが行数R以下でない、つまり、行番号KがRよりも大きいと判定した場合には(ステップS66:NO)、ステップS51に進む。
In step S63, the
ステップS67において、CPU51は、行番号Kを1に設定する。次いで、CPU51は、演奏順Nの演奏パートと演奏パート種別が同一である演奏パートに割り当て候補として検索済みの部品IDに対応する情報を取得する(ステップS68)。具体的に、CPU51は、部品リスト表のK番目の行において、演奏順Nの演奏パートと演奏パート種別が同一である演奏パートに対応する列から、検索済みの部品IDを取得する。次いで、CPU51は、取得された部品IDに対応する前繋ぎ属性IDを部品テーブルから取得する。
In step S67, the
次いで、CPU51は、演奏順N−1の演奏パートの割り当て候補Kの部品IDに対応する後繋ぎ属性IDと、検索済みの部品IDに対応する前繋ぎ属性IDとが一致するか否かを判定する(ステップS69)。このとき、CPU51は、後繋ぎ属性IDと前繋ぎ属性IDとが一致すると判定した場合には(ステップS69:YES)、ステップS70に進む。一方、CPU51は、後繋ぎ属性IDと前繋ぎ属性IDとが一致しないと判定した場合には(ステップS69:NO)、ステップS71に進む。
Next, the
ステップS70において、CPU51は、部品リスト表において、K番目の行のN番目の列に、ステップS68で取得された検索済みの部品IDを格納する。次いで、CPU51は、ステップS72に進む。ステップS71において、CPU51は、K番目の行を部品リストから削除する。次いで、CPU51は、ステップS72に進む。ステップS72において、CPU51は、行番号Kに1を加算する。次いで、CPU51は、行番号Kが行数R以下であるか否かを判定する(ステップS73)。このとき、CPU51は、行番号Kが行数R以下であると判定した場合には(ステップS73:YES)、ステップS68に進む。一方、CPU51は、行番号Kが行数R以下でない、つまり、行番号Kが行数Rよりも大きいと判定した場合には(ステップS73:NO)、ステップS52に進む。
In step S70, the
図6に示すように、ステップS51において、CPU51は、部品リスト表を更新する。演奏順Nが1である場合、CPU51は、ステップS44又はS61で検索された部品IDを格納する部品リスト表を生成する。演奏順Nが2以上である場合、CPU51は、ステップS47又はS64の検索結果に基づいて、部品リスト表を更新する。具体的に、ステップS47又はS64で部品IDが検索された場合、CPU51は、対応する行のN番目の列に、検索された部品IDを格納する。1つの行につき複数の部品IDが検索された場合、CPU51は、同一内容の行を部品リスト表に追加する。そして、CPU51は、検索された複数の部品IDを複数の行に格納する。ステップS47又はS64で部品IDが検索されなかった場合、CPU51は、対応する行を部品リストから削除する。CPU51は、ステップS51の処理を終えると、ステップS52に進む。
As shown in FIG. 6, in step S51, the
ステップS52において、CPU51は、行数Rを、更新後の部品リスト表の行数に変更する。次いで、CPU51は、演奏順Nに1を加算する(ステップS53)。次いで、CPU51は、演奏順Nが、選択された楽曲を構成する演奏パートの総数以下であるか否かを判定する(ステップS54)。このとき、CPU51は、は、演奏順Nが演奏パートの総数以下であると判定した場合には(ステップS54:YES)、ステップS42に進む。一方、CPU51は、演奏順Nが演奏パートの総数以下でない、つまり、演奏順Nが演奏パートの総数よりも大きいと判定した場合には(ステップS54:NO)、ステップS55に進む。ステップS55において、CPU51は、部品リスト表内に生成された部品リストの中から、運動情報の生成に用いられる部品リストを選択する。例えば、操作者42が選択してもよい。CPU51は、ステップS55の処理を終えると、部品リスト生成処理を終了させる。
In step S52, the
図5(C)は、出力端末5のCPU51の運動情報生成処理の処理例を示すフローチャートである。図5(C)に示すように、CPU51は、部品リストに基づいて、基本運動情報を生成する(ステップS21)。基本運動情報は、運動映像、ナレーション及び効果音のそれぞれの出力が開始されるタイミングを示す運動情報である。基本運動情報は、本発明のタイミング情報の一例である。例えば、CPU51は、運動テンポと、選択情報取得処理で取得された演奏パート開始イベントに含まれる拍数とに基づいて、各演奏パートの再生が開始される再生位置を計算する。次いで、CPU51は、各演奏パートに割り当てられた部品IDを部品リストから取得する。次いで、CPU51は、取得した部品IDに対応するモーションID、ナレーションタイミングID及び効果音タイミングIDを部品テーブルから取得する。次いで、CPU51は、モーションIDに対応するモーションデータのパスを取得する。次いで、CPU51は、各演奏パートについて、演奏パートの再生位置と、演奏パートに割り当てられた部品IDに対応するモーションデータのパスとを含むレコードを部品IDごとに生成する。次いで、CPU51は、ナレーションタイミングIDに対応するナレーションタイミングファイルをHDD7から取得する。次いで、CPU51は、ナレーションタイミングファイルと、演奏パートの再生位置とに基づいて、ナレーションデータの再生が開始される再生位置を計算する。次いで、CPU51は、ナレーションデータの再生位置とナレーションデータのパスとを含むレコードを、ナレーションデータごとに生成する。また、CPU51は、効果音タイミングファイルに基づいて、効果音データの再生位置と効果音データのパスとを含むレコードを、効果音データごとに生成する。この処理内容は、ナレーションデータの場合と基本的に同様である。CPU51は、生成されたこれらのレコードを含む基本運動情報を生成する。
FIG. 5C is a flowchart illustrating a processing example of exercise information generation processing of the
具体例を説明する。例えば、図2(B)に示すように演奏パート1〜3に部品IDが割り当てられたとする。また、運動テンポは128BPMであるとする。この場合、1拍の長さは、約0.47秒である。演奏パート1の演奏順は1番目であるため、演奏パート1の出力が開始する再生位置は0秒である。演奏パート2の演奏順は2番目であり、演奏パート1の拍数は32拍である。従って、演奏パート2の出力が開始する再生位置は約15.04秒である。演奏パート3の演奏順は3番目であり、演奏パート2の拍数は64拍である。従って、演奏パート3の出力が開始するまでに、96拍が経過する。そのため、演奏パート3の出力が開始する再生位置は約45.12秒である。従って、マーチB、フロントランジA、スクワットCのモーションデータを用いた運動映像の表示が開始される再生位置は、それぞれ0秒、15.04秒、45.12秒である。また、図3(E)に示すナレーションタイミングファイルが、フロントランジAに対応するファイルであるとする。この場合、演奏パート2の出力が開始される8拍前に、ナレーション1の出力が開始される。従って、ナレーション1の再生が開始される再生位置は約11.28秒である。演奏パート2の出力が開始されてから1拍後に、ナレーション2の出力が開始される。従って、ナレーション2の再生が開始される再生位置は15.51秒である。演奏パート2の出力が開始されてから9拍後に、ナレーション3の出力が開始される。従って、ナレーション3の再生が開始される再生位置は19.27秒である。演奏パート3の出力が開始されてから13拍後に、ナレーション4の出力が開始される。従って、ナレーション4の再生が開始される再生位置は21.15秒である。
A specific example will be described. For example, assume that a component ID is assigned to each of
次いで、CPU51は、楽曲専用運動情報を生成する(ステップS22)。楽曲専用運動情報は、コーラス、歌詞及びタイトル画像のそれぞれの出力が開始されるタイミングを示す運動情報である。例えば、CPU51は、選択された楽曲の楽曲IDに対応するコーラスデータ、コーラスタイミング情報、歌詞データをHDD7から取得する。CPU51は、コーラスデータとコーラスタイミング情報に基づいて、コーラスデータの再生が開始される再生位置とコーラスデータのパスとを含むレコードを生成する。また、CPU51は、歌詞データに基づいて、歌詞のテロップの表示が開始される再生位置と歌詞データのパスとを含むレコードを生成する。また、CPU51は、例えば予め設定された再生位置とタイトル画像データのパスとを含むレコードを生成する。CPU51は、これらのレコードを含む楽曲専用運動情報を生成する。
Next, the
次いで、CPU51は、基本運動情報と楽曲専用運動情報と結合して、最終的な運動情報を生成する(ステップS23)。CPU51は、ステップS23の処理を終えると、運動情報生成処理を終了させる。
Next, the
図5(D)は、出力端末5のCPU51の再生処理の処理例を示すフローチャートである。図5(D)に示すように、CPU51は、選択された楽曲のテンポを、オリジナルのテンポから選択情報取得処理で決定された運動テンポに変更する(ステップS31)。
FIG. 5D is a flowchart illustrating a processing example of the reproduction processing of the
次いで、CPU51は、最終的な運動情報に基づいて運動コンテンツを再生する(ステップS32)。具体的に、CPU51は、時計機能から現在時刻を取得する。CPU51は、取得した現在時刻を楽曲データの再生開始時刻とする。次いで、CPU51は、選択された楽曲の楽曲データに基づいて、ミュージックシーケンサにより楽曲データを再生する。これにより、CPU51は、スピーカ64により楽曲を出力させる。このとき、CPU51は、選択情報取得処理で決定された運動テンポに従って楽曲を出力させる。
Next, the
楽曲データの再生を開始すると、CPU51は、楽曲データの再生開始時刻から経過した時間を、楽曲の現在の再生位置として随時更新する。再生位置が更新されるごとに、CPU51は、運動情報から現在の再生位置を含むレコードを検索する。CPU51は、検索されたレコードに応じた処理を行う。例えば、モーションデータのパスを含むレコードが検索された場合、CPU51は、パスに対応するモーションデータに基づいて、運動映像の再生を開始する。このとき、CPU51は、先ずメイン動作の静止画像を順次生成し、静止画像を表示制御部56へ順次出力する。次いで、CPU51は、後繋ぎ動作の静止画像を順次生成し、静止画像を表示制御部56へ順次出力する。これにより、CPU51は、ディスプレイ67に運動映像を表示する。ナレーションデータのパスを含むレコードが検索された場合、CPU51は、パスに対応するナレーションデータの再生を開始する。これにより、CPU51は、スピーカ64によりナレーションを出力させる。効果音データのパスを含むレコードが検索された場合、CPU51は、パスに対応する効果音データの再生を開始する。これにより、CPU51は、スピーカ64により効果音を出力させる。コーラスデータのパスを含むレコードが検索された場合、CPU51は、パスに対応するコーラスデータの再生を開始する。歌詞データのパスを含むレコードが検索された場合、CPU51は、パスに対応する歌詞データに基づいて、歌詞のテロップをディスプレイ67に表示する。タイトル画像データのパスを含むレコードが検索された場合、CPU51は、パスに対応するタイトル画像データに基づいて、タイトル画像をディスプレイ67に表示する。楽曲データの再生が終了すると、CPU51は、再生処理を終了させる。
When the reproduction of the music data is started, the
以上説明したように、本実施形態によれば、CPU51が、楽曲を構成する複数の演奏パートの何れかの演奏パートに割り当てる候補となる専用運動動作の部品IDを検索する。また、CPU51が、検索された専用運動動作の部品IDの繋ぎ属性に一致する繋ぎ属性に対応する汎用運動動作の部品IDを、専用運動動作の部品IDが割り当て候補として検索された演奏パートの前に出力される演奏パート及び専用運動動作の部品IDが割り当候補として検索された演奏パートの次に出力される演奏パートの少なくとも何れかの割り当て候補として検索する。そのため、運動動作の繋がりが自然になるように各演奏パートに専用の運動動作の部品IDと汎用の運動動作の部品IDとを自動的に割り当てることができる。
As described above, according to the present embodiment, the
次に、変形例について説明する。上記実施形態においては、出力端末5は、演奏順が1番目の演奏パートから演奏順に各演奏パートの割り当て候補となる部品IDを検索していた。しかしながら、出力端末5は、楽曲を構成する複数の演奏パートのうち専用運動動作の部品IDを割り当て可能な演奏パートの全てに対して先に割り当て候補となる専用運動動作の部品IDを検索してもよい。そして、出力端末5は、専用運動動作の部品IDが検索された演奏パートの前に出力される演奏パート、及び、専用運動動作の部品IDが検索された演奏パートの次に出力される演奏パートのうち、専用運動動作の部品IDが検索されなかった演奏パートの割り当て候補として、汎用運動動作の部品IDを検索してもよい。このとき、出力端末5は、専用運動動作の前繋ぎ属性と一致する後繋ぎ属性を有する汎用運動動作の部品IDを、専用運動動作の部品IDが検索された演奏パートの前に出力される演奏パートの割り当て候補として検索する。また、出力端末5は、専用運動動作の後繋ぎ属性と一致する前繋ぎ属性を有する汎用運動動作の部品IDを、専用運動動作の部品IDが検索された演奏パートの次に出力される演奏パートの割り当て候補として検索する。
Next, a modified example will be described. In the above embodiment, the
次に、図3(A)及び図3(B)に示す部品テーブルを用いた場合の部品リストの生成方法について説明する。運動テンポは128BPMであり、運動ジャンルは有酸素運動であるとする。先ず、出力端末5は、演奏パート1〜8の中から、専用運動動作の部品IDを割り当て可能な演奏パートを全て検索する。具体的に、出力端末5は、各演奏パートについて、演奏パートの属性と一致する属性に対応する専用運動動作の部品IDを専用部品テーブルから検索する。出力端末5が演奏パートの属性と一致する属性に対応する専用運動動作の部品IDが専用部品テーブルに格納されていると判定した場合、その演奏パートに専用運動動作の部品IDが割り当て可能である。出力端末5が演奏パートの属性と一致する属性に対応する専用運動動作の部品IDが専用部品テーブルに格納されていないと判定した場合、その演奏パートに専用運動動作の部品IDは割り当て可能ではない。属性として、例えば演奏パート種別、拍数等がある。演奏パート2及び5に、専用運動動作1及び2の部品IDを割り当て可能である。その他の演奏パートについては、割り当て可能な専用運動動作の部品IDはない。出力端末5は、2番目と5番目の列に専用運動動作1の部品IDを格納した行を含む部品リスト表を生成する。
Next, a method for generating a parts list when the parts table shown in FIGS. 3A and 3B is used will be described. The exercise tempo is 128 BPM and the exercise genre is aerobic exercise. First, the
次に、出力端末5は、例えば、演奏パート1の割り当て候補を検索する。演奏パート2の割り当て候補である専用運動動作1の部品IDの前繋ぎ属性IDと汎用運動動作1−1の部品IDの後繋ぎ属性IDが一致する。そこで、出力端末5は、部品リスト表の1番目の列に汎用運動動作1−1の部品IDを格納する。次に、出力端末5は、例えば、演奏パート3の割り当て候補を検索する。演奏パート2の割り当て候補である専用運動動作1の部品IDの後繋ぎ属性IDと汎用運動動作3−1の部品IDの部品IDの前繋ぎ属性IDが一致する。そこで、出力端末5は、部品リスト表の3番目の列に汎用運動動作3−1の部品IDを格納する。次に、出力端末5は、例えば、演奏パート4の割り当て候補を検索する。演奏パート5の割り当て候補である専用運動動作1の部品IDの前繋ぎ属性IDと汎用運動動作4−1の部品IDの後繋ぎ属性IDが一致する。また、汎用運動動作3−1の部品IDの後繋ぎ属性IDと汎用運動動作4−1の部品IDの前繋ぎ属性IDが一致する。そこで、出力端末5は、部品リスト表の4番目の列に汎用運動動作4−1の部品IDを格納する。次に、出力端末5は、例えば、演奏パート6の割り当て候補を検索する。演奏パート6の演奏パート種別は演奏パート3の演奏パート種別と一致する。また、演奏パート5の割り当て候補である専用運動動作1の部品IDの後繋ぎ属性IDと、演奏パート3の割り当て候補である汎用運動動作3−1の部品IDの前繋ぎ属性IDが一致する。そこで、出力端末5は、部品リスト表の6番目の列に汎用運動動作3−1の部品IDを格納する。出力端末5は、演奏パート7及び8についても同様に割り当て候補を検索する。
Next, the
なお、上記実施形態においては、本発明の情報処理装置が出力端末5に適用されていた。しかしながら、本発明の情報処理装置が配信サーバ2に適用されてもよい。例えば、配信サーバ2が、部品リストや運動情報を生成してもよい。また、配信サーバ2が、運動情報に基づいて、音声データ及び動画データを生成してもよい。この場合の音声データは、楽曲、ナレーション、効果音、コーラス等を出力するためのデータである。また、動画データは、運動映像、歌詞等を表示するためのデータである。運動レッスンが行われるとき、配信サーバ2は、音声データ及び動画データを、例えばストリーミング方式で出力端末5に送信する。これにより、配信サーバ2は、出力端末5により楽曲を出力させ、且つ、運動映像を表示させる。また、本発明の情報処理装置が出力端末5及び配信サーバ2に適用されてもよい。そして、出力端末5及び配信サーバ2は協働して処理を行ってもよい。
In the above embodiment, the information processing apparatus of the present invention is applied to the
1 運動コンテンツ生成システム
2 配信サーバ
3 データベース
5 出力端末
7 HDD
51 CPU
56 表示制御部
63 音声出力部
1 Exercise
51 CPU
56
Claims (5)
前記楽曲に専用の運動動作を示す第1動作情報と、前記第1動作情報の繋ぎ属性を示す第1繋ぎ属性情報とを対応付けて記憶する第2記憶手段と、
様々な楽曲で行うことができる複数の汎用の運動動作を示す複数の第2動作情報と、前記複数の動作情報の繋ぎ属性を示す第2繋ぎ属性情報とを対応付けて記憶する第3記憶手段と、
前記複数の演奏パートの何れかの演奏パートに割り当てる候補となる前記第1動作情報を前記第2記憶手段から検索する第1検索手段と、
前記第1検索手段により検索された前記第1動作情報の前記第1繋ぎ属性情報に一致する前記第2繋ぎ属性情報に対応する前記第2動作情報を、前記第1動作情報が検索された演奏パートの前に出力される第1演奏パート及び前記第1動作情報が検索された演奏パートの次に出力される第2演奏パートの少なくとも何れかに割り当てる候補として前記第3記憶手段から検索する第2検索手段と、
前記第1検索手段及び前記第2検索手段の検索結果に基づいて、前記楽曲情報が出力されるときに行われる複数の運動動作を示すリスト情報を生成する生成手段と、
を備えることを特徴とする情報処理装置。 First storage means for storing music information indicating music composed of a plurality of performance parts;
Second storage means for storing first motion information indicating exercise motion dedicated to the music and first connection attribute information indicating a connection attribute of the first motion information in association with each other;
Third storage means for storing a plurality of second movement information indicating a plurality of general-purpose movements that can be performed with various music pieces and a second connection attribute information indicating a connection attribute of the plurality of movement information in association with each other. When,
First search means for searching the first storage information from the second storage means for candidates to be assigned to any one of the plurality of performance parts;
The second action information corresponding to the second connection attribute information that matches the first connection attribute information of the first action information searched by the first search means is used as the performance for which the first action information is searched. A search is made from the third storage means as a candidate to be assigned to at least one of the first performance part output before the part and the second performance part output next to the performance part for which the first motion information is searched. 2 search means;
Generating means for generating list information indicating a plurality of exercise operations performed when the music information is output based on the search results of the first search means and the second search means;
An information processing apparatus comprising:
前記第1検索手段により前記第1動作情報が検索されたかを判定する判定手段を更に備え、
前記第1検索手段は、前記判定手段により前記第1動作情報が検索されたと判定されなかった場合、前記最初に出力される演奏パートに割り当て可能な前記第2動作情報を前記第3記憶手段から検索し、
前記第2検索手段は、前記第1検索手段により検索された前記第1動作情報の前記第1繋ぎ属性情報又は前記第2動作情報の前記第2繋ぎ属性情報に一致する前記第2繋ぎ属性情報に対応する前記第2動作情報を、前記最初に出力される演奏パートの次に出力される演奏パートに割り当てる候補として検索することを特徴とする請求項1に記載の情報処理装置。 The first search means searches for the first motion information that can be assigned to a performance part that is output first among the plurality of performance parts,
A determination unit for determining whether the first operation information has been searched by the first search unit;
If the determination means does not determine that the first action information has been searched, the first search means stores from the third storage means the second action information that can be assigned to the performance part that is output first. Search
The second search means includes the second connection attribute information that matches the first connection attribute information of the first action information searched by the first search means or the second connection attribute information of the second action information. The information processing apparatus according to claim 1, wherein the second motion information corresponding to is searched as a candidate to be assigned to a performance part that is output next to the performance part that is output first.
前記第2検索手段は、前記第1演奏パート及び前記第2演奏パートのうち前記第1検索手段により検索されなかった演奏パートに割り当てる候補として、前記第1検索手段により検索された前記第1動作情報の前記第1繋ぎ属性情報に一致する前記第2繋ぎ属性情報に対応する前記第2動作情報を検索することを特徴とする請求項1に記載の情報処理装置。 The first search means searches for a performance part to which the first motion information can be assigned among the plurality of performance parts,
The second search means is the first action searched by the first search means as a candidate to be assigned to a performance part that is not searched by the first search means among the first performance part and the second performance part. The information processing apparatus according to claim 1, wherein the second operation information corresponding to the second connection attribute information that matches the first connection attribute information of information is searched.
前記第4記憶手段に記憶された前記拍情報に基づいて、前記楽曲情報が出力されているときの前記ナレーション情報の出力のタイミングであって、前記生成手段により生成された前記リスト情報が示す前記複数の運動動作に対応する前記ナレーション情報の出力のタイミングを示すタイミング情報を生成する第2生成手段と、
を更に備えることを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。 Corresponding to the first motion information and the plurality of second motion information, the narration information indicating narration that supports the motor motion, and the beat indicating the number of beats before the start of the motor motion is output. Fourth storage means for storing information;
The timing of outputting the narration information when the music information is output based on the beat information stored in the fourth storage means, and the list information generated by the generating means indicates the timing Second generation means for generating timing information indicating the timing of output of the narration information corresponding to a plurality of movements;
The information processing apparatus according to claim 1, further comprising:
様々な楽曲で行うことができる複数の汎用の運動動作を示す複数の第2動作情報と、前記複数の動作情報の繋ぎ属性を示す第2繋ぎ属性情報とを対応付けて記憶する第3記憶手段から、前記第1検索ステップにより検索された前記第1動作情報の前記第1繋ぎ属性情報に一致する前記第2繋ぎ属性情報に対応する前記第2動作情報を、前記第1動作情報が検索された演奏パートの前に出力される第1演奏パート及び前記第1動作情報が検索された演奏パートの次に出力される第2演奏パートの少なくとも何れかに割り当てる候補として検索する第2検索ステップと、
前記第1検索ステップ及び前記第2検索ステップの検索結果に基づいて、前記楽曲情報が出力されるときに行われる複数の運動動作を示すリスト情報を生成する生成ステップと、
をコンピュータに実行させることを特徴とするプログラム。 First motion information indicating exercise motion dedicated to the music indicated by the music information stored in the first storage means for storing music information indicating the music composed of a plurality of performance parts, and the first motion information A first search step of searching for the first motion information that is a candidate to be assigned to any one of the plurality of performance parts from the second storage means that stores the first connection attribute information indicating the connection attributes in association with each other. When,
Third storage means for storing a plurality of second movement information indicating a plurality of general-purpose movements that can be performed with various music pieces and a second connection attribute information indicating a connection attribute of the plurality of movement information in association with each other. The first motion information is searched for the second motion information corresponding to the second connection attribute information that matches the first connection attribute information of the first motion information searched in the first search step. A second search step for searching as candidates to be assigned to at least one of the first performance part output before the performance part and the second performance part output after the performance part for which the first motion information has been searched; ,
A generation step of generating list information indicating a plurality of exercise operations performed when the music information is output based on search results of the first search step and the second search step;
A program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013149907A JP5949688B2 (en) | 2013-07-18 | 2013-07-18 | Information processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013149907A JP5949688B2 (en) | 2013-07-18 | 2013-07-18 | Information processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015019821A JP2015019821A (en) | 2015-02-02 |
JP5949688B2 true JP5949688B2 (en) | 2016-07-13 |
Family
ID=52484827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013149907A Expired - Fee Related JP5949688B2 (en) | 2013-07-18 | 2013-07-18 | Information processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5949688B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106227840A (en) * | 2016-07-26 | 2016-12-14 | 广东小天才科技有限公司 | Song search method and device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5049819B2 (en) * | 2008-02-28 | 2012-10-17 | 株式会社エクシング | Exercise support apparatus and computer program |
JP2009201799A (en) * | 2008-02-28 | 2009-09-10 | Xing Inc | Exercise supporting apparatus, exercise supporting method, and computer program |
JP5318465B2 (en) * | 2008-05-29 | 2013-10-16 | 株式会社エクシング | Exercise support apparatus and computer program |
JP5606673B2 (en) * | 2008-12-09 | 2014-10-15 | ブラザー工業株式会社 | Apparatus, music display method, and program |
JP5625417B2 (en) * | 2010-03-19 | 2014-11-19 | ブラザー工業株式会社 | Exercise support device, exercise support method and program |
JP5397394B2 (en) * | 2011-02-17 | 2014-01-22 | ブラザー工業株式会社 | Exercise support device, exercise support method and program |
-
2013
- 2013-07-18 JP JP2013149907A patent/JP5949688B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015019821A (en) | 2015-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5706718B2 (en) | Movie synthesis system and method, movie synthesis program and storage medium thereof | |
JP2014010275A (en) | Information processing device, information processing method, and program | |
JP5949688B2 (en) | Information processing apparatus and program | |
JP2014128409A (en) | Information processor, information processing method and program | |
JP5949687B2 (en) | Information processing apparatus and program | |
JP5954287B2 (en) | Information processing apparatus and program | |
JP5954288B2 (en) | Information processing apparatus and program | |
JP5949638B2 (en) | Information processing apparatus and program | |
JP5943020B2 (en) | Information processing apparatus and program | |
JP5949824B2 (en) | Information processing apparatus and program | |
JP6163755B2 (en) | Information processing apparatus, information processing method, and program | |
JP5246232B2 (en) | Exercise support device, exercise support method and program | |
JP5942914B2 (en) | Information processing apparatus and program | |
JP5928361B2 (en) | Information processing apparatus, information processing method, and program | |
JP6361430B2 (en) | Information processing apparatus and program | |
JP6048136B2 (en) | Information processing apparatus, information processing method, and program | |
JP5939217B2 (en) | Information processing apparatus, information processing system, and program | |
JP6287921B2 (en) | Information processing apparatus and program | |
JP5954314B2 (en) | Information processing apparatus and program | |
JP5958389B2 (en) | Information processing apparatus and program | |
JP5949808B2 (en) | Information processing apparatus and program | |
JP2014046018A (en) | Information processor, information processing method, and program | |
JP5939218B2 (en) | Information processing apparatus and program | |
JP6447563B2 (en) | Information processing apparatus and program | |
JP5928257B2 (en) | Information processing apparatus, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160209 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160523 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5949688 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |