以下、本発明の実施形態を図面に基づいて説明する。なお、以下に説明する実施の形態は、運動を支援するための運動コンテンツを自動で生成する運動支援システムに本発明を適用した場合の実施形態である。運動コンテンツは、運動を支援するための映像及び音声を含む。
[1.第1実施形態]
[1−1.運動支援システム1の構成]
始めに、図1を参照して、本実施形態の運動支援システム1の構成について説明する。図1は、本実施形態の運動支援システム1の概要構成例を示す図である。図1に示すように、運動支援システム1は、配信サーバ2と1つ以上の出力端末5とを含んで構成されている。配信サーバ2と出力端末5とは、ネットワーク10を介して接続可能になっている。ネットワーク10は、例えば、インターネットを含む。配信サーバ2には、データベース3が接続されている。データベース3には、運動に関する情報や楽曲に関する情報が登録されている。配信サーバ2は、データベース3に登録されている情報等を、定期的に又は出力端末5からの要求に応じて出力端末5に配信する。
出力端末5は、例えば、施設4に設置される端末装置である。出力端末5は、本発明の情報処理装置の一例である。出力端末5は、例えばパーソナルコンピュータであってもよい。施設4は、例えば、スポーツ施設である。出力端末5は、施設4の利用者41により利用される。また、出力端末5は、モニタ57と接続可能である。モニタ57は、複数のスピーカ64とディスプレイ67とを備える表示装置であっても良い。この場合、出力端末5は、ディスプレイ67と接続可能である。また、出力端末5は、スピーカ64と接続可能である。スピーカ64は、本発明の音声出力手段の一例である。出力端末5がモニタ57へ音声信号を出力することにより、スピーカ64により楽曲やインストラクターの音声等が出力される。出力端末5がモニタ57へ映像信号を出力することにより、ディスプレイ67に運動映像等が表示される。運動映像は、運動動作を行うフィギュア83を映し出した映像である。フィギュア83は、例えば、人、動物、仮想上の生き物、ロボット等のかたちをした仮想物である。出力端末5は、スピーカ64から出力される楽曲と、ディスプレイ67に表示されるフィギュア83の動きとが同期するように、信号を出力する。1人以上の利用者41は、スピーカ64により出力される楽曲を聴きながら、ディスプレイ67に表示されるフィギュア83を見て、運動を行うことができる。
[1−2.運動レッスン]
利用者41は、出力端末5を利用して運動を行うとき、運動レッスンの選択を行う。運動レッスンは、1つ以上の運動動作から構成されるレッスンである。ディスプレイ67には、選択された運動レッスンに従った順序で運動動作を行うフィギュア83が表示される。利用者41により選択可能な運動レッスンの種類として、運動重視レッスンと楽曲重視レッスンとがある。運動重視レッスンは、本発明の第1運動レッスンの一例である。楽曲重視レッスンは、本発明の第2運動レッスンの一例である。
[1−2−1.運動重視レッスン]
運動重視レッスンは、楽曲よりも運動が重視される運動レッスンである。運動重視レッスンは、利用者41の身体の訓練を主目的とする。運動重視レッスンにおいては、運動が動作されるテンポに従って楽曲が出力される。運動重視レッスンの内容を決定する場合、例えば、楽曲よりも先に運動動作が選択される。例えば、利用者41又は操作者42が、所望する運動動作を選択する。そして、例えば、選択された運動動作又は選択された運動動作の運動テンポに応じて楽曲が選択される。運動テンポは、利用者41が運動動作を行う速度を表す。例えば、利用者41が運動動作ごとに運動テンポを設定する。運動重視レッスンでは、運動テンポに従った再生速度でスピーカ64により楽曲が出力される。また、運動テンポに従った速度で運動動作を行うフィギュア83の運動映像がディスプレイ67に表示される。そのため、利用者41は運動テンポに従って運動を行う。利用者41の運動動作に適した運動テンポが設定されることで、利用者41は、効果的な運動を行うことができる。また、運動重視レッスンでは、楽曲を構成する複数の演奏パートのうち、一部の演奏パートのみが繰り返し出力される。例えば、楽曲のサビ部分が繰り返し出力されたり、イントロ部分とサビ部分とが繰り返し出力されたりする。
運動重視レッスンにおいて選択可能な運動動作は、例えば、体操の動作である。体操は、例えば、健康の増進、体力の増強、筋力の強化等のために行われる運動である。体操の種類として、例えば、有酸素運動、無酸素運動、ストレッチ等がある。有酸素運動の運動動作として、例えば、マーチ、フロントランジ等がある。無酸素運動の運動動作として、例えば、ショルダープレス、チェストプレス等がある。ストレッチの運動動作として、例えば、上腕部ストレッチ、首ストレッチ等がある。
1つの運動動作における一連の動作の中に、複雑な動作、覚えることが難しい動作、特に重要な動作等が存在する場合がある。運動重視レッスンにおいては、そのような動作が行われる間、ディスプレイ67において、フィギュア83が表示される領域が2以上に分割される。そして、2以上の領域には、互いに異なる視点から見たフィギュア83が表示される。利用者41は、複数の視点から見たフィギュア83を見ることができる。従って、利用者41は、運動動作を詳細に見ることができるので、運動動作の習得を促進することができる。
[1−2−2.楽曲重視レッスン]
楽曲重視レッスンは、運動よりも楽曲が重視される運動レッスンである。楽曲重視レッスンにおいても、利用者41の身体を訓練することができる。しかしながら、利用者41が運動を楽しむことの方が重視される。楽曲重視レッスンにおいては、楽曲のオリジナルのテンポに従って楽曲が出力される。楽曲重視レッスンの内容を決定する場合、例えば、運動動作よりも先に楽曲が選択される。例えば、利用者41又は操作者42が、所望する楽曲を選択する。そして、選択された楽曲の演奏パートごとに運動動作が選択される。例えば、利用者41又は操作者42が、所望する運動動作を選択する。楽曲重視レッスンでは、楽曲に適したテンポに従った再生速度でスピーカ64により楽曲が出力される。楽曲に適したテンポは、例えば、楽曲のオリジナルのテンポである。また、楽曲に適したテンポに従った速度で運動動作を行うフィギュア83の運動映像がディスプレイ67に表示される。また、楽曲重視レッスンにおいては、楽曲の構成に従ったパートの順で、楽曲が出力される。例えば、イントロ、Aメロ、Bメロ、サビ、Aメロ、Bメロ、サビ、間奏、サビ、エンディング等の順で、楽曲が出力される。利用者41は、楽曲に適したテンポで楽曲の構成に従って出力される楽曲を聴きながら運動を行うことで、楽曲を楽しむことができる。楽曲を楽しむことは、運動を楽しむことに繋がる。なお、イントロとエンディングは出力されなくてもよい。
楽曲重視レッスンにおいて選択可能な運動動作として、体操の動作と、楽曲に対応する踊りの動作とがある。踊りの動作は、楽曲に合わせて踊るために楽曲に対して振り付けられた動作である。例えば、楽曲のサビ部分では踊りの動作が選択され、サビ部分と異なる演奏パートでは、体操の動作が選択される。楽曲のサビ部分以外の演奏パートについても、踊りの動作が選択されても良い。楽曲に応じた踊りを踊ることにより、利用者41は、運動を楽しむことができる。また、楽曲のサビ部分でサビ部分に対応する踊りを利用者41が踊ることで、利用者41の気分を盛り上げることができる。
楽曲重視レッスンにおいては、利用者41は楽曲のオリジナルのテンポに従って運動を行う。楽曲のテンポが利用者41に適していない場合、利用者41は効果的な運動を行うことができない場合があるかもしれない。そのため、運動動作が対応付けられた演奏パートが出力されるとき、ディスプレイ67には、身体にかかる負荷が互いに異なる運動動作を行う複数のフィギュア83が表示されても良い。例えば、一般運動動作を行うフィギュア83と、軽減運動動作を行うフィギュア83とが表示される。一般運動動作と軽減運動動作とは、基本的な運動動作の内容は同じである。例えば、一般運動動作がサイドステップである場合、軽減運動動作もサイドステップである。一般運動動作は、所定の負荷が身体にかかる運動動作である。一般運動動作は、運動重視レッスンの場合にフィギュア83が行う運動動作である。これに対し、軽減運動動作は、一般運動動作よりも身体にかかる負荷が小さい運動動作である。従って、軽減運動動作は一般運動動作よりも簡単な運動動作である。利用者41は、複数のフィギュア83のうち利用者41の運動技能に適した運動動作を行うフィギュア83を見ながら運動することにより、効果的な運動を行うことができる。なお、3体以上のフィギュア83が表示されてもよい。また、一般運動動作を行うフィギュア83と、一般運動動作よりも身体にかかる負荷が大きい運動動作を行うフィギュア83とがディスプレイ67に表示されてもよい。
楽曲重視レッスンにおいて、スピーカ64により楽曲のサビ部分が出力されるとき、ディスプレイ67には、例えば、同一の踊りの動作を行う複数のフィギュア83が表示されても良い。楽曲の盛り上がる部分で同一の踊りの動作を行う複数のフィギュア83が表示されるので、利用者41の気分を盛り上げることができる。そのため、利用者41は運動を楽しむことができる。楽曲のサビ部分が出力されるときに表示されるフィギュア83の数は、サビ部分と異なる演奏パートが出力されるときに表示されるフィギュア83の数より多くてもよい。これにより、サビ部分で利用者の気分をより盛り上げることができる。
[1−3.運動ナレーション、発声サジェスト音]
運動レッスンにおいては、楽曲とともに、運動を行う利用者41をサポートするための音がスピーカ64により出力される。利用者41をサポートするための音として、運動ナレーションと発声サジェスト音とがある。運動ナレーションは、本発明の音声サポート情報の一例である。発声サジェスト音は、本発明の促し情報の一例である。運動ナレーションは、運動動作を支援する音声である。例えば、運動ナレーションは、運動動作を説明する音声であったり、利用者41の運動を指導する音声であったりする。発声サジェスト音は、運動中の利用者41に楽曲に合わせて発声することを促す音である。発声サジェスト音に促されて利用者41が発声することにより、利用者41は運動を楽しむことができる。その理由は、発声により、気分が高揚したり運動が活発になったりするからである。また、複数の利用者41が同時に運動レッスンを行う場合には、複数の利用者41が同じ音声を発することにより一体感が生まれる。一体感が生まれると、利用者41の雰囲気が盛り上がる。
運動重視レッスンにおいては、運動動作の進行に従って運動ナレーションが出力される。基本的に発声サジェスト音は出力されない。その理由は、利用者41の身体を訓練するためである。一方、楽曲重視レッスンにおいては、運動ナレーションが出力されることもある。しかしながら、楽曲重視レッスンにおいては、発声サジェスト音が運動ナレーションよりも優先して出力される。その理由は、利用者41に運動を楽しませるためである。例えば、運動ナレーションの出力タイミングと発声サジェスト音の出力タイミングとが重なった場合、運動ナレーションは出力されず、発声サジェスト音のみが出力されても良い。また、発声サジェスト音の音量が運動ナレーションの音量よりも大きくなるように、出力端末5が音量を制御しても良い。
発声サジェスト音の種類として、掛け声サジェスト音声、歌唱サジェスト音声、盛り上げ音がある。掛け声サジェスト音声は、掛け声を促す音声である。掛け声サジェスト音声として、例えば、「イェイ」、「ハイ」等がある。楽曲のテンポに合わせてタイミングよく出力されることで、掛け声サジェスト音声は合いの手となる。掛け声サジェスト音声を聴いた利用者41は、掛け声サジェスト音声に続けて、同じ掛け声を発声する。歌唱サジェスト音声は、出力されている楽曲の歌唱を促す音声である。歌唱サジェスト音声として、例えば、「さあ、歌いましょう」等がある。また、歌唱サジェスト音声として、楽曲の歌詞を歌う音声がある。掛け声サジェスト音声を聴いた利用者41は、掛け声サジェスト音声に促されて歌唱したり、歌唱サジェスト音声と同じように歌唱したりする。歌唱することにより、利用者41が運動動作のリズムを掴みやすくなる。盛り上げ音は、利用者41の気分を高揚させるための音である。また、盛り上げ音は、歌唱している利用者41に体して更に歌唱を促す音である。盛り上げ音として、例えば、拍手、手拍子、歓声等がある。手拍子は、合いの手として、楽曲のテンポに合わせて出力される。利用者41が歌唱しているときに盛り上げ音を出力することにより、より大きな声で歌唱することを利用者41に促すことができる。歌唱サジェスト音声及び盛り上げ音のそれぞれは、本発明の歌唱を促す促し情報の一例である。歌唱サジェスト音声や盛り上げ音が出力されるとき、ディスプレイ67には、出力されている楽曲の歌詞のテロップが表示されてもよい。これにより、利用者41に歌唱を更に促すことができる。
楽曲重視レッスンにおいて、運動ナレーション、掛け声サジェスト音声、歌唱サジェスト音声及び盛り上げ音の中から何れの音が出力されるかは、楽曲重視レッスン中における利用者41の運動レベルに応じて決定される。運動レベルは、利用者41の運動の活発さや激しさ等を示す。例えば、利用者41の気分が高揚することによって運動が活発になる傾向がある。従って、発声により利用者41の気分が高揚するほど運動レベルが高くなる。また、運動しているうちに利用者41が運動動作に慣れてくることによって、運動が活発になる傾向がある。また、運動動作に慣れていけば、利用者41に発声する余裕が生まれる。運動レベルとして、レベル1〜4が存在する。各運動レベルにおいて出力される音は以下の通りである。
・運動レベル1 運動ナレーションのみ
・運動レベル2 運動ナレーションと掛け声サジェスト音声
・運動レベル3 運動ナレーションと歌唱サジェスト音声
・運動レベル4 運動ナレーションと盛り上げ音
運動レベル1では、運動ナレーションのみが出力されるので、発声サジェスト音よりも運動ナレーションの方が優先して出力されることになる。運動レベル2〜4では、運動ナレーションよりも発声サジェスト音の方が優先して出力される。運動レベル3及び4では、発声サジェスト音が継続して出力されることがあるため、運動ナレーションが全く出力されないこともある。このように、運動レベルが所定レベル未満である場合、運動ナレーションの方が優先して出力され、運動レベルが所定レベル以上である場合、発声サジェスト音の方が優先して出力される。なお、運動レベルの数は4に限られるものではない。また、所定レベル未満の或る運動レベルにおいて、運動ナレーションと発声サジェスト音とが出力され、且つ、運動ナレーションの方が優先して出力されてもよい。また、運動レベル3が複数の運動レベルに分けられてもよい。例えば、演奏パートの全ての歌詞を歌唱する歌唱サジェスト音声が出力される運動レベルと、演奏パートの先頭の歌詞のみを歌唱する歌唱サジェスト音声が出力される運動レベルとが存在してもよい。また、運動レベル4が複数の運動レベルに分けられてもよい。例えば、拍手の盛り上げ音が出力される運動レベル、手拍子の盛り上げ音が出力される運動レベル、及び歓声の盛り上げ音が出力される運動レベルが存在してもよい。
本実施形態においては、出力端末5が、運動中の利用者41の音声の検出を行う。利用者41の音声を検出するため、所定の位置にマイク68が配置される。利用者の音声の検出結果に基づいて、出力端末5は、運動レベルを判定する。スピーカ64による発声サジェスト音の出力に応じて利用者41が発声することは、利用者41の運動動作が活発になることを示すと考えられるからである。
楽曲重視レッスンの開始時点において、出力端末5は、運動レベルが1であると判定する。その理由は、利用者41がまだ運動動作を行っていないため、運動レベルが最も低いと考えられるからである。最も低い運動レベル1においては、運動ナレーションが優先して出力されるため、運動動作の習得を促進することができる。利用者41が対象運動に慣れてくると、運動レベルが2に上昇する。運動レベルが1である段階では、出力端末5は利用者41の音声を検出しない。この段階では、利用者が或る程度の運動動作を行ったとき、出力端末5は運動レベルが1から2に上昇したと判定する。例えば、出力端末5は、運動レッスンを構成する複数の運動動作のうち、1番目に行われる運動動作に対応付けられた演奏パートの演奏から、2番目に行われる運動動作に対応付けられた演奏パートの演奏に切り替わることを検出したタイミングで、運動レベルが2であると判定してもよい。運動レベルが2である段階では、歌唱サジェスト音声や盛り上げ音よりも短い発声を促す掛け声サジェスト音声が出力される。短い発声によって利用者41の気分が或る程度高揚すると、運動動作が活発になるため、運動レベルが3に上昇する。出力端末5は、スピーカ64により掛け声サジェスト音声を出力させた後、マイク68に入力された音声信号に基づいて、利用者41が発する音声の音量を検出する。そして、出力端末5は、音量が所定の閾値以上である場合、運動レベルが3であると判定する。運動レベルが3である段階では、歌唱サジェスト音声が出力される。歌唱によって利用者41の気分が更に高揚して運動動作が活発になると、運動レベルが4に上昇する。出力端末5は、スピーカ64により歌唱サジェスト音声を出力させた後、マイク68に入力された音声信号に基づいて、利用者41が発する音声の音量を検出する。そして、出力端末5は、音量が所定の閾値以上である場合、運動レベルが4であると判定する。運動レベルが4である段階では、拍手、手拍子、歓声等の歌唱サジェスト音声が出力される。この段階では、利用者41の気分は相当に高揚していると考えられる。そのため、直接的に歌唱を促さなくとも、間接的に歌唱を促すことにより、利用者41は歌唱を継続すると考えられる。歌唱サジェスト音声の出力が直接的な歌唱の促しであり、盛り上げ音の出力が間接的な歌唱の促しである。
[1−4.各装置の構成]
次に、図1及び図2を参照して、運動支援システムに含まれる各装置の構成について説明する。
[1−4−1.配信サーバ2の構成]
図1に示すように、配信サーバ2は、CPU21、ROM22、RAM23、バス24、I/Oインタフェイス25、表示制御部26、ディスクドライブ28、ネットワーク通信部30及びHDD(ハードディスクドライブ)37を備える。CPU21には、バス24を介して、ROM22、RAM23、バス24及びI/Oインタフェイス25に接続されている。CPU21は、ROM22やHDD37に記憶されプログラムを実行することにより、配信サーバ2の各部を制御する。I/Oインタフェイス25には、データベース3、表示制御部26、ディスクドライブ28、ネットワーク通信部30、キーボード31、マウス32及びHDD37が接続されている。CPU21は、I/Oインタフェイス25を介してデータベース3にアクセスする。表示制御部26は、CPU21の制御に基づいて映像信号をモニタ57に出力する。ディスクドライブ28は、記録媒体29に対するデータの書き込み及び読み出しを行う。ネットワーク通信部30は、配信サーバ2がネットワーク10に接続するための制御を行う。HDD37には、OSや各種制御プログラム等が記憶されている。
データベース3には、モーションデータ、楽曲データ、運動ナレーションデータ、発声サジェスト音データ等のデータが登録されている。モーションデータは、三次元仮想空間におけるフィギュア83の運動動作を定義するデータである。モーションデータは、ディスプレイ67にフィギュア83の運動動作を表示させるためのデータである。モーションデータは、運動動作の進行に応じたフィギュア83の身体の各部の座標を含む。モーションデータは、モーション情報と対応付けて登録される。モーション情報は、運動動作を示す識別情報である。モーション情報は、本発明の動作情報の一例である。体操の動作のモーションデータとして、一般運動動作用のモーションデータと、軽減運動動作用のモーションデータとがある。体操等の運動動作を示すモーション情報として、例えば、「ハーフ・スクワット」、「マーチ」等がある。踊りの動作を示すモーション情報として、例えば、「楽曲XのAメロ」、「楽曲XのBメロ」、「楽曲Xのサビ」、「楽曲YのAメロ」等がある。踊りの動作のモーションデータは、楽曲の演奏パートごとに存在する。
楽曲データは、スピーカ64により楽曲を出力するための演奏データである。楽曲データは、例えば、MIDI(Musical Instrument Digital Interface)形式のデータであってもよい。楽曲データは、楽曲ID、楽曲名、アーティスト名、オリジナルのテンポ、楽曲の演奏パートの構成、歌詞等の情報を含む。楽曲IDは、楽曲の識別情報である。また、楽曲データは、演奏パートの切り替わりのタイミング、歌詞テロップの表示タイミング、歌詞テロップの色を変化させるタイミング等を規定する。例えば、楽曲データがMIDI形式のデータである場合、楽曲データには、実際の演奏データとしてのMIDIメッセージに加えて、メタメッセージを含めることができる。メタメッセージとしては、例えば、演奏パートを示すマーカーメッセージ、歌詞メッセージ等がある。そのため、演奏パートを識別するパートIDや歌詞をメッセージとして楽曲データに記述することが可能である。例えば、出力端末5には、後述のミュージックシーケンサがインストールされている。出力端末5は、ミュージックシーケンサを実行することにより、楽曲データを再生するとともに、楽曲データからメタメッセージ等を読み出すと、読み出したメッセージを出力する。例えば、マーカーメッセージが出力されるタイミングが、そのマーカーメッセージが示す演奏パートが開始されるタイミングとなる。本実施形態においては、マーカーメッセージを、演奏パート開始メッセージという。演奏パート開始メッセージは、演奏パートの演奏開始を通知するメッセージである。また、例えば、歌詞メッセージが出力されるタイミングが、歌詞の表示タイミングとなる。
運動ナレーションデータは、スピーカ64により運動ナレーションを出力するための音声データである。運動ナレーションデータは、WAV形式(RIFF Waveform Audio Format)のデータであってもよい。運動ナレーションデータは、運動動作ごとに登録される。運動ナレーションデータは、1つのモーション情報に対して、1つ以上登録される。運動動作中に出力される運動ナレーションの数に応じて、運動ナレーションデータの数が決まる。運動ナレーションデータは、ナレーションIDと、対応するモーション情報とを含む。ナレーションIDは、運動ナレーションを示す識別情報である。また、運動ナレーションデータは、出力タイミング情報を含む。出力タイミング情報は、運動動作が行われる間において、運動ナレーションが出力されるタイミングを示す。例えば、出力端末5は、ミュージックシーケンサを実行することにより、同期メッセージを所定時間間隔で発生させる。出力タイミング情報は、例えば、運動動作に対応付けられた演奏パートの再生が開始されてから運動ナレーションの出力タイミングとなるまでの、同期メッセージの出力回数であってもよい。
発声サジェスト音データは、スピーカ64により発声サジェスト音を出力するための音声データである。発声サジェスト音データは、WAV形式のデータであってもよい。楽曲の演奏パートごとに、掛け声サジェスト音声、歌唱サジェスト音声及び盛り上げ音のそれぞれの発声サジェスト音データが登録される。発声サジェスト音データは、サジェスト音ID、対応する楽曲の楽曲ID、パートID及び項目種別を含む。パートIDは、演奏パートを示す識別情報である。パートIDは、本発明の演奏パート情報の一例である。項目種別は、発声サジェスト音が、掛け声サジェスト音声、歌唱サジェスト音声及び盛り上げ音の何れであるかを示す情報である。また、発声サジェスト音データは、出力タイミング情報を含む。出力タイミング情報は、対応する楽曲の演奏パートが出力されている間において、発声サジェスト音が出力されるタイミングを示す。出力タイミング情報は、例えば、対応する演奏パートの再生が開始されてから発声サジェスト音の出力タイミングとなるまでの、同期メッセージの出力回数であってもよい。
[1−4−2.出力端末5の構成]
図1に示すように、出力端末5は、CPU51、ROM52、RAM53、バス54、I/Oインタフェイス55、表示制御部56、ディスクドライブ58、ネットワーク通信部60、音声出力部63、信号受信部65及びHDD7を備える。CPU51には、バス54を介して、ROM52、RAM53、バス54及びI/Oインタフェイス55に接続されている。CPU51は、ROM52やHDD7に記憶されプログラムを実行することにより、出力端末5の各部を制御する。I/Oインタフェイス55には、HDD7、表示制御部56、音声出力部63、ディスクドライブ58、ネットワーク通信部60、キーボード61、マウス62、マイク68、信号受信部65が接続されている。表示制御部56は、CPU51の制御に基づいて映像信号をモニタ57に出力する。音声出力部63は、CPU51の制御に基づいて音声信号をモニタ57に出力する。ディスクドライブ58は、記録媒体59に対するデータの書き込み及び読み出しを行う。信号受信部65は、リモコン66から出力される信号を受信する。リモコン66は、操作者42が出力端末5を操作するためのものである。操作者42は、例えば、インストラクターである。
HDD7には、配信サーバ2から配信されたモーションデータ、楽曲データ、運動ナレーションデータ、発声サジェスト音データ等が記憶される。また、HDD7には、運動レッスン情報が記憶される。図2は、運動レッスン情報の構成例を示す図である。運動レッスン情報は、運動レッスンの構成を定めた情報である。出力端末5が運動レッスン情報を生成する。
図2(A)は、運動重視レッスンの運動レッスン情報の構成例を示す図である。運動重視レッスンの運動レッスン情報は、1以上のモーション情報を含む。モーション情報は、運動動作が行われる順に並べられている。運動重視レッスンの運動レッスン情報は、同一のモーション情報を複数含んでいてもよい。また、運動レッスン情報においては、モーション情報と、運動テンポ、ナレーションID及び楽曲IDとが、運動動作ごとに対応付けられている。モーション情報に対応付けられるナレーションIDは、モーション情報が示す運動動作を行うときに出力される運動ナレーションを示す。例えば、ハーフ・スクワットのモーション情報に対して、ハーフ・スクワット用の運動ナレーションのナレーションIDが対応付けられる。楽曲IDは、楽曲を示す識別情報である。モーション情報に対応付けられる楽曲IDは、モーション情報が示す運動動作を行うときに出力される楽曲を示す。上述したように、実際には、楽曲の一部の演奏パートのみが出力されても良い。なお、複数の運動動作に対して同一の楽曲が対応付けられてもよい。
CPU51は、運動重視レッスンが行われるとき、運動重視レッスンの運動レッスン情報から、モーション情報、運動テンポ、ナレーションID及び楽曲IDを取得する。CPU51は、運動レッスン情報から取得した楽曲IDに対応する楽曲データを取得する。そして、CPU51は、運動レッスン情報から取得した運動テンポに従って、楽曲データを再生する。また、CPU51は、運動レッスン情報から取得したモーション情報に対応するモーションデータに基づいて運動映像を生成し、生成した運動映像をディスプレイ67に表示させる。また、CPU51は、運動レッスン情報から取得したナレーションIDに対応する運動ナレーションデータに基づいて、運動ナレーションをスピーカ64により出力させる。
図2(B)は、楽曲重視レッスンの運動レッスン情報の構成例を示す図である。楽曲重視レッスンの運動レッスン情報は、1つの楽曲IDを含む。この楽曲IDは、楽曲重視レッスンが行われている間に出力される楽曲を示す。また、楽曲重視レッスンの運動レッスン情報は、複数のパートIDを含む。複数のパートIDは、楽曲IDが示す楽曲の演奏パートの構成を示す。複数のパートIDは、演奏パートの演奏順に並べられている。また、楽曲重視レッスンの運動レッスン情報においては、パートIDと、モーション情報、ナレーションID、掛け声サジェスト音声のサジェスト音ID、歌唱サジェスト音声のサジェスト音ID及び盛り上げ音のサジェスト音IDとが、演奏パートごとに対応付けられている。パートIDに対応付けられるモーション情報及びナレーションIDは、パートIDが示す演奏パートが出力されるときに行われる運動動作及びその運動動作に対応する運動ナレーションを示す。楽曲重視レッスンでは、基本的に、サビ部分に対しては、サビ部分の踊りの動作が対応付けられる。また、サビ部分と異なる演奏パートに対しては、体操の動作が対応付けられる。同一の演奏パートが2回以上演奏される場合があっても良い。この場合、同一の演奏パートのパートIDのそれぞれに対して、同一のモーション情報及びナレーションIDが対応付けられる。従って、同一の演奏パートでは同一の運動動作が行われる。なお、同一の演奏パートであっても、運動動作が異なってもよい。パートIDに対応付けられるサジェスト音IDは、パートIDが示す演奏パートが出力されるときに出力される発声サジェスト音を示す。楽曲重視レッスンの運動レッスン情報は、本発明のレッスン情報の一例である。
CPU51は、楽曲重視レッスンが開始されると、楽曲重視レッスンの運動レッスン情報から楽曲IDを取得する。CPU51は、運動レッスン情報から取得した楽曲IDに対応する楽曲データを取得する。そして、CPU51は、楽曲データ内に設定されているオリジナルのテンポに従って、楽曲データを再生する。CPU51は、ミュージックシーケンサから演奏パート開始メッセージを受信すると、運動レッスン情報から、演奏パート開始メッセージに含まれるパートIDに対応するモーション情報、ナレーションID及びサジェスト音IDを取得する。CPU51は、運動レッスン情報から取得したモーション情報に対応するモーションデータに基づいて運動映像を生成し、生成した運動映像をディスプレイ67に表示させる。また、CPU51は、運動レッスン情報から取得したナレーションIDに対応する運動ナレーションデータに基づいて、運動ナレーションをスピーカ64により出力させる。また、CPU51は、運動レッスン情報から取得したサジェスト音IDに対応する発生サジェスト音データに基づいて、発生サジェスト音をスピーカ64により出力させる。
運動重視レッスン及び楽曲重視レッスンに共通して、運動レッスン情報は、レッスンID、レッスン名、レッスン種別等を含む。レッスンIDは、運動レッスンの識別情報である。レッスン種別は、運動レッスンが運動重視レッスン及び楽曲重視レッスンの何れであるかを示す情報である。
HDD7には、更に、OS、運動支援プログラム、3Dエンジン、ミュージックシーケンサ等の各種プログラム等が記憶されている。運動支援プログラムは、利用者41の運動を支援するためのプログラムである。運動支援プログラムは、コンピュータとしてのCPU51に、判定ステップ、第1制御ステップ及び第2制御ステップを少なくとも実行させる。3Dエンジンは、モーションデータに基づいて、三次元仮想空間で運動動作するフィギュア83を二次元平面に投影した画像を生成するためのプログラムである。画像を生成する処理は、射影変換、クリッピング、隠面消去、シェーディング、テクスチャマッピング等を含む。CPU51は、3Dエンジンを実行して、静止画像を順次生成する。生成された静止画像をCPU51が表示制御部56へ順次出力することで、ディスプレイ67には、運動映像が動画として表示される。
ミュージックシーケンサは、楽曲データを再生するためのプログラムである。CPU51は、ミュージックシーケンサを実行することにより、楽曲データに対応する音声信号を生成する。また、CPU51は、ミュージックシーケンサを実行することにより、各種のメッセージを発生させる。メッセージとして、例えば、テンポに応じて所定時間間隔で発生するメッセージがある。このメッセージは、MIDIクロックや同期メッセージと呼ばれる。また、メッセージとして、例えば、演奏パート開始メッセージや歌詞メッセージがある。
各種プログラムは、例えば、配信サーバ2等のサーバからネットワーク10を介してダウンロードされるようにしても良い。また、各種プログラムは、記録媒体59に記録されてディスクドライブ58を介して読み込まれるようにしても良い。なお、3Dエンジンやミュージックシーケンサは、プログラムではなく、専用のハードウェアであってもよい。そして、出力端末5は、ハードウェアとしての3Dエンジンやミュージックシーケンサを備えてもよい。
CPU51は、設定されたテンポに従って、楽曲データに対応する音声信号を音声出力部63へ出力させるとともに、生成した画像に対応する映像信号を表示制御部56から出力させる。CPU51は、同期メッセージに基づいて、楽曲の音声信号の出力タイミングと運動映像の映像信号の出力タイミングとを同期させる。これにより、スピーカ64から出力される楽曲に同期して運動動作を行うフィギュア83がディスプレイ67に表示される。また、CPU51は、演奏パート開始メッセージに基づいて、楽曲の演奏パートの切り替わり及び演奏が開始される演奏パートを検出する。CPU51は、楽曲の演奏パートの切り替わりを検出することにより、運動動作の切り替わりも検出することができる。また、CPU51は、同期メッセージに基づいて、運動ナレーションや発声サジェスト音の出力タイミングを特定する。CPU51は、楽曲データの音声信号と、運動ナレーションや発声サジェスト音の音声信号とを混合させる。そして、CPU51は、混合した音声信号を音声出力部63から出力させる。また、CPU51は、歌詞メッセージに基づいて、歌詞のテロップの表示タイミング、歌詞のテロップの色を変化させるタイミング等を特定する。そして、CPU51は、運動映像に歌詞のテロップが重畳された映像信号を表示制御部56から出力させる。
[1−5.運動支援システム1の動作]
次に、図3及び図4を参照して、運動支援システム1の動作を説明する。図3は、出力端末5のCPU51の運動レッスン情報生成処理である。操作者42が、キーボード61やマウス62を操作して、運動レッスン情報の生成を選択する。すると、運動レッスン情報生成処理が開始される。
図3に示すように、CPU51は、運動レッスンの種類が、楽曲重視レッスンであるか否かを判定する(ステップS1)。例えば、操作者42が、運動重視レッスンと楽曲重視レッスンとの中から運動レッスンの種類を選択する。CPU51は、操作者42による選択に基づいて判定を行う。CPU51は、利用者により運動重視レッスンが選択されたと判定した場合には(ステップS1:NO)、ステップS2に進む。一方、CPU51は、利用者により楽曲重視レッスンが選択されたと判定した場合には(ステップS1:YES)、ステップS5に進む。
ステップS2において、CPU51は、運動動作の選択及び運動テンポの設定を検出する。例えば、CPU51は、ディスプレイ67に体操の動作の一覧を表示させる。操作者42は、一覧の中から所望の運動動作を選択する。また、操作者42は、運動テンポを設定する。CPU51は、RAM53に、選択された運動動作のモーション情報と、設定された運動テンポとを対応付ける。
次いで、CPU51は、選択された運動動作に応じて楽曲を選択する(ステップS3)。例えば、CPU51は、運動動作に適した演奏方法に対応する楽曲を選択してもよい。運動動作に適した演奏方法に対応する楽曲の選択方法は、特開2011−45477に開示されているので、詳細な説明は省略する。あるいは、CPU51は、例えば、楽曲のオリジナルのテンポが運動テンポと一致する楽曲、又は、楽曲のオリジナルのテンポが運動テンポと運動テンポとの差が所定値以下である楽曲を選択してもよい。CPU51は、選択された運動動作のモーション情報を配信サーバ2に送信してもよい。そして、配信サーバ2がモーション情報に基づいて楽曲を選択してもよい。あるいは、操作者42が楽曲を選択してもよい。CPU51は、選択された楽曲の楽曲IDを、選択された運動動作のモーション情報に対応付ける。
次いで、CPU51は、選択された運動動作に対応する運動ナレーションを選択する(ステップS4)。例えば、CPU51は、選択された運動動作のモーション情報を配信サーバ2に送信する。配信サーバ2は、受信したモーション情報を含む運動ナレーションデータをデータベース3から検索する。配信サーバ2は、検索された運動ナレーションデータのナレーションIDを出力端末5へ送信する。CPU51は、受信したナレーションIDを、選択された運動動作のモーション情報に対応付ける。
CPU51は、操作者42が運動動作を選択するごとに、ステップS2〜S4を実行する。操作者42が、選択の終了を指示すると、CPU51は、生成した運動レッスン情報をHDD7に記憶させる。そして、CPU51は、運動レッスン情報生成処理を終了させる。
ステップS5において、CPU51は、楽曲の選択を検出する。例えば、操作者42は、キーワード等の検索条件を入力する。すると、CPU51は、検索条件に対応する楽曲を検索する。CPU51は、検索条件を配信サーバ2へ送信することにより、配信サーバ2に楽曲を検索させてもよい。CPU51は、検索された楽曲の一覧をディスプレイ67に表示する。操作者42は、一覧の中から所望の楽曲を選択する。CPU51は、RAM53に、選択された楽曲の楽曲IDを記憶させる。また、CPU51は、選択された楽曲の演奏パートの構成に応じた複数のパートIDを演奏順にRAM53に記憶させる。
次いで、CPU51は、楽曲を構成する複数の演奏パートの中に、運動動作が未割り当ての演奏パートがあるか否かを判定する(ステップS6)。このとき、CPU51は、運動動作が未割り当ての演奏パートがあると判定した場合には(ステップS6:YES)、ステップS7に進む。なお、CPU51は、一部の演奏パートに対しては、運動動作を割り当てないように制御しても良い。
ステップS7において、CPU51は、運動動作が未割り当ての演奏パートの中から、今回割り当てを行う演奏パートを選択する。CPU51が自動的に演奏パートを選択してもよいし、操作者42が演奏パートを選択してもよい。
次いで、CPU51は、選択された演奏パートに割り当てる運動動作を選択する(ステップS8)。例えば、選択された演奏パートがサビ部分である場合、CPU51は、選択された演奏パートに対応する踊りの動作を選択する。選択された演奏パートがサビ部分と異なる演奏パートである場合、CPU51は、ディスプレイ67に体操の動作の一覧を表示させる。操作者42は、一覧の中から所望の運動動作を選択する。CPU51は、選択された運動動作のモーション情報を、選択された演奏パートのパートIDに対応付ける。
次いで、CPU51は、選択された運動動作に対応する運動ナレーションを選択する(ステップS9)。この処理は、ステップS4と同様である。CPU51は、選択された運動ナレーションのナレーションIDを、選択された運動動作のモーション情報に対応付ける。
次いで、CPU51は、選択された演奏パートに対して、未割り当ての発声サジェスト音の項目があるか否かを判定する(ステップS10)。発声サジェスト音の項目は、掛け声サジェスト音声、歌唱サジェスト音声及び盛り上げ音である。このとき、CPU51は、未割り当ての項目があると判定した場合には(ステップS10:YES)、ステップS11に進む。一方、CPU51は、未割り当ての項目がないと判定した場合には(ステップS10:NO)、ステップS6に進む。なお、CPU51は、一部の演奏パートに対しては、発声サジェスト音を割り当てないように制御しても良い。
ステップS11において、CPU51は、未割り当ての項目のうち1つの項目について、発声サジェスト音を選択する。例えば、CPU51は、選択された楽曲の楽曲ID、演奏パートのパートID及び項目種別を配信サーバ2に送信する。配信サーバ2は、受信した楽曲ID、パートIDを及び項目種別を含む発声サジェスト音データをデータベース3から検索する。配信サーバ2は、検索された発声サジェスト音データのサジェスト音IDを出力端末5へ送信する。CPU51は、受信したサジェスト音IDを、選択された演奏パートのパートIDに対応付ける。次いで、CPU51は、ステップS10に進む。CPU51は、ステップS11を繰り返すことにより、掛け声サジェスト音声、歌唱サジェスト音声及び盛り上げ音の割り当てを行う。ただし、CPU51は、歌唱がない演奏パートに対しては歌唱サジェスト音声を割り当てなくても良い。
ステップS6において、CPU51は、運動動作が未割り当ての演奏パートがないと判定した場合には(ステップS6:NO)、生成した運動レッスン情報をHDD7に記憶させる。そして、CPU51は、運動レッスン情報生成処理を終了させる。
図4は、出力端末5のCPU51の音声出力制御処理である。操作者42が、キーボード61やマウス62を操作して、運動レッスンの実行を選択する。すると、CPU51は、HDD7に記憶された運動レッスン情報に基づいて、運動レッスンの一覧をディスプレイ67に表示させる。操作者42が、一覧の中から所望の運動レッスンを選択する。すると、音声出力制御処理が開始される。
図4に示すように、CPU51は、選択された運動レッスンの種類が、楽曲重視レッスンであるか否かを判定する(ステップS21)。具体的に、CPU51は、操作者42により選択された運動レッスンに対応する運動レッスン情報に含まれるレッスン種別に基づいて、運動レッスンの種類が楽曲重視レッスンであるか否かを判定する。このとき、CPU51は、運動レッスンの種類が運動重視レッスンであると判定した場合には(ステップS21:NO)、ステップS22に進む。一方、CPU51は、運動レッスンの種類が楽曲重視レッスンであると判定した場合には(ステップS21:YES)、ステップS24に進む。
ステップS22において、CPU51は、運動ナレーションをスピーカ64により出力させる。具体的に、CPU51は、運動レッスン情報から、運動レッスンで行われる複数の運動動作のうち、1番目に行われる運動動作のモーション情報に対応するナレーションIDを取得する。CPU51は、取得したナレーションIDに対応する運動ナレーションデータに基づいて、運動ナレーションの音声信号を、ミュージックシーケンサから出力される同期メッセージに同期させて音声出力部63に出力する。例えば、CPU51は、1つの演奏パートの再生処理が開始してから、同期メッセージがミュージックシーケンサから出力された回数をカウントする。CPU51は、運動ナレーションデータに含まれる出力タイミング情報が示す回数が、カウントした回数と一致したタイミングで、運動ナレーションの音声信号を音声出力部63に出力する。
1つの楽曲の一部の演奏パートの繰り返し再生が完了すると、CPU51は、運動レッスンで再生されるべき全ての楽曲の再生が終了したか否かを判定する(ステップS23)。例えば、CPU51は、ミュージックシーケンサにおける再生処理において、1つの楽曲の再生が完了すると、運動レッスン情報から、次の運動動作のモーション情報に対応する楽曲IDを取得する。CPU51は、取得した楽曲IDに対応する楽曲データに基づいて、楽曲の再生処理を行う。そして、CPU51は、運動レッスン情報に設定されている全ての楽曲IDに対応する楽曲の再生処理が終了した場合に、全ての楽曲の再生が終了したと判定する。このとき、CPU51は、全ての楽曲の再生が終了していないと判定した場合には(ステップS23:NO)、ステップS22に進む。ステップS22に進むと、CPU51は、次に行われる運動動作のモーション情報に対応するナレーションIDを取得する。そして、CPU51は、取得したナレーションIDに対応する運動ナレーションをスピーカ64により出力させる。一方、CPU51は、全ての楽曲の再生が終了したと判定した場合には(ステップS23:YES)、音声出力制御処理を終了させる。
選択された運動レッスンの種類が楽曲重視レッスンである場合、再生処理において、CPU51は、運動レッスン情報から楽曲IDを取得する。そして、CPU51は、取得した楽曲IDに対応する楽曲データに基づいて、楽曲の構成に従った再生処理を行う。
ステップS24において、CPU51は、カウンターに0を設定する。CPU51は、カウンターをRAM53に記憶させる。また、CPU51は、ミュージックシーケンサから出力される演奏パート開始メッセージに基づいて、演奏パートを特定する。また、CPU51は、運動レッスンが開始したばかりであるので、運動レベルは1であると判定する。
次いで、CPU51は、運動ナレーションをスピーカ64により出力させる(ステップS25)。具体的に、CPU51は、運動レッスン情報から、ステップS24において特定された演奏パートのパートIDに対応する運動ナレーションデータを取得する。CPU51は、取得したナレーションIDに対応する運動ナレーションデータに基づいて、運動ナレーションの音声信号を同期メッセージに同期させて音声出力部63に出力する。運動ナレーションの音声信号を同期メッセージに同期させる方法は、ステップS22の場合と同様である。
次いで、楽曲が終了したか否かを判定する(ステップS26)。例えば、楽曲データには、終了メッセージが記述されている。終了メッセージは、楽曲全体の演奏の終了を示すメッセージである。CPU51は、ミュージックシーケンサから終了メッセージを受信した場合に、楽曲が終了したと判定する。このとき、CPU51は、楽曲が終了していないと判定した場合には(ステップS26:NO)、ステップS27に進む。
ステップS27において、CPU51は、運動動作が切り替わったか否かを判定する。楽曲重視レッスンでは、演奏パートの切り替わりが、運動動作の切り替わりである。CPU51は、ミュージックシーケンサから演奏パート開始メッセージを受信したとき、運動動作が切り替わったと判定する。このとき、CPU51は、運動動作が切り替わっていないと判定した場合には(ステップS27:NO)、ステップS25に進む。一方、CPU51は、運動動作が切り替わったと判定した場合には(ステップS27:YES)、ステップS28に進む。この場合、1つの運動動作が終わったため、CPU51は、運動レベルが2に上昇したと判定する。
ステップS28において、CPU51は、掛け声サジェスト音声をスピーカ64により出力させる。具体的に、CPU51は、運動レッスン情報から、切り替わった演奏パートのパートIDに対応する掛け声サジェストのサジェスト音声IDを取得する。CPU51は、取得したサジェスト音声IDに対応する発声サジェスト音声データに基づいて、掛け声サジェスト音声を同期メッセージに同期させて音声出力部63に出力する。
次いで、CPU51は、利用者41の音声を検出したか否かを判定する(ステップS29)。マイク68から集音された音声は、音声信号としてCPU51に供給される。CPU51は、音声信号に基づいて、利用者41が発した音声の音量が所定の閾値以上であるか否かを判定する。音量が閾値以上である場合、CPU51は、利用者41の音声を検出したと判定する(ステップS29:YES)。この場合、CPU51は、ステップS30に進む。一方、CPU51は、利用者41の音声を検出していないと判定した場合には(ステップS29:NO)、ステップS25に進む。
ステップS30において、CPU51は、カウンターに1を加算する。次いで、CPU51は、カウンターが所定値以上であるか否かを判定する(ステップS31)。このとき、CPU51は、カウンターが所定値以上ではないと判定した場合には(ステップS31:NO)、ステップS25に進む。一方、CPU51は、カウンターが所定値以上であると判定した場合には(ステップS31:YES)、ステップS32に進む。このとき、CPU51は、運動レベルは3であると判定する。つまり、掛け声サジェスト音声に応じた掛け声の発生を利用者41が所定回数行うと、運動レベルは3に上昇したと判定される。
運動レベルが3又は4である場合、音声出力制御処理と並行する運動映像の出力処理において、CPU51は、現在の演奏パートに対応する歌詞のテロップをディスプレイ67に表示させる。
ステップS32において、CPU51は、歌唱サジェスト音声をスピーカ64により出力させる。具体的に、CPU51は、運動レッスン情報から、現在の演奏パートのパートIDに対応する歌唱サジェスト音声のサジェスト音声IDを取得する。CPU51は、取得したサジェスト音声IDに対応する発声サジェスト音声データに基づいて、歌唱サジェスト音声を同期メッセージに同期させて音声出力部63に出力する(ステップS32)。
次いで、CPU51は、利用者41の音声を検出したか否かを判定する(ステップS33)。この判定の方法は、ステップS29の場合と同様である。このとき、CPU51は、利用者41の音声を検出していないと判定した場合には(ステップS33:NO)、ステップS32に進む。一方、CPU51は、利用者41の音声を検出したと判定した場合には(ステップS33:YES)、ステップS34に進む。このとき、CPU51は、運動レベルは4であると判定する。つまり、出力された歌唱サジェスト音声に応じて利用者41が歌唱したため、運動レベルは4に上昇したと判定される。
次いで、CPU51は、楽曲が終了したか否かを判定する(ステップS34)。このとき、CPU51は、楽曲が終了していないと判定した場合には(ステップS34:NO)、ステップS35に進む。
ステップS35において、CPU51は、盛り上げ音をスピーカ64により出力させる。具体的に、CPU51は、運動レッスン情報から、現在の演奏パートのパートIDに対応する盛り上げ音のサジェスト音声IDを取得する。CPU51は、取得したサジェスト音声IDに対応する発声サジェスト音声データに基づいて、盛り上げ音を同期メッセージに同期させて音声出力部63に出力する。
次いで、CPU51は、利用者41の音声を検出したか否かを判定する(ステップS36)。この判定の方法は、ステップS29の場合と同様である。このとき、CPU51は、利用者41の音声を検出していないと判定した場合には(ステップS36:NO)、ステップS32に進む。このとき、CPU51は、運動レベルは3であると判定する。つまり、出力された盛り上げ音声に応じて利用者41が歌唱していないため、運動レベルは3に下降したと判定される。一方、CPU51は、利用者41の音声を検出したと判定した場合には(ステップS36:YES)、ステップS35に進む。つまり、出力された盛り上げ音声に応じて利用者41が歌唱したため、運動レベルは4と判定される。
ステップS26又はステップS34において、CPU51は、楽曲が終了したと判定した場合には(ステップS26:YES、ステップS34:YES)、音声出力制御処理を終了させる。
以上説明したように、本実施形態によれば、CPU51が、運動レッスンが運動重視レッスンと楽曲重視レッスンの何れであるかを判定する。CPU51が、運動レッスンが運動重視レッスンであると判定した場合、運動動作の進行に応じて運動ナレーションをスピーカ64により出力させる。CPU51が、運動レッスンが楽曲重視レッスンであると判定した場合、発声サジェスト音を運動ナレーションよりも優先して、スピーカ64により出力させる。そのため、運動重視レッスンであるか、楽曲重視レッスンであるかに応じて、利用者41を支援する音を適切に決定することができる。
[2.第2実施形態]
次に、図5を参照して、第2実施形態について説明する。第1実施形態においては、利用者の音声の検出結果に基づいて、出力端末5は、運動レベルを判定していた。第2実施形態においては、出力端末5が、演奏パートの出力回数に基づいて運動レベルを判定する。演奏パートの出力回数は、演奏回数又は繰り返し数でもある。
1つの楽曲の中に同一の演奏パートが複数回現れる場合がある。同一の演奏パートが複数回現れることは、図2(B)に示すように、同一の運動動作が複数回行われることである。同一の運動動作を繰り返し行うほど、利用者41は、その運動動作に慣れてくる。そのため、利用者41の運動レベルは次第に上昇する。そこで、出力端末5は、各演奏パートについて、繰り返し出力されるほど、運動レベルを高く判定する。各演奏パートにおいて、運動レベルの初期値及び運動レベルの上昇幅は任意である。
図5は、運動レベルの割り当ての例を示す図である。図5の例では、運動レベルの初期値は1である。また、演奏パートが一回出力されるごとに、運動レベルが1上昇する。サビ部分については、最後のサビ部分が出力されるときに運動レベルが最大値になるように、運動レベルの初期値が調整される。その理由は、楽曲の最も盛り上がる部分で、利用者41を盛り上げるためである。この場合、出力端末5は、サビ部分で最低でも1回は、歌唱を促す発声サジェスト音である盛り上げ音を、運動ナレーションよりも優先して出力させることになる。
例えば、図5に示すように、Aメロ、Bメロ、サビ、Aメロ、Bメロ、サビ、間奏、サビの順で楽曲が出力されるとする。この場合、最初のAメロ部分及びBメロ部分の運動レベルはそれぞれ1である。最初のサビ部分の運動レベルは2である。2回目のAメロ部分及びBメロ部分の運動レベルはそれぞれ2である。2回目のサビ部分の運動レベルは3である。間奏部分の運動レベルは1である。最後のサビ部分の運動レベルは4である。
出力端末5のCPU51の音声出力制御処理を説明する。利用者41が選択した運動レッスンの種類が楽曲重視レッスンである場合、CPU51は、各演奏パートの運動レベルを0に設定する。また、CPU51は、楽曲データに基づいて、サビ部分の出力回数をカウントする。サビ部分の出力回数が3未満である場合、CPU51は、4からサビ部分の出力回数を引いて得られる値を、サビ部分の運動レベルとして設定する。楽曲の再生処理が開始されると、CPU51は、ミュージックシーケンサから出力される演奏パート開始メッセージに基づいて、演奏パートの切り替わり及び切り替わった演奏パートを特定する。CPU51は、演奏パート開始メッセージを受信したとき、特定した演奏パートの運動レベルに1を加算する。そして、CPU51は、運動レベルの判定を行う。CPU51は、判定した運動レベルに基づいて、運動ナレーションと発声サジェスト音の何れを優先して出力させるかを決定する。また、運動レベルが2以上である場合、CPU51は、掛け声サジェスト音声、歌唱サジェスト音声及び盛り上げ音の何れを出力させるかを決定する。そして、CPU51は、運動レベルに対応した音をスピーカ64により出力させる。CPU51は、楽曲が終了するまで、運動レベルのカウント及び判定、並びに運動レベルに応じた音の出力制御を繰り返す。
なお、出力端末5は、運動レベルの判定を行わなくてもよい。例えば、演奏パートごとに、運動ナレーションと発声サジェスト音の何れを優先して出力させるかが予め定められてもよい。また、例えば、演奏パートごとに、掛け声サジェスト音声、歌唱サジェスト音声及び盛り上げ音の何れを出力させるかが予め定められてもよい。この場合、サビ部分については、歌唱サジェスト音声及び盛り上げ音のうち少なくとも何れか一方が、運動ナレーションよりも優先して出力されるように定められてもよい。
上記各実施形態においては、本発明の情報処理装置が出力端末5に適用されていた。しかしながら、本発明の情報処理装置が配信サーバ2に適用されてもよい。例えば、運動レッスン情報が生成されたときに、配信サーバ2は、運動レッスン情報に基づいて、運動映像の動画データを予め生成してもよい。運動レッスンが行われるとき、配信サーバ2は、運動ナレーションデータ、発声サジェスト音データ及び生成した動画データをストリーミング方式で出力端末5に送信する。これにより、配信サーバ2は、出力端末5に運動映像を表示させ、運動ナレーションや発声サジェスト音を出力させる。