JP2008161552A - Music data reproducing apparatus and progran - Google Patents
Music data reproducing apparatus and progran Download PDFInfo
- Publication number
- JP2008161552A JP2008161552A JP2006356151A JP2006356151A JP2008161552A JP 2008161552 A JP2008161552 A JP 2008161552A JP 2006356151 A JP2006356151 A JP 2006356151A JP 2006356151 A JP2006356151 A JP 2006356151A JP 2008161552 A JP2008161552 A JP 2008161552A
- Authority
- JP
- Japan
- Prior art keywords
- animation
- music data
- display
- music
- tempo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、音楽再生をしながらフィットネスを行う際に用いて好適な音楽データ再生装置およびプログラムに関する。 The present invention relates to a music data playback apparatus and program suitable for use in fitness while playing music.
音楽の自動演奏装置とフィットネス装置とを組み合わせることにより、ユーザの動作と同期させて音楽を再生する装置が特許文献1に開示されている。また、これは特に音楽再生に関係するものではないが、ユーザがフィットネスなどを行うにあたって、心拍などのユーザの状態を検出するために、腕時計型の装置をユーザに装着する技術が特許文献2に開示されている。また、これは特にフィットネスに関係するものではないが、自動演奏データに基づいて音楽を再生する際、人間が動作を行うような図形をディスプレイに表示する技術が特許文献3に開示されている。これは、例えば自動演奏中に発音情報が検出されると「立った姿勢」、それ以外の場合は「座った姿勢」の画像を表示させるものである。
ところで、特許文献1に開示された内容は「ユーザのフィットネス動作に音楽(の拍タイミングなど)を合わせる」ものであるが、これでは音楽のテンポが不自然に変動するため、「音楽に合わせてユーザがフィットネスする」ことが望ましい場合もある。しかし、音楽に合わせてユーザがフィットネスする場合には、どのタイミングにユーザがどのような動作を行えば良いのか、非常に解り辛くなる場合がある。このため、ユーザがフィットネス中に「音楽に動作を合わせる」ことを楽しめなくなる。さらに、ユーザの動作が過度に速くなると体に無理な負担がかかり、ユーザの動作が過度に遅くなると充分な運動効果が得られなくなるという問題が生じる。
この発明は上述した事情に鑑みてなされたものであり、音楽に合わせた適切な動作をユーザが容易に把握でき、これによって「音楽に動作を合わせる」ことを楽しみつつ、適切な運動効果を得ることができる音楽データ再生装置およびプログラムを提供することを目的としている。
By the way, the content disclosed in
The present invention has been made in view of the above-described circumstances, and allows a user to easily grasp an appropriate action in accordance with music, thereby obtaining an appropriate exercise effect while enjoying “matching an action with music”. It is an object of the present invention to provide a music data reproducing apparatus and program capable of performing the above.
上記課題を解決するため本発明にあっては、下記構成を具備することを特徴とする。なお、括弧内は例示である。
請求項1記載の音楽データ再生装置にあっては、演奏情報(SMF形式、SMAF形式)または音声データ(MP3方式)である音楽データを再生する 音楽データ再生手段(SP114,148)と、表示装置(106,136)と、前記音楽データのテンポが所定値(140)以上であれば第1のアニメーション(走行状態)を選択し、 前記音楽データのテンポが該所定値(140)未満であれば第2のアニメーション(歩行状態)を選択する アニメーション選択手段(SP18)と、前記音楽データに同期して、該アニメーション選択手段(SP18)によって 選択されたアニメーションを前記表示装置(106,136)に表示させる アニメーション表示手段(SP122〜SP124)とを有することを特徴とする。
さらに、請求項2記載の構成にあっては、請求項1記載の音楽データ再生装置において、前記第1のアニメーション(走行状態)は、 着地状態の第1群のコマ(R1,R4〜R6,R9,R10)と、 非着地状態の第2群のコマ(R2,R3,R7,R8)と から成るものであり、前記アニメーション表示手段(SP122〜SP124)は、 前記音楽データの拍タイミングに前記第1群のコマ(R1,R4〜R6,R9,R10) のうち何れかを表示させるものであることを特徴とする。
さらに、請求項3記載の構成にあっては、請求項1記載の音楽データ再生装置において、表示位置によって前記音楽データの再生の進行状況を示すカーソル画像(12)を 前記表示装置(106,136)に表示させる 進行状況表示手段(12,106,136)をさらに有し、前記アニメーション表示手段(106,136)は、前記第1のまたは第2のアニメーション の表示位置を前記カーソル画像(12)に沿って移動させるものであることを特徴とする。
また、請求項4記載のプログラムにあっては、処理装置(112,142)と、 表示装置(106,136)と、 演奏情報(SMF形式、SMAF形式)または音声データ(MP3方式)である 音楽データを再生する音楽データ再生手段(SP114,148)と を有する音楽データ再生装置に適用されるプログラムであって、前記音楽データのテンポが所定値(140)以上であれば第1のアニメーション(走行状態)を選択し、 前記音楽データのテンポが該所定値(140)未満であれば第2のアニメーション(歩行状態)を選択する アニメーション選択過程(SP18)と、前記音楽データに同期して、該アニメーション選択過程(SP18)によって 選択されたアニメーションを前記表示装置(106,136)に表示させる アニメーション表示過程(SP122〜SP124)とを前記処理装置(112,142)に実行させることを特徴とする。
In order to solve the above problems, the present invention is characterized by having the following configuration. The parentheses are examples.
The music data reproducing apparatus according to
Furthermore, in the configuration according to claim 2, in the music data reproducing device according to
Furthermore, in the configuration according to claim 3, in the music data reproducing device according to
Further, in the program according to claim 4, music which is a processing device (112, 142), a display device (106, 136), performance information (SMF format, SMAF format) or audio data (MP3 format). The program is applied to a music data playback device having music data playback means (SP114, 148) for playing back data, and if the tempo of the music data is not less than a predetermined value (140), the first animation (running) If the tempo of the music data is less than the predetermined value (140), the second animation (walking state) is selected. In synchronization with the music data, the animation selection process (SP18) The animation selected in the animation selection process (SP18) is displayed on the display device (106, 136). Characterized in that to execute the animation display process (SP122~SP124) to said processing unit (112 and 142).
以上のように、音楽データのテンポに基づいて第1のまたは第2のアニメーションを選択する構成によれば、楽曲のテンポに応じた適切なアニメーションを選択することができる。
また、第1のアニメーションとして、着地状態の第1群のコマと、非着地状態の第2群のコマとを表示する構成によれば、音楽に合わせた適切な動作をユーザが容易に把握できるようになる。
As described above, according to the configuration in which the first or second animation is selected based on the tempo of the music data, it is possible to select an appropriate animation according to the tempo of the music.
Moreover, according to the structure which displays the 1st group frame of a landing state and the 2nd group frame of a non-landing state as a 1st animation, a user can grasp | ascertain the suitable operation | movement according to music easily. It becomes like this.
1.実施例のハードウエア構成
以下、この発明の一実施例のフィットネス管理システムの構成を図1を参照し説明する。本実施例のフィットネス管理システムは、腕時計状の形態を有し、ユーザに装着されるユーザ装着ユニット130と、該ユーザ装着ユニット130に接続されたパーソナルコンピュータ(PC)100とから構成されている。PC100の内部において102は操作子部であり、キーボード、マウス等から構成されている。104は検出回路であり、操作子部102の状態を検出する。106は表示部であり、表示回路108の制御の下、ユーザに対して各種情報を表示する。112はCPUであり、通信バス116を介してPC100内の各部を制御する。
1. Hardware Configuration of Embodiment Hereinafter, the configuration of a fitness management system of an embodiment of the present invention will be described with reference to FIG. The fitness management system according to the present embodiment has a wristwatch-like form, and includes a
110は記憶装置であり、CPU112の制御プログラム等を記憶するROMと、CPU112のワークメモリとして用いられるRAMとから構成されている。114は通信インタフェースであり、有線または無線のネットワーク160を介してユーザ装着ユニット130との間でデータを送受信する。118は音源回路であり、通信バス116を介して供給された演奏情報に基づいて、波形データを生成する。120は効果回路であり、この波形データに対して各種のエフェクトを付与する。122はサウンドシステムであり、効果回路120から出力された楽音信号を発音する。
次に、ユーザ装着ユニット130の内部において132は操作子部であり、数個のボタン等から構成されている。134は検出回路であり、操作子部132の状態を検出する。136は表示部であり、表示回路138の制御の下、ユーザに対して各種情報を表示する。142はCPUであり、通信バス146を介してユーザ装着ユニット130内の各部を制御する。140は記憶装置であり、CPU142の制御プログラム等を記憶するROMと、CPU142のワークメモリとして用いられるRAMとから構成されている。
Next, 132 in the
144は通信インタフェースであり、ネットワーク160を介してPC100の通信インタフェース114との間でデータを送受信する。148は音源回路であり、通信バス146を介して供給された演奏情報に基づいて、波形データを生成する。150は効果回路であり、この波形データに対して各種のエフェクトを付与する。152はサウンドシステムであり、効果回路150から出力された楽音信号を発音する。156はセンサであり、ユーザの心拍等を検出する。154はセンサ検出回路であり、センサ156からの出力信号をデジタル信号に変換し、通信バス146を介して出力する。
次に、ユーザ装着ユニット130の外観構成を図2を参照し説明する。図2においてユーザ装着ユニット130は、略直方体状の筐体130−1内に収納されている。筐体130−1の上下部分には、該ユーザ装着ユニット130をユーザの腕に装着するためのバンド130−2,130−2が取り付けられている。132−1はアップ・スイッチ、132−2はダウン・スイッチ、132−3はメニュー・スイッチ、132−4は電源スイッチであり、ユーザによって必要により操作される。表示部136は、アップ・スイッチ132−1およびダウン・スイッチ132−2の間に設けられている。162はアンテナであり、略円柱状に形成され、ユーザ装着ユニット130とPC100とが無線通信を行う際に、電波を送受信する。
Next, the external configuration of the
164はUSBポートであり、ユーザ装着ユニット130とPC100とが有線通信を行う際、ここにUSBケーブルが挿入される。166はイヤホン・ジャックであり、イヤホン・アセンブリ170のプラグ171が挿入される。イヤホン・アセンブリ170は、該プラグ171と、左イヤホン174と、右イヤホン176と、心拍センサ178と、これらを結ぶケーブル172とから構成されている。ここで、心拍センサ178は、クリップ状に構成されており、ユーザの耳たぶを挟むようにして装着される。
2.実施例のデータ構成
上述した記憶装置110,140には、曲データと、曲データ管理テーブルとが記憶される。ここで、曲データは、楽曲の内容を特定するデータであり、SMF、SMAF形式等の演奏情報であってもよく、MP3形式などの音声データであってもよい。また、曲データ管理テーブルは、これら曲データの曲名、テンポ、再生時間などの情報を曲データ毎に記録したテーブルである。
2. Data Configuration of Embodiment The music data and the music data management table are stored in the
3.実施例の動作
3.1.動作の概要
次に、本実施例の動作の概要を説明する。まず、本実施例には、ユーザ装着ユニット130の全体的な動作状態を規定する全体モードと、選択された全体モードにおいて各種操作子の機能を規定する操作モードという二つの動作モードがある。まず、全体モードは、PC100とユーザ装着ユニット130との接続状態に基づいて、「コネクション・モード」と「単独モード」のうちの何れかに設定される。コネクション・モードとは、ネットワーク160を介してユーザ装着ユニット130がPC100と接続されている場合の全体モードである。また、単独モードは、ユーザ装着ユニット130がPC100に接続されることなく単独で動作する全体モードである。コネクション・モードにおいては、様々な表示制御や音楽再生等はPC100によって実行され、ユーザ装着ユニット130はPC100の入出力装置として機能する。一方、単独モードにおいては、ユーザ装着ユニット130のCPU142自体によって様々な表示制御や音楽再生等の処理が実行される。また、操作モードには、再生する楽曲を選択する曲選択モード等がある。
3. Operation of the embodiment
3.1. Outline of Operation Next, an outline of the operation of the present embodiment will be described. First, in this embodiment, there are two operation modes: an overall mode that defines the overall operation state of the
ここで、曲選択モードの動作の概要を説明しておく。操作モードが曲選択モードになると、表示部106に複数の楽曲名のリストが表示され、何れかの楽曲名の箇所に曲選択カーソルが置かれる。この曲選択カーソルが置かれた楽曲を「特定曲」という。ユーザがアップ・スイッチ132−1またはダウン・スイッチ132−2等を操作すると、楽曲名リスト上で曲選択カーソルを移動させることができ、該曲選択カーソルの移動とともに、「特定曲」も変更される。
Here, an outline of the operation in the music selection mode will be described. When the operation mode is the song selection mode, a list of a plurality of song names is displayed on the
コネクション・モードにおいては、PC100の表示部106には、図3(a)に示すガイド画像6が表示される。ガイド画像6の内部において、10はプログレス・バーであり、横長の棒状の図形として表示される。12はカーソルであり、音楽再生の進行とともにプログレス・バー10上を左端から右端に向かって移動する。プログレス・バー10の上方において14は背景画像であり、その内部に人画像16が表示されている。
In the connection mode, the guide image 6 shown in FIG. 3A is displayed on the
人画像16は、アニメーションであり、本実施例にあっては、人画像16が走行する「走行状態」または人画像16が歩行する「歩行状態」の二種類のキャラクタ種類のうち何れかのアニメーションが選択される。何れのキャラクタ種類においても、人画像16は、カーソル12の直上の位置に表示されるため、音楽再生の進行とともに背景画像14内を左端から右端に向かって移動する。ここで、「走行状態」のアニメーションとは、図3(b)に示すコマR1〜R10を順次かつ繰り返し再生するものである。また、「歩行状態」のアニメーションとは、図3(c)に示すコマW1〜W10を順次かつ繰り返し再生するものである。なお、本明細書において「走行状態」とは、「両足が浮いている状態(例えばコマR2,R3,R7,R8)」と、「少なくとも一方の足が着地した状態(同、コマR1,R4〜R6,R9,R10)」との二種類の状態を有することをいい、「歩行状態」とは「全てのコマにおいて少なくとも一方の足が着地している」ことをいう。
The
本実施例においては、アニメーションのキャラクタ種類は、再生対象の楽曲すなわち特定曲のテンポ値に対応して、「キャラクタ種類CHA」という変数に自動的にセットされる。すなわち、特定曲のテンポ値が「140」未満であればキャラクタ種類CHAは、“0”(歩行状態)に設定され、特定曲のテンポ値が「140」以上であればキャラクタ種類CHAは、“1”(走行状態)に設定される。 In this embodiment, the character type of the animation is automatically set to a variable “character type CHA” corresponding to the tempo value of the music to be reproduced, that is, the specific music. That is, if the tempo value of the specific song is less than “140”, the character type CHA is set to “0” (walking state), and if the tempo value of the specific song is “140” or more, the character type CHA is “ 1 "(running state) is set.
3.2.コネクション・モードの動作
3.2.1.メインルーチン
次に、図4,図5を参照し、コネクション・モードにおけるPC100の動作を説明する。
図4において処理がステップSP2に進むと、所定の初期設定が行われる。次に、処理がステップSP4に進むと、各種の操作子イベントが発生したか否かが判定される。ここで、操作子イベントとは、ユーザ装着ユニット130内の各スイッチ132−1〜132−3の操作イベント、あるいはPC100の操作子部102における操作イベントをいう。なお、上述したように、PC100の操作子部102は、キーボードを含んでいるが、このキーボードのいくつかのファンクション・キーは、ユーザ装着ユニット130におけるスイッチ132−1〜132−3と等価な機能を果たすように割り当てられている。
3.2. Connection mode operation
3.2.1. Main Routine Next, the operation of the PC 100 in the connection mode will be described with reference to FIGS.
In FIG. 4, when the process proceeds to step SP2, predetermined initial setting is performed. Next, when the process proceeds to step SP4, it is determined whether various operator events have occurred. Here, the operator event refers to an operation event of each switch 132-1 to 132-3 in the
操作子イベントが発生していなければ、ステップSP4において「NO」と判定され、処理はステップSP40(図5)に進み、取り込み完了フラグFが“1”(取込済)であるか否かが判定される。ここで、「取り込み完了フラグF」について説明しておく。ユーザ装着ユニット130は、PC100に接続されていない状態においても単独で過去のフィットネスの履歴(開始日時や時間等)であるフィットネス履歴データを記憶することができる。そして、PC100にユーザ装着ユニット130が接続されると、このフィットネス履歴データがPC100に取り込まれる。取り込み完了フラグFは、このフィットネス履歴データの取り込みが完了している場合は“1”(取込済)に、完了していない場合は“0”(未取込)に設定されるフラグであり、初期設定時(ステップSP2)において“0”(未取込)に設定される。
If an operator event has not occurred, “NO” is determined in step SP4, the process proceeds to step SP40 (FIG. 5), and whether or not the capture completion flag F is “1” (captured). Determined. Here, the “capture completion flag F” will be described. Even when the
ステップSP40において「NO」(未取込)と判定されると、処理はステップSP42に進み、PC100にユーザ装着ユニット130が接続されているか否かが判定される。ここで「NO」(未接続)と判定されると、処理はステップSP44に進み、取り込み完了フラグFが“0”(未取込)に設定される。すなわち、PC100とユーザ装着ユニット130との通信が一旦途切れると、取り込み完了フラグFは速やかに“0”(未取込)に設定されることになる。一方、ユーザ装着ユニット130が接続されている場合はステップSP42において「YES」と判定され、処理はステップSP46に進む。ここでは、データ転送スイッチ(操作子部102における所定のファンクション・キー)がオン状態であるか否かが判定される。
If it is determined “NO” (not loaded) in step SP40, the process proceeds to step SP42, and it is determined whether or not the
ステップSP46において「YES」と判定されると、処理はステップSP48に進み、フィットネス履歴データが所定のバイト長だけユーザ装着ユニット130から取得される。次に、処理がステップSP50に進むと、フィットネス履歴データの転送が全て完了したか否かが判定される。ここで「NO」と判定されると、処理はステップSP48に戻り、フィットネス履歴データの転送が続行される。そして、全てのフィットネス履歴データの転送が終了すると、処理はステップSP52に進み、取り込み完了フラグFが“1”(取込済)に設定される。
If “YES” is determined in step SP46, the process proceeds to step SP48, and fitness history data is acquired from the
以後、取り込み完了フラグFが“1”(取込済)である限り、ステップSP40において常に「NO」と判定されるから、フィットネス履歴データの取込処理(ステップSP48,50)はスキップされる。また、ユーザ装着ユニット130がPC100に接続されていない場合(ステップSP42)や、データ転送スイッチがオンされなかった場合(ステップSP46)においても、フィットネス履歴データの取込処理(ステップSP48,50)はスキップされる。以上のステップが完了すると、処理は再びステップSP4(図4)に戻り、操作子イベントの有無が判定される。
Thereafter, as long as the capture completion flag F is “1” (captured), it is always determined “NO” in step SP40, so the fitness history data capture processing (steps SP48, 50) is skipped. Even when the
次に、ステップSP4において何らかの操作子イベントが検出されると、処理はステップSP6に進む。ここでは、操作された操作子は「メニュー操作子」であるか否かが判定される。なお、「メニュー操作子」とは、ユーザ装着ユニット130内のメニュー・スイッチ132−3と、操作子部102内でこれと同等の機能が割り当てられたファンクション・キーとを総称したものである。メニュー操作子が操作されると、操作される毎に操作モードが変更される。次に、処理がステップSP8に進むと、操作モードが曲選択モードに設定されたか否かが判定される。ここで「NO」と判定されると、処理はステップSP9に進み、現在の操作モードに応じた処理が行われる。一方、操作モードが曲選択モードになると、ステップSP8において「YES」と判定され処理はステップSP10に進む。
Next, when any operator event is detected in step SP4, the process proceeds to step SP6. Here, it is determined whether or not the operated operator is a “menu operator”. The “menu operator” is a general term for the menu switch 132-3 in the
ステップSP10においては、アップ・スイッチ132−1、ダウン・スイッチ132−2、またはこれらの対応する操作子部102内のファンクション・キーの操作イベントがあったか否かが検出される。ここで「NO」と判定されると処理はステップSP12に進み、前回選択した楽曲(現在の曲選択カーソルの位置に係る楽曲)が特定曲として選択される。
In step SP10, it is detected whether or not there has been an operation event of the up switch 132-1, the down switch 132-2, or the function key in the
次に、処理がステップSP14に進むと、現在の曲選択カーソルの位置に係る楽曲が特定曲として指定される。そして、この特定曲の曲名、テンポ、再生時間などが記憶装置110内の曲データ管理テーブルから読み出され、表示部106に表示される。ところで、曲データ管理テーブルにおいては、所定の順序(例えばアルファベット順)に各曲データの曲名、テンポ、再生時間などが記録されている。ステップSP14においては、特定曲の前後の十数曲に関しても、これら曲名、テンポ、再生時間などが読み出され、表示部106にこれらの内容がリストとして表示される。
Next, when the process proceeds to step SP14, the music related to the current music selection cursor position is designated as the specific music. Then, the song name, tempo, reproduction time, etc. of the specific song are read from the song data management table in the
次に、処理がステップSP16に進むと、「スタート機能のオンイベント」が発生したか否かが判定される。ここで、「スタート機能のオンイベント」とは、ユーザ装着ユニット130においてアップ・スイッチ132−1とダウン・スイッチ132−2とが同時に押下された場合、または、PC100の操作子部102において、スタート機能に対応するファンクション・キーが押下された場合のうち何れかである。
Next, when the process proceeds to step SP16, it is determined whether or not a “start function ON event” has occurred. Here, the “start function on-event” means that the up switch 132-1 and the down switch 132-2 are pressed at the same time in the
ステップSP16において「NO」と判定されると、処理はステップSP8に戻る。これにより、以後、アップ・スイッチ132−1またはダウン・スイッチ132−2が操作される毎に、特定曲が変更され、変更後の特定曲の曲名、テンポなどが表示部106に表示される。一方、ステップSP16において「YES」と判定されると、処理はステップSP18に進み、キャラクタ種類CHAが、特定曲のテンポ値に対応した値に設定される。すなわち、キャラクタ種類CHAは、特定曲のテンポ値が「140」未満であれば“0”(歩行状態)に設定され、特定曲のテンポ値が「140」以上であれば“1”(走行状態)に設定される。次に、処理がステップSP20に進むと、特定曲のテンポ値に基づいたタイマ関係パラメータが指定される。
If it is determined as “NO” in Step SP16, the process returns to Step SP8. Thus, each time the up switch 132-1 or the down switch 132-2 is operated thereafter, the specific music is changed, and the name, tempo, etc. of the changed specific music are displayed on the
上記ステップSP20において設定されるタイマ関係パラメータには、以下のようなものがある。
(1)CNTAmax:本実施例の表示制御および発音制御のタイミングの分解能Tsは、対象となる楽曲の四分音符長の「1/96」である。CNTAmaxは、この分解能Tsを「μsec」単位で表したものである。例えば、テンポが「120」であるとすると、四分音符長は「500msec」になる。これを「96」で除算すると、分解能Tsは約「5208μsec」になるから、CNTAmaxは「5208」に設定される。同様に、テンポが「100」であればCNTAmaxは「6250」に設定され、同様に、テンポが「110」であればCNTAmaxは「5681」に設定される。
The timer related parameters set in step SP20 include the following.
(1) CNTAmax: The resolution Ts of the timing of display control and sound generation control in this embodiment is “1/96” of the quarter note length of the target music piece. CNTAmax represents this resolution Ts in units of “μsec”. For example, if the tempo is “120”, the quarter note length is “500 msec”. When this is divided by “96”, the resolution Ts becomes approximately “5208 μsec”, so CNTAmax is set to “5208”. Similarly, if the tempo is “100”, CNTAmax is set to “6250”. Similarly, if the tempo is “110”, CNTAmax is set to “5681”.
(2)CNTBmax:図3(b),(c)に示したアニメーションは、何れも「10コマ」から構成されるものであるが、この10コマは「2拍」の期間内に再生されるものである。このアニメーションを表示する周期をアニメーション表示周期Taという。CNTBmaxは、アニメーション表示周期Taが分解能Tsの何倍であるかを示すものであり、図3(b),(c)の例においては、「96×2=192」に設定される。 (2) CNTBmax: The animations shown in FIGS. 3B and 3C are all composed of “10 frames”, and these 10 frames are reproduced within the period of “2 beats”. Is. The period for displaying this animation is called an animation display period Ta. CNTBmax indicates how many times the animation display cycle Ta is the resolution Ts, and is set to “96 × 2 = 192” in the examples of FIGS. 3B and 3C.
(3)各コマの表示タイミング:このパラメータは、アニメーションを構成する各コマの表示タイミング(コマ送りを行うタイミング)を、アニメーション表示周期Taの開始点を基準として、分解能Tsを単位として指定するものである。上記例におけるCNTBmax(=192)に基づいて、各コマの表示時間がほぼ均等になるように割り振るとすると、各表示タイミングは例えば次のように設定することができる。
第1コマ〜第5コマについて:「0」,「20」,「39」,「58」,「77」
第6コマ〜第10コマについて:「96」,「116」,「135」,「154」,「173」
(3) Display timing of each frame: This parameter specifies the display timing of each frame constituting the animation (timing for frame advance) in units of resolution Ts with the start point of the animation display cycle Ta as a reference. It is. Based on CNTBmax (= 192) in the above example, if the display times of the frames are allocated so as to be approximately equal, the display timings can be set as follows, for example.
From
From frame 6 to frame 10: “96”, “116”, “135”, “154”, “173”
上記例によれば、第1コマおよび第6コマの表示時間は「20・Ts」であり、それ以外のコマの表示時間「19・Ts」と比較すると、若干長くなっている。このように、第1コマおよび第6コマの表示時間を若干長くした理由を説明する。まず、第1コマおよび第6コマの表示タイミングは、拍タイミングに一致する。このため、ユーザが拍タイミングの基準を把握しやすくするように、第1コマおよび第6コマの表示時間を他のコマより長くすることが好適である。 According to the above example, the display time of the first frame and the sixth frame is “20 · Ts”, which is slightly longer than the display time “19 · Ts” of the other frames. Thus, the reason why the display time of the first frame and the sixth frame is slightly increased will be described. First, the display timing of the first frame and the sixth frame matches the beat timing. For this reason, it is preferable to set the display time of the first frame and the sixth frame longer than the other frames so that the user can easily grasp the reference of the beat timing.
さらに、第1コマおよび第6コマの「表示内容」も長く表示させることが好適な内容に設定されている。その詳細を図3(b),(c)を参照し説明する。まず、走行状態に係る図3(b)を参照すると、コマR1,R4〜R6,R9,R10は人画像の片足が着地している着地状態であり、それ以外のコマR2,R3,R7,R8は人画像の両足が浮いている非着地状態である。従って、第1コマおよび第6コマ(コマR1,R6)は、着地状態から非着地状態に遷移するタイミングである。すなわち、コマR1,R6は、着地している側の片足を蹴り出すことにより、正に両足を浮かせようとするタイミングであり、ユーザが人画像に同期して走行状態の動作を行うとき、最も重要なタイミングである。その理由は、非着地状態から着地状態に遷移するタイミングは、ユーザが制御しにくいものであり、着地状態から非着地状態に遷移するタイミングはユーザが比較的自由に制御できるためである。 Furthermore, the “display content” of the first frame and the sixth frame is set to a preferable content to be displayed for a long time. Details thereof will be described with reference to FIGS. First, referring to FIG. 3 (b) relating to the running state, frames R1, R4 to R6, R9, and R10 are landing states in which one foot of a human image is landing, and the other frames R2, R3, R7, R8 is a non-landing state where both feet of the human image are floating. Accordingly, the first frame and the sixth frame (frames R1 and R6) are the timing when the landing state is changed to the non-landing state. In other words, the tops R1 and R6 are the timings when the legs on the landing side are kicked out to lift both feet, and when the user performs the operation in the running state in synchronization with the human image, It is an important timing. The reason is that the timing at which the transition from the non-landing state to the landing state is difficult for the user to control, and the timing at which the transition from the landing state to the non-landing state can be controlled relatively freely by the user.
次に、歩行状態に係る図3(c)において、第1コマおよび第6コマ(コマW1,W6)を参照すると、人画像の両足がほぼ揃っており、これらの前後のコマW10,W2,W5,W7と比較すると、明らかに両足の表示間隔が狭くなっていることが解る。すなわち、コマW1,W6は、ほぼ両足が揃っている状態から、片足を前に出そうとするタイミングであり、ユーザが人画像に同期して歩行状態の動作を行うとき、最も重要なタイミングである。そこで、本実施例においては、走行状態においてはコマR1,R6の表示器間を比較的長く確保するとともに、歩行状態においてはコマW1,W6の表示器間を比較的長く確保することにより、ユーザが、足を動かすべきタイミングを把握しやすくしている。 Next, referring to the first frame and the sixth frame (frames W1 and W6) in FIG. 3 (c) related to the walking state, both feet of the human image are almost aligned, and the frames W10, W2, and the frames before and after these are aligned. Compared with W5 and W7, it can be seen that the display interval of both feet is clearly narrower. That is, the frames W1 and W6 are timings when the user tries to move one foot forward from a state where both feet are almost aligned, and the most important timing when the user performs a walking motion in synchronization with the human image. is there. Therefore, in the present embodiment, the distance between the indicators of the frames R1 and R6 is relatively long in the running state, and the distance between the indicators of the frames W1 and W6 is relatively long in the walking state. However, it makes it easier to understand when to move your foot.
図4に戻り、次に処理がステップSP22に進むと、再生指示フラグRUNが“1”に設定されるとともに、アドレスカウンタADRが「0」に設定される。ここで、再生指示フラグRUNとは、楽曲およびアニメーションの再生を行う場合に“1”(再生状態)、再生を行わない場合に“0”(停止状態)に設定されるフラグである。また、アドレスカウンタADRとは、楽曲の再生が開始した後の経過時間を、分解能Tsを単位として表したものである。 Returning to FIG. 4, when the process proceeds to step SP22, the reproduction instruction flag RUN is set to “1” and the address counter ADR is set to “0”. Here, the reproduction instruction flag RUN is a flag that is set to “1” (reproduction state) when the music and animation are reproduced and “0” (stop state) when the reproduction is not performed. Further, the address counter ADR represents the elapsed time after the reproduction of music is started with the resolution Ts as a unit.
ところで、上記ステップSP4において「メニュー操作子」以外の操作子イベントが検出された場合には、ステップSP6において「NO」と判定され、処理はステップSP24に進む。ステップSP24においては、検出された操作子イベントは演奏情報等の編集を行う「エディット入力指示」であるか否かが判定される。ここで「YES」と判定されると、処理はステップSP26に進み、操作内容に応じて演奏情報等の編集処理および編集結果の表示処理が行われる。また、ステップSP24において「NO」と判定されると、処理はステップSP28に進み、上記ステップSP4においてメニュー操作子の操作、エディット入力指示以外の指示が検出されたか否かが判定される。 By the way, when an operator event other than “menu operator” is detected in step SP4, “NO” is determined in step SP6, and the process proceeds to step SP24. In step SP24, it is determined whether or not the detected operator event is an “edit input instruction” for editing performance information or the like. If "YES" is determined here, the process proceeds to step SP26, and editing processing of performance information and the editing result display processing are performed according to the operation content. If "NO" is determined in the step SP24, the process proceeds to a step SP28, and it is determined whether or not an instruction other than the operation of the menu operator and the edit input instruction is detected in the step SP4.
ステップSP28において「YES」と判定されると、処理はステップSP30に進み、指示内容に応じた処理が実行される。なお、ステップSP28において「NO」と判定された場合には、実質的に処理は行われない。以上のステップSP6〜SP30の処理が終了すると、処理はステップSP4に戻り、以降は上述した動作と同様の動作が繰り返される。 If "YES" is determined in step SP28, the process proceeds to step SP30, and a process corresponding to the instruction content is executed. If “NO” is determined in step SP28, the process is not substantially performed. When the processes in steps SP6 to SP30 are completed, the process returns to step SP4, and thereafter, the same operations as those described above are repeated.
3.2.2.タイマ・インタラプト処理
コネクション・モードにおいては、「1μsec」毎に、CPU112に対してタイマ・インタラプトが発生する。タイマ・インタラプトが発生すると、図6(a)に示すタイマ・インタラプト・ルーチンが起動される。図6(a)において処理がステップSP102に進むと、カウンタ変数CNTAが更新される。すなわち、カウンタ変数CNTAは、「0」を初期値としてタイマ・インタラプトが発生する毎に「1」づつインクリメントされ、最大値CNTAmaxになると「0」に戻される。なお、上記ステップSP20において述べたように、最大値CNTAmaxはテンポ値に応じた値に予め設定されている。次に、処理がステップSP104に進むと、現タイミングがテンポ・インタラプト発生タイミングであるか否かが判定される。すなわち、カウンタ変数CNTAが「0」であればテンポ・インタラプト発生タイミングであり、それ以外の場合はテンポ・インタラプト発生タイミングではない。ここで「YES」と判定されると、処理はステップSP104に進み、テンポ・インタラプトが発生され、後述するテンポ・インタラプト処理ルーチン(図6(b))が呼び出される。
3.2.2. Timer Interrupt Processing In the connection mode, a timer interrupt is generated for the
次に、テンポ・インタラプト処理ルーチン(図6(b))の処理について説明する。図において処理がステップSP110に進むと、カウンタ変数CNTBが更新される。すなわち、カウンタ変数CNTBは、「0」を初期値としてテンポ・インタラプトが発生する毎に「1」づつインクリメントされ、所定の最大値CNTBmax(=192)になると「0」に戻される。 Next, the tempo / interrupt processing routine (FIG. 6B) will be described. In the figure, when the process proceeds to step SP110, the counter variable CNTB is updated. That is, the counter variable CNTB is incremented by “1” every time a tempo interrupt is generated with “0” as an initial value, and is returned to “0” when a predetermined maximum value CNTBmax (= 192) is reached.
次に、処理がステップSP112に進むと、再生指示フラグRUNが“1”(再生中)であるか否かが判定される。ここで「NO」と判定されると本ルーチンの処理は直ちに終了する。一方、ステップSP112において「YES」と判定されると、処理はステップSP114に進む。ここでは、現在のタイミングにおいて再生すべき楽曲が音源回路118、効果回路120およびサウンドシステム122を介して放音される。次に、処理がステップSP116に進むと、現在のアドレスカウンタADRに応じて、プログレス・バー10上のカーソル12の位置が更新される。
Next, when the process proceeds to step SP112, it is determined whether or not the reproduction instruction flag RUN is “1” (reproducing). If “NO” is determined here, the processing of this routine is immediately terminated. On the other hand, if “YES” is determined in step SP112, the process proceeds to step SP114. Here, the music to be reproduced at the current timing is emitted through the
ここで、カーソル12の位置の決定方法について説明しておく。現在再生中の楽曲の再生時間とテンポとは曲データ管理テーブルから既知であるため、再生終了時のアドレスカウンタADRの値(最終アドレスADR_end)は、「最終アドレスADR_end=再生時間(秒)*96*(テンポ/60)」によって求めることができる。そして、現在のアドレスカウンタADRを最終アドレスADR_endで除算すると、全体の再生時間のうち既に再生済みである時間の割合を求めることができる。そして、プログレス・バー10の長さにこの除算結果を乗算した値が、カーソル12の表示位置になる。例えば、除算結果ADR/ADR_endが「0.43」であれば、カーソル位置は、プログレス・バー10の左端から「43%」の位置に設定される。
Here, a method for determining the position of the
次に、処理がステップSP118に進むと、コマ番号を示す変数Nが「1」に設定される。次に、処理がステップSP120に進むと、カウンタ変数CNTBに基づいて、現時点が第Nコマの表示タイミング(先にステップSP20において設定された表示タイミング)であるか否かが判定される。ここで「YES」と判定されると、処理はステップSP122に進み、キャラクタ種類CHAが“1”(走行状態)であるか否かが判定される。ここで「YES」と判定されると、処理はステップSP124に進み、走行状態に係るアニメーションの第Nコマ(コマR(N))が、背景画像14内のカーソル12の直上の位置に表示される。一方、ステップSP122で「NO」と判定されると、キャラクタ種類CHAは“0”(歩行状態)である。かかる場合は、処理はステップSP126に進み、歩行状態に係るアニメーションの第Nコマ(コマW(N))が、背景画像14内のカーソル12の直上の位置に表示される。
Next, when the process proceeds to step SP118, the variable N indicating the frame number is set to “1”. Next, when the process proceeds to step SP120, it is determined based on the counter variable CNTB whether or not the current time is the display timing of the Nth frame (the display timing previously set in step SP20). If “YES” is determined here, the process proceeds to step SP122 to determine whether or not the character type CHA is “1” (running state). If "YES" is determined here, the process proceeds to step SP124, and the N-th frame (frame R (N)) of the animation relating to the running state is displayed at a position immediately above the
次に、処理がステップSP128に進むと、コマ番号Nが「1」だけインクリメントされる。次に、処理がステップSP130に進むと、コマ番号Nが「10」を超えたか否かが判定される。ここで「NO」と判定されると、ステップSP120〜ステップSP128の処理が新たなコマ番号Nに対して実行される。そして、コマ番号Nが「10」を超えると、ステップSP130において「YES」と判定され処理はステップSP132に進む。ここでは、アドレスカウンタADRが「1」だけインクリメントされる。以上のステップが終了すると、テンポ・インタラプト処理ルーチンが終了する。 Next, when the process proceeds to step SP128, the frame number N is incremented by “1”. Next, when the process proceeds to step SP130, it is determined whether or not the frame number N has exceeded “10”. If “NO” is determined here, the processing of step SP120 to step SP128 is executed for the new frame number N. If the frame number N exceeds “10”, “YES” is determined in step SP130, and the process proceeds to step SP132. Here, the address counter ADR is incremented by “1”. When the above steps are completed, the tempo interrupt processing routine ends.
3.3.単独モードの動作
次に、単独モードにおいて、ユーザ装着ユニット130のCPU142によって実行される処理の内容を図7を参照し説明する。図7に示すステップSP202〜SP230の処理は、図4におけるステップSP2〜30の処理と同様であるため、以下に異なる点のみを説明する。まず、図7の処理においては、ステップSP42〜SP52(図5)に対応する処理がなく、ステップSP204においては、何らかの操作イベントが発生するまで、処理が待機する。これは、ユーザ装着ユニット130自体は他の機器から「データを取り込む」ことが無いためである。なお、このステップSP204において処理が待機している場合には、ユーザ装着ユニット130の操作モードを時計モードとし、時刻表示などを行わせるようにしてもよい。
3.3. Operation in Single Mode Next, the contents of processing executed by the
また、ステップSP204,SP206,SP210,SP216,SP224,SP228等における判定処理は、ユーザ装着ユニット130内のスイッチ132−1〜132−3の操作状態のみに基づいて実行される。これは、単独モードではユーザ装着ユニット130にPC100は接続されないためである。また、ステップSP218,SP226等における表示処理は、ユーザ装着ユニット130内の表示部136に対して行われる。また、タイマ・インタラプトおよびテンポ・インタラプトもユーザ装着ユニット130内のCPU142に対して発生するものであり、対応する処理(図6(a),(b))もユーザ装着ユニット130内のCPU142において実行される。
In addition, the determination processing in steps SP204, SP206, SP210, SP216, SP224, SP228, etc. is executed based only on the operation state of the switches 132-1 to 132-3 in the
4.変形例
本発明は上述した実施例に限定されるものではなく、例えば以下のように種々の変形が可能である。
(1)上記実施例においては、PC100またはユーザ装着ユニット130上で動作するプログラムによって各種処理を行ったが、このプログラムのみをCD−ROM、メモリカード等の記録媒体に格納して頒布し、 あるいは伝送路を通じて頒布することもできる。
Four. Modifications The present invention is not limited to the above-described embodiments, and various modifications can be made as follows, for example.
(1) In the above embodiment, various processes are performed by a program operating on the PC 100 or the
(2)上記実施例においては、キャラクタ種類CHAによって「歩行状態」または「走行状態」のうち何れかのアニメーションを指定したが、キャラクタ種類はこれらに限られるものではなく、例えばヨガや太極拳などの動きを取り入れても良い。 (2) In the above embodiment, either “walking state” or “running state” animation is specified by the character type CHA, but the character type is not limited to these, for example, yoga or tai chi You may incorporate the movement.
(3)上記実施例のステップSP14においては、曲データのリストがアルファベット順に限られるものではない。例えば、テンポの小さい順に曲データを配列するとともに、同一のテンポを有する曲データ間ではアルファベット順に配列するようにしてもよい。 (3) In step SP14 of the above embodiment, the list of song data is not limited to alphabetical order. For example, song data may be arranged in ascending order of tempo and arranged in alphabetical order between song data having the same tempo.
(4)上記実施例においては、曲データのテンポと、再生開始タイミング(ステップSP22の実行タイミング)に基づいて、アニメーションの各コマの表示タイミングを一意に決定したが、実際の楽曲では拍タイミングには「揺れ」が生じる場合などがある。かかる場合は、拍タイミングを表す拍タイミングデータを曲データの中に含め、あるいは、拍タイミングを特定するために曲データとは別ファイルの拍タイミングデータファイルを記憶装置110,140に記憶させ、該拍タイミングデータに同期してアニメーションを表示させるようにしてもよい。
(4) In the above embodiment, the display timing of each frame of animation is uniquely determined based on the tempo of the song data and the playback start timing (execution timing of step SP22). In some cases, “sway” occurs. In such a case, the beat timing data representing the beat timing is included in the song data, or in order to identify the beat timing, the beat timing data file different from the song data is stored in the
(5)また、上記実施例においては、ガイド画像6に人画像16のアニメーションを表示したが、人画像16に代えて、他の二足歩行動物または二足歩行ではない動物のアニメーションなどを表示してもよい。さらに、これらアニメーションは、走行状態や歩行状態に限られるものではなく、ヨガや太極拳などのポーズのアニメーションを用いてもよい。
(5) In the above embodiment, the animation of the
5.実施態様
本発明には、以下のような実施態様がある。
(1)前記第1のアニメーションは、動物の走行状態を表示するものであり、
前記第2のアニメーションは、前記動物の歩行状態を表示するものである
ことを特徴とする請求項1記載の音楽データ再生装置。
(2)前記動物は二足歩行動物であり、
前記第1のアニメーションは、前記二足歩行動物の両足が浮いている状態のコマと少なくとも一方の足が着地した状態のコマとを含んで成るものであり、
前記第2のアニメーションは、前記二足歩行動物の少なくとも一方の足が着地した状態のコマのみから成るものである
ことを特徴とする実施態様1記載の音楽データ再生装置。
Five. Embodiments The present invention has the following embodiments.
(1) The first animation displays a running state of an animal,
The music data reproducing apparatus according to
(2) The animal is a bipedal animal,
The first animation includes a frame in a state where both feet of the bipedal animal are floating and a frame in a state where at least one foot is landed,
The music data reproducing apparatus according to
6:ガイド画像、10:プログレス・バー、12:カーソル、14:背景画像、16:人画像、100:PC、100:パーソナルコンピュータ、102,132:操作子部、104,134:検出回路、106,136:表示部(表示装置)、108,138:表示回路、110,140:記憶装置、112,142:CPU(処理装置)、114,144:通信インタフェース、116,146:通信バス、118,148:音源回路、120,150:効果回路、122,152:サウンドシステム、130:ユーザ装着ユニット、130−1:筐体、130−2:バンド、132−1:アップ・スイッチ、132−1〜132−3:スイッチ、132−2:ダウン・スイッチ、132−3:メニュー・スイッチ、132−4:電源スイッチ、154:センサ検出回路、156:センサ、160:ネットワーク、162:アンテナ、164:USBポート、166:イヤホン・ジャック、170:イヤホン・アセンブリ、171:プラグ、172:ケーブル、174:左イヤホン、176:右イヤホン、178:心拍センサ。 6: Guide image, 10: Progress bar, 12: Cursor, 14: Background image, 16: Human image, 100: PC, 100: Personal computer, 102, 132: Control unit, 104, 134: Detection circuit, 106 , 136: display unit (display device), 108, 138: display circuit, 110, 140: storage device, 112, 142: CPU (processing device), 114, 144: communication interface, 116, 146: communication bus, 118, 148: sound source circuit, 120, 150: effect circuit, 122, 152: sound system, 130: user wearing unit, 130-1: housing, 130-2: band, 132-1: up switch, 132-1 132-3: Switch, 132-2: Down switch, 132-3: Menu switch, 132-4: Power supply switch 154: sensor detection circuit, 156: sensor, 160: network, 162: antenna, 164: USB port, 166: earphone jack, 170: earphone assembly, 171: plug, 172: cable, 174: left earphone 176: Right earphone, 178: Heart rate sensor.
Claims (4)
表示装置と、
前記音楽データのテンポが所定値以上であれば第1のアニメーションを選択し、前記音楽データのテンポが該所定値未満であれば第2のアニメーションを選択するアニメーション選択手段と、
前記音楽データに同期して、該アニメーション選択手段によって選択されたアニメーションを前記表示装置に表示させるアニメーション表示手段と
を有することを特徴とする音楽データ再生装置。 Music data playback means for playing back music data that is performance information or audio data;
A display device;
An animation selecting means for selecting a first animation if the tempo of the music data is equal to or greater than a predetermined value, and selecting a second animation if the tempo of the music data is less than the predetermined value;
A music data reproducing apparatus comprising: animation display means for displaying the animation selected by the animation selection means on the display device in synchronization with the music data.
前記アニメーション表示手段は、前記音楽データの拍タイミングに前記第1群のコマのうち何れかを表示させるものである
ことを特徴とする請求項1記載の音楽データ再生装置。 The first animation is composed of a first group of frames in a landing state and a second group of frames in a non-landing state,
The music data reproducing apparatus according to claim 1, wherein the animation display means displays any one of the frames of the first group at a beat timing of the music data.
をさらに有し、
前記アニメーション表示手段は、前記第1のまたは第2のアニメーションの表示位置を前記カーソル画像に沿って移動させるものである
ことを特徴とする請求項1記載の音楽データ再生装置。 Progress status display means for displaying on the display device a cursor image indicating the progress status of reproduction of the music data depending on the display position;
The music data reproducing apparatus according to claim 1, wherein the animation display means moves the display position of the first or second animation along the cursor image.
前記音楽データのテンポが所定値以上であれば第1のアニメーションを選択し、前記音楽データのテンポが該所定値未満であれば第2のアニメーションを選択するアニメーション選択過程と、
前記音楽データに同期して、該アニメーション選択過程によって選択されたアニメーションを前記表示装置に表示させるアニメーション表示過程と
を前記処理装置に実行させることを特徴とするプログラム。 A program applied to a music data playback device having a processing device, a display device, and music data playback means for playing back music data that is performance information or audio data,
An animation selection step of selecting a first animation if the tempo of the music data is equal to or greater than a predetermined value, and selecting a second animation if the tempo of the music data is less than the predetermined value;
A program that causes the processing device to execute an animation display step of displaying the animation selected in the animation selection step on the display device in synchronization with the music data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006356151A JP4872665B2 (en) | 2006-12-28 | 2006-12-28 | Music data reproducing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006356151A JP4872665B2 (en) | 2006-12-28 | 2006-12-28 | Music data reproducing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008161552A true JP2008161552A (en) | 2008-07-17 |
JP4872665B2 JP4872665B2 (en) | 2012-02-08 |
Family
ID=39691781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006356151A Expired - Fee Related JP4872665B2 (en) | 2006-12-28 | 2006-12-28 | Music data reproducing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4872665B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010107817A (en) * | 2008-10-31 | 2010-05-13 | Brother Ind Ltd | Motion content creating system, output terminal, and device, method, and program for creating motion content |
EP2378752A3 (en) * | 2010-04-19 | 2011-11-23 | Lg Electronics Inc. | Mobile terminal and method of controlling operation of the mobile terminal |
JP2012249673A (en) * | 2011-05-31 | 2012-12-20 | Nintendo Co Ltd | Information processing apparatus, information processing system, information processing program, and information processing method |
JP2014166240A (en) * | 2013-02-28 | 2014-09-11 | Brother Ind Ltd | Information processing apparatus and program |
JP7440727B2 (en) | 2020-06-23 | 2024-02-29 | 国立大学法人福井大学 | Rhythm comprehension support system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04151199A (en) * | 1990-08-21 | 1992-05-25 | Ricos:Kk | Animation composition display device |
JPH10161673A (en) * | 1996-11-29 | 1998-06-19 | Yamaha Corp | Karaoke device |
JP2002140080A (en) * | 2000-10-31 | 2002-05-17 | Daiichikosho Co Ltd | Karaoke device equipped with function for editing and outputting video and music program for physical exercise instruction |
JP2002210060A (en) * | 2001-01-16 | 2002-07-30 | Nippon Hoso Kyokai <Nhk> | Contest participation type exercising apparatus and center system therefor |
JP2002291952A (en) * | 2001-03-29 | 2002-10-08 | Casio Comput Co Ltd | Exercise support device, portable electronic equipment, exercise management system and program |
JP2006522951A (en) * | 2003-04-14 | 2006-10-05 | 新世代株式会社 | Automatic performance device, automatic performance method, and automatic performance program |
-
2006
- 2006-12-28 JP JP2006356151A patent/JP4872665B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04151199A (en) * | 1990-08-21 | 1992-05-25 | Ricos:Kk | Animation composition display device |
JPH10161673A (en) * | 1996-11-29 | 1998-06-19 | Yamaha Corp | Karaoke device |
JP2002140080A (en) * | 2000-10-31 | 2002-05-17 | Daiichikosho Co Ltd | Karaoke device equipped with function for editing and outputting video and music program for physical exercise instruction |
JP2002210060A (en) * | 2001-01-16 | 2002-07-30 | Nippon Hoso Kyokai <Nhk> | Contest participation type exercising apparatus and center system therefor |
JP2002291952A (en) * | 2001-03-29 | 2002-10-08 | Casio Comput Co Ltd | Exercise support device, portable electronic equipment, exercise management system and program |
JP2006522951A (en) * | 2003-04-14 | 2006-10-05 | 新世代株式会社 | Automatic performance device, automatic performance method, and automatic performance program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010107817A (en) * | 2008-10-31 | 2010-05-13 | Brother Ind Ltd | Motion content creating system, output terminal, and device, method, and program for creating motion content |
US9044632B2 (en) | 2008-10-31 | 2015-06-02 | Brother Kogyo Kabushiki Kaisha | Information processing apparatus, information processing method and recording medium storing program |
EP2378752A3 (en) * | 2010-04-19 | 2011-11-23 | Lg Electronics Inc. | Mobile terminal and method of controlling operation of the mobile terminal |
JP2012249673A (en) * | 2011-05-31 | 2012-12-20 | Nintendo Co Ltd | Information processing apparatus, information processing system, information processing program, and information processing method |
JP2014166240A (en) * | 2013-02-28 | 2014-09-11 | Brother Ind Ltd | Information processing apparatus and program |
JP7440727B2 (en) | 2020-06-23 | 2024-02-29 | 国立大学法人福井大学 | Rhythm comprehension support system |
Also Published As
Publication number | Publication date |
---|---|
JP4872665B2 (en) | 2012-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4311466B2 (en) | Performance apparatus and program for realizing the control method | |
JP3338005B2 (en) | Music game communication system | |
JP4872665B2 (en) | Music data reproducing apparatus and program | |
CN107004035B (en) | Music playing method and device and music playing equipment | |
JP2007188597A (en) | Content reproduction device and content reproduction method, and program | |
JP2007065493A (en) | Music reproducing device | |
JP2007188598A (en) | Content reproduction device and content reproduction method, and program | |
US7872188B2 (en) | Method and apparatus for personal exercise trainer | |
JP4311467B2 (en) | Performance apparatus and program for realizing the control method | |
JP5655713B2 (en) | Movie playback device, movie playback method and program | |
JP2007328568A (en) | Pedometer, portable information terminal, control method for pedometer, and program | |
US8496516B2 (en) | Game device, tempo announcement method, information recording medium and program | |
JP5572956B2 (en) | Exercise support system, output terminal, server, exercise support device, exercise support method, and exercise support program | |
KR20060054678A (en) | Apparatus and method for implementing character video synchronized with sound | |
JP2012050584A (en) | Exercise supporting apparatus, exercise supporting system, exercise supporting method and program | |
CN111506765B (en) | Method, device, electronic equipment and storage medium for controlling music playing rhythm | |
JP2007164932A (en) | Reproduction device, method for reproducing, and program | |
JP5446600B2 (en) | CONTENT GENERATION SYSTEM, EXERCISE SUPPORT DEVICE, CONTENT GENERATION METHOD, AND PROGRAM | |
JP4311468B2 (en) | Performance apparatus and program for realizing the control method | |
JP6280714B2 (en) | Control device, command generation method, program | |
JP2007200432A (en) | Device and method for creating playlist, device and method for reproducing contents, server, and information processor | |
US20090183623A1 (en) | Band manager | |
JP5632559B2 (en) | Music playback device, music playback method, music playback program, and recording medium storing music playback program | |
JP2017015957A (en) | Musical performance recording device and program | |
JP2009119072A (en) | Apparatus, program, and method for composing piece of music for exercise program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091021 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110802 |
|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20110809 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20110909 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111025 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111107 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141202 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4872665 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |