JP2008161552A - Music data reproducing apparatus and progran - Google Patents

Music data reproducing apparatus and progran Download PDF

Info

Publication number
JP2008161552A
JP2008161552A JP2006356151A JP2006356151A JP2008161552A JP 2008161552 A JP2008161552 A JP 2008161552A JP 2006356151 A JP2006356151 A JP 2006356151A JP 2006356151 A JP2006356151 A JP 2006356151A JP 2008161552 A JP2008161552 A JP 2008161552A
Authority
JP
Japan
Prior art keywords
animation
music data
display
music
tempo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006356151A
Other languages
Japanese (ja)
Other versions
JP4872665B2 (en
Inventor
Takeshi Usui
剛 臼井
Shinichi Ito
真一 伊藤
Michihiko Sasaki
道彦 佐々木
Yushi Nodera
祐志 野寺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006356151A priority Critical patent/JP4872665B2/en
Publication of JP2008161552A publication Critical patent/JP2008161552A/en
Application granted granted Critical
Publication of JP4872665B2 publication Critical patent/JP4872665B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To allow a user to easily acquire an appropriate movement to music when a user executes the fitness to the music. <P>SOLUTION: An apparatus automatically selects and displays an animation (Figure 3(b)) in a running state or an animation (Fig. 3(c)) in a walking state based on whether the tempo of a musical piece to be reproduced is a prescribed value (140) or more. Pieces R1, R6, W1 and W6 are pieces for beat timing and the display time of the pieces is set slightly longer than the other pieces so that the user can move to the beat timing easily. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、音楽再生をしながらフィットネスを行う際に用いて好適な音楽データ再生装置およびプログラムに関する。   The present invention relates to a music data playback apparatus and program suitable for use in fitness while playing music.

音楽の自動演奏装置とフィットネス装置とを組み合わせることにより、ユーザの動作と同期させて音楽を再生する装置が特許文献1に開示されている。また、これは特に音楽再生に関係するものではないが、ユーザがフィットネスなどを行うにあたって、心拍などのユーザの状態を検出するために、腕時計型の装置をユーザに装着する技術が特許文献2に開示されている。また、これは特にフィットネスに関係するものではないが、自動演奏データに基づいて音楽を再生する際、人間が動作を行うような図形をディスプレイに表示する技術が特許文献3に開示されている。これは、例えば自動演奏中に発音情報が検出されると「立った姿勢」、それ以外の場合は「座った姿勢」の画像を表示させるものである。   Patent Document 1 discloses an apparatus that reproduces music in synchronization with a user's action by combining an automatic music performance device and a fitness device. Further, although this is not particularly related to music reproduction, Japanese Patent Application Laid-Open No. 2004-151867 discloses a technique for mounting a wristwatch-type device on a user in order to detect a user's state such as a heartbeat when the user performs fitness or the like. It is disclosed. Further, although this is not particularly related to fitness, Patent Document 3 discloses a technique for displaying on a display a figure that allows a human to perform an action when playing music based on automatic performance data. For example, an image of “standing posture” is displayed when pronunciation information is detected during automatic performance, and “sitting posture” is displayed otherwise.

特表平02−503996号公報Japanese translation of PCT publication No. 02-503996 特開2006−53722号公報JP 2006-53722 A 特許第2701094号公報Japanese Patent No. 2701994

ところで、特許文献1に開示された内容は「ユーザのフィットネス動作に音楽(の拍タイミングなど)を合わせる」ものであるが、これでは音楽のテンポが不自然に変動するため、「音楽に合わせてユーザがフィットネスする」ことが望ましい場合もある。しかし、音楽に合わせてユーザがフィットネスする場合には、どのタイミングにユーザがどのような動作を行えば良いのか、非常に解り辛くなる場合がある。このため、ユーザがフィットネス中に「音楽に動作を合わせる」ことを楽しめなくなる。さらに、ユーザの動作が過度に速くなると体に無理な負担がかかり、ユーザの動作が過度に遅くなると充分な運動効果が得られなくなるという問題が生じる。
この発明は上述した事情に鑑みてなされたものであり、音楽に合わせた適切な動作をユーザが容易に把握でき、これによって「音楽に動作を合わせる」ことを楽しみつつ、適切な運動効果を得ることができる音楽データ再生装置およびプログラムを提供することを目的としている。
By the way, the content disclosed in Patent Document 1 is “matching music (beat timing, etc.) to the user's fitness operation”. However, since the tempo of music fluctuates unnaturally, It may be desirable for the user to “fit”. However, when the user performs fitness according to music, it may be difficult to understand what operation the user should perform at which timing. For this reason, the user cannot enjoy “adjusting the operation to music” during fitness. Furthermore, when the user's movement becomes excessively fast, an excessive burden is placed on the body, and when the user's movement becomes excessively slow, a sufficient exercise effect cannot be obtained.
The present invention has been made in view of the above-described circumstances, and allows a user to easily grasp an appropriate action in accordance with music, thereby obtaining an appropriate exercise effect while enjoying “matching an action with music”. It is an object of the present invention to provide a music data reproducing apparatus and program capable of performing the above.

上記課題を解決するため本発明にあっては、下記構成を具備することを特徴とする。なお、括弧内は例示である。
請求項1記載の音楽データ再生装置にあっては、演奏情報(SMF形式、SMAF形式)または音声データ(MP3方式)である音楽データを再生する 音楽データ再生手段(SP114,148)と、表示装置(106,136)と、前記音楽データのテンポが所定値(140)以上であれば第1のアニメーション(走行状態)を選択し、 前記音楽データのテンポが該所定値(140)未満であれば第2のアニメーション(歩行状態)を選択する アニメーション選択手段(SP18)と、前記音楽データに同期して、該アニメーション選択手段(SP18)によって 選択されたアニメーションを前記表示装置(106,136)に表示させる アニメーション表示手段(SP122〜SP124)とを有することを特徴とする。
さらに、請求項2記載の構成にあっては、請求項1記載の音楽データ再生装置において、前記第1のアニメーション(走行状態)は、 着地状態の第1群のコマ(R1,R4〜R6,R9,R10)と、 非着地状態の第2群のコマ(R2,R3,R7,R8)と から成るものであり、前記アニメーション表示手段(SP122〜SP124)は、 前記音楽データの拍タイミングに前記第1群のコマ(R1,R4〜R6,R9,R10) のうち何れかを表示させるものであることを特徴とする。
さらに、請求項3記載の構成にあっては、請求項1記載の音楽データ再生装置において、表示位置によって前記音楽データの再生の進行状況を示すカーソル画像(12)を 前記表示装置(106,136)に表示させる 進行状況表示手段(12,106,136)をさらに有し、前記アニメーション表示手段(106,136)は、前記第1のまたは第2のアニメーション の表示位置を前記カーソル画像(12)に沿って移動させるものであることを特徴とする。
また、請求項4記載のプログラムにあっては、処理装置(112,142)と、 表示装置(106,136)と、 演奏情報(SMF形式、SMAF形式)または音声データ(MP3方式)である 音楽データを再生する音楽データ再生手段(SP114,148)と を有する音楽データ再生装置に適用されるプログラムであって、前記音楽データのテンポが所定値(140)以上であれば第1のアニメーション(走行状態)を選択し、 前記音楽データのテンポが該所定値(140)未満であれば第2のアニメーション(歩行状態)を選択する アニメーション選択過程(SP18)と、前記音楽データに同期して、該アニメーション選択過程(SP18)によって 選択されたアニメーションを前記表示装置(106,136)に表示させる アニメーション表示過程(SP122〜SP124)とを前記処理装置(112,142)に実行させることを特徴とする。
In order to solve the above problems, the present invention is characterized by having the following configuration. The parentheses are examples.
The music data reproducing apparatus according to claim 1, wherein music data reproducing means (SP114, 148) for reproducing music data which is performance information (SMF format, SMAF format) or audio data (MP3 format), and a display device If the tempo of the music data is equal to or greater than a predetermined value (140), the first animation (running state) is selected. If the tempo of the music data is less than the predetermined value (140), The second animation (walking state) is selected. Animation selection means (SP18) and the animation selected by the animation selection means (SP18) are displayed on the display device (106, 136) in synchronization with the music data. An animation display means (SP122 to SP124) is provided.
Furthermore, in the configuration according to claim 2, in the music data reproducing device according to claim 1, the first animation (running state) is a first group of frames (R1, R4 to R6, landing). R9, R10) and a second group of frames (R2, R3, R7, R8) in a non-landing state, and the animation display means (SP122 to SP124) Any one of the first group of frames (R1, R4 to R6, R9, R10) is displayed.
Furthermore, in the configuration according to claim 3, in the music data reproducing device according to claim 1, a cursor image (12) indicating a progress of reproduction of the music data according to a display position is displayed on the display device (106, 136). ) Display progress status display means (12, 106, 136), and the animation display means (106, 136) displays the display position of the first or second animation in the cursor image (12). It is a thing moved along.
Further, in the program according to claim 4, music which is a processing device (112, 142), a display device (106, 136), performance information (SMF format, SMAF format) or audio data (MP3 format). The program is applied to a music data playback device having music data playback means (SP114, 148) for playing back data, and if the tempo of the music data is not less than a predetermined value (140), the first animation (running) If the tempo of the music data is less than the predetermined value (140), the second animation (walking state) is selected. In synchronization with the music data, the animation selection process (SP18) The animation selected in the animation selection process (SP18) is displayed on the display device (106, 136). Characterized in that to execute the animation display process (SP122~SP124) to said processing unit (112 and 142).

以上のように、音楽データのテンポに基づいて第1のまたは第2のアニメーションを選択する構成によれば、楽曲のテンポに応じた適切なアニメーションを選択することができる。
また、第1のアニメーションとして、着地状態の第1群のコマと、非着地状態の第2群のコマとを表示する構成によれば、音楽に合わせた適切な動作をユーザが容易に把握できるようになる。
As described above, according to the configuration in which the first or second animation is selected based on the tempo of the music data, it is possible to select an appropriate animation according to the tempo of the music.
Moreover, according to the structure which displays the 1st group frame of a landing state and the 2nd group frame of a non-landing state as a 1st animation, a user can grasp | ascertain the suitable operation | movement according to music easily. It becomes like this.

1.実施例のハードウエア構成
以下、この発明の一実施例のフィットネス管理システムの構成を図1を参照し説明する。本実施例のフィットネス管理システムは、腕時計状の形態を有し、ユーザに装着されるユーザ装着ユニット130と、該ユーザ装着ユニット130に接続されたパーソナルコンピュータ(PC)100とから構成されている。PC100の内部において102は操作子部であり、キーボード、マウス等から構成されている。104は検出回路であり、操作子部102の状態を検出する。106は表示部であり、表示回路108の制御の下、ユーザに対して各種情報を表示する。112はCPUであり、通信バス116を介してPC100内の各部を制御する。
1. Hardware Configuration of Embodiment Hereinafter, the configuration of a fitness management system of an embodiment of the present invention will be described with reference to FIG. The fitness management system according to the present embodiment has a wristwatch-like form, and includes a user wearing unit 130 worn by a user and a personal computer (PC) 100 connected to the user wearing unit 130. In the PC 100, reference numeral 102 denotes an operation unit, which includes a keyboard, a mouse, and the like. A detection circuit 104 detects the state of the operation unit 102. A display unit 106 displays various types of information to the user under the control of the display circuit 108. A CPU 112 controls each unit in the PC 100 via the communication bus 116.

110は記憶装置であり、CPU112の制御プログラム等を記憶するROMと、CPU112のワークメモリとして用いられるRAMとから構成されている。114は通信インタフェースであり、有線または無線のネットワーク160を介してユーザ装着ユニット130との間でデータを送受信する。118は音源回路であり、通信バス116を介して供給された演奏情報に基づいて、波形データを生成する。120は効果回路であり、この波形データに対して各種のエフェクトを付与する。122はサウンドシステムであり、効果回路120から出力された楽音信号を発音する。   Reference numeral 110 denotes a storage device, which includes a ROM that stores a control program for the CPU 112 and a RAM that is used as a work memory for the CPU 112. A communication interface 114 transmits and receives data to and from the user wearing unit 130 via a wired or wireless network 160. A sound source circuit 118 generates waveform data based on performance information supplied via the communication bus 116. An effect circuit 120 applies various effects to the waveform data. Reference numeral 122 denotes a sound system that generates a musical tone signal output from the effect circuit 120.

次に、ユーザ装着ユニット130の内部において132は操作子部であり、数個のボタン等から構成されている。134は検出回路であり、操作子部132の状態を検出する。136は表示部であり、表示回路138の制御の下、ユーザに対して各種情報を表示する。142はCPUであり、通信バス146を介してユーザ装着ユニット130内の各部を制御する。140は記憶装置であり、CPU142の制御プログラム等を記憶するROMと、CPU142のワークメモリとして用いられるRAMとから構成されている。   Next, 132 in the user wearing unit 130 is an operator unit, which is composed of several buttons and the like. Reference numeral 134 denotes a detection circuit that detects the state of the operation unit 132. Reference numeral 136 denotes a display unit that displays various types of information to the user under the control of the display circuit 138. Reference numeral 142 denotes a CPU which controls each unit in the user wearing unit 130 via the communication bus 146. A storage device 140 includes a ROM that stores a control program for the CPU 142 and a RAM that is used as a work memory for the CPU 142.

144は通信インタフェースであり、ネットワーク160を介してPC100の通信インタフェース114との間でデータを送受信する。148は音源回路であり、通信バス146を介して供給された演奏情報に基づいて、波形データを生成する。150は効果回路であり、この波形データに対して各種のエフェクトを付与する。152はサウンドシステムであり、効果回路150から出力された楽音信号を発音する。156はセンサであり、ユーザの心拍等を検出する。154はセンサ検出回路であり、センサ156からの出力信号をデジタル信号に変換し、通信バス146を介して出力する。   Reference numeral 144 denotes a communication interface that transmits and receives data to and from the communication interface 114 of the PC 100 via the network 160. A tone generator circuit 148 generates waveform data based on performance information supplied via the communication bus 146. Reference numeral 150 denotes an effect circuit, which applies various effects to the waveform data. Reference numeral 152 denotes a sound system that generates a musical tone signal output from the effect circuit 150. A sensor 156 detects a user's heartbeat and the like. A sensor detection circuit 154 converts an output signal from the sensor 156 into a digital signal and outputs the digital signal via the communication bus 146.

次に、ユーザ装着ユニット130の外観構成を図2を参照し説明する。図2においてユーザ装着ユニット130は、略直方体状の筐体130−1内に収納されている。筐体130−1の上下部分には、該ユーザ装着ユニット130をユーザの腕に装着するためのバンド130−2,130−2が取り付けられている。132−1はアップ・スイッチ、132−2はダウン・スイッチ、132−3はメニュー・スイッチ、132−4は電源スイッチであり、ユーザによって必要により操作される。表示部136は、アップ・スイッチ132−1およびダウン・スイッチ132−2の間に設けられている。162はアンテナであり、略円柱状に形成され、ユーザ装着ユニット130とPC100とが無線通信を行う際に、電波を送受信する。   Next, the external configuration of the user wearing unit 130 will be described with reference to FIG. In FIG. 2, the user mounting unit 130 is housed in a substantially rectangular parallelepiped casing 130-1. Bands 130-2 and 130-2 for mounting the user mounting unit 130 on the user's arm are attached to the upper and lower portions of the housing 130-1. 132-1 is an up switch, 132-2 is a down switch, 132-3 is a menu switch, and 132-4 is a power switch, which are operated by the user as necessary. The display unit 136 is provided between the up switch 132-1 and the down switch 132-2. An antenna 162 is formed in a substantially cylindrical shape, and transmits and receives radio waves when the user mounting unit 130 and the PC 100 perform wireless communication.

164はUSBポートであり、ユーザ装着ユニット130とPC100とが有線通信を行う際、ここにUSBケーブルが挿入される。166はイヤホン・ジャックであり、イヤホン・アセンブリ170のプラグ171が挿入される。イヤホン・アセンブリ170は、該プラグ171と、左イヤホン174と、右イヤホン176と、心拍センサ178と、これらを結ぶケーブル172とから構成されている。ここで、心拍センサ178は、クリップ状に構成されており、ユーザの耳たぶを挟むようにして装着される。   Reference numeral 164 denotes a USB port, and when the user mounting unit 130 and the PC 100 perform wired communication, a USB cable is inserted therein. Reference numeral 166 denotes an earphone jack, into which the plug 171 of the earphone assembly 170 is inserted. Earphone assembly 170 includes plug 171, left earphone 174, right earphone 176, heart rate sensor 178, and cable 172 connecting them. Here, the heart rate sensor 178 is configured in a clip shape, and is worn so as to sandwich the user's earlobe.

2.実施例のデータ構成
上述した記憶装置110,140には、曲データと、曲データ管理テーブルとが記憶される。ここで、曲データは、楽曲の内容を特定するデータであり、SMF、SMAF形式等の演奏情報であってもよく、MP3形式などの音声データであってもよい。また、曲データ管理テーブルは、これら曲データの曲名、テンポ、再生時間などの情報を曲データ毎に記録したテーブルである。
2. Data Configuration of Embodiment The music data and the music data management table are stored in the storage devices 110 and 140 described above. Here, the song data is data for specifying the content of the song, and may be performance information such as SMF or SMAF format, or may be audio data such as MP3 format. The song data management table is a table in which information such as song name, tempo, and playback time of these song data is recorded for each song data.

3.実施例の動作
3.1.動作の概要
次に、本実施例の動作の概要を説明する。まず、本実施例には、ユーザ装着ユニット130の全体的な動作状態を規定する全体モードと、選択された全体モードにおいて各種操作子の機能を規定する操作モードという二つの動作モードがある。まず、全体モードは、PC100とユーザ装着ユニット130との接続状態に基づいて、「コネクション・モード」と「単独モード」のうちの何れかに設定される。コネクション・モードとは、ネットワーク160を介してユーザ装着ユニット130がPC100と接続されている場合の全体モードである。また、単独モードは、ユーザ装着ユニット130がPC100に接続されることなく単独で動作する全体モードである。コネクション・モードにおいては、様々な表示制御や音楽再生等はPC100によって実行され、ユーザ装着ユニット130はPC100の入出力装置として機能する。一方、単独モードにおいては、ユーザ装着ユニット130のCPU142自体によって様々な表示制御や音楽再生等の処理が実行される。また、操作モードには、再生する楽曲を選択する曲選択モード等がある。
3. Operation of the embodiment
3.1. Outline of Operation Next, an outline of the operation of the present embodiment will be described. First, in this embodiment, there are two operation modes: an overall mode that defines the overall operation state of the user wearing unit 130, and an operation mode that defines the functions of various controls in the selected overall mode. First, the overall mode is set to either “connection mode” or “independent mode” based on the connection state between the PC 100 and the user mounting unit 130. The connection mode is an overall mode when the user mounting unit 130 is connected to the PC 100 via the network 160. The single mode is an overall mode in which the user wearing unit 130 operates independently without being connected to the PC 100. In the connection mode, various display controls, music playback, and the like are executed by the PC 100, and the user wearing unit 130 functions as an input / output device of the PC 100. On the other hand, in the single mode, various processes such as display control and music playback are executed by the CPU 142 of the user wearing unit 130 itself. The operation mode includes a song selection mode for selecting a song to be reproduced.

ここで、曲選択モードの動作の概要を説明しておく。操作モードが曲選択モードになると、表示部106に複数の楽曲名のリストが表示され、何れかの楽曲名の箇所に曲選択カーソルが置かれる。この曲選択カーソルが置かれた楽曲を「特定曲」という。ユーザがアップ・スイッチ132−1またはダウン・スイッチ132−2等を操作すると、楽曲名リスト上で曲選択カーソルを移動させることができ、該曲選択カーソルの移動とともに、「特定曲」も変更される。   Here, an outline of the operation in the music selection mode will be described. When the operation mode is the song selection mode, a list of a plurality of song names is displayed on the display unit 106, and a song selection cursor is placed at any song name. The music on which the music selection cursor is placed is called “specific music”. When the user operates the up switch 132-1 or the down switch 132-2, the song selection cursor can be moved on the song name list, and “specific song” is also changed along with the movement of the song selection cursor. The

コネクション・モードにおいては、PC100の表示部106には、図3(a)に示すガイド画像6が表示される。ガイド画像6の内部において、10はプログレス・バーであり、横長の棒状の図形として表示される。12はカーソルであり、音楽再生の進行とともにプログレス・バー10上を左端から右端に向かって移動する。プログレス・バー10の上方において14は背景画像であり、その内部に人画像16が表示されている。   In the connection mode, the guide image 6 shown in FIG. 3A is displayed on the display unit 106 of the PC 100. Inside the guide image 6, 10 is a progress bar, which is displayed as a horizontally long bar-like figure. Reference numeral 12 denotes a cursor, which moves on the progress bar 10 from the left end to the right end as music playback progresses. Above the progress bar 10, 14 is a background image, and a human image 16 is displayed in the background image.

人画像16は、アニメーションであり、本実施例にあっては、人画像16が走行する「走行状態」または人画像16が歩行する「歩行状態」の二種類のキャラクタ種類のうち何れかのアニメーションが選択される。何れのキャラクタ種類においても、人画像16は、カーソル12の直上の位置に表示されるため、音楽再生の進行とともに背景画像14内を左端から右端に向かって移動する。ここで、「走行状態」のアニメーションとは、図3(b)に示すコマR1〜R10を順次かつ繰り返し再生するものである。また、「歩行状態」のアニメーションとは、図3(c)に示すコマW1〜W10を順次かつ繰り返し再生するものである。なお、本明細書において「走行状態」とは、「両足が浮いている状態(例えばコマR2,R3,R7,R8)」と、「少なくとも一方の足が着地した状態(同、コマR1,R4〜R6,R9,R10)」との二種類の状態を有することをいい、「歩行状態」とは「全てのコマにおいて少なくとも一方の足が着地している」ことをいう。   The human image 16 is an animation. In this embodiment, the human image 16 is one of the two character types of “running state” in which the human image 16 travels or “walking state” in which the human image 16 walks. Is selected. In any character type, the human image 16 is displayed at a position immediately above the cursor 12, and therefore moves in the background image 14 from the left end toward the right end as the music playback proceeds. Here, the “running state” animation is to sequentially and repeatedly reproduce the frames R1 to R10 shown in FIG. Also, the “walking state” animation is to sequentially and repeatedly reproduce the frames W1 to W10 shown in FIG. In this specification, “running state” means “a state where both feet are floating (for example, tops R2, R3, R7, R8)” and “a state where at least one foot is landed (same, tops R1, R4). ~ R6, R9, R10) "and" walking state "means" at least one foot is landing on every frame ".

本実施例においては、アニメーションのキャラクタ種類は、再生対象の楽曲すなわち特定曲のテンポ値に対応して、「キャラクタ種類CHA」という変数に自動的にセットされる。すなわち、特定曲のテンポ値が「140」未満であればキャラクタ種類CHAは、“0”(歩行状態)に設定され、特定曲のテンポ値が「140」以上であればキャラクタ種類CHAは、“1”(走行状態)に設定される。   In this embodiment, the character type of the animation is automatically set to a variable “character type CHA” corresponding to the tempo value of the music to be reproduced, that is, the specific music. That is, if the tempo value of the specific song is less than “140”, the character type CHA is set to “0” (walking state), and if the tempo value of the specific song is “140” or more, the character type CHA is “ 1 "(running state) is set.

3.2.コネクション・モードの動作
3.2.1.メインルーチン
次に、図4,図5を参照し、コネクション・モードにおけるPC100の動作を説明する。
図4において処理がステップSP2に進むと、所定の初期設定が行われる。次に、処理がステップSP4に進むと、各種の操作子イベントが発生したか否かが判定される。ここで、操作子イベントとは、ユーザ装着ユニット130内の各スイッチ132−1〜132−3の操作イベント、あるいはPC100の操作子部102における操作イベントをいう。なお、上述したように、PC100の操作子部102は、キーボードを含んでいるが、このキーボードのいくつかのファンクション・キーは、ユーザ装着ユニット130におけるスイッチ132−1〜132−3と等価な機能を果たすように割り当てられている。
3.2. Connection mode operation
3.2.1. Main Routine Next, the operation of the PC 100 in the connection mode will be described with reference to FIGS.
In FIG. 4, when the process proceeds to step SP2, predetermined initial setting is performed. Next, when the process proceeds to step SP4, it is determined whether various operator events have occurred. Here, the operator event refers to an operation event of each switch 132-1 to 132-3 in the user wearing unit 130 or an operation event in the operator unit 102 of the PC 100. As described above, the operation unit 102 of the PC 100 includes a keyboard. Some function keys of the keyboard have functions equivalent to the switches 132-1 to 132-3 in the user wearing unit 130. Assigned to fulfill.

操作子イベントが発生していなければ、ステップSP4において「NO」と判定され、処理はステップSP40(図5)に進み、取り込み完了フラグFが“1”(取込済)であるか否かが判定される。ここで、「取り込み完了フラグF」について説明しておく。ユーザ装着ユニット130は、PC100に接続されていない状態においても単独で過去のフィットネスの履歴(開始日時や時間等)であるフィットネス履歴データを記憶することができる。そして、PC100にユーザ装着ユニット130が接続されると、このフィットネス履歴データがPC100に取り込まれる。取り込み完了フラグFは、このフィットネス履歴データの取り込みが完了している場合は“1”(取込済)に、完了していない場合は“0”(未取込)に設定されるフラグであり、初期設定時(ステップSP2)において“0”(未取込)に設定される。   If an operator event has not occurred, “NO” is determined in step SP4, the process proceeds to step SP40 (FIG. 5), and whether or not the capture completion flag F is “1” (captured). Determined. Here, the “capture completion flag F” will be described. Even when the user wearing unit 130 is not connected to the PC 100, it can store fitness history data that is a past fitness history (start date and time, time, etc.) alone. When the user wearing unit 130 is connected to the PC 100, the fitness history data is taken into the PC 100. The capture completion flag F is a flag that is set to “1” (captured) when the fitness history data has been captured, and set to “0” (not captured) when the fitness history data has not been captured. At the initial setting (step SP2), it is set to “0” (not loaded).

ステップSP40において「NO」(未取込)と判定されると、処理はステップSP42に進み、PC100にユーザ装着ユニット130が接続されているか否かが判定される。ここで「NO」(未接続)と判定されると、処理はステップSP44に進み、取り込み完了フラグFが“0”(未取込)に設定される。すなわち、PC100とユーザ装着ユニット130との通信が一旦途切れると、取り込み完了フラグFは速やかに“0”(未取込)に設定されることになる。一方、ユーザ装着ユニット130が接続されている場合はステップSP42において「YES」と判定され、処理はステップSP46に進む。ここでは、データ転送スイッチ(操作子部102における所定のファンクション・キー)がオン状態であるか否かが判定される。   If it is determined “NO” (not loaded) in step SP40, the process proceeds to step SP42, and it is determined whether or not the user mounting unit 130 is connected to the PC 100. If it is determined “NO” (not connected), the process proceeds to step SP44, and the capture completion flag F is set to “0” (not captured). That is, once communication between the PC 100 and the user-mounted unit 130 is interrupted, the capture completion flag F is quickly set to “0” (not captured). On the other hand, if the user wearing unit 130 is connected, “YES” is determined in step SP42, and the process proceeds to step SP46. Here, it is determined whether or not the data transfer switch (a predetermined function key in the operation unit 102) is in an ON state.

ステップSP46において「YES」と判定されると、処理はステップSP48に進み、フィットネス履歴データが所定のバイト長だけユーザ装着ユニット130から取得される。次に、処理がステップSP50に進むと、フィットネス履歴データの転送が全て完了したか否かが判定される。ここで「NO」と判定されると、処理はステップSP48に戻り、フィットネス履歴データの転送が続行される。そして、全てのフィットネス履歴データの転送が終了すると、処理はステップSP52に進み、取り込み完了フラグFが“1”(取込済)に設定される。   If “YES” is determined in step SP46, the process proceeds to step SP48, and fitness history data is acquired from the user wearing unit 130 by a predetermined byte length. Next, when the process proceeds to step SP50, it is determined whether or not all the transfer of fitness history data has been completed. If "NO" is determined here, the process returns to step SP48, and the transfer of the fitness history data is continued. When the transfer of all fitness history data ends, the process proceeds to step SP52, and the capture completion flag F is set to “1” (captured).

以後、取り込み完了フラグFが“1”(取込済)である限り、ステップSP40において常に「NO」と判定されるから、フィットネス履歴データの取込処理(ステップSP48,50)はスキップされる。また、ユーザ装着ユニット130がPC100に接続されていない場合(ステップSP42)や、データ転送スイッチがオンされなかった場合(ステップSP46)においても、フィットネス履歴データの取込処理(ステップSP48,50)はスキップされる。以上のステップが完了すると、処理は再びステップSP4(図4)に戻り、操作子イベントの有無が判定される。   Thereafter, as long as the capture completion flag F is “1” (captured), it is always determined “NO” in step SP40, so the fitness history data capture processing (steps SP48, 50) is skipped. Even when the user wearing unit 130 is not connected to the PC 100 (step SP42) or when the data transfer switch is not turned on (step SP46), the fitness history data capturing process (steps SP48 and SP50) is performed. Skipped. When the above steps are completed, the process returns to step SP4 (FIG. 4) again, and the presence / absence of an operator event is determined.

次に、ステップSP4において何らかの操作子イベントが検出されると、処理はステップSP6に進む。ここでは、操作された操作子は「メニュー操作子」であるか否かが判定される。なお、「メニュー操作子」とは、ユーザ装着ユニット130内のメニュー・スイッチ132−3と、操作子部102内でこれと同等の機能が割り当てられたファンクション・キーとを総称したものである。メニュー操作子が操作されると、操作される毎に操作モードが変更される。次に、処理がステップSP8に進むと、操作モードが曲選択モードに設定されたか否かが判定される。ここで「NO」と判定されると、処理はステップSP9に進み、現在の操作モードに応じた処理が行われる。一方、操作モードが曲選択モードになると、ステップSP8において「YES」と判定され処理はステップSP10に進む。   Next, when any operator event is detected in step SP4, the process proceeds to step SP6. Here, it is determined whether or not the operated operator is a “menu operator”. The “menu operator” is a general term for the menu switch 132-3 in the user wearing unit 130 and the function keys to which the equivalent function is assigned in the operator unit 102. When the menu operator is operated, the operation mode is changed every time the menu operator is operated. Next, when the process proceeds to step SP8, it is determined whether or not the operation mode is set to the music selection mode. If "NO" is determined here, the process proceeds to step SP9, and a process according to the current operation mode is performed. On the other hand, if the operation mode is the music selection mode, “YES” is determined in step SP8, and the process proceeds to step SP10.

ステップSP10においては、アップ・スイッチ132−1、ダウン・スイッチ132−2、またはこれらの対応する操作子部102内のファンクション・キーの操作イベントがあったか否かが検出される。ここで「NO」と判定されると処理はステップSP12に進み、前回選択した楽曲(現在の曲選択カーソルの位置に係る楽曲)が特定曲として選択される。   In step SP10, it is detected whether or not there has been an operation event of the up switch 132-1, the down switch 132-2, or the function key in the corresponding operation unit 102. If "NO" is determined here, the process proceeds to step SP12, and the previously selected music (the music related to the position of the current music selection cursor) is selected as the specific music.

次に、処理がステップSP14に進むと、現在の曲選択カーソルの位置に係る楽曲が特定曲として指定される。そして、この特定曲の曲名、テンポ、再生時間などが記憶装置110内の曲データ管理テーブルから読み出され、表示部106に表示される。ところで、曲データ管理テーブルにおいては、所定の順序(例えばアルファベット順)に各曲データの曲名、テンポ、再生時間などが記録されている。ステップSP14においては、特定曲の前後の十数曲に関しても、これら曲名、テンポ、再生時間などが読み出され、表示部106にこれらの内容がリストとして表示される。   Next, when the process proceeds to step SP14, the music related to the current music selection cursor position is designated as the specific music. Then, the song name, tempo, reproduction time, etc. of the specific song are read from the song data management table in the storage device 110 and displayed on the display unit 106. By the way, in the song data management table, the song name, tempo, reproduction time, etc. of each song data are recorded in a predetermined order (for example, alphabetical order). In step SP14, the song title, tempo, playback time, etc. are read out for the dozen songs before and after the specific song, and their contents are displayed on the display unit 106 as a list.

次に、処理がステップSP16に進むと、「スタート機能のオンイベント」が発生したか否かが判定される。ここで、「スタート機能のオンイベント」とは、ユーザ装着ユニット130においてアップ・スイッチ132−1とダウン・スイッチ132−2とが同時に押下された場合、または、PC100の操作子部102において、スタート機能に対応するファンクション・キーが押下された場合のうち何れかである。   Next, when the process proceeds to step SP16, it is determined whether or not a “start function ON event” has occurred. Here, the “start function on-event” means that the up switch 132-1 and the down switch 132-2 are pressed at the same time in the user wearing unit 130 or the start unit 102 of the PC 100 starts. One of the cases where the function key corresponding to the function is pressed.

ステップSP16において「NO」と判定されると、処理はステップSP8に戻る。これにより、以後、アップ・スイッチ132−1またはダウン・スイッチ132−2が操作される毎に、特定曲が変更され、変更後の特定曲の曲名、テンポなどが表示部106に表示される。一方、ステップSP16において「YES」と判定されると、処理はステップSP18に進み、キャラクタ種類CHAが、特定曲のテンポ値に対応した値に設定される。すなわち、キャラクタ種類CHAは、特定曲のテンポ値が「140」未満であれば“0”(歩行状態)に設定され、特定曲のテンポ値が「140」以上であれば“1”(走行状態)に設定される。次に、処理がステップSP20に進むと、特定曲のテンポ値に基づいたタイマ関係パラメータが指定される。   If it is determined as “NO” in Step SP16, the process returns to Step SP8. Thus, each time the up switch 132-1 or the down switch 132-2 is operated thereafter, the specific music is changed, and the name, tempo, etc. of the changed specific music are displayed on the display unit 106. On the other hand, if “YES” is determined in step SP16, the process proceeds to step SP18, and the character type CHA is set to a value corresponding to the tempo value of the specific song. That is, the character type CHA is set to “0” (walking state) if the tempo value of the specific song is less than “140”, and “1” (running state) if the tempo value of the specific song is “140” or more. ). Next, when the process proceeds to step SP20, a timer-related parameter based on the tempo value of the specific music is designated.

上記ステップSP20において設定されるタイマ関係パラメータには、以下のようなものがある。
(1)CNTAmax:本実施例の表示制御および発音制御のタイミングの分解能Tsは、対象となる楽曲の四分音符長の「1/96」である。CNTAmaxは、この分解能Tsを「μsec」単位で表したものである。例えば、テンポが「120」であるとすると、四分音符長は「500msec」になる。これを「96」で除算すると、分解能Tsは約「5208μsec」になるから、CNTAmaxは「5208」に設定される。同様に、テンポが「100」であればCNTAmaxは「6250」に設定され、同様に、テンポが「110」であればCNTAmaxは「5681」に設定される。
The timer related parameters set in step SP20 include the following.
(1) CNTAmax: The resolution Ts of the timing of display control and sound generation control in this embodiment is “1/96” of the quarter note length of the target music piece. CNTAmax represents this resolution Ts in units of “μsec”. For example, if the tempo is “120”, the quarter note length is “500 msec”. When this is divided by “96”, the resolution Ts becomes approximately “5208 μsec”, so CNTAmax is set to “5208”. Similarly, if the tempo is “100”, CNTAmax is set to “6250”. Similarly, if the tempo is “110”, CNTAmax is set to “5681”.

(2)CNTBmax:図3(b),(c)に示したアニメーションは、何れも「10コマ」から構成されるものであるが、この10コマは「2拍」の期間内に再生されるものである。このアニメーションを表示する周期をアニメーション表示周期Taという。CNTBmaxは、アニメーション表示周期Taが分解能Tsの何倍であるかを示すものであり、図3(b),(c)の例においては、「96×2=192」に設定される。 (2) CNTBmax: The animations shown in FIGS. 3B and 3C are all composed of “10 frames”, and these 10 frames are reproduced within the period of “2 beats”. Is. The period for displaying this animation is called an animation display period Ta. CNTBmax indicates how many times the animation display cycle Ta is the resolution Ts, and is set to “96 × 2 = 192” in the examples of FIGS. 3B and 3C.

(3)各コマの表示タイミング:このパラメータは、アニメーションを構成する各コマの表示タイミング(コマ送りを行うタイミング)を、アニメーション表示周期Taの開始点を基準として、分解能Tsを単位として指定するものである。上記例におけるCNTBmax(=192)に基づいて、各コマの表示時間がほぼ均等になるように割り振るとすると、各表示タイミングは例えば次のように設定することができる。
第1コマ〜第5コマについて:「0」,「20」,「39」,「58」,「77」
第6コマ〜第10コマについて:「96」,「116」,「135」,「154」,「173」
(3) Display timing of each frame: This parameter specifies the display timing of each frame constituting the animation (timing for frame advance) in units of resolution Ts with the start point of the animation display cycle Ta as a reference. It is. Based on CNTBmax (= 192) in the above example, if the display times of the frames are allocated so as to be approximately equal, the display timings can be set as follows, for example.
From frame 1 to frame 5: “0”, “20”, “39”, “58”, “77”
From frame 6 to frame 10: “96”, “116”, “135”, “154”, “173”

上記例によれば、第1コマおよび第6コマの表示時間は「20・Ts」であり、それ以外のコマの表示時間「19・Ts」と比較すると、若干長くなっている。このように、第1コマおよび第6コマの表示時間を若干長くした理由を説明する。まず、第1コマおよび第6コマの表示タイミングは、拍タイミングに一致する。このため、ユーザが拍タイミングの基準を把握しやすくするように、第1コマおよび第6コマの表示時間を他のコマより長くすることが好適である。   According to the above example, the display time of the first frame and the sixth frame is “20 · Ts”, which is slightly longer than the display time “19 · Ts” of the other frames. Thus, the reason why the display time of the first frame and the sixth frame is slightly increased will be described. First, the display timing of the first frame and the sixth frame matches the beat timing. For this reason, it is preferable to set the display time of the first frame and the sixth frame longer than the other frames so that the user can easily grasp the reference of the beat timing.

さらに、第1コマおよび第6コマの「表示内容」も長く表示させることが好適な内容に設定されている。その詳細を図3(b),(c)を参照し説明する。まず、走行状態に係る図3(b)を参照すると、コマR1,R4〜R6,R9,R10は人画像の片足が着地している着地状態であり、それ以外のコマR2,R3,R7,R8は人画像の両足が浮いている非着地状態である。従って、第1コマおよび第6コマ(コマR1,R6)は、着地状態から非着地状態に遷移するタイミングである。すなわち、コマR1,R6は、着地している側の片足を蹴り出すことにより、正に両足を浮かせようとするタイミングであり、ユーザが人画像に同期して走行状態の動作を行うとき、最も重要なタイミングである。その理由は、非着地状態から着地状態に遷移するタイミングは、ユーザが制御しにくいものであり、着地状態から非着地状態に遷移するタイミングはユーザが比較的自由に制御できるためである。   Furthermore, the “display content” of the first frame and the sixth frame is set to a preferable content to be displayed for a long time. Details thereof will be described with reference to FIGS. First, referring to FIG. 3 (b) relating to the running state, frames R1, R4 to R6, R9, and R10 are landing states in which one foot of a human image is landing, and the other frames R2, R3, R7, R8 is a non-landing state where both feet of the human image are floating. Accordingly, the first frame and the sixth frame (frames R1 and R6) are the timing when the landing state is changed to the non-landing state. In other words, the tops R1 and R6 are the timings when the legs on the landing side are kicked out to lift both feet, and when the user performs the operation in the running state in synchronization with the human image, It is an important timing. The reason is that the timing at which the transition from the non-landing state to the landing state is difficult for the user to control, and the timing at which the transition from the landing state to the non-landing state can be controlled relatively freely by the user.

次に、歩行状態に係る図3(c)において、第1コマおよび第6コマ(コマW1,W6)を参照すると、人画像の両足がほぼ揃っており、これらの前後のコマW10,W2,W5,W7と比較すると、明らかに両足の表示間隔が狭くなっていることが解る。すなわち、コマW1,W6は、ほぼ両足が揃っている状態から、片足を前に出そうとするタイミングであり、ユーザが人画像に同期して歩行状態の動作を行うとき、最も重要なタイミングである。そこで、本実施例においては、走行状態においてはコマR1,R6の表示器間を比較的長く確保するとともに、歩行状態においてはコマW1,W6の表示器間を比較的長く確保することにより、ユーザが、足を動かすべきタイミングを把握しやすくしている。   Next, referring to the first frame and the sixth frame (frames W1 and W6) in FIG. 3 (c) related to the walking state, both feet of the human image are almost aligned, and the frames W10, W2, and the frames before and after these are aligned. Compared with W5 and W7, it can be seen that the display interval of both feet is clearly narrower. That is, the frames W1 and W6 are timings when the user tries to move one foot forward from a state where both feet are almost aligned, and the most important timing when the user performs a walking motion in synchronization with the human image. is there. Therefore, in the present embodiment, the distance between the indicators of the frames R1 and R6 is relatively long in the running state, and the distance between the indicators of the frames W1 and W6 is relatively long in the walking state. However, it makes it easier to understand when to move your foot.

図4に戻り、次に処理がステップSP22に進むと、再生指示フラグRUNが“1”に設定されるとともに、アドレスカウンタADRが「0」に設定される。ここで、再生指示フラグRUNとは、楽曲およびアニメーションの再生を行う場合に“1”(再生状態)、再生を行わない場合に“0”(停止状態)に設定されるフラグである。また、アドレスカウンタADRとは、楽曲の再生が開始した後の経過時間を、分解能Tsを単位として表したものである。   Returning to FIG. 4, when the process proceeds to step SP22, the reproduction instruction flag RUN is set to “1” and the address counter ADR is set to “0”. Here, the reproduction instruction flag RUN is a flag that is set to “1” (reproduction state) when the music and animation are reproduced and “0” (stop state) when the reproduction is not performed. Further, the address counter ADR represents the elapsed time after the reproduction of music is started with the resolution Ts as a unit.

ところで、上記ステップSP4において「メニュー操作子」以外の操作子イベントが検出された場合には、ステップSP6において「NO」と判定され、処理はステップSP24に進む。ステップSP24においては、検出された操作子イベントは演奏情報等の編集を行う「エディット入力指示」であるか否かが判定される。ここで「YES」と判定されると、処理はステップSP26に進み、操作内容に応じて演奏情報等の編集処理および編集結果の表示処理が行われる。また、ステップSP24において「NO」と判定されると、処理はステップSP28に進み、上記ステップSP4においてメニュー操作子の操作、エディット入力指示以外の指示が検出されたか否かが判定される。   By the way, when an operator event other than “menu operator” is detected in step SP4, “NO” is determined in step SP6, and the process proceeds to step SP24. In step SP24, it is determined whether or not the detected operator event is an “edit input instruction” for editing performance information or the like. If "YES" is determined here, the process proceeds to step SP26, and editing processing of performance information and the editing result display processing are performed according to the operation content. If "NO" is determined in the step SP24, the process proceeds to a step SP28, and it is determined whether or not an instruction other than the operation of the menu operator and the edit input instruction is detected in the step SP4.

ステップSP28において「YES」と判定されると、処理はステップSP30に進み、指示内容に応じた処理が実行される。なお、ステップSP28において「NO」と判定された場合には、実質的に処理は行われない。以上のステップSP6〜SP30の処理が終了すると、処理はステップSP4に戻り、以降は上述した動作と同様の動作が繰り返される。   If "YES" is determined in step SP28, the process proceeds to step SP30, and a process corresponding to the instruction content is executed. If “NO” is determined in step SP28, the process is not substantially performed. When the processes in steps SP6 to SP30 are completed, the process returns to step SP4, and thereafter, the same operations as those described above are repeated.

3.2.2.タイマ・インタラプト処理
コネクション・モードにおいては、「1μsec」毎に、CPU112に対してタイマ・インタラプトが発生する。タイマ・インタラプトが発生すると、図6(a)に示すタイマ・インタラプト・ルーチンが起動される。図6(a)において処理がステップSP102に進むと、カウンタ変数CNTAが更新される。すなわち、カウンタ変数CNTAは、「0」を初期値としてタイマ・インタラプトが発生する毎に「1」づつインクリメントされ、最大値CNTAmaxになると「0」に戻される。なお、上記ステップSP20において述べたように、最大値CNTAmaxはテンポ値に応じた値に予め設定されている。次に、処理がステップSP104に進むと、現タイミングがテンポ・インタラプト発生タイミングであるか否かが判定される。すなわち、カウンタ変数CNTAが「0」であればテンポ・インタラプト発生タイミングであり、それ以外の場合はテンポ・インタラプト発生タイミングではない。ここで「YES」と判定されると、処理はステップSP104に進み、テンポ・インタラプトが発生され、後述するテンポ・インタラプト処理ルーチン(図6(b))が呼び出される。
3.2.2. Timer Interrupt Processing In the connection mode, a timer interrupt is generated for the CPU 112 every “1 μsec”. When the timer interrupt is generated, the timer interrupt routine shown in FIG. 6A is started. When the process proceeds to step SP102 in FIG. 6A, the counter variable CNTA is updated. That is, the counter variable CNTA is incremented by “1” every time a timer interrupt occurs with “0” as an initial value, and is returned to “0” when the maximum value CNTAmax is reached. As described in step SP20, the maximum value CNTAmax is preset to a value corresponding to the tempo value. Next, when the process proceeds to step SP104, it is determined whether or not the current timing is a tempo interrupt generation timing. That is, if the counter variable CNTA is “0”, it is a tempo interrupt generation timing, and otherwise it is not a tempo interrupt generation timing. If "YES" is determined here, the process proceeds to step SP104, a tempo interrupt is generated, and a tempo interrupt processing routine (FIG. 6B) described later is called.

次に、テンポ・インタラプト処理ルーチン(図6(b))の処理について説明する。図において処理がステップSP110に進むと、カウンタ変数CNTBが更新される。すなわち、カウンタ変数CNTBは、「0」を初期値としてテンポ・インタラプトが発生する毎に「1」づつインクリメントされ、所定の最大値CNTBmax(=192)になると「0」に戻される。   Next, the tempo / interrupt processing routine (FIG. 6B) will be described. In the figure, when the process proceeds to step SP110, the counter variable CNTB is updated. That is, the counter variable CNTB is incremented by “1” every time a tempo interrupt is generated with “0” as an initial value, and is returned to “0” when a predetermined maximum value CNTBmax (= 192) is reached.

次に、処理がステップSP112に進むと、再生指示フラグRUNが“1”(再生中)であるか否かが判定される。ここで「NO」と判定されると本ルーチンの処理は直ちに終了する。一方、ステップSP112において「YES」と判定されると、処理はステップSP114に進む。ここでは、現在のタイミングにおいて再生すべき楽曲が音源回路118、効果回路120およびサウンドシステム122を介して放音される。次に、処理がステップSP116に進むと、現在のアドレスカウンタADRに応じて、プログレス・バー10上のカーソル12の位置が更新される。   Next, when the process proceeds to step SP112, it is determined whether or not the reproduction instruction flag RUN is “1” (reproducing). If “NO” is determined here, the processing of this routine is immediately terminated. On the other hand, if “YES” is determined in step SP112, the process proceeds to step SP114. Here, the music to be reproduced at the current timing is emitted through the sound source circuit 118, the effect circuit 120, and the sound system 122. Next, when the process proceeds to step SP116, the position of the cursor 12 on the progress bar 10 is updated according to the current address counter ADR.

ここで、カーソル12の位置の決定方法について説明しておく。現在再生中の楽曲の再生時間とテンポとは曲データ管理テーブルから既知であるため、再生終了時のアドレスカウンタADRの値(最終アドレスADR_end)は、「最終アドレスADR_end=再生時間(秒)*96*(テンポ/60)」によって求めることができる。そして、現在のアドレスカウンタADRを最終アドレスADR_endで除算すると、全体の再生時間のうち既に再生済みである時間の割合を求めることができる。そして、プログレス・バー10の長さにこの除算結果を乗算した値が、カーソル12の表示位置になる。例えば、除算結果ADR/ADR_endが「0.43」であれば、カーソル位置は、プログレス・バー10の左端から「43%」の位置に設定される。   Here, a method for determining the position of the cursor 12 will be described. Since the playback time and tempo of the currently played music are known from the music data management table, the value of the address counter ADR (final address ADR_end) at the end of playback is “final address ADR_end = playback time (seconds) * 96 * (Tempo / 60) ". Then, by dividing the current address counter ADR by the final address ADR_end, it is possible to obtain the proportion of the time that has already been played out of the total playback time. The display position of the cursor 12 is a value obtained by multiplying the length of the progress bar 10 by the division result. For example, if the division result ADR / ADR_end is “0.43”, the cursor position is set to a position “43%” from the left end of the progress bar 10.

次に、処理がステップSP118に進むと、コマ番号を示す変数Nが「1」に設定される。次に、処理がステップSP120に進むと、カウンタ変数CNTBに基づいて、現時点が第Nコマの表示タイミング(先にステップSP20において設定された表示タイミング)であるか否かが判定される。ここで「YES」と判定されると、処理はステップSP122に進み、キャラクタ種類CHAが“1”(走行状態)であるか否かが判定される。ここで「YES」と判定されると、処理はステップSP124に進み、走行状態に係るアニメーションの第Nコマ(コマR(N))が、背景画像14内のカーソル12の直上の位置に表示される。一方、ステップSP122で「NO」と判定されると、キャラクタ種類CHAは“0”(歩行状態)である。かかる場合は、処理はステップSP126に進み、歩行状態に係るアニメーションの第Nコマ(コマW(N))が、背景画像14内のカーソル12の直上の位置に表示される。   Next, when the process proceeds to step SP118, the variable N indicating the frame number is set to “1”. Next, when the process proceeds to step SP120, it is determined based on the counter variable CNTB whether or not the current time is the display timing of the Nth frame (the display timing previously set in step SP20). If “YES” is determined here, the process proceeds to step SP122 to determine whether or not the character type CHA is “1” (running state). If "YES" is determined here, the process proceeds to step SP124, and the N-th frame (frame R (N)) of the animation relating to the running state is displayed at a position immediately above the cursor 12 in the background image 14. The On the other hand, if “NO” is determined in step SP122, the character type CHA is “0” (walking state). In such a case, the process proceeds to step SP126, and the Nth frame (frame W (N)) of the animation relating to the walking state is displayed at a position immediately above the cursor 12 in the background image 14.

次に、処理がステップSP128に進むと、コマ番号Nが「1」だけインクリメントされる。次に、処理がステップSP130に進むと、コマ番号Nが「10」を超えたか否かが判定される。ここで「NO」と判定されると、ステップSP120〜ステップSP128の処理が新たなコマ番号Nに対して実行される。そして、コマ番号Nが「10」を超えると、ステップSP130において「YES」と判定され処理はステップSP132に進む。ここでは、アドレスカウンタADRが「1」だけインクリメントされる。以上のステップが終了すると、テンポ・インタラプト処理ルーチンが終了する。   Next, when the process proceeds to step SP128, the frame number N is incremented by “1”. Next, when the process proceeds to step SP130, it is determined whether or not the frame number N has exceeded “10”. If “NO” is determined here, the processing of step SP120 to step SP128 is executed for the new frame number N. If the frame number N exceeds “10”, “YES” is determined in step SP130, and the process proceeds to step SP132. Here, the address counter ADR is incremented by “1”. When the above steps are completed, the tempo interrupt processing routine ends.

3.3.単独モードの動作
次に、単独モードにおいて、ユーザ装着ユニット130のCPU142によって実行される処理の内容を図7を参照し説明する。図7に示すステップSP202〜SP230の処理は、図4におけるステップSP2〜30の処理と同様であるため、以下に異なる点のみを説明する。まず、図7の処理においては、ステップSP42〜SP52(図5)に対応する処理がなく、ステップSP204においては、何らかの操作イベントが発生するまで、処理が待機する。これは、ユーザ装着ユニット130自体は他の機器から「データを取り込む」ことが無いためである。なお、このステップSP204において処理が待機している場合には、ユーザ装着ユニット130の操作モードを時計モードとし、時刻表示などを行わせるようにしてもよい。
3.3. Operation in Single Mode Next, the contents of processing executed by the CPU 142 of the user wearing unit 130 in the single mode will be described with reference to FIG. Since the processing of steps SP202 to SP230 shown in FIG. 7 is the same as the processing of steps SP2 to SP30 in FIG. 4, only different points will be described below. First, in the process of FIG. 7, there is no process corresponding to steps SP42 to SP52 (FIG. 5), and in step SP204, the process waits until an operation event occurs. This is because the user mounting unit 130 itself does not “capture data” from other devices. When the process is waiting in step SP204, the operation mode of the user wearing unit 130 may be set to the clock mode, and the time display may be performed.

また、ステップSP204,SP206,SP210,SP216,SP224,SP228等における判定処理は、ユーザ装着ユニット130内のスイッチ132−1〜132−3の操作状態のみに基づいて実行される。これは、単独モードではユーザ装着ユニット130にPC100は接続されないためである。また、ステップSP218,SP226等における表示処理は、ユーザ装着ユニット130内の表示部136に対して行われる。また、タイマ・インタラプトおよびテンポ・インタラプトもユーザ装着ユニット130内のCPU142に対して発生するものであり、対応する処理(図6(a),(b))もユーザ装着ユニット130内のCPU142において実行される。   In addition, the determination processing in steps SP204, SP206, SP210, SP216, SP224, SP228, etc. is executed based only on the operation state of the switches 132-1 to 132-3 in the user wearing unit 130. This is because the PC 100 is not connected to the user wearing unit 130 in the single mode. Further, the display processing in steps SP218, SP226, etc. is performed on the display unit 136 in the user wearing unit 130. In addition, a timer interrupt and a tempo interrupt are also generated for the CPU 142 in the user wearing unit 130, and the corresponding processing (FIGS. 6A and 6B) is also executed in the CPU 142 in the user wearing unit 130. Is done.

4.変形例
本発明は上述した実施例に限定されるものではなく、例えば以下のように種々の変形が可能である。
(1)上記実施例においては、PC100またはユーザ装着ユニット130上で動作するプログラムによって各種処理を行ったが、このプログラムのみをCD−ROM、メモリカード等の記録媒体に格納して頒布し、 あるいは伝送路を通じて頒布することもできる。
Four. Modifications The present invention is not limited to the above-described embodiments, and various modifications can be made as follows, for example.
(1) In the above embodiment, various processes are performed by a program operating on the PC 100 or the user mounting unit 130, but only this program is stored in a recording medium such as a CD-ROM or a memory card and distributed. It can also be distributed through a transmission line.

(2)上記実施例においては、キャラクタ種類CHAによって「歩行状態」または「走行状態」のうち何れかのアニメーションを指定したが、キャラクタ種類はこれらに限られるものではなく、例えばヨガや太極拳などの動きを取り入れても良い。 (2) In the above embodiment, either “walking state” or “running state” animation is specified by the character type CHA, but the character type is not limited to these, for example, yoga or tai chi You may incorporate the movement.

(3)上記実施例のステップSP14においては、曲データのリストがアルファベット順に限られるものではない。例えば、テンポの小さい順に曲データを配列するとともに、同一のテンポを有する曲データ間ではアルファベット順に配列するようにしてもよい。 (3) In step SP14 of the above embodiment, the list of song data is not limited to alphabetical order. For example, song data may be arranged in ascending order of tempo and arranged in alphabetical order between song data having the same tempo.

(4)上記実施例においては、曲データのテンポと、再生開始タイミング(ステップSP22の実行タイミング)に基づいて、アニメーションの各コマの表示タイミングを一意に決定したが、実際の楽曲では拍タイミングには「揺れ」が生じる場合などがある。かかる場合は、拍タイミングを表す拍タイミングデータを曲データの中に含め、あるいは、拍タイミングを特定するために曲データとは別ファイルの拍タイミングデータファイルを記憶装置110,140に記憶させ、該拍タイミングデータに同期してアニメーションを表示させるようにしてもよい。 (4) In the above embodiment, the display timing of each frame of animation is uniquely determined based on the tempo of the song data and the playback start timing (execution timing of step SP22). In some cases, “sway” occurs. In such a case, the beat timing data representing the beat timing is included in the song data, or in order to identify the beat timing, the beat timing data file different from the song data is stored in the storage devices 110 and 140, and You may make it display an animation synchronizing with beat timing data.

(5)また、上記実施例においては、ガイド画像6に人画像16のアニメーションを表示したが、人画像16に代えて、他の二足歩行動物または二足歩行ではない動物のアニメーションなどを表示してもよい。さらに、これらアニメーションは、走行状態や歩行状態に限られるものではなく、ヨガや太極拳などのポーズのアニメーションを用いてもよい。 (5) In the above embodiment, the animation of the human image 16 is displayed on the guide image 6, but instead of the human image 16, the animation of other bipedal animals or animals that are not bipedal is displayed. May be. Furthermore, these animations are not limited to the running state and the walking state, and animations of poses such as yoga and tai chi may be used.

5.実施態様
本発明には、以下のような実施態様がある。
(1)前記第1のアニメーションは、動物の走行状態を表示するものであり、
前記第2のアニメーションは、前記動物の歩行状態を表示するものである
ことを特徴とする請求項1記載の音楽データ再生装置。
(2)前記動物は二足歩行動物であり、
前記第1のアニメーションは、前記二足歩行動物の両足が浮いている状態のコマと少なくとも一方の足が着地した状態のコマとを含んで成るものであり、
前記第2のアニメーションは、前記二足歩行動物の少なくとも一方の足が着地した状態のコマのみから成るものである
ことを特徴とする実施態様1記載の音楽データ再生装置。
Five. Embodiments The present invention has the following embodiments.
(1) The first animation displays a running state of an animal,
The music data reproducing apparatus according to claim 1, wherein the second animation displays a walking state of the animal.
(2) The animal is a bipedal animal,
The first animation includes a frame in a state where both feet of the bipedal animal are floating and a frame in a state where at least one foot is landed,
The music data reproducing apparatus according to claim 1, wherein the second animation is composed only of a frame in a state where at least one foot of the bipedal animal is landed.

本発明の一実施例のフィットネス管理システムのブロック図である。It is a block diagram of the fitness management system of one Example of this invention. ユーザ装着ユニット130の外観構成を示す平面図である。4 is a plan view showing an external configuration of a user wearing unit 130. FIG. PC100内の表示部106における表示例を示す図である。It is a figure which shows the example of a display in the display part 106 in PC100. PC100で実行されるメインルーチンのフローチャート(1/2)である。It is a flowchart (1/2) of the main routine performed by PC100. PC100で実行されるメインルーチンのフローチャート(2/2)である。It is a flowchart (2/2) of the main routine performed by PC100. PC100で実行される割込み処理ルーチンのフローチャートである。4 is a flowchart of an interrupt processing routine executed by the PC100. 単独モードにおいてユーザ装着ユニット130で実行されるメインルーチンのフローチャートである。It is a flowchart of the main routine performed by the user mounting unit in the single mode.

符号の説明Explanation of symbols

6:ガイド画像、10:プログレス・バー、12:カーソル、14:背景画像、16:人画像、100:PC、100:パーソナルコンピュータ、102,132:操作子部、104,134:検出回路、106,136:表示部(表示装置)、108,138:表示回路、110,140:記憶装置、112,142:CPU(処理装置)、114,144:通信インタフェース、116,146:通信バス、118,148:音源回路、120,150:効果回路、122,152:サウンドシステム、130:ユーザ装着ユニット、130−1:筐体、130−2:バンド、132−1:アップ・スイッチ、132−1〜132−3:スイッチ、132−2:ダウン・スイッチ、132−3:メニュー・スイッチ、132−4:電源スイッチ、154:センサ検出回路、156:センサ、160:ネットワーク、162:アンテナ、164:USBポート、166:イヤホン・ジャック、170:イヤホン・アセンブリ、171:プラグ、172:ケーブル、174:左イヤホン、176:右イヤホン、178:心拍センサ。   6: Guide image, 10: Progress bar, 12: Cursor, 14: Background image, 16: Human image, 100: PC, 100: Personal computer, 102, 132: Control unit, 104, 134: Detection circuit, 106 , 136: display unit (display device), 108, 138: display circuit, 110, 140: storage device, 112, 142: CPU (processing device), 114, 144: communication interface, 116, 146: communication bus, 118, 148: sound source circuit, 120, 150: effect circuit, 122, 152: sound system, 130: user wearing unit, 130-1: housing, 130-2: band, 132-1: up switch, 132-1 132-3: Switch, 132-2: Down switch, 132-3: Menu switch, 132-4: Power supply switch 154: sensor detection circuit, 156: sensor, 160: network, 162: antenna, 164: USB port, 166: earphone jack, 170: earphone assembly, 171: plug, 172: cable, 174: left earphone 176: Right earphone, 178: Heart rate sensor.

Claims (4)

演奏情報または音声データである音楽データを再生する音楽データ再生手段と、
表示装置と、
前記音楽データのテンポが所定値以上であれば第1のアニメーションを選択し、前記音楽データのテンポが該所定値未満であれば第2のアニメーションを選択するアニメーション選択手段と、
前記音楽データに同期して、該アニメーション選択手段によって選択されたアニメーションを前記表示装置に表示させるアニメーション表示手段と
を有することを特徴とする音楽データ再生装置。
Music data playback means for playing back music data that is performance information or audio data;
A display device;
An animation selecting means for selecting a first animation if the tempo of the music data is equal to or greater than a predetermined value, and selecting a second animation if the tempo of the music data is less than the predetermined value;
A music data reproducing apparatus comprising: animation display means for displaying the animation selected by the animation selection means on the display device in synchronization with the music data.
前記第1のアニメーションは、着地状態の第1群のコマと、非着地状態の第2群のコマとから成るものであり、
前記アニメーション表示手段は、前記音楽データの拍タイミングに前記第1群のコマのうち何れかを表示させるものである
ことを特徴とする請求項1記載の音楽データ再生装置。
The first animation is composed of a first group of frames in a landing state and a second group of frames in a non-landing state,
The music data reproducing apparatus according to claim 1, wherein the animation display means displays any one of the frames of the first group at a beat timing of the music data.
表示位置によって前記音楽データの再生の進行状況を示すカーソル画像を前記表示装置に表示させる進行状況表示手段
をさらに有し、
前記アニメーション表示手段は、前記第1のまたは第2のアニメーションの表示位置を前記カーソル画像に沿って移動させるものである
ことを特徴とする請求項1記載の音楽データ再生装置。
Progress status display means for displaying on the display device a cursor image indicating the progress status of reproduction of the music data depending on the display position;
The music data reproducing apparatus according to claim 1, wherein the animation display means moves the display position of the first or second animation along the cursor image.
処理装置と、表示装置と、演奏情報または音声データである音楽データを再生する音楽データ再生手段とを有する音楽データ再生装置に適用されるプログラムであって、
前記音楽データのテンポが所定値以上であれば第1のアニメーションを選択し、前記音楽データのテンポが該所定値未満であれば第2のアニメーションを選択するアニメーション選択過程と、
前記音楽データに同期して、該アニメーション選択過程によって選択されたアニメーションを前記表示装置に表示させるアニメーション表示過程と
を前記処理装置に実行させることを特徴とするプログラム。
A program applied to a music data playback device having a processing device, a display device, and music data playback means for playing back music data that is performance information or audio data,
An animation selection step of selecting a first animation if the tempo of the music data is equal to or greater than a predetermined value, and selecting a second animation if the tempo of the music data is less than the predetermined value;
A program that causes the processing device to execute an animation display step of displaying the animation selected in the animation selection step on the display device in synchronization with the music data.
JP2006356151A 2006-12-28 2006-12-28 Music data reproducing apparatus and program Expired - Fee Related JP4872665B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006356151A JP4872665B2 (en) 2006-12-28 2006-12-28 Music data reproducing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006356151A JP4872665B2 (en) 2006-12-28 2006-12-28 Music data reproducing apparatus and program

Publications (2)

Publication Number Publication Date
JP2008161552A true JP2008161552A (en) 2008-07-17
JP4872665B2 JP4872665B2 (en) 2012-02-08

Family

ID=39691781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006356151A Expired - Fee Related JP4872665B2 (en) 2006-12-28 2006-12-28 Music data reproducing apparatus and program

Country Status (1)

Country Link
JP (1) JP4872665B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010107817A (en) * 2008-10-31 2010-05-13 Brother Ind Ltd Motion content creating system, output terminal, and device, method, and program for creating motion content
EP2378752A3 (en) * 2010-04-19 2011-11-23 Lg Electronics Inc. Mobile terminal and method of controlling operation of the mobile terminal
JP2012249673A (en) * 2011-05-31 2012-12-20 Nintendo Co Ltd Information processing apparatus, information processing system, information processing program, and information processing method
JP2014166240A (en) * 2013-02-28 2014-09-11 Brother Ind Ltd Information processing apparatus and program
JP7440727B2 (en) 2020-06-23 2024-02-29 国立大学法人福井大学 Rhythm comprehension support system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04151199A (en) * 1990-08-21 1992-05-25 Ricos:Kk Animation composition display device
JPH10161673A (en) * 1996-11-29 1998-06-19 Yamaha Corp Karaoke device
JP2002140080A (en) * 2000-10-31 2002-05-17 Daiichikosho Co Ltd Karaoke device equipped with function for editing and outputting video and music program for physical exercise instruction
JP2002210060A (en) * 2001-01-16 2002-07-30 Nippon Hoso Kyokai <Nhk> Contest participation type exercising apparatus and center system therefor
JP2002291952A (en) * 2001-03-29 2002-10-08 Casio Comput Co Ltd Exercise support device, portable electronic equipment, exercise management system and program
JP2006522951A (en) * 2003-04-14 2006-10-05 新世代株式会社 Automatic performance device, automatic performance method, and automatic performance program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04151199A (en) * 1990-08-21 1992-05-25 Ricos:Kk Animation composition display device
JPH10161673A (en) * 1996-11-29 1998-06-19 Yamaha Corp Karaoke device
JP2002140080A (en) * 2000-10-31 2002-05-17 Daiichikosho Co Ltd Karaoke device equipped with function for editing and outputting video and music program for physical exercise instruction
JP2002210060A (en) * 2001-01-16 2002-07-30 Nippon Hoso Kyokai <Nhk> Contest participation type exercising apparatus and center system therefor
JP2002291952A (en) * 2001-03-29 2002-10-08 Casio Comput Co Ltd Exercise support device, portable electronic equipment, exercise management system and program
JP2006522951A (en) * 2003-04-14 2006-10-05 新世代株式会社 Automatic performance device, automatic performance method, and automatic performance program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010107817A (en) * 2008-10-31 2010-05-13 Brother Ind Ltd Motion content creating system, output terminal, and device, method, and program for creating motion content
US9044632B2 (en) 2008-10-31 2015-06-02 Brother Kogyo Kabushiki Kaisha Information processing apparatus, information processing method and recording medium storing program
EP2378752A3 (en) * 2010-04-19 2011-11-23 Lg Electronics Inc. Mobile terminal and method of controlling operation of the mobile terminal
JP2012249673A (en) * 2011-05-31 2012-12-20 Nintendo Co Ltd Information processing apparatus, information processing system, information processing program, and information processing method
JP2014166240A (en) * 2013-02-28 2014-09-11 Brother Ind Ltd Information processing apparatus and program
JP7440727B2 (en) 2020-06-23 2024-02-29 国立大学法人福井大学 Rhythm comprehension support system

Also Published As

Publication number Publication date
JP4872665B2 (en) 2012-02-08

Similar Documents

Publication Publication Date Title
JP4311466B2 (en) Performance apparatus and program for realizing the control method
JP3338005B2 (en) Music game communication system
JP4872665B2 (en) Music data reproducing apparatus and program
CN107004035B (en) Music playing method and device and music playing equipment
JP2007188597A (en) Content reproduction device and content reproduction method, and program
JP2007065493A (en) Music reproducing device
JP2007188598A (en) Content reproduction device and content reproduction method, and program
US7872188B2 (en) Method and apparatus for personal exercise trainer
JP4311467B2 (en) Performance apparatus and program for realizing the control method
JP5655713B2 (en) Movie playback device, movie playback method and program
JP2007328568A (en) Pedometer, portable information terminal, control method for pedometer, and program
US8496516B2 (en) Game device, tempo announcement method, information recording medium and program
JP5572956B2 (en) Exercise support system, output terminal, server, exercise support device, exercise support method, and exercise support program
KR20060054678A (en) Apparatus and method for implementing character video synchronized with sound
JP2012050584A (en) Exercise supporting apparatus, exercise supporting system, exercise supporting method and program
CN111506765B (en) Method, device, electronic equipment and storage medium for controlling music playing rhythm
JP2007164932A (en) Reproduction device, method for reproducing, and program
JP5446600B2 (en) CONTENT GENERATION SYSTEM, EXERCISE SUPPORT DEVICE, CONTENT GENERATION METHOD, AND PROGRAM
JP4311468B2 (en) Performance apparatus and program for realizing the control method
JP6280714B2 (en) Control device, command generation method, program
JP2007200432A (en) Device and method for creating playlist, device and method for reproducing contents, server, and information processor
US20090183623A1 (en) Band manager
JP5632559B2 (en) Music playback device, music playback method, music playback program, and recording medium storing music playback program
JP2017015957A (en) Musical performance recording device and program
JP2009119072A (en) Apparatus, program, and method for composing piece of music for exercise program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110802

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20110809

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110909

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111107

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4872665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees