JP2006251376A - Musical sound controller - Google Patents

Musical sound controller Download PDF

Info

Publication number
JP2006251376A
JP2006251376A JP2005067909A JP2005067909A JP2006251376A JP 2006251376 A JP2006251376 A JP 2006251376A JP 2005067909 A JP2005067909 A JP 2005067909A JP 2005067909 A JP2005067909 A JP 2005067909A JP 2006251376 A JP2006251376 A JP 2006251376A
Authority
JP
Japan
Prior art keywords
music
music data
user
musical
association
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005067909A
Other languages
Japanese (ja)
Inventor
Akane Noguchi
あかね 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2005067909A priority Critical patent/JP2006251376A/en
Publication of JP2006251376A publication Critical patent/JP2006251376A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To repeatedly reproduce a specified musical piece among a plurality of musical pieces reproduced according to the state of a body in motion when a user desires. <P>SOLUTION: A control section 100 analyzes output signals from a sensor group to decide the state of the user (body in motion) fitted with sensors of the sensor group. Then the control section 100 selects a music composition table corresponding to the decided state, combines musical piece element data according to the contents of the music composition table to generate musical piece data and then reproduce the data. Musical piece data that the user specifies as a favorite during the reproduction of musical pieces are stored in a musical sound controller 1. The user can freely reproduce the favorite music by the musical sound controller 1 at desired time. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、運動体の状態に応じて生成・再生される楽曲を保存しておき、これを再び再生するための技術に関する。   The present invention relates to a technique for storing music that is generated and played back according to the state of a moving body and playing it back again.

特許文献1には、ユーザの身体の動きを検出し、その動きに応じたテンポや音量で楽曲を再生する技術が提案されている。具体的には、万歩計(登録商標)のカウント値や指揮棒の振り幅や振り速度などを検出し、この検出値に応じたテンポでメモリから楽音データを1つずつ読み出し、これを楽曲として再生するというものである。このような技術により、ユーザ自らがまるで演奏に参加しているかのような独特の面白みを感じることができる。
特開平6−342282号公報
Patent Document 1 proposes a technique for detecting the movement of the user's body and reproducing the music at a tempo or volume corresponding to the movement. Specifically, it detects the pedometer (registered trademark) count value, the pitch of the baton, the swing speed, etc., reads out the musical sound data one by one from the memory at the tempo corresponding to the detected value, Is to play as. With such a technique, it is possible to feel a unique interest as if the user himself / herself participates in the performance.
JP-A-6-342282

特許文献1に記載された技術においては、ユーザの身体の動きに応じて、その都度異なる内容の楽曲が再生されることになる。つまり、再生される楽曲が一過性であるが故に、それを聴くユーザを飽きさせることがないという利点がある。しかし、その一方で、再生された楽曲をユーザが非常に気に入ったとしても、ユーザは自らが行った動きを全く同じように再現することはできないから、気に入った楽曲と同一の楽曲を再度聴くことができないという問題がある。   In the technique described in Patent Document 1, music having different contents is reproduced each time according to the movement of the user's body. That is, since the music to be played is transient, there is an advantage that the user who listens to it is not bored. But on the other hand, even if the user likes the played music very much, the user can't reproduce the movement that he / she did exactly the same, so he can listen to the same music as his favorite music again There is a problem that can not be.

本発明は上述した背景に鑑みてなされたものであり、その目的は、運動体の状態に応じて再生される複数の楽曲のうち、指定された楽曲をユーザが所望する時期に繰り返し再生するための仕組みを提供することにある。   The present invention has been made in view of the above-described background, and an object of the present invention is to repeatedly play a designated song at a time desired by a user among a plurality of songs to be played according to the state of a moving body. Is to provide a mechanism.

上記課題を解決するために、本発明は、センサから出力される信号を解析し、当該センサが取り付けられた運動体の状態を判定する判定手段と、前記運動体の状態別に定められたアルゴリズムに従って楽曲データを生成する作曲手段と、生成された楽曲データに基づいて楽曲を再生する第1の再生手段と、再生された楽曲を表す楽曲データを一時的に保存する一時保存手段と、ユーザによる操作を受け付ける操作手段と、前記操作手段がユーザから保存を指示する操作を受け付けた場合には、前記一時保存手段によって保存されている楽曲データを読み出し、不揮発性記憶手段に書き込む書込手段と、前記操作手段がユーザから再生を指示する操作を受け付けた場合には、前記不揮発性記憶手段によって保存されている楽曲データを読み出し、読み出した楽曲データに基づいて楽曲を再生する第2の再生手段とを備える楽音制御装置を提供する。   In order to solve the above-described problems, the present invention analyzes a signal output from a sensor, determines a state of a moving body to which the sensor is attached, and an algorithm defined for each state of the moving body. Music composition means for generating music data, first reproduction means for reproducing music based on the generated music data, temporary storage means for temporarily saving music data representing the reproduced music, and user operation And a writing means for reading out music data stored by the temporary storage means and writing it in a nonvolatile storage means when the operation means accepts an operation for instructing saving from a user, When the operation means receives an operation for instructing playback from the user, the music data stored in the nonvolatile storage means is read out. Providing a musical tone control apparatus and a second reproducing means for reproducing music based on the read music data.

この楽音制御装置によれば、運動体の状態に応じた内容の楽曲が再生されているときに、前記操作手段がユーザから保存を指示する操作を受け付けた場合には、書込手段が、前記一時保存手段によって保存されている楽曲データを読み出し、不揮発性記憶手段に書き込む。そして、前記操作手段がユーザから再生を指示する操作を受け付けた場合には、第2の再生手段が、前記不揮発性記憶手段によって保存されている楽曲データを読み出し、第2の再生手段読み出した楽曲データに基づいて楽曲を再生する。よって、ユーザが気に入った楽曲データを再び再生することが可能となる。   According to this musical sound control device, when the operation means accepts an operation for instructing saving from the user when the music having the content according to the state of the moving body is being reproduced, the writing means The music data stored by the temporary storage unit is read and written to the nonvolatile storage unit. Then, when the operation means receives an operation for instructing reproduction from the user, the second reproduction means reads the music data stored in the nonvolatile storage means, and the music read by the second reproduction means Play music based on the data. Therefore, the music data that the user likes can be reproduced again.

また、本発明の別の好ましい態様においては、前記一時保存手段は、前記判定手段によって判定された運動体の状態を少なくとも含む付属情報を前記楽曲データと対応付けて保存し、前記書込手段は、前記一時保存手段によって保存されている付属情報を前記楽曲データと対応付けて前記不揮発性記憶手段に書き込み、さらに、前記第2の再生手段が前記不揮発性記憶手段から読み出した楽曲データに基づいて楽曲を再生する際に、当該楽曲データに対応づけられて前記不揮発性記憶手段に書き込まれている付属情報を出力する出力手段を備えている。   In another preferable aspect of the present invention, the temporary storage unit stores auxiliary information including at least the state of the moving body determined by the determination unit in association with the music data, and the writing unit includes The auxiliary information stored by the temporary storage means is written to the nonvolatile storage means in association with the music data, and further, the second reproduction means is based on the music data read from the nonvolatile storage means. When the music is reproduced, there is provided an output means for outputting the attached information associated with the music data and written in the nonvolatile storage means.

また、本発明の別の好ましい態様においては、他の楽音制御装置と通信を行う通信手段と、前記作曲手段が前記アルゴリズムに従って生成した楽曲データを特徴づける特徴情報を前記通信手段によって他の楽音制御装置に送信する一方、他の楽音制御装置から送信されてくる前記特徴情報を前記通信手段によって受信する通信制御手段とを備え、前記作曲手段は、前記アルゴリズムに従って生成した楽曲データを、前記通信制御手段が前記通信手段によって他の楽音制御装置から受信した特徴情報の内容に基づいて加工し、前記第1の再生手段は、前記作曲手段によって加工された楽曲データに基づいて楽曲を再生する請求項1記載の楽音制御装置。このようにすれば、他の楽音制御装置との関係に応じて楽曲の内容を変化させることができる。   In another preferred aspect of the present invention, communication means for communicating with another musical tone control device, and characteristic information characterizing the music data generated by the music composition means according to the algorithm are controlled by the communication means with the other musical tone control. A communication control means for receiving the feature information transmitted from another musical tone control apparatus by the communication means, while the music composition means generates music data generated in accordance with the algorithm. The means processes the content based on the contents of the characteristic information received from the other sound control device by the communication means, and the first reproduction means reproduces the music based on the music data processed by the music composition means. The musical tone control apparatus according to 1. If it does in this way, the contents of music can be changed according to the relation with other musical tone control devices.

この態様において、前記一時保存手段は、前記通信制御手段が前記通信手段によって受信した特徴情報を前記楽曲データと対応付けて保存し、前記書込手段は、前記一時保存手段によって保存されている特徴情報を前記楽曲データと対応付けて前記不揮発性記憶手段に書き込み、さらに、前記第2の再生手段が前記不揮発性記憶手段から読み出した楽曲データに基づいて楽曲を再生する際に、当該楽曲データに対応づけられて前記不揮発性記憶手段に書き込まれている特徴情報を出力する出力手段を備えている。   In this aspect, the temporary storage unit stores the feature information received by the communication unit by the communication unit in association with the music data, and the writing unit is stored by the temporary storage unit. When information is written in the nonvolatile storage means in association with the music data, and the second reproduction means reproduces the music based on the music data read from the nonvolatile storage means, the music data is stored in the music data. Output means for outputting feature information associated with and written to the nonvolatile storage means is provided.

また、本発明の別の好ましい態様においては、自装置と他の楽音制御装置との距離を測定する測定手段を備え、前記作曲手段は、前記アルゴリズムに従って生成した楽曲データを、前記測定手段によって測定された距離に基づいて加工し、前記第1の再生手段は、前記作曲手段によって加工された楽曲データに基づいて楽曲を再生する。   Further, in another preferred aspect of the present invention, there is provided measuring means for measuring a distance between the own apparatus and another musical sound control apparatus, and the music composition means measures music data generated according to the algorithm by the measuring means. The first reproduction means reproduces the music based on the music data processed by the music composition means.

この態様において、前記一時保存手段は、前記測定手段が測定した距離を表す距離情報を前記楽曲データと対応付けて保存し、前記書込手段は、前記一時保存手段によって保存されている距離情報を前記楽曲データと対応付けて前記不揮発性記憶手段に書き込み、さらに、前記第2の再生手段が前記不揮発性記憶手段から読み出した楽曲データに基づいて楽曲を再生する際に、当該楽曲データに対応づけられて前記不揮発性記憶手段に書き込まれている距離情報を出力する出力手段を備えている。   In this aspect, the temporary storage unit stores distance information representing the distance measured by the measurement unit in association with the music data, and the writing unit stores the distance information stored by the temporary storage unit. In association with the music data, the data is written in the non-volatile storage means, and when the second reproduction means reproduces the music based on the music data read from the non-volatile storage means, the music data is associated with the music data. Output means for outputting the distance information written in the nonvolatile storage means.

また、本発明は、コンピュータに、センサから出力される信号を解析し、当該センサが取り付けられた運動体の状態を判定する判定機能と、前記運動体の状態別に定められたアルゴリズムに従って楽曲データを生成する作曲機能と、生成された楽曲データに基づいて楽曲を再生する第1の再生機能段と、再生された楽曲を表す楽曲データを一時的に保存する一時保存機能と、操作手段がユーザから保存を指示する操作を受け付けた場合には、前記一時保存機能によって保存されている楽曲データを読み出し、不揮発性記憶手段に書き込む書込機能と、前記操作手段がユーザから再生を指示する操作を受け付けた場合には、前記不揮発性記憶手段によって保存されている楽曲データを読み出し、読み出した楽曲データに基づいて楽曲を再生する第2の再生機能とを実現させるプログラムを提供する。このプログラムは、インターネットに代表されるネットワークを介して所定のサーバ装置からコンピュータに提供されるほか、これを記録したコンピュータ読取可能な記録媒体としても提供され得る。この種の記録媒体としては、可搬型の磁気ディスクや光ディスクなどが挙げられる。   In addition, the present invention analyzes a signal output from a sensor in a computer and determines the state of a moving body to which the sensor is attached and music data according to an algorithm defined for each state of the moving body. A composition function to be generated, a first playback function stage for playing back music based on the generated music data, a temporary storage function for temporarily storing music data representing the played music, and an operation means from the user When an operation for instructing saving is accepted, a writing function for reading the music data saved by the temporary saving function and writing it to the nonvolatile storage means, and an operation for the playback instruction from the user by the operating means are accepted. If the music data stored in the non-volatile storage means is read, the music is reproduced based on the read music data. Providing a program for implementing the second reproduction function. This program can be provided to a computer from a predetermined server device via a network typified by the Internet, and can also be provided as a computer-readable recording medium on which the program is recorded. Examples of this type of recording medium include portable magnetic disks and optical disks.

以下、図面を参照して、本発明の実施形態について説明する。
(1)第1実施形態
(1−1)構成
図1は、本発明の第1実施形態に係る楽音制御装置1の外観図である。
楽音制御装置1の本体10には、液晶ディスプレイなどの表示部11と、複数のスイッチを備えた操作部12と、複数のLED(Light Emitting Diode)13とが設けられている。また、本体10には通信ケーブルを介して脈拍センサ14や加速度センサ15a,15bなどの各種センサ群が接続されている。脈拍センサ14は、利用者の脈拍を検知するために用いられるものであり、利用者の耳たぶをクリップで挟むようにして取り付けられる。加速度センサ15a,15bは、取り付けられた部位の身体状態を検知するために利用されるものであり、例えば利用者の左右の肘の部分の衣服などをクリップで挟むようにして取り付けられる。さらに、本体10には、通信ケーブルを介してインナー型イヤーヘッドホン16(以下、イヤホンという)が接続されるほか、ループ状のストラップ17が設けられている。利用者は、このストラップ17を自身の首に掛け、イヤホン16を左右の耳穴に挿入し、脈拍センサ14や加速度センサ15a,15bを所定の部位に取り付けた状態で楽音制御装置1を利用する。
Embodiments of the present invention will be described below with reference to the drawings.
(1) First Embodiment (1-1) Configuration FIG. 1 is an external view of a musical tone control apparatus 1 according to a first embodiment of the present invention.
The main body 10 of the musical sound control device 1 is provided with a display unit 11 such as a liquid crystal display, an operation unit 12 having a plurality of switches, and a plurality of LEDs (Light Emitting Diodes) 13. Various sensors such as a pulse sensor 14 and acceleration sensors 15a and 15b are connected to the main body 10 via a communication cable. The pulse sensor 14 is used to detect a user's pulse, and is attached so as to sandwich the user's earlobe with a clip. The acceleration sensors 15a and 15b are used to detect the physical state of the attached site. For example, the acceleration sensors 15a and 15b are attached so that clothes on the left and right elbows of the user are sandwiched between clips. Further, the main body 10 is connected to an inner earphone 16 (hereinafter referred to as an earphone) via a communication cable, and is provided with a loop-shaped strap 17. A user hangs the strap 17 on his / her neck, inserts the earphones 16 into the left and right ear holes, and uses the musical sound control device 1 with the pulse sensor 14 and the acceleration sensors 15a and 15b attached to predetermined portions.

次に、図2は、楽音制御装置1のハードウェア構成を示すブロック図である。
楽音制御装置1は、前述した脈拍センサ14や加速度センサ15a,15bのほかに、ジャイロセンサ18を内蔵している。このジャイロセンサ18は、利用者の体の向きがどのように変化したかを検知するために利用される。制御部100は、自身が記憶したコンピュータプログラムを実行することによって、上述したセンサ群(脈拍センサ14、加速度センサ15a,15b及びジャイロセンサ18)からの出力信号を解析して利用者(運動体)の身体の状態を判定し、その身体の状態別に予め定められたアルゴリズムに従ってMIDI(Musical Instrument Digital Interface)形式の楽曲データを生成する。
Next, FIG. 2 is a block diagram showing a hardware configuration of the musical tone control apparatus 1.
The musical sound control device 1 includes a gyro sensor 18 in addition to the pulse sensor 14 and the acceleration sensors 15a and 15b described above. The gyro sensor 18 is used to detect how the orientation of the user's body has changed. The control unit 100 analyzes the output signals from the above-described sensor group (the pulse sensor 14, the acceleration sensors 15a and 15b, and the gyro sensor 18) by executing the computer program stored by itself, and the user (moving body). Is determined, and music data in the MIDI (Musical Instrument Digital Interface) format is generated in accordance with a predetermined algorithm for each physical condition.

また、制御部100は、上記センサ群によって検出された利用者の身体状態を利用者自身が視覚的に理解できるように、LED13の点灯期間や点灯タイミングを制御する。例えば、利用者が激しい運動をしたり、心拍数が上昇した場合には、比較的短い周期でLED13を点滅させ、利用者があまり運動をしなかったり、心拍数が下降した場合には、より長い周期でLED13を点滅させるといった具合である。楽音発生部19は、音源や、効果付与回路及びA/D変換回路(いずれも図示略)を備えており、制御部100から供給されるMIDI形式の楽曲データに基づいて楽音信号を発生させ、これをイヤホン16に供給する。イヤホン16からはその楽音信号に応じた楽音が放音される。このようにして利用者は楽音制御装置1によって再生される楽曲を聴くことができる。   Moreover, the control part 100 controls the lighting period and lighting timing of LED13 so that a user himself can understand visually the physical state of the user detected by the said sensor group. For example, if the user exercises vigorously or the heart rate rises, the LED 13 blinks in a relatively short cycle, and if the user does not exercise much or the heart rate falls, For example, the LED 13 blinks in a long cycle. The musical sound generation unit 19 includes a sound source, an effect applying circuit, and an A / D conversion circuit (both not shown), generates a musical sound signal based on the music data in the MIDI format supplied from the control unit 100, This is supplied to the earphone 16. A tone corresponding to the tone signal is emitted from the earphone 16. In this way, the user can listen to the music reproduced by the musical sound control device 1.

前述したように、制御部100は、センサ群からの出力信号を解析することにより、それらセンサ群が取り付けられた利用者(運動体)の状態を判定し、判定した状態に応じてリアルタイムで作曲を行うことができる。以下では、その作曲のアルゴリズムについて説明する。   As described above, the control unit 100 analyzes the output signal from the sensor group to determine the state of the user (moving body) to which the sensor group is attached, and composes music in real time according to the determined state. It can be performed. The composition algorithm will be described below.

図3は、制御部100の構成を示すブロック図である。制御部100は、CPU(Central Processing Unit)101と、RAM(Random Access Memory)102と、不揮発性記憶部103とを備えたマイクロコンピュータである。RAM102には、作曲テーブルが一時的に保存される作曲テーブル一時保存領域102aが設けられる。この作曲テーブルは、利用者の身体状態に応じて楽曲データを生成するために用いられるものであり、楽曲を構成する楽曲要素データの組み合わせが記述されている。   FIG. 3 is a block diagram illustrating a configuration of the control unit 100. The control unit 100 is a microcomputer including a CPU (Central Processing Unit) 101, a RAM (Random Access Memory) 102, and a nonvolatile storage unit 103. The RAM 102 is provided with a composition table temporary storage area 102a in which the composition table is temporarily stored. This music composition table is used to generate music data according to the physical condition of the user, and describes combinations of music element data constituting the music.

不揮発性記憶部103は、例えばEEPROM(Electrically Erasable and Programmable Read Only Memory)や、バックアップ電源が確保されたSRAM(Static Random Access Memory)である。この不揮発性記憶部103には、CPU101によって実行される制御プログラム200のほか、そのプログラム実行時に使用される各種の情報が記憶されている。また、不揮発性記憶部103には、作曲テーブルが格納される作曲テーブル格納領域103aが設けられている。不揮発性記憶部103に記憶されている情報には、身体状態判定テーブル201と、作曲テーブル202と、ジャンル別テンプレート203と、楽曲要素ライブラリ204とが含まれている。以下、これらの情報の内容について具体的に説明する。   The nonvolatile storage unit 103 is, for example, an EEPROM (Electrically Erasable and Programmable Read Only Memory) or an SRAM (Static Random Access Memory) in which a backup power source is secured. In addition to the control program 200 executed by the CPU 101, the nonvolatile storage unit 103 stores various types of information used when the program is executed. Further, the non-volatile storage unit 103 is provided with a composition table storage area 103a in which a composition table is stored. The information stored in the nonvolatile storage unit 103 includes a physical condition determination table 201, a composition table 202, a genre-specific template 203, and a music element library 204. Hereinafter, the contents of these pieces of information will be specifically described.

身体状態判定テーブル201は、CPU101がセンサ群からの出力信号に基づいて、利用者の身体状態を判定するためのテーブルである。ここでいう「利用者の身体状態」とは、例えば「歩いている」などの身体の運動そのもののほかに、「息切れ」等の身体の内部状態をも含むものとする。この身体状態判定テーブル201には、図4に示すように、各々のセンサからの出力信号を解析して得られる検出値と、身体状態とが対応付けられて記述されている。例えば、加速度が0.1m/sまでで、心拍数が50〜75回/分の場合には、利用者の身体状態は「止まっている」と判定され、加速度が0.1〜1m/sで、心拍数が75〜90回/分の場合には、利用者の身体状態は「歩いている」と判定される、といった具合である。また、心拍数が220以上と極めて多い場合には、加速度の大小に関わらず、「息切れ」と判定される。このようなセンサ群による検出値と身体状態との対応関係は予め決められていてもよいが、例えば心拍数には個人差があるため、利用者が操作部12などを用いて自由に設定可能な構成としてもよい。   The body state determination table 201 is a table for the CPU 101 to determine the user's body state based on an output signal from the sensor group. The “user's physical condition” here includes, for example, an internal state of the body such as “shortness of breath” in addition to physical movement itself such as “walking”. In the body state determination table 201, as shown in FIG. 4, detection values obtained by analyzing output signals from the respective sensors and body states are described in association with each other. For example, when the acceleration is up to 0.1 m / s and the heart rate is 50 to 75 times / minute, it is determined that the user's physical condition is “stopped” and the acceleration is 0.1 to 1 m / s. Thus, when the heart rate is 75 to 90 times / minute, the physical condition of the user is determined to be “walking”. When the heart rate is as high as 220 or more, it is determined as “shortness of breath” regardless of the magnitude of acceleration. The correspondence relationship between the detection value by such a sensor group and the physical state may be determined in advance, but for example, since the heart rate varies among individuals, the user can freely set it using the operation unit 12 or the like. It is good also as a simple structure.

次に、楽曲要素ライブラリ204には、楽曲を構成する楽曲要素データが多数含まれている。楽曲要素データには、図3に示すように、フレーズループとパターンループという2種類のループ(繰り返し再生される一定期間の楽曲要素)が含まれている。フレーズループは、音階を表現可能な楽器(例えばピアノやベース)によって演奏される一定期間のメロディラインを表している。パターンループは、音階を表現しない楽器(例えばドラムなどの打楽器)による一定期間の発音タイミング(リズム)を表している。また、この楽曲要素ライブラリ204には、各種楽器の音色を規定する音の波形を表すディジタルデータも楽曲要素データとして記憶されている。CPU101は、利用者の身体状態に応じてこれらのループや音色を適宜組み合わせ、さらに、この身体状態に応じて音程、効果及び音量を決定することによって、一定期間の楽曲データを生成し、これを繰り返し再生する。   Next, the music element library 204 includes a large number of music element data constituting the music. As shown in FIG. 3, the music element data includes two types of loops (a music element of a certain period that is repeatedly played back), a phrase loop and a pattern loop. The phrase loop represents a melody line of a certain period that is played by a musical instrument (for example, piano or bass) capable of expressing a scale. The pattern loop represents a sound generation timing (rhythm) of a certain period by an instrument that does not express a scale (for example, a percussion instrument such as a drum). The music element library 204 also stores digital data representing sound waveforms that define the timbre of various musical instruments as music element data. The CPU 101 appropriately combines these loops and timbres according to the physical condition of the user, and further generates music data for a certain period by determining the pitch, effect and volume according to the physical condition. Play repeatedly.

次に、ジャンル別テンプレート203は、例えばロック、ダンス、ポップス・・・というように、楽曲のジャンル毎に用意されたテンプレートである。例えばあるジャンルのテンプレートには、図5に示すように、そのジャンルに合ったループの組み合わせを示すループパターンが1又は複数(図5では複数)が記述されている。さらにこのテンプレートには、音程、音色、効果(エフェクト)、音量を指定するパターンも1又は複数(図5では複数)記述されている。CPU101は、このようなジャンル別テンプレート203に記述された各種パターンの中から、作曲テーブル202によって指定されるパターンを選択する。図5では、斜線を施した各パターン、すなわち「ループパターンA」と、「音程のパターンC」と、「音色のパターンB」と、「効果のパターンA」と、「音量のパターンA」とが選択されている場合が示されている。   Next, the genre-specific template 203 is a template prepared for each genre of music such as rock, dance, pops, and so on. For example, as shown in FIG. 5, a template of a certain genre describes one or a plurality of loop patterns (a plurality of patterns in FIG. 5) indicating combinations of loops suitable for the genre. Further, one or more patterns (a plurality in FIG. 5) for designating the pitch, tone color, effect (effect), and volume are described in this template. The CPU 101 selects a pattern specified by the music composition table 202 from various patterns described in the genre-specific template 203. In FIG. 5, hatched patterns, that is, “loop pattern A”, “pitch pattern C”, “tone pattern B”, “effect pattern A”, and “volume pattern A” The case where is selected is shown.

次に、作曲テーブル202には、利用者の各身体状態において選択すべきループパターン、音程パターン、音色パターン、効果パターン及び音量パターンの組み合わせが記述されている。図6は、作曲テーブル202の一例を示す図である。図6の例では、例えば利用者の身体状態が「止まっている」場合には、ループパターンAと、音程パターンCと、音色パターンBと、効果パターンAと、音量パターンAとを組み合わせて楽曲データを生成すべきであることが定められている。同様に、身体状態が「歩いている」、「早歩き」、「ジョギング」、「全力疾走」、「息切れ」・・・の各々について、選択すべきループパターン、音程パターン、音色パターン、効果パターン、音量パターンの組み合わせが作曲テーブルによって定められている。   Next, the composition table 202 describes a combination of a loop pattern, a pitch pattern, a tone color pattern, an effect pattern, and a sound volume pattern to be selected in each physical state of the user. FIG. 6 is a diagram illustrating an example of the music composition table 202. In the example of FIG. 6, for example, when the user's physical state is “stopped”, the music is formed by combining the loop pattern A, the pitch pattern C, the timbre pattern B, the effect pattern A, and the volume pattern A. It is stipulated that data should be generated. Similarly, the loop pattern, pitch pattern, timbre pattern, and effect pattern to be selected for each of the physical states "walking", "fast walking", "jogging", "sprinting", "shortness of breath", etc. The combination of volume patterns is defined by the composition table.

さらに本実施形態では、現在の身体状態が「歩いている」場合であっても、それよりも過去の身体の状態がどうであったかによって、作曲テーブル202の内容も異なるようになっている。例えば、身体状態が「ジョギング」から「歩いている」に遷移した場合には(つまり利用者の身体状態が動的なものから静的なものに変化した場合には)、間奏を思わせるような楽曲を生成する内容の作曲テーブルが用意されている。また、「止まっている」から「歩いている」に遷移した場合には(つまり運動体の状態が静的なものから動的なものに変化した場合には)、より躍動感のある雰囲気の楽曲を生成する内容の作曲テーブルが用意されている。よって、図6においても、身体状態「歩いている」に対応する作曲テーブルとして、複数の作曲テーブル202a,202b,202c・・・が用意されているのである。   Further, in the present embodiment, even when the current physical condition is “walking”, the contents of the composition table 202 are different depending on the past physical condition. For example, when the physical state transitions from “jogging” to “walking” (ie, when the user's physical state changes from dynamic to static), it seems to be an interlude. There is a composition table with the contents to create a simple song. Also, when transitioning from “stopped” to “walking” (ie, when the state of the moving body has changed from static to dynamic), the atmosphere is more dynamic. There is a composition table with content to generate music. Therefore, also in FIG. 6, a plurality of music composition tables 202a, 202b, 202c,... Are prepared as music composition tables corresponding to the physical state “walking”.

さらに、現在の身体状態と1つ前の過去の身体状態との関係に加えて、さらに2つ前の身体状態をも考慮した作曲テーブルが用意されている。例えば、「止まっている」→「ジョギング」→「歩いている」という身体状態の遷移とか、「歩いている」→「ジョギング」→「歩いている」とか、「止まっている」→「走っている」→「歩いている」といったように、相当数の組み合わせが存在する。他の身体状態に対応する作曲テーブルについてもこれと同様に、複数の作曲テーブルが用意されている。   Furthermore, in addition to the relationship between the current physical state and the previous previous physical state, a composition table is also prepared in consideration of the second previous physical state. For example, transition of the physical state of “stopped” → “jogging” → “walking”, “walking” → “jogging” → “walking”, “stopped” → “running” There are quite a few combinations, such as “Yes” → “Walking”. Similarly, a plurality of composition tables are prepared for composition tables corresponding to other physical conditions.

このように、作曲テーブル202には、利用者(運動体)の過去から現在に至る時系列の身体状態に応じて、それぞれ異なるパターンの組み合わせが記述されており、CPU101は、利用者(運動体)の時系列の状態に対応するパターンを組み合わせて楽曲データを生成する。このような仕組みで作曲することにより、利用者の身体状態をより正確に反映した楽曲を作ることができ、利用者に対してよりいっそうの面白みを感じさせることが可能となる。   Thus, the composition table 202 describes different combinations of patterns according to time-series physical states from the past to the present of the user (exercise body), and the CPU 101 stores the user (exercise body). The music data is generated by combining the patterns corresponding to the time series states of By composing with such a mechanism, it is possible to create a music that more accurately reflects the physical condition of the user, and to make the user feel more interesting.

(1−2)動作
次に、第1実施形態の動作について説明する。
図7は、制御プログラム200に記述されたCPU101の処理手順を示すフローチャートである。利用者が操作部12を用いて所定の操作を行い、楽曲の演奏を開始すべき旨の指示を与えると、CPU101は、不揮発性記憶部103に記憶された制御プログラム200を実行することによって図7に示す一連の処理を開始する。
(1-2) Operation Next, the operation of the first embodiment will be described.
FIG. 7 is a flowchart showing the processing procedure of the CPU 101 described in the control program 200. When the user performs a predetermined operation using the operation unit 12 and gives an instruction to start playing the music, the CPU 101 executes the control program 200 stored in the non-volatile storage unit 103 to execute the operation. A series of processes shown in FIG.

まず、CPU101は、利用者に楽曲のジャンルを選択させるためのメニュー画面を表示部11に表示させる(ステップS1)。楽曲のジャンルは階層的に構成されており、例えば図8に示すように、上位の階層ではロック、ダンス、ポップ、レゲエ、ラテン・・・といった大まかなジャンルに区分されている。そして、例えばロックというジャンルであれば、ハードロック、ブリティッシュロック、アメリカンロック・・というようにさらに下位の階層でジャンルが細分化されている。もちろん、ジャンルはこのような2階層に限らず、もっと多くの階層で構成されていてもよい。   First, the CPU 101 causes the display unit 11 to display a menu screen for allowing the user to select a genre of music (step S1). The music genres are hierarchically structured. For example, as shown in FIG. 8, the upper layers are divided into broad genres such as rock, dance, pop, reggae, Latin, and so on. For example, if the genre is rock, the genre is subdivided into lower layers such as hard rock, British rock, and American rock. Of course, the genre is not limited to such two hierarchies, and may be composed of more hierarchies.

利用者が操作部12を操作して、所望する楽曲のジャンルを選択する。ここでは例えば、図8に示すように「アメリカンロック」が選択されたとすると、CPU101はこの選択操作を受け付け(ステップS2;Yes)、選択されたジャンル(アメリカンロック)に対応するジャンル別テンプレート203を不揮発性記憶部103から読み出す(ステップS3)。これによって、図8に示すように、多数のジャンル別テンプレートの中から、アメリカンロックに対応するジャンル別テンプレート203が抽出されることになる。   The user operates the operation unit 12 to select a desired genre of music. Here, for example, if “American rock” is selected as shown in FIG. 8, the CPU 101 accepts this selection operation (step S2; Yes), and generates a genre-specific template 203 corresponding to the selected genre (American rock). Reading from the non-volatile storage unit 103 (step S3). As a result, as shown in FIG. 8, a genre template 203 corresponding to American rock is extracted from a large number of genre templates.

次に、CPU101は、センサ群(脈拍センサ14、加速度センサ15a,15b及びジャイロセンサ18)からの出力信号を取り込む(ステップS4)。そして、CPU101は、取り込んだ出力信号を解析して検出値を得て、その検出値と身体状態判定テーブル201とを参照して利用者の身体状態を判定する(ステップS5)。ここでは、例えば加速度センサ15a,15bによる検出値(加速度)がいずれも加速度0.05(m/s)であり、脈拍センサ14による検出値(心拍数)が60(回/分)であると仮定する。この場合、CPU101は、図4に示した身体状態判定テーブル201の内容に従って、身体状態を「止まっている」と判定する。   Next, the CPU 101 takes in output signals from the sensor group (pulse sensor 14, acceleration sensors 15a and 15b, and gyro sensor 18) (step S4). Then, the CPU 101 analyzes the captured output signal to obtain a detection value, and refers to the detection value and the body state determination table 201 to determine the user's body state (step S5). Here, for example, the detection values (acceleration) by the acceleration sensors 15a and 15b are both acceleration 0.05 (m / s), and the detection value (heart rate) by the pulse sensor 14 is 60 (times / minute). Assume. In this case, the CPU 101 determines that the physical condition is “stopped” in accordance with the contents of the physical condition determination table 201 shown in FIG. 4.

次に、CPU101は、身体状態に変化があったか否かを判定する(ステップS6)。ここでいう「身体状態の変化」とは、例えば「歩いている」から「止まっている」に変化したというように、利用者の身体状態に時系列的な変化があった場合である。なお、図7に示す処理が開始されてから初めての判定では、必ず、CPU101は身体状態に変化があったと判定して(ステップS6;Yes)、次の処理に移行する。   Next, the CPU 101 determines whether or not the physical condition has changed (step S6). The “change in the physical state” here is a case where there is a time-series change in the physical state of the user, for example, a change from “walking” to “stop”. In the first determination after the processing shown in FIG. 7 is started, the CPU 101 always determines that the physical state has changed (step S6; Yes), and proceeds to the next processing.

次に、CPU101は、ステップS5において判定した身体状態に対応する作曲テーブル202を不揮発性記憶部103から読み出し、RAM102の作曲テーブル一時保存領域102aにジャンル名(ここでは「アメリカンロック」)とともに保存する(ステップS7)。この際、CPU101は、ステップS5にて判定された身体状態(ここでは「止まっている」)という情報やそのときの日時を示す情報も、付属情報として上記作曲テーブル202に対応づけて保存する。これらの作曲テーブル202やジャンル名は、ステップS8でいう楽曲データとは全く同じではないが、これら作曲テーブル202やジャンル名を生成するためのパラメータとして機能するので、CPU101はこれらを楽曲データとして作曲テーブル一時保存領域102aに保存する。   Next, the CPU 101 reads out the music composition table 202 corresponding to the physical condition determined in step S5 from the nonvolatile storage unit 103, and stores it in the music composition table temporary storage area 102a of the RAM 102 together with the genre name (here, “American rock”). (Step S7). At this time, the CPU 101 also stores information indicating the physical state (here “stopped”) determined in step S5 and information indicating the date and time at that time in association with the music composition table 202 as attached information. These composition table 202 and genre names are not exactly the same as the music data in step S8, but function as parameters for generating these composition tables 202 and genre names, so the CPU 101 composes these as music data. Save in the temporary table storage area 102a.

そして、CPU101は、保存した作曲テーブル202と、ステップS3で読み出したジャンル別テンプレート203に基づいてMIDI形式の楽曲データを生成する(ステップS8)。この例では、身体状態「止まっている」に対応する作曲テーブル202と、アメリカンロックに対応するジャンル別テンプレート203とが用いられることになる。   Then, the CPU 101 generates MIDI format music data based on the stored music composition table 202 and the genre-specific template 203 read in step S3 (step S8). In this example, the composition table 202 corresponding to the physical state “stopped” and the genre-specific template 203 corresponding to American rock are used.

図9は、楽曲データを生成する様子の一例を具体的に説明するための図である。
CPU101は、アメリカンロックのジャンル別テンプレート203に含まれる各種パターンのうち、身体状態「止まっている」に対応する作曲テーブル(図6参照)によって指定されるループパターンAと、音程パターンCと、音色パターンBと、効果パターンAと、音量パターンAとを選択する。
FIG. 9 is a diagram for specifically explaining an example of a state in which music data is generated.
The CPU 101, among the various patterns included in the American rock genre template 203, the loop pattern A, the pitch pattern C, and the timbre specified by the composition table (see FIG. 6) corresponding to the physical state “stopped”. A pattern B, an effect pattern A, and a volume pattern A are selected.

ループパターンAは、楽曲要素ライブラリ204に含まれる各種ループのうち、パート1として「パターンループc」を指定している。また、音程パターンCは、音程を指定していない。音色パターンBは、パート1(ここではパターンループc)の音色を「ドラム」に指定している。効果パターンAは、パート1(ここではパターンループc)にエコー(残響)を付与するように指定している。そして、音量パターンCは、パート1(パターンループc)の音量を大きくするよう指定している。CPU101は、これらのパターンによって指定された内容で一区切りの楽曲データを生成すると、その再生処理を開始する(図7のステップS9)。   The loop pattern A designates “pattern loop c” as part 1 among the various loops included in the music element library 204. The pitch pattern C does not specify a pitch. The timbre pattern B designates the timbre of Part 1 (here, pattern loop c) as “drum”. The effect pattern A specifies that part 1 (here, pattern loop c) is to be given echo (reverberation). The volume pattern C specifies that the volume of part 1 (pattern loop c) should be increased. When the CPU 101 generates a piece of music data with the contents specified by these patterns, the CPU 101 starts the reproduction process (step S9 in FIG. 7).

そして、CPU101は、楽曲の再生を開始した後、ステップS4の処理に戻って再びセンサ群から出力信号を取り込み、利用者の身体状態を判定する。CPU101は、身体状態が変化していないと判定している期間は(ステップS6;No)、そのまま楽曲を再生しつつ、ステップS4→ステップS5→ステップS6;No→ステップS4→ステップS5→・・・の処理を繰り返す。つまり、CPU101は、利用者の身体状態に変化がない限り、同一の楽曲データを繰り返し再生する。これによって、利用者に対して、連続して再生される楽曲を聴かせることができる。   Then, after starting the reproduction of the music, the CPU 101 returns to the process of step S4, takes in the output signal from the sensor group again, and determines the physical state of the user. While the CPU 101 determines that the physical condition has not changed (step S6; No), while playing the music as it is, step S4 → step S5 → step S6; No → step S4 → step S5 →. Repeat the process. That is, the CPU 101 repeatedly reproduces the same music data as long as there is no change in the user's physical condition. This allows the user to listen to music that is continuously played.

これに対し、利用者の身体状態が変化すると(ステップS6;Yes)、CPU101は、その身体状態に応じた作曲テーブル202を用いて新たな楽曲データを生成する(ステップS7)。そして、CPU101は、生成した楽曲データを今まで再生していた楽曲データに代えて再生する。このように再生される楽曲の内容が変わることにより、利用者は、自身の身体状態が変化したことを知ることができる。   On the other hand, when the user's physical state changes (step S6; Yes), the CPU 101 generates new music data using the music composition table 202 corresponding to the physical state (step S7). Then, the CPU 101 reproduces the generated music data instead of the music data that has been reproduced so far. Thus, the user can know that his / her physical condition has changed by changing the contents of the reproduced music.

ところで、利用者は再生されている楽曲を聴きながら、その楽曲が気に入った場合には、操作部12を用いて「保存」を指示する操作を行う。CPU101は、この操作に応じて図10に示す処理を実行する。即ち、CPU101は、操作部12において「保存」を指示する操作が行われたことを検知すると(ステップS11)、作曲テーブル一時保存領域102aに保存されている作曲テーブル202、ジャンル名及びその付属情報を読み出し、不揮発性記憶部103の作曲テーブル格納領域103aに書き込む(ステップS12)。このときも、図7のステップS7の説明で述べたのと同様に、CPU101は、これら作曲テーブル202やジャンル名を楽曲データとして作曲テーブル格納領域103aに格納することになる。   By the way, when the user likes the music while listening to the music being reproduced, the user performs an operation of instructing “save” using the operation unit 12. The CPU 101 executes the process shown in FIG. 10 in response to this operation. That is, when the CPU 101 detects that an operation for instructing “save” has been performed on the operation unit 12 (step S11), the composition table 202 stored in the composition table temporary storage area 102a, the genre name and its associated information. Is written into the composition table storage area 103a of the nonvolatile storage unit 103 (step S12). At this time as well, as described in the description of step S7 in FIG. 7, the CPU 101 stores the music composition table 202 and the genre name as music data in the music composition table storage area 103a.

そして、利用者が所望する時期に、保存しておいた楽曲を再生したい場合には、操作部12を用いて「再生」を指示する操作を行う。CPU101は、この操作に応じて図11に示す処理を実行する。即ち、CPU101は、操作部12において「再生」を指示する操作が行われたことを検知すると(ステップS21)、不揮発性記憶部103の作曲テーブル格納領域103aに格納されている作曲テーブル202、ジャンル名及びその付属情報を読み出す。そして、CPU101は、読み出した作曲テーブル202と、読み出したジャンル名に対応するジャンル別テンプレート203とを用いて、前述した図7のステップS8と同様の手順で楽曲データを生成してこれを楽曲として再生する(ステップS22)。なお、CPU101は、この再生と同時に、既に読み出している付属情報に含まれる、作曲当時の身体状態や日時を表示部11に表示(出力)する。このようにして、利用者はお気に入りの楽曲を保存し、かつ、それを好きなときに自由に再生することができる。   When the user wants to play the stored music at a desired time, the operation unit 12 is used to instruct “play”. The CPU 101 executes the process shown in FIG. 11 in response to this operation. That is, when the CPU 101 detects that an operation for instructing “play” is performed on the operation unit 12 (step S21), the composition table 202 stored in the composition table storage area 103a of the nonvolatile storage unit 103, the genre Read name and associated information. Then, the CPU 101 uses the read composition table 202 and the genre-specific template 203 corresponding to the read genre name to generate music data in the same procedure as step S8 in FIG. Playback is performed (step S22). At the same time as the reproduction, the CPU 101 displays (outputs) the physical state and date / time at the time of the composition included in the already read attached information on the display unit 11. In this way, the user can save his favorite music and play it freely when he likes it.

次に、図12は、身体状態の時系列の変化と、この変化に応じて、作曲テーブル202の内容が遷移していく様子を説明する図である。図12に示すように、まず最初の「止まっている」状態では、ループパターンAと、音程パターンCと、音色パターンBと、効果パターンAと、音量パターンAとを指定した作曲テーブルが作曲に利用される。この場合は、利用者が身体を動かし始める前の段階であるから、静寂で落ち着いた雰囲気の楽曲、上述したように比較的遅いテンポのドラムの楽音が残響効果を伴って響き渡るような楽曲が作られることになる。なお、残響を付与する場合には、楽音発生部19の効果付与回路が、各パートの楽音データに対し、CPU101から指示された係数でインパルス応答波形のサンプルデータを畳み込む。これによって、効果付与回路から出力される楽音データが表す楽音には、作曲テーブル202によって指定される大きさの残響効果が付与されることとなる。   Next, FIG. 12 is a diagram illustrating a time-series change in the physical state and a state in which the contents of the music composition table 202 transition according to the change. As shown in FIG. 12, in the first "stopped" state, a composition table specifying loop pattern A, pitch pattern C, timbre pattern B, effect pattern A, and volume pattern A is composed. Used. In this case, it is a stage before the user begins to move the body, so there is a song with a quiet and calm atmosphere, and a music with a reverberation effect reverberating as described above. Will be made. When reverberation is applied, the effect applying circuit of the tone generator 19 convolves the sample data of the impulse response waveform with the coefficient instructed by the CPU 101 with the tone data of each part. As a result, a reverberation effect having a magnitude specified by the composition table 202 is given to the musical sound represented by the musical tone data output from the effect applying circuit.

その後、身体状態が「止まっている」から「歩いている」に遷移した場合を想定する。「歩いている」という身体状態の場合、1つ前の過去の身体状態との組み合わせを考慮すると、(止まっている→)歩いている、(早歩き→)歩いている、(ジョギング→)歩いている、(全力疾走→)歩いている、(息切れ→)歩いている・・・というように、複数とおりの身体状態がある。よって、これら複数通りの身体状態の遷移について用意された作曲テーブルのうち、(止まっている→)歩いている、という身体状態の遷移に対して用意されている作曲テーブルがCPU101によって選択される。図12に示す例では、ループパターンCと、音程パターンCと、音色パターンAと、効果パターンCと、音量パターンBとを指定した作曲テーブルが利用されることになる。この場合は、利用者が身体を動かし始めた段階であるから、これから何かが起こりそうなことを予感させるような躍動感のある楽曲、例えばピアノの前奏メロディとドラムの伴奏パートとがやや早いテンポで進行していくような楽曲が作られる。   Thereafter, a case is assumed in which the body state changes from “stopped” to “walking”. In the case of the physical condition of “walking”, considering the combination with the previous physical condition of the previous one, (stop →) walking, (fast walking →) walking, (jogging →) walking There are a number of physical states, such as walking (full sprinting →) walking, (shortness of breath →) walking, and so on. Therefore, the composition table prepared for the transition of the physical state of (stopped →) among the composition tables prepared for the plurality of transitions of the body state is selected by the CPU 101. In the example shown in FIG. 12, a music composition table in which a loop pattern C, a pitch pattern C, a timbre pattern A, an effect pattern C, and a volume pattern B are specified is used. In this case, since the user has started to move the body, the music that has a sense of movement that makes you feel that something will happen in the future, for example, the piano prelude melody and the drum accompaniment part are slightly faster. A song that progresses at a tempo is created.

具体的には、ループパターンCが、楽曲要素ライブラリ204に含まれる各種ループのうち、パート1として「フレーズループa」を指定し、パート2として「フレーズループb」を指定し、パート3として「パターンループd」を指定する。また、音程パターンCは、パート1(ここではフレーズループa)を「半音高く」するように指定している。音色パターンAは、パート1(ここではフレーズループa)の音色を「ピアノ」に指定し、パート2(ここではフレーズループb)の音色を「ベース」に指定し、パート3(ここではパターンループd)の音色をドラムに指定している。効果パターンCは、パート3(ここではフレーズループa)にエコー(残響)を付与するように指定している。そして、音量パターンBは、パート2(フレーズループb)の音量を大きくするよう指定している。CPU101は、これらのパターンによって指定された内容で一定期間の楽曲データを生成すると、その再生処理を開始する。   Specifically, the loop pattern C designates “phrase loop a” as part 1 among various loops included in the music element library 204, designates “phrase loop b” as part 2, and designates “phrase loop b” as part 3. Designate pattern loop d ". In addition, the pitch pattern C specifies that Part 1 (here, phrase loop a) is “semitone higher”. Tone pattern A designates the tone of Part 1 (here, phrase loop a) as “piano”, designates the tone of part 2 (here, phrase loop b) as “bass”, and part 3 (here, pattern loop) The tone of d) is designated as a drum. The effect pattern C specifies that an echo (reverberation) is given to part 3 (here, phrase loop a). The volume pattern B specifies to increase the volume of part 2 (phrase loop b). When the CPU 101 generates music data for a certain period with the contents specified by these patterns, it starts the reproduction process.

その後、身体状態が再び「止まっている」に遷移すると、(止まっている→歩いている→)止まっている、という2つ前と1つ前の過去からの身体状態の遷移に対して用意されている作曲テーブルがCPU101によって選択される。図12に示す例では、ループパターンBと、音程パターンEと、音色パターンDと、効果パターンCと、音量パターンBとを指定した作曲テーブルが利用されることになる。この場合、一時休止を感じさせる間奏のような楽曲、例えばベースのソロのみが進行するような楽曲データが作られる。   After that, when the body state transitions to “stopped” again, it is prepared for the transition of the body state from the previous and the previous one of (stopped → walking →) stopped. The music composition table is selected by the CPU 101. In the example shown in FIG. 12, a music composition table in which a loop pattern B, a pitch pattern E, a timbre pattern D, an effect pattern C, and a volume pattern B are specified is used. In this case, music such as an interlude that feels a pause, for example, music data in which only a bass solo progresses is created.

ここで、図13は、身体状態の様々な変化に応じて、再生される楽曲の内容が変化していく様子を視覚的に理解できるように示した図である。
図13において、利用者が止まっている状態では、比較的遅いテンポのパターンループがドラムによって演奏される。次に、利用者が歩き始めると、ドラムのパターンループが変化するとと共に、そのドラムのパターンループに、ピアノのフレーズループとベースのフレーズループが重ね合わされる。利用者がさらにジョギングを開始すると、テンポが速いパターンループがドラムによって演奏されるとともに、電子音によるテンポが速いビートが刻まれる。そして、利用者が右に曲がると、ドラムのパターンループが変わると共に、ギターのフレーズループが加わる。利用者が右に曲がり終えると、再びジョギングの楽曲に戻る。また、利用者が右手を上げると、そのときだけ、ホーンが鳴り響く。そして、例えば信号待ちなどで利用者がジョギングを中断し、止まっている状態になると、今度はベースのソロのみが進行する。そして、利用者が再びジョギングを開始すると、それ以前のピアノのパターンループとは異なるパターンループが演奏される。ただし、ドラムのパターンループは、それ以前のパターンループと同じである。
Here, FIG. 13 is a diagram showing the state in which the content of the music to be played changes in accordance with various changes in the body state so that the user can visually understand.
In FIG. 13, when the user is stopped, a relatively slow tempo pattern loop is played by the drum. Next, when the user starts walking, the drum pattern loop changes, and the drum pattern loop and the bass phrase loop are superimposed on the drum pattern loop. When the user starts jogging further, a fast-tempo pattern loop is played by the drum, and a fast tempo beat by electronic sound is engraved. When the user turns to the right, the drum pattern loop changes and a guitar phrase loop is added. When the user finishes turning to the right, he returns to the jogging song. Also, if the user raises his right hand, the horn will sound only at that time. Then, if the user stops jogging, for example due to waiting for a signal, and stops, only the bass solo will proceed. When the user starts jogging again, a pattern loop different from the previous piano pattern loop is played. However, the drum pattern loop is the same as the previous pattern loop.

このように、第1実施形態によれば、利用者は、「お気に入り」として指定した楽曲データ(作曲テーブル202及びジャンル名)を楽音制御装置1に保存し、かつ、それを好きなときに楽音制御装置1によって自由に再生することができる。また、この楽音制御装置1においては、センサ群によって利用者(運動体)の状態が検出され、その状態に応じて異なる楽曲データが生成されて再生されるようになっているため、利用者は、自らの身体の状態に調和した雰囲気の楽曲を聴くことができ、独特の面白さを体感することができる。そして、同じような身体の状態であっても、それ以前の過去の身体状態がどうであったかということに応じて楽曲の内容が変わり得るので、利用者を飽きさせることがない。   As described above, according to the first embodiment, the user saves the music data (composition table 202 and genre name) designated as “favorite” in the musical sound control device 1 and uses the musical sound when he / she likes it. It can be freely reproduced by the control device 1. Moreover, in this musical tone control apparatus 1, since the state of the user (motor body) is detected by the sensor group, and different music data is generated and reproduced according to the state, the user can , You can listen to music in an atmosphere that harmonizes with your physical condition and you can experience the unique fun. And even if it is in the same physical state, the contents of the music can change depending on how the previous physical state was before that, so the user is not bored.

(2)第2実施形態
上述した第1実施形態では、楽音制御装置1は、作曲テーブル202及びジャンル名を楽曲データとして作曲テーブル一時保存領域102aや作曲テーブル格納領域103aに格納していたが、第2実施形態では、作曲テーブル202及びジャンル別テンプレート203に基づいて生成されたMIDI形式の楽曲データを作曲テーブル一時保存領域102aや作曲テーブル格納領域103aに格納する。図14は、第2実施形態に係る楽音制御装置の制御部100aの構成を示すブロック図である。図14に示す制御部100aの構成が図3に示した制御部100と異なる点は、FIFO(First in First out)形式でデータの読み書きを行うバッファメモリ104を備えている点と、不揮発性記憶部103の作曲テーブル格納領域103aに代えて、MIDI形式の楽曲データを格納するための楽曲データ格納領域105が設けられている点である。バッファメモリ104は、第1実施形態のRAM102上の作曲テーブル一時保存領域102aと同様の機能を担う。また、楽曲データ格納領域105は、第1実施形態の不揮発性記憶部103の作曲テーブル格納領域103aと同様の機能を担う。
(2) Second Embodiment In the first embodiment described above, the musical sound control device 1 stores the music composition table 202 and the genre name as music data in the music composition table temporary storage area 102a and the music composition table storage area 103a. In the second embodiment, MIDI-format music data generated based on the music composition table 202 and the genre-specific template 203 is stored in the music composition table temporary storage area 102a and the music composition table storage area 103a. FIG. 14 is a block diagram showing the configuration of the control unit 100a of the musical tone control apparatus according to the second embodiment. The configuration of the control unit 100a shown in FIG. 14 is different from the control unit 100 shown in FIG. 3 in that a buffer memory 104 that reads and writes data in a FIFO (First in First Out) format is provided. Instead of the music composition table storage area 103a of the unit 103, a music data storage area 105 for storing music data in the MIDI format is provided. The buffer memory 104 has the same function as the music composition table temporary storage area 102a on the RAM 102 of the first embodiment. The music data storage area 105 has the same function as the music composition table storage area 103a of the non-volatile storage unit 103 of the first embodiment.

作曲時の動作は次のようになる。CPU101は、図7のステップ6において身体状態を判定した後、その身体状態に応じた作曲テーブル202を参照してMIDI形式の楽曲データをRAM102上で生成し、これを付属情報とともにバッファメモリ104に順次転送して保存する。そして、CPU101は、バッファメモリ104から順次楽曲データを読み出して再生を開始する。   The operation during composition is as follows. After determining the physical state in step 6 of FIG. 7, the CPU 101 generates music data in the MIDI format on the RAM 102 with reference to the music composition table 202 corresponding to the physical state, and stores it in the buffer memory 104 together with the attached information. Transfer and save sequentially. Then, the CPU 101 sequentially reads out music data from the buffer memory 104 and starts reproduction.

また、保存時の動作は次のようになる。利用者が操作部12を用いて「保存」を指示する操作を行う。CPU101は、この操作に応じて、バッファメモリ104に保存されている楽曲データ及びその付属情報を読み出し、不揮発性記憶部103の楽曲データ格納領域105に書き込む。一方、再生時の動作は次のようになる。利用者が操作部12を用いて「再生」を指示する操作を行うと、CPU101は、この操作に応じて、不揮発性記憶部103の楽曲データ格納領域105に格納されている楽曲データを読み出し、これを楽曲として再生する。   The operation at the time of storage is as follows. The user performs an operation of instructing “save” using the operation unit 12. In response to this operation, the CPU 101 reads out the music data stored in the buffer memory 104 and its associated information, and writes it in the music data storage area 105 of the nonvolatile storage unit 103. On the other hand, the operation during playback is as follows. When the user performs an operation of instructing “play” using the operation unit 12, the CPU 101 reads out music data stored in the music data storage area 105 of the nonvolatile storage unit 103 in accordance with this operation, Play this as music.

この第2実施形態においても、第1実施形態と同様に、利用者が指定した楽曲データを楽音制御装置1に保存し、かつ、それを好きなときに楽音制御装置1によって自由に再生することができる。   Also in the second embodiment, music data designated by the user is stored in the musical sound control device 1 and freely reproduced by the musical sound control device 1 when desired, as in the first embodiment. Can do.

(3)第3実施形態
上述した第1,2実施形態では、楽音制御装置1が利用者の身体状態に応じて楽曲データを生成するものであったが、第3実施形態では、複数の楽音制御装置どうしが互いに情報をやり取りし、その情報に応じて楽曲要素データ、音程、音色、効果及び音量を変更することで楽曲データを加工する。例えば、ジョギング中の利用者と、止まっている利用者がすれ違うような場合であれば、前者(ジョギング中)が利用している楽音制御装置が再生している楽曲を特徴付ける情報を、後者(止まっている)が利用している楽音制御装置に送信すると、それまでの「止まっている」状態に応じた楽曲が、「ジョギング」状態に応じた楽曲のようにややテンポアップした楽曲となるように加工される。
以下、この第3実施形態の詳細について説明する。
(3) Third Embodiment In the first and second embodiments described above, the musical sound control device 1 generates music data according to the physical condition of the user. In the third embodiment, a plurality of musical sounds are used. The control devices exchange information with each other, and the music data is processed by changing the music element data, the pitch, the timbre, the effect, and the volume according to the information. For example, if the jogging user and the stopped user pass each other, information that characterizes the music played by the musical sound control device used by the former (jogging) is displayed as the latter (stopped). So that the music according to the "stopped" state until then becomes a music with a slightly higher tempo like the music according to the "jogging" state. Processed.
Details of the third embodiment will be described below.

図15は、第3実施形態に係る楽音制御装置1aの構成を示すブロック図である。
図15に示す楽音制御装置1aの構成が第2実施形態の楽音制御装置1aと異なる点は、無線通信部120を備えているところと、制御部100の動作である。無線通信部120は、例えばIrDA(Infrared Data Association)やブルートゥース(登録商標)、或いはDSRC(Dedicated Short Range Communication)方式などの通信方式で、他の楽音制御装置の無線通信部とデータ通信を行う。
FIG. 15 is a block diagram showing the configuration of the musical tone control apparatus 1a according to the third embodiment.
The configuration of the musical tone control device 1a shown in FIG. 15 is different from the musical tone control device 1a of the second embodiment in that the wireless communication unit 120 is provided and the operation of the control unit 100. The wireless communication unit 120 performs data communication with the wireless communication unit of another musical tone control apparatus using a communication method such as IrDA (Infrared Data Association), Bluetooth (registered trademark), or DSRC (Dedicated Short Range Communication).

図16は、制御部100が記憶している制御プログラムに記述された手順を示すフローチャートである。
無線通信部120は、上記通信方式によって決められた手順で間欠的にポーリング信号を周囲に送信している。これと並行して、無線通信部120は、他の楽音制御装置の無線通信部から送信されてくるポーリング信号を間欠的に受信するようになっており、そのポーリング信号の受信電界強度が電界強度測定回路121(図15参照)によって測定されている。
FIG. 16 is a flowchart illustrating a procedure described in a control program stored in the control unit 100.
The wireless communication unit 120 intermittently transmits a polling signal to the surroundings according to the procedure determined by the communication method. In parallel with this, the wireless communication unit 120 intermittently receives a polling signal transmitted from the wireless communication unit of another musical tone control device, and the received electric field strength of the polling signal is the electric field strength. It is measured by the measurement circuit 121 (see FIG. 15).

CPU101は、電界強度測定回路121によって測定される受信電界強度を監視しており、他の楽音制御装置とデータ通信が可能な程度の受信電界強度に到達したと判断すると(ステップS41;Yes)、自らが生成し再生している楽曲データを特徴付ける特徴情報を、他の楽音制御装置の無線通信部に送信する一方、その他の楽音制御装置の無線通信部から送信されてくる特徴情報を受信する(ステップS42)。ここで、「楽曲データを特徴付ける特徴情報」とは、例えば作曲に利用された作曲テーブル202の内容そのものであってもよいし、ループ、音程、音色、効果及び音量のうち少なくともいずれか1つの内容を表す情報であってもよい。   When the CPU 101 monitors the received electric field strength measured by the electric field strength measuring circuit 121 and determines that the received electric field strength has reached a level that allows data communication with other musical tone control devices (step S41; Yes), While transmitting the characteristic information characterizing the music data generated and reproduced by itself to the wireless communication unit of another musical sound control device, the characteristic information transmitted from the wireless communication unit of the other musical sound control device is received ( Step S42). Here, the “characteristic information characterizing music data” may be, for example, the content itself of the composition table 202 used for composition, or at least one content of loop, pitch, tone, effect, and volume. It may be information indicating.

CPU101は、受信した特徴情報の内容に基づいて、自らが生成し再生している楽曲データを構成するループ、音色、音程、効果、音量を変化させることで、楽曲を加工する(ステップS43)。具体的な加工方法については様々なものが考えられるが、例えば再生している楽曲の音量を特徴情報が表す音量に近づけたり、また、再生音量そのものを特徴情報が表す音量そのものにそっくり入れ替えてもよい。また、再生している楽曲の音色を特徴情報が表す音色の一部と変えたり、再生している全ての音色を特徴情報が表す内容にそっくり入れ替えてもよい。また、再生している楽曲に対して特徴情報が表す効果を付与するようにしてもよいし、これとは逆に、特徴情報の中に効果に関連する情報が含まれていない場合には、再生している楽曲の効果を除去するようにしてもよい。CPU101は、このようにして生成した楽曲データを上記特徴情報とともにバッファメモリ104に保存する。そして、CPU101は、このバッファメモリ104から楽曲データを順次読み出して楽曲の再生を行う(ステップS44)。さらに、CPU101は、この再生と同時に、上記特徴情報を表示部11に表示(出力)するようにしてもよい。例えば、音色の特徴情報として「ドラムの影響あり」とか、音程の特徴情報として「半音高い」といったメッセージを表示部11に表示させるといった具合である   Based on the content of the received feature information, the CPU 101 changes the loop, timbre, pitch, effect, and volume of the music data that is generated and reproduced by the CPU 101 (step S43). Various processing methods can be considered. For example, the volume of the music being played may be brought close to the volume represented by the feature information, or the playback volume itself may be completely replaced with the volume represented by the feature information. Good. Also, the timbre of the music being played may be changed to a part of the timbre represented by the feature information, or all the timbres being played may be completely replaced with the content represented by the feature information. In addition, the effect represented by the feature information may be given to the music being played, and conversely, when the information related to the effect is not included in the feature information, You may make it remove the effect of the music currently reproduced | regenerated. The CPU 101 stores the music data thus generated in the buffer memory 104 together with the feature information. Then, the CPU 101 sequentially reads the music data from the buffer memory 104 and reproduces the music (step S44). Further, the CPU 101 may display (output) the feature information on the display unit 11 simultaneously with the reproduction. For example, the display unit 11 may display a message such as “There is an influence of a drum” as timbre characteristic information or “semitone high” as pitch characteristic information.

このように第3実施形態では、複数の楽音制御装置どうしが互いに情報をやり取りし、その情報に応じて楽曲データを加工して再生するので、第1実施形態で述べた効果に加えて、利用者に対してさらに変化に富んだ楽曲を提供することができる。   As described above, in the third embodiment, a plurality of musical tone control devices exchange information with each other, and process and reproduce music data according to the information. In addition to the effects described in the first embodiment, use It is possible to provide music with more variety to the user.

(4)変形例
上述した第1〜第3実施形態は次のように変形してもよい。
第1〜第3実施形態において、不揮発性記憶部103は、例えばメモリカードや光ディスクあるいは磁気ディスクなど、楽音制御装置に着脱可能な記憶装置としてもよい。このようにすれば、お気に入りとして保存した楽曲を他の楽音制御装置によって再生することも可能となる。
(4) Modification Examples The first to third embodiments described above may be modified as follows.
In the first to third embodiments, the nonvolatile storage unit 103 may be a storage device that can be attached to and detached from the musical sound control device, such as a memory card, an optical disk, or a magnetic disk. In this way, the music stored as a favorite can be reproduced by another musical sound control device.

第1〜第3実施形態では、現在の身体状態に加えて、その2つ前と1つ前の過去の身体状態をも考慮して作曲テーブル202の内容を定めていた。しかし、これに限定されるわけではなく、現在の身体状態だけについて作曲テーブル202の内容を定めてもよいし、さらに3つ以上前の過去の身体状態をも考慮して定めるようにしてもよい。   In the first to third embodiments, in addition to the current physical condition, the contents of the music composition table 202 are determined in consideration of the two previous and previous previous physical conditions. However, the present invention is not limited to this, and the content of the music composition table 202 may be determined only for the current physical condition, or may be determined in consideration of three or more previous physical conditions. .

第1〜第3実施形態においては、MIDI規格に準拠した楽曲データを用いたが、楽曲データの形式はこれに限られない。例えば、楽音の信号波形をサンプリングして得られた楽曲要素データを用いて楽曲データを生成してもよい。なお、楽曲要素ライブラリ204は、楽音制御装置1の不揮発性記憶部103に予め格納されたものである必要はなく、例えば、インターネットなどのネットワークを介して所定のサーバ装置から楽音制御装置1が受信したデータであってもよいし、光ディスクに代表される各種の記録媒体から楽音制御装置1に読み込まれたデータであってもよい。なお、楽曲の音色はピアノやドラムなどの楽器に限らず、例えば川の流れる音や動物の鳴き声といった自然音を用いてもよい。   In the first to third embodiments, the music data conforming to the MIDI standard is used, but the format of the music data is not limited to this. For example, music data may be generated using music element data obtained by sampling a signal waveform of a musical sound. Note that the music element library 204 does not need to be stored in advance in the non-volatile storage unit 103 of the musical sound control device 1, and is received by the musical sound control device 1 from a predetermined server device via a network such as the Internet, for example. It may also be data read into the musical tone control apparatus 1 from various recording media represented by optical disks. Note that the timbre of the music is not limited to a musical instrument such as a piano or a drum, and for example, natural sounds such as river sounds and animal sounds may be used.

第1〜第3実施形態では、利用者という「人間」の運動体の身体状態に応じて楽曲データを生成していたが、運動体は人間以外のものであってもよい。例えば、運動体は人間以外の動物であってもよいし、風見鶏や自転車或いは掃除機などのように何らかの外力の作用で動くものでもよいし、洗濯機や自動車などのように自らの動力源を用いて動くものであってもよい。   In the first to third embodiments, the music data is generated according to the physical state of the user's “human” moving body, but the moving body may be other than a human. For example, the moving body may be an animal other than a human being, may be moved by some external force, such as a weathercock, a bicycle, or a vacuum cleaner, or may have its own power source such as a washing machine or a car. It may be used to move.

第1〜第3実施形態においては、利用者の身体状態に応じて楽曲データが生成される構成を例示したが、これに加えて、利用者が操作部12を用いて入力した指示を楽曲データの内容に反映するようにしてもよい。例えば、利用者が指定した音色のパートを楽曲に追加したり或いは楽曲から削除したり、利用者の意図するような再生テンポに調整したり、といった具合である。   In the first to third embodiments, the configuration in which music data is generated according to the user's physical condition is exemplified, but in addition to this, the instruction input by the user using the operation unit 12 is music data. You may make it reflect in the content of. For example, a timbre part designated by the user may be added to the music, deleted from the music, or adjusted to a playback tempo as intended by the user.

第3実施形態においては、他の楽音制御装置との距離を測定し、この距離に基づいて、再生している楽曲を加工するようにしてもよい。具体的には次のとおりである。CPU101は、無線部120の電界強度測定回路121によって測定される強度レベルを参照することで、他の楽音制御装置との距離をおおよそ特定することができる。そこで、CPU101は、例えば他の楽音制御装置との距離が小さくなればなるほど、再生している楽曲の音量を大きくする一方、他の楽音制御装置との距離が大きくなればなるほど、再生している楽曲の音量を小さくする。このようにすれば、利用者は、他の楽音制御装置1の利用者が近づいたり或いは遠ざかったりすることを、楽曲の音量によって体感することができる。また、これを応用して、楽曲に対していわゆるドップラー効果のような音響効果を与えることも可能である。さらに、この場合、測定した距離を表す距離情報を楽曲データと対応付けてRAMやバッファメモリに一時保存したり不揮発性記憶部に格納しておき、不揮発性記憶部から読み出した楽曲データに基づいて楽曲を再生する際に、この楽曲データに対応づけられて格納されている距離情報を表示(出力)するようにしてもよい。例えば、「10mの近さ」とか、「接触するほど近い」といったメッセージを表示部11に表示させるといった具合である。   In the third embodiment, the distance to another musical sound control device may be measured, and the music being played back may be processed based on this distance. Specifically, it is as follows. The CPU 101 can roughly specify the distance from other musical sound control devices by referring to the intensity level measured by the electric field intensity measurement circuit 121 of the wireless unit 120. Therefore, for example, the CPU 101 increases the volume of the music being played as the distance from the other musical sound control device decreases, while playing as the distance from the other musical sound control device increases. Reduce the volume of the song. In this way, the user can experience the approaching or moving away of the user of the other musical sound control device 1 with the volume of the music. In addition, by applying this, it is also possible to give an acoustic effect such as a so-called Doppler effect to music. Further, in this case, distance information representing the measured distance is associated with the song data, temporarily stored in the RAM or buffer memory, or stored in the nonvolatile storage unit, and based on the song data read from the nonvolatile storage unit. When reproducing the music, the distance information stored in association with the music data may be displayed (output). For example, a message such as “closeness of 10 m” or “closer enough to touch” is displayed on the display unit 11.

制御プログラムは、インターネットなどのネットワークを介して所定のサーバ装置から楽音制御装置1に提供されるものであってもよいし、何らかの記録媒体に格納された状態で提供されて楽音制御装置1にインストールされるものであってもよい。この種の記録媒体としては、CD−ROM(Compact Disk-Read Only Memory)に代表される各種の光ディスクのほか、可搬型の磁気ディスクなどが考えられる。   The control program may be provided from the predetermined server device to the music sound control device 1 via a network such as the Internet, or may be provided in a state stored in some recording medium and installed in the music sound control device 1. It may be done. As this type of recording medium, in addition to various optical disks represented by CD-ROM (Compact Disk-Read Only Memory), portable magnetic disks and the like are conceivable.

本発明の第1実施形態に係る楽音制御装置の外観を示す図である。It is a figure which shows the external appearance of the musical tone control apparatus which concerns on 1st Embodiment of this invention. 同楽音制御装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the same musical tone control apparatus. 同楽音制御装置の制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the control part of the same musical tone control apparatus. 同楽音制御装置が記憶している身体状態判定テーブルの内容を表す図である。It is a figure showing the content of the physical condition determination table which the musical sound control apparatus has memorize | stored. 同楽音制御装置が記憶しているジャンル別テンプレートの内容を表す図である。It is a figure showing the content of the template according to the genre which the same musical sound control apparatus has memorize | stored. 同楽音制御装置が記憶している作曲テーブルの内容を表す図である。It is a figure showing the content of the music composition table which the same musical tone control apparatus has memorize | stored. 同楽音制御装置の制御プログラムに記述された手順を示すフローチャートである。It is a flowchart which shows the procedure described in the control program of the musical tone control apparatus. 同楽音制御装置において楽曲データが生成される仕組みを説明するための図である。It is a figure for demonstrating the structure in which music data are produced | generated in the same sound control apparatus. 同楽音制御装置において楽曲データが生成される仕組みを説明するための図である。It is a figure for demonstrating the structure in which music data are produced | generated in the same sound control apparatus. 同楽音制御装置の制御プログラムに記述された手順を示すフローチャートである。It is a flowchart which shows the procedure described in the control program of the musical tone control apparatus. 同楽音制御装置の制御プログラムに記述された手順を示すフローチャートである。It is a flowchart which shows the procedure described in the control program of the musical tone control apparatus. 身体状態の変化と、この変化に応じて、作曲に利用される作曲テーブルが遷移していく様子を説明する図である。It is a figure explaining a mode that the composition table utilized for a composition changes according to the change of a physical state, and this change. 身体状態の変化に応じて、再生される楽曲の内容が変化していく様子を示した図である。It is the figure which showed a mode that the content of the music reproduced | regenerated changes according to the change of a physical state. 本発明の第2実施形態に係る楽音制御装置の制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the control part of the musical tone control apparatus which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る楽音制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the musical tone control apparatus which concerns on 3rd Embodiment of this invention. 同楽音制御装置の制御プログラムに記述された手順を示すフローチャートである。It is a flowchart which shows the procedure described in the control program of the musical tone control apparatus.

符号の説明Explanation of symbols

1,1a……楽音制御装置、10……本体、11……表示部、12……操作部、14……脈拍センサ、15a,15b……加速度センサ、16……イヤホン、18……ジャイロセンサ、19……楽音発生部、100,100a……制御部、101……CPU、102……RAM、102a……作曲テーブル一時保存領域、103……不揮発性記憶部、103a……作曲テーブル格納領域、104……バッファメモリ、105……楽曲データ格納領域、120……無線通信部、200……制御プログラム、201……身体状態判定テーブル、202……作曲テーブル、203……ジャンル別テンプレート、204……楽曲要素ライブラリ。 DESCRIPTION OF SYMBOLS 1,1a ... Musical sound control apparatus, 10 ... Main body, 11 ... Display part, 12 ... Operation part, 14 ... Pulse sensor, 15a, 15b ... Acceleration sensor, 16 ... Earphone, 18 ... Gyro sensor , 19 ... Music generating unit, 100, 100a ... Control unit, 101 ... CPU, 102 ... RAM, 102a ... Composition table temporary storage area, 103 ... Non-volatile storage unit, 103a ... Composition table storage area , 104... Buffer memory, 105... Music data storage area, 120... Wireless communication unit, 200... Control program, 201. ...... Music element library.

Claims (6)

センサから出力される信号を解析し、当該センサが取り付けられた運動体の状態を判定する判定手段と、
前記運動体の状態別に定められたアルゴリズムに従って楽曲データを生成する作曲手段と、
生成された楽曲データに基づいて楽曲を再生する第1の再生手段と、
再生された楽曲を表す楽曲データを一時的に保存する一時保存手段と、
ユーザによる操作を受け付ける操作手段と、
前記操作手段がユーザから保存を指示する操作を受け付けた場合には、前記一時保存手段によって保存されている楽曲データを読み出し、不揮発性記憶手段に書き込む書込手段と、
前記操作手段がユーザから再生を指示する操作を受け付けた場合には、前記不揮発性記憶手段によって保存されている楽曲データを読み出し、読み出した楽曲データに基づいて楽曲を再生する第2の再生手段と
を備える楽音制御装置。
A determination means for analyzing a signal output from the sensor and determining a state of the moving body to which the sensor is attached;
Composition means for generating music data according to an algorithm defined for each state of the moving body,
First playback means for playing back music based on the generated music data;
Temporary storage means for temporarily storing music data representing the reproduced music;
An operation means for accepting an operation by a user;
When the operation means accepts an operation for instructing saving from the user, the writing means reads out the music data stored by the temporary storage means and writes it into the nonvolatile storage means;
A second reproduction unit that reads out music data stored in the nonvolatile storage unit and reproduces the music based on the read music data when the operation unit receives an operation to instruct reproduction from the user; A sound control device comprising:
前記一時保存手段は、前記判定手段によって判定された運動体の状態を少なくとも含む付属情報を前記楽曲データと対応付けて保存し、
前記書込手段は、前記一時保存手段によって保存されている付属情報を前記楽曲データと対応付けて前記不揮発性記憶手段に書き込み、
さらに、前記第2の再生手段が前記不揮発性記憶手段から読み出した楽曲データに基づいて楽曲を再生する際に、当該楽曲データに対応づけられて前記不揮発性記憶手段に書き込まれている付属情報を出力する出力手段を備えた請求項1記載の楽音制御装置。
The temporary storage means stores associated information including at least the state of the moving body determined by the determination means in association with the music data,
The writing means writes the auxiliary information stored by the temporary storage means in association with the music data in the nonvolatile storage means,
Further, when the second reproduction unit reproduces a piece of music based on the piece of music data read from the nonvolatile storage unit, the auxiliary information written in the nonvolatile storage unit in association with the piece of music data is displayed. 2. A musical tone control apparatus according to claim 1, further comprising output means for outputting.
他の楽音制御装置と通信を行う通信手段と、
前記作曲手段が前記アルゴリズムに従って生成した楽曲データを特徴づける特徴情報を前記通信手段によって他の楽音制御装置に送信する一方、他の楽音制御装置から送信されてくる前記特徴情報を前記通信手段によって受信する通信制御手段とを備え、
前記作曲手段は、前記アルゴリズムに従って生成した楽曲データを、前記通信制御手段が前記通信手段によって他の楽音制御装置から受信した特徴情報の内容に基づいて加工し、
前記第1の再生手段は、前記作曲手段によって加工された楽曲データに基づいて楽曲を再生する請求項1記載の楽音制御装置。
Communication means for communicating with other musical sound control devices;
The communication means transmits the characteristic information characterizing the music data generated according to the algorithm to the other musical sound control device, while the communication means receives the characteristic information transmitted from the other musical sound control device. Communication control means for
The music composition means processes the music data generated according to the algorithm based on the content of the characteristic information received by the communication control means from another musical tone control device by the communication means,
2. The musical tone control apparatus according to claim 1, wherein the first reproduction means reproduces music based on music data processed by the music composition means.
前記一時保存手段は、前記通信制御手段が前記通信手段によって受信した特徴情報を前記楽曲データと対応付けて保存し、
前記書込手段は、前記一時保存手段によって保存されている特徴情報を前記楽曲データと対応付けて前記不揮発性記憶手段に書き込み、
さらに、前記第2の再生手段が前記不揮発性記憶手段から読み出した楽曲データに基づいて楽曲を再生する際に、当該楽曲データに対応づけられて前記不揮発性記憶手段に書き込まれている特徴情報を出力する出力手段を備えた請求項3記載の楽音制御装置。
The temporary storage unit stores the feature information received by the communication unit by the communication unit in association with the music data,
The writing means writes the feature information stored by the temporary storage means to the nonvolatile storage means in association with the music data;
Further, when the music is reproduced based on the music data read from the non-volatile storage means by the second reproduction means, the characteristic information written in the non-volatile storage means in association with the music data is stored. 4. The musical tone control apparatus according to claim 3, further comprising output means for outputting.
自装置と他の楽音制御装置との距離を測定する測定手段を備え、
前記作曲手段は、前記アルゴリズムに従って生成した楽曲データを、前記測定手段によって測定された距離に基づいて加工し、
前記第1の再生手段は、前記作曲手段によって加工された楽曲データに基づいて楽曲を再生する請求項1記載の楽音制御装置。
It has a measuring means for measuring the distance between its own device and another musical sound control device,
The music composition means processes music data generated according to the algorithm based on the distance measured by the measurement means,
2. The musical tone control apparatus according to claim 1, wherein the first reproduction means reproduces music based on music data processed by the music composition means.
前記一時保存手段は、前記測定手段が測定した距離を表す距離情報を前記楽曲データと対応付けて保存し、
前記書込手段は、前記一時保存手段によって保存されている距離情報を前記楽曲データと対応付けて前記不揮発性記憶手段に書き込み、
さらに、前記第2の再生手段が前記不揮発性記憶手段から読み出した楽曲データに基づいて楽曲を再生する際に、当該楽曲データに対応づけられて前記不揮発性記憶手段に書き込まれている距離情報を出力する出力手段を備えた請求項5記載の楽音制御装置。
The temporary storage means stores distance information representing the distance measured by the measurement means in association with the music data,
The writing means writes the distance information stored by the temporary storage means in association with the music data in the nonvolatile storage means;
Further, when the second reproduction unit reproduces the music based on the music data read from the nonvolatile storage unit, the distance information written in the nonvolatile storage unit in association with the music data is obtained. 6. The musical tone control apparatus according to claim 5, further comprising output means for outputting.
JP2005067909A 2005-03-10 2005-03-10 Musical sound controller Withdrawn JP2006251376A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005067909A JP2006251376A (en) 2005-03-10 2005-03-10 Musical sound controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005067909A JP2006251376A (en) 2005-03-10 2005-03-10 Musical sound controller

Publications (1)

Publication Number Publication Date
JP2006251376A true JP2006251376A (en) 2006-09-21

Family

ID=37091952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005067909A Withdrawn JP2006251376A (en) 2005-03-10 2005-03-10 Musical sound controller

Country Status (1)

Country Link
JP (1) JP2006251376A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105611038A (en) * 2015-07-31 2016-05-25 宇龙计算机通信科技(深圳)有限公司 Audio resource playing method, audio resource playing system and terminal
CN107005764A (en) * 2014-11-21 2017-08-01 三星电子株式会社 Earphone with activity control output
EP3522566A4 (en) * 2016-09-27 2019-10-16 Sony Corporation Information processing device, information processing method, and program
CN111739530A (en) * 2020-06-05 2020-10-02 北京搜狗科技发展有限公司 Interaction method and device, earphone and earphone storage device
CN111739529A (en) * 2020-06-05 2020-10-02 北京搜狗科技发展有限公司 Interaction method and device, earphone and server

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10735848B2 (en) 2014-11-21 2020-08-04 Samsung Electronics Co., Ltd. Earphones with activity controlled output
US11019422B2 (en) 2014-11-21 2021-05-25 Samsung Electronics Co., Ltd. Earphones with activity controlled output
KR20170088343A (en) * 2014-11-21 2017-08-01 삼성전자주식회사 Earphones with active controlled output
EP3222054A4 (en) * 2014-11-21 2018-06-13 Samsung Electronics Co., Ltd. Earphones with activity controlled output
US10334348B2 (en) 2014-11-21 2019-06-25 Samsung Electronics Co., Ltd. Earphones with activity controlled output
US11418867B2 (en) 2014-11-21 2022-08-16 Samsung Electronics Co., Ltd. Earphones with activity controlled output
CN107005764A (en) * 2014-11-21 2017-08-01 三星电子株式会社 Earphone with activity control output
KR102363388B1 (en) * 2014-11-21 2022-02-14 삼성전자주식회사 Earphones with active controlled output
CN107005764B (en) * 2014-11-21 2021-10-22 三星电子株式会社 Earphone with activity control output
US11032632B2 (en) 2014-11-21 2021-06-08 Samsung Electronics Co., Ltd. Earphones with activity controlled output
CN105611038A (en) * 2015-07-31 2016-05-25 宇龙计算机通信科技(深圳)有限公司 Audio resource playing method, audio resource playing system and terminal
US10809972B2 (en) 2016-09-27 2020-10-20 Sony Corporation Information processing device, information processing method, and program
EP3522566A4 (en) * 2016-09-27 2019-10-16 Sony Corporation Information processing device, information processing method, and program
CN111739530A (en) * 2020-06-05 2020-10-02 北京搜狗科技发展有限公司 Interaction method and device, earphone and earphone storage device
CN111739529A (en) * 2020-06-05 2020-10-02 北京搜狗科技发展有限公司 Interaction method and device, earphone and server

Similar Documents

Publication Publication Date Title
JP3598598B2 (en) Karaoke equipment
JP4496993B2 (en) Music control device
WO2008004690A1 (en) Portable chord output device, computer program and recording medium
JP3867630B2 (en) Music playback system, music editing system, music editing device, music editing terminal, music playback terminal, and music editing device control method
JP2002515987A (en) Real-time music creation system
JP2007093821A (en) Concert system
JP2006284817A (en) Electronic musical instrument
JP2008139426A (en) Data structure of data for evaluation, karaoke machine, and recording medium
JP4650182B2 (en) Automatic accompaniment apparatus and program
JP2006251376A (en) Musical sound controller
JP2008242285A (en) Performance device and program for attaining its control method
JP3599686B2 (en) Karaoke device that detects the critical pitch of the vocal range when singing karaoke
JP3972619B2 (en) Sound generator
JP2007086571A (en) Music information display device and program
JP2013200455A (en) Musical performance training support system
JP4506147B2 (en) Performance playback device and performance playback control program
JP4534926B2 (en) Image display apparatus and program
JP2006251054A (en) Musical sound controller
JP4853054B2 (en) Performance data editing apparatus and program
JP2008233558A (en) Electronic musical instrument and program
JP2007225916A (en) Authoring apparatus, authoring method and program
JPH065455B2 (en) Singing instruction device
JP7425558B2 (en) Code detection device and code detection program
JP2010185973A (en) Sound generation control device
JP3173310B2 (en) Harmony generator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080122

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090128