JP2002023743A - Sounding control system - Google Patents

Sounding control system

Info

Publication number
JP2002023743A
JP2002023743A JP2000211771A JP2000211771A JP2002023743A JP 2002023743 A JP2002023743 A JP 2002023743A JP 2000211771 A JP2000211771 A JP 2000211771A JP 2000211771 A JP2000211771 A JP 2000211771A JP 2002023743 A JP2002023743 A JP 2002023743A
Authority
JP
Japan
Prior art keywords
performance
data
control
control system
automatic performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000211771A
Other languages
Japanese (ja)
Other versions
JP3636041B2 (en
Inventor
Yoshiki Nishitani
善樹 西谷
Eiko Kobayashi
詠子 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2000211771A priority Critical patent/JP3636041B2/en
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to EP01100081A priority patent/EP1130570B1/en
Priority to EP07110789.0A priority patent/EP1855267B1/en
Priority to EP20070110770 priority patent/EP1860642A3/en
Priority to EP07110784.1A priority patent/EP1837858B1/en
Priority to US09/758,632 priority patent/US7183480B2/en
Priority to DE60130822T priority patent/DE60130822T2/en
Publication of JP2002023743A publication Critical patent/JP2002023743A/en
Priority to US10/291,134 priority patent/US7179984B2/en
Priority to US10/387,811 priority patent/US7135637B2/en
Application granted granted Critical
Publication of JP3636041B2 publication Critical patent/JP3636041B2/en
Priority to US11/400,710 priority patent/US7781666B2/en
Priority to US12/780,745 priority patent/US8106283B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a sounding control system which allows a user to participate in the performance of a piece of music by an easy operation and renders the performance of music more accessible. SOLUTION: A performance controller 3 automatically plays the music of plural parts based on automatic performance data. Plural users swing respectively different hand controllers 1 and instruct a tempo and sound volume. The operation data are inputted through a communication unit 2 to the performance controller 3. The performance controller 3 controls the tempo and sound volume of the respectively different parts based on the operation data inputted from the respective hand controllers 1. Thus, the performance like an ensemble is enjoyed by the plural users.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、楽曲の演奏、特
にアンサンブル演奏をするための発音制御システムに関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a musical performance, and more particularly to a sound control system for performing an ensemble.

【0002】[0002]

【従来の技術】電子楽器の演奏に用いられる演奏装置と
して最もポピュラーなものはキーボードである。キーボ
ードは、5〜6オクターブのキー(鍵)を有し、どのキ
ーを押鍵するかで音高や音色を選択することができ、押
鍵の強さで音の強弱を制御できるなど高度な演奏が可能
であるが、演奏に熟練を要し、習熟に時間がかかるもの
である。
2. Description of the Related Art A keyboard is the most popular performance device used for playing electronic musical instruments. The keyboard has keys (keys) of 5 to 6 octaves, and the pitch and tone can be selected by pressing any key, and the strength of the sound can be controlled by the strength of the key pressed. Although it is possible to perform, it requires skill to perform and takes a long time to learn.

【0003】また、MIDIシーケンスデータなどの自
動演奏データをテンポクロックに従って読み出し、これ
を音源に入力することにより自動演奏を行う自動演奏機
能を備えた電子楽器もあるが、このような自動演奏機能
は、プレイボタンを押すなどのスタート操作をすれば楽
曲が自動的に演奏され、それ以後利用者が操作する余地
がなく、利用者が演奏に参加したり演奏を制御すること
ができなかった。
There is also an electronic musical instrument having an automatic performance function of reading out automatic performance data such as MIDI sequence data in accordance with a tempo clock and inputting this to a sound source to perform an automatic performance. When a start operation such as pressing a play button is performed, the music is automatically played, and there is no room for the user to operate thereafter, and the user cannot participate in the performance or control the performance.

【0004】[0004]

【発明が解決しようとする課題】このように、電子楽器
を用いて楽曲を演奏する場合、キーボードを操作して自
分で演奏しようとすれば熟練を要するため容易ではな
く、電子楽器に自動演奏を行わせた場合には、利用者が
殆ど演奏に参加できず利用者が自分も演奏に参加してい
るという実感を得られないものであり、容易な操作で利
用者が演奏に参加できるものがなかった。特に、複数の
演奏者が一緒に合奏するアンサンブルの場合、それぞれ
の演奏者の技量がそろっていないとよい演奏ができない
という問題点があった。
As described above, when playing a musical piece using an electronic musical instrument, it is not easy to operate the keyboard by yourself, because it requires skill. If it is performed, the user can hardly participate in the performance and cannot get the feeling that the user himself is also participating in the performance. Did not. In particular, in the case of an ensemble in which a plurality of players play together, there is a problem that a good performance cannot be performed unless the skills of the respective players are uniform.

【0005】この発明は、容易な操作で曲の演奏に参加
することができ、音楽の演奏の敷居を下げることができ
る発音制御システムを提供することを目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a sound control system that can participate in music performance by an easy operation and can lower the threshold for music performance.

【0006】[0006]

【課題を解決するための手段】請求項1の発明は、身体
の運動態様または姿勢状態を検出するセンサ手段と、該
センサ手段の検出内容を操作データとして送信する送信
手段とを備えた複数の操作ユニットと、少なくとも楽曲
の音高データを含む自動演奏データに基づいて楽曲を自
動演奏し、前記複数の操作ユニットから受信した操作デ
ータに基づいて該自動演奏のテンポ、音量などの演奏要
素を制御する演奏制御手段を備えた制御装置と、を有す
ることを特徴とする。請求項2の発明は、請求項1の発
明において、前記演奏制御手段は、複数パートの自動演
奏データに基づいて自動演奏を行い、各パートの演奏要
素をそれぞれ異なる操作ユニットから受信した操作デー
タに基づいて制御することを特徴とする。請求項3の発
明は、請求項1の発明において、前記演奏制御手段は、
前記複数の操作ユニットから受信した複数の操作データ
に基づいて決定された1つの総合操作データを用いて自
動演奏の演奏要素を制御することを特徴とする。
According to a first aspect of the present invention, there is provided a plurality of sensors including a sensor for detecting a movement mode or a posture state of a body, and a transmitting unit for transmitting the detected content of the sensor as operation data. An operation unit and automatically plays a music based on automatic performance data including at least pitch data of the music, and controls performance elements such as a tempo and a volume of the automatic performance based on operation data received from the plurality of operation units. And a control device provided with performance control means for performing the performance. According to a second aspect of the present invention, in the first aspect of the invention, the performance control means performs an automatic performance based on the automatic performance data of a plurality of parts, and converts the performance elements of each part into operation data received from different operation units. It is characterized in that control is performed based on the above. According to a third aspect of the present invention, in the first aspect of the invention, the performance control means includes:
The performance element of the automatic performance is controlled using one piece of total operation data determined based on a plurality of operation data received from the plurality of operation units.

【0007】操作ユニットは、身体の各部の運動態様ま
たは姿勢状態を検出する。検出対象とする身体の部位
は、腕,足,手指などどこでもよい。運動態様を検出す
る場合、この検出対象とした身体部位の揺動や屈伸など
の運動を検出する。検出する運動態様は、屈伸や揺動に
限定されずどのようなものでもよい。この運動を身体の
部位に取り付けられたセンサ手段、または手などの身体
部位で操作されるセンサ手段で検出する。センサ手段と
しては、キースイッチや衝撃パッドなど身体の運動によ
って身体の所定部位が一次的に接触するセンサ手段を用
いてもよいが、好ましくは身体の所定部位に取り付けら
れるセンサ手段、または手などの身体部位で操作される
ことにより身体と一緒に運動するセンサ手段が好まし
い。このようなセンサ手段として加速度センサ、速度セ
ンサ、衝撃センサなどを用いることができる。
[0007] The operation unit detects a movement mode or a posture state of each part of the body. The part of the body to be detected may be anywhere such as an arm, a foot, or a finger. When detecting the motion mode, the motion of the body part to be detected, such as rocking or bending, is detected. The motion mode to be detected is not limited to bending and stretching or rocking, and may be any mode. This movement is detected by sensor means attached to a body part or sensor means operated by a body part such as a hand. As the sensor means, a sensor means such as a key switch or an impact pad which makes a predetermined contact with a predetermined part of the body temporarily by the movement of the body may be used. Sensor means that move with the body by being operated on the body part are preferred. As such a sensor means, an acceleration sensor, a speed sensor, an impact sensor, or the like can be used.

【0008】また、姿勢状態は、身体部位がどの方向を
向いているかや関節がどの角度に曲げられているかなど
のスタティックな状態をいい、この姿勢態様を検出する
場合、身体の部位に取り付けられたセンサ手段、または
手などの身体部位で操作されるセンサ手段で検出され
る。このセンサ手段としては、ジャイロセンサや角度セ
ンサなどを用いることができる。
The posture state refers to a static state such as the direction of the body part or the angle at which the joint is bent. When this posture state is detected, it is attached to the body part. This is detected by the sensor means operated by a body part such as a hand or a hand part. As this sensor means, a gyro sensor, an angle sensor, or the like can be used.

【0009】楽曲の自動演奏は、所定の音色・音高、音
量を所定のタイミングに所定の音長だけ発音し、この楽
音の発音を所定のテンポで次々と行っていくものであ
る。この発明(自動演奏制御モード)では、操作データ
に基づいて上記音色,音高(ピッチ)、音質、音量、タ
イミング、音長、テンポなどの演奏要素のうち少なくと
も1つを制御する。たとえば、発音する楽音の音高と音
長(音符の種類)は自動演奏データのものを用い、演奏
のテンポを揺動やタッピングなどの運動態様に基づいて
決定し、その音量を揺動やタッピングの大きさに基づい
て制御する方式や、発音する楽音の音高は自動演奏デー
タのものを用い、発音タイミングを操作データのローカ
ルピークとするなどである。また、基本的な音高は自動
演奏データのものを用い、その微妙なピッチ変動を操作
データで制御するようにしてもよい。いずれにしても、
一部の演奏要素を自動演奏データから読み出し、残りの
一部の演奏要素を利用者(操作ユニット)に開放するこ
とにより、利用者はその一部の演奏要素を操作ユニット
を介して制御することで演奏に参加することができ、音
楽の演奏の敷居を下げることができる。
In the automatic performance of music, a predetermined tone, pitch and volume are generated at a predetermined timing for a predetermined pitch, and the musical tones are generated one after another at a predetermined tempo. In the present invention (automatic performance control mode), at least one of the performance elements such as the tone color, pitch (pitch), tone quality, volume, timing, tone length, tempo, and the like is controlled based on the operation data. For example, the pitch and duration (note type) of the tones to be pronounced are based on the automatic performance data, the tempo of the performance is determined based on the movement mode such as rocking or tapping, and the volume is rocked or tapped. For example, the pitch of a musical tone to be generated is based on that of automatic performance data, and the generation timing is set to a local peak of operation data. The basic pitch may be that of automatic performance data, and the subtle pitch fluctuation may be controlled by operation data. In any case,
By reading some performance elements from the automatic performance data and releasing the rest of the performance elements to the user (operation unit), the user can control some of the performance elements via the operation unit. You can participate in the performance and lower the threshold of music performance.

【0010】この発明では、自動演奏を行う制御装置に
対して複数の操作ユニットがそれぞれ操作データを送信
してくる。複数の操作ユニットは、その操作ユニットを
操作する利用者の操作に応じてそれぞれ別々の操作デー
タを出力する。自動演奏データが複数のパートからなる
場合、各操作ユニットをそれぞれ別のパートにアサイン
することで、各パートの一部の演奏要素がそれぞれ別の
操作ユニットで制御されることになり、複数の利用者が
参加して、容易な操作でアンサンブル的な要素を含む演
奏することができる。
According to the present invention, a plurality of operation units transmit operation data to a control device for performing an automatic performance. Each of the plurality of operation units outputs different operation data according to an operation of a user who operates the operation unit. If the automatic performance data consists of multiple parts, assigning each operation unit to a different part will result in some performance elements of each part being controlled by a different operation unit. Participants can perform and include ensemble-like elements with easy operation.

【0011】また、請求項3の発明では、複数の操作ユ
ニットが出力した操作データに基づいて1つの総合操作
データを決定して演奏を制御する。これにより、多数の
利用者が参加して一緒に1つの楽曲の制御をすることが
可能になる。複数の操作データから1つの総合操作デー
タを決定する方式は、全ての操作データを平均する、値
が最大・最小の操作データを除外し残りの操作データを
平均する、中央値の操作データを抽出する、最大値の操
作データを抽出する、最小値の操作データを抽出する、
などの方式を採用することができ、場面に応じてこれら
を切り換えて用いてもよい。これにより、複数の操作ユ
ニットを操作する複数の利用者の操作を反映した自動演
奏が可能になる。
According to the third aspect of the present invention, the performance is controlled by determining one overall operation data based on the operation data output from the plurality of operation units. As a result, it becomes possible for a large number of users to participate and control one music piece together. The method of determining one comprehensive operation data from a plurality of operation data is to average all the operation data, exclude the operation data having the maximum / minimum values, average the remaining operation data, and extract the median operation data Extract the maximum value operation data, extract the minimum value operation data,
And the like, and these may be switched and used depending on the scene. As a result, an automatic performance that reflects the operations of a plurality of users operating a plurality of operation units becomes possible.

【0012】なお、複数の操作ユニットは、必ずしも複
数の利用者が1つずつ操作しなければならないものでは
なく、たとえば、両腕や両足に操作ユニットを装着して
1人が4個の操作ユニットを操作するようにするなど、
1人の利用者が複数の操作ユニットを操作して複数の操
作データを発生するようにしてもよい。
The plurality of operation units do not necessarily have to be operated by a plurality of users one by one. For example, when the operation unit is mounted on both arms or both feet and one user operates four operation units. Such as to operate
One user may operate a plurality of operation units to generate a plurality of operation data.

【0013】請求項4の発明は、請求項1〜3の発明に
おいて、操作データに基づいて演奏要素が制御された自
動演奏データを記録する記録手段を備えたことを特徴と
する。請求項5の発明は、上記発明において、前記演奏
制御手段は、前記記録手段によって記録された自動演奏
データに基づいて楽曲を自動演奏することを特徴とす
る。
According to a fourth aspect of the present invention, in the first to third aspects of the present invention, recording means is provided for recording automatic performance data in which performance elements are controlled based on operation data. According to a fifth aspect of the present invention, in the above invention, the performance control means automatically performs a music piece based on the automatic performance data recorded by the recording means.

【0014】操作ユニットによって一部の演奏要素が制
御された自動演奏データは、音源装置に出力され、音源
装置が楽音を発生する。この発明では、さらに、この一
部の演奏要素が制御された自動演奏データを記録し、利
用者によって修正された自動演奏データとして保存す
る。そしてさらに、請求項5の発明では、演奏制御手段
が、この利用者によって修正された自動演奏データを、
再度操作ユニットによって一部の演奏要素が制御される
自動演奏データとして読み出す。これにより、1回の自
動演奏によって一部パートずつ演奏要素を制御し、複数
回の自動演奏によって全パートの演奏要素を制御するよ
うにすることができる。また、1回の自動演奏によって
一部の演奏要素を制御し、複数回の演奏によって所望の
複数の演奏要素を制御するようにすることもできる。
The automatic performance data in which some of the performance elements are controlled by the operation unit are output to a sound source device, which generates a musical tone. According to the present invention, the automatic performance data in which some of the performance elements are controlled is recorded and stored as the automatic performance data corrected by the user. Further, according to the invention of claim 5, the performance control means outputs the automatic performance data corrected by the user.
It is read out again as automatic performance data in which some performance elements are controlled by the operation unit again. Thus, it is possible to control the performance elements part by part by one automatic performance and control the performance elements of all parts by multiple automatic performances. It is also possible to control some performance elements by one automatic performance and to control a plurality of desired performance elements by multiple performances.

【0015】なお、上記複数回の自動演奏で演奏要素を
制御する場合には、操作ユニットは必ずしも複数ある必
要はなく、1つであっても上記発明の達成は可能であ
る。
In the case where the performance elements are controlled by the plurality of automatic performances, it is not always necessary to provide a plurality of operation units, and the invention can be achieved even with one operation unit.

【0016】請求項6の発明は、身体の運動態様または
姿勢状態を検出するセンサ手段と、該センサ手段の検出
内容を操作データとして送信する送信手段とを備えた複
数の操作ユニットと、前記複数の操作ユニットに対して
それぞれ異なる音高の楽音を割り当て、各操作ユニット
から受信した操作データに基づき、それぞれ対応する音
高の楽音の発音を制御する発音制御手段を備えた制御装
置と、を有することを特徴とする。請求項7の発明は、
上記発明において、前記発音制御手段は、楽曲の各音符
の音高および発音タイミングを含む自動演奏データを所
定のテンポで読み出し、各音符の音高および発音タイミ
ングを指示する演奏ガイド情報を発生することを特徴と
する。
According to a sixth aspect of the present invention, there is provided a plurality of operation units each comprising: sensor means for detecting a movement mode or a posture state of a body; and transmission means for transmitting the detection content of the sensor means as operation data. And a control device having sound control means for controlling the sound of the corresponding pitch based on the operation data received from each operation unit. It is characterized by the following. The invention of claim 7 is
In the above invention, the sounding control means reads out automatic performance data including the pitch and sounding timing of each note of the music at a predetermined tempo, and generates performance guide information indicating the pitch and sounding timing of each note. It is characterized by.

【0017】この発明では、各操作ユニットに対してそ
れぞれ異なる音高の楽音を割り当てる。たとえば、各操
作ユニットの揺動が検出されたとき、対比する音高の楽
音を発音するなどの制御を行う。各操作ユニットをそれ
ぞれ異なる利用者が操作するようにすれば、各利用者が
それぞれ異なる1または数音のベルを担当して曲を演奏
するいわゆるハンドベルのような演奏が可能になる。こ
の場合において、演奏しようとする曲の曲データを制御
装置が読み出し、発音すべき音高に対応する操作ユニッ
トに対して操作ガイド情報を発生することにより、各利
用者が自分がこれに応じて操作ユニットを操作すること
で容易に曲の演奏が可能になる。また、ハンドベルの場
合には、1人が2つないし3つのベルを担当する場合が
あるが、この発明の場合、1つの操作ユニットに複数の
音高を割り当てることによって1人が1つの操作ユニッ
トを持っていても、1人が複数のベルを担当することと
同じような演奏形態にすることが可能になる。この場
合、操作ユニットの操作に対応して複数割り当てられて
いる音高のうちどの音高の楽音を発音するかは、曲デー
タで曲の進行を監視し、操作ユニットの操作に応じて今
回どの音高を発音すべきかを決定するようにすればよ
い。
According to the present invention, musical tones having different pitches are assigned to the respective operation units. For example, when the swing of each operation unit is detected, control such as generating a musical tone having a corresponding pitch is performed. If different users operate the operation units, it becomes possible to perform a so-called handbell in which each user plays a tune while in charge of one or several different tones. In this case, the control device reads out the song data of the song to be played, and generates operation guide information for the operation unit corresponding to the pitch to be sounded, so that each user can respond to this. The music can be easily played by operating the operation unit. In the case of a handbell, one person may be in charge of two or three bells. In the case of the present invention, one person assigns a plurality of pitches to one operation unit. , It is possible to have a performance form similar to that in which one person is in charge of a plurality of bells. In this case, it is possible to determine which pitch of the plurality of pitches is to be produced in response to the operation of the operation unit by monitoring the progress of the music using the music data, and determining the current time according to the operation of the operation unit. What is necessary is just to determine whether a pitch should be pronounced.

【0018】請求項8の発明は、上記発明において、前
記複数の操作ユニットは1人の身体の各部に取り付けら
れる複数のセンサ手段を備え、前記送信手段は各センサ
手段の検出内容をそれぞれ個別の操作データとして送信
することを特徴とする。請求項9の発明は、上記発明に
おいて、前記複数のセンサ手段は、利用者の上腕、胸、
ももなどに取り付けられる衝撃センサであることを特徴
とする。これにより、1人の身体の各部の動きによっ
て、特に請求項9の発明では腕を揺動させて手でセンサ
を叩く動きによって、複数パートの音楽や複数音高の楽
音の発生を制御することができる。
According to an eighth aspect of the present invention, in the above-mentioned invention, the plurality of operation units include a plurality of sensor means attached to each part of one person's body, and the transmitting means separates the detection contents of each sensor means into individual ones. It is characterized by being transmitted as operation data. According to a ninth aspect of the present invention, in the above-mentioned invention, the plurality of sensor means include:
It is a shock sensor attached to a thigh or the like. Thereby, the generation of music of a plurality of parts and the musical tones of a plurality of pitches can be controlled by the movement of each part of the body of a person, particularly, by the movement of swinging the arm and hitting the sensor with the hand in the invention of claim 9. Can be.

【0019】[0019]

【発明の実施の形態】図面を参照してこの発明の実施形
態である発音制御システムについて説明する。図1は、
発音制御システムの全体の概略的な構成を示す図であ
る。この発音制御システムは、操作ユニットである複数
のハンドコントローラ1、通信ユニット2、パーソナル
コンピュータで構成される演奏制御装置3、音源装置
4、アンプ5、スピーカ6を有している。複数のハンド
コントローラ1には、それぞれ別々のID番号(=1〜
24)が設定される。ハンドコントローラ1は、バトン
形の形状を有し、利用者が揺動操作する。この揺動操作
による加速度を内蔵の加速度センサ17(図2参照)が
検出する。検出された加速度が操作データとしてハンド
コントローラ1から通信ユニット2に無線送信される。
通信ユニット2は、複数のハンドコントローラ1から無
線送信される操作データを受信し、演奏制御装置3にこ
れを転送する。演奏制御装置3は、入力された操作デー
タを解析して音源装置4による楽音の発音を制御する。
音源装置4は、楽音波形の形成および形成した楽音波形
に対してエフェクトを付与する機能を備えており、演奏
制御装置3による発音制御は、楽音波形の形成の制御お
よび形成した楽音波形に対して付与されるエフェクトの
制御の両方を含む。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A sound control system according to an embodiment of the present invention will be described with reference to the drawings. FIG.
FIG. 2 is a diagram illustrating a schematic configuration of the entire sound generation control system. This sound generation control system includes a plurality of hand controllers 1 as operation units, a communication unit 2, a performance control device 3 including a personal computer, a sound source device 4, an amplifier 5, and a speaker 6. Each of the plurality of hand controllers 1 has a different ID number (= 1 to 1).
24) is set. The hand controller 1 has a baton shape, and the user performs a swing operation. The built-in acceleration sensor 17 (see FIG. 2) detects the acceleration due to the swing operation. The detected acceleration is wirelessly transmitted from the hand controller 1 to the communication unit 2 as operation data.
The communication unit 2 receives operation data wirelessly transmitted from the plurality of hand controllers 1 and transfers the operation data to the performance control device 3. The performance control device 3 analyzes the input operation data and controls the tone generation of the tone generator 4.
The tone generator 4 has a function of forming a musical tone waveform and giving an effect to the musical tone waveform formed. The tone generation control by the performance control device 3 controls the formation of the musical tone waveform and the generated musical tone waveform. Includes both control of the applied effects.

【0020】上記複数のハンドコントローラ1の基本的
な利用形態は、各ハンドコントローラ1をそれぞれ別々
の利用者が揺動操作して演奏制御を行うというものであ
る。制御装置である演奏制御装置3が曲データに基づい
て複数パートの曲を自動演奏する。この複数パートの各
パートをそれぞれ別々のハンドコントローラ1にアサイ
ンし、各ハンドコントローラ1の揺動操作よって演奏を
制御する。演奏の制御は、揺動のテンポ(揺動ピークが
検出される間隔)に基づいて演奏テンポを制御し、揺動
加速度(または速度)の大きさに基づいて音量を制御す
るなどである。このように各パートが別々の利用者(ハ
ンドコントローラ1)によって制御されることにより、
利用者に簡略な合奏(アンサンブル)演奏を楽しませる
ことができる。また、各ハンドコントローラに別々の音
高を割り当てて、いわゆるハンドベルのような合奏をす
ることも可能である。この場合、あるハンドコントロー
ラ1が揺動操作されると、そのハンドコントローラ1に
アサインされている音高の楽音をその揺動の加速度の大
きさに応じた音量で発生する。各利用者が曲に合わせて
自分の担当する音高(音符)のタイミングにハンドコン
トローラ1を揺動操作することにより、曲が進行する。
The basic usage of the plurality of hand controllers 1 is such that different users swing the respective hand controllers 1 to control the performance. A performance control device 3, which is a control device, automatically plays a music of a plurality of parts based on music data. Each of the plurality of parts is assigned to a separate hand controller 1, and the performance is controlled by the swing operation of each hand controller 1. Performance control includes controlling the performance tempo based on the swing tempo (interval at which the swing peak is detected) and controlling the volume based on the magnitude of the swing acceleration (or speed). Since each part is controlled by a different user (hand controller 1) in this manner,
The user can enjoy a simple ensemble performance. It is also possible to assign a different pitch to each hand controller and perform an ensemble like a so-called handbell. In this case, when a certain hand controller 1 is rocked, a musical tone having a pitch assigned to the hand controller 1 is generated at a volume corresponding to the magnitude of the acceleration of the rocking. When each user swings the hand controller 1 at the timing of the pitch (note) to which he / she is responsible according to the music, the music progresses.

【0021】図2において、ハンドコントローラ1は、
中央部が細くなったバトン形をしており、筐体は、最も
細くなっている中央を境界に上側筐体10と下側筐体1
1に分離することができる。下側筐体11の底部からは
コード状のアンテナ18が引き出されている。内部に
は、後述の受信回路、CPU、スイッチ群などが実装さ
れた回路基板13が設けられている。
In FIG. 2, the hand controller 1
It has a baton shape in which the center is thinner, and the housing is composed of an upper housing 10 and a lower housing 1 with a center at the thinnest center.
1 can be separated. A cord-shaped antenna 18 is drawn out from the bottom of the lower housing 11. A circuit board 13 on which a receiving circuit, a CPU, a switch group, and the like, which will be described later, are mounted is provided inside.

【0022】回路基板13の上側筐体10側には、4色
のLED14(14a〜14d)、スイッチ群15(1
5a〜15d)、2桁の7セグメント表示器16、3軸
の加速度センサ17などが実装されている。LED14
a,14b,14c,14dは、それぞれ青色発光,緑
色発光,赤色発光,橙色発光のLEDである。上側筐体
10を下側筐体11から外すと、回路基板13の上側が
露出し、スイッチ群15を操作することができる。スイ
ッチ15aは電源スイッチ、スイッチ15bは単音発音
モード選択スイッチ、15cは自動演奏制御モード選択
スイッチ、15dはENTERスイッチである。スイッ
チ15b,15cでモードを選択し、ENTERスイッ
チ15dをオンすると、選択されたモードがモード選択
データとして送信される。ただし、演奏制御装置3に
は、ID番号=1が設定されているハンドコントローラ
が送信したモード選択データのみが入力される。
On the upper casing 10 side of the circuit board 13, four color LEDs 14 (14a to 14d) and a switch group 15 (1
5a to 15d) A 2-digit 7-segment display 16, a 3-axis acceleration sensor 17, and the like are mounted. LED14
a, 14b, 14c, and 14d are LEDs for emitting blue light, green light, red light, and orange light, respectively. When the upper housing 10 is removed from the lower housing 11, the upper side of the circuit board 13 is exposed, and the switch group 15 can be operated. The switch 15a is a power switch, the switch 15b is a single sound generation mode selection switch, 15c is an automatic performance control mode selection switch, and 15d is an ENTER switch. When the mode is selected by the switches 15b and 15c and the ENTER switch 15d is turned on, the selected mode is transmitted as mode selection data. However, only the mode selection data transmitted by the hand controller in which the ID number = 1 is set is input to the performance control device 3.

【0023】モード選択スイッチで選択されるモードの
うち、単音発音モードとは、ハンドコントローラ1の揺
動操作による加速度のローカルピーク点で所定の楽音を
発音させるモードであり、複数のハンドコントローラ1
にそれぞれ異なる音高の楽音をアサインしておき、ハン
ドベルのような合奏をするモードである。また、自動演
奏制御モードとは、演奏制御装置3が、記憶装置に記憶
している自動演奏データを音源装置4に順次出力する自
動演奏処理動作のテンポや音量をハンドコントローラ1
の揺動操作によって制御するモードであり、複数パート
からなる曲データの各パートを複数のハンドコントロー
ラ1によって別々に制御する。この実施形態では、ハン
ドコントローラ1の揺動操作のローカルピークの間隔
(周期)によって自動演奏のテンポを制御し、揺動の速
度や大きさによって自動演奏の音量や音質などを制御す
る。
Among the modes selected by the mode selection switch, the single sound generation mode is a mode in which a predetermined musical sound is generated at a local peak point of the acceleration due to the swing operation of the hand controller 1.
In this mode, musical tones of different pitches are assigned to each other, and a ensemble like a handbell is performed. In the automatic performance control mode, the performance control device 3 controls the tempo and volume of the automatic performance processing operation for sequentially outputting the automatic performance data stored in the storage device to the sound source device 4 by the hand controller 1.
In this mode, each part of the music data composed of a plurality of parts is separately controlled by the plurality of hand controllers 1. In this embodiment, the tempo of the automatic performance is controlled by the local peak interval (period) of the swing operation of the hand controller 1, and the volume and sound quality of the automatic performance are controlled by the speed and magnitude of the swing.

【0024】図3はハンドコントローラ1の制御部のブ
ロック図である。制御部20は、CPU、メモリ、イン
タフェースなどを1チップに内蔵したマイクロコンピュ
ータで構成されており、このハンドコントローラ1の動
作を制御する。この制御部20には、3軸の加速度セン
サ17、スイッチ群15、ID設定スイッチ21、モデ
ム23、変調回路24、復調回路27、LED表示回路
22などが接続されている。
FIG. 3 is a block diagram of a control unit of the hand controller 1. The control unit 20 is configured by a microcomputer in which a CPU, a memory, an interface, and the like are built in one chip, and controls the operation of the hand controller 1. The control unit 20 is connected with a three-axis acceleration sensor 17, a switch group 15, an ID setting switch 21, a modem 23, a modulation circuit 24, a demodulation circuit 27, an LED display circuit 22, and the like.

【0025】加速度センサ17は、半導体センサであ
り、400Hz程度のサンプリング周波数に応答でき、
分解能が8bit程度のものを使用する。ハンドコント
ローラ1の揺動により加速度センサ17が揺動すると、
X軸方向、Y軸方向、Z軸方向それぞれについて8bi
tの加速度データを出力する。加速度センサ17は、X
軸,Y軸,Z軸が図2に示す方向になるように、ハンド
コントローラ1の先端部に内蔵されている。なお、この
加速度センサ17は3軸センサに限定されるものではな
く、2軸センサ、無方向のセンサであってもよい。
The acceleration sensor 17 is a semiconductor sensor and can respond to a sampling frequency of about 400 Hz.
The one having a resolution of about 8 bits is used. When the acceleration sensor 17 swings due to the swing of the hand controller 1,
8bi for each of X-axis, Y-axis and Z-axis
The acceleration data of t is output. The acceleration sensor 17
The hand controller 1 is built in the distal end portion such that the axes, the Y axis, and the Z axis are in the directions shown in FIG. The acceleration sensor 17 is not limited to a three-axis sensor, but may be a two-axis sensor or a non-directional sensor.

【0026】ID設定スイッチ21は、5ビットのディ
ップスイッチであり、1〜24のID番号を設定するこ
とができる。このID設定スイッチ21は、下側筐体1
1側の回路基板13上に実装されており、回路基板13
を下側筐体11から抜き出して操作する。
The ID setting switch 21 is a 5-bit dip switch, and can set ID numbers 1 to 24. The ID setting switch 21 is connected to the lower housing 1
The circuit board 13 is mounted on the circuit board 13 on one side.
Is pulled out of the lower housing 11 and operated.

【0027】制御部20は、加速度センサ17から入力
された加速度データを操作データとしてモデム23に出
力する。この操作データにはID設定スイッチ21によ
って設定されたID番号が付加される。また、モード選
択スイッチ15b,15cによって選択されたモード
は、操作データとは別のモード選択データとしてモデム
23に出力される。
The control section 20 outputs the acceleration data input from the acceleration sensor 17 to the modem 23 as operation data. An ID number set by the ID setting switch 21 is added to this operation data. The mode selected by the mode selection switches 15b and 15c is output to the modem 23 as mode selection data different from the operation data.

【0028】モデム23は、制御部20から入力された
ベースバンドデータを相転移データに変換する回路であ
る。変調回路24は上記相転移データで2.4GHz帯
のキャリア信号をGMSK変調して無線伝送可能にする
回路である。変調回路24から出力された2.4GHz
帯の信号は、送信出力アンプ25によって微弱電力程度
に増幅され、アンテナ18から複写出力される。また、
アンテナ18はアイソレータを有し、このアイソレータ
を介して前記送信出力アンプ25のほか受信回路26に
接続されている。受信回路26は、アンテナ18に入射
した2.4GHz帯の信号を受信して増幅する回路であ
り、復調回路27およびモデム23はこの受信した信号
に含まれるGMDK変調されたデータをベースバンドデ
ータに復調して制御部20に入力する。制御部20は、
このうち自己のIDが付されたデータを自局宛のデータ
であるとして取り込む。
The modem 23 is a circuit that converts the baseband data input from the control unit 20 into phase transition data. The modulation circuit 24 is a circuit that enables GMSK modulation of a 2.4 GHz band carrier signal with the phase transition data to enable wireless transmission. 2.4 GHz output from the modulation circuit 24
The band signal is amplified by the transmission output amplifier 25 to about weak power, and is copied and output from the antenna 18. Also,
The antenna 18 has an isolator, and is connected to the transmitting output amplifier 25 and the receiving circuit 26 via the isolator. The receiving circuit 26 is a circuit that receives and amplifies the 2.4 GHz band signal incident on the antenna 18, and the demodulation circuit 27 and the modem 23 convert GMDK-modulated data included in the received signal into baseband data. The signal is demodulated and input to the control unit 20. The control unit 20
Among them, the data with its own ID is taken in as data addressed to its own station.

【0029】なお、このハンドコントローラ1はこのよ
うに通信ユニット2と無線で通信するように構成されて
いるが、USBインタフェースなどを介して有線で通信
するようにしてもよい。また、Bluetoothなど
の周波数拡散方式を用いた近距離無線インタフェースな
どを適用することができる。
Although the hand controller 1 is configured to wirelessly communicate with the communication unit 2 as described above, it may be configured to perform wired communication via a USB interface or the like. Further, a short-range wireless interface using a spread spectrum method such as Bluetooth can be applied.

【0030】図6はハンドコントローラ1から通信ユニ
ット2に対して送信されるデータのフォーマットを示す
図である。同図(A)は、操作データの構成を示す図で
ある。操作データは、コントローラのID番号(5ビッ
ト)、操作データである旨を示すコード(3ビット)、
X軸方向加速度データ(8ビット)、Y軸方向加速度デ
ータ(8ビット)、Z軸方向加速度データ(8ビット)
からなっている。同図(B)は、モード選択データの構
成を示す図である。モード選択データは、コントローラ
のID番号(5ビット)、モード選択データある旨を示
すコード(3ビット)、モード番号(8ビット)からな
っている。
FIG. 6 is a diagram showing a format of data transmitted from the hand controller 1 to the communication unit 2. FIG. 3A is a diagram showing a configuration of operation data. The operation data includes a controller ID number (5 bits), a code indicating the operation data (3 bits),
X-axis direction acceleration data (8 bits), Y-axis direction acceleration data (8 bits), Z-axis direction acceleration data (8 bits)
Consists of FIG. 3B is a diagram showing a configuration of the mode selection data. The mode selection data includes a controller ID number (5 bits), a code (3 bits) indicating that there is mode selection data, and a mode number (8 bits).

【0031】図4は、通信ユニット2のブロック図であ
る。通信ユニット2は、ハンドコントローラ1が送信す
るデータ(操作データ,モード選択データ)を受信し、
パーソナルコンピュータである演奏制御装置3に転送す
る装置である。通信ユニット2は、メイン制御部30、
複数の個別通信ユニット31、USBインタフェース3
9を有している。複数の個別通信ユニット31には、そ
れぞれ異なるID番号が設定され、それぞれ対応するI
D番号のハンドコントローラ1と通信する。
FIG. 4 is a block diagram of the communication unit 2. The communication unit 2 receives data (operation data, mode selection data) transmitted by the hand controller 1,
This is a device for transferring to the performance control device 3 which is a personal computer. The communication unit 2 includes a main control unit 30,
A plurality of individual communication units 31, a USB interface 3
9. Different ID numbers are respectively set for the plurality of individual communication units 31, and the corresponding I
It communicates with the hand controller 1 of the D number.

【0032】同図(A)において、マイクロプロセッサ
で構成されるメイン制御部30には、個別通信ユニット
31およびUSBインタフェース39が接続されてい
る。USBインタフェース39には、演奏制御装置3の
USBインタフェース46(図5参照)が接続されてい
る。
In FIG. 1A, an individual communication unit 31 and a USB interface 39 are connected to a main control unit 30 composed of a microprocessor. The USB interface 39 (see FIG. 5) of the performance control device 3 is connected to the USB interface 39.

【0033】個別通信ユニット31の構成を同図(B)
に示す。マイクロプロセッサで構成されている個別制御
部33には、IDスイッチ38、復調回路35および変
調回路36が接続されている。IDスイッチ38は、デ
ィップスイッチで構成され、対応するハンドコントロー
ラ1と同じID番号が設定される。復調回路35には受
信回路34が接続されており、受信回路34は、アンテ
ナ32から入力された2.4GHz帯の信号を選択的に
受信し、このなかからハンドコントローラ1が送信した
GMSK変調信号を検波出力する回路である。復調回路
35は、このGMSK変調信号からハンドコントローラ
1のデータ(操作データ,モード選択データ)を復調す
る。個別制御部33は、復調入力されたデータの先頭に
付されているID番号を読み出し、このID番号が、I
Dスイッチ38で設定されているID番号と同じである
かを判断する。同じであれば、この個別通信ユニット3
1向けのデータであるとして取り込み、これをメイン制
御部30に入力する。
The structure of the individual communication unit 31 is shown in FIG.
Shown in An ID switch 38, a demodulation circuit 35, and a modulation circuit 36 are connected to the individual control unit 33 composed of a microprocessor. The ID switch 38 is constituted by a dip switch, and the same ID number as that of the corresponding hand controller 1 is set. A receiving circuit 34 is connected to the demodulation circuit 35. The receiving circuit 34 selectively receives the 2.4 GHz band signal input from the antenna 32, and from among these, receives the GMSK modulated signal transmitted by the hand controller 1 from the signal. Is a circuit for detecting and outputting. The demodulation circuit 35 demodulates the data (operation data, mode selection data) of the hand controller 1 from the GMSK modulation signal. The individual control unit 33 reads out the ID number added to the head of the demodulated and input data, and
It is determined whether the ID number is the same as the ID number set by the D switch 38. If the same, this individual communication unit 3
The data is taken as data for one, and is input to the main control unit 30.

【0034】変調回路36には送信回路37が接続され
ており、送信回路37はアンテナ32に接続されてい
る。変調回路36は前記のモデム23と同様に個別制御
部33が出力したデータをGMSK変調する。送信回路
37は、前記GMSK変調された信号で2.4GHz帯
のキャリアをGMSK変調してアンテナ32から出力す
る。対応するハンドコントローラ1に対して送信すべき
データ(演奏ガイド情報)がある場合、上記変調回路3
5および送信回路37を介してハンドコントローラ1に
送信される。
A transmission circuit 37 is connected to the modulation circuit 36, and the transmission circuit 37 is connected to the antenna 32. The modulation circuit 36 performs GMSK modulation on the data output from the individual control unit 33 in the same manner as the modem 23 described above. The transmission circuit 37 GMSK-modulates the 2.4 GHz band carrier with the GMSK-modulated signal and outputs the result from the antenna 32. If there is data (performance guide information) to be transmitted to the corresponding hand controller 1, the modulation circuit 3
5 and the transmission circuit 37 to the hand controller 1.

【0035】なお、上記送信すべきデータの送信は、対
応するハンドコントローラ1からデータを受信した直後
に行う。このタイミングに行うことにより、ハンドコン
トローラ1において送信と受信が衝突することがない。
The transmission of the data to be transmitted is performed immediately after receiving the data from the corresponding hand controller 1. By performing at this timing, transmission and reception do not collide in the hand controller 1.

【0036】図5は制御装置である演奏制御装置3のブ
ロック図である。装置全体を制御するCPU41には、
バスを介して、ROM42、RAM43、大容量記憶装
置44、MIDIインタフェース45、USBインタフ
ェース46、キーボード47、ポインティングデバイス
48、表示部49、通信インタフェース50が接続され
ている。また、MIDIインタフェース45には、外部
装置である音源装置51が接続されている。
FIG. 5 is a block diagram of the performance control device 3 which is a control device. The CPU 41 for controlling the entire apparatus includes:
The ROM 42, the RAM 43, the mass storage device 44, the MIDI interface 45, the USB interface 46, the keyboard 47, the pointing device 48, the display unit 49, and the communication interface 50 are connected via the bus. The MIDI interface 45 is connected to a sound source device 51 which is an external device.

【0037】ROM42には、起動プログラム等が記憶
されている。大容量記憶装置44は、ハードディスク,
CD−ROM,MOなどで構成され、システムプログラ
ム、アプリケーションプログラム、曲データなどが記憶
されている。RAM43には、演奏制御装置3の起動時
または起動したのちに大容量記憶装置44からシステム
プログラムやアプリケーションプログラム等が読み込ま
れる。またRAM43には、アプリケーションプログラ
ム実行時に必要な記憶エリアが確保される。USBイン
タフェース46には、通信ユニット2のUSBインタフ
ェース39が接続される。キーボード47およびポイン
ティングデバイス48は、演奏する曲を選択するなど、
利用者がアプリケーションプログラムを操作するときに
用いるものである。また、通信インタフェース50を用
いて、この装置をインターネットまたは加入電話回線を
介してサーバ装置(不図示)と接続し、このサーバ装置
から曲データをダウンロードするようにしてもよい。ダ
ウンロードした曲データはRAM43または大容量記憶
装置44に記憶される。
The ROM 42 stores a start-up program and the like. The mass storage device 44 includes a hard disk,
It is composed of a CD-ROM, MO, etc., and stores system programs, application programs, music data, and the like. The RAM 43 is loaded with a system program, an application program, and the like from the large-capacity storage device 44 when or after the performance control device 3 is started. Further, a storage area necessary for executing the application program is secured in the RAM 43. The USB interface 46 is connected to the USB interface 39 of the communication unit 2. The keyboard 47 and the pointing device 48 are used to select a song to be played.
It is used when a user operates an application program. Alternatively, the device may be connected to a server device (not shown) via the Internet or a subscriber line using the communication interface 50, and music data may be downloaded from the server device. The downloaded music data is stored in the RAM 43 or the mass storage device 44.

【0038】MIDIインタフェース45に接続されて
いる音源装置4は、演奏制御装置3から入力された演奏
データ(MIDIデータ)に基づいて楽音を発生すると
ともに、発生した楽音に対してエコーなどのエフェクト
を付与する。そしてこの楽音をアンプ5に出力する。ア
ンプ5はこの楽音を増幅してスピーカ6に出力する。ス
ピーカ6はこの楽音を音響として放音する。なお、音源
装置4は、どのような方式で楽音波形を形成するもので
あってもよく、持続音、減衰音などの音の種類に応じて
その方式を選択できるものであってもよい。
The tone generator 4 connected to the MIDI interface 45 generates musical tones based on performance data (MIDI data) input from the performance controller 3, and applies effects such as echo to the generated musical tones. Give. This tone is output to the amplifier 5. The amplifier 5 amplifies this tone and outputs it to the speaker 6. The speaker 6 emits this musical sound as sound. The sound source device 4 may be configured to form a musical tone waveform by any method, and may be capable of selecting the method according to the type of sound such as a sustained sound or an attenuated sound.

【0039】図7は、上記演奏制御装置3の大容量記憶
装置44に記憶される曲データの構成を示す図である。
FIG. 7 is a diagram showing the structure of music data stored in the large-capacity storage device 44 of the performance control device 3. As shown in FIG.

【0040】同図(A)は、複数パートの曲を演奏する
ための曲データの構成を示す図である。複数の各パート
に対応する複数の演奏データトラックを有している。各
パートの演奏データトラックには発音する楽音の音高や
音量などが書き込まれたイベントデータとこのイベント
データの読み出しタイミングを指示するタイミングデー
タが時系列に書き込まれている。自動演奏制御モード時
には各トラック(各パート)がそれぞれ別のハンドコン
トローラにアサインされる。さらに各パートのトラック
とは別にテンポを指定するデータなどが記録されたコン
トロールトラックを有している。このトラックは、自動
演奏制御モードでハンドコントローラが指示するテンポ
で各パートが演奏される場合には無視される。
FIG. 5A is a diagram showing the structure of music data for playing music of a plurality of parts. It has a plurality of performance data tracks corresponding to a plurality of parts. In the performance data track of each part, event data in which the pitch, volume, and the like of the musical sound to be generated are written, and timing data indicating the read timing of the event data are written in a time series. In the automatic performance control mode, each track (each part) is assigned to a different hand controller. Further, it has a control track on which data specifying the tempo and the like are recorded separately from the track of each part. This track is ignored when each part is played at the tempo specified by the hand controller in the automatic performance control mode.

【0041】また、同図(B)は、単音発音モード専用
の曲データの構成を示す図である。このデータはハンド
ベル用の演奏用トラックと、伴奏用トラック、コントロ
ールトラックで構成されている。演奏用トラックは、そ
れぞれ異なる音高が割り当てられた複数のハンドコント
ローラ1の操作によって発音されるべき楽音が書き込ま
れたトラックであり、このトラックのイベントデータ
は、演奏ガイド用にのみ用いられ、実際の発音には用い
られない。なお、この演奏用トラックに書き込まれる演
奏データは単音列でなくてもよく、複数の楽音が同時に
発音される複音列であってもよい。伴奏用トラックは、
通常の自動演奏トラックで、このトラックのイベントデ
ータは音源装置4に送信される。また、コントロールト
ラックは、テンポ設定データ等が書き込まれているトラ
ックであり、このテンポでこの曲データは演奏される。
FIG. 4B is a diagram showing the structure of music data dedicated to the single sound generation mode. This data is composed of a performance track for a handbell, an accompaniment track, and a control track. The performance track is a track on which musical tones to be generated by operating a plurality of hand controllers 1 to which different pitches are assigned are written, and the event data of this track is used only for a performance guide. It is not used for pronunciation. The performance data written in the performance track need not be a single tone sequence, but may be a multiple tone sequence in which a plurality of musical tones are generated simultaneously. The accompaniment track is
In a normal automatic performance track, the event data of this track is transmitted to the tone generator 4. The control track is a track on which tempo setting data and the like are written, and the music data is played at this tempo.

【0042】なお、上記各トラックは、音色が異なる場
合にはそれぞれ別々のMIDIチャンネルに対応させて
おけばよい。また、単音発音モード時に同図(A)の曲
データを選曲し、複数パートのうち1つをハンドベル用
のトラックとして用い、他のパートを伴奏トラックとし
て用いて自動演奏するようにしてもよい。
When the tracks have different timbres, the tracks may correspond to different MIDI channels. Alternatively, the music data shown in FIG. 9A may be selected in the monophonic sound mode, and one of the plurality of parts may be used as a handbell track and the other part may be used as an accompaniment track for automatic performance.

【0043】以下、フローチャートを参照して同発音制
御システムの動作について説明する。図8は、ハンドコ
ントローラ1の動作を示すフローチャートである。電源
スイッチ15aをオンすると、まずチップリセットなど
のリセット動作を実行する(s1)。つぎにメモリにI
D番号を読み込む(s2)。ID番号はディップスイッ
チであるID番号設定スイッチ21に設定されている。
読み込まれたID番号は、所定時間7セグメント表示器
16に表示される(s3)。
Hereinafter, the operation of the tone generation control system will be described with reference to a flowchart. FIG. 8 is a flowchart showing the operation of the hand controller 1. When the power switch 15a is turned on, first, a reset operation such as a chip reset is executed (s1). Next, I
The D number is read (s2). The ID number is set on an ID number setting switch 21 which is a dip switch.
The read ID number is displayed on the 7-segment display 16 for a predetermined time (s3).

【0044】次に操作モードの選択を受け付ける(s
4)。単音発音モード選択スイッチ15bをオンすると
単音発音モードが選択され、自動演奏制御モード選択ス
イッチ15cをオンすると自動演奏制御モードが選択さ
れる。次にENTERスイッチ15dがオンされると、
そのとき選択されていたモードを設定し、これをモード
選択データに編集して通信ユニット2に送信する(s
5)とともに、この設定したモードを7セグメンド表示
器16に表示する(s6)。これで初期設定動作を終了
し、揺動検出動作に移行する。
Next, an operation mode selection is accepted (s
4). Turning on the single sound generation mode selection switch 15b selects the single sound generation mode, and turning on the automatic performance control mode selection switch 15c selects the automatic performance control mode. Next, when the ENTER switch 15d is turned on,
The mode selected at that time is set, this is edited into mode selection data, and transmitted to the communication unit 2 (s
Together with 5), the set mode is displayed on the 7-segment display 16 (s6). This completes the initial setting operation and shifts to the swing detection operation.

【0045】以下の揺動検出動作は2.5ms毎に実行
される。3軸の加速度センサ17からX軸方向加速度,
Y軸方向加速度,Z軸方向加速度の3軸の加速度を検出
し(s7)、これを図6の操作データに編集して(s
8)、通信ユニット2に送信する(s9)。そして、L
ED14a〜14dの点灯制御をする(s10)。
The following swing detection operation is executed every 2.5 ms. From the three-axis acceleration sensor 17, acceleration in the X-axis direction,
The three-axis acceleration of the Y-axis direction acceleration and the Z-axis direction acceleration is detected (s7), and this is edited into the operation data of FIG.
8), and transmits it to the communication unit 2 (s9). And L
The lighting control of the EDs 14a to 14d is performed (s10).

【0046】LED14a〜14dの点灯制御の態様は
以下のようである。X軸方向の+方向の加速度が一定以
上の場合には、青色発光のLED14aを点灯する。X
軸方向の−方向の加速度が一定以上の場合には、緑色発
光のLED14bを点灯する。Y軸方向の+方向の加速
度が一定以上の場合には、赤色発光のLED14cを点
灯する。Y軸方向の−方向の加速度が一定以上の場合に
は、オレンジ色発光のLED14dを点灯する。また、
Z軸方向の+方向の加速度が一定以上の場合には、LE
D14aとLED14bを同時に点灯する。Z軸方向の
−方向の加速度が一定以上の場合には、LED14cと
LED14dを同時に点灯する。また、上記の点灯制御
において、LED14a〜14dを揺動加速度の大きさ
に応じた光量で点灯するようにしてもよい。
The mode of lighting control of the LEDs 14a to 14d is as follows. When the acceleration in the + direction in the X-axis direction is equal to or more than a certain value, the blue light emitting LED 14a is turned on. X
When the acceleration in the negative axial direction is equal to or more than a predetermined value, the green light emitting LED 14b is turned on. When the acceleration in the + direction in the Y-axis direction is equal to or more than a certain value, the red light emitting LED 14c is turned on. When the acceleration in the-direction in the Y-axis direction is equal to or more than a certain value, the orange LED 14d is turned on. Also,
When the acceleration in the + direction in the Z-axis direction is equal to or more than a certain value, LE
D14a and LED 14b are turned on simultaneously. When the acceleration in the negative direction in the Z-axis direction is equal to or more than a certain value, the LEDs 14c and 14d are simultaneously turned on. In the above-described lighting control, the LEDs 14a to 14d may be lit with a light amount corresponding to the magnitude of the swing acceleration.

【0047】また、上記動作を2.5ms毎に実行し、
X軸,Y軸,Z軸の加速度を2.5ms程度の分解能で
検出することで、細かい振動ノイズを除去しつつ利用者
の揺動操作を高い分解能で検出することができる。
The above operation is executed every 2.5 ms,
By detecting accelerations in the X, Y, and Z axes with a resolution of about 2.5 ms, it is possible to detect a user's swing operation with a high resolution while removing fine vibration noise.

【0048】図9は、上記ハンドコントローラ1から操
作データ、モード選択データを受信する通信ユニット2
の動作を示すフローチャートである。通信ユニット2
は、ハンドコントローラ1からデータを受信するととも
に、USBインタフェース39を介して演奏制御装置3
と通信する。
FIG. 9 shows a communication unit 2 for receiving operation data and mode selection data from the hand controller 1.
6 is a flowchart showing the operation of the first embodiment. Communication unit 2
Receives the data from the hand controller 1 and performs the performance control device 3 via the USB interface 39.
Communicate with

【0049】同図(A)は個別通信ユニット31(個別
制御部33)の動作を示すフローチャートである。個別
通信ユニット31は、2.4GHz帯のIDスイッチ3
8で設定されたIDに割り当てられている周波数を常時
監視しており、受信した信号のうちこの周波数の信号を
デコードして、復調したデータの先頭にあるIDを読み
取っている。そのIDが自装置に設定されているIDと
一致した場合には(s11)、そのデータを取り込む
(s12)。そして、このデータをメイン制御部30に
入力する(s13)。
FIG. 9A is a flowchart showing the operation of the individual communication unit 31 (individual control unit 33). The individual communication unit 31 is a 2.4 GHz band ID switch 3
The frequency assigned to the ID set in 8 is constantly monitored, the signal of this frequency is decoded among the received signals, and the ID at the head of the demodulated data is read. If the ID matches the ID set in the own device (s11), the data is taken in (s12). Then, this data is input to the main control unit 30 (s13).

【0050】同図(B)はメイン制御部30の動作を示
すフローチャートである。接続されている個別通信ユニ
ット31から受信したデータが入力されると(s2
0)、そのデータが操作データであるかモード選択デー
タであるかを判断する(s21)。モード選択データで
あった場合には、個別通信ユニット31が1つのみ接続
されており、その個別通信ユニット31から入力された
場合にはそのまま、また、現在複数の個別通信ユニット
31が接続されている場合には、入力されたモード選択
データに付されているIDが1の場合のみ(s22)、
このデータを演奏制御装置3に出力する(s23)。
FIG. 7B is a flowchart showing the operation of the main control unit 30. When data received from the connected individual communication unit 31 is input (s2
0), it is determined whether the data is operation data or mode selection data (s21). If the data is mode selection data, only one individual communication unit 31 is connected. If the data is input from the individual communication unit 31, the individual communication unit 31 is connected as it is. If there is, only when the ID assigned to the input mode selection data is 1 (s22),
This data is output to the performance control device 3 (s23).

【0051】一方、入力されたデータが操作データであ
った場合には(s21)、全てのID(個別通信ユニッ
ト)の操作データが揃ったかを判断する(s24)。す
なわち、図4に示すようにメイン制御部30には複数の
個別通信ユニット31が接続されるため、演奏制御装置
3に対しては、全ての個別通信ユニットがハンドコント
ローラ1から受信したそれぞれ異なるIDの操作データ
を1つのパケットに編集したのち、これを演奏制御装置
3に入力する。接続されている個別通信ユニット31の
全てから操作データが入力されるとこれをパケットに編
集して(s25)、演奏制御装置3に入力する(s2
6)。個別通信ユニット31は、対応するハンドコント
ローラ1から2.5ms毎に操作データを受信するた
め、最長2.5msの時間で全IDの操作データが入力
され、上記s25、s26の動作も2.5ms毎に実行
される。
On the other hand, if the input data is operation data (s21), it is determined whether or not operation data of all IDs (individual communication units) has been prepared (s24). That is, as shown in FIG. 4, since a plurality of individual communication units 31 are connected to the main control unit 30, all of the individual communication units receive different IDs received from the hand controller 1 for the performance control device 3. Is edited into one packet, which is input to the performance control device 3. When operation data is input from all of the connected individual communication units 31, the operation data is edited into a packet (s25) and input to the performance control device 3 (s2).
6). Since the individual communication unit 31 receives the operation data from the corresponding hand controller 1 every 2.5 ms, the operation data of all IDs is input in a maximum of 2.5 ms, and the operations of s25 and s26 are also performed in 2.5 ms. It is executed every time.

【0052】図10〜図14は演奏制御装置3の動作を
示すフローチャートである。図10は、モード設定動作
を示すフローチャートである。ハンドコントローラ1か
ら通信ユニット2を介してモード選択データが入力され
ると(s30)、このモード選択データが自動演奏制御
モードを選択するデータであるか単音発音モードを選択
するデータであるかを判断する(s31)。自動演奏制
御モードを選択するデータの場合には、まず複数パート
の自動演奏制御が可能な図7(A)のような曲データが
選択される(s32)。この曲データをRAM43に読
み出し(s33)、各トラック(パート)毎に対応する
ハンドコントローラ1の操作に応じたテンポで自動演奏
を行う(s34)。
FIGS. 10 to 14 are flowcharts showing the operation of the performance control device 3. FIG. 10 is a flowchart showing the mode setting operation. When the mode selection data is input from the hand controller 1 via the communication unit 2 (s30), it is determined whether the mode selection data is data for selecting the automatic performance control mode or data for selecting the monophonic sound generation mode. (S31). In the case of data for selecting the automatic performance control mode, first, music data as shown in FIG. 7A capable of automatic performance control of a plurality of parts is selected (s32). The music data is read into the RAM 43 (s33), and an automatic performance is performed at a tempo according to the operation of the hand controller 1 corresponding to each track (part) (s34).

【0053】一方、単音発音モードの場合には、各ハン
ドコントローラが1または複数の音高を担当してハンド
ベルのような演奏をするための曲データの選択を受け付
ける(s35)。この選曲入力においては、大容量記憶
装置44に記憶されている複数の曲データのなかから図
7(B)のような構成の曲データが選択されるが、図7
(A)のような曲データを選択し、さらにそのなかの1
または複数パートをハンドベル用の演奏パートとして選
択入力するようにしてもよい。選択された曲データを大
容量記憶装置44からRAM43に読み出し(s3
6)、演奏パートに含まれる全音高を割り出し、これを
各ハンドコントローラに割り当てる(s37)。この割
り当て(アサイン)は1つのハンドコントローラに対し
て1音高に限定されない。1つのハンドコントローラに
対して複数の音高を割り当ててもよい。
On the other hand, in the case of the monophonic sound generation mode, each hand controller receives one or a plurality of pitches and accepts selection of music data for performing like a handbell (s35). In this music selection input, music data having a configuration as shown in FIG. 7B is selected from a plurality of music data stored in the mass storage device 44.
Select song data as shown in (A), and select one of them
Alternatively, a plurality of parts may be selected and input as performance parts for the handbell. The selected music data is read from the large-capacity storage device 44 to the RAM 43 (s3
6) The total pitch included in the performance part is calculated and assigned to each hand controller (s37). This assignment is not limited to one pitch for one hand controller. A plurality of pitches may be assigned to one hand controller.

【0054】そして、ポインティングデバイス48やキ
ーボード47またはID=1のハンドコントローラ1か
らスタート指示があるまで待機する(s38)。スター
ト指示があると、1小節分のメトロノーム音を発生して
テンポを指示する。こののち、曲データの演奏トラック
を読み出して対応するハンドコントローラに対して演奏
ガイド情報を出力するとともに、ハンドコントローラ1
(通信ユニット2)から入力された操作データに応じて
楽音を発生する(s40)。なお、伴奏トラックを用い
て伴奏をする場合には、上記指示したテンポで自動演奏
を実行するが、この伴奏トラックによる伴奏の実行は必
須ではなく、音源装置4にハンドコントローラ1から入
力される操作データに基づく発音のみ行わせるようにし
てもよい。
Then, the process stands by until there is a start instruction from the pointing device 48, the keyboard 47 or the hand controller 1 of ID = 1 (s38). When there is a start instruction, a metronome sound for one measure is generated to indicate the tempo. After that, the performance controller reads out the performance track of the music data, outputs performance guide information to the corresponding hand controller, and sets the hand controller 1
A tone is generated according to the operation data input from the (communication unit 2) (s40). When the accompaniment is performed using the accompaniment track, the automatic performance is performed at the instructed tempo. However, the execution of the accompaniment using the accompaniment track is not essential, and the operation input from the hand controller 1 to the sound source device 4 is performed. Only the pronunciation based on the data may be performed.

【0055】図11は、通信ユニット2を介してハンド
コントローラ1から入力される操作データを処理する動
作を示すフローチャートである。この動作は各ハンドコ
ントローラ(ID)毎に実行されるが、ここでは1つの
ハンドコントローラについてのみ説明する。操作データ
が入力されると(s50)、現在のモードが自動演奏制
御モードであるか単音発音モードであるかを判断する
(s51)。自動演奏制御モードの場合には、操作デー
タに基づいて揺動加速度を検出する(s52)。揺動加
速度はX軸方向加速度およびY軸方向加速度、または、
X軸方向加速度、Y軸方向加速度およびZ軸方向加速度
を合成した加速度ベクトルである。このベクトルの大き
さに応じて対応するパートの音量を制御する(s5
3)。そしてこのベクトルの大きさおよび方向の変化に
よりローカルピークであるか否かを検出する(s5
4)。ローカルピークが検出されない場合には、s55
からそのままs50にもどる。ローカルピークが検出さ
れた場合には(s55)、前回(または過去の数回)の
ローカルピークとの間隔に応じて揺動のテンポを割り出
し(s56)、これに基づいて対応するパート(トラッ
ク)の自動演奏のテンポを設定する(s57)。この設
定されたテンポは後述の自動演奏処理動作において対応
するパートのトラックデータ(自動演奏データ)の読み
出し制御に用いられる。
FIG. 11 is a flowchart showing an operation for processing operation data input from the hand controller 1 via the communication unit 2. This operation is performed for each hand controller (ID). Here, only one hand controller will be described. When the operation data is input (s50), it is determined whether the current mode is the automatic performance control mode or the single sound generation mode (s51). In the case of the automatic performance control mode, the swing acceleration is detected based on the operation data (s52). The oscillating acceleration is X-axis acceleration and Y-axis acceleration, or
This is an acceleration vector obtained by combining the X-axis direction acceleration, the Y-axis direction acceleration, and the Z-axis direction acceleration. The volume of the corresponding part is controlled according to the magnitude of this vector (s5
3). Then, it is detected whether or not this is a local peak based on the change in the magnitude and direction of this vector (s5).
4). If no local peak is detected, s55
And returns to s50. When a local peak is detected (s55), the swing tempo is calculated according to the interval from the previous (or several past) local peaks (s56), and based on this, the corresponding part (track) is determined. The tempo of the automatic performance is set (s57). The set tempo is used for reading control of track data (automatic performance data) of a corresponding part in an automatic performance processing operation described later.

【0056】一方、現在のモードが単音発音モードの場
合には、揺動データが入力されると(s50)、この揺
動データに基づいて揺動加速度を算出する(s60)。
そしてこの揺動加速度のベクトルに基づいてローカルピ
ークであるか否かを検出する(s61)。ローカルピー
クでない場合にはs62からそのままリターンする。一
方、ローカルピークが検出された場合には、このハンド
コントローラ1に割り当てられている音高を読み出す
(s63)。複数の音高が割り当てられている場合、曲
の進行に応じて曲データを読み出し、今どの音高の楽音
を発音するかを決定すればよい。そしてこの音高の発音
データを発生する(s64)。この発音データは上記音
高情報および揺動加速度に基づいて決定された音量情報
が含まれている。この発音データを音源装置4に送信す
ることにより、楽音信号が発生される。
On the other hand, when the current mode is the monophonic sound generation mode, when the swing data is inputted (s50), the swing acceleration is calculated based on the swing data (s60).
Then, based on this swing acceleration vector, it is detected whether or not it is a local peak (s61). If it is not the local peak, the process returns from s62. On the other hand, when a local peak is detected, the pitch assigned to the hand controller 1 is read (s63). When a plurality of pitches are assigned, the music data is read out in accordance with the progress of the music, and it is only necessary to determine which pitch of the musical tone is to be produced. Then, sound generation data of this pitch is generated (s64). The sound data includes volume information determined based on the pitch information and the swing acceleration. By transmitting the sound data to the tone generator 4, a tone signal is generated.

【0057】図12は自動演奏処理動作を示すフローチ
ャートである。自動演奏制御モード時には各パート毎
に、ハンドコントローラの操作により設定されたテンポ
でこの動作を実行し、読み出したイベントデータ(発音
データ)を音源装置4に出力する。単音発音モード時に
は、コントロールユニットに書き込まれているテンポで
この動作を実行する。読み出したイベントデータは音源
装置4に出力しない。
FIG. 12 is a flowchart showing the automatic performance processing operation. In the automatic performance control mode, this operation is performed for each part at a tempo set by operating the hand controller, and the read event data (sound generation data) is output to the tone generator 4. In the single sound mode, this operation is executed at the tempo written in the control unit. The read event data is not output to the tone generator 4.

【0058】まず設定されたテンポクロックでタイミン
グデータをカウントし(s70)、次のイベントデータ
(発音データ)の読み出しタイミングになったかを判断
する(s71)。次のイベントデータの読み出しタイミ
ングになるまでs70の読み出しを継続する。ただし、
自動演奏制御モードの場合、クロックのテンポは、ハン
ドコントローラ1の操作に応じて適宜設定変更される。
次のイベントデータの読み出しタイミングになるとその
イベントデータに対応する処理を実行し(s72)、次
のタイミングデータを読み出して(s73)、s70に
もどる。イベントデータ(発音データ)対応処理は、自
動演奏制御モードの場合には、そのイベントデータを音
源装置4に出力する動作であり、単音発音モード時の演
奏用トラックの場合には、その発音データの音高に対応
するハンドコントローラに対して演奏ガイド情報を作成
・出力するという動作である。このとき作成される演奏
ガイド情報は、単に発音タイミングである旨を知らせる
のみの内容(空電文)であってもよく、この発音データ
の音量を含む内容であってもよい。
First, the timing data is counted by the set tempo clock (s70), and it is determined whether or not it is time to read the next event data (sound generation data) (s71). The reading of s70 is continued until the timing of reading the next event data. However,
In the case of the automatic performance control mode, the tempo of the clock is appropriately changed according to the operation of the hand controller 1.
When the next event data read timing comes, a process corresponding to the event data is executed (s72), the next timing data is read (s73), and the process returns to s70. The event data (sound generation data) correspondence processing is an operation of outputting the event data to the tone generator 4 in the automatic performance control mode, and of the performance data in the single sound generation mode. This is an operation of creating and outputting performance guide information to the hand controller corresponding to the pitch. The performance guide information created at this time may be a content merely for notifying that it is the sounding timing (static text), or may be a content including the volume of the sounding data.

【0059】なお、ハンドコントローラ1による楽音の
制御は、上記実施形態ではテンポ制御、音量制御のみを
説明しているが、これ以外に、発音タイミングの制御、
音色の制御などを行うことができる。発音タイミングの
制御は、たとえば、揺動加速度のピーク点を検出し、こ
のピーク点のタイミングで楽音を発音させるなどの制御
である。また、音色の制御は、たとえば、揺動加速度の
変化率や変化波形に応じて楽音を柔らかい音色や硬い音
色に変化させるなどの制御である。
In the above embodiment, only the tempo control and the volume control are described for the tone control by the hand controller 1.
It can control tone color and the like. The control of the sounding timing is, for example, control of detecting a peak point of the swing acceleration and generating a musical sound at the timing of the peak point. The control of the timbre is, for example, control of changing a musical tone to a soft timbre or a hard timbre according to a change rate or a change waveform of the swing acceleration.

【0060】図13は、演奏ガイド情報送信時の前記通
信ユニット2およびハンドコントローラ1の動作を示す
フローチャートである。
FIG. 13 is a flowchart showing the operation of the communication unit 2 and the hand controller 1 when the performance guide information is transmitted.

【0061】同図(A)は通信ユニット2のメイン制御
部30のデータ転送動作を示すフローチャートである。
演奏制御装置3からハンドコントローラ1に送信すべき
データである演奏ガイド情報が入力されると(s8
0)、これを対応する個別通信ユニット31に転送する
(s81)。
FIG. 7A is a flowchart showing the data transfer operation of the main control unit 30 of the communication unit 2.
When performance guide information, which is data to be transmitted to the hand controller 1, is input from the performance control device 3 (s8).
0), and transfers this to the corresponding individual communication unit 31 (s81).

【0062】同図(B)は個別通信ユニット31の動作
を示すフローチャートである。この動作は図9(A)の
動作に代えて実行される動作である。個別通信ユニット
31は、2.4GHz帯のIDスイッチ38で設定され
たIDに割り当てられている周波数を常時監視してお
り、受信した信号のうちこの周波数の信号をデコードし
て、復調したデータの先頭にあるIDを読み取ってい
る。そのIDが自装置に設定されているIDと一致した
場合には(s82)、そのデータを取り込む(s8
3)。そして、このデータをメイン制御部30に入力す
る(s84)。こののち、メイン制御部30から送信す
べきデータ(演奏ガイド情報)が入力されているかを判
断し(s85)、データがある場合には、これをハンド
コントローラ1に向けて送信する(s86)。このよう
にコントローラ本体1からデータを受信した直後のタイ
ミングにデータ送信するようにしたことにより、ハンド
コントローラ1と通信ユニット2の間で同期をとってい
なくてもデータの送信が衝突することがなくなる。
FIG. 7B is a flowchart showing the operation of the individual communication unit 31. This operation is an operation executed instead of the operation of FIG. The individual communication unit 31 constantly monitors the frequency assigned to the ID set by the ID switch 38 in the 2.4 GHz band, decodes the signal of this frequency among the received signals, and decodes the demodulated data. Reading the ID at the beginning. If the ID matches the ID set in the own device (s82), the data is fetched (s8).
3). Then, this data is input to the main control unit 30 (s84). Thereafter, it is determined whether data (performance guide information) to be transmitted has been input from the main control unit 30 (s85), and if there is data, the data is transmitted to the hand controller 1 (s86). As described above, by transmitting data at a timing immediately after receiving data from the controller main body 1, data transmission does not collide even if synchronization is not established between the hand controller 1 and the communication unit 2. .

【0063】同図(C)は、ハンドコントローラ1の受
信動作を示すフローチャートである。通信ユニット2か
らFM変調された演奏ガイド情報が送られてくると、こ
れをFM復調回路27およびモデム23が復調して制御
部20に入力する。制御部20はこれを取り込み(s8
7)、演奏ガイド動作を実行する(s88)。演奏ガイ
ド動作としては、LED14を全て発光させて発音タイ
ミングを知らせる動作や7セグメント表示器に指示され
た音量値を表示するなどの動作を適用することができ
る。
FIG. 9C is a flowchart showing the receiving operation of the hand controller 1. When the FM-modulated performance guide information is transmitted from the communication unit 2, the FM demodulation circuit 27 and the modem 23 demodulate the information and input it to the control unit 20. The control unit 20 takes this in (s8
7), a performance guide operation is executed (s88). As the performance guide operation, an operation of making all the LEDs 14 emit light to notify the sounding timing, an operation of displaying a designated volume value on a 7-segment display, and the like can be applied.

【0064】自動演奏制御モードでは、全パートが同じ
進度で演奏が進行することが理想的であるが、各パート
のテンポ制御を別々の利用者の操作に委ねているため各
パート間の進度のずれをある程度許容している。しか
し、各パート間で演奏の進度があまりずれすぎると演奏
として成り立たなくなるため、演奏の進度(演奏スター
トからの全クロックカウント数)が他のパートよりも所
定値以上遅れている遅れパートや所定値以上進んでいる
進みパートがある場合には、一部パートの演奏進行を停
止させたり演奏をスキップさせて演奏を揃える進み遅れ
制御をするようにしてもよい。
In the automatic performance control mode, it is ideal that all parts perform at the same progress. However, since the tempo control of each part is left to the operation of a different user, the progress of each part is controlled. Some deviation is allowed. However, if the progress of the performance is too different between the parts, it will not be possible to perform as a performance. Therefore, the performance of the performance (the total number of clock counts since the start of the performance) is delayed by more than a predetermined value from the other parts. In the case where there is an advanced part which is advanced as described above, advance / delay control may be performed to stop the performance progress of some parts or to skip the performance and align the performances.

【0065】図14は、上記進み遅れ制御動作の一例を
示すフローチャートである。この動作は図12の自動演
奏制御動作と並行して実行される。まず全パートの演奏
スタートからの全クロックカウント数を比較する(s9
0)。比較の結果、他のパートに比べて所定値以上遅れ
ている遅れパートがある場合には(s91)、他のパー
トのクロックを停止する(s92)。すなわち、そのパ
ートについての図12のs70の動作を停止する。そし
てこの遅れパートのハンドコントローラ1に対して遅れ
ている旨の演奏ガイド情報を生成出力する(s93)。
一方、比較の結果、他のパートに比べて所定値以上進ん
でいる進みパートがある場合には(s94)、この進み
パートのクロックを停止する(s95)。すなわち、そ
のパートについての図12のs70の動作を停止する。
そしてこの進みパートのハンドコントローラ1に対して
進みすぎている旨の演奏ガイド情報を生成出力する(s
96)。なお、この動作では遅れパートがある場合には
他のパートのクロックを停止するようにしたが、遅れパ
ートの演奏をスキップ(クロックカウント値を一気に加
算)するようにしてもよい。
FIG. 14 is a flowchart showing an example of the advance / delay control operation. This operation is executed in parallel with the automatic performance control operation of FIG. First, all clock counts from the start of performance of all parts are compared (s9
0). As a result of the comparison, when there is a delayed part that is delayed by a predetermined value or more compared to the other part (s91), the clock of the other part is stopped (s92). That is, the operation of s70 of FIG. 12 for that part is stopped. Then, it generates and outputs performance guide information to the effect that the hand controller 1 of the delayed part is late (s93).
On the other hand, as a result of the comparison, if there is an advanced part that is ahead of the other part by a predetermined value or more (s94), the clock of this advanced part is stopped (s95). That is, the operation of s70 of FIG. 12 for that part is stopped.
Then, performance guide information to the effect that the player has advanced too much is generated and output to the hand controller 1 of this advance part (s
96). In this operation, if there is a delayed part, the clock of the other part is stopped. However, the performance of the delayed part may be skipped (clock count value is added at a stretch).

【0066】なお、上記実施形態では、複数のハンドコ
ントローラ(操作ユニット)1がそれぞれ別々のパート
を担当するようにしているが、複数のハンドコントロー
ラ1が発生した操作データに基づいて1つの総合操作デ
ータを生成し、この操作データに基づいて全パートを統
一的に制御するようにしてもよい。その場合には、通信
ユニット2からパケットとして入力される複数の操作デ
ータを平均化して1つのデータを生成し、これに基づい
て図11の処理動作を1系統で行い。曲データの全トラ
ックについて一括して図12の処理を行うようにする。
In the above-described embodiment, the plurality of hand controllers (operation units) 1 are in charge of different parts. However, one comprehensive operation is performed based on the operation data generated by the plurality of hand controllers 1. Data may be generated, and all parts may be uniformly controlled based on the operation data. In that case, a plurality of operation data input as a packet from the communication unit 2 are averaged to generate one data, and the processing operation of FIG. 11 is performed by one system based on this data. The processing of FIG. 12 is collectively performed for all tracks of the music data.

【0067】また、生の操作データを平均化するのでな
く、各操作データについて図11の処理(s53,s5
7の処理を除く)を行って、各操作ハンドコントローラ
毎に揺動加速度とテンポデータを算出し、この揺動加速
度とテンポデータを平均して総合揺動加速度および総合
テンポデータを割り出してこれを用いて音量制御、テン
ポ設定をして全トラックについて一括して図12の処理
を行うようにしてもよい。
Instead of averaging the raw operation data, each operation data is processed as shown in FIG. 11 (s53, s5).
7) to calculate the swing acceleration and tempo data for each operating hand controller, average the swing acceleration and the tempo data to determine the total swing acceleration and the total tempo data, and The processing of FIG. 12 may be collectively performed for all tracks by controlling the volume and setting the tempo.

【0068】また、上記の複数のハンドコントローラ1
の操作データに基づいて総合データを割り出し、曲デー
タを一括制御する場合、複数のハンドコントローラ1か
ら入力された操作データ(または揺動加速度,テンポデ
ータ)を平均して総合データを割り出す方法のほか、値
が最大・最小の操作データを除外し残りの操作データを
平均する、中央値の操作データを抽出する、最大値の操
作データを抽出する、最小値の操作データを抽出する、
などの方法を採用することができる。
Further, the plurality of hand controllers 1
When comprehensive data is calculated based on the operation data of the above and the music data is controlled collectively, other than a method of averaging the operation data (or swing acceleration, tempo data) input from a plurality of hand controllers 1 and calculating the total data , Excluding the operation data with the maximum / minimum value, averaging the remaining operation data, extracting the median operation data, extracting the maximum operation data, extracting the minimum operation data,
Such a method can be adopted.

【0069】なお、自動演奏制御モードにおいて、上記
実施形態では1つのハンドコントローラ1と1つのパー
トが1対1で対応しているが、対応関係は1対1に限定
されず、1つのハンドコントローラに複数のトラックを
アサインするようにしてもよく、また、複数のハンドコ
ントローラで1つのパートを制御するようにしてもよ
い。
In the automatic performance control mode, one hand controller 1 and one part correspond one-to-one in the above embodiment, but the correspondence is not limited to one-to-one and one hand controller 1 May be assigned to a plurality of tracks, or one part may be controlled by a plurality of hand controllers.

【0070】複数のハンドコントローラで1つのトラッ
クを制御する場合、各ハンドコントローラから入力され
る操作データに基づいて上記各パート毎の総合データを
割り出し、これに基づいてそのパート(曲データのトラ
ック)の演奏制御を行うようにする。
When one track is controlled by a plurality of hand controllers, total data for each part is determined based on operation data input from each hand controller, and based on this, the corresponding part (track of music data) is determined. To control the performance of.

【0071】なお、上記実施形態では、複数パート(複
数の音色)の楽音を全て1つの音源装置4で発音するよ
うにしているが、制御装置である演奏制御装置3に複数
の音源装置(楽器)を接続し、各パート(の全部または
一部)に対してそれぞれ個別の音源(楽器)を割り当て
るようにしてもよい。図15は演奏制御装置3に、通常
の音源装置4、電子管楽器用音源装置60、電磁駆動ピ
アノ61を接続した例を示す。そして、音源装置4、電
子管楽器用音源装置60にそれぞれ複数のパートを担当
させ、電磁駆動ピアノ61にピアノパートのみを担当さ
せる。たとえば音源装置4としては、基本波合成型のF
M音源やPCM波形を加工して楽音を合成するPCM音
源などが適用される。また電子管楽器用音源装置60と
しては、実際の管楽器をプロセッサでソフト的にシミュ
レートした物理モデル音源などが適用される。また、電
磁駆動ピアノ61は、各ハンマーにソレノイドが接続さ
れたピアノであり、MIDIデータなどの演奏データで
ソレノイドを駆動することができる自然楽器である。こ
のように演奏制御装置3に接続できる音源は電子的な音
源に限定されず、電気的に駆動される自然楽音を発生す
る音源装置を接続することも可能である。このようにそ
れぞれ異なる発音形態の音源を複数接続することによ
り、聴覚的にもまた視覚的にもアンサンブル的な合奏が
可能になる。
In the above-described embodiment, all the musical tones of a plurality of parts (a plurality of timbres) are generated by one sound source device 4. ) May be connected, and individual sound sources (instruments) may be assigned to (all or part of) each part. FIG. 15 shows an example in which a normal tone generator 4, a tone generator 60 for an electronic wind instrument, and an electromagnetically driven piano 61 are connected to the performance controller 3. Then, the sound source device 4 and the electronic wind instrument sound source device 60 are respectively assigned to a plurality of parts, and the electromagnetically driven piano 61 is assigned only to the piano part. For example, as the sound source device 4, a fundamental wave combining type F
An M sound source, a PCM sound source that processes a PCM waveform and synthesizes a musical tone, or the like is applied. Also, as the electronic wind instrument sound source device 60, a physical model sound source or the like in which an actual wind instrument is simulated by software with a processor is applied. The electromagnetically driven piano 61 is a piano in which a solenoid is connected to each hammer, and is a natural musical instrument that can drive the solenoid with performance data such as MIDI data. As described above, the sound source that can be connected to the performance control device 3 is not limited to an electronic sound source, and a sound source device that generates an electrically driven natural musical sound can be connected. By connecting a plurality of sound sources having different sounding forms in this way, an ensemble-like ensemble can be obtained both audibly and visually.

【0072】また、上記実施形態は、操作ユニットとし
て利用者が手に持って揺動操作するハンドコントローラ
1を用いているが、操作ユニットは、ハンドコントロー
ラに限定されない。たとえば、歌唱用のマイクに加速度
センサを内蔵して歌唱と自動演奏制御を一緒にできるよ
うにすることも可能である。カラオケ装置にこのハンド
コントローラ内蔵マイクを適用すれば、歌唱者が歌唱し
ながらそのカラオケ曲を制御することができるようにな
る。また、操作ユニットとしては揺動操作するものに限
定されず、指による押圧の強さを検出するタップスイッ
チを用いることも可能である。このタップスイッチは、
圧電センサなどで構成することができる。
Further, in the above-described embodiment, the hand controller 1 is used as the operation unit that the user holds and swings with the hand, but the operation unit is not limited to the hand controller. For example, it is possible to incorporate an acceleration sensor into a singing microphone so that singing and automatic performance control can be performed together. If this microphone with a built-in hand controller is applied to a karaoke apparatus, a singer can control the karaoke song while singing. Further, the operation unit is not limited to the one that performs the swing operation, and it is also possible to use a tap switch that detects the intensity of pressing by the finger. This tap switch
It can be constituted by a piezoelectric sensor or the like.

【0073】また、図16に示すように靴を操作ユニッ
ト50とし、その踵に3軸加速度センサ51を埋め込
み、足を前後に動かす蹴りの動作、左右に振る動作、上
下に動かす踏みの動作を検出し、これに基づいて楽音の
発音を制御するようにしてもよい。
As shown in FIG. 16, a shoe is used as an operation unit 50, and a three-axis acceleration sensor 51 is embedded in the heel of the shoe, and a kick operation for moving the foot back and forth, a waving motion, and a stepping motion for moving up and down are performed. Detection may be performed, and the tone generation may be controlled based on the detection.

【0074】また、図17上部に示すように利用者の指
先に3軸の加速度センサ53を有する指先操作ユニット
52を取り付け、指の3次元の動きを検出して楽音の発
音を制御するようにすることもできる。この場合、各指
に別々のセンサを取り付けることにより、各指毎に異な
る楽音の制御をすることも可能である。
Further, as shown in the upper part of FIG. 17, a fingertip operation unit 52 having a three-axis acceleration sensor 53 is attached to the fingertip of the user to detect the three-dimensional movement of the finger and control the generation of musical sounds. You can also. In this case, by attaching a separate sensor to each finger, it is possible to control a different musical tone for each finger.

【0075】また、同図下部に示すように手首に3次元
加速度センサ55および脈拍センサ56を有する手首操
作ユニット54を取り付けることにより、腕の揺動に加
えて脈拍を検出することもできる。この場合、両手首に
手首操作子を取り付けることにより、両腕で2つの楽音
を制御することも可能になる。
By attaching a wrist operation unit 54 having a three-dimensional acceleration sensor 55 and a pulse sensor 56 to the wrist as shown in the lower part of the figure, the pulse can be detected in addition to the swing of the arm. In this case, by attaching wrist operators to both wrists, it is also possible to control two musical sounds with both arms.

【0076】また、利用者の腕、脚、胴などに複数のセ
ンサを取り付けて、身体の動き、姿勢に応じた操作デー
タを複数出力し、これによって複数パートの演奏制御、
複数音高の発音制御をすることも可能である。図18,
図19に身体の各部に加速度センサを設けた実施形態を
示す。図18は操作ユニットを身につけた利用者を示す
図である。操作ユニットは、上下服に埋め込まれた複数
のセンサ71、ベルトに取り付けられたコントロールボ
ックス70および上下服およびベルトの各所に取り付け
られたLED72を有している。センサとしては加速度
センサ、衝撃センサなどを適用することができる。
Also, a plurality of sensors are attached to the user's arms, legs, torso, etc., and a plurality of operation data corresponding to the movement and posture of the body are output, thereby controlling the performance of a plurality of parts.
It is also possible to control the pronunciation of a plurality of pitches. FIG.
FIG. 19 shows an embodiment in which an acceleration sensor is provided in each part of the body. FIG. 18 is a diagram showing a user wearing the operation unit. The operation unit has a plurality of sensors 71 embedded in upper and lower clothes, a control box 70 attached to the belt, and LEDs 72 attached to the upper and lower clothes and the belt. As the sensor, an acceleration sensor, an impact sensor, or the like can be applied.

【0077】以下はセンサ71として加速度センサを適
用した場合について説明する。加速度センサ71は、服
の左右の腕、胸、腰、もも、脚などに設けられており、
腕、脚、上体などの揺動の態様を検出する。各加速度セ
ンサ71はコントロールボックス70に接続されてい
る。コントロールボックス70はマイコンである制御部
73を内蔵しており、この各加速度センサ71の検出値
(加速度)を操作データとして通信ユニットに送信す
る。
Hereinafter, a case where an acceleration sensor is applied as the sensor 71 will be described. The acceleration sensor 71 is provided on the left and right arms, chest, waist, thighs, legs, etc. of the clothes,
Detecting the swing mode of the arm, leg, upper body, etc. Each acceleration sensor 71 is connected to the control box 70. The control box 70 has a built-in control unit 73 which is a microcomputer, and transmits a detection value (acceleration) of each acceleration sensor 71 to the communication unit as operation data.

【0078】図19(A)は、この操作ユニットのブロ
ック図である。制御部73には、前記複数の加速度セン
サ71、スイッチ群74、送信部75およびLED点灯
回路76が接続されている。スイッチ群74は、上記第
1の実施形態と同様に動作モード等を設定するためのス
イッチである。なお、この操作ユニットでは、複数の加
速度センサ71のそれぞれに予めID番号が付されてお
り、各加速度センサ71が検出した加速度を各加速度セ
ンサのIDを付して同図(B)に示すような一連の操作
データとして通信ユニット2へ送信する。送信部75
は、図3のモデム23、変調回路24、送信出力アンプ
25およびアンテナ18を含み、操作データをGMSK
変調して2.4GHz帯の信号として送信する。また、
LED点灯回路76は各加速度センサ71が検出する加
速度に応じて身体(服)の各所に設けられているLED
の点灯を制御する。
FIG. 19A is a block diagram of this operation unit. The control unit 73 is connected to the plurality of acceleration sensors 71, a switch group 74, a transmitting unit 75, and an LED lighting circuit 76. The switch group 74 is a switch for setting an operation mode and the like as in the first embodiment. In this operation unit, an ID number is assigned to each of the plurality of acceleration sensors 71 in advance, and the acceleration detected by each acceleration sensor 71 is assigned an ID of each acceleration sensor as shown in FIG. Is transmitted to the communication unit 2 as a series of operation data. Transmission unit 75
Includes the modem 23, the modulation circuit 24, the transmission output amplifier 25, and the antenna 18 of FIG.
The signal is modulated and transmitted as a 2.4 GHz band signal. Also,
The LED lighting circuit 76 is provided at each part of the body (clothes) according to the acceleration detected by each acceleration sensor 71.
The lighting of is controlled.

【0079】このような操作ユニットを設けることによ
り、1人で複数パートの楽曲の演奏を制御したり、1人
が種々の態様で運動することにより、複数音高の楽音そ
の運動に合わせて発音させたりすることができるように
なる。
By providing such an operation unit, a single person can control the performance of music of a plurality of parts, and if one person exercises in various modes, the musical tones of a plurality of pitches can be produced in accordance with the movement. Or be able to do so.

【0080】なお、上記実施形態ではセンサ71として
加速度センサを用いた例を示したが、センサ71として
衝撃センサを用いてもよく、その場合には、利用者がセ
ンサを叩く、触るなどの動作によって動作態様を検出
し、楽音を制御することができる。
In the above embodiment, an example in which an acceleration sensor is used as the sensor 71 has been described. However, an impact sensor may be used as the sensor 71. In this case, the user may hit or touch the sensor. Thus, the operation mode can be detected and the musical sound can be controlled.

【0081】上記実施形態では、利用者がハンドコント
ローラ1を揺動させる動作に基づいて演奏を制御するよ
うにしているが、利用者の静的な姿勢に基づいて演奏を
制御するようにしてもよい。
In the above embodiment, the user controls the performance based on the operation of swinging the hand controller 1. However, the user may control the performance based on the static posture of the user. Good.

【0082】また、単音発音モードでハンドベルのよう
な形態の合奏を行う場合において、上記実施形態では、
演奏制御装置3に音源装置を接続して楽音を発音させる
ようにしているが、操作ユニットに音源を内蔵し、操作
ユニット自身が楽音を発生するようにすることもでき
る。この場合、操作ユニット1に受信機能のみを設け、
通信ユニット2に送信機能のみを設けてもよい。
In the case of performing a ensemble like a handbell in the monophonic sound generation mode, in the above embodiment,
Although a tone generator is connected to the performance control device 3 to generate musical tones, a tone generator may be built in the operation unit so that the operation unit itself generates musical tones. In this case, only the receiving function is provided in the operation unit 1,
The communication unit 2 may be provided with only the transmission function.

【0083】なお、上記実施形態において、自動演奏制
御モードで制御された演奏データは、音源装置4に入力
されて発音することのみに用いられているが、演奏デー
タ記録手段を設け、操作ユニットによって操作された演
奏データを記録するようにしてもよい。そして、この記
録された演奏データを自動演奏データとして再度読み出
して自動演奏制御モードの対象としてもよい。
In the above-described embodiment, the performance data controlled in the automatic performance control mode is used only for inputting to the tone generator 4 to generate sound. However, a performance data recording means is provided, and the operation unit is used. The operated performance data may be recorded. Then, the recorded performance data may be read out again as automatic performance data and set as an object of the automatic performance control mode.

【0084】この場合において、複数パートの自動演奏
データを自動演奏して、1または複数の操作ユニットで
一部のパートの演奏要素を制御し、これを含めて自動演
奏データとして記録する。そして、再度これを自動演奏
して、残りのパートの演奏要素を制御するようにするこ
とが可能である。
In this case, the automatic performance data of a plurality of parts is automatically played, and the performance elements of some parts are controlled by one or a plurality of operation units, and the performance elements including the performance elements are recorded as the automatic performance data. Then, it is possible to automatically perform the performance again and control the performance elements of the remaining parts.

【0085】さらに、この場合において、1回の自動演
奏で、テンポなどの一部の演奏要素を制御し、次の自動
演奏で音量など他の一部の演奏要素を制御し、複数回の
自動演奏で所望の演奏要素の全てを制御するようにする
ことも可能である。
Further, in this case, in one automatic performance, some performance elements such as tempo are controlled, and in the next automatic performance, other performance elements such as volume are controlled, and a plurality of automatic performances are controlled. It is also possible to control all desired performance elements in the performance.

【0086】[0086]

【発明の効果】以上のようにこの発明によれば、複数の
利用者の運動態様や姿勢状態に基づいて、楽曲演奏のテ
ンポや音量などの一部の演奏要素を制御することができ
るため、容易な操作で合奏的な演奏行為が可能になり、
音楽演奏の敷居をさげることが可能になる。
As described above, according to the present invention, it is possible to control some performance elements such as the tempo and volume of music performance based on the exercise mode and posture state of a plurality of users. It is possible to perform ensemble performances with easy operation,
It becomes possible to reduce the threshold of music performance.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施形態である発音制御システムの
概略構成図
FIG. 1 is a schematic configuration diagram of a sound generation control system according to an embodiment of the present invention;

【図2】同発音制御システムの操作ユニットであるハン
ドコントローラの外観図
FIG. 2 is an external view of a hand controller which is an operation unit of the sound generation control system.

【図3】ハンドコントローラのブロック図FIG. 3 is a block diagram of a hand controller.

【図4】通信ユニットのブロック図FIG. 4 is a block diagram of a communication unit.

【図5】パーソナルコンピュータのブロック図FIG. 5 is a block diagram of a personal computer.

【図6】ハンドコントローラから通信ユニットに送られ
るデータのフォーマットを示す図
FIG. 6 is a diagram showing a format of data sent from the hand controller to the communication unit.

【図7】自動演奏データの構成を示す図FIG. 7 is a diagram showing a configuration of automatic performance data.

【図8】ハンドコントローラの動作を示すフローチャー
FIG. 8 is a flowchart showing the operation of the hand controller.

【図9】通信ユニットの動作を示すフローチャートFIG. 9 is a flowchart showing the operation of the communication unit.

【図10】パーソナルコンピュータの動作を示すフロー
チャート
FIG. 10 is a flowchart showing the operation of the personal computer.

【図11】パーソナルコンピュータの動作を示すフロー
チャート
FIG. 11 is a flowchart showing the operation of the personal computer.

【図12】パーソナルコンピュータの動作を示すフロー
チャート
FIG. 12 is a flowchart showing the operation of the personal computer.

【図13】演奏ガイド情報の送受信動作を示すフローチ
ャート
FIG. 13 is a flowchart showing an operation of transmitting and receiving performance guide information.

【図14】パーソナルコンピュータの進み遅れ制御動作
を示すフローチャート
FIG. 14 is a flowchart showing the advance / delay control operation of the personal computer.

【図15】この発明の実施形態である発音制御システム
の他の実施形態を示す図
FIG. 15 is a diagram showing another embodiment of the sound generation control system according to the embodiment of the present invention;

【図16】操作ユニットの他の態様を示す図FIG. 16 is a diagram showing another mode of the operation unit.

【図17】操作ユニットの他の態様を示す図FIG. 17 is a diagram showing another mode of the operation unit.

【図18】操作ユニットの他の態様を示す図FIG. 18 is a diagram showing another mode of the operation unit.

【図19】同操作ユニットのブロック図FIG. 19 is a block diagram of the operation unit.

【符号の説明】[Explanation of symbols]

1…ハンドコントローラ(操作ユニット)、2…通信ユ
ニット、3…演奏制御装置(パーソナルコンピュー
タ)、4…音源装置、14a〜14d…LED、15a
〜15d…スイッチ群、16…7セグメント表示器、1
7…3軸加速度センサ、22…LED点灯回路、23…
モデム、24…変調回路、25…送信出力アンプ、26
…受信回路、30…メイン制御部、31…個別通信ユニ
ット
DESCRIPTION OF SYMBOLS 1 ... Hand controller (operation unit), 2 ... Communication unit, 3 ... Performance control device (personal computer), 4 ... Sound source device, 14a-14d ... LED, 15a
~ 15d ... switch group, 16 ... 7 segment display, 1
7 ... 3-axis acceleration sensor, 22 ... LED lighting circuit, 23 ...
Modem, 24 ... Modulation circuit, 25 ... Transmission output amplifier, 26
... Receiving circuit, 30 ... Main control unit, 31 ... Individual communication unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5D378 HA04 KK13 MM54 MM64 MM65 QQ01 QQ25 QQ27 SC01 SC06 SC07 SC09 SF02 SF09 SF15 SF16 SF17 SF18 SF19 XX24 XX25  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5D378 HA04 KK13 MM54 MM64 MM65 QQ01 QQ25 QQ27 SC01 SC06 SC07 SC09 SF02 SF09 SF15 SF16 SF17 SF18 SF19 XX24 XX25

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 身体の運動態様または姿勢状態を検出す
るセンサ手段と、該センサ手段の検出内容を操作データ
として送信する送信手段とを備えた複数の操作ユニット
と、 少なくとも楽曲の音高データを含む自動演奏データに基
づいて楽曲を自動演奏し、前記複数の操作ユニットから
受信した操作データに基づいて該自動演奏のテンポ、音
量などの演奏要素を制御する演奏制御手段を備えた制御
装置と、 を有する発音制御システム。
1. A plurality of operation units each comprising: sensor means for detecting a movement mode or a posture state of a body; and transmission means for transmitting the detection content of the sensor means as operation data; A control device comprising performance control means for automatically playing a music piece based on the automatic performance data including, and controlling performance elements such as a tempo and a volume of the automatic performance based on operation data received from the plurality of operation units, A pronunciation control system having:
【請求項2】 前記演奏制御手段は、複数パートの自動
演奏データに基づいて自動演奏を行い、前記複数パート
のうち一部または全部のパートの演奏要素をそれぞれ異
なる操作ユニットから受信した操作データに基づいて制
御する請求項1に記載の発音制御システム。
2. The performance control means performs an automatic performance on the basis of automatic performance data of a plurality of parts, and converts performance elements of some or all of the plurality of parts into operation data received from different operation units. The sound generation control system according to claim 1, wherein the control is performed based on the sound generation.
【請求項3】 前記演奏制御手段は、前記複数の操作ユ
ニットから受信した複数の操作データに基づいて決定さ
れた1つの総合操作データを用いて自動演奏の演奏要素
を制御する請求項1に記載の発音制御システム。
3. The performance control unit according to claim 1, wherein the performance control unit controls the performance element of the automatic performance using one piece of general operation data determined based on a plurality of operation data received from the plurality of operation units. Sound control system.
【請求項4】 操作データに基づいて演奏要素が制御さ
れた自動演奏データを記録する記録手段を備えた請求項
1乃至請求項3に記載の発音制御システム。
4. The sound generation control system according to claim 1, further comprising recording means for recording automatic performance data in which performance elements are controlled based on operation data.
【請求項5】 前記演奏制御手段は、前記記録手段によ
って記録された自動演奏データに基づいて楽曲を自動演
奏する請求項4に記載の発音制御システム。
5. The sound generation control system according to claim 4, wherein said performance control means automatically performs a musical piece based on the automatic performance data recorded by said recording means.
【請求項6】 身体の運動態様または姿勢状態を検出す
るセンサ手段と、該センサ手段の検出内容を操作データ
として送信する送信手段とを備えた複数の操作ユニット
と、 前記複数の操作ユニットに対してそれぞれ異なる音高の
楽音を割り当て、各操作ユニットから受信した操作デー
タに基づき、それぞれ対応する音高の楽音の発音を制御
する発音制御手段を備えた制御装置と、 を有する発音制御システム。
6. A plurality of operation units each comprising: sensor means for detecting a movement mode or a posture state of a body; and transmission means for transmitting the detection content of the sensor means as operation data. A sound control system comprising: sound control means for allocating musical tones of different pitches respectively and controlling the generation of musical tones of corresponding pitches based on operation data received from each operation unit.
【請求項7】 前記発音制御手段は、楽曲の各音符の音
高および発音タイミングを含む自動演奏データを所定の
テンポで読み出し、各音符の音高および発音タイミング
を指示する演奏ガイド情報を発生する請求項4に記載の
発音制御システム。
7. The sounding control means reads out automatic performance data including the pitch and sounding timing of each note of the music at a predetermined tempo, and generates performance guide information for instructing the pitch and sounding timing of each note. The sound generation control system according to claim 4.
【請求項8】 前記複数の操作ユニットは、1人の身体
の各部に取り付けられる複数のセンサ手段を備え、 前記送信手段は、各センサ手段の検出内容をそれぞれ個
別の操作データとして送信する請求項1乃至請求項7の
いずれかに記載の発音制御システム。
8. The plurality of operation units include a plurality of sensor units attached to each part of one body, and the transmission unit transmits detection contents of each sensor unit as individual operation data. The sound control system according to any one of claims 1 to 7.
【請求項9】 前記複数のセンサ手段は、利用者の上
腕、胸、ももなどに取り付けられる衝撃センサである請
求項8に記載の発音制御システム。
9. The sound control system according to claim 8, wherein the plurality of sensor means are impact sensors attached to a user's upper arm, chest, thigh, and the like.
JP2000211771A 2000-01-11 2000-07-12 Pronunciation control system Expired - Fee Related JP3636041B2 (en)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP2000211771A JP3636041B2 (en) 2000-07-12 2000-07-12 Pronunciation control system
EP07110789.0A EP1855267B1 (en) 2000-01-11 2001-01-10 Apparatus and method for detecting performer´s motion to interactively control performance of music or the like
EP20070110770 EP1860642A3 (en) 2000-01-11 2001-01-10 Apparatus and method for detecting performer´s motion to interactively control performance of music or the like
EP07110784.1A EP1837858B1 (en) 2000-01-11 2001-01-10 Apparatus and method for detecting performer´s motion to interactively control performance of music or the like
US09/758,632 US7183480B2 (en) 2000-01-11 2001-01-10 Apparatus and method for detecting performer's motion to interactively control performance of music or the like
DE60130822T DE60130822T2 (en) 2000-01-11 2001-01-10 Apparatus and method for detecting movement of a player to control interactive music performance
EP01100081A EP1130570B1 (en) 2000-01-11 2001-01-10 Apparatus and method for detecting performer's motion to interactively control performance of music or the like
US10/291,134 US7179984B2 (en) 2000-01-11 2002-11-08 Apparatus and method for detecting performer's motion to interactively control performance of music or the like
US10/387,811 US7135637B2 (en) 2000-01-11 2003-03-13 Apparatus and method for detecting performer's motion to interactively control performance of music or the like
US11/400,710 US7781666B2 (en) 2000-01-11 2006-04-07 Apparatus and method for detecting performer's motion to interactively control performance of music or the like
US12/780,745 US8106283B2 (en) 2000-01-11 2010-05-14 Apparatus and method for detecting performer's motion to interactively control performance of music or the like

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000211771A JP3636041B2 (en) 2000-07-12 2000-07-12 Pronunciation control system

Publications (2)

Publication Number Publication Date
JP2002023743A true JP2002023743A (en) 2002-01-25
JP3636041B2 JP3636041B2 (en) 2005-04-06

Family

ID=18707816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000211771A Expired - Fee Related JP3636041B2 (en) 2000-01-11 2000-07-12 Pronunciation control system

Country Status (1)

Country Link
JP (1) JP3636041B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337505A (en) * 2005-05-31 2006-12-14 Sony Corp Musical player and processing control method
JP2007293191A (en) * 2006-04-27 2007-11-08 Nintendo Co Ltd Sound outputting program and sound outputting device
JP2009020539A (en) * 2008-10-27 2009-01-29 Yamaha Corp Automatic performance apparatus and program
JP2009086534A (en) * 2007-10-02 2009-04-23 Yamaha Corp Sound data generation device and direction sensing sound output musical instrument
US8147330B2 (en) 2006-05-09 2012-04-03 Nintendo Co., Ltd. Game apparatus and storage medium having game program stored thereon
KR20170094138A (en) * 2014-12-12 2017-08-17 인텔 코포레이션 Wearable audio mixing

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302081A (en) * 1994-05-09 1995-11-14 Yamaha Corp Automatic playing operation device
JPH096357A (en) * 1995-06-16 1997-01-10 Yamaha Corp Musical tone controller
JPH0997070A (en) * 1995-10-02 1997-04-08 Yamaha Corp Musical performance controller
JPH1049151A (en) * 1996-07-29 1998-02-20 Yamaha Corp Musical piece editor
JPH1097246A (en) * 1996-09-20 1998-04-14 Yamaha Corp Playing controller
JPH11352963A (en) * 1998-06-08 1999-12-24 Yamaha Corp Information display method and recording medium for recording information display program
JP2000148143A (en) * 1997-01-06 2000-05-26 Yamaha Corp Performance guidance device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302081A (en) * 1994-05-09 1995-11-14 Yamaha Corp Automatic playing operation device
JPH096357A (en) * 1995-06-16 1997-01-10 Yamaha Corp Musical tone controller
JPH0997070A (en) * 1995-10-02 1997-04-08 Yamaha Corp Musical performance controller
JPH1049151A (en) * 1996-07-29 1998-02-20 Yamaha Corp Musical piece editor
JPH1097246A (en) * 1996-09-20 1998-04-14 Yamaha Corp Playing controller
JP2000148143A (en) * 1997-01-06 2000-05-26 Yamaha Corp Performance guidance device
JPH11352963A (en) * 1998-06-08 1999-12-24 Yamaha Corp Information display method and recording medium for recording information display program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337505A (en) * 2005-05-31 2006-12-14 Sony Corp Musical player and processing control method
JP2007293191A (en) * 2006-04-27 2007-11-08 Nintendo Co Ltd Sound outputting program and sound outputting device
JP4679429B2 (en) * 2006-04-27 2011-04-27 任天堂株式会社 Sound output program and sound output device
US8801521B2 (en) 2006-04-27 2014-08-12 Nintendo Co., Ltd. Storage medium storing sound output program, sound output apparatus and sound output control method
US8147330B2 (en) 2006-05-09 2012-04-03 Nintendo Co., Ltd. Game apparatus and storage medium having game program stored thereon
JP2009086534A (en) * 2007-10-02 2009-04-23 Yamaha Corp Sound data generation device and direction sensing sound output musical instrument
JP2009020539A (en) * 2008-10-27 2009-01-29 Yamaha Corp Automatic performance apparatus and program
JP4572980B2 (en) * 2008-10-27 2010-11-04 ヤマハ株式会社 Automatic performance device and program
KR20170094138A (en) * 2014-12-12 2017-08-17 인텔 코포레이션 Wearable audio mixing
JP2018506050A (en) * 2014-12-12 2018-03-01 インテル コーポレイション Wearable audio mixing
EP3230849A4 (en) * 2014-12-12 2018-05-02 Intel Corporation Wearable audio mixing
KR102424233B1 (en) * 2014-12-12 2022-07-25 인텔 코포레이션 Wearable audio mixing

Also Published As

Publication number Publication date
JP3636041B2 (en) 2005-04-06

Similar Documents

Publication Publication Date Title
EP1837858B1 (en) Apparatus and method for detecting performer´s motion to interactively control performance of music or the like
JP4691754B2 (en) Game device
JPH11151380A (en) Music-enhancing game machine, system for indicating enhancing control for music-enhancing game, and computer-readable storage medium storing program for game
JP2009276782A (en) Musical sound control system, musical sound signal generator, and musical sound signal generating method
JP2001195059A (en) Musical performance interface
JP2002023742A (en) Sounding control system, operation unit and electronic percussion instrument
JP3654143B2 (en) Time-series data read control device, performance control device, video reproduction control device, time-series data read control method, performance control method, and video reproduction control method
JP2001195060A (en) Musical performance interface
JP3824462B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP3636041B2 (en) Pronunciation control system
JPH11313979A (en) Music performance game machine, performance operating instruction system for music performance game and computer readable memory medium with program for game recorded therein
KR20020022542A (en) Sports game management system, sports game data management apparatus and readable recording medium having a sports game data management program
JP2007271739A (en) Concert parameter display device
JP4605295B2 (en) Karaoke equipment
JP4692691B2 (en) GAME DEVICE, INPUT UNIT USED FOR THE SAME, AND STORAGE MEDIUM
JP2001070644A (en) Dancing game device
JP3560817B2 (en) Game device input device
JP4770093B2 (en) Music signal generation system, music signal generation device, and music signal generation method
JP6234197B2 (en) Electronic handbell system
KR200321889Y1 (en) Vocal Appartus use for Percussion Instrument
WO2010096163A1 (en) Video game controller
KR20060014547A (en) Hitting game machine
JP2005031383A (en) Automatic performance system and program
JP2006175292A (en) Game device and information storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040921

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041227

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3636041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090114

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100114

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110114

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120114

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130114

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140114

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees