JP2001195059A - Musical performance interface - Google Patents

Musical performance interface

Info

Publication number
JP2001195059A
JP2001195059A JP2000002077A JP2000002077A JP2001195059A JP 2001195059 A JP2001195059 A JP 2001195059A JP 2000002077 A JP2000002077 A JP 2000002077A JP 2000002077 A JP2000002077 A JP 2000002077A JP 2001195059 A JP2001195059 A JP 2001195059A
Authority
JP
Japan
Prior art keywords
performance
motion
operator
sensor
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000002077A
Other languages
Japanese (ja)
Other versions
JP3646599B2 (en
Inventor
Yoshiki Nishitani
善樹 西谷
Satoshi Usa
聡史 宇佐
Masaki Sato
雅樹 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2000002077A priority Critical patent/JP3646599B2/en
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to EP07110789.0A priority patent/EP1855267B1/en
Priority to EP07110784.1A priority patent/EP1837858B1/en
Priority to DE60130822T priority patent/DE60130822T2/en
Priority to EP20070110770 priority patent/EP1860642A3/en
Priority to EP01100081A priority patent/EP1130570B1/en
Priority to US09/758,632 priority patent/US7183480B2/en
Publication of JP2001195059A publication Critical patent/JP2001195059A/en
Priority to US10/291,134 priority patent/US7179984B2/en
Priority to US10/387,811 priority patent/US7135637B2/en
Application granted granted Critical
Publication of JP3646599B2 publication Critical patent/JP3646599B2/en
Priority to US11/400,710 priority patent/US7781666B2/en
Priority to US12/780,745 priority patent/US8106283B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To control a musical sound variously according to the movement and state of a participant in musical performance and to enable anybody to easily enjoy playing a musical sound. SOLUTION: When the participant in musical performance moves motion sensors MS1 to MSn, this musical performance interface analyzes the movement of the operator by an information analysis part AN by using operation (gesture) information on the operation sensors. A musical performance parameter determination part PS determines musical performance parameters according to the analysis result and a musical sound reproduction part 1S generates musical sound performance data based upon the musical performance parameters. The information analysis part AN, while analyzing the movement of a motion sensor, analyzes the physical body state of the participant in musical performance by using state information (biological information and physiological information) on state sensors SS1 to SSn and generates musical performance parameters corresponding to these analysis results. A musical sound which is variously controlled according to the movement and physical body state of the participant is radiated through sound and speaker systems 3 and 4.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、演奏インターフ
ェイス、より詳細には、演奏参加者と電子楽器や楽音再
生装置等の楽音発生装置との間に介在し、演奏参加者の
動作に応じて楽音発生装置を多彩に制御することができ
る演奏インターフェイスに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a musical performance interface, and more particularly, to a musical tone generator which is interposed between a musical performance participant and a musical sound generator such as an electronic musical instrument or a musical sound reproducing apparatus. The present invention relates to a performance interface capable of variously controlling a generator.

【0002】[0002]

【従来の技術】一般に、電子楽器においては、音色、音
高、音量及び効果の4つの演奏パラメータが決まると所
望の楽音を発音することができ、CD、MD、DVD、
DATや、MIDI(Musical Instrument Digital Int
erface)ソース等の音響情報を再生する楽音再生装置で
は、テンポ、音量及び効果の3つの演奏パラメータが決
まると所望の楽音を再生することができる。従って、操
作者と電子楽器や楽音再生装置等の楽音発生装置との間
に演奏インターフェイスを設け、操作者の操作により演
奏インターフェイスを用いて上述の4或いは3演奏パラ
メータを決定するようにすれば、操作者の操作に応じた
所望の楽音を出力することができる。
2. Description of the Related Art In general, in an electronic musical instrument, a desired musical tone can be produced when four performance parameters of a timbre, a pitch, a volume and an effect are determined.
DAT, MIDI (Musical Instrument Digital Int
(Erface) A tone reproducing apparatus for reproducing acoustic information such as a source can reproduce a desired tone when the three performance parameters of tempo, volume and effect are determined. Therefore, if a performance interface is provided between the operator and a musical sound generator such as an electronic musical instrument or a musical sound reproducing device, and the above-described 4 or 3 performance parameters are determined using the performance interface by the operation of the operator, It is possible to output a desired musical sound according to the operation of the operator.

【0003】従来、この種のインターフェイスとして、
既に、操作者の動きに応じて電子楽器や楽音再生装置か
ら出力される楽音の演奏パラメータを制御するものが提
案されている。しかしながら、操作者が一人に限られた
り、楽音発生装置やその演奏パラメータが1つであるの
で、多くの人が参加したり多彩な楽音出力を楽しんだり
することができなかった。
Conventionally, as this kind of interface,
There has already been proposed one that controls performance parameters of musical tones output from an electronic musical instrument or a musical sound reproducing device in accordance with the movement of an operator. However, since the number of operators is limited to one, and there is only one musical tone generator and its performance parameter, many people cannot participate or enjoy various musical tone outputs.

【0004】[0004]

【発明が解決しようとする課題】この発明は、演奏参加
者の動きや身体状態に応じて電子楽器等の楽音発生装置
の演奏パラメータを制御する演奏インターフェイスに多
彩な機能を与えることにより、音楽アンサンブル、演
劇、音楽教育の現場、スポーツ、イベント、コンサー
ト、テーマパーク、さらには、音楽ゲーム用の新しい楽
音コントローラとして、幼児から老人まで、だれにでも
容易に楽音演出に参加することができ演奏を楽しむこと
ができる新しいタイプの演奏インターフェイスを提供す
ることを目的とする。
SUMMARY OF THE INVENTION The present invention provides a music ensemble by providing various functions to a performance interface for controlling performance parameters of a musical sound generator such as an electronic musical instrument in accordance with the movement and physical condition of a performance participant. As a new musical tone controller for drama, music education, sports, events, concerts, theme parks and even music games, anyone from infants to the elderly can easily participate in musical performances and enjoy playing. The aim is to provide a new type of playing interface that can.

【0005】[0005]

【課題を解決するための手段】この発明の一つの特徴に
従うと、楽音発生装置から発生される楽音を制御するた
めの演奏制御情報を操作者の身体状況に応じて生成する
演奏インターフェイスであって、操作者の動作に基づく
運動を検出して動作検出信号を出力する操作者に設置乃
至所持可能な運動検出器と、運動検出器から受信される
動作検出信号に基づいて操作者の動作を解析する身体状
況解析手段と、この身体状況解析手段により得られる複
数の動作解析結果に基づいて、それぞれに対応する演奏
制御情報を生成する演奏制御情報生成手段とを具備する
演奏インターフェイスが提供される。この演奏インター
フェイスにおける運動検出器は、典型的には、操作者が
手で把持するか、或いは、操作者の手又は足に装着され
るタイプのものである。
According to one aspect of the present invention, there is provided a performance interface for generating performance control information for controlling a tone generated from a tone generator according to the physical condition of an operator. A motion detector that can be installed or carried by the operator to detect motion based on the motion of the operator and output a motion detection signal, and analyze the motion of the operator based on the motion detection signal received from the motion detector The present invention provides a performance interface comprising: a physical condition analyzing means for performing performance control information generating means for generating corresponding performance control information based on a plurality of motion analysis results obtained by the physical condition analyzing means. The motion detector in the performance interface is typically of a type that is gripped by an operator by hand or worn on the operator's hand or foot.

【0006】この発明の別の特徴に従うと、楽音発生装
置から発生される楽音を制御するための演奏制御情報を
操作者の身体状況に応じて生成する演奏インターフェイ
スであって、操作者の動作に基づく複数種の運動を検出
して、対応する複数の動作検出信号を出力する操作者に
設置乃至所持可能な運動検出器と、運動検出器から受信
される複数の動作検出信号に基づいて操作者の動作を解
析する身体状況解析手段と、複数の動作解析結果に基づ
いて、それぞれに対応する演奏制御情報を生成する演奏
制御情報生成手段とを具備する演奏インターフェイスが
提供される。
According to another feature of the present invention, there is provided a performance interface for generating performance control information for controlling a tone generated from a tone generator according to the physical condition of an operator. A plurality of motion detectors based on the plurality of motion detections based on the plurality of motion detection signals and the plurality of motion detection signals output from the motion detectors. A performance interface is provided, comprising: a physical condition analyzing means for analyzing the motion of the game; and performance control information generating means for generating performance control information corresponding to each of the plurality of motion analysis results.

【0007】この発明の他の特徴に従うと、楽音発生装
置から発生される楽音を制御するための演奏制御情報を
操作者の身体状況に応じて生成する演奏インターフェイ
スであって、操作者の動作に基づく運動に対応する動作
検出信号を出力する操作者に設置乃至所持可能な運動検
出器と、操作者の身体状態を検出し、対応する状態検出
信号を出力する操作者に設置乃至所持可能な状態検出器
と、運動検出器及び状態検出器から受信される運動検出
信号及び状態検出信号に基づいて操作者の動作及び身体
状態を解析する身体状況解析手段と、動作解析結果及び
身体状態解析結果に基づいて、それぞれに対応する演奏
制御情報を生成する演奏制御情報生成手段とを具備する
演奏インターフェイスが提供される。
According to another feature of the present invention, there is provided a performance interface for generating performance control information for controlling a tone generated from a tone generator according to the physical condition of the operator, and the performance interface is adapted to the operation of the operator. A motion detector that can be installed or possessed by an operator that outputs a motion detection signal corresponding to a motion based on the motion, and a state that can be installed or possessed by an operator that detects a physical condition of the operator and outputs a corresponding status detection signal A detector, a body condition analyzing means for analyzing the motion and the body condition of the operator based on the motion detection signal and the condition detection signal received from the motion detector and the condition detector, and a motion analysis result and a body condition analysis result. A performance interface including performance control information generating means for generating performance control information corresponding to each of the performance interfaces is provided.

【0008】この発明の演奏インターフェイスにおい
て、状態検出器は、脈拍、体温、皮膚間抵抗、脳波、呼
吸及び眼球移動の少なくとも一つを検出し、対応する状
態検出信号を出力するように構成することができる。演
奏制御情報は、楽音の音量、テンポ、タイミング、音
色、効果或いは音高を制御するように構成することがで
きる。また、運動検出器は、最も簡単な構成として、操
作者の動作に基づく所定方向の運動を検出して検出信号
を出力する1次元センサとすることができ、さらに、操
作者の動作に基づき直交する2方向又は3方向の運動を
検出して、対応する2種又は3種の検出信号を出力する
2次元センサ又は3次元センサを用いることができる。
In the performance interface according to the present invention, the state detector is configured to detect at least one of a pulse, a body temperature, a resistance between skins, an electroencephalogram, breathing and eye movement, and to output a corresponding state detection signal. Can be. The performance control information can be configured to control the volume, tempo, timing, tone, effect, or pitch of a musical tone. Further, the motion detector can be a one-dimensional sensor that detects a motion in a predetermined direction based on the operation of the operator and outputs a detection signal as a simplest configuration. A two-dimensional sensor or a three-dimensional sensor that detects two or three directions of movement and outputs corresponding two or three types of detection signals can be used.

【0009】〔発明の作用〕この発明の一つの特徴によ
れば、演奏インターフェイスは、操作者により所持可能
な或いは操作者(手や足など)に設置可能な運動検出器
と、楽音発生装置から発生される楽音を制御するための
演奏制御情報を生成する本体システムとにより構成され
る。ここで、演奏制御情報は、例えば、楽音の音量、テ
ンポ、タイミング、音色、効果或いは音高であり、動作
検出信号により制御される。動作検出信号は、例えば、
1〜3次元センサ等の運動(加速度、速度、位置)検出
器によって、操作者の動作に基づく1種又は複数種の運
動が検出され出力されるものである。本体システムは、
運動検出器からの動作検出信号を受信し、身体状況解析
手段により、動作検出信号から操作者の動作を解析し、
演奏制御情報生成手段により、複数の動作解析結果に対
応する演奏制御情報を生成する。
According to one feature of the present invention, the performance interface comprises a motion detector that can be carried by the operator or can be installed on the operator (hands, feet, etc.), and a tone generator. And a main unit system for generating performance control information for controlling the generated musical sounds. Here, the performance control information is, for example, the volume, tempo, timing, timbre, effect, or pitch of a musical tone, and is controlled by a motion detection signal. The operation detection signal is, for example,
One or more types of motions based on the operation of the operator are detected and output by a motion (acceleration, velocity, position) detector such as a one to three-dimensional sensor. The main system is
Receive the motion detection signal from the motion detector, and analyze the motion of the operator from the motion detection signal by the body condition analysis means,
Performance control information generation means generates performance control information corresponding to a plurality of motion analysis results.

【0010】この発明の別の特徴によれば、運動検出器
によって操作者の動作に基づき複数種の運動を検出し、
対応する複数の動作検出信号を出力する。本体システム
は、運動検出器からの複数の動作検出信号を受信し、身
体状況解析手段により、動作検出信号から操作者の動作
を解析し、演奏制御情報生成手段により、複数の動作解
析結果に対応する演奏制御情報を生成する。
According to another feature of the present invention, a motion detector detects a plurality of types of motion based on the motion of an operator,
A plurality of corresponding operation detection signals are output. The main body system receives a plurality of motion detection signals from the motion detector, analyzes the operator's motion from the motion detection signal by the body condition analysis means, and responds to the plurality of motion analysis results by the performance control information generation means Is generated.

【0011】このように、この発明の演奏インターフェ
イスでは、操作者(演奏参加者)が運動検出器を種々に
動かすと、運動検出器の動作検出信号の内容〔動作(身
振り)情報〕から操作者の種々の動きを解析し、種々の
解析結果に応じて演奏制御情報を生成するように構成さ
れているので、操作者の動きから種々の解析を行い複数
の解析結果に応じて楽曲演奏を多様に制御することがで
きる。
As described above, in the performance interface of the present invention, when the operator (performance participant) moves the motion detector variously, the operator (movement (gesture) information) of the motion detection signal of the motion detector is used. It is configured to analyze various movements of the music and generate performance control information according to the various analysis results. Can be controlled.

【0012】この発明の他の特徴によれば、演奏インタ
ーフェイスは、操作者により所持可能な或いは操作者に
設置可能な運動検出器及び状態検出器と、楽音発生装置
から発生される楽音を制御するための演奏制御情報を生
成する本体システムとにより構成される。運動検出器
は、例えば、加速度、速度、位置、ジャイロ、衝撃、傾
斜、角速度を検出可能なセンサであり、操作者の動作に
基づく運動を検出し、対応する動作検出信号を出力す
る。状態検出器は、例えば、脈拍、体温、皮膚間抵抗、
脳波、呼吸、眼球移動等、操作者の身体状態を検出し、
対応する状態検出信号を出力する。本体システムは、運
動検出器及び状態検出器からの検出信号を受信し、身体
状況解析手段により、動作検出信号から操作者の動作を
解析すると共に状態検出信号から操作者の身体状態を解
析し、演奏制御情報生成手段により、各解析結果に対応
する演奏制御情報を生成する。
According to another feature of the present invention, the performance interface controls a motion detector and a state detector that can be carried by the operator or can be installed on the operator, and a tone generated by the tone generator. And a main body system for generating performance control information. The motion detector is a sensor capable of detecting, for example, acceleration, speed, position, gyro, impact, inclination, and angular velocity, detects a motion based on the motion of the operator, and outputs a corresponding motion detection signal. State detector, for example, pulse, body temperature, skin resistance,
Detects the physical condition of the operator, such as EEG, breathing, eye movement,
A corresponding state detection signal is output. The main body system receives the detection signals from the motion detector and the state detector, and analyzes the operation of the operator from the operation detection signal and the body state of the operator from the state detection signal by the body condition analysis means, Performance control information generating means generates performance control information corresponding to each analysis result.

【0013】このように、この発明の演奏インターフェ
イスでは、操作者が運動検出器を動かすと、運動検出器
の動作検出信号の内容から操作者の動きを解析する一
方、同時に、状態検出器の状態検出信号の内容〔状態情
報(生体情報、生理情報)〕から操作者の身体状態を解
析し、これらの解析結果に応じて演奏制御情報を生成す
るように構成されているので、操作者の動きに応じるだ
けでなく、操作者の身体状態を考慮して、楽曲演奏を多
様に制御することができる。
As described above, in the performance interface of the present invention, when the operator moves the motion detector, the motion of the operator is analyzed from the contents of the motion detection signal of the motion detector, and at the same time, the state of the state detector It is configured to analyze the operator's physical condition from the content of the detection signal [state information (biological information, physiological information)] and to generate performance control information in accordance with the results of these analysis. Music performance can be variously controlled in consideration of the operator's physical condition.

【0014】〔種々の態様〕より具体的に述べると、こ
の発明の演奏インターフェイスでは、演奏参加者の動作
(身振り)情報や状態(生体、生理)情報等の身体情報
に応じて楽音発生装置への制御情報を生成し、この制御
情報に基づいて楽音発生装置の演奏パラメータを制御す
る機能をもたせることによって、演奏参加者の身振りや
生体状況に応じて演出された楽音を出力することがで
き、だれにでも容易に楽音の演出に参加することができ
るようにしている。
[Various Modes] More specifically, in the performance interface of the present invention, the musical sound generation device is connected to the musical performance generator in accordance with physical information such as movement (gesture) information and state (biological, physiological) information of the performer. By generating the control information of the above, and having a function of controlling the performance parameters of the musical tone generator based on this control information, it is possible to output a musical tone produced according to the gestures and biological conditions of the performers, Anyone can easily participate in the production of musical sounds.

【0015】このような身体情報を取得するには、例え
ば、動作(身振り)情報については1次元乃至3次元の
速度センサや加速度センサ等の動作センサを用い、ま
た、状態情報については、脈拍や皮膚間抵抗等の計測出
力を発生する生体情報センサを用い、取得された身体情
報によって、楽音発生装置の2つ以上の演奏パラメータ
を制御する。
In order to obtain such physical information, for example, a motion sensor such as a one-dimensional or three-dimensional speed sensor or an acceleration sensor is used for motion (gesture) information, and a pulse or a pulse is used for state information. Using a biological information sensor that generates a measurement output such as interskin resistance, two or more performance parameters of the musical sound generator are controlled by the acquired physical information.

【0016】この発明の1つの実施態様では、また、複
数の演奏参加者が、同時に、電子楽器や楽音作成装置等
の楽音発生装置を共有し制御するようなシステムにする
ことができる。
In one embodiment of the present invention, a system can be provided in which a plurality of performance participants simultaneously share and control a tone generator such as an electronic musical instrument and a tone generator.

【0017】具体的には、一人乃至複数の演奏参加者
が、動作センサ或いは生体情報センサを所定の身体部位
(例えば、手や足)に設置し、センサによる検出データ
を無線で楽音発生装置の受信機にワイヤレス送信し、楽
音発生装置側では検出データの解析を行い解析結果に基
づいて楽音発生装置の演奏パラメータを制御する。
More specifically, one or a plurality of performance participants install a motion sensor or a biological information sensor at a predetermined body part (for example, a hand or a foot), and wirelessly transmit data detected by the sensor to the musical sound generator. The data is transmitted wirelessly to the receiver, and the musical sound generator analyzes the detected data, and controls the performance parameters of the musical sound generator based on the analysis result.

【0018】この発明の1つの実施態様においては、演
奏インターフェイスの身体情報入力手段として1次元乃
至3次元センサ等の動作センサを利用し、楽音発生装置
の2つ以上の演奏パラメータを制御したり、或いは、身
体情報として生体情報を入力して何らかの演奏パラメー
タを制御する。さらに、動作センサ出力と生体情報とを
同時に利用して演奏パラメータを制御することもでき
る。
In one embodiment of the present invention, a motion sensor such as a one-dimensional or three-dimensional sensor is used as physical information input means of a performance interface to control two or more performance parameters of a tone generator. Alternatively, biometric information is input as physical information to control some performance parameters. Further, the performance parameters can be controlled by simultaneously using the output of the motion sensor and the biological information.

【0019】この発明の別の実施態様においては、演奏
インターフェイスの身体情報入力手段として1次元乃至
3次元センサ等の動作センサを用い、出力される楽音の
テンポを制御する。この場合、動作センサ出力の周期性
を演奏パラメータとして利用する。また、生体情報を入
力して楽音のテンポを制御することもでき、動作センサ
出力と生体情報を同時に利用して演奏パラメータを制御
することもできる。
In another embodiment of the present invention, a movement sensor such as a one-dimensional to three-dimensional sensor is used as the physical information input means of the performance interface to control the tempo of the output musical sound. In this case, the periodicity of the motion sensor output is used as a performance parameter. Further, it is possible to control the tempo of the musical tone by inputting the biological information, and to control the performance parameters by simultaneously using the output of the motion sensor and the biological information.

【0020】この発明の他の実施態様においては、2つ
(例えば、両手)或いは一方(例えば、片方の手)の動
作センサ等の身体情報検出センサによる複数の演奏参加
者からの検出データについて、全数個又は任意に選んだ
複数個の検出データについて、単純平均又は重み付け平
均したデータ値或いは所定規則に従い選択されたデータ
値を算出し、この算出データ値を利用して演奏パラメー
タを制御する。
In another embodiment of the present invention, detection data from a plurality of performance participants by physical information detection sensors such as two (for example, both hands) or one (for example, one hand) motion sensors are described below. A simple average or a weighted average data value or a data value selected according to a predetermined rule is calculated for all or a plurality of arbitrarily selected detection data, and the performance parameters are controlled using the calculated data value.

【0021】この発明は、純音楽的な楽曲演奏だけでな
く、種々の楽音演奏環境に適用することができる。この
発明の適用環境には、例えば、次のようなものがある: (1)楽曲演奏のコントロール(指揮モード=プロモー
ド、セミオートモード)。 (2)伴奏音、外部音コントロール 各種打楽器音、ベル、自然音を内蔵若しくは外部の音源
を利用して、複数人又は1人で楽曲演奏をコントロール
する。例えば、所定演奏トラックの音源をハンドベル、
和楽器、ガムラン、パーカッション(アンサンブル)等
の音とし、楽曲(主旋律演奏トラック)中に挿入する。 (3)複数人による演奏(音楽アンサンブル) 複数人がそれぞれセンサを持ち、2人以上からのセンサ
出力値について、単純平均或いは重み付け平均した平均
値データ、若しくは、或る時間範囲の中で時刻的に最後
又は最初のデータ等、所定の規則で選択されたデータを
基にして、楽曲演奏をコントロールする。 (利用例)音楽教育の現場における楽曲演奏=例えば、
先生がマスターセンサを持ち、楽曲のテンポ及び音量を
コントロールする。生徒は子機センサにより、ハンドベ
ル的な機能、日本古来(和楽)の太鼓やかねなど(更
に、自然の風や水の音を同時に発音させて)、種々の選
択音を楽曲中に入れて行く(先生と生徒が楽音演奏に互
いに参加意識を持ちながら楽しく授業を行う)。 (4)タップダンスの伴奏。 (5)遠隔地間でのネットワーク音楽演奏(映像併用)
(音楽ゲーム) 異なる場所の人間が通信ネットワークを通じて同時に楽
曲演奏をコントロールする。例えば、遠隔地の人間がネ
ットワークを通じて音楽教室などで映像を見ながら、同
時に、楽音演奏を演出する。 (6)ゲームにおける興奮状態応答楽音コントロール。 (7)ジョギング、エアロビクス等、スポーツにおける
背景音楽(BGM)コントロール(バイオモード、健康
モード) 例えば、心拍数にテンポを合わせて聞いたり、ジョギン
グ、エアロビクス等の動作と心拍数などを考慮にして、
或る設定心拍数を超えると、音楽のテンポや音量等を自
然に下げる。 (8)演劇。 演劇時に、剣術の舞の時の剣の立ち回りに応じて、切れ
る音、風きり音などの効果音の発音をコントロールす
る。 (9)イベント。 各種イベントにおける、例えば、参加型リモコン、参加
型コントローラ、参加型入力装置、参加型Gameな
ど。 (10)コンサート。 コンサート会場にて、演奏者が曲のメインコントロール
(テンポ、ダイナミックス等)を行ない、視聴者はサブ
コントロール部をもって、LED等で発光する光に合わ
せて簡単に手拍子のように音楽演奏に参加できる演出を
行う。 (11)テーマパーク。 テーマパークでのパレードにおいて、曲の演奏をコント
ロールしたり、発光装置による光の演出をコントロール
する。
The present invention can be applied to various musical performance environments as well as pure musical performances. Examples of the application environment of the present invention include the following: (1) Music performance control (conducting mode = pro mode, semi-auto mode). (2) Accompaniment sound and external sound control A plurality of persons or one person controls music performance by using various percussion instrument sounds, bells, and natural sounds or by using an external sound source. For example, the sound source of a predetermined performance track is a handbell,
Sounds such as Japanese musical instruments, gamelan, percussion (ensemble), etc., are inserted into the music (main melody playing track). (3) Performance by a plurality of persons (music ensemble) A plurality of persons each have a sensor, and the average value data obtained by simple or weighted averaging of the sensor output values from two or more persons, or the time data in a certain time range The music performance is controlled based on data selected according to a predetermined rule, such as the last or first data. (Usage example) Music performance in the field of music education = For example,
The teacher has a master sensor and controls the tempo and volume of the music. The student uses the handset sensor to insert various selection sounds into the music, such as handbell-like functions, Japanese traditional (wagaku) drums and kane (and sounds of natural wind and water at the same time). (The teacher and the student have a joyful lesson while participating in the musical performance.) (4) Accompaniment of tap dance. (5) Network music performance between remote locations (using video)
(Music game) People from different places control music performances simultaneously through a communication network. For example, a person in a distant place views a video in a music classroom or the like through a network and simultaneously produces a musical sound performance. (6) Excited state response tone control in the game. (7) Background music (BGM) control in sports such as jogging, aerobics, etc. (bio mode, health mode) For example, listening to the tempo in accordance with the heart rate, taking into account the operation of jogging, aerobics, etc. and the heart rate, etc.
When the heart rate exceeds a certain set heart rate, the music tempo, volume and the like are naturally reduced. (8) Theater. Controls the sound effects such as cutting sound and wind noise according to the movement of the sword during a swordplay dance during a play. (9) Events. In various events, for example, a participatory remote controller, a participatory controller, a participatory input device, a participatory Game, and the like. (10) Concert. At the concert hall, the performer performs the main control (tempo, dynamics, etc.) of the song, and the viewer can easily participate in the music performance like a clap according to the light emitted by the LED or the like with the sub-control unit. Perform the production. (11) Theme park. In a parade at a theme park, control the performance of songs and control the production of light by light-emitting devices.

【0022】[0022]

【発明の実施の形態】以下、図面を参照しつつ、この発
明の好適な実施例について詳述する。なお、以下の実施
例は、単なる一例であって、この発明の精神を逸脱しな
い範囲で種々の変更が可能である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below in detail with reference to the drawings. The following embodiment is merely an example, and various modifications can be made without departing from the spirit of the present invention.

【0023】〔システム全体の構成〕図1には、この発
明の一実施例による演奏インターフェイスを含む演奏シ
ステム全体の概略的な構成が示されている。この例で
は、システムは、複数の身体情報検出送信機1T1〜1
Tn、情報受信及び楽音コントローラ1Rと楽音再生部
1Sとから成る本体システム1M、ホストコンピュータ
2、サウンドシステム3及びスピーカシステム4により
構成されており、身体情報検出送信機1T1〜1Tnと
情報受信及び楽音コントローラ1Rとにより演奏インタ
ーフェイスが構成される。
FIG. 1 shows a schematic configuration of an entire performance system including a performance interface according to an embodiment of the present invention. In this example, the system includes a plurality of physical information detection transmitters 1T1-1.
Tn, an information reception and tone controller 1R and a tone reproduction unit 1S, a main system 1M, a host computer 2, a sound system 3 and a speaker system 4, and a physical information detection transmitter 1T1 to 1Tn and information reception and tone. A performance interface is constituted by the controller 1R.

【0024】複数の身体情報検出送信機1T1〜1Tn
は、動作センサMS1〜MSn及び状態センサSS1〜
SSnの双方或いは何れか一方を備え、両センサMS
a,SSa(a=1〜n)は、演奏情報の演出に参加す
る複数の操作者各人の手で把持されるか、或いは、各演
奏参加者の身体の所定部位に取り付けられる。各動作セ
ンサMSaは、各演奏参加者の身振りや動きを検出しこ
れに応じて動作信号を出力するものであり、例えば、3
次元加速度センサや3次元速度センサ等の所謂「3次元
センサ」(x,y,z)などの外、2次元センサ(x,
y)、歪み検出器、で構成することができる。また、状
態センサSSaは、各参加者の身体の脈拍(脈波)、皮
膚間抵抗、脳波、呼吸、瞳の動き等を計測して得られる
状態信号を出力する所謂「生体情報センサ」である。
A plurality of physical information detection transmitters 1T1 to 1Tn
Are the operation sensors MS1-MSn and the state sensors SS1-
SSn and / or either of them, and both sensors MS
a, SSa (a = 1 to n) are held by the hands of a plurality of operators participating in the performance of the performance information, or are attached to predetermined portions of the body of each performance participant. Each motion sensor MSa detects a gesture or motion of each performance participant and outputs a motion signal in accordance with the gesture.
In addition to a so-called “three-dimensional sensor” (x, y, z) such as a three-dimensional acceleration sensor and a three-dimensional velocity sensor, a two-dimensional sensor (x,
y), a distortion detector. The state sensor SSa is a so-called “biological information sensor” that outputs a state signal obtained by measuring a pulse (pulse wave) of the body of each participant, a resistance between skin, an electroencephalogram, respiration, pupil movement, and the like. .

【0025】複数の身体情報検出送信機1T1〜1Tn
は、それぞれ、信号処理及び送信装置(図示せず)を介
して、身体情報センサMS1〜MSn,SS1〜SSn
からの動作信号及び状態信号を検出信号として情報受信
及び楽音コントローラ1Rに送信する。情報受信及び楽
音コントローラ1Rは、受信処理部RP、情報解析部A
N及び演奏パラメータ決定部PSを有し、パーソナルコ
ンピュータ(PC)で構成されるホストコンピュータ2
と交信可能であり、ホストコンピュータ2と連繋して演
奏パラメータ制御のためのデータ処理を行う。
A plurality of physical information detection transmitters 1T1 to 1Tn
Are respectively connected to physical information sensors MS1 to MSn and SS1 to SSn via a signal processing and transmitting device (not shown).
The information signal and the tone signal are sent to the tone controller 1R as detection signals. The information reception and tone controller 1R includes a reception processing unit RP, an information analysis unit A
N and a host computer 2 comprising a personal computer (PC)
And performs data processing for performance parameter control in connection with the host computer 2.

【0026】つまり、情報受信及び楽音コントローラ1
Rは、身体情報検出送信機1T1〜1Tnから検出信号
を受信すると、受信処理部RPにおいては、所定の条件
の下で対応データが抽出され、抽出された動作データ或
いは状態データは検出データとして情報解析部ANに手
渡される。情報解析部ANでは、例えば、検出信号の繰
返し周期から身体テンポを検出する等、検出データの解
析が行われる。そして、演奏パラメータ決定部PSは、
検出データの解析結果に基づいて楽音の演奏パラメータ
を決定する。
That is, the information reception and tone controller 1
R receives the detection signal from the physical information detection transmitters 1T1 to 1Tn, and in the reception processing unit RP, corresponding data is extracted under predetermined conditions, and the extracted operation data or state data is information as detection data. It is handed over to the analysis unit AN. The information analyzer AN analyzes the detected data, for example, detecting the body tempo from the repetition period of the detection signal. Then, the performance parameter determination unit PS
The performance parameters of the musical sound are determined based on the analysis result of the detection data.

【0027】楽音再生部1Sは、演奏データ制御部MC
及び音源部SBを有し、例えば、MIDI形式の演奏デ
ータに基づいて楽音信号を生成する。演奏データ制御部
MCは、本体システム1Mで生成される演奏データ或い
は予め用意された演奏データを、演奏パラメータ決定部
PSで設定された演奏パラメータに応じて変更する。そ
して、音源部SBは、変更された演奏データに基く楽音
信号を生成し、サウンドシステム3に送信し、スピーカ
システム4より、対応する楽音を放音する。
The musical sound reproducing section 1S includes a performance data control section MC.
And a tone generator SB, and generates a tone signal based on performance data in, for example, a MIDI format. The performance data control unit MC changes performance data generated by the main system 1M or previously prepared performance data according to the performance parameters set by the performance parameter determination unit PS. Then, the tone generator SB generates a tone signal based on the changed performance data, transmits the tone signal to the sound system 3, and emits a corresponding tone from the speaker system 4.

【0028】この発明の一実施例による演奏インターフ
ェイス(1T1〜1Tn・1M)においては、このよう
な構成によって、操作者が動作センサMS1〜MSnを
動かすと、情報解析部ANが、動作センサMS1〜MS
nの検出データから操作者の動きを解析する。演奏パラ
メータ決定部PSは、この解析結果に応じて演奏パラメ
ータを決定し、楽音再生部1Sは演奏パラメータに基づ
く楽音演奏データを生成する。従って、動作センサの動
きを反映して所望に制御された楽音がサウンド及びスピ
ーカシステム3,4を介して放音される。情報解析部A
Nは、また、運動センサMS1〜MSnの運動解析と同
時に、状態センサSS1〜SSnからの状態情報(生体
情報、生理情報)から操作者の身体状態を解析し、これ
らの解析結果に応じた演奏パラメータを生成する。従っ
て、操作者の動きに応じるだけでなく、操作者の身体状
態を考慮して、楽曲演奏を多様に制御することができ
る。
In the performance interface (1T1 to 1Tn.1M) according to one embodiment of the present invention, when the operator moves the motion sensors MS1 to MSn, the information analyzer AN causes the motion sensors MS1 to MS1 to move. MS
The movement of the operator is analyzed from the n detected data. The performance parameter determination section PS determines performance parameters in accordance with the analysis result, and the tone reproduction section 1S generates tone performance data based on the performance parameters. Therefore, the desired controlled tone reflecting the motion of the motion sensor is emitted through the sound and the speaker systems 3 and 4. Information analysis unit A
N also analyzes the physical state of the operator from the state information (biological information, physiological information) from the state sensors SS1 to SSn at the same time as the movement analysis of the movement sensors MS1 to MSn, and performs according to the analysis results. Generate parameters. Therefore, the music performance can be variously controlled in consideration of not only the movement of the operator but also the physical condition of the operator.

【0029】〔身体情報検出送信機の構成〕図2は、こ
の発明の一実施例による身体情報検出送信機の一構成例
を示す。各身体情報検出送信機1Ta(a=1〜n)
は、動作センサMSaや状態センサSSaといった身体
情報センサの外に信号処理及び送信装置を備え、信号処
理及び送信装置は、送信機中央処理装置(送信機CP
U)T0、メモリT1、高周波トランスミッタT2、表
示ユニットT3、充電コントローラT4、送信用電力増
幅器T5、操作スイッチT6等から構成される。動作セ
ンサMSaは、演奏参加者が手に持ったり或いは演奏参
加者の任意箇所に取り付けたりすることができる構造で
ある。動作センサMSaを手持ちタイプにする場合、信
号処理及び送信装置を動作センサMSaと共にセンサ筐
体内に組み込むことができる。また、状態センサSSa
は、検出すべき状態に応じて身体の所定箇所に取り付ら
れる。
[Configuration of Physical Information Detection Transmitter] FIG. 2 shows an example of the configuration of a physical information detection transmitter according to one embodiment of the present invention. Each physical information detection transmitter 1Ta (a = 1 to n)
Has a signal processing and transmitting device in addition to a physical information sensor such as a motion sensor MSa and a state sensor SSa, and the signal processing and transmitting device is a transmitter central processing unit (transmitter CP).
U) T0, memory T1, high-frequency transmitter T2, display unit T3, charging controller T4, transmission power amplifier T5, operation switch T6, etc. The motion sensor MSa has a structure that can be held by a performance participant in a hand or attached to an arbitrary part of the performance participant. When the motion sensor MSa is of a hand-held type, the signal processing and transmitting device can be incorporated in the sensor housing together with the motion sensor MSa. Also, the state sensor SSa
Is attached to a predetermined part of the body according to the state to be detected.

【0030】送信機CPUT0は、メモリT1に記録さ
れた送信機動作プログラムに基づいて、動作センサMS
a、状態センサSSa、高周波トランスミッタT2、表
示ユニットT3及び充電コントローラT4の動作を制御
する。身体情報センサMSa,SSaからの検出信号
は、送信機CPUT0により、IDナンバの付加処理等
所定の処理が施され、高周波トランスミッタT2に伝送
され、さらに、送信用電力増幅器T5で増幅された上、
送信アンテナTAを介して本体システム1M側に送信さ
れる。
The transmitter CPU T0 operates based on the transmitter operation program recorded in the memory T1 and operates the operation sensor MS.
a, controls the operation of the state sensor SSa, the high-frequency transmitter T2, the display unit T3, and the charge controller T4. The detection signals from the physical information sensors MSa and SSa are subjected to predetermined processing such as ID number addition processing by the transmitter CPUT0, transmitted to the high-frequency transmitter T2, and further amplified by the transmission power amplifier T5.
The signal is transmitted to the main system 1M via the transmission antenna TA.

【0031】表示ユニットT3は、例えば、7セグメン
ト形式のLED又はLCD表示器や、1個乃至複数個の
LED発光器(何れも図示せず)を備え、LED表示器
には、センサナンバ、動作中、電源アラーム等を表示す
る。LED発光器は、例えば、操作スイッチT6の操作
状態に応じて、常時発光させるか、或いは、送信機CP
UT0の制御により動作センサMSaの検出出力に応じ
て点滅させる。操作スイッチT6は、LED発光器の点
滅制御に用いる外に、モード設定等、種々の設定を行う
のにも用いられる。充電コントローラT4は、ACアダ
プタT7に商用電源を接続したとき電池電源T8の充電
を制御し、電池電源T8に備えられた電源スイッチ(図
示せず)のオンにより電池電源T8から送信機各部に電
源供給がなされる。
The display unit T3 includes, for example, a 7-segment type LED or LCD display, and one or more LED light emitters (none of which are shown). Displays the middle and power alarms. For example, the LED light emitter emits light continuously or transmits the light according to the operation state of the operation switch T6.
Under the control of UT0, it blinks according to the detection output of the motion sensor MSa. The operation switch T6 is used not only for controlling the blinking of the LED light emitter but also for performing various settings such as mode setting. The charging controller T4 controls charging of the battery power supply T8 when a commercial power supply is connected to the AC adapter T7, and turns on a power switch (not shown) provided in the battery power supply T8 to supply power from the battery power supply T8 to various parts of the transmitter. Supply is made.

【0032】〔本体システムの構成〕図3は、この発明
の一実施例による本体システムのハードウエア構成のブ
ロック図である。この例では、本体システム1Mは、本
体中央処理装置(本体CPU)10、読出専用メモリ
(ROM)11、ランダムアクセスメモリ(RAM)1
2、外部記憶装置13,タイマ14,第1及び第2の検
出回路15,16、表示回路17、音源回路18、効果
回路19、受信処理回路1A等を備え、これらの装置1
0〜1Aは、バス1Bを介して互いに接続されている。
バス1Bには、ホストコンピュータ2と通信するための
通信インターフェイス(I/F)1Cが接続され、さら
に、MIDIインターフェイス(I/F)1Dが接続さ
れる。
[Configuration of Main System] FIG. 3 is a block diagram of the hardware configuration of the main system according to one embodiment of the present invention. In this example, the main body system 1M includes a main body central processing unit (main body CPU) 10, a read-only memory (ROM) 11, a random access memory (RAM) 1
2, an external storage device 13, a timer 14, first and second detection circuits 15, 16, a display circuit 17, a sound source circuit 18, an effect circuit 19, a reception processing circuit 1A, and the like.
0 to 1A are connected to each other via a bus 1B.
To the bus 1B, a communication interface (I / F) 1C for communicating with the host computer 2 is connected, and further, a MIDI interface (I / F) 1D is connected.

【0033】本体システム1M全体を制御する本体CP
U10は、テンポクロックや割込みクロックの発生等に
利用されるタイマ14による時間管理の下、所定のプロ
グラムに従って種々の制御を行い、特に、この発明によ
る演奏パラメータ決定や演奏データ変更及び再生制御に
関する演奏インターフェイス処理プログラムを中枢的に
遂行する。ROM11には、本体システム1Mを制御す
るための所定の制御プログラムが記憶されており、これ
らの制御プログラムには、演奏パラメータ決定や演奏デ
ータ変更及び再生制御に関する演奏インターフェイス処
理プログラム、、各種データ/テーブル等を含ませるこ
とができる。RAM12は、これらの処理に際して必要
なデータやパラメータを記憶し、また、処理中の各種デ
ータを一時記憶するためのワーク領域として用いられ
る。
Main unit CP for controlling the entire main unit system 1M
The U10 performs various controls in accordance with a predetermined program under time management by a timer 14 used for generating a tempo clock, an interrupt clock, and the like. In particular, the U10 performs performance parameter determination, performance data change, and playback control according to the present invention. Perform the interface processing program centrally. The ROM 11 stores predetermined control programs for controlling the main system 1M. These control programs include a performance interface processing program relating to performance parameter determination, performance data change and playback control, and various data / tables. Etc. can be included. The RAM 12 is used as a work area for storing data and parameters necessary for these processes and for temporarily storing various data being processed.

【0034】第1の検出回路15にはキーボード1Eが
接続され、第2の検出回路16には、マウス等のポイン
ティングデバイス1Fが接続され、表示回路17にはデ
ィスプレイ1Gが接続される。これにより、ディスプレ
イ1Gに表示される各種画面を視認しつつキーボード1
Eやポインティングデバイス1Fを操作し、本体システ
ム1Mでの演奏データ制御に必要な各種モードの設定、
IDナンバに対応する処理・機能の割当て、演奏トラッ
クへの音色(音源)設定等、種々の設定操作を行うこと
ができる。
The keyboard 1E is connected to the first detection circuit 15, the pointing device 1F such as a mouse is connected to the second detection circuit 16, and the display 1G is connected to the display circuit 17. This allows the keyboard 1 to be visually recognized while viewing various screens displayed on the display 1G.
By operating the E and the pointing device 1F, setting various modes necessary for controlling performance data in the main system 1M,
Various setting operations can be performed, such as assignment of processing and functions corresponding to the ID number and setting of a tone (sound source) to a performance track.

【0035】この発明によると、受信処理回路1Aには
アンテナ分配回路1Hが接続され、このアンテナ分配回
路1Hは、例えば、多チャンネル高周波レシーバで構成
され、複数の身体情報検出送信機1T1〜1Tnからの
動作信号及び状態信号を受信アンテナRAを介して受信
する。受信処理回路1Aは、受信信号を本体システム1
Mで処理可能な動作データ及び状態データに変換してシ
ステム内に取り込み、RAM12の所定領域に格納す
る。
According to the present invention, an antenna distribution circuit 1H is connected to the reception processing circuit 1A. The antenna distribution circuit 1H is composed of, for example, a multi-channel high-frequency receiver and includes a plurality of physical information detection transmitters 1T1 to 1Tn. Are received via the receiving antenna RA. The reception processing circuit 1A converts the received signal into the main system 1
The data is converted into operation data and state data that can be processed by the M, is taken into the system, and is stored in a predetermined area of the RAM 12.

【0036】本体CPU10による演奏インターフェイ
ス処理機能により、各演奏参加者の身体の動作及び状態
を表わす動作データ及び状態データを解析し、解析結果
に基づいて演奏パラメータを決定する。DSP等で構成
される効果回路19は、音源回路18及び本体CPU1
0と共に、音源部SBの機能を実現するものであり、設
定された演奏パラメータに基づいて、演奏される演奏デ
ータを制御することにより、演奏参加者の身体情報に応
じて演出処理された演奏データを生成する。そして、効
果回路19に接続されるサウンドシステム3は、スピー
カシステム4を介して、演出処理された演奏データに基
づく楽音信号に応じて演奏楽音を放音する。
With the performance interface processing function of the main body CPU 10, operation data and state data representing the body movement and state of each performance participant are analyzed, and performance parameters are determined based on the analysis result. An effect circuit 19 composed of a DSP or the like includes a sound source circuit 18 and a main body CPU 1.
0, the function of the sound source section SB is realized, and by controlling the performance data to be performed based on the set performance parameters, the performance data which has been produced in accordance with the physical information of the performance participant. Generate The sound system 3 connected to the effect circuit 19 emits a performance musical tone via the speaker system 4 in accordance with a musical tone signal based on the performance data subjected to the effect processing.

【0037】なお、外部記憶装置13は、ハードディス
クドライブ(HDD)、コンパクトディスク・リード・
オンリィ・メモリ(CD−ROM)ドライブ、フロッピ
ィディスクドライブ(FDD)、光磁気(MO)ディス
クドライブ、ディジタル多目的ディスク(DVD)ドラ
イブ等の記憶装置から成り、各種制御プログラムや各種
データを記憶することができる。従って、演奏パラメー
タ決定や演奏データ変更及び再生制御に必要な演奏イン
ターフェイス処理プログラム、各種データ等は、ROM
11を利用するだけでなく、外部記憶装置13からRA
M12内に読み込むことができ、必要に応じて、処理結
果を外部記憶装置13に記録しておくこともできる。さ
らに、外部記憶装置13、特に、CD−ROM、FD、
MO、DVD等のメディアには、例えば、MIDI形式
の種々の演奏楽曲データはMIDIファイルとして格納
されており、これを利用して、所望の演奏楽曲データを
本体システム内に取り込むことができる。
The external storage device 13 includes a hard disk drive (HDD), a compact disk
It is composed of storage devices such as an only memory (CD-ROM) drive, a floppy disk drive (FDD), a magneto-optical (MO) disk drive, and a digital versatile disk (DVD) drive, and can store various control programs and various data. it can. Therefore, the performance interface processing program, various data, and the like necessary for determining performance parameters, changing performance data, and controlling playback are stored in a ROM.
11 as well as RA from external storage device 13.
It can be read into M12, and the processing result can be recorded in the external storage device 13 as needed. Further, the external storage device 13, particularly, a CD-ROM, an FD,
In the media such as MO and DVD, for example, various musical composition data in the MIDI format are stored as MIDI files, and by using this, desired musical composition data can be imported into the main system.

【0038】また、このような処理プログラムや演奏楽
曲データは、通信I/F1C及び通信ネットワークを介
して接続されるホストコンピュータ2から、本体システ
ム1Mに取り込み、或いは、ホストコンピュータ2に送
り出したりすることができる。例えば、音源ソフトウエ
アや、演奏楽曲データ等のソフトウエアは、通信ネット
ワークを通じて配信できるようにする。さらに、MID
II/F1Dに接続される他のMIDI機器1Jと通信
し、演奏データ等を受信してこれを利用したり、或い
は、逆に、この発明の演奏インターフェイス機能により
演出処理された演奏データを送り出す。これによって、
本体システム1Mの音源部(図1:SB、図3:18・
19)を省略し、音源部の機能を他のMIDI機器1J
に与えることができる。
Further, such processing programs and performance music data may be taken into the main system 1M from the host computer 2 connected via the communication I / F 1C and the communication network, or sent out to the host computer 2. Can be. For example, software such as sound source software and performance music data can be distributed through a communication network. Furthermore, MID
It communicates with another MIDI device 1J connected to the II / F1D to receive and use performance data and the like, or conversely, sends out performance data that has been rendered by the performance interface function of the present invention. by this,
Sound source section of main system 1M (Fig. 1: SB, Fig. 3: 18
19) is omitted, and the function of the sound source section is changed to another MIDI device 1J.
Can be given to.

【0039】〔動作センサの構成例〕図4及び図5は、
この発明の演奏インターフェイスに使用可能な身体情報
検出機構の例を示す。図4(1)は、バトン形の手持ち
タイプの身体情報検出送信機の例である。この身体情報
検出送信機は、操作部及び表示部を除く図2の諸装置を
内蔵している(状態センサSSaを備えていない。)。
内蔵される動作センサMSaには、例えば、3次元加速
度センサや3次元速度センサ等の3次元センサが用いら
れ、このバトン形送信機を演奏参加者が手に持って操作
することにより操作の方向及び大きさに応じた動作信号
を出力することができる。
[Structural Example of Motion Sensor] FIGS.
5 shows an example of a body information detection mechanism that can be used for the performance interface of the present invention. FIG. 4A is an example of a baton-shaped hand-held type physical information detection transmitter. This physical information detection transmitter incorporates the various devices shown in FIG. 2 except for the operation unit and the display unit (does not include the state sensor SSa).
For the built-in motion sensor MSa, for example, a three-dimensional sensor such as a three-dimensional acceleration sensor or a three-dimensional speed sensor is used. And an operation signal corresponding to the size can be output.

【0040】この送信機の外観構造は、図示のように、
両端側が大径で中央側が小径のテーパ状をなす基部(図
示左寄り)及び端部(図示右寄り)から成り、基部は、
平均径が端部より小さく手で握りやすくなっており、把
持部として機能する。底部(図示左端)外面には表示ユ
ニットT3のLED表示器TD及び電池電源T8の電源
スイッチTSが設けられ、中央部外面には操作スイッチ
T6が設けられ、端部の先端近傍には表示ユニットT3
の複数個のLED発光器TLが設けられる。
The external structure of this transmitter is shown in FIG.
It consists of a base (left side in the figure) and an end (right side in the figure), both ends of which have a large diameter and a small diameter on the center side.
The average diameter is smaller than the end, making it easier to grasp with the hand, and functions as a grip. The LED display TD of the display unit T3 and the power switch TS of the battery power supply T8 are provided on the outer surface of the bottom (left end in the figure), the operation switch T6 is provided on the outer surface of the center, and the display unit T3 is provided near the end of the end.
Are provided.

【0041】図4(1)に示すバトン形送信機は、演奏
参加者がバトンの基部を手で握って操作すると、内蔵さ
れた3次元センサから操作方向と操作力に応じた動作信
号が出力される。例えば、操作スイッチT6の取付方向
にx方向の検出軸を合わせて3次元加速度センサが内蔵
されている場合、バトンを操作スイッチT6の取付位置
が上になるように持って上下に振ると、振り加速度
(力)に応じたx方向の加速度αxを表わす信号出力が
発生し、バトンを左右(紙面に垂直)に振ると、振り加
速度(力)に応じたy方向の加速度αyを表わす信号出
力が発生し、バトンを前後(紙面の左右)に突いたり引
いたりすると、突き加速度或いは引き加速度に応じたz
方向の加速度αzを表わす信号出力が発生する。
The baton-type transmitter shown in FIG. 4A outputs an operation signal according to the operation direction and operation force from a built-in three-dimensional sensor when a performer grips and operates the baton base. Is done. For example, when a three-dimensional acceleration sensor is built in with the detection axis in the x direction aligned with the mounting direction of the operation switch T6, when the baton is shaken up and down with the mounting position of the operation switch T6 up, When a signal output representing the acceleration αx in the x direction according to the acceleration (force) is generated, and the baton is swung right and left (perpendicular to the paper surface), a signal output representing the acceleration αy in the y direction according to the swing acceleration (force) is generated. When the baton strikes and pulls back and forth (left and right on the paper), z
A signal output representing the acceleration αz in the direction is generated.

【0042】図4(2)は、シューズの踵部分に動作セ
ンサを埋め込んだシューズ形の例を示す。動作センサM
Saは、例えば、歪み検出器(垂直x軸方向の1次元セ
ンサ)或いは2次乃至3次元センサ(左右y軸方向乃至
つま先z軸方向)であり、シューズの踵部分に埋め込ま
れる。また、この例では、図2の身体情報検出送信機1
Taのうちセンサ部を除く諸装置は、例えば、腰ベルト
に取り付けた信号処理及び送信機装置(図示せず)に組
み込まれ、動作センサMSaの動作検出出力はワイヤ
(図示せず)を介して検出処理及び送信機装置に入力さ
れるようになっている。このようなシューズ形の動作セ
ンサは、例えば、ラテン音楽等の演奏でタップダンスを
する際に、検出信号の周期に応じて演奏楽曲のテンポを
制御したり、検出タイミングに応じて打楽器音量の増大
やタップ音の挿入(特定演奏トラックを利用)を行った
りするのに用いることができる。
FIG. 4B shows an example of a shoe shape in which a motion sensor is embedded in the heel portion of the shoe. Motion sensor M
Sa is, for example, a strain detector (one-dimensional sensor in the vertical x-axis direction) or a secondary to three-dimensional sensor (left-right y-axis direction to toe z-axis direction), and is embedded in the heel portion of the shoe. In this example, the physical information detection transmitter 1 shown in FIG.
The devices other than the sensor portion of Ta are incorporated in, for example, a signal processing and transmitter device (not shown) attached to the waist belt, and the operation detection output of the operation sensor MSa is transmitted via a wire (not shown). It is input to a detection process and a transmitter device. Such a shoe-shaped motion sensor controls the tempo of a musical piece performed in accordance with the cycle of a detection signal or increases the percussion instrument volume in accordance with the detection timing, for example, when performing a tap dance in the performance of Latin music or the like. Or inserting a tap sound (using a specific performance track).

【0043】一方、状態センサSSaは、手に持って状
態情報を取得し得る場合は上述のバトン形に類似した手
持ちタイプで実施することもできるが、通常は、取得し
たい状態情報の種類に対応する身体状態検知部位に取り
付け、状態センサSSaの状態検出出力を、ワイヤを介
して、演奏参加者の他の所要部位(胴衣、帽子、眼鏡、
首輪、腰ベルト等々)に設けられた信号処理及び送信機
装置に与えるように構成する。
On the other hand, the state sensor SSa can be implemented by a hand-held type similar to the above-mentioned baton type when the state information can be acquired by holding it by hand. Attached to the body condition detection part, and outputs the state detection output of the state sensor SSa to other required parts of the performance participant (jacket, hat, glasses,
(E.g., collars, waist belts, etc.).

【0044】図5は、身体情報検出機構の他の構成例を
示す。この例では、指輪タイプの身体情報センサIS及
び信号処理及び送信機装置TTaにより身体情報検出送
信機1Taが構成される。身体情報センサISは、例え
ば、2次元乃至3次元センサや歪み検出器のような動作
センサMSa、或いは、脈拍(脈波)検出器のような状
態センサSSaを用いることができ、図示のように、1
つの指(人指し指)だけでなく、複数の指に設置するこ
とができる。図2の身体情報検出送信機1Taのうちセ
ンサ部を除く諸装置は、腕輪形で支持される検出処理及
び送信機装置TTaに組み込まれ、身体情報センサIS
の検出出力はワイヤ(図示せず)を介して信号処理及び
送信機装置TTaに入力される。
FIG. 5 shows another example of the structure of the body information detecting mechanism. In this example, a ring-type body information sensor IS and a signal processing and transmission device TTa constitute a body information detection transmitter 1Ta. As the physical information sensor IS, for example, a motion sensor MSa such as a two-dimensional or three-dimensional sensor or a strain detector, or a state sensor SSa such as a pulse (pulse wave) detector can be used. , 1
It can be installed not only on one finger (index finger) but also on multiple fingers. Various devices other than the sensor unit in the physical information detection transmitter 1Ta of FIG. 2 are incorporated in the detection processing and transmitter device TTa supported in a bracelet shape, and the physical information sensor IS
Is input to the signal processing and transmitting apparatus TTa via a wire (not shown).

【0045】信号処理及び送信機装置TTaには、図4
(1)と同様に、LED表示器TD、電源スイッチTS
及び操作スイッチT6が設けられるが、LED発光器T
Lは備えていない。なお、身体情報センサISに動作セ
ンサMSaを用いる場合は必要に応じて身体状態の検知
が可能な他の部位に状態センサSSaを設け、また、身
体情報センサISに状態センサSSaを用いる場合に
は、必要に応じて、動作センサMSa〔例えば、図4
(2)のような動作センサMSa〕を動作の検知が可能
な他の部位に設けるようにすることができる。
The signal processing and transmitter device TTa has the configuration shown in FIG.
LED display TD, power switch TS as in (1)
And an operation switch T6 are provided.
L is not provided. In addition, when using the motion sensor MSa for the physical information sensor IS, the state sensor SSa is provided in another part capable of detecting the physical condition as needed, and when the state sensor SSa is used for the physical information sensor IS, If necessary, the motion sensor MSa [for example, FIG.
The motion sensor MSa] as in (2) can be provided at another portion where the motion can be detected.

【0046】〔センサデータのフォーマット〕この発明
の一実施例においては、動作センサや状態センサの検出
信号が表わすデータには、各センサのIDナンバが付与
され、本体システム1M側でセンサを識別し、対応する
処理を行うのに用いられる。図6は、センサデータのフ
ォーマット例を示す。IDナンバは、最上位5ビット
(ビット0〜4)が使用され、最大32個の番号を付与
することができる。
[Sensor Data Format] In one embodiment of the present invention, the ID number of each sensor is assigned to the data represented by the detection signals of the motion sensor and the status sensor, and the main system 1M identifies the sensor. , Are used to perform corresponding processing. FIG. 6 shows a format example of the sensor data. As the ID number, the most significant 5 bits (bits 0 to 4) are used, and a maximum of 32 numbers can be assigned.

【0047】次の3ビット(ビット5〜7)は、スイッ
チ(SW)ビットであり、モード指定、スタート/スト
ップ、曲選択、頭出し等、最大8種の各種指定を行うの
に用いることができ、本体システム1M側でIDナンバ
毎に設定されるスイッチテーブルに従って解読される。
このSWビットは、操作スイッチT6により全ビットを
指定したり、一部ビットのみセット可能とし残りをセン
サ毎に予め設定しておいたり、或いは、全ビットを予め
設定しておくこともできる。通常は、操作スイッチT6
により少なくとも第1SWビットA(ビット5)をプレ
イモードオン(A=“1”)/オフ(A=“0”)を指
定することができるようにしておくのが好ましい。
The next three bits (bits 5 to 7) are switch (SW) bits, which can be used to specify up to eight types of various specifications such as mode designation, start / stop, song selection, and cueing. It can be decoded according to a switch table set for each ID number on the main system 1M side.
As the SW bit, all bits can be designated by the operation switch T6, only some bits can be set, and the remaining bits can be set in advance for each sensor, or all bits can be set in advance. Normally, the operation switch T6
It is preferable that at least the first SW bit A (bit 5) can be specified to be play mode on (A = “1”) / off (A = “0”).

【0048】次の3つのバイト(=8ビット)は、デー
タバイトであり、3次元センサを用いる場合は、図示の
ように、x軸データ(ビット8〜15)、y軸データ
(ビット16〜23)及びz軸データ(ビット24〜3
1)が割り当てられ、2次元センサの場合は第3データ
バイト(ビット24〜31)を拡張データ領域として用
いることができ、1次元センサの場合は第2及び第3デ
ータバイト(ビット16〜31)を拡張データ領域とし
て用いることができる。また、他の種類の情報センサに
対しては、それぞれの検出態様に応じたデータ値をこれ
らのデータバイトに割り当てることができる。
The next three bytes (= 8 bits) are data bytes. When a three-dimensional sensor is used, as shown, x-axis data (bits 8 to 15) and y-axis data (bits 16 to 15) are used. 23) and z-axis data (bits 24 to 3)
1) is assigned, the third data byte (bits 24 to 31) can be used as an extended data area in the case of a two-dimensional sensor, and the second and third data bytes (bits 16 to 31) in the case of a one-dimensional sensor. ) Can be used as the extension data area. For other types of information sensors, data values according to the respective detection modes can be assigned to these data bytes.

【0049】〔動作センサの利用=複数の解析出力の利
用〕この発明の一実施例においては、演奏参加者が操作
体を操作することにより生じる動作センサ出力を処理し
て得られる複数の解析出力によって、楽曲演奏に所望の
制御を加えることができる。例えば、動作センサとして
1方向のみの加速度(力)を検出する1次元加速度セン
サを用いる場合には、図7に示すような基本構成によっ
て、楽曲演奏に関わる複数の演奏パラメータを制御する
ことができる。ここで、1次元加速度センサMSaは、
例えば、図4(1)に示されるバトン形構造の身体情報
検出送信機において、所定の一方向(例えば、上下x軸
方向)成分のみの加速度(力)を検出する加速度検出器
(x軸検出部)Saを内臓した操作体として構成されて
いる。
[Utilization of Motion Sensor = Utilization of a plurality of Analysis Outputs] In one embodiment of the present invention, a plurality of analysis outputs obtained by processing motion sensor outputs generated by a performance participant operating an operation body. Thus, desired control can be added to the music performance. For example, when a one-dimensional acceleration sensor that detects acceleration (force) in only one direction is used as a motion sensor, a plurality of performance parameters related to music performance can be controlled by a basic configuration as shown in FIG. . Here, the one-dimensional acceleration sensor MSa
For example, in the baton-shaped body information detection transmitter shown in FIG. 4A, an acceleration detector (x-axis detection) that detects acceleration (force) in only a predetermined one-direction (for example, up-down x-axis direction) component (Part) Sa is configured as an operating body with built-in Sa.

【0050】図7において、演奏参加者がこのような操
作体を手に持って振るなどの操作をすると、1次元加速
度センサMSaは、その操作加速度(力)のうち所定の
一方向(x軸方向)成分のみの加速度αを表わす検出信
号Maを本体システム1Mに出力する。本体システム1
Mでは、予め設定されたIDナンバがこの検出信号に付
加されていることを確認すると、低域通過、高域除去等
によりノイズ成分を除去し有効成分を通す帯域通過フィ
ルタ機能、及び、重力分除去のための直流カット機能を
有する受信処理部RPを介して、加速度αを表わす有効
データが情報解析部ANに手渡される。
In FIG. 7, when the performer performs an operation such as shaking the operating body in his hand, the one-dimensional acceleration sensor MSa outputs a predetermined direction (x-axis) of the operating acceleration (force). A detection signal Ma representing the acceleration α of only the (direction) component is output to the main system 1M. Main system 1
In M, if it is confirmed that a preset ID number is added to the detection signal, a band-pass filter function for removing a noise component by low-pass and high-frequency removal and passing an effective component, and a gravity component Through the reception processing unit RP having a DC cut function for removal, effective data representing the acceleration α is passed to the information analysis unit AN.

【0051】情報解析部ANは、この加速度データを解
析し、絶対加速度|α|の時間経過波形|α|(t)の
ローカルピークの発生時刻を表わすピーク時点Tp、ロ
ーカルピークの高さを表わすピーク値Vp、次式(1)
で表わされローカルピークの鋭さを示すピークQ値Q
p、ローカルピーク間の時間間隔を表わすピークインタ
ーバル、ローカルピーク間の谷の深さ、ピークの高周波
成分の強さ、加速度α(t)のローカルピークの極性等
を抽出する:
The information analyzing unit AN analyzes the acceleration data, and indicates the peak time Tp indicating the occurrence time of the local peak of the time-lapse waveform | α | (t) of the absolute acceleration | α | and the height of the local peak. Peak value Vp, the following equation (1)
The peak Q value Q indicating the sharpness of the local peak represented by
Extract p, peak interval representing the time interval between local peaks, valley depth between local peaks, intensity of high frequency components of peaks, polarity of local peaks of acceleration α (t), etc .:

【数1】 ここで、wは、加速度波形α(t)のローカルピークに
おける高さがピーク値Vpの半分である点の時間幅であ
る。
(Equation 1) Here, w is the time width of the point where the height of the local peak of the acceleration waveform α (t) is half of the peak value Vp.

【0052】演奏パラメータ決定部PSは、これらの検
出出力Tp,Vp,Qp,…に応じて、拍タイミングB
T、ダイナミクス(ベロシティやボリューム)DY、或
いは、アーティキュレーションAR、音高(ピッチ)、
音色等、種々の演奏パラメータを決定し、楽音再生部1
Sの演奏データ制御部において、決定された演奏パラメ
ータに基づいて演奏データを制御し、サウンドシステム
3を介して楽音演奏の出力を行う。例えば、ピーク発生
時刻(時点)Tpに応じて拍タイミングBTを制御し、
ピーク値Vpに応じてダイナミクスDYを制御し、ピー
クQ値Qpに応じてアーティキュレーションARを制御
し、また、ローカルピークの極性に応じて表拍か裏拍か
を決定し拍番号の弁別を行う。
The performance parameter determination unit PS determines the beat timing B in accordance with the detected outputs Tp, Vp, Qp,.
T, dynamics (velocity and volume) DY, or articulation AR, pitch (pitch),
Various performance parameters such as tone color are determined, and the tone reproduction unit 1
In the performance data control unit of S, the performance data is controlled based on the determined performance parameters, and the musical performance is output via the sound system 3. For example, the beat timing BT is controlled according to the peak occurrence time (time point) Tp,
The dynamics DY is controlled according to the peak value Vp, the articulation AR is controlled according to the peak Q value Qp, and the front beat or back beat is determined according to the polarity of the local peak, and the beat number is discriminated. Do.

【0053】図8は、1次元加速度センサMSaを手に
持って指揮操作した場合における手振り動作の軌跡例及
び加速度データαの波形例を極めて概略的に示してお
り、縦軸の加速度値“α(t)”は加速度データαの絶
対値(極性なし)つまり絶対加速度“|α|(t)”を
表わしている。図8(1)は、2ビートのエスプレシヴ
ォ(espressivo=expressively;「表情豊かに」)指揮動
作時における動作軌跡例(a)及び加速度波形例(a)
を示し、この軌跡例(a)では、黒丸で示す動作点P
1,P2で指揮動作を停止せず、常に滑らかに柔らかく
動いている。一方、図8(2)は、2ビートのスタッカ
ート(staccato ;「音を明確に分離して」)指揮動作時
における動作軌跡例(b)及び加速度波形例(b)を示
し、この軌跡例(b)は、×印で示す動作点P3,P4
で一時停止し、素早く鋭い指揮動作を表わしている。
FIG. 8 schematically shows an example of a trajectory of a hand movement and a waveform example of acceleration data α when a command operation is performed while holding the one-dimensional acceleration sensor MSa in a hand. (T) "represents the absolute value (no polarity) of the acceleration data α, that is, the absolute acceleration" | α | (t) ". FIG. 8A shows an example of a motion trajectory (a) and an example of an acceleration waveform (a) during a 2-beat espressivo = expressively ("expressively express") commanding operation.
In this locus example (a), the operating point P indicated by a black circle
The commanding operation is not stopped at 1 and P2, and the movement is always smooth and soft. On the other hand, FIG. 8B shows an example of a motion trajectory (b) and an acceleration waveform example (b) during a 2-beat staccato (staccato; “clearly separate sound”) commanding operation. b) operating points P3 and P4 indicated by crosses
Pause at, indicating a quick and sharp commanding action.

【0054】従って、このような指揮動作に相応して、
例えば、ピーク発生時刻(時点)Tp=t1,t2,t
3,…;t4,t5,t6,…により拍タイミングBT
を決定し、ピーク値VpによりダイナミクスDYを決定
し、また、ローカルピークのQ値Qpによりアーティキ
ュレーション・パラメータARを決定する。つまり、図
8(1)のエスプレシヴォ動作時及び図8(2)のスタ
ッカート動作では、ピーク値Vpにはあまり差がない
が、ローカルピークのQ値は十分に異なるので、このQ
値Qpを用いてスタッカートからエスプレシヴォの間の
アーティキュレーションの程度を制御するのである。こ
のアーティキュレーション・パラメータARの使い方に
ついては、以下に、もう少し詳しく説明しよう。
Therefore, in response to such a commanding operation,
For example, peak occurrence time (time point) Tp = t1, t2, t
3,...; Beat timing BT by t4, t5, t6,.
Is determined, the dynamics DY is determined by the peak value Vp, and the articulation parameter AR is determined by the Q value Qp of the local peak. That is, during the espresso operation shown in FIG. 8A and the staccato operation shown in FIG. 8B, there is not much difference in the peak value Vp, but the Q value of the local peak is sufficiently different.
The value Qp is used to control the degree of articulation between staccato and espresso. The use of the articulation parameter AR will be described in more detail below.

【0055】MIDI曲データは、多数の楽音につい
て、音高情報等と共に、発音開始タイミング及び消音開
始(発音停止)タイミングを表わす情報を有している。
この発音の開始から停止までの時間、即ち、音が鳴って
いる時間長を、「ゲートタイム」と呼んでいる。このゲ
ートタイムGTを曲データのゲートタイム値より短くす
ることにより、つまり、曲データゲートタイムGT0に
乗算する係数Agtを用いて説明すると、例えば、Ag
t=0.5としゲートタイムGT0の0.5倍とするこ
とにより、スタッカート的な演奏が得られる。また、逆
に、例えば、a=1.8即ち1.8倍として、曲データ
本来のゲートタイム値より長くすると、エスプレシヴォ
的な演奏が得られる。
The MIDI music data has information indicating a tone generation start timing and a silence start (tone generation stop) timing together with pitch information and the like for a large number of musical tones.
The time from the start to the stop of the sound, that is, the length of time during which the sound is sounding is called "gate time". If the gate time GT is made shorter than the gate time value of the music data, that is, by using a coefficient Agt by which the music data gate time GT0 is multiplied, for example, Ag
By setting t = 0.5 and 0.5 times the gate time GT0, a staccato performance can be obtained. Conversely, for example, when a = 1.8, that is, 1.8 times, longer than the original gate time value of the music data, an espresso-like performance can be obtained.

【0056】そこで、このゲートタイム係数Agtをア
ーティキュレーション・パラメータARとして採用しロ
ーカルピークのQ値Qpに応じて変化させる。例えば、
次式(2)に示すように、ローカルピークのQ値Qpの
線形変換を行い、このようにQ値Qpに応じて変化する
係数Agtを用いてゲートタイムGTを調整することに
より、アーティキュレーションARを制御することがで
きる: Agt = k1×Qp + k2 ……(2)
Therefore, the gate time coefficient Agt is adopted as the articulation parameter AR and is changed according to the Q value Qp of the local peak. For example,
As shown in the following equation (2), the linear conversion of the Q value Qp of the local peak is performed, and the gate time GT is adjusted by using the coefficient Agt that changes according to the Q value Qp, thereby achieving the articulation. AR can be controlled: Agt = k1 × Qp + k2 (2)

【0057】演奏パラメータの制御にはピークQ値Qp
の外に、図8の各波形例(a),(b)に示される絶対
加速度|α|の時間波形における谷の深さや、高周波成
分の強さ等を使ったり、これらを併用してもよい。図示
の軌跡例(b)では、一時停止の時間が軌跡例(a)よ
りも長く、波形の谷は深く、値がより“0”に近い。ま
た、軌跡例(b)では、動作が軌跡例(a)よりも鋭い
ので、高周波成分が軌跡例(a)よりも強い。
For controlling the performance parameters, the peak Q value Qp
8, the depth of a valley, the strength of a high frequency component, etc. in the time waveform of the absolute acceleration | α | shown in each waveform example (a) and (b) of FIG. Good. In the illustrated trajectory example (b), the pause time is longer than in the trajectory example (a), the valley of the waveform is deep, and the value is closer to “0”. In the trajectory example (b), since the operation is sharper than in the trajectory example (a), the high-frequency component is stronger than in the trajectory example (a).

【0058】さらに、ピークQ値Qpによって、例え
ば、音色を制御することができる。一般に、シンセサイ
ザでは、音波形の包絡線形状を、アタック(立上り)部
A、ディケイ部D、サスティンS及びリリースRで決め
るが、アタック部Aの立上り速さ(傾斜)が低いと柔ら
かい音色になり、逆に高いと鋭い音色になる傾向があ
る。そこで、1次元加速度センサMSaを装着した操作
体を演奏参加者が手振り操作した場合、手振り動作加速
度(αx)の時間波形におけるローカルピークのQ値に
よって、このアタック部Aの立上り速さを制御すること
により等価的な音色をコントロールすることができる。
Further, for example, the timbre can be controlled by the peak Q value Qp. Generally, in a synthesizer, the envelope shape of a sound waveform is determined by an attack (rising) portion A, a decay portion D, a sustain S, and a release R. If the rising speed (incline) of the attack portion A is low, a soft tone is obtained. On the other hand, if it is high, the tone tends to be sharp. Therefore, when the performance participant wears the operating body equipped with the one-dimensional acceleration sensor MSa, the rising speed of the attack part A is controlled by the Q value of the local peak in the time waveform of the hand movement acceleration (αx). Thus, an equivalent tone can be controlled.

【0059】なお、この例では音波形の包絡線形状AD
SRの一部を制御して等価的に音色をコントロールする
ようにしたが、例えば、ダブルベースの音色からバイオ
リンの音色へというように、音色自体(所謂“ボイ
ス”)を切り替えてもよいし、この方法をADSR制御
による方法と併用してもよい。また、原因情報として、
ローカルピークのQ値だけでなく、波形の高周波成分の
強さや他の情報を用いてもよい。
In this example, the sound wave envelope shape AD
Although the tone is controlled equivalently by controlling a part of the SR, the tone itself (so-called “voice”) may be switched, for example, from a double bass tone to a violin tone, This method may be used in combination with the method based on ADSR control. Also, as cause information,
Not only the Q value of the local peak but also the strength of the high frequency component of the waveform and other information may be used.

【0060】また、検出出力に応じてリバーブ等の効果
(所謂“エフェクト”)パラメータを制御することもで
きる。例えば、ローカルピークのQ値を利用してリバー
ブ時間を制御する。このQ値が高いということは、演奏
参加者が操作体を鋭く振る動作に対応するが、このよう
なキビキビとした鋭い動作ではリバーブを短くして音の
歯切れをよくする。逆に、Q値が低いときは、リバーブ
を長くして緩やかでゆったりとした音にする。もちろ
ん、意図的にこの関係を逆にしたり、別の効果パラメー
タ(例えば、音源部SBのフィルタカットオフ周波数な
ど)を制御したり、これら複数の効果パラメータを制御
するようにしても良い。この場合も、原因情報として、
ローカルピークのQ値だけに限定されず、波形の高周波
成分の強さや他の情報を用いることができる。
Further, it is also possible to control an effect parameter such as reverb (so-called "effect") according to the detection output. For example, the reverb time is controlled using the Q value of the local peak. A high Q value corresponds to a motion of the performance participant shaking the operating body sharply, but such a sharp and sharp motion shortens the reverb to improve the crispness of the sound. Conversely, when the Q value is low, the reverb is lengthened to produce a gentle and slow sound. Of course, this relationship may be intentionally reversed, another effect parameter (for example, a filter cutoff frequency of the sound source section SB) may be controlled, or the plurality of effect parameters may be controlled. In this case, as the cause information,
Not limited to the Q value of the local peak, the strength of the high frequency component of the waveform and other information can be used.

【0061】さらに、ピークインターバルを利用してロ
ーカルピーク発生時点で打楽器音を発生させる打楽器発
音モードを演出することができる。この打楽器発音モー
ドにおいては、抽出されたピークインターバルが長いと
きは、例えば、ベースドラムのような低い音高の打楽器
を鳴らし、素早い振り動作でピークインターバルが短い
ときは、例えば、トライアングルのような高い音高の打
楽器を鳴らす。もちろん、逆の関係にしてもよいし、音
色(ボイス)を切り替えるのではなく、1つの音色のま
まピッチ(音高)のみを連続的或いは段階的に変化させ
てもよい。さらに、音色(ボイス)は、2種ではなく、
多種のものが移り変わっていくようにしたり、或いは、
音量クロスフェードを行いながら徐々に変化するように
してもよい。また、ピッチインターバルの利用について
は、打楽器に限定しないで、例えば、ダブルベースから
バイオリンへというように、弦楽器音色を変化させると
共に音高も変化させるというように、他の楽器の音色及
び音高を変えるようにしてもよい。
Further, a percussion instrument sounding mode for generating a percussion instrument sound at the time of occurrence of a local peak using a peak interval can be produced. In this percussion instrument sounding mode, when the extracted peak interval is long, for example, a low pitched percussion instrument such as a bass drum is played, and when the peak interval is short due to a quick swing motion, for example, a high pitch such as a triangle is used. Plays pitched percussion instruments. Of course, the relationship may be reversed, and only the pitch (pitch) may be changed continuously or stepwise without changing the timbre (voice). Furthermore, the tone (voice) is not two kinds,
So that many things can change, or
You may make it change gradually, performing a volume crossfade. Further, the use of the pitch interval is not limited to the percussion instrument. For example, the tone and the pitch of another instrument are changed, such as changing the tone of the stringed instrument and changing the pitch, for example, from a double bass to a violin. You may change it.

【0062】〔複数の動作センサ出力の利用〕この発明
の一実施例においては、また、演奏参加者が操作体を操
作することにより生じる複数の動作センサ出力を処理す
ることによって、楽曲演奏に所望の制御を加えることが
できる。このような動作センサには、例えば、図4
(1)に示すようなバトン形構造体にx軸及びy軸検出
部を備える2次元センサ、或いは、更にz軸検出部を備
える3次元センサを内蔵させたものを用いるのが好適で
ある。この動作センサが装着された操作体を握って、x
軸乃至y軸方向、更には、z軸方向に操作すると、各軸
センサの動作検出出力は解析され操作(動き)種別が判
定され、その判定結果に応じて楽曲の複数の演奏パラメ
ータ、例えば、テンポ、音量等が制御される。従って、
演奏参加者は、楽曲演奏に対して指揮者のように振る舞
うことができる(指揮モード)。
[Utilization of a plurality of motion sensor outputs] In one embodiment of the present invention, a plurality of motion sensor outputs generated by a performance participant operating an operating body are processed to obtain a desired music performance. Control can be added. Such a motion sensor includes, for example, FIG.
It is preferable to use a two-dimensional sensor having an x-axis and a y-axis detector or a three-dimensional sensor further having a z-axis detector in a baton-shaped structure as shown in (1). Holding the operating body equipped with the motion sensor, x
When the operation is performed in the direction from the axis to the y-axis, and further in the z-axis direction, the operation detection output of each axis sensor is analyzed and the operation (movement) type is determined, and a plurality of performance parameters of the music, for example, Tempo, volume, etc. are controlled. Therefore,
The performance participant can behave like a conductor to the music performance (conductor mode).

【0063】指揮モードの場合、指定された制御可能な
複数の演奏パラメータを常にセンサの動作検出出力によ
り制御するモード(プロモード)と、センサ出力がある
場合はセンサ出力で演奏パラメータを制御するが、セン
サ出力が無い場合にはオリジナルのMIDIデータのま
ま再生するモード(セミオートモード)に設定すること
ができる。
In the command mode, a plurality of designated controllable performance parameters are always controlled by the operation detection output of the sensor (pro mode), and if there is a sensor output, the performance parameters are controlled by the sensor output. When there is no sensor output, a mode in which the original MIDI data is reproduced as it is (semi-auto mode) can be set.

【0064】ここで、指揮動作のための動作センサとし
て2次元センサを用いると、1次元センサを用いる場合
と同様に、種々の解析を行いこれに応じて種々の演奏パ
ラメータを制御することができ、しかも、1次元センサ
に比べて、振り動作をより忠実に反映する解析出力が得
られる。例えば、上述の2次元加速度センサを装着した
操作体(指揮棒)を持って、図7及び図8の1次元セン
サと同様に手振り動作を行うと、2次元センサのx軸及
びy軸検出部から、それぞれ、x軸(上下/縦)方向の
加速度αx及びy軸(左右/横)方向の加速度αyを表
わす信号が本体システム1Mに出力される。本体システ
ム1Mでは、各軸の加速度データが受信処理部を介して
情報解析部に手渡されて各軸加速度データが解析され、
次式(3)で表わされる絶対加速度即ち加速度の絶対値
|α|が求められる:
Here, if a two-dimensional sensor is used as a motion sensor for a commanding operation, various analyzes can be performed and various performance parameters can be controlled in accordance with the analysis, as in the case of using a one-dimensional sensor. In addition, an analysis output that more accurately reflects the swing operation can be obtained as compared with a one-dimensional sensor. For example, when the user performs a hand-holding motion in the same manner as the one-dimensional sensor of FIGS. , A signal representing the acceleration αx in the x-axis (vertical / vertical) direction and the signal αy in the y-axis (horizontal / lateral) direction are output to the main system 1M. In the main body system 1M, the acceleration data of each axis is passed to the information analysis unit via the reception processing unit, and the acceleration data of each axis is analyzed.
An absolute acceleration represented by the following equation (3), that is, an absolute value | α | of the acceleration is obtained:

【数2】 (Equation 2)

【0065】図9は、x軸及びy軸用に2個の加速度検
出器(静電型加速度センサ:東プレ“TPR70G-100”)を
用いた2次元加速度センサを指揮棒に装着し、演奏操作
者がこの指揮棒を右手で持ち指揮操作した場合に得られ
た手振り動作の軌跡及び加速度波形の一例を示す。指揮
軌跡は、2次元の動作軌跡として表され、図9(1)に
示すように、例えば、(a)2ビートのエスプレシヴォ
指揮動作、(b)2ビートのスタッカート指揮動作、
(c)2ビートのエスプレシヴォ指揮動作及び(d)3
ビートのスタッカート指揮動作における軌跡が得られ
る。図中、“(1)”〜“(3)”は振り動作(拍打動
作)区分を表わし、(a)及び(b)は「2つ振り」
(2ビート)であり、(c)及び(d)は「3つ振り」
(3ビート)である。また、図9(2)は、演奏操作者
の指揮動作による各軌跡例(a)〜(d)に対応してセ
ンサの各軸検出器から得られる検出出力を表わしてい
る。
FIG. 9 shows a performance bar in which a two-dimensional acceleration sensor using two acceleration detectors (electrostatic acceleration sensor: Topre “TPR70G-100”) for the x-axis and the y-axis is mounted on a command rod. An example of a trajectory and an acceleration waveform of a hand movement obtained when a user performs the commanding operation by holding the commanding bar with his right hand is shown. The command trajectory is represented as a two-dimensional motion trajectory, and as shown in FIG. 9A, for example, (a) a 2-beat espressivo commanding operation, (b) a 2-beat staccato commanding operation,
(C) 2-beat espressivo commanding action and (d) 3
The trajectory of the beat staccato command operation is obtained. In the figure, “(1)” to “(3)” represent swing motion (beating motion) classifications, and (a) and (b) represent “two swing”.
(2 beats), (c) and (d) are "three swings"
(3 beats). FIG. 9 (2) shows the detection output obtained from each axis detector of the sensor corresponding to each of the trajectories (a) to (d) by the commanding operation of the performance operator.

【0066】ここで、各軸検出器の検出出力は、前述し
た1次元センサの場合と同様に、本体システム1Mの受
信処理部で指揮動作認識に不要な周波数成分を除去する
帯域通過フィルタに通す。もし、机等にセンサを固定し
ても地球の重力のため加速度センサ出力αx,αy,|
α|はゼロにならないが、この成分も、指揮認識には不
要なので直流カットフィルタにて除去する。指揮動作の
方向は2次元加速度センサの検出出力の符号や強さとし
て現われ、振り動作(拍打動作)の発生タイミングは加
速度絶対値|α|のローカルピークとして現われ、この
ローカルピークは、演奏の拍打タイミングをとるのに利
用される。従って、拍番号の弁別には、正負の値を取る
2次元の加速度データαx,αyを活用するが、拍打タ
イミング検出には加速度絶対値|α|のみを使う。
Here, similarly to the case of the above-described one-dimensional sensor, the detection output of each axis detector is passed through a band-pass filter that removes a frequency component unnecessary for commanding operation recognition in the reception processing unit of the main system 1M. . If the sensor is fixed to a desk or the like, the acceleration sensor outputs αx, αy, |
α | does not become zero, but since this component is unnecessary for command recognition, it is removed by a DC cut filter. The direction of the commanding operation appears as the sign or strength of the detection output of the two-dimensional acceleration sensor, and the timing at which the swinging operation (beating operation) occurs appears as a local peak of the absolute acceleration value | α | Used for timing. Therefore, two-dimensional acceleration data αx and αy having positive and negative values are used for discriminating the beat number, but only the absolute acceleration value | α | is used for beat timing detection.

【0067】拍打動作発生時の加速度αx,αyは、実
際には、拍打動作方向により極性も強さも大きく変化
し、多くの疑似ピークを含む複雑な波形であるので、こ
のままでは拍打タイミングを安定して得ることは困難で
ある。そこで、前述したように、加速度絶対値から不要
な高周波数成分を除去する12次の移動平均フィルタを
通す。図9(2)の(a)〜(d)は、この2つのフィ
ルタで構成する帯城通過フィルタを通過後の加速度波形
例を示しており、それぞれ、図9(1)の各軌跡図
(a)〜(d)に従って丁寧に指揮した際の信号であ
る。図9(2)の右側に示される各波形は、2次元の加
速度信号αx,αyの1周期分のベクトル軌跡を表わ
す。左側に示される各波形は、加速度絶対値|α|の時
間域波形|α|(t)の3秒分を表わし、各ローカルピ
ークが拍打動作に対応している。
The accelerations αx and αy at the time of occurrence of the beating operation actually change greatly in polarity and strength depending on the direction of the beating operation and have a complicated waveform including many pseudo peaks. It is difficult to get. Therefore, as described above, the signal passes through a 12th-order moving average filter that removes unnecessary high frequency components from the absolute acceleration value. (A) to (d) of FIG. 9 (2) show an example of the acceleration waveform after passing through the obi-cast filter which is composed of the two filters, and each of the trajectory diagrams (FIG. 9 (1)) It is a signal when carefully conducting according to a) to (d). Each waveform shown on the right side of FIG. 9B represents a vector locus for one cycle of the two-dimensional acceleration signals αx and αy. Each waveform shown on the left side represents three seconds of the time-domain waveform | α | (t) of the absolute acceleration value | α |, and each local peak corresponds to a beat operation.

【0068】なお、拍打動作検出のためローカルピーク
を抽出する場合には、疑似ピークの検出や、拍打ピーク
の検出洩れなどの誤検出を回避する必要があるので、こ
のためには音声の高時間分解能ピッチ検出の技法などを
適当な手法を適用すべきである。また、加速度αx,α
yは、図9(2)の右側に観られるように正負の値を取
るが、人間の指揮動作では常に手が微妙に動き続けてお
り完全には静止しない。このため、加速度αx,αyの
両方が同時にゼロとなって原点に静止する時はなく、従
って、その時間域波形|α|(t)も図9(2)の左側
に示されるように、指揮中はゼロにならない。
When local peaks are extracted to detect a beat operation, it is necessary to avoid false peaks and miss detections such as missed detection of beat peaks. An appropriate technique such as a resolution pitch detection technique should be applied. Also, acceleration αx, α
Although y takes a positive or negative value as seen on the right side of FIG. 9 (2), the hand always keeps moving delicately and does not stop completely in human commanding operation. For this reason, there is no case where both the accelerations αx and αy become zero at the same time and stop at the origin. Therefore, the time-domain waveform | α | (t) is also commanded as shown on the left side of FIG. Inside is not zero.

【0069】〔3次元センサ使用モード=3軸処理〕検
出軸を更に増やして動作センサMSaとして3次元セン
サを用いる場合は、このセンサの操作(動き)を解析
し、その多様な操作を解析することにより、操作に対応
する多種多彩な演奏制御を行うことができる。図10
は、3次元センサを使用して楽曲演奏の演出を行う場合
の機能ブロック図を示す。 図10の3次元センサ使用
モードでは、図4(1)で説明したバトン形検出送信機
1Taに3次元センサMSaが内蔵され、このバトン形
検出送信機1Taを演奏参加者が片手或いは両手に持っ
て操作することにより、操作方向と操作力に応じた動作
信号を出力することができる。
[Three-dimensional sensor use mode = three-axis processing] When the number of detection axes is further increased and a three-dimensional sensor is used as the motion sensor MSa, the operation (movement) of this sensor is analyzed and its various operations are analyzed. Thus, various and various performance controls corresponding to the operation can be performed. FIG.
3 shows a functional block diagram in the case of performing a musical performance using a three-dimensional sensor. In the three-dimensional sensor use mode of FIG. 10, the three-dimensional sensor MSa is built in the baton-type detection transmitter 1Ta described in FIG. 4A, and the performance participant holds the baton-type detection transmitter 1Ta with one or both hands. , An operation signal corresponding to the operation direction and the operation force can be output.

【0070】3次元センサとして3次元加速度センサを
用いる場合には、バトン形身体情報検出送信機1Taに
おける3次元センサMSaのx軸、y軸及びz軸検出部
SX,SY,SZから、それぞれ、x(上下)方向の加
速度αx、y(左右)方向の加速度αy及びz(前後)
方向の加速度αzを表わす信号Mx,My,Mzが本体
システム1Mに出力される。本体システム1Mでは、予
め設定されたIDナンバがこれらの信号に付加されてい
ることを確認すると、各軸の加速度データが受信処理部
RPを介して情報解析部ANに手渡される。情報解析部
ANにおいては、各軸加速度データが解析され、まず、
次式(4)で表わされる加速度の絶対値|α|が求めら
れる:
When a three-dimensional acceleration sensor is used as the three-dimensional sensor, the x-axis, y-axis, and z-axis detection units SX, SY, and SZ of the three-dimensional sensor MSa in the baton-shaped body information detection transmitter 1Ta respectively Acceleration αx in x (vertical) direction, acceleration αy in y (horizontal) direction and z (front and rear)
Signals Mx, My, Mz representing the acceleration αz in the direction are output to the main system 1M. When the main body system 1M confirms that a preset ID number is added to these signals, the acceleration data of each axis is passed to the information analysis unit AN via the reception processing unit RP. In the information analysis unit AN, each axis acceleration data is analyzed.
The absolute value | α | of the acceleration represented by the following equation (4) is obtained:

【数3】 (Equation 3)

【0071】次に、加速度αx, αyと加速度αzとを
比較する。例えば、 αx < αz、且つ、αy < αz …(5) の関係が成立するとき、つまり、z方向加速度αzが
x,y方向加速度αx,αyより大きいときは、バトン
を突く「突き動作」であると判別する。
Next, the accelerations αx and αy are compared with the acceleration αz. For example, when the relationship of αx <αz and αy <αz is satisfied, that is, when the z-direction acceleration αz is larger than the x and y-direction accelerations αx and αy, a “thrust operation” of striking the baton is performed. It is determined that there is.

【0072】逆に、z方向加速度αzがx,y方向加速
度αx,αyより小さいときには、バトンにより空気を
切りさく「切り動作」であると判別する。この場合、さ
らに、x,y方向加速度αx,αyの値を互いに比較す
ることにより、「切り動作」の方向が「たて」(x)な
のか「よこ」(y)なのかを判別することができる。
On the other hand, when the z-direction acceleration αz is smaller than the x and y-direction accelerations αx and αy, it is determined that the air is cut by the baton. In this case, the values of the accelerations αx and αy in the x and y directions are compared with each other to determine whether the direction of the “cutting operation” is “vertical” (x) or “horizontal” (y). Can be.

【0073】また、各軸x,y,z方向成分相互の比較
だけでなく、各方向成分αx, αy,αz自体の大きさ
と所定の閾値とを比較し、閾値以上であれば、これらの
動作を組み合わせた「組合せ動作」であると判別するこ
とができる。例えば、αz>αx,αy且つαx>「x
成分の閾値」であれば「たて(x方向)に切りつつ、突
く動作」と判別し、αz<αx,αy、αx>“x成分
の閾値”且つαy>“y成分の閾値”であれば「斜め
(x,y両方向)切り動作」であると判別する。さら
に、y方向加速度αx,αyの値が、円軌跡を描くよう
に相対的に変化して行く現象を検出することにより、バ
トンをぐるぐると回す「回し動作」を判別することがで
きる。
In addition to the comparison between the components in the respective x, y, and z directions, the magnitude of each of the components αx, αy, and αz is compared with a predetermined threshold value. Can be determined as a “combination operation”. For example, αz> αx, αy and αx> “x
If the threshold value is a “component threshold value”, it is determined that “push motion while cutting in the vertical direction (x direction)”, and αz <αx, αy, αx> “x component threshold value” and αy> “y component threshold value” are satisfied. In this case, it is determined that the operation is “oblique (both x and y directions) cutting operation”. Further, by detecting a phenomenon in which the values of the y-direction accelerations αx and αy relatively change so as to draw a circular locus, it is possible to determine the “turning operation” of turning the baton around.

【0074】演奏パラメータ決定部PSでは、これらの
判別出力に応じて種々の演奏パラメータを決定し、楽音
再生部1Sの演奏データ制御部において、決定された演
奏パラメータに基づいて演奏データを制御し、サウンド
システム3を介して楽音演奏の出力を行う。例えば、加
速度絶対値|α|或いは各方向成分αx, αy,αzの
うち最大を示す成分の大きさに応じて演奏データの音量
を制御する。また、解析部ANでの判定結果に基づいて
他の演奏パラメータを制御する。
The performance parameter determination section PS determines various performance parameters in accordance with these discrimination outputs, and the performance data control section of the tone reproduction section 1S controls the performance data based on the determined performance parameters. The musical performance is output via the sound system 3. For example, the volume of the performance data is controlled in accordance with the absolute value of the acceleration | α | or the component having the maximum value among the directional components αx, αy, and αz. Further, other performance parameters are controlled based on the determination result in the analysis unit AN.

【0075】例えば、「たて(x方向)切り動作」の周
期に応じてテンポを制御する。これとは別に、「たて切
り動作」が短かく高い値であればアーティキュレーショ
ンを与え、長く低い値であればピッチ(音高)を下げ
る。また、「よこ(y方向)切り動作」の判別によりス
ラー効果を与える。「突き動作」を判別したときは、そ
のタイミングで、楽音発生タイミングを縮めてスタッカ
ート効果を与えたり、大きさに応じた単発音(打楽器
音、掛け声等)を楽音演奏に挿入し、「突き動作」との
「組合せ動作」を判別したときは、上述の制御を併用す
る。また、「回し動作」を判別したときは、周期が大き
い場合は大きさに応じて残響効果を高めたり、周期が小
さい場合は周期に応じてトリルを発生させるように制御
する。
For example, the tempo is controlled in accordance with the cycle of the vertical (x-direction) cutting operation. Apart from this, articulation is given if the "vertical cutting action" is short and high, and the pitch (pitch) is lowered if it is long and low. In addition, a slur effect is provided by the determination of the “horizontal (y-direction) cutting operation”. When the "thrust operation" is determined, the stuttering effect is given by shortening the musical sound generation timing at that timing, or a single sound (percussion instrument sound, shouting, etc.) according to the size is inserted into the musical performance, and the "thrust operation" is performed. Is determined, the above-described control is used together. When the “turning operation” is determined, control is performed so that the reverberation effect is enhanced according to the size when the cycle is large, and a trill is generated according to the cycle when the cycle is small.

【0076】もちろん、1次元センサや2次元センサを
用いる場合に説明した制御と同様の制御を行うこともで
きる。すなわち、3次元加速度センサにおいて、式
(3)で表わされるx−y平面上に投影される絶対加速
度を“x−y絶対加速度|αxy|”としたとき、x−
y絶対加速度|αxy|の時間経過波形|αxy|
(t)のローカルピークの発生時点、ローカルピーク
値、ローカルピークの鋭さを示すピークQ値、ローカル
ピーク間の時間間隔を表わすピークインターバル、ロー
カルピーク間の谷の深さ、ピークの高周波成分の強さ、
加速度α(t)のローカルピークの極性等を抽出し、ピ
ーク発生時刻に応じて演奏楽曲の拍タイミングを制御
し、ローカルピーク値に応じてダイナミクスを制御し、
ピークQ値Qpに応じてアーティキュレーションARを
制御する、等々を行う。また、式(5)が成り立って
「突き動作」と判別されたときには、これらの制御に並
行して、単発音(打楽器音、掛け声等)を楽音演奏に挿
入したり、或いは、z方向加速度αzの大きさに応じて
音色変化やリバーブ効果を与えたり、x−y絶対加速度
|αxy|により制御しない他の演奏制御を行うのであ
る。
Of course, control similar to the control described when a one-dimensional sensor or a two-dimensional sensor is used can be performed. That is, in the three-dimensional acceleration sensor, when the absolute acceleration projected on the xy plane represented by the equation (3) is “xy absolute acceleration | αxy |”, x−
Time lapse waveform of y absolute acceleration | αxy | | αxy |
(T) Time of occurrence of local peak, local peak value, peak Q value indicating sharpness of local peak, peak interval indicating time interval between local peaks, depth of valley between local peaks, strength of high frequency component of peak Well,
Extracting the polarity of the local peak of the acceleration α (t) and the like, controlling the beat timing of the musical composition according to the peak occurrence time, controlling the dynamics according to the local peak value,
It controls the articulation AR according to the peak Q value Qp, and so on. When the equation (5) is satisfied and it is determined to be a “thrust operation”, a single sound (percussion instrument sound, shouting, etc.) is inserted into the musical performance in parallel with these controls, or the z-direction acceleration αz In this case, a tone change or a reverb effect is given in accordance with the magnitude of, and other performance control not controlled by the xy absolute acceleration | αxy | is performed.

【0077】なお、1次元乃至3次元センサを刀剣内に
設置しておき、演劇などにおいて、音楽伴奏を伴う剣術
の舞のとき、刀剣の立ち回りによる各軸検出出力に応じ
て、切れる音(x軸又はy軸)、風きり音(y軸又はx
軸)、更には、突き音(z軸)などの効果音の発音をコ
ントロールするのに利用することができる。
A one-dimensional to three-dimensional sensor is installed in the sword, and in a swordplay accompanied by music in a theater or the like, a sound (x Axis or y axis), wind noise (y axis or x axis)
Axis), and can also be used to control the sounding of sound effects such as thrusting sounds (z axis).

【0078】〔動作センサの他の利用例〕なお、1次元
乃至3次元加速度センサにおいて、センサの各軸出力を
積分するか或いは加速度センサの代りに速度センサを用
いれば、センサの操作(動き)速度に応じて、同様に、
動作を判別し演奏パラメータを制御することができる。
また、加速度センサの各軸積分出力を更に積分するか或
いは速度センサの各軸出力を積分することにより、セン
サの操作(動き)位置を推測し、この推測位置に応じて
別の演奏パラメータを制御(例えば、x方向の高さに応
じて音高を制御)することができる。また、1次元乃至
3次元センサのような動作センサを図4(1)のような
バトン形の操作体として2個用意し、これらの操作体を
一人の操作者が左右の手でそれぞれ操作することによ
り、楽曲演奏に対して左右別個の制御を加えることがで
きる。例えば、楽曲の演奏トラック(パート)を2分
し、左右の動作解析に基づいて各群演奏トラック(パー
ト)を個別的に制御する。
[Other Examples of Use of Motion Sensor] In a one-dimensional to three-dimensional acceleration sensor, if the output of each axis of the sensor is integrated or a speed sensor is used instead of the acceleration sensor, the operation (motion) of the sensor is performed. Similarly, depending on speed,
The operation can be determined and the performance parameters can be controlled.
Further, by integrating each axis integrated output of the acceleration sensor or integrating each axis output of the speed sensor, an operation (movement) position of the sensor is estimated, and another performance parameter is controlled according to the estimated position. (For example, the pitch is controlled according to the pitch in the x direction). Also, two motion sensors such as one-dimensional to three-dimensional sensors are prepared as baton-shaped operating bodies as shown in FIG. 4A, and these operating bodies are operated by one operator with the left and right hands, respectively. In this way, the left and right separate controls can be added to the music performance. For example, a music performance track (part) is divided into two parts, and each group performance track (part) is individually controlled based on left and right motion analysis.

【0079】〔状態センサの使用=バイオモード〕この
発明の一実施例によると、生体情報を検出処理すること
により、演奏参加者の状態を演奏楽音に反映させて音楽
演奏を楽しむことができる。例えば、複数の参加者が音
楽の演奏を聞きつつエアロビクス等の運動を集団で行う
ような場合に、図5の情報センサISとして脈拍(脈
波)検出器を用い、運動をしている人達に脈拍検出器を
取り付けて心拍数を検出し、予め設定した所定の心拍数
を超えると、参加者の健康を考えて、演奏している音楽
のテンポを自然に下げるようにする。これにより、エア
ロビクス等の動作と心拍数等の身体状態とを考慮した音
楽演奏が実現される。なお、この場合、心拍数等の計測
データの平均値に応じて演奏テンポを制御するものと
し、平均値の算出に当っては、心拍数の多いものほど大
きい重み付けを加えて平均値を算出するのが好ましい。
また、テンポの低下に伴い、音量を減少させるようにし
てもよい。
[Use of State Sensor = Bio Mode] According to one embodiment of the present invention, by performing processing for detecting biological information, it is possible to enjoy the music performance by reflecting the state of the performance participant in the performance musical sound. For example, when a plurality of participants perform exercise such as aerobics in a group while listening to music performance, a pulse (pulse wave) detector is used as the information sensor IS in FIG. A pulse detector is attached to detect the heart rate, and when the heart rate exceeds a predetermined heart rate, the tempo of the music being played is naturally reduced in consideration of the participant's health. As a result, music performance is realized in consideration of the operation such as aerobics and the physical state such as the heart rate. In this case, it is assumed that the performance tempo is controlled in accordance with the average value of the measurement data such as the heart rate. In calculating the average value, the larger the heart rate, the greater the weight is added to calculate the average value. Is preferred.
Further, the volume may be reduced as the tempo decreases.

【0080】上述の例の場合、心拍数の上昇率が、予め
指定した所定の範囲内に収まっているときは、スピーカ
4から楽音を鳴らすと共に表示ユニットのLED発光器
を光らせて通常状態であることを意識させるが、この範
囲から逸脱すれば楽音の発生や発光を停止させるという
ように、身体の状態に応じた演奏停止機能を付加するこ
とができる。また、心拍数に代えて他の同等の生体情報
を用いることができ、例えば、呼吸数を用いても同等の
効果が得られる。呼吸数のセンサとしては、胸部、腹部
に圧力センサを取り付けたり、空気の動きを検出する温
度センサを鼻の穴等に取り付ける方法がある。
In the case of the above example, when the rate of increase of the heart rate falls within a predetermined range specified in advance, the tone is emitted from the speaker 4 and the LED light emitting device of the display unit is illuminated to be in a normal state. However, if it deviates from this range, it is possible to add a performance stop function according to the state of the body, such as stopping the generation and emission of musical sounds. Further, other equivalent biological information can be used instead of the heart rate. For example, the same effect can be obtained by using the respiration rate. As a sensor of the respiratory rate, there are a method of attaching a pressure sensor to the chest and abdomen, and a method of attaching a temperature sensor for detecting air movement to a nostril or the like.

【0081】生体情報に応答させる他の例としては、生
体情報から興奮状態(脈拍や呼吸数の増大、皮膚間抵抗
の減少、血圧や体温の上昇等)を解析し、その結果得ら
れる興奮状態の高まりに応じて演奏テンポや音量を速め
る等、上述の健康を考慮した例とは逆方向に演奏パラメ
ータを制御する興奮度応答の楽音制御を行う方法があ
る。この方法は、複数人が参加する種々のゲームのBG
M演奏や、複数の参加者がホールで踊りながら楽しむ音
楽演奏に適しており、興奮度は、例えば、複数の参加者
の平均値から算出される。
Another example of responding to the biological information is to analyze the excitement state (increase in pulse and respiratory rate, decrease in skin-to-skin resistance, increase in blood pressure and body temperature, etc.) from the biological information, and obtain the excitement state obtained as a result. For example, there is a method of performing tone control of an excitement degree response for controlling a performance parameter in a direction opposite to the above-described example in which the health is taken into consideration, such as increasing a performance tempo or a volume according to the rise of the performance. This method is used for BG of various games in which multiple people participate.
It is suitable for M performance and music performance that a plurality of participants enjoy while dancing in the hall, and the degree of excitement is calculated from an average value of the plurality of participants, for example.

【0082】〔動作・状態併用モード〕この発明の一実
施例によると、動作センサ及び状態センサを併用して演
奏参加者の動作及び生体情報を検出処理することによ
り、演奏参加者の複数種類の状態を演奏楽音に反映さ
せ、多彩な音楽演奏を演出することができる。図11
は、このように動作センサ及び状態センサを併用して楽
曲演奏の演出を行う場合の機能ブロック図を示す。この
例では、動作センサMSaには、既に説明したx軸及び
y軸検出部SX,SYを備える2次元センサが用いられ
ているが、必要に応じて、1次元センサ又は3次元セン
サを用いることができる。この動作センサMSaは、図
4(1)に示すようなバトン形構造体に内蔵され、例え
ば、演奏操作者の右手で振ることにより楽曲演奏の指揮
動作を行う。また、状態センサSSaは、視点(視線)
追跡部(Eye Tracking System )SE及び呼吸検出部
(Breath Sensor )SBが用いられ、それぞれ、演奏参
加者の所定の身体部位に取り付けられ、例えば、演奏操
作者の視線追跡及び呼吸検出を行う。
[Operation / State Combination Mode] According to an embodiment of the present invention, the operation sensor and the state sensor are used together to detect the operation and biometric information of the performance participant, thereby enabling a plurality of types of performance participant to be detected. The state can be reflected in the musical performance to produce a variety of music performances. FIG.
Fig. 7 shows a functional block diagram in the case where a musical performance is performed using the motion sensor and the state sensor in combination. In this example, a two-dimensional sensor including the x-axis and y-axis detection units SX and SY described above is used as the motion sensor MSa, but a one-dimensional sensor or a three-dimensional sensor may be used as necessary. Can be. This motion sensor MSa is built in a baton-shaped structure as shown in FIG. 4A, and performs a commanding operation of a music performance by, for example, shaking it with the right hand of a performance operator. In addition, the state sensor SSa is provided with a viewpoint (line of sight).
A tracking unit (Eye Tracking System) SE and a breath detection unit (Breath Sensor) SB are used and attached to a predetermined body part of the performance participant, for example, to perform gaze tracking and breath detection of the performance operator.

【0083】2次元動作センサMSaのx軸及びy軸検
出部SX,SY、並びに、状態センサSSaの視点追跡
部SE及び呼吸検出部SBからの検出信号は、それぞ
れ、個別のIDナンバが付与されており、それぞれの信
号処理及び送信部を介して本体システム1Mに出力され
る。本体システム1Mは、予め設定されたIDナンバの
付与を確認すると、受信処理部RPでは、2次元動作セ
ンサMSa、視点追跡部SE及び呼吸検出部SBからの
検出信号を処理し、対応する2次元動作データDm、視
点位置データDe及び呼吸データDbを、IDナンバに
応じて情報解析部ANの各解析ブロックAM,AE,A
Bに与える。動作解析ブロックAMでは、動作データD
mを解析して、データ値の大きさ、ビートタイミング、
ビート番号及びアーティキュレーションを認識し、視点
解析ブロックAEでは、視点位置データDeを解析して
注視エリア(watching area )を検出し、呼吸解析ブロ
ックABでは、呼吸データDbを解析して呼気及び吸気
状態を検出する。
The detection signals from the x-axis and y-axis detection units SX and SY of the two-dimensional motion sensor MSa and the detection signals from the viewpoint tracking unit SE and the respiration detection unit SB of the state sensor SSa are respectively given individual ID numbers. The signal is output to the main system 1M via the respective signal processing and transmission units. When the main body system 1M confirms the assignment of the preset ID number, the reception processing unit RP processes the detection signals from the two-dimensional motion sensor MSa, the viewpoint tracking unit SE, and the respiration detection unit SB, and generates a corresponding two-dimensional signal. The motion data Dm, the viewpoint position data De, and the respiration data Db are converted into the respective analysis blocks AM, AE, A of the information analysis unit AN according to the ID number.
Give to B. In the motion analysis block AM, the motion data D
Analyze m, the magnitude of data value, beat timing,
Recognizing the beat number and the articulation, the viewpoint analysis block AE analyzes the viewpoint position data De to detect a watching area, and the respiration analysis block AB analyzes the respiration data Db to exhale and inhale. Detect state.

【0084】次の演奏パラメータ決定部PSでは、第1
データ処理ブロックPAにおいて、演奏データメディア
(外部記憶装置13)内のMIDIファイルからSWビ
ット(ビット5〜7:図6)に応じて選択された演奏デ
ータの楽譜上におけるビート位置を推測すると共に、現
在設定されている演奏テンポからビート発生時点を予測
し、推測されたビート位置、予測されたビート発生時
点、並びに、動作解析ブロックAMからのデータ値の大
きさ、ビートタイミング、ビート番号及びアーティキュ
レーションを統合処理する。第2データ処理ブロックP
Bにおいては、統合処理された結果に基づいて、音量、
演奏テンポ及び各楽音発生タイミングを決定すると共
に、視点解析ブロックAEで検出された注視エリアに応
じて特定の演奏パートを指示し、また、呼吸解析ブロッ
クABで検出された呼気及び吸気状態に基づいてブレス
による制御を決定する。そして、楽音再生部1Sにおい
て、決定された各演奏パラメータに基づいて演奏データ
を制御し、サウンドシステム3を介して所望の楽音演奏
を行う。
In the next performance parameter determination section PS, the first
In the data processing block PA, the beat position on the musical score of the performance data selected according to the SW bit (bits 5 to 7: FIG. 6) is estimated from the MIDI file in the performance data medium (external storage device 13), and A beat occurrence point is predicted from the currently set performance tempo, the estimated beat position, the predicted beat occurrence point, the data value size from the motion analysis block AM, the beat timing, the beat number, and the articulation. Integration processing. Second data processing block P
In B, based on the result of the integrated processing,
In addition to determining the performance tempo and each musical sound generation timing, a specific performance part is instructed according to the gaze area detected in the viewpoint analysis block AE, and based on the expiration and inspiration state detected in the respiration analysis block AB. Determine the control by breath. Then, the musical sound reproducing unit 1S controls the performance data based on the determined performance parameters, and performs a desired musical sound performance via the sound system 3.

【0085】〔複数の演奏操作者による動作モード〕こ
の発明の一実施例によると、複数の身体情報検出送信機
を複数の演奏操作者により操作して楽曲演奏を制御する
ことができる。ここで、各演奏操作者は、1以上の身体
情報検出送信機を操作することができ、各身体情報検出
送信機には、これまで図4〜図11等を用いて説明した
動作センサ乃至状態センサ(バイオモードや動作・状態
併用モードを含む)の構成を採ることができる。
[Operation Mode by a Plurality of Performance Operators] According to one embodiment of the present invention, a plurality of performance information transmitters can be operated by a plurality of performance operators to control music performance. Here, each performance operator can operate one or more physical information detection transmitters, and each of the physical information detection transmitters includes the motion sensor or state described above with reference to FIGS. A configuration of a sensor (including a bio mode and an operation / state combined mode) can be adopted.

【0086】〔アンサンブルモード〕例えば、複数の身
体情報検出送信機を1台のマスター機と複数台の子機に
より構成し、マスター機の身体情報検出信号に応じて或
る演奏パラメータを制御すると共に、子機の身体情報検
出信号により他の演奏パラメータを制御するアンサンブ
ルモードとすることができる。図12は、この発明の一
実施例によるアンサンブルモードでの機能ブロック図を
示す。1台のマスター機1T1と複数台の子機1T2〜
1Tn(例えば、n=24)は、例えば、マスター機1
T1の身体情報検出信号に応じて演奏パラメータの内の
テンポや音量を制御すると共に、子機1T2〜1Tnの
身体情報検出信号により音色を制御する。この場合、各
身体情報検出送信機1Ta(a=1〜n)は、図4
(1)のバトン形にして動作を検出し動作信号Ma(a
=1〜n)を送信するように構成するのが好ましい。
[Ensemble Mode] For example, a plurality of physical information detection transmitters are constituted by one master unit and a plurality of slave units, and certain performance parameters are controlled according to the physical information detection signal of the master unit. An ensemble mode in which other performance parameters are controlled by the physical information detection signal of the slave unit can be set. FIG. 12 is a functional block diagram in the ensemble mode according to one embodiment of the present invention. One master unit 1T1 and multiple slave units 1T2
1Tn (for example, n = 24) is, for example, the master device 1
The tempo and volume of the performance parameters are controlled in accordance with the physical information detection signal of T1, and the timbre is controlled by the physical information detection signals of the slaves 1T2 to 1Tn. In this case, each of the physical information detection transmitters 1Ta (a = 1 to n) corresponds to FIG.
The operation is detected by using the baton shape of (1) and detecting the operation signal Ma (a
= 1 to n) is preferably transmitted.

【0087】図12において、身体情報検出送信機1T
1〜1Tnからの動作信号M1〜Mn(n=24)は、
本体システム1Mの情報受信及び楽音コントローラ1R
における受信処理部RPで選択受信処理がなされる。つ
まり、これらの動作信号M1〜Mnは、受信処理部RP
のセレクタSLにおいて、動作信号D1〜Dnに付加さ
れているIDナンバを、予め設定された「IDナンバ割
当て」(「IDナンバ毎のグループ設定」を含む。)に
応じて識別することにより、マスター機1T1からの動
作信号M1と子機1T2〜1Tnからの動作信号M2〜
Mnとに選別処理されて、それぞれ、マスター動作信号
M1に対応するマスターデータMDと、子機動作信号M
2〜Mnに対応する子機データとに分離され、これらの
子機データは、さらに、第1〜第mグループSD1〜S
Dmに分別される。
In FIG. 12, physical information detection transmitter 1T
The operation signals M1 to Mn (n = 24) from 1 to 1Tn are:
Information reception of main system 1M and tone controller 1R
The selective reception processing is performed by the reception processing unit RP in. That is, these operation signals M1 to Mn are transmitted to the reception processing unit RP
In the selector SL, the ID number added to the operation signals D1 to Dn is identified in accordance with the preset “ID number assignment” (including “group setting for each ID number”), and thereby the master number is determined. The operation signal M1 from the handset 1T1 and the operation signals M2 from the handset 1T2 to 1Tn
Mn and a master data MD corresponding to the master operation signal M1, and a slave unit operation signal M
2 to Mn, and these slave data are further divided into first to m-th groups SD1 to S
Dm.

【0088】例えば、IDナンバ“0”のマスター機1
T1において、操作スイッチT6を操作することによ
り、図6の第1SWビットAをプレイモード・オン(A
=“1”)にセットし、「グループ/個別モード」を指
定する第2SWビットBをグループモード指定(B=
“1”)か個別モード指定(B=“0”)かにセット
し、「全体/一部先導モード」を指定する第3SWビッ
トCを全体先導モード指定(C=“1”)か一部先導モ
ード指定(C=“0”)かにセットしているものとす
る。一方、IDナンバ“1”〜“23(=n−1)”の
子機1T2〜1T24(=n)においては、操作スイッ
チT6の操作により、第1SWビットAをプレイモード
・オン(A=“1”)にセットしているだけであり、第
2及び第3SWビットAは任意値(B=“X”,C=
“X”。“X”は任意値を表わす。)であるとする。
For example, the master unit 1 having the ID number “0”
At T1, by operating the operation switch T6, the first SW bit A in FIG.
= “1”) and the second SW bit B for designating “group / individual mode” is designated for group mode (B =
“1”) or individual mode designation (B = “0”), and the third SW bit C for designating “whole / partial leading mode” is designated as whole leading mode designation (C = “1”) or partial It is assumed that the leading mode is specified (C = “0”). On the other hand, in the slave units 1T2 to 1T24 (= n) having the ID numbers “1” to “23 (= n−1)”, the first SW bit A is set to the play mode ON (A = “ 1 ”), and the second and third SW bits A have arbitrary values (B =“ X ”, C =
“X”. “X” represents an arbitrary value. ).

【0089】これに対して、セレクタSLは、「IDナ
ンバ割当て」を参照することにより、マスター機1T1
からの動作信号M1については、この信号に付加されて
いるIDナンバ“0”からマスター機1T1からのもの
と判別し、対応するマスターデータMDを出力し、子機
1T2〜1Tnからの動作信号M2〜Mnについては、
IDナンバ“1”〜“23”により子機1T2〜1Tn
からのものと判別し、対応する子機データを選択する。
この際、これらの子機データは、さらに、「IDナンバ
毎のグループ設定」に応じて、第1〜第mグループSD
1〜SDm毎に分別されて出力される。なお、「IDナ
ンバ毎のグループ設定」によるグループ分別は、本体シ
ステム1Mでの設定内容に応じて変化し、1つのグルー
プに複数の子機データが含まれることもあれば、1つの
グループに1つの子機データしかないこともあり、ま
た、全部で1グループしかない場合もある。
On the other hand, by referring to “ID number assignment”, the selector SL selects the master unit 1T1
From the master unit 1T1 from the ID number "0" added to this signal, outputs the corresponding master data MD, and outputs the operation signal M2 from the slave units 1T2 to 1Tn. About ~ Mn,
Slave units 1T2 to 1Tn according to ID numbers "1" to "23"
And selects the corresponding slave unit data.
At this time, these child device data are further stored in the first to m-th groups SD according to the “group setting for each ID number”.
The data is sorted and output every 1 to SDm. The group classification based on the “group setting for each ID number” changes according to the setting contents in the main system 1M, and one group may include a plurality of child device data, There may be only one slave unit data, or there may be only one group in total.

【0090】マスターデータMD及び第1〜第mグルー
プSD1〜SDmの子機データは、情報解析部ANに手
渡される。マスターデータ解析ブロックMAではマスタ
ーデータMDが情報解析され、第2及び第3SWビット
B,Cの内容が調べられると共に、データ値の大きさや
周期等が判定される。例えば、マスターデータMDの第
2SWビットBにより「グループモード」と「個別モー
ド」の何れが指定されているかを調べ、第3SWビット
Cにより「全体先導モード」と「一部先導モード」の何
れが指定されているかを調べる。また、マスターデータ
MDのデータバイトの内容により、データの示す動作内
容、各内容の大きさ、周期等が判定される。
The master data MD and the slave unit data of the first to m-th groups SD1 to SDm are passed to the information analyzer AN. In the master data analysis block MA, the master data MD is analyzed for information, the contents of the second and third SW bits B and C are checked, and the size and cycle of the data value are determined. For example, it is determined whether the “group mode” or the “individual mode” is specified by the second SW bit B of the master data MD, and the “all leading mode” or the “partial leading mode” is determined by the third SW bit C. Check if it is specified. Further, the operation content indicated by the data, the size of each content, the cycle, and the like are determined based on the content of the data byte of the master data MD.

【0091】また、子機データ解析ブロックSAでは、
第1〜第mグループSD1〜SDmに含まれる子機デー
タが情報解析され、マスターデータMDの第2SWビッ
トBにより指定されたモードに応じて、データ値の大き
さや周期等が判定される。例えば、「グループモード」
が設定されていれば、各グループSD1〜SDmに属す
る子機データの大きさや周期の平均値が算出され、「個
別モード」が設定されていれば、子機データの個々の大
きさや周期が算出される。
In the slave unit data analysis block SA,
The slave unit data included in the first to m-th groups SD1 to SDm is analyzed for information, and the size, cycle, and the like of the data value are determined according to the mode specified by the second SW bit B of the master data MD. For example, "group mode"
Is set, the average value of the size and cycle of the slave unit data belonging to each of the groups SD1 to SDm is calculated. If the “individual mode” is set, the individual size and cycle of the slave unit data are calculated. Is done.

【0092】次段の演奏パラメータ決定部PSは、マス
ターデータ解析ブロックMA及び子機データ解析ブロッ
クSAに対応して、主設定ブロックMP及び副設定ブロ
ックAPで構成され、メディア(外部記憶装置13)に
記録されたMIDIファイルから選択された演奏データ
について、各演奏トラックの演奏パラメータを決定す
る。まず、主設定ブロックMPにおいては、マスターデ
ータ解析ブロックMAでの判定結果に基づいて、所定の
演奏トラックの演奏パラメータを決定する。例えば、第
3SWビットCにより「全体先導モード」が指定されて
いる場合は、全演奏トラック(tr)について、データ
値の大きさの判定結果に応じて音量パラメータ値を決定
し、周期の判定結果に応じてテンポパラメータ値を設定
する。また、「一部先導モード」が指定されている場合
には、このモードに対応して予め設定された第1の演奏
トラック(tr)(1以上の演奏トラック。例えば、メ
ロディ音トラック)について、同様に、各判定結果に応
じた音量パラメータ値及びテンポパラメータ値の決定を
行う。
The performance parameter determination section PS at the next stage includes a main setting block MP and a sub setting block AP corresponding to the master data analysis block MA and the slave unit data analysis block SA. The performance parameters of each performance track are determined for the performance data selected from the MIDI file recorded in the MIDI file. First, in the main setting block MP, performance parameters of a predetermined performance track are determined based on the determination result in the master data analysis block MA. For example, when the “all leading mode” is designated by the third SW bit C, the volume parameter value is determined for all the performance tracks (tr) according to the determination result of the data value size, and the cycle determination result is determined. Set the tempo parameter value according to. When the “partial leading mode” is designated, the first performance track (tr) (one or more performance tracks, for example, a melody sound track) set in advance corresponding to this mode is Similarly, the sound volume parameter value and the tempo parameter value are determined according to each determination result.

【0093】一方、副設定ブロックAPでは、第3SW
ビットCにより指定されているモードに対応する演奏ト
ラックについて、予め設定された音色を設定すると共
に、子機データ解析ブロックSAでの判定結果に基づい
て演奏パラメータを決定する。例えば、「全体先導モー
ド」が指定されている場合は、このモードに対応して予
め設定された所定の演奏トラック(例えば、伴奏音トラ
ック又は効果音トラックの全て)に所定の音色パラメー
タを設定すると共に、これらの演奏トラックの演奏パラ
メータを、マスターデータの判定結果による設定に加
え、子機データの判定結果に応じて変更する(すなわ
ち、子機データ値の大きさに応じて音量パラメータ値を
更に変更し、子機データの周期に応じてテンポパラメー
タ値を更に変更する。)。この場合、音量パラメータ値
については、マスターデータ判定結果による変量との乗
算により算出し、テンポパラメータについては、マスタ
ーデータ解析出力による変量との算術平均により算出す
ることが好ましい。また、「一部先導モード」が指定さ
れている場合には、このモードに対応して予め設定され
た第2の演奏トラック(例えば、第1の演奏トラック以
外の演奏トラック)について、各判定結果に応じて、独
自に、音量パラメータ値及びテンポパラメータ値の決定
を行う。
On the other hand, in the sub setting block AP, the third SW
For the performance track corresponding to the mode specified by the bit C, a preset tone color is set, and the performance parameters are determined based on the determination result in the slave unit data analysis block SA. For example, when the “entire lead mode” is designated, a predetermined tone color parameter is set for a predetermined performance track (for example, all accompaniment sound tracks or sound effect tracks) set in advance in accordance with this mode. At the same time, the performance parameters of these performance tracks are changed according to the determination result of the slave unit data in addition to the settings based on the determination result of the master data (that is, the volume parameter value is further changed according to the magnitude of the slave unit data value). Change, and further change the tempo parameter value according to the cycle of the slave unit data.) In this case, it is preferable that the volume parameter value is calculated by multiplication with a variable based on the master data determination result, and the tempo parameter is calculated by arithmetic mean with the variable based on the master data analysis output. When the “partial leading mode” is designated, each determination result is obtained for a second performance track (for example, a performance track other than the first performance track) set in advance corresponding to this mode. , The sound volume parameter value and the tempo parameter value are independently determined.

【0094】楽音再生部1Sは、上述のようにして決定
された演奏パラメータに基づいて、MIDIファイルか
らの選択演奏データの各演奏トラックの演奏パラメータ
として採用し、また、各演奏トラックには予め設定され
た音色(音源)を割り当てる。これにより、演奏参加者
の動作に対応した所定音色の楽音を発生することができ
る。
The tone reproducing section 1S adopts the performance parameters determined as described above as performance parameters of each performance track of the selected performance data from the MIDI file, and sets the performance tracks in advance. Assigned sound (sound source). As a result, it is possible to generate a musical tone having a predetermined tone color corresponding to the operation of the performance participant.

【0095】例えば、音楽教室等において、先生が一本
のマスター機1T1を持って、演奏データ曲の主旋律の
音量やテンポをコントロールし、複数の生徒がそれぞれ
子機1T2〜1Tnを持って、それぞれの子機操作に応
じた音量やテンポの伴奏曲音や打楽器音等を発生する
等、種々の態様で演奏を楽しむことができる。この場
合、打楽器音として、音色選択により太鼓、かね等に設
定するだけでなく、さらに、自然の風や水の音等、別種
の音源を予め用意しておけば、これらの音源をも演奏ト
ラックに指定可能とすることにより、曲の進行中に太鼓
の音やかねの音、自然の風や水の音等を同時に発音させ
ることができる。従って、誰でも参加できる多様な演奏
形態を楽しむことができる。
For example, in a music classroom or the like, a teacher has one master unit 1T1 to control the volume and tempo of the main melody of a performance data tune, and a plurality of students have child units 1T2 to 1Tn, respectively. The user can enjoy the performance in various modes, such as generating accompaniment sound, percussion sound, and the like having a volume and a tempo corresponding to the operation of the slave unit. In this case, the percussion instrument sound is not only set to drums, hooks, etc. by selecting the timbre, but if other types of sound sources such as natural wind and water sounds are prepared in advance, these sound sources can also be used as performance tracks. , It is possible to simultaneously produce the sound of a drum and a sound of a drum, the sound of a natural wind and water, etc. while the music is in progress. Therefore, it is possible to enjoy various performance forms that anyone can participate.

【0096】また、マスター機1T1及び子機1T2〜
1Tnにおいて、操作スイッチT6の操作によりLED
発光器TLを常時発光させるか或いは動作センサMSa
の検出出力に応じて点滅させることができる。これによ
り、楽曲演奏の進行に合わせてバトンからLED光が揺
動したり点滅するので、楽曲演出だけでなく、視覚的な
演出効果を楽しむことができる。
Further, the master unit 1T1 and the slave units 1T2-
In 1Tn, the LED is operated by operating the operation switch T6.
The light emitting device TL is always lit or the operation sensor MSa
Can be flickered in response to the detection output of. Thereby, the LED light swings or blinks from the baton in accordance with the progress of the music performance, so that not only the music performance but also a visual effect can be enjoyed.

【0097】〔複数操作者による種々の楽曲演奏制御〕
なお、複数の身体情報検出送信機1T1〜1Tnについ
ては、マスター機1T1をなくする(即ち、マスター機
と子機の区別をせず全て子機とする)構成とすることが
できることはいうまでもない。最も簡単な例は、二人の
操作者にそれぞれ身体情報検出送信機を設け、デュエッ
トで楽曲演奏を制御する場合であり、各操作者には、1
つの身体情報検出送信機を設けてもよいし、複数の身体
情報検出送信機を設けてもよい。例えば、図4(1)の
ようなバトン形の動作センサを各操作者が2つずつも
ち、楽曲の演奏トラック(パート)を各人が2分し更に
左右の手操作で2分して計4つに分け、計4つの動作セ
ンサにより、対応する演奏トラック(パート)を個別的
に制御するように構成することができる。
[Control of Various Music Performances by Multiple Operators]
It is needless to say that the plurality of physical information detection transmitters 1T1 to 1Tn may have a configuration in which the master device 1T1 is eliminated (that is, all the slave devices are not distinguished from the master device and the slave devices). Absent. The simplest example is a case where a physical information detection transmitter is provided for each of two operators to control a music performance in a duet.
One physical information detection transmitter may be provided, or a plurality of physical information detection transmitters may be provided. For example, each operator has two baton-shaped motion sensors as shown in FIG. 4A, and each person divides the performance track (part) of the music into two parts, and further divides it into two parts by the left and right hand operations. The performance track (part) can be individually controlled by a total of four motion sensors.

【0098】さらに、複数操作者により楽曲演奏を制御
する例としては、遠隔地間でのネットワーク音楽演奏や
音楽ゲームがある。例えば、音楽教室などの異なる場所
で、参加者は、通信ネットワークを通じて映像を見なが
ら、参加者にそれぞれ設けた身体情報検出送信機で楽曲
演奏をコントロールすることによって、同時に、楽音演
奏の演出に参加することができる。また、各種イベント
においては、複数のイベント参加者にそれぞれ身体情報
検出送信機を設け、各身体情報検出出力により楽曲演奏
のコントロールへの参加を実現することができる。
Further, examples of controlling music performances by a plurality of operators include network music performances and music games between remote locations. For example, in different places such as a music classroom, participants watch music through a communication network and control music performances using physical information detection transmitters provided for each participant, and simultaneously participate in musical performances. can do. Also, in various events, a physical information detection transmitter can be provided for each of a plurality of event participants, and participation in music performance control can be realized by each physical information detection output.

【0099】別の例としては、コンサート会場におい
て、1以上の演奏者が、主制御用身体情報検出送信機に
より、楽曲のテンポやダイナミクス等を制御して楽曲の
メインコントロールを行ない、複数の視聴者が、副制御
用身体情報検出送信機を持ちLED等で発光する光に合
わせて手拍子のような音を挿入制御するサブコントロー
ルを行うことで、音楽演奏に参加できる演出を実現する
ことができる。さらに、テーマパークでのパレードにお
いては、複数のパレード参加者が、同様に、メインコン
トロールで楽曲の演奏パラメータを制御したり、サブコ
ントロールで歓声音の挿入制御や発光装置による光の演
出をすることができる。
As another example, at a concert hall, one or more performers perform main control of the music by controlling the tempo and dynamics of the music by the main control physical information detection transmitter, and perform a plurality of viewing and listening. By having a sub-control physical information detection transmitter and performing sub-control to insert and control a sound such as clapping according to light emitted by an LED or the like, it is possible to realize an effect of participating in music performance. . Furthermore, in the parade at the theme park, multiple parade participants must also control the performance parameters of the music with the main control, control the insertion of cheering sounds with the sub-control, and produce light with the light emitting device. Can be.

【0100】〔発明の効果〕以上のように、この発明に
よる演奏インターフェイスでは、演奏参加者が運動検出
器を種々に動かすと、運動検出器の各動作検出信号の内
容〔動作(身振り)情報〕から操作者の種々の動きを解
析し、種々の解析結果に応じた演奏制御情報を生成する
ように構成されているので、操作者の種々の動きに応じ
て楽曲演奏を多様に制御することができる。また、この
発明の別の演奏インターフェイスでは、操作者が運動検
出器を動かすと、運動検出器の動作検出信号の内容から
操作者の動きを解析する一方、同時に、状態検出器の状
態検出信号の内容〔状態情報(生体情報、生理情報)〕
から操作者の身体状態を解析し、これらの解析結果に応
じた演奏制御情報を生成するように構成されているの
で、操作者の動きに応じるだけでなく、操作者の身体状
態を考慮して、楽曲演奏を多様に制御することができ
る。
[Effects of the Invention] As described above, in the performance interface according to the present invention, when a performance participant moves the motion detector variously, the content of each motion detection signal of the motion detector [motion (gesture) information] Since it is configured to analyze various movements of the operator from and generate performance control information according to various analysis results, it is possible to variously control music performance according to various movements of the operator. it can. In another performance interface of the present invention, when the operator moves the motion detector, the motion of the operator is analyzed from the content of the motion detection signal of the motion detector, and at the same time, the state detection signal of the state detector is analyzed. Contents [Status information (biological information, physiological information)]
It is configured to analyze the physical condition of the operator from and generate performance control information according to these analysis results, so that it not only responds to the movement of the operator but also considers the physical condition of the operator In addition, the music performance can be controlled in various ways.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は、この発明の一実施例による演奏インタ
ーフェイスを含む演奏システム全体の概略的な構成を示
すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of an entire performance system including a performance interface according to an embodiment of the present invention.

【図2】図2は、この発明の一実施例による身体情報検
出送信機の一構成例を示すブロック図である。
FIG. 2 is a block diagram showing a configuration example of a physical information detection transmitter according to one embodiment of the present invention.

【図3】図3は、この発明の一実施例による本体システ
ムのハードウエア構成を示すブロック図である。
FIG. 3 is a block diagram showing a hardware configuration of a main body system according to one embodiment of the present invention.

【図4】図4は、この発明の演奏インターフェイスに使
用可能な身体情報検出機構の例を示す図であり、図4
(1)は、バトン形の手持ちタイプの身体情報検出送信
機の例を示し、図4(2)は、シューズ形の例を示す。
FIG. 4 is a diagram showing an example of a body information detection mechanism usable for the performance interface of the present invention;
(1) shows an example of a baton-shaped hand-held type physical information detection transmitter, and FIG. 4 (2) shows an example of a shoe-shaped.

【図5】図5は、この発明の演奏インターフェイスに使
用可能な身体情報検出機構の他の構成例を示す図であ
る。
FIG. 5 is a diagram showing another configuration example of a physical information detection mechanism usable for the performance interface of the present invention.

【図6】図6は、この発明の一実施例にお一いて使用さ
れるセンサデータのフォーマット例を示す。
FIG. 6 shows a format example of sensor data used in an embodiment of the present invention.

【図7】図7は、この発明の一実施例による1動作セン
サ(1次元センサ)出力による複数の解析出力を利用す
るシステムの機能ブロック図を示す。
FIG. 7 is a functional block diagram of a system that uses a plurality of analysis outputs based on the output of one motion sensor (one-dimensional sensor) according to an embodiment of the present invention.

【図8】図8は、この発明の一実施例における1次元加
速度センサ指揮操作時における手振り動作の軌跡例及び
加速度データの波形例を極めて概略的に表わした図であ
る。
FIG. 8 is a diagram schematically illustrating an example of a trajectory of a hand movement and a waveform example of acceleration data at the time of a command operation of a one-dimensional acceleration sensor according to an embodiment of the present invention.

【図9】図9は、この発明の一実施例における手振り動
作の軌跡及びセンサの加速度出力波形の例を表わす図で
ある。
FIG. 9 is a diagram illustrating an example of a trajectory of a hand gesture and an acceleration output waveform of a sensor according to an embodiment of the present invention.

【図10】図10は、この発明の一実施例における手振
り動作の軌跡及び2次元センサの加速度出力波形の例を
表わす図である。
FIG. 10 is a diagram illustrating an example of a trajectory of a hand movement and an acceleration output waveform of a two-dimensional sensor according to an embodiment of the present invention.

【図11】図11は、この発明の一実施例による動作セ
ンサ及び状態センサ併用モード時における機能ブロック
図を示す。
FIG. 11 is a functional block diagram in the operation sensor and state sensor combined mode according to an embodiment of the present invention.

【図12】図12は、この発明の一実施例によるアンサ
ンブルモードでの機能ブロック図を示す。
FIG. 12 is a functional block diagram in an ensemble mode according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

TD LED又はLCD表示器、 TS 電源スイッチ、 TL LED発光器、 IS 身体情報センサ、 TTa 信号処理及び送信機装置: Mx,My,Mz;M1〜Mn 動作検出信号、 Se,Sb 状態検出信号、 Dm マスター機動作検出データ、 De,Db 状態検出データ、 AM;MA,SA 動作解析ブロック、 AE,AB 状態(視点、呼吸)解析ブロック、 PA,PB 第1及び第2データ処理ブロック、 MP,AP 主設定ブロック及び副設定ブロック。 TD LED or LCD display, TS power switch, TL LED emitter, IS physical information sensor, TTa signal processing and transmitter device: Mx, My, Mz; M1 to Mn operation detection signal, Se, Sb state detection signal, Dm Master machine motion detection data, De, Db status detection data, AM; MA, SA motion analysis block, AE, AB status (viewpoint, respiration) analysis block, PA, PB first and second data processing block, MP, AP Main Setting block and sub setting block.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 佐藤 雅樹 静岡県浜松市中沢町10番1号 ヤマハ株式 会社内 Fターム(参考) 5D378 KK25 KK34 MM13 MM14 MM22 MM47 MM51 MM62 MM65 MM67 MM68 MM72 MM92 MM93 QQ01 QQ08 QQ26 QQ35 SF01 SF02 SF11 SF15 TT17 TT19 TT22 TT31 UU31 UU42 XX27 XX45 ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Masaki Sato 10-1 Nakazawa-cho, Hamamatsu-shi, Shizuoka F-term in Yamaha Corporation (reference) 5D378 KK25 KK34 MM13 MM14 MM22 MM47 MM51 MM62 MM65 MM67 MM68 MM72 MM92 MM93 QQ01 QQ08 QQ26 QQ35 SF01 SF02 SF11 SF15 TT17 TT19 TT22 TT31 UU31 UU42 XX27 XX45

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】楽音発生装置から発生される楽音を制御す
るための演奏制御情報を操作者の身体状況に応じて生成
する演奏インターフェイスであって、 操作者の動作に基づく運動を検出して動作検出信号を出
力する操作者に設置乃至所持可能な運動検出器と、 運動検出器から受信される動作検出信号に基づいて操作
者の動作を解析する身体状況解析手段と、 身体状況解析手段により得られる複数の動作解析結果に
基づいて、それぞれに対応する演奏制御情報を生成する
演奏制御情報生成手段とを具備することを特徴とする演
奏インターフェイス。
1. A performance interface for generating performance control information for controlling a tone generated by a tone generator in accordance with a physical condition of an operator. A motion detector that can be installed or possessed by an operator that outputs a detection signal; a physical condition analyzing unit that analyzes the operation of the operator based on a motion detection signal received from the motion detector; A performance control information generating means for generating performance control information corresponding to each of the plurality of operation analysis results.
【請求項2】楽音発生装置から発生される楽音を制御す
るための演奏制御情報を操作者の身体状況に応じて生成
する演奏インターフェイスであって、 操作者の動作に基づく複数種の運動を検出して、対応す
る複数の動作検出信号を出力する操作者に設置乃至所持
可能な運動検出器と、 運動検出器から受信される複数の動作検出信号に基づい
て操作者の動作を解析する身体状況解析手段と、 これらの動作解析結果に基づいて、それぞれに対応する
演奏制御情報を生成する演奏制御情報生成手段とを具備
することを特徴とする演奏インターフェイス。
2. A performance interface for generating performance control information for controlling a tone generated by a tone generator in accordance with a physical condition of an operator, wherein a plurality of types of movements based on an operation of the operator are detected. A motion detector that can be installed or carried by an operator that outputs a corresponding plurality of motion detection signals; and a body condition that analyzes the motion of the operator based on the plurality of motion detection signals received from the motion detector. A performance interface comprising: analysis means; and performance control information generation means for generating performance control information corresponding to each of the results based on the operation analysis results.
【請求項3】楽音発生装置から発生される楽音を制御す
るための演奏制御情報を操作者の身体状況に応じて生成
する演奏インターフェイスであって、 操作者の動作に基づく運動に対応する動作検出信号を出
力する操作者に設置乃至所持可能な運動検出器と、 操作者の身体状態を検出し、対応する状態検出信号を出
力する操作者に設置乃至所持可能な状態検出器と、 運動検出器及び状態検出器から受信される運動検出信号
及び状態検出信号に基づいて操作者の動作及び身体状態
を解析する身体状況解析手段と、 これらの動作解析結果及び身体状態解析結果に基づい
て、それぞれに対応する演奏制御情報を生成する演奏制
御情報生成手段とを具備することを特徴とする演奏イン
ターフェイス。
3. A performance interface for generating performance control information for controlling a tone generated from a tone generator in accordance with a physical condition of an operator, wherein a motion detection corresponding to a motion based on the motion of the operator. A motion detector that can be installed or possessed by an operator that outputs a signal, a state detector that can be installed or possessed by an operator that detects a physical condition of the operator and outputs a corresponding status detection signal, and a motion detector And body condition analysis means for analyzing the operation and body state of the operator based on the motion detection signal and the state detection signal received from the state detector, and based on the operation analysis result and the body state analysis result, respectively. A performance control information generating means for generating corresponding performance control information.
【請求項4】前記状態検出器は、脈拍、体温、皮膚間抵
抗、脳波、呼吸及び眼球移動の少なくとも一つを検出
し、対応する状態検出信号を出力することを特徴とする
請求項3に記載の演奏インターフェイス。
4. The apparatus according to claim 3, wherein said state detector detects at least one of pulse, body temperature, skin-to-skin resistance, electroencephalogram, respiration and eye movement, and outputs a corresponding state detection signal. The described playing interface.
【請求項5】前記運動検出器は、操作者が手で把持する
か、或いは、操作者の手又は足に装着されるものである
ことを特徴とする請求項1〜4の何れか1項に記載の演
奏インターフェイス。
5. The motion detector according to claim 1, wherein the motion detector is gripped by an operator by hand, or is attached to an operator's hand or foot. Performance interface described in.
【請求項6】前記演奏制御情報は、楽音の音量、テン
ポ、タイミング、音色、効果或いは音高を制御すること
を特徴とする請求項1〜5の何れか1項に記載の演奏イ
ンターフェイス。
6. The performance interface according to claim 1, wherein the performance control information controls a volume, a tempo, a timing, a timbre, an effect or a pitch of a musical tone.
【請求項7】前記運動検出器は、操作者の動作に基づく
所定方向の運動を検出して検出信号を出力する1次元セ
ンサであることを特徴とする請求項1、3〜6の何れか
1項に記載の演奏インターフェイス。
7. The motion detector according to claim 1, wherein the motion detector is a one-dimensional sensor that detects a motion in a predetermined direction based on an operation of an operator and outputs a detection signal. The performance interface according to claim 1.
【請求項8】前記運動検出器は、操作者の動作に基づき
直交する2方向又は3方向の運動を検出して、対応する
2種又は3種の検出信号を出力する2次元センサ又は3
次元センサであることを特徴とする請求項1〜6の何れ
か1項に記載の演奏インターフェイス。
8. A two-dimensional sensor or three-dimensional sensor for detecting movement in two orthogonal directions or three directions based on an operation of an operator and outputting two or three types of detection signals.
The performance interface according to any one of claims 1 to 6, wherein the performance interface is a dimension sensor.
JP2000002077A 2000-01-11 2000-01-11 Playing interface Expired - Lifetime JP3646599B2 (en)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP2000002077A JP3646599B2 (en) 2000-01-11 2000-01-11 Playing interface
EP07110784.1A EP1837858B1 (en) 2000-01-11 2001-01-10 Apparatus and method for detecting performer´s motion to interactively control performance of music or the like
DE60130822T DE60130822T2 (en) 2000-01-11 2001-01-10 Apparatus and method for detecting movement of a player to control interactive music performance
EP20070110770 EP1860642A3 (en) 2000-01-11 2001-01-10 Apparatus and method for detecting performer´s motion to interactively control performance of music or the like
EP01100081A EP1130570B1 (en) 2000-01-11 2001-01-10 Apparatus and method for detecting performer's motion to interactively control performance of music or the like
US09/758,632 US7183480B2 (en) 2000-01-11 2001-01-10 Apparatus and method for detecting performer's motion to interactively control performance of music or the like
EP07110789.0A EP1855267B1 (en) 2000-01-11 2001-01-10 Apparatus and method for detecting performer´s motion to interactively control performance of music or the like
US10/291,134 US7179984B2 (en) 2000-01-11 2002-11-08 Apparatus and method for detecting performer's motion to interactively control performance of music or the like
US10/387,811 US7135637B2 (en) 2000-01-11 2003-03-13 Apparatus and method for detecting performer's motion to interactively control performance of music or the like
US11/400,710 US7781666B2 (en) 2000-01-11 2006-04-07 Apparatus and method for detecting performer's motion to interactively control performance of music or the like
US12/780,745 US8106283B2 (en) 2000-01-11 2010-05-14 Apparatus and method for detecting performer's motion to interactively control performance of music or the like

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000002077A JP3646599B2 (en) 2000-01-11 2000-01-11 Playing interface

Publications (2)

Publication Number Publication Date
JP2001195059A true JP2001195059A (en) 2001-07-19
JP3646599B2 JP3646599B2 (en) 2005-05-11

Family

ID=18531224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000002077A Expired - Lifetime JP3646599B2 (en) 2000-01-11 2000-01-11 Playing interface

Country Status (1)

Country Link
JP (1) JP3646599B2 (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003084779A (en) * 2001-09-07 2003-03-19 Yamaha Corp Karaoke system
JP2003108132A (en) * 2001-09-28 2003-04-11 Pioneer Electronic Corp Device and system for audio information reproduction
JP2005292730A (en) * 2004-04-05 2005-10-20 Sony Corp Information presentation apparatus and method
WO2006043536A1 (en) * 2004-10-18 2006-04-27 Sony Corporation Content reproducing method and content reproducing device
WO2006064722A1 (en) * 2004-12-14 2006-06-22 Sony Corporation Music composition data reconstruction device, music composition data reconstruction method, music content reproduction device, and music content reproduction method
JP2006304167A (en) * 2005-04-25 2006-11-02 Sony Corp Key generating method and key generating apparatus
JP2007058752A (en) * 2005-08-26 2007-03-08 Sony Corp Information processor, information processing method and program
JP2008008924A (en) * 2006-06-27 2008-01-17 Yamaha Corp Electric stringed instrument system
JP2008216335A (en) * 2007-02-28 2008-09-18 Brother Ind Ltd Karaoke apparatus
US7491879B2 (en) 2006-04-25 2009-02-17 Nintendo Co. Ltd. Storage medium having music playing program stored therein and music playing apparatus therefor
US7674967B2 (en) 2005-03-22 2010-03-09 Sony Corporation Body movement detecting apparatus and method, and content playback apparatus and method
JP2012506100A (en) * 2008-10-15 2012-03-08 インベンセンス,インク. Mobile device with gesture recognition
JP2014182277A (en) * 2013-03-19 2014-09-29 Yamaha Corp Signal output device
JP2016200712A (en) * 2015-04-10 2016-12-01 日本電信電話株式会社 Concert device, concert system, and method and program therefor
TWI618048B (en) * 2016-05-13 2018-03-11 Dmet Products Corp Music and video production system
CN109147743A (en) * 2018-10-31 2019-01-04 北京戴乐科技有限公司 A kind of music controller and method
CN110085202A (en) * 2019-03-19 2019-08-02 北京卡路里信息技术有限公司 Music generating method, device, storage medium and processor
JP2020503540A (en) * 2016-12-25 2020-01-30 ミクティック アーゲーMictic Ag Apparatus and method for converting at least one detected force from movement of a sensing unit into an auditory signal
WO2020090223A1 (en) * 2018-11-01 2020-05-07 ソニー株式会社 Information processing device, information processing method, and recording medium
CN113412507A (en) * 2019-02-01 2021-09-17 银河软件株式会社 Performance support system, method and program, and musical instrument management system, method and program
JP7022190B1 (en) 2020-12-16 2022-02-17 株式会社あかつき Game server, game program, information processing method
JP2022095609A (en) * 2020-12-16 2022-06-28 株式会社あかつき Game server, game program and information processing method
JP2022095610A (en) * 2020-12-16 2022-06-28 株式会社あかつき Game server, game program and information processing method
JP2022174159A (en) * 2020-12-16 2022-11-22 株式会社あかつき Game server, game program and information processing method
US11948544B2 (en) 2019-02-01 2024-04-02 Gotoh Gut Co., Ltd. Musical instrument tuner, musical performance support device and musical instrument management device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021107843A (en) * 2018-04-25 2021-07-29 ローランド株式会社 Electronic musical instrument system and musical instrument controller

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003084779A (en) * 2001-09-07 2003-03-19 Yamaha Corp Karaoke system
JP4646099B2 (en) * 2001-09-28 2011-03-09 パイオニア株式会社 Audio information reproducing apparatus and audio information reproducing system
JP2003108132A (en) * 2001-09-28 2003-04-11 Pioneer Electronic Corp Device and system for audio information reproduction
JP2005292730A (en) * 2004-04-05 2005-10-20 Sony Corp Information presentation apparatus and method
US8199937B2 (en) 2004-04-05 2012-06-12 Sony Corporation Contents reproduction apparatus and method thereof
WO2006043536A1 (en) * 2004-10-18 2006-04-27 Sony Corporation Content reproducing method and content reproducing device
US8358906B2 (en) 2004-10-18 2013-01-22 Sony Corporation Content playback method and content playback apparatus
USRE47948E1 (en) 2004-10-18 2020-04-14 Sony Corporation Content playback method and content playback apparatus
WO2006064722A1 (en) * 2004-12-14 2006-06-22 Sony Corporation Music composition data reconstruction device, music composition data reconstruction method, music content reproduction device, and music content reproduction method
US8022287B2 (en) 2004-12-14 2011-09-20 Sony Corporation Music composition data reconstruction device, music composition data reconstruction method, music content reproduction device, and music content reproduction method
US7674967B2 (en) 2005-03-22 2010-03-09 Sony Corporation Body movement detecting apparatus and method, and content playback apparatus and method
US7929693B2 (en) 2005-04-25 2011-04-19 Sony Corporation Key generating method and key generating apparatus
JP2006304167A (en) * 2005-04-25 2006-11-02 Sony Corp Key generating method and key generating apparatus
JP2007058752A (en) * 2005-08-26 2007-03-08 Sony Corp Information processor, information processing method and program
US7491879B2 (en) 2006-04-25 2009-02-17 Nintendo Co. Ltd. Storage medium having music playing program stored therein and music playing apparatus therefor
JP2008008924A (en) * 2006-06-27 2008-01-17 Yamaha Corp Electric stringed instrument system
JP2008216335A (en) * 2007-02-28 2008-09-18 Brother Ind Ltd Karaoke apparatus
JP2012506100A (en) * 2008-10-15 2012-03-08 インベンセンス,インク. Mobile device with gesture recognition
JP2014182277A (en) * 2013-03-19 2014-09-29 Yamaha Corp Signal output device
JP2016200712A (en) * 2015-04-10 2016-12-01 日本電信電話株式会社 Concert device, concert system, and method and program therefor
TWI618048B (en) * 2016-05-13 2018-03-11 Dmet Products Corp Music and video production system
US11393437B2 (en) 2016-12-25 2022-07-19 Mictic Ag Arrangement and method for the conversion of at least one detected force from the movement of a sensing unit into an auditory signal
JP2020503540A (en) * 2016-12-25 2020-01-30 ミクティック アーゲーMictic Ag Apparatus and method for converting at least one detected force from movement of a sensing unit into an auditory signal
JP7140447B2 (en) 2016-12-25 2022-09-21 ミクティック アーゲー Apparatus and method for converting at least one detected force from motion of a sensing unit into an auditory signal
CN109147743A (en) * 2018-10-31 2019-01-04 北京戴乐科技有限公司 A kind of music controller and method
WO2020090223A1 (en) * 2018-11-01 2020-05-07 ソニー株式会社 Information processing device, information processing method, and recording medium
JPWO2020090223A1 (en) * 2018-11-01 2021-10-21 ソニーグループ株式会社 Information processing equipment, information processing method and recording medium
JP7363804B2 (en) 2018-11-01 2023-10-18 ソニーグループ株式会社 Information processing device, information processing method, and recording medium
CN113412507A (en) * 2019-02-01 2021-09-17 银河软件株式会社 Performance support system, method and program, and musical instrument management system, method and program
US11948544B2 (en) 2019-02-01 2024-04-02 Gotoh Gut Co., Ltd. Musical instrument tuner, musical performance support device and musical instrument management device
CN110085202A (en) * 2019-03-19 2019-08-02 北京卡路里信息技术有限公司 Music generating method, device, storage medium and processor
JP2022094974A (en) * 2020-12-16 2022-06-28 株式会社あかつき Game server, game program, and information processing method
JP7137725B2 (en) 2020-12-16 2022-09-14 株式会社あかつき Game server, game program, information processing method
JP7137724B2 (en) 2020-12-16 2022-09-14 株式会社あかつき Game server, game program, information processing method
JP2022095610A (en) * 2020-12-16 2022-06-28 株式会社あかつき Game server, game program and information processing method
JP2022174159A (en) * 2020-12-16 2022-11-22 株式会社あかつき Game server, game program and information processing method
JP7242950B2 (en) 2020-12-16 2023-03-20 株式会社あかつき Game server, game program, information processing method
JP2022095609A (en) * 2020-12-16 2022-06-28 株式会社あかつき Game server, game program and information processing method
JP7022190B1 (en) 2020-12-16 2022-02-17 株式会社あかつき Game server, game program, information processing method

Also Published As

Publication number Publication date
JP3646599B2 (en) 2005-05-11

Similar Documents

Publication Publication Date Title
JP3646599B2 (en) Playing interface
EP1837858B1 (en) Apparatus and method for detecting performer´s motion to interactively control performance of music or the like
US7012182B2 (en) Music apparatus with motion picture responsive to body action
JP4626087B2 (en) Musical sound control system and musical sound control device
US20080250914A1 (en) System, method and software for detecting signals generated by one or more sensors and translating those signals into auditory, visual or kinesthetic expression
JP3646600B2 (en) Playing interface
EP1607936B1 (en) System and method for generating tone in response to movement of a portable terminal
JP2002023742A (en) Sounding control system, operation unit and electronic percussion instrument
Siegel Dancing the music: Interactive dance and music
JP3879583B2 (en) Musical sound generation control system, musical sound generation control method, musical sound generation control device, operation terminal, musical sound generation control program, and recording medium recording a musical sound generation control program
CN108877754A (en) System and implementation method are played in artificial intelligence music&#39;s letter
JP3636041B2 (en) Pronunciation control system
JP4581202B2 (en) Physical information measurement method, physical information measurement network system, and physical information measurement system
JP4407757B2 (en) Performance processor
JP4868045B2 (en) Music control system
JP6219717B2 (en) Electronic handbell system
JP2015106098A (en) Electronic hand bell system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041012

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050131

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3646599

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090218

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090218

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100218

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110218

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120218

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130218

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 9

EXPY Cancellation because of completion of term