JP2006010978A - System for generating musical sound - Google Patents
System for generating musical sound Download PDFInfo
- Publication number
- JP2006010978A JP2006010978A JP2004186859A JP2004186859A JP2006010978A JP 2006010978 A JP2006010978 A JP 2006010978A JP 2004186859 A JP2004186859 A JP 2004186859A JP 2004186859 A JP2004186859 A JP 2004186859A JP 2006010978 A JP2006010978 A JP 2006010978A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- musical
- wind
- musical sound
- generation system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は、楽音生成システムに係り、特に、センサアレイによる検知結果を基に楽音を生成する楽音生成システムに関する。 The present invention relates to a tone generation system, and more particularly to a tone generation system that generates a tone based on a detection result by a sensor array.
外部からの物理的作用を検知し、その内容を楽音によって表現する種々の器機が従来より提案されている。例えば、特許文献1には、外部から加えられた衝撃を音に変換して出力する玩具が開示されている。この玩具は、図16に示すように、センサ22、タイマ回路23、音響信号合成回路24、アンプ25、スピーカ26などを備える。そして、玩具が叩かれたり揺すられたりすると、その衝撃を検知したセンサ22から検知信号が発せられる。すると、音響信号合成回路24は、タイマ回路23の支援の下、予め設定された時間長の間、所定の音色の音響信号をアンプ25へ供給し、アンプ25にて増幅された音響信号がスピーカ26へ出力されるようになっている。
Various devices have been proposed in the past for detecting physical actions from the outside and expressing the contents with musical sounds. For example, Patent Document 1 discloses a toy that converts an externally applied impact into sound and outputs the sound. As shown in FIG. 16, the toy includes a
また、非特許文献1にも同種の技術が開示されている。この文献に開示されたシステムは、10個のUFO型のオブジェとコンピュータ、音源などにより構成される。そして、10個のうち4つのオブジェはガイガーセンサーを内蔵し、宇宙からやってくるガンマー波に反応して音を生み出す。一方で、別の2つのオブジェは赤外線センサーを内蔵し、人の動きに反応して音を生成するようになっている。 Non-patent document 1 also discloses the same kind of technology. The system disclosed in this document is composed of 10 UFO-type objects, a computer, a sound source, and the like. And 4 out of 10 objects have built-in Geiger sensors that produce sound in response to gamma waves coming from space. On the other hand, two other objects have built-in infrared sensors that generate sound in response to human movement.
非特許文献2には、人の特定の動作に音楽的意味付けを与えることで演奏を実現する、「ブレインオペラ」と呼ばれるシステムが開示されている。このシステムでは、あるスクリーンの前に演奏者が立って特定の動作を行なうと、スクリーン上の演奏者の指の位置、スクリーンに触る圧力、スクリーン上を動く指の速度などがセンサによって検出される。そして、検出結果に応じて予め設定されていたMIDI(musical instrument digital interface)データを順次出力することで演奏を実現する。
ところで、ある空間内に一定の距離をおいて複数のセンサを配置し、その空間の環境を決定付ける特定の物質の物理量を検知した場合、それら各センサによる検知結果の間には何らかの規則性が表れることが極めて多い。例えば、ある空間内に配置した複数の風センサによってその空間内を流れる風を検知する場合、風源への距離が近いほどより強い風が検知され、距離が遠くなるにつれて弱い風が検知されるといったような、ある種の規則性が表れる。そして、このような、空間内の各センサによる検知結果の間に表れる規則性を、観察者をして感覚的に了解せしめる手段の実現が強く望まれていた。
本発明は、このような状況の下に案出されたものであり、空間内の複数のセンサによる検知結果の間に表れる規則性を音楽的に表現するシステムを提供することを目的とする。
By the way, when a plurality of sensors are arranged at a certain distance in a certain space and a physical quantity of a specific substance that determines the environment of the space is detected, there is some regularity between the detection results of each sensor. Very often appears. For example, when detecting a wind flowing through a space by a plurality of wind sensors arranged in a certain space, a stronger wind is detected as the distance to the air source is closer, and a weaker wind is detected as the distance increases. A certain kind of regularity appears. There has been a strong demand for realization of such means that allows the observer to understand the regularity that appears between the detection results of the sensors in the space.
The present invention has been devised under such circumstances, and an object of the present invention is to provide a system that musically expresses regularity that appears between detection results of a plurality of sensors in a space.
本発明の好適な態様である楽音生成システムは、検知対象の状態の変化をそれぞれ検知する複数のセンサと、前記各センサの識別情報と、各センサが状態の変化を検知した際に再生されるべき楽音の属性とを各々対応付けて記憶した記憶手段と、状態の変化を検知したセンサを特定し、特定したセンサの識別情報を出力する出力手段と、前記出力手段から識別情報が出力されると、その識別情報と対応付けて前記記憶手段に記憶された属性を有する楽音の楽音信号を生成する生成手段とを備える。
この態様において、前記楽音の属性は、楽音の音色、ピッチ、音量、又はこれらの組合せであってもよい。
A musical sound generation system which is a preferred aspect of the present invention is reproduced when a plurality of sensors each detecting a change in the state of a detection target, identification information of each sensor, and each sensor detecting a change in the state. Storage means for storing the corresponding musical tone attributes in association with each other, an output means for specifying the sensor that has detected a change in state, and outputting identification information for the specified sensor, and identification information is output from the output means And a generating means for generating a musical tone signal having the attribute stored in the storage means in association with the identification information.
In this aspect, the musical sound attribute may be a musical tone color, pitch, volume, or a combination thereof.
前記センサは、光センサ、磁気センサ、超音波センサ、赤外線センサ、荷重センサ、又はこれらの組合せからなるものでもよい。
また、予め設定された所定時間の経過の有無を判断し、前記所定時間が経過したと判断する毎に、前記記憶手段にて各識別情報と対応付けられた属性の内容を変更する変更手段を更に備えてもよい。
更に、前記出力手段は、各センサの識別情報と対応付けられた属性を有する楽音の楽音信号の出力回数に応じて、当該楽音信号が示す音量を制御する手段を備えてもよい。
The sensor may be an optical sensor, a magnetic sensor, an ultrasonic sensor, an infrared sensor, a load sensor, or a combination thereof.
Further, there is provided changing means for changing the content of the attribute associated with each identification information in the storage means every time it is determined whether or not a predetermined time has elapsed in advance and it is determined that the predetermined time has elapsed. Further, it may be provided.
Further, the output means may include means for controlling the volume indicated by the musical tone signal according to the number of times the musical tone signal is output having an attribute associated with the identification information of each sensor.
本発明によると、検知対象の状態の変化を複数のセンサによって検知し、それらのセンサに予め対応付けられた属性の楽音を出力する。従って、空間内の各センサによる検知結果の間に表れる規則性を、観察者をして感覚的に了解せしめることができる。 According to the present invention, a change in the state of a detection target is detected by a plurality of sensors, and musical tones having attributes previously associated with these sensors are output. Therefore, the regularity appearing between the detection results of the sensors in the space can be perceived by the observer.
(第1実施形態)
本発明の第1実施形態について説明する。
本実施形態にかかる楽音生成システムの特徴は、室内に配置した複数のセンサによってその室内の風の流れを検知し、検知した流れを楽曲として表現するようにした点にある。
図1は、本実施形態にかかる楽音生成システムの構成を示すブロック図である。同図に示すように、この楽音生成システムは、風センサ10A乃至Z、楽音設定メモリ11、電気信号生成装置12、楽音信号生成装置13、音源14、アンプ15、スピーカ16を備えている。
(First embodiment)
A first embodiment of the present invention will be described.
A feature of the tone generation system according to the present embodiment is that the flow of the wind in the room is detected by a plurality of sensors arranged in the room, and the detected flow is expressed as music.
FIG. 1 is a block diagram showing a configuration of a musical tone generation system according to the present embodiment. As shown in the figure, the tone generation system includes
風センサ10は、図2に示すように、風防1、リード線2及び3、受風部4などから構成される。リード線2とリード線3は共にその上端が電気信号生成装置12に接続されており、リード線2の下方部は、リード線3を包み込むように螺旋状に湾曲されている。リード線3の下端と一部接続されている受風部4が室内を流れる風の作用を受けて揺動すると、リード線2の湾曲部位とリード線3とが電気的に短絡し、「ON」になったことを示す短絡信号が電気信号生成装置12に供給される。
楽音設定メモリ11は、図3に示すように、各々が1つの風センサ10と対応する複数のレコードを集めたテーブルを記憶している。そして、このテーブルを構成する1つのレコードは、「センサ」と「楽音」のフィールドからなる。「センサ」のフィールドには、各風センサ10を識別する識別情報を記憶する。そして、「楽音」のフィールドには、各風センサ10が「ON」になったときに再生されるべき楽音の属性を表すパラメータを記憶する。このフィールドのパラメータは、再生されれるべき楽音の音色、ピッチ、音量のいずれを表すものであってもよいし、それらの一又は複数を組み合わせたものを表してもよい。また、楽音の別の属性を表すものでもよい。
As shown in FIG. 2, the wind sensor 10 includes a windshield 1,
As shown in FIG. 3, the musical
電気信号生成装置12は、図4に示すように、風センサ10ごとのリード線2と3の各対と夫々接続されたインターフェースA乃至Zを備えている。そして、この電気信号生成装置12は、各インターフェースからの短絡信号の入力状況を基に、「ON」になった一又は複数のセンサを特定し、特定したセンサを示す識別情報を電気信号として楽音信号生成装置13へ供給する。
楽音信号生成装置13は、図5に示すように、電気信号生成装置12から供給される電気信号を基に、「ON」になった一又は複数のセンサの識別情報を特定し、特定した識別情報と対応付けて楽音設定メモリ11に記憶された属性を有する楽音のMIDIデータを生成する。このMIDIデータは、キーオンのMIDIメッセージを表すものであり、例えば、楽音設定メモリ11のテーブルにて、あるセンサの識別情報が楽音の特定のピッチを表すパラメータと対応付けられていれば、そのようなピッチでの演奏を指示するノートナンバデータをMIDIデータに内包させる。また、別のあるセンサの識別情報が楽音の特定の音量を表すパラメータと対応付けられていれば、そのような音量での演奏を指示するベロシティ値をMIDIデータに内包させる。楽音信号生成装置13は、生成したMIDIデータを楽音信号として音源14へ供給する。
As shown in FIG. 4, the electrical
As shown in FIG. 5, the musical sound
MIDIデータが音源14へ供給されると、音源14からは、そのMIDIデータが指定する音のアナログ波形データが出力される。音源14から出力されたアナログ波形データは、アンプ15にて増幅された後、スピーカ16に供給される。スピーカ16からは、アナログ波形データを基に合成された楽音が放音される。
このように、本システムでは、室内に設置された風センサ10が風を検知すると、楽音設定メモリ11にてその風センサ10に固有に割り当てられていた属性を有する楽音が直ちに放音されるようになっている。システム利用者は、室内の風の流れに応じた聴き心地のよい楽曲を表現すべく、室内の各風センサ10に割り当てる楽音の属性を適宜設定する。以下には、そのような聴き心地のよい楽曲を表現するような楽音の属性の割り当て例をいくつか紹介する。
When the MIDI data is supplied to the
As described above, in this system, when the wind sensor 10 installed in the room detects the wind, the musical sound having the attribute uniquely assigned to the wind sensor 10 in the musical
図6は、第1の割り当て例を説明する図である。同図に示す例では、室内に風を供給する風源との距離に応じて、各風センサにそれぞれ割り当てる楽音の属性を決定している。即ち、風源との距離が最も近い風センサAには、リズムの生成に好適な属性の楽音(例えば、ドラムセット音)を割り当て、風源との距離が2番目に近い風センサBと3番目に近い風センサCには、伴奏の生成に好適な属性の楽音(例えば、互いに和音の関係にある特定の2つのピッチの弦楽器音)をそれぞれ割り当てる。そして、風源との距離が4番目に近い風センサDには、メロディの生成に好適な属性の楽音(例えば、管楽器音)を割り当て、風源との距離が最も遠い風センサEには、効果音の生成に好適な属性の楽音(例えば、オーケストラヒット音)を割り当てる。 FIG. 6 is a diagram for explaining a first allocation example. In the example shown in the figure, the attribute of the musical sound assigned to each wind sensor is determined in accordance with the distance from the wind source that supplies the wind into the room. That is, a musical sound (for example, drum set sound) having an attribute suitable for rhythm generation is assigned to the wind sensor A that is closest to the wind source, and the wind sensors B and 3 that are the second closest to the wind source are assigned to the wind sensor A. The second closest wind sensor C is assigned a musical sound having an attribute suitable for generating an accompaniment (for example, a stringed instrument sound of two specific pitches that are in a chord relationship with each other). A musical sound having an attribute suitable for generating a melody (for example, wind instrument sound) is assigned to the wind sensor D having the fourth closest distance to the wind source, and the wind sensor E having the furthest distance from the wind source is assigned to the wind sensor E. A musical sound having an attribute suitable for generating a sound effect (for example, orchestra hit sound) is assigned.
このような割り当てを行なった場合、風センサAが最も多い頻度で風を検知することになるため、風センサAと対応する属性の楽音によって、楽曲全体に渡り一定の秩序を与えることができる。また、風センサBが風を検知するタイミングとその近傍の風センサCが風を検知するタイミングには微小なずれが生じるため、これら2つの風センサと対応する属性の楽音が交互に放音されることによって、リズミカルな伴奏を得ることができる。更に、風源から発せられる風の強さを所定の時間長毎に強くすると、風センサDや風センサEによっても風が検知されることになるため、これらの風センサと対応する属性の楽音によって、楽曲全体の曲調に心地よいアクセントをつけることができる。 When such an assignment is performed, the wind sensor A detects the wind with the highest frequency, so that a certain order can be given to the entire music piece by the musical sound having the attribute corresponding to the wind sensor A. Further, since there is a slight difference between the timing at which the wind sensor B detects the wind and the timing at which the wind sensor C in the vicinity thereof detects the wind, musical sounds having attributes corresponding to the two wind sensors are alternately emitted. By doing so, a rhythmic accompaniment can be obtained. Further, if the strength of the wind emitted from the wind source is increased every predetermined time length, the wind is also detected by the wind sensor D and the wind sensor E. Therefore, musical sounds having attributes corresponding to these wind sensors are detected. Can give a comfortable accent to the tone of the entire song.
図7は、第2の割り当て例を説明する図である。同図に示す例では、同時に鳴ったときに和音としてうまく調和するように、各風センサ10に割り当てる楽音の属性を決定している。即ち、風源との距離が最も近い風センサAには、「ド」のピッチの楽音を割り当て、2番目に近い風センサBには、「ミ」のピッチの楽音を割り当て、3番目に近い風センサCには、「ソ」のピッチの楽音を割り当てる。そして、風源との距離が4番目に近い風センサDには、「シ」のピッチの楽音を割り当て、最も遠い風センサEには、「レ」のピッチの楽音を割り当てる。 FIG. 7 is a diagram illustrating a second allocation example. In the example shown in the figure, the attribute of the musical sound assigned to each wind sensor 10 is determined so that it is well harmonized as a chord when played simultaneously. That is, a musical sound with a pitch of “do” is assigned to the wind sensor A closest to the wind source, and a musical sound with a pitch of “mi” is assigned to the second wind sensor B, which is closest to the third. To the wind sensor C, a musical tone having a pitch of “So” is assigned. Then, a musical sound having a pitch of “si” is assigned to the wind sensor D having the fourth closest distance to the wind source, and a musical sound having a pitch of “le” is assigned to the furthest wind sensor E.
図8は、第3の割り当て例を説明する図である。同図に示す例では、異なる楽器の音色による心地よいアンサンブルが実現するように、各風センサ10に割り当てる楽音の属性を決定する。即ち、風源との距離が最も近い風センサAには、「ドラム」の音色の楽音を割り当て、2番目に近い風センサBには、「ピアノ」の音色の楽音を割り当て、3番目に近い風センサCには、「サックス」の音色の楽音を割り当てる。そして、風源との距離が4番目に近い風センサDには、「ベース」の音色の楽音を割り当て、最も遠い風センサEには、「ギター」の音色の楽音を割り当てる。 FIG. 8 is a diagram for explaining a third allocation example. In the example shown in the figure, the attributes of the musical sound to be assigned to each wind sensor 10 are determined so as to realize a comfortable ensemble based on the timbres of different musical instruments. That is, the musical tone of “drum” is assigned to the wind sensor A closest to the wind source, and the musical tone of “piano” is assigned to the second wind sensor B, which is closest to the third. To the wind sensor C, a musical tone having a tone of “Sachs” is assigned. Then, the musical sound of the “bass” tone color is assigned to the wind sensor D that is the fourth closest to the wind source, and the musical tone tone of the “guitar” tone is assigned to the farthest wind sensor E.
図9は、第4の割り当て例を説明する図である。同図に示す例は、上述した第2の割り当て例と第3の割り当て例とを組み合わせたものである。即ち、風センサを横5列×縦4列の2次元のマトリックス状に配置し、横方向に並ぶ風センサの列には、風源からの距離が最も近い列から順番に、「ドラム」、「ピアノ」、「サックス」、「ベース」、「ギター」の音色となるような楽音をそれぞれ割り当てつつ、縦方向に並ぶ風センサの列には、風源からの距離が最も近い列から順番に、「ド」、「ミ」、「ソ」、「シ」のピッチとなるような楽音をそれぞれ割り当てる。 FIG. 9 is a diagram illustrating a fourth allocation example. The example shown in the figure is a combination of the above-described second allocation example and third allocation example. That is, the wind sensors are arranged in a two-dimensional matrix of 5 rows × 4 rows, and the wind sensor rows arranged in the horizontal direction are “drums” in order from the row closest to the wind source. While assigning musical sounds that will be the sounds of “piano”, “saxe”, “bass”, and “guitar”, the wind sensor rows in the vertical direction are ordered from the row closest to the wind source. , “Do”, “mi”, “so”, “si” pitches are assigned to the respective musical sounds.
図10は、第5の割り当て例を説明する図である。同図に示す例は、配置する風センサ群を複数の領域に区画し、区画した各々の領域内にある風センサ10がそれぞれ和音を奏でるように、各風センサ10に割り当てる楽音の属性を決定する。即ち、2次元のマトリックス状に配置した各風センサ10を、領域C、領域F、領域G、領域Amに位置する風センサ群毎にグループ化し、領域Cに位置する各風センサ10には、コード「C」の和音を構成する、「ド」、「ミ」、「ソ」のピッチの楽音をそれぞれ割り当て、領域Fに位置する各風センサ10には、コード「F」の和音を構成する、「ファ」、「ラ」、「ド」のピッチの楽音をそれぞれ割り当てる。そして、領域Gに位置する各風センサ10には、コード「G」の和音を構成する、「ソ」、「シ」、「レ」のピッチの楽音をそれぞれ割り当て、領域Amに位置する各風センサ10には、コード「Am(エーマイナー)」の和音を構成する、「ラ」、「ド」、「ミ」のピッチの楽音をそれぞれ割り当てる。 FIG. 10 is a diagram for explaining a fifth allocation example. In the example shown in the figure, a group of wind sensors to be arranged is divided into a plurality of areas, and the attributes of musical sounds to be assigned to each wind sensor 10 are determined so that the wind sensors 10 in each divided area play chords. To do. That is, the wind sensors 10 arranged in a two-dimensional matrix are grouped into wind sensor groups located in the region C, the region F, the region G, and the region Am, and each wind sensor 10 located in the region C includes: The chords “C”, “M”, and “SO” are assigned to the chords “C”, and each wind sensor 10 located in the region F forms a chord “F”. , “Fa”, “La”, and “Do” pitches are assigned respectively. Each wind sensor 10 located in the region G is assigned a musical tone having a pitch of “So”, “Shi”, and “Le” that constitutes a chord of the chord “G”, and each wind sensor 10 located in the region Am. To the sensor 10, musical tones with a pitch of “La”, “Do”, and “Mi”, which constitute a chord of the code “Am (Aminor)”, are respectively assigned.
以上説明した本実施形態では、各々が所定の属性の楽音と対応付けられた複数の風センサ10を室内に配置し、それらの各風センサ10によって検知した室内の風の流れを楽音として表現するようになっている。このように室内の風の流れを利用して楽音を生成することにより、人為的でなく、また、全くのランダムでもない心地よい揺らぎを持った楽曲を提供することができる。また、室内の環境の変化を感覚的に了解せしめるような楽音を提供することができる。 In the present embodiment described above, a plurality of wind sensors 10 each associated with a musical sound having a predetermined attribute are arranged in the room, and the flow of the indoor air detected by each of the wind sensors 10 is expressed as a musical sound. It is like that. Thus, by generating a musical sound using the flow of the wind in the room, it is possible to provide a musical piece having a comfortable fluctuation that is not artificial and is not random at all. In addition, it is possible to provide a musical sound that allows a change in the indoor environment to be sensed.
(第2実施形態)
本発明の第2実施形態について説明する。
本実施形態の特徴は、楽音設定メモリ11の設定内容を、所定の時間長毎に切り替えるようにした点である。
図11は、本実施形態にかかる楽音生成システムの構成を示すブロック図である。同図に示す楽音生成システムは、風センサ10A乃至Z、楽音設定メモリ11、電気信号生成装置12、楽音信号生成装置13、音源14、アンプ15、スピーカ16に加えて、タイマ17、設定変更装置18を備える。
タイマ17は、現在時刻を生成し、設定変更装置18に供給する。
設定変更装置18は、タイマ17による支援の下、予め設定された所定時間の経過の有無を判断し、その所定時間が経過したと判断する毎に、楽音設定メモリ11の設定内容を変更する。
(Second Embodiment)
A second embodiment of the present invention will be described.
The feature of this embodiment is that the setting contents of the
FIG. 11 is a block diagram showing the configuration of the tone generation system according to the present embodiment. The musical sound generation system shown in FIG. 1 includes a
The
The
図12は、設定変更装置18による設定内容の変更と時間軸との関係を表す図である。この図では、時刻t0からt1までの時間は、コード「C」の和音を構成する、「ド」、「ミ」、「ソ」のピッチの楽音が風センサA乃至Cにそれぞれ割り当てられた状態となっているが、t1からt2までの時間は、コード「F」の和音を構成する、「ド」、「ファ」、「ラ」のピッチの楽音が割り当てられた状態に遷移する。更に、時刻t2からt3までの時間は、コード「G」の和音を構成する、「シ」、「ソ」、「レ」のピッチの楽音が割り当てられた状態に遷移し、時刻t3からt4までの時間は、コード「Am」の和音を構成する、「ド」、「ラ」、「ミ」のピッチの楽音が割り当てられた状態に遷移する。
このように、本実施形態では、所定時間が経過する毎に、楽音設定メモリ11にて各風センサ10の識別情報と対応付けられた楽音の属性の内容が変更されるようになっている。このため、室内の風の流れに応じて生成される各楽音の音階が所定時間毎に切り替わることで、より聴き心地のよい印象の楽曲を生成することができる。
FIG. 12 is a diagram illustrating the relationship between setting content change by the setting
As described above, in the present embodiment, every time a predetermined time elapses, the content of the musical tone attribute associated with the identification information of each wind sensor 10 in the musical
(第3実施形態)
本発明の第3実施形態について説明する。
本実施形態の特徴は、楽音の音量の大きさを、各センサに割り当てられた楽音の発音回数に応じて制御するようにした点にある。
図13は、本実施形態にかかる楽音生成システムの構成を示すブロック図である。同図に示す楽音生成システムは、風センサ10A乃至Z、楽音設定メモリ11、電気信号生成装置12、楽音信号生成装置13、音源14、アンプ15、スピーカ16に加えて、カウンタ19を備える。
(Third embodiment)
A third embodiment of the present invention will be described.
The feature of this embodiment is that the volume level of the musical sound is controlled in accordance with the number of musical sound generations assigned to each sensor.
FIG. 13 is a block diagram showing the configuration of the musical tone generation system according to this embodiment. In addition to the
カウンタ19は、図14に示すようなデータ構造のカウンタテーブルを内蔵し、各風センサ10と対応するMIDIデータが生成された回数をそれぞれカウントする。
そして、本実施形態における楽音信号生成装置13は、カウンタ19による支援の下、各風センサ10と対応する楽音のMIDIデータの生成回数が予め設定された所定回数(例えば、20回)を超えたか否か判断する。そして、ある風センサ10と対応するMIDIデータの生成回数が所定回数を超えると、次のタイミングで生成されるMIDIデータに内包させるヴェロシティ値に変更を施して出力する。
The
Then, with the assistance of the
図15は、ある風センサ10に対応する楽音のMIDIデータの生成回数と楽音信号生成装置13の振る舞いとの関係を表す図である。この図では、MIDIデータの生成回数が20回を超えた時点と、40回を超えた時点と、60回を超えた時点で、楽音の音量が大幅に大きくなっている。これは、楽音信号生成装置13が、MIDIデータの生成回数が20回を超える毎に、MIDIデータに内包させるベロシティ値を大幅に高い値に変更して出力していることを意味している。
以上説明した本実施形態では、MIDIデータの生成回数が所定回数を超えると、その次のタイミングで生成されるMIDIデータに内包させるヴェロシティ値を変更するようになっている。このため、風センサ10が敏感に反応しすぎるような状況になっても、センサの反応回数を間引くことなく、人間の聴覚に認識しやすい頻度で適度な音量の楽音を出力することができる。
FIG. 15 is a diagram showing the relationship between the number of generations of musical tone MIDI data corresponding to a certain wind sensor 10 and the behavior of the musical tone
In the present embodiment described above, when the number of times MIDI data is generated exceeds a predetermined number, the velocity value included in the MIDI data generated at the next timing is changed. For this reason, even in a situation where the wind sensor 10 reacts too sensitively, it is possible to output a musical sound with an appropriate volume at a frequency that is easily recognized by human hearing without thinning out the number of times the sensor reacts.
(他の実施形態)
本発明は、種々の変形実施が可能である。
上記実施形態では、室内の風の流れを対となるリード線2及び3の短絡の有無によって検知していたが、他の手法で風を検知してもよい。風の流れを検知する他の手法としては、光センサ、磁気センサ、超音波センサ、又は赤外線センサによって受風部4の位置の変位を検知する手法や、重荷センサによって受風部4の引っ張られる力を検知する手法などが想定できる。
また、上記実施形態では、風センサ10からの「ON」の短絡信号の供給の有無に応じて楽音のMIDIデータが生成されるようになっていた。これに対し、風センサ10が、受風部4の揺動する大きさを定量化して得た値の信号を供給し、楽音信号生成装置13は、受風部4の揺動する大きさに比例したベロシティ値を自らの生成するMIDIデータに内包させるようにしてもよい。
(Other embodiments)
The present invention can be modified in various ways.
In the above embodiment, the flow of the wind in the room is detected based on the presence or absence of a short circuit between the pair of
In the above embodiment, musical tone MIDI data is generated depending on whether or not the “ON” short-circuit signal is supplied from the wind sensor 10. On the other hand, the wind sensor 10 supplies a signal having a value obtained by quantifying the magnitude of the swing of the wind receiving section 4, and the musical sound
上記実施形態は、室内の環境を決定付ける物理量のひとつである風の流れを楽曲として表現するものであったが、他の物理量の変化を楽曲として表現してもよい。例えば、室内に放出される光の変化を光センサによって検知したり、磁気の変化を磁気センサによって検知し、検知した内容を楽曲として表現してもよいし、室内に放射される超音波を超音波センサによって検知し、検知した内容を楽曲として表現してもよい。
更に、室内における物理量の変化を音楽として表現するだけでなく、2つの特定の物体の間の距離や、人や物の移動量の変化を楽曲として表現してもよい。物体の間の距離は、例えば、赤外線LED(light emitting diode)と赤外線センサを用いることで容易に検出できるし、また、人や物の移動量は重荷センサを用いることで容易に検出できる。
In the above embodiment, the flow of wind, which is one of the physical quantities that determine the indoor environment, is expressed as music, but changes in other physical quantities may be expressed as music. For example, a change in light emitted into the room may be detected by an optical sensor, a change in magnetism may be detected by a magnetic sensor, and the detected content may be expressed as music, or an ultrasonic wave emitted into the room It may be detected by a sound wave sensor, and the detected content may be expressed as music.
Furthermore, the change in the physical quantity in the room may be expressed not only as music, but also the distance between two specific objects and the change in the movement amount of a person or an object may be expressed as music. The distance between objects can be easily detected by using, for example, an infrared LED (light emitting diode) and an infrared sensor, and the amount of movement of a person or an object can be easily detected by using a heavy load sensor.
各風センサ10にLEDを搭載し、各センサが短絡信号を出力したときに各々のLEDが点灯するようにしてもよい。このような変形例によれば、どの風センサ10が反応して楽音が鳴っているのかを、システム利用者が容易に認識できるようになり、また、LEDの点灯の様子を視覚的に楽しむこともできる。 An LED may be mounted on each wind sensor 10 so that each LED is lit when each sensor outputs a short circuit signal. According to such a modified example, the system user can easily recognize which wind sensor 10 is responding and making a musical tone, and can visually enjoy the lighting state of the LEDs. You can also.
第3実施形態では、MIDIデータの生成回数が所定回数を超えると、次のタイミングで楽音信号生成装置13によって生成されるMIDIデータには、大幅に大きなベロシティ値が内包されるようになっていた。これに対し、MIDIデータの生成回数に応じて音量の大小を変動させるのではなく、各風センサ10が風を検知した回数をそれぞれカウントし、風センサ10が風を検知した回数が所定の回数を超えるたびに、そのセンサの識別情報を表す電気信号が電気信号生成装置12から出力されるようにしてもよい。かかる変形例によれば、検知回数が所定回数を越えなければMIDIデータの生成も行なわれないので、MIDIデータに内包させるベロシティ値を切り替える制御を行なわなくても、人間の聴覚に認識しやすい頻度で適度な音量の楽音を出力することができる。この変形例の構成及び動作を概念的に示すと、「検知対象の状態の変化をそれぞれ検知する複数のセンサと、前記各センサの識別情報と、各センサが状態の変化を検知した際に再生されるべき楽音の属性とを各々対応付けて記憶した記憶手段と、前記各センサが状態の変化を検知した回数をそれぞれカウントし、あるセンサが状態の変化を検知した回数が予め設定された所定の回数を超えると、そのセンサの識別情報を出力する出力手段と、前記出力手段から識別情報が出力されると、その識別情報と対応付けて前記記憶手段に記憶された属性を有する楽音の楽音信号を生成する生成手段とを備える楽音生成システム」となる。
In the third embodiment, when the number of generations of MIDI data exceeds a predetermined number, the MIDI data generated by the tone
1…風防、2,3…リード線、4…受風部、10…風センサ、11…楽音設定メモリ、12…電気信号生成装置、13…楽音信号生成装置、14…音源、15…アンプ、16…スピーカ、17…タイマ、18…設定変更装置、19…カウンタ DESCRIPTION OF SYMBOLS 1 ... Windshield, 2, 3 ... Lead wire, 4 ... Wind receiving part, 10 ... Wind sensor, 11 ... Musical sound setting memory, 12 ... Electric signal generator, 13 ... Musical signal generator, 14 ... Sound source, 15 ... Amplifier, 16 ... Speaker, 17 ... Timer, 18 ... Setting change device, 19 ... Counter
Claims (5)
前記各センサの識別情報と、各センサが状態の変化を検知した際に再生されるべき楽音の属性とを各々対応付けて記憶した記憶手段と、
状態の変化を検知したセンサを特定し、特定したセンサの識別情報を出力する出力手段と、
前記出力手段から識別情報が出力されると、その識別情報と対応付けて前記記憶手段に記憶された属性を有する楽音の楽音信号を生成する生成手段と
を備えた楽音生成システム。 A plurality of sensors each detecting a change in the state of the detection target;
Storage means for storing the identification information of each sensor and the attribute of the musical sound to be reproduced when each sensor detects a change in state, in association with each other;
An output unit that identifies a sensor that has detected a change in state and outputs identification information of the identified sensor;
When the identification information is output from the output unit, the musical tone generation system includes: a generation unit that generates a musical tone signal of a musical tone having an attribute stored in the storage unit in association with the identification information.
前記楽音の属性は、
楽音の音色、ピッチ、音量、又はこれらの組合せである
楽音生成システム。 In the musical sound generation system according to claim 1,
The musical sound attribute is:
A musical tone generation system that is the tone, pitch, volume, or combination of musical tones.
前記センサは、
光センサ、磁気センサ、超音波センサ、赤外線センサ、荷重センサ、又はこれらの組合せからなる
楽音生成システム。 In the musical tone generation system according to claim 1 or 2,
The sensor is
A musical tone generation system comprising an optical sensor, a magnetic sensor, an ultrasonic sensor, an infrared sensor, a load sensor, or a combination thereof.
予め設定された所定時間の経過の有無を判断し、前記所定時間が経過したと判断する毎に、前記記憶手段にて各識別情報と対応付けられた属性の内容を変更する変更手段
を更に備えた楽音生成システム。 In the musical sound generation system according to any one of claims 1 to 3,
A change unit for determining whether or not a predetermined time set in advance has elapsed, and for changing the content of the attribute associated with each identification information in the storage unit every time it is determined that the predetermined time has elapsed; Music generation system.
前記出力手段は、
各センサの識別情報と対応付けられた属性を有する楽音の楽音信号の出力回数に応じて、当該楽音信号が示す音量を制御する手段
を備えた楽音生成システム。 In the musical sound generation system according to any one of claims 1 to 4,
The output means includes
A musical tone generation system comprising means for controlling a volume indicated by a musical tone signal in accordance with the number of times the musical tone signal is output having an attribute associated with identification information of each sensor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004186859A JP4403894B2 (en) | 2004-06-24 | 2004-06-24 | Music generation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004186859A JP4403894B2 (en) | 2004-06-24 | 2004-06-24 | Music generation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006010978A true JP2006010978A (en) | 2006-01-12 |
JP4403894B2 JP4403894B2 (en) | 2010-01-27 |
Family
ID=35778326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004186859A Expired - Fee Related JP4403894B2 (en) | 2004-06-24 | 2004-06-24 | Music generation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4403894B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009031361A (en) * | 2007-07-24 | 2009-02-12 | Asahi Kasei Electronics Co Ltd | Electronic music instrument |
-
2004
- 2004-06-24 JP JP2004186859A patent/JP4403894B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009031361A (en) * | 2007-07-24 | 2009-02-12 | Asahi Kasei Electronics Co Ltd | Electronic music instrument |
Also Published As
Publication number | Publication date |
---|---|
JP4403894B2 (en) | 2010-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4752425B2 (en) | Ensemble system | |
JP4107107B2 (en) | Keyboard instrument | |
CN102347020B (en) | Tone generation control apparatus | |
US10403254B2 (en) | Electronic musical instrument, and control method of electronic musical instrument | |
CN103380454A (en) | System and method for electronic processing of cymbal vibration | |
US20200279544A1 (en) | Techniques for controlling the expressive behavior of virtual instruments and related systems and methods | |
JP4496993B2 (en) | Music control device | |
JP3858899B2 (en) | Stringed electronic musical instrument | |
JP4403894B2 (en) | Music generation system | |
JP2006251376A (en) | Musical sound controller | |
JP3584825B2 (en) | Music signal generator | |
KR102240872B1 (en) | Method for composing music based on surrounding environment and apparatus therefor | |
CN211529386U (en) | Musical instrument played according to prompt signal | |
CN110889994A (en) | Musical instrument played according to prompt signal | |
JP2007248880A (en) | Musical performance controller and program | |
KR101842282B1 (en) | Guitar playing system, playing guitar and, method for displaying of guitar playing information | |
JPS62264098A (en) | Electronic musical instrument | |
Săman et al. | Music panel: An application for creating and editing music using OpenCV and JFUGUE | |
JP2018146716A (en) | Training device, training program, and training method | |
Challis et al. | Applications for proximity sensors in music and sound performance | |
JP3215058B2 (en) | Musical instrument with performance support function | |
JP2004045902A (en) | Electronic musical instrument | |
JPH0822282A (en) | Automatic accompaniment device for guitar | |
Vogels | Harmonica-inspired digital musical instrument design based on an existing gestural performance repertoire | |
JP3991892B2 (en) | Electronic musical instruments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080826 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081027 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091013 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091026 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121113 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121113 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131113 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |