JP2006010978A - System for generating musical sound - Google Patents

System for generating musical sound Download PDF

Info

Publication number
JP2006010978A
JP2006010978A JP2004186859A JP2004186859A JP2006010978A JP 2006010978 A JP2006010978 A JP 2006010978A JP 2004186859 A JP2004186859 A JP 2004186859A JP 2004186859 A JP2004186859 A JP 2004186859A JP 2006010978 A JP2006010978 A JP 2006010978A
Authority
JP
Japan
Prior art keywords
sensor
musical
wind
musical sound
generation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004186859A
Other languages
Japanese (ja)
Other versions
JP4403894B2 (en
Inventor
Tatsuya Iriyama
達也 入山
Makoto Tanaka
田中  良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2004186859A priority Critical patent/JP4403894B2/en
Publication of JP2006010978A publication Critical patent/JP2006010978A/en
Application granted granted Critical
Publication of JP4403894B2 publication Critical patent/JP4403894B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system for musically expressing regularities, appearing among the results detected by two or more sensors within a space. <P>SOLUTION: This system for generating musical sounds is provided with two or more wind sensors 10 for detecting a state change of an object for detection, and a musical sound setting memory 11 which stores discriminating information on each sensor, making it correspond to an attribute of the musical sound to be reproduced, when each wind sensor 10 detects the state change. Further, the system is provided with an electrical signal generating device 12 for outputting the discrimination information of the sensors which detect the state change, and a musical sound signal generating device 13 for generating a signal of the musical sound with the attribute stored in the musical sound setting memory 11, making the musical sound signal correspond to the discriminating information outputted. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、楽音生成システムに係り、特に、センサアレイによる検知結果を基に楽音を生成する楽音生成システムに関する。   The present invention relates to a tone generation system, and more particularly to a tone generation system that generates a tone based on a detection result by a sensor array.

外部からの物理的作用を検知し、その内容を楽音によって表現する種々の器機が従来より提案されている。例えば、特許文献1には、外部から加えられた衝撃を音に変換して出力する玩具が開示されている。この玩具は、図16に示すように、センサ22、タイマ回路23、音響信号合成回路24、アンプ25、スピーカ26などを備える。そして、玩具が叩かれたり揺すられたりすると、その衝撃を検知したセンサ22から検知信号が発せられる。すると、音響信号合成回路24は、タイマ回路23の支援の下、予め設定された時間長の間、所定の音色の音響信号をアンプ25へ供給し、アンプ25にて増幅された音響信号がスピーカ26へ出力されるようになっている。   Various devices have been proposed in the past for detecting physical actions from the outside and expressing the contents with musical sounds. For example, Patent Document 1 discloses a toy that converts an externally applied impact into sound and outputs the sound. As shown in FIG. 16, the toy includes a sensor 22, a timer circuit 23, an acoustic signal synthesis circuit 24, an amplifier 25, a speaker 26, and the like. When the toy is hit or shaken, a detection signal is generated from the sensor 22 that detects the impact. Then, the acoustic signal synthesis circuit 24 supplies an acoustic signal of a predetermined tone color to the amplifier 25 for a preset time length with the support of the timer circuit 23, and the acoustic signal amplified by the amplifier 25 is supplied to the speaker. 26 is output to H.26.

また、非特許文献1にも同種の技術が開示されている。この文献に開示されたシステムは、10個のUFO型のオブジェとコンピュータ、音源などにより構成される。そして、10個のうち4つのオブジェはガイガーセンサーを内蔵し、宇宙からやってくるガンマー波に反応して音を生み出す。一方で、別の2つのオブジェは赤外線センサーを内蔵し、人の動きに反応して音を生成するようになっている。   Non-patent document 1 also discloses the same kind of technology. The system disclosed in this document is composed of 10 UFO-type objects, a computer, a sound source, and the like. And 4 out of 10 objects have built-in Geiger sensors that produce sound in response to gamma waves coming from space. On the other hand, two other objects have built-in infrared sensors that generate sound in response to human movement.

非特許文献2には、人の特定の動作に音楽的意味付けを与えることで演奏を実現する、「ブレインオペラ」と呼ばれるシステムが開示されている。このシステムでは、あるスクリーンの前に演奏者が立って特定の動作を行なうと、スクリーン上の演奏者の指の位置、スクリーンに触る圧力、スクリーン上を動く指の速度などがセンサによって検出される。そして、検出結果に応じて予め設定されていたMIDI(musical instrument digital interface)データを順次出力することで演奏を実現する。
実開平06−048791 http://www.threeweb.ad.jp/~ueharakz/INST/index.html http://brainop.media.mit.edu/onsite/melody/main.html
Non-Patent Document 2 discloses a system called “brain opera” that realizes performance by giving musical meaning to a specific motion of a person. In this system, when a performer stands in front of a screen and performs a specific action, a sensor detects the position of the performer's finger on the screen, the pressure touching the screen, the speed of the finger moving on the screen, etc. . A performance is realized by sequentially outputting MIDI (musical instrument digital interface) data set in advance according to the detection result.
Japanese Utility Model 06-064871 http://www.threeweb.ad.jp/~ueharakz/INST/index.html http://brainop.media.mit.edu/onsite/melody/main.html

ところで、ある空間内に一定の距離をおいて複数のセンサを配置し、その空間の環境を決定付ける特定の物質の物理量を検知した場合、それら各センサによる検知結果の間には何らかの規則性が表れることが極めて多い。例えば、ある空間内に配置した複数の風センサによってその空間内を流れる風を検知する場合、風源への距離が近いほどより強い風が検知され、距離が遠くなるにつれて弱い風が検知されるといったような、ある種の規則性が表れる。そして、このような、空間内の各センサによる検知結果の間に表れる規則性を、観察者をして感覚的に了解せしめる手段の実現が強く望まれていた。
本発明は、このような状況の下に案出されたものであり、空間内の複数のセンサによる検知結果の間に表れる規則性を音楽的に表現するシステムを提供することを目的とする。
By the way, when a plurality of sensors are arranged at a certain distance in a certain space and a physical quantity of a specific substance that determines the environment of the space is detected, there is some regularity between the detection results of each sensor. Very often appears. For example, when detecting a wind flowing through a space by a plurality of wind sensors arranged in a certain space, a stronger wind is detected as the distance to the air source is closer, and a weaker wind is detected as the distance increases. A certain kind of regularity appears. There has been a strong demand for realization of such means that allows the observer to understand the regularity that appears between the detection results of the sensors in the space.
The present invention has been devised under such circumstances, and an object of the present invention is to provide a system that musically expresses regularity that appears between detection results of a plurality of sensors in a space.

本発明の好適な態様である楽音生成システムは、検知対象の状態の変化をそれぞれ検知する複数のセンサと、前記各センサの識別情報と、各センサが状態の変化を検知した際に再生されるべき楽音の属性とを各々対応付けて記憶した記憶手段と、状態の変化を検知したセンサを特定し、特定したセンサの識別情報を出力する出力手段と、前記出力手段から識別情報が出力されると、その識別情報と対応付けて前記記憶手段に記憶された属性を有する楽音の楽音信号を生成する生成手段とを備える。
この態様において、前記楽音の属性は、楽音の音色、ピッチ、音量、又はこれらの組合せであってもよい。
A musical sound generation system which is a preferred aspect of the present invention is reproduced when a plurality of sensors each detecting a change in the state of a detection target, identification information of each sensor, and each sensor detecting a change in the state. Storage means for storing the corresponding musical tone attributes in association with each other, an output means for specifying the sensor that has detected a change in state, and outputting identification information for the specified sensor, and identification information is output from the output means And a generating means for generating a musical tone signal having the attribute stored in the storage means in association with the identification information.
In this aspect, the musical sound attribute may be a musical tone color, pitch, volume, or a combination thereof.

前記センサは、光センサ、磁気センサ、超音波センサ、赤外線センサ、荷重センサ、又はこれらの組合せからなるものでもよい。
また、予め設定された所定時間の経過の有無を判断し、前記所定時間が経過したと判断する毎に、前記記憶手段にて各識別情報と対応付けられた属性の内容を変更する変更手段を更に備えてもよい。
更に、前記出力手段は、各センサの識別情報と対応付けられた属性を有する楽音の楽音信号の出力回数に応じて、当該楽音信号が示す音量を制御する手段を備えてもよい。
The sensor may be an optical sensor, a magnetic sensor, an ultrasonic sensor, an infrared sensor, a load sensor, or a combination thereof.
Further, there is provided changing means for changing the content of the attribute associated with each identification information in the storage means every time it is determined whether or not a predetermined time has elapsed in advance and it is determined that the predetermined time has elapsed. Further, it may be provided.
Further, the output means may include means for controlling the volume indicated by the musical tone signal according to the number of times the musical tone signal is output having an attribute associated with the identification information of each sensor.

本発明によると、検知対象の状態の変化を複数のセンサによって検知し、それらのセンサに予め対応付けられた属性の楽音を出力する。従って、空間内の各センサによる検知結果の間に表れる規則性を、観察者をして感覚的に了解せしめることができる。   According to the present invention, a change in the state of a detection target is detected by a plurality of sensors, and musical tones having attributes previously associated with these sensors are output. Therefore, the regularity appearing between the detection results of the sensors in the space can be perceived by the observer.

(第1実施形態)
本発明の第1実施形態について説明する。
本実施形態にかかる楽音生成システムの特徴は、室内に配置した複数のセンサによってその室内の風の流れを検知し、検知した流れを楽曲として表現するようにした点にある。
図1は、本実施形態にかかる楽音生成システムの構成を示すブロック図である。同図に示すように、この楽音生成システムは、風センサ10A乃至Z、楽音設定メモリ11、電気信号生成装置12、楽音信号生成装置13、音源14、アンプ15、スピーカ16を備えている。
(First embodiment)
A first embodiment of the present invention will be described.
A feature of the tone generation system according to the present embodiment is that the flow of the wind in the room is detected by a plurality of sensors arranged in the room, and the detected flow is expressed as music.
FIG. 1 is a block diagram showing a configuration of a musical tone generation system according to the present embodiment. As shown in the figure, the tone generation system includes wind sensors 10A to Z, a tone setting memory 11, an electric signal generator 12, a tone signal generator 13, a sound source 14, an amplifier 15, and a speaker 16.

風センサ10は、図2に示すように、風防1、リード線2及び3、受風部4などから構成される。リード線2とリード線3は共にその上端が電気信号生成装置12に接続されており、リード線2の下方部は、リード線3を包み込むように螺旋状に湾曲されている。リード線3の下端と一部接続されている受風部4が室内を流れる風の作用を受けて揺動すると、リード線2の湾曲部位とリード線3とが電気的に短絡し、「ON」になったことを示す短絡信号が電気信号生成装置12に供給される。
楽音設定メモリ11は、図3に示すように、各々が1つの風センサ10と対応する複数のレコードを集めたテーブルを記憶している。そして、このテーブルを構成する1つのレコードは、「センサ」と「楽音」のフィールドからなる。「センサ」のフィールドには、各風センサ10を識別する識別情報を記憶する。そして、「楽音」のフィールドには、各風センサ10が「ON」になったときに再生されるべき楽音の属性を表すパラメータを記憶する。このフィールドのパラメータは、再生されれるべき楽音の音色、ピッチ、音量のいずれを表すものであってもよいし、それらの一又は複数を組み合わせたものを表してもよい。また、楽音の別の属性を表すものでもよい。
As shown in FIG. 2, the wind sensor 10 includes a windshield 1, lead wires 2 and 3, a wind receiving portion 4, and the like. Both the lead wire 2 and the lead wire 3 are connected to the electrical signal generator 12 at the upper ends thereof, and the lower part of the lead wire 2 is curved in a spiral shape so as to wrap the lead wire 3. When the wind receiving portion 4 partially connected to the lower end of the lead wire 3 is swung under the action of the wind flowing through the room, the curved portion of the lead wire 2 and the lead wire 3 are electrically short-circuited, and “ON A short circuit signal indicating that “
As shown in FIG. 3, the musical sound setting memory 11 stores a table in which a plurality of records each corresponding to one wind sensor 10 are collected. One record constituting this table includes fields of “sensor” and “musical tone”. Identification information for identifying each wind sensor 10 is stored in the “sensor” field. In the “musical sound” field, a parameter representing an attribute of a musical sound to be reproduced when each wind sensor 10 is turned “ON” is stored. The parameter of this field may represent any of the tone color, pitch, and volume of a musical tone to be reproduced, or may represent a combination of one or more of them. It may also represent another attribute of the musical sound.

電気信号生成装置12は、図4に示すように、風センサ10ごとのリード線2と3の各対と夫々接続されたインターフェースA乃至Zを備えている。そして、この電気信号生成装置12は、各インターフェースからの短絡信号の入力状況を基に、「ON」になった一又は複数のセンサを特定し、特定したセンサを示す識別情報を電気信号として楽音信号生成装置13へ供給する。
楽音信号生成装置13は、図5に示すように、電気信号生成装置12から供給される電気信号を基に、「ON」になった一又は複数のセンサの識別情報を特定し、特定した識別情報と対応付けて楽音設定メモリ11に記憶された属性を有する楽音のMIDIデータを生成する。このMIDIデータは、キーオンのMIDIメッセージを表すものであり、例えば、楽音設定メモリ11のテーブルにて、あるセンサの識別情報が楽音の特定のピッチを表すパラメータと対応付けられていれば、そのようなピッチでの演奏を指示するノートナンバデータをMIDIデータに内包させる。また、別のあるセンサの識別情報が楽音の特定の音量を表すパラメータと対応付けられていれば、そのような音量での演奏を指示するベロシティ値をMIDIデータに内包させる。楽音信号生成装置13は、生成したMIDIデータを楽音信号として音源14へ供給する。
As shown in FIG. 4, the electrical signal generation device 12 includes interfaces A to Z connected to each pair of lead wires 2 and 3 for each wind sensor 10. Then, the electrical signal generation device 12 identifies one or more sensors that are “ON” based on the input status of the short circuit signal from each interface, and uses the identification information indicating the identified sensor as an electrical signal as a musical sound. The signal is supplied to the signal generator 13.
As shown in FIG. 5, the musical sound signal generation device 13 specifies identification information of one or more sensors that are “ON” based on the electric signal supplied from the electric signal generation device 12, and specifies the specified identification. The musical tone MIDI data having the attribute stored in the musical tone setting memory 11 in association with the information is generated. This MIDI data represents a key-on MIDI message. For example, if the identification information of a certain sensor is associated with a parameter representing a specific pitch of a musical tone in the table of the musical tone setting memory 11, such a case. Note number data for instructing performance at a proper pitch is included in MIDI data. If the identification information of another sensor is associated with a parameter representing a specific volume of a musical tone, a velocity value instructing performance at such a volume is included in the MIDI data. The musical sound signal generator 13 supplies the generated MIDI data to the sound source 14 as a musical sound signal.

MIDIデータが音源14へ供給されると、音源14からは、そのMIDIデータが指定する音のアナログ波形データが出力される。音源14から出力されたアナログ波形データは、アンプ15にて増幅された後、スピーカ16に供給される。スピーカ16からは、アナログ波形データを基に合成された楽音が放音される。
このように、本システムでは、室内に設置された風センサ10が風を検知すると、楽音設定メモリ11にてその風センサ10に固有に割り当てられていた属性を有する楽音が直ちに放音されるようになっている。システム利用者は、室内の風の流れに応じた聴き心地のよい楽曲を表現すべく、室内の各風センサ10に割り当てる楽音の属性を適宜設定する。以下には、そのような聴き心地のよい楽曲を表現するような楽音の属性の割り当て例をいくつか紹介する。
When the MIDI data is supplied to the sound source 14, the sound source 14 outputs analog waveform data of the sound designated by the MIDI data. The analog waveform data output from the sound source 14 is amplified by the amplifier 15 and then supplied to the speaker 16. A musical sound synthesized based on the analog waveform data is emitted from the speaker 16.
As described above, in this system, when the wind sensor 10 installed in the room detects the wind, the musical sound having the attribute uniquely assigned to the wind sensor 10 in the musical sound setting memory 11 is immediately emitted. It has become. The system user appropriately sets an attribute of a musical sound to be assigned to each wind sensor 10 in the room in order to express a music that is comfortable to listen to according to the wind flow in the room. In the following, some examples of musical sound attribute assignments that express such comfortable music are introduced.

図6は、第1の割り当て例を説明する図である。同図に示す例では、室内に風を供給する風源との距離に応じて、各風センサにそれぞれ割り当てる楽音の属性を決定している。即ち、風源との距離が最も近い風センサAには、リズムの生成に好適な属性の楽音(例えば、ドラムセット音)を割り当て、風源との距離が2番目に近い風センサBと3番目に近い風センサCには、伴奏の生成に好適な属性の楽音(例えば、互いに和音の関係にある特定の2つのピッチの弦楽器音)をそれぞれ割り当てる。そして、風源との距離が4番目に近い風センサDには、メロディの生成に好適な属性の楽音(例えば、管楽器音)を割り当て、風源との距離が最も遠い風センサEには、効果音の生成に好適な属性の楽音(例えば、オーケストラヒット音)を割り当てる。   FIG. 6 is a diagram for explaining a first allocation example. In the example shown in the figure, the attribute of the musical sound assigned to each wind sensor is determined in accordance with the distance from the wind source that supplies the wind into the room. That is, a musical sound (for example, drum set sound) having an attribute suitable for rhythm generation is assigned to the wind sensor A that is closest to the wind source, and the wind sensors B and 3 that are the second closest to the wind source are assigned to the wind sensor A. The second closest wind sensor C is assigned a musical sound having an attribute suitable for generating an accompaniment (for example, a stringed instrument sound of two specific pitches that are in a chord relationship with each other). A musical sound having an attribute suitable for generating a melody (for example, wind instrument sound) is assigned to the wind sensor D having the fourth closest distance to the wind source, and the wind sensor E having the furthest distance from the wind source is assigned to the wind sensor E. A musical sound having an attribute suitable for generating a sound effect (for example, orchestra hit sound) is assigned.

このような割り当てを行なった場合、風センサAが最も多い頻度で風を検知することになるため、風センサAと対応する属性の楽音によって、楽曲全体に渡り一定の秩序を与えることができる。また、風センサBが風を検知するタイミングとその近傍の風センサCが風を検知するタイミングには微小なずれが生じるため、これら2つの風センサと対応する属性の楽音が交互に放音されることによって、リズミカルな伴奏を得ることができる。更に、風源から発せられる風の強さを所定の時間長毎に強くすると、風センサDや風センサEによっても風が検知されることになるため、これらの風センサと対応する属性の楽音によって、楽曲全体の曲調に心地よいアクセントをつけることができる。   When such an assignment is performed, the wind sensor A detects the wind with the highest frequency, so that a certain order can be given to the entire music piece by the musical sound having the attribute corresponding to the wind sensor A. Further, since there is a slight difference between the timing at which the wind sensor B detects the wind and the timing at which the wind sensor C in the vicinity thereof detects the wind, musical sounds having attributes corresponding to the two wind sensors are alternately emitted. By doing so, a rhythmic accompaniment can be obtained. Further, if the strength of the wind emitted from the wind source is increased every predetermined time length, the wind is also detected by the wind sensor D and the wind sensor E. Therefore, musical sounds having attributes corresponding to these wind sensors are detected. Can give a comfortable accent to the tone of the entire song.

図7は、第2の割り当て例を説明する図である。同図に示す例では、同時に鳴ったときに和音としてうまく調和するように、各風センサ10に割り当てる楽音の属性を決定している。即ち、風源との距離が最も近い風センサAには、「ド」のピッチの楽音を割り当て、2番目に近い風センサBには、「ミ」のピッチの楽音を割り当て、3番目に近い風センサCには、「ソ」のピッチの楽音を割り当てる。そして、風源との距離が4番目に近い風センサDには、「シ」のピッチの楽音を割り当て、最も遠い風センサEには、「レ」のピッチの楽音を割り当てる。   FIG. 7 is a diagram illustrating a second allocation example. In the example shown in the figure, the attribute of the musical sound assigned to each wind sensor 10 is determined so that it is well harmonized as a chord when played simultaneously. That is, a musical sound with a pitch of “do” is assigned to the wind sensor A closest to the wind source, and a musical sound with a pitch of “mi” is assigned to the second wind sensor B, which is closest to the third. To the wind sensor C, a musical tone having a pitch of “So” is assigned. Then, a musical sound having a pitch of “si” is assigned to the wind sensor D having the fourth closest distance to the wind source, and a musical sound having a pitch of “le” is assigned to the furthest wind sensor E.

図8は、第3の割り当て例を説明する図である。同図に示す例では、異なる楽器の音色による心地よいアンサンブルが実現するように、各風センサ10に割り当てる楽音の属性を決定する。即ち、風源との距離が最も近い風センサAには、「ドラム」の音色の楽音を割り当て、2番目に近い風センサBには、「ピアノ」の音色の楽音を割り当て、3番目に近い風センサCには、「サックス」の音色の楽音を割り当てる。そして、風源との距離が4番目に近い風センサDには、「ベース」の音色の楽音を割り当て、最も遠い風センサEには、「ギター」の音色の楽音を割り当てる。   FIG. 8 is a diagram for explaining a third allocation example. In the example shown in the figure, the attributes of the musical sound to be assigned to each wind sensor 10 are determined so as to realize a comfortable ensemble based on the timbres of different musical instruments. That is, the musical tone of “drum” is assigned to the wind sensor A closest to the wind source, and the musical tone of “piano” is assigned to the second wind sensor B, which is closest to the third. To the wind sensor C, a musical tone having a tone of “Sachs” is assigned. Then, the musical sound of the “bass” tone color is assigned to the wind sensor D that is the fourth closest to the wind source, and the musical tone tone of the “guitar” tone is assigned to the farthest wind sensor E.

図9は、第4の割り当て例を説明する図である。同図に示す例は、上述した第2の割り当て例と第3の割り当て例とを組み合わせたものである。即ち、風センサを横5列×縦4列の2次元のマトリックス状に配置し、横方向に並ぶ風センサの列には、風源からの距離が最も近い列から順番に、「ドラム」、「ピアノ」、「サックス」、「ベース」、「ギター」の音色となるような楽音をそれぞれ割り当てつつ、縦方向に並ぶ風センサの列には、風源からの距離が最も近い列から順番に、「ド」、「ミ」、「ソ」、「シ」のピッチとなるような楽音をそれぞれ割り当てる。   FIG. 9 is a diagram illustrating a fourth allocation example. The example shown in the figure is a combination of the above-described second allocation example and third allocation example. That is, the wind sensors are arranged in a two-dimensional matrix of 5 rows × 4 rows, and the wind sensor rows arranged in the horizontal direction are “drums” in order from the row closest to the wind source. While assigning musical sounds that will be the sounds of “piano”, “saxe”, “bass”, and “guitar”, the wind sensor rows in the vertical direction are ordered from the row closest to the wind source. , “Do”, “mi”, “so”, “si” pitches are assigned to the respective musical sounds.

図10は、第5の割り当て例を説明する図である。同図に示す例は、配置する風センサ群を複数の領域に区画し、区画した各々の領域内にある風センサ10がそれぞれ和音を奏でるように、各風センサ10に割り当てる楽音の属性を決定する。即ち、2次元のマトリックス状に配置した各風センサ10を、領域C、領域F、領域G、領域Amに位置する風センサ群毎にグループ化し、領域Cに位置する各風センサ10には、コード「C」の和音を構成する、「ド」、「ミ」、「ソ」のピッチの楽音をそれぞれ割り当て、領域Fに位置する各風センサ10には、コード「F」の和音を構成する、「ファ」、「ラ」、「ド」のピッチの楽音をそれぞれ割り当てる。そして、領域Gに位置する各風センサ10には、コード「G」の和音を構成する、「ソ」、「シ」、「レ」のピッチの楽音をそれぞれ割り当て、領域Amに位置する各風センサ10には、コード「Am(エーマイナー)」の和音を構成する、「ラ」、「ド」、「ミ」のピッチの楽音をそれぞれ割り当てる。   FIG. 10 is a diagram for explaining a fifth allocation example. In the example shown in the figure, a group of wind sensors to be arranged is divided into a plurality of areas, and the attributes of musical sounds to be assigned to each wind sensor 10 are determined so that the wind sensors 10 in each divided area play chords. To do. That is, the wind sensors 10 arranged in a two-dimensional matrix are grouped into wind sensor groups located in the region C, the region F, the region G, and the region Am, and each wind sensor 10 located in the region C includes: The chords “C”, “M”, and “SO” are assigned to the chords “C”, and each wind sensor 10 located in the region F forms a chord “F”. , “Fa”, “La”, and “Do” pitches are assigned respectively. Each wind sensor 10 located in the region G is assigned a musical tone having a pitch of “So”, “Shi”, and “Le” that constitutes a chord of the chord “G”, and each wind sensor 10 located in the region Am. To the sensor 10, musical tones with a pitch of “La”, “Do”, and “Mi”, which constitute a chord of the code “Am (Aminor)”, are respectively assigned.

以上説明した本実施形態では、各々が所定の属性の楽音と対応付けられた複数の風センサ10を室内に配置し、それらの各風センサ10によって検知した室内の風の流れを楽音として表現するようになっている。このように室内の風の流れを利用して楽音を生成することにより、人為的でなく、また、全くのランダムでもない心地よい揺らぎを持った楽曲を提供することができる。また、室内の環境の変化を感覚的に了解せしめるような楽音を提供することができる。   In the present embodiment described above, a plurality of wind sensors 10 each associated with a musical sound having a predetermined attribute are arranged in the room, and the flow of the indoor air detected by each of the wind sensors 10 is expressed as a musical sound. It is like that. Thus, by generating a musical sound using the flow of the wind in the room, it is possible to provide a musical piece having a comfortable fluctuation that is not artificial and is not random at all. In addition, it is possible to provide a musical sound that allows a change in the indoor environment to be sensed.

(第2実施形態)
本発明の第2実施形態について説明する。
本実施形態の特徴は、楽音設定メモリ11の設定内容を、所定の時間長毎に切り替えるようにした点である。
図11は、本実施形態にかかる楽音生成システムの構成を示すブロック図である。同図に示す楽音生成システムは、風センサ10A乃至Z、楽音設定メモリ11、電気信号生成装置12、楽音信号生成装置13、音源14、アンプ15、スピーカ16に加えて、タイマ17、設定変更装置18を備える。
タイマ17は、現在時刻を生成し、設定変更装置18に供給する。
設定変更装置18は、タイマ17による支援の下、予め設定された所定時間の経過の有無を判断し、その所定時間が経過したと判断する毎に、楽音設定メモリ11の設定内容を変更する。
(Second Embodiment)
A second embodiment of the present invention will be described.
The feature of this embodiment is that the setting contents of the tone setting memory 11 are switched every predetermined time length.
FIG. 11 is a block diagram showing the configuration of the tone generation system according to the present embodiment. The musical sound generation system shown in FIG. 1 includes a wind sensor 10A to Z, a musical sound setting memory 11, an electric signal generation device 12, a musical sound signal generation device 13, a sound source 14, an amplifier 15, a speaker 16, a timer 17, and a setting change device. 18 is provided.
The timer 17 generates the current time and supplies it to the setting change device 18.
The setting changing device 18 determines whether or not a preset predetermined time has elapsed with the assistance of the timer 17 and changes the setting contents of the musical tone setting memory 11 every time it is determined that the predetermined time has elapsed.

図12は、設定変更装置18による設定内容の変更と時間軸との関係を表す図である。この図では、時刻t0からt1までの時間は、コード「C」の和音を構成する、「ド」、「ミ」、「ソ」のピッチの楽音が風センサA乃至Cにそれぞれ割り当てられた状態となっているが、t1からt2までの時間は、コード「F」の和音を構成する、「ド」、「ファ」、「ラ」のピッチの楽音が割り当てられた状態に遷移する。更に、時刻t2からt3までの時間は、コード「G」の和音を構成する、「シ」、「ソ」、「レ」のピッチの楽音が割り当てられた状態に遷移し、時刻t3からt4までの時間は、コード「Am」の和音を構成する、「ド」、「ラ」、「ミ」のピッチの楽音が割り当てられた状態に遷移する。
このように、本実施形態では、所定時間が経過する毎に、楽音設定メモリ11にて各風センサ10の識別情報と対応付けられた楽音の属性の内容が変更されるようになっている。このため、室内の風の流れに応じて生成される各楽音の音階が所定時間毎に切り替わることで、より聴き心地のよい印象の楽曲を生成することができる。
FIG. 12 is a diagram illustrating the relationship between setting content change by the setting change device 18 and the time axis. In this figure, the time from time t0 to t1 is a state in which the musical tones of the chord “C” and the pitches “do”, “mi”, and “so” are assigned to the wind sensors A to C, respectively. However, during the period from t1 to t2, a transition is made to a state in which musical tones with pitches of “do”, “fa”, and “la” constituting the chord of the chord “F” are assigned. Further, the time from the time t2 to the time t3 transitions to a state in which the musical tones of the chord “G” and the pitches of “shi”, “so” and “le” are assigned, and from the time t3 to the time t4 During the period of time, a transition is made to a state in which musical tones with pitches of “do”, “la”, and “mi” constituting the chord of the chord “Am” are assigned.
As described above, in the present embodiment, every time a predetermined time elapses, the content of the musical tone attribute associated with the identification information of each wind sensor 10 in the musical tone setting memory 11 is changed. For this reason, the musical tone of each musical tone generated according to the flow of the wind in the room is switched every predetermined time, so that it is possible to generate a musical piece having a more comfortable impression.

(第3実施形態)
本発明の第3実施形態について説明する。
本実施形態の特徴は、楽音の音量の大きさを、各センサに割り当てられた楽音の発音回数に応じて制御するようにした点にある。
図13は、本実施形態にかかる楽音生成システムの構成を示すブロック図である。同図に示す楽音生成システムは、風センサ10A乃至Z、楽音設定メモリ11、電気信号生成装置12、楽音信号生成装置13、音源14、アンプ15、スピーカ16に加えて、カウンタ19を備える。
(Third embodiment)
A third embodiment of the present invention will be described.
The feature of this embodiment is that the volume level of the musical sound is controlled in accordance with the number of musical sound generations assigned to each sensor.
FIG. 13 is a block diagram showing the configuration of the musical tone generation system according to this embodiment. In addition to the wind sensors 10A to Z, the musical sound setting memory 11, the electric signal generation device 12, the musical sound signal generation device 13, the sound source 14, the amplifier 15, and the speaker 16, the musical sound generation system shown in FIG.

カウンタ19は、図14に示すようなデータ構造のカウンタテーブルを内蔵し、各風センサ10と対応するMIDIデータが生成された回数をそれぞれカウントする。
そして、本実施形態における楽音信号生成装置13は、カウンタ19による支援の下、各風センサ10と対応する楽音のMIDIデータの生成回数が予め設定された所定回数(例えば、20回)を超えたか否か判断する。そして、ある風センサ10と対応するMIDIデータの生成回数が所定回数を超えると、次のタイミングで生成されるMIDIデータに内包させるヴェロシティ値に変更を施して出力する。
The counter 19 incorporates a counter table having a data structure as shown in FIG. 14, and counts the number of times MIDI data corresponding to each wind sensor 10 is generated.
Then, with the assistance of the counter 19, the musical sound signal generation device 13 according to the present embodiment has exceeded the predetermined number of times (for example, 20 times) the number of generations of musical sound MIDI data corresponding to each wind sensor 10. Judge whether or not. When the number of generations of MIDI data corresponding to a certain wind sensor 10 exceeds a predetermined number, the velocity value included in the MIDI data generated at the next timing is changed and output.

図15は、ある風センサ10に対応する楽音のMIDIデータの生成回数と楽音信号生成装置13の振る舞いとの関係を表す図である。この図では、MIDIデータの生成回数が20回を超えた時点と、40回を超えた時点と、60回を超えた時点で、楽音の音量が大幅に大きくなっている。これは、楽音信号生成装置13が、MIDIデータの生成回数が20回を超える毎に、MIDIデータに内包させるベロシティ値を大幅に高い値に変更して出力していることを意味している。
以上説明した本実施形態では、MIDIデータの生成回数が所定回数を超えると、その次のタイミングで生成されるMIDIデータに内包させるヴェロシティ値を変更するようになっている。このため、風センサ10が敏感に反応しすぎるような状況になっても、センサの反応回数を間引くことなく、人間の聴覚に認識しやすい頻度で適度な音量の楽音を出力することができる。
FIG. 15 is a diagram showing the relationship between the number of generations of musical tone MIDI data corresponding to a certain wind sensor 10 and the behavior of the musical tone signal generation device 13. In this figure, the volume of the musical tone is greatly increased when the number of generations of MIDI data exceeds 20 times, when it exceeds 40 times, and when it exceeds 60 times. This means that the tone signal generator 13 changes the velocity value included in the MIDI data to a significantly high value every time the number of generations of MIDI data exceeds 20, and outputs the result.
In the present embodiment described above, when the number of times MIDI data is generated exceeds a predetermined number, the velocity value included in the MIDI data generated at the next timing is changed. For this reason, even in a situation where the wind sensor 10 reacts too sensitively, it is possible to output a musical sound with an appropriate volume at a frequency that is easily recognized by human hearing without thinning out the number of times the sensor reacts.

(他の実施形態)
本発明は、種々の変形実施が可能である。
上記実施形態では、室内の風の流れを対となるリード線2及び3の短絡の有無によって検知していたが、他の手法で風を検知してもよい。風の流れを検知する他の手法としては、光センサ、磁気センサ、超音波センサ、又は赤外線センサによって受風部4の位置の変位を検知する手法や、重荷センサによって受風部4の引っ張られる力を検知する手法などが想定できる。
また、上記実施形態では、風センサ10からの「ON」の短絡信号の供給の有無に応じて楽音のMIDIデータが生成されるようになっていた。これに対し、風センサ10が、受風部4の揺動する大きさを定量化して得た値の信号を供給し、楽音信号生成装置13は、受風部4の揺動する大きさに比例したベロシティ値を自らの生成するMIDIデータに内包させるようにしてもよい。
(Other embodiments)
The present invention can be modified in various ways.
In the above embodiment, the flow of the wind in the room is detected based on the presence or absence of a short circuit between the pair of lead wires 2 and 3, but the wind may be detected by other methods. As another method for detecting the flow of the wind, a method for detecting the displacement of the position of the wind receiving portion 4 by an optical sensor, a magnetic sensor, an ultrasonic sensor, or an infrared sensor, or the wind receiving portion 4 is pulled by a heavy load sensor. A method for detecting force can be assumed.
In the above embodiment, musical tone MIDI data is generated depending on whether or not the “ON” short-circuit signal is supplied from the wind sensor 10. On the other hand, the wind sensor 10 supplies a signal having a value obtained by quantifying the magnitude of the swing of the wind receiving section 4, and the musical sound signal generating device 13 has a magnitude of the swing of the wind receiving section 4. The proportional velocity value may be included in the MIDI data generated by itself.

上記実施形態は、室内の環境を決定付ける物理量のひとつである風の流れを楽曲として表現するものであったが、他の物理量の変化を楽曲として表現してもよい。例えば、室内に放出される光の変化を光センサによって検知したり、磁気の変化を磁気センサによって検知し、検知した内容を楽曲として表現してもよいし、室内に放射される超音波を超音波センサによって検知し、検知した内容を楽曲として表現してもよい。
更に、室内における物理量の変化を音楽として表現するだけでなく、2つの特定の物体の間の距離や、人や物の移動量の変化を楽曲として表現してもよい。物体の間の距離は、例えば、赤外線LED(light emitting diode)と赤外線センサを用いることで容易に検出できるし、また、人や物の移動量は重荷センサを用いることで容易に検出できる。
In the above embodiment, the flow of wind, which is one of the physical quantities that determine the indoor environment, is expressed as music, but changes in other physical quantities may be expressed as music. For example, a change in light emitted into the room may be detected by an optical sensor, a change in magnetism may be detected by a magnetic sensor, and the detected content may be expressed as music, or an ultrasonic wave emitted into the room It may be detected by a sound wave sensor, and the detected content may be expressed as music.
Furthermore, the change in the physical quantity in the room may be expressed not only as music, but also the distance between two specific objects and the change in the movement amount of a person or an object may be expressed as music. The distance between objects can be easily detected by using, for example, an infrared LED (light emitting diode) and an infrared sensor, and the amount of movement of a person or an object can be easily detected by using a heavy load sensor.

各風センサ10にLEDを搭載し、各センサが短絡信号を出力したときに各々のLEDが点灯するようにしてもよい。このような変形例によれば、どの風センサ10が反応して楽音が鳴っているのかを、システム利用者が容易に認識できるようになり、また、LEDの点灯の様子を視覚的に楽しむこともできる。   An LED may be mounted on each wind sensor 10 so that each LED is lit when each sensor outputs a short circuit signal. According to such a modified example, the system user can easily recognize which wind sensor 10 is responding and making a musical tone, and can visually enjoy the lighting state of the LEDs. You can also.

第3実施形態では、MIDIデータの生成回数が所定回数を超えると、次のタイミングで楽音信号生成装置13によって生成されるMIDIデータには、大幅に大きなベロシティ値が内包されるようになっていた。これに対し、MIDIデータの生成回数に応じて音量の大小を変動させるのではなく、各風センサ10が風を検知した回数をそれぞれカウントし、風センサ10が風を検知した回数が所定の回数を超えるたびに、そのセンサの識別情報を表す電気信号が電気信号生成装置12から出力されるようにしてもよい。かかる変形例によれば、検知回数が所定回数を越えなければMIDIデータの生成も行なわれないので、MIDIデータに内包させるベロシティ値を切り替える制御を行なわなくても、人間の聴覚に認識しやすい頻度で適度な音量の楽音を出力することができる。この変形例の構成及び動作を概念的に示すと、「検知対象の状態の変化をそれぞれ検知する複数のセンサと、前記各センサの識別情報と、各センサが状態の変化を検知した際に再生されるべき楽音の属性とを各々対応付けて記憶した記憶手段と、前記各センサが状態の変化を検知した回数をそれぞれカウントし、あるセンサが状態の変化を検知した回数が予め設定された所定の回数を超えると、そのセンサの識別情報を出力する出力手段と、前記出力手段から識別情報が出力されると、その識別情報と対応付けて前記記憶手段に記憶された属性を有する楽音の楽音信号を生成する生成手段とを備える楽音生成システム」となる。   In the third embodiment, when the number of generations of MIDI data exceeds a predetermined number, the MIDI data generated by the tone signal generation device 13 at the next timing includes a significantly large velocity value. . On the other hand, the volume level is not changed according to the number of generations of MIDI data, but the number of times each wind sensor 10 detects wind is counted, and the number of times the wind sensor 10 detects wind is a predetermined number of times. An electrical signal representing the identification information of the sensor may be output from the electrical signal generation device 12 every time. According to such a modification, MIDI data is not generated unless the number of detections exceeds a predetermined number. Therefore, the frequency at which it is easily recognized by human hearing without performing control for switching the velocity value included in the MIDI data. Can output a musical sound with an appropriate volume. The configuration and operation of this modified example are conceptually described as “a plurality of sensors each detecting a change in the state of a detection target, identification information of each sensor, and reproduction when each sensor detects a change in the state. Storage means for storing the musical sound attributes to be associated with each other, the number of times each of the sensors detects a change in state, and a predetermined number of times that a certain sensor detects the change in state When the number of times is exceeded, the output means for outputting the identification information of the sensor, and when the identification information is output from the output means, the musical tone having the attribute stored in the storage means in association with the identification information A musical tone generation system including a generation unit that generates a signal.

本実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of this embodiment. 風センサの構成を示す図である。It is a figure which shows the structure of a wind sensor. 楽音設定メモリのデータ構成図である。It is a data block diagram of a musical tone setting memory. 電気信号生成装置の構成を示す図である。It is a figure which shows the structure of an electric signal generator. 楽音信号生成装置の構成を示す図である。It is a figure which shows the structure of a musical tone signal production | generation apparatus. 楽音の属性の第1の割り当て例を示す図である。It is a figure which shows the 1st example of allocation of the attribute of a musical tone. 楽音の属性の第2の割り当て例を説明する図である。It is a figure explaining the 2nd example of allocation of the attribute of a musical tone. 楽音の属性の第3の割り当て例を説明する図である。It is a figure explaining the 3rd example of allocation of the attribute of a musical tone. 楽音の属性の第4の割り当て例を説明する図である。It is a figure explaining the example of the 4th allocation of the attribute of a musical tone. 楽音の属性の第5の割り当て例を説明する図である。It is a figure explaining the 5th example of allocation of the attribute of a musical tone. 楽音生成システムの構成を示すブロック図である。It is a block diagram which shows the structure of a musical sound generation system. 設定変更装置の設定の変更と時間軸との関係を表す図である。It is a figure showing the relationship between the setting change of a setting change apparatus, and a time axis. 楽音生成システムの構成を示すブロック図である。It is a block diagram which shows the structure of a musical sound generation system. カウンタテーブルのデータ構造図である。It is a data structure figure of a counter table. MIDIデータの生成回数と楽音信号生成装置の振る舞いとの関係を表す図である。It is a figure showing the relationship between the frequency | count of the production | generation of MIDI data, and the behavior of a musical tone signal production | generation apparatus. 従来技術の構成を示すブロック図である。It is a block diagram which shows the structure of a prior art.

符号の説明Explanation of symbols

1…風防、2,3…リード線、4…受風部、10…風センサ、11…楽音設定メモリ、12…電気信号生成装置、13…楽音信号生成装置、14…音源、15…アンプ、16…スピーカ、17…タイマ、18…設定変更装置、19…カウンタ DESCRIPTION OF SYMBOLS 1 ... Windshield, 2, 3 ... Lead wire, 4 ... Wind receiving part, 10 ... Wind sensor, 11 ... Musical sound setting memory, 12 ... Electric signal generator, 13 ... Musical signal generator, 14 ... Sound source, 15 ... Amplifier, 16 ... Speaker, 17 ... Timer, 18 ... Setting change device, 19 ... Counter

Claims (5)

検知対象の状態の変化をそれぞれ検知する複数のセンサと、
前記各センサの識別情報と、各センサが状態の変化を検知した際に再生されるべき楽音の属性とを各々対応付けて記憶した記憶手段と、
状態の変化を検知したセンサを特定し、特定したセンサの識別情報を出力する出力手段と、
前記出力手段から識別情報が出力されると、その識別情報と対応付けて前記記憶手段に記憶された属性を有する楽音の楽音信号を生成する生成手段と
を備えた楽音生成システム。
A plurality of sensors each detecting a change in the state of the detection target;
Storage means for storing the identification information of each sensor and the attribute of the musical sound to be reproduced when each sensor detects a change in state, in association with each other;
An output unit that identifies a sensor that has detected a change in state and outputs identification information of the identified sensor;
When the identification information is output from the output unit, the musical tone generation system includes: a generation unit that generates a musical tone signal of a musical tone having an attribute stored in the storage unit in association with the identification information.
請求項1に記載の楽音生成システムにおいて、
前記楽音の属性は、
楽音の音色、ピッチ、音量、又はこれらの組合せである
楽音生成システム。
In the musical sound generation system according to claim 1,
The musical sound attribute is:
A musical tone generation system that is the tone, pitch, volume, or combination of musical tones.
請求項1又は2に記載の楽音生成システムにおいて、
前記センサは、
光センサ、磁気センサ、超音波センサ、赤外線センサ、荷重センサ、又はこれらの組合せからなる
楽音生成システム。
In the musical tone generation system according to claim 1 or 2,
The sensor is
A musical tone generation system comprising an optical sensor, a magnetic sensor, an ultrasonic sensor, an infrared sensor, a load sensor, or a combination thereof.
請求項1乃至3のいずれかに記載の楽音生成システムにおいて、
予め設定された所定時間の経過の有無を判断し、前記所定時間が経過したと判断する毎に、前記記憶手段にて各識別情報と対応付けられた属性の内容を変更する変更手段
を更に備えた楽音生成システム。
In the musical sound generation system according to any one of claims 1 to 3,
A change unit for determining whether or not a predetermined time set in advance has elapsed, and for changing the content of the attribute associated with each identification information in the storage unit every time it is determined that the predetermined time has elapsed; Music generation system.
請求項1乃至4のいずれかに記載の楽音生成システムにおいて、
前記出力手段は、
各センサの識別情報と対応付けられた属性を有する楽音の楽音信号の出力回数に応じて、当該楽音信号が示す音量を制御する手段
を備えた楽音生成システム。
In the musical sound generation system according to any one of claims 1 to 4,
The output means includes
A musical tone generation system comprising means for controlling a volume indicated by a musical tone signal in accordance with the number of times the musical tone signal is output having an attribute associated with identification information of each sensor.
JP2004186859A 2004-06-24 2004-06-24 Music generation system Expired - Fee Related JP4403894B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004186859A JP4403894B2 (en) 2004-06-24 2004-06-24 Music generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004186859A JP4403894B2 (en) 2004-06-24 2004-06-24 Music generation system

Publications (2)

Publication Number Publication Date
JP2006010978A true JP2006010978A (en) 2006-01-12
JP4403894B2 JP4403894B2 (en) 2010-01-27

Family

ID=35778326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004186859A Expired - Fee Related JP4403894B2 (en) 2004-06-24 2004-06-24 Music generation system

Country Status (1)

Country Link
JP (1) JP4403894B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031361A (en) * 2007-07-24 2009-02-12 Asahi Kasei Electronics Co Ltd Electronic music instrument

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031361A (en) * 2007-07-24 2009-02-12 Asahi Kasei Electronics Co Ltd Electronic music instrument

Also Published As

Publication number Publication date
JP4403894B2 (en) 2010-01-27

Similar Documents

Publication Publication Date Title
JP4752425B2 (en) Ensemble system
JP4107107B2 (en) Keyboard instrument
CN102347020B (en) Tone generation control apparatus
US10403254B2 (en) Electronic musical instrument, and control method of electronic musical instrument
CN103380454A (en) System and method for electronic processing of cymbal vibration
US20200279544A1 (en) Techniques for controlling the expressive behavior of virtual instruments and related systems and methods
JP4496993B2 (en) Music control device
JP3858899B2 (en) Stringed electronic musical instrument
JP4403894B2 (en) Music generation system
JP2006251376A (en) Musical sound controller
JP3584825B2 (en) Music signal generator
KR102240872B1 (en) Method for composing music based on surrounding environment and apparatus therefor
CN211529386U (en) Musical instrument played according to prompt signal
CN110889994A (en) Musical instrument played according to prompt signal
JP2007248880A (en) Musical performance controller and program
KR101842282B1 (en) Guitar playing system, playing guitar and, method for displaying of guitar playing information
JPS62264098A (en) Electronic musical instrument
Săman et al. Music panel: An application for creating and editing music using OpenCV and JFUGUE
JP2018146716A (en) Training device, training program, and training method
Challis et al. Applications for proximity sensors in music and sound performance
JP3215058B2 (en) Musical instrument with performance support function
JP2004045902A (en) Electronic musical instrument
JPH0822282A (en) Automatic accompaniment device for guitar
Vogels Harmonica-inspired digital musical instrument design based on an existing gestural performance repertoire
JP3991892B2 (en) Electronic musical instruments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080826

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091013

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091026

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131113

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees