JP2010210757A - Musical sound generating apparatus and musical sound generating program - Google Patents
Musical sound generating apparatus and musical sound generating program Download PDFInfo
- Publication number
- JP2010210757A JP2010210757A JP2009054762A JP2009054762A JP2010210757A JP 2010210757 A JP2010210757 A JP 2010210757A JP 2009054762 A JP2009054762 A JP 2009054762A JP 2009054762 A JP2009054762 A JP 2009054762A JP 2010210757 A JP2010210757 A JP 2010210757A
- Authority
- JP
- Japan
- Prior art keywords
- waveform data
- musical
- musical sound
- string
- musical tone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
- G10H7/02—Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories
- G10H7/04—Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories in which amplitudes are read at varying rates, e.g. according to pitch
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H3/00—Instruments in which the tones are generated by electromechanical means
- G10H3/12—Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument
- G10H3/14—Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means
- G10H3/18—Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means using a string, e.g. electric guitar
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/441—Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
- G10H2220/455—Camera input, e.g. analyzing pictures from a video camera and using the analysis results as control data
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は、弦楽器の弦振動に基づいて楽音を発生する楽音発生装置および楽音発生プログラムに関する。 The present invention relates to a musical sound generating apparatus and a musical sound generating program for generating musical sounds based on string vibration of a stringed instrument.
ギターなどの弦楽器から出力された楽音信号に基づくデータから、そのピッチを抽出し、抽出されたピッチに基づいて出力用の波形データを生成して出力する技術が知られている。たとえば、特許文献1や特許文献2では、ギターの6つの弦から発せられた楽音波形データのそれぞれのピッチ(音高)およびエンベロープを抽出して、ROMなどから所定の音色の楽音波形データを、抽出されたピッチに基づいて読み出し、抽出されたエンベロープを与えて新たな楽音波形データを生成している。
A technique is known in which a pitch is extracted from data based on a musical tone signal output from a stringed instrument such as a guitar, and output waveform data is generated and output based on the extracted pitch. For example, in
特許文献1では、入力された波形データにフィルタ処理を施し、フィルタ処理が施された波形データのゼロクロス点を検出し、波形データが正の値をとる時間をカウンタにて計測するとともに、波形データが負の値をとる時間を他のカウンタにて計測し、双方のカウンタ値を参照して弦の基本波の振動を検知し、波形データのピッチを抽出している。
In
特に、弦楽器では、ピッキングされた各弦の振動を、たとえば、ピックアップが磁気の変動として検出し、電気信号に変換して出力している。したがって、従来のピッチ抽出においては、ピックアップにより得られた電気信号をディジタルデータに変換し、変換されたデータが用いられている。したがって、複数の弦がピッキングされ複数の弦が振動している場合には、他の弦の振動による磁気の変動の影響を排除で傷、ピックアップにより電気信号に変換する過程で、他の弦振動に基づく信号が混合されてしまうおそれがある。このようなクロストークによって、ピックアップからの電気信号に基づくピッチ抽出においては、正確なピッチが算出されない可能性があった。また、クロストークの影響により、ピックアップが検出した電気信号における波形データの周期が安定せず、ピッチ抽出に時間がかかる場合があるという問題点があった。また、ピックアップにより得られた電気信号の周期性に基づきピッチを抽出するため、周期が安定するまでピッチの抽出が出来ず、レスポンスが良くないという問題点もあった。 In particular, in a stringed instrument, the vibration of each picked string is detected as, for example, a magnetic fluctuation by a pickup, and converted into an electrical signal for output. Therefore, in the conventional pitch extraction, the electric signal obtained by the pickup is converted into digital data, and the converted data is used. Therefore, when multiple strings are picked and multiple strings vibrate, the effects of magnetic fluctuations due to vibrations of other strings are eliminated, and other string vibrations occur in the process of being converted to an electrical signal by the pickup. There is a risk of mixing signals based on. Due to such crosstalk, an accurate pitch may not be calculated in pitch extraction based on an electrical signal from the pickup. In addition, due to the influence of crosstalk, the period of the waveform data in the electrical signal detected by the pickup is not stable, and there is a problem that it may take time to extract the pitch. In addition, since the pitch is extracted based on the periodicity of the electric signal obtained by the pickup, the pitch cannot be extracted until the period is stabilized, and the response is not good.
さらに、特許文献3には、ピッチを直接抽出せず、弦楽器のネックの指板にフレットスイッチを設けて、オンされたフレットスイッチによって音高を決定し、かつ、弦の振動を各軸方向のセンサにより検知して、決定された音高で、かつ、センサにより検知された弦振動により音色特性を変化させた楽音を発生する電子弦楽器が提案されている。特許文献3に開示された電子弦楽器は、フレットスイッチにより音高を指定するためレスポンスには優れる。その一方、実際のギターの弦振動とは異なる弦振動となるため、弦楽器の弦振動の変化に直接対応する楽音を生成することは容易ではなかった。 Further, in Patent Document 3, the pitch is not directly extracted, a fret switch is provided on the fingerboard of the neck of the stringed instrument, the pitch is determined by the turned on fret switch, and the vibration of the string is measured in each axial direction. There has been proposed an electronic stringed musical instrument that generates a musical tone that is detected by a sensor and that has a tone pitch determined by the sensor and that has a timbre characteristic changed by string vibration detected by the sensor. The electronic stringed instrument disclosed in Patent Document 3 is excellent in response because the pitch is designated by a fret switch. On the other hand, since the string vibration is different from the actual string vibration of a guitar, it is not easy to generate a musical sound that directly corresponds to a change in string vibration of a stringed instrument.
本発明は、弦楽器の弦全体の振動に基づく楽音波形データを生成可能な楽音発生装置および楽音発生プログラムを提供することを目的とする。また、本発明は、レスポンスに優れた弦の振動に基づく楽音発生装置および楽音発生プログラムを提供することを目的とする。 An object of the present invention is to provide a musical sound generating apparatus and a musical sound generating program capable of generating musical sound waveform data based on the vibration of the entire string of a stringed instrument. Another object of the present invention is to provide a musical sound generating device and a musical sound generating program based on string vibration having excellent response.
本発明の目的は、弦楽器の弦の振動に基づく楽音を発生する楽音発生装置であって、
当該弦の張設方向に、前記弦の振動する部分にわたった画像撮影領域の画像データを取得する画像取得手段と、
前記画像取得手段により得られた画像データに基づいて、前記弦の張設方向と垂直方向の基準位置からの変位量をゲイン値として、前記弦の張設方向における複数のゲイン値を含む波形データを生成して記憶手段の波形データエリアに格納する波形データ生成手段と、
前記波形データエリアに格納された波形データを、所定の読み出し速度で読み出して第1の楽音波形データを生成する楽音波形データ生成手段と、を備えたことを特徴とする楽音発生装置により達成される。
An object of the present invention is a musical sound generator for generating a musical sound based on vibration of a string of a stringed instrument,
Image acquisition means for acquiring image data of an image capturing area over the vibrating portion of the string in the stringing direction;
Waveform data including a plurality of gain values in the string tension direction based on the image data obtained by the image acquisition means, with the amount of displacement from a reference position in a direction perpendicular to the string tension direction as a gain value Waveform data generating means for generating and storing in the waveform data area of the storage means;
It is achieved by a musical tone generator comprising: musical tone waveform data generating means for reading waveform data stored in the waveform data area at a predetermined reading speed and generating first musical tone waveform data. .
好ましい実施態様においては、前記楽音波形データ生成手段が、入力された基本周波数f(Hz)に基づいて、1/f(秒)で、前記波形データエリアに格納された波形データを読み取り終わる速度で、前記波形データエリアに格納された波形データを読み取るように構成される。 In a preferred embodiment, the musical tone waveform data generating means reads the waveform data stored in the waveform data area at 1 / f (seconds) based on the input fundamental frequency f (Hz). The waveform data stored in the waveform data area is read.
より好ましい実施態様においては、前記波形データ生成手段が、前記波形データのサンプル数Nを、N=fs/f(fs:サンプリング周波数)となるように、波形データを生成する。 In a more preferred embodiment, the waveform data generating means generates waveform data such that the number N of samples of the waveform data is N = fs / f (fs: sampling frequency).
別の好ましい実施態様においては、前記記憶装置が、所定の音色の波形データが格納された音色波形データエリアを有し、
楽音波形データ生成手段が、前記基本周波数に基づいて、前記音色波形データエリアの前記所定の音色の波形データを読み出し、第2の楽音波形データを生成し、前記第1の楽音波形データと前記第2の楽音波形データとを合成した合成楽音波形データを生成する。
In another preferred embodiment, the storage device has a timbre waveform data area in which waveform data of a predetermined timbre is stored,
A musical tone waveform data generation means reads waveform data of the predetermined tone color in the tone color waveform data area based on the fundamental frequency, generates second tone waveform data, and generates the first tone waveform data and the first tone waveform data. Synthetic musical sound waveform data obtained by combining the two musical sound waveform data is generated.
さらに別の好ましい実施態様においては、前記楽音波形データ生成手段が、ピックアップから出力された弦振動に基づく第2の楽音信号と、前記第1の楽音信号データに基づく第1の楽音信号とを合成して出力する。 In still another preferred embodiment, the musical sound waveform data generating means synthesizes the second musical sound signal based on the string vibration output from the pickup and the first musical sound signal based on the first musical sound signal data. And output.
好ましい実施態様においては、複数の波形データエリアを有し、
前記波形データ生成手段が、新たな画像データが取得されたときに、前記楽音波形データ生成手段により波形データが読み出されていない他の波形データエリアに、前記新たな画像データに基づく新たな波形データを格納し、
前記楽音波形データ生成手段は、前記波形データを読み出している一方の波形データエリアからの波形データの読み出しが終了する場合に、前記他の波形データエリアから前記新たな波形データの読み出しを開始する。
In a preferred embodiment, it has a plurality of waveform data areas,
When the waveform data generation means acquires new image data, a new waveform based on the new image data is displayed in another waveform data area where the waveform data is not read by the musical sound waveform data generation means. Store data,
The musical sound waveform data generation means starts reading the new waveform data from the other waveform data area when reading of the waveform data from one waveform data area from which the waveform data is being read is completed.
より好ましい実施態様においては、前記楽音波形データ生成手段は、前記一方の波形データエリアからの波形データの読み出しを終了する際に、前記波形データのレベルを徐々に減少させるとともに、前記他の波形データエリアから読み出された前記新たな波形データのレベルを徐々に増大させ、前記波形データおよび前記新たな波形データを合成して出力する。 In a more preferred embodiment, the musical tone waveform data generating means gradually decreases the level of the waveform data and terminates the reading of the waveform data from the one waveform data area and the other waveform data. The level of the new waveform data read from the area is gradually increased, and the waveform data and the new waveform data are synthesized and output.
また、本発明の目的は、弦楽器の弦の振動に基づく楽音を発生するための楽音発生プログラムであって、コンピュータに、
当該弦の張設方向に、前記弦の振動する部分にわたった画像撮影領域の画像データを取得する画像取得ステップと、
前記画像取得ステップにおいて得られた画像データに基づいて、前記弦の張設方向と垂直方向の基準位置からの変位量をゲイン値として、前記弦の張設方向における複数のゲイン値を含む波形データを生成して記憶手段の波形データエリアに格納する波形データ生成ステップと、
前記波形データエリアに格納された波形データを、所定の読み出し速度で読み出して第1の楽音波形データを生成する楽音波形データステップと、を実行させることを特徴とする楽音発生プログラムにより達成される。
Another object of the present invention is a musical sound generating program for generating a musical sound based on the vibration of a string of a stringed instrument.
An image acquisition step of acquiring image data of an image capturing region across the vibrating portion of the string in the stringing direction;
Waveform data including a plurality of gain values in the string stretching direction based on the image data obtained in the image acquisition step, with a displacement amount from a reference position in a direction perpendicular to the string stretching direction as a gain value Generating waveform data and storing it in the waveform data area of the storage means;
This is achieved by a musical tone generation program, wherein the waveform data stored in the waveform data area is read at a predetermined reading speed to generate a first musical tone waveform data step.
本発明によれば、弦楽器の弦全体の振動に基づく楽音波形データを生成可能な楽音発生装置および楽音発生プログラムを提供することが可能となる。また、本発明は、レスポンスに優れた弦の振動に基づく楽音発生装置および楽音発生プログラムを提供することが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the musical tone generator which can produce | generate the musical sound waveform data based on the vibration of the whole string of a stringed instrument, and a musical tone generation program. In addition, the present invention can provide a musical sound generating device and a musical sound generating program based on string vibration having excellent response.
以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本発明の第1の実施の形態にかかる楽音発生装置の構成を示すブロックダイヤグラムである。図1に示すように、本実施の形態にかかる楽音発生装置10は、CPU11、ROM12、RAM13、サウンドシステム14、表示部15、カメラ16、画像データ入力インタフェース(I/F)17および操作部18を備える。
Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a block diagram showing the configuration of a musical tone generator according to the first embodiment of the present invention. As shown in FIG. 1, a musical
CPU11は、楽音発生装置10全体の制御、操作部18を構成するスイッチ(図示せず)の操作の検出、カメラ16の起動、画像データ入力I/F17を介して入力された画像データのRAM13への格納、画像データに基づく波形データ生成など、波形データに基づく楽音波形データの生成など、種々の処理を実行する。
The CPU 11 controls the
ROM12は、操作部18を構成するスイッチの操作の検出、画像データ入力I/F17を介して入力された画像データのRAM13への格納、画像データに基づく波形データ生成、波形データに基づく楽音波形データの生成などの処理プログラムを格納する。また、ROM12は、ピアノ、ギターなどの楽音を生成するための原波形データ(以下、「プリセット波形データ」と称する。)を記憶するプリセット波形データエリアを備えている
RAM13は、ROM12から読み出されたプログラムや、処理の過程で生じたデータを記憶する。処理の過程で生じたデータには、後述する画像データ入力I/F17を介して得られた画像データ、画像データに基づいて生成される波形データなどが含まれる。
The
サウンドシステム14は、音源部21、オーディオ回路22およびスピーカ23を備える。音源部21は、CPU11からの指示にしたがって、ROM12からプリセット波形データを読み出して、楽音波形データを生成して出力する。オーディオ回路22は、楽音波形データをアナログ信号に変換し、変換されたアナログ信号を増幅してスピーカ23に出力する。これによりスピーカ23から音響信号が出力される。
The
画像データ入力I/F17は、カメラ16に接続され、カメラ16から出力される画像データを受け入れて、CPU11の指示にしたがって、画像データをRAM13の所定の画像データエリアに格納する。カメラ16は、ギター25の弦に面して配置され、各弦のほぼ全体の画像をそれぞれ得ることが可能となる。
The image data input I /
図2は、本実施の形態におけるギターの弦およびカメラの配置例を説明する図である。図2に示すように、カメラ16は、6つの画像撮影領域30−1〜30−6を有し、それぞれのセンサ領域30−1〜30−6が、ギターの第1弦26−1〜第6弦26−6を含む画像を取得することができる。カメラ16として、たとえば、CCDカメラ(Charge Coupled Device Image Sensor)を使用することができる。
FIG. 2 is a diagram for explaining an arrangement example of guitar strings and cameras in the present embodiment. As shown in FIG. 2, the
図2に示すように、各画像撮影領域30−1〜30−6は、ギター25のナット201からサドル202までの弦26−1〜26−6の画像を撮影可能である。なお、実際にはギター25のネックにはフレット(符号203〜205参照)が含まれるが、画像データ入力I/F17或いはCPU11は、各画像撮影領域30−1〜30−6におけるフレットの位置を予め取得しておくことで、フレットの撮影された画像の部分を除去して弦の画像のみを取り出すことができる。各弦の画像データにおいては、弦の位置がたとえば黒点として示される。
As shown in FIG. 2, each of the image capturing regions 30-1 to 30-6 can capture images of the strings 26-1 to 26-6 from the
また、各画像撮影領域30−1〜60−5は、各弦26−1〜26−6の張設方向において振動する弦の部分を撮影することができれば良い。したがって、指などで所定のフレット(図示せず)が押されている場合には、画像撮影領域は、指で押さえられたフレットからサドルに至るまでの弦の部分が含まれれば良い。したがって、CPU11は、画像データにおいて、指などで所定のフレットが押されたことが検出された場合には、押されたフレットからサドルまでを画像撮影領域と認識する処理を実行しても良い。 Further, each of the image capturing areas 30-1 to 60-5 is only required to capture a portion of the string that vibrates in the extending direction of each of the strings 26-1 to 26-6. Therefore, when a predetermined fret (not shown) is pressed with a finger or the like, the image capturing area only needs to include a string portion from the fret pressed with the finger to the saddle. Therefore, when it is detected in the image data that a predetermined fret is pressed with a finger or the like, the CPU 11 may execute a process of recognizing the pressed fret to the saddle as an image capturing area.
図3は、本実施の形態にかかる楽音発生装置にて実行される処理を示すフローチャートである。楽音発生装置10のCPU11は、たとえば、RAM13に一時的に記憶された画像データ、波形生成処理により得られ、RAM13中の複数の波形データエリアに格納された波形データなどのクリアを含むイニシャライズ処理を行う(ステップ301)。また、イニシャライズ処理においては、後述する波形データエリアを指定するためのパラメータjも「0」に初期化される。イニシャライズ処理(ステップ301)が終了すると、CPU11は、操作部18のスイッチの操作を検出し、検出された操作にしたがった処理を実行するスイッチ処理を実行する(ステップ302)。
FIG. 3 is a flowchart showing a process executed by the musical tone generator according to the present embodiment. The CPU 11 of the
スイッチ処理においては、たとえば、音色指定スイッチの操作にしたがって、ROM12のプリセット波形データエリアに格納されたプリセット波形データの種別(音色)を指定する情報がRAM13に格納される。また、ミックス比設定のスイッチにしたがって、プリセット波形データに基づく楽音波形データ(第2の楽音波形データ)と、画像データに基づいて波形データ生成処理において得られた波形データに基づいて生成される楽音波形データ(第1の楽音波形データ)とのミックス比を示す情報がRAM13に格納される。さらに、本実施の形態にかかるスイッチ処理においては、各弦について発生される楽音の周波数を規定する基本周波数が、演奏者による所定のスイッチの操作に基づいて指定され、当該指定された基本周波数がRAM13に格納される。
In the switch processing, for example, information for designating the type (tone color) of the preset waveform data stored in the preset waveform data area of the
スイッチ処理(ステップ302)の後、CPU11は、読み出し周波数設定処理を実行する(ステップ303)。なお、以下の読み出し周波数設定処理(ステップ303)、波形データ生成処理(ステップ304)、発音処理(ステップ305)および消音処理(ステップ306)において、単一の弦に関する処理について記載するが、実際には、ステップ303〜306の各処理においては、6つの弦のそれぞれについて同様な処理が繰り返される。
After the switch process (step 302), the CPU 11 executes a read frequency setting process (step 303). In the following read frequency setting processing (step 303), waveform data generation processing (step 304), sound generation processing (step 305), and mute processing (step 306), processing related to a single string will be described. In
図4は、本実施の形態にかかる読み出し周波数設定処理の例を示すフローチャートである。図4に示すようにCPU11は、スイッチ処理において、基本周波数が入力され、当該基本周波数を示す情報がRAM13に格納されているかを判断する(ステップ401)。基本周波数の入力があった場合には、CPU11は、RAM13に格納された基本周波数fを取得し(ステップ402)、波形データの読み出し時間F=1/fを算出する(ステップ403)。また、CPU11は、波形データ生成処理において生成すべき波形データのデータ数(サンプル数)Nを、N=fs/fに基づいて算出する(ステップ404)。なお、fsは、サンプリング周波数である。その後、CPU11は、RAM13中に、サンプル数分の波形データを格納できる波形データエリアを複数確保する(ステップ405)。本実施の形態においては、2つの波形データエリアが確保される。
FIG. 4 is a flowchart illustrating an example of the read frequency setting process according to the present embodiment. As shown in FIG. 4, in the switch process, the CPU 11 determines whether the fundamental frequency is input and information indicating the fundamental frequency is stored in the RAM 13 (step 401). When the fundamental frequency is input, the CPU 11 acquires the fundamental frequency f stored in the RAM 13 (step 402), and calculates the waveform data read time F = 1 / f (step 403). Further, the CPU 11 calculates the number of waveform data items (number of samples) N to be generated in the waveform data generation process based on N = fs / f (step 404). Note that fs is a sampling frequency. Thereafter, the CPU 11 secures a plurality of waveform data areas in the
たとえば、基本周波数が440Hzであれば、波形データの読み出し時間F=1/440秒となり、また、サンプリング周波数fs=44KHzであれば、サンプル数N=44000/440=100となる。 For example, if the fundamental frequency is 440 Hz, the waveform data read time F = 1/440 seconds, and if the sampling frequency fs = 44 KHz, the number of samples N = 44000/440 = 100.
読み出し周波数設定処理(ステップ303)が終了すると、CPU11は、波形データ生成処理を実行する(ステップ304)。図5は、本実施の形態にかかる波形データ生成処理の例を示すフローチャートである。図5に示すように、CPU11は、カメラ16に画像撮影を指示し、カメラ16は指示に応答して、各画像撮影領域を撮影する。CPU11は、画像データI/F17を介して、画像撮影領域の画像データを取得する(ステップ502)。
When the read frequency setting process (step 303) ends, the CPU 11 executes a waveform data generation process (step 304). FIG. 5 is a flowchart showing an example of waveform data generation processing according to the present embodiment. As shown in FIG. 5, the CPU 11 instructs the
CPU11は、得られた画像データを、弦の張設方向と平行なX軸上のある位置xiにおける変位量(ゲインG’(xi))の形式に変換する(ステップ503)。ステップ503においては、画像撮影領域中のY軸方向の所定の値を基準位置として、Y軸と直交するX軸上の各位置において、Y軸方向にどれだけ基準位置から離間した位置に弦に相当する黒点があるかを検出し、基準位置からの変位量(距離)を、当該X軸上の位置(G’(xi))とする。これにより、x軸方向の画素数nに応じた、n個の変位量(ゲイン)(G’(x0)〜G’(xn)を得ることができる。なお、Y軸方向は、弦の張設方向の垂直方向に平行である。
The CPU 11 converts the obtained image data into a format of a displacement amount (gain G ′ (xi)) at a position xi on the X axis parallel to the string extending direction (step 503). In
次いで、CPU11は、得られたn個の変位量を、サンプル数Nだけのポイント数となる画像データG(0)〜G(N−1)に変換する(ステップ504)。たとえば、サンプル数Nと、画像データから得られたデータ数nが、n=m×N(mは整数)であれば、
G’(i×m)=G(i)となるように、いわゆるデータの間引きをすれば良い。或いは、サンプル数Nと、データ数nとの間が、N=m×n(mは整数)であれば、
G(i×m)=G’(i)として、それ以外のG(i)については、直線補間により値を得れば良い。データ数の関係が、上述したように整数値mで表せない場合にも、直線補間などを利用することで、ゲインG(i)を求めることができる。
Next, the CPU 11 converts the obtained n displacement amounts into image data G (0) to G (N-1) having a number of points equal to the number of samples N (step 504). For example, if the number of samples N and the number of data n obtained from image data are n = m × N (m is an integer),
So-called data thinning may be performed so that G ′ (i × m) = G (i). Alternatively, if N = m × n (m is an integer) between the number of samples N and the number of data n,
As G (i × m) = G ′ (i), values of other G (i) may be obtained by linear interpolation. Even when the relationship of the number of data cannot be expressed by the integer value m as described above, the gain G (i) can be obtained by using linear interpolation or the like.
その後、CPU11は、波形データエリアを指定するためのパラメータjが偶数であるかを判断する(ステップ505)。ステップ505でYesと判断された場合には、得られたゲインG(i)(i=0〜N−1)を、波形データエリア0に格納する(ステップ506)。その一方、ステップ506でNo、すなわち、パラメータjが奇数である場合には、ゲインG(i)(i=0〜N−1)を、波形データエリア1に格納する(ステップ507)。その後、CPU11は、パラメータjをインクリメントして(ステップ508)、処理を終了する。
Thereafter, the CPU 11 determines whether or not the parameter j for designating the waveform data area is an even number (step 505). If it is determined Yes in
図6は、波形データエリアに格納された波形データG(i)の例を示す図である。図6に示すように、波形データ600は、Y軸上の基準位置601からの変位(たとえば、G(0)(符号611)、G(1)(符号612))であり、N個のデータ(G(0)〜G(N−1))から構成される。
FIG. 6 is a diagram illustrating an example of the waveform data G (i) stored in the waveform data area. As shown in FIG. 6, the
波形データ生成処理(ステップ304)が終了すると、CPU11は発音処理を実行する(ステップ305)。図7は、本発明の実施の形態にかかる発音処理の例を示すフローチャートである。図7に示すように、CPU11は、弦の振動レベルが所定値以上であるかを判断する(ステップ701)。ステップ701においては、波形データエリアに格納された波形データの変位の最大値Gmaxが所定値以上であるかを判断すれば良い。或いは、ギター25のピックアップ(図示せず)から出力される弦の信号(原信号)が所定のレベル以上であるか否かを判断しても良い。
When the waveform data generation process (step 304) ends, the CPU 11 executes a sound generation process (step 305). FIG. 7 is a flowchart showing an example of sound generation processing according to the embodiment of the present invention. As shown in FIG. 7, the CPU 11 determines whether the vibration level of the string is equal to or higher than a predetermined value (step 701). In
ステップ701でYesと判断された場合には、CPU11は、基本周波数fにしたがって、所定の音色のプリセット波形データを、基本周波数fにしたがって読み出すように指示を与える。音源部21は、指示にしたがって、所定のプリセット波形データを、基本周波数fに基づく読み出し速度で読み出す(ステップ702)。これにより、プリセット波形データに基づく,基準周波数fにしたがった音高を有する第2の楽音波形データを得ることができる。
When it is determined Yes in
次いでCPU11は、現在読み出し中の波形データエリアではない他の波形データエリアに新たな波形データが格納されたか否かを判断する(ステップ703)。他の波形データエリアに新たな波形データエリアが格納された場合には、波形の切り替えが行われる可能性があるため、ステップ703の判断が行なわれる。ステップ703でNoと判断された場合には、CPU11は、読み出し時間Fにしたがって、現在読み出し中の波形データエリアから波形データを読み出す(ステップ704)。波形データエリアからの波形データG(i)が取得される。なお、新たな波形データが他の波形データエリアに格納されない限り、読み出し中の一方の波形データエリアからの波形データが繰り返し読み出される。ステップ703において、現在読み出し中の波形データエリアが、波形データエリア0であれば、他の波形データエリアは波形データエリア1となる。その逆に、現在読み出し中の波形データエリアが波形データエリア1であれば、他の波形データエリアは波形データエリア0である。以下に説明するクロスフェード処理においても同様である。
Next, the CPU 11 determines whether or not new waveform data has been stored in another waveform data area that is not the currently read waveform data area (step 703). When a new waveform data area is stored in another waveform data area, there is a possibility that the waveform is switched, so the determination in
ステップ703でYesと判断された場合には、読み出すべき波形のX座標の値がクロスフェード期間内であるか否かを判断する(ステップ705)。ステップ705でNoと判断された場合には、ステップ704に進む。その一方、ステップ705でYesと判断された場合には、クロスフェード処理を実行する(ステップ701)。
If it is determined Yes in
図8は、本実施の形態にかかるクロスフェード処理の例を示すフローチャートである。CPU11は、クロスフェード期間X、クロスフェード開始位置N−X−1、クロスフェード終了位置N−1を取得し、現在読み出し中の波形データエリアから波形データGp(ip)を読み出し、クロスフェード係数を乗じて以下の波形データg1(i)を算出する(ステップ802)。 FIG. 8 is a flowchart showing an example of the crossfade process according to the present embodiment. CPU11 is a cross-fade period X, crossfade start position N-X-1, and acquires the cross-fade end position N-1, read the waveform data area from the waveform data G p currently read (i p), crossfade The following waveform data g 1 (i) is calculated by multiplying by the coefficient (step 802).
g1(i)=((N−1)−ip)/X)・Gp(ip)
図9は、本実施の形態にかかるクロスフェードを説明するための図である。図9に示すように、本実施の形態においては、現在読み出し中の波形データエリアにおける第(N−X−1)番の波形データの出力からクロスフェードが開始され、第(N−1)番、つまり、末尾の波形データの出力でクロスフェードが終了する。したがって現在読み出し中の波形データエリアからの波形データGp(i)について、N−X−1≦i≦N−1であれば、上記ステップ705においてYesと判断される。
g 1 (i) = ((N−1) −i p ) / X) · G p (i p )
FIG. 9 is a diagram for explaining the cross fade according to the present embodiment. As shown in FIG. 9, in the present embodiment, the crossfade is started from the output of the (N−X−1) th waveform data in the currently read waveform data area, and the (N−1) th number. In other words, the crossfade ends with the output of the last waveform data. Therefore, if the waveform data G p (i) from the currently read waveform data area is N−X−1 ≦ i ≦ N−1, it is determined Yes in
また、図9に示すように、ステップ802で算出された波形データg1(i)は、符号900に示すように、波形データを指定するパラメータipが、(N−X−1)以下である場合は、元の値であり(符号901)、パラメータipが(N−X−1)から(N−1)に至るまで、値が減少し、パラメータipがNであるときに「0」となる。
Further, as shown in FIG. 9, the
次いで、CPU11は、新たに波形データが格納された他の波形データエリアから波形データGq(iq)(iq=ip−(N−X−1))を読み出し、クロスフェード係数を乗じて、以下の波形データg2(i)を算出する(ステップ803)。 Then, CPU 11 is newly waveform data from other waveform data area waveform data is stored G q (i q) (i q = i p - (N-X-1)) read out, multiplied by the cross-fade factor Then, the following waveform data g 2 (i) is calculated (step 803).
g2(i)=(iq/X)・Gq(iq)
図9に示すように、ステップ803で算出された波形データg2(i)は、符号910に示すように、波形データを指定するパラメータiqが、(N−X−1)以下である場合は、「0」であり、パラメータiqが(N−X−1)から(N−1)に至るまで、値が増大し、パラメータiqがN以上で元の値となる(符号911参照)。
g 2 (i) = (i q / X) · G q (i q )
As shown in FIG. 9, the waveform data g 2 (i) calculated in
CPU11は、得られた2つの波形データg1(i)とg2(i)とを合成して、合成された楽音波形データG(i)(第1の楽音波形データ)を得る(ステップ804)。合成された楽音波形データG(i)は音源部21に与えられる。
The CPU 11 synthesizes the obtained two waveform data g 1 (i) and g 2 (i) to obtain synthesized musical sound waveform data G (i) (first musical sound waveform data) (step 804). ). The synthesized musical sound waveform data G (i) is given to the
ステップ706のクロスフェード処理が終了し、或いは、ステップ704が終了すると、音源部21は、波形データエリアから取得された波形データG(i)と、プリセット波形データから取得された波形データGPRE(i)とを、RAM13に格納されたミックス比にしたがって加算して、合成楽音波形データGOUT(i)を算出する(ステップ707)。合成楽音波形データGOUT(i)は以下のようなものとなる。
When the cross-fade process in
GOUT(i)=A・G(i)+(1−A)・GPRE(i)
(A(0<A<1)はミックス比)
オーディオ回路22は、合成楽音波形データをアナログ信号に変換し、変換により得られたアナログ信号を増幅してスピーカ23から出力する。
G OUT (i) = A · G (i) + (1−A) · G PRE (i)
(A (0 <A <1) is the mix ratio)
The
発音処理(ステップ305)の後、CPU11は、消音処理を実行する(ステップ306)。図10は、本実施の形態にかかる消音処理の例を示すフローチャートである。図8に示すように、CPU11は、弦の振動レベルが所定値未満であるか否かを判断する(ステップ1001)。ステップ1001においては、波形データエリアに格納された波形データの変位の最大値Gmaxが所定値未満であるかを判断すれば良い。或いは、ギター25のピックアップ(図示せず)から出力される弦の信号(原信号)が所定のレベル未満であるか否かを判断しても良い。
After the sound generation process (step 305), the CPU 11 executes a mute process (step 306). FIG. 10 is a flowchart showing an example of the mute process according to the present embodiment. As shown in FIG. 8, the CPU 11 determines whether or not the vibration level of the string is less than a predetermined value (step 1001). In
ステップ1001でYesと判断された場合には、プリセット波形データに基づく楽音波形データ(第2の楽音波形データ)および画像データに基づく楽音波形データ(第1の楽音波形データ)が出力中であるか否かを判断する(ステップ1002)。ステップ1002でYesと判断された場合には、CPU11は、音源部21に対して、プリセット波形データに基づく楽音波形データ(第2の楽音波形データ)の消音を指示する。音源部21は、指示に応答して、その出力レベルを徐々に減衰させるような第2の楽音波形データを生成する(ステップ1003)。また、CPU11は、画像データに基づく楽音波形データ(第1の楽音波形データ)の出力レベルを徐々に減衰させる係数を第1の楽音波形データに乗じて、乗算結果のデータを、第1の楽音波形データとして音源部21に与える(ステップ1004)。
If YES in
ステップ1001でNo、ステップ1002でNo、或いは、ステップ1004が終了すると、消音処理は終了する。消音処理が終了した後、CPU11は、他の必要な処理を実行する(ステップ307)。ステップ307における処理には、たとえば、表示部15への画像表示や、LEDの点灯などが含まれる。
When
本実施の形態によれば、カメラが、ギター25の弦の張設方向に、弦の振動する部分にわたった画像撮影領域を撮影する。CPU11は、画像撮影領域の画像データに基づいて、弦の張設方向(X軸方向)の基準位置からの変位量、つまり、Y軸方向の変位量をゲイン値として、弦の張設方向における複数のゲイン値を含む波形データを生成してRAM13の波形データエリアに格納する。CPU11は、所定音読み出し速度で波形データエリアの波形データを読み出して、サウンドシステム14に与え、サウンドシステム14においてアナログ信号に変換されて出力される。これにより、画像撮影領域における弦全体の振動に基づく楽音波形データを生成し出力することが可能となる。また、画像撮影領域における弦全体の画像データを用いて波形データを生成するため良好なレスポンスで楽音波形データを出力することが可能となる。
According to the present embodiment, the camera shoots an image shooting region over the portion where the string vibrates in the stringing direction of the
本実施の形態によれば、操作部18を構成するスイッチの操作により入力された基本周波数f(Hz)に基づいて、波形データエリアの波形データが読み出される。これにより、演奏者のスイッチ操作による所望の音高の楽音を出力することができる。
According to the present embodiment, the waveform data in the waveform data area is read based on the fundamental frequency f (Hz) input by operating the switches that constitute the
また、本実施の形態によれば、CPU11は、波形データのサンプル数Nを、N=fs/f(fs:サンプリング周波数)となるように、波形データを生成する。これにより、サンプリング周波数で波形データを読み出すことで、設定された時間1/fで波形データエリアの波形データを読み取り終わることができる。
Further, according to the present embodiment, the CPU 11 generates waveform data such that the number N of waveform data samples is N = fs / f (fs: sampling frequency). Thus, by reading the waveform data at the sampling frequency, it is possible to finish reading the waveform data in the waveform data area at the
また、本実施の形態によれば、ROM12には、所定の音色の波形データが格納されたプリセット波形データエリアが設けられ、音源部21が、基本周波数fに基づいて、プリセット波形データを読み出して第2の楽音波形データを生成し、波形データエリアから読み出された第1の楽音波形データと合成して出力する。これにより、弦楽器の弦振動自体から得られた楽音と、音源部21で生成された楽音(いわゆるシンセ音)とをミックスした楽音を得ることが可能となる。
Further, according to the present embodiment, the
さらに、本実施の形態においては、新たな画像データが取得されたときに、CPU11は、波形データが読み出されていない他の波形データエリアに、新たな画像データに基づく新たな波形データを格納する。CPU11は、波形データを読み出している一方の波形データエリアからの波形データの読み出しが終了する場合に、他の波形データエリアから新たな波形データの読み出しを開始する。これにより、新たな画像データが取得されるたびに、当該新たな画像データに基づく新たな波形データを生成し、当該波形データに基づく楽音波形データを生成することが可能となる。 Furthermore, in this embodiment, when new image data is acquired, the CPU 11 stores new waveform data based on the new image data in another waveform data area from which waveform data has not been read. To do. When reading of waveform data from one waveform data area from which waveform data is being read is completed, the CPU 11 starts reading new waveform data from the other waveform data area. Thus, every time new image data is acquired, new waveform data based on the new image data can be generated, and musical sound waveform data based on the waveform data can be generated.
また、本実施の形態においては、CPU11は、一方の波形データエリアからの波形データの読み出しを終了する際に、波形データのレベルを徐々に減少させるとともに、他の波形データエリアから読み出された新たな波形データのレベルを徐々に増大させ、これら波形データを合成して出力する。このように、クロスフェード処理を行うことにより、波形データを滑らかに切り替えることが可能となる。 In the present embodiment, when the CPU 11 finishes reading the waveform data from one waveform data area, the CPU 11 gradually decreases the level of the waveform data and reads the waveform data from the other waveform data area. The level of new waveform data is gradually increased, and these waveform data are synthesized and output. In this way, the waveform data can be switched smoothly by performing the crossfade process.
次に、本発明の第2の実施の形態について説明する。第1の実施の形態においては、画像データに基づいて生成された楽音波形データ(第1の楽音波形データ)は、音源部21が生成した、ROM12に記憶されていたプリセット波形データに基づく楽音波形データ(第2の楽音波形データ)と合成されて出力される。第2の実施の形態においては、音源部21を設けず、ギター25のピックアップから出力された弦振動に基づく電気信号から得られた楽音信号と、第1の楽音波形データとを合成して出力する。
Next, a second embodiment of the present invention will be described. In the first embodiment, the musical sound waveform data (first musical sound waveform data) generated based on the image data is a musical sound waveform based on the preset waveform data generated by the
図11は、本発明の第2の実施の形態にかかる楽音発生装置の構成を示すブロックダイヤグラムである。図11において、図1に示す楽音発生装置の構成部分と同様のものには同一の符号を付している。図11に示すように、第2の実施の形態にかかる楽音発生装置100は、CPU11、ROM12、RAM13、サウンドシステム114、表示部15、カメラ16、画像データ入力I/F17および操作部18を備える。
FIG. 11 is a block diagram showing the configuration of the musical tone generator according to the second embodiment of the present invention. In FIG. 11, the same components as those in the musical tone generator shown in FIG. As shown in FIG. 11, the musical
本実施の形態においては、サウンドシステム114は、オーディオ・ミキシング回路114をする。また、ギター25のピックアップ121の出力は、サウンドシステム114のオーディオ・ミキシング回路114に入力される。本実施の形態においては、後述するように、オーディオ・ミキシング回路14が、画像データに基づく楽音波形データ(第1の楽音波形データ)をアナログ変換した楽音信号と、ピックアップ121から出力された楽音信号とを、設定されたミックス比で合成する。
In the present embodiment, the
第2の実施の形態にかかる楽音発生装置100における処理の概要も、図3に示すものとなる。スイッチ処理(ステップ302)、読み出し周波数設定処理(ステップ303)、波形データ生成処理(ステップ304)は、第2の実施の形態においても同様である。
An outline of processing in the musical
図12は、第2の実施の形態にかかる発音処理の例を示すフローチャートである。第2の実施の形態においては、第1の実施の形態の発音処理におけるステップ702、つまり、ROM12に格納されたプリセット波形データに基づく第2の楽音波形データの生成が行なわれない。図12に示すように、第2の実施の形態にかかる発音処理においては、弦の振動レベルが所定値以上である場合に(ステップ1201でYes)、現在読み出し中の波形データエリアではない他の波形データエリアに新たな波形データが格納されず(ステップ1202でNo)、或いは、クロスフェード期間内でなければ(ステップ1204でNo)、CPU11は、読み出し時間Fにしたがって、現在読み出し中の波形データエリアから波形データを読み出す(ステップ1203)。これらステップ1201、1202、1203、1204は、それぞれ、図7のステップ701、703、704、705と同様である。
FIG. 12 is a flowchart illustrating an example of a sound generation process according to the second embodiment. In the second embodiment,
ステップ1201およびステップ1204の双方でYesと判断された場合にはクロスフェード処理が実行される(ステップ1205)。クロスフェード処理も図8に示すものと同様である。ステップ1203において生成された波形データ或いはクロスフェード処理において生成された波形データは、オーディオ・ミキシング回路122に出力される。ステップ1205のクロスフェード処理が終了し、或いは、ステップ1203が終了すると、オーディオ・ミキシング回路122は、波形データG(i)をアナログ信号に変換し、変換により得られた楽音波形信号と、ピックアップ122から出力された弦振動に基づく楽音波形信号とを、RAM13に格納されたミックス比にしたがって加算して、合成楽音信号を生成する。生成された合成楽音信号は、スピーカ23から出力される。
If it is determined to be Yes in both
第2の実施の形態によれば、ギター25のピックアップ121から出力された弦振動に基づく楽音信号と、第1の楽音信号データに基づく第1の楽音信号とを合成して出力する。したがって、弦振動の画像データに基づく楽音と、弦振動に基づく電気信号に基づく楽音とを合成することが可能となる。
According to the second embodiment, the musical tone signal based on the string vibration output from the
本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。 The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.
たとえば、前記実施の形態においては、弦楽器としてギターを利用しているがギターに限定されるものではなく、他の弦楽器、たとえば、ベース、バイオリン、ヴィオラ、チェロなどにも本発明を適用することができる。 For example, in the above embodiment, a guitar is used as a stringed instrument, but the present invention is not limited to the guitar, and the present invention can be applied to other stringed instruments such as a bass, a violin, a viola, and a cello. it can.
また、前記第1の実施の形態においては、楽音発生装置10は、音源部21を備え、ROM12に記憶された波形データを読み出して楽音波形データ(第2の楽音波形データ)を生成し、画像データに基づく楽音波形データ(第1の楽音波形データ)と合成された合成楽音波形データを出力している。また、第2の実施の形態においては、楽音発生装置100は、ピックアップ121からの電気信号に基づく第2の楽音信号と、第1の楽音波形データをアナログ変換した楽音信号とを合成して出力している。しかしながら、上記構成に限定されるものではない。たとえば、楽音発生装置10は、単に画像データに基づく楽音波形データ(第1の楽音波形データ)を生成して出力するような構成であっても良い。
In the first embodiment, the
10 楽音発生装置
11 CPU
12 ROM
13 RAM
14 サウンドシステム
15 表示部
16 カメラ
17 画像データ入力I/F
18 操作部
21 音源部
22 オーディオ回路
23 スピーカ
25 ギター
10 Musical sound generator 11 CPU
12 ROM
13 RAM
14
18
Claims (8)
当該弦の張設方向に、前記弦の振動する部分にわたった画像撮影領域の画像データを取得する画像取得手段と、
前記画像取得手段により得られた画像データに基づいて、前記弦の張設方向と垂直方向の基準位置からの変位量をゲイン値として、前記弦の張設方向における複数のゲイン値を含む波形データを生成して記憶手段の波形データエリアに格納する波形データ生成手段と、
前記波形データエリアに格納された波形データを、所定の読み出し速度で読み出して第1の楽音波形データを生成する楽音波形データ生成手段と、を備えたことを特徴とする楽音発生装置。 A musical sound generator for generating musical sounds based on string vibration of a stringed instrument,
Image acquisition means for acquiring image data of an image capturing area over the vibrating portion of the string in the stringing direction;
Waveform data including a plurality of gain values in the string tension direction based on the image data obtained by the image acquisition means, with the amount of displacement from a reference position in a direction perpendicular to the string tension direction as a gain value Waveform data generating means for generating and storing in the waveform data area of the storage means;
A musical tone generator comprising: musical tone waveform data generation means for reading waveform data stored in the waveform data area at a predetermined reading speed and generating first musical tone waveform data.
楽音波形データ生成手段が、前記基本周波数に基づいて、前記音色波形データエリアの前記所定の音色の波形データを読み出し、第2の楽音波形データを生成し、前記第1の楽音波形データと前記第2の楽音波形データとを合成した合成楽音波形データを生成することを特徴とする請求項2または3に記載の楽音発生装置。 The storage device has a timbre waveform data area in which waveform data of a predetermined timbre is stored;
A musical tone waveform data generation means reads waveform data of the predetermined tone color in the tone color waveform data area based on the fundamental frequency, generates second tone waveform data, and generates the first tone waveform data and the first tone waveform data. 4. A musical tone generator according to claim 2, wherein synthetic musical tone waveform data obtained by synthesizing the two musical tone waveform data is generated.
前記波形データ生成手段が、新たな画像データが取得されたときに、前記楽音波形データ生成手段により波形データが読み出されていない他の波形データエリアに、前記新たな画像データに基づく新たな波形データを格納し、
前記楽音波形データ生成手段は、前記波形データを読み出している一方の波形データエリアからの波形データの読み出しが終了する場合に、前記他の波形データエリアから前記新たな波形データの読み出しを開始することを特徴とする請求項1ないし5の何れか一項に記載の楽音発生装置。 It has multiple waveform data areas,
When the waveform data generation means acquires new image data, a new waveform based on the new image data is displayed in another waveform data area where the waveform data is not read by the musical sound waveform data generation means. Store data,
The musical tone waveform data generation means starts reading the new waveform data from the other waveform data area when reading of the waveform data from one waveform data area from which the waveform data is being read is completed. The musical tone generator according to any one of claims 1 to 5, wherein
当該弦の張設方向に、前記弦の振動する部分にわたった画像撮影領域の画像データを取得する画像取得ステップと、
前記画像取得ステップにおいて得られた画像データに基づいて、前記弦の張設方向と垂直方向の基準位置からの変位量をゲイン値として、前記弦の張設方向における複数のゲイン値を含む波形データを生成して記憶手段の波形データエリアに格納する波形データ生成ステップと、
前記波形データエリアに格納された波形データを、所定の読み出し速度で読み出して第1の楽音波形データを生成する楽音波形データステップと、を実行させることを特徴とする楽音発生プログラム。 A musical sound generation program for generating musical sounds based on string vibration of a stringed instrument,
An image acquisition step of acquiring image data of an image capturing region across the vibrating portion of the string in the stringing direction;
Waveform data including a plurality of gain values in the string stretching direction based on the image data obtained in the image acquisition step, with a displacement amount from a reference position in a direction perpendicular to the string stretching direction as a gain value Generating waveform data and storing it in the waveform data area of the storage means;
A musical tone generating program, comprising: executing a musical tone waveform data step of reading waveform data stored in the waveform data area at a predetermined reading speed to generate first musical tone waveform data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009054762A JP5699418B2 (en) | 2009-03-09 | 2009-03-09 | Musical sound generating device and musical sound generating program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009054762A JP5699418B2 (en) | 2009-03-09 | 2009-03-09 | Musical sound generating device and musical sound generating program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010210757A true JP2010210757A (en) | 2010-09-24 |
JP5699418B2 JP5699418B2 (en) | 2015-04-08 |
Family
ID=42971014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009054762A Active JP5699418B2 (en) | 2009-03-09 | 2009-03-09 | Musical sound generating device and musical sound generating program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5699418B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3220385A1 (en) * | 2016-03-15 | 2017-09-20 | Advanced Digital Broadcast S.A. | System and method for stringed instruments' pickup |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5888698U (en) * | 1981-12-11 | 1983-06-16 | シャープ株式会社 | electronic musical instruments |
JPS63137295A (en) * | 1987-09-24 | 1988-06-09 | カシオ計算機株式会社 | Electronic stringed instrument |
JPS6451994U (en) * | 1987-09-25 | 1989-03-30 | ||
JPH0339997A (en) * | 1990-06-20 | 1991-02-20 | Casio Comput Co Ltd | Musical sound waveform input device |
JPH04284496A (en) * | 1991-03-13 | 1992-10-09 | Yamaha Corp | Musical sound generation device |
JPH08254983A (en) * | 1996-02-07 | 1996-10-01 | Yamaha Corp | Musical sound generating device |
JP2000075862A (en) * | 1998-08-27 | 2000-03-14 | Roland Corp | Device for compressing/extending time base of waveform signal |
JP2000122666A (en) * | 1997-09-30 | 2000-04-28 | Yamaha Corp | Waveform generating device and method |
JP2000172254A (en) * | 1989-12-28 | 2000-06-23 | Casio Comput Co Ltd | Musical tone characteristic controller and its method |
JP2002169557A (en) * | 2000-11-29 | 2002-06-14 | Matsushita Electric Ind Co Ltd | Waveform generating device |
JP2010191153A (en) * | 2009-02-18 | 2010-09-02 | Casio Computer Co Ltd | Pitch extraction device and musical sound generation device |
-
2009
- 2009-03-09 JP JP2009054762A patent/JP5699418B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5888698U (en) * | 1981-12-11 | 1983-06-16 | シャープ株式会社 | electronic musical instruments |
JPS63137295A (en) * | 1987-09-24 | 1988-06-09 | カシオ計算機株式会社 | Electronic stringed instrument |
JPS6451994U (en) * | 1987-09-25 | 1989-03-30 | ||
JP2000172254A (en) * | 1989-12-28 | 2000-06-23 | Casio Comput Co Ltd | Musical tone characteristic controller and its method |
JPH0339997A (en) * | 1990-06-20 | 1991-02-20 | Casio Comput Co Ltd | Musical sound waveform input device |
JPH04284496A (en) * | 1991-03-13 | 1992-10-09 | Yamaha Corp | Musical sound generation device |
JPH08254983A (en) * | 1996-02-07 | 1996-10-01 | Yamaha Corp | Musical sound generating device |
JP2000122666A (en) * | 1997-09-30 | 2000-04-28 | Yamaha Corp | Waveform generating device and method |
JP2000075862A (en) * | 1998-08-27 | 2000-03-14 | Roland Corp | Device for compressing/extending time base of waveform signal |
JP2002169557A (en) * | 2000-11-29 | 2002-06-14 | Matsushita Electric Ind Co Ltd | Waveform generating device |
JP2010191153A (en) * | 2009-02-18 | 2010-09-02 | Casio Computer Co Ltd | Pitch extraction device and musical sound generation device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3220385A1 (en) * | 2016-03-15 | 2017-09-20 | Advanced Digital Broadcast S.A. | System and method for stringed instruments' pickup |
Also Published As
Publication number | Publication date |
---|---|
JP5699418B2 (en) | 2015-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20140202316A1 (en) | Synthesizer with bi-directional transmission | |
WO2015105092A1 (en) | Speech recognition method | |
JP2018146876A (en) | Electronic musical instrument, sound production control method, and program | |
JP2009265470A (en) | Resonance tone generator and electronic musical instrument | |
EP3373289B1 (en) | Electronic musical instrument, musical sound generating method, and storage medium | |
JP5699418B2 (en) | Musical sound generating device and musical sound generating program | |
JP2010191153A (en) | Pitch extraction device and musical sound generation device | |
WO2018055892A1 (en) | Sound source for electronic percussion instrument | |
EP3757984B1 (en) | Electronic musical instrument, method and program | |
KR20070094207A (en) | Method and apparatus for converting image into sound | |
JP4765705B2 (en) | Music control device | |
JP2013003205A (en) | Musical score display device, musical score display program and musical score | |
JP6756472B2 (en) | Sound processing equipment | |
EP3220385B1 (en) | System and method for stringed instruments' pickup | |
JP2006113487A (en) | Method and device for producing musical sound data | |
JP6728572B2 (en) | Plucked instrument performance evaluation device, music performance device, and plucked instrument performance evaluation program | |
JP4238807B2 (en) | Sound source waveform data determination device | |
JP5589767B2 (en) | Audio processing device | |
KR20190080086A (en) | The apparatus which manages a composition service process based on the graphic contents | |
JP5151603B2 (en) | Electronic musical instruments | |
JP5470893B2 (en) | Sound effect generator | |
JP2010117536A (en) | Resonance add-on device and electronic musical instrument | |
KR100697524B1 (en) | Portable device which include image read means and MIDI file synthesis method | |
JP2020008755A (en) | Music-linked image display system | |
JP5151523B2 (en) | Electronic musical instruments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131001 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140513 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140709 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5699418 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |