JP2010210757A - Musical sound generating apparatus and musical sound generating program - Google Patents

Musical sound generating apparatus and musical sound generating program Download PDF

Info

Publication number
JP2010210757A
JP2010210757A JP2009054762A JP2009054762A JP2010210757A JP 2010210757 A JP2010210757 A JP 2010210757A JP 2009054762 A JP2009054762 A JP 2009054762A JP 2009054762 A JP2009054762 A JP 2009054762A JP 2010210757 A JP2010210757 A JP 2010210757A
Authority
JP
Japan
Prior art keywords
waveform data
musical
musical sound
string
musical tone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009054762A
Other languages
Japanese (ja)
Other versions
JP5699418B2 (en
Inventor
Tatsuya Dejima
達也 出嶌
Hirotake Sato
博毅 佐藤
Norio Iizuka
宣男 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009054762A priority Critical patent/JP5699418B2/en
Publication of JP2010210757A publication Critical patent/JP2010210757A/en
Application granted granted Critical
Publication of JP5699418B2 publication Critical patent/JP5699418B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/02Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories
    • G10H7/04Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories in which amplitudes are read at varying rates, e.g. according to pitch
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H3/00Instruments in which the tones are generated by electromechanical means
    • G10H3/12Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument
    • G10H3/14Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means
    • G10H3/18Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means using a string, e.g. electric guitar
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/441Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
    • G10H2220/455Camera input, e.g. analyzing pictures from a video camera and using the analysis results as control data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate a musical sound waveform data based on vibration of a whole string of a stringed instrument, and based on vibration of the string which is excellent in response. <P>SOLUTION: A CPU 11 obtains image data of an image photographing area over a part where the string vibrates in a string stretch direction, which is photographed by a camera 16, and generates waveform data including a plurality of gain values, by using a displacement amount from a reference position in the vertical direction to the stretch direction of the string, as a gain value, and stores it in a waveform data area in a RAM 13. The CPU 11 reads the waveform data stored in the waveform data area in the RAM 13 at predetermined reading speed, and generates and outputs the musical sound waveform data. The musical sound waveform data are output from the loudspeaker 23 of a sound system 14. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、弦楽器の弦振動に基づいて楽音を発生する楽音発生装置および楽音発生プログラムに関する。   The present invention relates to a musical sound generating apparatus and a musical sound generating program for generating musical sounds based on string vibration of a stringed instrument.

ギターなどの弦楽器から出力された楽音信号に基づくデータから、そのピッチを抽出し、抽出されたピッチに基づいて出力用の波形データを生成して出力する技術が知られている。たとえば、特許文献1や特許文献2では、ギターの6つの弦から発せられた楽音波形データのそれぞれのピッチ(音高)およびエンベロープを抽出して、ROMなどから所定の音色の楽音波形データを、抽出されたピッチに基づいて読み出し、抽出されたエンベロープを与えて新たな楽音波形データを生成している。   A technique is known in which a pitch is extracted from data based on a musical tone signal output from a stringed instrument such as a guitar, and output waveform data is generated and output based on the extracted pitch. For example, in Patent Document 1 and Patent Document 2, the pitch (pitch) and envelope of musical sound waveform data emitted from six strings of a guitar are extracted, and musical sound waveform data of a predetermined tone color is extracted from a ROM or the like. Reading is performed based on the extracted pitch, and an extracted envelope is given to generate new musical sound waveform data.

特許文献1では、入力された波形データにフィルタ処理を施し、フィルタ処理が施された波形データのゼロクロス点を検出し、波形データが正の値をとる時間をカウンタにて計測するとともに、波形データが負の値をとる時間を他のカウンタにて計測し、双方のカウンタ値を参照して弦の基本波の振動を検知し、波形データのピッチを抽出している。   In Patent Document 1, the input waveform data is filtered, the zero-cross point of the filtered waveform data is detected, the time when the waveform data takes a positive value is measured by a counter, and the waveform data The time for which takes a negative value is measured by another counter, the vibration of the fundamental wave of the string is detected by referring to both counter values, and the pitch of the waveform data is extracted.

特開昭63−298396号公報Japanese Unexamined Patent Publication No. 63-298396 特開平9−6351号公報Japanese Patent Laid-Open No. 9-6351 特開平9−106274号公報JP-A-9-106274

特に、弦楽器では、ピッキングされた各弦の振動を、たとえば、ピックアップが磁気の変動として検出し、電気信号に変換して出力している。したがって、従来のピッチ抽出においては、ピックアップにより得られた電気信号をディジタルデータに変換し、変換されたデータが用いられている。したがって、複数の弦がピッキングされ複数の弦が振動している場合には、他の弦の振動による磁気の変動の影響を排除で傷、ピックアップにより電気信号に変換する過程で、他の弦振動に基づく信号が混合されてしまうおそれがある。このようなクロストークによって、ピックアップからの電気信号に基づくピッチ抽出においては、正確なピッチが算出されない可能性があった。また、クロストークの影響により、ピックアップが検出した電気信号における波形データの周期が安定せず、ピッチ抽出に時間がかかる場合があるという問題点があった。また、ピックアップにより得られた電気信号の周期性に基づきピッチを抽出するため、周期が安定するまでピッチの抽出が出来ず、レスポンスが良くないという問題点もあった。   In particular, in a stringed instrument, the vibration of each picked string is detected as, for example, a magnetic fluctuation by a pickup, and converted into an electrical signal for output. Therefore, in the conventional pitch extraction, the electric signal obtained by the pickup is converted into digital data, and the converted data is used. Therefore, when multiple strings are picked and multiple strings vibrate, the effects of magnetic fluctuations due to vibrations of other strings are eliminated, and other string vibrations occur in the process of being converted to an electrical signal by the pickup. There is a risk of mixing signals based on. Due to such crosstalk, an accurate pitch may not be calculated in pitch extraction based on an electrical signal from the pickup. In addition, due to the influence of crosstalk, the period of the waveform data in the electrical signal detected by the pickup is not stable, and there is a problem that it may take time to extract the pitch. In addition, since the pitch is extracted based on the periodicity of the electric signal obtained by the pickup, the pitch cannot be extracted until the period is stabilized, and the response is not good.

さらに、特許文献3には、ピッチを直接抽出せず、弦楽器のネックの指板にフレットスイッチを設けて、オンされたフレットスイッチによって音高を決定し、かつ、弦の振動を各軸方向のセンサにより検知して、決定された音高で、かつ、センサにより検知された弦振動により音色特性を変化させた楽音を発生する電子弦楽器が提案されている。特許文献3に開示された電子弦楽器は、フレットスイッチにより音高を指定するためレスポンスには優れる。その一方、実際のギターの弦振動とは異なる弦振動となるため、弦楽器の弦振動の変化に直接対応する楽音を生成することは容易ではなかった。   Further, in Patent Document 3, the pitch is not directly extracted, a fret switch is provided on the fingerboard of the neck of the stringed instrument, the pitch is determined by the turned on fret switch, and the vibration of the string is measured in each axial direction. There has been proposed an electronic stringed musical instrument that generates a musical tone that is detected by a sensor and that has a tone pitch determined by the sensor and that has a timbre characteristic changed by string vibration detected by the sensor. The electronic stringed instrument disclosed in Patent Document 3 is excellent in response because the pitch is designated by a fret switch. On the other hand, since the string vibration is different from the actual string vibration of a guitar, it is not easy to generate a musical sound that directly corresponds to a change in string vibration of a stringed instrument.

本発明は、弦楽器の弦全体の振動に基づく楽音波形データを生成可能な楽音発生装置および楽音発生プログラムを提供することを目的とする。また、本発明は、レスポンスに優れた弦の振動に基づく楽音発生装置および楽音発生プログラムを提供することを目的とする。   An object of the present invention is to provide a musical sound generating apparatus and a musical sound generating program capable of generating musical sound waveform data based on the vibration of the entire string of a stringed instrument. Another object of the present invention is to provide a musical sound generating device and a musical sound generating program based on string vibration having excellent response.

本発明の目的は、弦楽器の弦の振動に基づく楽音を発生する楽音発生装置であって、
当該弦の張設方向に、前記弦の振動する部分にわたった画像撮影領域の画像データを取得する画像取得手段と、
前記画像取得手段により得られた画像データに基づいて、前記弦の張設方向と垂直方向の基準位置からの変位量をゲイン値として、前記弦の張設方向における複数のゲイン値を含む波形データを生成して記憶手段の波形データエリアに格納する波形データ生成手段と、
前記波形データエリアに格納された波形データを、所定の読み出し速度で読み出して第1の楽音波形データを生成する楽音波形データ生成手段と、を備えたことを特徴とする楽音発生装置により達成される。
An object of the present invention is a musical sound generator for generating a musical sound based on vibration of a string of a stringed instrument,
Image acquisition means for acquiring image data of an image capturing area over the vibrating portion of the string in the stringing direction;
Waveform data including a plurality of gain values in the string tension direction based on the image data obtained by the image acquisition means, with the amount of displacement from a reference position in a direction perpendicular to the string tension direction as a gain value Waveform data generating means for generating and storing in the waveform data area of the storage means;
It is achieved by a musical tone generator comprising: musical tone waveform data generating means for reading waveform data stored in the waveform data area at a predetermined reading speed and generating first musical tone waveform data. .

好ましい実施態様においては、前記楽音波形データ生成手段が、入力された基本周波数f(Hz)に基づいて、1/f(秒)で、前記波形データエリアに格納された波形データを読み取り終わる速度で、前記波形データエリアに格納された波形データを読み取るように構成される。   In a preferred embodiment, the musical tone waveform data generating means reads the waveform data stored in the waveform data area at 1 / f (seconds) based on the input fundamental frequency f (Hz). The waveform data stored in the waveform data area is read.

より好ましい実施態様においては、前記波形データ生成手段が、前記波形データのサンプル数Nを、N=fs/f(fs:サンプリング周波数)となるように、波形データを生成する。   In a more preferred embodiment, the waveform data generating means generates waveform data such that the number N of samples of the waveform data is N = fs / f (fs: sampling frequency).

別の好ましい実施態様においては、前記記憶装置が、所定の音色の波形データが格納された音色波形データエリアを有し、
楽音波形データ生成手段が、前記基本周波数に基づいて、前記音色波形データエリアの前記所定の音色の波形データを読み出し、第2の楽音波形データを生成し、前記第1の楽音波形データと前記第2の楽音波形データとを合成した合成楽音波形データを生成する。
In another preferred embodiment, the storage device has a timbre waveform data area in which waveform data of a predetermined timbre is stored,
A musical tone waveform data generation means reads waveform data of the predetermined tone color in the tone color waveform data area based on the fundamental frequency, generates second tone waveform data, and generates the first tone waveform data and the first tone waveform data. Synthetic musical sound waveform data obtained by combining the two musical sound waveform data is generated.

さらに別の好ましい実施態様においては、前記楽音波形データ生成手段が、ピックアップから出力された弦振動に基づく第2の楽音信号と、前記第1の楽音信号データに基づく第1の楽音信号とを合成して出力する。   In still another preferred embodiment, the musical sound waveform data generating means synthesizes the second musical sound signal based on the string vibration output from the pickup and the first musical sound signal based on the first musical sound signal data. And output.

好ましい実施態様においては、複数の波形データエリアを有し、
前記波形データ生成手段が、新たな画像データが取得されたときに、前記楽音波形データ生成手段により波形データが読み出されていない他の波形データエリアに、前記新たな画像データに基づく新たな波形データを格納し、
前記楽音波形データ生成手段は、前記波形データを読み出している一方の波形データエリアからの波形データの読み出しが終了する場合に、前記他の波形データエリアから前記新たな波形データの読み出しを開始する。
In a preferred embodiment, it has a plurality of waveform data areas,
When the waveform data generation means acquires new image data, a new waveform based on the new image data is displayed in another waveform data area where the waveform data is not read by the musical sound waveform data generation means. Store data,
The musical sound waveform data generation means starts reading the new waveform data from the other waveform data area when reading of the waveform data from one waveform data area from which the waveform data is being read is completed.

より好ましい実施態様においては、前記楽音波形データ生成手段は、前記一方の波形データエリアからの波形データの読み出しを終了する際に、前記波形データのレベルを徐々に減少させるとともに、前記他の波形データエリアから読み出された前記新たな波形データのレベルを徐々に増大させ、前記波形データおよび前記新たな波形データを合成して出力する。   In a more preferred embodiment, the musical tone waveform data generating means gradually decreases the level of the waveform data and terminates the reading of the waveform data from the one waveform data area and the other waveform data. The level of the new waveform data read from the area is gradually increased, and the waveform data and the new waveform data are synthesized and output.

また、本発明の目的は、弦楽器の弦の振動に基づく楽音を発生するための楽音発生プログラムであって、コンピュータに、
当該弦の張設方向に、前記弦の振動する部分にわたった画像撮影領域の画像データを取得する画像取得ステップと、
前記画像取得ステップにおいて得られた画像データに基づいて、前記弦の張設方向と垂直方向の基準位置からの変位量をゲイン値として、前記弦の張設方向における複数のゲイン値を含む波形データを生成して記憶手段の波形データエリアに格納する波形データ生成ステップと、
前記波形データエリアに格納された波形データを、所定の読み出し速度で読み出して第1の楽音波形データを生成する楽音波形データステップと、を実行させることを特徴とする楽音発生プログラムにより達成される。
Another object of the present invention is a musical sound generating program for generating a musical sound based on the vibration of a string of a stringed instrument.
An image acquisition step of acquiring image data of an image capturing region across the vibrating portion of the string in the stringing direction;
Waveform data including a plurality of gain values in the string stretching direction based on the image data obtained in the image acquisition step, with a displacement amount from a reference position in a direction perpendicular to the string stretching direction as a gain value Generating waveform data and storing it in the waveform data area of the storage means;
This is achieved by a musical tone generation program, wherein the waveform data stored in the waveform data area is read at a predetermined reading speed to generate a first musical tone waveform data step.

本発明によれば、弦楽器の弦全体の振動に基づく楽音波形データを生成可能な楽音発生装置および楽音発生プログラムを提供することが可能となる。また、本発明は、レスポンスに優れた弦の振動に基づく楽音発生装置および楽音発生プログラムを提供することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the musical tone generator which can produce | generate the musical sound waveform data based on the vibration of the whole string of a stringed instrument, and a musical tone generation program. In addition, the present invention can provide a musical sound generating device and a musical sound generating program based on string vibration having excellent response.

図1は、本発明の第1の実施の形態にかかる楽音発生装置の構成を示すブロックダイヤグラムである。FIG. 1 is a block diagram showing the configuration of a musical tone generator according to the first embodiment of the present invention. 図2は、本実施の形態におけるギターの弦およびカメラの配置例を説明する図である。FIG. 2 is a diagram for explaining an arrangement example of guitar strings and cameras in the present embodiment. 図3は、本実施の形態にかかる楽音発生装置にて実行される処理を示すフローチャートである。FIG. 3 is a flowchart showing a process executed by the musical tone generator according to the present embodiment. 図4は、本実施の形態にかかる読み出し周波数設定処理の例を示すフローチャートである。FIG. 4 is a flowchart illustrating an example of the read frequency setting process according to the present embodiment. 図5は、本実施の形態にかかる波形データ生成処理の例を示すフローチャートである。FIG. 5 is a flowchart showing an example of waveform data generation processing according to the present embodiment. 図6は、波形データエリアに格納された波形データG(i)の例を示す図である。FIG. 6 is a diagram illustrating an example of the waveform data G (i) stored in the waveform data area. 図7は、本発明の実施の形態にかかる発音処理の例を示すフローチャートである。FIG. 7 is a flowchart showing an example of sound generation processing according to the embodiment of the present invention. 図8は、本実施の形態にかかるクロスフェード処理の例を示すフローチャートである。FIG. 8 is a flowchart showing an example of the crossfade process according to the present embodiment. 図9は、本実施の形態にかかるクロスフェードを説明するための図である。FIG. 9 is a diagram for explaining the cross fade according to the present embodiment. 図10は、本実施の形態にかかる消音処理の例を示すフローチャートである。FIG. 10 is a flowchart showing an example of the mute process according to the present embodiment. 図11は、本発明の第2の実施の形態にかかる楽音発生装置の構成を示すブロックダイヤグラムである。FIG. 11 is a block diagram showing the configuration of the musical tone generator according to the second embodiment of the present invention. 図12は、第2の実施の形態にかかる発音処理の例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of a sound generation process according to the second embodiment.

以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本発明の第1の実施の形態にかかる楽音発生装置の構成を示すブロックダイヤグラムである。図1に示すように、本実施の形態にかかる楽音発生装置10は、CPU11、ROM12、RAM13、サウンドシステム14、表示部15、カメラ16、画像データ入力インタフェース(I/F)17および操作部18を備える。   Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a block diagram showing the configuration of a musical tone generator according to the first embodiment of the present invention. As shown in FIG. 1, a musical sound generating apparatus 10 according to this embodiment includes a CPU 11, a ROM 12, a RAM 13, a sound system 14, a display unit 15, a camera 16, an image data input interface (I / F) 17, and an operation unit 18. Is provided.

CPU11は、楽音発生装置10全体の制御、操作部18を構成するスイッチ(図示せず)の操作の検出、カメラ16の起動、画像データ入力I/F17を介して入力された画像データのRAM13への格納、画像データに基づく波形データ生成など、波形データに基づく楽音波形データの生成など、種々の処理を実行する。   The CPU 11 controls the entire tone generator 10, detects the operation of a switch (not shown) constituting the operation unit 18, activates the camera 16, and inputs image data to the RAM 13 via the image data input I / F 17. Various processes such as storage of sound, generation of waveform data based on image data, generation of musical sound waveform data based on waveform data, and the like are executed.

ROM12は、操作部18を構成するスイッチの操作の検出、画像データ入力I/F17を介して入力された画像データのRAM13への格納、画像データに基づく波形データ生成、波形データに基づく楽音波形データの生成などの処理プログラムを格納する。また、ROM12は、ピアノ、ギターなどの楽音を生成するための原波形データ(以下、「プリセット波形データ」と称する。)を記憶するプリセット波形データエリアを備えている
RAM13は、ROM12から読み出されたプログラムや、処理の過程で生じたデータを記憶する。処理の過程で生じたデータには、後述する画像データ入力I/F17を介して得られた画像データ、画像データに基づいて生成される波形データなどが含まれる。
The ROM 12 detects the operation of the switch constituting the operation unit 18, stores the image data input through the image data input I / F 17 in the RAM 13, generates waveform data based on the image data, and musical sound waveform data based on the waveform data. Stores processing programs such as generating The ROM 12 includes a preset waveform data area for storing original waveform data (hereinafter referred to as “preset waveform data”) for generating musical sounds such as piano and guitar. The RAM 13 is read from the ROM 12. Stored programs and data generated during processing. Data generated in the course of processing includes image data obtained via an image data input I / F 17 described later, waveform data generated based on the image data, and the like.

サウンドシステム14は、音源部21、オーディオ回路22およびスピーカ23を備える。音源部21は、CPU11からの指示にしたがって、ROM12からプリセット波形データを読み出して、楽音波形データを生成して出力する。オーディオ回路22は、楽音波形データをアナログ信号に変換し、変換されたアナログ信号を増幅してスピーカ23に出力する。これによりスピーカ23から音響信号が出力される。   The sound system 14 includes a sound source unit 21, an audio circuit 22, and a speaker 23. The sound source unit 21 reads preset waveform data from the ROM 12 in accordance with an instruction from the CPU 11, generates musical tone waveform data, and outputs it. The audio circuit 22 converts the musical sound waveform data into an analog signal, amplifies the converted analog signal, and outputs it to the speaker 23. Thereby, an acoustic signal is output from the speaker 23.

画像データ入力I/F17は、カメラ16に接続され、カメラ16から出力される画像データを受け入れて、CPU11の指示にしたがって、画像データをRAM13の所定の画像データエリアに格納する。カメラ16は、ギター25の弦に面して配置され、各弦のほぼ全体の画像をそれぞれ得ることが可能となる。   The image data input I / F 17 is connected to the camera 16, receives image data output from the camera 16, and stores the image data in a predetermined image data area of the RAM 13 in accordance with an instruction from the CPU 11. The camera 16 is disposed so as to face the strings of the guitar 25, and an almost entire image of each string can be obtained.

図2は、本実施の形態におけるギターの弦およびカメラの配置例を説明する図である。図2に示すように、カメラ16は、6つの画像撮影領域30−1〜30−6を有し、それぞれのセンサ領域30−1〜30−6が、ギターの第1弦26−1〜第6弦26−6を含む画像を取得することができる。カメラ16として、たとえば、CCDカメラ(Charge Coupled Device Image Sensor)を使用することができる。   FIG. 2 is a diagram for explaining an arrangement example of guitar strings and cameras in the present embodiment. As shown in FIG. 2, the camera 16 has six image capturing areas 30-1 to 30-6, and each sensor area 30-1 to 30-6 has a first string 26-1 to a first string of the guitar. An image including the 6th string 26-6 can be acquired. As the camera 16, for example, a CCD camera (Charge Coupled Device Image Sensor) can be used.

図2に示すように、各画像撮影領域30−1〜30−6は、ギター25のナット201からサドル202までの弦26−1〜26−6の画像を撮影可能である。なお、実際にはギター25のネックにはフレット(符号203〜205参照)が含まれるが、画像データ入力I/F17或いはCPU11は、各画像撮影領域30−1〜30−6におけるフレットの位置を予め取得しておくことで、フレットの撮影された画像の部分を除去して弦の画像のみを取り出すことができる。各弦の画像データにおいては、弦の位置がたとえば黒点として示される。   As shown in FIG. 2, each of the image capturing regions 30-1 to 30-6 can capture images of the strings 26-1 to 26-6 from the nut 201 to the saddle 202 of the guitar 25. Actually, the neck of the guitar 25 includes a fret (see reference numerals 203 to 205), but the image data input I / F 17 or the CPU 11 determines the position of the fret in each of the image capturing areas 30-1 to 30-6. By obtaining in advance, it is possible to remove only the image of the image of the fret and extract only the string image. In the image data of each string, the position of the string is shown as a black dot, for example.

また、各画像撮影領域30−1〜60−5は、各弦26−1〜26−6の張設方向において振動する弦の部分を撮影することができれば良い。したがって、指などで所定のフレット(図示せず)が押されている場合には、画像撮影領域は、指で押さえられたフレットからサドルに至るまでの弦の部分が含まれれば良い。したがって、CPU11は、画像データにおいて、指などで所定のフレットが押されたことが検出された場合には、押されたフレットからサドルまでを画像撮影領域と認識する処理を実行しても良い。   Further, each of the image capturing areas 30-1 to 60-5 is only required to capture a portion of the string that vibrates in the extending direction of each of the strings 26-1 to 26-6. Therefore, when a predetermined fret (not shown) is pressed with a finger or the like, the image capturing area only needs to include a string portion from the fret pressed with the finger to the saddle. Therefore, when it is detected in the image data that a predetermined fret is pressed with a finger or the like, the CPU 11 may execute a process of recognizing the pressed fret to the saddle as an image capturing area.

図3は、本実施の形態にかかる楽音発生装置にて実行される処理を示すフローチャートである。楽音発生装置10のCPU11は、たとえば、RAM13に一時的に記憶された画像データ、波形生成処理により得られ、RAM13中の複数の波形データエリアに格納された波形データなどのクリアを含むイニシャライズ処理を行う(ステップ301)。また、イニシャライズ処理においては、後述する波形データエリアを指定するためのパラメータjも「0」に初期化される。イニシャライズ処理(ステップ301)が終了すると、CPU11は、操作部18のスイッチの操作を検出し、検出された操作にしたがった処理を実行するスイッチ処理を実行する(ステップ302)。   FIG. 3 is a flowchart showing a process executed by the musical tone generator according to the present embodiment. The CPU 11 of the tone generator 10 performs initialization processing including clearing, for example, image data temporarily stored in the RAM 13 and waveform data obtained by waveform generation processing and stored in a plurality of waveform data areas in the RAM 13. Perform (step 301). In the initialization process, a parameter j for designating a waveform data area to be described later is also initialized to “0”. When the initialization process (step 301) ends, the CPU 11 detects a switch operation of the operation unit 18 and executes a switch process for executing a process according to the detected operation (step 302).

スイッチ処理においては、たとえば、音色指定スイッチの操作にしたがって、ROM12のプリセット波形データエリアに格納されたプリセット波形データの種別(音色)を指定する情報がRAM13に格納される。また、ミックス比設定のスイッチにしたがって、プリセット波形データに基づく楽音波形データ(第2の楽音波形データ)と、画像データに基づいて波形データ生成処理において得られた波形データに基づいて生成される楽音波形データ(第1の楽音波形データ)とのミックス比を示す情報がRAM13に格納される。さらに、本実施の形態にかかるスイッチ処理においては、各弦について発生される楽音の周波数を規定する基本周波数が、演奏者による所定のスイッチの操作に基づいて指定され、当該指定された基本周波数がRAM13に格納される。   In the switch processing, for example, information for designating the type (tone color) of the preset waveform data stored in the preset waveform data area of the ROM 12 is stored in the RAM 13 in accordance with the operation of the tone color designation switch. In addition, according to the switch for setting the mix ratio, the musical sound waveform data (second musical sound waveform data) based on the preset waveform data and the musical sound generated based on the waveform data obtained in the waveform data generation process based on the image data Information indicating the mix ratio with the waveform data (first musical sound waveform data) is stored in the RAM 13. Furthermore, in the switch processing according to the present embodiment, the fundamental frequency that defines the frequency of the musical sound generated for each string is designated based on the operation of a predetermined switch by the player, and the designated fundamental frequency is Stored in the RAM 13.

スイッチ処理(ステップ302)の後、CPU11は、読み出し周波数設定処理を実行する(ステップ303)。なお、以下の読み出し周波数設定処理(ステップ303)、波形データ生成処理(ステップ304)、発音処理(ステップ305)および消音処理(ステップ306)において、単一の弦に関する処理について記載するが、実際には、ステップ303〜306の各処理においては、6つの弦のそれぞれについて同様な処理が繰り返される。   After the switch process (step 302), the CPU 11 executes a read frequency setting process (step 303). In the following read frequency setting processing (step 303), waveform data generation processing (step 304), sound generation processing (step 305), and mute processing (step 306), processing related to a single string will be described. In steps 303 to 306, the same processing is repeated for each of the six strings.

図4は、本実施の形態にかかる読み出し周波数設定処理の例を示すフローチャートである。図4に示すようにCPU11は、スイッチ処理において、基本周波数が入力され、当該基本周波数を示す情報がRAM13に格納されているかを判断する(ステップ401)。基本周波数の入力があった場合には、CPU11は、RAM13に格納された基本周波数fを取得し(ステップ402)、波形データの読み出し時間F=1/fを算出する(ステップ403)。また、CPU11は、波形データ生成処理において生成すべき波形データのデータ数(サンプル数)Nを、N=fs/fに基づいて算出する(ステップ404)。なお、fsは、サンプリング周波数である。その後、CPU11は、RAM13中に、サンプル数分の波形データを格納できる波形データエリアを複数確保する(ステップ405)。本実施の形態においては、2つの波形データエリアが確保される。   FIG. 4 is a flowchart illustrating an example of the read frequency setting process according to the present embodiment. As shown in FIG. 4, in the switch process, the CPU 11 determines whether the fundamental frequency is input and information indicating the fundamental frequency is stored in the RAM 13 (step 401). When the fundamental frequency is input, the CPU 11 acquires the fundamental frequency f stored in the RAM 13 (step 402), and calculates the waveform data read time F = 1 / f (step 403). Further, the CPU 11 calculates the number of waveform data items (number of samples) N to be generated in the waveform data generation process based on N = fs / f (step 404). Note that fs is a sampling frequency. Thereafter, the CPU 11 secures a plurality of waveform data areas in the RAM 13 that can store waveform data for the number of samples (step 405). In the present embodiment, two waveform data areas are secured.

たとえば、基本周波数が440Hzであれば、波形データの読み出し時間F=1/440秒となり、また、サンプリング周波数fs=44KHzであれば、サンプル数N=44000/440=100となる。   For example, if the fundamental frequency is 440 Hz, the waveform data read time F = 1/440 seconds, and if the sampling frequency fs = 44 KHz, the number of samples N = 44000/440 = 100.

読み出し周波数設定処理(ステップ303)が終了すると、CPU11は、波形データ生成処理を実行する(ステップ304)。図5は、本実施の形態にかかる波形データ生成処理の例を示すフローチャートである。図5に示すように、CPU11は、カメラ16に画像撮影を指示し、カメラ16は指示に応答して、各画像撮影領域を撮影する。CPU11は、画像データI/F17を介して、画像撮影領域の画像データを取得する(ステップ502)。   When the read frequency setting process (step 303) ends, the CPU 11 executes a waveform data generation process (step 304). FIG. 5 is a flowchart showing an example of waveform data generation processing according to the present embodiment. As shown in FIG. 5, the CPU 11 instructs the camera 16 to capture an image, and the camera 16 captures each image capturing area in response to the instruction. The CPU 11 acquires image data of the image capturing area via the image data I / F 17 (step 502).

CPU11は、得られた画像データを、弦の張設方向と平行なX軸上のある位置xiにおける変位量(ゲインG’(xi))の形式に変換する(ステップ503)。ステップ503においては、画像撮影領域中のY軸方向の所定の値を基準位置として、Y軸と直交するX軸上の各位置において、Y軸方向にどれだけ基準位置から離間した位置に弦に相当する黒点があるかを検出し、基準位置からの変位量(距離)を、当該X軸上の位置(G’(xi))とする。これにより、x軸方向の画素数nに応じた、n個の変位量(ゲイン)(G’(x0)〜G’(xn)を得ることができる。なお、Y軸方向は、弦の張設方向の垂直方向に平行である。   The CPU 11 converts the obtained image data into a format of a displacement amount (gain G ′ (xi)) at a position xi on the X axis parallel to the string extending direction (step 503). In step 503, a predetermined value in the Y-axis direction in the image capturing area is set as a reference position, and at each position on the X-axis orthogonal to the Y-axis, how far away from the reference position in the Y-axis direction is placed on the string. It is detected whether there is a corresponding black dot, and the amount of displacement (distance) from the reference position is set as the position on the X axis (G ′ (xi)). As a result, n displacement amounts (gains) (G ′ (x0) to G ′ (xn)) corresponding to the number of pixels n in the x-axis direction can be obtained. It is parallel to the vertical direction of the installation direction.

次いで、CPU11は、得られたn個の変位量を、サンプル数Nだけのポイント数となる画像データG(0)〜G(N−1)に変換する(ステップ504)。たとえば、サンプル数Nと、画像データから得られたデータ数nが、n=m×N(mは整数)であれば、
G’(i×m)=G(i)となるように、いわゆるデータの間引きをすれば良い。或いは、サンプル数Nと、データ数nとの間が、N=m×n(mは整数)であれば、
G(i×m)=G’(i)として、それ以外のG(i)については、直線補間により値を得れば良い。データ数の関係が、上述したように整数値mで表せない場合にも、直線補間などを利用することで、ゲインG(i)を求めることができる。
Next, the CPU 11 converts the obtained n displacement amounts into image data G (0) to G (N-1) having a number of points equal to the number of samples N (step 504). For example, if the number of samples N and the number of data n obtained from image data are n = m × N (m is an integer),
So-called data thinning may be performed so that G ′ (i × m) = G (i). Alternatively, if N = m × n (m is an integer) between the number of samples N and the number of data n,
As G (i × m) = G ′ (i), values of other G (i) may be obtained by linear interpolation. Even when the relationship of the number of data cannot be expressed by the integer value m as described above, the gain G (i) can be obtained by using linear interpolation or the like.

その後、CPU11は、波形データエリアを指定するためのパラメータjが偶数であるかを判断する(ステップ505)。ステップ505でYesと判断された場合には、得られたゲインG(i)(i=0〜N−1)を、波形データエリア0に格納する(ステップ506)。その一方、ステップ506でNo、すなわち、パラメータjが奇数である場合には、ゲインG(i)(i=0〜N−1)を、波形データエリア1に格納する(ステップ507)。その後、CPU11は、パラメータjをインクリメントして(ステップ508)、処理を終了する。   Thereafter, the CPU 11 determines whether or not the parameter j for designating the waveform data area is an even number (step 505). If it is determined Yes in step 505, the obtained gain G (i) (i = 0 to N-1) is stored in the waveform data area 0 (step 506). On the other hand, if No in step 506, that is, if the parameter j is an odd number, the gain G (i) (i = 0 to N−1) is stored in the waveform data area 1 (step 507). Thereafter, the CPU 11 increments the parameter j (step 508) and ends the process.

図6は、波形データエリアに格納された波形データG(i)の例を示す図である。図6に示すように、波形データ600は、Y軸上の基準位置601からの変位(たとえば、G(0)(符号611)、G(1)(符号612))であり、N個のデータ(G(0)〜G(N−1))から構成される。   FIG. 6 is a diagram illustrating an example of the waveform data G (i) stored in the waveform data area. As shown in FIG. 6, the waveform data 600 is a displacement (for example, G (0) (reference numeral 611), G (1) (reference numeral 612)) from the reference position 601 on the Y-axis, and N pieces of data (G (0) to G (N-1)).

波形データ生成処理(ステップ304)が終了すると、CPU11は発音処理を実行する(ステップ305)。図7は、本発明の実施の形態にかかる発音処理の例を示すフローチャートである。図7に示すように、CPU11は、弦の振動レベルが所定値以上であるかを判断する(ステップ701)。ステップ701においては、波形データエリアに格納された波形データの変位の最大値Gmaxが所定値以上であるかを判断すれば良い。或いは、ギター25のピックアップ(図示せず)から出力される弦の信号(原信号)が所定のレベル以上であるか否かを判断しても良い。   When the waveform data generation process (step 304) ends, the CPU 11 executes a sound generation process (step 305). FIG. 7 is a flowchart showing an example of sound generation processing according to the embodiment of the present invention. As shown in FIG. 7, the CPU 11 determines whether the vibration level of the string is equal to or higher than a predetermined value (step 701). In step 701, it may be determined whether the maximum displacement value Gmax of the waveform data stored in the waveform data area is equal to or greater than a predetermined value. Alternatively, it may be determined whether or not a string signal (original signal) output from a pickup (not shown) of the guitar 25 is equal to or higher than a predetermined level.

ステップ701でYesと判断された場合には、CPU11は、基本周波数fにしたがって、所定の音色のプリセット波形データを、基本周波数fにしたがって読み出すように指示を与える。音源部21は、指示にしたがって、所定のプリセット波形データを、基本周波数fに基づく読み出し速度で読み出す(ステップ702)。これにより、プリセット波形データに基づく,基準周波数fにしたがった音高を有する第2の楽音波形データを得ることができる。   When it is determined Yes in step 701, the CPU 11 gives an instruction to read preset waveform data of a predetermined tone color according to the fundamental frequency f according to the fundamental frequency f. The sound source unit 21 reads predetermined preset waveform data at a reading speed based on the fundamental frequency f in accordance with the instruction (step 702). Thereby, the second musical sound waveform data having a pitch according to the reference frequency f based on the preset waveform data can be obtained.

次いでCPU11は、現在読み出し中の波形データエリアではない他の波形データエリアに新たな波形データが格納されたか否かを判断する(ステップ703)。他の波形データエリアに新たな波形データエリアが格納された場合には、波形の切り替えが行われる可能性があるため、ステップ703の判断が行なわれる。ステップ703でNoと判断された場合には、CPU11は、読み出し時間Fにしたがって、現在読み出し中の波形データエリアから波形データを読み出す(ステップ704)。波形データエリアからの波形データG(i)が取得される。なお、新たな波形データが他の波形データエリアに格納されない限り、読み出し中の一方の波形データエリアからの波形データが繰り返し読み出される。ステップ703において、現在読み出し中の波形データエリアが、波形データエリア0であれば、他の波形データエリアは波形データエリア1となる。その逆に、現在読み出し中の波形データエリアが波形データエリア1であれば、他の波形データエリアは波形データエリア0である。以下に説明するクロスフェード処理においても同様である。   Next, the CPU 11 determines whether or not new waveform data has been stored in another waveform data area that is not the currently read waveform data area (step 703). When a new waveform data area is stored in another waveform data area, there is a possibility that the waveform is switched, so the determination in step 703 is performed. When it is determined No in step 703, the CPU 11 reads waveform data from the currently read waveform data area according to the read time F (step 704). Waveform data G (i) from the waveform data area is acquired. Unless new waveform data is stored in another waveform data area, the waveform data from one of the waveform data areas being read is repeatedly read. In step 703, if the currently read waveform data area is the waveform data area 0, the other waveform data area is the waveform data area 1. Conversely, if the waveform data area currently being read is the waveform data area 1, the other waveform data area is the waveform data area 0. The same applies to the cross-fading process described below.

ステップ703でYesと判断された場合には、読み出すべき波形のX座標の値がクロスフェード期間内であるか否かを判断する(ステップ705)。ステップ705でNoと判断された場合には、ステップ704に進む。その一方、ステップ705でYesと判断された場合には、クロスフェード処理を実行する(ステップ701)。   If it is determined Yes in step 703, it is determined whether or not the value of the X coordinate of the waveform to be read is within the crossfade period (step 705). If it is determined No in step 705, the process proceeds to step 704. On the other hand, if it is determined Yes in step 705, crossfade processing is executed (step 701).

図8は、本実施の形態にかかるクロスフェード処理の例を示すフローチャートである。CPU11は、クロスフェード期間X、クロスフェード開始位置N−X−1、クロスフェード終了位置N−1を取得し、現在読み出し中の波形データエリアから波形データG(i)を読み出し、クロスフェード係数を乗じて以下の波形データg(i)を算出する(ステップ802)。 FIG. 8 is a flowchart showing an example of the crossfade process according to the present embodiment. CPU11 is a cross-fade period X, crossfade start position N-X-1, and acquires the cross-fade end position N-1, read the waveform data area from the waveform data G p currently read (i p), crossfade The following waveform data g 1 (i) is calculated by multiplying by the coefficient (step 802).

(i)=((N−1)−i)/X)・G(i
図9は、本実施の形態にかかるクロスフェードを説明するための図である。図9に示すように、本実施の形態においては、現在読み出し中の波形データエリアにおける第(N−X−1)番の波形データの出力からクロスフェードが開始され、第(N−1)番、つまり、末尾の波形データの出力でクロスフェードが終了する。したがって現在読み出し中の波形データエリアからの波形データG(i)について、N−X−1≦i≦N−1であれば、上記ステップ705においてYesと判断される。
g 1 (i) = ((N−1) −i p ) / X) · G p (i p )
FIG. 9 is a diagram for explaining the cross fade according to the present embodiment. As shown in FIG. 9, in the present embodiment, the crossfade is started from the output of the (N−X−1) th waveform data in the currently read waveform data area, and the (N−1) th number. In other words, the crossfade ends with the output of the last waveform data. Therefore, if the waveform data G p (i) from the currently read waveform data area is N−X−1 ≦ i ≦ N−1, it is determined Yes in step 705.

また、図9に示すように、ステップ802で算出された波形データg(i)は、符号900に示すように、波形データを指定するパラメータiが、(N−X−1)以下である場合は、元の値であり(符号901)、パラメータiが(N−X−1)から(N−1)に至るまで、値が減少し、パラメータiがNであるときに「0」となる。 Further, as shown in FIG. 9, the waveform data g 1 calculated (i) at step 802, as indicated by reference numeral 900, the parameter i p is to specify the waveform data, the following (N-X-1) In some cases, the value is the original value (reference numeral 901), the value decreases until the parameter i p reaches (N−X−1) to (N−1), and when the parameter i p is N, “ 0 ".

次いで、CPU11は、新たに波形データが格納された他の波形データエリアから波形データG(i)(i=i−(N−X−1))を読み出し、クロスフェード係数を乗じて、以下の波形データg(i)を算出する(ステップ803)。 Then, CPU 11 is newly waveform data from other waveform data area waveform data is stored G q (i q) (i q = i p - (N-X-1)) read out, multiplied by the cross-fade factor Then, the following waveform data g 2 (i) is calculated (step 803).

(i)=(i/X)・G(i
図9に示すように、ステップ803で算出された波形データg(i)は、符号910に示すように、波形データを指定するパラメータiが、(N−X−1)以下である場合は、「0」であり、パラメータiが(N−X−1)から(N−1)に至るまで、値が増大し、パラメータiがN以上で元の値となる(符号911参照)。
g 2 (i) = (i q / X) · G q (i q )
As shown in FIG. 9, the waveform data g 2 (i) calculated in step 803 has a parameter i q for designating waveform data equal to or less than (N−X−1) as indicated by reference numeral 910. is "0", the parameter i q from (N-X-1) up to (N-1), the value increases, the parameter i q is the original value above N (reference numeral 911 see ).

CPU11は、得られた2つの波形データg(i)とg(i)とを合成して、合成された楽音波形データG(i)(第1の楽音波形データ)を得る(ステップ804)。合成された楽音波形データG(i)は音源部21に与えられる。 The CPU 11 synthesizes the obtained two waveform data g 1 (i) and g 2 (i) to obtain synthesized musical sound waveform data G (i) (first musical sound waveform data) (step 804). ). The synthesized musical sound waveform data G (i) is given to the sound source unit 21.

ステップ706のクロスフェード処理が終了し、或いは、ステップ704が終了すると、音源部21は、波形データエリアから取得された波形データG(i)と、プリセット波形データから取得された波形データGPRE(i)とを、RAM13に格納されたミックス比にしたがって加算して、合成楽音波形データGOUT(i)を算出する(ステップ707)。合成楽音波形データGOUT(i)は以下のようなものとなる。 When the cross-fade process in step 706 is completed or step 704 is completed, the sound source unit 21 obtains the waveform data G (i) acquired from the waveform data area and the waveform data G PRE ( i) is added according to the mix ratio stored in the RAM 13 to calculate the synthesized musical sound waveform data G OUT (i) (step 707). The synthesized musical sound waveform data G OUT (i) is as follows.

OUT(i)=A・G(i)+(1−A)・GPRE(i)
(A(0<A<1)はミックス比)
オーディオ回路22は、合成楽音波形データをアナログ信号に変換し、変換により得られたアナログ信号を増幅してスピーカ23から出力する。
G OUT (i) = A · G (i) + (1−A) · G PRE (i)
(A (0 <A <1) is the mix ratio)
The audio circuit 22 converts the synthesized musical sound waveform data into an analog signal, amplifies the analog signal obtained by the conversion, and outputs it from the speaker 23.

発音処理(ステップ305)の後、CPU11は、消音処理を実行する(ステップ306)。図10は、本実施の形態にかかる消音処理の例を示すフローチャートである。図8に示すように、CPU11は、弦の振動レベルが所定値未満であるか否かを判断する(ステップ1001)。ステップ1001においては、波形データエリアに格納された波形データの変位の最大値Gmaxが所定値未満であるかを判断すれば良い。或いは、ギター25のピックアップ(図示せず)から出力される弦の信号(原信号)が所定のレベル未満であるか否かを判断しても良い。   After the sound generation process (step 305), the CPU 11 executes a mute process (step 306). FIG. 10 is a flowchart showing an example of the mute process according to the present embodiment. As shown in FIG. 8, the CPU 11 determines whether or not the vibration level of the string is less than a predetermined value (step 1001). In step 1001, it may be determined whether the maximum displacement value Gmax of the waveform data stored in the waveform data area is less than a predetermined value. Alternatively, it may be determined whether or not a string signal (original signal) output from a pickup (not shown) of the guitar 25 is lower than a predetermined level.

ステップ1001でYesと判断された場合には、プリセット波形データに基づく楽音波形データ(第2の楽音波形データ)および画像データに基づく楽音波形データ(第1の楽音波形データ)が出力中であるか否かを判断する(ステップ1002)。ステップ1002でYesと判断された場合には、CPU11は、音源部21に対して、プリセット波形データに基づく楽音波形データ(第2の楽音波形データ)の消音を指示する。音源部21は、指示に応答して、その出力レベルを徐々に減衰させるような第2の楽音波形データを生成する(ステップ1003)。また、CPU11は、画像データに基づく楽音波形データ(第1の楽音波形データ)の出力レベルを徐々に減衰させる係数を第1の楽音波形データに乗じて、乗算結果のデータを、第1の楽音波形データとして音源部21に与える(ステップ1004)。   If YES in step 1001, whether the musical sound waveform data (second musical sound waveform data) based on the preset waveform data and the musical sound waveform data (first musical sound waveform data) based on the image data are being output. It is determined whether or not (step 1002). If it is determined Yes in step 1002, the CPU 11 instructs the sound source unit 21 to mute the musical tone waveform data (second musical tone waveform data) based on the preset waveform data. In response to the instruction, the sound source unit 21 generates second musical sound waveform data that gradually attenuates the output level (step 1003). Further, the CPU 11 multiplies the first musical sound waveform data by a coefficient that gradually attenuates the output level of the musical sound waveform data (first musical sound waveform data) based on the image data, and uses the multiplication result data as the first musical sound data. The waveform data is given to the sound source unit 21 (step 1004).

ステップ1001でNo、ステップ1002でNo、或いは、ステップ1004が終了すると、消音処理は終了する。消音処理が終了した後、CPU11は、他の必要な処理を実行する(ステップ307)。ステップ307における処理には、たとえば、表示部15への画像表示や、LEDの点灯などが含まれる。   When Step 1001 is No, Step 1002 is No, or Step 1004 is finished, the mute process is finished. After the mute processing is completed, the CPU 11 executes other necessary processing (step 307). The processing in step 307 includes, for example, image display on the display unit 15 and lighting of LEDs.

本実施の形態によれば、カメラが、ギター25の弦の張設方向に、弦の振動する部分にわたった画像撮影領域を撮影する。CPU11は、画像撮影領域の画像データに基づいて、弦の張設方向(X軸方向)の基準位置からの変位量、つまり、Y軸方向の変位量をゲイン値として、弦の張設方向における複数のゲイン値を含む波形データを生成してRAM13の波形データエリアに格納する。CPU11は、所定音読み出し速度で波形データエリアの波形データを読み出して、サウンドシステム14に与え、サウンドシステム14においてアナログ信号に変換されて出力される。これにより、画像撮影領域における弦全体の振動に基づく楽音波形データを生成し出力することが可能となる。また、画像撮影領域における弦全体の画像データを用いて波形データを生成するため良好なレスポンスで楽音波形データを出力することが可能となる。   According to the present embodiment, the camera shoots an image shooting region over the portion where the string vibrates in the stringing direction of the guitar 25. The CPU 11 uses the amount of displacement from the reference position in the string stretching direction (X-axis direction), that is, the amount of displacement in the Y-axis direction, as a gain value based on the image data of the image shooting region, in the string stretching direction. Waveform data including a plurality of gain values is generated and stored in the waveform data area of the RAM 13. The CPU 11 reads the waveform data in the waveform data area at a predetermined sound reading speed, gives it to the sound system 14, converts it into an analog signal in the sound system 14, and outputs it. This makes it possible to generate and output musical sound waveform data based on the vibration of the entire string in the image shooting region. In addition, since waveform data is generated using image data of the entire string in the image capturing region, it is possible to output musical sound waveform data with a good response.

本実施の形態によれば、操作部18を構成するスイッチの操作により入力された基本周波数f(Hz)に基づいて、波形データエリアの波形データが読み出される。これにより、演奏者のスイッチ操作による所望の音高の楽音を出力することができる。   According to the present embodiment, the waveform data in the waveform data area is read based on the fundamental frequency f (Hz) input by operating the switches that constitute the operation unit 18. As a result, a musical tone having a desired pitch can be output by the player's switch operation.

また、本実施の形態によれば、CPU11は、波形データのサンプル数Nを、N=fs/f(fs:サンプリング周波数)となるように、波形データを生成する。これにより、サンプリング周波数で波形データを読み出すことで、設定された時間1/fで波形データエリアの波形データを読み取り終わることができる。   Further, according to the present embodiment, the CPU 11 generates waveform data such that the number N of waveform data samples is N = fs / f (fs: sampling frequency). Thus, by reading the waveform data at the sampling frequency, it is possible to finish reading the waveform data in the waveform data area at the set time 1 / f.

また、本実施の形態によれば、ROM12には、所定の音色の波形データが格納されたプリセット波形データエリアが設けられ、音源部21が、基本周波数fに基づいて、プリセット波形データを読み出して第2の楽音波形データを生成し、波形データエリアから読み出された第1の楽音波形データと合成して出力する。これにより、弦楽器の弦振動自体から得られた楽音と、音源部21で生成された楽音(いわゆるシンセ音)とをミックスした楽音を得ることが可能となる。   Further, according to the present embodiment, the ROM 12 is provided with a preset waveform data area in which waveform data of a predetermined tone color is stored, and the sound source unit 21 reads the preset waveform data based on the basic frequency f. Second musical sound waveform data is generated, synthesized with the first musical sound waveform data read from the waveform data area, and output. Thereby, it is possible to obtain a musical sound obtained by mixing a musical sound obtained from the string vibration of the stringed musical instrument itself and a musical sound generated by the sound source unit 21 (so-called synth sound).

さらに、本実施の形態においては、新たな画像データが取得されたときに、CPU11は、波形データが読み出されていない他の波形データエリアに、新たな画像データに基づく新たな波形データを格納する。CPU11は、波形データを読み出している一方の波形データエリアからの波形データの読み出しが終了する場合に、他の波形データエリアから新たな波形データの読み出しを開始する。これにより、新たな画像データが取得されるたびに、当該新たな画像データに基づく新たな波形データを生成し、当該波形データに基づく楽音波形データを生成することが可能となる。   Furthermore, in this embodiment, when new image data is acquired, the CPU 11 stores new waveform data based on the new image data in another waveform data area from which waveform data has not been read. To do. When reading of waveform data from one waveform data area from which waveform data is being read is completed, the CPU 11 starts reading new waveform data from the other waveform data area. Thus, every time new image data is acquired, new waveform data based on the new image data can be generated, and musical sound waveform data based on the waveform data can be generated.

また、本実施の形態においては、CPU11は、一方の波形データエリアからの波形データの読み出しを終了する際に、波形データのレベルを徐々に減少させるとともに、他の波形データエリアから読み出された新たな波形データのレベルを徐々に増大させ、これら波形データを合成して出力する。このように、クロスフェード処理を行うことにより、波形データを滑らかに切り替えることが可能となる。   In the present embodiment, when the CPU 11 finishes reading the waveform data from one waveform data area, the CPU 11 gradually decreases the level of the waveform data and reads the waveform data from the other waveform data area. The level of new waveform data is gradually increased, and these waveform data are synthesized and output. In this way, the waveform data can be switched smoothly by performing the crossfade process.

次に、本発明の第2の実施の形態について説明する。第1の実施の形態においては、画像データに基づいて生成された楽音波形データ(第1の楽音波形データ)は、音源部21が生成した、ROM12に記憶されていたプリセット波形データに基づく楽音波形データ(第2の楽音波形データ)と合成されて出力される。第2の実施の形態においては、音源部21を設けず、ギター25のピックアップから出力された弦振動に基づく電気信号から得られた楽音信号と、第1の楽音波形データとを合成して出力する。   Next, a second embodiment of the present invention will be described. In the first embodiment, the musical sound waveform data (first musical sound waveform data) generated based on the image data is a musical sound waveform based on the preset waveform data generated by the sound source unit 21 and stored in the ROM 12. It is synthesized with data (second musical sound waveform data) and output. In the second embodiment, the tone generator 21 is not provided, and the tone signal obtained from the electric signal based on the string vibration output from the pickup of the guitar 25 and the first tone waveform data are synthesized and output. To do.

図11は、本発明の第2の実施の形態にかかる楽音発生装置の構成を示すブロックダイヤグラムである。図11において、図1に示す楽音発生装置の構成部分と同様のものには同一の符号を付している。図11に示すように、第2の実施の形態にかかる楽音発生装置100は、CPU11、ROM12、RAM13、サウンドシステム114、表示部15、カメラ16、画像データ入力I/F17および操作部18を備える。   FIG. 11 is a block diagram showing the configuration of the musical tone generator according to the second embodiment of the present invention. In FIG. 11, the same components as those in the musical tone generator shown in FIG. As shown in FIG. 11, the musical sound generation device 100 according to the second embodiment includes a CPU 11, a ROM 12, a RAM 13, a sound system 114, a display unit 15, a camera 16, an image data input I / F 17, and an operation unit 18. .

本実施の形態においては、サウンドシステム114は、オーディオ・ミキシング回路114をする。また、ギター25のピックアップ121の出力は、サウンドシステム114のオーディオ・ミキシング回路114に入力される。本実施の形態においては、後述するように、オーディオ・ミキシング回路14が、画像データに基づく楽音波形データ(第1の楽音波形データ)をアナログ変換した楽音信号と、ピックアップ121から出力された楽音信号とを、設定されたミックス比で合成する。   In the present embodiment, the sound system 114 includes an audio mixing circuit 114. The output of the pickup 121 of the guitar 25 is input to the audio mixing circuit 114 of the sound system 114. In the present embodiment, as will be described later, the audio mixing circuit 14 converts a musical sound waveform data (first musical sound waveform data) based on image data into an analog signal, and a musical sound signal output from the pickup 121. Are combined with the set mix ratio.

第2の実施の形態にかかる楽音発生装置100における処理の概要も、図3に示すものとなる。スイッチ処理(ステップ302)、読み出し周波数設定処理(ステップ303)、波形データ生成処理(ステップ304)は、第2の実施の形態においても同様である。   An outline of processing in the musical sound generating apparatus 100 according to the second embodiment is also shown in FIG. The switch process (step 302), the read frequency setting process (step 303), and the waveform data generation process (step 304) are the same in the second embodiment.

図12は、第2の実施の形態にかかる発音処理の例を示すフローチャートである。第2の実施の形態においては、第1の実施の形態の発音処理におけるステップ702、つまり、ROM12に格納されたプリセット波形データに基づく第2の楽音波形データの生成が行なわれない。図12に示すように、第2の実施の形態にかかる発音処理においては、弦の振動レベルが所定値以上である場合に(ステップ1201でYes)、現在読み出し中の波形データエリアではない他の波形データエリアに新たな波形データが格納されず(ステップ1202でNo)、或いは、クロスフェード期間内でなければ(ステップ1204でNo)、CPU11は、読み出し時間Fにしたがって、現在読み出し中の波形データエリアから波形データを読み出す(ステップ1203)。これらステップ1201、1202、1203、1204は、それぞれ、図7のステップ701、703、704、705と同様である。   FIG. 12 is a flowchart illustrating an example of a sound generation process according to the second embodiment. In the second embodiment, step 702 in the sound generation process of the first embodiment, that is, generation of the second musical sound waveform data based on the preset waveform data stored in the ROM 12 is not performed. As shown in FIG. 12, in the sound generation process according to the second embodiment, when the vibration level of the string is equal to or higher than a predetermined value (Yes in step 1201), the other waveform data area that is not currently being read is displayed. If new waveform data is not stored in the waveform data area (No in step 1202) or is not within the crossfade period (No in step 1204), the CPU 11 follows the reading time F to read the waveform data currently being read out. Waveform data is read from the area (step 1203). These steps 1201, 1202, 1203, and 1204 are the same as steps 701, 703, 704, and 705 in FIG.

ステップ1201およびステップ1204の双方でYesと判断された場合にはクロスフェード処理が実行される(ステップ1205)。クロスフェード処理も図8に示すものと同様である。ステップ1203において生成された波形データ或いはクロスフェード処理において生成された波形データは、オーディオ・ミキシング回路122に出力される。ステップ1205のクロスフェード処理が終了し、或いは、ステップ1203が終了すると、オーディオ・ミキシング回路122は、波形データG(i)をアナログ信号に変換し、変換により得られた楽音波形信号と、ピックアップ122から出力された弦振動に基づく楽音波形信号とを、RAM13に格納されたミックス比にしたがって加算して、合成楽音信号を生成する。生成された合成楽音信号は、スピーカ23から出力される。   If it is determined to be Yes in both step 1201 and step 1204, crossfade processing is executed (step 1205). The cross fade process is the same as that shown in FIG. The waveform data generated in step 1203 or the waveform data generated in the crossfade process is output to the audio mixing circuit 122. When the crossfade process in step 1205 is completed or step 1203 is completed, the audio mixing circuit 122 converts the waveform data G (i) into an analog signal, the musical sound waveform signal obtained by the conversion, and the pickup 122. The musical tone waveform signal based on the string vibration output from is added according to the mix ratio stored in the RAM 13 to generate a synthesized musical tone signal. The generated synthetic tone signal is output from the speaker 23.

第2の実施の形態によれば、ギター25のピックアップ121から出力された弦振動に基づく楽音信号と、第1の楽音信号データに基づく第1の楽音信号とを合成して出力する。したがって、弦振動の画像データに基づく楽音と、弦振動に基づく電気信号に基づく楽音とを合成することが可能となる。   According to the second embodiment, the musical tone signal based on the string vibration output from the pickup 121 of the guitar 25 and the first musical tone signal based on the first musical tone signal data are synthesized and output. Therefore, it is possible to synthesize a musical sound based on string vibration image data and a musical sound based on an electric signal based on string vibration.

本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。   The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.

たとえば、前記実施の形態においては、弦楽器としてギターを利用しているがギターに限定されるものではなく、他の弦楽器、たとえば、ベース、バイオリン、ヴィオラ、チェロなどにも本発明を適用することができる。   For example, in the above embodiment, a guitar is used as a stringed instrument, but the present invention is not limited to the guitar, and the present invention can be applied to other stringed instruments such as a bass, a violin, a viola, and a cello. it can.

また、前記第1の実施の形態においては、楽音発生装置10は、音源部21を備え、ROM12に記憶された波形データを読み出して楽音波形データ(第2の楽音波形データ)を生成し、画像データに基づく楽音波形データ(第1の楽音波形データ)と合成された合成楽音波形データを出力している。また、第2の実施の形態においては、楽音発生装置100は、ピックアップ121からの電気信号に基づく第2の楽音信号と、第1の楽音波形データをアナログ変換した楽音信号とを合成して出力している。しかしながら、上記構成に限定されるものではない。たとえば、楽音発生装置10は、単に画像データに基づく楽音波形データ(第1の楽音波形データ)を生成して出力するような構成であっても良い。   In the first embodiment, the musical sound generator 10 includes the sound source unit 21, reads waveform data stored in the ROM 12, generates musical sound waveform data (second musical sound waveform data), and generates an image. The musical tone waveform data (first musical tone waveform data) based on the data and the synthesized musical tone waveform data synthesized are output. In the second embodiment, the tone generator 100 synthesizes and outputs a second tone signal based on the electrical signal from the pickup 121 and a tone signal obtained by analog conversion of the first tone waveform data. is doing. However, it is not limited to the said structure. For example, the tone generator 10 may be configured to simply generate and output tone waveform data (first tone waveform data) based on image data.

10 楽音発生装置
11 CPU
12 ROM
13 RAM
14 サウンドシステム
15 表示部
16 カメラ
17 画像データ入力I/F
18 操作部
21 音源部
22 オーディオ回路
23 スピーカ
25 ギター
10 Musical sound generator 11 CPU
12 ROM
13 RAM
14 Sound System 15 Display Unit 16 Camera 17 Image Data Input I / F
18 Operation unit 21 Sound source unit 22 Audio circuit 23 Speaker 25 Guitar

Claims (8)

弦楽器の弦の振動に基づく楽音を発生する楽音発生装置であって、
当該弦の張設方向に、前記弦の振動する部分にわたった画像撮影領域の画像データを取得する画像取得手段と、
前記画像取得手段により得られた画像データに基づいて、前記弦の張設方向と垂直方向の基準位置からの変位量をゲイン値として、前記弦の張設方向における複数のゲイン値を含む波形データを生成して記憶手段の波形データエリアに格納する波形データ生成手段と、
前記波形データエリアに格納された波形データを、所定の読み出し速度で読み出して第1の楽音波形データを生成する楽音波形データ生成手段と、を備えたことを特徴とする楽音発生装置。
A musical sound generator for generating musical sounds based on string vibration of a stringed instrument,
Image acquisition means for acquiring image data of an image capturing area over the vibrating portion of the string in the stringing direction;
Waveform data including a plurality of gain values in the string tension direction based on the image data obtained by the image acquisition means, with the amount of displacement from a reference position in a direction perpendicular to the string tension direction as a gain value Waveform data generating means for generating and storing in the waveform data area of the storage means;
A musical tone generator comprising: musical tone waveform data generation means for reading waveform data stored in the waveform data area at a predetermined reading speed and generating first musical tone waveform data.
前記楽音波形データ生成手段が、入力された基本周波数f(Hz)に基づいて、1/f(秒)で、前記波形データエリアに格納された波形データを読み取り終わる速度で、前記波形データエリアに格納された波形データを読み取るように構成されたことを特徴とする請求項1に記載の楽音発生装置。   The musical sound waveform data generation means reads the waveform data stored in the waveform data area at 1 / f (seconds) based on the input fundamental frequency f (Hz) at a speed at which the waveform data area is read. The musical tone generator according to claim 1, wherein the musical tone generator is configured to read stored waveform data. 前記波形データ生成手段が、前記波形データのサンプル数Nを、N=fs/f(fs:サンプリング周波数)となるように、波形データを生成することを特徴とする請求項2に記載の楽音発生装置。   3. The musical tone generation according to claim 2, wherein the waveform data generation means generates waveform data so that the number N of samples of the waveform data is N = fs / f (fs: sampling frequency). apparatus. 前記記憶装置が、所定の音色の波形データが格納された音色波形データエリアを有し、
楽音波形データ生成手段が、前記基本周波数に基づいて、前記音色波形データエリアの前記所定の音色の波形データを読み出し、第2の楽音波形データを生成し、前記第1の楽音波形データと前記第2の楽音波形データとを合成した合成楽音波形データを生成することを特徴とする請求項2または3に記載の楽音発生装置。
The storage device has a timbre waveform data area in which waveform data of a predetermined timbre is stored;
A musical tone waveform data generation means reads waveform data of the predetermined tone color in the tone color waveform data area based on the fundamental frequency, generates second tone waveform data, and generates the first tone waveform data and the first tone waveform data. 4. A musical tone generator according to claim 2, wherein synthetic musical tone waveform data obtained by synthesizing the two musical tone waveform data is generated.
前記楽音波形データ生成手段が、ピックアップから出力された弦振動に基づく第2の楽音信号と、前記第1の楽音信号データに基づく第1の楽音信号とを合成して出力することを特徴とする請求項2または3に記載の楽音発生装置。   The musical sound waveform data generating means synthesizes and outputs a second musical sound signal based on string vibration output from a pickup and a first musical sound signal based on the first musical sound signal data. The musical tone generator according to claim 2 or 3. 複数の波形データエリアを有し、
前記波形データ生成手段が、新たな画像データが取得されたときに、前記楽音波形データ生成手段により波形データが読み出されていない他の波形データエリアに、前記新たな画像データに基づく新たな波形データを格納し、
前記楽音波形データ生成手段は、前記波形データを読み出している一方の波形データエリアからの波形データの読み出しが終了する場合に、前記他の波形データエリアから前記新たな波形データの読み出しを開始することを特徴とする請求項1ないし5の何れか一項に記載の楽音発生装置。
It has multiple waveform data areas,
When the waveform data generation means acquires new image data, a new waveform based on the new image data is displayed in another waveform data area where the waveform data is not read by the musical sound waveform data generation means. Store data,
The musical tone waveform data generation means starts reading the new waveform data from the other waveform data area when reading of the waveform data from one waveform data area from which the waveform data is being read is completed. The musical tone generator according to any one of claims 1 to 5, wherein
前記楽音波形データ生成手段は、前記一方の波形データエリアからの波形データの読み出しを終了する際に、前記波形データのレベルを徐々に減少させるとともに、前記他の波形データエリアから読み出された前記新たな波形データのレベルを徐々に増大させ、前記波形データおよび前記新たな波形データを合成して出力することを特徴とする請求項6に記載の楽音発生装置。   The musical sound waveform data generation means gradually decreases the level of the waveform data when the reading of the waveform data from the one waveform data area is completed, and the read out from the other waveform data area. 7. The musical tone generator according to claim 6, wherein the level of new waveform data is gradually increased, and the waveform data and the new waveform data are synthesized and output. 弦楽器の弦の振動に基づく楽音を発生するための楽音発生プログラムであって、コンピュータに、
当該弦の張設方向に、前記弦の振動する部分にわたった画像撮影領域の画像データを取得する画像取得ステップと、
前記画像取得ステップにおいて得られた画像データに基づいて、前記弦の張設方向と垂直方向の基準位置からの変位量をゲイン値として、前記弦の張設方向における複数のゲイン値を含む波形データを生成して記憶手段の波形データエリアに格納する波形データ生成ステップと、
前記波形データエリアに格納された波形データを、所定の読み出し速度で読み出して第1の楽音波形データを生成する楽音波形データステップと、を実行させることを特徴とする楽音発生プログラム。
A musical sound generation program for generating musical sounds based on string vibration of a stringed instrument,
An image acquisition step of acquiring image data of an image capturing region across the vibrating portion of the string in the stringing direction;
Waveform data including a plurality of gain values in the string stretching direction based on the image data obtained in the image acquisition step, with a displacement amount from a reference position in a direction perpendicular to the string stretching direction as a gain value Generating waveform data and storing it in the waveform data area of the storage means;
A musical tone generating program, comprising: executing a musical tone waveform data step of reading waveform data stored in the waveform data area at a predetermined reading speed to generate first musical tone waveform data.
JP2009054762A 2009-03-09 2009-03-09 Musical sound generating device and musical sound generating program Active JP5699418B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009054762A JP5699418B2 (en) 2009-03-09 2009-03-09 Musical sound generating device and musical sound generating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009054762A JP5699418B2 (en) 2009-03-09 2009-03-09 Musical sound generating device and musical sound generating program

Publications (2)

Publication Number Publication Date
JP2010210757A true JP2010210757A (en) 2010-09-24
JP5699418B2 JP5699418B2 (en) 2015-04-08

Family

ID=42971014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009054762A Active JP5699418B2 (en) 2009-03-09 2009-03-09 Musical sound generating device and musical sound generating program

Country Status (1)

Country Link
JP (1) JP5699418B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3220385A1 (en) * 2016-03-15 2017-09-20 Advanced Digital Broadcast S.A. System and method for stringed instruments' pickup

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5888698U (en) * 1981-12-11 1983-06-16 シャープ株式会社 electronic musical instruments
JPS63137295A (en) * 1987-09-24 1988-06-09 カシオ計算機株式会社 Electronic stringed instrument
JPS6451994U (en) * 1987-09-25 1989-03-30
JPH0339997A (en) * 1990-06-20 1991-02-20 Casio Comput Co Ltd Musical sound waveform input device
JPH04284496A (en) * 1991-03-13 1992-10-09 Yamaha Corp Musical sound generation device
JPH08254983A (en) * 1996-02-07 1996-10-01 Yamaha Corp Musical sound generating device
JP2000075862A (en) * 1998-08-27 2000-03-14 Roland Corp Device for compressing/extending time base of waveform signal
JP2000122666A (en) * 1997-09-30 2000-04-28 Yamaha Corp Waveform generating device and method
JP2000172254A (en) * 1989-12-28 2000-06-23 Casio Comput Co Ltd Musical tone characteristic controller and its method
JP2002169557A (en) * 2000-11-29 2002-06-14 Matsushita Electric Ind Co Ltd Waveform generating device
JP2010191153A (en) * 2009-02-18 2010-09-02 Casio Computer Co Ltd Pitch extraction device and musical sound generation device

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5888698U (en) * 1981-12-11 1983-06-16 シャープ株式会社 electronic musical instruments
JPS63137295A (en) * 1987-09-24 1988-06-09 カシオ計算機株式会社 Electronic stringed instrument
JPS6451994U (en) * 1987-09-25 1989-03-30
JP2000172254A (en) * 1989-12-28 2000-06-23 Casio Comput Co Ltd Musical tone characteristic controller and its method
JPH0339997A (en) * 1990-06-20 1991-02-20 Casio Comput Co Ltd Musical sound waveform input device
JPH04284496A (en) * 1991-03-13 1992-10-09 Yamaha Corp Musical sound generation device
JPH08254983A (en) * 1996-02-07 1996-10-01 Yamaha Corp Musical sound generating device
JP2000122666A (en) * 1997-09-30 2000-04-28 Yamaha Corp Waveform generating device and method
JP2000075862A (en) * 1998-08-27 2000-03-14 Roland Corp Device for compressing/extending time base of waveform signal
JP2002169557A (en) * 2000-11-29 2002-06-14 Matsushita Electric Ind Co Ltd Waveform generating device
JP2010191153A (en) * 2009-02-18 2010-09-02 Casio Computer Co Ltd Pitch extraction device and musical sound generation device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3220385A1 (en) * 2016-03-15 2017-09-20 Advanced Digital Broadcast S.A. System and method for stringed instruments' pickup

Also Published As

Publication number Publication date
JP5699418B2 (en) 2015-04-08

Similar Documents

Publication Publication Date Title
US20140202316A1 (en) Synthesizer with bi-directional transmission
WO2015105092A1 (en) Speech recognition method
JP2018146876A (en) Electronic musical instrument, sound production control method, and program
JP2009265470A (en) Resonance tone generator and electronic musical instrument
EP3373289B1 (en) Electronic musical instrument, musical sound generating method, and storage medium
JP5699418B2 (en) Musical sound generating device and musical sound generating program
JP2010191153A (en) Pitch extraction device and musical sound generation device
WO2018055892A1 (en) Sound source for electronic percussion instrument
EP3757984B1 (en) Electronic musical instrument, method and program
KR20070094207A (en) Method and apparatus for converting image into sound
JP4765705B2 (en) Music control device
JP2013003205A (en) Musical score display device, musical score display program and musical score
JP6756472B2 (en) Sound processing equipment
EP3220385B1 (en) System and method for stringed instruments&#39; pickup
JP2006113487A (en) Method and device for producing musical sound data
JP6728572B2 (en) Plucked instrument performance evaluation device, music performance device, and plucked instrument performance evaluation program
JP4238807B2 (en) Sound source waveform data determination device
JP5589767B2 (en) Audio processing device
KR20190080086A (en) The apparatus which manages a composition service process based on the graphic contents
JP5151603B2 (en) Electronic musical instruments
JP5470893B2 (en) Sound effect generator
JP2010117536A (en) Resonance add-on device and electronic musical instrument
KR100697524B1 (en) Portable device which include image read means and MIDI file synthesis method
JP2020008755A (en) Music-linked image display system
JP5151523B2 (en) Electronic musical instruments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140513

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150202

R150 Certificate of patent or registration of utility model

Ref document number: 5699418

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150