JP3719129B2 - Music signal synthesis method, music signal synthesis apparatus and recording medium - Google Patents

Music signal synthesis method, music signal synthesis apparatus and recording medium Download PDF

Info

Publication number
JP3719129B2
JP3719129B2 JP2000342963A JP2000342963A JP3719129B2 JP 3719129 B2 JP3719129 B2 JP 3719129B2 JP 2000342963 A JP2000342963 A JP 2000342963A JP 2000342963 A JP2000342963 A JP 2000342963A JP 3719129 B2 JP3719129 B2 JP 3719129B2
Authority
JP
Japan
Prior art keywords
pitch
characteristic
event information
sound
sound signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000342963A
Other languages
Japanese (ja)
Other versions
JP2002149159A (en
Inventor
崇 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2000342963A priority Critical patent/JP3719129B2/en
Publication of JP2002149159A publication Critical patent/JP2002149159A/en
Application granted granted Critical
Publication of JP3719129B2 publication Critical patent/JP3719129B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、電子楽器、アミューズメント機器等、楽音を発生する装置に用いられる楽音信号合成方法、楽音信号合成装置および記録媒体に関し、特に鍵盤操作によって弦楽器音を合成する電子弦楽器に用いて好適な楽音信号合成方法、楽音信号合成装置および記録媒体に関する。
【0002】
【従来の技術】
弦楽器音を合成する電子楽器等においては、演奏操作子として、自然弦楽器を模擬した物が使用される場合がある。しかし、弦楽器音を合成する際にも、最も一般的な演奏操作子であるキーボードを用いることが要請されており、キーボードによって弦楽器特有の演奏操作や発音態様を如何にしてシミュレートするか、換言すれば、キーボードの操作を自然弦楽器の演奏操作に如何に対応付けるかが重要な問題になる。
【0003】
特に、キーボードにおいて第1の鍵のキーオンイベントが発生し、該第1の鍵のキーオフイベントが発生する前に第2の鍵のキーオンイベントが発生した時、この鍵操作に対する解釈の方法が特許第2969861号公報に開示されている。ここで、模擬される自然弦楽器は一般的に複数の弦を有しており、各弦毎に異なる音域を有している。そこで、上記公報の技術においては、第1および第2の鍵の音高(以下、第1および第2の音高という)が共通の弦の音域に属するか否かが判定される。
【0004】
一般的にキーボードにおいてキーオンイベントが検出された場合は、そのキーオンイベントに対して新たな発音チャンネルを割り当てられ発音が開始される。しかし、上記場合において「共通の弦の音域に属する」と判定された場合は、第2の鍵のキーオンイベントに対して新たな発音チャンネルが割り当てられない。かかる場合には、第1の鍵に係る発音チャンネルがフェードアウトされ、該発音チャンネルの音高が第2の鍵の音高に変更され、しかる後に該発音チャンネルがフェードインされる。これは、自然弦楽器において該共通の弦上で押圧位置をスライドさせて音高を変えるスラー奏法を行う操作を上記キーボードの操作に対応付けたものである。
【0005】
すなわち、自然弦楽器においてかかる操作が行われた場合は、第1および第2の音高が同時に発音されることはあり得ないため、電子弦楽器においても第1および第2の音高が同時に発音されることを防止したものである。一方、第1および第2の音高が「共通の弦の音域に属さない」と判定されると、第2の鍵のキーオンイベントに対して新たな発音チャンネルが割り当てられ、第1の鍵とは独立して発音制御が行われる。その結果、第1および第2の音高の楽音が同時に発音される期間が生ずる。これは、自然弦楽器においても、複数の弦が同時に発音することがあるからである。
【0006】
【発明が解決しようとする課題】
しかし、本発明者が検討したところによれば、自然弦楽器においてスラー奏法を行う場合には、上記第1および第2の音高の変化方向によって、演奏状態および楽音の発生状態は異なることが判明した。
まず、変化方向が上方向すなわち第1の音高よりも第2の音高が高い場合を検討してみると、演奏者は第1の音高で弦を振動させるために、最初に第1の指で弦を押え弦を振動させることになる。次に、弦のうち第1の音高で振動中の部分、すなわち第1の指からブリッジまでの部分の途中を他の指(第2の指)で押え、第2の音高を発音させることになる。その際、演奏者は第2の指に弦の張力による反発を受けながら弦を押えるため、音高が第1の音高から第2の音高に完全に遷移するまでに比較的長い時間を要する。
【0007】
一方、変化方向が下方向すなわち第1の音高よりも第2の音高が低い場合には、弦のうち第1の音高で振動していない部分、すなわち第1の指からナットまでの部分の途中を第2の指で押え、しかる後に第1の指を弦から離すことによって第2の音高を発音させる。その際、第1の指は、弦の張力によって弦から離れる方向に付勢されるため、音高は比較的短時間のうちに第1の音高から第2の音高に遷移する。
【0008】
しかし、従来の電子楽器等においては、かかる演奏状態の相違に基づいて楽音信号の制御を行うものは知られておらず、楽音に不自然さが残る問題があった。この発明は上述した事情に鑑みてなされたものであり、音高の変化方向に応じて最適な楽音信号を合成できる楽音信号合成方法、楽音信号合成装置および記録媒体を提供することを目的としている。
【0009】
【課題を解決するための手段】
上記課題を解決するため本発明にあっては、下記構成を具備することを特徴とする。なお、括弧内は例示である。
請求項1記載の構成にあっては、第1の音高を指定する第1のイベント情報を受信する過程と、前記第1のイベント情報を受信した後に第2の音高を指定する第2のイベント情報を受信する過程と、前記第1および第2の音高を比較する比較過程(ステップSP6)と、前記比較過程において前記第2の音高が前記第1の音高よりも低いと判定された場合に、第1の特性(図3(3−a)〜(3−c))によって前記第2のイベント情報に係る楽音信号を合成する過程(ステップSP14)と、前記比較過程において前記第2の音高が前記第1の音高よりも高いと判定された場合に、前記第1の特性よりも立上がりが遅い第2の特性(図3(2−a)〜(2−c))によって前記第2のイベント情報に係る楽音信号を合成する過程(ステップSP12)とを有することを特徴とする。
また、請求項2記載の構成にあっては、第1の音高を指定する第1のイベント情報を受信する過程と、前記第1のイベント情報に基づいて第1の楽音信号を合成する過程(ステップSP8)と、前記第1のイベント情報を受信した後に第2の音高を指定する第2のイベント情報を受信する過程と、前記第1の楽音信号が発音中であるか否かを判定する第1の判定過程(ステップSP2)と、前記第1の判定過程の判定結果が否定的であったことを条件として、第1の特性によって前記第2のイベント情報に係る第2の楽音信号を合成する過程(ステップSP8)と、前記第1の判定過程の判定結果が肯定的であったことを条件として、前記第1および第2の音高が共に所定の範囲に含まれているか否かを判定する第2の判定過程(ステップSP4)と、前記第2の判定過程が否定的であったことを条件として、前記第1の特性よりも立上がりが遅い第2の特性によって前記第2の楽音信号を合成する過程(ステップSP10)と、前記第2の判定過程の判定結果が肯定的であったことを条件として、前記第1の音高よりも前記第2の音高が低いか否かを判定する第3の判定過程(ステップSP6)と、前記第3の判定過程が否定的であったことを条件として、前記第2の特性よりも立上がりが遅い第3の特性によって前記第2の楽音信号を合成する過程(ステップSP12)と、前記第3の判定過程が肯定的であったことを条件として、前記第1の特性よりも立上がりが遅く前記第3の特性よりも立上がりが早い第4の特性によって前記第2の楽音信号を合成する過程(ステップSP14)とを有することを特徴とする。
また、請求項3記載の構成にあっては、請求項1または2の何れかに記載の方法を実行することを特徴とする。
また、請求項4記載の構成にあっては、請求項1または2の何れかに記載の方法を実行するプログラムを記憶したことを特徴とする。
【0010】
【発明の実施の形態】
1.実施形態の構成
次に、本発明の一実施形態の電子弦楽器のハードウエア構成を図1を参照し説明する。
図において2は通信インタフェースであり、インターネット等の外部ネットワークを介してSMFファイル(Standard MIDI File)や波形データ等のやりとりを行う。4は入力操作子であり、電子弦楽器の各種設定を行う。6は演奏操作子であり、鍵盤およびピッチベンドホイール等によって構成されている。8はディスプレイであり、ユーザに対して各種情報を表示する。10はCPUであり、ROM12に格納されたプログラムに基づいて、バス16を介して他の各部を制御する。14はRAMであり、CPU10によって読み書きされる。18はドライブ装置であり、CD−ROM、MO等の記憶媒体20の読み書きを行う。
【0011】
22は波形取込インタフェースであり、外部から入力されたアナログ波形をサンプリングし、デジタル波形データに変換した後、バス16を介して出力する。24はMIDIインタフェースであり、外部のMIDI機器との間でMIDI信号の入出力を行う。26は音源であり、CPU10から供給された制御信号に基づいて楽音信号を合成する。合成された楽音信号は、サウンドシステム28を介して発音される。なお、音源26の方式は、物理モデル音源、FM音源、波形メモリ音源等、任意の方式を採用することができる。
【0012】
2.実施形態の動作
次に、本実施形態の動作を説明する。
まず、本実施形態において演奏操作子6の操作イベントが発生すると、その旨がCPU10によって検出され、音源26に対して適切なイベント処理が行われる。例えば、演奏操作子6においてキーオンイベントが発生すると、音源26において対応する発音チャンネルが確保され、現在選択されている音色や鍵のベロシティ等に基づいて該発音チャンネルのパラメータが設定され、該発音チャンネルに対してノートオンイベント(発音開始指示)が音源26に供給される。また、演奏操作子6においてキーオフイベントが発生すると、該発音チャンネルに対してノートオフイベント(消音処理指示)が供給される。なお、音源26の発音チャンネル数には限界があるため、発音チャンネル数が不足する場合には、キーオフイベントが発生していない場合であっても音量レベルの低い発音チャンネルが強制的にノートオフされる。
【0013】
2.1.タイプ1発音処理(通常の発音処理)
但し、上述した処理は弦楽器以外の音色が選択されている場合であって、弦楽器の音色が選択されていた場合には、演奏操作子6のキーオンイベントに対して図2に示す処理が実行される。図において処理がステップSP2に進むと、音源26において発音中の他の発音チャンネル(ここで「発音チャンネル」とは、新たに発生したキーオンイベントに係る音色と同一音色の発音チャンネルに限る。以下同)が存在するか否かが判定される。ここで「NO」と判定されると、処理はステップSP8に進み、タイプ1発音処理が実行される。このタイプ1発音処理においては、新たに発生されたキーオンイベントに基づいて、所定の音量エンベロープ特性が施された弦楽器音が合成される。
【0014】
このように、本実施形態においては、新たなキーオンイベントに着目した時、そのキーオンイベント以前の全てのキーオンイベントに対する発音チャンネルがノートオフされていれば「スラーではない」と判定され、タイプ1発音処理が実行される。一方、ノートオフされていない発音チャンネルが1つでも存在すれば、新たなキーオンイベントはスラー奏法であると判定され、以下のタイプ2発音処理〜タイプ4発音処理の何れかが実行されることになる。
【0015】
2.2.タイプ2発音処理(移弦を伴うスラー奏法の発音処理)
さて、発音中の他の発音チャンネルが存在する場合はステップSP2において「YES」と判定され、処理はステップSP4に進む。ここでは、当該他の発音チャンネルのうち、新たに生じたキーオンイベントと同一音域の発音チャンネルが存在するか否かが判定される。ここで「NO」と判定されると、処理はステップSP10に進み、タイプ2発音処理が実行される。なお、「音域」は、模擬対象となる弦楽器の各弦の音域に応じて、例えば以下のように設定される。
G弦:G2〜C#3
D弦:D3〜G#3
A弦:A3〜D#4
E弦:E3〜
【0016】
タイプ2発音処理においては、新たなキーオンイベントに対して、新たな発音チャンネルが割り当てられる。なお、この新たな発音チャンネルをCH2とし、既に発音中の発音チャンネルをCH1とする。そして、発音チャンネルCH2において合成される楽音信号は、上記タイプ1発音処理において発生される楽音信号に対して、図3(1-a)および(2-a)に各々示すような音量およびカットオフ周波数のエンベロープ特性を付与したものに等しい。このようなエンベロープを施す理由は、上記鍵操作は「2つの弦を同一のボーイングストロークで弾いた」と解釈することが妥当であると考えられるため、後に発音される発音チャンネルCH2の立上がりを遅くすることによってアタックを弱め、さらにアタック部分の音色を柔らかくしたものである。
【0017】
2.3.タイプ3発音処理(移弦を伴わず音高が上方向に変化するスラー奏法の発音処理)
また、発音中の発音チャンネルCH1の音高と新たに生じたキーオンイベントの音高とが同一音域に属する場合はステップSP4において「YES」と判定され、処理はステップSP6に進む。ここでは、音高の変化は下方向であるか否かが判定される。音高の変化が上方向であればここで「NO」と判定され、処理はステップSP12に進み、タイプ3発音処理が実行される。
【0018】
タイプ3発音処理においては、新たなキーオンイベントに対して、新たな発音チャンネルCH2が割り当てられる。そして、発音中の発音チャンネルCH1に対しては、図3(2−a)に示すように消音処理(フェードアウト)が行われる。また、発音チャンネルCH2において合成される楽音信号は、上記タイプ1発音処理において発生される楽音信号に対して、図3(2−b)および(2−c)に各々示すような音量およびカットオフ周波数のエンベロープ特性を付与したものに等しい。ここで図3(1−b)と図3(2−c)とを比較すると、図3(2−c)の方がカットオフ周波数の立上がりが遅くなっている。
【0019】
このようなエンベロープを施す理由は、演奏者が弦の張力による反発を受けながら弦を押える状況を発音チャンネルCH2においてシミュレートするためであり、アタック部においてカットオフ周波数を大幅に下げることにより、立上がり時の音色を特に柔らかくしたものである。なお、図3(2−b)に示す音量エンベロープは図3(1−a)のエンベロープと比較して大差は無いが、発音チャンネルCH2の高域部分が大幅にカットされることにより、結果的に音量の立上がりも遅くなる。
【0020】
2.4.タイプ4発音処理(移弦を伴わず音高が下方向に変化するスラー奏法の発音処理)
一方、音高の変化が下方向であれば、ステップSP6において「YES」と判定され、処理はステップSP16に進み、タイプ4発音処理が実行される。タイプ4発音処理においては、新たなキーオンイベントに対して、新たな発音チャンネルCH2が割り当てられる。そして、発音中の発音チャンネルCH1に対しては、図3(3−a)に示すように消音処理(フェードアウト)が行われる。また、発音チャンネルCH2において合成される楽音信号は、上記タイプ1発音処理において発生される楽音信号に対して、図3(3−b)および(3−c)に各々示すような音量およびカットオフ周波数のエンベロープ特性を付与したものに等しい。ここで図3(1−a),(1−b)と図3(2−b),(2−c)とを比較すると、発音チャンネルCH2の立上がり特性はタイプ2発音処理の場合とほぼ同等であることが解る。
【0021】
このようなエンベロープを施す理由は、演奏者の第1および第2の指で弦が予め押えられており、第1の指を離すことによって第2の指に係る第2の音高が発生する状況を発音チャンネルCH2においてシミュレートするためである。すなわち、第1の指は弦の張力によって弦から離れる方向に付勢されるため、音高は比較的短時間のうちに第1の音高から第2の音高に遷移する。このために発音チャンネルCH2の立上がりをタイプ3発音処理の場合と比較して早めたものである。
【0022】
3.変形例
本発明は上述した実施形態に限定されるものではなく、例えば以下のように種々の変形が可能である。
(1)上記実施形態は電子擦弦楽器上で動作するソフトウエアによって本発明を実現した例を示したが、汎用パーソナルコンピュータ上で動作するソフトウエアによって構成してもよい。その場合、このソフトウエアをCD−ROM、フロッピーディスク等の記録媒体に格納して頒布し、あるいは伝送路を通じて頒布することもできる。
【0023】
(2)上記実施形態においては、スラー奏法が検出された時(ステップSP2において「YES」と判定された時)、移弦を伴う場合(ステップSP10のタイプ2発音処理)と、移弦を伴わない場合(ステップSP12,SP14のタイプ3,4発音処理)とで処理方法を分けた。しかし、ステップSP4,SP10の処理を削除し、ステップSP2において「YES」と判定された時に直ちにステップSP6を実行することによって、タイプ3,4発音処理のうち何れかを選択するようにしてもよい。この変形例によれば、自然弦楽器において移弦が発生する箇所においても移弦が無いような楽音信号が得られることになる。
【0024】
(3)また、上記実施形態においては、自然弦楽器の各弦の音域に応じてステップSP4における音域を判定したが、音域は必ずしも自然弦楽器に合致させなくてもよい。例えば、演奏操作子6のキーボードにおいて、「0〜127」の範囲の音高が指定できるのであれば、「0〜31」、「32〜63」、「64〜95」、「96〜127」の4領域を音域にしてもよい。さらに、値のオン/オフを指定できる操作子によって、移弦の有無を演奏者が指定できるようにしてもよい。
【0025】
【発明の効果】
以上説明したように本発明によれば、音高が低い方向に変化する場合は立上がりを早め、音高が高い方向に変化する場合は立上がりを遅くしたから、音高の変化方向に応じて最適な楽音信号を合成することが可能である。
【図面の簡単な説明】
【図1】 本発明の一実施形態の電子弦楽器のブロック図である。
【図2】 上記実施形態の制御プログラムのフローチャートである。
【図3】 タイプ2〜4発音処理における音量エンベロープおよびカットオフ周波数の立上がり特性図である。
【符号の説明】
2……通信インタフェース、4……入力操作子、6……演奏操作子、8……ディスプレイ、10……CPU、12……ROM、14……RAM、16……バス、18……ドライブ装置、20……記憶媒体、22……波形取込インタフェース、24……MIDIインタフェース、26……音源、28……サウンドシステム。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a musical sound signal synthesizing method, a musical sound signal synthesizing apparatus, and a recording medium used for an apparatus for generating musical sounds, such as an electronic musical instrument and an amusement device. The present invention relates to a signal synthesis method, a musical sound signal synthesis apparatus, and a recording medium.
[0002]
[Prior art]
In an electronic musical instrument or the like that synthesizes a stringed instrument sound, a musical instrument that simulates a natural stringed instrument may be used as a performance operator. However, when synthesizing stringed instrument sounds, it is required to use the keyboard, which is the most common performance operator, and how the keyboard simulates performance operations and pronunciation modes peculiar to stringed instruments. In this case, how to associate the keyboard operation with the performance operation of the natural stringed instrument becomes an important problem.
[0003]
In particular, when a key-on event of a first key occurs in a keyboard and a key-on event of a second key occurs before the key-off event of the first key occurs, a method for interpreting this key operation is disclosed in Patent No. No. 2,969,861. Here, the simulated natural stringed instrument generally has a plurality of strings, and each string has a different sound range. Therefore, in the technique disclosed in the above publication, it is determined whether or not the pitches of the first and second keys (hereinafter referred to as the first and second pitches) belong to a common string range.
[0004]
Generally, when a key-on event is detected on the keyboard, a new sound channel is assigned to the key-on event and sound generation is started. However, if it is determined that “belongs to the common string range” in the above case, a new tone generation channel is not assigned to the key-on event of the second key. In such a case, the tone generation channel related to the first key is faded out, the pitch of the tone generation channel is changed to the pitch of the second key, and then the tone generation channel is faded in. In the natural stringed instrument, an operation for performing a slur performance method for changing the pitch by sliding the pressed position on the common string is associated with the operation of the keyboard.
[0005]
That is, when such an operation is performed on a natural stringed instrument, the first and second pitches cannot be pronounced at the same time. Therefore, the first and second pitches are also pronounced simultaneously on an electronic stringed instrument. This is to prevent this. On the other hand, when it is determined that the first and second pitches do not belong to the common string range, a new tone generation channel is assigned to the key-on event of the second key, Is controlled independently. As a result, a period in which the musical tones having the first and second pitches are simultaneously generated is generated. This is because even in a natural stringed instrument, a plurality of strings may sound simultaneously.
[0006]
[Problems to be solved by the invention]
However, according to a study by the present inventor, when performing a slur performance in a natural stringed instrument, it has been found that the performance state and the tone generation state differ depending on the direction in which the first and second pitches change. did.
First, considering the case where the direction of change is upward, that is, the second pitch is higher than the first pitch, the performer first starts with the first pitch to vibrate the string at the first pitch. Hold the string with your finger and vibrate the string. Next, a portion of the string that vibrates at the first pitch, that is, the middle of the portion from the first finger to the bridge is pressed with another finger (second finger) to generate the second pitch. It will be. At that time, the performer presses the string while receiving the repulsion due to the tension of the string on the second finger, so that it takes a relatively long time for the pitch to completely transition from the first pitch to the second pitch. Cost.
[0007]
On the other hand, when the direction of change is downward, that is, when the second pitch is lower than the first pitch, the portion of the string that does not vibrate at the first pitch, that is, from the first finger to the nut. A second pitch is produced by pressing the middle of the portion with the second finger and then releasing the first finger from the string. At that time, since the first finger is urged away from the string by the tension of the string, the pitch changes from the first pitch to the second pitch within a relatively short time.
[0008]
However, conventional electronic musical instruments and the like have not been known to control musical tone signals based on the difference in performance state, and there has been a problem that unnaturalness remains in musical sounds. The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a musical tone signal synthesis method, a musical tone signal synthesis apparatus, and a recording medium capable of synthesizing an optimal musical tone signal in accordance with the direction of change in pitch. .
[0009]
[Means for Solving the Problems]
In order to solve the above problems, the present invention is characterized by having the following configuration. The parentheses are examples.
According to the first aspect of the present invention, a process of receiving the first event information specifying the first pitch, and a second of specifying the second pitch after receiving the first event information. Receiving the event information, comparing step (step SP6) comparing the first and second pitches, and if the second pitch is lower than the first pitch in the comparing step In the case of determination, in the process of synthesizing the musical sound signal related to the second event information according to the first characteristic (FIG. 3 (3-a) to (3-c)) (step SP14), and in the comparison process When it is determined that the second pitch is higher than the first pitch, the second characteristic (FIGS. 3 (2-a) to (2-c) shown in FIG. )) To synthesize a musical sound signal related to the second event information (step SP12). And features.
According to a second aspect of the present invention, the process of receiving the first event information specifying the first pitch and the process of synthesizing the first musical sound signal based on the first event information. (Step SP8), a process of receiving the second event information designating the second pitch after receiving the first event information, and whether or not the first musical sound signal is sounding. On the condition that the determination result of the first determination process (step SP2) to be determined and the determination result of the first determination process is negative, the second musical sound related to the second event information according to the first characteristic Whether the first and second pitches are both included in a predetermined range on condition that the signal synthesis process (step SP8) and the determination result of the first determination process are affirmative A second determination process for determining whether or not (step S 4) and on the condition that the second determination process is negative, the process of synthesizing the second musical sound signal by the second characteristic that rises slower than the first characteristic (step SP10). And a third determination process for determining whether or not the second pitch is lower than the first pitch on the condition that the determination result of the second determination process is affirmative ( Step SP6) and on the condition that the third determination process is negative, the process of synthesizing the second musical sound signal by the third characteristic that rises later than the second characteristic (Step SP12) ), And the fourth characteristic that rises slower than the first characteristic and rises earlier than the third characteristic on the condition that the third determination process is affirmative. The process of synthesizing the signal (step S It characterized by having a 14) and.
Further, the configuration according to claim 3 is characterized in that the method according to claim 1 or 2 is executed.
According to a fourth aspect of the present invention, a program for executing the method according to the first or second aspect is stored.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
1. Configuration of Embodiment Next, a hardware configuration of an electronic stringed instrument according to an embodiment of the present invention will be described with reference to FIG.
In the figure, reference numeral 2 denotes a communication interface, which exchanges SMF files (Standard MIDI File), waveform data, and the like via an external network such as the Internet. Reference numeral 4 denotes an input operator that performs various settings of the electronic stringed instrument. Reference numeral 6 denotes a performance operator, which includes a keyboard and a pitch bend wheel. Reference numeral 8 denotes a display that displays various information to the user. Reference numeral 10 denotes a CPU, which controls other units via the bus 16 based on a program stored in the ROM 12. Reference numeral 14 denotes a RAM which is read and written by the CPU 10. Reference numeral 18 denotes a drive device that reads from and writes to a storage medium 20 such as a CD-ROM or MO.
[0011]
A waveform capture interface 22 samples an analog waveform input from the outside, converts it into digital waveform data, and outputs the digital waveform data via the bus 16. Reference numeral 24 denotes a MIDI interface for inputting / outputting MIDI signals to / from an external MIDI device. A sound source 26 synthesizes a musical sound signal based on a control signal supplied from the CPU 10. The synthesized musical tone signal is generated through the sound system 28. Note that the sound source 26 may employ any method such as a physical model sound source, an FM sound source, or a waveform memory sound source.
[0012]
2. Operation of Embodiment Next, the operation of this embodiment will be described.
First, when an operation event of the performance operator 6 occurs in this embodiment, the CPU 10 detects that event and performs appropriate event processing on the sound source 26. For example, when a key-on event occurs in the performance operator 6, a corresponding tone generation channel is secured in the sound source 26, and parameters of the tone generation channel are set based on the currently selected tone color, key velocity, and the like. In response to this, a note-on event (pronunciation start instruction) is supplied to the sound source 26. Further, when a key-off event occurs in the performance operator 6, a note-off event (silence processing instruction) is supplied to the sound generation channel. Since the number of sound generation channels of the sound source 26 is limited, if the number of sound generation channels is insufficient, the sound generation channel having a low volume level is forcibly note-off even when the key-off event has not occurred. The
[0013]
2.1. Type 1 pronunciation process (normal pronunciation process)
However, the processing described above is performed when a tone other than the stringed instrument is selected, and when the tone of the stringed instrument is selected, the processing shown in FIG. 2 is executed for the key-on event of the performance operator 6. The In the figure, when the process proceeds to step SP2, the other sound generation channels (sound generation channels here) that are sounding in the sound source 26 are limited to sound generation channels having the same timbre as the timbre related to the newly generated key-on event. ) Exists. If "NO" is determined here, the process proceeds to step SP8, and the type 1 sound generation process is executed. In this type 1 sound generation process, a stringed instrument sound having a predetermined volume envelope characteristic is synthesized based on a newly generated key-on event.
[0014]
As described above, in the present embodiment, when attention is paid to a new key-on event, if the sound channel for all the key-on events before the key-on event is note-off, it is determined as “not slur” and type 1 sounding is performed. Processing is executed. On the other hand, if there is even one sounding channel that is not note-off, it is determined that the new key-on event is a slur performance, and any of the following type 2 sounding process to type 4 sounding process is executed. Become.
[0015]
2.2. Type 2 pronunciation process (pronunciation process of slur technique with string shift)
If there is another sounding channel that is sounding, it is determined as “YES” in step SP2, and the process proceeds to step SP4. Here, it is determined whether or not there is a tone generation channel having the same range as that of the newly generated key-on event among the other tone generation channels. If "NO" is determined here, the process proceeds to step SP10, and the type 2 sound generation process is executed. The “sound range” is set as follows, for example, according to the range of each string of the stringed musical instrument to be simulated.
G string: G2-C # 3
D string: D3-G # 3
A string: A3-D # 4
E string: E3
[0016]
In the type 2 sound generation process, a new sound generation channel is assigned to a new key-on event. It is assumed that the new sound channel is CH2, and the sound channel that is already sounding is CH1. The tone signal synthesized in the tone generation channel CH2 is compared with the tone signal generated in the type 1 tone generation process as shown in FIGS. 3 (1-a) and (2-a). Equivalent to the frequency envelope characteristics. The reason for applying such an envelope is that it is considered appropriate to interpret the above key operation as “two strings played with the same bowing stroke”, so that the rise of the sounding channel CH2 to be sounded later is delayed. By doing so, the attack is weakened and the sound of the attack part is softened.
[0017]
2.3. Type 3 sound generation processing (sounding processing of slur performance with pitch changing upward without string shift)
On the other hand, if the pitch of the sound generation channel CH1 being sounded and the pitch of the newly generated key-on event belong to the same range, “YES” is determined in step SP4, and the process proceeds to step SP6. Here, it is determined whether or not the pitch change is downward. If the change in pitch is upward, it is determined “NO” here, the process proceeds to step SP12, and the type 3 sound generation process is executed.
[0018]
In the type 3 sound generation process, a new sound generation channel CH2 is assigned to a new key-on event. And, as shown in FIG. 3 (2-a), a mute process (fade out) is performed on the sound generation channel CH1 during sound generation. Further, the tone signal synthesized in the tone generation channel CH2 is compared with the tone signal generated in the type 1 tone generation process, as shown in FIGS. 3 (2-b) and (2-c). Equivalent to the frequency envelope characteristics. Here, comparing FIG. 3 (1-b) with FIG. 3 (2-c), the rise of the cutoff frequency is slower in FIG. 3 (2-c).
[0019]
The reason for applying such an envelope is to simulate the situation in which the performer presses the string while receiving repulsion due to the tension of the string in the sound generation channel CH2, and it rises by greatly reducing the cut-off frequency in the attack part. The tone of time is particularly soft. The volume envelope shown in FIG. 3 (2-b) is not much different from that of FIG. 3 (1-a), but the result is that the high frequency part of the sound generation channel CH2 is significantly cut. In addition, the volume rises slowly.
[0020]
2.4. Type 4 sounding process (slurry sounding process in which the pitch changes downward without string shift)
On the other hand, if the change in pitch is downward, “YES” is determined in step SP6, the process proceeds to step SP16, and the type 4 sound generation process is executed. In the type 4 sound generation process, a new sound generation channel CH2 is assigned to a new key-on event. And, as shown in FIG. 3 (3-a), a mute process (fade out) is performed on the sound generation channel CH1 during sound generation. Further, the tone signal synthesized in the tone generation channel CH2 is compared with the tone signal generated in the type 1 tone generation process, as shown in FIGS. 3 (3-b) and (3-c). Equivalent to the frequency envelope characteristics. Here, comparing FIG. 3 (1-a) and (1-b) with FIG. 3 (2-b) and (2-c), the rising characteristics of the sound channel CH 2 are almost the same as those in the type 2 sound processing. It turns out that it is.
[0021]
The reason for applying such an envelope is that the strings are previously pressed by the first and second fingers of the performer, and the second pitch associated with the second finger is generated by releasing the first finger. This is for simulating the situation in the sound generation channel CH2. That is, since the first finger is urged away from the string by the tension of the string, the pitch changes from the first pitch to the second pitch within a relatively short time. For this reason, the rise of the sound channel CH2 is advanced compared to the case of the type 3 sound process.
[0022]
3. Modifications The present invention is not limited to the above-described embodiments, and various modifications can be made as follows, for example.
(1) Although the above embodiment shows an example in which the present invention is realized by software that operates on an electronic bowed instrument, it may be configured by software that operates on a general-purpose personal computer. In this case, the software can be stored in a recording medium such as a CD-ROM or a floppy disk and distributed, or can be distributed through a transmission path.
[0023]
(2) In the above embodiment, when a slur playing technique is detected (when it is determined “YES” in step SP2), when a string is transferred (type 2 sounding process of step SP10), a string is transferred. The processing method was divided according to the case where there was no sound (types 3 and 4 sound generation processing in steps SP12 and SP14). However, the processing in steps SP4 and SP10 may be deleted, and when the determination at step SP2 is “YES”, step SP6 is immediately executed to select either type 3 or 4 sound generation processing. . According to this modification, a musical sound signal without a shift can be obtained even at a position where a shift occurs in a natural stringed instrument.
[0024]
(3) In the above embodiment, the sound range in step SP4 is determined in accordance with the sound range of each string of the natural stringed instrument, but the sound range does not necessarily match the natural stringed instrument. For example, if the pitch of the range of “0 to 127” can be specified on the keyboard of the performance operator 6, “0 to 31”, “32 to 63”, “64 to 95”, “96 to 127”. These four regions may be used as sound ranges. Furthermore, the player may be able to specify the presence or absence of string transfer by an operator that can specify whether the value is on or off.
[0025]
【The invention's effect】
As described above, according to the present invention, when the pitch changes in a low direction, the rise is accelerated, and when the pitch changes in a high direction, the rise is delayed. It is possible to synthesize a simple tone signal.
[Brief description of the drawings]
FIG. 1 is a block diagram of an electronic stringed musical instrument according to an embodiment of the present invention.
FIG. 2 is a flowchart of a control program according to the embodiment.
FIG. 3 is a rising characteristic diagram of a volume envelope and a cut-off frequency in type 2-4 sound generation processing;
[Explanation of symbols]
2 ... Communication interface, 4 ... Input operator, 6 ... Performance operator, 8 ... Display, 10 ... CPU, 12 ... ROM, 14 ... RAM, 16 ... Bus, 18 ... Drive device 20 …… Storage medium, 22 …… Waveform capture interface, 24 …… MIDI interface, 26 …… Sound source, 28 …… Sound system.

Claims (4)

第1の音高を指定する第1のイベント情報を受信する過程と、
前記第1のイベント情報を受信した後に第2の音高を指定する第2のイベント情報を受信する過程と、
前記第1および第2の音高を比較する比較過程と、
前記比較過程において前記第2の音高が前記第1の音高よりも低いと判定された場合に、第1の特性によって前記第2のイベント情報に係る楽音信号を合成する過程と、
前記比較過程において前記第2の音高が前記第1の音高よりも高いと判定された場合に、前記第1の特性よりも立上がりが遅い第2の特性によって前記第2のイベント情報に係る楽音信号を合成する過程と
を有することを特徴とする楽音信号合成方法。
Receiving a first event information specifying a first pitch;
Receiving second event information specifying a second pitch after receiving the first event information;
A comparison process of comparing the first and second pitches;
A step of synthesizing a musical tone signal related to the second event information according to a first characteristic when the second pitch is determined to be lower than the first pitch in the comparison step;
When it is determined that the second pitch is higher than the first pitch in the comparison process, the second event information is related to the second event information by a second characteristic that rises later than the first characteristic. A method for synthesizing a musical sound signal, comprising the step of synthesizing a musical sound signal.
第1の音高を指定する第1のイベント情報を受信する過程と、
前記第1のイベント情報に基づいて第1の楽音信号を合成する過程と、
前記第1のイベント情報を受信した後に第2の音高を指定する第2のイベント情報を受信する過程と、
前記第1の楽音信号が発音中であるか否かを判定する第1の判定過程と、
前記第1の判定過程の判定結果が否定的であったことを条件として、第1の特性によって前記第2のイベント情報に係る第2の楽音信号を合成する過程と、
前記第1の判定過程の判定結果が肯定的であったことを条件として、前記第1および第2の音高が共に所定の範囲に含まれているか否かを判定する第2の判定過程と、
前記第2の判定過程が否定的であったことを条件として、前記第1の特性よりも立上がりが遅い第2の特性によって前記第2の楽音信号を合成する過程と、
前記第2の判定過程の判定結果が肯定的であったことを条件として、前記第1の音高よりも前記第2の音高が低いか否かを判定する第3の判定過程と、
前記第3の判定過程が否定的であったことを条件として、前記第2の特性よりも立上がりが遅い第3の特性によって前記第2の楽音信号を合成する過程と、
前記第3の判定過程が肯定的であったことを条件として、前記第1の特性よりも立上がりが遅く前記第3の特性よりも立上がりが早い第4の特性によって前記第2の楽音信号を合成する過程と
を有することを特徴とする楽音信号合成方法。
Receiving a first event information specifying a first pitch;
Synthesizing a first musical sound signal based on the first event information;
Receiving second event information specifying a second pitch after receiving the first event information;
A first determination process for determining whether or not the first musical sound signal is sounding;
A step of synthesizing a second musical sound signal related to the second event information according to a first characteristic, on condition that the determination result of the first determination step is negative;
A second determination process for determining whether or not both of the first and second pitches are included in a predetermined range on the condition that the determination result of the first determination process is affirmative; ,
A step of synthesizing the second musical sound signal with a second characteristic that rises slower than the first characteristic on condition that the second determination process is negative;
A third determination process for determining whether or not the second pitch is lower than the first pitch on the condition that the determination result of the second determination process is affirmative;
A step of synthesizing the second musical sound signal with a third characteristic that rises later than the second characteristic on condition that the third determination process is negative;
On condition that the third determination process is positive, the second musical sound signal is synthesized by the fourth characteristic that is slower in rise than the first characteristic and earlier in rise than the third characteristic. And a process for synthesizing a musical sound signal.
請求項1または2の何れかに記載の方法を実行することを特徴とする楽音信号合成装置。3. A musical sound signal synthesis apparatus, wherein the method according to claim 1 is executed. 請求項1または2の何れかに記載の方法を実行するプログラムを記憶したことを特徴とする記録媒体。A recording medium storing a program for executing the method according to claim 1.
JP2000342963A 2000-11-10 2000-11-10 Music signal synthesis method, music signal synthesis apparatus and recording medium Expired - Fee Related JP3719129B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000342963A JP3719129B2 (en) 2000-11-10 2000-11-10 Music signal synthesis method, music signal synthesis apparatus and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000342963A JP3719129B2 (en) 2000-11-10 2000-11-10 Music signal synthesis method, music signal synthesis apparatus and recording medium

Publications (2)

Publication Number Publication Date
JP2002149159A JP2002149159A (en) 2002-05-24
JP3719129B2 true JP3719129B2 (en) 2005-11-24

Family

ID=18817409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000342963A Expired - Fee Related JP3719129B2 (en) 2000-11-10 2000-11-10 Music signal synthesis method, music signal synthesis apparatus and recording medium

Country Status (1)

Country Link
JP (1) JP3719129B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4525201B2 (en) * 2004-06-22 2010-08-18 ブラザー工業株式会社 SINGING SOUND SYNTHESIS DEVICE AND SINGING SOUND SYNTHESIS METHOD
JP2009037022A (en) * 2007-08-02 2009-02-19 Roland Corp Electronic musical instrument
JP6930144B2 (en) 2017-03-09 2021-09-01 カシオ計算機株式会社 Electronic musical instruments, musical tone generation methods and programs

Also Published As

Publication number Publication date
JP2002149159A (en) 2002-05-24

Similar Documents

Publication Publication Date Title
US6191349B1 (en) Musical instrument digital interface with speech capability
JP4107107B2 (en) Keyboard instrument
US7432435B2 (en) Tone synthesis apparatus and method
US7816599B2 (en) Tone synthesis apparatus and method
JP4561636B2 (en) Musical sound synthesizer and program
JP3915807B2 (en) Automatic performance determination device and program
JPH10214083A (en) Musical sound generating method and storage medium
JP5897805B2 (en) Music control device
JP4407473B2 (en) Performance method determining device and program
JP3719129B2 (en) Music signal synthesis method, music signal synthesis apparatus and recording medium
JP3812510B2 (en) Performance data processing method and tone signal synthesis method
JP4802947B2 (en) Performance method determining device and program
JP3613062B2 (en) Musical sound data creation method and storage medium
JP2002297139A (en) Playing data modification processor
JP4186855B2 (en) Musical sound control device and program
JP3812509B2 (en) Performance data processing method and tone signal synthesis method
JP4218566B2 (en) Musical sound control device and program
JP3692954B2 (en) Music data editing program, music data editing method and apparatus
JPH03282592A (en) Automatic music player
JP3407563B2 (en) Automatic performance device and automatic performance method
JPH10171475A (en) Karaoke (accompaniment to recorded music) device
JP3434403B2 (en) Automatic accompaniment device for electronic musical instruments
EP1017039B1 (en) Musical instrument digital interface with speech capability
JP2009216772A (en) Automatic music playing device and program
JP2006133464A (en) Device and program of determining way of playing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050829

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090916

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100916

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100916

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110916

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120916

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130916

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees